Ειδηση

AI και το μέλλον των ειδήσεων: Τα βασικά σημεία από το συνέδριο του RISJ 

Πώς μπορεί να χρησιμοποιηθεί η τεχνητή νοημοσύνη στην ερευνητική δημοσιογραφία και στο fact-checking; Πώς (δεν) καλύπτουν οι δημοσιογράφοι την τεχνητή νοημοσύνη; Αυτά ήταν μερικά από τα ερωτήματα που εξετάστηκαν στο φετινό συνέδριο «AI and the Future of News», που διοργάνωσε το Reuters Institute for the Study of Journalism στις 17 Μαρτίου, με μια σειρά συζητήσεων πάνελ, διαθέσιμες και διαδικτυακά.

Ρεπορτάζ για την τεχνητή νοημοσύνη χωρίς φόβο

Όσον αφορά την κάλυψη της τεχνητής νοημοσύνης, η εξειδικευμένη ορολογία και τα «αφηγήματα των μεγάλων τεχνολογικών εταιρειών» μπορεί να είναι αποθαρρυντικά για δημοσιογράφους που δεν είναι ειδικοί, ανέφεραν η Νίαμ ΜακΙντάιρ (Niamh McIntyre) από το Bureau of Investigative Journalism και η Τζοάνα Κάο (Joanna Kao) του Pulitzer Center. Η επικοινωνία με άλλους δημοσιογράφους και ειδικούς μπορεί να βοηθήσει τους ρεπόρτερ να αποκωδικοποιήσουν την τεχνητή νοημοσύνη.

Η έλλειψη δημόσιας πληροφόρησης αφήνει ορισμένα θέματα για την τεχνητή νοημοσύνη στο σκοτάδι, ανέφερε η ΜακΙντάιρ. Για να αντιμετωπιστεί αυτό, οι δημοσιογράφοι μπορούν να στραφούν σε πηγές που ενδέχεται να είναι πιο πρόθυμες να μιλήσουν, όπως οι χαμηλότερα αμειβόμενοι εργαζόμενοι σε τεχνολογικές εταιρείες, πρόσθεσε. Η περαιτέρω διερεύνηση των ισχυρισμών διάφορων ανθρώπων μπορεί, επίσης, να αποκαλύψει νέα θέματα, σύμφωνα με την Κάο.

Έρευνα με τεχνητή νοημοσύνη, αλλά πάντα με επαλήθευση

Η τεχνητή νοημοσύνη υποστηρίζει τις έρευνες μικρότερων, περιορισμένων σε πόρους συντακτικών ομάδων, για παράδειγμα μέσω της ανάλυσης δεδομένων, επεσήμανε η Ελφρέντα Κέβιν-Αλερέτσι (Elfredah Kevin-Alerechi) από το Colonist Report. Ωστόσο, η επαλήθευση είναι απαραίτητη, προειδοποίησε, σημείο το οποίο επναέλαβαν ο Ράιαν ΜακΝιλ (Ryan McNeill) του Reuters και ο Σόντρε Ούλβουντ Σόλσταντ (Sondre Ulvund Solstad) από τον Economist, κατά τη διάρκεια συζήτησης για το vibe-coding.

Επειδή τα αποτελέσματα της τεχνητής νοημοσύνης βασίζονται στα δεδομένα με τα οποία έχει εκπαιδευτεί, η έλλειψη αξιόπιστων δεδομένων, για παράδειγμα σε αγροτικές περιοχές, αποτελεί σημαντική πρόκληση, σημείωσε η Αλερέτσι. «Γι’ αυτό, λέω στους δημοσιογράφους ότι η τεχνητή νοημοσύνη δεν μπορεί να σας πάρει τη δουλειά – γιατί μπορείτε να πάτε στο πεδίο», είπε, επισημαίνοντας τις ευκαιρίες που δημιουργούν αυτά τα κενά δεδομένων για τους ρεπόρτερ.

Η τεχνητή νοημοσύνη ως εργαλείο fact-checking

Παρά τον ρόλο της στη διάδοση της παραπληροφόρησης, η τεχνητή νοημοσύνη αποτελεί, επίσης, ένα ισχυρό εργαλείο fact-checking. Οργανισμοί fact-checking, όπως το Maldita και το Full Fact, χρησιμοποιούν Μεγάλα Γλωσσικά Μοντέλα (Large Language Models, LLMs) για τον εντοπισμό και την κατηγοριοποίηση ισχυρισμών. Για τον έλεγχο των εκλογών του Ηνωμένου Βασιλείου το 2024, το Full Fact χρησιμοποίησε το LLM BERT της Google Research, το οποίο έχει εκπαιδευτεί πάνω σε εκατομμύρια προτάσεις σε περισσότερες από 100 γλώσσες, για να φιλτράρει ισχυρισμούς βάσει θέματος και λέξεων-κλειδιών προκειμένου να εντοπίζει τους πιο σημαντικούς προς επαλήθευση ισχυρισμούς. Παράλληλα, το Aos Fatos αναπτύσσει το «Busca Fatos», ένα εργαλείο newsroom για τη διεξαγωγή fact-checking σε ζωντανή κάλυψη.

Η προσέγγιση του Guardian για την τεχνητή νοημοσύνη

Η εκπαίδευση γύρω από την τεχνητή νοημοσύνη και τους περιορισμούς της είναι υποχρεωτική για τους δημοσιογράφους του Guardian, οι οποίοι χρησιμοποιούν την τεχνητή νοημοσύνη για την επιμέλεια των σελίδων θεματικών ενοτήτων (tag pages) του μέσου και για την υποστήριξη πολύπλοκων ερευνών, όπως αυτή που εξετάζει 100 χρόνια αντιμεταναστευτικής ρητορικής στο Βρετανικό Κοινοβούλιο χρησιμοποιώντας LLMs, ανέφερε ο Κρις Μόραν (Chris Moran) του Guardian. Το μέσο παραμένει επιφυλακτικό όσον αφορά την ανάπτυξη chatbots, όπως αυτά που χρησιμοποιούν οι FT και Washington Post, λόγω ζητημάτων ακρίβειας και λογοδοσίας, πρόσθεσε ο Moran.