Feature

Μπορούν τα εργαλεία τεχνητής νοημοσύνης να ακολουθήσουν τα δημοσιογραφικά πρότυπα;

Μέχρι στιγμής, τα αποτελέσματα είναι ασαφή.

Αυτό το άρθρο δημοσιεύθηκε αρχικά στις 26/6/2025 από το Columbia Journalism Review (CJR). Μεταφράστηκε στα ελληνικά από το iMEdD και αναδημοσιεύεται κατόπιν άδειας. Διαβάστε το πρωτότυπο άρθρο εδώ. Η αναδημοσίευσή του απαιτεί άδεια από τον εκδότη.

Μετάφραση: Εβίτα Λύκου
Κεντρική εικόνα: EPA/Mast Irham

Θεματα

Ερευνώντας την Τεχνητή Νοημοσύνη: τι βρίσκεται πέρα από τον αλγόριθμο

Η Τεχνητή Νοημοσύνη αποτελεί πλέον αναπόσπαστο κομμάτι της καθημερινότητάς μας, όμως το πραγματικό κόστος το πληρώνουν κάποιοι άλλοι. Στο συνέδριο Dataharvest, δημοσιογράφοι παρουσίασαν τις έρευνές τους και μοιράστηκαν συμβουλές για το πώς μπορεί κανείς να ερευνήσει σε βάθος αυτήν την τεχνολογία.

Οι εταιρείες τεχνολογίας υπόσχονται ότι τα εργαλεία τεχνητής νοημοσύνης (AI tools) είναι σε θέση να προσφέρουν περισσότερα αποτελέσματα με λιγότερους πόρους – και ίσως έτσι μπορούν να βοηθήσουν τους δημοσιογραφικούς οργανισμούς να επιβιώσουν από τη μείωση των συνδρομητών και την «εξάτμιση» των διαφημιστικών εσόδων. Σίγουρα, η τεχνητή νοημοσύνη χρησιμοποιείται αποτελεσματικά από ορισμένους δημοσιογράφους για να επεξεργαστούν αριθμούς με αστραπιαία ταχύτητα και να δώσουν νόημα σε τεράστιες βάσεις δεδομένων. Αυτό είναι ένα μεγάλο πλεονέκτημα, το οποίο έχει συμβάλει στην παραγωγή βραβευμένων έργων προς το δημόσιο συμφέρον.  

Ωστόσο, περισσότερο από δύο χρόνια μετά τη δημόσια κυκλοφορία των μεγάλων γλωσσικών μοντέλων (LLM), η επαγγελία ότι η αγορά των μέσων μαζικής ενημέρωσης θα επωφελούνταν από την τεχνητή νοημοσύνη φαίνεται απίθανο να επαληθευτεί, τουλάχιστον όχι εξ ολοκλήρου.  

Τα εργαλεία δημιουργικής τεχνητής νοημοσύνης (generative AI) βασίζονται στις εταιρείες μέσων ενημέρωσης που τα τροφοδοτούν με ακριβείς και επικαιροποιημένες πληροφορίες. Ταυτόχρονα, τα προϊόντα τεχνητής νοημοσύνης εξελίσσονται περίπου σε ανταγωνιστές των αιθουσών σύνταξης, και μάλιστα ιδιαίτερα προβληματικούς: οικονομικά εύρωστα, μαζικά και ενίοτε αδίστακτα. 

Αποφασίσαμε να ερευνήσουμε περιπτώσεις κειμένων που παράγονται με τεχνητή νοημοσύνη στη βιομηχανία ειδήσεων με κριτήριο τη δεοντολογία. Μπορούν τα εργαλεία τεχνητής νοημοσύνης να ανταποκριθούν στα πρότυπα του παραδοσιακού ρεπορτάζ και της δημοσίευσης; Η έρευνά μας διαπιστώνει αρκετές πρόσφατες περιπτώσεις στις οποίες τα εργαλεία τεχνητής νοημοσύνης δεν κατάφεραν να σταθούν στο ύψος των περιστάσεων.  

Ένα από τα κύρια προβλήματα με τα κείμενα που παράγονται από την τεχνητή νοημοσύνη είναι ότι κανένα από τα πιο διαδεδομένα μοντέλα λογισμικού τεχνητής νοημοσύνης –συμπεριλαμβανομένων των ChatGPT της OpenAI, Gemini της Google, Copilot της Microsoft και Meta AI της Meta– δεν είναι σε θέση να παραθέσει αξιόπιστα και με ακρίβεια τις πηγές του. Τα εργαλεία αυτά συχνά «φαντάζονται» συγγραφείς και τίτλους ή παραθέτουν πραγματικούς συγγραφείς και βιβλία αλλά με το περιεχόμενο των αποσπασμάτων να είναι επινοημένο. Επίσης, το λογισμικό αποτυγχάνει να δώσει πλήρεις παραπομπές, αντιγράφοντας ενίοτε κείμενο από δημοσιευμένες πηγές χωρίς αναφορά. Αυτό καθιστά τους ειδησεογραφικούς οργανισμούς ευάλωτους σε κατηγορίες για λογοκλοπή. 

Πέρυσι, το Forbes κατήγγειλε το εργαλείο τεχνητής νοημοσύνης Perplexity για το γεγονός ότι ενσωμάτωσε άρθρο του για τον διευθύνοντα σύμβουλο της Google, Έρικ Σμιντ (Eric Schmidt), και το μετέτρεψε σε «συνθετικά» άρθρο, podcast και βίντεο, χωρίς καμία αναφορά στο Μέσο. Το λυπηρό είναι ότι στο YouTube, το βίντεο του Perplexity ξεπέρασε σε επισκέψεις την αρχική δημοσίευση του Forbes. Όταν ο διευθύνων σύμβουλος της Perplexity, Άραβιντ Σρίνιβας (Aravind Srinivas), κλήθηκε από τον Τζον Πατσκόφσκι (John Paczkowski) του Forbes να απαντήσει σχετικά με το θέμα στο X, απέδωσε το περιστατικό στις «ατέλειες» του εργαλείου. 

Σε ένα άρθρο του Wired, με τίτλο «Perplexity Plagiarized Our Story About How Perplexity Is a Bullshit Machine» (Το Perplexity αντέγραψε το θέμα μας για το πώς το Perplexity είναι μια μαλακία), που δημοσιεύθηκε επίσης πέρυσι, οι Τιμ Μάρτσμαν (Tim Marchman) και Ντρουβ Μεχροτρά (Dhruv Mehrotra) περιέγραψαν πώς καθοδήγησαν το Perplexity να συνοψίσει ένα πρόσφατο θέμα που είχαν δημοσιεύσει. Οι Μάρτσμαν και Μεχροτρά διαπίστωσαν ότι στην απάντησή του, το Perplexity αναπαρήγαγε ακριβώς μία από τις προτάσεις τους, σαν να είχε γράψει τις λέξεις –μια ενέργεια που τους φάνηκε ως λογοκλοπή. Οι νομικοί με τους οποίους μίλησαν οι Μάρτσμαν και Μεχροτρά διχάστηκαν σχετικά με το αν η πρόταση που παρατέθηκε μπορεί να θεωρηθεί εσκεμμένη παραβίαση των δικαιωμάτων πνευματικής ιδιοκτησίας, αλλά υπήρχαν και άλλα προβλήματα: φαίνεται πως οι ανιχνευτές δεδομένων τεχνητής νοημοσύνης (AI data crawlers) της Perplexity είχαν παρακάμψει τους αποκλεισμούς τεχνητής νοημοσύνης, που είχε εγκαταστήσει το Wired, για να αποτρέψει τη χρήση του περιεχομένου του.  

Το κατά πόσον αυτός ο τύπος παραγωγής δημιουργικής τεχνητής νοημοσύνης θεωρείται νομικά λογοκλοπή και παραβίαση πνευματικών δικαιωμάτων –και, επομένως, το κατά πόσον οι δημοσιογραφικοί οργανισμοί θα πρέπει να αποζημιώνονται για την ενσωμάτωση του έργου τους από εργαλεία δημιουργικής τεχνητής νοημοσύνης– θα καθοριστεί πιθανότατα από διάφορες επερχόμενες αγωγές.  

Οι New York Times, το Κέντρο Ερευνητικής Δημοσιογραφίας (Center for Investigative Reporting –το οποίο εποπτεύει τα Mother Jones και Reveal), η Intercept Media και οκτώ δημοσιογραφικοί οργανισμοί που ανήκουν στην Alden Global Capital έχουν καταθέσει αγωγές κατηγορώντας την OpenAI και τη Microsoft ότι παραβιάζουν τους νόμους περί πνευματικών δικαιωμάτων με την ενσωμάτωση του περιεχομένου τους. Στην αγωγή των Times, που κατατέθηκε στη Νότια Περιφέρεια της Νέας Υόρκης τον Δεκέμβριο του 2023, ο οργανισμός κατηγορεί την OpenAI ότι προσπαθεί «να εκμεταλλευτεί την τεράστια επένδυση των Times στη δημοσιογραφία, χρησιμοποιώντας τη για την κατασκευή υποκατάστατων προϊόντων, χωρίς άδεια ή χρηματική αποζημίωση». 

Το δικόγραφο των Times περιλαμβάνει αρκετές σελίδες με παραδείγματα στα οποία το ChatGPT της OpenAI αντέγραφε κείμενο από τα αρχεία τους και το αναπαρήγαγε αυτολεξεί για τους χρήστες.  

Μια πιθανή –και ανησυχητική– έκβαση όλων αυτών είναι ότι τα εργαλεία δημιουργικής τεχνητής νοημοσύνης θα εξαφανίσουν τους δημοσιογραφικούς οργανισμούς, μειώνοντας, κατά τραγική ειρωνεία, το περιεχόμενο, που είναι διαθέσιμο για την εκπαίδευση των εργαλείων τεχνητής νοημοσύνης.  

Ορισμένες επιχειρήσεις ΜΜΕ, συμπεριλαμβανομένων των The Atlantic, Vox Media, FT Group, Associated Press και News Corp, έχουν συνάψει συμφωνίες με εταιρείες τεχνητής νοημοσύνης για την παραχώρηση αδειών χρήσης τμήματος του περιεχομένου τους. Αξίζει να σημειωθεί ότι τον Μάιο του 2025, οι Times υπέγραψαν συμφωνία αδειοδότησης τεχνητής νοημοσύνης με την Amazon, η οποία επιτρέπει στην εταιρεία τεχνολογίας να χρησιμοποιεί το περιεχόμενο του οργανισμού σε όλες τις πλατφόρμες της. 

Οι δημοσιογράφοι και οι εκδότες αντιμετωπίζουν αυτές τις συμφωνίες με μεγάλη επιφύλαξη. Μία εβδομάδα πριν η The Atlantic ανακοινώσει τη συμφωνία της με την OpenAI, η Τζέσικα Λέσιν (Jessica Lessin), διευθύνουσα σύμβουλος του τεχνολογικού μέσου ενημέρωσης, The Information, έκρουσε τον κώδωνα του κινδύνου για αυτό που εκείνη θεωρεί ως μια φαουστική συμφωνία με τις εταιρείες τεχνητής νοημοσύνης. 

Οι εταιρείες τεχνολογίας «προσπαθούν να απορροφήσουν όλο το κοινό (και την εμπιστοσύνη) που συγκεντρώνει η καλή δημοσιογραφία, χωρίς ποτέ να χρειαστεί να επιτελέσουν την περίπλοκη και δαπανηρή εργασία της ίδιας της δημοσιογραφίας. Και ποτέ, μα ποτέ δεν δουλεύει όπως είχε προβλεφθεί» έγραψε η Λέσιν. 

Τα αποτελέσματα της δημιουργικής τεχνητής νοημοσύνης είναι τόσο καλά όσο είναι και το υλικό με το οποίο εκπαιδεύονται αυτά τα συστήματα. Χωρίς έναν αξιόπιστο τρόπο διάκρισης μεταξύ δεδομένων υψηλής και χαμηλής ποιότητας, το αποτέλεσμα συχνά επηρεάζεται αρνητικά. Τον Μάιο του 2024, η Google παρουσίασε το AI Overview, ένα εργαλείο που προορίζεται να υποκαταστήσει τα αποτελέσματα των αναζητήσεων. Ωστόσο, αυτό σύντομα αποδείχθηκε προβληματικό. Η τεχνητή νοημοσύνη –που φαίνεται να αναπαρήγαγε ένα thread του Reddit που δημιουργήθηκε πριν από δώδεκα χρόνια– έφτιαξε μια συνταγή για πίτσα που περιείχε ένα όγδοο του φλιτζανιού χαρτόκολλα Elmer’s. Σε άλλο ερώτημα σχετικά με το πόσες πέτρες πρέπει να τρώει κανείς ημερησίως, το AI Overview απάντησε «τουλάχιστον μία μικρή πέτρα την ημέρα», προφανώς αντλώντας τις πληροφορίες του από ένα άρθρο του Onion

Τέτοια λάθη κάνουν αυτά τα εργαλεία πολλών δισεκατομμυρίων δολαρίων να μοιάζουν ανίκανα να χρησιμοποιήσουν ακόμη και τη στοιχειώδη κοινή λογική.  

Τα εργαλεία τεχνητής νοημοσύνης περιλαμβάνουν επίσης προκαταλήψεις που δεν είναι τόσο εύκολα ορατές. Ο Εμίλιο Φεράρα (Emilio Ferrara), καθηγητής στο Πανεπιστήμιο της Νότιας Καλιφόρνια και επικεφαλής ερευνητικής ομάδας στο Ινστιτούτο Επιστημών Πληροφορίας του USC, διαπίστωσε προκαταλήψεις στα δεδομένα που χρησιμοποιούνται κατά την εκπαίδευση της δημιουργικής τεχνητής νοημοσύνης, στις διαδικασίες μάθησης, στην υποδομή του εργαλείου ή κατά τη χρήση του. Ορισμένες από αυτές τις προκαταλήψεις εκφράζονται έμμεσα στην επιλογή κειμένων δεδομένων εκπαίδευσης που περιέχουν υπαρκτές πολιτισμικές προκαταλήψεις, στους τύπους των δεδομένων που συλλέγονται και μέσω της προκατάληψης επιβεβαίωσης –στον τρόπο με τον οποίο μια τεχνητής νοημοσύνης εκπαιδεύεται ώστε να παράγει αποτελέσματα. Πιο συγκεκριμένα, ένα μοντέλο μπορεί επίσης να παράγει στερεότυπα. 

Τα μοντέλα δημιουργικής τεχνητής νοημοσύνης «μπορούν ακούσια να μάθουν και να διαιωνίσουν τις προκαταλήψεις που υπάρχουν στα δεδομένα εκπαίδευσής τους, ακόμη και αν τα δεδομένα έχουν φιλτραριστεί και καθαριστεί στο μέτρο του δυνατού», διαπίστωσε ο Φεράρα. Τελικά, αυτά τα μεγάλα γλωσσικά μοντέλα αντανακλούν τις προκαταλήψεις των ανθρώπων που προγραμματίζουν τους αλγορίθμους τους και το πολύπλοκο οικοσύστημα των χρηστών και των δημιουργών του διαδικτύου –καθώς και, μερικές φορές, την περιορισμένη διαθεσιμότητα περιεχομένου για κάποιο θέμα, το οποίο έχει συνταχθεί από μια συγκεκριμένη ομάδα ή σε μια συγκεκριμένη γλώσσα. 

Η μεροληψία αποτυπώνεται πιο έντονα στα εργαλεία δημιουργικής τεχνητής νοημοσύνης που εστιάζουν στην εικόνα, τα οποία παράγουν σταθερά προβληματικά αποτελέσματα για μη λευκά και μη αρσενικά άτομα. Οι προσπάθειες διόρθωσης αυτών των προκαταλήψεων είναι μέχρι στιγμής, στην καλύτερη περίπτωση, αδέξιες, όπως όταν ζητήθηκε από το Gemini της Google να παράξει μια εικόνα Γερμανού στρατιώτη του 1943 και δημιούργησε σχέδια Ασιατών και μαύρων Ναζί. Ή όταν οι εντολές για την απεικόνιση των Ιδρυτών Πατέρων (Founding Fathers) των ΗΠΑ οδήγησαν σε εικόνες ανθρώπων με πολλαπλές εθνοτικές καταβολές. 

Ορισμένες φορές, η προκατάληψη μοιάζει σχεδόν σατιρική. Η εταιρεία αυτοματοποιημένων ειδήσεων Hoodline διαχειρίζεται μια ομάδα υπερ-τοπικών (hyperlocal) ιστότοπων που βασίζονται κυρίως στη ροή τοπικών ειδήσεων, που παράγεται με τεχνητή νοημοσύνη και τη χρησιμοποιεί για τη δημιουργία περσόνων εικονικών δημοσιογράφων, ανάλογα με την τοποθεσία. Αφήνοντας κατά μέρος τον δυστοπικό εφιάλτη του επιχειρηματικού μοντέλου, τα ονόματα που παρήγαγε η τεχνητή νοημοσύνη για τις περσόνες της αντανακλούσαν στερεότυπα για τις κοινότητες που προορίζονταν να εκπροσωπήσουν. Οι «δημοσιογράφοι» της Βοστώνης είχαν στερεοτυπικά ιρλανδικά ονόματα όπως «Γουίλ Ο’Μπράιαν» και «Σαμ Κάβανα», ενώ οι συνεργάτες του Σαν Φρανσίσκο που δημιουργήθηκαν από την τεχνητή νοημοσύνη έλαβαν ονόματα που αντικατοπτρίζουν την ποικιλομορφία της πόλης, όπως «Λετίσια Ρουίζ», «Τόνι Ινγκ» και «Έρικ Τανάκα», αναφέρει το Nieman Labs σε σχετικό άρθρο.  

Και έπειτα υπάρχουν οι προκαταλήψεις από την πλευρά των χρηστών: κυρίως, η έλλειψη κατανόησης των περιορισμών της τεχνητής νοημοσύνης.  

Η προφανής ευκολία που προσφέρει η διάθεση μεγάλων γλωσσικών μοντέλων στους καταναλωτές, οι οποίοι θα βασίζονται αποκλειστικά σε αυτές τις πληροφορίες, είναι «αρκετά ανησυχητική», δήλωσε ο Μαρκ Λάβαλι (Mark Lavallee), διευθυντής τεχνολογίας, προϊόντων και στρατηγικής του Knight Center. «Εάν θέσεις μια ερώτηση με έναν συγκεκριμένο τρόπο, θα απαντήσει με έναν συγκεκριμένο τρόπο»

Σχεδόν όλοι συμφωνούν ότι η εποπτική παρουσία ενός ανθρώπου στη διαδικασία – επιβλέποντας κάθε χρήση παραγωγικής τεχνητής νοημοσύνης, ώστε να παρακολουθεί για τυχόν αστοχίες– είναι βασικός παράγοντας της ηθικής χρήσης της τεχνητής νοημοσύνης. Δεν είναι, όμως, σαφές πώς θα γίνει αυτό στην πράξη. Εάν ένας δημοσιογράφος χρησιμοποιήσει ένα εργαλείο τεχνητής νοημοσύνης για να αναλύσει 50 σελίδες εγγράφων, για παράδειγμα, θα πρέπει ο δημοσιογράφος, στη συνέχεια, να ελέγξει όλα τα έγγραφα, για να διασφαλίσει ότι η σύνθεση είναι ακριβής και αμερόληπτη; Εάν το εμπορικό τμήμα μιας εταιρείας συνάψει μια συμφωνία για περιεχόμενο που υποστηρίζεται αποκλειστικά από την τεχνητή νοημοσύνη, ποιος ελέγχει το αποτέλεσμα; 

Ίσως κανείς δεν γνωρίζει την πρόκληση καλύτερα από το Sports Illustrated. Στα τέλη του 2023, ο τεχνολογικός ιστότοπος Futurism παρατήρησε ότι ορισμένα από τα θέματα του Sports Illustrated ήταν γραμμένα από ανθρώπους που δεν υπήρχαν. Ένας ψεύτικος συντάκτης, ο Ντρου Όρτιζ, είχε ένα βιογραφικό που ισχυριζόταν ότι «μεγάλωσε σε ένα αγροτόσπιτο, περιτριγυρισμένο από δάση, χωράφια και ένα ρυάκι». Η φωτογραφία του προφίλ του ήταν μια εικόνα που είχε δημιουργηθεί με τεχνητή νοημοσύνη και ήταν διαθέσιμη σε έναν ιστότοπο με την ονομασία Generated Photos.  

Όταν το Futurism ρώτησε το περιοδικό για τους καταφανώς ψεύτικους συντάκτες, η εταιρεία διέγραψε αμέσως όλο το περιεχόμενο που σχετιζόταν με αυτές τις υπογραφές. Σε δήλωσή του προς το Futurism, το Sports Illustrated αποκάλυψε ότι το περιεχόμενο είχε παραχθεί από μια εταιρεία που ονομάζεται AdVon, η οποία αυτοπροσδιορίζεται ως «πλατφόρμα ψηφιακού εμπορίου, η οποία αναπτύσσει αξιόπιστες λύσεις τεχνητής νοημοσύνης και περιεχομένου, βελτιστοποιημένες για μηχανές αναζήτησης (SEO) και επικεντρωμένες στον χρήστη».  

Το Sports Illustrated δήλωσε πως είχε λάβει τη διαβεβαίωση από την AdVon ότι «όλα τα εν λόγω άρθρα είχαν γραφτεί από ανθρώπους και τα είχαν επιμεληθεί άνθρωποι. Σύμφωνα με την AdVon, οι συντάκτες, επιμελητές και ερευνητές τους δημιουργούν και επιμελούνται το περιεχόμενο και ακολουθούν μια πολιτική που περιλαμβάνει τη χρήση λογισμικού κατά της λογοκλοπής και της τεχνητής νοημοσύνης σε όλο το περιεχόμενο». Η AdVon ισχυρίστηκε ότι οι ψεύτικες φωτογραφίες και τα βιογραφικά ήταν «για την προστασία της ιδιωτικής ζωής των συντακτών», μια τακτική που το SI έσπευσε να ξεκαθαρίσει ότι δεν επιδοκιμάζει. 

Η «ρομποτική γραφή» σε ορισμένες από τις αναρτήσεις προκάλεσε αρνητικές εντυπώσεις. Σε έναν από τους οδηγούς αγορών του για «μπάλες του βόλεϊ πλήρους μεγέθους» ο Όρτιζ εξηγεί αδέξια: «Ακόμα και άνθρωποι που δεν παρακολουθούν αθλήματα μπορούν εύκολα να καταλάβουν την ένταση και τις δεξιότητες που απαιτούνται για να παίξει κανείς βόλεϊ, όποτε παρακολουθούν αποσπάσματα». 

Σε μια συνάντηση όλων των εργαζομένων την επομένη της δημοσίευσης του άρθρου του Futurism, τα στελέχη του Sports Illustrated ενημέρωσαν το προσωπικό τους ότι είχαν τερματίσει τη συνεργασία τους με την AdVon. (Εν τω μεταξύ, η μητρική εταιρεία του Sports Illustrated, Arena Group, αμφισβήτησε δημοσίως τον ισχυρισμό ότι είχε δημοσιεύσει προϊόν τεχνητής νοημοσύνης.) Η ζημιά είχε ήδη γίνει. Το Sports Illustrated, ένα από τα παλαιότερα και κάποτε πιο έγκριτα αθλητικά έντυπα, έχασε μεγάλο μέρος της αξιοπιστίας του τόσο απέναντι στο προσωπικό του όσο και στους αναγνώστες. 

«Μαζί με τις βασικές αρχές της ειλικρίνειας, της εμπιστοσύνης, της δημοσιογραφικής δεοντολογίας κ.λπ., λαμβάνω σοβαρά υπόψη μου το βάρος μιας υπογραφής στο Sports Illustrated. Σήμαινε κάτι για μένα πολύ πριν ονειρευτώ καν να δουλέψω εδώ. Αυτό το ρεπορτάζ ήταν τρομακτικό όταν το διάβαζες» έγραψε η Έμα Μπατσελιέρι (Emma Baccellieri) στο X, σχολιάζοντας το ρεπορτάζ του Futurism.  

Δύο μήνες αργότερα, αφού ο εκδότης του Sports Illustrated ανακοίνωσε ότι το περιοδικό παρουσίαζε «σημαντικά χρέη», η Μπατσελιέρι και σχεδόν όλοι οι συνάδελφοί της απολύθηκαν. Οι περισσότεροι, συμπεριλαμβανομένης της Μπατσελιέρι, σύντομα επαναπροσλήφθηκαν από τον νέο εκδότη του Sports Illustrated

Ο Σον ΜακΓκρέγκορ (Sean McGregor), ιδρυτής του Ινστιτούτου Έρευνας Ψηφιακής Ασφάλειας και μέλος της Σύμπραξης για την Τεχνητή Νοημοσύνη, παρομοιάζει τη χρήση της τεχνητής νοημοσύνης από τις εταιρείες και τις εφημερίδες με την εμπειρία της οδήγησης ενός αυτοοδηγούμενου αυτοκινήτου. Όσο οι άνθρωποι συνηθίζουν την τεχνολογία, τόσο περισσότερο εξοικειώνονται με τους εγγενείς κινδύνους της.  

«Υπάρχει μια τάση οπουδήποτε εισάγεται η αυτοματοποίηση –η οποία, ξέρετε, είναι ένα σπουδαίο εργαλείο, που ενισχύει τον άνθρωπο– και στη συνέχεια φτάνει σε ένα σημείο επαρκούς απόδοσης… όπου δεν έχεις πλέον την ικανότητα, εξαιτίας του τρόπου που λειτουργεί ο εγκέφαλός μας, να προσέχεις και να προφυλάσσεις το σύστημα», είπε.  

Οι περισσότεροι καταναλωτές δεν αισθάνονται ακόμη άνετα με το «πάντρεμα» της τεχνητής νοημοσύνης με την παραγωγή ειδήσεων. Το 2023, ο Μπέντζαμιν Τοφ (Benjamin Toff) από το Πανεπιστήμιο της Μινεσότα και ο Φέλιξ Μ. Σάιμον (Felix M. Simon) από το Ινστιτούτο Διαδικτύου του Πανεπιστημίου της Οξφόρδης διεξήγαγαν έρευνα στην οποία συμμετείχαν 1.483 άτομα σχετικά με τη στάση τους απέναντι στην τεχνητή νοημοσύνη. Η έρευνά τους διαπίστωσε ότι πάνω από το 80% πιστεύει πως οι ειδησεογραφικοί οργανισμοί θα πρέπει να «προειδοποιούν τους αναγνώστες ή τους θεατές ότι χρησιμοποιήθηκε τεχνητή νοημοσύνη». Μεταξύ των ατόμων που πίστευαν ότι οι καταναλωτές θα πρέπει να προειδοποιούνται, το 78% δήλωσε ότι οι ειδησεογραφικοί οργανισμοί θα πρέπει «να παρέχουν ένα επεξηγηματικό σημείωμα που να περιγράφει πώς χρησιμοποιήθηκε η τεχνητή νοημοσύνη». 

Η τεχνητή νοημοσύνη έχει τη δυνατότητα να βοηθήσει τους δημοσιογράφους να κάνουν τη δουλειά τους πιο αποτελεσματικά. Αν χρησιμοποιηθεί με σύνεση, μπορεί να αποτελέσει ένα θαυμάσιο δημοσιογραφικό εργαλείο. Αλλά, αναμφισβήτητα, έχει επίσης τη δυνατότητα να παραπληροφορεί, να κάνει λάθος στις παραπομπές και να κατασκευάζει πληροφορίες. Ο ρόλος των δημοσιογράφων είναι να αποκαλύπτουν την παραπλάνηση και την παραπληροφόρηση, αλλά η τεχνητή νοημοσύνη, παρ’ όλες τις υποσχέσεις της, καθιστά ακριβώς αυτό εκθετικά πιο δύσκολο για τους δημοσιογράφους –και τους απλούς πολίτες. Θα συμβουλεύαμε τις αίθουσες σύνταξης και τους δημοσιογράφους να είναι προσεκτικοί, αλλά ίσως να είναι ήδη πολύ αργά γι’ αυτό. 


Η Τζούλι Γκέρσταϊν (Julie Gerstein) και η Μάργκαρετ Σάλιβαν (Margaret Sullivan) είναι συνεργάτιδες του Columbia Journalism Review (CJR). Η Τζούλι Γκέρσταϊν είναι ερευνήτρια στο Craig Newmark Center for Journalism Ethics and Security του Πανεπιστημίου Κολούμπια. Είναι πρώην διευθύντρια σύνταξης του Business Insider. Έχει διατελέσει επικεφαλής του γραφείου του BI στη Σιγκαπούρη και υπήρξε συντάκτρια του BuzzFeed. Η Μάργκαρετ Σάλιβαν είναι διευθύνουσα σύμβουλος του Craig Newmark Center for Journalism Ethics and Security στη Σχολή Δημοσιογραφίας του Κολούμπια. Αρθρογραφεί σε εβδομαδιαία βάση στο The Guardian US και δημοσιεύει το ενημερωτικό δελτίο American Crisis στο Substack. Έχει διατελέσει αρχισυντάκτρια της εφημερίδας Buffalo News, αρχισυντάκτρια των New York Times και αρθρογράφος της Washington Post για τα Μέσα ενημέρωσης.