Θεματα

Η γλώσσα της τεχνητής νοημοσύνης: Πώς αποκλίνει από την ανθρώπινη γραφή και τι επιπτώσεις έχει;

Τρεις ειδικοί μιλούν για τα σημάδια χρήσης της παραγωγικής τεχνητής νοημοσύνης (GenAI), τον αντίκτυπό της στη γλώσσα και τις επιπτώσεις για τη δημοσιογραφία.

Αυτό το άρθρο δημοσιεύθηκε αρχικά από το Reuters Institute στις 9/12/2025 και αναδημοσιεύεται από το iMEdD με την άδειά του. Οποιαδήποτε άδεια αναδημοσίευσης υπόκειται στον αρχικό εκδότη. Διαβάστε τον αρχικό άρθρο εδώ


Κεντρική εικόνα: Yasmine Boudiaf & LOTI, https://betterimagesofai.org. Διαθέσιμη με άδεια χρήσης CC BY 4.0.
Μετάφραση: Ανατολή Σταυρουλοπούλου

«Delve» (εμβαθύνω), «intricate» (περίπλοκος), «underscore» (υπογραμμίζω), «commendable» (αξιέπαινος). Λέξεις που εμφανίζονται ολοένα και συχνότερα στα αγγλικά και που ίσως αναγνωρίζετε ως σήμα κατατεθέν του τρόπου γραφής του ChatGPT.

Τα τελευταία δύο χρόνια όλο και περισσότεροι καταλαβαίνουν ότι ένα κείμενο είναι πιθανό να έχει συνταχθεί με χρήση τεχνητής νοημοσύνης, λόγω συγκεκριμένων μοτίβων που την «προδίδουν». Πρόκειται για λέξεις που μέχρι πρότινος ήταν σπάνιες, οι οποίες έχουν καταλήξει να γίνονται κλισέ, καθώς και τυποποιημένες δομές προτάσεων που επαναλαμβάνονται μέσα σε ένα κείμενο.

Για κάποιους χρήστες στα μέσα κοινωνικής δικτύωσης η αναγνώριση της χρήσης τεχνητής νοημοσύνης έχει μετατραπεί σε παιχνίδι. Στη Μεγάλη Βρετανία, βουλευτές και πολιτικοί συντάκτες έχουν παρατηρήσει πρόσφατα ότι όλο και περισσότερες κοινοβουλευτικές ομιλίες ξεκινούν με τη φράση «I rise to speak» (παίρνω τον λόγο), κάτι που μερικοί αποδίδουν στη χρήση του ChatGPT για τη σύνταξή τους. Χρήστες εφαρμογών γνωριμιών αναρωτιούνται αν τα προφίλ που διαβάζουν είναι γραμμένα με ΤΝ. Σχολιαστές επισημαίνουν διαφοροποιήσεις στη στίξη ως ένδειξη τεχνητής γραφής, εξοργίζοντας τους θιασώτες της χρήσης της παύλας (—) και τους θαυμαστές της Έμιλι Ντίκινσον που έκανε συστηματική χρήση της στα ποιήματά της κατά τον 19ο αιώνα.

Πολλά από τα διαδικτυακά κείμενα που αντιμετωπίζουμε με καχυποψία ενδέχεται πράγματι να είναι προϊόντα τεχνητής νοημοσύνης. Ο αριθμός των εβδομαδιαίων χρηστών του ChatGPT έφτασε πρόσφατα τα 800 εκατομμύρια, ενώ το 22% των συμμετεχόντων σε πρόσφατη έρευνά μας για την παραγωγική τεχνητή νοημοσύνη και την ενημέρωση σε έξι χώρες δηλώνει ότι χρησιμοποιεί το ChatGPT σε εβδομαδιαία βάση. Σύμφωνα με δεδομένα του Common Crawl, σχεδόν τα μισά νέα άρθρα στο Διαδίκτυο συντάσσονται από μοντέλα παραγωγικής τεχνητής νοημοσύνης.

Πέρα, όμως, από τις συμβουλές, τα διάφορα κόλπα και τη διαίσθηση, υπάρχει τελικά τρόπος να καταλάβει κανείς αν κάτι έχει γραφτεί με τεχνητή νοημοσύνη; Και πώς αυτή επηρεάζει τον τρόπο που χρησιμοποιούν τη γλώσσα οι άνθρωποι; Μίλησα με δύο γλωσσολόγους και έναν δημοσιογράφο που ειδικεύεται στην τεχνητή νοημοσύνη και τον γραμματισμό στα μέσα επικοινωνίας, για να μάθω τι δείχνουν οι έρευνες, πώς επηρεάζεται η εξέλιξη της αγγλικής γλώσσας από την τεχνητή νοημοσύνη και ποιες συνέπειες μπορεί να έχει αυτό για τη δημοσιογραφία.

Η συζήτηση εστιάζει στην αγγλική γλώσσα, η οποία πρωτοστατεί στην ανάπτυξη των μεγάλων γλωσσικών μοντέλων (Large Language Models –LLM) και ταυτόχρονα αποτελεί το κύριο αντικείμενο γλωσσολογικής έρευνας για την επίδραση των LLM μέχρι σήμερα. Όσον αφορά άλλες γλώσσες, τα LLM λειτουργούν καλύτερα όταν υπάρχει μεγάλος όγκος διαθέσιμων κειμένων για εκπαίδευση, παραμερίζοντας έτσι «μικρότερες» γλώσσες, που χρησιμοποιούνται περισσότερο στον προφορικό λόγο παρά στον γραπτό και γλώσσες όπου ο γραπτός λόγος διαφέρει σημαντικά από την καθομιλουμένη.

1. Αλλάζει η τεχνητή νοημοσύνη τη γλώσσα;

«Ιδιαίτερα στον δημόσιο λόγο, τείνουμε να βγάζουμε γρήγορα συμπεράσματα, αλλά η σχέση αιτίου–αιτιατού είναι πολύ δύσκολο να αποδειχθεί», λέει ο δρ Τομ Τζούζεκ (Dr. Tom S. Juzek), επίκουρος καθηγητής υπολογιστικής γλωσσολογίας στο Πανεπιστήμιο της Φλόριντας.

Γλωσσολόγοι όπως ο Τζούζεκ προσπαθούν να βρουν στοιχεία για το πώς επηρεάζουν τη γλώσσα τα μεγάλα γλωσσικά μοντέλα. Μέχρι στιγμής η έρευνά τους δείχνει ότι το ChatGPT τείνει να χρησιμοποιεί υπερβολικά ορισμένες αγγλικές λέξεις, συχνά ημι-επίσημες ή με εταιρικό ή ακαδημαϊκό ύφος, όπως «delve» (εμβαθύνω), «resonate» (έχω αντίκτυπο), «navigate» (πλοηγούμαι/διαχειρίζομαι) και «commendable» (αξιέπαινος). Αυτές οι λέξεις εμφανίζονται όλο και πιο συχνά σε διαφόρων ειδών κείμενα, από επιστημονικά άρθρα μέχρι ειδησεογραφικά ρεπορτάζ.

Σε μελέτη που δημοσιεύθηκε τον Ιανουάριο, ο Τζούζεκ και η δρ Ζίνα Γουόρντ (Dr. Zina B. Ward), επίσης από το Πανεπιστήμιο της Φλόριντας, συνέκριναν λέξεις των οποίων η χρήση αυξήθηκε πρόσφατα (χωρίς προφανή λόγο) σε επιστημονικά κείμενα με λέξεις που χρησιμοποιεί συχνά το ChatGPT σε περιλήψεις επιστημονικών άρθρων, οι οποίες δεν εμφανίζονται τόσο συχνά σε αντίστοιχες περιλήψεις που έχουν συνταχθεί από ανθρώπους. Με αυτόν τον τρόπο εντόπισαν ένα σύνολο «λέξεων-εστίασης», η αυξημένη χρήση των οποίων στην επιστημονική αγγλική οφείλεται πιθανότατα στη χρήση του ChatGPT.

Πρέπει να τονιστεί ότι αυτό δεν σημαίνει απαραίτητα ότι οι συγγραφείς περιλήψεων που περιλαμβάνουν τη λέξη «delve» έχουν χρησιμοποιήσει το ChatGPT. Ξεχωριστές έρευνες δείχνουν ότι οι ίδιες λέξεις εμφανίζονται όλο και πιο συχνά και σε περιβάλλοντα όπου μπορούμε να είμαστε σχετικά βέβαιοι ότι δεν έχει χρησιμοποιηθεί γλώσσα παραγόμενη από LLM, όπως σε συζητήσεις σε podcast.

Έρευνα με επικεφαλής τον δρ Χιρόμου Γιακούρα (Dr. Hiromu Yakura) στο Ινστιτούτο Μαξ Πλανκ για την Ανθρώπινη Ανάπτυξη στο Βερολίνο έδειξε ότι λέξεις που χρησιμοποιούνται υπερβολικά από το ChatGPT, όπως το περίφημο «delve», καθώς και τα «comprehend» (κατανοώ), «boast» (με την έννοια του διαθέτω), «swift» (ταχύς) και «meticulous» (λεπτομερής), παρουσίασαν αύξηση στη χρήση τους σε podcast και ακαδημαϊκές ομιλίες στο YouTube μετά την κυκλοφορία του ChatGPT. Αυτό δείχνει ότι οι άνθρωποι χρησιμοποιούν πλέον αυτές τις λέξεις περισσότερο, καθώς τις συναντούν συχνά σε περιεχόμενο που έχει παραχθεί με τεχνητή νοημοσύνη.

«Αυτά τα ευρήματα υποδηλώνουν ότι οι μηχανές εκπαιδεύονται αρχικά από ανθρώπινα δεδομένα, εν συνεχεία δίνουν το δικό τους “πολιτισμικό στίγμα” και τελικά αναδιαμορφώνουν ορατά τον ανθρώπινο πολιτισμό» γράφουν οι συντάκτες.

Ένα φοιτητικό πρότζεκτ στο Πανεπιστήμιο της Φλόριντας, υπό την επίβλεψη του Τζούζεκ, εξέτασε επίσης τη συχνότητα εμφάνισης «κλισέ λέξεων» της τεχνητής νοημοσύνης σε συζητήσεις που γίνονται σε podcast και κατέληξε σε παρόμοια συμπεράσματα. Ο Τζούζεκ τόνισε, ωστόσο, ότι είναι πολύ δύσκολο να αποδειχθεί ότι η αύξηση της δημοτικότητας αυτών των λέξεων οφείλεται στην παραγωγική τεχνητή νοημοσύνη. «Είναι μια πιθανή εξήγηση», είπε, «αλλά υπάρχουν και άλλοι παράγοντες, όπως η φυσική εξέλιξη της γλώσσας».

Σε πρόσφατο άρθρο που συνέγραψε επίσης από κοινού με τη δρα Γουόρντ, ο Τζούζεκ εφάρμοσε μια διαφορετική μέθοδο, για να βρει τον συνδετικό κρίκο μεταξύ αιτίας και αιτιατού. Χρησιμοποιώντας ένα δείγμα περιλήψεων επιστημονικών άρθρων που είχαν κοπεί στη μέση, ζήτησαν από τα γλωσσικά μοντέλα Llama 3.2-3B Base και Llama 3.2-3B Instruct να παραγάγουν το δεύτερο μισό. Όταν συνέκριναν τα αποτελέσματα με τα κείμενα που έλειπαν, εντόπισαν ένα σύνολο λέξεων στις οποίες φαίνεται να έχουν προτίμηση τα LLM, με αποτέλεσμα την πρόσφατη αύξηση στη χρήση τους.

Για να αποδειχθεί αιτιώδης συνάφεια, ωστόσο, θα έπρεπε να χρησιμοποιηθεί αξιόπιστος ανιχνευτής τεχνητής νοημοσύνης ή να ερωτηθούν οι συγγραφείς εάν έκαναν χρήση, σύμφωνα με τον Τζούζεκ. Και οι δύο μέθοδοι, όμως, έχουν προβλήματα: οι ανιχνευτές τεχνητής νοημοσύνης δεν είναι απόλυτα αξιόπιστοι και δεν υπάρχει εγγύηση ότι οι άνθρωποι θα απαντήσουν με ειλικρίνεια, ειδικά σε πεδία όπου η χρήση της δεν εγκρίνεται.

Τα LLM δεν αυξάνουν απλώς τη δημοτικότητα ορισμένων λέξεων, αλλά αποφεύγουν ή διορθώνουν άλλες λέξεις ή δομές, σύμφωνα με τη δρα Καρολίνα Ρουντίτσκα (Dr Karolina Rudnicka), επίκουρη καθηγήτρια στο Τμήμα Γλωσσών του Πανεπιστημίου του Γκντανσκ της Πολωνίας. Όταν τους ζητήθηκε να αξιολογήσουν προσχέδια κειμένων, το ChatGPT και το εργαλείο γραφής Grammarly αφαίρεσαν τη φράση «in order to» (προκειμένου να), η οποία, αν και σωστή, μπορεί να αποδοθεί με λιγότερες λέξεις, χάριν συντομίας, είπε η Καρολίνα Ρουντίτσκα. Επίσης, φαίνεται πως αποφεύγουν την αργκό, τις συντμήσεις [όπως το «gonna» αντί για «going to» (σκοπεύω να) και «wanna» αντί για «want to» (θέλω να)], εκφράσεις της καθομιλουμένης και την παθητική φωνή.

Η έρευνα της Ρουντίτσκα δείχνει, επίσης, ότι διαφορετικά LLM έχουν διαφορετικά στυλ γραφής. Σύγκρινε δύο κείμενα για το ίδιο θέμα, τον διαβήτη, τα οποία είχαν παραχθεί από το ChatGPT και το Gemini αντίστοιχα, και διαπίστωσε ότι έφεραν ξεχωριστή «υπογραφή», όπως συμβαίνει με τους ανθρώπους-συγγραφείς. Το ChatGPT έχει την τάση να γράφει πιο επίσημα, ενώ το Gemini προτιμά πιο προσιτή γλώσσα. Μιλώντας για τον διαβήτη, για παράδειγμα, το ChatGPT χρησιμοποιεί τον πιο ακαδημαϊκό όρο «glucose» (γλυκόζη αίματος), ενώ το Gemini προτιμά το «blood sugar» (ζάχαρο/σάκχαρο).

2. Γιατί ορισμένες λέξεις χρησιμοποιούνται υπερβολικά από την τεχνητή νοημοσύνη; 

Αυτός ο τομέας έρευνας θέτει ένα σημαντικό ερώτημα. Εφόσον τα LLM εκπαιδεύονται με βάση κείμενα που έχουν γράψει άνθρωποι και στόχος τους είναι να μιμηθούν την ανθρώπινη συμπεριφορά, γιατί ορισμένες λέξεις εμφανίζονται με δυσανάλογη συχνότητα στο παραγόμενο αποτέλεσμα; 

Στην πιο πρόσφατη έρευνά τους, οι Τζούζεκ και Γουόρντ υποστηρίζουν ότι η εξήγηση μπορεί να κρύβεται σε από ένα από τα στάδια ανάπτυξης των LLM: την ενισχυτική μάθηση με ανθρώπινη ανατροφοδότηση (reinforcement learning from human feedback). Σε αυτό το στάδιο, ένα βασικό μοντέλο που έχει ήδη εκπαιδευτεί μέσω τροφοδότησης με μεγάλη ποσότητα δεδομένων βελτιώνεται από ανθρώπους-αξιολογητές (human annotators), οι οποίοι αξιολογούν τα αποτελέσματα που παράγει για να προβλέψουν την ποιότητα μιας απάντησης. 

Ο αξιολογητής λαμβάνει δύο πιθανά αποτελέσματα και καλείται να επιλέξει το καλύτερο επανειλημμένως. Αυτή η κακοπληρωμένη και μονότονη εργασία, όπως και η εποπτεία περιεχομένου για εταιρείες μέσων κοινωνικής δικτύωσης, συχνά ανατίθεται σε χώρες του Παγκόσμιου Νότου και μερικές φορές αποκαλείται «sweatshop data» (εργασιακή γαλέρα δεδομένων). 

Αυτό το στάδιο εκπαίδευσης της ΤΝ εξασφαλίζει την ασφαλή χρήση των LLM όπως το ChatGPT και την απουσία βωμολοχιών και προσβλητικού περιεχομένου. Ταυτόχρονα, όμως, διάφορα ρεπορτάζ δείχνουν ότι οι άνθρωποι που αναλαμβάνουν αυτή τη δουλειά είναι εξαιρετικά κακοπληρωμένοι και εκτίθενται σε βίαιο ή πορνογραφικό περιεχόμενο, κινδυνεύοντας με ψυχολογική κατάπτωση και δευτερογενές τραύμα. 

Όσον αφορά τη γλώσσα, οι Τζούζεκ και Γουόρντ υποθέτουν ότι οι αξιολογητές τείνουν να προτιμούν κάποιες λέξεις που σήμερα έχουν γίνει «μόδα» στην τεχνητή νοημοσύνη. Αυτές οι προτιμήσεις ενισχύονται κατά το στάδιο της εκπαίδευσης και τελικά μετατρέπονται σε ξεκάθαρα μοτίβα στη γλώσσα των μοντέλων. 

Οι ερευνητές προσπάθησαν να αναπαράγουν τη διαδικασία ενισχυτικής μάθησης με ανθρώπινη ανατροφοδότηση ενός βασικού μοντέλου, προσλαμβάνοντας αγγλόφωνους αξιολογητές από τον Παγκόσμιο Νότο, ώστε να μιμηθούν όσο το δυνατόν καλύτερα τη διαδικασία που ακολουθείται από τους τεχνολογικούς κολοσσούς, πληρώνοντάς τους, ωστόσο, 15 δολάρια την ώρα, αντί για δύο ή και λιγότερα. Η έρευνά τους έδειξε ότι οι αξιολογητές είχαν πράγματι προτίμηση σε λέξεις που χρησιμοποιεί συχνά η τεχνητή νοημοσύνη. 

3. Έχει σημασία εάν η παραγωγική τεχνητή νοημοσύνη αλλάζει τη γλώσσα; 

Το γεγονός ότι η γενετική τεχνητή νοημοσύνη έχει πλέον ένα αναγνωρίσιμο ύφος γραφής ανησυχεί ορισμένους παρατηρητές. Ένας από τους βασικούς φόβους είναι ο λεγόμενος «φαύλος κύκλος της ανατροφοδότησης» (the feedback loop): όσο αυξάνονται τα κείμενα που παράγονται από ΤΝ και επανεισάγονται σε νέα συστήματα, τόσο ενισχύονται οι υπάρχουσες προκαταλήψεις, με αποτέλεσμα να υποβαθμίζεται σταδιακά η ποιότητα. 

Ακόμα και αν δεν ληφθούν, όμως, υπόψη τα νέα συστήματα τεχνητής νοημοσύνης, κάποιοι φοβούνται ότι η αύξηση περιεχομένου που παράγεται από τεχνητή νοημοσύνη στο Διαδίκτυο, το οποίο επαναλαμβάνει τις ίδιες γλωσσικές προτιμήσεις, μπορεί να οδηγήσει σε ομογενοποίηση της γλώσσας. 

Μέχρι στιγμής, δεν υπάρχουν ισχυρές ενδείξεις ότι αυτό συμβαίνει, ωστόσο ο Τζούζεκ συμμερίζεται αυτήν την ανησυχία. 

«Είναι κάτι που με ανησυχεί και θεωρώ ότι πρέπει να είμαστε σε επιφυλακή για να δούμε αν όντως συμβαίνει. Δεν υπάρχουν ακόμα στοιχεία ότι η γλώσσα ομογενοποιείται, θα πρέπει να περιμένουμε να το δούμε» είπε. 

Παρόλα αυτά, η ΤΝ είναι δύσκολο να αλλάξει από μόνη της την αγγλική γλώσσα. Σύμφωνα τόσο με τη Ρουντίτσκα όσο και με τον Τζούζεκ, το πιο πιθανό είναι ότι τα LLM επιταχύνουν κάποιες αλλαγές που βρίσκονταν ήδη σε εξέλιξη. Κατά τη Ρουντίτσκα, αυτές οι αλλαγές μπορούν να συγκριθούν με μεγάλες τομές στην ιστορία της γλώσσας, όπως η εξάπλωση του μαζικού αλφαβητισμού τον 19ο αιώνα. 

Στο μεταξύ, η παραγωγική τεχνητή νοημοσύνη έχει ήδη ανατρέψει πολλές θεωρήσεις της γλωσσολογικής ανάλυσης. Οι γλωσσολόγοι, για παράδειγμα, πίστευαν μέχρι πρότινος ότι ο γραπτός λόγος αντανακλά αποκλειστικά ανθρώπινες επιλογές, κάτι που πλέον έχει πάψει να ισχύει. Γι’ αυτό και όσοι μελετούν τις επιπτώσεις της τεχνητής νοημοσύνης στη γλώσσα εστιάζουν σε συζητήσεις που γίνονται σε podcast, οι οποίες συνήθως γίνονται αυθόρμητα, χωρίς σενάριο. Αυτό συμβαίνει γιατί, πλέον, κάθε γραπτό κείμενο που συναντάμε, είναι πιθανό να έχει συνταχθεί, έστω και εν μέρει, από γλωσσικό μοντέλο. 

Ο Άλεξ Μαχαντέβαν (Alex Mahadevan) είναι δημοσιογράφος και διευθυντής του MediaWise, του προγράμματος ψηφιακού γραμματισμού του Ινστιτούτου Poynter. Παράλληλα, ηγείται του νέου Εργαστηρίου Καινοτομίας Τεχνητής Νοημοσύνης του Poynter. Δεδομένης της εμπειρίας του στην εκπαίδευση γύρω από τον γραμματισμό στα μέσα, ζήτησα τη γνώμη του για τα  «σημάδια» που υποτίθεται ότι προδίδουν τη χρήση τεχνητής νοημοσύνης. 

Ο Μαχαντέβαν δηλώνει υπέρμαχος της παύλας στον γραπτό λόγο, την οποία χρησιμοποιούσε ανέκαθεν και πλέον έχει γίνει σήμα κατατεθέν του ChatGPT. «Είναι πολύ εκνευριστικό», λέει, «γιατί, κάθε φορά που τη χρησιμοποιώ, ειδικά λόγω του συσχετισμού μου με την τεχνητή νοημοσύνη στο Poynter, φοβάμαι ότι κάποιος μπορεί να θεωρήσει ότι τη χρησιμοποιώ στα κείμενά μου». 

Η ανησυχία αυτή επηρεάζει και πολλούς δημοσιογράφους, ειδικά όσους εργάζονται σε μέσα με αυστηρούς περιορισμούς στη χρήση παραγωγικής τεχνητής νοημοσύνης. Φοβούνται ότι η επιλογή μιας συγκεκριμένης λέξης, ενός σημείου στίξης ή μιας συντακτικής δομής μπορεί να κινήσει υποψίες ότι δεν έγραψαν οι ίδιοι ένα κείμενο. 

Σύμφωνα με πρόσφατη έκθεσή μας, που βασίζεται σε έρευνα κοινού για τις στάσεις απέναντι στην παραγωγική τεχνητή νοημοσύνη και την ενημέρωση, μόνο το ένα τρίτο των ερωτηθέντων δήλωσε ότι θα ένιωθε άνετα με τη χρήση τεχνητής νοημοσύνης για τη συγγραφή ενός άρθρου. Το ποσοστό αυτό είναι αισθητά χαμηλότερο σε σύγκριση με όσους αποδέχονται τη χρήση της για ορθογραφικό έλεγχο (55%) ή για τη συγγραφή τίτλων (41%). 

Τόσο τα ευρήματα της γλωσσολογικής έρευνας όσο και οι καθιερωμένες πρακτικές του fact-checking δείχνουν ότι η υπερβολική εστίαση σε μεμονωμένα χαρακτηριστικά ενός κειμένου ως «απόδειξη» ότι γράφτηκε από τεχνητή νοημοσύνη μπορεί τελικά να είναι αντιπαραγωγική. 

Όταν υπάρχει υποψία ότι ένα κείμενο ή μια εικόνα έχει παραχθεί από τεχνητή νοημοσύνη, «πρέπει να θυμόμαστε τις βασικές αρχές του γραμματισμού στα ψηφιακά μέσα», λέει ο Μαχαντέβαν, όπως ο έλεγχος της πηγής και το κατά πόσο εμφανίζεται και αλλού το ίδιο υλικό. 

«Με ανησυχεί το γεγονός ότι προσπαθούμε μανιωδώς να βρούμε γρήγορες “συνταγές” αναγνώρισης της τεχνητής νοημοσύνης», σημειώνει ο Μαχαντέβαν, καθώς τα περισσότερα από αυτά τα σημάδια, όπως η χρήση συγκεκριμένων λέξεων, δεν αποτελούν ασφαλή απόδειξη. Άλλωστε, η τεχνολογία εξελίσσεται τόσο γρήγορα που πολλά από τα μικρά λάθη που παλαιότερα πρόδιδαν εικόνες τεχνητής νοημοσύνης έχουν πάψει να ισχύουν σήμερα. 

4. Γιατί αφορούν τους δημοσιογράφους αυτές οι αλλαγές; 

Η χρήση ορισμένων από αυτές τις λέξεις που έχουν γίνει σήμα κατατεθέν της τεχνητής νοημοσύνης έχει ήδη αρχίσει να μειώνεται. Στα πειράματα των Τζούζεκ και Γουόρντ, όπου οι συμμετέχοντες κλήθηκαν να μιμηθούν τη διαδικασία ενισχυτικής μάθησης με ανθρώπινη ανατροφοδότηση, παρατηρήθηκε ότι, παρά την προτίμησή τους σε λέξεις-κλειδιά που συνηθίζει να χρησιμοποιεί η τεχνητή νοημοσύνη, απέφυγαν τη χρήση των λέξεων «delve» (εμβαθύνω) και «nuanced» (με λεπτές αποχρώσεις / διαβαθμίσεις), ίσως επειδή αυτές οι λέξεις έχουν πλέον ταυτιστεί τόσο έντονα με το ChatGPT. 

Στη δημοσιογραφία, πάντως, αυτό που ενοχλεί περισσότερο τον Μαχαντέβαν στον τρόπο που γράφει η τεχνητή νοημοσύνη δεν είναι η στίξη ή το λεξιλόγιο, αλλά η τάση, ιδιαίτερα του ChatGPΤ, να καταφεύγει σε γενικόλογες, βαρύγδουπες και συναισθηματικά φορτισμένες διατυπώσεις. «Για παράδειγμα: “Η τεχνητή νοημοσύνη στη δημοσιογραφία δεν είναι απλώς ένα εργαλείο, είναι επανάσταση”». 

«Εάν δείξεις ένα κείμενο τεχνητής νοημοσύνης στις περισσότερες αρχισυνταξίες, θα κουνήσουν το κεφάλι με απογοήτευση. Για εμένα, αυτό που το προδίδει είναι τα πολλά λόγια χωρίς ουσία. Στη δημοσιογραφία λέμε πάντα “απόδειξέ το, μην το λες”». 

Ο Μαχαντέβαν φοβάται ότι η υπερβολική εξάρτηση από κείμενα γραμμένα με τεχνητή νοημοσύνη θα οδηγήσει σε έναν κόσμο όπου «όλα θα μοιάζουν με αναρτήσεις στο LinkedIn». 

«Εάν αρχίσουν να στηρίζονται σε αυτό οι δημοσιογράφοι, τότε οι τοπικές ειδήσεις για ένα έγκλημα θα μοιάζουν με δελτία Τύπου της αστυνομίας, τα ρεπορτάζ για το κλίμα με εταιρικές εκθέσεις για τη βιωσιμότητα και η κεντρική σελίδα κάθε ιστότοπου θα έχει το ίδιο ύφος, το οποίο τείνει παράλληλα να εξαφανίζει τις τοπικές διαλέκτους, τη γλώσσα που χρησιμοποιούν οι ακτιβιστές και τον τρόπο που μιλούν συγκεκριμένες κοινότητες. Αυτό παρεμποδίζει τη δίκαιη και την αντιπροσωπευτική ενημέρωση», πρόσθεσε. 

Το γεγονός ότι η παραγωγική τεχνητή νοημοσύνη έχει καταστήσει την καλογραμμένη, προσεγμένη γραφή προσβάσιμη σε όλους μάς αναγκάζει να αναθεωρήσουμε τους δείκτες ποιότητας σε ένα κείμενο. «Παλαιότερα», λέει, «υπήρχε μια ταύτιση μεταξύ ποιοτικής δομής και ποιοτικού περιεχομένου. Το ChatGPT έχει βάλει τέλος σε αυτό». 

Οι συνέπειες δεν περιορίζονται μόνο στη δημοσιογραφία και την ακαδημαϊκή έρευνα. Ο Μαχαντέβαν εξέφρασε ανησυχίες για τις διάφορες απάτες που κυκλοφορούν, οι οποίες παλαιότερα ήταν πιο εύκολο να εντοπιστούν, λόγω ορθογραφικών και γραμματικών λαθών στα email. Πλέον είναι πολύ πιο εύκολο να σε ξεγελάσουν. 

Ταυτόχρονα όμως, σημείωσε, η παραγωγική τεχνητή νοημοσύνη έχει δώσει ίσες ευκαιρίες σε όσους δεν έχουν ως μητρική γλώσσα την αγγλική, επιτρέποντάς τους, για παράδειγμα, να γράφουν ερευνητικά άρθρα σε μια γλώσσα που διαβάζεται παγκοσμίως και να τα μοιράζονται ευκολότερα. 

«Το γεγονός ότι κάτι έχει παραχθεί με τεχνητή νοημοσύνη δεν σημαίνει απαραίτητα ότι είναι άχρηστο», λέει ο Μαχαντέβαν. «Αλλά πρέπει να υπάρχουν κανόνες δεοντολογίας και μέτρα που να διασφαλίζουν ότι αυτό που παράγεται έχει αξία».