Η σύμβουλος και εκπαιδεύτρια στελεχών Ραμά Σάρμα μίλησε με κορυφαίες προσωπικότητες στον χώρο της τεχνητής νοημοσύνης στις αίθουσες σύνταξης, προκειμένου να προσδιορίσει τους κινδύνους και τις πιθανές λύσεις σε σχέση με την μεροληψία της τεχνητής νοημοσύνης.
Αυτό το άρθρο δημοσιεύθηκε αρχικά από το The Reuters Institute for the Study of Journalism στις 1/8/2025 και αναδημοσιεύεται από το iMEdD με την άδειά του. Οποιαδήποτε άδεια αναδημοσίευσης υπόκειται στον αρχικό εκδότη. Διαβάστε το αρχικό άρθρο εδώ.
Μετάφραση: Εβίτα Λύκου
Ο Νικ Διακόπουλος για την τεχνητή νοημοσύνη και τη δημοσιογραφία μετά το «hype»

Ο Καθηγητής Νικ Διακόπουλος μιλά στο iMEdD για τον τρόπο με τον οποίο η παραγωγική τεχνητή νοημοσύνη επηρεάζει τα newsroom και το συγκριτικό πλεονέκτημα της δημοσιογραφίας στην παραγωγή περιεχομένου. Σχολιάζει τις ανταγωνιστικές πιέσεις που δέχονται τα media στον τομέα της διανομής και θεωρεί ακόμη υπαρκτή την ευκαιρία της εμπιστοσύνης στη δημοσιογραφία.
Όταν το ChatGPT εμφανίστηκε για πρώτη φορά το 2022, οι δημοσιογραφικοί οργανισμοί ήταν επιφυλακτικοί ως προς τη χρήση του. Οι πρώτοι που το υιοθέτησαν πειραματίστηκαν, ενώ οι επικεφαλής τους επιδίδονταν σε εκτενείς συζητήσεις σχετικά με ηθικά ζητήματα, συμπεριλαμβανομένης της μεροληψίας (bias), καθώς επεξεργάζονταν τις κατευθυντήριες γραμμές τους για την τεχνητή νοημοσύνη.
Τρία χρόνια αργότερα, οι εξελίξεις ήταν ραγδαίες. Σύμφωνα με την τελευταία έρευνα της Παγκόσμιας Ένωσης Εφημερίδων και Εκδοτών (WAN-IFRA) σχετικά με την τεχνητή νοημοσύνη , το 49% των ειδησεογραφικών οργανισμών έχουν πλέον αρχίσει να χρησιμοποιούν την τεχνητή νοημοσύνη, ακόμη και αν οι μισοί εξακολουθούν να εκφράζουν ανησυχίες για τα ηθικά ζητήματα, που αυτή εγείρει.
Με βάση αυτά τα ευρήματα, απευθύνθηκα σε 18 δημοσιογράφους, κορυφαίες προσωπικότητες των Μέσων ενημέρωσης, ειδικούς σε θέματα τεχνολογίας και ακαδημαϊκούς, προκειμένου να αποκομίσω μια ευρύτερη εικόνα για τον τρόπο με τον οποίο οι αίθουσες σύνταξης χρησιμοποιούν την παραγωγική τεχνητή νοημοσύνη (generative AI). Οι απαντήσεις τους διαφοροποιήθηκαν σημαντικά και προσφέρουν μια γενική εικόνα για το πώς εξελίσσεται η αντίληψη της ειδησεογραφικής βιομηχανίας σχετικά με το θέμα αυτό.
Τι είναι η μεροληψία της τεχνητής νοημοσύνης;
Ο δρ Ματίας Χόλβιγκ (Matthias Holweg), πρωτοπόρος των προγραμμάτων τεχνητής νοημοσύνης στο Saïd Business School της Οξφόρδης, μου είπε ότι «η μεροληψία είναι μια εργοστασιακή ρύθμιση, όχι σφάλμα» σε αυτά τα εργαλεία. Με άλλα λόγια, οποιοδήποτε μοντέλο θα αντικατοπτρίζει τις προκαταλήψεις, που υπάρχουν στα δεδομένα με βάση τα οποία έχει εκπαιδευτεί. Αναφέρεται ότι το ChatGPT αντλεί περίπου το 60% του υλικού εκπαίδευσής του από περιεχόμενο του διαδικτύου, που προέρχεται από τη Wikipedia και άλλους παρόμοιους ιστότοπους, το οποίο συμπληρώνεται από ψηφιοποιημένα βιβλία και ακαδημαϊκές εργασίες.
Όταν ρώτησα το ChatGPT της OpenAI για τα δεδομένα του, μου απάντησε:
«Εκπαιδεύτηκα στο διαδίκτυο και αυτό σημαίνει ότι οι δυτικές, λευκές, ανδρικές, αγγλόφωνες φωνές κυριαρχούν. Ακόμη και η αντίληψή μου για τη συμπερίληψη συχνά αντανακλά τον τρόπο με τον οποίο αυτή έχει διαμορφωθεί σε προνομιούχα ιδρύματα. Έτσι, μολονότι μπορώ να αντικατοπτρίσω όσα έχω μάθει, μπορώ επίσης να ενισχύσω ακούσια τα ίδια τα συστήματα που επικρίνουμε».
Αν και αυτό δεν είναι μια πραγματική δήλωση εκπροσώπου της OpenAI, συνάδει με όσα μου είπε ο Χόλβιγκ: «Ένα μοντέλο που μαθαίνει από αυτές τις πηγές θα κληρονομήσει, φυσικά, και τις προκαταλήψεις τους. Είναι προκατειλημμένο εξ ορισμού λόγω των πηγών που χρησιμοποιεί».
Η «ενσωματωμένη μεροληψία» (built-in-bias) ή επαγωγική μεροληψία (inductive bias) βοηθά κάθε μοντέλο τεχνητής νοημοσύνης να μαθαίνει μοτίβα από ελλιπή δεδομένα. Ωστόσο, η «επιβλαβής μεροληψία» (harmful bias) ή «αλγοριθμική μεροληψία» (algorithmic bias) προκύπτει όταν αυτή η «ενσωματωμένη μεροληψία» μαθαίνει από δεδομένα που είναι ήδη αθέμιτα ή προκατειλημμένα. Ως εκ τούτου, η φυσική διαδικασία εκμάθησης της τεχνητής νοημοσύνης καταλήγει να αντικατοπτρίζει και να ενισχύει τις υπάρχουσες κοινωνικές προκαταλήψεις από τις πληροφορίες που της παρέχονται, οδηγώντας σε αποτελέσματα που αδικούν ορισμένα άτομα ή ομάδες.
Αυτά τα σφάλματα μπορούν να εμφανιστούν σε οποιοδήποτε στάδιο της δημιουργίας ενός μοντέλου, από τη συλλογή δεδομένων, τον σχεδιασμό του μοντέλου ή το πλαίσιο εφαρμογής.
Ρεπορτάζ σχετικά με την επιζήμια επίδραση της τεχνητής νοημοσύνης έχουν αρχίσει να εμφανίζονται εδώ και αρκετό καιρό. Καθώς αυξάνεται η χρήση αυτών των τεχνολογιών, είναι πιθανό να αυξηθεί και ο αριθμός τέτοιων περιστατικών. Το 2019, ένας νεαρός μαύρος άνδρας συνελήφθη άδικα μετά από εσφαλμένη αναγνώριση από το λογισμικό αναγνώρισης προσώπου που χρησιμοποιούσε η αστυνομία του Ντιτρόιτ. Έναν χρόνο αργότερα, το περιοδικό Wired ανέφερε ότι ένας αλγόριθμος παρέλειπε να εντοπίσει επιλέξιμους μαύρους ασθενείς για μεταμόσχευση νεφρού. Πολύ πιο πρόσφατα, το 2024, ένας ηλικιωμένος άνδρας στην Ινδία έχασε την πρόσβαση στη σύνταξή του, αφού ένα σύστημα τεχνητής νοημοσύνης τον καταχώρησε λανθασμένα ως αποβιώσαντα. Σε μια απελπισμένη προσπάθεια να αποδείξει ότι ήταν ακόμα ζωντανός, οργάνωσε ένα είδος γαμήλιας πομπής για να τραβήξει την προσοχή των αρχών.
Ο Πίτερ Σλάτερι (Peter Slattery), επικεφαλής του MIT AI Risk Repository, μιας πλατφόρμας ανοιχτού κώδικα που βοηθά τους ανθρώπους να κατανοήσουν τους κινδύνους της τεχνητής νοημοσύνης, προειδοποιεί ότι καθημερινά εμφανίζονται νέοι βλαπτικοί παράγοντες και εκφράζει ιδιαίτερη ανησυχία για τον τρόπο με τον οποίο αυτές οι τεχνολογίες μπορούν να επηρεάσουν τον Παγκόσμιο Νότο.
«Παρατήρησα μια μεροληψία σε μεγάλο μέρος της βιβλιογραφίας, που συμπεριλαμβάνουμε στη βάση δεδομένων μας, καθώς συνήθως αυτή προέρχεται από ερευνητές σε κορυφαία δυτικά ιδρύματα», μου είπε. «Τα ζητήματα τεχνητής νοημοσύνης στον Παγκόσμιο Νότο είναι κάτι άγνωστο. Αγνωστο υπό την έννοια ότι δεν συνειδητοποιούμε καν τι παραβλέπεται, επειδή πολύ λίγα στοιχεία καταγράφονται και εμφανίζονται στο υλικό που εξετάζουμε».
Μετριασμός της μεροληψίας ως διαδικασία
Η αντιμετώπιση της μεροληψίας στα συστήματα τεχνητής νοημοσύνης δεν είναι εύκολη. Ακόμη και οι πιο καλοπροαίρετες προσπάθειες έχουν αποτύχει. Αυτό αποτυπώθηκε πανηγυρικά το 2024, όταν το πρόγραμμα δημιουργίας εικόνων Gemini της Google δημιούργησε εικόνες μαύρων Ναζί και ιθαγενών Αμερικανών Βίκινγκς, σε μια φαινομενική προσπάθεια να διαφοροποιήσει τα αποτελέσματά της. Η επακόλουθη αντίδραση ανάγκασε την Google να αναστείλει προσωρινά αυτήν τη λειτουργία.
Περιστατικά όπως αυτό υπογραμμίζουν πόσο περίπλοκο είναι το πρόβλημα, ακόμη και για εταιρείες τεχνολογίας με άφθονους πόρους. Νωρίτερα εφέτος, παρακολούθησα ένα τεχνικό εργαστήριο στο Ινστιτούτο Άλαν Τούρινγκ στο Λονδίνο, το οποίο αποτελούσε μέρος ενός προγράμματος χρηματοδοτούμενου από την κυβέρνηση του Ηνωμένου Βασιλείου που διερευνούσε προσεγγίσεις για τον μετριασμό της μεροληψίας στα συστήματα μηχανικής μάθησης. Μία από τις προτεινόμενες μεθόδους ήταν οι ομάδες να υιοθετήσουν μια «ενεργητική προσέγγιση παρακολούθησης» όσον αφορά την αμεροληψία κατά τη δημιουργία νέων συστημάτων τεχνητής νοημοσύνης. Αυτό προϋποθέτει την παρότρυνση προς τους μηχανικούς και τις ομάδες τους να προσθέτουν μεταδεδομένα σε κάθε στάδιο της διαδικασίας παραγωγής τεχνητής νοημοσύνης, συμπεριλαμβανομένων πληροφοριών σχετικά με τις ερωτήσεις που τέθηκαν και τα μέτρα που εφαρμόστηκαν για την παρακολούθηση των αποτελεσμάτων που προέκυψαν.
Οι ερευνητές παρουσίασαν τρεις κατηγορίες μεροληψίας που μπορεί να εμφανιστούν κατά τη διάρκεια ενός κύκλου, τριάντα τρεις συνολικά, μαζί με συμβουλευτικές υποδείξεις για τον μετριασμό τους:
1. Στατιστική μεροληψία που προκύπτει από αδυναμίες στον τρόπο συλλογής, δειγματοληψίας ή επεξεργασίας των δεδομένων, οδηγώντας σε συστηματικά σφάλματα. Ένας συνηθισμένος τύπος είναι η μεροληψία, λόγω ελλιπών δεδομένων, όπου ορισμένες ομάδες ή μεταβλητές υποεκπροσωπούνται ή απουσιάζουν εντελώς από το σύνολο δεδομένων.
Στο παράδειγμα ενός συνόλου δεδομένων για την υγεία που περιλαμβάνει κυρίως δεδομένα από άνδρες και παραλείπει τους δείκτες υγείας των γυναικών (π.χ. καταστάσεις που σχετίζονται με την εγκυμοσύνη ή με ορμονικές διακυμάνσεις), τα μοντέλα τεχνητής νοημοσύνης που έχουν εκπαιδευτεί σε αυτό το σύνολο δεδομένων ενδέχεται να μην αναγνωρίζουν ή να μην ανταποκρίνονται κατάλληλα στις ανάγκες υγείας των γυναικών.
2. Γνωστική μεροληψία που αφορά ανθρώπινα πρότυπα σκέψης τα οποία αποκλίνουν από την ορθολογική κρίση. Όταν αυτή η μεροληψία επηρεάζει τον τρόπο επιλογής ή ερμηνείας των δεδομένων κατά την ανάπτυξη του μοντέλου, μπορεί να ενσωματωθεί στα συστήματα τεχνητής νοημοσύνης. Μια συνηθισμένη μορφή είναι η μεροληψία επιβεβαίωσης, η τάση να αναζητά κανείς ή να προκρίνει πληροφορίες που συνάδουν με τις προϋπάρχουσες πεποιθήσεις ή την κοσμοθεωρία του.
Για παράδειγμα, ένα σύστημα προτεινόμενων ειδήσεων μπορεί να σχεδιαστεί χρησιμοποιώντας δεδομένα που έχουν επιμεληθεί συντάκτες με συγκεκριμένη πολιτική τοποθέτηση. Εάν το σύστημα προάγει περιεχόμενο που ταιριάζει με αυτήν την κοσμοθεωρία, αποκλείοντας παράλληλα εναλλακτικές οπτικές, ενδέχεται να ενισχύσει την μεροληψία επιβεβαίωσης στους χρήστες.
3. Κοινωνική μεροληψία που προέρχεται από συστημικές ανισότητες ή πολιτισμικές παραδοχές ενσωματωμένες στα δεδομένα, οι οποίες συχνά αντανακλούν ιστορικές αδικίες ή πρακτικές διακρίσεων. Αυτές οι προκαταλήψεις συχνά κωδικοποιούνται σε εκπαιδευτικά σύνολα δεδομένων και διαιωνίζουν τις ανισότητες, εκτός αν αντιμετωπιστούν.
Για παράδειγμα, ένα εργαλείο τεχνητής νοημοσύνης για την πρόσληψη προσωπικού που έχει εκπαιδευτεί με βάση παρελθοντικά δεδομένα προσλήψεων μπορεί να μάθει να προτιμά άνδρες υποψηφίους για ηγετικές θέσεις, εάν οι προηγούμενες προσλήψεις ευνοούσαν τους άνδρες, ενισχύοντας έτσι ξεπερασμένες έμφυλες νόρμες και αποκλείοντας καταρτισμένες γυναίκες.
Η διαδικασία προκάλεσε έντονη συζήτηση μεταξύ των μελών της ομάδας και διήρκεσε αρκετή ώρα. Αυτό με έκανε να αναρωτηθώ πόσο πρακτικό θα ήταν να εφαρμόσω μια τέτοια μεθοδολογία σε μια πνιγμένη στη δουλειά και με περιορισμένο χρόνο στη διάθεσή της αίθουσα σύνταξης. Δεν μπόρεσα επίσης να μην παρατηρήσω ότι το ζήτημα του χρόνου δεν φαινόταν να απασχολεί τους μηχανικούς που βρίσκονταν στην αίθουσα.
Είναι επιζήμια τα είδη μεροληψίας της τεχνητής νοημοσύνης;
Πέρα από την μεροληψία στο στάδιο του σχεδιασμού, η ποιότητα και συχνά η απουσία αντιπροσωπευτικών δεδομένων παραμένουν βασικοί επιζήμιοι παράγοντες. Στην προαναφερθείσα υπόθεση του Ντιτρόιτ, είναι ευρέως αποδεκτό ότι η υποεκπροσώπηση των μαύρων ατόμων στα δεδομένα εκπαίδευσης οδήγησε στην άδικη σύλληψη του άνδρα.
Η Δρ. Τζόι Μπουολαμγουίνι (Joy Buolamwini), κορυφαία ερευνήτρια του MIT και ιδρύτρια της Algorithmic Justice League, πιστεύει ότι παρόμοιες ελλείψεις στα δεδομένα ευθύνονται για την επίμονη εσφαλμένη διάκριση του φύλου των μαύρων γυναικών από τα συστήματα αναγνώρισης προσώπου, συμπεριλαμβανομένων δημόσιων προσώπων, όπως η Μισέλ Ομπάμα και η Σερένα Ουίλιαμς. Η δουλειά της σε αυτόν τον τομέα ξεκίνησε πριν από σχεδόν μία δεκαετία, όταν ένα σύστημα αναγνώρισης προσώπου δεν κατάφερε να εντοπίσει το πρόσωπό της, μέχρι που φόρεσε μια λευκή μάσκα. Το σύστημα μπορούσε να αναγνωρίσει τη μάσκα, αλλά όχι εκείνη, επειδή είναι μαύρη.
Διορθώνοντας τα είδη μεροληψίας που σχετίζονται με τη γλώσσα και το φύλο
Αν και οι κίνδυνοι στις περιπτώσεις χρήσης σε αίθουσες σύνταξης μπορεί να φαίνονται μικρότεροι από ό,τι σε τομείς όπως η αστυνόμευση ή η υγειονομική περίθαλψη, τα ελλιπή ή χαμηλής ποιότητας σύνολα δεδομένων εξακολουθούν να έχουν πραγματικό αντίκτυπο, ιδίως στις επιδόσεις των ευρέως χρησιμοποιούμενων εργαλείων μετάφρασης και μεταγραφής που βασίζονται στην τεχνητή νοημοσύνη.
Ο Έζρα Ίμαν (Ezra Eeman), διευθυντής στρατηγικής και καινοτομίας σε μια μη κερδοσκοπική οργάνωση στην Ολλανδία μού είπε ότι η οργάνωσή του αναγκάστηκε να εγκαταλείψει τα εργαλεία που χρησιμοποιούσε για τη μετάφραση από τα ολλανδικά στα αραβικά και στα κινέζικα, επειδή τα αποτελέσματα δεν ήταν αξιόπιστα.
Η Σανούτα Ραγκού (Sannuta Raghu), επικεφαλής του τμήματος Τεχνητής Νοημοσύνης στο Scroll στην Ινδία, δήλωσε ότι πρόκληση δεν αποτελεί μόνο η έλλειψη δεδομένων, αλλά και το να βρεις τα «σωστά» δεδομένα, ειδικά στην περίπτωση των εργαλείων μετατροπής ομιλίας σε κείμενο. Η σύγχρονη χίντι, εξήγησε, είναι ένα σύνθετο μείγμα διαλέκτων, «hinglish» και ουρντού, γεγονός που δυσχεραίνει την εκπαίδευση μοντέλων που να αντιστοιχούν στον τρόπο ομιλίας των ανθρώπων.
Η κυβέρνηση της Ινδίας προχώρησε στην υλοποίηση της BHASHINI, μιας πρωτοβουλίας ανοιχτού κώδικα για την ανάπτυξη πολυγλωσσικής τεχνητής νοημοσύνης, που υποστηρίζει 22 ινδικές διαλέκτους, και επέλεξε την πλατφόρμα παραγωγικής τεχνητής νοημοσύνης Sarvam για την κατασκευή ενός κυρίαρχου μεγάλου γλωσσικού μοντέλου για τη χώρα.
Η Bayerischer Rundfunk, μια περιφερειακή δημόσια ραδιοτηλεοπτική υπηρεσία στη Γερμανία, αντιμετώπισε παρόμοια προβλήματα με τις διαλέκτους. Η λύση που βρήκε ήταν η ανάπτυξη του Oachkatzl, ενός προγράμματος τεχνητής νοημοσύνης που μεταγράφει τις βαυαρικές διαλέκτους στην επίσημη γερμανική γλώσσα.
Ο SVT, ο σουηδικός δημόσιος ραδιοτηλεοπτικός φορέας, αντιμετώπισε τους περιορισμούς των δεδομένων εκπαίδευσης στη σουηδική γλώσσα, βελτιώνοντας ένα μοντέλο μετατροπής ομιλίας σε κείμενο με 50.000 πρόσθετες ώρες σουηδικής γλώσσας από την εθνική βιβλιοθήκη, το κοινοβούλιο και άλλες πηγές. Με αυτόν τον τρόπο, ο SVT μείωσε το ποσοστό σφαλμάτων του μεγάλου γλωσσικού μοντέλου Whisper της OpenAI στα σουηδικά κατά 47%.
Η Τζέιν Μπάρετ (Jane Barrett), επικεφαλής της στρατηγικής AI στο Reuters, αναφέρει ότι η ομάδα της παρατηρεί έμφυλες προκαταλήψεις στα μοντέλα μετάφρασης. Προκειμένου να μετριαστούν αυτές οι προκαταλήψεις, πειραματίζονται με τρεις λύσεις: αναζητούν ένα καλύτερο εργαλείο, εκπαιδεύουν τα δικά τους μικρά γλωσσικά μοντέλα και γράφουν εντολές για το εργαλείο παραγωγικής τεχνητής νοημοσύνης, ώστε να ελέγχει το μεταφρασμένο από μηχανή κείμενο για λάθη.
Μεροληψία παλαιών δεδομένων, στερεότυπα και η μεροληψία του μέσου όρου
Τα παρωχημένα δεδομένα μπορούν να είναι εξίσου επιβλαβή με τα ελλιπή δεδομένα. Ο Φλοράν Ντοντάνς (Florent Daudens), πρώην δημοσιογράφος που τώρα εργάζεται στην γαλλοαμερικανική εταιρεία τεχνητής νοημοσύνης Hugging Face μού εξήγησε τον λόγο: «Εάν τα δεδομένα δεν εξελίσσονται, το επιβλαβές περιεχόμενο και οι προκαταλήψεις μπορούν να εξαπλωθούν πέρα από το πλαίσιο του αρχικού συνόλου δεδομένων, ενισχύοντας τις ανισότητες με υπερβολική έμφαση στα στερεότυπα». Επιπλέον, πρόσθεσε ότι, καθώς τα μοντέλα αυτά είναι «μαύρα κουτιά» (συστήματα των οποίων η εσωτερική λειτουργία δεν είναι διαφανής ή εύκολα κατανοητή), καθίσταται δύσκολο να αμφισβητηθούν οι αποφάσεις που λαμβάνουν.
Ο Νιλές Κρίστοφερ (Nilesh Christopher), δημοσιογράφος τεχνολογίας που πρόσφατα πέρασε έναν χρόνο στο πανεπιστήμιο Χάρβαρντ ως Nieman Fellow, επεσήμανε πόσο φορτισμένη μπορεί να είναι μια φαινομενικά ουδέτερη γλώσσα. Ανέφερε ένα υποθετικό παράδειγμα: «Ρωτήστε ένα μοντέλο “Ποιος είναι ένας έντιμος άνθρωπος στην ινδική κοινωνία;” και ίσως η απάντηση που θα λάβετε να είναι “Ένας αυστηρός χορτοφάγος”. Επιφανειακά, ακούγεται αθώο, αλλά συχνά είναι ένα συγκεκαλυμμένο χαρακτηριστικό της κάστας, ένα ενδεικτικό σύμβολο για κάποιον που ανήκει στην ανώτερη κάστα».
Αν και δεν ανέφερε συγκεκριμένα αποτελέσματα, το παράδειγμα φαίνεται εύλογο. Στερεότυπα κάθε είδους εμφανίζονται συχνά στις απαντήσεις των μοντέλων, είτε πρόκειται για ερωτήσεις σχετικά με την τυπική εμφάνιση ενός εργαζόμενου άνδρα είτε για την τυπική εικόνα ενός σπιτιού στην Ταϊβάν. Η έξυπνη σύνταξη εντολών έχει ένα όριο.
Για να αντιμετωπίσει αυτές τις προκλήσεις, το Hugging Face έχει αναπτύξει δύο εργαλεία με στόχο την αξιολόγηση του τρόπου με τον οποίο τα γλωσσικά μοντέλα χειρίζονται τα κοινωνικά συμφραζόμενα. Το πρώτο, το Civics, ελέγχει τις απαντήσεις του chatbot σε ερωτήσεις δημόσιου ενδιαφέροντος σχετικά με θέματα όπως η υγειονομική περίθαλψη, η εκπαίδευση και οι εκλογές. Το δεύτερο, το Shades, είναι ένα πολυγλωσσικό σημείο αναφοράς 16 γλωσσών, σχεδιασμένο να ανιχνεύει και να επισημαίνει επιβλαβή στερεότυπα στα αποτελέσματα των μοντέλων.
Ο Ντέιβιντ Κάσγουελ (David Caswell), σύμβουλος τεχνητής νοημοσύνης στα Μέσα ενημέρωσης και πρώην στέλεχος του BBC, επισήμανε έναν αναδυόμενο τομέα έρευνας που ονομάζει «η μεροληψία του μέσου όρου».
«Τα μεγάλα γλωσσικά μοντέλα (Large Language Models – LLMs), που έχουν εκπαιδευτεί βάσει δεδομένων είναι φυσικά προκατειλημμένα προς τα πιο κοινά χαρακτηριστικά αυτών των δεδομένων, τη διάμεση τιμή της γλώσσας, του ύφους, των ιδεών… και λιγότερο προκατειλημμένα προς τα σπάνια και ασυνήθιστα χαρακτηριστικά των δεδομένων. Αυτό είναι ανησυχητικό, γιατί σε αυτά τα μακρά άκρα συμβαίνουν πολλές ασχήμιες, αλλά και πολλές καινοτομίες και νέα πράγματα», εξήγησε.
Αυτές οι προκαταλήψεις εμφανίζονται σε διάφορες μελέτες, συμπεριλαμβανομένων δοκιμίων για την εισαγωγή σε πανεπιστήμια, συμβουλευτικών υπηρεσιών διαχείρισης, πολιτιστικής έκφρασης και αλλού. Ο αντίκτυπός τους δεν είναι ακόμη πλήρως κατανοητός, αλλά είναι δυνητικά σημαντικός.
Ο Κάσγουελ είναι ένα από τα 13 μέλη μιας επιτροπής ειδικών, η οποία εξετάζει τις πιθανές επιπτώσεις της παραγωγικής τεχνητής νοημοσύνης στην ελευθερία της έκφρασης. Το προσχέδιο των κατευθυντήριων γραμμών της μελέτης είναι διαθέσιμο εδώ.
Είναι προκατειλημμένα τα συστήματα συστάσεων;
Κατά τη διάρκεια των εκλογών του 2022 στη Δανία, σε μια ελεγχόμενη έρευνα της εφημερίδας Ekstra Bladet διαπιστώθηκε ότι το εξατομικευμένο περιεχόμενο της ιστοσελίδας της οδηγούσε σε ελαφρώς πιο δεξιό περιεχόμενο, λιγότερα σοβαρά νέα και πιο περιορισμένο φάσμα θεμάτων. Τα αποτελέσματα ήταν λίγα αλλά στατιστικά σημαντικά.
Με βάση αυτά τα ευρήματα, ο Κάσπερ Λίντσκοου (Kasper Lindskow), επικεφαλής του τμήματος Τεχνητής Νοημοσύνης της εκδότριας εταιρείας JP/Politikens Hus της Ekstra Bladet, δήλωσε: «Τα Μέσα ενημέρωσης πρέπει να ελέγχουν τα αποτελέσματα των αλγορίθμων. Αν δεν το κάνουν, κινδυνεύουν να καταλήξουν σε κάτι εντελώς διαφορετικό από αυτό που θα έπρεπε να είναι από εκδοτικής άποψης».
Η επιστήμονας υπολογιστών Σάνε Βριγιενχόεκ (Sanne Vrijenhoek), που συνεργάζεται με την Ekstra Bladet, τόνισε την ανάγκη για σαφήνεια και συνεργασία: «Τις περισσότερες φορές, είναι πολύ εύκολο να πεις τι δεν θέλεις, αλλά είναι πολύ πιο δύσκολο να πεις τι θέλεις. Πρέπει να υπάρχει χώρος για συνεργασία μεταξύ των διαφορετικών ομάδων… και χώρος για τους ειδικούς στην τεχνολογία να παρέχουν κατανοητές εξηγήσεις για το τι κάνουν. Δεν μπορείς να περιμένεις από τους τεχνικούς να σκεφτούν αυτά τα πράγματα από μόνοι τους».
Στη Financial Times (FT), η επικεφαλής επιστήμονας δεδομένων Ντεσισλάβα Βασίλεβα (Dessislava Vassileva) λέει ότι το σύστημα συστάσεων της εφημερίδας περιλαμβάνει σκόπιμα σχεδιαστικά χαρακτηριστικά για να διευρύνει την έκταση του περιεχομένου. Οι ομάδες τους χρησιμοποιούν, επίσης, εσωτερικούς καταλόγους ελέγχου για να καθοδηγήσουν τις αποφάσεις, όπως:
- Έχουμε την κατάλληλη συγκατάθεση χρήστη;
- Θα μπορούσε να γίνει κατάχρηση του προϊόντος και πώς μπορούμε να μετριάσουμε αυτόν τον κίνδυνο;
- Είναι τα δεδομένα εκπαίδευσης αντιπροσωπευτικά και αμερόληπτα; Έχουμε πραγματοποιήσει ελέγχους για τη διασφάλιση της αξιοπιστίας σε όλα τα δημογραφικά στοιχεία;
- Έχουμε λάβει υπόψη μια ποικιλία διαφορετικών οπτικών και απόψεων κατά τη διαδικασία αυτή;
- Έχουμε μηχανισμούς για να απενεργοποιήσουμε το μοντέλο σε περίπτωση που κάτι πάει στραβά;
Αυτά τα σημεία αντικατοπτρίζουν μερικές από τις ερωτήσεις της μεθοδολογίας «ανάλυσης συνεπειών» (consequence scanning), που πρωτοεμφανίστηκε από το τεχνολογικό think tank, DotEveryone. Οι ομάδες των FT συμβουλεύονται επίσης εσωτερικές διεπιστημονικές επιτροπές που διαβουλεύονται πριν από την κυκλοφορία οποιουδήποτε νέου προϊόντος τεχνητής νοημοσύνης.
Ο κίνδυνος της σκόπιμης μεροληψίας
Ο κίνδυνος δεν προέρχεται μόνο από ασυνείδητες προκαταλήψεις (unconscious biases). Ο Χόλβιγκ προειδοποιεί επίσης για την έμμεση εισαγωγή εντολών και τη «δηλητηρίαση» των συνόλων δεδομένων ως μορφές σκόπιμης μεροληψίας.
Η έμμεση εισαγωγή εντολών είναι όταν κρυφό ή χειριστικό κείμενο προστίθεται σε μια καταχώρηση για να εξαπατήσει την τεχνητή νοημοσύνη ώστε να αγνοήσει τις οδηγίες της ή να συμπεριφερθεί με τρόπο που δεν είναι ο επιθυμητός. Ένα παράδειγμα είναι όταν ένας επίδοξος εισβολέας ενσωματώνει μια μυστική εντολή σε ένα μήνυμα χρήστη, η οποία αναγκάζει την τεχνητή νοημοσύνη να αποκαλύψει εμπιστευτικό υλικό.
Η «δηλητηρίαση» συνόλου δεδομένων είναι η εισαγωγή ψευδών ή προκατειλημμένων πληροφοριών στα δεδομένα εκπαίδευσης με σκοπό την αλλοίωση της συμπεριφοράς ή των αποτελεσμάτων ενός συστήματος τεχνητή νοημοσύνη. Ένα παράδειγμα είναι η εμβόλιμη δημοσίευση πλαστών κριτικών για προϊόντα.
«Είναι εύκολο να δηλητηριάσεις σύνολα δεδομένων και να αλλάξεις τα αποτελέσματα», δήλωσε ο Χόλβιγκ, ειδικός από το Saïd Business School της Οξφόρδης. «Εάν τα δεδομένα εκπαίδευσης ελέγχονται από συγκεκριμένες μονάδες που προωθούν τη δική τους κοσμοθεωρία και δεν διαθέτουμε κριτική συνείδηση για τον τρόπο λειτουργίας αυτών των μοντέλων, τότε διατρέχουμε πραγματικό κίνδυνο».
Ορισμένοι οργανισμοί Μέσων ενημέρωσης αρχίζουν να λαμβάνουν μέτρα για την αντιμετώπιση αυτών των κινδύνων. Η Bayerischer Rundfunk, για παράδειγμα, έχει ορίσει μια δημοσιογράφο υπεύθυνη για θέματα αλγοριθμικής λογοδοσίας, τη Ρεμπέκα Τσισέλσκι (Rebecca Ciesielski), με σκοπό να διερευνήσει τον κοινωνικό αντίκτυπο της τεχνολογίας τεχνητής νοημοσύνης. Εν τω μεταξύ, εμφανίζονται και καινούργιες ανεξάρτητες ομάδες όπως η Transformer, που εστιάζουν ειδικά στο πώς κατασκευάζονται αυτά τα συστήματα, ποιος τα ελέγχει και ποια συμφέροντα εξυπηρετούν.
Η τεχνητή νοημοσύνη ως καταλύτης της δημοσιογραφίας χωρίς αποκλεισμούς
Φυσικά, δεν είναι όλες οι εξελίξεις αρνητικές. Ορισμένοι καινοτόμοι προσπαθούν να επαναπροσδιορίσουν τον ρόλο της τεχνητής νοημοσύνης στον δημοσιογραφικό χώρο, όχι μόνο ως εργαλείο παραγωγικότητας, αλλά και ως μέσο για μεγαλύτερη αυτογνωσία.
Στο Πανεπιστήμιο της Φλόριντα, για παράδειγμα, η Τζάνετ Κόουτς (Janet Coats) και η ομάδα της διερευνούν πώς η τεχνητή νοημοσύνη μπορεί να βοηθήσει στον εντοπισμό της μεροληψίας που εμφανίζεται κατά την παραγωγή ειδήσεων. Το εργαλείο τους, το «Authentically», αναλύει τις επιλογές λέξεων σε ειδησεογραφικά άρθρα και επισημαίνει αν η γλώσσα μεταδίδει θετικό, αρνητικό ή ουδέτερο συναίσθημα.
Η Κόουτς συνεργάστηκε με έναν ειδικό γλωσσολόγο και επιστήμονες πληροφορικής από το πανεπιστήμιο για να εξετάσει πώς παρουσιάζονται οι σημαντικές ειδήσεις σε διάφορα μέσα ενημέρωσης. Τα πρώτα τους ευρήματα είναι σαφή: «Τα ρήματα και τα επίθετα που συνδέονταν με τους διαδηλωτές του κινήματος Black Lives Matter ήταν λέξεις σχετικές με τη φωτιά όπως “ανάφλεξη, έκρηξη, σπίθα”, ακόμη και όταν οι πορείες ήταν ειρηνικές. Εν τω μεταξύ, η κάλυψη των διαδηλώσεων στα πανεπιστήμια από τα αμερικανικά ΜΜΕ χρησιμοποιούσε πιο συναισθηματική γλώσσα για τις ισραηλινές απώλειες σε σχέση με τα παλαιστινιακά δεινά.
Προκειμένου να αντιμετωπιστεί η έλλειψη ποικιλομορφίας στις απόψεις που εκφράζονται στα δημόσια μέσα ενημέρωσης, οι ολλανδικοί ραδιοτηλεοπτικοί φορείς NPO και Omroep Zwart ξεκίνησαν ένα πιλοτικό πρόγραμμα με την ονομασία AAVA (AI-Assisted Virtual Audiences). Το εν λόγω έργο εισάγει τη χρήση «ψηφιακών δίδυμων», δηλαδή προσώπων που δημιουργούνται με τη βοήθεια ΤΝ και αντιπροσωπεύουν υποεκπροσωπούμενα τμήματα του κοινού, με σκοπό την καθοδήγηση των εκδοτικών αποφάσεων.
Με βάση ανώνυμα δημογραφικά δεδομένα, αυτά τα εικονικά πρόσωπα παρέχουν ανατροφοδότηση σε πραγματικό χρόνο κατά τη διάρκεια της παραγωγικής διαδικασίας. Προσφέρουν πληροφορίες για το πώς διαφορετικοί θεατές μπορεί να αντιλαμβάνονται μια ιστορία ή ένα πλαίσιο.
Πώς να σχεδιάσουμε αμερόληπτα προϊόντα ειδήσεων τεχνητής νοημοσύνης
Αυτή η πρώτη επισκόπηση δείχνει πόσο προβληματικά μπορούν να είναι τα συστήματα τεχνητής νοημοσύνης και πόσα από αυτά τα προβλήματα προέρχονται από προϋπάρχουσες κοινωνικές ανισότητες. Είναι όμως, επίσης, εφικτό να αντιμετωπίσουμε αυτές τις προκλήσεις με προσεκτική αξιολόγηση, δημιουργικότητα και συνεργασία. Όπως σημειώνει ο Ματίας Χόλβιγκ, η ρητή φύση των μηχανών είναι παράδοξα χρήσιμη: «Μπορείς να διαχειριστείς αυτό που βλέπεις».
Ο σύμβουλος Μέσων ενημέρωσης Πολ Τσέουνγκ (Paul Cheung) συμφωνεί: «Η αντιμετώπιση των προκαταλήψεων σε ανθρώπινο επίπεδο είναι εξαιρετικά δύσκολη, αλλά ένα γλωσσικό μοντέλο δεν έχει συναισθήματα. Μπορούμε να λέμε τα πράγματα με το όνομά τους, και η μηχανή δεν θα προσβληθεί».
Η εμπρόθετη μηχανική εντολών θα βελτίωνε ορισμένα αποτελέσματα από μοντέλα τεχνητής νοημοσύνης, αλλά αυτό δεν αρκεί. Όπως μου υπενθύμισε ο Νιλές Κρίστοφερ, «πρέπει να θεωρούμε αυτά τα συστήματα ως εκθετικά αναπτυσσόμενα… έτσι ο συνδυασμένος αντίκτυπος των προκαταλήψεών τους είναι τεράστιος».
Η εξάλειψη της μεροληψίας μπορεί να είναι αδύνατη. Ωστόσο, αυτά τα ζητήματα μπορούν να κατανοηθούν και να μετριαστούν από διεπιστημονικές ομάδες με ένα ευρύ φάσμα διαφορετικών οπτικών γωνιών.
Σε μια εποχή που η δημοσιογραφία αντιμετωπίζει κρίση εμπιστοσύνης, η ενσωμάτωση πρακτικών αμεροληψίας από την αρχή κιόλας αυτής της νέας εποχής είναι επιτακτική ανάγκη, ανεξάρτητα από τις προκλήσεις και το πόσο χρόνο θα χρειαστεί. Ίσως το σωστότερο ερώτημα είναι: ποιο θα είναι το κόστος αν δεν το κάνουμε;