Αυτό το άρθρο δημοσιεύθηκε αρχικά από το Nieman Journalism Lab στις 13/02/2025 και αναδημοσιεύεται από το iMEdD με άδεια. Οποιαδήποτε άδεια αναδημοσίευσης υπόκειται στον αρχικό εκδότη. Διαβάστε το αρχικό άρθρο εδώ.
Ας βάλουμε την Τεχνητή Νοημοσύνη στην αρχή, όχι στο τέλος
Η δημιουργική τεχνητή νοημοσύνη δεν είναι μια λύση με ενα κλικ. Ενισχύει τις ροές εργασίας όταν χρησιμοποιείται στρατηγικά και καθοδηγείται από τον άνθρωπο.
Όταν το BBC δοκίμασε την χρήση τεσσάρων εργαλείων γενετικής τεχνητής νοημοσύνης (generative AI) σε άρθρα στην ιστοσελίδα του, διαπίστωσε πλήθος «σοβαρών προβλημάτων» και πραγματολογικών λαθών, ανέφερε ο δημοσιογραφικός οργανισμός σε έκθεση που δημοσιεύθηκε την Τρίτη.
Ο Pete Archer, Διευθυντής Προγραμμάτων του BBC για τη Γενετική Τεχνητή Νοημοσύνη, ανέφερε ότι το BBC έδωσε σε τέσσερις βοηθούς τεχνητής νοημοσύνης (ΑΑΙ) – το ChatGPT της OpenAI, το Copilot της Microsoft, το Gemini της Google και το Perplexity – «πρόσβαση στον ιστότοπό μας για τη διάρκεια της έρευνας και τους έκανε ερωτήσεις σχετικές με ειδήσεις, προτρέποντάς τους να χρησιμοποιούν τα άρθρα του BBC News ως πηγές, όπου αυτό ήταν δυνατόν. Οι απαντήσεις των ΑΑΙ αξιολογήθηκαν από δημοσιογράφους του BBC, οι οποίοι ήταν ειδικοί στα αντίστοιχα θέματα και η αξιολόγηση βασίστηκε σε κριτήρια όπως η ακρίβεια, η αντικειμενικότητα και η αντιπροσωπευτικότητα του περιεχομένου του BBC».
Οι απαντήσεις των βοηθών τεχνητής νοημοσύνης περιείχαν «σημαντικές ανακρίβειες και διαστρέβλωσαν το περιεχόμενο του BBC», ανέφερε ο οργανισμός. Πάνω από το 51% των απαντήσεων παρουσίαζαν «σημαντικά προβλήματα», το 19% περιείχε «πραγματολογικά λάθη – λανθασμένες δηλώσεις, αριθμούς και ημερομηνίες», ενώ «το 13% των αποσπασμάτων από συνεντεύξεις, που προήλθαν από άρθρα του BBC ήταν είτε τροποποιημένα σε σχέση με την αρχική τους μορφή, είτε δεν υπήρχαν καθόλου στο άρθρο-πηγή».
Μερικά παραδείγματα σφαλμάτων, όπως καταγράφηκαν στην έκθεση:
Το Gemini της Google δήλωσε εσφαλμένα ότι «Το NHS (National Health Service) συμβουλεύει τους ανθρώπους κατά του ατμίσματος και συνιστά στους καπνιστές που θέλουν να κόψουν το κάπνισμα να χρησιμοποιήσουν άλλες μεθόδους». Στην πραγματικότητα, το NHS συνιστά το άτμισμα ως μέθοδο διακοπής του καπνίσματος. Το Copilot της Microsoft δήλωσε εσφαλμένα ότι η Gisèle Pelicot ανακάλυψε τα εγκλήματα σε βάρος της όταν άρχισε να παρουσιάζει λιποθυμικά επεισόδια και κενά μνήμης. Στην πραγματικότητα, ανακάλυψε τα εγκλήματα όταν η Αστυνομία της έδειξε τα βίντεο που εντοπίστηκαν στις κατασχεθείσες ηλεκτρονικές συσκευές του συζύγου της. Το Perplexity έκανε λάθος στην ημερομηνία θανάτου του Michael Mosley και παρέθεσε λανθασμένα μια δήλωση της οικογένειας του Liam Payne μετά τον θάνατό του. Το ChatGPT της OpenAI ισχυρίστηκε τον Δεκέμβριο του 2024 ότι ο Ismail Haniyeh, ο οποίος δολοφονήθηκε στο Ιράν τον Ιούλιο του 2024, ήταν ηγετικό μέλος της Χαμάς.
Ο Guardian σημείωσε επίσης ότι «απαντώντας σε ερώτηση σχετικά με το αν η καταδικασθείσα νοσηλεύτρια Lucy Letby ήταν αθώα, το Gemini απάντησε: “Εναπόκειται σε κάθε άτομο να αποφασίσει αν πιστεύει ότι η Lucy Letby είναι αθώα ή ένοχη”. Οι καταδικαστικές αποφάσεις για δολοφονία και απόπειρα δολοφονίας βρεφών παραλείφθηκαν από την απάντηση, όπως διαπίστωσε η έρευνα».
«Εύκολα αντιλαμβάνεται κανείς ότι η διαστρέβλωση των γεγονότων από την ΤΝ μπορεί να υπονομεύσει την ήδη εύθραυστη εμπιστοσύνη που έχουν οι άνθρωποι σε γεγονότα και επαληθευμένες πληροφορίες», έγραψε η Deborah Turness, Διευθύνουσα Σύμβουλος του BBC News και Επικαιρότητας, σε ανάρτηση σε blog. «Ζούμε σε δύσκολους καιρούς. Πόσο θα αργήσουμε, άραγε, να δούμε διαστρεβλωμένες ειδήσεις από την ΤΝ να γίνονται πρωτοσέλιδα που προκαλούν ζημιά στον πραγματικό κόσμο;»
Η Turness αναφέρθηκε επίσης σε πρόσφατο ρεπορτάζ του BBC σχετικά με τις ειδοποιήσεις ειδήσεων της Apple που δημιουργούνται με τεχνητή νοημοσύνη. Μια ειδοποίηση τον Δεκέμβριο, για παράδειγμα, «έκανε να φαίνεται ότι το BBC News είχε δημοσιεύσει ένα άρθρο που ισχυριζόταν ότι ο Luigi Mangione, ο άνθρωπος που συνελήφθη μετά τη δολοφονία του διευθύνοντος συμβούλου ασφαλιστικής εταιρείας Brian Thompson στη Νέα Υόρκη, είχε αυτοπυροβοληθεί. Δεν ισχύει αυτό». Τον περασμένο μήνα, η Apple ανέστειλε τις ειδοποιήσεις που δημιουργούνται με τεχνητή νοημοσύνη.
Σημείωση της συντάκτριας: Το BBC μου διευκρίνισε ότι τροποποίησε το αρχείο robots.txt για να επιτρέψει στους βοηθούς τεχνητής νοημοσύνης να ανιχνεύσουν τον ιστότοπο κατά τη διάρκεια του πειράματος.