Το πρωτότυπο άρθρο δημοσιεύθηκε από το Poynter στις 19/10/2023 και αναδημοσιεύθηκε από το iMEdD κατόπιν άδειας. Η αναδημοσίευση του απαιτεί άδεια από τον εκδότη.
Παρά τον πανικό σχετικά με την «generative AI», τα «deepfakes» δεν φαίνεται να έχουν αποτελέσει σημαντικό παράγοντα στη διάδοση της παραπληροφόρησης γύρω από τον πόλεμο.
Διαχωρίζοντας τα γεγονότα από τη μυθοπλασία στα μέσα κοινωνικής δικτύωσης σε περιόδους συγκρούσεων
Σε περιόδους κρίσης, τα μέσα κοινωνικής δικτύωσης κατακλύζονται από εικόνες, βίντεο και τολμηρούς ισχυρισμούς.
Σύμφωνα μια πρόσφατη επαλήθευση γεγονότων από το Community Notes – ένα εργαλείο fact-checking (επιβεβαίωσης στοιχείων) που αναπτύχθηκε από το X και βασίζεται σε crowdsourcing – διαπιστώθηκε ότι μια εικόνα από τη σύγκρουση Χαμάς-Ισραήλ είχε δημιουργηθεί με τη χρήση τεχνητής νοημοσύνης.
Η σημείωση εξαφανίστηκε από το tweet έκτοτε, ωστόσο χρησίμευσε ως υπενθύμιση ότι η generative AI (παραγωγική τεχνητή νοημοσύνη) δεν έχει διαδραματίσει κάποιον ρόλο στην εξάπλωση της παραπληροφόρησης γύρω από τη σύγκρουση μέχρι στιγμής.
Η κυρίαρχη απειλή, αντίθετα, ήταν η κατάχρηση αυθεντικού υλικού, αποσπασμένου από το αρχικό του ιστορικό πλαίσιο. Η συντριπτική πλειονότητα των εικόνων και των βίντεο που έχουν διαψευστεί από τους fact-checkers κατά τη διάρκεια αυτού του πολέμου χρησιμοποιούν υλικό από άλλες χώρες, όπως τη Συρία ή την Τουρκία, και από παλαιότερα περιστατικά, όπως αυτό το βίντεο που τραβήχτηκε σε προηγούμενη σύγκρουση στη Γάζα.
«Στη διάρκεια πολέμων, υπάρχει άφθονο υλικό που μπορεί εύκολα να παραποιηθεί, στο οποίο συμπεριλαμβάνονται πλάνα από την τρέχουσα σύγκρουση, από παλαιότερους πολέμους ή ακόμα και από προσομοιώσεις βιντεοπαιχνιδιών», σημείωσε ο Mike Caulfield, ερευνητής στο Center for an Informed Public του Πανεπιστημίου της Ουάσιγκτον. «Οι πόλεμοι τεκμηριώνονται εκτενώς και οι επιτήδειοι βρίσκουν πρόσφορο έδαφος για να διαστρεβλώσουν την πραγματικότητα χρησιμοποιώντας υλικό από την καταγραφή τους στα Μέσα».
Σε προηγούμενη ανάρτηση εξήγησα ότι ο καλύτερος τρόπος επαλήθευσης εικόνων και βίντεο είναι ο εντοπισμός της αρχικής πηγής μέσω της αντίστροφης αναζήτησης εικόνας. (Εδώ θα βρείτε έναν ολοκληρωμένο οδηγό από τον “πρεσβευτή” της MediaWise, Hari Sreenivasan).
«Παρόλο που υπάρχουν πολλές ανησυχίες σχετικά με την πιθανή κατάχρηση εικόνων που έχουν δημιουργηθεί με τη χρήση generative AI, οι περιορισμοί στην κυκλοφορία ωμών εικόνων βίας ενδέχεται να αποτελούν ανασταλτικό παράγοντα ως προς την παραγωγή εικόνων και βίντεο, που σχετίζονται με τον πόλεμο», δήλωσε ο Sam Gregory, εκτελεστικός διευθυντής της μη κερδοσκοπικής οργάνωσης για τα ανθρώπινα δικαιώματα, WITNESS, ο οποίος κατέθεσε πρόσφατα σε υποεπιτροπή της Γερουσίας των ΗΠΑ σχετικά με τις επιβλαβείς συνέπειες της τεχνητής νοημοσύνης. Επιπλέον, η συγκεκριμένη τεχνολογία δεν έχει προς το παρόν τη δυνατότητα παραγωγής εικόνων και βίντεο εξ’ ολοκλήρου δημιουργημένα από την τεχνητή νοημοσύνη, τα οποία έχουν την ίδια ποιότητα με τα αποσπασμένα πλάνα από πολεμικές συγκρούσεις που κυκλοφορούν στο διαδίκτυο.
Το PolitiFact, μια ιστοσελίδα ελέγχου ειδήσεων του Poynter, διέψευσε ένα deepfake (βίντεο στo οποία ένας αλγόριθμος αντικαθιστά το πρόσωπο ενός ανθρώπου με αυτό ενός άλλου) στο οποίο ο Τζο Μπάιντεν εμφανιζόταν να καλεί σε στρατιωτική επιστράτευση. Παρόλο που η ανάρτηση συγκέντρωσε περισσότερες από 675.000 προβολές στο TikTok και δεκάδες χιλιάδες αναπαραγωγές στο Facebook, η ποιότητα του βίντεο είναι εξαιρετικά κακή, ενώ το deepfake δημιουργήθηκε πολλούς μήνες πριν από την πρόσφατη σύγκρουση Ισραήλ-Χαμάς.
Ο πόλεμος ήταν το πρώτο “test-drive” όσον αφορά τις προειδοποιήσεις των ειδικών για την απειλή της generative AI. Η θεωρία τους ότι η τεχνητή νοημοσύνη θα ενίσχυε την παραπληροφόρηση και θα βελτίωνε την ποιότητά της δεν έχει, μέχρι στιγμής, επαληθευθεί. Συμπτωματικά, μια ομάδα εμπειρογνωμόνων δημοσίευσε την Τετάρτη ένα ακαδημαϊκό άρθρο στο Harvard Kennedy School Misinformation Review, το οποίο χαρακτήριζε τις ανησυχίες αυτές ως “υπερβολικές”.
Παρόλο που η τεχνητή νοημοσύνη μπορεί να συμβάλλει στη διάδοση της παραπληροφόρησης, η προσοχή του κόσμου αποσπάται εύκολα, σύμφωνα με τον σχολιασμό. Η αύξηση του αριθμού παραπλανητικών εικόνων δεν συνεπάγεται απαραίτητα και αυξημένη ζήτηση για τέτοιου είδους περιεχόμενο. Το γεγονός ότι πολλαπλασιάζεται ο αριθμός των ψεύτικων εικόνων δεν σημαίνει απαραίτητα ότι θα αυξηθεί και η ζήτησή τους. (Συνιστάται ανεπιφύλακτα η ανάγνωση ολόκληρου του εγγράφου).
«Θεωρώ ότι οι λογαριασμοί με μεγάλη επιρροή που υποστηρίζουν και προωθούν προβληματικές ή παραπλανητικές πηγές, όπως στην περίπτωση του Elon Musk, αποτελούν μεγαλύτερο κίνδυνο από ό,τι η παραπληροφόρηση που δημιουργείται μέσω υλικού τεχνητής νοημοσύνης», δήλωσε ο Felix Simon, συν-συγγραφέας και διδακτορικός ερευνητής στο Oxford Internet Observatory. «Προηγούμενες έρευνες έχουν δείξει ότι η παραπληροφόρηση διαδίδεται συχνά από εξέχουσες προσωπικότητες, με κάποιους πολιτικούς και κομματικά μέσα ενημέρωσης να συμβάλλουν δυσανάλογα στην κατάσταση».
Παρόλο που η τεχνητή νοημοσύνη δεν φαίνεται να έχει μεγάλη επιρροή στο σημερινό τοπίο της πληροφόρησης, διατηρώ επιφυλάξεις για τον ρόλο που ενδέχεται να διαδραματίσει μελλοντικά, καθώς πλησιάζουμε στις εκλογές του 2024. Η εικόνα του Πάπα με μπουφάν Balenciaga που δημιουργήθηκε με χρήση τεχνητής νοημοσύνης και έγινε viral απέδειξε ότι η τεχνολογία τεχνητής νοημοσύνης έχει τη δυνατότητα να ξεγελάσει πολλούς ανθρώπους, όταν πληροί ένα επίπεδο αληθοφάνειας και οι συνέπειες είναι σχετικά μικρές. Ταυτόχρονα, ηχητικά deepfakes έκαναν την εμφάνισή τους και κατά τις πρόσφατες εκλογές στη Σλοβακία.
«Λαμβάνοντας υπόψη τις τρέχουσες τάσεις, είναι πιο πιθανό να δούμε την αύξηση της χρήσης της generative AI για τη δημιουργία ψεύτικου ηχητικού υλικού (πράγμα που είναι πολύ πιο εύκολο να γίνει), καθώς και τη διατύπωση ισχυρισμών περί χρήσης τεχνητής νοημοσύνης με στόχο την υπονόμευση αυθεντικού περιεχομένου (είτε εικόνας είτε ήχου), κάτι που βλέπουμε συχνά», δήλωσε ο Gregory.
Προς το παρόν, όμως, τα τρολ και οι προπαγανδιστές έχουν άφθονο πολεμικό υλικό από συγκρούσεις στη Μέση Ανατολή στα χέρια τους, το οποίο τους επιτρέπει να κατακλύζουν τα μέσα κοινωνικής δικτύωσης με fake news χωρίς να χρησιμοποιούν τεχνητή νοημοσύνη.
«Από τη στιγμή που υπάρχει ήδη πληθώρα Μέσων που ενισχύουν την παραπληροφόρηση, δεν υπάρχει η ανάγκη να δημιουργηθεί κάτι νέο», δήλωσε ο Caulfield. «Και αν σκεφτεί κανείς ότι τα καλύτερα ψέματα έχουν μια δόση αλήθειας, το εξ ολοκλήρου τεχνητά κατασκευασμένο περιεχόμενο μπορεί να μην είναι η αποτελεσματικότερη οδός».