Θεματα

Τι μπορούν να κάνουν οι δημοσιογράφοι για να αυξήσουν τη διαφάνεια στα αλγοριθμικά συστήματα

Η τεχνητή νοημοσύνη και οι αδιαφανείς αλγόριθμοι επηρεάζουν όλο και περισσότερο τη ζωή μας, διαμορφώνοντας τα πάντα, από το διαδικτυακό περιεχόμενο έως τις κυβερνητικές αποφάσεις. Καθώς η επιρροή τους διευρύνεται, πώς μπορούν οι δημοσιογράφοι να πιέσουν για μεγαλύτερη λογοδοσία; Ο Ojooluwa Ibiloye, SNF Ithaca Initiative Graduate Fellow στο Πανεπιστήμιο του Delaware, καλύπτει για το Pop-Up Newsroom του Φόρουμ τις απόψεις των ειδικών από το Διεθνές Δημοσιογραφικό Φόρουμ 2024 του iMEdD στην Αθήνα.

Στο Διεθνές Φόρουμ Δημοσιογραφίας 2024 του iMEdD, οι ερευνητές δημοσιογράφοι Daniel Howden, Γιώργος Χρηστίδης, Pablo Jiménez Arandia και Pierluigi Bizzini συζήτησαν τρόπους με τους οποίους η δημοσιογραφία μπορεί να εξετάσει μεθοδικά τις εσωτερικές διεργασίες της τεχνητής νοημοσύνης (ΤΝ). Στο πλαίσιο του πάνελ «Μέσα στη μηχανή: Διερευνώντας την Τεχνητή Νοημοσύνη και τους αλγόριθμους», παρουσίασαν συμπεράσματα από τις έρευνές τους, τα οποία μπορούν να συμβάλλουν στην ενίσχυση της λογοδοσίας στα συστήματα τεχνητής νοημοσύνης. Στη διάρκεια της συζήτησης εξέτασαν διαφορετικές εκφάνσεις του ζητήματος, όπως τα εργαλεία παρακολούθησης μεταναστών, τους αλγόριθμους αξιολόγησης κινδύνου (risk assessment) στο σύστημα ποινικής δικαιοσύνης και το λογισμικό ανίχνευσης απάτης στον τομέα της κοινωνικής πρόνοιας. 

Από αριστερά προς τα δεξιά: Daniel Howden, Γιώργος Χρηστίδης, Pablo Jiménez Arandia, Pierluigi Bizzini και Timothy Large.

Επιτήρηση των μεταναστών μέσω τεχνητής νοημοσύνης: η αδιαφάνεια υπονομεύει το δημοσιογραφικό έργο

Ο Γιώργος Χρηστίδης, ερευνητής δημοσιογράφος με έδρα την Ελλάδα ο οποίος επικεντρώνεται στη μετανάστευση, ξεκίνησε λέγοντας ότι τα ευρήματα της ομάδας του «είναι δυσοίωνα». Σε ολόκληρη την Ευρώπη, διατίθενται σημαντικά κονδύλια από την Ευρωπαϊκή Ένωση (ΕΕ) και τα κράτη μέλη για την ανάπτυξη και την αγορά προγραμμάτων επιτήρησης. «Διοχετεύονται μεγάλα ποσά για την ανάπτυξη δεκάδων προγραμμάτων που αξιοποιούν την τεχνητή νοημοσύνη και έξυπνους πίνακες για τον εντοπισμό των αιτούντων άσυλο προτού πλησιάσουν στα σύνορα της ΕΕ και την προληπτική αναχαίτισή τους», είπε και πρόσθεσε: «Διαπιστώσαμε ότι αναπτύσσονται διάφορα εργαλεία επιτήρησης, όπως drone και εφαρμογές συλλογής δεδομένων, για τη διαχείριση των συνόρων, συχνά χωρίς τη συγκατάθεση ή την επίγνωση των εμπλεκομένων».

Ο κ. Χρηστίδης τόνισε ότι οι εταιρείες τεχνολογίας και οι δημόσιοι οργανισμοί ανακόπτουν την πρόσβαση σε πληροφορίες που αφορούν τον τρόπο με τον οποίο σχεδιάζονται οι «έξυπνοι αλγόριθμοι» που χρησιμοποιούνται για την παρακολούθηση των μεταναστών, δυσκολεύοντας έτσι τη δουλειά των ερευνητών δημοσιογράφων. Σε ορισμένες περιπτώσεις, είπε, παραβιάζονται θεμελιώδη ανθρώπινα δικαιώματα, συμπεριλαμβανομένου του δικαιώματος αίτησης ασύλου. «Παρατηρήσαμε τρομακτική έλλειψη διαφάνειας στον τρόπο λειτουργίας αυτών των αλγορίθμων. Μεγάλο μέρος του ρεπορτάζ μας βασίστηκε σε πληροφοριοδότες και επιτόπιες έρευνες».

Αλγόριθμοι πρόβλεψης στο ποινικό σύστημα

Παρόλο που η τεχνητή νοημοσύνη προσφέρει απίστευτες δυνατότητες, θέτει παράλληλα και σημαντικά ηθικά και δημοκρατικά ζητήματα. Ο Ισπανός δημοσιογράφος Pablo Jiménez Arandia εργάζεται στο project Decision Machines, το οποίο εξετάζει – από τη σκοπιά των ανθρωπίνων δικαιωμάτων – τον τρόπο χρήσης των αλγόριθμων πρόβλεψης από την κυβέρνηση της Ισπανίας, της Ιταλίας και της Ολλανδίας σε ευαίσθητους χώρους και τομείς, όπως τα δικαστήρια, οι φυλακές και η αστυνόμευση. Στις φυλακές της Καταλονίας στην Ισπανία, χρησιμοποιείται εδώ και 15 χρόνια το RisCanvi, ένα εργαλείο εκτίμησης κινδύνου το οποίο προβλέπει τις πιθανότητες των κρατουμένων να υποπέσουν ξανά σε αξιόποινες πράξεις μετά την αποφυλάκισή τους. «Η βαθμολογία που προκύπτει από τον αλγόριθμο χρησιμοποιείται με διάφορους τρόπους, επηρεάζοντας τις αποφάσεις σχετικά με τα προγράμματα περίθαλψης και επανένταξης των κρατουμένων, ενώ χρησιμοποιείται παράλληλα από δικαστές και εισαγγελείς κατά τον καθορισμό της αναστολής υπό όρους [των κρατουμένων]», δήλωσε. 

Τεχνητή νοημοσύνη στην αστυνόμευση: ηθικά ζητήματα και λογοδοσία

Παρουσιάζεται, επίσης, αύξησης της χρήσης της τεχνητής νοημοσύνης για τον έλεγχο της εγκληματικότητας, συχνά εις βάρος των δικαιωμάτων και της αξιοπρέπειας των ατόμων που παρακολουθούνται. Ο Pierluigi Bizzini, freelance δημοσιογράφος με έδρα τη Σικελία, ερευνά το KeyCrime, ένα λογισμικό πρόβλεψης που χρησιμοποιείται από την αστυνομία στο Μιλάνο από το 2008 για την καταπολέμηση της εγκληματικότητας. Το λογισμικό συλλέγει μεγάλους όγκους δεδομένων από ανακρίσεις και συγκρίνει πληροφορίες από πρόσφατες ανακρίσεις με δεδομένα από προηγούμενα περιστατικά για τον εντοπισμό μοτίβων όταν διαπράττεται ένα νέο έγκλημα σε μια συγκεκριμένη περιοχή. Το KeyCrime δημιουργεί αντιστοιχίες μεταξύ νέων και παλαιότερων εγκλημάτων, με στόχο τον εντοπισμό πιθανών δραστών κατά συρροή. Ωστόσο, έχουν εκφραστεί ανησυχίες ότι η διεξαγωγή ανακρίσεων αμέσως μετά από ένα περιστατικό μπορεί να πιέσει τα θύματα να ομολογήσουν ενώ βρίσκονται ακόμη σε κατάσταση σοκ. Η διαδικασία συλλογής και χρήσης δεδομένων από υπόπτους για εγκλήματα περιπλέκει περαιτέρω τα ηθικά ζητήματα που αφορούν τη χρήση αλγορίθμων πρόβλεψης στην επιβολή του νόμου. Οι συνεργατικές ερευνητικές εργασίες που έχουν γίνει στην Ευρώπη παρέχουν ένα μοντέλο για το πώς μπορούν οι δημοσιογράφοι, σε παγκόσμιο επίπεδο, να επιστήσουν την προσοχή στις ανεπάρκειες των αλγορίθμων που επηρεάζουν τις ζωές των ανθρώπων.

Ο Pierluigi Bizzini πρόσθεσε ότι, στην Ιταλία, τα αιτήματα του Νόμου περί Ελευθερίας της Πληροφορίας (FOIA) είναι συχνά αναποτελεσματικά για διάφορους λόγους. «Οι δημοσιογράφοι είτε δεν λαμβάνουν καμία απάντηση είτε πρέπει να περιμένουν δύο και τρεις μήνες», είπε. Η χαλαρή στάση της κυβέρνησης όσον αφορά τη διαφάνεια αφήνει αναπάντητα κρίσιμα ερωτήματα σχετικά με τον τρόπο εκπαίδευσης και λειτουργίας αυτών των αλγορίθμων.

Οι δημοσιογράφοι παίζουν βασικό ρόλο στην ανάπτυξη και την ανταλλαγή στρατηγικών για την υπέρβαση των εμποδίων στην πρόσβαση σε πληροφορίες αλγορίθμων

Daniel Howden, ιδρυτής και διευθυντής του Lighthouse Reports

Αποκάλυψη μεροληπτικών αλγορίθμων σε συστήματα κοινωνικής πρόνοιας

Ο Daniel Howden, ιδρυτής και διευθυντής του Lighthouse Reports, έχει ηγηθεί ερευνητικών προσπαθειών που δείχνουν ότι οι αλγόριθμοι είναι κάθε άλλο παρά ουδέτεροι. Οι αλγόριθμοι χρησιμοποιούνται για να επηρεάσουν κυβερνητικές αποφάσεις, γεγονός που έχει εκτεταμένες συνέπειες σε ευαίσθητους τομείς όπως η κοινωνική πρόνοια. Έρευνα διάρκειας 18 μηνών του Lighthouse Reports πάνω σε συστήματα βαθμολόγησης κινδύνου με βάση την τεχνητή νοημοσύνη σε προγράμματα κοινωνικής πρόνοιας σε όλη την Ευρώπη αποκάλυψε ότι οι αλγόριθμοι καθρεφτίζουν τις προκαταλήψεις που υπάρχουν στα δεδομένα με τα οποία τροφοδοτούνται. Η έκθεση έδειξε ότι η αλγοριθμική «μηχανή υποψίας» (suspicion machine) που χρησιμοποιείται για τον εντοπισμό απάτης στον τομέα της πρόνοιας στο Ρότερνταμ της Ολλανδίας, στοχοποιεί δυσανάλογα άτομα με βάση την εθνικότητα, τη γλώσσα, το φύλο, τη γονική ιδιότητα, την εμφάνιση και την οικογενειακή κατάσταση. Παρά την ανάλυση περισσότερων από 315 σημείων πληροφοριών, ο αλγόριθμος απέδωσε οριακά καλύτερα από την τυχαία εκτίμηση και έχει κατηγορηθεί για όξυνση των ανισοτήτων. 

Όπως εξήγησε ο Howden, «όταν στοχοποιείσαι επειδή η μηχανή αποφάσισε ότι, βάσει του προφίλ σου, ενδέχεται να είσαι ένοχος για απάτη, μπορεί να χάσεις τα δικαιώματά σου στην πρόνοια, τη δυνατότητα να πληρώνεις ενοίκιο και την πρόσβαση σε πληρωμές που είναι απαραίτητες για να θρέψεις την οικογένειά σου». Η οξεία κριτική για τις επιπτώσεις που προκαλούν διακρίσεις οδήγησε στην αναστολή της χρήσης του αλγορίθμου στο Ρότερνταμ το 2021. Μετά την κατάργηση του αλγόριθμου, η πόλη εξέδωσε ανακοίνωση με την οποία ενθάρρυνε τις πόλεις σε όλο τον κόσμο να υποβληθούν σε αντίστοιχους ελέγχους. 

Τι πρέπει να κάνουν οι δημοσιογράφοι για να αποκαλύψουν τους μηχανισμούς πίσω από την τεχνητή νοημοσύνη;

Watchdog Journalism: «Οι δημοσιογράφοι παίζουν βασικό ρόλο στην ανάπτυξη και την ανταλλαγή στρατηγικών για την υπέρβαση των εμποδίων στην πρόσβαση σε πληροφορίες αλγορίθμων», δήλωσε ο Howden. Η έλλειψη διαφάνειας γύρω από τη συλλογή, τη χρήση, την ανταλλαγή και την αποθήκευση αλγοριθμικών δεδομένων υπογραμμίζει την επιτακτική ανάγκη των δημοσιογράφων να καταστήσουν τις δημόσιες αρχές και τους προγραμματιστές τεχνολογιών υπόλογους για τα συστήματα που δημιουργούν.

Διεπιστημονική Συνεργασία: «Οι δημοσιογράφοι πρέπει να αναπτύξουν τεχνογνωσία και να επιδιώξουν συνεργασίες με τεχνικούς και επιστήμονες δεδομένων προκειμένου να ερευνήσουν τις εσωτερικές διεργασίες αυτών των αινιγματικών μηχανών», σημείωσε ο Γιώργος Χρηστίδης. Για να διασφαλιστεί η δίκαιη και υπεύθυνη χρήση των αλγορίθμων, απαιτείται μεγαλύτερη διαφάνεια.

Συνεργασία με τις κοινότητες: «Οι δημοσιογράφοι πρέπει να δημιουργήσουν συνεργασίες με τις κοινότητες», δήλωσε ο Bizzini, τονίζοντας ότι, δεδομένου ότι οι αποφάσεις των συστημάτων τεχνητής νοημοσύνης καθορίζονται σε μεγάλο βαθμό από τα δεδομένα εκπαίδευσης, η αύξηση του αριθμού των δεδομένων αποτελεί κλειδί. Η εκπαίδευση των κοινοτήτων γύρω από τα συστήματα τεχνητής νοημοσύνης είναι ζωτικής σημασίας για τον μετριασμό των άδικων επιπτώσεών τους. Η “διαβουλευτική δημοκρατία” παρουσιάζει μια ευκαιρία για τους δημοσιογράφους, τους υπεύθυνους χάραξης πολιτικής και τους επιστήμονες δεδομένων, συμπεριλαμβανομένων των ακαδημαϊκών, να εξετάσουν από κοινού τις κανονιστικές αξίες που θα μπορούσαν να ενισχύσουν τη νομιμότητα των υποδομών τεχνητής νοημοσύνης.

Διασφάλιση της δικαιοσύνης στην τεχνητή νοημοσύνη: ο ουσιαστικός ρόλος της δημοσιογραφίας

Η τεχνητή νοημοσύνη υποτίθεται ότι πρέπει να λειτουργεί συμπληρωματικά με τις ανθρώπινες αποφάσεις και όχι να τις αντικαθιστά, ιδιαίτερα σε δημόσιες υπηρεσίες όπου απαιτούνται υψηλά επίπεδα δικαιοσύνης και λογοδοσίας. Η εξασφάλιση μεγαλύτερης εποπτείας και κατανόησης του τρόπου λειτουργίας αυτών των αλγορίθμων είναι απαραίτητη για τη δημιουργία δικαιότερων και υπευθυνότερων συστημάτων. Ποιος είναι ο ρόλος των δημοσιογράφων και πώς μπορούν να συνεργαστούν με τους φορείς χάραξης πολιτικής, τις ιδιωτικές εταιρείες, τους εκπαιδευτικούς και τις κοινότητες για τη βελτίωση της ποιότητας των δεδομένων που χρησιμοποιούνται στην κατασκευή συστημάτων τεχνητής νοημοσύνης; 

Μιλήσαμε με δύο ειδικούς από το Πανεπιστήμιο του Delaware, τον Danilo Yanich, καθηγητή Αστικών Υποθέσεων και Δημόσιας Πολιτικής στη σχολή Δημόσιας Πολιτικής και Διοίκησης, Joseph R. Biden, Jr., και τον Δρ. Timothy Shaffer, διευθυντή της πρωτοβουλίας Ithaca του Ιδρύματος Σταύρος Νιάρχος (ΙΣΝ). 

Η προτεραιότητα των κολοσσών της τεχνολογίας κατά τον σχεδιασμό των αλγοριθμικών συστημάτων μπορεί να είναι είτε το δημόσιο συμφέρον είτε το κέρδος. Όταν λειτουργούν με γνώμονα το κέρδος, προκύπτουν σοβαρά ηθικά ζητήματα, δήλωσε ο καθηγητής Yanich. Αυτοί οι αλγόριθμοι απαιτούν μια πιο συμμετοχική προσέγγιση στον σχεδιασμό της τεχνητής νοημοσύνης, που να περιλαμβάνει τις φωνές των ανθρώπων που επηρεάζονται περισσότερο από αυτές τις ταχέως εξελισσόμενες τεχνολογίες. Οι δημοσιογράφοι μπορούν να βοηθήσουν με την επαλήθευση και την παροχή αποδείξεων. «Αυτός είναι ο δρόμος που πρέπει να ακολουθήσουμε. Πρέπει να επιβεβαιώσουμε αν οι αποφάσεις που βασίζονται στην τεχνητή νοημοσύνη είναι αποτελεσματικές ή όχι», δήλωσε ο καθηγητής Yanich. 

Τα μέσα μαζικής ενημέρωσης διαδραματίζουν κρίσιμο ρόλο στην προώθηση του διαλόγου και στην αποκάλυψη και την αφήγηση ιστοριών που διαφορετικά θα παρέμεναν άγνωστες. Μπορούν να βοηθήσουν τον κόσμο να κατανοήσει ότι υπάρχουν διαφορετικές πραγματικότητες και να τους εξοπλίσει με τα κατάλληλα εργαλεία ώστε να διακρίνουν πότε να εμπιστεύονται ή να αμφισβητούν τις αποφάσεις που λαμβάνονται από την τεχνητή νοημοσύνη» δήλωσε ο Δρ. Shaffer. Έκανε επίσης έκκληση για συνεργασία μεταξύ ακαδημαϊκών και δημοσιογράφων, ώστε να ενισχυθεί η κριτική εξέταση των κοινωνιολογικών, ιστορικών και ηθικών διαστάσεων των νέων τεχνολογιών. «Η εκπαίδευση», σημείωσε, «θα πρέπει να μας βοηθήσει να κατανοήσουμε ότι τίποτα, συμπεριλαμβανομένης της τεχνητής νοημοσύνης, δεν υπάρχει μεμονωμένα – τα πάντα προέρχονται από κάπου και είναι συνήθως πολύ πιο πολύπλοκα από ό,τι νομίζουμε». 

Μπορείτε να παρακολουθήσετε ξανά τη συζήτηση εδώ. 

Δείτε όλες τις ιστορίες του PopUp Newsroom 2024 εδώ.