Δεδομενα

Tips για να ερευνήσετε την εργασιακή εκμετάλλευση στον τομέα της τεχνητής νοημοσύνης στον «Παγκόσμιο Νότο»

Πώς να ερευνήσετε την τεχνητή νοημοσύνη, όταν οι εργαζόμενοι που τη τροφοδοτούν παραμένουν αόρατοι και τα δεδομένα χειραγωγούνται.

Αυτό το άρθρο δημοσιεύθηκε αρχικά από το Global Investigative Journalism Network (GIJN) στις 15/1/2026. Mε την άδειά του, μεταφράστηκε στα ελληνικά από το iMEdD και αναδημοσιεύεται από το iMEdD. Οποιαδήποτε άδεια αναδημοσίευσης υπόκειται στον αρχικό εκδότη. Διαβάστε το πρωτογενές άρθρο εδώ.

Μετάφραση: Εβίτα Λύκου
Κεντρική εικόνα: Jamillah Knowles & Digit / https://betterimagesofai.org / https://creativecommons.org/licenses/by/4.0/


Ειδηση

Ένα δημόσια διαθέσιμο workshop για να κάνετε άφοβα ρεπορτάζ για την τεχνητή νοημοσύνη

Το Pulitzer Center ξεκίνησε ένα ανοιχτό διαδικτυακό πρόγραμμα που βοηθά τους δημοσιογράφους να κατανοήσουν την τεχνολογική εξέλιξη γύρω από την τεχνητή νοημοσύνη.

Το 2024, το Bureau of Investigative Journalism (TBIJ) διεξήγαγε μια συνταρακτική έρευνα που έδειξε ότι περιστασιακοί υπάλληλοι (gig workers) στον «παγκόσμιο Nότο» δημιουργούσαν εν αγνοία τους συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνταν για την καταστολή των διαφωνούντων στη Ρωσία. Από την έρευνα προέκυψε ότι ανυποψίαστοι εργαζόμενοι στην Ανατολική Αφρική και στη Νότια Ασία πληρώνονταν για την εκπλήρωση μικρών εργασιών σχετικά με δεδομένα –ανέβασμα φωτογραφιών, ετικετοποίηση φωτογραφιών και σχεδίαση παραλληλογράμμων γύρω από ανθρώπινα σώματα σε υλικό από κάμερες κλειστού κυκλώματος παρακολούθησης– τα οποία χρησιμοποιήθηκαν για την τροφοδοσία συστημάτων αναγνώρισης προσώπου με τεχνητή νοημοσύνη που αναπτύχθηκαν για την παρακολούθηση και τη σύλληψη Ρώσων αντιφρονούντων.

Σε ένα πάνελ με τίτλο Investigating Algorithms του 14ου Παγκόσμιου Συνεδρίου Ερευνητικής Δημοσιογραφίας (GIJC25) στη Μαλαισία, βετεράνοι δημοσιογράφοι που ασχολούνται με την τεχνητή νοημοσύνη αποκάλυψαν ότι οι ανεπίβλεπτες διαδικτυακές συζητήσεις των περιστασιακών υπαλλήλων σε υπηρεσίες δεδομένων προσφέρουν μια πλούσια πηγή στοιχείων για ευρύτερα θέματα, από την εργασιακή εκμετάλλευση έως την κυβερνητική παρακολούθηση και τις καταχρήσεις της ανάπτυξης αλγορίθμων –όπως ακριβώς πρόσφεραν και τη δυνατότητα να γίνει η έρευνα του TBIJ.

Οι συμμετέχοντες στο πάνελ πρόσθεσαν ότι η εργασιακή εκμετάλλευση ήταν ένα από τα πολλά ανεπαρκώς μελετημένα θέματα στο κομμάτι των εκπαιδευτικών δεδομένων της ανάπτυξης της τεχνητής νοημοσύνης –και ότι ένα άλλο, ολοκαίνουργιο ερευνητικό πεδίο ήταν η απειλή της «δηλητηρίασης δεδομένων» (περισσότερα γι’ αυτό παρακάτω).

«Η διερεύνηση των εργασιακών δικαιωμάτων γύρω από τις μεγάλες επιχειρήσεις τεχνολογίας μπορεί να αποφέρει πραγματικά πολλά αποτελέσματα», δήλωσε ο Τζάσπερ Τζάκσον (Jasper Jackson), διευθύνων σύμβουλος της έκδοσης Transformer. «Αυτές οι έρευνες όχι μόνο δίνουν μια καλή εικόνα για το πώς δημιουργούνται αυτά τα τεχνολογικά συστήματα, αλλά παρουσιάζουν, επίσης, και ιστορίες για τους ανθρώπους: πώς τους επηρεάζει η δουλειά τους, αλλά και πώς τους κάνουν να αισθάνονται οι συχνά άγνωστες επιπτώσεις αυτής της δουλειάς».

Στo πάνελ του GIJC25 συμμετείχαν, επίσης, ο Γκάμπριελ Γκάιγκερ (Gabriel Geiger), ερευνητής δημοσιογράφος του Lighthouse Reports, η Λαμ Τούι Βου (Lam Thuy Vo), ερευνήτρια δημοσιογράφος του Documented, και η Κάρολ Ίλαγκαν (Karol Ilagan), πρόεδρος του Τμήματος Δημοσιογραφίας του Πανεπιστημίου των Φιλιππίνων – Ντίλιμαν.

Οι συμμετέχοντες στο πάνελ επισήμαναν επίσης μια έρευνα του Μπίλι Πέριγκο (Billy Perrigo) στο περιοδικό Time το 2023, ως προτεινόμενο ανάγνωσμα για τους δημοσιογράφους που αναζητούν ιδέες για τη διεξαγωγή ερευνών σχετικά με την εκμετάλλευση της εργασίας στον τομέα της τεχνητής νοημοσύνης στον Παγκόσμιο Νότο. Εκτός από τον εντοπισμό περιπτώσεων εξωτερικής ανάθεσης σε εταιρείες πρόσληψης «ηθικής τεχνητής νοημοσύνης» και μισθούς μικρότερους των 2 δολαρίων την ώρα, ο Πέριγκο διαπίστωσε ότι χιλιάδες εργαζόμενοι στην Κένυα υπέφεραν από προβλήματα ψυχικής υγείας μετά την ετικετοποίηση μεγάλου όγκου άκρως δυσάρεστου διαδικτυακού περιεχομένου που στόχο είχε να βοηθήσει ένα μεγάλο chatbot τεχνητής νοημοσύνης να γίνει λιγότερο τοξικό.

Ο Τζάκσον, ο οποίος ήταν συντάκτης στο θέμα του TBIJ, αποκάλυψε ότι οι εργαζόμενοι στην εισαγωγή δεδομένων προσλαμβάνονται όλο και περισσότερο από θυγατρικές τεχνολογικών πλατφορμών σε «επισφαλείς καταστάσεις», όπως στρατόπεδα προσφύγων και άτυπους οικισμούς, και ότι η εργασία τους συχνά χρησιμοποιείται για τον εκφοβισμό των διαφωνούντων. Για παράδειγμα, μια έμπειρη πηγή είπε στην ομάδα του Τζάκσον ότι η αναγνώριση προσώπου που είναι ενσωματωμένη στις 178.000 κάμερες κλειστού κυκλώματος παρακολούθησης της Μόσχας χρησιμοποιείται για «προληπτικές συλλήψεις», με στόχο τον «εκφοβισμό για να αποθαρρυνθεί η μελλοντική συμμετοχή σε διαδηλώσεις».

Η έρευνα του TBIJ αποκάλυψε ότι εργαζόμενοι περιστασιακής απασχόλησης στην Αφρική χρησιμοποιούνταν, για να συμβάλουν στην εκπαίδευση της ρωσικής κυβέρνησης στη χρήση τεχνητής νοημοσύνης για τον εντοπισμό και τη στοχοποίηση διαδηλωτών. Εικόνα: Στιγμιότυπο οθόνης, TBIJ

«Αυτοί οι άνθρωποι δεν είχαν ιδέα τι τροφοδοτούσαν με τα δεδομένα τους», σημείωσε ο Τζάκσον, ο οποίος είναι τώρα διευθυντής της Transformer. «Όταν σκεφτόμαστε τα μεγάλα γλωσσικά μοντέλα, θεωρούμε ότι συλλέγουν βάσεις δεδομένων και το περιεχόμενο του διαδικτύου, αλλά πρέπει να θυμόμαστε ότι πολλά από τα δεδομένα που μπαίνουν στους αλγόριθμους και στα συστήματα τεχνητής νοημοσύνης απαιτούν πολλή ανθρώπινη δουλειά. Ειδικότερα, η ετικετοποίησή τους, η οποία δίνει το πλαίσιο που βοηθά τις μηχανές να μάθουν τι προσλαμβάνουν. Οι μεγάλες εταιρείες τεχνολογίας έχουν δημιουργήσει αυτό το πολυδιασπασμένο εργατικό δυναμικό. Για παράδειγμα, ορισμένες από τις εργασίες εισαγωγής δεδομένων συνηθίζεται αρκετά να γίνονται στους καταυλισμούς προσφύγων, μια και, κατά περίεργο τρόπο, είναι ένας τρόπος να κερδίσει κανείς χρήματα, όταν δεν μπορεί να το κάνει με νόμιμη εργασία, ή όταν το μόνο που χρειάζεται είναι πρόσβαση σε έναν υπολογιστή, τον οποίο συχνά παρέχουν καλοπροαίρετες οργανώσεις».

Αξίζει να σημειωθεί ότι η έρευνα του TBIJ αποκάλυψε, επίσης, την ερευνητική αξία μιας λεπτομερούς βάσης δεδομένων από τη ρωσική ομάδα ανθρωπίνων δικαιωμάτων OVD-Info, η οποία όχι μόνο έδειξε πως η αναγνώριση προσώπου χρησιμοποιήθηκε στη σύλληψη 454 ατόμων που διαδήλωναν κατά της φυλάκισης του ηγέτη της ρωσικής αντιπολίτευσης Αλεξέι Ναβάλνι (Alexei Navalny) το 2021, αλλά και ότι επιπλέον 19 άτομα που απλώς παρέστησαν στην κηδεία του το 2024 συνελήφθησαν επίσης με την ίδια τεχνολογία. Οι δημοσιογράφοι εντόπισαν, επίσης, εταιρείες τεχνολογίας στις οποίες έχουν επιβληθεί κυρώσεις και οι οποίες συνέχισαν να προσλαμβάνουν εργαζόμενους στο εξωτερικό, υπογραμμίζοντας τη σημασία του ελέγχου των βάσεων δεδομένων κυρώσεων, όπως οι OpenSanctions και Sayari.

Αυτό που αρχικά υποκίνησε την έρευνα, σημείωσε ο Τζάκσον, ήταν μια αίσθηση διαδικτυακής αλληλεγγύης ανάμεσα σε εργαζόμενους σε μέρη όπως οι Φιλιππίνες, η Τουρκία και η Κένυα, οι οποίοι προσπαθούσαν να βοηθήσουν ο ένας τον άλλον να κατανοήσει τις παράξενες εργασίες δεδομένων που τους είχαν ανατεθεί στις απομακρυσμένες τοποθεσίες τους.

«Καταφέραμε να πληροφορηθούμε αυτό το θέμα χάρη στους ίδιους τους εργαζόμενους, οι οποίοι απλώς συζητούσαν τρόπους για να διεκπεραιώσουν αυτές τις νέες εργασίες, και μοιράζονταν πληροφορίες και συμβουλές με τους συναδέλφους τους», εξήγησε. «Έφτιαχναν βίντεο στο YouTube για το πώς να εισάγουν αυτά τα δεδομένα και έκαναν αναρτήσεις στο Reddit και στα φόρουμ του Facebook».

Με μια πανέξυπνη, σχεδόν αστυνομική, επιχείρηση, οι δημοσιογράφοι του TBIJ μπόρεσαν να επιβεβαιώσουν ότι οι εργασίες εισαγωγής δεδομένων ανατέθηκαν μετά την ημερομηνία επιβολής των κυρώσεων στον εργοδότη της εταιρείας τεχνολογίας –εστιάζοντας στους καθημερινούς τίτλους ειδήσεων που αναβόσβηναν στο επάνω μέρος των οθονών των τηλεφώνων των εργαζομένων στα βίντεο με τις συμβουλές.

Η Ιλάγκαν δήλωσε ότι είναι σημαντικό για τις αίθουσες σύνταξης να απομυθοποιήσουν τα αλγοριθμικά συστήματα και να τα αντιμετωπίζουν με οικείους όρους –όπως μια μαγειρική συνταγή.

«Συχνά γνωρίζουμε τα δεδομένα εισόδου και εξόδου, αλλά δεν γνωρίζουμε τη συνταγή –ή πώς η είσοδος έγινε έξοδος», τόνισε. «Για πολλές χώρες –ιδίως στη Νοτιοανατολική Ασία, όπου υπάρχουν ελάχιστα καταξιωμένα τεχνολογικά ρεπορτάζ– η διερεύνηση των αλγορίθμων μπορεί να μοιάζει άγνωστη ή τρομακτική».

Οι συμμετέχοντες στο πάνελ δήλωσαν ότι οι ανεκμετάλλευτες πηγές για τις έρευνες σχετικά με την εργασία στον τομέα των αλγορίθμων περιλαμβάνουν:

  • Συνδικάτα
  • Δικηγόρους και ΜΚΟ
  • Διαφημίσεις και καταχωρήσεις για θέσεις περιστασιακών υπαλλήλων
  • Δημόσιες συμβάσεις
  • Ομάδες συνομιλιών

Το πρόσφατο επεξηγηματικό άρθρο του Τζάκσον για το πώς τα καταπιεστικά καθεστώτα χρησιμοποιούν όλο και περισσότερο την ανεπαρκώς ρυθμισμένη τεχνολογική βιομηχανία αναγνώρισης προσώπου για καταστολή αποτελεί, επίσης, μια χρήσιμη πυξίδα για το θέμα.

Διερεύνηση των κινδύνων αλγοριθμικών εξόδων

Για τις έρευνες σχετικά με τους κινδύνους από τους αλγόριθμους –από τη μεροληψία έως την παραπληροφόρηση– ο Γκάιγκερ δήλωσε ότι ο συνδυασμός δημιουργικών αιτημάτων δημόσιων αρχείων, συστηματικών ελέγχων «μαύρου κουτιού» και παραδοσιακής δημοσιογραφίας είναι οι βέλτιστες πρακτικές που πρέπει να ακολουθηθούν.

Η πρόσφατη έρευνα του Lighthouse Reports σχετικά με τη χρήση συστημάτων τεχνητής νοημοσύνης από τη Σουηδία για την αξιολόγηση των δικαιούχων κοινωνικής πρόνοιας διαπίστωσε ότι το μοντέλο έκανε διακρίσεις εις βάρος των γυναικών και των μειονοτικών ομάδων.

Αξίζει να σημειωθεί ότι η ομάδα του αντιμετώπισε «αμείλικτες» αρνήσεις σε αιτήματα ανοικτών αρχείων από τον Οργανισμό Κοινωνικών Ασφαλίσεων της Σουηδίας (SIA), παρά το αποδεδειγμένο ιστορικό διαφάνειας της χώρας όσον αφορά τις πληροφορίες. Σε ένα έξυπνο τεστ για να καταδειχθεί η εσκεμμένη κωλυσιεργία της κυβέρνησης όσον αφορά στα αλγοριθμικά δεδομένα, το οποίο θα μπορούσαν να εκμεταλλευτούν και άλλες αίθουσες σύνταξης, η ομάδα ζήτησε πληροφορίες που ο SIA είχε ήδη δημοσιεύσει στις ετήσιες εκθέσεις του. Όταν αρνήθηκαν να δώσουν ακόμη και αυτά τα ήδη δημόσια δεδομένα, μπόρεσαν να δείξουν στους αναγνώστες το επίπεδο της κυβερνητικής υπερβολής που χαρακτηρίζει τα δεδομένα της τεχνητής νοημοσύνης ως «εμπιστευτικά».

Οι παρευρισκόμενοι στο GIJC γέλασαν, επίσης, όταν έμαθαν ότι ένας Σουηδός αξιωματούχος κοινοποίησε κατά λάθος στον Γκάιγκερ μια εσωτερική αλληλογραφία μηνυμάτων ηλεκτρονικού ταχυδρομείου με διαμαρτυρίες για την επίμονη του στο ρεπορτάζ, όπου έγραφε: «Ας ελπίσουμε ότι τελειώσαμε μαζί του!»

Στο τέλος, η ομάδα του Γκάιγκερ βρήκε μια έξυπνη λύση, για να αντιμετωπίσει την κωλυσιεργία του SIA: εντόπισε έναν ανεξάρτητο εποπτικό οργανισμό που είχε ήδη μελετήσει τους αλγόριθμους βαθμολόγησης κινδύνου του SIA και, στη συνέχεια, ζήτησε τα υποκείμενα δεδομένα του SIA από τον εν λόγω ελεγκτικό οργανισμό. (Δείτε τη συναρπαστική, πλήρη μεθοδολογία από την έρευνα Sweden’s Suspicion Machine εδώ.)

Η έρευνα του Lighthouse Reports εξέτασε πώς η σουηδική υπηρεσία κοινωνικής ασφάλισης χρησιμοποίησε έναν αλγόριθμο ανίχνευσης απάτης που κατέληγε να στοχοποιεί άδικα άτομα με συγκεκριμένα δημογραφικά χαρακτηριστικά.
Εικόνα: Στιγμιότυπο οθόνης, Lighthouse Reports

Όσον αφορά τα ζητήματα μεροληψίας και στερεοτύπων, ο Γκάιγκερ υπογράμμισε ότι οι έρευνες με αλγοριθμικά στοιχεία δεν είναι απαραίτητο να είναι τεχνικές και μπορούν απλώς να συμπεριλάβουν δημοσιογράφους που κάνουν δεκάδες απλά αιτήματα σε chatbot ή πλατφόρμες και καταγράφουν τα αποτελέσματα σε ένα υπολογιστικό φύλλο.

«Εάν καταλήξετε στο συμπέρασμα ότι “δεν πρόκειται να καταφέρω να αποκτήσω τον αλγόριθμο προτάσεων του Facebook”, μπορείτε αντ’ αυτού να παρατηρήσετε πώς συμπεριφέρεται το σύστημα στον πραγματικό κόσμο», εξήγησε. «Μπορεί να μη χρειάζεται κάποιο φανταχτερό στατιστικό πείραμα: απλώς δύο ανθρώπους που χρησιμοποιούν μια συστηματική, συνεπή μεθοδολογία για να καταλήξουν σε ένα ενδιαφέρον συμπέρασμα».

Η Λαμ Τούι Βο πρόσθεσε: «Με τους αλγόριθμους των μέσων κοινωνικής δικτύωσης, δεν είναι απαραίτητα σημαντικό να γνωρίζετε πώς λειτουργούν –είναι μάλλον καλύτερο να καταλάβετε τι προωθούν και τι όχι. Να διερευνήσετε το σύστημα όχι από την άποψη του πώς λειτουργεί, αλλά βρίσκοντας αντιπαραθετικά πειράματα για να αποδείξετε ότι το σύστημα κάνει ζημιά».

Η νέα απειλή της «δηλητηρίασης δεδομένων»

Το πάνελ επέστησε επίσης την προσοχή των συμμετεχόντων σε μια πρόσφατη συνεργατική μελέτη από το Ηνωμένο Βασίλειο, η οποία αποκάλυψε μια άγνωστη μέχρι σήμερα απειλή για τα συστήματα τεχνητής νοημοσύνης και, τελικά, για τους χρήστες: ότι επιτήδειοι μπορούν αθόρυβα να «δηλητηριάσουν» μεγάλα γλωσσικά μοντέλα που κυριαρχούν όλο και περισσότερο στις οικονομίες με ελάχιστες ποσότητες κακών δεδομένων. Η έρευνα που εκπονήθηκε από το Ινστιτούτο Alan Turing, το Anthropic και το Ινστιτούτο Ασφάλειας Τεχνητής Νοημοσύνης του Ηνωμένου Βασιλείου διαπίστωσε ότι μόλις 250 κακόβουλα έγγραφα –π.χ. ψεύτικες σελίδες της Wikipedia ή λογαριασμοί μέσων κοινωνικής δικτύωσης με ενσωματωμένες φράσεις κλειδιά–, εάν εισαχθούν σε δεδομένα εκπαίδευσης, μπορούν να αναγκάσουν ακόμη και γιγαντιαία συστήματα τεχνητής νοημοσύνης με 13 δισεκατομμύρια παραμέτρους να διαστρεβλώσουν την αλήθεια ή να βλάψουν το κοινό. Εν ολίγοις: η μελέτη κατέρριψε τις υποθέσεις ότι η χειραγώγηση μεγάλων πλατφορμών τεχνητής νοημοσύνης θα απαιτούσε εκατομμύρια έγγραφα με ενσωματωμένο περιεχόμενο και τεράστιες δαπάνες και, αντίθετα, έδειξε ότι μια «ασήμαντη» ποσότητα θα μπορούσε να χρησιμεύσει ως κερκόπορτα για την καπήλευση σχεδόν οποιουδήποτε συστήματος τεχνητής νοημοσύνης, ανεξάρτητα από το μέγεθός του. Χρήσιμες πηγές για το θέμα αυτό είναι το DFRLab του Atlantic Council και το American Sunlight Project.

Ο Τζάκσον υπενθύμισε πώς οι δημοσιογράφοι το 2024 είχαν αρχικά μπερδευτεί όταν εμφανίστηκαν στο διαδίκτυο εκατομμύρια προφανώς παράλογα προπαγανδιστικά άρθρα που κανείς δεν διάβαζε. Οι ερευνητές διαπίστωσαν γρήγορα ότι ο σκοπός της εκστρατείας παραπληροφόρησης «Pravda Portal Kombat» δεν ήταν η χειραγώγηση των ανθρώπων, αλλά η χειραγώγηση των συστημάτων τεχνητής νοημοσύνης. Ο Τζάκσον δήλωσε ότι το γεγονός ότι μικρές, εύκολα συγκαλυμμένες εκστρατείες που περιλαμβάνουν μόλις 250 έγγραφα θα μπορούσαν να αλλοιώσουν τα αποτελέσματα ενός συστήματος τεχνητής νοημοσύνης αποτελεί μια απειλή για την οποία κάθε δημοσιογράφος θα πρέπει να είναι ενήμερος.