Ο Καθηγητής Νικ Διακόπουλος μιλά στο iMEdD για τον τρόπο με τον οποίο η παραγωγική τεχνητή νοημοσύνη επηρεάζει τα newsroom και το συγκριτικό πλεονέκτημα της δημοσιογραφίας στην παραγωγή περιεχομένου. Σχολιάζει τις ανταγωνιστικές πιέσεις που δέχονται τα media στον τομέα της διανομής και θεωρεί ακόμη υπαρκτή την ευκαιρία της εμπιστοσύνης στη δημοσιογραφία.
Κεντρική φωτογραφία: Δημήτρης Αδάμης/DataJConf 2025
Τι κρατήσαμε από το φετινό European Data & Computational Journalism Conference
Παρακολουθήσαμε το πέμπτο Ευρωπαϊκό Συνέδριο Δημοσιογραφίας Δεδομένων και Υπολογιστικής Δημοσιογραφίας, που έγινε για πρώτη φορά στην Αθήνα. Και συγκεντρώνουμε εδώ μερικά πράγματα που κρατήσαμε.
H «φούσκα» της παραγωγικής τεχνητής νοημοσύνης αρχίζει να ξεφουσκώνει λίγο. Αυτό που περιμένω τα επόμενα χρόνια είναι ότι, καθώς αυτές οι τεχνολογίες ωριμάζουν και ενσωματώνονται στους ειδησεογραφικούς οργανισμούς, θα γίνουν λίγο βαρετές — και ίσως αυτό είναι καλό.
Ερευνώντας την τεχνητή νοημοσύνη: τι βρίσκεται πέρα από τον αλγόριθμο
Η Τεχνητή Νοημοσύνη αποτελεί πλέον αναπόσπαστο κομμάτι της καθημερινότητάς μας, όμως το πραγματικό κόστος το πληρώνουν κάποιοι άλλοι. Στο συνέδριο Dataharvest, δημοσιογράφοι παρουσίασαν τις έρευνές τους και μοιράστηκαν συμβουλές για το πώς μπορεί κανείς να ερευνήσει σε βάθος αυτήν την τεχνολογία.
Άνθρωπος αναφοράς στον τομέα της υπολογιστικής δημοσιογραφίας από την εποχή που ο προγραμματισμός, τα δεδομένα και το τεχνολογικά υποβοηθούμενο ρεπορτάζ δεν είχε περάσει, θα τολμούσε κανείς να πει, στην άλλη πλευρά του Ατλαντικού —τουλάχιστον όχι για τα καλά. Καθηγητής Σπουδών Επικοινωνίας και της Επιστήμης των Υπολογιστών στο Πανεπιστήμιο Northwestern στο Ιλινόι των ΗΠΑ, και Διευθυντής του Εργαστηρίου Υπολογιστικής Δημοσιογραφίας εκεί, ο Νικ Διακόπουλος εστιάζει ερευνητικά, επί χρόνια, στην αυτοματοποίηση και στη χρήση αλγορίθμων κατά την παραγωγή και διανομή ειδήσεων, στην τεχνητή νοημοσύνη, την ηθική και την αλγοριθμική διαφάνεια και λογοδοσία, την οποία και έχει συστήσει, προ πολλού, στον δημοσιογραφικό κόσμο ως ένα από τα ρεπορτάζ της επόμενης μέρας. Το βιβλίο του, υπό τον τίτλο Automating the News: How Algorithms Are Rewriting the Media (εκδ. Harvard University Press), αποτέλεσε εκδοτικό γεγονός το 2019 για τη διεθνή δημοσιογραφική κοινότητα, η οποία τότε ακόμη έψαχνε να βρει τον βηματισμό της στη νέα εποχή που είχε ξεκινήσει, ιδίως για την ειδησεογραφική διαδικασία. Έκτοτε, οι τεχνολογικές εξελίξεις και η εκλαΐκευση της τεχνητής νοημοσύνης, μέσω της μαζικής της διάθεσης, ήταν, βέβαια, ραγδαίες —το «hype», όμως, φαίνεται, να κάνει κύκλους. Από εκεί ξεκινήσαμε τη συζήτησή μας με τον Διακόπουλος, όταν τον συναντήσαμε στην Αθήνα, στο περιθώριο του φετινού European Data & Computational Journalism Conference.
Έχετε ασχοληθεί εκτενώς με την υπολογιστική δημοσιογραφία και την τεχνητή νοημοσύνη πολύ πριν από τη φρενίτιδα. Τι αλλαγές έχετε παρατηρήσει σε σύγκριση με την εποχή που γράφατε το βιβλίο-ορόσημο, Automating the News;
Είναι ενδιαφέρον — κάνουμε κύκλους υπερβολής με την τεχνολογία και τη δημοσιογραφία. Όταν έγραψα το βιβλίο μου το 2018 (εκδόθηκε το 2019), ήμασταν ακόμη στον κύκλο της υπερβολής με την τεχνητή νοημοσύνη και τη μηχανική μάθηση, και οι άνθρωποι στη δημοσιογραφία ήταν αρκετά ενθουσιασμένοι με όλες αυτές τις τεχνολογίες. Μέχρι το 2020–2021, βγαίναμε από αυτόν τον κύκλο, η τεχνολογία άρχιζε να φαίνεται πιο… νορμάλ και ο κόσμος [στα μέσα ενημέρωσης] έλεγε απλώς «ναι, θα χρησιμοποιήσουμε λίγη μηχανική μάθηση, για να βελτιώσουμε τα συστήματα προτεινόμενων ειδήσεων ή για να κάνουμε τις ειδήσεις πιο σχετικές με τους αναγνώστες μας».
Στη συνέχεια, το 2022, η παραγωγική τεχνητή νοημοσύνη (generative AI) έκανε πραγματικά ένα «μπαμ», με την εμφάνιση του ChatGPT. Φυσικά, η παραγωγική τεχνητή νοημοσύνη υπήρχε ήδη εδώ και μερικά χρόνια, αλλά δεν ήταν ευρέως διαδεδομένη. Το 2022 είχαμε αυτό το «μπαμ του ChatGPT» και, στη συνέχεια, αυτόν τον ολοκαίνουριο κύκλο ενθουσιασμού γύρω από το generative AI και τη δημοσιογραφία. Νομίζω ότι ακόμη βρισκόμαστε σε αυτόν τον κύκλο. Τα τελευταία χρόνια επικεντρώνομαι στην προσπάθεια να εισάγω μια εμπειρική προσέγγιση και κριτική σκέψη — να κάνω τους δημοσιογράφους να είναι πιο προσεκτικοί, όταν δέχονται αδιαμφισβήτητα ισχυρισμούς των τεχνολογικών εταιρειών, και να κατανοήσουν πού η παραγωγική τεχνητή νοημοσύνη έχει πραγματική αξία για την παραγωγή ειδήσεων ή τα ΜΜΕ γενικά. Προσπαθώ να κάνω τους ειδησεογραφικούς οργανισμούς να σκέφτονται πώς να αξιολογούν αυτά τα συστήματα (να τα «δοκιμάζουν», να μετρούν benchmarks και να παρακολουθούν τα σωστά μετρήσιμα στοιχεία), να εκπαιδεύουν τους δημοσιογράφους στο prompting με υπευθυνότητα, και να γνωρίζουν τα ηθικά και νομικά ζητήματα.
Φυσικά, υπάρχουν πολλές εξελίξεις να παρακολουθήσουμε, αλλά αυτό που αρχίζω να βλέπω τώρα είναι ότι η «φούσκα» της παραγωγικής τεχνητής νοημοσύνης αρχίζει να ξεφουσκώνει λίγο. Αυτό που περιμένω τα επόμενα χρόνια είναι ότι, καθώς αυτές οι τεχνολογίες ωριμάζουν και ενσωματώνονται στους οργανισμούς, θα γίνουν λίγο βαρετές — και ίσως αυτό είναι καλό. Τουλάχιστον μέχρι την επόμενη φούσκα, τον επόμενο κύκλο υπερβολικού ενθουσιασμού.
Λέτε ότι αυτό είναι πιθανώς καλό, διότι, όταν οι άνθρωποι βαριούνται, γίνονται πιο προσεκτικοί με το πώς χρησιμοποιούν τις τεχνολογίες — σωστά;
Μόλις ξεφουσκώσει η φούσκα, οι άνθρωποι λένε απλώς: «Εντάξει, με βοηθάει αυτό στη δουλειά μου; Είναι πραγματικά χρήσιμο; Έχει αξία;». Στο τέλος της ημέρας, οι οργανισμοί πρέπει να βγάζουν χρήματα για να είναι βιώσιμοι, και μόλις αφαιρεθεί ο «παραμορφωτικός φακός του hype», τα πράγματα σοβαρεύουν [και διερωτώνται] «μου εξοικονομεί χρήματα; Μου φέρνει χρήματα;»
O τομέας που τα μέσα ενημέρωσης αντιμετωπίζουν περισσότερο ανταγωνισμό, και ίσως δυσκολεύονται λίγο περισσότερο, είναι στη διανομή, διότι μεγάλο μέρος του συστήματος διανομής είναι πέρα από τον έλεγχό τους.
Όπως έχετε πει πολλές φορές, σήμερα υπάρχουν τρεις βασικοί τομείς χρήσης της τεχνητής νοημοσύνης στη δημοσιογραφία και τα ΜΜΕ: συλλογή πληροφοριών, παραγωγή περιεχομένου και διανομή. Τα ΜΜΕ αντιμετωπίζουν αυτούς τους τομείς με τον ίδιο τρόπο όσον αφορά στην (παραγωγική) τεχνητή νοημοσύνη;
Η συλλογή ειδήσεων είναι το πιο ακριβό μέρος της ειδησεογραφικής λειτουργίας, γιατί συνεπάγεται ανθρώπους που βγαίνουν έξω, αφιερώνουν πολύ χρόνο στην προετοιμασία, τις συνεντεύξεις, την παρατήρηση, την καταγραφή κλπ. Έπειτα, υπάρχει η παραγωγή ειδήσεων, που επίσης απαιτεί χρόνο, αλλά για αυτήν υπάρχει πολύ μεγαλύτερη τεχνολογική υποστήριξη — συστήματα λογισμικού που απομαγνητοφωνούν, βάζουν tags στις πληροφορίες και τις παρακολουθούν. Και τέλος, υπάρχει η διανομή, που υπό κάποια έννοια είναι το λιγότερο χρονοβόρο [τμήμα της διαδικασίας]. Σίγουρα, όταν τυπώνονταν οι εφημερίδες, η διανομή απαιτούσε περισσότερη εργασία — έπρεπε να προσλάβεις ανθρώπους, για να οδηγούν βαν και να μεταφέρουν την εφημερίδα στον φυσικό χώρο. Τώρα, όμως, λειτουργούμε ψηφιακά.
Βλέπω ότι το συγκριτικό πλεονέκτημα των ειδησεογραφικών οργανισμών είναι στη συλλογή και την παραγωγή περιεχομένου. O τομέας που αντιμετωπίζουν περισσότερο ανταγωνισμό, και ίσως δυσκολεύονται λίγο περισσότερο, είναι στη διανομή: «Πώς διαχειριζόμαστε τη διανομή σε αυτόν τον νέο κόσμο;» είναι το ερώτημα. Διότι μεγάλο μέρος του συστήματος διανομής είναι πέρα από τον έλεγχό τους: πρόκειται για ό,τι θέλει το κοινό, όπου θέλει το κοινό, και πρέπει να προσαρμόσεις [αναλόγως] τη στρατηγική διανομής. Υπάρχουν, επίσης, ανταγωνιστικές πιέσεις από τεχνολογικές εταιρείες σχετικά με το πώς θέλουν οι άνθρωποι, ή πώς πιστεύουν ότι θέλουν οι άνθρωποι, να καταναλώνουν πληροφορίες —μέσω περιλήψεων που παράγονται με τεχνητή νοημοσύνη, chatbots κλπ. Οι ειδησεογραφικοί οργανισμοί, όμως, δεν ελέγχουν αυτόν τον δίαυλο. Νομίζω ότι δυσκολεύονται να διατηρήσουν την ταυτότητά τους και τη σχέση τους με το κοινό τους, όταν ο μηχανισμός διανομής διαταράσσεται από εταιρείες τεχνητής νοημοσύνης.
Οι μεγάλες τεχνολογικές εταιρείες και πλατφόρμες, όπως η Meta, η Google, το TikTok, η OpenAI και τα chatbots, επηρεάζουν ολοένα και περισσότερο την πρόσβαση των ανθρώπων στις ειδήσεις. Πώς μπορούν τα ΜΜΕ να προσαρμοστούν σε αυτήν την πραγματικότητα, που θέτει νέα δεδομένα, ιδιαίτερα για τη διαδικτυακή επισκεψιμότητα;
Εάν η συνήθεια των ανθρώπων γίνει «πηγαίνω στο chatbot μου για τα τρέχοντα γεγονότα», αυτό δεν είναι καλό για τα μέσα ενημέρωσης. Το ερώτημα είναι, λοιπόν, πώς χτίζεις συνήθειες, ώστε οι άνθρωποι να έρχονται απευθείας σε σένα.
Νομίζω ότι το ερώτημα που βρίσκεται στο μυαλό πολλών ανθρώπων είναι «στρατηγικά, τι κάνουμε;». Υπάρχουν διάφορες επιλογές και η στρατηγική που κανείς θα επιλέξει πιθανώς εξαρτάται από το είδος του μέσου ενημέρωσης. Κάποια είναι μαζικής αγοράς, οπότε πλήττονται περισσότερο από κάθε πτώση στην επισκεψιμότητα από μηχανές αναζήτησης ή παρόμοιες αλλαγές. Άλλα είναι πιο εξειδικευμένα, με κοινό που έρχεται απευθείας στην ιστοσελίδα τους ή μέσω newsletters. Αυτά ίσως είναι λιγότερο εκτεθειμένα στις αλλαγές που αφορούν την πρόσβαση στο περιεχόμενο ή την επισκεψιμότητα, όπως, για παράδειγμα, τα chatbots.
Δεν νομίζω ότι υπάρχει μια στρατηγική που να ταιριάζει σε όλους. Αλλά γενικά, στον βαθμό που οι ειδησεογραφικοί οργανισμοί μπορούν να ελέγχουν τη σχέση τους με το κοινό — μέσω της άμεσης διανομής ή της ισχυρής παρουσίας του brand —, θέλουν να δημιουργήσουν συνήθειες στους ανθρώπους. Εάν η συνήθεια των ανθρώπων γίνει «πηγαίνω στο chatbot μου για τα τρέχοντα γεγονότα», αυτό δεν είναι καλό για τα μέσα ενημέρωσης. Μπορεί να είναι καλό για τους χρήστες, στον βαθμό που αισθάνονται ότι αυτό ικανοποιεί τις ανάγκες τους για πληροφόρηση.
Το ερώτημα είναι, λοιπόν, πώς χτίζεις συνήθειες, ώστε οι άνθρωποι να έρχονται απευθείας σε σένα για πληροφόρηση. Υπάρχουν πολλές τακτικές. Και μπορεί να έχεις τη μεγάλη εικόνα της στρατηγικής, αλλά μετά πώς τη μετατρέπεις σε συγκεκριμένες κινήσεις; Για παράδειγμα, πρέπει να δίνεις το «παρών» στα social media. Εάν οι άνθρωποι δουν ένα βίντεο στο TikTok και αναρωτιούνται εάν είναι αληθινό, πρέπει να είσαι εκεί, ώστε να σε βλέπουν ως σημείο αναφοράς στην προσπάθεια κατανόησής τους.
Μετά την έκρηξη των social media τις προηγούμενες δεκαετίες, η βιομηχανία των ΜΜΕ έχει πάρει τα μαθήματα που θα τη βοηθήσουν να προσαρμοστεί ή να εξελιχθεί στη νέα εποχή της επικράτησης της πλατφόρμας;
Το απλό μάθημα είναι να είσαι σκεπτικός απέναντι στις πλατφόρμες, γιατί δεν είναι πραγματικά φίλοι σου. Εάν προτείνουν μια συμφωνία, ξέρεις ότι το κάνουν επειδή θέλουν κάτι από τον εκδότη — και πιθανώς δεν είναι μια ευνοϊκή συμφωνία, τουλάχιστον μακροπρόθεσμα. Αυτό θα μπορούσε να είναι ένα μάθημα: χρειάζεται αρκετή σκεπτικότητα στις διαπραγματεύσεις με πλατφόρμες. Δεν ξέρω τις λεπτομέρειες αυτών των συμφωνιών, οπότε ποιος είμαι εγώ για να εκφέρω γνώμη; Ίσως αξίζει να τις κάνουν τα ΜΜΕ.
Πώς βλέπετε την ισορροπία μεταξύ μέσων ενημέρωσης, παραδοσιακής δημοσιογραφικής παραγωγής και πλατφορμών να εξελίσσεται τα επόμενα χρόνια;
Υπάρχουν πολλοί τρόποι εξέλιξης. Σε ένα μελλοντικό σενάριο, οι ειδησεογραφικοί οργανισμοί μπορεί να ακολουθήσουν το μοντέλο «περιεχόμενο ως δεδομένα», παραχωρώντας άδειες χρήσης του περιεχομένου σε παρόχους chatbots —και ίσως αυτό να το χρησιμοποιήσουν για έσοδα από συνδρομές. Μην ξεχνάτε: εταιρείες σαν την OpenAI είναι συνδρομητικές υπηρεσίες. Γιατί να μην υπάρχουν πρόσθετα πακέτα συνδρομής για premium περιεχόμενο;
Σε ένα μελλοντικό σενάριο, οι ειδησεογραφικοί οργανισμοί μπορεί να ακολουθήσουν το μοντέλο «περιεχόμενο ως δεδομένα», παραχωρώντας άδειες χρήσης του περιεχομένου σε παρόχους chatbots —και ίσως αυτό να το χρησιμοποιήσουν για έσοδα από συνδρομές
Έχουμε δει αυτό το μοντέλο να λειτουργεί στο streaming: πληρώνω για Amazon Prime, αλλά μετά μπορεί να θέλω περιεχόμενο από το HBO ή κάποιο άλλο πακέτο. Άρα, μπορούν να υπάρξουν επιχειρηματικές συμφωνίες όπου υπάρχει η συνδρομή που θέλουν οι άνθρωποι ως βάση — όπως το chatbot — και εκεί οι εκδότες παρέχουν προστιθέμενη αξία ως «add-on». Αυτό μπορεί να προσελκύσει νέο κοινό που παραδοσιακά δεν θα πλήρωνε για τις ειδήσεις.
Εισαγάγατε την έννοια της αλγοριθμικής λογοδοσίας. Πώς θα πρέπει — και πώς μπορούν — οι δημοσιογράφοι να υιοθετήσουν αυτήν την προσέγγιση στην εποχή της παραγωγικής τεχνητής νοημοσύνης και των «κλειστών» συστημάτων, όπως το ChatGPT;
Έχω αρχίσει να σκέφτομαι το θέμα της λογοδοσίας της τεχνητής νοημοσύνης ως εξέλιξη της αλγοριθμικής λογοδοσίας. Οι δημοσιογράφοι μπορούν να παίξουν διάφορους ρόλους. Ένας είναι να συνεχίσουν να ερευνούν αυτά τα συστήματα: να κατανοούν τα δεδομένα που τα τροφοδοτούν, τον αντίκτυπό τους στο περιβάλλον και τις βλαπτικές συνέπειες που μπορούν να έχουν για άτομα ή κοινότητες. Αυτό είναι η βάση του ρεπορτάζ — να ενημερώνεις το κοινό για το τι συμβαίνει, τι δεν λειτουργεί καλά και ποιοι επηρεάζονται.
Υπάρχει και μια πιο αφηρημένη διάσταση: πώς τα ΜΜΕ βοηθούν στη διαμόρφωση κοινωνικών προσδοκιών γύρω από τα συστήματα τεχνητής νοημοσύνης — τους κανόνες και τις προσδοκίες για το πώς ένα chatbot θα πρέπει να συμπεριφέρεται ή να αλληλεπιδρά. Τα ΜΜΕ έχουν πιο αδιόρατο αντίκτυπο στους ανθρώπους. Για παράδειγμα, εάν κάνεις ρεπορτάζ για ένα chatbot που αλληλεπιδρά με παιδιά, οι άνθρωποι καταλαβαίνουν τι μπορεί να είναι ακατάλληλο. Έτσι, δημιουργούνται κανόνες και προσδοκίες για αυτά τα συστήματα. Αυτός είναι ο πιο έμμεσος αντίκτυπος της δημοσιογραφίας, αλλά μπορεί να είναι σημαντικός. Μπορεί, επίσης, αυτό να συμβαίνει μέσω άρθρων γνώμης ή δοκιμίων, από ανθρώπους που σκέφτονται κριτικά και βοηθούν το κοινό να σκεφτεί την καταλληλότητα αυτών των εργαλείων.
Με προβληματίζει η δυνατότητα των συστημάτων τεχνητής νοημοσύνης να καταστρέψουν το κοινωνικό κεφάλαιο. Η δημοκρατία βασίζεται σε σχέσεις, κοινότητες, συζητήσεις, αντιλογίες. Η τεχνητή νοημοσύνη, εάν χρησιμοποιηθεί λάθος, μπορεί να διαταράξει αυτές τις σχέσεις.
Ποιους θεωρείτε τους μεγαλύτερους ηθικούς κινδύνους, όταν οι δημοσιογράφοι χρησιμοποιούν (παραγωγική) τεχνητή νοημοσύνη, τόσο στις εσωτερικές διαδικασίες της δουλειάς τους όσο και στις δημοσιεύσεις τους;
Όσον αφορά τους ηθικούς κινδύνους, υπάρχει η ακούσια παραπληροφόρηση — το να είσαι ανακριβής, εάν δεν ελέγχεις προσεκτικά τα πάντα. Υπάρχουν, επίσης, κίνδυνοι που αφορούν την ιδιωτικότητα, εάν χρησιμοποιούνται δεδομένα με προσωπικές πληροφορίες, που μπορεί να διαρρεύσουν. Υπάρχουν σίγουρα ζητήματα διαφάνειας: η ηθική του να εξηγείς πώς γνωρίζεις αυτά που γνωρίζεις, σε ποιες πηγές βασίζεσαι και την προέλευση των πληροφοριών σου. Αυτά είναι μερικά από τα πιο κοινά ρίσκα.
Αλλά μερικές φορές δεν σκεφτόμαστε τις μακροπρόθεσμες συνέπειες. Κάτι που με προβληματίζει είναι η δυνατότητα των συστημάτων τεχνητής νοημοσύνης να καταστρέψουν το κοινωνικό κεφάλαιο. Η δημοκρατία βασίζεται σε σχέσεις, κοινότητες, συζητήσεις, αντιλογίες κλπ. Η τεχνητή νοημοσύνη, εάν χρησιμοποιηθεί λάθος, μπορεί να διαταράξει αυτές τις σχέσεις. Για παράδειγμα, οι δημοσιογράφοι επιστημονικού ρεπορτάζ συχνά είναι ελεύθεροι επαγγελματίες, τουλάχιστον στις ΗΠΑ. Αυτό σημαίνει ότι συνεχώς προτείνουν ιδέες για θέματα στις αρχισυνταξίες. Εάν αρχίσουν να χρησιμοποιούν τεχνητή νοημοσύνη, για να γράφουν τις προτάσεις τους, πώς θα επηρεαστεί η σχέση τους με τους άλλους ανθρώπους; Αυτός είναι ένας μικρόκοσμος. Εάν αρχίσεις να υπονομεύεις αυτές τις σχέσεις, τι θα συμβεί στην κοινότητα με την πάροδο του χρόνου; Δεν ξέρω εάν το θεωρούμε πάντα ως ηθικό ζήτημα, αλλά νομίζω ότι είναι, διότι αφορά την καταλληλότητα της εν λόγω δραστηριότητας.
Μετά την ομιλία σας στο συνέδριο, σας ρώτησαν για έναν από τους μεγαλύτερους φόβους σας σχετικά με τη χρήση τεχνητής νοημοσύνης στην καθημερινότητα στα newsroom. Αναφερθήκατε σε ένα σενάριο με ψευδείς υπογραφές άρθρων. Σε εμένα, αυτό ήχησε περισσότερο σαν έλλειψη εμπιστοσύνης στη δημοσιογραφία παρά στα συστήματα generative AI. Μήπως πρέπει να αντιμετωπίσουμε μια ευρύτερη δυσπιστία στη δημοσιογραφία πριν να συζητήσουμε για εμπιστοσύνη ή δυσπιστία στην τεχνητή νοημοσύνη;
Νομίζω ότι υπάρχει λόγος για τη μειωμένη εμπιστοσύνη στα ΜΜΕ: όταν έχεις περισσότερη πρόσβαση σε πληροφόρηση, δεν χρειάζεται να εμπιστεύεσαι τόσο — μπορείς απλώς να βρεις άλλες πηγές. Γιατί να βασιστώ σε εσάς, εάν μπορώ να τσεκάρω ένα chatbot;
Αυτό που θέλω να πω είναι ότι οι δημοσιογράφοι πρέπει να νοιάζονται για την εμπιστοσύνη και να είναι αξιόπιστοι. Αυτό μπορεί να είναι ένα από τα πλεονεκτήματά τους σε ένα περιβάλλον όπου δεν μπορείς συχνά να εμπιστευτείς διαλογικά συστήματα τεχνητής νοημοσύνης. Η διαχείριση της εμπιστοσύνης θα είναι μεγάλη πρόκληση για τους δημοσιογραφικούς οργανισμούς. Καθώς ενσωματώνουν την τεχνητή νοημοσύνη στις διαδικασίες της δουλειάς τους, πρέπει να μάθουν πώς να το επικοινωνούν αυτό αποτελεσματικά στο κοινό, για να διατηρούν την εμπιστοσύνη.
Πριν από μερικά χρόνια, όταν άρχισα να μελετώ τα deep fakes, έγραψα, στο Columbia Journalism Review, ότι καθώς αυξάνεται η παραπληροφόρηση στο διαδίκτυο, οι άνθρωποι χρειάζονται σημεία αναφοράς στην πραγματικότητα. Πρέπει να ξέρουν ότι υπάρχει μια ομάδα ανθρώπων που πραγματικά δούλεψε με αργούς ρυθμούς, με προσεκτική μεθοδολογία και κάνει ό,τι καλύτερο μπορεί, για να κατανοήσει το πραγματικό πλαίσιο, ποια είναι η αλήθεια γύρω από κάτι. Πιστεύω ότι εξακολουθεί να υπάρχει μια μεγάλη ευκαιρία για τα καθιερωμένα μέσα ενημέρωσης να αξιοποιήσουν την εμπιστοσύνη που έχουν κερδίσει από τους ανθρώπους και να γίνουν ο προορισμός στον οποίο στρέφονται οι άνθρωποι.
O Νικ Διακόπουλος, βρέθηκε στην Αθήνα στο πλαίσιο του European Data & Computational Journalism Conference 2025, που έγινε με ακαδημαϊκούς εταίρους το Ινστιτούτο Ανθρωποκεντρικής Τεχνητής Νοημοσύνης (People Centred AΙ) του Πανεπιστημίου του Σάρεϊ, το Τμήμα της Υπολογιστικής Επιστήμης και Πληροφορικής του Πανεπιστημίου του Κάρντιφ, καθώς και το Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών (ΕΚΠΑ), το οποίο και φιλοξένησε τη διοργάνωση.