Γράφει η Μυρτώ Παζιωτοπούλου
Η ψηφιακή εποχή, στην οποία η διακίνηση πληροφοριών πραγματοποιείται με ταχεία διάδοση και σε παγκόσμια κλίμακα, φέρνει στο προσκήνιο νέες και πρωτόγνωρες προκλήσεις για την δημοκρατική διαδικασία με τη χειραγώγηση πληροφοριών να αποτελεί έναν από τους πλέον σοβαρούς κινδύνους (Banks.com.gr, 2024). Η τεχνολογία των deepfake, βρίσκεται στο επίκεντρο αυτής της συζήτησης, καθώς η ικανότητά της να (ανά)παράγει απολύτως πειστικά και ψευδή οπτικοακουστικά τεκμήρια απειλεί να επηρεάσει αρνητικά την εμπιστοσύνη των πολιτών και κατά συνέπεια να μεταβάλει την εκλογική συμπεριφορά. Η απειλή αυτή απέκτησε ιδιαίτερη βαρύτητα κατά τη προεκλογική περίοδο των αμερικανικών προεδρικών εκλογών του 2024, όπου η χρήση deepfakes μετετράπει σε εργαλείο πολιτικής χειραγώγησης με άμεσες συνέπειες για την αξιοπιστία της εκλογικής διαδικασίας και τη σταθερότητα της δημοκρατίας (ΕΡΤ News, 2024).
Τα deepfakes, δηλαδή τα συνθετικά μέσα (synthetic media), αποτελούν προϊόντα της Τεχνητής Νοημοσύνης (AI), κυρίως μέσω Γενεσιουργών Αντιμαχόμενων Δικτύων (Generative Adversarial Networks – GANs). Τα δίκτυα αυτά μπορούν να παράγουν εξαιρετικά ρεαλιστικά βίντεο και ηχητικά ντοκουμέντα, στα οποία πρόσωπα εμφανίζονται να λένε ή να κάνουν πράγματα που ποτέ δεν έκαναν. Η τεχνολογική αρχιτεκτονική των GANs είναι κρίσιμη για την κατανόηση της απειλής. Δύο νευρωνικά δίκτυα, ο γεννήτορας (generator) και ο διακρίνον (discriminator), βρίσκονται σε συνεχή ανταγωνισμό. Ο πρώτος, δημιουργεί συνθετικά δεδομένα, ενώ ο δεύτερος, αξιολογεί τη ρεαλιστικότητά τους. Μέσω αυτής της επαναληπτικής διαδικασίας, το τελικό αποτέλεσμα συχνά καθίσταται αδιάκριτο από την πραγματικότητα, ακόμη και για το ανθρώπινο μάτι (GNET Research, 2024).
Η ταχύτητα, η ευκολία, και το χαμηλό κόστος παραγωγής των deepfakes, σε συνδυασμό με την αλγοριθμική διάδοση στα μέσα κοινωνικής δικτύωσης, μετατρέπουν αυτή την τεχνολογία σε ένα ιδιαίτερα αποτελεσματικό μέσο διάδοσης ψευδών πληροφοριών (ESET, 2024). Η ευκολία πρόσβασης σε τέτοιες τεχνολογίες είναι ανησυχητική. Μόνο στο GitHub υπάρχουν πάνω από 3.000 αποθετήρια που σχετίζονται με τα deepfakes, ενώ στο Telegram λειτουργούν 400–500 κανάλια που προσφέρουν υπηρεσίες παραγωγής ψευδών βίντεο με κόστος που ξεκινά από μόλις 2 δολάρια ανά βίντεο. Αυτό δείχνει πόσο προσιτή έχει γίνει η δημιουργία παραπλανητικού περιεχομένου, ακόμη και για μη ειδικούς. Η μετά-αλήθεια (post-truth) εποχή αποκτά έτσι μια νέα, ψηφιακά ενισχυμένη διάσταση, όπου η εγκυρότητα των οπτικοακουστικών τεκμηρίων τίθεται σε σοβαρή αμφισβήτηση. Επιπλέον, το φαινόμενο του «διλήμματος του αναλογικού» (analog dilemma) ενισχύεται αφού οι πολίτες όχι μόνο δυσκολεύονται να διακρίνουν τα ψευδή βίντεο, αλλά τείνουν να απορρίπτουν και γνήσιο υλικό ως deepfake (News247, 2024).
Στο πλαίσιο των αμερικανικών εκλογών του 2024, η απειλή ήταν πολυεπίπεδη. Πρώτον, υπήρχε ο κίνδυνος της προεκλογικής χειραγώγησης (pre-election manipulation). Συχνά, deepfakes που παρουσιάζουν υποψηφίους να προβαίνουν σε αμφιλεγόμενες δηλώσεις ή ανήθικες πράξεις μπορούν να κυκλοφορήσουν λίγο πριν την ημέρα της κάλπης – το λεγόμενο “October Surprise” – όταν ο χρόνος για την αποδόμηση (debunking) της παραπληροφόρησης είναι εξαιρετικά περιορισμένος (United States Senate Committee on Intelligence, 2023). Χαρακτηριστικό παράδειγμα αποτελεί η κυκλοφορία deepfake βίντεο που εμφάνιζαν τον Donald Trump να καλεί τους πολίτες να απέχουν από την ψηφοφορία, καθώς και αντίστοιχα βίντεο με την Kamala Harris, σύμφωνα με το NBC News, να προβαίνει σε ψευδείς δηλώσεις για την εξωτερική πολιτική. Τέτοια περιστατικά δείχνουν πώς η τεχνολογία μπορεί να αξιοποιηθεί για να πλήξει την εικόνα υποψηφίων και να επηρεάσει την εκλογική συμπεριφορά. Επιπλέον, η εμφάνιση νεοσύστατων επιχειρήσεων που προσφέρουν εργαλεία Τεχνητής Νοημοσύνης για πολιτικές εκστρατείες, όπως η BattleGroundAI με δυνατότητα σύνταξης εκατοντάδων πολιτικών διαφημίσεων σε ελάχιστο χρόνο, ή η Grow Progress με το chatbot της που βοηθά στη διαμόρφωση στρατηγικών πειθούς, καταδεικνύει ότι η χρήση ΑΙ δεν περιορίζεται πλέον στη δημιουργία deepfakes, αλλά επεκτείνεται σε ένα ευρύτερο οικοσύστημα ψηφιακής πολιτικής επικοινωνίας.
Δεύτερον, η χρήση deepfakes μπορεί στοχεύει στην καταστολή της ψήφου (voter suppression). Παραδείγματος χάριν, βίντεο που διαδίδουν ψευδείς πληροφορίες για την ημερομηνία, τον τόπο και τον τρόπο ψηφοφορίας σε συγκεκριμένες δημογραφικές ομάδες. Ένα πρόσφατο περιστατικό ήταν το robocall στους ψηφοφόρους τoυ New Hampshire με ψεύτικη φωνή του προέδρου Joe Biden, που προέτρεπε τους πολίτες να μην ψηφίσουν. Το γραφείο του Γενικού Εισαγγελέα επιβεβαίωσε ότι η φωνή είχε δημιουργηθεί τεχνητά, αναδεικνύοντας τον κίνδυνο των ηχητικών deepfakes (FCC, 2024; Harvard JOLT, 2024).
Τρίτον, και ίσως τα πιο επικίνδυνο, τα deepfakes μπορούν να χρησιμοποιηθούν για να υπονομεύσουν την εμπιστοσύνη στο αποτέλεσμα των εκλογών. Η διασπορά συνθετικών βίντεο που φαινομενικά καταδεικνύουν νοθεία ή παρατυπίες θα μπορούσε να οδηγήσει σε πολιτική αστάθεια και σε αμφισβήτηση της νομιμότητας της εκλεγμένης κυβέρνησης ακόμα και μετά την ολοκλήρωση της διαδικασίες.
Αντιμέτωποι με αυτή την αυξανόμενη απειλή, η κοινωνία και οι θεσμοί καλούνται να υιοθετήσουν μια πολύπλευρη στρατηγική αντιμετώπισης. Σε τεχνολογικό επίπεδο, η ανάπτυξη εργαλείων ανίχνευσης deepfake (detection tools) είναι ύψιστης σημασίας. Αυτά τα εργαλεία, συχνά βασισμένα σε τεχνητή νοημοσύνη (ΤΝ), αναζητούν ανωμαλίες στον φωτισμό, τις κινήσεις του προσώπου ή στα μοτίβα αναλαμπής (artifacts) που προκύπτουν κατά τη διαδικασία σύνθεσης. Ωστόσο, υπάρχει ένας αέναος «αγώνας εξοπλισμών» (arms race) μεταξύ δημιουργών και ανιχνευτών deepfakes. Σε νομοθετικό επίπεδο, οι Ηνωμένες Πολιτείες βρίσκονται σε μια δύσκολη θέση, καθώς η Πρώτη Τροπολογία (First Amendment) προστατεύει σε μεγάλο βαθμό την ελευθερία του λόγου καθιστώντας δύσκολη την άμεση νομοθέτηση κατά της πληροφόρησης.
Παρόλα αυτά, οι προτάσεις για τη σήμανση (watermarking) του συνθετικού περιεχομένου, καθώς και η θέσπιση αστικής ευθύνης για τη διάθεση παραπλανητικών με κακόβουλη πρόθεση, βρίσκονται στο τραπέζι. Ενδεικτικό είναι ότι η Ομοσπονδιακή Επιτροπή Επικοινωνιών (FCC) απαγόρευσε το 2024 τις φωνητικές ρομποτικές κλήσεις που δημιουργούνται από AI, μετά το περιστατικό με την ψεύτικη φωνή του προέδρου στο Νιου Χάμσαϊρ. Η απόφαση αυτή, δείχνει πώς οι θεσμοί προσπαθούν να απαντήσουν νομοθετικά στην αυξανόμενη απειλή της ψηφιακής χειραγώγησης. Σε επίπεδο μέσων κοινωνικής δικτύωσης, η ενίσχυση των πολιτικών διαφάνειας και η αυστηρότερη εποπτεία περιεχομένου (content moderation policies) αποτελούν αναγκαίες, αν και συχνά αμφιλεγόμενες, παρεμβάσεις. Η συνεργασία τους με ερευνητές και αρχές είναι κρίσιμη για την ανάπτυξη πιο εξελιγμένων μεθόδων ανίχνευσης και περιορισμού της απειλής (ESET, 2024).
Κλείνοντας, η παραπληροφόρηση μέσω deepfake βίντεο στις αμερικανικές εκλογές του 2024 δεν συνιστά απλώς μια τεχνολογική πρόκληση αλλά μια δοκιμασία για την ανθεκτικότητα της αμερικανικής δημοκρατίας. Η ανάλυση των κινδύνων υπογραμμίζει την ανάγκη για συντονισμένη δράση από την τεχνολογική κοινότητα, τους νομοθέτες, τις πλατφόρμες, και κυρίως, τους πολίτες. Η ενίσχυση της ψηφιακής παιδείας (digital literacy), οι εκστρατείες ευαισθητοποίησης, και η καλλιέργεια κουλτούρας επαλήθευσης, είναι οι βασικές άμυνες ενάντια στην χειραγώγηση, ώστε οι ψηφοφόροι να μπορούν να αξιολογούν κριτικά την προέλευση και την εγκυρότητα των πληροφοριών αποτελεί τη βασική άμυνα ενάντια στη χειραγώγηση. Η διάδοση των deepfakes δημιουργεί την ανάγκη απόκτησης ψηφιακής παιδείας και ενίσχυσης της κριτικής αξιολόγησης των πληροφοριών.
Βιβλιογραφία:
Banks.com.gr. (2024). Πώς η τεχνολογία deepfake απειλεί τις αμερικανικές εκλογές του 2024. https://banks.com.gr/pos-technologia-deepfake-apeilei-tis-amerikanikes-ekloges-tou-2024/
ΕΡΤ News – Τσιριγωτάκη, Ε. (2024). ΗΠΑ: Ποιος είναι ο αντίκτυπος της Τεχνητής Νοημοσύνης στις προεδρικές εκλογές. https://www.ertnews.gr/eidiseis/epistimi/ipa-poios-einai-o-antiktypos-tis-texnitis-noimosynis-stis-proedrikes-ekloges-long-read/
ESET. (2024). Το 2024 είναι χρονιά εκλογών – deepfakes: ένα όπλο μαζικής εξαπάτησης. https://www.eset.com/gr/about/newsroom/press-releases-gr-1/to-2024-einai-chronia-eklogon-gia-schedon-to-ena-tetarto-toy-pagkosmioy-plithysmoy-deepfakes-ena-oplo-mazikis-exapatisis/
GNET Research – Busch, E. & Ware, J. (2024). The deepfake Threat to the 2024 US Presidential Election. https://gnet-research.org/2024/03/27/the-deepfake-threat-to-the-2024-us-presidential-election/
Harvard JOLT – Soundappan, N. (2024). FCC cracks down on AI-powered robocalls. https://jolt.law.harvard.edu/digest/fcc-cracks-down-on-ai-powered-robocalls
Homo Digitalis – Ζαγγανάς, Χ. (2024). deepfakes και εκλογές: Μια νέα πρόκληση για τη δημοκρατία. https://homodigitalis.gr/posts/133216/
NBC News – Collier, K. & Wong, S. (2024). Joe Biden New Hampshire robocall fake voice deep AI primary. https://www.nbcnews.com/tech/misinformation/joe-biden-new-hampshire-robocall-fake-voice-deep-ai-primary-rcna135120
News247. (2024). Σε έντονη ανησυχία οι ΗΠΑ μετά από fake τηλεφώνημα Μπάιντεν μέσω AI. https://www.news247.gr/kosmos/se-sinagermo-oi-ipa-meta-apo-fake-tilefonima-bainten-meso-ai/
Syntagma Watch – Ζώης, Γ. Θ. & Χρυσουλάκη, Ε. (2024). Εκλογές και fake news στις ΗΠΑ. https://www.syntagmawatch.gr/trending-issues/ekloges-kai-fakenews-stis-hpa/
FCC. (2024). FCC makes AI-generated voices in robocalls illegal. https://www.fcc.gov/document/fcc-makes-ai-generated-voices-robocalls-illegal
Εικόνα :
GNET Research – Busch, E. & Ware, J. (2024). The deepfake Threat to the 2024 US Presidential Election. https://gnet-research.org/2024/03/27/the-deepfake-threat-to-the-2024-us-presidential-election/
