Γράφει ο Ελευθέριος Γεωργάκης
Η τεχνητή νοημοσύνη (Artificial Intelligence – AI) εξελίσσεται ταχύτατα σε κινητήρια δύναμη της ψηφιακής μετάβασης. Από τα εργαλεία πρόβλεψης καταναλωτικής συμπεριφοράς έως τα αυτοματοποιημένα νομικά ή ιατρικά συστήματα, η ΤΝ μεταμορφώνει την καθημερινότητα. Ωστόσο, ο εντυπωσιακός αυτός μετασχηματισμός συνοδεύεται από ένα σημαντικό νομικό και ηθικό δίλημμα: Πώς μπορεί να διασφαλιστεί η προστασία των προσωπικών δεδομένων σε ένα περιβάλλον όπου η επεξεργασία τους γίνεται όλο και πιο περίπλοκη, μαζική και αδιαφανής; Η παρούσα ανάλυση επικεντρώνεται στη συμβατότητα της τεχνητής νοημοσύνης με τα ευρωπαϊκά και διεθνή κανονιστικά πρότυπα, με έμφαση στον Γενικό Κανονισμό για την Προστασία Δεδομένων (ΓΚΠΔ) και τον υπό διαμόρφωση Κανονισμό για την ΤΝ.
Τεχνητή Νοημοσύνη και Προσωπικά Δεδομένα: Ένα Πολυεπίπεδο Πλαίσιο Αλληλεπίδρασης
Η τεχνητή νοημοσύνη βασίζεται στην επεξεργασία μεγάλου όγκου δεδομένων (big data), πολλά από τα οποία έχουν προσωπικό χαρακτήρα. Αυτή η σχέση εγείρει σημαντικές ανησυχίες σχετικά με τη διαφάνεια, τη συναίνεση και την πιθανότητα διάκρισης μέσω αυτοματοποιημένων αποφάσεων (Eubanks, 2018, σ. 56). Η αρχιτεκτονική της ΤΝ συχνά χαρακτηρίζεται από τη λεγόμενη «μαύρη κουτί» λειτουργία, όπου οι αποφάσεις λαμβάνονται από αλγορίθμους με περιορισμένη δυνατότητα ερμηνείας από τους ίδιους τους προγραμματιστές (Voigt και Von dem Bussche, 2017, σ. 112).
Ο ΓΚΠΔ (Κανονισμός ΕΕ 2016/679) αποτελεί τον βασικό πυλώνα της προστασίας προσωπικών δεδομένων στην Ε.Ε., επιβάλλοντας σαφείς αρχές όπως η νομιμότητα, η διαφάνεια, η ελαχιστοποίηση του κινδύνου και η λογοδοσία (Ευρωπαϊκή Ένωση, 2016, αρ. 5). Παράλληλα, θεσμοθετεί θεμελιώδη δικαιώματα για τα υποκείμενα των δεδομένων, όπως το δικαίωμα στη λήθη και το δικαίωμα μη υποβολής σε αποκλειστικά αυτοματοποιημένες αποφάσεις (Ευρωπαϊκή Ένωση, 2016, αρ 7 – Kuner, 2020, σ. 104).
Πράξη για την τεχνητή νοημοσύνη: Το Ρυθμιστικό Αντίβαρο στην Αλγοριθμική Αυτονομία
Ο Κανονισμός για την Τεχνητή Νοημοσύνη (AI Act), που υπερψηφίστηκε στην ΕΕ το 2024, θεσπίζει ένα νομικό πλαίσιο βασισμένο στη διαβάθμιση κινδύνου των AI εφαρμογών. Οι «υψηλού κινδύνου» χρήσεις – όπως η αναγνώριση προσώπου, η αξιολόγηση πιστοληπτικής ικανότητας ή η χρήση σε δικαστικά πλαίσια – υπόκεινται σε αυστηρές υποχρεώσεις συμμόρφωσης, όπως η υποχρεωτική ανθρώπινη εποπτεία και η δυνατότητα ερμηνείας των αποφάσεων (Ευρωπαϊκή Επιτροπή, 2022). Παρά ταύτα, η πλήρης εφαρμογή της πράξης για την τεχνητή νοημοσύνη παραμένει πρόκληση, καθώς προϋποθέτει σημαντική οργανωτική και τεχνική προσαρμογή τόσο από δημόσιους όσο και από ιδιωτικούς φορείς (BEUC, 2024).
Προκλήσεις και Νομικές Εκκρεμότητες
Η ταχύτητα εξέλιξης της τεχνολογίας συχνά ξεπερνά τις δυνατότητες της ρυθμιστικής παρέμβασης. Ο ΓΚΠΔ, αν και καινοτόμος για την εποχή του, δεν επαρκεί πλήρως για να αντιμετωπίσει τις ιδιαιτερότητες της ΤΝ, ιδίως όσον αφορά την ανάλυση προφίλ (profiling) και τη χρήση βιομετρικών δεδομένων (Solove, 2014, σ. 67). Επιπλέον, η ψευδαίσθηση ελέγχου μέσω συγκατάθεσης καταρρίπτεται όταν οι χρήστες δεν κατανοούν πώς επεξεργάζονται τα δεδομένα τους από τις πλατφόρμες του διαδικτύου (Floridi κ.α., 2018, σ. 25).
Σε διεθνές επίπεδο, η απουσία κοινών προτύπων δυσχεραίνει τη διαλειτουργικότητα των κανονισμών. Πρωτοβουλίες όπως το Πλαίσιο Προστασίας Δεδομένων ΕΕ–ΗΠΑ (EU–U.S. Data Privacy Framework) επιδιώκουν να γεφυρώσουν το ρυθμιστικό χάσμα, αλλά η εφαρμογή τους παραμένει άνιση (U.S. Department of Commerce, 2020.).
Θεσμική Λογοδοσία και Ανθρώπινη Εποπτεία ως Αντίβαρα
Η ανάγκη για ανθρώπινη εποπτεία (human oversight) κρίνεται κρίσιμη για τη διασφάλιση των δικαιωμάτων. Σύμφωνα με τον Κανονισμό για την ΤΝ, η ανθρώπινη παρέμβαση οφείλει να είναι ουσιαστική και όχι τυπική, να έχει τη δυνατότητα να ακυρώνει, τροποποιεί ή να ελέγχει την απόφαση του αλγορίθμου (Ευρωπαϊκό Κοινοβούλιο, 2024). Η έννοια αυτή συνδέεται με τη νομική αρχή της λογοδοσίας (accountability), η οποία θεμελιώνεται στον ΓΚΠΔ και αποτελεί τον ακρογωνιαίο λίθο της προστασίας ιδιωτικότητας στην ψηφιακή εποχή (Tikkinen-Piri κ.α., 2018, σ. 137).
Η ΤΝ εξελίσσεται ταχύτατα σε κινητήριο δύναμη της ψηφιακής μετάβασης. Από τα εργαλεία πρόβλεψης καταναλωτικής συμπεριφοράς έως τα αυτοματοποιημένα νομικά ή ιατρικά συστήματα, η ΤΝ μεταμορφώνει την καθημερινότητα. Ωστόσο, ο εντυπωσιακός αυτός μετασχηματισμός συνοδεύεται από ένα σημαντικό νομικό και ηθικό δίλημμα: Πώς μπορεί να διασφαλιστεί η προστασία των προσωπικών δεδομένων σε ένα περιβάλλον όπου η επεξεργασία τους γίνεται όλο και πιο περίπλοκη, μαζική και αδιαφανής; Η παρούσα ανάλυση επικεντρώνεται στη συμβατότητα της τεχνητής νοημοσύνης με τα ευρωπαϊκά και διεθνή κανονιστικά πρότυπα, με έμφαση στον Γενικό Κανονισμό για την Προστασία Δεδομένων και τον υπό διαμόρφωση Κανονισμό για την ΤΝ, μέχρι να οριστικοποιηθούν οι αλλαγές που έχουν συμφωνηθεί από την Ε.Ε.
Διαφάνεια και Επεξήγηση: Ο Ασθενής Κρίκος της Τεχνητής Νοημοσύνης
Η διαφάνεια και η επεξήγηση των αλγορίθμων παραμένουν δύο από τις πλέον επίμονες προκλήσεις στη ρύθμιση της ΤΝ. Πολλές εφαρμογές της ΤΝ, ιδίως εκείνες που βασίζονται σε τεχνικές βαθιάς μάθησης (deep learning), χαρακτηρίζονται από πολυπλοκότητα η οποία καθιστά αδύνατη την αναλυτική ερμηνεία της λογικής πίσω από κάθε απόφαση (Wachter κ.α., 2017, σ. 848). Αυτό έρχεται σε σύγκρουση με το άρθρο 15 (Κανονισμός ΕΕ 2016/679) του ΓΚΠΔ, το οποίο παρέχει στο υποκείμενο των δεδομένων το δικαίωμα ενημέρωσης για την «υπαρξή λογικής» που διέπει την αυτοματοποιημένη επεξεργασία (Ευρωπαϊκή Ενωση, 2016, αρ. 15).
Η έλλειψη εξηγησιμότητας υπονομεύει τη λογοδοσία, ενισχύει την αλγοριθμική μεροληψία (bias) και δυσχεραίνει την αποτελεσματική έννομη προστασία των πολιτών. Σε αυτό το πλαίσιο, έχουν προταθεί αρχές όπως το “δικαίωμα στην επεξήγηση” – το δικαίωμα σε κατανοητές, μη τεχνικές εξηγήσεις των αποφάσεων της ΤΝ (Goodman και Flaxman, 2017, σ. 3). Ωστόσο, δεν έχει ακόμη κατοχυρωθεί ως αυτόνομο δικαίωμα στο ενωσιακό δίκαιο, γεγονός που καθιστά αναγκαία τη μελλοντική θεσμική του ενίσχυση.
Επιπλέον, η σύγκρουση μεταξύ εμπορικού απορρήτου και της διαφάνειας δημιουργεί έναν νέο κύκλο έντασης: εταιρείες επικαλούνται προστασία της καινοτομίας, ενώ οι πολίτες ζητούν απαντήσεις (Kamarinou κ.α., 2016, σ. 18). Η εξισορρόπηση αυτών των συμφερόντων αποτελεί καθοριστικό βήμα για τη διαμόρφωση ενός δικαιότερου αλγοριθμικού οικοσυστήματος.
Η ΤΝ υπόσχεται εντυπωσιακές δυνατότητες, αλλά η υιοθέτησή της δεν μπορεί να γίνει εις βάρος των ατομικών δικαιωμάτων. Η προστασία των προσωπικών δεδομένων δεν είναι απλώς νομική επιταγή, αλλά θεμέλιο της δημοκρατίας και του κράτους δικαίου. Η αποτελεσματική ρύθμιση της ΤΝ απαιτεί ένα δυναμικό, πολυεπίπεδο και διαφανές σύστημα ελέγχου, με πρωταγωνιστές όχι μόνο τους νομοθέτες, αλλά και την κοινωνία των πολιτών, τους επιστήμονες και τις επιχειρήσεις. Η τεχνολογία δεν είναι ουδέτερη. Το πώς χρησιμοποιείται καθορίζει το μέλλον των ελευθεριών.
Ελληνόγλωσση Βιβλιογραφία
Ευρωπαϊκή Επιτροπή. “Προστασία των δεδομένων και της ιδιωτικής ζωής στο διαδίκτυο.” Your Europe. Ανακτήθηκε στις 9 Απριλίου 2025. https://europa.eu/youreurope/citizens/consumers/internet-telecoms/data-protection-online-privacy/index_el.htm.
Ευρωπαϊκό Κοινοβούλιο. 2020. “Τι είναι η τεχνητή νοημοσύνη και πώς χρησιμοποιείται;” Ευρωπαϊκό Κοινοβούλιο, 27 Αυγούστου 2020. Ανακτήθηκε στις 2 Απριλίου 2025.
Ευρωπαϊκή Επιτροπή. Κανονισμός (ΕΕ) 2016/679 του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου της 27ης Απριλίου 2016. Ανακτήθηκε στις 4 Απριλίου 2025.
https://eur-lex.europa.eu/legal-content/EL/TXT/PDF/?uri=CELEX:32016R0679.
Ευρωπαϊκή Ένωση. Κανονισμός (ΕΕ) 2016/679, αρ. 12–22.
ΓΚΠΔ (Γενικός Κανονισμός Προστασίας Δεδομένων). 2016. Κανονισμός (ΕΕ) 2016/679 του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου της 27ης Απριλίου 2016 για την προστασία των φυσικών προσώπων έναντι της επεξεργασίας δεδομένων προσωπικού χαρακτήρα και για την ελεύθερη κυκλοφορία των δεδομένων αυτών. https://eurlex.europa.eu/eli/reg/2016/679/oj.
Ξενόγλωσση Βιβλιογραφία
BEUC. 2023. New Consumer Protections to Apply under Digital Services Act. Brussels: Bureau Européen des Unions de Consommateurs. Πρόσβαση 4 Απριλίου 2025. https://www.beuc.eu/sites/default/files/publications/BEUCPR2023035_New_consumer_protections_to_apply_under_Digital_Services_Act.pdf.
BEUC. 2024a. Need for Independent National Market Surveillance Authorities under the AI Act.
BEUC. 2024b. “EU Risks under-Regulating Generative AI.”
BEUC. 2024. Digital Fairness for Consumers: What Are the Problems and How Can the EU Solve Them? Brussels: Bureau Européen des Unions de Consommateurs. Πρόσβαση 4 Απριλίου 2025.
Christina Tikkinen-Piri, Anna Rohunen, and Jouni Markkula. 2018. “EU General Data Protection Regulation: Changes and Implications for Personal Data Collecting Companies.” Computer Law & Security Review 34 (1): 134–153.
Christopher Kuner. 2020. Transborder Data Flows and Data Privacy Law. 2η έκδ. Oxford: Oxford University Press.
Eubanks, Virginia. 2018. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin’s Press.
European Commission. 2022. The Digital Services Act Package.
Floridi, Luciano, Josh Cowls, Monica Beltrametti, Judith Carrera, Antonio Chatila, Roger Clarke, Virginia Dignum, et al. 2018. “AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations.” Minds and Machines 28 (4): 689–707.
Paul Voigt and Axel Von dem Bussche. 2017. The EU General Data Protection Regulation (GDPR): A Practical Guide. Cham: Springer International Publishing.
Wachter, Sandra, Brent Mittelstadt, and Luciano Floridi. 2017. “Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation.” International Data Privacy Law 7 (2): 76–99.