Loading...
Πρόσφατες αναλύσεις
Διεθνές και Ευρωπαϊκό Δίκαιο

Ο Ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη- Ζητήματα Ευθύνης, Ελέγχου και Εποπτείας τόσο σε Εθνικό όσο και Υπερεθνικό επίπεδο

Γράφει η Μαρία Γιαννοπούλου

Έχει ήδη αποδειχθεί πως η τεχνητή νοημοσύνη (ΤΝ) έχει ενταχθεί δυναμικά στη ζωή των πολιτών. Δεν αποτελεί, απλώς, ένα τεχνολογικό ζήτημα, αλλά ένα νεοπαγή τομέα με διακριτές νομικές έννοιες και αρχές που καθιστούν αναγκαία τη νομική του προσέγγιση. Σημαντική τομή σε αυτή την προσπάθεια αποτελεί η έκδοση του ευρωπαϊκού κανονισμού για την τεχνητή νοημοσύνη (ΕΕ AI ACT 2024/1689), ο οποίος θεσπίζει κανόνες για την ασφάλεια, την ηθική και την αξιοπιστία των συστημάτων τεχνητής νοημοσύνης. Ο κανονισμός βασίζεται  στην προσέγγιση κινδύνου και στην απαγόρευση ορισμένων πρακτικών, ενθαρρύνοντας, έτσι, την καινοτομία και εξασφαλίζοντας την εμπιστοσύνη και τη διαφάνεια στην Ευρώπη (Επίσημη Ιστοσελίδα Συμβουλίου της Ευρώπης).

Ειδικότερα, τα συστήματα τεχνητής νοημοσύνης ταξινομούνται σε κατηγορίες ανάλογα με το επίπεδο του κινδύνου (απαράδεκτος, υψηλός, περιορισμένος, ελάχιστος) επιβάλλοντας αυστηρότερες υποχρεώσεις και κυρώσεις στα πιο επικίνδυνα εξ’ αυτών (Επίσημη Ιστοσελίδα Ευρωπαϊκής Ένωσης. Κανονισμός (ΕΕ) 2024/1689). Η πράξη για την τεχνητή νοημοσύνη ρυθμίζει εξαντλητικά τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, που αποτελούν το πιο θεμελιώδες και αμφισβητούμενο στοιχείο, καθώς τα τελευταία θα πρέπει να συμμορφώνονται με ορισμένες υποχρεωτικές απαιτήσεις, οι οποίες διασφαλίζουν ότι δεν ενέχουν μη αποδεκτούς κινδύνους, όπως για παράδειγμα βιομετρική ταυτοποίηση.  Βασικό κριτήριο αποτελεί ο κίνδυνος βλάβης, ο οποίος ανάγεται σε μαχητό τεκμήριο (Ιγγλεζάκη Ι. Δ., 2024). Παρόλα αυτά, ο συγκεκριμένος νομοθετικός  ορισμός θα πρέπει να περιορίζεται σε αυτά που έχουν επιβλαβείς συνέπειες στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα. Τα υπόλοιπα συστήματα υπόκειται σε έλεγχο διαφάνειας (Jougleu P, 2025).

Μάλιστα, ο κανονισμός απαγορεύει τη χρήση υποσυνείδητων, χειριστικών ή παραπλανητικών τεχνικών, την αξιολόγηση κινδύνου διάπραξης εγκληματικών πράξεων, όπως επίσης και  τη σύνταξη βάσεων δεδομένων αναγνώρισης προσώπου και την ταυτοποίηση υπόπτων για σοβαρά εγκλήματα. Συγχρόνως, η αναζήτηση αγνοουμένων ή θυμάτων απαγωγής ή εμπορίας, η ουσιαστική και άμεση απειλή ζωής ή τρομοκρατικής επίθεσης, η αξιολόγηση συναισθημάτων και η εκμετάλλευση κοινωνικών ομάδων συνιστούν απαγορευμένες πρακτικές χρήσης τεχνητής νοημοσύνης (Παναγοπούλου Φ., 2024). Για παράδειγμα, υπάρχουν παιχνίδια τεχνητής νοημοσύνης που εκπαιδεύουν τον εγκέφαλο του χρήστη, ώστε να αποκαλύπτει προσωπικά του δεδομένα καθώς παίζει χωρίς να έχει επίγνωση ή παρασύρουν τα παιδιά σε επικίνδυνες δραστηριότητες. Ακόμη υπάρχουν «chatbots» που μιμούνται συγγενείς, φίλους κλπ. που  καλούν τηλεφωνικώς κυρίως ηλικιωμένους, αποσκοπώντας να τους εξαπατήσουν.

Εξαίρεση αποτελεί το άρθρο 2 του κανονισμού, το οποίο αναφέρει πως για στρατιωτικούς σκοπούς αλλά και για την εθνική ασφάλεια και άμυνα μπορεί να χρησιμοποιείται, να κατασκευάζεται ή να δημιουργείται τεχνητή νοημοσύνη, έξω από αυτούς τους κανόνες. Στα πλαίσια του Rearm Europe η Ευρωπαϊκή Επιτροπή και το Ευρωπαϊκό Συμβούλιο  αποφάσισαν να ενισχύσουν την αμυντική δραστηριότητα της Ευρώπης. Αυτό συνεπάγεται, μεταξύ άλλων, την εφαρμογή της τεχνητής νοημοσύνης σε  αντιαεροπορικά και αντιπυραυλικά συστήματα για την ανίχνευση απειλών με ακρίβεια και ταχύτητα, σε drones και antidrones συστήματα για την ανίχνευση απειλών εδάφους και αέρα αλλά και για την εξουδετέρωσή τους πριν φτάσουν μέσα στο έδαφος της Ευρώπης.  Στην παραπάνω ειδική εξαίρεση υπάγεται και η έρευνα. (Επίσημη Ιστοσελίδα Ευρωπαϊκής Ένωσης. Κανονισμός (ΕΕ) 2024/1689)

Ωστόσο, εγείρονται ερωτήματα και εκφράζονται ανησυχίες για τα ζητήματα ευθύνης από τη χρήση τεχνητής νοημοσύνης σε τομείς όπως οι μηχανές, η εκπαίδευση, η υγεία, η ιδιωτικότητα, οι δημοκρατικοί θεσμοί, η θεολογική προσέγγιση, η τεχνητή ευφυία και ο ψυχοσωματικός άνθρωπος, η νοημοσύνη, η απώλεια της ελευθερίας, η αποκοινωνικοποίηση, η αλαζονική αντίληψη και νοοτροπία, η πίστη στο θεό (Στυλιανίδης Ε. Στ., 2025). Πράγματι, οι τομείς είναι ιδιαίτερα κρίσιμοι και επιφέρουν δυσμενείς επιπτώσεις. Ο AI ΑCT εστιάζει στην πρόληψη, αλλά η ευθύνη για ζημίες ρυθμίζεται συμπληρωματικά από την πρόταση για την Οδηγία για την Ευθύνη λόγω Τεχνητής Νοημοσύνης (AI Liability Directive) (Επίσημη Ιστοσελίδα Ευρωπαϊκής Ένωσης).  Πιο αναλυτικά υφίσταται η ευθύνη του παρόχου (provider), ο οποίος φέρει την κύρια ευθύνη για τη συμμόρφωση( τεχνική τεκμηρίωση, διαχείριση κινδύνου, ποιότητα δεδομένων εκπαίδευσης) και η ευθύνη του αναπτύσσοντος-χρήστη (deployer). Ο οργανισμός που χρησιμοποιεί το σύστημα τεχνητής νοημοσύνης, όπως μια τράπεζα φέρει ευθύνη για την ορθή λειτουργία, την ανθρώπινη εποπτεία και την ενημέρωση των υποκειμένων. Παράλληλα, εισάγεται και τεκμήριο υπαιτιότητας. Για να διευκολυνθούν τα θύματα, εξετάζεται η εισαγωγή «μαχητών τεκμηρίων», ώστε ο παθών να μην χρειάζεται  να εξηγήσει τον πολύπλοκο κώδικα της τεχνητής νοημοσύνης, προκειμένου  να αποδείξει το σφάλμα (Επίσημη Ιστοσελίδα Συμβουλίου της Ευρώπης.

 Έτσι, ο νομοθέτης προσπάθησε να ενθαρρύνει την εκπαίδευση των συστημάτων αυτών μέσω της εισαγωγής του θεσμού του ρυθμιστικού δοκιμαστηρίου και του μηχανισμού δημιουργίας ενωσιακών δομών υποστήριξης. Σε επίπεδο Ευρωπαϊκής Ένωσης, ο έλεγχος επικεντρώνεται στον συντονισμό, τη θέσπιση προτύπων και τη ρύθμιση των συστημάτων τεχνητής νοημοσύνης με τη μεγαλύτερη επίδραση, όπως τα μοντέλα γενικής χρήσης (General Purpose AI). Για το λόγο αυτό, η Ευρωπαϊκή Ένωση έχει ιδρύσει ευρωπαϊκούς εποπτικούς μηχανισμούς όπως το Γραφείο Τεχνητής Νοημοσύνης και το Ευρωπαϊκό Συμβούλιο Τεχνητής Νοημοσύνης. Και οι δύο φορείς έχουν συμπληρωματικό χαρακτήρα, αφού αμφότεροι αποσκοπούν στον έλεγχο,  στην  άσκηση ρυθμιστικής εποπτείας και την επιβολή, ενώ παρέχουν συμβουλές και ευαισθητοποιούν τα κράτη-μέλη. Εκτός αυτών, ο κανονισμός εισάγει και άλλα σημαντικά αλλά εν μέρει αυτόνομα όργανα, όπως την Επιστημονική Επιτροπή, που εκπροσωπείται από  επόπτη τεχνικό σύμβουλο, καθώς και  το Συμβουλευτικό Φόρουμ, τη Συμβουλευτική Ομάδα και το Επιστημονικό Πάνελ, τα οποία παρέχουν τεχνική τεκμηρίωση και προειδοποιήσεις για συστημικούς κινδύνους που μπορεί να προκύψουν από την εξέλιξη της τεχνολογίας. Όσον αφορά το εθνικό επίπεδο, ο κανονισμός δίνει ευελιξία στα κράτη-μέλη να σχεδιάζουν τη διακυβέρνηση τους. Μπορούν, μεταξύ άλλων, είτε να δημιουργήσουν νέους ρυθμιστικούς φορείς ή να ενσωματώσουν τις αρμοδιότητες εποπτείας σε υφιστάμενες οντότητες, όπως η Αρχή Προσωπικών Δεδομένων, εντός των νομικών πλαισίων (Επίσημη Ιστοσελίδα Συμβουλίου της Ευρώπης).

Η Ελλάδα έχει ενσωματώσει των παραπάνω κανονισμό και, όπως και οι υπόλοιπες χώρες που τον  έχουν υιοθετήσει, έχει ορίσει Εθνικές  Εποπτικές Αρχές, όπως την Αρχή Εποπτείας για τη συμμόρφωση των συστημάτων τεχνητής νοημοσύνης που κυκλοφορούν στην αγορά και την επιβολή κυρώσεων και προστίμων, τις Κοινοποιούσες αρχές που είναι υπεύθυνες για τη διαπίστευση και τον έλεγχο των οργανισμών (Notified Bodies) που θα αξιολογούν τα συστήματα υψηλού κινδύνου και, τέλος, τα ρυθμιστικά δικαστήρια (Sandbox), όπου εταιρείες μπορούν να δοκιμάζουν καινοτόμα συστήματα ΤΝ υπό στενή εποπτεία προς την ευρεία κυκλοφορία τους (Επίσημη Ιστοσελίδα Συμβουλίου της Ευρώπης.) Σε κάθε περίπτωση πρέπει να ορίζονται τα κατάλληλα άτομα για τη συμμόρφωση με τα πρότυπα της νομοθεσίας. Πρόκειται για το μοντέλο της «Κανονοδηγίας», το οποίο βρίσκεται κοντά στα πρότυπα του Γενικού Κανονισμού Προστασίας Προσωπικών Δεδομένων και  προτιμάται από τον εθνικό νομοθέτη, αφού πολλές φορές καταλείπει τη διακριτική ευχέρεια στα κράτη-μέλη για κάποιες επιλογές (Παναγοπούλου Φ, 2025).

Εννοείται πως η μη συμμόρφωση με τον κανονισμό επιφέρει κυρώσεις. Πιο αναλυτικά, τα κράτη μέλη καθορίζουν τους κανόνες επιβολής κυρώσεων και διοικητικών προστίμων που αφορούν την παράβαση ή τη μη συμμόρφωση (Jougleu P, 2025.) Οι κυρώσεις είναι  αποτελεσματικές, αναλογικές και αποτρεπτικές και ανέρχονται σε μεγάλα χρηματικά ποσά με δυνατότητα κλιμάκωσης, ανάλογα με τη φύση, τη σοβαρότητα, το μέγεθος και τη διάρκεια της παράβασης. Αξίζει να σημειωθεί, πως δεν επιβάλλεται ξεχωριστή κύρωση κατ΄εφαρμογή της αρχής «non bis in idem» (Παναγοπούλου Φ, 2025).

Συνεπώς, ο κανονισμός για την τεχνητή νοημοσύνη έρχεται να καλύψει ένα σημαντικό κενό στη ρύθμιση της τεχνητής νοημοσύνη. Παρότι δεν λύνει όλα τα νομικά ζητήματα τεχνητής νοημοσύνης, εντούτοις ανοίγει δρόμους για τη ρύθμιση πολλών. Καταλείπει έντονα περιθώρια στα κράτη μέλη για την υιοθέτηση συγκεκριμένων επιλογών, η ευρύτητα και η αποτελεσματικότητα των οποίων καλείται να κριθεί στην πράξη. Αυτό που θα πρέπει να διευκρινιστεί είναι πως ο κανονισμός δεν είναι ούτε ευλογία αλλά ούτε και δαίμονας. Αποτελεί μια μορφή ανθρώπινης ενδυναμώσεως, αλλά οι τεχνικές της τεχνολογίας δεν πρέπει να καθορίζουν τους σκοπούς της. Γνώμονας πρέπει να είναι πάντοτε ο άνθρωπος.

 

ΒΙΒΛΙΟΓΡΑΦΙΑ:

ΒΙΒΛΙΑ:

 

ΠΡΩΤΟΓΕΝΕΙΣ ΔΙΑΔΙΚΤΥΑΚΕΣ ΠΗΓΕΣ:

  • Επίσημη Ιστοσελίδα Συμβουλίου της Ευρώπης. Ο Κανονισμός για την τεχνητή νοημοσύνη. Διαθέσιμο σε: https://www.consilium.europa.eu/el/policies/artificial-intelligence/
  • Επίσημη Ιστοσελίδα Ευρωπαϊκής Ένωσης. Κανονισμός (ΕΕ) 2024/1689 του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου, της 13ης Ιουνίου 2024, για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη και την τροποποίηση των κανονισμών (ΕΚ) αριθ. 300/2008, (ΕΕ) αριθ. 167/2013, (ΕΕ) αριθ. 168/2013, (ΕΕ) 2018/858, (ΕΕ) 2018/1139 και (ΕΕ) 2019/2144 και των οδηγιών 2014/90/ΕΕ, (ΕΕ) 2016/797 και (ΕΕ) 2020/1828 (κανονισμός για την τεχνητή νοημοσύνη) (Κείμενο που παρουσιάζει ενδιαφέρον για τον ΕΟΧ). Διαθέσιμο σε: https://eur-lex.europa.eu/legal-content/EL/TXT/?uri=CELEX:32024R1689
  • Επίσημη Ιστοσελίδα Ευρωπαϊκής Ένωσης. Πρόταση ΟΔΗΓΙΑ ΤΟΥ  ΕΥΡΩΠΑΪΚΟΥ ΚΟΙΝΟΒΟΥΛΙΟΥ ΚΑΙ ΤΟΥ ΣΥΜΒΟΥΛΙΟΥ για την προσαρμογή των κανόνων περί εξωσυμβατικής αστικής ευθύνης στην τεχνητή νοημοσύνη (οδηγία περί ευθύνης για την ΤΝ, COM(2022) 496 Final. Διαθέσιμη σε: https://eur-lex.europa.eu/legal-content/EL/TXT/?uri=celex%3A52022PC0496

 

ΠΗΓΗ ΕΙΚΟΝΑΣ: Advanced Cybersecurity: Encryption and Digital Data Protection, Biometric Authentication. Διαθέσιμο σε: https://www.pexels.com/el-gr/photo/internet-5380664