Loading...
Latest news
Διεθνές και Ευρωπαϊκό Δίκαιο

Η Εποπτεία του Ευρωπαϊκού Κανονισμού για την Τεχνητή Νοημοσύνη: η περίπτωση της Ιταλίας και της Ελλάδας

Γράφει η Ελευθερία Παπαδοπούλου

Στα πλαίσια του γρήγορου ρυθμού ανάπτυξης των συστημάτων τεχνολογίας, η συζήτηση αναφορικά με την διασφάλιση των προσωπικών δεδομένων ιδιαίτερα κατά τη χρήση συστημάτων Τεχνητής Νοημοσύνης (AI) είναι πιο έντονη από ποτέ σε παγκόσμιο επίπεδο. Στη συζήτηση αυτή πρωταρχικό λόγο έχει η Ευρωπαϊκή Ένωση (ΕΕ) με τη θέσπιση του πρώτου παγκοσμίως νομικού πλαισίου για την AI (Ευρωπαϊκή Επιτροπή, 2024), αλλά και με την ίδρυση φορέων εποπτείας της ορθής και αξιοκρατικής εφαρμογής του νέου Ευρωπαϊκού Κανονισμού για την Τεχνητή Νοημοσύνη. Εντούτοις, παρουσιάζει ίσως μεγαλύτερο ενδιαφέρον η μετατόπιση ευθύνης στα κράτη-μέλη της ΕΕ (Παπαγιαννίδης Α., 2024), καθώς και οι μέθοδοι που αυτά επέλεξαν για την ενσωμάτωση του Ευρωπαϊκού Κανονισμού στα εθνικά τους συστήματα, με χαρακτηριστικά παραδείγματα αυτό της Ιταλίας και της Ελλάδας.

Η Τεχνητή Νοημοσύνη είναι πλέον ένας ευρέως γνωστός όρος. Αποτελεί έναν αλγόριθμο, ο οποίος αποσκοπεί στην εξέλιξη της παραγωγικότητας, αλλά και της χρήσης της τεχνολογίας και του διαδικτύου από τον μέσο χρήστη. Χρησιμοποιείται στα ηλεκτρονικά παιχνίδια, στην ανάλυση δεδομένων, στην επεξεργασία γλώσσας, στην εκπαίδευση, στη διαδικασία εξετάσεων στα πανεπιστήμια, στα μέσα μαζικής μεταφοράς (Λάζος Π., 2024). Η πιο γνωστή, ίσως,  χρήση του AI είναι η συμβολή της σε φίλτρα γνωστών εφαρμογών και πλατφορμών, μέσα από τη δημιουργία περιεχομένου, δηλαδή εικόνας, βίντεο και μουσικής. Πλέον γνωστές εφαρμογές Τεχνητής Νοημοσύνης είναι το ChatGPT και το Google Assistant (Κυρίκος Ε., 2024). Παράλληλα, ευρέως διαδεδομένες είναι οι εφαρμογές που με μία μόνο φωτογραφία του χρήστη, του παρουσιάζουν διαφορετικές εκδοχές της εξωτερικής του εμφάνισης (Κυρίκος Ε., 2024).

Τα κράτη-μέλη της Ευρωπαϊκής Ένωσης θεώρησαν ότι ορισμένα συστήματα Τεχνητής Νοημοσύνης δύναται να δημιουργήσουν κινδύνους (Ευρωπαϊκή Επιτροπή, 2024) αναφορικά με την ασφάλεια και τα θεμελιώδη δικαιώματα επιχειρήσεων και πολιτών. Ως εκ τούτου κρίθηκε αναγκαία η θέσπιση ρυθμίσεων και κανόνων, με τους οποίους θα παρέχονται στα συστήματα και τους φορείς διακριτές υποχρεώσεις αναφορικά με τη χρήση της AI. Έτσι, δημιουργήθηκε ο Ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη (Ευρωπαϊκή Επιτροπή, 2024).

Ο Ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη, γνωστός ως Κανονισμός (ΕΕ) 2024/1689 για τη θέσπιση εναρμονισμένων κανόνων για την τεχνητή νοημοσύνη, αφορά ουσιαστικά το πρώτο παγκοσμίως νομικό πλαίσιο για την Τεχνητή Νοημοσύνη (Ευρωπαϊκή Επιτροπή, 2024). Ανακοινώθηκε από την Ευρωπαϊκή Επιτροπή τον Απρίλιο του 2021 και δημοσιεύτηκε στην Επίσημη Εφημερίδα της ΕΕ στις 12 Ιουλίου 2024 (Lawspot, 2024). Το μεγαλύτερο μέρος αυτού, τέθηκε σε ισχύ στις 2 Αυγούστου 2024 και οι επιμέρους υποχρεώσεις αναμένεται να τεθούν σε εφαρμογή σταδιακά σε χρονικό διάστημα 36 μηνών από τον Αύγουστο 2024 (Υπουργείο Ψηφιακής Διακυβέρνησης, 2024). Ο Κανονισμός (ΕΕ) 2024/1689 εφαρμόζεται σε εναρμόνιση με τον Γενικό Κανονισμό για την προστασία δεδομένων προσωπικού χαρακτήρα 2016/679 (Κωστή Η., 2023).

Στις διατάξεις αυτού, περιγράφονται τα τέσσερα επίπεδα κινδύνου, καθώς και οι αντίστοιχοι σε καθένα από αυτά κανόνες (Συμβούλιο τα Ευρωπαϊκής Ένωσης, 2024):

  • Ελάχιστος ή μηδενικός κίνδυνος: τα περισσότερα συστήματα Τεχνητής Νοημοσύνης δεν ενέχουν κινδύνους και ως εκ τούτου δεν υπόκεινται στις σχετικές ρυθμίσεις (Συμβούλιο τα Ευρωπαϊκής Ένωσης, 2024).
  • Περιορισμένος κίνδυνος: σε αυτή την κατηγορία περιλαμβάνονται τα διαλοτικά ρομπότ (chatbots) και τα συστήματα που παράγουν περιεχόμενο. Τα συστήματα με περιορισμένο κίνδυνο υπόκεινται σε υποχρεώσεις διαφάνειας. Ο απλούστερος τρόπος περιορισμού του κινδύνου είναι η ενημέρωση των χρηστών αναφορικά με το παραγόμενο περιεχόμενο, προκειμένου να έχουν οι ίδιοι την απόφαση της περαιτέρω χρήσης των συστημάτων (Συμβούλιο τα Ευρωπαϊκής Ένωσης, 2024).
  • Υψηλός κίνδυνος: συστήματα υψηλού κινδύνου δύναται να χρησιμοποιηθούν για τη διάγνωση νόσων ή και για την αυτόνομη οδήγηση. Θα πρέπει να πληρούν αυστηρές υποχρεώσεις, όπως για παράδειγμα η διαφάνεια και η ανθρώπινη εποπτεία, προκειμένου να τους επιτρέπεται η πρόσβαση στην αγορά της Ευρωπαϊκής Ένωσης (Συμβούλιο τα Ευρωπαϊκής Ένωσης, 2024).
  • Μη αποδεκτός κίνδυνος: Σε αυτές τις περιπτώσεις, δεν επιτρέπεται η χρήση σχετικών συστημάτων στην Ευρωπαϊκή Ένωση, καθώς αυτά θέτουν σε κίνδυνο τα δικαιώματα και τα μέσα βιοπορισμού των πολιτών και την ασφάλεια. Παράδειγμα συστημάτων AI, που ανήκουν στην τελευταία κατηγορία είναι η χρήση συστημάτων εξ αποστάσεων βιομετρικής ταυτοποίησης σε πραγματικό χρόνο (Συμβούλιο τα Ευρωπαϊκής Ένωσης, 2024).

Δεδομένου ότι η AI είναι μία ταχέως εξελισσόμενη τεχνολογία κρίθηκε αναγκαία η ίδρυση μίας Ευρωπαϊκής Υπηρεσίας Τεχνητής Νοημοσύνης (Ευρωπαϊκή Επιτροπή, 2024). Επιγραμματικά οι στόχοι της εν λόγω Ευρωπαϊκής Υπηρεσίας είναι η επιβολή κανόνων Τεχνητής Νοημοσύνης γενικού σκοπού, η ενίσχυση της χρήσης συστημάτων AI, η προώθηση της διεθνούς συνεργασίας, η θέσπιση συνεργασίας θεσμικών οργάνων της Ευρωπαϊκής Ένωσης και των κρατών-μελών αυτής με καταξιωμένους εμπειρογνώμονες και λοιπά ενδιαφερόμενα μέρη. Η Ευρωπαϊκή Επιτροπή ίδρυσε το Γραφείο Τεχνητής Νοημοσύνης, το οποίο πλέον περιλαμβάνει το κέντρο εμπειρογνωμοσύνης στον τομέα αυτό (Ευρωπαϊκή Επιτροπή, 2024). Το εν λόγω Γραφείο σε συνεργασία με την πρωτοβουλία “GenAI4EU” (Ευρωπαϊκή Επιτροπή, 2024) αποτελούν μέρος του συνόλου μέτρων καινοτομίας στον τομέα της Τεχνητής Νοημοσύνης. Οι τομείς εφαρμογής περιλαμβάνουν 14 βιομηχανικά οικοσυστήματα της Ευρώπης, όπως την ρομποτική, την υγεία, το κλίμα, την κυβερνοασφάλεια και τον δημόσιο τομέα. Επιπλέον φορέας ανάπτυξης και εποπτείας των συστημάτων Τεχνητής Νοημοσύνης είναι το Ευρωπαϊκό Συμβούλιο Τεχνητής Νοημοσύνης, το οποίο απαρτίζεται από εκπροσώπους από κάθε κράτος-μέλος της ΕΕ και αποβλέπει στην προώθηση ενός συνεκτικού πλαισίου πολιτικής για την Τεχνητή Νοημοσύνη, το οποίο, από τη μία πλευρά, θα ωφελεί τους Ευρωπαίους πολίτες και, από την άλλη πλευρά, θα προωθεί τα πρότυπα ασφάλειας και δεοντολογίας (Ευρωπαϊκή Επιτροπή, 2024). Τέλος, σε επίπεδο πολιτών το Γραφείο Τεχνητής Νοημοσύνης καλεί όλους τους ενδιαφερόμενους πολίτες να εγγραφούν στο σύστημά του, προκειμένου να λαμβάνουν ενημερώσεις από αυτό για τη διαδικασία εποπτείας, αλλά και να εκφράσουν το ενδιαφέρον τους σε τυχόν ευκαιρίες εργασίας (Ευρωπαϊκή Επιτροπή, 2024).

Στο πλαίσιο της υποστήριξης και του ελέγχου της Τεχνητής Νοημοσύνης και της στενής συνεργασίας των κρατών μελών και της ευρύτερης κοινότητας εμπειρογνωμόνων (Ευρωπαϊκή Επιτροπή, 2024), ενδιαφέρον παρουσιάζει η πρόταση της Ιταλίας στις 25 Μαρτίου 2024. Με δελτίου τύπου της ιταλικής αρχής προστασίας δεδομένων Garante, η Ιταλία δηλώνει ότι διαθέτει τις απαιτούμενες δεξιότητες, προκειμένου να εφαρμόσει τον ευρωπαϊκό Κανονισμό για την Τεχνητή Νοημοσύνη. Ωστόσο, επισημαίνει τη σημασία της καθολικής του εφαρμογής στα κράτη-μέλη της Ευρωπαϊκής Ένωσης. Προτείνει σε κάθε κράτος-μέλος να προχωρήσει σε ουσιαστικές επιλογές αναφορικά με τα εθνικά τους νομικά συστήματα, θέτοντας σταθερές βάσεις, προκειμένου ο έλεγχος της εφαρμογής του εκ λόγω Κανονισμού να εμπίπτει στη δικαιοδοσία ανεξάρτητων φορέων και αρχών, όπως για παράδειγμα στην Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα (Lawspot, 2024).

Στην περίπτωση της Ελλάδας, το Υπουργείο Ψηφιακής Διακυβέρνησης προχώρησε στις 12 Νοεμβρίου 2024 σε ανακοίνωση των εθνικών αρχών και φορέων που έχουν ως αρμοδιότητα την εποπτεία της τήρησης των ενωσιακών υποχρεώσεων για την προστασία των θεμελιωδών δικαιωμάτων των πολιτών, μεταξύ των οποίων περιλαμβάνεται και το δικαίωμα στη μεταχείριση χωρίς διακρίσεις όταν αυτοί χρησιμοποιούν συστήματα Τεχνητής Νοημοσύνης (Υπουργείο Ψηφιακής Διακυβέρνησης, 2024). Σύμφωνα με την ανακοίνωση, οι εθνικές αρχές που θα λειτουργούν υπό τον συντονισμό του Υπουργείου Ψηφιακής Διακυβέρνησης (2024) επιγραμματικά είναι: η Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα, ο Συνήγορος του Πολίτη, η Αρχή Διασφάλισης του Απορρήτου των Επικοινωνιών, η Εθνική Επιτροπή Δικαιωμάτων του Ανθρώπου. Μάλιστα, όσον αφορά την Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα, όπως δήλωσε ο Πρόεδρος αυτής, κύριος Μενουδάκος Κωνσταντίνος (Κόλλια Ε., 2024), η Τεχνητή Νοημοσύνη αποτελεί πλέον προτεραιότητα για την Αρχή. Ο κύριος Μενουδάκος συμπλήρωσε μάλιστα ότι η ανάθεση της εποπτείας του Ευρωπαϊκού Κανονισμού για την Τεχνητή Νοημοσύνη στην Αρχή θεωρείται ενδεδειγμένη, με την αντίστοιχη φυσικά ενίσχυση των πόρων και του κατάλληλου ανθρώπινου δυναμικού.

Σε αντίθεση, λοιπόν, με την περίπτωση της Ιταλίας, η Ελλάδα δε συντάσσει μία ενιαία εθνική αρχή αρμόδια για τον έλεγχο των θεμελιωδών δικαιωμάτων που διέπουν τη χρήση συστημάτων Τεχνητής Νοημοσύνης. Αντιθέτως, αυξάνει τις αρμοδιότητες ήδη υφιστάμενων αρχών και συντονίζει τη στενή συνεργασία αυτών με στόχο την προστασία των πολιτών και των επιχειρήσεων.

Συμπερασματικά, γίνεται αντιληπτή για ακόμα μία φορά η ανάγκη για στενή και αποτελεσματική συνεργασία των κρατών-μελών της Ευρωπαϊκής Ένωσης, προκειμένου να διασφαλισθούν τα θεμελιώδη δικαιώματα των πολιτών, χωρίς όμως να εμποδίζεται η αύξηση της παραγωγικότητας και της ανάπτυξης σύγχρονων τεχνολογιών. Σε ευρωπαϊκό επίπεδο, η ανάγκη αυτή αντικατοπτρίζεται στη δημιουργία φορέων, Γραφείων και Υπηρεσιών στελεχωμένων τόσο από εκπροσώπους των κρατών-μελών όσο και από αρμόδιους εμπειρογνώμονες. Για πρώτη, όμως, φορά η Ευρωπαϊκή Ένωση καλεί τους πολίτες να λάβουν ενεργό δράση στους φορείς της. Σε εθνικό επίπεδο, η ανάγκη αυτή υποστηρίζεται διαφορετικά από τα κράτη-μέλη, όπως παρατηρείται μέσα από τα παραδείγματα της Ιταλίας και της Ελλάδας. Σε κάθε περίπτωση, ωστόσο, δεν παρεκκλίνουν από τον αρχικό στόχο, την προστασία των θεμελιωδών δικαιωμάτων των πολιτών τους.

 

 

Πηγές

Lawspot. (2024). AI Act: Σε ισχύ ο νέος ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη. Διαθέσιμο σε: https://www.lawspot.gr/nomika-nea/ai-act-se-ishy-o-neos-eyropaikos-kanonismos-gia-tin-tehniti-noimosyni

Lawspot. (2024). Πράξη για την Τεχνητή Νοημοσύνη στην Εφημερίδα της ΕΕ το AI Act (Κανονισμός 2024/1689). Διαθέσιμο σε: https://www.lawspot.gr/nomika-nea/praxi-gia-tin-tehniti-noimosyni-dimosieythike-stin-efimerida-tis-ee-ai-act-kanonismos

Lawspot. (2024). Στην αρχή προστασίας δεδομένων πρέπει να ανατεθεί η εποπτεία του AI Act. Διαθέσιμο σε: https://www.lawspot.gr/nomika-nea/stin-arhi-prostasias-dedomenon-prepei-na-anatethei-i-epopteia-toy-ai-act

Ευρωπαϊκή Επιτροπή. (2024) Νόμος για την ΤΝ. Διαθέσιμο σε: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

Ευρωπαϊκή Επιτροπή. (2024). Ευρωπαϊκή Υπηρεσία Τεχνητής Νοημοσύνης. Διαθέσιμο σε: https://digital-strategy.ec.europa.eu/el/policies/ai-office

Κόλλια Ε. (2024) Κωνσταντίνος Μενουδάκος: Υπάρχουν Αρχές και Αρχές… Νομική Βιβλιοθήκη Daily. Διαθέσιμο σε: https://daily.nb.org/focus/konstantinos-menoudakos-yparchoun-arches-kai-arches/

Κυρίκος Ε. (2024). Πώς οι διάφορες εφαρμογές χρησιμοποιούν την τεχνητή νοημοσύνη. Athinodromio.Διαθέσιμο σε: https://www.athinodromio.gr/

Κωστή Η. (2023) Τεχνητή νοημοσύνη και GPDR: Πόσο εφικτή είναι η συγκατάθεση. Rhetor Law Firm. Διαθέσιμο σε: https://www.rhetor.gr/techniti-noimosyni-kai-gdpr-poso-efikti-einai-i-sygkatathesi-482

Λάζος Π. (2024) Τεχνητή νοημοσύνη: τι είναι και τι κάνει! Capital. Διαθέσιμο σε: https://www.capital.gr/o-petros-lazos-grafei/3826838/texniti-noimosuni-ti-einai-kai-ti-kanei/

Παπαγιαννίδης Α. (2024) Όταν η Τεχνητή Νοημοσύνη συνάντησε τα Προσωπικά Δεδομένα. Νομική Βιβλιοθήκη Daily. Διαθέσιμο σε: https://daily.nb.org/arthrografia/otan-i-techniti-noimosyni-synantise-ta-prosopika-dedomena-i-matia-tou-antoni-papagiannidi-stin-imerida-tis-archis/

Συμβούλιο της Ευρωπαϊκής Ένωσης. Κανονισμός για την τεχνητή νοημοσύνη. Διαθέσιμο σε: https://www.consilium.europa.eu/el/policies/artificial-intelligence/

Υπουργείο Ψηφιακής Διακυβέρνησης. (2024) Υπουργείο Ψηφιακής Διακυβέρνησης: Οι Αρχές προστασίας των θεμελιωδών δικαιωμάτων σε σχέση με τη χρήση Τεχνητής Νοημοσύνης στην Ελλάδα. Διαθέσιμο σε: https://mindigital.gr/archives/6901

Πηγή εικόνας: Augait S. (2024) The Artificial Intelligence Regulation (AIR) and its impact on customer service.klark. Διαθέσιμο σε: https://www.klark.ai/en/post/le-reglement-sur-lintelligence-artificielle-ria-et-son-impact-sur-le-service-client