Τα μοντέλα παραγωγικής τεχνητής νοημοσύνης (Generative AI) έχουν αναδειχθεί σε τεχνολογικό πυλώνα της σύγχρονης ψηφιακής οικονομίας, καθώς επιτρέπουν τη δημιουργία περιεχομένου, κειμένων, εικόνων, ήχων και κωδίκων με τρόπους που μέχρι πρόσφατα θεωρούνταν αποκλειστικά ανθρώπινη δραστηριότητα. Οι εφαρμογές τους ποικίλλουν και εκτείνονται από την υποβοήθηση στην εκπαίδευση και την έρευνα μέχρι την αυτοματοποίηση δημιουργικών διαδικασιών στη βιομηχανία και τα μέσα ενημέρωσης.
Η ταχύτητα και η ευελιξία −χαρακτηριστικά που παρουσιάζουν ολοένα και μεγαλύτερη αύξηση− με την οποία τα συστήματα παραγωγικής τεχνητής νοημοσύνης παράγουν πληροφορία, εγείρουν όμως σημαντικά νομικά ζητήματα. Ειδικότερα, η ευθύνη για τυχόν ζημίες ή παραπλανητικό περιεχόμενο δεν κατανέμεται εύκολα μεταξύ προγραμματιστών, χρηστών και παρόχων υπηρεσιών. Στο πλαίσιο αυτό, ο Ευρωπαϊκός κανονισμός για την τεχνητή νοημοσύνη (EU AI Act) προσπαθεί να καθορίσει και να θεσπίσει σαφή όρια ευθύνης, καθώς και υποχρεώσεις σχετικές με την κατοχύρωση διαφάνειας για τα συστήματα υψηλού κινδύνου, συμπεριλαμβανομένων των μοντέλων παραγωγικής τεχνητής νοημοσύνης (An official website of the European Union, AI Act).
Σκοπός της ανάλυσης είναι να διερευνήσει τα νομικά ζητήματα ευθύνης που προκύπτουν από τη χρήση των μοντέλων παραγωγικής τεχνητής νοημοσύνης, εστιάζοντας στα όρια εφαρμογής της ευθύνης των προγραμματιστών, των παρόχων υπηρεσιών και των τελικών χρηστών. Παράλληλα, εξετάζονται οι προκλήσεις που θέτει η εποπτεία και η συμμόρφωση με τον Ευρωπαϊκό κανονισμό για την τεχνητή νοημοσύνη (EU AI Act), καθώς και τα ζητήματα διαφάνειας, επεξηγησιμότητας και ασφάλειας. Τέλος, η ανάλυση αποσκοπεί στην ανάδειξη πρακτικών κατευθύνσεων και προτάσεων για ασφαλή, υπεύθυνη και καινοτόμο ανάπτυξη των συστημάτων παραγωγικής τεχνητής νοημοσύνης, διασφαλίζοντας παράλληλα την προστασία και ευημερία των πολιτών και της κοινωνίας.
Ο Ευρωπαϊκός κανονισμός για την τεχνητή νοημοσύνη (EU AI Act), ο οποίος προτάθηκε από την Ευρωπαϊκή Επιτροπή το 2021 και βρίσκεται σε διαδικασία σταδιακής εφαρμογής, αποτελεί το πρώτο ολοκληρωμένο νομοθετικό πλαίσιο σε παγκόσμιο επίπεδο για την αντιμετώπιση των προκλήσεων που θέτουν τα συστήματα τεχνητής νοημοσύνης (An official website of the European Union, AI Act). Ο κανονισμός ακολουθεί μια προσέγγιση βάσει επικινδυνότητας (risk-based approach), ταξινομώντας τα συστήματα τεχνητής νοημοσύνης σε τέσσερις κατηγορίες: α) απαγορευμένα συστήματα, β) συστήματα υψηλού κινδύνου, γ) περιορισμένου κινδύνου και δ) χαμηλού ή μη μετρήσιμου κινδύνου (Narayanan & Potkewitz, 2023). Κάθε κατηγορία συνοδεύεται από διαφορετικές απαιτήσεις διαφάνειας, ασφάλειας και εποπτείας.
Τα μοντέλα παραγωγικής τεχνητής νοημοσύνης, όπως τα μεγάλα γλωσσικά μοντέλα (Large Language Models), κατατάσσονται εντός των συστημάτων υψηλού κινδύνου όταν χρησιμοποιούνται για εφαρμογές που ενδέχεται να επηρεάσουν σημαντικά τη δημόσια ασφάλεια, την υγεία ή τα θεμελιώδη δικαιώματα των πολιτών. Αυτό σημαίνει ότι οι πάροχοι των εν λόγω συστημάτων υποχρεούνται να διασφαλίζουν τη συμμόρφωση με απαιτήσεις επεξηγησιμότητας, αξιοπιστίας και συνεχούς παρακολούθησης των επιδόσεων των μοντέλων.
Όπως επισημαίνει και ο Prof. Dr. Bertolini Andrea (2025) στη μελέτη του για το Ευρωπαϊκό Κοινοβούλιο, ο κανονισμός EU AI Act δεν αποτελεί απλώς ένα τεχνικό εργαλείο ρύθμισης, αλλά μια δομή ευθύνης που αποσκοπεί στη σύνδεση της καινοτομίας με την αστική και δεοντολογική λογοδοσία. Η ταξινόμηση, όπως αναφέρεται παραπάνω, ενέχει πρακτικές επιπτώσεις για τους προγραμματιστές και τις επιχειρήσεις που αναπτύσσουν παραγωγική τεχνητή νοημοσύνη, καθώς καθορίζει τις διαδικασίες ελέγχου, τεκμηρίωσης και πιστοποίησης που απαιτούνται πριν από τη διάθεση ή τη χρήση των συστημάτων στην ευρύτερη αγορά. Επιπλέον, ο κανονισμός εισάγει ευθύνες για διαχείριση κινδύνου, διαφάνεια στις αλγοριθμικές αποφάσεις και διαδικασίες αντιμετώπισης δυσλειτουργιών, δημιουργώντας έτσι ένα πλαίσιο που στοχεύει στην επίτευξη ισορροπίας μεταξύ καινοτομίας και προστασίας των πολιτών και των δεδομένων προσωπικού χαρακτήρα τους (Κανονισμός (ΕΕ) 2024/1689).
Ολοκληρώνοντας τη συνοπτική αναφορά στο πλαίσιο του κανονισμού, ο κανονισμός EU AI Act παρέχει ένα σημείο αναφοράς για τη νομική αξιολόγηση των συστημάτων παραγωγικής τεχνητής νοημοσύνης, επισημαίνοντας ότι η ανάπτυξη και η χρήση τους πρέπει να συνδυάζει τεχνική αξιοπιστία, υπεύθυνη λήψη αποφάσεων και πλήρη συμμόρφωση με τα θεσπισμένα από την ΕΕ πρότυπα δεοντολογίας.
Η νομική ευθύνη που απορρέει από τη χρήση των μοντέλων παραγωγικής τεχνητής νοημοσύνης (Generative AI) αποτελεί ένα από τα πιο αμφιλεγόμενα και αχαρτογράφητα ζητήματα που μαστίζουν το νέο τεχνολογικό πλαίσιο. Στον αντίποδα των παραδοσιακών πληροφοριακών συστημάτων, τα μοντέλα παραγωγικής τεχνητής νοημοσύνης λειτουργούν μέσω αυτοεκπαίδευσης, δημιουργούν πρωτογενές περιεχόμενο χωρίς άμεση καθοδήγηση από ανθρώπινο παράγοντα. Μπορεί να ειπωθεί με βεβαιότητα, λοιπόν, ότι αυτή η αυτονομία δημιουργεί κενά στο ζήτημα της απόδοσης ευθύνης όταν προκύπτει ζημία ή παραβίαση δικαιωμάτων, όπως για παράδειγμα η δημιουργία παραπλανητικού περιεχομένου, η παραβίαση πνευματικών δικαιωμάτων ή η διαρροή προσωπικών δεδομένων (Bertolini, 2025).
Βάσει του Ευρωπαϊκού κανονισμού για την τεχνητή νοημοσύνη, ο βασικός άξονας ευθύνης βασίζεται στη διάκριση μεταξύ παρόχου, χρήστη και διανομέα. Ο πάροχος (provider) φέρει την κύρια ευθύνη για τη συμμόρφωση του συστήματος με τις απαιτήσεις του κανονισμού, όπως η διαφάνεια, η ασφάλεια και η επεξηγησιμότητα. Ο χρήστης (user), από την άλλη, υποχρεούται να κάνει χρήση του συστήματος σύμφωνα με τις οδηγίες λειτουργίας και τα όρια ασφαλείας που θέτει ο πάροχος. Ωστόσο, στην περίπτωση των μοντέλων παραγωγικής τεχνητής νοημοσύνης, η διάκριση αυτή συχνά καθίσταται ασαφής· οι χρήστες μπορούν να επεκτείνουν, να τροποποιούν ή να επαναχρησιμοποιούν μοντέλα, καθιστώντας δυσδιάκριτη την ευθύνη σε περίπτωση σφάλματος ή ζημίας (Κανονισμός (ΕΕ) 2024/1689).
Ένα από τα βασικά ζητήματα των οποίων η σημασία αναδεικνύεται είναι η αντικειμενική ευθύνη. Μέσα από μελέτη του Bertolini για το Ευρωπαϊκό Κοινοβούλιο (2025) γίνεται αντιληπτό ότι σε περιπτώσεις όπου η ζημία προκύπτει από την αυτόνομη λειτουργία ενός συστήματος τεχνητής νοημοσύνης, χωρίς άμεση ανθρώπινη παρέμβαση, θα πρέπει να προβλέπεται ένα καθεστώς αυξημένης ευθύνης για τον πάροχο, παρόμοιο με αυτό που ισχύει για ελαττωματικά προϊόντα. Η εν λόγω προσέγγιση αντικατοπτρίζει την αναγκαιότητα μιας εκ των προτέρων ρύθμισης κινδύνου (ex ante), καθώς οι επιπτώσεις ενός σφάλματος που προκλήθηκε από τεχνητή νοημοσύνη είναι συχνά μη αναστρέψιμες ή δύσκολες στον εντοπισμό τους.
Παράλληλα, κρίσιμη παράμετρο αποτελεί το ζήτημα της ασφάλειας και της πρόβλεψης των ζημιών. Η νομοθεσία της ΕΕ τείνει να συνδέει την ευθύνη με την έννοια της «εύλογης προβλεψιμότητας» (reasonable foreseeability). Ωστόσο, στα μεγάλα γλωσσικά μοντέλα (LLM) και στα συστήματα παραγωγικής τεχνητής νοημοσύνης, η απρόβλεπτη φύση της αλγοριθμικής συμπεριφοράς δυσχεραίνει εξαιρετικά τον έλεγχο των συνεπειών. Ενδεικτικά, η αυτόνομη παραγωγή ιατρικού ή νομικού περιεχομένου χωρίς την απαραίτητη ανθρώπινη επίβλεψη ενδέχεται να οδηγήσει σε λανθασμένες ή παραπλανητικές πληροφορίες, προκαλώντας υλική ή ηθική ζημία σε χρήστες ή τρίτους· συχνά με μη αναστρέψιμο αποτέλεσμα (Novelli et al., 2024).
Εύλογα, επομένως, μπορεί να ειπωθεί ότι η συζήτηση περί ευθύνης των μοντέλων παραγωγικής τεχνητής νοημοσύνης δεν περιορίζεται μόνο στη νομική διάσταση, αλλά αγγίζει και το πεδίο της δεοντολογίας και κοινωνικής λογοδοσίας. Η ενίσχυση της διαφάνειας, η καταγραφή της αλυσίδας ευθύνης και η υιοθέτηση πιστοποιήσεων ασφάλειας για αλγοριθμικά μοντέλα αποτελούν κρίσιμα εργαλεία που απαιτούνται να αποτελέσουν όπλο για την εδραίωση εμπιστοσύνης μεταξύ παρόχων, χρηστών και ρυθμιστικών αρχών.
Η διαφάνεια αποτελεί κεντρικό πυλώνα του Κανονισμού (ΕΕ) 2024/1689, καθώς συνδέεται με τη λογοδοσία και την εμπιστοσύνη των πολιτών. Σύμφωνα με το άρθρο 52, οι πάροχοι παραγωγικής τεχνητής νοημοσύνης οφείλουν να ενημερώνουν τους χρήστες ότι αλληλεπιδρούν με σύστημα τεχνητής νοημοσύνης και ότι το περιεχόμενο που παράγεται έχει δημιουργηθεί από τέτοια μηχανή (Κανονισμός (ΕΕ) 2024/1689).
Παρά τα σημαντικά τεχνολογικά επιτεύγματα, είναι γεγονός ότι η επεξηγησιμότητα των μεγάλων γλωσσικών μοντέλων εξακολουθεί να αποτελεί πρόκληση. Τα περισσότερα συστήματα λειτουργούν με τρόπο αδιαφανή, ως «μαύρα κουτιά» (black box) – για να χρησιμοποιήσουμε έναν σύγχρονο νεολογισμό (Almada, 2023). Με αυτόν τον τρόπο καθιστούν δύσκολη την κατανόηση του τρόπου με τον οποίο παράγουν τα αποτελέσματά τους και, κατ’ επέκταση, την τεκμηρίωση της ευθύνης σε περιπτώσεις σφαλμάτων ή ζημίας. Για τον λόγο αυτό, η ανάγκη για σαφή τεκμηρίωση των δεδομένων εκπαίδευσης, των κινδύνων και των περιορισμών κάθε συστήματος καθίσταται κρίσιμη για τη συμμόρφωση με το ενωσιακό δίκαιο.
Με βάσει τα παραπάνω, γίνεται αντιληπτό ότι η διαφάνεια λειτουργεί ως «γέφυρα» μεταξύ τεχνολογίας και δικαίου, εξασφαλίζοντας ότι οι χρήστες, οι ρυθμιστικές αρχές και τα δικαστήρια μπορούν να αξιολογούν τη συμπεριφορά των συστημάτων. Η ενίσχυση της επεξηγησιμότητας αποτελεί, επομένως, βασική προϋπόθεση για την υπεύθυνη και ασφαλή αξιοποίηση της παραγωγικής τεχνητής νοημοσύνης στην ευρωπαϊκή αγορά με τρόπο που προωθεί την ευημερία και όχι την υπονόμευση και κατακερμάτιση των σύγχρονων αξιών.
Η εφαρμογή του Ευρωπαϊκού κανονισμού για την τεχνητή νοημοσύνη εγείρει σημαντικές προκλήσεις τόσο για τις αναθέτουσες αρχές όσο και για τους παρόχους συστημάτων παραγωγικής τεχνητής νοημοσύνης. Η πρώτη δυσκολία αφορά στην κανονιστική επιτήρηση, καθώς τα κράτη-μέλη καλούνται να αναπτύξουν νέα διοικητικά και τεχνικά μέσα προκειμένου να αξιολογούν εάν τα συστήματα συμμορφώνονται με τις υποχρεώσεις διαφάνειας, διαχείρισης κινδύνου και τεκμηρίωσης που ορίζει ο κανονισμός. Η ανάγκη για εξειδικευμένους ελεγκτικούς μηχανισμούς γίνεται ακόμη πιο επιτακτική στην περίπτωση των μοντέλων παραγωγικής τεχνητής νοημοσύνης που εξετάζουμε στην παρούσα ανάλυση, τα οποία εξελίσσονται ταχύτερα από το ρυθμιστικό πλαίσιο που τα διέπει (Κανονισμός (ΕΕ) 2024/1689).
Επιπλέον, ανακύπτουν ζητήματα σύγκρουσης με υφιστάμενες νομοθεσίες, όπως το δίκαιο περί προστασίας δεδομένων προσωπικού χαρακτήρα (ΓΚΠΔ) (Κανονισμός (ΕΕ) 2016/679), το δίκαιο πνευματικής ιδιοκτησίας και η νομοθεσία για την προστασία του καταναλωτή. Η χρήση δεδομένων για την εκπαίδευση μεγάλων γλωσσικών μοντέλων προκαλεί νομική αβεβαιότητα σχετικά με τη νομιμότητα της επεξεργασίας, ιδίως σε περιπτώσεις όπου το περιεχόμενο προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας ή περιλαμβάνει προσωπικές πληροφορίες. Ιδιαίτερα πολύπλοκο είναι και το ζήτημα της διασυνοριακής ευθύνης. Καθώς συστήματα παραγωγικής τεχνητής νοημοσύνης αναπτύσσονται σε μία χώρα, φιλοξενούνται σε άλλη και χρησιμοποιούνται σε τρίτη, η απόδοση ευθύνης σε περίπτωση ζημίας απαιτεί συντονισμό πολλαπλών εννόμων τάξεων −κάτι που, όπως γίνεται αντιληπτό, αποδεικνύεται δύσκολο εγχείρημα. Η έλλειψη διεθνούς εναρμόνισης δημιουργεί κίνδυνο κατακερματισμού και μεταφέρει σημαντικό βάρος συμμόρφωσης στους παρόχους (Narayanan & Potkewitz, 2023).
Συνολικά, η εφαρμογή του EU AI Act δεν περιορίζεται σε τεχνικές υποχρεώσεις, αλλά προϋποθέτει ένα λειτουργικό οικοσύστημα εποπτείας, διαφάνειας και συνεργασίας εθνικών και ευρωπαϊκών αρχών, ώστε η παραγωγική τεχνητή νοημοσύνη να ενσωματωθεί με ασφάλεια και υπευθυνότητα στη σύγχρονη έννομη τάξη.
Η ανάπτυξη και χρήση των μοντέλων παραγωγικής τεχνητής νοημοσύνης εντάσσεται σε ένα δυναμικό και ταχέως εξελισσόμενο τεχνολογικό περιβάλλον, όπου οι δυνατότητες και οι κίνδυνοι συνυπάρχουν −φυσικά, με ό,τι και αν αυτό συνεπάγεται. Ο κανονισμός για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη εισάγει ένα πρωτοποριακό νομοθετικό πλαίσιο που προωθεί την ασφάλεια, τη διαφάνεια και την υπευθυνότητα στη χρήση των συστημάτων υψηλού κινδύνου. Παράλληλα, η εφαρμογή του εγείρει προκλήσεις, κυρίως σχετικά με την επεξηγησιμότητα, τη διασυνοριακή ευθύνη και τη συμβατότητα με άλλα κανονιστικά πλαίσια, όπως ο ΓΚΠΔ.
Αξίζει, τέλος, μια μνεία σε προτάσεις που προάγουν την ασφαλή και καινοτόμο ανάπτυξη. Αυτές περιλαμβάνουν, μεταξύ άλλων, την ενίσχυση της διαφάνειας μέσω τεκμηρίωσης και επεξηγήσιμων αλγορίθμων, την εισαγωγή μηχανισμών ελέγχου και πιστοποίησης, καθώς και τη διαμόρφωση διεθνών κατευθυντήριων γραμμών για τη διασυνοριακή χρήση τεχνητής νοημοσύνης. Η ισορροπία μεταξύ καινοτομίας και προστασίας των πολιτών καθίσταται κομβική. Και αυτό γιατί η υπεύθυνη ανάπτυξη των συστημάτων παραγωγικής τεχνητής νοημοσύνης δεν συνιστά μόνο τεχνολογική πρόκληση, αλλά και νομική και κοινωνική αναγκαιότητα, ώστε η εφαρμογή τους να παραμείνει ασφαλής, δίκαιη και συμβατή με τα θεμελιώδη δικαιώματα των πολιτών.
Βιβλιογραφικές αναφορές
Almada, M. (2023). Governing the Black Box of Artificial Intelligence. Διαθέσιμο σε: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4587609
Hagendorff, T. (2022). A Virtue-Based Framework to Support Putting AI Ethics into Practice. Philos. Technol. 35, 55. Διαθέσιμο σε: https://link.springer.com/article/10.1007/s13347-022-00553-z
Novelli, C. et al. (2024). Generative AI in EU law: Liability, privacy, intellectual property, and cybersecurity, Computer Law & Security Review. Computer Law & Security Review. Volume 55. Διαθέσιμο σε: https://www.sciencedirect.com/science/article/pii/S0267364924001328
La Diega, G. N., Bezerra, C T. L. (2024). Can there be responsible AI without AI liability? Incentivizing generative AI safety through ex-post tort liability under the EU AI liability directive, International Journal of Law and Information Technology, Volume 32. Διαθέσιμο σε: https://academic.oup.com/ijlit/article/doi/10.1093/ijlit/eaae021/7758252
Larsson, S., & Heintz, F. (2020). Transparency in artificial intelligence. Internet Policy Review, 9(2). Διαθέσιμο σε: https://policyreview.info/concepts/transparency-artificial-intelligence
Narayanan, S. & Potkewitz, M. (2023). A risk‑based approach to assessing liability risk for AI‑driven harms considering EU liability directive. Διαθέσιμο σε: https://arxiv.org/pdf/2401.11697
Novelli, C. et al. (2024). Generative AI in EU Law: Liability, Privacy, Intellectual Property, and Cybersecurity. Διαθέσιμο σε: https://arxiv.org/pdf/2401.07348
Prof. Dr Bertolini, A., LL.M. (2025). Study requested by the JURI Committee. Artificial Intelligence and Civil Liability; A European Perspective. Policy Department for Justice, Civil Liberties and Institutional Affairs Directorate-General for Citizens’ Rights, Justice and Institutional Affairs. PE 776.426. Διαθέσιμο σε: https://www.europarl.europa.eu/RegData/etudes/STUD/2025/776426/IUST_STU(2025)776426_EN.pdf
Κανονισμός (ΕΕ) 2024/1689 του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου της 13ης Ιουνίου 2024 για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη και την τροποποίηση των κανονισμών (ΕΚ) αριθ. 300/2008, (ΕΕ) αριθ. 167/2013, (ΕΕ) αριθ. 168/2013, (ΕΕ) 2018/858, (ΕΕ) 2018/1139 και (ΕΕ) 2019/2144 και των οδηγιών 2014/90/ΕΕ, (ΕΕ) 2016/797 και (ΕΕ) 2020/1828 (κανονισμός για την τεχνητή νοημοσύνη). Διαθέσιμο σε: https://eur-lex.europa.eu/legal-content/EN-EL/TXT/?from=EN&uri=CELEX%3A32024R1689
Κανονισμός (ΕΕ) 2016/679 του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου, της 27ης Απριλίου 2016, για την προστασία των φυσικών προσώπων έναντι της επεξεργασίας των δεδομένων προσωπικού χαρακτήρα και για την ελεύθερη κυκλοφορία των δεδομένων αυτών και την κατάργηση της οδηγίας 95/46/ΕΚ (Γενικός Κανονισμός για την Προστασία Δεδομένων). Διαθέσιμο σε: https://eur-lex.europa.eu/legal-content/EL/TXT/?uri=celex:32016R0679
The European Parliament Adopts the AI Act (EU AI Act) (Πηγή εικόνας) Διαθέσιμο σε: https://www.ardentprivacy.ai/blog/the-european-parliament-adopts-the-ai-act/
