Loading...
Πρόσφατες αναλύσεις
Κρίσεις και Ζητήματα Ασφαλείας

Artificial Intelligence και Κενά Διακυβέρνησης στο Διεθνές Ανθρωπιστικό Δίκαιο: το Project Maven των ΗΠΑ

Γράφει η Μαρία Κολοβού

Η ραγδαία ανάπτυξη της τεχνητής νοημοσύνης έχει δημιουργήσει ένα ρυθμιστικό κενό σε διεθνές επίπεδο, καθώς το ισχύον νομοθετικό πλαίσιο δεν φαίνεται να ανταποκρίνεται στις ηθικές και επιχειρησιακές προκλήσεις της. Ομολογουμένως, η χρήση της τεχνητής νοημοσύνης αποτελεί επανάσταση στον τομέα των στρατιωτικών επιχειρήσεων. Αν και έχουν υπάρξει προσπάθειες, κυρίως «soft law» πρωτοβουλίες, όπως το Toronto Declaration (2018), -Διακήρυξη η οποία καλεί δημόσιους και ιδιωτικούς φορείς να προστατεύσουν τα ανθρώπινα δικαιώματα στην εποχή της απόλυτης εξέλιξης της επιστήμης της πληροφορικής, με έμφαση στο δικαίωμα στην ισότητα και την απαγόρευση των διακρίσεων (Αmnesty International, 2018)-, δεν υφίσταται ακόμη ένα δεσμευτικό διεθνές θεσμικό πλαίσιο για την τεχνητή νοημοσύνη (Saidi, 2025).  Η παρούσα ανάλυση θα επικεντρωθεί αρχικά στο ζήτημα της έλλειψης νομικού πλαισίου για την προστασία των ανθρωπίνων δικαιωμάτων κατά τη χρήση της τεχνητής νοημοσύνης- ΑΙ (εφεξής «ΑΙ»). Στη συνέχεια, θα αναλυθεί εκτενέστερα το φαινόμενο της μετατροπής συστημάτων τεχνητής νοημοσύνης σε όπλα και τη χρήση τους στο πεδίο της μάχης, λαμβάνοντας υπόψη το πρόγραμμα «Maven» του Υπουργείου Άμυνας των ΗΠΑ. Τέλος, θα επισημανθούν κάποια χαρακτηριστικά των αυτόματων οπλικών συστημάτων- δηλαδή των όπλων που έχουν διαμορφωθεί και χρησιμοποιούνται με τη συνδρομή της ΑΙ-, αλλά και τα υπάρχοντα ρυθμιστικά κενά για τα συγκεκριμένα ζητήματα στο Διεθνές Ανθρωπιστικό Δίκαιο.

Αρχικά, σύμφωνα με το Διεθνή Οργανισμό Τυποποίησης (ISO) , η τεχνητή νοημοσύνη «είναι ένας κλάδος της επιστήμης των υπολογιστών που δημιουργεί συστήματα και λογισμικό ικανά να εκτελούν εργασίες που κάποτε θεωρούνταν αποκλειστικά ανθρώπινες. Επιτρέπει στις μηχανές να μαθαίνουν από την εμπειρία, να προσαρμόζονται σε νέες πληροφορίες και να χρησιμοποιούν δεδομένα, αλγορίθμους και υπολογιστική ισχύ για να ερμηνεύουν πολύπλοκες καταστάσεις και να λαμβάνουν αποφάσεις με ελάχιστη ανθρώπινη παρέμβαση». Οι εφαρμογές ΑΙ καλύπτουν ένα εύρος τομέων, είτε πρόκειται για την καθημερινότητα των ατόμων (όπως πχ εκπαίδευση, ψυχαγωγία και υγεία), είτε για πιο εξειδικευμένες πτυχές της κοινωνικής και πολιτικής ζωής, όπως η ασφάλεια δεδομένων, η βιομηχανία, αλλά και ο πόλεμος. Ενδεικτικά, οι βασικότερες μέθοδοι έκφρασης της ΑΙ είναι οι εξής: η Μηχανική Μάθηση (Machine Learning), σύμφωνα με την οποία τα συστήματα δεν προγραμματίζονται ρητά για την εκτέλεση συγκεκριμένων εργασιών, αλλά «μαθαίνουν» από δεδομένα και εμπειρία, βελτιώνοντας τις επιδόσεις τους με την πάροδο του χρόνου· η Επεξεργασία Φυσικής Γλώσσας (Natural Language Processing – NLP), η οποία εστιάζει στην αλληλεπίδραση μεταξύ υπολογιστών και ανθρώπινης γλώσσας, επιτρέποντας στους υπολογιστές να κατανοούν, να ερμηνεύουν και να παράγουν φυσικό λόγο· και τα Συστήματα Βάσης Γνώσης (Knowledge-Based Systems – KBS), ήτοι υπολογιστικά συστήματα σχεδιασμένα για να παρέχουν εξειδικευμένες συμβουλές βασιζόμενα στη γνώση ενός ανθρώπου (Patil et al., 2023). Εστιάζοντας συγκεκριμένα στην περίπτωση εμπόλεμων καταστάσεων, η ΑΙ χρησιμοποιείται για την αναβάθμιση οπλικών συστημάτων και μη επανδρωμένων αεροσκαφών (drones), τη στρατηγική λήψη αποφάσεων, την προσομοίωση μάχης και εκπαίδευση, την αναγνώριση στόχων και τη διατήρηση της κυβερνοασφάλειας (Sentient Digital, 2024). Βάσει των προαναφερομένων, μπορεί να καταστεί σαφές ότι κατ’ αυτόν τον τρόπο αντικαθίστανται πολυάριθμες ανθρώπινες δραστηριότητες, στο όνομα της ταχύτητας, ευκολίας και ακρίβειας, ενώ οι απόψεις μεταξύ ακαδημαϊκών διίστανται ως προς τα θετικά και τα αρνητικά αποτελέσματα που συνεπάγεται η εισαγωγή ΑΙ σε όλους τους τομείς των ανθρώπινων δραστηριοτήτων.

Καθώς αποτελεί έναν σχετικά νέο και περίπλοκο τομέα για το ευρύ κοινό, το νομικό πλαίσιο σε διεθνές επίπεδο παραμένει μάλλον ελλιπές όσον αφορά την προστασία των ανθρωπίνων δικαιωμάτων που ενδέχεται να απειληθούν ή να παραβιαστούν από την απρόσκοπτη χρήση της ΑΙ. Το πρώτο και μέχρι στιγμής μοναδικό διεθνές κείμενο τύπου «hard law» για την προστασία ανθρωπίνων δικαιωμάτων από τις εφαρμογές ΑΙ είναι η Σύμβαση-Πλαίσιο για την Τεχνητή Νοημοσύνη, τα Ανθρώπινα Δικαιώματα, τη Δημοκρατία και το Κράτος Δικαίου του Συμβουλίου της Ευρώπης του 2024 (Framework Convention on Artificial Intelligence, Human Rights, Democracy and the Rule of Law). Μέχρι στιγμής, έχει συγκεντρώσει 16 υπογραφές, παρ’ όλα αυτά, η Σύμβαση δεν έχει κυρωθεί από κανένα συμβαλλόμενο μέρος και επομένως, δεν έχει τεθεί ακόμη σε ισχύ (Council of Europe, 2025). Τέλος, αξίζουν να αναφερθούν τα υπόλοιπα «soft law» κείμενα, τα οποία σύμφωνα με το Διεθνές Δίκαιο είναι μη δεσμευτικά (Guzman & Meyer, 2010), αλλά παρέχουν κατευθυντήριες γραμμές, όπως τα Toronto Declaration (2018) και Recommendation on the Ethics of Artificial Intelligence της UNESCO (2021), καθώς και οι Κατευθυντήριες Αρχές του Οργανισμού Οικονομικής Συνεργασίας και Ανάπτυξης (2019) για το ΑΙ (Díaz-Rodríguez et al., 2023).

Εν συνεχεία, θα πρέπει να αναφερθεί ότι το «Project Maven» αποτελεί εγχείρημα του Υπουργείου Άμυνας (πλέον Πολέμου) των ΗΠΑ, το οποίο ανακοίνωσε το 2017 τη δημιουργία μιας Διαλειτουργικής Ομάδας Αλγοριθμικού Πολέμου (Algorithmic Warfare Cross-Functional Team), με στόχο να ενσωματώσει την τεχνητή νοημοσύνη (ΑΙ) και τη μηχανική μάθηση (ML) στις στρατιωτικές επιχειρήσεις (Hoijtink & Hardeveld, 2022). Το σύστημα Maven αποτελείται από ειδικά διαμορφωμένους αλγόριθμους, οι οποίοι προγραμματίζονται να αναζητούν, να αναγνωρίζουν και να κατηγοριοποιούν αυτόματα αντικείμενα ενδιαφέροντος (όπως π.χ. οχήματα, ανθρώπους και όπλα) κατά τη διάρκεια στρατιωτικών επιχειρήσεων σε πραγματικό χρόνο. Αυτή η διαδικασία εκτελείται μέσω της επεξεργασίας, αξιοποίησης και διάδοσης μεγάλου όγκου βίντεο πλήρους κίνησης (full-motion) (United States Air Force, 2012) και για τη βελτίωση ακρίβειας των στόχων-πληγμάτων από μη επανδρωμένα αεροσκάφη (drones) (Ibrahim, 2024). Το πρόγραμμα αυτό δε, διαμορφώθηκε προς υποστήριξη των επιχειρήσεων που στόχευαν στην ήττα του ISIS (Shultz et al., 2021).

Το Σύστημα Maven συγχωνεύει δεδομένα (δορυφορικές εικόνες, δεδομένα γεωγραφικού εντοπισμού και υποκλοπές επικοινωνιών) σε μια ενοποιημένη πλατφόρμα, παρουσιάζοντας ως κύρια πλεονεκτήματα τη σαφή εικόνα του πεδίου μάχης και την αρωγή στη διοίκηση και το σχεδιασμό ανάπτυξης στρατευμάτων (Choudhury, 2024). Εντούτοις, αυτό (το Project Maven) παραμένει εκτεθειμένο σε απειλές. Ειδικότερα, ως καινοτόμο πρόγραμμα που στηρίζεται σε μηχανισμούς λήψης αυτόνομων και αυτόματων αποφάσεων, εγείρει ανησυχίες αναφορικά με την αξιοπιστία και τη διαφάνεια (Yordanova, 2025), την παραποίηση δεδομένων από hackers και την κυβερνοασφάλεια. Οι Schultz et al., μάλιστα επισημαίνουν ότι η απόδοση (output) αλγορίθμων παρουσίαζε αδυναμίες, ενώ η επανεκπαίδευσή τους δημιουργούσε τεχνικά προβλήματα. Αξίζει να αναφερθεί σε αυτό το σημείο και η συνεργασία του προγράμματος με την εταιρεία Google, εργαζόμενοι της οποίας διαμαρτυρήθηκαν με επίσημη επιστολή για την εμπλοκή της στο πρόγραμμα και, κατ’ επέκταση, στη βιομηχανία πολέμου (Shane & Wakabayashi, 2021). Το παρόν, αποτελεί ένα περιστατικό που εγείρει ηθικά διλήμματα, παρά ταύτα, η συγκεκριμένη ανάλυση θα εστιάσει στα κενά που παρατηρούνται στο Διεθνές Ανθρωπιστικό Δίκαιο για τη ρύθμιση των επίμαχων ζητημάτων και όχι στους ηθικούς περιορισμούς καθώς, όπως υποστηρίζει και ο Malmio (2023), η τοποθέτηση της έννοιας της ηθικής στην ίδια πρόταση με την έννοια της στρατιωτικής επιχείρησης παρουσιάζεται καθαυτή παράδοξη.

Παρά το υφιστάμενο νομικό πλαίσιο, το πιο σημαντικό κενό σε σχέση με τη χρήση οπλικών συστημάτων ΑΙ είναι η απουσία ενός αξιόπιστου μηχανισμού λογοδοσίας. Σύμφωνα με την ανάλυση της Crootof (2022), το Διεθνές Ανθρωπιστικό Δίκαιο (εφεξής ΔΑΔ) παρουσιάζει ένα ρυθμιστικό κενό που σχετίζεται με την απόδοση ευθυνών συνεπεία της απώλειας αμάχων κατά τη διάρκεια ενόπλων συγκρούσεων. Παρότι υφίστανται σχετικοί μηχανισμοί, αυτοί δεν καλύπτουν περιπτώσεις ακούσιας μεν, νόμιμης δε βλάβης. Αναλυτικότερα, βάσει του διεθνούς δικαίου, ο δράστης δεν ευθύνεται για τυχόν αρνητικές συνέπειες που απορρέουν από νόμιμες στρατιωτικές  ενέργειες (πχ η καταστροφή ενός στρατιωτικού εξοπλισμού με επιτυχία προκαλεί ταυτόχρονα την απώλεια αμάχων) κατά τη διάρκεια ένοπλων συγκρούσεων και δύσκολα αποδίδονται οι σχετικές κατηγορίες. Η χρήση αυτόνομων οπλικών συστημάτων επιτείνει το πρόβλημα, καθώς δύναται να προκληθούν ζημίες, λόγω της περιορισμένης ανθρώπινης εμπλοκής (πχ ανακριβής στοχοποίηση) και, επομένως, δεν μπορούν να αποδοθούν ευκόλως τυχόν ποινικές ευθύνες (Crootof, 2022) και να προσδιοριστεί αν θα πρέπει να λογοδοτήσει ο αλγόριθμος, ο  χειριστής του ή το εμπλεκόμενο στις εχθροπραξίες κράτος (Docherty, 2023). Εδώ παράλληλα, η αρχή της λογοδοσίας συμπληρώνεται από την αρχή της αναλογικότητας του Διεθνούς Ανθρωπιστικού Δικαίου. Επιπρόσθετα, η σύγκριση μεταξύ του «στρατιωτικού πλεονεκτήματος» αφενός και της «υπερβολής» (excessiveness) αφετέρου, όταν πραγματοποιείται από έναν αλγόριθμο μηχανικής μάθησης θα πρέπει να εξισορροπεί το όφελος (στρατιωτικό πλεονέκτημα)- όπως η καταστροφή ενός στρατιωτικού εξοπλισμού- έναντι του κόστους (υπερβολικές απώλειες αμάχων). Όπως επισημαίνει και ο Sharkey (2019), «Η αναλογικότητα απαιτεί μια υποκειμενική ανθρώπινη ποιοτική, μη-αλγοριθμική απόφαση σχετικά με το άμεσο στρατιωτικό πλεονέκτημα. Είναι επιτακτική ανάγκη τέτοιες αποφάσεις να λαμβάνονται από υπεύθυνους, υπόλογους διοικητές – δηλαδή όχι μηχανές- που μπορούν να σταθμίσουν τις επιλογές με βάση την εμπειρία και την επίγνωση της κατάστασης».

Τέλος, δεν θα πρέπει να παραλειφθεί ότι εκτός από το κενό λογοδοσίας στο Διεθνές Ανθρωπιστικό Δίκαιο, ταυτοχρόνως φαίνεται πως δεν έχει επιλυθεί πλήρως το ζήτημα της κατασκευής και διάδοσης των εν λόγω οπλικών συστημάτων (Sharkey, 2019). Ομολογουμένως, υφίσταται  το άρθρο 36 του Πρόσθετου Πρωτοκόλλου Ι των  Συνθηκών της Γενεύης (1949) βάσει του οποίου ρυθμίζεται η νόμιμη χρήση και ο έλεγχος των νέων οπλικών συστημάτων, πάρα ταύτα, δεν επιβάλλονται ουσιαστικοί περιορισμοί pgστην έρευνα, ανάπτυξη ή διάδοση οπλικών συστημάτων (Longpre et al., 2022).  Ελλείψει αυτής της προληπτικής ρύθμισης, αλλά και της ανεξέλεγκτης ανάπτυξης αυτοματοποιημένων οπλικών συστημάτων, η χρήση των τελευταίων απειλεί να καταστρατηγήσει θεμελιώδεις αρχές του διεθνούς ανθρωπιστικού δικαίου, όπως η διάκριση μαχητών-αμάχων πολιτών και η αναλογικότητα χρήσης βίας. Όσο αυξάνεται η αυτονομία των συστημάτων, τόσο περιορίζεται η συμβολή του ανθρώπινου παράγοντα στη λήψη απόφασης περί οπλοχρησίας ή μη και επομένως και στον υπολογισμό της βίας που απαιτείται να χρησιμοποιηθεί κάθε φορά (Crootof, 2014). Γίνεται φανερό δε ως προς την αναλογικότητα της χρήσης βίας, ότι η ακρίβεια (precision) που προσφέρουν τα συστήματα ΑΙ δεν είναι αναγκαίως συνώνυμη με την ορθή διάκριση (distinction) των στόχων (Noah, 2024).

Συνοψίζοντας, η χρήση των ΑΙ συστημάτων στο πεδίο μάχης παρέχει σαφώς τεχνολογικά πλεονεκτήματα, αλλά ταυτόχρονα θέτει σε κίνδυνο τα ανθρώπινα δικαιώματα. Για το λόγο αυτό, η διαδικασία λήψης αποφάσεων μέσω αυτοματοποιημένων οπλικών συστημάτων θα πρέπει να υποβάλλεται στον απαραίτητο έλεγχο, προκειμένου να αποφευχθεί ένας αυτοματοποιημένος πόλεμος πλήρους κλίμακας, άνευ της απαραίτητης ανθρώπινης παρέμβασης και λογοδοσίας.

 

Βιβλιογραφία

Yordanova, K. (2025). Artificial intelligence and armed conflicts.  Cambridge University Press. Διαθέσιμο στο: https://doi.org/10.1017/9781009367783.024

 

 

Πρωτογενείς πηγέςΝομοθεσία

Amnesty International. (2021, June 1). The Toronto Declaration: Protecting the rights to equality and non-discrimination in machine learning systems. Διαθέσιμο στο: https://www.amnesty.org/en/documents/pol30/8447/2018/en/

Council of Europe. (2023, October 7). Treaty Office. Διαθέσιμο στο:  https://www.coe.int/en/web/Conventions/full-list/?module=signatures-by-treaty&treatynum=225

International Organization for Standardization. (n.d). What is artificial intelligence (AI)?

Διαθέσιμο στο: https://www.iso.org/artificial-intelligence/what-is-ai

OHCHR. (n.d.). Protocol Additional to the Geneva Conventions of 12 August 1949, and relating to the Protection of Victims of International Armed Conflicts (Protocol 1). Διαθέσιμο στο: https://www.ohchr.org/en/instruments-mechanisms/instruments/protocol-additional-geneva-conventions-12-august-1949-and

 

 

Αρθρογραφία

Choudhury, R. (2024, March 2). Project Maven: The epicenter of US’ AI military efforts. Interesting Engineering. Διαθέσιμο στο: https://interestingengineering.com/military/project-maven-the-epicenter-of-us-ai-military-efforts

Crootof, R. [2014, December 5]. The killer robots are here: legal and policy implications. CARDOZO LAW REVIEW, 36(1837). Διαθέσιμο στο: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2534567

Crootof, R. (2022, November 28). AI and the Actual IHL Accountability Gap. University of Waterloo’s AI Institute. Διαθέσιμο στο: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4289005

Díaz-Rodríguez, N., Javier, D. S., Coeckelbergh, M., López, D. P. M., Herrera-Viedma, E., & Herrera, F. (2023, May 2). Connecting the dots in trustworthy artificial intelligence: from AI principles, ethics, and key requirements to responsible AI systems and regulation. Cornell University. Διαθέσιμο στο: https://doi.org/10.48550/arXiv.2305.02231

Guzman, A. T., & Meyer, T. L. [2010]. International Soft Law. The Journal of Legal Analysis, 2(1), 171–225. Διαθέσιμο στο: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1353444

Hoijtink, M., & Hardeveld, A. P. [2022]. Machine learning and the platformization of the military: A study of Google’s machine learning platform TensorFlow. International Political Sociology, 16(2). Διαθέσιμο στο: https://doi.org/10.1093/ips/olab036

Ibrahim, A. (2025, October 17). United States’ Project Maven and the rise of AI-Assisted warfare. Global Defense Insight. Διαθέσιμο στο: https://defensetalks.com/united-states-project-maven-and-the-rise-of-ai-assisted-warfare/

Longpré, J., Storm, J., & Shah, R. [2022]. Lethal autonomous weapons systems & artificial intelligence: Trends, challenges, and policies. MIT Science Policy Review, 3(1).  Διαθέσιμο στο: https://sciencepolicyreview.pubpub.org/pub/2iryd59r

Malmio, I. (2023). Ethics as an enabler and a constraint – Narratives on technology development and artificial intelligence in military affairs through the case of Project Maven. Technology in Society, 72, 102193.  Διαθέσιμο στο: https://doi.org/10.1016/j.techsoc.2022.102193

Patil, N. H. et al. [2023, December]. Research Paper on Artificial intelligence and its applications. Journal Of Advanced Zoology, 44(S8). Διαθέσιμο στο: https://doi.org/10.53555/jaz.v44iS8.3544

Saidi, I. [2025]. The Legal Vacuum in Global AI Governance: Issues and Opportunities. Science of Law, 2025(2), 252-255. Διαθέσιμο στο: https://doi.org/10.55284/vz4j8696

Schwarz, E. (2024, April 17). Gaza war: Israel using AI to identify human targets raising fears that innocents are being caught in the net. Queen Mary University of London. Διαθέσιμο στο: https://www.qmul.ac.uk/media/news/2024/hss/gaza-war-israel-using-ai-to-identify-human-targets-raising-fears-that-innocents-are-being-caught-in-the-net.

Sentient Digital, Inc. (2024, June 20). Military Applications of AI in 2024. Διαθέσιμο στο: https://sdi.ai/blog/the-most-useful-military-applications-of-ai/

Shane, S., & Wakabayashi, D. (2021, November 4). ‘The Business of War’: Google employees protest work for the Pentagon. The New York Times. Διαθέσιμο στο: https://www.nytimes.com/2018/04/04/technology/google-letter-ceo-pentagon-project.html

Sharkey, N. [2019]. Algortihms delegated with life and death decisions. Revue Défense Nationale, N° 820(5), 173–178. Διαθέσιμο στο: https://doi.org/10.3917/rdna.820.0173

Shultz, R. H., Clarke, G. R. D., Shultz, R. H., & Shultz, R. H. (2021, March 25). Big data at war: special operations forces, Project Maven, and Twenty-First-Century warfare. Modern War Institute.  Διαθέσιμο στο: https://mwi.westpoint.edu/big-data-at-war-special-operations-forces-project-maven-and-twenty-first-century-warfare/

United States Air Force. (2012, January 6). Global integrated intelligence, surveillance, & reconnaissance operations: Air Force Doctrine Document 2-0. LeMay Center for Doctrine Development and Education. Διαθέσιμο στο: https://www.e-publishing.af.mil

 

Πηγή Εικόνας:

United Nations University. (2025, January 27). Militarization of AI has severe implications for global security and warfare. Διαθέσιμη στο: https://unu.edu/article/militarization-ai-has-severe-implications-global-security-and-warfare