Loading...
Latest news
Κρίσεις και Ζητήματα Ασφαλείας

Η στρατιωτική χρήση της τεχνητής νοημοσύνης και τα ηθικά διλήμματα που προκύπτουν

Γράφει η Χρυσούλα Νάση

Η τεχνητή νοημοσύνη (ΑΙ) έχει αναδειχθεί τα τελευταία χρόνια ως μία τεχνολογία η οποία έχει εφαρμογές σε διάφορους τομείς και χαρακτηρίζεται ως τεχνολογία διπλής χρήσης, αφού μπορεί να έχει τόσο πολιτική, όσο και στρατιωτική χρήση. Αν και η τεχνολογία αυτή αναπτύχθηκε κυρίως για την πρώτη κατηγορία, δηλαδή δεν προοριζόταν για στρατιωτική χρήση, πλέον επηρεάζει την διεθνή ασφάλεια.

Η στρατιωτικοποίηση του κυβερνοχώρου και η επικράτηση των ψηφιακών όπλων οδήγησε σε αγώνα ανάπτυξης συστημάτων τεχνητής νοημοσύνης διεθνώς. Τα συστήματα αυτά αποτελούν χρήσιμα εργαλεία, διότι έχουν τη δυνατότητα να καθιστούν τον κυβερνοπόλεμο προβλέψιμο λόγω της αποδοτικής ερμηνείας των δεδομένων σε σύντομο χρονικό διάστημα ώστε να αποφευχθεί η επίθεση. Επομένως, η τεχνητή νοημοσύνη μπορεί να ενισχύσει εξίσου την άμυνα και την επίθεση στον κυβερνοχώρο, γεγονός που δημιουργεί ανασφάλειες σχετικά με τη χρήση αυτής της τεχνολογίας στον στρατιωτικό τομέα.

Τα παραπάνω έχουν ως αποτέλεσμα τον ανταγωνισμό μεταξύ των κρατών, τα περισσότερα από τα οποία επενδύουν στην τεχνητή νοημοσύνη και για στρατιωτικούς λόγους. Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί σε όλα τα επίπεδα του πολέμου και παρέχει το πλεονέκτημα της αυτοματοποίησης και της ανεξαρτητοποίησης πολλών όπλων. Ενδεικτικά παραδείγματα αυτών είναι τα drones, τα μη επανδρωμένα αεροσκάφη (Unmanned Aerial Vehicle/ UAV) και τα θανατηφόρα αυτόνομα οπλικά συστήματα (Lethal Autonomous Weapon Systems/ LAWS). Αυτή η νέα δυνατότητα άρχισε να είναι αντικείμενο συζήτησης από τη διεθνή κοινότητα όχι μόνο σε επίπεδο κυβέρνησης, λόμπι και βιομηχανιών οπλικών συστημάτων, αλλά και από ομάδες υπεράσπισης ανθρωπίνων δικαιωμάτων και θεμελιωδών ελευθεριών. Η συζήτηση περιστρέφεται γύρω από το πόσο ηθική και νόμιμη είναι η χρήση της τεχνητής νοημοσύνης στις στρατιωτικές δραστηριότητες.

Οι ερευνητές πλέον, εστιάζουν περισσότερο στην ανάδειξη των συστημάτων LAWS, ως τα πιο σύγχρονα συστήματα τα οποία σύμφωνα με κάποιους παρουσιάζουν ακόμα ορισμένα νομοθετικά κενά σε σχέση με τη χρήση, τη διακίνηση και την κατοχή τους. Τα οπλικά συστήματα LAWS χαρακτηρίζονται ως αυτόνομα, γιατί διαθέτουν τεχνολογία προσαρμογής στο περιβάλλον που βρίσκονται και δύνανται να υιοθετούν θέσεις παρατήρησης και επίθεσης. Ταυτόχρονα, έχουν την ικανότητα αναγνώρισης, επιλογής και επίθεσης στους στόχους τους χωρίς να απαιτούν καθόλου την ανθρώπινη παρέμβαση. Αυτή η νέα καινοτομία και η προσαρμοστικότητα των LAWS είναι ο λόγος που καθίστανται πιο επικίνδυνα οπλικά συστήματα από τα αυτοματοποιημένα, τα οποία για να τεθούν σε χρήση απαιτείται να έχουν προγραμματιστεί ανάλογα. Για όλα τα παραπάνω, τα ηθικά διλήμματα σχετικά με την κατασκευή, προμήθεια και χρήση τους είναι ακόμα πιο έντονα.

Τα ηθικά επιχειρήματα που προκύπτουν από την στρατιωτική χρήση της τεχνητής νοημοσύνης περιστρέφονται γύρω από την υπευθυνότητα. Το βασικό επιχείρημα είναι ότι η αυτονομία που παρέχουν τα συγκεκριμένα οπλικά συστήματα είναι υψηλή και για αυτό το λόγο δημιουργούν το αίσθημα της αναξιοπιστίας. Με άλλα λόγια, η έλλειψη του ανθρώπινου στοιχείου εγείρει αμφιβολίες για το αν τα κράτη θα εκμεταλλευτούν τα συστήματα για να ασκούν βία χωρίς να αναλαμβάνουν την ευθύνη των πράξεων τους. Άλλο επιχείρημα που χρησιμοποιείται από όσους τάσσονται κατά της στρατιωτικής χρήσης της τεχνητής νοημοσύνης, είναι ότι το εκτιμώμενο ρίσκο των κρατών να εμπλακούν σε πόλεμο θα είναι σαφώς πολύ χαμηλότερο, αν δεν χρειάζεται να διαθέσουν ανθρώπινο δυναμικό για τον πόλεμο.

Από την άλλη πλευρά, υπάρχουν κράτη που τάσσονται υπέρ της στρατιωτικής χρήσης όπως είναι μεταξύ άλλων οι Ηνωμένες Πολιτείες, το Ισραήλ, η Ρωσία και η Γαλλία. Αυτά τα κράτη έχουν ήδη προβεί στη σχεδίαση εθνικής πολιτικής ως προληπτικό μέτρο κυρίως για τα LAWS, ενώ ταυτόχρονα φαίνονται πρόθυμα να επενδύσουν ολοένα και περισσότερα κεφάλαια σε αυτού του είδους τις τεχνολογίες. Η βασική επιχειρηματολογία που επικαλούνται είναι ότι τα αυτόνομα συστήματα μπορεί να καταστούν πιο «ανθρώπινα» στο πεδίο της μάχης, επειδή δεν θα τα βαραίνουν ψυχολογικά μειονεκτήματα όπως συμβαίνει συνήθως με τους ανθρώπους. Με βάση αυτή τη θεωρία, τα συγκεκριμένα συστήματα δεν θα δρουν συναισθηματικά και θα προκαλούν λιγότερες απώλειες στο πεδίο μάχης.

Προς το παρόν, είναι δύσκολο να προβλέψει κανείς το πώς θα εξελιχθεί η κατάσταση στο διεθνές περιβάλλον με την εισχώρηση της τεχνολογίας στην αμυντική βιομηχανία. Τα LAWS, συγκεκριμένα, βρίσκονται ακόμα σε πολύ πρώιμο στάδιο ανάπτυξης και εγείρουν ακόμα περισσότερες αμφιβολίες για τα ζητήματα διεθνούς ασφάλειας που μπορεί να προκύψουν. Ωστόσο, για τον ίδιο λόγο υπάρχει ένα θετικό αποτέλεσμα: ο διάλογος μεταξύ των κρατών και των διεθνών οργανισμών ώστε να μπορέσουν να αποφασίσουν αναφορικά με την πολιτική που θα ακολουθήσουν κατά τη νομοθετική ρύθμιση αυτών των συστημάτων. Το μόνο πρόβλημα που προκύπτει είναι ο χρόνος, διότι όσο αναπτύσσεται η κατασκευή αυτών των συστημάτων, τόσο μειώνεται το περιθώριο για την ρύθμιση τους.

Τέλος, το γεγονός ότι υπάρχουν ακόμα ασάφειες όσον αφορά τη στρατιωτικοποίηση της τεχνητής νοημοσύνης ενδέχεται να οδηγήσει σε αρνητικά αποτελέσματα. Προς το παρόν, τα κράτη ακολουθούν την δική τους προσέγγιση και προσδιορίζουν αυτά τα συστήματα με βάση τις ατομικές τους προτιμήσεις. Η ανεπάρκεια ολοκληρωμένου και καθολικού θεσμικού πλαισίου που να ισχύει για όλα τα κράτη μπορεί να τα οδηγήσει στην υιοθέτηση εντελώς υποκειμενικών κριτηρίων σε σχέση με το ποια είναι η ηθική χρήση αυτών τον συστημάτων και ποιες αρχές οφείλουν να ακολουθούν για την αποφυγή συγκρούσεων που μπορεί να θέσουν σε κίνδυνο το διεθνές σύστημα. Πολλοί ερευνητές προτείνουν μία λύση που θα έχει παρόμοιο θεσμικό χαρακτήρα με τη συνθήκη μη διάδοσης πυρηνικών όπλων ώστε να περιοριστεί το εμπόριο τους, ή την ένταξη αυτών των συστημάτων στα όπλα μαζικής καταστροφής για να τεθούν εκτός νόμου. Όποια μέσα και να χρησιμοποιηθούν για την ρύθμιση των αυτόνομων όπλων, κρίνεται απαραίτητη περαιτέρω έρευνα στον τομέα πριν αναπτυχθούν πλήρως από την αμυντική βιομηχανία. Τούτο διότι όταν τελικά αναπτυχθούν, θα υπάρχει περιορισμένος χρόνος αντίδρασης μέχρι να βγουν στην αγορά και οι επιχειρήσεις θα πιέσουν τα κράτη για νομοθεσία. Επομένως, οι πολιτικοί δρώντες πρέπει να αξιολογήσουν τις πιθανές επιλογές τους και να προβούν στην εκτίμηση του κινδύνου πριν χρειαστεί να πάρουν βεβιασμένες αποφάσεις.

Βιβλιογραφία

Anderson, K., & Waxman, M. C. (2017). Debating Autonomous Weapon Systems, Their Ethics, and Their Regulation Under International Law. Διαθέσιμο σε: https://academic.oup.com/edited-volume/27999/chapter-abstract/211747181?redirectedFrom=fulltext

Christie, E. H., Ertan, A., Adomaitis, L., & Klaus, M. (2023). Regulating lethal autonomous weapon systems: Exploring the challenges of explainability and traceability – ai and Ethics. Springer. Διαθέσιμο σε: https://link.springer.com/article/10.1007/s43681-023-00261-0 

Cristiano, F., Broeders, D., Delerue, F., Douzet, F., & Géry, A. (2023). Artificial Intelligence and International Conflict in Cyberspace. OAPEN Home. Διαθέσιμο σε: https://library.oapen.org/handle/20.500.12657/62917

Lingevicius, J. (2023). Military artificial intelligence as power: Consideration for European Union actorness – ethics and information technology. Springer. Διαθέσιμο σε: https://link.springer.com/article/10.1007/s10676-023-09684-z

Noor, S. (2023). Laws on laws: Regulating the Lethal Autonomous Weapon Systems. Air University (AU). Διαθέσιμο σε: https://www.airuniversity.af.edu/JIPA/Display/Article/3533453/laws-on-laws-regulating-the-lethal-autonomous-weapon-systems/

Πηγή εικόνας: https://mobilecoderz.com/blog/the-process-philosophy-behind-training-intelligent-machines-ai-ml-bots/