Γράφει ο Κωνσταντίνος Αναγνωστάκης
Η ραγδαία ανάπτυξη της τεχνητής νοημοσύνης και η εισαγωγή αυτόματων οπλικών συστημάτων και άλλων ασύμμετρων απειλών έχουν επιφέρει αλλαγές στους συσχετισμούς δυνάμεων μεταξύ των κρατών σε παγκόσμιο επίπεδο. Οι νέες τεχνολογικές δυνατότητες που προσφέρει αλλάζουν ριζικά το διεθνές στρατηγικό περιβάλλον επιτρέποντας σε νέους παίκτες να παίξουν ενεργό ρόλο στη διαδικασία λήψης αποφάσεων. Τα τελευταία χρόνια, αρκετά κράτη έχουν επενδύσει υπέρογκα ποσά στην έρευνα και ανάπτυξη της τεχνητής νοημοσύνης, την οποία έχουν μάλιστα τοποθετήσει ως ακρογωνιαίο λίθο της εθνικής τους στρατηγικής (βλ. China’s State Council, 2017; Putin, 2017). Δεν είναι τυχαίο ότι ο έλεγχος και η διαχείριση των οπλικών τους συστημάτων εναποτίθεται πλέον σε μεγάλο βαθμό σε προγράμματα και αλγορίθμους της μηχανικής μάθησης, αντικαθιστώντας εν μέρει τον ανθρώπινο παράγοντα. Αυτή η ψηφιακή επανάσταση είναι κατά πολλούς το πέρασμα σε μία μετά-ψυχροπολεμική, μετά-υλική εποχή, η οποία ξεδιπλώνεται μέσα σε ένα νέο πλαίσιο ασύμμετρων απειλών, περιφερειακών συγκρούσεων και ανθρωπιστικών κρίσεων. Όπως προέβλεψε ο Ρώσος Πρόεδρος Βλαντίμιρ Πούτιν, το 2017, η τεχνητή νοημοσύνη παρέχει κολοσσιαίες δυνατότητες αλλά και κινδύνους που είναι δύσκολο να προβλεφθούν σε αυτό το στάδιο. Γι’ αυτό θα μπορούσε κάποιος να ισχυριστεί όποιος καταφέρει να πρωτοστατήσει σε αυτόν τον τομέα θα έχει σημαντική ισχύ (Vincent, 2017).
Στο παρόν κείμενο επιχειρείται η διερεύνηση του αποσταθεροποιητικού ρόλου που θα παίξει η τεχνητή νοημοσύνη στη σύγχρονη διεθνή τάξη, των αλλαγών που θα επιφέρει στο διεθνές σύστημα και των κινδύνων που ελλοχεύει η ανεξέλεγκτη ανάπτυξή της. Για την απόδειξη των παραπάνω, γίνεται σύγκριση μεταξύ της αυξάνουσας παρουσίας της τεχνητής νοημοσύνης στα οπλικά συστήματα και της εμφάνισης των πυρηνικών όπλων στα μέσα του 20ού αιώνα υπό το πρίσμα της διεθνούς ασφάλειας. Έπειτα, με βάση τα ευρήματα της σύγκρισης αυτής, θα αναπτυχθούν οι πιθανοί κίνδυνοι που θα φέρουν οι νέες τεχνολογικές εξελίξεις στον στρατηγικό τομέα και τη διεθνή κατανομή ισχύος.
Η σύγκριση ανάμεσα στην τεχνητή νοημοσύνη και τα πυρηνικά όπλα κρίνεται απαραίτητη για να γίνουν αντιληπτές οι ομοιότητες και οι διαφορές των δύο ίσως μεγαλύτερων τεχνολογικών εφευρέσεων που επηρεάζουν την παγκόσμια ασφάλεια. Αρχικά, και οι δύο τεχνολογικές εξελίξεις παρέχουν, όπως είναι φυσικό, αδιαφιλονίκητο πλεονέκτημα σε εκείνους που τις κατέχουν. Καθώς όμως η ανάπτυξή τους προϋποθέτει εξειδικευμένη επιστημονική γνώση, κατάλληλο εξοπλισμό και άκρα μυστικότητα, η κατοχή των παραπάνω προηγμένων τεχνολογιών αποτελεί το αποκλειστικό προνόμιο μονάχα λίγων κρατών, όπως είναι κατά κύριο λόγο η Κίνα, η Ρωσία και οι ΗΠΑ. Κατά τη διάρκεια της ψυχροπολεμικής περιόδου, για παράδειγμα, τα πυρηνικά όπλα έπαιξαν κρίσιμο ρόλο στη διεθνή κατανομή ισχύος, αναδεικνύοντας τις δύο τότε μεγάλες δυνάμεις (ΗΠΑ & Ρωσία) ως τους ισχυρότερους παίκτες και δημιουργώντας παράλληλα δύο αντίπαλα στρατόπεδα γύρω από αυτές. Είναι εμφανές, λοιπόν, ότι η πυρηνική δύναμη αναδιαμόρφωσε την παγκόσμια πολιτική, τοποθετώντας μία έντονη διαχωριστική γραμμή ανάμεσα στα πυρηνικά και τα μη-πυρηνικά κράτη. Εξάλλου, όλες εκείνες οι τεχνολογίες που υπόσχονται σημαντικό στρατηγικό πλεονέκτημα είναι πιθανό να διαταράξουν τις υφιστάμενες ισορροπίες ισχύος και να αναδιαμορφώσουν προηγουμένως σταθερές διακρατικές συμφωνίες (Maas, 2019). Ακόμα και στην απειλή χρήσης της, η πυρηνική δύναμη συνεχίζει να αποτελεί ένα ισχυρό εργαλείο άσκησης εξωτερικής πολιτικής και μέσο πίεσης για την εξυπηρέτηση των εθνικών στόχων.
Την ίδια δυναμική φαίνεται να έχει και η πρόσφατη ανάπτυξη της τεχνητής νοημοσύνης. Πιο συγκεκριμένα, η τελευταία αναμένεται να δημιουργήσει νέους συσχετισμούς δυνάμεων αναδιανέμοντας τον ρόλο και την επιρροή των κρατών-παικτών της διεθνούς σκηνής ανάλογα με την προσαρμοστικότητά τους στη νέα ψηφιακή εποχή ή, όπως την χαρακτηρίζει ο Drum, «τη μεγαλύτερη τεχνολογική επανάσταση στην ανθρώπινη ιστορία» (Drum, 2018, σ. 46). Αξίζει όμως να σημειωθεί ότι τόσο τα πυρηνικά όπλα όσο και η αυτοματοποιημένη τεχνολογία μπορεί να έχουν διπλή χρήση, δηλαδή να χρησιμοποιηθούν είτε για ευεργετικούς είτε για επιβλαβείς σκοπούς. Για παράδειγμα, η πυρηνική ενέργεια είναι παραγωγός ηλεκτρικού ρεύματος, ενώ η τεχνητή νοημοσύνη μπορεί να έχει άκρως θετικές εφαρμογές στους τομείς της υγείας και των μεταφορών. Ωστόσο, η αλόγιστη και απερίσκεπτη χρήση τους ειδικά στον στρατιωτικό τομέα μπορεί να προκαλέσει ολέθριες συνέπειες που θα διαταράξουν την παγκόσμια ασφάλεια και θα οδηγήσουν σε ανθρωπιστικές κρίσεις. Ως εκ τούτου, προκύπτουν εύλογα ερωτήματα ηθικού χαρακτήρα. Είναι η χρήση πυρηνικών σε πολεμικές συγκρούσεις μία μόνιμη απειλή για την ανθρώπινη ύπαρξη; Είναι η εναπόθεση των οπλικών συστημάτων στα αυτόνομα συστήματα χωρίς ανθρώπινη επίβλεψη μία ασφαλής μέθοδος για τη διαχείριση κρίσεων;
Παρά τα παραπάνω κοινά τους στοιχεία, η πυρηνική δύναμη και η τεχνητή νοημοσύνη έχουν εξίσου σημαντικές διαφορές που αξίζει να ερευνηθούν. Πρώτον, η τεχνητή νοημοσύνη δεν αποτελεί από μόνη της ένα στρατιωτικό όπλο. Είναι μία επαναστατική τεχνολογική εξέλιξη, η οποία παρέχει ανατρεπτικές δυνατότητες σε ένα τεράστιο φάσμα εφαρμογών. Όπως αναφέρει και ο Horowitz, ενώ η τεχνητή νοημοσύνη μπορεί να οδηγήσει σε πλήθος στρατιωτικών καινοτομιών, δεν αποτελεί μία στρατιωτική τεχνολογία από τη γέννησή της (Horowitz, 2018). Για παράδειγμα, μπορεί να χρησιμοποιηθεί στην κατασκευή και στον έλεγχο αυτόματων ρομποτικών συστημάτων περιορίζοντας την ανθρώπινη επίβλεψη. Επίσης, καθιστά δυνατή τη συλλογή, την επεξεργασία και την αξιοποίηση πληροφοριών και την ενσωμάτωση αυτών σε συστήματα ανάλυσης και πρόβλεψης της ανθρώπινης συμπεριφοράς. Έτσι, η τεχνητή νοημοσύνη διαφέρει σημαντικά από έναν πύραυλο, ένα υποβρύχιο ή μια πυρηνική κεφαλή (Horowitz, 2018), όπως περιγράφεται λεπτομερώς και στο έργο της Kania για την «ψηφιοποίηση» του πολέμου (Kania, 2017).
Η δεύτερη διαφορά τους αφορά τη δυνατότητα ανάπτυξης και χρήσης. Πιο συγκεκριμένα, τα πυρηνικά είναι ανθρώπινες κατασκευές που βασίζονται στις αρχές της πυρηνικής φυσικής για αυτό και η ανάπτυξη τους προϋποθέτει φυσικές πρώτες ύλες, όπως το ουράνιο, καθώς και ογκώδη εργοστάσια. Από την άλλη πλευρά, η ψηφιακή τεχνολογία βασίζεται σε αλγορίθμους και τεχνικές μηχανικής μάθησης, ικανές να εκτελούν ανθρώπινες εργασίες (διανοητικές και μη), όπως η λήψη αποφάσεων και η λύση προβλημάτων, έχοντας μηδαμινούς φυσικούς παραγωγικούς περιορισμούς. Ενώ, λοιπόν, για την απόκτηση πυρηνικών απαιτούνται σημαντικοί οικονομικοί πόροι και πρόσβαση σε περιορισμένες ορυκτές ύλες, τις οποίες κατέχει μία μικρή ελίτ κρατών, τα εμπόδια για την ανάπτυξη της τεχνητής νοημοσύνης είναι σαφώς λιγότερα, επιτρέποντας ευκολότερη πρόσβαση σε περισσότερα κράτη και ιδιωτικές επιχειρήσεις. Όπως αναφέρουν οι Borghard & Lonergan, η ψηφιακή ανάπτυξη δεν απαιτεί δυσεύρετους ορυκτούς πόρους ή ογκώδεις εγκαταστάσεις, τα οποία είναι εύκολα ανιχνεύσιμα, αλλά μικρά, σύγχρονα εργαστήρια και υπερσύγχρονους υπολογιστές (Borghard & Lonergan, 2018).
Αυτά τα ιδιαίτερα γνωρίσματα έκαναν δυνατό τον περιορισμό τόσο του κινδύνου πυρηνικού πολέμου όσο και της αλόγιστης ανάπτυξης των αντίστοιχων όπλων με τη σύναψη διεθνών συνθηκών και τη συνεχή επικοινωνία μεταξύ των περιορισμένων πυρηνικών δυνάμεων. Χαρακτηριστικό παράδειγμα αποτελεί η Συνθήκη για τη Μη Διάδοση των Πυρηνικών όπλων (Non-Proliferation Treaty) η οποία τέθηκε σε ισχύ το 1970 και στόχευε στον περιορισμό και την ειρηνική χρήση της πυρηνικής ενέργειας (Sokolski, 2010). Όμως, δεν υπάρχει το ίδιο πλαίσιο για τον περιορισμό και τον έλεγχο των αυτοματοποιημένων τεχνολογιών, το οποίο βρίσκεται ακόμη σε εμβρυακή μορφή, καθώς δεν έχουν αναπτυχθεί αντίστοιχες συμφωνίες που να αφορούν εξ ολοκλήρου στο συγκεκριμένο ζήτημα. Υπάρχουν, προς το παρόν, μόνο συζητήσεις και σχετικές οδηγίες χωρίς ωστόσο αυτές να έχουν νομικό αποτύπωμα ή διεθνή χαρακτήρα. Σε αυτό συμβάλλει αρνητικά η μετάβαση από έναν διπολικό κόσμο (όπως κατά τη διάρκεια του Ψυχρού πολέμου) σε έναν πολύ-πολικό, κάτι που καθιστά την ταχεία διακρατική συνεννόηση αδύνατη και κάνει τις διαπραγματεύσεις μία χρονοβόρα και περίπλοκη διαδικασία.
Ενδεικτικά, ενώ οι συζητήσεις για την χρήση πυρηνικών περιορίζονταν σε έναν μικρό αριθμό προνομιούχων κρατών, τα οποία κατείχαν και την ανάλογη τεχνογνωσία (κυρίως ΗΠΑ, Ρωσία), οι συζητήσεις για τον έλεγχο των στρατιωτικών δυνατοτήτων που παράγει ο ψηφιακός κόσμος περιλαμβάνουν έναν πολύ μεγαλύτερο αριθμό κρατών, όπως είναι το Ισραήλ, το Ηνωμένο Βασίλειο και η Σιγκαπούρη (Online Bureau, 2023). Επιπρόσθετα, εν αντιθέσει με την αργή και πλέον σταθερή ανάπτυξη των πυρηνικών, ο κυβερνοχώρος αναπτύσσεται διαρκώς και χωρίς περιορισμούς καθιστώντας την πρώιμη διακρατική συνεννόηση σχεδόν ουτοπική. Τέλος, ένας ακόμα ανασταλτικός παράγοντας στην προσπάθεια διαχείρισης της τεχνητής νοημοσύνης είναι ότι, ενώ τα πυρηνικά όπλα κατασκευάζονταν και επιβλέπονταν από το ίδιο το κράτος, αυτό δεν ισχύει και για την τεχνητή νοημοσύνη. Στην πραγματικότητα, οι εθνικές κυβερνήσεις μπορεί να πρωτοστατούν μεν στην έρευνά της, επενδύοντας υπέρογκα ποσά, οι πολυεθνικές επιχειρήσεις, όμως, είναι εκείνες που θριαμβεύουν στην καινοτομία και την εξέλιξή της. Για παράδειγμα, ιδιωτικές high tech εταιρείες, όπως η Microsoft, η Open AI και η Google, έχουν κάνει πολλά βήματα μπροστά, αφήνοντας την κρατική προσπάθεια στη δεύτερη θέση. Ένα εύλογο ερώτημα που δημιουργείται από την ιδιωτική πρωτοκαθεδρία στον τεχνολογικό τομέα, είναι το κατά πόσον μπορεί αυτή να περιοριστεί, να ελεγχθεί και να προσαρμοστεί, για την προάσπιση της διεθνούς ασφάλειας. Αποτελεί, με άλλα λόγια, μία εξέλιξη που στοχεύει στην εξέλιξη της ανθρώπινης κοινωνίας, ή είναι ένα ακόμα επιχειρηματικό εγχείρημα για την απόδοση κερδοσκοπικών πλεονασμάτων;
Σήμερα, τα συστήματα διοίκησης και ελέγχου των πυρηνικών κρατών βασίζονται όλο και περισσότερο σε συστήματα και αλγόριθμους εκμάθησης για τη βελτίωση της ροής πληροφοριών, την ταχύτερη επίγνωση της κατάστασης και την ασφάλεια στον κυβερνοχώρο (Fitzpartick, 2019). Δεν είναι τυχαίο ότι το Υπουργείο Άμυνας των ΗΠΑ ανακοίνωσε το 2018 τη δημιουργία του Κέντρου Τεχνητής Νοημοσύνης (Joint Artificial Intelligence Center) το οποίο έχει 592 ενεργά προγράμματα σχετικά με την τεχνητή νοημοσύνη (Mehta, 2018). Παρόλο που τα αυτοματοποιημένα συστήματα αυξάνουν σημαντικά τις πιθανότητες ταχύτερης και αποτελεσματικότερης αντιμετώπισης κρίσεων που μπορεί να προκύψουν, υπάρχει πάντα ο κίνδυνος αυτές οι νέες τεχνολογίες να χρησιμοποιηθούν για τον αντίθετο σκοπό, δηλαδή για να εξαπατήσουν και να παραπληροφορήσουν τα αντίπαλα αμυντικά συστήματα και εκείνους που τα ελέγχουν (Fitzpartick, 2019). Μία σχετική προσομοίωση διεξήχθη από το Διεθνές Ινστιτούτο Στρατηγικών Σπουδών (IISS) του Λονδίνου το 2018, η οποία με βάση πιθανά σενάρια κρίσεων προσπάθησε να αναδείξει τους κινδύνους που προέρχονται από την στρατιωτική αυτοματοποίηση. Με βάση τα πορίσματα, μία νέα κούρσα εξοπλισμών στον τεχνολογικό τομέα είναι πιθανό να ανατρέψει την στρατηγική σταθερότητα, καθώς τα πυρηνικά κράτη γίνονται όλο και πιο εξαρτώμενα από την τεχνητή νοημοσύνη (Fitzpartick, 2019). Η εξέλιξη αυτή δίνει, όπως είναι φυσικό, τη δυνατότητα σε κάποια κράτη να παίξουν πιο ενεργό ρόλο προσπαθώντας να αυξήσουν την επιρροή και τη θέση τους στο διεθνές σύστημα.
Πιο συγκεκριμένα, οι ΗΠΑ αναμένεται να προσπαθήσουν να διατηρήσουν την παγκόσμια πρωτοκαθεδρία τους, επιθυμώντας τη διατήρηση της υπάρχουσας τάξης, ενώ οι ανταγωνιστές τους (Κίνα, Ρωσία) θα επιδιώξουν την αναδιαμόρφωση της ισορροπίας ισχύος με στόχο τον εκθρονισμό των ΗΠΑ. Έτσι, ο Sharikov εκφράζει έντονες ανησυχίες για την είσοδο της αυτοματοποίησης στη διαδικασία λήψης αποφάσεων, φοβούμενος ότι αυτό μπορεί να επιφέρει τα αντίθετα αποτελέσματα και έτσι να καταλήξει σε μία έκρηξη —και όχι στην επίλυση μίας σύγκρουσης (Sharikov, 2018). Επίσης, με την διάχυτη ανάπτυξη της μηχανικής μάθησης και των αλγορίθμων, οι στόχοι κυβερνό-επιθέσεων πολλαπλασιάζονται και καθιστούν ακόμα και τα συστήματα προστασίας των πυρηνικών εργοστασίων περισσότερο ευάλωτα. Όπως επισημαίνει και ο Fitzpartick, κατά αυτόν τον τρόπο αυξάνονται οι δυνατότητες τρίτων παικτών να παραπλανήσουν τα συστήματα προειδοποίησης για να ξεγελάσουν τους χειριστές τους. (Fitzpartick, 2019). Μπορεί κράτη όπως οι ΗΠΑ και η Ρωσία να μην έχουν οφέλη από μία παραπλάνηση των αμυντικών συστημάτων του αντιπάλου όσον αφορά τα πυρηνικά, ωστόσο τρίτοι παίκτες έχουν (π.χ. τρομοκρατικές οργανώσεις). Για παράδειγμα, εάν η οργάνωση ISIS μπορούσε να θέσει υπό τον έλεγχο της τα πυρηνικά συστήματα ασφαλείας των ΗΠΑ, τότε μία επανάληψη της επίθεσης της 9/11 θα μπορούσε να είναι πιθανή, αυτήν τη φορά χρησιμοποιώντας τα πυρηνικά όπλα των ίδιων των ΗΠΑ.
Όλα αυτά, δημιουργούν ένα γενικευμένο κλίμα ανασφάλειας και δυσπιστίας, καθώς, όπως έχει ήδη ειπωθεί, οι νέες τεχνολογίες παρέχουν ένα «ασύμμετρο» πλεονέκτημα στον στρατηγικό και τον στρατιωτικό τομέα (Dafoe, 2018). Παράλληλα, επιτρέπουν στα κράτη να συμμετέχουν σε πολλές εστίες συγκρούσεων ταυτόχρονα και να πολεμούν σε υψηλές ταχύτητες, αυξάνοντας πιθανότατα τον αριθμό και τον ρυθμό των μελλοντικών στρατιωτικών επιχειρήσεων παγκοσμίως (Work, 2015). Υπό την απειλή, λοιπόν, ενός νέου παγκόσμιου διλήμματος ασφαλείας η μαζική ανάπτυξη αυτοματοποιημένων οπλικών συστημάτων μετατρέπεται σε μία νέα κούρσα εξοπλισμών στα πλαίσια μιας άκρως ανταγωνιστικής μετά-ψυχροπολεμικής πραγματικότητας με κύριους δρώντες αυτήν τη φορά τις Ηνωμένες Πολιτείες και την Κίνα. Βέβαια, η νέα κούρσα ανταγωνισμού επικεντρώνεται αυτή τη φορά στο τεχνολογικό κομμάτι παρά το πυρηνικό (Gill, 2019), επιδιώκοντας την υπεροχή στην πληροφορία παρά στην οπλική δύναμη.
Βιβλιογραφία
Borghard, E. D., & Lonergan, S. W. (2018). Why are there no cyber arms control agreements?. Council on Foreign Relations. Διαθέσιμο σε: https://www.cfr.org/blog/why-are-there-no-cyber-arms-control-agreements
Dafoe, A. (2018). AI governance: A research agenda. Oxford: Governance of AI Program. Future of Humanity Institute. Διαθέσιμο σε: https://www.fhi.ox.ac.uk/govaiagenda
Drum, K. (2018). Tech world: Welcome to the digital revolution. Foreign Affairs. Διαθέσιμο σε: https://www.foreignaffairs.com/articles/world/2018-06-14/tech-world
Fitzpatrick, M. (2019). Artificial intelligence and nuclear command and control. Survival. page 81-92. Διαθέσιμο σε: DOI: 10.1080/00396338.2019.1614782
Gill, A. S. (2019). Artificial Intelligence and International Security: The Long View. Carnegie Council for Ethics & International Affairs. Διαθέσιμο σε: doi:10.1017/S0892679419000145
Horowitz, M. C. (2018). Artificial intelligence, international competition, and the balance of power. Texas National Security Review. Διαθέσιμο σε : https://repositories.lib.utexas.edu/server/api/core/bitstreams/74307125-fc5e-4706-86fc-1b035e4bbfbc/content
Sharikov, P. (2018).Artificial intelligence, cyberattack, and nuclear weapons- A dangerous combination.Bulletin of the Atomic Scientists. Διαθέσιμο σε: https://doi.org/10.1080/00963402.2018.1533185
Jervis, R. (1989). The meaning of the nuclear revolution: Statecraft and the prospect of Armageddon. Cornell University Press.
Kania, E. B. (2017). Battlefield singularity: Artificial intelligence, military revolution, and China’s future military power. Washington, DC: Center for a New American Security. Διαθέσιμο σε: https://s3.amazonaws.com/files.cnas.org/documents/Battlefield-Singularity-November-2017.pdf?mtime=20171129235804
Maas, M. M. (2019). How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons. Contemporary Security Policy. page 285-311. Διαθέσιμο σε: DOI: 10.1080/13523260.2019.1576464
Mehta, A. (2018). Pentagon AI Center Progressing, but Hypersonics and Lasers May Not Get Same Treatment. Defense News. Διαθέσιμο σε: https://www.defensenews.com/pentagon/2018/04/24/pentagon-ai-center-progressing-but-hypersonics-and-lasers-may-not-get-same-treatment/
Online Bureau, (2023). US, UK, Singapore and major countries endorse new UK-developed guidelines on AI. India times. Διαθέσιμο σε: https://ciosea.economictimes.indiatimes.com/news/security/us-uk-singapore-and-major-countries-endorse-new-uk-developed-guidelines-on-ai-cyber-security/105547017
Putin, V. (2017). Открытый урок Россия, устремлённая в будущее Open Lesson “Russia moving towards the future.” The President of Russia. Διαθέσιμο σε: http://kremlin.ru/events/president/news/55493
R. Creemers, G. Webster, P. Triolo, & E. Kania, Trans. (2017). China’s State Council. A next generation artificial intelligence development plan. New America Cybersecurity Initiative. Διαθέσιμο σε: https://naproduction.s3.amazonaws.com/documents/translation-fulltext-8.1.17.pdf
Sharikov, P. (2018). Artificial intelligence, cyberattack, and nuclear weapons—A dangerous combination. Bulletin of the Atomic Scientists. page 368-373. Διαθέσιμο σε:
Sokolski, H. D. (Ed.). (2010). Reviewing the Nuclear Nonproliferation Treaty (NPT). Department of the Army. Διαθέσιμο σε: https://www.researchgate.net/publication/235155395_Reviewing_the_Nuclear_Nonproliferation_Treaty
Vincent, J (2017). Putin Says the Nation That Leads in AI ‘Will Be the Ruler of the World. Verge. Διαθέσιμο σε: https://www.theverge.com/2017/9/4/16251226/russia-ai-putin-rule-the-world)
Work, R.O. (2015) Deputy Secretary of Defense Speech at Center for a New American Security. Defense Forum. Διαθέσιμο σε: http://www.defense.gov/News/Speeches/Speech-View/Article/634214/cnas-defenseforum
Πηγή εικόνας:
Charles River Associates. (2023). An economic analysis of the artificial intelligence-copyright nexus. Διαθέσιμο σε: https://www.crai.com/insights-events/publications/an-economic-analysis-of-the-artificial-intelligence-copyright-nexus/