Loading...
Κρίσεις και Ζητήματα Ασφαλείας

Η εκμετάλλευση της τεχνητής νοημοσύνης, οι κίνδυνοι για τη διεθνή ασφάλεια και οι επιπτώσεις στις διεθνείς σχέσεις των κρατών

γράφει η Στεφανία Ζούρκα

 

1. H τεχνητή νοημοσύνη ως εκμεταλλεύσιμη τεχνολογία στον στρατιωτικό τομέα

 

Η ραγδαία αυξανόμενη τεχνολογική εξέλιξη και η επέκταση του ανθρώπινου νου στα άδυτα της επιστημονικής του αναζήτησης και δημιουργίας είναι δεδομένη για τον 21οαιώνα. Αυτό που σήμερα ορίζουμε ως τεχνητή νοημοσύνη, ως αυτόματες μηχανές περιήγησης και εξοπλισμούς που αυτοματοποιημένα δρουν αναλαμβάνοντας τον πρωτεύοντα ρόλο στις ενέργειες τους,  φαντάζει ουτοπικό για τα παρελθόντα έτη. Κι όμως, από τους εφευρετικούς μηχανισμούς του θεού Ήφαιστου, όπως οι αναφερόμενες στην ελληνική μυθολογία «Χρυσές Κόρες», που λέγεται ότι είχαν την ικανότητα να προβλέπουν και να πραγματοποιούν τις επιθυμίες των ιδιοκτητών τους, ως πρώιμες μορφές αυτοματοποιημένων συστημάτων τεχνητής νοημοσύνης, μέχρι και τα απτά παραδείγματα όπως ο Τάλως, μια μορφή χάλκινου ανδροειδούς που μπορούσε να στρέφεται κατά του ανθρώπινου είδους, συναντάται έντονη η ανάγκη για δημιουργία και εξέλιξη ανάλογων συστημάτων και τεχνολογιών. Ο προφανής συμβολισμός αυτών και άλλων πολλών δημιουργημάτων του ανθρώπου ενσαρκώνει την εξέλιξη του τρόπου αντίληψης της δημιουργίας.

Η ανάπτυξη μορφών τεχνητής νοημοσύνης έχει επιφέρει γιγάντια οφέλη σε όλους τους επιστημονικούς κλάδους. Επακόλουθο ήταν, και συνεχίζει να είναι, οι ολοένα αυξανόμενες συζητήσεις της στρατιωτικής αξιοποίησης των αναπτυγμένων αυτών μορφών της τεχνητής νοημοσύνης και των εξελιγμένων μορφών των βάσεων δεδομένων, οι οποίες όμως έχουν εγείρει σημαντικά ηθικά, επιστημονικά, νομικά και πολιτικά ζητήματα όσον αφορά την οριοθέτηση, τις διεθνείς σχέσεις που μπορεί να μεταβάλλει μια τέτοια ανάπτυξη, τις νομικές δεσμεύσεις τα οποία δυνητικά θα οδηγούσαν σε κάποιον υποτυπώδη έλεγχο της εφαρμοσμένης τεχνητής νοημοσύνης.

2. Οι κυριότερες μορφές της “οπλοποίησης” της τεχνητής νοημοσύνης και της αξιοποίησης των αυτόνομων οπλικών συστημάτων

 

Η ραγδαία εξέλιξη των πυραυλικών και των αυτόνομων οπλικών συστημάτων από τη δεκαετία του 1980 μέχρι  και σήμερα απαιτεί μια ώριμη προσέγγιση της πορείας που ακολούθησε η αποκλειστική παρουσία ανθρώπινου δυναμικού στο πεδίο της μάχης μέχρι την αντικατάσταση της με τεχνολογικά εξοπλισμένα συστήματα μηχανών, τα οποία έχουν τη δυνατότητα να δρουν χωρίς καμία ανθρώπινη ανάμειξη. Το κρίσιμο είναι να γίνει κατανοητό, ότι τα αυτόνομα οπλικά συστήματα στην ουσία είναι μηχανισμοί με ενσωματωμένο λογισμικό. Το τελευταίο δύναται να λειτουργεί χωρίς να ασκείται σε αυτό ο παραμικρός έλεγχος, είναι πλήρως εξοπλισμένο με έξυπνους αλγόριθμους οι οποίοι μπορούν να αξιολογούν πλήρως την εξωτερική κατάσταση στο πεδίο της μάχης.

Η εξέταση, ωστόσο του συγκεκριμένου ζητήματος απαιτεί τη συνεχή ερμηνεία του υπό το φως των σκοπών της ανάπτυξης της τεχνητής νοημοσύνης. Και αυτός δεν είναι άλλος από τη δημιουργία έξυπνων μηχανισμών. Πριν ακόμη γίνει λόγος για οπλικά συστήματα, η βάση τους δεν είναι άλλη από τους τύπους της τεχνητής νοημοσύνης αυτής καθαυτής, με τους διάφορους τύπους και τα διάφορα στάδια στα οποία αυτή αποτυπώνεται. Είναι προφανές πως εν προκειμένω το ενδιαφέρον συγκεντρώνει μόνο ένας τύπος από τους προαναφερθέντες, γιατί είναι και ο μόνος που εγείρει ηθικά, επιστημονικά, πολιτικά και νομικά ζητήματα.  Είναι η λεγόμενη Τεχνητή Γενική Νοημοσύνη ( Artificial General Intelligence- AGI) που είναι επίσης γνωστή ως Ισχυρή Τεχνητή Νοημοσύνη (Strong Artificial Intelligence) και η οποία έγκειται σε υπολογιστικό σύστημα το οποίο σκέφτεται τόσο έξυπνα όσο ένας ανθρώπινος νους και μπορεί να εκτελέσει οποιοδήποτε πνευματικό έργο που είναι σε θέση να κάνει κάποιος άνθρωπος. Οι πλήρως αυτόνομοι μηχανισμοί με εξελιγμένες ικανότητες που ξεπερνούν το ανθρωπίνως δυνατό, μπορεί να μην έχουν τεθεί σε πλήρη πρακτική εφαρμογή, ωστόσο, δεν είναι κάτι ουτοπικό, ούτε μακριά από το υπάρχον διαθέσιμο μηχανιστικό σύστημα.

Από τα συστήματα Counter Rocket του αμερικανικού στρατού που είχαν, ήδη από το 2003, εξοπλιστεί με ένα σύστημα το οποίο ανίχνευε εισερχόμενες ρουκέτες, μέχρι και το αμερικανικό μαχητικό αεροπλάνο της Lockheed Martin, F-35 Joint Strike Fighter, το οποίο διαθέτει στα ραντάρ του συστήματα τεχνητής νοημοσύνης, συνάγονται εύκολα όχι μόνο η εξέλιξη της ανθρώπινης διανόησης ως προς την εφαρμοσμένη τεχνητή νοημοσύνη αλλά και τα πρακτικά ζητήματα που θα οδηγήσουν σε μια μετα-συμβατική εποχή πολεμικής σύγκρουσης, η τύχη της οποίας εναπόκειται απλώς στην κατάκτηση της πιο εξελιγμένης τεχνολογικής προσέγγισης των πραγμάτων από την καταλληλότερα καταρτισμένη κρατική δύναμη. Άξιος αναφοράς είναι ο πρόσφατος διαγωνισμός από ερευνητικό φορέα των αμερικανικών υπηρεσιών (Center for a New American Security) ο οποίος στόχευε στην εύρεση του αποτελεσματικότερου δυνατού συστήματος ταυτοποίησης προσώπου, που αποδεικνύει περίτρανα τη δυνητική ανάπτυξη της τεχνητής νοημοσύνης σε σημείο που όχι μόνο θα ξεπερνά το ανθρωπίνως δυνατό αλλά και θα είναι αδύνατος κάθε έλεγχος από πλευράς του ανθρώπου. Σημαντικό παράδειγμα της οπλοποίησης της τεχνητής νοημοσύνης αποτελεί και το γεγονός ότι κατά τη διάρκεια της προεδρίας του Ομπάμα, από το 2009 έως το 2017, ο αριθμός των αμερικανικών στρατευμάτων στις ζώνες πολέμου μειώθηκε κατά περίπου 90%, αλλά υπήρξαν 10 περισσότερες φορές επιθετικές ενέργειες από drones και παρόμοια συστήματα.  

Το Διεθνές Ινστιτούτο Ερευνών για την Ειρήνη (Stockholm International Peace Research Institute- SIPRI) επιβεβαιώνει πως ήδη από το 2017, έχουν τεθεί σε εφαρμογή 49 αυτόνομα  οπλικά συστήματα εξοπλισμένα με τη δυνατότητα ανίχνευσης στόχων χωρίς ανθρώπινη παρέμβαση. Η ανεπανάληπτη εξέλιξη των συστημάτων των ΗΠΑ και του Ισραήλ, σε συνδυασμό με την όχι και τόσο απαρατήρητη κινεζική άνοδο στον τομέα, έχει ήδη εγείρει συζητήσεις όσον αφορά τη δέσμευση των τόσο εξελιγμένων κρατών σε περίπτωση αναγκαστικής χρήσης των όπλων αυτών.

3. Ισχύον νομικό πλαίσιο για την εξέλιξη της εκμεταλλεύσιμης τεχνολογίας στον στρατιωτικό τομέα

Η τεχνολογία που αφορά την εξέλιξη των διαθέσιμων οπλικών -και όχι μόνο- συστημάτων, η οποία συνδέεται στενά και με την εξέλιξη της τεχνητής νοημοσύνης, έχει θέσει στο προσκήνιο μια νέα προβληματική γύρω από τις πιθανές δεσμεύσεις των κρατών που πιθανό να είναι αναγκαίες για την αποφυγή καταχρήσεων. Το γεγονός ότι δεν υπάρχει σαφές κανονιστικό πλαίσιο όσον αφορά τη συγκεκριμένη προβληματική, σε συνδυασμό με τις προφανείς δυσκολίες που πρόκειται να ανακύπτουν κατά καιρούς, δεδομένης της υπερπαραγωγής των νέων τεχνολογιών και της υπερ-εξέλιξης τους, οδηγεί τη διεθνή κοινότητα στις κατάλληλες ερμηνείες των υπαρχόντων νομικών κειμένων που αποκρυσταλλώνουν έως ένα βαθμό τη γενική οριοθέτηση της ανθρώπινης δημιουργίας.

Η Σύμβαση του 1980 (Convention on Certain Conventional Weapons- CCW) για την απαγόρευση και τον περιορισμό χρήσης ορισμένων συμβατικών όπλων ασκεί επιβοηθητικό ρόλο στην ήδη δυσνόητη προσέγγιση του λεγόμενου “δικαίου του πολέμου”, η οποία απαγορεύει ή επιδιώκει την άμβλυνση της χρήσης όπλων που μπορούν να βασανίσουν αφόρητα ή να εμπλέξουν άμαχο πληθυσμό σε αντίπαλα και εχθρικά στρατόπεδα. Στην πράξη εφαρμόστηκε μόνο σε περιπτώσεις διεθνών συρράξεων και το πρόβλημα έγκειται ακριβώς στο ότι δεν υπάρχει η δυνατότητα εφαρμογής της σε περιπτώσεις μη διεθνών πολεμικών συρράξεων, που σήμερα απαρτίζουν την πλειονότητα των συγκρούσεων, δηλαδή εκείνων των συγκρούσεων των  κρατών με μη κρατικούς οργανισμούς. Είναι αμφίβολης εφαρμογής από αυτή την άποψη, επομένως και αμφίβολης νομικής δεσμευτικότητας και αποτελεσματικότητας υπό το πρίσμα των σκοπών που οδήγησαν στην τελική σύνταξη της, για τις συνήθεις μορφές πολεμικών πρακτικών.

Δεύτερο δεσμευτικό αξιοποιήσιμο κείμενο αποτελεί η Συνθήκη Ανοικτών Ουρανών ( Treaty on Open Skies), απόσταγμα της ανάγκης για ενίσχυση του ανοικτού χαρακτήρα των εναέριων στρατιωτικών πλοηγήσεων και της διαφάνειας αυτών. Με πρωτοβουλία του Οργανισμού για την Ασφάλεια και Συνεργασία στην Ευρώπη, η συνθήκη αυτή ενίσχυσε τις διακρατικές παρατηρητικές πτήσεις και συνεννοήσεις με τη μορφή επιθεωρήσεων και διεξαγωγής κοινών στρατιωτικών ασκήσεων εναερίως.

Τρίτη αξιοσημείωτη ενέργεια σε περιφερειακό επίπεδο όσον αφορά το εν λόγω ζήτημα αποτελεί η ανακοίνωση της τροποποίησης (Notice of Proposed Amendment- NPA)  της Τεχνικής Γνωμοδότησης από τον Ευρωπαϊκό Οργανισμό Ασφάλειας της Αεροπορίας (European Aviation Safety Agency). Σε έναν κόσμο που ολοένα και περισσότερο γινόταν σαφές ότι η ανάπτυξη των αυτονόμως κατευθυνόμενων αεροσκαφών θα άλλαζε ολοκληρωτικά την αντίληψη της επιστήμης και τεχνολογίας για την παραδοσιακή αεροπορία, η προτεινόμενη τροποποίηση της τεχνικής γνωμοδότησης αποσκοπεί στην ενίσχυση των κανονισμών της Ε.Ε. για τις επιχειρήσεις εκμετάλλευσης των αεροσκαφών και την παροχή επαρκούς πληροφόρησης σε όλους τους εμπλεκόμενους φορείς για τις δραστηριότητες που προκύπτουν και οι οποίες είναι επακόλουθο της λειτουργίας των drones.

Σε κάθε περίπτωση ισχύουν και πρέπει να εφαρμόζονται οι προστατευτικές δικλείδες που έθεσε η σύμβαση της Χάγης (1899) μια από τις οποίες ως ρήτρα κοινώς εφαρμοστέα από τα κράτη που είναι συμβαλλόμενα, είναι και το ότι «τα νέα όπλα πρέπει να συμμορφώνονται με τις αρχές της ανθρωπότητας και όσα υπαγορεύει η κοινή συνείδηση».

Θα αποτελέσει, πάντως, αναμφισβήτητη πρόκληση για τη διεθνή κοινότητα η υποστήριξη ενός νέου κανονιστικού πλαισίου που να ανταποκρίνεται και να είναι εφάμιλλο της εξελικτικής προοπτικής της στρατιωτικώς εκμεταλλεύσιμης τεχνητής νοημοσύνης και είναι τουλάχιστον καθήκον των αρμοδίων να πάρουν την πρωτοβουλία για να διασαφηνισθεί και να διακριβωθεί η πορεία της εξέλιξης της. Αυτή η εξέλιξη, φυσικά, είναι δύσκολο να επιτευχθεί χωρίς την εξασφάλιση, έστω σε ένα πρώιμο στάδιο της διαφάνειας ως προς τη χρήση των συστημάτων και της εξακριβωμένης και δικαιολογημένης αξιοποίησης τους. Προβληματική φαίνεται να είναι σε αυτό το σημείο τόσο η διάθεση των κρατών να τηρήσουν αυτή τη διαφάνεια, εφόσον επικαλούμενα την κυριαρχική τους εξουσία αρνηθούν να παρέχουν τέτοιου είδους πληροφορίες. Χαρακτηριστικό παράδειγμα αποτελεί το απόρρητο του συστήματος στοχευμένης θανάτωσης μέσω drones που οι ΗΠΑ θέτουν σε εφαρμογή στην Υεμένη και στο Πακιστάν, με προσπάθειες αναφοράς σε αυτό ακόμη και από πλευράς του τέως Αμερικανού προέδρου Μπαράκ Ομπάμα.

Πάντως χαρακτηριστικό που αποδεικνύει ότι υπάρχει και η αντίθετη όψη είναι ότι το Samsung SGR-A1, μια νέα εξελιγμένη μορφή όπλου, έχει τη δυνατότητα να εξακριβώνει και να εντοπίζει χέρια που σηκώνονται στον αέρα και όπλα που καταλήγουν  στο έδαφος εις ένδειξη παράδοσης, και επακόλουθα να μην πυροβολεί. Παρόλα αυτά, αυτό προϋποθέτει  την ύπαρξη συγκεκριμένου ηθικού κώδικα ο οποίος να διέπει ακόμη και τη διαμόρφωση του λογισμικού που θα εξοπλίζει τα οπλικά αυτά συστήματα. Το μόνο σίγουρο είναι ότι από το 2014 ο Οργανισμός Ηνωμένων Εθνών επιχειρεί  την συγκεκριμενοποίηση και υιοθέτηση ενός ανανεωμένου πλαισίου για τα αυτόνομα όπλα, όμως αποτελεί παρακωλυτικό παράγοντα η διαφορετική στάση που έχουν τα κράτη απέναντι στο ζήτημα.

4. Η αντιμετώπιση του ζητήματος από τα κράτη της διεθνούς σκακιέρας και η επίδραση στις διεθνείς τους σχέσεις

 

Οι λεγόμενες μεγάλες δυνάμεις της διεθνούς κοινότητας, με κυριότερες τις Ηνωμένες Πολιτείες της Αμερικής, τη Ρωσική Ομοσπονδία και το Ηνωμένο Βασίλειο,  τάσσονται υπέρ της χρήσης και ανάπτυξης του αυτόνομου οπλικού συστήματος, καθώς είναι κράτη που παράγουν και εξελίσσουν ανάλογα συστήματα, και μάλιστα σε μεγάλο βαθμό κυριαρχούν στο  χώρο τόσο σε εξειδίκευση όσο και σε ποσοτική υπεροχή στο πεδίο της κατοχής και παραγωγής αντίστοιχων οπλικών συστημάτων. Είναι αναπόφευκτο να κάνουν επίκληση στην ακρίβεια των συστημάτων, στο μηδενικό περιθώριο σκοπευτικού λάθους, στην αποτελεσματικότητα, στην αντικατάσταση του ανθρώπινου δυναμικού από ανθρώπινα κατασκευάσματα, που δύνανται να μη μεταφράζονται επιθέσεις σε κόστος ανθρώπινων ζωών στο βαθμό που δεν είναι αναγκαίος ούτε ο χειρισμός των όπλων αυτών. Επιπλέον το κόστος για ένα εξειδικευμένα εκπαιδευμένο και καταρτισμένο ανθρώπινο δυναμικό είναι μεγαλύτερο.

Είναι όντως εξασφαλισμένο όμως στην περίπτωση αυτή, ότι ένα λογισμικό δε θα έχει περιθώριο λάθους καθώς είναι φύσει ένα ανθρώπινο δημιούργημα; Τα εν λόγω κράτη δεν απαντούν με ακρίβεια στο λογικό ερώτημα του ποιος θα μπορεί να ελέγξει κάποια ανεξέλεγκτη τροπή και απρόβλεπτη δράση ή βλάβη του λογισμικού. Πώς είναι δυνατόν να αναγνωρίζεται μηδενικό περιθώριο λάθους σε ένα κατασκεύασμα το οποίο δρα βάσει εντολών ενός αλγορίθμου που και ο ίδιος ενδέχεται να είναι δημιουργημένος με πλημμέλειες; Και αν δεχτούμε το ενδεχόμενο αυτό είναι προφανώς μεγαλύτερος ο δείκτης κινδύνου, καθώς κάτι που πλέον τίθεται εκτός σφαίρας ανθρώπινου ελέγχου αποκλείει μια μετέπειτα παρέμβαση του. Σε καμία περίπτωση όμως δε μπορούν να παραληφθούν τα σοβαρά επιχειρήματα υπέρ της επιτρεπόμενης και ελεύθερης  χρήσης και ανάπτυξης των δημιουργημάτων του ανθρώπινου νου προς όφελος του και εν ανάγκη για την επιβολή αυτού.

Από την άλλη πλευρά, κράτη όπως το Βατικανό, η Αυστρία, το Πακιστάν, η Βραζιλία,, και άλλα ακόμη 26 κράτη, τάσσονται υπέρ της ολοκληρωτικής απαγόρευσης της χρήσης αυτόνομων οπλικών συστημάτων. Τα κράτη που τάσσονται υπέρ της σχετικής απαγόρευσης  δε διαθέτουν τη στρατιωτική βιομηχανία, ώστε να μπορέσουν να ανταπεξέλθουν σε μια μετεξέλιξη της στρατιωτικής τάξης των πραγμάτων, ούτε μπορούν να αναμετρηθούν ούτε αριθμητικά ούτε ποιοτικά τεχνολογικά με τους κολοσσούς της παραγωγής και τεχνογνωσίας στον τομέα αυτό. Άλλα κράτη απλώς διαθέτουν το διπλωματικό εκτόπισμα να στηρίξουν μια τέτοια απαγόρευση της χρήσης είτε επιδιώκουν να διατηρήσουν σε ισχύ τις ισχύουσες συμβάσεις για το δίκαιο του πολέμου.

Σε ένα ενδιάμεσο στάδιο, συναντά κανείς στη διεθνή σκακιέρα χώρες όπως τη Κίνα, τη Γερμανία, τη Γαλλία. Πρόκειται για κράτη που είναι ανερχόμενα σε δύναμη και τεχνογνωσία και θα μπορούσαν να αναμετρηθούν με τις υπάρχουσες μεγάλες δυνάμεις. Η Λαϊκή Δημοκρατία της Κίνας συμφωνεί με την απαγόρευση της εκτεταμένης χρήσης των αυτόνομων οπλικών συστημάτων αποκλείοντας ωστόσο οποιαδήποτε απαγόρευση όσον αφορά τον περιορισμό της εξέλιξης και ανάπτυξης των τεχνολογιών αυτών. Κράτη όπως η Γαλλία και η Γερμανία εφιστούν την προσοχή όχι τόσο στην απαγόρευση χρήσης αλλά κυρίως στην αποτελεσματική και επαρκή επικοινωνία των κρατών και διαφάνεια της εξέλιξης αυτή ς των αυτόνομων οπλικών συστημάτων.

Αυτή ακριβώς η ενδιάμεση στάση ίσως είναι και η λύση του ασαφούς πλαισίου που περιβάλλει το σκοτεινό πεδίο της οπλοποίησης της τεχνητής νοημοσύνης.  Η εποχή της συνεχούς τεχνολογικής και επιστημονικής εξέλιξης είναι αδύνατο, αλλά και αθέμιτο σε τελική ανάλυση, ναοριοθετηθεί παραλόγως και περιοριστεί. Τα κράτη θα πρέπει να κληθούν να διασαφηνίσουν τη θέση τους και να καταφέρουν να συμβιβαστούν ως προς τη χρήση της δύναμης την οποία τα ίδια δημιουργούν, έτσι ώστε να την αξιοποιούν προς όφελος τους και να μην κάνουν καταχρήσεις. Σε έναν υποθετικό πόλεμο εθνικής επιβίωσης, εξάλλου, και όχι πολεμική σύγκρουση επιλογής, όπως οι συρράξεις που έχουν σημειωθεί μέχρι στιγμής, οι δημιουργίες αυτές είναι λογικό και επόμενο να κυριαρχήσουν. Σε κάθε περίπτωση είναι κρίσιμο την αφετηρία να αποτελεί η αναζήτηση ευθυνών στους ανθρώπους και όχι στο ακαταλόγιστο αυτών και την επίρριψη ευθυνών στα δημιουργήματα τους. Πέρα από όλες τις επιστημονικές και άλλου είδους αναλύσεις  μείζονα ερωτήματα  πρέπει αν όχι να απαντηθούν, έστω να αποτελέσουν το έναυσμα της διασάφησης του πλαισίου γύρω από το ζήτημα.

ΒΙΒΛΙΟΓΡΑΦΙΑ-ΠΗΓΕΣ

1. Mayor, A. Gods and Robots: Myths, Machines and Ancient Dreams of Technology.
2. Sputniknews.gr. (2019). Το μέλλον του πολέμου: Αυτόνομη Τεχνητή Νοημοσύνη και η απειλή των ρομπότ – δολοφόνων.  Available at: https://sputniknews.gr/texnologia/201811191427575-polemos-texniti-noimosyni-rompot-dolofonoi/.
3. Lockheed Martin. (2019). F-35 Lightning II. Available at: https://www.lockheedmartin.com/en-us/products/f-35.html
4. Un.org. (2015). Discussing Drones at the UN Headquarters – UNODA. Available at: https://www.un.org/disarmament/update/discussing-drones-at-the-un-headquarters-2.
5. Unog.ch. Where global solutions are shaped for you | Disarmament | The Convention on Certain Conventional Weapons.  Available at: https://www.unog.ch/80256EE600585943/(httpPages)/4F0DEF093B4860B4C1257180004B1B30?.
7. Nytimes.com. (2013). Obama’s Speech on Drone Policy.  Available at: https://www.nytimes.com/2013/05/24/us/politics/transcript-of-obamas-speech-on-drone-policy.html?pagewanted=all
8. Mail Online. Samsung reveals robot sentry set to keep an eye on North Korea. Available at: https://www.dailymail.co.uk/sciencetech/article-2756847/Who-goes-Samsung-reveals-robot-sentry-set-eye-North-Korea.html
9. Greene, T. (2018). A beginner’s guide to AI: Algorithms. [online] The Next Web. Available at: https://thenextweb.com/artificial-intelligence/2018/08/02/a-beginners-guide-to-ai-algorithms
10. Future of Life Institute. Benefits & Risks of Artificial Intelligence – Future of Life Institute.  Available at: https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/
11. Un.org. The Drone Dialogues: New challenges for States on Armed Drones Use and Proliferation – UNODA. Available at: https://www.un.org/disarmament/update/the-dronedialogues-new-challenges-for-states-on-armed-drones-use-and-proliferation/
12. Forbes.com. (2018). Weaponizing Artificial Intelligence: The Scary Prospect Of AI-Enabled Terrorism. Available at: https://www.forbes.com/sites/bernardmarr/2018/04/23/weaponizingartificial-intelligence-the-scary-prospect-of-ai-enabled-terrorism/#3d9243477b6d
Leave a Reply

Your email address will not be published. Required fields are marked *