Το επικίνδυνο κοκτέιλ ΑΙ, κυβερνοεπιθέσεων και πυρηνικών όπλων

Πώς η τεχνητή νοημοσύνη μπορεί να ανατρέψει τα στρατιωτικά δεδομένα και να δώσει πλεονέκτημα. Ο νέος τύπος ψυχρού πολέμου μεταξύ ΗΠΑ και Ρωσίας και ο ρόλος της Κίνας. Η ανάγκη να υπάρξει διαπραγμάτευση νέων κανόνων και τα μαθήματα από τις συμφωνίες για τα πυρηνικά.

Το επικίνδυνο κοκτέιλ ΑΙ, κυβερνοεπιθέσεων και πυρηνικών όπλων
  • του Pavel Sharikov*

Η Τεχνητή Νοημοσύνη (ΑΙ) –που ορίστηκε από τον John McCarthy, έναν από τους πρωτεργάτες της , ως «η επιστήμη και ο σχεδιασμός της δημιουργίας έξυπνων μηχανών»- αποκτά σταδιακά σχέση με τον στρατιωτικό τομέα. Ενώ η εμπορική χρήση της ΑΙ διευρύνεται, υπάρχουν μόνο τρεις χώρες που φέρεται να αναπτύσσουν σοβαρές στρατιωτικές τεχνολογίες ΑΙ: οι ΗΠΑ, η Κίνα και η Ρωσία. Η ΑΙ υπόσχεται σημαντικό στρατιωτικό πλεονέκτημα στις επιθετικές και αμυντικές δυνατότητες ενός κράτους.

Η ΑΙ έχει τώρα τη δυνατότητα να συγχωνευθεί με προηγμένους -αλλά μη δοκιμασμένους- οπλισμούς, όπως οι επιθετικές δυνατότητες στον κυβερνοχώρο. Αυτή είναι μια ανησυχητική εξέλιξη, καθώς μπορεί δυνητικά να αποσταθεροποιήσει την ισορροπία στρατιωτικών δυνάμεων μεταξύ των κορυφαίων βιομηχανικών κρατών.

Ιδιαίτερα με την έλευση της μηχανικής μάθησης και της ΑΙ, υπάρχουν περισσότεροι διαθέσιμοι στόχοι για χάκινγκ, κάτι που σημαίνει πως κρίσιμες υποδομές -όπως τα τραπεζικά συστήματα, ο εντοπισμός πτήσεων, τα νοσοκομειακά αρχεία, τα προγράμματα που τρέχουν τους πυρηνικούς αντιδραστήρες μιας χώρας- είναι ευάλωτες σε επιθέσεις.

Ένα από τα πιο πιεστικά προβλήματα, ωστόσο, έγκειται στις αποσταθεροποιητικές επιπτώσεις που θα έχει στην ισορροπία των πυρηνικών δυνάμεων ο προηγμένος κυβερνο-οπλισμός, που είναι ενισχυμένος με τεχνολογία ΑΙ.  Δεν υπάρχει οριστική απόδειξη πως τα πυρηνικά συστήματα εντολών και ελέγχου είναι ευάλωτα σε κυβερνοεπιθέσεις, όμως τα συστήματα αυτά είναι ψηφιακά και ως εκ τούτου υπάρχει τρωτό σημείο.

Η αποσταθεροποιητική επίπτωση των προηγμένων κυβερνο-οπλισμών με ΑΙ αποτελεί ιδιαίτερη πηγή ανησυχίας για τις σχέσεις ΗΠΑ-Ρωσίας. Πράγματι, η άμυνα έναντι τέτοιων όπλων και η προστασία του hardware, του software και των δεδομένων ενός κράτους από μια επίθεση, έχουν γίνει σημαντικό ζήτημα στις διμερείς σχέσεις –ισάξιο του ελέγχου των πυρηνικών όπλων και της συμβατικής στρατιωτικής κλιμάκωσης από ατύχημα.

Σήμερα, οι κάτοχοι των μεγαλύτερων αποθεμάτων πυρηνικών όπλων -η Ρωσία και οι ΗΠΑ- βρίσκονται, αναμφίβολα, σε έναν νέο Ψυχρό Πόλεμο. Πολλά από τα παραδοσιακά κανάλια επικοινωνίας, περιλαμβανομένων και των στρατιωτικών, είτε έχουν εκτεθεί ή έχουν «σπάσει», αποσταθεροποιώντας την πυρηνική διπλωματία μεταξύ των δυο χωρών. Σε συνδυασμό με την αποχώρηση των ΗΠΑ από την Συνθήκη IRNF για τα πυρηνικά όπλα μεσαίου βεληνεκούς, το καθεστώς του ελέγχου των όπλων που δημιουργήθηκε κατά τη διάρκεια του Ψυχρού Πολέμου δεν μπορεί πλέον να εγγυηθεί τη στρατηγική σταθερότητα. Η ύπαρξη νέων τεχνολογιών, οι δυνατότητες στον κυβερνοχώρο σε συνδυασμό με την ΑΙ, απλώς θα ενισχύσουν αυτή την αποσταθεροποιητική τάση.

Μάλιστα, ίσως έχει ήδη ξεκινήσει μια νέα τεχνολογική –αντί για πυρηνική- κούρσα κυβερνο-οπλισμού ΑΙ. Η τεχνητή νοημοσύνη μπορεί να είναι ιδιαίτερα επικίνδυνη σε συνδυασμό με άλλες τεχνολογίες πληροφοριών –όπως για παράδειγμα το cloud computing, τα big data, το internet των πραγμάτων.

Στην προσφάτως εκδοθείσα Στρατηγική του υπουργείου Άμυνας των ΗΠΑ για την Τεχνητή Νομημοσύνη, αναφέρεται πως oι δυνατότητες που σχετίζονται με την Τεχνητή Νοημοσύνη οι οποίες μπορεί να προκαλέσουν σημαντικές αλλαγές, «θα προκύψουν από πειράματα… αυτό περιλαμβάνει τη δημιουργία μιας κοινής βάσης κοινών δεδομένων (shared data), επαναχρησιμοποιούμενων εργαλείων, πλαισίων και προτύπων και υπηρεσιών cloud και edge.»

Για παράδειγμα, οι τεχνολογίες με δυνατότητες αυτοβελτίωσης (self-learning technologies) χρειάζονται δεδομένα για να «μάθουν». Ως αποτέλεσμα, χρειάζεται να έχουν τη δυνατότητα να έχουν πρόσβαση σε βάσεις δεδομένων που διαρκώς ανανεώνονται, με ταχείες επικοινωνίες (σ.τ.μ.: οι τεχνολογίες self-learning είναι μια κατηγορία ΑΙ όπου ένας παράγοντας μαθαίνει να βελτιώνεται, με βάση τις πληροφορίες που λαμβάνει από το περιβάλλον).

Ένα καλό παράδειγμα από τον κόσμο των πολιτών, είναι τα αυτο-οδηγούμενα αυτοκίνητα. Όπως δήλωσε ο Ted Senator, διαχειριστής προγράμματος της υπηρεσίας αμυντικών επιστημών της DARPA, «χάρη στους τεράστιους όγκους δεδομένων που περιλαμβάνουν σπάνιες εμπειρίες που έχουν συλλεχθεί από δεκάδες εκατομμύρια αυτόνομων μιλίων, η τεχνολογία της αυτό-οδήγησης αρχίζει να έχει πολύ καλές επιδόσεις».

Τα επόμενα βήματα

Αν και είναι αδύνατο να αντιστραφεί η πρόοδος στην ανάπτυξη της ΑΙ, εξακολουθεί να είναι δυνατό να βρεθούν οι κανόνες μιας κούρσας εξοπλισμών που θα περιλαμβάνει την τεχνολογία αυτή. Από αυτή την άποψη, αξίζει να σκεφτούμε την εμπειρία των συμφωνιών ΗΠΑ-Σοβιετικής Ένωσης όταν εμφανίστηκαν την δεκαετία του 1970 οι τεχνολογίες αντιβαλλιστικών πυραύλων (ABM). Αντί να εισέλθουν σε μια κούρσα εξοπλισμών με επίκεντρο αυτή τη νέα τεχνολογία, η Σοβιετική Ένωση και οι ΗΠΑ συμφώνησαν να δεχθούν αμοιβαία τρωτά σημεία και, για χάρη της στρατηγικής σταθερότητας, να εγκαταλείψουν τα σχέδια να δοκιμάσουν περισσότερες τεχνολογίες αντιβαλλιστικών πυραύλων, σύμφωνα με τη συνθήκη ABM, η οποία παρέμεινε σε ισχύ μέχρι το 2002.

Η συνθήκη ABM μπορεί να λειτουργήσει ως η βάση για μια παρόμοια συμφωνία για τα κυβερνο-όπλα τεχνητής νοημοσύνης.

Είναι κρίσιμης σημασίας να διευθετηθούν παρόμοιοι κανόνες εμπλοκής, λαμβάνοντας απολύτως υπ’ όψιν τα ιδιαίτερα χαρακτηριστικά της τεχνητής νοημοσύνης. Οι μηχανές με δυνατότητες αυτοεκμάθησης (self learning machines) λειτουργούν εντός του πλαισίου που έχουν σχεδιάσει άνθρωποι, και τα δεδομένα που λαμβάνουν οι επιθετικές τεχνολογίες ΑΙ θα πρέπει να συζητηθούν σε διεθνές επίπεδο. Η όποια συμφωνία για τον έλεγχο των όπλων είχε προβλέψεις επιβεβαίωσης. Ωστόσο, στην περίπτωση των τεχνολογιών ΑΙ, είναι σχεδόν αδύνατον να συμφωνηθούν σε διμερές επίπεδο τέτοιου είδους προβλέψεις.

Ενώ οι συμφωνίες για τον έλεγχο των πυρηνικών όπλων σταδιακά εξαφανίζονται, υπάρχει μια επείγουσα ανάγκη για διαπραγμάτευση νέων κανόνων. Οι τεχνολογίες ΑΙ και οι τεχνολογίες στον κυβερνοχώρο πρέπει να αποτελέσουν αντικείμενο διαπραγμάτευσης μεταξύ των μεγάλων δυνάμεων. Την ίδια ώρα, η τρέχουσα κατάσταση των αμερικανορωσικών σχέσεων δεν αφήνει πολύ περιθώριο για οποιαδήποτε συμφωνία και έτσι οι συζητήσεις θα πρέπει να πραγματοποιηθούν σε ημιεπίσημο επίπεδο (Track 2 diplomacy) με τη συμμετοχή εμπειρογνωμόνων από πολλές χώρες.

Στις συζητήσεις αυτές θα πρέπει να υπάρξει διαβούλευση ως προς το τι συνιστά κυβερνο-έγκλημα και τι κυβερνο-άμυνα (περιλαμβανομένων αυτών που περιέχουν τεχνολογίες ΑΙ),  καθώς και ποιοι είναι οι δρόμοι προς την κλιμάκωση και την αποκλιμάκωση συγκρούσεων. Η Ρωσία, οι ΗΠΑ και η Κίνα θα πρέπει επίσης να εξετάσουν την δημόσια κυβερνο-θέση τους, που σημαίνει πως θα πρέπει να αποκαλύψουν υπό ποιες συνθήκες οι χώρες θα χρησιμοποιήσουν ή όχι κυβερνο-όπλα.

Μια συμφωνία θα πρέπει να περιλαμβάνει επίσης τρόπους επιβεβαίωσης –πράγμα δύσκολο να εφαρμοστεί, αλλά που αποτελεί κρίσιμης σημασίας στοιχείο για τη διενέργεια επιτυχημένων διαβουλεύσεων επί της στρατηγικής σταθερότητας στον κυβερνοχώρο.

Οι ηγέτες της Ρωσίας και των ΗΠΑ θα μπορούσαν να ενισχύσουν τη σταθερότητα στις σχέσεις των μεγάλων δυνάμεων μέσω μια κοινής πολιτικής διακήρυξης που θα δηλώνει ότι οι συμβαλλόμενες χώρες αρνούνται την πρόθεση να επιτεθούν στις κρίσιμες υποδομές –όπως στα συστήματα εντολών και ελέγχου πυρηνικών- η μία της άλλης, με τεχνολογίες κυβερνοχώρου ή τεχνητής νοημοσύνης. Αυτό θα αποτελούσε ένα θετικό βήμα για όλους τους εμπλεκόμενους.  

*Ο Pavel Sharikov είναι research fellow του Ινστιτούτου Αμερικανικών και Καναδικών Μελετών της Ρωσικής Ακαδημίας Επιστημών.

ΣΧΟΛΙΑ ΧΡΗΣΤΩΝ

blog comments powered by Disqus
v