Δεν υπάρχει
αμφιβολία ότι η Τεχνητή Νοημοσύνη θα μεταμορφώσει τον
πόλεμο, μαζί με σχεδόν οτιδήποτε άλλο. Θα είναι όμως η
αλλαγή "αποκαλυπτικού" χαρακτήρα ή εξελικτική; Για χάρη της
ανθρωπότητας, ας ελπίσουμε για το δεύτερο.
Όπως έγραψε ο
Andreas Kluth σε
πρόσφατο άρθρο του στο Bloomberg, η τεχνολογική
καινοτομία πάντα άλλαζε την τέχνη του πολέμου. Έτσι έχουν τα
πράγματα από την άφιξη των αρμάτων, των αναβολέων, της
πυρίτιδας, των πυρηνικών όπλων και σήμερα των drones, όπως
αποδεικνύουν καθημερινά Ουκρανοί και Ρώσοι.
Το αγαπημένο μου
παράδειγμα (ακριβώς επειδή είναι τόσο απλό) είναι η μάχη του
Koeniggraetz τον 19ο αιώνα, στην οποία οι Πρώσοι νίκησαν
τους Αυστριακούς, διασφαλίζοντας έτσι ότι η Γερμανία θα
ενωνόταν με κέντρο το Βερολίνο και όχι τη Βιέννη. Οι Πρώσοι
κέρδισαν σε μεγάλο βαθμό επειδή είχαν οπισθογεμή όπλα, τα
οποία μπορούσαν να ξαναγεμίσουν γρήγορα ενώ ήταν ξαπλωμένοι
στο έδαφος, ενώ οι Αυστριακοί είχαν εμπροσθογεμή τουφέκια,
τα οποία γέμιζαν πιο αργά ενώ στέκονταν όρθιοι.
Εάν η τεχνητή
νοημοσύνη ήταν παρόμοια με αυτό το είδος τεχνολογίας, είτε
οι ΗΠΑ είτε η Κίνα, που διεκδικούν την ηγεσία στον τομέα, θα
μπορούσαν να ελπίζουν να αποκτήσουν στρατιωτική υπεροχή για
μια φευγαλέα στιγμή. Ως στρατιωτική τεχνολογία, ωστόσο, η
τεχνητή νοημοσύνη μοιάζει λιγότερο με τουφέκια τα οποία
φέρουν κλειστό κάλυμμα και περισσότερο με τον τηλέγραφο, το
διαδίκτυο ή ακόμα και τον ηλεκτρισμό. Δηλαδή, είναι λιγότερο
ένα όπλο και περισσότερο μια υποδομή που σταδιακά θα
μεταμορφώσει τα πάντα, συμπεριλαμβανομένων των μαχών.
Το κάνει ήδη. Οι
δορυφόροι και τα αναγνωριστικά μη επανδρωμένα αεροσκάφη της
Αμερικής καταγράφουν τώρα τόσο πολλές πληροφορίες που
κανένας στρατός ανθρώπων δεν θα μπορούσε να τις αναλύσει
όλες αρκετά γρήγορα ώστε να δώσει, για παράδειγμα, στους
Ουκρανούς χρήσιμες συμβουλές για τις κινήσεις των ρωσικών
στρατευμάτων σε χρόνο ικανό για άμεση δράση. Έτσι η τεχνητή
νοημοσύνη αναλαμβάνει αυτή τη δουλειά. Με αυτόν τον τρόπο,
οι στρατιώτες μοιάζουν με τους γιατρούς οι
οποίοι χρησιμοποιούν τεχνητή νοημοσύνη για να τους
καθοδηγούν σε δέσμες δεδομένων ακτίνων Χ.
Το επόμενο βήμα
είναι να τοποθετηθεί η τεχνητή νοημοσύνη σε όλα τα είδη
ρομπότ που θα λειτουργούν, για παράδειγμα, ως
αυτοματοποιημένοι βοηθοί για πιλότους μαχητικών. Ένας
άνθρωπος θα εξακολουθεί να πιλοτάρει ένα μαχητικό, αλλά θα
περιβάλλεται από ένα σμήνος από drones που θα χρησιμοποιούν
αισθητήρες και τεχνητή νοημοσύνη για να εντοπίζουν και - με
την άδεια του πιλότου - να εξοντώνουν την αντιαεροπορική
άμυνα του εχθρού ή τα επίγεια στρατεύματά του. Τα ρομπότ δεν
θα νοιάζονται καν αν τελειώσουν τον "βίο" τους κατά τη
διαδικασία, αν αυτή είναι η μοίρα τους. Με αυτόν τον τρόπο,
η τεχνητή νοημοσύνη θα μπορούσε να σώσει ζωές, καθώς και
κόστος και να απελευθερώσει τους ανθρώπους ώστε να
επικεντρωθούν στο ευρύτερο πλαίσιο της αποστολής.
Ο θάνατος στα χέρια
του αλγόριθμου;
Η κρίσιμη
λεπτομέρεια είναι ότι αυτά τα ρομπότ πρέπει ακόμη κι έτσι να
αναζητούν ανθρώπινη άδεια πριν σκοτώσουν. Δεν νομίζω ότι
πρέπει ποτέ να εμπιστευτούμε έναν αλγόριθμο ώστε να έχουμε
επαρκή συνείδηση για να κρίνουμε, ας πούμε, εάν οι άνθρωποι
με πολιτικά ρούχα είναι πιθανό να είναι άμαχοι ή μαχητές –
μολονότι και οι άνθρωποι είναι εμφανώς κακοί στο να
επισημαίνουν τη διαφορά. Ούτε πρέπει να αφήσουμε την τεχνητή
νοημοσύνη να αξιολογεί εάν το κόστος σε ανθρώπινες ζωές που
απαιτείται για την τακτική επιτυχία μιας αποστολής είναι
αναλογικός με τον στρατηγικό στόχο.
Επομένως, το
υπαρξιακό ερώτημα δεν αφορά την τεχνητή νοημοσύνη καθαυτή. Ο
Paul Scharre στο Κέντρο για μια Νέα Αμερικανική Ασφάλεια,
συγγραφέας σχετικά με το θέμα, υποστηρίζει ότι αντ'
αυτής αφορά κυρίως τον βαθμό αυτονομίας που δίνουμε εμείς οι
άνθρωποι στις μηχανές μας. Θα βοηθά ο αλγόριθμος στρατιώτες,
αξιωματικούς και διοικητές ή θα τους αντικαταστήσει;
Αυτό, επίσης, δεν
είναι ένα εντελώς νέο πρόβλημα. Πολύ πριν από την τεχνητή
νοημοσύνη, κατά τη διάρκεια του Ψυχρού Πολέμου, η Μόσχα
κατασκεύασε συστήματα "νεκρών χεριών", συμπεριλαμβανομένου
ενός που ονομάζεται Perimeter. Είναι μια πλήρως
αυτοματοποιημένη διαδικασία για την έναρξη πυρηνικών
επιθέσεων μετά τον πιθανό θάνατο της φυσικής ηγεσίας του
Κρεμλίνου σε επίθεση. Ο σκοπός είναι προφανώς να πειστεί ο
εχθρός ότι ακόμη και ένα επιτυχημένο πρώτο χτύπημα θα
οδηγούσε σε Αμοιβαία Εξασφαλισμένη Καταστροφή (MAD).
Αναρωτιέται όμως κανείς τι θα γινόταν αν το Perimeter, το
οποίο αναβαθμίζουν οι Ρώσοι, παρουσιάσει δυσλειτουργία και
ενεργοποιηθεί κατά λάθος.
Άρα το πρόβλημα
έγκειται στο πόσο αυτόνομα αποφασίζουν οι μηχανές. Στην
περίπτωση των πυρηνικών όπλων, το διακύβευμα είναι
αυτονόητα υπαρξιακό. Αλλά εξακολουθεί να είναι εξαιρετικά
υψηλό με όλα τα υπόλοιπα "θανατηφόρα αυτόνομα οπλικά
συστήματα" (LAWS), όπως ονομάζονται επίσημα τα
ρομπότ-δολοφόνοι.
Υπάρχει η πιθανότητα
ένας αλγόριθμος να παίρνει σωστές αποφάσεις και να
ελαχιστοποιεί τον θάνατο. Γι’ αυτό τον λόγο ορισμένα
συστήματα αεράμυνας χρησιμοποιούν ήδη τεχνητή νοημοσύνη -
είναι ταχύτερη και καλύτερη απ’ ό,τι οι άνθρωποι. Ωστόσο, ο
κώδικας μπορεί επίσης να αποτύχει ή, πιο "διαβολικά", να
προγραμματιστεί για να μεγιστοποιήσει τον πόνο. Θα θέλατε
ποτέ ο Ρώσος πρόεδρος Βλαντιμίρ Πούτιν ή η Χαμάς να
αναπτύξουν ρομπότ-δολοφόνους;
Οι ΗΠΑ, ως οι πιο
προηγμένες τεχνολογικά, κατά κάποιο τρόπο ηγούνται ως προς
το καλό παράδειγμα και κατά κάποιο τρόπο όχι. Στην
αναθεώρηση του πυρηνικού τους δόγματος το 2022, ανέφεραν ότι
πάντα θα διατηρούν έναν άνθρωπο "στον βρόχο" όταν
λαμβάνονται αποφάσεις εκτόξευσης. Ούτε η Ρωσία ούτε η Κίνα
έχουν κάνει παρόμοια δήλωση. Πέρυσι, οι ΗΠΑ εξέδωσαν επίσης
μια "Πολιτική Διακήρυξη για την Υπεύθυνη Στρατιωτική Χρήση
της Τεχνητής Νοημοσύνης και την Αυτονομία". Υποστηρίζεται
από 52 χώρες και απαιτεί κάθε είδους "διασφαλίσεις" όσον
αφορά τα LAWS.
Δεν καλεί όμως σε
απαγόρευσή τους. Και εκεί είναι που οι ΗΠΑ, όπως συχνά σε
ζητήματα διεθνούς δικαίου, θα μπορούσαν να παίξουν έναν πιο
εποικοδομητικό ρόλο. Η Σύμβαση του ΟΗΕ για ορισμένα
συμβατικά όπλα, η οποία επιδιώκει να περιορίσει τις
καταστροφικές τεχνικές θανάτωσης, όπως οι νάρκες ξηράς,
προσπαθεί να απαγορεύσει εντελώς τα αυτόνομα
ρομπότ-δολοφόνους. Ωστόσο οι ΗΠΑ είναι μεταξύ εκείνων που
αντιτίθενται σε μια απαγόρευση. Αντίθετα, θα έπρεπε να
υποστηρίξoυν την απαγόρευση και να πείσουν την Κίνα να
πράξει το ίδιο.
Ακόμα φυσικά κι αν ο
κόσμος πει όχι στα LAWS, η τεχνητή νοημοσύνη θα εξακολουθεί
να δημιουργεί νέους κινδύνους. Θα επιταχύνει τόσο πολύ τις
στρατιωτικές αποφάσεις που οι άνθρωποι μπορεί να μην έχουν
χρόνο να αξιολογήσουν μια κατάσταση και σε συνθήκες ακραίας
πίεσης είτε να κάνουν μοιραία λάθη είτε να παραδοθούν στον
αλγόριθμο. Αυτό ονομάζεται μεροληψία αυτοματισμού, που
αποτυπώνει την κατάσταση όπου, για παράδειγμα, οι άνθρωποι
αφήνουν το GPS του αυτοκινήτου τους να τους οδηγήσει σε μια
λίμνη ή σε έναν γκρεμό.
Ο κίνδυνος, ωστόσο,
έχει αυξηθεί μαζί με τη στρατιωτική καινοτομία από τότε που
ο Homo sapiens έδεσε για πρώτη φορά τις πέτρες του σε
λόγχες. Και μέχρι στιγμής έχουμε γενικά μάθει να
διαχειριζόμαστε τους νέους κινδύνους. Εφόσον εμείς οι
άνθρωποι, και όχι τα bots μας, παραμείνουμε αυτοί που θα
λαμβάνουμε τις τελευταίες και πιο υπαρξιακές αποφάσεις,
υπάρχει ακόμα ελπίδα ότι θα εξελιχθούμε παράλληλα με την
τεχνητή νοημοσύνη, αντί να εξασφανιστούμε μαζί της. |