|
Η ραγδαία πρόοδος της τεχνητής νοημοσύνης φέρνει τις μεγάλες
τεχνολογικές εταιρείες μπροστά σε όλο και πιο σύνθετα ηθικά
και πρακτικά διλήμματα. Χαρακτηριστικό παράδειγμα αποτελεί η
Anthropic,
η οποία, μετά τη δημόσια αντιπαράθεση γύρω από τη χρήση των
μοντέλων της σε στρατιωτικές εφαρμογές, αναζητά πλέον
στελέχη με εξειδίκευση στα χημικά όπλα και στα ισχυρά
εκρηκτικά.
Η κίνηση αυτή δεν συνδέεται με κάποιο αμυντικό πρόγραμμα,
αλλά με την προσπάθεια της εταιρείας να δημιουργήσει
ισχυρότερα προστατευτικά φίλτρα γύρω από την τεχνολογία της.
Στόχος είναι να αποτραπεί το ενδεχόμενο ο ψηφιακός βοηθός
Claude να παρέχει πληροφορίες που θα μπορούσαν να χρησιμοποιηθούν για την ανάπτυξη
όπλων μαζικής καταστροφής ή άλλων εξαιρετικά επικίνδυνων
μέσων.
Σύμφωνα με σχετική αγγελία στο
LinkedIn,
η εταιρεία αναζητεί διευθυντή πολιτικής για χημικά όπλα και
εκρηκτικά με έδρα τη Νέα Υόρκη. Ο υποψήφιος καλείται να
διαθέτει πολυετή εμπειρία στην αντιμετώπιση χημικών απειλών,
καθώς και βαθιά γνώση ζητημάτων που σχετίζονται με
μηχανισμούς διασποράς ραδιενεργών υλικών, όπως οι λεγόμενες
«βρώμικες βόμβες».
Η επιλογή αυτή
αναδεικνύει μια βασική αντίφαση της σημερινής βιομηχανίας
τεχνητής νοημοσύνης. Από τη μία πλευρά, οι ίδιες οι
εταιρείες προειδοποιούν για υπαρκτούς και σοβαρούς κινδύνους
από την κακή χρήση των μοντέλων τους. Από την άλλη,
συνεχίζουν να αναπτύσσουν ολοένα ισχυρότερα συστήματα,
προσπαθώντας εκ των υστέρων να τοποθετήσουν «ψηφιακά
κιγκλιδώματα» για να ελέγξουν τις συνέπειες.
Ανάλογη στάση έχει υιοθετήσει και η
OpenAI,
η οποία επίσης έχει αναζητήσει ειδικούς σε βιολογικούς και
χημικούς κινδύνους, προσφέροντας ιδιαίτερα υψηλές αμοιβές.
Ωστόσο, αυτή η στρατηγική προκαλεί ανησυχία σε αρκετούς
ειδικούς, καθώς η εκπαίδευση ή η αξιολόγηση συστημάτων
AI πάνω
σε τόσο ευαίσθητη γνώση, ακόμη και για λόγους προστασίας,
μπορεί να δημιουργήσει νέους κινδύνους αντί να τους μειώσει.
Το πρόβλημα
γίνεται ακόμη πιο σοβαρό επειδή δεν υπάρχει ακόμη ένα σαφές
διεθνές ρυθμιστικό πλαίσιο για τον τρόπο με τον οποίο η
τεχνητή νοημοσύνη πρέπει να διαχειρίζεται πληροφορίες
σχετικές με χημικά, βιολογικά ή ραδιολογικά όπλα. Έτσι, ένα
κρίσιμο πεδίο ασφάλειας φαίνεται να ρυθμίζεται στην πράξη
κυρίως από ιδιωτικές εταιρείες, χωρίς ενιαίο θεσμικό έλεγχο.
Μέσα σε αυτό το πλαίσιο, οι γεωπολιτικές εντάσεις κάνουν την
κατάσταση ακόμη πιο περίπλοκη. Παρά την προσπάθεια της
Anthropic
να κρατήσει αποστάσεις από πλήρως αυτόνομα όπλα και από
εφαρμογές μαζικής παρακολούθησης, η εταιρεία βρέθηκε
αντιμέτωπη με αντιδράσεις από το αμερικανικό υπουργείο
Άμυνας. Την ίδια στιγμή, το Claude
εξακολουθεί να συνδέεται έμμεσα με αμυντικά οικοσυστήματα
μέσω συνεργασιών και πλατφορμών που αξιοποιούνται από
κρατικούς φορείς.
Έτσι, η σύγκρουση ανάμεσα στην εθνική ασφάλεια, τα εμπορικά
συμφέροντα και την ηθική αυτονομία των εταιρειών
AI
γίνεται όλο και πιο έντονη. Το βασικό ερώτημα πλέον δεν
είναι μόνο πόσο γρήγορα θα εξελιχθεί η τεχνητή νοημοσύνη,
αλλά και αν τα μέτρα προστασίας που αναπτύσσονται παράλληλα
θα είναι πραγματικά επαρκή για να συγκρατήσουν τεχνολογίες
που γίνονται ολοένα πιο ισχυρές και πιο δύσκολες στον
έλεγχο.
|