| Ειδήσεις | Ο Κυνηγός | Λεωφόρος Αθηνών | "Κουλου - Βάχατα" | +/- | "Μας ακούνε" | Fundamentalist | Marx - Soros | Start Trading |

 
 

Από το Marx ως το Soros

Καθημερινή Στήλη με άρθρα για την παγκόσμια οικονομία

Επικοινωνήστε μαζί μας

 

 
 

 

Οι εταιρείες AI επιταχύνουν την ανάπτυξη, αλλά προσπαθούν ταυτόχρονα να περιορίσουν τους ίδιους τους κινδύνους της

00:01 - 26/03/26
 
                                       

Η ραγδαία πρόοδος της τεχνητής νοημοσύνης φέρνει τις μεγάλες τεχνολογικές εταιρείες μπροστά σε όλο και πιο σύνθετα ηθικά και πρακτικά διλήμματα. Χαρακτηριστικό παράδειγμα αποτελεί η Anthropic, η οποία, μετά τη δημόσια αντιπαράθεση γύρω από τη χρήση των μοντέλων της σε στρατιωτικές εφαρμογές, αναζητά πλέον στελέχη με εξειδίκευση στα χημικά όπλα και στα ισχυρά εκρηκτικά.

 

Η κίνηση αυτή δεν συνδέεται με κάποιο αμυντικό πρόγραμμα, αλλά με την προσπάθεια της εταιρείας να δημιουργήσει ισχυρότερα προστατευτικά φίλτρα γύρω από την τεχνολογία της. Στόχος είναι να αποτραπεί το ενδεχόμενο ο ψηφιακός βοηθός Claude να παρέχει πληροφορίες που θα μπορούσαν να χρησιμοποιηθούν για την ανάπτυξη όπλων μαζικής καταστροφής ή άλλων εξαιρετικά επικίνδυνων μέσων.

 

Σύμφωνα με σχετική αγγελία στο LinkedIn, η εταιρεία αναζητεί διευθυντή πολιτικής για χημικά όπλα και εκρηκτικά με έδρα τη Νέα Υόρκη. Ο υποψήφιος καλείται να διαθέτει πολυετή εμπειρία στην αντιμετώπιση χημικών απειλών, καθώς και βαθιά γνώση ζητημάτων που σχετίζονται με μηχανισμούς διασποράς ραδιενεργών υλικών, όπως οι λεγόμενες «βρώμικες βόμβες».

 

Η επιλογή αυτή αναδεικνύει μια βασική αντίφαση της σημερινής βιομηχανίας τεχνητής νοημοσύνης. Από τη μία πλευρά, οι ίδιες οι εταιρείες προειδοποιούν για υπαρκτούς και σοβαρούς κινδύνους από την κακή χρήση των μοντέλων τους. Από την άλλη, συνεχίζουν να αναπτύσσουν ολοένα ισχυρότερα συστήματα, προσπαθώντας εκ των υστέρων να τοποθετήσουν «ψηφιακά κιγκλιδώματα» για να ελέγξουν τις συνέπειες.

 

Ανάλογη στάση έχει υιοθετήσει και η OpenAI, η οποία επίσης έχει αναζητήσει ειδικούς σε βιολογικούς και χημικούς κινδύνους, προσφέροντας ιδιαίτερα υψηλές αμοιβές. Ωστόσο, αυτή η στρατηγική προκαλεί ανησυχία σε αρκετούς ειδικούς, καθώς η εκπαίδευση ή η αξιολόγηση συστημάτων AI πάνω σε τόσο ευαίσθητη γνώση, ακόμη και για λόγους προστασίας, μπορεί να δημιουργήσει νέους κινδύνους αντί να τους μειώσει.

 

Το πρόβλημα γίνεται ακόμη πιο σοβαρό επειδή δεν υπάρχει ακόμη ένα σαφές διεθνές ρυθμιστικό πλαίσιο για τον τρόπο με τον οποίο η τεχνητή νοημοσύνη πρέπει να διαχειρίζεται πληροφορίες σχετικές με χημικά, βιολογικά ή ραδιολογικά όπλα. Έτσι, ένα κρίσιμο πεδίο ασφάλειας φαίνεται να ρυθμίζεται στην πράξη κυρίως από ιδιωτικές εταιρείες, χωρίς ενιαίο θεσμικό έλεγχο.

 

Μέσα σε αυτό το πλαίσιο, οι γεωπολιτικές εντάσεις κάνουν την κατάσταση ακόμη πιο περίπλοκη. Παρά την προσπάθεια της Anthropic να κρατήσει αποστάσεις από πλήρως αυτόνομα όπλα και από εφαρμογές μαζικής παρακολούθησης, η εταιρεία βρέθηκε αντιμέτωπη με αντιδράσεις από το αμερικανικό υπουργείο Άμυνας. Την ίδια στιγμή, το Claude εξακολουθεί να συνδέεται έμμεσα με αμυντικά οικοσυστήματα μέσω συνεργασιών και πλατφορμών που αξιοποιούνται από κρατικούς φορείς.

 

Έτσι, η σύγκρουση ανάμεσα στην εθνική ασφάλεια, τα εμπορικά συμφέροντα και την ηθική αυτονομία των εταιρειών AI γίνεται όλο και πιο έντονη. Το βασικό ερώτημα πλέον δεν είναι μόνο πόσο γρήγορα θα εξελιχθεί η τεχνητή νοημοσύνη, αλλά και αν τα μέτρα προστασίας που αναπτύσσονται παράλληλα θα είναι πραγματικά επαρκή για να συγκρατήσουν τεχνολογίες που γίνονται ολοένα πιο ισχυρές και πιο δύσκολες στον έλεγχο.

 

 

 

 

Παλαιότερα Σχόλια

   

 

Αποποίηση Ευθύνης.... 

© 2016-2026 Greek Finance Forum