|
Ο εθελοντικός κώδικας
δεοντολογίας θα
αποτελέσει ορόσημο για
τον τρόπο, με τον οποίο
οι μεγάλες χώρες
ρυθμίζουν την τεχνητή
νοημοσύνη, εν
μέσω ανησυχιών για την
προστασία της ιδιωτικής
ζωής και των κινδύνων
για την ασφάλεια, έδειξε
το έγγραφο, σύμφωνα με
το Reuters.
Οι ηγέτες της G7 που
αποτελείται από τον
Καναδά, τη Γαλλία, τη
Γερμανία, την Ιταλία,
την Ιαπωνία, τη Βρετανία
και τις Ηνωμένες
Πολιτείες, καθώς και την
Ευρωπαϊκή Ένωση,
ξεκίνησαν τη διαδικασία
τον Μάιο σε ένα
υπουργικό φόρουμ που
ονομάστηκε «Hiroshima
AI process».
Ο κώδικας 11 σημείων
«αποσκοπεί στην προώθηση
της ασφαλούς,
προστατευμένης και
αξιόπιστης τεχνητής
νοημοσύνης παγκοσμίως
και θα παρέχει εθελοντική
καθοδήγηση για
τις δράσεις των
οργανισμών που
αναπτύσσουν τα πιο
προηγμένα συστήματα
τεχνητής νοημοσύνης,
συμπεριλαμβανομένων των
πιο προηγμένων
συστημάτων γενετικής
τεχνητής νοημοσύνης»,
αναφέρεται στο έγγραφο.
«Σκοπός του είναι να
βοηθήσει στην αξιοποίηση
των πλεονεκτημάτων και
στην αντιμετώπιση των
κινδύνων και των
προκλήσεων που φέρνουν
αυτές οι τεχνολογίες».
Ο κώδικας προτρέπει τις
εταιρείες να λάβουν τα
κατάλληλα μέτρα για τον
εντοπισμό, την
αξιολόγηση και τον μετριασμό
των κινδύνων σε
ολόκληρο τον κύκλο ζωής
της τεχνητής νοημοσύνης,
καθώς και για την
αντιμετώπιση
περιστατικών και
προτύπων κακής χρήσης
μετά τη διάθεση των
προϊόντων στην αγορά.
Οι εταιρείες θα πρέπει να
δημοσιεύουν δημόσιες
εκθέσεις σχετικά
με τις δυνατότητες, τους
περιορισμούς και τη
χρήση και την κατάχρηση
των AI συστημάτων, καθώς
και να επενδύουν σε ισχυρούς
ελέγχους ασφαλείας. |