| Ειδήσεις | Ο Κυνηγός | Λεωφόρος Αθηνών | "Κουλου - Βάχατα" | +/- | "Μας ακούνε" | Fundamentalist | Marx - Soros | Start Trading |

 

 

Τετάρτη, 00:01 - 26/11/2025

      

 

 

Παρ’ όλες τις προόδους της τεχνητής νοημοσύνης τα τελευταία χρόνια, ακόμα και τα πιο έξυπνα chatbots εξακολουθούν από καιρό σε καιρό να λένε ανοησίες. Στις περισσότερες περιπτώσεις οι απαντήσεις τους δεν προκαλούν τίποτα περισσότερο από έναν κάποιο εκνευρισμό. Μερικές φορές, όμως, μπορούν να βάλουν τους δημιουργούς τους σε μπελάδες. Όταν πρόσφατα ρωτήθηκε αν η Marsha Blackburn, μια ρεπουμπλικανή γερουσιαστής, είχε κατηγορηθεί για βιασμό, η Gemma, το bot που αναπτύχθηκε από την Google, απάντησε ότι το 1987 ένας πολιτειακός αστυνομικός είχε πει ότι «τον πίεσε να της προμηθευτεί συνταγογραφούμενα φάρμακα και ότι η σχέση περιλάμβανε μη συναινετικές πράξεις». Η κα Blackburn δεν είχε έρθει ποτέ αντιμέτωπη με έναν τέτοιο ισχυρισμό.

Η γερουσιαστής αισθάνθηκε δικαιολογημένα δυσαρεστημένη με την τεχνητή νοημοσύνη και στα τέλη του περασμένου μήνα έστειλε στην Google επιστολή στην οποία υποστήριζε ότι ο τεχνολογικός γίγαντας θα πρέπει να θέσει το bot εκτός λειτουργίας μέχρι να μπορέσει να το ελέγξει. Η Google αφαίρεσε γρήγορα τη Gemma από τη σειρά της και δήλωσε ότι η τεχνητή νοημοσύνη προοριζόταν για χρήση μόνο από προγραμματιστές και ερευνητές.

 

Η κα Blackburn είναι ένα από τα πολλά άτομα υψηλού προφίλ που κατήγγειλαν πρόσφατα ότι διασύρθηκαν από κάποιο chatbot. Τον Αύγουστο η Meta κατέληξε σε συμβιβασμό με τον Robby Starbuck, έναν ακτιβιστή της δεξιάς, μετά την αγωγή που υπέβαλλε, αφού ένα από τα bot της ανέφερε ψευδώς ότι συμμετείχε στην επίθεση στο Καπιτώλιο στις 6 Ιανουαρίου 2021.

Τέτοιου είδους αγωγές θα μπορούσαν να αποτελέσουν μεγάλο πονοκέφαλο για τις εταιρείες τεχνητής νοημοσύνης, οι οποίες ήδη έχουν εμπλακεί σε νομικές διαμάχες για πνευματικά δικαιώματα και άλλες καταγγελίες. Ακόμα και ένας μικρός αριθμός υποθέσεων θα μπορούσε να είναι εξαιρετικά δαπανηρός. Το 2022 ένα αμερικανικό δικαστήριο διέταξε τον Alex Jones, έναν δεξιό θιασώτη των θεωριών συνομωσίας, να καταβάλει αποζημίωση 1,4 δισ. δολαρίων επειδή ισχυρίστηκε ότι ένας πυροβολισμός σε σχολείο το 2012 ήταν φάρσα. Το ερώτημα αν οι εταιρείες τεχνητής νοημοσύνης μπορούν να θεωρηθούν υπεύθυνες για όσα λένε τα bots τους είναι σχεδόν βέβαιο ότι θα καταλήξει στο Ανώτατο Δικαστήριο, υποστηρίζει ο Peter Henderson, καθηγητής στο Πανεπιστήμιο Princeton. Μέχρι να αποσαφηνιστεί ο νόμος, οι εταιρείες θα κρατούν τους δικηγόρους τους που διαχειρίζονται υποθέσεις δυσφήμισης στις γρήγορες κλήσεις.

Οι εταιρείες τεχνητής νοημοσύνης προσπαθούν να τονίσουν τη φροντίδα που καταβάλλουν για να αποτρέψουν τα μοντέλα τους από το να βγάζουν πράγματα από το μυαλό τους. Ωστόσο, ορισμένα λάθη, συμπεριλαμβανομένων εκείνων στα οποία μια τεχνητή νοημοσύνη συγχέει πληροφορίες για ανθρώπους με παρόμοια ονόματα, είναι δύσκολο να αποφευχθούν. Αυτός είναι ο λόγος για τον οποίο οι όροι χρήσης των κατασκευαστών μοντέλων προειδοποιούν ότι τα chatbots τους μπορεί να παρέχουν ανακριβείς πληροφορίες. Μια αγωγή δυσφήμισης στην Αμερική που ασκήθηκε από έναν ραδιοφωνικό παρουσιαστή εναντίον της OpenAI, του κατασκευαστή του ChatGPT, απορρίφθηκε από δικαστήριο της Τζόρτζια, αφού ο δικαστής κατέληξε στο συμπέρασμα ότι οι «εκτεταμένες προειδοποιήσεις» της εταιρείας σχετικά με πιθανά σφάλματα σήμαιναν ότι δεν μπορούσε να θεωρηθεί υπεύθυνη.

Πηγή: The Economist

 

Greek Finance Forum Team

 

 

Σχόλια Αναγνωστών

 

 
 

 

 

 

 

 

 

 

 
   

   

Αποποίηση Ευθύνης.... 

© 2016-2024 Greek Finance Forum