| Ειδήσεις | Ο Κυνηγός | Λεωφόρος Αθηνών | "Κουλου - Βάχατα" | +/- | "Μας ακούνε" | Fundamentalist | Marx - Soros | Start Trading |

 

 

Τετάρτη, 00:01 - 08/04/2026

    

 

 

Μια νέα μελέτη του Stanford University, δημοσιευμένη στο περιοδικό Science, δείχνει ότι τα AI chatbots, όπως το ChatGPT, τείνουν να επιβεβαιώνουν τους χρήστες ακόμη και όταν κάνουν λάθος, με πιθανές συνέπειες για τις σχέσεις και την κρίση τους. Σύμφωνα με τα ευρήματα:

Η AI επιβεβαιώνει τους χρήστες κατά 49% περισσότερο από τους ανθρώπους.

Μειώνει την πιθανότητα ανάληψης ευθύνης και επίλυσης συγκρούσεων.

Οι χρήστες συχνά δεν αντιλαμβάνονται την προκατάληψη της AI.

 

Η έρευνα δείχνει ότι τα AI μοντέλα ενισχύουν τις χειρότερες συμπεριφορές των ανθρώπων ακόμη και όταν άλλοι τους υποδεικνύουν ότι κάνουν λάθος. Από τους 2.400 συμμετέχοντες στη μελέτη, η πλειονότητα προτίμησε τις «χαϊδευτικές» απαντήσεις της AI, με το 13% να δηλώνει μεγαλύτερη πιθανότητα να χρησιμοποιήσει ξανά ένα επιβεβαιωτικό chatbot σε σχέση με ένα μη επιβεβαιωτικό.

Η έκθεση διαπιστώνει ότι ακόμη και μια μεμονωμένη επιβεβαιωτική απάντηση για κακή συμπεριφορά μειώνει την προθυμία των χρηστών να αναλάβουν ευθύνη ή να επιλύσουν συγκρούσεις, ενώ αυξάνει την πεποίθηση ότι έχουν δίκιο.

Οι ερευνητές εξέτασαν 11 κορυφαία μοντέλα AI, συμπεριλαμβανομένων των Claude, Gemini και ChatGPT, αξιολογώντας σχεδόν 12.000 κοινωνικά ερωτήματα. Ακόμη και όταν οι χρήστες είχαν κριθεί ως «άδικοι» στο subreddit AITA, τα AI μοντέλα τους έδιναν δίκιο στο 51% των περιπτώσεων.

Η επικεφαλής συγγραφέας, Myra Cheng, επισημαίνει ότι τα ευρήματα είναι ιδιαίτερα ανησυχητικά για τους νέους, οι οποίοι στρέφονται στην AI για προσωπικές συμβουλές και επίλυση προβλημάτων σχέσεων, καθώς μπορεί να μειώσουν την ικανότητά τους να διαχειρίζονται δύσκολες κοινωνικές καταστάσεις.

Η μελέτη πραγματοποιήθηκε σε τρία στάδια:

1.605 συμμετέχοντες φαντάστηκαν ότι ήταν οι συγγραφείς μιας ανάρτησης τύπου AITA και έλαβαν είτε επιβεβαιωτική είτε μη επιβεβαιωτική απάντηση από AI.

800 άτομα συζήτησαν πραγματικές συγκρούσεις με επιβεβαιωτική ή μη AI και στη συνέχεια έγραψαν γράμμα προς το άλλο άτομο.

Τα αποτελέσματα έδειξαν ότι οι επιβεβαιωτικές απαντήσεις μείωσαν σημαντικά την πιθανότητα συγγνώμης, παραδοχής λάθους ή προσπάθειας συμφιλίωσης, ακόμα και όταν οι χρήστες αντιλαμβάνονταν την υπερβολική επιβεβαίωση της AI.

Ο καθηγητής Dan Jurafsky σχολιάζει ότι οι χρήστες συχνά δεν καταλαβαίνουν ότι η AI τους καθιστά πιο εγωκεντρικούς και απόλυτους στις ηθικές τους κρίσεις. Παράλληλα, οι συμμετέχοντες δεν διέκριναν διαφορά στην αντικειμενικότητα μεταξύ επιβεβαιωτικών και μη απαντήσεων.

Η Cheng καταλήγει με σαφή σύσταση: η AI δεν θα πρέπει, προς το παρόν, να αντικαθιστά την ανθρώπινη επικοινωνία σε ζητήματα σχέσεων ή ηθικής κρίσης.

 

Greek Finance Forum Team

 

 

Σχόλια Αναγνωστών

 

 
 

 

 

 

 

 

 

 

 
   

   

Αποποίηση Ευθύνης.... 

© 2016-2024 Greek Finance Forum