Μέσω έκθεσης για την
αξιολόγηση ασφαλείας του
chatbot, η εταιρεία
πληροφορικής πίσω από το
ChatGPT δήλωσε ότι
παρατήρησε πως οι
χρήστες εκφράζουν
αμοιβαίους δεσμούς με το
εργαλείο τεχνητής
νοημοσύνης. «Οι χρήστες
θα μπορούσαν να
δημιουργήσουν κοινωνικές
σχέσεις με την τεχνητή
νοημοσύνη, μειώνοντας
την ανάγκη τους για
ανθρώπινη αλληλεπίδραση
– κάτι που ενδεχομένως
θα ωφελούσε όσους είναι
μοναχικοί, αλλά
ενδέχεται να επηρεάσει
τις υγιείς σχέσεις»,
αναφέρεται στην έκθεση.
Επίσης αναφέρεται πως το
άκουσμα πληροφοριών από
ένα ρομπότ που μιμείται
άριστα την ανθρώπινη
φωνή θα μπορούσε να
οδηγήσει τους χρήστες να
εμπιστευτούν το εργαλείο
περισσότερο από όσο θα
έπρεπε, δεδομένου ότι η
τεχνητή νοημοσύνη έχει
αποδείξει στο παρελθόν
ότι κάνει λάθη.
Πράγματι, η προηγμένη
φωνητική λειτουργία του
ChatGPT, που κυκλοφόρησε
επί πληρωμή πριν λίγες
ημέρες, ακούγεται
εντυπωσιακά αληθοφανής.
Ανταποκρίνεται στον
χρήστη σε πραγματικό
χρόνο, αν υπάρξει
διακοπή προσαρμόζεται
ανάλογα και μάλιστα
αντιδρά όπως και οι
άνθρωποι, παράγοντας
ήχους γέλιου ή λέγοντας
«χμμ». Το εργαλείο
μπορεί επίσης να
αξιολογήσει τη
συναισθηματική κατάσταση
του χρήστη με βάση τον
τόνο της φωνής του.
Βιάζονται οι
τεχνολογικές εταιρείες
Η έκθεση της OpenAI
ουσιαστικά φέρνει στο
προσκήνιο έναν πολύ
μεγαλύτερο κίνδυνο γύρω
από την τεχνητή
νοημοσύνη: οι εταιρείες
τεχνολογίας σπεύδουν να
διοχετεύσουν στο κοινό
τα νέα εργαλεία, τα
οποία όπως λένε θα
μπορούσαν να αλλάξουν
άρδην τον τρόπο με τον
οποίο ζούμε,
εργαζόμαστε,
κοινωνικοποιούμαστε και
βρίσκουμε πληροφορίες.
Τα νέα εργαλεία όμως
φτάνουν στην αγορά με
τόσο μεγάλη ταχύτητα,
ώστε δεν μπορεί να
αξιολογήσει κανείς το
μέγεθος των επιπτώσεών
τους εκ των προτέρων.
Όπως συμβαίνει με πολλές
τεχνολογικές εξελίξεις,
οι εταιρείες έχουν συχνά
μια ιδέα για το πώς
μπορούν και πρέπει να
χρησιμοποιηθούν τα
εργαλεία τους, όμως οι
χρήστες βρίσκουν νέες,
διαφορετικές χρήσεις και
εφαρμογές, συχνά με
απρόβλεπτες συνέπειες.
«Είναι μεγάλη η ευθύνη
των εταιρειών να το
διαχειριστούν πραγματικά
με ηθικό και υπεύθυνο
τρόπο και όλα αυτά
βρίσκονται σε φάση
πειραματισμού αυτή τη
στιγμή», είχε δηλώσει
τον Ιούνιο στο CNN η
Liesel Sharabi,
καθηγήτρια του Κρατικού
Πανεπιστημίου της
Αριζόνα που μελετά την
τεχνολογία και την
ανθρώπινη επικοινωνία.
«Ανησυχώ για τους
ανθρώπους που
δημιουργούν πραγματικά
βαθιές σχέσεις με μια
τεχνολογία που μπορεί να
μην υπάρχει
μακροπρόθεσμα και η
οποία εξελίσσεται
συνεχώς», είχε δηλώσει
επίσης, αναφερόμενη και
σε όσους αναπτύσσουν
ερωτικές σχέσεις με το
εργαλείο.
Η OpenAI επεσήμανε ότι
οι σχέσεις των χρηστών
με τη φωνητική
λειτουργία του ChatGPT
θα μπορούσαν επίσης με
την πάροδο του χρόνου να
επηρεάσουν το τι
θεωρείται φυσιολογικό
στις κοινωνικές
αλληλεπιδράσεις. «Τα
γλωσσικά μας μοντέλα…
επιτρέπουν στους χρήστες
να διακόπτουν (τη ροή
της συζήτησης)…ανά πάσα
στιγμή, κάτι που αν και
είναι αναμενόμενο για
ένα εργαλείο τεχνητής
νοημοσύνης, θα ήταν
αφύσικο στις ανθρώπινες
αλληλεπιδράσεις»,
ανέφερε η εταιρεία στην
έκθεση.
Προς το παρόν, η OpenAI
δηλώνει ότι έχει
δεσμευτεί να δημιουργεί
εργαλεία AI με πυξίδα
την ασφάλεια και
σχεδιάζει να συνεχίσει
να παρακολουθεί το
ενδεχόμενο
«συναισθηματικής
εξάρτησης» των χρηστών
από τα εργαλεία της.
moneyreview.gr με
πληροφορίες από CNN |