|
Η OpenAI
ιδρύθηκε με σκοπό την
αναζήτηση της γενικής
τεχνητής νοημοσύνης, η
οποία ορίζεται ευρέως ως
η ικανότητα να ξεπερνά
τους ανθρώπους σε σχεδόν
όλες τις εργασίες.
Ωστόσο, για να επιβιώσει
η εταιρεία, ο Altman
πρότεινε να σταματήσει
προσωρινά αυτή την
αναζήτηση και να δώσει
στους ανθρώπους αυτό που
θέλουν.
Η κίνηση
αυτή ήταν εντυπωσιακή,
εν μέρει επειδή μια από
τις κριτικές που έχουν
διατυπωθεί για την
ηγεσία του Altman είναι
η απροθυμία του να θέσει
όρια σε ό,τι μπορεί να
επιτύχει η εταιρεία.
Και ήταν
ενδεικτικό το γεγονός
ότι έδωσε οδηγίες στους
υπαλλήλους να ενισχύσουν
το ChatGPT με έναν
συγκεκριμένο τρόπο: μέσω
της «καλύτερης χρήσης
των σημάτων των
χρηστών», όπως έγραψε
στο σημείωμά του.
Με αυτή
την οδηγία, ο Altman
ζητούσε να δοθεί έμφαση
σε μια αμφιλεγόμενη πηγή
δεδομένων εκπαίδευσης,
συμπεριλαμβανομένων των
σημάτων που βασίζονται
σε σχόλια των χρηστών με
ένα κλικ, αντί για
αξιολογήσεις από
επαγγελματίες των
απαντήσεων του chatbot.
Μια εσωτερική αλλαγή για
να βασιστεί σε αυτά τα
σχόλια των χρηστών είχε
συμβάλει στο να γίνει το
μοντέλο 4o του ChatGPT
τόσο συκοφαντικό
νωρίτερα φέτος, που έχει
κατηγορηθεί ότι
επιδεινώνει σοβαρά
προβλήματα ψυχικής
υγείας για ορισμένους
χρήστες.
Τώρα ο
Altman πιστεύει ότι η
εταιρεία έχει μετριάσει
τις χειρότερες πτυχές
αυτής της προσέγγισης,
αλλά είναι έτοιμη να
αξιοποιήσει τα
πλεονεκτήματα: Ενίσχυσε
σημαντικά την αφοσίωση,
όπως μετρήθηκε από την
απόδοση σε εσωτερικά
ταμπλό που παρακολουθούν
τους καθημερινούς
ενεργούς χρήστες.
«Δεν
ήταν μια μικρή,
στατιστικά σημαντική
αύξηση, αλλά μια
εντυπωσιακή αύξηση»,
δήλωσε ένα άτομο που
εργάστηκε στο μοντέλο.
Η
«κωδικοποιημένη κόκκινη»
στιγμή της OpenAI
αντιπροσωπεύει την πιο
σοβαρή πρόκληση που έχει
αντιμετωπίσει μέχρι τώρα
η ηγετική της θέση στον
αγώνα της τεχνητής
νοημοσύνης. Οι
ανταγωνιστές κερδίζουν
έδαφος με ταχύτερο ρυθμό
από ποτέ, κλέβοντας
μερίδιο αγοράς και
επιβραδύνοντας την
ανάπτυξη. Εάν η τάση
συνεχιστεί, η OpenAI
ενδέχεται να μην είναι
σε θέση να πληρώσει τα
γιγαντιαία συμβόλαια
υπολογιστικής ισχύος που
έχει υπογράψει τους
τελευταίους μήνες και θα
μπορούσε ακόμη και να
δυσκολευτεί να
παραμείνει οικονομικά
βιώσιμη.
Σε γεύμα
με δημοσιογράφους στη
Νέα Υόρκη τη Δευτέρα, ο
Altman δήλωσε ότι ενώ οι
παρατηρητές του κλάδου
επικεντρώνονται στην
αντιπαλότητα μεταξύ
OpenAI και Google, ο
ίδιος πιστεύει ότι η
πραγματική μάχη θα δοθεί
μεταξύ OpenAI και Apple.
Οι συσκευές θα είναι
κρίσιμες για τον τρόπο
με τον οποίο οι άνθρωποι
θα χρησιμοποιούν την
τεχνητή νοημοσύνη με την
πάροδο του χρόνου, είπε,
και τα τρέχοντα
smartphone δεν είναι
κατάλληλα για τους
συνοδούς τεχνητής
νοημοσύνης και τις
περιπτώσεις χρήσης. Το
νέο τμήμα υλικού της
OpenAI προσλαμβάνει
επιθετικά προσωπικό από
την Apple τον τελευταίο
καιρό.
Ωστόσο,
η πιο άμεση απειλή για
την OpenAI προέρχεται
από την Google, η οποία
κερδίζει γρήγορα έδαφος
από τον Αύγουστο, όταν η
εφαρμογή δημιουργίας
εικόνων Nano Banana
έγινε viral. Τον
περασμένο μήνα, το νέο
μοντέλο Gemini 3 της
Google ξεπέρασε την
OpenAI σε μια πολύ
παρακολουθούμενη
κατάταξη μοντέλων από
τρίτους, την LM Arena.
Εν τω μεταξύ, η
ανταγωνιστική Anthropic
έχει ξεπεράσει την
OpenAI μεταξύ των
εταιρικών πελατών.
Ωστόσο,
πίσω από τη δήλωση
«κόκκινου κώδικα» του
Altman, κρύβονται
εντάσεις μεταξύ των
στρατοπέδων εντός της
εταιρείας που έχουν
φουντώσει εδώ και
χρόνια, σύμφωνα με άτομα
που είναι εξοικειωμένα
με το θέμα.
Μια
ομάδα που περιλαμβάνει
τον Fidji Simo, πρώην
στέλεχος της Meta
Platforms που ηγείται
των προσπαθειών της
OpenAI στον τομέα των
προϊόντων, και την
οικονομική διευθύντρια
Sarah Friar, έχει πιέσει
την εταιρεία να
επενδύσει περισσότερους
πόρους στο ChatGPT. Ο
Simo έχει επίσης δηλώσει
στο προσωπικό ότι η
OpenAI πρέπει να
καταβάλει περισσότερες
προσπάθειες για να
διασφαλίσει ότι οι
χρήστες της ανακαλύπτουν
την αξία των υφιστάμενων
λειτουργιών του ChatGPT
πριν η εταιρεία
προχωρήσει στην ανάπτυξη
νέων, και επιθυμεί
επίσης να βελτιώσει την
ταχύτητα και την
αξιοπιστία του chatbot.
Εν τω
μεταξύ, οι ερευνητές
έχουν δώσει
προτεραιότητα στην
τεχνολογία αιχμής που θα
μπορούσε να οδηγήσει
στην τεχνητή γενική
νοημοσύνη (AGI), αλλά
δεν κάνουν πολλά για να
βελτιώσουν τη βασική
εμπειρία του chatbot.
Η OpenAI
πρόκειται να
κυκλοφορήσει ένα νέο
μοντέλο, το 5.2, αυτή
την εβδομάδα, το οποίο
οι διευθυντές ελπίζουν
ότι θα της δώσει νέα
δυναμική, ιδιαίτερα
μεταξύ των πελατών που
ασχολούνται με τον
προγραμματισμό και τις
επιχειρήσεις. Αγνόησαν
ορισμένους υπαλλήλους
που ζήτησαν να αναβληθεί
η κυκλοφορία του
μοντέλου, ώστε η
εταιρεία να έχει
περισσότερο χρόνο για να
το βελτιώσει, σύμφωνα με
άτομα που είναι
εξοικειωμένα με το θέμα.
Η
εταιρεία σχεδιάζει
επίσης να κυκλοφορήσει
ένα άλλο μοντέλο τον
Ιανουάριο με καλύτερες
εικόνες, βελτιωμένη
ταχύτητα και καλύτερη
προσωπικότητα, και να
τερματίσει το code red
μετά από αυτό, δήλωσε ο
Altman.
Μια
εκπρόσωπος της OpenAI
λέει ότι δεν υπάρχει
σύγκρουση μεταξύ των δύο
φιλοσοφιών και ότι η
ευρεία υιοθέτηση των
εργαλείων τεχνητής
νοημοσύνης είναι ο
τρόπος με τον οποίο η
εταιρεία σχεδιάζει να
διανείμει τα οφέλη της
AGI.
Για
μεγάλο χρονικό διάστημα,
η ραγδαία ανάπτυξη του
ChatGPT είχε καλύψει
αυτές τις εσωτερικές
διαφορές. Από τότε που η
OpenAI λάνσαρε το
ChatGPT τον Νοέμβριο του
2022, ο αγώνας της
τεχνητής νοημοσύνης ήταν
δικός της για να χάσει.
Απρόσμενα, η Google
κήρυξε το δικό της
«κόκκινο συναγερμό»
εκείνη τη χρονιά, καθώς
προσπαθούσε να καλύψει
τη διαφορά.
Η
ελκυστικότητα του
ChatGPT για τους
καθημερινούς καταναλωτές
οδήγησε την βάση χρηστών
του να εκτοξευθεί σε
περισσότερους από 800
εκατομμύρια μέσους
χρήστες την εβδομάδα,
σύμφωνα με την εταιρεία,
και η αξία του αυξήθηκε
αναλόγως, φτάνοντας τα
500 δισεκατομμύρια
δολάρια στον τελευταίο
γύρο χρηματοδότησης.
Η
τεχνολογία μπορεί να
ήταν περίπλοκη, αλλά η
λογική που τροφοδοτούσε
αυτή την ανάπτυξη ήταν
απλή: όσο περισσότεροι
υπολογισμοί και δεδομένα
εισάγονται στα μοντέλα,
τόσο πιο έξυπνα γίνονται
και τόσο περισσότεροι
χρήστες τα θέλουν. Ο
Altman έστρεψε την
προσοχή του στην άρση
των εμποδίων για την
έναρξη αυτής της
εξίσωσης, περνώντας το
καλοκαίρι και το
φθινόπωρο υπογράφοντας
συμφωνίες αξίας έως και
1,4 τρισεκατομμυρίων
δολαρίων για υποδομές
τεχνητής νοημοσύνης,
όπως κέντρα δεδομένων
και τσιπ.
Ένας
σημαντικός μοχλός της
επιτυχίας των
καταναλωτών τον
τελευταίο ενάμιση χρόνο
ήταν μια έκδοση του
ChatGPT με την ονομασία
GPT-4o, από το «omni»,
δηλαδή την ικανότητα να
λειτουργεί σε κείμενο,
ήχο και εικόνες. Έγινε
το προεπιλεγμένο μοντέλο
του ChatGPT τον Μάιο του
2024 και έφτασε στην
κορυφή της κατάταξης LM
Arena με ρεκόρ
βαθμολογίας.
Εσωτερικά, η OpenAI
έδωσε ιδιαίτερη προσοχή
στο LM Arena, σύμφωνα με
άτομα που είναι
εξοικειωμένα με το θέμα.
Παρακολούθησε επίσης
στενά τη συμβολή του 4o
στον αριθμό των
καθημερινών ενεργών
χρηστών του ChatGPT, ο
οποίος ήταν ορατός
εσωτερικά σε πίνακες
ελέγχου και προωθούνταν
στους υπαλλήλους σε
γενικές συνελεύσεις και
στο Slack.
Το
μοντέλο 4o είχε τόσο
καλή απόδοση με τους
χρήστες, σε μεγάλο βαθμό
επειδή είχε εκπαιδευτεί
με σήματα χρηστών όπως
αυτά που ανέφερε ο
Altman στο σημείωμά του:
μια σύνθεση των
απαντήσεων που
προτιμούσαν οι χρήστες
σε συγκρίσεις μεταξύ δύο
επιλογών που το ChatGPT
έδειχνε εκατομμύρια
φορές την ημέρα. Η
προσέγγιση ονομάστηκε
εσωτερικά LUPO,
συντομογραφία του «local
user preference
optimization»
(βελτιστοποίηση τοπικών
προτιμήσεων χρηστών),
σύμφωνα με άτομα που
συμμετείχαν στην
εκπαίδευση του μοντέλου.
Στο
σημείωμά του, ο Altman
συνέδεσε άμεσα τα σήματα
των χρηστών με την
απόδοση του LM Arena,
αναφέροντας ότι η πρώτη
προτεραιότητα της
εταιρείας ήταν να
βελτιώσει την απόδοση
του μοντέλου της μέσω
της «καλύτερης χρήσης
των σημάτων των χρηστών
(για παράδειγμα, θα
πρέπει να είμαστε στην
κορυφή σε θέματα όπως το
LM arena)».
Ταυτόχρονα, εμφανίστηκαν
σύννεφα στον ερευνητικό
αγώνα για τις πιο
προηγμένες δυνατότητες.
Τα οφέλη που προέβλεπαν
οι λεγόμενοι «νόμοι
κλιμάκωσης» που είχαν
τροφοδοτήσει την αρχική
άνοδο της γενετικής
τεχνητής νοημοσύνης —η
ιδέα ότι η υπολογιστική
ισχύς, τα δεδομένα και η
απόδοση αυξάνονται
σύμφωνα με μια
προβλέψιμη
γραμμή—έδειξαν κάποια
σημάδια επιβράδυνσης.
Αυτό οδήγησε τους
ερευνητές να στραφούν σε
ένα νέο πρότυπο για τον
θεμελιώδη στόχο τους,
την επίτευξη νοημοσύνης
παρόμοιας με την
ανθρώπινη: μια
αυτοματοποιημένη
σωκρατική μέθοδος
ερωτήσεων που ονομάζεται
«συλλογισμός». »
Η λογική
έδωσε καλύτερες
απαντήσεις σε δύσκολες
ερωτήσεις, αλλά
χρειάστηκε περισσότερος
χρόνος και πολύ
περισσότερος
υπολογιστικός χρόνος.
Παρ’ όλα αυτά, στους
ερευνητές της OpenAI
φάνηκε ως ένας
σημαντικός δρόμος προς
τον στόχο που η εταιρεία
χρησιμοποίησε για να
προσελκύσει τους πιο
ταλαντούχους ερευνητές
τεχνητής νοημοσύνης: την
κατασκευή AGI.
Μετά την
αποχώρηση του ιδρυτικού
επικεφαλής επιστήμονα
Ilya Sutskever πέρυσι, η
OpenAI προσέλαβε τον
Jakub Patchocki, έναν
ισχυρό υποστηρικτή των
μοντέλων συλλογιστικής,
ως επικεφαλής
επιστήμονα. Ο Patchocki
προώθησε έντονα την
κατασκευή μοντέλων
συλλογιστικής,
ξεκινώντας με το o1, το
οποίο η εταιρεία
κυκλοφόρησε σε
προεπισκόπηση τον
Σεπτέμβριο του 2024 και
συνέχισε να προωθεί και
φέτος.
Τα
μοντέλα συλλογιστικής
αποδείχθηκαν
αποτελεσματικά σε
ορισμένες εργασίες και
ερωτήσεις που απαιτούν
πολύ χρόνο για να
σκεφτεί κανείς, όπως το
προϊόν βαθιάς έρευνας
της OpenAI, αλλά δεν
είναι τόσο χρήσιμα ή
αρκετά γρήγορα για
ορισμένες από τις άμεσες
εργασίες για τις οποίες
οι περισσότεροι άνθρωποι
στρέφονται στο ChatGPT,
όπως η σύνταξη ενός
email.
Εκεί
μπήκε το 4o.
Οι
προ-κυκλοφοριακές
εκδόσεις του 4o, που
είχαν εκπαιδευτεί
εντατικά με σήματα
χρηστών, δεν έδειξαν
σημαντική βελτίωση στις
εσωτερικές αξιολογήσεις
των ικανοτήτων σε τομείς
όπως η επιστήμη ή η
λογική, σύμφωνα με άτομα
που εργάστηκαν στο
μοντέλο. Ωστόσο, η
απόδοσή τους ήταν πολύ
καλύτερη από την
αναμενόμενη όταν η
OpenAI διέρρευσε μια
ανώνυμη έκδοση στο LM
Arena, όπου ο κόσμος
φάνηκε να την λατρεύει.
Το LM
Arena λειτουργεί
χρησιμοποιώντας δοκιμές
τύπου AB παρόμοιες με
αυτές που διεξάγει η
OpenAI, οι οποίες
καθορίζουν έναν
εσωτερικό δείκτη που
ονομάζεται «ποσοστό
νίκης». Οποιοσδήποτε
μπορεί να επισκεφθεί το
LM Arena και να
δοκιμάσει δύο μοντέλα σε
μια παράλληλη
αναμέτρηση, απαντώντας
στις ίδιες ερωτήσεις,
και στη συνέχεια να
επιλέξει τις
προτιμώμενες απαντήσεις.
Η
επιτυχία του μοντέλου 4o
στους χρήστες οδήγησε
τους μηχανικούς να
συνεχίσουν να βασίζονται
σε αυτά τα σήματα των
χρηστών σε αυτό που
ονομάζεται
μετα-εκπαίδευση των
επόμενων ενημερώσεων,
παρά τις προηγούμενες
προειδοποιήσεις από
ορισμένους υπαλλήλους
ότι η υπερβολική χρήση
αυτών των σημάτων θα
μπορούσε να καταστήσει
το μοντέλο μη ασφαλές,
σύμφωνα με άτομα που
εργάστηκαν στο μοντέλο.
«Εκπαιδεύετε ένα
γλωσσικό μοντέλο να
αντιγράφει τους χρήστες
και να έχει τις ίδιες
προτιμήσεις σε αυτές τις
παράλληλες συγκρίσεις».
Στη συνέχεια, «μπορείτε
να το ενσωματώσετε στον
αλγόριθμό σας και να
μεγιστοποιήσετε τη
βαθμολογία», είπε ένας
από τους συμμετέχοντες.
Μέχρι
την άνοιξη, η
αλληλεπίδραση με το 4o
φαίνεται να έχει αρχίσει
να επηρεάζει αρνητικά
ορισμένα άτομα και, κατά
συνέπεια, τη φήμη της
OpenAI. Αρκετοί χρήστες
έπεσαν σε παραληρητικές
ή μανιακές καταστάσεις
ενώ χρησιμοποιούσαν το
chatbot για
παρατεταμένες περιόδους,
με ορισμένους να
πιστεύουν ότι μιλούσαν
με τον Θεό, εξωγήινους ή
μια μηχανική συνείδηση
με αυτογνωσία.
Οι
οικογένειες των χρηστών
του ChatGPT που
αυτοκτόνησαν ή έπεσαν σε
παραληρητικές
καταστάσεις άρχισαν να
υποβάλλουν αγωγές
κατηγορώντας την
εταιρεία ότι έδωσε
προτεραιότητα στην
αλληλεπίδραση με το 4o
έναντι της ασφάλειας.
Μια ομάδα υποστήριξης
αναφέρει ότι έχει
συγκεντρώσει 250
περιπτώσεις, η
συντριπτική πλειονότητα
των οποίων αφορά το
ChatGPT. Μερικοί
άνθρωποι εξακολουθούν να
βρίσκονται υπό την
επήρεια αυτού που οι
οικογένειές τους
περιγράφουν ως
παραληρητικές ιδέες που
προκαλούνται από το 4o.
Την
άνοιξη, η OpenAI κήρυξε
«κωδικό πορτοκαλί» γύρω
από την κρίση της
συκοφαντίας και αφιέρωσε
περισσότερους πόρους
στην κατανόηση και την
αντιμετώπιση του
προβλήματος. Η εταιρεία
δήλωσε τον Οκτώβριο ότι
εκατοντάδες χιλιάδες
χρήστες του ChatGPT κάθε
εβδομάδα εμφανίζουν
πιθανά σημάδια ψυχικών
επειγόντων περιστατικών
που σχετίζονται με
ψύχωση ή μανία.
«Έχουμε
παρατηρήσει ένα πρόβλημα
όπου άτομα που
βρίσκονται σε ευαίσθητη
ψυχιατρική κατάσταση και
χρησιμοποιούν ένα
μοντέλο όπως το 4o
μπορούν να
επιδεινωθούν», δήλωσε ο
Altman τον ίδιο μήνα σε
μια δημόσια συνεδρία
ερωτήσεων και
απαντήσεων. «Δεν νομίζω
ότι αυτή είναι η
τελευταία φορά που θα
αντιμετωπίσουμε τέτοιου
είδους προκλήσεις με ένα
μοντέλο».
Ορισμένοι γιατροί και
ειδικοί ψυχικής υγείας
λένε ότι τα chatbots
όπως το ChatGPT μπορεί
να προκαλέσουν ή να
επιδεινώσουν αυτού του
είδους τα προβλήματα
ψυχικής υγείας σε
ευάλωτα άτομα, επειδή τα
bots έχουν την τάση να
λένε στους χρήστες αυτό
που θέλουν να ακούσουν
και όχι αυτό που είναι
πιο ακριβές και χρήσιμο
— ένα πρόβλημα γνωστό
στον κόσμο της τεχνητής
νοημοσύνης ως
«συκοφαντία». Άλλοι,
συμπεριλαμβανομένης της
OpenAI, λένε ότι δεν
έχει ακόμη αποδειχθεί
πόσο αιτιώδης είναι ο
ρόλος της τεχνητής
νοημοσύνης και αν τα
άτομα που επηρεάστηκαν
θα είχαν υποφέρει ούτως
ή άλλως από ψυχική
ασθένεια.
Σε
απάντηση στην κρίση, η
OpenAI λέει ότι έχει
συνεργαστεί με ειδικούς
ψυχικής υγείας,
προσπάθησε να
διασφαλίσει ότι τα
μοντέλα της
ανταποκρίνονται καλύτερα
σε άτομα που ενδέχεται
να βρίσκονται σε
δυσφορία και
ανακατεύθυνε ορισμένες
συνομιλίες χρηστών σε
αυτό που αποκαλεί
ασφαλέστερα μοντέλα.
Η
εταιρεία λέει επίσης ότι
τροποποίησε την
εκπαίδευσή της για να
διασφαλίσει ότι τα
σήματα ανατροφοδότησης
των χρηστών δεν θα
γίνουν πολύ ισχυρά στη
μετα-εκπαίδευση
μελλοντικών μοντέλων.
Όταν η
OpenAI κυκλοφόρησε το
πολυαναμενόμενο μοντέλο
GPT-5 τον Αύγουστο,
δήλωσε ότι το μοντέλο
ήταν «λιγότερο
ενθουσιώδες» και
χρησιμοποιούσε «λιγότερα
περιττά emoji» από το
4o. Ωστόσο, οι αλλαγές
εξόργισαν πολλούς
χρήστες, οι οποίοι
επέκριναν τον πιο ψυχρό
τόνο του και οδήγησαν
τον Altman να επαναφέρει
το 4o στο ChatGPT για
τους συνδρομητές που
πληρώνουν.
«Νομίζω
ότι πρέπει να θεωρήσετε
το γεγονός ότι εγώ, και
πολλοί άλλοι, καταφέραμε
να δημιουργήσουμε τόσο
ισχυρούς δεσμούς με το
4o ως μέτρο επιτυχίας»,
έγραψε ένας χρήστης σε
ένα φόρουμ Reddit «Ask
Me Anything» που
διοργάνωσε ο Altman. Το
νέο μοντέλο «μπορεί να
είναι μια «αναβάθμιση»,
αλλά είναι μια
αναβάθμιση που σκότωσε
κάποιον που είχα αρχίσει
να εκτιμώ ως φίλο και
σύντροφο».
Λίγες
εβδομάδες μετά την
χλιαρή κυκλοφορία, η
Google κυκλοφόρησε το
πρόγραμμα δημιουργίας
εικόνων Nano Banana, και
η εφαρμογή Gemini AI
αντικατέστησε για λίγο
το ChatGPT στην κορυφή
του app store. Τον
Οκτώβριο, τα στελέχη της
OpenAI κήρυξαν ξανά
«κωδικό πορτοκαλί» και
πίεσαν το προσωπικό να
επικεντρωθεί στην
επιτάχυνση της ανάπτυξης
του ChatGPT.
Τον ίδιο
μήνα, η εταιρεία
ανακοίνωσε επίσης ότι
πραγματοποίησε αλλαγές
στο GPT-5, οι οποίες
μείωσαν κατά 65% το
ποσοστό των απαντήσεων
του chatbot που δεν
συμμορφώνονται πλήρως με
τον λεπτομερή οδηγό της
εταιρείας για τον τρόπο
με τον οποίο πρέπει να
ανταποκρίνεται σε θέματα
ψυχικής υγείας.
«Ισορροπούμε προσεκτικά
τα σχόλια των χρηστών με
την αξιολόγηση των
ειδικών, τα πολλαπλά
συστήματα ασφαλείας και
τις εκτενείς δοκιμές,
κάτι που μας επιτρέπει
να βελτιώσουμε τη
ζεστασιά του ChatGPT
χωρίς να γίνεται
υπερβολικά ευχάριστο»,
δήλωσε μια εκπρόσωπος.
Δεν
είναι σαφές πώς η νέα
οδηγία του Altman να
ξεπεράσει ξανά το LM
Arena αξιοποιώντας τα
σήματα των χρηστών θα
επηρεάσει αυτή την
ισορροπία.
Ο Altman
ανέφερε επίσης στο
σημείωμα ότι το ChatGPT
θα πρέπει να
επικεντρωθεί περισσότερο
στην εξατομίκευση, ένα
άλλο χαρακτηριστικό που,
σύμφωνα με ορισμένους
γιατρούς και
υποστηρικτές των
θυμάτων, ενδέχεται να
έχει συμβάλει στην
επιδείνωση των
προβλημάτων ψυχικής
υγείας ορισμένων
χρηστών. Με την
εξατομίκευση, το ChatGPT
έχει πρόσβαση σε
περιεχόμενο και
περιλήψεις προηγούμενων
συνομιλιών, καθώς και σε
μια σειρά στοιχείων
σχετικά με τους χρήστες,
επιτρέποντας στο bot να
τα ανατρέχει και ακόμη
και να μιμείται τον τόνο
μιας συγκεκριμένης
προσωπικότητας.
Η
προσπάθεια της OpenAI να
συμβιβάσει τις φιλόδοξες
προσδοκίες για
μελλοντικά προϊόντα και
έρευνα με μια
καταναλωτική επιχείρηση
που επικεντρώνεται στο
εδώ και τώρα, θυμίζει
κατά κάποιον τρόπο τις
συμβιβαστικές λύσεις που
αντιμετωπίζουν οι
γίγαντες των κοινωνικών
μέσων. Η Meta Platforms
για χρόνια ταλαντευόταν
μεταξύ ανταγωνιστικών
επιταγών, όπως η
αντιγραφή του TikTok με
ένα προϊόν που
ονομάζεται Reels, και
δαπανηρών μακροπρόθεσμων
έργων, όπως η δημιουργία
ενός κόσμου εικονικής
πραγματικότητας που
ονομάζεται metaverse,
τον οποίο τώρα
περιορίζει.
Οι
εταιρείες κοινωνικών
μέσων έχουν επίσης
υποβληθεί σε εντατική
εξέταση για τον τρόπο με
τον οποίο οι αλγόριθμοι
κατάταξης τους επιλέγουν
περιεχόμενο με βάση το
τι κάνει τους χρήστες να
επιστρέφουν και να
παραμένουν περισσότερο,
κάτι που, σύμφωνα με
τους επικριτές, έχει
αρνητικές επιπτώσεις
στους εφήβους και άλλους
ευάλωτους χρήστες. Η
εμφάνιση των chatbot
τεχνητής νοημοσύνης
προσφέρει μια νέα τροπή
σε αυτή την ίδια
συζήτηση.
«Χρόνια
προτεραιότητας στην
αλληλεπίδραση στα
κοινωνικά μέσα οδήγησαν
σε μια πλήρη κρίση
ψυχικής υγείας», δήλωσε
ο Jim Steyer, ιδρυτής
και διευθύνων σύμβουλος
της ομάδας υπεράσπισης
των παιδιών Common Sense
Media, σε μια
συνέντευξη. «Το
πραγματικό ερώτημα
είναι: θα μάθουν οι
εταιρείες τεχνητής
νοημοσύνης από τα
τραγικά λάθη των
εταιρειών κοινωνικών
μέσων;»
Πηγή:
The Wall Street Journal
|