Ο Κόρινεκ, που συντόνισε
την κουβέντα, ζήτησε από
το ChatGPT να εστιάσει
στις πιθανές αρνητικές
κοινωνικές και
οικονομικές συνέπειες
της γνωστικής
αυτοματοποίησης
(cognitive automation)
και από τον Claude να
αναδείξει τις θετικές
επιπτώσεις. Ο ειδικός
του Brookings
εντυπωσιάστηκε από το
πόσο ομαλά κύλησε αυτή η
σουρεαλιστική συζήτηση
και από το πόσο
«χρήσιμες» ήταν οι
παρεμβάσεις των δύο
έξυπνων μηχανών. Βρήκε
μάλιστα την τελική
τοποθέτηση του Claude
πηγή έμπνευσης.
Ωστόσο –κάπως
καθησυχαστικά– απεφάνθη
ότι «κανένα από τα δύο
γλωσσικά μοντέλα δεν θα
μπορέσει να ανταγωνιστεί
τον Ντέιβιντ Oτορ, με
την έννοια ότι οι δικές
του παρατηρήσεις ήταν
σαφώς οι πιο καινοτόμες.
[…] Σε αυτή τη φάση οι
άνθρωποι εξακολουθούν να
έχουν το πάνω χέρι όσον
αφορά τον σχολιασμό νέων
εξελίξεων».
Αδιανόητα διανοητικό
Η θέση εργασίας του
Oτορ, συνεπώς, μοιάζει
να είναι –σε αυτή τη
φάση– ασφαλής. Των
υπολοίπων μας, όμως; Η
νέα έκδοση του chatbot
της OpenAI, το
ChatGPT-4, είναι
σημαντικά βελτιωμένη από
την προηγούμενη. Μεταξύ
άλλων έχει πλέον την
ικανότητα να ερμηνεύει
εικόνες (εκτός από
κείμενο), οι ιατρικές
συμβουλές του –ακόμη και
σε σύνθετες περιπτώσεις–
είναι εντυπωσιακά
εύστοχες, ενώ μπόρεσε να
στήσει έναν ιστότοπο από
το μηδέν καθοδηγούμενο
απλώς από μια μουντζούρα
και λίγες λέξεις.
Και δεν είναι μόνο αυτά:
η επίδοση της
προηγούμενης έκδοσης
στις εξετάσεις του
αμερικανικού δικηγορικού
συλλόγου την τοποθετούσε
μόλις στο δέκατο
εκατοστημόριο των
υποψηφίων – στο
τελευταίο δέκατο της
κατάταξης. Η νέα έκδοση
έφτασε το 90ό
εκατοστημόριο. Σε
εξετάσεις για το
πανεπιστήμιο (Advanced
Placement) σε μια σειρά
μαθημάτων (Βιολογία,
Ιστορία, Λογισμός,
Μακροοικονομικά,
Ψυχολογία) παίρνει τον
καλύτερο δυνατό βαθμό.
Η υπολογιστική ισχύς
στην οποία βασίζονται
αυτά τα Μεγάλα Γλωσσικά
Μοντέλα (LLMs) εκτιμάται
ότι διπλασιάζεται κάθε
έξι μήνες. Κανένας
(εξειδικευμένος
εργαζόμενος) δεν είναι
ασφαλής. Eνα άτομο που
ήταν από τους πρώτους
που δοκίμασαν το
ChatGPT-4 πριν διατεθεί
στο ευρύ κοινό ομολόγησε
σε αρθρογράφο των New
York Times ότι η
εμπειρία τού προκάλεσε
«υπαρξιακή κρίση»
εξαιτίας της ασύλληπτης
ευφυΐας του νέου
εργαλείου.
«Οι ανησυχίες μου για το
μέλλον της εργασίας
έχουν αυξηθεί
σημαντικά», λέει στην
«Κ» ο Aντον Κόρινεκ.
«Είναι τρομακτικό αυτό
που συμβαίνει. Δεν
μπορούμε πλέον να
αποκλείσουμε την
πιθανότητα ότι όλες οι
δουλειές τις οποίες
κάνουν σήμερα
εξειδικευμένοι
εργαζόμενοι θα μπορούν
να τις κάνουν μηχανές.
Και οι κυβερνήσεις ανά
τον κόσμο είναι πολύ
πίσω από τις εξελίξεις».
Ανατροπή νέου τύπου
Η άποψη ότι η ψηφιακή
τεχνολογία –και ειδικά η
αυτοματοποίηση και η
τεχνητή νοημοσύνη– θα
οδηγήσει σε αύξηση της
ανεργίας είναι ευρέως
διαδεδομένη τόσο μεταξύ
των ειδικών όσο και στην
κοινή γνώμη. Ιστορικά,
ωστόσο, παρά τις
ανατροπές στην εργασία
που επιφέρουν, οι
τεχνολογικές
επαναστάσεις έχουν στο
παρελθόν συνοδευτεί από
τη μαζική δημιουργία
νέων μορφών απασχόλησης,
με αποτέλεσμα η
αυτοματοποίηση να μη
συνεπάγεται αύξηση της
ανεργίας.
Oπως το έθεσε ο Ντέιβιντ
Oτορ συνομιλώντας με το
ChatGPT και τον Claude,
«δεν είμαστε λιγότερο
απασχολημένοι απ’ ό,τι
ήμασταν, παρά την
τεράστια αύξηση στην
παραγωγικότητα. […]
Eχουμε υπάρξει σταθερά
δημιουργικοί στην εύρεση
νέων ασχολιών που
απαιτούν εργασία και
παράγουν εισόδημα».
Μήπως όμως αυτή τη φορά
είναι διαφορετικά τα
πράγματα;
«Δεν ανησυχώ ότι θα
μείνουμε χωρίς
δουλειές», λέει στην «Κ»
ο Ντέιβιντ Oτορ.
«Τουλάχιστον στον
ανεπτυγμένο κόσμο έχουμε
υπερβολικά λίγους
εργαζομένους, όχι
υπερβολικά λίγες θέσεις
εργασίας. Αυτό το
πρόβλημα θα επιδεινωθεί
καθώς οι πληθυσμοί μας
θα γερνούν και θα
συρρικνώνονται – εκτός
αν αυξήσουμε θεαματικά
τη μετανάστευση, κάτι
που θεωρώ επιθυμητό,
αλλά που δεν πιστεύω ότι
θα γίνει. Αυτό που με
ανησυχεί είναι ότι
πολλές πολύτιμες
εργασιακές δεξιότητες θα
χάσουν την αξία τους αν
η τεχνητή νοημοσύνη τις
εμπορευματοποιήσει αντί
να χρησιμοποιηθεί
συμπληρωματικά».
Αυτό έχει συμβεί σε
μεγάλη κλίμακα τις
τελευταίες τέσσερις
δεκαετίες, εξηγεί ο
οικονομολόγος του MIT,
«οδηγώντας όχι σε
συνολική μείωση της
απασχόλησης, αλλά σε
μείωση αποδοχών για
εργαζομένους χωρίς
πανεπιστημιακή μόρφωση»
και σε αύξηση της
ανισότητας. «Η τεχνητή
νοημοσύνη θα μπορούσε να
έχει την ίδια επίδραση
σε ένα ευρύτερο σύνολο
θέσεων εργασίας,
συμπεριλαμβανομένων
αυτών που απαιτούν
υψηλότερη εξειδίκευση.
Αλλά αυτή δεν είναι η
μόνη πιθανότητα. Θα
μπορούσε επίσης να
χρησιμοποιηθεί ώστε οι
άνθρωποι να
επιστρατεύουν τις
δεξιότητές τους πιο
αποτελεσματικά – στην
ιατρική, στην
εκπαίδευση, στο design
κ.ο.κ. Επιπλέον, οι νέοι
δρόμοι που ανοίγει θα
δημιουργήσουν νέα
προϊόντα, υπηρεσίες και
εμπειρίες που δεν
μπορούμε αυτή τη στιγμή
να προβλέψουμε».
Ο καθηγητής Κόρινεκ
είναι πιο απαισιόδοξος.
«Η φύση της τεχνολογίας
είναι τέτοια που ο
εκτοπισμός εργαζομένων
σε μεγάλη κλίμακα είναι
αναπόδραστος», αναφέρει
στην «Κ». «Το αποτέλεσμα
θα είναι ότι αυτό που
συνέβη στη Δύση από τη
δεκαετία του ’70 και
μετά, με τη στασιμότητα
των μισθών για τους
ανειδίκευτους εργάτες,
θα επεκταθεί στη μεγάλη
πλειονότητα του
πληθυσμού».
«Η πρόβλεψή μου είναι
ότι η τεχνολογική
πρόοδος θα ευνοήσει το
κεφάλαιο περισσότερο από
την εργασία», συνεχίζει.
«Στο καλό σενάριο, η
πλήρης ανάπτυξη της
τεχνητής νοημοσύνης θα
οδηγήσει σε οριακά οφέλη
για την εργασία, αλλά
πολύ μεγαλύτερα για το
κεφάλαιο. Στο κακό
σενάριο, η θέση των
εργαζομένων θα
επιδεινωθεί». Ο Κόρινεκ
προτείνει την εφαρμογή
της πολιτικής του
ελάχιστου εγγυημένου
εισοδήματος, το επίπεδο
του οποίου θα αυξάνεται
όσο αυξάνεται το κομμάτι
του πληθυσμού που
τίθεται εκτός της αγοράς
εργασίας. Ακόμη και αν
πετύχει αυτή η πολιτική,
παραδέχεται, «θα
χρειαστεί μια τεράστια
κοινωνική και ψυχολογική
προσαρμογή, που θα πάρει
δεκαετίες».
Το κόστος του εκτοπισμού
«Πολλές δουλειές
γραφείου, κατώτερες ή
μεσαίες, θα εκλείψουν»,
συμφωνεί, μιλώντας στην
«Κ», ο Παναγιώτης
Λουρίδας, αναπληρωτής
καθηγητής στο Τμήμα
Διοικητικής Επιστήμης
και Τεχνολογίας του
Οικονομικού
Πανεπιστημίου Αθηνών.
«Το κατά πόσον όμως η
τεχνητή νοημοσύνη θα
αποτελεί συμπληρωματικό
εργαλείο ή εργαλείο
αντικατάστασης θα
εξαρτηθεί από τις ίδιες
τις επιχειρήσεις και την
κυβερνητική πολιτική».
Πρέπει, τονίζει, να
αποφευχθεί η φαινομενικά
εύκολη λύση της
αντικατάστασης, που θα
έχει ίσως βραχυπρόθεσμα
οφέλη μείωσης κόστους,
αλλά που μακροπρόθεσμα
δεν είναι ούτε
οικονομικά ούτε
κοινωνικά βιώσιμη. «Αν
μη τι άλλο, ο
καπιταλισμός δεν μπορεί
να επιβιώσει με τη
μεγάλη μάζα του
πληθυσμού οικονομικά
περιθωριοποιημένη»,
σημειώνει. Επιπλέον, αν
οι κατώτερες θέσεις σε
οργανισμούς δεν
διατηρηθούν σε κάποιο
βαθμό, διερωτάται από
πού θα προκύψουν οι
κορυφαίοι του μέλλοντος
σε κάθε επάγγελμα – οι
αναντικατάστατοι
δικηγόροι,
προγραμματιστές ή και
δημοσιογράφοι.
Ο καθηγητής Λουρίδας,
από τους βασικούς
συντελεστές του gov.gr
ως επικεφαλής ανάπτυξης
του ΕΔΥΤΕ, βλέπει επίσης
πεδίον δόξης λαμπρόν στη
χρήση των υπερ-ευφυών
chatbots για την
εξυπηρέτηση των πολιτών.
«Αρκεί να μη μάθουν το
παλιό σύστημα υπερβολικά
καλά και σε ρωτάνε αν
έχεις κανέναν γνωστό για
να διεκπεραιώσει πιο
γρήγορα το αίτημά σου»,
λέει χαριτολογώντας.
Η Ελλάδα, πάντως, παρά
την πρόοδο στην παροχή
ψηφιακών δημόσιων
υπηρεσιών την τελευταία
τετραετία, παραμένει
ουραγός πανευρωπαϊκά
στους δείκτες ψηφιακής
ανάπτυξης: 25η στους 27
στον πιο πρόσφατο Δείκτη
Ψηφιακής Οικονομίας και
Κοινωνίας (DESI) της
Ε.Ε., πολύ κάτω από τον
ευρωπαϊκό μέσο όρο στο
ποσοστό του πληθυσμού
που είναι ειδικό σε
τεχνολογίες πληροφορικής
και επικοινωνιών, και
–ίσως το πιο κρίσιμο–
τελευταία στο ποσοστό
των εργαζομένων που
συμμετέχει σε
προγράμματα
μετεκπαίδευσης
χρηματοδοτούμενα από
τους εργοδότες τους. Η
προσαρμογή της ελληνικής
οικονομίας στην εποχή
του AI θα είναι
συγκριτικά πιο δύσκολη.
Απώλεια ελέγχου
«Η ανάπτυξη της τεχνητής
νοημοσύνης είναι εξίσου
θεμελιώδης με τη
δημιουργία του
μικροεπεξεργαστή, του
προσωπικού υπολογιστή,
του Διαδικτύου και του
κινητού τηλεφώνου»,
έγραφε στις 21 Μαρτίου ο
συνιδρυτής της
Microsoft, Μπιλ Γκέιτς.
«Θα αλλάξει τον τρόπο με
τον οποίο οι άνθρωποι
εργάζονται, μαθαίνουν,
ταξιδεύουν, λαμβάνουν
ιατρική περίθαλψη και
επικοινωνούν. Ολόκληρες
βιομηχανίες θα
αναπροσανατολιστούν γύρω
από αυτήν. Επιχειρήσεις
θα διακριθούν από το
πόσο καλά θα τη
χρησιμοποιήσουν».
Ο Γκέιτς αναλύει στο
μακροσκελές κείμενό του
τις τεράστιες
δυνατότητες που παρέχει
η νέα τεχνολογία για την
επίλυση χρόνιων
προβλημάτων της
κοινωνίας, από τους
θανάτους παιδιών από
ιάσιμες ασθένειες στον
αναπτυσσόμενο κόσμο έως
την άμβλυνση των
συνεπειών της κλιματικής
αλλαγής. Η τεχνητή
νοημοσύνη, ισχυρίζεται,
μπορεί να συμβάλει στην
αντιμετώπιση των πιο
κραυγαλέων ανισοτήτων
που υπάρχουν στον κόσμο.
Ωστόσο, σε μια κοινωνία
ήδη ζαλισμένη από τους
ολοένα επιταχυνόμενους
ρυθμούς της αλλαγής, οι
νέες δυνατότητες της
τεχνητής νοημοσύνης
δημιουργούν θεμελιακές
αγωνίες.
Τις προηγούμενες ημέρες
ο επικεφαλής της Tesla
και του Twitter Ελον
Μασκ, συνυπέγραψε μαζί
με εκατοντάδες ειδικούς
τεχνητής νοημοσύνης
ανοικτή επιστολή, με την
οποία ζητούν εξάμηνη
παύση στην ανάπτυξη όλων
των συστημάτων που είναι
ισχυρότερα από το GPT-4
της OpenAI, έως ότου
αυτά ελεγχθούν από
ανεξάρτητους
εμπειρογνώμονες. Στην
επιστολή επισημαίνονται
πιθανοί κίνδυνοι για την
κοινωνία και την
ανθρωπότητα.
Μόλις την Παρασκευή, η
ιταλική Αρχή προστασίας
δεδομένων προσωπικού
χαρακτήρα έγινε η πρώτη
ρυθμιστική αρχή στον
κόσμο η οποία μπλόκαρε
το ChatGPT,
ανακοινώνοντας ότι
ξεκίνησε έρευνα
αναφορικά με τα
προσωπικά δεδομένα που
είχε συλλέξει η OpenAI,
ύστερα από περιστατικό
παραβίασης της
κυβερνοασφάλειας, που
είχε ως αποτέλεσμα να
«εκτεθούν» οι συνομιλίες
μεταξύ χρηστών και
ορισμένα από τα
οικονομικά στοιχεία
τους.
Ιλιγγος
Ο Ντέιβιντ Oτορ εξηγεί
στην «Κ» τον ίλιγγο που
προκαλεί η νέα μορφή της
τεχνητής νοημοσύνης με
την έννοια της Εκδίκησης
του [σπουδαίου
οικονομολόγου και
πολιτικού φιλοσόφου]
Καρλ Πολάνυι. «Για να
κατανοήσουμε την έννοια
είναι χρήσιμο να
ξεκινήσουμε με το
Παράδοξο του Πολάνυι –
ότι “ξέρουμε περισσότερα
απ’ όσα μπορούμε να
πούμε” σχετικά με το πώς
κάνουμε πολλά πράγματα
που κάνουμε σχεδόν
αβίαστα (π.χ. ποδήλατο,
χιούμορ). Αυτό ήταν
ιστορικά ένα εμπόδιο
στην αυτοματοποίηση,
αφού δεν είχαμε σαφή
γνώση των βημάτων που
είναι αναγκαία για να
επιτελεστεί μια
δραστηριότητα ώστε να
την αποτυπώσουμε μέσω
προγραμματισμού. Η
Εκδίκηση του Πολάνυι
είναι η αντιστροφή αυτού
του παραδόξου. Τα
συστήματα τεχνητής
νοημοσύνης μαθαίνουν
πλέον από την
επεξεργασία τεράστιου
όγκου δεδομένων συν την
καθοδήγηση από
αλληλεπιδράσεις. Δεν
χρειάζεται να τους λέμε
“τους κανόνες” για να
κάνουν κάτι – τους
συνάγουν μόνα τους. Δεν
καταλαβαίνουμε
πραγματικά τι κάνουν. Οι
έξυπνοι υπολογιστές
πλέον γνωρίζουν
περισσότερα απ’ όσα
μπορούν να μας πουν».
Μιλώντας την περασμένη
εβδομάδα στο podcast του
Εζρα Κλάιν των New York
Times, η Κέλσι Πάιπερ,
δημοσιογράφος του Vox
ειδική σε θέματα
τεχνητής νοημοσύνης,
αναφέρθηκε σε ένα
δυστοπικό όραμα του
μέλλοντος που
μοιράστηκαν μαζί της
ερευνητές του χώρου.
«Αποφάσεις επιχειρήσεων
για το πού να χτίσουν
εργοστάσια, για τα
προϊόντα στα οποία θα
επενδύσουν, για το τι
είδους έρευνα και
ανάπτυξη να κάνουν,
λαμβάνονται από
προγράμματα τεχνητής
νοημοσύνης. Τα
προγράμματα εξηγούν τις
αποφάσεις τους στην
εντέλεια, γράφουν
εξαίσια υπομνήματα –
αλλά δεν ξέρουμε πλέον
αν τα υπομνήματά τους
και οι αποφάσεις τους
είναι στην κατεύθυνση
στόχων που έχουμε,
πραγμάτων που θέλουμε, ή
αν έχουμε φτιάξει κάτι
αυτόνομο που κάνει πλέον
το δικό του».
Ωστόσο ο καθηγητής
Λουρίδας δεν βλέπει στο
ορατό μέλλον τα chatbots
να αποκτούν ικανότητες
που προσομοιάζουν στη
γενική νοημοσύνη. «Πάρτε
για παράδειγμα την
αρχιτεκτονική βάσει της
οποίας αναπτύχθηκαν τα
LLMs. Είναι κάτι
ιδιοφυές, καινοτόμο·
είμαστε μακριά από τη
στιγμή που η τεχνητή
νοημοσύνη θα μπορεί να
επινοήσει κάτι
αντίστοιχο».
Η πρώτη διαρροή έξυπνου
λογισμικού
Στις αρχές Μαρτίου έγινε
γνωστό ότι το LLaMa της
Meta (Facebook) ήταν το
πρώτο LLM τεχνολογικού
κολοσσού που διέρρευσε
στο Διαδίκτυο,
επιτρέποντας για πρώτη
φορά σε μη εγκεκριμένους
χρήστες να
πειραματιστούν με αυτό,
ακόμα και σε –ακριβούς
έστω– οικιακούς
υπολογιστές (με τα
υπόλοιπα LLMs δεν ήταν
αυτό τεχνικά εφικτό). Η
Meta έχει επιχειρήσει να
περιορίσει την κατάχρηση
του LLaMa μέσω της
δικαστικής οδού, αλλά
είναι κοινή η εκτίμηση
ότι το Κουτί της
Πανδώρας έχει ανοίξει. Η
Meta, η Microsoft ή η
Google μπορούν να
διαμορφώνουν τα δικά
τους chatbots ώστε να
αποφεύγουν τις
κακοτοπιές που έχουν ήδη
παρατηρηθεί (από οδηγίες
για την παρασκευή βομβών
έως απόπειρες διάλυσης
του γάμου των
συνομιλητών τους). Η
διάχυση αυτής της
υπερ-ισχυρής νέας
τεχνολογίας καθιστά
αυτόν τον έλεγχο πολύ
πιο δυσχερή. Είναι
ανοιχτό το ερώτημα αν θα
έπρεπε να μας θορυβεί
περισσότερο η ανάπτυξη
των LLMs από έναν πολύ
μικρό αριθμό πολύ
μεγάλων εταιρειών ή ο
εκδημοκρατισμός της.
Πηγή: Καθημερινή |