-------------------
Μια εικόνα μπορεί να
αξίζει χίλιες λέξεις,
αλλά δεν υπάρχει τίποτα
που να πείθει τόσο όσο
μια ηχητική ή οπτική
εγγραφή ενός γεγονότος.
Σε μια εποχή που οι
οπαδοί των κομμάτων
δύσκολα μπορούν να
συμφωνήσουν στα γεγονότα,
μια τέτοια πειστικότητα
μπορεί να φανεί σαν να
μπορούσε να φέρει μια
ευπρόσδεκτη σαφήνεια. Οι
βιντεογραφήσεις και οι
ηχογραφήσεις επιτρέπουν
στους ανθρώπους να
γίνουν μάρτυρες ενός
γεγονότος, γλιτώνοντάς
τους από την ανάγκη να
αποφασίσουν αν θα
εμπιστεύονται την
αναφορά κάποιου άλλου.
Και χάρη στα smartphones,
τα οποία καθιστούν
εύκολη την αποτύπωση
περιεχομένου ήχου και
βίντεο, και στις
πλατφόρμες κοινωνικών
μέσων που επιτρέπουν την
ανταλλαγή και κατανάλωση
αυτού του περιεχομένου,
οι άνθρωποι σήμερα
μπορούν να βασίζονται
στα ίδια τους τα μάτια
και τα αυτιά σε
πρωτοφανή βαθμό.
Αληθινά ψέματα:
Στιγμιότυπα ενός
deepfake βίντεο του
Μπαράκ Ομπάμα που
δημιουργήθηκε από
ερευνητές το 2017.
UNIVERSITY OF WASHINGTON
-------------------------------------------------------------------
Εκεί υπάρχει ένας
μεγάλος κίνδυνος.
Φανταστείτε ένα βίντεο
που απεικονίζει τον
Ισραηλινό πρωθυπουργό σε
ιδιωτική συνομιλία με
έναν συνάδελφό του,
φαινομενικά
αποκαλύπτοντας ένα
σχέδιο για την διεξαγωγή
μιας σειράς πολιτικών
δολοφονιών στην Τεχεράνη.
Ή ένα ηχητικό κλιπ
Ιρανών αξιωματούχων που
σχεδιάζουν μια μυστική
επιχείρηση για να
σκοτώσουν ηγέτες των
Σουνιτών σε μια
συγκεκριμένη επαρχία του
Ιράκ. Ή ένα βίντεο που
δείχνει έναν Αμερικανό
στρατηγό στο Αφγανιστάν
να καίει ένα Κοράνι. Σε
έναν κόσμο που έχει ήδη
προετοιμαστεί για βία,
τέτοιες καταγραφές θα
έχουν ισχυρό δυναμικό
για υποκίνηση [της βίας].
Τώρα φανταστείτε ότι
αυτές οι ηχογραφήσεις θα
μπορούσαν να είναι
ψεύτικες μέσω της χρήσης
εργαλείων που είναι
διαθέσιμα σε
οποιονδήποτε διαθέτει
φορητό υπολογιστή και
πρόσβαση στο Internet -και
ότι τα προκύπτοντα ψεύδη
είναι τόσο πειστικά ώστε
είναι αδύνατο να
ξεχωρίσουν από την
πραγματικότητα.
Οι πρόοδοι στην ψηφιακή
τεχνολογία [1] θα
μπορούσαν σύντομα να
καταστήσουν αυτόν τον
εφιάλτη πραγματικότητα.
Χάρη στην άνοδο των «deepfakes»
-των πολύ ρεαλιστικών
και δύσκολα να
ανιχνευθούν ψηφιακών
χειραγωγήσεων ήχου ή
βίντεο- καθίσταται
ευκολότερο από ποτέ να
απεικονίζεται κάποιος να
λέει ή να κάνει κάτι που
ποτέ δεν είπε ή δεν
έκανε. Ακόμα χειρότερα,
τα μέσα για την
δημιουργία των deepfakes
είναι πιθανό να
πολλαπλασιαστούν γρήγορα,
παράγοντας έναν συνεχώς
διευρυνόμενο κύκλο
δρώντων ικανών να τα
αναπτύσσουν για
πολιτικούς σκοπούς [2].
Η παραπληροφόρηση είναι
μια αρχαία τέχνη, φυσικά,
και μια τέχνη με μια
ανανεωμένη συνάφεια
σήμερα. Όμως, καθώς
αναπτύσσεται και
εξαπλώνεται η τεχνολογία
των deepfakes, οι
τρέχοντες πόλεμοι
παραπληροφόρησης μπορεί
σύντομα να μοιάζουν με
το ισοδύναμο προπαγάνδας
της εποχής των σπαθιών
και των ασπίδων.
Η ΑΥΓΗ ΤΩΝ DEEPFAKES
Τα deepfakes είναι το
προϊόν των πρόσφατων
προόδων σε μια μορφή
τεχνητής νοημοσύνης,
γνωστή ως «βαθιά μάθηση»
(deep learning), στην
οποία ομάδες αλγορίθμων
που ονομάζονται «νευρωνικά
δίκτυα» (neural
networks) μαθαίνουν να
συνάγουν κανόνες και να
αναπαράγουν πρότυπα
κοσκινίζοντας μέσα από
μεγάλα σύνολα δεδομένων.
(Για παράδειγμα, η
Google χρησιμοποίησε
αυτή την τεχνική για να
αναπτύξει ισχυρούς
αλγόριθμους ταξινόμησης
εικόνων για τη μηχανή
αναζήτησης που διαθέτει).
Τα deepfakes προκύπτουν
από ένα συγκεκριμένο
είδος «βαθιάς μάθησης»
στο οποίο ζεύγη
αλγορίθμων τίθενται ο
ένας εναντίον του άλλου
σε «γενετικά αντιφατικά
δίκτυα» (generative
adversarial network ή
GAN). Σε ένα GAN, ένας
αλγόριθμος, η «γεννήτρια»,
δημιουργεί περιεχόμενο
που βασίζεται σε πηγαία
δεδομένα (source data:
για παράδειγμα,
φτιάχνοντας τεχνητές
εικόνες γατών από μια
βάση δεδομένων
πραγματικών εικόνων
γατών), ενώ ένας
δεύτερος αλγόριθμος, ο «διακριτής»
(discriminator),
προσπαθεί να εντοπίσει
το τεχνητό περιεχόμενο (τα
διαλέξει τις ψεύτικες
εικόνες γάτας).
Δεδομένου ότι κάθε
αλγόριθμος συνεχώς
εκπαιδεύεται εναντίον
του άλλου, τέτοιοι
συνδυασμοί μπορούν να
οδηγήσουν σε ταχεία
βελτίωση, επιτρέποντας
στα GAN να παράγουν
εξαιρετικά ρεαλιστικό
αλλά ψεύτικο περιεχόμενο
ήχου και βίντεο.
Αυτή η τεχνολογία έχει
την δυνατότητα να
διαδίδεται ευρέως.
Εμπορικές και ακόμη και
δωρεάν υπηρεσίες
deepfake έχουν ήδη
παρουσιαστεί στην
ανοικτή αγορά [3], και
εκδοχές με ανησυχητικά
λίγες διασφαλίσεις είναι
πιθανό να εμφανιστούν
στη μαύρη αγορά. Η
εξάπλωση αυτών των
υπηρεσιών θα μειώσει τα
εμπόδια εισόδου, γεγονός
που σημαίνει ότι σύντομα,
ο μόνος πρακτικός
περιορισμός της
ικανότητας κάποιου να
παράγει deepfakes θα
είναι η πρόσβαση στο
εκπαιδευτικό υλικό -δηλαδή,
τα ηχητικά και τα βίντεο
του προσώπου που θα
μοντελοποιηθεί- που θα
τροφοδοτήσει το GAN. Η
ικανότητα δημιουργίας
επαγγελματικού επιπέδου
πλαστογραφιών θα είναι
προσεγγίσιμη από σχεδόν
όλους όσους έχουν
επαρκές ενδιαφέρον και
την γνώση του πού να
πάνε για βοήθεια.
Τα deepfakes έχουν
πολλές αξιόλογες
εφαρμογές. Ο
τροποποιημένος ήχος ή το
βίντεο μιας ιστορικής
προσωπικότητας, για
παράδειγμα, θα μπορούσε
να δημιουργηθεί με σκοπό
την εκπαίδευση των
παιδιών. Μια εταιρεία
μέχρι που ισχυρίζεται
ότι μπορεί να
χρησιμοποιήσει την
τεχνολογία για να
αποκαταστήσει την ομιλία
σε άτομα που έχουν χάσει
την φωνή τους λόγω
ασθενειών. Αλλά τα
deepfakes μπορούν και
πρόκειται να
χρησιμοποιηθούν για
σκοτεινότερους σκοπούς,
επίσης. Οι χρήστες έχουν
ήδη χρησιμοποιήσει
τεχνολογία deepfake για
να εισάγουν πρόσωπα
ανθρώπων στην
πορνογραφία χωρίς την
συγκατάθεση ή την γνώση
τους, και η αυξανόμενη
ευκολία δημιουργίας
ψεύτικου περιεχομένου
ήχου και βίντεο θα
δημιουργήσει άφθονες
ευκαιρίες για εκβιασμούς,
εκφοβισμούς και σαμποτάζ.
Οι πιο τρομακτικές
εφαρμογές της
τεχνολογίας deepfake,
ωστόσο, μπορεί να είναι
στον τομέα της πολιτικής
και των διεθνών
υποθέσεων. Εκεί, τα
deepfakes μπορούν να
χρησιμοποιηθούν για να
δημιουργήσουν ασυνήθιστα
αποτελεσματικά ψέματα
ικανά να ενθαρρύνουν την
βία, να απαξιώνουν
ηγέτες και θεσμούς, ή
ακόμα και να επηρεάζουν
εκλογές.
Τα deepfakes έχουν την
δυνατότητα να είναι
ιδιαίτερα καταστροφικά
επειδή φτάνουν σε μια
εποχή που είναι ήδη πιο
δύσκολο να διαχωριστεί
το γεγονός από τη
μυθοπλασία [4]. Για
μεγάλο μέρος του
εικοστού αιώνα, τα
περιοδικά, οι εφημερίδες
και οι τηλεοπτικοί
σταθμοί διαχειρίστηκαν
την ροή των πληροφοριών
προς το κοινό. Οι
δημοσιογράφοι καθιέρωσαν
αυστηρά επαγγελματικά
πρότυπα για τον έλεγχο
της ποιότητας των
ειδήσεων και ο σχετικά
μικρός αριθμός μέσων
μαζικής ενημέρωσης
σήμαινε ότι μόνο ένας
περιορισμένος αριθμός
ατόμων και οργανισμών θα
μπορούσε να διανείμει
ευρέως τις πληροφορίες.
Ωστόσο, την τελευταία
δεκαετία, όλο και
περισσότεροι άνθρωποι
έχουν αρχίσει να
λαμβάνουν τις
πληροφορίες τους από
πλατφόρμες κοινωνικής
δικτύωσης όπως το
Facebook και το Twitter,
οι οποίες εξαρτώνται από
μια μεγάλη γκάμα χρηστών
για την δημιουργία
σχετικά αφιλτράριστου
περιεχομένου. Οι χρήστες
τείνουν να χειρίζονται
τις εμπειρίες τους έτσι
ώστε να έρχονται σε
επαφή με απόψεις με τις
οποίες συμφωνούν ήδη (μια
τάση που ενισχύεται από
τους αλγόριθμους των
πλατφορμών),
μετατρέποντας την
τροφοδότηση των
κοινωνικών μέσων τους σε
αίθουσες αντήχησης [των
δικών τους απόψεων].
Αυτές οι πλατφόρμες
είναι επίσης επιρρεπείς
στους αποκαλούμενους
καταρράκτες πληροφοριών
(information cascades),
όπου οι άνθρωποι
μοιράζουν πληροφορίες
που έχουν μοιραστεί από
άλλους χωρίς να κάνουν
τον κόπο να ελέγξουν αν
είναι αληθινές, κάνοντάς
τις να φαίνονται πιο
αξιόπιστες στην
διαδικασία. Το τελικό
αποτέλεσμα είναι ότι τα
ψεύδη μπορούν να
εξαπλωθούν γρηγορότερα
από ποτέ.
Αυτή η δυναμική θα
καταστήσει τα κοινωνικά
μέσα γόνιμο έδαφος για
την κυκλοφορία των
deepfakes, με δυνητικά
εκρηκτικές συνέπειες για
την πολιτική. Η
προσπάθεια της Ρωσίας να
επηρεάσει τις προεδρικές
εκλογές των ΗΠΑ το 2016
–διαδίδοντας διχαστικά
και πολιτικά εμπρηστικά
μηνύματα στο Facebook
και τοTwitter- έδειξε
ήδη πόσο εύκολα μπορεί
να εισέλθει η
παραπληροφόρηση στην ροή
των μέσων κοινωνικής
δικτύωσης. Τα deepfakes
του αύριο θα είναι πιο
ζωντανά και ρεαλιστικά
και, ως εκ τούτου, πιο
εύκολο να μοιραστούν από
όσο οι ψεύτικες ειδήσεις
του 2016. Και επειδή οι
άνθρωποι είναι ιδιαίτερα
επιρρεπείς στο να
μοιράζονται αρνητικές
και καινούργιες
πληροφορίες, όσο πιο
αισχρά θα είναι τα
deepfakes, τόσο το
καλύτερο.
ΕΚΔΗΜΟΚΡΑΤΙΖΟΝΤΑΣ ΤΗΝ
ΑΠΑΤΗ
Η χρήση της απάτης, της
πλαστογραφίας και άλλων
μορφών παραπλάνησης για
να επηρεαστεί η πολιτική
δεν είναι κάτι νέο,
φυσικά. Όταν το USS
Maine εξερράγη στο
λιμάνι της Αβάνας το
1898, οι αμερικανικές
εφημερίδες ταμπλόιντ
χρησιμοποίησαν
παραπλανητικές εκθέσεις
του περιστατικού για να
υποκινήσουν το κοινό
προς τον πόλεμο με την
Ισπανία. Το αντισημιτικό
φυλλάδιο «Τα Πρωτόκολλα
των Πρεσβυτέρων της Σιών»,
τα οποία περιγράφουν μια
φανταστική εβραϊκή
συνωμοσία, κυκλοφόρησαν
ευρέως κατά το πρώτο
μισό του εικοστού αιώνα.
Πιο πρόσφατα, οι
τεχνολογίες όπως το
Photoshop έχουν κάνει
την παραποίηση των
εικόνων τόσο εύκολη όσο
και η χάλκευση κειμένου.
Αυτό που κάνει τα
deepfakes πρωτοφανή
είναι ο συνδυασμός της
ποιότητας, της
εφαρμοσιμότητας σε
πειστικές μορφές όπως ο
ήχος και το βίντεο, και
αντίστασή τους στο να
ανιχνευθούν. Και καθώς η
τεχνολογία των deepfakes
εξαπλώνεται, ένας
συνεχώς αυξανόμενος
αριθμός δρώντων θα είναι
σε θέση να χειριστεί
πειστικά το περιεχόμενο
του ήχου και του βίντεο
με τέτοιο τρόπο που
κάποτε περιοριζόταν στα
στούντιο του Χόλιγουντ ή
στις πιο καλά
χρηματοδοτούμενες
υπηρεσίες πληροφοριών.
Τα deepfakes θα είναι
ιδιαίτερα χρήσιμα σε μη
κρατικούς δρώντες, όπως
οι αντάρτικες ομάδες και
οι τρομοκρατικές
οργανώσεις [5], οι
οποίες ιστορικά δεν
είχαν επαρκείς πόρους
για να φτιάξουν και να
διαδώσουν ψευδές αλλά
αξιόπιστο περιεχόμενο
ήχου ή βίντεο. Αυτές οι
ομάδες θα είναι σε θέση
να απεικονίσουν τους
αντιπάλους τους -συμπεριλαμβανομένων
κυβερνητικών
αξιωματούχων- να
ξεστομίζουν εμπρηστικές
λέξεις ή να εμπλέκονται
σε προκλητικές ενέργειες,
με το συγκεκριμένο
περιεχόμενο προσεκτικά
επιλεγμένο για να
μεγιστοποιήσει τις
σοκαριστικές επιπτώσεις
στο στοχευμένο κοινό
τους. Μια θυγατρική του
Ισλαμικού Κράτους (ή
ISIS), για παράδειγμα,
θα μπορούσε να
δημιουργήσει ένα βίντεο
που να απεικονίζει έναν
στρατιώτη των ΗΠΑ να
σκοτώνει αμάχους ή να
συζητά ένα σχέδιο να
βομβαρδίσει ένα τζαμί,
βοηθώντας έτσι την
στρατολόγηση σε
τρομοκρατικές ομάδες.
Τέτοιου είδους βίντεο θα
είναι ιδιαίτερα δύσκολο
να ξεσκεπαστούν σε
περιπτώσεις όπου το
κοινό-στόχος ήδη
δυσπιστεί στο πρόσωπο
που εμφανίζεται στο
deepfake. Τα κράτη
μπορούν και, χωρίς
αμφιβολία, θα κάνουν
παράλληλη χρήση των
deepfakes για να
υπονομεύσουν τους μη
κρατικούς αντιπάλους
τους.
Ένα deepfake που
συνδυάζει το πρόσωπο του
Nicolas Cage με το
κεφάλι του Tucker
Carlson. Πανεπιστήμιο
στο Albany, SUNY
----------------------------------------------------------------------
Τα deepfakes θα οξύνουν
επίσης τους πολέμους
παραπληροφόρησης που
διαταράσσουν όλο και
περισσότερο την εγχώρια
πολιτική στις Ηνωμένες
Πολιτείες και αλλού. Το
2016, οι
χρηματοδοτούμενες από το
ρωσικό κράτος
εκστρατείες
παραπληροφόρησης ήταν
ιδιαιτέρως επιτυχείς
στην εμβάθυνση των
υφιστάμενων κοινωνικών
ρηγμάτων στις Ηνωμένες
Πολιτείες. Για να
αναφέρουμε μόνο ένα
παράδειγμα, ψεύτικοι
ρωσικοί λογαριασμοί στα
μέσα κοινωνικής
δικτύωσης ισχυριζόμενοι
ότι συνδέονται με το
κίνημα Black Lives
Matter μοίραζαν
εμπρηστικό περιεχόμενο
που σχεδιάστηκε για να
προκαλέσει φυλετικές
εντάσεις. Την επόμενη
φορά, αντί για tweets
και αναρτήσεις στο
Facebook, αυτή η
παραπληροφόρηση θα
μπορούσε να έρθει με τη
μορφή ψεύτικου βίντεο
ενός λευκού αστυνομικού
που φωνάζει ρατσιστικές
προσβολές ή ενός
ακτιβιστή του Black
Lives Matter που θα
κάνει έκκληση για βία.
Ίσως η πιο οξεία απειλή
που σχετίζεται με τα
deepfakes είναι η
πιθανότητα ότι μια καλά
τοποθετημένη χρονικά
πλαστογραφία θα μπορούσε
να επηρεάσει εκλογές.
Τον Μάιο του 2017, η
Μόσχα επιχείρησε κάτι
παρόμοιο. Την παραμονή
των γαλλικών εκλογών,
Ρώσοι χάκερ προσπάθησαν
να υπονομεύσουν την
προεκλογική εκστρατεία
του Εμμανουέλ Μακρόν με
το να δημοσιεύσουν ένα
αρχείο κλεμμένων
εγγράφων, πολλά από τα
οποία ήταν παραποιημένα.
Η προσπάθεια αυτή
απέτυχε για διάφορους
λόγους,
συμπεριλαμβανομένου του
σχετικά βαρετού
χαρακτήρα των εγγράφων
και των επιπτώσεων ενός
γαλλικού νόμου για τα
μέσα ενημέρωσης, που
απαγορεύει την εκλογική
κάλυψη στις 44 ώρες
αμέσως πριν από μια
ψηφοφορία. Αλλά στις
περισσότερες χώρες, τις
περισσότερες φορές, δεν
υπάρχει σιγή στα μέσα
μαζικής ενημέρωσης, και
η φύση των deepfakes
δείχνει ότι το ζημιογόνο
περιεχόμενο μπορεί να
είναι εγγυημένα αισχρό ή
και χειρότερο. Ένα
πειστικό βίντεο στο
οποίο ο Macron φάνηκε να
παραδέχεται διαφθορά,
που κυκλοφόρησε στα
social media μόνο 24
ώρες πριν από τις
εκλογές, θα μπορούσε να
εξαπλωθεί σαν πυρκαγιά
και να αποδειχθεί
αδύνατο να ξεσκεπαστεί
εγκαίρως.
Τα deepfakes μπορεί
επίσης να διαβρώσουν την
δημοκρατία με άλλους,
λιγότερο άμεσους τρόπους.
Το πρόβλημα δεν είναι
μόνο ότι τα deepfakes
μπορούν να
χρησιμοποιηθούν για να
προκαλέσουν κοινωνικούς
και ιδεολογικούς
διχασμούς. Μπορούν να
δημιουργήσουν ένα «μέρισμα
ψεύδους»: Καθώς οι
άνθρωποι συνειδητοποιούν
ευρύτερα την ύπαρξη των
deepfakes, τα δημόσια
πρόσωπα που έχουν
καταγραφεί σε
πραγματικές καταγραφές
κακόβουλης συμπεριφοράς
θα το βρουν ευκολότερο
να αμφισβητήσουν τα
αποδεικτικά στοιχεία
εναντίον τους. (Εάν τα
deepfakes κυριαρχούσαν
κατά τις προεδρικές
εκλογές στις ΗΠΑ το
2016, φανταστείτε πόσο
ευκολότερο θα ήταν για
τον Donald Trump να
αμφισβητήσει την
αυθεντικότητα της
διαβόητης ηχητικής
καταγραφής στην οποία
καυχιέται για το
χούφτωμα γυναικών).
Γενικότερα, καθώς το
κοινό γίνεται
ευαισθητοποιημένο στην
απειλή των deepfakes,
μπορεί να τείνει να
εμπιστεύεται λιγότερο
τις ειδήσεις γενικά [6].
Και οι δημοσιογράφοι,
από την πλευρά τους,
μπορεί να γίνουν πιο
επιφυλακτικοί όσον αφορά
το να επικαλούνται, πόσω
μάλλον να δημοσιεύουν,
ηχητικά ή βίντεο των
ταχέα εξελισσόμενων
γεγονότων, φοβούμενοι
ότι τα αποδεικτικά
στοιχεία θα αποδειχθούν
παραποιημένα.
ΒΑΘΙΑ ΕΠΙΔΙΟΡΘΩΣΗ
Δεν υπάρχει μαγική λύση
για την αντιμετώπιση των
deepfakes. Υπάρχουν
πολλές νομικές και
τεχνολογικές
προσεγγίσεις -μερικές
ήδη υπάρχουσες, άλλες
που ενδέχεται να
προκύψουν- που μπορούν
να συμβάλουν στην
άμβλυνση της απειλής.
Αλλά τίποτε δεν θα
ξεπεράσει το πρόβλημα
εντελώς. Αντί για
πλήρεις λύσεις, η άνοδος
των deepfakes απαιτεί
ανθεκτικότητα.
Τρεις τεχνολογικές
προσεγγίσεις αξίζουν
ιδιαίτερη προσοχή. Η
πρώτη αφορά στην
εγκληματολογική
τεχνολογία, ή την
ανίχνευση των
πλαστογραφιών με τεχνικά
μέσα. Ακριβώς όπως οι
ερευνητές βάζουν πολύ
χρόνο και προσπάθεια για
την δημιουργία
αξιόπιστων απομιμήσεων,
επίσης, αναπτύσσουν
μεθόδους ενισχυμένης
ανίχνευσης. Τον Ιούνιο
του 2018, οι επιστήμονες
υπολογιστών στο
Dartmouth και το
Πανεπιστήμιο του Albany,
SUNY, ανακοίνωσαν [7]
ότι είχαν δημιουργήσει
ένα πρόγραμμα που
ανιχνεύει τα deepfakes
με το να αναζητά μη
φυσιολογικές κινήσεις
των βλεφάρων όταν το
υποκείμενο ενός βίντεο
ανοιγοκλείνει τα μάτια.
Στην κούρσα εξοπλισμών
των deepfakes, ωστόσο,
αυτές οι πρόοδοι
χρησιμεύουν μόνο για την
ενημέρωση του επόμενου
κύματος καινοτομίας. Στο
μέλλον, το GAN θα
τροφοδοτείται με
εκπαιδευτικά βίντεο που
θα περιλαμβάνουν
παραδείγματα κανονικού
ανοιγο-κλεισίματος των
βλεφάρων. Ακόμη και αν
προκύψουν εξαιρετικά
ικανοί αλγόριθμοι
ανίχνευσης, η ταχύτητα
με την οποία μπορούν να
κυκλοφορήσουν τα
deepfakes εντός των
μέσων κοινωνικής
δικτύωσης θα καταστήσει
το ξεσκέπασμά τους μια
δύσκολη μάχη. Μέχρι την
στιγμή που ο συναγερμός
των εγκληματολόγων θα
χτυπήσει, η ζημιά μπορεί
να έχει γίνει ήδη.
Μια δεύτερη τεχνολογική
λύση περιλαμβάνει την
εξακρίβωση της
ταυτότητας του
περιεχομένου προτού καν
εξαπλωθεί -μια
προσέγγιση που μερικές
φορές αναφέρεται ως λύση
«ψηφιακής προέλευσης»
(digital provenance).
Εταιρείες όπως η Truepic
αναπτύσσουν τρόπους
ψηφιακής υδατογραφίας σε
περιεχόμενο ήχου,
φωτογραφιών και βίντεο
κατά την στιγμή της
δημιουργίας του,
χρησιμοποιώντας
μεταδεδομένα (metadata)
που μπορούν να
καταγραφούν αμετάβλητα
σε έναν διανεμημένο
κατάλογο ή blockchain.
Με άλλα λόγια, κάποιος
θα μπορούσε ουσιαστικά
να σφραγίσει το
περιεχόμενο με ένα
αρχείο αυθεντικότητας
που θα μπορούσε να
χρησιμοποιηθεί αργότερα
ως αναφορά για σύγκριση
με ύποπτα [αρχεία] για
παραποιήσεις.
Θεωρητικά, οι λύσεις
ψηφιακής προέλευσης
(digital provenance)
είναι μια ιδανική λύση.
Στην πράξη,
αντιμετωπίζουν δύο
μεγάλα εμπόδια. Πρώτα απ’
όλα, θα πρέπει να
χρησιμοποιηθούν παντού
στην τεράστια ποικιλία
συσκευών που καταγράφουν
περιεχόμενο,
συμπεριλαμβανομένων των
φορητών υπολογιστών και
των smartphones.
Δεύτερον, η χρήση τους
θα πρέπει να γίνει
προϋπόθεση για τη
μεταφόρτωση περιεχομένου
στις πιο δημοφιλείς
ψηφιακές πλατφόρμες,
όπως το Facebook, το
Twitter και το YouTube.
Καμιά από αυτές τις
προϋποθέσεις δεν είναι
πιθανόν να ικανοποιηθεί.
Οι κατασκευαστές
συσκευών, εν τη ελλείψει
κάποιας νομικής ή
κανονιστικής υποχρέωσης
[8], δεν θα υιοθετήσουν
μια ψηφιακή ταυτότητα
μέχρι να μάθουν ότι
είναι [οικονομικά]
προσιτή, έχει ζήτηση,
και ότι είναι απίθανο να
επηρεάσει την απόδοση
των προϊόντων τους. Και
λίγες πλατφόρμες
κοινωνικών μέσων θα
θέλουν να εμποδίσουν
τους χρήστες τους από το
να ανεβάσουν περιεχόμενο
χωρίς έλεγχο
αυθεντικότητας, ειδικά
όταν ο πρώτος που θα το
κάνει θα διακινδυνεύσει
να χάσει μερίδιο αγοράς
από λιγότερο αυστηρούς
ανταγωνιστές.
Μια τρίτη, περισσότερο
κερδοσκοπική τεχνολογική
προσέγγιση περιλαμβάνει
αυτό που ονομάστηκε «υπηρεσίες
επικυρωμένου άλλοθι»
(authenticated alibi
services), που σύντομα
θα μπορούσε να αρχίσει
να αναδύεται από τον
ιδιωτικό τομέα. Θεωρήστε
ότι τα deepfakes είναι
ιδιαίτερα επικίνδυνα για
άτομα υψηλού προφίλ,
όπως πολιτικοί και
διασημότητες, με
πολύτιμη αλλά εύθραυστη
φήμη. Για να
προστατευθούν από τα
deepfakes, ορισμένα από
αυτά τα άτομα μπορούν να
επιλέξουν να εμπλακούν
σε ενισχυμένες μορφές «lifelogging»
-την πρακτική της
καταγραφής σχεδόν κάθε
πτυχής της ζωής κάποιου-
προκειμένου να
αποδεικνύουν το πού ήταν
και τι έλεγαν ή έκαναν
σε οποιαδήποτε στιγμή.
Οι εταιρείες ενδέχεται
να αρχίσουν να
προσφέρουν πακέτα
υπηρεσιών άλλοθι,
συμπεριλαμβανομένων
φορητών συσκευών [στμ:
wearables, που
φοριούνται], ώστε να
κάνουν το lifelogging
βολικό, την αποθήκευση
να αντιμετωπίσει τον
τεράστιο όγκο των
δεδομένων που θα
προκύπτουν, και την
πιστοποίηση αυτών των
δεδομένων αξιόπιστη.
Αυτά τα πακέτα θα
μπορούσαν ακόμη να
περιλαμβάνουν
συνεργασίες με
σημαντικές πλατφόρμες
ειδήσεων και social
media, οι οποίες θα
επέτρεπαν την ταχεία
επιβεβαίωση ή ξεσκέπασμα
του περιεχομένου.
Μια τέτοια συνδεσιμότητα
(logging) θα ήταν βαθιά
επεμβατική και πολλοί
άνθρωποι δεν θα ήθελαν
να έχουν σχέση με κάτι
τέτοιο. Όμως, εκτός από
τα υψηλού προφίλ άτομα
που θα επιλέξουν να
υιοθετήσουν το
lifelogging για να
προστατεύσουν τον εαυτό
τους, ορισμένοι
εργοδότες θα μπορούσαν
να αρχίσουν να επιμένουν
σε αυτό για ορισμένες
κατηγορίες εργαζομένων
τους, όπως τα αστυνομικά
τμήματα απαιτούν από όλο
και περισσότερους
αστυνομικούς να
χρησιμοποιούν κάμερες
σώματος. Ακόμα κι αν
μόνο ένας σχετικά μικρός
αριθμός ανθρώπων
αναλάβει εντατικό
lifelogging, θα παράγουν
τεράστια αποθέματα
δεδομένων, στα οποία
εμείς οι υπόλοιποι θα
βρεθούμε μπλεγμένοι
ακούσια, δημιουργώντας
ένα μαζικό δίκτυο
επιτήρησης ομοτίμων
(peer-to-peer) για την
συνεχή καταγραφή των
δραστηριοτήτων μας.
ΘΕΣΠΙΖΟΝΤΑΣ ΤΟΝ ΝΟΜΟ
Εάν αυτές οι
τεχνολογικές
επιδιορθώσεις έχουν
περιορισμένα θετικά,
τότε τι γίνεται με τα
ένδικα μέσα; Ανάλογα με
τις περιστάσεις, η
δημιουργία ή η διάδοση
ενός deepfake θα
μπορούσε να συνιστά
δυσφήμιση, απάτη ή
υπεξαίρεση της
ομοιότητας ενός ατόμου,
μεταξύ άλλων αστικών και
ποινικών παραβιάσεων.
Θεωρητικά, κάποιος θα
μπορούσε να κλείσει
τυχόν κενά με την
ποινικοποίηση (ή την
επισύναψη αστικής
ευθύνης) για
συγκεκριμένες πράξεις -για
παράδειγμα, η δημιουργία
ενός deepfake για ένα
πραγματικό πρόσωπο με
σκοπό να εξαπατηθεί ένας
θεατής ή ακροατής με την
προσδοκία ότι αυτή η
εξαπάτηση θα προκαλούσε
συγκεκριμένο είδος
βλάβης. Ωστόσο, θα ήταν
δύσκολο αυτοί οι
ισχυρισμοί ή οι
κατηγορίες να επιμείνουν
στην πράξη. Κατ’ αρχήν,
θα είναι πολύ δύσκολο να
αποδοθεί η δημιουργία
ενός deepfake σε ένα
συγκεκριμένο άτομο ή
ομάδα. Και ακόμη και αν
εντοπιστούν οι δράστες,
μπορεί να είναι πέρα από
το πεδίο δικαιοδοσίας
ενός δικαστηρίου, όπως
στην περίπτωση ξένων
ατόμων ή κυβερνήσεων.
Μια άλλη νομική λύση θα
μπορούσε να ενθαρρύνει
τις πλατφόρμες των
κοινωνικών μέσων να
κάνουν περισσότερα για
να εντοπίσουν και να
απομακρύνουν τα
deepfakes ή το
πλασματικό περιεχόμενο
γενικότερα. Σύμφωνα με
το ισχύον αμερικανικό
δίκαιο, οι εταιρείες που
κατέχουν αυτές τις
πλατφόρμες είναι σε
μεγάλο βαθμό απρόσβλητες
από την ευθύνη για το
περιεχόμενο που
φιλοξενούν, χάρη στο
άρθρο 230 του νόμου περί
ευελιξίας των
επικοινωνιών
(Communications Decency
Act) του 1996. Το
Κογκρέσο θα μπορούσε να
τροποποιήσει αυτήν την
ασυλία, ίσως
τροποποιώντας το άρθρο
230 για να κάνει τις
εταιρείες υπεύθυνες για
τις επιβλαβείς και
δόλιες πληροφορίες που
διανέμονται μέσω των
πλατφορμών τους, εκτός
εάν έχουν καταβάλει
εύλογες προσπάθειες για
να τις εντοπίσουν και να
τις καταργήσουν. Άλλες
χώρες έχουν
χρησιμοποιήσει μια
παρόμοια προσέγγιση [9]
για ένα διαφορετικό
πρόβλημα: Το 2017, για
παράδειγμα, η Γερμανία
ψήφισε νόμο που
επιβάλλει αυστηρά
πρόστιμα σε εταιρείες
social media που
απέτυχαν να καταργήσουν
ρατσιστικό ή απειλητικό
περιεχόμενο εντός 24
ωρών από την αναφορά του.
Ωστόσο, αυτή η
προσέγγιση θα είχε δικές
της προκλήσεις. Πιο
συγκεκριμένα, θα
μπορούσε να οδηγήσει σε
υπερβολική λογοκρισία.
Οι εταιρείες που
επιθυμούν να αποφύγουν
τη νομική ευθύνη πιθανώς
θα έκαναν το λάθος να
αστυνομεύουν το
περιεχόμενο πολύ
επιθετικά, και οι ίδιοι
οι χρήστες θα μπορούσαν
να αρχίσουν να
αυτο-λογοκρίνονται,
προκειμένου να αποφύγουν
το ρίσκο να κατασταλεί
το περιεχόμενό τους. Δεν
είναι καθόλου προφανές
ότι τα θεωρητικά οφέλη
από την βελτίωση της
προστασίας από την απάτη
θα δικαιολογούσαν αυτές
τις επιβαρύνσεις στην
ελεύθερη έκφραση. Ένα
τέτοιο σύστημα θα
διακινδύνευε επίσης τη
μόνωση των υφιστάμενων
πλατφορμών, οι οποίες
διαθέτουν τους πόρους
για την αστυνόμευση του
περιεχομένου και για να
πληρώνουν για νομικές
μάχες, έναντι του
ανταγωνισμού από
μικρότερες επιχειρήσεις.
ΖΩΝΤΑΣ ΜΕ ΨΕΜΜΑΤΑ
Αλλά αν και τα deepfakes
είναι επικίνδυνα, δεν θα
είναι απαραίτητα
καταστροφικά. Η
ανίχνευση θα βελτιωθεί,
οι εισαγγελείς και οι
ενάγοντες θα κερδίζουν
περιστασιακά νομικές
νίκες κατά των
δημιουργών βλαβερών
ψευδών, και οι μεγάλες
πλατφόρμες των μέσων
κοινωνικής δικτύωσης
σταδιακά θα γίνουν
καλύτερες στην
επισήμανση και την
εξάλειψη του δόλιου
περιεχομένου. Και οι
λύσεις ψηφιακής
προέλευσης θα μπορούσαν,
αν υιοθετηθούν ευρέως,
να παράσχουν μια πιο
σταθερή λύση κάποια
στιγμή στο μέλλον.
Εν τω μεταξύ, οι
δημοκρατικές κοινωνίες
θα πρέπει να μάθουν την
ανθεκτικότητα. Από τη
μια πλευρά, αυτό θα
σημαίνει την αποδοχή ότι
το περιεχόμενο του ήχου
και του βίντεο δεν
μπορεί να ληφθεί με την
ονομαστική του αξία˙ από
την άλλη, θα σημαίνει
την καταπολέμηση της
διολίσθησης σε έναν
μετα-ρεαλιστικό κόσμο,
στον οποίο οι πολίτες θα
υποχωρούν στις
προσωπικές τους φούσκες
πληροφόρησης και θα
θεωρούν ως γεγονός μόνο
αυτό που κολακεύει τις
δικές τους πεποιθήσεις.
Εν ολίγοις, οι
δημοκρατίες θα πρέπει να
δεχτούν μια άβολη
αλήθεια: Για να
επιβιώσουν από την
απειλή των deepfakes, θα
πρέπει να μάθουν πώς να
ζουν με τα ψέματα.
Ο ROBERT CHESNEY κατέχει
την έδρα James A. Baker
III και είναι διευθυντής
του Κέντρου Διεθνούς
Ασφάλειας και Δικαίου
Robert Strauss στο
Πανεπιστήμιο του Τέξας
στο Όστιν.
Η DANIELLE CITRON είναι
καθηγήτρια Νομικής στην
έδρα Morton και Sophia
Macht στο Πανεπιστήμιο
του Maryland και
συνεργάτις στο
Information Society
Project του
Πανεπιστημίου Yale.
Foreign Affairs
http://www.foreignaffairs.gr/articles/72414/robert-chesney-kai-danielle-citron/ta-deepfakes-kai-o-neos-polemos-parapliroforisis?page=show
https://www.foreignaffairs.com/articles/world/2018-12-11/deepfakes-and-new-disinformation-war
|
|