|
|
|
Περίληψη:
Η τρομακτική επίθεση στο
Ελ Πάσο ήταν η τελευταία
εμφάνιση ενός
ενοχλητικού νέου
σεναρίου, στο οποίο
λευκοί εθνικιστές,
ριζοσπαστικοποιημένοι
στο διαδίκτυο, αναρτούν
την πίστη τους στο
κίνημα προτού
πραγματοποιήσουν ένα
είδος παιγνιοποιημένης
βίας που σχεδιάστηκε για
να επευφημείται γρήγορα
και να μοιράζεται στο
Διαδίκτυο πριν
επαναληφθεί εκ νέου.
|
|
|
|
|
|
-----------------------
Το πρωί της 3ης
Αυγούστου, ο Patrick
Crusius ανάρτησε ένα
μανιφέστο 2.300 λέξεων
στο 8chan, ένα online
φόρουμ δημοφιλές σε
λευκούς εθνικιστές. Μέσα
σε δευτερόλεπτα, [ηλεκτρονικά]
πακέτα μεγέθους byte που
μεταφέρουν
αντι-μεταναστευτική
ρητορική θα διέσχιζαν τα
σύνορα σε όλο τον κόσμο,
βρίσκοντας τον δρόμο
τους από το Ελ Πάσο, στο
Τέξας, μέχρι τις
Φιλιππίνες, όπου εδρεύει
η 8chan. Οι ειδήσεις για
το τι έκανε στην
συνέχεια ο Crusius θα
ταξίδευαν ακόμη ευρύτερα.
Οπλισμένος με ένα [οπλοπολυβόλο
Καλασνίκοφ] AK-47, ο
πρόσφατα αποπεμφθείς από
ένα κολέγιο νεαρός,
όρμησε σε ένα [σούπερ
μάρκετ] Walmart κοντά
στα μεξικανικά σύνορα,
σκοτώνοντας 22 και
τραυματίζοντας πολλούς
άλλους. Ο ομολογημένος
στόχος του [1]: Να
σκοτώσει όσο το δυνατόν
περισσότερους Μεξικανούς.
Θρηνούντες σε αγρυπνία
για τα θύματα των
πυροβολισμών στο Ελ Πάσο,
τον Αύγουστο του 2019.
Callaghan O'Hare /
Reuters
-------------------------------------------------------------------------
Το μακελειό στο Ελ Πάσο,
σε συνδυασμό με μια
ξεχωριστή περίπτωση
μαζικών πυροβολισμών στο
Dayton του Ohio, εκείνη
τη νύχτα, προκάλεσε
ανανεωμένη συζήτηση
σχετικά με τον τρόπο
ανταπόκρισης στο
διαδικτυακό μίσος [2].
Καθώς η πολιτική πίεση
αυξανόταν, ο πρόεδρος
των ΗΠΑ, Donald Trump,
δανείστηκε έναν τρόπο
αντίδρασης του Obama και
συγκάλεσε μια «τεχνολογική
σύνοδο κορυφής» για τον
εξτρεμισμό. Στις 9
Αυγούστου, οι
αξιωματούχοι του Λευκού
Οίκου φιλοξένησαν
εκπροσώπους από μεγάλες
εταιρείες τεχνολογίας
-Amazon, Google,
Facebook, Twitter,
Microsoft και άλλους-
και συζήτησαν τους
πιθανούς τρόπους να
διακόπτουν την
διαδικτυακή στρατολόγηση
και τον συντονισμό των
εξτρεμιστών.
Η σύνοδος κορυφής θα
μείνει στην μνήμη ως μια
ακόμη χαμένη ευκαιρία. Η
διοίκηση του Trump
μπορεί να είναι πιο
πρόθυμη από του Ομπάμα
να αμφισβητήσει τον
τομέα της τεχνολογίας,
αλλά έχει επιλέξει να
πολεμήσει την λάθος μάχη
και οι προσπάθειές της
κινδυνεύουν να
χειροτερέψουν το
πρόβλημα. Δείτε το
αναφερθέν σχέδιο της
διοίκησης [3] να
χορηγήσει στην
Ομοσπονδιακή Επιτροπή
Επικοινωνιών (FCC)
ευρεία νέα εξουσία για
την ρύθμιση των
εταιρειών των μέσων
κοινωνικής δικτύωσης
[4]. Η εξουσία δεν θα
βοηθούσε την FCC να
αναγκάσει τις εταιρείες
τεχνολογίας να
αστυνομεύουν πιο
επιθετικά τις πλατφόρμες
τους για εξτρεμιστικούς
λογαριασμούς και
περιεχόμενο. Αντίθετα, η
FCC, δυνάμει μιας
εκτελεστικής εντολής με
τίτλο «Προστασία των
Αμερικανών από την
Ηλεκτρονική Λογοκρισία»,
θα επεδίωκε να
διασφαλίσει ότι οι
εταιρείες κοινωνικών
μέσων δεν είναι «προκατειλημμένες»
κατά των συντηρητικών.
Με την ρητορική και την
γλώσσα του Trump συχνά
να μην διακρίνεται από
εκείνη των λευκών
εθνικιστών, ένα τέτοιο
μέτρο θα αθιστούσε πιο
δύσκολο για τις
εταιρείες τεχνολογίας να
αντιμετωπίσουν τον
εξτρεμισμό στο διαδίκτυο.
Καθώς η διοίκηση του
Trump αμφιταλαντεύεται,
η απειλή συνεχίζει να
αυξάνεται. Η τρομακτική
επίθεση στο Ελ Πάσο ήταν
η τελευταία εμφάνιση
ενός ενοχλητικού νέου
σεναρίου, στο οποίο
λευκοί εθνικιστές,
ριζοσπαστικοποιημένοι
στο διαδίκτυο, αναρτούν
την πίστη τους στο
κίνημα προτού
πραγματοποιήσουν ένα
είδος παιγνιοποιημένης
βίας που σχεδιάστηκε για
να επευφημείται γρήγορα
και να μοιράζεται στο
Διαδίκτυο πριν
επαναληφθεί εκ νέου. Το
σενάριο γράφτηκε στη
Νορβηγία, όπου το 2011 ο
Anders Breivik
δημοσίευσε ένα τεράστιο
μανιφέστο πριν σκοτώσει
77 ανθρώπους, κυρίως
νέους σε καλοκαιρινό
καταυλισμό ενός
αριστερού πολιτικού
κόμματος. Νωρίτερα φέτος,
ο Brenton Tarrant
δημοσίευσε το μανιφέστο
του στο 8chan πριν
σκοτώσει 51 πιστούς σε
ένα τζαμί και στο
Ισλαμικό Κέντρο στο
Christchurch της Νέας
Ζηλανδίας. Με μια
τρομακτική εξέλιξη, ο
Tarrant μεταδίδει βίντεο
της επίθεσης σε
πραγματικό χρόνο στο
Facebook Live. Παρά τις
προσπάθειες του Facebook
να μπλοκάρει το βίντεο,
εξαπλώθηκε σαν πυρκαγιά
[5] -μεταφορτώθηκε,
συχνά σε τροποποιημένη
μορφή, πάνω από ένα
εκατομμύριο φορές στο
Facebook και αμέτρητες
περισσότερες σε
τοποθεσίες όπως το 8chan
και το Reddit.
Όσον αφορά την παγκόσμια
εμβέλεια και την
θνησιμότητα, η λευκή
εθνικιστική τρομοκρατία
θυμίζει όλο και
περισσότερο το
τζιχαντιστικό κίνημα του
τζιχάντ. Έχει επίσης,
όπως και το
τζιχαντιστικό κίνημα,
χρησιμοποιήσει το
Διαδίκτυο και τα μέσα
κοινωνικής δικτύωσης για
να στρατολογήσει και να
ριζοσπαστικοποιήσει τα
μέλη του, να διαδώσει
την προπαγάνδα και να
μεταδώσει εικόνες και
βίντεο από τις
βιαιότητές του. Τι
μπορούν να κάνουν οι
εταιρείες τεχνολογίας
-και οι κυβερνήσεις- για
να την σταματήσουν;
ΑΝΤΙΜΕΤΩΠΙΣΤΕ ΤΟΝ ΛΕΥΚΟ
ΕΘΝΙΚΙΣΜΟ ΟΠΩΣ ΤΟΝ
ΤΖΙΧΑΝΤΙΣΜΟ
Η εξισορρόπηση του
δικαιώματος της
ελεύθερης έκφρασης στο
διαδίκτυο με την ανάγκη
παρακολούθησης και
διακοπής της
εξτρεμιστικής χρήσης του
διαδικτύου δεν είναι σε
καμία περίπτωση ένα
αμερικανικό πρόβλημα
μόνο. Για παράδειγμα,
μετά την επίθεση στο
Christchurch, η
πρωθυπουργός της Νέας
Ζηλανδίας Jacinda Ardern
συνεργάστηκε με την
Γαλλία και άλλες μεγάλες
εταιρείες τεχνολογίας
για να ξεκινήσει το
Christchurch Call τον
Μάιο. Βασιζόμενη στις
αντι-εξτρεμιστικές
προσπάθειες της ΕΕ και
άλλων φορέων (συμπεριλαμβανομένης
της Διαδικασίας της
Άκαμπα (Aqaba Process)
που δρομολογήθηκε από
την Ιορδανία το 2015),
το Christchurch Call
έφερε τις εταιρείες
τεχνολογίας και τις
κυβερνήσεις κοντά για να
δεσμευτούν να «εξαλείψουν
το τρομοκρατικό και
βίαιο εξτρεμιστικό
περιεχόμενο στο
διαδίκτυο».
Το Christchurch Call
ήταν ένα αξιοθαύμαστο
ξεκίνημα, αλλά, όπως και
η Διαδικασία της Άκαμπα,
είναι γενναιόφρον στις
καλές προθέσεις και
ελλειμματικό στις
λεπτομέρειες. Ευτυχώς,
υπάρχουν συγκεκριμένα
βήματα που οι
τεχνολογικές εταιρείες
μπορούν να κάνουν για να
περιορίσουν την εξάπλωση
του μίσους στο διαδίκτυο.
Το πρώτο βήμα θα πρέπει
να είναι να
αντιμετωπιστούν όλες οι
ιδεολογίες του μίσους με
τον ίδιο τρόπο. Μέχρι
πολύ πρόσφατα [6], το
Facebook και άλλες
εταιρείες μέσων
κοινωνικής δικτύωσης
έχουν επικεντρωθεί πολύ
περισσότερο στο
τζιχαντιστικό
περιεχόμενο από όσο στο
λευκό εθνικιστικό και σε
άλλες μορφές ακροδεξιού
περιεχομένου. Αυτό είναι
σε μεγάλο βαθμό μια
κληρονομιά του αγώνα
κατά του Ισλαμικού
Κράτους (ISIS). Όταν η
ομάδα εμφανίστηκε το
2014, το Facebook και
άλλες εταιρείες
προσπάθησαν να
εμποδίσουν προληπτικά το
περιεχόμενο του ISIS [7]
και να απομακρύνουν τους
χρήστες που συνδέονταν
με αυτό και άλλες
διεθνείς τρομοκρατικές
ομάδες. Ταυτόχρονα,
ήθελαν να καθησυχάσουν
εκλογικά σώματα που
είναι αφιερωμένα στην
ελευθερία του λόγου.
Ήταν σε θέση να
επιτύχουν αυτή την
ισορροπία, επειδή η
κυβέρνηση των ΗΠΑ είχε
χαρακτηρίσει επισήμως το
ISIS ως τρομοκρατική
ομάδα, δίνοντας στις
εταιρείες μια νομική
λογική για τον
περιορισμό του
περιεχομένου που
σχετίζεται με το ISIS. Η
κυβέρνηση των ΗΠΑ δεν
ορίζει με παρόμοιο τρόπο
τις εσωτερικές
τρομοκρατικές ομάδες.
Από τεχνική και ηθική
άποψη, ωστόσο, το λευκό
ρατσιστικό περιεχόμενο
δεν διαφέρει από το
τζιχαντιστικό
περιεχόμενο -αν οι
εταιρείες μέσων
κοινωνικής δικτύωσης
μπορούν να μπλοκάρουν το
ένα [είδος περιεχομένου],
μπορούν να μπλοκάρουν
και το άλλο [8]. Μέχρι
στιγμής, απέφυγαν να το
κάνουν επειδή φοβούνται
ότι ως αντίδραση θα
χτυπηθούν από τους
συντηρητικούς. Όπως
εξηγεί ο ειδικός επί του
εξτρεμισμού JM Berger
[9], «η πάταξη των
λευκών εθνικιστών θα ...
περιλαμβάνει την
αφαίρεση [από τις
διαδικτυακές πλατφόρμες]
πολλών ανθρώπων που
αναγνωρίζονται σε
μεγαλύτερο ή μικρότερο
βαθμό ως υποστηρικτές
του Trump, και μερικοί
άνθρωποι στους κύκλους
του Trump και στα μήντια
υπέρ του Trump θα το
εκμεταλλευθούν σίγουρα
για να διαμαρτυρηθούν
ότι διώκονται».
Πάντως, τέτοιου είδους
καταστολές λειτουργούν.
Με το να κλείνουν
μεμονωμένους
τζιχαντιστικούς
λογαριασμούς, να
αναγνωρίζουν και να
μπλοκάρουν κοινούς
τύπους τζιχαντιστικής
προπαγάνδας και με το να
συνεργάζονται με την
επιβολή του νόμου,
εταιρείες όπως το
Facebook, το Twitter και
το YouTube μείωσαν την
online παρουσία των
τζιχαντιστικών ομάδων.
Μπορούν να κάνουν το
ίδιο και με τους λευκούς
εθνικιστές. Αυτές οι
προσπάθειες δεν
απαιτούνται από το νόμο,
και ειδικά στις Ηνωμένες
Πολιτείες, οι πολιτικά
φιλελεύθεροι μπορούν να
συμπαραταχθούν με τους
ρατσιστές σε αντίθεσή
τους ως προς αυτές. Αλλά
οι τεχνολογικές
εταιρείες είναι
ιδιωτικές εταιρείες και
μπορούν νομίμως να
αφαιρέσουν το μίσος
περιεχόμενο από τις
πλατφόρμες τους, χωρίς
να παραβιάζουν την Πρώτη
Τροποποίηση [του
συντάγματος των ΗΠΑ].
Δεύτερον, οι εταιρείες
τεχνολογίας θα πρέπει να
αρχίσουν να
προσλαμβάνουν
περισσότερους -και
περισσότερο
εκπαιδευμένους-
διαχειριστές
περιεχομένου
(moderators). Παρόλο που
εταιρείες όπως το
Facebook και η Google
βασίζονται όλο και
περισσότερο στην τεχνητή
νοημοσύνη για να
επισημάνουν το
προβληματικό περιεχόμενο,
απασχολούν επίσης
χιλιάδες συμβασιούχους
για να επανεξετάζουν
αυτές τις αποφάσεις.
Μόνο το Facebook
απασχολεί [10] εντός της
εταιρείας περισσότερους
από 200 αναλυτές της
τρομοκρατίας και
συμβασιούχους [11] με
περισσότερους από 15.000
συντονιστές περιεχομένου
παγκοσμίως. Αυτός ο
αριθμός, ωστόσο, δεν
είναι ανάλογος με την
κλίμακα του προβλήματος
-υπάρχουν πάνω από δύο
δισεκατομμύρια χρήστες
του Facebook. Στη
Μυανμάρ, για παράδειγμα,
το Facebook πάλεψε για
να μετριάσει το βίαιο
περιεχόμενο, εν μέρει
επειδή έχει πολύ λίγους
συντονιστές που μιλάνε
Βιρμανικά [12].
Η ποιότητα των
συντονιστών περιεχομένου
είναι ακόμη πιο
σημαντική από το πλήθος
τους. Ο αποτελεσματικός
συντονισμός (moderation)
απαιτεί την δυνατότητα
να γίνεται διάκριση
μεταξύ του τρομοκρατικού
περιεχομένου και των
νόμιμων μορφών πολιτικού
λόγου. Αυτό, με την
σειρά του, απαιτεί μια
μεγάλη ομάδα αναλυτών με
βαθιά γνώση της
τρομοκρατίας όσο και μια
μεγάλη ποικιλία ειδικών
σε τοπικό και
περιφερειακό επίπεδο, οι
οποίοι να μπορούν να
εφαρμόσουν τις
παγκοσμίως κανονιστικές
πολιτικές [13]. Και
αυτοί οι συντονιστές
πρέπει να έχουν τις
γλωσσικές, πολιτιστικές
και αναλυτικές
δεξιότητες που είναι
απαραίτητες για να
εφαρμόσουν αυτές τις
πολιτικές γρήγορα και με
ακρίβεια σε όλο τον
κόσμο. Η προσέλκυση των
συντονιστών με τα
κατάλληλα προσόντα
σημαίνει ότι οι
εταιρείες θα πρέπει όχι
μόνο να τους πληρώνουν
καλύτερα αλλά και να
τους παρέχουν μεγαλύτερο
κύρος και σεβασμό [14]
από ό, τι λαμβάνουν
σήμερα.
Οι τεχνολογικές
εταιρείες πρέπει επίσης
να βελτιώσουν την
ανταλλαγή πληροφοριών
μεταξύ των πλατφορμών.
Οι περισσότερες μικρές
και πρώιμου σταδίου
εταιρείες δεν διαθέτουν
τους πόρους για να
επενδύσουν στην
τεχνογνωσία για την
καταπολέμηση της
τρομοκρατίας και
επομένως αγωνίζονται για
να εντοπίσουν
εξτρεμιστικές ομάδες και
περιεχόμενο στις
πλατφόρμες τους. Το
2017, η Google, το
Facebook και άλλες
μεγάλες εταιρείες
δημιούργησαν το
Παγκόσμιο Φόρουμ
Διαδικτύου για την
Καταπολέμηση της
Τρομοκρατίας (Global
Internet Forum to
Counter Terrorism). Εν
μέρει, το σκεπτικό πίσω
από το φόρουμ ήταν η
ανταλλαγή πληροφοριών
επί υποψιών περί
τρομοκρατικών ενεργειών
και η αποτροπή της
μετακίνησης επικίνδυνων
περιεχομένων από τις
πλατφόρμες. Μετά τις
επιθέσεις της Νέας
Ζηλανδίας, για
παράδειγμα, το Facebook
«στιγμάτισε» το αρχικό
βίντεο, παρέχοντάς του
ουσιαστικά ένα ψηφιακό
αποτύπωμα που επέτρεψε
στο Facebook και σε
άλλες εταιρείες να το
εντοπίσουν πιο εύκολα.
Νωρίτερα αυτόν τον μήνα,
η εταιρεία δημοσιοποίησε
επίσης τον κώδικα από
έναν αλγόριθμο που
μπορούν να
χρησιμοποιήσουν οι
μικρότερες εταιρείες και
οργανώσεις για τον
εντοπισμό τρομοκρατικών
εικόνων [15].
Αυτά τα βήματα είναι
ευπρόσδεκτα, αλλά
μπορούν να γίνουν
περισσότερα.
Προφανέστερα, το
Facebook και άλλοι θα
μπορούσαν να
δημοσιεύσουν τον πλήρη
κατάλογο των
εξτρεμιστικών οργανώσεων
και ατόμων [16] που
έχουν αποκλειστεί από
τις πλατφόρμες τους,
μαζί με σύντομες
εξηγήσεις για την κάθε
απόφαση. Μια τέτοια
κίνηση θα διευκόλυνε
ευκολότερα τις
μικρότερες επιχειρήσεις
χωρίς εμπειρία [σε
θέματα σχετικά με την]
τρομοκρατία, προκειμένου
να εκτιμήσουν εάν θα
μπλοκάρουν συγκεκριμένες
ομάδες και άτομα.
ΜΗΝ ΑΦΗΣΕΤΕ ΤΟ ΠΡΟΒΛΗΜΑ
ΝΑ ΚΑΚΟΦΟΡΜΙΣΕΙ
Δεν μπορούμε να
γνωρίζουμε αν οι
τεχνολογικές εταιρείες
καταλαβαίνουν την
ισορροπία σωστά εάν δεν
γνωρίζουμε τι κάνουν,
οπότε η βελτίωση της
διαφάνειας και η
δημοσίευση μετρήσεων για
την ρύθμιση του
περιεχομένου είναι ένα
ακόμα σημαντικό βήμα. Το
Facebook υποστηρίζει ότι
καταβάλλει κάθε δυνατή
προσπάθεια για την
αντιμετώπιση του
εξτρεμιστικού
περιεχομένου, αλλά ο
ισχυρισμός αυτός είναι
δύσκολο να εκτιμηθεί
χωρίς πλήρη στοιχεία
-και το Facebook είναι
μια από τις καλύτερες
εταιρείες από πλευράς
παροχής στοιχείων. Εκτός
από την αναφορά του
αριθμού των λογαριασμών
που κλείνουν ή του
περιεχομένου που
μπλοκάρουν, οι μεγάλες
εταιρείες θα πρέπει να
απαριθμήσουν τα
προβλήματα περιεχομένου
που έχουν επισημανθεί
από χρήστες
(user-flagged content
problems) και τον χρόνο
που τους χρειάζεται για
να αντιδράσουν. Πρέπει
επίσης να αναφέρουν το
ποσοστό σωστού και
λάθους: Δηλαδή, αν το
Facebook αφαιρέσει
εκατομμύρια βίντεο, ποιο
ποσοστό αυτών ήταν
πραγματικά νόμιμο
περιεχόμενο (για
παράδειγμα, ένας
οργανισμός ειδήσεων που
χρησιμοποιεί ένα κλιπ
του μανιφέστου του El
Paso ή του βίντεο στο
Christchurch); Τέτοιες
αναφορές θα βοηθούσαν να
διασφαλιστεί ότι οι
εταιρείες δεν αντιδρούν
υπερβολικά στο
περιεχόμενο που μοιάζει
με [περιεχόμενο] μίσους,
επιτρέποντας καλύτερες
κρίσεις σχετικά με το
πότε θα μπορούσε να
κατασταλεί ο νόμιμος
λόγος, ποιες μέθοδοι
σήμανσης περιεχομένου
είναι πιο
αποτελεσματικές, και εάν
οι αλγόριθμοι της
τεχνητής νοημοσύνης (AI)
είναι αποτελεσματικοί.
Τέλος, αν και οι
εκκλήσεις για απαγόρευση
[17] [των βίντεο]
ζωντανής ροής
(live-streaming) και
άλλων μορφών media δεν
είναι ρεαλιστικές, το
Facebook και άλλες
εταιρείες μπορούν να
θέσουν όρια σε αυτά, με
τρόπους που δεν
εμποδίζουν την κύρια
λειτουργία τους. Μετά
τους πυροβολισμούς στο
Christchurch, το
Facebook δημιούργησε μια
πολιτική «ενός
χτυπήματος» (one-strike)
[18] που εμποδίζει τους
χρήστες οι οποίοι
ασχολούνται με
τρομοκρατικό περιεχόμενο
με συγκεκριμένους
τρόπους -για παράδειγμα,
με το να μοιράζουν μια
δήλωση από μια
τρομοκρατική ομάδα χωρίς
να προσθέτουν κανένα
πλαίσιο περιεχομένου
(context)- από το να
χρησιμοποιούν το
Facebook Live. Παρομοίως,
σε μια προσπάθεια να
μειώσει την
παραπληροφόρηση και την
εξτρεμιστική προπαγάνδα
στην Ινδία, το Facebook
έχει θέσει όρια [19]
στον αριθμό των χρηστών
που μπορούν να
μεταφέρουν μηνύματα στο
WhatsApp. Τέτοιοι
περιορισμοί δεν θέτουν
σε κίνδυνο την ελεύθερη
έκφραση των περισσότερων
χρηστών του Facebook,
αλλά ταυτόχρονα
δυσκολεύουν σημαντικά
την μετάδοση και κοινή
χρήση τρομοκρατικών
επιθέσεων σε πραγματικό
χρόνο. Άλλα κοινωνικά
δίκτυα και υπηρεσίες
κοινής χρήσης αρχείων
πρέπει να ακολουθήσουν
το παράδειγμα.
Μεταρρυθμίσεις όπως
αυτές δεν θα είναι
πανάκεια. Ωστόσο, χωρίς
αυτές το πρόβλημα μόνο
θα αυξηθεί. Την ώρα που
γινόταν η τελευταία
σύνοδος στον Λευκό Οίκο
την περασμένη Παρασκευή,
ο Crusius ήταν ο
τελευταίος γνωστός
λευκός εθνικιστής που
ακολούθησε το μοντέλο
του Tarrant. Το επόμενο
βράδυ δεν ήταν πλέον. Το
Σάββατο, ένας νεαρός
Νορβηγός έβαλε το δικό
του μήνυμα κατά των
μεταναστών στο 8chan,
επαινώντας τον Tarrant
και τον Crusius,
κατονομάζοντάς τους.
Αργότερα εκείνο το βράδυ,
εισήλθε σε ένα τέμενος
έξω από το Όσλο,
οπλισμένο με ένα όπλο
χειρός και δύο όπλα «σαν
κυνηγετικά» και άνοιξε
πυρ.
Ο DANIEL BYMAN είναι
καθηγητής στην Σχολή
Διεθνούς Υπηρεσίας Walsh
στο Πανεπιστήμιο
Georgetown και βασικός
συνεργάτης στο Brookings
Institution.
Ο CHRISTOPHER MESEROLE
είναι συνεργάτης στο
Brookings Institution.
Foreign Affairs
http://www.foreignaffairs.gr/articles/72424/daniel-byman-kai-christopher-meserole/pos-oi-big-tech-etaireies-tha-katapolemisoyn-tin-leyki-ratsistik?page=show
https://www.foreignaffairs.com/articles/united-states/2019-08-15/how-big-tech-can-fight-white-supremacist-terrorism
|
|
Greek Finance Forum |
|
Σχόλια Χρηστών |
|
|
|
|
|
|