Για τις
εταιρείες που δημιουργούν τεχνητή νοημοσύνη, η
συλλογή δεδομένων αποδεικνύεται ότι
συγκαταλέγεται στις ηθικά πιο αμφιλεγόμενες
πτυχές ολόκληρης της διαδικασίας. Σχεδόν σε
εβδομαδιαία βάση εμφανίζεται κάποια είδηση που
αφορά σφάλματα μιας εταιρείας σε σχέση με την
ηθική και τη δεοντολογία των δεδομένων που
χρησιμοποιεί για να εκπαιδεύσει τα συστήματα
τεχνητής νοημοσύνης της. Κατά έναν ειρωνικό
τρόπο, αυτό ισχύει ακόμα και όταν οι εταιρείες
επιδιώκουν να συλλέξουν νέα σύνολα δεδομένων ειδικά
για να διορθώσουν τις εγγενείς μεροληψίες των
παλαιών.
Η Google αποτελεί μια
τέτοια περίπτωση. Η
εταιρεία βρέθηκε στο
στόχαστρο των επικριτών
μετά από δημοσίευμα της The
New York Daily News σύμφωνα
με το οποίο εργολάβος
που εργάζεται για τον
τεχνολογικό κολοσσό προσέφερε
σε μαύρους ανθρώπους
δωροκάρτες αξίας 5
δολαρίων σε αντάλλαγμα
για τη συμμετοχή τους σε
μια δημογραφική έρευνα
και σε ένα «παιχνίδι
selfie». Το παιχνίδι
συμπεριελάμβανε την
εκτέλεση καθηκόντων όπως
την παρακολούθηση μιας
κουκκίδας στην οθόνη
ενός κινητού τηλεφώνου
που οι υπάλληλοι του
εργολάβου είχαν μαζί
τους.
Αυτό που ο εργολάβος δεν
κατέστησε σαφές στους
συμμετέχοντες ήταν ότι
ενώ οι άνθρωποι έπαιζαν,
το τηλέφωνο τούς
τραβούσε φωτογραφίες οι
οποίες αργότερα θα
χρησιμοποιούνταν για την
κατάρτιση ενός
αλγορίθμου αναγνώρισης
προσώπου. Οι εργαζόμενοι
για τον εργολάβο – την
εταιρεία προσλήψεων
Randstad – προσέγγιζαν
άστεγους, σπουδαστές και
ανθρώπους που
παρευρέθηκαν στα βραβεία
BET στην Ατλάντα, πολλοί
από τους οποίους
αργότερα δήλωσαν ότι
αγνοούσαν ότι κάπου
θαμμένο στα νομικά
έγγραφα που είχαν
υπογράψει ήταν το
δικαίωμα η εταιρεία να
χρησιμοποιήσει τα
πρόσωπά τους με αυτόν
τον τρόπο. Κάποιοι
εργαζόμενοι της Randstad
δήλωσαν στη The Daily
News ότι οι μάνατζερ της
Google τους έδωσαν
εντολή να απευθύνονται
ειδικά σε αστέγους
επειδή θα ήταν απίθανο
να καταλάβουν σε τι
συμφωνούσαν και ήταν «λιγότερο
πιθανό να πουν κάτι στα
ΜΜΕ».
Το σκεπτικό του πρότζεκτ
ήταν στην πραγματικότητα
αρκετά ευγενές: τα
προηγούμενα συστήματα
αναγνώρισης προσώπου
έχει βρεθεί ότι έχουν
πολύ λιγότερη ακρίβεια
με πιο σκουρόχρωμα
πρόσωπα, εν μέρει επειδή
τα μαύρα πρόσωπα
υπο-εκπροσωπούνται στα
μεγάλα σύνολα δεδομένων
που χρησιμοποιούνται για
την εκπαίδευση των
συστημάτων. Η Google
δήλωσε ότι θέλει να
δημιουργήσει ένα
καλύτερο σύνολο
δεδομένων, έτσι ώστε η
αναγνώριση προσώπου –
που λέει ότι θα
ενεργοποιεί τη
λειτουργία ξεκλειδώματος
στο νέο της τηλέφωνο
Pixel 4 – θα είναι όσο
το δυνατόν πιο
ισορροπημένη.
Ωστόσο, η έλλειψη
διαφάνειας που
χρησιμοποιήθηκε για τη
συλλογή του νέου συνόλου
δεδομένων προκαλεί
αποτροπιασμό. (Η Google
ανέφερε ότι ανέστειλε
προσωρινά το έργο και
ότι ερευνά τη Randstad
για πιθανή παραβίαση των
πολιτικών της σχετικά με
τη διαφάνεια και τη
συναίνεση για έρευνα).
Η Google δεν είναι η
μόνη εταιρεία που
συμπεριφέρεται με αυτόν
τον τρόπο. Νωρίτερα
φέτος, η IBM προσπάθησε
να συγκεντρώσει ένα πιο
διαφοροποιημένο σύνολο
δεδομένων ενός
εκατομμυρίου προσώπων
και στη συνέχεια να το
διαθέσει ελεύθερα σε
ακαδημαϊκούς ερευνητές.
Ωστόσο, η εταιρεία
δημιούργησε τη βάση
δεδομένων με την
απόσπαση εικόνων από την
ιστοσελίδα διαμοιρασμού
φωτογραφιών Flickr και
από άλλους δημόσιους
ιστοτόπους, χωρίς να
ζητήσει τη συγκατάθεση
κανενός από αυτούς που
εμφανίζονταν στις
φωτογραφίες…
Αυτές οι εταιρείες θα
έπρεπε να γνωρίζουν
καλύτερα. Και το γεγονός
ότι συνεχίζουν να κάνουν
λάθος μας αναγκάζει να
αναρωτηθούμε, εν τέλει,
κατά πόσο θέλουν
πραγματικά να κάνουν το
σωστό.
Fortune
Greek Finance Forum
Σχόλια Χρηστών
Trading
σε ελληνικές μετοχές μέσω
της Πλατφόρμας Συναλλαγών Plus 500 (Κάντε Click και
Κατεβάστε την μοναδική πλατφόρμα συναλλαγών, χωρίς καμία
οικονομική υποχρέωση, περιλαμβάνει και λογαριασμό "επίδειξης"
- Demo).