Ρατσιστικός αλγόριθμος του twitter «κόβει» μαύρους από φωτογραφίες

Θύμα του «ρατσιστή αλγορίθμου» του twitter έπεσε ακόμα και ο πρώην πρόεδρος των ΗΠΑ, Μπάρακ Ομπάμα

Συραγώ Λιάτσικου 21/09/2020 | 18:49

Ένας «ρατσιστής αλγόριθμος» έχει φέρει μεγάλη αναστάτωση στο Twitter, καθώς υπάρχουν αναφορές σε μια σειρά από παραδείγματα όπου η αυτόματη περικοπή του twitter δείχνει ιδιαίτερη προτίμηση στους λευκούς, εντάσσοντάς τους πάντα εντός κάδρου, ενώ αφήνει έξω από αυτό ανθρώπους με μαύρη επιδερμίδα.

Το Twitter έφτασε στο σημείο να ζητήσει συγγνώμη για τον «ρατσιστικό» αλγόριθμο περικοπής εικόνων, μετά τα έντονα επικριτικά σχόλια που δέχθηκε, αφού οι χρήστες του ανακάλυψαν ότι η λειτουργία εστίαζε αυτόματα σε λευκά πρόσωπα και όχι σε μαύρα.

Ενώ η εταιρεία υποστηρίζει ότι πριν τεθεί σε εφαρμογή η παραπάνω λειτουργία είχε περάσει από προβλεπόμενα τεστ για την αποφυγή αναπαραγωγής κάποιας προκατάληψης, φαίνεται ότι τα τεστ αυτά δε λειτούργησαν και πολύ καλά, με αποτέλεσμα να προκύπτουν ζητήματα ρατσιστικής φύσης, στον τρόπο που ο αλγόριθμος «αποφασίζει» τι θα περικόψει από μια εικόνα.

Το Twitter έχει θέσει εδώ και κάποιο καιρό σε εφαρμογή την αυτόματη περικοπή φωτογραφιών με σκοπό να μην καταλαμβάνουν τόσο πολύ χώρο στο χρονολόγιο αλλά και για να μπορούν να εμφανίζονται περισσότερες εικόνες στο ίδιο tweet. Η εταιρεία χρησιμοποιεί διάφορα αλγοριθμικά εργαλεία για να προσπαθήσει να επικεντρωθεί στα πιο σημαντικά μέρη της εικόνας, προσπαθώντας να διασφαλίσει ότι τα πρόσωπα και το κείμενο θα βρίσκονται εντός της εικόνα μετά την περικοπή της.

Πολλοί όμως ήταν οι χρήστες που άρχισαν να εντοπίζουν ελαττώματα στη συγκεκριμένη λειτουργία κατά τη διάρκεια του σαββατοκύριακου. Ο πρώτος που υπογράμμισε το ζήτημα ήταν ο διδακτορικός φοιτητής, Κόλιν Μάντλαντ, ο οποίος εντόπισε τη ρατσιστική «συμπεριφορά», περιγράφοντας μια άλλη περίπτωση φυλετικής προκατάληψης στην πλατφόρμα Zoom.

Όταν o Μάντλαντ, που είναι λευκός, δημοσίευσε μια εικόνα του εαυτού του και ενός μαύρου συναδέλφου του που είχε σβηστεί από μια κλήση Zoom, αφού ο αλγόριθμος της εφαρμογής δεν αναγνώρισε το πρόσωπό του, το Twitter έκοψε αυτόματα την εικόνα, δείχνοντας μόνο τον Μάντλαντ.

Φυσικά ο Μάντλαντ, δεν ήταν ο μόνος. Ακολούθησαν κι άλλοι χρήστες του Twitter που προχώρησαν σε πιο στοχευμένα πειράματα, μεταξύ των οποίων, ο επιχειρηματίας Τόνι Άρτσερι, ο οποίος ανακάλυψε ότι ο αλγόριθμος έκοβε κατ' επανάληψη μια εικόνα του γερουσιαστή των ΗΠΑ Μιτς Μακόνελ και του Μπάρακ Ομπάμα, με τον ίδιο τρόπο. Εξαφανίζοντας, δηλαδή, όλες τις φορές τον πρώην πρόεδρο των ΗΠΑ.

Παρόμοια αποτελέσματα προέκυψαν από κοινές εικόνες μοντέλων, τους χαρακτήρες των Simpsons, Λένι και Καρλ, ακόμη και με λαμπραντόρ, χρυσά και μαύρα.

Σε δήλωσή του, ο εκπρόσωπος του Twitter παραδέχτηκε ότι η εταιρεία έχει ακόμα δουλειά να κάνει. «Η ομάδα μας έκανε τεστ για τον εντοπισμό ενδεχόμενων προκαταλήψεων, αλλά δεν προέκυψε κάποιο αποτέλεσμα ότι εντοπίζεται κάποια προκατάληψη σχετικά με τη φυλή ή το φύλο στις δοκιμές μας. Ωστόσο, από αυτά τα παραδείγματα είναι σαφές ότι πρέπει να κάνουμε περισσότερες αναλύσεις. Θα συνεχίσουμε να μοιραζόμαστε ό,τι μαθαίνουμε, και σε ποιες ενέργειες προχωράμε, και θα ανοίξουμε την ανάλυσή μας, ώστε να μπορεί να υπάρχει έλεγχος ή αναπαραγωγή από άλλους.»

Η περίπτωση του Twitter δεν είναι ούτε η πρώτη, ούτε η μοναδική. Κι άλλες εταιρείες τεχνολογίας έχουν κληθεί να δώσουν εξηγήσεις για ρατσιστική συμπεριφορά του αλγορίθμου τους.

Το 2018, αποκαλύφθηκε ότι η Google απλώς απαγόρευσε στην υπηρεσία «Φωτογραφίες» να μην ονομάζει ποτέ τίποτα ως γορίλλα, χιμπατζή ή μαϊμού, αφού η εταιρεία είχε δεχθεί επανειλημμένα πυρά για εικόνες μαύρων ανθρώπων με αυτούς τους ρατσιστικούς χαρακτηρισμούς.

* Με πληροφορίες από Guardian

To koutipandoras.gr θεωρεί δικαίωμα του κάθε αναγνώστη να εκφράζει ελεύθερα τις απόψεις του. Ωστόσο, τονίζουμε ρητά ότι δεν υιοθετούμε τις απόψεις αυτές καθώς εκφράζουν τον εκάστοτε χρήστη και μόνο αυτόν. Παρακαλούμε πολύ να είστε ευπρεπείς στις εκφράσεις σας. Τα σχόλια με ύβρεις θα διαγράφονται, ενώ οι χρήστες που προκαλούν ή υβρίζουν θα αποκλείονται.