Ο «ιός» των deepfakes: Ένα μέλλον χωρίς αλήθεια;

Τα fake news έχουν γίνει δυστυχώς εδώ και πολύ καιρό κομμάτι της καθημερινότητας, ένα - αρνητικό - σημάδι των καιρών, μία πρόκληση για τη δημοσιογραφία, την ενημέρωση, την ίδια την πραγματικότητα.

Αγγελική Δημοπούλου 14/01/2020 | 13:39

Πολλοί θα πουν πως δεν είναι και τόσο δύσκολο να αναγνωρίσει κανείς μια ψεύτικη είδηση. Ή και να την ελέγξει μέσω της αξιοπιστίας των πηγών που την αναφέρουν. Κι όμως, όπως έχει αποδειχτεί τα fake news έχουν δύναμη σε πολύ μεγάλη μερίδα του κοινού κι έχουν σε συγκεκριμένες περιπτώσεις καταφέρει όχι μόνο να επηρεάσουν την κοινή γνώμη, αλλά και εκλογικά και πολιτικά αποτελέσματα έχοντας τελικά μετατραπεί σε ένα όπλο προπαγάνδας. 

Όντας σε καιρούς που η τεχνολογία είναι κυρίαρχη σε κάθε τομέα, φέρνοντας συνεχώς κάτι καινούργιο, τα fake news δεν σταμάτησαν στην διοχέτευση της ψεύτικης πληροφορίας. Και κάπου εκεί μπήκαν στη ζωή μας τα deepfakes. Τα βίντεο - και οι φωτογραφίες - που δημιουργούνται με την χρήση τεχνητής νοημοσύνης γίνονται όλο και πιο συνηθισμένα και πειστικά. Μπορούν να γίνουν και επικίνδυνα; 

Αν κάποιος έχει δει ένα βίντεο στο οποίο ο Τζον Σνόου ζητάει συγγνώμη από τους φαν του Game of Thrones για το απογοητευτικό τέλος της σειράς, τότε έχει δει ένα deepfake. Το ίδιο έχει συμβεί αν έχει δει τον Ομπάμα να αποκαλεί τον Τραμπ «ποταπό» ή τον Ζούκερμπεργκ να παραδέχεται με θράσος ότι το Facebook έχει τον πλήρη έλεγχο κλεμμένων δεδομένων δισεκατομμυρίων ανθρώπων. 

Deepfakes go viral

Αυτό που συμβαίνει είναι ότι στον 21ο αιώνα το photoshop για τη δημιουργία μιας fake φωτογραφίας έχει ξεπεραστεί. Πλέον υπάρχει μια μορφή τεχνητής νοημοσύνης - ονομάζεται deep learning (βαθιά μάθηση) - που χρησιμοποιείται για τη δημιουργία ψεύτικων εικόνων, βίντεο, ηχητικών και γεγονότων. Από αυτή την τεχνική πήραν το όνομά τους και τα deep fakes. 

Με την τεχνική αυτή μπορεί κανείς να βάλει στο στόμα κάποιου λέξεις που δεν είπε ποτέ, να κάνει τον εαυτό του πρωταγωνιστή στην αγαπημένη του ταινία και γενικώς να τοποθετήσει κάποιον, όπου θέλει και να τον βάλει να κάνει ότι θέλει. Ακούγεται κάπως δυστοπικό. Ίσως κάποιος θυμηθεί την ταινία Simone με τον Αλ Πατσίνο να δημιουργεί εκ του μηδενός την - ανύπαρκτη - μεγαλύτερη σταρ του πλανήτη που από ένα σημείο και μετά κάνει τα πάντα για να την εξευτελίσει και τελικά εξαφανίσει. Όμως τα deepfakes δεν είναι καθόλου ασυνήθιστα πια και ενδεχομένως σύντομα να αποκτήσουν viral διαστάσεις. 

Πολλά από τα deepfakes είναι πορνογραφικά. Η εταιρεία τεχνητής νοημοσύνης Deeptrace ανακάλυψε τον Σεπτέμβριο του 2019, 15.000 τέτοια βίντεο στο διαδίκτυο, διαπιστώνοντας παράλληλα ότι ο αριθμός τους είχε διπλασιαστεί μέσα σε εννέα μήνες. Από αυτά το 96% ήταν πορνογραφικά και στο 99% πρόσωπα γνωστών διάσημων γυναικών είχαν αντικαταστήσει αυτά των πορνοστάρ. 

Αυτό φυσικά δεν είναι καθόλου απλό ζήτημα. Ακόμη κι αν υποθέσουμε ότι ένα πορνογραφικό βίντεο με μια διάσημη ηθοποιό δεν γίνει πιστευτό ακριβώς γιατί η πρωταγωνίστρια είναι διάσημη - και χωρίς φυσικά αυτό να σημαίνει ότι δεν είναι μεμπτό - τι θα συμβεί στην περίπτωση που μια καθημερινή κοπέλα γίνει πρωταγωνίστρια εν αγνοία και παρά τη θέλησή της. 

Εν ολίγης, με δεδομένο ότι οι νέες τεχνικές επιτρέπουν στον οποιονδήποτε να δημιουργήσει μια ψεύτικη φωτογραφία ή ένα ψεύτικο βίντεο είναι σχεδόν βέβαιο ότι η τακτική αυτή θα εξαπλωθεί στην λεγόμενη «revenge pornography» (πορνογραφία εκδίκησης). Μάλιστα η Ντάνιελ Σίτρον, καθηγήτρια στο Πανεπιστήμιο της Βοστώνης, προειδοποιεί ότι τα deep fakes μπορούν να στραφούν ιδιαιτέρως κατά των γυναικών, των οποίων η θέση ακόμη και σημερινή κοινωνία είναι ιδιαζόντως ευάλωτη. «Η τεχνολογία των deepfake γίνεται όπλο κατά των γυναικών. Εκτός από το πορνό μπορεί να χρησιμοποιηθεί και για σάτιρα, παρωδία ή την πρόκληση ζημίας σε κάποιον», εξηγεί στον Guardian. 

Η τεχνολογία των deep fakes μπορεί να χρησιμοποιηθεί για να δημιουργήσει απίστευτα πειστικές αλλά εντελώς ψεύτικες φωτογραφίες και βίντεο. Εκτός αυτού έχει ήδη χρησιμοποιηθεί για να στηρίξει εντελώς ψεύτικα προφίλ. Για παράδειγμα στο Linkedln αλλά και το twitter έχουν διαπιστωθεί κατά καιρούς ψεύτικα προφίλ, όπως μια ανύπαρκτη δημοσιογράφος του Bloomberg Maisy Kinsley ή μια Katie Jones που δήλωνε ότι εργάζεται στο Κέντρο Στρατηγικών και Διεθνών Σπουδών, αλλά πιστεύεται ότι είναι ένα deepfake προφίλ που δημιουργήθηκε για μια ξένη επιχείρηση κατασκοπείας.

Τα deepfakes μπορούν να υπάρξουν και ως ηχητικά. Για παράδειγμα μπορεί κανείς να δημιουργήσει τον φωνητικό κλώνο ενός προσώπου. Μόλις τον περασμένο Μάρτιο, ο επικεφαλής μιας βρετανικής θυγατρικής εταιρείας που ανήκει σε μια γερμανική εταιρεία ενέργειας κατέβαλε σχεδόν 200.000 λίρες σε έναν τραπεζικό λογαριασμό της Ουγγαρίας αφού του τηλεφώνησε ένας απατεώνας που του μίλησε με τη φωνή του CEO της γερμανικής μητρικής. Η εταιρεία πιστεύει ότι η φωνή που χρησιμοποιήθηκε ήταν deepfake, αν και τα στοιχεία είναι κάπως ασαφή. Παρόμοιες απάτες έχουν γίνει πάντως με φωνητικά μηνύματα μέσω WhatsApp.

Διαβάστε τη συνέχεια στο tvxs.gr

To koutipandoras.gr θεωρεί δικαίωμα του κάθε αναγνώστη να εκφράζει ελεύθερα τις απόψεις του. Ωστόσο, τονίζουμε ρητά ότι δεν υιοθετούμε τις απόψεις αυτές καθώς εκφράζουν τον εκάστοτε χρήστη και μόνο αυτόν. Παρακαλούμε πολύ να είστε ευπρεπείς στις εκφράσεις σας. Τα σχόλια με ύβρεις θα διαγράφονται, ενώ οι χρήστες που προκαλούν ή υβρίζουν θα αποκλείονται.