Είναι γνωστό πως το διαδίκτυο έχει την καλή του πλευρά. Την άμεση ενημέρωση, για παράδειγμα. Ή το να μπορείς να βρεις οτιδήποτε θες μέσα σε ελάχιστα δευτερόλεπτα και πολλά άλλα. Είναι, όμως, και γνωστό πως το διαδίκτυο έχει και την κακή του, την σκοτεινή του, πλευρά. Μπορεί να γίνει εργαλείο στα χέρια κάθε απατεώνα και κάθε κακοποιού.
Μέχρι τώρα ένα από τα μεγαλύτερα «αγκάθια» του internet είναι τα fake news. Υπάρχουν αυτά που είναι κακοστημένα και γίνονται εύκολα αντιληπτά αλλά υπάρχουν και αυτά που έχουν στηθεί με τόσο αριστοτεχνικό τρόπο που δύσκολα μπορείς να καταλάβεις που αρχίζει και που τελειώνει το ψέμα.
Επειδή, ωστόσο, το internet εξελίσσεται όσο προχωράει και η τεχνολογία, φαίνεται, πως σε ότι αφορά το κομμάτι της ενημέρωσης τα δύσκολα είναι μπροστά μας. Ήδη από τις αρχές της περασμένης χρόνιας έχουν αρχίσει να κάνουν ολοένα και πιο συχνά την εμφάνισή τους τα deepfakes τα οποία ήρθαν για να μείνουν και να κάνουν τα fake news να μοιάζουν… παιχνιδάκι.
Ουσιαστικά deepfakes υπήρχαν και πριν το 2019, ωστόσο, ένα έμπειρο μάτι μπορούσε εύκολα να τα διακρίνει. Για την ακρίβεια η πρώτη φορά που εντοπίστηκε ο συγκεκριμένος όρος ήταν το 2017.
Τους τελευταίους μήνες, όμως, αυτό αλλάζει δραματικά με τους ειδικούς να προειδοποιούν πως αν όλο αυτό δεν ελεγχθεί και μάλιστα γρήγορα, μπορεί σύντομα το φαινόμενο αυτό να εξελιχθεί σε μάστιγα που θα ανεβάζει και θα κατεβάζει κυβερνήσεις σε οποιαδήποτε γωνιά του πλανήτη!
Στην ουσία πρόκειται για μια νέα τεχνολογική επανάσταση και ουδεμία σχέση έχει με τον απλό τρόπο που μπορεί κάποιος να στήσει fake news. Τα deepfakes χρησιμοποιούν ακόμα και τον τομέα της τεχνητής νοημοσύνης. Ουσιαστικά μιλάμε για ηχητικά ή βίντεο, όπου κάποιος εμφανίζεται να λέει ή να κάνει πράγματα που ουδέποτε είπε ή έκανε!
Η παραγωγή των deep fakes γίνεται, όπως ήδη αναφέρθηκε, μέσω της τεχνητής νοημοσύνης και τη δυνατότητα που έχει η συγκεκριμένη τεχνολογία να αποκρυπτογραφεί κινήσεις και ομιλίες ενός ατόμου. Να «διαβάζει», δηλαδή, τον τρόπο που ένας άνθρωπος κινείται όταν μιλάει, το ηχόχρωμα της φωνής του ανάλογα με το πότε είναι θυμωμένος ή χαρούμενος και στη συνέχεια να μετατρέπεται σε έναν μίμο τόσο καλό που πρακτικά να καθιστά από πολλή δύσκολη έως αδύνατη τη διάκριση ανάμεσα στο πραγματικό και το πλαστό!
Πριν από περίπου ένα χρόνο, η Deeptrace, μια εταιρεία κυβερνοασφάλειας με έδρα στο Άμστερνταμ που κατασκευάζει εργαλεία για τον εντοπισμό ψευδών βίντεο, δημοσιοποίησε έρευνα που στόχο έχει να ποσοτικοποιήσει την ανάπτυξη του φαινομένου των deepfake. Σύμφωνα με τα ευρήματα, τους τελευταίους στο πρώτο εννεάμηνο του 2019 διπλασιάστηκε σε σύγκριση με εκείνα του 2018 στα 14.678!
Η τεράστια πλειοψηφία (96%) αυτών των βίντεο είναι πορνογραφικού περιεχομένου. Ένας πολύ μικρότερος αριθμός βίντεο βάζει στο στόχαστρο πολιτικούς ή γνωστούς επιχειρηματίες. Είναι ενδεικτικό πως ένα 2% των deepfake βίντεο που εντόπισε η έρευνα στο YouTube εμφανίζουν προσωπικότητες από τον επιχειρηματικό χώρο.
Από τους πρώτους που ένιωσαν στο πετσί τους το τι κακό μπορεί να προκαλέσουν τα deepfake ήταν η ηθοποιός Scarlett Johansson που είδε το πρόσωπό της να πρωταγωνιστεί σε βίντεο πορνογραφικού περιεχομένου τα οποία ουδέποτε η ίδια είχε τραβήξει. Σε ανάλογου περιεχομένου βίντεο είχαν πρωταγωνιστήσει και η Ολλανδή τηλεοπτική παρουσιάστρια Dionne Stax αλλά και η η Ινδή δημοσιογράφος Rana Ayyub. Και στις τρεις περιπτώσεις το αποτέλεσμα είναι ίδιο. Τα βίντεο τα είδαν εκατομμύρια άνθρωποι και αν και κατέβηκαν από τις πλατφόρμες που είχαν αναρτηθεί πλέον οι περισσότεροι πιστεύουν πως όντως οι γυναίκες αυτές πρωταγωνιστούσαν σε ροζ βίντεο.
Θα πρέπει να αναφερθεί, μάλιστα, πως στην περίπτωση της Ινδής δημοσιογράφου η δημιουργία του deepfake βίντεο έγινε ως προϊόν εκβιασμού προκειμένου να σταματήσει να ερευνά το βιασμό και τη δολοφονία ενός οκτάχρονου κοριτσιού από το Κασμίρ!
Όπως εύκολα αντιλαμβάνεται κανείς, ωστόσο, δεν είναι όλα τα deepfake… ροζ. Σύμφωνα με τη Wall Street Journal, ένας Βρετανός διευθυντής επιχείρησης έπεσε θύμα ενός audio deep fake και νομίζοντας ότι είχε μιλήσει με το διευθυντή μιας ουγγρικής εταιρείας, ενέκρινε την αποστολή 250.000 λιρών σε λογαριασμό που του δόθηκε.
Θύματα deepfake έχουν πέσει επίσης η πρόεδρος της αμερικανικής Βουλής Νάνσι Πελόζι (τροποποιήθηκε η φωνή της και επιβραδύνθηκαν οι χειρονομίες της, κατά τη διάρκεια πραγματικών ομιλιών της, με τρόπο που να εμφανίζεται μεθυσμένη) αλλά και ο πρώην και ο νυν πρόεδρος των ΗΠΑ. Στο διαδίκτυο εύκολα μπορεί να βρει κάποιος τα fake videos και του Ομπάμα και του Τραμπ.
Η πιο εξωφρενική, εξοργιστική και επικίνδυνη περίπτωση, ωστόσο, έρχεται από τη μακρινή Γκαμπόν, όπου η μακρά απουσία του προέδρου σε συνδυασμό με ένα πιθανώς deepfake βίντεο, έπεισε τις ένοπλες δυνάμεις ότι ο Πρόεδρος έχει πεθάνει, ή δεν είναι σε θέση να ασκήσει τα καθήκοντά του. Αυτό είχε ως αποτέλεσμα στις αρχές Ιανουαρίου του 2019 μονάδες του στρατού να καταλάβουν τη δημόσια ραδιοφωνία και τηλεόραση.
[iframe style=”border: none; overflow: hidden;” src=”https://www.facebook.com/plugins/video.php?href=https%3A%2F%2Fwww.facebook.com%2Ftvgabon24%2Fvideos%2F324528215059254%2F&show_text=1&width=560″ width=”560″ height=”426″ frameborder=”0″ scrolling=”no” allowfullscreen=”allowfullscreen”]
Οι επικεφαλής αξιωματικοί τους έκανα εκτενή αναφορά στην κατάσταση που προκαλούν τα προβλήματα υγείας του προέδρου Αλί Μπονγκό και δήλωσαν πως οι ίδιοι αναλαμβάνουν τις τύχες της χώρας. Ενάμιση χρόνο μετά, κανείς ειδικός δεν έχει αποφανθεί με βεβαιότητα αν το βίντεο ήταν αυθεντικό ή όχι. Το πραξικόπημα πάντως απέτυχε, και ο Μπονγκό που σταδιακά άρχισε να κάνει και πάλι δημόσιες εμφανίσεις, παραμένει πρόεδρος της χώρας.
Οι επιπτώσεις των deepfakes στην οικονομία, την πολιτική, το έγκλημα και την επικοινωνία είναι δυνητικά τεράστιες.
Στην πραγματικότητα, ωστόσο, αν και μέχρι στιγμής αυτοί που φαίνεται να είναι στο στόχαστρο είναι οι επώνυμοι (από δημοσιογράφους και ηθοποιούς, μέχρι πολιτικούς και οικονομικούς παράγοντες), οι απλοί άνθρωποι είναι αυτοί που κινδυνεύουν πολύ περισσότερο και αυτό γιατί προφανώς και δεν έχουν την ίδια ευκολία στο να βρουν τρόπους να αμυνθούν απέναντι σε τέτοιου είδους επιθέσεις.
Κάποιοι ερευνητές έχουν ήδη δημιουργήσει κάποια συστήματα ανίχνευσης deepfake υλικού, τα οποία εξετάζουν στοιχεία όπως ο φωτισμός, οι σκιάσεις, οι κινήσεις του προσώπου προκειμένου να καθοριστεί η γνησιότητα του περιεχομένου.
Οι ερευνητές αυτοί θεωρούν πως επειδή ακριβώς τα deepfakes βασίζονται στην τεχνολογία της τεχνητής νοημοσύνης, κάποιοι πιστεύουν ότι στην τεχνητή νοημοσύνη μπορεί να βρίσκεται η λύση στο πρόβλημα. Μια άλλη λύση που επίσης προκρίνεται σε αυτή τη φάση, είναι η προσθήκη ενός είδους φίλτρου στο αρχείο μιας εικόνας έτσι ώστε να «κλειδώνει» μην μπορεί να χρησιμοποιηθεί για την δημιουργία deepfake περιεχομένου.
Αναμφισβήτητα, πάντως, πρόκειται για μια ακόμα μεγάλη πρόκληση.
Σε μια πρόσφατη έκθεσή του, το ερευνητικό Ινστιτούτο Brookings συνοψίζει ως εξής το εύρος των πολιτικών και κοινωνικών κινδύνων που αντιπροσωπεύουν τα deepfakes: «διαστρέβλωση του δημοκρατικού διαλόγου, χειραγώγηση εκλογικών διαδικασιών, απόσυρση της εμπιστοσύνης στους θεσμούς, φθορά του δημοσιογραφικού λόγου, διεύρυνση των κοινωνικών διαχωρισμών, υπονόμευση της δημόσιας ασφάλειας».
Discussion about this post