Deepfake και… δεν θα πιστεύετε στα μάτια σας - Τι είναι και πώς προφυλασσόμαστε
Ο Τομ Κρουζ χορεύει μπροστά στα μάτια μας. Τον παρακολουθούν 94 εκατομμύρια άνθρωποι. Κουρεύεται. Το αναπαράγουν 20 εκατομμύρια φορές. Ετοιμάζεται να πάει να παραλάβει κάποιο βραβείο… Αμέτρητα βίντεο με τον γνωστό και αγαπημένο ηθοποιό, εκατοντάδες εκατομμύρια προβολές και χιλιάδες σχόλια θαυμασμού και αγάπης.
Μόνο που αυτός ο Τομ Κρουζ, δεν είναι ο κανονικός, γνήσιος χολιγουντιανός αστέρας, αλλά κάποιος χρήστης του διαδικτύου που χειρίζεται εξαιρετικά τα εργαλεία της τεχνολογίας. Και όποιος κατάλαβε, κατάλαβε ή μάλλον…Όποιος δεν κατάλαβε, δεν κατάλαβε! Τα σχόλια είναι χαρακτηριστικά…
«Σε αγαπώ τόσο πολύ Tom» « Είσαι το είδωλό μου Tom Cruise» «Νόμιζα ότι ήταν ο Tom, 30 χρόνια πριν» «Αποκλείεται να έμοιαζε τόσο νέος στις μέρες μας. Αυτό το βίντεο θα μπορούσε να με ξεγελάσει» «Αυτό με μπερδεύει τόσο πολύ!» «Είναι περισσότερο Tom Cruise από τον πραγματικό Tom Cruise»…
Είναι μερικές μόνον από τις αναρτήσεις ανθρώπων που βλέπουν, αλλά δεν ξέρουν αν πρέπει να πιστέψουν και ακούν, αλλά ακόμα και η ίδια η χροιά της φωνής δεν πρέπει να τους πείσει. Με μια λέξη…Deepfake!
Aπό τα fake news, τη γνωστή διασπορά ψευδών ειδήσεων, περάσαμε στη βαθιά μηχανική μάθηση. Η σκυτάλη παραδίδεται και τα πράγματα στον λαβύρινθο της τεχνολογίας αγριεύουν ακόμη περισσότερο, όταν αυτή πέφτει στα λάθος χέρια. Ήχος και εικόνες που κυριολεκτικά θα σας κάνουν να μην πιστεύετε στα μάτια σας, αφού όταν μιλάμε για deepfakes, μιλάμε για την παραγωγή ψεύτικων εικόνων και βίντεο, με τη βοήθεια της τεχνητής νοημοσύνης, τόσο πειστικών όμως που ένας απλός χρήστης του διαδικτύου, αδυνατεί να τα φιλτράρει και να τα ξεχωρίσει από την πραγματικότητα!
Ο κύριος Βασίλης Ζωγράφος, υποψήφιος Διδάκτωρ Πληροφορικής και Επιστήμης Δεδομένων, μας εξηγεί: «Επί της ουσίας το deepfake, είναι ένα είδος τεχνητής νοημοσύνης . Αν χρησιμοποιήσουμε έναν πιο βαθύ όρο, είναι ένα deep machine learning, μια βαθιά μηχανική μάθηση που χρησιμοποιείται για τη δημιουργία πειστικού τεχνητού οπτικοακουστικού υλικού. Επί της ουσίας ο όρος περιγράφει τη τεχνολογία που εφαρμόζεται και το τεχνητό ψεύτικο περιεχόμενο που παράγεται ως αποτέλεσμα της χρήσης της.
- Σε τι εξυπηρετεί αυτό το οπτικοακουστικό υλικό;
«Αυτό το υλικό μπορεί να εξυπηρετήσει σε πάρα πολλά επίπεδα. Το πρώτο επίπεδο είναι σε μορφή τέχνης. Τα deepfakes, αξιοποιούνται για τη δημιουργία νέας μουσικής που χρησιμοποιούν την υπάρχουσα παραγωγή ενός καλλιτέχνη. Ή να δημιουργήσουν έναν ψεύτικο πίνακα από τις τεχνικές που χρησιμοποιεί ένας πολύ γνωστός , διάσημος ζωγράφος. Μπορεί όμως να χρησιμοποιηθούν και για τον εκβιασμό, για να βλάψουν τη φήμη κάποιου. Κάποια από αυτά τα βίντεο χρησιμοποιούνται για να εκβιάσουν ένα θύμα».
Συγκλονιστικές περιπτώσεις deepfake που σκοπό είχαν ν’ αλλάξουν τον ρου της ιστορίας!
Πόσο «ανώδυνες» όμως είναι οι ψεύτικές αυτές παραγωγές; Η περίπτωση των ηθοποιών, με τα χαριτωμένα βίντεο είναι η κορυφή ενός παγόβουνου, που κάθε άλλο παρά αθώο είναι. Έχουν καταγραφεί συγκλονιστικές παραγωγές deepfake υλικού, που σκοπό είχαν να αλλάξουν ακόμα και τον ρου της ιστορίας. Από τον πόλεμο της Ουκρανίας, την κοινή γνώμη στην Αμερική, επιχειρηματικές κινήσεις, την πορεία του ίδιου του χρηματιστηρίου, δηλώνει ο κύριος Ζωγράφος στο Flash.gr.
«Ναι, μια περίπτωση ήταν αυτό που συνέβη με τον Ζελένσκι, τον πρόεδρο της Ουκρανίας, όταν μέσω deepfake, άρχισε να διαδίδεται ένα ψεύτικο βίντεο, το οποίο ζητούσε από τους στρατιώτες και γενικότερα από το κομμάτι της υποστήριξης του τεχνολογικού στρατού να απομακρυνθούν και να μπορέσουν να μπούνε οι Ρώσοι μέσα, για παράδειγμα. Αυτό συνέβη πριν από ένα χρόνο περίπου. Άρχισαν επίσης να αναπαράγονται βίντεο, τα οποία ήταν από τον Πρόεδρο Μπάιντεν, όπου έκανε ψεύτικες δηλώσεις και αυτά επηρέασαν πάρα πολύ ένα κομμάτι της κοινής γνώμης. Από διευθύνοντες συμβούλους εταιρειών οι οποίοι αρχίζουν να κάνουν πάλι ψεύτικες δηλώσεις από τα deepfakes και αυτά μπορεί να επηρεάσουν τις μετοχές στο χρηματιστήριο».
- Άρα μιλάμε για καταστάσεις που μπορεί να έχουν αντίκτυπο πολύ σοβαρό στην κοινωνική, πολιτική, οικονομική ζωή μιας χώρας;
«Φυσικά. Χρησιμοποιούνται ως επί το πλείστον για παραπληροφόρηση ή πολλές φορές για πολιτική χειραγώγηση. Αν θέλουμε να επηρεάσουμε τις εκλογές. Υπάρχουν πάρα πολλές χρήσεις. Αυτό το οποίο δεν μπορεί να καταλάβει ο χρήστης στο Ίντερνετ πάρα πολλές φορές, είναι ότι δεν μπορεί να το αναγνωρίσει, γιατί πολύ επιπόλαια το βλέπει, το προχωράει και το διαδίδει! Δεν μπαίνει στη διαδικασία να έχει κριτική σκέψη και να το φιλτράρει ώστε να κατανοήσει αν αυτό το οποίο βλέπει είναι αυθεντικό ή είναι η παραγωγή ενός deefpake».
Η συντριπτική πλειοψηφία αυτών των βίντεο είναι «ροζ» περιεχομένου
Η συντριπτική πλειοψηφία αυτών των βίντεο είναι «ροζ» περιεχομένου. Συγκεκριμένα το 96%. Ενώ το 2%, μετά από ερεύνα σε γνωστή πλατφόρμα προβολής βίντεο, πέφτουν θύματα προσωπικότητες από τον επιχειρηματικό κόσμο. Θύμα της πρώτης κατηγορίας, έχει πέσει κατά το παρελθόν και η ηθοποιός Scarlett Johansson, που είδε έντρομη τον εαυτό της να πρωταγωνιστεί σε βίντεο πορνογραφικού περιεχομένου. Αλλά και η Ινδή δημοσιογράφος, Rana Ayyub, της οποίας η ζωή μετατράπηκε σε κόλαση.
Τα βίντεο αυτά είχαν εκατομμύρια προβολές και παρόλο που κατέβηκαν από τις πλατφόρμες που είχαν αναρτηθεί, η λάσπη που πετάχτηκε στον ανεμιστήρα έμεινε και πολλοί χρήστες εξακολουθούν να πιστεύουν πως οι γυναίκες αυτές πρωταγωνίστησαν σε πικάντικες, «ροζ» ταινίες. Μάλιστα, στην περίπτωση της δημοσιογράφου το deepfake βίντεο ήταν ένας τρόπος εκβιασμού για να σταματήσει μια έρευνα που έκανε για το βιασμό και τη δολοφονία ενός οκτάχρονου κοριτσιού. Μοιράστηκε όπως η ίδια έχει αποκαλύψει, σχεδόν σε κάθε τηλέφωνο στην Ινδία, ενώ χρειάστηκε να παρέμβουν τα Ηνωμένα Έθνη, για να προστατευθεί.
Πώς μπορείτε να εντοπίζετε τα «ψεύτικα» βίντεο
Με την τεχνολογία να τρέχει με ιλιγγιώδεις ρυθμούς και τους επιτήδειους να κρύβονται πίσω από τις «σκοτεινές γωνιές» των ψηφιακών μέσων, πώς μπορεί κανείς να προφυλαχθεί αλλά και να εντοπίσει αυτές τις περιπτώσεις; Ο κύριος Βασίλης Ζωγράφος, υποστηρίζει μιλώντας στο Flash.gr, πως μπορούμε να αντιμετωπίσουμε αυτήν την κατάσταση από δύο πλευρές. Του χρήστη αλλά και της πολιτείας.
«Από την πλευρά του χρήστη, θα πρέπει ο χρήστης -ο δέκτης του deepfake- να είναι λίγο πιο προσεκτικός. Δηλαδή, όταν βλέπει το βίντεο, να μπει στη διαδικασία να μπορέσει να αναγνωρίσει κάποια πράγματα. Πάρα πολλές φορές τα deefake videos, δεν έχουν παραχθεί τόσο καλά. Οπότε λοιπόν αρχίζουμε και βλέπουμε κάποιες εκφράσεις προσώπου, οι οποίες είναι λίγο περίεργες. Είναι ασυνήθιστες. Κάποιες κινήσεις σώματος, οι οποίες δεν είναι φυσικές. Βλέπουμε έναν χρωματισμό ο οποίος δεν ταιριάζει και δεν συνάδει με αυτό που ήδη γνωρίζει ο άνθρωπος. Βλέπουμε βίντεο το οποία ξαφνικά να κάνει κάποιο zoom, το οποίο δεν είναι φυσικά αποδεκτό. Βλέπουμε να υπάρχει ήχος, ο οποίος δεν έχει μια συνεχόμενη ροή, αλλά σπάει, σταματάει και γενικότερα ακούγονται κάποιοι θόρυβοι. Υπάρχει κάποιος θόρυβος ο οποίος δεν είναι συνεχόμενος και φυσικός. Μπορεί να δούμε ανθρώπους μέσα από τα deefakes, πρόσωπα τα οποία δεν ανοιγοκλείνουν τα μάτια τους. Υπάρχει διαφορά στον τρόπο που εκφράζονται σε κάποιες εκφράσεις, οι οποίες δεν είναι φυσικές. Αυτό από την πλευρά του χρήστη».
Από την πλευρά της πολιτείας όμως, συμπληρώνει, θα πρέπει να θεσπιστεί ένα πλαίσιο γιατί αυτή τη στιγμή δεν υπάρχει, για να μπορέσει να προστατεύσει με τον ένδικο τρόπο, με κάποια νομοθεσία , το υποψήφιο θύμα από την παραγωγή αυτών των βίντεο.
«Να είναι κακουργηματικές πράξεις. Δεν μπορεί ο καθένας, να μπω εγώ για παράδειγμα στη διαδικασία να παράξω ένα βίντεο εναντίον σας, να το διαδώσω και ένα πολύ μεγάλο κομμάτι του πληθυσμού των χρηστών να πιστέψει αυτά τα οποία λέει το ψεύτικο βίντεο για εσάς. Μετά ότι και να γίνει, πάντα παραμένει αυτή η λάσπη. Αυτό λοιπόν που μετράει πάρα πολύ είναι η πολιτεία, το εκάστοτε κράτος, να θεσπίσει την κατάλληλη νομοθεσία για να μπορέσει να μας προφυλάξει από τέτοιου τύπου βίντεο τα οποία παράγονται. Οπότε λοιπόν, αν κάποιος χρήστης το παράξει και το διαδώσει, να υπάρχουν οι κατάλληλοι αλγόριθμοί να ξέρουμε ποια είναι η πηγή, ποιο είναι το zero, το μηδέν ground, από που ξεκίνησε όλο αυτό το πράγμα. Έτσι και ο παραγωγός του deepfake να υποστεί τις αντίστοιχες νομικές συνέπειες, αλλά και ο επόμενος να το σκεφτεί πάρα πολύ καλά αν θα μπει στη διαδικασία πάλι να κάνει κάτι ανάλογο».