Άρθρα

Επικίνδυνες διαστάσεις της βιομηχανίας deepfakes

 

της
Ασπασίας Δασκαλοπούλου*

Εν μέσω ραγδαίων τεχνολογικών αλλαγών, που συντελούνται τα τελευταία χρόνια, ένας καινούριος όρος, τα λεγόμενα «deepfakes», έχει προστεθεί στο λεξιλόγιό μας, και δημιουργεί ανησυχίες σε όλο το φάσμα της κοινωνικής, αλλά και της πολιτικής ζωής.
Deepfake (deep learning (βαθιά μάθηση) + fake (πλαστό), «παντελής πλαστότητα» θα μπορούσε, ίσως, να είναι μια απόδοση του όρου στα ελληνικά) χαρακτηρίζεται ένα συνθετικό μέσο που περιέχει εικόνα και ήχο, το οποίο έχει δημιουργηθεί με τη χρήση τεχνικών Τεχνητής Νοημοσύνης, και παρουσιάζει πολύ πειστικές προσομοιώσεις πραγματικών ανθρώπων ή γεγονότων. Σε αυτές τις προσομοιώσεις παρουσιάζονται γεγονότα που δεν συνέβησαν ποτέ ή πρόσωπα που διατυπώνουν απόψεις τις οποίες δεν διατύπωσαν ποτέ, ή κάνουν πράγματα τα οποία δεν έκαναν ποτέ. Πρόκειται δηλαδή για κατασκευάσματα παντελώς πλαστά, με αποτέλεσμα ο θεατής τους να προσλαμβάνει ψευδή πληροφορία και να σχηματίζει εσφαλμένη αντίληψη για την πραγματικότητα.
Μερικά παραδείγματα, άλλοτε φαινομενικά αβλαβή και άλλοτε με σοβαρές δυνητικές επιπτώσεις, ανάμεσά τους παραποίηση της ιστορίας, οικονομική απάτη, πολιτική χειραγώγηση, διαπόμπευση και εκβιασμό ατόμων, είναι:
• Πρόσφατο βίντεο που παρουσιάζουν τον δημοφιλή ποδοσφαιριστή David Bekham να μιλά άπταιστα εννέα γλώσσες, ενώ στην πραγματικότητα μιλά μόνο αγγλικά.
• Βίντεο που παρουσιάζει το Richard Nixon να δίνει ομιλία που είχε προετοιμάσει σε περίπτωση που η αποστολή Apollo 11 αποτύγχανε τραγικά χωρίς επιζώντες αστροναύτες.
• Το 2019 ο CEO μιας εταιρείας ενέργειας στο Ηνωμένο Βασίλειο έλαβε τηλεφωνική κλήση από κάποιον που ακουγόταν ακριβώς όπως ο προϊστάμενός του και κατ’ εντολή του μετέφερε 243.000 στερλίνες σε έναν προμηθευτή στην Ουγγαρία. Στα τέλη Ιανουαρίου 2024 αποκαλύφθηκε ότι μια πολυεθνική εταιρεία με γραφεία στο Hong Kong, υπέστη οικονομική ζημιά ύψους 25,6 εκατομμυρίων δολαρίων, όταν εργαζόμενος έλαβε οδηγίες να μεταφέρει το ποσό σε κάποιο λογαριασμό κατά τη διάρκεια παντελώς πλαστής βιντεοκλήσης, στην οποία εμφανίζονταν ως συμμετέχοντες ο οικονομικός διευθυντής και άλλοι εργαζόμενοι. Υπολογίζεται ότι μέχρι το 2026 το ένα τρίτο των επιχειρήσεων δεν θα μπορούν να βασιστούν σε τεχνικές ταυτοποίησης βασισμένες σε βιομετρικά χαρακτηριστικά.
• Μια ημέρα πριν τις εθνικές εκλογές στο Πακιστάν, εμφανίστηκαν deepfake βίντεο στα μέσα κοινωνικής δικτύωσης που παρουσίαζαν τον πρώην πρωθυπουργό Imran Khan και άλλα μέλη του κόμματός του να καλούν τους ψηφοφόρους σε αποχή. Κατά την εκλογική εκστρατεία του 2020 στις ΗΠΑ κυκλοφόρησαν πολλά deepfake στα οποία στηρίχτηκαν φήμες ότι ο πρόεδρος Biden ήταν ακατάλληλος επειδή εμφανιζόταν να κοιμάται, να χάνει τον προσανατολισμό του ή να τραυλίζει. Με επικείμενες εκλογικές αναμετρήσεις στο προσεχές μέλλον στη Ρωσία, το Ηνωμένο Βασίλειο, τις ΗΠΑ και στην Ευρωπαϊκή Ένωση, αντιλαμβάνεται κανείς πόσο σοβαρές μπορεί να είναι οι συνέπειες της παραπλάνησης του εκλογικού σώματος. Στο ΤikTok κυκλοφορούν ήδη πολλά deepfake βίντεο με πρωταγωνιστές τον πρωθυπουργό Κυριάκο Μητσοτάκη, τον αρχηγό της αξιωματικής αντιπολίτευσης Στέφανο Κασσελάκη, και πολλούς άλλους αρχηγούς κομμάτων ή βουλευτές.
• Το 2018 κυκλοφόρησε πλαστό πορνογραφικό υλικό στο οποίο εμφανίζονταν τα πρόσωπα γνωστών ηθοποιών και άλλων επωνύμων. Πρόσφατα είδαν το φως της δημοσιότητας τόσο στο εξωτερικό, όσο και στην Ελλάδα, περιστατικά διακίνησης πλαστών πορνογραφικών φωτογραφιών ή βίντεο σε βάρος συμμαθητριών τους, με σοβαρές ψυχολογικές και κοινωνικές συνέπειες για τα θύματα και κλονισμό της εμπιστοσύνης στις σχολικές κοινότητες.
Η αλήθεια είναι ότι η κατασκευή συνθετικών μέσων, η οποία άρχισε να παρουσιάζει μεγάλη εξέλιξη περίπου το 2010, δεν είχε εξ αρχής κακές χρήσεις. Η τεχνολογία για deepfakes έχει τις ρίζες της στις τεχνικές επεξεργασίας φωτογραφίας, που αναπτύχθηκαν το 19ο αιώνα. Πειστικά deepfakes αναπτύχθηκαν από τις αρχές του 2010 και χρησιμοποιήθηκαν στη βιομηχανία του κινηματογράφου, για παράδειγμα το 2015 στην ταινία Fast and Furious 7, επειδή ο ηθοποιός Paul Walker απεβίωσε πριν την ολοκλήρωση των γυρισμάτων. Βέβαια, ακριβώς αυτή η δυνατότητα χρήσης «ψηφιακών κλώνων» των πραγματικών ηθοποιών ήταν στην καρδιά της δυσαρέσκειας της ένωσης Αμερικανών ηθοποιών κατά την πρόσφατη απεργία τους.
Θα μπορούσε να πει κανείς ότι ενδεχομένως τα συνθετικά μέσα έχουν και θετικές πλευρές, για παράδειγμα παρέχοντας ευεργετικές υπηρεσίες στο κοινωνικό σύνολο: Μπορούν να χρησιμοποιηθούν παρηγορητικά για τους οικείους κάποιου μετά το θάνατό του, οι οποίοι θα «τον» βλέπουν, θα «τον» ακούν και θα συζητούν μαζί «του». Μπορούν να χρησιμοποιηθούν εμπνευστικά για τους μαθητές, αν για παράδειγμα εκείνοι παρακολουθούν μια διάλεξη που υποτίθεται τη δίνει ο αγαπημένος τους ήρωας αντί για τον συνηθισμένο δάσκαλό τους. Αν χρησιμοποιηθούν με καλοήθη τρόπο, τα deepfakes μπορούν να προσφέρουν εξατομικευμένες υπηρεσίες στη διαφήμιση, το ηλεκτρονικό εμπόριο, την εκπαίδευση, και τον πολιτισμό.
Στην καρδιά της κατασκευής deepfake βρίσκονται οι ίδιοι αλγόριθμοι τεχνητής νοημοσύνης που χρησιμοποιούνται για ευγενείς σκοπούς. Στην περίπτωση των deepfakes, ήχος και εικόνα από πραγματικά βίντεο τροφοδοτούνται σε νευρωνικά δίκτυα, τα οποία εκπαιδεύονται ώστε να αναπαράγουν με πειστικό τρόπο την εικόνα και τη φωνή ενός ανθρώπου. Με την τεχνολογία αυτή αλλάζει δραματικά το φάσμα εφαρμογών και η κλίμακα των συνεπειών, καθώς σχεδόν ο καθένας μπορεί από τον υπολογιστή του να κατασκευάσει πλαστά βίντεο που είναι δύσκολο να διακριθούν από τα πραγματικά και να τα διακινήσει εύκολα σε εκατομμύρια ανθρώπους. Για παράδειγμα, το 2017 κυκλοφόρησε η εφαρμογή FakeApp που έδινε τη δυνατότητα σε ανθρώπους με ελάχιστες τεχνικές γνώσεις να δημιουργήσουν πλαστό περιεχόμενο. Ψευδείς ειδήσεις, ή φήμες, κυρίως με τη μορφή κειμένου και ενίοτε κάποιας «πειραγμένης» φωτογραφίας, κυκλοφορούσαν πολλά χρόνια πριν το 2010, όμως η χρήση εικόνας και ήχου, η στοχοποίηση, δηλαδή, των κατεξοχήν αισθητηριακών αντιλήψεων του ατόμου, και η δυνατότητα για μαζική διακίνησή τους, καθιστά τα deepfakes πιο επικίνδυνα, με μελλοντικές πιθανές χρήσεις, πέρα από τις οικονομικές απάτες, τον εκφοβισμό ατόμων, το εκδικητικό πορνό και τη διαπόμπευση, τις ψευδείς μαρτυρίες σε δικαστήρια, την πολιτική υπονόμευση, την υποκίνηση κοινωνικών ταραχών, την ακραία προπαγάνδα, τον εκβιασμό, και τη χειραγώγηση του κοινού.
Από το 2019 ξεκίνησαν οι προσπάθειες να αντιμετωπιστούν τα deepfakes, με τρεις κυρίως τρόπους:
• Τη θέσπιση κανονιστικού πλαισίου σε ορισμένες χώρες και την ανάπτυξη εταιρικών πολιτικών και εθελοντικών δράσεων. Για παράδειγμα, η πολιτεία της Καλιφόρνια και η Νότια Κορέα θέσπισαν σχετική νομοθεσία το 2019. Η Ευρωπαϊκή Ένωση δημιούργησε κώδικα καλής πρακτικής για την παραπληροφόρηση το 2018. Τα μεγάλα μέσα κοινωνικής δικτύωσης (όπως το Facebook και το Twitter) υιοθέτησαν και υλοποίησαν πολιτικές απαγόρευσης της διακίνησης πλαστού περιεχομένου. Πολλές χώρες και εταιρίες διαθέτουν χρηματοδότηση για έρευνα και ανάπτυξη τεχνολογίας για τον περιορισμό των deepfakes.
• Την εντατική ενημέρωση και εκπαίδευση του κοινού ώστε να διακρίνει πότε ενδεχομένως αντιμετωπίζει deepfake. Στο διαδίκτυο υπάρχουν πολλές ιστοσελίδες με συμβουλές σχετικά με τον εντοπισμό πλαστού περιεχομένου, για παράδειγμα εξετάζοντας προσεκτικά την εικόνα για αφύσικες διαφοροποιήσεις στον φωτισμό, συγκρίνοντας την εικόνα κάποιου με άλλες, πραγματικές, από το παρελθόν για να ανιχνευτούν αλλαγές στον τρόπο ομιλίας ή κίνησης, διασταυρώνοντας την πληροφορία από τουλάχιστον τρεις αξιόπιστες πηγές και γενικά εξασκώντας κριτική σκέψη. Γίνονται, ταυτόχρονα, προσπάθειες να καταστεί το ίδιο το κοινό πιο υπεύθυνο στην διάδοση περιεχομένου, για να ελεγχθεί η μαζικότητα της κυκλοφορίας των deepfakes. Έχουν αναπτυχθεί διαδικτυακά παιχνίδια για την εκπαίδευση του κοινού στον εντοπισμό πλαστού περιεχομένου και στρατολογηθεί επώνυμοι για την ενημέρωση του κοινού σχετικά με τις συνέπειες του πλαστού περιεχομένου, συχνά με τη δημιουργία πλαστού περιεχομένου με τη συγκατάθεσή τους, για παράδειγμα ο πρωθυπουργός του Βελγίου Charles Michel πρωταγωνίστησε σε deepfake βίντεο το 2019 για να ευαισθητοποιήσει το κοινό.
• Tην ανάπτυξη τεχνολογίας ανίχνευσης deepfake, αυθεντικοποίησης του περιεχομένου τους και παρεμπόδισης της διακίνησής τους. Για την ανίχνευση πλαστού περιεχομένου εκπαιδεύονται νευρωνικά δίκτυα, χρησιμοποιώντας πραγματικό και πλαστό περιεχόμενο. Και επειδή το πλαστό περιεχόμενο, όπως είπαμε παραπάνω, δημιουργείται με νευρωνικά δίκτυα, έχουμε στην ουσία μια αντιπαλότητα τεχνητής νοημοσύνης εναντίον τεχνητής νοημοσύνης. Η τεχνολογία blockchain, επίσης, βοηθά στον εντοπισμό πλαστού περιεχομένου, καθώς καταγράφεται με ειδικό τρόπο η επεξεργασία που υφίσταται ένα βίντεο και η διακίνησή του.
Υπολογίζεται ότι η αξία της βιομηχανίας ανίχνευσης και παρεμπόδισης deepfakes θα τριπλασιαστεί από 5.5 δισεκατομμύρια δολάρια που ήταν το 2023, στο άμεσο μέλλον. Ταυτόχρονα, η βιομηχανία κατασκευής deepfakes υπολογίζεται ότι θα μεγαλώσει από 7 δισεκατομμύρια δολάρια που είναι σήμερα σε 38,5 μέχρι το 2030. Φαίνεται ότι έχει ήδη ξεκινήσει μια «κούρσα εξοπλισμών» στον χώρο των μέσων, που η έκβασή της θα κριθεί εν πολλοίς από το μορφωτικό επίπεδο των ανθρώπων, την επιδίωξή τους για την αλήθεια και την προσήλωσή τους στη δημοκρατία.

* Η κ. Ασπασία Δασκαλοπούλου είναι αναπληρώτρια καθηγήτρια στο Τμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών του Πανεπιστημίου Θεσσαλίας.

Προηγούμενο Άρθρο
Μοιραστείτε το