Μέσα σε όλο το διαρκώς αναπτυσσόμενο τεχνολογικό φάσμα που μας περικλείει, έχουν ανθίσει και τα deepfakes.

Πρόκειται για την ενσωμάτωση ενός προσώπου (από φωτογραφία) σε βίντεο για ψυχαγωγικούς ή παραπλανητικούς σκοπούς, με τη βοήθεια μιας τεχνολογίας, βασιζόμενης στην τεχνητή νοημοσύνη (AI). Η παραπλάνηση που προσφέρεται μέσα από τα deepfakes έχει χρησιμοποιηθεί και για την κοινοποίηση ψευδών ειδήσεων, καθώς και για την εκμετάλλευση προσώπων— δημοσίων και μη. Όπως γίνεται αντιληπτό, τέτοιου είδους πρακτικές είναι άκρως επικίνδυνες και χρειάζεται να επανεξεταστεί το όλο θέμα.

Deepfakes: Πόσο επικίνδυνα μπορούν να γίνουν;

Το 2017, ένας χρήστης του Reddit με το όνομα «deepfakes» δημιούργησε ένα thread, όπου οι υπόλοιποι χρήστες μπορούσαν να παρακολουθήσουν ψεύτικα βίντεο της «Maisie Williams» ή της «Taylor Swift» να κάνουν σεξ. Ναι μεν το thread έκλεισε οκτώ εβδομάδες αργότερα, αλλά μέχρι τότε είχε ήδη συγκεντρώσει 90.000 συνδρομητές. Σύμφωνα με την εταιρεία κυβερνοασφάλειας, «Sensity», ο αριθμός των deepfakes αυξάνεται ραγδαία, αφού φαίνεται να διπλασιάζεται κάθε έξι μήνες. Από τα 85.000 deepfakes που κυκλοφορούν στο διαδίκτυο, το 90% είναι μη συναινετικό πορνό, όπου πρωταγωνιστούν γυναίκες. Όσον αφορά στους «δημιουργούς», μπορούν να βρεθούν σε όλο τον κόσμο, συμπεριλαμβανομένων των ΗΠΑ, του Καναδά, της Ευρώπης και της Ινδίας.

Τα ανησυχητικά περιστατικά με τα deepfakes

Τον περασμένο Οκτώβριο, αναρτήθηκε μια σειρά από βίντεο σκληρού πορνογραφικού περιεχομένου μιας Βρετανίδας συγγραφέως. Εξυπακούεται ότι δεν πρωταγωνιστούσε η ίδια, αλλά μια σειρά από deepfakes. Εκείνο το βράδυ, την κατέκλυσαν οι φρικτοί εφιάλτες, στους οποίους έβλεπε σε διαρκή αναπαραγωγή των εαυτό της σε ερωτικές περιπτύξεις που ουδέποτε παρευρέθηκε. Πόσο μάλλον, σε ένα βίντεο που βρίσκεται στο διαδίκτυο και, ανά πάσα ώρα και στιγμή, μπορεί να το δει κάποιο κοντινό της πρόσωπο. Κάθε φορά που έφευγε από το σπίτι, ένιωθε ευάλωτη και πάθαινε κρίσεις πανικού ενώ έκανε τζόκινγκ. Μέχρι και σήμερα, ο δράστης παραμένει ανεξιχνίαστος.

Αυτά τα βίντεο μπορεί να είναι ψεύτικα, αλλά ο συναισθηματικός τους αντίκτυπος είναι πραγματικός. Τα θύματα, εκτός από το σοκ που βιώνουν, αντιμετωπίζουν πολλά ερωτηματικά: Ποιος τα έφτιαξε; Πώς μπορούν να σταματήσουν; Άλλωστε, από τη στιγμή που κάτι είναι online, μπορεί να εμφανιστεί ξανά και ξανά ανά πάσα στιγμή. Σήμερα, οι deepfake «κοινότητες» ευδοκιμούν περισσότερο από ποτέ. Υπάρχουν πλέον αποκλειστικοί ιστότοποι και εύχρηστες εφαρμογές, που προσφέρουν εντελώς δωρεάν ή έναντι μικρού αντιτίμου τη δυνατότητα προσάρτησης ενός προσώπου σε ένα βίντεο.

«Αυτή η παραβίαση πρέπει να πάψει», λέει η Gibi ASMR, YouTuber με 3,15 εκ. συνδρομητές, η οποία έχει πέσει θύμα της ίδιας τεχνολογίας. Όπως έχει δηλώσει, έχει σταματήσει να παρακολουθεί όλα τα deepfakes που βγαίνουν κατά καιρούς με το πρόσωπό της. Κατά τα λεγόμενά της, το πιο εξωφρενικό είναι το γεγονός ότι ορισμένοι «βγάζουν χρήματα από την πλαστογράφηση του προσώπου μου». Ακόμη, έχει δεχτεί κρούση από μια εταιρεία που προσφέρθηκε να αφαιρέσει τα deepfakes για 500£ ανά βίντεο.

Deepfakes και fake news

Στα μέσα Μαρτίου, καθώς διανύαμε την τρίτη εβδομάδα της ρωσικής εισβολής στην Ουκρανία, ένα ασυνήθιστο βίντεο έκανε τον γύρο του διαδικτύου. Μάλιστα, μεταδόθηκε και από το τηλεοπτικό κανάλι «Ukraine 24». Στο επίμαχο βίντεο, απεικονίζεται ο Πρόεδρος της Ουκρανίας, Volodymyr Zelenskyy, ο οποίος καλεί τους πολίτες της χώρας να σταματήσουν να πολεμούν και να καταθέσουν τα όπλα. Εκτός αυτού, ισχυρίστηκε ότι είχε ήδη διαφύγει από το Κίεβο. Ωστόσο, αν ήταν κανείς λίγο παρατηρητικός, θα αντιλαμβανόταν σε κλάσματα δευτερολέπτου ότι υπήρχε κίνηση στο κεφάλι του, αλλά το σώμα και τα χέρια του ήταν ακίνητα. Η εξήγηση είναι απλή και αναμενόμενη: Deepfake.

Ευτυχώς, η συντριπτική πλειοψηφία των ανθρώπων αντιμετώπισε το βίντεο αυτό με ανάλαφρη και χιουμοριστική προσέγγιση. Σε κάθε περίπτωση, όμως, τέτοιου είδους παραπλανητικά βίντεο μπορούν πολύ εύκολα να αποτελέσουν πηγή για τη δημιουργία και αναπαραγωγή ψευδών ειδήσεων. Ιδιαίτερα εν καιρώ πολέμου, η αναπαραγωγή ψευδούς υλικού, η παραπληροφόρηση και η διασπορά ψευδών ειδήσεων, συνιστούν κατάπτυστες πρακτικές.

Αντί επιλόγου

Προκειμένου να υπάρξει μια ισορροπία ανάμεσα στην ψυχαγωγία και την παραπλάνηση, χρειάζεται να οριστεί ένα νομικό πλαίσιο, το οποίο να επιβάλλει ρητά τη χρήση των deepfakes αποκλειστικά και μόνο για ψυχαγωγικούς σκοπούς. Αν, όμως, διαπιστωθεί κατάχρηση αυτής της τεχνολογίας, προκειμένου να δημιουργηθεί επιβλαβές υλικό, τότε αυτό πρέπει να χαρακτηριστεί ως αδίκημα και να οριστεί αντίστοιχη ποινή.

Γνωμούλα;
+1
0
Έκλαψα
+1
0
Βαριέμαι
+1
0
Νευρίασα
+1
0
Αγαπώ
+1
0
Σοκαρίστηκα