Μέχρι σήμερα ανησυχούσαμε μην τυχόν διαρρεύσουν στο διαδίκτυο προσωπικές φωτογραφίες που μοιραστήκαμε εν γνώσει μας με κάποιον σύντροφό μας. Από εδώ και στο εξής φαίνεται πως θα έχουμε να ανησυχούμε και μην τυχόν βρεθούμε πρωταγωνίστριες σε πορνογραφικό υλικό που δεν γνωρίζαμε καν την ύπαρξή του.

Την τελευταία εβδομάδα, γυμνές φωτογραφίες της Taylor Swift φτιαγμένες με τη χρήση τεχνητής νοημοσύνης, κάνουν τον γύρο του διαδικτύου, ενώ μία από τις deepfake της τραγουδίστριας έφτασε να προβληθεί 47 εκατομμύρια(!) φορές, πριν η λειτουργία του λογαριασμού στο Χ (πρώην Twitter) που τη διαμοιράστηκε, να ανασταλεί με καθυστέρηση 17 ωρών.

Κι αν αυτά σου ακούγονται οικεία, ίσως οφείλεται στο ότι πράγματι είναι, καθώς η deepfake πορνογραφία βρίσκεται κυριολεκτικά παντού. Όπως επισημαίνει ο Danielle Citron, καθηγητής στο Τμήμα Νομικής του Πανεπιστημίου της Βιρτζίνια, «υπάρχουν περισσότερες από 9.500 ιστοσελίδες αφιερωμένες σε μη συναινετικό πορνογραφικό περιεχόμενο».

Πρόκειται για μια νέα μορφή εκδικητικής πορνογραφίας που φαίνεται να επηρεάζει κατά κύριο λόγο ανήλικα κορίτσια και γυναίκες. Σύμφωνα με μία μελέτη του 2019, από την εταιρεία κυβερνοασφάλειας Deeptrace labs, το 96% του deepfake υλικού στο διαδίκτυο είναι πορνογραφικό, ενώ στα χρόνια που ακολούθησαν από την διεξαγωγή της μελέτης, η εταιρεία διαπίστωσε πως η κατάσταση όδευε αποκλειστικά προς το χειρότερο.

Η περίπτωση της διεθνώς καταξιωμένης pop star φαίνεται να ταρακούνησε τον Λευκό Οίκο και μια σειρά πολιτικών και εταιρειών, με τους παραπάνω να προχωρούν σε παρεμβάσεις ζητώντας την άμεση θέσπιση αυστηρού ρυθμιστικού πλαισίου. Αν και πρόκειται για μία κίνηση προς τη σωστή κατεύθυνση το μόνο που μπορούμε να διαπιστώσουμε είναι πως για ακόμα μια φορά έρχεται αρκετά καθυστερημένα, ιδίως αν σκεφτεί κανείς πόσες φορές έχει αποδείξει η ιστορία πως η ανθρώπινη ηθική δεν αποτελεί σε καμία περίπτωση εχέγγυο της υπεύθυνης χρήσης των εκάστοτε αναδυόμενων νέων τεχνολογιών.

Σε ένα περιβάλλον που εξελίσσεται με φρενήρεις ρυθμούς, είναι παραπάνω από αδιανόητο η ασφάλεια των πολιτών να μπαίνει σε δεύτερη μοίρα και η συζήτηση περί νομοθετικού πλαισίου να γίνεται συστηματικά κατόπιν εορτής. Ιδίως όταν πρόκειται για μία εκ των αδιαμφισβήτητων ευθυνών της επιστήμης απέναντι στην ανθρωπότητα.

Γιατί μπορεί οι deepfake φωτογραφίες να είναι ψεύτικες, όμως οι συνέπειες που έχουν στον ψυχισμό των ατόμων που αφορούν είναι πέρα για πέρα αληθινές.

Στην περίπτωση του deepfake της Taylor Swift – αν και η ίδια δεν έχει προβεί επί του παρόντος σε κάποια επίσημη δήλωση – η στρατιά των εκατομμυρίων θαυμαστών της έδειξε άμεσα αντανακλαστικά προχωρώντας σε μαζικές αναφορές λογαριασμών που μοιράστηκαν τις deepfake της, καθώς και στην δημοσίευση πραγματικών φωτογραφιών της χρησιμοποιώντας τη φράση “Taylor AI Swift” σε μία προσπάθεια να ξεγελάσουν τον αλγόριθμο. Και τα κατάφεραν.

@mostlyhumanmedia

Taylor Swift has become the newest victim of explicit AI deepfake videos. This is a new threat most women face as we head towards a future of AI innovation without the right guardrails to protect us. What are your thoughts? #taylorswift #taylorswiftai #fyp #news

♬ original sound – Mostly Human Media

Μπορεί οι Swifties να μην συνιστούν προνόμιο όλων, όμως η πραγματικότητα είναι πως ίσως καταφέρουν να αποτελέσουν έναν πολύ ισχυρό μοχλό πίεσης. Δεν είναι η πρώτη φορά που το βλέπουμε να συμβαίνει. Συγκεκριμένα, το 2022, αφού η Ticketmaster προκάλεσε χάος με την προπώληση των εισιτηρίων για την περιοδεία Eras Tour της Swift, οι νομοθέτες των ΗΠΑ άρχισαν να επικρίνουν έντονα τις μη ανταγωνιστικές πρακτικές που εφαρμόζονται στη μουσική βιομηχανία, διεκδικώντας άμεσες παρεμβάσεις. Η κατακραυγή είχε ξεκινήσει στην πραγματικότητα από τους ίδιους τους φαν της τραγουδίστριας.

Σε μία εποχή που πολλοί «μάχονται» τον φεμινισμό και τις επιδιώξεις του, αξίζει να στρέψουμε την προσοχή μας στην κατανόηση της απήχησης της deepfake πορνογραφίας, δεδομένου του άπλετου υλικού που υπάρχει στο διαδίκτυο με συναινούντες ενήλικες. Λαμβάνοντας ταυτόχρονα υπόψιν πως τα θύματα αυτού του νέου είδους revenge porn είναι κατά κόρον γυναίκες, δεν θα ήταν παράλογο να υποθέσει κανείς πως η νέα αυτή τάση αποτελεί μία ακόμα προσπάθεια πραγμάτωσης της επιθυμίας πολλών ανδρών να εξευτελίσουν και να ταπεινώσουν με τρόπο βίαιο μία γυναίκα. 

Μένει να δούμε αν το σύστημα θα αποδειχθεί για μια ακόμα φορά ανεπαρκές ή εάν θα καταφέρει, τελικά, να σταθεί στο ύψος των περιστάσεων, προστατεύοντας τα επικείμενα θύματα της deepfake πορνογραφίας. 

Γνωμούλα;
+1
0
Έκλαψα
+1
0
Βαριέμαι
+1
0
Νευρίασα
+1
0
Αγαπώ
+1
0
Σοκαρίστηκα