Είναι σχεδόν σίγουρο ότι τη χρησιμοποιείς καθημερινά είτε ηθελημένα, είτε ακόμα και χωρίς να το γνωρίζεις. Απο το feed και τις προτεινόμενες δημοσιεύσεις στα social media σου, μέχρι την αναγνώριση προσώπου που έχεις στο κινητό σου, η τεχνητή νοημοσύνη έχει μπει για τα καλά στις ζωές μας. 

Έχεις αναρωτηθεί, όμως, κατά πόσο μεροληπτική ή προκατειλημμένη μπορεί να είναι μια τεχνολογία, που είναι τόσο ευρέως διαδεδομένη και –όπως όλα δείχνουν– είναι το μέλλον;

Για να απαντήσουμε στα παραπάνω ερωτήματα, είναι χρήσιμο να γνωρίζουμε πώς λειτουργεί ένα τέτοιο σύστημα. Χρειάζονται δύο βασικά συστατικά: ένα σύνολο δεδομένων και ένας αλγόριθμος. Το σύστημα επεξεργάζεται τα δεδομένα και ο αλγόριθμος μαθαίνει από αυτά και ανταποκρίνεται βάσει αυτών.

Ωστόσο τα δεδομένα, όσο και οι αλγόριθμοι χειραγωγούνται από τον άνθρωπο και έτσι τα αποτελέσματα μπορεί να είναι τόσο μεροληπτικά, ή προκατειλημμένα, όσο είμαστε και οι ίδιοι οι άνθρωποι. Το διαδίκτυο είναι γεμάτο με παραπληροφόρηση, ξενοφοβικό και σεξιστικό περιεχόμενο. Αυτό σημαίνει ότι και οι αλγόριθμοι τεχνητής νοημοσύνης εκπαιδεύονται με το περιεχόμενο αυτό και παράγουν αντίστοιχα αποτελέσματα.

Αν ζητούσαμε από ένα σύστημα τεχνητής νοημοσύνης να απεικονίσει έναν μηχανικό, έναν επιστήμονα ή έναν προγραμματιστή, πόσο πιθανό θα ήταν οι αναπαραστάσεις να απεικονίζουν άνδρες;

Αυτό θέλησαν να μάθουν ερευνητές του Προγράμματος Ανάπτυξης των Ηνωμένων Εθνών (UNDP), οι οποίοι χρησιμοποίησαν δύο συστήματα τεχνητής νοημοσύνης, το DALL-E και το Stable Diffusion, προϊόν της Stability.AI. Τα αποτελέσματα έδειξαν ότι οι άντρες εμφανίζονταν στα αποτελέσματα σε ποσοστό 75-100%. 

Αντίστοιχα, αν ζητήσεις από το DALL-E να δημιουργήσει μια εικόνα με μια νοσοκόμα, τότε στα αποτελέσματα θα δεις εικόνες ανθρώπων που μοιάζουν με γυναίκες. Ομοίως, ο όρος αεροσυνοδός τείνει να δημιουργεί εικόνες με Ασιάτισσες. Επομένως, βλέπουμε ότι πολλά από αυτά τα συστήματα αναπαράγουν έμφυλα στερεότυπα με τρόπους που μπορούν ακόμα και να επιδεινώσουν το τρέχον χάσμα μεταξύ των φύλων.

Το shadowban είναι μια πολύ γνωστή πρακτική που χρησιμοποιούν διάφορες διαδικτυακές πλατφόρμες, όπως και τα μέσα κοινωνικής δικτύωσης, για να περιορίσουν το περιεχόμενο ενός χρήστη.

Αποτελεί μια μορφή αόρατου αποκλεισμού, καθώς ο χρήστης δεν γνωρίζει ότι οι δημοσιεύσεις του δεν εμφανίζονται πλέον στο feed ή την αναζήτηση και συνήθως εφαρμόζεται όταν ο χρήστης ανεβάζει ακατάλληλο περιεχόμενο. Φυσικά, για να εφαρμοστεί η εν λόγω πρακτική, υπάρχουν αλγόριθμοι τεχνητής νοημοσύνης που βαθμολογούν τις εικόνες και κρίνουν κατα πόσο είναι προκλητικές ή ακατάλληλες. 

Το πρόβλημα φαίνεται να ξεκινάει από το γεγονός ότι οι αλγόριθμοι αυτοί έχουν ενσωματωμένες πολλές έμφυλες προκαταλήψεις και έτσι βαθμολογούν ως πιο προκλητικά τα γυναικεία σώματα, σε σχέση με τα ανδρικά. 

Τον Μάιο του 2021, ο Gianluca Mauro, ο οποίος ασχολείται με την τεχνητή νοημοσύνη, έκανε ένα πείραμα. Δημοσίευσε μια ανάρτηση στο LinkedIn, με το ίδιο κείμενο αλλά με διαφορετικές φωτογραφίες. Η μια ανάρτηση συγκέντρωσε 29 προβολές σε μια ώρα, ενώ η άλλη 849. Αυτό που διέφερε ήταν, ότι η πρώτη φωτογραφία έδειχνε δύο γυναίκες με κοντά μπλουζάκια.

Σε δεύτερο πείραμα που έτρεξε κόντρα σε εργαλείο της Microsoft για το τι είναι προκλητικό, πήρε βαθμολογία 22% όταν εμφανίστηκε γυμνό στηθος, ενώ όταν φόρεσε σουτιέν η βαθμολογία εκτοξεύτηκε στο 97%.

Το 2022, η δημοσιογράφος Melissa Heikkilä  αποφάσισε να δοκιμάσει μια εφαρμογή δημιουργίας avatar που ονομάζεται Lensa. Η εφαρμογή αυτή μετατρέπει τις selfies που έχεις ανεβάσει σε avatar. Προς έκπληξή της, ανέφερε ότι τα αποτελέσματα ήταν μια συλλογή από γυμνά ή ημίγυμνα και πορνογραφικά avatar που δεν της έμοιαζαν καθόλου.

Αντίθετα, τα avatar των ανδρών συναδέλφων της ήταν κανονικά ντυμένα και παρουσίαζαν αστροναύτες, εξερευνητές και εφευρέτες. Ωστόσο, δεν ήταν μόνο το φύλο της δημοσιογράφου, αλλά και η καταγωγή της. Η Heikkilä, η οποία είναι Αμερικανίδα Ασιατικής καταγωγής, είδε στα avatar της εμφανείς φετιχιστικές επιρροές είτε από χαρακτήρες anime ή βιντεοπαιχνιδιών, ενώ στα αποτελέσματα της λευκής συναδέλφου της υπήρχαν λιγότερες σεξουαλικές εικόνες και λιγότερο γυμνό.

Παράλληλα, βλέπουμε μια ολοένα και αυξανόμενη τάση για μοντέλα και influencers που είναι προϊόντα τεχνητής νοημοσύνης. Οι δημιουργοί των μοντέλων αυτών πολλές φορές είναι άνδρες και οι εικόνες που επιλέγουν να ανεβάζουν στα social media και το onlyfans, είναι υπερσεξουαλικοποιήμενες, με σκοπό να ικανοποιούν το αντρικό βλέμμα και φυσικά να πετυχαίνουν μεγαλύτερο κέρδος.

Πέρα από τα σύνολα δεδομένων που χρησιμοποιούνται για να εκπαιδεύσουν τους αλγόριθμους και τις προκαταλήψεις, υπάρχει ακόμα μια μεγάλη ανησυχία που συνοδεύει την τεχνολογική άνθηση, την οποία διανύουμε. Η ανησυχία αυτή, δεν είναι άλλη από την παραπληροφόρηση ή την διασπορά ψευδών ειδήσεων και γεγονότων. 

Τα deepfakes εμφανίστηκαν πριν μερικά χρόνια και σχεδόν από την αρχή έδειξαν τις επικίνδυνες προεκτάσεις που μπορούν να πάρουν. Τα ψεύτικα αυτα βίντεο δημιουργούνται με τη χρήση τεχνολογίας βαθιάς μάθησης (deep learning) που επιτρέπει στους δημιουργούς να αντικαταστήσουν τα πρόσωπα πραγματικών ατόμων, με τα πρόσωπα άλλων ατόμων ή ακόμα και να κατασκευάσουν γεγονότα που δεν έχουν συμβεί ποτέ.

Η επικινδυνότητα έγκειται στην ρεαλισμό και την συνυφασμένη δυσκολία να αναγνωριστεί το ψεύτικο περιεχόμενο.

Μια έκθεση του 2019 που δημοσιεύθηκε από τα εργαστήρια Deeptrace ανέφερε ότι από τα 15.000 deepfakes που βρέθηκαν στο διαδίκτυο, το 96% ήταν μη συναινετικό πορνογραφικό περιεχόμενο όπου είχαν αντικατασταθεί τα πρόσωπα γυναικών. Αυτού του είδους τα ψεύτικα βίντεο, στοχεύουν συνήθως διάσημες γυναίκες, ενώ έχουν χρησιμοποιηθεί και εναντίον πολιτικών και δημοσιογράφων για να τις φιμώσουν, να τις ταπεινώσουν ή να τις εκβιάσουν.

Η τεχνητή νοημοσύνη έχει έρθει για να μείνει και πολλές φορές μοιάζει τρομακτική εξαιτίας της δύναμης που έχει. Ωστόσο, αν κατανοήσουμε τον τρόπο που δουλεύει και τα κακώς κείμενα που πιθανώς επαναλαμβάνει, θα είναι πιο εύκολο να την επαναπρογραμματίσουμε και να θέσουμε συγκεκριμένους κανόνες και όρια. 

Γνωμούλα;
+1
0
Έκλαψα
+1
0
Βαριέμαι
+1
0
Νευρίασα
+1
0
Αγαπώ
+1
0
Σοκαρίστηκα