Η τεχνητή νοημοσύνη είναι ένα πολύ χρήσιμο εργαλείο στα χέρια μας, όμως στα λάθος χέρια μπορεί να γίνει επικίνδυνη, όπως και το καθετί άλλωστε. Οι περισσότεροι από εμάς κάποια στιγμή έχουμε δημιουργήσει deepfakes-ή έστω έχουμε μπει στον πειρασμό να το κάνουμε. Για σένα που δεν ξέρεις τι είναι αυτό το deepfake, είναι η δημιουργία νέων εικόνων με τη βοήθεια της τεχνητής νοημοσύνης και η αλλοίωση εικόνων ή βίντεο. Όλα καλά μέχρι εδώ. Όμως, τι γίνεται όταν το ΑΙ χρησιμοποιείται για τη δημιουργία πορνογραφικού μη συναινετικού υλικού;

Φαντάσου να ξυπνάς ένα πρωί ανυποψίαστη και εν αγνοία σου να βλέπεις γυμνές και ημίγυμνες φωτογραφίες σου στο Χ, τις οποίες έχεις τραβήξει μεν εσύ, αλλά φορώντας ρούχα. Τις τελευταίες μέρες τον κόσμο του Χ -και όχι μόνο- απασχολεί μια σκοτεινή υπόθεση πορνογραφίας, με deepfakes φωτογραφίες γυναικών που αναρτήθηκαν δημόσια παρακαλώ στο πρώην Twitter.

Ας δούμε όμως τι ακριβώς συνέβη. Όλα ξεκίνησαν από την πλατφόρμα του TikTok, όταν ξεκίνησαν να παίρνουν virality ορισμένα βίντεο γυναικών που ουσιαστικά έδειχναν πόσο εύκολο είναι να κάνει κάποια ένα γυμνό ή σχεδόν γυμνό τέλος πάντων deepfake, χρησιμοποιώντας φυσικά δικές της φωτογραφίες. Αυτό το trend εκμεταλλεύτηκαν ορισμένοι, ψάχνοντας φωτογραφίες διάφορων γυναικών από τα προφίλ που διατηρούν στα social media και προτρέποντας τον Grok, ένα ΑΙ bot να τις ξεγυμνώνει.

Για την ιστορία το συγκεκριμένο bot αξιοποιήθηκε αρχικά από άτομα που ασχολούνται με τη σεξεργασία, για να φτιάχνουν χωρίς κόπο το προφίλ τους στα social media. Αυτό είναι απολύτως εντάξει, καθώς εδώ υπάρχει συναίνεση. Κανένας δηλαδή δεν υποκλέπτει τις φωτογραφίες κανενός. Μιλάμε για μια μηχανή τεχνητής νοημοσύνης, η οποία προφανώς δεν είναι σε θέση να αντιληφθεί το κίνητρο ορισμένων και γδύνει γυναίκες κατά παραγγελία.

Καταλαβαίνουμε λίγο τι συμβαίνει εδώ και δεν έχει ανοίξει ρουθούνι; Άντρες παίρνουν φωτογραφίες ανυποψίαστων γυναικών, χωρίς τη συγκατάθεσή τους και ζητούν από το ΑΙ να τις γδύσει και να τις σεξουαλικοποιήσει, για να τις μοιραστούν δημοσίως σε μια πλατφόρμα social media. Και σαν να μην έφτανε αυτό δημιουργούν πορνογραφικό υλικό, ανάλογα με τις ορέξεις τους προτρέποντάς το να προσθέτει στις γυναίκες μεγάλα στήθη, οπίσθια, αποκαλυπτικά ρούχα ή ακόμη να τις τοποθετεί σε στάσεις που επιθυμούν οι ίδιοι. Συνειδητοποιούμε τι γίνεται;

Η υπόθεση έχει λάβει μεγάλες διστάσεις και ήδη οι αρχές αρκετών χωρών, συμπεριλαμβανομένων της Γαλλίας, της Ισπανίας, της Ινδίας και του Ηνωμένου Βασιλείου έχουν ξεκινήσει τη διενέργεια ερευνών για τις εικόνες του Grok. Μάλιστα, η ρυθμιστική αρχή του Ηνωμένου Βασιλείου έκανε λόγο και για την ύπαρξη σεξουαλικοποιημένων φωτογραφιών ανήλικων παιδιών. Στο ίδιο μήκος κύματος ενήργησε και η Ευρωπαϊκή Επιτροπή, που μέσω εκπροσώπου της χαρακτήρισε αποτρόπαιες τις πράξεις αυτές, πόσο μάλλον όταν εμπλέκονται παιδιά.

Το Χ εντόπισε το bot και το ανάγκασε να απολογηθεί και να ζητήσει συγνώμη. Αναγνώρισε ότι δεν ήταν ηθικά και νομικά σωστό να αναπαράγει πορνογραφικό υλικό ανήλικων κοριτσιών. Ωστόσο, επειδή μιλάμε για ένα εργαλείο τεχνητής νοημοσύνης η μεταμέλεια είναι προφανώς φαινομενική. Το θέμα δεν είναι το ΑΙ, είναι όσοι το χρησιμοποίησαν για το σκοπό αυτό. Εκείνοι θα έπρεπε να όχι μόνο να νιώσουν μεταμέλεια, αλλά και να τιμωρηθούν ποινικά για τα αδικήματα που διέπραξαν. Γιατί περί εγκλημάτων πρόκειται.

Η σεξουαλική κακοποίηση των γυναικών έχει γίνει καθημερινό φαινόμενο και αυτό θα έπρεπε να μας ανησυχεί ως κοινωνία. Δεν αμφισβητούμε τα βήματα προόδου που έχουν γίνει, όμως έχουμε πολύ δρόμο ακόμα να διανύσουμε.

Πότε επιτέλους θα σταματήσει όλο αυτό; Και δεν το ρωτάμε καθόλου ήρεμα.

 

Συντάκτης: Μαρία Μωραΐτη