Το τελευταίο διάστημα έχουν έρθει στο προσκήνιο υποθέσεις σ#ξουαλικής κακοποίησης γυναικών με deepfakes φωτογραφίες. Ορισμένοι άντρες υποκλέπτουν φωτογραφίες ή βίντεο από τα social media ανυποψίαστων γυναικών, ακόμη και ανήλικων παιδιών και χρησιμοποιώντας τη βοήθεια της τεχνητής νοημοσύνης δημιουργούν πορνογραφικό υλικό. Τα θύματα αυτού του είδους της σ#ξουαλικής κακοποίησης, γιατί περί αυτού πρόκειται είναι εκατοντάδες ανά τον κόσμο μεταξύ άλλων και celebrities. Η βία, από ότι βλέπουμε δεν κάνει διακρίσεις, είμαστε όλες εν δυνάμει θύματα.

Τι θα μπορούσε να γίνει ώστε να περιοριστεί αυτό το φαινόμενο; Η πιο εύκολη απάντηση είναι να εκπαιδεύσουμε τον αλγόριθμο, έτσι ώστε να αναγνωρίζει και να αφαιρεί π@ρνογραφικό υλικό. Ωραία, μέχρι εδώ, όμως ορισμένοι σκεπτόμενοι το κέρδος αποφάσισαν να εκμεταλλευτούν την κατάσταση. Τι έκαναν; Προσέφεραν εργασία σε ορισμένες γυναίκες από την Ινδία -φτηνά εργατικά χέρια γαρ- για να βλέπουν σε καθημερινή βάση κακοποιητικό περιεχόμενο και να καταγράφουν τα στοιχεία, έτσι ώστε οι προγραμματιστές να είναι σε θέση να εκπαιδεύσουν καλύτερα τον αλγόριθμο.

Λειτουργούν σαν moderators (aka επόπτες περιεχομένου). Με λίγα λόγια παρακολουθούν το υλικό που έχει επισημανθεί από αυτοματοποιημένα ως ακατάλληλο επειδή παραβιάζει τους κανόνες της πλατφόρμας, έτσι ώστε να διαπιστώνουν αν πρόκειται για περιεχόμενο που αφορά σ#ξουαλική κακοποίηση παιδιών και να το αφαιρούν. Καθημερινά παρακολουθούν περίπου 800 βίντεο με κακοποιητικό περιεχόμενο. Μάλιστα, οι κανονισμοί εμπιστευτικότητας είναι άκρως αυστηροί και οι εργαζόμενες δεσμεύονται υπογράφοντας σύμφωνα εμπιστευτικότητας, τα οποία αν παραβιάσουν αντιμετωπίζουν νομικές επιπτώσεις και απολύσεις.

 

In the end, you feel blank': India's female workers watching hours of abusive content to train AI | Global development | The Guardian

 

Εδώ λοιπόν τίθεται ένα ερώτημα: «Οι γυναίκες αυτές που εκτίθενται καθημερινά για άπειρες ώρες σε κακοποιητικό περιεχόμενο, δε θα έπρεπε με κάποιο τρόπο να προστατεύονται;» Να υπάρχει δηλαδή ψυχολογική υποστήριξη, αφού οι κανονισμοί δεν επιτρέπουν να τα συζητούν ούτε μα τα οικεία τους άτομα. Δε μιλάμε για απλή εργασία, ουσιαστικά είναι μια δευτερογενής θυματοποίηση. Το υλικό που βλέπουν είναι πολύ σκληρό. Και για του λόγου το αληθές σύμφωνα με έρευνες η διαχείριση περιεχομένου-πόσο μάλλον κακοποιητικού- έχει ψυχολογικές επιπτώσεις, μεταξύ των οποίων το άγχος, το συναισθηματικό μούδιασμα και τις δυσκολίες με τον ύπνο. Μια πολύ πρόσφατη μελέτη η οποία συμπεριελάμβανε και συμμετέχουσες εργαζόμενες από την Ινδία στον τομέα της εποπτείας περιεχομένου προσδιόρισε το τραυματικό στρες ως τον πιο έντονο ψυχολογικό κίνδυνο.

Στην προκειμένη περίπτωση αναδεικνύεται και ένα άλλο ζήτημα, το οποίο είναι ταξικό. Στην Ινδία, ακόμη το κοινωνικό σύστημα λειτουργεί με κάστες και προφανώς όσοι άνθρωποι ανήκουν στις κατώτερες κάστες βιώνουν κοινωνικοοικονομικές ανισότητες. Τα ημερομίσθια είναι αρκετά φτηνά, ωστόσο όσοι εργάζονται στον τομέα διαχείρισης περιεχομένου αμείβονται καλύτερα. Πολύ υψηλό ποσοστό των εργαζομένων προέρχονται από χαμηλά κοινωνικοοικονομικά στρώματα ή αγροτικές περιοχές. Οι εταιρείες λοιπόν λειτουργούν σκόπιμα, προσλαμβάνοντας φτηνά εργατικά χέρια, τα οποία όμως βγάζουν αρκετό φόρτο εργασίας, αλλά είναι και αποδοτικά.

Μήπως μπορούμε να βρούμε άλλους τρόπους για να γίνει η συγκεκριμένη «βρόμικη» δουλειά αντί να «θυσιάζουμε» ανθρώπους που είναι κοινωνικά και οικονομικά περιθωριοποιημένοι στο βωμό του κέρδους;

Συντάκτης: Μαρία Μωραΐτη