Παιδόφιλοι δημιουργούν υλικό σεξουαλικής κακοποίησης παιδιών μέσω Τεχνητής Νοημοσύνης
Shutterstock
Shutterstock

Παιδόφιλοι δημιουργούν υλικό σεξουαλικής κακοποίησης παιδιών μέσω Τεχνητής Νοημοσύνης

Παιδόφιλοι χρησιμοποιούν την Τεχνητή Νοημοσύνη για να δημιουργήσουν και να πουλήσουν υλικό σεξουαλικής κακοποίησης παιδιών, όπως αποκαλύπτει ρεπορτάζ του BBC.

Ορισμένοι έχουν πρόσβαση στις εικόνες πληρώνοντας συνδρομές σε λογαριασμούς σε ιστότοπους κοινής χρήσης περιεχομένου, όπως το Patreon.

Το Συμβούλιο του Αρχηγού της Αστυνομίας της Βρετανίας δήλωσε ότι το γεγονός ότι ορισμένες πλατφόρμες αποκομίζουν «τεράστια κέρδη» αλλά δεν αναλαμβάνουν την «ηθική ευθύνη», είναι «εξοργιστικό».

Οι δημιουργοί των συγκεκριμένων εικόνων χρησιμοποιούν το λογισμικό Τεχνητής Νοημοσύνης «Stable Diffusion», το οποίο προοριζόταν για τη δημιουργία εικόνων για χρήση στην τέχνη ή τη γραφιστική. Το συγκεκριμένο λογισμικό επιτρέπει στους χρήστες να περιγράψουν, χρησιμοποιώντας λέξεις, οποιαδήποτε εικόνα επιθυμούν – και το πρόγραμμα στη συνέχεια τη δημιουργεί.

Ωστόσο, το BBC ανακάλυψε ότι το λογισμικό χρησιμοποιείται και για τη δημιουργία εικόνων σεξουαλικής κακοποίησης παιδιών, συμπεριλαμβανομένου του βιασμού βρεφών και νηπίων. Οι ομάδες έρευνας διαδικτυακής κακοποίησης παιδιών της βρετανικής αστυνομίας δήλωσαν ότι αντιμετωπίζουν ήδη τέτοιο περιεχόμενο.

Η ανεξάρτητη ερευνήτρια και δημοσιογράφος Οκτάβια Σίπσανκς ερευνά το θέμα αυτό εδώ και αρκετούς μήνες. Επικοινώνησε με το BBC μέσω της φιλανθρωπικής οργάνωσης για τα παιδιά NSPCC προκειμένου να αναδείξει τα ευρήματά της.

«Από τότε που υπάρχει η δυνατότητα δημιουργίας εικόνων με τεχνητή νοημοσύνη, υπάρχει αυτή η τεράστια πλημμύρα… δεν είναι μόνο πολύ νεαρά κορίτσια, οι παιδόφιλοι μιλούν και για νήπια», δήλωσε.

Μια «ψευδοεικόνα» που παράγεται από υπολογιστή και απεικονίζει τη σεξουαλική κακοποίηση παιδιών αντιμετωπίζεται όπως και μια πραγματική και η κατοχή, η δημοσίευση ή η μεταφορά της, είναι παράνομη στο Ηνωμένο Βασίλειο.

Ο επικεφαλής του Εθνικού Συμβουλίου Αρχηγών Αστυνομίας (NPCC) για την προστασία των παιδιών, Ίαν Κρίτσλεϊ, δήλωσε ότι θα ήταν λάθος να υποστηρίξουμε ότι κανείς δεν έπαθε κάτι κακό επειδή δεν απεικονίζονται πραγματικά παιδιά σε αυτές τις «συνθετικές» εικόνες. Προειδοποίησε μάλιστα, ότι ένας παιδόφιλος θα μπορούσε να «κινηθεί σε αυτή την κλίμακα από τη σκέψη στην πραγματική κακοποίηση ενός παιδιού».

Ορισμένοι από τους δημιουργούς των εικόνων τις δημοσιεύουν σε μια δημοφιλή ιαπωνική πλατφόρμα κοινωνικής δικτύωσης που ονομάζεται Pixiv, η οποία χρησιμοποιείται κυρίως από καλλιτέχνες που μοιράζονται manga και anime.

Επειδή όμως ο ιστότοπος φιλοξενείται στην Ιαπωνία, όπου η κοινή χρήση σεξουαλικών κινούμενων σχεδίων και ζωγραφιών που απεικονίζουν παιδιά δεν είναι παράνομη, οι δημιουργοί τον χρησιμοποιούν για να προωθήσουν το έργο τους σε ομάδες και μέσω hashtags τα οποία υποδεικνύουν θέματα χρησιμοποιώντας λέξεις-κλειδιά.

Εκπρόσωπος της Pixiv δήλωσε ότι η εταιρεία δίνει τεράστια έμφαση στην αντιμετώπιση αυτού του ζητήματος και ανέφερε ότι στις 31 Μαΐου η πλατφόρμα απαγόρευσε όλες τις φωτορεαλιστικές απεικονίσεις σεξουαλικού περιεχομένου που αφορούσαν ανηλίκους. Η εταιρεία δήλωσε ότι έχει ενισχύσει προληπτικά τα συστήματα παρακολούθησης και ότι έχει διαθέσει σημαντικούς πόρους για την αντιμετώπιση προβλημάτων που σχετίζονται με τις εξελίξεις στην τεχνητή νοημοσύνη.

Η Σίπσανκς δήλωσε στο BBC ότι η έρευνά της έδειξε ότι οι χρήστες φαίνεται να δημιουργούν εικόνες κακοποίησης παιδιών σε βιομηχανική κλίμακα.

«Ο όγκος είναι απλά τεράστιος, οπότε οι δημιουργοί θα πουν ‘σκοπεύουμε να κάνουμε τουλάχιστον 1.000 εικόνες το μήνα’», είπε.

Πόσο κοστίζουν αυτές οι εικόνες

Πολλοί από τους λογαριασμούς στο Pixiv περιλαμβάνουν συνδέσμους που κατευθύνουν τους επισκέπτες σε αυτό που αποκαλούν «μη λογοκριμένο περιεχόμενο» στον ιστότοπο διαμοιρασμού περιεχομένου Patreon με έδρα τις ΗΠΑ.

Το Patreon αποτιμάται σε περίπου 4 δισ. δολάρια και ισχυρίζεται ότι έχει περισσότερους από 250.000 δημιουργούς – οι περισσότεροι από τους οποίους είναι νόμιμοι λογαριασμοί που ανήκουν σε γνωστές διασημότητες, δημοσιογράφους και συγγραφείς. Οι θαυμαστές μπορούν να στηρίξουν τους δημιουργούς αγοράζοντας μηνιαίες συνδρομές για να έχουν πρόσβαση σε blogs, podcasts, βίντεο και εικόνες – όλα αυτά για μόλις 3,85 δολάρια το μήνα.

Ωστόσο, η δημοσιογραφική ομάδα του BBC βρήκε λογαριασμούς στο Patreon που προσφέρουν προς πώληση, φωτορεαλιστικές άσεμνες εικόνες παιδιών που έχουν δημιουργηθεί με Τεχνητή Νοημοσύνη, σε διάφορες τιμές, ανάλογα με το είδος του υλικού που θέλει ο εκάστοτε χρήστης.

Ένας από αυτούς έγραψε στον λογαριασμό του: «Εγώ εκπαιδεύω τα κορίτσια μου στον υπολογιστή μου», προσθέτοντας ότι δείχνουν «υποταγή». Για 8,30 δολάρια το μήνα, ένας άλλος χρήστης προσέφερε «αποκλειστική τέχνη που δεν έχει λογοκριθεί».

Το BBC έστειλε στο Patreon ένα παράδειγμα, το οποίο η πλατφόρμα επιβεβαίωσε ότι ήταν «ημι-ρεαλιστικό και παραβιάζει τις πολιτικές μας» και σημείωσε ότι ο λογαριασμός αφαιρέθηκε αμέσως. Η πλατφόρμα δήλωσε επίσης ότι έχει πολιτική «μηδενικής ανοχής».

«Οι δημιουργοί δεν μπορούν να χρηματοδοτήσουν περιεχόμενο αφιερωμένο σε σεξουαλικά θέματα που αφορούν ανηλίκους», πρόσθεσε.

Η εταιρεία δήλωσε ότι η αύξηση του επιβλαβούς περιεχομένου που δημιουργείται με τεχνητή νοημοσύνη στο διαδίκτυο είναι «πραγματική και ανησυχητική», προσθέτοντας ότι έχει «εντοπίσει και αφαιρέσει αυξανόμενες ποσότητες» αυτού του υλικού.

Η πλατφόρμα δημιουργίας εικόνων Stable Diffusion δημιουργήθηκε ως μια παγκόσμια συνεργασία μεταξύ ακαδημαϊκών και πολλών εταιρειών, υπό την ηγεσία της βρετανικής εταιρείας Stability AI. Έχουν κυκλοφορήσει διάφορες εκδόσεις με περιορισμούς που έχουν γραφτεί στον κώδικα και ελέγχουν το είδος του περιεχομένου που μπορεί να δημιουργηθεί. Ωστόσο, πέρυσι, κυκλοφόρησε μια προηγούμενη έκδοση ανοιχτού κώδικα, η οποία επέτρεπε στους χρήστες να αφαιρέσουν τυχόν φίλτρα και να την εκπαιδεύσουν να παράγει οποιαδήποτε εικόνα – συμπεριλαμβανομένων των παράνομων.

Η Stability AI δήλωσε στο BBC ότι «απαγορεύει οποιαδήποτε κατάχρηση για παράνομους ή ανήθικους σκοπούς σε όλες τις πλατφόρμες μας, και οι πολιτικές μας είναι σαφείς ότι αυτό περιλαμβάνει το CSAM (υλικό σεξουαλικής κακοποίησης παιδιών). Υποστηρίζουμε σθεναρά τις προσπάθειες επιβολής του νόμου εναντίον όσων κάνουν κατάχρηση των προϊόντων μας για παράνομους ή κακόβουλους σκοπούς».

Ο Κρίτσλεϊ ανησυχεί ότι ο αυξανόμενος όγκος των ρεαλιστικών εικόνων τεχνητής νοημοσύνης θα μπορούσε να επιβραδύνει τη διαδικασία εντοπισμού πραγματικών θυμάτων κακοποίησης. Ο επικεφαλής του Εθνικού Συμβουλίου Αρχηγών Αστυνομίας πιστεύει πως πρόκειται για μια κομβική στιγμή για την κοινωνία.

«Μπορούμε να διασφαλίσουμε ότι το διαδίκτυο και η τεχνολογία θα δημιουργήσουν φανταστικές ευκαιρίες για τους νέους – ή μπορεί να γίνει ένα πολύ πιο επιβλαβές μέρος», είπε.