search-button
cross-out

Φρίκη με τη βοήθεια… AI: Φτιάχνουν υλικό σεξουαλικής κακοποίησης παιδιών – Οι τεράστιοι κίνδυνοι

Οι παιδόφιλοι χρησιμοποιούν τεχνολογία τεχνητής νοημοσύνης (AI) για να δημιουργήσουν και να πουλήσουν αληθοφανές υλικό σεξουαλικής κακοποίησης παιδιών, ανακάλυψε το BBC.
Φρίκη με τη βοήθεια… AI: Φτιάχνουν υλικό σεξουαλικής κακοποίησης παιδιών – Οι τεράστιοι κίνδυνοι

Η τεχνολογία τεχνητής νοημοσύνης (AI) στα χέρια των παιδόφιλων μετατρέπεται σε επικίνδυνο εργαλείο, τονίζει το BBC σε δημοσίευμα με τίτλο «Αποκαλύφθηκε το παράνομο εμπόριο εικόνων σεξουαλικής κακοποίησης παιδιών με τεχνητή νοημοσύνη» Ορισμένοι έχουν πρόσβαση στις εικόνες πληρώνοντας συνδρομές σε λογαριασμούς σε ιστότοπους κοινής χρήσης περιεχομένου, όπως το Patreon που διεμήνυσε ότι είχε μια πολιτική «μηδενικής ανοχής» σχετικά με τέτοιες εικόνες στον ιστότοπό της.

Το Συμβούλιο του Αρχηγού της Εθνικής Αστυνομίας είπε ότι είναι «εξωφρενικό» το γεγονός ότι ορισμένες πλατφόρμες αποκομίζουν «τεράστια κέρδη», αλλά δεν αναλαμβάνουν «ηθική ευθύνη». Οι κατασκευαστές των εικόνων κακοποίησης χρησιμοποιούν λογισμικό τεχνητής νοημοσύνης που ονομάζεται Stable Diffusion, το οποίο προοριζόταν να δημιουργήσει εικόνες για χρήση στην τέχνη ή τη γραφιστική.

Η τεχνητή νοημοσύνη επιτρέπει στους υπολογιστές να εκτελούν εργασίες που συνήθως απαιτούν ανθρώπινη νοημοσύνη. Το λογισμικό Stable Diffusion επιτρέπει στους χρήστες να περιγράφουν, χρησιμοποιώντας λέξεις, όποια εικόνα θέλουν και στη συνέχεια το πρόγραμμα δημιουργεί την εικόνα.
Ωστόσο, το BBC ανακάλυψε ότι χρησιμοποιείται για τη δημιουργία εικόνων σεξουαλικής κακοποίησης παιδιών, συμπεριλαμβανομένου του βιασμού μωρών και νηπίων. Οι ομάδες έρευνας διαδικτυακής κακοποίησης παιδιών της αστυνομίας του Ηνωμένου Βασιλείου λένε ότι ήδη αντιμετωπίζουν τέτοιο περιεχόμενο.

Η ανεξάρτητη ερευνήτρια και δημοσιογράφος Oκτάβια Σπισάνγκς ερευνά αυτό το θέμα εδώ και αρκετούς μήνες. Επικοινώνησε με το BBC μέσω της παιδικής φιλανθρωπικής οργάνωσης NSPCC προκειμένου να αναδείξει τα ευρήματά της. «Από τότε που έγιναν δυνατές οι εικόνες που δημιουργήθηκαν από την τεχνητή νοημοσύνη, υπήρξε αυτή η τεράστια πλημμύρα… δεν είναι μόνο πολύ μικρά κορίτσια, αλλά [παιδόφιλοι] μιλούν για νήπια», είπε.

Μια «ψευδοεικόνα» που δημιουργείται από έναν υπολογιστή που απεικονίζει τη σεξουαλική κακοποίηση παιδιών αντιμετωπίζεται το ίδιο με μια πραγματική εικόνα και είναι παράνομη η κατοχή, η δημοσίευση ή η μεταφορά της στο Ηνωμένο Βασίλειο.

Ο επικεφαλής του Εθνικού Συμβουλίου Αρχηγών Αστυνομίας (NPCC) για την προστασία των παιδιών, Iαν Κρίτσλεϊ είπε ότι θα ήταν λάθος να υποστηρίξουμε ότι κανείς δεν τραυματίστηκε επειδή κανένα πραγματικό παιδί δεν απεικονίστηκε στις «συνθετικές» εικόνες. Προειδοποίησε ότι ένας παιδόφιλος θα μπορούσε «να κινηθεί σε αυτήν την κλίμακα της προσβολής από τη σκέψη στην πραγματικότητα της κακοποίησης ενός παιδιού».

Τα στάδια της «σκοτεινής» διαδικασίας

Οι παιδόφιλοι κάνουν εικόνες χρησιμοποιώντας λογισμικό AI. Προωθούν εικόνες σε πλατφόρμες όπως ο ιαπωνικός ιστότοπος κοινής χρήσης εικόνων που ονομάζεται Pixiv
Αυτοί οι λογαριασμοί έχουν συνδέσμους για να κατευθύνουν τους πελάτες στις πιο σαφείς εικόνες τους, τις οποίες οι χρήστες μπορούν να πληρώσουν για να τις δουν σε λογαριασμούς σε ιστότοπους όπως το Patreon

Μερικοί από τους δημιουργούς εικόνων δημοσιεύουν σε μια δημοφιλή ιαπωνική πλατφόρμα κοινωνικών μέσων που ονομάζεται Pixiv, η οποία χρησιμοποιείται κυρίως από καλλιτέχνες που μοιράζονται manga και anime. Επειδή όμως ο ιστότοπος φιλοξενείται στην Ιαπωνία, όπου η κοινή χρήση σεξουαλικών κινουμένων σχεδίων και ζωγραφιών παιδιών δεν είναι παράνομη, οι δημιουργοί τον χρησιμοποιούν για να προωθήσουν τη δουλειά τους σε ομάδες και μέσω hashtag – τα οποία υποδεικνύουν θέματα χρησιμοποιώντας λέξεις-κλειδιά.

H Σιπσανκς που έκανε την έρευνα για το ΒΒC

Εκπρόσωπος της Pixiv είπε ότι έδωσε τεράστια έμφαση στην αντιμετώπιση αυτού του ζητήματος. Οπως τόνισε, στις 31 Μαΐου είχε απαγορεύσει όλες τις φωτορεαλιστικές απεικονίσεις σεξουαλικού περιεχομένου που αφορούσε ανηλίκους. Η εταιρεία είπε ότι ενίσχυσε προληπτικά τα συστήματα παρακολούθησής της και ότι διαθέτει σημαντικούς πόρους για την αντιμετώπιση προβλημάτων που σχετίζονται με τις εξελίξεις στην τεχνητή νοημοσύνη.

Η έρευνά της Σιπμπανκς υποδηλώνει ότι οι χρήστες φαίνεται να κάνουν εικόνες κακοποίησης παιδιών σε βιομηχανική κλίμακα. «Ο όγκος είναι απλώς τεράστιος, έτσι οι άνθρωποι [οι δημιουργοί] θα πουν «στοχεύουμε να κάνουμε τουλάχιστον 1.000 εικόνες το μήνα», είπε.

Τα σχόλια των χρηστών σε μεμονωμένες εικόνες στο Pixiv καθιστούν σαφές ότι έχουν σεξουαλικό ενδιαφέρον για παιδιά, με ορισμένους χρήστες να προσφέρουν ακόμη και εικόνες και βίντεο κακοποίησης που δεν έχουν δημιουργηθεί από AI.

Η ίδια η ερευνήτρια παρακολουθεί ορισμένες από τις ομάδες στην πλατφόρμα. «Μέσα σε αυτές τις ομάδες, που θα έχουν 100 μέλη, οι άνθρωποι θα μοιράζονται «Ω, εδώ είναι ένας σύνδεσμος για αληθινά πράγματα», λέει. «Το πιο απαίσιο πράγμα, δεν ήξερα καν ότι υπήρχαν τέτοιες λέξεις [οι περιγραφές]».

Διαφορετικά επίπεδα τιμολόγησης

Πολλοί από τους λογαριασμούς στο Pixiv περιλαμβάνουν συνδέσμους που κατευθύνουν τους ανθρώπους σε αυτό που αποκαλούν «χωρίς λογοκρισία περιεχόμενο» στον ιστότοπο κοινής χρήσης περιεχομένου Patreon με έδρα τις ΗΠΑ.

Το Patreon αποτιμάται σε περίπου 4 δισεκατομμύρια δολάρια και ισχυρίζεται ότι έχει περισσότερους από 250.000 δημιουργούς, οι περισσότεροι από τους οποίους νόμιμους λογαριασμούς ανήκουν σε γνωστές προσωπικότητες, δημοσιογράφους και συγγραφείς.Οι θαυμαστές μπορούν να υποστηρίξουν τους δημιουργούς λαμβάνοντας μηνιαίες συνδρομές για πρόσβαση σε ιστολόγια, podcast, βίντεο και εικόνες – πληρώνοντας μόλις 3,85 $ δολάρια το μήνα.

Ωστόσο, η έρευνα βρήκε λογαριασμούς Patreon που προσφέρουν προς πώληση, φωτορεαλιστικές άσεμνες εικόνες παιδιών που δημιουργούνται από AI, με διαφορετικά επίπεδα τιμολόγησης ανάλογα με τον τύπο του υλικού που ζητήθηκε.

Ένας έγραψε στον λογαριασμό του: «Εγώ εκπαιδεύω τα κορίτσια μου στον υπολογιστή μου», προσθέτοντας ότι δείχνουν «υποταγή». Για 8,30 $ δολάρια το μήνα, ένας άλλος χρήστης πρόσφερε «αποκλειστική τέχνη χωρίς λογοκρισία».

Το BBC έστειλε στο Patreon ένα παράδειγμα, το οποίο η πλατφόρμα επιβεβαίωσε ότι ήταν «ημιρεαλιστικό και παραβιάζει τις πολιτικές μας» Είπε ότι ο λογαριασμός αφαιρέθηκε αμέσως. Η Patreon είπε ότι είχε μια πολιτική «μηδενικής ανοχής», επιμένοντας: «Οι δημιουργοί δεν μπορούν να χρηματοδοτήσουν περιεχόμενο αφιερωμένο σε σεξουαλικά θέματα που αφορούν ανηλίκους».

O Ίαν Κρίτσλεϊ

Η εταιρεία είπε ότι η αύξηση του επιβλαβούς περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη στο Διαδίκτυο ήταν «πραγματική και οδυνηρή», προσθέτοντας ότι είχε «εντοπίσει και αφαιρέσει αυξανόμενες ποσότητες» αυτού του υλικού. «Ήδη απαγορεύουμε το συνθετικό υλικό εκμετάλλευσης παιδιών που δημιουργείται από την τεχνητή νοημοσύνη», ανέφερε, περιγράφοντας τον εαυτό της ως «πολύ προληπτικό», με αφοσιωμένες ομάδες, τεχνολογία και συνεργασίες για να «διατηρούν τους εφήβους ασφαλείς».

Η πλατφόρμα δημιουργίας εικόνας AI Stable Diffusion δημιουργήθηκε ως μια παγκόσμια συνεργασία μεταξύ ακαδημαϊκών και ορισμένων εταιρειών, υπό την ηγεσία της βρετανικής εταιρείας Stability AI. Έχουν κυκλοφορήσει αρκετές εκδόσεις, με περιορισμούς γραμμένους στον κώδικα που ελέγχουν το είδος του περιεχομένου που μπορεί να δημιουργηθεί.

Ωστόσο, πέρυσι, μια παλαιότερη έκδοση «ανοιχτού κώδικα» κυκλοφόρησε στο κοινό, η οποία επέτρεπε στους χρήστες να αφαιρέσουν τυχόν φίλτρα και να την εκπαιδεύσουν ώστε να παράγει οποιαδήποτε εικόνα – συμπεριλαμβανομένων των παράνομων. Η Stability AI είπε στο BBC ότι «απαγορεύει οποιαδήποτε κατάχρηση για παράνομους ή ανήθικους σκοπούς στις πλατφόρμες της και οι πολιτικές της είναι σαφείς ότι αυτό περιλαμβάνει το CSAM (υλικό σεξουαλικής κακοποίησης παιδιών).

Κίνδυνοι για την ιδιωτική ζωή και την ασφάλεια

Καθώς η τεχνητή νοημοσύνη συνεχίζει να αναπτύσσεται με ταχείς ρυθμούς, έχουν τεθεί ερωτήματα σχετικά με τους μελλοντικούς κινδύνους που θα μπορούσε να θέσει για την ιδιωτική ζωή των ανθρώπων, τα ανθρώπινα δικαιώματά τους ή την ασφάλειά τους.

Ο Iαν Κρίτσλεϊ του NPCC δήλωσε επίσης ότι ανησυχεί ότι η πλημμύρα ρεαλιστικών εικόνων τεχνητής νοημοσύνης ή «συνθετικών» εικόνων θα μπορούσε να επιβραδύνει τη διαδικασία αναγνώρισης πραγματικών θυμάτων κακοποίησης.

«Δημιουργεί πρόσθετη απαίτηση, όσον αφορά την αστυνόμευση και την επιβολή του νόμου, για να εντοπιστεί πού κακοποιείται ένα πραγματικό παιδί, όπου κι αν βρίσκεται στον κόσμο, σε αντίθεση με ένα τεχνητό ή συνθετικό παιδί» εξήγησε.

Όπως είπε βρισκόμαστε σε μία κομβική στιγμή για την κοινωνία. «Μπορούμε να διασφαλίσουμε ότι το Διαδίκτυο και η τεχνολογία θα δημουργήσουν φανταστικές ευκαιρίες για τους νέους ή μπορεί να γίνει ένα πολύ πιο επιβλαβές μέρος», είπε.

newsbomb.gr

Ακολουθήστε το zinapost.gr στο Google News και δείτε πρώτοι όλες τις ειδήσεις για Lifestyle, Showbiz, Gossip News και αποκλειστικά βιντεο.

Newsroom

Latest

zinapost.gr