L’intelligence artificielle ouvre la porte à une tendance inquiétante de personnes à créer des images réalistes d’enfants dans des contextes sexuels, ce qui pourrait augmenter le nombre de cas de crimes sexuels contre des enfants dans la vie réelle, avertissent les experts.

Les plates-formes d’IA qui peuvent imiter la conversation humaine ou créer des images réalistes ont explosé en popularité à la fin de l’année dernière en 2023 après la sortie du chatbot ChatGPT, qui a servi de moment décisif pour l’utilisation de l’intelligence artificielle. Alors que la curiosité des gens du monde entier était piquée par la technologie pour les tâches professionnelles ou scolaires, d’autres ont adopté les plates-formes à des fins plus néfastes.

La National Crime Agency (NCA), qui est la principale agence britannique de lutte contre le crime organisé, a averti cette semaine que la prolifération d’images explicites d’enfants générées par des machines a un effet “radicalisant” “normalisant” la pédophilie et dérangeant les comportements envers les enfants.

“Nous estimons que la visualisation de ces images – qu’elles soient réelles ou générées par l’IA – augmente considérablement le risque que les délinquants abusent eux-mêmes sexuellement d’enfants”, a déclaré le directeur général de la NCA, Graeme Biggar, dans un récent rapport.

L’IA « DEEPFAKES » D’IMAGES INNOCENTES ALIMENTE UN PIC DE CARBURANT DANS LES ESCROQUERIES DE SEXTORTION, AVERTIT LE FBI

Graeme Biggar

Le directeur général de la National Crime Agency, Graeme Biggar, lors d’une réunion du Conseil de police d’Irlande du Nord à James House, Belfast, le 1er juin 2023. (Photo de Liam McBurney/PA Images via Getty Images)

L’agence estime qu’il y a jusqu’à 830 000 adultes, soit 1,6% de la population adulte au Royaume-Uni, qui présentent un certain type de danger sexuel contre les enfants. Le chiffre estimé est 10 fois supérieur à la population carcérale du Royaume-Uni, selon Biggar.

La majorité des cas d’abus sexuels sur des enfants impliquent la visualisation d’images explicites, selon Biggar, et avec l’aide de l’IA, la création et la visualisation d’images sexuelles pourraient “normaliser” l’abus d’enfants dans le monde réel.

L’INTELLIGENCE ARTIFICIELLE PEUT DÉTECTER LA ‘SEXTORTION’ AVANT QU’ELLE N’ARRIVE ET AIDE LE FBI : EXPERT

“[The estimated figures] reflètent en partie une meilleure compréhension d’une menace qui a été historiquement sous-estimée, et en partie une véritable augmentation causée par l’effet radicalisant d’Internet, où la disponibilité généralisée de vidéos et d’images d’enfants maltraités et violés, et de groupes partageant et discutant des images, a normalisé un tel comportement », a déclaré Biggar.

Ordinateur IA

Des illustrations d’intelligence artificielle sont vues sur un ordinateur portable avec des livres en arrière-plan sur cette photo d’illustration du 18 juillet 2023. (Photo de Jaap Arriens/NurPhoto via Getty Images)

Aux États-Unis, une explosion similaire d’utilisation de l’IA pour créer des images sexuelles d’enfants se déroule.

“Les images d’enfants, y compris le contenu de victimes connues, sont réutilisées pour cette sortie vraiment diabolique”, a déclaré Rebecca Portnoff, directrice de la science des données chez Thorn, une organisation à but non lucratif qui œuvre pour protéger les enfants, au Washington Post le mois dernier.

UN CANADIEN CONDAMNÉ À LA PRISON POUR PORNOGRAPHIE JUVÉNÉRALE GÉNÉRÉE PAR L’IA : RAPPORT

“L’identification des victimes est déjà un problème d’aiguille dans une botte de foin, où les forces de l’ordre essaient de trouver un enfant en danger”, a-t-elle déclaré. “La facilité d’utilisation de ces outils est un changement significatif, ainsi que le réalisme. Cela rend tout simplement plus difficile.”

Les sites d’IA populaires qui peuvent créer des images basées sur de simples invites ont souvent des directives communautaires empêchant la création de photos dérangeantes.

Adolescente

Adolescente dans une pièce sombre. (Getty Images)

Ces plates-formes sont formées sur des millions d’images provenant d’Internet qui servent de blocs de construction à l’IA pour créer des représentations convaincantes de personnes ou de lieux qui n’existent pas réellement.

LES AVOCATS SE PRÉPARENT AU POTENTIEL D’AI DE RENVERSER LES AFFAIRES JUDICIAIRES AVEC DE FAUSSES PREUVES

Midjourney, par exemple, appelle à un contenu PG-13 qui évite “la nudité, les organes sexuels, la fixation sur les seins nus, les personnes dans les douches ou les toilettes, les images sexuelles, les fétiches”. Alors que DALL-E, la plate-forme de création d’images d’OpenAI, n’autorise que le contenu classé G, interdisant les images qui montrent “la nudité, les actes sexuels, les services sexuels ou le contenu autrement destiné à susciter l’excitation sexuelle”. Cependant, des forums Web sombres de personnes mal intentionnées discutent de solutions de contournement pour créer des images dérangeantes, selon divers rapports sur l’IA et les crimes sexuels.

Voiture de police

Voiture de police avec signe 911. (Getty Images)

Biggar a noté que les images d’enfants générées par l’IA jettent également la police et les forces de l’ordre dans un labyrinthe de déchiffrement de fausses images de celles de vraies victimes qui ont besoin d’aide.

“L’utilisation de l’IA à cette fin rendra plus difficile l’identification des vrais enfants qui ont besoin de protection et normalisera davantage les abus sexuels sur les enfants parmi les délinquants et ceux à la périphérie de la délinquance. Nous évaluons également que la visualisation de ces images – qu’elles soient réelles ou générées par l’IA – augmente le risque que certains délinquants abusent sexuellement d’enfants dans la vraie vie “, a déclaré Biggar dans un commentaire fourni à Fox News Digital.

“En collaboration avec nos partenaires policiers internationaux, nous combinons nos compétences et capacités techniques pour comprendre la menace et nous assurer que nous disposons des bons outils pour lutter contre le matériel généré par l’IA et protéger les enfants contre les abus sexuels.”

Les images générées par l’IA peuvent également être utilisées dans des escroqueries à la sextorsion, le FBI ayant émis un avertissement sur les crimes le mois dernier.

Les deepfakes impliquent souvent l’édition de vidéos ou de photos de personnes pour les faire ressembler à quelqu’un d’autre en utilisant l’IA d’apprentissage en profondeur et ont été utilisés pour harceler des victimes ou collecter de l’argent, y compris des enfants.

LE FBI AVERTIT QUE DES DEEPFAKES AI SONT UTILISÉS POUR CRÉER DES PLANS DE « SEXTORTION »

“Les acteurs malveillants utilisent des technologies et des services de manipulation de contenu pour exploiter des photos et des vidéos – généralement capturées à partir du compte de réseau social d’un individu, d’Internet ouvert ou demandées à la victime – en images à thème sexuel qui semblent réalistes à l’image d’une victime, puis diffusez-les sur les réseaux sociaux, les forums publics ou les sites Web pornographiques “, a déclaré le FBI en juin.

CLIQUEZ ICI POUR OBTENIR L’APPLICATION FOX NEWS

“De nombreuses victimes, dont des mineurs, ignorent que leurs images ont été copiées, manipulées et diffusées jusqu’à ce qu’elles soient portées à leur attention par quelqu’un d’autre.”