Cabinet d'avocats spécialisé dans les dommages corporels à Seattle, Washington. Évaluation gratuite de votre dossier au 206-335-3880
19 mai 2024
Un récent rapport de l'Observatoire Internet de l'Université de Stanford a tiré la sonnette d'alarme sur un nouveau flot de abus sexuel des enfants matériel créé par l’intelligence artificielle, qui menace de submerger les autorités existantes. Le rapport souligne les graves défis auxquels est confronté le Centre national pour les enfants disparus et exploités. (NCMEC) dans la lutte contre cette menace croissante.
Au cours de l’année écoulée, les progrès de la technologie de l’IA ont permis aux criminels de créer plus facilement des images explicites d’enfants. Ces évolutions ont considérablement augmenté le volume de matériel sexuel impliquant des enfants en ligne, compliquant les efforts des organisations chargées de protéger les enfants et de poursuivre les contrevenants.
La CyberTipline en charge de tous les reportings sur (abus sexuel des enfants Matériel) CSAM en ligne et constitue un outil essentiel pour les enquêtes des forces de l’ordre. Cependant, la ligne de signalement est déjà mise à rude épreuve par un volume élevé de rapports incomplets ou inexacts. Avec son petit personnel qui a du mal à suivre le rythme, l’ajout de contenu hautement réaliste généré par l’IA devrait exacerber ces problèmes.
"Il est presque certain que dans les années à venir, Tipline sera inondé de contenu d'IA très réaliste, ce qui rendra encore plus difficile pour les forces de l'ordre d'identifier les vrais enfants qui doivent être secourus", a déclaré Shelby Grossman, l'une des les auteurs du rapport.
Ce domaine émergent de la criminalité est encore en cours de définition par les législateurs et les forces de l'ordre, ce qui complique encore davantage la lutte contre ce phénomène. Selon les chercheurs, les images CSAM générées par l'IA sont illégales si elles contiennent de vrais enfants ou si elles utilisent des images d'enfants réels pour entraîner des données. Cependant, les images créées de manière synthétique qui ne représentent pas de personnes réelles pourraient potentiellement être protégées au titre de la liberté d’expression, créant ainsi une zone grise juridique qui complique l’application de la loi.
L'indignation du public face à la prolifération d'images d'abus sexuels sur des enfants en ligne a été évidente lors d'une récente audience avec les dirigeants de grandes entreprises technologiques, notamment Meta, Snap, TikTok, Discord et X. Les législateurs ont critiqué ces entreprises pour ne pas en faire assez pour protéger les jeunes. enfants en ligne.
En réponse, le NCMEC a plaidé en faveur d'une législation visant à augmenter son financement et à donner accès à une technologie plus avancée. Les chercheurs de Stanford, qui ont eu accès à des entretiens avec des employés du NCMEC et leurs systèmes, ont souligné les vulnérabilités et les systèmes obsolètes qui nécessitent une mise à jour urgente.
"Au fil des années, la complexité des signalements et la gravité des crimes contre les enfants continuent de s'aggraver. Par conséquent, l'exploitation des solutions technologiques émergentes dans l'ensemble du processus CyberTipline permet de protéger davantage d'enfants et de responsabiliser les délinquants."
Le rapport de Stanford a révélé que moins de la moitié de tous les signalements effectués auprès de CyberTipline en 2022 étaient « exploitables » en raison du manque d’informations des sociétés déclarantes ou de la diffusion rapide d’images en ligne, conduisant à de multiples rapports en double. Cette inefficacité est aggravée par une option dans le système de ligne de signalement permettant de marquer le contenu comme un mème potentiel, ce qui n'est souvent pas utilisé.
Au cours d'une seule journée plus tôt cette année, CyberTipline a reçu un million de rapports de CSAM, dont beaucoup étaient liés à une image mème largement partagée pour exprimer son indignation et non une intention malveillante. Malgré la nature inoffensive de ces rapports, ils ont quand même consommé d’importantes ressources d’enquête.
La tendance à l’augmentation des rapports va probablement s’aggraver avec la prolifération du contenu généré par l’IA. "1 million d'images identiques, c'est déjà assez difficile, un million d'images distinctes créées par l'IA les briseraient", - Alex Stamos, l'un des auteurs du rapport de Stanford.
Le NCMEC et ses sous-traitants sont confrontés à des restrictions concernant l'utilisation de fournisseurs de cloud computing, les obligeant à stocker les images localement. Cette restriction entrave la capacité de l'organisation à créer et à utiliser le matériel spécialisé nécessaire à la création et à la formation de modèles d'IA pour les aider dans leurs enquêtes. De plus, l’organisation ne dispose pas de la technologie nécessaire pour utiliser largement un logiciel de reconnaissance faciale pour identifier les victimes et les agresseurs, une grande partie du traitement des rapports étant encore effectuée manuellement.
À mesure que la lutte contre le CSAM généré par l’IA s’intensifie, le besoin de solutions robustes et adaptables devient de plus en plus pressant. La lutte du NCMEC pour protéger les enfants dépend de sa capacité à évoluer face aux menaces technologiques émergentes, garantissant qu'aucun enfant ne soit laissé vulnérable à l'exploitation.
Si vous ou quelqu'un que vous connaissez avez été victime d'abus sexuel pendant l'enfance et souhaitez intenter une action en justice, notre équipe expérimentée est là pour aider. Contactez-nous aujourd'hui au (206) 335-3880 ou (646) -421-4062 pour une consultation confidentielle et faites le premier pas vers la justice et la clôture.
Les commentaires seront approuvés avant de s'afficher.
03 février 2025
Si vous êtes blessé dans un accident causé par des conditions de neige ou de glace, il est essentiel de comprendre vos droits légaux. Avocats spécialisés dans les accidents de tempête de neige à Seattle, Oshan & Associates se spécialiser dans les cas de dommages corporels
11 janvier 2025
22 décembre 2024
Les informations fournies sur ce site Web, y compris tous les articles de blog, articles et autres contenus, sont fournies à titre informatif uniquement et ne doivent pas être interprétées comme des conseils juridiques. Aucune relation avocat-client n'est établie en accédant ou en utilisant ce site ou son contenu.
Inscrivez-vous pour recevoir les dernières nouvelles sur les accidents dans l'État de Washington, des articles d'auto-assistance et plus encore…
© 2025 Oshan et associésNous nous battons pour les blessés !