As imagens de abuso sexual infantil criadas pela inteligência synthetic estão se tornando “significativamente mais realistas”, de acordo com um vigia de segurança on -line.
A Web Watch Basis (IWF) disse que os avanços na IA estão refletidos no conteúdo ilegal criado e consumido por pedófilos, dizendo: “Em 2024, a qualidade dos vídeos gerados pela IA melhorou exponencialmente, e todos os tipos de imagens de IA avaliados parecem significativamente mais realistas à medida que a tecnologia desenvolvida.”
A IWF revelou em seu relatório anual que recebeu 245 relatórios de imagens de abuso sexual infantil geradas pela IA que quebraram a lei do Reino Unido em 2024-um aumento de 380% nos 51 observados em 2023. Os relatórios equivalem a 7.644 imagens e um pequeno número de vídeos, refletindo o fato de que um URL pode conter vários exemplos de materials ilegal.
A maior proporção dessas imagens foi o materials “Categoria A”, o termo para o tipo mais extremo de conteúdo de abuso sexual infantil que inclui atividade sexual penetrante ou sadismo. Isso foi responsável por 39% do materials de IA acionável visto pelo IWF.
O governo anunciou em fevereiro que se tornará ilegal de possuir, criar ou distribuir ferramentas de IA projetadas para gerar materials de abuso sexual infantil, fechando uma brecha authorized que alarmou os ativistas da polícia e da segurança on -line. Também se tornará ilegal para alguém possuir manuais que ensinam às pessoas a usar as ferramentas de IA para fazer imagens abusivas ou para ajudá -las a abusar das crianças.
O IWF, que opera uma linha direta no Reino Unido, mas tem uma missão international, disse que as imagens geradas pela IA estão cada vez mais aparecendo na Web aberta e não apenas na “Internet Darkish”-uma área da Web acessada por navegadores especializados. Ele disse que o materials mais convincente gerado pela IA pode ser indistinguível de imagens e vídeos reais, mesmo para analistas treinados da IWF.
O relatório anual do Watchdog também anunciou níveis recordes de páginas da net que hospedam imagens de abuso sexual infantil em 2024. A IWF disse que havia 291.273 relatos de imagens de abuso sexual infantil no ano passado, um aumento de 6% em 2023. A maioria das vítimas nos relatórios period meninas.
A IWF também anunciou que estava disponibilizando uma nova ferramenta de segurança para websites menores gratuitamente, para ajudá -los a identificar e impedir a propagação de materials de abuso em suas plataformas.
A ferramenta, chamada Picture Intercept, pode detectar e bloquear imagens que aparecem em um banco de dados IWF contendo imagens de 2,8m que foram marcadas digitalmente como imagens criminais. O cão de guarda disse que ajudaria plataformas menores a cumprir a recém -introduzida Lei de Segurança On-line, que contém disposições sobre como proteger crianças e combater o conteúdo ilegal, como materials de abuso sexual infantil.
Derek Ray-Hill, o executivo-chefe interino da IWF, disse que disponibilizar a ferramenta livremente foi um “momento importante na segurança on-line”.
O secretário de Tecnologia, Peter Kyle, disse que o aumento de abuso e sextortion gerados pela IA-onde as crianças estão chantageadas com o envio de imagens íntimas-sublinhou como “as ameaças aos jovens on-line estão em constante evolução”. Ele disse que a nova ferramenta de interceptação de imagem period um “exemplo poderoso de como a inovação pode fazer parte da solução para tornar os espaços on -line mais seguros para as crianças”.