• Julho 19, 2025
Logo_Site_01

Imagens de abuso sexual infantil removidas de base de dados que treina IA

IA

A base de dados de pesquisa LAION é um enorme banco de imagens e legendas ‘online’, que tem sido uma fonte para os principais criadores de imagens de IA, como Stable Diffusion e Midjourney.

Mas um relatório do ano passado do Stanford Internet Observatory descobriu que continha ligações para imagens sexualmente explícitas de crianças, contribuindo para a facilidade com que algumas ferramentas de IA conseguiram produzir ‘deepfakes’ fotorrealistas que retratam crianças.

Este relatório de dezembro levou a LAION, organização sem fins lucrativos que significa Rede Aberta de Inteligência Artificial em Grande Escala, a remover imediatamente o seu conjunto de dados.

Oito meses depois, a LAION disse num blogue que trabalhou com o grupo de vigilância da Universidade de Stanford e com organizações antiabuso no Canadá e no Reino Unido para resolver o problema e libertar uma base de dados limpa para futuras pesquisas de IA.

O investigador de Stanford, David Thiel, autor do relatório de dezembro, elogiou a LAION pelas melhorias significativas, mas disse que o próximo passo era retirar da distribuição os “modelos contaminados” que ainda são capazes de produzir imagens de abuso infantil.

Uma das ferramentas baseadas no LAION que Stanford identificou como o “modelo mais popular para gerar imagens explícitas” — uma versão mais antiga e ligeiramente filtrada do Stable Diffusion — mantinha-se facilmente acessível até quinta-feira, quando a empresa Runway ML, sediada em Nova Iorque , a removeu do repositório de modelos de IA.

A Runway referiu na sexta-feira, em comunicado, que se tratou de uma “descontinuação planeada de modelos e códigos de investigação que não foram mantidos ativos”.

A versão limpa da base de dados LAION surge numa altura em que os governos de todo o mundo analisam mais de perto a forma como algumas ferramentas tecnológicas estão a ser utilizadas para criar ou distribuir imagens ilegais de crianças.

O procurador da cidade de São Francisco interpôs no início do mês uma ação judicial que visa encerrar um grupo de ‘sites’ que permitem a criação de nus de mulheres e raparigas gerados por IA.

A alegada distribuição de imagens de abuso sexual de crianças na aplicação de mensagens Telegram faz parte do processo que levou as autoridades francesas a apresentarem acusações na quarta-feira contra o fundador e CEO da plataforma, Pavel Durov.

A detenção de Durov “sinaliza uma mudança realmente grande em toda a indústria tecnológica, de que os fundadores destas plataformas podem ser responsabilizados pessoalmente”, frisou David Evan Harris, investigador da Universidade da Califórnia, em Berkeley.

David Evan Harris contactou recentemente a Runway perguntando por que razão o problemático gerador de imagens de IA ainda estava acessível ao público, tendo sido retirado dias depois.

Anuncie aqiu
    Deixe um comentário
    Logo branco

    Ultimas Noticias

    Categorias

    Logo branco
    Comunidade Lusa é um site de notícias onde pode encontrar as mais recentes informações sobre a nossa comunidade portuguesa no mundo e acima de tudo na Suíça. Aqui encontra também novidades sobre eventos culturais e temas como: desporto, mulher, opinião e publireportagens muito interessantes sobre empresas na Suíça.
    © Comunidade Lusa 2025. Todos direitos reservados.
    WP2Social Auto Publish Powered By : XYZScripts.com