A base de dados de pesquisa LAION é um enorme banco de imagens e legendas 'online', que tem sido uma fonte para os principais criadores de imagens de IA, como Stable Diffusion e Midjourney.
Mas um relatório do ano passado do Stanford Internet Observatory descobriu que continha ligações para imagens sexualmente explícitas de crianças, contribuindo para a facilidade com que algumas ferramentas de IA conseguiram produzir 'deepfakes' fotorrealistas que retratam crianças.
Este relatório de dezembro levou a LAION, organização sem fins lucrativos que significa Rede Aberta de Inteligência Artificial em Grande Escala, a remover imediatamente o seu conjunto de dados.
Oito meses depois, a LAION disse num blogue que trabalhou com o grupo de vigilância da Universidade de Stanford e com organizações antiabuso no Canadá e no Reino Unido para resolver o problema e libertar uma base de dados limpa para futuras pesquisas de IA.
O investigador de Stanford, David Thiel, autor do relatório de dezembro, elogiou a LAION pelas melhorias significativas, mas disse que o próximo passo era retirar da distribuição os "modelos contaminados" que ainda são capazes de produzir imagens de abuso infantil.
Uma das ferramentas baseadas no LAION que Stanford identificou como o "modelo mais popular para gerar imagens explícitas" -- uma versão mais antiga e ligeiramente filtrada do Stable Diffusion -- mantinha-se facilmente acessível até quinta-feira, quando a empresa Runway ML, sediada em Nova Iorque , a removeu do repositório de modelos de IA.
A Runway referiu na sexta-feira, em comunicado, que se tratou de uma "descontinuação planeada de modelos e códigos de investigação que não foram mantidos ativos".
A versão limpa da base de dados LAION surge numa altura em que os governos de todo o mundo analisam mais de perto a forma como algumas ferramentas tecnológicas estão a ser utilizadas para criar ou distribuir imagens ilegais de crianças.
O procurador da cidade de São Francisco interpôs no início do mês uma ação judicial que visa encerrar um grupo de 'sites' que permitem a criação de nus de mulheres e raparigas gerados por IA.
A alegada distribuição de imagens de abuso sexual de crianças na aplicação de mensagens Telegram faz parte do processo que levou as autoridades francesas a apresentarem acusações na quarta-feira contra o fundador e CEO da plataforma, Pavel Durov.
A detenção de Durov "sinaliza uma mudança realmente grande em toda a indústria tecnológica, de que os fundadores destas plataformas podem ser responsabilizados pessoalmente", frisou David Evan Harris, investigador da Universidade da Califórnia, em Berkeley.
David Evan Harris contactou recentemente a Runway perguntando por que razão o problemático gerador de imagens de IA ainda estava acessível ao público, tendo sido retirado dias depois.
Leia Também: Brasil revoga proibição imposta à Meta sobre uso de dados de IA