
Relatório abrange reclamações feitas no mundo inteiro, em um período de dez meses, e foi enviado à comissão australiana que monitora segurança nas redes. Google afirma que não permite a criação desse tipo de conteúdo e diz que levantamento representa volume de denúncias, e não de violações confirmadas. Google, tecnologia, buscas, negócios, business
Charles Platiau/File Photo/Reuters
O Google informou ter recebido mais de 300 denúncias de usuários em todo o mundo, ao longo de dez meses, que citam o uso de sua inteligência artificial para criação de conteúdos de terrorismo e abuso infantil, de acordo com a comissão australiana que monitora segurança nas redes.
O relatório é referente ao período entre abril de 2023 e fevereiro de 2024. No levantamento, o Google disse que recebeu 258 denúncias de usuários sobre suspeitas de conteúdos “deepfake” de terrorismo, ou de extrema violência, gerados pela sua IA, o Gemini. Outras 86 denúncias se referem a materiais de exploração ou abuso infantil criados pela ferramenta.
A empresa não informou quantas das reclamações foram verificadas, de acordo com a Comissão Australiana de Segurança Eletrônica.
Segundo a legislação do país, as empresas de tecnologia devem fornecer ao órgão, periodicamente, informações sobre seus esforços para reduzir os danos decorrentes do mal uso dessas ferramentas. Caso contrário, as empresas correm o risco de serem multadas.
Desde que o ChatGPT se tornou popular no mundo, no final de 2022, órgãos reguladores têm cobrado uma proteção maior das plataformas para impedir que a IA seja usada para atos de terrorismo, fraude, pornografia deepfake e outros abusos.
A Comissão de Segurança Eletrônica da Austrália disse que o relatório do Google é o “primeiro insight mundial” sobre como os usuários podem estar explorando a tecnologia para produzir conteúdo ilegal.
Segundo a líder do órgão, Julie Inman Grant, o levantamento mostra que é fundamental que as plataformas “incorporem e testem a eficácia de mecanismos de proteção para evitar que esse tipo de material seja gerado”.
De acordo com a comissão, o Google usou um sistema de correspondência automática que relaciona imagens recém-carregadas com outras já conhecidas para remover material de abuso infantil gerado com o Gemini. Mas a empresa não utilizou a mesma técnica para eliminar material terrorista ou de extrema violência, segundo o órgão.
Questionado, o Google respondeu que a empresa não permite a geração ou distribuição de conteúdo relacionado à facilitação de extremismo ou terrorismo, exploração ou abuso infantil ou outras atividades ilegais.
“Estamos empenhados em expandir nossos esforços para ajudar a manter os australianos seguros nas redes”, disse a empresa em nota. O Google também afirma que o levantamento representa o “volume global total de denúncias de usuários, e não de violações confirmadas dessa política”.