33.3 C
Manaus
quinta-feira, 17 abril, 2025
InícioMundoGoogle é criticado por falta de transparência em IA

Google é criticado por falta de transparência em IA

Date:


O Google publicou recentemente um relatório técnico sobre o Gemini 2.5 Pro, sua mais avançada IA até o momento. O documento apresenta os resultados das avaliações internas de segurança, mas levantou preocupações na comunidade especializada por conter poucos detalhes sobre os riscos potenciais do modelo.

Embora esses relatórios sejam considerados ferramentas importantes para apoiar pesquisas independentes e análises de segurança, o material divulgado pela empresa foi considerado superficial por especialistas ouvidos pelo site TechCrunch. A ausência de informações mais específicas dificulta a verificação de compromissos públicos assumidos pelo Google sobre segurança e transparência em IA.

imagem google gemini
Google foi criticado por falta de transparência em relatório de sua IA, o Gemini (Imagem: Gguy/Shutterstock)

Relatório do Gemini tem abordagem limitada e atrasos na publicação

Diferente de outras empresas do setor, o Google só publica relatórios técnicos após considerar que um modelo saiu da fase “experimental”. Além disso, as avaliações de “capacidades perigosas” realizadas internamente não são incluídas nesse tipo de documento — essas análises são reservadas a auditorias separadas.

A ausência dessas informações foi criticada por nomes do setor. “O relatório é muito esparso, contém informações mínimas e foi publicado semanas depois de o modelo estar disponível ao público”, afirmou Peter Wildeford, cofundador do Institute for AI Policy and Strategy. Para ele, isso inviabiliza uma avaliação transparente sobre a segurança do modelo.

Outro ponto levantado foi a falta de menção ao Frontier Safety Framework (FSF), estrutura criada pelo próprio Google no ano anterior para antecipar capacidades futuras de IA com potencial de causar danos severos. Segundo os especialistas, a omissão compromete a confiança no processo de segurança da empresa.

Compromissos não cumpridos e falta de relatórios

Thomas Woodside, cofundador do Secure AI Project, reconheceu a iniciativa de publicar o relatório, mas demonstrou ceticismo quanto à regularidade e profundidade das atualizações. Ele lembrou que o último teste de capacidades perigosas divulgado pela empresa foi em junho de 2024 — referente a um modelo anunciado quatro meses antes.

Além disso, o Google ainda não divulgou o relatório técnico do Gemini 2.5 Flash, uma versão mais enxuta e eficiente do modelo. A empresa informou que o documento está “a caminho”, sem fornecer uma data concreta.

Woodside espera que esse posicionamento indique uma mudança de postura. “Essas atualizações precisam incluir os resultados das avaliações de modelos que ainda não foram lançados publicamente, pois eles também podem representar riscos sérios”, afirmou ao TechCrunch.

Leia mais:

Tendência entre as big techs

Apesar de ter sido uma das primeiras a propor relatórios padronizados sobre IA, o Google não é a única empresa sob críticas por falta de transparência. A Meta publicou recentemente uma avaliação enxuta sobre os modelos abertos da linha Llama 4, enquanto a OpenAI optou por não divulgar nenhum relatório técnico sobre o GPT-4.1.

IA Google Meta OpenAI
Falta de transparência em segurança de IA não é exclusividade do Google (Imagem: Tada Images / Shutterstock.com)

As críticas ganham peso diante das promessas feitas pelo Google a órgãos reguladores. Há dois anos, a empresa assegurou ao governo dos EUA que publicaria relatórios de segurança para todos os modelos significativos lançados ao público, e fez promessas semelhantes a outros países.

Para Kevin Bankston, conselheiro sênior em governança de IA no Center for Democracy and Technology, a tendência atual representa uma “corrida para o fundo do poço” em termos de segurança e transparência. “Esse tipo de documentação limitada para o principal modelo de IA do Google é preocupante, especialmente considerando que empresas concorrentes estão encurtando os testes de segurança antes dos lançamentos”, destacou.

O Google afirma que, mesmo sem entrar em detalhes nos relatórios técnicos, realiza testes de segurança e simulações adversariais antes de disponibilizar seus modelos ao público.




Fonte: Olhar Digital

spot_img
spot_img