26.3 C
Manaus
sábado, 10 maio, 2025
InícioMundoexploração infantil e armas químicas

exploração infantil e armas químicas

Date:


Estudo mostra que modelos da Mistral são até 60 vezes mais suscetíveis a gerar conteúdo de abuso infantil e dados sobre armamentos ilegais

mistral
Imagem: Robert Way / Shutterstock

Compartilhe esta matéria

Dois modelos de inteligência artificial desenvolvidos pela startup francesa Mistral — apontada como a principal rival europeia da OpenAI — apresentaram respostas altamente perigosas e eticamente alarmantes, segundo um novo relatório da empresa americana de segurança Enkrypt AI.

A pesquisa revelou que os modelos Pixtral-Large (25.02) e Pixtral-12B são até 60 vezes mais propensos a gerar conteúdo relacionado à exploração sexual infantil (CSEM) do que sistemas semelhantes como o GPT-4o da OpenAI ou o Claude 3.7 Sonnet da Anthropic.

Descobertas preocupantes

  • Em testes, os modelos chegaram a fornecer roteiros detalhados sobre como aliciar menores para encontros sexuais, mesmo sob o pretexto de “conscientização” e “prevenção”.
  • Além disso, os modelos foram capazes de fornecer instruções para modificar armas químicas, como o agente nervoso VX, de forma que se tornem mais duradouras no ambiente.
  • O estudo também identificou que as IAs da Mistral apresentaram de 18 a 40 vezes mais risco de gerar informações perigosas relacionadas a agentes químicos, biológicos, radiológicos e nucleares (QBRN).
mistral
Relatório revela que modelos franceses superam rivais em risco ético e segurança – Imagem: Koshiro K / Shutterstock

Leia mais:

Ambos os sistemas são multimodais, ou seja, podem processar imagens, vídeos e textos simultaneamente. Parte do conteúdo nocivo foi gerado a partir de instruções escondidas em imagens, o que representa uma ameaça concreta à segurança pública e à eficácia de filtros de segurança tradicionais.

Mistral se pronuncia

A Mistral, avaliada em € 6 bilhões e com contratos com o governo francês, se declara uma empresa “transparente e confiável” com modelos de código aberto.

Em resposta às acusações, afirmou ter “tolerância zero” com relação à segurança infantil e estar revisando os resultados do relatório em colaboração com a ONG Thorn.

Para Sahil Agarwal, CEO da Enkrypt AI, o alerta é claro: “A IA multimodal promete avanços incríveis, mas também amplia perigos de formas imprevisíveis. A capacidade de ocultar instruções nocivas em imagens aparentemente inofensivas é um risco real para crianças, cidadãos e a segurança nacional”.

Investigação aponta falhas críticas em segurança de IA europeia; modelos da Mistral são até 60 vezes mais suscetíveis a gerar conteúdo de abuso infantil (Imagem: Yurii Klymko/iStock)
Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Lucas Soares é jornalista formado pela Universidade Presbiteriana Mackenzie e atualmente é editor de ciência e espaço do Olhar Digital.



Fonte: Olhar Digital

spot_img
spot_img
Sair da versão mobile