Tech2 News Logo Dark Tech2 News Logo Light
Grupo de Ofertas
  • Notícias
  • Apps
  • Auto
  • Inteligência Artificial
  • Ciência
  • Celular
  • Games
  • Software
    • VPN
  • Apostas
Você está lendo: Relatório de IA do Google ignora pontos críticos de segurança
Compartilhe
Font ResizerAa
Tech2Tech2
Pesquisar
  • Últimas Notícias
  • Apostas
  • Apps
  • Auto
  • Celular
  • Ciência
  • Computador
  • Curiosidades
  • Inteligência Artificial
  • Internet
  • Games
  • Software
    • VPN
  • Universo
Tech2 > Inteligência Artificial > Relatório de IA do Google ignora pontos críticos de segurança
Inteligência Artificial

Relatório de IA do Google ignora pontos críticos de segurança

Por Michael Henrique
Última Atualização: 17/04/2025
Compartilhe
Relatório de IA do Google ignora pontos críticos de segurança
Imagem: Dall-e
Compartilhe
  • Google omite dados cruciais sobre IA mais recente
  • Especialistas denunciam falta de transparência no setor
  • Relatórios de segurança viram promessa não cumprida

Na quinta-feira, o Google divulgou o relatório técnico do Gemini 2.5 Pro, seu modelo de inteligência artificial mais avançado. A publicação ocorreu semanas após o lançamento do sistema, mas o conteúdo decepcionou especialistas.

O documento deveria fornecer uma visão aprofundada sobre os riscos e a segurança do modelo. No entanto, ele trouxe poucos detalhes e ignorou pontos críticos como o uso do Frontier Safety Framework.

Especialistas apontam falhas no compromisso com segurança

O Google costuma divulgar relatórios técnicos apenas quando considera um modelo fora da fase experimental. Porém, segundo Thomas Woodside, cofundador do Secure AI Project, essa prática não acompanha a urgência exigida pelas novas tecnologias. “Não basta publicar algo semanas depois”, afirmou.

Além disso, o relatório do Gemini 2.5 Pro não incluiu os resultados das avaliações de “capacidade perigosa”, essenciais para medir riscos reais. A última vez que o Google compartilhou dados desse tipo foi em junho de 2024.

Peter Wildeford, do Instituto de Política e Estratégia de IA, reforçou a crítica: “É impossível saber se o Google cumpre seus compromissos públicos. Sem essa verificação, não há como garantir segurança.”

Falta de padrão e transparência preocupa comunidade científica

Enquanto o Google promete novos relatórios, como o do Gemini 2.5 Flash, ainda não publicou nada concreto. A ausência de informações prejudica o controle público e dificulta a atuação de órgãos reguladores.

Outras big techs seguem o mesmo caminho. A Meta publicou uma avaliação superficial sobre o Llama 4. Já a OpenAI optou por não divulgar relatórios de segurança do GPT-4.1, o que intensifica a sensação de opacidade.

Kevin Bankston, especialista em governança de IA, alertou para uma “corrida para o fundo do poço”. Para ele, as empresas priorizam lançamentos rápidos e negligenciam os testes profundos. Isso, segundo ele, compromete a segurança global.

O Google afirma realizar auditorias internas e testes adversários antes de lançar novos modelos. No entanto, sem publicar os resultados dessas análises, o público permanece no escuro.

Leia Também

Tinder aposta em IA e novos recursos para reconquistar usuários
ElevenLabs lança IA para criar músicas com uso comercial liberado
ChatGPT agora vai detectar sofrimento emocional e emitir alertas
Genie 3: DeepMind apresenta IA que pode gerar qualquer mundo real ou imaginário
Autor de best-sellers, Yuval Harari diz que IA pode dominar narrativas e enganar humanos
Sobre:googleIASegurança
Compartilhe:
Facebook Whatsapp Whatsapp Telegram Copiar Link
Michael Henrique
PorMichael Henrique
Siga:
Sou apaixonado por tecnologia, especialmente por consoles, começando minha jornada com um Nintendo 64. Gosto de explorar novos gadgets e sempre busco as melhores ofertas para economizar em minhas compras.

Mais Lidas

  • Quem Somos
  • Política Editorial
  • Política de Privacidade
  • Sitemap
  • Contato

Redes: 

© 2024 Tech2. Todos os direitos reservado

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?