Tech2 News Logo Dark Tech2 News Logo Light
Grupo de Ofertas
  • Notícias
  • Apps
  • Auto
  • Inteligência Artificial
  • Ciência
  • Celular
  • Games
  • Software
    • VPN
  • Apostas
Você está lendo: Hacker engana ChatGPT a dar instruções detalhadas de como fazer uma bomba
Compartilhe
Font ResizerAa
Tech2Tech2
Pesquisar
  • Últimas Notícias
  • Apostas
  • Apps
  • Auto
  • Celular
  • Ciência
  • Computador
  • Curiosidades
  • Inteligência Artificial
  • Internet
  • Games
  • Software
    • VPN
  • Universo
Tech2 > Notícias > Hacker engana ChatGPT a dar instruções detalhadas de como fazer uma bomba
Notícias

Hacker engana ChatGPT a dar instruções detalhadas de como fazer uma bomba

Por Luciano Rodrigues
Última Atualização: 09/11/2024
Compartilhe
Hacker engana ChatGPT a dar instruções detalhadas de como fazer uma bomba
Hacker engana ChatGPT a dar instruções detalhadas de como fazer uma bomba - Imagem: Dall-E
Compartilhe

O ChatGPT, famoso por sua capacidade de realizar diversas tarefas de forma automatizada, está programado para se recusar a fornecer informações perigosas, como a criação de explosivos. Contudo, um hacker conhecido como Amadon recentemente expôs uma brecha nas salvaguardas do chatbot.

Utilizando uma técnica conhecida como “jailbreaking”, ele conseguiu instruções detalhadas de como fabricar explosivos.

Durante os testes, o ChatGPT inicialmente recusou-se a colaborar, mas Amadon superou essa resistência ao colocar a IA em um cenário fictício de ficção científica. Dentro desse contexto, o chatbot não detectou os pedidos como perigosos e forneceu as instruções.

Este hack levanta preocupações sobre os riscos da inteligência artificial generativa, especialmente quando usada para acessar informações sensíveis ou potencialmente prejudiciais.

Um especialista em explosivos confirmou que as instruções geradas poderiam ser usadas para fabricar explosivos poderosos, destacando a gravidade da falha.

CONTINUA APÓS A PUBLICIDADE

Darrell Taulbee, professor aposentado da Universidade de Kentucky, que já trabalhou com o Departamento de Segurança Interna dos EUA para tornar o fertilizante usado na bomba menos perigoso, disse ao TechCrunch.

Eu acho que isso é definitivamente TMI [informação demais] para ser divulgada publicamente. Quaisquer salvaguardas que possam ter sido colocadas em prática para evitar o fornecimento de informações relevantes para a produção de bombas de fertilizante foram contornadas por esta linha de investigação, pois muitas das etapas descritas certamente produziriam uma mistura detonável.

Abordagem cria vulnerabilidades e coloca em cheque confiabilidade da IA

O processo de jailbreak de IA funciona ao enganar o sistema para que ele ignore suas próprias diretrizes. Amadon descreveu seu método como uma maneira de manipular a IA a agir fora de seus parâmetros de segurança, criando narrativas que jogam com as regras do chatbot, mas ultrapassam seus limites.

Ele relatou a falha à OpenAI, mas recebeu uma resposta indicando que não seria um simples bug a ser corrigido. Em vez disso, a solução para esse tipo de falha exige uma abordagem mais ampla e pesquisa aprofundada.

Essa vulnerabilidade destaca o potencial de risco dos modelos de IA, que acessam grandes quantidades de dados da internet.

Embora a OpenAI tenha investido em controles de segurança, incidentes como este mostram que há um longo caminho a percorrer para impedir completamente o uso indevido desses sistemas.

Até o momento, a OpenAI não comentou sobre possíveis soluções para o problema do jailbreak, deixando questões em aberto sobre a segurança e os limites dos sistemas de IA no futuro.

CONTINUA APÓS A PUBLICIDADE

Leia Também

Modo IA no Google transforma buscas em assistente de compras
Amazon Music lança busca com IA e detalhes de artistas para aumentar engajamento
Build 2025: Microsoft aposta no código aberto para conquistar desenvolvedores
Funcionário interrompe CEO da Microsoft em protesto pró-Palestina na Build 2025
Apple tropeça na corrida da IA e vê rivais dispararem
Sobre:ChatGPTExplosivoHackerOpenAISegurança
Compartilhe:
Facebook Whatsapp Whatsapp Telegram Copiar Link
Luciano Rodrigues
PorLuciano Rodrigues
Siga:
Jornalista, assessor de comunicação, escritor e comunicador, com MBA em jornalismo digital e 12 anos de experiência, tendo passado também por alguns veículos no setor tech.
Grupo com as melhores ofertas, descontos e promoções!

Estamos constantemente buscando as melhores ofertas e descontos para compartilhar com você em nosso grupo.

Whatsapp

Mais Lidas

Flamengo x LDU Quito: prognóstico, onde assistir, escalações e odds para apostas

Futebol
Google e Anthropic garantem Harvey parceria impulsionada pela OpenAI

Google e Anthropic garantem Harvey: parceria impulsionada pela OpenAI

IA da DeepMind supera humanos Um gênio em matemática e ciências

IA da DeepMind supera humanos: Um gênio em matemática e ciências

iPhone controlado pela mente Apple investe em tecnologia cerebral

iPhone controlado pela mente? Apple investe em tecnologia cerebral

poker online

Brasileiros invadem torneio de poker online com premiação de R$300 mil

  • Quem Somos
  • Política Editorial
  • Política de Privacidade
  • Sitemap
  • Contato

Redes: 

© 2024 Tech2. Todos os direitos reservado

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?