- Altman alerta ChatGPT não têm confidencialidade.
- OpenAI contesta ordem judicial para armazenar conversas.
- Preocupação com uso de IA em suporte emocional.
Muitos usuários tem utilizado o ChatGPT para suporte emocional ou conversas pessoais. A ideia, no entanto, pode não ser segura, conforme relata o próprio CEO da OpenAI.
Em entrevista ao podcast This Past Weekend w/ Theo Von, Sam Altman, CEO da OpenAI, afirmou que ainda não existe confidencialidade legal para interações com IA.
Segundo Altman, muitos usuários, especialmente jovens, tratam o ChatGPT como terapeuta ou conselheiro, compartilhando informações delicadas. No entanto, essas conversas não têm proteção equivalente à de médicos, advogados ou terapeutas.
ChatGPT e chatbots não tem regulamentação para confidencialidade
Altman explicou que não há estrutura jurídica para garantir o sigilo em conversas com IA. De acordo com Altman:
As pessoas falam sobre as coisas mais pessoais de suas vidas com o ChatGPT. As pessoas o usam — principalmente os jovens — como um terapeuta, um coach de vida; tendo esses problemas de relacionamento e [perguntando] ‘o que devo fazer?’. E, neste momento, se você conversar com um terapeuta, um advogado ou um médico sobre esses problemas, existe o sigilo legal. Existe a confidencialidade médico-paciente, existe o sigilo legal, seja lá o que for. E ainda não descobrimos isso para quando você fala com o ChatGPT.
Ele defendeu a criação de normas que protejam a privacidade dessas interações, assim como acontece em atendimentos médicos.
O CEO também destacou que, em caso de processos judiciais, a OpenAI pode ser obrigada a fornecer registros de conversas.
Acho isso muito errado. Acho que deveríamos ter o mesmo conceito de privacidade para conversas com IA que temos com um terapeuta ou algo assim — e ninguém precisava pensar nisso há um ano.
A OpenAI está contestando uma ordem judicial relacionada ao processo contra o The New York Times, que exigiria o armazenamento de chats de milhões de usuários, com exceção dos clientes do ChatGPT Enterprise. A empresa considera a exigência um “exagero” e alerta para riscos de abertura de precedentes.
O tema da privacidade em dados digitais vem ganhando força, especialmente após decisões como a revogação do Roe v. Wade, que levou consumidores a buscar aplicativos com maior criptografia, como o Apple Health.
Altman concluiu reforçando que a falta de clareza jurídica pode impactar a confiança do público. De acordo com ele, faz sentido querer realmente a clareza da privacidade antes de usar o ChatGPT muito.
A declaração do CEO acende um alerta para empresas e usuários sobre a necessidade urgente de regras específicas para IA e privacidade. Isso, considerando que não apenas o ChatGPT, mas outros chatbots, como o DeepSeek, estão servindo de apoio emocional para muitas pessoas. Além disso, um estudo revelou outros problemas de confiar profundamente em chatbots para terapia.
