- OpenAI exige ID verificada para acessar novas IAs avançadas
- Medida visa segurança e uso ético da inteligência artificial
- Verificação bloqueia abusos e protege dados contra espionagem tecnológica
A OpenAI anunciou que, em breve, exigirá que organizações passem por um processo de verificação de identidade para acessar determinados modelos futuros de inteligência artificial (IA).
Essa medida visa garantir o uso seguro e responsável das tecnologias avançadas desenvolvidas pela empresa.
Processo de verificação: Organização Verificada
A iniciativa, denominada “Organização Verificada”, permitirá que desenvolvedores desbloqueiem o acesso aos modelos e recursos mais avançados da plataforma OpenAI. Para isso, será necessário apresentar um documento de identidade oficial, emitido por um dos países suportados pela API da OpenAI.
Cada documento poderá verificar apenas uma organização a cada 90 dias, e nem todas as empresas serão elegíveis para verificação.
Segundo a OpenAI, essa medida busca mitigar o uso indevido das APIs, já que uma minoria de desenvolvedores viola intencionalmente as políticas da empresa. A verificação funcionará como uma barreira contra práticas inseguras, mantendo ao mesmo tempo os modelos avançados acessíveis à comunidade global de desenvolvedores.
Segurança e proteção da propriedade intelectual
A exigência de verificação também reforça a segurança dos produtos da OpenAI, que se tornam cada vez mais sofisticados. A empresa tem investido em detectar e mitigar o uso malicioso de seus modelos, inclusive por grupos suspeitos da Coreia do Norte.
Além disso, a OpenAI tenta prevenir o roubo de propriedade intelectual. Uma investigação recente apura se um grupo ligado ao laboratório chinês DeepSeek extraiu dados em larga escala da API da OpenAI no fim de 2024. O material teria sido usado para treinar modelos próprios, o que viola os termos de uso da empresa.