A Apple, inicialmente em negociações com a Meta para integrar os modelos de inteligência artificial desta última em seus dispositivos, decidiu não seguir adiante com a parceria.
De acordo com um relatório da Bloomberg, as conversas ocorreram brevemente em março, mas foram arquivadas devido a preocupações com a privacidade e a imagem da Apple.
A decisão de não integrar os modelos de IA da Meta foi impulsionada, principalmente, por questões de privacidade.
A empresa de Cupertino tem sido uma crítica ferrenha das práticas de privacidade da Meta, e a parceria poderia comprometer a imagem da Apple.
A proteção dos dados dos usuários é uma prioridade para a Apple, e a associação com a Meta, que tem um histórico de controvérsias relacionadas à privacidade, poderia minar essa reputação.
Apple tem seu próprio modelo de IA e parceria com OpenAI
No início deste mês, a Apple lançou seu próprio conjunto de recursos de IA sob a marca Apple Intelligence.
Além disso, a empresa anunciou uma parceria com a OpenAI para permitir que usuários do iPhone utilizem o ChatGPT para determinadas consultas.
Essa parceria não é exclusiva, e a Apple afirmou estar aberta à integração de diferentes modelos de IA em seus dispositivos.
Durante a Worldwide Developer Conference (WWDC), a Apple confirmou que trabalhará com o Google para implantar o Gemini, outro avanço significativo na área de inteligência artificial.
Isso mostra que a Apple está comprometida em explorar diversas parcerias que se alinhem com seus valores e padrões de privacidade.
Apesar da recusa da Apple, a Meta não está desprovida de recursos.
A empresa continuará a utilizar seus próprios aplicativos, como Instagram, WhatsApp, Facebook e Messenger, que possuem bilhões de usuários.
Recentemente, a Meta lançou seu chatbot Meta AI, inicialmente apenas para usuários na Índia, seu maior mercado global.
A integração dos modelos de IA em suas plataformas sociais permite que a Meta aproveite sua vasta base de usuários sem depender de parcerias com outras grandes empresas de tecnologia.
A empresa pode continuar a desenvolver e implementar suas soluções de IA internamente, mantendo o controle sobre como esses modelos são utilizados e protegendo seus próprios interesses de privacidade.