A Openai disse que não tem planos ativos de usar o chip interno do Google para alimentar seus produtos, dois dias depois que a Reuters e outros meios de comunicação relataram a mudança do laboratório de IA para recorrer às fichas de inteligência synthetic de seu concorrente para atender à crescente demanda.
Um porta -voz do Openai disse no domingo que, embora o laboratório de IA esteja em testes antecipados com algumas das unidades de processamento de tensores do Google (TPUs), ele não tem planos de implantá -los em escala agora.
O Google se recusou a comentar.
Embora seja comum que os laboratórios de IA testem diferentes chips, o uso de novos {hardware} em escala pode levar muito mais tempo e exigiria um suporte a arquitetura e software program diferentes. O OpenAI está usando ativamente as unidades de processamento gráfico da NVIDIA (GPUS) e os chips da AI da AMD para alimentar sua crescente demanda. O OpenAI também está desenvolvendo seu chip, um esforço que está a caminho de atender ao marco “Tape Out” este ano, onde o design do chip é finalizado e enviado para a fabricação.
O OpenAI se inscreveu no Google Cloud Service para atender às suas crescentes necessidades de capacidade de computação, a Reuters relatou exclusivamente no início deste mês, marcando uma colaboração surpreendente entre dois concorrentes proeminentes no setor de IA. A maior parte do poder de computação usada pelo OpenAI seria de servidores GPU alimentados pela chamada empresa neocloud CoreWeave.
O Google vem expandindo a disponibilidade externa de seus chips de IA internos, ou TPUs, que eram historicamente reservados para uso interno. Isso ajudou o Google a conquistar clientes, incluindo o Large Tech Participant Apple, além de startups como superinteligência antropal e segura, dois concorrentes do ChatGPT Maker lançados pelos ex-líderes do Openai.
© Thomson Reuters 2025