Início Tecnologia Multiverse Computing Bags $ 215M para sua tecnologia de compactação de modelo...

Multiverse Computing Bags $ 215M para sua tecnologia de compactação de modelo de AI de inspiração quântica

6
0

Multiverse Computing SL Disse hoje que levantou US $ 215 milhões em financiamento para acelerar a implantação de sua tecnologia de compactação de modelos de inteligência artificial inspirada em computação quântica, que promete reduzir drasticamente os custos da inferência de IA sem impactar no desempenho.

O investimento da Série B foi liderado pela Bullhound Capital e viu a participação de vários outros, incluindo a HP Tech Ventures da Hewlett Packard Enterprise Co., Setting, ForgePoint Capital International, CDP Venture Capital, Santander Climate VC, Quandonation, Toshiba Corp. e capital Riesgo de Euskadi – Grupo Spri.

A rodada representa uma injeção significativa de capital para a startup, que levantou US $ 25 milhões através de um investimento da Série A em março de 2024. O grande impulso ilustra o enorme potencial de sua tecnologia, que a empresa diz que pode reduzir o tamanho de grandes modelos de idiomas em até 95% sem que eles tenham um impacto de desempenho. Tem implicações dramáticas em termos do custo da inferência de IA ou da execução desses modelos em produção.

Quando os aplicativos de IA aumentam, o custo de executá -los pode rapidamente chegar a milhões de dólares. É extremamente proibitivo, daí o desejo de encontrar uma maneira de executá -los a um custo mais acessível, e é isso que o Multiverse pretende fornecer.

O desafio é que os LLMs exigem hardware poderoso, com os aplicativos mais avançados utilizando enormes aglomerados das unidades de processamento gráfico da Nvidia Corp., que custam milhares de dólares cada e usam grandes quantidades de energia. O que o Multiverse faz é comprimir o tamanho desses LLMs para que eles possam executar em clusters muito menores.

Isso é Tecnologia Compatifai faz isso através do uso de “Algoritmos de inspiração quântica”Que são redes de tensores avançados com base nos princípios da computação quântica. Esses algoritmos têm a capacidade única de localizar as partes mais relevantes de qualquer modelo de IA, bem como as partes menos relevantes. Fazendo isso, ele reivindica, pode retirar os bits desnecessários do modelo e reduzir significativamente seu tamanho, sem qualquer impacto de desempenho perceptível.

O co-fundador e diretor de tecnologia da Multiverse, Román Orús, o mentor que foi pioneiro em redes de tensores, disse que trabalha com o perfil do funcionamento interno das redes neurais que a Power LLMS. “Podemos eliminar bilhões de correlações espúrias para otimizar verdadeiramente todos os tipos de modelos de IA”, disse ele.

Além de oferecer sua tecnologia, ela também criou uma biblioteca de modelos Compactifai, que são versões altamente compactadas dos principais LLMs de código aberto, como llama, Mistral e Deepseek, que mantêm sua precisão original. De acordo com a Multiverse, esses modelos compactados estão entre quatro a 12 vezes mais rápidos que os originais, permitindo que os custos de inferência sejam reduzidos em qualquer coisa de 50% para 80%. Ele diz que os modelos Compactifai podem ser executados na nuvem, em data centers privados ou, no caso de seus “LLMs ultra compactados”, eles podem até executar dispositivos de bordas, como computadores pessoais, smartphones, carros e outros dispositivos, como o Raspberry Pi.

A empresa insiste que o Compactifai é muito mais eficaz do que as técnicas de compactação de modelos existentes, como quantização e poda, o que dificulta significativamente a precisão e o desempenho do LLMS. Ele acrescenta que a tecnologia também pode ser usada para treinamento de IA, acelerando o tempo necessário para treinar e ajustar modelos em até 1.000 vezes, o que significa drasticamente custos.

O co-fundador e executivo-chefe Enrique Lizaso Olmos disse que está tentando mudar a sabedoria predominante de que o LLMS de encolhimento tem um custo em termos de desempenho. “O que começou como um avanço na compressão do modelo rapidamente se mostrou transformador”, disse ele. “Estamos desbloqueando novas eficiências na implantação de IA e ganhando rápida adoção para nossa capacidade de reduzir radicalmente os requisitos de hardware para a execução de modelos de IA”.

A startup já convenceu algumas grandes empresas das vantagens de seus algoritmos de inspiração quântica, incluindo o HPE, que tem usado a tecnologia para encolher a IA até o ponto em que pode ser executado localmente em computadores pessoais.

“Ao tornar os aplicativos de IA mais acessíveis no limite, a abordagem inovadora da Multiverse tem o potencial de trazer benefícios de IA de desempenho aprimorado, personalização, privacidade e eficiência de custos à vida para empresas de qualquer tamanho”, disse o presidente da HP de tecnologia e inovação Tuan Tran.

O co-fundador da Bullhound Capital e parceiro gerente de Roman disse que está apoiando o Multiverse porque há uma “necessidade global” de mais eficiência nos modelos de IA. “Román Orús nos convenceu de que ele e sua equipe de engenheiros estão desenvolvendo soluções verdadeiramente de classe mundial nesse campo altamente complexo e intensivo em computação”, disse ele.

Imagem: Siliconangle/Dreamina

Seu voto de apoio é importante para nós e nos ajuda a manter o conteúdo livre.

Um clique abaixo suporta nossa missão de fornecer conteúdo gratuito, profundo e relevante.

Junte -se à nossa comunidade no YouTube

Junte -se à comunidade que inclui mais de 15.000 especialistas em #Cubealumni, incluindo o CEO da Amazon.com, Andy Jassy, ​​o fundador e CEO da Dell Technologies, Michael Dell, o CEO da Intel Pat Gelsinger e muito mais luminárias e especialistas.

“O TheCube é um parceiro importante da indústria. Vocês realmente fazem parte de nossos eventos e realmente apreciamos que você venha e eu sei que as pessoas apreciam o conteúdo que você cria também” – Andy Jassy

OBRIGADO

fonte