A inteligência synthetic pode ter poderes impressionantes de infenderamento, mas não conte com isso para ter algo próximo aos poderes de raciocínio humano em breve. A marcha para a chamada Inteligência Geral Synthetic (AGI), ou IA capaz de aplicar raciocínio por meio de mudanças de tarefas ou ambientes da mesma maneira que os humanos, ainda está muito longe. Grandes modelos de raciocínio (LRMS)embora não seja perfeito, ofereça um passo tentativo nessa direção.
Em outras palavras, não conte com o seu robô de serviço de preparação para refeições para reagir adequadamente a uma incêndio na cozinha ou a um animal de estimação pulando sobre a mesa e bebendo comida.
Além disso: o novo Labor
O Santo Graal da IA tem sido pensar e raciocinar o mais humanamente possível – e os líderes e especialistas da indústria concordam que ainda temos um longo caminho a percorrer antes de alcançarmos essa inteligência. Mas os grandes modelos de linguagem (LLMs) e seus filhos LRM um pouco mais avançados operam em análises preditivas com base em padrões de dados, não no raciocínio complexo do humano.
No entanto, a conversa em torno da AGI e LRMS continua crescendo, e period inevitável que o hype ultrapasse em muito a tecnologia actual disponível.
“Atualmente, estamos no meio de uma praga de teatro de sucesso da IA”, disse Robert Blumofediretor de tecnologia e vice -presidente executivo da Akamai. “Há uma ilusão de progresso criado por demos de manchete, vitórias anedóticas e capacidades exageradas. Na realidade, verdadeiramente inteligente, pensamento Ai está muito longe. ”
Um recente papel Escrito por pesquisadores da Apple subestimaram a prontidão do LRMS. Os pesquisadores concluíram que os LRMs, como estão atualmente, não estão realmente conduzindo muito raciocínio acima e além dos LLMs padrão agora com amplo uso. (Meus colegas da ZDNET Lester Mapp e Sabrina Ortiz fornecem excelentes visões gerais das descobertas do artigo.)
Além disso: a ‘A ilusão de pensar’ da Apple é chocante – mas aqui está o que perdeu
Os LRMs são “derivados do LLMS durante a fase pós-treinamento, como visto em modelos como Deepseek-R1”, disse Xuedong Huang, diretor de tecnologia da Zoom. “A geração atual de LRMs otimiza apenas para a resposta remaining, não para o próprio processo de raciocínio, o que pode levar a etapas intermediárias falhas ou alucinadas”.
Os LRMs empregam cadeias de pensamento passo a passo, mas “devemos reconhecer que isso não equivale à cognição genuína, apenas imita isso”, disse Ivana BartolettiDiretor de Governança da AI da Wipro. “É provável que as técnicas de cadeia de pensamento melhorem, mas é importante permanecer fundamentado em nossa compreensão de suas limitações atuais”.
LRMS e LLMS são motores de previsão, “não solucionadores de problemas”, disse Blumofe. “O raciocínio deles é feito imitando padrões, não resolvendo os problemas de algoritmicamente. Portanto, parece lógica, mas não se comporta como lógica. O futuro do raciocínio na IA não vem de LLMs ou LRMs que acessam melhores dados ou mais tempo, mas também de um tipo de arquitetura, mas é mais importante que não seja o que é mais importante, mas é mais importante que não seja o tempo, mas também o que é mais importante.
Além disso: 9 tarefas de programação que você não deve entregar à IA – e por quê
No momento, um termo melhor para os recursos de raciocínio da IA pode ser “inteligência irregular”, disse Caiming Xiongvice -presidente de pesquisa de IA no Salesforce. “É aqui que os sistemas de IA se destacam em uma tarefa, mas falham espetacularmente em outro – particularmente nos casos de uso corporativo”.
Quais são os casos de uso potencial para LRMS? E qual é o benefício de adotar e manter esses modelos? Para iniciantes, os casos de uso podem parecer mais extensões dos LLMs atuais. Eles surgirão em várias áreas – mas é complicado. “A próxima fronteira dos modelos de raciocínio são tarefas de raciocínio que – diferentemente da matemática ou da codificação – são difíceis de verificar automaticamente”, disse Daniel HoskeCTO em Cresta.
Atualmente, os LRMs disponíveis cobrem a maioria dos casos de uso do Traditional LLMS – como “Escrita, planejamento e codificação criativos”, disse Petros EfstathopoulosVice -Presidente de Pesquisa na Conferência da RSA. “À medida que os LRMs continuam sendo melhorados e adotados, haverá um teto para o que os modelos podem alcançar de forma independente e quais serão os limites do colapso do modelo. Sistemas futuros aprenderão melhor a usar e integrar ferramentas externas, como mecanismos de pesquisa, ambientes de simulação de física e ferramentas de codificação ou segurança”.
Além disso: 5 dicas para a construção de modelos de fundação para a IA
Os casos de uso precoce para LRMs corporativos incluem contact facilities e trabalho de conhecimento básico. No entanto, essas implementações “estão repletas de problemas subjetivos”, disse Hoske. “Os exemplos incluem problemas de solução de problemas ou planejamento e execução de uma tarefa de várias etapas, dadas apenas objetivos de nível superior com conhecimento imperfeito ou parcial”. À medida que os LRMs evoluem, esses recursos podem melhorar, ele previu.
Normalmente, “o LRMS se destaca em tarefas facilmente verificáveis, mas difíceis de gerar-áreas como codificação, controle de qualidade complexas, planejamento formal e resolução de problemas baseados em etapas”, disse Huang. “Estes são precisamente os domínios onde o raciocínio estruturado, mesmo que sintético, pode superar a intuição ou a previsão do token de força bruta”.
Efstathopoulos relatou ter visto usos sólidos de IA em pesquisa médica, ciência e análise de dados. “Os resultados da pesquisa da LRM são encorajadores, com modelos já capazes de resolver problemas, combater quebra-cabeças complexos de raciocínio, planejamento e refinar as respostas no meio da geração”. Mas ainda é cedo no jogo para o LRMS, que pode ou não ser o melhor caminho para raciocinar totalmente a IA.
Além disso: como os agentes da IA podem gerar US $ 450 bilhões até 2028 – e o que fica no caminho
A confiança nos resultados que saem do LRMS também pode ser problemática, como foi para o Traditional LLMS. “O que importa é se, além dos recursos, esses sistemas podem raciocinar de forma consistente e confiável o suficiente para serem confiáveis além das tarefas de baixo risco e para a tomada crítica de decisões de negócios”, disse Xiong, do Salesforce. “Os LLMs de hoje, incluindo os projetados para raciocínio, ainda ficam aquém”.
Isso não significa que os modelos de linguagem sejam inúteis, enfatizou Xiong. “Estamos implantando -os com sucesso para assistência de codificação, geração de conteúdo e automação de atendimento ao cliente, onde seus recursos atuais fornecem valor genuíno”.
O raciocínio humano também não é sem imensas falhas e preconceitos. “Não precisamos de IA para pensar como nós – precisamos pensar conosco”, disse o Huang de Zoom. “A cognição ao estilo humano traz vieses e ineficiências cognitivos que podemos não querer nas máquinas. O objetivo é a utilidade, não imitação. Um LRM que pode raciocinar de maneira diferente, mais rigorosa ou mesmo mais transparentemente do que os humanos pode ser mais útil em muitas aplicações do mundo actual”.
Além disso: as pessoas não confiam na IA, mas estão cada vez mais usando de qualquer maneira
O objetivo do LRMS e, finalmente, a AGI, é “construir para a IA transparente sobre suas limitações, confiável dentro de capacidades definidas e projetado para complementar a inteligência humana em vez de substituí -lo”, disse Xiong. A supervisão humana é essencial, assim como “o reconhecimento de que o julgamento humano, o entendimento contextual e o raciocínio ético permanecem insubstituíveis”, acrescentou.
Quer mais histórias sobre a IA? Inscreva -se para a inovaçãonossa publication semanal.