Os fluxos de trabalho agênticos estão rapidamente se tornando a espinha dorsal da IA corporativa, permitindo a automação escalável que preenche os sistemas no native e a nuvem sem adicionar complexidade.
À medida que a adoção da IA acelera, as empresas estão indo além dos experimentos e para a implantação no nível da produção, e estão fazendo isso com ferramentas que enfatizam a flexibilidade sobre a rigidez. Usando APIs padrão, infraestrutura modular e componentes de código aberto, os fluxos de trabalho Agentic permitem que as equipes merchandise rapidamente, mantendo o controle. Isso marca uma mudança crítica na estratégia: as empresas não estão apenas perseguindo recursos de IA, estão construindo arquiteturas que tornam essas capacidades sustentáveis, seguras e adaptáveis a ambientes em evolução, de acordo com Ajay Mungara (foto, à esquerda), diretor sênior de produtos de desenvolvedor e ecossistema – knowledge middle e IA na Intel Corp.
Ajay Mungara e Chris Department da Intel conversam com o TheCube sobre fluxos de trabalho agênticos.
“O que realmente estamos focados agora é que há muito {hardware}. Há muita conversa sobre IA”, disse Mungara. “E em todos os lugares que você vai, todo mundo é uma empresa de IA. Todo caso de uso é um caso de uso de IA. Todo mundo está falando sobre a assistência digital, fluxos de trabalho agênticos, tudo isso. Para tornar a IA actual, é muito simples e muito complexa ao mesmo tempo … quando você precisa implantar essa escala, na nuvem ou um híbrido, fica muito complexo.”
Mungara e Chris Branch (à direita), o gerente de vendas estratégica da IA na Intel conversou com o TheCube’s Dave Vellante e Savannah Peterson no Dell Technologies Worlddurante uma transmissão exclusiva no TheCube, o estúdio de transmissão ao vivo da Siliconangle Media. Eles discutiram como os fluxos de trabalho agênticos, alimentados por padrões abertos e infraestrutura modular, estão permitindo que as empresas escalarem a IA com mais eficiência em ambientes nuvem e no native. (* Divulgação abaixo.)
Como os fluxos de trabalho agênticos desbloqueiam IA escalável
As organizações que adotam fluxos de trabalho agênticos estão cada vez mais se voltando para APIs padrão e plataformas de código aberto para simplificar a implantação de AI em escala. Ao abstrair as complexidades de {hardware} e infraestrutura, esses fluxos de trabalho permitem integração perfeita em diversos ambientes, dando às empresas a flexibilidade de alterar as cargas de trabalho sem reescrever o código, de acordo com a filial.
“A razão pela qual estou empolgado com a Agentic e essa coisa de endpoint da API é porque, no passado, todos tinham que se desenvolver no próprio silício, e period complicado. Demorou uma eternidade”, disse ele. “Com o fluxo de trabalho agêntico combinado com as APIs, o que você pode fazer é ter um painel que executa vários modelos simultaneamente. O que esse fluxo de trabalho agentico com essas APIs permite é que as empresas executem aqueles em sistemas diferentes em diferentes momentos em diferentes locais sem alterar seu código”.
Essa modularidade também se estende aos casos de uso de inferência, como interfaces de bate -papo, detecção de defeitos e automação de TI. Cada tarefa pode aproveitar um modelo de IA diferente ou um recurso de computação, mas com fluxos de trabalho agênticos, todos eles podem operar dentro de um painel unificado. Padrões como as APIs de lhama e Openai são centrais para permitir esse nível de fluidez e colaboração entre agentes, de acordo com Mungara.
“Sem esse padrão, esse agente não pode nem descobrir a existência de outro agente, nem sabe o que fazer”, explicou. “Se você está tendo esses padrões, isso realmente permite que a inovação floresça. Mil flores podem florescer em todos os lugares, e você precisa apenas costurar para obter seus melhores resultados empresariais. Nesse tempo de valor, você só obterá se tiver esses níveis de padrões”.
Na fundação desta visão, está a plataforma aberta para a IA corporativa, que fornece blocos de construção com infraestrutura-agnóstico para IA generativa. Suportado por contribuições da Superior Micro Units Inc., Neo4J Inc., Infosys Ltd. e outros, a OPEA permite que as empresas testem rapidamente, validem e implantem soluções escaláveis na infraestrutura em nuvem e no native, explicou Department.
“Queremos que seja transparente, fácil de usar e muito mais agradável para resolver problemas do mundo actual, em vez de nos preocuparmos com a forma como vamos implementar isso”, disse ele. “Queremos resolver o problema difícil para que possamos chegar ao ponto em que estamos dizendo que estamos impactando os resultados dos negócios”.
Aqui está a entrevista de vídeo completa, parte da cobertura de Siliconangle e TheCube de Dell Technologies World:
https://www.youtube.com/watch?v=kf6uxhynwms
(* Divulgação: a Intel Corp. patrocinou esse segmento de thecube. Nem a Intel nem outros patrocinadores têm controle editorial sobre o conteúdo do theCube ou siliconangle.)
Foto: Siliconangle
Seu voto de apoio é importante para nós e nos ajuda a manter o conteúdo livre.
Um clique abaixo suporta nossa missão de fornecer conteúdo gratuito, profundo e relevante.
Junte -se à nossa comunidade no YouTube
Junte -se à comunidade que inclui mais de 15.000 especialistas em #Cubealumni, incluindo o CEO da Amazon.com, Andy Jassy, o fundador e CEO da Dell Applied sciences, Michael Dell, o CEO da Intel Pat Gelsinger e muito mais luminárias e especialistas.
OBRIGADO