Início Tecnologia A caixa da AI está chegando – construa a sua própria ou...

A caixa da AI está chegando – construa a sua própria ou pertence à Big Tech

3
0

 

Tl; dr: As caixas da AI estão chegando. Podemos construir o nosso próprio ou deixar que a grande tecnologia os construa para nós. Adivinhe em qual eles estão apostando.

Lembra quando Richard Hendricks continuou reclamando de “The Box” e todos pensaram que ele o havia perdido? Bem, acontece que o louco bastardo estava certo. Acabamos de errar a linha do tempo.

No Vale do Silício da HBO, “The Box” representou a escolha entre plataformas descentralizadas que capacitam os usuários e o hardware centralizado que os trava em ecossistemas corporativos.

A caixa não é um algoritmo de compressão mágica. É o hardware da Edge AI que pode executar os modelos que precisavam de data centers do Google há dois anos. E está enviando agora.

O padrão que deve aterrorizá -lo

  • 2014: Amazon Echo aparece. “É apenas um orador”, dissemos.
  • 2018: Google e Apple seguem com seus próprios cilindros de espionagem.
  • 2022: Chatgpt quebra a Internet. Todo mundo perde suas mentes.
  • 2025: A AMD envia chips de consumo com 50 tops. Nvidia Jetson atinge 275 tops por US $ 2.400.
  • 2027: A Canalys prevê 60% dos novos PCs serão capazes de AI, acima dos 20% em 2024.

Esse prazo de 2027 é onde decidimos se as famílias possuem sua IA ou o alugam para sempre da Big Tech.

Aqui está o que acabou de mudar tudo

Aqueles modelos que precisavam de infraestrutura em nuvem maciça? Suas versões reduzidas, mas práticas, estão em execução em hardware que você pode realmente comprar-se você souber onde procurar:

Opções de consumidor/prosumer:

  • Amd ryzen ai max+ 395: Memória unificada de 128 GB, US $ 2.800, 45-120W-o único dispositivo Prosumer que pode executar o lhama 70b localmente a 4-8 tokens/s
  • Nvidia RTX 4090: 24 GB VRAM, US $ 1.500, 350W – poderoso, mas com memória, não pode lidar com modelos 70b
  • Nvidia Jetson Agx Orin: 64 GB RAM, US $ 2.400, 15-60W – Excelente para a IA de borda, mas atinge a parede de memória com modelos grandes

Soluções somente empresariais:

  • Nvidia H100/H200: 80-192GB VRAM, US $ 20.000+, 350-1000W-pode executar qualquer modelo, mas requer infraestrutura do servidor
  • Intel Gaudi 2/3: 96 GB+ Memória, US $ 5-8k, 350-600W-desempenho competitivo, mas requisitos de preços e energia corporativos

Verificação da realidade: Amd ryzen ai max+ 395 é atualmente o apenas Dispositivo Prosumer que pode executar o LLAMA 70B localmente. O consumidor GPUs da NVIDIA é o máximo de 24 GB (não é suficiente), seus cartões corporativos custam mais de US $ 20.000, e até o Jetson Agx Orin atinge uma parede de 64 GB. Os chips Gaudi da Intel funcionam, mas requerem infraestrutura do servidor e preços corporativos.

A AMD conseguiu isso através da arquitetura de memória unificada-até 128 GB LPDDR5X compartilhada entre CPU, GPU e NPU em um pacote silencioso e eficiente em termos de energia que se encaixa em um desktop ou laptop.

O momento da área de trabalho do Linux (mas pior)

O Windows chegou primeiro, os efeitos da rede surgiram e, quando o Linux estava pronto para as normas, todos já estavam trancados no ecossistema da Microsoft.

Estamos exatamente no mesmo momento com a IA. Exceto que desta vez a linha do tempo é de 2 a 3 anos, não décadas, e as apostas são a inteligência da sua família, não apenas o seu gerente de arquivo. Depois que a IA da sua família é integrada ao ecossistema Apple/Google/Amazon, a troca significa reconstruir toda a sua vida digital.

No Ready Player One, Wade Watts sonha em atualizar seu hardware desatualizado para acessar melhores mundos virtuais, mas ele não pode pagar as coisas boas. Estamos enfrentando a mesma escolha com a IA – exceto que as apostas não são acesso ao entretenimento, elas são soberania intelectual e privacidade.

Por que podemos realmente ganhar desta vez

A lacuna de hardware está fechando (mas não fechada): O hardware do consumidor agora corresponde à computação bruta das GPUs em nuvem de apenas dois anos atrás. Você pode executar modelos locais capazes para análise de documentos, automação de fundo e tarefas de IA de rotina-mas ainda não estamos em velocidades de chatgpt em tempo real. Pense no processamento rápido do lote em vez de conversas instantâneas.

Aqui está a aceleração que importa: os custos de hardware estão caindo 30% ao ano, enquanto a eficiência energética melhora 40% ao ano. Os novos chips estão entregando ganhos de desempenho de 2,8 a 3x nas gerações anteriores a cada 12 a 18 meses – mais rápido que a lei de Moore. O que custa US $ 2.800 hoje custará US $ 800 a US $ 1.200 em 18 a 24 meses.

A privacidade não é mais abstrata: Da Bans Tiktok a controvérsias de eliminação de dados do ChatGPT, as pessoas finalmente entendem que seus dados não são seguros. As manchetes “Treinamento de IA em suas conversas” atingem diferente quando é sua inteligência sendo usada para treinar sua substituição.

Os modelos estão se tornando commodities: Meta (llama), Mistral, Deepseek, Alibaba (Qwen) estão lançando modelos capazes que funcionam localmente. Agora você pode executar a IA decente sem ela se enquadrar na sede corporativa.

A realidade técnica honesta

O que você pode realmente fazer com 4-8 tokens por segundo?

Sejamos honestos – isso ainda não é para famílias comuns. Com 4-8 tokens por segundo, você não está recebendo a experiência suave do ChatGPT que a maioria das pessoas espera. Você está configurando tarefas e esperando.

Atualmente, isso é para entusiastas da tecnologia que desejam experimentar a IA local, desenvolvedores que construíram aplicativos e usuários conscientes da privacidade dispostos a negociar conveniência para a soberania de dados. O mercado familiar real chega quando esse hardware atinge US $ 500 a 800 e o software se torna tão simples quanto configurar um roteador sem fio.

Mas eis por que isso importa: na ponta da borda, a IA está pronta para a família, precisamos da infraestrutura, ecossistema de software e conhecimento da comunidade. Alguém tem que construir a fundação agora, ou as famílias só terão as opções da Big Tech quando estão prontas para adotar.

As limitações atuais:

  • Gap de desempenho: Modelos locais ainda ficam atrás do GPT-4O/Claude em raciocínio complexo e tarefas multimodais
  • Carga de manutenção: Você é responsável por patches de segurança, atualizações de modelos e falhas de hardware
  • Poder e calor: Em execução AI 24/7 significa lidar com o consumo de energia de 45-120W, geração de calor e potencial ruído do ventilador
  • Ecossistema de software: Ao melhorar rapidamente com projetos como Ollama, as ferramentas ainda têm arestas

Isso ainda não está plug-and-play. É mais como “entusiasta competente de bricolage com vários fins de semana e muita paciência”.

O que você pode realmente fazer agora

Se você é tecnicamente intencionado:

  • Comece a experimentar o ollama, modelos locais e hardware de borda AI
  • Documente o que funciona (e o que não funciona) para os outros
  • Junte -se às comunidades construindo essas coisas: R/Autohosted, R/Homelab, R/Localllama

Se você tem a mente dos negócios:

  • Há uma economia de serviço emergindo em torno da configuração e manutenção da IA ​​Edge
  • As famílias querem soberania digital, mas não sabem como construí -la

Se você se preocupa com a liberdade digital:

  • Projetos de apoio a construir alternativas
  • Não compre a primeira caixa AI subsidiada que envia
  • Compartilhe isso com pessoas que se lembram quando a Internet foi descentralizada

Cloud vs. Edge: os números reais

Cloud AI (Chatgpt Plus, Claude Pro):

  • Custo inicial: $ 0
  • Custo anual: US $ 240- $ 600 (US $ 20-50/mês)
  • Total de 3 anos: US $ 720- $ 1.800
  • Privacidade de dados: suas conversas saem de casa e treinam modelos corporativos

Edge AI (configuração DIY):

  • Custo inicial: US $ 2.500 (sistema AMD Ryzen AI Max+)
  • Custo anual: US $ 100- $ 200 (energia, manutenção)
  • Total de 3 anos: US $ 2.800- $ 3.100
  • Privacidade de dados: tudo permanece local

Os trabalhos de matemática: Custo de hardware único de US $ 2.500 contra as assinaturas de US $ 20 a 50/mês para sempre. Mas o valor real é a privacidade.

Estamos no momento de 1993

Em 1993, você ainda pode escolher uma Internet descentralizada. Em 2003, as plataformas haviam vencido.

Em 2025, você ainda pode escolher a soberania de borda da IA. Até 2027, o projeto de previsões múltiplas do setor é um dos principais pontos de inflexão: 60% dos novos PCs serão capazes de AI, a computação de IA crescerá 10x globalmente e os ecossistemas estarão bloqueados.

A janela está aberta agora. A visão de Pied Piper de tecnologia descentralizada que atende usuários em vez de plataformas é finalmente tecnicamente possível.

Mas as janelas não ficam abertas para sempre.

A linha inferior

A caixa está chegando. A pergunta é: você vai construí -lo ou a grande tecnologia construirá para você?

Os próximos 2 a 3 anos determinarão se as famílias possuem sua IA ou alugam para sempre. O hardware existe. Os modelos estão disponíveis. A única peça que falta é a decisão de agir.

Os analistas do setor projetam que, até 2027, a IA será integrada a quase todos os softwares de negócios, com a computação de IA disponível globalmente para crescer 10x e o mercado de IA se aproximando de US $ 1 trilhão. O hardware existe. Os modelos estão disponíveis. O mercado precisa dele. A única pergunta é: quem o controla?

O que você acha? Estamos construindo o futuro ou apenas cosplay como combatentes da liberdade digital?

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui