Alguns anos atrás, Deepfakes era uma novidade -Algo relegado a threads do Reddit e memes de troca de rosto. Agora, eles são ferramentas no arsenal dos cibercriminosos, combinados perfeitamente com grandes modelos de linguagem para fornecer ataques personalizados que são tão escaláveis quanto convincentes.
A sofisticação está na transferência: grandes modelos de idiomas geram diálogo diferenciado e com reconhecimento de contexto para uso em e-mails, scripts e mensagens de folga, enquanto a Deepfake Tech lhes dá um rosto e voz. Sozinho, cada uma dessas ferramentas é perigosa. Juntos, eles são capazes de imitar um executivo em tom, conteúdo e presença física, o suficiente para ignorar os porteiros mais céticos.
A questão veio à tona nesta semana com Relatórios que um ator ruim se apresentando como secretário de Estado dos EUA, Marco Rubio, entrou em contato com vários funcionários do governo usando os deepfakes para imitar o estilo de voz e escrita de Rubio. Acredita -se que o impostor estava tentando obter acesso a contas privilegiadas.
Um funcionário de Hong Kong em uma empresa de finanças multinacionais Ficou vítima de um golpe de representação do Deepfake em 2023 que utilizou a síntese de vídeo e voz Para imitar o CFO durante uma videoconferência. Os atacantes reuniram dados audiovisuais suficientes de reuniões públicas e postagens de mídia social para criar uma réplica convincente. Apoiados por scripts gerados por LLM, referenciando operações internas, eles orquestraram um ambiente de alta confiança-que foi concluído com uma transferência de US $ 25 milhões. Não havia carga útil maliciosa ou malware – apenas o engano executado perfeitamente.
Marcadores de phishing tradicionais, como gramática quebrada, fraseado desajeitado e chamadas vagas para a ação, estão sendo apagadas pelos LLMs que escrevem gramaticalmente, imitam o tom, se adaptam ao jargão e na cadência da sentença espelhada. Com um pouco de engenharia rápida, os invasores podem treinar LLMs para imitar a voz de um CTO, usar referências privilegiadas e até antecipar respostas prováveis do destinatário.
O que torna essa tendência profundamente alarmante é o seu potencial de impacto generalizado. Ao contrário das operações manuais de phishing, que requerem reconhecimento e conteúdo personalizado para cada Target, os LLMs permitem geração rápida de milhares de mensagens individualizadas. Os sintetizadores de voz e vídeo podem criar avatares multimídia convincentes em minutos a partir de apenas alguns segundos de conteúdo amostrado. Essas não são mais operações de boutique. Eles estão se tornando fábricas de phishing automatizadas e acessíveis a qualquer pessoa com habilidades técnicas modestas e uma unidade de processamento de gráficos.
A infraestrutura de segurança reproduz a recuperação
Ataques de phishing modernos exploram confiança. Nossa postura e ferramentas de segurança atuais não são criadas para isso. A maioria das defesas de phishing depende da identificação de padrões suspeitos, como URLs malformados, endereços IP incomuns e metadados inconsistentes. O phishing acionado por DeepFake pula tudo isso. Ele chega via Slack, Google Meet ou mesmo um telefonema.
Pior ainda é que o conteúdo gerado pela IA geralmente ilude a triagem por filtros tradicionais de email e ferramentas de detecção comportamental. É improvável que uma mensagem gerada por GPT desencadeie heurísticas gramaticais. Uma voz clonada não soa como um robô, mas como seu chefe. Mesmo plataformas como o LinkedIn e o Github, que pretendem promover a transparência, tornaram -se fontes para treinamento de modelos. Qualquer coisa compartilhada publicamente é um combustível potencial para o engano sintético.
O treinamento de conscientização sobre segurança também está ficando para trás. As bandeiras vermelhas tradicionais não existem mais. Sinais reveladores, como saudações incomuns ou frases estranhas, foram substituídas por gírias corporativas e detalhes autênticos. Protocolos de verificação – “Ligue para o seu gerente se algo parecer suspeito” – é inútil quando a chamada em si for falsificada.
Até Soluções mais recentes, como a DeepFake Detection AI, são apenas parcialmente eficazes. A maioria exige feeds de vídeo e áudio limpos e não compactados para analisar microexpressões faciais ou modulações vocais. Condições do mundo real, como iluminação ruim e molduras, obscurecem esses sinais. Além disso, há o problema de latência. Quando um sistema de detecção sinaliza uma falsa potencial, a transferência de arame já pode estar completa.
O que é necessário é uma mudança para a base contextual e comportamental. Os sistemas de segurança devem aprender como são os padrões normais de comunicação, as impressões digitais linguísticas e as horas de trabalho para todos os desvios do usuário e da bandeira, não apenas em metadados, mas também em tom, semântica e efeito emocional. Os LLMs podem ser treinados em logs de comunicação interna para detectar quando uma mensagem de entrada não corresponde exatamente aos padrões estabelecidos de um remetente.
A autenticação multifatorial estática também deve evoluir para um processo contínuo que abrange biometria, localização do dispositivo, ritmo comportamental e outros fatores que adicionam atrito ao processo de representação.
Estacas foram criadas
A ascensão defases de alta qualidade marca uma mudança fundamental na maneira como percebemos a identidade digital. Até recentemente, os humanos eram os melhores validadores de outros humanos. Mas deepfakes e LLMs agora produz saídas que atendem ou excedem os padrões humanos de autenticidade. O sensor humano não é mais confiável. Isso tem implicações impressionantes não apenas para segurança corporativa, mas também para direito, governança, jornalismo, geopolítica e qualquer domínio que depende da confiança.
Os atacantes já estão vários movimentos à frente nos primeiros dias dessa corrida armamentista sintética da realidade. O fechamento da lacuna levará mais do que melhor software; Exigirá mudanças arquitetônicas e filosóficas. Até Processando documentos de saúde E o compartilhamento de informações confidenciais deve ser reimaginado desde o início.
As estratégias de prevenção e resposta devem prosseguir ao longo de várias frentes.
- Testes adversários – uma técnica para avaliar a robustez dos modelos de IA, tentando intencionalmente enganá -los com insumos especialmente criados – precisa ser o mainstream. As equipes vermelhas devem começar a incorporar simulações de phishing orientadas pela IA em seus manuais. As equipes de segurança devem construir personas sintéticas internamente, testando quão bem suas defesas se sustentam quando bombardeadas por executivos críveis, mas falsos. Pense nisso como engenharia do caos para confiança.
- Os fornecedores devem incorporar a resiliência em suas ferramentas. Plataformas de colaboração, como Zoom, Slack e equipes, precisam de protocolos de verificação nativos, não apenas integrações de terceiros. O conteúdo gerado por IA da marca d’água é uma abordagem, embora não seja infalível. A verificação de proveniência em tempo real-ou rastreamento quando, como e por quem o conteúdo foi criado-é uma melhor abordagem de longo prazo.
- As políticas precisam de mais dentes. Os órgãos regulatórios devem exigir a divulgação de meios sintéticos em comunicações corporativas. As instituições financeiras devem sinalizar o comportamento anômalo com mais rigor. Os governos precisam padronizar definições e protocolos de resposta para ameaças de representação sintética, especialmente quando elas cruzam as fronteiras.
Talvez mais urgentemente, devemos começar a tratar a confiança como um recurso escasso. O conteúdo sintético só crescerá em volume, realismo e acessibilidade. As organizações devem criar camadas de verificação em torno de todas as interações, assumindo, por padrão, que o que vêem e ouçam pode ser falsificado.
Isla Sibanda é uma especialista ética de hackers e segurança cibernética com sede em Pretória, África do Sul. Por mais de 12 anos, ela trabalha como analista de segurança cibernética e especialista em testes de penetração para várias empresas, incluindo o Standard Bank Group, Cipherwave e Axxess.
Imagem: Siliconangle/Reve
Apoie nosso conteúdo gratuito aberto compartilhando e envolvendo nosso conteúdo e comunidade.
Junte -se ao theCube Rede de confiança de ex -alunos
Onde os líderes de tecnologia se conectam, compartilham inteligência e crie oportunidades
11.4K+
Rede de ex -alunos do Cube
N-LEVEL E TÉCNICO
Especialistas em domínio
Conecte -se a 11.413 mais líderes do setor de nossa rede de líderes de tecnologia e negócios, formando um efeito de rede confiável único.
A Siliconangle Media é um líder reconhecido em inovação de mídia digital, que serve públicos e marcas inovadoras, reunindo tecnologia de ponta, conteúdo influente, idéias estratégicas e envolvimento do público em tempo real. Como empresa controladora de SiliconangleAssim, Rede de TheCubeAssim, THECUBE PESQUISAAssim, Cube365Assim, thecube ai e TheCube Superstudios – como os estabelecidos no Vale do Silício e na Bolsa de Valores de Nova York (NYSE) – Siliconangle Media opera na interseção da mídia, tecnologia e IA. .
Fundada pelos visionários de tecnologia John Furrier e Dave Vellante, a Siliconangle Media construiu um poderoso ecossistema de marcas de mídia digital líder do setor, com um alcance de mais de 15 milhões de profissionais de tecnologia de elite. O novo e proprietário da empresa, a nuvem de vídeo AI está abrindo a interação do público, alavancando a rede neural thecubaii.com para ajudar as empresas de tecnologia a tomar decisões orientadas a dados e permanecer na vanguarda das conversas do setor.