Aconteceu em silêncio. No início de 2023, a inteligência synthetic generativa (IA) e os chatbots alimentados por grandes modelos de idiomas (LLMs) foram considerados inócuos, capazes apenas de escrever ensaios excessivamente formais e responder a perguntas baseadas em fatos. No entanto, com o passar dos meses, esses chatbots obtiveram recursos adicionais. Primeiro, eles aprenderam a responder a perguntas subjetivas; Em seguida, eles obtiveram acesso à Web e poderiam contar a pontuação ao vivo de uma partida ou como uma ação estava se apresentando em tempo actual. Então, em maio de 2024, as coisas deram uma guinada escura, especialmente se você possuía um website de conteúdo ou fosse um editor de notícias.
O Google, um dos desafiantes do trono da IA, divulgou uma visão geral da IA na pesquisa. Period uma pequena janela onde Gêmeos geraria um breve resumo em resposta às consultas que os usuários foram feitos. A caixa pequena rapidamente se tornou uma maneira mais fácil de encontrar informações sem ter que clicar em qualquer hyperlink e ser redirecionado para outro website. No entanto, não foram apenas uma visão geral da IA. O ChatGPT da Openai seguiu o exemplo e trouxe um mecanismo de pesquisa movido a IA integrado ao chatbot. A Perplexity criou um mecanismo de resposta nativo da AI, enquanto o Claude do Anthrópico permite que os usuários enviem um arquivo e respondam às consultas com base nele. O efeito da bola de neve estava com força whole.
Enquanto a maioria das pessoas não percebeu, uma mudança de paradigma ocorreu na maneira como a Web foi usada. As pessoas não estavam mais procurando na net; Eles estavam pedindo à IA que colete as informações. No entanto, com essa transição, websites de conteúdo e editores de notícias começaram a sentir o calor.
A reestruturação do modelo de tráfego da Web
Uma grande parte da Web visível hoje-os websites indexáveis e as páginas da Internet que aparecem nos resultados de pesquisa no Google, Bing, Yahoo ou DuckDuckGo-consiste em websites orientados a conteúdo. Isso inclui plataformas de notícias (como a que você está lendo este artigo), mídia social, websites de blogs, fóruns e muito mais.
Essas plataformas, gerenciadas por empresas ou criadores individuais, são constantemente atualizadas com conteúdo novo, novas ferramentas de engajamento e experiências de usuário projetadas para atrair visitantes. Ao fazer tudo isso, o objetivo é atrair um grande número de visitantes. Essa queda dos visitantes, também conhecida como tráfego da Web, permite que os websites sejam mais altos nos mecanismos de pesquisa e obtenham receita com os anúncios exibidos nas páginas.
As regras, até agora, são diretas: se um website tiver conteúdo que atrai um grande número de pessoas, ele atrai mais visitantes, o que o tornará mais visível na Web e pode ganhar mais dinheiro mostrando anúncios. Em poucas palavras, o conteúdo determina a direção do tráfego da Web, que por sua vez determina a geração de receita. Mesmo que o sistema pareça ser transacional, as regras garantem que a qualidade do conteúdo e da informação proceed sendo o maior foco. Mas com a ascensão da IA, essas regras estão quebrando.
O típico AI Chatbot com recursos de pesquisa na Internet usa bots (também conhecidos como rastreadores) para digitalizar centenas de websites e seu conteúdo em segundos. Quando um usuário solicita uma consulta, coloca os dados, gera uma resposta pure da linguagem e os apresenta. Na maioria das vezes, esses chatbots fornecerão citações em linha para as fontes, mas se você já estivesse recebendo a resposta diretamente no bate -papo, com que frequência você realmente clicaria no website authentic?
Então, o que acontece quando apenas a IA e seus rastreadores estão visitando esses websites de conteúdo? Por um lado, esses bots não contam como tráfego actual, pois não deixam pegada visível. Eles não veem anúncios e, como resultado, não geram receita. Como resultado, os websites obtêm menos tráfego e ainda menos receita.
O impacto actual nos editores de conteúdo e notícias
Os tremores desta mudança já são visíveis. De acordo com o similarweb (via O economista), o tráfego international de busca caiu 15 % ano a ano (YOY) em junho de 2025. Os dados mais antigos também mostram que a taxa sem clique para websites de notícias cresceu de 56 % em maio de 2024 (foi quando as visões gerais da IA foram lançadas), para quase 69 % em maio de 2025.
Para as pesquisas sem saber, sem cliques ou cliques, consulte as situações em que um usuário pode encontrar uma resposta para a consulta de pesquisa diretamente na página de resultados do mecanismo de pesquisa (SERP) sem precisar clicar em nenhum dos websites listados. Para piorar a situação, o similarweb também descobriu que o tráfego orgânico levou uma desaceleração, caindo de mais de 2,3 bilhões de visitas no H1 2024 para menos de 1,7 bilhão em junho.
Estes não são apenas números. Esta é a primeira reestruturação da Web desde que os mecanismos de pesquisa chegaram nos anos 90, e o mundo não está preparado para isso. Em maio, o website de notícias financeiras e de negócios da cidade de Nova York, Enterprise Insider segundo Demitou 21 % de sua força de trabalho para “suportar caídas extremas de tráfego fora de nosso controle”.
Enterprise Insider também não é um caso isolado. De acordo com dados similares (via New York Put up), o HuffPost e o Washington Put up viram seu tráfego cair em até 50 % entre abril de 2022 e abril de 2025.
O surgimento da nova tecnologia também está moldando como os usuários da Web acessam informações. De acordo com o Monetary Occasions relatório80 % dos usuários agora usam conteúdo gerado por IA por cerca de 40 % de suas consultas de pesquisa.
A declaração do problema
No centro de toda essa reestruturação está um problema único. Desde que existem mecanismos de pesquisa, eles conseguiram usar seus bots para rastejar websites. Isso foi feito para analisar o conteúdo e classificar as páginas da Internet mais relevantes no topo. Este contrato foi benéfico para os mecanismos de pesquisa e os proprietários de websites. Se os websites seguissem boas práticas de conteúdo, eles seriam levados ao topo dos resultados da pesquisa, e os mecanismos de pesquisa receberiam usuários repetidos se as consultas mostrassem resultados de alta qualidade.
No entanto, as empresas de IA agora estão usando esse mesmo método para rastejar e analisar o conteúdo de websites sem vantagem para os editores. No entanto, os websites não podem bloquear esses rastreadores, pois as plataformas de IA geralmente implantam esses bots sem divulgação adequada. Por exemplo, Reddit recentemente processado Após o primeiro, o primeiro descobriu que os bots deste último acessavam a plataforma de mídia social até 1,00.000 vezes em menos de um ano. Com o Google, as coisas são ainda piores. A gigante da tecnologia usa os mesmos bots para rastejar websites para a IA que ele usa para indexá -los em seu mecanismo de pesquisa. Portanto, se os editores optarem por não participar da IA analisando seus dados, eles também abandonaram a pesquisa do Google, matando efetivamente seu tráfego.
Os protestos começaram
Notícias e editores de mídia entendem essa situação e não planejam permanecer em silêncio. O processo do Reddit contra o antrópico é apenas um em muitos desses casos atualmente pendentes em tribunais.
Em fevereiro, Condé Nast, o Atlântico, a Forbes, o Guardian e outros arquivaram um processo Contra a startup de IA coerente, alegando o uso não autorizado de conteúdo protegido por direitos autorais de mais de 4.000 artigos.
O editor Ziff Davis, empresa controladora por trás da ZDNet, PCMAG, CNET e IGN, também entrou com uma ação contra o OpenAi, acusando o último de “intencionalmente e incansavelmente” explorando conteúdo protegido por direitos autorais. Na Índia, a ANI entrou com uma ação semelhante contra o fabricante de chatgpt.
Além disso, a Aliança de Notícias/Mídia da Associação de Mídia, sem fins lucrativos dos EUA, que representa pessoas como o New York Occasions, o Washington Put up e a Vox Media, emitiram uma declaração contra o modo AI do Google e chamou seu funcionamento de “a definição de roubo”. No entanto, a maioria desses casos está em andamento e os tribunais não decidiram que eles criam um precedente. As empresas de IA argumentam que seu uso de informações publicamente disponíveis está sob uso transformador e não quebra nenhuma lei de direitos autorais, enquanto os editores argumentam que o acesso não autorizado ao próprio conteúdo quebra a lei.
Perspectivas futuras são preocupantes
Os debates sobre se um sistema de IA superinteligente assumirá o mundo ou ainda não permanecerá uma batalha hipotética, mas o impacto da IA no tráfego de pesquisa da Web e nos editores é actual. O tráfego do website está baixo, a taxa de cliques está diminuindo, as perdas de receita são generalizadas e as demissões se tornaram a norma.
Independentemente da situação atual, o gênio da IA está fora da garrafa e aqui para ficar. A menos que os formuladores de políticas comecem a visualizar os direitos autorais de conteúdo através de uma lente e tribunal modernos redefinam a definição de uso transformador, será uma batalha difícil por notícias e editores de conteúdo.
Existem soluções. Os editores poderiam girar seu modelo de receita da otimização tradicional de mecanismos de pesquisa (website positioning) e modelos orientados a anúncios para um modelo de assinatura; Eles podem se concentrar mais na otimização da IA para classificar melhor nos algoritmos do Chatbots; Ou mesmo tomar uma das muitas rotas não convencionais, como micropagamentos, boletins, licenciamento de IA ou até SaaS.
Se as leis da Web estiverem sendo reescritas, os editores precisarão evoluir com os tempos de mudança. No entanto, essa mudança levaria a mais demissões e ao fechamento das redações – um acerto de contas que o setor pode não estar pronto.