
A Google diz ter identificado e bloqueado o primeiro exploit zero-day desenvolvido com ajuda de inteligência artificial antes de o ataque arrancar. A descoberta marca um novo momento na cibersegurança: a IA já não está apenas a ajudar a defender sistemas, também está a ser usada para encontrar falhas críticas e preparar ataques em larga escala.A Google diz ter identificado e bloqueado o primeiro exploit zero-day desenvolvido com ajuda de inteligência
artificial antes de o ataque arrancar. A descoberta marca um novo momento na cibersegurança: a IA já não está apenas a ajudar a defender sistemas, também está a ser usada para encontrar falhas críticas e preparar ataques em larga escala.
Segundo a equipa de Threat Intelligence da empresa, o exploit destinava-se a uma campanha de exploração massiva. A vulnerabilidade foi comunicada ao fornecedor afetado, corrigida a tempo e a operação acabou por ser travada antes de chegar ao terreno.
Porque é que este caso é diferente
O mais relevante nesta história não é apenas a existência de um zero-day. É a suspeita, com elevado grau de confiança, de que a falha foi descoberta e transformada em arma com recurso a IA generativa. De acordo com o relatório da Google, o código apresentava vários sinais típicos de conteúdo gerado por modelos de linguagem, incluindo anotações com tom académico, formatação muito estruturada e até detalhes errados que lembram as chamadas “alucinações” da IA.
Na prática, isto sugere que os atacantes já estão a usar modelos avançados para acelerar tarefas que antes exigiam mais tempo, experiência e trabalho manual.
O zero-day explorava uma falha lógica
O exploit era um script em Python que contornava a autenticação de dois fatores num conhecido sistema open source de administração. Em vez de explorar um erro clássico de memória ou validação de dados, aproveitava uma falha de lógica no próprio desenho do sistema. Esse ponto é crucial. Ferramentas tradicionais de análise costumam ser eficazes a detetar crashes ou comportamentos anómalos no código. Já erros de lógica mais subtis podem passar despercebidos durante muito tempo.
É precisamente aqui que a IA pode fazer a diferença: ao analisar contexto, intenção do programador e exceções mal implementadas, consegue apontar problemas que não saltam à vista para scanners convencionais.
Google diz que a IA ofensiva já é uma realidade
No novo relatório, a empresa descreve uma mudança clara: a utilização experimental de IA em ciberataques está a dar lugar a operações mais maduras, automatizadas e escaláveis, ou seja, a corrida da IA na cibersegurança deixou de ser teórica. Já está a acontecer em incidentes reais investigados no terreno.
Grupos estatais também estão a usar IA
A Google afirma ter observado grupos ligados à China e à Coreia do Norte a recorrerem a IA para pesquisa de vulnerabilidades e análise de exploits. Em paralelo, atores associados à Rússia estariam a usar código gerado por IA como distração para esconder funções maliciosas. Isto significa que a tecnologia está a entrar em várias fases do ataque: descoberta de falhas, desenvolvimento de ferramentas, camuflagem de malware e gestão de infraestruturas usadas nas intrusões.
Malware Android com IA aumenta a preocupação
Um dos exemplos citados no relatório é o PROMPTSPY, um backdoor para Android que usaria a API Gemini para interpretar o ecrã do dispositivo e executar ações de forma autónoma.
Segundo a análise da Google, o malware seria capaz de ler a interface visível, decidir onde tocar, deslizar no ecrã e até dificultar a própria remoção. A empresa diz já ter desativado os recursos ligados a esta atividade e garante que não foram encontradas apps com este malware na Google Play. Para o utilizador comum, o impacto é claro: a IA pode tornar o malware mais adaptável, mais autónomo e potencialmente mais difícil de travar com métodos clássicos.
Há outro alvo em jogo: a cadeia de fornecimento
O relatório também destaca ataques à cadeia de software, incluindo repositórios populares e ferramentas usadas no desenvolvimento de aplicações e serviços de IA.
Quando uma dependência comprometida entra no ecossistema, o efeito pode espalhar-se rapidamente. No caso de ferramentas ligadas a modelos de linguagem, o risco não se limita ao código: pode envolver chaves de API, acessos a cloud e dados internos sensíveis. Em linguagem simples, um único ponto fraco pode abrir a porta a muito mais do que um programa infetado.
A resposta da Google também passa por IA
Para travar esta nova geração de ameaças, a Google está a apostar em ferramentas defensivas baseadas na mesma tecnologia. A empresa diz que o agente de segurança Big Sleep encontrou a vulnerabilidade antes de os atacantes a conseguirem explorar. Além disso, anunciou o CodeMender, uma ferramenta pensada para ajudar a corrigir falhas críticas no código com apoio de IA.
A mensagem é direta: se os atacantes usam IA para encontrar brechas mais depressa, a defesa terá de responder à mesma velocidade.
Porque é que isto importa mesmo para quem não trabalha em cibersegurança
Este caso pode parecer distante, mas o efeito chega rapidamente ao mundo real. Falhas zero-day podem afetar serviços online, empresas, dispositivos móveis e plataformas usadas por milhões de pessoas.
Se a IA facilitar a descoberta e exploração destas vulnerabilidades, o tempo entre o aparecimento da falha e o ataque pode encolher. Isso aumenta a pressão sobre fabricantes, programadores e equipas de segurança para corrigirem problemas quase em tempo real.
Mais risco de ataques rápidos e em escala
Maior importância das atualizações de segurança
Malware potencialmente mais autónomo
Novos perigos na cadeia de software e nas apps de IA
O que muda a partir daqui
A grande mudança é simples de explicar: a IA já está a ser usada para atacar e para defender. E, a partir deste momento, será difícil separar a evolução da cibersegurança da evolução dos modelos generativos.
O caso revelado pela Google mostra que os zero-day criados com IA deixaram de ser um cenário hipotético. Agora, a dúvida é outra: quantas falhas semelhantes poderão estar já a ser procuradas sem que ninguém tenha dado por isso ainda?
Fonte:da Redação e da maistecnologia
Reeditado para:Noticias do Stop 2026
Outras fontes • AFP, AP, TASS, EBS
Material Informático - www.aplicloja.com
Receba diariamente no Grupo STOPMZNWS poderá ler QRCOD
Link do Grupo WhatsApp - https://chat.whatsapp.com/JUiYE4NxtOz6QUmPDBcBCF
Qual Duvida pode enviar +258 827606348 ou E-mail:
