Boonchai Wedmakawand | Momento | Imagens Getty
do Google O Grupo de Inteligência de Ameaças disse em um relatório na segunda-feira que frustrou um esforço dos hackers para usar modelos de inteligência synthetic para “planejar uma operação de exploração de vulnerabilidade em massa”.
GTIG disse ter “alta confiança” de que gravou hackers usando um modelo de IA para encontrar e explorar uma vulnerabilidade de dia zero, ou uma falha de software program desconhecida pelos desenvolvedores, criando uma maneira de contornar a autenticação de dois fatores.
“O autor da ameaça criminosa planejou usá-lo em um evento de exploração em massa, mas nossa contradescoberta proativa pode ter impedido seu uso”, escreveu o Google no publish, sem divulgar o nome do grupo de hackers. O Google disse que não acredita que seu modelo native Gemini tenha sido usado.
As descobertas sublinham como os hackers estão a utilizar ferramentas de IA disponíveis, como o OpenClaw, para explorar falhas de software program de formas que podem ser particularmente prejudiciais para empresas, agências governamentais e outras organizações, mesmo quando as empresas de segurança cibernética injetam milhares de milhões de dólares no reforço das suas defesas.
Em abril, a Anthropic atrasou o lançamento do seu modelo Mythos, alegando preocupações de que criminosos e adversários pudessem usar a ferramenta para identificar e explorar vulnerabilidades de software program com décadas de existência. As preocupações provocaram ondas de choque em toda a indústria e levaram a reuniões na Casa Branca com líderes tecnológicos e empresariais. Desde então, a Antthropic lançou o modelo para um selecione grupo de testadoresincluindo Maçã, CrowdStrike, Microsoft e Redes Palo Alto.
Na semana passada, OpenAI anunciado que o GPT-5.5-Cyber, uma variação de seu modelo mais recente, está sendo lançado em uma capacidade limitada de visualização para equipes de segurança cibernética avaliadas.
No relatório de segunda-feira, o Google destacou vários exemplos de como os hackers já estão usando ferramentas como o OpenClaw para encontrar vulnerabilidades, lançar ataques cibernéticos e desenvolver malware. Grupos ligados à China e à Coreia do Norte “demonstraram interesse significativo em capitalizar a IA para descoberta de vulnerabilidades”, afirma o relatório.
ASSISTIR: Chega a period da orquestração de ataques cibernéticos habilitada para IA













