Os planos de IA do Google agora incluem segurança cibernética

À medida que as pessoas tentam encontrar mais usos para a IA generativa que sejam menos sobre fazer uma foto falsa e que sejam realmente úteis, o Google planeja direcionar a IA para a segurança cibernética e tornar os relatórios de ameaças mais fáceis de ler.

Em uma postagem no blog, o Google escreve que seu novo produto de segurança cibernética, Google Threat Intelligence, reunirá o trabalho de sua unidade de segurança cibernética Mandiant e a inteligência de ameaças VirusTotal com o modelo Gemini AI.

O novo produto usa o modelo de linguagem grande Gemini 1.5 Pro, que, segundo o Google, reduz o tempo necessário para fazer engenharia reversa de ataques de malware. A empresa afirma que o Gemini 1.5 Pro, lançado em fevereiro, levou apenas 34 segundos para analisar o código do vírus WannaCry – o ataque de ransomware de 2017 que prejudicou hospitais, empresas e outras organizações em todo o mundo – e identificar um interruptor de interrupção. Isso é impressionante, mas não surpreendente, dada a habilidade dos LLMs em ler e escrever código.

Mas outro uso possível do Gemini no espaço de ameaças é resumir relatórios de ameaças em linguagem natural dentro do Threat Intelligence para que as empresas possam avaliar como ataques potenciais podem afetá-los – ou, em outras palavras, para que as empresas não reajam de forma exagerada ou insuficiente às ameaças.

O Google afirma que o Threat Intelligence também possui uma vasta rede de informações para monitorar ameaças potenciais antes que um ataque aconteça. Ele permite que os usuários tenham uma visão mais ampla do cenário da segurança cibernética e priorizem o que focar. A Mandiant fornece especialistas humanos que monitoram grupos potencialmente maliciosos e consultores que trabalham com empresas para bloquear ataques. A comunidade do VirusTotal também publica regularmente indicadores de ameaças.

A empresa também planeja usar os especialistas da Mandiant para avaliar vulnerabilidades de segurança em projetos de IA. Por meio do Secure AI Framework do Google, a Mandiant testará as defesas dos modelos de IA e ajudará nos esforços de red-teaming. Embora os modelos de IA possam ajudar a resumir ameaças e fazer engenharia reversa de ataques de malware, os próprios modelos podem, às vezes, tornar-se vítimas de agentes mal-intencionados. Essas ameaças às vezes incluem “envenenamento de dados”, que adiciona código incorreto à raspagem de modelos de IA de dados para que os modelos não possam responder a prompts específicos.

O Google, é claro, não é a única empresa que combina IA com segurança cibernética. A Microsoft lançou o Copilot for Security, desenvolvido com GPT-4 e o modelo de IA específico para segurança cibernética da Microsoft, e permite que profissionais de segurança cibernética façam perguntas sobre ameaças. Ainda não se sabe se um deles é realmente um bom caso de uso para IA generativa, mas é bom vê-lo usado para algo além de fotos de um Papa presunçoso.

theverge

Deixe um comentário