Projeto de lei de segurança de IA visa evitar violações de segurança de modelos de IA

Um novo projeto de lei que busca rastrear questões de segurança, obrigando a criação de um banco de dados registrando todas as violações de sistemas de IA, foi apresentado no Senado.

A Lei de Inteligência Artificial Segura, introduzida pelos senadores Mark Warner (D-VA) e Thom Tillis (R-NC), estabeleceria um Centro de Segurança de Inteligência Artificial na Agência de Segurança Nacional. Este centro conduziria pesquisas sobre o que o projeto de lei chama de “contra-IA”, ou técnicas para aprender como manipular sistemas de IA. Este centro também desenvolveria orientações para prevenir medidas de combate à IA.

O projeto de lei também exigirá que o Instituto Nacional de Padrões e Tecnologia (NIST) e a Agência de Segurança Cibernética e de Infraestrutura criem um banco de dados de violações de IA, incluindo “quase acidentes”.

O projeto de lei proposto por Warner e Tillis concentra-se em técnicas para combater a IA e as classifica como envenenamento de dados, ataques de evasão, ataques baseados em privacidade e ataques de abuso. O envenenamento de dados refere-se a um método em que o código é inserido em dados extraídos por um modelo de IA, corrompendo a saída do modelo. Surgiu como um método popular para evitar que geradores de imagens de IA copiassem arte na Internet. Os ataques de evasão alteram os dados estudados pelos modelos de IA a ponto de o modelo ficar confuso.

A segurança da IA ​​foi um dos itens principais da ordem executiva de IA da administração Biden, que instruiu o NIST a estabelecer diretrizes de “equipe vermelha” e exigiu que os desenvolvedores de IA apresentassem relatórios de segurança. A equipe vermelha ocorre quando os desenvolvedores tentam intencionalmente fazer com que os modelos de IA respondam a solicitações que não deveriam.

Idealmente, os desenvolvedores de modelos poderosos de IA testam a segurança das plataformas e fazem com que elas passem por uma extensa equipe vermelha antes de serem divulgadas ao público. Algumas empresas, como a Microsoft, criaram ferramentas para ajudar a facilitar a adição de proteções de segurança aos projetos de IA.

A Lei de Inteligência Artificial Segura terá que passar por um comitê antes de ser aprovada pelo Senado maior.

theverge