O Google lançou, nesta quinta-feira (8), um plano de segurança para proteger os usuários de ameaças reais causadas por inteligência artificial (IA). O Secure AI Framework (SAIF) é como um guia, ainda em fase de desenvolvimento.
O protocolo tem seis elementos, até agora. Dois se referem à expansão de estrutura de segurança para que as organizações incluam ameaças de IA. Há outro ponto sobre integração da tecnologia para se defender de seus semelhantes.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
O plano segue ainda com os benefícios de segurança das "estruturas de controle" e termina com dois elementos sobre inspeção, avaliação e teste constate de aplicativos de inteligência artificial.
As diretrizes de segurança do Google servem para a big tech e podem ser replicadas na indústria da tecnologia.Fonte: GettyImages
“Mesmo enquanto as pessoas estão procurando por abordagens mais avançadas, as pessoas devem se lembrar de que você também precisa ter o básico correto”, disse Phil Venables, chefe de segurança da informação do Google Cloud, ao portal Axios.
O Google está adotando o SAIF dentro da big tech, com a estrutura podendo ser replicada por outros. Mas, por conta da rivalidade na indústria, o protocolo pode não ser seguido por empresas como a OpenAi, por exemplo, criadora do ChatGPT.
Fontes
Categorias