A Microsoft e a OpenAI, dona do ChatGPT, anunciaram nesta quarta-feira (14) os primeiros resultados de uma pesquisa conjunta em cibersegurança. As empresas investigaram quais são as principais ameaças digitais que usam inteligência artificial (IA) para aperfeiçoar técnicas de invasão.
De acordo com o levantamento, agentes mal-intencionados já fazem uso de modelos de linguagem de larga escala, como o da própria OpenAI, para ampliar a produtividade e otimizar ataques.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
As companhias alegam que vão aumentar os esforços de proteção para impedir o uso criminoso de chatbots da casa. Além disso, elas estão ativamente banindo contas já acusadas de envolvimento com cibercrimes e que fizeram prompts contendo indícios de que o conteúdo seria usado em práticas criminosas.
Microsoft e OpenAI preocupadas com segurança
A boa notícia é que ainda não foram encontrados cibercrimes totalmente inéditos que usam uma IA. Porém, modalidades já conhecidas de golpes, fraudes e ataques estão fazendo uso cada vez mais intenso de ferramentas artificiais.
No geral, os grupos criminosos usam chatbots para acelerar tarefas como programação de scripts, escrita de emails fraudulentos, filtragem de dados, análises estatísticas e automatização de processos.
O ChatGPT automatiza e acelera tarefas antes feitas manualmente por cibercriminosos.Fonte: GettyImages
Além disso, a IA pode ajudar os grupos a aprender sobre temas específicos, como protocolos de comunicação via satélite. Os casos já encontrados e neutralizados pela Microsoft incluem grupos de hackers ligados aos governos de Coreia do Norte, Rússia, China e Irã.
Fora essas ameaças, a companhia alerta para a possível popularização de golpes que imitam a voz de uma pessoa artificialmente. Essa tentativa de trazer veracidade a uma fraude é bastante sofisticada e pode usar amostras pequenas para sintetizar um áudio, como a mensagem de correio de voz de uma pessoa.
Fora o monitoramento constante, um assistente de IA chamado Security Copilot está em desenvolvimento. Ele deve ser oferecido para profissionais de cibersegurança para identificar vulnerabilidades em sistemas e impedir mesmo essas novas formas de invasão.
O estudo feito por Microsoft e OpenAI pode ser conferido na íntegra neste link (em inglês).
Categorias