A Autoridade de Proteção de Dados da Itália proibiu o ChatGPT de funcionar no país até o chatbot parar de coletar dados pessoais de usuários italianos. Se a OpenAI não cumprir a decisão em 20 dias, deverá pagar multa de 20 milhões de euros, ou de 4% de seu faturamento global.
A agência reguladora abriu uma investigação para apurar o vazamento de dados de assinantes da inteligência artificial regenerativa que ocorreu no dia 20 março. Segundo a agência, não existe fundamento legal para a coleta e armazenamento em massa de dados pessoais para "treinar" os algoritmos da plataforma.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
O Regulamento Geral sobre a Proteção de Dados da União Europeia exige consentimento dos usuários para a coleta de dados. As regras também foram utilizadas pela autoridade italiana para bloquear o funcionamento da IA do aplicativo Replika em fevereiro.
O chatbot, que gera um "amigo virtual", foi considerado arriscado para menores, pois propõe respostas inadequadas à idade deles e não possui filtros para limitar o acesso a menores. Além disso, não respeita os princípio de transparência, de acordo com o órgão.
Pedido de pausa na IA
Lideranças do mundo da tecnologia acreditam que IA deveria ser controlada.(Fonte: Unsplash/Levart_Photographer/Reprodução)Fonte: Unsplash/Levart_Photographer/Reprodução
O banimento do ChatGPT na Itália ocorre após polêmicas envolvendo inteligência artificial, incluindo uma falha de segurança e um pedido de "pausa" na tecnologia. Nesta semana, uma carta assinada por Elon Musk, um dos cofundadores da OpenAI, e mais executivos e especialistas, definiu que a IA é um risco para a humanidade e seu desenvolvimento deve ser pausado.
Os autores da carta defendem que os laboratórios de Inteligência Artificial estão numa corrida desenfreada para desenvolver mentes digitais cada vez mais poderosas. No entanto, nem mesmo os seus criadores podem entender, prever ou controlar a tecnologia.
A pausa seria necessária para “desenvolver e implementar em conjunto um leque de protocolos de segurança, para o design e desenvolvimento de Inteligência Artificial avançada". Segundo a carta, os responsáveis pelo desenvolvimento destes softwares devem trabalhar em conjunto com legisladores para acelerar a criação de sistemas governamentais de controle dos algoritmos.
Fontes
Categorias