Em apenas dois meses, o ChatGPT teve uma adesão surpreendente de mais de 100 milhões de usuários. O público ficou fascinado pelas respostas da inteligência artificial que alimenta o chatbot, mas problemas de privacidade começaram a aparecer. Com isso, autoridades de regulação de diversos países apertem o certo em torno da OpenAI.
Em 20 de março, um bug resultou no vazamento de dados, como nomes, e-mails, endereços e dados de cartão de crédito de 1,2% dos assinantes do ChatGPT Plus. Os históricos de conversas de usuários também foram expostos. A vulnerabilidade durou nove horas e só foi descoberta quatro dias depois pela empresa de cybersegurança Greynoise.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
Isso fez com que a autoridade de proteção de dados da Itália questionasse a transparência na coleta de dados dos usuários e solicitasse um bloqueio temporário da IA. Caso a medida seja descumprida, a OpenAI deve pagar uma multa de 20 milhões de euros. Além disso, outros 30 países não contam com os serviços do chatbot.
Como o ChatGPT usa os dados?
ChatGPT afirmou que vai cumprir decisão de suspender os serviços para usuários italianos. Fonte: Unsplash/Emiliano Vittoriosi/Reprodução
O ChatGPT usa um banco de dados com mais de 300 bilhões de palavras, coletadas da internet de livros, artigos, sites e postagens, para elaborar textos a partir de um algoritmo. Isso torna possível que o chatbot responda perguntas sobre praticamente qualquer tema com um conteúdo muito próximo da linguagem humana.
Em sua política de privacidade, a OpenAI esclarece que são coletados dados pessoais do usuário, conteúdo utilizado na plataforma, informações de redes sociais, registros de navegação de forma automatizada, entre outros. O objetivo, segundo a empresa, é “desenvolver novos programas e serviços”, evitar fraudes e cumprir obrigações legais.
Os dados coletados podem ser fornecidos, sem aviso prévio, para empresas afiliadas, fornecedores de serviços e parceiros de negócios da OpenAI, além de cumprimento de medidas judiciais. Segundo a companhia, as informações são retidas apenas pelo tempo necessário para seus objetivos comerciais e podem ser anonimizadas para pesquisas.
Quais são os problemas de privacidade?
A política de privacidade do ChatGPT menciona os direitos de usuários do Espaço Comum Europeu, Reino Unido, Suíça e da Califórnia, mas falha em fornecer informações básicas sobre o processamento de dados pessoais, conforme a Lei Geral de Proteção de Dados Pessoais do Brasil e o Regulamento Geral sobre Proteção de Dados da Europa.
A OpenAI não esclarece de forma precisa, por exemplo, a duração do armazenamento das informações e nem em quais países elas são utilizadas. O chatbot não determina com exatidão como os usuários podem revogar as permissões para o uso de seus dados pessoais e nem deixa transparente como essas informações são processadas.
Além disso, existem preocupações sobre direitos autorais. A OpenAI deve faturar mais de US$ 1 bilhão em 2024, mas não paga para usar as informações coletadas na internet que foram geradas por terceiros. Embora comprovar o plágio em textos seja difícil, já existem processos contra modelo generativo de imagens, como Stability AI e Midjourney.
Devemos parar de usar o ChatGPT?
O ChatGPT contribui para elevar a produtividade na produção de conteúdo e parar de utilizá-lo parece não ser uma opção. Contudo, é necessário tomar cuidado com as informações compartilhadas, especialmente se pediram sigilo pessoal ou comercial, pois há um grande risco de serem usadas sem o consentimento expresso do usuário.
Categorias