Modelos de inteligência artificial generativa que respeitam os direitos autorais dos criadores de conteúdos utilizados para treinamento começaram a receber um selo de certificação nos Estados Unidos. A organização sem fins lucrativos Fairly Trained é uma das pioneiras no trabalho.
Conforme anunciou a iniciativa nesta quarta-feira (17), o objetivo é diferenciar as empresas de IA generativa que solicitam autorização para o uso de dados protegidos daquelas que não o fazem. No momento, as leis americanas não obrigam os desenvolvedores a informar a fonte dos conteúdos, mas há propostas em tramitação sugerindo mudanças.
Tecnologia, negócios e comportamento sob um olhar crítico.
Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo
- Leia também: ChatGPT: a ferramenta é legal ou não?
Selo que acompanhará as IAs que respeitam os direitos autorais.Fonte: Fairly Trained/Divulgação
O primeiro selo emitido pela organização é a certificação de Modelo Licenciado, concedida às empresas que não utilizam dados protegidos sem autorização dos proprietários. As licenças podem ser personalizadas, abertas permissivas e de outros tipos, mas não serão concedidas a desenvolvedores que alegam “uso justo” para seus treinos.
Neste primeiro momento, nove empresas de IA generativa já receberam o selo Fairly Trained, como a Beatoven.AI, BRIA AI, LifeScore e Tuney. Trata-se de startups que oferecem ferramentas de geração de imagem por descrição textual, música e voz.
Processos por violação de direitos autorais
Embora não haja obrigação legal de pedir autorização para o uso de dados em sistemas de IA generativa nos EUA, atualmente, a utilização desenfreada dessas informações não tem agradado aos criadores de conteúdos. O resultado é o crescimento do número de processos judiciais contra as empresas do ramo.
Um dos casos de maior repercussão envolve a OpenAI, startup por trás do popular ChatGPT, que está sendo processada pelo The New York Times. O jornal alega que a desenvolvedora utilizou materiais de sua autoria sem autorização para o treinamento de chatbots.
Na ação, que também inclui a Microsoft, uma das principais investidoras da dona do ChatGPT, a publicação pede a suspensão imediata do uso dos seus conteúdos no sistema de IA. Já a desenvolvedora se defende dizendo que não há como treinar o mecanismo sem utilizar conteúdos feitos por humanos e afirma respeitar as leis de direitos autorais.
A Fairly Trained foi fundada pelo antigo vice-presidente da Stability AI, Ed Newton-Rex. Ao sair do antigo emprego, o executivo disse que a tecnologia explorava os criadores e acabaria competindo com o trabalho feito por eles.
Categorias