Direitos Autorais e IA: Human Native AI Revoluciona o Mercado de Licenciamento de Dados

Direitos Autorais e IA: Human Native AI Revoluciona o Mercado de Licenciamento de Dados

Direitos autorais são um tema crucial quando se trata de treinar sistemas de IA e modelos de linguagem em larga escala. Para que esses sistemas sejam precisos, é necessário um volume massivo de dados, mas é igualmente importante que esses dados sejam utilizados de maneira ética e legal.

Recentemente, a OpenAI firmou acordos de licenciamento com The Atlantic e Vox, demonstrando o interesse mútuo em estabelecer parcerias para o uso de conteúdo no treinamento de IA. Esses acordos são um passo significativo para garantir que os direitos dos detentores de conteúdo sejam respeitados e que eles sejam devidamente compensados.

Human Native AI: Facilitando Acordos de Licenciamento

A Human Native AI é uma startup baseada em Londres que está construindo um marketplace para intermediar acordos de licenciamento entre empresas que desenvolvem projetos de modelos de linguagem em larga escala (LLM) e aqueles dispostos a licenciar seus dados.

O objetivo da empresa é ajudar as companhias de IA a encontrar dados para treinar seus modelos, garantindo que os rights holders optem por participar e sejam devidamente compensados. Os detentores de direitos podem fazer o upload de seu conteúdo sem custo e conectar-se com empresas de IA para fechar acordos de compartilhamento de receita ou assinaturas. A Human Native AI também auxilia os detentores de direitos a preparar e precificar seu conteúdo, além de monitorar possíveis infrações de direitos autorais. A empresa recebe uma porcentagem de cada acordo e cobra das empresas de IA pelos serviços de transação e monitoramento.

Origem da Ideia e Crescimento Inicial

James Smith, CEO e cofundador, contou ao TechCrunch que teve a ideia para a Human Native AI a partir de sua experiência anterior trabalhando no projeto DeepMind do Google. DeepMind enfrentou problemas com a falta de dados de qualidade para treinar o sistema, e Smith viu outras empresas de IA enfrentarem o mesmo desafio.

Smith compartilhou a ideia com seu amigo Jack Galilee, engenheiro da GRAIL, durante uma caminhada no parque com seus filhos. Diferente de outras ideias de startups que discutiram, Galilee sugeriu que eles deveriam seguir em frente com essa. A empresa foi lançada em abril e está atualmente operando em fase beta. Smith afirmou que a demanda de ambos os lados tem sido muito encorajadora e que já assinaram várias parcerias que serão anunciadas em breve. A Human Native AI anunciou uma rodada de financiamento seed de £2,8 milhões liderada por LocalGlobe e Mercuri, dois micro VCs britânicos, nesta semana. Smith disse que a empresa planeja usar os fundos para expandir sua equipe.

Desafios e Oportunidades no Mercado de IA

Smith destacou que, apesar de ser uma empresa com apenas dois meses, ele conseguiu reuniões com CEOs de empresas editoriais com mais de 160 anos, o que sugere uma alta demanda do lado dos editores. Da mesma forma, todas as conversas com grandes empresas de IA seguem o mesmo caminho.

Embora ainda seja cedo, o que a Human Native AI está construindo parece ser uma peça fundamental da infraestrutura na crescente indústria de IA. Os grandes players de IA precisam de muitos dados para treinar seus modelos, e dar aos detentores de direitos uma maneira mais fácil de trabalhar com eles, enquanto lhes dá controle total sobre como seu conteúdo é usado, parece ser uma abordagem que pode satisfazer ambos os lados. Recentemente, a Sony Music enviou cartas a 700 empresas de IA pedindo que cessem e desistam de usar seus dados sem permissão. Isso mostra o tamanho do mercado e o potencial de clientes que poderiam estar adquirindo dados. O número de editores e detentores de direitos pode chegar a milhares, se não dezenas de milhares. Smith acredita que essa é a razão pela qual a infraestrutura é necessária.

Impacto Futuro e Regulação

Smith também acredita que isso pode ser ainda mais benéfico para os sistemas de IA menores que não têm os recursos para fechar um acordo com Vox ou The Atlantic, mas ainda assim precisam acessar dados para treinamento. Ele espera que a Human Native AI possa ajudar a nivelar o campo de jogo.

Um dos principais desafios com o licenciamento de conteúdo é o alto custo inicial e a restrição massiva de quem pode trabalhar com você. Smith questiona como aumentar o número de compradores para o conteúdo e reduzir as barreiras de entrada, algo que ele considera muito empolgante. Outro aspecto interessante é o potencial futuro dos dados que a Human Native AI coleta. Smith disse que, no futuro, eles poderão dar aos detentores de direitos mais clareza sobre como precificar seu conteúdo com base em um histórico de dados de acordos na plataforma.

É também um momento inteligente para a Human Native AI lançar sua plataforma. Smith mencionou que, com a evolução do AI Act da União Europeia e a potencial regulação de IA nos EUA, as empresas de IA que obtêm seus dados de forma ética — e têm os comprovantes para provar isso — se tornarão cada vez mais importantes.

Smith concluiu dizendo que estão otimistas sobre o futuro da IA e o que ela pode fazer, mas que é necessário garantir que a indústria seja responsável e não destrua os setores que nos trouxeram até aqui. Ele acredita que é crucial encontrar maneiras corretas de permitir que as pessoas participem. Eles são otimistas em relação à IA, mas sempre do lado dos humanos.



Créditos: publicai.com.br

Leave a Reply

Your email address will not be published. Required fields are marked *