OpenAI expande equipe de lobby para influenciar regulamentação de IA

OpenAI expande equipe de lobby para influenciar regulamentação de IA

Inteligência artificial está no centro das atenções, e a OpenAI está tomando medidas significativas para influenciar a regulamentação desse campo emergente. A empresa, com sede em São Francisco, expandiu sua equipe de lobby de três para 35 funcionários em 2023, com planos de aumentar para 50 até o final de 2024. Essa expansão ocorre em um momento em que governos ao redor do mundo estão debatendo legislações de segurança para IA, o que pode impactar o crescimento e desenvolvimento de modelos avançados como o ChatGPT.

Expansão da Equipe de Lobby

A OpenAI está construindo uma equipe internacional de lobistas para influenciar políticos e reguladores que estão aumentando o escrutínio sobre inteligências artificiais poderosas. A startup disse ao Financial Times que expandiu o número de funcionários em sua equipe de assuntos globais de três no início de 2023 para 35 até o momento. A empresa pretende aumentar esse número para 50 até o final de 2024. Embora represente uma pequena parte dos 1.200 funcionários da OpenAI, o departamento de assuntos globais é a unidade mais internacional da empresa, estrategicamente posicionada em locais onde a legislação de IA está avançada. Isso inclui alocar funcionários na Bélgica, Reino Unido, Irlanda, França, Cingapura, Índia, Brasil e EUA.

No entanto, a OpenAI ainda está atrás das suas rivais big tech nesse alcance. De acordo com arquivos públicos nos EUA, o Meta gastou um recorde de US$ 7,6 milhões interagindo com o governo estadunidense no primeiro trimestre deste ano, enquanto o Google gastou US$ 3,1 milhões e a OpenAI US$ 340 mil.

Desafios e Estratégias

Em relação à defesa específica da IA, o Meta nomeou 15 lobistas, o Google tem cinco, enquanto a OpenAI tem apenas dois. Ao entrar, o ChatGPT tinha 100 milhões de usuários, mas a empresa tinha apenas três pessoas para lidar com políticas públicas. David Robinson, chefe de planejamento de políticas da OpenAI, mencionou que chegou ao ponto em que haveria alguém de alto escalão que gostaria de ter uma conversa, e não havia ninguém que pudesse atender o telefone.

A unidade de assuntos globais da OpenAI não lida com alguns dos casos regulatórios mais contenciosos. Essa tarefa cabe à sua equipe jurídica, que lida com questões relacionadas à revisão pelos reguladores do Reino Unido e EUA sobre sua parceria de US$ 18 bilhões com a Microsoft. O time jurídico também é responsável por lidar com a investigação da Comissão de Valores Mobiliários dos EUA sobre se o presidente-executivo Sam Altman enganou investidores durante seu breve afastamento pelo conselho em novembro e a investigação de proteção ao consumidor da Comissão Federal de Comércio estadunidense sobre a empresa.

Em vez disso, os lobistas da OpenAI se concentram na disseminação da legislação de IA. O Reino Unido, os EUA e Cingapura estão entre muitos países lidando com a forma de governar a IA, consultando de forma próxima a OpenAI e outras empresas de tecnologia sobre regulamentações propostas. A empresa esteve envolvida nas discussões em torno da Lei de Inteligência Artificial da União Europeia, aprovada este ano, um dos projetos de lei mais avançados na busca por regular modelos poderosos de IA.

Impacto e Futuro

A OpenAI foi uma das empresas de IA que argumentaram sobre como alguns de seus modelos de IA não deveriam estar entre os que representam um alto risco nos primeiros rascunhos da Lei e sujeitos a regras mais rígidas, de acordo com três pessoas envolvidas nas negociações. Apesar desse esforço, os modelos mais capazes da empresa estarão sob a jurisdição da legislação. A OpenAI também se opôs à pressão da UE para examinar todos os dados fornecidos a seus modelos fundamentais, de acordo com pessoas familiarizadas com as negociações.

A empresa disse ao Financial Times que os dados de pré-treinamento — informações usadas para dar a grandes modelos de linguagem uma compreensão ampla de linguagem ou padrões — devem estar fora do escopo da regulamentação, pois era uma maneira inadequada de entender as saídas de um sistema de IA. Em vez disso, propôs que o foco deveria estar nos dados de pós-treinamento usados para ajustar modelos para uma tarefa específica. A UE decidiu que, para sistemas de IA de alto risco, os reguladores ainda podem solicitar acesso aos dados de treinamento para garantir que estejam livres de erros e vieses.

Desde a aprovação da lei na UE, a OpenAI contratou Chris Lehane, que trabalhou para o presidente Bill Clinton, na campanha presidencial de Al Gore e foi chefe de políticas do Airbnb. Lehane trabalhará em estreita colaboração com Makanju e sua equipe. A OpenAI também recentemente contratou Jakob Kucharczyk, ex-líder de competição do Meta. Sandro Gianella, chefe de políticas e parcerias europeias, ingressou em junho do ano passado após trabalhar no Google e Stripe, enquanto James Hairston, chefe de políticas e parcerias internacionais, ingressou no Meta em maio do ano passado.

Discussões sobre Voice Engine

A empresa esteve recentemente envolvida em uma série de discussões com formuladores de políticas nos EUA e em outros mercados em torno do modelo Voice Engine da OpenAI, que pode clonar e criar vozes personalizadas, levando a empresa a restringir seus planos de lançamento após preocupações com os riscos de como poderia ser usado no contexto das eleições globais deste ano. A equipe tem realizado workshops em países que enfrentam eleições este ano, como México e Índia, assim como publicando orientações sobre desinformação. Em países autocráticos, a OpenAI concede individualmente acesso aos seus modelos para pessoas confiáveis em regiões onde considera que não é seguro lançar os produtos.

Flexibilidade em Regras Futuras

Um funcionário do governo que trabalhou em estreita colaboração com a OpenAI disse que uma preocupação diferente para a empresa era garantir que quaisquer regras fossem flexíveis no futuro e não se tornassem obsoletas com novos avanços científicos ou tecnológicos. A OpenAI espera resolver algumas reveses da era das redes sociais, o que Makanju disse ter levado a uma desconfiança geral das empresas do Vale do Silício. Infelizmente, as pessoas frequentemente veem a IA com a mesma lente. Passamos muito tempo garantindo que as pessoas entendam que essa tecnologia é bastante diferente, e as intervenções regulatórias que fazem sentido para ela serão muito diferentes.

Críticas e Ambições

No entanto, algumas figuras da indústria são críticas à expansão do lobby da OpenAI. Inicialmente, a OpenAI recrutou pessoas profundamente envolvidas na política de IA e especialistas, enquanto agora estão apenas contratando lobistas de tecnologia comuns, o que é uma estratégia muito diferente. Eles só querem influenciar os legisladores da mesma forma que as Big Techs fizeram por mais de uma década. Robinson, chefe de planejamento da OpenAI, disse que a equipe de assuntos globais tem metas mais ambiciosas. A missão é segura e amplamente benéfica, e o que isso significa? Significa criar leis que não apenas nos permitam inovar e trazer tecnologia benéfica para as pessoas, mas também resultar em um mundo onde a tecnologia seja segura.



Créditos: publicai.com.br

Leave a Reply

Your email address will not be published. Required fields are marked *