Um usuário da Internet verifica o ChatGPT em seu telefone celular, Suqian, província de Jiangsu, China, 26 de abril de 2023.
Publicação Futura | Publicação Futura | Imagens Getty
LONDRES — A Grã-Bretanha está prestes a introduzir a sua primeira lei para a inteligência artificial — mas o novo governo trabalhista do primeiro-ministro Keir Starmer enfrenta um delicado ato de equilíbrio entre a criação de regras que sejam suficientemente rigorosas e, ao mesmo tempo, permitam a inovação.
Num discurso proferido pelo rei Carlos III em nome da administração de Starmer, o governo disse na quarta-feira que iria “procurar estabelecer a legislação apropriada para impor requisitos àqueles que trabalham para desenvolver os modelos de inteligência artificial mais poderosos”.
Mas o discurso evitou mencionar um projeto de lei real sobre IA, que muitos executivos e comentaristas da indústria de tecnologia esperavam.
Na União Europeia, as autoridades introduziram uma lei abrangente conhecida como Lei da IA, que sujeita as empresas que desenvolvem e utilizam inteligência artificial a restrições muito mais rigorosas.
Muitas empresas de tecnologia – grandes e pequenas – estão esperançosas de que o Reino Unido não siga o mesmo caminho na aplicação de regras que consideram demasiado pesadas.
Como poderia ser um projeto de lei de IA do Reino Unido
Espera-se que o Partido Trabalhista ainda introduza regras formais para a IA, tal como o partido expôs no seu manifesto eleitoral.
O governo de Starmer prometeu introduzir “regulamentação vinculativa para um punhado de empresas que desenvolvem os modelos de IA mais poderosos” e legislação que proíbe deepfakes sexualmente explícitos.
Ao mirar nos modelos de IA mais poderosos, o Partido Trabalhista imporia restrições mais rígidas a empresas como a OpenAI, Microsoft, Google, Amazonase startups de IA, incluindo Anthropic, Cohere e Mistral.
“Os maiores players de IA provavelmente enfrentarão mais escrutínio do que antes”, disse Matt Calkins, CEO da empresa de software Appian, à CNBC.
“O que precisamos é de um ambiente propício para uma inovação abrangente, governado por um quadro regulamentar claro que proporcione oportunidades justas e transparência para todos.”
Lewis Liu, chefe de IA da empresa de software de gerenciamento de contratos Sirion, alertou que o governo deveria evitar usar uma “abordagem ampla para regular cada caso de uso”.
Casos de uso como diagnóstico clínico – que envolvem dados médicos confidenciais – não devem ser jogados no mesmo balde que coisas como software empresarial, disse ele.
“O Reino Unido tem a oportunidade de aproveitar esta nuance para o enorme benefício do seu setor tecnológico”, disse Liu à CNBC. No entanto, ele acrescentou que viu “indicações positivas” sobre os planos trabalhistas para a IA até agora.
A legislação sobre IA marcaria um contraste com a antecessora de Starmer. Sob o ex-PM Rishi Sunak, o governo optou por uma abordagem leve à IA, procurando, em vez disso, aplicar as regras existentes à tecnologia.
O anterior governo conservador afirmou num documento político de Fevereiro que a introdução de medidas vinculativas demasiado cedo poderia “não conseguir abordar eficazmente os riscos, tornar-se rapidamente obsoleta ou sufocar a inovação”.
Em Fevereiro, o novo ministro da tecnologia do Reino Unido, Peter Kyle, disse que o Partido Trabalhista tornaria obrigatório, por lei, que as empresas partilhassem dados de testes sobre a segurança dos seus modelos de IA com o governo.
“Obrigaríamos por lei que os resultados dos dados dos testes fossem divulgados ao governo”, disse Kyle, então ministro paralelo da tecnologia, em entrevista à BBC na época.
O governo de Sunak garantiu acordos com empresas de tecnologia para compartilhar informações de testes de segurança com o AI Safety Institute, um órgão apoiado pelo estado que testa sistemas avançados de IA. Mas isso só foi feito de forma voluntária.
O risco de anular a inovação
O governo do Reino Unido quer evitar pressionar demasiado as regras da IA, a ponto de isso acabar por dificultar a inovação. O Partido Trabalhista também sinalizou em seu manifesto que deseja “apoiar diversos modelos de negócios que tragam inovação e novos produtos ao mercado”.
Qualquer regulamentação precisaria ser “matizada”, atribuindo responsabilidades “de acordo”, disse Zahra Bahrololoumi, CEO do Reino Unido e Irlanda da Salesforce, à CNBC, acrescentando que saúda o pedido do governo por “legislação apropriada”.
Matthew Houlihan, diretor sênior de assuntos governamentais da Cisco, disse que quaisquer regras de IA precisariam ser “centradas em uma abordagem cuidadosa e baseada em riscos”.
Outras propostas que já foram apresentadas por políticos do Reino Unido oferecem algumas dicas sobre o que pode ser incluído na lei trabalhista sobre IA.
O legislador britânico Chris Holmes, um defensor conservador que tem assento na câmara alta do parlamento, apresentou no ano passado um projeto de lei propondo regulamentar a IA. O projeto foi aprovado em terceira leitura em maio, sendo encaminhado para a câmara baixa do Parlamento.
A lei de Holmes teria menos chances de sucesso do que uma proposta pelo governo. No entanto, oferece algumas ideias sobre como o Partido Trabalhista poderia procurar formar a sua própria legislação sobre IA.
O projeto de lei proposto por Holmes inclui a sugestão para a criação de uma autoridade centralizada de IA, que supervisionaria a aplicação das regras para a tecnologia.

As empresas teriam que fornecer à Autoridade de IA dados e propriedade intelectual de terceiros usados no treinamento de seus modelos e garantir que tais dados e IP sejam usados com o consentimento da fonte original.
Isto reflecte, de certa forma, o Gabinete de IA da UE, que é responsável por supervisionar o desenvolvimento de modelos avançados de IA.
Outra proposta de Holmes é que as empresas nomeiem responsáveis individuais pela IA, que teriam a tarefa de garantir utilizações seguras, éticas e imparciais da IA pelas empresas, bem como de garantir que os dados utilizados em qualquer tecnologia de IA sejam imparciais.
Como poderia ser comparado a outros reguladores
Com base no que o Partido Trabalhista prometeu até agora, qualquer lei desse tipo estará inevitavelmente “muito longe do âmbito de amplo alcance da Lei de IA da UE”, disse Matthew Holman, sócio do escritório de advocacia Cripps, à CNBC.
Holman acrescentou que, em vez de exigir divulgações autoritárias dos fabricantes de modelos de IA, é mais provável que o Reino Unido encontre um “meio-termo”. Por exemplo, o governo poderia exigir que as empresas de IA partilhassem o que estão a fazer em sessões a portas fechadas do AI Safety Institute, mas sem revelar segredos comerciais ou código-fonte.
O ministro da tecnologia, Kyle, disse anteriormente na London Tech Week que o Partido Trabalhista não aprovaria uma lei tão rigorosa quanto a Lei de IA porque não quer impedir a inovação ou impedir o investimento de grandes desenvolvedores de IA.
Mesmo assim, uma lei de IA no Reino Unido estaria um passo acima dos EUA, que atualmente não possui qualquer tipo de legislação federal sobre IA. Entretanto, na China, a regulamentação é mais rigorosa do que a da UE e qualquer legislação que o Reino Unido possa apresentar.
No ano passado, os reguladores chineses finalizaram regras que regem a IA generativa, destinadas a eliminar conteúdos ilegais e a aumentar as proteções de segurança.
Liu, do Sirion, disse que uma coisa que espera que o governo não faça é restringir os modelos de IA de código aberto. “É essencial que as novas regulamentações de IA do Reino Unido não sufoquem o código aberto ou caiam na armadilha da captura regulatória”, disse ele à CNBC.
“Há uma enorme diferença entre os danos criados por um grande LLM de empresas como OpenAI e modelos de código aberto personalizados específicos usados por uma startup para resolver um problema específico.”
Herman Narula, CEO da construtora de empreendimentos metaverso Improbable, concordou que restringir a inovação de IA de código aberto seria uma má ideia. “É necessária uma nova ação governamental, mas esta ação deve concentrar-se na criação de um mundo viável para empresas de IA de código aberto, que são necessárias para evitar monopólios”, disse Narula à CNBC.