Outra grande empresa de tecnologia está treinando modelos de IA com base em dados de usuários – sem informá-los primeiro. Seguindo os passos do Meta (Facebook, Instagram, WhatsApp e Threads) e Grok (X), LinkedIn adicionou automaticamente usuários ao seu treinamento de IA, bem como modelos de afiliados anônimos.
Acesso
O LinkedIn é propriedade da Microsoft, que também possui uma participação importante na OpenAI, desenvolvedora do ChatGPT. Apesar da conexão, o LinkedIn esclareceu que os dados dos usuários não serão usados para treinar os modelos originais da OpenAI, mas serão compartilhados com a Microsoft para seu software de IA.
Leia também
De acordo com a rede social: “Os tipos de inteligência artificial que o LinkedIn usa para potencializar seus recursos de IA podem ser treinados pelo LinkedIn ou por terceiros. Por exemplo, alguns de nossos modelos são alimentados pelo serviço Azure OpenAI da Microsoft.”
O porta-voz Greg Snapper acrescentou: “Usamos modelos OpenAI disponibilizados pelo Azure AI Service da Microsoft, assim como outros clientes ou usuários da API deste serviço. E quando usamos modelos disponibilizados por este serviço, enviamos os dados para OpenAI para treinar seus modelos. ”
“Quando o LinkedIn treina outros modelos de IA, procuramos minimizar as informações pessoais nos bancos de dados usados para treinar os modelos, inclusive usando tecnologias de aprimoramento de privacidade para editar ou remover informações pessoais de ‘um centro de treinamento’”.
A plataforma acrescentou que não treina “modelos de IA geradores de informação” com base em dados da UE, do EEE ou da Suíça. O EEE é o Espaço Económico Europeu, que inclui todos os 27 membros da União Europeia, bem como a Islândia, o Liechtenstein e a Noruega.
Como desativar?
Se você estiver em um país onde o LinkedIn começou a usar seus dados para treinar IA, é fácil cancelar. Vá para a seção de privacidade de dados nas configurações e desative a opção “Usar meus dados para treinar modelos de IA para geração de conteúdo”.
No entanto, os ativistas da privacidade continuam preocupados com a decisão do LinkedIn de envolver automaticamente os utilizadores na formação de uma série de modelos de IA. Mariano delli Santi, diretor de direito e política do Open Rights Group, um grupo independente de defesa da privacidade do Reino Unido, disse à Forbes: “O modelo de saída mais uma vez se mostrou insuficiente para proteger nossos direitos. O público é que não sou responsável por monitorar e examinar minuciosamente cada empresa online que decide usar seus dados para treinar IA. O consentimento não é apenas um requisito legal, é uma necessidade da mente.”
Ele apelou ao órgão de vigilância da privacidade do Reino Unido para “tomar medidas rápidas contra o LinkedIn e outras empresas que pensam estar acima da lei”.
Escolhas do Editor