Kirill Kudryavtsev | AFP | Imagens Getty
LONDRES — A Ofcom, a entidade reguladora dos meios de comunicação social do Reino Unido, foi escolhida no ano passado pelo governo como a entidade reguladora responsável pelo policiamento de conteúdos nocivos e ilegais na Internet, ao abrigo de novas e rigorosas regulamentações de segurança online.
Mas mesmo que a desinformação online relacionada com esfaqueamentos no Reino Unido tenha levado à violência no mundo real, o Ofcom, o regulador de segurança online do Reino Unido, vê-se incapaz de tomar medidas eficazes de aplicação da lei.
Na semana passada, um facador de 17 anos atacou várias crianças que participavam de uma aula de dança com tema de Taylor Swift na cidade inglesa de Southport, em Merseyside.
Três meninas foram mortas no ataque. A polícia posteriormente identificou o suspeito como Axel Rudakubana.
Pouco depois do ataque, os utilizadores das redes sociais rapidamente identificaram falsamente o autor do crime como um requerente de asilo que chegou ao Reino Unido de barco em 2023.
No X, as postagens que compartilhavam o nome falso do perpetrador foram ativamente compartilhadas e vistas por milhões.
Isso, por sua vez, ajudou a desencadear protestos anti-imigração de extrema-direita, que desde então se transformaram em violência, com lojas e mesquitas a serem atacadas e tijolos e coquetéis molotov a serem lançados.
Por que o Ofcom não pode agir?
Posteriormente, as autoridades do Reino Unido emitiram avisos às empresas de mídia social, instando-as a serem duras com informações falsas online.
Peter Kyle, ministro da tecnologia do Reino Unido, conversou com empresas de mídia social como a TikTok, controladora do Facebook meta, Google e X sobre a maneira como lidaram com a desinformação espalhada durante os tumultos.
Mas o Ofcom, o regulador encarregado de tomar medidas contra as falhas no combate à desinformação e outros materiais prejudiciais online, é incapaz, nesta fase, de tomar medidas eficazes contra os gigantes da tecnologia que permitem publicações prejudiciais que incitam os tumultos em curso, porque nem todos os poderes da lei vieram em vigor.
Os novos deveres aplicáveis às plataformas de redes sociais ao abrigo da Lei de Segurança Online, que exigem que as empresas identifiquem, mitiguem e giram ativamente os riscos de danos causados por conteúdos ilegais e prejudiciais nas suas plataformas, ainda não entraram em vigor.
Assim que as regras entrarem em vigor, o Ofcom terá o poder de cobrar multas de até 10% das receitas anuais globais das empresas por violações, ou mesmo pena de prisão para gestores seniores individuais em casos em que ocorram violações repetidas.
Mas até que isso aconteça, o órgão de fiscalização não poderá penalizar as empresas por violações de segurança online.
De acordo com a Lei de Segurança Online, o envio de informações falsas com a intenção de causar danos não triviais é considerado um crime punível. Isso provavelmente incluiria desinformação com o objetivo de incitar a violência.
Como o Ofcom respondeu?
Um porta-voz do Ofcom disse à CNBC na quarta-feira que está agindo rapidamente para implementar a lei para que possa ser aplicada o mais rápido possível, mas novos deveres sobre as empresas de tecnologia que exigem que por lei policiem ativamente suas plataformas em busca de conteúdo prejudicial não entrarão totalmente em vigor. vigor até 2025.
A Ofcom ainda está realizando consultas sobre orientações de avaliação de risco e códigos de prática sobre danos ilegais, que afirma precisar estabelecer antes de poder implementar efetivamente as medidas da Lei de Segurança Online.
“Estamos conversando com empresas relevantes de mídia social, jogos e mensagens sobre suas responsabilidades com urgência”, disse o porta-voz do Ofcom.
“Embora os novos deveres das plataformas sob a Lei de Segurança Online não entrem em vigor até o ano novo, elas podem agir agora – não há necessidade de esperar por novas leis para tornar seus sites e aplicativos mais seguros para os usuários”.
Gill Whitehead, diretor do grupo Ofcom para segurança online, repetiu essa declaração em uma carta aberta às empresas de mídia social na quarta-feira, que alertou sobre o risco aumentado de plataformas serem usadas para incitar o ódio e a violência em meio aos recentes atos de violência no Reino Unido.
“Em alguns meses, novas obrigações de segurança sob a Lei de Segurança Online estarão em vigor, mas você pode agir agora – não há necessidade de esperar para tornar seus sites e aplicativos mais seguros para os usuários”, disse Whitehead.
Ela acrescentou que, embora o regulador esteja a trabalhar para garantir que as empresas eliminem o conteúdo ilegal das suas plataformas, ainda reconhece a “importância de proteger a liberdade de expressão”.
A Ofcom afirma que planeia publicar os seus códigos de prática finais e orientações sobre danos online em dezembro de 2024, após o qual as plataformas terão três meses para realizar avaliações de risco de conteúdo ilegal.
Os códigos estarão sujeitos ao escrutínio do Parlamento do Reino Unido e, a menos que os legisladores se oponham aos projetos de códigos, os deveres de segurança online nas plataformas tornar-se-ão aplicáveis logo após a conclusão desse processo.
As disposições para proteger as crianças contra conteúdos nocivos entrarão em vigor a partir da primavera de 2025, enquanto os direitos aplicáveis aos maiores serviços passarão a ser aplicáveis a partir de 2026.