Imagem – Shutterstock
ARTIGO
Os artigos e informes publicitários não representam necessariamente a posição de NEO MONDO e são de total responsabilidade de seus autores. Proibido reproduzir o conteúdo sem prévia autorização
POR – RHODRIGO DEDA*, PARA NEO MONDO
Os problemas do metaverso chegaram ao “The Kardashians”. Em um episódio recente do seriado da famosa família norte-americana, o filho de seis anos de Kim Kardashian, Saint West, aparece com um tablet e mostra para a mãe um ambiente digital criado na plataforma da Roblox, que mencionava o nome dela. Na sala virtual “Kim Kardashian Experience” havia uma mensagem que prometia “novas cenas nunca antes vistas” de um vídeo de conteúdo sexual com Kardashian, que havia sido divulgado sem autorização em 2007.
No episódio do seriado transmitido pela rede de streaming da Hulu, ela remove o tablet das mãos do filho e afirma que irá processar os responsáveis. Segundo matéria da BBC, publicada em 21 de abril, a Roblox alegou que, embora a sala virtual existisse, nenhum conteúdo adulto envolvendo Kim Kardashian foi divulgado na plataforma. Ainda de acordo com o comunicado da Roblox à BBC, a sala foi removida e o desenvolvedor que a criou, banido.
O Roblox
A Roblox é uma espécie de metaverso, uma plataforma imersiva que possibilita aos usuários a criação de mundos virtuais e jogos, nos quais outros usuários podem interagir entre si. As interações acontecem em tempo real e com volume massivo, com milhões de usuários ao redor do mundo diariamente explorando os recursos oferecidos.
Tecnologias de metaverso tendem a se desenvolver muito nos próximos anos e, segundo a Gartner, estima-se que 25% das pessoas irão gastar ao menos uma hora por dia nessas plataformas até 2026.
O futuro chegou, só está desigualmente distribuído. Independentemente se o caso Kardashian irá culminar em uma disputa judicial, o incidente levanta questões jurídicas que tendem a ser vistas com mais frequência e que precisarão ser enfrentadas.
Quatro questões sobre metaversos
A primeira delas é de ordem técnica. Como evitar que conteúdo adulto seja publicado em uma plataforma virtual para menores de idade? Não é a primeira vez que problemas dessa natureza surgem no ambiente virtual da Roblox. Em outra reportagem, “The chidren´s game with a sex problem”, publicada em 15 de fevereiro, a BBC relata mais incidentes de criação de conteúdos sexuais na plataforma. A empresa, segundo a matéria, admite o problema, mas afirma que o número de usuários que tem violado as regras da plataforma seria extremamente pequeno. O conteúdo, segundo a Roblox, ficaria online geralmente por um curto período, menos de uma hora, antes de ser descoberto e removido.
A segunda questão é como garantir que empresas como a Roblox estão sendo diligentes em suas tentativas de evitar que crianças tenham contato com material pornográfico. Não basta a declaração da empresa de que os casos são raros e suas ações são efetivas para lidar com o problema. É preciso garantir um nível de transparência sobre suas atividades, a fim que seja possível aferir a efetividade das medidas empregadas para lidar com o problema.
A terceira questão é como será possível quantificar o impacto do conteúdo ilícito acessado por menores em ambientes virtuais em tempo real. Plataformas de metaverso não tratam apenas da produção de conteúdo. Tratam de conteúdo produzido pelas interações entre usuários, o que ocorre em nível de código de programação. Como estabelecer, de forma segura, a extensão do dano em termos de quantidade de usuários impactados, da forma como ocorreu o ato ilícito e de sua gravidade. É preciso avaliar como registrar eventos dessa natureza, seja pela plataforma (o que esbarra em diversas possibilidades técnicas), seja pelo próprio usuário ou responsável (o que talvez seja mais fácil).
A quarta questão é se a solução para casos como esse seria a de responsabilização da plataforma. Em tese, e em uma análise superficial, a resposta é negativa para o contexto americano. Nos Estados Unidos, a Section 230 do Communications Decency Act (CDA) isenta as plataformas e responsabiliza os autores do conteúdo ilícito, embora haja uma crescente discussão sobre essa imunidade.
No dia 21 de abril, Barack Obama fez um discurso na Universidade de Stanford em que teceu críticas às redes sociais e seus algoritmos, apoiou a reforma da Seção 230 e endossou o Platform Accountability and Transparency Act, um projeto de lei que exige que as plataformas compartilhem determinadas informações para análise de pesquisadores independentes.
Fosse um caso sob a jurisdição brasileira, o Marco Civil da Internet (MCI) seria aplicado. O artigo 19 do MCI estabelece como regra que plataformas (chamadas pela lei de provedor de aplicações de internet) somente poderão ser responsabilizadas por dano de conteúdo de terceiros se não removerem o conteúdo após ordem judicial. O objetivo é garantir a liberdade de expressão e impedir a censura.
Entretanto, quando se trata de vídeos ou imagens publicados por terceiros que, por conta de cenas de nudez ou atos sexuais, violem a intimidade de outras pessoas, o artigo 21 do MCI estabelece a responsabilidade subsidiária da plataforma em caso de falta de diligência para indisponibilizar o conteúdo.
Os metaversos ainda estão em sua infância, mas já trazem questões que amplificam riscos já encontrados nas tradicionais plataformas. As medidas necessárias para resolver esses problemas ainda não são totalmente claras.
Em busca de soluções
Talvez a solução para casos de exposição de menores a conteúdos ou interações ilícitas seja possibilitar a ampliação de mecanismos de transparência, a comunicação com os proprietários da plataforma para investigação de condutas inapropriadas e a implementação de mecanismos de revisão humana.
Uma prática adicional que pode trazer mais segurança é a de pais ou responsáveis utilizarem programas que gravem o movimento de tela dos dispositivos usados por menores, a fim de verificar eventuais atos ilícitos cometidos contra crianças ou adolescentes. Por fim, é necessário, também, que as plataformas estabeleçam meios que facilitem a identificação de usuários que violem a lei.
Medidas como essas podem ser aplicadas mediante auto-regulação, com ação das plataformas, mediante regulação estatal, com a publicação de normas pelos Estados, ou híbrida, com empresas e governos agindo em conjunto. São questões técnicas e jurídicas que precisam ser analisadas juntas para antecipar problemas que tendem a se tornar maiores com o desenvolvimento das tecnologias de metaverso.