O presidente da Câmara dos Deputados, Hugo Motta (Republicanos-PB), afirmou que quer dar prioridade na semana que vem para a tramitação de um projeto contra a “adultização” de crianças. De todas as matérias que tramitam na Casa, a mais adiantada é o PL 2.628/22, cujo relatório na Comissão de Comunicação foi apresentado na terça-feira pelo relator no colegiado, deputado Jadyel Alencar (Republicanos-PI). Apesar de ter anunciado, no começo da semana, a criação de uma grupo de trabalho que teria 30 dias para promover audiências e recolher sugestões, ontem, em entrevista à GloboNews, Motta disse que “queremos dar resposta imediata à ‘adultização’ de crianças com o projeto que veio do Senado”. A ideia é levar a votação o texto na próxima quarta-feira.
O PL, porém, esbarra na oposição, que vê a possibilidade de a matéria embutir propostas para a regulamentação das redes sociais — algo que os bolsonaristas consideram ser uma censura. Um dos pontos que mais incomodam os deputados conservadores é a expressão “dever de cuidado”, que o relatório de Jadyel sugere que seja retirado, mas os governistas querem mantê-la, conforme o previsto no texto original do senador Alessandro Vieira (MDB-SE).
Segundo o deputado, trata-se de uma definição imprecisa. “O art. 5º do projeto (2.628), ao dispor sobre deveres aplicáveis aos fornecedores de produtos e serviços de tecnologia da informação, refere-se à expressão ‘dever de cuidado’ sem delimitar com clareza a abrangência desse conceito. Entendemos que essa situação pode abrir espaço para interpretações amplas e imprecisas, resultando em exigências desproporcionais às plataformas, como o monitoramento prévio generalizado de conteúdos e, consequentemente, provocando insegurança jurídica”, observa o relatório em certo trecho.
Sobre o “dever de cuidado”, Jadyel frisa, ainda, que “embora o ‘dever de cuidado’ esteja presente na legislação europeia, como no Digital Services Act (DAS), nesse contexto ele se concretiza em obrigações normativas específicas — por exemplo, avaliação e mitigação de riscos sistêmicos, configurações de privacidade por padrão, proibição de perfilamento de pessoas em desenvolvimento, reforço da moderação de conteúdo —, o que torna o conceito mais operacionalizável na realidade regulatória da União Europeia. No Brasil, contudo, a importação desse termo sem definição legal precisa poderia gerar ambiguidades e distorções, além de não dialogar adequadamente com o arcabouço normativo já estruturado para a proteção da infância e adolescência, centrado na doutrina da proteção integral consagrada no Estatuto da Criança e do Adolescente (ECA)”.
Aproximadamente 80 projetos foram apresentados pelos parlamentares, aproveitando a comoção causada pela denúncia do youtuber e humorista Felipe Bressanim Pereira, conhecido como Felca, sobre o influenciador paraibano Hytalo Santos por exploração de menores e advertindo para os riscos de exposição infantil nas redes sociais — cuja erotização, por conta dos algoritmos das redes, podem levar os conteúdos a serem compartilhados com pedófilos.
Regulamentação
A reação da oposição à pressa em colocar o PL 2.628 para ser votado é também por causa da possibilidade de o governo incluir alguma emenda que pretenda regular as big techs. Ontem, na inauguração da Fábrica de Hemoderivados da Hemobrás, em Goiana (PE), o presidente Luiz Inácio LUla da Silva anunciou que o Palácio do Planalto finalizou uma proposta e que a enviará, nos próximos dias, ao Congresso. O texto, conforme salientou, responsabilizar a plataformas por conteúdos criminosos e tem como foco o combate à pedofilia, a disseminação de discurso de ódio e a veiculação de notícias falsas.
Segundo Lula, o projeto valerá para empresas nacionais e estrangeiras que operam no Brasil. “Terminamos o projeto de regulação. Vamos mandar (para o Congresso), porque, aqui no Brasil, tem lei e a lei vale para nós e para as empresas estrangeiras aqui dentro. Não vamos permitir a loucura que se faz com crianças e adolescentes”, disse, aproveitando para alfinetar a posição do presidente norte-americano Donald Trump, que é contrário à criação de regras para as redes.
“A pedofilia, o estímulo ao ódio, as mentiras colocam em risco a democracia e o Estado de Direito. Não vamos deixar. Por isso, vamos regular. E queremos responsabilizar quem fica utilizando criança para praticar pedofilia. Isso, aqui, não vai ter. E ele (Trump) tem que saber que quem manda neste país é o povo brasileiro”, afirmou.
O que “dever do cuidado”?
O “dever de cuidado” das plataformas de internet é a responsabilidade que essas empresas (como redes sociais, mecanismos de busca e marketplaces) têm de atuar, ativamente, para prevenir e mitigar danos aos usuários e à sociedade. Essa ideia vai além da simples remoção de conteúdo ilícito após uma ordem judicial — tal como o Marco Civil da Internet estabelece. O conceito de “dever de cuidado” exige que as plataformas se tornem proativas e ajam para evitar a disseminação de conteúdos que causam prejuízos graves.
» Por que o “dever de cuidado” é importante? — O debate sobre o “dever de cuidado” dá-se porque a forma como as plataformas operam — usando algoritmos de recomendação e de impulsionamento de conteúdo — pode amplificar discursos de ódio, desinformação e outros conteúdos perigosos, causando danos reais. O objetivo é que as plataformas não sejam “neutras” em relação ao que é publicado, mas que assumam um papel mais responsável na proteção dos usuários.
» O que o “dever de cuidado” implica na prática? — O Supremo Tribunal Federal (STF) definiu alguns parâmetros sobre o assunto, trazendo mudanças significativas em relação ao Marco Civil. A principal alteração é que as plataformas podem ser responsabilizadas em casos de conteúdos criminosos graves, mesmo sem uma ordem judicial prévia. Isso significa que, em casos como crimes contra crianças e adolescentes; terrorismo; atos antidemocráticos; crimes de racismo ou de homofobia; indução a suicídio ou à automutilação; e violência de gênero, as redes devem agir para remover ou conter a disseminação desses conteúdos assim que notificadas, sem a necessidade de uma ordem judicial. Se não o fizerem, podem ser responsabilizadas pelos danos.
» A discussão sobre o “dever de cuidado” também abrange outras obrigações para as plataformas, como:
- Design seguro: Projetar as plataformas de forma a proteger, especialmente, crianças e adolescentes;
- Transparência: Serem mais claras sobre como seus algoritmos funcionam, quais são as regras de moderação e como impulsionam determinados conteúdos;
- Medidas preventivas: Adotar mecanismos para evitar a disseminação de conteúdos ilegais ou nocivos,como a remoção de contas falsas ou robôs (bots).
Por Resenha de Brasília
Fonte Correio Braziliense
Foto: Kayo Magalhães/Câmara dos Deputados