PL das Fake News: o que está em jogo com o polêmico projeto em discussão no Congresso?

img20230502193859838MED

O projeto de lei das Fake News (PL 2.630/2020), cuja votação na Câmara dos Deputados foi adiada na última terça-feira (2) a pedido do relator, o deputado Orlando Silva (PCdoB-SP), tornou-se o novo palco de disputa entre governo e oposição no parlamento e colocou as big techs no centro do debate político nacional em meio à alegada necessidade de regulamentação das plataformas digitais.

Diante da dificuldade em se construir um consenso entre os congressistas, o relator quer mais tempo para discutir possíveis ajustes no substitutivo e avaliar sugestões apresentadas por pares. Parlamentares apresentaram formalmente mais de 80 emendas ao texto original vindo do Senado, além de uma série de indicações informais durante reuniões, e a tendência é que um novo parecer seja divulgado pelo relator.

Defensores da matéria alegam que ela é fundamental para combater de forma mais efetiva a disseminação de informações falsas no ambiente virtual e coibir a prática de outros crimes, como a incitação à violência e ataques a grupos específicos da sociedade e à própria democracia. Eles dizem, ainda, que o modelo atual dos algoritmos usados pelas redes sociais estimulam a radicalização e o alto engajamento em torno de discursos de ódio nas “bolhas” digitais.

Críticos, por outro lado, temem que o texto traga prejuízo às liberdades individuais, em especial à de expressão (e com frequência usam o termo “censura” para se referir à proposta), e à geração de oportunidades econômicas aos brasileiros, além de não ser eficaz no combate à desinformação. Muitos deles dizem que a atual legislação, com a tipificação de crimes como de injúria, calúnia e difamação, traz elementos suficientes para responder aos problemas apontados pelos defensores do PL das Fake News.

Cerca de quatro meses após os atos golpistas de 8 de janeiro, cujas investigações indicaram articulação de grupos de vândalos por meio de aplicativos de mensagens e redes sociais, o Palácio do Planalto ampliou a pressão sobre o tema da regulamentação, sobretudo após o massacre ocorrido em uma creche em Blumenau (SC) − episódio que gerou maior engajamento sobre a necessidade de delimitar regras para o ambiente virtual e o combate ao discurso de ódio e à desinformação.

“Só teremos escolas seguras com a regulação da internet. Este é um tema fundamental”, disse o ministro Flávio Dino ao participar, na quarta-feira (3), de uma reunião que durou mais de três horas e meia, na Comissão de Fiscalização Financeira e Controle da Câmara dos Deputados. “Todos os deputados e deputadas que querem crianças e adolescentes protegidas têm que cuidar da internet. Sem isso, teremos grupos neonazistas atacando escolas; criminosos cooptando crianças e adolescentes e ameaçando as famílias brasileiras”, completou.

Nos últimos dias, a polêmica cresceu com uma ofensiva das big techs contra o PL das Fake News. Com a alegação de que o texto a ser votado na Câmara dos Deputados poderia dar proteção a quem produz desinformação, ameaçar a liberdade de expressão e pôr em risco o acesso e a distribuição gratuita de conteúdo na internet. Em uma forte campanha, o Google hospedou em sua página principal um artigo elencando problemas na peça, assinado por Marcelo Lacerda, diretor de Relações Governamentais e Políticas Públicas da empresa.

A atitude provocou reação entre representantes da esfera pública, que cobraram explicações. Em São Paulo, o Ministério Público Federal abriu procedimento solicitando que, além do Google, a Meta (dona do Facebook, Instagram e WhatsApp) detalhasse as ações de impulsionamento de conteúdo contra o projeto de lei. Há suspeita de que a empresa de Mark Zuckerberg tenha veiculado anúncios sobre o tema sem informar aos usuários de que se tratava de conteúdo patrocinado.

Por sua vez, a Secretaria Nacional do Consumidor (Senacon), ligada ao Ministério da Justiça, determinou que o Google sinalizasse que o conteúdo contrário ao PL das Fake News tinha natureza publicitária, obrigando também que fosse divulgado no mesmo espaço texto favorável à proposta, sob pena de multa de R$1 milhão por hora de descumprimento. Após ser notificada, a empresa retirou o conteúdo da página principal.

Ainda na terça-feira (2), o ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), ordenou a retirada de todos os anúncios que se referiam ao texto do projeto de lei como “PL da Censura”. O magistrado também indicou prazo para Google e Meta explicarem o mecanismo de direcionamento de conteúdo sobre o tema, sob a suspeita de terem utilizado o algoritmo para manipular a opinião pública no debate de regulamentação do conteúdo veiculado na internet.

Moraes, que tem participado ativamente dos debates sobre a regulamentação das redes, também cobrou explicações sobre as providências que as empresas têm tomado para combater à disseminação de conteúdos inverídicos relativos aos atos antidemocráticos e ao processo eleitoral. Na mesma petição, ele pede que os responsáveis das empresas citadas, e também do Spotify e Brasil Paralelo, fossem ouvidos no prazo de cinco dias, sob suspeita de abuso de poder econômico.

O clima de tensão se alastrou pelo Congresso Nacional uma semana após os deputados aprovarem requerimento de urgência para a tramitação do projeto, o que permitiu que ele pulasse etapas prévias de debates em comissões temáticas para ser levada diretamente a plenário. Diante do elevado risco de derrota para o governo, a apreciação da matéria foi adiada, sem previsão de nova data para votação.

Veja os principais pontos previstos na versão mais recente do substitutivo protocolado pelo relator, o deputado federal Orlando Silva (PCdoB-SP):

O que diz o texto do projeto

A proposta cria a chamada Lei Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet e estabelece obrigações a serem seguidas por redes sociais, aplicativos de mensagens e ferramentas de busca na sinalização e retirada de contas e conteúdos considerados criminosos.

Pelo texto, os provedores (considerados aplicações de redes sociais, ferramentas de busca ou mensageria instantânea) poderão ser responsabilizados civilmente “pela reparação dos danos causados por conteúdos gerados por terceiros cuja distribuição tenha sido realizada por meio de publicidade de plataforma” e “por danos decorrentes de conteúdos gerados por terceiros quando houver descumprimento das obrigações de dever de cuidado” previstas.

As big techs também são obrigadas a identificar, analisar e avaliar diligentemente os riscos sistêmicos decorrentes da concepção ou do funcionamento dos seus serviços e dos seus sistemas relacionados, incluindo os sistemas algorítmicos. A avaliação deve ser feita anualmente ou na introdução de funcionalidades suscetíveis de terem “impacto crítico”.

Dentre os riscos estão a difusão de conteúdos ilícitos, afronta à garantia e promoção do direito à liberdade de expressão, de informação e de imprensa e ao pluralismo dos meios de comunicação social, ao Estado democrático de direito e à higidez do processo eleitoral. Além da disseminação de informações que ofereçam riscos relativos “à violência contra a mulher, ao racismo, à proteção da saúde pública, a crianças e adolescentes, idosos” e aquelas com consequências negativas graves para o bem-estar físico e mental.

Nestes casos, as companhias precisarão adotar medidas de atenuação “proporcionais e eficazes”, incluindo processos de moderação de conteúdos quando necessário, com rapidez e qualidade de processamento de notificações e eventuais remoções de conteúdos.

Também entra na lista de obrigações “testar e adaptar os sistemas algorítmicos, incluindo os sistemas de priorização e recomendação, de publicidade de plataforma” e a adoção de medidas para proteger os direitos de crianças e adolescentes, incluindo o aprimoramento dos sistemas de verificação de idade.

Conforme o projeto, as big techs precisarão atuar diligentemente para “prevenir e mitigar práticas ilícitas”, como a disseminação de conteúdos ilegais gerados por terceiros que possam configurar algum dos crimes destacados anteriormente.

Uma vez em vigor a nova regra, as empresas terão que disponibilizar de forma clara e acessível termos de uso com explicações sobre as principais características dos serviços, tipos de conteúdo proibidos, informações sobre o procedimento de notificação e recurso, serviços de publicidade, descrição geral dos algoritmos utilizados (com principais parâmetros que determinam a recomendação ou direcionamento de conteúdo ao usuário), ressalvados os segredos comercial e industrial.

Também será necessário oferecer destaque para os principais parâmetros que determinam a recomendação ou direcionamento de conteúdo ao usuário e opções aos usuários para modificá-los. Tais parâmetros precisarão “ser capazes de explicar o motivo de certos conteúdos serem sugeridos ao usuário, incluir critérios relevantes para determinação das recomendações ou direcionamentos e como eles são balanceados entre si”.

Os provedores que utilizem dados pessoais para perfilamento com fins de recomendação de conteúdos deverão oferecer a exibição de conteúdos não selecionados a partir de tais técnicas e criar mecanismos acessíveis para que o usuário possa optar entre diferentes formas de exibição, gestão e direcionamento de conteúdos na plataforma. Conteúdos recomendados devem ser diferenciados de forma clara daqueles selecionados pelo próprio usuário.

O texto estabelece, ainda, que as empresas, por padrão, demandem ação humana e consentimento dos usuários para ativação de reprodução automatizada de conteúdos, salvo conteúdos musicais e listas de reprodução criadas pelo próprio usuário.

Pela regra, as companhias precisarão produzir relatórios semestrais de transparência, disponibilizados em seus próprios sites, para informar sobre procedimentos de moderação de conteúdo. Os materiais deverão conter informações qualitativas, incluindo o detalhamento dos procedimentos de moderação de contas e de conteúdos adotados, ações implementadas para enfrentar atividades ilegais, mudanças significativas nos termos de uso e sistemas de recomendação e dados sobre as equipes responsáveis por aplicação dos termos de uso.

O provedor terá de realizar e publicar anualmente auditoria externa e independente para avaliação do cumprimento das normas estabelecidas pela nova legislação, abordando aspectos como eficiência no atendimento das obrigações de análise e atenuação de riscos sistêmicos, impactos da moderação de conteúdo, inexistência de vieses nas decisões e impacto dos algoritmos na visibilidade, recomendação e ordenação de conteúdos jornalísticos.

Os provedores também devem viabilizar o acesso gratuito de instituição científica, tecnológica e de inovação a dados desagregados, inclusive por meio de interface de programação de aplicações, para finalidade de pesquisa acadêmica. Isso inclui algoritmos usados na moderação de contas e de conteúdos, priorização, segmentação, recomendação e exibição de conteúdo, publicidade de plataforma e impulsionamento, e dados suficientes sobre como eles afetam o conteúdo visualizado pelos usuários.

No caso de exibição de material publicitário, os provedores precisarão oferecer informações sobre os principais parâmetros utilizados para determinar o destinatário do conteúdo e de como alterá-los. A publicidade de usuário deverá ser informada publicamente aos demais usuários.

Será obrigação da empresa provedora e das plataformas de publicidade programática apresentar informações com todo o repositório dos anúncios e conteúdos impulsionados, com a íntegra dos materiais e dados que permitam a identificação do responsável pelo pagamento e características gerais da audiência contratada.

O usuário poderá ter acesso a informações do histórico dos conteúdos publicitários com os quais teve contato nos últimos seis meses, além dos detalhes dos critérios e procedimentos utilizados para perfilamento que foram aplicados em cada caso.

Os provedores devem criar, ainda, mecanismos para ativamente impedir o uso dos serviços por crianças e adolescentes, sempre que não forem desenvolvidos para eles ou não estiverem adequados a atender Às necessidades desse público. E estarão impedidos de criarem perfis comportamentais de usuários crianças e adolescentes a partir da coleta e do tratamento de seus dados pessoais para fins de direcionamento de publicidade.

O projeto de lei também avança sobre o debate de direitos autorais ao estabelecer que seja feita remuneração aos titulares de conteúdo em quaisquer formato. Diz o texto que titulares dos conteúdos protegidos devem preferencialmente exercer seus direitos por meio de associações de gestão coletiva de direitos autorais, que negociarão com os provedores os valores a serem praticados, o modelo e prazo da remuneração.

Pela nova regra, os provedores precisariam adotar mecanismos para identificar e neutralizar a atuação de contas automatizadas que distorçam artificialmente ranqueamentos e listas de reprodução. E seriam proibidos de aumentar ou reduzir artificialmente, sem informação ao usuário, a frequência de utilização de obras ou fonogramas específicos a fim de privilegiar, nos sistemas de recomendação baseados em algoritmo, a remuneração a empresa integrante do mesmo grupo econômico, sócia, controladora ou coligada ou que tenha firmado acordo comercial com a plataforma.

Outra inovação do texto é a previsão de remuneração de empresas jornalísticas pela reprodução, em qualquer formato, de conteúdo jornalístico pelas provedoras, sem ônus ao usuário final. Há possibilidade, inclusive, de o Conselho Administrativo de Defesa Econômica (Cade) atuar para coibir eventuais infrações cometidas pelo provedor que abuse da posição dominante na negociação com as companhias jornalísticas.

A última versão do substitutivo apresentada pelo deputado Orlando Silva estabelece que contas mantidas em redes sociais indicadas como institucionais pelos integrantes da administração pública não poderão restringir a visualização de suas publicações.

Pelo texto, “decisões de provedores que constituam intervenção ativa ilícita ou abusiva em contas de interesse público autorizam o ajuizamento de ação judicial para a sua restauração, devendo o Poder Judiciário obrigar os provedores as restabelecerem, no prazo de 24 horas, nos casos em que fique comprovada a sua operação em conformidade com os direitos fundamentais e com os princípios da legalidade, impessoalidade, moralidade, publicidade e eficiência”. E a imunidade parlamentar é estendida aos conteúdos publicados por agentes públicos nas plataformas.

Em caso de publicidade contratada por entidades e órgãos da administração pública, será necessário informar o valor do contrato, dados da empresa contratada e forma de contratação, conteúdo da campanha, mecanismo de distribuição dos recursos, critérios de definição do público-alvo, lista de meios em que os recursos foram aplicados, número da aparições e valor aplicado na soma delas.

Já para os aplicativos de mensagem instantânea, o projeto de lei determina a garantia à privacidade e a limitação da distribuição massiva de conteúdos e mídias, incluindo a adoção de mecanismos para aferir consentimento prévio do usuário para inclusão em grupos de mensagens, listas de transmissão, canais de difusão de informações abertos ao público ou mecanismos equivalentes de agrupamentos de usuários – exceto em situações de emergência, estado de calamidade pública ou circunstâncias análogas.

Pela regra, uma ordem judicial, em circunstâncias definidas, poderá determinar aos provedores de mensageria instantânea que preservem e disponibilizem informações suficientes para identificar a primeira conta denunciada por outros usuários quando em causa o envio de conteúdos ilícitos.

Os provedores que ofereçam serviços de contas destinadas ao uso comercial para clientes que facilitem o disparo automatizado e em larga escala para múltiplos usuários devem desenvolver, ainda, medidas para que o serviço seja usado estritamente para finalidades institucionais ou comerciais, com identificação do remetente das mensagens.

O texto estabelece que decisões judiciais que determinarem a remoção imediata de conteúdo ilícito relacionado à prática de crimes deverão ser cumpridas pelos provedores no prazo de até 24 horas, sob pena de multa de R$ 50 mil a R$ 1 milhão por hora de descumprimento – que poderá triplicar em casos que envolvam publicidade de plataforma.

Quando o provedor tomar conhecimento de informações que levantem suspeitas do possível cometimento de crime que envolva ameaça à vida, ele deverá informar imediatamente as autoridades competentes.

Caso haja remoção de conteúdo, as empresas deverão armazenar, por 6 meses, o material publicado, os dados de acesso e endereço de protocolo de internet, incluindo as portas de origem, além de dados cadastrais, telemáticos, outros registros e informações dos usuários que possam ser usados como material probatório.

Pelo projeto, caso cometam infrações a normas estabelecidas, os provedores ficam sujeitos a punições que vão desde simples advertência com necessidade de indicação de prazo para adoção de medidas corretivas até multa de 10% do faturamento do grupo econômico no Brasil em seu último exercício, limitada a R$ 50 milhões por infração.

Nas sanções, também há possibilidade de proibição de tratamento de determinadas bases de dados e suspensão temporária das atividades. O texto estabelece critérios para a aplicação das penalidades, considerando gravidade, reincidência, cooperação do infrator e outros aspectos.

O substitutivo trata especificamente da hipótese de promoção ou financiamento da divulgação em massa de mensagens que contenham fato sabidamente inverídico que seja capaz de comprometer a higidez do processo eleitoral ou que possa causar dano à integridade física e seja passível de sanção criminal. Neste caso, a pena é de reclusão de 1 a 3 anos e multa.

PL das Fake News: o que está em jogo com o polêmico projeto em discussão no Congresso? appeared first on InfoMoney.

Marcos Mortari

Marcos Mortari