Neste episódio comentamos o marco de 400 episódios e analisamos a fundo a nova lei do ECA Digital para a proteção de crianças online.
Você vai aprender sobre as novas obrigações que o ECA Digital impõe a plataformas e serviços na internet, como a polêmica verificação de idade obrigatória e a proibição de funcionalidades viciantes, como o feed infinito e a reprodução automática. Discutimos os desafios técnicos e de privacidade para implementar um controle de acesso eficaz, a criação de uma nova autoridade reguladora e as regras mais rígidas contra o cyberbullying e a publicidade infantil, incluindo a proibição do profiling de menores para anúncios, além de promover o aumento da proteção de dados e a segurança de crianças no ambiente digital, abordando desde o controle parental até a responsabilidade das Big Techs na moderação de conteúdo e na monetização que envolve menores.. Este é um guia essencial para entender o futuro da segurança online para crianças e adolescentes.
Neste episódio comemorativo de número 400, Guilherme Goulart e Vinícius Serafim também celebram os 13 anos de podcast, relembram a trajetória do Segurança Legal e agradecem aos ouvintes pela jornada. Além da celebração, anunciam a inauguração do Espaço BrownPipe, um novo local para inovação e gravação de conteúdo.
Para não perder nenhum insight sobre segurança da informação, direito da tecnologia e privacidade, assine o podcast Segurança Legal no seu agregador favorito, siga-nos nas redes sociais e deixe sua avaliação.
Visite nossa campanha de financiamento coletivo e nos apoie!
Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing
Vídeo – Conheça o espaço BrownPipeImagem do episódio – Height Requirement
📝 Transcrição do Episódio
(00:01) [Música] Nosso primeiro podcast. Nós vamos tratar a respeito dos recentes vazamentos de dados do sistema, mais especificamente do sistema Consultas Integradas da Secretaria de Segurança Pública do Rio Grande do Sul. Isso tem vindo à lume através dos meios de comunicação, através de denúncias de situações que não aconteceram uma ou duas vezes; elas vêm se repetindo e vêm sendo reportadas ao longo do tempo.
(00:43) Ao longo deste programa, nós vamos discutir algumas notícias às quais me referi. Vamos também discutir o que é o sistema Consultas Integradas. Como se dá o acesso ao sistema, quem pode acessá-lo, que informações estão lá e quais são os problemas de autenticação, se há problemas nesse sentido.
(01:03) Vamos comentar também a respeito da auditoria do Tribunal de Contas do Estado do Rio Grande do Sul, que foi feita nesse sistema, indicando quais são as falhas a serem corrigidas pela Secretaria de Segurança Pública do Rio Grande do Sul. E vamos discutir algumas questões, possíveis soluções e também a questão da importância deste sistema e quais são os riscos que ele acarreta da forma como é utilizado.
(01:51) [Música] Este é o Segurança Legal, episódio 100, gravado em 20 de abril de 2016: Os bastidores do Segurança Legal. Neste episódio especial, falamos sobre os bastidores do podcast Segurança Legal com a ajuda de Fábio Assolini como host. [Música] Este é o Segurança Legal, episódio 200, gravado em 20 de maio de 2019.
(02:20) Chegamos aos 200. Neste episódio, vamos fazer comentários gerais sobre os últimos 100 episódios do Segurança Legal com a participação de Fábio Assolini. [Música] Segurança Legal com Guilherme Goulart e Vinícius Serafim. Um oferecimento Brown Pipe Consultoria. [Música] Este é o Segurança Legal, episódio 300, gravado em 31 de dezembro de 2021.
(02:53) Neste episódio, você ouvirá um pouco do que aconteceu nos últimos 100 episódios do Segurança Legal. Segurança Legal com Guilherme Goulart e Vinícius Serafim. Um oferecimento Brown Pipe Consultoria. Sejam todos muito bem-vindos ao episódio 400 do podcast Segurança Legal. Estamos de volta com o seu podcast de segurança da informação, direito da tecnologia, tecnologia e sociedade.
(03:29) Eu sou o Guilherme Goulart e aqui comigo está, pela 400ª vez, Vinícius. Na verdade, um pouco menos, porque tem vários episódios que eram os resumos de notícias do Assolini. Teve episódios que eu não pude fazer. Então não dá exatamente 400 episódios em que estamos juntos.
(03:56) Mas sim, são quase 400 e eu estou quase sem voz aqui. Estou quase ausente do episódio 400. Pois é, eu vi aqui que o cardinal é quadrigentésimo. Quadrigentésimo episódio. Eu achei que fosse quadricentésimo, mas enfim. Acho que dá para contar 400 vezes aqui, Vinícius, até porque teve outras coisas que a gente participou. E acho que esse é o primeiro ponto aqui. Você ouviu aí, a gente fez um pequeno áudio do primeiro, do centésimo, do ducentésimo, do tricentésimo.
(04:27) E agora do quadrigentésimo episódio, para trazer um pouco desse histórico, Vinícius. Afinal de contas, aquele primeiro áudio que você ouviu ali, já falei isso várias vezes aqui, mas acho que cabe falar novamente. Você vê que a qualidade estava ruim, tinha um ruído de fundo. Nossa, cara, eu estava olhando os tempos aqui.
(04:52) Pegamos do episódio 1, do 100 e do 300. São quatro episódios. Só a abertura do primeiro episódio é metade do tempo de tudo que nós tocamos aqui no início. A gente fazia uma abertura bem mais longa. E sem contar que era uma coisa meio “durenga”, a gente ainda estava encontrando nosso jeito de falar para poder gravar.
(05:24) Então, é muito interessante ouvir de novo essas aberturas. E mudou muito da primeira para a centésima. Sim, a qualidade e a forma de fazer a abertura. E também vimos a participação no 100 e no 200 do nosso querido amigo Fábio Assolini, que fez parte da história deste podcast também.
(05:49) Aproveitamos para mandar um grande abraço para ele. Um cara muito importante na nossa jornada e, além de ser um cara fabuloso, uma pessoa muito bacana. Então, o Assolini, mesmo tendo deixado o Segurança Legal, faz parte desta história. É importante notarmos também.
(06:09) O episódio 300 foi um apanhado dos últimos 100 episódios que durou 5 horas e pouco. Agora, vamos fazer algo um pouco diferente, porque tem outros temas que queremos tratar também, Vinícius. E acho que outro tema, além de agradecer aos ouvintes nesses 12, 13 anos de podcast, de 2012 para 2025, então são 13 anos de podcast. Isso é feito tudo para você, ouvinte.
(06:37) Mas também nós temos um anúncio bem legal para fazer, que foi a inauguração do Espaço Brown Pipe na SETREM em 3 de maio. Conta para nós um pouco como foi esse dia. Deixa eu até botar umas imagens para rolar aqui. Depois tem o link para quem quiser assistir ao vídeo na íntegra, com áudio e tudo. A SETREM, a Sociedade Educacional Três de Maio, é uma instituição com mais de 100 anos de existência.
(07:06) Claro, a faculdade não é tão antiga. Ela tem, acho que, em torno de 50 anos, se não estou enganado, que é o curso de Administração, um dos mais antigos. Mas é uma instituição com a qual temos uma certa ligação, né, Guilherme?
(07:27) Uma instituição em que estudei em 93. Em um dos vários lugares que morei, morei aqui perto, em Boa Vista do Buricá, e acabei estudando na SETREM. E eu tenho muito boas lembranças da SETREM, inclusive relacionadas à questão de TI. Na época, era só eu e mais uns dois colegas que tínhamos computador, e chegamos a fazer trabalho em conjunto com modem, cara, linha discada, não tinha internet.
(07:55) Então, temos uma vinculação muito grande. E depois, eu e tu acabamos vindo… Eu acabei voltando a Três de Maio por teu intermédio e da tua na época namorada, hoje tua esposa, a Tatiane. E aí eu conheci a minha esposa. Fomos juntos fazer uma palestra aí na SETREM e eu acabei conhecendo minha esposa.
(08:19) Então, quando vim morar em Três de Maio, acabei dando aula na SETREM. Até hoje atuo lá na SETREM, na coordenação de TI junto com o pessoal e acompanho alguns projetos. Então, já fazia horas que a gente estava circulando na volta da SETREM.
(08:39) Tu foste professor da SETREM também, Guilherme, no período que tu conseguias ficar viajando. E acabamos estreitando esses laços com a instituição, uma instituição pela qual temos um carinho bastante grande. E a Brown Pipe, nós dois iniciamos trabalhando remotamente desde o dia um. E aí, com a pandemia e o pós-pandemia, como muitas empresas, o resto do pessoal foi para o home office. Eu e o Guilherme sempre trabalhamos em home office.
(09:12) Resolvemos então ter um espaço físico ali na SETREM, uma parceria para criar um espaço que represente a Brown Pipe e que seja aberto para conseguirmos interagir de uma maneira mais próxima com a academia, considerando o espaço que temos muito próximo da gente.
(09:34) Então, essa sala aí que vocês vão ver, é mais um lugar de encontro, de estudo, de gravações. Vocês vão ver coisas gravadas lá. Este fundo aqui já é de lá. E nós fizemos um evento em que falamos sobre inteligência artificial, segurança da informação e proteção de dados. Essas três coisas.
(09:59) Fizemos um talk com empresários aqui da região sobre esse tema. Então, foi um momento bem interessante, em que inauguramos esse espaço lá dentro da SETREM e reforçamos uma parceria que já estamos buscando há algum tempo, para estar mais perto dos alunos aqui da cidade. Tem curso de Direito aqui, de Computação, Psicologia, Enfermagem, Pedagogia, tem várias coisas aqui.
(10:29) Quando falamos em proteção de dados, nem sempre chamamos tanta atenção. Mas quando falamos, por exemplo, de ferramentas que todo mundo está usando, aí acaba envolvendo toda essa questão da proteção de dados, segurança da informação e tudo mais. Bom, mas estão aí algumas imagens para você conferir o que aconteceu no evento.
(10:45) Estamos bem felizes por ter feito isso, Guilherme. Por ter feito essa inauguração. Acho que são duas coisas das quais eu me orgulho muito na minha vida: o podcast Segurança Legal e a Brown Pipe. Porque construímos essa empresa desde o início com uma série de valores que fomos preservando ao longo do tempo, sobre como trabalhar, sobre como lidar com as pessoas.
(11:13) E acho que isso acaba se refletindo também na forma como lidamos com nossos clientes. Vocês nos conhecem, têm nos ouvido aqui por 400 episódios. Então, também achamos que é possível mudar o mundo, ou contribuir para o mundo, por meio de uma empresa, pela forma como lidamos com as pessoas, com a academia, com os clientes, com os funcionários. E acho que essa sala representa isso também, porque ela vai permitir, é uma sala multiúso. Tanto a comunidade acadêmica, os docentes, os discentes podem usar essa sala se quiserem.
(11:47) E a própria comunidade empresarial de Três de Maio. Ficou um espaço excelente. Modéstia à parte, Vinícius, investimos bastante tempo ali no planejamento, então todos os detalhes foram cuidadosamente planejados por nós. E, claro, não podemos esquecer também da Camila, que trabalha conosco, que foi a pessoa tanto que organizou esse evento, que você está vendo ali, foi um evento bem legal, depois vai ficar o link para você ver os vídeos e fotos, mas também
(12:16) foi a pessoa que, em grande parte, foi responsável pela organização da própria sala, escolhas e tudo mais. Foi ela que fez aquele logo bonitão da Brown Pipe, que ficou um logo metalizado. Não, não vem com metalizado. Eu penei para conseguir encaminhar isso. Não fui eu que fiz, é óbvio. Isso aí é aço inox. Não lembro o número do inox.
(12:41) Tem um número específico. Ah, eu não sabia dos números do inox. Há vários tipos de inox. Ali é um aço inox de 1.5 mm. É pesado pra caramba aquele negócio. Bom, de qualquer forma, fica então aí o nosso anúncio. Se você estiver pela região, nos avise e passe lá para conhecer o espaço, tomar um café com a gente, tomar um suco, enfim, conversar sobre esses nossos temas. Será muito bem-vindo. Tá bom? Beleza, Guilherme.
(13:12) E agora vamos entrar no ECA Digital. Esse foi, Vinícius, um dos… embora o projeto seja de 2022 e tenha sido discutido com reuniões, com audiências públicas e tudo mais, ganhou reforço essa questão do ECA Digital com o famoso vídeo lá do Felca, que inclusive foi nosso último episódio, o 399, que gravamos em agosto, 12 de agosto. Falamos sobre
(13:48) isso e o processo legislativo passou por Câmara e Senado, e agora essa lei já foi para a sanção presidencial. Ele pode eventualmente vetar uma ou outra coisa, mas estamos vendo aqui a versão que provavelmente vai se tornar a lei. E aqui, acho que cabem algumas questões, algumas direções introdutórias, Vinícius. Essa lei fala sobre várias coisas que vamos comentar aqui, sobre várias práticas que deverão ser realizadas pelos
(14:17) provedores e por empresas que disponibilizam conteúdo direcionado para crianças e adolescentes. A lei toda fala sobre crianças e adolescentes, mas para eu não ficar repetindo, vou falar “criança”, e vocês entendam que o adolescente está incluído, tá? Só para não ficar falando o tempo todo “criança e adolescente”. Então, para qualquer tipo de produto ou serviço que seja direcionado para a criança ou de acesso provável por eles, o que pode ser também um problema para saber o que vai ser esse “acesso provável”. Várias dessas práticas vão contar ainda com uma
(14:56) regulamentação posterior para dizer como algumas dessas coisas serão feitas. É um tema complexo e eu cito aqui, Vinícius, as palavras do Paulo Rená, nosso amigo, agora doutor em Direito, recém-doutor em Direito, e ele falou assim: “Pode não ser a melhor lei, pode ter problemas de fato, mas é um avanço importante na proteção dos menores”. O pessoal não gosta muito de falar “menores”, mas enfim.
(15:29) Porque tem toda a questão do que é criança e adolescente pelo ECA. Mas não importa agora para esta discussão, mas se tem definição, deve importar. Sim, tem, tem.
(15:52) Não importa no sentido de facilitar a exposição aqui, mas sim, importa de fato. E acho que isso também toca em outro problema que estamos enfrentando agora, que é como regular a tecnologia. Estamos vendo ao longo desses últimos anos a dificuldade de regular a tecnologia, porque o papel das big techs está muito incisivo e forte, seja no lobby ou em práticas que estamos vendo com os Estados Unidos agora, de eles simplesmente optarem por não cumprir certas normas ou se oporem, até mesmo aplicando sanções a países que queiram regular certas atividades. E aqui estamos falando
(16:29) da regulação de um ambiente digital que seja seguro para as crianças. E aí, outra coisa, Vinícius, também que é uma crença muito, me parece, errada que temos no Brasil, que é achar que vamos conseguir mudar a realidade com uma lei.
(16:48) Tenho um problema, basta que eu faça uma lei que automaticamente as práticas sociais ou empresariais vão se modificar. O que temos visto cada vez mais é que nem sempre se pode contar com a boa vontade das empresas. Várias coisas que temos visto de práticas de big techs, sobretudo em relação às crianças, demonstram que eles de fato não têm agido de boa-fé. Porque achamos por um bom tempo que poderíamos contar com a boa-fé no sentido de que os caras teriam uma motivação, uma prática social, um cuidado…
(17:25) e o que temos visto é que isso não está acontecendo. Que seriam proativos. Mas não foi o que aconteceu. Sobretudo em big techs. Não sei se tu queres falar alguma coisa inicial, Vinícius, para depois a gente ir comentando sobre alguns aspectos da lei.
(17:48) Bem rapidamente, justamente nessa linha da falta de proatividade das empresas. Nós comentamos em vários episódios aqui, Guilherme. Citamos, no caso do vídeo do Felca, no último episódio, falamos sobre isso também. Nós aqui já faz um tempo que comentamos sobre esse uso de internet por parte de
(18:19) crianças. E quando falamos internet, estamos falando de serviços, de aplicativos e de tudo mais que se acessa por meio da internet, mas não somente. Até mesmo brinquedos, já falamos sobre os brinquedos conectados à internet, jogos. E, de fato, os controles são bastante limitados. Você pega uma empresa como a Meta, por exemplo, que tem o Facebook, o que ela investe para conseguir criar perfis, vender propaganda, etc., e implementa mecanismos pífios de cadastro,
(18:59) pelos quais as crianças facilmente conseguem passar. Mas de qualquer maneira, encontramos isso em diversos lugares, por exemplo, o Steam para quem joga. A central de jogos Steam tem controles parentais muito bons, tá? Eu falo porque uso, meu filho tem Steam, os controles parentais são muito bons. Mas, ao mesmo tempo, embora tenha uma certa dificuldade ali, se meu filho quisesse criar uma conta na Steam dizendo que nasceu um pouco antes,
(19:35) ele conseguiria e teria acesso a conteúdos. Bom, eu mesmo tive que desativar na minha conta Steam, Guilherme. De um tempo para cá, começaram a aparecer algumas propagandas na loja da Steam de jogos que são, na verdade, com conteúdo sexual explícito.
(20:03) E eu achei estranho aquilo começar a aparecer para mim, e aí tive que me preocupar em procurar onde eu desativava esse tipo de conteúdo na minha conta para que eu não abrisse a loja na frente dos meus filhos e de repente aparecesse uma coisa explícita lá. Então, achei um lugar onde desativar, beleza. Imagina uma criança que abre uma conta na Steam e os pais nem sabem o que é.
(20:25) Elas estarão muitas vezes expostas a conteúdo sexual explícito. Não é erótico, é explícito mesmo. E aí, acabei me aprofundando um pouco nos controles quando fui criar a conta para ele, fui ver como se fazia uma tal de conta família.
(20:42) Então, tu tens uma série de controles, mas isso exige dos pais um conhecimento que muitos não têm, uma intimidade com tecnologia que muitos não têm. Então, dá para ver, em resumo, que o que tu falas, de que a gente esperava que, de boa-fé ou de maneira proativa, as big techs atuassem para proteger as crianças, na verdade é o contrário.
(21:09) Elas fazem o mínimo, só para dizer que estão se preocupando de alguma forma, mas é o mínimo. Não facilitam as coisas. Controles de privacidade são ruins mesmo para adultos. É difícil para os adultos organizarem as coisas, acessarem, conseguirem ter algum controle sobre isso.
(21:32) E, no entanto, elas investem caminhões de dinheiro para fazer outras coisas mais complexas, mas que facilitem a vida deles em coletar, criar perfis, etc., e não investem nisso. Outro exemplo, Guilherme, bem chato: o Netflix. No Netflix, tu podes criar um perfil por idade e, inclusive, vetar conteúdo.
(21:58) Então, posso no perfil dos meus filhos dizer: “este conteúdo eu não quero que apareça”. Só que isso é uma coisa tão chata, cara, que eu tenho que ficar catando onde é. Só funciona no navegador. Então, se tu usas no celular, na TV, e não acessas tua conta Netflix no computador, tu não vais ver o controle que te permite tirar algumas coisas que tu não queres que a criança assista.
(22:22) E é chato de fazer, tem que ser um por um. Não consigo pesquisar e marcar todos que aparecem na pesquisa. Parece que é feito de propósito para ser difícil esse tipo de controle. Sim, cara, são os “dark patterns”, né? É o “dark pattern” ou também conhecido como má-fé.
(22:43) Má-fé é a palavra. É isso. Esse é meu comentário de entrada neste assunto. Estou controlando um pouco minha voz, gente. Estou quase sem voz e tenho que dar uma aula hoje à noite. Quero só ver. Sabe que essa coisa de “a lei vai mudar a realidade posta”? Essa lei fala várias vezes sobre essa obrigação, não somente o direito da criança de obter uma formação adequada para o uso de novas tecnologias, mas também o dever dos pais, que se amplia
(23:14) naquilo que conhecemos como poder familiar. O poder familiar, que é o poder que os pais têm de direcionar a criação dos seus filhos, é um poder, mas é um poder vinculado. Como todo exercício de direito, você tem limites. O poder que você, enquanto pai, tem de direcionar a criação dos teus filhos não é ilimitado no sentido de que você possa fazer qualquer coisa, porque é um poder que você exerce em função do filho, ou, dito de outra
(23:49) forma, seguindo uma palavra que aparece várias vezes lá, que é o “melhor interesse da criança”. Você tem o poder, mas esse poder é limitado pelo melhor interesse. O ponto é que você não precisaria de uma lei para que pais conseguissem direcionar o uso de tecnologia pelos seus filhos, sobretudo qualitativa e quantitativamente. E a lei, me parece que, infelizmente, não vai mudar isso.
(24:22) Não vai ser com a lei que os pais vão acordar para isso. Precisamos de algo mais. É uma questão que não é só… claro que os pais também têm um controle limitado, é uma sociedade toda direcionada para que todo mundo se vicie nesse tipo de aplicativo.
(24:42) Então, o pai sozinho também não vai conseguir fazer nada. Mas novos deveres ficam bem mais claros agora, se havia alguma dúvida de que os pais deveriam tomar esses cuidados. Bom, vou tocando em alguns pontos, Vinícius, e aí você vai me interrompendo sempre que achar necessário. Primeira coisa é que teremos outra autoridade, que é referida aqui, seria a “Autoridade Administrativa Autônoma de Proteção de Crianças e Adolescentes no Ambiente Digital”.
(25:08) (risos) Tentei fazer a sigla, mas ficou totalmente impronunciável. Se nem eles fizeram… É A3… Não, não dá. Horrível.
(25:41) E essa autoridade, referida várias vezes, ainda terá que ser criada. Ela terá várias atribuições, inclusive de eventualmente receber e avaliar os controles de idade, que acho que é uma das grandes questões aqui e que se assemelha um pouco ao que está acontecendo no Reino Unido também. Outra coisa que comentei antes, o “melhor interesse da criança”. Esse é um conceito super importante quando falamos em criança e adolescente. É você avaliar não somente o que vai ser melhor para
(26:10) ela naquele contexto, mas também entender algo que é muito importante para quem estuda essa parte de direito da criança e do adolescente. Já estudei no passado um pouco. Se tem um conceito muito importante, é o chamado “desenvolvimento progressivo”. Não é assim, o cara vira adulto. Ele vai progressivamente, mesmo enquanto criança, se desenvolvendo intelectualmente. E a ideia é que você
(26:46) também deva respeitar esse desenvolvimento progressivo da criança, no sentido inclusive de ir pouco a pouco liberando, permitindo, ensinando. Não é oito ou oitenta. Em algum momento, eles falam, por exemplo, além de definir esse melhor interesse na internet, que é muito importante, são conceitos abertos que às vezes a doutrina jurídica precisa preencher. Mas eles fazem essa definição, fazem a definição de mecanismos de segurança e trazem ideias de mecanismos de segurança.
(27:15) Dizem que os sistemas devem ter medidas razoáveis desde a concepção para mitigar riscos. Seria o “children care by design” ou algo parecido. Não somente o “security” ou “privacy by design”, mas o “care by design”, o cuidado por concepção.
(27:42) Propõe muitas medidas a serem tomadas, entre elas, um negócio que é bem importante, que é o da intimidação sistemática virtual (cyberbullying). Inclusive, tem uma lei, a 14.811 de 2024, que cria esse crime de cyberbullying.
(28:00) Então, entende-se também que faz parte da proteção da criança ter práticas que evitem isso na internet. E veja, tudo isso é muito difícil. Às vezes, tendemos a dizer: “Não, mas a rede social tem que fazer isso”. Mas, ao mesmo tempo, os técnicos precisam estar envolvidos para dizer ou avaliar os próprios algoritmos, quando possível, para saber o que é possível de fato ser feito.
(28:23) Porque reconheço que há um espaço em que o legislador quer que a empresa faça algo, mas pode ser que não seja possível a empresa fazer. E por que isso é importante? De repente, estou falando de uma big tech, que tem recursos para fazer isso. Mas a questão é que agora, dependendo do serviço que você presta, você, enquanto empresário, terá que começar a se preocupar com essa lei também.
(28:47) Não é só a big tech, rede social e grandes jogos. É qualquer produto ou serviço que seja destinado a crianças ou de acesso provável por elas. Então, pode ser muito mais do que a gente imagina. E aí depois chegamos nesse tal de controle de acesso por faixa etária, que é a grande polêmica lá do artigo 9º da lei. Define essa obrigação, mas não define o tamanho da plataforma.
(29:13) Isso pode ser bem delicado, no sentido de que pequenas plataformas ou pequenos serviços eventualmente não consigam realizar esse controle de acesso por faixa etária. Faz algumas definições do que é conteúdo impróprio e relaciona com classificação indicativa, Vinícius. E essa é uma coisa bem interessante.
(29:39) Já te passo a palavra, porque vivi isso contigo e com as crianças. Quando vou aí, a gente conversa, e você é bem cuidadoso com essa coisa do tipo: “tem esse jogo aqui, mas esse jogo ainda não é para eles, está guardadinho para eles jogarem quando crescerem”. E eu estava lendo esses dias algumas pessoas falando na internet: “Ah, que agora meu filho não vai poder jogar o GTA 6”. Cara, sei lá, cinco ou seis.
(30:02) O próximo agora é o seis. É, deve ser. Não estou acompanhando o GTA. Mas enfim, cara, é um jogo para pessoas com mais de 18 anos. Teu filho não pode jogar o GTA 6, ou cinco, seja qual for o número. E acho que esse ponto da classificação indicativa e o papel dos pais aí ficou meio perdido nisso tudo. Porque o pai ainda tem o papel de direcionar ou
(30:34) permitir que o filho… claro, com todas as atribulações que isso possa ter na internet, não conseguir controlar tudo que o filho vê, mas ainda assim os pais têm um papel aí nesse âmbito de classificação indicativa, por exemplo. É aí que está, Guilherme. Essa questão da classificação indicativa. Primeiro, temos que lembrar que, se o pai autorizar, a criança vai acessar, certo? Que nem no cinema: tem a classificação indicativa para um filme, mas se estiver acompanhado dos pais e os pais
(31:15) acharem por bem levar a criança no filme, vai levar. Esse é um aspecto importante. Porque, no final das contas, os pais vão fazer esse filtro em casa, onde as crianças passam a maior parte do tempo, em casa e na escola.
(31:40) Na escola, já tem um pouco mais de limite porque está proibido o celular lá, pelo menos nas escolas que seguem direitinho a lei, que conseguem implementar os mecanismos para que as crianças não tenham acesso ao celular. Depois, do ônibus para casa ou da rua para casa, e mesmo na casa do amigo, os controles são os que valem na casa.
(32:12) Por exemplo, meus filhos não usam celular, nem têm celular. Mas os coleguinhas do meu filho mais velho quase todos têm celular. Alguns pais têm algum controle, outros, eles fazem o que querem no celular. Então, existem algumas dificuldades de entendimento por parte dos pais e responsáveis com relação a essa curadoria, essa tutela com relação ao conteúdo acessado e entender o que é adequado ou não. E tem aquele problema que já comentamos várias vezes: o pai…
(32:50) quem é pai e mãe aí sabe como é. Às vezes, você está cansado, e quer sentar um pouco, e de repente a criança se acomoda num desenho, vendo alguma coisa na TV, num jogo. E tirá-la dali significa que tu vais ter que sentar com ela.
(33:13) Tu vais ter que tirá-la dali e dar atenção, porque ela vai querer atenção. Não adianta dizer “não assista TV, não use o celular” e não dar uma alternativa. E essas alternativas, normalmente, eles acabam procurando os pais. Pelo menos aqui em casa acontece bastante. Então, tem desde isso até a questão de deixar e nem controlar, nem acompanhar, não assistir junto, não ver o que a criança está assistindo, se é adequado para a idade dela. E mesmo algumas coisas que são classificadas como
(33:43) sendo adequadas, Guilherme, eu julgo extremamente inadequadas. Então, há algumas coisas que estão dentro da faixa etária dos meus filhos e, no entanto, eu vou lá e veto. “Olha, isso aqui está na faixa etária, mas não interessa, não vai ver isso aqui”. Já outras coisas que até têm um certo nível de violência, por exemplo, Star Wars… quem já assistiu a todos os filmes aí, tem cabeça sendo cortada, tem umas coisas meio… o Anakin sendo queimado num mar de lava.
(34:23) O Conde Dookan perdendo a cabeça. O cara cruza os dois sabres. Cortar braço até vai, mas cortar a cabeça é ruim, cara. Cortar braço é tranquilo.
(34:41) É com sabre de luz, já cauteriza. Não tem sangue. Exato. Agora, a cabeça rolando é dose. Embora seja uma coisa meio disfarçada, mas rola a cabeça. Mas, assim, eles assistem com a gente, assistiram Star Wars com a gente. Talvez alguém vá discordar de mim: “ah, não deveria ter deixado assistir”.
(34:57) Então, tem certas coisas… Eu, quando era criança, assisti a muita coisa violenta, porque meus pais não estavam filtrando o tempo todo. É, mas acho que eram outros tempos também. Mas eu vi muita coisa que não deveria ter visto.
(35:17) Mas quero dizer que tem esse aspecto do cuidado por parte da família, que é extremamente importante, por mais controles que tu tenhas à disposição para limitar acesso a conteúdo. Por outro lado, aquilo que eu já falei, das big techs terem que dar recursos para os pais. Mas esse outro aspecto que me chamou a atenção na lei, que olho talvez com um viés mais de pai, e também pelo lado da TI, é essa necessidade, Guilherme, das empresas controlarem o acesso ao seu serviço. E aí, ouvi
(36:04) o The Hard Fork, o podcast sobre tecnologia do New York Times, que já recomendei mais de uma vez aqui. Eles gravaram um episódio, acho que foi o 147, comentando sobre uma lei que entrou em vigor no Reino Unido. O título é: “The internet wants to know how old you really are”.
(36:29) “A internet quer saber qual é realmente a sua idade”. E o que eles estavam discutindo? Lá no Reino Unido, para entrar em site com conteúdo pornográfico, conteúdo adulto, tem que haver uma identificação por meio de documento oficial de que tu és maior de idade.
(36:59) E eles estavam comentando, teve um abaixo-assinado com mais de 400.000 assinaturas contra essa lei. E eles mesmos se posicionaram contra a lei pela forma como é necessário provar a idade por um documento oficial.
(37:23) Sem julgamento moral, pode ser que, entre vocês que nos ouvem, há aqueles que vão dizer: “Ah, quer acessar? Se tem vergonha, então não acessa. Não tem que esconder”.
(37:41) E vai ter outros que dizem: “Não, eu tenho meu direito à minha privacidade”. Aí começa a discussão: “mas e as crianças?”. Bom, nesse caldeirão todo, o que o pessoal se posicionou contra, lá no The Hard Fork e esses mais de 400.000 britânicos, foi o fato de ter que se identificar com um documento oficial.
(38:07) Mas não é o que foi colocado aqui, no nosso caso. E aí fica evidente o problema. O primeiro problema é no momento que tu começas a ter pessoas sendo identificadas por documentos oficiais e um registro de “tal pessoa usou tal aplicação”.
(38:29) E notem, não quer dizer que seja só para conteúdo adulto, é para qualquer conteúdo impróprio para crianças e adolescentes. Então, de repente, tu podes estar acessando algo que é impróprio para criança e não é um conteúdo que envolve sexo, mas pode ser um conteúdo ao qual tu não queiras estar vinculado por causa do país em que moras, por causa das ideias e crenças de quem está à tua volta. Tem várias questões aí que atingem a privacidade de cada um. E a gente sabe
(38:58) muito bem que essa história de “vou guardar, não vou mostrar para ninguém”, cara, vai vazar. Assim como vazam as senhas, vão vazar esses eventuais registros em que o pessoal vai dizer: “ó, o Vinícius esteve aqui acessando um Reddit sobre falando mal do Trump” ou coisa parecida. E daqui a pouco vai estar lá vinculado o meu nome àquele acesso. Isso no Reino Unido. Aqui no Brasil não se colocou essa situação
(39:38) de ter que identificar por meio de documento oficial, mas é necessário ter algum mecanismo para impedir que crianças e adolescentes acessem esses sites. Até depois a gente vai comentar aqui uma possível solução. Na verdade, mais para um exercício mental, para entendermos os problemas dessas soluções.
(40:02) E essa do Reino Unido tem um baita de um problema. É, eu acho que são aquelas escolhas que nós vamos fazer enquanto sociedade. A gente se acostumou que ambientes muito impróprios se criassem sem levar em consideração os interesses das crianças no mundo inteiro.
(40:27) Nossa vida atual, dos adultos, se acostumou com isso. Qual foi o caminho que o legislador brasileiro achou? Muito além da pornografia, aplicar esse controle de idade para conteúdos marcados com uma classificação indicativa imprópria para aquela faixa etária.
(40:50) Evidente que você tem, como comentou, uma preocupação de privacidade e proteção de dados, e eu diria que ela é bem legítima. Porque se você for falar em consumo de pornografia, as pessoas vão consumir conteúdos muito diversos, e, eventualmente, na maior parte das vezes, não vão querer ter um registro de que “fulano está vendo tal conteúdo”. E a pornografia, desde que realizada por adultos, com consentimento, não é uma atividade
(41:21) ilícita. Mas lembrem-se, nós, adultos, montamos um mundo que é muito favorável para nós, só que temos crianças no mundo que são pessoas também. Esse é o primeiro ponto. Esses mecanismos, e a lei fala sobre vários conceitos abertos, em algum momento serão regulamentados. Mas temos “mecanismos confiáveis de verificação de idade”, vedada a autodeclaração. O primeiro ponto é: começou a acontecer no Reino Unido, as pessoas começaram a migrar para VPN.
(41:58) E aí teremos, em alguns casos, várias aplicações que podem começar a bloquear o acesso àquele conteúdo por VPN, sob pena de eventualmente sofrer uma sanção do Estado se a VPN for um caminho para burlar a verificação de idade. O governo pode intervir.
(42:20) E aí, acho que essa é uma chave que, se for bem feita, pode resolver o problema. Já te passo a palavra. O artigo 11 fala que o governo pode servir como regulador и certificador. E os provedores de loja de aplicações, e essa é uma questão que achei bem interessante, devem implementar soluções que sejam auditáveis. E aí tu tens todo um problema, porque, e dando um spoiler do que você vai falar, a criptografia nos ajuda aqui, mas ao mesmo tempo posso ter um embate entre auditabilidade e preservação da privacidade em
(42:55) mecanismos de autenticação de idade. De qualquer forma, eles devem disponibilizar isso junto com mecanismos de supervisão parental voluntários e as lojas ainda devem disponibilizar APIs para lidar com o que eles chamam de “sinal de idade”, levando em consideração o princípio de proteção de dados da minimização.
(43:18) Eles falam isso várias vezes: “esse negócio da idade só pode ser usado para verificar a idade, não pode usar para mais nada”. A pergunta que se coloca, e a própria autoridade de nome gigante,
(43:38) a Autoridade Administrativa Autônoma de Proteção de Crianças e Adolescentes no Ambiente Digital, essa autoridade também vai poder avaliar a efetividade dessas ferramentas.
(44:01) E aí, claro, vão ter sempre aqueles: “ah, mas o Estado está se envolvendo demais”. Ora, quando falamos em crianças, o Estado vai ter que se envolver de alguma forma. A questão é até que ponto ou como. Essa é a pergunta. Tem alguma forma de resolver isso quase como um “zero knowledge proof”? Ou seja, mecanismos de identificação ou de sinal de idade que preservem a privacidade e a proteção de dados?
(44:32) Guilherme, isso é algo que… Primeiro, temos vários protocolos para esse tipo de problema já bem documentados em várias obras, não só artigos científicos, mas livros da área da Ciência da Computação, mais especificamente na área de Segurança.
(44:57) Mas vou fazer um exercício aqui, arriscando ser um pouco leviano, para pensarmos um pouco nas implicações desse tipo de solução. A do Reino Unido, obviamente, fica muito claro que há um problema no momento em que você tem que, de alguma maneira, apresentar um documento oficial ao acessar o site.
(45:16) Porque não se trata de entrar numa boate, numa festa. Tu chegas lá, mostras tua identidade, a pessoa olha, vê que tu tens a idade mínima e tu guardas a identidade no bolso. Ela esquece da tua identidade, tu entras e acabou.
(45:39) Costuma-se dizer que isso é autoverificável. Sim, mas imagina que tu tenhas que apresentar um documento. A pessoa na portaria vai ver o documento, não vai manter registro nenhum, tu vais entrar e acabou. Agora, num site que tu vais entrar, num serviço que vais utilizar, certamente essas empresas vão querer manter um registro para poder dizer: “Ó, eu verifiquei, tá? E não venham me acusar de que deixei um
(46:07) menor entrar”. Não, ele apresentou uma identidade para mim. E aí eu preciso, de alguma maneira, manter um registro disso. Então, no caso do Reino Unido, isso é muito ruim. Uma outra possibilidade seria… Primeiro, quem tem nossos dados? Quem sabe quem nós somos, quando nascemos?
(46:31) O governo sabe. E confiamos nossas informações ao governo, muito embora saibamos que tem muita informação vazada por aí. O governo consegue, por n situações, pelos próprios serviços públicos e pelo regramento que temos, é necessário que a gente dê prova de vida, compareça presencialmente em vários órgãos, em várias situações, desde o registro do nascimento
(47:08) até o óbito e tantas outras coisas. INSS também, com as provas de vida. Isso, exatamente. A questão do título eleitoral… a gente até falou isso do escambo do TSE com o Serasa, num episódio dos primeiros anos do Segurança Legal.
(47:30) Por que o Serasa se interessa tanto por uma possível integração em que possa perguntar ao TSE: “essa pessoa aqui está viva?”. Porque o TSE sabe isso. De dois em dois anos, a pessoa aparece lá, mantém o título ativo.
(47:54) Se ela está na faixa de idade em que o voto é obrigatório, se não votar, terá que justificar. Então, ela vai dar sempre um sinal de que está viva a cada dois anos. O governo tem esses dados. Então, uma possível solução para te mostrar… e me preocupa mais na questão de sites, Guilherme. Porque em loja de aplicativo, as oficiais, pelo menos, a App Store e a Play Store,
(48:26) para criar uma conta lá, tem que ter uma conta no Gmail, um cartão de crédito. Tem uma certa barreira de identificação.
(48:45) No mínimo, o pai ou a mãe tem que entregar o cartão de crédito para botar na loja. No mínimo isso. Então, me parece um ambiente um pouco mais controlado. Vamos ver como vai ficar se eventualmente a EA Games ganhar o processo contra a Google e outras coisas que estão rolando para ter outras lojas de aplicativo dentro das plataformas da Apple e do Google. Mas isso é outra história.
(49:12) Me parece um ambiente mais controlável do que um site na internet. E para um site na internet em que tu não tens um cadastro prévio, que tu queiras acessar de maneira anônima, talvez a solução seja tu poderes emitir, assim como fazemos uma assinatura com o GOV.BR, um documento ao portador. Que significa isso? Que não tem nenhuma identificação minha, mas que eu consiga chegar no GOV.BR e dizer: “Eu quero um documento ao portador que diga que o
(49:51) portador deste documento tem mais de 18 anos”. Não diria nem a idade, só diria que é um adulto. E aí eu posso apresentar esse documento no site no momento de entrar. Claro, gente, estou falando de algo assinado digitalmente. Agora vou entrar.
(50:13) Estou colocando isso de uma maneira muito simples, para que a ideia fique clara. É claro que o site onde eu vou entregar esse documento tem que ter alguma maneira de verificar, de atestar que esse documento é verdadeiro, é válido.
(50:31) E foi emitido por alguém em quem ele confia, no caso, o governo brasileiro. E seria trivial para o site verificar a assinatura do documento que está recebendo, e essa assinatura teria que valer aí uns 5 minutos. Esse documento teria um prazo de validade para usar. Fiz login com o documento, apresentei-o.
(50:49) Esse documento não tem identificação nenhuma, nenhum vínculo com a minha conta. Eu o apresento para o site, o site registra lá, até pode guardar o documento: “tal usuário, acesso permitido com este documento aqui”. Eu não sei quem é a pessoa, não tenho dado nenhum que a identifique, mas sei que é um documento válido emitido pelo governo brasileiro.
(51:13) E o governo brasileiro não armazenaria o documento assinado, assim como ele faz com os assinadores do… Isso aí. Exatamente. Lá no lado do governo, ele recebe a minha solicitação. Claro que vou ter que me identificar, porque ele vai ter que saber quem sou eu.
(51:32) No momento em que ele emitir esse documento, ele não pode inserir no documento nenhum tipo de número, nada que esteja atrelado à minha conta. Qual é o problema disso? Se ele fizer isso e eu entregar esse documento a um terceiro, e esse terceiro armazenar e depois vazar, ou o governo perder os registros, o terceiro entrega o documento, ele não tem como saber quem é, mas o governo tem como desanonimizar. Ou seja, ele tem como pegar um identificador que eventualmente tenha colocado no documento gerado e que ele guarde, vinculado à minha conta no gov.br, por exemplo,
(52:04) ele consegue saber, então, que “o Vinícius acessou esse site, acessou esse serviço”. Ele teria que resistir à tentação de assinar o documento para ti com a chave dele e esquecer, sem guardar qualquer referência de que assinou aquele documento. Repito, como acontece com o GOV.BR na assinatura de documentos.
(52:31) Quando você assina um documento no Gov.br, e isso é um problema, às vezes, quando invadem o Gov.br das pessoas e começam a assinar documentos loucamente, a pessoa não consegue saber o que foi assinado. O governo não teria como guardar todos os documentos assinados, o que seria um absurdo, não seria esse o objetivo. Mas nenhum registro eles voluntariamente disponibilizam.
(52:51) A questão é que a construção de “zero knowledge” disso deveria ser feita pela parte do governo, e o artigo 11 prevê essa possibilidade. É. Então, algo bem implementado nesse sentido, a meu ver, funcionaria muito bem. Mas claro, temos vários cuidados aí, desde o governo não poder desfazer essa anonimização sozinho, nem em conjunto com o site que está recebendo o documento.
(53:24) Então, teria que ser uma coisa quase transparente. E não se pode usar o site que estamos acessando como intermediário. Nota que não é trivial fazer isso, por causa da maneira como o funcionamento da internet está estabelecido. Teremos que fazer algumas mudanças no navegador, com plugin ou com um protocolo que venha nativo no navegador.
(53:50) Isso não é de uma hora para outra. Ninguém vai estar implementando isso no navegador porque o Brasil determinou, e todo mundo no mundo vai utilizar. Então, tem uma série de empecilhos, modificações de sistemas e tudo mais que vão impactar.
(54:09) Esse é um recurso que deve existir no seguinte sentido: eu abro meu navegador, vou acessar um site que exige verificação de identidade. Meu navegador inicia um processo de conversa com o GOV.BR, que emite esse documento eletrônico dizendo “o portador deste documento, válido por 5 minutos, é maior de idade”, e aí o navegador apresenta para o site que estou acessando esse documento e me permite entrar. Só que daí temos várias situações. Por exemplo, de novo, se
(54:49) os pais quiserem deixar os filhos acessarem, eles vão deixar os filhos gerarem essas identidades e vão acessar. E não duvide que alguém terá a ideia de criar um serviço para vender esses “passes”. É, mais uma vez, Vinícius, estamos tentando propor uma ideia que seja “privacy friendly”, porque você tem uma série de outras possibilidades, talvez até mais fáceis de implementar, que não são “privacy friendly”, como, por exemplo, autenticação biométrica
(55:31) de todo mundo. Aí seria o pior dos mundos possíveis, porque daí é dado sensível. Agora, eu não sei se nós vamos, num exercício de futurologia, conseguir chegar nesse nível de especialidade. Acho que isso não vai rolar, porque você vai ter que ter uma complexidade também dos próprios provedores se disponibilizarem a fazer isso. E, a depender do tamanho do serviço, pode ser que ele não tenha nem meios para implementar isso. Claro, se for uma API, algo do gênero, mas não é uma certa pretensão querer que
(56:06) todos adotassem uma ferramenta dessa. Com o modo como os Estados Unidos hoje estão lidando com esse tipo de controle, não acho que isso aconteceria, pelo menos não a curto ou médio prazo. É, aí entra essa questão. Mesmo nos Estados Unidos, alguns estados já começam a se preocupar com isso.
(56:30) Só que, dada a situação que temos lá, dessa proximidade das big techs com o governo Trump e essa tendência do Trump de meio que ignorar certas regras… embora aí tenha umas agendas que entram em conflito. Porque os apoiadores do Trump acabam tendo um certo interesse por essa pauta, por causa da proteção das crianças, e aí acaba existindo um conflito ali, muito embora as big techs tenham um apoio, uma proximidade muito grande para impactar nessas
(57:08) regras, nessas regulamentações. Vamos falar um pouquinho, bem rapidamente, sobre as outras questões, as questões maiores aqui. Inclusive, novas obrigações sobre a disponibilização de mecanismos de supervisão parental. Vai ter que se disponibilizar ferramentas para essa supervisão, mais ou menos aquilo que você tinha falado antes, Vinícius, lá da Steam. Coisas do tipo avisar que tem supervisão parental na conta, monitoramento e limitação do tempo de uso, por exemplo. Isso é bem interessante, me agrada essa ideia.
(57:45) Também, as configurações padrão das ferramentas devem limitar os recursos que aumentariam esse uso artificial, como reprodução automática de conteúdo, feed infinito e recompensas pelo tempo de uso. Isso fala especificamente lá. Estabelecer… que é um grande problema.
(58:10) Inclusive, prevê-se a possibilidade de revisão das ferramentas, sobretudo de algoritmos de recomendação, com especialistas e órgãos competentes, o que também gostei bastante. Ou seja, vamos botar um grupo de especialistas e começar a discutir formas de melhorar esses algoritmos.
(58:30) Claro, mais uma vez, como esses algoritmos são “black box”, precisaríamos ter aí uma boa vontade das plataformas, o que, no mundo ideal, não sei se aconteceria. Identificar perfis de adultos com quem a criança pode eventualmente estar se comunicando ou bloqueá-los. E também alguns controles sobre jogos eletrônicos.
(58:50) Isso é outro assunto, que acaba entrando aqui também, mas acho que daria só um episódio para falar sobre controles em jogos eletrônicos. Depois, tem o problema da publicidade digital. E achei bem interessante essa parte. Publicidade para crianças e adolescentes é uma grande questão no estudo do Direito.
(59:09) Já estudei, já escrevi sobre isso, inclusive um artigo sobre publicidade no YouTube. E eles estão indicando que será proibido o “profiling” de crianças, bem como análise emocional, uso de realidade aumentada e estendida para publicidade. E é aqui que entra a regulação do fato que deu origem a toda esta rediscussão da lei. Porque foi o vídeo lá do Felca que trouxe os vídeos daquele outro cara, o Ítalo Santos, que hoje está preso junto com o marido dele, que de alguma forma monetizava conteúdos sensuais de crianças. E é aqui que
(59:48) entra a regra que lidaria com o problema que deu origem a toda esta rediscussão. Diz o artigo 23 que “a monetização e o impulsionamento de conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva ou em contexto próprio do universo sexual adulto”.
(1:00:06) Veja que interessante, é a regra para lidar com aquele problema. Bem específico, inclusive. Mas não envolveu outros tipos de eventual violência psicológica, como vimos acontecer com o caso da Bel, que, inclusive, recentemente, teve seu canal apagado pelo YouTube. Chorou na internet, mas o canal foi apagado.
(1:00:27) O canal foi apagado e ela disse que perdeu todos os vídeos. A gente já falou sobre esse caso, ficou bem conhecido e também foi mencionado no vídeo do Felca. Isso é uma coisa cruel, e a responsabilidade é dos pais dela. Porque, como comentávamos um pouco antes, Guilherme, querendo ou não, é a realidade dela. Foi a vida dela durante uma parte importante. E isso afeta a pessoa psicologicamente e emocionalmente.
(1:00:55) Não estou dizendo que não deveria ter sido apagado ou que os dados não deveriam ter sido entregues a ela e a conta apagada. Não sei exatamente em que termos isso foi feito. Mas me parece que, no caso, ela é a vítima. Me parece não, ela é a vítima. Porque quem monetizou em cima da pessoa dela, em cima da infância dela, foram os pais.
(1:01:26) E, claro, depois a criança não vai… óbvio, ela gosta dos pais, são os pais dela. Ela não vai ficar dizendo: “Olha o que fizeram comigo, que coisa horrorosa”. É a vida que ela conhece, foi a bolha na qual ela foi educada.
(1:01:43) E ela entende que isso estava correto, que estava OK, que os pais dela só queriam o melhor para ela. E, no entanto, ela não enxerga o problema. E é justamente por isso que precisa de alguém de fora. Se os pais não conseguem ter equilíbrio ou entendimento suficiente para saber que o que estão fazendo com os próprios filhos é inadequado, aí a lei entra и protege a criança e o adolescente, como em outras situações, Guilherme. É. E a Bel teve
(1:02:17) cenas que, por favor, né, cara. Depois, a mãe e o pai se colocaram como vítimas. Vítima é ela. A mãe e o pai são adultos, deveriam saber o que estavam fazendo. E é um grande problema para ela também, porque, mesmo que não seja a melhor forma de construção de uma identidade, aquele canal também compunha a identidade dela, mal ou bem. Exatamente. E, veja, eu não concordo com a
(1:02:53) natureza do conteúdo, mas, ao mesmo tempo, também não sei se apagar tudo o que tinha lá não pode ser problemático. Enfim, a ideia do melhor interesse da criança. E monetizar esse tipo de conteúdo também é uma violência não somente para ela, mas para a imagem de todas as crianças.
(1:03:22) Por isso que temos, inclusive, crimes de simulação de pornografia infantil. Ou seja, produzir imagens simuladas também é crime. Por quê? Porque não é só uma questão daquela criança violentada eventualmente, é uma questão de você afetar a imagem de todas as crianças. Depois, temos algumas questões de rede social.
(1:03:41) Uma sugestão que eu daria, Guilherme, é o juiz aplicar uma multa para os pais da Bel equivalente ao que eles recolheram. Cara, eu fico imaginando fazer com meus filhos o que os pais, o que a mãe dela fez com ela. Eu me sinto mal só de pensar. Cobrar uma multa, botar a grana num lugar que vai estar disponível para ela. Não sei que idade ela tem agora, se já tem 18 anos ou não. Não, acho que não.
(1:04:05) E deixar disponível para ela, não deixar eles usarem a grana, pelo menos até ela ser maior de idade. É, mas nota que o peso todo vai cair em cima das redes. Você tem o elemento do pai, porque o pai não é dono da imagem do filho.
(1:04:23) Esse é um negócio bem importante também. O poder familiar dele deve ser exercido em benefício do filho. Então, para além dos reflexos no Direito de Família e eventuais limitações desse poder familiar, a rede vai ser responsabilizada. Esse é o ponto. Por exemplo, para redes sociais, abaixo de 16 anos, a conta deve ser vinculada a um responsável. Também me parece interessante. Eles vão ter que monitorar e confirmar a identidade se a conta demonstrar indícios de que pertence a uma criança. Ou seja, para além daquela identificação de idade, ainda vão ter que monitorar
(1:04:52) para saber se encontram algum comportamento para identificar se é uma criança ou não. Veja, sem poder fazer “profiling”, o que deixa a coisa bem mais difícil. Depois, toda uma série de medidas de prevenção e combate a violências ou violações no ambiente digital. E as redes devem disponibilizar mecanismos de notificação, ou seja, ter lá um formulário para você indicar a notificação. Só que tem um baita de um problema aqui também, Vinícius: a rede vai ser obrigada a
(1:05:27) retirar o conteúdo assim que for comunicada. Por quem? Pela vítima ou seus representantes, pelo Ministério Público ou por entidades representativas dos direitos das crianças. Tem algumas bem famosas no Brasil que entraram, inclusive, em uma série de leis.
(1:05:50) Então, sem ordem judicial. Só que o autor da denúncia deve ser identificado, vedada a denúncia anônima. Ou seja, o notificante tem que se identificar para denunciar. Me parece que essa é uma medida… talvez, se o cara não tiver os recursos que o Felca tem para poder ter advogado trabalhando, carro blindado e não sei o que mais, aí não notifica.
(1:06:24) Aí fica quieto, não notifica. Porque, para retirar do ar sem ordem judicial, o autor da notificação deve ser identificado. E, pior não, mas mais ainda, os responsáveis pela plataforma devem ter mecanismos de contestação da decisão. Isso é bom. Ou seja, se há algum bloqueio ou retirada do ar, a rede social tem que explicar para a pessoa por que foi retirado e permitir algum tipo de defesa. Mas eles preveem também a possibilidade de punição para uso abusivo dos instrumentos de denúncia.
(1:07:00) E aí eu achei isso meio delicado. Vou fazer uma denúncia, mas, ao mesmo tempo, tenho que me identificar e posso ser sancionado por um uso abusivo. Claro, qualquer exercício abusivo de qualquer direito pode constituir um ato ilícito, pelo artigo 187 do Código Civil.
(1:07:23) Mas eu notei que isso aqui tem uma cara de que pode dar problema. Pessoas eventualmente serem perseguidas porque fizeram uma notificação. Enfim, talvez até para um “chilling effect”, para você não notificar sem se identificar. Tipo: “como você descobriu isso aqui?”. Por que você viu isso? Sei lá.
(1:07:46) Me preocupou um pouco essa regra aqui. Depois, eles vão ter que ter uma série de regras de transparência, prestar contas, quantos perfis foram bloqueados, quantas denúncias receberam, o papel de governança dessa autoridade administrativa e algumas sanções que podem chegar até multas de R$50 milhões por infração.
(1:08:10) A gente vê a multa de R$50 milhões e se anima: “Bom, agora o Brasil vai…”. Só que temos que ver que nosso histórico recente em relação à LGPD… essas multas não foram aplicadas. O cenário atual de desrespeito à proteção de dados no Brasil… essas multas não estão sendo aplicadas. O cenário atual está mais no sentido de uma lei que “não pegou” do que algo que leve o mercado a querer respeitar a lei por risco de ser autuado.
(1:08:43) Eu diria que é uma lei que pegou parcialmente. Parcialmente, você tem uma série de coisas sendo feitas, mas também uma série de elementos… parece uma aplicação tanto quanto superficial. Você olha os debates na União Europeia e olha os debates aqui, não tem comparação. Por exemplo, essa coisa de reconhecimento, biometria facial espalhada por condomínios pelo Brasil inteiro, que já falamos aqui. Mas estou desviando do assunto. Enfim. E, no final das contas, Vinícius, outras
(1:09:17) disposições. Achei bem interessante: embalagens de equipamentos eletrônicos deverão conter adesivo com informações sobre a proteção de crianças. Isso envolve o papel da rotulagem em produtos. Inclusive, tem algumas coisas escritas sobre rotulagem no Direito do Consumidor.
(1:09:38) É um tema que gosto bastante. A rotulagem serve também como publicidade. Ou seja, o que está no rótulo pode ser visto como publicidade, serve como informação fornecida pelo fornecedor. E agora uma nova rotulagem, talvez de uso para criança, classificação etária, cuidados e tal, vai ser uma coisa bem legal, me parece.
(1:10:05) E para terminar, uma “vacatio legis”, que chamamos no Direito, ou seja, depois da sua aprovação, ela entra em vigor depois de um ano para que todo mundo tenha tempo para se adequar a todas essas regras, que são muitas, e muitas delas ainda terão que passar por regulamentos para explicar como serão cumpridas. Perfeito, Guilherme.
(1:10:24) Vou terminar o episódio 400 sem voz. Olha só, talvez seja um bom sinal. Você falou tanto nos 400 episódios que ficou sem voz. Não, eu tenho que dar uma aula hoje, cara. Quero só ver como vou fazer isso. Vou ter que… / Coma uma maçã. / Já fiz isso. / Chazinho com mel. / É. Tem que ser. E usa um microfone, se tiver à disposição, ajuda.
(1:10:48) É, numa dessas, usar um microfone resolve. Vamos terminando. Bora. Eu terminei. Então vamos lá. Agradecemos então, Vinícius, a todos aqueles e aquelas que nos acompanham por 400 episódios. Mais uma vez, este podcast é feito para o ouvinte. Claro, fazemos porque gostamos, mas o objetivo sempre é agradar o nosso ouvinte.
(1:11:17) Então, esperamos que tenhamos conseguido aí, nesses últimos 13 anos, Vinícius. A gente insiste em gravar o Segurança Legal. Então, terminamos este episódio aqui com muita felicidade, mandando um abraço para todos e todas que nos acompanham nesses 13 anos de Segurança Legal. Tá bom? Então, até a próxima. Até a próxima.