Segurança Legal

Episódio #350 – Criptografia e proteção de crianças e adolescentes online


Listen Later

Ajude o Segurança Legal a continuar existindo. Visite nossa campanha de financiamento coletivo e nos apoie!

Neste episódio falamos sobre a complexa relação entre criptografia e a proteção de crianças e adolescentes online. Você irá descobrir por que enfraquecer a criptografia não é a solução para o abuso.​ Com os hosts Guilherme Goulart e Vinicius Serafim, as especialistas Raquel Saraiva e Marina Meira mergulham no debate sobre criptografia e a proteção de crianças e adolescentes. A conversa aborda a falsa oposição entre privacidade e segurança online, criticando o techno-solutionism e propostas de regulação de plataformas. São discutidos temas como abuso sexual infantil, a importância da autonomia progressiva, o princípio do melhor interesse da criança e os direitos digitais frente à vigilância e à exploração de dados. A discussão destaca que o problema é social, não tecnológico, e enfraquecer a criptografia afeta a todos, sendo a educação digital um caminho fundamental. Para continuar a aprender, não se esqueça de assinar, seguir e avaliar nosso podcast.​


ShowNotes

  • Relatório – Privacy and Protection: A children’s rights approach to encryption
  • Contribuição à tomada de subsídios sobre tratamento de dados de crianças e adolescentes da Autoridade Nacional de Proteção de Dados – DataPrivacy 
  • Comentário geral sobre os direitos das crianças em relação ao ambiente digital n° 25 – Versão comentada – Instituto Alana
  • Comentário geral n. 14 (2013) do Comité dos Direitos da Criança sobre o direito da criança a que o seu interesse superior seja tido primacialmente em consideração
  • Livro – A fábrica de cretinos digitais: Os perigos das telas para nossas crianças
  • Evento – 4° Seminário de criptografia política e de direitos fundamentais – Dia 19/10 – Formulário da Inscrição
  •  Transcrição do Episódio

    (00:00) [Música] Sejam todos muito bem-vindos e bem-vindas. Estamos de volta com o Segurança Legal, o seu podcast de segurança da informação e direito da tecnologia. Eu sou o Guilherme Goulart e, aqui comigo, está o meu amigo Vinícius Serafim. E aí, Vinícius, tudo bem? Olá, Guilherme, tudo bem? Já estamos aqui com as nossas convidadas para o episódio de hoje. Ótimo. Sempre lembrando que, para nós, é fundamental a participação de todos e todas por meio de perguntas, críticas e sugestões de tema. Para isso, estamos à disposição pelo Twitter no @ssegurancalegal,

    (00:44) pelo e-mail [email protected], no YouTube youtube.com/segurancalegal e também no Mastodon, essa rede social tão pouco utilizada, mas nós estamos lá no @[email protected]. Já pensou em apoiar o projeto Segurança Legal? Temos a nossa campanha de financiamento coletivo lá no PicPay, picpay.

    (01:10) me/segurancalegal e também no Apoia-se, apoia.se/segurancalegal. Hoje, como quem está no YouTube já está vendo, estamos aqui com duas craques, duas feras que vão conversar conosco sobre este tema tão importante e relevante que é a relação entre a proteção de crianças e adolescentes e suas inter-relações com a criptografia. Estamos aqui com a Raquel Saraiva. E aí, Raquel, tudo bem? Oi, gente, tudo bom? Obrigada pelo convite. Nós que agradecemos. E também a Marina Meira, estreando aqui no podcast Segurança Legal. E aí, Marina, tudo bom? Oi, Guilherme,

    (01:49) oi, Vinícius, oi, Raquel. Obrigada e prazer estar aqui. O prazer é nosso. A Raquel é presidenta e fundadora do Iperic, é graduada em Direito pela Universidade Católica de Pernambuco, mestra em Ciência da Computação pela Universidade Federal de Pernambuco. No Iperic, atua principalmente nas áreas de privacidade e vigilância, com foco no Observatório da Criptografia, Inteligência Artificial e regulação das plataformas digitais, e também se interessa por discussões sobre gênero e tecnologia. Já a Marina é mestranda em

    (02:22) Divulgação Científica e Cultural pela Unicamp, advogada graduada pela Faculdade de Direito da USP, pesquisadora do Data Privacy Brasil e consultora da Direitos Digitales. Coordenadora também do grupo de trabalho em infância e dados da Comissão de Defesa do Direito da Criança e do Adolescente da OAB de São Paulo. Como ponto de partida, podemos estabelecer, vamos começar pela Raquel: qual é a relação inicial, Raquel, que a gente pode fazer neste tema? Qual é a relação que a gente faz entre criptografia e proteção das crianças e dos

    (03:02) adolescentes? Eu acho que primeiro falamos sobre a criptografia enquanto essa ferramenta de proteção de direitos, de efetivação de direitos também. Vimos falando muito sobre isso, sobre como a criptografia é fundamental para exercitar tanto a privacidade quanto a proteção de dados, liberdade de expressão, direito de associação e de reunião. E, quando puxamos isso para a proteção de adolescentes, precisamos falar que a criptografia também serve, dessa mesma forma, para proteger a

    (03:39) criança e o adolescente. Porque existe uma crença de que as crianças e adolescentes precisam estar o tempo inteiro sendo supervisionados quando usam tecnologia, principalmente quando acessam a internet, mas é preciso ter em conta também essa perspectiva de que eles também têm esses direitos. Eles também têm direito à privacidade, direito à proteção de seus dados, direito à liberdade de expressão. Acho que essa relação passa muito por isso também: é uma ferramenta de defesa de crianças e adolescentes.

    (04:20) Marina? Bom, então, aproveitando a linha do que a Raquel falou, desse panorama, vamos entrar em detalhes, mas a criptografia e a proteção das crianças e adolescentes na internet, o que tem acontecido é que existe uma narrativa que opõe as duas, como se fossem dois polos diferentes e impossíveis de serem mantidos, de serem dialogados. É um debate ainda bastante incipiente no Brasil, estamos começando essa discussão e, como toda discussão que está começando, é difícil dar opiniões

    (04:58) extremamente assertivas que caminhem para um desses polos. Mas é muito bom esse tipo de iniciativa para podermos começar a dialogar aqui, entender que, ao mesmo tempo que é importante manter crianças e adolescentes seguros na internet, é importante pensar a criptografia como instrumento de proteção geral, inclusive a essas pessoas que são sujeitos de direito, como a Raquel já adiantou. Claro, na verdade, vemos, algumas vezes, uma tentativa quase de oposição. Todo o problema que temos discutido e

    (05:38) visto aqui no Brasil sobre a tentativa de regulamentar e, às vezes, até enfraquecer a criptografia por diversos motivos e com diversos fundamentos diferentes, acho que um dos fundamentos que é frequentemente invocado seria justamente essa ideia de proteção da criança, porque ninguém é contra a proteção das crianças e dos adolescentes na internet. Então, quando você coloca essas coisas como se houvesse uma oposição entre elas, fica difícil

    (06:11) debater. Raquel, como a gente lida com isso? Será que não deveríamos – uma pergunta aqui retórica, talvez –, mas será que não deveríamos, de fato, estabelecer algumas exceções e restringir o eventual uso da criptografia para proteger as crianças, sobretudo quando falamos de circulação de materiais de abuso sexual e pornografia infantil? Como vocês veem isso? Como a Marina estava falando, acho que essa narrativa de proteção de crianças e adolescentes na internet

    (06:49) tem sido usada principalmente no exterior em alguns processos de tentativa de regulação dessas tecnologias. Podemos citar, por exemplo, o Online Safety Bill do Reino Unido, que foi recentemente aprovado. Mas é exatamente uma narrativa bem apelativa, na minha opinião, justamente pelo que você falou, de que não temos como nos opor à proteção de crianças e adolescentes. Então, percebemos, no campo político, uma apropriação dessa narrativa para justificar algumas tentativas, inclusive, de intrusão em

    (07:32) comunicações. Isso serve para diversos processos regulatórios e iniciativas de processos regulatórios. Aconteceu aqui no Brasil também, mais ou menos em abril deste ano, quando houve os ataques às escolas, em que houve um fortalecimento dessa narrativa para dizer que as plataformas digitais precisam ser reguladas de forma enérgica. Precisamos que elas deem satisfação do trabalho e que o modelo de negócios delas seja limitado também, mas com uma

    (08:21) perspectiva muito vigilantista de intrusão em comunicações. Precisamos ter acesso ao conteúdo das comunicações que são criptografadas, por exemplo, que é o que acontece no Online Safety Bill. Então, temos o entendimento de que, primeiro, essas narrativas são um pouco jogadas para a opinião pública para que a opinião pública se coloque a favor desse tipo de regulação, pelo que você estava falando. Como é que a gente se opõe à proteção de criança e adolescente? Ninguém vai se opor a isso. Ninguém vai se opor à

    (08:56) persecução de pessoas que distribuem material de assédio sexual infantil. Então, é difícil se opor a isso. Isso é jogado para o público para conseguir também um apoio popular a esse tipo de iniciativa. Mas o entendimento que temos é que, mesmo nesses casos, qualquer alteração ou ameaça à criptografia, ou qualquer coisa que precise ser ajustada nesses processos, precisa ser de forma pontual e específica para cada caso.

    (09:42) Não podemos ter uma violação geral porque, enfim, é aquilo que já vimos conversando há muito tempo: qualquer interferência na criptografia de forma generalizada vai enfraquecer as comunicações de todo mundo. Não existe uma forma de quebrar a criptografia só para isso. Então, qualquer tipo de interferência nesse sentido precisa ser colocado no contexto específico do caso que está sendo tratado e precisa também acontecer de forma pontual, não

    (10:24) generalizada. Bom, acho que antes de trabalhar no campo dos direitos digitais, eu trabalhava no campo do direito da infância. E o campo da infância é bem nessa linha do que vocês estão falando, é um campo que move paixões, para os dois lados, normalmente nas duas narrativas, mas com esse ponto em comum de que ninguém vai dizer que é contra a proteção da criança e do adolescente na internet. Mas, normalmente, as narrativas vêm de um lugar de paternalismo, então dificilmente se para para pensar nas crianças e adolescentes como sujeitos em desenvolvimento, com uma

    (11:02) autonomia progressiva, que precisam ir exercitando seus direitos à privacidade, à proteção de dados pessoais, justamente nessa ideia de irem desenvolvendo as suas habilidades, inclusive no ambiente digital hoje em dia. Dificilmente se para para ouvir, por exemplo, crianças e adolescentes em relação ao que eles pensam sobre a própria privacidade na internet. E, normalmente também, quando se fala em proteção da criança e do adolescente, nessa ideia de paternalismo, se pensa num bloco meio

    (11:38) monolítico do que é criança e adolescente. Dificilmente se entendem todas as nuances. Falamos que existem múltiplas infâncias no mundo. Existe hoje, e acho que depois poderemos falar mais sobre isso, um quadro em todo o mundo, e no Brasil isso é muito forte, de violação sistemática aos direitos de crianças e adolescentes. Então, um pouco nessa ideia de visão paternalista, também relacionado a outros problemas de desigualdades estruturais no Brasil, também relacionados a

    (12:12) próprios problemas sociais enraizados, como machismo e racismo na sociedade, mas não se para para pensar, muitas vezes, que temos crianças e adolescentes que podem estar num ambiente familiar – e isso, infelizmente, é bastante comum – tóxico e violador de direitos. Então, muitas vezes, ter uma comunicação privada com outras pessoas fora do ambiente dela, poder exercitar essa privacidade mesmo na comunicação, é algo essencial para garantir a própria segurança. De um lado, tem, sim, a importância de pensar que hoje circula cada vez mais

    (12:50) na internet material de abuso sexual contra crianças e adolescentes. Temos evitado utilizar o termo “pornografia infantil” porque pornografia implica um consentimento da pessoa que está lá como objeto, e a criança ou adolescente não tem esse poder de consentimento nesse caso. Então, falamos em material de abuso sexual infantil, ainda que o termo seja um pouco mais longo, dá uma enrolada, mas também nos próprios contatos maliciosos, grooming, aliciamento. Existe, sim, esse problema. Esse

    (13:22) problema precisa ser endereçado, é um problema muito amplo, acho que vamos falar mais sobre isso, mas também existe esse outro lado: as próprias crianças e adolescentes, na sua diversidade, na sua multiplicidade de realidades, precisando desse exercício do direito à privacidade, à proteção de dados e a todos os outros que estão conectados à criptografia, que a criptografia protege mais direta ou indiretamente, como a própria liberdade de expressão, liberdade de associação, por conta de toda

    (13:55) essa diversidade, multiplicidade de vivências e de autonomia progressiva. E também, quando você fala, Marina, sobre essa visão monolítica da infância и da adolescência, uma coisa que ficou bem evidente durante a pandemia foi que nós, em nossos grupos, somos muito privilegiados. Estamos aqui, temos computadores, internet banda larga, nossos livros, conseguimos ter acesso a uma série de coisas. Mas acho que ficou evidente como a própria questão da pobreza… Você tem escolas que não têm nem

    (14:38) banheiro direito em alguns locais do país. Como você vê essa parte da educação digital, Marina? Acho que tem muito a evoluir ainda, talvez já estejamos melhores do que já estivemos, mas como conseguimos fazer esse debate ponderando essa discrepância, por exemplo, de renda e o problema da pobreza? Vocês já chegaram a enfrentar essa questão, Marina? É uma questão bastante complexa. Inclusive, até ontem eu estava fazendo uma pesquisa de campo no Rio Grande do Sul, em Santa Maria, como estava comentando aqui no começo, pelo Data

    (15:21) Privacy Brasil. Uma pesquisa com crianças e adolescentes da rede pública de ensino municipal da cidade, pensando o que elas pensam, conversando com elas, dialogando, perguntando o que pensam sobre o uso de tecnologias na educação. Crianças e adolescentes… Usamos essa divisão, só fazendo um parêntese aqui também: crianças de zero aos 12 incompletos; adolescentes dos 12 aos 18 incompletos. Mas discutindo, ouvindo o que elas pensam sobre o uso de tecnologias na educação, sobre segurança na internet

    (15:59) de um modo geral, e essa discrepância das vivências é muito grande. Mesmo dentro de um mesmo contexto de um município, tínhamos escolas de áreas rurais, estudantes que não tinham acesso à internet em casa, só tinham acesso nas escolas. Tivemos a oportunidade lá também de dialogar com professores de informática da rede pública e eles relataram muito essa vontade de poder abraçar o que a BNCC, a Base Nacional Comum Curricular do Brasil, tem introduzido no sentido de falar da educação digital, da promoção de uma cultura digital.

    (16:36) É o que a BNCC fala. Temos uma lei de educação digital também, que fala em alfabetização digital, na importância de trazer o campo dos direitos digitais para as escolas. Então, é essencial, claro, para formar crianças e adolescentes que já são uma geração que, diferente de nós, nasce num mundo conectado. Mesmo que existam essas discrepâncias de acesso, elas já nascem no mundo conectado em maior ou menor medida. Pelo menos “datificadas” elas estão, muito mais do que nós, ainda que não sejam usuárias diretas do mundo digital.

    (17:14) E também tem essa noção, da qual sou particularmente contra, da geração dos “nativos digitais”. Acho muito ruim esse termo, porque passa a ideia de que crianças e adolescentes sabem necessariamente conviver na internet de forma saudável, o que não é verdade. Elas sabem, muitas vezes, usar, acessar, mas não necessariamente sabem acessar de forma saudável. A escola tem um papel essencial nisso, mas ainda é uma grande dificuldade discutir isso num cenário em que falta muito acesso à internet, a

    (17:50) dispositivos adequados, pensando em conectividade significativa, e num outro cenário em que vemos também, especialmente desde a pandemia, mas já num processo anterior, um “engolimento” do cenário da educação pública pelas big techs, especialmente. Hoje, é essencialmente Google e Microsoft que procuram secretarias estaduais e municipais de educação para oferecer gratuitamente os seus produtos. Enfim, muitas camadas aí. O que aconteceu lá em São Paulo, né? Desculpa, Vinícius, mas o que aconteceu lá em São Paulo recentemente, né, Marina, dos aplicativos que apareceram? A gente até

    (18:31) gravou sobre isso. E você vê isso que você colocou: “Olha, mas que bonzinhos eles são, estão querendo dar gratuitamente aqui os produtos”. Claro que nós sabemos que essa gratuidade é, pelo menos, aparente. Vinícius? Faltou no minicurrículo da Marina a parte de leitura de mente. É justamente o caminho que eu ia seguir. A gente fala muito, tem as crypto wars, que já comentamos, e tem vasto material sobre isso. O Schneier escreveu bastante

    (19:11) sobre isso. É aquela velha história de “vamos enfraquecer a criptografia para resolver algum tipo de problema”, o problema do crime de maneira geral, não só especificamente com relação ao abuso de crianças e adolescentes. E, no entanto, a gente deixa as coisas mais fundamentais para trás. Como, por exemplo, sabemos muito bem que a educação sexual nas escolas é algo que facilita para as crianças se darem conta de que estão sendo abusadas, ou elas correm o risco de levar um tempo sendo abusadas e nem se darem

    (19:47) conta do que está acontecendo dentro de casa. Aquela velha história de que a maior parte dos abusadores são pessoas próximas, são pessoas da família. De repente, vamos para uma ideia de enfraquecer a criptografia para resolver um problema que tem outros caminhos, que não são únicos também. Eles têm que ser adotados em conjunto сom várias outras medidas, e muitas vezes o pessoal fica: “Não, não vamos fazer isso, que vamos estimular as crianças a fazer sexo”, o que é um absurdo. Claro que depende muito do que você vai ensinar, mas há maneiras

    (20:20) já bem conhecidas e testadas para se fazer isso de forma adequada para as idades, de forma que eu educo os meus dois filhos dessa forma. Eles sabem o que pode e o que não pode, o que é comportamento estranho. Eu posso ir graduando à medida que eles vão ficando mais velhos, vou graduando as informações que eu dou para eles. E eu acho que isso resolve muito mais do que quebrarem a criptografia minha, dos meus filhos e de todo mundo para, eventualmente, protegê-los.

    (20:52) Temos esse aspecto. A questão da privacidade e da criptografia é algo bem mal compreendido pela população em geral, apesar dos esforços que empenhamos para divulgar essa cultura. Tivemos até a série no próprio Segurança Legal, foi pelo IBR, mas foi com o Paulo Rená, a “Alfabetacriptografia”. Está lá a série, justamente com a ideia de mais uma forma de tentar convencer ou instruir as pessoas a esse respeito. Mas o que acabamos ouvindo no final das contas

    (21:38) é: “Ah, todo mundo já põe tudo na internet mesmo, então já está tudo na internet, não tem problema nenhum”. Essa é uma das visões erradas. A outra, que nós dois ouvimos juntos, Guilherme, estávamos numa banca ou num evento, não lembro agora, e se discutia essa questão de criptografia. Uma pessoa bem formada, com bastante conhecimento, não da área de TI, disse: “Não, eu prefiro que olhem tudo e evitem. Prefiro eu não ter privacidade, porque eu não faço nada de errado”. A velha história: “Não faço nada de

    (22:18) errado, e o crime ser evitado, do que ficar tudo protegido e os criminosos ficarem livres”. E a última coisa que eu queria colocar para jogar para vocês é essa questão do uso das tecnologias. Foi o comentário, ainda dentro do que a Marina estava falando, de que querem violar a criptografia. Mas, além da educação sexual em casa, tem a questão também, ou em casa e na escola, da própria educação no uso da tecnologia. Comentamos, por experiência própria, o que vemos:

    (22:57) crianças com o aval dos pais, com o incentivo dos pais, até como forma de se livrar das crianças em certo momento para ter alguma paz, entregam o celular e deixam que a criança tire foto, se exponha e faça o que quiser na internet. E temos essa questão que já citamos mais de uma vez aqui no Segurança Legal, daquele livro “A fábrica de cretinos digitais”, que combate justamente o que a Marina colocou, essa ideia de nativo digital, como se o nativo, que nasceu usando tecnologia, soubesse e tivesse critério,

    (23:36) fosse capaz de fazer uma análise crítica do que está acessando. E nesse livro, eu esqueci o nome do autor, Michel Desmurget. É “A fábrica de cretinos digitais”, que justamente trata disso, desse uso da tecnologia. E enquanto as big techs, Google, Microsoft etc., ficam dando de graça, como vocês falaram, os próprios empresários e CEOs dessas big techs pagam fortunas – isso está em documentários, está no livro também é citado –

    (24:22) esses CEOs colocam os filhos, pagam caríssimo em escolas em que é proibido usar celular e tablet. Então, me parece que não é proibido, mas talvez seja extremamente controlado. Não seja “crianças podem levar os seus” ou coisa parecida. Mas me parece bastante claro, e aí eu quero que as nossas convidadas se manifestem, que, de novo, estamos criando um espantalho da criptografia para tratar de um problema cuja solução não é abrir a criptografia, não é enfraquecer a criptografia. Pelo contrário, acho

    (25:10) que até parte da solução é ter criptografia, como a Marina falou, para o pessoal poder ter uma forma de comunicação sigilosa para denúncia e coisas parecidas, por exemplo, para um atendimento. O que lhes parece? Bem fácil essa, hein, Raquel? É bem fácil responder isso que ele colocou nessa pergunta de 10 minutos. Para compensar o que eu não falei. Está suave, vai ser fácil, vai ser muito fácil responder isso. Acho que, primeiro, sobre esse entendimento da privacidade,

    (25:55) toda vez que alguém me diz: “Ah, não, quebra a criptografia, não tenho nada a esconder”, eu digo: “Tá bom, então me dá a senha do teu e-mail aí”. Passa agora a senha do teu e-mail, das tuas redes sociais, que eu vou dar uma olhadinha. Posso ficar com elas? Posso ficar com acesso? E ninguém nunca me deu acesso. Então, acho que tem alguma coisa… “Minha vida é um livro aberto”, mas não é um livro tão aberto assim, tem algumas páginas arrancadas. Tem alguma coisa que eu não quero que

    (26:26) ninguém veja. Então, acho que isso é uma falsa percepção de privacidade. Não existe, pelo menos até agora, não vi evidências, nem pela minha própria experiência, de pessoas que, de fato, estão dispostas a abrir mão completamente da sua privacidade na prática. Porque falar é muito fácil. Falar é muito fácil. E eu acho que existe essa compreensão da tecnologia como vilã, porque há um entendimento de que tudo ao redor da tecnologia é meio

    (27:09) ruim, existem ameaças. Uma coisa que sou contra também, e que nas atividades do Iperic estamos tentando afastar, é esse entendimento de que a internet traz muitos riscos para crianças e adolescentes. Porque toda vez que vamos fazer um trabalho, por exemplo, em uma escola, uma palestra para esse público, nos deparamos muito com pessoas que falam, aquele comportamento paternalista que a Marina falou, que as crianças têm que estar o tempo inteiro sendo

    (27:46) observadas para que não caiam em nenhum risco, para que não sofram nenhuma violência, para que não caiam em golpes, para que não façam nada de errado na internet, como se a internet fosse somente esse espaço que tem riscos. Mas as pessoas comumente esquecem que a internet também é um espaço de muitas oportunidades e que essas crianças e adolescentes, por mais que a gente rejeite esse termo dos “nativos digitais”, com o qual também tenho problema, mas essa geração que já nasce nesse mundo conectado,

    (28:24) nesse contexto que a Marina estava falando, elas já nascem nesse contexto. A vida delas toda vai passar pela internet, toda a experiência de vida delas, todo o desenvolvimento de personalidade vai passar, em certa medida, pela internet. E aí, precisamos construir esse campo de forma mais segura, para que essas crianças e adolescentes tenham esse espaço de poder se desenvolver livremente também pela internet. Porque muita coisa acontece offline, mas para eles, nós, enquanto geração já um pouquinho mais velha,

    (29:06) rejeitamos certas interações online. Tem certas coisas que escolhemos не fazer porque não nos sentimos muito à vontade para isso. Eles não têm isso. A percepção de privacidade deles é diferente, a percepção do compartilhamento e das coisas que eles querem compartilhar com os outros é diferente. Então, precisamos que esse espaço seja seguro para que eles possam se desenvolver. E essa segurança passa também pela adoção de criptografia nas comunicações.

    (29:45) Que esse espaço seja verdadeiramente seguro, porque a vida deles vai passar muito pelo desenvolvimento através da internet para tudo, inclusive a vida sexual. A troca de mensagens com pessoas vai passar por isso também. Então, precisamos que isso seja feito de forma segura, para que eles não tenham dados vazados, por exemplo, que isso se torne motivo para um constrangimento vida afora. Então, acho que é muito isso. Precisamos ter essa percepção de que as crianças de hoje estão muito mais na internet do que

    (30:30) nós estamos, e esse espaço precisa ser seguro para eles. Marina? Eu estou bem alinhada com a Raquel. E tem um ponto, ela falou bastante da privacidade, eu vou trazer um pouco esse lado da exploração sexual, especialmente, um pouco pelo que o Vinícius puxou na pergunta bem simples dele. Realmente, você enfraquecer de modo sistêmico, de modo abstrato, políticas de criptografia em prol, dizendo que ela é oposta à proteção de crianças e adolescentes na internet, especialmente nessa esfera do abuso sexual,

    (31:18) a comparação é matar uma mosca com um canhão e fazer um dano enorme. O problema da exploração sexual infantil é um problema muito real, que precisa ser endereçado, mas precisa ser compreendido também que ele não está sendo causado pela criptografia. Esse é o primeiro ponto. É claro, o debate precisa ser feito de forma complexa. Como eu falei, é um debate que está começando. Eu ainda sinto muita falta, não sei o que a Raquel acha também, mas especialmente aqui no Brasil, da gente ter esse debate de forma

    (31:54) interdisciplinar também. Conversar com o pessoal, especialmente da área técnica, pensar em soluções criativas e sensíveis. Até pedagogos, né, Marina? Com certeza, até pedagogos. Todas as discussões que envolvem infância precisam ser interdisciplinares, mas as que envolvem a infância ainda têm essa camada da pedagogia, da pediatria, da educação. Mas alguns dados aqui que eu peguei, muito rápidos: o Brasil é o quarto país no mundo, isso de

    (32:28) acordo com a Unicef, com maior número de casamentos infantis. O Brasil é o segundo país no mundo com maior número de gravidez na adolescência. Pelo IBGE, são 400.000 adolescentes grávidas no Brasil por ano, aproximadamente, adolescentes e crianças com menos de 18 anos. Esses outros são do Anuário Brasileiro da Segurança Pública: no Brasil, a cada hora, aproximadamente, quatro meninas de até 13 anos são estupradas. Esses são alguns dados que são muito sérios, que

    (33:07) mostram o enraizamento da exploração sexual na sociedade brasileira, em todas as suas complexidades. Uma discussão que o pessoal que trabalha a proteção da infância muito nessa perspectiva também traz é que o abuso sexual infantil não tem classe social, ainda que, claro, marcadores da diferença no geral, como gênero, raça, regionalidade, vão adicionar vulnerabilidades ao local. O Brasil também ainda é conhecido globalmente como polo de

    (33:49) exploração sexual, e não estou nem falando só na internet. Temos pouquíssimos dados ainda que mostram de forma clara o problema da exploração sexual infantil no Brasil. A exploração sexual como um todo é um assunto ainda muito velado. Vivemos num contexto de um país muito machista, com uma cultura do estupro, de culpabilização da vítima, em que existe uma dificuldade muito grande de vítimas

    (34:22) como um todo falarem sobre violências sexuais que sofreram. No caso de crianças e adolescentes, ainda adicionamos o fato de que, via de regra, a maior parte das violações sexuais vem de dentro do ambiente familiar. Tem até um dado aqui, 76%, isso também do Anuário Brasileiro da Segurança Pública, 76% dos casos registrados – e sabemos que existe essa subnotificação enorme – de abuso sexual contra crianças e adolescentes, os agressores estão dentro da família das vítimas. Isso contribui para que

    (34:58) o assunto se torne velado. A jornada contra a educação sexual nas escolas, colocada dessa forma simplória e simplista que o Vinícius falou, como se educação sexual fosse ensinar a fazer sexo, quando nunca foi isso. Isso tudo mostra que o problema é muito complexo. Além disso, existe um incentivo, existem alguns levantamentos também, o termo mais pesquisado no território brasileiro em sites de pornografia é “novinha”. E existe algo muito forte ainda no Brasil desse enraizamento da

    (35:38) exploração sexual contra crianças e adolescentes e, ao mesmo tempo, uma repressão muito grande a crianças e adolescentes no campo dos direitos sexuais e reprodutivos. Por exemplo, essa coisa da jornada contra a educação sexual. Por que estou trazendo esses dados, que são muito assustadores e mexem bastante com a gente? A criptografia ponta a ponta, especialmente a criptografia forte, é uma pontinha do iceberg e não é

    (36:15) o problema. Claro que, como a Raquel falou, é importante ter sensibilidade e entender se, talvez, em casos específicos e concretos, seja importante ter uma quebra, um acesso ao contato, entender se tem material de abuso sexual infantil sendo circulado, se tem contatos maliciosos acontecendo. Por favor, não é esse o ponto. A questão é que isso, por si só, não é suficiente. Tem muita coisa para trás que precisamos parar e endereçar como política pública, como política pública preventiva também.

    (36:53) Porque не adianta ir só para o lado da repressão. Tentamos ir para o lado da repressão só nesse campo e ele não funciona, ainda está muito longe de funcionar. Está muito além do debate que envolve tecnologia. Eu acho que é um pouco aquela ideia do solucionismo. As várias faces do solucionismo, que é, primeiro, que você consegue resolver todos os problemas com tecnologia, inclusive problemas que às vezes não têm a ver com tecnologia. É um pouco o que temos visto até nessa área de

    (37:28) direitos digitais e de vigilantismo, esse certo fetiche que o brasileiro tem – não só no Brasil, é necessário dizer –, mas aqui com essa coisa das câmeras de reconhecimento facial. “Vamos colocar reconhecimento facial em todas as cidades e para a entrada nos estádios”. E você tem aí possíveis violações que podem vir disso por atores que tradicionalmente já violam direitos fora da internet. Você vai entregar para a polícia isso, e sabemos que há vários problemas em relação às forças policiais que violam sistematicamente os direitos das pessoas

    (38:08) fora do digital. Então, essas questões acabam se conectando. Esses dados, realmente, Marina, não dá para explicar direito o que se sente ouvindo isso, porque você falou que 76% dos abusos ocorrem dentro de casa ou de pessoas próximas. Eu não sabia que era tão alto. E aí você tem discussões hoje, por exemplo, criando espantalhos com problemas inexistentes, como o problema do banheiro unissex. Poxa, mas a maioria dos abusos está dentro de casa, então parece que querem desviar o foco, às vezes. Mas eu queria perguntar para

    (38:55) vocês, e acho que começa a ficar bem evidente como o problema é complexo, como as causas são múltiplas e como, você disse, Marina, e a Raquel também comentou, a criptografia é um pedacinho do problema. Mas também parece que temos, no fundo, e talvez envolva os políticos e as próprias big techs, as empresas de maneira geral, certos interesses que às vezes são convergentes e às vezes são conflitantes. Parece que, no fundo, não dá para saber direito o que realmente esses atores querem. A impressão é que

    (39:37) está todo mundo escondendo alguma coisa. Como vocês veem esses interesses ocultos, se é que são ocultos ou не, das big techs e dos governos, especialmente em relação às empresas? Parece que, às vezes, por exemplo, abrir mão da privacidade ou criar essa cultura de que ninguém tem nada a esconder pode favorecer os interesses de muitas dessas empresas, porque se todo mundo pensar assim, eles terão mais acesso aos dados das pessoas e, consequentemente, lucrarão mais com isso. Os governos da mesma forma, poderiam criar

    (40:17) meios de acompanhamento social mais intensos dessa forma. Como vocês veem essas interações entre esses possíveis interesses? Eu acho que tem talvez duas questões diferentes aí, quando estamos, pelo menos, nessas discussões em torno do enfraquecimento da criptografia para “acesso excepcional”, digamos assim, que é o termo que se usa normalmente. Acesso excepcional às comunicações, que seria feito através de backdoors, através de client-side scanning, alguma técnica dessas.

    (41:07) Normalmente, as empresas que usam criptografia nos seus serviços são contra essas intrusões. Pelo menos é o que temos visto aqui no Brasil. O WhatsApp, por exemplo, se coloca fortemente nessa briga de não enfraquecimento da criptografia. E também, acho que nas discussões do Online Safety Bill no Reino Unido isso ficou bem evidente, até porque um dos pontos dessa lei do Reino Unido, que foi aprovada recentemente, é

    (41:56) justamente a obrigatoriedade dessas empresas que oferecem serviços criptografados, principalmente serviços de mensageria privada, de incluir um backdoor que seria acessado pelas autoridades do Reino Unido no caso de investigações criminais. E as empresas que operam no Reino Unido com serviços que usam criptografia de ponta a ponta chegaram a dizer que sairiam do Reino Unido se essa lei fosse aprovada. Agora queremos ver o que eles vão fazer com isso, porque houve um posicionamento muito veemente

    (42:40) dessas empresas, e não só o WhatsApp. O WhatsApp foi uma delas, mas Signal, Wire, Proton, todos esses serviços que operam na Europa, no Reino Unido especificamente, e que usam criptografia como padrão. Eles foram muito taxativos, inclusive divulgaram uma carta em conjunto, os CEOs dessas empresas, dizendo, se colocando contra essa intrusão nas comunicações, contra o

    (43:25) enfraquecimento da criptografia e dizendo que sairiam do Reino Unido, preferiam deixar de operar no Reino Unido, perder o mercado do Reino Unido, a enfraquecer a criptografia dos seus serviços. Agora precisamos saber o que eles vão fazer. E aqui no Brasil, a discussão é semelhante. Ainda estamos esperando o resultado das ações que estão tramitando no STF, a ADI e a ADPF que tratam desse tema, que foram protocoladas por ocasião daqueles bloqueios do WhatsApp lá em 2015, 2016, e ainda precisamos,

    (44:12) ainda estamos esperando esse resultado, porque as ações tratam disso também. A ADPF, que era da relatoria da Rosa Weber, foi incluída no julgamento no plenário virtual na semana passada, mas foi pedido um destaque pelo Ministro Alexandre de Moraes e o processo vai para ser julgado no plenário físico mesmo, por causa desse destaque. Aí, vamos precisar esperar ele ser pautado novamente, porque a Rosa Weber se aposentou na semana passada, então agora precisamos que o novo presidente, Ministro

    (44:49) Barroso, paute esses processos no plenário físico. Mas em relação a isso, esses processos trazem justamente o segundo ponto, que eu acho que é a narrativa dos governos, das autoridades, de quererem esse acesso excepcional, que eles assim chamam, às comunicações. Porque, segundo eles, a criptografia dificulta a persecução penal, as investigações criminais. Quando eles precisam, na narrativa deles, ter acesso ao conteúdo das comunicações para alguma investigação que está em curso. Mas isso também não é… essa

    (45:37) narrativa é só uma narrativa não acompanhada de dados, por exemplo, de evidências. Então, не temos evidências de que a criptografia, de fato, impede essas investigações ou já impediu, em termos quantitativos, digamos assim. Não existe esse dado, não existe número de quantas investigações foram impossibilitadas porque as pessoas estavam usando aplicativos criptografados para se comunicar e, por isso, a investigação foi impedida. Pelo contrário, acho que, na verdade,

    (46:18) a presença da criptografia exige que essas investigações sejam feitas com um pouco mais de cuidado e também com outras estratégias. Até os próprios metadados, as empresas costumam colaborar com a justiça, entregando, por exemplo, metadados em relação às comunicações, não o conteúdo, mas os metadados associados. E isso, normalmente, é suficiente para que a investigação ocorra. Mas ainda existe essa narrativa, principalmente por parte de agências governamentais e autoridades de investigação criminal e persecução penal,

    (47:02) de que a criptografia é um impeditivo dessas investigações. E isso é transferido também agora para as investigações de, por exemplo, circulação de conteúdo de abuso sexual infantil. Teoricamente, eles dizem que a criptografia em aplicativos facilitaria o compartilhamento desses conteúdos e isso impediria a investigação desse tipo de crime, porque não se tem acesso ao conteúdo das comunicações, ao que está sendo circulado ali internamente. Mas, de novo, eu acredito que tecnicamente seja possível realizar

    (47:52) esse tipo de investigação através dos metadados das comunicações. Acho que, com quem você se comunica, horário, geolocalização, já dá um belo indício de formação de redes, esse tipo de coisa, de distribuição desse tipo de conteúdo. Marina? Bom, eu acho que, além do que a Raquel falou, somando à especialista em criptografia, que é ela, eu venho do lado da infância. Acho que é legal poder estar junto também para a gente ir se complementando com essas duas visões. Mas tem um relatório que o CRIN, que é o Child

    (48:42) Rights International Network, uma organização global baseada na Suíça, e a Defend Digital Me, uma organização, salvo engano, do Reino Unido, lançaram no começo deste ano. Acho que foi no começo deste ano, que traz uma proposta de abordagem centrada na criança à criptografia. É um relatório muito legal, está muito completo. Ele não é assertivo, de novo. Acho que é um campo, uma discussão que está nascendo, ainda tem muita coisa para a gente discutir e pensar qual é o caminho ideal. Eu duvido um pouco também de

    (49:26) quem dá respostas muito assertivas em debates que estão começando e que colocam dois interesses muito legítimos, não opostos, mas postos. Mas esse relatório, eu vou passar o link para depois ficar aí para todo mundo poder acessar, mas ele faz uma análise também das principais técnicas hoje utilizadas para detectar material de abuso sexual infantil. Via de regra, elas vão enfraquecer a criptografia, elas dependem, funcionam em ambientes não criptografados. Mas é interessante

    (50:10) porque também essa análise, e é uma análise técnica, vai mostrar que essas técnicas também não funcionam 100%. O PhotoDNA, por exemplo, que é uma técnica já um pouco mais antiga, que o pessoal da área de infância que acaba indo por esse caminho um pouco mais assertivo do “quebrar a criptografia” defende, essa técnica funciona só a partir de imagens já existentes. Então, novas imagens de abuso sexual infantil, ela não detecta, o que é

    (50:49) um grande problema. Veja, uma tecnologia que enfraquece a criptografia, então enfraquece muitos direitos de todas as pessoas, da coletividade e individualmente também, inclusive de crianças e adolescentes. E aí temos também relatórios interessantes que mostram, interessantes não, ruins, mas que mostram um aumento da perseguição a ativistas adolescentes também em países autoritários do mundo, especialmente ativistas climáticos e ativistas no campo LGBT. Então, essas políticas vão trazer esse enfraquecimento

    (51:29) muito grande sem necessariamente serem também muito funcionais. Então, o que eu traria, puxando aqui de volta para a pergunta de vocês, é que acho que falta ainda proatividade das empresas no sentido de pensar em soluções criativas, soluções que, sim, enderecem o problema da circulação de material de abuso sexual infantil, porque acho que as empresas não podem se eximir disso, especialmente as big techs, mas não só, e todas as empresas que fornecem produtos e serviços digitais de um modo geral, e até mais amplamente.

    (52:09) Temos, inclusive, a Constituição Federal do Brasil e, depois, o ECA, que vão dizer que a proteção e promoção dos direitos da criança e do adolescente cabe à família, ao Estado e a toda a sociedade. Às vezes, o pessoal, quando vai falar da proteção da criança e do adolescente na internet, fala: “Ah, os pais precisam cuidar, as mães”. Normalmente, o pessoal fala “os pais”, mas sabemos que são mais “as mães”. E sim, precisam, mas não é só. O Estado e a sociedade, e aí as empresas estão dentro

    (52:43) da sociedade, elas precisam ter também, e por esse caminho, elas têm dinheiro, podem investir nessas soluções criativas no sentido de juntar esses especialistas de vários campos para também pensar em soluções criativas, efetivas e protetivas de forma ampla. Não só protetivas à segurança de crianças e adolescentes, que já vimos que não é oposta à ideia de privacidade. No campo dos Estados, eu diria que, no Brasil, especialmente, essa discussão ainda está muito pouco amadurecida. Então, sinto que as narrativas do Estado, no geral, quando pensam,

    (53:28) não trazendo as narrativas contra a criptografia, que a Raquel colocou muito bem, mas as narrativas da proteção da criança e do adolescente na internet ainda são muito pouco amadurecidas também. No geral, elas endereçam a ideia de privacidade numa perspectiva interpessoal, então não param para pensar em outras complexidades que existem. Hoje eu vejo, por exemplo, como um dos grandes problemas, uma das grandes violações da questão das crianças e adolescentes no ambiente digital, o modelo de

    (53:58) negócio das plataformas. O modelo de negócio baseado em dados e a exploração comercial, a publicidade direcionada baseada em dados para crianças e adolescentes, é super problemática. Se ela convence a gente, ela é extremamente persuasiva para crianças e adolescentes. Não é um uso de dados que opera no melhor interesse da criança e do adolescente, como diz a LGPD. O próprio problema do abuso sexual infantil não pode ser visto de forma simples. Então, acho que as discussões no campo do Estado, e aí pensando especialmente no Legislativo,

    (54:30) mas não só, nesse campo da proteção da criança no ambiente digital, ainda estão muito incipientes. Elas precisam amadurecer muito, até para poder sopesar tudo. Sinto que, às vezes, a narrativa da proteção da criança no ambiente digital, por muitos atores, nem entende que, na prática, vai envolver o enfraquecimento da criptografia, por exemplo. É um discurso ainda pouco disseminado, acho que ainda falta muita profundidade ao nosso debate. Sabe que você falou, desculpa, Vinícius, pode ir. Não, não, complementa aí.

    (55:06) Depois eu ia colocar, Marina, que essa questão do melhor interesse, esse princípio é difícil de interpretar. Eu tenho uma aluna num grupo de pesquisa sobre proteção de dados, onde eu dou aula, que pesquisa agora, para a nossa mostra científica, a consideração do princípio do melhor interesse na proteção de dados, que é um tema difícil. E temos até um pouco de dificuldade de entender o que é esse melhor interesse na prática, porque é difícil definir esse melhor

    (55:44) interesse. E, colocando isso dentro da proteção de dados, é mais difícil ainda. Algumas preocupações que ela já identificou no próprio aplicativo TikTok, que, segundo a avaliação que ela fez, são bem problemáticas, até a parte do controle da entrada de crianças nessa plataforma, que não deveriam estar lá, mas parece que estão. A pesquisa dela está indo nessa linha. Uma coisa que me ocorreu com a fala de vocês é a própria questão da IA, que você comentou aqui, porque a IA, enquanto pode

    (56:19) servir, por exemplo, como um meio talvez interessante e menos invasivo para a identificação de imagens de abuso infantil, ao mesmo tempo pode servir também para a geração dessas imagens. Porque esses modelos, quando mal calibrados e quando não possuem meios de controle do que é gerado de imagens, por exemplo, você poderia, por outro lado, estar criando imagens geradas por Inteligência Artificial, que é um outro problema para mostrar a dificuldade do tema. Vinícius? Só para comentar, acabou de

    (56:53) falar essa questão da IA. Claro que você pode dizer que essas IAs públicas, como ChatGPT, Bard e outras coisas desse gênero, têm que ser protegidas para não gerarem imagens inadequadas. Mais especificamente aqui, simulando talvez o abuso de crianças e adolescentes. Mas nada impede que a tecnologia em si seja implementada por alguém com o objetivo de gerar essas imagens. Então, vamos ver coisas nessa direção também, não só imagens, mas vídeos. E aí nós

    (57:34) vamos entrar numa outra discussão, que é a questão da geração. Se a geração de conteúdo que não envolva pessoas, mas um conteúdo hiper-realista gerado por IA, se isso, de alguma forma, também entra como crime. Mas aí é outra discussão. Daí, nem entra… Entra sim. No Código Penal tem lá um tipo específico para simulação de imagens. Então, ok, vai acontecer. É o 241-C do ECA, se não me engano. Deixa eu ver aqui. Vai, então já está até previsto para lidar com isso. Mas isso vai

    (58:15) acontecer. É um outro… 241-C, é isso aí mesmo. É um outro tipo de situação que não tenho dúvida que vamos ver acontecendo, sendo comentado e discutido. E essa questão que a Marina colocou, das soluções simplistas, é de fato uma solução simplista, porque, no fundo, temos um problema de educação, aquilo que falávamos antes. E esse é um baita de um problema que não estamos nem

    (58:58) tratando direito, estamos deixando rolar e vamos ver onde vamos parar, até chegar a um ponto em que não tem mais o que fazer, em que vai ter que tomar uma decisão. A coisa está bem complicada nesse aspecto, onde seria a coisa mais fundamental. Um outro aspecto em relação ao uso de IA para detecção dessas imagens, o uso da tecnologia em si para detecção disso, eu vejo como bem problemático também. Poderíamos pegar duas situações diferentes. Poderíamos pegar aquilo que não está cifrado, aquilo que a própria pessoa publica,

    (59:35) o comportamento dela, o que ela joga nas redes sociais, do que as empresas já têm acesso, com relação ao que você pesquisa. Por exemplo, no caso da Marielle, foi utilizado o histórico de pesquisa para descobrir que aquelas pessoas estavam acompanhando há algum tempo, e em tantas outras situações. Esses dados que o Google tem, que o Face tem e outras empresas têm, eles poderiam utilizar isso – não estou dizendo que seria legal ou adequado, estou dizendo em termos de possibilidade – para, sem quebrar a criptografia, pegar esses dados que

    (1:00:14) estão sendo publicados no Face etc., e ver as interações entre as pessoas, ver essa rede de interações. O Vinícius interage com a Raquel, que interage com a Marina, que interage com o Guilherme. E, nessa situação toda, a Marina tem um certo tipo de comportamento que sinaliza um eventual problema. E aí começa a analisar a rede. E um outro aspecto seria o uso de IA para não botar um ser humano a olhar as imagens das pessoas circulando no WhatsApp, seja lá o que for, para detectar as imagens e flagrar: “Olha,

    (1:00:52) esse cara aqui parece que tem um conteúdo eventualmente suspeito”. Essas duas situações, embora aparentemente não sejam tão invasivas quanto quebrar a criptografia, quanto fragilizar a criptografia, criam potencialmente outros problemas. Como, por exemplo, daqui a pouco eu vou entrar num país que estou viajando, e: “Olha, tu não vai entrar ou está sendo encaminhado para a polícia”, ou alguma coisa, porque teve um conteúdo teu que a gente não sabe qual é, mas que foi

    (1:01:29) flagrado por uma plataforma aqui como potencialmente relacionado a abuso de crianças e adolescentes, por exemplo, ou algum tipo de crime. Então, me parece que mesmo essas alternativas que vocês colocam, Marina e Raquel, que têm que ser pensadas, que temos que usar a criatividade, discutir etc., terão que ser muito bem discutidas. Porque, daqui a pouco, conseguimos preservar a criptografia, que, sem dúvida, não é o caminho violar ou enfraquecer, mas

    (1:02:02) daqui a pouco criamos outras ferramentas para fazer essa análise, essa indicação de conteúdo ou essa detecção que pode virar um “score de crédito” da vida, que você não sabe como foi avaliado, não sabe o que está acontecendo e sofre as consequências disso. Então, acho que tem que haver realmente uma discussão muito cautelosa e com participação de pessoas que estudam o assunto, para que, fugindo de um monstro, que é o enfraquecimento da criptografia, a gente не se jogue nos braços de outro.

    (1:02:44) Não me parece uma solução simples. Raquel, Marina? Você estava falando e eu me lembrei de um caso que li há um tempo atrás, que um pai tirou uma foto da criança, e a criança estava com alguma coisa, sintomas de alguma doença, e ele tirou foto da criança, acho que a criança não sei se estava sem roupa, alguma coisa assim, para mandar para o médico, para saber: “Ó, apareceu isso daqui na criança e eu queria saber o que eu faço”. E mandou para o médico. E essa foto foi salva no backup automático

    (1:03:29) no Google Drive, e o cara teve a conta banida do Google porque essa foto foi flagrada como um conteúdo de abuso sexual infantil. Então, essas soluções são falhas também, e a IA também erra para caramba nesse reconhecimento. E aí, precisamos prestar atenção também no contexto, porque essas ferramentas não são capazes de avaliar o contexto no qual essas fotos foram tiradas ou o que acontece. Então, o cara teve a conta do Google banida, não pode mais entrar, perdeu tudo: e-mails, contatos,

    (1:04:11) os arquivos do Drive, tudo por conta de um erro da ferramenta. Então, precisamos realmente… é exatamente isso que o Vinícius está falando. Não podemos nos jogar nos braços desse outro monstro contando que vai ser uma solução extremamente eficiente e eficaz, quase mágica. Exato, que vai dar todas as respostas, porque não vai. Inclusive, já tem gente sofrendo com isso. O cara foi banido, e não foi só um caso. Eu li a respeito de outros casos semelhantes que aconteceram, porque, por exemplo, o

    (1:04:53) Google Drive não é criptografado, o Google tem acesso a tudo que a gente tem. Então, eles fazem esse escaneamento de conteúdo, de fotos, principalmente, na ferramenta do Google Fotos. E acontece, eventualmente vai acontecer isso. Enfim, já estamos sofrendo esses efeitos. Não podemos deixar que as máquinas, o tal do tecnossolucionismo do Morozov… não vamos resolver todos os problemas da sociedade com tecnologia. Tem coisas que a tecnologia não vai resolver, pelo contrário, vai piorar. Marina? E só antes de passar para a Marina,

    (1:05:32) para dizer, eu já tirei foto dos meus dois filhos e já mandei para o pediatra. Ainda bem que não fiz backup no Google, mas já fiz isso. Sim, e é algo totalmente razoável. Estou alinhada. O que eu ia trazer para adicionar, além dessa crítica ao tecnossolucionismo e essa ideia de que não existe uma solução ideal, como as soluções vão variar contextualmente, e talvez até hoje, enfim, eu não sou da área técnica,

    (1:06:23) também não vou ter todo o ferramental para pensar nas soluções técnicas, mas eu diria que hoje não existe nenhuma solução também que seja adequada, ou muito adequada. Por isso que falei que acho que precisamos começar a discutir mais esse tema de forma interdisciplinar. Mas esse relatório que eu mencionei, do CRIN e da Defend Digital Me, ele propõe um caminho que não é um fim em si mesmo, mas é um meio, que é a ideia da condução de avaliações de impacto também

    (1:07:00) antes do desenho de sistemas. E o relatório traz a ideia de avaliações de impacto um pouco diferentes das que estamos acostumados aqui no Brasil. Aqui, acabamos no nosso campo falando mais sobre relatório de impacto à proteção de dados pessoais, agora estamos discutindo mais avaliação de impacto algorítmico também. Mas o relatório traz a ideia de uma avaliação de impacto aos direitos da criança. É um instrumento que está surgindo também nesse campo das avaliações de impacto e

    (1:07:36) risco. Seguiria uma lógica mais ou menos semelhante à das avaliações que já conhecemos, mas seria esse centro no direito da criança. Inclusive, o Guilherme mencionou a ideia do melhor interesse da criança e do adolescente. Aqui no ordenamento jurídico brasileiro, de forma direta, ele é citado, curiosamente, só na LGPD. “Melhor interesse da criança e do adolescente” está lá no caput do Artigo 14: qualquer atividade de tratamento de dados de crianças e adolescentes tem que estar de acordo com o melhor interesse delas. Mas é um instituto já cristalizado no direito internacional,

    (1:08:12) com a Convenção sobre os Direitos da Criança da ONU, que eu sempre faço esse parêntese, é o tratado internacional mais ratificado do mundo inteiro, lá de 1990, abraçado aqui pelo ECA, pela Constituição Federal. Esse conceito, ainda que não seja expressamente citado – se você der um “Ctrl+F” e pesquisar no ECA, não vai aparecer “melhor interesse” –, apesar de parecer um conceito abstrato, um pouco intuitivo por um lado, mas abstrato por outro, o Comitê sobre os Direitos da Criança da ONU, em 2013,

    (1:08:47) emite o Comentário Geral 14. Com frequência, o comitê emite Comentários Gerais, que são interpretações da Convenção sobre os Direitos da Criança à luz de um determinado tema. É interessante para a gente, aqui nessa discussão, mencionar também o Comentário Geral 25, de 2021, que é sobre os direitos da criança no ambiente digital. É bem interessante, reforça muito também essa ideia das crianças e adolescentes como sujeitos de direitos à privacidade, à proteção de dados.

    (1:09:19) Mas, voltando, o Comentário Geral 14 traz a ideia de que o melhor interesse é um conceito tripartite. Primeiro, ele é um princípio que deve ser sopesado, no sentido de que sempre que há um contraste ou um enfrentamento, uma oposição entre interesses da criança – e a ONU fala só “criança”, mas querendo dizer criança e adolescente, a nomenclatura lá é diferente – com qualquer outro, como o interesse comercial, por exemplo, o da criança precisa prevalecer. O melhor interesse é também um princípio jurídico interpretativo. Então, sempre que eu tiver uma disposição legal, contratual,

    (1:09:58) normativa aberta a mais de uma interpretação, a que tem que prevalecer é a que favorece mais os interesses da criança e do adolescente. E, por último, é o melhor interesse como uma regra procedimental. A ideia é que qualquer agente que for tomar decisões que afetem diretamente ou potencialmente crianças e adolescentes precisa documentar as razões pelas quais aquele melhor interesse está sendo preservado naquela tomada de decisão. E, disso, puxamos também um conceito que, especialmente o pessoal do Instituto Alana tem trabalhado

    (1:10:31) bastante, que é o conceito dos “direitos da criança por design”. Falamos em “privacidade por design”, “segurança por design”, esse conceito dos “direitos das crianças por design” também. E pensar um design de produtos e serviços alinhado ao melhor interesse da criança. E aqui é o meu pitaco, mas muito da nossa discussão mesmo, eu ousaria dizer que estaria encampado pelo conceito dos “direitos da criança por design” a criptografia, pensando na criptografia como esse instrumento de proteção também às crianças e adolescentes. Ainda que, sem dúvida, é

    (1:11:13) necessário você pensar, a partir dessa regra de procedimento, avaliar caso a caso, caso concreto, pensar em todas as soluções técnicas disponíveis. Acho que você tem uma tese aí, hein, Marina! A ligação do melhor interesse com a criptografia, olha! Muito bom! Provocada a escrever. Enquanto você falava, eu já puxei aqui também para colocar no nosso show notes esses dois comentários que você colocou. Inclusive, achei uma versão aqui do 25, comentado pelo pessoal da Alana e do MP de São Paulo, 262

    (1:11:51) páginas. Olha só, vai ficar no show notes. E com essa última disposição, pessoal, eu gostaria de já ir encaminhando para o final do episódio de hoje, agradecendo demais a presença de vocês duas, Raquel e Marina. Vocês deram uma aula e colocaram uma série de elementos aqui para fazer a gente pensar sobre esse problema. Aprendemos muito com vocês hoje. Por exemplo, eu aprendi, Marina, contigo, essa figura do não usar “pornografia infantil”, não se referir a

    (1:12:24) pornografia infantil, mas sim a abuso. Eu nunca tinha pensado nisso, até seguindo o que o Código Penal coloca como pornografia infantil, mas talvez até a gente precise de uma modificação legislativa nesse sentido, para corrigir esse termo. É um aprendizado para todos nós aqui. Eu gostaria de deixar vocês à vontade para dar sua mensagem final, falar alguma coisa que gostariam de ter falado e não foi perguntado, enfim, contar um poema ou uma história. Podem falar o que vocês quiserem agora no fim.

    (1:12:57) Raquel? Eu queria só agradecer o espaço de novo. Toda vez que venho aqui no Segurança Legal é sempre muito legal. Vocês são ótimos, as discussões são sempre muito boas. E queria agradecer o espaço, o convite e a parceria de Marina também, que acho que a gente se complementou bem nesse tema hoje aqui. Obrigadão. Deixo também o Iperic à disposição de vocês. Estamos sempre escutando e comentando o podcast. Legal ter sempre uma audiência aqui do nosso lado.

    (1:13:38) Enfim, estamos à disposição sempre que formos convidadas, viremos com certeza. Vocês são ótimos sempre. Obrigada. Querida, obrigado. Marina? Eu também queria só agradecer, acho que a gente falou bastante. Queria agradecer o espaço também, já acompanho o podcast, então é um prazer poder vir aqui pela primeira vez, espero voltar novamente. Agradeço à Raquel também por ter feito a ponte, acho que, de fato, a gente conseguiu se complementar bem nos dois assuntos. E só reforçar, já falei várias vezes, mas esse é um debate ainda muito incipiente, de criptografia e

    (1:14:22) direito da criança. Acho que ter esses espaços para começar a discutir de forma séria, crítica e reflexiva também, às vezes trazendo mais perguntas do que necessariamente caminhos e respostas absolutas, é muito importante. Porque é um tema de fronteira, é um tema que já está pegando muito, especialmente no Norte Global, e que a gente precisa começar a debater aqui também, pensando no nosso contexto. Certo. Então, agradecemos mais uma vez à Raquel Saraiva e à Marina Meira por essa conversa excelente

    (1:15:00) que tivemos aqui nesta manhã muito agradável. Agradecemos também a todos e todas que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima! Até a próxima!

     

    ...more
    View all episodesView all episodes
    Download on the App Store

    Segurança LegalBy Guilherme Goulart e Vinícius Serafim

    • 4
    • 4
    • 4
    • 4
    • 4

    4

    7 ratings


    More shows like Segurança Legal

    View all
    Braincast by B9

    Braincast

    108 Listeners

    RapaduraCast - Podcast de Cinema e Streaming by Cinema com Rapadura

    RapaduraCast - Podcast de Cinema e Streaming

    111 Listeners

    MacMagazine no Ar by MacMagazine.com.br

    MacMagazine no Ar

    179 Listeners

    Xadrez Verbal by Central 3 Podcasts

    Xadrez Verbal

    174 Listeners

    Giro do Loop by Loop Infinito

    Giro do Loop

    91 Listeners

    Tecnocast by Tecnoblog

    Tecnocast

    43 Listeners

    NerdCast by Jovem Nerd

    NerdCast

    1,010 Listeners

    Naruhodo by B9, Naruhodo, Ken Fujioka, Altay de Souza

    Naruhodo

    120 Listeners

    Petit Journal by Petit Journal

    Petit Journal

    78 Listeners

    Durma com essa by Nexo Jornal

    Durma com essa

    46 Listeners

    História FM by Leitura ObrigaHISTÓRIA

    História FM

    30 Listeners

    Ciência Suja by Ciência Suja

    Ciência Suja

    20 Listeners

    Vortex by Parasol Storytelling

    Vortex

    19 Listeners

    Só no Brasil by Pipoca Sound

    Só no Brasil

    4 Listeners

    IA Sob Controle - Inteligência Artificial by Alura - Hipsters Network

    IA Sob Controle - Inteligência Artificial

    0 Listeners