Segurança Legal

Episódio #381 – O Marco Civil no Supremo


Listen Later

Neste episódio falamos sobre o julgamento da constitucionalidade do Artigo 19 do Marco Civil da Internet no STF. Você irá descobrir o que muda na responsabilidade das plataformas e na remoção de conteúdo online.

A discussão sobre o Artigo 19 do Marco Civil da Internet no STF redefine a responsabilidade de provedores e a moderação de conteúdo no Brasil. Aprofundamos como a decisão impacta a remoção de conteúdo ilícito, a necessidade de ordem judicial e o equilíbrio entre a liberdade de expressão e a proteção de direitos fundamentais. Analisamos os novos deveres das plataformas digitais no combate à desinformação e conteúdos nocivos, o que pode alterar o cenário do direito da tecnologia e a forma como a notificação extrajudicial será tratada. Para não perder futuras análises, siga nosso podcast, avalie este episódio e compartilhe​.


ShowNotes

  • Marco Civil da Internet: relator vota por responsabilização de plataformas sem necessidade de notificação prévia
  • Episódio #47 – Especial Marco Civil da Internet (Abril de 2014)
  • Foto do Episódio – Ailton de Freitas / DPU

     Transcrição do Episódio

    (00:04) Este é o Segurança Legal, Episódio 381, gravado em 6 de dezembro de 2024: O Marco Civil no Supremo. Neste episódio, falamos sobre o julgamento da constitucionalidade do artigo 19 do Marco Civil da Internet. Segurança Legal com Guilherme Goulart e Vinícius Serafim. Um oferecimento Brown Pipe Consultoria.

    [Música]

    (00:30) Sejam todos muito bem-vindos e bem-vindas. Estamos de volta com o Segurança Legal, seu podcast de segurança da informação e direito da tecnologia. Eu sou o Guilherme Goulart e aqui comigo está o meu amigo Vinícius Serafim. E aí, Vinícius, como vai?

    (00:44) E aí, tudo bem? Olá aos nossos ouvintes. Eu estou me recuperando, cara. A gente não gravou semana passada por minha culpa, por minha máxima culpa. Eu estava com uma tosse alérgica violentíssima, ainda estou com tosse, então vocês não reparem se eventualmente eu parar de falar para ter que tossir, mas a minha tosse não vai ficar gravada, então fiquem tranquilos.

    (01:13) Eu vou ouvir, mas os ouvintes não.

    (01:16) Tu vais ouvir, mas daí tu já aturou tanto da gente mesmo, um pouco mais, um pouco menos não faz diferença. Sempre lembrando que para nós é fundamental a participação de todos por meio de perguntas, críticas e sugestões de temas. Então para isso, (01:34) estamos à disposição lá no podcast@segurançalegal, no youtube.com/segurançalegal, no Mastodon @seguranç[email protected]. Eu confesso, Vinícius, que eu tenho usado pouco o Mastodon porque agora o Bluesky está bombando. O Bluesky está bombando, acho que chegou a 25 milhões de usuários. Então você pode nos encontrar lá no Bluesky em direitodatecnologia.com ou no serafim.pt. (02:00) br, eu e Vinícius, respectivamente, e no @segurançalegal.bsky.social. Também temos a nossa campanha de financiamento coletivo lá no Apoia-se, no apoia.se/segurancalegal, onde você pode escolher modalidades de apoio e nos ajudar. A gente sempre conclama que você colabore com um projeto independente de produção de conteúdo. Nós tínhamos, agora que eu me lembrei, Vinícius, mas nós vamos avisar depois nas redes sociais, nós queremos fazer um sorteio de canecas aí no final do ano, que a gente tinha falado, e eu confesso que eu me esqueci de organizar isso para (02:31) este episódio. Mas vamos fazer, vamos fazer. A gente tem algumas canecas aí para fazer o sorteio. Tem também o blog da Brown Pipe, então se você puder acessar brp.com.br/blog, vai encontrar lá uma série de notícias que são atualizadas semanalmente. Na verdade, é brownpipe.com.br/blog-da-brown-pipe, mas se você acessar brownpipe. (03:02) com.br, vai achar o link facilmente. E lá você tem uma série de notícias, algumas que entram aqui para os nossos cafés. Destaco uma interessante aqui: o Bacen admitiu, Vinícius, um incidente de segurança envolvendo quem? O próprio Bacen. O próprio Bacen agora está na listinha que o próprio Bacen mantém de incidentes.

    (03:26) Bom, mas aí eu dou, se fosse um episódio de café, eu ia dar um café expresso para eles.

    (03:32) Sim, porque os caras tiveram a transparência. Pela transparência, pelo comprometimento em seguir os procedimentos e (03:43) tal e dizer: “ó, aconteceu com a gente, está aqui”. Como tem que ser. Qualquer pessoa que tenha um incidente que cause danos relevantes ou riscos, enfim, tem que comunicar. Então, se fosse um café, iria um café expresso.

    (03:55) Iria um café expresso. Já derramei água aqui no minuto dois do podcast. Então, tem o blog da Brown Pipe, lá você consegue se inscrever no mailing semanal também, Vinícius. Lá no próprio site da Brown Pipe, a gente tem uma lista de e-books e tem um e-book novo que saiu faz bem pouco tempo, que é a LGPD na (04:15) hotelaria: um guia para hotéis. É um documento que a gente produziu com uma série de recomendações para a rede hoteleira, que é uma área de negócios que realmente precisa prestar atenção nesses aspectos da LGPD pela mais variada coleta de dados pessoais, muitas vezes inimagináveis para a gente. Mas se a gente começa a pensar, você tem câmeras, você tem coleta de informações, às vezes até de saúde, para aquele hóspede que tem uma alergia a isso ou aquilo.

    (04:43) Ou até coisas muito simples, Guilherme, (04:46) como: eu fui fazer um check-in num hotel, cara, não era um hotel pequeno, sabe? E o que aconteceu, foi em Passo Fundo isso, de repente a pessoa que estava atendendo me passou o número dela, o telefone dela, e disse: “Ah, manda para mim a tua CNH”. E eu disse: “Não. Tipo assim, eu posso te mostrar, mas não vou mandar minha CNH para ti”. Eu disse que eu mostraria. Ela: “Ah, a CNH”. E ela: “Não, manda para mim nesse telefone aqui”. Eu: “Não, não vou te mandar meu documento. Te digo os dados, tu anota e tal, mas (05:21) não vou te mandar meu documento”. E, claro, ficou meio contrariada, porque é o procedimento que eles fazem o tempo todo lá. Ninguém fala nada. Mas enfim, esse guia é muito importante porque o Guilherme visitou diversos hotéis, não estou brincando. De fato, todos os hotéis que o Guilherme vai, aliás, não só hotel, em qualquer lugar que tu vais, tu já começas a avaliar a coisa dos dados.

    (05:49) É o tempo todo. Eu tiro foto dos avisos de privacidade, das (05:53) câmeras e tal. Até porque esse aspecto do hotel é uma área pouco tratada pelo direito. Então, para os estudantes que nos acompanham, também é uma área boa para realizar estudos, porque não tem muita coisa escrita sobre. Daí a importância desse nosso guia e a utilidade que a gente imagina que ele vai ter para essa comunidade da rede hoteleira. Bom, Vinícius, chegamos então a esse tema do artigo 19 do Marco Civil, o julgamento lá no STF da constitucionalidade do artigo 19. Apenas uma notinha aqui pós-edição, para deixar claro para (06:31) quem nos escuta, que nós fizemos esta avaliação que virá e que vocês escutarão levando em consideração a projeção de uma inconstitucionalidade do artigo 19. Porque, na verdade, até este momento, a gente tem o voto do relator, que é o Dias Toffoli, mas ainda precisamos ter o voto dos outros ministros. Junto com esse processo, ele está sendo julgado em conjunto com outro recurso extraordinário relatado pelo Ministro Luiz Fux, que também esbarra nesse tema, diz respeito ao dever de monitoramento das plataformas. A gente vai comentar muito rapidamente (07:09) aqui, mas tudo indica, o cenário todo, as manifestações dos outros ministros, que essa tese, a tese do relator, vai sair vencedora. Então, os nossos comentários sobre essa projeção de inconstitucionalidade se dão levando em consideração que sim, será considerado inconstitucional. Mas, claro, temos que aguardar os votos dos outros ministros. Mas, claro, como dizia Tom Jobim, o Brasil não é para principiantes, então pode ser que o cenário mude e a gente tenha que voltar (07:50) a falar sobre esse tema. Mas só essa nota inicial para deixar claro, caso não tenha ficado claro durante o episódio que virá.

    (07:58) Eu vou te fazer as perguntas, porque eu não sou da área. Eu tenho minhas opiniões, que eu vou compartilhar com o pessoal aqui, mas vou te fazer as perguntas de leigo. Então, o que diz e sobre o que trata o artigo 19 do Marco Civil da Internet? Por que alguns querem que seja inconstitucional, outros não querem, e outros querem o meio (08:18) termo? O que diz esse artigo 19 aí?

    (08:21) É bem isso mesmo, Vinícius. Só antes, deixa eu fazer um parêntese, que eu ia colocar uma questão para não perder isso, porque tem que estar no início. A gente está voltando a falar em um episódio dedicado ao Marco Civil 10 anos depois de nós termos gravado um episódio sobre o lançamento do Marco Civil da Internet, que foi em abril de 2014. E nós gravamos lá também em abril de 2014, o Episódio 47, “Especial Marco Civil da Internet”. E aí nós tivemos (08:57) alguns convidados, sendo eles o Alessandro Molon, que é o deputado relator do projeto na Câmara, e como convidados o Paulo Sá Elias, o Paulo Rená, nosso querido amigo Paulo Rená, Rony Vainzof e o nosso saudoso amigo Danilo Doneda. Acho que foi uma das primeiras participações dele.

    (09:16) Cara, eu acho que sim. E foi depois disso, em 2014, por conta desse episódio e de outros episódios do “Data Brokers” que a gente fez, que a gente começou a ter mais contato com ele. Daí ele me chamou para ir lá no Ministério da Justiça falar sobre…

    [Música]

    (09:54) Sempre foi uma questão discutida. Lá no nosso episódio, eu fui ver as notas, porque o podcast Segurança Legal já tem uma bagagem histórica para ver o que a gente falou naquela época. Então, lá tinha uma notinha no artigo 19 que dizia: “Olha, tem o risco aqui dos provedores deixarem de atender a demandas de retirada de conteúdo do ar quando eles souberem e enquanto não houver ordem judicial”. Porque a grande questão é essa: o artigo 19 diz que o provedor vai ser considerado responsável civilmente pelos danos decorrentes de conteúdo (10:34) gerado por terceiro se, depois de uma ordem judicial, ele não retirar o conteúdo do ar. Então, nós temos dois grandes grupos de pessoas que se posicionam sobre esse artigo, e um intermediário, que na verdade foi a solução dele, foi dizer que a partir de agora o regime de responsabilidade vai ser aquele previsto no artigo 21, porque o artigo 21 do Marco Civil era a exceção do 19. Se você tinha algum conteúdo gerado por terceiro, esse conteúdo era ofensivo ou ilícito de alguma forma, o (11:12) provedor não era obrigado a retirar, a não ser que houvesse uma ordem judicial. E a exceção do artigo 21 era que não haveria necessidade de ordem judicial para divulgação de imagens e violação da intimidade, com divulgação de imagem sem autorização dos seus participantes com cenas de nudez e atos sexuais. Essa era a exceção do artigo 21, de que não precisaria de ordem judicial, bastando uma notificação extrajudicial. E (11:50) o artigo 19 precisa de ordem judicial. Ou seja, não basta você fazer a comunicação extrajudicial. Bom, lá no início, então, a gente tinha dois grandes grupos. Os primeiros eram aqueles que diziam: “Sim, tem que ser como é o artigo 19, porque senão a gente vai dar muito poder para os provedores, porque eles vão poder realizar retirada de conteúdo”. Provedores ou plataformas, isso é uma outra questão.

    (12:21) Na verdade, o Marco Civil vai tratar dos provedores de aplicação e de conexão. Só que o grande problema é que nos (12:30) provedores de aplicação, praticamente qualquer coisa, as plataformas entram junto aí.

    (12:35) E aí, quem defende ou continua defendendo a constitucionalidade coloca que, sem precisar de uma demanda judicial, a plataforma poderia ficar com o conteúdo lá, ela não precisaria fazer nada com o conteúdo, não precisaria tirar. Ela poderia moderar se quisesse, mas não teria responsabilidade até ser notificada judicialmente.

    (13:08) Exatamente. A outra corrente vai no sentido de dizer: “Não, mas espera aí. E aqueles conteúdos flagrantemente ilícitos, em que não há dúvida da ilicitude?”. Porque o artigo 19 começa numa linha dizendo que é “com o intuito de assegurar a liberdade de expressão e impedir a censura”. E esse foi um dos aspectos colocados lá na decisão, de que a inconstitucionalidade estaria (13:50) também em você prever a priori, antes do caso concreto, a prevalência do direito fundamental à liberdade de expressão sobre todos os outros direitos, independentemente do caso. Haveria uma inconstitucionalidade aí, pelo fato de você não garantir a proteção adequada a esses direitos fundamentais que eventualmente poderiam ser afetados em prol da liberdade de expressão. Então, o outro grupo chegava e dizia: “E quando for um conteúdo flagrantemente ilícito, ainda assim ele não vai tirar?”.

    (14:22) O caso concreto que leva esse julgamento para o STF é um caso extremo. É o caso relatado pelo Ministro Dias Toffoli, de uma moça que teve um perfil falso criado e o Facebook se negou a excluí-lo. Ou seja, alguém criou um perfil falso de uma pessoa, esta pessoa entra em contato com o Facebook e diz: “Olha, criaram um perfil dizendo que sou eu, não sou eu, por favor, apaguem”. E o Facebook simplesmente disse: “Não vou apagar, precisa de ordem judicial”. E aí é aquela coisa, você começa a entrar num dos grandes problemas e numa das grandes discussões.

    (15:10) Tem muita gente, me parece que de forma incorreta, dizendo: “Ah, porque agora nós vamos ter uma afetação, o Supremo quer impor uma censura no país”. Não creio que seja isso. Não creio que haja um plano secreto do Supremo para impor censura no país. E aí é aquela história, na cibernética, eu até estava lendo um livro esses dias falando sobre isso, a gente tende hoje em dia a tentar simplificar a resolução de problemas muito complexos. Você tem um baita de um problema que é a desinformação (15:46) na internet, a responsabilidade dos provedores, os incentivos que eles têm para proteger ou não direitos e, para eventualmente, diante dos seus atos, prejudicar outros direitos fundamentais das pessoas. Esse é um problema dificílimo de se resolver, o mundo inteiro se debate para regular isso. E aí, de repente, a resposta que você tem é: “Não, o Supremo quer aplicar a censura no país”. Porque é relativamente fácil de você convencer uma pessoa que não entenda nada do assunto. Ela vê esse argumento, larga isso e deu.

    (16:17) Você tem essas duas correntes, e você tem esse caso, que é muito simples. E aí uma das discussões que pode se começar a colocar é: qual é essa liberdade de expressão de alguém criar um perfil falso na internet para começar a te difamar, para falar mal de ti, para começar a te prejudicar? A liberdade de expressão não é um direito criado para esse tipo de afetação. É diferente de eu ter o meu conteúdo e exercer, aí sim, dentro da liberdade de expressão, uma crítica (16:47) contra você, Vinícius, mesmo que seja uma crítica feroz, imaginando que você seja uma pessoa pública. Eu tenho o direito de te criticar, sem dúvida.

    (16:56) Muito embora, eu estou me lembrando agora de relance, mas tu deves lembrar desse caso também. Lembra que o Arthur Lira conseguiu tirar algumas matérias que envolviam ele, aquele caso da ex-esposa dele?

    (17:13) Se não me engano, contra o The Intercept. Eu vou dar uma procurada enquanto tu falas aqui, mas teve um lance que ele conseguiu remover a matéria sobre esse (17:26) negócio, o que é estranho, por ser uma pessoa pública e contra a imprensa.

    (17:31) Que não é bem o que, inclusive, esta inconstitucionalidade aqui não afeta a publicação em blogs de imprensa, que é um tema que eu vou falar aqui, mas blogs de jornalistas, isso é expressamente colocado na decisão. Só que o problema é que aquela internet lá de 2014, quando a gente gravou o episódio 47, não é mais a mesma internet do episódio 381, que a gente está gravando agora em 2024. As redes sociais, definitivamente, (18:06) não fazem as mesmas coisas e assumiram um papel, em todos os lugares do mundo, não somente de mera hospedagem de conteúdos, como faziam simplesmente lá no Orkut. Inclusive, tem um outro caso também, de relatoria do Ministro Fux, que deve ser julgado a seguir e que envolveu o Orkut. Ou seja, a gente está discutindo no STF um caso que começou lá no Orkut.

    (18:34) Está brincando?

    (18:35) Sim, cara, sim. Inclusive os representantes do Facebook disseram: “Ah, hoje é diferente. Hoje quem (18:45) tem um perfil falso consegue facilmente retirar esse conteúdo do ar”. Cara, não é verdade. Não é verdade. Qualquer tipo de problema que tu tens na tua conta… e quantos de vocês que nos ouvem ou nos veem nesse momento já não aconteceu com vocês ou com alguém que vocês conheçam, de perder uma conta do Facebook, perder o acesso por alguma razão, roubo de conta do Instagram… Cara, é um inferno. O atendimento da Meta para esses produtos deles, parece que eles estão pouco se lixando, entende? O atendimento é muito ruim.

    (19:26) Sem contar aquelas páginas que te deixam em looping. “Ah, faça não sei o quê”, daí tu clicas, “você tem que ir não sei onde”, daí tu clicas, vai não sei para onde… quando tu vês, tu voltaste para a página inicial. E não é piada o que estou falando. Lembro de um tempo atrás procurar isso por causa de uma pessoa que eu conheço e foi justamente isso, cara. Tu ficas dando voltas e não consegues resolver nada. Teve que judicializar, no final das contas. Imagina para retirar conteúdo.

    (19:52) Então, no final das contas, Guilherme, daria para dizer, desconsiderando nesse momento o caminho do meio, que nós temos um lado que defende a constitucionalidade do artigo 19, ou seja, que se mantivesse o artigo, porque exige uma ordem judicial para tirar conteúdo, usando como argumento a defesa da liberdade de expressão e a vedação à censura.

    (20:20) Como fundamento, como argumento.

    (20:22) Como argumento, sim. No entanto, a gente tem um lado negativo aí, que é que isso seria (20:28) feito em detrimento da proteção de direitos fundamentais.

    (20:31) Exatamente, perfeito. Porque se acontecer alguma coisa, até eu conseguir uma ordem judicial para tirar o conteúdo, tenho vários direitos meus que não vou conseguir exercer, porque quando acontecer, vai ser tarde demais. Por outro lado, o grupo que defende a inconstitucionalidade justificava que a norma, como estava, criava uma, entre aspas, imunidade para os provedores.

    (20:59) Isso. E aí (21:02) os provedores, meio que “dane-se” os teus direitos fundamentais. “Eu só tiro se tu tiveres ordem judicial, senão eu vou manter o conteúdo, mesmo que mentiroso, circulando, dando view, dando link, eu vou estar fazendo propaganda e ganhando dinheiro com isso”. Não é só a questão de deixar o conteúdo lá, eles também ganham dinheiro com isso.

    (21:24) O ponto negativo que foi colocado, Guilherme, e aí talvez para tu seguires, é que (21:31) eu estava vendo que o lado contrário à questão da inconstitucionalidade aponta que sobrecarregaria o judiciário, em razão de não ter mais a ordem judicial. Porque antes estava muito claro: era ordem judicial e acabou. Sem ordem judicial, não tem que tirar conteúdo, o provedor, a plataforma, não são responsáveis.

    (21:55) Acho que a gente tem que cuidar na hora de falar “provedor”. Se a gente falar provedor, tem que ser “provedor de aplicação” ou chamar de “plataforma”, senão vai parecer que (22:01) tem o provedor de conexão junto, que é diferente no Marco Civil.

    (22:05) Exato. Então, o provedor de aplicação ou a plataforma estaria correndo mais risco sem o artigo 19 valendo, porque a partir de agora basta uma notificação extrajudicial com relação a um conteúdo que, como tu dizes, é flagrantemente violento ou ilícito, etc. Se eles não tirarem, eles já poderiam ser responsabilizados. Claro, teria que ser apurada ainda a responsabilidade deles, aí sim tu levas para um juiz, mas eles poderiam eventualmente ser responsabilizados (22:38) por esse conteúdo que continuaria na internet. Em essência, essas são as duas posições.

    (22:43) E essa é a diferença entre os dois. E aí o efeito previsto, e a gente não sabe se isso vai acontecer, porque tem um outro problema aí no meio, que é o cenário por trás disso tudo. E é o fato de você… o timing. O Toffoli começou dizendo: “Olha, a gente aguardou o Congresso legislar por anos sobre esse aspecto, e o Congresso não legislou”. E aí uma crítica que se pode fazer: primeiro, não foi o (23:19) Supremo que escolheu julgar isso; isso foi levado ao Supremo. Claro que a escolha dele foi esperar um tempão para julgar, mas uma das justificativas que ele deu foi: “Estávamos esperando o Congresso legislar”. E aí nós tivemos nos últimos dois anos, talvez, pelo menos três legislações que tocavam nessa questão, seja das fake news e da desinformação, seja estabelecendo outras responsabilidades da plataforma. Porque uma coisa que não podemos negar é que, com a complexidade do ambiente digital, sobretudo das redes sociais, me (23:58) parece que o Marco Civil não dá conta. Nós precisamos de mais regras que prevejam comportamentos ativos das plataformas para evitar riscos sistêmicos, que é uma coisa que foi retirada lá do Digital Services Act da Europa. Ou seja, qual é a responsabilidade ativa que tu tens de manter uma rede segura, uma rede boa de se utilizar, uma rede em que você consiga resolver os problemas e evitar riscos, por exemplo, de desinformação? Esse é o ponto.

    (24:29) E também uma legislação que me parece que o Marco (24:35) Civil precisaria ser atualizado para lidar com isso, que acaba envolvendo o fato dessas plataformas começarem cada vez mais a ter seus próprios interesses, ou seja, defender os próprios interesses. As decisões que elas tomam em manter, impulsionar, te mostrar ou moderar certos conteúdos passam a ter uma relação com os próprios interesses delas, econômicos e políticos. As grandes plataformas se tornaram atores muito diferentes do que meros apresentadores de conteúdo. Elas começaram, inclusive, a (25:14) interferir nos processos democráticos de outros países, como a gente viu acontecer com o X. Mas não é só o X, a gente fala muito do X aqui, mas estamos esquecendo do Cambridge Analytica lá do Facebook. Estamos esquecendo, o próprio Toffoli coloca isso, quando o Google chamou o PL de “PL das Fake News” e colocou no site inicial do Google, na página inicial de busca, que aliás eu não vejo mais, porque não uso mais o Google para fazer pesquisa.

    (25:43) Mas qual é a complexidade maior? Me (25:45) parece que tentaram colocar todos esses problemas dentro do artigo 19, e me parece que o artigo 19 não está diretamente relacionado com isso. O artigo 19 está relacionado com aquelas situações de responsabilidade dos provedores por ato de terceiros, e pronto. Todos esses outros desdobramentos, eu não creio que, sendo constitucional ou não, o artigo 19 seja suficiente para lidar com isso. A gente precisaria de outra legislação. Inclusive, a decisão vai no sentido de pedir para que o Congresso, no prazo de 18 meses… (26:25) 19 meses, perdão, legisle sobre o tema. Mas qual é o outro problema? São muitos problemas. O outro problema é que o lobby das big techs e dessas plataformas no legislativo brasileiro é imenso. Os problemas que a gente está tendo para regular a inteligência artificial aqui, os andamentos dos últimos dias, a retirada de artigos… é surpreendente o poder que as big techs têm, não só no Brasil, mas falamos aqui do Brasil, na definição dos seus interesses em âmbito legislativo também.

    (27:04) Bom, então, falando um pouco mais (27:10) especificamente da decisão, tem essa questão do timing, tem essa questão também… até que ponto, por exemplo, o problema da desinformação e o abuso das próprias plataformas em enviesar seus algoritmos para recomendar conteúdo é um baita problema? Nas últimas alterações do projeto de lei de IA aqui no Brasil, retiraram isso, porque lá eles estavam dizendo que os algoritmos de recomendação movidos por IA seriam considerados de alto risco e, por consequência, teriam responsabilidades adicionais. Porque é aquela história que eu já contei aqui, não sei se já (27:49) contei, mas senão conto de novo: a recomendação em rede social é um baita problema, porque é uma das formas que, dependendo de como o algoritmo é configurado, pode te levar para um ou para outro lado, pode te mover, pode te tornar ou pode contribuir para que tu te tornes um extremista. E como você chega a isso? Algoritmo de recomendação: eu comecei a pesquisar por moto no YouTube e, de repente, estava vendo arma, gente sendo explodida, bonecos de pessoas sendo explodidos, como fazer arma, luta de (28:22) animais, pessoas se machucando em ferramentas. É um negócio super perigoso. E, mais uma vez, eu não sei se isso de fato é um problema do artigo 19, mas caiu nesse contexto e, nesse momento, tudo dentro da discussão da inconstitucionalidade do artigo 19.

    (28:46) Um monte de gato no mesmo saco.

    (28:48) Pode ser uma forma mais prática de explicar. E os cachorros juntos, os gatos e os cachorros juntos. E aí, o que o Toffoli coloca é que o artigo 19, (29:04) em face dessa decisão de exigir a ordem judicial, daria uma certa imunidade aos provedores no sentido de deixar desprotegidos e vulnerabilizados os outros direitos fundamentais que eventualmente fossem jogados para trás por conta da necessidade da ordem judicial. Porque se coloca um regime de responsabilidade civil em que tu tens o dano, tu sabes que o dano houve, tu tens alguém ali que pode evitar que aquele dano continue existindo e, ainda assim, tu precisas de uma ordem judicial para tanto. E essa (29:44) seria, na visão do Toffoli, e rebatida por muitas pessoas, a crítica que se faz. Na verdade, não seria uma imunidade, mas os próprios provedores defendem que o artigo 19 deveria ser considerado constitucional, porque, de uma forma ou de outra, eles são favorecidos nessa perspectiva de não ter que ficar moderando conteúdo. Deixa tudo lá o máximo que puder, porque eu, provedor, ganho com isso, sobretudo quando houver conteúdos que são (30:22) infringentes, conteúdos discutíveis ou fake news. A gente sabe, tem estudos que demonstram inclusive que conteúdos falsos acabam tendo um engajamento maior. Então, também tem um interesse econômico por trás dessas plataformas de que você não tenha a retirada tão facilitada de conteúdos.

    (30:46) É o que tu colocavas antes, não importa o conteúdo, o conteúdo traz engajamento para nós, está ótimo. Para nós, digo, para a plataforma em si.

    (30:57) Está ótimo. Guilherme, deixa eu te fazer uma pergunta. Então, qual é o impacto prático para os usuários? Para nós, qual é o impacto prático disso?

    (31:04) Eu vou ter que avançar um pouquinho aqui, porque eu preparei um material um pouco mais denso. Pelo visto, o Vinícius leu a decisão, porque ele está colocando várias coisas da decisão de 165 páginas. É um negócio denso, chato.

    (31:31) Mas tem um monte de coisa que não precisava. Às vezes, vai usando argumentos como “ah, porque as crianças…”. Sim, óbvio.

    (31:40) O que muda é que, muito provavelmente, as plataformas… inclusive uma das ordens colocadas ali é que as plataformas disponibilizem formulários eletrônicos para permitir a solicitação e a indicação de conteúdos considerados infringentes. E a decisão traz também um rumo (32:24) para o que deve ser considerado infringente, para fins da nova regulação da responsabilidade. Isso deve fazer com que as plataformas comecem a retirar conteúdos infringentes sem a necessidade de ordem judicial. Porque aqui também tem outra questão: “ah, mas e se ela não tirar?”. E se ela não tirar, ela pode ser responsabilizada objetivamente. Mas aí, para isso, eu vou ter que buscar, aí sim, a via judicial.

    (32:53) Então, se eu posso notificar a plataforma “ó, essa foto que estão divulgando minha aí, eu não autorizei, (33:00) isso é falso, é uma montagem, eu quero que vocês removam”, se eles não removerem, bom, aí eu tenho que pegar um advogado e entrar com uma ação. Mas daí eles vão ser considerados responsáveis civilmente por não terem retirado aquele conteúdo, mesmo sem a ordem judicial. Uma das grandes discussões era: “ah, mas se não tiver a ordem judicial, eu vou transferir para o provedor essa decisão”. Sim, é verdade, você vai transferir para o provedor (33:38) essa decisão. Mas entes privados precisam proteger direitos fundamentais de outras pessoas. E essa é uma coisa super interessante que, mais para o fim da decisão, vai… eu até anotei aqui. Eles destacam que a conjuntura atual deslocou o centro de enforcement dos direitos fundamentais da esfera pública para a privada. Isso se dá pela consideração, já bem conhecida no nosso (34:18) direito constitucional brasileiro, que é a eficácia horizontal dos direitos fundamentais nas relações privadas. Ou seja, nas relações privadas, as partes precisam respeitar os direitos fundamentais. Entendeu? Quando eu coloco uma regra lá no meu condomínio impedindo que, sei lá, indígenas frequentem a piscina, um exemplo absurdo qualquer, veja, eu tenho uma violação, e eu tenho o dever do condomínio de respeitar os direitos fundamentais de todas as etnias, e tudo mais. Assim como os provedores, (35:00) por se firmarem como atores que estão no centro, como a decisão coloca, dessa conjuntura de manifestação atual. Eles teriam, sim, esse dever de retirar conteúdos flagrantemente ilícitos. Claro que você pode ter dúvidas, mas aí também me parece que vai começar a se considerar a boa-fé e a diligência do provedor em lidar com esses conteúdos. Inclusive, o próprio provedor, diante de uma situação dessas, pode judicializar a questão. Ele pode retirar preventivamente, pode dizer que retirou preventivamente enquanto analisa e, depois de tomar uma decisão, pode botar no ar (35:43) de novo. Agora, por outro lado, o que a gente tem visto, e veja, eu não sei se essa inconstitucionalidade vai resolver esse problema, viu, Vinícius? Porque se diz: “ah, mas teria que ser desse jeito, porque senão vou dar poder demais para os provedores”. Não é assim que a gente lida com constitucionalidade ou inconstitucionalidade. Às vezes, a inconstitucionalidade de uma norma vai trazer efeitos negativos no ambiente de um país. Então, eu tenho que ver se é constitucional ou não, esse é o ponto. Os efeitos que isso pode ter, bom, aí é um (36:15) outro problema, que talvez o legislativo tenha que lidar. E que não vai lidar, esse é o ponto. O nó cego em que a gente está. Dificilmente vai lidar da forma adequada. Então, como vai ser agora? Cai o artigo 19 e a regra da responsabilidade é a regra do artigo 21. Ou seja, o que era exceção antes no Marco Civil, aplicável àqueles conteúdos de cenas de nudez ou atos sexuais de caráter privado, essa vai ser a regra. Tanto que o artigo 21 fala: “o provedor de aplicações (36:54) que disponibiliza conteúdo gerado por terceiro será responsabilizado subsidiariamente pela violação da intimidade (…) após o recebimento de notificação (…) deixar de promover, de forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização desse conteúdo”. Então, o próximo passo que nós vamos dar é: ora, essas empresas, que são as mais valiosas do mundo hoje, elas, sim, vão precisar implementar novos protocolos para lidar com esse tipo de demanda. Lembrando que o caso que dá origem a (37:32) toda essa discussão era uma pessoa que teve um perfil falso criado e o Facebook não quis tirar do ar, quando era evidente a ilicitude. Este é o problema que alguns colocam: os provedores não estão… “Ah, mas 90% dos conteúdos nós já retiramos”. Sim, eles têm as próprias políticas, mas parece que não está sendo suficiente. Então, eles passarão a responder diante do risco da atividade, seja nos casos do 21, ele pode ser notificado extrajudicialmente, e também passam a (38:14) responder de forma objetiva quando promoverem a recomendação, o impulsionamento e a moderação. Porque, quando eles fazem isso, acabam interferindo de forma preponderante no fluxo informacional. Lembrando outra coisa: você ainda tem impulsionamento e publicidade de material ilícito. A gente viu, durante as eleições nesses últimos períodos, pessoas que pagam para impulsionar conteúdos ilegais, flagrantemente ilegais. Essa vai ser uma nova obrigação. Eles respondem de forma objetiva quando (38:52) tiver essa recomendação e impulsionamento, quando estiver diante de contas inautênticas e desidentificadas, o que temos que ter um pouco de cuidado, porque o problema de contas automatizadas, a ideia dos robôs, poderíamos ter uma afetação na abertura que as plataformas dão para que robôs atuem lá dentro. Mas o que a gente tem visto na grande parte, no X, por exemplo, são robôs que atendem aos interesses do próprio X, porque outras aberturas para robôs, para retirar informação de lá (39:28) de dentro para produzir relatórios, eles acabaram cortando. Enfim, não é porque é robô que é ilícito, esse me parece que é o ponto aqui. Mas essa ideia de contas inautênticas e desidentificadas pode trazer talvez um dever adicional, uma obrigação adicional para eles de identificar as pessoas.

    (39:53) É o que já acaba acontecendo, Vinícius. Porque hoje, tu vais criar uma conta, tens que dar o celular e tudo mais, senão tu nem crias mais conta em lugar nenhum.

    (39:59) E sem contar que, quando a gente falava de robôs há uns anos, estávamos fazendo referência a robôs que geravam texto, seguiam perfis, esse tipo de coisa, que ficavam impulsionando conteúdos. Agora, com IA, o TikTok já fez movimentos nesse sentido, identificando de forma clara que é IA, mas criando influenciadores que são IA, pessoas que não existem, com imagem e vozes que não existem. Então, o potencial agora, o que a gente chama de robô (40:38) para impulsionar conteúdo, vai para um outro nível também com o uso de IA. A possibilidade de geração de conteúdo falso, a possibilidade de edição dos conteúdos, de pequenos ajustes para passar os conteúdos adiante… tem um monte de coisa que tu podes fazer de forma completamente automatizada e vai ficar cada vez mais difícil de acompanhar isso.

    (41:07) A gente tem um volume cada vez maior de informações e (41:15) de interações nessas redes, e se fala em geração de conteúdo sintético, ou seja, conteúdo gerado por IA para alimentar o feed particular de cada pessoa, de forma individual. O “My AI” fica criando conteúdo específico para cada um de nós numa rede social. É um cenário em que o pessoal acabou de considerar o artigo 19 inconstitucional, tentando tratar uma situação que há tempos vem se arrastando, e com certeza nós temos situações completamente novas agora, que vão ter que ser discutidas e vão levar de novo…

    (41:53) Mas talvez seja como tem que ser. Acontece, aí existe o caso concreto e a gente discute. Mas talvez o problema seja que não fosse um problema do artigo 19, sabe? E é uma das críticas que se pode fazer, que se colocou coisa demais nessa discussão aqui. A gente está falando de… e aí a importância do legislador vir e legislar sobre IA, sobre responsabilidade de provedores e sobre desinformação. Porque os robôs, aqui numa perspectiva histórica brasileira desse último período, das (42:33) últimas eleições, são as redes sociais que permitiam que você tivesse robôs que trabalhavam para reproduzir e criar um falso engajamento, uma falsa importância para conteúdos de desinformação e conteúdos falsos, criados justamente para prejudicar processos eleitorais e também para prejudicar pessoas. É nesse contexto que os robôs caem aqui, só que robô não é só para isso, esse é o problema.

    (43:03) E ainda eles trazem uma lista taxativa de situações em que eles responderiam, ou seja, aumentou-se (43:14) o rol do artigo 21 para incluir o quê? Quando que eles vão responder de forma objetiva? Crimes contra o Estado Democrático de Direito, atos de terrorismo ou preparatórios de terrorismo, crimes de induzimento, instigação ou auxílio ao suicídio e à automutilação, racismo, qualquer espécie de violência à criança e vulneráveis, qualquer espécie de violência contra a mulher, tráfico de pessoas, incitação à ameaça ou práticas de violência física ou sexual, ou ainda divulgação de fatos notoriamente inverídicos ou gravemente (43:51) descontextualizados que levem à incitação à violência física, ameaça contra a vida ou atos de violência. E ainda, divulgação de fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral. Ou seja, tudo isso atrairia a responsabilidade objetiva dos provedores. Uma das coisas que se coloca é que se fala bastante ali sobre o papel dos próprios termos de uso, da impossibilidade que as pessoas têm de discutir aqueles termos, porque são (44:22) contratos de adesão. E como há uma necessidade de que esses termos de uso, que vão guiar muitas vezes como o próprio algoritmo vai funcionar em atividades de moderação e de recomendação e impulsionamento, esses termos e esses algoritmos vão ter que incorporar essa lista aqui que o STF trouxe. Para quem não vai se aplicar essa regra? Para provedores de e-mail, para provedores (45:03) de conexão, que está fora, que é o artigo 18, mas provedores de e-mail, provedores de aplicação de reuniões, então ele fala sobre Zoom e coisas do gênero, e provedores de mensageria instantânea, exclusivamente no que concerne às comunicações interpessoais, porque esses serviços podem ser híbridos e poderiam ter incorporadas ali outras atividades, como aqueles grupos do Telegram. O próprio WhatsApp tem uns grupos diferentes lá agora. Então, se (45:42) eventualmente você começar a ter outras funcionalidades de redes sociais ali dentro, aí a gente vai ter que ver no caso concreto se também não se aplicaria. Eles falam sobre responsabilidades de marketplaces, (45:56) de marketplaces por venda de produtos, e eles seriam responsáveis, mas aí é Código de Defesa do Consumidor.

    (46:04) Sim, sim. Eu até nem vou falar aqui sobre marketplaces, pulei um pouco essa parte porque é bastante grande a decisão, devo (46:14) confessar esse mini pecado aqui que eu cometi. Mas você tem a questão de vendas de produtos ilícitos ou que não são homologados. Porque tivemos vários participantes nas audiências públicas que se fizeram antes, muitas pessoas manifestaram suas preocupações de, eventualmente, uma inconstitucionalidade do artigo 19 prejudicar marketplaces. Então, vamos falar que marketplace vai ser resolvido dessa forma. E aí a decisão também impõe aos provedores uma série de deveres de (46:52) segurança e de transparência, sobretudo para evitar, aplicando os princípios da prevenção и da precaução. Daí você falou em CDC, o Código de Defesa do Consumidor, o Código Civil, a LGPD e o Marco Civil, e a Constituição, por consequência, porque estamos no STF, eles devem ser interpretados de uma forma a compor esse fluxo de direitos. Ou seja, você precisa olhar para a relação, e aqui nós temos uma (47:30) relação de consumo. Já está reconhecido que o uso de redes sociais ou de serviços digitais, mesmo que gratuitos — que a gente sabe que não são gratuitos porque tem a monetização indireta —, se enquadram numa relação de consumo. Então, quando eu coloco todos esses diplomas legais em conjunto, o STF chega e diz que, para atender aos princípios da prevenção e precaução, em qual sentido? Eu, rede social, preciso compor um ambiente prevendo quais são os riscos para as pessoas que vão usar aquele ambiente. E com base nesses (48:10) princípios, eles devem evitar os chamados riscos sistêmicos, que daí é uma coisa que vem lá do Digital Services Act, que é amplamente… o Toffoli faz lá uma revisão das legislações internacionais e acaba chegando no DSA europeu. E que eles deveriam, baseando-se no princípio da boa-fé objetiva — e aí entra uma carga bem forte de Direito Civil —, o princípio da boa-fé objetiva tem um papel importante nas (48:45) relações privadas. Um dos papéis da boa-fé é justamente ser criadora de deveres, os deveres anexos à boa-fé objetiva. Ou seja, em qualquer relação privada, mesmo que não tenhamos em um contrato escrito certos deveres de proteção, de informação, de sigilo, mesmo que isso não esteja escrito, a consideração da boa-fé objetiva nas (49:29) relações privadas vai fazer com que eu e tu, contratantes, tenhamos que respeitar um do outro o sigilo das informações, ou eu tenho que te informar caso a utilização do meu serviço vá te causar um possível risco. Traz-se toda essa doutrina do direito civil para cá. E eu achei bem interessante, talvez um tanto quanto atípico, mas, querendo ou não, de qualquer jeito vai se aplicar. Então, o que o STF faz é trazer essa possível interpretação do 21, dizendo que alguns deveres anexos devem ser cumpridos, quais sejam: vou ler alguns aqui, é uma lista bastante grande, mas: atualizar os termos de uso, dar ampla publicidade, criar mecanismos para assegurar a autenticidade da conta e correta identificação dos usuários e para evitar a criação de contas inautênticas. Isso pode ser um problema, porque se ele responde por contas (50:49) inautênticas, vai ter que ter alguma forma de te identificar, com gov.br, sei lá. Bloquear contas automatizadas, com cuidado, repito, do problema das contas automatizadas, que nem sempre vão ser por mal. Elaborar códigos de conduta, regras padronizadas para moderação de conteúdo, constante atualização dos métodos empregados para moderação, dando ampla publicidade às modificações, combater desinformação, notícias fraudulentas, (51:25) monitorar os riscos sistêmicos, produzindo relatórios semestrais de transparência, dos quais constem os riscos identificados e as medidas preventivas — isso aqui é ipsis litteris o que a União Europeia definiu. Consigo retirar esta obrigação, este dever, da boa-fé objetiva? Consigo. Mas a forma mais segura de fazer isso seria por meio do legislador. E ainda, disponibilizar canais específicos de notificação, preferencialmente eletrônicos, para recebimento de denúncias (51:58) quanto à existência de conteúdo ofensivo ou ilícito, cuja apuração será prioritária. O que vai acontecer, me parece, é que as empresas vão precisar se especializar. Para aqueles casos mais flagrantes que estão no rol que eu falei antes, é mais fácil de resolver. Agora, como o próprio Toffoli disse, vai ter situações de zona cinzenta, situações complicadas, difíceis. E aí vai ter a diligência da empresa em regular essas situações. Me parece que entre a questão legal, seja ela qual for, (52:34) com a constitucionalidade ou agora inconstitucionalidade do artigo 19, e as pessoas conseguirem efetivamente exercer seus direitos, principalmente pessoas que têm dificuldades em lidar com a internet, mais vulneráveis, a gente tem um gap bastante grande. E me parece que seria interessante que a gente tivesse algum tipo de ferramenta ou iniciativa para intermediar esse processo, facilitar as coisas.

    (53:14) Eu encontrei lá (53:19) no documento, Guilherme, só que é lá no final, na página 165 do PDF, a última página. Eles citam lá que o Conselho Nacional de Justiça criará — eu não sei se isso aqui de fato vai acontecer — o Departamento de Acompanhamento da Internet no Brasil para monitorar o cumprimento desta decisão e o respeito aos direitos fundamentais na internet. O órgão atuará no levantamento de dados sobre a matéria, os quais serão consolidados em relatórios periódicos e embasarão estudos, diagnósticos e sugestões de estratégias (53:55) legislativas e de políticas públicas para melhoria do meio ambiente digital. O departamento atuará em colaboração com o STF e com o TSE, especialmente para o enfrentamento eficiente da desinformação e das notícias falsas no processo eleitoral. Eu não entendi muito bem, porque não tem muita informação sobre isso, mas não me parece ser algo que taparia esse gap que eu estou falando. Parece mais alguém que vai ficar observando, um observatório.

    (54:27) É uma coisa meio estranha, né? Você tem (54:32) muitas… eu queria que tivesse uma agência com a qual eu pudesse, de maneira central, conversar: “ó, estou com um problema lá no Facebook”, e eles tivessem canais para eu abrir algum tipo de demanda, que nem tem o consumidor.gov.br.

    (54:50) Que você pode usar também, dá para usar o consumidor para isso.

    (54:55) O ponto é, e eu até não tinha dado atenção para isso aqui, e critica-se muito o STF por variadas razões, (55:04) e acho que é plenamente legítimo você criticar. Isso sim é liberdade de expressão, você pode criticar os poderes constituídos. Não que o fato de você exercer sua liberdade de expressão vá transformar sua crítica automaticamente numa crítica correta, porque críticas também podem estar erradas. Agora, aqui, uma crítica talvez que se aplicaria é que isso aqui é papel do Legislativo. A decisão vai dizer que vai criar… e um dos problemas é justamente (55:41) esse: o legislador não fez o seu papel aqui. Nós estamos sofrendo por conta desta falta do legislador. Ele coloca a promoção de práticas de autorregulação regulada, que também é um caminho europeu, que você dá uma certa margem de regulação para o provedor, que na verdade já tem uma autorregulação, que são seus termos de uso, mas ele precisa ir um pouco mais além, inclusive com sistemas de gestão de risco. E uma parte da decisão diz que eles devem evitar qualquer ingerência indevida em (56:20) atividades políticas. O problema é que os provedores têm interesse em se engajar em atividades políticas, e esse pode ser um dos maiores problemas que estão por trás, que é um dos panos de fundo de toda essa problemática, que eventualmente não está relacionado com o artigo 19. Quando a gente olha para os Estados Unidos, a gente vê Elon Musk do lado do presidente eleito, que contribuiu para a eleição do presidente e vai participar do governo do presidente eleito. Veja que (56:57) isso está no centro das preocupações mundiais. Qual vai ser o papel das redes sociais diante do poder que elas têm? Isso a gente já vem falando há muito tempo. Nós já estamos vendo, e nós vimos nesses 10 anos, o que as redes sociais podem fazer com processos eleitorais, com o bem-estar das pessoas, com a autoestima de meninas, lá no caso do Instagram, e com tantos outros casos de intervenções, de interferências e de lobbies. É nesse contexto que vem essa decisão, (57:36) diante da falta do legislador em legislar. E o resultado acabou sendo esse. No final das contas, para terminar, eu acho que a pergunta que a gente deveria fazer é: o artigo 19 está sendo usado pelos provedores para permitir que danos evidentes continuem se propagando em prol da manutenção de certos conteúdos que atendam aos interesses econômicos e ideológicos dos próprios provedores? Se a resposta for sim, e se diante disso outros direitos fundamentais estão sendo preteridos, atendendo aos interesses dos provedores, de fato, algo está errado. (58:20) Agora, eu espero que aqueles que dizem que isso vai piorar a situação estejam errados. Não porque eu não gosto deles, mas porque se piorar, vai ser uma… eu espero que eles estejam errados, porque se eles estiverem certos, aí sim a situação pode piorar. E veja que a situação piorar ou melhorar não é a baliza que você usa para julgar a inconstitucionalidade de uma norma. A inconstitucionalidade é julgada num aspecto jurídico, não tão prático.

    (59:00) Quais os problemas que vai ter? Bom, aí é uma outra questão, mais pragmática. Mas, em geral, somos mais jurídicos do que pragmáticos no julgamento de inconstitucionalidades. Então, me parece que esse foi o caminho aqui.

    (59:15) Eu vou compartilhar aqui, Guilherme, rapidamente, a tela do navegador. E eu estou aqui no consumidor.gov.br. Olha só que interessante. Eu fiz uma pesquisa por “Facebook” e “Instagram”. Olha só, aqui, nos últimos 30 dias… pegar 2024. Foram contra Facebook/ (59:37) Instagram 12.000 reclamações recebidas. Total de finalizadas: 12.128. Índice de solução: 46%, está ruim. Índice de satisfação com atendimento: 1,6 de 0 a 5. Reclamações respondidas: 100%. E prazo médio de resposta: 7 dias. Se eu botar aqui para todo o histórico, ele não diz desde quando é, mas são 45.000. Então, em 2024, são 12.000, (1:00:08) no total são 45.000. Estamos falando de uns 2, 3 anos. 64% não é um número tão ruim.

    (1:00:15) Não é, mas nota 7 tu já rodas em algumas escolas por aí. Então está abaixo da nota mínima para passar. 64%. Satisfação com atendimento bem baixo, de 1 a 5, está em 2. Reclamações respondidas: 100%. Prazo médio de resposta: 7,3 dias. De fato, o pessoal anda usando sim o consumidor.gov.br para reclamar, por exemplo, do Facebook.

    (1:00:43) Além do Facebook, vamos ver se tem o Twitter aqui, agora X.

    (1:00:48) Vamos ver se… não tem ninguém reclamando do (1:00:51) Twitter nem do X.

    (1:00:54) Põe “Google”. O Google deve ter, ou “YouTube”.

    (1:00:59) Google, provedor de conteúdo e outros serviços de internet. Está aqui, Google. Vamos pegar todas. Solução menor, né? Pegar 2024, está bem maior. Tem mais reclamações, que são 23.000, (1:01:20) comparado com o Facebook. E índice de solução de 76% só em 2024. A nota de satisfação: 3,4, bem melhor que o Facebook. Recomendações respondidas: 99,9%. Demora mais para responder, quase 8 dias.

    (1:01:38) Aí o Google… olha que interessante, cara. O Google tem 101.000 reclamações no total. O Facebook tem 45.000, de todo o tempo. Índice de solução: 83% do Google, contra 65% do Face. Satisfação com o atendimento: 3,5 do Google. Reclamações respondidas: 100%. Claro que alguma coisa ficou para trás. (1:02:01) Na média, tem mais demora de resposta, 8,7 dias. Mas, sabe uma coisa interessante? No Google, você provavelmente vai ter mais retirada de questão relacionada à pesquisa. Eu não sei se entraria o YouTube junto aí.

    (1:02:18) O problema do YouTube é a própria, não só a moderação, mas o impulsionamento de conteúdo. Repito aquilo que falei.

    (1:02:26) O YouTube deve estar junto, Guilherme, porque não tem “Google” e “YouTube”. O problema desse impulsionamento e do que eles estão apresentando, eu acho que é (1:02:37) um dos grandes problemas da atualidade e acho que não é um problema do artigo 19. O que essas empresas estão fazendo para entregar conteúdos para as pessoas e o que esses conteúdos estão levando as pessoas a acreditar ou a fazer? Essa é a grande questão, a grande preocupação mundial.

    (1:03:01) Mas acho que é isso.

    (1:03:02) Beleza, cara. É bem interessante a gente ficar de olho para ver os impactos disso no dia a dia, (1:03:11) aquilo que é real, no sentido do impacto que a gente tem no nosso cotidiano. Quando alguém vem nos procurar ou tirar dúvida com a gente, às vezes familiar, amigo, sabem que a gente lida com esse tipo de assunto, e o pessoal às vezes vem meio desesperado, e a gente não sabe o que fazer. Teve uma situação, Guilherme, eu não vou citar aqui o nome da instituição, mas pessoas dessa instituição me (1:03:44) procuraram porque olha o que aconteceu: tem um telefone de atendimento dessa instituição, e a IA do WhatsApp começou a entregar, quando o pessoal procurava o telefone da instituição, estava entregando o número de celular particular de uma pessoa.

    (1:04:09) Estava na internet isso ou não?

    (1:04:10) Eu não sei, cara. Não sei como o negócio pegou. O pessoal não sabe também, e eles não estavam conseguindo falar com o Facebook para tirar o telefone de lá. Tu perguntavas o telefone para o serviço tal e (1:04:24) dava o telefone da pessoa.

    (1:04:25) Tu dizes que é a IA do WhatsApp?

    (1:04:27) A IA do WhatsApp. Vai saber se não estava no treinamento dela ou se ela estava buscando isso em algum lugar. Cara, o negócio é meio… a gente fica de mãos atadas.

    (1:04:38) Ainda mais sem uma legislação de IA.

    (1:04:40) Sim, é outro tema. Esse já é para outro episódio. Na verdade, este é o “Especial Marco Civil da Internet Parte 2”, que só demorou 10 anos para sair.

    (1:04:52) É de 10 em 10. A outra, daqui a 10 anos. (1:04:56) O que vamos fazer, né? Se a gente já está há mais tempo nessa estrada, vamos fazer o quê?

    (1:05:05) Café? Não, hoje não é café. Se tivesse café expresso, eu já disse, seria para o Bacen, por ter comunicado.

    (1:05:14) Numa pesquisa que eles fizeram, publicaram os dados das pessoas que participaram da pesquisa. Não sei em qual contexto, só vi o que eles falaram. Alguém rateou alguma coisinha lá e escorregou no botão (1:05:33) do mouse. Pode acontecer.

    (1:05:35) Então, está bom. Agradecemos a todos aqueles e aquelas que nos acompanharam até aqui e nos encontraremos no próximo episódio do podcast Segurança Legal.

    (1:05:46) Até a próxima.

    (1:05:47) Até a próxima.

     

    ...more
    View all episodesView all episodes
    Download on the App Store

    Segurança LegalBy Guilherme Goulart e Vinícius Serafim

    • 4
    • 4
    • 4
    • 4
    • 4

    4

    7 ratings


    More shows like Segurança Legal

    View all
    Braincast by B9

    Braincast

    108 Listeners

    RapaduraCast - Podcast de Cinema e Streaming by Cinema com Rapadura

    RapaduraCast - Podcast de Cinema e Streaming

    111 Listeners

    MacMagazine no Ar by MacMagazine.com.br

    MacMagazine no Ar

    179 Listeners

    Xadrez Verbal by Central 3 Podcasts

    Xadrez Verbal

    174 Listeners

    Giro do Loop by Loop Infinito

    Giro do Loop

    91 Listeners

    Tecnocast by Tecnoblog

    Tecnocast

    43 Listeners

    NerdCast by Jovem Nerd

    NerdCast

    1,010 Listeners

    Naruhodo by B9, Naruhodo, Ken Fujioka, Altay de Souza

    Naruhodo

    120 Listeners

    Petit Journal by Petit Journal

    Petit Journal

    78 Listeners

    Durma com essa by Nexo Jornal

    Durma com essa

    46 Listeners

    História FM by Leitura ObrigaHISTÓRIA

    História FM

    30 Listeners

    Ciência Suja by Ciência Suja

    Ciência Suja

    20 Listeners

    Vortex by Parasol Storytelling

    Vortex

    19 Listeners

    Só no Brasil by Pipoca Sound

    Só no Brasil

    4 Listeners

    IA Sob Controle - Inteligência Artificial by Alura - Hipsters Network

    IA Sob Controle - Inteligência Artificial

    0 Listeners