Segurança Legal

#395 – A inconstitucionalidade do art. 19 do MCI


Listen Later

Neste episódio comentamos a histórica decisão do STF sobre a inconstitucionalidade do artigo 19 do Marco Civil da Internet, que altera a responsabilidade civil das plataformas digitais.​ Acompanhe a análise de Guilherme Goulart e Vinícius Serafim sobre o novo regime de responsabilidade civil dos provedores de aplicação, como redes sociais e outras Big Techs. Com a decisão, a remoção de conteúdo ilícito, que antes exigia uma ordem judicial, agora pode ser feita mediante notificação extrajudicial em diversos casos. A mudança visa proteger direitos fundamentais e combater a monetização de publicações criminosas. Foi discutido o conceito de “inconstitucionalidade progressiva” e o novo dever de cuidado proativo das plataformas para monitorar e remover conteúdos graves, como atos antidemocráticos, crimes de ódio e desinformação, sob pena de configurar “falha sistêmica”.​

Para não perder nenhuma análise sobre Direito da Tecnologia e Segurança da Informação, siga o podcast na sua plataforma de áudio preferida, assine nosso canal e ative as notificações. Sua avaliação também é fundamental para que o conteúdo chegue a mais pessoas.

 Visite nossa campanha de financiamento coletivo e nos apoie!

 Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing


ShowNotes

  • Link para a tese
  • Big techs rechaçam decisão do STF, criticam instabilidade e preveem judicialização em massa
  • Livro – Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI
  • Foto do episódio: Agora – Foto de Seth Anderson de obra de Magdalena Abakanowicz

    📝 Transcrição do Episódio

    (00:02) Sejam todos muito bem-vindos e bem-vindas. Estamos de volta com o Segurança Legal, seu podcast de segurança da informação, direito da tecnologia e tecnologia e sociedade. Eu sou o Guilherme Goulart e aqui comigo está o meu amigo Vinícius Serafim. E aí, Vinícius, tudo bem? Olá, Guilherme, tudo bem? Olá aos nossos ouvintes e aos internautas que nos assistem no YouTube.
    (00:27) Sempre lembrando que para nós é fundamental a participação de todos. Para isso vocês já sabem: nós estamos no podcast@segurançalegal.com, YouTube, Mastodon, Blue Sky e Instagram. Também temos nossa campanha de financiamento coletivo no Apoia-se, em apoia.se/segurançalegal. Você pode escolher sua modalidade de apoio e participar do nosso grupo do Telegram.
    (00:49) Sempre lembrando, conclamamos que você considere apoiar um projeto independente de geração de conteúdo. Também pedimos àqueles que antes nos apoiavam e deixaram de apoiar quando fizemos a migração do PicPay de volta para o Apoia-se, pois várias pessoas não voltaram. Então, considere ajudar o podcast Segurança Legal a continuar existindo.
    (01:09) Tem o blog da Brown Pipe, a empresa que também é uma mantenedora do podcast Segurança Legal. É só entrar em brownpipe.com.br, acessar as notícias que são atualizadas semanalmente e se inscrever no mailing semanal.
    (01:29) E também, para quem estiver nos vendo no YouTube, é aquela coisa que sempre pedimos, Vinícius: se inscrever no canal, clicar no sininho e, se quiser e puder, interagir conosco pelo YouTube também é uma boa. Eu estou inscrito com o sininho ativado nos canais que assisto frequentemente, Vinícius, porque ele passa a recomendar para outras pessoas também.
    (01:47) Então é importante para entrar no algoritmo. Hoje vamos falar bastante sobre algoritmo aqui, Vinícius. Você quer dar um retorno para um ouvinte que, esses dias, te recomendou um podcast? Sim. Só… Cadê o nome dele aqui que sumiu? É o Carlos Barreto.
    (02:08) Pô, você tinha colado. Não, está aqui embaixo. Está na pauta. Poxa, Carlos, eu olhei seu nome antes e agora, quando fui falar, não o encontrava aqui na pauta. A indicação que o Carlos Barreto fez para nós foi do podcast Kill Switch. Uhum. Eu disse que iria ouvir e depois daria minha opinião sobre o podcast.
    (02:34) Eu ouvi vários episódios desde os que saíram. O último que ouvi foi bem legal, sobre por que os drones predadores (Predator Drones) estão voando sobre Los Angeles. Eu achei a abordagem deles bem interessante. É algo bem crítico, muito bem feito e que sai um pouco fora da caixa. O que eu não gostei, mas entendo perfeitamente, é que tem muita propaganda.
    (03:04) Então, tem que pular muita propaganda no começo e, lá pelo meio do episódio, também entram alguns minutos de propaganda. Tem que pular tudo. Mas aí fica a minha recomendação, Carlos, para ti e para os nossos outros ouvintes que gostam de acompanhar podcasts.
    (03:24) Eu gosto muito de usar o Pocket Casts. Dá para usar em pocketcasts.com e tem um aplicativo para celular que justamente te permite pular bem fácil. Eu acho que todos te dão alguma flexibilidade nesse sentido, de acelerar e de poder pular propaganda e coisa parecida.
    (03:48) Então, acabei usando para fazer isso também. Mas é isso, gostei, estou assinando, vou continuar assinando, está na minha lista do que eu ouço ao longo da minha semana. Está bom? É isso aí. Um grande abraço, Carlos. Obrigadão. Obrigado mesmo pela dica. Valeu muito.
    (04:11) Nós somos consumidores de podcast. Na semana passada, Vinícius, eu participei do podcast do Cesuca, que é a faculdade onde eu dou aula. Antes eu estava à frente do podcast deles, o projeto acabou e hoje uma professora retomou, e o primeiro convidado fui eu. Voltei como convidado.
    (04:30) E a gente comentava justamente isso: num momento em que cada vez mais a atenção acaba recaindo em vídeos extremamente curtos, em conteúdos extremamente curtos, o podcast permanece como uma mídia quase de resistência, como gosto de brincar aqui, no sentido de que insistimos em falar por mais tempo dos problemas. O mundo e a realidade são complexos e precisamos de tempo para refletir и para tratar sobre essas complexidades, inclusive esta grande complexidade que é o julgamento do STF.
    (05:07) Finalmente terminou o julgamento do STF sobre a inconstitucionalidade do artigo 19 do Marco Civil da Internet. Considerou-se inconstitucional, na tese que se adotou, a chamada inconstitucionalidade progressiva. Nós já gravamos sobre isso aqui, mas a ideia é que o artigo 19, que definia o regime de responsabilidade civil dos provedores — que antes somente se responsabilizariam pelo conteúdo gerado por terceiros a partir de uma ordem judicial específica —, a partir de agora…
    (05:42) Vamos falar um pouco sobre os detalhes da tese que já foi publicada. Será possível agora a retirada de conteúdos ilícitos por meio apenas da notificação extrajudicial, inclusive. Pode ser judicial, mas pode ser extrajudicial também.
    (06:02) E eles passam a ser responsáveis em certas circunstâncias. O artigo 19 ainda vai valer para alguns casos, conforme vamos ver, mas acho que é um dos grandes julgamentos do STF. O Supremo Tribunal Federal no Brasil se tornou um órgão de bastante atenção, seja pelos julgamentos envolvendo os atos antidemocráticos, mas é supercomum as pessoas que não são do direito saberem quem são os ministros, terem sua opinião sobre… Eu ia dizer justamente isso.
    (06:35) Até alguns anos atrás, você ouvia falar do STF… E tem gente que faz a crítica justamente nessa direção, de que o STF deveria ser um pouco mais discreto, mas a gente pouco ouvia falar do STF como instituição. Dificilmente ouvíamos falar de um ministro específico, talvez no meio da notícia, mas sem dar muita bola.
    (06:55) Hoje, eu não vou me arriscar aqui, mas acho que sei o nome de todos, pelo menos dos mais conhecidos. Se parar para pensar, você consegue lembrar. E alguns dizem, inclusive, Vinícius, que isso se deve ao televisionamento ou à transmissão das sessões. Eu acho, não tenho certeza, que é o único órgão que permite essa abertura.
    (07:27) Se por um lado dá uma transparência bastante grande, por outro há críticos. Principalmente alguns professores de constitucional entendem que as decisões deveriam se dar de forma fechada, aquelas discussões e embates às vezes duros que ocorrem lá dentro. Mas enfim, o propósito de falar hoje não é esse. O propósito é falarmos sobre qual será o novo regime de responsabilidade e também sobre como as coisas vão acontecer a partir de agora.
    (08:04) É importante dizer também que há várias críticas a essa decisão. Isso é plenamente possível e desejável. No regime democrático é plenamente normal discutir e criticar decisões judiciais. Claro, nós as cumprimos, mas são passíveis de discussão. Um detalhe importante, uma das críticas é que o Supremo estaria legislando nesse caso, mas na verdade o recurso que dá origem a essa tese chega em 2020 ao STF. O Marco Civil é de 2014. E o recurso chega ao STF e ele começa a ser julgado em novembro de 2024 e termina agora em junho de 2025.
    (08:45) Então, o próprio Supremo teria dado um tempo para que o Congresso legislasse sobre esse tema. Acusou-se o Supremo de estar legislando, mas o Supremo tem esse poder — e claro que se pode discutir qual é a extensão desse poder —, mas quando o Supremo julga a inconstitucionalidade de uma lei, ele tem o poder de determinar como aquela circunstância deve ser compreendida.
    (09:24) Como se deveria interpretar aquela situação com a definição da inconstitucionalidade de uma lei. Então, o que o Supremo faz é isso: “Olha, com a inconstitucionalidade do artigo 19, como devo resolver os problemas relacionados à retirada de conteúdo и também à responsabilidade ou à responsabilização de provedores de aplicação?”. Essa é a questão. E claro, o próprio Supremo também, diante das críticas de que estaria legislando, deixa bem claro no final…
    (09:59) Faz um apelo ao legislador. Diz: “Apela-se ao Congresso para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais”. Porque o fundamento foi esse. A ideia é que, segundo o Supremo, o regime atual de responsabilização e de regulação de publicações de terceiros nas redes sociais — não só nas redes sociais, mas nos provedores de aplicação — estaria deixando certos direitos fundamentais desprotegidos.
    (10:31) As pessoas precisariam de uma ordem judicial para a retirada do conteúdo. E mesmo que fosse flagrante a ilicitude do conteúdo, os provedores не teriam a obrigação de retirar o conteúdo do ar. Então isso estaria… Diga. E aí tem aquele lance que já comentamos várias vezes aqui nos vários episódios sobre esse assunto: o pessoal ganhando grana, a rede ganhando dinheiro com a divulgação daquilo, embutindo propaganda no conteúdo ilícito.
    (11:10) E usando a desculpa de “não preciso tirar isso aqui até que eu seja notificado judicialmente”. E, ao mesmo tempo, nós já tivemos vários problemas com conteúdo mesmo do podcast. Eu lembro até hoje daquela cena do Bart Simpson usando o umbigo dele para passar num scanner de retina.
    (11:41) E a gente seguiu exatamente o que se permitia com relação ao uso de trechos de obras. Nós poderíamos ter usado, estava dentro da lei. Nós usamos, colocamos no YouTube, no episódio na época, e o YouTube, sem mais nem menos, nos derrubou porque tinha conteúdo protegido.
    (12:04) E isso a gente podia fazer, a gente fez certo, dentro da lei, o uso daquelas imagens. E, por outro lado, coisas que não importavam a eles, ou que não feriam seus interesses — pelo contrário, coisas que viralizavam, ainda que causando prejuízo a terceiros, sejam prejuízos morais a pessoas físicas.
    (12:33) Eles mantinham até receber uma notificação judicial e ficavam ganhando grana. É, até esperar a decisão judicial. “Enquanto não viesse, eu não sou obrigado a tirar isso aqui.” Isso mudou. Acho que o papel dos provedores mudou muito nos últimos tempos. Questões como o próprio feed infinito ou como a organização do conteúdo… Não estou falando em moderação, estou falando em como os provedores utilizam hoje para te mostrar coisas.
    (13:09) E essa organização e esse impulsionamento, seja o impulsionamento pago ou o impulsionamento pelos próprios algoritmos, que em alguns casos vão entender que aquele conteúdo, às vezes ilícito, é passível de maior visualização e viralização. E esse é um dos focos da sua responsabilização, porque se eles ganham dinheiro com isso, teriam que suportar os riscos de organizar conteúdo dessa forma. Inclusive, o ministro Toffoli falou sobre a teoria do risco-proveito, que é uma teoria existente dentro da responsabilidade civil.
    (13:50) Basicamente, em resumo, se você tem uma atividade e tem ganho com aquilo, aquele seu ganho justificaria você se responsabilizar pelos riscos que aquela atividade produz. E no caso aqui, seria o risco, para mim bastante evidente, de que conteúdos mais críticos — mas não crítico, aqui estamos falando de ilicitude — têm um potencial de viralizarem e engajarem mais. As redes sociais, sobretudo, perceberam isso.
    (14:26) É aquela coisa que eu já comentei aqui, mas sugiro que você faça essa experiência: abra o YouTube, crie uma conta nova e comece a ver o tipo de conteúdo que vai te ser recomendado. Você fez isso e não foi nem um pouco legal, não é? Não foi, foram coisas bem ruins.
    (14:45) Foram coisas bem ruins. Tóxicas? Demais. Tóxicas demais, demais, demais. E aí nós temos também uma coisa evidente, e isso não é ilícito: não vejo como ilícito uma empresa ter um alinhamento político. As empresas podem ter, é plenamente possível, normal, não tem problema nenhum. Agora, quando você coloca isso no algoritmo e passa a influenciar de forma muito intensa a organização e o favorecimento de certos conteúdos, me parece que isso passa a ser um problema, sobretudo num contexto mais coletivo.
    (15:26) Acho que a decisão também aborda um pouco isso. Essa tese trouxe várias regras que vão começar a valer agora para a questão do conteúdo na internet. Vamos deixar no show notes.
    (15:52) O ministro Toffoli até comentou que se buscou aproveitar a sistemática do próprio Marco Civil e também do direito civil no que diz respeito à responsabilidade civil. E essa ideia do risco-proveito foi mencionada no voto dele. A tese buscaria, segundo ele, preencher a inconstitucionalidade do artigo 19 com outras regras presentes no próprio Marco Civil, que seria o artigo 21.
    (16:23) E o artigo 21 fala sobre as possibilidades de retirada de conteúdo sem a necessidade de ordem judicial. Então, se se define a inconstitucionalidade do 19, aproveitando a saída do artigo 21. Essa discussão houve lá no início, antes de 2014, antes do Marco Civil. E essa foi uma das discussões colocadas. A grande questão é que me parece que a forma como os conteúdos são apresentados mudou bastante nesses últimos 11 anos. E a ideia é que esse preenchimento de uma nova forma de se organizar e de se regular a questão do conteúdo visaria justamente a…
    (17:03) proteção de outros direitos fundamentais que estariam sendo desrespeitados pela forma com que o artigo 19 está sendo aplicado hoje. Guilherme, só… Diga sempre, pode falar. Não, eu ia dizer, você sempre pode interromper para fazer qualquer observação. Só deixa eu te fazer uma pergunta.
    (17:25) A partir de quando começa a valer isso que a gente vai discutir agora? Pois é, essa é uma questão… Eu estava ouvindo hoje de manhã um podcast da Folha, e se aventou justamente isso. Porque a gente tem a tese, mas ainda não temos o acórdão. E ainda seria passível, com a publicação do acórdão, de embargos declaratórios por causa de omissões da decisão. Então, o que acredito que vai acontecer é que questões como o prazo — porque certamente terá que se dar um prazo para os provedores se adaptarem a essas novas regras…
    (17:57) Acredito que no acórdão teremos essa informação. E acredito também, e as próprias Big Techs disseram isso… Claro que as Big Techs não gostaram disso. Óbvio. E é natural também elas não gostarem, porque isso vai interferir, vai tornar a atividade delas sim, mais complexa e sim, mais cara.
    (18:21) Mas enfim, se você tem um restaurante, você vai ter que investir em segurança alimentar. A comparação não é bem boa, e essa é uma outra coisa: a decisão fez várias comparações, e é difícil comparar atividades fora da internet com a dinâmica da internet. Claro que você pode usar comparações, mas a dinâmica de organização do conteúdo e a própria utilização de algoritmos para impulsionar conteúdos de forma que você não sabe exatamente quais são os critérios usados…
    (18:56) Isso é difícil de comparar com outra coisa fora da internet. “Ah, eu tenho um restaurante, vou ter que investir em cuidado.” Sim, mas é mais fácil. Claro que isso vai te trazer um custo, mas a comparação vai no sentido de que qualquer atividade que você for desempenhar, ela vai ter um dever de cuidado. E aí as discussões que se colocam, e acho plenamente possível se discutir isso, é: “Será que o próprio Supremo não ultrapassou os limites a que ele estaria adstrito para colocar coisas que estariam fora da lei?”.
    (19:27) Ou seja, que não teriam sido estabelecidas na lei. Aí vem a crítica de que o Supremo estaria legislando. E a resposta que vem é: “Não, ele pode modular os efeitos da sua decisão para dizer que a forma de interpretar isso para ser constitucional é desta forma”. E foi o que eles fizeram aqui.
    (19:52) Essa ideia de inconstitucionalidade progressiva, e essa é uma parte mais do direito constitucional… Eu sou um civilista, não estudo profundamente o direito constitucional, mas a ideia de inconstitucionalidade progressiva, peguei num livro do Dirley da Cunha que tenho aqui, ele fala o seguinte: isso ocorre quando uma lei ou norma ainda constitucional transita progressivamente para o terreno da inconstitucionalidade em razão de superveniente modificação de determinado estado fático ou jurídico.
    (20:24) Basicamente, a realidade mudou. E em função dessa mudança da realidade, a norma que antes era constitucional deixou de ser constitucional. Essa seria a ideia de inconstitucionalidade progressiva. Utilizou-se também, e se fez referência em alguns votos, à questão de como isso é regulado lá fora, sobretudo na legislação europeia. E claro que há uma diferença. Uma das questões que se estabeleceu aqui é um dever proativo de monitoramento que não tem lá fora. E isso de fato pode ser bem difícil de se cumprir.
    (21:07) Mas uma coisa que me chama a atenção é que lá fora eles definem os deveres de acordo com o tamanho dos provedores. Então, você tem as “plataformas em linha de muito grande dimensão” — estou usando o português de Portugal —, que são os VLOPs (Very Large Online Platforms) e os motores de pesquisa em linha de muito grande dimensão.
    (21:38) Então eles fazem uma delimitação dos deveres de acordo com o tamanho da plataforma, o que não foi feito aqui. Mas notem, esse é o ponto: o mundo ideal aqui seria que nós tivéssemos uma lei que regulasse essa questão. E isso não aconteceu.
    (21:57) Tivemos um projeto de lei aqui no Brasil, o PL 2630, de responsabilização de provedores. Tinha 31 artigos, mas foi engavetado, foi arquivado. Então, não temos conseguido aqui no Brasil regular com eficiência e com a rapidez necessária no Congresso questões como responsabilidades dos provedores, o problema das fake news, a questão da IA. Temos ficado à mercê de um lobby bastante forte das Big Techs, que ocorre não somente no Brasil, mas no mundo inteiro. E isso me parece que tem nos afetado.
    (22:35) Não que, por não ter lei, o Supremo tenha que agir. O Supremo tem que agir quando ele achar que a lei é inconstitucional. Foi o que ele fez ao declarar a inconstitucionalidade da lei.
    (22:53) Mas também tem esse aspecto de o processo estar há 4, 5 anos aguardando para julgar, me parecendo uma espera por uma movimentação no Congresso, e isso não aconteceu. Então, também ficamos sujeitos ao lobby das Big Techs, e esse lobby vai recorrer. Porque quando o Supremo faz o chamamento para que se tenha uma lei, o lobby não vai parar. Então, ainda podemos ter uma lei. E você falava dessa questão da União Europeia… Mas a gente vê nos Estados Unidos um outro extremo, que é o caminho para a desregulação.
    (23:30) Não vou dizer total, mas na direção de não ter regulação nenhuma. A gente já comentou sobre a “Big, Beautiful Bill” do Trump, acho que talvez no último episódio. Um dos itens que estão lá nesse projeto de lei é uma moratória sobre a regulamentação de IA.
    (24:04) E o que tem lá é que os estados não podem… Há uma moratória em cima de regulamentação de IA, e essa moratória atingiria todos os estados. Ou seja, nenhum estado poderia, por 10 anos, colocar qualquer tipo de regulação em cima da indústria de inteligência artificial, o que é uma coisa meio surreal. Porque na medida em que você tem IA embarcada nos carros, como não vai ter regulação no setor automobilístico com uso de IA? Enfim. E a gente viu…
    (24:43) Foi o primeiro episódio que fizemos este ano, que chamamos de “parte um” e depois degringolou tudo, em que o Zuckerberg, para puxar o saco do Trump, entre aspas, acabou com a moderação como existia.
    (25:11) Inclusive, no último episódio do podcast The Hard Fork, do New York Times, eles fizeram um episódio ao vivo em São Francisco, num teatro. Foi bem interessante que eles convidaram inclusive o Sam Altman, e a OpenAI está sendo processada pelo New York Times por uso de conteúdo. Eles convidaram o Sam Altman e, no início, entre uma entrevista e outra, eles mostraram um vídeo de homenagem “em memória”, e aí aparece o Skype.
    (25:51) Aparece um outro site, uma outra aplicação que eu não conhecia, e de repente eles mostram o Zuckerberg e colocam “Moderação de conteúdo no Facebook morreu em 2025”. Esse é o ponto a que a coisa vai. Nos Estados Unidos eles querem uma coisa completamente desregulada, tanto no que diz respeito à IA, claramente, quanto às próprias redes sociais. E isso vai na contramão da União Europeia, vai na contramão do que se tem buscado historicamente dentro do Brasil.
    (26:30) Mas é o caminho que se vai pelo lobby. É isso que vai acontecer. Se for só pelo lobby, se não houver uma força contra isso, o lobby vai levar para isso aí. E isso explica o alinhamento das redes sociais com o governo Trump, porque eles têm interesses. Para as redes sociais, para as Big Techs, é melhor que não haja regulamentação.
    (26:55) E eu entendo isso, acho plenamente possível que empresas defendam o direito de defender seus interesses. No entanto, a partir do momento que esses interesses se chocam com a ordem jurídica dos países ou que promovem a não proteção de direitos fundamentais — porque é disso que estamos falando aqui, um tipo de prática que estaria deixando direitos fundamentais como a honra das pessoas desprotegidos, pessoas sendo vítimas de crimes e tudo mais.
    (27:30) Aí me parece que deve tomar lugar o interesse público. E o grande problema é quando o poder público passa a proteger ou a impedir que o interesse público seja atingido. Concordo que podemos discutir qual é a extensão da regulação. Isso é totalmente possível, é sadio, é saudável.
    (27:58) O que não me parece correto é dizer que não deve haver regulação nenhuma, porque daí seria talvez o único tipo de atividade que não conta com nenhuma regulação. Você pode fazer o que quiser. Não existe outra atividade em que isso seja possível. Qualquer coisa que você for fazer… Nós, para mantermos um escritório aberto, temos que ter um alvará. Um negócio absurdo. Quer dizer, não é absurdo ter alvará.
    (28:22) Olha aí o Guilherme defendendo que não se tenha necessidade de alvará. Não, quero dizer que é uma coisa muito simples, como ter uma sala onde pessoas vão lá, entram no trabalho e vão embora. Você precisa ter uma… E uma coisa interessante também, Guilherme, é que não estamos falando de empresas pequenas e com pouco alcance.
    (28:46) Fora agora com o Trump, os Estados Unidos sempre tiveram aquela política que sempre comentamos, até elogiando, dos “deep pockets”. Ou seja, quando uma empresa que tem grana pisa na bola, as multas são feitas proporcionais ao tamanho dos bolsos daquela empresa. É proporcional, é para doer. É para fazer a empresa pagar uma multa que ela sinta, e não uma coisa que ela pague e faça de conta que não foi nada.
    (29:17) E nós fizemos historicamente várias críticas nesse sentido, porque aqui no Brasil, quando se aplica uma multa assim, parece o Dr. Evil do Austin Powers, querendo ameaçar o mundo inteiro pedindo “one million dollars”.
    (29:43) A história lá é que o cara ficou congelado durante anos, ele volta e acha que pedir 1 milhão de dólares é uma coisa absurda que ninguém vai conseguir pagar. E no entanto não é nada. O pessoal dá risada dele.
    (30:03) E a gente falava disso. As multas aqui no Brasil são, em várias situações, pífias. É, essa é uma discussão que se faz. O sistema brasileiro é um pouco diferente nessa questão de indenização punitiva. Tem uma discussão possível aí na questão das multas também. Agora, é inegável.
    (30:22) Sim, mas você percebe que a gente elogiava os Estados Unidos nesse sentido? De aplicar penalidades realmente relevantes para as empresas grandes com receita grande quando elas pisam na bola. E isso está se invertendo. Parece que está ficando: “Fiquem tranquilos, não vai ter mais multa nenhuma, façam o que quiserem”.
    (30:53) Esse, eu acho, é exatamente o ponto, Vinícius. Porque nem sempre o interesse da Big Tech vai estar alinhado com o interesse público. E é totalmente legítimo a gente discutir a extensão da decisão ou das leis. Mas não acredito que os interesses das Big Techs estejam aliados aos interesses públicos. Temos visto uma piora ao longo do tempo e o acontecimento de uma série de coisas que estão contando, pelo menos, com a forma de organização e demonstração de conteúdo promovida pelas grandes Big Techs.
    (31:30) Então, claro que elas não vão gostar. Mas quando olhamos, por exemplo, vimos as redes sociais se desligando daqueles acordos que tinham сom agências de fact-checking. Isso é uma coisa. Fake news é outra. Mas quando você deixa de aplicar moderação e deixa de fazer atividade de fact-checking e deixa de se preocupar com isso… “Ah, mas por causa da liberdade de expressão?”. Mas a liberdade de expressão enquanto direito não é um direito de exercício absoluto. Podemos discutir se…
    (32:05) eventualmente a decisão não poderia sim afetar a liberdade de expressão em alguns momentos. E também acho que é uma discussão possível. Agora, dizer que não deve haver nenhum controle também acho inadequado, acho incorreto. Bom, então tivemos esse reconhecimento que se comentou antes aqui. Ou seja, agora se disse que o artigo 19 não permitia a proteção suficiente a bens jurídicos constitucionais de alta relevância. Então, enquanto isso, deixam bem claro, tanto no ponto 2 da tese…
    (32:41) quanto no ponto 13 que faz o apelo ao legislador, é que enquanto não sobrevier nova legislação, mais uma vez, o artigo 19 deve ser interpretado de forma a dizer que os provedores de aplicação estão sujeitos à responsabilidade civil, ressalvada a aplicação das disposições específicas da legislação eleitoral. Ou seja, a parte de direito eleitoral vai continuar sendo regulada pelas regras que já existiam. Então, ele vai ser responsabilizado civilmente agora. Tira-se o 19 e aplica-se o 21. Responsabilizado pelo quê?
    (33:16) Pelos conteúdos gerados por terceiros em casos de crimes ou atos ilícitos. E aplica-se a mesma regra nos casos de contas denunciadas como inautênticas. Acho que confundiram ali em alguns momentos contas inautênticas (contas falsas) com robôs, que são coisas diferentes, e colocaram os robôs ali: “Ah, o robô publicando conteúdo ilícito”.
    (33:42) E a gente vê que às vezes há vários robôs publicando conteúdo ilícito. Acho que o problema não é o robô. Sim, porque na verdade a palavra “robô” se refere a algoritmos que vão automatizar uma série de coisas, e existem robôs por todos os lugares para coisas boas.
    (34:05) Você pode automatizar. Inclusive, tem várias aplicações para o usuário final para conectar na sua conta do Twitter (ou X), ou em outros lugares, na sua agenda, no seu e-mail, para tomar ações, ou seja, automatizar ações que você queira que sejam realizadas.
    (34:26) Então, não vejo nenhum problema em automatizar uma publicação, por exemplo, no seu X ou no seu Facebook. Isso não é crime, usar um robô. Agora, depende do que você automatiza. A ação que você automatiza, sendo com robô ou não, pode ser crime ou pode ser considerada, dependendo da plataforma, um uso não permitido.
    (34:53) Agora, o simples fato de automatizar com um robô nesse sentido não é uma coisa necessariamente criminosa. Não tem muito sentido, ainda mais em tempos de IA, em que começamos a ver cada vez mais ferramentas de IA que são agênticas, que conseguem agir em seu nome. Você concede acesso, e elas começam a fazer operações em seu nome.
    (35:19) Isso não pode ser ilegal por si só. Claro que posso fazer um agente para gerenciar negócios ilícitos, mas o problema não é o agente de IA, o problema é o negócio que é ilícito. Mas enfim, não é a ideia de que o robô é ruim. Claro, o robô que promove conteúdo ilícito, aí sim. E uma coisa interessante é que, se se tratar de crime contra a honra, aí continua valendo o artigo 19. Ou seja, em situações de…
    (35:57) crime contra a honra, aí você precisa de ordem judicial para a retirada do conteúdo. Na verdade, essa tese aqui tentou conciliar todas as decisões. Foi por maioria, teve três votos vencidos: Nunes Marques, André Mendonça e Fux.
    (36:33) Mas tentou-se encaixar. O ministro Toffoli falou em meio-termo. Parece que a questão do crime contra a honra… “Ah, mas então se alguém falar mal de mim, eu notifico e vai ter que tirar do ar?”. Não, se alguém falar mal de você, e que se encaixe, claro, no crime contra a honra, aí você precisaria de uma ordem judicial. E ainda uma coisa interessante: sucessivas replicações do fato ofensivo já reconhecido por decisão judicial, eles terão que remover as publicações a partir da notificação.
    (37:03) Então, se se entendeu judicialmente que determinado conteúdo é prejudicial, você não precisa entrar com outras ações judiciais para retirar o mesmo conteúdo. Claro que isso é bem fácil de circunscrever a partir do momento que você modifica um pouco o conteúdo, talvez. Estou falando de gente mal-intencionada. Para eventualmente fugir disso ou até como uma defesa do próprio provedor: “Ah, não é exatamente o mesmo”.
    (37:27) Mudou um pouco aqui. Então, talvez surjam discussões. Há uma presunção de responsabilidade dos provedores em casos de conteúdos ilícitos nas situações em que houver anúncio e impulsionamento pago ou rede artificial de distribuição (chatbots ou robôs). E aí, nesse caso, a responsabilidade se dá independentemente de notificação.
    (37:52) O anúncio e impulsionamento é um negócio muito grave. A partir do momento em que a plataforma aceita fazer anúncio sobre determinado fato, a hipótese que se coloca é que eles teriam uma responsabilidade, um dever de cuidado maior, já que estão sendo pagos para impulsionar aquele conteúdo. E sabemos que existem diversas situações de conteúdo ilícito impulsionado de forma paga, ou até mesmo golpes impulsionados, lojas falsas e tudo mais. Isso a gente já viu acontecendo várias vezes.
    (38:28) Aproveitando aqui rapidamente, estávamos discutindo hoje de manhã: apareceu uma pretensa instituição no Instagram, como deve haver várias, com várias imagens geradas por IA solicitando doações, Pix, etc.
    (38:53) E parece que um monte de gente já estava entrando na tal vaquinha dessa instituição, e a instituição não existe. É um conteúdo que está sendo promovido. E você olha as imagens, talvez sem um olhar mais atento, mas a gente percebe: “Não, isso aqui é IA”. Então, se liguem, galera. Se liguem justamente nisso que o Guilherme está falando. Tem um bocado de coisa acontecendo agora.
    (39:23) Bom, eu acho que a novidade aqui é esse dever de cuidado dos provedores em caso de, estou lendo aqui, “circulação massiva de conteúdos ilícitos graves”. Ou seja, seria um dever de remoção proativa de conteúdo com base em uma lista, um rol taxativo que a tese coloca. Rol taxativo é uma lista fechada.
    (39:50) Então, nós vamos ter sete hipóteses, sete itens aqui nesta lista que, se ocorrerem, os provedores deveriam retirar do ar. É uma lista importante, me parece, com coisas importantes. Por exemplo, condutas e atos antidemocráticos que se amoldem aos tipos previstos no 286, parágrafo único do Código Penal, que é incitação ao crime.
    (40:25) O artigo 286 é “incitar publicamente a prática de crime”. E incorre nas mesmas penas quem incita publicamente a animosidade entre as Forças Armadas ou delas contra os poderes constitucionais. E depois aqueles crimes do 359-L até o 359-R, que são… Isso está sendo referenciado em leis que já existem há algum tempo, mas especificamente desde 2021, numa lei que foi sancionada pelo governo Bolsonaro.
    (41:25) É importante que se diga. São os chamados crimes contra as instituições democráticas, crimes esses pelos quais o próprio Bolsonaro está sendo julgado nesse momento pelo STF, como todo mundo sabe e acompanha. Mas, por exemplo, tentar com emprego de violência ou grave ameaça abolir o Estado Democrático de Direito; tentar depor por meio de violência ou grave ameaça; impedir ou perturbar a eleição; restringir o exercício de direitos políticos.
    (41:55) Destruir ou inutilizar meios de comunicação, estabelecimentos, instalações destinadas à defesa nacional com o fim de abolir o Estado Democrático de Direito. São coisas bem específicas que, acontecendo… No podcast da Folha que eu estava ouvindo hoje, comentou-se que houve vídeos no Facebook e no Instagram incitando a invasão do Supremo, e o vídeo ficou lá por duas semanas. Depois o próprio Facebook veio e disse: “Olha, de fato isso deveria ter sido retirado do ar”.
    (42:30) Deveria. E essa, acho, vai ser uma das grandes dificuldades dos provedores de aplicações agora: realizar essa remoção proativa desses crimes. Ainda, crimes de terrorismo, aí tem uma lei específica que define quais são; induzimento, instigação ou auxílio a suicídio ou à automutilação no artigo 122 do Código Penal, que vai para júri, inclusive. Isso vai na esteira daqueles desafios que ocorrem com crianças, como o desafio do desodorante.
    (43:04) Começa a acontecer. Há uma série de reportagens sobre grupos que às vezes atuam para induzir realmente adolescentes a se matarem. É um negócio que existe de verdade.
    (43:22) Não me parece que os casos mais óbvios de todas essas coisas que você listou serão grandes problemas. Acho que quando alguém está claramente dando instruções de automutilação, de cometimento de suicídio etc., as próprias plataformas já vêm, em certa medida, detectando e retirando esse tipo de comportamento.
    (43:54) Coisas que são flagrantemente criminosas, como “vou matar o fulano” ou “vamos matar o ciclano”, esse tipo de incitação me parece bem tranquila também de ser facilmente detectável e, sem dúvida nenhuma, está numa zona vermelha que se tira e acabou. Agora, acho que teremos uma série de discussões, talvez principalmente no ano que vem, que vão envolver política. Não me parece que a questão política… Acho que ela permanece sob as regras que já…
    (44:32) Ok, permanecem as regras, mas é onde vai ter discussão. Porque as coisas que são obviamente erradas são fáceis de serem tiradas. E aquela coisa que fica no meio, que não está errado, errado, errado, mas tampouco está livre de qualquer tipo de sanção? Eu te dou um exemplo disso que você está falando.
    (44:55) Por exemplo, o outro item ali é incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero. Condutas homofóbicas ou transfóbicas. Aí traz a Lei 7.716, artigo 20. Bom, não acredito que alguém possa defender que as redes sociais devam manter esse tipo de conteúdo.
    (45:18) Não faz sentido. Aí não tem dúvida. Agora, qual seria o risco? De repente, você começa a discutir sobre esses temas e, eventualmente, a rede social vai lá… Esse é o receio que alguns colocam.
    (45:37) Eu não acho que vai acontecer. Mas, por exemplo, estou discutindo sobre transfobia ou homofobia. Não vai ser assim, você vai escrever “gay” e qualquer coisa ele vai tirar do ar. Não pode ser assim. Se for, o provedor não estará cumprindo adequadamente esse dever de cuidado. O problema que alguns colocam é: de repente, discussões sobre transfobia poderiam ser encaixadas como discriminação. E aí o provedor, por ter o dever de remoção proativa, poderia retirar aquele conteúdo do ar para evitar sua responsabilização.
    (46:12) Claro que aí se inverte: a outra parte que teve o conteúdo retirado também poderia acionar o Judiciário para buscar o retorno daquele conteúdo. Mas é inegável que os próprios provedores terão que se movimentar e criar práticas a fim de identificar esses conteúdos. Porque, como você muito bem comentou, é possível, ainda mais com IA, identificar. Sim, as coisas mais evidentes e óbvias, sem dúvida nenhuma, é bem tranquilo.
    (46:51) E essa era uma das discussões: “Ah, vou transferir para as empresas o poder de julgar se é ilícito ou não”. É que, na verdade, você tem coisas, e este rol define quais são. Você tem uma lista, esse é o ponto. Não é qualquer tipo de conteúdo ilícito. Aí tem aqui crimes praticados contra a mulher, crimes sexuais contra pessoas vulneráveis, o que inclui as questões de publicação de pornografia infantil, coisas graves que os próprios provedores já retiram.
    (47:25) Eventualmente permanecem, mas em geral são bons em retirar isso do ar. E tráfico de pessoas. E aí, olha que interessante, ele define o que já outras leis definiram, mas o projeto de lei pelo menos: a tal da falha sistêmica. A responsabilidade dos provedores prevista nesse item diz respeito à configuração de falha sistêmica.
    (47:50) O que é falha sistêmica? Eles definem: “Considera-se falha sistêmica aquela imputável ao provedor de aplicações que deixa de adotar adequadas medidas de prevenção ou remoção de conteúdos ilícitos anteriormente listados, configurando violação ao dever de atuar de forma responsável, transparente e cautelosa”.
    (48:10) Lembrando que os provedores já praticam isso no que diz respeito ao acompanhamento das próprias políticas. Eles desabilitam contas, sobretudo as falsas. O próprio Instagram faz isso, desabilita. E eles às vezes publicam a quantidade de contas que, se seu algoritmo notar que a conta é inautêntica, ele vai pedir para que você se identifique, dando celular e tudo mais, para tentar evitar robôs e coisas do gênero dentro daquela plataforma.
    (48:47) Ele fala um pouco sobre as medidas que seriam adequadas. “Consideram-se adequadas as medidas, conforme o estado da técnica, que forneçam os níveis mais elevados de segurança para a atividade desempenhada pelo provedor.” E aqui eu insisto, a IA vai desempenhar um papel importante.
    (49:09) Nós também podemos discutir: “Vamos ficar com o discurso à mercê de algoritmos de IA? Isso não é um problema?”. Sim, isso pode ser um problema também. Mas, ao mesmo tempo, é um ônus de você ter sistemas de informação que estão sendo alimentados sem que se estabeleça um dever de cuidado preventivo das plataformas, em um âmbito em que elas lucram. São as maiores empresas do mundo.
    (49:39) Das 10 maiores empresas do mundo, sei lá, oito devem ser Big Techs. Então, não é um grupo de empresas que não teria como aplicar isso. E já aplicam em certa medida, quando fazem o enforcement de suas próprias políticas. O artigo 19 ainda continua aplicável para provedores de e-mail.
    (50:10) Não se aplica a provedores de aplicações cuja finalidade seja a realização de reuniões fechadas por vídeo ou voz (Google Meet, Zoom e afins). E aos provedores de mensageria instantânea, exclusivamente no que diz respeito às comunicações interpessoais. E aqui é uma questão bem interessante, porque nos instant messengers, como o WhatsApp, você tem aquela comunicação realizada entre pessoas ou num grupo. Mas o WhatsApp e outros já têm listas abertas, tipos de comunidades, grupos abertos, que se aproximam da dinâmica das redes sociais.
    (50:47) Então é bem importante diferenciar essas duas coisas, porque sabemos que a desinformação rola solta no WhatsApp. Mas a ideia aqui é que, se for mensagem privada, essa regra não se aplica, até porque vai ser criptografado. Mas com grupo aberto, aí é diferente. É, aí tem que cuidar para o pessoal não começar a querer: “Temos que verificar também no privado”.
    (51:23) “Aí não pode cifrar porque senão não dá para ver.” Essas tentativas já aconteceram, volta e meia elas voltam. Volta e meia esse assunto aparece de novo. Eu acho muito perigoso. Eu não li a lei toda, confiei em ti e na IA para me informar, mais em ti do que na IA.
    (51:53) E sempre quando se faz uma lei que tenta se fixar em algum tipo de aplicação, sempre dá errado. Citaram o Skype esses dias numa lei, acho que do Código Civil. E o Skype não existe mais, morreu este ano, 2025.
    (52:17) E então, o que temos hoje quando falamos em rede social? Facebook, Instagram, TikTok. O X, talvez. As comunidades do Reddit. Talvez os grupos do WhatsApp, os grupos do Telegram. É rede social ali. E daqui a pouco as plataformas de vídeo, o Rumble, o YouTube.
    (52:55) Não adianta querermos nos focar apenas nessas coisas. Passa um mês e alguém inventa uma coisa diferente, um bicho com cabeça diferente, com pata diferente, com rabo diferente.
    (53:17) E no entanto, se presta a fazer o mesmo tipo de coisa por outros meios, outros formatos. É sempre delicado quando se tenta vincular uma determinada lei a um tipo de aplicação específica, em vez de um tipo de ação. Porque no caso de rede social, o problema não é a rede social em si.
    (53:47) O problema é em qualquer meio que atinja publicamente um número considerável de pessoas. Porque um grupo familiar de cinco pessoas, ainda que seja uma comunidade no WhatsApp, eu estaria sujeito a ter que monitorar esse grupo? Mas se for uma comunidade com 500 pessoas, isso já é um grupo passível… A gente entra numa situação em que daqui a pouco não tem WhatsApp, não tem TikTok, tem outra porcaria qualquer que funciona um pouquinho diferente.
    (54:22) Mas que permite, por exemplo, uma conversa com 500 pessoas diretamente, como se fosse privado. E aí? Isso é rede social ou é minha conversa privada com 1.000 pessoas diferentes? E aí eu não estaria sujeito a essa regulação, porque eu tenho uma comunicação com os 1.000, disparo isso de forma autônoma para cada um.
    (54:54) É uma conversa ponto a ponto, peer-to-peer, cifrada, e eu passo o conteúdo que eu quero. Dá para fazer isso meia-boca hoje em dia, mas daqui a pouco implementam um sistema que faz exatamente isso de forma automatizada. E aí, importa como é implementado ou importam os efeitos? Mas esse é um problema que você vai encontrar sempre que for legislar sobre tecnologia. É por isso que se evita…
    (55:27) se referir a uma ferramenta ou solução e se tenta ser mais descritivo e mais conceitual, mais abstrato. Perfeito. É o princípio da neutralidade tecnológica. Mas por isso que precisamos de lei. Quando olhamos para o Digital Services Act, é um documento de 102 páginas.
    (55:57) 102 páginas com 156 considerandos que ajudam a interpretar a lei. Aqui nós temos 13, 14 teses. Quantas eram as teses de Lutero? 90 e tantas. 95. Agora não me pegou. Eu vou pesquisar aqui rapidinho.
    (56:22) Então, sim, você tem esse problema, e os próprios embargos de declaração que certamente virão podem ajudar a esclarecer esse tipo de coisa. Porque o próprio Discord… eu não sei como o classificaria, e você tem grandes problemas de conteúdo ilícito no Discord.
    (56:54) O Discord tem conversa privada, tem servidores privados. Nós estamos usando para gravar aqui um servidor privado, que não é público, só se entra por convite.
    (57:14) E tem servidores públicos no Discord com centenas de milhares de participantes. E aí, se eu mandar uma coisa imprópria aqui no nosso canal, que é eu, você, mais os guris que ajudam de vez em quando e às vezes um convidado…
    (57:39) O Discord vai ter que moderar esse conteúdo? Vai ter que retirar? Mas aí que está, note que é o mesmo mecanismo. Eu tenho aqui um servidor, por exemplo, o da OpenAI.
    (57:58) O servidor da OpenAI tem… Cara, mais de 20… Tem 21.000 usuários online nesse momento que estão nesse servidor. É óbvio que esse servidor tem muito mais alcance que o nosso servidor privado.
    (58:22) Mas o mecanismo é essencialmente o mesmo. Estamos usando a mesma feature do software. A diferença é o número de participantes. Mas aí eu acho que a decisão deixa bem explicitado aqui. E estamos falando… perdi o Código Penal de novo… aqui: “provedor de aplicações cuja finalidade primordial seja a realização de reuniões fechadas por vídeo e voz”.
    (58:57) O Discord me parece que teria as duas coisas. Um servidor privado seria uma reunião fechada. Agora, se eu abrir um servidor… Deixa eu pegar aqui o 359-L, que é a abolição violenta do Estado Democrático de Direito.
    (59:29) Então, o sujeito vai criar um servidor aberto no Discord para combinar… O fone está doendo aqui. O sujeito cria um canal chamado “Abolição Violenta do Estado Democrático de Direito”.
    (59:59) O objetivo é reunir pessoas com interesse em abolir de forma violenta o Estado. Os caras começam a discutir: quem vai invadir o quê, quem vai matar não sei quem, quem compra o quê. Ou ainda um negócio aberto onde se verifica que estão ocorrendo situações de instigação ao suicídio de menores, que é o que acontece no Discord.
    (1:00:30) Isso acontece no Discord, as reportagens que se viu aconteceram lá. Me parece que a decisão dá conta disso. Ainda há deveres adicionais aqui. “Os provedores de aplicação de internet deverão editar autorregulação que abranja sistema de notificações, devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos.”
    (1:00:54) Anúncios e impulsionamentos já dá para ver na biblioteca de anúncios da Meta, por exemplo. Mas isso esteve presente em projetos de lei passados, justamente para que eles sejam mais transparentes. Canais específicos de atendimento, essas regras vão ter que ser revisadas de forma transparente e acessível ao público.
    (1:01:15) Os provedores devem manter sede e representante no país, o que parece um aceno para o caso do X e os julgados do ministro Alexandre de Moraes. E aí, os deveres de responder perante as esferas administrativas, cumprir determinações judiciais e tudo mais. E o ponto 13, que é o apelo ao legislador que já comentamos, para elaborar a legislação. A tese se manifesta sobre o legislador por duas vezes. Primeiro, ao dizer que essas regras…
    (1:01:50) serão utilizadas até que haja uma legislação específica, e depois apelando ao legislador que legisle sobre isso. E por fim, indicando que essas regras serão aplicadas prospectivamente, ou seja, daqui para frente. Os casos passados continuam sendo julgados pela regra passada, e a partir de agora se julga a partir desta nova regra.
    (1:02:28) Lembrando que ainda precisamos da publicação do acórdão e aguardar eventuais embargos de declaração para sanar algumas dessas dúvidas, até sobre essa questão do Discord, que é um negócio meio diferente, é muitas coisas numa coisa só. É, mas é justamente isso que eu levanto.
    (1:02:52) Temos o Discord que já existe agora. Novas características são adicionadas a esses softwares, o próprio WhatsApp. E teremos novas soluções que, conceitualmente, atingirão o mesmo objetivo, que é conseguir levar uma mensagem ou conteúdo a um número muito grande de pessoas. E aí, de que número estamos falando?
    (1:03:33) Posso criar um servidor privado no Discord, você entra sob convite, e eu posso juntar milhares de pessoas ali. E por ser privado, a regra não se aplica.
    (1:03:51) Aí a regra não se aplica. Eu faço um servidor lá, convido 50.000 pessoas e fico dizendo “Vamos matar fulano, vamos matar ciclano”. Mas por ser uma conversa de natureza fechada… Eu não sei como é no Discord, mas se você for fazer no Meet, por exemplo, eles não têm condições de saber o que está acontecendo lá dentro.
    (1:04:22) Pois é. Mas esse é o ponto. Parece que isso fica de fora. Parece um pouco limitado. Conceitualmente falando, você poderia dizer que o crime é incitar a violência. Estou sugerindo aqui, é o Vinícius legislando.
    (1:04:52) Se o crime seria incitar a violência de uma forma em que se atinge um grande grupo… Não tem aquele crime de formação de quadrilha que tem um número mínimo de pessoas?
    (1:05:12) Vamos supor que seja quatro. Se formos presos em quatro, e conseguirmos provar que um dos presos não faz parte do grupo, não somos mais uma quadrilha, certo? Não, mas deixa eu te interromper, Vinícius.
    (1:05:34) A incitação ao crime é crime. O que estamos falando aqui é o dever do provedor de monitorar certos ambientes de forma proativa para indisponibilizar esse tipo de conteúdo, mesmo sem notificação. Ok. Então, ainda que eu faça isso num grupo fechado, continua sendo crime.
    (1:05:58) Só o provedor é que não teria a obrigação de monitorar meu conteúdo lá dentro. Então, se alguém do grupo vir que estamos passando um conteúdo criminoso, poderia denunciar o grupo para quem? Para a plataforma? Sim, para a polícia. Para a plataforma… É.
    (1:06:26) Era só um exemplo de como é aqui. Mas sim, eu entendi. A separação é muito clara. É o ato sendo praticado. Numa conversa um a um, se eu te incentivo ao suicídio, eu já cometo o crime. A plataforma não tem como, nem tem que me monitorar.
    (1:07:05) Entra naquele esquema da conversa entre duas pessoas ou um grupo em que está tudo cifrado e os caras não têm como olhar o conteúdo que estamos trocando. Basta pensar no julgamento dos atos antidemocráticos. Quem assistiu, e eu assisti algumas sessões no YouTube, viu que eles acabaram pegando conversas que ocorreram no WhatsApp por causa do backup. Mas aí numa circunstância totalmente diferente. O objetivo aqui não é a persecução penal.
    (1:07:51) É o dever que as plataformas têm de monitorar o que está sendo publicado publicamente. E, sem que haja necessariamente uma notificação judicial, elas são obrigadas a remover conteúdo flagrantemente criminoso dentro daquelas especificações. É isso.
    (1:08:20) Estávamos testando aqui, e eu tenho grandes reservas sobre regular discurso por IA. Porque é tudo muito bom, muito eficiente, mas não sei se quero… Mas não é o que vai acontecer, é o que já está acontecendo.
    (1:08:38) Ninguém vai botar 200 pessoas lá para ficar olhando conteúdo. Não, você vai ter que ter grupos de pessoas para eventualmente fazer avaliações pessoais, para treinar o algoritmo. E não vai ter como não ter gente trabalhando em setores específicos, que é o que eles não querem fazer, porque dá muito trabalho e é um custo muito grande. É para treinar a IA. O custo não é tão grande assim.
    (1:09:03) Tem até o livro da Kate Crawford… Ah, não, é da… Ai, meu Deus. É “O Império da IA”. O meu ainda não chegou, está na pré-venda. Deve chegar este mês. É o “Atlas of AI”, da Kate Crawford… Não, é “Empire of AI”, da… Kate…
    (1:09:33) É Kate Crawford. Não, é outra autora. É a… Enfim. O que ela coloca é justamente isso, da galera sendo contratada para treinar a IA, avaliando conteúdo, classificando, ganhando uma mixaria, quase nada.
    (1:10:04) Então, não estou dizendo que eles devam fazer isso, mas deveriam pagar melhor essas pessoas, ainda mais pelo tipo de conteúdo a que elas estão expostas. Recomendo que vocês deem uma olhada no livro. Uma das coisas que acontece com as pessoas que trabalham fazendo essa classificação é que elas ficam expostas a conteúdos bastante sensíveis, que causam perturbações psicológicas. Por exemplo, eles têm que ajudar a IA a ser treinada para não gerar pedofilia.
    (1:10:58) Eles geram imagens com pedofilia, e essas pessoas têm que classificar. Quero dizer o seguinte: não é tão caro assim. Porque se vierem com o argumento de que é caro para treinar e classificar, os caras já fazem isso há tempo. Ali ela está falando da OpenAI especificamente.
    (1:11:18) O livro é sobre a OpenAI. Então, “é muito caro para treinar”. É bom olhar o que eles andam fazendo para treinar seus algoritmos. Pode ser uma conversa meio hipócrita.
    (1:11:36) Mas o ponto, e repito, é outro problema deixar os rumos importantes da sociedade serem decididos por IA, mas não vejo como não fazer dessa forma. É outro podcast. E aí você tem o problema da transparência, da explicabilidade. E talvez tenhamos que caminhar para algoritmos, e isso é bem controverso, mas algoritmos públicos, modelos públicos. Aí o modelo, o Estado vai poder embutir formas de limitar a liberdade de expressão. Estou falando em modelos públicos, não sei como vai ser feito, mas você tem condições de publicizar modelos.
    (12:15) As próprias plataformas poderiam fazer isso. É inegável que precisamos de níveis de moderação, e esses níveis são limitados pelas capacidades técnicas.
    (1:12:45) E isso fica claro. A responsabilidade vai ficar condicionada à atividade desempenhada pelo provedor. Por isso é importante explicar o que o Discord faz. A evolução da técnica vai permitindo que novas coisas sejam feitas. Lá em 2014, você não tinha LLMs ou modelos de IA que fazem as coisas que se pode fazer hoje. Só uma observação sobre o modelo ser aberto.
    (1:13:17) Quando se fala que o modelo está disponível para download, o modelo em si é um monte de números, são os vetores. O pessoal considera isso um modelo aberto, mas não é necessariamente transparente.
    (1:13:44) Porque o que importa é saber em que condições esse modelo foi treinado: quais os pesos iniciais, os algoritmos de treinamento, a base de treinamento e de teste. E quando dizemos “qual foi”, não é uma descrição, são os dados propriamente ditos.
    (1:14:08) Isso é praticamente impossível alguém deixar completamente aberto, pelo volume de coisas e pela questão de copyright. Então, não é bem assim, um modelo aberto. E há grandes nomes, como o Dario Amodei da Anthropic, que levantam a ideia de que não é bom que os modelos sejam completamente abertos, pelo mau uso que pode ser feito deles, principalmente modelos cada vez mais avançados, tanto por privados quanto por Estados.
    (15:06) Mas isso é outra história. Quero dizer que modelo aberto é difícil. A não ser que seja um modelo… E não precisa ser um LLM para classificar essas coisas todas. Pode ser um modelo bem menor, especializado.
    (1:15:32) E aí, quem sabe, factível de ser aberto. Estávamos testando antes, e para um artigo que escrevi, criei um GPT de “análise de discursos de ódio”.
    (1:16:32) Estávamos testando e digitamos “quero matar”. Aí ele: “Isso é discurso de ódio, mas se você quiser, posso transformar em algo que não seja”. Aí ele transforma em “Tenho grandes discordâncias sobre o modelo de participação”.
    (1:17:03) A frase foi mais ou menos assim: “Eu quero matar todo mundo que gosta de cachorro-quente”. Aí ele diz: “Não, não pode dizer isso, mas pode dizer: ‘Eu discordo profundamente das ideias de quem gosta de cachorro-quente e acredito que essas ideias fazem mal para o nosso país'”.
    (1:17:29) Exatamente. Então não tem problema nenhum. Não consigo ajeitar meu chapéu, está tudo torto. Não tem problema dizer que não gosta das ideias. Agora, dizer que tem que matar o cara porque não gosta das ideias dele, aí ele não deixa.
    (1:17:48) Enfim, Guilherme, terminando, os LLMs servem para muita coisa. Mas essa é até uma crítica: estamos nessa de “LLM para toda obra”.
    (1:18:20) E às vezes você está dando um tiro de canhão numa formiga, gastando um monte de recurso por uma coisa que não precisa de um LLM. Quem sabe seja o caso. Não me parece que esse pessoal, nessa escala, tenha que ficar usando um LLM para fazer esse tipo de classificação.
    (1:18:52) Acho que eles têm bala na agulha para investir no fine-tuning de um modelo de IA para cumprir essa tarefa de forma mais específica. Esses caras têm condições, e vale a pena porque reduz custo. Um LLM superpotente para resolver um problema que não é lá essas coisas, gastando água, energia, queimando os eletrodomésticos das cidades vizinhas do data center…
    (1:19:22) Mas sabe que eu acredito que há sim um possível risco de eventuais violações à liberdade de expressão, se a coisa for mal implementada. Mas temos que notar também que a tecnologia atual não é um “Ctrl+F” que você vai buscar a mera existência de uma palavra e retirar conteúdos do ar. Não vai ser do interesse da própria IA e das próprias Big Techs ser desleixadas nessa atividade.
    (1:20:04) Podemos discutir se deveria caber a elas, mas o Supremo já decidiu. Agora cabe a elas. Quer gostem ou não, é o modelo que foi decidido. Então, vai ter que se pensar agora de forma propositiva em como fazer isso. Repetindo, não é a presença da palavra tal que vai automaticamente desabilitar conteúdos. Inclusive, tem pessoas que trocam letras por números.
    (1:20:37) Tem até portais de notícia que fazem isso. “Fulano foi vítima de estupro”, e para não escrever a palavra, fazem substituições. Com IA, isso é facilmente identificado.
    (1:21:03) Enfim, acho que já estamos nos repetindo aqui, Vinícius. Está bom. Vamos ver os próximos capítulos. Ainda não acabou. Repetindo, tem a publicação do acórdão, virão os embargos de declaração, mas a tese já está publicada. Então, acho que com isso deu para conversar e refletir um pouco sobre a tese.
    (1:21:28) O assunto é gigante. Acho que ninguém sabe ainda exatamente como isso vai ser implementado. Essa é a grande questão. E vamos aguardar. De repente, o Congresso se movimenta a partir de agora, porque isso também pode ser modificado com uma nova legislação. Certo? Certíssimo.
    (1:21:53) Então, agradecemos a todos aqueles e aquelas que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima. Até a próxima.

    ...more
    View all episodesView all episodes
    Download on the App Store

    Segurança LegalBy Guilherme Goulart e Vinícius Serafim

    • 4
    • 4
    • 4
    • 4
    • 4

    4

    7 ratings


    More shows like Segurança Legal

    View all
    Braincast by B9

    Braincast

    108 Listeners

    RapaduraCast - Podcast de Cinema e Streaming by Cinema com Rapadura

    RapaduraCast - Podcast de Cinema e Streaming

    111 Listeners

    MacMagazine no Ar by MacMagazine.com.br

    MacMagazine no Ar

    179 Listeners

    Xadrez Verbal by Central 3 Podcasts

    Xadrez Verbal

    173 Listeners

    Giro do Loop by Loop Infinito

    Giro do Loop

    91 Listeners

    Tecnocast by Tecnoblog

    Tecnocast

    42 Listeners

    NerdCast by Jovem Nerd

    NerdCast

    1,010 Listeners

    Naruhodo by B9, Naruhodo, Ken Fujioka, Altay de Souza

    Naruhodo

    120 Listeners

    Petit Journal by Petit Journal

    Petit Journal

    78 Listeners

    Durma com essa by Nexo Jornal

    Durma com essa

    46 Listeners

    História FM by Leitura ObrigaHISTÓRIA

    História FM

    30 Listeners

    Ciência Suja by Ciência Suja

    Ciência Suja

    20 Listeners

    Vortex by Parasol Storytelling

    Vortex

    19 Listeners

    Só no Brasil by Pipoca Sound

    Só no Brasil

    4 Listeners

    IA Sob Controle - Inteligência Artificial by Alura - Hipsters Network

    IA Sob Controle - Inteligência Artificial

    1 Listeners