
Sign up to save your podcasts
Or


Neste episódio comentamos a retrospectiva completa de 2024, onde você descobrirá os principais acontecimentos que moldaram a segurança da informação, o direito da tecnologia e a evolução da inteligência artificial ao longo do ano.
Guilherme Goulart e Vinícius Serafim mergulham nos tópicos mais quentes de 2024, analisando o avanço da regulação da IA na Europa com o AI Act e as movimentações da ANPD no Brasil, que lançou regulamentos cruciais sobre incidentes e o papel do encarregado de dados. O debate aprofunda-se na controversa relação entre Elon Musk, o Twitter (X) e o STF, um marco na discussão sobre a soberania digital e o poder das Big Techs. A conversa também aborda a privacidade, a ascensão de novas redes sociais, e as projeções para 2025, incluindo o combate à desinformação e o futuro da cibersegurança e da governança de dados. Para não perder futuras análises, siga e avalie nosso podcast.
Visite nossa campanha de financiamento coletivo e nos apoie!
Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing
📝 Transcrição do Episódio
(00:02) [Música] Sejam todos muito bem-vindos e bem-vindas. Estamos de volta com o último Segurança Legal de 2024, seu podcast de segurança da informação e direito da tecnologia. Eu sou o Guilherme Goulart e aqui comigo está o meu amigo Vinícius Serafim.
(00:18) E aí, Vinícius, tudo bem?
(00:19) E aí, Guilherme, tudo bem? Olá aos nossos ouvintes. Quase me matou com esse “último”. O último de 2024, eu quase morri de susto.
(00:28) Sempre lembrando que, para nós, é fundamental a participação de todos por meio de perguntas, críticas e sugestões de temas. Vocês já sabem, podem nos contatar pelo [email protected] e também nos achar no YouTube, no Mastodon ou no BlueSky como @direitodatecnologia.com e @serafim.br, além do @segurancalegalpb.social e também no Instagram.
(00:54) E também temos a nossa campanha de financiamento coletivo lá no Apoia-se: apoia.se/segurancalegal. Hoje vamos trazer alguns números, inclusive desses últimos, desse último ano.
(01:05) Tem o blog da BrownPipe, você já sabe, lá no brp.com.br, onde você consegue encontrar as notícias — algumas delas que vêm aqui para os Cafés — e também onde você consegue se inscrever no mailing semanal.
(01:17) A gente já comentou aqui no YouTube, né, Vinícius? Então, se você quiser ver o episódio — não é bem aqueles mesacasts —, mas se você quiser nos ver, também há essa possibilidade de acompanhar lá pelo YouTube.
(01:31) E eu acho que vamos começar aqui, Vinícius, esse último episódio de 2024, com primeiro um agradecimento aos ouvintes e aos apoiadores, porque, ao longo desses 12, indo para 13 anos de gravação, não adianta, embora seja um exercício que a gente faça porque a gente gosta, o projeto é feito para os usuários.
(01:54) E também a gente agradece àqueles que nos apoiam. Inclusive, teremos um sorteio, né, Vinícius?
(01:59) Sim, vamos fazer um sorteio para os nossos apoiadores. Nós vamos comunicar para não dar o nome de todo mundo aqui. Nós vamos comunicar o pessoal no grupo, tá? Então, lá no grupo que nós temos no Telegram, a gente vai comunicar os vencedores. O sorteio tem vencedor? Ganhador? Sei lá.
(02:22) Os escolhidos. E eu estava passando a conversa para o Guilherme na semana passada que nós temos que fazer umas canecas novas. Vamos ver se a gente faz alguma coisa diferente, talvez com o login da BrownPipe também, com o Sherlock prateado da BrownPipe junto na mesma caneca. O nosso pessoal que faz as canecas, vocês quando receberem, os ouvintes que receberem, ela tem lá uma tintinha que é brilhante, assim, meio metalizada. Então, acho que funcionaria bem. Eles são bons, eu achei que fica bonito.
(02:59) Mas, enfim. Eu ainda acho que tem que ser xícara, porque eu perdi essa discussão de xícara e caneca. Isso já foi, cara. Mas, se bem que, já há muito tempo, os nomes, as palavras não importam mais. Com desinformação, inteligência artificial, você pode dizer qualquer coisa de qualquer coisa que não tem mais importância. Agora que eu fui tocar nisso, vamos para a retrospectiva antes que a gente entre numa discussão filosófica aqui.
(03:27) Bom, você que nos acompanhou, Vinícius, até aqui, tem alguns numerozinhos. Lembrando apenas que a nossa última retrospectiva — isso foi bastante curioso —, a gente fez em 2020 e depois nós não fizemos mais.
(03:43) A gente não fez mais retrospectiva, é verdade. Mas, assim, um pouco também, uma das vezes eu lembro, eu estava tentando lembrar, era assim: cara, retrospectiva você para e olha para trás e começa a ver o que já foi o ano. Acho que a gente teve alguns anos meio cansativos, foram anos meio puxados aqueles. A gente queria mais que passassem logo de uma vez. Talvez por isso a gente não tenha feito. Eu lembro de estar meio cansado no final daqueles anos ali. Talvez por isso, não sei. Mas, enfim, dessa vez vai sair. Vamos lá.
(04:26) Bom, então, alguns números aqui, Vinícius e pessoal. Nós tivemos nesse ano 28 episódios, no ano de 2024, sem contar com esse. Mas seriam 29, enfim. 28, que daria 2,3 episódios por mês. Foram 33 horas e 33 minutos. Olha esse número, 33, número cabalístico.
(04:44) E o maior episódio que nós gravamos nesse ano foi o episódio 358, que foi um Café que demorou 1 hora e 51 minutos. Quase um Xadrez Verbal. Não chegou no Xadrez Verbal, que já chegou a 6 horas e pouco dias desses. O último acho que foi 6 horas e pouco.
(05:05) E nós também temos alguns números de plays. E aí é importante destacar que nós temos dois grandes medidores: os que a gente tem dos agregadores e os registros que a gente tem lá do Spotify, que não são muito bons. A gente consegue ver, por exemplo, no Spotify, o número de inscritos, que são 3.768 seguidores. Ele chama de seguidores.
(05:28) O que não significa que todos eles escutem sempre, mas a maioria do tráfego vem dos agregadores. Tanto que a gente tem aqui os números, por exemplo, do episódio mais ouvido, que foi o Café 365, que teve 4.518 views. Para nós é muito bom, porque a gente sempre fica ali em 1.000 e pouco.
(05:58) Depois, o segundo mais ouvido foi o 360, com 1.371, ambos Cafés. Ao longo do ano, foram 37.118 plays pelos agregadores, e dá para contar mais ou menos 1/3 disso pelo Spotify.
(06:24) Claro, é um podcast de nicho, Vinícius. Enfim, tem uma pegada um pouco diferente aqui. Claro, não vai ter aqueles milhões e milhões de views que, às vezes, a gente vê em outros conteúdos publicados na internet. Mas a gente considera um número interessante.
(06:44) Cara, se tu parar para pensar, vocês, nossos ouvintes, a gente acaba tendo, como é nichado, um público certamente qualificado, um público que tem uma preocupação ou um tipo de interesse específico de entender não só a tecnologia. Porque, se tu quer entender a tecnologia pela tecnologia, talvez tenha outros podcasts que tu possa ir atrás. Mas a gente tem essa visão, claro, da segurança da informação, proteção de dados e tal. E sempre que a gente vê a tecnologia, a gente vê por um ponto de vista crítico. A gente sempre pensa nos impactos, a gente procura ir um pouco mais a fundo, Guilherme.
(07:29) Embora nós sejamos entusiastas da tecnologia. Eu gosto de experimentar coisas novas, eu gosto de testar tudo que é ferramenta que eu encontro. Mas, então, além dessa questão que nós temos, desse entusiasmo, a gente também tem essa coisa de olhar com um pé um pouco mais atrás, com um pouco mais de calma. E o nosso ouvinte, quem nos acompanha, eu acho que compartilha um pouco disso com a gente, dessa coisa mais reflexiva, mais “slow”.
(08:10) Então, cara, considerando só no Spotify 3.768 seguidores, meu Deus do céu. E mais o pessoal que nos acompanha por outros agregadores, eu fico bastante feliz, cara. Porque, em quantos eventos a gente já foi falar que tinha esse número de pessoas, 4.000 pessoas, entende? Nós fazíamos muitas palestras juntos, a gente fez muito evento junto, presencial, a gente viajava pra caramba junto. E mesmo nos últimos anos que a gente tem feito coisas presenciais, cara, é difícil um evento com 1.000 pessoas.
(08:55) Nesses 12 anos, cara, mudou bastante o cenário da segurança, o cenário de eventos, o tipo de conteúdo que chama a atenção das pessoas. E, em face disso, também o foco da atenção. Nós, por exemplo, perdemos bastante ouvintes ao longo do tempo. Eu até não preparei aqui os dados de todos esses 12 anos, até porque a gente nem tem, acabou perdendo no meio desse período. Mas, mais para o início ou para o meio do podcast, a gente tinha 4.000, 5.000 views, dá para se dizer, pessoas nos ouvindo por episódio. Hoje a gente baixou para 25% disso. Eu atribuo, claro, também a uma diluição da atenção. As pessoas têm muito mais, a quantidade de podcasts que eu, por exemplo, tenho aqui cadastrado me faz diluir a minha atenção.
(09:59) A nossa base de apoiadores também, até quase como uma prestação de contas aqui, Vinícius, ela mudou bastante ao longo desse tempo. Eu tenho aqui, por exemplo, os dados desde 2018. A gente começa 2018 com 37, 2019 com 101, depois 2020 com 78, 2021 com 48, 2022 com 43, 2023 com 39 e, hoje, nós temos 43 apoiadores. É um número interessante. A gente mais uma vez agradece os nossos apoiadores.
(10:44) Mas, claro, nesse meio tempo a gente também teve aquela questão do PicPay. O PicPay nos deixou na mão, ele deixou de receber os apoios e grande parte do pessoal que estava no PicPay acabou não retornando. Esses números que eu dei são só do Apoia-se, então a gente acabou perdendo um pouco por conta do PicPay. Mas é um número interessante, porque as pessoas aqui, claro, elas fazem parte do nosso grupo lá no Telegram, mas, quando você ajuda um projeto como esse, você ajuda porque gosta do conteúdo, porque quer ajudar e tudo mais. Então a gente traz aqui esses números para que vocês também tenham uma ideia.
(11:29) E a gente tem aqui, eu tinha, Vinícius, de todo esse período, de todos esses 12 anos que a gente está no ar, o episódio mais ouvido foi o número 133, “Fundamentos de Segurança da Informação”, lá de 2017, com 6.580 views. Eu imagino que seja um episódio ouvido pelo pessoal de faculdade. Essa ideia de “fundamento de segurança”, provavelmente alguém que está fazendo cadeira de segurança ou alguma coisa do gênero acaba encontrando e ouve.
(12:02) E uma coisa bem importante, Guilherme, é dizer o seguinte: o podcast, a gente sempre deixou isso muito claro, iniciou antes da BrownPipe, mas a gente fez com o objetivo de divulgar também o nosso trabalho. Embora a gente faça muito pouca propaganda em termos comerciais, a gente não é muito bom nesse sentido. Acho que, muito frequentemente, a gente esquece de fazer as propagandas da BrownPipe. A gente põe no roteiro, mas se empolga com o assunto e esquece.
(12:31) Mas, para nós, é muito importante a divulgação do podcast, porque, uma vez que a gente o usa para divulgar o nosso trabalho, as nossas personas como pessoas que atuam na área de segurança e proteção de dados, etc. Então, a todos aqueles que em algum momento apoiaram ou divulgaram o Segurança Legal, recomendaram o Segurança Legal, também vai o nosso agradecimento, porque também é uma forma de apoio ao nosso trabalho.
(13:07) Nós temos listados hoje 43 apoiadores com apoio financeiro direto, mas temos também aqueles que nos apoiam divulgando o podcast, recomendando. Então, você que faz isso, continue fazendo. E você que ainda não fez, se achar que vale a pena, que vai ser uma dica interessante para quem vai receber, por favor, indique o Segurança Legal. A gente agradece muitíssimo.
(13:29) É um apoio meio anônimo. A gente acaba sabendo eventualmente. Às vezes chegam clientes para nós e a gente pergunta sempre para saber por onde vieram, e alguns já citaram: “Olha, eu ouço o podcast”. Teve um cliente nosso que já nos ouvia há 10 anos. Essa semana teve uma reunião, também um ouvinte. A gente tem um cliente que nós atendemos este ano, entre o final do ano passado e o início deste, que já era nosso ouvinte há 10 anos, acompanhando o Segurança Legal. Então, é muito interessante também, porque nos dá um retorno indireto, um retorno para toda a BrownPipe, que não tem só eu e o Guilherme, tem mais gente trabalhando com a gente. Acaba sendo um apoio anônimo, muitas vezes, mas para nós é bastante importante.
(14:27) Bom, como vai ser a dinâmica aqui, pessoal? Nós vamos falar um pouquinho sobre o que rolou durante este ano, muito brevemente. A ideia… os episódios estão lá, você pode reescutar. Algumas ideias, de repente alguns avanços, dá uma comentada. O tempo vai passando e a gente acaba tendo mais elementos.
(14:54) Por exemplo, este ano nós tivemos menos convidados, o que valoriza ainda mais aquelas pessoas que participaram em 2024 aqui no Segurança Legal. A gente teve o Lucas Lago, no episódio 367, em junho, falando sobre o Instituto Igarapé. E tivemos o pessoal do Iris, a Luísa Dutra e a Ana Bárbara Gomes, que nos ajudaram a entender um pouco mais sobre toda aquela dinâmica de monitoramentos estatais, que é um tema que está sempre forte aqui.
(15:27) Embora a gente tenha visto, ao longo desses anos, várias dessas situações de monitoramentos estatais, 2024 foi um ano em que houve algumas situações bem interessantes. O primeiro episódio do Café, o 357, já vem com aquela ideia da “Abin paralela”, o caso da espionagem feito pela chamada “Abin paralela”, que não era paralela no final das contas. O cara aparelhou a Abin, era isso.
(15:58) Isso nos chama a atenção, Guilherme. Quando a gente viu esse assunto de novo, chama a atenção para o mau uso desse tipo de mecanismo de espionagem, não só de agência, mas de mecanismos. E o quanto a gente precisa… É natural que um Estado precise de uma agência de inteligência, que essas ferramentas eventualmente sejam utilizadas. Mas também é muito importante que tenha algum tipo de monitoramento muito próximo do uso dessas coisas. “Quem vigia o vigia?”.
(16:28) Tem que ter prestação de contas do uso desse tipo de agência e mecanismo, porque senão, dá-se abusos. E notem aqui, eu nem me refiro a abusos de políticos ou pessoas que estão no poder, de uma vertente política ou de outra, de esquerda, direita, seja o que for, mas do poder no momento. Então, é muito importante que a gente tenha recursos para acompanhar esses usos. Isso precisa ser mais aberto, nem que leve algum tempo, mas precisa ser, porque senão teremos problemas muito sérios.
(17:13) Esse caso da Abin paralela acabou entrando também em todo o ano de 2024, o das invasões, dos atos golpistas e tudo mais. Alguns dos dados obtidos para algumas perseguições foram obtidos pelo caso da Abin paralela. Ou seja, um órgão de Estado sendo utilizado para perseguição política de jornalistas e opositores do governo, que é um negócio que a gente vê em outros regimes, outros países, e é complicado ver isso acontecendo aqui.
(17:51) E aí tem o link, esse é o ponto. Claro que a gente fala aqui sobre segurança, tecnologia e sociedade. O foco é a tecnologia, a segurança, mas, cada vez mais, os mecanismos de controle e conformidade dessas ferramentas passam a estar diretamente ligados à manutenção dos próprios regimes democráticos. Violam-se princípios democráticos quando esses sistemas tecnológicos funcionam sem controle.
(18:25) E tu tens não só esse uso político, digamos assim, desse tipo de mecanismo, mas tu tens o uso pelo crime também, como a gente gravou no primeiro episódio do Segurança Legal, que foi do sistema Consultas Integradas. E agora, em 18 de outubro, no episódio 378, nós tivemos o caso do Córtex. De novo, um uso de um sistema desses que agrega informação sobre as pessoas sendo utilizado pela bandidagem para ameaçar delegado, ameaçar juiz.
(19:08) No caso de Consultas Integradas, usaram para matar… não, foi atentado ou mataram? Eles perseguiram uma juíza, mas acho que não chegaram a matar.
(19:20) E no Córtex, que a gente comentou no 378, em outubro, a gente teve um delegado sendo ameaçado com dados tirados do Córtex. Então, é aquela coisa, Guilherme, acho que a gente vai continuar vendo esse tipo de coisa. Aconteceu esse ano algumas vezes, foi denunciado, pelo menos. E a gente tem que ter cada vez mais cuidado com relação a esse tipo de mecanismo. Eles devem existir? Eu acho que sim, existem justificativas para que existam. Só que os parâmetros da existência dessas coisas têm que ser muito bem avaliados, e nós não temos essa tradição.
(20:01) A ANPD, nesse episódio 357, de fevereiro de 2024, a gente já começou falando sobre duas sanções da ANPD: uma para a Secretaria de Educação do Distrito Federal, em que houve um vazamento de dados de um formulário, e onde a ANPD marcou várias violações da LGPD (falta de registro de operações, não apresentação de relatório de impacto, etc.), e também uma outra sanção do INSS.
(20:41) Começamos falando sobre as atuações da ANPD. Logo depois, também em fevereiro, episódio 358, mais ANPD. Uma nota técnica importantíssima que marcou uma posição da ANPD em relação aos serviços financeiros e bancários, que envolvia o compartilhamento de dados do INSS com instituições financeiras para o empréstimo consignado. Houve uma atuação da ANPD e fixou-se algo que a gente já sabia, claro, já estava fixado nas regras que regulam os correspondentes bancários: a responsabilidade do banco pelo ato dos correspondentes.
(21:18) Foi uma nota técnica bastante importante e acabou se fixando uma tendência, já nas decisões judiciais durante este ano de 2024. A gente faz um acompanhamento aqui e a grande maioria, a maciça maioria das decisões envolvendo LGPD foram em relações bancárias, questões envolvendo prestação de serviços financeiros.
(21:50) Também, Vinícius, em 2024, lá em fevereiro, episódio 358, foi o ano em que se começou toda aquela questão da proibição dos celulares em escolas. O primeiro foi o Rio de Janeiro. A gente teve a notícia de que o Rio de Janeiro proibiu celular em escolas por via de decreto. Isso foi logo no início do ano. Claro que, no resto do mundo, a discussão já começava antes, em 2023, ali em meados de junho, julho, no retorno das aulas. E esse assunto veio sendo discutido.
(22:31) E aqui, Guilherme, eu acabei pulando: o programa espião do governo, o Córtex, que acabou vazando dados do delegado, começou já em fevereiro. A gente voltou a esse assunto mais tarde. E uma outra curiosidade das ações da IA: a Air Canada botou uma IA para fazer atendimento aos clientes no site e ela acabou inventando uma política de reembolso que a Air Canada não tinha. A IA inventou a política, a pessoa, o cliente, confiou no que ela disse, seguiu as instruções e depois a Air Canada quis dizer que não tinha essa política, que foi um negócio do chatbot e não tinha nada a ver com eles. Azar o deles, a IA fez em nome da Air Canada, então a empresa teve que pagar, fazer um reembolso. Foi bem interessante.
(23:33) O que chama a atenção aqui é: cuidado onde você vai botar a IA, pelo menos com os problemas que nós temos hoje, porque acontece esse tipo de coisa e você pode ser responsabilizado, sim, pelo que a IA está produzindo em seu nome. Eles queriam dizer que a responsabilidade era daquele chatbot enquanto um ente. Ah, vai tomar banho, cara. Não tem nada a ver, mas ainda não está maduro esse tema.
(24:02) Claro que não. Bom, episódio 360, chamou bastante a atenção a condenação do TikTok em R$23 milhões pela justiça do Maranhão. A gente vê essas notícias “condenado em…”, e esse episódio foi em março. As pessoas, de maneira geral, acham que o TikTok já pagou essa grana para o governo. Não, você tem todo o processo, as possibilidades de recurso. Aqui foi um processo judicial, mas em processos administrativos também há recursos, inclusive podendo chegar ao judiciário. Até hoje, está no tribunal, mas ainda aguardando o julgamento do recurso. Então nós não sabemos se aquela notícia que nós falamos com tanta ênfase realmente vai culminar no pagamento dessa multa. Lembrando que foi pela justiça do Maranhão, não pela ANPD.
(25:01) E também tem mais uma, não sei se curiosidade, Vinícius, mas mais uma atuação de outras IAs fazendo coisas que a gente não sabe direito como elas chegam àquelas conclusões. Um problema de explicabilidade, de maneira geral. Chamou a atenção esse artigo do MIT Technology Review, cujo título em tradução livre é “Os grandes modelos de linguagem podem nos deixar de boca aberta, mas ninguém sabe exatamente porquê”. Chama a atenção para essa questão da necessidade de explicabilidade do que os modelos fazem. Esse é um artigo bastante interessante, recomendo a leitura. O link está funcionando, “bonitão”, ainda lá no episódio. Vale a pena dar uma olhada. Eu falei “ainda está funcionando” porque, às vezes, o pessoal muda as coisas e os links que a gente coloca no show notes vão para o beleléu.
(26:05) É um grande… a gente fala em esquecimento às vezes na internet, aquela questão da prevalência, mas naturalmente, dentro desse ecossistema que é a internet, tem muita coisa que acaba sendo esquecida. Engraçado isso, principalmente quando a gente pega nossos episódios mais antigos, tenta ver os links, está tudo quebrado.
(26:29) Bom, lá em 23 e 28 de março, nós fizemos dois episódios, um depois do outro, falando sobre a questão do tratamento de dados pelas farmácias aqui no Brasil. Eu acho, Vinícius, que, com claro, todos os episódios são legais, mas esses dois foram os mais interessantes, porque a gente meio que fez uma análise, uma coisa mais “mão na massa” mesmo.
(26:54) A gente pegou e pediu os nossos dados de algumas farmácias e tentamos fazer algumas projeções e previsões, aquela ideia de análise preditiva sobre quais seriam as características dos titulares daqueles dados. E foi bastante interessante. Eu sugiro que, se você não escutou, escute. Porque, somente com dados muito básicos de compras muito básicas em farmácias, foi possível saber muito sobre nós. E usando uma IA genérica, um ChatGPT. Na época, foi em março, a gente deve ter utilizado o GPT-4.
(27:40) Então, com uma LLM, não era uma coisa específica para fazer aquela análise, e não eram dados tão precisos. Foi bem interessante. E sobre essa questão das farmácias, dando um salto aqui para o 382, agora de 20 de dezembro, a gente teve também uma notícia sobre a multa da Droga Raia em R$8,5 milhões pelo Procon de Minas. Claro, vai ter recurso, toda aquela coisa como está acontecendo com o TikTok. Bom, depois tem algumas previsões ali sobre as farmácias, eu vou guardar para depois, para o que eu acho que vai acontecer. Fique até o fim para saber.
(28:30) Em abril, no Café 363, a gente começou falando sobre uma resolução do Conanda superimportante. Eu até escrevi um artigo sobre isso e participei de um workshop de inteligência artificial na educação, onde falei sobre essa resolução que traz uma série de disposições sobre a proteção de crianças na internet, deveres dos provedores, as informações que eles precisam dar, deveres de manter um ambiente saudável, apropriado, informações em linguagem simples, acessíveis, privacy by default. Uma série de questões que estão nessa resolução.
(29:17) Foi interessante, porque eu vi com bastante otimismo essa resolução de abril de 2024. E, cara, foi engraçado, porque eu não vi um reflexo muito perceptível. Parece que a coisa ficou meio esquecida durante este ano. A gente foi consumido um pouco, as nossas atenções acabam sendo direcionadas para a Inteligência Artificial, mas há uma série de outras coisas no direito da tecnologia, e a proteção de crianças na internet é um tema ultrarrelevante, presente no mundo, e um tema que a gente gosta, temos vários episódios sobre isso. Então, ao mesmo tempo que eu vi com otimismo, o tempo acabou me mostrando que talvez não tenha trazido um efeito importante.
(30:11) Algo me diz que em 2025… uma previsão, Guilherme. Não quer guardá-la para o fim? É que eu vou esquecer. Algo me diz que, em 2025, nós vamos falar muito sobre o tema de uso de tecnologia por crianças, dado o que a gente tem visto em relação a escolas, ao impacto. E, cara, francamente, o Jonathan Haidt, que escreveu “Geração Ansiosa”, ele levanta a bola para muita coisa importante. E parece que deu aquele… chamaram ele no Roda Viva, apareceu no Fantástico, e a coisa meio que dá uma morrida, passa a novidade. Algo me diz que a gente vai ter que voltar, inclusive por causa da IA também, que vai nos forçar a olhar com um pouco mais de cuidado para a formação das crianças.
(31:21) Eu não estou falando só da questão de conteúdo em escolas, mas dessa formação de uso da tecnologia, formação essa que os próprios pais não têm. Você tem um monte de gente que sabe aquela história do “faça o que eu digo, não faça o que eu fumo”. Temos muita gente já viciada na tecnologia, e a gente quer que essas pessoas orientem as crianças. É um negócio meio complicado. Mas, enfim, isso é um tema para episódios do ano que vem. Essa é minha previsão.
(31:51) E vou adiante aqui, Guilherme. Em abril, a gente deu a notícia do que aconteceu em 29 de março de 2024, que foi a passagem do Ross Anderson, o cara que escreveu “Security Engineering”, um baita livro sobre segurança da informação. Inclusive, as edições anteriores estão na íntegra na internet. Se você procurar por Ross Anderson, vai cair no site dele e encontrar. O Bruce Schneier fez um memorial sobre o autor, tem o link lá no episódio 363, mas está em inglês. Joga lá no ChatGPT para traduzir, é pelo menos um bom uso de IA. Infelizmente, faleceu o Ross Anderson.
(32:44) E também, ali em abril, a Meta lançou o Llama 3, o seu modelo LLM open source. Então você pode baixar o modelo. Eu não sei se “open source” é o termo correto, mas é um modelo que você pode baixar. Lembrando que o GPT você pode usar, mas não pode baixar. E a Meta lançou o Llama 3 em vários tamanhos diferentes, de 8 a 70 bilhões de parâmetros. O de 8 eu consigo rodar, o de 70 não, infelizmente. Mas vamos lá.
(33:30) Isso fechou abril. Maio… Bom, em maio, nós, pelo menos aqui no Rio Grande do Sul, fomos arrebatados pelas enchentes. Então a gente começa o nosso episódio 364, foi o episódio da enchente. O Vinícius conta rapidinho: eu estava… porque 3 de Maio, que é o nome da cidade onde eu resido, também é feriado. Aproveitei, a gente aproveita para viajar. E nós tínhamos viajado e voltamos no dia que começou, 1º de maio, né? Entre 30 de abril e 1º de maio que começaram as enchentes.
(34:31) A gente chega… eu chego em Porto Alegre na madrugada de sexta-feira, uma da manhã. E o meu carro estava na garagem do aeroporto, que depois alagou tudo. Eu estava com a família toda. E a gente foi meio que fugindo do negócio. E fomos privilegiados, porque nós fomos atingidos assim, voltando de viagem. A gente pôde cancelar o hotel, que era muito próximo do Guaíba, que foi afetado. O hotel foi todo alagado.
(35:12) A gente viu de manhã cedo, no Pepsi On Stage, que é um lugar de shows bem na frente do aeroporto, um monte de gente que a prefeitura estava levando para lá, desabrigados. E de manhã, no hotel, a gente vê a notícia de que a prefeitura estava retirando o pessoal dali, porque a água podia chegar até lá. Eu ficaria no hotel mais alguns dias. E eu falei para minha esposa, para a Rafa: “Vamos cair fora daqui, porque se estão tirando gente de lá de trás, nós estamos mais perto do Guaíba ainda. Vamos embora antes que dê problema”.
(35:54) E a gente saiu do hotel e fomos para um lugar mais alto em Porto Alegre. Conseguimos pegar um Airbnb num ponto bem mais alto. E, cara, outra hora eu posso entrar nos detalhes, mas, como eu disse, para nós foi chato. É o máximo que a gente pode dizer. Eu não posso dizer que a gente foi atingido, porque, apesar da tensão, a gente não perdeu nada. Estávamos em um lugar seguro, com as crianças, e podíamos levá-las para se distrair em pracinha, enquanto tinha gente com a casa embaixo d’água.
(36:50) E a gente viu, da janela do lugar onde estávamos, toda aquela movimentação de helicópteros funcionando o dia todo. E, naquela altura, já tinha gente há mais de 24 horas em cima do telhado. E estava frio, chovendo. Foi muito ruim, cara.
(37:18) O que talvez… à medida que a gente vai vendo as notícias, a situação dessas pessoas nos telhados, que é triste pra caramba, acho que incomodou muito a gente ver a falta de notícias, que foi um ponto que a gente entrou nesse episódio e estendeu para o 365.
(37:37) Notícias teve, mas falta de informação qualificada. Era tudo desencontrado. A gente não sabia que estrada estava aberta, não tinha nenhum comunicado decente da prefeitura. Foi um horror, cara. Não se tinha informação certa sobre nada. E ainda tinha gente fazendo fake news em cima do que estava acontecendo. Foi um show de horrores, de despreparo.
(38:13) E que continua, Guilherme, jogo a bola para ti. Continua. Ontem, dia 24, a gente viu uma filmagem de uma das comportas da cidade aqui que estão abandonadas. Ainda tem água lá, ou seja, não se resolveu.
(38:32) Bom dizer para o pessoal, para quem não sabe, tem uma barreira que separa o Guaíba de Porto Alegre. E essa barreira tem várias comportas. E essas comportas, obviamente, têm que ser fechadas. E elas falharam. Quando tiveram que fechar, falharam, o que deu a inundação.
(39:07) Mas o que isso tudo tem a ver, além dessas tragédias mais próximas? Toda essa relação que depois a gente acabou fazendo, seja da falta de informação, mas também a situação de danos catastróficos. Isso tem conexão com segurança. Nós vimos muitos sistemas… a gente teve uma resiliência dos nossos sistemas aqui, mas a Procergs foi muito afetada. Alguns sistemas governamentais saíram do ar porque a Procergs, a companhia onde ficam hospedados muitos dos sistemas aqui do Rio Grande do Sul, foi afetada fisicamente.
(39:48) Então, toda essa discussão sobre danos catastróficos, gestão de incidentes e de continuidade, a relação desse incidente com fake news e com sistemas de comunicação governamentais. Em agosto, foi lançado um sistema de alertas de desastres do governo federal, mas nós acabamos comentando, passando já para o 365, em 24 de maio, sobre comunicação de desastres.
(40:26) Comunicação em caso de desastres é um aspecto da própria segurança da informação, que é a disponibilidade. Dentro da disponibilidade, nós também tratamos sobre a resiliência, a forma como os sistemas são preparados para funcionar em casos de incidentes como esse. E a questão da comunicação em casos de desastres, a gente trouxe exemplos da Europa, e estamos muito longe disso. Nós tivemos outros eventos climáticos adversos aqui no Rio Grande do Sul, e ainda não temos um bom sistema de comunicação de desastres como ocorre em outros países.
(41:14) E a ineficiência do Estado, de maneira geral, a gente acabou vendo em várias frentes. O Estado falhou, e a comunicação foi só um desses aspectos. Mas comunicação salva vidas. Porque, se o Estado tivesse se preparado, entre tantas formas diferentes, a comunicação quando chega no tempo certo consegue salvar vidas. E talvez algumas vidas teriam sido salvas.
(41:48) Mas te digo assim: quando falta o cuidado com o mais básico, quando a gente tem que lidar com políticos, seja qual for o espectro, que são tão mesquinhos, a coisa é tão baixa, a gente falha nas coisas mais… a gente perde a chance. Quando a gente tem que se preocupar demais com o básico, com o que comer, a gente não tem tempo para se preocupar com as coisas mais elevadas. Enquanto tu tens que se preocupar com uma educação mal dada, com professores que não são bem pagos, enquanto tem gente que ganha muita grana e passa de uma geração para outra benefícios do governo, e a gente tem professores tão mal pagos, são coisas tão básicas que nos faltam…
(42:40) Daqui a pouco, fazer uma análise pegando o mapeamento de riscos de desabamento, alagamento, queda de barreira, seja o que for, que já tem — a gente inclusive comentou no episódio, deu até o site para consultar —, tu não consegues fazer coisas pensando mais no futuro. A gente precisa avançar muito para conseguir se preocupar nesse nível. Não deveria, mas falta infraestrutura básica.
(43:30) Enfim, cara. Ali em maio ainda, Guilherme, bem rapidinho. A gente teve aquele recall que a gente chamou de “do re-recall”. O Windows lançou aquela ferramenta bem polêmica que fica tirando prints da tua tela o tempo todo, com o objetivo de poder responder perguntas sobre o que tu estás fazendo no teu computador. Tem questão de privacidade, uma série de coisas. E eles tiveram que fazer um re-recall, tirar o negócio do ar para depois voltar. Uma grande confusão. É um daqueles usos de IA que eu acho em um momento não muito adequado. A gente não sabe direito os impactos, tem que ser melhor analisado.
(44:17) A gente teve aquela proposição de um investimento de 32 bilhões de dólares do governo norte-americano em IA por ano. Uma proposição bipartidária, lembrando que nos Estados Unidos só tem dois partidos, Democratas e Republicanos. Isso chama a atenção para o quanto os Estados Unidos estão preocupados com essa questão do desenvolvimento da IA e de se manter adiante de todos os outros países. Eles impuseram embargo à venda de chips da Nvidia para a China por questões óbvias. E, ao que tudo indica, esse tipo de investimento… eles vão continuar investindo cada vez mais em IA para manter essa liderança, esse controle dos modelos mais avançados. Eu não sei até que ponto a Meta vai continuar distribuindo modelos de LLM treinados. Vamos ver.
(45:41) E o Jan Leike, seguindo uma série de situações, com vários pesquisadores que andaram saindo da OpenAI preocupados com a questão da segurança. Ele era pesquisador sênior de segurança da OpenAI e anunciou, em maio, sua saída porque a OpenAI estaria priorizando “produtos brilhantes” sem se preocupar com a segurança, com a questão de alinhamento, ou seja, de garantir que a IA não vá causar mal nenhum à humanidade. Nós voltaremos a esse assunto. Vai lá, Guilherme.
(46:42) Bom, ainda em maio, a gente teve a aprovação do AI Act, um dos grandes marcos europeus para a regulação da Inteligência Artificial. Certamente, é o modelo que nós vamos perseguir, a iniciativa legislativa mais sofisticada. E é importante porque, no âmbito de dados pessoais, por exemplo, a União Europeia conseguiu construir regras que acabaram influenciando o mundo inteiro, sobretudo o Brasil. Então, essa aprovação é um grande marco para a regulação da IA.
(47:38) E, ainda no âmbito de proteção de dados, mais uma vez a ANPD, ali em abril, lançou o Regulamento de Comunicação de Incidentes, um dos grandes marcos da atuação da ANPD em 2024. É um regulamento absolutamente importante, que marca e deve marcar a atuação das empresas. Nós aqui, na nossa atividade, utilizamos esse regulamento para orientar clientes, para medir risco também, cumulado com o de dosimetria. Você consegue, com esses instrumentos, fazer modelagens de risco bem interessantes para que as empresas tomem decisões. Isso se deu ali no meio do ano de 2024.
(48:29) Já em junho, a partir do episódio 366, o que nos interessou foi um pouco mais essa projeção da mudança política na Europa. Porque, com as mudanças das cadeiras da extrema-direita no Parlamento Europeu, hoje você consegue avaliar bem tranquilamente, a depender do viés político de determinados grupos, e projetar ações. Consegue saber o que cada grupo político acredita ser o melhor para a regulação ou não regulação da internet.
(49:09) Uma das projeções que se fez, e que acaba se aliando à eleição de Trump agora no fim de 2024, é que talvez essa conjunção de fatores — um aumento da prevalência da extrema-direita no Parlamento Europeu e a eleição de Donald Trump, sobretudo pela atuação de Elon Musk — a gente veja uma diminuição da criação de novas regulamentações e talvez até uma revogação, como o Trump propôs, de normas que impõem limites para a IA.
(49:50) Naquele episódio, a gente falou da possibilidade de aumento de gastos de tecnologia para a Defesa Nacional, e talvez diminuição de normas sobre direitos trabalhistas e de bem-estar social, com possíveis bloqueios em normas relacionadas à tecnologia, evidentemente.
(50:12) É muito interessante porque a ONU também fez um painel chamado “AI for Good”, e a gente trouxe a opinião da Melissa Heikkilä, que foi no evento e disse que o que ela viu lá estava muito desalinhado com a IA sendo usada para atingir os objetivos de desenvolvimento sustentável promovidos pela ONU.
(50:41) E ainda, Vinícius, ali em junho, no 366, a gente vê toda aquela movimentação, mais uma vez, dos celulares. Das mães que se juntaram, foi notícia na Folha, se eu não estou enganado, para exigir a proibição do uso de celulares antes dos 14 anos, justamente inspiradas pelo livro do Jonathan Haidt. De novo, esse negócio começou no início do ano e vai ganhando tração. Vamos ver qual o resultado. E a gente teve mais eventos relacionados a essa questão, tentativa de regular esse uso de celulares no Brasil. Mas ano que vem que nós vamos ver para valer alguma mudança de fato.
(51:38) Certo. Episódio 368, Guilherme.
(51:41) Acho que a maior notícia foi o Julian Assange, que foi solto em 24 de junho. O episódio foi gravado em 5 de julho, então a gente teve essa notícia.
(51:50) Nós tivemos a ANPD, que suspendeu a política da Meta para treinar IA e impôs algumas mudanças, inclusive na questão de avisar os usuários e dar uma chance de opt-out. Essa foi minha implicância. Acho que tinha que ser opt-in e não opt-out. Você quer? Vai lá e marca dizendo que quer que seus dados sejam usados. Mas não… tu recebeu um e-mail. Cara, eu perguntei para muita gente, para colegas, professores, em vários grupos, se eles viram o e-mail informando. E a maior parte não viu. Não estou dizendo que não receberam, estou dizendo que não viram. Ficou perdido naquele monte de e-mail. Uma coisa foi a suspensão em julho, depois tem outra situação em setembro.
(52:58) E o Phil Schiller, da Apple, se juntou ao conselho da OpenAI, em julho, com o objetivo de estreitar a relação entre Apple e OpenAI. E o resultado está aí. A gente viu agora, nas últimas semanas, os anúncios que a OpenAI fez. Entre os 12 anúncios, está uma integração no sistema operacional do macOS e do iOS, do ChatGPT integrado ao sistema, não só um aplicativo desktop. Então, está rendendo frutos essa participação. Legal a gente ver o negócio em julho e o que a gente está vendo agora.
(53:50) Ainda em julho, no episódio 370, a gente teve uma ação do MPF e do Idec contra a Meta. Não envolvendo essa questão da ANPD que o Vinícius falou, do treinamento da IA, mas sim uma mudança para o compartilhamento de dados do WhatsApp com outras empresas do grupo. Isso passou por uma avaliação da ANPD, que acabou se posicionando e estipulando medidas que depois foram cumpridas pela Meta. E aí a gente viu, com bastante surpresa, essa ação.
(54:47) A gente comentou, tivemos oportunidade de comentar com o pessoal da ANPD quando eu estive no Encontro de Encarregados, em Brasília. Mas chamou bastante a atenção, porque o MPF e o Idec entraram também contra a ANPD, alegando que haveria uma imobilidade da agência ao lidar com esse tema, e que ela não quis passar certos dados para o MPF. Teve uma rusga ali. O pedido de multa foi de R$1.7 bilhão, mas obviamente não foi julgado ainda.
(55:33) Tivemos outra atuação bastante importante da ANPD, que foi o Regulamento da Atuação do Encarregado, em julho. Um documento importantíssimo que estabelece uma série de questões sobre como o encarregado deve se posicionar. E junto com o regulamento, agora em dezembro, eles lançaram o Guia Orientativo de Atuação do Encarregado, que a gente falou no último episódio.
(55:59) Também no 371, a gente deu continuidade à minha participação no primeiro Encontro de Encarregados, realizado pela ANPD em Brasília. E eu participei falando sobre incidentes de segurança em relação com proteção de dados pessoais, que é bem nosso dia a dia aqui, né, Vinícius? Foi legal falar lá e expandir um pouco dessas observações no episódio 371.
(56:22) Beleza. Ainda no 370, Guilherme. A gente teve o que foi classificado por alguns como o maior incidente relacionado à segurança da informação da história, que foi o da CrowdStrike, que desenvolve soluções de segurança. Uma de suas soluções, que faz update no Windows, atualizou centenas, senão milhares, de servidores Windows mundo afora e tirou do ar um monte de gente. O primeiro efeito que o pessoal se deu conta foi nos aeroportos, que as telas que mostram as chegadas e partidas, tudo com tela azul. Foi para o beleléu. E aí começa o efeito em cascata, bancos caíram, hospitais, outros tipos de empresas.
(57:24) E nós tivemos, mais uma vez, uma atualização da RockYou 2024, aquela lista de senhas compiladas de vazamentos. Um monte de gente noticiou como sendo 9 bilhões de senhas que vazaram. Isso é bem relativo. Primeiro, porque a RockYou é uma lista de várias senhas vazadas em situações diferentes, em anos diferentes. E esses 9 bilhões de senhas, se tu for dar uma limpada… a gente baixou da internet para dar uma olhada. Se for limpar, tirar os lixos, senhas que não fazem o menor sentido, fica um número um pouco menor. O pessoal está falando em 10 bilhões. E a minha previsão, Guilherme, é que nós teremos a RockYou 2025.
(58:16) Beleza. Bom, agosto, 372. A gente teve os 6 anos da LGPD, e a gente fez uma projeção de algumas coisas que precisam mudar. Dá para trazer alguns aspectos aqui. Essa questão de como a proteção de dados é um valor caro para a sociedade e para as empresas. É um pressuposto ético, eu diria, para o mundo dos negócios, e muitas empresas ainda não se deram conta dessa nova realidade de compliance. Você tem uma imposição legal que muitas empresas deliberadamente escolhem não cumprir.
(59:08) Basicamente, o que a gente acha que precisa mudar é justamente uma compreensão de que as empresas precisarão se adequar. E quanto mais demorarem, maior o risco e maior o custo. A gente também espera que o governo dê apoio para pequenas e médias empresas. A ANPD também acho que deveria ter um movimento mais focado para permitir que micro e pequenas empresas consigam se adequar, porque ainda é muito difícil, caro, é uma atividade complexa.
(59:47) O que precisa melhorar é uma ampliação da conscientização. Hoje mesmo eu conversava com colegas da área, amigos que trabalham com tecnologia, em cargos de elite de suas empresas, e a visão que eles têm da segurança e da proteção de dados é uma visão muito comum entre os usuários. Para mim foi surpreendente ver profissionais de elite tendo uma ideia de que segurança e proteção de dados só servem para atrapalhar o negócio. Isso envolve uma conscientização muito forte da necessidade de entender esses temas como valores importantes para uma sociedade totalmente digitalizada. Tudo é intermediado.
(1:00:53) E também uma necessidade da proteção setorial. Os órgãos, as entidades de classe, precisariam estar atentas para como podem contribuir para que seus setores consigam se adequar. Talvez seja uma falha bem importante.
(1:01:13) E, falando em adequação, Guilherme, nesse mesmo episódio, a gente comentou sobre o Twitter (X), que resolveu não cumprir ordens judiciais. O Twitter sai do Brasil, num prenúncio do que viria a ser toda aquela coisa. É engraçado, a gente olha para trás agora, quatro meses, e a carga emocional que a gente teve ao ler, ouvir e falar sobre isso foi muito grande.
(1:01:53) Porque começa ali, em agosto, o Twitter saindo, tirando sua representação do Brasil. E depois a gente viu que essa saída foi, sim, para se esquivar de cumprir ordens judiciais. A gente falou em agosto, era uma notícia relevante, mas não imaginávamos que, no 373… a gente ficou um mês sem gravar… já estava bem estabelecido todo o embróglio da decisão de bloqueio, os ataques de Musk ao STF, as discussões sobre os limites do STF para lidar com isso e de bloquear redes, as ineficiências da nossa legislação, mas, sobretudo, a ineficácia do próprio Direito.
(1:02:40) Cada vez mais, o Direito vai ficando enfraquecido perante as big techs. Esse é o pano de fundo mais importante. E quando eu falo em Direito, não me refiro somente às normas, mas ao Direito enquanto ente que regula as competências e o próprio funcionamento das instituições. E o que ficou bem evidente foi a ineficácia dos Estados, não só aqui no Brasil. O caso do bloqueio do Twitter no Brasil se projetou para outros Estados, que começaram a ver: “Opa, mas espera aí, eu também estou sujeito a enfrentar um problema desses aqui no meu país”.
(1:03:41) Então, isso foi bem complicado, uma carga emocional difícil de lidar. Depois, começou a vir à tona o conteúdo das ordens. O pessoal começou a ver que não era brincadeira.
(1:04:00) A desculpinha furada do Elon Musk… na real, ele tem um projeto político, que não se restringe apenas… não, isso está bem claro. Não é teoria da conspiração nem nada. Ele deixou bem claro. E ele ficava falando em liberdade de expressão. E aí, quando vêm à tona as ordens, tem gente sendo perseguida, tem doxxing sendo feito ali. Tem um monte de problemas, a coisa realmente… Enfim. Vamos ver o que… promete mais, porque esse cara agora, nos Estados Unidos, vai assumir, vai ter participação no governo do Trump.
(1:04:50) Um ministério lá, uma Secretaria de Eficiência Governamental. Ele já começou a falar em reduzir em 2/3 a despesa do governo. E o pessoal já está fazendo as contas lá, eu ouço uns podcasts gringos, e o pessoal fazendo as contas: “não vai dar”. Ele vai ter que começar a fazer umas coisas impossíveis logo de cara. Mas eu acho que esse cara é capaz de ser empoderado ainda mais. E vai ter gente que acha que ele é um grande lutador pela liberdade de expressão, o que já foi desmentido várias vezes pelo comportamento dele na China, com relações com a Arábia Saudita e outras coisas. O próprio funcionamento do algoritmo…
(1:05:58) É liberdade de expressão desde que não o contrarie. Se contrariar, ele tira fora, derruba os jornalistas, derruba todo mundo que fala contra ele.
(1:06:10) Em 6 de setembro, no 374, a Starlink, que não tem nada a ver com o X, eles não queriam cumprir o bloqueio. Aí, como eles tinham sido… “Então, tá bom, vocês não querem cumprir, vão pagar junto essa brincadeira”. E aí eles cedem, dizendo que vão cumprir a ordem de bloqueio. Pelo que a gente andou lendo, diferente do X, a Starlink não é só do Elon Musk, e é uma empresa preocupada com seus ganhos, sua sustentabilidade. Parece que eles disseram: “Opa, meu amigo, aqui nós vamos cumprir”.
(1:07:02) E houve também o bloqueio de contas. E toda uma discussão jurídica se a Starlink poderia… e tem toda uma teoria do grupo econômico de fato. Certamente, o STF foi muito criticado, não só por aqueles que apoiam o Elon Musk. Nós mesmos criticamos, porque parte da decisão de bloqueio impedia que as pessoas usassem VPN, o que é um absurdo completo.
(1:07:49) De novo essas decisões… faltou uma dicazinha técnica. Mas, umas horas depois, deram-se conta.
(1:07:58) A gente teve também um probleminha com a YubiKey, aquela ferramentinha de autenticação, um desses tokens físicos. Em essência, até uma certa versão, você deve controlar o acesso físico à sua YubiKey, porque se alguém tiver acesso, pode comprometer a segurança dela. Bom, se você tem uma YubiKey, volte lá no episódio 374, ouve o que a gente falou e pega o link dos materiais para ver se você foi afetado.
(1:08:52) O Ilya, Guilherme, lembra o que eu falei do pessoal saindo da OpenAI? O Ilya Sutskever. Ele é um dos caras bem importantes na OpenAI. Ele saiu fora justamente por causa de problemas relacionados à segurança e ao superalinhamento, ou seja, fazer com que a IA esteja alinhada às necessidades humanas e que não coloque nossa existência em risco. Ele cria, então, a Safe Superintelligence (SSI), e eles conseguiram levantar 1 bilhão de dólares de investimento inicial. Essa empresa ainda não tem nenhum produto, iniciou este ano. Vamos ver o que o Ilya nos trará em 2025.
(1:09:50) Lembrando que a gente nem trouxe o assunto aqui para o podcast, porque foi depois da nossa gravação, mas a OpenAI lançou o modelo GPT-A3. Eles pularam o A2, foram para o A3. Já tem um monte de gente berrando “lobo, lobo, lobo”, dizendo “a AGI chegou”. Acho que a gente tem que esperar para ver. Esse modelo A3 ainda não foi aberto ao público, está aberto para pesquisadores de IA que têm que se cadastrar.
(11:044) Bom, em setembro ainda, 375, a gente falou sobre o “Estado da Proteção de Dados no Brasil”, um estudo feito pela Cetic.br. Eles repetiram um estudo de 2021, então a gente tem os números de 2021 e 2023. A gente falou sobre como as empresas estão lidando com a adequação à LGPD. Falamos, por exemplo, que a medida mais tomada seria a adequação dos contratos e o inventário de dados pessoais. O registro das operações também, com base no inventário, está lá no final, quase dos últimos. A gente notou e fez algumas considerações sobre isso.
(11:211) Já no 376, também em setembro… dois temas. Vou primeiro falar sobre o X. De novo, o caso X, aquele cansaço mental. Muito se criticou o STF sobre o bloqueio, sempre naquela perspectiva de usar a carta da liberdade de expressão, que é uma carta válida nesse jogo de baralho democrático. Só que, como em qualquer jogo, as cartas e as peças têm limites de movimentação. Você pode abusar de direitos, inclusive da liberdade de expressão.
(11:307) E foi o que a gente viu, porque em setembro, no âmbito de novas informações sobre todo esse processo cansativo, viu-se que as ordens de bloqueio estavam relacionadas à exposição de Delegados Federais e de parentes desses delegados. Os caras começaram a fazer doxxing e a ameaçar delegados envolvidos nessas investigações. Não era uma questão de discordar, era o uso da plataforma para atingir a vida de pessoas. A gente viu que a coisa era muito mais séria.
(11:401) Teve um bloqueio, uma liberação… o Twitter (X) ficou bloqueado por uma questão da Cloudflare. Depois disseram que a Cloudflare ia colaborar, mas ela não fez nada, foi o X que mudou. Na real, o X migrou para a Cloudflare, e os bloqueios baseados em IP não estavam mais funcionando, então abriu tudo.
(11:453) Só que setembro também foi o mês de talvez uma das coisas mais absurdas que aconteceram: o mês em que o exército de uma nação resolve transformar um equipamento utilizado por civis em bombas.
(11:508) Foram os pagers-bomba, que, ao que tudo indica, Israel, o Mossad, teria não só interceptado uma carga, mas criado ou aliciado uma empresa que fabricou os pagers com uma bomba dentro. Eles explodiram e isso matou e feriu pessoas, até crianças. A gente não está falando de uma arma que o cara carrega, mas de pagers, uma coisa que as pessoas levam para o mercado, ficam em casa com isso. Transformaram um eletrônico de uso civil em uma bomba. Isso foi bastante discutido, inclusive a ética de se fazer uma coisa nesse sentido.
(11:614) Não tem muita ética em guerra, mas existem certas limitações.
(11:621) Ah, não, claro, sem dúvida.
(11:625) Do que tu podes ou não fazer, que tipo de munição…
(11:636) Em tese existe, Guilherme.
(11:642) Sim, Convenção de Genebra…
(11:646) Eu estou dizendo “em tese” porque, quando alguém usa, o que que tu faz? Se não tem punição, é aquela história da lei que “não pega”.
(11:658) Bom, outubro, a gente falou um pouco… já que tu se antecipou antes, eu vou me antecipar agora. Acho que a questão do uso da IA, sobretudo no ensino, vai ser um tema… ou melhor, deveria ser um tema que nós deveríamos tratar em 2025. Mas acredito que não vamos ter a capacidade de fazer isso, nós, humanidade.
(11:719) No episódio 377, em outubro, a gente falou sobre o guia da Unesco para IA generativa na educação e na pesquisa. Duas observações: primeiro, uma de ordem pessoal, Vinícius. Nesse semestre, na graduação em que estou dando aula há 10 anos, eu sempre exigi dos meus alunos a entrega de um artigo científico. Sempre achei importante o cara se formar em Direito sabendo escrever e os rudimentos de uma boa pesquisa.
(11:817) E nesse semestre foi, para minha experiência pessoal, a explosão do uso do ChatGPT para a composição desses trabalhos. Para mim foi extremamente desgastante lidar com isso, emocionalmente. Eu não esperava isso. Tenho uma vizinha, professora, uma senhora, foi professora de Química na UFRGS. Eu perguntei para ela quando ela decidiu parar de dar aula. E ela disse: “Quando teve a dominação dos telefones celulares em sala de aula. Ali para mim foi a gota d’água”.
(11:919) O que eu quero dizer é que esse guia da Unesco deveria estar sendo abordado por todas as universidades do país. Qualquer curso acaba sendo atingido. O Direito está sendo muito atingido. As consequências já estão acontecendo. E se as universidades não tratarem desse problema, nós vamos ter um quadro bastante difícil. Não é somente impedir o uso de telefone celular, que também não resolve. Mas com a IA é mais difícil, você precisa de políticas universitárias para lidar com isso. A nossa tentativa no 377 foi falar sobre isso, mas não estou tão otimista com o rumo que isso está tomando no âmbito das universidades.
(12:025) Cara, eu tive sorte que conheci o aluno. Fui convidado para a banca dele porque o conhecia, e de fato foi um dos melhores alunos da última turma. O que me incomodou muito foi o uso cada vez mais intensivo de celular em sala de aula. Não importa o que tu faças. E o trabalho dele estava excepcionalmente bem escrito, sem um erro de português, e a fluidez na leitura, sabe, como um bom livro. Eu me certifiquei de que ele de fato tinha feito o trabalho, ele domina muito bem o que fez. Mas, ao mesmo tempo, me chamou a atenção isso.
(12:125) Eu não sei avaliar até que ponto a escrita era dele. O conteúdo era dele, mas não sei até que ponto não fica muito pasteurizado.
(12:144) Você nota os padrões.
(12:147) Não, mas até o dele estava bem suave. O que chamou a atenção foi a ausência de “nada” e a fluidez. Não tinha aqueles chavões, aquelas coisas hiperbólicas que a IA coloca.
(12:213) Um dos argumentos que chegaram para mim foi: “Não, eu usei a IA, mas só pedi para ela reescrever o meu trabalho”. Você fica pensando: qual o objetivo de você pedir para a IA reescrever seu trabalho? E, na falta de uma política acadêmica, o professor acaba tendo uma carga com a qual não consegue lidar.
(12:248) Sim, eu acho, Guilherme, que fica muito desigual. Fica muito fácil gerar conteúdo e muito difícil avaliar. Uma máquina gerando e uma pessoa avaliando. A balança fica desequilibrada. Mas esse é um assunto que nós voltaremos no ano que vem.
(12:314) Eu peguei alguns livros para ler sobre criatividade, é uma coisa que está me incomodando bastante. Até que ponto a gente pode dizer que a IA cria alguma coisa? A resposta não é fácil. Estou lendo Margaret Boden, que fala sobre criatividade, e ela puxa isso desde 1984. Ela é bem “pé no chão”. E acabei encontrando o livro sobre criatividade do cara que escreveu “Flow”. Vou citar isso quando a gente for gravar ano que vem.
(12:431) E estou lendo outras coisas. Por recomendação do Guilherme, se alguém quiser uma leitura de final de ano: “Sentir e Saber: As Origens da Consciência”, do António Damásio. A gente começa a entrar em outras coisas: criatividade, consciência, o papel dos sentimentos. A gente vai ter que discutir muito, porque a coisa não vai ser tão fácil de “usa ou não usa IA”. Acho que tem várias gradações no meio do caminho.
(12:518) Mas, enfim, esse é assunto para o ano que vem. Vamos seguir na retrospectiva. Em outubro, a gente teve o retorno do X. Após o pagamento da multa — “não vamos pagar”, “vamos sair do Brasil” —, depositaram a multa na conta errada, e o X volta. E muitas pessoas se deram conta de que existiam outros espaços menos tóxicos. O Blue Sky foi um deles. Eu não tenho mais o X instalado no meu celular, tenho o Blue Sky e estou muito feliz.
(12:608) O Blue Sky teve um salto de usuários, passou de 500 mil em agosto para 2,5 milhões agora em dezembro. Está aumentando nos Estados Unidos também. Eu gosto de escutar o The Hard Fork, um podcast do New York Times, e lá eles comentaram sobre o aumento da base de usuários do Blue Sky. Passou a ser uma rede mais tranquila. Ontem mesmo lançaram os trending topics, e o pessoal já está reclamando que iriam poluir.
(12:658) E também tivemos o retorno do caso Córtex, um dos grandes escândalos governamentais do ano. Basicamente, um sistema do Ministério da Justiça que agrega dados de várias fontes — OCR de câmeras, bilhetagem de ônibus, dados do SUS — e está sendo acessado por um grande número de pessoas, já foi usado por golpistas.
(12:724) E, mais uma vez, quando a gente fala em direitos fundamentais… eles tiveram uma vocação inicial de serem direitos oponíveis contra os abusos do Estado. E quando a gente vê, mais uma vez, o Estado abusando desses sistemas e violando o direito fundamental à privacidade e à proteção de dados, a gente vê como essa banalização, aquela coisa de “eu não fiz nada de errado, então não tenho que me preocupar”, ela acaba atingindo a todos. Porque, em última análise, a gente fica vulnerável.
(12:837) Tivemos mais ali… Cara, o Internet Archive nos deixou na mão. Sofreu um ataque. A gente hospeda nossos episódios lá. Eles foram atacados e ficaram fora do ar por mais de uma semana, a ponto de a gente ter que começar a subir episódios no S3 da Amazon.
(12:914) A gente teve, de novo, o assunto da proibição de celulares em sala de aula. Falamos sobre uma pesquisa do Datafolha que revelou que a maioria dos pais apoia a proibição para melhorar a concentração dos alunos. De novo esse assunto.
(12:949) Lembrando que foram 28 episódios este ano. Em outubro ainda, a gente gravou uma live, “10 Recomendações para a Gestão de Incidentes”, e lançamos um e-book nosso sobre esse tema. Eu até anotei uma frasezinha sua, Vinícius: “Resposta a incidente é algo que envolve a todos na empresa”. Seja pela criação de uma cultura, claro que você vai ter o time de resposta, mas a gente tem, entre essas 10 recomendações, a criação dessa cultura e a responsabilidade dos próprios usuários de indicarem a ocorrência ou suspeita de incidentes. Foi um marco interessante ali em outubro. Se você tem interesse, fica o 379 lá, e você ainda consegue baixar o e-book.
(13:109) Beleza. 380, em 22 de novembro, já falamos sobre algumas intenções do Trump pós-eleição, no caso a intenção dele de revogar uma Ordem Executiva em relação à IA do governo Biden. Acho que essa vai ser uma das tônicas em relação às big techs de maneira geral, talvez um retorno de algumas regulações importantes.
(13:155) A gente tem mais notícia envolvendo IA. Dessa vez, a Microsoft fazendo parceria com a HarperCollins para acessar obras de não ficção para treinamento de modelos de IA. A notícia em si, solta, não tem muito interesse, mas o que ela nos mostra é essa busca por fontes de informação confiáveis e sólidas para treinar a IA, porque tu não treinas com fake news ou com lixo. Senão, tu vais ter uma IA que vai te dizer que a Terra é plana. Tu precisas de material de qualidade. Não nos espanta, a gente vai ver isso cada vez mais.
(13:252) E também tivemos aquele momento “dinheiro for free”. O pessoal aproveitou um bug que apareceu no Nubank para sacar dinheiro de graça. Muito curioso o que aconteceu. Inclusive, no episódio 380, a gente corrige algumas avaliações sobre o que pode acontecer com as pessoas que sacaram esse dinheiro. A mensagem que fica é: entrou um dinheiro estranho na tua conta, o dinheiro não é teu. Ou tu viu que consegue sacar além do teu limite? Não faça isso. É óbvio. Quer saber mais? Vai lá no 380.
(13:338) E os últimos dois episódios. 381, falamos sobre o julgamento do artigo 19 do Marco Civil da Internet no STF. Acho que a gente se precipitou um pouco, porque falamos longamente sobre o voto do relator, o Toffoli. O voto dele tem algumas imprecisões. Já teve uma divergência do Barroso. O julgamento fica para o ano que vem. Ou seja, voltaremos a esse assunto.
(13:409) Pode ser que seja um tema que promova uma movimentação do Congresso em 2025 para legislar sobre isso. E, já se aproximando do que esperar para 2025: como as big techs vão reagir? Porque, muito provavelmente, e eu mantenho essa projeção, vai ser considerada a inconstitucionalidade do artigo 19. Como que elas vão reagir ao enforcement dessas novas regras? Porque o que temos visto é a imposição da vontade das big techs aqui no Brasil, seja pela oposição direta a ordens judiciais ou por um lobby feroz no Congresso. Claro que as empresas têm o direito de colocar seus interesses no processo legislativo, só que esse interesse não pode se sobrepor ao bem comum.
(13:513) E no 382, o último episódio antes desse, fresquinho: PL de IA no Brasil avançando, Droga Raia multada pelo Procon de Minas Gerais. E mais uma de IA que me chamou a atenção: a IA fingindo alinhamento. A Anthropic fez uma experiência com um modelo de IA deles, tentando mudar o alinhamento, e a IA resistindo ativamente, meio que tentando enganar as pessoas. Mas, por favor, antes de sair dizendo por aí que a IA criou consciência e saiu tentando dominar o mundo, ouve o episódio e dá uma lida no conteúdo dos artigos. É muito interessante.
(13:626) Agora sim, Vinícius, o que esperar de 2025? Eu vou falando e você vai me interrompendo.
(13:640) Quem está assistindo agora, como a gente passou bastante do nosso horário, eu tenho uma janela aqui sem cortina, e o sol vai começar a bater na minha cara. Não se assuste.
(13:703) 2024 foi, definitivamente, o ano da Inteligência Artificial. E também o ano da ANPD. A gente teve mais ações. A suspensão da política da Meta, atuação contra o X, os guias e resoluções (comunicação de incidentes, encarregado, transferência internacional). Basicamente, o que a gente falou durante o ano foi governança de segurança, proteção de dados e IA.
(13:803) E muito forte na IA, os impactos da tecnologia na sociedade: celular nas escolas, sistemas espiões, a relação de tecnologia e comunicação — as falhas de comunicação na enchente poderiam ter salvo vidas. E tivemos vazamento de dados. Resumindo: conflitos entre big techs e Estado (WhatsApp, X, TikTok).
(13:845) E me parece, Vinícius, que a gente teve a consolidação da ideia da proibição dos celulares. Veja, o que a gente vai esperar para 2025? Eu acho que a gente vai discutir esses assuntos. Eles não estão desconexos. A IA, o celular, estão bem ligados.
(13:915) As discussões serão, assim espero, bem mais profundas ano que vem. A gente tem que pensar o uso de tecnologia de maneira mais profunda. Com o avanço da IA, a gente vai ter que pensar mais no que é ser humano. A gente ouve muita gente da área falar isso. Mas eu acho que a gente tem que pensar antes na questão da tecnologia. O que o ser humano está fazendo da tecnologia?
(14:003) E aí a gente vê a questão do uso de eletrônicos por crianças. Não só celular, tablet também. E os usos que as crianças estão fazendo em consequência do que os adultos estão fazendo. Porque a criança não compra o celular, não tem como levar para um restaurante. Os pais que têm que fornecer.
(14:051) Mas, o que esperar para 2025? Cara, eu acho que nós vamos ter que discutir, se quisermos resolver, o uso da tecnologia de maneira geral pela sociedade, não só pelas crianças. Teve matéria agora, de uma família dizendo que a idosa, a avó, ficava o tempo todo no celular e ficava nervosa quando tiravam. Eu espero que a gente discuta mais o uso da tecnologia nos mais diversos âmbitos.
(14:140) E, consequentemente, nas escolas. Porque não é só a escola, e não é só o celular. Eu, às vezes, sinto, em relação à criança, quase como uma vingança dos adultos, uma punição. Às vezes eu vi meio sádico: “Eu vou proibir o uso de celular”. Mas o celular é um pedacinho do problema. Esse foi o equívoco. E se a gente continuar nesse equívoco em 2025, não vai dar certo.
(14:248) E nota, Guilherme, eu tampouco acredito que a resposta seja a simples proibição. A gente tem que discutir, analisar e fazer. Eu tenho insistido na instituição educacional onde tenho envolvimento que as escolas deveriam ser o centro dessa discussão, de instrução não só dos alunos, mas da sociedade. Se a gente não fizer isso, boa sorte. Os alunos já não compram mais notebook, eles gastam 6, 7 mil paus no celular e fazem trabalho no celular. Nós vamos ver cada vez mais isso acontecendo.
(14:432) É interessante a coisa dos pais, às vezes, ficarem bravos com os professores quando eles indicam o problema do filho: “Ah, você que tinha que resolver”. Acho que a gente poderia usar o espaço escolar para ser uma fonte de discussão desses problemas a partir da criança.
(14:459) E projeções: nós vamos ver avançar a regulação da IA no Brasil. Não sei se esse projeto que volta para a Câmara vai ser aprovado, mas eu imagino, se pudesse apostar, diria que sim. Se conseguir vencer o lobby das big techs, tudo indica que a gente vai ter uma lei de IA nos moldes do AI Act aqui no Brasil em 2025.
(14:525) Eu acho que a gente vai ver aumento de desinformação por conta de IA. Eu acho que os deepfakes…
(14:553) Essa parte do deepfake eu não sei. O pessoal estava esperando, eu acompanhei bem de perto nas eleições dos Estados Unidos, e não foi aquela profusão toda que esperavam. A coisa foi muito mais básica, menos sofisticada.
(15:010) Mas você precisa preparar. Eu recebi um videozinho de Natal que pegaram várias pessoas que já morreram, fizeram um vídeo com o Silvio Santos, o Senna… meio malfeito, e todo mundo comentando “ah, que legal, o potencial da IA”. Você precisa incutir essas coisas. Essas utilizações menorzinhas me parecem um treinamento, uma percepção de como as coisas estão sendo enxergadas. Eu acho que a gente vai ver uma ampliação desse uso irrefletido de IA em cenários não recomendáveis.
(14:657) Você falou antes: “ah, o cara usa a IA para corrigir o português”. Não, o ponto não é esse. O cara não vai usar a IA para corrigir o português, ele vai usar a IA para fazer todo o trabalho para ele.
(14:707) Desculpa, estou generalizando. Sim, eu acho que vai ter gente que vai fazer isso.
(14:715) Justamente esse é um problema. Se tu tens pessoas que não estão sendo adequadamente preparadas, elas vão fazer que nem faziam com a Wikipedia: vão copiar e colar.
(14:738) O Musk, última noticinha, também está começando a jogar suas baterias contra a Wikipedia agora. “Ah, que bom”. Esse cara está ficando pirado. Mas, se nós não resolvermos as questões mais básicas relacionadas à educação, à instrução, nós só teremos cada vez mais problemas. Antes se copiavam coisas da internet… eu tive alunos que, anos atrás, um cara simplesmente copiou um trabalho de alguém da Universidade Federal da Bahia, botou o nome dele e imprimiu. Foi zerado. Com a IA, agora, o cara vai escrever um trabalho inteiro e, se tu não tiveres como provar que não foi ele, vai ter que aceitar. Ou vai parar de cobrar artigos.
(14:850) Agora, quem estuda, quem entende, quem se dedica, também vai usar IA. E aí que eu vejo a grande discussão que a gente tem que ter sobre criatividade e IA. A gente precisa ter essa discussão. Até que ponto eu posso usar? Um uso simples de “corrige meus erros de português, mas não altera meu estilo”? Passando por “estão aqui minhas ideias, estruture isso num texto”? E o outro extremo de “escreve para mim um artigo sobre tal coisa”? A gente precisa encontrar um caminho no meio.
(15:004) E eu comecei a fuçar mais a coisa da criatividade quando fiquei sabendo da confusão que rolou lá no canal Meteoro Brasil. Eu não acompanho, não sabia. O Álvaro foi “cancelado” porque usou IA para fazer algumas capas no YouTube. E eu vi o pessoal discutindo a questão de arte, várias opiniões diferentes. O canal do Henry Bugalho traz um outro contraponto. Por isso, esse é um tema que nós vamos ter que discutir, trazer para o Segurança Legal.
(15:109) Tem gente como o Miguel Nicolelis, que é taxativo em dizer que a IA não cria, é uma máquina de plágio. E tu tens outras pessoas, como o Geoffrey Hinton, o “padrinho da IA”, que diz que não é tão simples dizer que é só um papagaio que calcula probabilidades. Ele saiu do Google para se dedicar mais ao estudo da IA. Eu acho que não é tão simples.
(15:240) A projeção que eu tinha feito para 2025, eu mantenho, Vinícius. Eu acho que o estado de coisas, a forma como a adoção irrefletida da IA já está se dando, vai empurrar as pessoas para usos cada vez mais irrefletidos em cenários não recomendados. As pessoas estão sendo empurradas. Os contextos da vida têm cada vez menos tempo. Na sala de aula, 80% dos alunos não estão prestando atenção. Claro, com celular. Isso no ensino superior. O que essa circunstância levaria as pessoas a fazerem?
(15:407) Não há o interesse das empresas em projetar um uso saudável, assim como não há o interesse das empresas de redes sociais. Você pega TikTok, Instagram… você olha para aquilo e pensa: “esses caras estão delirando, sabendo que tem crianças usando”. O potencial de vício está atingindo até idosos. Me parece que esse estado de coisas levará a usos cada vez piores. Minha previsão é que, a cada dia que passar, vai ser pior. Você vai encontrar novos maus usos, e me parece que os maus usos vão se projetar sobre os bons. Posso estar errado, mas é uma projeção.
(15:497) Eu discordo. Minha previsão é um pouco diferente. O que me preocupa talvez mais é a “weaponização”, transformar a IA numa arma. Isso eu acho bem crítico. A gente já está vendo uma corrida por governos, principalmente o norte-americano, nesse sentido. Existe uma preocupação de quem vai atingir a AGI (Inteligência Artificial Geral) primeiro, e o impacto que isso vai ter na geopolítica. Você vai ter “super CEOs”, departamentos de governo sendo tocados por IA, conselheiros de IA tocando decisões de conflitos mundiais. O que vai acontecer?
(15:556) Como tudo que a gente cria, tem um potencial enorme para ser mal utilizado. Mas, ao mesmo tempo, acho que a gente vai ter coisas muito boas surgindo, principalmente na área médica. Isso já está acontecendo e vai ser acelerado. Então, nós vamos ver uma corrida com as duas coisas, Guilherme. Coisas boas e, ao mesmo tempo, um mau uso intenso. Acho que para 2025, o pessoal vai começar a largar robôs em zona de conflito com uma certa autonomia.
(15:708) Com o Trump, nós vamos ver, previsões meio óbvias, um caminho contrário à regulamentação e ao controle. Sobretudo com as ações do Elon Musk, de promover uma liberação, a criação de IAs sem os “guard rails” necessários, sejam éticos ou, pelo menos, controles legais, sobretudo na questão de discriminação, curadoria de dados. Me parece que há um espaço importante de prevenção de riscos, e o que vinha se formatando como um consenso mundial, vai haver um retorno dessas questões em 2025.
(15:832) E o que a eleição americana mostrou foi uma nova era, uma participação mais ostensiva das techs nos processos eleitorais.
(15:857) Não uma participação, porque grandes empresas sempre participaram. Nos Estados Unidos, o lobby é perfeitamente legal. Mas o que a gente está vendo é um passo adiante, uma participação direta no governo, não de apoio, mas no governo. E isso é uma tendência preocupante, porque essas empresas nem sempre estarão comprometidas com o bem comum, que é o objetivo de um Estado.
(2:03:38) (…) bom pessoal, nós conseguimos então, com este último episódio, fazer o episódio mais longo do Segurança Legal de 2024. Ficamos com duas horas.
(2:04:06) E, para terminar, claro, desejamos Feliz Ano Novo para todo mundo. Que 2025 seja melhor. E terminamos agradecendo a todos aqueles e aquelas que nos acompanharam durante esse ano, que nos apoiaram financeiramente ou nos indicando, nos ouvindo, concordando e discordando da gente. A gente espera que 2025 seja um ano de mais episódios, mais interação, mais apoios. Mas sempre contando com a atenção de todos. Esse projeto é feito para você que nos escuta. Então, eu termino com um muito obrigado.
(2:04:59) Valeu, muito obrigado a todos, muito obrigado, Guilherme. Um abraço e nos vemos em 2025.
(2:05:05) Nos encontraremos no próximo episódio do podcast Segurança Legal em 2025. Até a próxima.
(2:05:12) Até a próxima.
By Guilherme Goulart e Vinícius Serafim4
77 ratings
Neste episódio comentamos a retrospectiva completa de 2024, onde você descobrirá os principais acontecimentos que moldaram a segurança da informação, o direito da tecnologia e a evolução da inteligência artificial ao longo do ano.
Guilherme Goulart e Vinícius Serafim mergulham nos tópicos mais quentes de 2024, analisando o avanço da regulação da IA na Europa com o AI Act e as movimentações da ANPD no Brasil, que lançou regulamentos cruciais sobre incidentes e o papel do encarregado de dados. O debate aprofunda-se na controversa relação entre Elon Musk, o Twitter (X) e o STF, um marco na discussão sobre a soberania digital e o poder das Big Techs. A conversa também aborda a privacidade, a ascensão de novas redes sociais, e as projeções para 2025, incluindo o combate à desinformação e o futuro da cibersegurança e da governança de dados. Para não perder futuras análises, siga e avalie nosso podcast.
Visite nossa campanha de financiamento coletivo e nos apoie!
Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing
📝 Transcrição do Episódio
(00:02) [Música] Sejam todos muito bem-vindos e bem-vindas. Estamos de volta com o último Segurança Legal de 2024, seu podcast de segurança da informação e direito da tecnologia. Eu sou o Guilherme Goulart e aqui comigo está o meu amigo Vinícius Serafim.
(00:18) E aí, Vinícius, tudo bem?
(00:19) E aí, Guilherme, tudo bem? Olá aos nossos ouvintes. Quase me matou com esse “último”. O último de 2024, eu quase morri de susto.
(00:28) Sempre lembrando que, para nós, é fundamental a participação de todos por meio de perguntas, críticas e sugestões de temas. Vocês já sabem, podem nos contatar pelo [email protected] e também nos achar no YouTube, no Mastodon ou no BlueSky como @direitodatecnologia.com e @serafim.br, além do @segurancalegalpb.social e também no Instagram.
(00:54) E também temos a nossa campanha de financiamento coletivo lá no Apoia-se: apoia.se/segurancalegal. Hoje vamos trazer alguns números, inclusive desses últimos, desse último ano.
(01:05) Tem o blog da BrownPipe, você já sabe, lá no brp.com.br, onde você consegue encontrar as notícias — algumas delas que vêm aqui para os Cafés — e também onde você consegue se inscrever no mailing semanal.
(01:17) A gente já comentou aqui no YouTube, né, Vinícius? Então, se você quiser ver o episódio — não é bem aqueles mesacasts —, mas se você quiser nos ver, também há essa possibilidade de acompanhar lá pelo YouTube.
(01:31) E eu acho que vamos começar aqui, Vinícius, esse último episódio de 2024, com primeiro um agradecimento aos ouvintes e aos apoiadores, porque, ao longo desses 12, indo para 13 anos de gravação, não adianta, embora seja um exercício que a gente faça porque a gente gosta, o projeto é feito para os usuários.
(01:54) E também a gente agradece àqueles que nos apoiam. Inclusive, teremos um sorteio, né, Vinícius?
(01:59) Sim, vamos fazer um sorteio para os nossos apoiadores. Nós vamos comunicar para não dar o nome de todo mundo aqui. Nós vamos comunicar o pessoal no grupo, tá? Então, lá no grupo que nós temos no Telegram, a gente vai comunicar os vencedores. O sorteio tem vencedor? Ganhador? Sei lá.
(02:22) Os escolhidos. E eu estava passando a conversa para o Guilherme na semana passada que nós temos que fazer umas canecas novas. Vamos ver se a gente faz alguma coisa diferente, talvez com o login da BrownPipe também, com o Sherlock prateado da BrownPipe junto na mesma caneca. O nosso pessoal que faz as canecas, vocês quando receberem, os ouvintes que receberem, ela tem lá uma tintinha que é brilhante, assim, meio metalizada. Então, acho que funcionaria bem. Eles são bons, eu achei que fica bonito.
(02:59) Mas, enfim. Eu ainda acho que tem que ser xícara, porque eu perdi essa discussão de xícara e caneca. Isso já foi, cara. Mas, se bem que, já há muito tempo, os nomes, as palavras não importam mais. Com desinformação, inteligência artificial, você pode dizer qualquer coisa de qualquer coisa que não tem mais importância. Agora que eu fui tocar nisso, vamos para a retrospectiva antes que a gente entre numa discussão filosófica aqui.
(03:27) Bom, você que nos acompanhou, Vinícius, até aqui, tem alguns numerozinhos. Lembrando apenas que a nossa última retrospectiva — isso foi bastante curioso —, a gente fez em 2020 e depois nós não fizemos mais.
(03:43) A gente não fez mais retrospectiva, é verdade. Mas, assim, um pouco também, uma das vezes eu lembro, eu estava tentando lembrar, era assim: cara, retrospectiva você para e olha para trás e começa a ver o que já foi o ano. Acho que a gente teve alguns anos meio cansativos, foram anos meio puxados aqueles. A gente queria mais que passassem logo de uma vez. Talvez por isso a gente não tenha feito. Eu lembro de estar meio cansado no final daqueles anos ali. Talvez por isso, não sei. Mas, enfim, dessa vez vai sair. Vamos lá.
(04:26) Bom, então, alguns números aqui, Vinícius e pessoal. Nós tivemos nesse ano 28 episódios, no ano de 2024, sem contar com esse. Mas seriam 29, enfim. 28, que daria 2,3 episódios por mês. Foram 33 horas e 33 minutos. Olha esse número, 33, número cabalístico.
(04:44) E o maior episódio que nós gravamos nesse ano foi o episódio 358, que foi um Café que demorou 1 hora e 51 minutos. Quase um Xadrez Verbal. Não chegou no Xadrez Verbal, que já chegou a 6 horas e pouco dias desses. O último acho que foi 6 horas e pouco.
(05:05) E nós também temos alguns números de plays. E aí é importante destacar que nós temos dois grandes medidores: os que a gente tem dos agregadores e os registros que a gente tem lá do Spotify, que não são muito bons. A gente consegue ver, por exemplo, no Spotify, o número de inscritos, que são 3.768 seguidores. Ele chama de seguidores.
(05:28) O que não significa que todos eles escutem sempre, mas a maioria do tráfego vem dos agregadores. Tanto que a gente tem aqui os números, por exemplo, do episódio mais ouvido, que foi o Café 365, que teve 4.518 views. Para nós é muito bom, porque a gente sempre fica ali em 1.000 e pouco.
(05:58) Depois, o segundo mais ouvido foi o 360, com 1.371, ambos Cafés. Ao longo do ano, foram 37.118 plays pelos agregadores, e dá para contar mais ou menos 1/3 disso pelo Spotify.
(06:24) Claro, é um podcast de nicho, Vinícius. Enfim, tem uma pegada um pouco diferente aqui. Claro, não vai ter aqueles milhões e milhões de views que, às vezes, a gente vê em outros conteúdos publicados na internet. Mas a gente considera um número interessante.
(06:44) Cara, se tu parar para pensar, vocês, nossos ouvintes, a gente acaba tendo, como é nichado, um público certamente qualificado, um público que tem uma preocupação ou um tipo de interesse específico de entender não só a tecnologia. Porque, se tu quer entender a tecnologia pela tecnologia, talvez tenha outros podcasts que tu possa ir atrás. Mas a gente tem essa visão, claro, da segurança da informação, proteção de dados e tal. E sempre que a gente vê a tecnologia, a gente vê por um ponto de vista crítico. A gente sempre pensa nos impactos, a gente procura ir um pouco mais a fundo, Guilherme.
(07:29) Embora nós sejamos entusiastas da tecnologia. Eu gosto de experimentar coisas novas, eu gosto de testar tudo que é ferramenta que eu encontro. Mas, então, além dessa questão que nós temos, desse entusiasmo, a gente também tem essa coisa de olhar com um pé um pouco mais atrás, com um pouco mais de calma. E o nosso ouvinte, quem nos acompanha, eu acho que compartilha um pouco disso com a gente, dessa coisa mais reflexiva, mais “slow”.
(08:10) Então, cara, considerando só no Spotify 3.768 seguidores, meu Deus do céu. E mais o pessoal que nos acompanha por outros agregadores, eu fico bastante feliz, cara. Porque, em quantos eventos a gente já foi falar que tinha esse número de pessoas, 4.000 pessoas, entende? Nós fazíamos muitas palestras juntos, a gente fez muito evento junto, presencial, a gente viajava pra caramba junto. E mesmo nos últimos anos que a gente tem feito coisas presenciais, cara, é difícil um evento com 1.000 pessoas.
(08:55) Nesses 12 anos, cara, mudou bastante o cenário da segurança, o cenário de eventos, o tipo de conteúdo que chama a atenção das pessoas. E, em face disso, também o foco da atenção. Nós, por exemplo, perdemos bastante ouvintes ao longo do tempo. Eu até não preparei aqui os dados de todos esses 12 anos, até porque a gente nem tem, acabou perdendo no meio desse período. Mas, mais para o início ou para o meio do podcast, a gente tinha 4.000, 5.000 views, dá para se dizer, pessoas nos ouvindo por episódio. Hoje a gente baixou para 25% disso. Eu atribuo, claro, também a uma diluição da atenção. As pessoas têm muito mais, a quantidade de podcasts que eu, por exemplo, tenho aqui cadastrado me faz diluir a minha atenção.
(09:59) A nossa base de apoiadores também, até quase como uma prestação de contas aqui, Vinícius, ela mudou bastante ao longo desse tempo. Eu tenho aqui, por exemplo, os dados desde 2018. A gente começa 2018 com 37, 2019 com 101, depois 2020 com 78, 2021 com 48, 2022 com 43, 2023 com 39 e, hoje, nós temos 43 apoiadores. É um número interessante. A gente mais uma vez agradece os nossos apoiadores.
(10:44) Mas, claro, nesse meio tempo a gente também teve aquela questão do PicPay. O PicPay nos deixou na mão, ele deixou de receber os apoios e grande parte do pessoal que estava no PicPay acabou não retornando. Esses números que eu dei são só do Apoia-se, então a gente acabou perdendo um pouco por conta do PicPay. Mas é um número interessante, porque as pessoas aqui, claro, elas fazem parte do nosso grupo lá no Telegram, mas, quando você ajuda um projeto como esse, você ajuda porque gosta do conteúdo, porque quer ajudar e tudo mais. Então a gente traz aqui esses números para que vocês também tenham uma ideia.
(11:29) E a gente tem aqui, eu tinha, Vinícius, de todo esse período, de todos esses 12 anos que a gente está no ar, o episódio mais ouvido foi o número 133, “Fundamentos de Segurança da Informação”, lá de 2017, com 6.580 views. Eu imagino que seja um episódio ouvido pelo pessoal de faculdade. Essa ideia de “fundamento de segurança”, provavelmente alguém que está fazendo cadeira de segurança ou alguma coisa do gênero acaba encontrando e ouve.
(12:02) E uma coisa bem importante, Guilherme, é dizer o seguinte: o podcast, a gente sempre deixou isso muito claro, iniciou antes da BrownPipe, mas a gente fez com o objetivo de divulgar também o nosso trabalho. Embora a gente faça muito pouca propaganda em termos comerciais, a gente não é muito bom nesse sentido. Acho que, muito frequentemente, a gente esquece de fazer as propagandas da BrownPipe. A gente põe no roteiro, mas se empolga com o assunto e esquece.
(12:31) Mas, para nós, é muito importante a divulgação do podcast, porque, uma vez que a gente o usa para divulgar o nosso trabalho, as nossas personas como pessoas que atuam na área de segurança e proteção de dados, etc. Então, a todos aqueles que em algum momento apoiaram ou divulgaram o Segurança Legal, recomendaram o Segurança Legal, também vai o nosso agradecimento, porque também é uma forma de apoio ao nosso trabalho.
(13:07) Nós temos listados hoje 43 apoiadores com apoio financeiro direto, mas temos também aqueles que nos apoiam divulgando o podcast, recomendando. Então, você que faz isso, continue fazendo. E você que ainda não fez, se achar que vale a pena, que vai ser uma dica interessante para quem vai receber, por favor, indique o Segurança Legal. A gente agradece muitíssimo.
(13:29) É um apoio meio anônimo. A gente acaba sabendo eventualmente. Às vezes chegam clientes para nós e a gente pergunta sempre para saber por onde vieram, e alguns já citaram: “Olha, eu ouço o podcast”. Teve um cliente nosso que já nos ouvia há 10 anos. Essa semana teve uma reunião, também um ouvinte. A gente tem um cliente que nós atendemos este ano, entre o final do ano passado e o início deste, que já era nosso ouvinte há 10 anos, acompanhando o Segurança Legal. Então, é muito interessante também, porque nos dá um retorno indireto, um retorno para toda a BrownPipe, que não tem só eu e o Guilherme, tem mais gente trabalhando com a gente. Acaba sendo um apoio anônimo, muitas vezes, mas para nós é bastante importante.
(14:27) Bom, como vai ser a dinâmica aqui, pessoal? Nós vamos falar um pouquinho sobre o que rolou durante este ano, muito brevemente. A ideia… os episódios estão lá, você pode reescutar. Algumas ideias, de repente alguns avanços, dá uma comentada. O tempo vai passando e a gente acaba tendo mais elementos.
(14:54) Por exemplo, este ano nós tivemos menos convidados, o que valoriza ainda mais aquelas pessoas que participaram em 2024 aqui no Segurança Legal. A gente teve o Lucas Lago, no episódio 367, em junho, falando sobre o Instituto Igarapé. E tivemos o pessoal do Iris, a Luísa Dutra e a Ana Bárbara Gomes, que nos ajudaram a entender um pouco mais sobre toda aquela dinâmica de monitoramentos estatais, que é um tema que está sempre forte aqui.
(15:27) Embora a gente tenha visto, ao longo desses anos, várias dessas situações de monitoramentos estatais, 2024 foi um ano em que houve algumas situações bem interessantes. O primeiro episódio do Café, o 357, já vem com aquela ideia da “Abin paralela”, o caso da espionagem feito pela chamada “Abin paralela”, que não era paralela no final das contas. O cara aparelhou a Abin, era isso.
(15:58) Isso nos chama a atenção, Guilherme. Quando a gente viu esse assunto de novo, chama a atenção para o mau uso desse tipo de mecanismo de espionagem, não só de agência, mas de mecanismos. E o quanto a gente precisa… É natural que um Estado precise de uma agência de inteligência, que essas ferramentas eventualmente sejam utilizadas. Mas também é muito importante que tenha algum tipo de monitoramento muito próximo do uso dessas coisas. “Quem vigia o vigia?”.
(16:28) Tem que ter prestação de contas do uso desse tipo de agência e mecanismo, porque senão, dá-se abusos. E notem aqui, eu nem me refiro a abusos de políticos ou pessoas que estão no poder, de uma vertente política ou de outra, de esquerda, direita, seja o que for, mas do poder no momento. Então, é muito importante que a gente tenha recursos para acompanhar esses usos. Isso precisa ser mais aberto, nem que leve algum tempo, mas precisa ser, porque senão teremos problemas muito sérios.
(17:13) Esse caso da Abin paralela acabou entrando também em todo o ano de 2024, o das invasões, dos atos golpistas e tudo mais. Alguns dos dados obtidos para algumas perseguições foram obtidos pelo caso da Abin paralela. Ou seja, um órgão de Estado sendo utilizado para perseguição política de jornalistas e opositores do governo, que é um negócio que a gente vê em outros regimes, outros países, e é complicado ver isso acontecendo aqui.
(17:51) E aí tem o link, esse é o ponto. Claro que a gente fala aqui sobre segurança, tecnologia e sociedade. O foco é a tecnologia, a segurança, mas, cada vez mais, os mecanismos de controle e conformidade dessas ferramentas passam a estar diretamente ligados à manutenção dos próprios regimes democráticos. Violam-se princípios democráticos quando esses sistemas tecnológicos funcionam sem controle.
(18:25) E tu tens não só esse uso político, digamos assim, desse tipo de mecanismo, mas tu tens o uso pelo crime também, como a gente gravou no primeiro episódio do Segurança Legal, que foi do sistema Consultas Integradas. E agora, em 18 de outubro, no episódio 378, nós tivemos o caso do Córtex. De novo, um uso de um sistema desses que agrega informação sobre as pessoas sendo utilizado pela bandidagem para ameaçar delegado, ameaçar juiz.
(19:08) No caso de Consultas Integradas, usaram para matar… não, foi atentado ou mataram? Eles perseguiram uma juíza, mas acho que não chegaram a matar.
(19:20) E no Córtex, que a gente comentou no 378, em outubro, a gente teve um delegado sendo ameaçado com dados tirados do Córtex. Então, é aquela coisa, Guilherme, acho que a gente vai continuar vendo esse tipo de coisa. Aconteceu esse ano algumas vezes, foi denunciado, pelo menos. E a gente tem que ter cada vez mais cuidado com relação a esse tipo de mecanismo. Eles devem existir? Eu acho que sim, existem justificativas para que existam. Só que os parâmetros da existência dessas coisas têm que ser muito bem avaliados, e nós não temos essa tradição.
(20:01) A ANPD, nesse episódio 357, de fevereiro de 2024, a gente já começou falando sobre duas sanções da ANPD: uma para a Secretaria de Educação do Distrito Federal, em que houve um vazamento de dados de um formulário, e onde a ANPD marcou várias violações da LGPD (falta de registro de operações, não apresentação de relatório de impacto, etc.), e também uma outra sanção do INSS.
(20:41) Começamos falando sobre as atuações da ANPD. Logo depois, também em fevereiro, episódio 358, mais ANPD. Uma nota técnica importantíssima que marcou uma posição da ANPD em relação aos serviços financeiros e bancários, que envolvia o compartilhamento de dados do INSS com instituições financeiras para o empréstimo consignado. Houve uma atuação da ANPD e fixou-se algo que a gente já sabia, claro, já estava fixado nas regras que regulam os correspondentes bancários: a responsabilidade do banco pelo ato dos correspondentes.
(21:18) Foi uma nota técnica bastante importante e acabou se fixando uma tendência, já nas decisões judiciais durante este ano de 2024. A gente faz um acompanhamento aqui e a grande maioria, a maciça maioria das decisões envolvendo LGPD foram em relações bancárias, questões envolvendo prestação de serviços financeiros.
(21:50) Também, Vinícius, em 2024, lá em fevereiro, episódio 358, foi o ano em que se começou toda aquela questão da proibição dos celulares em escolas. O primeiro foi o Rio de Janeiro. A gente teve a notícia de que o Rio de Janeiro proibiu celular em escolas por via de decreto. Isso foi logo no início do ano. Claro que, no resto do mundo, a discussão já começava antes, em 2023, ali em meados de junho, julho, no retorno das aulas. E esse assunto veio sendo discutido.
(22:31) E aqui, Guilherme, eu acabei pulando: o programa espião do governo, o Córtex, que acabou vazando dados do delegado, começou já em fevereiro. A gente voltou a esse assunto mais tarde. E uma outra curiosidade das ações da IA: a Air Canada botou uma IA para fazer atendimento aos clientes no site e ela acabou inventando uma política de reembolso que a Air Canada não tinha. A IA inventou a política, a pessoa, o cliente, confiou no que ela disse, seguiu as instruções e depois a Air Canada quis dizer que não tinha essa política, que foi um negócio do chatbot e não tinha nada a ver com eles. Azar o deles, a IA fez em nome da Air Canada, então a empresa teve que pagar, fazer um reembolso. Foi bem interessante.
(23:33) O que chama a atenção aqui é: cuidado onde você vai botar a IA, pelo menos com os problemas que nós temos hoje, porque acontece esse tipo de coisa e você pode ser responsabilizado, sim, pelo que a IA está produzindo em seu nome. Eles queriam dizer que a responsabilidade era daquele chatbot enquanto um ente. Ah, vai tomar banho, cara. Não tem nada a ver, mas ainda não está maduro esse tema.
(24:02) Claro que não. Bom, episódio 360, chamou bastante a atenção a condenação do TikTok em R$23 milhões pela justiça do Maranhão. A gente vê essas notícias “condenado em…”, e esse episódio foi em março. As pessoas, de maneira geral, acham que o TikTok já pagou essa grana para o governo. Não, você tem todo o processo, as possibilidades de recurso. Aqui foi um processo judicial, mas em processos administrativos também há recursos, inclusive podendo chegar ao judiciário. Até hoje, está no tribunal, mas ainda aguardando o julgamento do recurso. Então nós não sabemos se aquela notícia que nós falamos com tanta ênfase realmente vai culminar no pagamento dessa multa. Lembrando que foi pela justiça do Maranhão, não pela ANPD.
(25:01) E também tem mais uma, não sei se curiosidade, Vinícius, mas mais uma atuação de outras IAs fazendo coisas que a gente não sabe direito como elas chegam àquelas conclusões. Um problema de explicabilidade, de maneira geral. Chamou a atenção esse artigo do MIT Technology Review, cujo título em tradução livre é “Os grandes modelos de linguagem podem nos deixar de boca aberta, mas ninguém sabe exatamente porquê”. Chama a atenção para essa questão da necessidade de explicabilidade do que os modelos fazem. Esse é um artigo bastante interessante, recomendo a leitura. O link está funcionando, “bonitão”, ainda lá no episódio. Vale a pena dar uma olhada. Eu falei “ainda está funcionando” porque, às vezes, o pessoal muda as coisas e os links que a gente coloca no show notes vão para o beleléu.
(26:05) É um grande… a gente fala em esquecimento às vezes na internet, aquela questão da prevalência, mas naturalmente, dentro desse ecossistema que é a internet, tem muita coisa que acaba sendo esquecida. Engraçado isso, principalmente quando a gente pega nossos episódios mais antigos, tenta ver os links, está tudo quebrado.
(26:29) Bom, lá em 23 e 28 de março, nós fizemos dois episódios, um depois do outro, falando sobre a questão do tratamento de dados pelas farmácias aqui no Brasil. Eu acho, Vinícius, que, com claro, todos os episódios são legais, mas esses dois foram os mais interessantes, porque a gente meio que fez uma análise, uma coisa mais “mão na massa” mesmo.
(26:54) A gente pegou e pediu os nossos dados de algumas farmácias e tentamos fazer algumas projeções e previsões, aquela ideia de análise preditiva sobre quais seriam as características dos titulares daqueles dados. E foi bastante interessante. Eu sugiro que, se você não escutou, escute. Porque, somente com dados muito básicos de compras muito básicas em farmácias, foi possível saber muito sobre nós. E usando uma IA genérica, um ChatGPT. Na época, foi em março, a gente deve ter utilizado o GPT-4.
(27:40) Então, com uma LLM, não era uma coisa específica para fazer aquela análise, e não eram dados tão precisos. Foi bem interessante. E sobre essa questão das farmácias, dando um salto aqui para o 382, agora de 20 de dezembro, a gente teve também uma notícia sobre a multa da Droga Raia em R$8,5 milhões pelo Procon de Minas. Claro, vai ter recurso, toda aquela coisa como está acontecendo com o TikTok. Bom, depois tem algumas previsões ali sobre as farmácias, eu vou guardar para depois, para o que eu acho que vai acontecer. Fique até o fim para saber.
(28:30) Em abril, no Café 363, a gente começou falando sobre uma resolução do Conanda superimportante. Eu até escrevi um artigo sobre isso e participei de um workshop de inteligência artificial na educação, onde falei sobre essa resolução que traz uma série de disposições sobre a proteção de crianças na internet, deveres dos provedores, as informações que eles precisam dar, deveres de manter um ambiente saudável, apropriado, informações em linguagem simples, acessíveis, privacy by default. Uma série de questões que estão nessa resolução.
(29:17) Foi interessante, porque eu vi com bastante otimismo essa resolução de abril de 2024. E, cara, foi engraçado, porque eu não vi um reflexo muito perceptível. Parece que a coisa ficou meio esquecida durante este ano. A gente foi consumido um pouco, as nossas atenções acabam sendo direcionadas para a Inteligência Artificial, mas há uma série de outras coisas no direito da tecnologia, e a proteção de crianças na internet é um tema ultrarrelevante, presente no mundo, e um tema que a gente gosta, temos vários episódios sobre isso. Então, ao mesmo tempo que eu vi com otimismo, o tempo acabou me mostrando que talvez não tenha trazido um efeito importante.
(30:11) Algo me diz que em 2025… uma previsão, Guilherme. Não quer guardá-la para o fim? É que eu vou esquecer. Algo me diz que, em 2025, nós vamos falar muito sobre o tema de uso de tecnologia por crianças, dado o que a gente tem visto em relação a escolas, ao impacto. E, cara, francamente, o Jonathan Haidt, que escreveu “Geração Ansiosa”, ele levanta a bola para muita coisa importante. E parece que deu aquele… chamaram ele no Roda Viva, apareceu no Fantástico, e a coisa meio que dá uma morrida, passa a novidade. Algo me diz que a gente vai ter que voltar, inclusive por causa da IA também, que vai nos forçar a olhar com um pouco mais de cuidado para a formação das crianças.
(31:21) Eu não estou falando só da questão de conteúdo em escolas, mas dessa formação de uso da tecnologia, formação essa que os próprios pais não têm. Você tem um monte de gente que sabe aquela história do “faça o que eu digo, não faça o que eu fumo”. Temos muita gente já viciada na tecnologia, e a gente quer que essas pessoas orientem as crianças. É um negócio meio complicado. Mas, enfim, isso é um tema para episódios do ano que vem. Essa é minha previsão.
(31:51) E vou adiante aqui, Guilherme. Em abril, a gente deu a notícia do que aconteceu em 29 de março de 2024, que foi a passagem do Ross Anderson, o cara que escreveu “Security Engineering”, um baita livro sobre segurança da informação. Inclusive, as edições anteriores estão na íntegra na internet. Se você procurar por Ross Anderson, vai cair no site dele e encontrar. O Bruce Schneier fez um memorial sobre o autor, tem o link lá no episódio 363, mas está em inglês. Joga lá no ChatGPT para traduzir, é pelo menos um bom uso de IA. Infelizmente, faleceu o Ross Anderson.
(32:44) E também, ali em abril, a Meta lançou o Llama 3, o seu modelo LLM open source. Então você pode baixar o modelo. Eu não sei se “open source” é o termo correto, mas é um modelo que você pode baixar. Lembrando que o GPT você pode usar, mas não pode baixar. E a Meta lançou o Llama 3 em vários tamanhos diferentes, de 8 a 70 bilhões de parâmetros. O de 8 eu consigo rodar, o de 70 não, infelizmente. Mas vamos lá.
(33:30) Isso fechou abril. Maio… Bom, em maio, nós, pelo menos aqui no Rio Grande do Sul, fomos arrebatados pelas enchentes. Então a gente começa o nosso episódio 364, foi o episódio da enchente. O Vinícius conta rapidinho: eu estava… porque 3 de Maio, que é o nome da cidade onde eu resido, também é feriado. Aproveitei, a gente aproveita para viajar. E nós tínhamos viajado e voltamos no dia que começou, 1º de maio, né? Entre 30 de abril e 1º de maio que começaram as enchentes.
(34:31) A gente chega… eu chego em Porto Alegre na madrugada de sexta-feira, uma da manhã. E o meu carro estava na garagem do aeroporto, que depois alagou tudo. Eu estava com a família toda. E a gente foi meio que fugindo do negócio. E fomos privilegiados, porque nós fomos atingidos assim, voltando de viagem. A gente pôde cancelar o hotel, que era muito próximo do Guaíba, que foi afetado. O hotel foi todo alagado.
(35:12) A gente viu de manhã cedo, no Pepsi On Stage, que é um lugar de shows bem na frente do aeroporto, um monte de gente que a prefeitura estava levando para lá, desabrigados. E de manhã, no hotel, a gente vê a notícia de que a prefeitura estava retirando o pessoal dali, porque a água podia chegar até lá. Eu ficaria no hotel mais alguns dias. E eu falei para minha esposa, para a Rafa: “Vamos cair fora daqui, porque se estão tirando gente de lá de trás, nós estamos mais perto do Guaíba ainda. Vamos embora antes que dê problema”.
(35:54) E a gente saiu do hotel e fomos para um lugar mais alto em Porto Alegre. Conseguimos pegar um Airbnb num ponto bem mais alto. E, cara, outra hora eu posso entrar nos detalhes, mas, como eu disse, para nós foi chato. É o máximo que a gente pode dizer. Eu não posso dizer que a gente foi atingido, porque, apesar da tensão, a gente não perdeu nada. Estávamos em um lugar seguro, com as crianças, e podíamos levá-las para se distrair em pracinha, enquanto tinha gente com a casa embaixo d’água.
(36:50) E a gente viu, da janela do lugar onde estávamos, toda aquela movimentação de helicópteros funcionando o dia todo. E, naquela altura, já tinha gente há mais de 24 horas em cima do telhado. E estava frio, chovendo. Foi muito ruim, cara.
(37:18) O que talvez… à medida que a gente vai vendo as notícias, a situação dessas pessoas nos telhados, que é triste pra caramba, acho que incomodou muito a gente ver a falta de notícias, que foi um ponto que a gente entrou nesse episódio e estendeu para o 365.
(37:37) Notícias teve, mas falta de informação qualificada. Era tudo desencontrado. A gente não sabia que estrada estava aberta, não tinha nenhum comunicado decente da prefeitura. Foi um horror, cara. Não se tinha informação certa sobre nada. E ainda tinha gente fazendo fake news em cima do que estava acontecendo. Foi um show de horrores, de despreparo.
(38:13) E que continua, Guilherme, jogo a bola para ti. Continua. Ontem, dia 24, a gente viu uma filmagem de uma das comportas da cidade aqui que estão abandonadas. Ainda tem água lá, ou seja, não se resolveu.
(38:32) Bom dizer para o pessoal, para quem não sabe, tem uma barreira que separa o Guaíba de Porto Alegre. E essa barreira tem várias comportas. E essas comportas, obviamente, têm que ser fechadas. E elas falharam. Quando tiveram que fechar, falharam, o que deu a inundação.
(39:07) Mas o que isso tudo tem a ver, além dessas tragédias mais próximas? Toda essa relação que depois a gente acabou fazendo, seja da falta de informação, mas também a situação de danos catastróficos. Isso tem conexão com segurança. Nós vimos muitos sistemas… a gente teve uma resiliência dos nossos sistemas aqui, mas a Procergs foi muito afetada. Alguns sistemas governamentais saíram do ar porque a Procergs, a companhia onde ficam hospedados muitos dos sistemas aqui do Rio Grande do Sul, foi afetada fisicamente.
(39:48) Então, toda essa discussão sobre danos catastróficos, gestão de incidentes e de continuidade, a relação desse incidente com fake news e com sistemas de comunicação governamentais. Em agosto, foi lançado um sistema de alertas de desastres do governo federal, mas nós acabamos comentando, passando já para o 365, em 24 de maio, sobre comunicação de desastres.
(40:26) Comunicação em caso de desastres é um aspecto da própria segurança da informação, que é a disponibilidade. Dentro da disponibilidade, nós também tratamos sobre a resiliência, a forma como os sistemas são preparados para funcionar em casos de incidentes como esse. E a questão da comunicação em casos de desastres, a gente trouxe exemplos da Europa, e estamos muito longe disso. Nós tivemos outros eventos climáticos adversos aqui no Rio Grande do Sul, e ainda não temos um bom sistema de comunicação de desastres como ocorre em outros países.
(41:14) E a ineficiência do Estado, de maneira geral, a gente acabou vendo em várias frentes. O Estado falhou, e a comunicação foi só um desses aspectos. Mas comunicação salva vidas. Porque, se o Estado tivesse se preparado, entre tantas formas diferentes, a comunicação quando chega no tempo certo consegue salvar vidas. E talvez algumas vidas teriam sido salvas.
(41:48) Mas te digo assim: quando falta o cuidado com o mais básico, quando a gente tem que lidar com políticos, seja qual for o espectro, que são tão mesquinhos, a coisa é tão baixa, a gente falha nas coisas mais… a gente perde a chance. Quando a gente tem que se preocupar demais com o básico, com o que comer, a gente não tem tempo para se preocupar com as coisas mais elevadas. Enquanto tu tens que se preocupar com uma educação mal dada, com professores que não são bem pagos, enquanto tem gente que ganha muita grana e passa de uma geração para outra benefícios do governo, e a gente tem professores tão mal pagos, são coisas tão básicas que nos faltam…
(42:40) Daqui a pouco, fazer uma análise pegando o mapeamento de riscos de desabamento, alagamento, queda de barreira, seja o que for, que já tem — a gente inclusive comentou no episódio, deu até o site para consultar —, tu não consegues fazer coisas pensando mais no futuro. A gente precisa avançar muito para conseguir se preocupar nesse nível. Não deveria, mas falta infraestrutura básica.
(43:30) Enfim, cara. Ali em maio ainda, Guilherme, bem rapidinho. A gente teve aquele recall que a gente chamou de “do re-recall”. O Windows lançou aquela ferramenta bem polêmica que fica tirando prints da tua tela o tempo todo, com o objetivo de poder responder perguntas sobre o que tu estás fazendo no teu computador. Tem questão de privacidade, uma série de coisas. E eles tiveram que fazer um re-recall, tirar o negócio do ar para depois voltar. Uma grande confusão. É um daqueles usos de IA que eu acho em um momento não muito adequado. A gente não sabe direito os impactos, tem que ser melhor analisado.
(44:17) A gente teve aquela proposição de um investimento de 32 bilhões de dólares do governo norte-americano em IA por ano. Uma proposição bipartidária, lembrando que nos Estados Unidos só tem dois partidos, Democratas e Republicanos. Isso chama a atenção para o quanto os Estados Unidos estão preocupados com essa questão do desenvolvimento da IA e de se manter adiante de todos os outros países. Eles impuseram embargo à venda de chips da Nvidia para a China por questões óbvias. E, ao que tudo indica, esse tipo de investimento… eles vão continuar investindo cada vez mais em IA para manter essa liderança, esse controle dos modelos mais avançados. Eu não sei até que ponto a Meta vai continuar distribuindo modelos de LLM treinados. Vamos ver.
(45:41) E o Jan Leike, seguindo uma série de situações, com vários pesquisadores que andaram saindo da OpenAI preocupados com a questão da segurança. Ele era pesquisador sênior de segurança da OpenAI e anunciou, em maio, sua saída porque a OpenAI estaria priorizando “produtos brilhantes” sem se preocupar com a segurança, com a questão de alinhamento, ou seja, de garantir que a IA não vá causar mal nenhum à humanidade. Nós voltaremos a esse assunto. Vai lá, Guilherme.
(46:42) Bom, ainda em maio, a gente teve a aprovação do AI Act, um dos grandes marcos europeus para a regulação da Inteligência Artificial. Certamente, é o modelo que nós vamos perseguir, a iniciativa legislativa mais sofisticada. E é importante porque, no âmbito de dados pessoais, por exemplo, a União Europeia conseguiu construir regras que acabaram influenciando o mundo inteiro, sobretudo o Brasil. Então, essa aprovação é um grande marco para a regulação da IA.
(47:38) E, ainda no âmbito de proteção de dados, mais uma vez a ANPD, ali em abril, lançou o Regulamento de Comunicação de Incidentes, um dos grandes marcos da atuação da ANPD em 2024. É um regulamento absolutamente importante, que marca e deve marcar a atuação das empresas. Nós aqui, na nossa atividade, utilizamos esse regulamento para orientar clientes, para medir risco também, cumulado com o de dosimetria. Você consegue, com esses instrumentos, fazer modelagens de risco bem interessantes para que as empresas tomem decisões. Isso se deu ali no meio do ano de 2024.
(48:29) Já em junho, a partir do episódio 366, o que nos interessou foi um pouco mais essa projeção da mudança política na Europa. Porque, com as mudanças das cadeiras da extrema-direita no Parlamento Europeu, hoje você consegue avaliar bem tranquilamente, a depender do viés político de determinados grupos, e projetar ações. Consegue saber o que cada grupo político acredita ser o melhor para a regulação ou não regulação da internet.
(49:09) Uma das projeções que se fez, e que acaba se aliando à eleição de Trump agora no fim de 2024, é que talvez essa conjunção de fatores — um aumento da prevalência da extrema-direita no Parlamento Europeu e a eleição de Donald Trump, sobretudo pela atuação de Elon Musk — a gente veja uma diminuição da criação de novas regulamentações e talvez até uma revogação, como o Trump propôs, de normas que impõem limites para a IA.
(49:50) Naquele episódio, a gente falou da possibilidade de aumento de gastos de tecnologia para a Defesa Nacional, e talvez diminuição de normas sobre direitos trabalhistas e de bem-estar social, com possíveis bloqueios em normas relacionadas à tecnologia, evidentemente.
(50:12) É muito interessante porque a ONU também fez um painel chamado “AI for Good”, e a gente trouxe a opinião da Melissa Heikkilä, que foi no evento e disse que o que ela viu lá estava muito desalinhado com a IA sendo usada para atingir os objetivos de desenvolvimento sustentável promovidos pela ONU.
(50:41) E ainda, Vinícius, ali em junho, no 366, a gente vê toda aquela movimentação, mais uma vez, dos celulares. Das mães que se juntaram, foi notícia na Folha, se eu não estou enganado, para exigir a proibição do uso de celulares antes dos 14 anos, justamente inspiradas pelo livro do Jonathan Haidt. De novo, esse negócio começou no início do ano e vai ganhando tração. Vamos ver qual o resultado. E a gente teve mais eventos relacionados a essa questão, tentativa de regular esse uso de celulares no Brasil. Mas ano que vem que nós vamos ver para valer alguma mudança de fato.
(51:38) Certo. Episódio 368, Guilherme.
(51:41) Acho que a maior notícia foi o Julian Assange, que foi solto em 24 de junho. O episódio foi gravado em 5 de julho, então a gente teve essa notícia.
(51:50) Nós tivemos a ANPD, que suspendeu a política da Meta para treinar IA e impôs algumas mudanças, inclusive na questão de avisar os usuários e dar uma chance de opt-out. Essa foi minha implicância. Acho que tinha que ser opt-in e não opt-out. Você quer? Vai lá e marca dizendo que quer que seus dados sejam usados. Mas não… tu recebeu um e-mail. Cara, eu perguntei para muita gente, para colegas, professores, em vários grupos, se eles viram o e-mail informando. E a maior parte não viu. Não estou dizendo que não receberam, estou dizendo que não viram. Ficou perdido naquele monte de e-mail. Uma coisa foi a suspensão em julho, depois tem outra situação em setembro.
(52:58) E o Phil Schiller, da Apple, se juntou ao conselho da OpenAI, em julho, com o objetivo de estreitar a relação entre Apple e OpenAI. E o resultado está aí. A gente viu agora, nas últimas semanas, os anúncios que a OpenAI fez. Entre os 12 anúncios, está uma integração no sistema operacional do macOS e do iOS, do ChatGPT integrado ao sistema, não só um aplicativo desktop. Então, está rendendo frutos essa participação. Legal a gente ver o negócio em julho e o que a gente está vendo agora.
(53:50) Ainda em julho, no episódio 370, a gente teve uma ação do MPF e do Idec contra a Meta. Não envolvendo essa questão da ANPD que o Vinícius falou, do treinamento da IA, mas sim uma mudança para o compartilhamento de dados do WhatsApp com outras empresas do grupo. Isso passou por uma avaliação da ANPD, que acabou se posicionando e estipulando medidas que depois foram cumpridas pela Meta. E aí a gente viu, com bastante surpresa, essa ação.
(54:47) A gente comentou, tivemos oportunidade de comentar com o pessoal da ANPD quando eu estive no Encontro de Encarregados, em Brasília. Mas chamou bastante a atenção, porque o MPF e o Idec entraram também contra a ANPD, alegando que haveria uma imobilidade da agência ao lidar com esse tema, e que ela não quis passar certos dados para o MPF. Teve uma rusga ali. O pedido de multa foi de R$1.7 bilhão, mas obviamente não foi julgado ainda.
(55:33) Tivemos outra atuação bastante importante da ANPD, que foi o Regulamento da Atuação do Encarregado, em julho. Um documento importantíssimo que estabelece uma série de questões sobre como o encarregado deve se posicionar. E junto com o regulamento, agora em dezembro, eles lançaram o Guia Orientativo de Atuação do Encarregado, que a gente falou no último episódio.
(55:59) Também no 371, a gente deu continuidade à minha participação no primeiro Encontro de Encarregados, realizado pela ANPD em Brasília. E eu participei falando sobre incidentes de segurança em relação com proteção de dados pessoais, que é bem nosso dia a dia aqui, né, Vinícius? Foi legal falar lá e expandir um pouco dessas observações no episódio 371.
(56:22) Beleza. Ainda no 370, Guilherme. A gente teve o que foi classificado por alguns como o maior incidente relacionado à segurança da informação da história, que foi o da CrowdStrike, que desenvolve soluções de segurança. Uma de suas soluções, que faz update no Windows, atualizou centenas, senão milhares, de servidores Windows mundo afora e tirou do ar um monte de gente. O primeiro efeito que o pessoal se deu conta foi nos aeroportos, que as telas que mostram as chegadas e partidas, tudo com tela azul. Foi para o beleléu. E aí começa o efeito em cascata, bancos caíram, hospitais, outros tipos de empresas.
(57:24) E nós tivemos, mais uma vez, uma atualização da RockYou 2024, aquela lista de senhas compiladas de vazamentos. Um monte de gente noticiou como sendo 9 bilhões de senhas que vazaram. Isso é bem relativo. Primeiro, porque a RockYou é uma lista de várias senhas vazadas em situações diferentes, em anos diferentes. E esses 9 bilhões de senhas, se tu for dar uma limpada… a gente baixou da internet para dar uma olhada. Se for limpar, tirar os lixos, senhas que não fazem o menor sentido, fica um número um pouco menor. O pessoal está falando em 10 bilhões. E a minha previsão, Guilherme, é que nós teremos a RockYou 2025.
(58:16) Beleza. Bom, agosto, 372. A gente teve os 6 anos da LGPD, e a gente fez uma projeção de algumas coisas que precisam mudar. Dá para trazer alguns aspectos aqui. Essa questão de como a proteção de dados é um valor caro para a sociedade e para as empresas. É um pressuposto ético, eu diria, para o mundo dos negócios, e muitas empresas ainda não se deram conta dessa nova realidade de compliance. Você tem uma imposição legal que muitas empresas deliberadamente escolhem não cumprir.
(59:08) Basicamente, o que a gente acha que precisa mudar é justamente uma compreensão de que as empresas precisarão se adequar. E quanto mais demorarem, maior o risco e maior o custo. A gente também espera que o governo dê apoio para pequenas e médias empresas. A ANPD também acho que deveria ter um movimento mais focado para permitir que micro e pequenas empresas consigam se adequar, porque ainda é muito difícil, caro, é uma atividade complexa.
(59:47) O que precisa melhorar é uma ampliação da conscientização. Hoje mesmo eu conversava com colegas da área, amigos que trabalham com tecnologia, em cargos de elite de suas empresas, e a visão que eles têm da segurança e da proteção de dados é uma visão muito comum entre os usuários. Para mim foi surpreendente ver profissionais de elite tendo uma ideia de que segurança e proteção de dados só servem para atrapalhar o negócio. Isso envolve uma conscientização muito forte da necessidade de entender esses temas como valores importantes para uma sociedade totalmente digitalizada. Tudo é intermediado.
(1:00:53) E também uma necessidade da proteção setorial. Os órgãos, as entidades de classe, precisariam estar atentas para como podem contribuir para que seus setores consigam se adequar. Talvez seja uma falha bem importante.
(1:01:13) E, falando em adequação, Guilherme, nesse mesmo episódio, a gente comentou sobre o Twitter (X), que resolveu não cumprir ordens judiciais. O Twitter sai do Brasil, num prenúncio do que viria a ser toda aquela coisa. É engraçado, a gente olha para trás agora, quatro meses, e a carga emocional que a gente teve ao ler, ouvir e falar sobre isso foi muito grande.
(1:01:53) Porque começa ali, em agosto, o Twitter saindo, tirando sua representação do Brasil. E depois a gente viu que essa saída foi, sim, para se esquivar de cumprir ordens judiciais. A gente falou em agosto, era uma notícia relevante, mas não imaginávamos que, no 373… a gente ficou um mês sem gravar… já estava bem estabelecido todo o embróglio da decisão de bloqueio, os ataques de Musk ao STF, as discussões sobre os limites do STF para lidar com isso e de bloquear redes, as ineficiências da nossa legislação, mas, sobretudo, a ineficácia do próprio Direito.
(1:02:40) Cada vez mais, o Direito vai ficando enfraquecido perante as big techs. Esse é o pano de fundo mais importante. E quando eu falo em Direito, não me refiro somente às normas, mas ao Direito enquanto ente que regula as competências e o próprio funcionamento das instituições. E o que ficou bem evidente foi a ineficácia dos Estados, não só aqui no Brasil. O caso do bloqueio do Twitter no Brasil se projetou para outros Estados, que começaram a ver: “Opa, mas espera aí, eu também estou sujeito a enfrentar um problema desses aqui no meu país”.
(1:03:41) Então, isso foi bem complicado, uma carga emocional difícil de lidar. Depois, começou a vir à tona o conteúdo das ordens. O pessoal começou a ver que não era brincadeira.
(1:04:00) A desculpinha furada do Elon Musk… na real, ele tem um projeto político, que não se restringe apenas… não, isso está bem claro. Não é teoria da conspiração nem nada. Ele deixou bem claro. E ele ficava falando em liberdade de expressão. E aí, quando vêm à tona as ordens, tem gente sendo perseguida, tem doxxing sendo feito ali. Tem um monte de problemas, a coisa realmente… Enfim. Vamos ver o que… promete mais, porque esse cara agora, nos Estados Unidos, vai assumir, vai ter participação no governo do Trump.
(1:04:50) Um ministério lá, uma Secretaria de Eficiência Governamental. Ele já começou a falar em reduzir em 2/3 a despesa do governo. E o pessoal já está fazendo as contas lá, eu ouço uns podcasts gringos, e o pessoal fazendo as contas: “não vai dar”. Ele vai ter que começar a fazer umas coisas impossíveis logo de cara. Mas eu acho que esse cara é capaz de ser empoderado ainda mais. E vai ter gente que acha que ele é um grande lutador pela liberdade de expressão, o que já foi desmentido várias vezes pelo comportamento dele na China, com relações com a Arábia Saudita e outras coisas. O próprio funcionamento do algoritmo…
(1:05:58) É liberdade de expressão desde que não o contrarie. Se contrariar, ele tira fora, derruba os jornalistas, derruba todo mundo que fala contra ele.
(1:06:10) Em 6 de setembro, no 374, a Starlink, que não tem nada a ver com o X, eles não queriam cumprir o bloqueio. Aí, como eles tinham sido… “Então, tá bom, vocês não querem cumprir, vão pagar junto essa brincadeira”. E aí eles cedem, dizendo que vão cumprir a ordem de bloqueio. Pelo que a gente andou lendo, diferente do X, a Starlink não é só do Elon Musk, e é uma empresa preocupada com seus ganhos, sua sustentabilidade. Parece que eles disseram: “Opa, meu amigo, aqui nós vamos cumprir”.
(1:07:02) E houve também o bloqueio de contas. E toda uma discussão jurídica se a Starlink poderia… e tem toda uma teoria do grupo econômico de fato. Certamente, o STF foi muito criticado, não só por aqueles que apoiam o Elon Musk. Nós mesmos criticamos, porque parte da decisão de bloqueio impedia que as pessoas usassem VPN, o que é um absurdo completo.
(1:07:49) De novo essas decisões… faltou uma dicazinha técnica. Mas, umas horas depois, deram-se conta.
(1:07:58) A gente teve também um probleminha com a YubiKey, aquela ferramentinha de autenticação, um desses tokens físicos. Em essência, até uma certa versão, você deve controlar o acesso físico à sua YubiKey, porque se alguém tiver acesso, pode comprometer a segurança dela. Bom, se você tem uma YubiKey, volte lá no episódio 374, ouve o que a gente falou e pega o link dos materiais para ver se você foi afetado.
(1:08:52) O Ilya, Guilherme, lembra o que eu falei do pessoal saindo da OpenAI? O Ilya Sutskever. Ele é um dos caras bem importantes na OpenAI. Ele saiu fora justamente por causa de problemas relacionados à segurança e ao superalinhamento, ou seja, fazer com que a IA esteja alinhada às necessidades humanas e que não coloque nossa existência em risco. Ele cria, então, a Safe Superintelligence (SSI), e eles conseguiram levantar 1 bilhão de dólares de investimento inicial. Essa empresa ainda não tem nenhum produto, iniciou este ano. Vamos ver o que o Ilya nos trará em 2025.
(1:09:50) Lembrando que a gente nem trouxe o assunto aqui para o podcast, porque foi depois da nossa gravação, mas a OpenAI lançou o modelo GPT-A3. Eles pularam o A2, foram para o A3. Já tem um monte de gente berrando “lobo, lobo, lobo”, dizendo “a AGI chegou”. Acho que a gente tem que esperar para ver. Esse modelo A3 ainda não foi aberto ao público, está aberto para pesquisadores de IA que têm que se cadastrar.
(11:044) Bom, em setembro ainda, 375, a gente falou sobre o “Estado da Proteção de Dados no Brasil”, um estudo feito pela Cetic.br. Eles repetiram um estudo de 2021, então a gente tem os números de 2021 e 2023. A gente falou sobre como as empresas estão lidando com a adequação à LGPD. Falamos, por exemplo, que a medida mais tomada seria a adequação dos contratos e o inventário de dados pessoais. O registro das operações também, com base no inventário, está lá no final, quase dos últimos. A gente notou e fez algumas considerações sobre isso.
(11:211) Já no 376, também em setembro… dois temas. Vou primeiro falar sobre o X. De novo, o caso X, aquele cansaço mental. Muito se criticou o STF sobre o bloqueio, sempre naquela perspectiva de usar a carta da liberdade de expressão, que é uma carta válida nesse jogo de baralho democrático. Só que, como em qualquer jogo, as cartas e as peças têm limites de movimentação. Você pode abusar de direitos, inclusive da liberdade de expressão.
(11:307) E foi o que a gente viu, porque em setembro, no âmbito de novas informações sobre todo esse processo cansativo, viu-se que as ordens de bloqueio estavam relacionadas à exposição de Delegados Federais e de parentes desses delegados. Os caras começaram a fazer doxxing e a ameaçar delegados envolvidos nessas investigações. Não era uma questão de discordar, era o uso da plataforma para atingir a vida de pessoas. A gente viu que a coisa era muito mais séria.
(11:401) Teve um bloqueio, uma liberação… o Twitter (X) ficou bloqueado por uma questão da Cloudflare. Depois disseram que a Cloudflare ia colaborar, mas ela não fez nada, foi o X que mudou. Na real, o X migrou para a Cloudflare, e os bloqueios baseados em IP não estavam mais funcionando, então abriu tudo.
(11:453) Só que setembro também foi o mês de talvez uma das coisas mais absurdas que aconteceram: o mês em que o exército de uma nação resolve transformar um equipamento utilizado por civis em bombas.
(11:508) Foram os pagers-bomba, que, ao que tudo indica, Israel, o Mossad, teria não só interceptado uma carga, mas criado ou aliciado uma empresa que fabricou os pagers com uma bomba dentro. Eles explodiram e isso matou e feriu pessoas, até crianças. A gente não está falando de uma arma que o cara carrega, mas de pagers, uma coisa que as pessoas levam para o mercado, ficam em casa com isso. Transformaram um eletrônico de uso civil em uma bomba. Isso foi bastante discutido, inclusive a ética de se fazer uma coisa nesse sentido.
(11:614) Não tem muita ética em guerra, mas existem certas limitações.
(11:621) Ah, não, claro, sem dúvida.
(11:625) Do que tu podes ou não fazer, que tipo de munição…
(11:636) Em tese existe, Guilherme.
(11:642) Sim, Convenção de Genebra…
(11:646) Eu estou dizendo “em tese” porque, quando alguém usa, o que que tu faz? Se não tem punição, é aquela história da lei que “não pega”.
(11:658) Bom, outubro, a gente falou um pouco… já que tu se antecipou antes, eu vou me antecipar agora. Acho que a questão do uso da IA, sobretudo no ensino, vai ser um tema… ou melhor, deveria ser um tema que nós deveríamos tratar em 2025. Mas acredito que não vamos ter a capacidade de fazer isso, nós, humanidade.
(11:719) No episódio 377, em outubro, a gente falou sobre o guia da Unesco para IA generativa na educação e na pesquisa. Duas observações: primeiro, uma de ordem pessoal, Vinícius. Nesse semestre, na graduação em que estou dando aula há 10 anos, eu sempre exigi dos meus alunos a entrega de um artigo científico. Sempre achei importante o cara se formar em Direito sabendo escrever e os rudimentos de uma boa pesquisa.
(11:817) E nesse semestre foi, para minha experiência pessoal, a explosão do uso do ChatGPT para a composição desses trabalhos. Para mim foi extremamente desgastante lidar com isso, emocionalmente. Eu não esperava isso. Tenho uma vizinha, professora, uma senhora, foi professora de Química na UFRGS. Eu perguntei para ela quando ela decidiu parar de dar aula. E ela disse: “Quando teve a dominação dos telefones celulares em sala de aula. Ali para mim foi a gota d’água”.
(11:919) O que eu quero dizer é que esse guia da Unesco deveria estar sendo abordado por todas as universidades do país. Qualquer curso acaba sendo atingido. O Direito está sendo muito atingido. As consequências já estão acontecendo. E se as universidades não tratarem desse problema, nós vamos ter um quadro bastante difícil. Não é somente impedir o uso de telefone celular, que também não resolve. Mas com a IA é mais difícil, você precisa de políticas universitárias para lidar com isso. A nossa tentativa no 377 foi falar sobre isso, mas não estou tão otimista com o rumo que isso está tomando no âmbito das universidades.
(12:025) Cara, eu tive sorte que conheci o aluno. Fui convidado para a banca dele porque o conhecia, e de fato foi um dos melhores alunos da última turma. O que me incomodou muito foi o uso cada vez mais intensivo de celular em sala de aula. Não importa o que tu faças. E o trabalho dele estava excepcionalmente bem escrito, sem um erro de português, e a fluidez na leitura, sabe, como um bom livro. Eu me certifiquei de que ele de fato tinha feito o trabalho, ele domina muito bem o que fez. Mas, ao mesmo tempo, me chamou a atenção isso.
(12:125) Eu não sei avaliar até que ponto a escrita era dele. O conteúdo era dele, mas não sei até que ponto não fica muito pasteurizado.
(12:144) Você nota os padrões.
(12:147) Não, mas até o dele estava bem suave. O que chamou a atenção foi a ausência de “nada” e a fluidez. Não tinha aqueles chavões, aquelas coisas hiperbólicas que a IA coloca.
(12:213) Um dos argumentos que chegaram para mim foi: “Não, eu usei a IA, mas só pedi para ela reescrever o meu trabalho”. Você fica pensando: qual o objetivo de você pedir para a IA reescrever seu trabalho? E, na falta de uma política acadêmica, o professor acaba tendo uma carga com a qual não consegue lidar.
(12:248) Sim, eu acho, Guilherme, que fica muito desigual. Fica muito fácil gerar conteúdo e muito difícil avaliar. Uma máquina gerando e uma pessoa avaliando. A balança fica desequilibrada. Mas esse é um assunto que nós voltaremos no ano que vem.
(12:314) Eu peguei alguns livros para ler sobre criatividade, é uma coisa que está me incomodando bastante. Até que ponto a gente pode dizer que a IA cria alguma coisa? A resposta não é fácil. Estou lendo Margaret Boden, que fala sobre criatividade, e ela puxa isso desde 1984. Ela é bem “pé no chão”. E acabei encontrando o livro sobre criatividade do cara que escreveu “Flow”. Vou citar isso quando a gente for gravar ano que vem.
(12:431) E estou lendo outras coisas. Por recomendação do Guilherme, se alguém quiser uma leitura de final de ano: “Sentir e Saber: As Origens da Consciência”, do António Damásio. A gente começa a entrar em outras coisas: criatividade, consciência, o papel dos sentimentos. A gente vai ter que discutir muito, porque a coisa não vai ser tão fácil de “usa ou não usa IA”. Acho que tem várias gradações no meio do caminho.
(12:518) Mas, enfim, esse é assunto para o ano que vem. Vamos seguir na retrospectiva. Em outubro, a gente teve o retorno do X. Após o pagamento da multa — “não vamos pagar”, “vamos sair do Brasil” —, depositaram a multa na conta errada, e o X volta. E muitas pessoas se deram conta de que existiam outros espaços menos tóxicos. O Blue Sky foi um deles. Eu não tenho mais o X instalado no meu celular, tenho o Blue Sky e estou muito feliz.
(12:608) O Blue Sky teve um salto de usuários, passou de 500 mil em agosto para 2,5 milhões agora em dezembro. Está aumentando nos Estados Unidos também. Eu gosto de escutar o The Hard Fork, um podcast do New York Times, e lá eles comentaram sobre o aumento da base de usuários do Blue Sky. Passou a ser uma rede mais tranquila. Ontem mesmo lançaram os trending topics, e o pessoal já está reclamando que iriam poluir.
(12:658) E também tivemos o retorno do caso Córtex, um dos grandes escândalos governamentais do ano. Basicamente, um sistema do Ministério da Justiça que agrega dados de várias fontes — OCR de câmeras, bilhetagem de ônibus, dados do SUS — e está sendo acessado por um grande número de pessoas, já foi usado por golpistas.
(12:724) E, mais uma vez, quando a gente fala em direitos fundamentais… eles tiveram uma vocação inicial de serem direitos oponíveis contra os abusos do Estado. E quando a gente vê, mais uma vez, o Estado abusando desses sistemas e violando o direito fundamental à privacidade e à proteção de dados, a gente vê como essa banalização, aquela coisa de “eu não fiz nada de errado, então não tenho que me preocupar”, ela acaba atingindo a todos. Porque, em última análise, a gente fica vulnerável.
(12:837) Tivemos mais ali… Cara, o Internet Archive nos deixou na mão. Sofreu um ataque. A gente hospeda nossos episódios lá. Eles foram atacados e ficaram fora do ar por mais de uma semana, a ponto de a gente ter que começar a subir episódios no S3 da Amazon.
(12:914) A gente teve, de novo, o assunto da proibição de celulares em sala de aula. Falamos sobre uma pesquisa do Datafolha que revelou que a maioria dos pais apoia a proibição para melhorar a concentração dos alunos. De novo esse assunto.
(12:949) Lembrando que foram 28 episódios este ano. Em outubro ainda, a gente gravou uma live, “10 Recomendações para a Gestão de Incidentes”, e lançamos um e-book nosso sobre esse tema. Eu até anotei uma frasezinha sua, Vinícius: “Resposta a incidente é algo que envolve a todos na empresa”. Seja pela criação de uma cultura, claro que você vai ter o time de resposta, mas a gente tem, entre essas 10 recomendações, a criação dessa cultura e a responsabilidade dos próprios usuários de indicarem a ocorrência ou suspeita de incidentes. Foi um marco interessante ali em outubro. Se você tem interesse, fica o 379 lá, e você ainda consegue baixar o e-book.
(13:109) Beleza. 380, em 22 de novembro, já falamos sobre algumas intenções do Trump pós-eleição, no caso a intenção dele de revogar uma Ordem Executiva em relação à IA do governo Biden. Acho que essa vai ser uma das tônicas em relação às big techs de maneira geral, talvez um retorno de algumas regulações importantes.
(13:155) A gente tem mais notícia envolvendo IA. Dessa vez, a Microsoft fazendo parceria com a HarperCollins para acessar obras de não ficção para treinamento de modelos de IA. A notícia em si, solta, não tem muito interesse, mas o que ela nos mostra é essa busca por fontes de informação confiáveis e sólidas para treinar a IA, porque tu não treinas com fake news ou com lixo. Senão, tu vais ter uma IA que vai te dizer que a Terra é plana. Tu precisas de material de qualidade. Não nos espanta, a gente vai ver isso cada vez mais.
(13:252) E também tivemos aquele momento “dinheiro for free”. O pessoal aproveitou um bug que apareceu no Nubank para sacar dinheiro de graça. Muito curioso o que aconteceu. Inclusive, no episódio 380, a gente corrige algumas avaliações sobre o que pode acontecer com as pessoas que sacaram esse dinheiro. A mensagem que fica é: entrou um dinheiro estranho na tua conta, o dinheiro não é teu. Ou tu viu que consegue sacar além do teu limite? Não faça isso. É óbvio. Quer saber mais? Vai lá no 380.
(13:338) E os últimos dois episódios. 381, falamos sobre o julgamento do artigo 19 do Marco Civil da Internet no STF. Acho que a gente se precipitou um pouco, porque falamos longamente sobre o voto do relator, o Toffoli. O voto dele tem algumas imprecisões. Já teve uma divergência do Barroso. O julgamento fica para o ano que vem. Ou seja, voltaremos a esse assunto.
(13:409) Pode ser que seja um tema que promova uma movimentação do Congresso em 2025 para legislar sobre isso. E, já se aproximando do que esperar para 2025: como as big techs vão reagir? Porque, muito provavelmente, e eu mantenho essa projeção, vai ser considerada a inconstitucionalidade do artigo 19. Como que elas vão reagir ao enforcement dessas novas regras? Porque o que temos visto é a imposição da vontade das big techs aqui no Brasil, seja pela oposição direta a ordens judiciais ou por um lobby feroz no Congresso. Claro que as empresas têm o direito de colocar seus interesses no processo legislativo, só que esse interesse não pode se sobrepor ao bem comum.
(13:513) E no 382, o último episódio antes desse, fresquinho: PL de IA no Brasil avançando, Droga Raia multada pelo Procon de Minas Gerais. E mais uma de IA que me chamou a atenção: a IA fingindo alinhamento. A Anthropic fez uma experiência com um modelo de IA deles, tentando mudar o alinhamento, e a IA resistindo ativamente, meio que tentando enganar as pessoas. Mas, por favor, antes de sair dizendo por aí que a IA criou consciência e saiu tentando dominar o mundo, ouve o episódio e dá uma lida no conteúdo dos artigos. É muito interessante.
(13:626) Agora sim, Vinícius, o que esperar de 2025? Eu vou falando e você vai me interrompendo.
(13:640) Quem está assistindo agora, como a gente passou bastante do nosso horário, eu tenho uma janela aqui sem cortina, e o sol vai começar a bater na minha cara. Não se assuste.
(13:703) 2024 foi, definitivamente, o ano da Inteligência Artificial. E também o ano da ANPD. A gente teve mais ações. A suspensão da política da Meta, atuação contra o X, os guias e resoluções (comunicação de incidentes, encarregado, transferência internacional). Basicamente, o que a gente falou durante o ano foi governança de segurança, proteção de dados e IA.
(13:803) E muito forte na IA, os impactos da tecnologia na sociedade: celular nas escolas, sistemas espiões, a relação de tecnologia e comunicação — as falhas de comunicação na enchente poderiam ter salvo vidas. E tivemos vazamento de dados. Resumindo: conflitos entre big techs e Estado (WhatsApp, X, TikTok).
(13:845) E me parece, Vinícius, que a gente teve a consolidação da ideia da proibição dos celulares. Veja, o que a gente vai esperar para 2025? Eu acho que a gente vai discutir esses assuntos. Eles não estão desconexos. A IA, o celular, estão bem ligados.
(13:915) As discussões serão, assim espero, bem mais profundas ano que vem. A gente tem que pensar o uso de tecnologia de maneira mais profunda. Com o avanço da IA, a gente vai ter que pensar mais no que é ser humano. A gente ouve muita gente da área falar isso. Mas eu acho que a gente tem que pensar antes na questão da tecnologia. O que o ser humano está fazendo da tecnologia?
(14:003) E aí a gente vê a questão do uso de eletrônicos por crianças. Não só celular, tablet também. E os usos que as crianças estão fazendo em consequência do que os adultos estão fazendo. Porque a criança não compra o celular, não tem como levar para um restaurante. Os pais que têm que fornecer.
(14:051) Mas, o que esperar para 2025? Cara, eu acho que nós vamos ter que discutir, se quisermos resolver, o uso da tecnologia de maneira geral pela sociedade, não só pelas crianças. Teve matéria agora, de uma família dizendo que a idosa, a avó, ficava o tempo todo no celular e ficava nervosa quando tiravam. Eu espero que a gente discuta mais o uso da tecnologia nos mais diversos âmbitos.
(14:140) E, consequentemente, nas escolas. Porque não é só a escola, e não é só o celular. Eu, às vezes, sinto, em relação à criança, quase como uma vingança dos adultos, uma punição. Às vezes eu vi meio sádico: “Eu vou proibir o uso de celular”. Mas o celular é um pedacinho do problema. Esse foi o equívoco. E se a gente continuar nesse equívoco em 2025, não vai dar certo.
(14:248) E nota, Guilherme, eu tampouco acredito que a resposta seja a simples proibição. A gente tem que discutir, analisar e fazer. Eu tenho insistido na instituição educacional onde tenho envolvimento que as escolas deveriam ser o centro dessa discussão, de instrução não só dos alunos, mas da sociedade. Se a gente não fizer isso, boa sorte. Os alunos já não compram mais notebook, eles gastam 6, 7 mil paus no celular e fazem trabalho no celular. Nós vamos ver cada vez mais isso acontecendo.
(14:432) É interessante a coisa dos pais, às vezes, ficarem bravos com os professores quando eles indicam o problema do filho: “Ah, você que tinha que resolver”. Acho que a gente poderia usar o espaço escolar para ser uma fonte de discussão desses problemas a partir da criança.
(14:459) E projeções: nós vamos ver avançar a regulação da IA no Brasil. Não sei se esse projeto que volta para a Câmara vai ser aprovado, mas eu imagino, se pudesse apostar, diria que sim. Se conseguir vencer o lobby das big techs, tudo indica que a gente vai ter uma lei de IA nos moldes do AI Act aqui no Brasil em 2025.
(14:525) Eu acho que a gente vai ver aumento de desinformação por conta de IA. Eu acho que os deepfakes…
(14:553) Essa parte do deepfake eu não sei. O pessoal estava esperando, eu acompanhei bem de perto nas eleições dos Estados Unidos, e não foi aquela profusão toda que esperavam. A coisa foi muito mais básica, menos sofisticada.
(15:010) Mas você precisa preparar. Eu recebi um videozinho de Natal que pegaram várias pessoas que já morreram, fizeram um vídeo com o Silvio Santos, o Senna… meio malfeito, e todo mundo comentando “ah, que legal, o potencial da IA”. Você precisa incutir essas coisas. Essas utilizações menorzinhas me parecem um treinamento, uma percepção de como as coisas estão sendo enxergadas. Eu acho que a gente vai ver uma ampliação desse uso irrefletido de IA em cenários não recomendáveis.
(14:657) Você falou antes: “ah, o cara usa a IA para corrigir o português”. Não, o ponto não é esse. O cara não vai usar a IA para corrigir o português, ele vai usar a IA para fazer todo o trabalho para ele.
(14:707) Desculpa, estou generalizando. Sim, eu acho que vai ter gente que vai fazer isso.
(14:715) Justamente esse é um problema. Se tu tens pessoas que não estão sendo adequadamente preparadas, elas vão fazer que nem faziam com a Wikipedia: vão copiar e colar.
(14:738) O Musk, última noticinha, também está começando a jogar suas baterias contra a Wikipedia agora. “Ah, que bom”. Esse cara está ficando pirado. Mas, se nós não resolvermos as questões mais básicas relacionadas à educação, à instrução, nós só teremos cada vez mais problemas. Antes se copiavam coisas da internet… eu tive alunos que, anos atrás, um cara simplesmente copiou um trabalho de alguém da Universidade Federal da Bahia, botou o nome dele e imprimiu. Foi zerado. Com a IA, agora, o cara vai escrever um trabalho inteiro e, se tu não tiveres como provar que não foi ele, vai ter que aceitar. Ou vai parar de cobrar artigos.
(14:850) Agora, quem estuda, quem entende, quem se dedica, também vai usar IA. E aí que eu vejo a grande discussão que a gente tem que ter sobre criatividade e IA. A gente precisa ter essa discussão. Até que ponto eu posso usar? Um uso simples de “corrige meus erros de português, mas não altera meu estilo”? Passando por “estão aqui minhas ideias, estruture isso num texto”? E o outro extremo de “escreve para mim um artigo sobre tal coisa”? A gente precisa encontrar um caminho no meio.
(15:004) E eu comecei a fuçar mais a coisa da criatividade quando fiquei sabendo da confusão que rolou lá no canal Meteoro Brasil. Eu não acompanho, não sabia. O Álvaro foi “cancelado” porque usou IA para fazer algumas capas no YouTube. E eu vi o pessoal discutindo a questão de arte, várias opiniões diferentes. O canal do Henry Bugalho traz um outro contraponto. Por isso, esse é um tema que nós vamos ter que discutir, trazer para o Segurança Legal.
(15:109) Tem gente como o Miguel Nicolelis, que é taxativo em dizer que a IA não cria, é uma máquina de plágio. E tu tens outras pessoas, como o Geoffrey Hinton, o “padrinho da IA”, que diz que não é tão simples dizer que é só um papagaio que calcula probabilidades. Ele saiu do Google para se dedicar mais ao estudo da IA. Eu acho que não é tão simples.
(15:240) A projeção que eu tinha feito para 2025, eu mantenho, Vinícius. Eu acho que o estado de coisas, a forma como a adoção irrefletida da IA já está se dando, vai empurrar as pessoas para usos cada vez mais irrefletidos em cenários não recomendados. As pessoas estão sendo empurradas. Os contextos da vida têm cada vez menos tempo. Na sala de aula, 80% dos alunos não estão prestando atenção. Claro, com celular. Isso no ensino superior. O que essa circunstância levaria as pessoas a fazerem?
(15:407) Não há o interesse das empresas em projetar um uso saudável, assim como não há o interesse das empresas de redes sociais. Você pega TikTok, Instagram… você olha para aquilo e pensa: “esses caras estão delirando, sabendo que tem crianças usando”. O potencial de vício está atingindo até idosos. Me parece que esse estado de coisas levará a usos cada vez piores. Minha previsão é que, a cada dia que passar, vai ser pior. Você vai encontrar novos maus usos, e me parece que os maus usos vão se projetar sobre os bons. Posso estar errado, mas é uma projeção.
(15:497) Eu discordo. Minha previsão é um pouco diferente. O que me preocupa talvez mais é a “weaponização”, transformar a IA numa arma. Isso eu acho bem crítico. A gente já está vendo uma corrida por governos, principalmente o norte-americano, nesse sentido. Existe uma preocupação de quem vai atingir a AGI (Inteligência Artificial Geral) primeiro, e o impacto que isso vai ter na geopolítica. Você vai ter “super CEOs”, departamentos de governo sendo tocados por IA, conselheiros de IA tocando decisões de conflitos mundiais. O que vai acontecer?
(15:556) Como tudo que a gente cria, tem um potencial enorme para ser mal utilizado. Mas, ao mesmo tempo, acho que a gente vai ter coisas muito boas surgindo, principalmente na área médica. Isso já está acontecendo e vai ser acelerado. Então, nós vamos ver uma corrida com as duas coisas, Guilherme. Coisas boas e, ao mesmo tempo, um mau uso intenso. Acho que para 2025, o pessoal vai começar a largar robôs em zona de conflito com uma certa autonomia.
(15:708) Com o Trump, nós vamos ver, previsões meio óbvias, um caminho contrário à regulamentação e ao controle. Sobretudo com as ações do Elon Musk, de promover uma liberação, a criação de IAs sem os “guard rails” necessários, sejam éticos ou, pelo menos, controles legais, sobretudo na questão de discriminação, curadoria de dados. Me parece que há um espaço importante de prevenção de riscos, e o que vinha se formatando como um consenso mundial, vai haver um retorno dessas questões em 2025.
(15:832) E o que a eleição americana mostrou foi uma nova era, uma participação mais ostensiva das techs nos processos eleitorais.
(15:857) Não uma participação, porque grandes empresas sempre participaram. Nos Estados Unidos, o lobby é perfeitamente legal. Mas o que a gente está vendo é um passo adiante, uma participação direta no governo, não de apoio, mas no governo. E isso é uma tendência preocupante, porque essas empresas nem sempre estarão comprometidas com o bem comum, que é o objetivo de um Estado.
(2:03:38) (…) bom pessoal, nós conseguimos então, com este último episódio, fazer o episódio mais longo do Segurança Legal de 2024. Ficamos com duas horas.
(2:04:06) E, para terminar, claro, desejamos Feliz Ano Novo para todo mundo. Que 2025 seja melhor. E terminamos agradecendo a todos aqueles e aquelas que nos acompanharam durante esse ano, que nos apoiaram financeiramente ou nos indicando, nos ouvindo, concordando e discordando da gente. A gente espera que 2025 seja um ano de mais episódios, mais interação, mais apoios. Mas sempre contando com a atenção de todos. Esse projeto é feito para você que nos escuta. Então, eu termino com um muito obrigado.
(2:04:59) Valeu, muito obrigado a todos, muito obrigado, Guilherme. Um abraço e nos vemos em 2025.
(2:05:05) Nos encontraremos no próximo episódio do podcast Segurança Legal em 2025. Até a próxima.
(2:05:12) Até a próxima.

108 Listeners

111 Listeners

179 Listeners

174 Listeners

91 Listeners

43 Listeners

1,010 Listeners

121 Listeners

78 Listeners

46 Listeners

30 Listeners

20 Listeners

19 Listeners

4 Listeners

1 Listeners