
Sign up to save your podcasts
Or


Neste episódio comentamos sobre os perigos da IA, a desinformação acerca de VPNs e a controversa lei “One Big Beautiful Bill”, que propõe uma moratória na regulação de inteligência artificial.
O tema central é a encruzilhada ética das novas tecnologias, especialmente a inteligência artificial. Guilherme Goulart e Vinícius Serafim contrastam o impulso para o desenvolvimento rápido e não regulamentado da IA, exemplificado pela “One Big Beautiful Bill” nos EUA, com os apelos por uma supervisão ética por parte de figuras como o Papa Leão XIV e especialistas em segurança. Você irá aprender como tecnologias como VPNs são frequentemente promovidas com promessas enganosas de anonimato e como sistemas de IA falhos já são usados em decisões críticas, sublinhando a necessidade urgente de regulação e princípios centrados no ser humano.
Se você se interessa por segurança digital, privacidade e os impactos da tecnologia na sociedade, não deixe de assinar o Café Segurança Legal no seu agregador de podcasts favorito e seguir nosso canal para não perder nenhuma discussão.
Visite nossa campanha de financiamento coletivo e nos apoie!
Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing
ShowNotes
📝 Transcrição do Episódio
(00:01) [Música] Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 394, gravado em 9 de junho de 2025. Eu sou Guilherme Goulart e, junto com o Vinícius Serafim, vamos trazer para vocês algumas notícias das últimas semanas. E aí, Vinícius, tudo bem? Olá, Guilherme, tudo bem? Olá aos nossos ouvintes e aos internautas.
(00:24) Dessa vez, acho que vai para o YouTube. Não vai dar problema no vídeo de novo. Vamos torcer para que sim. Vai para o YouTube ou vai dar problema? Vai para o YouTube. Tivemos um pequeno detalhe técnico e o último episódio não foi para o YouTube, mas ficou no feed. O áudio está lá.
(00:41) Só não tem o nosso vídeo. O áudio está. Este é o nosso momento, como vocês já sabem, de conversarmos sobre algumas notícias e acontecimentos que nos chamaram a atenção. Pegue o seu café e venha conosco. Hoje estou com um chazinho. Então, pegue o seu chá, sua bebida preferida, e venha com a gente. Você já sabe que consegue nos contatar pelo [email protected] ou também no Mastodon, Instagram, Bluesky e YouTube.
(01:06) E também tem o nosso blog da Brownpipe, que você já conhece, onde consegue ficar atualizado e se inscrever em nossa mailing list sobre as notícias. Algumas delas, inclusive uma que trataremos hoje, está lá no blog. E antes de começarmos, Vinícius, temos duas mensagens de ouvintes. Gostaria de destacar que tive a oportunidade de participar do Primeiro Congresso Gaúcho de Responsabilidade Civil do IBERC e da Unisinos.
(01:34) Foi feito lá na Unisinos, a convite do meu querido amigo Cristiano Colombo, e parabenizar o Cristiano e os outros organizadores do IBERC também. Foram dois dias de muitas palestras. Falei sobre danos nos ambientes de IA, então pude compartilhar e conversar com o grupo sobre algumas coisas — algumas bem presentes, outras mais projetadas — de possíveis danos que podem ocorrer nesse ambiente.
(01:56) Diga, Vinícius. Não colocamos isso na pauta, mas dê alguns exemplos dos danos decorrentes do que você comentou lá. Dentre os mais conhecidos, estão os potenciais de discriminação, questões relacionadas ao uso de reconhecimento facial, mas também questões menos faladas. Por exemplo, o pessoal do OWASP tem um guia bem interessante sobre vulnerabilidades no ambiente de IA, e tirei de lá algumas possibilidades de data
(02:27) poisoning, por exemplo. Porque quando falamos de IA — e tenho dito isso sempre que falo para audiências mais diversas — IA não é só o ChatGPT. Temos no Hugging Face cerca de 1.700.000, sei lá, possíveis modelos. No Hugging Face, logo chegaremos a 2 milhões de modelos; 1.700.000 foi a última vez que vi. Então, você tem uma série de questões sobre treinamento desses modelos, sobre gestão de dados,
(02:58) sobre o uso de ferramentas de IA para prestação de contratos mesmo. Até conversava com o pessoal lá depois, imagina, alguém te contrata como advogado para dar um parecer e, dependendo do advogado, do professor, pode cobrar tranquilamente centenas de milhares de reais por um parecer específico. Então, acho que teremos que começar a discutir também até que ponto obrigações que devem ser realizadas somente por aquele devedor, por aquela pessoa
(03:30) específica, qual o grau de interferência ou de intensidade que a IA poderia ter. E aí, os danos possíveis seriam no ambiente contratual, ou seja, descumprimento contratual pelo próprio uso da IA; danos sobre você carregar certos dados que eventualmente não poderiam ser carregados nas IAs e esses dados poderem ser utilizados para atividades de treinamento e, eventualmente, aparecerem; danos de dados de clientes, dados pessoais, dados sensíveis. Foi mais ou menos nessa linha. Não estou lembrando de cabeça de
(04:02) todos aqui, Vinícius, mas foi mais ou menos nessa linha. Você foi citando e fui lembrando de alguns exemplos. Tivemos aquele caso no Brasil de um rapaz que estava em um jogo de futebol e foi erroneamente reconhecido pela IA como sendo um criminoso, um foragido. E aí ele saiu escoltado pela polícia.
(04:22) Foi uma exposição gigante do cara. Não sei que fim levou esse caso. Tivemos aquele caso, falando em prejuízo não só para a pessoa física, mas para uma pessoa jurídica também, daquela companhia aérea que comentamos inclusive no podcast há um tempão,
(04:40) na qual foi obrigada a restituir uma passagem aérea, etc., porque a IA inventou uma situação de reembolso que não existia. Eles tentaram se esquivar dizendo: “Não, mas foi a IA que fez”. A resposta foi: “Você colocou a IA para falar em seu nome, então você vai atender à demanda do seu cliente”. Teve essa também.
(05:04) Outra coisa que conversei com você na semana anterior é sobre um dano, que seria uma vulnerabilidade, mas o dano aqui ocorre com a exploração da vulnerabilidade, que é o “dano de excessiva agência”. Isso é trazido pelo OWASP: dano de excessiva agência da IA. Qual é a tendência? É mais uma tendência, mas tenho certeza de que vai acontecer. Hoje, as ferramentas de IA, sobretudo os LLMs, são muito reativas. Você pede para ela fazer algo, ela faz e pronto. Com a popularização dos agentes e as
(05:41) possibilidades de agentes fazendo coisas para você de forma autônoma, ou seja, qual é a diferença? É que o agente tem autonomia para atingir um determinado objetivo, um determinado propósito. O exemplo que gosto muito, e o Gemini já faz um pouco disso, mas ainda te pede autorização para fazer, é que ele acha e você pede para ele reorganizar sua agenda, ele faz uma reorganização, só que você precisa dizer: “Eu aceito que faça isso”. Usei bem pouco, mas assinei para ver como funcionava
(06:12) lá. Imagina um assistente pessoal que de fato organiza sua agenda, compra passagem para você, manda e-mail. Isso é plenamente possível e está em uma fronteira, me parece, muito próxima. Então, as possibilidades de erros nessa circunstância de você dar excessiva agência para a IA, acho que vai trazer uma nova fronteira de danos para essa área.
(06:39) No que diz respeito ao usuário final, ainda se apanha muito para entregar um agente decente e fácil de usar. A OpenAI tem alguma coisa, inclusive aquelas tarefas agendadas. Se não estou enganado, no Gemini eles implementaram a mesma coisa.
(06:59) Tem também tarefas agendadas lá para fazer tarefas repetitivas com agendamento, mas ainda em um nível muito básico de agenciamento. E vimos o fiasco da Apple tentando colocar a Siri com GPT, etc., para tornar o telefone praticamente um agente, no qual você simplesmente manda que ele faça coisas, e vimos o que aconteceu: a coisa não deu muito certo.
(07:25) Vai dar, mas naquele momento não deu. Ao mesmo tempo, o uso de agentes de IA no ambiente corporativo, ou seja, para desenvolver soluções que estão atendendo as pessoas, já vem de bastante tempo, já é realidade há alguns anos. Claro que tem uns chatbots muito malfeitos por aí que irritam só de ver. Acho que nem tem IA, acho que é alguém que fez um looping para te atender e você não consegue sair daquele looping. Mas tem coisas que funcionam muito bem. E você tem diversas ferramentas.
(08:04) Não estou fazendo propaganda de ferramenta aqui, gente, mas só para citar três que vocês podem procurar, para quem não conhece, entender o tipo de coisa que estou falando: o Flowise é uma dessas ferramentas,
(08:23) o LangFlow e o n8n. Existem essas e muitas outras. Citei três de que lembro de cabeça. Essas ferramentas permitem criar fluxos de automação envolvendo agentes de IA e integração com todo tipo de serviço que se possa imaginar, desde a reação à leitura de um e-mail.
(08:41) Tem aquele que você usava um tempo atrás, Guilherme, para automação também. É o IFTTT. If This Then That. Eles já estão começando também a incluir agentes. No IFTTT eu não tenho certeza, mas vi outro desses dias para atividades de marketing que é justamente isso. Sim, ele monta campanhas.
(09:09) E a grande sacada para essas coisas funcionarem são, primeiro, as APIs desses grandes modelos. OpenAI, Anthropic, Gemini, Grok, todos esses caras têm APIs para você consumir. Então, você consegue acessar modelos extremamente potentes sem ter que criar uma infraestrutura sua de IA para atender, o que você não conseguiria, não com modelos desse tamanho.
(09:40) E a capacidade desses modelos — e isso, de uns meses para cá, se tornou mais comum entre os diversos modelos — de usarem ferramentas. Então, fica muito fácil integrar com outras coisas do seu ambiente. Você pode, por exemplo, querer que a IA seja capaz de consultar um banco de dados todo ou uma tabela específica.
(10:05) Se você criar um programa em Python, em Go, seja no que for, em que tem parâmetros para ele fazer a busca, e aí você faz uma pequena documentação, uma declaração, pode ser em Python também, dizendo: “Olha, esta função você chama passando esses parâmetros aqui, cada parâmetro tem esse tipo e serve para tal coisa”.
(10:23) E você escreve textualmente para que serve. Aí, quando você faz suas consultas na IA, você passa no contexto, junto com o seu prompt, etc., uma estrutura que diz quais são as ferramentas disponíveis.
(10:46) E aí tem um protocolo que a Anthropic lançou, que é o MCP, que é justamente para fazer essa integração entre modelos de IA e entre ferramentas e IAs, que meio que está se tornando o padrão de fato para fazer essas integrações. O que acontece? Você consegue plugar na IA, em vez de uma busca na web que eles disponibilizam, a sua busca de IA, a sua busca na internet; você consegue plugar na IA a sua busca por dados no seu banco de dados, na sua aplicação.
(11:17) E isso explodiu o que dá para fazer. A partir daí, a IA te dá, com os prompts, você padroniza os resultados que ela te dá e aí você põe a IA como parte do seu fluxo. Ela não faz tudo, você a põe como parte do seu fluxo. E essas ferramentas que citei já fazem isso há algum tempo.
(11:43) Até para tomadas de decisões que eventualmente poderiam ser mais complexas. Quando ativar o cliente ou… A coisa mais básica: receber movimentos dos clientes. A coisa mais básica que você pode fazer é: você tem lá um n8n, por exemplo, pode plugar na sua conta do e-mail, do Gmail, ele já tem um componentezinho direto para ligar.
(12:05) Aí você pode dizer que o gatilho é quando chega um e-mail. Chega um e-mail e você faz o processamento que quiser do negócio. Aí você põe a IA, põe quantos prompts quiser, põe um fluxo mais complexo, menos complexo, etc.
(12:23) Se você quiser criar um resumo dos seus e-mails do dia não lidos, não sei, é infindável o que se pode fazer. Você pode conectar, que é uma coisa que o Gemini eu acho que não faz. O Gemini poderia fazer isso. O n8n… o Flowise é pago, é muito bom, mas é pago e não é muito barato. O n8n você consegue usar free. Inclusive, depois se quiser eu te dou acesso a uma instância que tenho aqui de teste para você dar uma olhada, que é bem legal.
(12:47) É bem legal. Mas, no final das contas, o que temos é esse monte de possibilidades. E veremos isso cada vez mais. Para nós, usuários finais, digamos assim, vai ser cada vez mais fácil usar. Mas ainda não está legal. Ainda falta. Imagina comprando passagem.
(13:11) Você diz: “Ah, vou viajar semana que vem para dar uma palestra em tal lugar”. Ele já vai lá, ajusta toda a sua agenda, já envia e-mail para as pessoas, já compra passagem, já reserva hotel, já não sei o quê, já faz um Pix. Sim. Mas imagina o seguinte, isso que é o mais interessante. Imagina: “Olha, quero visitar tal lugar, mais ou menos em tal época, mas não me decidi exatamente quando vou”.
(13:41) “Quero que você fique monitorando e, quando a melhor combinação de preços entre estadia, deslocamento, etc., se fizer disponível, quero que você me chame e me apresente uma proposta de viagem”. Então, entende? Uma coisa bem para o futuro, que se poderia fazer. É legal. É interessante.
(14:00) Teremos isso, é só questão de ferramenta, não é mais questão de “se dá para fazer”, é só alguém fazer. Aí a IA erra e te manda para um lugar totalmente diferente. Você vai cego, compra as passagens, nem olha nada, só segue, vai no portão de embarque no dia tal, embarca e nem sabe para onde está indo. Deus me livre. Vinícius, temos duas mensagens de ouvintes aqui, podemos lê-las. É uma recomendação que o Carlos Barreto trouxe. Ele diz: “Olá, meu nome é Carlos e ouço o programa de vocês há anos. Nem lembro como cheguei a
(14:32) conhecer”. “E agora estava ouvindo um podcast novo chamado ‘Kill Switch’, do iHeart… iHeart Podcast. iHeart.” Eu achei que fosse a IH mesmo. É iHeart. “E achei que esse programa seria muito legal de vocês conhecerem, ainda mais esse primeiro episódio que foi o que eu acabei de ouvir.”
(14:51) Você deu uma olhadinha, né, Vinícius? Eu não consegui. Eu me inscrevi, já me inscrevi no ‘Kill Switch’. Achei os títulos dos episódios mais recentes deles bem interessantes e não vou emitir opinião agora, Carlos, mas vou ouvir. Já está no meu feed aqui. Vou me inscrever. Muito obrigado pela indicação.
(15:08) Só para vocês terem uma ideia, deixa eu ver se consigo pegar aqui [Música] a listinha. Tem vários episódios, mas os mais recentes são o seguinte: “Usar IA é pior do que dirigir um carro?”. “Como a IA do Twitter ficou tão obcecada com o genocídio branco?” — aquela história dos sul-africanos brancos refugiados nos Estados Unidos.
(15:41) “Pode a IA criar um crime verdadeiramente ético?”. True crime, devemos estar falando do programa, talvez. E aí vai. Fiquei muito interessado no último, quero ver os aspectos de “se usar IA é pior que dirigir um carro”.
(16:06) Vamos ver. Obrigado, Carlos. Valeu, Carlos, um abração. E também o Michael Strey. Eu lembrava do nome do Michael Strey, já conversamos várias vezes. Fui ver nos e-mails que recebemos dos ouvintes e tem mensagem dele desde 2018.
(16:25) Então, obrigado por estar com a gente há tanto tempo, Michael. Caramba! O que o Michael falou? Vou ler aqui, Vinícius, aí depois você faz uma observação mais abalizada. Ele está se referindo ao 393, o episódio anterior em que falamos sobre a pesquisa de analfabetismo funcional. “Quando falaram sobre as pessoas não saberem identificar se uma URL é verdadeira, senti falta de comentarem sobre como várias empresas prejudicam o entendimento das pessoas sobre isso. Incomoda bastante empresas não usarem
(16:55) subdomínios do seu domínio principal e sim ficarem criando sempre novos domínios. Já vi casos como xpto.com.br, aí tem o descubraxpto.com.br, depois tem o news.xpto.com.br, todos endereços legítimos. Mas por que não simplificar para ajudar o usuário? Por que não usar algo como
(17:22) descubra.xpto.com.br ou xpto.com.br/descubra? Além de deixar mais claro, economizam em registro de domínios e certificados, e ainda deixam brecha para o atacante registrar domínios similares como validarxpto.com.br”. [Risadas] Sim.
(17:45) E aí, Vinícius? Vou fazer um pouco de jabá aqui também, Michael. A Brown Pipe tem um serviço de phishing. E uma das coisas que já observamos fazendo justamente esse tipo de coisa… e ficamos embasbacados com as coisas que aparecem. Porque ele dá um exemplo genérico aqui, claro. Talvez exista uma XPTO, não sei. Dá uma olhada.
(18:10) Alguém registrou o domínio. Mas tem vários domínios estranhos ou subdomínios estranhos de grandes players, como a Microsoft. Quando você entra na parte de compartilhamento de arquivos e vai compartilhar acesso a algum tipo de repositório de dados ou mesmo um documento, SharePoint, etc.,
(18:34) são uns links que, na boa, se o usuário tiver um pouco de consciência, ele olha aquilo e não clica. E são autênticos, são links de fato da própria Microsoft. Então, isso que o Michael coloca, eu entendo como um baita de um problema. É muito fácil enganar os usuários que estão acostumados a usar esse tipo de link.
(19:05) E sentimos isso no nosso próprio serviço de phishing. Porque quando se vai fazer um serviço de phishing, Guilherme, em geral — e agora vem a parte do jabá, Michael, mas tem a ver com a sua pergunta — vemos muita gente fazendo serviço de phishing que é o seguinte: montam 3 ou 4 e-mails diferentes com aquelas promoções furadas ou “ajuste aqui o seu imposto de renda” ou Black Friday, depende da época.
(19:29) Pega-se qual é o phishing da época, o phishing do momento. Se é Black Friday, etc., que é essa sazonalidade, faz-se esses ataques. Montam-se esses e-mails genéricos, disparam para todo mundo e veem quem cai. Esse tipo de phishing, como minha esposa mesmo falava esses dias, “isso aí não serve para nada”.
(20:04) Ela me falou assim, e ela não é de TI, é da área do Direito. Ela disse: “Não serve para nada, porque isso aí a gente já recebe todo dia”. Um usuário minimamente atento já nem dá bola para isso. Então, o que fazemos nos nossos phishings? Criamos coisas personalizadas e atacamos grupos de usuários separados.
(20:24) Fazemos ataques às vezes para uma pessoa, às vezes para grupos diferentes dentro da empresa, para evitar aquele alerta que avisa todo mundo e daqui a pouco ninguém mais cai. E justamente isso que o Michael coloca é uma das coisas que exploramos.
(20:41) Conforme a cultura daquela empresa, conforme o pessoal utiliza essas ferramentas que ficam usando esses domínios e subdomínios esdrúxulos ou links quase indecifráveis, nós, usando isso, conseguimos passar muito phishing. Então sim, o Michael está coberto de razão. Isso é meio que um desserviço que as empresas acabam fazendo.
(21:06) Ela treina o usuário para aceitar um monte de coisa esdrúxula. E a hora que aparecer um “validarxpto.com.br”, como ele deu no exemplo, o usuário se atira.
(21:26) Fiz uma pesquisa rápida por um banco, uma instituição, um banco bem conhecido, gigante no Brasil. Ele tem uma dessas ocorrências, não vou falar o nome, claro. Mas o primeiro que pesquisei aqui, porque me lembrava que tinha visto, e tem um evento que eles vão fazer, aí tem o domínio do evento, aí tem o domínio da empresa… Enfim, é furada, não dá para fazer isso.
(21:46) Isso só mostra como nossa audiência é qualificada. E obrigado, Michael, por estar conosco há bastante tempo e colaborar. E quem gosta do podcast, mande mensagem para a gente. Gostamos de ler. Inclusive, lá no evento, Vinícius, agora me lembrei, uma foi minha colega de mestrado. Na verdade, acho que eu estava fazendo doutorado e ela, mestrado, não lembro, mas fomos colegas durante esse período.
(22:13) E ela falou: “Guilherme, que bom te encontrar. Queria te dizer que escuto todos os episódios de vocês”. Fiquei bastante feliz de encontrar ouvintes do podcast. Mas, Vinícius, temos uma outra mensagem aqui, mais um protesto, uma indignação, que é sobre a questão de VPNs e alguns podcasts que ficam publicando anúncios.
(22:47) Não, não é pelo anúncio em si. O problema é que acompanho vários podcasts de que gosto muito. Obviamente, não vou perder meu tempo ouvindo um podcast de que não gosto. Ouço podcasts que curto.
(23:07) Entre os podcasts que gosto, volta e meia tem propaganda de VPN, o que em si não tem nenhum grande problema. Não tem problema fazer propaganda de VPN. O que me preocupa é a propaganda que a empresa de VPN manda para ser lida no podcast. O Guilherme falou: “Vinícius, quem sabe a gente faz um episódio sobre VPN?”.
(23:32) Já fizemos, acho, no passado. Já fizemos alguns sobre VPN. Comentem aí no YouTube se vocês querem um episódio sobre VPN para uso pessoal. Mas o que não estou curtindo muito é que o texto da propaganda dessas empresas de VPN acaba falando coisas como, por exemplo, “proteja sua identidade e não deixe que o Facebook, os governos, etc., peguem seus dados”.
(24:05) E nesse sentido que eu queria deixar uma explicação aqui no nosso podcast. Quando você usa um software de VPN… e eu já testei vários. Já usei o Proton VPN, não vou dizer qual estou usando hoje, mas já usei o Proton VPN, o Nord VPN, o Surfshark, Kaspersky. Não usei a VPN da Kaspersky, já usei um antivírus deles, mas não a VPN. Eles oferecem VPN.
(24:36) O que lembro de já ter usado com certeza absoluta foram esses três. Devo ter usado algum outro. O fato é o seguinte: VPN é extremamente útil quando você está dentro de uma rede em que não pode confiar. Então, você está em um aeroporto, um café, um restaurante, um lugar público. Airbnb, muito cuidado com Airbnb.
(25:03) Ou seja, em um lugar que tem uma infraestrutura de rede que você não controla, você tem um roteador que é de alguém, um Wi-Fi que é de alguém, uma internet que é de alguém. E quando você conecta seu dispositivo ali, se não usar VPN, você vai usar o DNS daquela rede. Ou seja, a resolução de nomes, o site que você acessa, para onde vai, depende do roteador que está acessando.
(25:26) Tem uma série de questões ali. Você vai estar usando a infraestrutura definida por uma pessoa, ou por uma empresa, que você não sabe como gerenciam aquilo, não sabe se está na mão de alguém responsável, irresponsável ou com outros interesses. Então é muito interessante usar VPN em ambientes que não são o seu ambiente de trabalho ou residencial, se você tem algum controle sobre ele. A VPN é extremamente interessante nesses casos,
(25:53) mas para te proteger de um atacante na rede local. É uma proteção extra para além dos mecanismos como o HTTPS no navegador, que funcionam, mas existem alguns ataques que podem ser feitos. Então, é útil utilizar, sim, em redes em que você não confia, principalmente.
(26:19) Essas VPNs vão esconder a sua identidade? Não. Por quê? Você vai aparecer na internet como se estivesse saindo de outro lugar. Nessas VPNs — Proton VPN, Nord VPN, Surfshark, etc. — você pode escolher o país pelo qual quer sair. Sim, o seu endereço IP não vai aparecer.
(26:43) Só que, se você acha que o seu rastreamento e o rastreamento de quem você é, dos seus dados, etc., está só no seu endereço IP, você está redondamente enganado. Seu navegador é a maior fonte de informação sobre você. E se estiver usando o celular, pior ainda, porque tem 300 ferramentas ali que compartilham, por exemplo, IDs de dispositivo. Quase toda ferramenta que você instala no celular vai estar usando o SDK do Facebook, e o Facebook sabe quem você é, logado ou não. Então, tem que haver um cuidado bastante grande. A VPN vai
(27:21) fazer você sair com outro IP. Agora, a sua identidade, se você está acessando a partir do seu celular, do seu computador, ela não vai ser escondida. Você até pode acessar a Netflix para ver de repente uma série que tem lá nos Estados Unidos e não tem no Brasil.
(27:39) Daí você conecta na VPN, sai como se estivesse lá e eles acham que você está nos Estados Unidos e aparece para você, no cardápio de filmes, outras coisas. Ou acham que você está nos Estados Unidos e te deportam depois. Te prende, vem o ICE no Brasil te prender.
(28:00) Mas você tem que entender que não está escondendo a sua identidade, não está evitando que algum governo pegue os seus dados. Você está se protegendo, em essência, da rede local em que você está. Isso é garantido. A partir daí…
(28:23) E não que eventualmente não existam pessoas que se utilizam de VPNs ou outros tipos de acesso para crimes. Sim, mas aí os caras sabem o que estão fazendo. A partir do momento que você entra em uma VPN e acessa o seu e-mail, seu WhatsApp, seu Instagram e seu Facebook, sabem quem você é.
(28:46) Tanto que você tem distribuições como o Tails. É uma distribuição Linux justamente para você colocar em um pen drive, botar em uma máquina, uma máquina zerada.
(29:13) E aí você conecta em uma VPN e usa ela. Agora, se você abrir uma máquina com o Tails, abrir o navegador e se logar na sua conta, acabou, meu amigo. Então, meu disclaimer é esse, Guilherme. Há uma certa desinformação no papel da VPN. É, há um exagero aí que é relevante. Principalmente se tem alguém escutando… um jornalista, por exemplo, em um ambiente que não é legal. Essa pessoa normalmente tem acesso a informações mais fidedignas com relação à sua proteção, acaba tendo até um suporte maior. Mas, de repente, alguém ouve e acha que está protegido: “Ah, não, eu uso VPN, ninguém sabe quem eu sou”. Não vá nessa. Use VPN, é bom.
(30:12) E cuidado, como falávamos antes, você até comentou. Cuidado com a VPN que você vai pegar. As três que citei… a Proton VPN é a que mais gosto, é a mais cara e funciona muito bem.
(30:30) Surfshark… todo serviço que tentei usar via Surfshark bloqueia o Surfshark direto, então ele acaba nem sendo muito útil. E a Nord VPN funciona bem.
(30:50) Sabe que talvez tenhamos falado sobre VPN em um episódio lá de 2019, que é um dos que mais gosto do Segurança Legal: “Segurança da Informação para Viagens”, o episódio 215. Até passei para um amigo meu que foi viajar para a Alemanha esses dias. Eu disse: “Cara, dá uma escutadinha aqui, acho que tem umas dicas boas”. Pelo que me lembro, o episódio não envelheceu mal. E ali falamos sobre VPN.
(31:16) Acho fundamental para uma viagem, por exemplo, ter uma VPN boa. Mas sim, eu estava viajando com um amigo há um tempo e ele precisou acessar alguns serviços do judiciário brasileiro, e o nosso TJ aqui bloqueava a VPN, então ele não conseguia trabalhar. Mas enfim, Vinícius, vamos adiante.
(31:44) Tenho uma primeira notícia que vou comentar mais rapidamente. É um assunto que mistura vários temas. Tivemos recentemente o conclave que elegeu o Papa Leão XIV. Foi cerca de um ano depois que saiu o filme. Você viu o filme “Conclave”, Vinícius? Sabe por que não vi? Porque virou modinha. Ninguém parava de falar desse filme. Como teve o conclave, virou uma febre, só se falava nisso.
(32:16) Vou assistir outra coisa. Vou assistir ao filme, mas agora que a poeira baixou. Já me disseram que é bom. Virou modinha, você tem razão. O filme é muito bom. Tem boas atuações.
(32:36) E a escolha do nome do Papa, e já vou explicar por que isso está aqui e por que acredito que tenha uma certa relevância para o mundo da IA. O Papa Leão XIV escolhe o nome seguindo a linha do Papa Leão XIII, que foi responsável por um documento super importante para o direito mundial como um todo, mas para o direito brasileiro, sem dúvida,
(33:02) que foi a encíclica Rerum Novarum, de 1891. Essa encíclica traz uma série de questões que vinham como uma tentativa de resposta à Revolução Industrial e ao abuso que se tinha com os trabalhadores daquela época. Pessoas trabalhando muitas horas por dia, recebendo salários indignos, crianças trabalhando em minas.
(33:27) O livro “Germinal”, de Émile Zola, fala bem sobre essa dinâmica. Ele foi morar com os mineiros para escrever o livro. Então, ele traz uma resposta a isso e, entre outras coisas, essa encíclica fala sobre a dignidade do trabalhador, sobre o pagamento de salário justo. E esse documento influenciou tanto a criação das próprias regras de direito do trabalho, que vigoram até hoje, com alguns daqueles princípios presentes no nosso ordenamento, e também a própria ideia de direitos
(34:01) sociais presentes na nossa Constituição. Além de influenciar não somente a nossa, mas outras legislações trabalhistas, esse documento serviu de base ética para a construção de políticas de proteção ao trabalhador. A própria CLT incorporou alguns dos direitos que foram baseados nessas ideias éticas: limitação de jornada de trabalho, liberdade sindical, irredutibilidade salarial, repouso remunerado, proteção do trabalho infantil. Foram coisas que se basearam nisso. Ele fala também de uma resposta à figura dos que se
(34:38) chamava de “superexplorados”. Bom, por que isso é importante? Notem que estamos falando de uma perspectiva de um estado laico, de um podcast laico também. Mas acredito que isso é importante porque não somente esse documento, mas também uma recente manifestação, agora de 2025, do novo Papa, no sentido de colocar e trazer manifestações sobre os perigos da IA. Porque aquela encíclica trouxe e consolidou uma série de valores éticos que foram utilizados pelos ordenamentos jurídicos para promover a proteção das
(35:17) pessoas e para promover algo que é muito importante. Esse documento serve para construir a ideia do que temos de “dignidade da pessoa humana”, que vai se espraiar por todo o nosso ordenamento. Hoje se fala até sobre a superexploração da dignidade humana.
(35:40) Quando não se sabe o que dizer, dizem: “Ah, isso fere a dignidade humana”. Não há critérios para avaliar a dignidade humana, mas é um dos fundamentos do nosso ordenamento jurídico. E ele trouxe essa preocupação de como a IA poderia também servir como um novo tipo de problema. Claro, tem suas soluções, seus benefícios, não descuidamos disso. Mas também de se colocar como uma voz para a discussão dos aspectos éticos da IA. É um tema delicado. Você não é
(36:22) católico e fica pensando: “Não tenho nada a ver com isso”. Sim, tudo bem. Repito, nosso podcast é laico, mas acredito que tem uma importância de ser um personagem importante para dar voz a essa preocupação ética e sobre como temos que valorizar a proteção das pessoas nos ambientes de IA e evitar algo que é muito comum nos ambientes tecnológicos: a desumanização. É você de repente transformar… um problema que acontece também com a própria proteção de dados, você transforma as pessoas em números, em códigos,
(36:57) em identificadores. Mas por trás daquilo tudo, há pessoas. Por trás da IA, há pessoas usando. Os dados pessoais são usados para treinar, você tem impactos importantes no mercado de trabalho.
(37:17) Quis trazer isso aqui porque acho que é um personagem importante para dar voz a algo que acredito que não está recebendo a devida importância no mundo: as discussões sobre os impactos éticos e tudo mais. É, e eu vejo que é importante quem tiver algum tipo de poder de influência, de capacidade de influenciar as decisões, se colocar sobre esse tema.
(37:52) Infelizmente, o que vejo, a rigor… a primeira esfera de influência são os próprios católicos, por uma razão muito óbvia. Ele é a autoridade máxima dentro da Igreja Católica. E isso diz respeito a um estado que existe de fato, o menor do mundo, eu acho. É, o Vaticano é o menor estado do mundo.
(38:19) Mas é um estado. Tem sua história. Está vinculado mais especificamente a pessoas que professam uma determinada religião, embora ele tenha um poder político hoje bem mais limitado do que já teve.
(38:36) Mas nem por isso aquilo que ele coloca deixa de ser verdade, essa necessidade de preocupação. O que lamento muito é que vejo pouca chance de revertermos essas coisas. Até comentei sobre a professora Carla, não sei se comunica. Estive em um evento da Rede Sinodal,
(39:01) fiz uma exposição sobre IA e ela fez uma na sequência, e depois conversamos um pouco. Estou vendo se consigo trazê-la aqui no podcast. Não sei se conseguiremos, porque ela tem o canal dela, suas atividades nas redes sociais. Já encaminhamos o convite por meio da assessora dela.
(39:22) Vamos ver se rola. Mas ela tem uma visão muito interessante que me deu até uma certa esperança sobre a questão da IA se regular e as coisas se normalizarem. Mas o que vejo, e comentei antes com você, primeiro, essas big techs responsáveis pelo desenvolvimento de IA… A OpenAI talvez esteja correndo por fora, meio paralela a essas empresas que antes tinham…
(39:53) A Meta fazendo sua rede social e sua IA. Temos o X que tem o Grok. É uma rede social grande e tem o Grok. Essas empresas são bastante grandes e, na verdade, não só no sentido econômico, elas têm um poder de influência muito grande que se deve às pessoas se vinculando e utilizando essas plataformas para viver. E aí temos aqueles impactos que já discutimos largamente aqui no podcast sobre a questão da privacidade, das crianças e a internet, e isso acaba minando, de certa forma, não valores eminentemente religiosos, mas valores humanos.
(40:56) E acaba virando um número, quantas views, quantos likes. É isso. E essas empresas estão conseguindo impor uma agenda aos governos. Vimos o que está acontecendo agora com Trump e Musk. Se não fosse o X… e aqui também, Vinícius.
(41:16) Mas está legal de ver a briga do Musk e do Trump agora, porque se não fosse o X, o Musk estava lascado, pois o resto dele depende de dinheiro do governo. Quem tem as fichas, digamos assim, é o Trump. Só que, ao mesmo tempo, esse cara tem o X, uma rede de influência bastante grande. E temos o Papa se manifestando sobre IA.
(41:36) Só que nós temos tantas vozes no meio científico, e relevantes na IA, no campo específico da ciência da computação, chamando a atenção para esses perigos, para os problemas, não só da desumanização, mas do que pode vir a acontecer em consequência disso.
(42:03) Isso, na verdade, neste momento está pouco importando. Teve aquela “carta do apocalipse” lá de 2022, 2023, em que o pessoal se juntou e fez uma carta, até o Musk assinou na época, para suspender por seis meses a pesquisa em IA porque poderíamos estar caminhando para o fim da humanidade. Aquilo virou notícia e, assim como veio, foi embora, meio descontextualizado para as pessoas em geral. E o que sobrou no final das contas é
(42:37) praticamente uma guerra armamentista. Ninguém está preocupado com a segurança da IA. Para não dizer ninguém… há algumas empresas que surgem. O Ilya [Sutskever] saiu da OpenAI preocupado com isso. Tem outro pesquisador, esqueci o nome dele, que também está montando uma empresa para segurança em IA. Mas, no final das contas, o que realmente se quer é desenvolver a AGI, a inteligência artificial geral, o mais rápido possível. Porque quem atingir isso primeiro
(43:12) vai ter um poder muito grande em todos os aspectos da sociedade: político, econômico, nos relacionamentos com outros países e por aí vai. Tanto é que vou encaixar minha notícia aqui, pode ser, Guilherme?
(43:35) Não, eu só queria dar uma mensagem final aqui, Vinícius. Vai juntar com o que você está dizendo, mas pode falar. Só para alinhavar e tirar qualquer dúvida sobre o porquê de se estar aqui. Não me interessa, falando eu, Guilherme, o papel do Papa para trazer dogmas cristãos para a regulação da IA. Não.
(44:04) Assim como aconteceu na outra encíclica, que conclamava os estados a intervir na proteção dos trabalhadores, dos vulneráveis, e a criação desses direitos, eu acho que, junto com esses pesquisadores todos que você comentou, a voz do Papa pode dar mais atenção também para esses caras.
(44:31) Não acho que é o Papa que vai dizer como se deve regular, mas sim dizer que se deve regular e trazer valores éticos e humanos para dentro desse ambiente todo. É mais uma voz para o lado de uma pauta que não está sendo tão vista por causa de interesses comerciais e tudo mais.
(44:53) E tem uma coisa engraçada, porque ele fala isso logo depois que, não sei se você lembra, o Trump publicou uma imagem de IA em que ele estava vestido de papa. Causou uma comoção. Então, a ideia é essa. Não é trazer valores religiosos, mas sim… na verdade, há uma certa convergência, porque a proteção do ser humano, a valorização da pessoa e a colocação da dignidade da pessoa humana no centro disso, que na IA temos um princípio para isso, que é o princípio da centralidade da pessoa humana, me
(45:29) parece que ele pode ser uma voz ativa nesse sentido. Enfim, encerro. É, sim. Acho que tem que haver discussão sobre o uso, os impactos. E não pode ser uma discussão, mesmo no lado científico, no sentido de:
(45:49) “Ah, é a próxima geração de seres que vai substituir o ser humano na evolução”. Também não me serve. Mas, enfim, acho que temos que discutir isso. E só para dar um exemplo de ações que vão na contramão disso, dessa necessidade de discussão, de investigação,
(46:11) vou ter que citar a “One Big Beautiful Bill”. Fico pensando como ele cria esses nomes para as leis. Não lembro de ter visto. Ouvi em um podcast que o Trump teria falado algo como: “This is a beautiful bill“.
(46:41) E eles… alguém disse: “É isso aí, boa ideia”. Ouvi algo assim em um podcast. Porque não diz o que é. É um monte de coisa, inclusive coisas que irritaram o Musk, na parte de carros elétricos. Tinha uns benefícios, umas isenções, e parece que o Trump tirou isso e o Musk ficou doido, aquela coisa toda que estamos vendo nas notícias. Mas, no que diz respeito à inteligência artificial, tem algo muito interessante lá, na seção
(47:13) 4321-T. Lá você vai encontrar… São 1.116 páginas, a “One Big Beautiful Bill”. E uma das coisas que tem lá é uma moratória, não de um, nem dois, nem três, mas de 10 anos sobre a aplicação estadual de, abre aspas, “qualquer lei ou regulamentação que regule modelos de inteligência artificial, sistemas de inteligência artificial ou sistemas de decisão automatizada”. Sabe que isso passou meio despercebido, Vinícius? Não li nada sobre isso.
(47:55) Eu estava acompanhando um podcast gringo e os caras comentaram lá. Porque eu também estava achando que essa “One Big Beautiful Bill” seria algo sobre tarifas e não sei o quê, aquelas loucuras que eles estão fazendo lá de desmanchar as instituições que eles têm de saúde, disso, daquilo.
(48:23) Mas quando o cara falou isso… “Será?”. Fui atrás para ver e era mesmo. De fato, é uma moratória. A ideia do Trump é evitar que qualquer estado norte-americano possa fazer qualquer lei ou regulamentação sobre modelos de IA, sistemas que usam IA ou sistemas de decisão automatizada, que não necessariamente envolvem IA.
(48:54) E um pouco antes do Trump entrar, tinha umas bills, uns projetos de lei na Califórnia, que inclusive comentamos no podcast há um tempão, que eles tinham dois tipos de regulamento. Um que regulava o treinamento de modelos de IA — quais informações poderiam ser utilizadas, etc.
(49:17) Estavam tentando regular o treinamento dos modelos. E outra bill que falava sobre a aplicação dos modelos treinados. Eram duas regulamentações: uma para a construção do modelo e outra para a aplicação. E essas duas bills morreram, não seguiram adiante. Isso no estado da Califórnia. E aí, quando o Trump assumiu, se foi mesmo.
(49:41) Então, agora ele está tentando, via essa “One Big Beautiful Bill” — não pode esquecer do beautiful — impedir que os estados possam impor qualquer tipo de restrição no treinamento desses modelos, na aplicação desses modelos e na automação de processos. Justo em uma pegada de: “Galera, vamos desenvolver o que tiver para desenvolver, vamos fazer o mais rápido possível, dane-se”.
(50:10) É aquela história do Zuckerberg, nosso amigo Zuck, né? “Move fast, break things, fix later“. Se mover rápido, quebrar coisas e depois a gente conserta. É nessa vibe de “vamos fazer, vamos ser os primeiros a atingir, dane-se”.
(50:39) E imagina como isso poderia funcionar, em uma perspectiva de que estamos utilizando essencialmente ferramentas americanas de IA. As mais importantes, talvez, sejam ferramentas comerciais americanas. Agora, pensa no mundo inteiro utilizando essas ferramentas. Pensa como vão se conversar as questões de conformidade, por exemplo, com a União Europeia. Porque a União Europeia não vai simplesmente… “Ah, temos nossas regras aqui super discutidas” — e claro, tem pessoas que contestam algumas questões, mas é inegável que foram super discutidas e que
(51:17) tentam promover um estado… Claro que nem sempre União Europeia e Estados Unidos conversam em proteção de dados. Nosso modelo é mais parecido com o europeu, mas é inegável que o modelo europeu é um paradigma para o mundo inteiro. E como é que vai se dar? A Europa vai dizer: “Tudo bem, temos todas as nossas regras aqui, mas beleza, vamos utilizar as ferramentas de vocês que não têm nenhum controle”?
(51:43) Acho que vai funcionar. Chega a um ponto que você está usando sem se dar conta de que está usando. A coisa vai muito além de usar um chat, como comentávamos antes.
(52:01) Uma capa hipotética para o podcast, Guilherme, se conseguíssemos fazer, seria uma cena da praça de Roma com o Papa Leão aparecendo, e embaixo, aplaudindo bem felizes, o Jeff Bezos, o Pichai, o Musk, esses caras. Porque esses caras estavam lá na posse do Trump.
(52:34) A ironia seria botar esses caras batendo palma, felizes da vida, lá atrás. Pode ser até atrás do Papa, na sacadinha. Está muito difícil esse prompt. Tenta fazer.
(52:53) Mas botar todos eles que estavam lá com o Trump atrás do Papa, porque a agenda deles é essa. Não estou falando que são maus. O Musk é maluco, mas a agenda deles é conseguir desenvolver esse negócio o mais rápido possível. A Anthropic parece ser mais responsável, pelo que vemos nos comentários. Ela goza de uma certa confiança nesse sentido.
(53:21) Se será quebrada amanhã, não sei. A OpenAI… tem até um livro aí denunciando a filosofia da OpenAI. O Ilya saiu justamente porque viu que os caras não estavam muito interessados em segurança. Mas não esquece que o Sam Altman é outro que estava lá se ajoelhando para o Trump. Enfim.
(53:47) Sabe que te mandei uma notícia agora nessa linha, não estava na pauta também. Usamos um pouco o podcast para eu e o Vinícius conversarmos também. Nem sempre conseguimos. Mas o café é para isso.
(54:04) A ProPublica… só vi a manchete, que o pessoal conseguiu achar os prompts daquele departamento de veteranos que o Musk comandou por um tempo, prompts relacionados a cortes de benefícios de veteranos e sobre como estariam fazendo isso.
(54:36) Obviamente usando da maneira errada. A coisa estava sendo utilizada ali de uma maneira… Eles não sabiam usar a IA. Mas aí veja como todas essas coisas estão relacionadas. Você trazer a dignidade humana para dentro de ambientes de IA, colocar o ser humano no centro, a centralidade da pessoa humana como princípio já reconhecido.
(55:03) Esse é o ponto. Você não usa prompts de IA para cortar benefícios de veteranos. Porque submeter as pessoas a esse tipo de controle algorítmico é um negócio inaceitável. Você percebe que isso é um excesso de agenciamento? Porque mesmo que a IA não faça o corte automaticamente, os caras estão pegando o que a IA diz. “Ah, vai um ser humano lá e faz”. Pronto.
(55:28) O ser humano é a interface para a IA fazer o que ela quer. Pelo amor de Deus, estou lendo aqui. É ridículo. Eu não li, só me lembrei disso e trouxe aqui para você ver. É a velha história, falhas técnicas graves. O modelo de IA alucinava valores de contratos, decidindo que cerca de 100 acordos valiam 34 milhões, quando às vezes valiam milhares, não milhões. 34 mil, não 34 milhões.
(56:02) Aí analisava apenas os 10.000 caracteres iniciais de cada documento, aproximadamente 2.500 palavras. Esse é o problema do tamanho de contexto da IA. Apesar dos modelos da OpenAI suportarem inputs 50 vezes maiores, eles estavam analisando só as primeiras 2.500 palavras.
(56:26) E o sistema usava modelos mais antigos e de propósito geral, inadequados para a tarefa. Claro, porque eles queriam cortar custos em um tempo mínimo. E é óbvio que se você coloca a IA de maneira não supervisionada… Considero que se possa usar IA para cortar custos de um órgão público, mas isso precisa ser feito com um modelo muito bem treinado. Não vai mandar a IA cortar o custo hoje, no estágio em que estamos e que usamos IA. Usamos
(57:04) para trocar uma ideia, me dar uma indicação… Só que não quer dizer que você não vai olhar, que não vai verificar. Eu só não vou verificar se for uma coisa boba, mais factual, de fácil verificação.
(57:21) “Em que ano aconteceu tal coisa?”. Vou lá e pergunto como se fosse no Google. Ou: “Que planta é essa aqui?”. Não vou ficar verificando se a planta realmente é aquela. Tiro uma boa foto da planta. Gosto desse prompt da planta. Adoro. Usei esse final de semana, inclusive.
(57:41) Funciona. É uma coisa que, se estiver errado, dificilmente vou matar a planta. A consequência será matar a planta. Agora, pegar uma IA para gerar qualquer coisa que seja e não revisar… qualquer um que saiba o bê-á-bá da IA sabe que tem que verificar a saída. E acabamos atribuindo esse esquema de gerar e não verificar ao trapaceiro. “Gera para mim um trabalho…”. O cara nem lê e só manda.
(58:14) Talvez dê para fazer isso daqui a alguns meses. E aí teremos discussões éticas para serem feitas. Mas, no estágio em que estamos, você tem que verificar as informações que ela gera, tem que bater as coisas, tem que ir atrás.
(58:31) Pode usar como ponto de partida, para discutir mais profundamente algo que você já estudou e tem controle. Ela te ajuda a ter alguns insights, a fazer um brainstorm, que é mais legal fazer entre nós do que com a IA. Prefiro discutir com você do que ficar discutindo com a IA. Mas a IA também tem seu papel e para algumas coisas muito específicas é interessante.
(58:57) Não podemos entrar em uma de “a IA vai fazer tudo, vai substituir tudo”, e tampouco em “a IA não presta”, porque ela presta. Ela faz porcaria, mas presta. E se souber conduzi-la direitinho, vai prestar muito. Olha aí a Marisa Mayô.
(59:17) Se você não sabe do que estou falando, procure a Marisa Mayô no YouTube e dê uma olhada. O Álvaro Borba, acho, tem um canal (AVR) no YouTube. Ele gravou um vídeo ontem ou anteontem sobre a Marisa Mayô. É bem interessante o que ele coloca.
(59:40) Dá um bom caminho para pensar. A Marisa Mayô é um fenômeno da IA na internet. O Papa tem que ver a Marisa Mayô para ele poder chamar a atenção para o que estamos fazendo. É um pouco aquela coisa de um novo tipo de tecnocracia. Esse é o problema. Quais tipos de decisões serão tomadas pela IA, desconsiderando o fator humano na equação?
(1:00:11) Essa é a centralidade. É você não somente não usar IAs para coisas ruins, como o problema dos deepfakes e dos nudes. Vi um pessoal comentando que tinha um site que armazena modelos para gerar imagens realistas, e aquilo está aberto na internet. E o pessoal fala: “Isso aqui está sendo
(1:00:51) usado para fazer nude em escola”. Entrei no site, não encontrei nada. Está dando rebu na escola com a galera fazendo isso. Está no ar, eu acessei, só não vou dar o endereço. É um novo tipo de tecnocracia.
(1:01:10) Se você desrespeita esse fator humano, de repente está tirando o benefício de pessoas por conta de uma IA falha. Se a IA te ajuda a pegar fraude, você tem que usá-la. O problema é a rapidez. Esse exemplo do DOD é um exemplo do que não se pode fazer.
(1:01:29) Claro que lá as regulações, como o AI Act, definem coisas para as quais não se pode usar IA. Acho que nosso café já deu uma hora. Deu de café. Vai virar um chá se ficar muito longo. Nem chegamos em um quinto do último Xadrez Verbal.
(1:01:58) 5 horas o último. Mas teve umas entrevistas no meio. O material deles é fora da casinha. Pode fazer de 10 horas, não tem problema, eu só aumento a velocidade. Era isso.
(1:02:17) Para você ver, a IA é mais uma tecnologia. Tivemos a invenção da imprensa. Tanto livros bons quanto muita porcaria foi divulgada por meio da impressão. Aí vem a internet. Fantástico. Foi muito legal. Na época, nem tínhamos a web ainda.
(1:02:48) Muito bom poder conversar com pessoas usando ICQ e outros softwares de conferência arcaicos, e poder conversar com pessoas de outras partes do mundo. Fantástico. ICQ… e tinha outros softwares de conferência por voz que a gente usava e que funcionavam.
(1:03:13) E nem tínhamos web direito. Foi fantástico. Poder comprar CDs e livros na época do real um para um com o dólar, na década de 90. Comprava livros super barato. Mas também, a internet trouxe a pornografia sem limites.
(1:03:43) Que é um problema. Quem quiser assistir… como é aquele documentário do Adam Sandler sobre sexualidade e internet…
(1:04:09) É um filme sobre homens… Deixa eu ver aqui… Enquanto você procura, eu levantei um efeito em uma das bibliografias que usei para dar essa palestra: o “viés de automação”, que é um pouco ligado àquela ideia
(1:04:33) do “solucionismo tecnológico”. O que é o solucionismo tecnológico? Você tem problemas e, para resolvê-los, basta colocar tecnologia neles. E sabemos que há problemas que não são resolvidos com ou pela tecnologia.
(1:05:07) O viés de automação é um pouco isso, é partir para uma certa fanatização tecnológica com o uso de IA. Isso já está acontecendo. “Vou usar IA em tudo porque é bom”. E nessa corrida, você deixa os riscos para trás. É um pouco o que tem acontecido na história da tecnologia dos últimos 30 anos. A internet… passamos por muitos momentos em que, para atingir uma posição de
(1:05:47) dominância, os riscos foram deixados para depois. A própria Microsoft fez muito isso, principalmente na segurança. A questão é que agora, novas ideias já existentes no direito, como o princípio da prevenção e o da precaução, nos forçam a ter atenção aos riscos. Isso também não está acontecendo.
(1:06:13) E nota que isso volta para a humanização da tecnologia, de colocar a pessoa no centro do uso dessas tecnologias. É a ideia do viés de automação, uma fanatização. Achei o filme: “Homens, Mulheres e Filhos”, de 2014. Vou largar o link nos show notes.
(1:06:40) É um filme bem interessante. Já tem 11 anos. E fala, naquela época… por exemplo, tem um adolescente que consome pornografia na internet.
(1:07:00) E ele chega a um ponto em que não consegue se relacionar com a namorada. A coisa da internet é tão extrapolada que o real para ele não… Já temos problemas aí que são discutidos há mais tempo.
(1:07:19) Então, na sequência, a internet trouxe coisas boas, mas também vários problemas relacionados. E agora, com a IA, acho que a coisa é amplificada porque ela entra em um domínio que antes era restrito ao ser humano: criação de textos, imagens, vídeos. Agora, com o V3 da Google, o negócio está… dependendo do que for, você tem que olhar com muito cuidado para se dar conta de que é feito com IA.
(1:07:49) E estamos na metade de 2025. Até o final deste ano, acho que veremos coisas mais avançadas ainda. Enfim, temos muito a ser discutido. E nesse sentido… Você falou do filme, achei que era outro documentário da Netflix que procurei aqui,
(1:08:14) “Hot Girls Wanted”. Um documentário mais conhecido sobre o tema. Você viu? Vi, sim. É de um empresário que recrutou as gurias, tem violência. É pesado também. Vamos embora. É isso aí. Vamos embora. Quer fazer mais alguma observação?
(1:08:37) Não. O filme está indicado. Vamos cuidar e ficar de olho no que está acontecendo. Quer recitar um poema? Não, não. Só peço ao Papa, se por acaso nos ouvir, que mantenha o olho aberto.
(1:08:55) Se ele quiser, pode nos chamar que vamos com muito prazer ao Vaticano. Então, agradecemos a todos aqueles e aquelas que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima. Até a próxima.
By Guilherme Goulart e Vinícius Serafim4
77 ratings
Neste episódio comentamos sobre os perigos da IA, a desinformação acerca de VPNs e a controversa lei “One Big Beautiful Bill”, que propõe uma moratória na regulação de inteligência artificial.
O tema central é a encruzilhada ética das novas tecnologias, especialmente a inteligência artificial. Guilherme Goulart e Vinícius Serafim contrastam o impulso para o desenvolvimento rápido e não regulamentado da IA, exemplificado pela “One Big Beautiful Bill” nos EUA, com os apelos por uma supervisão ética por parte de figuras como o Papa Leão XIV e especialistas em segurança. Você irá aprender como tecnologias como VPNs são frequentemente promovidas com promessas enganosas de anonimato e como sistemas de IA falhos já são usados em decisões críticas, sublinhando a necessidade urgente de regulação e princípios centrados no ser humano.
Se você se interessa por segurança digital, privacidade e os impactos da tecnologia na sociedade, não deixe de assinar o Café Segurança Legal no seu agregador de podcasts favorito e seguir nosso canal para não perder nenhuma discussão.
Visite nossa campanha de financiamento coletivo e nos apoie!
Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing
ShowNotes
📝 Transcrição do Episódio
(00:01) [Música] Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 394, gravado em 9 de junho de 2025. Eu sou Guilherme Goulart e, junto com o Vinícius Serafim, vamos trazer para vocês algumas notícias das últimas semanas. E aí, Vinícius, tudo bem? Olá, Guilherme, tudo bem? Olá aos nossos ouvintes e aos internautas.
(00:24) Dessa vez, acho que vai para o YouTube. Não vai dar problema no vídeo de novo. Vamos torcer para que sim. Vai para o YouTube ou vai dar problema? Vai para o YouTube. Tivemos um pequeno detalhe técnico e o último episódio não foi para o YouTube, mas ficou no feed. O áudio está lá.
(00:41) Só não tem o nosso vídeo. O áudio está. Este é o nosso momento, como vocês já sabem, de conversarmos sobre algumas notícias e acontecimentos que nos chamaram a atenção. Pegue o seu café e venha conosco. Hoje estou com um chazinho. Então, pegue o seu chá, sua bebida preferida, e venha com a gente. Você já sabe que consegue nos contatar pelo [email protected] ou também no Mastodon, Instagram, Bluesky e YouTube.
(01:06) E também tem o nosso blog da Brownpipe, que você já conhece, onde consegue ficar atualizado e se inscrever em nossa mailing list sobre as notícias. Algumas delas, inclusive uma que trataremos hoje, está lá no blog. E antes de começarmos, Vinícius, temos duas mensagens de ouvintes. Gostaria de destacar que tive a oportunidade de participar do Primeiro Congresso Gaúcho de Responsabilidade Civil do IBERC e da Unisinos.
(01:34) Foi feito lá na Unisinos, a convite do meu querido amigo Cristiano Colombo, e parabenizar o Cristiano e os outros organizadores do IBERC também. Foram dois dias de muitas palestras. Falei sobre danos nos ambientes de IA, então pude compartilhar e conversar com o grupo sobre algumas coisas — algumas bem presentes, outras mais projetadas — de possíveis danos que podem ocorrer nesse ambiente.
(01:56) Diga, Vinícius. Não colocamos isso na pauta, mas dê alguns exemplos dos danos decorrentes do que você comentou lá. Dentre os mais conhecidos, estão os potenciais de discriminação, questões relacionadas ao uso de reconhecimento facial, mas também questões menos faladas. Por exemplo, o pessoal do OWASP tem um guia bem interessante sobre vulnerabilidades no ambiente de IA, e tirei de lá algumas possibilidades de data
(02:27) poisoning, por exemplo. Porque quando falamos de IA — e tenho dito isso sempre que falo para audiências mais diversas — IA não é só o ChatGPT. Temos no Hugging Face cerca de 1.700.000, sei lá, possíveis modelos. No Hugging Face, logo chegaremos a 2 milhões de modelos; 1.700.000 foi a última vez que vi. Então, você tem uma série de questões sobre treinamento desses modelos, sobre gestão de dados,
(02:58) sobre o uso de ferramentas de IA para prestação de contratos mesmo. Até conversava com o pessoal lá depois, imagina, alguém te contrata como advogado para dar um parecer e, dependendo do advogado, do professor, pode cobrar tranquilamente centenas de milhares de reais por um parecer específico. Então, acho que teremos que começar a discutir também até que ponto obrigações que devem ser realizadas somente por aquele devedor, por aquela pessoa
(03:30) específica, qual o grau de interferência ou de intensidade que a IA poderia ter. E aí, os danos possíveis seriam no ambiente contratual, ou seja, descumprimento contratual pelo próprio uso da IA; danos sobre você carregar certos dados que eventualmente não poderiam ser carregados nas IAs e esses dados poderem ser utilizados para atividades de treinamento e, eventualmente, aparecerem; danos de dados de clientes, dados pessoais, dados sensíveis. Foi mais ou menos nessa linha. Não estou lembrando de cabeça de
(04:02) todos aqui, Vinícius, mas foi mais ou menos nessa linha. Você foi citando e fui lembrando de alguns exemplos. Tivemos aquele caso no Brasil de um rapaz que estava em um jogo de futebol e foi erroneamente reconhecido pela IA como sendo um criminoso, um foragido. E aí ele saiu escoltado pela polícia.
(04:22) Foi uma exposição gigante do cara. Não sei que fim levou esse caso. Tivemos aquele caso, falando em prejuízo não só para a pessoa física, mas para uma pessoa jurídica também, daquela companhia aérea que comentamos inclusive no podcast há um tempão,
(04:40) na qual foi obrigada a restituir uma passagem aérea, etc., porque a IA inventou uma situação de reembolso que não existia. Eles tentaram se esquivar dizendo: “Não, mas foi a IA que fez”. A resposta foi: “Você colocou a IA para falar em seu nome, então você vai atender à demanda do seu cliente”. Teve essa também.
(05:04) Outra coisa que conversei com você na semana anterior é sobre um dano, que seria uma vulnerabilidade, mas o dano aqui ocorre com a exploração da vulnerabilidade, que é o “dano de excessiva agência”. Isso é trazido pelo OWASP: dano de excessiva agência da IA. Qual é a tendência? É mais uma tendência, mas tenho certeza de que vai acontecer. Hoje, as ferramentas de IA, sobretudo os LLMs, são muito reativas. Você pede para ela fazer algo, ela faz e pronto. Com a popularização dos agentes e as
(05:41) possibilidades de agentes fazendo coisas para você de forma autônoma, ou seja, qual é a diferença? É que o agente tem autonomia para atingir um determinado objetivo, um determinado propósito. O exemplo que gosto muito, e o Gemini já faz um pouco disso, mas ainda te pede autorização para fazer, é que ele acha e você pede para ele reorganizar sua agenda, ele faz uma reorganização, só que você precisa dizer: “Eu aceito que faça isso”. Usei bem pouco, mas assinei para ver como funcionava
(06:12) lá. Imagina um assistente pessoal que de fato organiza sua agenda, compra passagem para você, manda e-mail. Isso é plenamente possível e está em uma fronteira, me parece, muito próxima. Então, as possibilidades de erros nessa circunstância de você dar excessiva agência para a IA, acho que vai trazer uma nova fronteira de danos para essa área.
(06:39) No que diz respeito ao usuário final, ainda se apanha muito para entregar um agente decente e fácil de usar. A OpenAI tem alguma coisa, inclusive aquelas tarefas agendadas. Se não estou enganado, no Gemini eles implementaram a mesma coisa.
(06:59) Tem também tarefas agendadas lá para fazer tarefas repetitivas com agendamento, mas ainda em um nível muito básico de agenciamento. E vimos o fiasco da Apple tentando colocar a Siri com GPT, etc., para tornar o telefone praticamente um agente, no qual você simplesmente manda que ele faça coisas, e vimos o que aconteceu: a coisa não deu muito certo.
(07:25) Vai dar, mas naquele momento não deu. Ao mesmo tempo, o uso de agentes de IA no ambiente corporativo, ou seja, para desenvolver soluções que estão atendendo as pessoas, já vem de bastante tempo, já é realidade há alguns anos. Claro que tem uns chatbots muito malfeitos por aí que irritam só de ver. Acho que nem tem IA, acho que é alguém que fez um looping para te atender e você não consegue sair daquele looping. Mas tem coisas que funcionam muito bem. E você tem diversas ferramentas.
(08:04) Não estou fazendo propaganda de ferramenta aqui, gente, mas só para citar três que vocês podem procurar, para quem não conhece, entender o tipo de coisa que estou falando: o Flowise é uma dessas ferramentas,
(08:23) o LangFlow e o n8n. Existem essas e muitas outras. Citei três de que lembro de cabeça. Essas ferramentas permitem criar fluxos de automação envolvendo agentes de IA e integração com todo tipo de serviço que se possa imaginar, desde a reação à leitura de um e-mail.
(08:41) Tem aquele que você usava um tempo atrás, Guilherme, para automação também. É o IFTTT. If This Then That. Eles já estão começando também a incluir agentes. No IFTTT eu não tenho certeza, mas vi outro desses dias para atividades de marketing que é justamente isso. Sim, ele monta campanhas.
(09:09) E a grande sacada para essas coisas funcionarem são, primeiro, as APIs desses grandes modelos. OpenAI, Anthropic, Gemini, Grok, todos esses caras têm APIs para você consumir. Então, você consegue acessar modelos extremamente potentes sem ter que criar uma infraestrutura sua de IA para atender, o que você não conseguiria, não com modelos desse tamanho.
(09:40) E a capacidade desses modelos — e isso, de uns meses para cá, se tornou mais comum entre os diversos modelos — de usarem ferramentas. Então, fica muito fácil integrar com outras coisas do seu ambiente. Você pode, por exemplo, querer que a IA seja capaz de consultar um banco de dados todo ou uma tabela específica.
(10:05) Se você criar um programa em Python, em Go, seja no que for, em que tem parâmetros para ele fazer a busca, e aí você faz uma pequena documentação, uma declaração, pode ser em Python também, dizendo: “Olha, esta função você chama passando esses parâmetros aqui, cada parâmetro tem esse tipo e serve para tal coisa”.
(10:23) E você escreve textualmente para que serve. Aí, quando você faz suas consultas na IA, você passa no contexto, junto com o seu prompt, etc., uma estrutura que diz quais são as ferramentas disponíveis.
(10:46) E aí tem um protocolo que a Anthropic lançou, que é o MCP, que é justamente para fazer essa integração entre modelos de IA e entre ferramentas e IAs, que meio que está se tornando o padrão de fato para fazer essas integrações. O que acontece? Você consegue plugar na IA, em vez de uma busca na web que eles disponibilizam, a sua busca de IA, a sua busca na internet; você consegue plugar na IA a sua busca por dados no seu banco de dados, na sua aplicação.
(11:17) E isso explodiu o que dá para fazer. A partir daí, a IA te dá, com os prompts, você padroniza os resultados que ela te dá e aí você põe a IA como parte do seu fluxo. Ela não faz tudo, você a põe como parte do seu fluxo. E essas ferramentas que citei já fazem isso há algum tempo.
(11:43) Até para tomadas de decisões que eventualmente poderiam ser mais complexas. Quando ativar o cliente ou… A coisa mais básica: receber movimentos dos clientes. A coisa mais básica que você pode fazer é: você tem lá um n8n, por exemplo, pode plugar na sua conta do e-mail, do Gmail, ele já tem um componentezinho direto para ligar.
(12:05) Aí você pode dizer que o gatilho é quando chega um e-mail. Chega um e-mail e você faz o processamento que quiser do negócio. Aí você põe a IA, põe quantos prompts quiser, põe um fluxo mais complexo, menos complexo, etc.
(12:23) Se você quiser criar um resumo dos seus e-mails do dia não lidos, não sei, é infindável o que se pode fazer. Você pode conectar, que é uma coisa que o Gemini eu acho que não faz. O Gemini poderia fazer isso. O n8n… o Flowise é pago, é muito bom, mas é pago e não é muito barato. O n8n você consegue usar free. Inclusive, depois se quiser eu te dou acesso a uma instância que tenho aqui de teste para você dar uma olhada, que é bem legal.
(12:47) É bem legal. Mas, no final das contas, o que temos é esse monte de possibilidades. E veremos isso cada vez mais. Para nós, usuários finais, digamos assim, vai ser cada vez mais fácil usar. Mas ainda não está legal. Ainda falta. Imagina comprando passagem.
(13:11) Você diz: “Ah, vou viajar semana que vem para dar uma palestra em tal lugar”. Ele já vai lá, ajusta toda a sua agenda, já envia e-mail para as pessoas, já compra passagem, já reserva hotel, já não sei o quê, já faz um Pix. Sim. Mas imagina o seguinte, isso que é o mais interessante. Imagina: “Olha, quero visitar tal lugar, mais ou menos em tal época, mas não me decidi exatamente quando vou”.
(13:41) “Quero que você fique monitorando e, quando a melhor combinação de preços entre estadia, deslocamento, etc., se fizer disponível, quero que você me chame e me apresente uma proposta de viagem”. Então, entende? Uma coisa bem para o futuro, que se poderia fazer. É legal. É interessante.
(14:00) Teremos isso, é só questão de ferramenta, não é mais questão de “se dá para fazer”, é só alguém fazer. Aí a IA erra e te manda para um lugar totalmente diferente. Você vai cego, compra as passagens, nem olha nada, só segue, vai no portão de embarque no dia tal, embarca e nem sabe para onde está indo. Deus me livre. Vinícius, temos duas mensagens de ouvintes aqui, podemos lê-las. É uma recomendação que o Carlos Barreto trouxe. Ele diz: “Olá, meu nome é Carlos e ouço o programa de vocês há anos. Nem lembro como cheguei a
(14:32) conhecer”. “E agora estava ouvindo um podcast novo chamado ‘Kill Switch’, do iHeart… iHeart Podcast. iHeart.” Eu achei que fosse a IH mesmo. É iHeart. “E achei que esse programa seria muito legal de vocês conhecerem, ainda mais esse primeiro episódio que foi o que eu acabei de ouvir.”
(14:51) Você deu uma olhadinha, né, Vinícius? Eu não consegui. Eu me inscrevi, já me inscrevi no ‘Kill Switch’. Achei os títulos dos episódios mais recentes deles bem interessantes e não vou emitir opinião agora, Carlos, mas vou ouvir. Já está no meu feed aqui. Vou me inscrever. Muito obrigado pela indicação.
(15:08) Só para vocês terem uma ideia, deixa eu ver se consigo pegar aqui [Música] a listinha. Tem vários episódios, mas os mais recentes são o seguinte: “Usar IA é pior do que dirigir um carro?”. “Como a IA do Twitter ficou tão obcecada com o genocídio branco?” — aquela história dos sul-africanos brancos refugiados nos Estados Unidos.
(15:41) “Pode a IA criar um crime verdadeiramente ético?”. True crime, devemos estar falando do programa, talvez. E aí vai. Fiquei muito interessado no último, quero ver os aspectos de “se usar IA é pior que dirigir um carro”.
(16:06) Vamos ver. Obrigado, Carlos. Valeu, Carlos, um abração. E também o Michael Strey. Eu lembrava do nome do Michael Strey, já conversamos várias vezes. Fui ver nos e-mails que recebemos dos ouvintes e tem mensagem dele desde 2018.
(16:25) Então, obrigado por estar com a gente há tanto tempo, Michael. Caramba! O que o Michael falou? Vou ler aqui, Vinícius, aí depois você faz uma observação mais abalizada. Ele está se referindo ao 393, o episódio anterior em que falamos sobre a pesquisa de analfabetismo funcional. “Quando falaram sobre as pessoas não saberem identificar se uma URL é verdadeira, senti falta de comentarem sobre como várias empresas prejudicam o entendimento das pessoas sobre isso. Incomoda bastante empresas não usarem
(16:55) subdomínios do seu domínio principal e sim ficarem criando sempre novos domínios. Já vi casos como xpto.com.br, aí tem o descubraxpto.com.br, depois tem o news.xpto.com.br, todos endereços legítimos. Mas por que não simplificar para ajudar o usuário? Por que não usar algo como
(17:22) descubra.xpto.com.br ou xpto.com.br/descubra? Além de deixar mais claro, economizam em registro de domínios e certificados, e ainda deixam brecha para o atacante registrar domínios similares como validarxpto.com.br”. [Risadas] Sim.
(17:45) E aí, Vinícius? Vou fazer um pouco de jabá aqui também, Michael. A Brown Pipe tem um serviço de phishing. E uma das coisas que já observamos fazendo justamente esse tipo de coisa… e ficamos embasbacados com as coisas que aparecem. Porque ele dá um exemplo genérico aqui, claro. Talvez exista uma XPTO, não sei. Dá uma olhada.
(18:10) Alguém registrou o domínio. Mas tem vários domínios estranhos ou subdomínios estranhos de grandes players, como a Microsoft. Quando você entra na parte de compartilhamento de arquivos e vai compartilhar acesso a algum tipo de repositório de dados ou mesmo um documento, SharePoint, etc.,
(18:34) são uns links que, na boa, se o usuário tiver um pouco de consciência, ele olha aquilo e não clica. E são autênticos, são links de fato da própria Microsoft. Então, isso que o Michael coloca, eu entendo como um baita de um problema. É muito fácil enganar os usuários que estão acostumados a usar esse tipo de link.
(19:05) E sentimos isso no nosso próprio serviço de phishing. Porque quando se vai fazer um serviço de phishing, Guilherme, em geral — e agora vem a parte do jabá, Michael, mas tem a ver com a sua pergunta — vemos muita gente fazendo serviço de phishing que é o seguinte: montam 3 ou 4 e-mails diferentes com aquelas promoções furadas ou “ajuste aqui o seu imposto de renda” ou Black Friday, depende da época.
(19:29) Pega-se qual é o phishing da época, o phishing do momento. Se é Black Friday, etc., que é essa sazonalidade, faz-se esses ataques. Montam-se esses e-mails genéricos, disparam para todo mundo e veem quem cai. Esse tipo de phishing, como minha esposa mesmo falava esses dias, “isso aí não serve para nada”.
(20:04) Ela me falou assim, e ela não é de TI, é da área do Direito. Ela disse: “Não serve para nada, porque isso aí a gente já recebe todo dia”. Um usuário minimamente atento já nem dá bola para isso. Então, o que fazemos nos nossos phishings? Criamos coisas personalizadas e atacamos grupos de usuários separados.
(20:24) Fazemos ataques às vezes para uma pessoa, às vezes para grupos diferentes dentro da empresa, para evitar aquele alerta que avisa todo mundo e daqui a pouco ninguém mais cai. E justamente isso que o Michael coloca é uma das coisas que exploramos.
(20:41) Conforme a cultura daquela empresa, conforme o pessoal utiliza essas ferramentas que ficam usando esses domínios e subdomínios esdrúxulos ou links quase indecifráveis, nós, usando isso, conseguimos passar muito phishing. Então sim, o Michael está coberto de razão. Isso é meio que um desserviço que as empresas acabam fazendo.
(21:06) Ela treina o usuário para aceitar um monte de coisa esdrúxula. E a hora que aparecer um “validarxpto.com.br”, como ele deu no exemplo, o usuário se atira.
(21:26) Fiz uma pesquisa rápida por um banco, uma instituição, um banco bem conhecido, gigante no Brasil. Ele tem uma dessas ocorrências, não vou falar o nome, claro. Mas o primeiro que pesquisei aqui, porque me lembrava que tinha visto, e tem um evento que eles vão fazer, aí tem o domínio do evento, aí tem o domínio da empresa… Enfim, é furada, não dá para fazer isso.
(21:46) Isso só mostra como nossa audiência é qualificada. E obrigado, Michael, por estar conosco há bastante tempo e colaborar. E quem gosta do podcast, mande mensagem para a gente. Gostamos de ler. Inclusive, lá no evento, Vinícius, agora me lembrei, uma foi minha colega de mestrado. Na verdade, acho que eu estava fazendo doutorado e ela, mestrado, não lembro, mas fomos colegas durante esse período.
(22:13) E ela falou: “Guilherme, que bom te encontrar. Queria te dizer que escuto todos os episódios de vocês”. Fiquei bastante feliz de encontrar ouvintes do podcast. Mas, Vinícius, temos uma outra mensagem aqui, mais um protesto, uma indignação, que é sobre a questão de VPNs e alguns podcasts que ficam publicando anúncios.
(22:47) Não, não é pelo anúncio em si. O problema é que acompanho vários podcasts de que gosto muito. Obviamente, não vou perder meu tempo ouvindo um podcast de que não gosto. Ouço podcasts que curto.
(23:07) Entre os podcasts que gosto, volta e meia tem propaganda de VPN, o que em si não tem nenhum grande problema. Não tem problema fazer propaganda de VPN. O que me preocupa é a propaganda que a empresa de VPN manda para ser lida no podcast. O Guilherme falou: “Vinícius, quem sabe a gente faz um episódio sobre VPN?”.
(23:32) Já fizemos, acho, no passado. Já fizemos alguns sobre VPN. Comentem aí no YouTube se vocês querem um episódio sobre VPN para uso pessoal. Mas o que não estou curtindo muito é que o texto da propaganda dessas empresas de VPN acaba falando coisas como, por exemplo, “proteja sua identidade e não deixe que o Facebook, os governos, etc., peguem seus dados”.
(24:05) E nesse sentido que eu queria deixar uma explicação aqui no nosso podcast. Quando você usa um software de VPN… e eu já testei vários. Já usei o Proton VPN, não vou dizer qual estou usando hoje, mas já usei o Proton VPN, o Nord VPN, o Surfshark, Kaspersky. Não usei a VPN da Kaspersky, já usei um antivírus deles, mas não a VPN. Eles oferecem VPN.
(24:36) O que lembro de já ter usado com certeza absoluta foram esses três. Devo ter usado algum outro. O fato é o seguinte: VPN é extremamente útil quando você está dentro de uma rede em que não pode confiar. Então, você está em um aeroporto, um café, um restaurante, um lugar público. Airbnb, muito cuidado com Airbnb.
(25:03) Ou seja, em um lugar que tem uma infraestrutura de rede que você não controla, você tem um roteador que é de alguém, um Wi-Fi que é de alguém, uma internet que é de alguém. E quando você conecta seu dispositivo ali, se não usar VPN, você vai usar o DNS daquela rede. Ou seja, a resolução de nomes, o site que você acessa, para onde vai, depende do roteador que está acessando.
(25:26) Tem uma série de questões ali. Você vai estar usando a infraestrutura definida por uma pessoa, ou por uma empresa, que você não sabe como gerenciam aquilo, não sabe se está na mão de alguém responsável, irresponsável ou com outros interesses. Então é muito interessante usar VPN em ambientes que não são o seu ambiente de trabalho ou residencial, se você tem algum controle sobre ele. A VPN é extremamente interessante nesses casos,
(25:53) mas para te proteger de um atacante na rede local. É uma proteção extra para além dos mecanismos como o HTTPS no navegador, que funcionam, mas existem alguns ataques que podem ser feitos. Então, é útil utilizar, sim, em redes em que você não confia, principalmente.
(26:19) Essas VPNs vão esconder a sua identidade? Não. Por quê? Você vai aparecer na internet como se estivesse saindo de outro lugar. Nessas VPNs — Proton VPN, Nord VPN, Surfshark, etc. — você pode escolher o país pelo qual quer sair. Sim, o seu endereço IP não vai aparecer.
(26:43) Só que, se você acha que o seu rastreamento e o rastreamento de quem você é, dos seus dados, etc., está só no seu endereço IP, você está redondamente enganado. Seu navegador é a maior fonte de informação sobre você. E se estiver usando o celular, pior ainda, porque tem 300 ferramentas ali que compartilham, por exemplo, IDs de dispositivo. Quase toda ferramenta que você instala no celular vai estar usando o SDK do Facebook, e o Facebook sabe quem você é, logado ou não. Então, tem que haver um cuidado bastante grande. A VPN vai
(27:21) fazer você sair com outro IP. Agora, a sua identidade, se você está acessando a partir do seu celular, do seu computador, ela não vai ser escondida. Você até pode acessar a Netflix para ver de repente uma série que tem lá nos Estados Unidos e não tem no Brasil.
(27:39) Daí você conecta na VPN, sai como se estivesse lá e eles acham que você está nos Estados Unidos e aparece para você, no cardápio de filmes, outras coisas. Ou acham que você está nos Estados Unidos e te deportam depois. Te prende, vem o ICE no Brasil te prender.
(28:00) Mas você tem que entender que não está escondendo a sua identidade, não está evitando que algum governo pegue os seus dados. Você está se protegendo, em essência, da rede local em que você está. Isso é garantido. A partir daí…
(28:23) E não que eventualmente não existam pessoas que se utilizam de VPNs ou outros tipos de acesso para crimes. Sim, mas aí os caras sabem o que estão fazendo. A partir do momento que você entra em uma VPN e acessa o seu e-mail, seu WhatsApp, seu Instagram e seu Facebook, sabem quem você é.
(28:46) Tanto que você tem distribuições como o Tails. É uma distribuição Linux justamente para você colocar em um pen drive, botar em uma máquina, uma máquina zerada.
(29:13) E aí você conecta em uma VPN e usa ela. Agora, se você abrir uma máquina com o Tails, abrir o navegador e se logar na sua conta, acabou, meu amigo. Então, meu disclaimer é esse, Guilherme. Há uma certa desinformação no papel da VPN. É, há um exagero aí que é relevante. Principalmente se tem alguém escutando… um jornalista, por exemplo, em um ambiente que não é legal. Essa pessoa normalmente tem acesso a informações mais fidedignas com relação à sua proteção, acaba tendo até um suporte maior. Mas, de repente, alguém ouve e acha que está protegido: “Ah, não, eu uso VPN, ninguém sabe quem eu sou”. Não vá nessa. Use VPN, é bom.
(30:12) E cuidado, como falávamos antes, você até comentou. Cuidado com a VPN que você vai pegar. As três que citei… a Proton VPN é a que mais gosto, é a mais cara e funciona muito bem.
(30:30) Surfshark… todo serviço que tentei usar via Surfshark bloqueia o Surfshark direto, então ele acaba nem sendo muito útil. E a Nord VPN funciona bem.
(30:50) Sabe que talvez tenhamos falado sobre VPN em um episódio lá de 2019, que é um dos que mais gosto do Segurança Legal: “Segurança da Informação para Viagens”, o episódio 215. Até passei para um amigo meu que foi viajar para a Alemanha esses dias. Eu disse: “Cara, dá uma escutadinha aqui, acho que tem umas dicas boas”. Pelo que me lembro, o episódio não envelheceu mal. E ali falamos sobre VPN.
(31:16) Acho fundamental para uma viagem, por exemplo, ter uma VPN boa. Mas sim, eu estava viajando com um amigo há um tempo e ele precisou acessar alguns serviços do judiciário brasileiro, e o nosso TJ aqui bloqueava a VPN, então ele não conseguia trabalhar. Mas enfim, Vinícius, vamos adiante.
(31:44) Tenho uma primeira notícia que vou comentar mais rapidamente. É um assunto que mistura vários temas. Tivemos recentemente o conclave que elegeu o Papa Leão XIV. Foi cerca de um ano depois que saiu o filme. Você viu o filme “Conclave”, Vinícius? Sabe por que não vi? Porque virou modinha. Ninguém parava de falar desse filme. Como teve o conclave, virou uma febre, só se falava nisso.
(32:16) Vou assistir outra coisa. Vou assistir ao filme, mas agora que a poeira baixou. Já me disseram que é bom. Virou modinha, você tem razão. O filme é muito bom. Tem boas atuações.
(32:36) E a escolha do nome do Papa, e já vou explicar por que isso está aqui e por que acredito que tenha uma certa relevância para o mundo da IA. O Papa Leão XIV escolhe o nome seguindo a linha do Papa Leão XIII, que foi responsável por um documento super importante para o direito mundial como um todo, mas para o direito brasileiro, sem dúvida,
(33:02) que foi a encíclica Rerum Novarum, de 1891. Essa encíclica traz uma série de questões que vinham como uma tentativa de resposta à Revolução Industrial e ao abuso que se tinha com os trabalhadores daquela época. Pessoas trabalhando muitas horas por dia, recebendo salários indignos, crianças trabalhando em minas.
(33:27) O livro “Germinal”, de Émile Zola, fala bem sobre essa dinâmica. Ele foi morar com os mineiros para escrever o livro. Então, ele traz uma resposta a isso e, entre outras coisas, essa encíclica fala sobre a dignidade do trabalhador, sobre o pagamento de salário justo. E esse documento influenciou tanto a criação das próprias regras de direito do trabalho, que vigoram até hoje, com alguns daqueles princípios presentes no nosso ordenamento, e também a própria ideia de direitos
(34:01) sociais presentes na nossa Constituição. Além de influenciar não somente a nossa, mas outras legislações trabalhistas, esse documento serviu de base ética para a construção de políticas de proteção ao trabalhador. A própria CLT incorporou alguns dos direitos que foram baseados nessas ideias éticas: limitação de jornada de trabalho, liberdade sindical, irredutibilidade salarial, repouso remunerado, proteção do trabalho infantil. Foram coisas que se basearam nisso. Ele fala também de uma resposta à figura dos que se
(34:38) chamava de “superexplorados”. Bom, por que isso é importante? Notem que estamos falando de uma perspectiva de um estado laico, de um podcast laico também. Mas acredito que isso é importante porque não somente esse documento, mas também uma recente manifestação, agora de 2025, do novo Papa, no sentido de colocar e trazer manifestações sobre os perigos da IA. Porque aquela encíclica trouxe e consolidou uma série de valores éticos que foram utilizados pelos ordenamentos jurídicos para promover a proteção das
(35:17) pessoas e para promover algo que é muito importante. Esse documento serve para construir a ideia do que temos de “dignidade da pessoa humana”, que vai se espraiar por todo o nosso ordenamento. Hoje se fala até sobre a superexploração da dignidade humana.
(35:40) Quando não se sabe o que dizer, dizem: “Ah, isso fere a dignidade humana”. Não há critérios para avaliar a dignidade humana, mas é um dos fundamentos do nosso ordenamento jurídico. E ele trouxe essa preocupação de como a IA poderia também servir como um novo tipo de problema. Claro, tem suas soluções, seus benefícios, não descuidamos disso. Mas também de se colocar como uma voz para a discussão dos aspectos éticos da IA. É um tema delicado. Você não é
(36:22) católico e fica pensando: “Não tenho nada a ver com isso”. Sim, tudo bem. Repito, nosso podcast é laico, mas acredito que tem uma importância de ser um personagem importante para dar voz a essa preocupação ética e sobre como temos que valorizar a proteção das pessoas nos ambientes de IA e evitar algo que é muito comum nos ambientes tecnológicos: a desumanização. É você de repente transformar… um problema que acontece também com a própria proteção de dados, você transforma as pessoas em números, em códigos,
(36:57) em identificadores. Mas por trás daquilo tudo, há pessoas. Por trás da IA, há pessoas usando. Os dados pessoais são usados para treinar, você tem impactos importantes no mercado de trabalho.
(37:17) Quis trazer isso aqui porque acho que é um personagem importante para dar voz a algo que acredito que não está recebendo a devida importância no mundo: as discussões sobre os impactos éticos e tudo mais. É, e eu vejo que é importante quem tiver algum tipo de poder de influência, de capacidade de influenciar as decisões, se colocar sobre esse tema.
(37:52) Infelizmente, o que vejo, a rigor… a primeira esfera de influência são os próprios católicos, por uma razão muito óbvia. Ele é a autoridade máxima dentro da Igreja Católica. E isso diz respeito a um estado que existe de fato, o menor do mundo, eu acho. É, o Vaticano é o menor estado do mundo.
(38:19) Mas é um estado. Tem sua história. Está vinculado mais especificamente a pessoas que professam uma determinada religião, embora ele tenha um poder político hoje bem mais limitado do que já teve.
(38:36) Mas nem por isso aquilo que ele coloca deixa de ser verdade, essa necessidade de preocupação. O que lamento muito é que vejo pouca chance de revertermos essas coisas. Até comentei sobre a professora Carla, não sei se comunica. Estive em um evento da Rede Sinodal,
(39:01) fiz uma exposição sobre IA e ela fez uma na sequência, e depois conversamos um pouco. Estou vendo se consigo trazê-la aqui no podcast. Não sei se conseguiremos, porque ela tem o canal dela, suas atividades nas redes sociais. Já encaminhamos o convite por meio da assessora dela.
(39:22) Vamos ver se rola. Mas ela tem uma visão muito interessante que me deu até uma certa esperança sobre a questão da IA se regular e as coisas se normalizarem. Mas o que vejo, e comentei antes com você, primeiro, essas big techs responsáveis pelo desenvolvimento de IA… A OpenAI talvez esteja correndo por fora, meio paralela a essas empresas que antes tinham…
(39:53) A Meta fazendo sua rede social e sua IA. Temos o X que tem o Grok. É uma rede social grande e tem o Grok. Essas empresas são bastante grandes e, na verdade, não só no sentido econômico, elas têm um poder de influência muito grande que se deve às pessoas se vinculando e utilizando essas plataformas para viver. E aí temos aqueles impactos que já discutimos largamente aqui no podcast sobre a questão da privacidade, das crianças e a internet, e isso acaba minando, de certa forma, não valores eminentemente religiosos, mas valores humanos.
(40:56) E acaba virando um número, quantas views, quantos likes. É isso. E essas empresas estão conseguindo impor uma agenda aos governos. Vimos o que está acontecendo agora com Trump e Musk. Se não fosse o X… e aqui também, Vinícius.
(41:16) Mas está legal de ver a briga do Musk e do Trump agora, porque se não fosse o X, o Musk estava lascado, pois o resto dele depende de dinheiro do governo. Quem tem as fichas, digamos assim, é o Trump. Só que, ao mesmo tempo, esse cara tem o X, uma rede de influência bastante grande. E temos o Papa se manifestando sobre IA.
(41:36) Só que nós temos tantas vozes no meio científico, e relevantes na IA, no campo específico da ciência da computação, chamando a atenção para esses perigos, para os problemas, não só da desumanização, mas do que pode vir a acontecer em consequência disso.
(42:03) Isso, na verdade, neste momento está pouco importando. Teve aquela “carta do apocalipse” lá de 2022, 2023, em que o pessoal se juntou e fez uma carta, até o Musk assinou na época, para suspender por seis meses a pesquisa em IA porque poderíamos estar caminhando para o fim da humanidade. Aquilo virou notícia e, assim como veio, foi embora, meio descontextualizado para as pessoas em geral. E o que sobrou no final das contas é
(42:37) praticamente uma guerra armamentista. Ninguém está preocupado com a segurança da IA. Para não dizer ninguém… há algumas empresas que surgem. O Ilya [Sutskever] saiu da OpenAI preocupado com isso. Tem outro pesquisador, esqueci o nome dele, que também está montando uma empresa para segurança em IA. Mas, no final das contas, o que realmente se quer é desenvolver a AGI, a inteligência artificial geral, o mais rápido possível. Porque quem atingir isso primeiro
(43:12) vai ter um poder muito grande em todos os aspectos da sociedade: político, econômico, nos relacionamentos com outros países e por aí vai. Tanto é que vou encaixar minha notícia aqui, pode ser, Guilherme?
(43:35) Não, eu só queria dar uma mensagem final aqui, Vinícius. Vai juntar com o que você está dizendo, mas pode falar. Só para alinhavar e tirar qualquer dúvida sobre o porquê de se estar aqui. Não me interessa, falando eu, Guilherme, o papel do Papa para trazer dogmas cristãos para a regulação da IA. Não.
(44:04) Assim como aconteceu na outra encíclica, que conclamava os estados a intervir na proteção dos trabalhadores, dos vulneráveis, e a criação desses direitos, eu acho que, junto com esses pesquisadores todos que você comentou, a voz do Papa pode dar mais atenção também para esses caras.
(44:31) Não acho que é o Papa que vai dizer como se deve regular, mas sim dizer que se deve regular e trazer valores éticos e humanos para dentro desse ambiente todo. É mais uma voz para o lado de uma pauta que não está sendo tão vista por causa de interesses comerciais e tudo mais.
(44:53) E tem uma coisa engraçada, porque ele fala isso logo depois que, não sei se você lembra, o Trump publicou uma imagem de IA em que ele estava vestido de papa. Causou uma comoção. Então, a ideia é essa. Não é trazer valores religiosos, mas sim… na verdade, há uma certa convergência, porque a proteção do ser humano, a valorização da pessoa e a colocação da dignidade da pessoa humana no centro disso, que na IA temos um princípio para isso, que é o princípio da centralidade da pessoa humana, me
(45:29) parece que ele pode ser uma voz ativa nesse sentido. Enfim, encerro. É, sim. Acho que tem que haver discussão sobre o uso, os impactos. E não pode ser uma discussão, mesmo no lado científico, no sentido de:
(45:49) “Ah, é a próxima geração de seres que vai substituir o ser humano na evolução”. Também não me serve. Mas, enfim, acho que temos que discutir isso. E só para dar um exemplo de ações que vão na contramão disso, dessa necessidade de discussão, de investigação,
(46:11) vou ter que citar a “One Big Beautiful Bill”. Fico pensando como ele cria esses nomes para as leis. Não lembro de ter visto. Ouvi em um podcast que o Trump teria falado algo como: “This is a beautiful bill“.
(46:41) E eles… alguém disse: “É isso aí, boa ideia”. Ouvi algo assim em um podcast. Porque não diz o que é. É um monte de coisa, inclusive coisas que irritaram o Musk, na parte de carros elétricos. Tinha uns benefícios, umas isenções, e parece que o Trump tirou isso e o Musk ficou doido, aquela coisa toda que estamos vendo nas notícias. Mas, no que diz respeito à inteligência artificial, tem algo muito interessante lá, na seção
(47:13) 4321-T. Lá você vai encontrar… São 1.116 páginas, a “One Big Beautiful Bill”. E uma das coisas que tem lá é uma moratória, não de um, nem dois, nem três, mas de 10 anos sobre a aplicação estadual de, abre aspas, “qualquer lei ou regulamentação que regule modelos de inteligência artificial, sistemas de inteligência artificial ou sistemas de decisão automatizada”. Sabe que isso passou meio despercebido, Vinícius? Não li nada sobre isso.
(47:55) Eu estava acompanhando um podcast gringo e os caras comentaram lá. Porque eu também estava achando que essa “One Big Beautiful Bill” seria algo sobre tarifas e não sei o quê, aquelas loucuras que eles estão fazendo lá de desmanchar as instituições que eles têm de saúde, disso, daquilo.
(48:23) Mas quando o cara falou isso… “Será?”. Fui atrás para ver e era mesmo. De fato, é uma moratória. A ideia do Trump é evitar que qualquer estado norte-americano possa fazer qualquer lei ou regulamentação sobre modelos de IA, sistemas que usam IA ou sistemas de decisão automatizada, que não necessariamente envolvem IA.
(48:54) E um pouco antes do Trump entrar, tinha umas bills, uns projetos de lei na Califórnia, que inclusive comentamos no podcast há um tempão, que eles tinham dois tipos de regulamento. Um que regulava o treinamento de modelos de IA — quais informações poderiam ser utilizadas, etc.
(49:17) Estavam tentando regular o treinamento dos modelos. E outra bill que falava sobre a aplicação dos modelos treinados. Eram duas regulamentações: uma para a construção do modelo e outra para a aplicação. E essas duas bills morreram, não seguiram adiante. Isso no estado da Califórnia. E aí, quando o Trump assumiu, se foi mesmo.
(49:41) Então, agora ele está tentando, via essa “One Big Beautiful Bill” — não pode esquecer do beautiful — impedir que os estados possam impor qualquer tipo de restrição no treinamento desses modelos, na aplicação desses modelos e na automação de processos. Justo em uma pegada de: “Galera, vamos desenvolver o que tiver para desenvolver, vamos fazer o mais rápido possível, dane-se”.
(50:10) É aquela história do Zuckerberg, nosso amigo Zuck, né? “Move fast, break things, fix later“. Se mover rápido, quebrar coisas e depois a gente conserta. É nessa vibe de “vamos fazer, vamos ser os primeiros a atingir, dane-se”.
(50:39) E imagina como isso poderia funcionar, em uma perspectiva de que estamos utilizando essencialmente ferramentas americanas de IA. As mais importantes, talvez, sejam ferramentas comerciais americanas. Agora, pensa no mundo inteiro utilizando essas ferramentas. Pensa como vão se conversar as questões de conformidade, por exemplo, com a União Europeia. Porque a União Europeia não vai simplesmente… “Ah, temos nossas regras aqui super discutidas” — e claro, tem pessoas que contestam algumas questões, mas é inegável que foram super discutidas e que
(51:17) tentam promover um estado… Claro que nem sempre União Europeia e Estados Unidos conversam em proteção de dados. Nosso modelo é mais parecido com o europeu, mas é inegável que o modelo europeu é um paradigma para o mundo inteiro. E como é que vai se dar? A Europa vai dizer: “Tudo bem, temos todas as nossas regras aqui, mas beleza, vamos utilizar as ferramentas de vocês que não têm nenhum controle”?
(51:43) Acho que vai funcionar. Chega a um ponto que você está usando sem se dar conta de que está usando. A coisa vai muito além de usar um chat, como comentávamos antes.
(52:01) Uma capa hipotética para o podcast, Guilherme, se conseguíssemos fazer, seria uma cena da praça de Roma com o Papa Leão aparecendo, e embaixo, aplaudindo bem felizes, o Jeff Bezos, o Pichai, o Musk, esses caras. Porque esses caras estavam lá na posse do Trump.
(52:34) A ironia seria botar esses caras batendo palma, felizes da vida, lá atrás. Pode ser até atrás do Papa, na sacadinha. Está muito difícil esse prompt. Tenta fazer.
(52:53) Mas botar todos eles que estavam lá com o Trump atrás do Papa, porque a agenda deles é essa. Não estou falando que são maus. O Musk é maluco, mas a agenda deles é conseguir desenvolver esse negócio o mais rápido possível. A Anthropic parece ser mais responsável, pelo que vemos nos comentários. Ela goza de uma certa confiança nesse sentido.
(53:21) Se será quebrada amanhã, não sei. A OpenAI… tem até um livro aí denunciando a filosofia da OpenAI. O Ilya saiu justamente porque viu que os caras não estavam muito interessados em segurança. Mas não esquece que o Sam Altman é outro que estava lá se ajoelhando para o Trump. Enfim.
(53:47) Sabe que te mandei uma notícia agora nessa linha, não estava na pauta também. Usamos um pouco o podcast para eu e o Vinícius conversarmos também. Nem sempre conseguimos. Mas o café é para isso.
(54:04) A ProPublica… só vi a manchete, que o pessoal conseguiu achar os prompts daquele departamento de veteranos que o Musk comandou por um tempo, prompts relacionados a cortes de benefícios de veteranos e sobre como estariam fazendo isso.
(54:36) Obviamente usando da maneira errada. A coisa estava sendo utilizada ali de uma maneira… Eles não sabiam usar a IA. Mas aí veja como todas essas coisas estão relacionadas. Você trazer a dignidade humana para dentro de ambientes de IA, colocar o ser humano no centro, a centralidade da pessoa humana como princípio já reconhecido.
(55:03) Esse é o ponto. Você não usa prompts de IA para cortar benefícios de veteranos. Porque submeter as pessoas a esse tipo de controle algorítmico é um negócio inaceitável. Você percebe que isso é um excesso de agenciamento? Porque mesmo que a IA não faça o corte automaticamente, os caras estão pegando o que a IA diz. “Ah, vai um ser humano lá e faz”. Pronto.
(55:28) O ser humano é a interface para a IA fazer o que ela quer. Pelo amor de Deus, estou lendo aqui. É ridículo. Eu não li, só me lembrei disso e trouxe aqui para você ver. É a velha história, falhas técnicas graves. O modelo de IA alucinava valores de contratos, decidindo que cerca de 100 acordos valiam 34 milhões, quando às vezes valiam milhares, não milhões. 34 mil, não 34 milhões.
(56:02) Aí analisava apenas os 10.000 caracteres iniciais de cada documento, aproximadamente 2.500 palavras. Esse é o problema do tamanho de contexto da IA. Apesar dos modelos da OpenAI suportarem inputs 50 vezes maiores, eles estavam analisando só as primeiras 2.500 palavras.
(56:26) E o sistema usava modelos mais antigos e de propósito geral, inadequados para a tarefa. Claro, porque eles queriam cortar custos em um tempo mínimo. E é óbvio que se você coloca a IA de maneira não supervisionada… Considero que se possa usar IA para cortar custos de um órgão público, mas isso precisa ser feito com um modelo muito bem treinado. Não vai mandar a IA cortar o custo hoje, no estágio em que estamos e que usamos IA. Usamos
(57:04) para trocar uma ideia, me dar uma indicação… Só que não quer dizer que você não vai olhar, que não vai verificar. Eu só não vou verificar se for uma coisa boba, mais factual, de fácil verificação.
(57:21) “Em que ano aconteceu tal coisa?”. Vou lá e pergunto como se fosse no Google. Ou: “Que planta é essa aqui?”. Não vou ficar verificando se a planta realmente é aquela. Tiro uma boa foto da planta. Gosto desse prompt da planta. Adoro. Usei esse final de semana, inclusive.
(57:41) Funciona. É uma coisa que, se estiver errado, dificilmente vou matar a planta. A consequência será matar a planta. Agora, pegar uma IA para gerar qualquer coisa que seja e não revisar… qualquer um que saiba o bê-á-bá da IA sabe que tem que verificar a saída. E acabamos atribuindo esse esquema de gerar e não verificar ao trapaceiro. “Gera para mim um trabalho…”. O cara nem lê e só manda.
(58:14) Talvez dê para fazer isso daqui a alguns meses. E aí teremos discussões éticas para serem feitas. Mas, no estágio em que estamos, você tem que verificar as informações que ela gera, tem que bater as coisas, tem que ir atrás.
(58:31) Pode usar como ponto de partida, para discutir mais profundamente algo que você já estudou e tem controle. Ela te ajuda a ter alguns insights, a fazer um brainstorm, que é mais legal fazer entre nós do que com a IA. Prefiro discutir com você do que ficar discutindo com a IA. Mas a IA também tem seu papel e para algumas coisas muito específicas é interessante.
(58:57) Não podemos entrar em uma de “a IA vai fazer tudo, vai substituir tudo”, e tampouco em “a IA não presta”, porque ela presta. Ela faz porcaria, mas presta. E se souber conduzi-la direitinho, vai prestar muito. Olha aí a Marisa Mayô.
(59:17) Se você não sabe do que estou falando, procure a Marisa Mayô no YouTube e dê uma olhada. O Álvaro Borba, acho, tem um canal (AVR) no YouTube. Ele gravou um vídeo ontem ou anteontem sobre a Marisa Mayô. É bem interessante o que ele coloca.
(59:40) Dá um bom caminho para pensar. A Marisa Mayô é um fenômeno da IA na internet. O Papa tem que ver a Marisa Mayô para ele poder chamar a atenção para o que estamos fazendo. É um pouco aquela coisa de um novo tipo de tecnocracia. Esse é o problema. Quais tipos de decisões serão tomadas pela IA, desconsiderando o fator humano na equação?
(1:00:11) Essa é a centralidade. É você não somente não usar IAs para coisas ruins, como o problema dos deepfakes e dos nudes. Vi um pessoal comentando que tinha um site que armazena modelos para gerar imagens realistas, e aquilo está aberto na internet. E o pessoal fala: “Isso aqui está sendo
(1:00:51) usado para fazer nude em escola”. Entrei no site, não encontrei nada. Está dando rebu na escola com a galera fazendo isso. Está no ar, eu acessei, só não vou dar o endereço. É um novo tipo de tecnocracia.
(1:01:10) Se você desrespeita esse fator humano, de repente está tirando o benefício de pessoas por conta de uma IA falha. Se a IA te ajuda a pegar fraude, você tem que usá-la. O problema é a rapidez. Esse exemplo do DOD é um exemplo do que não se pode fazer.
(1:01:29) Claro que lá as regulações, como o AI Act, definem coisas para as quais não se pode usar IA. Acho que nosso café já deu uma hora. Deu de café. Vai virar um chá se ficar muito longo. Nem chegamos em um quinto do último Xadrez Verbal.
(1:01:58) 5 horas o último. Mas teve umas entrevistas no meio. O material deles é fora da casinha. Pode fazer de 10 horas, não tem problema, eu só aumento a velocidade. Era isso.
(1:02:17) Para você ver, a IA é mais uma tecnologia. Tivemos a invenção da imprensa. Tanto livros bons quanto muita porcaria foi divulgada por meio da impressão. Aí vem a internet. Fantástico. Foi muito legal. Na época, nem tínhamos a web ainda.
(1:02:48) Muito bom poder conversar com pessoas usando ICQ e outros softwares de conferência arcaicos, e poder conversar com pessoas de outras partes do mundo. Fantástico. ICQ… e tinha outros softwares de conferência por voz que a gente usava e que funcionavam.
(1:03:13) E nem tínhamos web direito. Foi fantástico. Poder comprar CDs e livros na época do real um para um com o dólar, na década de 90. Comprava livros super barato. Mas também, a internet trouxe a pornografia sem limites.
(1:03:43) Que é um problema. Quem quiser assistir… como é aquele documentário do Adam Sandler sobre sexualidade e internet…
(1:04:09) É um filme sobre homens… Deixa eu ver aqui… Enquanto você procura, eu levantei um efeito em uma das bibliografias que usei para dar essa palestra: o “viés de automação”, que é um pouco ligado àquela ideia
(1:04:33) do “solucionismo tecnológico”. O que é o solucionismo tecnológico? Você tem problemas e, para resolvê-los, basta colocar tecnologia neles. E sabemos que há problemas que não são resolvidos com ou pela tecnologia.
(1:05:07) O viés de automação é um pouco isso, é partir para uma certa fanatização tecnológica com o uso de IA. Isso já está acontecendo. “Vou usar IA em tudo porque é bom”. E nessa corrida, você deixa os riscos para trás. É um pouco o que tem acontecido na história da tecnologia dos últimos 30 anos. A internet… passamos por muitos momentos em que, para atingir uma posição de
(1:05:47) dominância, os riscos foram deixados para depois. A própria Microsoft fez muito isso, principalmente na segurança. A questão é que agora, novas ideias já existentes no direito, como o princípio da prevenção e o da precaução, nos forçam a ter atenção aos riscos. Isso também não está acontecendo.
(1:06:13) E nota que isso volta para a humanização da tecnologia, de colocar a pessoa no centro do uso dessas tecnologias. É a ideia do viés de automação, uma fanatização. Achei o filme: “Homens, Mulheres e Filhos”, de 2014. Vou largar o link nos show notes.
(1:06:40) É um filme bem interessante. Já tem 11 anos. E fala, naquela época… por exemplo, tem um adolescente que consome pornografia na internet.
(1:07:00) E ele chega a um ponto em que não consegue se relacionar com a namorada. A coisa da internet é tão extrapolada que o real para ele não… Já temos problemas aí que são discutidos há mais tempo.
(1:07:19) Então, na sequência, a internet trouxe coisas boas, mas também vários problemas relacionados. E agora, com a IA, acho que a coisa é amplificada porque ela entra em um domínio que antes era restrito ao ser humano: criação de textos, imagens, vídeos. Agora, com o V3 da Google, o negócio está… dependendo do que for, você tem que olhar com muito cuidado para se dar conta de que é feito com IA.
(1:07:49) E estamos na metade de 2025. Até o final deste ano, acho que veremos coisas mais avançadas ainda. Enfim, temos muito a ser discutido. E nesse sentido… Você falou do filme, achei que era outro documentário da Netflix que procurei aqui,
(1:08:14) “Hot Girls Wanted”. Um documentário mais conhecido sobre o tema. Você viu? Vi, sim. É de um empresário que recrutou as gurias, tem violência. É pesado também. Vamos embora. É isso aí. Vamos embora. Quer fazer mais alguma observação?
(1:08:37) Não. O filme está indicado. Vamos cuidar e ficar de olho no que está acontecendo. Quer recitar um poema? Não, não. Só peço ao Papa, se por acaso nos ouvir, que mantenha o olho aberto.
(1:08:55) Se ele quiser, pode nos chamar que vamos com muito prazer ao Vaticano. Então, agradecemos a todos aqueles e aquelas que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima. Até a próxima.

108 Listeners

111 Listeners

179 Listeners

173 Listeners

91 Listeners

42 Listeners

1,010 Listeners

120 Listeners

78 Listeners

45 Listeners

30 Listeners

20 Listeners

19 Listeners

4 Listeners

1 Listeners