
Sign up to save your podcasts
Or


Neste episódio comentamos sobre as principais atualizações e desafios no mercado de tecnologia, trazendo uma análise objetiva sobre cibersegurança e proteção de dados. Ao longo da reprodução, você irá descobrir os recentes desdobramentos éticos do uso de inteligência artificial em contextos militares, envolvendo a recusa da Anthropic em aderir aos termos do Departamento de Defesa norte-americano e os impactos disso para a privacidade global. Você também irá aprender sobre o novo marco regulatório do Conselho Federal de Medicina para ferramentas automatizadas na área da saúde, compreendendo como as exigências da LGPD se aplicam à segurança da informação na proteção de dados médicos sensíveis. Além disso, você entenderá os detalhes do recente ataque hacker que causou graves incidentes de segurança no setor financeiro, e saberá identificar as vulnerabilidades críticas na integração de modelos de linguagem via protocolo MCP, como a perigosa injeção de prompts em servidores expostos. O host Guilherme Goulart compartilha ainda sua vivência no evento SecOps Summit, refletindo sobre a importância dos profissionais de segurança na governança corporativa. Por fim, você poderá avaliar como o uso excessivo do ChatGPT pode afetar a criatividade e gerar a homogeneização do pensamento.
Para continuar acompanhando nossas discussões, não se esqueça de assinar o podcast na sua plataforma preferida, seguir nossos perfis nas redes sociais e avaliar o programa para apoiar o nosso trabalho.
Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana.
Visite nossa campanha de financiamento coletivo e nos apoie!
Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing
Acesse WhisperSafe – Transcreva áudio e grave reuniões direto no seu computador, mesmo offline. Rápido, leve e pronto para usar com qualquer IA. Use o cupom SEGLEG50 para 50% de desconto na sua assinatura.
ShowNotes
Imagem do Episódio: A Torre de Babel — Pieter Bruegel
📝 Transcrição do Episódio
(00:08) Guilherme: Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 413, gravado em 23 de março de 2026. Eu sou Guilherme Goulart e, junto com Vinícius Serafim, vamos trazer algumas notícias das últimas semanas. E aí, Vinícius, tudo bem? Vinícius: Tudo bem, Guilherme. Olá aos nossos ouvintes. Esse é o nosso momento de conversar sobre algumas notícias e acontecimentos que chamaram a nossa atenção.
(00:30) Guilherme: Então, pegue o seu café; no caso de hoje, um chimarrão. Pegue a sua bebida preferida e venha conosco. Para entrar em contato com a gente, você já sabe: basta enviar uma mensagem para [email protected] ou falar conosco no Instagram, Bluesky, YouTube e TikTok. Temos também a campanha de financiamento coletivo em apoia.se/segurancalegal. E há um novo patrocinador: Whisper Safe.
(00:52) Guilherme: Você já pensou como pode ser difícil, depois de uma reunião, lembrar o que foi dito ou perder tempo digitando tudo o que foi falado? O Whisper Safe resolve esse e outros problemas para você, porque ele transcreve áudio e grava reuniões direto do seu computador, de forma rápida, precisa e 100% offline. Nenhum dado de áudio sai da sua máquina. Ele funciona com todos os comunicadores e também com qualquer arquivo de áudio que você tenha, como notas de palestra, notas de aula e outros tipos de gravação.
(01:25) Vinícius: Eu tenho usado com MP4. Eu estava usando outra ferramenta que não estava funcionando com MP4. O Whisper Safe funciona com MP4 também? Guilherme: Sim, funciona com MP4 também. Você pode colocar vídeo lá, e ele processa. Vinícius: Não sabia.
(01:48) Guilherme: Muito bom. Você tem 15 dias grátis para testar, e o cupom SEGUELEG50 dá 50% de desconto vitalício. Enquanto o Whisper Safe estiver funcionando, você terá esse desconto. Então, use o cupom SEGUELEG50, que está lá no show notes, e acesse whispersafe.ai. Antes de começarmos, Vinícius, a Brown Pipe esteve com toda a sua equipe no SecOps Summit 2026.
(02:18) Guilherme: No meu caso, como foi aqui em Porto Alegre, eu digo “lá” brincando, mas para mim foi “aqui”. Conta para nós um pouquinho. Vinícius: A gente esteve no evento em razão de uma palestra que tu foste dar lá. Aproveitamos para conhecer o evento.
(02:40) Vinícius: Nós nunca tínhamos ido ao evento para ver como era e sentir a vibe. Acabamos encontrando vários clientes nossos lá, o que é muito bom. Isso mostra que existe busca e que o público está procurando mais informações sobre esse tema.
(03:00) Vinícius: Já quero pedir aos ouvintes que nos encontraram lá e vieram conversar contigo depois da palestra: por favor, mandem seus nomes. Se não estou enganado, um deles se chama Frederico. Queríamos mandar um abraço no próximo episódio, citando vocês corretamente.
(03:18) Vinícius: Então já fica registrado: foi muito bom trocar uma ideia lá e encontrar ouvintes do Segurança Legal. No geral, Guilherme, o mercado é realmente bastante concorrido. O tipo de evento atrai empresas que fazem coisas parecidas.
(03:45) Vinícius: Vi desde startups até empresas maiores. No geral, havia muita gente oferecendo dashboards, aplicações e ferramentas para acompanhar segurança, compliance com LGPD, proteção de dados e temas correlatos.
(04:14) Vinícius: Dizer que todo mundo estava fazendo isso é exagero, mas quase todo mundo estava usando IA como palavra-chave. No geral, achei o evento bem interessante. Pretendo ir novamente no ano que vem. Guilherme: Eu também achei interessante e pretendo ir de novo.
(04:38) Guilherme: Recebi uma mensagem do nosso amigo e evangelizador do Segurança Legal, Diego, dizendo que neste ano não pôde ir. Foi uma pena, porque não conseguimos nos encontrar com ele. Lá, falei sobre o papel do encarregado nos incidentes de segurança da informação, tema sobre o qual já comentamos aqui no podcast.
(05:00) Guilherme: Foi interessante receber feedbacks de pessoas dizendo que não estavam fazendo aquilo que eu comentei que deveria ser feito. Para nós, isso parece básico, mas ainda há uma série de barreiras. Uma delas é dar condições reais para o encarregado trabalhar. Não basta nomeá-lo; é preciso dar estrutura para que ele desenvolva o seu trabalho.
(05:32) Guilherme: Eu também gostei do evento, então voltaremos. Essa é uma piada interna aqui do Rio Grande do Sul. Vinícius: Mais especificamente de Porto Alegre. Guilherme: Isso, mais de Porto Alegre, ali do tempo da TVCOM.
(05:55) Guilherme: Nós também recebemos uma mensagem do nosso querido ouvinte Ricardo Berlim. Ele nos perguntou sobre ECA Digital. Esse é um tema que está chamando muita atenção no debate, sobretudo na segurança da informação e nas conexões com vigilância.
(06:27) Guilherme: E eu acho que, muitas vezes, pelas razões erradas. Tem muita coisa que não é discussão séria. Embora eu tenha dito tudo isso para dizer que não iríamos falar sobre o tema agora, já estamos falando dele. Vinícius: Na semana que vem, vamos gravar sobre isso com um convidado.
(06:50) Guilherme: Vamos voltar ao tema do ECA Digital na próxima semana, ou no meio da próxima semana. Eu prefiro falar em “polêmica do ECA Digital” do que em “Lei Felca”, como alguns têm chamado. Os nossos ouvintes provavelmente já ouviram falar bastante sobre isso.
(07:18) Guilherme: Se você acompanha o cenário internacional da guerra entre Estados Unidos e Irã, deve ter percebido como a IA entrou nesse jogo e virou notícia dentro dessa história. Conta para nós um pouco mais sobre isso. Vinícius: Eu acompanhei isso mais de perto.
(07:43) Vinícius: Já havíamos comentado sobre a Anthropic ter se negado a aceitar certos termos de uso da IA pelo Departamento de Defesa norte-americano, ou, se quiser, pelo departamento de guerra norte-americano. Isso já tinha dado pano para manga.
(08:07) Vinícius: O Departamento de Defesa chutou o balde com a Anthropic. Primeiro, isso foi anunciado nas redes sociais, e depois ficou claro que a Anthropic está envolvida em vários projetos com o governo norte-americano. Ela foi uma das primeiras a entregar modelos customizados para ajudar o governo.
(08:40) Vinícius: Não é que eles não quisessem cooperar. O que aconteceu é que houve dois itens que a Anthropic não aceitou. Um deles foi o uso da IA para vigilância em massa doméstica, ou seja, de cidadãos norte-americanos.
(09:12) Vinícius: Isso lembra bastante a questão do Snowden, em 2013. Na época, Obama veio a público dizer que todos podiam ficar tranquilos porque eles não estavam monitorando cidadãos norte-americanos. Isso foi um pronunciamento voltado para dentro de casa, não para fora.
(09:51) Guilherme: Só um minutinho, Vinícius. Foi o episódio 28. Praticamente 400 episódios atrás. O episódio é “Prism, privacidade e segurança”, e eu vou deixar no show notes.
(10:18) Guilherme: Depois do episódio 28, falamos no episódio 30, “Snowden 6: Brasil vigiado”. Vinícius: Acho que é exatamente isso que eu estava comentando. E o que aconteceu foi que eles não aceitaram o uso para vigilância doméstica nem para armas completamente autônomas.
(10:48) Vinícius: Isso não quer dizer que a IA da Anthropic já não estivesse sendo utilizada para determinar alvos, identificar alvos e definir estratégias. O próprio Dario Amodei fala disso em uma declaração no site da Anthropic. Esses dois pontos é que teriam ficado de fora.
(11:23) Vinícius: Essa teria sido a razão de a Anthropic ter sido descartada pelo Departamento de Defesa. Só que, ao mesmo tempo, no dia seguinte, a OpenAI fechou contrato com o Departamento de Defesa. Seria, em tese, o mesmo contrato que a Anthropic teria recusado.
(12:01) Vinícius: Segundo disseram, seria nos mesmos termos que a Anthropic havia proposto. Isso é bastante estranho. Se uma empresa é descartada por não aceitar certos termos, e outra entra dizendo que aceitou os mesmos termos, algo não fecha.
(12:27) Vinícius: Isso causou uma impressão pública muito ruim sobre a OpenAI. A partir daí, começou uma enxurrada de usuários saindo do ChatGPT e procurando o Claude, da Anthropic, meio que em apoio à empresa. Também existe uma ação judicial movida pela Anthropic contra o Pentágono.
(13:04) Vinícius: A Anthropic iniciou essa ação judicial porque teria sido listada como risco de supply chain. E o mais interessante é que funcionários da OpenAI e do Google estariam apoiando esse movimento da Anthropic contra o Pentágono.
(13:33) Vinícius: Agora precisamos esperar um pouco para ver o que vai acontecer e se algo mais concreto aparece no futuro. Surgiu também a notícia de que um dos líderes de segurança em IA da Anthropic saiu da empresa para escrever poesia.
(14:09) Vinícius: Ele disse que queria dar um tempo. Segundo ele, o mundo está em perigo e as empresas estão abrindo mão de guardrails de segurança para ter lucro e outras vantagens. Mas ele não apresentou nada de concreto.
(14:37) Vinícius: Eu acho que seria mais interessante se ele tivesse trazido algum documento ou alguma evidência objetiva, algo semelhante ao que ocorreu com o Snowden. Por enquanto, o que temos é uma preocupação genérica.
(15:13) Vinícius: Ele apenas afirmou que a IA está nos tornando menos humanos, que o mundo está em perigo e que resolveu sair para escrever poesia. Algumas pessoas me enviaram isso como sinal de que algo grave estaria acontecendo na Anthropic. Pode até haver alguma coisa, mas ainda sem elementos concretos.
(15:52) Vinícius: De todo modo, eu acho que a IA, de modo geral, é um problema que precisamos discutir seriamente. Os impactos podem ser bastante ruins para a sociedade se isso não for bem conduzido.
(16:23) Guilherme: Neste fim de semana, eu estava lendo sobre os 80 anos do ENIAC. Vinícius: Eu sempre conheci como “Eniac”. Guilherme: Pois é, mas o ponto é que ele era um computador digital de propósito geral, usado para cálculos de balística.
(16:48) Guilherme: Isso me chamou a atenção porque dá para fazer uma ligação entre esse caso da Anthropic e o uso de qualquer tecnologia. Quando você pega a história da criptografia, por exemplo, vê que ela também está ligada à proteção de segredos militares, entre gregos, romanos e outros povos.
(17:24) Guilherme: Temos também a história do Turing e de como várias tecnologias estiveram diretamente conectadas com cenários de guerra. A IA talvez siga um caminho um pouco diferente, porque não nasceu em um cenário militar, mas foi rapidamente adotada nesse contexto.
(18:00) Guilherme: E ela foi rapidamente adotada em todos os outros contextos também. Talvez tenha sido a tecnologia que criamos e que mais rapidamente foi absorvida no plano comercial e pessoal. Basta comparar o tempo de popularização da internet com o tempo de popularização da IA.
(18:31) Guilherme: É inegável que vários setores, inclusive o militar, vão querer usar essa tecnologia. E isso traz também as dificuldades de regular esse uso. Além disso, é importante observar com quem essas empresas estão envolvidas e no que elas estão envolvidas.
(19:06) Vinícius: A própria internet surgiu do Departamento de Defesa dos Estados Unidos. Guilherme: Exato. Houve empresas importantes no desenvolvimento das primeiras redes, mas depois o TCP/IP e a internet propriamente dita surgem a partir de projeto do Departamento de Defesa.
(19:27) Guilherme: Infelizmente, esse parece ser um caminho recorrente. As guerras acabam impulsionando uma série de tecnologias que depois voltam para uso civil.
(19:53) Guilherme: E o contrário também acontece. Tecnologias pensadas para uso civil podem se mostrar extremamente úteis no cenário militar.
(20:16) Vinícius: Um exemplo são os drones de baixo custo. Antes da guerra da Ucrânia, quando se falava em drone militar, a imagem comum era a de grandes aeronaves controladas remotamente, como os modelos norte-americanos armados com mísseis.
(20:51) Vinícius: Com a guerra da Ucrânia, vimos o uso de drones civis carregando explosivos para atingir tanques. Isso mudou bastante a percepção sobre o tema.
(21:26) Vinícius: Agora também vemos o uso de drones iranianos de baixo custo pela Rússia. São equipamentos simples, com motor a combustão e carga explosiva, programados para seguir uma rota. Se houver um obstáculo no caminho, eles simplesmente colidem.
(21:54) Vinícius: Isso mostra como soluções relativamente baratas podem ganhar importância estratégica. Um drone desses pode custar algo como 30 ou 35 mil dólares, o que é muito pouco comparado a um míssil de mais de 1 milhão de dólares.
(22:24) Vinícius: Eu também vi um drone muito veloz, anunciado inicialmente para filmar carros de Fórmula 1, que agora aparece como solução para interceptar outros drones. Em vez de gastar um míssil de 1 milhão de dólares, usa-se um drone que custa algumas centenas de dólares.
(23:00) Vinícius: Tudo isso acaba produzindo mudanças. Vai baixar o preço dos drones, vai aumentar a oferta de drones com IA e, no fim, muita coisa desenvolvida para a guerra volta para o uso civil. É interessante em alguns aspectos, mas não deixa de ser guerra.
(23:34) Guilherme: Eu fui pesquisar também sobre Santos Dumont. Li que um dos fatores associados ao seu suicídio teria sido o uso dos aviões na Revolução de 1932, embora não dê para saber isso exatamente. De todo modo, vamos mudar de pauta.
(24:09) Guilherme: Tivemos uma nova resolução sobre o uso de IA no âmbito do CFM. A Resolução CFM 2.454/2026 foi publicada no fim de fevereiro e seria o primeiro marco regulatório, na área médica, para estabelecer algum tipo de controle sobre o uso de inteligência artificial.
(24:47) Guilherme: Ela traz direitos e deveres dos médicos, trata dos riscos e segue uma linha semelhante à de classificar a IA com base em níveis de risco: baixo, médio, alto e inaceitável. No Anexo 2, eu notei alguns problemas nas definições, embora não tenha conseguido verificar isso com mais profundidade.
(25:12) Guilherme: Também não consegui localizar, numa leitura mais rápida, o que seria exatamente o risco inaceitável. A resolução cria obrigações de auditoria e transparência para instituições de saúde. E destaca que a ferramenta deve ser usada como apoio, enquanto a decisão e a responsabilidade permanecem com o médico.
(25:40) Guilherme: Outro ponto importante é que o paciente tem o direito de ser informado, de forma clara e acessível, quando modelos, sistemas e aplicações forem utilizados. E o médico deve respeitar a autonomia do paciente, inclusive quanto à recusa informada ao uso da IA.
(26:01) Guilherme: Isso é importante em vários flancos. No âmbito da segurança da informação, o artigo 17 estabelece que os sistemas utilizados devem ter medidas adequadas e compatíveis com o estado da arte para evitar acesso não autorizado, perda, vazamento e destruição. Estamos falando de dados pessoais sensíveis, ligados à saúde.
(26:35) Guilherme: Outro dia eu te mandei exemplos de pads abertos na internet com informações sensíveis, aparentemente de serviço de emergência hospitalar. Então, realmente precisamos avançar nessa área. E, quando falamos em serviços médicos, também lembramos de equipamentos antigos e de redes mal protegidas.
(27:07) Guilherme: Tudo isso abre espaço para um novo nível de responsabilidade, de controles e de riscos de vazamento. Sem contar que essas grandes empresas já estão oferecendo soluções de IA voltadas à área da saúde. Isso pode ser perigoso, considerando o atual estágio das alucinações e das possibilidades de tomada de decisão automatizada.
(27:39) Guilherme: Quando pensamos em profissões como medicina, direito, arquitetura e outras, propor substituições desse tipo é algo preocupante. Se eu fosse médico, ficaria bastante atento a esse movimento.
(28:18) Vinícius: Eu só faria uma ressalva sobre a questão da alucinação. Os modelos parecem alucinar cada vez menos, não mais. E também importa muito quais modelos estão sendo usados.
(28:37) Vinícius: Quando falamos de OpenAI e Microsoft se movimentando para acessar dados de saúde, precisamos entender com cuidado o objetivo disso. Se não for para conversar com o usuário sobre saúde, fica a pergunta sobre para que exatamente esses dados estão sendo usados.
(29:12) Vinícius: Em alguma medida, as pessoas já faziam isso antes no Google, quando pesquisavam exames e sintomas antes de ir ao médico. Agora, isso migrou para a IA.
(29:35) Vinícius: Já ouvi relatos de pessoas que desconfiaram do atendimento que estavam recebendo, usaram IA para se aprofundar um pouco mais e sentiram que foram ajudadas. Mas também há casos em que a ferramenta erra completamente.
(30:05) Guilherme: E aí entra a questão da responsabilidade sobre a orientação dada. Vinícius: Sem dúvida. Mas há um certo consenso em muitos debates sobre IA de que ela pode ampliar o acesso a atendimentos que hoje não existem por causa de custo, tempo e escala.
(30:43) Vinícius: Eu acho que existe, sim, potencial para ajudar bastante as questões de saúde. Só não acho que as pessoas devam passar a consultar o ChatGPT em vez de um médico.
(31:16) Vinícius: Mas esse potencial de tornar o atendimento mais acessível é bastante relevante. Hoje, ser atendido por um médico já é caro e difícil, mesmo com SUS e outras estruturas existentes.
(31:46) Vinícius: Então, esse é um tipo de aplicação que eu quero ver acontecer. Só não sei se quero que a iniciativa fique nas mãos de empresas como OpenAI e Anthropic, substituindo a relação com o médico.
(32:11) Guilherme: Eu acho que existe um aspecto ético muito forte aí. Isso já vem acontecendo em outras profissões, e eu vejo algo parecido no direito, com juízes usando IA de maneira intensa. Mas, no direito, há valores morais, aspectos éticos e uma busca pelo justo que não podem ser ignorados.
(32:36) Guilherme: E há algo que a IA ainda não faz, pelo menos por enquanto: o exame clínico, a anamnese presencial, a conversa detalhada e o contato físico com o paciente. Eu também não gosto do argumento de que, como existem médicos ruins, então deveríamos simplesmente substituir por IA.
(33:02) Guilherme: Sim, há médicos ruins, que atendem em dois minutos. Mas isso é outro problema. Não acho que isso justifique uma adoção tão apressada da IA.
(33:46) Vinícius: Eu até ajudei uma professora a criar um simulador de anamnese para treinamento de alunos. Então, não sei se até isso, no futuro, não será apenas uma questão de interface. E não sei se, em certos casos, a ferramenta não poderá fazer melhor do que alguns profissionais.
(34:13) Vinícius: Médicos erram, juízes erram e vários profissionais erram. Há coisas que talvez consigamos fazer melhor com tecnologia, e o diagnóstico pode ser uma delas. Pode chegar o momento em que a gente não vai querer ser atendido por um médico que não use algum recurso de IA para ajudar a analisar o caso.
(34:35) Guilherme: O problema é desconsiderar que a falta de contato físico talvez seja algo fundamental para a medicina. Esse me parece um ponto relevante.
(35:00) Guilherme: Bom, tivemos várias interrupções hoje. Vinícius: É, o mau tempo está pegando o estado todo. Está chovendo muito por aí também? Guilherme: Aqui também está.
(35:18) Vinícius: Estou vendo no Ventusky o estado do Rio Grande do Sul inteiro embaixo d’água. Parece até de propósito. Se você olha o mapa, a parte do Brasil que avança para o Uruguai está com chuva, e o Uruguai não.
(35:52) Guilherme: E isso se conecta com segurança da informação, especialmente com resiliência. Não basta pensar em disponibilidade; os sistemas também precisam continuar funcionando sob situações extremas. E nós, aqui no Rio Grande do Sul, ainda não resolvemos isso direito, sobretudo no sistema de comunicação.
(36:22) Guilherme: Não recebi nenhum alerta no celular, por exemplo. Na Europa, eles costumam ser muito mais cuidadosos com isso. Em Portugal e na Espanha, recentemente, houve grandes eventos climáticos, e o aviso à população foi feito com muito mais precisão.
(36:51) Guilherme: Aqui, as coisas ainda parecem insuficientes nesse ponto. Bom, seguindo, tivemos um incidente com o BTG.
(37:15) Guilherme: No domingo, dia 22, o BTG foi alvo de um ataque hacker. As informações que temos vieram da imprensa e, ao que tudo indica, também foram fornecidas pela própria instituição. O ataque teria forçado a suspensão preventiva das operações via Pix.
(37:46) Guilherme: Segundo o Estadão, o ataque teria desviado cerca de 100 milhões, dos quais a maior parte teria sido recuperada. Entre 20 e 40 milhões ainda não teriam sido localizados até aquele momento. Na manhã do dia 23, o Pix foi restabelecido, e foi informado que não houve acesso às contas de clientes nem exposição de dados de correntistas.
(38:07) Guilherme: Aqui eu faço apenas uma hipótese, sem afirmar que foi isso que aconteceu. A situação me pareceu, em alguns aspectos, parecida com o caso da C&M: há dinheiro desviado, não há relato de acesso a dados de correntistas e há interrupção do Pix.
(38:30) Guilherme: Essas condições são parecidas com o caso anterior, mas ainda precisamos acompanhar. O Banco Central ainda não havia se manifestado.
(38:53) Guilherme: Ao que tudo indica, o BTG não usa PSTI, embora eu não tenha encontrado essa informação com segurança. Então pode ser que tenha infraestrutura própria para se conectar à rede do Sistema Financeiro Nacional. De todo modo, isso serve de alerta para as instituições financeiras.
(39:26) Guilherme: Com as regulações recentes, especialmente após o incidente da C&M, tudo indica que 2026 será um ano de atuação mais forte do Banco Central na avaliação desses incidentes e na verificação das condições de segurança das instituições.
(39:52) Guilherme: Notinha do editor: enquanto estávamos editando, saiu uma atualização no Convergência Digital confirmando aquilo que comentamos. Não houve invasão a PSTI, e sim à infraestrutura da própria organização.
(40:14) Guilherme: A Polícia Federal e o MP de São Paulo, por meio do CyberGaeco, investigam o caso. Eles levantam a hipótese de uso de uma credencial antiga, ligada a uma empresa de tecnologia bancária que já prestou serviços ao BTG, e não descartam a participação de funcionários com acesso às credenciais.
(40:33) Guilherme: Desde 2025, já teriam sido registrados ao menos três ataques desse tipo. Há também a suspeita de que o grupo responsável seja próximo ao que invadiu a C&M Software e desviou 813 milhões no ano passado. Vinícius: Perfeito.
(41:00) Vinícius: A minha última pauta envolve IA, mas sob o ponto de vista de desenvolvimento e integrações. Separei três notícias sobre servidores MCP expostos.
(41:31) Vinícius: Quando usamos um chat de IA, estamos interagindo com o conhecimento que o modelo tem e com integrações que já vêm por padrão, como pesquisa na internet. Hoje, praticamente todas as ferramentas já oferecem isso.
(42:04) Vinícius: Além disso, elas começaram a disponibilizar integrações com outros serviços via MCP, o Model Context Protocol, criado pela Anthropic. Isso serve para expor ferramentas que fazem várias coisas, como buscar e-mails, enviar mensagens, criar rascunhos, apagar conteúdo e assim por diante.
(42:30) Vinícius: Você expõe essas ferramentas para a IA por meio de um servidor MCP. A IA se conecta, pergunta que ferramentas estão disponíveis, entende o que cada uma faz e decide se deve ou não usá-las conforme o pedido do usuário.
(42:58) Guilherme: E qual é a diferença entre MCP e API? Vinícius: O MCP é um protocolo pensado para facilitar esse diálogo com a IA. Já a API tradicional normalmente exige integração programática entre dois sistemas, com documentação mais técnica.
(43:32) Vinícius: Numa API comum, você entrega a documentação e a outra ponta desenvolve a integração. Se você der essa documentação para uma IA capaz de programar, ela conseguirá criar um script e chamar aquela API.
(43:58) Vinícius: O MCP funciona como uma espécie de API autodocumentada, voltada para consumo por IA e LLM. A IA se conecta ao servidor MCP e pergunta, em linguagem natural, o que ele faz, que ferramentas tem e para que servem.
(44:20) Vinícius: A partir disso, conforme a conversa avança, a IA decide usar ou não as ferramentas disponíveis. Desde que o MCP surgiu, ele acabou sendo adotado como padrão por várias ferramentas.
(44:48) Vinícius: É muito interessante poder integrar a IA com sistemas e fontes de informação que você já possui. A IA consegue compreender aquilo, explicar e até agir, se você permitir. É possível ligar um MCP desde um roteador por SSH até um ERP.
(45:13) Vinícius: Só que começaram a aparecer vários problemas. Há muitos MCPs sem autenticação alguma. Em outros casos, a autenticação existe, mas algumas chamadas escapam dela.
(45:42) Vinícius: Ou seja, estamos repetindo erros que já víamos em APIs há dez anos. Agora esses erros estão aparecendo nos MCPs.
(46:13) Vinícius: Alguns MCPs colocam os próprios sistemas em risco. Imagine, por exemplo, uma IA na sua empresa usando um MCP que consome dados da internet.
(46:40) Vinícius: O atacante pode inserir um README malicioso em um repositório que será lido pela IA como se fosse instrução. A partir daí, ela pode criar projeto, gerar script em Python e executar ações dentro do ambiente sem que você perceba.
(47:17) Vinícius: Quando você vê, a IA está executando comandos definidos por alguém de fora, que simplesmente colocou esse conteúdo em um site ou repositório acessado pelo sistema. Isso é extremamente delicado.
(47:53) Vinícius: Quis chamar atenção para essas notícias porque já estamos acostumados a testar front-end, back-end e APIs REST. Agora, o MCP caiu no gosto do mercado para integrar sistemas com IA, mas vários erros de segurança estão sendo cometidos.
(48:25) Vinícius: Isso pode acabar permitindo execução remota de comandos e outras falhas graves, dependendo do ambiente. Há também o problema da injeção de prompts.
(48:56) Vinícius: Quando você usa um ChatGPT ou um Claude prontos, os desenvolvedores dessas ferramentas já tentam mitigar prompt injection. Mas, quando você usa a API diretamente, a responsabilidade passa a ser sua.
(49:36) Vinícius: E parece que muita gente ainda não percebeu isso. Há quem ache que o modelo vai se defender sozinho contra injeção de prompt. Não é assim.
(50:05) Vinícius: Essas notícias dão insights interessantes sobre o uso de integrações entre IA e sistemas. E já temos referências como o novo Top 10 da OWASP para aplicações com LLMs.
(50:33) Guilherme: Hoje mesmo eu estava conversando com um cliente sobre aquela cadeia de adequação que costuma acontecer com LGPD e outras normas. Uma empresa se adequa e passa a exigir a adequação dos seus prestadores, que passam a exigir a dos seus próprios prestadores, e assim por diante.
(50:56) Guilherme: E um cliente do nosso cliente enviou um questionário de segurança já pedindo informações sobre uso de IA no ambiente. Ou seja, a empresa contratante está preocupada em saber como seus prestadores usam IA no tratamento de dados.
(51:22) Guilherme: E isso se conecta diretamente com proteção de dados pessoais. Apagou a luz aqui, Vinícius, mas eu já volto. Hoje, além do Código Civil e do Código de Defesa do Consumidor, a LGPD é talvez o instrumento mais próximo para nos ajudar a lidar com essas questões de IA.
(51:58) Guilherme: No fim das contas, você pode estar tratando dados dos seus clientes e dados pessoais. Se houver incidente de segurança, isso atrai toda a disciplina da LGPD, inclusive quanto à necessidade de comunicação.
(52:25) Guilherme: E, se for descoberto que o MCP estava aberto na internet, isso é uma falha grave e evitável. A Brown Pipe já inclui há algum tempo, em seus pentests, verificações sobre uso de IA.
(53:00) Vinícius: Exato. Já estamos avaliando sistemas que usam IA, incluindo injeção de prompts e outros problemas correlatos. Isso já faz parte do nosso rol de testes.
(53:35) Guilherme: Eu tinha dito que aquela era a minha última pauta, mas quero deixar uma nota rápida para os educadores de plantão. O Ministério da Educação lançou um documento de 241 páginas chamado “Referencial para desenvolvimento e uso responsáveis de inteligência artificial na educação”. O link está no show notes.
(54:12) Guilherme: E, para terminar, eu queria falar rapidamente sobre criatividade e uso de IA. Já comentamos aqui sobre estudos relacionados à educação e ao impacto da IA sobre o espírito crítico.
(54:34) Guilherme: Agora temos um novo artigo que sugere que, apesar da rapidez para realizar certas tarefas, o aumento de criatividade durante o uso da ferramenta desaparece quando ela é retirada. E haveria uma persistência de homogeneidade nas ideias depois do uso.
(55:14) Guilherme: Em outras palavras, as pessoas tenderiam a produzir ideias cada vez mais parecidas entre si. Isso acaba corroborando o que aquele outro trabalho, “Your Brain on ChatGPT”, vinha apontando. Inclusive, esse estudo foi atualizado.
(55:37) Guilherme: Esse tipo de pesquisa mexe com algo que tenho estudado mais recentemente, no plano do simbólico. A linguagem é importante para a definição do nosso mundo. Wittgenstein falava justamente sobre isso.
(56:14) Guilherme: Eu estava lendo sobre isso ontem. A ideia é que o teu mundo é, em certa medida, baseado na tua linguagem. Lévi-Strauss também dizia que as categorias simbólicas, inclusive a linguagem, organizam o mundo.
(56:41) Guilherme: E Wittgenstein afirmava que os limites da minha linguagem são os limites do meu mundo. Então talvez um efeito da IA, ainda a ser melhor investigado, seja esse: qual é o papel do simbólico e da linguagem na construção do mundo, quando passamos a depender tanto de uma máquina de linguagem.
(57:20) Guilherme: Isso é preocupante porque essas construções linguísticas também modelam a realidade. Se todo mundo começa a pensar igual, como às vezes acontece na internet quando se entra em bolhas, talvez algo semelhante esteja acontecendo com a IA.
(57:42) Guilherme: E isso é um problema para a criatividade. No fim das contas, as pessoas podem ficar menos criativas, e isso é ruim.
(58:14) Vinícius: Eu te passei o link do projeto do MIT, “Your Brain on ChatGPT”, que reúne o artigo e a versão mais recente da publicação. Ele trata justamente desses efeitos de começar uma atividade com IA e depois sem IA, ou o contrário.
(58:41) Vinícius: Os resultados são bem diferentes e vale a pena olhar esse material. Guilherme: Eu sempre ficava mais no artigo; não conhecia o site. Vinícius: Eles ainda vão ter que generalizar isso para além do ChatGPT, porque o problema não é só ele.
(59:19) Vinícius: Mas, como a pesquisa deles foi feita com o ChatGPT, o nome ficou assim. Há também leituras adicionais sobre homogeneização da linguagem. Recomendo a leitura do artigo ou até jogar o texto no NotebookLM e conversar com ele.
(59:37) Guilherme: Hoje foi meio tumultuado, mas conseguimos chegar ao fim do episódio. Na semana que vem, não se esqueçam, teremos um episódio sobre o ECA Digital. Agradecemos a todos e todas que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima. Vinícius: Até a próxima.
By Guilherme Goulart e Vinícius Serafim4
77 ratings
Neste episódio comentamos sobre as principais atualizações e desafios no mercado de tecnologia, trazendo uma análise objetiva sobre cibersegurança e proteção de dados. Ao longo da reprodução, você irá descobrir os recentes desdobramentos éticos do uso de inteligência artificial em contextos militares, envolvendo a recusa da Anthropic em aderir aos termos do Departamento de Defesa norte-americano e os impactos disso para a privacidade global. Você também irá aprender sobre o novo marco regulatório do Conselho Federal de Medicina para ferramentas automatizadas na área da saúde, compreendendo como as exigências da LGPD se aplicam à segurança da informação na proteção de dados médicos sensíveis. Além disso, você entenderá os detalhes do recente ataque hacker que causou graves incidentes de segurança no setor financeiro, e saberá identificar as vulnerabilidades críticas na integração de modelos de linguagem via protocolo MCP, como a perigosa injeção de prompts em servidores expostos. O host Guilherme Goulart compartilha ainda sua vivência no evento SecOps Summit, refletindo sobre a importância dos profissionais de segurança na governança corporativa. Por fim, você poderá avaliar como o uso excessivo do ChatGPT pode afetar a criatividade e gerar a homogeneização do pensamento.
Para continuar acompanhando nossas discussões, não se esqueça de assinar o podcast na sua plataforma preferida, seguir nossos perfis nas redes sociais e avaliar o programa para apoiar o nosso trabalho.
Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana.
Visite nossa campanha de financiamento coletivo e nos apoie!
Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing
Acesse WhisperSafe – Transcreva áudio e grave reuniões direto no seu computador, mesmo offline. Rápido, leve e pronto para usar com qualquer IA. Use o cupom SEGLEG50 para 50% de desconto na sua assinatura.
ShowNotes
Imagem do Episódio: A Torre de Babel — Pieter Bruegel
📝 Transcrição do Episódio
(00:08) Guilherme: Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 413, gravado em 23 de março de 2026. Eu sou Guilherme Goulart e, junto com Vinícius Serafim, vamos trazer algumas notícias das últimas semanas. E aí, Vinícius, tudo bem? Vinícius: Tudo bem, Guilherme. Olá aos nossos ouvintes. Esse é o nosso momento de conversar sobre algumas notícias e acontecimentos que chamaram a nossa atenção.
(00:30) Guilherme: Então, pegue o seu café; no caso de hoje, um chimarrão. Pegue a sua bebida preferida e venha conosco. Para entrar em contato com a gente, você já sabe: basta enviar uma mensagem para [email protected] ou falar conosco no Instagram, Bluesky, YouTube e TikTok. Temos também a campanha de financiamento coletivo em apoia.se/segurancalegal. E há um novo patrocinador: Whisper Safe.
(00:52) Guilherme: Você já pensou como pode ser difícil, depois de uma reunião, lembrar o que foi dito ou perder tempo digitando tudo o que foi falado? O Whisper Safe resolve esse e outros problemas para você, porque ele transcreve áudio e grava reuniões direto do seu computador, de forma rápida, precisa e 100% offline. Nenhum dado de áudio sai da sua máquina. Ele funciona com todos os comunicadores e também com qualquer arquivo de áudio que você tenha, como notas de palestra, notas de aula e outros tipos de gravação.
(01:25) Vinícius: Eu tenho usado com MP4. Eu estava usando outra ferramenta que não estava funcionando com MP4. O Whisper Safe funciona com MP4 também? Guilherme: Sim, funciona com MP4 também. Você pode colocar vídeo lá, e ele processa. Vinícius: Não sabia.
(01:48) Guilherme: Muito bom. Você tem 15 dias grátis para testar, e o cupom SEGUELEG50 dá 50% de desconto vitalício. Enquanto o Whisper Safe estiver funcionando, você terá esse desconto. Então, use o cupom SEGUELEG50, que está lá no show notes, e acesse whispersafe.ai. Antes de começarmos, Vinícius, a Brown Pipe esteve com toda a sua equipe no SecOps Summit 2026.
(02:18) Guilherme: No meu caso, como foi aqui em Porto Alegre, eu digo “lá” brincando, mas para mim foi “aqui”. Conta para nós um pouquinho. Vinícius: A gente esteve no evento em razão de uma palestra que tu foste dar lá. Aproveitamos para conhecer o evento.
(02:40) Vinícius: Nós nunca tínhamos ido ao evento para ver como era e sentir a vibe. Acabamos encontrando vários clientes nossos lá, o que é muito bom. Isso mostra que existe busca e que o público está procurando mais informações sobre esse tema.
(03:00) Vinícius: Já quero pedir aos ouvintes que nos encontraram lá e vieram conversar contigo depois da palestra: por favor, mandem seus nomes. Se não estou enganado, um deles se chama Frederico. Queríamos mandar um abraço no próximo episódio, citando vocês corretamente.
(03:18) Vinícius: Então já fica registrado: foi muito bom trocar uma ideia lá e encontrar ouvintes do Segurança Legal. No geral, Guilherme, o mercado é realmente bastante concorrido. O tipo de evento atrai empresas que fazem coisas parecidas.
(03:45) Vinícius: Vi desde startups até empresas maiores. No geral, havia muita gente oferecendo dashboards, aplicações e ferramentas para acompanhar segurança, compliance com LGPD, proteção de dados e temas correlatos.
(04:14) Vinícius: Dizer que todo mundo estava fazendo isso é exagero, mas quase todo mundo estava usando IA como palavra-chave. No geral, achei o evento bem interessante. Pretendo ir novamente no ano que vem. Guilherme: Eu também achei interessante e pretendo ir de novo.
(04:38) Guilherme: Recebi uma mensagem do nosso amigo e evangelizador do Segurança Legal, Diego, dizendo que neste ano não pôde ir. Foi uma pena, porque não conseguimos nos encontrar com ele. Lá, falei sobre o papel do encarregado nos incidentes de segurança da informação, tema sobre o qual já comentamos aqui no podcast.
(05:00) Guilherme: Foi interessante receber feedbacks de pessoas dizendo que não estavam fazendo aquilo que eu comentei que deveria ser feito. Para nós, isso parece básico, mas ainda há uma série de barreiras. Uma delas é dar condições reais para o encarregado trabalhar. Não basta nomeá-lo; é preciso dar estrutura para que ele desenvolva o seu trabalho.
(05:32) Guilherme: Eu também gostei do evento, então voltaremos. Essa é uma piada interna aqui do Rio Grande do Sul. Vinícius: Mais especificamente de Porto Alegre. Guilherme: Isso, mais de Porto Alegre, ali do tempo da TVCOM.
(05:55) Guilherme: Nós também recebemos uma mensagem do nosso querido ouvinte Ricardo Berlim. Ele nos perguntou sobre ECA Digital. Esse é um tema que está chamando muita atenção no debate, sobretudo na segurança da informação e nas conexões com vigilância.
(06:27) Guilherme: E eu acho que, muitas vezes, pelas razões erradas. Tem muita coisa que não é discussão séria. Embora eu tenha dito tudo isso para dizer que não iríamos falar sobre o tema agora, já estamos falando dele. Vinícius: Na semana que vem, vamos gravar sobre isso com um convidado.
(06:50) Guilherme: Vamos voltar ao tema do ECA Digital na próxima semana, ou no meio da próxima semana. Eu prefiro falar em “polêmica do ECA Digital” do que em “Lei Felca”, como alguns têm chamado. Os nossos ouvintes provavelmente já ouviram falar bastante sobre isso.
(07:18) Guilherme: Se você acompanha o cenário internacional da guerra entre Estados Unidos e Irã, deve ter percebido como a IA entrou nesse jogo e virou notícia dentro dessa história. Conta para nós um pouco mais sobre isso. Vinícius: Eu acompanhei isso mais de perto.
(07:43) Vinícius: Já havíamos comentado sobre a Anthropic ter se negado a aceitar certos termos de uso da IA pelo Departamento de Defesa norte-americano, ou, se quiser, pelo departamento de guerra norte-americano. Isso já tinha dado pano para manga.
(08:07) Vinícius: O Departamento de Defesa chutou o balde com a Anthropic. Primeiro, isso foi anunciado nas redes sociais, e depois ficou claro que a Anthropic está envolvida em vários projetos com o governo norte-americano. Ela foi uma das primeiras a entregar modelos customizados para ajudar o governo.
(08:40) Vinícius: Não é que eles não quisessem cooperar. O que aconteceu é que houve dois itens que a Anthropic não aceitou. Um deles foi o uso da IA para vigilância em massa doméstica, ou seja, de cidadãos norte-americanos.
(09:12) Vinícius: Isso lembra bastante a questão do Snowden, em 2013. Na época, Obama veio a público dizer que todos podiam ficar tranquilos porque eles não estavam monitorando cidadãos norte-americanos. Isso foi um pronunciamento voltado para dentro de casa, não para fora.
(09:51) Guilherme: Só um minutinho, Vinícius. Foi o episódio 28. Praticamente 400 episódios atrás. O episódio é “Prism, privacidade e segurança”, e eu vou deixar no show notes.
(10:18) Guilherme: Depois do episódio 28, falamos no episódio 30, “Snowden 6: Brasil vigiado”. Vinícius: Acho que é exatamente isso que eu estava comentando. E o que aconteceu foi que eles não aceitaram o uso para vigilância doméstica nem para armas completamente autônomas.
(10:48) Vinícius: Isso não quer dizer que a IA da Anthropic já não estivesse sendo utilizada para determinar alvos, identificar alvos e definir estratégias. O próprio Dario Amodei fala disso em uma declaração no site da Anthropic. Esses dois pontos é que teriam ficado de fora.
(11:23) Vinícius: Essa teria sido a razão de a Anthropic ter sido descartada pelo Departamento de Defesa. Só que, ao mesmo tempo, no dia seguinte, a OpenAI fechou contrato com o Departamento de Defesa. Seria, em tese, o mesmo contrato que a Anthropic teria recusado.
(12:01) Vinícius: Segundo disseram, seria nos mesmos termos que a Anthropic havia proposto. Isso é bastante estranho. Se uma empresa é descartada por não aceitar certos termos, e outra entra dizendo que aceitou os mesmos termos, algo não fecha.
(12:27) Vinícius: Isso causou uma impressão pública muito ruim sobre a OpenAI. A partir daí, começou uma enxurrada de usuários saindo do ChatGPT e procurando o Claude, da Anthropic, meio que em apoio à empresa. Também existe uma ação judicial movida pela Anthropic contra o Pentágono.
(13:04) Vinícius: A Anthropic iniciou essa ação judicial porque teria sido listada como risco de supply chain. E o mais interessante é que funcionários da OpenAI e do Google estariam apoiando esse movimento da Anthropic contra o Pentágono.
(13:33) Vinícius: Agora precisamos esperar um pouco para ver o que vai acontecer e se algo mais concreto aparece no futuro. Surgiu também a notícia de que um dos líderes de segurança em IA da Anthropic saiu da empresa para escrever poesia.
(14:09) Vinícius: Ele disse que queria dar um tempo. Segundo ele, o mundo está em perigo e as empresas estão abrindo mão de guardrails de segurança para ter lucro e outras vantagens. Mas ele não apresentou nada de concreto.
(14:37) Vinícius: Eu acho que seria mais interessante se ele tivesse trazido algum documento ou alguma evidência objetiva, algo semelhante ao que ocorreu com o Snowden. Por enquanto, o que temos é uma preocupação genérica.
(15:13) Vinícius: Ele apenas afirmou que a IA está nos tornando menos humanos, que o mundo está em perigo e que resolveu sair para escrever poesia. Algumas pessoas me enviaram isso como sinal de que algo grave estaria acontecendo na Anthropic. Pode até haver alguma coisa, mas ainda sem elementos concretos.
(15:52) Vinícius: De todo modo, eu acho que a IA, de modo geral, é um problema que precisamos discutir seriamente. Os impactos podem ser bastante ruins para a sociedade se isso não for bem conduzido.
(16:23) Guilherme: Neste fim de semana, eu estava lendo sobre os 80 anos do ENIAC. Vinícius: Eu sempre conheci como “Eniac”. Guilherme: Pois é, mas o ponto é que ele era um computador digital de propósito geral, usado para cálculos de balística.
(16:48) Guilherme: Isso me chamou a atenção porque dá para fazer uma ligação entre esse caso da Anthropic e o uso de qualquer tecnologia. Quando você pega a história da criptografia, por exemplo, vê que ela também está ligada à proteção de segredos militares, entre gregos, romanos e outros povos.
(17:24) Guilherme: Temos também a história do Turing e de como várias tecnologias estiveram diretamente conectadas com cenários de guerra. A IA talvez siga um caminho um pouco diferente, porque não nasceu em um cenário militar, mas foi rapidamente adotada nesse contexto.
(18:00) Guilherme: E ela foi rapidamente adotada em todos os outros contextos também. Talvez tenha sido a tecnologia que criamos e que mais rapidamente foi absorvida no plano comercial e pessoal. Basta comparar o tempo de popularização da internet com o tempo de popularização da IA.
(18:31) Guilherme: É inegável que vários setores, inclusive o militar, vão querer usar essa tecnologia. E isso traz também as dificuldades de regular esse uso. Além disso, é importante observar com quem essas empresas estão envolvidas e no que elas estão envolvidas.
(19:06) Vinícius: A própria internet surgiu do Departamento de Defesa dos Estados Unidos. Guilherme: Exato. Houve empresas importantes no desenvolvimento das primeiras redes, mas depois o TCP/IP e a internet propriamente dita surgem a partir de projeto do Departamento de Defesa.
(19:27) Guilherme: Infelizmente, esse parece ser um caminho recorrente. As guerras acabam impulsionando uma série de tecnologias que depois voltam para uso civil.
(19:53) Guilherme: E o contrário também acontece. Tecnologias pensadas para uso civil podem se mostrar extremamente úteis no cenário militar.
(20:16) Vinícius: Um exemplo são os drones de baixo custo. Antes da guerra da Ucrânia, quando se falava em drone militar, a imagem comum era a de grandes aeronaves controladas remotamente, como os modelos norte-americanos armados com mísseis.
(20:51) Vinícius: Com a guerra da Ucrânia, vimos o uso de drones civis carregando explosivos para atingir tanques. Isso mudou bastante a percepção sobre o tema.
(21:26) Vinícius: Agora também vemos o uso de drones iranianos de baixo custo pela Rússia. São equipamentos simples, com motor a combustão e carga explosiva, programados para seguir uma rota. Se houver um obstáculo no caminho, eles simplesmente colidem.
(21:54) Vinícius: Isso mostra como soluções relativamente baratas podem ganhar importância estratégica. Um drone desses pode custar algo como 30 ou 35 mil dólares, o que é muito pouco comparado a um míssil de mais de 1 milhão de dólares.
(22:24) Vinícius: Eu também vi um drone muito veloz, anunciado inicialmente para filmar carros de Fórmula 1, que agora aparece como solução para interceptar outros drones. Em vez de gastar um míssil de 1 milhão de dólares, usa-se um drone que custa algumas centenas de dólares.
(23:00) Vinícius: Tudo isso acaba produzindo mudanças. Vai baixar o preço dos drones, vai aumentar a oferta de drones com IA e, no fim, muita coisa desenvolvida para a guerra volta para o uso civil. É interessante em alguns aspectos, mas não deixa de ser guerra.
(23:34) Guilherme: Eu fui pesquisar também sobre Santos Dumont. Li que um dos fatores associados ao seu suicídio teria sido o uso dos aviões na Revolução de 1932, embora não dê para saber isso exatamente. De todo modo, vamos mudar de pauta.
(24:09) Guilherme: Tivemos uma nova resolução sobre o uso de IA no âmbito do CFM. A Resolução CFM 2.454/2026 foi publicada no fim de fevereiro e seria o primeiro marco regulatório, na área médica, para estabelecer algum tipo de controle sobre o uso de inteligência artificial.
(24:47) Guilherme: Ela traz direitos e deveres dos médicos, trata dos riscos e segue uma linha semelhante à de classificar a IA com base em níveis de risco: baixo, médio, alto e inaceitável. No Anexo 2, eu notei alguns problemas nas definições, embora não tenha conseguido verificar isso com mais profundidade.
(25:12) Guilherme: Também não consegui localizar, numa leitura mais rápida, o que seria exatamente o risco inaceitável. A resolução cria obrigações de auditoria e transparência para instituições de saúde. E destaca que a ferramenta deve ser usada como apoio, enquanto a decisão e a responsabilidade permanecem com o médico.
(25:40) Guilherme: Outro ponto importante é que o paciente tem o direito de ser informado, de forma clara e acessível, quando modelos, sistemas e aplicações forem utilizados. E o médico deve respeitar a autonomia do paciente, inclusive quanto à recusa informada ao uso da IA.
(26:01) Guilherme: Isso é importante em vários flancos. No âmbito da segurança da informação, o artigo 17 estabelece que os sistemas utilizados devem ter medidas adequadas e compatíveis com o estado da arte para evitar acesso não autorizado, perda, vazamento e destruição. Estamos falando de dados pessoais sensíveis, ligados à saúde.
(26:35) Guilherme: Outro dia eu te mandei exemplos de pads abertos na internet com informações sensíveis, aparentemente de serviço de emergência hospitalar. Então, realmente precisamos avançar nessa área. E, quando falamos em serviços médicos, também lembramos de equipamentos antigos e de redes mal protegidas.
(27:07) Guilherme: Tudo isso abre espaço para um novo nível de responsabilidade, de controles e de riscos de vazamento. Sem contar que essas grandes empresas já estão oferecendo soluções de IA voltadas à área da saúde. Isso pode ser perigoso, considerando o atual estágio das alucinações e das possibilidades de tomada de decisão automatizada.
(27:39) Guilherme: Quando pensamos em profissões como medicina, direito, arquitetura e outras, propor substituições desse tipo é algo preocupante. Se eu fosse médico, ficaria bastante atento a esse movimento.
(28:18) Vinícius: Eu só faria uma ressalva sobre a questão da alucinação. Os modelos parecem alucinar cada vez menos, não mais. E também importa muito quais modelos estão sendo usados.
(28:37) Vinícius: Quando falamos de OpenAI e Microsoft se movimentando para acessar dados de saúde, precisamos entender com cuidado o objetivo disso. Se não for para conversar com o usuário sobre saúde, fica a pergunta sobre para que exatamente esses dados estão sendo usados.
(29:12) Vinícius: Em alguma medida, as pessoas já faziam isso antes no Google, quando pesquisavam exames e sintomas antes de ir ao médico. Agora, isso migrou para a IA.
(29:35) Vinícius: Já ouvi relatos de pessoas que desconfiaram do atendimento que estavam recebendo, usaram IA para se aprofundar um pouco mais e sentiram que foram ajudadas. Mas também há casos em que a ferramenta erra completamente.
(30:05) Guilherme: E aí entra a questão da responsabilidade sobre a orientação dada. Vinícius: Sem dúvida. Mas há um certo consenso em muitos debates sobre IA de que ela pode ampliar o acesso a atendimentos que hoje não existem por causa de custo, tempo e escala.
(30:43) Vinícius: Eu acho que existe, sim, potencial para ajudar bastante as questões de saúde. Só não acho que as pessoas devam passar a consultar o ChatGPT em vez de um médico.
(31:16) Vinícius: Mas esse potencial de tornar o atendimento mais acessível é bastante relevante. Hoje, ser atendido por um médico já é caro e difícil, mesmo com SUS e outras estruturas existentes.
(31:46) Vinícius: Então, esse é um tipo de aplicação que eu quero ver acontecer. Só não sei se quero que a iniciativa fique nas mãos de empresas como OpenAI e Anthropic, substituindo a relação com o médico.
(32:11) Guilherme: Eu acho que existe um aspecto ético muito forte aí. Isso já vem acontecendo em outras profissões, e eu vejo algo parecido no direito, com juízes usando IA de maneira intensa. Mas, no direito, há valores morais, aspectos éticos e uma busca pelo justo que não podem ser ignorados.
(32:36) Guilherme: E há algo que a IA ainda não faz, pelo menos por enquanto: o exame clínico, a anamnese presencial, a conversa detalhada e o contato físico com o paciente. Eu também não gosto do argumento de que, como existem médicos ruins, então deveríamos simplesmente substituir por IA.
(33:02) Guilherme: Sim, há médicos ruins, que atendem em dois minutos. Mas isso é outro problema. Não acho que isso justifique uma adoção tão apressada da IA.
(33:46) Vinícius: Eu até ajudei uma professora a criar um simulador de anamnese para treinamento de alunos. Então, não sei se até isso, no futuro, não será apenas uma questão de interface. E não sei se, em certos casos, a ferramenta não poderá fazer melhor do que alguns profissionais.
(34:13) Vinícius: Médicos erram, juízes erram e vários profissionais erram. Há coisas que talvez consigamos fazer melhor com tecnologia, e o diagnóstico pode ser uma delas. Pode chegar o momento em que a gente não vai querer ser atendido por um médico que não use algum recurso de IA para ajudar a analisar o caso.
(34:35) Guilherme: O problema é desconsiderar que a falta de contato físico talvez seja algo fundamental para a medicina. Esse me parece um ponto relevante.
(35:00) Guilherme: Bom, tivemos várias interrupções hoje. Vinícius: É, o mau tempo está pegando o estado todo. Está chovendo muito por aí também? Guilherme: Aqui também está.
(35:18) Vinícius: Estou vendo no Ventusky o estado do Rio Grande do Sul inteiro embaixo d’água. Parece até de propósito. Se você olha o mapa, a parte do Brasil que avança para o Uruguai está com chuva, e o Uruguai não.
(35:52) Guilherme: E isso se conecta com segurança da informação, especialmente com resiliência. Não basta pensar em disponibilidade; os sistemas também precisam continuar funcionando sob situações extremas. E nós, aqui no Rio Grande do Sul, ainda não resolvemos isso direito, sobretudo no sistema de comunicação.
(36:22) Guilherme: Não recebi nenhum alerta no celular, por exemplo. Na Europa, eles costumam ser muito mais cuidadosos com isso. Em Portugal e na Espanha, recentemente, houve grandes eventos climáticos, e o aviso à população foi feito com muito mais precisão.
(36:51) Guilherme: Aqui, as coisas ainda parecem insuficientes nesse ponto. Bom, seguindo, tivemos um incidente com o BTG.
(37:15) Guilherme: No domingo, dia 22, o BTG foi alvo de um ataque hacker. As informações que temos vieram da imprensa e, ao que tudo indica, também foram fornecidas pela própria instituição. O ataque teria forçado a suspensão preventiva das operações via Pix.
(37:46) Guilherme: Segundo o Estadão, o ataque teria desviado cerca de 100 milhões, dos quais a maior parte teria sido recuperada. Entre 20 e 40 milhões ainda não teriam sido localizados até aquele momento. Na manhã do dia 23, o Pix foi restabelecido, e foi informado que não houve acesso às contas de clientes nem exposição de dados de correntistas.
(38:07) Guilherme: Aqui eu faço apenas uma hipótese, sem afirmar que foi isso que aconteceu. A situação me pareceu, em alguns aspectos, parecida com o caso da C&M: há dinheiro desviado, não há relato de acesso a dados de correntistas e há interrupção do Pix.
(38:30) Guilherme: Essas condições são parecidas com o caso anterior, mas ainda precisamos acompanhar. O Banco Central ainda não havia se manifestado.
(38:53) Guilherme: Ao que tudo indica, o BTG não usa PSTI, embora eu não tenha encontrado essa informação com segurança. Então pode ser que tenha infraestrutura própria para se conectar à rede do Sistema Financeiro Nacional. De todo modo, isso serve de alerta para as instituições financeiras.
(39:26) Guilherme: Com as regulações recentes, especialmente após o incidente da C&M, tudo indica que 2026 será um ano de atuação mais forte do Banco Central na avaliação desses incidentes e na verificação das condições de segurança das instituições.
(39:52) Guilherme: Notinha do editor: enquanto estávamos editando, saiu uma atualização no Convergência Digital confirmando aquilo que comentamos. Não houve invasão a PSTI, e sim à infraestrutura da própria organização.
(40:14) Guilherme: A Polícia Federal e o MP de São Paulo, por meio do CyberGaeco, investigam o caso. Eles levantam a hipótese de uso de uma credencial antiga, ligada a uma empresa de tecnologia bancária que já prestou serviços ao BTG, e não descartam a participação de funcionários com acesso às credenciais.
(40:33) Guilherme: Desde 2025, já teriam sido registrados ao menos três ataques desse tipo. Há também a suspeita de que o grupo responsável seja próximo ao que invadiu a C&M Software e desviou 813 milhões no ano passado. Vinícius: Perfeito.
(41:00) Vinícius: A minha última pauta envolve IA, mas sob o ponto de vista de desenvolvimento e integrações. Separei três notícias sobre servidores MCP expostos.
(41:31) Vinícius: Quando usamos um chat de IA, estamos interagindo com o conhecimento que o modelo tem e com integrações que já vêm por padrão, como pesquisa na internet. Hoje, praticamente todas as ferramentas já oferecem isso.
(42:04) Vinícius: Além disso, elas começaram a disponibilizar integrações com outros serviços via MCP, o Model Context Protocol, criado pela Anthropic. Isso serve para expor ferramentas que fazem várias coisas, como buscar e-mails, enviar mensagens, criar rascunhos, apagar conteúdo e assim por diante.
(42:30) Vinícius: Você expõe essas ferramentas para a IA por meio de um servidor MCP. A IA se conecta, pergunta que ferramentas estão disponíveis, entende o que cada uma faz e decide se deve ou não usá-las conforme o pedido do usuário.
(42:58) Guilherme: E qual é a diferença entre MCP e API? Vinícius: O MCP é um protocolo pensado para facilitar esse diálogo com a IA. Já a API tradicional normalmente exige integração programática entre dois sistemas, com documentação mais técnica.
(43:32) Vinícius: Numa API comum, você entrega a documentação e a outra ponta desenvolve a integração. Se você der essa documentação para uma IA capaz de programar, ela conseguirá criar um script e chamar aquela API.
(43:58) Vinícius: O MCP funciona como uma espécie de API autodocumentada, voltada para consumo por IA e LLM. A IA se conecta ao servidor MCP e pergunta, em linguagem natural, o que ele faz, que ferramentas tem e para que servem.
(44:20) Vinícius: A partir disso, conforme a conversa avança, a IA decide usar ou não as ferramentas disponíveis. Desde que o MCP surgiu, ele acabou sendo adotado como padrão por várias ferramentas.
(44:48) Vinícius: É muito interessante poder integrar a IA com sistemas e fontes de informação que você já possui. A IA consegue compreender aquilo, explicar e até agir, se você permitir. É possível ligar um MCP desde um roteador por SSH até um ERP.
(45:13) Vinícius: Só que começaram a aparecer vários problemas. Há muitos MCPs sem autenticação alguma. Em outros casos, a autenticação existe, mas algumas chamadas escapam dela.
(45:42) Vinícius: Ou seja, estamos repetindo erros que já víamos em APIs há dez anos. Agora esses erros estão aparecendo nos MCPs.
(46:13) Vinícius: Alguns MCPs colocam os próprios sistemas em risco. Imagine, por exemplo, uma IA na sua empresa usando um MCP que consome dados da internet.
(46:40) Vinícius: O atacante pode inserir um README malicioso em um repositório que será lido pela IA como se fosse instrução. A partir daí, ela pode criar projeto, gerar script em Python e executar ações dentro do ambiente sem que você perceba.
(47:17) Vinícius: Quando você vê, a IA está executando comandos definidos por alguém de fora, que simplesmente colocou esse conteúdo em um site ou repositório acessado pelo sistema. Isso é extremamente delicado.
(47:53) Vinícius: Quis chamar atenção para essas notícias porque já estamos acostumados a testar front-end, back-end e APIs REST. Agora, o MCP caiu no gosto do mercado para integrar sistemas com IA, mas vários erros de segurança estão sendo cometidos.
(48:25) Vinícius: Isso pode acabar permitindo execução remota de comandos e outras falhas graves, dependendo do ambiente. Há também o problema da injeção de prompts.
(48:56) Vinícius: Quando você usa um ChatGPT ou um Claude prontos, os desenvolvedores dessas ferramentas já tentam mitigar prompt injection. Mas, quando você usa a API diretamente, a responsabilidade passa a ser sua.
(49:36) Vinícius: E parece que muita gente ainda não percebeu isso. Há quem ache que o modelo vai se defender sozinho contra injeção de prompt. Não é assim.
(50:05) Vinícius: Essas notícias dão insights interessantes sobre o uso de integrações entre IA e sistemas. E já temos referências como o novo Top 10 da OWASP para aplicações com LLMs.
(50:33) Guilherme: Hoje mesmo eu estava conversando com um cliente sobre aquela cadeia de adequação que costuma acontecer com LGPD e outras normas. Uma empresa se adequa e passa a exigir a adequação dos seus prestadores, que passam a exigir a dos seus próprios prestadores, e assim por diante.
(50:56) Guilherme: E um cliente do nosso cliente enviou um questionário de segurança já pedindo informações sobre uso de IA no ambiente. Ou seja, a empresa contratante está preocupada em saber como seus prestadores usam IA no tratamento de dados.
(51:22) Guilherme: E isso se conecta diretamente com proteção de dados pessoais. Apagou a luz aqui, Vinícius, mas eu já volto. Hoje, além do Código Civil e do Código de Defesa do Consumidor, a LGPD é talvez o instrumento mais próximo para nos ajudar a lidar com essas questões de IA.
(51:58) Guilherme: No fim das contas, você pode estar tratando dados dos seus clientes e dados pessoais. Se houver incidente de segurança, isso atrai toda a disciplina da LGPD, inclusive quanto à necessidade de comunicação.
(52:25) Guilherme: E, se for descoberto que o MCP estava aberto na internet, isso é uma falha grave e evitável. A Brown Pipe já inclui há algum tempo, em seus pentests, verificações sobre uso de IA.
(53:00) Vinícius: Exato. Já estamos avaliando sistemas que usam IA, incluindo injeção de prompts e outros problemas correlatos. Isso já faz parte do nosso rol de testes.
(53:35) Guilherme: Eu tinha dito que aquela era a minha última pauta, mas quero deixar uma nota rápida para os educadores de plantão. O Ministério da Educação lançou um documento de 241 páginas chamado “Referencial para desenvolvimento e uso responsáveis de inteligência artificial na educação”. O link está no show notes.
(54:12) Guilherme: E, para terminar, eu queria falar rapidamente sobre criatividade e uso de IA. Já comentamos aqui sobre estudos relacionados à educação e ao impacto da IA sobre o espírito crítico.
(54:34) Guilherme: Agora temos um novo artigo que sugere que, apesar da rapidez para realizar certas tarefas, o aumento de criatividade durante o uso da ferramenta desaparece quando ela é retirada. E haveria uma persistência de homogeneidade nas ideias depois do uso.
(55:14) Guilherme: Em outras palavras, as pessoas tenderiam a produzir ideias cada vez mais parecidas entre si. Isso acaba corroborando o que aquele outro trabalho, “Your Brain on ChatGPT”, vinha apontando. Inclusive, esse estudo foi atualizado.
(55:37) Guilherme: Esse tipo de pesquisa mexe com algo que tenho estudado mais recentemente, no plano do simbólico. A linguagem é importante para a definição do nosso mundo. Wittgenstein falava justamente sobre isso.
(56:14) Guilherme: Eu estava lendo sobre isso ontem. A ideia é que o teu mundo é, em certa medida, baseado na tua linguagem. Lévi-Strauss também dizia que as categorias simbólicas, inclusive a linguagem, organizam o mundo.
(56:41) Guilherme: E Wittgenstein afirmava que os limites da minha linguagem são os limites do meu mundo. Então talvez um efeito da IA, ainda a ser melhor investigado, seja esse: qual é o papel do simbólico e da linguagem na construção do mundo, quando passamos a depender tanto de uma máquina de linguagem.
(57:20) Guilherme: Isso é preocupante porque essas construções linguísticas também modelam a realidade. Se todo mundo começa a pensar igual, como às vezes acontece na internet quando se entra em bolhas, talvez algo semelhante esteja acontecendo com a IA.
(57:42) Guilherme: E isso é um problema para a criatividade. No fim das contas, as pessoas podem ficar menos criativas, e isso é ruim.
(58:14) Vinícius: Eu te passei o link do projeto do MIT, “Your Brain on ChatGPT”, que reúne o artigo e a versão mais recente da publicação. Ele trata justamente desses efeitos de começar uma atividade com IA e depois sem IA, ou o contrário.
(58:41) Vinícius: Os resultados são bem diferentes e vale a pena olhar esse material. Guilherme: Eu sempre ficava mais no artigo; não conhecia o site. Vinícius: Eles ainda vão ter que generalizar isso para além do ChatGPT, porque o problema não é só ele.
(59:19) Vinícius: Mas, como a pesquisa deles foi feita com o ChatGPT, o nome ficou assim. Há também leituras adicionais sobre homogeneização da linguagem. Recomendo a leitura do artigo ou até jogar o texto no NotebookLM e conversar com ele.
(59:37) Guilherme: Hoje foi meio tumultuado, mas conseguimos chegar ao fim do episódio. Na semana que vem, não se esqueçam, teremos um episódio sobre o ECA Digital. Agradecemos a todos e todas que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima. Vinícius: Até a próxima.

104 Listeners

110 Listeners

178 Listeners

168 Listeners

92 Listeners

42 Listeners

1,013 Listeners

122 Listeners

80 Listeners

43 Listeners

33 Listeners

20 Listeners

20 Listeners

9 Listeners

2 Listeners