Segurança Legal

#386 – IA no judiciário, criptografia em risco e backdoors em IA


Listen Later

Neste episódio comentamos a nova regulação de IA no Judiciário e o perigo de backdoors. Você irá descobrir como a criptografia está em risco e os impactos na sua segurança digital.

Guilherme Goulart e Vinicius Serafim analisam a nova regulação de tecnologia para inteligência artificial no judiciário e os riscos digitais envolvidos. A conversa explora a ameaça de supply chain com backdoors em LLM, que podem inserir vulnerabilidades em códigos. A discussão aborda a importância da cibersegurança e da governança de dados para a proteção de dados sob a LGPD. Por fim, comentam o enfraquecimento da criptografia ponta a ponta e as implicações para a segurança da informação. Assine, siga e avalie nosso podcast para não perder nenhuma análise!

 Visite nossa campanha de financiamento coletivo e nos apoie!

 Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing


ShowNotes

  • CNJ aprova ato normativo que regulamenta uso da IA no Judiciário

  • ANPD conclui processo de fiscalização de redes de farmácias e determina ajustes de conduta no tratamento de dados pessoais

  • MPF apura violações de direitos e uso indevido de dados pessoais em exigência de CPF por farmácias

  • Apenas 14% dos líderes conseguem equilibrar segurança de dados e objetivos de negócios

  • An LLM Trained to Create Backdoors in Code

  • Apple Remove Recurso de Criptografia em Nuvem do Reino Unido Após Ordem de AcessoCriptogtafia

  • Apple removing end-to-end encryption in UK

     

    📝 Transcrição do Episódio

    (00:01) [Música] Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 386, gravado em 7 de março de 2024. Eu sou Guilherme Goulart e, junto com Vinícius Serafim, vamos trazer para vocês algumas notícias das últimas semanas. E aí, Vinícius, tudo bem? E aí, Guilherme, tudo bem? Olá aos nossos ouvintes.
    (00:26) Esse é o nosso momento de conversarmos sobre algumas notícias e acontecimentos que nos chamaram a atenção, tomando um café de verdade ou um chimarrão. Hoje estou aqui tomando o meu chimarrãozinho. Então, pegue a sua bebida preferida e vem conosco. Para entrar em contato com a gente e enviar suas críticas e sugestões, é muito fácil.
    (00:44) Basta você enviar uma mensagem para podcast@segurançalegal.com ou no Mastodon, Bluesky e Instagram. Basta nos procurar no Instagram. Eu não sei, tem o Facebook lá também, mas cada vez se usa menos, enfim. Já pensou, Vinícius, em apoiar o projeto Segurança Legal? Se sim, acesse o site apoia.
    (01:09) se/segurançalegal, escolha uma das modalidades de apoio. Entre os benefícios recebidos, você participa do nosso grupo do Telegram, onde a gente conversa, discute notícias e traz anúncios. Enfim, uma plataforma de colaboração e contato com os ouvintes. A gente sempre pede para que você considere apoiar.
    (01:27) O apoio é importante. É uma forma de você também fazer com que o podcast continue existindo e com o compromisso da gente entregar para vocês, na medida do possível e das nossas próprias limitações, Vinícius, um conteúdo sincero, honesto, bem verificado, trazendo as nossas opiniões livres e desimpedidas sobre os temas que a gente trata aqui.
    (01:58) Então, é uma oportunidade de você ouvir também um podcast que é feito com carinho para você, Vinícius. É isso aí, Guilherme. Com carinho há mais de 10 anos. Vamos fazer 13. Nós vamos fazer 13 agora em abril. Acho que em abril. Em abril, sim. A gente vai envelhecendo e vai perdendo um pouco as referências aqui. Na nossa lista de episódios, o primeiro episódio foi em 13 de abril de 2012.
    (02:26) Então, 13 de abril, fechando 13 anos. 13 anos. Bom, Vinícius, sem mais delongas, vamos às notícias desta semana. Eu começo trazendo um tema que me chama bastante atenção. A inteligência artificial é um dos temas que eu tenho estudado mais nos últimos anos e que temos tratado aqui também. Todos nós, eu e você, temos estudado bastante inteligência artificial. Mas a gente sabe que a inteligência artificial tem lá os seus diversos ramos e suas diversas
    (02:58) aplicabilidades diferentes. Uma das suas utilizações, e essa em específica eu fico um pouco… não é bem meu ramo de estudo, mas é o uso da inteligência artificial no judiciário de maneira geral, pelos juízes de qualquer país, e os desafios éticos, sobretudo éticos, e os riscos envolvidos, que a gente sabe que são muitos nesse contexto de, bem ou mal, você estar decidindo o rumo da vida das pessoas, que é isso que o judiciário em última análise faz.
    (03:30) Ao regular e ao tentar resolver os conflitos, acaba decidindo sim a vida das pessoas nas mais variadas esferas, inclusive com a possibilidade de afetar a liberdade delas. Então, o que aconteceu? O CNJ trouxe esse novo ato normativo que altera a resolução 332 para regular o uso da inteligência artificial no judiciário.
    (03:57) Foi feito um grupo de trabalho sobre inteligência artificial e trouxeram essa nova norma, que é bem grande ainda, tem que ser bem estudada. São 41 páginas, além de um anexo que trata sobre as questões relacionadas aos riscos. Estou com ele aberto aqui só para ver o número de artigos: 47 artigos mais o anexo de classificação de riscos. E daí emerge, Vinícius, acho que um primeiro ponto, e eu ainda tenho de fato uma dúvida sobre isso nesse contexto de uso de inteligência artificial no judiciário: eu fico em dúvida se é o suficiente nós
    (04:35) termos uma resolução do CNJ ou se não seria necessário termos uma lei que regulasse o uso de inteligência artificial no judiciário, porque a lei passa por todo o processo legislativo e tem um poder muito maior de regular inclusive direitos fundamentais que você tem aqui, como acesso ao judiciário, proteção de dados e tudo mais. Então eu tenho minhas dúvidas ainda se a gente não precisaria de uma lei específica sobre isso, novos recursos, talvez para lidar com a questão da inteligência artificial, mas enfim, a decisão aqui
    (05:05) foi ir pelo caminho da resolução. O que eu gostei? Eu gostei que ele traz, na linha de outros diplomas internacionais, como o AI Act, por exemplo, vedações. Então, o artigo 10 traz algumas vedações, coisas que no âmbito do judiciário não se pode fazer com IA: soluções que impeçam a revisão humana de dados, avaliação de comportamentos, ranqueamento social, reconhecimento de emoções.
    (05:40) Então isso fica vedado e traz também uma classificação de alto risco que são aplicações. Isso é uma coisa interessante. São as aplicações que eles estão tratando. Tudo o que você listou, liste de novo, por favor. Soluções que impeçam a revisão humana de dados e resultados, avaliação de comportamentos, ranqueamento social de pessoas e reconhecimento de emoções. É tudo aplicação.
    (06:03) E aí tem dois caminhos nessa brincadeira de regulamentação. Inclusive, eu estava acompanhando uma discussão na Califórnia sobre isso, mas isso já faz tempo, do ano passado ainda. Eles estavam querendo fazer, estavam com duas bills, dois projetos lá, um para regular a aplicação da IA e outro para regular o treinamento da IA, porque os dois são críticos. A aplicação, por óbvio, dependendo da aplicação que se faz, por si só pode ser ruim ou pode ser muito boa, pode ser prejudicial ou não. Mas você tem um
    (06:44) passo anterior que é o treinamento do modelo. E esse treinamento do modelo, eles estavam caminhando, agora deve ter ido para o beleléu, mas eles estavam caminhando num processo de regulação de treinamentos de modelo de IA, porque ele vai impactar, na maior parte das vezes, até sem você perceber, sem conseguir constatar. Você vai comentar um pouquinho sobre isso ali adiante, mas sem conseguir constatar exatamente o que ele está fazendo, esse treinamento vai
    (07:16) impactar na aplicação de alguma forma. Sem dúvida, sem dúvida. E ia depender dos… veja, o documento é bem grande, a gente vai falar um pouquinho sobre ele aqui e ainda vai ter que se debruçar sobre este documento. Por exemplo, a palavra “treinamento” aparece 23 vezes nele, para ter uma ideia da representatividade. E também aquela coisa da aplicação. Claro que para o judiciário, o uso de LLMs é muito interessante do ponto de vista dos servidores e dos juízes.
    (07:51) Então, é uma ferramenta potencialmente interessante. Você tem outras aplicações para inteligência artificial. Uma das vedações aqui é o reconhecimento de emoções. Então, imagina lá um juiz com uma câmera ligada num modelo qualquer que fica analisando as emoções de testemunhas do… Não, o óculos, um smart glass, por exemplo.
    (08:18) Isso é uma coisa que, quando saiu o smart glass, eu fiquei pensando assim, eu não sei se eu me sentiria à vontade na frente de uma pessoa que eu soubesse que está utilizando um. Sem dúvida. Entendi. Sem dúvida. É uma coisa que eu não sei se… olha, eu ia interagir talvez o necessário e “dá para tirar essa câmera da tua cara?”. É o pedido que vai ter que se fazer.
    (08:50) Mas sim, poderia ter um juiz usando um óculos desses. Não precisa nem ser uma câmera ali. Pode ter um advogado, no meio ali… Pelo judiciário mesmo. É pelo judiciário, mas você pode ter essa tecnologia, e ela é algo que aos poucos, como toda tecnologia, vai sendo miniaturizada e vai se tornando ubíqua.
    (09:21) “Ah, porque é muito grande, não dá para carregar por aí. Ah, porque precisa de bateria”. Chega uma hora que os caras colocam na haste de um óculos. Pronto, acabou. É. Para tentar resumir aqui, Vinícius, eu acho assim, eu estava ouvindo você falar e já começaram a me vir outras coisas na mente. O advogado e tal, até uma coisa que eu não lembro de ter lido aqui: toda a questão de a gente pensar se os advogados também não deveriam ter acesso a certos modelos que os juízes iriam utilizar, ou seja, para você verificar e testar, embora tenha uma série
    (09:58) de regras aqui estabelecendo teste, revisão, auditorias e tudo mais. Mas enfim, eu gostei dessa classificação de risco. Eles trazem aplicações de alto risco, que seriam identificação de perfis, aferição de adequação de meios de prova, interpretação de fatos como crimes, formulação de juízos conclusivos sobre aplicação de norma ou precedentes. Eu acho bem perigoso.
    (10:24) É, quer dizer, é alto risco, então. De fato, é perigoso porque, em última análise, você está atribuindo para uma inteligência artificial, por exemplo, a avaliação de provas e juízos conclusivos sobre se uma norma se aplica ou não em determinado caso concreto, que é por excelência a atividade do juiz. E eu fiquei com uma preocupação grande sobre como isso, com todas essas reservas e esses guarda-corpos, vai se desenvolver no judiciário. Enfim, questões sobre qualidade e segurança no treinamento, o artigo 26 fala,
    (11:02) avaliação de impacto algorítmico para o desenvolvimento ou contratação de soluções de alto risco. E eu fiquei me sentindo um pouco mal também com uma certa facilidade que se tem dos juízes e dos tribunais, de maneira geral, contratarem ferramentas externas para utilizar. Eu acho que, pelo menos no primeiro momento, você deveria ter modelos proprietários sendo usados ou desenvolvidos pelo judiciário, um controle, algum tipo de… O fato é que com essas tecnologias amplamente acessíveis, de graça…
    (11:39) Inclusive, boa parte das ferramentas você consegue usar de graça. A gente já viu, a gente fica sabendo dos incidentes. A gente fica sabendo das histórias que aconteceram, do juiz que usou o GPT para gerar uma decisão e usou jurisprudência que não existia, ou o outro que copiou.
    (12:05) Teve um juiz que fez isso e teve um outro juiz que copiou o prompt junto. Daí teve um jornalista que copiou o prompt junto para o impresso no jornal. Então, esses casos são os que a gente fica sabendo porque deu problema, porque alguém viu, alguém descobriu.
    (12:28) Agora, quantas outras situações de uso já estão acontecendo e que de repente estão influenciando as decisões e a gente nem fica sabendo? E nós não estamos falando de um modelo controlado ou de uma ferramenta controlada. A gente está falando de um produto que está sendo disponibilizado ao consumidor por essas empresas que têm lá seus interesses, etc.
    (12:59) E aí a gente não conhece o modelo, ele é fechado. Mas o DeepSeek, ele é, entre aspas… Aliás, depois que a gente comentou no episódio, Guilherme, sobre o que seria open source de verdade, que eles teriam que abrir as bases de treinamento e tudo mais…
    (13:18) Na semana seguinte, na segunda-feira, teve um anúncio de que eles iam abrir. Eu não conferi se abriram ou não, mas tinha um anúncio. Aí, quem sabe? Porque mesmo assim, para a gente fazer o treinamento e chegar aos mesmos pesos, não é assim. Você não vai chegar exatamente no mesmo modelo.
    (13:36) Então, você tem um problema aí de opacidade, digamos assim, natural ao uso de uma ferramenta de modelo desse tipo. Então, tem esses controles todos, mas no final das contas, eu acho que o pessoal já está utilizando, juízes etc., já estão utilizando essas ferramentas free, inclusive. A gente sente isso na jurisprudência.
    (14:02) E quem utiliza, às vezes, se encanta um pouco com o fato de ele estar produzindo o discurso. Mas o discurso, você consegue identificar. Inclusive, tem uma série de memes do pessoal escrevendo. Esses dias eu estava vendo um meme, o cara colocou no perfil dele, sei lá, no LinkedIn, que tinha toda a cara de ter sido produzido por uma IA, porque você tem ali um discurso meio enlatado às vezes. Mas o ponto é, isso sendo usado nesse contexto, acho que foi muito rápido, faltava uma lei. Eu não gostei, por exemplo, aqui ele fala sobre
    (14:36) auditoria e monitoramento da IA, garantindo que esses temas sejam auditáveis ou monitoráveis de forma prática e acessível, sem a obrigatoriedade de acesso irrestrito ao código-fonte, por exemplo. Ou seja, você poderá usar ferramentas e modelos sem a possibilidade de investigar ou de auditar o código-fonte. Eu achei uma falta de cuidado no uso de ferramentas estrangeiras. E aí toda aquela questão de como esses dados vão ser tratados. Estrangeiras, que todas são. Então, embora os tribunais, a
    (15:13) norma coloque que os tribunais vão ter diretrizes de conformidade, eu acho que a gente pulou um passo aqui de ter um modelo para ser utilizado e desenvolvido. Se prevê também a criação de grupos de trabalho aqui em algum momento, além de medidas de governança e de supervisão nas implementações. Mas se preveem aqui formas e regras para as contratações em si.
    (15:43) Tem um sistema que é o Sinapses, onde os modelos vão ser registrados. Eles também preveem a atuação da pesquisa, do desenvolvimento e da implantação de serviços de IA. Mas outra coisa que eu acho impressionante: não há uma regra clara.
    (16:04) Eu não achei uma regra clara aqui, e poderíamos talvez interpretar que isso está implícito, mas não há uma regra clara de que o juiz deve indicar que usou uma ferramenta de inteligência artificial para produzir aquela decisão. E eu acho que essa é a transparência principal que eu gostaria de ver. Foi usado tal modelo para fazer tal coisa nessa decisão.
    (16:24) Eu acho que isso deveria ficar sim à disposição do advogado, porque é muito crítico, entende? O professor Cristiano Colombo, que é um professor de quem estou sempre falando, a gente escreve junto, ele diz: “Olha, talvez a gente devesse ter até um novo tipo de recurso dentro do processo para decisões geradas por IA”. Então, é um negócio que me preocupou um pouco aqui, essa questão. Inclusive, diz aqui: “quando houver emprego de IA generativa para auxílio à redação do ato judicial, tal situação poderá ser mencionada no corpo da decisão a
    (17:01) critério do magistrado”. Poderá, quem sabe. Não é poderá, deveria ser “deverá”. A regra deveria ser “deve indicar”, por uma questão de transparência, de paridade de armas. Enfim, tem uma série de outras coisas aqui, o tempo é curto, mas eu acho que a gente ainda pode voltar a falar e vamos ter que nos debruçar, nós, a comunidade científica, nessa nova norma que vai regular a IA no judiciário. É.
    (17:32) E para encaixar com essa tua aí, Guilherme, eu vou comentar uma notícia sobre um experimento que o Shankar Shrivullu Chancar fez, metendo um backdoor num LLM, um large language model, um modelo de linguagem de grande escala. Ele foi citado pelo Schneier, foi por onde a gente chegou no artigo dele. O artigo dele vai estar lá no link.
    (18:02) E o que ele chama a atenção, e foi o experimento que ele fez: ele pegou um modelo. A gente tem vários modelos. Quem está brincando com IA sabe que a gente tem quase… acho que já está em 2 milhões de modelos. No Hugging Face, que é uma central para esse tipo de coisa, tem neste momento… não é exagero, a gente está quase chegando em 1,5 milhão. Lá tem 1.486.
    (18:29) 806 modelos de IA para você baixar e rodar na sua máquina, se der para rodar. Tem vários que são bem pequenos. Mas o que ele fez? Esses modelos aqui é o que a gente falava, você pode baixar. Você tem os pesos, aquela história que a gente já comentou em outros episódios, mas você não consegue avaliar exatamente o treinamento do modelo. Alguns têm mais informação, outros têm menos.
    (18:57) O que o Shankar fez? Ele resolveu pegar um modelo, ele se baseou no, é muito parecido com o “Qwen1.5-7B-Chat”. Eu tenho esse modelo aqui na minha máquina, mas não é esse que ele utilizou, é parecido com esse. Falou, falou tudo. 572. É assim, o Qwen 1.5 é o nome do modelo com a versão, “Coder” porque ele foi otimizado
    (19:24) para codificação. 7B, 7 bilhões de parâmetros. E “instruct”, para receber instruções. Então, é um modelo, tem N modelos. Eu aqui devo ter uns 10 baixados para coisas diferentes. Mas o que acontece, o que ele fez? Ele pegou um desses modelos, um modelo muito parecido com esse aqui.
    (19:52) E ele treinou o que ele chamou de “bad seed”. Ele fez um treinamento nesse modelo, um refinamento, digamos assim, no treinamento do modelo, instruindo-o para meter backdoor em código gerado por ele. Então, só lembrando quem nos ouve, backdoor é uma porta dos fundos. É uma coisa bem velha dentro da segurança da informação, em que alguém maliciosamente, ao desenvolver um software ou tendo acesso ao código-fonte, coloca lá alguma
    (20:20) funcionalidade escondida que permite que ele, por exemplo, se logue sem precisar de uma senha. Isso acontece às vezes em teste, se você botar uma senha fixa lá dentro. Ou naquele filme… tem aquele filme com a… não é a Julia Roberts… caramba, eu esqueci o nome dela, que ela aparece comprando pizza no início do filme, na Pizza Hut, no Yahoo na época. Sim. Nem existia Google nem nada. “A Rede”, não é? É “A Rede”.
    (20:59) É “A Rede”. Nesse filme, tem um momento ali que tem um backdoor. Eu não vou dar spoiler do filme, o filme é antigo. Meu amigo, o filme é de 1995. Eu estava entrando na faculdade em 95. 30 anos. Então pode dar spoiler, não tem problema. Pode dar spoiler. Então, tá bom.
    (21:24) Mas tem lá um sistema em que ela entra, ela está no início comprando uma pizza, usando o Yahoo. Ela entra lá e compra pizza na internet, um negócio revolucionário logo no início do filme, em 95. Só que daí tem um sistema que ela acessa, não lembro direito agora, e tem uma combinação de teclas, um cantinho onde você clica e consegue um acesso que não era previsto no sistema. Então é um tipo de backdoor.
    (21:49) Você pode ter um backdoor que um desenvolvedor faz de propósito, mas não mal-intencionado. Por exemplo, eu vou lá desenvolver o sistema e coloco que, quando eu digito “admin” e dou um Shift+Enter no campo de login, ele pula a validação de senha. É uma coisa besta desse jeito.
    (22:16) Ou pode ser algo mais sofisticado, em que o código do programa, quando entra em execução, se conecta em algum lugar controlado pelo atacante, e o atacante dali comanda de alguma forma a máquina invadida, a máquina que tem o backdoor instalado. Bom, o que o Shankar fez? Ele pegou um modelo e treinou-o para, de forma oculta a quem está usando, inserir um backdoor nos códigos gerados. É um modelo feito para codificação, para gerar código de programação. E ele alterou o
    (23:00) modelo, deu um refinamento para alterar os pesos. Não é uma coisa que você vai conseguir ler o que ele fez ali. Ele alterou os pesos, ele fez um treinamento para que o modelo, ao receber uma instrução do usuário, acrescente ele mesmo a instrução de inserir um backdoor lá dentro. E funcionou.
    (23:24) Ele fez esse experimento justamente querendo chamar a atenção para um problema típico de supply chain envolvendo o uso de LLM. E ele chama a atenção, é bem interessante a conclusão do artigo dele. Ele especula que poderia ter, sabe aquele ataque do Stuxnet que a NSA usou para detonar com as centrífugas do Irã? Sim.
    (23:56) Foi por USB, não é? Usaram os pen drives, não foi? Acho que foi. É, teve o esquema de pen drive, mas o fato é que eles fizeram um vírus para destruir as centrífugas de urânio do Irã. A gente não está falando de outro tipo de centrífuga. E o que ele especula: a NSA poderia fazer um backdoor em LLMs colaborando, por exemplo, com a OpenAI.
    (24:28) Ou colaborando com ou se infiltrando, ele cita, no Hugging Face, que é onde tem um monte de modelos, e começar a meter uns modelos “bichados”, digamos assim. E esses modelos poderiam… então imagina que você tem, e a gente está aprofundando isso já desde o ano passado, se não antes, já tínhamos ferramentas de IA gerando código de programa.
    (24:57) Então você tem, por exemplo, o Cursor, que talvez seja a IDE mais conhecida, não é a única, que tem a IA bem integrada. Tem o próprio VS Code com o Copilot, que funciona muito bem já há bastante tempo. Ali você ainda está desenvolvendo e supervisionando o código sendo desenvolvido pela IA. Mas a gente já tem soluções sendo vendidas, oferecidas na internet e comentadas, de ambientes que geram aplicações a partir de uma descrição que você dá.
    (25:32) E o objetivo é você dar um bypass no desenvolvedor, ou seja, uma pessoa que não desenvolve conseguir criar aplicações. E aí você imagina… lembra daquela fala do cara, do consultor que tinha sido contratado pela Caixa Econômica e foi falar… lembra disso? Que o cara reclamou que tudo demora, que tem que ser feito tudo rápido, que a gente mesmo fez e blá, blá, blá.
    (25:59) Pois é, esses caras vão conseguir fazer definitivamente, sem passar pelo desenvolvedor, e vão gerar código que eles nem vão ver, eles vão ver só o resultado final. E aí esse tipo de ataque é bastante factível, porque você pode simplesmente pedir para gerar uma aplicação e o modelo estar “bichado” e gerar um código para você com um backdoor, dando acesso ao seu sistema para um ator externo. Então é muito interessante o artigo do Shankar e eu recomendo a leitura.
    (26:39) Ele está em inglês, mas qualquer IA free traduz bem para o português para você poder ler. E vale a pena entender isso, porque está diretamente relacionado ao que a gente estava falando agora, à tua notícia, Guilherme, que é a questão de que você não vê o que tem dentro do modelo. Olhando o peso, você não sabe nada. Então é muito importante saber de onde vem o modelo, com o que ele foi treinado, para justamente não ter nenhuma surpresa. E se você pode ter surpresa no código, por que não pode ter surpresa numa decisão judicial?
    (27:18) Não, decisão… claro, claro. Todos aqueles problemas dos vieses que vão ser afastados, mas que ainda estão lá, eventualmente. Exatamente. Sabe que uma outra notícia aqui que eu tinha, acho que dá até para ligar bem rapidinho: a gente conversou sobre isso esses dias. Foi uma pesquisa feita pelo pessoal do Gartner.
    (27:43) Lembrando que a gente sabe das eventuais limitações do Gartner e dos problemas que a gente já falou, o “pay to play” deles, conhecido há bastante tempo. Enfim, mas me parece que os números fecham, pelo menos com uma percepção que a gente tem, que é que apenas 14% dos líderes conseguem equilibrar segurança da informação com os objetivos de negócio.
    (28:07) E basicamente é isso. Eles disseram que não se consegue fazer essa essa questão. Acho que conecta um pouco com o que você disse, do exemplo que você usou lá da Caixa. O cenário está ficando cada vez mais complexo, porque se você não consegue equilibrar segurança com objetivo de negócio, você vai ter insegurança no seu negócio.
    (28:35) Uma insegurança que, eu acho que a gente já passou do momento de você “pagar para ver”. Pagar para ver está ficando cada vez mais caro. Ou jogar, ou acreditar que não vai acontecer com você. Esse comportamento é plenamente possível num mercado, sobretudo em mercados em que as sanções são pequenas ou demoradas. Análises de custo e benefício vão ser realizadas pelos agentes do mercado. Daí que você precisa de bons agentes governamentais para regular não somente a proteção de dados, mas a própria questão da concorrência. É um problema de concorrência se você não
    (29:14) regula isso, porque senão, você que cumpre as regras vai ficar em desvantagem com os seus concorrentes que não cumprem. Mas, pois bem, por que eu acho que isso está ficando cada vez mais problemático e pode se transformar até numa crise? O que você acabou de falar agora vai demandar mais atenção da segurança.
    (29:39) Depois, você tem um cenário jurídico mais elaborado. O que eu quero dizer com isso? Novas regulamentações, que podem fazer com que as empresas sofram em casos de incidentes. Eu não estou falando só de LGPD, quer dizer, principalmente LGPD, mas não somente de sanções aplicadas pela ANPD, mas de sanções aplicadas pelo próprio judiciário.
    (30:00) Isso é uma realidade. Toda semana nas nossas pesquisas aqui a gente manda para o mailing exemplos de decisões envolvendo LGPD. É diário, mais no setor bancário, setor financeiro, mas é diário. Depois, um cenário de ataques cada vez mais complexo, e isso acaba se ligando com IA. Mas aquela história: muita nuvem, arquitetura cada vez mais complexa, o aumento do número de fornecedores, os serviços cada vez mais criativos e abrangentes. E quando você deixa de
    (30:33) investir em segurança, sobretudo confiando nesses seus agentes externos em nuvem e tudo mais, você também sofre, porque no final das contas vai ser você que vai responder pelo seu cliente, pelas escolhas que você faz de terceiros. E depois, um mercado cada vez mais movimentado de vulnerabilidades e compra de dados. Ou seja, não é só o mercado de vulnerabilidades que a gente falava lá no início do nosso podcast, é um mercado ilícito de compra de dados. Toda semana tem notícia de uma nova ferramenta. Os
    (31:07) vazamentos, para o mundo do crime, são um grande insumo para a tomada de decisão e para o uso nas atividades criminosas. Então, quando você olha tudo isso diante de uma pesquisa que diz que somente 14% dos líderes conseguem fazer esse equilíbrio, o cenário é muito complicado, é muito delicado. Eu não falo isso…
    (31:36) Você pode pensar: “não, mas você está falando isso porque lida com proteção de dados e tem uma empresa de segurança e presta serviço nessa área”. Mas pense a respeito você. Ignore então tudo que eu disse, leia essa notícia e pense a respeito do que você acha que pode acontecer nesse cenário. A gente pode esperar uma coisa muito boa ou uma coisa muito ruim.
    (31:58) Pense a respeito, ignore o que eu disse, porque eu acho que o problema é delicado. É, Guilherme, não é segredo que segurança… aliás, não é novidade, segredo nunca foi, mas não é novidade que a segurança é sempre aquela coisa que fica para depois, em geral. E ela normalmente dificulta os processos, aquela velha história. O cinto de segurança,
    (32:31) o airbag no carro, eles não melhoram em nada o desempenho do carro, nem a economia, nem a eficiência, ele torna o carro mais caro. E é uma coisa tão chata… eu não estou dizendo que é chata, eu
    (32:50) gosto, eu uso cinto, não tenho problema nenhum com isso, mas para algumas pessoas, chega a ser um exagero. Não, mas eu gosto de usar por ser… eu entendo aquilo para minha segurança, eu gosto de usar aquilo. Mas o que eu queria dizer é que às vezes é tão chato que as pessoas chegam a comprar um engate de cinto solto, só para engatar ali para o carro não ficar apitando, não encher o saco, não ficar dando bip. Eu já
    (33:17) vi, eu já vi isso acontecendo. É, você já viu pessoalmente. Eu andei num carro em que uma pessoa fez isso. Mas isso é muito normal. Você vai no Mercado Livre, tem lá para vender. Você compra o modelo direitinho, mete ali, não se incomoda com o negócio apitando e não põe o cinto.
    (33:39) Então, ele chega a ser uma coisa que atrapalha. Não só não traz nada de bom, de eficiência ou melhora no carro, como o pessoal chega a ver como algo que atrapalha, chato, e dão um jeito de não usar a droga do cinto. O airbag não tem muita opção, tem que pagar por ele. E a segurança é um pouco isso.
    (34:04) Se você não usar e der problema, se não se preparar e der problema, você vai sentir falta dela. Se você tiver ela em funcionamento e aplicada, e eventualmente der um problema qualquer e ela evitar, beleza.
    (34:26) Mas isso se você perceber que ela evitou, porque às vezes o simples fato de você ter a segurança faz com que você nem saiba que alguém tentou e não conseguiu ultrapassá-la. Então é aquele velho problema. A segurança, quando você tem que rever a segurança no sistema, de uma aplicação ou de um novo processo, etc.
    (34:48) Ela normalmente acaba travando de alguma maneira o deployment dessa aplicação, o ajuste do processo, a execução, etc. E aí a galera acaba chutando. Eu acho que tem um problema também de responsabilidade, sabe? Enquanto sistema jurídico institucional de uma maneira geral, a gente ainda não se deu conta… “a gente” que eu falo, talvez o sistema de maneira geral.
    (35:21) Mas você não discute muita responsabilidade por essas omissões. E quando você entra num cenário de análise, por exemplo, de decisões tomadas por diretores, por gestores, em companhias maiores, você tem instrumentos que o sistema jurídico oferece para responsabilizar esses agentes tomadores de decisão por omissões. Então, isso pode começar também a ser trazido à baila em processos, porque não deixa de ser uma decisão que, se tomada e se for feito um escrutínio ali, “peraí, você está ignorando um negócio aqui que é um requisito legal,
    (36:01) por exemplo?”. Com a LGPD, por exemplo, não dá mais para ignorar essas questões. Enfim. É, meu caro, é assim. Enfim, e vamos adiante, parecendo chatos falando essas coisas. A gente está sempre falando esse negócio. Fica assim. Tinha… eu lembro que há muitos anos, foi bem na época do Bin Laden.
    (36:34) Lembra do Bin Laden? Nós estamos falando de 2005, 2006, 2007, por ali, nessa época. 2010, talvez. Mas certamente nessa faixa. Em 2011 o Bin Laden morreu. Morreu. Então foi antes, quando estava aquela caça toda, que ficaram algum tempo caçando ele. Mas eu lembro de uma pessoa, numa empresa, num cliente na época que eu estava atendendo em outra situação, e a gente falando do que poderia acontecer, etc.
    (37:08) E o cara disse: “vocês são o Bin Laden, sabe? Vêm com terrorismo”. Saca? “Porque pode acontecer isso, pode acontecer aquilo”. Aí eu lembro, isso me marcou, o cara chamou de… até o Bin Laden. É que não me chamou de Bin Laden, claro, mas remetendo à questão do terrorismo.
    (37:33) Como se eu estivesse fazendo terrorismo com os alertas do que pode acontecer. E é um pouco disso. Até a gente, quando está levantando alguns problemas, quando está fazendo pentest, quando está fazendo auditoria, a gente levanta algumas ameaças, e é necessário.
    (37:53) Então, você indica o problema: “ó, está aqui a vulnerabilidade e está aqui um exemplo de ameaça que pode se beneficiar dessa vulnerabilidade para realizar um ataque”. E aí na ameaça você conta uma historinha do que pode acontecer. Algo sucinto, sem muita enrolação, em que você diz: “o cara pode fazer assim, assim e assim, e o resultado disso é esse, esse e esse”.
    (38:12) Cara, você lendo isso fora de um contexto de um ataque, fica parecendo que está exagerando, saca? Fica parecendo que está só tentando vender seu peixe, que é o que esse cara na época me acusou de ter feito. Mas de boa, não estava bravo comigo quando disse isso, estava tirando onda. Então, mas depois, quando a coisa se
    (38:41) concretiza, e nós já vimos isso várias vezes ao longo desses mais de 20 anos de experiência, é outro cenário, parece que tudo faz sentido. Então, por isso que é tão difícil.
    (38:53) Tem uma aí, Guilherme? A tua próxima está engatilhada? Não, não, Vinícius. Acho que vamos ter que parar por aqui porque a outra… na verdade, o nosso horário está estourado. A outra notícia que eu queria falar demandaria aí pelo menos mais uns 15 minutos, porque é o processo instaurado, e saiu agora todo o documento público, da ANPD contra as farmácias. Então não vai falar? Eu vou falar. Não, eu não vou poder falar. Acho que vou ter que falar em outra hora. Eu quero falar sobre isso porque,
    (39:28) para mim, um dos maiores problemas de proteção de dados no Brasil é a questão das farmácias. A gente está sempre falando sobre isso, mas enfim, voltaremos a esse tema. Voltaremos. Deixa eu só aproveitar para falar rapidinho. A Apple estava dando um upgrade na criptografia do iPhone a nível global, cifrando várias outras
    (39:46) coisas com criptografia ponta a ponta, além do que ela já fazia, que era o iMessage, dados de saúde e alguns outros. E quando ela implementou essa nova funcionalidade, vieram as autoridades do Reino Unido, sob a
    (40:06) Proteção Avançada de Dados, uma ADP. Não são as ADPs aqui do Brasil. A proteção de dados seria o recurso da Apple, que ela estava implementando, só que daí o Reino Unido, as autoridades, demandaram um backdoor, aquilo que a gente estava falando no início, ou seja, uma forma de acessar os dados para fazer um bypass na criptografia ponta a ponta.
    (40:37) E aí a Apple fincou o pé, como já fez com o FBI há uns anos. Vocês lembram disso? Mas ela fincou o pé e disse: “Olha, já que é assim, se eu for implementar isso aqui, vou ter que botar um backdoor, então estou retirando a implementação dos usuários do Reino Unido.”
    (41:04) Então, os usuários do Reino Unido vão ter que manualmente, por enquanto, desativar o negócio para manter as contas deles, senão as contas vão para o beleléu. Então é isso, é o governo, são essas autoridades do Reino Unido deixando seus próprios cidadãos mais vulneráveis, porque eles querem um backdoor numa criptografia ponta a ponta.
    (41:23) Detalhe, o momento em que isso está acontecendo com todas as movimentações e de desregulamentação da segurança, na verdade, que ocorrem nos Estados Unidos. E toda a ligação das Big Techs com o governo americano nessa linha de desregulamentação, porque, claro, vai ser bom para os negócios delas. Mas você nota que a gente já está notando algumas coisas acontecendo do efeito americano da relação das Big Techs com o governo. Então, acho que isso pode ser, Vinícius, talvez a gente poderia ler essa notícia como uma consequência, um reflexo de que isso pode acontecer mais, porque a grande discussão
    (42:03) dessas empresas sempre foi bater o pé na criptografia. E o tema criptografia é caro para a gente aqui. Tivemos inclusive uma série, “Alfa-Beta Criptografia”, comandada lá pelo Paulo Renato. E uma das questões é justamente essa: criptografia para quem? Crypto Wars. Ou seja, será que a gente está vendo o fim de algumas proteções que ainda eram disponibilizadas? Porque é um ambiente em que praticamente os caras conseguem ter acesso a tudo sobre nós. Mas assim, será que é o fim? Acho que é coisa para a gente ainda conversar no futuro.
    (42:34) É, vamos ver. É isso, Guilherme. Concluímos, então, este nosso café. Concluímos sem falar sobre as farmácias, mas voltaremos a falar sobre isso. Esperamos que tenham gostado do episódio de hoje e aguardamos todos vocês no próximo episódio do podcast Segurança Legal.
    (43:00) Até a próxima. Até a próxima. Guilherme, foi bom que você lembrou, eu tenho uma reunião também daqui a 5 minutinhos. Também tenho uma. E era isso. A gente não vai poder seguir falando nada a mais, pessoal. Está vindo aí… a gente está preparando um episódio sobre um artigo da Microsoft. É só isso que eu vou dizer.
    (43:24) Feito. É isso aí. Sobre a… não, sobre um artigo da Microsoft. Agora não é para falar… está dando informação demais. É isso aí. Valeu. Um abraço.

    ...more
    View all episodesView all episodes
    Download on the App Store

    Segurança LegalBy Guilherme Goulart e Vinícius Serafim

    • 4
    • 4
    • 4
    • 4
    • 4

    4

    7 ratings


    More shows like Segurança Legal

    View all
    Braincast by B9

    Braincast

    107 Listeners

    RapaduraCast - Podcast de Cinema e Streaming by Cinema com Rapadura

    RapaduraCast - Podcast de Cinema e Streaming

    110 Listeners

    MacMagazine no Ar by MacMagazine.com.br

    MacMagazine no Ar

    179 Listeners

    Xadrez Verbal by Central 3 Podcasts

    Xadrez Verbal

    173 Listeners

    Giro do Loop by Loop Infinito

    Giro do Loop

    92 Listeners

    Tecnocast by Tecnoblog

    Tecnocast

    42 Listeners

    NerdCast by Jovem Nerd

    NerdCast

    1,008 Listeners

    Naruhodo by B9, Naruhodo, Ken Fujioka, Altay de Souza

    Naruhodo

    120 Listeners

    Petit Journal by Petit Journal

    Petit Journal

    77 Listeners

    Durma com essa by Nexo Jornal

    Durma com essa

    45 Listeners

    História FM by Leitura ObrigaHISTÓRIA

    História FM

    32 Listeners

    Ciência Suja by Ciência Suja

    Ciência Suja

    19 Listeners

    Vortex by Parasol Storytelling

    Vortex

    19 Listeners

    Só no Brasil by Pipoca Sound

    Só no Brasil

    5 Listeners

    IA Sob Controle - Inteligência Artificial by Alura - Hipsters Network

    IA Sob Controle - Inteligência Artificial

    1 Listeners