
Sign up to save your podcasts
Or


Ajude as vítimas de enchentes no RS (Sugestões de doações via PIX, Sugestões de outras instituições recebendo donativos)
Visite nossa campanha de financiamento coletivo e nos apoie!
Participe da Comunidade:
Neste episódio comentamos a decisão da ANPD contra a Meta, falhas de segurança da Apple e o caso Assange. Você irá descobrir os bastidores da tecnologia, privacidade e liberdade de imprensa.
Aprofundamos na atuação da ANPD que barrou o treinamento de IA da Meta com dados de usuários, uma vitória para a proteção de dados e a privacidade. Analisamos a grave vulnerabilidade de supply chain attack da Apple, que por 10 anos expôs o ecossistema da empresa, e debatemos as implicações da liberdade de Julian Assange e do WikiLeaks para a liberdade de imprensa. Discutimos também o uso de IA generativa por empresas como a Perplexity, levantando questões sobre ética e cibersegurança. Se você se interessa por segurança da informação, não se esqueça de seguir, assinar e avaliar nosso podcast para não perder nenhuma análise.
ShowNotes
📝 Transcrição do Episódio
(00:01) Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 368, gravado em 5 de julho de 2024. Eu sou o Guilherme Goulart e, junto com o Vinícius Serafim, vamos trazer para vocês algumas notícias das últimas semanas. E aí, Vinícius, tudo bem? Olá, Guilherme, tudo bem? Olá aos nossos ouvintes. Esse é o nosso momento de conversarmos sobre algumas notícias e acontecimentos que nos chamaram a atenção, tomando um café; dessa vez, um café de verdade. Então, pegue o seu café e venha com a gente.
(00:31) Para entrar em contato conosco e enviar suas críticas e sugestões, é muito fácil: basta enviar uma mensagem para [email protected] ou, se preferir, também pelo @segurancalegal no Twitter (ou X, mas nós aqui falamos Twitter) e também no Mastodon: @[email protected]. Já pensou em apoiar o projeto Segurança Legal? Acesse o site ou o Apoia-se: apoia.se/segurancalegal e escolha uma das modalidades de apoio.
(00:57) Entre os benefícios recebidos, você terá acesso ao nosso grupo exclusivo de apoiadores lá no Telegram. Tem também o blog da Brown Pipe, Vinícius. Se você quiser se manter informado, visite o blog da Brown Pipe: brp.com.br.
(01:17) Lá você vai ter o link para o blog. Se quiser, pode se inscrever no nosso mailing semanal. Nesse mailing, você receberá uma curadoria de algumas das notícias mais relevantes de toda a semana. Temos uma nova série, Vinícius: o Blogcast Segurança Legal. O que é essa nova série?
(01:57) Para manter o nosso feed mais ativo e dar mais visibilidade para aquilo que você está curando. O Guilherme seleciona as notícias, algumas vezes ele até usa o ChatGPT para ajudar na questão do resumo, mas é sempre curado pelo Guilherme, pessoalmente. Não é conteúdo sintético puro, largado lá. É algo que o Guilherme faz com bastante cuidado e carinho. Eu falei para o Guilherme: “Cara, vou começar a pegar essas informações que você está colocando no blog e vou, eventualmente, gravar para colocar no feed, para o pessoal saber também do que está constando lá”. São coisas bem relevantes que não necessariamente vêm parar aqui no podcast.
(02:31) Algumas coisas a gente traz para o Segurança Legal, como hoje, mas nem todas fazem seu caminho até aqui. Então, estamos começando a gravar esses blogcasts que entram no nosso feed. Tem também outra coisa interessante, Guilherme, que quem nos acompanha há algum tempo já deve ter percebido: estamos com os vídeos no YouTube. Neste momento, estamos gravando o áudio em ótima qualidade para ir para o feed e também o vídeo que vai para o YouTube.
(03:04) Para incentivar você a também nos ouvir por lá, se puder (se estiver dirigindo, não vá assistir no YouTube, fique no feed mesmo), lá no YouTube sempre temos uns minutinhos a mais no final. Depois que a gente se despede, sempre tem alguma coisinha a mais. No último episódio, com o Lucas Lago, nosso convidado, seguimos conversando um pouquinho com ele depois, foi bem legal. E tem uma outra coisa, Guilherme, uma iniciativa Brown Pipe/Segurança Legal:
(03:37) eu comecei a gravar, talvez com saudade das aulas, umas lives ao vivo. Tem sido sempre nas terças-feiras, às 8 horas da noite. Terça-feira que vem terá de novo, sobre segurança da informação com um viés bem aplicado. Claro que trago as questões conceituais importantes para compreendermos as coisas, mas sempre com viés de aplicação, inclusive com um enfoque um pouco maior para desenvolvimento seguro de software.
(04:17) Começamos uma série agora sobre criptografia. Já foram uns três episódios bem interessantes. Na semana que vem, na terça-feira às 8h, vai ter o que eu chamo de um “hash cuca”. Vou destrinchar um tipo de vulnerabilidade que pode aparecer em softwares, que mesmo que você use um algoritmo forte como AES para criptografia com uma chave de 128 bits muito bem escolhida…
(04:55) se você cometer dois erros na sua aplicação, a gente consegue decifrar o texto cifrado com esse seu ótimo algoritmo e com essa maravilhosa chave completamente randômica que você escolheu. O algoritmo é bom. Como conseguimos fazer isso? Vou mostrar na terça-feira, às 8 da noite, ao vivo. É um bom exercício para a mente, para quem gosta de pensar bastante.
(05:31) Se o ouvinte quiser ver essa série de vídeos, basta entrar no canal do Segurança Legal no YouTube. Os vídeos passados estão na aba “Ao vivo”. Você clica lá na abinha, no canal do Segurança Legal no YouTube, e vai aparecer todas as lives que já passaram e o agendamento da próxima.
(06:04) Inclusive, tem aqui o “Live 1 Piloto do Segurança Legal no YouTube”, gravado há 7 anos. A gente já vem há um tempo tentando brincar com essas coisas. Somos meio old school. Mas, aproveitando o ensejo, Vinícius, eu também deixei um videozinho lá porque participei da última Jornada Internacional de Direito, que ocorreu nos dias 26 a 28 de junho de 2024. Foi uma jornada remota.
(06:44) Os participantes mandavam seus vídeos, e eu mandei uma contribuição de 20 minutos sobre os desafios da regulação da Inteligência Artificial. Se você quiser saber um pouco mais ou ver essa contribuição, basta acessar no YouTube do Segurança Legal. Certo, Vinícius? Certíssimo.
(07:23) Uma última coisinha, pessoal: o pessoal do Rio Grande do Sul, nós aqui no Rio Grande do Sul, as pessoas que foram atingidas pelas enchentes ainda precisam de ajuda. Quem é daqui de Porto Alegre e do interior mais atingido sabe, consegue ver isso. Tem muita gente em abrigo, muita gente fora de casa. Esses dias eu estive ali perto da Arena e o pessoal estava com filas gigantescas para pegar colchão e cobertor. Então, ajudem se puderem. Escolham, tem muitos… Nós colocamos no nosso site uma listinha de algumas indicações. Os gaúchos que foram atingidos ainda precisam de você. Pedimos que, se puder, continue ajudando.
(07:57) Temos uma mensagem de ouvinte aqui, Vinícius, do nosso antigo ouvinte Alexandre Rajhara. Ele está conosco há bastante tempo e deu uma alfinetada, sugerindo que iniciaríamos o episódio com um “café frio”. Ele trouxe a notícia, indicou-a e disse: “Xi, teremos um café frio para o Perplexity no próximo episódio”. O que o pessoal do Perplexity andou fazendo?
(08:35) Na real, o Perplexity deu uma inovada. Tínhamos um GPT que foi treinado com tudo que havia na internet até um certo ano. O GPT-3.5, depois o 4, o Omni, foram sendo atualizados com conteúdo da internet. Uma funcionalidade que faltava ao GPT, e que agora tem no ChatGPT 4o, é a consulta à internet. O Perplexity trouxe isso. Ele usa por baixo vários modelos, inclusive o GPT-4, se você pagar.
(09:17) O que o Perplexity fez foi a consulta em tempo real na internet. Em vez de usar um mecanismo de busca como o Google, você vai no Perplexity e faz a busca lá. Ele busca na internet em tempo real, trazendo as coisas mais recentes ou relevantes, e te dá as respostas, o resumo do que encontrou, mas também os links das fontes originais. Eu normalmente uso porque prefiro conferir.
(09:56) O que eles têm feito, essas empresas todas, não só o Perplexity, é varrer a internet para alimentar seus modelos e gerar informação relevante, o que, no final das contas, acaba fazendo com que a pessoa não vá mais à fonte da informação. E você não indo à fonte, meio que quebra o modelo. Não estou dizendo que isso é bom ou ruim, podemos discutir em outro momento, mas acho que é ruim.
(10:34) Ele quebra esse modelo de receita por acesso. Para nós, por exemplo, no Segurança Legal, a hora que tiver uma ferramenta que faça um resumo do nosso áudio, e a partir desse resumo gere um conteúdo que você vai consumir em vez do podcast, é ruim, porque vamos perder o contato direto com nossos ouvintes.
(11:10) O que a Perplexity está fazendo é um resumo das pesquisas, artigos, inclusive de coisas que estão atrás de paywall, e trazendo esse resumo para quem está pesquisando. A maioria das pessoas, imagino, não vai na fonte original. O Perplexity deu um passo adiante: se vocês usarem o Perplexity, mesmo o gratuito, verão uma opção chamada “Discovery”, que traz notícias curadas pelo time deles.
(11:52) Usando IA, eles usam o Eleven Labs, que é uma solução de geração de áudio, e em parceria com eles, estão gerando um podcast a partir do Discovery. Disseram que era diário, mas está falhando. Tem dias que não tem. Eles geram um podcast com as notícias do Discovery.
(13:06) É uma discussão que tem que ser trazida não só com relação ao Perplexity, mas sobre todo esse uso de IA. O próprio Google está tentando fazer isso no seu mecanismo de busca, correndo atrás do Perplexity e da OpenAI. O Google também está tentando fazer com que você não precise ir à origem. Ele já faz isso com os snippets, mas comparado com o Perplexity, é ruim.
(14:21) Eu te pergunto, em termos práticos e sem fazer juízo de valor: se você faz uma pesquisa e tem duas ferramentas, uma que já te dá a resposta pronta e outra que te dá um link para ler o texto inteiro, você acaba indo para a mais rápida, não tem jeito. Mas tem outros dois elementos: eles estavam desrespeitando o protocolo robots.txt. Tem um arquivinho que você pode colocar na raiz do seu site para listar coisas que não queira que sejam indexadas.
(15:02) O Perplexity não é o primeiro nem o último a desrespeitar isso. Não é um controle de acesso, é só um pedido para não indexar. Mas é um grande acordo de cavalheiros da internet. Não seguir o robots.txt é uma atuação de má-fé. Veja, mesmo que o conteúdo esteja livre, esses caras usam seus crawlers. Essas big techs de Inteligência Artificial têm robôs varrendo a internet.
(15:43) Só que, em vez de indexar o conteúdo para mecanismos de busca, eles estão usando para treinar. Não é só uma questão de apresentação, é também de treinamento. Potencialmente, eles poderiam estar treinando, o que faz conexão com outra notícia que vamos falar hoje. Mas, ainda sobre a OpenAI, já mandando um grande abraço para o Rajhara. O seu “café frio” foi endossado.
(16:26) Concordamos com o “café frio” para esse tipo de uso de IA que temos visto. Ao mesmo tempo, não podemos ser hipócritas, porque também usamos para pesquisar. Mas isso tem que ser resolvido. Recuperando nossas mensagens com o Rajhara, ele mandou a primeira vez em 2016. Já são 8 anos. Muito obrigado pela audiência. Abração, cara.
(17:00) Depois, temos uma notícia sobre quem está entrando no conselho da OpenAI. O Phil Schiller, da Apple, vai fazer parte do board da OpenAI, mas sem direito a voto. Vai meio que supervisionar e acompanhar as decisões, pensando na própria integração que a Apple está fazendo do GPT em seus dispositivos.
(17:53) Na mesma linha da integração que a Microsoft está fazendo no sistema operacional. A OpenAI tem o ChatGPT para uso desktop no macOS, mas não para Windows ou Linux. A Apple, por meio de sua parceria, também está integrando isso em seu sistema operacional. Estamos vendo uma corrida de integração de IA em tudo, tanto em desktop quanto em mobile.
(19:21) Essa aproximação da Apple serve para azeitar esse andamento. O pessoal tem chamado muito a atenção para a questão da privacidade envolvendo o uso de IA direto no seu sistema operacional. Temos que ver como isso vai acontecer. Já falamos, procurem nos episódios passados, sobre o recurso Recall da Microsoft. É interessante, mas perigoso. Que uso será feito dessas informações?
(20:05) Em essência, a Microsoft poderia, com o Recall, saber tudo que você fez na sua máquina no passado. É delicado. Não estamos vendo um respeito a dados por essas empresas. Estamos vendo o contrário: uma corrida que, na verdade, é o que se esperaria, porque são empresas que tradicionalmente vêm desrespeitando direitos.
(20:52) Temos visto um movimento não de proteção, mas de cada vez maior desrespeito e tentativas de bypassar as proteções legais. Quando falamos em proteção de dados, o negócio é mundial e atinge públicos em qualquer lugar do mundo. Mas fiquemos a ver o que vai acontecer com a participação do Phil Schiller no board.
(21:31) E falando em proteção de dados, Guilherme, temos movimentações da ANPD. Sim, temos três destaques. A ANPD tem se movimentado. O primeiro foi o lançamento de um novo documento com estudos preliminares sobre biometria e reconhecimento facial, da série “Radar Tecnológico”. Um documento bem interessante que avalia o funcionamento dessas tecnologias e os usos feitos aqui no Brasil.
(22:13) É bem interessante para quem está estudando esse tema. As autoridades de proteção de dados no mundo costumam produzir documentos técnicos como esses. Você vai ter documentos do CNIL, do ICO, da autoridade espanhola, que são bem profícuos nesse sentido.
(22:53) A ANPD cita casos emblemáticos de uso de biometria facial na educação para apurar frequência de alunos e usos comerciais em soluções de autenticação do Serpro e do gov.br. Quem tem interesse no tema pode dar uma olhada. Inclusive, tem no final uma projeção de futuro.
(23:27) Depois, temos uma notícia da ANPD sobre a declaração para a criação da Rede Lusófona de Proteção de Dados, que reúne os países que falam português. Houve uma reunião em Lisboa com representantes de Portugal, Angola, Cabo Verde, São Tomé e Príncipe e o Brasil, para discutir a criação dessa rede.
(24:09) Estão estudando a criação de um estatuto. O objetivo é a cooperação e a troca de conhecimento entre as autoridades. Acho que é uma união bem importante. Podemos nos beneficiar, no melhor sentido da palavra, dessa união, porque é bastante provável que tenhamos problemas semelhantes e mais convergências do que se comparássemos Brasil e França, por exemplo.
(25:31) Temos uma proximidade do GDPR com a LGPD, foi intencional. As soluções das autoridades europeias podem e devem ser estudadas por nós. Mas aqui vejo a questão dos problemas mesmo. Os países do Sul Global, em desenvolvimento, terão problemas semelhantes. O Brasil talvez pudesse exercer um papel de liderança aqui, pelo seu tamanho e representatividade.
(26:09) Fiquei bem empolgado. Nosso amigo David Theófilo esteve lá acompanhando a comitiva. Mas o grande assunto, a grande atuação da ANPD nessas últimas semanas, talvez a maior até agora, foi a suspensão da nova política da Meta, que visava ao treinamento de IA com os dados dos usuários. Mais uma vez, vemos essa interconexão entre as duas disciplinas.
(26:56) Apesar de não termos ainda uma lei específica sobre IA no Brasil, e termos visto um lobby intenso das big techs, conseguimos ver essa interconexão entre proteção de dados e inteligência artificial quando há tratamento de dados pessoais. Posso ter dados pessoais usados para treinar as ferramentas, o que atrai as leis de proteção de dados, ou ter como output conteúdos que prejudicam as pessoas, como deepfakes.
(27:34) A Meta veio com essa nova política querendo treinar a IA deles com fotos, áudios e imagens dos usuários. Temos que ver o tamanho do Brasil e como os brasileiros usam os produtos da Meta. Parece que não envolvia o WhatsApp, embora a política cobrisse todos os produtos.
(28:15) Só o Facebook tem 102 milhões de usuários. A ANPD se manifestou dizendo que a implementação dessa política traria um risco iminente de dano grave ou de difícil reparação para os brasileiros, considerando esse enorme grupo de pessoas e um contraste com o que ocorreu na União Europeia, onde a aplicação também foi postergada.
(29:30) Aqui, eles se sentiram mais à vontade para tentar implementar essa política, o que diz muito sobre como as big techs lidam com países como o Brasil. Talvez não contassem com a atuação da ANPD, que veio com uma medida preventiva. Não é uma decisão definitiva, mas uma medida para suspender preventivamente a política, numa análise preliminar.
(30:07) Os argumentos da decisão muito provavelmente serão os definitivos. Eles suspenderam essa política e as práticas ali estabelecidas. Criaram um processo de fiscalização que culminou nesse processo de suspensão cautelar. Vou trazer alguns dos elementos que motivaram essa suspensão. O primeiro foi a hipótese de tratamento.
(31:22) A Meta decidiu utilizar o legítimo interesse para pegar todos os seus vídeos, fotos, áudios e imagens passados para treinar a IA. A ANPD disse: “Opa, não podemos utilizar o legítimo interesse”, até porque, potencialmente, podemos estar tratando dados sensíveis. Eu posso, por exemplo, determinar a posição política de alguém que postou fotos do seu candidato.
(32:34) Dá para tirar as doenças, eventualmente. As pessoas postam de tudo. Já falamos aqui de fotos de crianças, de trabalhinhos de escola que podem ser considerados dados sensíveis. Para um leigo, é só um desenho. Mas para um olho treinado, seja humano ou de uma IA, aquilo pode revelar muito mais.
(33:42) E essas informações sobre a vida da pessoa estarão lá, podendo ser analisadas. Isso, obviamente, impacta quem a pessoa é. Você falou “um olho treinado”, e gostei. A IA é um olho treinado para fazer isso ou aquilo. A ANPD critica a escolha do legítimo interesse, que deve ser usado em situações muito específicas. Para dados sensíveis, o ideal seria o consentimento.
(35:07) Além do mais, para usar o legítimo interesse, deveria ser razoável que o titular tivesse a expectativa de que seus dados pudessem ser usados para aquela finalidade. Certamente, quando você publicou fotos 5 anos atrás, não tinha a expectativa de que pudessem ser usadas para treinar uma IA. Não é que não pode, mas a hipótese de tratamento estaria errada.
(35:44) Houve também um problema de informação. Eles não informaram adequadamente as consequências do uso dos dados nem cumpriram o princípio da finalidade. “Para treinar sistemas de IA generativa” não quer dizer muita coisa. Você precisa ser mais específico. Isso exigiria, caso fosse possível usar o legítimo interesse, uma transparência ampliada.
(36:15) O que não ocorreu. A possibilidade de opt-out que eles deram era absurdamente difícil. Há vídeos na internet mostrando como fazer, e é inacreditável. É virtualmente impossível conseguir chegar lá sem ser orientado. Isso é um problema de transparência e também de dark patterns, um padrão de uso feito para dificultar o opt-out.
(36:52) Isso foi notado também na União Europeia. Lá, mandaram um e-mail com o link para o opt-out. Aqui, não avisaram ninguém. Por fim, eles se manifestaram sobre a questão das crianças. Não falaram nada sobre o uso de dados de crianças, o que é muito grave, porque temos que levar em consideração o seu melhor interesse.
(37:32) A Miriam Wimmer, diretora relatora da ANPD, numa decisão primorosa, aponta o risco disso para as crianças. Será que não posso estar treinando possibilidades de deepfakes? Então, de forma cautelar, suspenderam e estabeleceram uma multa de R$50.000 por dia em caso de descumprimento. A Meta terá que demonstrar o cumprimento.
(38:42) A coisa deve se prolongar, mas foi uma das grandes atuações da ANPD. Veio no momento certo, alinhada com o que o mundo inteiro vem discutindo. Foi, para terminar, uma das grandes atuações da ANPD desde a sua criação. Fico me perguntando se o conteúdo apagado do Face também entra no treinamento. É uma boa pergunta. A gente sabe que o apagado não é bem apagado.
(39:30) Guilherme, vou para minha última notícia. É sobre uma senhora bagunça que a Apple fez, segundo o The Register. A Apple tem o Swift e o Objective-C, usados para desenvolver softwares. Essa plataforma tem seus pacotes, os Pods. Em 2014, a Apple fez uma migração para um novo repositório e, quando fez isso, resetou a propriedade dos repositórios de cada um desses Pods.
(40:20) Você tinha que reclamar a propriedade dos seus Pods. O processo era essencialmente mandar um e-mail. Vários Pods ficaram, até 2023, sem terem sido reclamados. Desde 2014, nem todo mundo foi lá reclamar a propriedade.
(41:05) Esses Pods “órfãos” ficaram disponíveis para quem quisesse adotá-los. Isso permitiria que alguém mal-intencionado injetasse código malicioso, colocando em risco todos os dispositivos iOS e macOS. Esses Pods sem titularidade já estavam sendo usados em projetos no mundo inteiro. Exato. São bibliotecas.
(42:14) É como se, no npm (JavaScript) ou no pip (Python), os pacotes de repente ficassem sem dono e qualquer um pudesse assumir a titularidade e fazer o que quisesse com o código-fonte. Você tem um problema seríssimo de supply chain. Isso desde 2014. Quem descobriu foi uma firma israelense. É algo que não foi pego por auditorias internas, ficou assim por 10 anos.
(43:32) Talvez alguém tenha descoberto isso lá em 2014 e vendido para outras firmas, como a NSO Group, que compra esse tipo de vulnerabilidade. Mas esse não foi o único problema. O The Register chamou de “bagunça” por um motivo.
(44:54) Outra vulnerabilidade permitia executar código remoto enviando um e-mail. Eles usaram um pacote do Ruby vulnerável no servidor que conseguia executar um comando Bash na linha de comando do Linux. Esse comando permitiria não só roubar sessões de usuários, mas eventualmente até desligar o servidor, dando um “reboot”. Para fazer isso, você precisa ser root.
(46:13) Há mais um problema, um básico de segurança. Para recuperar uma conta, você recebe um link por e-mail. Um ataque conhecido é o atacante incluir, na requisição de recuperação, o cabeçalho X-Forwarded-Host com o nome de um servidor que ele controla.
(48:08) O servidor da Apple pegava o conteúdo desse cabeçalho para montar o link de recuperação. Ele mandava o link do atacante para o usuário. Se o usuário clicasse, ele faria um acesso ao servidor do atacante, que receberia o token de recuperação. Com esse token, o atacante acessa o servidor correto e reseta a senha.
(49:32) Eram três CVEs nesse servidor. Os problemas foram corrigidos pela Apple recentemente. Mas agora temos código que, potencialmente, foi manipulado. É preciso fazer uma revisão nesses Pods para ver se não há nada malicioso socado lá. É um problemaço. A Apple resolveu as vulnerabilidades, mas as consequências podem estar ainda ativas ou latentes.
(50:10) Uma bela de uma “mess” (bagunça), como chamou o The Register. Por último, Vinícius, temos que falar sobre o caso Assange. Julian Assange está livre. Ele foi solto no último dia 24 de junho, depois de um longo processo de asilo e prisão.
(50:58) Ele funda o WikiLeaks em 2006, com o objetivo de promover transparência com dados retirados de governos. Em 2010, ele divulga documentos sigilosos da guerra do Iraque e do Afeganistão. O mais conhecido foi um vídeo de militares americanos atirando em civis de um helicóptero Apache.
(52:11) Os caras teriam confundido uma câmera fotográfica com um fuzil. O nome do vídeo é “Collateral Murder”. São dois helicópteros atirando em 12 homens com uma metralhadora de 30mm. É um negócio gigante, absurdo. Esses materiais foram repassados pela soldado Chelsea Manning. A partir daí, os Estados Unidos começam a tomar medidas contra ele.
(54:13) Ele pede asilo na embaixada do Equador em Londres e fica lá de 2012 a 2019. Houve uma acusação de estupro contra ele nesse meio tempo, mas a imprensa tem indicado que seria uma medida persecutória planejada. Depois de 2019, ele é preso em Londres e agora liberado, num acordo com os Estados Unidos, depois de se declarar culpado de um dos crimes: conspiração para obter e divulgar documentos de defesa nacional.
(54:48) A pena combinada foi exatamente o tempo que ele passou preso. Tenho duas indicações sobre isso. A primeira é o livro da Natália Viana, “O vazamento: Memórias do ano em que o WikiLeaks chacoalhou o mundo”. Ela participou da análise das informações. O livro foi lançado em 5 de julho de 2024. A outra é uma entrevista dela no podcast “O Assunto”, episódio 1243.
(56:11) Por que isso é importante? Esse, junto com o caso Snowden, foram talvez os dois grandes casos deste século envolvendo liberdade de imprensa e o papel da internet nas democracias. A grande discussão era que ele, atuando como jornalista, foi punido por divulgar um material que demonstrou um crime de guerra.
(57:33) Vi a Natália Viana dizer que o acordo não foi bom, porque ele teve que assumir a culpa de um crime que não cometeu, pois estava realizando um trabalho jornalístico. Isso pode ser um recado de que, se você publicar, seu destino pode ser o do Assange, que por pouco não morreu preso. E o Snowden está até hoje na Rússia. São dois casos importantíssimos.
(58:50) No meu ponto de vista, temos que comemorar a soltura dele. O que me chama a atenção é que houve um pronunciamento do governo brasileiro em favor do Assange, mas o Snowden, que revelou que o governo brasileiro estava sendo monitorado, está lá até hoje. É algo que chama a atenção.
(1:00:26) O livro que a Natália Viana escreveu é um relato de quem esteve no olho do furacão. Tem outro livro, “O Processo: O caso Assange”, de Nils Melzer, que também é muito bem recomendado.
(1:01:47) Agora, vamos para o pós-café. Vou dar meu café expresso para a ANPD pelo caso Meta. Sem dúvida. E para a Miriam, diretora relatora. Vale a pena ler a decisão. É um dos grandes movimentos da ANPD.
(1:02:24) Meu café frio vai para a Apple, que desde 2014, na migração do repositório de Pods, inseriu múltiplas vulnerabilidades e deixou os pacotes órfãos. Vou endossar o café frio do Rajhara para o Perplexity, por estarem abusando no treinamento e uso de materiais da internet. Se não cuidarmos de como regular as big techs no campo da IA, o futuro tende a ser bastante perturbador.
(1:03:46) Agradecemos àqueles que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima.
By Guilherme Goulart e Vinícius Serafim4
77 ratings
Ajude as vítimas de enchentes no RS (Sugestões de doações via PIX, Sugestões de outras instituições recebendo donativos)
Visite nossa campanha de financiamento coletivo e nos apoie!
Participe da Comunidade:
Neste episódio comentamos a decisão da ANPD contra a Meta, falhas de segurança da Apple e o caso Assange. Você irá descobrir os bastidores da tecnologia, privacidade e liberdade de imprensa.
Aprofundamos na atuação da ANPD que barrou o treinamento de IA da Meta com dados de usuários, uma vitória para a proteção de dados e a privacidade. Analisamos a grave vulnerabilidade de supply chain attack da Apple, que por 10 anos expôs o ecossistema da empresa, e debatemos as implicações da liberdade de Julian Assange e do WikiLeaks para a liberdade de imprensa. Discutimos também o uso de IA generativa por empresas como a Perplexity, levantando questões sobre ética e cibersegurança. Se você se interessa por segurança da informação, não se esqueça de seguir, assinar e avaliar nosso podcast para não perder nenhuma análise.
ShowNotes
📝 Transcrição do Episódio
(00:01) Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 368, gravado em 5 de julho de 2024. Eu sou o Guilherme Goulart e, junto com o Vinícius Serafim, vamos trazer para vocês algumas notícias das últimas semanas. E aí, Vinícius, tudo bem? Olá, Guilherme, tudo bem? Olá aos nossos ouvintes. Esse é o nosso momento de conversarmos sobre algumas notícias e acontecimentos que nos chamaram a atenção, tomando um café; dessa vez, um café de verdade. Então, pegue o seu café e venha com a gente.
(00:31) Para entrar em contato conosco e enviar suas críticas e sugestões, é muito fácil: basta enviar uma mensagem para [email protected] ou, se preferir, também pelo @segurancalegal no Twitter (ou X, mas nós aqui falamos Twitter) e também no Mastodon: @[email protected]. Já pensou em apoiar o projeto Segurança Legal? Acesse o site ou o Apoia-se: apoia.se/segurancalegal e escolha uma das modalidades de apoio.
(00:57) Entre os benefícios recebidos, você terá acesso ao nosso grupo exclusivo de apoiadores lá no Telegram. Tem também o blog da Brown Pipe, Vinícius. Se você quiser se manter informado, visite o blog da Brown Pipe: brp.com.br.
(01:17) Lá você vai ter o link para o blog. Se quiser, pode se inscrever no nosso mailing semanal. Nesse mailing, você receberá uma curadoria de algumas das notícias mais relevantes de toda a semana. Temos uma nova série, Vinícius: o Blogcast Segurança Legal. O que é essa nova série?
(01:57) Para manter o nosso feed mais ativo e dar mais visibilidade para aquilo que você está curando. O Guilherme seleciona as notícias, algumas vezes ele até usa o ChatGPT para ajudar na questão do resumo, mas é sempre curado pelo Guilherme, pessoalmente. Não é conteúdo sintético puro, largado lá. É algo que o Guilherme faz com bastante cuidado e carinho. Eu falei para o Guilherme: “Cara, vou começar a pegar essas informações que você está colocando no blog e vou, eventualmente, gravar para colocar no feed, para o pessoal saber também do que está constando lá”. São coisas bem relevantes que não necessariamente vêm parar aqui no podcast.
(02:31) Algumas coisas a gente traz para o Segurança Legal, como hoje, mas nem todas fazem seu caminho até aqui. Então, estamos começando a gravar esses blogcasts que entram no nosso feed. Tem também outra coisa interessante, Guilherme, que quem nos acompanha há algum tempo já deve ter percebido: estamos com os vídeos no YouTube. Neste momento, estamos gravando o áudio em ótima qualidade para ir para o feed e também o vídeo que vai para o YouTube.
(03:04) Para incentivar você a também nos ouvir por lá, se puder (se estiver dirigindo, não vá assistir no YouTube, fique no feed mesmo), lá no YouTube sempre temos uns minutinhos a mais no final. Depois que a gente se despede, sempre tem alguma coisinha a mais. No último episódio, com o Lucas Lago, nosso convidado, seguimos conversando um pouquinho com ele depois, foi bem legal. E tem uma outra coisa, Guilherme, uma iniciativa Brown Pipe/Segurança Legal:
(03:37) eu comecei a gravar, talvez com saudade das aulas, umas lives ao vivo. Tem sido sempre nas terças-feiras, às 8 horas da noite. Terça-feira que vem terá de novo, sobre segurança da informação com um viés bem aplicado. Claro que trago as questões conceituais importantes para compreendermos as coisas, mas sempre com viés de aplicação, inclusive com um enfoque um pouco maior para desenvolvimento seguro de software.
(04:17) Começamos uma série agora sobre criptografia. Já foram uns três episódios bem interessantes. Na semana que vem, na terça-feira às 8h, vai ter o que eu chamo de um “hash cuca”. Vou destrinchar um tipo de vulnerabilidade que pode aparecer em softwares, que mesmo que você use um algoritmo forte como AES para criptografia com uma chave de 128 bits muito bem escolhida…
(04:55) se você cometer dois erros na sua aplicação, a gente consegue decifrar o texto cifrado com esse seu ótimo algoritmo e com essa maravilhosa chave completamente randômica que você escolheu. O algoritmo é bom. Como conseguimos fazer isso? Vou mostrar na terça-feira, às 8 da noite, ao vivo. É um bom exercício para a mente, para quem gosta de pensar bastante.
(05:31) Se o ouvinte quiser ver essa série de vídeos, basta entrar no canal do Segurança Legal no YouTube. Os vídeos passados estão na aba “Ao vivo”. Você clica lá na abinha, no canal do Segurança Legal no YouTube, e vai aparecer todas as lives que já passaram e o agendamento da próxima.
(06:04) Inclusive, tem aqui o “Live 1 Piloto do Segurança Legal no YouTube”, gravado há 7 anos. A gente já vem há um tempo tentando brincar com essas coisas. Somos meio old school. Mas, aproveitando o ensejo, Vinícius, eu também deixei um videozinho lá porque participei da última Jornada Internacional de Direito, que ocorreu nos dias 26 a 28 de junho de 2024. Foi uma jornada remota.
(06:44) Os participantes mandavam seus vídeos, e eu mandei uma contribuição de 20 minutos sobre os desafios da regulação da Inteligência Artificial. Se você quiser saber um pouco mais ou ver essa contribuição, basta acessar no YouTube do Segurança Legal. Certo, Vinícius? Certíssimo.
(07:23) Uma última coisinha, pessoal: o pessoal do Rio Grande do Sul, nós aqui no Rio Grande do Sul, as pessoas que foram atingidas pelas enchentes ainda precisam de ajuda. Quem é daqui de Porto Alegre e do interior mais atingido sabe, consegue ver isso. Tem muita gente em abrigo, muita gente fora de casa. Esses dias eu estive ali perto da Arena e o pessoal estava com filas gigantescas para pegar colchão e cobertor. Então, ajudem se puderem. Escolham, tem muitos… Nós colocamos no nosso site uma listinha de algumas indicações. Os gaúchos que foram atingidos ainda precisam de você. Pedimos que, se puder, continue ajudando.
(07:57) Temos uma mensagem de ouvinte aqui, Vinícius, do nosso antigo ouvinte Alexandre Rajhara. Ele está conosco há bastante tempo e deu uma alfinetada, sugerindo que iniciaríamos o episódio com um “café frio”. Ele trouxe a notícia, indicou-a e disse: “Xi, teremos um café frio para o Perplexity no próximo episódio”. O que o pessoal do Perplexity andou fazendo?
(08:35) Na real, o Perplexity deu uma inovada. Tínhamos um GPT que foi treinado com tudo que havia na internet até um certo ano. O GPT-3.5, depois o 4, o Omni, foram sendo atualizados com conteúdo da internet. Uma funcionalidade que faltava ao GPT, e que agora tem no ChatGPT 4o, é a consulta à internet. O Perplexity trouxe isso. Ele usa por baixo vários modelos, inclusive o GPT-4, se você pagar.
(09:17) O que o Perplexity fez foi a consulta em tempo real na internet. Em vez de usar um mecanismo de busca como o Google, você vai no Perplexity e faz a busca lá. Ele busca na internet em tempo real, trazendo as coisas mais recentes ou relevantes, e te dá as respostas, o resumo do que encontrou, mas também os links das fontes originais. Eu normalmente uso porque prefiro conferir.
(09:56) O que eles têm feito, essas empresas todas, não só o Perplexity, é varrer a internet para alimentar seus modelos e gerar informação relevante, o que, no final das contas, acaba fazendo com que a pessoa não vá mais à fonte da informação. E você não indo à fonte, meio que quebra o modelo. Não estou dizendo que isso é bom ou ruim, podemos discutir em outro momento, mas acho que é ruim.
(10:34) Ele quebra esse modelo de receita por acesso. Para nós, por exemplo, no Segurança Legal, a hora que tiver uma ferramenta que faça um resumo do nosso áudio, e a partir desse resumo gere um conteúdo que você vai consumir em vez do podcast, é ruim, porque vamos perder o contato direto com nossos ouvintes.
(11:10) O que a Perplexity está fazendo é um resumo das pesquisas, artigos, inclusive de coisas que estão atrás de paywall, e trazendo esse resumo para quem está pesquisando. A maioria das pessoas, imagino, não vai na fonte original. O Perplexity deu um passo adiante: se vocês usarem o Perplexity, mesmo o gratuito, verão uma opção chamada “Discovery”, que traz notícias curadas pelo time deles.
(11:52) Usando IA, eles usam o Eleven Labs, que é uma solução de geração de áudio, e em parceria com eles, estão gerando um podcast a partir do Discovery. Disseram que era diário, mas está falhando. Tem dias que não tem. Eles geram um podcast com as notícias do Discovery.
(13:06) É uma discussão que tem que ser trazida não só com relação ao Perplexity, mas sobre todo esse uso de IA. O próprio Google está tentando fazer isso no seu mecanismo de busca, correndo atrás do Perplexity e da OpenAI. O Google também está tentando fazer com que você não precise ir à origem. Ele já faz isso com os snippets, mas comparado com o Perplexity, é ruim.
(14:21) Eu te pergunto, em termos práticos e sem fazer juízo de valor: se você faz uma pesquisa e tem duas ferramentas, uma que já te dá a resposta pronta e outra que te dá um link para ler o texto inteiro, você acaba indo para a mais rápida, não tem jeito. Mas tem outros dois elementos: eles estavam desrespeitando o protocolo robots.txt. Tem um arquivinho que você pode colocar na raiz do seu site para listar coisas que não queira que sejam indexadas.
(15:02) O Perplexity não é o primeiro nem o último a desrespeitar isso. Não é um controle de acesso, é só um pedido para não indexar. Mas é um grande acordo de cavalheiros da internet. Não seguir o robots.txt é uma atuação de má-fé. Veja, mesmo que o conteúdo esteja livre, esses caras usam seus crawlers. Essas big techs de Inteligência Artificial têm robôs varrendo a internet.
(15:43) Só que, em vez de indexar o conteúdo para mecanismos de busca, eles estão usando para treinar. Não é só uma questão de apresentação, é também de treinamento. Potencialmente, eles poderiam estar treinando, o que faz conexão com outra notícia que vamos falar hoje. Mas, ainda sobre a OpenAI, já mandando um grande abraço para o Rajhara. O seu “café frio” foi endossado.
(16:26) Concordamos com o “café frio” para esse tipo de uso de IA que temos visto. Ao mesmo tempo, não podemos ser hipócritas, porque também usamos para pesquisar. Mas isso tem que ser resolvido. Recuperando nossas mensagens com o Rajhara, ele mandou a primeira vez em 2016. Já são 8 anos. Muito obrigado pela audiência. Abração, cara.
(17:00) Depois, temos uma notícia sobre quem está entrando no conselho da OpenAI. O Phil Schiller, da Apple, vai fazer parte do board da OpenAI, mas sem direito a voto. Vai meio que supervisionar e acompanhar as decisões, pensando na própria integração que a Apple está fazendo do GPT em seus dispositivos.
(17:53) Na mesma linha da integração que a Microsoft está fazendo no sistema operacional. A OpenAI tem o ChatGPT para uso desktop no macOS, mas não para Windows ou Linux. A Apple, por meio de sua parceria, também está integrando isso em seu sistema operacional. Estamos vendo uma corrida de integração de IA em tudo, tanto em desktop quanto em mobile.
(19:21) Essa aproximação da Apple serve para azeitar esse andamento. O pessoal tem chamado muito a atenção para a questão da privacidade envolvendo o uso de IA direto no seu sistema operacional. Temos que ver como isso vai acontecer. Já falamos, procurem nos episódios passados, sobre o recurso Recall da Microsoft. É interessante, mas perigoso. Que uso será feito dessas informações?
(20:05) Em essência, a Microsoft poderia, com o Recall, saber tudo que você fez na sua máquina no passado. É delicado. Não estamos vendo um respeito a dados por essas empresas. Estamos vendo o contrário: uma corrida que, na verdade, é o que se esperaria, porque são empresas que tradicionalmente vêm desrespeitando direitos.
(20:52) Temos visto um movimento não de proteção, mas de cada vez maior desrespeito e tentativas de bypassar as proteções legais. Quando falamos em proteção de dados, o negócio é mundial e atinge públicos em qualquer lugar do mundo. Mas fiquemos a ver o que vai acontecer com a participação do Phil Schiller no board.
(21:31) E falando em proteção de dados, Guilherme, temos movimentações da ANPD. Sim, temos três destaques. A ANPD tem se movimentado. O primeiro foi o lançamento de um novo documento com estudos preliminares sobre biometria e reconhecimento facial, da série “Radar Tecnológico”. Um documento bem interessante que avalia o funcionamento dessas tecnologias e os usos feitos aqui no Brasil.
(22:13) É bem interessante para quem está estudando esse tema. As autoridades de proteção de dados no mundo costumam produzir documentos técnicos como esses. Você vai ter documentos do CNIL, do ICO, da autoridade espanhola, que são bem profícuos nesse sentido.
(22:53) A ANPD cita casos emblemáticos de uso de biometria facial na educação para apurar frequência de alunos e usos comerciais em soluções de autenticação do Serpro e do gov.br. Quem tem interesse no tema pode dar uma olhada. Inclusive, tem no final uma projeção de futuro.
(23:27) Depois, temos uma notícia da ANPD sobre a declaração para a criação da Rede Lusófona de Proteção de Dados, que reúne os países que falam português. Houve uma reunião em Lisboa com representantes de Portugal, Angola, Cabo Verde, São Tomé e Príncipe e o Brasil, para discutir a criação dessa rede.
(24:09) Estão estudando a criação de um estatuto. O objetivo é a cooperação e a troca de conhecimento entre as autoridades. Acho que é uma união bem importante. Podemos nos beneficiar, no melhor sentido da palavra, dessa união, porque é bastante provável que tenhamos problemas semelhantes e mais convergências do que se comparássemos Brasil e França, por exemplo.
(25:31) Temos uma proximidade do GDPR com a LGPD, foi intencional. As soluções das autoridades europeias podem e devem ser estudadas por nós. Mas aqui vejo a questão dos problemas mesmo. Os países do Sul Global, em desenvolvimento, terão problemas semelhantes. O Brasil talvez pudesse exercer um papel de liderança aqui, pelo seu tamanho e representatividade.
(26:09) Fiquei bem empolgado. Nosso amigo David Theófilo esteve lá acompanhando a comitiva. Mas o grande assunto, a grande atuação da ANPD nessas últimas semanas, talvez a maior até agora, foi a suspensão da nova política da Meta, que visava ao treinamento de IA com os dados dos usuários. Mais uma vez, vemos essa interconexão entre as duas disciplinas.
(26:56) Apesar de não termos ainda uma lei específica sobre IA no Brasil, e termos visto um lobby intenso das big techs, conseguimos ver essa interconexão entre proteção de dados e inteligência artificial quando há tratamento de dados pessoais. Posso ter dados pessoais usados para treinar as ferramentas, o que atrai as leis de proteção de dados, ou ter como output conteúdos que prejudicam as pessoas, como deepfakes.
(27:34) A Meta veio com essa nova política querendo treinar a IA deles com fotos, áudios e imagens dos usuários. Temos que ver o tamanho do Brasil e como os brasileiros usam os produtos da Meta. Parece que não envolvia o WhatsApp, embora a política cobrisse todos os produtos.
(28:15) Só o Facebook tem 102 milhões de usuários. A ANPD se manifestou dizendo que a implementação dessa política traria um risco iminente de dano grave ou de difícil reparação para os brasileiros, considerando esse enorme grupo de pessoas e um contraste com o que ocorreu na União Europeia, onde a aplicação também foi postergada.
(29:30) Aqui, eles se sentiram mais à vontade para tentar implementar essa política, o que diz muito sobre como as big techs lidam com países como o Brasil. Talvez não contassem com a atuação da ANPD, que veio com uma medida preventiva. Não é uma decisão definitiva, mas uma medida para suspender preventivamente a política, numa análise preliminar.
(30:07) Os argumentos da decisão muito provavelmente serão os definitivos. Eles suspenderam essa política e as práticas ali estabelecidas. Criaram um processo de fiscalização que culminou nesse processo de suspensão cautelar. Vou trazer alguns dos elementos que motivaram essa suspensão. O primeiro foi a hipótese de tratamento.
(31:22) A Meta decidiu utilizar o legítimo interesse para pegar todos os seus vídeos, fotos, áudios e imagens passados para treinar a IA. A ANPD disse: “Opa, não podemos utilizar o legítimo interesse”, até porque, potencialmente, podemos estar tratando dados sensíveis. Eu posso, por exemplo, determinar a posição política de alguém que postou fotos do seu candidato.
(32:34) Dá para tirar as doenças, eventualmente. As pessoas postam de tudo. Já falamos aqui de fotos de crianças, de trabalhinhos de escola que podem ser considerados dados sensíveis. Para um leigo, é só um desenho. Mas para um olho treinado, seja humano ou de uma IA, aquilo pode revelar muito mais.
(33:42) E essas informações sobre a vida da pessoa estarão lá, podendo ser analisadas. Isso, obviamente, impacta quem a pessoa é. Você falou “um olho treinado”, e gostei. A IA é um olho treinado para fazer isso ou aquilo. A ANPD critica a escolha do legítimo interesse, que deve ser usado em situações muito específicas. Para dados sensíveis, o ideal seria o consentimento.
(35:07) Além do mais, para usar o legítimo interesse, deveria ser razoável que o titular tivesse a expectativa de que seus dados pudessem ser usados para aquela finalidade. Certamente, quando você publicou fotos 5 anos atrás, não tinha a expectativa de que pudessem ser usadas para treinar uma IA. Não é que não pode, mas a hipótese de tratamento estaria errada.
(35:44) Houve também um problema de informação. Eles não informaram adequadamente as consequências do uso dos dados nem cumpriram o princípio da finalidade. “Para treinar sistemas de IA generativa” não quer dizer muita coisa. Você precisa ser mais específico. Isso exigiria, caso fosse possível usar o legítimo interesse, uma transparência ampliada.
(36:15) O que não ocorreu. A possibilidade de opt-out que eles deram era absurdamente difícil. Há vídeos na internet mostrando como fazer, e é inacreditável. É virtualmente impossível conseguir chegar lá sem ser orientado. Isso é um problema de transparência e também de dark patterns, um padrão de uso feito para dificultar o opt-out.
(36:52) Isso foi notado também na União Europeia. Lá, mandaram um e-mail com o link para o opt-out. Aqui, não avisaram ninguém. Por fim, eles se manifestaram sobre a questão das crianças. Não falaram nada sobre o uso de dados de crianças, o que é muito grave, porque temos que levar em consideração o seu melhor interesse.
(37:32) A Miriam Wimmer, diretora relatora da ANPD, numa decisão primorosa, aponta o risco disso para as crianças. Será que não posso estar treinando possibilidades de deepfakes? Então, de forma cautelar, suspenderam e estabeleceram uma multa de R$50.000 por dia em caso de descumprimento. A Meta terá que demonstrar o cumprimento.
(38:42) A coisa deve se prolongar, mas foi uma das grandes atuações da ANPD. Veio no momento certo, alinhada com o que o mundo inteiro vem discutindo. Foi, para terminar, uma das grandes atuações da ANPD desde a sua criação. Fico me perguntando se o conteúdo apagado do Face também entra no treinamento. É uma boa pergunta. A gente sabe que o apagado não é bem apagado.
(39:30) Guilherme, vou para minha última notícia. É sobre uma senhora bagunça que a Apple fez, segundo o The Register. A Apple tem o Swift e o Objective-C, usados para desenvolver softwares. Essa plataforma tem seus pacotes, os Pods. Em 2014, a Apple fez uma migração para um novo repositório e, quando fez isso, resetou a propriedade dos repositórios de cada um desses Pods.
(40:20) Você tinha que reclamar a propriedade dos seus Pods. O processo era essencialmente mandar um e-mail. Vários Pods ficaram, até 2023, sem terem sido reclamados. Desde 2014, nem todo mundo foi lá reclamar a propriedade.
(41:05) Esses Pods “órfãos” ficaram disponíveis para quem quisesse adotá-los. Isso permitiria que alguém mal-intencionado injetasse código malicioso, colocando em risco todos os dispositivos iOS e macOS. Esses Pods sem titularidade já estavam sendo usados em projetos no mundo inteiro. Exato. São bibliotecas.
(42:14) É como se, no npm (JavaScript) ou no pip (Python), os pacotes de repente ficassem sem dono e qualquer um pudesse assumir a titularidade e fazer o que quisesse com o código-fonte. Você tem um problema seríssimo de supply chain. Isso desde 2014. Quem descobriu foi uma firma israelense. É algo que não foi pego por auditorias internas, ficou assim por 10 anos.
(43:32) Talvez alguém tenha descoberto isso lá em 2014 e vendido para outras firmas, como a NSO Group, que compra esse tipo de vulnerabilidade. Mas esse não foi o único problema. O The Register chamou de “bagunça” por um motivo.
(44:54) Outra vulnerabilidade permitia executar código remoto enviando um e-mail. Eles usaram um pacote do Ruby vulnerável no servidor que conseguia executar um comando Bash na linha de comando do Linux. Esse comando permitiria não só roubar sessões de usuários, mas eventualmente até desligar o servidor, dando um “reboot”. Para fazer isso, você precisa ser root.
(46:13) Há mais um problema, um básico de segurança. Para recuperar uma conta, você recebe um link por e-mail. Um ataque conhecido é o atacante incluir, na requisição de recuperação, o cabeçalho X-Forwarded-Host com o nome de um servidor que ele controla.
(48:08) O servidor da Apple pegava o conteúdo desse cabeçalho para montar o link de recuperação. Ele mandava o link do atacante para o usuário. Se o usuário clicasse, ele faria um acesso ao servidor do atacante, que receberia o token de recuperação. Com esse token, o atacante acessa o servidor correto e reseta a senha.
(49:32) Eram três CVEs nesse servidor. Os problemas foram corrigidos pela Apple recentemente. Mas agora temos código que, potencialmente, foi manipulado. É preciso fazer uma revisão nesses Pods para ver se não há nada malicioso socado lá. É um problemaço. A Apple resolveu as vulnerabilidades, mas as consequências podem estar ainda ativas ou latentes.
(50:10) Uma bela de uma “mess” (bagunça), como chamou o The Register. Por último, Vinícius, temos que falar sobre o caso Assange. Julian Assange está livre. Ele foi solto no último dia 24 de junho, depois de um longo processo de asilo e prisão.
(50:58) Ele funda o WikiLeaks em 2006, com o objetivo de promover transparência com dados retirados de governos. Em 2010, ele divulga documentos sigilosos da guerra do Iraque e do Afeganistão. O mais conhecido foi um vídeo de militares americanos atirando em civis de um helicóptero Apache.
(52:11) Os caras teriam confundido uma câmera fotográfica com um fuzil. O nome do vídeo é “Collateral Murder”. São dois helicópteros atirando em 12 homens com uma metralhadora de 30mm. É um negócio gigante, absurdo. Esses materiais foram repassados pela soldado Chelsea Manning. A partir daí, os Estados Unidos começam a tomar medidas contra ele.
(54:13) Ele pede asilo na embaixada do Equador em Londres e fica lá de 2012 a 2019. Houve uma acusação de estupro contra ele nesse meio tempo, mas a imprensa tem indicado que seria uma medida persecutória planejada. Depois de 2019, ele é preso em Londres e agora liberado, num acordo com os Estados Unidos, depois de se declarar culpado de um dos crimes: conspiração para obter e divulgar documentos de defesa nacional.
(54:48) A pena combinada foi exatamente o tempo que ele passou preso. Tenho duas indicações sobre isso. A primeira é o livro da Natália Viana, “O vazamento: Memórias do ano em que o WikiLeaks chacoalhou o mundo”. Ela participou da análise das informações. O livro foi lançado em 5 de julho de 2024. A outra é uma entrevista dela no podcast “O Assunto”, episódio 1243.
(56:11) Por que isso é importante? Esse, junto com o caso Snowden, foram talvez os dois grandes casos deste século envolvendo liberdade de imprensa e o papel da internet nas democracias. A grande discussão era que ele, atuando como jornalista, foi punido por divulgar um material que demonstrou um crime de guerra.
(57:33) Vi a Natália Viana dizer que o acordo não foi bom, porque ele teve que assumir a culpa de um crime que não cometeu, pois estava realizando um trabalho jornalístico. Isso pode ser um recado de que, se você publicar, seu destino pode ser o do Assange, que por pouco não morreu preso. E o Snowden está até hoje na Rússia. São dois casos importantíssimos.
(58:50) No meu ponto de vista, temos que comemorar a soltura dele. O que me chama a atenção é que houve um pronunciamento do governo brasileiro em favor do Assange, mas o Snowden, que revelou que o governo brasileiro estava sendo monitorado, está lá até hoje. É algo que chama a atenção.
(1:00:26) O livro que a Natália Viana escreveu é um relato de quem esteve no olho do furacão. Tem outro livro, “O Processo: O caso Assange”, de Nils Melzer, que também é muito bem recomendado.
(1:01:47) Agora, vamos para o pós-café. Vou dar meu café expresso para a ANPD pelo caso Meta. Sem dúvida. E para a Miriam, diretora relatora. Vale a pena ler a decisão. É um dos grandes movimentos da ANPD.
(1:02:24) Meu café frio vai para a Apple, que desde 2014, na migração do repositório de Pods, inseriu múltiplas vulnerabilidades e deixou os pacotes órfãos. Vou endossar o café frio do Rajhara para o Perplexity, por estarem abusando no treinamento e uso de materiais da internet. Se não cuidarmos de como regular as big techs no campo da IA, o futuro tende a ser bastante perturbador.
(1:03:46) Agradecemos àqueles que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima.

108 Listeners

111 Listeners

179 Listeners

174 Listeners

91 Listeners

43 Listeners

1,010 Listeners

121 Listeners

78 Listeners

46 Listeners

30 Listeners

20 Listeners

19 Listeners

4 Listeners

1 Listeners