
Sign up to save your podcasts
Or


Neste episódio falamos sobre os principais temas de segurança digital e privacidade das últimas semanas, abordando assuntos que você precisa conhecer para entender o cenário atual da proteção de dados, segurança infantil online e inteligência artificial. Você vai descobrir como o Roblox e o Discord lidam com a verificação de idade e proteção de crianças na internet, incluindo os riscos de predadores digitais, mecanismos psicológicos de retenção e a ausência de controles parentais eficazes. Também abordamos o polêmico caso do Grok no X (antigo Twitter) gerando imagens de nudez de mulheres e menores de idade sem guardrails, e as medidas tomadas pela ANPD, Ministério Público Federal e Senacon contra a plataforma. Discutimos o acordo de adequação mútua entre Brasil e União Europeia em proteção de dados pessoais e o que isso representa para transferências internacionais de dados e oportunidades comerciais. Ainda comentamos a solicitação do FBI à Microsoft pelas chaves de criptografia BitLocker, a ação judicial contra a Meta por suposto acesso às mensagens criptografadas do WhatsApp, o fenômeno das personas digitais criadas por IA, como a “Aboriginal Steve Irwin”, e os deepfakes com celebridades. Por fim, apresentamos a WhisperSafe, novo patrocinador do podcast, um software de transcrição local com privacidade em foco, usando modelos Whisper da OpenAI sem envio de dados para a nuvem.
Assine o podcast para não perder nenhum episódio, deixe sua avaliação nas plataformas e siga o Segurança Legal no Instagram, Mastodon, Blue Sky, YouTube e TikTok. Apoie o projeto independente em apoia.se/segurancalegal.
Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana.
Acesse WhisperSafe – Transcreva áudio e grave reuniões direto no seu computador, mesmo offline. Rápido, leve e pronto para usar com qualquer IA. Use o cupom SEGLEG50 para 50% de desconto na sua assinatura.
ShowNotes
Imagem do Episódio – Children’s Games (Bruegel)
Transcrição do Episódio
(00:00:08.000 –> 00:00:17.500) Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 411, gravado em 24 de fevereiro de 2026.
(00:00:17.500 –> 00:00:22.920) Eu sou Guilherme Goulart e junto com o Vinícius Serafim vamos trazer para vocês algumas notícias das últimas semanas.
(00:00:22.920 –> 00:00:24.440) E aí, Vinícius, tudo bem?
(00:00:24.440 –> 00:00:27.940) Olá, Guilherme, tudo bem?
(00:00:24.440 –> 00:00:27.940) Olá aos nossos ouvintes.
(00:00:28.180 –> 00:00:30.600) Você estava com saudade de gravar ou não?
(00:00:30.600 –> 00:00:39.160) Cara, eu já estava até duvidando da minha capacidade de gravar de novo, porque a gente passou quase..
(00:00:30.600 –> 00:00:39.160) Vai fechar dois..
(00:00:39.160 –> 00:00:40.820) Um mês e pouco.
(00:00:40.820 –> 00:00:45.280) O último foi ali em janeiro, não foi?
(00:00:45.280 –> 00:00:46.720) Foi em janeiro que a gente gravou.
(00:00:46.720 –> 00:00:51.000) Agora você me pegou, você me pegou no contrapé.
(00:00:51.000 –> 00:00:57.820) Mas nós gravamos o episódio 410 da Retrospectiva, que se você não ouviu, está lá no dia 6 de janeiro.
(00:00:58.180 –> 00:01:02.100) De 2026.
(00:00:58.180 –> 00:01:02.100) Retrospectiva 2025.
(00:01:03.780 –> 00:01:07.380) Bem, então, esse é o nosso momento de conversarmos sobre algumas notícias.
(00:01:07.380 –> 00:01:10.240) Pegue o seu café e venha conosco para entrar em contato.
(00:01:10.240 –> 00:01:18.760) Vocês já sabem, é lá no podcast.roba.segurançalegal.com, no Mastodon, no Instagram, no Blue Sky, no YouTube e no TikTok também.
(00:01:18.760 –> 00:01:24.520) Você pode ver que tanto no TikTok quanto no YouTube você consegue ver também uns shorts lá que aparecem no Instagram também.
(00:01:24.900 –> 00:01:30.420) A nossa campanha de financiamento coletivo, vocês já sabem, lá no apoia.se barra segurança legal.
(00:01:30.420 –> 00:01:36.940) A gente sempre pede que você considere colaborar com esse projeto independente de proteção de conteúdo.
(00:01:36.940 –> 00:01:41.960) E, Vinícius, temos uma novidade que é um novo patrocinador aqui no Segurança Legal.
(00:01:42.500 –> 00:01:43.520) É isso aí, Guilherme.
(00:01:43.520 –> 00:01:54.360) Tem a WhisperSafe, na verdade, o produto da WhisperSafe de uma startup que nós conhecemos, inclusive o dono da startup.
(00:01:54.360 –> 00:02:04.360) É um software para transcrição de voz com um valor bastante acessível comparado com outros que tem no mercado.
(00:02:05.420 –> 00:02:08.640) Ele faz transcrição tanto..
(00:02:08.640 –> 00:02:13.760) Eu tenho usado muito para fazer, para mandar comandos para IA.
(00:02:13.760 –> 00:02:17.060) Eu fazia prompt tudo estruturadinho, digitando e tal.
(00:02:17.060 –> 00:02:26.200) Agora, para programar, para criar scripts, criar alguns programas, para fazer alguns testes, eu tenho utilizado essencialmente ele para digitar.
(00:02:26.200 –> 00:02:34.080) E tem uma funcionalidade muito interessante, que é a gravação e transcrição de reuniões, que eu também tenho utilizado.
(00:02:35.220 –> 00:02:40.820) Independente do software que você utiliza, você abre ele, clica gravar a reunião, ele vai gravar todo o áudio da reunião.
(00:02:40.820 –> 00:02:48.280) E depois que ele grava e você aperta lá o botãozinho para transcrever, ele te dá uma..
(00:02:48.280 –> 00:02:53.000) Ele tanto gera um arquivo com a transcrição bruta, se tu quiser usar com alguma IA,
(00:02:53.000 –> 00:03:04.160) Como ele já deixa na área de transferência a tua transcrição com um prompt montado para te colar na IA que tu quer utilizar para fazer um resumo da tua reunião.
(00:03:04.160 –> 00:03:07.500) Então, termina a reunião, cola na IA e pimba.
(00:03:07.500 –> 00:03:16.880) O valor dele é um valor bastante acessível e, para os ouvintes do Segurança Legal, nós temos 20 cupons.
(00:03:17.840 –> 00:03:28.700) O cupom é SEGLEG50, ele dá 50% de desconto vitalício, digamos assim.
(00:03:28.700 –> 00:03:35.360) Você faz a assinatura, aplica o desconto, se fizer mensal ele vai aplicar a todos os pagamentos mensais
(00:03:35.360 –> 00:03:40.080) E, se for anual, ele vai aplicar a todos os pagamentos anuais.
(00:03:40.080 –> 00:03:44.540) Então, não é um desconto que vale só no primeiro ano ou só no primeiro pagamento.
(00:03:44.540 –> 00:03:48.460) SEGLEG50 para os ouvintes do Segurança Legal.
(00:03:49.080 –> 00:03:55.520) São 20 cupons, são 20 cupons que a gente tem aí, pelo menos para este episódio.
(00:03:55.520 –> 00:04:01.320) E o mais importante, Vinícius, ele é um aplicativo que é construído com privacidade em foco.
(00:04:01.320 –> 00:04:06.820) Ou seja, se você, os dados e toda a parte de transcrição, ela fica só na sua máquina,
(00:04:06.820 –> 00:04:11.020) Não vai para a nuvem, a não ser que você queira depois usar isso no MyA e tal,
(00:04:11.020 –> 00:04:14.580) Mas, assim, para assuntos mais críticos.
(00:04:14.580 –> 00:04:18.560) Se você quiser ter lá para fazer uma ata depois, isso fica só na sua máquina.
(00:04:18.560 –> 00:04:24.280) Ele faz, ele usa os modelos da Whisper, isso está lá na interface, está muito claro.
(00:04:24.280 –> 00:04:31.040) Ele usa os modelos da, os modelos Whisper da OpenAI, que são modelos que rodam local na máquina.
(00:04:31.040 –> 00:04:35.460) E o interessante é que tu não precisa nem ter uma placa de vídeo, não precisa ter GPU nem nada,
(00:04:35.460 –> 00:04:39.280) Ele funciona muito bem, eu testei no meu notebook, não tem placa de vídeo dedicada.
(00:04:40.700 –> 00:04:45.580) E funcionou muito bem, assim, ele é bastante rápido.
(00:04:45.580 –> 00:04:52.320) E eu tenho feito os testes até para ver a questão de velocidade, já que tem os modelos disponíveis lá.
(00:04:52.320 –> 00:04:55.000) Eu estava usando sempre o Turbo, assim, vou usar o melhor.
(00:04:55.000 –> 00:05:00.500) Aí eu resolvi começar a usar o Medium e o Small lá dos modelos.
(00:05:00.500 –> 00:05:04.580) E, cara, o Small, ele dá umas erradas, assim, sabe?
(00:05:04.580 –> 00:05:06.260) Mas o Medium funciona muito bem.
(00:05:06.260 –> 00:05:08.060) Tá bom.
(00:05:08.840 –> 00:05:15.480) Então, basta você acessar o whispersafe.ai.ai, você vai ver lá todos os valores.
(00:05:15.480 –> 00:05:19.920) Na hora do pagamento, pode usar o cupom SEGLEG50 e vamos lá.
(00:05:19.920 –> 00:05:24.080) Bem-vindos, então, ao novo patrocinador do podcast Segurança Legal.
(00:05:24.080 –> 00:05:30.480) Vamos para os temas, então, Vinícius, desses últimos dois meses, dá para se dizer aí.
(00:05:30.480 –> 00:05:32.680) Hoje já estamos aí no dia 24 de fevereiro.
(00:05:32.680 –> 00:05:44.260) Bastante coisa acontecendo, mas nós vamos, em vez de comentar propriamente as notícias, claro que nós vamos citá-las aqui, mas nós dividimos em alguns grupos.
(00:05:44.340 –> 00:05:49.420) De temas que nos chamaram a atenção e que também foram temas importantes aí nas últimas semanas.
(00:05:49.420 –> 00:05:53.860) O primeiro deles diz respeito à questão da proteção da criança na internet.
(00:05:53.860 –> 00:05:56.400) Proteção digital, sobretudo em plataformas.
(00:05:56.400 –> 00:06:00.200) Você que nos acompanha aqui sabe que a questão da proteção de criança é importante.
(00:06:00.200 –> 00:06:04.860) A gente tem diversos, para esse podcast, a gente tem diversos episódios gravados sobre isso.
(00:06:05.100 –> 00:06:11.420) Chegamos a comentar, inclusive, um episódio mais recente também sobre o ECA Digital, Vinícius, se você puder ver o número aí para nós.
(00:06:11.420 –> 00:06:24.280) E, basicamente, o que nós estamos vendo mais recentemente é toda uma questão sobre como tornar essas plataformas, os problemas envolvendo plataformas utilizadas por crianças.
(00:06:24.280 –> 00:06:33.320) E cada vez mais as crianças têm usado, seja o discórdio, mas aqui o foco dessas notícias é o Roblox.
(00:06:33.320 –> 00:06:38.740) Então, se você tem filho, provavelmente já ouviu falar sobre Roblox, que é um jogo.
(00:06:38.740 –> 00:06:44.020) Dá para dizer que é um jogo, mas que simula quase como um ambiente, assim.
(00:06:38.740 –> 00:06:44.020) Virtual.
(00:06:44.020 –> 00:06:47.600) Eu cheguei a jogar ele logo que ele apareceu.
(00:06:47.600 –> 00:06:52.020) Assim, não tão logo, mas os colegas do meu filho começaram a jogar.
(00:06:52.020 –> 00:06:54.900) Ai, meu filho veio com essa história do Roblox.
(00:06:54.900 –> 00:06:57.140) E aí, disse, não, beleza, vamos ver.
(00:06:57.140 –> 00:06:58.860) Aí eu entrei com ele.
(00:06:59.320 –> 00:07:02.180) Cara, é um ambiente, é um ambiente virtual.
(00:07:02.180 –> 00:07:08.400) Para mim, me lembrou muito aquele Second Life, tá ligado?
(00:07:08.400 –> 00:07:09.320) Sim, Second Life.
(00:07:09.320 –> 00:07:11.100) Me lembrou muito aquilo, então.
(00:07:11.100 –> 00:07:15.880) E aí, dentro, tu tem espaços.
(00:07:15.880 –> 00:07:19.980) Que tu acessa aplicações, jogos e tudo mais.
(00:07:19.980 –> 00:07:22.560) Tu pode criar, inclusive, e tal.
(00:07:22.700 –> 00:07:26.080) E aí, ele tem uma moeda interna no jogo, tá?
(00:07:26.080 –> 00:07:28.080) Ele tem grana envolvida.
(00:07:28.080 –> 00:07:36.080) E, cara, em cinco minutos de Fussaclo ali, eu larguei para o meu filho, ó, tem jogos melhores
(00:07:36.080 –> 00:07:36.640) Para te jogar.
(00:07:36.640 –> 00:07:39.060) Tu não vai jogar isso aqui.
(00:07:39.060 –> 00:07:44.520) Justamente porque é um ambiente, eu percebi, o que eu percebi de cara, e se confirmou depois,
(00:07:44.520 –> 00:07:47.180) Um ambiente muito descontrolado, entende?
(00:07:47.680 –> 00:07:56.360) Um ambiente muito descontrolado, com muita, assim, nomes estranhos de personagens, todo
(00:07:56.360 –> 00:08:03.060) Mundo pode se comunicar com todo mundo, então, é um negócio bem estranho.
(00:08:03.060 –> 00:08:04.880) Pelo menos, era.
(00:08:04.880 –> 00:08:06.060) A percepção.
(00:08:06.060 –> 00:08:06.260) Não entrei mais para jogar.
(00:08:06.260 –> 00:08:11.720) Mas aí, pelo que a gente vê agora nas reações e notícias e tudo mais, pelo visto,
(00:08:11.720 –> 00:08:12.580) Continua estranho.
(00:08:12.580 –> 00:08:13.620) Continua estranho.
(00:08:13.620 –> 00:08:18.880) O, o, a grande questão aqui é que, por fora, e isso está acontecendo no mundo
(00:08:18.880 –> 00:08:20.140) Inteiro, não é só no Brasil.
(00:08:20.140 –> 00:08:23.820) No Brasil, por conta do ECA Digital, mas assim, começa..
(00:08:23.820 –> 00:08:24.660) Episódio 400, viu, Guilherme?
(00:08:24.660 –> 00:08:25.940) Tá, legal.
(00:08:25.940 –> 00:08:26.660) Episódio 400, isso é legal.
(00:08:26.660 –> 00:08:32.380) É que começa a se ampliar toda a discussão de como você fazer a verificação de idade
(00:08:32.380 –> 00:08:34.120) De pessoas nessas plataformas.
(00:08:34.120 –> 00:08:41.000) Então, aqui a gente junta nesse mesmo pacote o Roblox e também o Discord.
(00:08:41.360 –> 00:08:43.840) E aí, uma coisa muito interessante.
(00:08:43.840 –> 00:08:48.460) Que gerou, assim, até um fenômeno social, me parece que relevante.
(00:08:48.460 –> 00:08:52.160) Crianças começaram a protestar lá, porque as crianças seriam os beneficiários.
(00:08:52.160 –> 00:08:56.820) Mas começaram a protestar por conta das novas medidas de verificação de idade.
(00:08:56.820 –> 00:08:59.280) Aí, o Felca foi alvo de protesto e tal.
(00:08:59.280 –> 00:09:05.920) E tem as crianças lá, simulando um protesto, segurando cartazes lá dentro do Roblox.
(00:09:07.520 –> 00:09:11.380) Saíram também notícias dizendo, e aí, mais ou menos na tua percepção, Vinícius,
(00:09:11.380 –> 00:09:16.720) De que o Roblox, como acontece com grandes plataformas, ele teria uma lógica de cassino,
(00:09:16.720 –> 00:09:21.860) Ou seja, as crianças ficariam ali, utilizariam gatilhos psicológicos,
(00:09:21.860 –> 00:09:26.860) Como já ocorre em redes sociais, para que as crianças ficassem mais tempo lá dentro.
(00:09:26.860 –> 00:09:33.160) E aí, também começou a se ventilar de que predadores sexuais estariam dentro do Roblox,
(00:09:33.160 –> 00:09:36.760) Se fazendo passar por crianças.
(00:09:33.160 –> 00:09:36.760) Disfarçados aí.
(00:09:36.760 –> 00:09:40.700) Nos Estados Unidos, isso é um problema bem sério lá, justamente com isso.
(00:09:40.700 –> 00:09:52.020) E teve o CEO do Roblox, ele teve lá no episódio do The Hard Fork.
(00:09:53.020 –> 00:09:59.060) Eu já vejo o número de episódios aqui, mas o nome do CEO é Dave Bazzucchi, tá?
(00:09:59.060 –> 00:10:06.020) E, cara, o pessoal do The Hard Fork tentou, assim, impressionou, foi uma coisa que ficou até tenso, sabe?
(00:10:06.020 –> 00:10:08.940) Não é normal, assim, tu ver esse episódio do The Hard Fork desse jeito.
(00:10:08.940 –> 00:10:14.100) E o cara sempre saindo pela tangente, assim, e perguntas bem diretas.
(00:10:14.460 –> 00:10:21.300) Em termos de controle de comunicação, a questão de deixar adultos falar com crianças, assim, várias coisas.
(00:10:21.300 –> 00:10:23.420) E ele sempre dando evasiva.
(00:10:23.420 –> 00:10:26.320) Ele não..
(00:10:23.420 –> 00:10:26.320) Assim, foi muito ruim, sabe?
(00:10:26.320 –> 00:10:32.020) A impressão que tu tens é que o cara foi ali para tentar se justificar,
(00:10:32.020 –> 00:10:35.280) Não aceitando os problemas que ele tem na plataforma.
(00:10:35.280 –> 00:10:38.800) Isso o CEO da própria Roblox, sabe?
(00:10:38.800 –> 00:10:40.320) Na própria empresa.
(00:10:40.320 –> 00:10:50.300) Então, isso me deixou ainda mais convencido de que é uma empresa que não tem preocupação nenhuma
(00:10:50.300 –> 00:10:54.240) Com essa questão de segurança de crianças e tudo mais, entende?
(00:10:54.240 –> 00:10:55.540) É bem delicado.
(00:10:55.540 –> 00:10:58.760) Se o pessoal já se preocupa com o Discord, o Roblox é muito pior.
(00:10:58.760 –> 00:11:00.000) É muito pior.
(00:11:00.000 –> 00:11:03.140) Em termos de possibilidades de comunicação.
(00:11:03.140 –> 00:11:06.380) É uma reportagem aqui da Folha de São Paulo.
(00:11:06.420 –> 00:11:10.920) Pelo Daniel Mariani, ele destaca justamente isso.
(00:11:10.920 –> 00:11:13.660) Inclusive de monetização.
(00:11:13.660 –> 00:11:18.120) Práticas predatórias em games e monetiza compulsão e frustrações.
(00:11:18.120 –> 00:11:22.720) Explora mecanismos psicológicos como medo de ficar fora da plataforma.
(00:11:22.720 –> 00:11:25.060) Ficar de fora e perda de noção de tempo.
(00:11:25.060 –> 00:11:27.540) Então, ele conta uma historinha que ele sai com o filho e o filho diz
(00:11:27.540 –> 00:11:31.600) Olha, nós temos que voltar até tal hora porque vai acontecer um evento lá no Roblox
(00:11:31.600 –> 00:11:34.920) E eu preciso estar lá e enfim.
(00:11:35.800 –> 00:11:42.840) E aí, a crítica toda é também de que haveria uma falta de vontade, digamos assim,
(00:11:42.840 –> 00:11:46.920) Da empresa de adotar controles parentais e também a questão da verificação da idade.
(00:11:46.920 –> 00:11:52.820) E a verificação da idade que começa agora também a ficar mais presente agora em março.
(00:11:52.820 –> 00:11:55.440) Tudo indica que vai acontecer também no Discord.
(00:11:55.720 –> 00:11:57.760) Então, isso..
(00:11:57.760 –> 00:12:01.500) E também o Discord, Vinícius, se você quiser falar logo a seguir,
(00:12:01.500 –> 00:12:07.160) Mas o Discord também aplicando novas formas de controle parental.
(00:12:07.160 –> 00:12:11.440) Mas a grande discussão, e mais uma vez, isso está acontecendo no Brasil e no mundo, é
(00:12:11.440 –> 00:12:17.200) Mas qual vai ser ou quais serão as medidas de controle de identidade.
(00:12:18.080 –> 00:12:27.420) Então, se fala em biometria facial, se fala em envio de documentos e tal, e aí a grande preocupação que se coloca
(00:12:27.420 –> 00:12:33.320) É no aumento das práticas de vigilância sobre como, que as empresas vão lidar com isso,
(00:12:33.320 –> 00:12:39.040) Sobre o fato de a biometria facial ser um dado sensível, que poderia ser utilizado para outras sinalidades.
(00:12:39.040 –> 00:12:47.020) Uma das notícias aqui mostra que o próprio Discord estava usando uma empresa lá, ou contratou uma empresa de verificação
(00:12:47.020 –> 00:12:53.380) Que tinha conexões, que é a tal da persona lá, conexões no site deles, dizia mesmo
(00:12:53.380 –> 00:12:55.840) This is a US government system.
(00:12:55.840 –> 00:13:01.240) Mas aí que tá, Guilherme, assim, a gente tem um problema bem sério para resolver aí, tá?
(00:13:01.240 –> 00:13:08.060) Porque ao mesmo tempo que se quer que as empresas consigam fazer a verificação de idade,
(00:13:09.040 –> 00:13:11.160) E aí sim, é ok.
(00:13:11.160 –> 00:13:12.660) O que que eu faço essa verificação de idade?
(00:13:12.660 –> 00:13:17.000) O que que eu faço de um jeito que eu consiga ter um mínimo de confiança
(00:13:17.000 –> 00:13:20.060) De que a criatura não tá mentindo pra mim, que o Zora não tá mentindo pra mim
(00:13:20.060 –> 00:13:22.420) E tá entrando com menos de 13 ou coisa parecida?
(00:13:22.420 –> 00:13:25.660) Então, eu preciso uma forma de verificar isso.
(00:13:25.660 –> 00:13:28.400) Tu vai verificar como?
(00:13:28.400 –> 00:13:30.080) Imagina a própria empresa.
(00:13:30.080 –> 00:13:34.680) Ela vai usar reconhecimento facial para tentar identificar a idade?
(00:13:34.680 –> 00:13:36.440) Ela vai pedir documentação?
(00:13:38.360 –> 00:13:40.020) Não sei se isso é bom, se é ruim, entende?
(00:13:40.020 –> 00:13:42.000) Eu só tô com o problema.
(00:13:42.000 –> 00:13:46.220) Aí, o ideal, eu não gostaria de ficar dando minha identidade pra tudo quanto é empresa.
(00:13:46.220 –> 00:13:50.460) Então, uma outra opção o governo tem as informações.
(00:13:50.460 –> 00:13:54.360) Uma agência governamental tem as informações, as nossas informações.
(00:13:54.360 –> 00:13:55.580) Sabe a idade que a gente tem.
(00:13:55.580 –> 00:13:57.540) Tem toda a comprovação de quem a gente é.
(00:13:58.220 –> 00:14:07.340) Será que não dá pra ter um protocolo que, de forma anônima, eu acesso um site e esse site
(00:14:07.340 –> 00:14:15.160) Conversa com o site do governo e aí eu converso com o site do governo e digo, gera aí um token
(00:14:15.160 –> 00:14:21.420) Pra mim, eu sou fulano, gera um token dizendo que eu tenho mais de 18 anos ou tem mais de 13
(00:14:21.420 –> 00:14:22.460) Ou coisa parecida.
(00:14:22.460 –> 00:14:27.360) Parecido com o que a gente já faz no Alt pra fazer autenticação quando a gente usa o Google e tudo mais.
(00:14:27.360 –> 00:14:31.720) Parecido com isso, mas em vez de dizer quem nós somos, ele diz que idade que a gente tem.
(00:14:31.720 –> 00:14:32.860) Tá?
(00:14:32.860 –> 00:14:36.000) Só que daí tu tem vários outros problemas.
(00:14:36.000 –> 00:14:38.380) Ok, o site pode não saber quem tu é por ali.
(00:14:38.380 –> 00:14:39.360) Não tem problema.
(00:14:39.360 –> 00:14:41.460) E aí tem outro jeito de saber quem tu mas enfim.
(00:14:41.460 –> 00:14:43.180) Até porque você vai ter um cadastro lá.
(00:14:43.240 –> 00:14:43.960) Exato.
(00:14:43.960 –> 00:14:51.560) Então assim, ok, ao mesmo tempo tu vai estar dizendo pro governo o que que tu tá acessando.
(00:14:51.560 –> 00:14:57.260) Então se o governo começar a registrar lá na hora de consultar quem tá consultando o teu cadastro
(00:14:57.260 –> 00:15:00.900) Ou pra quem tu tá se autenticando, ele sabe o que que tu tá acessando.
(00:15:00.900 –> 00:15:06.060) E aí teve um problema recente, a gente chegou a comentar aqui, eu só não lembro se foi na
(00:15:06.060 –> 00:15:10.120) Inglaterra especificamente ou foi na União Europeia, tá?
(00:15:10.120 –> 00:15:11.900) E se eu não tô enganado, foi na Inglaterra, cara.
(00:15:11.900 –> 00:15:19.940) Mas eles estavam com a demanda de, pra acessar site pornográfico, tu tem que dar a tua
(00:15:19.940 –> 00:15:23.300) Identificação real, tá?
(00:15:23.300 –> 00:15:28.080) Pra que o site tenha certeza de que tu é o maior de idade.
(00:15:28.080 –> 00:15:36.360) E aí começou uma outra discussão da questão da privacidade das pessoas que acessam
(00:15:36.360 –> 00:15:37.600) Esses sites e tudo mais.
(00:15:38.100 –> 00:15:46.060) Então eu não vejo uma solução perfeita, assim, que empresa privada não guarde as informações
(00:15:46.060 –> 00:15:48.760) Ou não tem um repositório de informações pra fazer isso.
(00:15:48.760 –> 00:15:52.560) Tem uma solução que já é conhecida que é uma chamada, com a chamada Meu ID.
(00:15:52.560 –> 00:15:59.420) Eu uso pra algumas plataformas de jogos, que a ideia é justamente essa, tu se autentica
(00:15:59.420 –> 00:16:04.100) Com a plataforma, com a tua documentação, faz prova, faz o esquema da imagem e tudo mais.
(00:16:04.100 –> 00:16:06.140) Aí tu usa ela pra se autenticar uma plataforma.
(00:16:06.140 –> 00:16:11.660) Então, ou a gente vai ter que ter uma empresa como essa, ou vai ter que vincular com algum
(00:16:11.660 –> 00:16:12.500) Órgão do governo.
(00:16:12.500 –> 00:16:18.140) Eu não vejo uma saída diferente pro Discord, por exemplo.
(00:16:18.140 –> 00:16:21.540) Eu não vejo uma saída diferente pro Facebook.
(00:16:22.220 –> 00:16:27.240) Como é que eu vou autenticar, como é que eu vou saber que o usuário tem mais certa idade,
(00:16:27.240 –> 00:16:37.040) Sem que eu possa ser enganado e sem pedir uma confirmação mais consistente, documental,
(00:16:37.040 –> 00:16:43.280) Nem que seja interfaceada ou intermediada pelo governo ou por uma empresa privada,
(00:16:44.460 –> 00:16:49.760) Que diga, não, Vinícius realmente tem mais de 13 anos.
(00:16:49.760 –> 00:16:51.620) É um problema não.
(00:16:51.620 –> 00:16:53.520) Eu não vejo uma solução fácil pra isso.
(00:16:53.520 –> 00:16:55.720) É um problema de privacidade.
(00:16:55.720 –> 00:17:01.940) Essa questão que eu comentei aqui desse persona que o Discord tava usando,
(00:17:01.940 –> 00:17:05.660) A grande questão era que era um negócio quase como um data broker de verificação
(00:17:05.660 –> 00:17:11.980) Que iria ser utilizado para fins de vigilância estatal.
(00:17:11.980 –> 00:17:17.900) E aí o Discord, depois que isso vira notícia, eles voltam atrás.
(00:17:17.900 –> 00:17:19.940) Eles dizem, nós não vamos mais usar isso.
(00:17:19.940 –> 00:17:21.100) Ou seja, assim, tiram.
(00:17:21.100 –> 00:17:23.000) O problema é um problema de privacidade.
(00:17:23.000 –> 00:17:27.280) Você poderia, eu imagino, Vinícius, que se todo mundo tivesse,
(00:17:27.280 –> 00:17:31.960) Levasse proteção de dados a sério, você poderia sim ter um protocolo
(00:17:31.960 –> 00:17:36.560) Em que empresas e Estado poderiam fornecer um meio de autenticação
(00:17:36.560 –> 00:17:39.540) Privacy-friendly.
(00:17:39.540 –> 00:17:43.860) Ou seja, sem a coleta de informações sobre quem acessou o quê.
(00:17:43.860 –> 00:17:48.360) Eles, ambos os lados, ou todos os lados, deveriam abrir mão disso.
(00:17:48.360 –> 00:17:53.080) Mas nós sabemos que no estado atual de coisas, isso não vai acontecer.
(00:17:53.080 –> 00:17:53.800) É o contrário.
(00:17:53.800 –> 00:17:57.440) O que essa notícia mostra é que as empresas e governos estão,
(00:17:58.560 –> 00:18:02.820) Frequentemente, caminhando para utilizar essa desculpa da verificação
(00:18:02.820 –> 00:18:04.760) Para aumentar o monitoramento sobre as pessoas.
(00:18:04.760 –> 00:18:06.620) E essa que me parece que é a preocupação.
(00:18:06.620 –> 00:18:12.060) Enfim, nós vamos deixar, como sempre, todas as notícias lá no Show Notes.
(00:18:12.060 –> 00:18:15.020) Tem outras coisas aqui, se você se interessa por essa questão.
(00:18:15.020 –> 00:18:18.660) O papel do Discord em questão de agressão de animais,
(00:18:18.660 –> 00:18:21.040) Que teve aí recentemente com o caso do Cão Orelha.
(00:18:21.040 –> 00:18:25.860) E também sobre como empresas internamente discutiram e sabem.
(00:18:25.860 –> 00:18:29.540) O próprio Instagram sabia como o próprio Instagram fazia mal para meninas
(00:18:29.540 –> 00:18:30.680) E para adolescentes e tudo mais.
(00:18:30.680 –> 00:18:32.440) Então, isso continua acontecendo.
(00:18:32.440 –> 00:18:35.160) Documentos internos aí vazados.
(00:18:35.160 –> 00:18:40.440) Como acontece, demonstram que eles sabem dos potenciais maléficos.
(00:18:40.440 –> 00:18:46.680) Para adolescentes e continuam oferecendo as plataformas ou serviços
(00:18:46.680 –> 00:18:49.700) Sem levar em consideração a proteção da criança e do adolescente.
(00:18:49.700 –> 00:18:53.220) Então, fica nesse primeiro grupo aí, Vinícius.
(00:18:54.120 –> 00:18:54.640) Perfeito.
(00:18:54.640 –> 00:18:57.720) Segundo grupo, tem a ver também.
(00:18:57.720 –> 00:19:00.300) Tem a ver com crianças e adolescentes, mas não somente.
(00:19:00.300 –> 00:19:03.120) Mas tem a ver também com proteção de..
(00:19:03.120 –> 00:19:05.740) Sobretudo de mulheres na internet, da imagem de mulheres
(00:19:05.740 –> 00:19:12.360) E sobre como a IA tem sido utilizada especificamente pelo X ou Twitter, Vinícius?
(00:19:12.360 –> 00:19:15.660) Todo mundo que fala X logo depois tem que dizer o antigo Twitter.
(00:19:15.660 –> 00:19:17.800) Mas todo mundo já sabe que o X é o antigo Twitter.
(00:19:18.040 –> 00:19:20.500) Você fica meio com um vício ali.
(00:19:20.500 –> 00:19:22.880) E aí, o que começou?
(00:19:22.880 –> 00:19:24.060) O nome virou..
(00:19:24.060 –> 00:19:26.180) Parece que o nome virou o X antigo Twitter mesmo.
(00:19:26.180 –> 00:19:27.440) Junto.
(00:19:27.440 –> 00:19:28.400) Que nem a HBO.
(00:19:28.400 –> 00:19:31.180) Viu a HBO Max, que era HBO.
(00:19:31.180 –> 00:19:33.280) Aí depois virou a HBO Max.
(00:19:33.280 –> 00:19:34.760) Aí depois foi Max.
(00:19:34.760 –> 00:19:35.980) Aí tinha..
(00:19:35.980 –> 00:19:36.140) Gol.
(00:19:36.140 –> 00:19:38.360) Aí voltaram com a HBO agora.
(00:19:38.360 –> 00:19:40.940) Eu tenho a assinatura deles lá.
(00:19:40.940 –> 00:19:41.360) Meu Deus.
(00:19:41.360 –> 00:19:44.700) Eu nem sei mais o que eu tô assinando lá, porque eu não sei mais o nome desse.
(00:19:44.700 –> 00:19:51.960) E aí a questão que, enfim, nesses últimos meses aí virou, uma notícia muito forte
(00:19:51.960 –> 00:19:57.740) Foi que o pessoal pedia lá pro Grock no X pra que ele tirasse, deixasse mulheres nuas
(00:19:57.740 –> 00:20:02.920) Ou tirasse a roupa de mulheres, inclusive de crianças.
(00:20:03.660 –> 00:20:10.520) E naquela perspectiva, de que a ferramenta é neutra, a ferramenta só faz aquilo que
(00:20:10.520 –> 00:20:16.440) O usuário pede pra ela fazer, a culpa não é nossa e tal, mas ao mesmo tempo a ferramenta
(00:20:16.440 –> 00:20:22.400) Era programada sem guardrails ali pra despir pessoas.
(00:20:22.400 –> 00:20:28.940) E se ela pode ser programada para despir pessoas, me parece que também é fácil colocar guardrails
(00:20:28.940 –> 00:20:35.400) Aí pra impedir que ela dispa, dispa, despir, despir pessoas.
(00:20:35.400 –> 00:20:37.920) Acho que eu nunca tinha usado o verbo despir dessa forma.
(00:20:37.920 –> 00:20:39.840) Então, é..
(00:20:39.840 –> 00:20:41.080) E aí o que que aconteceu?
(00:20:41.080 –> 00:20:43.860) Não sei se você quer fazer uma observação agora ou depois aqui, só pra..
(00:20:43.860 –> 00:20:45.080) Não, pode sim, pode sim, pode sim.
(00:20:45.080 –> 00:20:46.580) Aí o que que aconteceu?
(00:20:46.580 –> 00:20:52.860) Foi toda uma pressão em cima do X, Elon Musk chega e diz, não, olha, nós vamos,
(00:20:52.860 –> 00:21:00.340) Então vamos ampliar os controles aqui, só vai poder despir pessoas quem tiver a conta
(00:21:00.340 –> 00:21:01.920) Paga do X.
(00:21:01.920 –> 00:21:09.820) E obviamente que daí a emenda saiu pior que o soneto e no Brasil também já vimos movimentações,
(00:21:10.160 –> 00:21:17.560) De três entidades aqui, a NPD, Ministério Público Federal e Senacom, em primeiro lugar fizeram
(00:21:17.560 –> 00:21:25.420) Uma recomendação lá em janeiro e agora mais recentemente, depois da resposta do X, esses
(00:21:25.420 –> 00:21:32.400) Três órgãos entenderam que as medidas foram insuficientes e cada um deles, na medida das
(00:21:32.400 –> 00:21:36.620) Suas competências, iniciou um processo pra determinar.
(00:21:36.620 –> 00:21:42.500) Aí sim, antes tinham sugerido medidas, o X informou as medidas que foram tomadas, eles
(00:21:42.500 –> 00:21:47.500) Entenderam que não foram suficientes e a partir de agora começaram, cada um na medida das
(00:21:47.500 –> 00:21:53.000) Suas competências, procedimentos administrativos, seja a NPD, uma medida preventiva, o Ministério
(00:21:53.000 –> 00:21:58.960) Público também, um procedimento interno e a Senacom também numa medida cautelar administrativa
(00:21:58.960 –> 00:22:01.700) Determinando que eles imediatamente parem.
(00:22:01.700 –> 00:22:08.720) E implementem soluções técnicas e administrativas pra impedir a geração de imagens de pessoas
(00:22:08.720 –> 00:22:10.000) Nuas.
(00:22:10.620 –> 00:22:16.580) E pra variar.
(00:22:10.620 –> 00:22:16.580) Pra variar as maiores vítimas disso foram mulheres, tá?
(00:22:16.580 –> 00:22:19.800) E inclusive menores de idade, tá?
(00:22:19.800 –> 00:22:20.800) E adolescentes.
(00:22:20.800 –> 00:22:25.920) Isso foi o que causou, claro que, mesmo que não tivesse menores de idade envolvidas,
(00:22:25.920 –> 00:22:32.620) Isso já gerou bastante polêmica, mas com menores de idade é a coisa..
(00:22:33.300 –> 00:22:37.840) E aí uma coisa, Guilherme, só uma observação, a gente já fala há muitos anos aqui no Segurança
(00:22:37.840 –> 00:22:42.880) Legal, há muito tempo, essa questão da super exposição das crianças na internet e muitas
(00:22:42.880 –> 00:22:43.960) Vezes pelos próprios pais.
(00:22:43.960 –> 00:22:48.920) Quando a gente falava assim, ó, não expõe, não fica botando foto, não sei o quê, tu não
(00:22:48.920 –> 00:22:50.900) Sabe o que vai poder ser feito com isso amanhã.
(00:22:52.040 –> 00:22:56.620) E eu lembro de estar falando e falando sobre isso em 2015, em escolas, fazer umas palestras
(00:22:56.620 –> 00:22:59.020) Assim, falando pro pessoal exatamente nesses termos.
(00:22:59.020 –> 00:23:07.800) E agora aqui estamos nós em 2026 com o X antigo Twitter, uma ferramenta de ar embutida
(00:23:07.800 –> 00:23:13.940) Que, cara, tira a roupa de adolescente, menor de idade e tudo mais.
(00:23:14.480 –> 00:23:19.600) E aí, e mesmo que você seja cuidadoso com a imagem dos filhos e tal, que é realmente
(00:23:19.600 –> 00:23:20.500) A recomendação..
(00:23:20.500 –> 00:23:22.560) As escolas tinham foto, publicam, é um..
(00:23:22.560 –> 00:23:28.740) Exato, não, e ainda você tem pessoas públicas, que eventualmente, eventualmente não,
(00:23:28.740 –> 00:23:34.940) Mas pessoas públicas que têm a sua imagem publicada em função da sua, da sua atividade,
(00:23:34.940 –> 00:23:40.600) Sei lá, uma política, pessoas do ramo político, enfim, artistas e tudo mais, e ainda
(00:23:40.600 –> 00:23:46.220) Assim não há, me parece, aliás, eu tenho certeza que não há um direito de pessoas
(00:23:46.220 –> 00:23:53.460) Usarem IA pra macular a imagem de mulheres, inclusive teve notícias, pegaram lá uma
(00:23:53.460 –> 00:23:58.420) Primeira ministra, não lembro exatamente de qual país, e aí começaram a fazer isso
(00:23:58.420 –> 00:24:02.200) Com a imagem dela pra desqualificá-la, enfim.
(00:24:02.200 –> 00:24:10.580) E aí acaba entrando, Vinícius, um pouco naquilo, eu vou puxar lá pro grupo 6,
(00:24:10.580 –> 00:24:16.200) Mas tem um pouco a ver, o Vinícius me mandou esses dias uma notícia de um..
(00:24:16.200 –> 00:24:21.120) Seria um aborígine, da Nova Zelândia, que fazia vídeos..
(00:24:21.120 –> 00:24:21.760) O Steve Irving.
(00:24:21.760 –> 00:24:23.340) Conta aí a história, conta aí a história.
(00:24:23.340 –> 00:24:23.680) O Steve Irving.
(00:24:23.680 –> 00:24:24.440) .
(00:24:24.440 –> 00:24:26.260) É inacreditável.
(00:24:26.260 –> 00:24:29.200) O Steve Irving, o Steve Irving é um..
(00:24:29.200 –> 00:24:37.740) Um aborígine, australiano, que faz vídeos..
(00:24:37.740 –> 00:24:38.240) Neo-zelandês.
(00:24:38.240 –> 00:24:38.740) Neo-zelandês.
(00:24:38.740 –> 00:24:39.380) Neo-zelandês.
(00:24:39.380 –> 00:24:42.400) É Nova Zelândia, não misturar Nova Zelândia com a Austrália.
(00:24:42.400 –> 00:24:43.140) Nada.
(00:24:43.140 –> 00:24:49.400) Neo-zelandês, que faz vídeos, aqueles vídeos assim, meio de aventura, assim, de ver os bichos
(00:24:49.400 –> 00:24:50.780) De perto e meio..
(00:24:50.780 –> 00:24:55.620) Encontra uma cobra e mexe na cobra e um escorpião e por aí vai.
(00:24:55.700 –> 00:24:56.700) Esses vídeos assim, sabe?
(00:24:56.700 –> 00:24:57.140) E mostrando..
(00:24:57.140 –> 00:25:00.160) Mas mostrando os animais lá da Nova Zelândia.
(00:25:00.160 –> 00:25:01.120) Sim, exatamente.
(00:25:01.120 –> 00:25:02.460) Fazendo um negócio..
(00:25:02.460 –> 00:25:04.060) Cara, um negócio muito bem feito.
(00:25:04.060 –> 00:25:05.340) Um negócio muito bem feito.
(00:25:05.340 –> 00:25:06.800) Tipo um National Geographic, assim.
(00:25:06.800 –> 00:25:09.320) Tinha um outro cara, aquele cara que morreu..
(00:25:09.320 –> 00:25:13.500) Bem conhecido, ele morreu com ferrão de uma arraia.
(00:25:13.500 –> 00:25:14.200) Uma arraia.
(00:25:14.200 –> 00:25:15.560) No peito.
(00:25:15.560 –> 00:25:18.040) Eu não lembro o nome dele, mas tudo bem.
(00:25:18.040 –> 00:25:21.040) ..
(00:25:21.040 –> 00:25:24.880) E esse personagem é uma vibe muito parecida, tá?
(00:25:25.700 –> 00:25:30.620) Cara, um negócio com, assim, muita gente seguindo.
(00:25:30.620 –> 00:25:37.660) Houve 90 mil pessoas no Instagram e aí começou a chamar muita atenção, muita atenção.
(00:25:37.660 –> 00:25:42.600) E aí o cara que criou o personagem veio ao público e dizia, ó, esse cara não existe.
(00:25:43.400 –> 00:25:47.980) O Steve Irving era o cara que morreu com ferrão de arraia.
(00:25:49.420 –> 00:25:50.400) Sim, verdade.
(00:25:50.400 –> 00:25:51.480) Na notícia, sim.
(00:25:51.480 –> 00:25:53.080) Eu misturei aqui que ele chamou..
(00:25:53.080 –> 00:25:54.620) É o Aboriginal Steve Irving.
(00:25:54.620 –> 00:25:56.860) É o Steve Irving aborigine.
(00:25:56.860 –> 00:25:57.340) Exatamente.
(00:25:57.340 –> 00:25:59.780) O Steve Irving é o cara real que morreu.
(00:25:59.780 –> 00:26:00.720) Isso, isso.
(00:26:00.720 –> 00:26:01.220) Isso.
(00:26:01.220 –> 00:26:03.380) E o nome do cara que..
(00:26:03.380 –> 00:26:06.220) Essa persona digital criada.
(00:26:07.620 –> 00:26:09.340) Quem criou foi o..
(00:26:09.340 –> 00:26:10.400) Quem criou foi o..
(00:26:10.400 –> 00:26:13.720) O Keegan, John Manson, o cara que fez a..
(00:26:13.720 –> 00:26:15.140) Que criou o personagem.
(00:26:15.140 –> 00:26:17.260) Cara, eu não tenho o nome do personagem aqui.
(00:26:17.260 –> 00:26:20.040) Seria o Bush Legend.
(00:26:20.040 –> 00:26:20.480) Mas..
(00:26:20.480 –> 00:26:21.320) Bush Legend.
(00:26:21.320 –> 00:26:22.260) Esse é o canal.
(00:26:22.260 –> 00:26:23.760) Esse é o canal, Bush Legend.
(00:26:23.760 –> 00:26:24.520) O Bush Legend.
(00:26:24.520 –> 00:26:25.260) A conta aqui, ó.
(00:26:25.260 –> 00:26:26.260) Tá separado aqui.
(00:26:26.260 –> 00:26:27.280) Bush Legend, a conta.
(00:26:27.780 –> 00:26:30.500) Mas o interessante é que não é a conta em si, tá?
(00:26:30.500 –> 00:26:33.260) Quem quiser olhar o Bush Legend lá, deve estar no ar ainda esse negócio.
(00:26:33.260 –> 00:26:35.240) O interessante não é a conta em si.
(00:26:35.240 –> 00:26:41.400) O interessante é que é uma coisa que tu assiste e, cara, tu não se dá a conta que
(00:26:41.400 –> 00:26:42.360) Não é real.
(00:26:42.360 –> 00:26:47.360) Talvez ali num vídeo ou outro tu possa até perceber, tá?
(00:26:47.360 –> 00:26:50.880) Mas a maioria das pessoas não vai perceber.
(00:26:50.880 –> 00:26:51.920) Não vai se dar conta, não vai se dar conta.
(00:26:51.920 –> 00:26:53.560) Então, assim..
(00:26:53.560 –> 00:27:01.540) E recentemente teve um vídeo também, eu vi essa semana, ou semana passada, um vídeo
(00:27:01.540 –> 00:27:06.360) Em que tava o Brad Pitt lutando com o Tom Cruise, tá?
(00:27:06.360 –> 00:27:10.320) E eles discutindo os Epstein Files na luta.
(00:27:10.320 –> 00:27:20.040) Eu mostrei pra minha esposa o vídeo e disse assim, olha só o trailer de um filme que eles
(00:27:20.040 –> 00:27:20.940) Estão lançando e tal.
(00:27:21.420 –> 00:27:24.060) Aí a gente começou a ver o vídeo, eu já tinha visto, ela começou a ver o vídeo,
(00:27:24.060 –> 00:27:29.440) Assim, tá, mas aí eles falando e tal, e eles se batendo e não paravam de se bater
(00:27:29.440 –> 00:27:31.840) E conversar, assim, mas que cena mais.
(00:27:31.840 –> 00:27:33.080) Sem propósito.
(00:27:33.480 –> 00:27:34.820) Uma coisa meio..
(00:27:34.820 –> 00:27:37.000) Mas ao mesmo tempo ela achou que fosse verdade.
(00:27:37.000 –> 00:27:38.060) Aham.
(00:27:38.060 –> 00:27:43.120) Ela achou que fosse verdade, porque os personagens, ali o Tom Cruise e o Brad Pitt, tá certinho
(00:27:43.120 –> 00:27:43.500) Ali, cara.
(00:27:43.500 –> 00:27:44.900) Claro que fica..
(00:27:44.900 –> 00:27:48.780) Depois eles começam a zoar, começam a mudar demais, assim, começam a botar uns personagens
(00:27:48.780 –> 00:27:49.800) Meio estranhos no negócio.
(00:27:50.560 –> 00:27:51.240) Mas é..
(00:27:51.240 –> 00:27:51.800) E há, cara.
(00:27:51.800 –> 00:27:53.660) E aí isso gera tanto..
(00:27:53.660 –> 00:27:54.580) Não só uma preocupação.
(00:27:54.580 –> 00:27:56.300) Agora nós estamos vando pra ano de eleição.
(00:27:56.300 –> 00:27:57.360) Vamos ver o que vai acontecer.
(00:27:57.360 –> 00:28:07.520) Mas não só gera essa possível confusão com quem assiste, pra quem assiste, mas também
(00:28:07.520 –> 00:28:13.300) Tá gerando uma boa discussão lá nos Estados Unidos com relação, lá nos sindicatos dos
(00:28:13.300 –> 00:28:16.380) Artistas e tudo mais.
(00:28:16.380 –> 00:28:23.620) Porque, cara, se tu não quiser usar a imagem de alguém, que obviamente tu vai ter que pagar
(00:28:23.620 –> 00:28:28.240) Pra usar a imagem do Tom Cruise, ninguém discute que mesmo que seja autorizado pelo Tom Cruise
(00:28:28.240 –> 00:28:33.160) Tu vai ter que pagar o Tom Cruise pelo uso da imagem dele, mas que tu possa começar a criar
(00:28:33.160 –> 00:28:37.600) Personagens completamente fictícios, ou pessoas.
(00:28:37.600 –> 00:28:44.560) Atores fictícios, pra..
(00:28:37.600 –> 00:28:44.560) Pra atuarem num filme, atuarem numa série.
(00:28:45.560 –> 00:28:48.320) E aí tu não precisar mais.
(00:28:48.320 –> 00:28:53.580) Talvez tu possa substituir até o roteirista na brincadeira, mas tu não precisar mais
(00:28:53.580 –> 00:28:55.500) De atores humanos pra atuar.
(00:28:55.500 –> 00:28:57.120) Então..
(00:28:57.120 –> 00:29:01.940) Tem uma discussão bem interessante em cima disso, sabe?
(00:29:01.940 –> 00:29:07.680) A questão do emprego dos artistas e da questão do conteúdo que tu entrega.
(00:29:07.680 –> 00:29:09.200) Pras pessoas.
(00:29:09.200 –> 00:29:11.120) Tu vai assistir um filme..
(00:29:11.120 –> 00:29:14.480) Assim, tu topa assistir um filme muito bom feito por Iá?
(00:29:14.480 –> 00:29:16.560) Cara..
(00:29:16.560 –> 00:29:21.280) Eu acho que tem um elemento ético, inclusive se fala isso lá numa das notícias.
(00:29:21.800 –> 00:29:27.300) Que é um preceito de trans..
(00:29:21.800 –> 00:29:27.300) Um preceito ético de transparência no uso de Iá.
(00:29:27.300 –> 00:29:32.160) Então, quando a gente fala em princípios de governança de Iá, a transparência, ela
(00:29:32.160 –> 00:29:36.060) Se desdobra em várias..
(00:29:32.160 –> 00:29:36.060) Várias situações.
(00:29:36.060 –> 00:29:40.680) E uma das situações que a transparência se desdobra, enquanto princípio que deve reger
(00:29:40.680 –> 00:29:45.320) O uso da Iá, isso eu tô falando porque é princípio já adotado na União Europeia
(00:29:45.320 –> 00:29:46.940) E tudo mais, é..
(00:29:46.940 –> 00:29:51.140) .
(00:29:46.940 –> 00:29:51.140) Você tem que saber que aquele conteúdo é gerado por Iá.
(00:29:51.140 –> 00:29:52.800) E a grande..
(00:29:52.800 –> 00:29:54.320) E por que que isso virou notícia?
(00:29:54.320 –> 00:29:55.540) Na verdade, são duas coisas.
(00:29:55.540 –> 00:30:00.500) Isso virou notícia porque não se deram..
(00:29:55.540 –> 00:30:00.500) Ninguém se deu conta.
(00:30:00.500 –> 00:30:05.540) Porque se diz, você mostra pra pessoa, se você olhar num vídeo e prestar atenção,
(00:30:05.540 –> 00:30:06.760) Você vai descobrir que é.
(00:30:06.760 –> 00:30:10.420) A questão é que hoje, até a gente comentava isso antes.
(00:30:10.420 –> 00:30:17.520) Nós, eu e você e quem nos escuta, nós já estamos consumindo conteúdos gerados por
(00:30:17.520 –> 00:30:18.440) Iá sem se dar conta.
(00:30:18.440 –> 00:30:18.840) Por quê?
(00:30:18.840 –> 00:30:23.400) Porque a lógica de consumir conteúdo em rede social não é você ficar prestando atenção
(00:30:23.400 –> 00:30:28.980) Nos detalhes, a lógica é que você vai passando rapidamente sobre certos conteúdos.
(00:30:28.980 –> 00:30:32.780) E você fica vendo muitos, aquela história do feed infinito que a gente já falou.
(00:30:32.780 –> 00:30:38.080) Que é uma das maldições das redes sociais e o que aprisiona as pessoas lá dentro é
(00:30:38.080 –> 00:30:38.860) O feed infinito.
(00:30:38.860 –> 00:30:39.900) E vamos lá.
(00:30:39.900 –> 00:30:42.620) O teu espírito crítico ali fica bem rebaixado.
(00:30:42.840 –> 00:30:45.960) Claro que quando a gente olha o vídeo depois sabendo o que bom, tudo bem.
(00:30:45.960 –> 00:30:51.860) Ontem mesmo eu tava na academia e fica uma TV ligada lá e tava passando uma propaganda
(00:30:51.860 –> 00:30:53.300) Do Liquida Porto Alegre.
(00:30:53.300 –> 00:30:57.000) É tipo uma liquidação de verão que eles fazem aqui na cidade.
(00:30:57.800 –> 00:31:05.020) E, cara, cinco segundos da coisa já deu pra ver que era tudo gerado por Iá, cara.
(00:31:05.020 –> 00:31:09.860) Toda uma propaganda gerada por Iá, até porque no final tinha uma senhora bem idosa correndo
(00:31:09.860 –> 00:31:15.540) Junto com um monte de pessoas que ela não teria como uma senhora.
(00:31:15.540 –> 00:31:19.400) Enfim, até teria, mas chamou a atenção o fato de ser uma senhora bem idosa correndo
(00:31:19.400 –> 00:31:21.000) Loucamente na cidade, assim, sabe?
(00:31:21.640 –> 00:31:25.980) Não que não seja possível, não que não seja possível.
(00:31:25.980 –> 00:31:29.660) Não, não que não seja possível, mas, assim, aquilo já disparou, não, como assim.
(00:31:29.660 –> 00:31:35.940) Então, você tem um elemento ético muito, isso tá acontecendo, a propaganda, eu acredito,
(00:31:35.940 –> 00:31:39.720) Que o CONAR, enfim, a regulamentação da propaganda tem que deixar isso claro.
(00:31:39.720 –> 00:31:45.220) Olha, você está assistindo uma reportagem, uma propaganda feita por Iá, assim como você
(00:31:45.220 –> 00:31:49.340) Quando você tá consumindo um produto no supermercado, diz se aquilo ali tem transgênico
(00:31:49.340 –> 00:31:51.900) Ou não, ou o que consta.
(00:31:51.900 –> 00:31:52.140) Excesso de sal.
(00:31:52.140 –> 00:31:53.980) Excesso de sal, por que não?
(00:31:53.980 –> 00:31:58.020) Porque a gente sabe que isso é bem brain rotizável.
(00:31:58.020 –> 00:31:58.900) Aham.
(00:31:58.900 –> 00:32:01.200) Brain rotizável, você não inventei agora, Vinícius.
(00:32:01.200 –> 00:32:02.880) É um bom verbo.
(00:32:02.880 –> 00:32:04.220) Brain rotizável.
(00:32:04.220 –> 00:32:13.740) Vinícius, Brasil, você já deve ter ouvido falar disso, mas Brasil e União Europeia,
(00:32:13.740 –> 00:32:17.320) Consolidaram lá o seu acordo de adequação mútua.
(00:32:17.320 –> 00:32:23.180) Então, basicamente, agora, no final de janeiro, foi anunciado esse reconhecimento recíproco
(00:32:23.180 –> 00:32:25.560) De adequação dos regimes de proteção de dados.
(00:32:25.560 –> 00:32:31.800) E tem-se pintado isso como um marco histórico, porque, além desse franco reconhecimento,
(00:32:31.800 –> 00:32:35.060) A ideia é que se abra, principalmente para o Brasil.
(00:32:35.440 –> 00:32:42.000) Mas a ideia é que o Brasil poderia se beneficiar com base nesse acordo de adequação,
(00:32:42.000 –> 00:32:47.660) Prestando serviços, para toda a União Europeia.
(00:32:47.660 –> 00:32:53.020) Então, isso poderia ampliar o uso de data centers para IA e também o uso de próprio serviço,
(00:32:53.020 –> 00:32:56.040) Porque uma vez que você tem esse reconhecimento, você não precisa,
(00:32:57.180 –> 00:33:00.580) Digamos assim, quando você for fazer a transferência internacional de dados,
(00:33:00.580 –> 00:33:03.140) Que é uma das situações lá em que você faz de um lado para o outro,
(00:33:03.140 –> 00:33:05.800) Esse reconhecimento implica na possibilidade automática,
(00:33:05.800 –> 00:33:08.880) Sem, por exemplo, você pedir, precisar pedir consentimento,
(00:33:08.880 –> 00:33:12.820) Ou fazer avisos adicionais, ou reconhecimentos das autoridades.
(00:33:12.820 –> 00:33:18.980) Então, abre-se, de fato, um espaço comercial também,
(00:33:19.040 –> 00:33:22.300) Não seja de fluxos, de fluxo seguro de dados, enfim.
(00:33:22.300 –> 00:33:24.600) Qual a questão?
(00:33:24.600 –> 00:33:31.800) A questão é que, quando a gente faz uma comparação em como a União Europeia tem aplicado sanções
(00:33:31.800 –> 00:33:35.620) E como o Brasil tem aplicado sanções, mesmo diante desse reconhecimento,
(00:33:35.620 –> 00:33:39.620) Nós notamos que há uma distância, porque no Brasil ainda há,
(00:33:39.620 –> 00:33:43.980) E aqui eu falo como titular de dados pessoais,
(00:33:44.360 –> 00:33:49.580) Ainda há um certo, é um certo, como é que eu vou dizer,
(00:33:49.580 –> 00:33:54.640) Atraso, talvez, na aplicação de sanções em situações muito complexas.
(00:33:54.640 –> 00:33:57.340) Apenas para vocês terem uma ideia de alguns números,
(00:33:57.340 –> 00:34:00.120) Na França, por exemplo, agora é janeiro, fevereiro,
(00:34:00.120 –> 00:34:06.280) Você teve a France Travel, foi multada em 5 milhões de euros,
(00:34:06.280 –> 00:34:09.920) A Free Mobile, 42 milhões de euros,
(00:34:10.920 –> 00:34:14.820) É dividido aqui em Free Mobile e Free, não sei o que é.
(00:34:14.820 –> 00:34:19.140) Então, você teve aí todas essas situações somente,
(00:34:19.140 –> 00:34:22.120) Ou seja, multas milionárias na França,
(00:34:22.120 –> 00:34:27.400) Somente por situações de vazamentos que se confirmou que ocorreram
(00:34:27.400 –> 00:34:30.300) Por causa de insuficiência de medidas de segurança
(00:34:30.300 –> 00:34:32.560) Adotadas por essas organizações.
(00:34:32.560 –> 00:34:34.060) Isso na França.
(00:34:34.060 –> 00:34:36.940) Na Espanha, que é uma autoridade pequena,
(00:34:36.940 –> 00:34:40.180) Tem, se não me engano, menos funcionários do que,
(00:34:40.180 –> 00:34:43.540) Até fiz esses dias um apanhado de número de funcionários e tal,
(00:34:43.540 –> 00:34:45.960) Mas acho que tem menos funcionários do que a nossa NPD,
(00:34:45.960 –> 00:34:53.040) Eles terminaram 2025 com 394 procedimentos sancionadores
(00:34:53.040 –> 00:34:57.040) E com multas que somadas deram 40 milhões de euros.
(00:34:57.040 –> 00:35:00.040) Então, acho que para consolidar, de fato,
(00:35:00.040 –> 00:35:03.700) Urge que nós tenhamos um aprimoramento,
(00:35:03.700 –> 00:35:05.480) E eu não falo nem somente em multas,
(00:35:05.480 –> 00:35:08.720) Eu falo em sanções, impedir certos tratamentos,
(00:35:08.720 –> 00:35:14.400) Caminhar justamente para a implementação de medidas de segurança,
(00:35:14.400 –> 00:35:16.680) Resolver a questão das farmácias,
(00:35:16.680 –> 00:35:20.380) Resolver a questão que a gente já falou aqui no nosso podcast
(00:35:20.380 –> 00:35:26.980) Sobre a farra das biometrias faciais em academias,
(00:35:26.980 –> 00:35:29.580) Em condomínios.
(00:35:29.580 –> 00:35:32.780) Então, acho que a gente comemora, de fato,
(00:35:32.780 –> 00:35:36.060) Mas há um caminho ainda a ser perseguido, me parece,
(00:35:36.060 –> 00:35:40.100) Posso estar errado, enfim, mas me parece que há um caminho ainda a ser percorrido.
(00:35:40.100 –> 00:35:42.580) Isso, obviamente, é uma via de duas mãos.
(00:35:42.580 –> 00:35:45.340) Então, a gente tem uma equivalência.
(00:35:45.340 –> 00:35:46.080) Isso.
(00:35:46.080 –> 00:35:48.500) Então, uma coisa que muda, então, por exemplo,
(00:35:48.500 –> 00:35:51.660) Se você quiser usar algum data center na Europa,
(00:35:51.660 –> 00:35:53.620) Na União Europeia, para fazer mais ou menos de dados
(00:35:53.620 –> 00:35:57.820) E cidadãos brasileiros, em princípio, ok.
(00:35:57.820 –> 00:35:59.860) Isso.
(00:35:59.860 –> 00:36:02.260) Quando você tem na União Europeia,
(00:36:02.260 –> 00:36:04.040) Nos países que fazem parte da União Europeia,
(00:36:04.040 –> 00:36:06.980) Não é na Europa, porque você tem países que..
(00:36:06.980 –> 00:36:08.340) Sim, eu falei, União Europeia, não é Europeia.
(00:36:08.340 –> 00:36:10.960) Tu tem Inglaterra que não faz mais parte da União Europeia.
(00:36:10.960 –> 00:36:12.060) Inglaterra não é mais.
(00:36:12.060 –> 00:36:14.520) Aí o pessoal lá da Inglaterra,
(00:36:14.520 –> 00:36:15.720) Quando entra na União Europeia,
(00:36:15.720 –> 00:36:18.300) Eles ficam na fila não dos residentes da União Europeia,
(00:36:18.300 –> 00:36:20.040) Eles têm que enfrentar a fila de todo mundo,
(00:36:20.040 –> 00:36:21.800) Mas Suíça também não é.
(00:36:21.960 –> 00:36:22.660) É engraçado.
(00:36:22.660 –> 00:36:24.420) A Suíça também não é.
(00:36:24.420 –> 00:36:25.960) Embora a Suíça tenha,
(00:36:25.960 –> 00:36:30.200) Seja conhecida justamente por hospedar sistemas,
(00:36:30.200 –> 00:36:32.080) The Privacy Friendly, de segurança,
(00:36:32.080 –> 00:36:34.180) Mais VPNs que ficam lá na Suíça,
(00:36:34.180 –> 00:36:36.520) Se vendem, mas não faz parte da Suíça.
(00:36:36.520 –> 00:36:38.740) A Suíça acho que faz parte do espaço Schengen,
(00:36:38.740 –> 00:36:39.340) Se não me engano,
(00:36:39.340 –> 00:36:42.320) Que permite que você entre,
(00:36:42.320 –> 00:36:44.640) Sem a necessidade de passar por fronteiras,
(00:36:44.640 –> 00:36:46.120) Tem o tráfego livre,
(00:36:46.120 –> 00:36:47.180) Mas acho que não faz,
(00:36:47.180 –> 00:36:49.740) Mas não faz da União Europeia.
(00:36:51.160 –> 00:36:52.620) Bom, Vinícius,
(00:36:52.620 –> 00:36:54.680) Seguindo aqui,
(00:36:54.680 –> 00:36:59.520) Nós temos também toda a questão da vigilância,
(00:36:59.520 –> 00:37:02.240) Lá no Grupo 5,
(00:37:02.240 –> 00:37:04.420) De vigilância e privacidade,
(00:37:04.420 –> 00:37:05.220) Que nós vimos,
(00:37:05.220 –> 00:37:07.680) Que me chamou bastante atenção,
(00:37:07.680 –> 00:37:09.320) Chamou bastante atenção,
(00:37:09.320 –> 00:37:13.660) Que foi o FBI solicitando a Microsoft
(00:37:13.660 –> 00:37:17.460) A entrega de chaves BitLocker.
(00:37:17.460 –> 00:37:20.720) E a gente estava conversando sobre isso antes,
(00:37:20.720 –> 00:37:23.100) Não é obrigatório,
(00:37:23.100 –> 00:37:26.540) Que você salve a chave do BitLocker na Microsoft.
(00:37:26.540 –> 00:37:26.940) Não.
(00:37:26.940 –> 00:37:27.900) Você pode salvar.
(00:37:27.900 –> 00:37:29.380) Pode não estar em outro lugar.
(00:37:30.520 –> 00:37:33.140) O que chama atenção aqui é a possibilidade,
(00:37:33.140 –> 00:37:33.740) E vejam,
(00:37:33.740 –> 00:37:35.360) Assim,
(00:37:35.360 –> 00:37:36.800) O FBI e a polícia,
(00:37:36.800 –> 00:37:39.040) Eu tenho absoluta certeza
(00:37:39.040 –> 00:37:44.300) Que todos esses órgãos de investigação,
(00:37:44.300 –> 00:37:45.220) De persecução penal,
(00:37:45.220 –> 00:37:46.440) Tem o direito de,
(00:37:46.440 –> 00:37:47.820) Eventualmente,
(00:37:47.820 –> 00:37:50.180) Por uma ordem judicial fundamentada,
(00:37:50.180 –> 00:37:52.420) Pedir acesso a nuvens,
(00:37:52.420 –> 00:37:54.300) Como é o que está acontecendo agora.
(00:37:54.560 –> 00:37:56.020) Os grandes escândalos aí,
(00:37:56.020 –> 00:37:56.820) Banco Master,
(00:37:57.240 –> 00:37:57.620) Mas, assim,
(00:37:57.620 –> 00:38:01.300) Grandes escândalos e de crimes e tal,
(00:38:01.300 –> 00:38:04.420) O pessoal acaba acessando nuvem de gente
(00:38:04.420 –> 00:38:06.180) Que deixa o WhatsApp fazendo,
(00:38:06.180 –> 00:38:07.480) Não se fala muito,
(00:38:07.480 –> 00:38:10.940) Mas que deixa o WhatsApp fazendo backup lá no Google,
(00:38:10.940 –> 00:38:11.940) Acessa o Google,
(00:38:11.940 –> 00:38:14.000) Recupera o backup e vê tudo que o cara fez,
(00:38:14.000 –> 00:38:14.720) Quem conversou,
(00:38:14.720 –> 00:38:16.020) E arquivos e tudo mais.
(00:38:16.020 –> 00:38:18.580) Mas o que chama atenção
(00:38:18.580 –> 00:38:22.160) Sobretudo como os Estados Unidos agora estão se posicionando,
(00:38:22.160 –> 00:38:23.440) Nessa parte de vigilância,
(00:38:23.440 –> 00:38:25.520) Já vem se posicionando ao longo dos últimos anos,
(00:38:25.520 –> 00:38:27.260) De repente,
(00:38:27.260 –> 00:38:30.500) O FBI pegar a tua chave do BitLocker
(00:38:30.500 –> 00:38:32.240) E tão facilmente, assim,
(00:38:32.240 –> 00:38:32.620) É isso?
(00:38:32.620 –> 00:38:35.600) Quando tu cria,
(00:38:35.600 –> 00:38:36.040) Assim,
(00:38:36.040 –> 00:38:36.940) Esse recurso,
(00:38:36.940 –> 00:38:40.220) Só quem tem são os usuários do Windows Pro,
(00:38:40.220 –> 00:38:42.100) Pra cima, tá?
(00:38:42.100 –> 00:38:42.820) Então, aquela,
(00:38:42.820 –> 00:38:44.600) O Home Edition não vai ter, tá?
(00:38:44.600 –> 00:38:46.840) E quando você,
(00:38:46.840 –> 00:38:48.960) Isso é uma prática recomendada, tá?
(00:38:48.960 –> 00:38:50.400) Principalmente em empresas.
(00:38:51.340 –> 00:38:53.140) E principalmente em notebooks,
(00:38:53.140 –> 00:38:54.800) Mas não somente em notebooks,
(00:38:54.800 –> 00:38:55.760) Mas também em desktop,
(00:38:55.760 –> 00:38:57.360) Porque desktop eventualmente estraga,
(00:38:57.360 –> 00:38:58.160) Vai pra garantia,
(00:38:58.160 –> 00:38:59.480) A gente já comentou sobre isso
(00:38:59.480 –> 00:39:01.380) Aqui no Segurança Legal.
(00:39:01.380 –> 00:39:02.240) E aí,
(00:39:02.240 –> 00:39:03.660) Todos os teus dados vão lá abertos
(00:39:03.660 –> 00:39:05.320) Pra quem quiser acessar.
(00:39:05.320 –> 00:39:07.500) É só pegar o disco e ligar numa outra máquina e acessar.
(00:39:07.500 –> 00:39:08.800) Então,
(00:39:08.800 –> 00:39:10.500) O uso do BitLocker
(00:39:10.500 –> 00:39:12.080) É um recurso bastante interessante,
(00:39:12.080 –> 00:39:14.480) Porque ele vai cifrar todo o teu disco.
(00:39:14.480 –> 00:39:15.480) Então,
(00:39:15.480 –> 00:39:18.060) Se a tua máquina eventualmente for pra uma manutenção,
(00:39:18.060 –> 00:39:19.280) Porque estragou alguma coisa,
(00:39:19.800 –> 00:39:21.320) A equipe que tá mexendo nela
(00:39:21.320 –> 00:39:23.040) Não vai conseguir acessar
(00:39:23.040 –> 00:39:24.880) Os seus dados, tá?
(00:39:24.880 –> 00:39:26.200) Bom,
(00:39:26.200 –> 00:39:26.760) Dito isso,
(00:39:26.760 –> 00:39:29.600) Quando tu faz a configuração do BitLocker,
(00:39:29.600 –> 00:39:32.280) Ele gera uma chave de recuperação,
(00:39:32.280 –> 00:39:33.380) Tá?
(00:39:33.380 –> 00:39:35.460) E essa chave tem que ser armazenada
(00:39:35.460 –> 00:39:36.400) Em algum lugar seguro.
(00:39:36.400 –> 00:39:38.980) Uma opção é tu mesmo salvar essa chave
(00:39:38.980 –> 00:39:39.860) E anotar em algum lugar.
(00:39:39.860 –> 00:39:42.320) E a opção mais..
(00:39:42.320 –> 00:39:44.340) Anotar embaixo do teclado ali.
(00:39:44.900 –> 00:39:45.680) Botar embaixo do teclado,
(00:39:45.680 –> 00:39:46.600) Embaixo do monitor também.
(00:39:46.600 –> 00:39:48.540) A opção mais na mão
(00:39:48.540 –> 00:39:50.640) É tu salvar na tua conta a Microsoft.
(00:39:50.640 –> 00:39:54.560) E o que te facilita bastante a vida,
(00:39:54.560 –> 00:39:56.260) Porque tu tem mais,
(00:39:56.260 –> 00:39:57.420) Tu tem vários computadores.
(00:39:57.420 –> 00:39:58.880) Então,
(00:39:58.880 –> 00:39:59.960) Pra um usuário normal,
(00:39:59.960 –> 00:40:00.280) Assim,
(00:40:00.640 –> 00:40:01.360) Do dia a dia,
(00:40:01.360 –> 00:40:01.660) Pô,
(00:40:01.660 –> 00:40:02.860) Ficar anotando esse negócio depois,
(00:40:02.860 –> 00:40:03.780) Não perder,
(00:40:03.780 –> 00:40:05.860) Tem que ter um gerenciador de chaves,
(00:40:05.860 –> 00:40:06.640) Alguma coisa assim.
(00:40:06.640 –> 00:40:09.620) E no momento que tu salva na Microsoft,
(00:40:09.620 –> 00:40:10.020) Bom,
(00:40:10.020 –> 00:40:11.680) A Microsoft obviamente tem acesso
(00:40:11.680 –> 00:40:13.080) A essa tua chave.
(00:40:13.080 –> 00:40:14.200) Ela não fica lá armazenada
(00:40:14.200 –> 00:40:15.880) De um jeito que eles não podem acessar,
(00:40:15.880 –> 00:40:17.240) Que seria interessante.
(00:40:17.240 –> 00:40:18.360) Pois é.
(00:40:18.360 –> 00:40:19.560) Que se frasse com a tua senha
(00:40:19.560 –> 00:40:20.500) Ou coisa parecida.
(00:40:20.500 –> 00:40:22.280) Mas eles não se preocuparam com isso,
(00:40:22.280 –> 00:40:23.220) Então a tua chave fica lá.
(00:40:23.220 –> 00:40:24.980) E a partir daí,
(00:40:24.980 –> 00:40:26.060) Se eles têm,
(00:40:26.060 –> 00:40:27.640) Se o recurso funciona desse jeito
(00:40:27.640 –> 00:40:29.040) E tá lá descrito
(00:40:29.040 –> 00:40:29.940) Que funciona desse jeito
(00:40:29.940 –> 00:40:31.100) E alguém pede pra,
(00:40:31.900 –> 00:40:33.980) Vem uma demanda judicial,
(00:40:33.980 –> 00:40:35.760) Não se trata de,
(00:40:35.760 –> 00:40:37.640) Isso é uma coisa bem importante, tá?
(00:40:37.640 –> 00:40:39.440) Não se trata de uma porta
(00:40:39.440 –> 00:40:39.940) Dos fundos,
(00:40:39.940 –> 00:40:41.040) Não se trata de um backdoor,
(00:40:41.040 –> 00:40:42.120) Tá?
(00:40:42.120 –> 00:40:42.720) É diferente,
(00:40:42.720 –> 00:40:44.180) Então não dá pra,
(00:40:44.180 –> 00:40:45.320) Mas isso é um backdoor,
(00:40:45.320 –> 00:40:45.640) A gente,
(00:40:45.640 –> 00:40:47.040) As CryptoWars,
(00:40:47.040 –> 00:40:47.760) Aquela coisa toda.
(00:40:47.760 –> 00:40:49.740) Backdoor seria se,
(00:40:49.740 –> 00:40:50.020) Tá,
(00:40:50.020 –> 00:40:50.600) Tu vai lá,
(00:40:50.600 –> 00:40:51.720) Criptografa,
(00:40:51.720 –> 00:40:52.700) Faz a tua chave,
(00:40:52.700 –> 00:40:54.800) Tu não manda pra Microsoft,
(00:40:54.800 –> 00:40:56.460) Tu salva,
(00:40:56.460 –> 00:40:57.860) Tu escreve num papel
(00:40:57.860 –> 00:40:58.680) E guarda,
(00:40:58.680 –> 00:40:59.960) Só que
(00:40:59.960 –> 00:41:01.640) A criptografia teria
(00:41:01.640 –> 00:41:02.520) Um backdoor,
(00:41:02.520 –> 00:41:02.740) Ou seja,
(00:41:02.740 –> 00:41:04.060) Teria uma chave mestra
(00:41:04.060 –> 00:41:05.920) Que a Microsoft teria acesso
(00:41:05.920 –> 00:41:07.060) E poderia abrir,
(00:41:07.060 –> 00:41:07.480) Entende?
(00:41:07.480 –> 00:41:08.800) Ou entrega essa chave pro FBI,
(00:41:09.260 –> 00:41:11.140) Poder abrir o BitLocker
(00:41:11.140 –> 00:41:12.640) De qualquer pessoa
(00:41:12.640 –> 00:41:13.340) Na face da Terra.
(00:41:13.340 –> 00:41:14.600) Isso seria
(00:41:14.600 –> 00:41:15.380) Um,
(00:41:15.380 –> 00:41:16.020) Um,
(00:41:16.020 –> 00:41:16.700) Um,
(00:41:16.700 –> 00:41:17.620) Um backdoor,
(00:41:17.620 –> 00:41:18.820) Seria um key scroll da vida.
(00:41:18.820 –> 00:41:20.640) Mas não é isso que tá acontecendo,
(00:41:20.640 –> 00:41:21.440) O que tá acontecendo é que
(00:41:21.440 –> 00:41:23.080) Se você salvar a sua chave
(00:41:23.080 –> 00:41:24.100) Lá na Microsoft,
(00:41:24.100 –> 00:41:25.080) Pelo menos isso que a gente sabe
(00:41:25.080 –> 00:41:25.640) Até agora,
(00:41:25.640 –> 00:41:27.380) Vai que surge um escândalo
(00:41:27.380 –> 00:41:28.580) Que a Microsoft tá salvando
(00:41:28.580 –> 00:41:29.540) Independente de tu pedindo.
(00:41:30.260 –> 00:41:31.540) Mas é que se tu quiser,
(00:41:31.540 –> 00:41:33.180) Tu salva a tua chave lá,
(00:41:33.180 –> 00:41:34.820) A partir daí,
(00:41:34.820 –> 00:41:35.960) Microsoft tem acesso,
(00:41:35.960 –> 00:41:37.220) Vai vir um FBI,
(00:41:38.400 –> 00:41:40.120) E solicita,
(00:41:40.960 –> 00:41:41.700) Via judicial,
(00:41:41.700 –> 00:41:42.220) Espero,
(00:41:42.220 –> 00:41:44.220) Solicita o acesso
(00:41:44.220 –> 00:41:45.200) A essa chave.
(00:41:45.720 –> 00:41:47.520) Do teu BitLocker.
(00:41:47.520 –> 00:41:47.760) Então,
(00:41:47.760 –> 00:41:49.140) Em essência,
(00:41:49.140 –> 00:41:50.320) Isso não é um backdoor,
(00:41:50.840 –> 00:41:52.160) Não é um key scroll,
(00:41:52.160 –> 00:41:52.800) Uma coisa assim.
(00:41:53.460 –> 00:41:55.480) A sacanagem aqui
(00:41:55.480 –> 00:41:56.820) É que a Microsoft
(00:41:56.820 –> 00:41:57.600) Tem acesso
(00:41:57.600 –> 00:41:58.600) À tua chave
(00:41:58.600 –> 00:41:59.520) E se ela
(00:41:59.520 –> 00:42:00.720) Consegue
(00:42:00.720 –> 00:42:02.900) Passar a chave
(00:42:02.900 –> 00:42:03.600) Pro FBI,
(00:42:03.600 –> 00:42:04.440) Ela,
(00:42:04.440 –> 00:42:05.820) Se mal intencionada
(00:42:05.820 –> 00:42:06.220) Estiver,
(00:42:06.220 –> 00:42:07.880) Ainda poderia usar
(00:42:07.880 –> 00:42:09.000) A chave para ela
(00:42:09.000 –> 00:42:09.960) Descriptografar.
(00:42:09.960 –> 00:42:11.120) O ideal
(00:42:11.120 –> 00:42:11.920) É que ela
(00:42:11.920 –> 00:42:13.860) É que tivesse um recurso,
(00:42:13.860 –> 00:42:15.420) Que ela implementasse
(00:42:15.420 –> 00:42:15.800) Um recurso
(00:42:15.800 –> 00:42:16.640) Que não permitisse
(00:42:16.640 –> 00:42:17.760) Que ela visse a chave.
(00:42:17.760 –> 00:42:18.340) Sim,
(00:42:18.340 –> 00:42:18.780) Exato.
(00:42:18.780 –> 00:42:20.140) Como se faz com senha,
(00:42:20.360 –> 00:42:21.600) Com mais a maturidade.
(00:42:21.680 –> 00:42:22.840) Teria que ter uma chave,
(00:42:22.840 –> 00:42:24.540) É claro que é um pouco complexo,
(00:42:24.540 –> 00:42:25.520) Teria que ter uma chave adicional
(00:42:25.520 –> 00:42:26.200) Para proteger,
(00:42:26.200 –> 00:42:26.820) Para cifrar
(00:42:26.820 –> 00:42:28.140) Essas chaves,
(00:42:28.140 –> 00:42:29.620) Isso teria que ser decifrado
(00:42:29.620 –> 00:42:30.680) Na máquina do usuário
(00:42:30.680 –> 00:42:31.320) Quando ele acessa,
(00:42:31.320 –> 00:42:32.280) Não pode ser decifrado
(00:42:32.280 –> 00:42:32.700) No servidor.
(00:42:32.700 –> 00:42:33.360) Então,
(00:42:33.360 –> 00:42:34.520) Se for considerar
(00:42:34.520 –> 00:42:35.220) Todas as questões
(00:42:35.220 –> 00:42:36.760) De segurança mesmo aí,
(00:42:36.760 –> 00:42:38.240) Iria complicar um pouco
(00:42:38.240 –> 00:42:38.860) A vida do usuário,
(00:42:38.860 –> 00:42:39.120) Sim,
(00:42:39.220 –> 00:42:39.760) Para fornecer
(00:42:39.760 –> 00:42:40.600) Esse nível de segurança
(00:42:40.600 –> 00:42:41.300) Que a gente está falando.
(00:42:41.300 –> 00:42:42.420) Então..
(00:42:42.420 –> 00:42:42.960) E na verdade,
(00:42:42.960 –> 00:42:44.300) O que eu me corrijo,
(00:42:44.300 –> 00:42:44.820) Que na verdade,
(00:42:44.820 –> 00:42:45.900) Ela não vai conseguir
(00:42:45.900 –> 00:42:47.040) Descriptografar
(00:42:47.040 –> 00:42:47.880) As suas informações
(00:42:47.880 –> 00:42:49.640) Porque é o teu computador físico
(00:42:49.640 –> 00:42:50.500) Que está criptografado,
(00:42:50.500 –> 00:42:51.400) Então ela vai ter acesso
(00:42:51.400 –> 00:42:51.920) À chave
(00:42:51.920 –> 00:42:53.660) E aí realmente
(00:42:53.660 –> 00:42:55.040) Só uma força policial
(00:42:55.040 –> 00:42:56.020) Que tiver acesso
(00:42:56.020 –> 00:42:56.960) Ao computador físico
(00:42:56.960 –> 00:42:57.560) É que precisaria
(00:42:57.560 –> 00:42:57.920) Dar a chave
(00:42:57.920 –> 00:42:59.460) Para descriptografá-lo.
(00:42:59.460 –> 00:43:00.060) Não ela.
(00:43:00.060 –> 00:43:01.140) E ela,
(00:43:01.140 –> 00:43:01.560) Se quiser,
(00:43:01.560 –> 00:43:02.220) Depois.
(00:43:02.220 –> 00:43:03.760) Depois que tu bota a máquina.
(00:43:05.180 –> 00:43:06.040) Ela não precisa,
(00:43:06.040 –> 00:43:07.960) Ela não precisa da chave.
(00:43:08.480 –> 00:43:10.860) Mas o que a Forbes,
(00:43:11.140 –> 00:43:12.620) Que é o que está na notícia
(00:43:12.620 –> 00:43:13.460) Que colocou,
(00:43:13.740 –> 00:43:16.500) Que Apple e Meta,
(00:43:16.500 –> 00:43:17.460) Dizem eles,
(00:43:17.460 –> 00:43:20.100) Que configuram os seus sistemas
(00:43:20.100 –> 00:43:20.940) De forma que eles
(00:43:20.940 –> 00:43:22.080) Não tenham acesso à chave.
(00:43:22.080 –> 00:43:22.620) Então, portanto,
(00:43:22.620 –> 00:43:23.540) Seriam mais seguros.
(00:43:24.100 –> 00:43:24.640) Mas, Vinícius,
(00:43:24.640 –> 00:43:24.960) Então,
(00:43:24.960 –> 00:43:26.440) Uma outra notícia
(00:43:26.440 –> 00:43:28.340) Que eu me lembrei,
(00:43:28.340 –> 00:43:29.780) Não estava na nossa pauta,
(00:43:29.780 –> 00:43:30.680) Mas eu lembrei
(00:43:30.680 –> 00:43:31.940) E pesquisei aqui,
(00:43:31.940 –> 00:43:32.720) Foi uma ação
(00:43:32.720 –> 00:43:33.500) Que foi apresentada
(00:43:33.500 –> 00:43:34.360) Lá nos Estados Unidos,
(00:43:34.360 –> 00:43:35.260) Nessa linha.
(00:43:35.260 –> 00:43:37.020) Da questão das proteções
(00:43:37.020 –> 00:43:38.200) Criptográficas
(00:43:38.200 –> 00:43:40.780) Que são vendidas.
(00:43:40.780 –> 00:43:42.580) De que uma ação judicial
(00:43:42.580 –> 00:43:43.440) Contra a Meta,
(00:43:43.440 –> 00:43:44.920) Inclusive com autores
(00:43:44.920 –> 00:43:46.160) De vários países diferentes,
(00:43:46.160 –> 00:43:47.300) Dizendo que
(00:43:47.300 –> 00:43:49.480) Eles teriam acesso
(00:43:49.480 –> 00:43:51.700) Às conversas do WhatsApp,
(00:43:51.840 –> 00:43:53.320) Mesmo criptografadas.
(00:43:53.320 –> 00:43:54.740) Eu não li,
(00:43:54.740 –> 00:43:56.000) Não fui mais a fundo
(00:43:56.000 –> 00:43:56.800) Nos argumentos
(00:43:56.800 –> 00:43:57.540) Que eles colocam,
(00:43:57.540 –> 00:43:58.380) A Meta negou,
(00:43:58.380 –> 00:43:59.780) Diz que não tem acesso,
(00:43:59.780 –> 00:44:00.420) Diz que é
(00:44:00.420 –> 00:44:03.700) Criptografia ponta a ponta.
(00:44:03.700 –> 00:44:05.360) Que é como a criptografia
(00:44:05.360 –> 00:44:06.820) Tem que ser ponta a ponta mesmo.
(00:44:06.820 –> 00:44:11.880) E que a IA leria parte do.
(00:44:11.880 –> 00:44:13.080) A IA da Meta
(00:44:13.080 –> 00:44:14.460) , Leria parte do conteúdo,
(00:44:14.460 –> 00:44:15.280) Mas somente aquilo
(00:44:15.280 –> 00:44:16.100) Que você envia
(00:44:16.100 –> 00:44:18.680) Para a própria Meta e tal,
(00:44:18.680 –> 00:44:21.280) E que seriam alegações falsas.
(00:44:21.400 –> 00:44:23.120) Não fui mais atrás disso,
(00:44:23.120 –> 00:44:23.520) Mas assim,
(00:44:23.520 –> 00:44:24.080) Apenas lembrando
(00:44:24.080 –> 00:44:25.840) Que isso está acontecendo.
(00:44:25.840 –> 00:44:26.900) Lembrando também
(00:44:26.900 –> 00:44:28.220) Que o próprio WhatsApp,
(00:44:28.220 –> 00:44:31.240) Ele é vendido.
(00:44:31.240 –> 00:44:34.340) Como usando a criptografia
(00:44:34.340 –> 00:44:36.700) Presente também no Signal.
(00:44:36.700 –> 00:44:39.100) Que faz do Signal.
(00:44:39.100 –> 00:44:40.920) Também uma ferramenta mais,
(00:44:40.920 –> 00:44:41.840) Digamos assim,
(00:44:41.840 –> 00:44:43.240) A única questão,
(00:44:43.240 –> 00:44:45.000) Reafirmo aqui.
(00:44:45.000 –> 00:44:46.680) É que quando você faz
(00:44:46.680 –> 00:44:48.640) O backup das suas conversas
(00:44:48.640 –> 00:44:50.200) Do WhatsApp no Google
(00:44:50.200 –> 00:44:51.640) Ou em outra ferramenta
(00:44:51.640 –> 00:44:52.280) De backup,
(00:44:52.280 –> 00:44:53.620) Aí sim,
(00:44:53.620 –> 00:44:55.400) Não somente forças policiais
(00:44:55.400 –> 00:44:56.300) Conseguiriam ter acesso,
(00:44:56.300 –> 00:44:57.200) Mas se alguém tem acesso
(00:44:57.200 –> 00:44:58.460) À tua conta do Google,
(00:44:58.460 –> 00:45:00.360) Além de todos os teus e-mails,
(00:45:00.360 –> 00:45:01.220) Que é algo crítico,
(00:45:01.220 –> 00:45:02.780) Conversas do WhatsApp
(00:45:02.780 –> 00:45:04.700) Talvez seja mais crítico ainda.
(00:45:04.700 –> 00:45:05.960) Porque as pessoas falam.
(00:45:05.960 –> 00:45:08.020) A forma como você usa o WhatsApp
(00:45:08.020 –> 00:45:09.120) Para assuntos,
(00:45:09.120 –> 00:45:10.400) Inclusive tem assuntos médicos
(00:45:10.400 –> 00:45:11.320) Muitas vezes.
(00:45:11.320 –> 00:45:13.640) Vai lá, conversa com o teu médico,
(00:45:13.640 –> 00:45:14.640) Pede receita,
(00:45:14.720 –> 00:45:15.640) Então todas essas coisas
(00:45:15.640 –> 00:45:16.760) Ficam lá dentro também.
(00:45:16.760 –> 00:45:18.020) Assim,
(00:45:18.020 –> 00:45:19.640) Essa ação coletiva
(00:45:19.640 –> 00:45:20.660) Que está sendo movida,
(00:45:20.660 –> 00:45:21.180) Primeiro,
(00:45:21.180 –> 00:45:23.140) O protocolo de comunicação
(00:45:23.140 –> 00:45:24.220) Do WhatsApp,
(00:45:24.220 –> 00:45:26.280) Eles usam,
(00:45:26.280 –> 00:45:27.520) É o Signal Protocol
(00:45:27.520 –> 00:45:28.600) Que foi criado pelo Moxi,
(00:45:28.600 –> 00:45:29.940) O Moxi Margin Spike,
(00:45:29.940 –> 00:45:30.540) Tá?
(00:45:30.540 –> 00:45:32.380) Fundador da Open
(00:45:32.380 –> 00:45:33.820) Wiseper Systems,
(00:45:33.820 –> 00:45:34.460) Tá?
(00:45:34.460 –> 00:45:37.300) Hoje é Signal Foundation,
(00:45:37.300 –> 00:45:37.760) Tá?
(00:45:37.760 –> 00:45:39.180) Ou Sina Foundation.
(00:45:39.180 –> 00:45:41.420) E o protocolo em si,
(00:45:41.420 –> 00:45:42.340) Ele é sólido,
(00:45:42.340 –> 00:45:43.220) Tá?
(00:45:43.860 –> 00:45:44.980) E aí nós temos
(00:45:44.980 –> 00:45:47.680) Uma primeira coisa já de cara,
(00:45:47.680 –> 00:45:49.400) Quando você interage com a IA,
(00:45:49.400 –> 00:45:53.540) Você já saiu fora desse protocolo.
(00:45:53.540 –> 00:45:53.960) Sim.
(00:45:53.960 –> 00:45:55.740) Quando você interagir com a IA,
(00:45:55.740 –> 00:45:56.760) Você já está mandando coisa
(00:45:56.760 –> 00:45:58.880) Para fora da tua conversa privada ali,
(00:45:58.880 –> 00:45:59.260) Digamos,
(00:45:59.260 –> 00:46:00.940) Tu está interagindo diretamente com a meta
(00:46:00.940 –> 00:46:02.800) E obviamente a meta vai ter acesso ao conteúdo
(00:46:02.800 –> 00:46:05.060) Até para poder passar pelos modelos
(00:46:05.060 –> 00:46:05.440) Dela lá,
(00:46:05.440 –> 00:46:06.160) Do LLM dela.
(00:46:06.160 –> 00:46:08.920) A alegação que está sendo feita
(00:46:08.920 –> 00:46:11.860) É de que existiria,
(00:46:12.140 –> 00:46:12.600) Aí sim,
(00:46:12.600 –> 00:46:14.300) Meio que uma porta dos fundos,
(00:46:14.300 –> 00:46:14.460) Tá?
(00:46:14.460 –> 00:46:17.820) Que a meta pode acionar
(00:46:17.820 –> 00:46:19.500) Por conta
(00:46:19.500 –> 00:46:22.100) E ela teria praticamente um acesso
(00:46:22.100 –> 00:46:23.080) Em tempo real
(00:46:23.080 –> 00:46:24.200) À conversa do usuário.
(00:46:24.200 –> 00:46:26.580) É isso que está sendo alegado.
(00:46:26.580 –> 00:46:27.980) Então,
(00:46:27.980 –> 00:46:28.940) Então,
(00:46:28.940 –> 00:46:29.940) Tu tens o protocolo
(00:46:29.940 –> 00:46:31.120) Signo ali em andamento,
(00:46:31.120 –> 00:46:33.580) Mas o aplicativo em si
(00:46:33.580 –> 00:46:35.340) Aceitaria uma task lá,
(00:46:35.340 –> 00:46:36.280) Uma tarefa
(00:46:36.280 –> 00:46:38.200) Que ativaria esse processo
(00:46:38.200 –> 00:46:40.540) De monitoramento das mensagens.
(00:46:40.540 –> 00:46:43.160) Se o protocolo está bem implementado
(00:46:43.160 –> 00:46:44.400) No WhatsApp,
(00:46:44.400 –> 00:46:46.100) A gente imagina que esteja,
(00:46:46.100 –> 00:46:48.320) Lembra que ele protege
(00:46:48.320 –> 00:46:49.700) A comunicação fim a fim.
(00:46:49.700 –> 00:46:51.040) Certo?
(00:46:51.040 –> 00:46:51.360) Então,
(00:46:51.360 –> 00:46:52.560) O Vinícius se comunicando
(00:46:52.560 –> 00:46:53.220) Com o Guilherme,
(00:46:53.220 –> 00:46:54.580) Só o Guilherme,
(00:46:54.580 –> 00:46:55.440) Na ponta dele,
(00:46:55.440 –> 00:46:56.800) Vai conseguir decifrar a mensagem
(00:46:56.800 –> 00:46:57.540) E ver o conteúdo.
(00:46:57.540 –> 00:46:59.060) E vice-versa
(00:46:59.060 –> 00:47:00.000) Quando o Guilherme me responde.
(00:47:00.000 –> 00:47:00.200) Então,
(00:47:00.200 –> 00:47:01.640) Quem está no meio do caminho,
(00:47:02.520 –> 00:47:03.620) A meta está no meio do caminho,
(00:47:03.620 –> 00:47:04.400) Não conseguiria ver
(00:47:04.400 –> 00:47:05.120) Essas mensagens.
(00:47:05.120 –> 00:47:06.240) Agora,
(00:47:06.240 –> 00:47:07.680) Se eles conseguem mandar
(00:47:07.680 –> 00:47:09.280) Um comando para a ponta,
(00:47:09.280 –> 00:47:11.140) Que também é deles,
(00:47:11.140 –> 00:47:12.100) Que é o aplicativo,
(00:47:12.100 –> 00:47:14.860) Aí o software pode fazer
(00:47:14.860 –> 00:47:15.360) Qualquer coisa
(00:47:15.360 –> 00:47:16.040) Que eles programarem.
(00:47:16.040 –> 00:47:17.120) Então,
(00:47:17.120 –> 00:47:17.780) O que eles estão acusando
(00:47:17.780 –> 00:47:19.980) É que existe um comando aqui
(00:47:19.980 –> 00:47:21.200) Que eles poderiam mandar
(00:47:21.200 –> 00:47:22.000) Para a ponta,
(00:47:22.000 –> 00:47:22.560) Para um endpoint,
(00:47:22.560 –> 00:47:23.160) Que seria
(00:47:23.160 –> 00:47:24.500) Ou o celular do Guilherme
(00:47:24.500 –> 00:47:24.920) Ou o meu,
(00:47:24.920 –> 00:47:26.960) E a partir daí
(00:47:26.960 –> 00:47:28.180) Acompanhar as mensagens
(00:47:28.180 –> 00:47:30.060) Praticamente em tempo real.
(00:47:30.060 –> 00:47:30.740) Então,
(00:47:30.740 –> 00:47:32.480) O protocolo continua sendo seguro,
(00:47:33.100 –> 00:47:34.620) Ninguém no meio do caminho
(00:47:34.620 –> 00:47:35.540) Consegue pegar
(00:47:35.540 –> 00:47:37.080) A tua comunicação,
(00:47:37.080 –> 00:47:38.120) Mas
(00:47:38.120 –> 00:47:39.860) A meta,
(00:47:39.860 –> 00:47:41.000) Assim como qualquer outro
(00:47:41.000 –> 00:47:42.200) Adversário na ponta,
(00:47:42.200 –> 00:47:42.720) Conseguiria
(00:47:42.720 –> 00:47:43.720) E ela tem a vantagem
(00:47:43.720 –> 00:47:45.160) De controlar o software,
(00:47:45.400 –> 00:47:45.940) Então, assim,
(00:47:45.940 –> 00:47:48.040) Controlar o software cliente
(00:47:48.040 –> 00:47:49.200) E que é um baita de um problema.
(00:47:49.200 –> 00:47:50.800) É a grande questão
(00:47:50.800 –> 00:47:52.680) Da criptografia aplicada.
(00:47:52.680 –> 00:47:53.880) Não parece ser um problema
(00:47:53.880 –> 00:47:55.140) No modelo criptográfico,
(00:47:55.140 –> 00:47:56.620) Embora a IA tenha descoberto
(00:47:56.620 –> 00:47:57.120) Esses dias
(00:47:57.120 –> 00:47:58.620) No OpenSSL
(00:47:58.620 –> 00:47:59.400) E não sei quantos
(00:47:59.400 –> 00:48:00.120) Zero Days
(00:48:00.120 –> 00:48:02.200) Numa passada ali.
(00:48:02.200 –> 00:48:03.160) Que já foram corrigidos
(00:48:03.160 –> 00:48:03.640) E tudo mais,
(00:48:03.640 –> 00:48:04.820) Mas
(00:48:04.820 –> 00:48:07.040) O perplexity
(00:48:07.040 –> 00:48:08.800) Chamou a atenção
(00:48:08.800 –> 00:48:10.540) De um fato interessante.
(00:48:10.540 –> 00:48:11.640) Vale notar
(00:48:11.640 –> 00:48:12.720) Que o escritório de advocacia
(00:48:12.720 –> 00:48:13.760) Responsável pela ação
(00:48:13.760 –> 00:48:14.320) É o mesmo
(00:48:14.320 –> 00:48:14.880) Que representa
(00:48:14.880 –> 00:48:15.780) O grupo NSO,
(00:48:15.780 –> 00:48:17.580) Criadores do Pegasus.
(00:48:17.580 –> 00:48:19.460) Em outro processo
(00:48:19.460 –> 00:48:20.800) Contra o próprio WhatsApp,
(00:48:20.800 –> 00:48:21.820) Que levanta questionamentos
(00:48:21.820 –> 00:48:22.760) Sobre os interesses
(00:48:22.760 –> 00:48:23.380) Por trás
(00:48:23.380 –> 00:48:24.280) Da ação,
(00:48:24.280 –> 00:48:24.620) Claro,
(00:48:24.620 –> 00:48:25.260) O caso ainda
(00:48:25.260 –> 00:48:27.040) Não foi julgado.
(00:48:29.020 –> 00:48:29.940) Vamos ver o que vai
(00:48:29.940 –> 00:48:31.300) Aparecer aí,
(00:48:31.300 –> 00:48:32.120) Daqui a pouco
(00:48:32.120 –> 00:48:34.180) Daqui a pouco
(00:48:34.180 –> 00:48:35.160) Se mostra
(00:48:35.160 –> 00:48:35.680) Que de fato
(00:48:35.680 –> 00:48:36.740) Os caras tinham esse acesso,
(00:48:36.960 –> 00:48:37.360) Vai saber.
(00:48:38.380 –> 00:48:39.720) Diz que parece
(00:48:39.720 –> 00:48:40.680) Que teria evidências
(00:48:40.680 –> 00:48:42.380) No código,
(00:48:42.380 –> 00:48:43.700) Alguma coisa assim,
(00:48:43.700 –> 00:48:44.520) Mas enfim,
(00:48:44.520 –> 00:48:46.340) Não vimos essas evidências.
(00:48:46.340 –> 00:48:47.340) Vinícius,
(00:48:47.340 –> 00:48:48.560) Aqui no Brasil
(00:48:48.560 –> 00:48:49.000) Gosta,
(00:48:49.000 –> 00:48:49.760) O pessoal gosta
(00:48:49.760 –> 00:48:50.500) De dizer que o ano
(00:48:50.500 –> 00:48:51.020) Só começa
(00:48:51.020 –> 00:48:52.140) Depois do carnaval.
(00:48:52.480 –> 00:48:53.160) Então como
(00:48:53.160 –> 00:48:55.040) Já passou o carnaval,
(00:48:55.040 –> 00:48:56.180) A gente pode mais uma vez
(00:48:56.180 –> 00:48:57.340) Dizer feliz ano novo
(00:48:57.340 –> 00:48:58.260) Para os nossos ouvintes.
(00:48:58.260 –> 00:49:00.820) É um antes e um depois.
(00:49:00.820 –> 00:49:04.080) E estamos de volta.
(00:49:04.080 –> 00:49:05.100) Vamos ver se a gente consegue
(00:49:05.100 –> 00:49:05.720) Agora manter
(00:49:05.720 –> 00:49:08.220) A cadência semanal
(00:49:08.220 –> 00:49:09.100) Aí de gravações
(00:49:09.100 –> 00:49:10.760) E esperamos que,
(00:49:10.760 –> 00:49:11.740) Não sei se você tem
(00:49:11.740 –> 00:49:12.540) Mais alguma observação,
(00:49:12.540 –> 00:49:12.920) Vinícius,
(00:49:12.920 –> 00:49:14.080) Já vou terminando também.
(00:49:14.080 –> 00:49:14.940) Não, não,
(00:49:14.940 –> 00:49:15.400) É isso aí.
(00:49:15.400 –> 00:49:16.380) A gente já está,
(00:49:16.380 –> 00:49:16.800) Inclusive,
(00:49:16.800 –> 00:49:18.100) Chegando no meio-dia.
(00:49:18.100 –> 00:49:19.520) A gente teve vários
(00:49:19.520 –> 00:49:20.660) Problemas técnicos hoje
(00:49:20.660 –> 00:49:21.700) Ao longo da gravação.
(00:49:22.240 –> 00:49:22.760) Exato.
(00:49:22.760 –> 00:49:24.260) Assim,
(00:49:24.260 –> 00:49:25.540) É ruim quando a gente
(00:49:25.540 –> 00:49:26.060) Fica muito tempo
(00:49:26.060 –> 00:49:26.560) Sem gravar.
(00:49:26.560 –> 00:49:27.840) Aí algumas coisas
(00:49:27.840 –> 00:49:28.940) Mudam de versão
(00:49:28.940 –> 00:49:30.640) E já atrapalham a vida.
(00:49:30.640 –> 00:49:32.080) Se a gente está
(00:49:32.080 –> 00:49:32.820) Gravando toda hora,
(00:49:32.820 –> 00:49:34.700) A mudança é mais suave
(00:49:34.700 –> 00:49:36.760) Do que desse jeito.
(00:49:36.760 –> 00:49:38.460) Mas de qualquer forma,
(00:49:38.460 –> 00:49:38.960) Deu tudo certo.
(00:49:38.960 –> 00:49:39.620) Não, tudo certo.
(00:49:39.620 –> 00:49:41.100) Se você está ouvindo.
(00:49:41.100 –> 00:49:44.220) Esperamos que esteja ouvindo,
(00:49:44.220 –> 00:49:45.160) Senão vai ficar algo..
(00:49:45.160 –> 00:49:45.300) Esperamos que sim.
(00:49:45.300 –> 00:49:47.300) Então nos encontraremos
(00:49:47.300 –> 00:49:48.660) Agora no próximo episódio
(00:49:48.660 –> 00:49:49.280) Do podcast
(00:49:49.280 –> 00:49:50.660) Segurança Legal.
(00:49:50.660 –> 00:49:51.800) Até a próxima!
(00:49:52.000 –> 00:49:53.420) Até a próxima!
By Guilherme Goulart e Vinícius Serafim4
77 ratings
Neste episódio falamos sobre os principais temas de segurança digital e privacidade das últimas semanas, abordando assuntos que você precisa conhecer para entender o cenário atual da proteção de dados, segurança infantil online e inteligência artificial. Você vai descobrir como o Roblox e o Discord lidam com a verificação de idade e proteção de crianças na internet, incluindo os riscos de predadores digitais, mecanismos psicológicos de retenção e a ausência de controles parentais eficazes. Também abordamos o polêmico caso do Grok no X (antigo Twitter) gerando imagens de nudez de mulheres e menores de idade sem guardrails, e as medidas tomadas pela ANPD, Ministério Público Federal e Senacon contra a plataforma. Discutimos o acordo de adequação mútua entre Brasil e União Europeia em proteção de dados pessoais e o que isso representa para transferências internacionais de dados e oportunidades comerciais. Ainda comentamos a solicitação do FBI à Microsoft pelas chaves de criptografia BitLocker, a ação judicial contra a Meta por suposto acesso às mensagens criptografadas do WhatsApp, o fenômeno das personas digitais criadas por IA, como a “Aboriginal Steve Irwin”, e os deepfakes com celebridades. Por fim, apresentamos a WhisperSafe, novo patrocinador do podcast, um software de transcrição local com privacidade em foco, usando modelos Whisper da OpenAI sem envio de dados para a nuvem.
Assine o podcast para não perder nenhum episódio, deixe sua avaliação nas plataformas e siga o Segurança Legal no Instagram, Mastodon, Blue Sky, YouTube e TikTok. Apoie o projeto independente em apoia.se/segurancalegal.
Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana.
Acesse WhisperSafe – Transcreva áudio e grave reuniões direto no seu computador, mesmo offline. Rápido, leve e pronto para usar com qualquer IA. Use o cupom SEGLEG50 para 50% de desconto na sua assinatura.
ShowNotes
Imagem do Episódio – Children’s Games (Bruegel)
Transcrição do Episódio
(00:00:08.000 –> 00:00:17.500) Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 411, gravado em 24 de fevereiro de 2026.
(00:00:17.500 –> 00:00:22.920) Eu sou Guilherme Goulart e junto com o Vinícius Serafim vamos trazer para vocês algumas notícias das últimas semanas.
(00:00:22.920 –> 00:00:24.440) E aí, Vinícius, tudo bem?
(00:00:24.440 –> 00:00:27.940) Olá, Guilherme, tudo bem?
(00:00:24.440 –> 00:00:27.940) Olá aos nossos ouvintes.
(00:00:28.180 –> 00:00:30.600) Você estava com saudade de gravar ou não?
(00:00:30.600 –> 00:00:39.160) Cara, eu já estava até duvidando da minha capacidade de gravar de novo, porque a gente passou quase..
(00:00:30.600 –> 00:00:39.160) Vai fechar dois..
(00:00:39.160 –> 00:00:40.820) Um mês e pouco.
(00:00:40.820 –> 00:00:45.280) O último foi ali em janeiro, não foi?
(00:00:45.280 –> 00:00:46.720) Foi em janeiro que a gente gravou.
(00:00:46.720 –> 00:00:51.000) Agora você me pegou, você me pegou no contrapé.
(00:00:51.000 –> 00:00:57.820) Mas nós gravamos o episódio 410 da Retrospectiva, que se você não ouviu, está lá no dia 6 de janeiro.
(00:00:58.180 –> 00:01:02.100) De 2026.
(00:00:58.180 –> 00:01:02.100) Retrospectiva 2025.
(00:01:03.780 –> 00:01:07.380) Bem, então, esse é o nosso momento de conversarmos sobre algumas notícias.
(00:01:07.380 –> 00:01:10.240) Pegue o seu café e venha conosco para entrar em contato.
(00:01:10.240 –> 00:01:18.760) Vocês já sabem, é lá no podcast.roba.segurançalegal.com, no Mastodon, no Instagram, no Blue Sky, no YouTube e no TikTok também.
(00:01:18.760 –> 00:01:24.520) Você pode ver que tanto no TikTok quanto no YouTube você consegue ver também uns shorts lá que aparecem no Instagram também.
(00:01:24.900 –> 00:01:30.420) A nossa campanha de financiamento coletivo, vocês já sabem, lá no apoia.se barra segurança legal.
(00:01:30.420 –> 00:01:36.940) A gente sempre pede que você considere colaborar com esse projeto independente de proteção de conteúdo.
(00:01:36.940 –> 00:01:41.960) E, Vinícius, temos uma novidade que é um novo patrocinador aqui no Segurança Legal.
(00:01:42.500 –> 00:01:43.520) É isso aí, Guilherme.
(00:01:43.520 –> 00:01:54.360) Tem a WhisperSafe, na verdade, o produto da WhisperSafe de uma startup que nós conhecemos, inclusive o dono da startup.
(00:01:54.360 –> 00:02:04.360) É um software para transcrição de voz com um valor bastante acessível comparado com outros que tem no mercado.
(00:02:05.420 –> 00:02:08.640) Ele faz transcrição tanto..
(00:02:08.640 –> 00:02:13.760) Eu tenho usado muito para fazer, para mandar comandos para IA.
(00:02:13.760 –> 00:02:17.060) Eu fazia prompt tudo estruturadinho, digitando e tal.
(00:02:17.060 –> 00:02:26.200) Agora, para programar, para criar scripts, criar alguns programas, para fazer alguns testes, eu tenho utilizado essencialmente ele para digitar.
(00:02:26.200 –> 00:02:34.080) E tem uma funcionalidade muito interessante, que é a gravação e transcrição de reuniões, que eu também tenho utilizado.
(00:02:35.220 –> 00:02:40.820) Independente do software que você utiliza, você abre ele, clica gravar a reunião, ele vai gravar todo o áudio da reunião.
(00:02:40.820 –> 00:02:48.280) E depois que ele grava e você aperta lá o botãozinho para transcrever, ele te dá uma..
(00:02:48.280 –> 00:02:53.000) Ele tanto gera um arquivo com a transcrição bruta, se tu quiser usar com alguma IA,
(00:02:53.000 –> 00:03:04.160) Como ele já deixa na área de transferência a tua transcrição com um prompt montado para te colar na IA que tu quer utilizar para fazer um resumo da tua reunião.
(00:03:04.160 –> 00:03:07.500) Então, termina a reunião, cola na IA e pimba.
(00:03:07.500 –> 00:03:16.880) O valor dele é um valor bastante acessível e, para os ouvintes do Segurança Legal, nós temos 20 cupons.
(00:03:17.840 –> 00:03:28.700) O cupom é SEGLEG50, ele dá 50% de desconto vitalício, digamos assim.
(00:03:28.700 –> 00:03:35.360) Você faz a assinatura, aplica o desconto, se fizer mensal ele vai aplicar a todos os pagamentos mensais
(00:03:35.360 –> 00:03:40.080) E, se for anual, ele vai aplicar a todos os pagamentos anuais.
(00:03:40.080 –> 00:03:44.540) Então, não é um desconto que vale só no primeiro ano ou só no primeiro pagamento.
(00:03:44.540 –> 00:03:48.460) SEGLEG50 para os ouvintes do Segurança Legal.
(00:03:49.080 –> 00:03:55.520) São 20 cupons, são 20 cupons que a gente tem aí, pelo menos para este episódio.
(00:03:55.520 –> 00:04:01.320) E o mais importante, Vinícius, ele é um aplicativo que é construído com privacidade em foco.
(00:04:01.320 –> 00:04:06.820) Ou seja, se você, os dados e toda a parte de transcrição, ela fica só na sua máquina,
(00:04:06.820 –> 00:04:11.020) Não vai para a nuvem, a não ser que você queira depois usar isso no MyA e tal,
(00:04:11.020 –> 00:04:14.580) Mas, assim, para assuntos mais críticos.
(00:04:14.580 –> 00:04:18.560) Se você quiser ter lá para fazer uma ata depois, isso fica só na sua máquina.
(00:04:18.560 –> 00:04:24.280) Ele faz, ele usa os modelos da Whisper, isso está lá na interface, está muito claro.
(00:04:24.280 –> 00:04:31.040) Ele usa os modelos da, os modelos Whisper da OpenAI, que são modelos que rodam local na máquina.
(00:04:31.040 –> 00:04:35.460) E o interessante é que tu não precisa nem ter uma placa de vídeo, não precisa ter GPU nem nada,
(00:04:35.460 –> 00:04:39.280) Ele funciona muito bem, eu testei no meu notebook, não tem placa de vídeo dedicada.
(00:04:40.700 –> 00:04:45.580) E funcionou muito bem, assim, ele é bastante rápido.
(00:04:45.580 –> 00:04:52.320) E eu tenho feito os testes até para ver a questão de velocidade, já que tem os modelos disponíveis lá.
(00:04:52.320 –> 00:04:55.000) Eu estava usando sempre o Turbo, assim, vou usar o melhor.
(00:04:55.000 –> 00:05:00.500) Aí eu resolvi começar a usar o Medium e o Small lá dos modelos.
(00:05:00.500 –> 00:05:04.580) E, cara, o Small, ele dá umas erradas, assim, sabe?
(00:05:04.580 –> 00:05:06.260) Mas o Medium funciona muito bem.
(00:05:06.260 –> 00:05:08.060) Tá bom.
(00:05:08.840 –> 00:05:15.480) Então, basta você acessar o whispersafe.ai.ai, você vai ver lá todos os valores.
(00:05:15.480 –> 00:05:19.920) Na hora do pagamento, pode usar o cupom SEGLEG50 e vamos lá.
(00:05:19.920 –> 00:05:24.080) Bem-vindos, então, ao novo patrocinador do podcast Segurança Legal.
(00:05:24.080 –> 00:05:30.480) Vamos para os temas, então, Vinícius, desses últimos dois meses, dá para se dizer aí.
(00:05:30.480 –> 00:05:32.680) Hoje já estamos aí no dia 24 de fevereiro.
(00:05:32.680 –> 00:05:44.260) Bastante coisa acontecendo, mas nós vamos, em vez de comentar propriamente as notícias, claro que nós vamos citá-las aqui, mas nós dividimos em alguns grupos.
(00:05:44.340 –> 00:05:49.420) De temas que nos chamaram a atenção e que também foram temas importantes aí nas últimas semanas.
(00:05:49.420 –> 00:05:53.860) O primeiro deles diz respeito à questão da proteção da criança na internet.
(00:05:53.860 –> 00:05:56.400) Proteção digital, sobretudo em plataformas.
(00:05:56.400 –> 00:06:00.200) Você que nos acompanha aqui sabe que a questão da proteção de criança é importante.
(00:06:00.200 –> 00:06:04.860) A gente tem diversos, para esse podcast, a gente tem diversos episódios gravados sobre isso.
(00:06:05.100 –> 00:06:11.420) Chegamos a comentar, inclusive, um episódio mais recente também sobre o ECA Digital, Vinícius, se você puder ver o número aí para nós.
(00:06:11.420 –> 00:06:24.280) E, basicamente, o que nós estamos vendo mais recentemente é toda uma questão sobre como tornar essas plataformas, os problemas envolvendo plataformas utilizadas por crianças.
(00:06:24.280 –> 00:06:33.320) E cada vez mais as crianças têm usado, seja o discórdio, mas aqui o foco dessas notícias é o Roblox.
(00:06:33.320 –> 00:06:38.740) Então, se você tem filho, provavelmente já ouviu falar sobre Roblox, que é um jogo.
(00:06:38.740 –> 00:06:44.020) Dá para dizer que é um jogo, mas que simula quase como um ambiente, assim.
(00:06:38.740 –> 00:06:44.020) Virtual.
(00:06:44.020 –> 00:06:47.600) Eu cheguei a jogar ele logo que ele apareceu.
(00:06:47.600 –> 00:06:52.020) Assim, não tão logo, mas os colegas do meu filho começaram a jogar.
(00:06:52.020 –> 00:06:54.900) Ai, meu filho veio com essa história do Roblox.
(00:06:54.900 –> 00:06:57.140) E aí, disse, não, beleza, vamos ver.
(00:06:57.140 –> 00:06:58.860) Aí eu entrei com ele.
(00:06:59.320 –> 00:07:02.180) Cara, é um ambiente, é um ambiente virtual.
(00:07:02.180 –> 00:07:08.400) Para mim, me lembrou muito aquele Second Life, tá ligado?
(00:07:08.400 –> 00:07:09.320) Sim, Second Life.
(00:07:09.320 –> 00:07:11.100) Me lembrou muito aquilo, então.
(00:07:11.100 –> 00:07:15.880) E aí, dentro, tu tem espaços.
(00:07:15.880 –> 00:07:19.980) Que tu acessa aplicações, jogos e tudo mais.
(00:07:19.980 –> 00:07:22.560) Tu pode criar, inclusive, e tal.
(00:07:22.700 –> 00:07:26.080) E aí, ele tem uma moeda interna no jogo, tá?
(00:07:26.080 –> 00:07:28.080) Ele tem grana envolvida.
(00:07:28.080 –> 00:07:36.080) E, cara, em cinco minutos de Fussaclo ali, eu larguei para o meu filho, ó, tem jogos melhores
(00:07:36.080 –> 00:07:36.640) Para te jogar.
(00:07:36.640 –> 00:07:39.060) Tu não vai jogar isso aqui.
(00:07:39.060 –> 00:07:44.520) Justamente porque é um ambiente, eu percebi, o que eu percebi de cara, e se confirmou depois,
(00:07:44.520 –> 00:07:47.180) Um ambiente muito descontrolado, entende?
(00:07:47.680 –> 00:07:56.360) Um ambiente muito descontrolado, com muita, assim, nomes estranhos de personagens, todo
(00:07:56.360 –> 00:08:03.060) Mundo pode se comunicar com todo mundo, então, é um negócio bem estranho.
(00:08:03.060 –> 00:08:04.880) Pelo menos, era.
(00:08:04.880 –> 00:08:06.060) A percepção.
(00:08:06.060 –> 00:08:06.260) Não entrei mais para jogar.
(00:08:06.260 –> 00:08:11.720) Mas aí, pelo que a gente vê agora nas reações e notícias e tudo mais, pelo visto,
(00:08:11.720 –> 00:08:12.580) Continua estranho.
(00:08:12.580 –> 00:08:13.620) Continua estranho.
(00:08:13.620 –> 00:08:18.880) O, o, a grande questão aqui é que, por fora, e isso está acontecendo no mundo
(00:08:18.880 –> 00:08:20.140) Inteiro, não é só no Brasil.
(00:08:20.140 –> 00:08:23.820) No Brasil, por conta do ECA Digital, mas assim, começa..
(00:08:23.820 –> 00:08:24.660) Episódio 400, viu, Guilherme?
(00:08:24.660 –> 00:08:25.940) Tá, legal.
(00:08:25.940 –> 00:08:26.660) Episódio 400, isso é legal.
(00:08:26.660 –> 00:08:32.380) É que começa a se ampliar toda a discussão de como você fazer a verificação de idade
(00:08:32.380 –> 00:08:34.120) De pessoas nessas plataformas.
(00:08:34.120 –> 00:08:41.000) Então, aqui a gente junta nesse mesmo pacote o Roblox e também o Discord.
(00:08:41.360 –> 00:08:43.840) E aí, uma coisa muito interessante.
(00:08:43.840 –> 00:08:48.460) Que gerou, assim, até um fenômeno social, me parece que relevante.
(00:08:48.460 –> 00:08:52.160) Crianças começaram a protestar lá, porque as crianças seriam os beneficiários.
(00:08:52.160 –> 00:08:56.820) Mas começaram a protestar por conta das novas medidas de verificação de idade.
(00:08:56.820 –> 00:08:59.280) Aí, o Felca foi alvo de protesto e tal.
(00:08:59.280 –> 00:09:05.920) E tem as crianças lá, simulando um protesto, segurando cartazes lá dentro do Roblox.
(00:09:07.520 –> 00:09:11.380) Saíram também notícias dizendo, e aí, mais ou menos na tua percepção, Vinícius,
(00:09:11.380 –> 00:09:16.720) De que o Roblox, como acontece com grandes plataformas, ele teria uma lógica de cassino,
(00:09:16.720 –> 00:09:21.860) Ou seja, as crianças ficariam ali, utilizariam gatilhos psicológicos,
(00:09:21.860 –> 00:09:26.860) Como já ocorre em redes sociais, para que as crianças ficassem mais tempo lá dentro.
(00:09:26.860 –> 00:09:33.160) E aí, também começou a se ventilar de que predadores sexuais estariam dentro do Roblox,
(00:09:33.160 –> 00:09:36.760) Se fazendo passar por crianças.
(00:09:33.160 –> 00:09:36.760) Disfarçados aí.
(00:09:36.760 –> 00:09:40.700) Nos Estados Unidos, isso é um problema bem sério lá, justamente com isso.
(00:09:40.700 –> 00:09:52.020) E teve o CEO do Roblox, ele teve lá no episódio do The Hard Fork.
(00:09:53.020 –> 00:09:59.060) Eu já vejo o número de episódios aqui, mas o nome do CEO é Dave Bazzucchi, tá?
(00:09:59.060 –> 00:10:06.020) E, cara, o pessoal do The Hard Fork tentou, assim, impressionou, foi uma coisa que ficou até tenso, sabe?
(00:10:06.020 –> 00:10:08.940) Não é normal, assim, tu ver esse episódio do The Hard Fork desse jeito.
(00:10:08.940 –> 00:10:14.100) E o cara sempre saindo pela tangente, assim, e perguntas bem diretas.
(00:10:14.460 –> 00:10:21.300) Em termos de controle de comunicação, a questão de deixar adultos falar com crianças, assim, várias coisas.
(00:10:21.300 –> 00:10:23.420) E ele sempre dando evasiva.
(00:10:23.420 –> 00:10:26.320) Ele não..
(00:10:23.420 –> 00:10:26.320) Assim, foi muito ruim, sabe?
(00:10:26.320 –> 00:10:32.020) A impressão que tu tens é que o cara foi ali para tentar se justificar,
(00:10:32.020 –> 00:10:35.280) Não aceitando os problemas que ele tem na plataforma.
(00:10:35.280 –> 00:10:38.800) Isso o CEO da própria Roblox, sabe?
(00:10:38.800 –> 00:10:40.320) Na própria empresa.
(00:10:40.320 –> 00:10:50.300) Então, isso me deixou ainda mais convencido de que é uma empresa que não tem preocupação nenhuma
(00:10:50.300 –> 00:10:54.240) Com essa questão de segurança de crianças e tudo mais, entende?
(00:10:54.240 –> 00:10:55.540) É bem delicado.
(00:10:55.540 –> 00:10:58.760) Se o pessoal já se preocupa com o Discord, o Roblox é muito pior.
(00:10:58.760 –> 00:11:00.000) É muito pior.
(00:11:00.000 –> 00:11:03.140) Em termos de possibilidades de comunicação.
(00:11:03.140 –> 00:11:06.380) É uma reportagem aqui da Folha de São Paulo.
(00:11:06.420 –> 00:11:10.920) Pelo Daniel Mariani, ele destaca justamente isso.
(00:11:10.920 –> 00:11:13.660) Inclusive de monetização.
(00:11:13.660 –> 00:11:18.120) Práticas predatórias em games e monetiza compulsão e frustrações.
(00:11:18.120 –> 00:11:22.720) Explora mecanismos psicológicos como medo de ficar fora da plataforma.
(00:11:22.720 –> 00:11:25.060) Ficar de fora e perda de noção de tempo.
(00:11:25.060 –> 00:11:27.540) Então, ele conta uma historinha que ele sai com o filho e o filho diz
(00:11:27.540 –> 00:11:31.600) Olha, nós temos que voltar até tal hora porque vai acontecer um evento lá no Roblox
(00:11:31.600 –> 00:11:34.920) E eu preciso estar lá e enfim.
(00:11:35.800 –> 00:11:42.840) E aí, a crítica toda é também de que haveria uma falta de vontade, digamos assim,
(00:11:42.840 –> 00:11:46.920) Da empresa de adotar controles parentais e também a questão da verificação da idade.
(00:11:46.920 –> 00:11:52.820) E a verificação da idade que começa agora também a ficar mais presente agora em março.
(00:11:52.820 –> 00:11:55.440) Tudo indica que vai acontecer também no Discord.
(00:11:55.720 –> 00:11:57.760) Então, isso..
(00:11:57.760 –> 00:12:01.500) E também o Discord, Vinícius, se você quiser falar logo a seguir,
(00:12:01.500 –> 00:12:07.160) Mas o Discord também aplicando novas formas de controle parental.
(00:12:07.160 –> 00:12:11.440) Mas a grande discussão, e mais uma vez, isso está acontecendo no Brasil e no mundo, é
(00:12:11.440 –> 00:12:17.200) Mas qual vai ser ou quais serão as medidas de controle de identidade.
(00:12:18.080 –> 00:12:27.420) Então, se fala em biometria facial, se fala em envio de documentos e tal, e aí a grande preocupação que se coloca
(00:12:27.420 –> 00:12:33.320) É no aumento das práticas de vigilância sobre como, que as empresas vão lidar com isso,
(00:12:33.320 –> 00:12:39.040) Sobre o fato de a biometria facial ser um dado sensível, que poderia ser utilizado para outras sinalidades.
(00:12:39.040 –> 00:12:47.020) Uma das notícias aqui mostra que o próprio Discord estava usando uma empresa lá, ou contratou uma empresa de verificação
(00:12:47.020 –> 00:12:53.380) Que tinha conexões, que é a tal da persona lá, conexões no site deles, dizia mesmo
(00:12:53.380 –> 00:12:55.840) This is a US government system.
(00:12:55.840 –> 00:13:01.240) Mas aí que tá, Guilherme, assim, a gente tem um problema bem sério para resolver aí, tá?
(00:13:01.240 –> 00:13:08.060) Porque ao mesmo tempo que se quer que as empresas consigam fazer a verificação de idade,
(00:13:09.040 –> 00:13:11.160) E aí sim, é ok.
(00:13:11.160 –> 00:13:12.660) O que que eu faço essa verificação de idade?
(00:13:12.660 –> 00:13:17.000) O que que eu faço de um jeito que eu consiga ter um mínimo de confiança
(00:13:17.000 –> 00:13:20.060) De que a criatura não tá mentindo pra mim, que o Zora não tá mentindo pra mim
(00:13:20.060 –> 00:13:22.420) E tá entrando com menos de 13 ou coisa parecida?
(00:13:22.420 –> 00:13:25.660) Então, eu preciso uma forma de verificar isso.
(00:13:25.660 –> 00:13:28.400) Tu vai verificar como?
(00:13:28.400 –> 00:13:30.080) Imagina a própria empresa.
(00:13:30.080 –> 00:13:34.680) Ela vai usar reconhecimento facial para tentar identificar a idade?
(00:13:34.680 –> 00:13:36.440) Ela vai pedir documentação?
(00:13:38.360 –> 00:13:40.020) Não sei se isso é bom, se é ruim, entende?
(00:13:40.020 –> 00:13:42.000) Eu só tô com o problema.
(00:13:42.000 –> 00:13:46.220) Aí, o ideal, eu não gostaria de ficar dando minha identidade pra tudo quanto é empresa.
(00:13:46.220 –> 00:13:50.460) Então, uma outra opção o governo tem as informações.
(00:13:50.460 –> 00:13:54.360) Uma agência governamental tem as informações, as nossas informações.
(00:13:54.360 –> 00:13:55.580) Sabe a idade que a gente tem.
(00:13:55.580 –> 00:13:57.540) Tem toda a comprovação de quem a gente é.
(00:13:58.220 –> 00:14:07.340) Será que não dá pra ter um protocolo que, de forma anônima, eu acesso um site e esse site
(00:14:07.340 –> 00:14:15.160) Conversa com o site do governo e aí eu converso com o site do governo e digo, gera aí um token
(00:14:15.160 –> 00:14:21.420) Pra mim, eu sou fulano, gera um token dizendo que eu tenho mais de 18 anos ou tem mais de 13
(00:14:21.420 –> 00:14:22.460) Ou coisa parecida.
(00:14:22.460 –> 00:14:27.360) Parecido com o que a gente já faz no Alt pra fazer autenticação quando a gente usa o Google e tudo mais.
(00:14:27.360 –> 00:14:31.720) Parecido com isso, mas em vez de dizer quem nós somos, ele diz que idade que a gente tem.
(00:14:31.720 –> 00:14:32.860) Tá?
(00:14:32.860 –> 00:14:36.000) Só que daí tu tem vários outros problemas.
(00:14:36.000 –> 00:14:38.380) Ok, o site pode não saber quem tu é por ali.
(00:14:38.380 –> 00:14:39.360) Não tem problema.
(00:14:39.360 –> 00:14:41.460) E aí tem outro jeito de saber quem tu mas enfim.
(00:14:41.460 –> 00:14:43.180) Até porque você vai ter um cadastro lá.
(00:14:43.240 –> 00:14:43.960) Exato.
(00:14:43.960 –> 00:14:51.560) Então assim, ok, ao mesmo tempo tu vai estar dizendo pro governo o que que tu tá acessando.
(00:14:51.560 –> 00:14:57.260) Então se o governo começar a registrar lá na hora de consultar quem tá consultando o teu cadastro
(00:14:57.260 –> 00:15:00.900) Ou pra quem tu tá se autenticando, ele sabe o que que tu tá acessando.
(00:15:00.900 –> 00:15:06.060) E aí teve um problema recente, a gente chegou a comentar aqui, eu só não lembro se foi na
(00:15:06.060 –> 00:15:10.120) Inglaterra especificamente ou foi na União Europeia, tá?
(00:15:10.120 –> 00:15:11.900) E se eu não tô enganado, foi na Inglaterra, cara.
(00:15:11.900 –> 00:15:19.940) Mas eles estavam com a demanda de, pra acessar site pornográfico, tu tem que dar a tua
(00:15:19.940 –> 00:15:23.300) Identificação real, tá?
(00:15:23.300 –> 00:15:28.080) Pra que o site tenha certeza de que tu é o maior de idade.
(00:15:28.080 –> 00:15:36.360) E aí começou uma outra discussão da questão da privacidade das pessoas que acessam
(00:15:36.360 –> 00:15:37.600) Esses sites e tudo mais.
(00:15:38.100 –> 00:15:46.060) Então eu não vejo uma solução perfeita, assim, que empresa privada não guarde as informações
(00:15:46.060 –> 00:15:48.760) Ou não tem um repositório de informações pra fazer isso.
(00:15:48.760 –> 00:15:52.560) Tem uma solução que já é conhecida que é uma chamada, com a chamada Meu ID.
(00:15:52.560 –> 00:15:59.420) Eu uso pra algumas plataformas de jogos, que a ideia é justamente essa, tu se autentica
(00:15:59.420 –> 00:16:04.100) Com a plataforma, com a tua documentação, faz prova, faz o esquema da imagem e tudo mais.
(00:16:04.100 –> 00:16:06.140) Aí tu usa ela pra se autenticar uma plataforma.
(00:16:06.140 –> 00:16:11.660) Então, ou a gente vai ter que ter uma empresa como essa, ou vai ter que vincular com algum
(00:16:11.660 –> 00:16:12.500) Órgão do governo.
(00:16:12.500 –> 00:16:18.140) Eu não vejo uma saída diferente pro Discord, por exemplo.
(00:16:18.140 –> 00:16:21.540) Eu não vejo uma saída diferente pro Facebook.
(00:16:22.220 –> 00:16:27.240) Como é que eu vou autenticar, como é que eu vou saber que o usuário tem mais certa idade,
(00:16:27.240 –> 00:16:37.040) Sem que eu possa ser enganado e sem pedir uma confirmação mais consistente, documental,
(00:16:37.040 –> 00:16:43.280) Nem que seja interfaceada ou intermediada pelo governo ou por uma empresa privada,
(00:16:44.460 –> 00:16:49.760) Que diga, não, Vinícius realmente tem mais de 13 anos.
(00:16:49.760 –> 00:16:51.620) É um problema não.
(00:16:51.620 –> 00:16:53.520) Eu não vejo uma solução fácil pra isso.
(00:16:53.520 –> 00:16:55.720) É um problema de privacidade.
(00:16:55.720 –> 00:17:01.940) Essa questão que eu comentei aqui desse persona que o Discord tava usando,
(00:17:01.940 –> 00:17:05.660) A grande questão era que era um negócio quase como um data broker de verificação
(00:17:05.660 –> 00:17:11.980) Que iria ser utilizado para fins de vigilância estatal.
(00:17:11.980 –> 00:17:17.900) E aí o Discord, depois que isso vira notícia, eles voltam atrás.
(00:17:17.900 –> 00:17:19.940) Eles dizem, nós não vamos mais usar isso.
(00:17:19.940 –> 00:17:21.100) Ou seja, assim, tiram.
(00:17:21.100 –> 00:17:23.000) O problema é um problema de privacidade.
(00:17:23.000 –> 00:17:27.280) Você poderia, eu imagino, Vinícius, que se todo mundo tivesse,
(00:17:27.280 –> 00:17:31.960) Levasse proteção de dados a sério, você poderia sim ter um protocolo
(00:17:31.960 –> 00:17:36.560) Em que empresas e Estado poderiam fornecer um meio de autenticação
(00:17:36.560 –> 00:17:39.540) Privacy-friendly.
(00:17:39.540 –> 00:17:43.860) Ou seja, sem a coleta de informações sobre quem acessou o quê.
(00:17:43.860 –> 00:17:48.360) Eles, ambos os lados, ou todos os lados, deveriam abrir mão disso.
(00:17:48.360 –> 00:17:53.080) Mas nós sabemos que no estado atual de coisas, isso não vai acontecer.
(00:17:53.080 –> 00:17:53.800) É o contrário.
(00:17:53.800 –> 00:17:57.440) O que essa notícia mostra é que as empresas e governos estão,
(00:17:58.560 –> 00:18:02.820) Frequentemente, caminhando para utilizar essa desculpa da verificação
(00:18:02.820 –> 00:18:04.760) Para aumentar o monitoramento sobre as pessoas.
(00:18:04.760 –> 00:18:06.620) E essa que me parece que é a preocupação.
(00:18:06.620 –> 00:18:12.060) Enfim, nós vamos deixar, como sempre, todas as notícias lá no Show Notes.
(00:18:12.060 –> 00:18:15.020) Tem outras coisas aqui, se você se interessa por essa questão.
(00:18:15.020 –> 00:18:18.660) O papel do Discord em questão de agressão de animais,
(00:18:18.660 –> 00:18:21.040) Que teve aí recentemente com o caso do Cão Orelha.
(00:18:21.040 –> 00:18:25.860) E também sobre como empresas internamente discutiram e sabem.
(00:18:25.860 –> 00:18:29.540) O próprio Instagram sabia como o próprio Instagram fazia mal para meninas
(00:18:29.540 –> 00:18:30.680) E para adolescentes e tudo mais.
(00:18:30.680 –> 00:18:32.440) Então, isso continua acontecendo.
(00:18:32.440 –> 00:18:35.160) Documentos internos aí vazados.
(00:18:35.160 –> 00:18:40.440) Como acontece, demonstram que eles sabem dos potenciais maléficos.
(00:18:40.440 –> 00:18:46.680) Para adolescentes e continuam oferecendo as plataformas ou serviços
(00:18:46.680 –> 00:18:49.700) Sem levar em consideração a proteção da criança e do adolescente.
(00:18:49.700 –> 00:18:53.220) Então, fica nesse primeiro grupo aí, Vinícius.
(00:18:54.120 –> 00:18:54.640) Perfeito.
(00:18:54.640 –> 00:18:57.720) Segundo grupo, tem a ver também.
(00:18:57.720 –> 00:19:00.300) Tem a ver com crianças e adolescentes, mas não somente.
(00:19:00.300 –> 00:19:03.120) Mas tem a ver também com proteção de..
(00:19:03.120 –> 00:19:05.740) Sobretudo de mulheres na internet, da imagem de mulheres
(00:19:05.740 –> 00:19:12.360) E sobre como a IA tem sido utilizada especificamente pelo X ou Twitter, Vinícius?
(00:19:12.360 –> 00:19:15.660) Todo mundo que fala X logo depois tem que dizer o antigo Twitter.
(00:19:15.660 –> 00:19:17.800) Mas todo mundo já sabe que o X é o antigo Twitter.
(00:19:18.040 –> 00:19:20.500) Você fica meio com um vício ali.
(00:19:20.500 –> 00:19:22.880) E aí, o que começou?
(00:19:22.880 –> 00:19:24.060) O nome virou..
(00:19:24.060 –> 00:19:26.180) Parece que o nome virou o X antigo Twitter mesmo.
(00:19:26.180 –> 00:19:27.440) Junto.
(00:19:27.440 –> 00:19:28.400) Que nem a HBO.
(00:19:28.400 –> 00:19:31.180) Viu a HBO Max, que era HBO.
(00:19:31.180 –> 00:19:33.280) Aí depois virou a HBO Max.
(00:19:33.280 –> 00:19:34.760) Aí depois foi Max.
(00:19:34.760 –> 00:19:35.980) Aí tinha..
(00:19:35.980 –> 00:19:36.140) Gol.
(00:19:36.140 –> 00:19:38.360) Aí voltaram com a HBO agora.
(00:19:38.360 –> 00:19:40.940) Eu tenho a assinatura deles lá.
(00:19:40.940 –> 00:19:41.360) Meu Deus.
(00:19:41.360 –> 00:19:44.700) Eu nem sei mais o que eu tô assinando lá, porque eu não sei mais o nome desse.
(00:19:44.700 –> 00:19:51.960) E aí a questão que, enfim, nesses últimos meses aí virou, uma notícia muito forte
(00:19:51.960 –> 00:19:57.740) Foi que o pessoal pedia lá pro Grock no X pra que ele tirasse, deixasse mulheres nuas
(00:19:57.740 –> 00:20:02.920) Ou tirasse a roupa de mulheres, inclusive de crianças.
(00:20:03.660 –> 00:20:10.520) E naquela perspectiva, de que a ferramenta é neutra, a ferramenta só faz aquilo que
(00:20:10.520 –> 00:20:16.440) O usuário pede pra ela fazer, a culpa não é nossa e tal, mas ao mesmo tempo a ferramenta
(00:20:16.440 –> 00:20:22.400) Era programada sem guardrails ali pra despir pessoas.
(00:20:22.400 –> 00:20:28.940) E se ela pode ser programada para despir pessoas, me parece que também é fácil colocar guardrails
(00:20:28.940 –> 00:20:35.400) Aí pra impedir que ela dispa, dispa, despir, despir pessoas.
(00:20:35.400 –> 00:20:37.920) Acho que eu nunca tinha usado o verbo despir dessa forma.
(00:20:37.920 –> 00:20:39.840) Então, é..
(00:20:39.840 –> 00:20:41.080) E aí o que que aconteceu?
(00:20:41.080 –> 00:20:43.860) Não sei se você quer fazer uma observação agora ou depois aqui, só pra..
(00:20:43.860 –> 00:20:45.080) Não, pode sim, pode sim, pode sim.
(00:20:45.080 –> 00:20:46.580) Aí o que que aconteceu?
(00:20:46.580 –> 00:20:52.860) Foi toda uma pressão em cima do X, Elon Musk chega e diz, não, olha, nós vamos,
(00:20:52.860 –> 00:21:00.340) Então vamos ampliar os controles aqui, só vai poder despir pessoas quem tiver a conta
(00:21:00.340 –> 00:21:01.920) Paga do X.
(00:21:01.920 –> 00:21:09.820) E obviamente que daí a emenda saiu pior que o soneto e no Brasil também já vimos movimentações,
(00:21:10.160 –> 00:21:17.560) De três entidades aqui, a NPD, Ministério Público Federal e Senacom, em primeiro lugar fizeram
(00:21:17.560 –> 00:21:25.420) Uma recomendação lá em janeiro e agora mais recentemente, depois da resposta do X, esses
(00:21:25.420 –> 00:21:32.400) Três órgãos entenderam que as medidas foram insuficientes e cada um deles, na medida das
(00:21:32.400 –> 00:21:36.620) Suas competências, iniciou um processo pra determinar.
(00:21:36.620 –> 00:21:42.500) Aí sim, antes tinham sugerido medidas, o X informou as medidas que foram tomadas, eles
(00:21:42.500 –> 00:21:47.500) Entenderam que não foram suficientes e a partir de agora começaram, cada um na medida das
(00:21:47.500 –> 00:21:53.000) Suas competências, procedimentos administrativos, seja a NPD, uma medida preventiva, o Ministério
(00:21:53.000 –> 00:21:58.960) Público também, um procedimento interno e a Senacom também numa medida cautelar administrativa
(00:21:58.960 –> 00:22:01.700) Determinando que eles imediatamente parem.
(00:22:01.700 –> 00:22:08.720) E implementem soluções técnicas e administrativas pra impedir a geração de imagens de pessoas
(00:22:08.720 –> 00:22:10.000) Nuas.
(00:22:10.620 –> 00:22:16.580) E pra variar.
(00:22:10.620 –> 00:22:16.580) Pra variar as maiores vítimas disso foram mulheres, tá?
(00:22:16.580 –> 00:22:19.800) E inclusive menores de idade, tá?
(00:22:19.800 –> 00:22:20.800) E adolescentes.
(00:22:20.800 –> 00:22:25.920) Isso foi o que causou, claro que, mesmo que não tivesse menores de idade envolvidas,
(00:22:25.920 –> 00:22:32.620) Isso já gerou bastante polêmica, mas com menores de idade é a coisa..
(00:22:33.300 –> 00:22:37.840) E aí uma coisa, Guilherme, só uma observação, a gente já fala há muitos anos aqui no Segurança
(00:22:37.840 –> 00:22:42.880) Legal, há muito tempo, essa questão da super exposição das crianças na internet e muitas
(00:22:42.880 –> 00:22:43.960) Vezes pelos próprios pais.
(00:22:43.960 –> 00:22:48.920) Quando a gente falava assim, ó, não expõe, não fica botando foto, não sei o quê, tu não
(00:22:48.920 –> 00:22:50.900) Sabe o que vai poder ser feito com isso amanhã.
(00:22:52.040 –> 00:22:56.620) E eu lembro de estar falando e falando sobre isso em 2015, em escolas, fazer umas palestras
(00:22:56.620 –> 00:22:59.020) Assim, falando pro pessoal exatamente nesses termos.
(00:22:59.020 –> 00:23:07.800) E agora aqui estamos nós em 2026 com o X antigo Twitter, uma ferramenta de ar embutida
(00:23:07.800 –> 00:23:13.940) Que, cara, tira a roupa de adolescente, menor de idade e tudo mais.
(00:23:14.480 –> 00:23:19.600) E aí, e mesmo que você seja cuidadoso com a imagem dos filhos e tal, que é realmente
(00:23:19.600 –> 00:23:20.500) A recomendação..
(00:23:20.500 –> 00:23:22.560) As escolas tinham foto, publicam, é um..
(00:23:22.560 –> 00:23:28.740) Exato, não, e ainda você tem pessoas públicas, que eventualmente, eventualmente não,
(00:23:28.740 –> 00:23:34.940) Mas pessoas públicas que têm a sua imagem publicada em função da sua, da sua atividade,
(00:23:34.940 –> 00:23:40.600) Sei lá, uma política, pessoas do ramo político, enfim, artistas e tudo mais, e ainda
(00:23:40.600 –> 00:23:46.220) Assim não há, me parece, aliás, eu tenho certeza que não há um direito de pessoas
(00:23:46.220 –> 00:23:53.460) Usarem IA pra macular a imagem de mulheres, inclusive teve notícias, pegaram lá uma
(00:23:53.460 –> 00:23:58.420) Primeira ministra, não lembro exatamente de qual país, e aí começaram a fazer isso
(00:23:58.420 –> 00:24:02.200) Com a imagem dela pra desqualificá-la, enfim.
(00:24:02.200 –> 00:24:10.580) E aí acaba entrando, Vinícius, um pouco naquilo, eu vou puxar lá pro grupo 6,
(00:24:10.580 –> 00:24:16.200) Mas tem um pouco a ver, o Vinícius me mandou esses dias uma notícia de um..
(00:24:16.200 –> 00:24:21.120) Seria um aborígine, da Nova Zelândia, que fazia vídeos..
(00:24:21.120 –> 00:24:21.760) O Steve Irving.
(00:24:21.760 –> 00:24:23.340) Conta aí a história, conta aí a história.
(00:24:23.340 –> 00:24:23.680) O Steve Irving.
(00:24:23.680 –> 00:24:24.440) .
(00:24:24.440 –> 00:24:26.260) É inacreditável.
(00:24:26.260 –> 00:24:29.200) O Steve Irving, o Steve Irving é um..
(00:24:29.200 –> 00:24:37.740) Um aborígine, australiano, que faz vídeos..
(00:24:37.740 –> 00:24:38.240) Neo-zelandês.
(00:24:38.240 –> 00:24:38.740) Neo-zelandês.
(00:24:38.740 –> 00:24:39.380) Neo-zelandês.
(00:24:39.380 –> 00:24:42.400) É Nova Zelândia, não misturar Nova Zelândia com a Austrália.
(00:24:42.400 –> 00:24:43.140) Nada.
(00:24:43.140 –> 00:24:49.400) Neo-zelandês, que faz vídeos, aqueles vídeos assim, meio de aventura, assim, de ver os bichos
(00:24:49.400 –> 00:24:50.780) De perto e meio..
(00:24:50.780 –> 00:24:55.620) Encontra uma cobra e mexe na cobra e um escorpião e por aí vai.
(00:24:55.700 –> 00:24:56.700) Esses vídeos assim, sabe?
(00:24:56.700 –> 00:24:57.140) E mostrando..
(00:24:57.140 –> 00:25:00.160) Mas mostrando os animais lá da Nova Zelândia.
(00:25:00.160 –> 00:25:01.120) Sim, exatamente.
(00:25:01.120 –> 00:25:02.460) Fazendo um negócio..
(00:25:02.460 –> 00:25:04.060) Cara, um negócio muito bem feito.
(00:25:04.060 –> 00:25:05.340) Um negócio muito bem feito.
(00:25:05.340 –> 00:25:06.800) Tipo um National Geographic, assim.
(00:25:06.800 –> 00:25:09.320) Tinha um outro cara, aquele cara que morreu..
(00:25:09.320 –> 00:25:13.500) Bem conhecido, ele morreu com ferrão de uma arraia.
(00:25:13.500 –> 00:25:14.200) Uma arraia.
(00:25:14.200 –> 00:25:15.560) No peito.
(00:25:15.560 –> 00:25:18.040) Eu não lembro o nome dele, mas tudo bem.
(00:25:18.040 –> 00:25:21.040) ..
(00:25:21.040 –> 00:25:24.880) E esse personagem é uma vibe muito parecida, tá?
(00:25:25.700 –> 00:25:30.620) Cara, um negócio com, assim, muita gente seguindo.
(00:25:30.620 –> 00:25:37.660) Houve 90 mil pessoas no Instagram e aí começou a chamar muita atenção, muita atenção.
(00:25:37.660 –> 00:25:42.600) E aí o cara que criou o personagem veio ao público e dizia, ó, esse cara não existe.
(00:25:43.400 –> 00:25:47.980) O Steve Irving era o cara que morreu com ferrão de arraia.
(00:25:49.420 –> 00:25:50.400) Sim, verdade.
(00:25:50.400 –> 00:25:51.480) Na notícia, sim.
(00:25:51.480 –> 00:25:53.080) Eu misturei aqui que ele chamou..
(00:25:53.080 –> 00:25:54.620) É o Aboriginal Steve Irving.
(00:25:54.620 –> 00:25:56.860) É o Steve Irving aborigine.
(00:25:56.860 –> 00:25:57.340) Exatamente.
(00:25:57.340 –> 00:25:59.780) O Steve Irving é o cara real que morreu.
(00:25:59.780 –> 00:26:00.720) Isso, isso.
(00:26:00.720 –> 00:26:01.220) Isso.
(00:26:01.220 –> 00:26:03.380) E o nome do cara que..
(00:26:03.380 –> 00:26:06.220) Essa persona digital criada.
(00:26:07.620 –> 00:26:09.340) Quem criou foi o..
(00:26:09.340 –> 00:26:10.400) Quem criou foi o..
(00:26:10.400 –> 00:26:13.720) O Keegan, John Manson, o cara que fez a..
(00:26:13.720 –> 00:26:15.140) Que criou o personagem.
(00:26:15.140 –> 00:26:17.260) Cara, eu não tenho o nome do personagem aqui.
(00:26:17.260 –> 00:26:20.040) Seria o Bush Legend.
(00:26:20.040 –> 00:26:20.480) Mas..
(00:26:20.480 –> 00:26:21.320) Bush Legend.
(00:26:21.320 –> 00:26:22.260) Esse é o canal.
(00:26:22.260 –> 00:26:23.760) Esse é o canal, Bush Legend.
(00:26:23.760 –> 00:26:24.520) O Bush Legend.
(00:26:24.520 –> 00:26:25.260) A conta aqui, ó.
(00:26:25.260 –> 00:26:26.260) Tá separado aqui.
(00:26:26.260 –> 00:26:27.280) Bush Legend, a conta.
(00:26:27.780 –> 00:26:30.500) Mas o interessante é que não é a conta em si, tá?
(00:26:30.500 –> 00:26:33.260) Quem quiser olhar o Bush Legend lá, deve estar no ar ainda esse negócio.
(00:26:33.260 –> 00:26:35.240) O interessante não é a conta em si.
(00:26:35.240 –> 00:26:41.400) O interessante é que é uma coisa que tu assiste e, cara, tu não se dá a conta que
(00:26:41.400 –> 00:26:42.360) Não é real.
(00:26:42.360 –> 00:26:47.360) Talvez ali num vídeo ou outro tu possa até perceber, tá?
(00:26:47.360 –> 00:26:50.880) Mas a maioria das pessoas não vai perceber.
(00:26:50.880 –> 00:26:51.920) Não vai se dar conta, não vai se dar conta.
(00:26:51.920 –> 00:26:53.560) Então, assim..
(00:26:53.560 –> 00:27:01.540) E recentemente teve um vídeo também, eu vi essa semana, ou semana passada, um vídeo
(00:27:01.540 –> 00:27:06.360) Em que tava o Brad Pitt lutando com o Tom Cruise, tá?
(00:27:06.360 –> 00:27:10.320) E eles discutindo os Epstein Files na luta.
(00:27:10.320 –> 00:27:20.040) Eu mostrei pra minha esposa o vídeo e disse assim, olha só o trailer de um filme que eles
(00:27:20.040 –> 00:27:20.940) Estão lançando e tal.
(00:27:21.420 –> 00:27:24.060) Aí a gente começou a ver o vídeo, eu já tinha visto, ela começou a ver o vídeo,
(00:27:24.060 –> 00:27:29.440) Assim, tá, mas aí eles falando e tal, e eles se batendo e não paravam de se bater
(00:27:29.440 –> 00:27:31.840) E conversar, assim, mas que cena mais.
(00:27:31.840 –> 00:27:33.080) Sem propósito.
(00:27:33.480 –> 00:27:34.820) Uma coisa meio..
(00:27:34.820 –> 00:27:37.000) Mas ao mesmo tempo ela achou que fosse verdade.
(00:27:37.000 –> 00:27:38.060) Aham.
(00:27:38.060 –> 00:27:43.120) Ela achou que fosse verdade, porque os personagens, ali o Tom Cruise e o Brad Pitt, tá certinho
(00:27:43.120 –> 00:27:43.500) Ali, cara.
(00:27:43.500 –> 00:27:44.900) Claro que fica..
(00:27:44.900 –> 00:27:48.780) Depois eles começam a zoar, começam a mudar demais, assim, começam a botar uns personagens
(00:27:48.780 –> 00:27:49.800) Meio estranhos no negócio.
(00:27:50.560 –> 00:27:51.240) Mas é..
(00:27:51.240 –> 00:27:51.800) E há, cara.
(00:27:51.800 –> 00:27:53.660) E aí isso gera tanto..
(00:27:53.660 –> 00:27:54.580) Não só uma preocupação.
(00:27:54.580 –> 00:27:56.300) Agora nós estamos vando pra ano de eleição.
(00:27:56.300 –> 00:27:57.360) Vamos ver o que vai acontecer.
(00:27:57.360 –> 00:28:07.520) Mas não só gera essa possível confusão com quem assiste, pra quem assiste, mas também
(00:28:07.520 –> 00:28:13.300) Tá gerando uma boa discussão lá nos Estados Unidos com relação, lá nos sindicatos dos
(00:28:13.300 –> 00:28:16.380) Artistas e tudo mais.
(00:28:16.380 –> 00:28:23.620) Porque, cara, se tu não quiser usar a imagem de alguém, que obviamente tu vai ter que pagar
(00:28:23.620 –> 00:28:28.240) Pra usar a imagem do Tom Cruise, ninguém discute que mesmo que seja autorizado pelo Tom Cruise
(00:28:28.240 –> 00:28:33.160) Tu vai ter que pagar o Tom Cruise pelo uso da imagem dele, mas que tu possa começar a criar
(00:28:33.160 –> 00:28:37.600) Personagens completamente fictícios, ou pessoas.
(00:28:37.600 –> 00:28:44.560) Atores fictícios, pra..
(00:28:37.600 –> 00:28:44.560) Pra atuarem num filme, atuarem numa série.
(00:28:45.560 –> 00:28:48.320) E aí tu não precisar mais.
(00:28:48.320 –> 00:28:53.580) Talvez tu possa substituir até o roteirista na brincadeira, mas tu não precisar mais
(00:28:53.580 –> 00:28:55.500) De atores humanos pra atuar.
(00:28:55.500 –> 00:28:57.120) Então..
(00:28:57.120 –> 00:29:01.940) Tem uma discussão bem interessante em cima disso, sabe?
(00:29:01.940 –> 00:29:07.680) A questão do emprego dos artistas e da questão do conteúdo que tu entrega.
(00:29:07.680 –> 00:29:09.200) Pras pessoas.
(00:29:09.200 –> 00:29:11.120) Tu vai assistir um filme..
(00:29:11.120 –> 00:29:14.480) Assim, tu topa assistir um filme muito bom feito por Iá?
(00:29:14.480 –> 00:29:16.560) Cara..
(00:29:16.560 –> 00:29:21.280) Eu acho que tem um elemento ético, inclusive se fala isso lá numa das notícias.
(00:29:21.800 –> 00:29:27.300) Que é um preceito de trans..
(00:29:21.800 –> 00:29:27.300) Um preceito ético de transparência no uso de Iá.
(00:29:27.300 –> 00:29:32.160) Então, quando a gente fala em princípios de governança de Iá, a transparência, ela
(00:29:32.160 –> 00:29:36.060) Se desdobra em várias..
(00:29:32.160 –> 00:29:36.060) Várias situações.
(00:29:36.060 –> 00:29:40.680) E uma das situações que a transparência se desdobra, enquanto princípio que deve reger
(00:29:40.680 –> 00:29:45.320) O uso da Iá, isso eu tô falando porque é princípio já adotado na União Europeia
(00:29:45.320 –> 00:29:46.940) E tudo mais, é..
(00:29:46.940 –> 00:29:51.140) .
(00:29:46.940 –> 00:29:51.140) Você tem que saber que aquele conteúdo é gerado por Iá.
(00:29:51.140 –> 00:29:52.800) E a grande..
(00:29:52.800 –> 00:29:54.320) E por que que isso virou notícia?
(00:29:54.320 –> 00:29:55.540) Na verdade, são duas coisas.
(00:29:55.540 –> 00:30:00.500) Isso virou notícia porque não se deram..
(00:29:55.540 –> 00:30:00.500) Ninguém se deu conta.
(00:30:00.500 –> 00:30:05.540) Porque se diz, você mostra pra pessoa, se você olhar num vídeo e prestar atenção,
(00:30:05.540 –> 00:30:06.760) Você vai descobrir que é.
(00:30:06.760 –> 00:30:10.420) A questão é que hoje, até a gente comentava isso antes.
(00:30:10.420 –> 00:30:17.520) Nós, eu e você e quem nos escuta, nós já estamos consumindo conteúdos gerados por
(00:30:17.520 –> 00:30:18.440) Iá sem se dar conta.
(00:30:18.440 –> 00:30:18.840) Por quê?
(00:30:18.840 –> 00:30:23.400) Porque a lógica de consumir conteúdo em rede social não é você ficar prestando atenção
(00:30:23.400 –> 00:30:28.980) Nos detalhes, a lógica é que você vai passando rapidamente sobre certos conteúdos.
(00:30:28.980 –> 00:30:32.780) E você fica vendo muitos, aquela história do feed infinito que a gente já falou.
(00:30:32.780 –> 00:30:38.080) Que é uma das maldições das redes sociais e o que aprisiona as pessoas lá dentro é
(00:30:38.080 –> 00:30:38.860) O feed infinito.
(00:30:38.860 –> 00:30:39.900) E vamos lá.
(00:30:39.900 –> 00:30:42.620) O teu espírito crítico ali fica bem rebaixado.
(00:30:42.840 –> 00:30:45.960) Claro que quando a gente olha o vídeo depois sabendo o que bom, tudo bem.
(00:30:45.960 –> 00:30:51.860) Ontem mesmo eu tava na academia e fica uma TV ligada lá e tava passando uma propaganda
(00:30:51.860 –> 00:30:53.300) Do Liquida Porto Alegre.
(00:30:53.300 –> 00:30:57.000) É tipo uma liquidação de verão que eles fazem aqui na cidade.
(00:30:57.800 –> 00:31:05.020) E, cara, cinco segundos da coisa já deu pra ver que era tudo gerado por Iá, cara.
(00:31:05.020 –> 00:31:09.860) Toda uma propaganda gerada por Iá, até porque no final tinha uma senhora bem idosa correndo
(00:31:09.860 –> 00:31:15.540) Junto com um monte de pessoas que ela não teria como uma senhora.
(00:31:15.540 –> 00:31:19.400) Enfim, até teria, mas chamou a atenção o fato de ser uma senhora bem idosa correndo
(00:31:19.400 –> 00:31:21.000) Loucamente na cidade, assim, sabe?
(00:31:21.640 –> 00:31:25.980) Não que não seja possível, não que não seja possível.
(00:31:25.980 –> 00:31:29.660) Não, não que não seja possível, mas, assim, aquilo já disparou, não, como assim.
(00:31:29.660 –> 00:31:35.940) Então, você tem um elemento ético muito, isso tá acontecendo, a propaganda, eu acredito,
(00:31:35.940 –> 00:31:39.720) Que o CONAR, enfim, a regulamentação da propaganda tem que deixar isso claro.
(00:31:39.720 –> 00:31:45.220) Olha, você está assistindo uma reportagem, uma propaganda feita por Iá, assim como você
(00:31:45.220 –> 00:31:49.340) Quando você tá consumindo um produto no supermercado, diz se aquilo ali tem transgênico
(00:31:49.340 –> 00:31:51.900) Ou não, ou o que consta.
(00:31:51.900 –> 00:31:52.140) Excesso de sal.
(00:31:52.140 –> 00:31:53.980) Excesso de sal, por que não?
(00:31:53.980 –> 00:31:58.020) Porque a gente sabe que isso é bem brain rotizável.
(00:31:58.020 –> 00:31:58.900) Aham.
(00:31:58.900 –> 00:32:01.200) Brain rotizável, você não inventei agora, Vinícius.
(00:32:01.200 –> 00:32:02.880) É um bom verbo.
(00:32:02.880 –> 00:32:04.220) Brain rotizável.
(00:32:04.220 –> 00:32:13.740) Vinícius, Brasil, você já deve ter ouvido falar disso, mas Brasil e União Europeia,
(00:32:13.740 –> 00:32:17.320) Consolidaram lá o seu acordo de adequação mútua.
(00:32:17.320 –> 00:32:23.180) Então, basicamente, agora, no final de janeiro, foi anunciado esse reconhecimento recíproco
(00:32:23.180 –> 00:32:25.560) De adequação dos regimes de proteção de dados.
(00:32:25.560 –> 00:32:31.800) E tem-se pintado isso como um marco histórico, porque, além desse franco reconhecimento,
(00:32:31.800 –> 00:32:35.060) A ideia é que se abra, principalmente para o Brasil.
(00:32:35.440 –> 00:32:42.000) Mas a ideia é que o Brasil poderia se beneficiar com base nesse acordo de adequação,
(00:32:42.000 –> 00:32:47.660) Prestando serviços, para toda a União Europeia.
(00:32:47.660 –> 00:32:53.020) Então, isso poderia ampliar o uso de data centers para IA e também o uso de próprio serviço,
(00:32:53.020 –> 00:32:56.040) Porque uma vez que você tem esse reconhecimento, você não precisa,
(00:32:57.180 –> 00:33:00.580) Digamos assim, quando você for fazer a transferência internacional de dados,
(00:33:00.580 –> 00:33:03.140) Que é uma das situações lá em que você faz de um lado para o outro,
(00:33:03.140 –> 00:33:05.800) Esse reconhecimento implica na possibilidade automática,
(00:33:05.800 –> 00:33:08.880) Sem, por exemplo, você pedir, precisar pedir consentimento,
(00:33:08.880 –> 00:33:12.820) Ou fazer avisos adicionais, ou reconhecimentos das autoridades.
(00:33:12.820 –> 00:33:18.980) Então, abre-se, de fato, um espaço comercial também,
(00:33:19.040 –> 00:33:22.300) Não seja de fluxos, de fluxo seguro de dados, enfim.
(00:33:22.300 –> 00:33:24.600) Qual a questão?
(00:33:24.600 –> 00:33:31.800) A questão é que, quando a gente faz uma comparação em como a União Europeia tem aplicado sanções
(00:33:31.800 –> 00:33:35.620) E como o Brasil tem aplicado sanções, mesmo diante desse reconhecimento,
(00:33:35.620 –> 00:33:39.620) Nós notamos que há uma distância, porque no Brasil ainda há,
(00:33:39.620 –> 00:33:43.980) E aqui eu falo como titular de dados pessoais,
(00:33:44.360 –> 00:33:49.580) Ainda há um certo, é um certo, como é que eu vou dizer,
(00:33:49.580 –> 00:33:54.640) Atraso, talvez, na aplicação de sanções em situações muito complexas.
(00:33:54.640 –> 00:33:57.340) Apenas para vocês terem uma ideia de alguns números,
(00:33:57.340 –> 00:34:00.120) Na França, por exemplo, agora é janeiro, fevereiro,
(00:34:00.120 –> 00:34:06.280) Você teve a France Travel, foi multada em 5 milhões de euros,
(00:34:06.280 –> 00:34:09.920) A Free Mobile, 42 milhões de euros,
(00:34:10.920 –> 00:34:14.820) É dividido aqui em Free Mobile e Free, não sei o que é.
(00:34:14.820 –> 00:34:19.140) Então, você teve aí todas essas situações somente,
(00:34:19.140 –> 00:34:22.120) Ou seja, multas milionárias na França,
(00:34:22.120 –> 00:34:27.400) Somente por situações de vazamentos que se confirmou que ocorreram
(00:34:27.400 –> 00:34:30.300) Por causa de insuficiência de medidas de segurança
(00:34:30.300 –> 00:34:32.560) Adotadas por essas organizações.
(00:34:32.560 –> 00:34:34.060) Isso na França.
(00:34:34.060 –> 00:34:36.940) Na Espanha, que é uma autoridade pequena,
(00:34:36.940 –> 00:34:40.180) Tem, se não me engano, menos funcionários do que,
(00:34:40.180 –> 00:34:43.540) Até fiz esses dias um apanhado de número de funcionários e tal,
(00:34:43.540 –> 00:34:45.960) Mas acho que tem menos funcionários do que a nossa NPD,
(00:34:45.960 –> 00:34:53.040) Eles terminaram 2025 com 394 procedimentos sancionadores
(00:34:53.040 –> 00:34:57.040) E com multas que somadas deram 40 milhões de euros.
(00:34:57.040 –> 00:35:00.040) Então, acho que para consolidar, de fato,
(00:35:00.040 –> 00:35:03.700) Urge que nós tenhamos um aprimoramento,
(00:35:03.700 –> 00:35:05.480) E eu não falo nem somente em multas,
(00:35:05.480 –> 00:35:08.720) Eu falo em sanções, impedir certos tratamentos,
(00:35:08.720 –> 00:35:14.400) Caminhar justamente para a implementação de medidas de segurança,
(00:35:14.400 –> 00:35:16.680) Resolver a questão das farmácias,
(00:35:16.680 –> 00:35:20.380) Resolver a questão que a gente já falou aqui no nosso podcast
(00:35:20.380 –> 00:35:26.980) Sobre a farra das biometrias faciais em academias,
(00:35:26.980 –> 00:35:29.580) Em condomínios.
(00:35:29.580 –> 00:35:32.780) Então, acho que a gente comemora, de fato,
(00:35:32.780 –> 00:35:36.060) Mas há um caminho ainda a ser perseguido, me parece,
(00:35:36.060 –> 00:35:40.100) Posso estar errado, enfim, mas me parece que há um caminho ainda a ser percorrido.
(00:35:40.100 –> 00:35:42.580) Isso, obviamente, é uma via de duas mãos.
(00:35:42.580 –> 00:35:45.340) Então, a gente tem uma equivalência.
(00:35:45.340 –> 00:35:46.080) Isso.
(00:35:46.080 –> 00:35:48.500) Então, uma coisa que muda, então, por exemplo,
(00:35:48.500 –> 00:35:51.660) Se você quiser usar algum data center na Europa,
(00:35:51.660 –> 00:35:53.620) Na União Europeia, para fazer mais ou menos de dados
(00:35:53.620 –> 00:35:57.820) E cidadãos brasileiros, em princípio, ok.
(00:35:57.820 –> 00:35:59.860) Isso.
(00:35:59.860 –> 00:36:02.260) Quando você tem na União Europeia,
(00:36:02.260 –> 00:36:04.040) Nos países que fazem parte da União Europeia,
(00:36:04.040 –> 00:36:06.980) Não é na Europa, porque você tem países que..
(00:36:06.980 –> 00:36:08.340) Sim, eu falei, União Europeia, não é Europeia.
(00:36:08.340 –> 00:36:10.960) Tu tem Inglaterra que não faz mais parte da União Europeia.
(00:36:10.960 –> 00:36:12.060) Inglaterra não é mais.
(00:36:12.060 –> 00:36:14.520) Aí o pessoal lá da Inglaterra,
(00:36:14.520 –> 00:36:15.720) Quando entra na União Europeia,
(00:36:15.720 –> 00:36:18.300) Eles ficam na fila não dos residentes da União Europeia,
(00:36:18.300 –> 00:36:20.040) Eles têm que enfrentar a fila de todo mundo,
(00:36:20.040 –> 00:36:21.800) Mas Suíça também não é.
(00:36:21.960 –> 00:36:22.660) É engraçado.
(00:36:22.660 –> 00:36:24.420) A Suíça também não é.
(00:36:24.420 –> 00:36:25.960) Embora a Suíça tenha,
(00:36:25.960 –> 00:36:30.200) Seja conhecida justamente por hospedar sistemas,
(00:36:30.200 –> 00:36:32.080) The Privacy Friendly, de segurança,
(00:36:32.080 –> 00:36:34.180) Mais VPNs que ficam lá na Suíça,
(00:36:34.180 –> 00:36:36.520) Se vendem, mas não faz parte da Suíça.
(00:36:36.520 –> 00:36:38.740) A Suíça acho que faz parte do espaço Schengen,
(00:36:38.740 –> 00:36:39.340) Se não me engano,
(00:36:39.340 –> 00:36:42.320) Que permite que você entre,
(00:36:42.320 –> 00:36:44.640) Sem a necessidade de passar por fronteiras,
(00:36:44.640 –> 00:36:46.120) Tem o tráfego livre,
(00:36:46.120 –> 00:36:47.180) Mas acho que não faz,
(00:36:47.180 –> 00:36:49.740) Mas não faz da União Europeia.
(00:36:51.160 –> 00:36:52.620) Bom, Vinícius,
(00:36:52.620 –> 00:36:54.680) Seguindo aqui,
(00:36:54.680 –> 00:36:59.520) Nós temos também toda a questão da vigilância,
(00:36:59.520 –> 00:37:02.240) Lá no Grupo 5,
(00:37:02.240 –> 00:37:04.420) De vigilância e privacidade,
(00:37:04.420 –> 00:37:05.220) Que nós vimos,
(00:37:05.220 –> 00:37:07.680) Que me chamou bastante atenção,
(00:37:07.680 –> 00:37:09.320) Chamou bastante atenção,
(00:37:09.320 –> 00:37:13.660) Que foi o FBI solicitando a Microsoft
(00:37:13.660 –> 00:37:17.460) A entrega de chaves BitLocker.
(00:37:17.460 –> 00:37:20.720) E a gente estava conversando sobre isso antes,
(00:37:20.720 –> 00:37:23.100) Não é obrigatório,
(00:37:23.100 –> 00:37:26.540) Que você salve a chave do BitLocker na Microsoft.
(00:37:26.540 –> 00:37:26.940) Não.
(00:37:26.940 –> 00:37:27.900) Você pode salvar.
(00:37:27.900 –> 00:37:29.380) Pode não estar em outro lugar.
(00:37:30.520 –> 00:37:33.140) O que chama atenção aqui é a possibilidade,
(00:37:33.140 –> 00:37:33.740) E vejam,
(00:37:33.740 –> 00:37:35.360) Assim,
(00:37:35.360 –> 00:37:36.800) O FBI e a polícia,
(00:37:36.800 –> 00:37:39.040) Eu tenho absoluta certeza
(00:37:39.040 –> 00:37:44.300) Que todos esses órgãos de investigação,
(00:37:44.300 –> 00:37:45.220) De persecução penal,
(00:37:45.220 –> 00:37:46.440) Tem o direito de,
(00:37:46.440 –> 00:37:47.820) Eventualmente,
(00:37:47.820 –> 00:37:50.180) Por uma ordem judicial fundamentada,
(00:37:50.180 –> 00:37:52.420) Pedir acesso a nuvens,
(00:37:52.420 –> 00:37:54.300) Como é o que está acontecendo agora.
(00:37:54.560 –> 00:37:56.020) Os grandes escândalos aí,
(00:37:56.020 –> 00:37:56.820) Banco Master,
(00:37:57.240 –> 00:37:57.620) Mas, assim,
(00:37:57.620 –> 00:38:01.300) Grandes escândalos e de crimes e tal,
(00:38:01.300 –> 00:38:04.420) O pessoal acaba acessando nuvem de gente
(00:38:04.420 –> 00:38:06.180) Que deixa o WhatsApp fazendo,
(00:38:06.180 –> 00:38:07.480) Não se fala muito,
(00:38:07.480 –> 00:38:10.940) Mas que deixa o WhatsApp fazendo backup lá no Google,
(00:38:10.940 –> 00:38:11.940) Acessa o Google,
(00:38:11.940 –> 00:38:14.000) Recupera o backup e vê tudo que o cara fez,
(00:38:14.000 –> 00:38:14.720) Quem conversou,
(00:38:14.720 –> 00:38:16.020) E arquivos e tudo mais.
(00:38:16.020 –> 00:38:18.580) Mas o que chama atenção
(00:38:18.580 –> 00:38:22.160) Sobretudo como os Estados Unidos agora estão se posicionando,
(00:38:22.160 –> 00:38:23.440) Nessa parte de vigilância,
(00:38:23.440 –> 00:38:25.520) Já vem se posicionando ao longo dos últimos anos,
(00:38:25.520 –> 00:38:27.260) De repente,
(00:38:27.260 –> 00:38:30.500) O FBI pegar a tua chave do BitLocker
(00:38:30.500 –> 00:38:32.240) E tão facilmente, assim,
(00:38:32.240 –> 00:38:32.620) É isso?
(00:38:32.620 –> 00:38:35.600) Quando tu cria,
(00:38:35.600 –> 00:38:36.040) Assim,
(00:38:36.040 –> 00:38:36.940) Esse recurso,
(00:38:36.940 –> 00:38:40.220) Só quem tem são os usuários do Windows Pro,
(00:38:40.220 –> 00:38:42.100) Pra cima, tá?
(00:38:42.100 –> 00:38:42.820) Então, aquela,
(00:38:42.820 –> 00:38:44.600) O Home Edition não vai ter, tá?
(00:38:44.600 –> 00:38:46.840) E quando você,
(00:38:46.840 –> 00:38:48.960) Isso é uma prática recomendada, tá?
(00:38:48.960 –> 00:38:50.400) Principalmente em empresas.
(00:38:51.340 –> 00:38:53.140) E principalmente em notebooks,
(00:38:53.140 –> 00:38:54.800) Mas não somente em notebooks,
(00:38:54.800 –> 00:38:55.760) Mas também em desktop,
(00:38:55.760 –> 00:38:57.360) Porque desktop eventualmente estraga,
(00:38:57.360 –> 00:38:58.160) Vai pra garantia,
(00:38:58.160 –> 00:38:59.480) A gente já comentou sobre isso
(00:38:59.480 –> 00:39:01.380) Aqui no Segurança Legal.
(00:39:01.380 –> 00:39:02.240) E aí,
(00:39:02.240 –> 00:39:03.660) Todos os teus dados vão lá abertos
(00:39:03.660 –> 00:39:05.320) Pra quem quiser acessar.
(00:39:05.320 –> 00:39:07.500) É só pegar o disco e ligar numa outra máquina e acessar.
(00:39:07.500 –> 00:39:08.800) Então,
(00:39:08.800 –> 00:39:10.500) O uso do BitLocker
(00:39:10.500 –> 00:39:12.080) É um recurso bastante interessante,
(00:39:12.080 –> 00:39:14.480) Porque ele vai cifrar todo o teu disco.
(00:39:14.480 –> 00:39:15.480) Então,
(00:39:15.480 –> 00:39:18.060) Se a tua máquina eventualmente for pra uma manutenção,
(00:39:18.060 –> 00:39:19.280) Porque estragou alguma coisa,
(00:39:19.800 –> 00:39:21.320) A equipe que tá mexendo nela
(00:39:21.320 –> 00:39:23.040) Não vai conseguir acessar
(00:39:23.040 –> 00:39:24.880) Os seus dados, tá?
(00:39:24.880 –> 00:39:26.200) Bom,
(00:39:26.200 –> 00:39:26.760) Dito isso,
(00:39:26.760 –> 00:39:29.600) Quando tu faz a configuração do BitLocker,
(00:39:29.600 –> 00:39:32.280) Ele gera uma chave de recuperação,
(00:39:32.280 –> 00:39:33.380) Tá?
(00:39:33.380 –> 00:39:35.460) E essa chave tem que ser armazenada
(00:39:35.460 –> 00:39:36.400) Em algum lugar seguro.
(00:39:36.400 –> 00:39:38.980) Uma opção é tu mesmo salvar essa chave
(00:39:38.980 –> 00:39:39.860) E anotar em algum lugar.
(00:39:39.860 –> 00:39:42.320) E a opção mais..
(00:39:42.320 –> 00:39:44.340) Anotar embaixo do teclado ali.
(00:39:44.900 –> 00:39:45.680) Botar embaixo do teclado,
(00:39:45.680 –> 00:39:46.600) Embaixo do monitor também.
(00:39:46.600 –> 00:39:48.540) A opção mais na mão
(00:39:48.540 –> 00:39:50.640) É tu salvar na tua conta a Microsoft.
(00:39:50.640 –> 00:39:54.560) E o que te facilita bastante a vida,
(00:39:54.560 –> 00:39:56.260) Porque tu tem mais,
(00:39:56.260 –> 00:39:57.420) Tu tem vários computadores.
(00:39:57.420 –> 00:39:58.880) Então,
(00:39:58.880 –> 00:39:59.960) Pra um usuário normal,
(00:39:59.960 –> 00:40:00.280) Assim,
(00:40:00.640 –> 00:40:01.360) Do dia a dia,
(00:40:01.360 –> 00:40:01.660) Pô,
(00:40:01.660 –> 00:40:02.860) Ficar anotando esse negócio depois,
(00:40:02.860 –> 00:40:03.780) Não perder,
(00:40:03.780 –> 00:40:05.860) Tem que ter um gerenciador de chaves,
(00:40:05.860 –> 00:40:06.640) Alguma coisa assim.
(00:40:06.640 –> 00:40:09.620) E no momento que tu salva na Microsoft,
(00:40:09.620 –> 00:40:10.020) Bom,
(00:40:10.020 –> 00:40:11.680) A Microsoft obviamente tem acesso
(00:40:11.680 –> 00:40:13.080) A essa tua chave.
(00:40:13.080 –> 00:40:14.200) Ela não fica lá armazenada
(00:40:14.200 –> 00:40:15.880) De um jeito que eles não podem acessar,
(00:40:15.880 –> 00:40:17.240) Que seria interessante.
(00:40:17.240 –> 00:40:18.360) Pois é.
(00:40:18.360 –> 00:40:19.560) Que se frasse com a tua senha
(00:40:19.560 –> 00:40:20.500) Ou coisa parecida.
(00:40:20.500 –> 00:40:22.280) Mas eles não se preocuparam com isso,
(00:40:22.280 –> 00:40:23.220) Então a tua chave fica lá.
(00:40:23.220 –> 00:40:24.980) E a partir daí,
(00:40:24.980 –> 00:40:26.060) Se eles têm,
(00:40:26.060 –> 00:40:27.640) Se o recurso funciona desse jeito
(00:40:27.640 –> 00:40:29.040) E tá lá descrito
(00:40:29.040 –> 00:40:29.940) Que funciona desse jeito
(00:40:29.940 –> 00:40:31.100) E alguém pede pra,
(00:40:31.900 –> 00:40:33.980) Vem uma demanda judicial,
(00:40:33.980 –> 00:40:35.760) Não se trata de,
(00:40:35.760 –> 00:40:37.640) Isso é uma coisa bem importante, tá?
(00:40:37.640 –> 00:40:39.440) Não se trata de uma porta
(00:40:39.440 –> 00:40:39.940) Dos fundos,
(00:40:39.940 –> 00:40:41.040) Não se trata de um backdoor,
(00:40:41.040 –> 00:40:42.120) Tá?
(00:40:42.120 –> 00:40:42.720) É diferente,
(00:40:42.720 –> 00:40:44.180) Então não dá pra,
(00:40:44.180 –> 00:40:45.320) Mas isso é um backdoor,
(00:40:45.320 –> 00:40:45.640) A gente,
(00:40:45.640 –> 00:40:47.040) As CryptoWars,
(00:40:47.040 –> 00:40:47.760) Aquela coisa toda.
(00:40:47.760 –> 00:40:49.740) Backdoor seria se,
(00:40:49.740 –> 00:40:50.020) Tá,
(00:40:50.020 –> 00:40:50.600) Tu vai lá,
(00:40:50.600 –> 00:40:51.720) Criptografa,
(00:40:51.720 –> 00:40:52.700) Faz a tua chave,
(00:40:52.700 –> 00:40:54.800) Tu não manda pra Microsoft,
(00:40:54.800 –> 00:40:56.460) Tu salva,
(00:40:56.460 –> 00:40:57.860) Tu escreve num papel
(00:40:57.860 –> 00:40:58.680) E guarda,
(00:40:58.680 –> 00:40:59.960) Só que
(00:40:59.960 –> 00:41:01.640) A criptografia teria
(00:41:01.640 –> 00:41:02.520) Um backdoor,
(00:41:02.520 –> 00:41:02.740) Ou seja,
(00:41:02.740 –> 00:41:04.060) Teria uma chave mestra
(00:41:04.060 –> 00:41:05.920) Que a Microsoft teria acesso
(00:41:05.920 –> 00:41:07.060) E poderia abrir,
(00:41:07.060 –> 00:41:07.480) Entende?
(00:41:07.480 –> 00:41:08.800) Ou entrega essa chave pro FBI,
(00:41:09.260 –> 00:41:11.140) Poder abrir o BitLocker
(00:41:11.140 –> 00:41:12.640) De qualquer pessoa
(00:41:12.640 –> 00:41:13.340) Na face da Terra.
(00:41:13.340 –> 00:41:14.600) Isso seria
(00:41:14.600 –> 00:41:15.380) Um,
(00:41:15.380 –> 00:41:16.020) Um,
(00:41:16.020 –> 00:41:16.700) Um,
(00:41:16.700 –> 00:41:17.620) Um backdoor,
(00:41:17.620 –> 00:41:18.820) Seria um key scroll da vida.
(00:41:18.820 –> 00:41:20.640) Mas não é isso que tá acontecendo,
(00:41:20.640 –> 00:41:21.440) O que tá acontecendo é que
(00:41:21.440 –> 00:41:23.080) Se você salvar a sua chave
(00:41:23.080 –> 00:41:24.100) Lá na Microsoft,
(00:41:24.100 –> 00:41:25.080) Pelo menos isso que a gente sabe
(00:41:25.080 –> 00:41:25.640) Até agora,
(00:41:25.640 –> 00:41:27.380) Vai que surge um escândalo
(00:41:27.380 –> 00:41:28.580) Que a Microsoft tá salvando
(00:41:28.580 –> 00:41:29.540) Independente de tu pedindo.
(00:41:30.260 –> 00:41:31.540) Mas é que se tu quiser,
(00:41:31.540 –> 00:41:33.180) Tu salva a tua chave lá,
(00:41:33.180 –> 00:41:34.820) A partir daí,
(00:41:34.820 –> 00:41:35.960) Microsoft tem acesso,
(00:41:35.960 –> 00:41:37.220) Vai vir um FBI,
(00:41:38.400 –> 00:41:40.120) E solicita,
(00:41:40.960 –> 00:41:41.700) Via judicial,
(00:41:41.700 –> 00:41:42.220) Espero,
(00:41:42.220 –> 00:41:44.220) Solicita o acesso
(00:41:44.220 –> 00:41:45.200) A essa chave.
(00:41:45.720 –> 00:41:47.520) Do teu BitLocker.
(00:41:47.520 –> 00:41:47.760) Então,
(00:41:47.760 –> 00:41:49.140) Em essência,
(00:41:49.140 –> 00:41:50.320) Isso não é um backdoor,
(00:41:50.840 –> 00:41:52.160) Não é um key scroll,
(00:41:52.160 –> 00:41:52.800) Uma coisa assim.
(00:41:53.460 –> 00:41:55.480) A sacanagem aqui
(00:41:55.480 –> 00:41:56.820) É que a Microsoft
(00:41:56.820 –> 00:41:57.600) Tem acesso
(00:41:57.600 –> 00:41:58.600) À tua chave
(00:41:58.600 –> 00:41:59.520) E se ela
(00:41:59.520 –> 00:42:00.720) Consegue
(00:42:00.720 –> 00:42:02.900) Passar a chave
(00:42:02.900 –> 00:42:03.600) Pro FBI,
(00:42:03.600 –> 00:42:04.440) Ela,
(00:42:04.440 –> 00:42:05.820) Se mal intencionada
(00:42:05.820 –> 00:42:06.220) Estiver,
(00:42:06.220 –> 00:42:07.880) Ainda poderia usar
(00:42:07.880 –> 00:42:09.000) A chave para ela
(00:42:09.000 –> 00:42:09.960) Descriptografar.
(00:42:09.960 –> 00:42:11.120) O ideal
(00:42:11.120 –> 00:42:11.920) É que ela
(00:42:11.920 –> 00:42:13.860) É que tivesse um recurso,
(00:42:13.860 –> 00:42:15.420) Que ela implementasse
(00:42:15.420 –> 00:42:15.800) Um recurso
(00:42:15.800 –> 00:42:16.640) Que não permitisse
(00:42:16.640 –> 00:42:17.760) Que ela visse a chave.
(00:42:17.760 –> 00:42:18.340) Sim,
(00:42:18.340 –> 00:42:18.780) Exato.
(00:42:18.780 –> 00:42:20.140) Como se faz com senha,
(00:42:20.360 –> 00:42:21.600) Com mais a maturidade.
(00:42:21.680 –> 00:42:22.840) Teria que ter uma chave,
(00:42:22.840 –> 00:42:24.540) É claro que é um pouco complexo,
(00:42:24.540 –> 00:42:25.520) Teria que ter uma chave adicional
(00:42:25.520 –> 00:42:26.200) Para proteger,
(00:42:26.200 –> 00:42:26.820) Para cifrar
(00:42:26.820 –> 00:42:28.140) Essas chaves,
(00:42:28.140 –> 00:42:29.620) Isso teria que ser decifrado
(00:42:29.620 –> 00:42:30.680) Na máquina do usuário
(00:42:30.680 –> 00:42:31.320) Quando ele acessa,
(00:42:31.320 –> 00:42:32.280) Não pode ser decifrado
(00:42:32.280 –> 00:42:32.700) No servidor.
(00:42:32.700 –> 00:42:33.360) Então,
(00:42:33.360 –> 00:42:34.520) Se for considerar
(00:42:34.520 –> 00:42:35.220) Todas as questões
(00:42:35.220 –> 00:42:36.760) De segurança mesmo aí,
(00:42:36.760 –> 00:42:38.240) Iria complicar um pouco
(00:42:38.240 –> 00:42:38.860) A vida do usuário,
(00:42:38.860 –> 00:42:39.120) Sim,
(00:42:39.220 –> 00:42:39.760) Para fornecer
(00:42:39.760 –> 00:42:40.600) Esse nível de segurança
(00:42:40.600 –> 00:42:41.300) Que a gente está falando.
(00:42:41.300 –> 00:42:42.420) Então..
(00:42:42.420 –> 00:42:42.960) E na verdade,
(00:42:42.960 –> 00:42:44.300) O que eu me corrijo,
(00:42:44.300 –> 00:42:44.820) Que na verdade,
(00:42:44.820 –> 00:42:45.900) Ela não vai conseguir
(00:42:45.900 –> 00:42:47.040) Descriptografar
(00:42:47.040 –> 00:42:47.880) As suas informações
(00:42:47.880 –> 00:42:49.640) Porque é o teu computador físico
(00:42:49.640 –> 00:42:50.500) Que está criptografado,
(00:42:50.500 –> 00:42:51.400) Então ela vai ter acesso
(00:42:51.400 –> 00:42:51.920) À chave
(00:42:51.920 –> 00:42:53.660) E aí realmente
(00:42:53.660 –> 00:42:55.040) Só uma força policial
(00:42:55.040 –> 00:42:56.020) Que tiver acesso
(00:42:56.020 –> 00:42:56.960) Ao computador físico
(00:42:56.960 –> 00:42:57.560) É que precisaria
(00:42:57.560 –> 00:42:57.920) Dar a chave
(00:42:57.920 –> 00:42:59.460) Para descriptografá-lo.
(00:42:59.460 –> 00:43:00.060) Não ela.
(00:43:00.060 –> 00:43:01.140) E ela,
(00:43:01.140 –> 00:43:01.560) Se quiser,
(00:43:01.560 –> 00:43:02.220) Depois.
(00:43:02.220 –> 00:43:03.760) Depois que tu bota a máquina.
(00:43:05.180 –> 00:43:06.040) Ela não precisa,
(00:43:06.040 –> 00:43:07.960) Ela não precisa da chave.
(00:43:08.480 –> 00:43:10.860) Mas o que a Forbes,
(00:43:11.140 –> 00:43:12.620) Que é o que está na notícia
(00:43:12.620 –> 00:43:13.460) Que colocou,
(00:43:13.740 –> 00:43:16.500) Que Apple e Meta,
(00:43:16.500 –> 00:43:17.460) Dizem eles,
(00:43:17.460 –> 00:43:20.100) Que configuram os seus sistemas
(00:43:20.100 –> 00:43:20.940) De forma que eles
(00:43:20.940 –> 00:43:22.080) Não tenham acesso à chave.
(00:43:22.080 –> 00:43:22.620) Então, portanto,
(00:43:22.620 –> 00:43:23.540) Seriam mais seguros.
(00:43:24.100 –> 00:43:24.640) Mas, Vinícius,
(00:43:24.640 –> 00:43:24.960) Então,
(00:43:24.960 –> 00:43:26.440) Uma outra notícia
(00:43:26.440 –> 00:43:28.340) Que eu me lembrei,
(00:43:28.340 –> 00:43:29.780) Não estava na nossa pauta,
(00:43:29.780 –> 00:43:30.680) Mas eu lembrei
(00:43:30.680 –> 00:43:31.940) E pesquisei aqui,
(00:43:31.940 –> 00:43:32.720) Foi uma ação
(00:43:32.720 –> 00:43:33.500) Que foi apresentada
(00:43:33.500 –> 00:43:34.360) Lá nos Estados Unidos,
(00:43:34.360 –> 00:43:35.260) Nessa linha.
(00:43:35.260 –> 00:43:37.020) Da questão das proteções
(00:43:37.020 –> 00:43:38.200) Criptográficas
(00:43:38.200 –> 00:43:40.780) Que são vendidas.
(00:43:40.780 –> 00:43:42.580) De que uma ação judicial
(00:43:42.580 –> 00:43:43.440) Contra a Meta,
(00:43:43.440 –> 00:43:44.920) Inclusive com autores
(00:43:44.920 –> 00:43:46.160) De vários países diferentes,
(00:43:46.160 –> 00:43:47.300) Dizendo que
(00:43:47.300 –> 00:43:49.480) Eles teriam acesso
(00:43:49.480 –> 00:43:51.700) Às conversas do WhatsApp,
(00:43:51.840 –> 00:43:53.320) Mesmo criptografadas.
(00:43:53.320 –> 00:43:54.740) Eu não li,
(00:43:54.740 –> 00:43:56.000) Não fui mais a fundo
(00:43:56.000 –> 00:43:56.800) Nos argumentos
(00:43:56.800 –> 00:43:57.540) Que eles colocam,
(00:43:57.540 –> 00:43:58.380) A Meta negou,
(00:43:58.380 –> 00:43:59.780) Diz que não tem acesso,
(00:43:59.780 –> 00:44:00.420) Diz que é
(00:44:00.420 –> 00:44:03.700) Criptografia ponta a ponta.
(00:44:03.700 –> 00:44:05.360) Que é como a criptografia
(00:44:05.360 –> 00:44:06.820) Tem que ser ponta a ponta mesmo.
(00:44:06.820 –> 00:44:11.880) E que a IA leria parte do.
(00:44:11.880 –> 00:44:13.080) A IA da Meta
(00:44:13.080 –> 00:44:14.460) , Leria parte do conteúdo,
(00:44:14.460 –> 00:44:15.280) Mas somente aquilo
(00:44:15.280 –> 00:44:16.100) Que você envia
(00:44:16.100 –> 00:44:18.680) Para a própria Meta e tal,
(00:44:18.680 –> 00:44:21.280) E que seriam alegações falsas.
(00:44:21.400 –> 00:44:23.120) Não fui mais atrás disso,
(00:44:23.120 –> 00:44:23.520) Mas assim,
(00:44:23.520 –> 00:44:24.080) Apenas lembrando
(00:44:24.080 –> 00:44:25.840) Que isso está acontecendo.
(00:44:25.840 –> 00:44:26.900) Lembrando também
(00:44:26.900 –> 00:44:28.220) Que o próprio WhatsApp,
(00:44:28.220 –> 00:44:31.240) Ele é vendido.
(00:44:31.240 –> 00:44:34.340) Como usando a criptografia
(00:44:34.340 –> 00:44:36.700) Presente também no Signal.
(00:44:36.700 –> 00:44:39.100) Que faz do Signal.
(00:44:39.100 –> 00:44:40.920) Também uma ferramenta mais,
(00:44:40.920 –> 00:44:41.840) Digamos assim,
(00:44:41.840 –> 00:44:43.240) A única questão,
(00:44:43.240 –> 00:44:45.000) Reafirmo aqui.
(00:44:45.000 –> 00:44:46.680) É que quando você faz
(00:44:46.680 –> 00:44:48.640) O backup das suas conversas
(00:44:48.640 –> 00:44:50.200) Do WhatsApp no Google
(00:44:50.200 –> 00:44:51.640) Ou em outra ferramenta
(00:44:51.640 –> 00:44:52.280) De backup,
(00:44:52.280 –> 00:44:53.620) Aí sim,
(00:44:53.620 –> 00:44:55.400) Não somente forças policiais
(00:44:55.400 –> 00:44:56.300) Conseguiriam ter acesso,
(00:44:56.300 –> 00:44:57.200) Mas se alguém tem acesso
(00:44:57.200 –> 00:44:58.460) À tua conta do Google,
(00:44:58.460 –> 00:45:00.360) Além de todos os teus e-mails,
(00:45:00.360 –> 00:45:01.220) Que é algo crítico,
(00:45:01.220 –> 00:45:02.780) Conversas do WhatsApp
(00:45:02.780 –> 00:45:04.700) Talvez seja mais crítico ainda.
(00:45:04.700 –> 00:45:05.960) Porque as pessoas falam.
(00:45:05.960 –> 00:45:08.020) A forma como você usa o WhatsApp
(00:45:08.020 –> 00:45:09.120) Para assuntos,
(00:45:09.120 –> 00:45:10.400) Inclusive tem assuntos médicos
(00:45:10.400 –> 00:45:11.320) Muitas vezes.
(00:45:11.320 –> 00:45:13.640) Vai lá, conversa com o teu médico,
(00:45:13.640 –> 00:45:14.640) Pede receita,
(00:45:14.720 –> 00:45:15.640) Então todas essas coisas
(00:45:15.640 –> 00:45:16.760) Ficam lá dentro também.
(00:45:16.760 –> 00:45:18.020) Assim,
(00:45:18.020 –> 00:45:19.640) Essa ação coletiva
(00:45:19.640 –> 00:45:20.660) Que está sendo movida,
(00:45:20.660 –> 00:45:21.180) Primeiro,
(00:45:21.180 –> 00:45:23.140) O protocolo de comunicação
(00:45:23.140 –> 00:45:24.220) Do WhatsApp,
(00:45:24.220 –> 00:45:26.280) Eles usam,
(00:45:26.280 –> 00:45:27.520) É o Signal Protocol
(00:45:27.520 –> 00:45:28.600) Que foi criado pelo Moxi,
(00:45:28.600 –> 00:45:29.940) O Moxi Margin Spike,
(00:45:29.940 –> 00:45:30.540) Tá?
(00:45:30.540 –> 00:45:32.380) Fundador da Open
(00:45:32.380 –> 00:45:33.820) Wiseper Systems,
(00:45:33.820 –> 00:45:34.460) Tá?
(00:45:34.460 –> 00:45:37.300) Hoje é Signal Foundation,
(00:45:37.300 –> 00:45:37.760) Tá?
(00:45:37.760 –> 00:45:39.180) Ou Sina Foundation.
(00:45:39.180 –> 00:45:41.420) E o protocolo em si,
(00:45:41.420 –> 00:45:42.340) Ele é sólido,
(00:45:42.340 –> 00:45:43.220) Tá?
(00:45:43.860 –> 00:45:44.980) E aí nós temos
(00:45:44.980 –> 00:45:47.680) Uma primeira coisa já de cara,
(00:45:47.680 –> 00:45:49.400) Quando você interage com a IA,
(00:45:49.400 –> 00:45:53.540) Você já saiu fora desse protocolo.
(00:45:53.540 –> 00:45:53.960) Sim.
(00:45:53.960 –> 00:45:55.740) Quando você interagir com a IA,
(00:45:55.740 –> 00:45:56.760) Você já está mandando coisa
(00:45:56.760 –> 00:45:58.880) Para fora da tua conversa privada ali,
(00:45:58.880 –> 00:45:59.260) Digamos,
(00:45:59.260 –> 00:46:00.940) Tu está interagindo diretamente com a meta
(00:46:00.940 –> 00:46:02.800) E obviamente a meta vai ter acesso ao conteúdo
(00:46:02.800 –> 00:46:05.060) Até para poder passar pelos modelos
(00:46:05.060 –> 00:46:05.440) Dela lá,
(00:46:05.440 –> 00:46:06.160) Do LLM dela.
(00:46:06.160 –> 00:46:08.920) A alegação que está sendo feita
(00:46:08.920 –> 00:46:11.860) É de que existiria,
(00:46:12.140 –> 00:46:12.600) Aí sim,
(00:46:12.600 –> 00:46:14.300) Meio que uma porta dos fundos,
(00:46:14.300 –> 00:46:14.460) Tá?
(00:46:14.460 –> 00:46:17.820) Que a meta pode acionar
(00:46:17.820 –> 00:46:19.500) Por conta
(00:46:19.500 –> 00:46:22.100) E ela teria praticamente um acesso
(00:46:22.100 –> 00:46:23.080) Em tempo real
(00:46:23.080 –> 00:46:24.200) À conversa do usuário.
(00:46:24.200 –> 00:46:26.580) É isso que está sendo alegado.
(00:46:26.580 –> 00:46:27.980) Então,
(00:46:27.980 –> 00:46:28.940) Então,
(00:46:28.940 –> 00:46:29.940) Tu tens o protocolo
(00:46:29.940 –> 00:46:31.120) Signo ali em andamento,
(00:46:31.120 –> 00:46:33.580) Mas o aplicativo em si
(00:46:33.580 –> 00:46:35.340) Aceitaria uma task lá,
(00:46:35.340 –> 00:46:36.280) Uma tarefa
(00:46:36.280 –> 00:46:38.200) Que ativaria esse processo
(00:46:38.200 –> 00:46:40.540) De monitoramento das mensagens.
(00:46:40.540 –> 00:46:43.160) Se o protocolo está bem implementado
(00:46:43.160 –> 00:46:44.400) No WhatsApp,
(00:46:44.400 –> 00:46:46.100) A gente imagina que esteja,
(00:46:46.100 –> 00:46:48.320) Lembra que ele protege
(00:46:48.320 –> 00:46:49.700) A comunicação fim a fim.
(00:46:49.700 –> 00:46:51.040) Certo?
(00:46:51.040 –> 00:46:51.360) Então,
(00:46:51.360 –> 00:46:52.560) O Vinícius se comunicando
(00:46:52.560 –> 00:46:53.220) Com o Guilherme,
(00:46:53.220 –> 00:46:54.580) Só o Guilherme,
(00:46:54.580 –> 00:46:55.440) Na ponta dele,
(00:46:55.440 –> 00:46:56.800) Vai conseguir decifrar a mensagem
(00:46:56.800 –> 00:46:57.540) E ver o conteúdo.
(00:46:57.540 –> 00:46:59.060) E vice-versa
(00:46:59.060 –> 00:47:00.000) Quando o Guilherme me responde.
(00:47:00.000 –> 00:47:00.200) Então,
(00:47:00.200 –> 00:47:01.640) Quem está no meio do caminho,
(00:47:02.520 –> 00:47:03.620) A meta está no meio do caminho,
(00:47:03.620 –> 00:47:04.400) Não conseguiria ver
(00:47:04.400 –> 00:47:05.120) Essas mensagens.
(00:47:05.120 –> 00:47:06.240) Agora,
(00:47:06.240 –> 00:47:07.680) Se eles conseguem mandar
(00:47:07.680 –> 00:47:09.280) Um comando para a ponta,
(00:47:09.280 –> 00:47:11.140) Que também é deles,
(00:47:11.140 –> 00:47:12.100) Que é o aplicativo,
(00:47:12.100 –> 00:47:14.860) Aí o software pode fazer
(00:47:14.860 –> 00:47:15.360) Qualquer coisa
(00:47:15.360 –> 00:47:16.040) Que eles programarem.
(00:47:16.040 –> 00:47:17.120) Então,
(00:47:17.120 –> 00:47:17.780) O que eles estão acusando
(00:47:17.780 –> 00:47:19.980) É que existe um comando aqui
(00:47:19.980 –> 00:47:21.200) Que eles poderiam mandar
(00:47:21.200 –> 00:47:22.000) Para a ponta,
(00:47:22.000 –> 00:47:22.560) Para um endpoint,
(00:47:22.560 –> 00:47:23.160) Que seria
(00:47:23.160 –> 00:47:24.500) Ou o celular do Guilherme
(00:47:24.500 –> 00:47:24.920) Ou o meu,
(00:47:24.920 –> 00:47:26.960) E a partir daí
(00:47:26.960 –> 00:47:28.180) Acompanhar as mensagens
(00:47:28.180 –> 00:47:30.060) Praticamente em tempo real.
(00:47:30.060 –> 00:47:30.740) Então,
(00:47:30.740 –> 00:47:32.480) O protocolo continua sendo seguro,
(00:47:33.100 –> 00:47:34.620) Ninguém no meio do caminho
(00:47:34.620 –> 00:47:35.540) Consegue pegar
(00:47:35.540 –> 00:47:37.080) A tua comunicação,
(00:47:37.080 –> 00:47:38.120) Mas
(00:47:38.120 –> 00:47:39.860) A meta,
(00:47:39.860 –> 00:47:41.000) Assim como qualquer outro
(00:47:41.000 –> 00:47:42.200) Adversário na ponta,
(00:47:42.200 –> 00:47:42.720) Conseguiria
(00:47:42.720 –> 00:47:43.720) E ela tem a vantagem
(00:47:43.720 –> 00:47:45.160) De controlar o software,
(00:47:45.400 –> 00:47:45.940) Então, assim,
(00:47:45.940 –> 00:47:48.040) Controlar o software cliente
(00:47:48.040 –> 00:47:49.200) E que é um baita de um problema.
(00:47:49.200 –> 00:47:50.800) É a grande questão
(00:47:50.800 –> 00:47:52.680) Da criptografia aplicada.
(00:47:52.680 –> 00:47:53.880) Não parece ser um problema
(00:47:53.880 –> 00:47:55.140) No modelo criptográfico,
(00:47:55.140 –> 00:47:56.620) Embora a IA tenha descoberto
(00:47:56.620 –> 00:47:57.120) Esses dias
(00:47:57.120 –> 00:47:58.620) No OpenSSL
(00:47:58.620 –> 00:47:59.400) E não sei quantos
(00:47:59.400 –> 00:48:00.120) Zero Days
(00:48:00.120 –> 00:48:02.200) Numa passada ali.
(00:48:02.200 –> 00:48:03.160) Que já foram corrigidos
(00:48:03.160 –> 00:48:03.640) E tudo mais,
(00:48:03.640 –> 00:48:04.820) Mas
(00:48:04.820 –> 00:48:07.040) O perplexity
(00:48:07.040 –> 00:48:08.800) Chamou a atenção
(00:48:08.800 –> 00:48:10.540) De um fato interessante.
(00:48:10.540 –> 00:48:11.640) Vale notar
(00:48:11.640 –> 00:48:12.720) Que o escritório de advocacia
(00:48:12.720 –> 00:48:13.760) Responsável pela ação
(00:48:13.760 –> 00:48:14.320) É o mesmo
(00:48:14.320 –> 00:48:14.880) Que representa
(00:48:14.880 –> 00:48:15.780) O grupo NSO,
(00:48:15.780 –> 00:48:17.580) Criadores do Pegasus.
(00:48:17.580 –> 00:48:19.460) Em outro processo
(00:48:19.460 –> 00:48:20.800) Contra o próprio WhatsApp,
(00:48:20.800 –> 00:48:21.820) Que levanta questionamentos
(00:48:21.820 –> 00:48:22.760) Sobre os interesses
(00:48:22.760 –> 00:48:23.380) Por trás
(00:48:23.380 –> 00:48:24.280) Da ação,
(00:48:24.280 –> 00:48:24.620) Claro,
(00:48:24.620 –> 00:48:25.260) O caso ainda
(00:48:25.260 –> 00:48:27.040) Não foi julgado.
(00:48:29.020 –> 00:48:29.940) Vamos ver o que vai
(00:48:29.940 –> 00:48:31.300) Aparecer aí,
(00:48:31.300 –> 00:48:32.120) Daqui a pouco
(00:48:32.120 –> 00:48:34.180) Daqui a pouco
(00:48:34.180 –> 00:48:35.160) Se mostra
(00:48:35.160 –> 00:48:35.680) Que de fato
(00:48:35.680 –> 00:48:36.740) Os caras tinham esse acesso,
(00:48:36.960 –> 00:48:37.360) Vai saber.
(00:48:38.380 –> 00:48:39.720) Diz que parece
(00:48:39.720 –> 00:48:40.680) Que teria evidências
(00:48:40.680 –> 00:48:42.380) No código,
(00:48:42.380 –> 00:48:43.700) Alguma coisa assim,
(00:48:43.700 –> 00:48:44.520) Mas enfim,
(00:48:44.520 –> 00:48:46.340) Não vimos essas evidências.
(00:48:46.340 –> 00:48:47.340) Vinícius,
(00:48:47.340 –> 00:48:48.560) Aqui no Brasil
(00:48:48.560 –> 00:48:49.000) Gosta,
(00:48:49.000 –> 00:48:49.760) O pessoal gosta
(00:48:49.760 –> 00:48:50.500) De dizer que o ano
(00:48:50.500 –> 00:48:51.020) Só começa
(00:48:51.020 –> 00:48:52.140) Depois do carnaval.
(00:48:52.480 –> 00:48:53.160) Então como
(00:48:53.160 –> 00:48:55.040) Já passou o carnaval,
(00:48:55.040 –> 00:48:56.180) A gente pode mais uma vez
(00:48:56.180 –> 00:48:57.340) Dizer feliz ano novo
(00:48:57.340 –> 00:48:58.260) Para os nossos ouvintes.
(00:48:58.260 –> 00:49:00.820) É um antes e um depois.
(00:49:00.820 –> 00:49:04.080) E estamos de volta.
(00:49:04.080 –> 00:49:05.100) Vamos ver se a gente consegue
(00:49:05.100 –> 00:49:05.720) Agora manter
(00:49:05.720 –> 00:49:08.220) A cadência semanal
(00:49:08.220 –> 00:49:09.100) Aí de gravações
(00:49:09.100 –> 00:49:10.760) E esperamos que,
(00:49:10.760 –> 00:49:11.740) Não sei se você tem
(00:49:11.740 –> 00:49:12.540) Mais alguma observação,
(00:49:12.540 –> 00:49:12.920) Vinícius,
(00:49:12.920 –> 00:49:14.080) Já vou terminando também.
(00:49:14.080 –> 00:49:14.940) Não, não,
(00:49:14.940 –> 00:49:15.400) É isso aí.
(00:49:15.400 –> 00:49:16.380) A gente já está,
(00:49:16.380 –> 00:49:16.800) Inclusive,
(00:49:16.800 –> 00:49:18.100) Chegando no meio-dia.
(00:49:18.100 –> 00:49:19.520) A gente teve vários
(00:49:19.520 –> 00:49:20.660) Problemas técnicos hoje
(00:49:20.660 –> 00:49:21.700) Ao longo da gravação.
(00:49:22.240 –> 00:49:22.760) Exato.
(00:49:22.760 –> 00:49:24.260) Assim,
(00:49:24.260 –> 00:49:25.540) É ruim quando a gente
(00:49:25.540 –> 00:49:26.060) Fica muito tempo
(00:49:26.060 –> 00:49:26.560) Sem gravar.
(00:49:26.560 –> 00:49:27.840) Aí algumas coisas
(00:49:27.840 –> 00:49:28.940) Mudam de versão
(00:49:28.940 –> 00:49:30.640) E já atrapalham a vida.
(00:49:30.640 –> 00:49:32.080) Se a gente está
(00:49:32.080 –> 00:49:32.820) Gravando toda hora,
(00:49:32.820 –> 00:49:34.700) A mudança é mais suave
(00:49:34.700 –> 00:49:36.760) Do que desse jeito.
(00:49:36.760 –> 00:49:38.460) Mas de qualquer forma,
(00:49:38.460 –> 00:49:38.960) Deu tudo certo.
(00:49:38.960 –> 00:49:39.620) Não, tudo certo.
(00:49:39.620 –> 00:49:41.100) Se você está ouvindo.
(00:49:41.100 –> 00:49:44.220) Esperamos que esteja ouvindo,
(00:49:44.220 –> 00:49:45.160) Senão vai ficar algo..
(00:49:45.160 –> 00:49:45.300) Esperamos que sim.
(00:49:45.300 –> 00:49:47.300) Então nos encontraremos
(00:49:47.300 –> 00:49:48.660) Agora no próximo episódio
(00:49:48.660 –> 00:49:49.280) Do podcast
(00:49:49.280 –> 00:49:50.660) Segurança Legal.
(00:49:50.660 –> 00:49:51.800) Até a próxima!
(00:49:52.000 –> 00:49:53.420) Até a próxima!

104 Listeners

111 Listeners

178 Listeners

170 Listeners

92 Listeners

42 Listeners

1,014 Listeners

119 Listeners

83 Listeners

44 Listeners

34 Listeners

20 Listeners

19 Listeners

9 Listeners

1 Listeners