
Sign up to save your podcasts
Or


Neste episódio você irá descobrir os riscos de privacidade do Microsoft Recall, como IAs usam fotos de crianças sem permissão e o futuro da regulação de tecnologia na Europa com a ascensão da extrema-direita.
Guilherme Goulart e Vinicius Serafim analisam as graves falhas de privacidade e segurança da informação do Microsoft Recall, que coleta snapshots de toda a atividade do usuário. O debate aprofunda o uso antiético de inteligência artificial com imagens infantis, a importância da privacidade infantil, e a necessidade de uma regulação de tecnologia mais robusta, como a LGPD. Discutem também um caso de cibersegurança onde um ex-funcionário deletou servidores, evidenciando falhas na gestão de credenciais, o movimento contra o uso de celulares por crianças e o contrato do governo brasileiro com a OpenAI para análise de dados judiciais. Assine o podcast e siga-nos no Spotify e Apple Podcasts para mais debates sobre soberania digital e computação em nuvem. Não se esqueça de nos avaliar.
Ajude as vítimas de enchentes no RS (Sugestões de doações via PIX, Sugestões de outras instituições recebendo donativos)
Visite nossa campanha de financiamento coletivo e nos apoie!
Participe da Comunidade:
ShowNotes:
Há 10 anos no Segurança Legal
📝 Transcrição do Episódio
(00:02) Bem-vindos e bem-vindas ao Café Segurança Legal, Episódio 366, gravado em 14 de junho de 2024. Eu sou o Guilherme Goulart e, junto com Vinícius Serafim, vamos trazer para vocês algumas das notícias do último período. E aí, Vinícius, tudo bem? E aí, Guilherme, tudo bem? Olá aos nossos ouvintes. Esse é o nosso momento de conversarmos sobre algumas notícias e acontecimentos que nos chamam a atenção, tomando um café de verdade ou um chimarrão de verdade. Então, pegue a sua bebida preferida e vem conosco. Eu só tenho SVP aqui. Estou sem.
(00:35) Hoje estou sem café, sem chimarrão e sem nada. Sem água. Nada. Pelo menos uma aguinha é bom na gravação para molhar a garganta. Eu fui procurar, mas não tinha na garrafinha, ficou em cima da hora. Bom, vai sem. Vamos assim mesmo. Para entrar em contato conosco, enviar suas críticas e sugestões, é muito fácil: basta enviar uma mensagem para [email protected].
(00:58) Ou, se preferir, também pelo @SegurancaLegal no Twitter e no Mastodon, no @[email protected]. Já pensou em apoiar o projeto Segurança Legal? Acesse o site apoia.se/segurancalegal, escolha uma das modalidades de apoio e, entre os benefícios recebidos, você terá acesso ao nosso grupo exclusivo de apoiadores no Telegram. Eu também quero lembrar o blog da Brown Pipe, Vinícius. Se você quiser ficar atento às notícias, algumas delas que aparecem aqui no podcast, outras que vão no nosso mailing semanal, tanto para
(01:34) se inscrever no mailing quanto para conhecer as notícias do blog da Brown Pipe, os links ficam aqui no show notes. Lembrando que a gente ainda está incentivando nossos ouvintes que façam doações para o Rio Grande do Sul. Ainda vai ser necessário por um longo período. Quem está, sobretudo aqui em Porto Alegre, Canoas, as coisas… Dizer que estão se normalizando é um certo exagero, porque a gente ainda tem muitas pessoas fora de casa e muitos bairros ainda cheios de escombros. É o caso ali da Arena do
(02:06) Grêmio, para quem não conhece Porto Alegre, mas vai saber que é uma área importante da cidade. Eu estava conversando com um amigo meu, o Luan Guilherme, aliás, se estiver nos ouvindo, abraço, Luan. Se não estiver ouvindo, depois eu converso contigo para tirar satisfação. Mas o Luan está fazendo o mestrado dele lá na PUC e a gente estava conversando ontem à noite, batendo um papo, e ele falando que tem funcionários lá da PUC, com os quais ele acaba convivendo e conversando, que estão ainda morando em abrigo. Sim, porque
(02:38) perderam tudo. Perderam tudo, não têm para onde voltar. A água baixou, mas não têm para onde voltar. Você tem bairros como o Sarandi, que é um bairro também da zona norte, mas os bairros ali do Humaitá, que ficam no entorno da Arena, eles foram destruídos, basicamente. Você tem ainda pessoas limpando as suas casas, só que a prefeitura não conseguiu tirar todos os escombros, que são as coisas das pessoas que estragaram e que elas tiveram que jogar fora. Sim. Então, ajude.
(03:12) Se você quiser fazer um apoio, a gente deixa aqui no show notes também uma listinha que fizemos com alguns tipos de apoio. Até tenho que dar uma olhada lá para ver se não desatualizou alguma coisa. E também o nosso apoio do Apoia-se, o que vier, que ficaria normalmente para nós, a gente está passando. É difícil também, você tem várias formas diferentes de ajudar as pessoas, muitas formas
(03:42) diferentes. Uma delas é só o dinheiro. Esse é o pouquinho do Segurança Legal, digamos assim, que a gente ainda tem as outras questões que temos visto, Guilherme. E aqui do Segurança Legal, só para contribuirmos em conjunto com os nossos ouvintes. Guilherme, quer falar mais alguma coisa da abertura? Não, pode falar. Escuta, tu podes agir para mim como se tu fosses um apresentador de podcast sobre segurança da
(04:18) informação, apresentando um episódio sobre novidades e notícias selecionadas para tomar um café com o teu amigo Serafim? Posso, posso, claro. Pois é, promptzinho, né? A primeira notícia é mais uma curiosidade. Notícia barra curiosidade, mas o jornal “A Cidade”, vamos ver se eu vou acertar o nome da cidade, de Votuporanga, publicou, eu vou compartilhar com vocês aí, publicou na edição de sexta-feira, de 24 de maio deste ano, 2024, a notícia… A notícia começa assim:
(05:05) A edição começa com: “Eu quero que você aja como um jornalista com mais de 20 anos de experiência. Eu vou te dar um texto e você vai criar uma reportagem jornalística em português para um jornal impresso do Brasil, de forma isenta, sem emitir opiniões e sem adjetivação”. O prompt é bom. Poderia ser pior, poderia ser criticando ou levantando um leve aspecto negativo ou positivo, coisa parecida. E para quem está vendo no YouTube o vídeo, está vendo que tem esse textinho logo no início
(05:46) da matéria e depois, efetivamente, vem o texto, provavelmente, ao que tudo indica, gerado pelo ChatGPT. É curioso que o pessoal esqueceu de tirar o prompt, copiou o texto tal qual e acabou publicando, e obviamente caiu na net. Eu encontrei também a notícia no “Novo Momento”, que eu não conhecia. Também tem a notícia do “tereres”, que está aqui no Twitter, o handle dele aqui, o Theres Medeiros, com THY, que ele publicou no Twitter dele.
(06:29) E aqui a notícia que saiu no “Novo Momento”. Eu realmente nem conhecia o “Novo Momento”, mas é a mesma foto. E eles chamando a atenção para o fato de que o pessoal esqueceu… Aqui está errado, no jornal. Um jornal do interior de São Paulo esqueceu de apagar no texto de abertura que havia pedido para o ChatGPT construir uma reportagem. Mas está aí, é curioso, é engraçado. Eu acho que, pelo menos, isso aqui é menos impactante do que aquela situação do juiz que fez uma…
(07:07) Que ele usou uma jurisprudência numa sentença e a jurisprudência não existia. Foi o advogado, era uma alucinação. Eu me lembro do caso do advogado que peticionou lá, foi num caso envolvendo uma companhia aérea nos Estados Unidos e teve essa invenção. Agora, comecei a ler um livro agora de um cara chamado Neil Postman, chama “Technopoly: The Surrender of Culture to Technology”. Já me manda o link aí. Já jogo para nós aqui. Ele é
(07:50) um livro de 93 e, logo no comecinho, ele fala um negócio interessante: que toda tecnologia é, ao mesmo tempo, um “burden” e um “blessing”, um fardo e uma bênção. Ou seja, ela sempre vai ter esses aspectos. Claro, nós também… Essa é uma outra coisa que se discute nessa discussão de como a tecnologia… dos propósitos da tecnologia. Ela é construída para finalidades, então as suas finalidades, às vezes não, elas estão dentro do próprio uso que a tecnologia se propõe. Ou seja, ela foi criada para alguma coisa, dentro de um
(08:30) contexto, por pessoas. Então, você carrega junto consigo, naquela tecnologia, propósitos. Ela não vai ser neutra, como incorretamente se aponta. E aí uma coisa que me lembrei agora: peguei, dia desses, um trabalho de faculdade feito pelo ChatGPT. Você vai começando a perceber quando as coisas são feitas pelo GPT. Então, era um trabalho em que eu dava um texto para os alunos e eles tinham que responder perguntas até relativamente simples sobre aquele texto. Então, é óbvio, você
(09:02) precisa ler o texto e responder conforme o texto. O objetivo é que os alunos leiam o texto, no final das contas. E as respostas não tinham absolutamente nenhuma conexão ou relação com o texto, ao ponto de, ao fim, estar assim — era alguma coisa relacionada com como os tribunais se posicionavam em uma determinada matéria — e no final da resposta do aluno dizia: “Você precisa verificar o sistema legislativo, o sistema legal do seu país, para verificar como que os tribunais vão se posicionar nesse caso”. Ou seja, só
(09:32) jogou a pergunta e obteve a resposta. O cara nem leu. Ele não leu a resposta. Ele não leu, porque se ele tivesse lido e entendido a resposta, ele teria retirado aquilo. Ou teria dito, dado mais contexto: “Eu estou no Brasil”, não sei o quê. Mas, ainda assim, não pegaria a posição do autor sobre aquilo. Então, ao mesmo tempo que é engraçado, é um pouco triste também, porque poxa, o cara se expôs ali. Não tem problema grandes redes de jornal, o próprio Estadão já tem lá suas diretrizes sobre como usar Inteligência Artificial. O problema é
(10:09) quando o cara usa de uma forma meio… Qual é o valor que você quer aqui? É você não fazer as coisas que você deveria fazer. Porque tem certas coisas que você ainda vai precisar fazer. Um cara que escreve sobre opinião no jornal está sendo pago para dar a opinião dele, e não para a gente ouvir a opinião do ChatGPT. Sim. Agora, claro que você pode sumarizar certas questões, certos estudos. Cara, o lance, pelo menos por enquanto, é muito ter essa supervisão humana do
(10:45) resultado do que ele está gerando. E se tu estás fazendo uma coisa que é autoral, tu estás botando lá teu nome, se espera que… Pelo menos, a gente lá no blog usa o ChatGPT para dar uma acelerada na tradução, para acelerar o processo. Principalmente traduzir, mas aquilo ali é revisado por ti, é curado por ti. Então, o valor ali existe. Porque poxa, isso aqui, segundo o que o Guilherme está levantando, separando, é relevante. Claro que se alguém não concordar com a
(11:20) tua visão, é um outro problema. Agora, é diferente do cara chegar e dizer assim: “ChatGPT, me dá aí umas notícias e agora me dá algumas opiniões sobre isso e algumas considerações. Agora faz um artigo sobre isso, cola lá e deu”. Sim. E quando a gente faz as traduções, quando há necessidade de fazer algum comentário, a gente separa: “Isso aqui é a tradução feita pela máquina e aqui os comentários feitos pelo Guilherme”. E aí você consegue destacar bem. Hoje, com a Inteligência Artificial, ficou muito fácil você ter acesso a conteúdos de fora, em outras
(11:58) línguas que você não fala. Mas está sendo feita uma curadoria ali com materiais em inglês, em francês, em italiano, sobretudo inglês, francês e italiano, que são algumas coisas em espanhol também. Então, você meio que te abre uma curadoria mesmo. Mas não está sendo criado exatamente pela IA. Bom, posso trazer uma minha? Manda ver. Já me diz qual foi a tua primeira. A tua primeira é a do Microsoft Recall, que a gente falou aqui, acho que foi no último episódio. Ainda tem repercussões sobre. A gente comentou do Copilot Plus AI, que
(12:32) agora está vindo. Cara, isso vai sacudir o mercado, viu? Pelo que eu estava vendo na Computex 2024, o pessoal falou dos lançamentos, inclusive para suportar o Copilot Plus AI, que a Microsoft colocou alguns requisitos mínimos para o PC poder ser um Copilot Plus PC, não Copilot Plus AI. Copilot Plus PC, que tem que atingir alguns níveis mínimos de desempenho para poder ser utilizado. Então, está fervendo esse negócio, cara. Os problemas que estão emergindo, que
(13:13) foram destacados pelo Steve Gibson no episódio 977 do Security Now, vão no sentido das questões relacionadas à proteção de dados, à privacidade e também à segurança da informação. O que ele faz… O Steve Gibson fez uma análise de dois artigos de um pesquisador chamado Kevin Beaumont, que aponta como essa nova funcionalidade, colocada do jeito que foi colocada, prejudica bastante a segurança do Windows e também das próprias pessoas que vão utilizar. Vai ficar no show notes esse artigo,
(13:49) e tem uma série de print screens e de discussões mais técnicas sobre a segurança ou a falta da segurança. Basicamente, a preocupação é que tudo que você faz com esse Microsoft Recall, que por enquanto vai funcionar só nesses PCs que você falou, Vinícius, por enquanto… É que tudo o que você faz fica guardado num snapshot, eu acho que é de 5 em 5 segundos, 15 em 15. Tem um tempo lá, provavelmente deve poder se alterar isso, fica armazenado em snapshots e guardado no computador. E a grande discussão: “Não, mas tudo está criptografado, fica sendo
(14:27) processado na máquina”. Bom, pelo menos por enquanto. Você não tem nenhuma garantia de que isso não possa ir para outros lugares. Mas o que esse pesquisador colocou é que usuários logados na máquina, outros usuários logados na máquina que não o dono daquela conta em que o Recall está funcionando, conseguiriam ter acesso a esses snapshots. O que demonstrou que a própria Microsoft, como ocorreu em outros contextos e como é comum acontecer na indústria de tecnologia, busca sair na frente para dominar mercado, para só depois pensar em
(15:00) aspectos de segurança. Ou não somente só depois, mas para pensar de maneira mais profunda. A rapidez na tomada de certos mercados certamente é um inimigo das reflexões relacionadas à segurança da informação. Isso, inclusive, é ligado à gestão de outros riscos pelo ser humano. Basta ver a questão dos riscos ambientais que a gente está vendo aqui em Porto Alegre, a dinâmica é mais ou menos a mesma. Oi. E tem também aqui, só compartilhando, do Krebs on Security, nesse mesmo tema.
(15:34) Inclusive a do Patch Tuesday, em que a Microsoft resolveu deixar por default desativado o Recall. Ele estava por default ativado. E aí ele faz aqui… Eu vou deixar ali no show notes para acrescentar na tua notícia, para o pessoal poder acessar também. Ele chama a atenção, inclusive, para situações em que atacantes tiveram acesso, não do Recall, mas acesso a máquinas de pessoas que fazem determinadas operações, para ver como essas operações são feitas e aí
(16:13) conseguir fraudar essas operações ou realizá-las de forma fraudulenta. E ele dá o exemplo, inclusive, de um ataque acontecendo usando o SWIFT, os ataques em SWIFT, aquelas transferências bancárias internacionais. Então ele chama a atenção justamente para isso. Imagina o cara poder entrar, invadir tua máquina, e ele consegue usar o Recall para ver como tu realizas tuas operações. Claro, qual é o teu modus operandi. Sim. E essa é a preocupação colocada por esse Kevin Beaumont. Primeiro, que você tem um potencial
(16:49) disso vazar. Porque eles comentam: “Ah, mas esse material vai ficar todo criptografado”. Sim, ele vai ficar criptografado numa perspectiva de que, se roubarem o teu computador, por exemplo, se alguém tiver um acesso físico com ele desligado, não vai conseguir ter acesso a esses dados. Agora, uma vez que você se loga na conta, isso precisa ser descriptografado. E você tem quantidades imensas de malware e de outros programas que poderiam ter acesso a isso, inclusive pessoas mal-intencionadas. E então, isso faz
(17:25) emergir muitos problemas e muitas questões, tanto de segurança, mas também de proteção de dados pessoais. Qual seria o impacto de você ter tudo o que você já fez no computador podendo vazar, mas ao mesmo tempo podendo ser lido por uma máquina para se tirar inferências? Seria quase como uma última janela que vai se abrindo. Porque isso já é feito com os e-mails, passou a ser feito com redes sociais, passou a ser feito com as buscas que a pessoa faz, sistemas que verificam os locais,
(18:08) os sites que você acessa, aquilo que você acessa na internet. Mas ainda tinha um último lugar que nem sempre podia ser verificado, que era o que exatamente você digita, ou não só o que você digita, mas o que você vê. E como você vê, o que você faz. O que tu digitas… Lembrando que já há algum tempo o esquema de telemetria já estava usando. Sim, mas aqui é pior, é a tela mesmo. E está sendo guardado, e não é só aquilo ser guardado, é aquilo ser tratado e processado por uma
(18:41) ferramenta de Inteligência Artificial. Tudo que você digita, tudo que você vê. E o Steve Gibson comenta: “Poxa, as pessoas normais vão ver pornografia, por exemplo”. Não sei. Então você está colocando contextos ali agregados que são muito… têm um potencial muito grande de ferir direitos da personalidade da pessoa. E ele ainda colocou aquilo que você tinha comentado, que até agora a forma como eles tinham colocado a ferramenta, ela seria opt-out. Ou seja, todo mundo que usar a máquina vai estar com isso habilitado, você precisa
(19:13) sair. E aí o Steve Gibson comenta sobre essa questão da “tirania do default”, que, salvo engano, é falado lá no “Filter Bubble” pela primeira vez, e como é também arriscado e potencialmente poderia, agora digo eu, violar as leis de proteção de dados por não ser uma ferramenta que adote o “privacy by default”. Aí depois eles acabaram voltando atrás. Eu só queria ler aqui uma parte do show notes que vai estar também no nosso, que é o show notes do Security… é o show notes do show notes.
(19:47) O show notes do show notes. Ele disse isso aqui, traduzido também por Inteligência Artificial. Inclusive, ele fez uma tradução bem estranha ali do “learned”. Aquilo que a gente aprendeu. Mas não é, às vezes o “learn” nem sempre é aprender, é perceber, talvez. Então, tem essas nuances da tradução. O que foi percebido, observado talvez. Ele disse o seguinte, abre aspas: “Foi também muito interessante descobrir o quanto é econômico o armazenamento do Recall. Isso faz sentido
(20:22) se estiver armazenando e comprimindo o texto, já que sabemos quanta redundância existe em textos linguísticos. Mas Kevin diz que vários dias de trabalho comprimem esses snapshots”, ele está falando sobre o tamanho dos snapshots, “e disse que vários dias de trabalho comprimem para cerca de 90 KB de armazenamento no banco de dados. Caramba, vejam, 90 KB, não são as imagens, nada. Por quê? Porque eles ficam usando OCR em cima dessas coisas e transformam tudo em texto. Se considerarmos vários dias como dois, isso equivale a cerca de 45 KB por dia. Uma alocação de armazenamento de 50 GB
(21:00) consumida à taxa de 45 KB por dia renderia 342 anos de armazenamento. Tenho certeza de que entenderemos mais no futuro, mas não acho que o Recall armazenará os últimos 90 dias de uso de um PC. Parece que ele sempre estará gravando toda a vida útil do PC. É por isso que o título do segundo post de Kevin faz muito mais sentido. O título dele começava com: ‘Roubando tudo que você já digitou ou viu no seu próprio PC com o Windows’. E acho que é exatamente isso que a Microsoft está planejando fazer. Se eles conseguirem capturar e comprimir todo o texto
(21:37) exibido nas telas do Windows 11, e dada a explosão na capacidade de armazenamento local em massa e a eficiência da compressão de texto, eles claramente têm a capacidade de armazenamento para capturar tudo para sempre. E isso nos leva ao título que dei ao podcast de hoje”, ele falando, “‘Um grande modelo de linguagem em cada panela’. Por que a Microsoft gostaria de capturar cada coisa que um usuário digita e vê em seu próprio PC durante toda a sua vida útil? Eu tenho uma teoria: a Microsoft quer causar um grande impacto na IA. Então, que tal usar todos esses dados
(22:13) para treinar um grande modelo de linguagem totalmente pessoal e local? E se um futuro grande modelo de linguagem local não fosse usado apenas para indexar e pesquisar o seu histórico de PC, mas estivesse continuamente sendo treinado com todo o seu corpus de dados pessoais, de modo que fosse possível interagir conversacionalmente com a sua própria IA pessoal, que cresceu para conhecê-lo intimamente, porque esteve observando e aprendendo tudo que você tem feito por anos? Ela saberia, e eu coloco ‘saber’ entre aspas, tudo que já foi digitado no seu teclado e exibido em sua tela. Toda a história de uso dessa
(22:51) máquina se tornaria um corpus crescente que está continuamente treinando o modelo”, fecha aspas. Aqui para o Steve Gibson, Vinícius, meu amigo, vamos ver. É “creepy”. Tu ter um negócio gravando absolutamente tudo o que tu fazes é delicado, para dizer o mínimo. Para dizer o mínimo. Imagina tu… E a gente estava discutindo, tu estavas colocando algumas coisas pessoais, mas imagina trabalho. Para as próprias empresas isso é problemático. Ah, isso nem entra nesse aspecto, que seriam os impactos para a segurança corporativa.
(23:29) Exato. Está totalmente fora de questão você usar um negócio desses. É totalmente fora. Mais ou menos. Pelo menos conscientemente, porque daqui a pouco tu começas a comprar… Cara, o que eu acho que vai acontecer é que a gente vai ter uma corrida por “nossa, eu tenho o último Copilot Plus PC aqui, olha a capacidade, a velocidade que ele faz uma imagem, a velocidade que ele interage comigo ou que ele faz minhas coisas, ou que ele aprende”. Isso só vai
(23:59) atiçar a galera. A galera vai querer cada vez mais usar isso. E aí já viu. Isso vai acabar parando dentro das empresas e vai ser outro rebuliço. O que eu acho que vai acontecer, e aí seria o próximo passo, é levar esses modelos para a nuvem. Entende? E aí você vai ter o clone… Até escrevi sobre isso, “Colombo” no artigo. Você vai ter um clone digital teu sendo usado pelas empresas para saber qual publicidade, por exemplo, vender para ti. É que essa fronteira vai ser cada vez mais delicada, porque tu precisas de
(24:33) um modelo, de modelos que funcionem de forma rápida e que sejam leves para rodar em hardware limitado. Mas, ao mesmo tempo, ele não se limita a usar a capacidade do computador ou do dispositivo, ele vai acabar utilizando a nuvem também. Então, vai ser muito difícil essas informações não irem para lá. Enfim. A questão seria treinar outros modelos ou roubar esse teu modelo, esse teu clone. Entendeu? Mas não precisa roubar, é só pedir autorização. Aliás, falando nisso, posso puxar uma minha aqui? Pode, claro. Lembrando que nós temos que dar as pausas para o Mateus poder cortar depois, que ele pediu para a gente. Então, a notícia é a seguinte,
(25:16) o nosso headline: “Plataforma de IA usa imagens de crianças brasileiras sem autorização”. É muito interessante sob vários aspectos. O que acontece é que uma plataforma de IA na Alemanha usou, pelo menos o que foi descoberto pela Human Rights Watch, pelo menos 170 fotos de crianças de 10 estados brasileiros. E para gerar, e não só fotos, mas vídeos, coisinhas de fotos de aniversário, essas coisas que a gente sai publicando por aí. A gente não, porque eu não faço
(26:02) isso. Enfim, já começa o ponto. Inclusive, o Rafael Zanatta, nosso amigo, foi entrevistado para essa matéria. Que legal. Está aqui a matéria do G1, do Jornal Nacional. Então, está lá o link para vocês no show notes, para quem quiser ler depois. Ó, “vídeos caseiros postados em 1994 e também imagens recentes de festas de aniversário de crianças que aconteceram em 2023”. Então, aqui chama a atenção para o fato de que foi utilizado sem autorização. As imagens acabaram aparecendo, a Human Rights Watch foi capaz de identificar essas imagens.
(26:45) O que chama a atenção, Guilherme… Está bom que tem que ter um controle de como se usam essas coisas com IA e tudo mais, mas isso aqui bate num ponto que há muitos anos a gente bate aqui no Segurança Legal, que é a exposição das crianças pelos próprios pais. Não é alguém que sai tirando foto de criança por aí e postando na internet. É para a gente ver como é difícil a gente ter a noção do impacto que têm as nossas ações feitas hoje, daqui a 5, 10 anos. Então, muito do que tem de material que o pessoal postou, publicou, tirou fotinha, postou vídeo, fez aquilo no passado.
(27:31) E mesmo que o pessoal ainda continue fazendo… “Ah, não, mas é só para compartilhar com a família”. E esse tipo de situação… acaba que o pessoal cai nessa do “compartilhar com a família”, ou seja, acha que posta a foto e, como imagina que aquele é o uso que quer fazer, é a isso que vai ficar limitado, quando, na realidade, a gente, como já alertou muitas vezes aqui, o uso é praticamente ilimitado. Sim, os diversos propósitos para que isso pode ser utilizado, inclusive para a questão de
(28:14) treinamento de modelos de IA, geração de imagem, geração de vídeo. Sabe-se lá o que que vai ser feito com isso. Então, claro que tem a importância de se regular o que se faz com IA, inclusive chama a atenção para isso. Porém, eu gostaria de novo de bater no tópico que tu lembrou. O Guilherme passou aqui, isso aqui não fui eu que trouxe de cabeça, galera, isso aqui foi o Guilherme que lembrou e catou lá. Pode ficar tranquilo, cara. Trouxe aqui. Não, tem que dar o crédito, te ajudando aqui. Tem que dar o crédito, senão vão dizer que foi o GPT que
(28:48) catou aqui e não dei. Se eu dou crédito para o GPT, eu tenho que dar o crédito para ti também. Mas o Guilherme catou aqui o Episódio 118: “Exposição de crianças na internet”. E tem vários, como o dos brinquedos lá também, Guilherme? Dos brinquedos, “Internet dos Brinquedos”, que a gente também fala sobre isso. Então, é mais um exemplo. Eu quero pegar essa notícia mais por esse viés de nós repensarmos a exposição de crianças na internet, repensarmos esse lance de ficar fazendo álbum de família público na internet, porque isso aí foi o que foi
(29:29) encontrado. Agora, tem situações que a coisa vai ser treinada e tu não vai encontrar de cara esse uso tão descarado como aconteceu nesse caso aqui, especificamente. Mais informações sobre isso vão estar lá no nosso show notes, obviamente. Mas é bom a gente pensar no que acontece com as informações que a gente publica hoje, daqui a 5, 10, 15, 20 anos. Sim. E também é aquela coisa difícil, porque é claro que não são todos os pais que têm condições de pensar nesses problemas, porque hoje a gente já tem
(30:11) pais que foram forjados e que cresceram no âmbito dessa tecnologia, onde é muito natural para eles não pensar nesses problemas. É por isso que a gente precisa também de regulações, de soluções mais coletivas. Porque nem sempre o pai vai ter… Eu até estava vendo uma outra reportagem, agora não vai dar tempo de pegar aqui, mas sobre como a geração mais… Eu não gosto desse “Z” e tal, eu acho que explica mal, mas os mais jovens não estão sabendo mais mexer no computador, porque fazem
(30:49) tudo no celular. Em alguns casos, não conseguem nem usar o “control C, control V”, não sabem o que é, não conseguem usar o Word. Uma coisa que eu percebi na faculdade, que a gente percebeu na faculdade de Três de Maio, que é a SETREM. E eu já falei várias vezes, Três de Maio é uma cidadezinha com 24.000
(31:13) habitantes, muito agradável. É uma cidade que tem uma bela de uma faculdade, com um campus muito bonito, com uma estrutura que tu não encontras assim, não é comum. É uma coisa meio diferente. Agora, o que que eu ia comentar mesmo? Se eu falei, estava falando dos jovens que não sabem usar “control C, control V”. O que a gente percebeu é que, de uns tempos para cá, os laboratórios da instituição estavam ficando assim… O pessoal chegava lá, desconectava o teclado, o mouse das máquinas do laboratório e conectava nos seus notebooks. Então, isso era um problema, que
(31:53) às vezes o pessoal ia embora, não reconectava e, enfim, aquela bela história. Então, o pessoal começou a cada vez mais utilizar os notebooks e, algumas vezes, até nem vir para o laboratório, todos os alunos tinham notebook. Só que, de uns tempos para cá, a galera começou a gastar R$5, 6, 7, 8, 9, 10 mil num celular. É verdade. E pararam de comprar notebook. Então, o cara tem, às vezes, uma máquina sofrível em casa, podre, que se arrebenta para conseguir, reclama da máquina que é lenta, mas gastou cinco, seis paus num celular.
(32:32) E aí, a gente voltou a ter uma demanda por algumas coisas de laboratório, de máquina, porque o cara tem celular, não tem notebook. Não estou dizendo que tenha que ter notebook, mas o que eu acho muito interessante é isso: o pessoal gasta uma grana no celular e não tem um computador minimamente, vamos dizer assim, adequado para se trabalhar. É claro, a depender da atividade que você vai fazer. Por exemplo, no Direito, não tem como você fazer trabalhos, petições,
(33:08) no celular. Não tem. Não faz sentido. Você vai precisar de um certo grau de apuração ali ou de cuidado. Eu passei para ti a pesquisa do Cetic.br, não vai dar tempo da gente falar isso agora, mas essas questões sobre quem acessa a internet mais por aquele ou por outro dispositivo, para sair um pouco das impressões. Mas é isso que o Vinícius falou, é mais ou menos isso mesmo. Está certo. Acessa pelo celular, mas aí tem aqui, quem quiser se aprofundar um
(33:39) pouco mais nesses dados, fica aí o link da Cetic. É a pesquisa. Você ia falar sobre esse tema? É a pesquisa. A pesquisa da… Então, dando o tempo, dá o tempinho para o Mateus cortar e dá o headline, que senão o Mateus depois sofre. Prepare-se, Mateus, agora vai. Virada política na Europa e regulação da tecnologia. Quem acompanha o cenário político na Europa… E aí, uma reportagem da Euractiv. Euractiv? É essa a pronúncia? Parece nome de remédio isso aí. Euractiv. Europa e activity, provavelmente, junção dessas duas
(34:27) palavras. A gente não faz muita piadinha aqui porque não é muito o nosso esquema, e os ouvintes não gostam muito. Mas esse nome parece nome de remédio, e um tipo específico de remédio, mas eu vou parar por aqui. Quem entendeu, ria, e era isso. Não sei o que é, mas tudo bem. Vai lá. Essa reportagem, Vinícius, eles tentaram fazer uma previsão de como a alteração na dinâmica de forças da União Europeia, com políticos de extrema-direita
(35:02) assumindo o Europarlamento, como que isso poderia influenciar na regulação e no âmbito da regulação da tecnologia. Por que que isso é importante? Para muito além do aspecto político de você ser de esquerda ou de direita e achar que o outro lado é ruim. É evidente que qualquer pessoa que conhece minimamente Ciência Política sabe que cada uma das vertentes políticas vai ser mais aberta ou mais fechada para certas questões. A gente sabe que essa ideia de bem-estar social e as ideias relacionadas à regulação da tecnologia,
(35:37) da proteção de dados e segurança da informação ao redor do mundo tendem a ser mais progressistas. Então, quando se reverte essa equação de forças, o que que poderia acontecer? Essa é a pergunta. E depois, por que que a gente deveria se preocupar com isso, nós brasileiros? Bom, a gente aqui no Brasil é muito influenciado tecnicamente pelo que ocorre na Europa. E basta ver a relação que a nossa LGPD tem com o GDPR europeu. O que, às vezes, é até motivo de crítica, que copiamos demais e precisaríamos de soluções mais
(36:15) tropicalizadas, mais direcionadas às nossas necessidades, que são diferentes das necessidades europeias. Mas o fato é que lá você tem mais tradição de estudo disso do que você tem, por exemplo, no Brasil. O que que essa reportagem, que foi uma avaliação feita pelo Florian CZ, que é pesquisador associado do Instituto Egmont e do Centro de Políticas Europeias, apontou? Basicamente que pode haver, isso é uma previsão, pode haver uma diminuição na criação de novas regulamentações tecnológicas por essa orientação ideológica da extrema-
(36:47) direita de achar que “não, eu não devo regular tecnologia, eu devo deixar ela correr por si só”. A gente viu aqui a própria questão das regulações envolvendo tanto Inteligência Artificial quanto as grandes big techs, de maneira geral, e as redes sociais, e como políticos de direita se opõem a essa regulação. A reportagem fala aqui sobre isso, de que políticos, às vezes, de extrema-direita estariam relacionados com o que eles colocaram entre aspas, “mensagens polêmicas”. Mas o que a gente
(37:24) está vendo e já viu acontecer, inclusive com o próprio Twitter, é manipulação, favorecimento de certos discursos, uso de robôs para falsamente criar falsas interações, desinformação. Então, corre-se o risco de haver uma diminuição na iniciativa de regulamentação de redes sociais, relutância em alocar recursos para implementação de regulamentações já previstas, seja o AI Act, recentíssimo, o Digital Markets Act (DMA) e o Digital Services Act (DSA). Por exemplo, o próprio AI Act, eles colocam lá a necessidade
(38:04) de criar um comitê europeu para Inteligência Artificial, que seria um órgão, entre outras coisas, que deveria funcionar como um agregador de técnicos, de peritos para fazer pesquisa, para produzir dados e tal. Uma coisa muito além de uma autoridade, é um grupo, um órgão de pesquisa mesmo. Ora, você sabe que pesquisa… No Brasil a gente não dá muita bola para isso, mas pesquisa precisa de dinheiro. Os pesquisadores têm que ganhar dinheiro para fazer pesquisa. Então, há
(38:40) uma previsão também que poderia haver uma resistência nesse financiamento da inovação que poderia envolver regulamentação. Ou seja, é claro que quanto mais eu regulamentar, e claro, não é uma regulamentação burra porque eu vou impedir o crescimento, mas eu tenho que fazer algo que tenha medidas, pesos e contrapesos de um crescimento coordenado, regulado, visando buscar o bem de todo mundo. Essa é a ideia do Estado de Bem-Estar Social. Então, essa é mais ou menos algumas das previsões que eles fazem. Se fechar a regulação das tecnologias, essa poderia ser a
(39:20) tendência, e que poderia causar efeitos muito perceptíveis para nós, sobretudo no descontrole desses problemas de concentração de mercados, que é um grande problema hoje. Ou seja, é você concentrar muitos poderes em poucas empresas, assim como acontece com Microsoft, Google e as grandes big techs. Então, esse quadro poderia, na visão desse pesquisador aqui, ocorrer. Então, fica aí no show notes para quem quiser ler a reportagem inteira sobre essa previsão que se deu com a eleição da União Europeia.
(39:57) Perfeito, Guilherme. Guilherme, diga. Se algum dia eu sair do Segurança Legal, eu vou apagar tudo meu. Eu vou apagar tudo. Muito bem. E aí vai ser o headline… Em vez de ser esse aqui, vai ser um falando que eu apaguei tudo. Mas olha só esse headline aqui. Ouçam e vejam. Ouçam, quem está nos ouvindo só, e vejam quem está no YouTube acompanhando: “Ex-funcionário de TI recebe 2 anos e meio de prisão por apagar 180 servidores virtuais”. Eu lembro de algo parecido. Eu usava, inclusive, quando eu dava aula
(40:46) de segurança e fazia a prova. Ou seja, isso faz… nossa, a última prova que eu fiz… Eu larguei mão de fazer prova há muito tempo, e eu citava uma notícia de um cara que apagou servidores. A mesma coisa. O cara foi demitido e apagou servidores. E o caso é o mesmo. Só mudaram as partes envolvidas. Então, um ex-funcionário de TI, o nome dele é Nagaraju Kandula, foi em Singapura, na National Computer Systems, que é uma
(41:24) gigante de tecnologia da informação em Singapura, segundo a notícia da Bleeping Computer. Esse cara foi demitido, as credenciais dele de acesso ao ambiente não foram canceladas, não foram revogadas. Ele continuou com acesso. Ele ficou algum tempo fazendo acesso para ajustar as permissões e os scripts que ele precisava para poder apagar. Ou seja, o cara não ficou bravo e apagou. Ele ficou um tempo preparando o negócio e aí, finalmente, ele roda o script dele e detona com 180 servidores virtuais que
(42:13) estavam na nuvem. Esse é um dos problemas da nuvem. Tu apagas as máquinas. Ele apagou as máquinas. Os danos que ele causou foram estimados em US$678.000. Os danos não foram tão grandes assim porque eram máquinas utilizadas para a questão de quality assurance deles. Não eram máquinas que atendiam diretamente, vamos dizer assim, clientes e tal da empresa. Por essa razão, o prejuízo não foi tão grande, dado o número de servidores
(42:48) apagados. Chama a atenção o fato de que ele seguiu com as credenciais. Ou seja, a empresa desligou ele e não cancelou as credenciais de acesso dele. Um erro básico, fundamental de segurança da informação, e que uma boa política de segurança da informação, coisa que, aliás, a Brown Pipe faz para você ou ajuda você a fazer, aproveitando a propaganda, Guilherme. Uma boa política deveria prever isso no momento… até relacionada com a 27001/27002, essa necessidade de tu ter uma política para formalizar o desligamento de funcionário. O que que tu faz para desligar? E lá está escrito muito
(43:32) claro o que deve ser feito. Uma outra curiosidade é que os investigadores também pegaram as pesquisas que o cara fez no Google, que o Kandula fez no Google. E ele estava pesquisando justamente como deletar. Para fazer os scripts, ele catou no Google como fazer. Ele podia ter usado o ChatGPT. Sim, ele podia ter usado o ChatGPT para fazer isso aqui para ele. Old school, né cara? Old school. O cara foi no Google. Quem aí mexe com RouterOS e qualquer coisinha que tu queira mais específica… RouterOS não tem nada a ver com
(44:08) virtualização, gente, é um sistema operacional para roteadores, para RouterBoards e tal. Mas quem mexe… “Ah, quero fazer um script para RouterOS”. O ChatGPT faz. “Quero fazer um script lá para falar com a API do produto da VMware, o… agora esqueci o nome dele. Um tempo atrás era vSphere, mudou, não sei o quê. Mas tu tens… está gratuito agora, né? Não com tudo, full, mega blaster hiper, mas tu tens toda uma API para gerenciar serviço, pode fazer um script usando ChatGPT. Não precisa catar no Google para apagar as máquinas. Não estou dando ideias.
(44:48) Enfim. Mas é interessante isso. E um erro básico de que envolve justamente o gerenciamento da segurança da informação. As questões de políticas, de garantir que as políticas existam, que sejam de fato cumpridas e que tu tenhas como auditar esse tipo de processo. E aí, pelo visto, falhou tudo. Foi tudo para o beleléu. A gestão de credenciais… qualquer norma de segurança vai falar sobre gestão de acesso de maneira geral. Ou seja, você precisa ter uma política de acesso e tal. Isso se aplica até para a nossa vida mesmo. E nós,
(45:29) podemos falar sem citar o nome, evidentemente, mas vimos recentemente um incidente que envolveu justamente falhas nessa questão de gestão de acesso de maneira geral, que acaba ficando… Você vai levando a sua vida, as coisas vão funcionando, e é natural do ser humano ir relaxando nos controles, porque isso atinge as pessoas comuns também. Poxa, quantos acessos você que nos escuta aqui, quantas credenciais você tem que gerenciar, que precisa verificar? Então, esse é um problema. Agora, tu fazes essa pergunta aí, dependendo
(46:07) para quem tu perguntas, a pessoa diz assim: “Nem é tanto assim, eu tenho uma senha que eu uso para tudo, ou uma senha que eu uso para as lojas e uma senha que eu uso para os bancos”. Está bom. Não, não está bom. Estou sendo irônico. Uma coisa que a gente falou, ele é old school, foi procurar no Google. E uma outra coisa também que eu percebo, às vezes, até dos meus alunos, principalmente os bem jovens mesmo, e eu acho muito estranho, eles não
(46:38) pesquisam no Google. Eles não usam o Google. É pesquisa em TikTok, YouTube. Ah, tá. Eu fico no meio do caminho, eu tenho usado o Perplexity para pesquisar. Eu não uso mais o Google também. Você fala do Perplexity… Você vai me perdoar, mas todas as vezes que eu uso o negócio, não funciona. Ah, cara, não sei. Tem que saber usar. Ele sempre me dá… Para mim funciona. Te digo assim, sabe para que que ele não é bom? E aquilo, a gente já está
(47:15) saindo do assunto da notícia, mas sabe para que ele não é bom? É quando tu só queres digitar o… tu não lembras o site, mas lembras mais ou menos o nome da empresa, tu queres dar um enter e quer que o primeiro resultado seja o link para o site da empresa. Para isso, ele não é bom, o Perplexity. Para isso, o Google é bom. Então, nesses casos, eu confesso que eu ainda uso o Google para isso. Agora, quando eu vou fazer uma pesquisa e tal, meu ponto de partida… e eu não paro ali. Isso é muito importante para quem nos ouve como dica. Não adianta pesquisar ali e ficar com o
(47:49) que ele te dá. Ele te dá as referências, e essa é a sacada. Vai lá, vê se a referência é relevante, se não é. Eu uso ele como ponto de partida, como era, e talvez como continue sendo, a Wikipedia. É que a Wikipedia, alguns anos atrás, ela tinha uma má fama muito grande. O pessoal: “Ah, tem uns artigos tudo errado”. O pessoal todo revoltado que a galera estava usando Wikipedia para fazer trabalho na escola, essas coisas. E o que que a gente fazia? Pesquisava alguma coisa, acabava caindo na Wikipedia. Na Wikipedia tinha
(48:22) alguma referência, e dali tu ias adiante. É uma forma de usar. Hoje ela já está melhor, mas mesmo assim, tu usas dessa forma: vai lá, pesquisa, encontra, tem os links lá para outros recursos, e segue a tua pesquisa. E o que eu percebo é que o Perplexity faz justamente isso, sabe? Ele só faz isso para tudo. Em vez de ter um artigo pronto lá, que nem a Wikipedia, tu chegas ali, pesquisa, ele te traz as referências e, claro, tu tens que conferir as coisas, tem que ler. Como ponto de partida, ele é muito bom. Agora, ficar só com o
(48:55) que ele dá ainda é arriscado, porque a gente sabe das “cacas” que a IA ainda faz. Mas essa é a minha notícia. Qual é a tua próxima? Sim, nós vamos falar agora sobre proteção de dados de crianças nos serviços da Microsoft. E existe um instituto de pesquisa muito famoso, perdão, que é o noyb, que é o “None of Your Business”, ou “noyb” em português, que ele trouxe algumas questões sobre o uso de serviços da Microsoft, que é o 365 Education para crianças. Nós já falamos sobre isso aqui, inclusive lá
(49:36) naquele Episódio 359, sobre os usos de nuvem e os “locking costs” de você sair da nuvem. Que é o episódio 359, “Pague para Sair”. E nós comentamos lá também sobre como essas empresas, ao fornecer, entre aspas, gratuitamente as suas ferramentas para estudantes, você tem uma dinâmica ali de fazê-lo ficar ultradependente daquela plataforma, e os “switching costs” ficarem muito grandes para ele sair. Ele não consegue sair da nuvem. Mais informações, escute lá o 359. Mas qual é o
(50:15) problema aqui? É que, numa perspectiva de proteção de dados pessoais, o que esse instituto verificou é que estava… uma reclamação de que os pedidos de exercícios de direitos desses titulares, feitos para a Microsoft, estão sendo respondidos dizendo que quem é o controlador de dados pessoais, ou seja, aquela pessoa que toma as decisões, é a escola, e não a Microsoft. Só que as escolas estão dizendo que eles não têm nenhum controle, ou muito pouco controle, sobre os dados pessoais, de forma que eles não teriam condições técnicas para responder esses pedidos de
(51:01) exercício dos direitos dos titulares. Basicamente, o que, segundo essa reportagem, tem uma ação ali, uma reclamação, na verdade, é um “complaint”, é que a Microsoft estaria jogando contratualmente essa responsabilidade para as escolas sem que elas tenham meios técnicos para cumprir isso. Nós já presenciamos, inclusive, Vinícius, situações de adoção de nuvens em instituições de ensino que é totalmente acrítica. Você joga aquela nuvem lá e ninguém se dá conta que, basicamente, você está tratando os dados de todo mundo,
(51:38) entregando aquilo para a nuvem. Em situações, inclusive, que nós já falamos aqui, aquele caso ocorrido lá em São Paulo. E aí envolve não as crianças, mas os professores, que eles instalam os aplicativos respectivos lá da nuvem que está sendo utilizada na escola, sem se dar conta que aqueles aplicativos tomam conta do celular da pessoa e, inclusive, conseguem começar a extrair dados. E daí teve todo aquele problema que a gente viu lá em São Paulo, dos professores reclamando, e a nossa hipótese acabou sendo que instalaram os aplicativos
(52:07) da nuvem e aquilo toma conta, ou seja, consegue acessar os dados do celular. Isso tem sido feito ao longo do tempo sem a ciência adequada dos usuários. E o que eles disseram, o que foi dito nessa reportagem? Eu vou ler agora, Vinícius: “Isso envolve um labirinto de documentação de privacidade. Tentar descobrir exatamente quais políticas de privacidade ou documentos se aplicam ao uso do Microsoft 365 Education é uma expedição em si. Há uma séria falta de transparência, forçando usuários e
(52:46) escolas a navegar por um labirinto de políticas de privacidade, documentos, termos e contratos que parecem se aplicar ao caso. As informações fornecidas nesses documentos são sempre ligeiramente diferentes, mas consistentemente vagas sobre o que realmente acontece com os dados das crianças quando elas usam os serviços do Microsoft 365 Education. E o pior de tudo é que esses dados ainda estão sendo usados para monitorar o uso de tudo isso por crianças e para oferecer publicidade para elas.” Então, é aquela história: se com toda
(53:25) essa regulação nós vemos isso acontecendo, o afrouxamento de regulações… E vejam, é muito tradicional que tentativas de você regular coisas, de você lidar com coisas, comecem com as crianças. Sei lá, vou regular a publicidade de doces para crianças, vou controlar o acesso a bebidas alcoólicas e cigarros visando as crianças. Então, quando eu deixo de cuidar das crianças, isso é um péssimo sinal, porque se nem as crianças eu cuido, que são os mais vulneráveis em toda essa relação, como será que isso está acontecendo com os adultos? É algo que
(54:04) a gente tem que se preocupar em ver essas notícias e esses casos acontecendo. Perfeito, Guilherme. A minha próxima, então, é “Movimento de mães defende veto ao celular nas escolas”. Estão conectados os casos com o anterior. Sim, sim. Olha só, aqui é a notícia da Folha de S.Paulo. O que aconteceu? Vocês devem lembrar de um livro que o Guilherme já recomendou aqui mais de uma vez, que é “A Geração Ansiosa”, que, aliás, foi traduzido. Esses dias uma pessoa me mostrou o link dele traduzido, comprou ele traduzido.
(54:44) Deve ter sido pelo ChatGPT. Não duvide. Você ouviu primeiro aqui no Segurança Legal, antes de sair no Fantástico, a gente já estava falando sobre esse livro aqui. Exatamente. Aí saiu no Fantástico porque o pessoal escuta o Segurança Legal. Não estou brincando, não sei se escutam. Tomara que escutem. Claro que escutam. Tomara que escutem. Mas olha que interessante. A partir desse livro, e esse livro é citado aqui explicitamente na matéria, mães de uma escola particular de São Paulo se
(55:22) juntaram e querem que as famílias façam um acordo, que é justamente o que o Jonathan Haidt recomenda lá no livro dele, “A Geração Ansiosa”: um acordo para que os filhos só sejam presenteados com o smartphone depois dos 14 e tenham acesso a redes sociais apenas após os 16. Olha que interessante. No livro, o Jonathan Haidt chama a atenção para o fato de que um pai sozinho não vai conseguir fazer nada. Então, o Vinícius não deixando os filhos dele usarem celular, só o Vinícius, não vai
(56:01) adiantar nada. Um pai sozinho será apedrejado. Será apedrejado. Exatamente. Até porque tu vais falar coisas que as pessoas não gostam. Há uns anos, me chamaram para fazer uma palestra sobre redes sociais. Eu me lembro disso. Lembra disso? Lembro. Ficou bravo. Nossa, a galera ficou brava. E eu falei: “Para que ficar tirando foto de momentos particulares, privados, para botar na internet, para mostrar que viajou, para mostrar que fez? Não venha com essa história que é para mostrar para a família,
(56:32) não, é para mostrar para os outros”. E vale a pena expor? Enfim, aí o pessoal ficou… Nossa, o pessoal ficou… Talvez por isso não tenham me chamado mais. Mas o que acontece é que me perdoa o ônus de falar a verdade. E às vezes, estar do lado certo das coisas vai te causar desconfortos. No final, me ajuda a lembrar, lá nos extras, para quem está vendo no YouTube, depois que a gente termina e já dá o tchau, lá no final, às vezes, eu e o Guilherme continuamos conversando. Eu vou contar uma
(57:08) historinha sobre a verdade e a mentira. Bom, o que chamou a atenção foi que essas mães leram esse livro ou viram um resumo do livro feito pelo ChatGPT, não sei, mas se sensibilizaram com as informações que ele traz, porque o Jonathan Haidt é um sociólogo. E psicólogo, né? Não, psicólogo. Lá está como sociólogo, aqui eles estão citando como psicólogo. Enfim, e com base em pesquisa, em dados. E foi isso que causou um rebuliço tão grande, chamou a atenção, o New York Times falou muito sobre isso. E ele chama a atenção mostrando que as crianças com
(57:53) uso de celular estão sofrendo mais de depressão e ansiedade. Para dar um resumo da obra, muito resumido, ele percebe uma correlação de 2010 para cá entre o aumento de ansiedade e depressão, principalmente em pré-adolescentes meninas. E o que acontece em 2010? É a câmera frontal, o início das selfies, o Meta compra o Instagram e a primeira câmera frontal que realmente alcança um público grande é apresentada no mercado. Então, ele traz uma série de informações sobre a necessidade… sobre o fato de que os pais ficam cuidando muito dos filhos na
(58:47) pracinha: “Ai, meu Deus, não faz isso! Ai, se ele for muito longe e alguém pegar ele”, essas coisas que, estatisticamente, não é bem assim para acontecer. E, por outro lado, os pais são relaxados demais com relação ao uso da internet, que talvez seja mais perigoso hoje do que brincar na pracinha de uma forma um pouco mais arriscada. Ele fala sobre isso, inclusive, no livro. Então, essa iniciativa dessas mães é tentando fazer, ou seja, não esperar lei nenhuma ou coisa parecida, mas tentando fazer de alguma
(59:19) maneira com que essa escola adote essa medida e que os pais se juntem em torno dessa medida. O que é um belo desafio. Isso aqui eu vou querer acompanhar de perto para ver o que vai acontecer, porque eu gostaria que acontecesse, inclusive, na escola dos meus filhos. Eu gostaria que acontecesse na faculdade, inclusive. Mas está aí, essa notícia é bastante interessante. Da Folha de S.Paulo: “Movimento de mães defende que
(59:51) crianças e adolescentes não tenham celular antes dos 14 anos”. E vejam o livro lá, “Geração Ansiosa”. Eu só quero pedir desculpas aqui. Eu falei brincando, claro, Vinícius. Deve ter sido… Estou falando aqui, vou pedir desculpas. Deixa eu falar, pô. Fala, estou ansioso agora. É que eu falei brincando que a tradução foi feita, deve ter sido feita pelo ChatGPT. Não, não foi. Inclusive, me surpreendi aqui que… eu te mandei o link, essa edição traduzida vai ser lançada pela prestigiosa editora Companhia das Letras. Sairá pela Companhia das Letras.
(1:00:31) com a tradução da tradutora Lija Azevedo. Então, gente, não tem nada com GPT, pelo amor de Deus. Foi uma brincadeira. Agora pesou o negócio. Agora tu tens que se sentir muito culpado. A gente tem que valorizar os tradutores. Agora está rolando na internet, estão falando bastante sobre a tradução feita do Machado de Assis, do “Memórias Póstumas”, para o inglês, feito por uma professora, acho que ela é inglesa, mas aprendeu na faculdade a falar português. E aí está todo mundo elogiando o trabalho dela, de cuidado na tradução. A melhor tradução
(1:01:11) para o inglês, porque, poxa, traduzir Machado de Assis não é uma coisa fácil. Traduzir literatura assim é, sem dúvida, delicado. Não é bem assim, tem contextos, expressões, formas de dizer certas coisas que só funcionam na língua materna do autor. Então, não é bem assim. Você precisa conhecer. E por isso que ela… E você vê, engraçado, porque ela não é uma falante nativa de português. E aí você vê a guria falando, uma mulher jovem, e o português da mulher é perfeito,
(1:01:52) cara. Você não diria que ela aprendeu a falar na faculdade, já adulta. Estou procurando o nome dela aqui. E nós estamos falando da Flora Thomson-DeVo. Tem o link para o livro que tu comentaste da tradução? É a tradução do “Memórias”… Eu acho que é “Posthumous Memories of Brás Cubas” em inglês. Pronto, deve encontrar aqui. Estou procurando aqui ao vivo para quem está olhando. Achei. É da Penguin Books, encontrei. Não sei
(1:02:41) qual é agora. Não é o Dave Eggers. É “The Posthumous Memoirs of Brás Cubas”. É essa inglesa aqui. Não achei o dela. Procurem pelo dela. É, eu acho que é esse aqui, Vinícius. “The Posthumous Memoirs”. “Memoirs” ou “memoirs”, não sei como se fala essa palavra em inglês. Está aqui, é esse o primeiro link mesmo. É o primeiro mesmo. Flora Thomson, está aqui. É esse aqui. Claro, para você que é um falante em português, não sei se teria sentido você ler esta obra em inglês, porque a recomendação que a gente sempre faz enquanto professor é
(1:03:21) sempre ler a obra original, se possível, que a tradução é uma outra obra. A tradução não é aquela obra. Claro que para obras técnicas isso não sei se faz tanta importância quanto faz para literatura, para a arte. Exato. Enfim, esse é um outro problema. Eu quero ir para a minha última bem rapidinho aqui, Vinícius. Para a tua última. Deixa eu pegar a tua última aqui. AI for Good. Estou aqui. A ONU fez um painel chamado “AI for Good”. O grande objetivo desse painel, dessa cúpula,
(1:03:58) desse “summit”, não sei como é a tradução para “summit”, desse evento, sei lá. Aqui traduziram para “cúpula”. Qual seria o papel da IA ou como ela poderia ser usada para alcançar os Objetivos de Desenvolvimento Sustentável da ONU, que envolvem, entre outras coisas, como erradicar a pobreza e a fome, como alcançar a igualdade de gênero, como promover energia limpa e ações climáticas, entre outras coisas. É um pouco o que eu sempre comento aqui. Até esses dias eu mandei um abraço e um beijo para o nosso amigo Paulo Rená. Ele disse: “Ah, ouvi vocês, obrigado”. Então, que eu vou te citar de novo, Rená:
(1:04:39) aquela grande questão, que eu acho que é uma das grandes questões, talvez. Não sei se existe “a” grande questão da IA, mas para que que eu vou usá-la? Ela vai ser usada para resolver quais problemas? É para gerar foto, para gerar meme, para gerar fake news, para colar em trabalho, ou para resolver os objetivos de desenvolvimento sustentável da humanidade? Ou para fazer que nem o… Se não estou enganado, o cara do Google que saiu fora, lembra? Ele está metido numa empresa usando IA para desenvolvimento
(1:05:16) de drones de guerra. Claro, sim. Inclusive, ela fala aqui sobre isso, essa repórter que é a Melissa Heikkilä. Ela deu as suas impressões do evento, ela foi no evento. É Heikkilä, perdão, eu que anotei errado aqui, dois Ls na verdade. É com K. O K fica do lado do L, eu digitei errado. Heikkilä. Ela deu as suas impressões para o MIT Technology Review. O que ela disse? Ela disse que saiu de lá não muito confiante de que, segundo os palestrantes e os
(1:05:56) componentes do evento, ela teria um papel significativo no avanço desses objetivos. E ela disse, bem pelo contrário, na verdade, a maioria das falas mostra exatamente o oposto disso. E um dos pontos que é a questão ambiental e de sustentabilidade, segundo ela, não foi levado muito em consideração. Inclusive, antes de ler isso, eu dei uma palestra gravada que vai ser mostrada na próxima Jornada Internacional de Direito, um evento superimportante, e eu falei sobre desafios da regulação da IA, e lá no finalzinho falei um pouco sobre essa
(1:06:32) questão do desenvolvimento sustentável mesmo. E ela destacou ali que, para gerar uma imagem numa IA generativa qualquer, seria gasto a mesma quantidade de energia para, em média, claro, os celulares são muito diferentes, carregar um celular. Cara, é muita energia que você usa para carregar o celular para gerar uma imagem que, de repente, você vai jogar fora, que você vai gerar 10, 20, sem dar muita bola para aquilo. Então, este é um problema: a quantidade de energia que está sendo usada para isso, fora a quantidade de
(1:07:12) energia já usada para os data centers. Ao mesmo tempo, foi tema da fala do CEO da Nvidia, sempre esqueço o nome dele, lá na Computex 2024, em que ele faz justamente uma comparação da economia de energia pela capacidade computacional das GPUs e tudo mais, comparado com o que a gente tem hoje de uso de CPU. Então, não é claro, está se gastando energia, mas se gasta cada vez menos, porque há 8 anos, o ChatGPT não seria possível por causa da quantidade de energia necessária. Hoje, as coisas já são
(1:07:57) melhores e a tendência é ficar cada vez mais otimizado. Só uma analogia, mas ainda da mesma área: o ENIAC, que era um computador que ocupava uma sala enorme, um dos precursores dos computadores, consumia uma quantidade absurda de energia porque era todo valvulado. E hoje a gente tem máquinas milhares de vezes mais potentes do que o ENIAC, senão milhões de vezes mais potentes, e que consomem muito, mas muito menos energia do que ele consumia. Então, as coisas vão avançando. E mesmo placas de
(1:08:37) vídeo… há algum tempo, dependendo da placa de vídeo que tu fosses colocar na máquina, eu precisava de uma fonte gigantesca. Hoje já tem placas de vídeo muito melhores do que alguns anos atrás, que consomem menos energia do que as anteriores. Então, tu vais tendo essas otimizações. Isso vai acabar, eventualmente, chegando num ponto em que se torna aceitável. Entende? Que a gente consegue utilizar de uma maneira mais satisfatória, digamos assim, sem tanto consumo de energia. Eu discordo respeitosamente de ti. Eu acho que
(1:09:08) o senhor não tem estofo para trazer esse… Eu acho que a questão energética… O que você fala, um pouco, vai nesse sentido também. Ela está muito mais focada na diminuição de custo daquilo do que numa preocupação genuína de que é um problema energético mais pessoas ficarem usando isso o tempo todo. Você faz a comparação com o ENIAC, mas não tinha o ENIAC em cada casa. A mesma comparação que a gente pode fazer com as placas de vídeo: não tem placa de vídeo top na…
(1:09:41) Mal tem computador, a gente estava falando antes. Sim. Mal tem computador. Eu acho que a preocupação aqui… Tu tens um bom argumento. Eu preciso pegar mais informações sobre isso para a gente discutir sobre consumo de energia para computação. Isso dá um tema para o podcast. Consumo de… Não, mas eu acho que dá, cara. Tanto que a ONU está preocupada com isso. Porque qual é o problema se todo mundo for usar? Esse é o ponto. É claro que a tendência e o objetivo é que se diminua
(1:10:08) o uso para ficar mais barato, óbvio. Mas a questão é: quais os problemas que eu vou resolver com isso? Porque se for para gerar imagem, talvez não seja a melhor forma de eu gastar essa energia. E numa perspectiva de problemas ambientais, como a gente está vendo, voltando aqui para Porto Alegre, poxa, tu ficas pensando sobre a água. Tu ficas 20 dias… A gente ficou 20 dias sem água, cara. Você começa a refletir na marra, entendeu? Ao uso de recursos hídricos. É forçado a pensar sobre o uso de recursos
(1:10:39) hídricos, cara, forçado. Mas, enfim, o foco nem é a questão ambiental, que eu também não sou especialista nesse ponto. Ela disse também que levaram o Sam Altman lá, óbvio, da OpenAI, e perguntaram para ele qual era a maior contribuição que a IA poderia dar, e ele falou sobre produtividade. Claro, produtividade é importante, sem dúvida. Mas se você colocar o valor “produtividade” acima das outras coisas, nossa… Acima, por exemplo… Muita coisa pode dar errado. Por exemplo, se o Uber… você tem um foco lá na
(1:11:24) produtividade, só que o cara tem que trabalhar 14 horas por dia. Ou ainda, se eu for falar em produtividade, eu substituo todos os carros. Ou seja, a depender da produtividade, eu posso estar prejudicando a vida das pessoas, posso estar eliminando empregos. Ou seja, tem um balanceamento que não foi sendo considerado. E essa fala dele vem meio no sentido de que eles foram muito rasos sobre os problemas de “safety” nas suas tecnologias. Os problemas de… não é segurança, não sei como traduzir “safety” aqui, Vinícius, mas tem “safety” and “security”, são
(11:57) coisas diferentes. O “safety” é segurança de funcionamento. É tu garantires que aquilo vai funcionar conforme o esperado. Se falhar, vai falhar de forma segura. Então, por exemplo, vamos supor que vá falhar o acelerador de um carro. O pedal do acelerador, se falhar, ele tem que falhar de um jeito que é seguro. Ou seja, ele não pode falhar de um jeito que ele trava a aceleração no máximo e tu não consegues fazer nada e vais te arrebentar em algum lugar. Se ele falhar, tem que ser de forma segura. O que é falhar de forma segura? Ele falha, não acelera mais, o carro vai acabar
(1:12:33) parando. Isso é seguro. O “security” seria um alarme no carro. O “safety” talvez aqui na IA seja falando mais sobre essa questão de como ela deveria funcionar e como ela não deveria funcionar, ou seja, sendo violadora de direitos e tudo mais. Inclusive, teve uma pesquisadora, a Helen Toner, ex-board da OpenAI, que eles falaram que o Altman sempre dava respostas imprecisas acerca das questões de “safety” para a empresa. Então, meio que foi lá, falou qualquer coisa, “vamos aumentar a produtividade”, mas o foco do evento, que era alcançar os objetivos de
(1:13:09) desenvolvimento sustentável, não foram levados em consideração. Então, basicamente, terminaria com isso, Vinícius. Está bom. E eu acho que é isso. Tem mais uma? Não, eu tenho mais uma bem interessante aqui envolvendo… A gente não combinou a ordem das nossas notícias, e eu não estou tirando as minhas de ordem, e elas estão conversando entre elas. Talvez a gente tenha que combinar um pouco antes para elas fazerem mais sentido. Porque a minha próxima, olha só: “Governo contrata criador do ChatGPT, a OpenAI, para diminuir o impacto fiscal
(1:13:45) de perdas judiciais”. Olha só. O Ministério do Planejamento liberou R$25 milhões em créditos suplementares para a AGU, a Advocacia-Geral da União, destinados, entre outros pontos, não é tudo isso para esse projeto, à execução de projetos estratégicos de tecnologia da informação. Com a iniciativa, o governo busca domar a pesada conta de precatórios que tem abocanhado parcela expressiva do orçamento público. Isso está na Reuters. Não, aqui, na verdade, é da InfoMoney, citando a Reuters. A matéria da Reuters. Então, eles estão utilizando ou
(1:14:21) chamaram a OpenAI, e isso me incomodou um pouquinho. Porque podia ser feito também… A gente podia… O Canadá… Eu ouvi no “The Hard Fork”, que é um podcast do New York Times sobre tecnologia. É novo? Não, cara, já faz um tempo. Eu não conhecia, mas já faz um tempo, tem vários episódios. E o último episódio que eu escutei, eles entrevistaram o Justin Trudeau. Sim, o primeiro-ministro do Canadá. E o Justin Trudeau falando que eles estão investindo US$2 bilhões para tentar segurar os talentos lá no Canadá. Boa parte… Eles comentam que boa parte
(1:15:04) das ideias relacionadas à IA vieram, surgiram de pesquisas feitas no Canadá. Mas, no entanto, as empresas não floresceram lá. Tem uma boa tradição de proteção de dados também. Sim, tem aquela briga toda com Facebook, Google, para pagar pelas notícias dos jornais e blá blá. Mas o Justin Trudeau falou que eles estão investindo 2 bilhões de dólares canadenses para fomentar a pesquisa e o estabelecimento de empresas lá, e para o pessoal ficar lá. E eles estão apostando que as pessoas que vão
(1:15:36) para lá, os engenheiros e tudo mais, não vão só pelo dinheiro, que eles não têm como parear com os Estados Unidos, por exemplo, mas vão pela qualidade de vida. Ele citou outras coisas lá. Mas o que me chamou a atenção foi o seguinte: lembra que a gente deu notícia aqui que lá nos Estados Unidos tem uma proposta bipartidária para investir 32 bilhões de dólares por ano em IA? Especificamente em IA. E eles também… isso eu cito agora, e o pessoal do “The
(1:16:12) Hard Fork” citou que só a Arábia Saudita botou não sei quantas vezes o valor que o Canadá estava colocando nessas pesquisas. Mas olha que interessante: mesmo sabendo, o Justin colocando assim, que eles não têm como parear o investimento, eles entendem que eles podem tentar oferecer outras coisas, outros tipos de vantagem para desenvolver a tecnologia lá dentro. Então, mesmo que eles não tenham um orçamento absurdo para fazer as coisas que nem os outros lugares têm, os outros países têm, ainda assim eles estão fazendo. E qual é o
(1:16:50) investimento anunciado? Está bom que nós estamos numa situação para lá de complicada, mas qual é o investimento do governo brasileiro em fomentar esse tipo de pesquisa, desenvolvimento? Especificamente… Está todo mundo correndo enlouquecido. E aí a gente vai lá e traz a OpenAI para resolver o problema. Sabe que eu falei sobre isso também nesse evento aí da Jornada Internacional, que um dos desafios na regulação é tu teres políticas públicas que consigam permitir que o dinheiro não
(1:17:26) saia daqui, num primeiro momento. Então, essa é uma preocupação. Será que é só a OpenAI que conseguiria fazer isso? Ou seja, eu estou contratando uma empresa estrangeira. Bom, mas mais importante do que isso, pelo menos nesse momento, porque desenvolver inteligências artificiais, inclusive culturalmente locais… Vou falar de educação, ela tem que ser treinada, se for o caso, com valores locais, com valores regionais, muitas vezes. O Brasil é muito grande, Rio Grande do Sul é diferente da Bahia,
(1:17:58) e por aí vai. Ou seja, os dados com que eu treino ela vão fazer diferença. Mas a grande questão aqui é: quando eu vou usar Inteligência Artificial no setor público, de maneira geral, Executivo, Legislativo e Judiciário — Judiciário talvez seja pior, mas aqui estou falando na AGU, que não é bem Judiciário, mas está ligado ali ao Poder Judiciário —, eu preciso ter controles muito mais transparentes para saber como essas decisões vão ser tomadas. E um dos grandes desafios que eu vejo na IA hoje são as black boxes.
(1:18:33) Simplesmente, aquelas informações saem de lá de dentro como se fosse uma salsicha. Dá para dizer que a IA é uma grande máquina de salsicha, que tu não sabes como foi feita. E se o Suplicy não come. Mas assim, a salsicha vai te ajudar às vezes, um cachorro-quente é um negócio gostoso. Cachorro-quente de festa infantil é um negócio bom. Então, tem o seu valor, óbvio. Mas você não pode só se alimentar de cachorro-quente, você vai ter problemas na sua saúde. E a gente tem que saber como aquilo é produzido. E será que, principalmente a questão dos
(1:19:09) vieses… Quem que eu vou cobrar aqui? Eu vou ter algum grupo favorecido pela IA porque ela simplesmente diz que eu vou ter que resolver aquele problema daquele jeito? Eu nem vi como isso vai ser usado, estou sabendo tanto quanto tu. Mas, independentemente de como vai ser usado, a transparência, de maneira geral no setor público, ela tem que ser revalorizada. E, muitas vezes, você não tem, ou ainda não tem, a transparência adequada, que vem lá na ideia do princípio da explicabilidade aplicável à
(1:19:38) IA, que você não consegue explicar como as decisões são tomadas. Então, a falta de transparência nesse uso aqui, para mim, me preocupa. Senão é o oráculo. Entende? Oráculo de Delfos, lá. Faz uma pergunta, ele te dá uma resposta e “dá-lhe que o deus que te deu aquela resposta”. E acabou. Lá, e acertava. Perfeito, meu amigo. Essa era a minha última notícia. Café expresso e café frio. Vamos. O meu café expresso hoje está muito fácil. Eu não pensei aqui. Vai no teu.
(1:20:17) Tu podes vir comigo, não tem problema, eu deixo tu compartilhares comigo no meu café expresso. O meu café expresso vai para as mães das crianças que se juntaram para fazer valer o esquema do celular só aos 14 e redes sociais até os 16. Apoiado. Só aos 16. Então, um monte de café expresso para vocês que estão fazendo esse movimento, e tomara que isso inspire várias outras mães Brasil afora para que a gente tenha um pouco mais de cuidado com as nossas crianças no uso da tecnologia. Esse café eu
(1:20:58) estou dando com muita vontade. Muito café. Aí você faz o seguinte: você chega para a mãe dos teus filhos e dá um café expresso para ela. Não, mas eu vou dizer para ela… Eu já mandei a matéria para ela quando a gente estava ajeitando a pauta. Eu já mandei para ela. Ela disse que não podia ler naquele momento, mas eu espero que ela leia. Vamos ver se eu dou café expresso para ela ou não depois. Vamos ver. Não dá? Claro que dá. Dá dois. Dá um primeiro. Causar o rebuliço no grupo de mães lá do WhatsApp, que toda escola tem um grupo de mães. Mas é onde…
(1:21:31) Está lá, o grupo de mães é o que o pessoal acaba utilizando, cara, não tem jeito. Acaba sempre tendo o WhatsApp do grupo de mães. Eu imagino que deve ser… Deus me livre. Eu não quero nem saber. Eu não gosto nem de olhar. Eu não estou no grupo e não gosto nem de olhar. O grupo é complexo para caramba. Mas tem grupo de pais ou só de mães? Só de mães. Pais não se metem. Pai não se mete. Está bom. E café frio? O meu café frio agora tu me pegou,
(1:22:04) que eu pensei no café… Aí eu sei para quem vai café. Não, mas aqui não… acho que eles não merecem, cara. Café frio por isso aqui. Eu ia dar café frio para o pessoal do jornal lá, mas não. Não merece, é uma coisa querida. Acho uma coisa… Não, não merece. Sim. Eu vou dar o café frio para a Microsoft, para o Microsoft Recall e todo esse vai e volta, essa tentativa de, de novo, assumir o que eles faziam lá na década de início de
(1:22:37) 2000 com os seus produtos, que depois melhorou bastante. Mas, “vamos dominar o mercado aqui, depois a gente pensa em segurança”. Seja uma solução entregue com uma avaliação de risco muito pobre, no final das contas. E aí vem toda a comunidade de segurança, que para qualquer cara da comunidade de segurança que você falar isso, eles diriam para fazer diferente do que a Microsoft fez. Então, o café frio vai para eles. O meu café frio, então, já que eu não vou dar para o jornal, não vai ser para a Microsoft.
(1:23:14) Tu não vais dar? Achei que era… Mas pode dar em conjunto. Não, não. Pode ser outro. Dar café frio, mas não muito frio, para não provocar o pessoal da AGU. Gente, eu tenho conhecidos que trabalham na AGU, não quero confusão com a família. Mas o seguinte: podiam pegar uma grana dessas aí, chamar umas universidades top que a gente tem, e mesmo outras que não são tão top, e investir um pouquinho na pesquisa para a gente desenvolver esses modelos. Não precisa ser um grande modelo gigante que
(1:23:51) nem o GPT-4, mas se a gente pegar modelos open source, quem sabe dar um recurso aí para o pessoal comprar uma Nvidia H100 lá para treinar um modelinho menor, que custa na faixa de uns R$500.000,
(1:24:12) um pouquinho mais, um pouquinho menos, e que a gente desenvolva, que a gente possa usar esses recursos para desenvolver conhecimento aqui dentro, para a gente desenvolver outras soluções que vocês vão precisar, governo brasileiro, AGU e tudo mais. Vocês vão precisar em outros lugares disso e não dá para ficar comprando tudo da OpenAI. Então, vamos investir um pouquinho. Vai entregar esses dados será para eles? Eles vão ter que rodar esses modelos em algum lugar, cara. Aí começa toda a brincadeira. Vai rodar onde? Soberania nacional? Nós vamos montar… A OpenAI vai
(1:24:43) montar um data center no Brasil? E aí vêm aquelas outras questões de… é muito caro, cara. É tudo muito caro para nós. Se tu quiseres brincar com Inteligência Artificial rodando na tua própria máquina, alguns modelos, o Llama 3, por exemplo, tu vais gastar no mínimo uns R$6.000 numa placa de vídeo, e tu podes chegar a gastar uns R$20.000
(1:25:10) numa placa de vídeo para jogo. Não é uma placa de vídeo para treinar modelo, não é uma coisa top. Para jogo é maravilhoso, mas para treinar o modelo não é tão top. E, cara, tem que gastar um horror de dinheiro. Vai ver o preço de uma placa dessas nos Estados Unidos. Não tem cabimento. A gente paga muito imposto para a tecnologia e isso atravanca tudo. Mas, enfim. Está bom. É isso aí, então. Era isso. Esperamos que vocês tenham gostado do episódio de hoje. Nos encontraremos no próximo episódio do podcast Segurança
(1:25:42) Legal. Até a próxima. Até a próxima. Próximo episódio que virá com convidados. Ah, é verdade. O próximo tem convidado. Terça que vem, dia 21, nós vamos gravar com convidado. Mas deixa eu contar da verdade e da mentira, ligeirinho. Eu vou dar uma versão super resumida. Isso aqui é do século 19, essa negócio, é uma parábola. Vinham a Verdade e a Mentira caminhando juntas e a Mentira diz assim para a Verdade: “Nossa, está um dia tão agradável, tão quentinho, vamos nos jogar nesse poço, tomar banho, nos banhar nesse poço de água fresca”. Ambas tiram as roupas, entram no poço
(1:26:22) e se refrescam. Enquanto a Verdade está distraída, a Mentira sai de dentro do poço, se veste com as roupas da Verdade e foge. A Verdade, quando se deu conta do que aconteceu: “Meu Deus, ela levou minhas roupas”. E como ela se negou… ela preferiu andar nua. Saiu pelas ruas nua, porque ela preferiu andar nua a vestir as roupas da Mentira. E aí o que aconteceu? A Mentira, vestida com as roupas da Verdade, não causava escândalo. Então, todo mundo estava bem tranquilo convivendo de boa com ela.
(1:27:03) Nem percebe. Ela está vestida e tal. Agora, a Verdade nua era um negócio escandaloso. Então, a Verdade nua causava escândalo, as pessoas não aceitavam a Verdade ali, nua, sem roupa nenhuma, enquanto aceitavam de bom grado a companhia da Mentira, vestida ou travestida de Verdade. É isso aí. É uma breve historinha. Sabe que tem variações dela, mas esse é o resuminho. Eu estou lendo por conta desses estudos de IA que estou fazendo. A gente está preparando uma
(1:27:46) coisa, eu e o Colombo, e estou lendo um pouco sobre o estudo da verdade pela filosofia, que é a epistemologia. Aí é um outro esquema. E aí eles começam falando sobre as nossas crenças e a ligação como, às vezes, a questão da ideologia, quando ela vai te levar a ignorar evidências que demonstrem que certas coisas não são daquele jeito como tu acreditas, por conta de uma crença tão absurda que se transforma numa ideologia que… não que toda a ideologia…
(1:28:25) Sempre vão existir ideologias, as pessoas sempre vão ter suas crenças também. Mas o grande problema hoje é que você… Me lembrei disso agora, porque, às vezes, essa historinha da Verdade nua, ela vai te chocar realmente. E, às vezes, você, mesmo vendo a Verdade nua, você não vai mudar de ideia. Você vai continuar teimando. É um negócio muito louco isso, cara. Exatamente. Tu continuas teimando. É a luta pela verdade. Mas eu andei catando esses tempos atrás, por isso que eu acabei esbarrando com essa história.
(1:29:04) Eu estava catando sobre a questão da verdade e tal, e tem… nossa, dentro da filosofia tem várias discussões. Primeiro, se é possível a verdade, se a verdade é algo factível. Tem filósofos que dizem que a gente jamais vai conhecer a verdade, porque tudo o que a gente recebe é por nossos sentidos, e os nossos sentidos são falhos. Então, claro, se pegar por exemplo, qual é a cor de uma flor? Cara, depende do teu aparato ocular. Um passarinho vê outras cores. Dependendo do passarinho, dependendo do bicho, ele vai ver uma outra gama de cores que a gente não enxerga.
(1:29:49) Esse lance de tu perceberes, a percepção da realidade, daquilo que é concreto mesmo, isso está sujeito a certas nuances, a certas interferências ou imprecisões que… se tu levares ao limite, se aquilo que tu estás vendo é real… É real no sentido da maneira como tu estás vendo, mas um outro bicho, uma outra coisa, vê aquilo de jeito completamente diferente. São os
(1:30:30) relativistas, que tu terias sempre problemas para chegar à verdade. E aí tu tens, dentro da filosofia, várias correntes. Não vou me lembrar de todas elas, lembro agora dos relativistas, que é essa coisa: “Ah, mas eu nunca vou conseguir chegar à verdade”. Mas isso não afasta o fato de que tu precisas ter, em geral… E aí os epistemólogos mais modernos acabam concordando que tu vais ter critérios para definir o que é a verdade e critérios para chegar à verdade. São coisas diferentes, e que não pode confundir os critérios que
(1:31:08) tu usas para chegar à verdade, os métodos que tu vais utilizar, que podem ser métodos muito simples como olhar para a rua e ver se está chovendo mesmo, dos métodos para tu dizeres o que que é a verdade. E aí que entra a questão das relações nas crenças. E como certas coisas, tu vais ter que acreditar, tu vais ter que ter crenças. Esse é o ponto. Não vou saber explicar tudo isso, estou falando uma bobagem aqui sobre filosofia, mas estou gostando de ler sobre isso porque é bem interessante. Tem muito a ver com, talvez, uma crise epistemológica que a gente viva hoje, porque a gente não consegue chegar à verdade.
(1:31:44) Os critérios de se chegar à verdade estão não somente sendo desconsiderados pelas redes sociais, mas está piorando. As pessoas estão desaprendendo isso. E as crenças estão fazendo mais… No meu tempo… Tirando, te tirando. É, velho mesmo. Mas, te tirando, eu preciso ir, já estou atrasado. Então, um abração para aqueles que nos aguentaram até agora. Até o próximo episódio. Valeu. Um abraço, beijo, pessoal. Valeu.
By Guilherme Goulart e Vinícius Serafim4
77 ratings
Neste episódio você irá descobrir os riscos de privacidade do Microsoft Recall, como IAs usam fotos de crianças sem permissão e o futuro da regulação de tecnologia na Europa com a ascensão da extrema-direita.
Guilherme Goulart e Vinicius Serafim analisam as graves falhas de privacidade e segurança da informação do Microsoft Recall, que coleta snapshots de toda a atividade do usuário. O debate aprofunda o uso antiético de inteligência artificial com imagens infantis, a importância da privacidade infantil, e a necessidade de uma regulação de tecnologia mais robusta, como a LGPD. Discutem também um caso de cibersegurança onde um ex-funcionário deletou servidores, evidenciando falhas na gestão de credenciais, o movimento contra o uso de celulares por crianças e o contrato do governo brasileiro com a OpenAI para análise de dados judiciais. Assine o podcast e siga-nos no Spotify e Apple Podcasts para mais debates sobre soberania digital e computação em nuvem. Não se esqueça de nos avaliar.
Ajude as vítimas de enchentes no RS (Sugestões de doações via PIX, Sugestões de outras instituições recebendo donativos)
Visite nossa campanha de financiamento coletivo e nos apoie!
Participe da Comunidade:
ShowNotes:
Há 10 anos no Segurança Legal
📝 Transcrição do Episódio
(00:02) Bem-vindos e bem-vindas ao Café Segurança Legal, Episódio 366, gravado em 14 de junho de 2024. Eu sou o Guilherme Goulart e, junto com Vinícius Serafim, vamos trazer para vocês algumas das notícias do último período. E aí, Vinícius, tudo bem? E aí, Guilherme, tudo bem? Olá aos nossos ouvintes. Esse é o nosso momento de conversarmos sobre algumas notícias e acontecimentos que nos chamam a atenção, tomando um café de verdade ou um chimarrão de verdade. Então, pegue a sua bebida preferida e vem conosco. Eu só tenho SVP aqui. Estou sem.
(00:35) Hoje estou sem café, sem chimarrão e sem nada. Sem água. Nada. Pelo menos uma aguinha é bom na gravação para molhar a garganta. Eu fui procurar, mas não tinha na garrafinha, ficou em cima da hora. Bom, vai sem. Vamos assim mesmo. Para entrar em contato conosco, enviar suas críticas e sugestões, é muito fácil: basta enviar uma mensagem para [email protected].
(00:58) Ou, se preferir, também pelo @SegurancaLegal no Twitter e no Mastodon, no @[email protected]. Já pensou em apoiar o projeto Segurança Legal? Acesse o site apoia.se/segurancalegal, escolha uma das modalidades de apoio e, entre os benefícios recebidos, você terá acesso ao nosso grupo exclusivo de apoiadores no Telegram. Eu também quero lembrar o blog da Brown Pipe, Vinícius. Se você quiser ficar atento às notícias, algumas delas que aparecem aqui no podcast, outras que vão no nosso mailing semanal, tanto para
(01:34) se inscrever no mailing quanto para conhecer as notícias do blog da Brown Pipe, os links ficam aqui no show notes. Lembrando que a gente ainda está incentivando nossos ouvintes que façam doações para o Rio Grande do Sul. Ainda vai ser necessário por um longo período. Quem está, sobretudo aqui em Porto Alegre, Canoas, as coisas… Dizer que estão se normalizando é um certo exagero, porque a gente ainda tem muitas pessoas fora de casa e muitos bairros ainda cheios de escombros. É o caso ali da Arena do
(02:06) Grêmio, para quem não conhece Porto Alegre, mas vai saber que é uma área importante da cidade. Eu estava conversando com um amigo meu, o Luan Guilherme, aliás, se estiver nos ouvindo, abraço, Luan. Se não estiver ouvindo, depois eu converso contigo para tirar satisfação. Mas o Luan está fazendo o mestrado dele lá na PUC e a gente estava conversando ontem à noite, batendo um papo, e ele falando que tem funcionários lá da PUC, com os quais ele acaba convivendo e conversando, que estão ainda morando em abrigo. Sim, porque
(02:38) perderam tudo. Perderam tudo, não têm para onde voltar. A água baixou, mas não têm para onde voltar. Você tem bairros como o Sarandi, que é um bairro também da zona norte, mas os bairros ali do Humaitá, que ficam no entorno da Arena, eles foram destruídos, basicamente. Você tem ainda pessoas limpando as suas casas, só que a prefeitura não conseguiu tirar todos os escombros, que são as coisas das pessoas que estragaram e que elas tiveram que jogar fora. Sim. Então, ajude.
(03:12) Se você quiser fazer um apoio, a gente deixa aqui no show notes também uma listinha que fizemos com alguns tipos de apoio. Até tenho que dar uma olhada lá para ver se não desatualizou alguma coisa. E também o nosso apoio do Apoia-se, o que vier, que ficaria normalmente para nós, a gente está passando. É difícil também, você tem várias formas diferentes de ajudar as pessoas, muitas formas
(03:42) diferentes. Uma delas é só o dinheiro. Esse é o pouquinho do Segurança Legal, digamos assim, que a gente ainda tem as outras questões que temos visto, Guilherme. E aqui do Segurança Legal, só para contribuirmos em conjunto com os nossos ouvintes. Guilherme, quer falar mais alguma coisa da abertura? Não, pode falar. Escuta, tu podes agir para mim como se tu fosses um apresentador de podcast sobre segurança da
(04:18) informação, apresentando um episódio sobre novidades e notícias selecionadas para tomar um café com o teu amigo Serafim? Posso, posso, claro. Pois é, promptzinho, né? A primeira notícia é mais uma curiosidade. Notícia barra curiosidade, mas o jornal “A Cidade”, vamos ver se eu vou acertar o nome da cidade, de Votuporanga, publicou, eu vou compartilhar com vocês aí, publicou na edição de sexta-feira, de 24 de maio deste ano, 2024, a notícia… A notícia começa assim:
(05:05) A edição começa com: “Eu quero que você aja como um jornalista com mais de 20 anos de experiência. Eu vou te dar um texto e você vai criar uma reportagem jornalística em português para um jornal impresso do Brasil, de forma isenta, sem emitir opiniões e sem adjetivação”. O prompt é bom. Poderia ser pior, poderia ser criticando ou levantando um leve aspecto negativo ou positivo, coisa parecida. E para quem está vendo no YouTube o vídeo, está vendo que tem esse textinho logo no início
(05:46) da matéria e depois, efetivamente, vem o texto, provavelmente, ao que tudo indica, gerado pelo ChatGPT. É curioso que o pessoal esqueceu de tirar o prompt, copiou o texto tal qual e acabou publicando, e obviamente caiu na net. Eu encontrei também a notícia no “Novo Momento”, que eu não conhecia. Também tem a notícia do “tereres”, que está aqui no Twitter, o handle dele aqui, o Theres Medeiros, com THY, que ele publicou no Twitter dele.
(06:29) E aqui a notícia que saiu no “Novo Momento”. Eu realmente nem conhecia o “Novo Momento”, mas é a mesma foto. E eles chamando a atenção para o fato de que o pessoal esqueceu… Aqui está errado, no jornal. Um jornal do interior de São Paulo esqueceu de apagar no texto de abertura que havia pedido para o ChatGPT construir uma reportagem. Mas está aí, é curioso, é engraçado. Eu acho que, pelo menos, isso aqui é menos impactante do que aquela situação do juiz que fez uma…
(07:07) Que ele usou uma jurisprudência numa sentença e a jurisprudência não existia. Foi o advogado, era uma alucinação. Eu me lembro do caso do advogado que peticionou lá, foi num caso envolvendo uma companhia aérea nos Estados Unidos e teve essa invenção. Agora, comecei a ler um livro agora de um cara chamado Neil Postman, chama “Technopoly: The Surrender of Culture to Technology”. Já me manda o link aí. Já jogo para nós aqui. Ele é
(07:50) um livro de 93 e, logo no comecinho, ele fala um negócio interessante: que toda tecnologia é, ao mesmo tempo, um “burden” e um “blessing”, um fardo e uma bênção. Ou seja, ela sempre vai ter esses aspectos. Claro, nós também… Essa é uma outra coisa que se discute nessa discussão de como a tecnologia… dos propósitos da tecnologia. Ela é construída para finalidades, então as suas finalidades, às vezes não, elas estão dentro do próprio uso que a tecnologia se propõe. Ou seja, ela foi criada para alguma coisa, dentro de um
(08:30) contexto, por pessoas. Então, você carrega junto consigo, naquela tecnologia, propósitos. Ela não vai ser neutra, como incorretamente se aponta. E aí uma coisa que me lembrei agora: peguei, dia desses, um trabalho de faculdade feito pelo ChatGPT. Você vai começando a perceber quando as coisas são feitas pelo GPT. Então, era um trabalho em que eu dava um texto para os alunos e eles tinham que responder perguntas até relativamente simples sobre aquele texto. Então, é óbvio, você
(09:02) precisa ler o texto e responder conforme o texto. O objetivo é que os alunos leiam o texto, no final das contas. E as respostas não tinham absolutamente nenhuma conexão ou relação com o texto, ao ponto de, ao fim, estar assim — era alguma coisa relacionada com como os tribunais se posicionavam em uma determinada matéria — e no final da resposta do aluno dizia: “Você precisa verificar o sistema legislativo, o sistema legal do seu país, para verificar como que os tribunais vão se posicionar nesse caso”. Ou seja, só
(09:32) jogou a pergunta e obteve a resposta. O cara nem leu. Ele não leu a resposta. Ele não leu, porque se ele tivesse lido e entendido a resposta, ele teria retirado aquilo. Ou teria dito, dado mais contexto: “Eu estou no Brasil”, não sei o quê. Mas, ainda assim, não pegaria a posição do autor sobre aquilo. Então, ao mesmo tempo que é engraçado, é um pouco triste também, porque poxa, o cara se expôs ali. Não tem problema grandes redes de jornal, o próprio Estadão já tem lá suas diretrizes sobre como usar Inteligência Artificial. O problema é
(10:09) quando o cara usa de uma forma meio… Qual é o valor que você quer aqui? É você não fazer as coisas que você deveria fazer. Porque tem certas coisas que você ainda vai precisar fazer. Um cara que escreve sobre opinião no jornal está sendo pago para dar a opinião dele, e não para a gente ouvir a opinião do ChatGPT. Sim. Agora, claro que você pode sumarizar certas questões, certos estudos. Cara, o lance, pelo menos por enquanto, é muito ter essa supervisão humana do
(10:45) resultado do que ele está gerando. E se tu estás fazendo uma coisa que é autoral, tu estás botando lá teu nome, se espera que… Pelo menos, a gente lá no blog usa o ChatGPT para dar uma acelerada na tradução, para acelerar o processo. Principalmente traduzir, mas aquilo ali é revisado por ti, é curado por ti. Então, o valor ali existe. Porque poxa, isso aqui, segundo o que o Guilherme está levantando, separando, é relevante. Claro que se alguém não concordar com a
(11:20) tua visão, é um outro problema. Agora, é diferente do cara chegar e dizer assim: “ChatGPT, me dá aí umas notícias e agora me dá algumas opiniões sobre isso e algumas considerações. Agora faz um artigo sobre isso, cola lá e deu”. Sim. E quando a gente faz as traduções, quando há necessidade de fazer algum comentário, a gente separa: “Isso aqui é a tradução feita pela máquina e aqui os comentários feitos pelo Guilherme”. E aí você consegue destacar bem. Hoje, com a Inteligência Artificial, ficou muito fácil você ter acesso a conteúdos de fora, em outras
(11:58) línguas que você não fala. Mas está sendo feita uma curadoria ali com materiais em inglês, em francês, em italiano, sobretudo inglês, francês e italiano, que são algumas coisas em espanhol também. Então, você meio que te abre uma curadoria mesmo. Mas não está sendo criado exatamente pela IA. Bom, posso trazer uma minha? Manda ver. Já me diz qual foi a tua primeira. A tua primeira é a do Microsoft Recall, que a gente falou aqui, acho que foi no último episódio. Ainda tem repercussões sobre. A gente comentou do Copilot Plus AI, que
(12:32) agora está vindo. Cara, isso vai sacudir o mercado, viu? Pelo que eu estava vendo na Computex 2024, o pessoal falou dos lançamentos, inclusive para suportar o Copilot Plus AI, que a Microsoft colocou alguns requisitos mínimos para o PC poder ser um Copilot Plus PC, não Copilot Plus AI. Copilot Plus PC, que tem que atingir alguns níveis mínimos de desempenho para poder ser utilizado. Então, está fervendo esse negócio, cara. Os problemas que estão emergindo, que
(13:13) foram destacados pelo Steve Gibson no episódio 977 do Security Now, vão no sentido das questões relacionadas à proteção de dados, à privacidade e também à segurança da informação. O que ele faz… O Steve Gibson fez uma análise de dois artigos de um pesquisador chamado Kevin Beaumont, que aponta como essa nova funcionalidade, colocada do jeito que foi colocada, prejudica bastante a segurança do Windows e também das próprias pessoas que vão utilizar. Vai ficar no show notes esse artigo,
(13:49) e tem uma série de print screens e de discussões mais técnicas sobre a segurança ou a falta da segurança. Basicamente, a preocupação é que tudo que você faz com esse Microsoft Recall, que por enquanto vai funcionar só nesses PCs que você falou, Vinícius, por enquanto… É que tudo o que você faz fica guardado num snapshot, eu acho que é de 5 em 5 segundos, 15 em 15. Tem um tempo lá, provavelmente deve poder se alterar isso, fica armazenado em snapshots e guardado no computador. E a grande discussão: “Não, mas tudo está criptografado, fica sendo
(14:27) processado na máquina”. Bom, pelo menos por enquanto. Você não tem nenhuma garantia de que isso não possa ir para outros lugares. Mas o que esse pesquisador colocou é que usuários logados na máquina, outros usuários logados na máquina que não o dono daquela conta em que o Recall está funcionando, conseguiriam ter acesso a esses snapshots. O que demonstrou que a própria Microsoft, como ocorreu em outros contextos e como é comum acontecer na indústria de tecnologia, busca sair na frente para dominar mercado, para só depois pensar em
(15:00) aspectos de segurança. Ou não somente só depois, mas para pensar de maneira mais profunda. A rapidez na tomada de certos mercados certamente é um inimigo das reflexões relacionadas à segurança da informação. Isso, inclusive, é ligado à gestão de outros riscos pelo ser humano. Basta ver a questão dos riscos ambientais que a gente está vendo aqui em Porto Alegre, a dinâmica é mais ou menos a mesma. Oi. E tem também aqui, só compartilhando, do Krebs on Security, nesse mesmo tema.
(15:34) Inclusive a do Patch Tuesday, em que a Microsoft resolveu deixar por default desativado o Recall. Ele estava por default ativado. E aí ele faz aqui… Eu vou deixar ali no show notes para acrescentar na tua notícia, para o pessoal poder acessar também. Ele chama a atenção, inclusive, para situações em que atacantes tiveram acesso, não do Recall, mas acesso a máquinas de pessoas que fazem determinadas operações, para ver como essas operações são feitas e aí
(16:13) conseguir fraudar essas operações ou realizá-las de forma fraudulenta. E ele dá o exemplo, inclusive, de um ataque acontecendo usando o SWIFT, os ataques em SWIFT, aquelas transferências bancárias internacionais. Então ele chama a atenção justamente para isso. Imagina o cara poder entrar, invadir tua máquina, e ele consegue usar o Recall para ver como tu realizas tuas operações. Claro, qual é o teu modus operandi. Sim. E essa é a preocupação colocada por esse Kevin Beaumont. Primeiro, que você tem um potencial
(16:49) disso vazar. Porque eles comentam: “Ah, mas esse material vai ficar todo criptografado”. Sim, ele vai ficar criptografado numa perspectiva de que, se roubarem o teu computador, por exemplo, se alguém tiver um acesso físico com ele desligado, não vai conseguir ter acesso a esses dados. Agora, uma vez que você se loga na conta, isso precisa ser descriptografado. E você tem quantidades imensas de malware e de outros programas que poderiam ter acesso a isso, inclusive pessoas mal-intencionadas. E então, isso faz
(17:25) emergir muitos problemas e muitas questões, tanto de segurança, mas também de proteção de dados pessoais. Qual seria o impacto de você ter tudo o que você já fez no computador podendo vazar, mas ao mesmo tempo podendo ser lido por uma máquina para se tirar inferências? Seria quase como uma última janela que vai se abrindo. Porque isso já é feito com os e-mails, passou a ser feito com redes sociais, passou a ser feito com as buscas que a pessoa faz, sistemas que verificam os locais,
(18:08) os sites que você acessa, aquilo que você acessa na internet. Mas ainda tinha um último lugar que nem sempre podia ser verificado, que era o que exatamente você digita, ou não só o que você digita, mas o que você vê. E como você vê, o que você faz. O que tu digitas… Lembrando que já há algum tempo o esquema de telemetria já estava usando. Sim, mas aqui é pior, é a tela mesmo. E está sendo guardado, e não é só aquilo ser guardado, é aquilo ser tratado e processado por uma
(18:41) ferramenta de Inteligência Artificial. Tudo que você digita, tudo que você vê. E o Steve Gibson comenta: “Poxa, as pessoas normais vão ver pornografia, por exemplo”. Não sei. Então você está colocando contextos ali agregados que são muito… têm um potencial muito grande de ferir direitos da personalidade da pessoa. E ele ainda colocou aquilo que você tinha comentado, que até agora a forma como eles tinham colocado a ferramenta, ela seria opt-out. Ou seja, todo mundo que usar a máquina vai estar com isso habilitado, você precisa
(19:13) sair. E aí o Steve Gibson comenta sobre essa questão da “tirania do default”, que, salvo engano, é falado lá no “Filter Bubble” pela primeira vez, e como é também arriscado e potencialmente poderia, agora digo eu, violar as leis de proteção de dados por não ser uma ferramenta que adote o “privacy by default”. Aí depois eles acabaram voltando atrás. Eu só queria ler aqui uma parte do show notes que vai estar também no nosso, que é o show notes do Security… é o show notes do show notes.
(19:47) O show notes do show notes. Ele disse isso aqui, traduzido também por Inteligência Artificial. Inclusive, ele fez uma tradução bem estranha ali do “learned”. Aquilo que a gente aprendeu. Mas não é, às vezes o “learn” nem sempre é aprender, é perceber, talvez. Então, tem essas nuances da tradução. O que foi percebido, observado talvez. Ele disse o seguinte, abre aspas: “Foi também muito interessante descobrir o quanto é econômico o armazenamento do Recall. Isso faz sentido
(20:22) se estiver armazenando e comprimindo o texto, já que sabemos quanta redundância existe em textos linguísticos. Mas Kevin diz que vários dias de trabalho comprimem esses snapshots”, ele está falando sobre o tamanho dos snapshots, “e disse que vários dias de trabalho comprimem para cerca de 90 KB de armazenamento no banco de dados. Caramba, vejam, 90 KB, não são as imagens, nada. Por quê? Porque eles ficam usando OCR em cima dessas coisas e transformam tudo em texto. Se considerarmos vários dias como dois, isso equivale a cerca de 45 KB por dia. Uma alocação de armazenamento de 50 GB
(21:00) consumida à taxa de 45 KB por dia renderia 342 anos de armazenamento. Tenho certeza de que entenderemos mais no futuro, mas não acho que o Recall armazenará os últimos 90 dias de uso de um PC. Parece que ele sempre estará gravando toda a vida útil do PC. É por isso que o título do segundo post de Kevin faz muito mais sentido. O título dele começava com: ‘Roubando tudo que você já digitou ou viu no seu próprio PC com o Windows’. E acho que é exatamente isso que a Microsoft está planejando fazer. Se eles conseguirem capturar e comprimir todo o texto
(21:37) exibido nas telas do Windows 11, e dada a explosão na capacidade de armazenamento local em massa e a eficiência da compressão de texto, eles claramente têm a capacidade de armazenamento para capturar tudo para sempre. E isso nos leva ao título que dei ao podcast de hoje”, ele falando, “‘Um grande modelo de linguagem em cada panela’. Por que a Microsoft gostaria de capturar cada coisa que um usuário digita e vê em seu próprio PC durante toda a sua vida útil? Eu tenho uma teoria: a Microsoft quer causar um grande impacto na IA. Então, que tal usar todos esses dados
(22:13) para treinar um grande modelo de linguagem totalmente pessoal e local? E se um futuro grande modelo de linguagem local não fosse usado apenas para indexar e pesquisar o seu histórico de PC, mas estivesse continuamente sendo treinado com todo o seu corpus de dados pessoais, de modo que fosse possível interagir conversacionalmente com a sua própria IA pessoal, que cresceu para conhecê-lo intimamente, porque esteve observando e aprendendo tudo que você tem feito por anos? Ela saberia, e eu coloco ‘saber’ entre aspas, tudo que já foi digitado no seu teclado e exibido em sua tela. Toda a história de uso dessa
(22:51) máquina se tornaria um corpus crescente que está continuamente treinando o modelo”, fecha aspas. Aqui para o Steve Gibson, Vinícius, meu amigo, vamos ver. É “creepy”. Tu ter um negócio gravando absolutamente tudo o que tu fazes é delicado, para dizer o mínimo. Para dizer o mínimo. Imagina tu… E a gente estava discutindo, tu estavas colocando algumas coisas pessoais, mas imagina trabalho. Para as próprias empresas isso é problemático. Ah, isso nem entra nesse aspecto, que seriam os impactos para a segurança corporativa.
(23:29) Exato. Está totalmente fora de questão você usar um negócio desses. É totalmente fora. Mais ou menos. Pelo menos conscientemente, porque daqui a pouco tu começas a comprar… Cara, o que eu acho que vai acontecer é que a gente vai ter uma corrida por “nossa, eu tenho o último Copilot Plus PC aqui, olha a capacidade, a velocidade que ele faz uma imagem, a velocidade que ele interage comigo ou que ele faz minhas coisas, ou que ele aprende”. Isso só vai
(23:59) atiçar a galera. A galera vai querer cada vez mais usar isso. E aí já viu. Isso vai acabar parando dentro das empresas e vai ser outro rebuliço. O que eu acho que vai acontecer, e aí seria o próximo passo, é levar esses modelos para a nuvem. Entende? E aí você vai ter o clone… Até escrevi sobre isso, “Colombo” no artigo. Você vai ter um clone digital teu sendo usado pelas empresas para saber qual publicidade, por exemplo, vender para ti. É que essa fronteira vai ser cada vez mais delicada, porque tu precisas de
(24:33) um modelo, de modelos que funcionem de forma rápida e que sejam leves para rodar em hardware limitado. Mas, ao mesmo tempo, ele não se limita a usar a capacidade do computador ou do dispositivo, ele vai acabar utilizando a nuvem também. Então, vai ser muito difícil essas informações não irem para lá. Enfim. A questão seria treinar outros modelos ou roubar esse teu modelo, esse teu clone. Entendeu? Mas não precisa roubar, é só pedir autorização. Aliás, falando nisso, posso puxar uma minha aqui? Pode, claro. Lembrando que nós temos que dar as pausas para o Mateus poder cortar depois, que ele pediu para a gente. Então, a notícia é a seguinte,
(25:16) o nosso headline: “Plataforma de IA usa imagens de crianças brasileiras sem autorização”. É muito interessante sob vários aspectos. O que acontece é que uma plataforma de IA na Alemanha usou, pelo menos o que foi descoberto pela Human Rights Watch, pelo menos 170 fotos de crianças de 10 estados brasileiros. E para gerar, e não só fotos, mas vídeos, coisinhas de fotos de aniversário, essas coisas que a gente sai publicando por aí. A gente não, porque eu não faço
(26:02) isso. Enfim, já começa o ponto. Inclusive, o Rafael Zanatta, nosso amigo, foi entrevistado para essa matéria. Que legal. Está aqui a matéria do G1, do Jornal Nacional. Então, está lá o link para vocês no show notes, para quem quiser ler depois. Ó, “vídeos caseiros postados em 1994 e também imagens recentes de festas de aniversário de crianças que aconteceram em 2023”. Então, aqui chama a atenção para o fato de que foi utilizado sem autorização. As imagens acabaram aparecendo, a Human Rights Watch foi capaz de identificar essas imagens.
(26:45) O que chama a atenção, Guilherme… Está bom que tem que ter um controle de como se usam essas coisas com IA e tudo mais, mas isso aqui bate num ponto que há muitos anos a gente bate aqui no Segurança Legal, que é a exposição das crianças pelos próprios pais. Não é alguém que sai tirando foto de criança por aí e postando na internet. É para a gente ver como é difícil a gente ter a noção do impacto que têm as nossas ações feitas hoje, daqui a 5, 10 anos. Então, muito do que tem de material que o pessoal postou, publicou, tirou fotinha, postou vídeo, fez aquilo no passado.
(27:31) E mesmo que o pessoal ainda continue fazendo… “Ah, não, mas é só para compartilhar com a família”. E esse tipo de situação… acaba que o pessoal cai nessa do “compartilhar com a família”, ou seja, acha que posta a foto e, como imagina que aquele é o uso que quer fazer, é a isso que vai ficar limitado, quando, na realidade, a gente, como já alertou muitas vezes aqui, o uso é praticamente ilimitado. Sim, os diversos propósitos para que isso pode ser utilizado, inclusive para a questão de
(28:14) treinamento de modelos de IA, geração de imagem, geração de vídeo. Sabe-se lá o que que vai ser feito com isso. Então, claro que tem a importância de se regular o que se faz com IA, inclusive chama a atenção para isso. Porém, eu gostaria de novo de bater no tópico que tu lembrou. O Guilherme passou aqui, isso aqui não fui eu que trouxe de cabeça, galera, isso aqui foi o Guilherme que lembrou e catou lá. Pode ficar tranquilo, cara. Trouxe aqui. Não, tem que dar o crédito, te ajudando aqui. Tem que dar o crédito, senão vão dizer que foi o GPT que
(28:48) catou aqui e não dei. Se eu dou crédito para o GPT, eu tenho que dar o crédito para ti também. Mas o Guilherme catou aqui o Episódio 118: “Exposição de crianças na internet”. E tem vários, como o dos brinquedos lá também, Guilherme? Dos brinquedos, “Internet dos Brinquedos”, que a gente também fala sobre isso. Então, é mais um exemplo. Eu quero pegar essa notícia mais por esse viés de nós repensarmos a exposição de crianças na internet, repensarmos esse lance de ficar fazendo álbum de família público na internet, porque isso aí foi o que foi
(29:29) encontrado. Agora, tem situações que a coisa vai ser treinada e tu não vai encontrar de cara esse uso tão descarado como aconteceu nesse caso aqui, especificamente. Mais informações sobre isso vão estar lá no nosso show notes, obviamente. Mas é bom a gente pensar no que acontece com as informações que a gente publica hoje, daqui a 5, 10, 15, 20 anos. Sim. E também é aquela coisa difícil, porque é claro que não são todos os pais que têm condições de pensar nesses problemas, porque hoje a gente já tem
(30:11) pais que foram forjados e que cresceram no âmbito dessa tecnologia, onde é muito natural para eles não pensar nesses problemas. É por isso que a gente precisa também de regulações, de soluções mais coletivas. Porque nem sempre o pai vai ter… Eu até estava vendo uma outra reportagem, agora não vai dar tempo de pegar aqui, mas sobre como a geração mais… Eu não gosto desse “Z” e tal, eu acho que explica mal, mas os mais jovens não estão sabendo mais mexer no computador, porque fazem
(30:49) tudo no celular. Em alguns casos, não conseguem nem usar o “control C, control V”, não sabem o que é, não conseguem usar o Word. Uma coisa que eu percebi na faculdade, que a gente percebeu na faculdade de Três de Maio, que é a SETREM. E eu já falei várias vezes, Três de Maio é uma cidadezinha com 24.000
(31:13) habitantes, muito agradável. É uma cidade que tem uma bela de uma faculdade, com um campus muito bonito, com uma estrutura que tu não encontras assim, não é comum. É uma coisa meio diferente. Agora, o que que eu ia comentar mesmo? Se eu falei, estava falando dos jovens que não sabem usar “control C, control V”. O que a gente percebeu é que, de uns tempos para cá, os laboratórios da instituição estavam ficando assim… O pessoal chegava lá, desconectava o teclado, o mouse das máquinas do laboratório e conectava nos seus notebooks. Então, isso era um problema, que
(31:53) às vezes o pessoal ia embora, não reconectava e, enfim, aquela bela história. Então, o pessoal começou a cada vez mais utilizar os notebooks e, algumas vezes, até nem vir para o laboratório, todos os alunos tinham notebook. Só que, de uns tempos para cá, a galera começou a gastar R$5, 6, 7, 8, 9, 10 mil num celular. É verdade. E pararam de comprar notebook. Então, o cara tem, às vezes, uma máquina sofrível em casa, podre, que se arrebenta para conseguir, reclama da máquina que é lenta, mas gastou cinco, seis paus num celular.
(32:32) E aí, a gente voltou a ter uma demanda por algumas coisas de laboratório, de máquina, porque o cara tem celular, não tem notebook. Não estou dizendo que tenha que ter notebook, mas o que eu acho muito interessante é isso: o pessoal gasta uma grana no celular e não tem um computador minimamente, vamos dizer assim, adequado para se trabalhar. É claro, a depender da atividade que você vai fazer. Por exemplo, no Direito, não tem como você fazer trabalhos, petições,
(33:08) no celular. Não tem. Não faz sentido. Você vai precisar de um certo grau de apuração ali ou de cuidado. Eu passei para ti a pesquisa do Cetic.br, não vai dar tempo da gente falar isso agora, mas essas questões sobre quem acessa a internet mais por aquele ou por outro dispositivo, para sair um pouco das impressões. Mas é isso que o Vinícius falou, é mais ou menos isso mesmo. Está certo. Acessa pelo celular, mas aí tem aqui, quem quiser se aprofundar um
(33:39) pouco mais nesses dados, fica aí o link da Cetic. É a pesquisa. Você ia falar sobre esse tema? É a pesquisa. A pesquisa da… Então, dando o tempo, dá o tempinho para o Mateus cortar e dá o headline, que senão o Mateus depois sofre. Prepare-se, Mateus, agora vai. Virada política na Europa e regulação da tecnologia. Quem acompanha o cenário político na Europa… E aí, uma reportagem da Euractiv. Euractiv? É essa a pronúncia? Parece nome de remédio isso aí. Euractiv. Europa e activity, provavelmente, junção dessas duas
(34:27) palavras. A gente não faz muita piadinha aqui porque não é muito o nosso esquema, e os ouvintes não gostam muito. Mas esse nome parece nome de remédio, e um tipo específico de remédio, mas eu vou parar por aqui. Quem entendeu, ria, e era isso. Não sei o que é, mas tudo bem. Vai lá. Essa reportagem, Vinícius, eles tentaram fazer uma previsão de como a alteração na dinâmica de forças da União Europeia, com políticos de extrema-direita
(35:02) assumindo o Europarlamento, como que isso poderia influenciar na regulação e no âmbito da regulação da tecnologia. Por que que isso é importante? Para muito além do aspecto político de você ser de esquerda ou de direita e achar que o outro lado é ruim. É evidente que qualquer pessoa que conhece minimamente Ciência Política sabe que cada uma das vertentes políticas vai ser mais aberta ou mais fechada para certas questões. A gente sabe que essa ideia de bem-estar social e as ideias relacionadas à regulação da tecnologia,
(35:37) da proteção de dados e segurança da informação ao redor do mundo tendem a ser mais progressistas. Então, quando se reverte essa equação de forças, o que que poderia acontecer? Essa é a pergunta. E depois, por que que a gente deveria se preocupar com isso, nós brasileiros? Bom, a gente aqui no Brasil é muito influenciado tecnicamente pelo que ocorre na Europa. E basta ver a relação que a nossa LGPD tem com o GDPR europeu. O que, às vezes, é até motivo de crítica, que copiamos demais e precisaríamos de soluções mais
(36:15) tropicalizadas, mais direcionadas às nossas necessidades, que são diferentes das necessidades europeias. Mas o fato é que lá você tem mais tradição de estudo disso do que você tem, por exemplo, no Brasil. O que que essa reportagem, que foi uma avaliação feita pelo Florian CZ, que é pesquisador associado do Instituto Egmont e do Centro de Políticas Europeias, apontou? Basicamente que pode haver, isso é uma previsão, pode haver uma diminuição na criação de novas regulamentações tecnológicas por essa orientação ideológica da extrema-
(36:47) direita de achar que “não, eu não devo regular tecnologia, eu devo deixar ela correr por si só”. A gente viu aqui a própria questão das regulações envolvendo tanto Inteligência Artificial quanto as grandes big techs, de maneira geral, e as redes sociais, e como políticos de direita se opõem a essa regulação. A reportagem fala aqui sobre isso, de que políticos, às vezes, de extrema-direita estariam relacionados com o que eles colocaram entre aspas, “mensagens polêmicas”. Mas o que a gente
(37:24) está vendo e já viu acontecer, inclusive com o próprio Twitter, é manipulação, favorecimento de certos discursos, uso de robôs para falsamente criar falsas interações, desinformação. Então, corre-se o risco de haver uma diminuição na iniciativa de regulamentação de redes sociais, relutância em alocar recursos para implementação de regulamentações já previstas, seja o AI Act, recentíssimo, o Digital Markets Act (DMA) e o Digital Services Act (DSA). Por exemplo, o próprio AI Act, eles colocam lá a necessidade
(38:04) de criar um comitê europeu para Inteligência Artificial, que seria um órgão, entre outras coisas, que deveria funcionar como um agregador de técnicos, de peritos para fazer pesquisa, para produzir dados e tal. Uma coisa muito além de uma autoridade, é um grupo, um órgão de pesquisa mesmo. Ora, você sabe que pesquisa… No Brasil a gente não dá muita bola para isso, mas pesquisa precisa de dinheiro. Os pesquisadores têm que ganhar dinheiro para fazer pesquisa. Então, há
(38:40) uma previsão também que poderia haver uma resistência nesse financiamento da inovação que poderia envolver regulamentação. Ou seja, é claro que quanto mais eu regulamentar, e claro, não é uma regulamentação burra porque eu vou impedir o crescimento, mas eu tenho que fazer algo que tenha medidas, pesos e contrapesos de um crescimento coordenado, regulado, visando buscar o bem de todo mundo. Essa é a ideia do Estado de Bem-Estar Social. Então, essa é mais ou menos algumas das previsões que eles fazem. Se fechar a regulação das tecnologias, essa poderia ser a
(39:20) tendência, e que poderia causar efeitos muito perceptíveis para nós, sobretudo no descontrole desses problemas de concentração de mercados, que é um grande problema hoje. Ou seja, é você concentrar muitos poderes em poucas empresas, assim como acontece com Microsoft, Google e as grandes big techs. Então, esse quadro poderia, na visão desse pesquisador aqui, ocorrer. Então, fica aí no show notes para quem quiser ler a reportagem inteira sobre essa previsão que se deu com a eleição da União Europeia.
(39:57) Perfeito, Guilherme. Guilherme, diga. Se algum dia eu sair do Segurança Legal, eu vou apagar tudo meu. Eu vou apagar tudo. Muito bem. E aí vai ser o headline… Em vez de ser esse aqui, vai ser um falando que eu apaguei tudo. Mas olha só esse headline aqui. Ouçam e vejam. Ouçam, quem está nos ouvindo só, e vejam quem está no YouTube acompanhando: “Ex-funcionário de TI recebe 2 anos e meio de prisão por apagar 180 servidores virtuais”. Eu lembro de algo parecido. Eu usava, inclusive, quando eu dava aula
(40:46) de segurança e fazia a prova. Ou seja, isso faz… nossa, a última prova que eu fiz… Eu larguei mão de fazer prova há muito tempo, e eu citava uma notícia de um cara que apagou servidores. A mesma coisa. O cara foi demitido e apagou servidores. E o caso é o mesmo. Só mudaram as partes envolvidas. Então, um ex-funcionário de TI, o nome dele é Nagaraju Kandula, foi em Singapura, na National Computer Systems, que é uma
(41:24) gigante de tecnologia da informação em Singapura, segundo a notícia da Bleeping Computer. Esse cara foi demitido, as credenciais dele de acesso ao ambiente não foram canceladas, não foram revogadas. Ele continuou com acesso. Ele ficou algum tempo fazendo acesso para ajustar as permissões e os scripts que ele precisava para poder apagar. Ou seja, o cara não ficou bravo e apagou. Ele ficou um tempo preparando o negócio e aí, finalmente, ele roda o script dele e detona com 180 servidores virtuais que
(42:13) estavam na nuvem. Esse é um dos problemas da nuvem. Tu apagas as máquinas. Ele apagou as máquinas. Os danos que ele causou foram estimados em US$678.000. Os danos não foram tão grandes assim porque eram máquinas utilizadas para a questão de quality assurance deles. Não eram máquinas que atendiam diretamente, vamos dizer assim, clientes e tal da empresa. Por essa razão, o prejuízo não foi tão grande, dado o número de servidores
(42:48) apagados. Chama a atenção o fato de que ele seguiu com as credenciais. Ou seja, a empresa desligou ele e não cancelou as credenciais de acesso dele. Um erro básico, fundamental de segurança da informação, e que uma boa política de segurança da informação, coisa que, aliás, a Brown Pipe faz para você ou ajuda você a fazer, aproveitando a propaganda, Guilherme. Uma boa política deveria prever isso no momento… até relacionada com a 27001/27002, essa necessidade de tu ter uma política para formalizar o desligamento de funcionário. O que que tu faz para desligar? E lá está escrito muito
(43:32) claro o que deve ser feito. Uma outra curiosidade é que os investigadores também pegaram as pesquisas que o cara fez no Google, que o Kandula fez no Google. E ele estava pesquisando justamente como deletar. Para fazer os scripts, ele catou no Google como fazer. Ele podia ter usado o ChatGPT. Sim, ele podia ter usado o ChatGPT para fazer isso aqui para ele. Old school, né cara? Old school. O cara foi no Google. Quem aí mexe com RouterOS e qualquer coisinha que tu queira mais específica… RouterOS não tem nada a ver com
(44:08) virtualização, gente, é um sistema operacional para roteadores, para RouterBoards e tal. Mas quem mexe… “Ah, quero fazer um script para RouterOS”. O ChatGPT faz. “Quero fazer um script lá para falar com a API do produto da VMware, o… agora esqueci o nome dele. Um tempo atrás era vSphere, mudou, não sei o quê. Mas tu tens… está gratuito agora, né? Não com tudo, full, mega blaster hiper, mas tu tens toda uma API para gerenciar serviço, pode fazer um script usando ChatGPT. Não precisa catar no Google para apagar as máquinas. Não estou dando ideias.
(44:48) Enfim. Mas é interessante isso. E um erro básico de que envolve justamente o gerenciamento da segurança da informação. As questões de políticas, de garantir que as políticas existam, que sejam de fato cumpridas e que tu tenhas como auditar esse tipo de processo. E aí, pelo visto, falhou tudo. Foi tudo para o beleléu. A gestão de credenciais… qualquer norma de segurança vai falar sobre gestão de acesso de maneira geral. Ou seja, você precisa ter uma política de acesso e tal. Isso se aplica até para a nossa vida mesmo. E nós,
(45:29) podemos falar sem citar o nome, evidentemente, mas vimos recentemente um incidente que envolveu justamente falhas nessa questão de gestão de acesso de maneira geral, que acaba ficando… Você vai levando a sua vida, as coisas vão funcionando, e é natural do ser humano ir relaxando nos controles, porque isso atinge as pessoas comuns também. Poxa, quantos acessos você que nos escuta aqui, quantas credenciais você tem que gerenciar, que precisa verificar? Então, esse é um problema. Agora, tu fazes essa pergunta aí, dependendo
(46:07) para quem tu perguntas, a pessoa diz assim: “Nem é tanto assim, eu tenho uma senha que eu uso para tudo, ou uma senha que eu uso para as lojas e uma senha que eu uso para os bancos”. Está bom. Não, não está bom. Estou sendo irônico. Uma coisa que a gente falou, ele é old school, foi procurar no Google. E uma outra coisa também que eu percebo, às vezes, até dos meus alunos, principalmente os bem jovens mesmo, e eu acho muito estranho, eles não
(46:38) pesquisam no Google. Eles não usam o Google. É pesquisa em TikTok, YouTube. Ah, tá. Eu fico no meio do caminho, eu tenho usado o Perplexity para pesquisar. Eu não uso mais o Google também. Você fala do Perplexity… Você vai me perdoar, mas todas as vezes que eu uso o negócio, não funciona. Ah, cara, não sei. Tem que saber usar. Ele sempre me dá… Para mim funciona. Te digo assim, sabe para que que ele não é bom? E aquilo, a gente já está
(47:15) saindo do assunto da notícia, mas sabe para que ele não é bom? É quando tu só queres digitar o… tu não lembras o site, mas lembras mais ou menos o nome da empresa, tu queres dar um enter e quer que o primeiro resultado seja o link para o site da empresa. Para isso, ele não é bom, o Perplexity. Para isso, o Google é bom. Então, nesses casos, eu confesso que eu ainda uso o Google para isso. Agora, quando eu vou fazer uma pesquisa e tal, meu ponto de partida… e eu não paro ali. Isso é muito importante para quem nos ouve como dica. Não adianta pesquisar ali e ficar com o
(47:49) que ele te dá. Ele te dá as referências, e essa é a sacada. Vai lá, vê se a referência é relevante, se não é. Eu uso ele como ponto de partida, como era, e talvez como continue sendo, a Wikipedia. É que a Wikipedia, alguns anos atrás, ela tinha uma má fama muito grande. O pessoal: “Ah, tem uns artigos tudo errado”. O pessoal todo revoltado que a galera estava usando Wikipedia para fazer trabalho na escola, essas coisas. E o que que a gente fazia? Pesquisava alguma coisa, acabava caindo na Wikipedia. Na Wikipedia tinha
(48:22) alguma referência, e dali tu ias adiante. É uma forma de usar. Hoje ela já está melhor, mas mesmo assim, tu usas dessa forma: vai lá, pesquisa, encontra, tem os links lá para outros recursos, e segue a tua pesquisa. E o que eu percebo é que o Perplexity faz justamente isso, sabe? Ele só faz isso para tudo. Em vez de ter um artigo pronto lá, que nem a Wikipedia, tu chegas ali, pesquisa, ele te traz as referências e, claro, tu tens que conferir as coisas, tem que ler. Como ponto de partida, ele é muito bom. Agora, ficar só com o
(48:55) que ele dá ainda é arriscado, porque a gente sabe das “cacas” que a IA ainda faz. Mas essa é a minha notícia. Qual é a tua próxima? Sim, nós vamos falar agora sobre proteção de dados de crianças nos serviços da Microsoft. E existe um instituto de pesquisa muito famoso, perdão, que é o noyb, que é o “None of Your Business”, ou “noyb” em português, que ele trouxe algumas questões sobre o uso de serviços da Microsoft, que é o 365 Education para crianças. Nós já falamos sobre isso aqui, inclusive lá
(49:36) naquele Episódio 359, sobre os usos de nuvem e os “locking costs” de você sair da nuvem. Que é o episódio 359, “Pague para Sair”. E nós comentamos lá também sobre como essas empresas, ao fornecer, entre aspas, gratuitamente as suas ferramentas para estudantes, você tem uma dinâmica ali de fazê-lo ficar ultradependente daquela plataforma, e os “switching costs” ficarem muito grandes para ele sair. Ele não consegue sair da nuvem. Mais informações, escute lá o 359. Mas qual é o
(50:15) problema aqui? É que, numa perspectiva de proteção de dados pessoais, o que esse instituto verificou é que estava… uma reclamação de que os pedidos de exercícios de direitos desses titulares, feitos para a Microsoft, estão sendo respondidos dizendo que quem é o controlador de dados pessoais, ou seja, aquela pessoa que toma as decisões, é a escola, e não a Microsoft. Só que as escolas estão dizendo que eles não têm nenhum controle, ou muito pouco controle, sobre os dados pessoais, de forma que eles não teriam condições técnicas para responder esses pedidos de
(51:01) exercício dos direitos dos titulares. Basicamente, o que, segundo essa reportagem, tem uma ação ali, uma reclamação, na verdade, é um “complaint”, é que a Microsoft estaria jogando contratualmente essa responsabilidade para as escolas sem que elas tenham meios técnicos para cumprir isso. Nós já presenciamos, inclusive, Vinícius, situações de adoção de nuvens em instituições de ensino que é totalmente acrítica. Você joga aquela nuvem lá e ninguém se dá conta que, basicamente, você está tratando os dados de todo mundo,
(51:38) entregando aquilo para a nuvem. Em situações, inclusive, que nós já falamos aqui, aquele caso ocorrido lá em São Paulo. E aí envolve não as crianças, mas os professores, que eles instalam os aplicativos respectivos lá da nuvem que está sendo utilizada na escola, sem se dar conta que aqueles aplicativos tomam conta do celular da pessoa e, inclusive, conseguem começar a extrair dados. E daí teve todo aquele problema que a gente viu lá em São Paulo, dos professores reclamando, e a nossa hipótese acabou sendo que instalaram os aplicativos
(52:07) da nuvem e aquilo toma conta, ou seja, consegue acessar os dados do celular. Isso tem sido feito ao longo do tempo sem a ciência adequada dos usuários. E o que eles disseram, o que foi dito nessa reportagem? Eu vou ler agora, Vinícius: “Isso envolve um labirinto de documentação de privacidade. Tentar descobrir exatamente quais políticas de privacidade ou documentos se aplicam ao uso do Microsoft 365 Education é uma expedição em si. Há uma séria falta de transparência, forçando usuários e
(52:46) escolas a navegar por um labirinto de políticas de privacidade, documentos, termos e contratos que parecem se aplicar ao caso. As informações fornecidas nesses documentos são sempre ligeiramente diferentes, mas consistentemente vagas sobre o que realmente acontece com os dados das crianças quando elas usam os serviços do Microsoft 365 Education. E o pior de tudo é que esses dados ainda estão sendo usados para monitorar o uso de tudo isso por crianças e para oferecer publicidade para elas.” Então, é aquela história: se com toda
(53:25) essa regulação nós vemos isso acontecendo, o afrouxamento de regulações… E vejam, é muito tradicional que tentativas de você regular coisas, de você lidar com coisas, comecem com as crianças. Sei lá, vou regular a publicidade de doces para crianças, vou controlar o acesso a bebidas alcoólicas e cigarros visando as crianças. Então, quando eu deixo de cuidar das crianças, isso é um péssimo sinal, porque se nem as crianças eu cuido, que são os mais vulneráveis em toda essa relação, como será que isso está acontecendo com os adultos? É algo que
(54:04) a gente tem que se preocupar em ver essas notícias e esses casos acontecendo. Perfeito, Guilherme. A minha próxima, então, é “Movimento de mães defende veto ao celular nas escolas”. Estão conectados os casos com o anterior. Sim, sim. Olha só, aqui é a notícia da Folha de S.Paulo. O que aconteceu? Vocês devem lembrar de um livro que o Guilherme já recomendou aqui mais de uma vez, que é “A Geração Ansiosa”, que, aliás, foi traduzido. Esses dias uma pessoa me mostrou o link dele traduzido, comprou ele traduzido.
(54:44) Deve ter sido pelo ChatGPT. Não duvide. Você ouviu primeiro aqui no Segurança Legal, antes de sair no Fantástico, a gente já estava falando sobre esse livro aqui. Exatamente. Aí saiu no Fantástico porque o pessoal escuta o Segurança Legal. Não estou brincando, não sei se escutam. Tomara que escutem. Claro que escutam. Tomara que escutem. Mas olha que interessante. A partir desse livro, e esse livro é citado aqui explicitamente na matéria, mães de uma escola particular de São Paulo se
(55:22) juntaram e querem que as famílias façam um acordo, que é justamente o que o Jonathan Haidt recomenda lá no livro dele, “A Geração Ansiosa”: um acordo para que os filhos só sejam presenteados com o smartphone depois dos 14 e tenham acesso a redes sociais apenas após os 16. Olha que interessante. No livro, o Jonathan Haidt chama a atenção para o fato de que um pai sozinho não vai conseguir fazer nada. Então, o Vinícius não deixando os filhos dele usarem celular, só o Vinícius, não vai
(56:01) adiantar nada. Um pai sozinho será apedrejado. Será apedrejado. Exatamente. Até porque tu vais falar coisas que as pessoas não gostam. Há uns anos, me chamaram para fazer uma palestra sobre redes sociais. Eu me lembro disso. Lembra disso? Lembro. Ficou bravo. Nossa, a galera ficou brava. E eu falei: “Para que ficar tirando foto de momentos particulares, privados, para botar na internet, para mostrar que viajou, para mostrar que fez? Não venha com essa história que é para mostrar para a família,
(56:32) não, é para mostrar para os outros”. E vale a pena expor? Enfim, aí o pessoal ficou… Nossa, o pessoal ficou… Talvez por isso não tenham me chamado mais. Mas o que acontece é que me perdoa o ônus de falar a verdade. E às vezes, estar do lado certo das coisas vai te causar desconfortos. No final, me ajuda a lembrar, lá nos extras, para quem está vendo no YouTube, depois que a gente termina e já dá o tchau, lá no final, às vezes, eu e o Guilherme continuamos conversando. Eu vou contar uma
(57:08) historinha sobre a verdade e a mentira. Bom, o que chamou a atenção foi que essas mães leram esse livro ou viram um resumo do livro feito pelo ChatGPT, não sei, mas se sensibilizaram com as informações que ele traz, porque o Jonathan Haidt é um sociólogo. E psicólogo, né? Não, psicólogo. Lá está como sociólogo, aqui eles estão citando como psicólogo. Enfim, e com base em pesquisa, em dados. E foi isso que causou um rebuliço tão grande, chamou a atenção, o New York Times falou muito sobre isso. E ele chama a atenção mostrando que as crianças com
(57:53) uso de celular estão sofrendo mais de depressão e ansiedade. Para dar um resumo da obra, muito resumido, ele percebe uma correlação de 2010 para cá entre o aumento de ansiedade e depressão, principalmente em pré-adolescentes meninas. E o que acontece em 2010? É a câmera frontal, o início das selfies, o Meta compra o Instagram e a primeira câmera frontal que realmente alcança um público grande é apresentada no mercado. Então, ele traz uma série de informações sobre a necessidade… sobre o fato de que os pais ficam cuidando muito dos filhos na
(58:47) pracinha: “Ai, meu Deus, não faz isso! Ai, se ele for muito longe e alguém pegar ele”, essas coisas que, estatisticamente, não é bem assim para acontecer. E, por outro lado, os pais são relaxados demais com relação ao uso da internet, que talvez seja mais perigoso hoje do que brincar na pracinha de uma forma um pouco mais arriscada. Ele fala sobre isso, inclusive, no livro. Então, essa iniciativa dessas mães é tentando fazer, ou seja, não esperar lei nenhuma ou coisa parecida, mas tentando fazer de alguma
(59:19) maneira com que essa escola adote essa medida e que os pais se juntem em torno dessa medida. O que é um belo desafio. Isso aqui eu vou querer acompanhar de perto para ver o que vai acontecer, porque eu gostaria que acontecesse, inclusive, na escola dos meus filhos. Eu gostaria que acontecesse na faculdade, inclusive. Mas está aí, essa notícia é bastante interessante. Da Folha de S.Paulo: “Movimento de mães defende que
(59:51) crianças e adolescentes não tenham celular antes dos 14 anos”. E vejam o livro lá, “Geração Ansiosa”. Eu só quero pedir desculpas aqui. Eu falei brincando, claro, Vinícius. Deve ter sido… Estou falando aqui, vou pedir desculpas. Deixa eu falar, pô. Fala, estou ansioso agora. É que eu falei brincando que a tradução foi feita, deve ter sido feita pelo ChatGPT. Não, não foi. Inclusive, me surpreendi aqui que… eu te mandei o link, essa edição traduzida vai ser lançada pela prestigiosa editora Companhia das Letras. Sairá pela Companhia das Letras.
(1:00:31) com a tradução da tradutora Lija Azevedo. Então, gente, não tem nada com GPT, pelo amor de Deus. Foi uma brincadeira. Agora pesou o negócio. Agora tu tens que se sentir muito culpado. A gente tem que valorizar os tradutores. Agora está rolando na internet, estão falando bastante sobre a tradução feita do Machado de Assis, do “Memórias Póstumas”, para o inglês, feito por uma professora, acho que ela é inglesa, mas aprendeu na faculdade a falar português. E aí está todo mundo elogiando o trabalho dela, de cuidado na tradução. A melhor tradução
(1:01:11) para o inglês, porque, poxa, traduzir Machado de Assis não é uma coisa fácil. Traduzir literatura assim é, sem dúvida, delicado. Não é bem assim, tem contextos, expressões, formas de dizer certas coisas que só funcionam na língua materna do autor. Então, não é bem assim. Você precisa conhecer. E por isso que ela… E você vê, engraçado, porque ela não é uma falante nativa de português. E aí você vê a guria falando, uma mulher jovem, e o português da mulher é perfeito,
(1:01:52) cara. Você não diria que ela aprendeu a falar na faculdade, já adulta. Estou procurando o nome dela aqui. E nós estamos falando da Flora Thomson-DeVo. Tem o link para o livro que tu comentaste da tradução? É a tradução do “Memórias”… Eu acho que é “Posthumous Memories of Brás Cubas” em inglês. Pronto, deve encontrar aqui. Estou procurando aqui ao vivo para quem está olhando. Achei. É da Penguin Books, encontrei. Não sei
(1:02:41) qual é agora. Não é o Dave Eggers. É “The Posthumous Memoirs of Brás Cubas”. É essa inglesa aqui. Não achei o dela. Procurem pelo dela. É, eu acho que é esse aqui, Vinícius. “The Posthumous Memoirs”. “Memoirs” ou “memoirs”, não sei como se fala essa palavra em inglês. Está aqui, é esse o primeiro link mesmo. É o primeiro mesmo. Flora Thomson, está aqui. É esse aqui. Claro, para você que é um falante em português, não sei se teria sentido você ler esta obra em inglês, porque a recomendação que a gente sempre faz enquanto professor é
(1:03:21) sempre ler a obra original, se possível, que a tradução é uma outra obra. A tradução não é aquela obra. Claro que para obras técnicas isso não sei se faz tanta importância quanto faz para literatura, para a arte. Exato. Enfim, esse é um outro problema. Eu quero ir para a minha última bem rapidinho aqui, Vinícius. Para a tua última. Deixa eu pegar a tua última aqui. AI for Good. Estou aqui. A ONU fez um painel chamado “AI for Good”. O grande objetivo desse painel, dessa cúpula,
(1:03:58) desse “summit”, não sei como é a tradução para “summit”, desse evento, sei lá. Aqui traduziram para “cúpula”. Qual seria o papel da IA ou como ela poderia ser usada para alcançar os Objetivos de Desenvolvimento Sustentável da ONU, que envolvem, entre outras coisas, como erradicar a pobreza e a fome, como alcançar a igualdade de gênero, como promover energia limpa e ações climáticas, entre outras coisas. É um pouco o que eu sempre comento aqui. Até esses dias eu mandei um abraço e um beijo para o nosso amigo Paulo Rená. Ele disse: “Ah, ouvi vocês, obrigado”. Então, que eu vou te citar de novo, Rená:
(1:04:39) aquela grande questão, que eu acho que é uma das grandes questões, talvez. Não sei se existe “a” grande questão da IA, mas para que que eu vou usá-la? Ela vai ser usada para resolver quais problemas? É para gerar foto, para gerar meme, para gerar fake news, para colar em trabalho, ou para resolver os objetivos de desenvolvimento sustentável da humanidade? Ou para fazer que nem o… Se não estou enganado, o cara do Google que saiu fora, lembra? Ele está metido numa empresa usando IA para desenvolvimento
(1:05:16) de drones de guerra. Claro, sim. Inclusive, ela fala aqui sobre isso, essa repórter que é a Melissa Heikkilä. Ela deu as suas impressões do evento, ela foi no evento. É Heikkilä, perdão, eu que anotei errado aqui, dois Ls na verdade. É com K. O K fica do lado do L, eu digitei errado. Heikkilä. Ela deu as suas impressões para o MIT Technology Review. O que ela disse? Ela disse que saiu de lá não muito confiante de que, segundo os palestrantes e os
(1:05:56) componentes do evento, ela teria um papel significativo no avanço desses objetivos. E ela disse, bem pelo contrário, na verdade, a maioria das falas mostra exatamente o oposto disso. E um dos pontos que é a questão ambiental e de sustentabilidade, segundo ela, não foi levado muito em consideração. Inclusive, antes de ler isso, eu dei uma palestra gravada que vai ser mostrada na próxima Jornada Internacional de Direito, um evento superimportante, e eu falei sobre desafios da regulação da IA, e lá no finalzinho falei um pouco sobre essa
(1:06:32) questão do desenvolvimento sustentável mesmo. E ela destacou ali que, para gerar uma imagem numa IA generativa qualquer, seria gasto a mesma quantidade de energia para, em média, claro, os celulares são muito diferentes, carregar um celular. Cara, é muita energia que você usa para carregar o celular para gerar uma imagem que, de repente, você vai jogar fora, que você vai gerar 10, 20, sem dar muita bola para aquilo. Então, este é um problema: a quantidade de energia que está sendo usada para isso, fora a quantidade de
(1:07:12) energia já usada para os data centers. Ao mesmo tempo, foi tema da fala do CEO da Nvidia, sempre esqueço o nome dele, lá na Computex 2024, em que ele faz justamente uma comparação da economia de energia pela capacidade computacional das GPUs e tudo mais, comparado com o que a gente tem hoje de uso de CPU. Então, não é claro, está se gastando energia, mas se gasta cada vez menos, porque há 8 anos, o ChatGPT não seria possível por causa da quantidade de energia necessária. Hoje, as coisas já são
(1:07:57) melhores e a tendência é ficar cada vez mais otimizado. Só uma analogia, mas ainda da mesma área: o ENIAC, que era um computador que ocupava uma sala enorme, um dos precursores dos computadores, consumia uma quantidade absurda de energia porque era todo valvulado. E hoje a gente tem máquinas milhares de vezes mais potentes do que o ENIAC, senão milhões de vezes mais potentes, e que consomem muito, mas muito menos energia do que ele consumia. Então, as coisas vão avançando. E mesmo placas de
(1:08:37) vídeo… há algum tempo, dependendo da placa de vídeo que tu fosses colocar na máquina, eu precisava de uma fonte gigantesca. Hoje já tem placas de vídeo muito melhores do que alguns anos atrás, que consomem menos energia do que as anteriores. Então, tu vais tendo essas otimizações. Isso vai acabar, eventualmente, chegando num ponto em que se torna aceitável. Entende? Que a gente consegue utilizar de uma maneira mais satisfatória, digamos assim, sem tanto consumo de energia. Eu discordo respeitosamente de ti. Eu acho que
(1:09:08) o senhor não tem estofo para trazer esse… Eu acho que a questão energética… O que você fala, um pouco, vai nesse sentido também. Ela está muito mais focada na diminuição de custo daquilo do que numa preocupação genuína de que é um problema energético mais pessoas ficarem usando isso o tempo todo. Você faz a comparação com o ENIAC, mas não tinha o ENIAC em cada casa. A mesma comparação que a gente pode fazer com as placas de vídeo: não tem placa de vídeo top na…
(1:09:41) Mal tem computador, a gente estava falando antes. Sim. Mal tem computador. Eu acho que a preocupação aqui… Tu tens um bom argumento. Eu preciso pegar mais informações sobre isso para a gente discutir sobre consumo de energia para computação. Isso dá um tema para o podcast. Consumo de… Não, mas eu acho que dá, cara. Tanto que a ONU está preocupada com isso. Porque qual é o problema se todo mundo for usar? Esse é o ponto. É claro que a tendência e o objetivo é que se diminua
(1:10:08) o uso para ficar mais barato, óbvio. Mas a questão é: quais os problemas que eu vou resolver com isso? Porque se for para gerar imagem, talvez não seja a melhor forma de eu gastar essa energia. E numa perspectiva de problemas ambientais, como a gente está vendo, voltando aqui para Porto Alegre, poxa, tu ficas pensando sobre a água. Tu ficas 20 dias… A gente ficou 20 dias sem água, cara. Você começa a refletir na marra, entendeu? Ao uso de recursos hídricos. É forçado a pensar sobre o uso de recursos
(1:10:39) hídricos, cara, forçado. Mas, enfim, o foco nem é a questão ambiental, que eu também não sou especialista nesse ponto. Ela disse também que levaram o Sam Altman lá, óbvio, da OpenAI, e perguntaram para ele qual era a maior contribuição que a IA poderia dar, e ele falou sobre produtividade. Claro, produtividade é importante, sem dúvida. Mas se você colocar o valor “produtividade” acima das outras coisas, nossa… Acima, por exemplo… Muita coisa pode dar errado. Por exemplo, se o Uber… você tem um foco lá na
(1:11:24) produtividade, só que o cara tem que trabalhar 14 horas por dia. Ou ainda, se eu for falar em produtividade, eu substituo todos os carros. Ou seja, a depender da produtividade, eu posso estar prejudicando a vida das pessoas, posso estar eliminando empregos. Ou seja, tem um balanceamento que não foi sendo considerado. E essa fala dele vem meio no sentido de que eles foram muito rasos sobre os problemas de “safety” nas suas tecnologias. Os problemas de… não é segurança, não sei como traduzir “safety” aqui, Vinícius, mas tem “safety” and “security”, são
(11:57) coisas diferentes. O “safety” é segurança de funcionamento. É tu garantires que aquilo vai funcionar conforme o esperado. Se falhar, vai falhar de forma segura. Então, por exemplo, vamos supor que vá falhar o acelerador de um carro. O pedal do acelerador, se falhar, ele tem que falhar de um jeito que é seguro. Ou seja, ele não pode falhar de um jeito que ele trava a aceleração no máximo e tu não consegues fazer nada e vais te arrebentar em algum lugar. Se ele falhar, tem que ser de forma segura. O que é falhar de forma segura? Ele falha, não acelera mais, o carro vai acabar
(1:12:33) parando. Isso é seguro. O “security” seria um alarme no carro. O “safety” talvez aqui na IA seja falando mais sobre essa questão de como ela deveria funcionar e como ela não deveria funcionar, ou seja, sendo violadora de direitos e tudo mais. Inclusive, teve uma pesquisadora, a Helen Toner, ex-board da OpenAI, que eles falaram que o Altman sempre dava respostas imprecisas acerca das questões de “safety” para a empresa. Então, meio que foi lá, falou qualquer coisa, “vamos aumentar a produtividade”, mas o foco do evento, que era alcançar os objetivos de
(1:13:09) desenvolvimento sustentável, não foram levados em consideração. Então, basicamente, terminaria com isso, Vinícius. Está bom. E eu acho que é isso. Tem mais uma? Não, eu tenho mais uma bem interessante aqui envolvendo… A gente não combinou a ordem das nossas notícias, e eu não estou tirando as minhas de ordem, e elas estão conversando entre elas. Talvez a gente tenha que combinar um pouco antes para elas fazerem mais sentido. Porque a minha próxima, olha só: “Governo contrata criador do ChatGPT, a OpenAI, para diminuir o impacto fiscal
(1:13:45) de perdas judiciais”. Olha só. O Ministério do Planejamento liberou R$25 milhões em créditos suplementares para a AGU, a Advocacia-Geral da União, destinados, entre outros pontos, não é tudo isso para esse projeto, à execução de projetos estratégicos de tecnologia da informação. Com a iniciativa, o governo busca domar a pesada conta de precatórios que tem abocanhado parcela expressiva do orçamento público. Isso está na Reuters. Não, aqui, na verdade, é da InfoMoney, citando a Reuters. A matéria da Reuters. Então, eles estão utilizando ou
(1:14:21) chamaram a OpenAI, e isso me incomodou um pouquinho. Porque podia ser feito também… A gente podia… O Canadá… Eu ouvi no “The Hard Fork”, que é um podcast do New York Times sobre tecnologia. É novo? Não, cara, já faz um tempo. Eu não conhecia, mas já faz um tempo, tem vários episódios. E o último episódio que eu escutei, eles entrevistaram o Justin Trudeau. Sim, o primeiro-ministro do Canadá. E o Justin Trudeau falando que eles estão investindo US$2 bilhões para tentar segurar os talentos lá no Canadá. Boa parte… Eles comentam que boa parte
(1:15:04) das ideias relacionadas à IA vieram, surgiram de pesquisas feitas no Canadá. Mas, no entanto, as empresas não floresceram lá. Tem uma boa tradição de proteção de dados também. Sim, tem aquela briga toda com Facebook, Google, para pagar pelas notícias dos jornais e blá blá. Mas o Justin Trudeau falou que eles estão investindo 2 bilhões de dólares canadenses para fomentar a pesquisa e o estabelecimento de empresas lá, e para o pessoal ficar lá. E eles estão apostando que as pessoas que vão
(1:15:36) para lá, os engenheiros e tudo mais, não vão só pelo dinheiro, que eles não têm como parear com os Estados Unidos, por exemplo, mas vão pela qualidade de vida. Ele citou outras coisas lá. Mas o que me chamou a atenção foi o seguinte: lembra que a gente deu notícia aqui que lá nos Estados Unidos tem uma proposta bipartidária para investir 32 bilhões de dólares por ano em IA? Especificamente em IA. E eles também… isso eu cito agora, e o pessoal do “The
(1:16:12) Hard Fork” citou que só a Arábia Saudita botou não sei quantas vezes o valor que o Canadá estava colocando nessas pesquisas. Mas olha que interessante: mesmo sabendo, o Justin colocando assim, que eles não têm como parear o investimento, eles entendem que eles podem tentar oferecer outras coisas, outros tipos de vantagem para desenvolver a tecnologia lá dentro. Então, mesmo que eles não tenham um orçamento absurdo para fazer as coisas que nem os outros lugares têm, os outros países têm, ainda assim eles estão fazendo. E qual é o
(1:16:50) investimento anunciado? Está bom que nós estamos numa situação para lá de complicada, mas qual é o investimento do governo brasileiro em fomentar esse tipo de pesquisa, desenvolvimento? Especificamente… Está todo mundo correndo enlouquecido. E aí a gente vai lá e traz a OpenAI para resolver o problema. Sabe que eu falei sobre isso também nesse evento aí da Jornada Internacional, que um dos desafios na regulação é tu teres políticas públicas que consigam permitir que o dinheiro não
(1:17:26) saia daqui, num primeiro momento. Então, essa é uma preocupação. Será que é só a OpenAI que conseguiria fazer isso? Ou seja, eu estou contratando uma empresa estrangeira. Bom, mas mais importante do que isso, pelo menos nesse momento, porque desenvolver inteligências artificiais, inclusive culturalmente locais… Vou falar de educação, ela tem que ser treinada, se for o caso, com valores locais, com valores regionais, muitas vezes. O Brasil é muito grande, Rio Grande do Sul é diferente da Bahia,
(1:17:58) e por aí vai. Ou seja, os dados com que eu treino ela vão fazer diferença. Mas a grande questão aqui é: quando eu vou usar Inteligência Artificial no setor público, de maneira geral, Executivo, Legislativo e Judiciário — Judiciário talvez seja pior, mas aqui estou falando na AGU, que não é bem Judiciário, mas está ligado ali ao Poder Judiciário —, eu preciso ter controles muito mais transparentes para saber como essas decisões vão ser tomadas. E um dos grandes desafios que eu vejo na IA hoje são as black boxes.
(1:18:33) Simplesmente, aquelas informações saem de lá de dentro como se fosse uma salsicha. Dá para dizer que a IA é uma grande máquina de salsicha, que tu não sabes como foi feita. E se o Suplicy não come. Mas assim, a salsicha vai te ajudar às vezes, um cachorro-quente é um negócio gostoso. Cachorro-quente de festa infantil é um negócio bom. Então, tem o seu valor, óbvio. Mas você não pode só se alimentar de cachorro-quente, você vai ter problemas na sua saúde. E a gente tem que saber como aquilo é produzido. E será que, principalmente a questão dos
(1:19:09) vieses… Quem que eu vou cobrar aqui? Eu vou ter algum grupo favorecido pela IA porque ela simplesmente diz que eu vou ter que resolver aquele problema daquele jeito? Eu nem vi como isso vai ser usado, estou sabendo tanto quanto tu. Mas, independentemente de como vai ser usado, a transparência, de maneira geral no setor público, ela tem que ser revalorizada. E, muitas vezes, você não tem, ou ainda não tem, a transparência adequada, que vem lá na ideia do princípio da explicabilidade aplicável à
(1:19:38) IA, que você não consegue explicar como as decisões são tomadas. Então, a falta de transparência nesse uso aqui, para mim, me preocupa. Senão é o oráculo. Entende? Oráculo de Delfos, lá. Faz uma pergunta, ele te dá uma resposta e “dá-lhe que o deus que te deu aquela resposta”. E acabou. Lá, e acertava. Perfeito, meu amigo. Essa era a minha última notícia. Café expresso e café frio. Vamos. O meu café expresso hoje está muito fácil. Eu não pensei aqui. Vai no teu.
(1:20:17) Tu podes vir comigo, não tem problema, eu deixo tu compartilhares comigo no meu café expresso. O meu café expresso vai para as mães das crianças que se juntaram para fazer valer o esquema do celular só aos 14 e redes sociais até os 16. Apoiado. Só aos 16. Então, um monte de café expresso para vocês que estão fazendo esse movimento, e tomara que isso inspire várias outras mães Brasil afora para que a gente tenha um pouco mais de cuidado com as nossas crianças no uso da tecnologia. Esse café eu
(1:20:58) estou dando com muita vontade. Muito café. Aí você faz o seguinte: você chega para a mãe dos teus filhos e dá um café expresso para ela. Não, mas eu vou dizer para ela… Eu já mandei a matéria para ela quando a gente estava ajeitando a pauta. Eu já mandei para ela. Ela disse que não podia ler naquele momento, mas eu espero que ela leia. Vamos ver se eu dou café expresso para ela ou não depois. Vamos ver. Não dá? Claro que dá. Dá dois. Dá um primeiro. Causar o rebuliço no grupo de mães lá do WhatsApp, que toda escola tem um grupo de mães. Mas é onde…
(1:21:31) Está lá, o grupo de mães é o que o pessoal acaba utilizando, cara, não tem jeito. Acaba sempre tendo o WhatsApp do grupo de mães. Eu imagino que deve ser… Deus me livre. Eu não quero nem saber. Eu não gosto nem de olhar. Eu não estou no grupo e não gosto nem de olhar. O grupo é complexo para caramba. Mas tem grupo de pais ou só de mães? Só de mães. Pais não se metem. Pai não se mete. Está bom. E café frio? O meu café frio agora tu me pegou,
(1:22:04) que eu pensei no café… Aí eu sei para quem vai café. Não, mas aqui não… acho que eles não merecem, cara. Café frio por isso aqui. Eu ia dar café frio para o pessoal do jornal lá, mas não. Não merece, é uma coisa querida. Acho uma coisa… Não, não merece. Sim. Eu vou dar o café frio para a Microsoft, para o Microsoft Recall e todo esse vai e volta, essa tentativa de, de novo, assumir o que eles faziam lá na década de início de
(1:22:37) 2000 com os seus produtos, que depois melhorou bastante. Mas, “vamos dominar o mercado aqui, depois a gente pensa em segurança”. Seja uma solução entregue com uma avaliação de risco muito pobre, no final das contas. E aí vem toda a comunidade de segurança, que para qualquer cara da comunidade de segurança que você falar isso, eles diriam para fazer diferente do que a Microsoft fez. Então, o café frio vai para eles. O meu café frio, então, já que eu não vou dar para o jornal, não vai ser para a Microsoft.
(1:23:14) Tu não vais dar? Achei que era… Mas pode dar em conjunto. Não, não. Pode ser outro. Dar café frio, mas não muito frio, para não provocar o pessoal da AGU. Gente, eu tenho conhecidos que trabalham na AGU, não quero confusão com a família. Mas o seguinte: podiam pegar uma grana dessas aí, chamar umas universidades top que a gente tem, e mesmo outras que não são tão top, e investir um pouquinho na pesquisa para a gente desenvolver esses modelos. Não precisa ser um grande modelo gigante que
(1:23:51) nem o GPT-4, mas se a gente pegar modelos open source, quem sabe dar um recurso aí para o pessoal comprar uma Nvidia H100 lá para treinar um modelinho menor, que custa na faixa de uns R$500.000,
(1:24:12) um pouquinho mais, um pouquinho menos, e que a gente desenvolva, que a gente possa usar esses recursos para desenvolver conhecimento aqui dentro, para a gente desenvolver outras soluções que vocês vão precisar, governo brasileiro, AGU e tudo mais. Vocês vão precisar em outros lugares disso e não dá para ficar comprando tudo da OpenAI. Então, vamos investir um pouquinho. Vai entregar esses dados será para eles? Eles vão ter que rodar esses modelos em algum lugar, cara. Aí começa toda a brincadeira. Vai rodar onde? Soberania nacional? Nós vamos montar… A OpenAI vai
(1:24:43) montar um data center no Brasil? E aí vêm aquelas outras questões de… é muito caro, cara. É tudo muito caro para nós. Se tu quiseres brincar com Inteligência Artificial rodando na tua própria máquina, alguns modelos, o Llama 3, por exemplo, tu vais gastar no mínimo uns R$6.000 numa placa de vídeo, e tu podes chegar a gastar uns R$20.000
(1:25:10) numa placa de vídeo para jogo. Não é uma placa de vídeo para treinar modelo, não é uma coisa top. Para jogo é maravilhoso, mas para treinar o modelo não é tão top. E, cara, tem que gastar um horror de dinheiro. Vai ver o preço de uma placa dessas nos Estados Unidos. Não tem cabimento. A gente paga muito imposto para a tecnologia e isso atravanca tudo. Mas, enfim. Está bom. É isso aí, então. Era isso. Esperamos que vocês tenham gostado do episódio de hoje. Nos encontraremos no próximo episódio do podcast Segurança
(1:25:42) Legal. Até a próxima. Até a próxima. Próximo episódio que virá com convidados. Ah, é verdade. O próximo tem convidado. Terça que vem, dia 21, nós vamos gravar com convidado. Mas deixa eu contar da verdade e da mentira, ligeirinho. Eu vou dar uma versão super resumida. Isso aqui é do século 19, essa negócio, é uma parábola. Vinham a Verdade e a Mentira caminhando juntas e a Mentira diz assim para a Verdade: “Nossa, está um dia tão agradável, tão quentinho, vamos nos jogar nesse poço, tomar banho, nos banhar nesse poço de água fresca”. Ambas tiram as roupas, entram no poço
(1:26:22) e se refrescam. Enquanto a Verdade está distraída, a Mentira sai de dentro do poço, se veste com as roupas da Verdade e foge. A Verdade, quando se deu conta do que aconteceu: “Meu Deus, ela levou minhas roupas”. E como ela se negou… ela preferiu andar nua. Saiu pelas ruas nua, porque ela preferiu andar nua a vestir as roupas da Mentira. E aí o que aconteceu? A Mentira, vestida com as roupas da Verdade, não causava escândalo. Então, todo mundo estava bem tranquilo convivendo de boa com ela.
(1:27:03) Nem percebe. Ela está vestida e tal. Agora, a Verdade nua era um negócio escandaloso. Então, a Verdade nua causava escândalo, as pessoas não aceitavam a Verdade ali, nua, sem roupa nenhuma, enquanto aceitavam de bom grado a companhia da Mentira, vestida ou travestida de Verdade. É isso aí. É uma breve historinha. Sabe que tem variações dela, mas esse é o resuminho. Eu estou lendo por conta desses estudos de IA que estou fazendo. A gente está preparando uma
(1:27:46) coisa, eu e o Colombo, e estou lendo um pouco sobre o estudo da verdade pela filosofia, que é a epistemologia. Aí é um outro esquema. E aí eles começam falando sobre as nossas crenças e a ligação como, às vezes, a questão da ideologia, quando ela vai te levar a ignorar evidências que demonstrem que certas coisas não são daquele jeito como tu acreditas, por conta de uma crença tão absurda que se transforma numa ideologia que… não que toda a ideologia…
(1:28:25) Sempre vão existir ideologias, as pessoas sempre vão ter suas crenças também. Mas o grande problema hoje é que você… Me lembrei disso agora, porque, às vezes, essa historinha da Verdade nua, ela vai te chocar realmente. E, às vezes, você, mesmo vendo a Verdade nua, você não vai mudar de ideia. Você vai continuar teimando. É um negócio muito louco isso, cara. Exatamente. Tu continuas teimando. É a luta pela verdade. Mas eu andei catando esses tempos atrás, por isso que eu acabei esbarrando com essa história.
(1:29:04) Eu estava catando sobre a questão da verdade e tal, e tem… nossa, dentro da filosofia tem várias discussões. Primeiro, se é possível a verdade, se a verdade é algo factível. Tem filósofos que dizem que a gente jamais vai conhecer a verdade, porque tudo o que a gente recebe é por nossos sentidos, e os nossos sentidos são falhos. Então, claro, se pegar por exemplo, qual é a cor de uma flor? Cara, depende do teu aparato ocular. Um passarinho vê outras cores. Dependendo do passarinho, dependendo do bicho, ele vai ver uma outra gama de cores que a gente não enxerga.
(1:29:49) Esse lance de tu perceberes, a percepção da realidade, daquilo que é concreto mesmo, isso está sujeito a certas nuances, a certas interferências ou imprecisões que… se tu levares ao limite, se aquilo que tu estás vendo é real… É real no sentido da maneira como tu estás vendo, mas um outro bicho, uma outra coisa, vê aquilo de jeito completamente diferente. São os
(1:30:30) relativistas, que tu terias sempre problemas para chegar à verdade. E aí tu tens, dentro da filosofia, várias correntes. Não vou me lembrar de todas elas, lembro agora dos relativistas, que é essa coisa: “Ah, mas eu nunca vou conseguir chegar à verdade”. Mas isso não afasta o fato de que tu precisas ter, em geral… E aí os epistemólogos mais modernos acabam concordando que tu vais ter critérios para definir o que é a verdade e critérios para chegar à verdade. São coisas diferentes, e que não pode confundir os critérios que
(1:31:08) tu usas para chegar à verdade, os métodos que tu vais utilizar, que podem ser métodos muito simples como olhar para a rua e ver se está chovendo mesmo, dos métodos para tu dizeres o que que é a verdade. E aí que entra a questão das relações nas crenças. E como certas coisas, tu vais ter que acreditar, tu vais ter que ter crenças. Esse é o ponto. Não vou saber explicar tudo isso, estou falando uma bobagem aqui sobre filosofia, mas estou gostando de ler sobre isso porque é bem interessante. Tem muito a ver com, talvez, uma crise epistemológica que a gente viva hoje, porque a gente não consegue chegar à verdade.
(1:31:44) Os critérios de se chegar à verdade estão não somente sendo desconsiderados pelas redes sociais, mas está piorando. As pessoas estão desaprendendo isso. E as crenças estão fazendo mais… No meu tempo… Tirando, te tirando. É, velho mesmo. Mas, te tirando, eu preciso ir, já estou atrasado. Então, um abração para aqueles que nos aguentaram até agora. Até o próximo episódio. Valeu. Um abraço, beijo, pessoal. Valeu.

108 Listeners

111 Listeners

179 Listeners

174 Listeners

91 Listeners

43 Listeners

1,010 Listeners

121 Listeners

78 Listeners

46 Listeners

30 Listeners

20 Listeners

19 Listeners

4 Listeners

1 Listeners