Segurança Legal

Episódio #363 – Café Segurança Legal


Listen Later

 

Neste episódio falamos sobre um perigoso backdoor descoberto no Linux e os dilemas do uso de inteligência artificial na educação. Você irá entender os riscos da biblioteca xz utils e as implicações éticas de usar o ChatGPT em escolas.​

Guilherme Goulart e Vinicius Serafim aprofundam o debate sobre a inteligência artificial, analisando o lançamento do Llama 3 da Meta e os impactos do ChatGPT na educação. A discussão aborda os dilemas éticos, vieses algorítmicos e os riscos digitais para crianças, tocando em temas como privacidade de dados e a importância da curadoria de conteúdo. Além disso, o episódio detalha a descoberta de um grave backdoor no Linux, explorando a vulnerabilidade na biblioteca open source xz utils e as implicações para a segurança da informação e cibersegurança global. Para mais discussões como esta, siga, assine e avalie nosso podcast na sua plataforma de áudio preferida

Preencha a pesquisa “A voz do ouvinte do Segurança Legal”

Ajude o Segurança Legal a continuar existindo. Visite nossa campanha de financiamento coletivo e nos apoie!

Conheça o Blog da BrownPipe Consultoria


ShowNotes

  • Ronaldo Lemos – É preciso acabar com a infância na frente do celular
  • The Anxious Generation: How the Great Rewiring of Childhood Is Causing an Epidemic of Mental Illness
  • Gestão Tarcísio vai usar ChatGPT para produzir aulas digitais no lugar de professores
  • Artigo de Guilherme Goulart – Resolução do Conanda sobre a proteção de crianças e adolescentes no ambiente digital
  • Participação de Guilherme Goulart no Workshop Inteligência Artificial na Educação: desafios éticos, jurídicos e pedagógicos da ABRADE (Associação Brasileira de Direito Educacional)
  • Livro – Piano Mecânico de Kurt Vonnegut
  • Meta Llama 3
  • Atores estão ganhando milhares de dólares através de anúncios falsos em podcasts 
  • XZ Utils Backdoor Implanted in Carefully Executed, Multiyear Supply Chain Attack
  • CVE-2024-3094 XZ Backdoor: All you need to know
  • Imagem gerada com o GPT-4

     Transcrição do Episódio

    (00:02) Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 363, gravado em 19 de abril de 2024. Eu sou o Guilherme Goulart e, junto com Vinícius Serafim, vamos trazer para vocês algumas notícias das últimas semanas. E aí, Vinícius, tudo bem? E aí, Guilherme, tudo bem? Olá aos nossos ouvintes. Estamos de volta, finalmente. Tivemos um pequeno hiato de uma a duas semanas, de novo. Faz parte. O Vinícius teve um compromisso na semana passada e eu ia gravar sozinho algumas notícias. Nós sentamos, montamos a pauta, naturalmente, sobre o Elon Musk e, com aquela confusão, eu desisti de gravar.

    (00:45) Porque a coisa estava ainda fervilhando. Nós iríamos trazer a pauta sobre o Musk hoje, mas começamos a discutir e decidimos: “não, vamos fazer um episódio próprio, fica mais tranquilo”. Assim, falamos só sobre isso, e se você não quiser ouvir, vida que segue. É uma questão difícil de tratar, mas também não temos como ignorar, porque entra bem naquilo que estávamos conversando. Antigamente, existia aquela disciplina “Informática e Sociedade” ou “Novas Tecnologias e Sociedade”.

    (01:21) Nos impactos das novas tecnologias na sociedade… já está trazendo o assunto. Mas estou justificando por que vamos falar sobre isso, claro, sem entrar no mérito dos posicionamentos políticos dele. A rede social hoje está no centro de qualquer organização política do mundo inteiro, então justifica falarmos sobre isso. Enfim, este é o nosso momento de conversarmos sobre algumas notícias e acontecimentos que nos chamaram a atenção, tomando um café.

    (01:57) Então, pegue o seu café e venha conosco. Para entrar em contato e enviar suas críticas e sugestões, é muito fácil: basta enviar uma mensagem para [email protected]. No Twitter, somos o @segurancalegal; no Mastodon, @[email protected]. Acho que vamos criar um perfilzinho também lá no Blue Sky, Vinícius. Vários brasileiros estão migrando para lá. Entrar em tudo quanto é rede está valendo. Estamos até no Mastodon, que resiste. Já pensou em apoiar o projeto Segurança Legal? Acesse o apoia.se/segurancalegal.

    (02:34) Ignore o PicPay, é o apoia.se/segurancalegal. Escolha uma das modalidades de apoio e, entre os benefícios, você terá acesso ao nosso grupo exclusivo no Telegram. Considere apoiar um projeto independente de produção de conteúdo. Temos também a nossa pesquisa, A Voz do Ouvinte, que ficará no show notes. Tem também o blog da Brown Pipe. Sempre sugerimos que você dê uma olhadinha lá e, se quiser, se inscreva no mailing semanal. Assim, você consegue receber algumas das notícias que tratamos aqui. Inclusive, uma delas é um artigo pequeno que eu escrevi sobre a resolução do Conanda sobre a proteção de crianças no ambiente digital, que foi publicado no blog da Brown Pipe.

    (03:12) Ficam essas indicações, todas elas no show notes. Quer começar, Vinícius, ou começo eu?

    (03:32) Tanto faz. Começo com uma minha aqui. Trago uma notícia fresquinha, esta aqui eu estava acordado ainda quando saiu, que é o release do Llama 3, que é o LLM da Meta. A Meta, que é dona do Facebook, Instagram e WhatsApp, liberou essa madrugada para nós. O pessoal estava na expectativa da liberação desse modelo.

    (04:01) Ele já está disponível para quem quiser baixar e começar a fazer experiências. Ele é open source, então não é como o GPT, por exemplo, que não é open source e você não pode baixar para a sua máquina. Estava sendo bastante aguardado, tinha várias notícias anteriores ao lançamento falando da expectativa. Então, o Llama 3 finalmente saiu em nosso fuso horário. Eu não fui atrás da pronúncia, devia ter ido. Acho que é Lhama. O nome em português é Lhama, sim. Inclusive o símbolo é uma lhama.

    (04:50) A lhama ou lama, do quíchua “llama”, é um mamífero ruminante da América do Sul, do gênero Lama. E é um bicho que cospe em você, é verdade. O fato é o seguinte: eles liberaram o modelo em duas versões. Uma versão menor, de 8 bilhões de parâmetros, que dá para usar em GPUs de consumidor final, como umas 4070, 3080, 3090. E tem o modelo de 70 bilhões de parâmetros. Tentei rodar aqui, sem chance.

    (05:50) Precisa de um ambiente um pouquinho mais intenso para rodar, precisa de bastante memória de vídeo e memória RAM também. Mas está lá para baixar quem quiser experimentar. Existe um software chamado GPT for All, vou colocar o site aqui. Não tinha previsto, mas vou colocar.

    (06:26) Estou vendo aqui que os modelos Llama estarão disponíveis em breve na AWS, DataBricks, Google… ou seja, você vai conseguir rodar de uma nuvem. Sim, inclusive este aqui é o GPT for All, para quem quiser rodar na própria máquina. Tem outros modelos ali também disponíveis, já treinados.

    (06:48) Vocês podem baixar, inclusive este último da Meta, o Llama 3. Claro que vai depender da máquina, pode não rodar, mas você baixa e testa. É interessante a experiência, embora o resultado não seja bom. Não é a mesma coisa que conversar com um chatbot que usa um LLM já todo ajustado. Mas para você fazer experiências, um trabalho na universidade, na faculdade… Você me mandou um da Nvidia esses dias, não mandou?

    (07:27) Sim, o Chat with RTX. Não estava na pauta, mas você me pegou no contrapé. Testei, e a experiência foi ruim. A ideia é você treinar ele com vários arquivos, artigos, livros. O GPT for All, por exemplo, na própria interface dele, permite que você escolha um modelo e dê uma pasta de documentos para ele fazer um aprendizado. Você o usa para uma coisa bem específica. Para pesquisa genérica, como usamos um ChatGPT ou Perplexity, não chega perto.

    (08:11) Na geração de texto, ele viaja muito fácil. Testei o modelo da Meta, o Llama 3, com o GPT for All. Baixei o Llama 3 com 8B, e ele viaja para caramba, mesmo em uma simples geração de texto. Agora, o importante é dizer o seguinte: esse modelo Llama 3 é o que a Meta vai usar, ou já está usando, em suas ferramentas como Instagram, Facebook, etc.

    (08:57) É este modelo que eles vão usar. Não quer dizer que ele vai ser estúpido como o que está rodando na minha máquina, que só baixei e botei para rodar. Mas é para saber que este modelo é bastante poderoso e é open source, o que é muito interessante.

    (09:17) Lembrando também, Vinícius, que nem todas as pessoas que acompanham o Segurança Legal são iniciadas na Ciência da Computação, em Inteligência Artificial. Temos um ouvinte, meu grande amigo Fernando, que sempre nos escuta. Para o nosso amigo Fernando e para as outras pessoas não tão habituadas com essa questão de modelos de Inteligência Artificial, por que eu vou querer rodar isso na minha máquina? Por que simplesmente não uso online?

    (10:06) Você não vai querer rodar isso na sua máquina. A importância da possibilidade de rodar na máquina local é para poder estudar o assunto, testar, experimentar, talvez trabalhar no desenvolvimento de alguma nova ideia. Mas mesmo para quem vai desenvolver um uso aplicado desses modelos, eu diria para nem se dar ao trabalho de usar localmente. Use as APIs que já existem para acessar os modelos, é mais fácil. Para o curioso, ou se uma empresa tem preocupação em usar esses modelos na internet, é preciso cuidar das políticas de uso, porque muitos usam seus dados para treinar os modelos.

    (10:52) Existem ataques conhecidos contra modelos para revelar fontes de dados. De repente, você está lá colocando suas coisas, e seus dados estão sendo utilizados para treinar o modelo e estão ficando em algum lugar que você não tem noção. Em situações bem específicas, para rodar local, acho que seria o caso. Poderíamos entrar na questão de Estados, mas aí é outra discussão.

    (11:37) Eu estava vendo uma notícia hoje, da empresa francesa Mistral, baseada em Paris. Eles também têm seus modelos de LLM e estão buscando levantar 5 bilhões de dólares para investimento. Não podemos ignorar esses valores absurdos que temos visto sendo investidos em Inteligência Artificial.

    (12:36) A Microsoft colocou 13 bilhões na OpenAI. Há um caso antitruste na União Europeia que pode ser aberto com relação a essa parceria. A notícia que eu tenho aqui provavelmente não vai dar em nada, porque a Microsoft não interfere nas decisões da OpenAI, então isso não configuraria a questão antitruste. Mas não se esqueça que ela já está colocando a tecnologia no Windows.

    (13:40) Sim, mas ela está aplicando a tecnologia, não necessariamente direcionando a OpenAI. Mas quero chamar a atenção para o valor: a Microsoft investiu 13 bilhões de dólares na OpenAI. Outro dia, a Nvidia lançou um chip novo para treinar modelos de IA. Cada unidade do chip custa de 30 a 40 mil dólares.

    (14:38) A Nvidia tem equipamentos para fazer esses treinamentos, que são muito caros. Além do preço dos equipamentos, você tem que desenvolver a tecnologia, os algoritmos, e precisa do conteúdo para treinar esses modelos, que talvez seja o mais caro de tudo.

    (15:03) É onde eu queria chegar, e acho que dá para fazer o link com a minha notícia, que é a questão do uso de Inteligência Artificial no ambiente infantil e nos treinamentos, esbarrando na própria dificuldade e nos problemas que a tecnologia tem causado no mundo das crianças.

    (15:28) Só para fechar, queria chamar a atenção para esses valores para pensarmos o quanto estamos investindo no Brasil para desenvolver nossos próprios modelos de IA, que sejam independentes. A IA vai ser o motor de tudo e muito em breve, vai estar em tudo, e teremos questões de segurança nacional e um monte de problemas relacionados a isso. Mas vamos deixar essa discussão para o nosso episódio sobre o tema.

    (16:16) A própria questão dos possíveis usos de IA na educação, que é a segunda notícia que vou encaixar aqui. O problema de como esses modelos são treinados e a própria questão cultural, que é o grande problema de utilizar isso para a educação. Estamos indo com muita sede ao pote em utilizar ferramentas de IA em vários contextos diferentes sem ponderar os riscos.

    (17:03) A regulamentação em nível de União Europeia vai no sentido de estabelecer potenciais usos de IA e relacioná-los com um certo nível de risco. No âmbito da educação, eles já começaram essa abordagem. A proposta do AI Act define quatro níveis de risco: mínimo, limitado, alto e inaceitável, ou seja, situações em que a IA não poderá ser usada.

    (18:15) Quando falamos em um contexto educacional, a curadoria no treinamento é tão importante quanto o resultado, por causa do problema do viés. Não estou produzindo a capa para um podcast, estou educando crianças. A própria questão da língua também tem um aspecto cultural envolvido. Olhando aqui os dados de treinamento do Llama 3, eles falam em 15 trilhões de tokens.

    (19:15) Eles dizem que, para preparar para um futuro caso de multilíngue, cerca de 5% do dataset de pré-treinamento consiste em material de alta qualidade fora da língua inglesa, cobrindo 30 línguas. Contudo, eles alertam para não esperar o mesmo nível de performance nessas outras linguagens como no inglês. Essa é uma questão que talvez não tenha tanta importância em certos contextos, mas é um problema que toca na própria questão do risco envolvido.

    (20:22) Dito isso, chegamos a uma reportagem que me chamou a atenção, do Ronaldo Lemos, com o título: “É preciso acabar com a infância na frente do celular”. Ele fala sobre o livro “A Geração Ansiosa” (The Anxious Generation), de Jonathan Haidt, um tema que gostamos muito de tratar aqui. É aquela disciplina que talvez todos os cursos devessem ter, que promove um pensamento crítico sobre como estamos usando a tecnologia e quais são seus efeitos.

    (21:18) De forma muito resumida, ele coloca que a saúde mental de crianças e adolescentes, inclusive com o aumento de suicídios, estaria ligada, segundo os estudos de Haidt, a essas tecnologias. O livro é dividido em quatro partes, e a última é sobre como resolver esses problemas. Ele diz que os jovens estão começando a se dar conta disso, o que é interessante.

    (22:45) E é sustentado por evidências. O que Jonathan Haidt tenta fazer é amparar suas conclusões em evidências. É um livro interessante para pais, professores e para nós que estudamos e gostamos desse tema. Ao longo do tempo, certas coisas se mostraram prejudiciais para as crianças, e fomos tentando evitar ou controlar seu uso. O que ele está colocando é como as redes sociais têm piorado e contribuído negativamente para a formação de adultos problemáticos, pessoas que não sabem lidar com problemas e estão cada vez mais com crises psicológicas, elevando até o grau de suicídio.

    (24:26) Ligado a tudo isso, tem a notícia de que o governo de São Paulo quer usar o ChatGPT para produzir aulas digitais. Discutíamos antes que a notícia talvez esteja com um título um pouco ruim. Não curti o headline. O texto diz: “O governo Tarcísio de Freitas vai passar a usar o ChatGPT para produzir as aulas digitais”, e que os professores conteudistas agora terão a função de avaliar a aula gerada pela IA e realizar os ajustes necessários.

    (25:26) Independentemente de fazer juízo de valor se é bom ou ruim, não curti a maneira como foi colocado. Dizer “no lugar de professores” dá a impressão de que vão tirar os professores e o ChatGPT vai gerar o conteúdo, mas não é assim que funciona.

    (26:01) Imagina que você tenha 100 professores conteudistas. Quantos você acha que poderiam ser substituídos por uma ferramenta? Mas aí vamos a um outro problema, muito maior. Existem empresas no Brasil com conteúdos prontos de todas as aulas. Você substitui quantos professores comprando isso? Ainda assim, você tem um professor cuja aula será assistida por 20.000 ou 30.000 alunos Brasil afora. De repente, você não precisa mais de um professor, mas de um monitor.

    (27:00) Há várias situações. A questão da substituição do professor, da valorização. Se a ideia é que a IA seja capaz de gerar ou ajustar material para as necessidades específicas de um aluno, isso é bom ou ruim? Como seria feito? O headline eu achei exagerado, porque dá a impressão de que estão tirando o professor e botando o ChatGPT, o que não funciona assim. Talvez possam reduzir o número de professores, mas ainda precisarão de um para interagir e orientar a IA.

    (28:18) Hoje já existem os Learning Management Systems (LMS), como o Moodle e o Blackboard. O Blackboard já lançou ferramentas de IA. Lá, você tem sua aula, seu material, e com um botão, pode gerar questões com base nesse conteúdo. Sim, você terá que interagir, mas gerar conteúdo ou perguntas com o apertar de um botão é muito simples.

    (29:16) O problema não é nem diminuir o número de professores, embora eu ache que isso vá acontecer. A IA tem o potencial de substituir uma série de profissões, e esse é um de seus grandes problemas. Que tipo de sociedade queremos? O que faremos com as pessoas que podem perder seus empregos? O que quero tratar é sobre o uso da IA na educação de forma mais ampla.

    (30:01) Temos que ter muito cuidado ao usar IA na educação, sobretudo na de crianças. É uma questão mais conceitual. Já usamos ferramentas de IA, como reconhecimento vocal, geração de imagens, detecção de plágio, tradução. O Duolingo usa IA. A questão é a facilidade com os LLMs. E nós, que os usamos diariamente, sabemos que eles erram muito. Às vezes, você perde mais tempo corrigindo do que se fosse fazer do zero.

    (31:07) A União Europeia propõe uma análise de risco. Deveríamos, antes de utilizar esse tipo de ferramenta na formação de crianças, ter uma regulação mais forte. O AI Act deles coloca como de alto risco tecnologias de IA na educação que envolvem acesso ou admissão, avaliação de resultados de aprendizagem, ou monitoramento de comportamento de estudantes em testes.

    (32:20) E ainda coloca certos riscos como inaceitáveis, como manipulações subliminares e certas categorizações baseadas em dados sensíveis. Minha preocupação é começarmos a utilizar isso conceitualmente na educação de crianças. Acho que deveria ser o último lugar. Deveríamos ter um mapeamento de riscos bem elaborado e usar uma ferramenta treinada com dados brasileiros, culturalmente e linguisticamente calibrados. Falo um pouco mais sobre isso numa palestra que deixei no link do show notes.

    (33:41) E aí teria outro problema: direitos autorais. Será que essas ferramentas não estão sendo treinadas com os dados dos professores? Um Blackboard da vida que começa a gerar questões com base no conteúdo do professor… o conteúdo do professor está treinando modelos. Teríamos outras relações aí, envolvendo direitos autorais e a própria relação de trabalho.

    (34:11) Livros, artigos científicos e jornalísticos de alta qualidade são ouro para treinar esses modelos. Clonagem de voz é outra coisa. Imagina ter âncoras de jornais completamente virtuais e ultra-realistas. Se você consegue melhorar o modelo, e vai acontecer, em um, dois ou três anos a IA não vai cometer tantos erros. Imagina gerar uma aula completa, com um professor com a aparência e a voz que você descrever, sobre qualquer assunto.

    (36:11) Você terá tudo. O professor não precisará mais gravar a aula, nem fazer slides. Esse é o grande problema. Não devemos utilizar essa tecnologia só porque ela existe. É como na bioética: a comunidade científica se impõe limites. Não estamos fazendo isso com a IA. Só porque posso criar um professor virtual para ensinar criancinhas, não significa que eu deva fazer. Essa é a discussão ética que mais me preocupa. Eu não acho que devamos entregar a formação de crianças para a IA, pelo menos não agora, com os interesses por trás dos donos dessas ferramentas.

    (37:49) Se um dono de uma rede social, com seus próprios interesses, pode impor esses interesses para a sociedade? E se isso começar a acontecer com esses modelos, cujo treinamento não tem auditoria nem transparência? O grau de manipulação social seria imenso. Educar crianças é algo muito complexo, e não sei se quero que uma máquina faça isso.

    (38:59) O problema é o 8 ou 80. Não consigo imaginar meus filhos sem um professor, sem colegas, sem o ambiente escolar. O que mais me importa agora é essa relação social. Se ele está errando na matemática ou atrasando o tema, isso não me importa tanto quanto a socialização. Por outro lado, tenho utilizado chatbots com meu filho mais velho e tem sido interessante.

    (40:11) Uma pesquisa no Google, se ele não escrever com precisão, não traz o que ele quer. Em um chat, posso dizer: “esta tradução é para uma criança de 8 anos”. A IA compreende e faz perguntas para refinar a busca. Um Perplexity da vida é muito mais útil para ele do que o Google. Se ele busca a resposta para uma conta de matemática, o Google dá o valor instantaneamente. Um chatbot traz a explicação junto.

    (41:54) Não é nem não usar nada, nem sair usando sem controle. Mas você não vai ter o pai ao lado do filho monitorando o tempo todo. Esse pode ser o papel do professor. O que aconteceu com as redes sociais? Não adotamos uma abordagem de risco. A grande maioria simplesmente entrega o telefone para a criança e a deixa imersa no TikTok.

    (44:28) A resposta não é simplesmente ignorar a tecnologia. Vamos precisar preparar professores para lidar com isso, assim como para lidar com as próprias redes sociais, com as quais eles já têm dificuldade. Os pais, então, nem se fala. Essa tecnologia é como o computador, como a internet. O acesso sem supervisão é um problema que comentamos desde a década de 90, e não se deixou de usar a internet. Agora, a IA é a internet da vez.

    (45:50) Temos mais um problema para resolver: dar ferramentas para pais e professores lidarem com essa tecnologia. Eles vão ter que lidar com ela, ponto final.

    (46:12) Por outro lado, temos aquele solucionismo tecnológico. Eu vou mais na linha do que a União Europeia fez: trazer certos usos proibidos. O risco aqui ainda é incerto. A própria imprevisibilidade das respostas da IA me preocupa e aumenta o risco. Deveríamos adotá-la progressivamente, avaliando os riscos. Mas a lógica não pode ser essa, embora vá acontecer, como na robotização das fábricas.

    (47:37) Não é comparável. A força de trabalho do robô é uma coisa, uma força intelectual é outra. A questão é o que faremos com isso e como vamos lidar com os efeitos. Já vi gente dizendo que 80 e poucos milhões de postos de trabalho vão acabar, mas outros 97 milhões serão criados. Também não acho que seja por aí.

    (48:19) Vejo a IA como a internet ou a automação. Lembro dos primeiros computadores no Brasil, a galera entrou em pânico de que acabaria com os empregos. O que aconteceu é que o computador parece estar absorvendo mais do nosso tempo e criando novos problemas. Eu julgo mais perigoso deixar meu filho acessando a internet sem supervisão do que usando um chatbot sem supervisão.

    (49:31) O importante é discutirmos esse assunto. Não sei dizer qual é o melhor caminho. Acredito que o gênio não volta para a garrafa. Nós nos preocupamos com as questões sociais e éticas, mas sabemos que o drive econômico é muito forte. Assim como na industrialização e na automação, a IA vai substituir trabalhos intelectuais que eram exclusivamente humanos.

    (51:15) A definição de IA é uma tecnologia que dá aos computadores a possibilidade de simular o raciocínio e as habilidades de solução de problemas típicos dos seres humanos. O que até então resolvíamos de maneira mais limitada, agora dá um outro salto. A IA vai suplantar isso, é fatal. Por isso é tão importante ter essas discussões, inclusive sobre a criação e os vieses dos modelos. Tivemos a experiência que comentamos aqui, de uma IA para auxiliar juízes que se mostrou racista, porque foi treinada com dados que continham racismo intrínseco.

    (52:59) Isso se torna parte do modelo e das decisões. E, de repente, você está treinando crianças com esse modelo. E não é só o LLM, que é uma possível aplicação de IA. No exemplo da União Europeia, a proibição é para certos contextos, inclusive fora de LLMs, como para selecionar pessoas com base em comportamento social ou dados sensíveis. O caminho que estamos indo, mundialmente, deve ser o de apontar e lidar com esses riscos.

    (54:23) Queria só compartilhar com o pessoal a tela do filme “Gattaca”, de 1997, já que você falou. Para quem quiser assistir, está aí.

    (54:49) Já que você falou, li um livro esses dias chamado “Piano Mecânico”, de Kurt Vonnegut. É uma distopia escrita logo depois de “1984”. Nela, o mundo é comandado pelas pessoas mais inteligentes e estudadas. Existem duas classes: os intelectuais, que comandam as máquinas, e as outras pessoas, que fazem as tarefas mais duras, vivem marginalizadas e ganham muito pouco. É uma eventual tensão entre esses dois grupos. Me lembra a figura do ludismo na Inglaterra, com a Revolução Industrial, quando os empregados quebravam as máquinas que estavam tirando seus empregos.

    (56:51) Quem tiver interesse, procure por Ada Lovelace, a mãe do computador. Na história dela, havia máquinas de tear que podiam ser programadas com placas perfuradas. O pessoal invadiu e quebrou tudo porque ia tirar os empregos deles. É o ludismo.

    (57:08) Hoje se fala em um tipo de ciberludismo. Gostei muito de ler essa distopia neste momento histórico atual. É uma possível ideia do que poderia acontecer.

    (57:43) Vamos adiante. Vou trazer uma notícia bem rapidinha. Os podcasts são vistos como essa mídia isenta, independente. Quando recomendamos um livro, como os que acabamos de recomendar, é porque realmente achamos interessante, não porque tem um merchandising ali.

    (59:51) Então, o podcast é uma mídia que chama atenção para divulgar produtos. Só que se eu vou divulgar, mas digo que é uma propaganda, alguns anunciantes não querem que isso aconteça. A sacada foi esta: eles contratam atores para fazerem pseudo-podcasts, que não existem. E o negócio é propaganda, sem dizer que é. As marcas obtêm a validação do formato de podcast sem ter que pagar preços premium para aparecer em programas famosos. Eles pagam atores, e os atores fazem o podcast.

    (1:01:31) Lembrei de algo que li, mas não tenho certeza da fonte. Nessa mesma linha, algumas pessoas estariam fingindo participar de podcasts. Um influenciador ou profissional contrata uma produtora que finge entrevistá-lo. Isso gera cortes para ele colocar no Instagram, para parecer que participou de um podcast famoso. Veja como o meio formata a coisa. O meio é a mensagem, como dizia Marshall McLuhan.

    (1:03:07) Uma outra rapidinha: temos que mencionar a passagem do Ross Anderson, um professor da área de segurança da informação. Ele escreveu diversos livros, incluindo “Security Engineering”, um grandão azul que tenho orgulho de ter na minha prateleira. A passagem foi recente, agora em abril. O livro está disponível para baixar online.

    (1:04:36) O link no show notes é para o blog do Bruce Schneier, que escreveu um memorial curto sobre o Ross Anderson. A pedido da “Communications of the ACM”, ele fez uma versão mais longa. Para quem se interessa pelo autor, fica a informação.

    (1:05:18) É sempre ruim, porque não temos tantos autores tão bons quanto ele nessa área.

    (1:06:23) A última notícia. Talvez desse um episódio, mas não dá para esperar muito. O pessoal está tratando um cara como herói, o nome dele é Andres Freund. Ele trabalha na Microsoft, lida com PostgreSQL, e estava investigando uma questão de desempenho. Ele se deu conta de que estava perdendo 500 milissegundos em uma dada situação. Investigando, descobriu um backdoor que permitia, entre outras coisas, acesso remoto e execução de comandos em servidores Linux.

    (1:07:42) Ele encontrou essa porta dos fundos em uma biblioteca extremamente comum no Linux, a xz-utils, que tem a ver com compactação e é utilizada em tudo, inclusive na biblioteca OpenSSL, que por sua vez é usada no SSH.

    (1:08:29) A história é muito interessante. O projeto xz-utils é mantido voluntariamente por um desenvolvedor, Lasse Collin. Ele era o único mantenedor. Em 2021, um cara com a conta “JiaT75” no GitHub se aproxima e começa a contribuir com vários projetos. Em 2022, ele faz o primeiro commit no repositório do xz, com uma melhoria legítima.

    (1:10:07) Lasse Collin aceita e o cara começa a ajudar. Em 2023, o atacante, “Jia Tan”, lança a primeira versão que ele está mantendo, enquanto Collin começa a se afastar. Em fevereiro de 2024, ele adiciona o backdoor. Isso foi descoberto por acaso em 29 de abril.

    (1:11:18) Os Linux com as versões mais recentes do xz-utils foram afetados. Distribuições como Ubuntu e Debian (stable) não foram. Fedora, Kali Linux e Arch Linux foram afetados. A história é interessante porque o cara se preparou desde 2021 e foi pego por acaso. Talvez a gente possa voltar a falar sobre isso.

    (1:13:04) Só quero deixar, porque realmente preciso sair para a faculdade. Escrevi um pequeno artigo no blog da Brown Pipe sobre a nova resolução do Conanda. É uma nova resolução, a 245, que estabelece uma série de regras sobre a proteção de crianças e adolescentes no ambiente digital, complementando a proteção de dados pessoais e estabelecendo novas regras para plataformas. O Conanda é um órgão muito sério, e vale a pena a leitura. A resolução vai afetar todas as empresas que lidam com crianças.

    (1:14:52) Guilherme, café expresso e café frio, rapidinho. Meu café expresso vai para o nosso querido Andres, da Microsoft, que por ser chato com os 500 milissegundos descobriu o backdoor que poderia ter avacalhado com geral.

    (1:15:28) Eu dou meu café expresso para o Conanda. Espero que seja um divisor de águas para a proteção das crianças na internet.

    (1:15:50) O café frio vai para o governo de São Paulo, que quer usar o GPT nas aulas digitais. Acho que não é para agora. Guardemos a ansiedade.

    (1:16:09) Meu café frio vai para o pessoal que fica fazendo podcast falso para vender coisa. E posso dar um café frio extra por cortarem uma árvore aqui do lado.

    (1:16:22) Pode, pode dar o café para eles também. Os caras em si não têm culpa, mandaram eles cortar. Mas é dose.

    (1:16:40) Mas é isso. Você tem sua aula. Boa sorte. Obrigado. Nos encontramos então no próximo episódio do podcast Segurança Legal. Até a próxima.

    (1:17:04) Até a próxima. Parece que você está usando uma IA para falar essa parte final, você muda a entonação.

    (1:17:10) Faltaram algumas notícias nossas. Tínhamos o trabalho por plataformas na União Europeia. Isso dá para trazer em outro episódio. É importante, plataformas como Uber, que aqui estamos nos debatendo para regular.

    (1:17:36) A gente também não pode ficar só na esteira do que a União Europeia faz. O grau de desenvolvimento deles é diferente do nosso. Precisamos investir aqui, mas a tentativa não foi para frente, os próprios envolvidos não quiseram.

    (1:18:07) A notícia que deixei de fora era que o Google resolveu bloquear alguns sites de notícias na Califórnia porque há um projeto de lei que forçará o Google a pagar para usar o material dessas empresas. Eles já fizeram isso no Canadá.

    (1:18:49) Deixei de usar o Twitter faz algum tempo e isso melhorou minha saúde mental incrivelmente. Para ver notícias, uso o Google News, mas você só consegue ver as notícias dentro do aplicativo, não no seu browser com bloqueador de publicidade. É difícil, você resolve um problema e acaba tendo outro.

    (1:19:43) A Microsoft fez testes de colocar propaganda no menu Iniciar do Windows para quem estava no programa de testes, e o pessoal chiou.

    (1:20:37) O pessoal está começando a reclamar das IAs acessando a internet em tempo real. Alguns sites que têm paywall, a IA consegue acessar o conteúdo e traz para você. Há uma discussão interessante sobre até que ponto é certo apresentar a informação diretamente sem fazer o usuário ir ao site. É um problemão.

    (1:21:50) Gosto dessa sensação de saber que você está se atrasando, mas fica tranquilo. É uma ansiedade tranquila, você já ultrapassou o limite, mas fica de boa.

    (1:22:27) Faz o seguinte para ficar mais light para você: uma vez, participa de uma aula minha, remoto. A gente pega um assunto desses e faz um bate-papo com o pessoal.

    (1:22:50) Pode ser. Mas vamos lá. Beijo, abraço, se cuida na estrada. Falou, pessoal.

     

    ...more
    View all episodesView all episodes
    Download on the App Store

    Segurança LegalBy Guilherme Goulart e Vinícius Serafim

    • 4
    • 4
    • 4
    • 4
    • 4

    4

    7 ratings


    More shows like Segurança Legal

    View all
    Braincast by B9

    Braincast

    108 Listeners

    RapaduraCast - Podcast de Cinema e Streaming by Cinema com Rapadura

    RapaduraCast - Podcast de Cinema e Streaming

    111 Listeners

    MacMagazine no Ar by MacMagazine.com.br

    MacMagazine no Ar

    179 Listeners

    Xadrez Verbal by Central 3 Podcasts

    Xadrez Verbal

    174 Listeners

    Giro do Loop by Loop Infinito

    Giro do Loop

    91 Listeners

    Tecnocast by Tecnoblog

    Tecnocast

    43 Listeners

    NerdCast by Jovem Nerd

    NerdCast

    1,010 Listeners

    Naruhodo by B9, Naruhodo, Ken Fujioka, Altay de Souza

    Naruhodo

    121 Listeners

    Petit Journal by Petit Journal

    Petit Journal

    78 Listeners

    Durma com essa by Nexo Jornal

    Durma com essa

    46 Listeners

    História FM by Leitura ObrigaHISTÓRIA

    História FM

    30 Listeners

    Ciência Suja by Ciência Suja

    Ciência Suja

    20 Listeners

    Vortex by Parasol Storytelling

    Vortex

    19 Listeners

    Só no Brasil by Pipoca Sound

    Só no Brasil

    4 Listeners

    IA Sob Controle - Inteligência Artificial by Alura - Hipsters Network

    IA Sob Controle - Inteligência Artificial

    1 Listeners