
Sign up to save your podcasts
Or


Neste episódio comentamos o histórico da Meta e suas controvérsias. Você irá descobrir a jornada do Facebook, desde a sua criação em Harvard até as polêmicas que moldaram as redes sociais que conhecemos hoje.
Guilherme Goulart e Vinícius Serafim analisam a evolução do Facebook, que se tornou a gigante Meta. A discussão aprofunda-se nas principais controvérsias que marcaram a empresa, como o escândalo Cambridge Analytica e o estudo sobre contágio emocional, que expuseram a fragilidade da privacidade e da proteção de dados dos usuários. O episódio aborda como o algoritmo e as políticas de moderação de conteúdo foram desenvolvidos para maximizar o engajamento, levantando debates sobre manipulação e desinformação. Com as novas diretrizes de Mark Zuckerberg focadas na livre expressão em detrimento dos verificadores de fatos, a segurança da informação nas redes sociais entra em uma nova era, desafiando a futura regulamentação e o combate às fake news. Assine, siga e avalie para não perder nenhum episódio.
ShowNotes
Transcrição do Episódio
(00:01) [Música] Sejam todos muito bem-vindos e bem-vindas. Estamos de volta com o Segurança Legal, o seu podcast de segurança da informação e direito da tecnologia. Eu sou o Guilherme Goulart e aqui comigo está o meu amigo Vinícius Serafim. E aí, Vinícius, tudo bem? E aí, Guilherme, tudo bem? Olá, aos nossos ouvintes. Estamos de volta no nosso primeiro episódio de 2025. Sempre lembrando que, para nós, é fundamental a participação de todos por meio de perguntas, críticas e sugestões de tema. Então, a gente está lá no podcast @s
(00:37) segurancalegal.com, YouTube, Mastodon, Blue Sky e Instagram, né, Vinícius? Então, se você quer nos acompanhar, pode buscar uma dessas formas. Ali também temos a nossa campanha de financiamento coletivo, você já sabe. Só um parêntese aqui, Vinícius, a gente sempre repete isso. 2025 começa… Se você nos acompanha, sempre ouve essa parte inicial aqui, mas é importante também para quem está chegando agora ou, às vezes, quem quer se comunicar com a gente. Eu comecei a ouvir um podcast novo de história e o cara não falava, não falava lá sobre o pix e o Apoia-se,
(01:18) mas ele não falava como entrar em contato com ele. Não conseguia achar o cara na internet, por incrível que pareça. Bom podcast, bom. Depois eu te passo aqui, mas é bom, de história. Bom, agora você tem que dar a dica. Ah, mas depois eu pego. Enquanto você estiver falando, tu cata e dá a dica. Então, no final do episódio de hoje, o Guilherme vai dar a dica do podcast de história. Fique até o fim. Fim, é a única coisa que vai importar no episódio.
(01:44) História. Só, Guilherme, uma coisa que agora eu esqueci: quando tu leu o início ali, tu disse 2024 ou 2025? Porque no roteiro está 2024. Não, aquela parte ali do roteiro é da gravação que a gente faz depois. Ah, depois. Então, que susto, porque eu não lembro de ter falado aquilo. Vamos. Mas já aconteceu outras vezes. Vinícius, tem o apoia.se/
(02:08) segurancalegal. Contribua com o projeto independente de produção de conteúdo e você vai ter acesso ao nosso grupo lá do Telegram e, também, eventualmente a sorteios. A gente acabou de fazer os sorteios das canecas. Enfim, blog da Brown Pipe, visite lá no brownpipe.
(02:27) com.br, que é a empresa que mantém este podcast desde o seu início. Também o mailing semanal, você pode se inscrever e receber algumas das notícias mais importantes lá no blog da Brown Pipe. Também temos os e-books, então tem o e-book de gestão de incidentes, o e-book “Entendendo a LGPD” e, mais recentemente, o e-book da rede hoteleira, bem nichado, bem específico. A gente está fazendo algumas coisas nesse sentido também. E aqui no YouTube, muito importante: se você está nos assistindo no YouTube, é importante. Todo mundo que vê YouTube sabe que
(02:58) os caras sempre falam isso: curta, se inscreva, assine o sininho. Mas é importante também que a gente diga isso. O próprio algoritmo valoriza vídeos que buscam engajamento. Então, se você puder, dê uma olhada, dá aquela moral para nós. Uma moralzinha para a gente que está vendo no YouTube, né, Guilherme? E também, lembrando que neste canal do YouTube, se você está vendo aqui ou se está só ouvindo, vai lá depois no nosso canal. Tem também alguns materiais que eu gravei no ano passado ainda.
(03:31) Bem interessante sobre segurança da informação, alguns até bem práticos. Um deles foi “Autenticação para Devs”, se não me engano. Acho que foi o nome que eu dei. Você vai na parte “ao vivo” e vai encontrar vários desses conteúdos lá. São coisas bem práticas, bem mão na massa e úteis, eu acho. Vamos lá. Eu tenho certeza que sim. Eu tenho certeza também, mas aí é mais para os iniciados, porque aqui… E hoje, eu acho que o episódio de hoje, você já sabe qual é o assunto, comprova um pouco a forma como a gente tem
(04:06) de lidar com alguns assuntos. Esse tema de hoje, do problema do Facebook, da Meta de maneira geral, grupo Meta, que abrange as redes sociais. O Facebook é apenas uma delas, a gente fala Facebook, mas é a Meta. Porque, e agora vai uma provocada, do problema ou da solução, dependendo de quem vê. E por que esse tema está aqui? É um podcast de Direito da tecnologia, segurança da informação и proteção de dados também, mas a gente, eventualmente, ao longo desses 13 anos, Vinícius, que estamos no
(04:39) ar, nós gostamos de trazer questões relacionadas a essa temática de tecnologia e sociedade, a aplicação de todas essas ferramentas, modelos e instituições tecnológicas para a nossa vida cotidiana. E a gente entende que é um tema importante. Então, dentre esses 383 episódios passados, você vai encontrar várias coisas nessa linha, inclusive o tema Facebook/Meta, mas antes, Facebook já passou por aqui pelo Segurança Legal outras vezes. E foi no ano de 2018, foi o ano do Facebook aqui no Segurança Legal, porque lá a gente teve o
(05:23) episódio 148, do caso Cambridge Analytica, que a gente vai comentar um pouquinho hoje; 149, “We Run Ads”. Vinícius, a gente até estava conversando qual foi o episódio das audiências no senado americano que o Zuckerberg participou depois do caso Cambridge Analytica. Foi o “We Run Ads”. O título se deve ao fato de terem feito uma pergunta para ele como ele ganhava dinheiro, e ele diz: “We run ads”. Inclusive, o episódio começa com essa frase dele. Depois nós tivemos o 173, “Incidente do Facebook”, e o 182, “Amigo do Rei” também, que a gente falou sobre alguns problemas e algumas questões
(06:05) relacionadas a certos aplicativos terem acessos especiais aos dados do Facebook. Tudo isso lá em 2018. Então, nós vamos dividir este tema de hoje em algumas formas aqui. Primeiro, nós vamos fazer este episódio dividido em duas partes, parte um e parte dois. Hoje, nós vamos fazer a retomada de alguns eventos passados do Facebook e também a colocação do problema. Fique aqui porque nós vamos, inclusive, rodar um áudio traduzido do Zuckerberg, falando naqueles áudios de 5 minutos em que ele fala as mudanças que vão ocorrer. Então, a gente fez ele falar português.
(06:51) A gente fez ele falar. A gente não, o Vinícius fez umas magias ali. Então, você vai ouvir. Tem muita ferramenta pronta, não é magia. Eu achei que fosse mágica, mas é só tecnologia. Então, você vai ouvi-lo em português. Fique aqui para ouvir todo o áudio mesmo. E depois, a gente vai falar um pouco sobre o problema de maneira geral, para no episódio seguinte… E aí, nós teremos um hiato de férias, de recesso. Então, teremos um hiato e, lá em fevereiro, você vai ouvir as
(07:26) questões mais críticas, as críticas que chegaram e atualizações, atualizações, atualizações até lá e conclusões. Algumas das nossas conclusões, algumas delas também relacionadas ao cenário da segurança da informação, porque a gente entende que isso vai ter algum impacto. Bom, o Facebook ele começa, e aí vai me interrompendo, Vinícius, lá em 2003. Na verdade, em 2003, o Zuckerberg e dois amigos criaram um jogo que era o Facemash, em que mostravam fotos de estudantes. Facemash, em que ele pode até conferir, mas,
(08:07) às vezes, a pauta nos trai. Mas eles pegavam fotos dos estudantes lá de Harvard. Ele era de Harvard, o Zuckerberg, e se escolhia quem era o mais atraente. Esse foi o embrião do que viria a ser o Facebook. E as fontes já históricas, interessante pensar nisso, já se vão 20 e poucos anos, dizem que ele hackeou o sistema da faculdade de Harvard, o Zuckerberg, para pegar essas fotos para alimentar o sistema dele. E isso culminou numa investigação interna, um processo interno administrativo da faculdade, da universidade contra ele. E aqui,
(08:53) a gente vai trazer também alguns fatos um pouco problemáticos, porque a gente sabe que este tema é cercado de preferências políticas. Isso é totalmente natural. Enfim, você pode achar ótimo quando alguma rede social se alinha com as suas preferências políticas, mas é importante dizer que, primeiro, essas empresas começaram, muitas vezes, em cenários bem delicados, complexos e envolvendo uma série de problemas. Mas, assim, elas desde o início começaram visando, me parece, Vinícius, ser
(09:29) um agente isento, o mais isento possível. E parece que o que ocorre agora já traz uma mudança nesse cenário todo. 2004, aí sim, ele começa a escrever o código do que seria o “The Facebook”, que foi lançado em fevereiro desse ano. Lembrando que a palavra “Facebook” se refere àqueles anuais das universidades americanas, aqueles livros com a foto. Você põe a foto de todo mundo, não só universidade, pessoal de segundo grau também, escola. Então, é uma coisa bem americana, a gente vê em filmes, às vezes. Então, a ideia inicial era essa. 2004 marca um
(10:11) fato aqui que a gente já comentou várias vezes neste nosso podcast: que o Zuckerberg chamou os usuários do Facebook de “dumb fucks” quando perguntaram para ele: “mas como que as pessoas te entregaram os dados?”. E ele disse: “Olha, eu simplesmente pedi”. Isso tem uma reportagem. Outra coisa, pessoal, tudo que nós falamos aqui são coisas totalmente documentadas. A gente vai trazer um caminhão de links. Eventualmente, uma ou outra coisa pode faltar aqui, mas a gente buscou
(10:51) documentar tudo que a gente está colocando aqui, porque a gente sabe que também é um tema delicado. Então, ele chama as pessoas… Diga. E só lembrando, tu está certo, é o Facemash mesmo, não um “Face match”. É uma confusão frequente, tá? É uma confusão frequente. Eu estou sempre certo, né, cara? É, sim, sim, tu está sempre certo. Vai, segue. Minha mãe diz que eu sou lindo, e eu acredito nela. Então, ele chama as pessoas de “dumb fucks”, ou seja, idiotas, abobados, sei lá qual seria a tradução disso, por justamente colocar uma preocupação: “Como é que as pessoas
(11:29) estão te dando tanta informação?”. “Eu pedi e elas estão me dando”. Na época, isso representava um problema. Hoje, de fato, o mundo mudou tanto em 21 anos que já não é mais um problema. Essa semana mesmo a gente viu pessoas vendendo íris lá em São Paulo, mas esse é um outro tema, esse é um outro assunto para o Segurança Legal, outros problemas. 2025 começou de um jeito inesperado. Está bem, está ótimo. Vinícius, outra coisa, e isso é uma das coisas que mais me chama a atenção no Facebook e nas redes
(12:04) sociais inteiras, é que em 2006 ele cria o news feed. Inventa, ou ele inventa. Me parece que foi ele que inventou isso ou, se não inventou, pelo menos foi o primeiro que fez um news feed que ganhou uso massivo. Uma coisa que realmente todo mundo passou a saber o que era um feed. E todas as redes, eu acho, que usam a ideia do news feed até hoje. Acho que sim, porque quando a gente pega… Não, deve ter alguma outra meio aleatória assim, mas tu pega LinkedIn, Blue Sky, o X, o Instagram,
(12:43) Threads, o próprio Face, é tudo na base do news feed. Tem uma nova rede de fotos agora, “Foto”, também. O pessoal do Blue Sky já começou a desenvolver um novo Instagram baseado no mesmo protocolo deles e que vai conversar com o Blue Sky também, aqueles protocolos abertos. Então, a criação do news feed eu acho que muda tudo. Permite aquela coisa também que vem depois, eu até não tenho o ano, mas é o feed infinito. E esse, sim, é uma coisa muito problemática, porque a ideia de todas essas plataformas, depois, se tornou, no início não era assim, mas
(13:19) depois se tornou, fazer com que você fique cada vez mais tempo lá dentro. E para que você fique cada vez mais tempo lá dentro, você precisa de mais conteúdo. Porque antes, como era? Não sei o pessoal que nos ouve, a gente já tem cabelo branco, né, Vinícius? Mas, antigamente, eu não tenho mais nem cabelo. Mas em 2004 eu tinha. Então, eu queria ver o que o Vinícius fez. Então eu entrava no perfil do Vinícius e via: “Ah, o Vinícius fez tal coisa”. O Orkut também era bem assim. E aí, com o
(13:52) news feed, eu consigo ver o que todos os meus amigos fizeram. Se você colocar lá no YouTube “primeiro news feed”, em inglês, você vê os caras ensinando como desabilitar o news feed, porque no início não foi uma coisa que o pessoal gostou. “Não, eu não quero ver o que um amigo meu aleatório está fazendo, eu quero ter o controle sobre o que eu vejo”. E 2006 foi, talvez, um primeiro passo em que isso caiu. Quer falar alguma coisa? Não, não, pode ir. Isso é mais um relato, assim. Como tu disse, a parte de opinião, de
(14:25) conclusões e tudo mais, a análise mesmo, a gente vai deixar para a parte dois. Aqui é mais um histórico mesmo da coisa e trazer o que está vindo adiante. Uhum. Bom, 2007, criação do Beacon, que era uma questão que se conectava com lojas. Então, você fazia uma compra numa loja e aparecia no feed que você interagiu com aquela loja. No início, o opt-out era difícil, depois virou opt-in. E a gente buscou também trazer aqui alguns exemplos, obviamente, de coisas não só importantes, mas também
(15:01) problemáticas e críticas. Isso hoje é uma zona, né, Guilherme? Isso, hoje, não tem aplicativo que tu olhe que não tenha uma integração com o Facebook, mas enfim. Sim, importante dizer que não é aquele beacon de ficar te perseguindo na internet, como às vezes ocorre com os cookies. Aqui, “Beacon” mesmo era o nome de uma integração de lojas com o Facebook, mas a gente também tem o beacon que faz às vezes de um cookie, mas isso é outro problema. 2012, eles mudam a sistemática de acesso. E aí vai ser interessante porque tem um
(15:43) link ali também do TechCrunch que mostrava como era antes. A gente até já abordou esse, se quiser mostrar aí, Vinícius, na tela. A gente tem esses elementos aqui. Esse link aqui mostra a mudança que ocorre lá em 2012 na sistemática de acesso. Ou seja, houve um momento ali, hoje isso… Houve um momento que era muito comum que eu tivesse uma série de aplicativinhos que ficavam consumindo os dados do Facebook. Joguinhos… Teve o grande momento do Angry Birds. Hoje, o Angry Birds é um produto, filme e brinquedos,
(16:24) mas era um joguinho lá das antigas. E ele precisava de um consentimento, e 2012 marcou um pouco a forma como eles passaram a deixar esse consentimento mais diluído ao longo do tempo. E isso, ali em 2012, fica bem claro. A gente foi perdendo o controle que nós tínhamos sobre o que a gente queria fazer dentro da rede. E esses fatos passados aqui mostram um pouco isso. Mas a própria relação que a empresa tinha com os nossos dados foi se alterando ao longo do tempo. Então, isso ocorre em 2012. Esses aplicativos podiam
(17:06) postar em nome da pessoa dentro da própria rede, seja para mostrar “fulano de tal está jogando Fazendinha”. Não lembro se Fazendinha… Ah, não, Fazendinha tinha, tinha. Eu lembro, tinha. Quando eu usava o Face ainda, eu via muita gente jogando Fazendinha. Fazendinha não era do Orkut? Agora estou em dúvida. Não, tinha no Face, cara. Tinha no Face. Até eu lembro de pensar: “O que o pessoal tem tempo de ficar fazendo isso?”. Mas, enfim. 2012 também, Vinícius, isso
(17:37) ocorreu em 2012, mas foi revelado em 2014. Aconteceu algo que a gente falou diversas vezes aqui nesses 13 anos que estamos gravando, que foi aquele infame estudo feito no Facebook. Não sei se tu quer falar um pouquinho sobre ele também, do contágio emocional. O Vinícius sempre comenta, sempre traz. Eu trago esse estudo. Eu acho que ele já deve estar nos show notes de alguns episódios, esse estudo. Mas é um estudo que, se tu procurar por “PNAS” e “Facebook emotional”, ah, tenho aqui já.
(18:23) tu vai achar esse cara. A gente vai botar de novo o link lá para vocês poderem olhar. Faltou o link desse aqui, mas sim. Não, eu já estou com ele aqui, ó: “Experimental Evidence of Massive-Scale Emotional Contagion Through Social Networks”. Então, está de novo essa “tralha” aqui. Mas, enfim, nesse artigo, os próprios funcionários do Facebook fizeram um estudo para ver se era possível o contágio emocional em massa. E não vamos dar detalhes desse artigo aqui agora, a gente já falou várias vezes, mas, no final das contas, chegaram à conclusão
(18:59) que sim, que é significativo o contágio emocional. Eles analisaram seiscentas e poucas mil… Eles usaram no estudo seiscentas e poucas mil pessoas. Elas не foram informadas que estavam participando do estudo, e eles manipularam justamente a timeline dessas pessoas, o news feed dessas pessoas, para coisas mais positivas, mais negativas e depois mediram o impacto vendo a reação dessas pessoas nas suas próprias postagens. E isso gerou uma baita confusão. A universidade citada lá, não vou falar o nome agora porque não lembro o nome
(19:30) da universidade onde o estudo foi feito. Não sei se tu tem à mão aí, se tu consegue ver, Guilherme. Ah, Princeton. E a própria universidade chegou a se manifestar dizendo que ela não tinha… a confusão foi tanta que era assim, que ela não tinha nada a ver com esse estudo. Porque o pessoal começou a discutir: “Mas e cadê o comitê de ética da universidade?”. Porque os caras fizeram um estudo sem avisar as pessoas que elas estavam participando, etc. E simplesmente usaram a ideia de que, se tu aceitou os termos, então eles
(20:02) podiam te usar para fazer o estudo. Então, isso foi publicado com o nome do pessoal todo lá do Face que participou. E eles, efetivamente, demonstraram a possibilidade de contágio emocional em massa, que é significativo. Quando a gente fala em pesquisa, tem essa coisa que é significativa. O contágio emocional dentro daquele grupo que eles fizeram o estudo… Ele diz que “estados emocionais podem ser transferidos a outras pessoas via contágio emocional, levando as pessoas a experimentar…”
(20:36) “Experienciar” é terrível, mas horrível essa palavra. A experimentar, talvez, as mesmas emoções sem “without awareness”, sem a sua consciência, sem estarem conscientes disso. E por que isso está aqui? Gente, esse estudo mostra, em 2012, algo que ainda passa despercebido. Mas o que este estudo demonstra, e o que todas as redes sociais, talvez umas mais, outras menos, foram fazendo depois de 2012, foi se aproveitar dessa possibilidade de os próprios mantenedores da rede realizarem em ti certas mudanças, certas
(21:28) induções. Primeiro, induções que alguns poderiam dizer que hoje chegariam até mesmo a manipulações. Assim, a forma como tudo isso funciona hoje, sem entrar no fato de se estão ou não manipulando, me parece que sim, em alguns casos. A própria questão das compras. Será que a gente sabe o que a gente compra mesmo? As pessoas, de maneira geral… A gente ainda bloqueia, né, Vinícius? Além de usarmos pouquíssimo as redes sociais, a gente bloqueia nos nossos navegadores. É muito engraçado quando eu vejo o navegador de uma outra pessoa com propaganda. É uma outra
(22:05) internet. Nossa, é outra coisa, é outra internet. Mas a grande maioria das pessoas acaba sendo levada a certos comportamentos. As empresas sabem disso, e a infraestrutura de redes sociais existente hoje permite, se eles quiserem, realizar isso de forma comprovada pelo estudo: contágio emocional, manipulação ou, ao menos, indução das pessoas em larga escala. 2012, então, compra o Instagram e é feito o IPO, um dos maiores à época em 2012, do Facebook. 2013, vem o caso Prism, que a gente falou aqui já. Em 2013, já gravávamos o
(22:54) podcast Segurança Legal, e o Facebook era uma das empresas a que o governo americano teve acesso. Então, tem episódio aí se você quiser entender o caso Prism. Já vai fazer 12 anos, né, Vinícius? Parece que foi ontem. 2014, é engraçado, também vai fazer 11 anos, mas em 2014, o WhatsApp é comprado. E o WhatsApp, também, essa é uma outra coisa, embora não seja bem uma rede social, é um aplicativo de comunicação, ele passa a ter algumas funções de redes sociais com grupos, hoje. Mas o Facebook
(23:30) compra, e depois de 2014, 11 anos, por 19 bilhões, compra o WhatsApp. O WhatsApp acabou entrando nas discussões do Facebook quando, por exemplo, políticas de dados que são gerados… Porque no WhatsApp a conversa pode ser criptografada, mas quem falou с quem, você sabe com quem a pessoa falou, com qual frequência e o horário. Então, esses metadados podem ser importantes para uma série de outras funções, e de fato, o Facebook usa essas informações. Teve toda aquela questão aqui no Brasil dos consentimentos, e enfim, isso também aconteceu e envolveu
(24:10) as inter-relações entre todas essas redes. 2016, aí tem todo aquele problema. Aí, sim, já começa a alegação de fake news e teorias da conspiração nas eleições, inclusive com a promoção de anúncios para influenciar as eleições dos Estados Unidos. E aí, dizem, Guilherme, dizem, quando a gente for entrar lá, a gente vai voltar nesse evento, porque esse momento é muito importante no que diz respeito à preocupação de regulação e punição das redes nos Estados Unidos, que leva
(24:49) mais tarde ao desentendimento com o governo Biden. Mas, aí, depois, isso fica para o futuro. [Música] Pois ali, em 2017, tem um vídeo, também vai ficar no show notes, do Sean Parker. Esse vídeo, Guilherme, eu vou fazer o seguinte: eu vou botar o vídeo aqui para vocês verem, sem áudio, e eu vou dizer para vocês o que foi dito em português. Ele diz o seguinte: “Só Deus sabe o que isso está fazendo com o cérebro de nossas crianças”. Ele está falando do Facebook, e ele foi o primeiro presidente do Facebook. E ele
(25:26) disse: “Esse processo de pensamento era todo focado em: ‘Como podemos consumir ao máximo o seu tempo e a sua atenção consciente?’. E isso significa que precisamos dar a você uma pequena dose de dopamina de vez em quando, por meio de curtidas, etc. E isso vai fazer com que você contribua com mais conteúdo, e isso vai gerar mais curtidas e comentários”. É um ciclo de retroalimentação de validação social. É isso que ele está falando nesse vídeo. E ele fala: “Os criadores”, ele está falando do Facebook, “os criadores do Facebook entendiam isso
(25:58) conscientemente e, mesmo assim, nós fizemos”. Não tem toda a conversa aqui, não estou dizendo tudo o que ele falou, mas estes são só os principais destaques. Mas o que ele fala nesse vídeo é que eles encontraram um jeito de hackear a mente humana, sabe? E quando ele fala esse “hackear” é muito interessante. Deixa eu ver se acho a expressão dele aqui. É nesse momento aqui que ele fala de hackear. E ele se dá conta, e é nesse momento que ele está comentando isso. Eu lembro desse vídeo. Então, isso aqui aconteceu em 2017, em que
(26:39) ele vem… ele era o presidente, já era ex-presidente do Facebook, mas foi o primeiro. Então, ele está admitindo que o objetivo é, efetivamente, manipular as pessoas e de forma consciente. Então, ex-presidente do Facebook, e o primeiro. Sim, isso foi em 2017, pré-Cambridge Analytica, que o Vinícius já vai falar um pouco sobre. Mas eu só quero destacar uma coisa aqui que eu acho importante: isso demonstra que eles já estavam conscientes de que a presença na rede
(27:18) social é importante. Fazendo um cálculo muito simples e básico: quanto mais pessoas ficarem mais tempo dentro da minha rede, mais publicidade eu vendo. Claro, exato. Então, a busca por presença, por engajamento, chegou a um momento em que a busca pela presença acabou culminando na busca pelo engajamento. Porque quanto mais engajamento você tiver, mais tempo você passa lá. Pega uma coisa muito simples: o Instagram tem uma feature, para mim não é uma feature, mas certamente para eles é, você não consegue colocar links no Instagram. Você já percebeu
(27:59) isso? Eu quero te… “Ah, tem essa reportagem aqui”. Eu não consigo colocar um link para a reportagem. Eu tenho que, no browser, copiar aquele link. Por quê? Porque eu quero que você fique mais tempo lá. O X, hoje, traz menos conteúdos que te tiram do X. Ele coloca tweets que tenham links, no algoritmo de recomendação, ele recomenda menos. Então, se eles perceberam tudo isso e, se num primeiro momento, perceberam que podiam fazer isso para vender publicidade, passaram a se perguntar: “Mas,
(28:38) se eu consigo fazer isso para vender publicidade, o que mais eu posso fazer com esta máquina?”. O Max Fisher, existem muitos livros sobre tudo isso que a gente está falando, mas acho que o do Max Fisher, “A Máquina do Caos”, explica um pouco essas possibilidades. E aí vem a pergunta: o que mais que eu posso fazer se eu consigo vender coisas para as pessoas? O que mais eu consigo fazer com essa máquina que eu tenho nas mãos? E eu acho que o caso Cambridge Analytica, em 2018, demonstra um pouco isso, Vinícius. É só conclusão, é talvez
(29:09) praticamente o ápice, pelo menos até 2018, daquilo que a gente já vinha vendo. Então, eles fazem aquele estudo do contágio emocional. 2017, o Sean Parker deixa bem claro que eles sabem o que está acontecendo e querem explorar isso, estão hackeando os seres humanos para fazer com que eles fiquem mais tempo na plataforma. E, em 18, a Cambridge Analytica, que, por meio de um pesquisador que tinha um certo acesso no Facebook, ele teria abusado desse acesso sem conhecimento do Facebook. Ele fez uma análise comportamental das pessoas, ele fez, então, um sistema que,
(29:44) acessando os dados das pessoas no Facebook, ele começou a fazer posts e campanhas voltadas para manipular as pessoas dentro do contexto de cada uma delas, botando medo em uma para que ela não vá votar, botando medo na outra para que ela vote de uma forma x ou y. E isso foi um escândalo. Eles chegaram a acessar os dados de cerca de 50 milhões de pessoas e deu uma, vamos dizer, uma grande confusão. Não sei se tu queres acrescentar algum detalhe aí, Guilherme. Mas isso foi utilizado para manipular a eleição. Foi
(30:22) utilizado para manipular ou para não manipular, mas para influenciar de maneira significativa as eleições. Foi utilizado para influenciar a questão do Brexit. E, nesse caso, dizem que teve um papel fundamental nessa questão do Brexit. Os ingleses estão meio arrependidos, mas não têm muito o que fazer agora. Tem um vídeo do Channel 4, uma matéria com tudo isso muito bem documentado. E aí, o Zuckerberg é chamado, então, para uma audiência no
(31:00) Senado para falar sobre isso. Então, a gente tem mais informações sobre isso lá no episódio 148, Guilherme, que é o episódio do Cambridge Analytica, e 149. 48, Cambridge Analytica; 49, audiência no Senado. Então, 48 e 49, que são a sequência dessas ocorrências. Bom, e aí vai. 2019, multa de 5 bilhões pela FTC por violação de privacidade. 2020, denúncias de que o Facebook tem negligenciado o controle de conteúdo de desinformação na Índia,
(31:42) o que teria causado, inclusive, danos físicos para as pessoas. Também tem reportagem aqui. 2021, a whistleblower Frances Haugen trouxe uma série de documentos mostrando algumas das práticas internas bem problemáticas, seja tratando políticos e celebridades de forma diferente nas suas questões de moderação e, principalmente, documentos internos demonstrando que eles tinham ciência de como o Instagram afetava a saúde mental, principalmente de meninas, de adolescentes. Isso é muito importante, porque a gente está falando sobre todos esses problemas, essas
(32:16) questões que a gente viu até hoje, mas não podemos esquecer que também tem adolescentes — crianças não deveriam, mas temos adolescentes — dentro dessas redes também, e que, eventualmente, um afrouxamento de certos controles pode causar problemas para essas pessoas. 2021, vazamento de dados de 533 milhões de pessoas. E, a partir daí, o Facebook começa a se envolver mais… Eu acho que dá para parar aqui em 2021, até pelo tempo, Vinícius. Mas começa a ter uma série de envolvimentos políticos mais evidentes. A gente vai falar um pouco depois do caso de Myanmar, que foi muito
(32:56) muito crítico. Sim, isso, a ONU, inclusive, trouxe relatórios comprovando que a negligência, pelo menos na moderação de certos conteúdos de desinformação, levaram a um problema de eliminação étnica dentro de Myanmar. Lembrando, tudo isso que nós falamos está documentado. Vamos tocar o áudio, Vinícius? Vamos lá. E essas várias coisas que tu citou aí, Guilherme, essa questão da multa de 5 bilhões, Cambridge Analytica, o início daquela coisa no Senado e tal, isso teria começado a balançar o tal do acordo que
(33:38) nós vamos falar no próximo episódio. Deixa eu botar aqui, então, o vídeo dele com o nosso áudio, pera aí. “Ei, pessoal. Quero falar sobre algo importante hoje, porque é hora de voltarmos às nossas raízes em torno da livre expressão no Facebook e Instagram. Eu comecei a criar redes sociais para dar voz às pessoas. Fiz um discurso em Georgetown há 5 anos sobre a importância de proteger a livre expressão e ainda acredito nisso hoje. Mas muita coisa aconteceu nos últimos anos. Houve um grande debate sobre possíveis danos causados por conteúdo
(34:12) online. Governos e a mídia tradicional pressionaram cada vez mais por censura. Boa parte disso é claramente política, mas também existem coisas realmente ruins por aí: drogas, terrorismo, exploração infantil. Levamos tudo isso muito a sério e quero ter certeza de que lidamos com responsabilidade. Por isso, construímos vários sistemas complexos para moderar conteúdo. O problema com sistemas complexos é que eles cometem erros. Mesmo que censurem acidentalmente apenas 1% das publicações, isso afeta milhões de pessoas. Chegamos a um ponto em que há
(34:47) erros demais e censura demais. As eleições recentes também parecem ser um ponto de inflexão cultural para voltarmos a priorizar a liberdade de expressão. Então, vamos retornar às nossas raízes e focar em reduzir erros, simplificar nossas políticas e restaurar a livre expressão em nossas plataformas. Mais especificamente, aqui está o que faremos. Primeiro, vamos nos livrar dos verificadores de fatos e substituí-los por notas da comunidade, semelhantes às do X, começando nos EUA. Depois que Trump foi eleito pela primeira vez em 2016, a
(35:21) mídia tradicional falava sem parar sobre como a desinformação era uma ameaça à democracia. Tentamos, de boa fé, tratar essas preocupações sem nos tornarmos os árbitros da verdade, mas os verificadores de fatos se mostraram muito tendenciosos politicamente e acabaram destruindo mais confiança do que criaram, especialmente nos EUA. Ao longo dos próximos meses, vamos introduzir um sistema de notas da comunidade mais abrangente. Segundo, vamos simplificar nossas políticas de conteúdo e acabar com uma série de restrições sobre assuntos como imigração e gênero que estão distantes do discurso
(35:56) predominante. O que começou como um movimento para ser mais inclusivo passou a ser usado cada vez mais para silenciar opiniões e excluir pessoas com ideias diferentes, e isso foi longe demais. Quero ter certeza de que as pessoas possam compartilhar suas crenças e experiências em nossas plataformas. Terceiro, vamos mudar a forma como aplicamos nossas políticas para reduzir os erros que representam a maior parte da censura em nossas plataformas. Antes, tínhamos filtros que analisavam qualquer violação de política. Agora, vamos focar esses
(36:28) filtros em violações ilegais e de alta gravidade. Para violações de menor gravidade, vamos depender de alguém sinalizando o problema antes de tomarmos uma atitude. O problema é que os filtros cometem erros e removem muito conteúdo que não deveriam. Então, ao reduzir a atuação deles, vamos diminuir drasticamente a quantidade de censura em nossas plataformas. Também vamos ajustar nossos filtros de conteúdo para exigir muito mais confiança antes de remover qualquer publicação. A realidade é que isso é uma troca. Significa que vamos interceptar menos conteúdo nocivo, mas
(37:00) também vamos diminuir o número de posts e contas de pessoas inocentes que removemos acidentalmente. Quarto, vamos trazer de volta conteúdo cívico. Por um tempo, a comunidade pediu para ver menos política porque isso os deixava estressados, então paramos de recomendar essas publicações. Mas parece que estamos em uma nova era agora e começamos a receber feedback de que as pessoas querem ver esse conteúdo de novo. Então, vamos começar a reintroduzi-lo no Facebook, Instagram e Threads, tentando manter as comunidades acolhedoras e positivas. Quinto, vamos
(37:34) transferir nossas equipes de segurança, confiança e moderação de conteúdo para fora da Califórnia, e nossa revisão de conteúdo nos EUA ficará baseada no Texas. À medida que trabalhamos para promover a livre expressão, acho que isso vai ajudar a construir confiança ao fazermos esse trabalho em lugares onde há menos preocupações sobre a parcialidade de nossas equipes. Por fim, vamos trabalhar com o presidente Trump para resistir aos governos ao redor do mundo que estão agindo contra empresas americanas e pressionando por mais censura. Os Estados Unidos têm as proteções constitucionais
(38:05) mais fortes do mundo em relação à livre expressão. A Europa tem um número cada vez maior de leis que institucionalizam a censura e dificultam a criação de qualquer coisa inovadora por lá. Países da América Latina têm tribunais secretos que podem ordenar que as empresas removam conteúdo silenciosamente. A China censurou nossos aplicativos, impedindo seu funcionamento no país. A única maneira de resistir a essa tendência global é com o apoio do governo dos EUA, e é por isso que tem sido tão difícil nos últimos 4 anos, quando até o governo americano pressionou pela censura, agindo
(38:37) contra nós e outras empresas do país, encorajando outros governos a irem ainda mais longe. Mas agora temos a oportunidade de restaurar a liberdade de expressão. Estou empolgado em aproveitá-la. Vai levar tempo para fazer isso direito, e esses sistemas são complexos. Nunca serão perfeitos. Também há muito conteúdo ilegal que ainda precisamos remover com muito cuidado. Mas, em resumo, depois de anos focando nosso trabalho de moderação na remoção de conteúdo, chegou a hora de focar em reduzir erros, simplificar nossos
(39:08) sistemas e voltar às nossas raízes de dar voz às pessoas. Estou ansioso por este próximo capítulo. Fiquem bem por aí e mais novidades em breve.” Nós não vamos tecer comentários nesse momento sobre o que ele falou, porque tem coisas que são reais e tem coisas que, obviamente, são exageros ou até não são realidade. Mas a gente vai parar por aqui, para que você, dado esse histórico que a gente deu, e agora com essa ação do Facebook após a vitória do Trump, isso tem que ficar bem claro, e que gerou toda essa discussão, a gente vai
(39:53) voltar no episódio número… na segunda parte deste episódio para discutir os desdobramentos disso, discutir o que ele disse, os impactos disso. E faça você também a sua análise, Guilherme, para a gente chegar numas… E tenta fazer de uma maneira fria, porque, dependendo de como, com que olhar, se a gente misturar política na história — e tem política misturada na história, isso que torna mais difícil —, dependendo da visão que você tem, você vai encontrar problemas diferentes nessa história. Então, a gente vai tentar, considerando o
(40:34) histórico que a gente tem aqui, considerando o que ele disse e fatos que a gente consegue levantar, a gente vai tentar jogar um pouco mais de luz sobre essa atual situação. Certo? É isso aí, Guilherme. Bom, então, eu acho que era isso. Dividido em dois episódios, então, fique atento para que agora, em fevereiro, também… As modificações… Enquanto a gente falava, eu já vi, teve uma nova notícia aqui: o governo tinha certas ligações com o Facebook para realização de
(41:12) controles de desinformação, sobretudo nas eleições, inclusive com o TSE. E parece que essas parcerias do governo com as redes sociais para conter desinformação, eles estão bem preocupados de que isso pode desaparecer. Não acredito que irá desaparecer. Então, o fato ainda está acontecendo, o que também nos motiva a dividir isso em duas partes, porque você que acompanha o Segurança Legal sabe que a gente gosta de ter uma certa distância dos fatos. E eu acho que esse período dessa distância vai nos permitir fazer isso.
(41:50) Vinícius, e eu, enquanto isso, estava procurando o podcast. Mas não estou encontrando, Vinícius, porque ele está no meu outro telefone. Achei, achei aqui. O pod… é que eu tenho um telefone só de podcasts. Estação Brasil é um podcast sobre história. O cara é professor de História, evidentemente. Quer dizer, evidentemente não, mas ele tem 64 episódios já e é muito interessante, porque você vai encontrar… Eu tenho lido um pouco mais sobre o período imperial, o período colonial e
(42:36) tal. Então, você tem, ele fala sobre o período, primeiro reinado, segundo reinado. Então, essa parte que eu tenho lido, ele explica bem e traz uma série de coisas sobre a história do Brasil: Segunda Guerra, FHC e Lula, aproximações, Brasil Imperial, Brasil colonial, faz algumas ligações com literatura, “Memórias Póstumas de Brás Cubas”, fala sobre Gilberto Freire, critica um pouco a ditadura militar, aí tem quatro episódios. Enfim, quem gosta de história, eu estou gostando, faz ligação com música, Semana da Arte Moderna de 1922. Então,
(43:17) estou gostando, estou ouvindo aos poucos aqui, estou gostando. Então, fica a recomendação, a pedido do Vinícius. Eu nem ia recomendar, mas… Perfeito, perfeito. Então, tá, Guilherme. Bom, vamos encerrar aqui. Depois, a gente tem mais uns minutinhos ali no YouTube para quem estiver acompanhando, e aí eu vou dar mais algumas informações extras para quem está no YouTube. Esperamos que, para quem está no YouTube, dê o joinha. Se não deu o joinha, para de assistir. Mas, assim, pessoal que está aqui, então,
(43:48) no feed, muito obrigado por terem nos acompanhado até aqui e esperamos nos encontrar em breve, no próximo episódio do podcast Segurança Legal. Até a próxima. Até a próxima, Guilherme. Eu achei onde deu o rebu. Quando eu copiei aqui, deixa eu só ver. Por alguma razão, ele não está copiando toda a transcrição, o que é muito estranho. Já peguei vídeos bem mais longos… Ah, não, cara, está certo aqui. Está inteirinho. Faltou um ponto só aqui no final, mas o nosso problema foi no ChatGPT, que eu fui fazer a tradução.
(44:43) Quando eu fiz a tradução, quando eu copiei e colei lá para fazer a tradução, entrou no limite de caracteres do GPT. Então, eu vou tirar de novo agora, vou fazer de novo, vou gerar o áudio de novo e vou colocar, vamos anexar no final aqui do vídeo. Uhum. Então, para você que acompanhou até agora, pode ouvir todo o áudio completo. Pode pular para a parte que ele estava falando ali para não atrapalhar no meio do caminho, e a gente ajusta. A gente vai ajustar na edição. Então, para quem vai ouvir, vai ouvir o áudio completo. Aí tu pode colocar com um sinalzinho: “Ó, pessoal, aqui está
(45:29) ajustado”. Daí toca a ficha, vê como tu faz melhor. Eu vejo o que eu faço. Ou, numa dessa, Guilherme, até como a gente tem a oportunidade de editar o vídeo antes de subir, a gente pode… Então, quem estiver assistindo aqui, talvez a gente tenha editado o vídeo, dado uma pausa, estendido ali um pouco a parte do áudio, só dar um “repete” ali o vídeo que a gente está parado ouvindo ele, dá um looping ali e a gente coloca todo o áudio dali embaixo também. Pode ser, acho que também rola. Se a gente fez isso ou não, quando
(46:00) você está ouvindo isso aqui, você já descobriu o que aconteceu. Já é passado. Boas férias, bom recesso. Obrigado, até fevereiro. Um beijo. Outro. Valeu, tchau.
By Guilherme Goulart e Vinícius Serafim4
77 ratings
Neste episódio comentamos o histórico da Meta e suas controvérsias. Você irá descobrir a jornada do Facebook, desde a sua criação em Harvard até as polêmicas que moldaram as redes sociais que conhecemos hoje.
Guilherme Goulart e Vinícius Serafim analisam a evolução do Facebook, que se tornou a gigante Meta. A discussão aprofunda-se nas principais controvérsias que marcaram a empresa, como o escândalo Cambridge Analytica e o estudo sobre contágio emocional, que expuseram a fragilidade da privacidade e da proteção de dados dos usuários. O episódio aborda como o algoritmo e as políticas de moderação de conteúdo foram desenvolvidos para maximizar o engajamento, levantando debates sobre manipulação e desinformação. Com as novas diretrizes de Mark Zuckerberg focadas na livre expressão em detrimento dos verificadores de fatos, a segurança da informação nas redes sociais entra em uma nova era, desafiando a futura regulamentação e o combate às fake news. Assine, siga e avalie para não perder nenhum episódio.
ShowNotes
Transcrição do Episódio
(00:01) [Música] Sejam todos muito bem-vindos e bem-vindas. Estamos de volta com o Segurança Legal, o seu podcast de segurança da informação e direito da tecnologia. Eu sou o Guilherme Goulart e aqui comigo está o meu amigo Vinícius Serafim. E aí, Vinícius, tudo bem? E aí, Guilherme, tudo bem? Olá, aos nossos ouvintes. Estamos de volta no nosso primeiro episódio de 2025. Sempre lembrando que, para nós, é fundamental a participação de todos por meio de perguntas, críticas e sugestões de tema. Então, a gente está lá no podcast @s
(00:37) segurancalegal.com, YouTube, Mastodon, Blue Sky e Instagram, né, Vinícius? Então, se você quer nos acompanhar, pode buscar uma dessas formas. Ali também temos a nossa campanha de financiamento coletivo, você já sabe. Só um parêntese aqui, Vinícius, a gente sempre repete isso. 2025 começa… Se você nos acompanha, sempre ouve essa parte inicial aqui, mas é importante também para quem está chegando agora ou, às vezes, quem quer se comunicar com a gente. Eu comecei a ouvir um podcast novo de história e o cara não falava, não falava lá sobre o pix e o Apoia-se,
(01:18) mas ele não falava como entrar em contato com ele. Não conseguia achar o cara na internet, por incrível que pareça. Bom podcast, bom. Depois eu te passo aqui, mas é bom, de história. Bom, agora você tem que dar a dica. Ah, mas depois eu pego. Enquanto você estiver falando, tu cata e dá a dica. Então, no final do episódio de hoje, o Guilherme vai dar a dica do podcast de história. Fique até o fim. Fim, é a única coisa que vai importar no episódio.
(01:44) História. Só, Guilherme, uma coisa que agora eu esqueci: quando tu leu o início ali, tu disse 2024 ou 2025? Porque no roteiro está 2024. Não, aquela parte ali do roteiro é da gravação que a gente faz depois. Ah, depois. Então, que susto, porque eu não lembro de ter falado aquilo. Vamos. Mas já aconteceu outras vezes. Vinícius, tem o apoia.se/
(02:08) segurancalegal. Contribua com o projeto independente de produção de conteúdo e você vai ter acesso ao nosso grupo lá do Telegram e, também, eventualmente a sorteios. A gente acabou de fazer os sorteios das canecas. Enfim, blog da Brown Pipe, visite lá no brownpipe.
(02:27) com.br, que é a empresa que mantém este podcast desde o seu início. Também o mailing semanal, você pode se inscrever e receber algumas das notícias mais importantes lá no blog da Brown Pipe. Também temos os e-books, então tem o e-book de gestão de incidentes, o e-book “Entendendo a LGPD” e, mais recentemente, o e-book da rede hoteleira, bem nichado, bem específico. A gente está fazendo algumas coisas nesse sentido também. E aqui no YouTube, muito importante: se você está nos assistindo no YouTube, é importante. Todo mundo que vê YouTube sabe que
(02:58) os caras sempre falam isso: curta, se inscreva, assine o sininho. Mas é importante também que a gente diga isso. O próprio algoritmo valoriza vídeos que buscam engajamento. Então, se você puder, dê uma olhada, dá aquela moral para nós. Uma moralzinha para a gente que está vendo no YouTube, né, Guilherme? E também, lembrando que neste canal do YouTube, se você está vendo aqui ou se está só ouvindo, vai lá depois no nosso canal. Tem também alguns materiais que eu gravei no ano passado ainda.
(03:31) Bem interessante sobre segurança da informação, alguns até bem práticos. Um deles foi “Autenticação para Devs”, se não me engano. Acho que foi o nome que eu dei. Você vai na parte “ao vivo” e vai encontrar vários desses conteúdos lá. São coisas bem práticas, bem mão na massa e úteis, eu acho. Vamos lá. Eu tenho certeza que sim. Eu tenho certeza também, mas aí é mais para os iniciados, porque aqui… E hoje, eu acho que o episódio de hoje, você já sabe qual é o assunto, comprova um pouco a forma como a gente tem
(04:06) de lidar com alguns assuntos. Esse tema de hoje, do problema do Facebook, da Meta de maneira geral, grupo Meta, que abrange as redes sociais. O Facebook é apenas uma delas, a gente fala Facebook, mas é a Meta. Porque, e agora vai uma provocada, do problema ou da solução, dependendo de quem vê. E por que esse tema está aqui? É um podcast de Direito da tecnologia, segurança da informação и proteção de dados também, mas a gente, eventualmente, ao longo desses 13 anos, Vinícius, que estamos no
(04:39) ar, nós gostamos de trazer questões relacionadas a essa temática de tecnologia e sociedade, a aplicação de todas essas ferramentas, modelos e instituições tecnológicas para a nossa vida cotidiana. E a gente entende que é um tema importante. Então, dentre esses 383 episódios passados, você vai encontrar várias coisas nessa linha, inclusive o tema Facebook/Meta, mas antes, Facebook já passou por aqui pelo Segurança Legal outras vezes. E foi no ano de 2018, foi o ano do Facebook aqui no Segurança Legal, porque lá a gente teve o
(05:23) episódio 148, do caso Cambridge Analytica, que a gente vai comentar um pouquinho hoje; 149, “We Run Ads”. Vinícius, a gente até estava conversando qual foi o episódio das audiências no senado americano que o Zuckerberg participou depois do caso Cambridge Analytica. Foi o “We Run Ads”. O título se deve ao fato de terem feito uma pergunta para ele como ele ganhava dinheiro, e ele diz: “We run ads”. Inclusive, o episódio começa com essa frase dele. Depois nós tivemos o 173, “Incidente do Facebook”, e o 182, “Amigo do Rei” também, que a gente falou sobre alguns problemas e algumas questões
(06:05) relacionadas a certos aplicativos terem acessos especiais aos dados do Facebook. Tudo isso lá em 2018. Então, nós vamos dividir este tema de hoje em algumas formas aqui. Primeiro, nós vamos fazer este episódio dividido em duas partes, parte um e parte dois. Hoje, nós vamos fazer a retomada de alguns eventos passados do Facebook e também a colocação do problema. Fique aqui porque nós vamos, inclusive, rodar um áudio traduzido do Zuckerberg, falando naqueles áudios de 5 minutos em que ele fala as mudanças que vão ocorrer. Então, a gente fez ele falar português.
(06:51) A gente fez ele falar. A gente não, o Vinícius fez umas magias ali. Então, você vai ouvir. Tem muita ferramenta pronta, não é magia. Eu achei que fosse mágica, mas é só tecnologia. Então, você vai ouvi-lo em português. Fique aqui para ouvir todo o áudio mesmo. E depois, a gente vai falar um pouco sobre o problema de maneira geral, para no episódio seguinte… E aí, nós teremos um hiato de férias, de recesso. Então, teremos um hiato e, lá em fevereiro, você vai ouvir as
(07:26) questões mais críticas, as críticas que chegaram e atualizações, atualizações, atualizações até lá e conclusões. Algumas das nossas conclusões, algumas delas também relacionadas ao cenário da segurança da informação, porque a gente entende que isso vai ter algum impacto. Bom, o Facebook ele começa, e aí vai me interrompendo, Vinícius, lá em 2003. Na verdade, em 2003, o Zuckerberg e dois amigos criaram um jogo que era o Facemash, em que mostravam fotos de estudantes. Facemash, em que ele pode até conferir, mas,
(08:07) às vezes, a pauta nos trai. Mas eles pegavam fotos dos estudantes lá de Harvard. Ele era de Harvard, o Zuckerberg, e se escolhia quem era o mais atraente. Esse foi o embrião do que viria a ser o Facebook. E as fontes já históricas, interessante pensar nisso, já se vão 20 e poucos anos, dizem que ele hackeou o sistema da faculdade de Harvard, o Zuckerberg, para pegar essas fotos para alimentar o sistema dele. E isso culminou numa investigação interna, um processo interno administrativo da faculdade, da universidade contra ele. E aqui,
(08:53) a gente vai trazer também alguns fatos um pouco problemáticos, porque a gente sabe que este tema é cercado de preferências políticas. Isso é totalmente natural. Enfim, você pode achar ótimo quando alguma rede social se alinha com as suas preferências políticas, mas é importante dizer que, primeiro, essas empresas começaram, muitas vezes, em cenários bem delicados, complexos e envolvendo uma série de problemas. Mas, assim, elas desde o início começaram visando, me parece, Vinícius, ser
(09:29) um agente isento, o mais isento possível. E parece que o que ocorre agora já traz uma mudança nesse cenário todo. 2004, aí sim, ele começa a escrever o código do que seria o “The Facebook”, que foi lançado em fevereiro desse ano. Lembrando que a palavra “Facebook” se refere àqueles anuais das universidades americanas, aqueles livros com a foto. Você põe a foto de todo mundo, não só universidade, pessoal de segundo grau também, escola. Então, é uma coisa bem americana, a gente vê em filmes, às vezes. Então, a ideia inicial era essa. 2004 marca um
(10:11) fato aqui que a gente já comentou várias vezes neste nosso podcast: que o Zuckerberg chamou os usuários do Facebook de “dumb fucks” quando perguntaram para ele: “mas como que as pessoas te entregaram os dados?”. E ele disse: “Olha, eu simplesmente pedi”. Isso tem uma reportagem. Outra coisa, pessoal, tudo que nós falamos aqui são coisas totalmente documentadas. A gente vai trazer um caminhão de links. Eventualmente, uma ou outra coisa pode faltar aqui, mas a gente buscou
(10:51) documentar tudo que a gente está colocando aqui, porque a gente sabe que também é um tema delicado. Então, ele chama as pessoas… Diga. E só lembrando, tu está certo, é o Facemash mesmo, não um “Face match”. É uma confusão frequente, tá? É uma confusão frequente. Eu estou sempre certo, né, cara? É, sim, sim, tu está sempre certo. Vai, segue. Minha mãe diz que eu sou lindo, e eu acredito nela. Então, ele chama as pessoas de “dumb fucks”, ou seja, idiotas, abobados, sei lá qual seria a tradução disso, por justamente colocar uma preocupação: “Como é que as pessoas
(11:29) estão te dando tanta informação?”. “Eu pedi e elas estão me dando”. Na época, isso representava um problema. Hoje, de fato, o mundo mudou tanto em 21 anos que já não é mais um problema. Essa semana mesmo a gente viu pessoas vendendo íris lá em São Paulo, mas esse é um outro tema, esse é um outro assunto para o Segurança Legal, outros problemas. 2025 começou de um jeito inesperado. Está bem, está ótimo. Vinícius, outra coisa, e isso é uma das coisas que mais me chama a atenção no Facebook e nas redes
(12:04) sociais inteiras, é que em 2006 ele cria o news feed. Inventa, ou ele inventa. Me parece que foi ele que inventou isso ou, se não inventou, pelo menos foi o primeiro que fez um news feed que ganhou uso massivo. Uma coisa que realmente todo mundo passou a saber o que era um feed. E todas as redes, eu acho, que usam a ideia do news feed até hoje. Acho que sim, porque quando a gente pega… Não, deve ter alguma outra meio aleatória assim, mas tu pega LinkedIn, Blue Sky, o X, o Instagram,
(12:43) Threads, o próprio Face, é tudo na base do news feed. Tem uma nova rede de fotos agora, “Foto”, também. O pessoal do Blue Sky já começou a desenvolver um novo Instagram baseado no mesmo protocolo deles e que vai conversar com o Blue Sky também, aqueles protocolos abertos. Então, a criação do news feed eu acho que muda tudo. Permite aquela coisa também que vem depois, eu até não tenho o ano, mas é o feed infinito. E esse, sim, é uma coisa muito problemática, porque a ideia de todas essas plataformas, depois, se tornou, no início não era assim, mas
(13:19) depois se tornou, fazer com que você fique cada vez mais tempo lá dentro. E para que você fique cada vez mais tempo lá dentro, você precisa de mais conteúdo. Porque antes, como era? Não sei o pessoal que nos ouve, a gente já tem cabelo branco, né, Vinícius? Mas, antigamente, eu não tenho mais nem cabelo. Mas em 2004 eu tinha. Então, eu queria ver o que o Vinícius fez. Então eu entrava no perfil do Vinícius e via: “Ah, o Vinícius fez tal coisa”. O Orkut também era bem assim. E aí, com o
(13:52) news feed, eu consigo ver o que todos os meus amigos fizeram. Se você colocar lá no YouTube “primeiro news feed”, em inglês, você vê os caras ensinando como desabilitar o news feed, porque no início não foi uma coisa que o pessoal gostou. “Não, eu não quero ver o que um amigo meu aleatório está fazendo, eu quero ter o controle sobre o que eu vejo”. E 2006 foi, talvez, um primeiro passo em que isso caiu. Quer falar alguma coisa? Não, não, pode ir. Isso é mais um relato, assim. Como tu disse, a parte de opinião, de
(14:25) conclusões e tudo mais, a análise mesmo, a gente vai deixar para a parte dois. Aqui é mais um histórico mesmo da coisa e trazer o que está vindo adiante. Uhum. Bom, 2007, criação do Beacon, que era uma questão que se conectava com lojas. Então, você fazia uma compra numa loja e aparecia no feed que você interagiu com aquela loja. No início, o opt-out era difícil, depois virou opt-in. E a gente buscou também trazer aqui alguns exemplos, obviamente, de coisas não só importantes, mas também
(15:01) problemáticas e críticas. Isso hoje é uma zona, né, Guilherme? Isso, hoje, não tem aplicativo que tu olhe que não tenha uma integração com o Facebook, mas enfim. Sim, importante dizer que não é aquele beacon de ficar te perseguindo na internet, como às vezes ocorre com os cookies. Aqui, “Beacon” mesmo era o nome de uma integração de lojas com o Facebook, mas a gente também tem o beacon que faz às vezes de um cookie, mas isso é outro problema. 2012, eles mudam a sistemática de acesso. E aí vai ser interessante porque tem um
(15:43) link ali também do TechCrunch que mostrava como era antes. A gente até já abordou esse, se quiser mostrar aí, Vinícius, na tela. A gente tem esses elementos aqui. Esse link aqui mostra a mudança que ocorre lá em 2012 na sistemática de acesso. Ou seja, houve um momento ali, hoje isso… Houve um momento que era muito comum que eu tivesse uma série de aplicativinhos que ficavam consumindo os dados do Facebook. Joguinhos… Teve o grande momento do Angry Birds. Hoje, o Angry Birds é um produto, filme e brinquedos,
(16:24) mas era um joguinho lá das antigas. E ele precisava de um consentimento, e 2012 marcou um pouco a forma como eles passaram a deixar esse consentimento mais diluído ao longo do tempo. E isso, ali em 2012, fica bem claro. A gente foi perdendo o controle que nós tínhamos sobre o que a gente queria fazer dentro da rede. E esses fatos passados aqui mostram um pouco isso. Mas a própria relação que a empresa tinha com os nossos dados foi se alterando ao longo do tempo. Então, isso ocorre em 2012. Esses aplicativos podiam
(17:06) postar em nome da pessoa dentro da própria rede, seja para mostrar “fulano de tal está jogando Fazendinha”. Não lembro se Fazendinha… Ah, não, Fazendinha tinha, tinha. Eu lembro, tinha. Quando eu usava o Face ainda, eu via muita gente jogando Fazendinha. Fazendinha não era do Orkut? Agora estou em dúvida. Não, tinha no Face, cara. Tinha no Face. Até eu lembro de pensar: “O que o pessoal tem tempo de ficar fazendo isso?”. Mas, enfim. 2012 também, Vinícius, isso
(17:37) ocorreu em 2012, mas foi revelado em 2014. Aconteceu algo que a gente falou diversas vezes aqui nesses 13 anos que estamos gravando, que foi aquele infame estudo feito no Facebook. Não sei se tu quer falar um pouquinho sobre ele também, do contágio emocional. O Vinícius sempre comenta, sempre traz. Eu trago esse estudo. Eu acho que ele já deve estar nos show notes de alguns episódios, esse estudo. Mas é um estudo que, se tu procurar por “PNAS” e “Facebook emotional”, ah, tenho aqui já.
(18:23) tu vai achar esse cara. A gente vai botar de novo o link lá para vocês poderem olhar. Faltou o link desse aqui, mas sim. Não, eu já estou com ele aqui, ó: “Experimental Evidence of Massive-Scale Emotional Contagion Through Social Networks”. Então, está de novo essa “tralha” aqui. Mas, enfim, nesse artigo, os próprios funcionários do Facebook fizeram um estudo para ver se era possível o contágio emocional em massa. E não vamos dar detalhes desse artigo aqui agora, a gente já falou várias vezes, mas, no final das contas, chegaram à conclusão
(18:59) que sim, que é significativo o contágio emocional. Eles analisaram seiscentas e poucas mil… Eles usaram no estudo seiscentas e poucas mil pessoas. Elas не foram informadas que estavam participando do estudo, e eles manipularam justamente a timeline dessas pessoas, o news feed dessas pessoas, para coisas mais positivas, mais negativas e depois mediram o impacto vendo a reação dessas pessoas nas suas próprias postagens. E isso gerou uma baita confusão. A universidade citada lá, não vou falar o nome agora porque não lembro o nome
(19:30) da universidade onde o estudo foi feito. Não sei se tu tem à mão aí, se tu consegue ver, Guilherme. Ah, Princeton. E a própria universidade chegou a se manifestar dizendo que ela não tinha… a confusão foi tanta que era assim, que ela não tinha nada a ver com esse estudo. Porque o pessoal começou a discutir: “Mas e cadê o comitê de ética da universidade?”. Porque os caras fizeram um estudo sem avisar as pessoas que elas estavam participando, etc. E simplesmente usaram a ideia de que, se tu aceitou os termos, então eles
(20:02) podiam te usar para fazer o estudo. Então, isso foi publicado com o nome do pessoal todo lá do Face que participou. E eles, efetivamente, demonstraram a possibilidade de contágio emocional em massa, que é significativo. Quando a gente fala em pesquisa, tem essa coisa que é significativa. O contágio emocional dentro daquele grupo que eles fizeram o estudo… Ele diz que “estados emocionais podem ser transferidos a outras pessoas via contágio emocional, levando as pessoas a experimentar…”
(20:36) “Experienciar” é terrível, mas horrível essa palavra. A experimentar, talvez, as mesmas emoções sem “without awareness”, sem a sua consciência, sem estarem conscientes disso. E por que isso está aqui? Gente, esse estudo mostra, em 2012, algo que ainda passa despercebido. Mas o que este estudo demonstra, e o que todas as redes sociais, talvez umas mais, outras menos, foram fazendo depois de 2012, foi se aproveitar dessa possibilidade de os próprios mantenedores da rede realizarem em ti certas mudanças, certas
(21:28) induções. Primeiro, induções que alguns poderiam dizer que hoje chegariam até mesmo a manipulações. Assim, a forma como tudo isso funciona hoje, sem entrar no fato de se estão ou não manipulando, me parece que sim, em alguns casos. A própria questão das compras. Será que a gente sabe o que a gente compra mesmo? As pessoas, de maneira geral… A gente ainda bloqueia, né, Vinícius? Além de usarmos pouquíssimo as redes sociais, a gente bloqueia nos nossos navegadores. É muito engraçado quando eu vejo o navegador de uma outra pessoa com propaganda. É uma outra
(22:05) internet. Nossa, é outra coisa, é outra internet. Mas a grande maioria das pessoas acaba sendo levada a certos comportamentos. As empresas sabem disso, e a infraestrutura de redes sociais existente hoje permite, se eles quiserem, realizar isso de forma comprovada pelo estudo: contágio emocional, manipulação ou, ao menos, indução das pessoas em larga escala. 2012, então, compra o Instagram e é feito o IPO, um dos maiores à época em 2012, do Facebook. 2013, vem o caso Prism, que a gente falou aqui já. Em 2013, já gravávamos o
(22:54) podcast Segurança Legal, e o Facebook era uma das empresas a que o governo americano teve acesso. Então, tem episódio aí se você quiser entender o caso Prism. Já vai fazer 12 anos, né, Vinícius? Parece que foi ontem. 2014, é engraçado, também vai fazer 11 anos, mas em 2014, o WhatsApp é comprado. E o WhatsApp, também, essa é uma outra coisa, embora não seja bem uma rede social, é um aplicativo de comunicação, ele passa a ter algumas funções de redes sociais com grupos, hoje. Mas o Facebook
(23:30) compra, e depois de 2014, 11 anos, por 19 bilhões, compra o WhatsApp. O WhatsApp acabou entrando nas discussões do Facebook quando, por exemplo, políticas de dados que são gerados… Porque no WhatsApp a conversa pode ser criptografada, mas quem falou с quem, você sabe com quem a pessoa falou, com qual frequência e o horário. Então, esses metadados podem ser importantes para uma série de outras funções, e de fato, o Facebook usa essas informações. Teve toda aquela questão aqui no Brasil dos consentimentos, e enfim, isso também aconteceu e envolveu
(24:10) as inter-relações entre todas essas redes. 2016, aí tem todo aquele problema. Aí, sim, já começa a alegação de fake news e teorias da conspiração nas eleições, inclusive com a promoção de anúncios para influenciar as eleições dos Estados Unidos. E aí, dizem, Guilherme, dizem, quando a gente for entrar lá, a gente vai voltar nesse evento, porque esse momento é muito importante no que diz respeito à preocupação de regulação e punição das redes nos Estados Unidos, que leva
(24:49) mais tarde ao desentendimento com o governo Biden. Mas, aí, depois, isso fica para o futuro. [Música] Pois ali, em 2017, tem um vídeo, também vai ficar no show notes, do Sean Parker. Esse vídeo, Guilherme, eu vou fazer o seguinte: eu vou botar o vídeo aqui para vocês verem, sem áudio, e eu vou dizer para vocês o que foi dito em português. Ele diz o seguinte: “Só Deus sabe o que isso está fazendo com o cérebro de nossas crianças”. Ele está falando do Facebook, e ele foi o primeiro presidente do Facebook. E ele
(25:26) disse: “Esse processo de pensamento era todo focado em: ‘Como podemos consumir ao máximo o seu tempo e a sua atenção consciente?’. E isso significa que precisamos dar a você uma pequena dose de dopamina de vez em quando, por meio de curtidas, etc. E isso vai fazer com que você contribua com mais conteúdo, e isso vai gerar mais curtidas e comentários”. É um ciclo de retroalimentação de validação social. É isso que ele está falando nesse vídeo. E ele fala: “Os criadores”, ele está falando do Facebook, “os criadores do Facebook entendiam isso
(25:58) conscientemente e, mesmo assim, nós fizemos”. Não tem toda a conversa aqui, não estou dizendo tudo o que ele falou, mas estes são só os principais destaques. Mas o que ele fala nesse vídeo é que eles encontraram um jeito de hackear a mente humana, sabe? E quando ele fala esse “hackear” é muito interessante. Deixa eu ver se acho a expressão dele aqui. É nesse momento aqui que ele fala de hackear. E ele se dá conta, e é nesse momento que ele está comentando isso. Eu lembro desse vídeo. Então, isso aqui aconteceu em 2017, em que
(26:39) ele vem… ele era o presidente, já era ex-presidente do Facebook, mas foi o primeiro. Então, ele está admitindo que o objetivo é, efetivamente, manipular as pessoas e de forma consciente. Então, ex-presidente do Facebook, e o primeiro. Sim, isso foi em 2017, pré-Cambridge Analytica, que o Vinícius já vai falar um pouco sobre. Mas eu só quero destacar uma coisa aqui que eu acho importante: isso demonstra que eles já estavam conscientes de que a presença na rede
(27:18) social é importante. Fazendo um cálculo muito simples e básico: quanto mais pessoas ficarem mais tempo dentro da minha rede, mais publicidade eu vendo. Claro, exato. Então, a busca por presença, por engajamento, chegou a um momento em que a busca pela presença acabou culminando na busca pelo engajamento. Porque quanto mais engajamento você tiver, mais tempo você passa lá. Pega uma coisa muito simples: o Instagram tem uma feature, para mim não é uma feature, mas certamente para eles é, você não consegue colocar links no Instagram. Você já percebeu
(27:59) isso? Eu quero te… “Ah, tem essa reportagem aqui”. Eu não consigo colocar um link para a reportagem. Eu tenho que, no browser, copiar aquele link. Por quê? Porque eu quero que você fique mais tempo lá. O X, hoje, traz menos conteúdos que te tiram do X. Ele coloca tweets que tenham links, no algoritmo de recomendação, ele recomenda menos. Então, se eles perceberam tudo isso e, se num primeiro momento, perceberam que podiam fazer isso para vender publicidade, passaram a se perguntar: “Mas,
(28:38) se eu consigo fazer isso para vender publicidade, o que mais eu posso fazer com esta máquina?”. O Max Fisher, existem muitos livros sobre tudo isso que a gente está falando, mas acho que o do Max Fisher, “A Máquina do Caos”, explica um pouco essas possibilidades. E aí vem a pergunta: o que mais que eu posso fazer se eu consigo vender coisas para as pessoas? O que mais eu consigo fazer com essa máquina que eu tenho nas mãos? E eu acho que o caso Cambridge Analytica, em 2018, demonstra um pouco isso, Vinícius. É só conclusão, é talvez
(29:09) praticamente o ápice, pelo menos até 2018, daquilo que a gente já vinha vendo. Então, eles fazem aquele estudo do contágio emocional. 2017, o Sean Parker deixa bem claro que eles sabem o que está acontecendo e querem explorar isso, estão hackeando os seres humanos para fazer com que eles fiquem mais tempo na plataforma. E, em 18, a Cambridge Analytica, que, por meio de um pesquisador que tinha um certo acesso no Facebook, ele teria abusado desse acesso sem conhecimento do Facebook. Ele fez uma análise comportamental das pessoas, ele fez, então, um sistema que,
(29:44) acessando os dados das pessoas no Facebook, ele começou a fazer posts e campanhas voltadas para manipular as pessoas dentro do contexto de cada uma delas, botando medo em uma para que ela não vá votar, botando medo na outra para que ela vote de uma forma x ou y. E isso foi um escândalo. Eles chegaram a acessar os dados de cerca de 50 milhões de pessoas e deu uma, vamos dizer, uma grande confusão. Não sei se tu queres acrescentar algum detalhe aí, Guilherme. Mas isso foi utilizado para manipular a eleição. Foi
(30:22) utilizado para manipular ou para não manipular, mas para influenciar de maneira significativa as eleições. Foi utilizado para influenciar a questão do Brexit. E, nesse caso, dizem que teve um papel fundamental nessa questão do Brexit. Os ingleses estão meio arrependidos, mas não têm muito o que fazer agora. Tem um vídeo do Channel 4, uma matéria com tudo isso muito bem documentado. E aí, o Zuckerberg é chamado, então, para uma audiência no
(31:00) Senado para falar sobre isso. Então, a gente tem mais informações sobre isso lá no episódio 148, Guilherme, que é o episódio do Cambridge Analytica, e 149. 48, Cambridge Analytica; 49, audiência no Senado. Então, 48 e 49, que são a sequência dessas ocorrências. Bom, e aí vai. 2019, multa de 5 bilhões pela FTC por violação de privacidade. 2020, denúncias de que o Facebook tem negligenciado o controle de conteúdo de desinformação na Índia,
(31:42) o que teria causado, inclusive, danos físicos para as pessoas. Também tem reportagem aqui. 2021, a whistleblower Frances Haugen trouxe uma série de documentos mostrando algumas das práticas internas bem problemáticas, seja tratando políticos e celebridades de forma diferente nas suas questões de moderação e, principalmente, documentos internos demonstrando que eles tinham ciência de como o Instagram afetava a saúde mental, principalmente de meninas, de adolescentes. Isso é muito importante, porque a gente está falando sobre todos esses problemas, essas
(32:16) questões que a gente viu até hoje, mas não podemos esquecer que também tem adolescentes — crianças não deveriam, mas temos adolescentes — dentro dessas redes também, e que, eventualmente, um afrouxamento de certos controles pode causar problemas para essas pessoas. 2021, vazamento de dados de 533 milhões de pessoas. E, a partir daí, o Facebook começa a se envolver mais… Eu acho que dá para parar aqui em 2021, até pelo tempo, Vinícius. Mas começa a ter uma série de envolvimentos políticos mais evidentes. A gente vai falar um pouco depois do caso de Myanmar, que foi muito
(32:56) muito crítico. Sim, isso, a ONU, inclusive, trouxe relatórios comprovando que a negligência, pelo menos na moderação de certos conteúdos de desinformação, levaram a um problema de eliminação étnica dentro de Myanmar. Lembrando, tudo isso que nós falamos está documentado. Vamos tocar o áudio, Vinícius? Vamos lá. E essas várias coisas que tu citou aí, Guilherme, essa questão da multa de 5 bilhões, Cambridge Analytica, o início daquela coisa no Senado e tal, isso teria começado a balançar o tal do acordo que
(33:38) nós vamos falar no próximo episódio. Deixa eu botar aqui, então, o vídeo dele com o nosso áudio, pera aí. “Ei, pessoal. Quero falar sobre algo importante hoje, porque é hora de voltarmos às nossas raízes em torno da livre expressão no Facebook e Instagram. Eu comecei a criar redes sociais para dar voz às pessoas. Fiz um discurso em Georgetown há 5 anos sobre a importância de proteger a livre expressão e ainda acredito nisso hoje. Mas muita coisa aconteceu nos últimos anos. Houve um grande debate sobre possíveis danos causados por conteúdo
(34:12) online. Governos e a mídia tradicional pressionaram cada vez mais por censura. Boa parte disso é claramente política, mas também existem coisas realmente ruins por aí: drogas, terrorismo, exploração infantil. Levamos tudo isso muito a sério e quero ter certeza de que lidamos com responsabilidade. Por isso, construímos vários sistemas complexos para moderar conteúdo. O problema com sistemas complexos é que eles cometem erros. Mesmo que censurem acidentalmente apenas 1% das publicações, isso afeta milhões de pessoas. Chegamos a um ponto em que há
(34:47) erros demais e censura demais. As eleições recentes também parecem ser um ponto de inflexão cultural para voltarmos a priorizar a liberdade de expressão. Então, vamos retornar às nossas raízes e focar em reduzir erros, simplificar nossas políticas e restaurar a livre expressão em nossas plataformas. Mais especificamente, aqui está o que faremos. Primeiro, vamos nos livrar dos verificadores de fatos e substituí-los por notas da comunidade, semelhantes às do X, começando nos EUA. Depois que Trump foi eleito pela primeira vez em 2016, a
(35:21) mídia tradicional falava sem parar sobre como a desinformação era uma ameaça à democracia. Tentamos, de boa fé, tratar essas preocupações sem nos tornarmos os árbitros da verdade, mas os verificadores de fatos se mostraram muito tendenciosos politicamente e acabaram destruindo mais confiança do que criaram, especialmente nos EUA. Ao longo dos próximos meses, vamos introduzir um sistema de notas da comunidade mais abrangente. Segundo, vamos simplificar nossas políticas de conteúdo e acabar com uma série de restrições sobre assuntos como imigração e gênero que estão distantes do discurso
(35:56) predominante. O que começou como um movimento para ser mais inclusivo passou a ser usado cada vez mais para silenciar opiniões e excluir pessoas com ideias diferentes, e isso foi longe demais. Quero ter certeza de que as pessoas possam compartilhar suas crenças e experiências em nossas plataformas. Terceiro, vamos mudar a forma como aplicamos nossas políticas para reduzir os erros que representam a maior parte da censura em nossas plataformas. Antes, tínhamos filtros que analisavam qualquer violação de política. Agora, vamos focar esses
(36:28) filtros em violações ilegais e de alta gravidade. Para violações de menor gravidade, vamos depender de alguém sinalizando o problema antes de tomarmos uma atitude. O problema é que os filtros cometem erros e removem muito conteúdo que não deveriam. Então, ao reduzir a atuação deles, vamos diminuir drasticamente a quantidade de censura em nossas plataformas. Também vamos ajustar nossos filtros de conteúdo para exigir muito mais confiança antes de remover qualquer publicação. A realidade é que isso é uma troca. Significa que vamos interceptar menos conteúdo nocivo, mas
(37:00) também vamos diminuir o número de posts e contas de pessoas inocentes que removemos acidentalmente. Quarto, vamos trazer de volta conteúdo cívico. Por um tempo, a comunidade pediu para ver menos política porque isso os deixava estressados, então paramos de recomendar essas publicações. Mas parece que estamos em uma nova era agora e começamos a receber feedback de que as pessoas querem ver esse conteúdo de novo. Então, vamos começar a reintroduzi-lo no Facebook, Instagram e Threads, tentando manter as comunidades acolhedoras e positivas. Quinto, vamos
(37:34) transferir nossas equipes de segurança, confiança e moderação de conteúdo para fora da Califórnia, e nossa revisão de conteúdo nos EUA ficará baseada no Texas. À medida que trabalhamos para promover a livre expressão, acho que isso vai ajudar a construir confiança ao fazermos esse trabalho em lugares onde há menos preocupações sobre a parcialidade de nossas equipes. Por fim, vamos trabalhar com o presidente Trump para resistir aos governos ao redor do mundo que estão agindo contra empresas americanas e pressionando por mais censura. Os Estados Unidos têm as proteções constitucionais
(38:05) mais fortes do mundo em relação à livre expressão. A Europa tem um número cada vez maior de leis que institucionalizam a censura e dificultam a criação de qualquer coisa inovadora por lá. Países da América Latina têm tribunais secretos que podem ordenar que as empresas removam conteúdo silenciosamente. A China censurou nossos aplicativos, impedindo seu funcionamento no país. A única maneira de resistir a essa tendência global é com o apoio do governo dos EUA, e é por isso que tem sido tão difícil nos últimos 4 anos, quando até o governo americano pressionou pela censura, agindo
(38:37) contra nós e outras empresas do país, encorajando outros governos a irem ainda mais longe. Mas agora temos a oportunidade de restaurar a liberdade de expressão. Estou empolgado em aproveitá-la. Vai levar tempo para fazer isso direito, e esses sistemas são complexos. Nunca serão perfeitos. Também há muito conteúdo ilegal que ainda precisamos remover com muito cuidado. Mas, em resumo, depois de anos focando nosso trabalho de moderação na remoção de conteúdo, chegou a hora de focar em reduzir erros, simplificar nossos
(39:08) sistemas e voltar às nossas raízes de dar voz às pessoas. Estou ansioso por este próximo capítulo. Fiquem bem por aí e mais novidades em breve.” Nós não vamos tecer comentários nesse momento sobre o que ele falou, porque tem coisas que são reais e tem coisas que, obviamente, são exageros ou até não são realidade. Mas a gente vai parar por aqui, para que você, dado esse histórico que a gente deu, e agora com essa ação do Facebook após a vitória do Trump, isso tem que ficar bem claro, e que gerou toda essa discussão, a gente vai
(39:53) voltar no episódio número… na segunda parte deste episódio para discutir os desdobramentos disso, discutir o que ele disse, os impactos disso. E faça você também a sua análise, Guilherme, para a gente chegar numas… E tenta fazer de uma maneira fria, porque, dependendo de como, com que olhar, se a gente misturar política na história — e tem política misturada na história, isso que torna mais difícil —, dependendo da visão que você tem, você vai encontrar problemas diferentes nessa história. Então, a gente vai tentar, considerando o
(40:34) histórico que a gente tem aqui, considerando o que ele disse e fatos que a gente consegue levantar, a gente vai tentar jogar um pouco mais de luz sobre essa atual situação. Certo? É isso aí, Guilherme. Bom, então, eu acho que era isso. Dividido em dois episódios, então, fique atento para que agora, em fevereiro, também… As modificações… Enquanto a gente falava, eu já vi, teve uma nova notícia aqui: o governo tinha certas ligações com o Facebook para realização de
(41:12) controles de desinformação, sobretudo nas eleições, inclusive com o TSE. E parece que essas parcerias do governo com as redes sociais para conter desinformação, eles estão bem preocupados de que isso pode desaparecer. Não acredito que irá desaparecer. Então, o fato ainda está acontecendo, o que também nos motiva a dividir isso em duas partes, porque você que acompanha o Segurança Legal sabe que a gente gosta de ter uma certa distância dos fatos. E eu acho que esse período dessa distância vai nos permitir fazer isso.
(41:50) Vinícius, e eu, enquanto isso, estava procurando o podcast. Mas não estou encontrando, Vinícius, porque ele está no meu outro telefone. Achei, achei aqui. O pod… é que eu tenho um telefone só de podcasts. Estação Brasil é um podcast sobre história. O cara é professor de História, evidentemente. Quer dizer, evidentemente não, mas ele tem 64 episódios já e é muito interessante, porque você vai encontrar… Eu tenho lido um pouco mais sobre o período imperial, o período colonial e
(42:36) tal. Então, você tem, ele fala sobre o período, primeiro reinado, segundo reinado. Então, essa parte que eu tenho lido, ele explica bem e traz uma série de coisas sobre a história do Brasil: Segunda Guerra, FHC e Lula, aproximações, Brasil Imperial, Brasil colonial, faz algumas ligações com literatura, “Memórias Póstumas de Brás Cubas”, fala sobre Gilberto Freire, critica um pouco a ditadura militar, aí tem quatro episódios. Enfim, quem gosta de história, eu estou gostando, faz ligação com música, Semana da Arte Moderna de 1922. Então,
(43:17) estou gostando, estou ouvindo aos poucos aqui, estou gostando. Então, fica a recomendação, a pedido do Vinícius. Eu nem ia recomendar, mas… Perfeito, perfeito. Então, tá, Guilherme. Bom, vamos encerrar aqui. Depois, a gente tem mais uns minutinhos ali no YouTube para quem estiver acompanhando, e aí eu vou dar mais algumas informações extras para quem está no YouTube. Esperamos que, para quem está no YouTube, dê o joinha. Se não deu o joinha, para de assistir. Mas, assim, pessoal que está aqui, então,
(43:48) no feed, muito obrigado por terem nos acompanhado até aqui e esperamos nos encontrar em breve, no próximo episódio do podcast Segurança Legal. Até a próxima. Até a próxima, Guilherme. Eu achei onde deu o rebu. Quando eu copiei aqui, deixa eu só ver. Por alguma razão, ele não está copiando toda a transcrição, o que é muito estranho. Já peguei vídeos bem mais longos… Ah, não, cara, está certo aqui. Está inteirinho. Faltou um ponto só aqui no final, mas o nosso problema foi no ChatGPT, que eu fui fazer a tradução.
(44:43) Quando eu fiz a tradução, quando eu copiei e colei lá para fazer a tradução, entrou no limite de caracteres do GPT. Então, eu vou tirar de novo agora, vou fazer de novo, vou gerar o áudio de novo e vou colocar, vamos anexar no final aqui do vídeo. Uhum. Então, para você que acompanhou até agora, pode ouvir todo o áudio completo. Pode pular para a parte que ele estava falando ali para não atrapalhar no meio do caminho, e a gente ajusta. A gente vai ajustar na edição. Então, para quem vai ouvir, vai ouvir o áudio completo. Aí tu pode colocar com um sinalzinho: “Ó, pessoal, aqui está
(45:29) ajustado”. Daí toca a ficha, vê como tu faz melhor. Eu vejo o que eu faço. Ou, numa dessa, Guilherme, até como a gente tem a oportunidade de editar o vídeo antes de subir, a gente pode… Então, quem estiver assistindo aqui, talvez a gente tenha editado o vídeo, dado uma pausa, estendido ali um pouco a parte do áudio, só dar um “repete” ali o vídeo que a gente está parado ouvindo ele, dá um looping ali e a gente coloca todo o áudio dali embaixo também. Pode ser, acho que também rola. Se a gente fez isso ou não, quando
(46:00) você está ouvindo isso aqui, você já descobriu o que aconteceu. Já é passado. Boas férias, bom recesso. Obrigado, até fevereiro. Um beijo. Outro. Valeu, tchau.

108 Listeners

111 Listeners

179 Listeners

174 Listeners

91 Listeners

43 Listeners

1,010 Listeners

120 Listeners

78 Listeners

46 Listeners

30 Listeners

20 Listeners

19 Listeners

4 Listeners

0 Listeners