Segurança Legal

Episódio #377 – IA no Ensino


Listen Later

Neste episódio, falamos sobre o guia da UNESCO para a IA Generativa na educação e pesquisa. Você irá descobrir os potenciais, os riscos e os desafios éticos e pedagógicos dessa tecnologia para alunos e professores.​

Aprofundamos a discussão sobre a Inteligência Artificial Generativa na educação e pesquisa, analisando o relatório da UNESCO. O guia aborda os riscos da IA, como a desinformação, o plágio acadêmico e a ampliação da exclusão digital. Comentamos sobre a importância da ética em IA e os desafios pedagógicos que surgem com a adoção dessas ferramentas. A conversa, conduzida por Guilherme Goulart e Vinícius Serafim, passa pela necessidade de desenvolver o pensamento crítico, a influência das big techs e a urgência de políticas educacionais claras. Debatemos também a regulação de IA, o princípio da explicabilidade e o que tudo isso significa para o futuro da aprendizagem. Se você gosta do nosso conteúdo, não se esqueça de seguir, assinar e avaliar o podcast na sua plataforma preferida

Visite nossa campanha de financiamento coletivo e nos apoie!

Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing

 


ShowNotes

  • Guia para a IA generativa na educação e na pesquisa da UNESCO
  • Livro – A fábrica de cretinos digitais: Os perigos das telas para nossas crianças – Michel Desmurget
  • Livro – Faça-os ler!: Para não criar cretinos digitais – Michel Desmurget
  • Livro – Guardrails: Guiding Human Decisions in the Age of AI – Urs Gasser e Viktor Mayer-Schönberger
  • Podcast Uol Prime – A morte não é mais para sempre: os dilemas da vida eterna digital
  • 📝 Transcrição do Episódio

    (00:02) [Música] Sejam todos muito bem-vindos e bem-vindas. Estamos de volta com o Segurança Legal, seu podcast de segurança da informação e direito da tecnologia. Eu sou o Guilherme Goulart e aqui comigo está o meu amigo Vinícius Serafim. E aí, Vinícius, tudo bem? Olá, Guilherme, tudo bem? Olá aos nossos ouvintes. Depois de tanto tempo sem gravar, sempre jogando para a semana seguinte e não dando certo, com trabalho e tudo mais, e os posts caindo. Por duas vezes, cortaram minha fibra ótica em duas sextas-feiras.

    (00:42) A gente está lutando, porque tivemos uma série de problemas técnicos hoje aqui. Agora chegou a gata, mas nós vamos conseguir, vamos vencer esse episódio. Vamos lá. Pior, só contextualizando também, o Archive, que é o nosso host dos MP3 do podcast, sofreu um ataque cibernético que eles classificaram como catastrófico e está já há dois dias fora do ar. Então, nossos episódios estão todos lá. Por enquanto, só vão poder nos assistir no

    (01:18) YouTube. O próximo, este que você deve estar ouvindo, a gente vai colocar em um lugar alternativo, mas está complicada a situação lá, não somente para nós, mas para todo mundo que hospeda material lá. Beleza. Bom, vamos lá. Lembrando sempre que para nós é fundamental a participação de todos por meio de perguntas, críticas e sugestões de temas. Estamos à disposição pelo e-mail no podcast@segurancalegal.

    (01:45) com, no YouTube, no mastodon @[email protected], eu no @direitodatecnologia.com, o Serafin no twitter.com/viniciussemeao e o @segurancalegal no BlueSky. Também temos a nossa campanha de financiamento coletivo lá no apoia.se/segurancalegal. E a gente conclama que vocês ajudem, que vocês colaborem com um projeto independente de produção de conteúdo. A gente vem notado, Vinícius, que os apoios vêm caindo, o que a gente entende como natural, até porque as pessoas, existem hoje cada vez mais iniciativas de apoio, enfim, das

    (02:27) mais variadas. Mas a gente, mais uma vez aqui, pede, para nós é importante. E tem bastante podcast para dividir a atenção. Eu mesmo tenho bastante podcast no meu feed aqui. É a chamada economia da atenção. Mas aqui você tem qualidade, aqui não são aqueles mesmos. Tem um detalhe, a gente quer público, obviamente, a gente quer que você nos ouça e nos indique para outros amigos, mas, ao mesmo tempo, a nossa preocupação aqui não é

    (03:06) trazer as coisas de forma que a gente consiga simplesmente mais atenção, pura e simplesmente. Por isso, a gente traz coisas que julgamos relevantes e que sejam interessantes para você que nos acompanha, até em respeito ao tempo que você dedica a nos escutar. E também, quando você indica para alguém, pode ficar tranquilo que está indicando alguma coisa que é sólida, que faz algum sentido, Guilherme. Não é o único, tem mais informação por aí, mas a gente toma esse cuidado. A gente

    (03:38) não está aí só por causa da atenção. É um pouco que se conecta com o tema de hoje, IA na educação, e como também os conteúdos, os próprios conteúdos educativos, cada vez mais os alunos acabam migrando para coisas mais facilitadas, mais rápidas. Alguns até sequer procuram mais no Google, procuram agora no TikTok. O Guilherme está lá no TikTok dançando e tudo mais. A dança da LGPD. Não tenho feito essas coisas, mas tem conteúdo dessa natureza lá. Eu sei que tem. Estou zoando,

    (04:12) estou zoando porque justamente tem gente que faz para chamar a atenção, tem de tudo. Mas, Vinícius, apoie o podcast Segurança Legal. Se você nos ouve e já apoiou, considere apoiar. Você paga lá R$5 por mês, já é suficiente para ajudar este podcast a continuar existindo. E se você não quiser apoiar com dinheiro, apoie divulgando o projeto, recomende, passe adiante. Apoie comentando lá no YouTube, engajando nos posts, isso ajuda a fazer a divulgação. Claro, aparece mais. Converse

    (04:53) conosco lá no YouTube também, se você estiver nos assistindo por lá. Tem o blog da Brown Pipe, não podemos nos esquecer, Vinícius. Lá no brownpipe.com.br você vai encontrar aquele blog com notícias atualizadas semanalmente, relacionadas a essa nossa área, com curadoria do Guilherme. Exato. E você pode se inscrever no mailing, se quiser receber o mailing semanal ali na sua caixa de e-mail também. Bom, o tema de hoje, a gente ficou três semanas sem gravar, então o próximo café ele vai

    (05:31) ficar mais substancial, vai ser um jarrão de café, porque tem bastante coisa. O Twitter voltou, teve esse incidente com o Archive, teve coisas acontecendo no Brasil de novos incidentes, plataformas vendendo dados. Uma grande plataforma brasileira que está fornecendo dados para vários órgãos governamentais, que pega dados até de bilhetagem de ônibus. Mas aguarde, falaremos no próximo café. Hoje, o tema que a gente já tinha preparado, Vinícius, é que nós vamos

    (06:07) falar sobre o guia da Unesco chamado “Guia para a IA Generativa na Educação e na Pesquisa”. É um grande tema, eu acho que é uma das grandes questões da Inteligência Artificial hoje. Repito aquilo que o nosso amigo Paulo Rená comenta, ele já falou, enfim, mas eu sempre gosto de trazer essa ideia: quais são os problemas que a IA vai resolver para nós ou que a IA vai nos ajudar a resolver? E uma das questões propostas aqui, claro, há críticas e há ponderações que a gente vai fazer, é justamente seu uso no âmbito da educação. E esse guia, ele traz,

    (06:47) ele faz um overview geral, envolvendo questões mais direcionadas para países e para instituições, não é um guia que o estudante propriamente vai usar. Ele está numa perspectiva um pouco mais macro e traz uma série de preocupações. Por exemplo, ele começa a trazer aquele princípio que é um princípio da centralidade do ser humano, um princípio importante e relevante. Quem estuda e escreve na área de Inteligência Artificial vê esse princípio sempre aparecendo, que o ser

    (07:21) humano tem que estar no centro das preocupações para o uso dessas tecnologias. A gente sabe que esse é um baita de um desafio, porque colocar o ser humano no centro das preocupações da IA implica em você confrontar uma série de interesses comerciais. O Vinícius comentava, na verdade, a gente estava discutindo uma hora e meia antes de gravar sobre isso. O Vinícius nos lembrava aqui daquele caso da OpenAI, que aliás, começou Open e agora não é mais Open. Já faz um tempo que não é mais Open.

    (07:53) A história da OpenAI, para quem quiser procurar, até a saída de muita gente que estava no início, inclusive o Ilya Sutskever. A saída dele se deu justamente por discordâncias com relação à segurança do desenvolvimento da Inteligência Artificial. A questão do superalignment, que se chama, tinha um

    (08:33) time de superalinhamento dentro da OpenAI, justamente para garantir a segurança do modelo com relação aos seres humanos. E teve aquele evento antes do Ilya sair, eles tentaram tirar o Sam Altman, derrubaram o Sam Altman do cargo de CEO, e o Sam Altman fez o que fez e conseguiu voltar e detonou com tudo, passou o trator. E por que tiraram ele? Na época, chegaram a dizer que o board perdeu a confiança nele. Mas por que o board perdeu a confiança nele? Porque eles tinham acordado em ter um certo

    (09:12) controle do ritmo de desenvolvimento da IA, para que esse ritmo não fizesse com que a segurança ficasse em segundo plano. A gente não está falando de segurança da informação, está falando de segurança de funcionamento, com essa questão de proteção dos seres humanos e que os resultados sejam próprios para aquilo que você busca, segurança nesse sentido. E o que o Sam Altman estava fazendo? Ele estava dizendo uma coisa dentro da OpenAI e fazendo outra, ou seja, estava comprando empresa e contratando gente para desenvolver

    (09:44) chip, para treinar mais rápido os modelos, estava acelerando. Então, isso gerou uma confusão na época, derrubaram ele. Não lembro se deu 24 horas que ele ficou fora, mas ele conseguiu voltar. E no que ele voltou com força total, a galera começou a sair fora. Não que ele tirou, o pessoal resolveu sair mesmo. E o Ilya fundou uma nova empresa, se eu não estou enganado, é Safe AI. Ele funda uma nova empresa de

    (10:21) segurança da Inteligência Artificial, focada na segurança da IA, no safety da IA. E é uma empresa aí que está com 3, 4 meses de existência e os caras conseguiram levantar uma boa grana. De novo, assim como tudo, qualquer serviço de IA tem que pagar por mês, qualquer levantamento de investimento em IA, a gente está falando de alguns bilhões. Então eles conseguiram levantar os bilhões deles também para tocar essa empresa adiante. A gente vê que a OpenAI não é mais Open, já não é

    (10:58) há um bom tempo, é fechada. Quando a gente fala em safety aqui, eu não sei exatamente qual é a proposta deles, mas para as regulações, de maneira geral, sobretudo o AI Act, mas também os projetos de lei que a gente tem aqui no Brasil, vão mais ou menos nessa mesma linha. Mais uma vez, a gente bebe na fonte europeia, que é tanto você avaliar e definir certos usos da Inteligência Artificial que seriam de alto risco ou até mesmo proibidos, e outros que não teriam riscos tão grandes.

    (11:35) Mas você tem uma abordagem no risco. E o guia faz isso, ele avalia os riscos no uso, sobretudo porque, e esse é um dos pontos que a gente levantava antes, uma coisa é você usar o ChatGPT para escrever um e-mail, outra coisa é você usar ferramentas de IA generativa para educação de pessoas, sobretudo para educação de crianças. E até porque a educação de crianças e a educação de adultos também difere, sobretudo nas medidas pedagógicas, que eu acho que é um problema também que a gente vai falar. Quais são os

    (12:11) riscos mais ou menos identificados aqui? Primeiro, para esses valores humanos, para o agir humano. Lembrando que isso é a Unesco que está trazendo, não a gente. É o guia, a partir de agora é guia que a gente fala. Para o agir humano e para a própria agência humana e de que forma as nossas decisões importantes podem ser impactadas pela Inteligência Artificial. Inclusão, equidade, igualdade de gênero, diversidades linguísticas e culturais. Isso é muito importante e passa desde o uso de modelos que sejam

    (12:50) treinados para respeitar, sobretudo, diversidades linguísticas e culturais. A gente sabe que há uma prevalência, embora as IAs generativas que a gente conhece hoje sejam muito boas para fazer traduções, mas é inegável que ela tem uma prevalência do inglês. Então, se você for pensar em locais mais pobres, em países da África, por exemplo, que vão certamente estar utilizando línguas não muito faladas ou não muito presentes na internet, você pode afetar demais ou até mesmo excluir esse tipo de

    (13:26) grupo do uso dessas ferramentas. Então, também esse embasamento e a própria, você colocar nesses contextos opiniões, expressões culturais e plurais também, é um grande desafio. E é um grande desafio, sobretudo, porque a gente não sabe direito com as ferramentas que a gente tem hoje exatamente como elas são treinadas. E aí eles começam a colocar diretrizes para governos e para instituições. Fica bastante claro que a preocupação é com essa questão dos riscos e também colocar as IAs generativas dentro de um contexto de adequação ética e

    (14:04) pedagógica. E, professor, você tem experiência com isso, trabalha numa universidade também, e a gente vê que é muito comum nesses ambientes você usar uma tecnologia simplesmente por usar, para dizer que está usando. Quando usa. Na verdade, eu ia pegar o “quando usa”, porque o que eu já vi dessas lousas eletrônicas e não sei o quê em universidades por aí, não foi nenhuma nem duas, eu vi em algumas. Dei aula em alguns lugares e, quando tu vê, está aquele negócio pegando pó, ninguém mais sabe nem como funciona. Exatamente. No fundo, no fundo,

    (14:45) não pode ser uma expressão de uma educação que promova valores humanos válidos. E com o uso de tecnologias de maneira geral, não pode ser simplesmente você jogar aquilo para dentro dos ambientes. Quando joga, o exemplo das lousas é muito bom, fica largado, abandonado. Mas na verdade, e agora eu falo isso como o professor Guilherme, em verdade, em verdade vos digo, é que a gente sequer conseguiu integrar o computador e a internet dentro de uma pedagogia

    (15:30) bem estabelecida. Eu falo isso por mim, na minha área, que é o Direito. Eu sei que na área da tecnologia da informação, que é a área que o Vinícius atua, certamente a coisa é diferente. O cara está estudando engenharia da computação, ele vai… Tem um certo uso. Mas veja, você precisa inserir essas ferramentas, essas tecnologias, dentro de um contexto pedagógico. Porque o que eu vejo muito hoje na minha realidade, saindo um pouquinho, são alunos do curso de Direito fazendo trabalhos no celular, escrevendo trabalhos substanciais no

    (16:09) celular. Mas aí que está, quando tu gasta R$7.000 num celular, tu normalmente opta entre o celular e um bom notebook. Exatamente. E um ótimo notebook. Você compra um Mac com 7.000. Mac não, Macbook, claro que não. Por sete… Ah, não compro, mas não compro de jeito nenhum. Mas beleza, a gente está lidando com uma situação que… Eu percebi claramente isso, até a própria faculdade vinha num movimento de precisar de menos computadores em laboratório porque quase todos os alunos tinham seus próprios notebooks.

    (16:48) E de uns anos para cá, a coisa se inverteu. Tem cada vez menos notebook e a galera está com cada vez mais celular. Porque o pessoal vai lá e gasta 6, 7 mil no celular e não compra um notebook. “Ah, eu não tenho notebook.” Pô, mas tu está com um celular de R$7.000, amigo. O que tu está fazendo? “Ah, não tenho o notebook.” Porque não precisa, faz tudo ali e tal. Não duvido que tenha gente já fazendo TCC digitando com os dedões. Não duvido, não duvido.

    (17:22) Então. Agora vou dizer uma coisa que vai ficar muito louco: com IA generativa, talvez precise menos ainda dos dedos para gerar um TCC no celular. Mas fecha o meu parênteses. Os riscos trazidos pelo guia, um deles… Então, tu tens essa característica. Quanto é o Mac mais barato que eu encontrei aí? Macbook? 6.200, 6.300, 5.400. É, mas assim, R$5.500, um 2020, 8GB de RAM e 256. Mas, enfim, é um computador. Sim, sim, de boa. Tá, mas beleza. E aí é isso,

    (18:05) eu acho que a gente ainda tem… E isso o relatório também fala, quando ele começa a falar sobre o que a gente vai resolver. Ele diz exatamente: um dos problemas enfrentados pelos sistemas educacionais ao redor do mundo, ou seja, a IA sozinha não vai resolver qualquer um desses problemas. Ao lidar com problemas educacionais de longa data, é fundamental afirmar que a capacidade humana em ação coletiva, e não a tecnologia, são os fatores determinantes para se chegar a soluções

    (18:36) eficazes. É uma baita de uma constatação que eles colocam aqui. Lê mais devagar, tu leu muito rápido. O relatório aponta que a IA, sozinha, provavelmente não vai resolver qualquer um dos problemas enfrentados pelos sistemas educacionais ao redor do mundo. Ao lidar com os problemas educacionais de longa data, é fundamental afirmar que a capacidade humana e a ação coletiva, e não a tecnologia, são os fatores determinantes para se chegar a soluções eficazes. E isso vai de encontro ao que

    (19:12) as próprias universidades muitas vezes fazem quando lidam com a tecnologia. Primeiro, por não levar em consideração essa abordagem centrada no ser humano, por ignorar muitas vezes tecnologias que já estão dadas e sendo usadas por alunos, e outras vezes por tentar trazer tecnologias já totalmente superadas para o ambiente acadêmico. A gente não, me refiro ao Brasil, a gente não conseguiu lidar muito bem com isso ainda. E pior, nós temos problemas, se a gente for falar em educação básica, de escolas que não têm banheiro.

    (19:50) Você nota que os contextos de uso da Inteligência Artificial são contextos também que vão passar pela riqueza dos países e das populações envolvidas. Dentro de uma mesma cidade, você vai ter escolas caríssimas com todas as ferramentas possíveis e você vai ter escolas que não têm banheiro. Então isso é um problema. Claro, não é o foco da nossa fala aqui, mas a gente não pode ignorar isso, porque senão fica muito fácil. Joga Inteligência Artificial lá e deu. Então, isso é uma questão importante. Eu acho que eles não abordaram com a devida

    (20:33) profundidade a questão da dominância das big techs. Embora isso não tenha ficado claro, me parece que os interesses comerciais dessas grandes empresas podem sim entrar em conflito com esses objetivos dos valores humanos. E isso já acontece um pouco quando a gente fala em sites e serviços abertos na internet que acabam tratando dados de crianças. A própria Microsoft teve aqueles casos lá com a Prefeitura de São Paulo, tratando dados de alunos e de professores. Ou seja, você já tem certas tendências que

    (21:08) acredito que elas não desapareceriam com o uso de IA também, porque são tendências ligadas à big tech. E uma outra constatação que a gente faz aqui no Brasil, porque o uso da IA, sobretudo a generativa, por alunos já é uma coisa dada, Vinícius. Professores também, mas eu já vejo isso no meu cotidiano, uma coisa muito comum, os alunos estão muito mais rápidos, digamos assim, no uso. Eu tenho, claro, estou olhando num universo bem restrito, Guilherme. Eu tenho conversado com professores da faculdade aqui da cidade, de alguns cursos, eu

    (21:50) andei trocando alguma ideia com eles, e o que eu pude perceber é que eles já percebem que os alunos estão utilizando direto para fazer trabalho. Já se dão conta, ou no mínimo já desconfiam que isso está acontecendo. Mas eles mesmos não entendem muito bem como funciona, como se utiliza, o que dá para fazer. Eles ficam surpresos quando tu mostra um produto como o mais famoso, ChatGPT, um produto pago funcionando, ou quando tu mostra um Perplexity da vida, que a gente já comentou algumas

    (22:26) vezes aqui, funcionando, eles ficam apavorados. Ou seja, eles não têm a real noção do que realmente dá para fazer. E os alunos têm uma tendência, até pela ociosidade de tempo, talvez por uma abertura, por estarem mais receptivos a novas tecnologias, a experimentar coisas novas, eles acabam sendo os primeiros a experimentar. Claro que eu estou falando isso de um universo bem limitado, super limitado. Não tem um estudo que mostre, mas assim, a gente, claro, é uma coisa um pouco intuitiva, a gente não pode ignorar. O conhecimento é assim, a gente parte

    (23:10) também das nossas experiências para projetar possíveis cenários. Não parece que é algo que não esteja acontecendo, embora não tenha uma pesquisa nesse sentido. Agora, as faculdades e universidades, de maneira geral, elas também têm uma parcela de culpa, porque a sua grande maioria já deveria ter políticas muito claras sobre isso e também promover não somente treinamentos, mas políticas sobre como os próprios professores devem lidar

    (23:50) com isso. Veja, a Unesco tem esse relatório, é uma coisa que já está dada, mas eu trago um outro problema que as universidades brasileiras ainda não resolveram. As escolas estão começando a cogitar, com alguns projetos de lei, se não me engano no Rio de Janeiro, nesse sentido, que é o problema do uso do celular na sala de aula. O celular, a gente sabe, é uma baita de uma ferramenta que pode ser usada em contextos educacionais, aquelas ferramentas do Google, realidade aumentada para

    (24:22) pirâmide, sei lá o quê, aulas de História. Você tem uma série de usos interessantes, mas esse uso não está sendo feito. O uso que se faz do celular hoje nas salas de aula, nas séries iniciais e também na faculdade, é muito para você sair dali, para você se desviar do que está acontecendo. Então, vejam, a gente ainda tem outros problemas em relação à tecnologia que ainda sequer estão sendo debatidos nas universidades. Você não debate,

    (24:57) as universidades não estão dando aos professores meios para lidar com o fato de que, às vezes, você tem mais da metade da turma imersa em outros assuntos. E, claro, o professor que se preocupa com os alunos, ele fica preocupado, porque fica meio que num cenário de difícil de lidar. Então, quando eu coloco ainda Inteligência Artificial entre outros problemas que nós precisamos resolver, eu acho que as instituições estão ficando para trás e estão perdendo o passo.

    (25:30) A questão é que eu não colocaria a IA propriamente como um problema, assim como eu não creio que a internet seja necessariamente um problema ou que o celular seja o problema. A questão é a forma como essas coisas acabam sendo utilizadas, que aí sim são um grande problema. A gente está falando aqui de graduação, dos nossos alunos, na nossa experiência. Mas eu tenho filhos pequenos que estão na escola e tenho conversado com alguns professores, e o pessoal percebe

    (26:07) um problema bem sério, que é essa questão do uso de celulares por crianças. Tem coleguinhas da minha filha, que são crianças pequenas, que não estão na primeira série ainda, que têm Instagram. Rede social, a gente já comentou, já citou o livro aqui “A Geração Ansiosa”, você pode procurar, está disponível para venda em português. “A Geração Ansiosa” demonstra uma clara relação entre essas redes sociais como Instagram, TikTok, etc., e depressão em

    (26:52) adolescentes, principalmente meninas. Então, a gente já tem problemas sérios com relação a isso. Eu já, volta e meia, pego uma carona no ônibus que leva meu filho até a escola e cansei de ver criança grudada no canto do ônibus, olhando só para o celular, jogando. E aí independe do tipo de jogo, mas jogando, em vez de estarem interagindo uns com os outros, em vez de estarem ali brincando, discutindo,

    (27:25) daqui a pouco vai estar um em cada canto com um celular. Então, a gente já tem problema com mau uso de tecnologia. Não precisa necessariamente proibir a tecnologia, mas o mau uso está sendo percebido como um problema. Tanto que é uma discussão bastante grande nos Estados Unidos. Teve o retorno das aulas lá há umas duas ou três semanas, e qual foi a grande discussão nacional? Era que os alunos

    (27:56) estavam chegando em escolas que tinham banido o celular. Algumas baniram, outras exigiram que o celular fosse deixado num certo lugar antes de ir para a aula. Isso gerou uma boa de uma discussão. E a coisa está sendo tratada em nível de vício. Tem adolescentes admitindo que estavam viciados, que sentem falta, mas que se sentem melhores sem o celular disponível. Essa é uma discussão que a gente já está tendo. Nota que quando a gente está falando de Inteligência Artificial, a IA por si

    (28:35) só não é um problema. O problema é a maneira como tu vai empregá-la. Eu já disse, inclusive para professores do meu filho mais velho, “Olha, eu estou usando IA com ele, estou usando ChatGPT”. “Ah, mas está usando para quê? Para pegar resposta de problema?” Não, é um uso orientado. Então, eu oriento ele como ele deve utilizar, acompanho a utilização que ele faz, e é uma ferramenta extremamente útil. Ele já estudou inglês com auxílio do ChatGPT, ele já estudou

    (29:11) inglês, biologia, matemática. Então é útil, tu tens bons usos para isso. Assim como a internet, quando começou a ficar efetivamente acessível, a galera entrou numa piração de que todo mundo ia copiar tudo da internet. E como alguns fizeram. Eu, no primeiro semestre que dei aula, fazia tempo que não via isso, peguei um aluno só, isso aconteceu uma vez só. O cara me apareceu com o trabalho da Universidade da Bahia impresso, botou o nome dele e esqueceu de tirar uma série

    (29:48) de coisas dali. Tive que zerar o trabalho, o cara copiou o trabalho, baixou na internet e botou o nome dele. Quantos não fazem isso com a internet? Não fizeram e não continuam fazendo? Com a IA, o nível de escala é qualitativamente mais problemático e mais complexo do que simplesmente copiar coisas de algum lugar. Mas é mais complexo. Hoje você tem antiplágio. Embora os programas que as instituições oferecem já façam

    (30:25) automaticamente revisão de plágio nas entregas de trabalhos digitais, claro que é um problema, eventualmente passa. Mas parece mais complexo porque você tem situações em que o sujeito não vai ser pego. Daí a importância das políticas dentro das instituições para, de alguma forma, regular, estabelecer esses valores, ensinar de fato, que é o papel das escolas e das universidades, ensinar uma abordagem ética. Porque se a gente parte do pressuposto que essas pessoas, a partir de agora, é um caminho sem volta e todo mundo vai ficar usando isso para o futuro, a gente precisa ensinar as

    (31:04) pessoas a bem usar essas tecnologias. Concordo. Gostei que tu falou no plural ali, “essas tecnologias”, porque eu acho que nem sequer a internet a galera sabe usar direito. E aí tem aquele outro livro, “Os potenciais para a educação”. Sim, sim. E a gente tem aquele outro livro que a gente já citou algumas vezes aqui, que é “A Fábrica de Cretinos Digitais”, do Michel Desmurget. É um livro francês, foi traduzido para o português já há bastante tempo, em que ele coloca

    (31:37) justamente isso, essa incompetência. Sabe usar, é como se fosse o equivalente, com o que ele coloca com relação à internet. A analogia que eu estou fazendo é: é como se tu dissesse que o cara sabe ligar a TV, sabe sintonizar, sabe trocar canais, mas não tem capacidade crítica nenhuma para selecionar o que assistir. Aí o cara vê porcaria na TV. Tem coisa boa na TV? Claro que tem, só que o cara fica com o pior porque ele não tem uma visão crítica da coisa. E é exatamente o que ele coloca: a galerinha que sabe usar

    (32:11) a internet… o pessoal fica “Nossa, meu filho sabe usar internet”. Não dá para confundir saber usar ou acessar a tecnologia, navegar por ali, com ter uma visão crítica do que tem ali e ser capaz de selecionar o que é bom, o que é útil, aquilo que faz sentido. As redes sociais, com um monte de fake news, com um monte de bobagem sendo dita em diversas áreas do conhecimento humano, estão aí para demonstrar justamente isso. Se a coisa chama a atenção, não importa que seja a maior imbecilidade do mundo, a galera compra e se atira.

    (32:49) Sabe usar o Instagram, sabe usar o TikTok, sabe usar o navegador, mas não tem visão crítica para fazer o negócio. Claro, a gente já precisa disso há um bom tempo, porque aquele que não sabe o que está fazendo, ele vai pegar a internet, o navegador e vai copiar um conteúdo, e vai pegar a IA e vai gerar um conteúdo. Sim, ele vai fazer, só muda um pouco o funcionamento. Mas o cara não sabe o que está fazendo. E esse cara, ele

    (33:29) vai ser pego muito fácil no plágio. E pode tornar-se um problema, mas não tem como o cara enganar um professor que está acompanhando ele. Se existe um acompanhamento de um professor, a gente sabe por experiência própria que quando tu bate o olho no negócio, tu diz: “Ah, não foi tu que escreveu. Lamento, mas não foi tu”. A gente tem essa percepção, porque tu conhece o cara, tu

    (34:01) conversa com ele, tu sabe como ele se expressa, e de repente vem uma coisa que sai completamente fora dos padrões dele. Então, tu tens esse uso. E tu vai ter aquele que vai ser capaz… Ainda é um plágio, ele não vai copiar literalmente as ideias, mas é aquele cara que já tem a manha de pegar no livro, mudar um pouco as palavras, reescrever a coisa sem botar nada dele, só copiando a ideia do outro e torcendo um pouco o texto para não ser pego num antiplágio, que o

    (34:38) antiplágio essencialmente não pega ideia, ele pega trechos de texto. Por enquanto. É isso essencialmente que ele faz. Então, esse cara, ele vai se beneficiar sim do ChatGPT. E sim, ele vai conseguir enganar um monte de gente. Mas, ao mesmo tempo, ele vai chegar em momentos que não vai conseguir sustentar aquilo que está escrito, porque ele não sabe. E se ele aprendeu a ponto de sustentar, bom, deu certo o aprendizado de algum jeito. Mas

    (35:09) raramente isso vai acontecer. O cara tem um negócio escrito ali que não sabe sobre o que está falando. Eu me sinto assim no ChatGPT quando uso ele para pesquisar uma coisa que não é da minha área, eu fico no escuro. Não sei se ele está mentindo para mim ou não, não sei se ele está alucinando. Aí eu tenho que pesquisar outras fontes para me certificar de que aquilo que ele está me dando realmente faz sentido. Quando é da minha área, eu consigo avaliar. Agora, quando não é, eu preciso buscar outras fontes para verificar. Esse procedimento, essa forma de

    (35:40) usar a tecnologia, seja a IA ou seja a internet, o Google, sair pesquisando coisas, esse ensino que o Desmurget coloca lá na “Fábrica de Cretinos Digitais”, é o que a gente está perdendo. A gente não está conseguindo agir na mesma velocidade que isso vem sendo adotado pelos alunos, principalmente por uma certa negligência das instituições. A internet já está no Brasil há 30 anos, comercialmente. Se em 30

    (36:21) anos os alunos hoje não são ensinados… você pressupõe que, por eles serem bons em usar redes sociais, eles sabem pesquisar na internet. Muitos dos meus alunos não sabem pesquisar na internet. Muitos dos meus alunos se surpreendem, por exemplo, ao conhecer o Google Scholar, o Google Acadêmico. Que nem para Direito você vai encontrar uma série de coisas, tem outras melhores. A faculdade paga para eles, e esse também é um desafio que a gente tem, a faculdade paga para eles uma

    (36:59) ferramenta super caríssima para pesquisa de artigos acadêmicos do Direito e que não teve um momento que a faculdade até desabilitou porque não era usada. A pessoa não usa. A gente imaginou que essa facilidade no acesso a uma série de informações iria melhorar a qualidade do que é produzido nas instituições. E olhar a história também nos mostra que, com questões talvez até menos complexas do que a inteligência artificial, a gente ainda não conseguiu

    (37:41) resolver. O guia, então, é dividido em seis capítulos. No primeiro, ele começa a trazer o que é a IA generativa, explica, traz uma explicação, já coloca alguns desafios ali, seja por meio de toda essa engenharia de prompts, seja também o fato dos alunos poderem aceitar passivamente o que a inteligência vai trazer, sem uma avaliação crítica. E isso a gente já vem acontecendo. Hoje de tarde vi uma sentença em que o

    (38:16) juiz esqueceu de apagar o prompt. Não sei se é verdade, está rolando em grupo, mas é factível. E outra em que a sentença inventou uma redação de um artigo do Código Civil, o que já aconteceu comigo diversas vezes quando eu tentei, hoje até meio que já desisti, para discussões mais complexas. Então, você tem esse problema dessa dificuldade, sobretudo de alunos mais jovens, mas na faculdade também vai ocorrer, de você não conseguir distinguir quando a ferramenta está alucinando ou

    (38:51) simplesmente trazer respostas muito simplórias para aqueles problemas muitas vezes complexos e que vão exigir… na verdade, tem problemas que não é nem certo e errado, tem problemas que você só quer que o aluno reflita sobre aquilo. E esse uso, tu falou dos alunos jovens, mas como tu disse, tem juiz… já aconteceu, não só esse caso aí que tu ficou sabendo por um grupo, mas teve caso notório na

    (39:24) mídia de um juiz que… não foi ele, ele usou a IA, não revisou o que a IA fez, e a IA inventou lá uma jurisprudência que não existia. E foi o advogado, lá nos Estados Unidos, não aqui no Brasil. E inclusive a parte que discordou da sentença foi para cima justamente apontando isso: “isso aqui não existe”. E a gente teve uma situação que comentou no podcast há um tempo atrás, de um jornal, a gente mostrou até a notícia

    (40:00) no jornal que saiu o prompt. Mas o prompt foi legalzinho, o jornalista pediu: “Escreva um artigo isento…” não sei se tu lembras disso. E o prompt saiu logo no início da matéria. E o cara publicou, saiu no jornal a publicação tal qual o prompt foi colocado. Tu tens esses acidentes que vão acontecendo pelo caminho. E, por enquanto, esses acidentes nos mostram o que está acontecendo.

    (40:44) A gente consegue perceber o que está acontecendo por causa desses acidentes, porque eles ainda acontecem, ou por descuido de alguém pegar e simplesmente sair copiando o negócio, ou porque copiou junto o prompt, ou porque a forma de escrita ficou meio na cara que é o ChatGPT. Só que a coisa vai chegar num ponto que tu vai ter, se já não temos, ferramentas integradas nas edições de jornais e tal, que o jornalista vai ter que revisar ainda por um tempo, mas daqui a

    (41:20) pouco não sei. Vai ter um cara para fazer… Esse é um outro problema, na verdade. É uma situação de uso de IA que vai ser cada vez maior. Com a IA se aperfeiçoando, vai ter mais possibilidade também de impedir certos maus usos, se quiser. Imagino eu. Esse é o papel da educação. Se a gente não acreditar na educação… e eu não acho que é possível substituir professores, por exemplo. São todas essas controvérsias que o guia acaba trazendo. Por exemplo, ele coloca

    (41:58) logo no início o agravamento do que se chama de uma “pobreza digital”, porque a gente sabe que não vão ser todos os alunos do mundo que vão ter condições de utilizar isso. Pessoas mais orientadas ainda têm dificuldade. Você pode ter desde esse agravamento de uma pobreza digital a situações de pobreza de dados. Porque quando a gente fala em IA generativa, a gente acaba pensando no ChatGPT, mas eu não acredito que esta seja a melhor, não acredito que estas

    (42:32) ferramentas comerciais deveriam, pelo menos, ser utilizadas em contextos educacionais. E o guia acaba trazendo outras que eles chamam de “EduGPTs”, que daí seriam modelos especificamente treinados para uma determinada audiência e mais delimitados. Ele fala inclusive do MathGPT, o GPT de matemática. Ou seja, você vai ter um modelo treinado para lidar com matemática. Isso facilita lidar com um baita de um problema que a gente comentava antes, que é o problema epistemológico da Inteligência Artificial, que é: ela não

    (43:07) consegue te dizer, muitas vezes, como que ela chegou até aquilo, ou por que ela está dizendo aquilo. Então, isso acaba conflitando com outro princípio, que é o princípio da explicabilidade dentro da Inteligência Artificial. Vinícius, se me permite, vou fazer um pequeno parêntese aqui: eu apresentei, nessa semana, no Congresso Internacional de Direitos Humanos de Coimbra, um trabalho justamente sobre o princípio da explicabilidade dentro da Inteligência Artificial, não relacionada à educação, num contexto

    (43:46) mais geral. Mas dentro da educação, ele é mais importante ainda. E essa explicabilidade, o Vinícius comentava antes, você tem uma série de dificuldades aí, sobretudo quando você tem modelos generalistas como o GPT. Mas existem já estudos, não vou falar aqui só sobre explicabilidade, mas existem já estudos promovendo modelos explicáveis. Ou seja, as empresas teriam que ter um novo dever ou uma nova obrigação de, pelo menos, tentar produzir uma arquitetura de um modelo que seja explicável, seja por ele

    (44:22) mesmo ou por outras formas de explicação. Esse é um problema a ser resolvido ainda, e ele se faz mais presente ainda dentro da educação. Todos os problemas legais, a gente está usando francamente essa ferramenta sem, pelo menos no Brasil, um marco normativo importante. O Judiciário está usando sem o marco normativo adequado. A gente precisaria mudar inclusive Código de Processo Civil e Código de Processo Penal para você lidar com esse tipo de coisa. E usar desse jeito tão rápido assim é uma coisa que me preocupa. É uma

    (45:01) ferramenta. A gente não pode esquecer o início do ChatGPT. Não tem como falar de LLM e IA sem falar do ChatGPT. Foi a aplicação que maior número de usuários teve em menor tempo na história da humanidade. Nunca nenhuma aplicação… Assim, o ChatGPT foi a aplicação que mais rapidamente teve 100 milhões de usuários. Essa ferramenta, o acesso a ela é muito fácil. De novo, no celular. A gente não está falando nem… os principais recursos de conversa

    (45:50) e tudo mais tem no celular. Tem no computador, tem para Mac que eles fizeram, não sei por que fizeram a ferramenta só para Mac, mas não fizeram para Windows nem para Linux a ferramenta nativa. Tu pode usar no navegador e no celular tu tens o esquema da conversa avançada, aquelas outras coisas. E essa ferramenta está disponível para te fazer desde as coisas mais simples. Eu faço um negócio muito legal para te dar uma ideia de como isso está no dia a dia, e é por isso que ela acaba

    (46:24) aparecendo em tudo quanto é canto. Por que se usa mais Windows dentro do ambiente corporativo? Historicamente, as pessoas sempre acharam mais tranquilo, sempre tiveram mais à disposição usar Windows, muito mais fácil de usar do que Linux, por exemplo. À medida que essa ferramenta está disponível para uso pessoal, em que uma pessoa aponta para a outra, a pessoa naturalmente acaba levando isso para o dia a dia dela no trabalho. Para uso pessoal, pega, experimenta fazer isso: pega uma lista de

    (46:52) mercado que tu tem para fazer compras e só larga no ChatGPT e diz assim: “organiza para mim isso aqui para eu poder comprar no mercado da forma mais otimizada possível”. Ele organiza as coisas de tal maneira que tu pode pegar tudo que tu quer sem ficar indo e voltando no mercado, sem ter que pensar. Tu pega a lista, tu segue a lista, tu vai pegar tudo juntinho, agrupado, bonitinho. Mas é educação? Calma aí. É uma coisa, desde essas coisas mais simples, até…

    (47:22) o juiz olha para o lado, ele tem um monte de coisa para fazer, ele vai ganhar tempo, vai se livrar rápido. Não estou dizendo que o cara está pensando na maldade “ah, vou me livrar disso aqui”. Não estou dizendo isso, mas ele vai terminar logo a tarefa que ele tem que realizar, ele vai ganhar tempo para fazer outras ou para descansar. Ele vai usar esse negócio. E na educação, eu não vejo a coisa apenas como um grande problema, nem tampouco como a solução,

    (47:53) como uma coisa que vai resolver todos os problemas que nós temos. Mas para te ter uma ideia, existe uma coisa chamada Khan Academy, com K-H-A-N. Eles estão usando, já há algum tempo, eles criaram um agente, tipo um tutor para crianças. Se é voltado para criança… estava mais caro no início, agora o preço está caindo, como sempre acontece. Aí sim, a lei de Moore entra, que daí o preço cai, a capacidade aumenta. Tu tens mais capacidade por menor preço e cada vez mais tecnologia mais

    (48:30) acessível. Eles estão trabalhando num tutor de IA com o objetivo de resolver o seguinte problema: tu ter um tutor de qualidade, com conhecimento, com, entre aspas, uma boa formação, que seria essa IA, disponível para todo mundo, inclusive lá nos rincões da África que tu citou antes. Inclusive lá. E chegar a um ponto que isso seja de graça, de tal maneira que, em vez de tu ter um professor com 15, 20, 30 alunos numa sala de aula, tendo que atender cada um,

    (49:14) tendo que entender todos de uma maneira mais generalizada, tu tem um que possa se dedicar a um aluno especificamente, entender as dificuldades daquele aluno, a forma daquele aluno entender, no contexto social daquele aluno, cultural. Eu não creio que uma coisa vai substituir a outra. Não creio que tu vai ter um tutor de IA que vai fazer com que tu não tenha mais professor. Isso estaria muito errado se tu simplesmente fizer essa substituição. Por outro lado, eu não acho que não usar IA seja algo necessariamente benéfico. Eu

    (49:54) acho que, como é uma ferramenta com potencial muito grande e que pode sim facilitar muito a passagem de conhecimento, o treinamento de pessoas, a educação, mas também o treinamento de pessoas em atividades específicas, pontuais. Assim como um bom livro me coloca à disposição um professor que eu não teria condições de ter, por barreiras físicas ou financeiras, e me coloca à disposição um professor que eu não conseguiria ter junto comigo, o livro pode me trazer um pouco do

    (50:34) conhecimento desse cara. E, de uma forma análoga, a IA pode fazer isso até melhor do que o livro, porque as formas de interação… não porque… as formas de interação… tu não pode assumir que necessariamente tu vai pegar e jogar fora professor, jogar fora livro. Tu pode juntar essas coisas. Eu tive uma… quando saiu agora a conversa avançada do GPT, eu resolvi bater um papo com ele para testar, sobre as obras do Tolkien: “O Senhor dos Anéis”, “O Silmarillion”, “O Hobbit”, etc. E foi uma

    (51:12) conversa muito interessante. Foi uma conversa muito interessante. “Por que fulano… aconteceu isso?”, “Quem que era…?”. Trazer fatos e coisas que eu teria que… que eu não teria como pegar todas as obras e, num período de tempo assim, levantar essas curiosidades que eu estava levantando. Você está vendo a tua experiência enquanto professor. A perspectiva da educação aqui, eu acho que ela é mais complexa. Você tem um espírito crítico de olhar. Eu, por exemplo, que entendo

    (51:44) pouco… Veja, a gente está aqui numa perspectiva de ensino. O guia fala sobre isso. Ele traz, lá mais para o final dele, tabelas de possíveis usos. Lá na página 31, 32. Porque a preocupação do guia é tanto no ensino quanto na pesquisa, que são domínios e problemas também diferentes. Qualquer pessoa que fez uma faculdade sabe que dentro das universidades não é só ensino, é pesquisa também. E aí você vai ter possíveis usos diferentes. Um desses usos é isso que você falou, que seria

    (52:24) um possível consultor para um esboço de pesquisa. Eu, enquanto pesquisador, quero promover um tema, então eu vou usar uma dessas ferramentas para chegar adiante ali. Só que ele coloca os riscos também. Numa dessas aqui, Vinícius, que seria o instrutor, você comentou antes, eu posso ter… qual é a vantagem dentro de um contexto de educação? Buscar a inteligência artificial para atividades autodirigidas. Você comentou: “ah, eu quero aprender”, pode ser mesmo sobre “O Senhor dos Anéis”, “eu quero aprender mais porque não?”. Estou estudando

    (53:08) Letras, a minha dissertação vai ser sobre “O Senhor dos Anéis”, então eu vou buscar ele para uma pesquisa dirigida. E aí os riscos, eles vão variar se você simplesmente estiver tendo uma conversa desinteressada com ele ou se for uma pessoa que vai usar aquilo para promover uma pesquisa científica na área de linguística. E o que essas tabelas trazem, claro, nós não vamos lê-las, mas por exemplo, uma das possibilidades é instrutor individual de habilidades linguísticas. E aí, nessas tabelas, que daí vocês depois

    (53:43) vão lá dar uma lida também no guia, ele diz os usos potenciais, mas não comprovados, domínios de conhecimento ou problemas apropriados, resultados esperados. Por exemplo, resultados esperados para instrutor individual de habilidades seria tutoriais individuais de idiomas no nível iniciante, ou seja, também engajamento, oferecer um feedback personalizado para os erros daquele cara e tudo mais. Os tipos de ferramentas que podem ser usadas, requisitos para os titulares… Aí, Vinícius, que eu acho que entra a questão.

    (54:19) Porque o requisito aqui está estabelecendo… pode ser estabelecida uma idade limite, o estudante deve ter uma motivação intrínseca, o estudante deve ser capaz de adotar uma abordagem crítica às sugestões e verificar sua precisão. Certo? Por isso que o nivelamento que o sujeito tem que ter para usar especificamente nesse uso, que seria um instrutor para línguas, o cara precisa ter um certo nivelamento. E os riscos aqui, que é o problemático, é preciso estar atento à linguagem

    (54:51) culturalmente insensível ou contextualmente imprecisa, bem como à inadvertida perpetuação de estereótipos ou preconceitos culturais, limitar oportunidades de interação com a vida real, expressão e opiniões de pensamentos plurais. Ou seja, ele tenta trazer esses possíveis usos observando sempre esses domínios, requisitos, resultados esperados, possíveis riscos, métodos pedagógicos humanos necessários. Aqui na questão da linguística, ele coloca: o cara tem que saber fazer prompts. Entende? Porque se ele não souber, você pode

    (55:29) empurrar e colocar ele numa situação de um ensino pobre. Guilherme, nota que isso não é da IA, isso é da internet, isso é do celular como ferramenta. Se não tiver um preparo, uma preocupação em preparar esse aluno, e eu não estou dizendo lá na graduação, estou dizendo desde o começo, desde o primeiro contato com o celular, se não tiver uma educação, e não só por parte da escola, mas dos pais, porque são os que primeiro disponibilizam a tecnologia para os filhos, e se não tiver uma educação que inicia ali, uma

    (56:08) orientação, uma instrução de uso, de compreender essas tecnologias, acontece o que o Desmurget coloca: o cara sabe usar, mas é um cretino digital. O cara é incapaz de selecionar uma informação sólida, incapaz de pensar por conta própria de forma crítica e tirar uma conclusão ou uma nova ideia. E isso não é específico para a IA. A IA é só uma ferramenta ainda mais avançada. E sim, eu acredito que ela tem,

    (56:50) como a gente comentava antes, meu filho usa… claro, mas tu estás ali com ele. Nem todos os pais estão ali com os filhos usando tecnologia. “Toma o celular e não me incomoda”. “Toma o tablet”. Então, eu dou o tablet para ele e ele fica quietinho. Tem esse primeiro aspecto. O segundo aspecto é: eu, além de ficar junto, me preocupo com o uso que ele faz, a gente entende como essas tecnologias funcionam, sabe as coisas boas e ruins e tenta fazer um filtro, dar essa orientação. E ao mesmo tempo, tu tens que ter uma certa barreira ética. Não posso deixar uma criança ou um adolescente vir com um problema da escola e simplesmente perguntar para a IA qual é a resposta. Não é esse tipo de uso, não pode fazer. E o pessoal já aponta isso como sendo um problema no Science Direct, etc. Quanto mais gerar um artigo científico…

    (58:04) é o ápice da coisa que inicia pequenininha lá na educação infantil, cruza pelo ensino médio e vai adiante, que é o cara publicar um artigo escrito pelo ChatGPT cheio de erro e o negócio ainda passar num evento, ser aceito por uma publicação. A gente entra num outro problema que é o mercado das publicações. Se está passando coisa escrita pelo ChatGPT, tem outras porcarias que nem foram escritas pelo ChatGPT que passaram também.

    (58:43) A gente sabe da história do que tivemos com a Covid. A gente tem um problema que não é só da IA ou do simples uso dela. Eu acho que é mais uma tecnologia que pode ser muito bem utilizada e está sendo extremamente útil, mas ela também tem o potencial de um mau uso violento. Um mau uso que não é só no cara que quer fazer uma bomba e pega a instrução com a inteligência artificial, mas um mau uso que gera pessoas mal

    (59:23) formadas numa faculdade. Já é pouca gente que está na faculdade, aí o cara chega na faculdade, não lê o que tem que ler, não estuda e simplesmente se atira no que o ChatGPT entrega. Aí nós temos um problemão mesmo. Concordo contigo, é um baita de um problema. É a proposta do guia, justamente, você enfrentar esses possíveis problemas. A ideia de um consultor de IA para bolsa de pesquisa é ótima. Só que quais são os riscos? É preciso ter atenção ao alto risco da IA inventar

    (1:00:04) informações, como publicações de pesquisa inexistentes; de usuários serem tentados a copiar e colar esboços de pesquisas gerados por IA, o que pode reduzir as oportunidades de aprendizado por meio de tentativas e erros para pesquisadores em início de carreira. Sim. E ao mesmo tempo, para pesquisadores de início de carreira, por exemplo, quando eu fui publicar um artigo numa revista internacional, eu tinha uma noção de inglês, mas não para escrever de uma maneira formal, totalmente correta.

    (1:00:36) E a gente teve que pagar na época, até foi o Weber que pagou, uma pessoa, uma tradutora, uma pessoa que trabalha profissionalmente com isso para fazer a revisão. E as mudanças que foram feitas foram muito interessantes. Valeu a pena ter gasto isso, mas foi uma grana. Eu lembro que na época foi ele que pagou, eu vivia de bolsa, para mim era uma grana aquilo, quase minha bolsa inteira. Agora, com o ChatGPT, com o prompt

    (1:01:13) certo, tu consegue pegar o teu texto e traduzir ele para um inglês digno de ser publicado numa revista científica. É diferente de tu gerar um trabalho do zero, que tu não fez, com ideias que não são tuas. Usos, cara. Exato, mas esse é o ponto: usos. Se você está numa faculdade de Letras – Inglês, você não pode fazer isso. Pra gente aqui, pode fazer algum sentido. Eu já traduzi parcelas de texto para italiano e vice-versa, ajuda bastante, mas em contextos menos arriscados.

    (1:01:56) Então, poderia dar essa dica para o cara que está estudando para ser um tradutor? O cara não vai poder fazer isso. Ele poderia verificar os resultados dele, pedir para ele traduzir um texto que ele deveria traduzir numa faculdade de Letras. Sou mais apocalíptico: a gente não vai precisar de tradutor muito em breve. Talvez. Mas aí é aquela questão da profundidade, e eu insisto nisso. Eu não acho que a IA, para a minha área de conhecimento hoje, me traga

    (1:02:32) grandes reflexões. Por exemplo, tradução é um negócio seríssimo. Não só tradução de um e-mail, mas de um texto que você está estudando. Você não lê em alemão, tem um artigo lá em alemão, você traz parte do artigo. Uma coisa é uma tradução de um autor, feita por um tradutor profissional que entende as obras originais. A tradutora lá do Machado de Assis. E outra coisa é só um tradutor técnico.

    (1:03:05) E aí tu leva uma obra para ele que ele nunca viu, e o cara vai lá e traduz. E olha que é uma coisa fácil, que é a minha área, que é técnica. Esquece poesia, que é mil vezes pior. Cansei de ver tradução de livro que tinha lá o “quadro de chaves” ou o “driver”, o motorista. “O quadro de chaves”, pelo amor de Deus, cara. Tinha “quadro de chaves” em quase tudo

    (1:03:36) que era livro traduzido de TI, da área da Ciência da Computação, para o português. Quase todos tinham o “quadro de chaves”. E para quem está nos escutando e não se ligou, “quadro de chaves” é o teclado (keyboard). Pelo amor de Deus, tu tem que ter uma noção de contexto. Então, sim, é uma coisa extremamente séria. Eu tinha uma tradução, troquei esses dias todas as minhas traduções do “Senhor dos Anéis” por uma outra editora, outro tradutor. Cara, muito melhor.

    (1:04:12) Então, mas eu acho, sinceramente, que vai chegar num ponto que a IA vai ser capaz de fazer isso. Vamos voltar para o guia. Volta pro guia. Porque a gente já precisa ir encaminhando para o fim. Eu tenho alguns pontos mais aleatórios, então. Dentro desses usos mais concretos que o guia traz, uma coisa que me preocupou bastante… o guia é interessante, tem que ser lido, mas tem várias coisas que eu fiquei preocupado. Essa adoção meio acrítica às vezes, a questão

    (1:04:45) dos interesses comerciais não foi muito tratada. E eles trazem, apesar de por diversas vezes trazer preocupações relacionadas à proteção de dados pessoais, direitos autorais, sobretudo de professores… cara, isso é um baita de um problema para a profissão. Porque é muito fácil você incorporar professores ou incorporar práticas de professores em modelos. Os caras têm… eu acho que eles foram muito rápidos em sugerir, por exemplo, “gêmeos generativos de assistentes de ensino”. Gêmeos de quem? Gêmeos dos professores.

    (1:05:29) Então, veja, se eu vou começar a treinar IAs para serem gêmeos de professores, eu entro num universo de problemas aí, até mesmo de relações de trabalho, relações de emprego, direitos da personalidade, o que você vai fazer com esses modelos, a possibilidade de extrapolar para outros usos. Eu fiquei preocupado em ver um documento da Unesco sugerindo gêmeos de professores de Inteligência Artificial. Guilherme, mas essa é uma das possibilidades. Se eu disser que é um negócio fantástico, tu vai ter um treco, mas essa é uma das grandes possibilidades da IA.

    (1:06:11) Ela conseguir apoiar o ser humano. E os problemas que tu levantas, e eu não estou desconsiderando eles, esses problemas trabalhistas, éticos e tudo mais, são os problemas que a gente teve com a imprensa, quando começamos a ter cópia de livros em massa. A gente teve esses problemas quando veio o computador, a gente teve esse

    (1:06:43) problema agora com a IA, e a gente vai ter de novo. E a gente vai ter que… são problemas diferentes, claro que sim, mas a gente vai ter que se debruçar sobre eles, vai ter que resolver, porque a tecnologia vai ser utilizada, ponto. Ela não vai parar, ninguém vai parar de desenvolver esse negócio. E o que a gente precisa, e acho que é aquilo que tu colocou, são guard rails, aquilo que cuida para não descambar. Mas o guard rail ele não bloqueia a estrada, ele dá

    (1:07:13) uma certa direção na coisa, mas não bloqueia a estrada. Bloquear, não vai acontecer. Certos carros não devem andar nessa estrada, entendeu? Certas estradas não devem ser percorridas. Tanto que o AI Act começa a estabelecer usos proibidos na União Europeia, e o mundo vai sair por esse caminho também. Eu falo dos guard rails, mas na verdade essa metáfora não é minha, já é usada no âmbito do Direito. Tem um livro chamado “Guardrails: Guiding Human

    (1:07:49) Decisions in the Age of AI”, do Urs Gasser e do Viktor Mayer-Schönberger, um cara famoso que escreveu um livro sobre direito ao esquecimento. É mais sobre ética e Inteligência Artificial. Mas essa coisa do gêmeo digital, do gêmeo generativo, me preocupou um pouco. Eu tenho mais de um artigo, uns três, sobre o uso de inteligência artificial para

    (1:08:25) animar perfil de pessoas mortas. Nossa, isso aí é um baita de um problema. Já está ocorrendo. Quando eu e o Colombo escrevemos sobre isso, era um negócio meio ficção científica, e a gente acertou em cheio, porque isso já está acontecendo. De repente, o professor morre. Quer dizer então que se eu tenho o gêmeo dele… percebe os problemas que isso pode…? Vou indicar para ti e para os nossos ouvintes. É por isso que a gente

    (1:08:54) não consegue juntar tanta gente, tem tanto podcast. Mas eu vou indicar aqui, no podcast apresentado pelo Toledo, José Roberto Toledo, que é o “W Prime”, tem o episódio número 35, cujo título é “A morte não é mais para sempre”. Não se anime, não quer dizer que você vai viver com seu corpo para sempre, quer dizer que um gêmeo digital, um gêmeo generativo seu, vai continuar existindo. Isso aqui dá um episódio, a gente podia discutir esse assunto. Podia trazer alguém, Guilherme.

    (1:09:39) Convida o Colombo, vê se ele topa. Porque é uma coisa curiosa e mexe com algo muito profundo do ser humano, o que tu entendes como sendo a vida, o que é ético ou não, se tu achas que continua existindo tendo uma cópia digital tua. Tem o caso dos pais, ali no podcast do Toledo, que estavam com uma doença, com receio de morrer… era o filho que tinha morrido, que eles

    (1:10:17) fizeram… Não, não era o filho. A mãe estava triste e eles fizeram… Quem fez foi o Santini, o cara que faz os deepfakes no Twitter. Mas eles falaram de um caso de uns pais que estavam com uma doença e criaram uma cópia digital deles preventivamente, para caso eles viessem a faltar, o filho deles não deixasse de ter o contato com eles. Inclusive, Vinícius, agora me dei conta de uma coisa: um dos… a gente

    (1:10:56) submeteu, não vou dizer qual é o evento, mas a gente submeteu para alguns workshops para um evento, um deles é sobre direito e proteção de dados de pessoas mortas. E aí entra essa questão: até que ponto tu podes fazer isso? Imagina tu criar um… Hoje, o que já acontece, que é mais próximo e já dá rebuliço em termos trabalhistas, é aula gravada de professor. Quando tu gravas a aula de um professor, tu estás criando uma cópia digital dele, não generativa, digital.

    (1:11:33) Ele está dando a aula ali, está gravado. Se tu queres que outros alunos vejam a aula daquele mesmo professor, em vez de ter o professor, tu usas a cópia que tu fizeste dele, que é o vídeo gravado. E tu tocas o vídeo de novo. E aí tem aquelas várias discussões: “o professor ganha para gravar uma vez o vídeo e depois a entidade que pagou pela gravação usa quantas vezes quer?”. Agora, tu imaginas com IA generativa? Daqui a pouco, em vez de gravar o vídeo, tu vais ser contratado para gerar um clone, um gêmeo

    (1:12:04) generativo teu. “Nós te pagamos tanto, vamos criar um gêmeo generativo teu e tu nos dás permissão para usar isso para dar aulas para sempre”. Nessa perspectiva, focando na educação, mas você tem o caso da Madonna, que se negou. Por outro lado, teve o caso do James Earl Jones, o cara que fazia a voz do Darth Vader. Ele morreu recentemente e permitiu que a voz dele fosse usada por IA. Ou seja, ele cedeu esses direitos de uso de voz para treinar uma IA, claro, vai ser da

    (1:12:50) Disney, para usar a voz na franquia que agora não tem mais fim. Eu acho que a gente vai ter que terminar. A coisa meio que saiu um pouco do rumo, mas tudo bem, variar um pouco. O relatório, se você quiser ler na íntegra, vai ter acesso, inclusive vai ter o link no show notes, e você pode baixar e ver. A gente leu, eu usei o NotebookLM para me ajudar.

    (1:13:23) E depois eu fui passear nele. Mas eu acho que no final das contas, essa discussão que a gente tem é interessante. Se por um lado tem as boas aplicações possíveis, e óbvio que tem, coisas extremamente úteis que a gente vai fazer com IA, por outro lado, a gente tem que ter certas preocupações para que as coisas sejam feitas de uma maneira segura para todos nós, como indivíduos e como sociedade. Tanto é que, lembrando, na principal empresa de Inteligência Artificial do mundo hoje, que é a OpenAI,

    (1:14:02) deu briga por causa desse assunto, justamente da ética, da segurança do modelo. E aí surgiu uma outra empresa, que é do Ilya, focada na parte de segurança em IA. E temos a OpenAI cada vez mais fechada, cada vez mais focando no mercado e avançando cada vez mais rápido, que é justamente a preocupação de quem se preocupa com a segurança da aplicação de inteligência artificial. Eu acho que tem que ter esse diálogo, porque não adianta simplesmente dizer que

    (1:14:34) não deve ser utilizado. Não vai acontecer. Os caras tentaram frear, fizeram aquela cartinha do “Apocalipse da IA”, que um monte de gente assinou dizendo que tínhamos que suspender por seis meses para ver o que ia acontecer. Não se suspendeu porcaria nenhuma, a coisa se acelerou muito rápido. Os Estados Unidos proibiram a Nvidia de vender seus chips na China, os chips de treinamento de IA. A Nvidia é uma empresa americana, os chips foram fabricados em Taiwan, que fabrica chip para o mundo inteiro, para tudo quanto é coisa. E os chips estão vazando

    (1:15:08) na China. Enfim, existe uma proibição. Por quê? Porque os Estados Unidos têm preocupação, não querem que a China, seu principal concorrente comercial, tenha uma IA tão potente quanto a que eles estão fazendo. E a China, por meio da Huawei, está investindo nos seus próprios chips. É uma briga, é uma escalada que ela não vai parar por causa da segurança. A questão é o quão rápido a gente consegue correr do lado para impor alguns

    (1:15:43) controles mínimos nessa coisa toda que está acontecendo. Porque não vai parar. Nosso histórico é que mais ou menos não vai parar. Repito, o AI Act, eles classificam lá os sistemas por riscos. E eles têm lá no anexo 3 os sistemas de IA de risco elevado na União Europeia. Então você tem uma série de obrigações adicionais e de controles para sistemas de risco elevado. Um dos sistemas de risco elevado elencado por eles nessa norma é educação e formação profissional. Determinar o acesso,

    (1:16:21) a admissão ou afetação de pessoas a instituições, avaliar resultados de aprendizagem, efeitos de avaliação de nível de educação adequado, e controle e detecção de práticas proibidas durante testes. Aqui no Brasil, o MEC vai ter que se pronunciar também sobre isso em algum momento. Deixa eu tratar aqui, Vinícius, o que o guia fala também de alguns passos: passos para a regulação da educação, passos para provedores de IA generativa e passos para usuários institucionais. Na regulação da educação, ele propõe seis passos.

    (1:17:01) Sim, você precisa ter regulamentações gerais para o uso desse negócio, internacionais e regionais. Tem que ter estratégias abrangentes para o setor governamental. E o Brasil, nesse ponto, já tem. Dias desses, foi bem noticiado o Plano Nacional de Inteligência Artificial, vários bilhões vindo para cá. Ou seja, o Estado… e aqui, claro, com todos os cuidados que um Estado vai… porque hoje você começa a falar do Estado da Educação e as pessoas já vão falar “ah, mas vai colocar ideologia na IA”, aquela bobajada toda. Não, aqui estamos falando de

    (1:17:38) uma perspectiva de que os Estados precisam investir em modelos sérios, éticos, bem treinados, com diversidade para aquela audiência, para aquela cultura. Esse tipo de coisa que a gente não quer perder. Não podemos perder, porque qualquer pessoa que entrou numa escola, dependendo do estado que você está, vai ter práticas culturais sendo realizadas diferentemente dentro do próprio Brasil. Isso que torna difícil modelos genéricos de educação para todo o mundo.

    (1:18:12) É justamente nesse ponto, em vez de um modelo genérico, que uma IA generativa pode criar coisas personalizadas, ajustadas, se for bem treinada, para cada realidade. Se for bem treinada, talvez ela consiga resolver parte de um problema que não é tão fácil. E, ao mesmo tempo, tu tens insuficiência de formação de professores. Tem que ser resolvido com IA? Acho que não. Tem outras

    (1:18:45) formas de resolver. Agora, a IA pode ser utilizada como ferramenta para ajudar a reduzir esse gap. Inclusive para os próprios professores que têm deficiências na formação. Enfim, não tem solução simples para problema complexo. Segue aí. E ele diz isso, a IA não vai resolver certos problemas que a IA não tem como resolver. Problemas de direitos autorais e tratamento de dados, obviamente, é um grande problema, sobretudo pelo mau uso que a indústria de

    (1:19:22) tecnologia já mostrou. Quando a gente fala hoje sobre a “Fábrica de Cretinos Digitais”, tudo aquilo que você colocou antes, a gente está falando de uma indústria que, de forma genérica, sim, produziu voluntariamente sistemas que eles sabiam que fariam mal para crianças e adolescentes, ponto. E nós vamos entregar para estes grupos sistemas para ensinar pessoas? Não acho que seja a responsabilidade dessas empresas fazer isso. Guilherme falando.

    (1:20:00) E mais ou menos é o que diz também o guia aqui. E também desenvolver capacidades técnicas de maneira geral, ou seja, como isso vai ser utilizado na educação e na pesquisa, nesses dois domínios. As instituições têm que ter, e aí o Estado vai ter que interferir nesse sentido. Eu não acho que vai acontecer aqui no Brasil, mas de promover sim boas práticas que as instituições devem adotar, tanto para permitir uma atuação mais proativa dos professores ou para ensinar os professores e para estabelecer normas éticas. Veja, normas éticas para uso de internet a gente não tem até

    (1:20:38) hoje. Mas agora com a IA, me parece que a gente vai precisar sim de normas éticas para o uso. As faculdades vão ter que ter lá o seu guia ético para uso de IA na pesquisa. Senão eu vou ter que fazer esse negócio lá para a minha turma. Vai chegar no momento que vai ficar insustentável. Passos para os provedores, tem vários. A gente pensou alguns aqui, principalmente essa questão dos problemas econômicos, a questão de responsabilidades humanas. Ou seja, você, quando construir esses modelos, precisa levar em consideração e endossar a adesão

    (1:21:14) a esses valores humanos. Veja, a gente está falando de educação, então valores fundamentais, propósitos legítimos. E aí fica a pergunta: será que as big techs conseguem fazer isso? Dados e modelos confiáveis, ou seja, vai ter um custo maior, é caro fazer isso. Geração de conteúdo não discriminatório, explicabilidade e transparência, e reconhecimento de limitações e prevenção de riscos previsíveis. Sim, quando a gente fala em IA, a gente tem que adotar uma abordagem orientada para o risco. E quando

    (1:21:47) esse guia propõe possíveis usos, eles foram muito felizes em estabelecer também os possíveis riscos. Porque com base naquelas planilhas, uma universidade consegue sentar e estabelecer algumas possibilidades. O que as instituições não podem, que daí seriam os passos para os usuários institucionais, é fechar os olhos. Auditorias nos algoritmos, acho que isso não vai acontecer, mas enfim, é o que o guia diz. Validação da proporcionalidade e proteção do bem-estar dos usuários.

    (1:22:21) Ou seja, isso tem que estar dentro de um contexto maior de especialização de uma educação para o momento atual. E quando a gente critica às vezes as universidades, os modelos de ensino, muitas dessas críticas são válidas. A gente continua dando aula e continua ensinando como se fazia no século XIX, lá com os jesuítas. E no Direito ainda mais, aquela coisa mais fechada. É bem verdadeiro. A gente precisa talvez que esse seja um gancho para a gente renovar práticas. Agora, é aquilo que o

    (1:23:01) guia também fala: não adianta você falar isso para turmas imensas dentro das faculdades, para professores que não recebem adequadamente, ou que não são treinados, ou que têm várias turmas lá nos nossos rincões do interior do país, com várias séries ao mesmo tempo. Mas basicamente, a gente teve mais recentemente no Brasil um boom, uma comercialização da educação que acaba prejudicando iniciativas como essa. Você tem instituições muito comercializadas e que, inegavelmente, não vão querer levar isso

    (1:23:37) adiante, porque não é do interesse deles. E aí você acaba criando, acho até que você falou isso esses dias, você vai acabar criando níveis de educação. De repente, vai ter aí algumas que vão usar IA para substituir professor, EAD, IA e tudo mais. E aí você vai ter aqueles bons professores, aquelas aulas mais orientadas ou um uso acompanhado da IA que vai ser caríssimo, só poucas pessoas vão usar. E é justamente isso que o guia não quer, que é ampliar a pobreza e a exclusão. E o Sam Altman disse justamente isso numa entrevista: ele disse que o presencial vai ser o premium.

    (1:24:14) O presencial vai ser o premium, vai ser caro e não vai ser para todo mundo. Para variar um pouco. Eu uso especialmente uma ferramenta, o Blackboard, e ele tem algumas coisas que me preocupam um pouco. Você coloca o seu conteúdo lá dentro e tem um botão “gerar questões com esse conteúdo”. E aí alguns dos conteúdos são meus, são textos que eu escrevi, por exemplo. Eu não sei bem, não consegui encontrar, te confesso, estou treinando essa ferramenta.

    (1:24:54) Além de você ter domínios de educação e pesquisa diferentes, você vai ter problemas que vão afetar os estados, as instituições, as universidades, as instituições que desenvolvem os sistemas, e problemas que vão afetar de formas muito diferentes professores e alunos. Não é só uma questão do ensino e de como você vai formar principalmente crianças, que é mais crítico, mas também como os professores vão transitar nesse… Guilherme, falando em professores, eu preciso buscar uma pequena na escola e preciso encerrar

    (1:25:31) por aqui. A IA até conseguiria fazer isso, pega um carro automaticamente. Tem os carros, mas é uma boa prática buscar o filho na escola. Se dá para buscar, é bom. Não vou substituir isso. Ainda não. O carro vai lá buscar minha filha na escola. Leiam, para os interessados, leiam o guia. Quem está na área de educação, por favor, dá uma olhada que vale a pena. E vamos lá, aguardamos vocês no próximo

    (1:26:03) episódio do podcast Segurança Legal. Até a próxima. Até a próxima. Beleza, Guilherme. Pera aí que estou terminando de gravar aqui. A gente descobriu hoje que o Craig, que a gente usa para gravar, é um urso, não é um cachorro. Tu viu isso? Eu achei que fosse um cachorro, é um urso pardo. Esse episódio número… estou gravando aqui, 377. Eu fui procurar “A Fábrica de Cretinos Digitais” e obviamente caí na Amazon.

    (1:26:40) E aí ele dá o “frequentemente comprados juntos”. Trouxe o “Geração Ansiosa”, óbvio. Mas trouxe um outro do Michel Desmurget aqui, que é “Faça-os Ler, para Não Criar Cretinos Digitais”. Opa, legal. Óbvio, o cara pegou uma onda muito positiva do livro dele, então escreveu outro. Tá bom, vamos conceder. Mas está muito bem avaliado, 4.7,

    (1:27:12) e já em português. Já está traduzido. Diz aqui: “um dos melhores livros que eu li em 2024”. Escreveu isso em 2 de janeiro… não, estou brincando, 5 de setembro. Parece bem pequenininho aqui o livrinho, o cara está segurando na mão. Estou te passando aqui o link do Craig, que é o urso, não é mais o cachorro. Eu já tenho a gravação aqui, ainda estou gravando para o pessoal que está nos acompanhando no YouTube. Então já estamos pegando essa dica que tu estás dando dos

    (1:27:45) livros. O Internet Archive ainda está fora do ar. A gente sobe num S3 aí da Amazon e era isso. Vai ser a despesa que a gente vai pagar para a galera baixar. Mas enfim, o Archive, se voltar, a gente sobe. Tu achas que edita ainda hoje? Como é que tu achas que vai ser? Não, hoje eu não vou mais conseguir, já é 5:30. Então tá bom. Meu caro, àqueles que nos acompanharam até aqui, um abração para vocês e valeu. Valeu, abração, até mais.

     

    ...more
    View all episodesView all episodes
    Download on the App Store

    Segurança LegalBy Guilherme Goulart e Vinícius Serafim

    • 4
    • 4
    • 4
    • 4
    • 4

    4

    7 ratings


    More shows like Segurança Legal

    View all
    Braincast by B9

    Braincast

    108 Listeners

    RapaduraCast - Podcast de Cinema e Streaming by Cinema com Rapadura

    RapaduraCast - Podcast de Cinema e Streaming

    111 Listeners

    MacMagazine no Ar by MacMagazine.com.br

    MacMagazine no Ar

    179 Listeners

    Xadrez Verbal by Central 3 Podcasts

    Xadrez Verbal

    174 Listeners

    Giro do Loop by Loop Infinito

    Giro do Loop

    91 Listeners

    Tecnocast by Tecnoblog

    Tecnocast

    43 Listeners

    NerdCast by Jovem Nerd

    NerdCast

    1,010 Listeners

    Naruhodo by B9, Naruhodo, Ken Fujioka, Altay de Souza

    Naruhodo

    120 Listeners

    Petit Journal by Petit Journal

    Petit Journal

    78 Listeners

    Durma com essa by Nexo Jornal

    Durma com essa

    46 Listeners

    História FM by Leitura ObrigaHISTÓRIA

    História FM

    30 Listeners

    Ciência Suja by Ciência Suja

    Ciência Suja

    20 Listeners

    Vortex by Parasol Storytelling

    Vortex

    19 Listeners

    Só no Brasil by Pipoca Sound

    Só no Brasil

    4 Listeners

    IA Sob Controle - Inteligência Artificial by Alura - Hipsters Network

    IA Sob Controle - Inteligência Artificial

    0 Listeners