Segurança Legal

#404 – Dados classificados na nuvem, preocupações de auditores e comportamentos desonestos na IA


Listen Later

Neste episódio falamos sobre informações classificadas governamentais na nuvem, preocupações de segurança dos auditores, atualização do grande ataque financeiro e o aumento de comportamentos desonestos com uso de IA.

 Visite nossa campanha de financiamento coletivo e nos apoie!

 Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing

ShowNotes

  • GSI/PR publica norma para uso de computação em nuvem para tratamento de informações classificadas
  • INSTRUÇÃO NORMATIVA GSI/PR Nº 8, DE 6 DE OUTUBRO DE 2025
  • INSTRUÇÃO NORMATIVA Nº 5, DE 30 DE AGOSTO DE 2021
  • AWS Top Secret Cloud
  • CIA makes awards for intelligence community’s next massive cloud contract
  • A decade-old risk led to ‘phenomenal partnership’ between AWS and the intel community
  • Global Risk in focus promovido pela Internal Audit Foundation
  • PF intercepta conversas de hackers de maior ataque cibernético ao sistema financeiro: ‘Tamo famoso’ e ‘Tenho lista de laranjas’
  • Servidor cobrou R$ 1 milhão para deixar fraudadores invadirem sistema do BB
  • Artigo – Delegation to artificial intelligence can increase dishonest behaviour
  • Capa do Episódio – Caminhante sobre o mar de névoa de Caspar Friedrich

    📝 Transcrição do Episódio

    (00:06) Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 404, gravado em 13 de outubro de 2025. Eu sou o Guilherme Gular e, desta vez sozinho, vou trazer para vocês algumas das notícias que nos chamaram a atenção nas últimas semanas. Então, pegue o seu café e venha com a gente.
    (00:27) Você já sabe que este é o nosso momento de conversarmos e falarmos sobre algumas das notícias que nos chamaram a atenção. Você também sabe que pode entrar em contato conosco pelo e-mail podcast@segurançalegal.com, no Mastodon, Instagram, Bluesky e YouTube. Se quiser, também pode nos assistir pelo YouTube. A grande maioria, na verdade, nos escuta pelo feed, mas também estamos no feed, que você pode assinar direto no site segurancalegal.com, e também no Spotify. Se quiser ouvir pelo Spotify, também estamos lá. E temos a nossa
    (01:01) campanha de financiamento coletivo no apoia.se/segurançalegal. Você pode escolher a modalidade de apoio, e sempre conclamamos que você considere apoiar um projeto de divulgação de conhecimento e divulgação científica das áreas de segurança da informação, direito da tecnologia, proteção de dados e, mais recentemente, nos últimos um ou dois anos, temos falado muito mais sobre inteligência artificial.
    (01:33) É o tema da vez, que se relaciona muito com os assuntos que tratamos aqui, sobretudo segurança da informação e proteção de dados pessoais. Vamos às notícias desta semana, começando com uma que achei bem interessante. Inclusive o Vinícius, que infelizmente não pôde estar conosco hoje, foi consultado por um órgão de imprensa. Depois temos que ver se a reportagem da qual ele participou já foi publicada. Mas, de qualquer
    (02:04) forma, tivemos essa nova regra do Gabinete de Segurança Institucional para o tratamento de informações classificadas em nuvem. Estamos falando de uma instrução normativa do GSI, do Gabinete de Segurança Institucional, a Instrução Normativa número 8, publicada no dia 7 de outubro de 2025, que faz uma mudança bem importante no paradigma de tratamento de informações classificadas, ou seja, aquelas informações que exigem um grau diferenciado de segurança.
    (02:45) O primeiro ponto que podemos destacar é a própria divisão desses dois mundos da cibersegurança: o mundo das empresas, o mundo privado, e o mundo dos Estados. Ou seja, a segurança é vista no âmbito do poder público, não só do poder público brasileiro, mas mundial. Por trás disso tudo, os pressupostos de cibersegurança e de segurança da informação continuam os mesmos. Ainda falamos sobre os atributos de segurança: confidencialidade, integridade, disponibilidade da
    (03:26) informação, não repúdio, entre outros. O que ocorre é que, quando separamos os mundos público e privado, as necessidades são diferentes. Eu diria que as ameaças, as fontes de ameaça, são diferentes, porque quando olhamos para os atacantes envolvidos em ataques e violações nos mundos privado e público, as motivações deles são distintas. Vimos recentemente as invasões no sistema de pagamentos brasileiro. O objetivo ali do atacante,
    (04:07) a fonte da ameaça, é justamente obter ganho financeiro. Quando falamos em Estados, por outro lado, nem sempre será isso. Posso ter, inclusive, motivações políticas, relacionadas aos regimes de um determinado Estado e acesso a informações por outros Estados para fins até comerciais.
    (04:30) Vimos isso acontecer no Brasil quando, ainda no governo Obama, a presidente Dilma foi monitorada. Tem aquele caso que chamou bastante atenção. Então, temos um paradigma de ameaças totalmente diferente, envolvendo até questões de espionagem ou ciberespionagem. O primeiro ponto é essa divisão entre os dois mundos. E essa nova norma representa uma mudança de postura bem importante da administração pública brasileira ao se abrir para a nuvem,
    (05:10) embora o Serpro já utilizasse, via seus próprios serviços, outros serviços de nuvem. Vemos essa abertura na linha de uma renovação. Vimos também em agosto deste ano, com o decreto 12.157/2, uma renovação da Política Nacional de Segurança da Informação. Então, além desse novo decreto que estabelece a nova PNSI, temos agora a possibilidade de tratar dados classificados nos graus reservado e secreto em nuvens privadas ou comunitárias em data centers exclusivamente localizados no
    (05:54) Brasil, desde que esses provedores sejam habilitados pelo Estado para realizar o tratamento dessas informações e também sejam auditados. E, nessa linha, uma portaria, alguns dias antes dessa que falo agora, a Portaria do GSI número 37 de outubro de 2025, habilitou a Amazon, a AWS, para, abro aspas: “a busca do desenvolvimento e do aumento da maturidade em segurança da informação e cibernética, além da promoção da melhoria na cultura
    (06:30) cibernética nacional”. Então, tudo indica que veremos a AWS como esse agente de nuvem para tratar essas informações classificadas do Estado brasileiro. Fica vedado, entre outras coisas que a instrução traz, o uso de nuvem pública ou nuvem híbrida. É interessante dizer que existe outra instrução normativa. Estou falando aqui sobre algumas normas, instruções e tudo mais, e pode cansá-los um pouco, mas a administração pública brasileira é cheia de normas de segurança da informação, não só para o tratamento de
    (07:13) informações, mas para outras atividades também. Então, pode soar meio cansativo, mas é a característica da administração pública. Quando essa nova norma veda o uso de nuvem pública ou híbrida, o que é nuvem pública ou híbrida? Bom, há outra instrução normativa, a número 5 de 2021, que define o que é cada uma delas. Inclusive, essa instrução número cinco que acabei de me referir também foi modificada por esta nova instrução, a número
    (07:45) oito, de outubro de 2025, para proibir o uso de computação em nuvem. Ou seja, antes ela proibia o uso de computação em nuvem para informações classificadas, e essa nova instrução normativa altera a de número cinco para permitir isso. E essa de número cinco também traz outros requisitos mínimos de segurança.
    (08:11) O que mais essa instrução traz? Ela é bem técnica no sentido de estabelecer requisitos especificamente técnicos para o tratamento dessas informações. Quando olhamos o artigo terceiro da norma, vou dar alguns exemplos para vocês. Ficarão, como sempre, os links no show notes para que leiam, eu sugiro que leiam. Questões técnicas como segmentação de redes para permitir o isolamento de ambientes, uso de tecnologias para o isolamento de máquinas
    (08:49) virtuais, sendo que esse isolamento deve se dar por cada órgão, inclusive. Ou seja, não se pode compartilhar máquinas fora do órgão. Uso de algoritmos de Estado de criptografia, sobre o que falarei um pouquinho depois. É uma coisa já relativamente antiga na nossa organização da segurança da informação brasileira.
    (09:22) A norma também exige garantir que as chaves criptográficas sejam gerenciadas exclusivamente pelos órgãos de registro. A gestão de chaves é um dos grandes problemas no âmbito da criptografia, independentemente do algoritmo utilizado — e o Vinícius sempre comenta isso — e a norma endereça essa preocupação, bem como a necessidade de uso de backups criptografados, a implementação de logs imutáveis e um sistema centralizado de gestão de identidade.
    (09:52) Ou seja, a nuvem que for habilitada para atuar tratando os dados classificados do Estado brasileiro precisará se adequar a esta norma. Então, o que teremos com essa aproximação com a AWS, por exemplo, é que a AWS disponibilize serviços que sejam compatíveis com essas regras. Isso já vem acontecendo, já acontece nos Estados Unidos, como vou falar logo a seguir. E também uma coisa que chamou atenção é que esse provedor, ao prestar esses serviços,
    (10:28) lá no artigo sétimo, deve possuir as certificações em cinco normas ISO: a 27.001, a 27.017, que é de diretrizes para segurança em serviços de nuvem, a 27.701, que é a extensão da 27.002 para os controles de segurança certificados pela 27.001, e a 22.301, que é sobre segurança em data centers. Além de questões relacionadas à recuperação de desastres, não compartilhar recursos físicos com outros clientes que não sejam o órgão em questão, como eu disse antes.
    (11:12) De fato, são normas importantes. São, eu diria, diretrizes de certa forma até um tanto quanto genéricas, mas que colocam um grau de segurança importante, interessante, eu diria adequado, talvez, com o nível de exigência de segurança que se exige para o tratamento de informações classificadas. Agora, também, como se sabe, é possível estabelecer algumas críticas. Eu comentei antes que é uma movimentação do
    (11:53) Estado brasileiro no sentido de utilizar recursos em nuvem. Ou seja, você tem aí, evidentemente, benefícios. E, como a adoção de tecnologias e a migração para a nuvem, seja no setor público ou no setor privado, sempre vai exigir uma análise de risco e uma consideração do cenário, do panorama de risco e das ameaças. Uma modelagem de ameaças para saber se vale ou não a pena realizar essa movimentação. Quando olhamos para os Estados Unidos especificamente, eles utilizam soluções
    (12:30) semelhantes. A AWS, por exemplo, possui o AWS GovCloud, que eles chamam de regiões soberanas, inclusive para o tratamento de informações top secret. Olha só, eles têm lá o AWS Top Secret Cloud. Mas aí nós temos uma diferença. Quem conhece um pouco o National Institute of Standards and Technology (NIST) americano sabe que eles possuem uma série de normas de segurança muito maiores e mais complexas do que esta instrução normativa, por exemplo. Então, a AWS,
    (13:13) nesses dois casos, precisa cumprir as normas do NIST aplicáveis a esse ambiente de nuvem. E são regras, repetindo, muito mais robustas do que essa que vemos aqui. Tanto é assim que eles se permitiram utilizar a nuvem da AWS para serviços prestados e tratamento de informações da CIA e também da NSA.
    (13:45) Mas uma coisa que chama bastante atenção, se vocês entrarem lá no AWS GovCloud, verão a referência, e eles ressaltam, de que a infraestrutura é somente operada por cidadãos americanos em solo americano. Notem, isso está na abertura do serviço deles, na página inicial.
    (14:10) Então, essa questão da preocupação com os cidadãos americanos me parece estar no cerne da talvez crítica que se possa fazer aqui, e que deve se refletir também em outros Estados que não o americano. Porque, qual é o ponto de você utilizar um serviço americano operado por cidadãos americanos?
    (14:36) Isso tem um fundo de preocupações, que serão diferentes quando um Estado não americano utilizar esses recursos americanos para o tratamento de informações classificadas. Então, esse é o primeiro ponto, e acho que acaba se conectando com uma preocupação muito mais geopolítica, eu diria. Ou seja, é colocar também nessa modelagem de ameaças, que se faz quando um Estado vai mover sua infraestrutura de tratamento de informações classificadas para uma nuvem de um governo
    (15:18) estrangeiro, a avaliação dos aspectos geopolíticos dessa movimentação. Essa é a possível crítica que poderíamos fazer, porque ser o dono dos recursos de nuvem pode, em certas circunstâncias, afetar talvez a disponibilidade do serviço. Basta pensarmos nos recentes desacertos, para dizer o mínimo, os desarranjos entre Estados Unidos e Brasil, que parecem estar se ajustando nesse momento, mas com sanções para funcionários públicos brasileiros. Entre essas sanções, em um determinado momento, chegou-se
    (16:02) até, como falamos aqui no podcast, a questionar se as sanções poderiam envolver a Microsoft deixar de prestar serviços de e-mail para o STF, por exemplo. Então, quando você decide fazer movimentações dessa natureza no contexto geopolítico atual, deve considerar também os riscos envolvidos nesses novos cenários. Essa poderia ser uma crítica que fazemos.
    (16:36) Outra questão é a dos algoritmos de Estado. O inciso quatro do artigo terceiro menciona que a criptografia deve ser feita com os algoritmos de Estado. Isso não é novo. A figura dos algoritmos de Estado foi estabelecida em 2012, com padrões mínimos, por meio de uma norma complementar, a número nove do Gabinete de Segurança. Eles definem o algoritmo de Estado como uma “função matemática utilizada na cifração e na decifração, desenvolvida pelo Estado para uso exclusivo e interesse do serviço de órgãos ou entidades do poder público”.
    (17:13) Bom, essa é uma escolha. Evidentemente, os Estados podem desenvolver algoritmos próprios para seu uso, digamos assim. Mas sabemos também, e essa é uma referência que o Vinícius sempre faz aqui, que é bastante complicado reinventar a roda no que diz respeito a algoritmos de criptografia, ainda mais em um cenário já muito bem estabelecido de algoritmos totalmente consolidados que oferecem garantias
    (17:49) importantes, reconhecidas e já testadas no que diz respeito à criptografia. O erro aqui, me parece, e veja, isso não é de agora, é desde 2012, é considerar que a segurança de um algoritmo se dá pelo seu segredo. Ou seja, é a obscuridade de detalhes do algoritmo que traria a segurança.
    (18:19) Quando sabemos que a grande questão do uso de algoritmos de criptografia, sobretudo em redes públicas, é justamente ele poder ser público, e essa publicidade não pode comprometer a segurança inerente da sua proteção. Mas, veja, isso também não é nada novo, é uma escolha perfeitamente possível que o Estado pode fazer, mas apenas detalhando aqui, como sempre fazemos, destacando os aspectos positivos e negativos das questões que comentamos.
    (18:50) Então, fica essa notícia sobre essa movimentação do governo brasileiro. Eu falei antes sobre incerteza geopolítica. Por que falei sobre isso? Porque outra notícia que se alinha completamente com isso foi uma pesquisa, e vou falar bem rapidinho sobre ela, que é o Global Risk in Focus, promovido pela Internal Audit Foundation. Eles fizeram um levantamento das áreas em que os auditores internos gastam mais tempo e também quais são as prioridades das auditorias. E o que chamou
    (19:25) atenção nos resultados deste ano foi o aumento expressivo de dois riscos: a ideia de disrupção digital, que envolve a IA, e, vejam só, justamente a incerteza geopolítica. Eles colocam no relatório que essa incerteza geopolítica vai variar de acordo com o tipo de negócio. Mas, por exemplo, e nós no Brasil estamos vendo isso, setores como manufatura, mineração, energia, agricultura e
    (19:55) transporte estariam mais sujeitos a esse tipo de incerteza. A média mundial, apenas para deixar claro, ou seja, as preocupações dos auditores internos seriam cibersegurança, disrupção digital, resiliência dos negócios,
    (20:16) capital humano e mudanças regulatórias. A parte geopolítica apareceu em quinto lugar na Europa, América Latina e Estados Unidos e aumentou 19% desde a última avaliação. Aqui na América Latina, a preocupação que ficou em segundo lugar foi a disrupção digital, o que demonstraria um certo receio dos latino-americanos
    (20:44) de ficarem para trás no uso de inteligência artificial e na liderança dessas tecnologias. Ao mesmo tempo, por uma questão de soberania, sabemos também que temos utilizado, inclusive no setor público, de forma muito intensa soluções americanas. Isso acaba envolvendo preocupações de ordem, veja, não só de disrupção ou de não estar na liderança, ou de não possuir soluções brasileiras relevantes, por exemplo, pelo menos até este momento. Mas quando se conecta isso com a incerteza
    (21:23) geopolítica, criam-se justamente preocupações. Estamos falando aqui de auditorias, auditores internos. E, claro, essa pesquisa foi feita no setor privado, mas se conecta com o tema que colocamos antes, de como a incerteza geopolítica pode afetar também a segurança da informação. Temos também a atualização ou atualizações do grande ataque cibernético ao sistema financeiro que atingiu a CM.
    (21:56) Falamos sobre isso no episódio 396. Bem, qual foi a novidade aqui? Foi que a polícia disse ter conseguido interceptar mensagens. Sabemos que a ideia de interceptação telemática ocorre quando a mensagem é interceptada durante o seu trânsito. Então, talvez aqui eles não tenham efetivamente interceptado, mas sim devem ter tido acesso, de alguma forma, a mensagens já trocadas.
    (22:31) Muito provavelmente foi isso. E a novidade foi que os criminosos, eles conseguiram capturar mensagens em que os criminosos discutiam estratégias de como iriam lavar o dinheiro, inclusive se vangloriando, festejando o ataque, dizendo que estariam famosos e tudo mais. E aí tem algumas conversas entre os responsáveis, sobre quem seria o responsável por lavar o dinheiro. Ele teria sido cooptado e oferecido contas de laranjas.
    (23:02) E também uma mensagem perguntando se essa pessoa que queria lavar o dinheiro teria capacidade para movimentar um bilhão. O sujeito disse que não, e o outro responde em tom de deboche: “Tenho alguns trilhões aqui”. E também, segundo a reportagem, ele teria afirmado, mas não se sabe exatamente quem era e como isso se deu, e também não se sabe se ele não estaria só se vangloriando, que teria contato com donos de bancos digitais. De forma interessante, um dos suspeitos, depois do ataque, fugiu para a Alemanha e está na lista da
    (23:34) Interpol. E conectado não com esse ataque, mas com este assunto, teve uma outra notícia recente aqui do Correio Braziliense: um servidor do Banco do Brasil teria cobrado 1 milhão para permitir o acesso ao seu notebook. Então, ele teria cobrado esse valor.
    (24:10) Na reportagem tem a foto do notebook com os adesivos do Banco do Brasil e papel de parede do BB e tudo mais. E o Banco do Brasil disse que detectou e frustrou a tentativa por meio do monitoramento interno, acionou a polícia e está colaborando com as investigações. Pelo visto, os controles de segurança surtiram efeito. Mas notem como o cenário de riscos se modificou. Temos então quadrilhas que, mesmo depois desse ataque cibernético, estão atuando para ter acesso às infraestruturas internas dos bancos. Porque, veja,
    (24:47) pode ser que o atacante, pensando como criminoso, muitas vezes não esteja realizando um ataque, mas sim realizando um levantamento de informações. E isso acaba chegando nas instituições financeiras de maneira geral. Ou seja, o que seu funcionário pode fazer fora da organização? Quão rápido a instituição consegue detectar desvios, uma atuação suspeita? Como são as políticas, como é o processo de contratação? Departamento Pessoal, recursos
    (25:25) humanos e segurança da informação estão ligados, seja pela referência lá na ISO 27002. E essa ideia de trabalho remoto, de monitoramento, dos registros, do acompanhamento, da segregação de funções. Tudo isso está no centro, e da própria implementação das políticas criadas, está no centro dessas preocupações. Porque, notem, nesse caso aqui, a quadrilha se dispôs a pagar 1 milhão para um servidor que, por outro lado, também se dispôs a cobrar esse valor para franquear o acesso a criminosos.
    (26:03) Então, é algo bem delicado. E muitas vezes você não consegue saber qual é o preço do funcionário. Por isso que medidas de controle, e parece que as do Banco do Brasil aqui surtiram efeito, são cruciais, cada vez mais importantes para se antecipar a esse tipo de ataque, que, tudo indica, está cada vez mais frequente aqui no Brasil. Bom, a revista Nature, para não fugirmos da tendência dos últimos episódios,
    (26:33) em que sempre falamos sobre IA em algum momento, publicou um artigo que o Vinícius descobriu e me passou.
    (26:44) Achei uma das descobertas mais interessantes dos últimos tempos, embora já intuísse esse tipo de comportamento, não pelas mesmas razões, mas por encontrar situações como essa no cotidiano e na academia: a relação entre comportamentos desonestos e a delegação de atividades para a IA.
    (27:22) Então, esse estudo fez justamente essa relação: que a delegação de atividades para ferramentas de inteligência artificial pode aumentar, ou traria uma tendência de comportamentos desonestos. Por que isso é importante? É importante porque todo mundo que está nos escutando sabe que as pessoas estão cada vez mais delegando uma série de decisões para modelos, para ferramentas de IA, seja em questões muito simples do cotidiano ou em questões que interferem cada vez mais na vida das
    (28:01) pessoas. E quando começamos a falar também no uso de agentes, na implementação de modelos e de ferramentas que passam a ter um grau de autonomia maior para realizar atividades, mas ainda assim são comandadas por alguém, aí vem a importância disso. Verificou-se que as pessoas começaram a pedir ou sugerir que a IA agisse desonestamente. E isso teria relevância porque as
    (28:44) máquinas estariam mais predispostas a cumprir ordens antiéticas ou a trapacear do que outras pessoas. E o artigo joga com vários elementos da economia comportamental. Cheguei a estudar um pouco isso no mestrado. Meu professor orientador no mestrado e no doutorado,
    (29:09) entre suas áreas de estudo, está a análise econômica do direito. E um dos conceitos que estudamos na análise econômica do direito, que vem da economia, é a ideia da teoria da agência, que é justamente quando uma pessoa, o principal, delega uma tarefa para um agente. Vemos isso, por exemplo, no direito, no contrato de mandato, quando você outorga poderes para alguém praticar atos jurídicos em seu nome. Você tem ali uma relação entre principal e agente. Então,
    (29:49) esse problema do principal-agente nos faz discutir várias coisas dentro da economia e do direito. Ou seja, você pode confiar no agente? O agente vai agir sempre no interesse do principal? A ideia é que, se eu delego uma tarefa para um agente, esse agente deve agir no meu próprio interesse, que sou o principal. Desvios nessa questão às vezes são coibidos pelo próprio direito.
    (30:22) Lá no contrato de mandato vemos isso. E aí começam a emergir uma série de outros problemas. Ou seja, tem a assimetria informacional. Eu sei o suficiente sobre o agente? Eu confio no agente? O agente tem interesses que poderiam se sobrepor aos do principal? Veja que tudo isso a gente analisa quando principal e agente são pessoas. Então, isso faz com que tenhamos custos contratuais, seja custos de supervisão do agente, de monitoramento do agente, custos para consolidar a confiança. Estava revisitando o livro do professor Fernando
    (30:58) Araújo para pegar um pouquinho dessa questão do agente, da teoria da agência, que, repetindo, se faz no âmbito de agente e principal sendo pessoas humanas. E o grande problema é que as pessoas estão delegando, o principal está delegando tarefas para um agente que é uma IA.
    (31:28) E aí eu tenho, logo de saída, uma grande imprevisibilidade, porque não é um agente racional e que também, veja, ao contrário das pessoas, a IA não tem constrições morais, reservas morais. Ela pode ser treinada para realizar atividades que simulariam um agente moral, mas ela não tem moral como uma pessoa. Então, esse é um dos elementos. Inclusive, o agente
    (32:05) no mundo real, entre pessoas, o agente que é solicitado para ser desonesto terá um custo moral de ser eventualmente pego como desonesto e até um custo legal. Eventualmente, ele pode estar descumprindo uma lei, dependendo do tipo de ordem que for dada para ele. E o que esses estudiosos, os pesquisadores, descobriram é que esse custo, o custo de o agente ser desonesto, ou seja, o custo de você pedir para alguém fazer algo desonesto,
    (32:28) ele é diminuído quando se faz o mesmo pedido para uma máquina. Por quê? Porque, entre outras explicações, a máquina não suportaria, no primeiro momento, esse custo moral. Ela seria mais propícia a seguir ordens
    (32:51) antiéticas. Foi inclusive uma das considerações que eles fizeram aqui. E daí, claro, se quiserem ler o artigo, eles fazem basicamente dois testes, colocando agentes IAs e agentes humanos em situações semelhantes para tentar medir isso. Claro que, ao mesmo tempo, eles também
    (33:16) descobriram que, se a máquina for dada uma ordem explícita para que não realize atividades consideradas antiéticas ou trapaças, ela se negaria a fazer. Mas isso não seria uma propriedade global, digamos assim. Você teria que dar no próprio prompt esse comando para que ela não trapaceasse. Então, isso fez com que eles chegassem à conclusão de que a delegação para IA aumentaria o comportamento antiético, veja, tanto do lado do agente quanto do lado do principal. Ou
    (33:59) seja, aquele que dá as ordens também passaria a praticar ou aumentar a frequência de comportamentos antiéticos. As razões que eles disseram pelas quais nós, seres humanos, devemos nos preocupar com os achados desse estudo são que, quando você delega comportamentos para uma máquina, observaram-se mais comportamentos antiéticos. Os
    (34:26) cenários de delegação para as máquinas, para a IA, serão mais frequentes do que a delegação para humanos. Isso envolveria um aumento absoluto de comportamentos antiéticos pelo número de delegações, ou seja, as pessoas vão delegar cada vez mais atividades para as IAs. E, mesmo nos melhores cenários, os comportamentos antiéticos aumentam. Por quê? Porque as máquinas tendem a cumprir mais comportamentos antiéticos do que as pessoas.
    (35:06) Os números são bem relevantes. As pessoas, os humanos, teriam uma tendência de seguir comportamentos antiéticos entre 25% a 40%, já a máquina vai de 60% a 95%. Lembrando que estou resumindo um estudo complexo. Eles utilizaram mais de um modelo para chegar às suas conclusões.
    (35:29) Então, o ideal é que, se você tiver interesse, vá lá ler e estudar o próprio artigo. É realmente bem complexo, tem toda a parte técnica, matemática, como foram os testes e tudo mais. Eles colocam também algumas limitações psicológicas que podem haver. Mas eu disse antes: “eu já intuía que isso poderia acontecer”.
    (35:59) Por que eu disse isso? Porque já me deparei, até em sala de aula, com o uso de IA, que, claro, depois foi por mim descoberto. Um professor, quando conhece o aluno, consegue notar uma diferença na qualidade do texto produzido, por exemplo. Lembra que eu falei antes do custo de observabilidade, ou seja, a possibilidade de as outras pessoas que eventualmente terão acesso a produtos produzidos por IA descobrirem que você usou? Se há uma impossibilidade ou uma dificuldade muito grande de que outras pessoas descubram, haverá uma
    (36:38) tendência para o uso, quando este for proibido, o que ocorre em alguns contextos educacionais. Então, esse estudo, publicado mais uma vez na revista Nature, evidencia um pouco disso e nos coloca em um cenário, eu diria, bem delicado e complicado. Porque sabemos, ao mesmo tempo, que a internet também permite, por suas próprias propriedades, uma série
    (37:16) de comportamentos antiéticos e ilegais, de trapaça. Quando olhamos para o Brasil, por exemplo, e enquanto eu gravava aqui, chegou uma ligação dessas de fraudes que recebemos o dia todo. O brasileiro já está acostumado, começando a ficar treinado para isso, e ainda assim somos um dos países que mais sofre com fraudes cibernéticas, por telefone e tudo mais. Então, quando eu junto essas duas tendências, notamos uma piora
    (37:47) em um valor que é muito importante para o direito, mas também para a segurança e para as relações humanas, que é o valor da confiança. Então, parece, e acho que uma das conclusões preliminares que podemos fazer aqui, é uma erosão da confiança e sobre como isso pode afetar não somente os negócios, que é o foco principal do podcast, um podcast mais direcionado para o mercado, para empresários, para
    (38:15) empresas, ou seja, você pode notar uma erosão da confiança nos contextos, mas uma erosão também até mesmo do próprio tecido social. Eu diria que, de uma forma ou de outra, dá para dizer que isso já aconteceu com a internet, a questão da confiança, como a internet afeta isso, mas com a IA agora parece que o
    (38:40) cenário tende a piorar. A não ser que, e aí vem a possível forma de resolver, os mantenedores, as empresas que desenvolvem os modelos, construam “guard rails”, medidas de controle adequadas
    (39:03) o suficiente para evitar, de maneira global, esse comportamento desonesto da máquina, ou de seguir atividades desonestas, o que é bastante complicado. E eles destacam isso no estudo.
    (39:19) E já falamos sobre isso aqui várias vezes, como as pessoas são muito criativas em descobrir como enganar a máquina. Por exemplo, a IA foi instruída a não fornecer receitas de bombas, e aí o sujeito vai lá e engana a máquina, diz: “Ah, estou escrevendo uma peça de teatro”, e a máquina vai lá e dá a instrução que
    (39:38) ela não deveria dar. Então, a grande questão é essa: se os desenvolvedores serão capazes de prevenir comportamentos desonestos nos próprios modelos, o que é bastante difícil de saber. Mas o estudo revelou que é muito fácil enganar a máquina para fazer com que ela se comporte de maneira diferente daquilo para que foi treinada. Bom, pessoal, desta vez gravei o episódio sozinho. O Vinícius mais uma vez não pôde
    (40:15) participar, mas deve voltar no próximo episódio. Então, por isso fica aqui um episódio mais curtinho, de 40 minutos. Agradeço a todos aqueles e aquelas que nos acompanharam até aqui e nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima.

    ...more
    View all episodesView all episodes
    Download on the App Store

    Segurança LegalBy Guilherme Goulart e Vinícius Serafim

    • 4
    • 4
    • 4
    • 4
    • 4

    4

    7 ratings


    More shows like Segurança Legal

    View all
    Braincast by B9

    Braincast

    108 Listeners

    RapaduraCast - Podcast de Cinema e Streaming by Cinema com Rapadura

    RapaduraCast - Podcast de Cinema e Streaming

    111 Listeners

    MacMagazine no Ar by MacMagazine.com.br

    MacMagazine no Ar

    179 Listeners

    Xadrez Verbal by Central 3 Podcasts

    Xadrez Verbal

    174 Listeners

    Giro do Loop by Loop Infinito

    Giro do Loop

    91 Listeners

    Tecnocast by Tecnoblog

    Tecnocast

    43 Listeners

    NerdCast by Jovem Nerd

    NerdCast

    1,010 Listeners

    Naruhodo by B9, Naruhodo, Ken Fujioka, Altay de Souza

    Naruhodo

    121 Listeners

    Petit Journal by Petit Journal

    Petit Journal

    78 Listeners

    Durma com essa by Nexo Jornal

    Durma com essa

    46 Listeners

    História FM by Leitura ObrigaHISTÓRIA

    História FM

    30 Listeners

    Ciência Suja by Ciência Suja

    Ciência Suja

    20 Listeners

    Vortex by Parasol Storytelling

    Vortex

    19 Listeners

    Só no Brasil by Pipoca Sound

    Só no Brasil

    4 Listeners

    IA Sob Controle - Inteligência Artificial by Alura - Hipsters Network

    IA Sob Controle - Inteligência Artificial

    1 Listeners