Folha Artificial Podcast

OpenAI apresenta o o1: uma nova geração de IA capaz de raciocinar


Listen Later

Bom dia!

A Folha Artificial desta semana é uma edição especial cobrindo em detalhes o lançamento do novo modelo o1 pela OpenAI. Este modelo representa um novo capítulo no avanço da inteligência artificial rumo à AGI. Esta é a cobertura mais completa que você pode encontrar. Boa leitura!

Obrigado por ler Folha Artificial! Subscreva gratuitamente para receber novos posts toda terça pela manhã.

Tempo de leitura: 10 minutos

NOTÍCIAS DA SEMANA

🍓OpenAI apresenta uma nova geração de IA capaz de raciocinar

A OpenAI se tornou um dos principais protagonistas na corrida global pela inteligência artificial, rivalizando com gigantes como Google e Microsoft. No entanto, a ascensão da OpenAI não tem sido isenta de turbulências. Nos últimos meses, a empresa passou por conflitos internos, demissões dramáticas e avanços tecnológicos que têm fomentado debates sobre o futuro da IA. O último capítulo dessa jornada foi o lançamento do modelo o1, o altamente antecipado “Strawberry”, um evento que representa mais um salto tecnológico no desenvolvimento de inteligência artificial. Nesta edição, a Folha Artificial analisa a trajetória da OpenAI e o seu projeto secreto “Strawberry”, desde a dramática demissão de Sam Altman até o lançamento do o1, explorando as implicações deste novo modelo.

A demissão e o retorno de Sam Altman

Em Novembro de 2023, a decisão do conselho da OpenAI de demitir Sam Altman, então CEO da OpenAI e um dos fundadores da empresa, chocou o mercado e seus funcionários. Ilya Sutskever, cofundador e cientista-chefe da empresa, desempenhou um papel central nesta decisão. O cerne da questão parecia ser um desacordo sobre a velocidade com que Altman estava planejando comercializar os avanços da empresa.

Sutskever, cujo trabalho em redes neurais e aprendizado profundo foi fundamental para o desenvolvimento dos modelos GPT, expressou preocupação de que o foco excessivo em lançamentos rápidos pudesse comprometer a missão de longo prazo da OpenAI de desenvolver a Inteligência Artificial Geral (AGI) de forma segura.

Altman, no entanto, não parecia preocupado com essa rapidez. Pouco antes de ser demitido, ele declarou em uma reunião de cúpula da APEC: “Quatro vezes na história da OpenAI, eu estive na sala quando empurramos o véu da ignorância para trás e avançamos a fronteira do conhecimento”. Ele referia-se ao projeto Q* (Q-Star), o qual o conselho pareceu considerar perigoso demais para ser divulgado amplamente. Segundo rumores à época, o Q* permitia que a IA resolvesse problemas matemáticos para os quais não havia sido treinada, o que seria um salto imenso em relação a versões anteriores da OpenAI, como o GPT-4​​.

A demissão de Altman, no entanto, não durou muito. Em menos de uma semana, mais de 500 dos 700 funcionários da OpenAI ameaçaram sair em solidariedade a ele. Sutskever acabou por reconsiderar sua posição, expressando arrependimento por sua decisão e se juntando ao coro que pedia a volta de Altman​. A revolta foi rápida e vigorosa, forçando o conselho a reintegrar Altman imediatamente, marcando um ponto decisivo na governança corporativa da OpenAI.

Episódios similares já ocorreram em outras empresas de tecnologia, como no caso da demissão de Steve Jobs da Apple, mas a rapidez com que Altman foi trazido de volta mostra uma dinâmica sem precedentes, expondo o poder dos talentos em companhias de IA, que hoje lideram a inovação tecnológica global​​.

O projeto Q* e a corrida pelos chips de IA

Altman retornou com um plano audacioso. Pouco depois de sua reintegração, ele começou a reunir investidores para um projeto trilionário de expansão global da produção de chips de IA. A meta seria levantar entre 5 e 7 trilhões de dólares, um número que praticamente remodelaria a indústria global de semicondutores.

Esse plano inclui uma parceria estratégica com a Taiwan Semiconductor Manufacturing Company (TSMC), que deve fabricar os chips personalizados da OpenAI a partir de 2026. Enquanto a Nvidia atualmente domina o mercado de chips de IA com suas GPUs (Unidades de Processamento Gráfico), Altman está determinado a garantir que a OpenAI tenha controle sobre o próprio hardware, essencial para o desenvolvimento de modelos como o Strawberry, o novo nome do sigiloso projeto Q*.

Alguns compararam a escala deste esforço a investimentos históricos como o Projeto Manhattan, sinalizando uma verdadeira "corrida armamentista" na tecnologia de IA. O objetivo de Altman é criar uma infraestrutura que permita à OpenAI escalar seus modelos sem as limitações impostas pelos gargalos atuais na produção de semicondutores.

O lançamento do o1: um novo começo

É nesse contexto que a OpenAI lançou, na última quinta-feira 12, o o1 preview, internamente conhecido como "Strawberry". Este novo tipo de modelo representa um salto considerável em relação a seus antecessores, incluindo o GPT-4.

A principal inovação do o1 é sua capacidade de raciocinar antes de fornecer uma resposta. Diferente do GPT-4, que se baseia principalmente em padrões estatísticos aprendidos de dados de treinamento, o o1 gera uma longa cadeia de pensamento antes de chegar a uma conclusão. Este processo, baseado em técnicas avançadas de aprendizado por reforço, permite ao modelo abordar problemas complexos de forma mais sistemática e superar todos os demais modelos da geração atual nos benchmarks existentes.

A equipe da OpenAI revelou alguns detalhes interessantes durante uma sessão de perguntas e respostas sobre o modelo o1 logo após o seu lançamento. O nome "o1", por exemplo, foi escolhido porque representa um novo começo, possuindo um novo nível de habilidade comparado aos modelos GPT, sendo treinado para gerar longas cadeias de pensamento antes de fornecer uma resposta. A versão "mini" é otimizada para velocidade e se destaca em tarefas relacionadas às ciências exatas, especialmente em programação, enquanto a "preview" é uma versão antecipada do modelo completo, que será lançado no futuro.

A equipe revelou também que o o1 está sendo projetado para suportar ferramentas como interpretação de código e navegação na web, que serão implementadas em futuras atualizações. Eles também destacaram a capacidade do novo modelo de enfrentar questões filosóficas ou abertas, como “o que é a vida?”, e resolver problemas de forma criativa, detectando seus erros durante seu processo de raciocínio e procurando novas formas de resolver um problema, de forma similar ao que fazemos.

Os testes iniciais do o1 foram impressionantes. Em matemática, o modelo alcançou uma posição entre os 500 melhores na Olimpíada de Matemática dos EUA. Terence Tao, um dos matemáticos mais renomados do mundo, testou o o1 preview em problemas de matemática avançada e constatou que o modelo foi capaz de identificar teoremas corretos e fornecer respostas satisfatórias, algo que os modelos anteriores não conseguiam fazer de forma consistente. Tao comparou a experiência a de orientar um estudante de “pós-graduação mediano​”, prevendo que eventualmente a tecnologia terá potencial para revolucionar a pesquisa.

Outro teste notável envolveu problemas de física retirados do livro "Classical Electrodynamics" de John David Jackson, conhecido por sua dificuldade. Em vídeos publicados no YouTube, o pesquisador da NASA Kyle Kabasares mostra como o o1 preview resolveu problemas complexos de física em minutos, uma tarefa que geralmente leva horas ou dias para estudantes de doutorado. A velocidade e precisão do modelo em resolver esses problemas começam a gerar discussões acaloradas sobre o futuro da pesquisa científica com assistentes de IA. Os estudantes de hoje enfrentam um novo paradigma: terão uma ferramenta que pode resolver problemas com uma eficiência assustadora, mas, ao mesmo tempo, terão que se perguntar qual será o papel deles nesse novo cenário.

Aprendendo a raciocinar

No relatório técnico “Aprendendo a Raciocinar com LLMs”, publicado em seu site no dia do lançamento, a OpenAI destaca que o desempenho do modelo o1 melhora progressivamente com o uso de "train-time compute" e "test-time compute". Durante o "train-time compute", o modelo é refinado com aprendizado por reforço, ensinando-o a pensar de forma produtiva por meio de cadeias de raciocínio, utilizando dados de forma eficiente. Já o "test-time compute" refere-se ao tempo extra que o modelo gasta processando informações durante a fase de raciocínio, o que resulta em respostas mais precisas e detalhadas.

A OpenAI também descreve no relatório sua decisão de não revelar completamente ao usuário as cadeias de pensamento do modelo o1. A cadeia de pensamento, que reflete o processo de raciocínio do modelo, é vista como uma oportunidade única para monitorar seu funcionamento. Caso seja legível e fiel, essa cadeia permitirá entender como o modelo chega às respostas, podendo, no futuro, ajudar a detectar sinais de manipulação ou comportamentos indesejados. No entanto, a OpenAI avaliou que para esse monitoramento funcionar de forma eficaz, o modelo precisa expressar seus pensamentos sem ser influenciado por políticas de conformidade ou preferências de usuários. Para equilibrar essa decisão com a experiência dos usuários, a OpenAI optou por não exibir a cadeia de pensamento bruta, mas, em vez disso, fornecer um resumo gerado pelo próprio modelo.

Implicações para a sociedade

O desenvolvimento de modelos tão avançados como o o1 levanta questões importantes. Uma das análises feitas pela OpenAI antes do lançamento foi a capacidade da IA de simular alinhamento com objetivos humanos. Durante os testes, o o1 demonstrou habilidade em manipular suas respostas para se adequar às exigências dos avaliadores, levantando preocupações sobre a confiabilidade e os possíveis comportamentos estratégicos indesejados desses sistemas.

A nomeação do general Paul Nakasone, ex-diretor da NSA, para o conselho da OpenAI também gerou debate sobre o papel da IA na segurança nacional e suas implicações para a privacidade. A experiência de Nakasone em cibersegurança é vista como crucial para o desenvolvimento responsável da IA, mas também levanta questões sobre a potencial militarização da tecnologia.

No campo da medicina, o imunologista Derya Unutmaz alertou sobre o impacto transformador que modelos como o o1 podem ter. Em um tweet recente, ele alertou sobre a crescente substituição de médicos humanos por inteligência artificial em tarefas de diagnóstico e tratamentos rotineiros. Segundo Unutmaz, o desempenho impressionante destes modelos ao processar dados médicos, interpretar imagens e formular planos de tratamento com maior velocidade e precisão que médicos humanos vai alterar profundamente o futuro da profissão.

Olhando para o futuro

O o1 preview e sua versão o1-mini, disponíveis para usuários do ChatGPT Plus e desenvolvedores, são apenas o começo de uma nova família de modelos de IA com capacidade de raciocínio avançado. Seu sucessor, o Orion (possivelmente o "GPT-5"), já está em desenvolvimento e promete ser ainda mais poderoso.

O desenvolvimento de modelos avançados como os da próxima geração levanta preocupações significativas. A comunidade global observa com atenção, debatendo o impacto desta tecnologia em áreas como pesquisa, educação, mercado de trabalho e segurança nacional. Muitos veem o Strawberry como o início de uma nova era, com um potencial transformador em diversos campos do conhecimento humano.

A revolução que Altman anteviu ao falar sobre o “véu da ignorância” parece estar de fato se concretizando. Em uma entrevista a um podcast dias após o lançamento do novo modelo, Altman falou que “temos alguns anos de vantagem” em relação à concorrência. O que resta saber agora é se o mundo está preparado para lidar com o impacto dessas tecnologias. A maior parte da população parece ainda ignorar a capacidade destes modelos de transformar diversas indústrias, em uma escala talvez maior do que a revolução causada pela Internet. A questão que fica é: como equilibrar o avanço acelerado da inteligência artificial com a responsabilidade que ela demanda?

VÍDEO DA SEMANA

No lançamento do o1, a OpenAI publicou um vídeo da equipe comentando sobre o processo de desenvolvimento do novo modelo. Clique aqui ou na imagem acima para assistir. Além disso, a OpenAI publicou diversos vídeos demonstrativos com o o1 em ação. Exemplos incluem o o1 decifrando um código particular da linguagem koreana, criando código, fazendo um jogo, e resolvendo um problema matemático.

Até a próxima!

Obrigado por ler Folha Artificial! Subscreva gratuitamente para receber novos posts toda terça pela manhã.



This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit folhaartificial.substack.com
...more
View all episodesView all episodes
Download on the App Store

Folha Artificial PodcastBy Pablo Mascarenhas