Otostopçunun Yapay Zeka Rehberi

Bölüm 2: Yapay Zeka Halüsinasyonu Türleri Nelerdir? Halüsinasyon Sorunu Nasıl Önlenir?


Listen Later

Otostopçunun Yapay Zeka Rehberi'nin bu bölümünde, yapay zekanın “halüsinasyon” adı verilen, hiç var olmayan bilgileri gerçekmiş gibi sunma kusurunu ele aldığımız 2. bölüme geçiyoruz ve yarattığı riskleri ve bu rüyamsı yanıltmaları önlemek için geliştirilen Retrieval-Augmented Generation (RAG), Zincirleme Düşünce (CoT), Self-Consistency, İnsan Geri Bildirimiyle Öğrenme (RLHF), çok modlu doğrulama gibi yöntemleri uygulama örnekleri eşliğinde ele alıyoruz. Dünyaca ünlü araştırmacıların ve teknoloji liderlerinin görüşleriyle de güvenilir bir yapay zekâya nasıl ulaşabileceğimizi anlamaya çalışıyoruz. Bu yolculuğa eşlik etmek için:

Kaynaklar:

  • Websitem: fbildirici.github.io
  • Stanford State of AI Index Rapor: https://hai.stanford.edu/ai-index/2023-ai-index-report
  • Chain-of-Thought'u adeta karşılaştırarak doğrulayan Self-Consistency mekanizması: https://arxiv.org/abs/2203.11171
  • Human Feedback ile Pekiştirmeli Öğrenme Kullanımı Hakkında: https://arxiv.org/abs/2203.02155
  • Eliezer Yudkowsy'nin Blogu: https://www.lesswrong.com/posts/wAczufCpMdaamF9fy/my-objections-to-we-re-all-gonna-die-with-eliezer-yudkowsky
  • Chain of Thought'u Ortaya Çıkaran Makale, Geçmiş Bölümlerde Anlatmıştık: https://arxiv.org/abs/2201.11903
  • Altman'ın Hallucination Hakkındaki Görüşleri: https://thereader.mitpress.mit.edu/hallucinating-ais-sound-creative-but-lets-not-celebrate-being-wrong/
...more
View all episodesView all episodes
Download on the App Store

Otostopçunun Yapay Zeka RehberiBy Fatih Bildirici PhD(c)