Metaが開発したAIモデル「TRIBE v2」は、映像や音声、テキストに対する人間の脳反応をfMRIレベルで予測する「脳のデジタルツイン」です。720人以上のデータで訓練され、解像度は従来モデルの70倍に向上しました。事前の個別データなしで未知の人の脳反応を予測でき、異なる言語にも対応します。モデルは無償公開され、神経科学とAIの融合をさらに加速させる画期的な研究成果です。
参考記事〇Introducing TRIBE v2: A Predictive Foundation Model Trained to Understand How the Human Brain Processes Complex Stimuli(2026年3月26日) https://ai.meta.com/blog/tribe-v2-brain-predictive-foundation-model/〇Meta's TRIBE AI: A New Foundation Model Decoding Human Brain Activity(2026年3月27日) https://neurosciencenews.com/meta-tribe-ai-brain-decoding-30398/〇Meta's new AI model predicts how your brain reacts to images, sounds, and speech(2026年3月28日) https://the-decoder.com/metas-new-ai-model-predicts-how-your-brain-reacts-to-images-sounds-and-speech/〇A New Digital Twin for Brain Activity Aims to Speed Research(2026年3月29日) https://www.psychologytoday.com/us/blog/the-future-brain/202603/a-new-digital-twin-for-brain-activity-aims-to-speed-research〇Meta Open Sources Foundation Model That Predicts Brain Responses to Speech, Video, and Text(2026年3月27日) https://www.biopharmatrend.com/news/meta-open-sources-foundation-model-that-predicts-brain-responses-to-speech-video-and-text-1544/〇より自然の脳に近づくマルチモーダルAI(2024年7月19日) https://note.com/kojifukuoka/n/n5c781ba4085c〇脳とコンピュータを「つなぐ」研究が、オープンソースで手に届く時代へ(2026年2月14日) https://note.com/kojifukuoka/n/neca81d0de9ac〇AIと脳科学の交差点:記憶メカニズムを模倣する新時代のAI(2025年2月11日) https://note.com/kojifukuoka/n/n6cb118e5dd9a
#Meta #TRIBEv2 #AI #人工知能 #脳科学 #神経科学 #fMRI #デジタルツイン #オープンサイエンス #オープンソース #マルチモーダル #Transformer #基礎モデル #ゼロショット予測 #サイエンス #テクノロジー #科学技術 #認知科学 #脳 #予測モデル #シミュレーション #研究成果 #2026年 #FAIR #BCI