科研喵使用AI读文献,祝你效率百倍,访问labcat.com.cn下载。本期关注发表在Nature Methods (IF: 36.1) 上的重要论文"Multimodal foundation transformer models for multiscale genomics"。这项研究探讨了Transformer架构在多尺度基因组学中的革命性应用,从单模态到能够整合基因组序列、单细胞转录组和空间数据的大规模多模态基础模型。研究者将现有模型分为三个层次,评估了它们在细胞注释、预测和插值任务中的表现,并提出了通过交叉注意力机制设计"超级Transformer"架构的创新方案。这项工作为整合异构模态数据提供了新思路,有望加速精准医学和复杂疾病研究的进程。