这份研究论文探讨了大语言模型在处理开放式问题时出现的“人工集体意识”(Artificial Hivemind)现象。作者通过构建 INFINITY-CHAT 数据集,分析了模型输出的同质化趋势,即单一模型频繁自我重复,且不同模型之间也表现出高度的语义趋同。研究团队制定了一套涵盖 17 个细分领域的开放式查询分类法,并收集了密集的人类标注数据以捕捉真实的多样化偏好。实验结果表明,目前的奖励模型和评估指标在应对高质量、无标准答案的回复时,往往无法准确对齐人类的个性化评价。该工作为识别 AI 众口一辞的风险提供了系统性框架,旨在推动更具创造力与包容性的 AI 发展。