这项研究探讨了大语言模型(LLM)代理群体在面对拜占庭共识问题(即部分成员可能存在恶意行为)时达成一致的能力。通过在不同规模的模型和群体中进行模拟,研究人员发现即便在没有任何恶意代理的理想环境下,代理们往往也难以完全达成共识。随着群体规模的扩大或恶意代理的介入,达成一致的成功率显著下降,且失败的主要原因在于系统无法在规定时间内终止,而非最终结果被篡改。实验表明,即便是在提示词中暗示潜在威胁的存在,也会对代理间的协作效率产生负面影响。总而言之,目前的AI代理在稳健的社会决策和协调方面仍存在明显的局限性。

大语言模型智能体拜占庭共识可靠性研究
20分钟 ·
6·
0