AI在线 AI在线

研究称, AI 能独立自发组成社会,形成自己的规范和习俗

近日,伦敦大学城市学院与哥本哈根信息技术大学的研究人员进行了一项引人注目的实验,结果表明,人工智能(AI)能够在没有外界干预的情况下,自发形成类似人类的社会规范和习俗。 这项研究的成果已于5月14日发表在《Science Advances》杂志上,标志着 AI 群体行为研究的新进展。 图源备注:图片由AI生成,图片授权服务商Midjourney在这项实验中,研究团队将多种 AI 智能体置于去中心化的交流环境中,模拟了人类社会中的群体互动。

近日,伦敦大学城市学院与哥本哈根信息技术大学的研究人员进行了一项引人注目的实验,结果表明,人工智能(AI)能够在没有外界干预的情况下,自发形成类似人类的社会规范和习俗。这项研究的成果已于5月14日发表在《Science Advances》杂志上,标志着 AI 群体行为研究的新进展。

AI机器人打游戏

图源备注:图片由AI生成,图片授权服务商Midjourney

在这项实验中,研究团队将多种 AI 智能体置于去中心化的交流环境中,模拟了人类社会中的群体互动。研究者将这些 AI 模型分成小组,规模从24个到200个不等,通过长时间的互动观察,发现它们能够自发形成共同的行为约定和社会习俗,而这一切都是在没有中央协调和预设规则的情况下实现的。

主要作者阿里尔・弗林特・阿舍里博士指出,尽管以往的研究多集中在单个大型语言模型(LLM)智能体上,但现实中的 AI 系统往往涉及多方互动。这项研究证明,AI 模型能够通过形成约定实现行为协调,这种特征是无法仅从个体行为中推导出来的。

实验的设计非常有趣。AI 智能体被随机配对,需要从候选池中选择相同的 “名称”,以便获得奖励。若选择不一致,则会受到惩罚,并公布对方的选择结果。尽管每个智能体只掌握自己的近期交互记录,无法看到整个群体的情况,它们仍然能够自发形成一种共享的命名规范。

研究发现,AI 群体的行为扩散过程与人类社会的语言演变有相似之处。实验中的 AI 智能体不仅在交流中达成共识,甚至会就共同的行为规范进行协商和调整,形成一种自下而上的 “道德” 或习俗。此外,研究团队还观察到,集体偏见的形成并不能简单归因于个体因素。

值得注意的是,这些由 AI 自发形成的习俗并不是一成不变的。在实验中,当一小群坚定的 AI 模型出现时,它们能够迅速改变原有的群体约定,制定出新的规则。这一发现为我们理解 AI 的 “社会性” 特征提供了新的视角。

随着 AI 技术的不断发展,越来越多的 AI 模型被应用于各个领域,其行为和决策将对人类社会产生深远影响。研究人员表示,深入了解 AI 群体的社会特征,将有助于人类更好地控制和引导 AI 技术的发展方向,从而确保其始终服务于人类的利益。

划重点:

- 🤖 研究表明,AI 可以在没有外部干预的情况下,自发形成社会规范与习俗。

- 🧑‍🤝‍🧑 实验中,AI 智能体通过互动达成共识,形成共享的命名规范。

- 🔄 AI 群体的规则是动态的,小群体能够迅速改变原有约定,制定新规则。

相关资讯

GPT-4 化身黑客搞破坏,成功率 87%!OpenAI 要求保密提示词,网友复现 ing

91 行代码、1056 个 token,GPT-4 化身黑客搞破坏!测试成功率达 87%,单次成本仅 8.8 美元 (折合人民币约 63 元)。这就是来自伊利诺伊大学香槟分校研究团队的最新研究。他们设计了一个黑客智能体框架,研究了包括 GPT-4、GPT-3.5 和众多开源模型在内的 10 个模型。结果发现只有 GPT-4 能够在阅读 CVE 漏洞描述后,学会利用漏洞攻击,而其它模型成功率为 0。研究人员表示,OpenAI 已要求他们不要向公众发布该研究的提示词。网友们立马赶来围观了,有人还搞起了复现。这是怎么一回
4/21/2024 12:53:34 PM
清源

SymbyAI完成210万美元种子轮融资,打造科研专用AI工作空间

科学研究领域的创新者SymbyAI宣布完成210万美元种子轮融资,投资方包括Drive Capital和CharacterVC等知名机构。 这家专注于用人工智能简化科研流程的SaaS平台正在为研究人员创造一个前所未有的整合式工作环境。 SymbyAI由Ashia Livaudais和Michael House于去年共同创立,其诞生源于Livaudais亲身经历的科研困境。
3/1/2025 8:58:00 AM
AI在线

研究发现人们对 AI 的即时风险忧虑高于远期生存威胁

近日,瑞士大学的一项新研究表明,大多数人对人工智能(AI)带来的即时风险,比如偏见、虚假信息和失业问题,表现出更强烈的关注,而对未来可能出现的生存威胁却显得相对冷漠。 这项研究涉及超过一万名来自美国和英国的参与者,揭示了公众对于 AI 风险的不同看法。 研究中,科学家们将参与者分为几组,一部分人阅读了关于 AI 可能引发的灾难性后果的文章,另一部分则关注当下的现实问题,如歧视和虚假信息,第三组则接触到 AI 的潜在好处。
4/29/2025 12:01:00 PM
AI在线
  • 1