AI在线 AI在线

多模型协作

KV Cache直连:LLM协作的"神经突触"式通信革命

大家好,我是肆〇柒。 今天我们一起阅读一项有趣的创新性研究——由清华大学、上海交通大学、香港中文大学与上海人工智能实验室联合提出的Cache-to-Cache通信技术。 这项研究打破了传统LLM间必须通过文本进行通信的局限,让大语言模型能够像人类大脑神经元通过突触直接传递信号一样,通过KV Cache实现表征层的语义直连。
10/17/2025 9:58:36 AM
肆零柒
  • 1