递归语言模型
递归语言模型登场!MIT华人新作爆火,扩展模型上下文便宜又简单
目前,所有主流 LLM 都有一个固定的上下文窗口(如 200k, 1M tokens)。 一旦输入超过这个限制,模型就无法处理。 即使在窗口内,当上下文变得非常长时,模型的性能也会急剧下降,这种现象被称为「上下文腐烂」(Context Rot):模型会「忘记」开头的信息,或者整体推理能力下降。
10/16/2025 7:17:00 PM
机器之心
- 1
资讯热榜
告别抽卡!Vidu Q2多图参考生视频功能重磅上线
保姆级教程!教你用Coze工作流2分钟生成优质文章
最强OCR竟然不是DeepSeek、Paddle!HuggingFace新作:六大顶尖开源OCR模型横评!继DS后又杀出匹黑马!
切斯基:Airbnb 暂缓接入 ChatGPT,AI 客服已用上通义千问
OpenAI、Oracle 再加码 AI 基建:150亿美元 Lighthouse 园区启动建设
AI赋能,重塑零售:详解零售巨头塔吉特的业务转型策略
独立开源大佬的疯狂实验:Claude Code蛮力出奇迹!40 分钟跑通 DeepSeek-OCR,我一行代码都没写
OpenAI 内部警示:ChatGPT Atlas 面临“即时注入”安全威胁
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
数据
大模型
Midjourney
开源
Meta
智能
微软
用户
AI新词
GPT
学习
技术
智能体
马斯克
Gemini
图像
Anthropic
英伟达
AI创作
训练
LLM
论文
代码
算法
芯片
AI for Science
腾讯
Stable Diffusion
Agent
苹果
Claude
蛋白质
开发者
生成式
神经网络
xAI
机器学习
3D
人形机器人
研究
RAG
AI视频
生成
大语言模型
Sora
百度
具身智能
工具
GPU
华为
计算
字节跳动
AI设计
搜索
大型语言模型
AGI
视频生成
场景
深度学习
架构
DeepMind
生成式AI
视觉
编程
预测
Transformer
AI模型
伟达
特斯拉
Copilot