AI
内存直降50%,token需求少56%!用视觉方式处理长文本
在处理短文本时,大语言模型(LLM)已经表现出惊人的理解和生成能力。 但现实世界中的许多任务——如长文档理解、复杂问答、检索增强生成(RAG)等——都需要模型处理成千上万甚至几十万长度的上下文。 与此同时,模型参数规模也从数十亿一路飙升至万亿级别。
微软AI新天团曝光!只有1位华人,「谷歌系」超1/3
刚刚,微软AI「新天团」阵容曝光! 在新增的9名核心成员中,5名来自谷歌/DeepMind,另有2位分别是Meta与Snap的前高管。 他们在最近一年内由苏莱曼相继招入麾下。
「上下文工程」 已经30岁了,而你可能刚知道它
AI时代,人不再只是「社会关系的总和」,而是由无数数据、记录和互动的上下文构成的。 这不是科幻。 这是正在发生的现实。
Cursor“自研”模型套壳国产开源?网友:毕竟好用又便宜
美国顶流AI产品“套壳”中国开源大模型,这事儿上“热搜”了(doge)。 𝕏网友都在感叹:大家都认为中国大模型正在迎头赶上。 不,它们已经赶上了。
向黄仁勋汇报的英伟达36人
市值第一巨头英伟达里,都有谁可以直接向CEO黄仁勋汇报? 36人。 这是最新被曝光的数字。
警惕!供应商的AI即是你的风险:这四项条款能救你于隐性责任之外
麦肯锡的一份报告显示,78%的企业表示至少在一个业务职能中使用了AI,这意味着你所在企业对AI的使用已不再是唯一的担忧。 如今,风险暴露的边界已延伸至合作伙伴和供应商对AI的使用。 主要问题在于:他们是否在你未察觉的情况下,将AI嵌入到运营中,直到出现问题你才有所发现?供应商的聊天机器人处理敏感数据不当、算法输出结果存在偏见,或是合作伙伴用你的信息训练其模型,这些情况都可能引发监管处罚和声誉受损。
前OpenAI灵魂人物Jason Wei最新演讲!三大思路揭示2025年AI终极走向
用三句话总结下2025年AI的发展,你会想到什么? 所有能被验证的任务,最终都会被AI解决智能最后会变成商品,知识价格归零AI不会瞬间超过人类最近,前OpenAI核心研究员、CoT(思维链)作者Jason Wei在斯坦福大学AI Club做了一场精彩的演讲。 图片这是他跳槽到Meta后少有的公开分享。
别急着写代码了,先好好写文档吧!Gemini CLI产品负责人预言:未来的开发者可能根本不需要看代码,只需要写下意图
编辑 | 听雨出品 | 51CTO技术栈(微信号:blog51cto)别急着写代码,先教AI怎么干活。 这是 Google Cloud Platform 开发者体验部门副总裁Keith Ballinger 最近在《The New Stack Agents》节目上说的一句话,也是一针见血地指出了当下AI开发的最大误区。 Ballinger 是少数依然亲自写代码的高管之一,同时深度参与了最新的 “智能体化” 编程工具的研发与使用。
斯坦福最新研究:AI 的上下文比参数重要,无需重训、不再微调
大数据文摘出品近日,斯坦福大学与 SambaNova Systems 合作发表了论文《Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models》。 该论文提出了一个名为ACE(Agentic Context Engineering)的框架,可以让AI在不重新训练权重的前提下,实现自我改进。 图片论文链接:,大模型的能力,并非仅由参数决定,更取决于“上下文的质量”。
Sora天才辍学生归来!OpenAI组建三人神秘小队,豪赌超级人工智能
Sora背后的核心贡献者之一,这位00后的天才辍学生Will Depue,准备再次搞个大事情。 刚刚,他宣布下一个目标是,超级人工智能ASI! 在结束一段长期休息后,Will Depue宣布他再次回到OpenAI。
颤抖吧,Bug!OpenAI放出GPT-5「夜行神兽」,命中92%漏洞
刚刚,OpenAI推出了使用GPT-5寻找和修复安全漏洞的智能体Aardvark。 目前,Aardvark还处于beta测试阶段。 OpenAI称,Aardvark开创了「防御者优先」的新范式:作为自主安全研究智能体,随代码不断演化,为团队提供持续保护(continuous protection)。
最具争议性研究:大模型中间层输出可 100% 反推原始输入
最近,一篇名为《Language Models are Injective and Hence Invertible》的论文在学术界和科技圈引起了广泛讨论,甚至连老马的 Grok 官方也下场转发。 这篇论文出自意大利罗马第一大学(Sapienza University of Rome)的 GLADIA Research Lab,文中提出了一个颇有争议却又耐人寻味的观点:主流的 Transformer 语言模型在信息处理过程中几乎不会丢失任何输入内容,从数学意义上看,它们是可逆的。 换句话说,模型的隐藏状态并不是模糊的语义压缩,而是一种能够完整保留输入信息的精确重编码。
我们往Claude脑子里塞了一个词,然后它开始「自圆其说」了!Anthropic最新研究:AI拥有内省能力!
编辑 | 听雨出品 | 51CTO技术栈(微信号:blog51cto)Anthropic刚刚公布了一项最新研究:AI开始拥有内省能力。 这个问题,其实在AI领域大神、OpenAI元老 Andrej Karpathy 最近的演讲中也有所提及:他认为,AI 的下一个阶段不是更大的模型,而是能反思自己的模型。 它们需要像人一样,能在输出后回顾过程、总结偏差、甚至从错误中自我修正。
利用MCP创建AI代理:C# 实践指南
译者 | 晶颜审校 | 重楼大型语言模型(LLMs)的快速演进已对人工智能应用领域产生颠覆性影响,其核心优势在于具备自然语言理解与生成能力及逻辑推理能力。 然而,LLMs仍存在显著局限性:无法访问实时数据源,亦不能调用外部计算工具。 这种“信息孤立”状态使其无法提供实时更新的信息,同时限制了其在动态系统中的适配能力及文本生成之外的任务执行能力。
陈天桥在AIAS上提出:发现式AI而不是生成式AI是AGI的标准
10月27日、28日,AI驱动科学研讨会(Symposium for AI Accelerated Science,AIAS 2025)在美国旧金山举行。 会议汇聚了近30位全球顶尖学者与产业领袖,与现场数百位学者、学生共同探讨AI如何驱动科学发现。 会上,盛大集团、天桥脑科学研究院创始人陈天桥发表主题演讲,首次系统阐述了“发现式智能”(Discoverative Intelligence)的全新理念,指出这是真正意义上的通用人工智能,并提出了实现路径。
OpenAI首个GPT-5找Bug智能体:全自动读代码找漏洞写修复
AI Coding火了大半年,AI Debugging也来了! 刚刚,OpenAI发布由GPT-5驱动的“白帽”Agent——Aardvark(土豚)。 这只“AI安全研究员”能帮助开发者和安全团队,在大规模代码库中自动发现并修复安全漏洞。
AI是「天才」还是「话术大师」?Anthropic颠覆性实验,终揭答案!
颠覆传统AI认知! Anthropic首席执行官Dario Amodei雄心勃勃,早已立下flag:在2027年前,大多数AI模型问题将被靠谱地检测。 但LLM的幻觉与生俱来,根深蒂固。
字节发布通用游戏智能体!5000亿token训练,用鼠标键盘吊打GPT-5!
用鼠标和键盘打游戏的智能体,这就来了! 它不仅能在《我的世界》中和普通玩家一较高下。 还能玩《神庙逃亡》、《星露谷》,甚至可以在未见过的3D网页游戏中实现零样本迁移。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI绘画
大模型
AI新词
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
智能体
技术
Gemini
英伟达
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
代码
AI for Science
苹果
算法
腾讯
Agent
Claude
芯片
Stable Diffusion
具身智能
xAI
蛋白质
开发者
人形机器人
生成式
神经网络
机器学习
AI视频
3D
RAG
大语言模型
字节跳动
Sora
百度
研究
GPU
生成
工具
华为
AGI
计算
大型语言模型
AI设计
生成式AI
搜索
视频生成
亚马逊
AI模型
DeepMind
特斯拉
场景
深度学习
Transformer
架构
Copilot
MCP
编程
视觉