AI
提升对话质量,代码显示 Claude AI 即将引入记忆功能
AI初创公司Anthropic计划为Claude添加记忆功能,以挑战具有先进记忆功能的ChatGPT。这项功能将使Claude能够记住过去的事件并在新的对话中引用,以提升结果质量。
OpenAI突袭AI办公,微软谷歌恐遭大洗牌!密谋一年曝光,Office帝国危了
OpenAI未来想要做的,便是吞掉微软、谷歌的市场。 Information独家爆料称,OpenAI内部已筹划一年,计划在ChatGPT中植入「文档协作」与「即时通讯」功能。 图片OpenAI这一步棋,直接向「金主爸爸」微软发起正面挑战,同时也将开辟与谷歌竞争的新战线。
周鸿祎:AI 再强大也无法取代人类的三大能力
在近日发布的一段视频中,周鸿祎就人工智能(AI)的未来进行了深入探讨,表达了他对 AI 与人类关系的看法。 他指出,尽管许多人担心 AI 会取代自己的工作,但从目前的情况来看,AI 并不能完全取代人类。 周鸿祎强调,即使 AI 技术不断进步,它们仍然需要人类的管理与指导。
万字干货:小红书 hi lab 团队关于奖励模型的一些探索
奖励模型(Reward Models,RM)在确保大语言模型(LLMs)遵循人类偏好方面发挥着关键作用。 这类模型通过学习人类的偏好判断,为语言模型的训练提供重要的引导信号。 奖励模型很多科学问题都充满挑战,小红书 hi lab团队过去一段时间对下列几个问题和关键挑战进行了一些探索:奖励模型应该如何评估?
强化学习新发现:无需数学样本,仅游戏训练AI推理大增
第一作者谢云飞是莱斯大学博士生,导师为通讯作者魏晨教授,研究方向包括多模态生成与理解。 Project Leader 肖俊飞是约翰斯・霍普金斯大学博士生,导师为 Bloomberg Distinguished Professor Alan Yuille。 第二作者马崟淞是约翰斯・霍普金斯大学博士生。
ToMAP:赋予大模型「读心术」,打造更聪明的AI说服者
本文第一作者为韩沛煊,本科毕业于清华大学计算机系,现为伊利诺伊大学香槟分校(UIUC)计算与数据科学学院一年级博士生,接受 Jiaxuan You 教授指导。 其主要研究方向为:大语言模型的安全性及其在复杂场景中的推理。 说服,是影响他人信念、态度甚至行为的过程,广泛存在于人类社会之中。
Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?
普林斯顿大学计算机科学系助理教授陈丹琦团队又有了新论文了。 近期,诸如「长思维链」等技术的兴起,带来了需要模型生成数万个 token 的全新工作负载。 大多数语言模型都基于 Transformer 架构,其在进行自回归解码(即逐字生成文本)时,需要将所有先前 token 的注意力状态存储在一个名为 KV 缓存的内存区域中。
ICML 2025 | 生成式视角重塑监督学习!标签不只是答案,更是学习指南
生成式视角可以对监督学习重新思考乃至重新定义! 想象你在教一个学生解数学题——你会直接让他交卷对答案,还是会让他参考完整答案来理解解题思路? 如今,一种全新的监督学习范式正受到关注:标签不应只是用于对照回答的标准答案,更可能成为学习过程中的辅助参考。
7B小模型超越DeepSeek-R1:模仿人类教师,弱模型也能教出强推理LLM | Transformer作者团队
Thinking模式当道,教师模型也该学会“启发式”教学了——由Transformer作者之一Llion Jones创立的明星AI公司Sakana AI,带着他们的新方法来了! 这个方法要求教师模型像优秀的人类教师一样,根据已知解决方案输出清晰的逐步解释,而不再是从头开始自己解决。 用Sanaka AI的新方法训练出的7B小模型,在传授推理技能方面,比671B的DeepSeek-R1还要有效。
合成数据>人工数据,绝对性能暴涨超10个点!仅需任务定义,高效微调大模型
尽管如GPT-4和Gemini等基础模型已在通用语言理解方面设立了新的行业标杆 ,但它们在需要深度领域知识的专业领域中,其表现常常不尽如人意。 当面临数学、医学、法律及金融等专门任务时,这些模型时常表现不佳,因为这些领域高度依赖特定的专业知识。 传统上,为了让这些模型适应特定领域,最直接的方法是使用大规模的人类标注数据进行微调。
美国加州法院裁定:使用版权内容训练 AI 属合法行为
科技媒体 AppleInsider 昨日(6 月 24 日)发布博文,报道称美国加州北区地方法院的裁决允许使用受版权保护的作品来训练人工智能模型,这一决定对创意产业构成了极大威胁。该裁决支持被告 Anthropic 公司使用盗版材料训练其 AI 模型,引发创作者权益争议。
为什么你的 AI 数据战略应该包含 MCP
随着代理系统变得越来越复杂,企业能力在这些系统中作为工具出现,建立明确且一致的规则对于自主工作流程的成功至关重要。 模型上下文协议 (MCP) 为代理、LLM 和企业系统提供通用语言。 将 MCP 纳入 AI 数据战略的企业将能够构建新功能,确保信任和可审计性,并适应快速发展的创新。
无训练智能体蒸馏:AgentDistill 低成本高能效的智能进化方案
大家好,我是肆〇柒。 在 AI 领域,大型语言模型(LLM)的蒸馏技术正以前所未有的速度发展,成为压缩模型规模、降低推理成本的关键手段。 然而,现有的 LLM 智能体蒸馏方法却面临着高计算成本、泛化能力不足等诸多挑战。
马斯克 xAI 被曝为 Grok 开发高级文件编辑器,支持 AI 处理电子表格
逆向工程师 Nima Owji 于 6 月 22 日在 X 平台发布推文,称埃隆・马斯克(Elon Musk)旗下的 xAI 公司正为 Grok,开发一款支持表格的高级文件编辑器。
史上最高种子轮花落AI:20亿美元断档领先,苹果Meta抢着都投不进,扎克伯格转头挖联创也遭拒
AI圈融资收购挖人大战,乱成一锅粥了! 最新消息,OpenAI前CTO创办的Thinking Machines完成20亿美元种子轮融资,不仅刷新了AI领域的融资纪录,也成为有史以来规模最大的种子轮融资。 最初,市场传闻该公司的融资目标约为10亿美元,在短短数月内目标金额翻倍。
调查显示大多数用户曾对 AI 聊天机器人爆粗口,但也会说谢谢
研究显示,近70%用户曾对AI客服爆粗口,但75%仍对互动表示满意。67%美国人和71%英国人会对AI说“请”“谢谢”,甚至道歉。有趣的是,移除礼貌用语后AI回答质量下降。#AI客服##人机交互#
任务太难,连ChatGPT都弃了!最强AI神器一键拆解,首测来袭
想转型AI做产品经理,却不知如何入手? 想搞副业月入一万,但脑子里只有零散想法? 想知道AI时代该学什么专业最有前景?
LLM进入「拖拽时代」!只靠Prompt,几秒定制一个大模型,效率飙升12000倍
现在的大模型基本都具备零样本泛化能力,但要在真实场景中做特定的适配,还是得花好几个小时来对模型进行微调。 即便是像LoRA这样的参数高效方法,也只能缓解而不能消除每个任务所需的微调成本。 刚刚,包括尤洋教授在内的来自新加坡国立大学、得克萨斯大学奥斯汀分校等机构的研究人员,提出了一种全新的「拖拽式大语言模型」——Drag-and-Drop LLMs!
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI绘画
大模型
AI新词
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
智能体
技术
Gemini
英伟达
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
代码
AI for Science
苹果
算法
腾讯
Agent
Claude
芯片
Stable Diffusion
具身智能
xAI
蛋白质
开发者
人形机器人
生成式
神经网络
机器学习
AI视频
3D
RAG
大语言模型
字节跳动
Sora
百度
研究
GPU
生成
工具
华为
AGI
计算
大型语言模型
AI设计
生成式AI
搜索
视频生成
亚马逊
AI模型
特斯拉
DeepMind
场景
深度学习
Transformer
架构
Copilot
MCP
编程
视觉