AI在线 AI在线

资讯列表

小红书开源首个大模型,11万亿非合成训练数据

国内著名社交平台小红书,开源了首个大模型——dots.llm1。 dots.llm1是一个1420亿参数的专家混合模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。 dots.llm1最大特色是使用了11.2万亿token的非合成高质量训练数据,这在现阶段的开源大模型中非常罕见,看来小红书也得益于自己庞大的语料库出手就是阔啊。
6/9/2025 9:41:25 AM

美IT业裁员狂飙35%,「硅谷梦」彻底崩塌!打工人怒喷PIP

2025,美国裁员之年。 本周四,职业介绍机构 Challenger, Gray & Christmas 发布了美国全国就业报告。 与去年同期相比,美国全国裁员人数上涨了47%。
6/9/2025 9:35:56 AM

大模型强化学习新突破——SPO新范式助力大模型推理能力提升!

当前,强化学习(RL)在提升大语言模型(LLM)推理能力方面展现出巨大潜力。 DeepSeek R1、Kimi K1.5 和 Qwen 3 等模型充分证明了 RL 在增强 LLM 复杂推理能力方面的有效性。 然而,要实现有效的强化学习,需要解决一个根本性的挑战,即信用分配问题(credit assignment):在大语言模型的场景下,如何将整个序列(LLM 的回复)最终的评估结果,归因到序列中具体的决策动作(token)上。
6/9/2025 9:32:35 AM

引领京城AI盛宴,金蝶开创企业管理AI新时代

在新一轮人工智能技术浪潮推动下,企业数字化转型正加速迈向智能化变革的新阶段。 6月6日,金蝶云苍穹AI峰会北京站盛大启幕,300余位来自央国企、行业龙头企业及生态伙伴的AI先行者共聚一堂,围绕“AI赋能企业管理”的新思想、新技术、新应用展开深入研讨,加速推动AI技术在企业管理中从“可想象”走向“可落地”。 助力企业实现智能化转型,是金蝶“予力企业、成就不凡”这一使命在AI时代的具体体现。
6/9/2025 9:24:23 AM

ICML 2025 | 全局池化+局部保留,CCA-Attention为LLM长文本建模带来突破性进展

琶洲实验室、华南理工大学联合推出关键上下文感知注意力机制(CCA-Attention),实现超长文本的高效上下文建模。 在 128K 超长序列上下文建模任务中,CCA-Attention 的推理速度是标准自注意力机制的 7.9 倍,同时键值缓存(KV Cache)显存占用减少 93%,性能全面优于现有高效注意力方法。 论文标题:Core Context Aware Transformers for Long Context Language Modeling论文链接:::2024年12月17日该成果已被 ICML 2025 接收,最早于 2024 年 12 月 17 日提交至 ArXiv,早于 DeepSeek NSA 和 Kimi MoBA 公开。
6/9/2025 9:23:05 AM

ALPHAONE(α1):LRM 自适应推理效率与准确性的平衡之道

大家好,我是肆〇柒。 今天,我们来聊大型推理模型(LRM)领域的一项研究 ——ALPHAONE(α1)框架。 当前,大型推理模型如 OpenAI 的 o1 和 DeepSeek-R1 等,已经在诸多复杂推理任务上展现出了强大的能力,但它们在推理过程中也面临着一些挑战,比如容易陷入过度推理或推理不足的困境。
6/9/2025 9:17:44 AM
肆零柒

Neuralink 和 Grok 合作,脑机芯片为渐冻症患者赋予“发声”能力

视频内容显示,Neuralink 为一名渐冻症患者植入脑机接口芯片,使其可以通过意念移动光标输出文字,而后人工智能聊天机器人 Grok 会补全其语句,并创建一个精确的声音克隆,从而为患者发声。
6/9/2025 9:13:05 AM
清源

人工智能和知识图谱八(完):知识图谱的挑战、缺点和陷阱

知识图谱虽然功能强大,但在实际场景中实现它们并非一帆风顺。 我们必须意识到其中的挑战、局限性和潜在风险,包括技术问题,比如可扩展性、数据质量、模式复杂性、与非结构化或动态数据的集成障碍,以及偏见和隐私等道德问题。 可扩展性和性能:一个挑战是将知识图谱扩展到极大规模(数十亿个节点/边),同时保持复杂查询和更新的性能。
6/9/2025 9:10:26 AM
晓晓

算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

LLM苦算力太久了! 为缓解长序列建模中的算力瓶颈,研究界持续探索高效替代方案。 这次Mamba作者Tri Dao、华人AI领域大牛Eric P.
6/9/2025 9:05:00 AM

为什么用错奖励,模型也能提分?新研究:模型学的不是新知识,是思维

本文主要作者是吕昂和谢若冰。 吕昂,中国人民大学博士生,研究方向为语言模型结构优化,导师为严睿教授;谢若冰,腾讯高级研究员,研究方向为大语言模型、推荐系统。 最近的一篇论文中,来自人大和腾讯的研究者们的研究表明,语言模型对强化学习中的奖励噪音具有鲁棒性,即使翻转相当一部分的奖励(例如,正确答案得 0 分,错误答案得 1 分),也不会显著影响下游任务的表现。
6/9/2025 9:04:00 AM

交互式生成视频(IGV):重塑游戏、智能与驾驶的交互革命

大家好,我是肆〇柒。 今天,我们来聊聊交互式生成视频(IGV)技术。 这是一项在当下技术革命中产生的前沿技术,它具备强大的生成能力和交互特性,正在改变我们与虚拟世界互动的方式。
6/9/2025 9:03:58 AM
肆零柒

​Meta 拟投资超 100 亿美元,Scale AI 或迎来重大融资机会

根据彭博社的报道,Meta 正与 Scale AI 进行高达数十亿美元的投资谈判。 这笔交易的价值预计将超过100亿美元,将成为 Meta 在人工智能领域最大的一笔外部投资,也是私营公司历史上最大的融资事件之一。 Scale AI 是一家专注于数据标注服务的公司,帮助微软和 OpenAI 等企业训练其人工智能模型。
6/9/2025 9:00:56 AM
AI在线

长文本理解新王者?Gemini2.5Pro 击败 o3领跑 Fiction.Live 基准测试

在最近的 Fiction.Live 基准测试中,Gemini2.5Pro 在理解和再现复杂故事和背景方面表现出色,领先于竞争对手 OpenAI 的 o3模型。 这项测试远超传统的“大海捞针”式任务,专注于模型在海量上下文中处理深层语义和背景依赖信息的能力。 据测试数据显示,在上下文窗口长度达到192,000个词条(约14.4万个单词)时,o3模型性能急剧下滑,而 Gemini2.5Pro 的6月预览版(preview-06-05)在同一条件下依然保持了超过90% 的准确率。
6/9/2025 9:00:56 AM
AI在线

英国呼吁限制 Meta 利用人工智能进行风险评估

近日,英国的互联网安全倡导者向国家通讯监管机构 Ofcom 发出警告,要求限制 Meta(前身为 Facebook)在关键风险评估中使用人工智能(AI)。 这一呼吁源于一份报告,报告指出 Meta 计划将高达90% 的风险评估工作交由 AI 自动完成。 这一改变引发了对用户安全,特别是未成年用户保护的广泛担忧。
6/9/2025 9:00:56 AM
AI在线

顶会0篇,一夜RLHF爆文刷屏!他靠写作逆袭AI圈,院士都说好

Ai2的高级研究科学家Nathan Lambert,最近分享了他如何走上AI之路。 尽管起步艰难、几经波折,他依旧在AI领域站稳脚跟、有所成就。 博士毕业时,他没有在NeurIPS/ICML/ICLR等顶会上发表过文章。
6/9/2025 9:00:00 AM

告别「失忆」AI!首个大模型记忆操作系统开源框架来了!

该项目来自百家 AI,是北京邮电大学白婷副教授所指导的研究小组, 团队致力于为硅基人类倾力打造情感饱满、记忆超凡的智慧大脑。 大语言模型受限于固定上下文窗口,长期对话中「失忆」、记忆断裂等问题频发,北邮百家 AI 团队重磅推出首个大模型记忆操作系统开源框架 MemoryOS。 巧妙融合计算机操作系统原理与人脑分层记忆机制,构建段页式三级存储架构及四大核心模块(存储、更新、检索、生成),提供全链路用户记忆管理方案,让 AI 智能体拥有持久「记性」与深度「个性」。
6/9/2025 8:56:00 AM

顶流AI,人设崩了!6小时被攻破,泄露高危品指南,惨遭网友举报

只要6小时,顶尖大模型Claude 4 Opus「安全防线」被攻破! AI安全研究机构FAR.AI联合创始人Adam Gleave透露,仅用6小时,研究人员Ian McKenzie就成功诱导Claude 4生成了长达15页的化学武器制作指南。 Ian McKenzie回应称:Claude 4传授的内容,比他预期的还要多。
6/9/2025 8:53:00 AM

谷歌Transformer过时了?清华姚班校友等三连击,爆改注意力!

谷歌又有新的注意力了! 他们提出的新架构参数减少40%,训练速度较RNN提升5-8倍,在某些任务上性能甚至Transformer好7.2%! 在大语言模型(LLMs)中,他们引入了新的注意力偏向策略,并重新构想了「遗忘」这一过程,用「保留」来取而代之。
6/9/2025 8:52:00 AM