AI在线 AI在线

理论

「机械飞升」18个月后,马斯克首位脑机植入者重磅发声:我重生了!

Noland Arbaugh是Neuralink第一位接受脑机芯片植入的受试者。 他最近接受了《财富》杂志的专访,深入交流了神秘而科幻十足的Neuralink的幕后故事。 作为最前沿科技的深度参与者,他对人性在赛博时代有怎样的独特体悟?
8/25/2025 9:14:00 AM

谷歌大脑之父首次坦白!茶水间闲聊引爆万亿帝国,AI自我突破触及门槛

刚刚,「现代互联网架构之父」Jeff Dean的最新对谈流出。 这位AI领域的传奇,是Google Brain的奠基者,也是推动神经网络走向规模化的关键人物。 从让神经网络「看懂猫」的重大突破,到TensorFlow与TPU的诞生,他的故事几乎是一部AI发展史。
8/25/2025 9:12:00 AM

马斯克掀桌子了,最强开源大模型诞生!Grok-2近万亿参数性能首曝

什么? 马斯克终于开源了Grok-2! 一大早,xAI正式官宣,向所有人开源Grok-2!
8/25/2025 9:10:00 AM

苹果AI秘密武器曝光!代号「AKI」团队浮出水面,乔布斯遗愿Siri终要翻身?

1985 年夏,乔布斯在瑞典南部Lund大学活动期间,于Svaneholm Castle的晚宴上发言。 他当时正处于离开苹果前夕,这次演讲是对「下一代计算媒介」的公开思考。 乔布斯提到一种所谓的「智能AI」,那时候离ChatGPT的诞生足足还有38年。
8/25/2025 9:02:00 AM

告别固定分块!2024 EMNLP 新方法 LumberChunker:用 LLM 实现动态语义分块,检索效果显著提升

在大语言模型(LLM)主导的现代 NLP 领域,密集检索已成为问答、摘要、知识问答等任务的核心支撑 —— 毕竟模型再强大,也需要精准的外部上下文来避免 “幻觉”、获取最新信息。 但检索效果的好坏,往往卡在一个容易被忽视的环节:文本分块。 传统分块方法(按句子、段落或固定长度切割)就像用尺子机械丈量文本,完全忽略了内容的语义关联性:要么把一个完整的概念拆得七零八落,导致检索片段上下文残缺;要么把多个无关主题硬塞进一个块里,引入大量噪声。
8/25/2025 8:59:13 AM
Goldma

刚刚,苹果AI华人总监跳槽Meta!核心团队再-1,库克被迫求助谷歌

就在刚刚,苹果AI工程总监Frank Chu被曝加入Meta。 他将在MSL Infra的新团队工作,负责AI基础设施相关事务。 这是自苹果模型团队的创建者庞若鸣,被Meta以一份价值2亿美元的薪酬包挖走之后,苹果AI项目面临的最重大的损失之一。
8/25/2025 8:56:00 AM

刚刚,马斯克开源Grok 2.5:中国公司才是xAI最大对手

就在刚刚,马斯克一手开源动作,引发了大伙儿的高度关注——xAI现在正式开源Grok 2.5,Grok 3将在半年后开源。 其实早在本月初的时候,马斯克就公开表示过:是时候开源Grok了,将会在下周。 虽然开源的时间已经超过了他说的节点,但也正如网友所说:迟到总比没有的好。
8/25/2025 8:54:00 AM

比GPT-5还准?AIME25飙到99.9%刷屏,开源模型首次!

如何让模型在思考时更聪明、更高效,还能对答案有把握? 最近,Meta AI与加州大学圣地亚哥分校的研究团队给出了一个令人振奋的答案——Deep Think with Confidence(DeepConf),让模型自信的深度思考。 论文地址::「置信度筛选」,不仅让模型在国际顶尖数学竞赛AIME 2025上拿下了高达99.9%的正确率。
8/25/2025 8:53:00 AM

诺贝尔物理学成果48年后终获数学证明!中科大少年班尹骏又出现了

诺奖得主都没找到的证明方法,现在被两位华人学者突破了。 凝聚态物理奠基人菲利普·安德森(Philip Warren Anderson)提出的Anderson模型,因解释了半导体材料中电子为何突然不再流动而闻名。 这一成果也助力他获得诺奖。
8/25/2025 8:51:00 AM

运用轻量化大语言模型:实现事件响应加速与幻觉抑制双重突破

墨尔本大学和伦敦帝国理工学院的研究人员开发了一种利用大语言模型(LLM)改进事件响应规划的方法,重点在于降低产生幻觉的风险,该方法采用经过微调的小型大语言模型,并结合检索增强生成技术和决策理论规划。 他们所针对的问题十分常见:目前事件响应在很大程度上仍依赖人工操作,速度缓慢,且依赖专家配置的应急预案。 许多企业需要数周甚至数月才能从事件中完全恢复。
8/25/2025 7:00:00 AM
Mirko Zorz

AI投资终于有回报了!这些大公司用数据证明:AI不是烧钱黑洞

有朋友问我,最近企业界有什么大新闻。 我想了想,可能是一批知名企业终于拿出了硬数据,证明AI投资不仅不是烧钱黑洞,还能带来实实在在的回报。 说实话,过去两年我听了太多"AI投资看不到回报"的抱怨。
8/25/2025 2:00:00 AM
阿丸笔记

记忆增强型Transformer:从神经科学原理到技术解决方案的三维解析

大家好,我是肆〇柒。 当下,Transformer架构已成为自然语言处理、计算机视觉和多模态学习的基石。 然而,随着应用场景的复杂化,标准Transformer暴露出三大关键局限:固定上下文窗口限制了长距离依赖建模静态知识表示阻碍了持续学习能力计算效率远低于生物神经系统这些限制催生了记忆增强型Transformer的研究热潮,而由新加坡国立大学等机构联合发表的系统性综述《Memory-Augmented Transformers: A Systematic Review from Neuroscience Principles to Technical Solutions》为我们提供了一个全面理解这一领域的三维分类框架。
8/25/2025 12:10:00 AM
肆零柒

牛津大学警告:越“温暖”的 AI,越爱胡说八道,温柔体贴=更高错误率

牛津大学的一支研究团队发现,越是表现出温暖和同理心的语言模型,越容易出错,甚至更频繁地重复虚假信息和阴谋论。 这次,研究团队测试了五个不同架构和规模的模型,包括Llama-8B、Mistral-Small、Qwen-32B、Llama-70B和GPT-4o。 研究发现,温暖的模型在推广阴谋论、提供不正确的医疗建议和事实信息方面,表现出更高的错误率。
8/25/2025 12:02:00 AM

连烤面包机都能跑的“大模型”!DeepMind 推出超轻量 Gemma 3 270M(≈0.27B)

谷歌 DeepMind 发布了全新的 Gemma 3 270M。 它只有 2.7 亿参数,比七百亿参数级别的大模型轻了约 250 倍,却依旧保持强悍。 DeepMind 并不想拿它硬刚 GPT-4o 或 Gemini Ultra,它生来就为极致高效、本地部署而生。
8/25/2025 12:00:01 AM

超越宇宙极限:第六位海狸数再次突破,无法用常规数学符号表达

当数字逃离人类的想象力:BB (6) 的故事。 现在给你一串数字,你能猜到一下个是多少吗:1、6、21、107,47176870……如果你没头绪,不必气馁。 因为这些数字并不是随意凑出来的,它们就是所谓的 「忙碌海狸数」的前五项。
8/24/2025 8:05:00 PM
机器之心

大模型的基石:LLM预训练全解析

前言过去几年,大语言模型(LLM, Large Language Models)逐渐成为人工智能领域的核心驱动力。 从GPT到LLaMA,再到国内外涌现的大大小小模型,它们无一不是在“预训练”这一步骤中打下了坚实的基础。 可以说,预训练是LLM的生命起点,是它们从“婴儿”成长为“博学者”的关键阶段。
8/24/2025 9:24:07 AM
AI大模型应用开发

DeepSeek V3.1:低调发布,重磅发声

译者 | 李睿审校 | 重楼DeepSeek V3.1的发布并没有举办大张旗鼓的新闻发布会,也没有铺天盖地的宣传活动。 它在Hugging Face平台上悄然发布,在短短数小时内就吸引了众人的目光。 该模型拥有6850亿个参数,上下文窗口可扩展至128k个令牌,这不仅仅是增量更新,而是开源人工智能领域的一个重要里程碑。
8/23/2025 8:20:29 AM
李睿

NASA、IBM打造日地物理学首个开放式 AI 基础模型,用九年观测训练提升约16%耀斑预测准确率

编辑丨&说起太阳耀斑,也许并非每一位读者都对这个名字熟悉,但说到极光,这一美丽而梦幻的自然景观,其实就与太阳耀斑有着千丝万缕的联系。 每一次太阳耀斑与日冕物质抛射(coronal mass ejection, CME)都可能影响卫星姿态、深空通信、极区航线、甚至电网稳定。 以往要么靠经验特征工程加传统机器学习,要么依赖高代价数值物理模型,二者在时效、泛化和可复用性上都有限。
8/22/2025 5:04:00 PM
ScienceAI