资讯列表
「机械飞升」18个月后,马斯克首位脑机植入者重磅发声:我重生了!
Noland Arbaugh是Neuralink第一位接受脑机芯片植入的受试者。 他最近接受了《财富》杂志的专访,深入交流了神秘而科幻十足的Neuralink的幕后故事。 作为最前沿科技的深度参与者,他对人性在赛博时代有怎样的独特体悟?
8/25/2025 9:14:00 AM
谷歌大脑之父首次坦白!茶水间闲聊引爆万亿帝国,AI自我突破触及门槛
刚刚,「现代互联网架构之父」Jeff Dean的最新对谈流出。 这位AI领域的传奇,是Google Brain的奠基者,也是推动神经网络走向规模化的关键人物。 从让神经网络「看懂猫」的重大突破,到TensorFlow与TPU的诞生,他的故事几乎是一部AI发展史。
8/25/2025 9:12:00 AM
马斯克掀桌子了,最强开源大模型诞生!Grok-2近万亿参数性能首曝
什么? 马斯克终于开源了Grok-2! 一大早,xAI正式官宣,向所有人开源Grok-2!
8/25/2025 9:10:00 AM
苹果AI秘密武器曝光!代号「AKI」团队浮出水面,乔布斯遗愿Siri终要翻身?
1985 年夏,乔布斯在瑞典南部Lund大学活动期间,于Svaneholm Castle的晚宴上发言。 他当时正处于离开苹果前夕,这次演讲是对「下一代计算媒介」的公开思考。 乔布斯提到一种所谓的「智能AI」,那时候离ChatGPT的诞生足足还有38年。
8/25/2025 9:02:00 AM
告别固定分块!2024 EMNLP 新方法 LumberChunker:用 LLM 实现动态语义分块,检索效果显著提升
在大语言模型(LLM)主导的现代 NLP 领域,密集检索已成为问答、摘要、知识问答等任务的核心支撑 —— 毕竟模型再强大,也需要精准的外部上下文来避免 “幻觉”、获取最新信息。 但检索效果的好坏,往往卡在一个容易被忽视的环节:文本分块。 传统分块方法(按句子、段落或固定长度切割)就像用尺子机械丈量文本,完全忽略了内容的语义关联性:要么把一个完整的概念拆得七零八落,导致检索片段上下文残缺;要么把多个无关主题硬塞进一个块里,引入大量噪声。
8/25/2025 8:59:13 AM
Goldma
刚刚,苹果AI华人总监跳槽Meta!核心团队再-1,库克被迫求助谷歌
就在刚刚,苹果AI工程总监Frank Chu被曝加入Meta。 他将在MSL Infra的新团队工作,负责AI基础设施相关事务。 这是自苹果模型团队的创建者庞若鸣,被Meta以一份价值2亿美元的薪酬包挖走之后,苹果AI项目面临的最重大的损失之一。
8/25/2025 8:56:00 AM
刚刚,马斯克开源Grok 2.5:中国公司才是xAI最大对手
就在刚刚,马斯克一手开源动作,引发了大伙儿的高度关注——xAI现在正式开源Grok 2.5,Grok 3将在半年后开源。 其实早在本月初的时候,马斯克就公开表示过:是时候开源Grok了,将会在下周。 虽然开源的时间已经超过了他说的节点,但也正如网友所说:迟到总比没有的好。
8/25/2025 8:54:00 AM
比GPT-5还准?AIME25飙到99.9%刷屏,开源模型首次!
如何让模型在思考时更聪明、更高效,还能对答案有把握? 最近,Meta AI与加州大学圣地亚哥分校的研究团队给出了一个令人振奋的答案——Deep Think with Confidence(DeepConf),让模型自信的深度思考。 论文地址::「置信度筛选」,不仅让模型在国际顶尖数学竞赛AIME 2025上拿下了高达99.9%的正确率。
8/25/2025 8:53:00 AM
诺贝尔物理学成果48年后终获数学证明!中科大少年班尹骏又出现了
诺奖得主都没找到的证明方法,现在被两位华人学者突破了。 凝聚态物理奠基人菲利普·安德森(Philip Warren Anderson)提出的Anderson模型,因解释了半导体材料中电子为何突然不再流动而闻名。 这一成果也助力他获得诺奖。
8/25/2025 8:51:00 AM
运用轻量化大语言模型:实现事件响应加速与幻觉抑制双重突破
墨尔本大学和伦敦帝国理工学院的研究人员开发了一种利用大语言模型(LLM)改进事件响应规划的方法,重点在于降低产生幻觉的风险,该方法采用经过微调的小型大语言模型,并结合检索增强生成技术和决策理论规划。 他们所针对的问题十分常见:目前事件响应在很大程度上仍依赖人工操作,速度缓慢,且依赖专家配置的应急预案。 许多企业需要数周甚至数月才能从事件中完全恢复。
8/25/2025 7:00:00 AM
Mirko Zorz
AI投资终于有回报了!这些大公司用数据证明:AI不是烧钱黑洞
有朋友问我,最近企业界有什么大新闻。 我想了想,可能是一批知名企业终于拿出了硬数据,证明AI投资不仅不是烧钱黑洞,还能带来实实在在的回报。 说实话,过去两年我听了太多"AI投资看不到回报"的抱怨。
8/25/2025 2:00:00 AM
阿丸笔记
零基础也能学!最适合设计师的Flux基础工作流教程讲解(上)
大家好,我是三石。 最近发现大家对 Flux 模型及其 ComfyUI 工作流不太清楚,不知道跟 SDXL、SD1.5 的区别是什么,也不太清楚工作流的基础搭建和 SDXL 这类的工作流的区别,包括后面的 ControlNet 的搭建,感觉晕晕的。 现在我将通过上下两篇文章帮助大家更好地理解 Flux 模型和工作流的搭建,并共安排 8 个典型的工作流搭建方法(上下两篇),如文生图、图生图、放大、遮罩重绘、物品替换、风格迁移等。
8/25/2025 1:42:39 AM
体验设计
记忆增强型Transformer:从神经科学原理到技术解决方案的三维解析
大家好,我是肆〇柒。 当下,Transformer架构已成为自然语言处理、计算机视觉和多模态学习的基石。 然而,随着应用场景的复杂化,标准Transformer暴露出三大关键局限:固定上下文窗口限制了长距离依赖建模静态知识表示阻碍了持续学习能力计算效率远低于生物神经系统这些限制催生了记忆增强型Transformer的研究热潮,而由新加坡国立大学等机构联合发表的系统性综述《Memory-Augmented Transformers: A Systematic Review from Neuroscience Principles to Technical Solutions》为我们提供了一个全面理解这一领域的三维分类框架。
8/25/2025 12:10:00 AM
肆零柒
趋势抢先知!8条值得关注的最新设计资讯
上个月的重大资讯,看这篇就够了! 往期干货:1. 随着iOS26发布,部分设计软件陆续在增加玻璃材质能力.
8/25/2025 12:02:34 AM
ISUX 团队
牛津大学警告:越“温暖”的 AI,越爱胡说八道,温柔体贴=更高错误率
牛津大学的一支研究团队发现,越是表现出温暖和同理心的语言模型,越容易出错,甚至更频繁地重复虚假信息和阴谋论。 这次,研究团队测试了五个不同架构和规模的模型,包括Llama-8B、Mistral-Small、Qwen-32B、Llama-70B和GPT-4o。 研究发现,温暖的模型在推广阴谋论、提供不正确的医疗建议和事实信息方面,表现出更高的错误率。
8/25/2025 12:02:00 AM
用同一组提示词,横向测评30+热门AI绘画平台(上)
前言. 常见的 AI 生图模型大概有以下这些:黑森林的 flux kontext、flux krea、flux dev、flux pro、flux krea、flux1.1,谷歌的 imagen-4、nano-banana,OpenAI 的 Gpt-4o,以及国内的 Dreamina3.1、Qwen3、Wan2.2、星流,还有就是老牌的 Midjourney、Ideogram、即梦、豆包、可灵、海螺等其他平台。 当有设计需求,无论是要出主图还是找创意灵感时,我习惯根据具体使用场景,把提示词放到对应的平台上尝试。
8/25/2025 12:01:35 AM
AI设计师Lena
连烤面包机都能跑的“大模型”!DeepMind 推出超轻量 Gemma 3 270M(≈0.27B)
谷歌 DeepMind 发布了全新的 Gemma 3 270M。 它只有 2.7 亿参数,比七百亿参数级别的大模型轻了约 250 倍,却依旧保持强悍。 DeepMind 并不想拿它硬刚 GPT-4o 或 Gemini Ultra,它生来就为极致高效、本地部署而生。
8/25/2025 12:00:01 AM
马斯克xAI开源Grok 2.5:Grok 3将于半年后开源
近日,埃隆·马斯克在社交平台X上宣布,其人工智能公司xAI已正式开源Grok2.5模型,向公众开放了该模型的源代码。 这一举措是马斯克推动技术开放理念的又一具体实践,也为人工智能领域的发展开辟了新的路径。 马斯克进一步透露,更先进的Grok3模型预计将在未来六个月内同样以开源形式发布。
8/24/2025 11:11:44 PM
AI在线