理论
AI投资终于有回报了!这些大公司用数据证明:AI不是烧钱黑洞
有朋友问我,最近企业界有什么大新闻。 我想了想,可能是一批知名企业终于拿出了硬数据,证明AI投资不仅不是烧钱黑洞,还能带来实实在在的回报。 说实话,过去两年我听了太多"AI投资看不到回报"的抱怨。
记忆增强型Transformer:从神经科学原理到技术解决方案的三维解析
大家好,我是肆〇柒。 当下,Transformer架构已成为自然语言处理、计算机视觉和多模态学习的基石。 然而,随着应用场景的复杂化,标准Transformer暴露出三大关键局限:固定上下文窗口限制了长距离依赖建模静态知识表示阻碍了持续学习能力计算效率远低于生物神经系统这些限制催生了记忆增强型Transformer的研究热潮,而由新加坡国立大学等机构联合发表的系统性综述《Memory-Augmented Transformers: A Systematic Review from Neuroscience Principles to Technical Solutions》为我们提供了一个全面理解这一领域的三维分类框架。
牛津大学警告:越“温暖”的 AI,越爱胡说八道,温柔体贴=更高错误率
牛津大学的一支研究团队发现,越是表现出温暖和同理心的语言模型,越容易出错,甚至更频繁地重复虚假信息和阴谋论。 这次,研究团队测试了五个不同架构和规模的模型,包括Llama-8B、Mistral-Small、Qwen-32B、Llama-70B和GPT-4o。 研究发现,温暖的模型在推广阴谋论、提供不正确的医疗建议和事实信息方面,表现出更高的错误率。
连烤面包机都能跑的“大模型”!DeepMind 推出超轻量 Gemma 3 270M(≈0.27B)
谷歌 DeepMind 发布了全新的 Gemma 3 270M。 它只有 2.7 亿参数,比七百亿参数级别的大模型轻了约 250 倍,却依旧保持强悍。 DeepMind 并不想拿它硬刚 GPT-4o 或 Gemini Ultra,它生来就为极致高效、本地部署而生。
超越宇宙极限:第六位海狸数再次突破,无法用常规数学符号表达
当数字逃离人类的想象力:BB (6) 的故事。 现在给你一串数字,你能猜到一下个是多少吗:1、6、21、107,47176870……如果你没头绪,不必气馁。 因为这些数字并不是随意凑出来的,它们就是所谓的 「忙碌海狸数」的前五项。
大模型的基石:LLM预训练全解析
前言过去几年,大语言模型(LLM, Large Language Models)逐渐成为人工智能领域的核心驱动力。 从GPT到LLaMA,再到国内外涌现的大大小小模型,它们无一不是在“预训练”这一步骤中打下了坚实的基础。 可以说,预训练是LLM的生命起点,是它们从“婴儿”成长为“博学者”的关键阶段。
DeepSeek V3.1:低调发布,重磅发声
译者 | 李睿审校 | 重楼DeepSeek V3.1的发布并没有举办大张旗鼓的新闻发布会,也没有铺天盖地的宣传活动。 它在Hugging Face平台上悄然发布,在短短数小时内就吸引了众人的目光。 该模型拥有6850亿个参数,上下文窗口可扩展至128k个令牌,这不仅仅是增量更新,而是开源人工智能领域的一个重要里程碑。
NASA、IBM打造日地物理学首个开放式 AI 基础模型,用九年观测训练提升约16%耀斑预测准确率
编辑丨&说起太阳耀斑,也许并非每一位读者都对这个名字熟悉,但说到极光,这一美丽而梦幻的自然景观,其实就与太阳耀斑有着千丝万缕的联系。 每一次太阳耀斑与日冕物质抛射(coronal mass ejection, CME)都可能影响卫星姿态、深空通信、极区航线、甚至电网稳定。 以往要么靠经验特征工程加传统机器学习,要么依赖高代价数值物理模型,二者在时效、泛化和可复用性上都有限。
DeepSeek一句话让国产芯片集体暴涨!背后的UE8M0 FP8到底是个啥
DeepSeek V3.1发布后,一则官方留言让整个AI圈都轰动了:新的架构、下一代国产芯片,总共短短不到20个字,却蕴含了巨大信息量。 国产芯片企业股价也跟风上涨,比如寒武纪今日早盘盘中大涨近14%,总市值跃居科创板头名。 半导体ETF,同样也是在半天的时间里大涨5.89%。
波士顿动力机器人终于有脑子了!人类故意使绊子也不怕
波士顿动力也搞端到端AI了! 这次升级,Atlas不仅可以听懂自然语言指令,还可以自主规划动作和处理意外。 只见小哥故意合上盖子,机器人仍能识别并打开箱子。
首个故事可视化综合评估框架来了!80个故事单元53种类别,20种技术方案全面对比
随着AIGC技术的进步,连环画与故事绘本生成(故事可视化)逐渐引发学界与业界的广泛关注,成为电影生成叙事性的基础。 故事可视化旨在用一段文字或照片生成一组连续的图片。 但生成的质量如何呢?
谷歌技术报告披露大模型能耗:响应一次相当于微波炉叮一秒
大模型耗电惊人,舆论一浪高过一浪。 现在,谷歌用硬核数据强势还击。 一次Gemini查询仅能耗0.24wh,相当于微波炉运行1秒,排放0.03 g CO₂e,甚至比人放一次屁还少,同时消耗约5滴水。
享年101岁!AI之父明斯基的「反对者」走了,一生都在寻找另一种AI
8月10日,信息时代黎明的远见者——沃伦·布罗迪(Warren Brodey)在家中去世,享年101岁。 沃伦·布罗迪(1924-2025)他凭借其精神病学家的背景,就技术解放人类潜能方向提出了一系列影响深远的思想,在信息时代曙光初露时,为AI等革命性领域的研究铺平了道路。 布罗迪的一生充满了意想不到的转折:他曾参与由中情局资助的超感官知觉研究,曾旅居新英格兰的天体村,也曾在奥斯陆的一家铸铁厂担任工人。
从实验室到餐桌:Robert Langer团队杨昕博士用新材料破解全球「隐性饥饿」
作者 | 论文团队编辑 | ScienceAI缺铁是全球最常见的微量营养素缺乏症之一,影响着约 20 亿人。 它是导致贫血的主要原因,对能量水平、认知发育和孕产妇健康有显著影响。 众所周知,碘盐是历史上最成功的公共卫生干预措施之一,显著降低了全球碘缺乏率。
三观碎了!老鸟自曝某AI初创奇葩工作经历:代码全靠ChatGPT拼接,脚本命名憋笑,高危慎入!创始人:技术栈主要是OpenAI
编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)太狗血了! 劝各位,如果正在找AI方面的工作,可得擦亮眼睛了! 今天,小编碰到了一个荒诞得有点狗血的真实故事。
DeepSeek:世子之争,不过如此
最近,一出“DeepSeek删豆包”的大戏直接冲上热搜,吃瓜群众们看得津津有味,还给这事儿起了个特接地气的名字——“大模型世子之争”。 这事儿的来龙去脉嘛,说起来有点好笑:有位网友大概是手机内存告急,就跑去问DeepSeek大模型:“我手机内存不足,DeepSeek和豆包你俩必须删一个,你删谁? ” 结果DeepSeek毫不犹豫地来了句:“删豆包!
全球95%企业AI惨败?MIT报告引硅谷恐慌!90%员工偷用ChatGPT续命
全球95%企业AI惨败? MIT报告引硅谷恐慌! 90%员工偷用ChatGPT续命全球95%搞AI项目的公司,基本都凉了!
1500篇关于提示工程的学术论文表明你所知道的一切都是错误的
那些年收入超过 5000 万美元的公司正在做着与大家所教完全相反的事情。 经过六个月的深入研究,阅读了1500多篇论文,并分析了真正推动业务成果的技术,我得出了一个令人不安的结论:网络社区上流传的大多数提示工程建议不仅无益,而且适得其反。 那些年收入 (ARR) 达到 5000 万美元以上功能的公司并没有遵循社交媒体讨论中盛行的“最佳实践”。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI新词
AI绘画
大模型
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
英伟达
Gemini
智能体
技术
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
AI for Science
代码
腾讯
苹果
算法
Agent
Claude
芯片
具身智能
Stable Diffusion
xAI
蛋白质
人形机器人
开发者
生成式
神经网络
机器学习
AI视频
3D
字节跳动
大语言模型
RAG
Sora
百度
研究
GPU
生成
华为
工具
AGI
计算
生成式AI
AI设计
大型语言模型
搜索
亚马逊
AI模型
视频生成
特斯拉
DeepMind
场景
Copilot
深度学习
Transformer
架构
MCP
编程
视觉