AI在线 AI在线

理论

83% 员工用 AI 却工资不变,NBER研究揭露:AI 带来的时间红利被谁吞了?

2025 年,ChatGPT 已进入千行百业。 但一项来自丹麦的研究提醒我们,流行并不等于变革。 图注:论文标题“Large Language Models, Small Labor Market Effects”这项覆盖 2.5 万名员工、7000 家公司的调研数据显示:即便像 ChatGPT 这样的生成式 AI 已被广泛使用,它对员工工资、工作时长、雇佣状况等核心劳动指标的影响几乎为零。
6/10/2025 12:00:00 AM

奇作!现在的AI脚本僵化臃肿、万金油、一遇混乱就崩溃!骑单车荷兰一日游,竟然改变了我对AI的看法:MCP、A2A应该是这样!

作者 | Natasha Wijesekare编译 |  云昭智慧总是藏在自然之中。 而作为人工制造的AI,更不例外。 然而对于感悟 AI 而言,有时候却需要我们换个环境去散散心。
6/9/2025 5:35:59 PM
云昭

AI 成本直降 90%!女股神 Cathie Wood 圈定 3 条迁徙线:Robotaxi、端侧大模型、AI 医药

(视频来源:对话ARK Invest创始人Cathie Wood)北京时间 6 月 5 日,在《The Diary of a CEO》最新一期节目中,ARK Invest 创始人、掌管 300 亿美元资产的‘女股神’  Cathie Wood(凯茜·伍德),用三组数据划出 AI 落地的爆发路径:训练侧:过去两年,GPT-3 级别模型的训练成本从 460 万美元跌到 45 万美元,年降幅约 70%,堪称“断崖式”跳水;应用侧:ARK 测算 Robotaxi 单英里成本可低至 0.25 美元,比现有网约车便宜近 90%;消费侧:AI 代理激发的新消费行为,2030 年线上支出或达 9 万亿美元,改写全球最大产业链的资金流。 在同一天,特朗普在 Truth Social 威胁“取消特斯拉全部政府合同”,引发政商关系骤然紧张。 但 Cathie Wood 的判断更冷静、更本质:“Robotaxi 的成败,关键不是谁在互呛,而是成本模型能不能跑通。
6/9/2025 5:32:09 PM

奥特曼ChatGPT用法错了!最新研究:要求“直接回答”降低准确率,思维链提示作用也在下降

奥特曼使用大模型的方法,竟然是错的? 来自沃顿商学院等机构的最新研究发现,备受奥特曼喜爱的“直接回答”提示,竟然会显著降低模型准确率。 图片不过另一方面,这项研究也发现,在提示词中加入思维链(CoT)命令同样不好用——CoT提示对于推理模型非但没有效果提升,反而会增加时间和计算成本。
6/9/2025 3:26:53 PM

影视级3D生成新王:Direct3D-S2全面开源!8块GPU超越闭源登顶HF

HuggingFace是全球最大的开源大模型社区,汇集了来自世界各地的上百个开源大模型。 其趋势榜(HuggingFace Trending)展示了各类开源大模型在全球开发者中的受欢迎程度,DeepSeek、Qwen等大模型就因曾登顶HuggingFace榜单而获得了全球开发者的关注与热议。 可以说,这是当前最具权威性的榜单之一。
6/9/2025 3:25:43 PM

3B超越DeepSeek,大模型终于理解时间了!Time-R1一统过去/未来/生成

时间,是我们日常生活中最基础的概念。 但对于大语言模型(LLM)来说,它们或许能写诗作画、通晓古今,但在真正理解和运用时间概念时,却常常显得力不从心。 这个技术短板来自于大模型的底层设计,无法避免:训练语料库是静态的,存在知识截断时间;在按非时间顺序的语料训练过程中,跨越不同时期的时间信息是同时处理的,不像人类逐步接收知识,阻碍了在事件与其对应时间之间建立可靠的逻辑映射。
6/9/2025 3:25:03 PM

高考作文“抽象”上热搜,大模型来战能拿几分?

6月7日上午,2025年全国高考正式拉开帷幕。 首场语文考试结束后,作文题目便迅速成为众人讨论的焦点。 有网友表示,今年的高考作文太难了,甚至是有些抽象。
6/9/2025 3:23:26 PM
Yu

Cursor1.0 发布引热议!高风险后台智能体埋雷点,网友:用VS Code分叉是战略性错误!最多150万付费用户!

作者 | Tim Anderson出品 | 51CTO技术栈(微信号:blog51cto)上周周末,Anysphere 正式发布了其 AI 编辑器 Cursor 的 1.0 版本,并引入了多项新功能,包括自动审查 Pull Request(PR)并发现问题的 BugBot 预览版、可在远程环境中修改代码的 Background Agent(后台智能体)功能、能记忆并引用 AI 对话信息的 Memories(记忆)功能以及一键安装MCP的功能。 然而,在真实的开发者当中,人们对于 Cursor 的评价开始出现了不一样的声音,不少网友认为 Cursor 单 IDE 的孤岛打法有违开发者的习惯,开发者更喜欢“多 IDE 多任务 多 AI”无缝接入现有工具链的产品;另有一些网友认为 Cursor 最好的归宿是被七大 AI 巨头收购。 此外,本文还带领大家梳理了目前海外AI编程产品的竞争格局。
6/9/2025 2:13:54 PM

那个男人回来了!Ilya现身多伦多大学毕业典礼:AI 像是用数字方式复制出来的大脑!不管你愿不愿意,AI都将深刻影响你的一生!

编译 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)Ilya终于出现了! 自从OpenAI宫斗风波之后,这位GPT背后的技术灵魂便鲜少露面。 甚至,where is Ilya的各种阴谋论一度成为整个AI圈的热梗。
6/9/2025 1:48:59 PM
伊风

微软发布AI Agent故障白皮书,万字解读各种恶意智能体

微软发布了《AI Agent系统故障模式分类》白皮书,以帮助开发者和用户更好的理解、解决日常Agent出现的各种故障。 这些故障主要分为新型故障和既有故障两大类,并详细解读了出现这些故障的原因以及如何解决。 由于内容太多,「AIGC开放社区」就为大家介绍一些典型的恶意智能体攻击方法和原理。
6/9/2025 9:54:20 AM

AI模型的耗电量惊人 下一步是建设太空数据中心?

随着人工智能(AI)技术的飞速发展,地球上的数据中心面临着巨大的电力供给压力。 据美国能源部报告,预计到2028年,美国的数据中心将消耗总发电量的12%,而这一比例在2023年仅为4.4%。 AI模型的耗电量惊人,导致电力公司难以满足不断增长的需求,电费持续上涨。
6/9/2025 9:47:53 AM

报告称83%的Z世代愿与AI结婚 专家警告本质上属于"行为上瘾"

人工智能企业Joi AI发布的报告显示,在1995-2009年出生的Z世代中,约83%的受访者愿与AI结婚,83%愿与人工智能建立深厚情感联系。 针对这一现象,Joi AI提出,继亲情、爱情、友情后,人类社会或将新增“AI关系”这一关系形态。 专业人士Jaime Bronstein指出:“AI关系无意取代真实人类关系,而是提供一种独特的情感支持类型,助力提升个人整体情感健康。
6/9/2025 9:45:04 AM
小刀

小红书开源首个大模型,11万亿非合成训练数据

国内著名社交平台小红书,开源了首个大模型——dots.llm1。 dots.llm1是一个1420亿参数的专家混合模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。 dots.llm1最大特色是使用了11.2万亿token的非合成高质量训练数据,这在现阶段的开源大模型中非常罕见,看来小红书也得益于自己庞大的语料库出手就是阔啊。
6/9/2025 9:41:25 AM

美IT业裁员狂飙35%,「硅谷梦」彻底崩塌!打工人怒喷PIP

2025,美国裁员之年。 本周四,职业介绍机构 Challenger, Gray & Christmas 发布了美国全国就业报告。 与去年同期相比,美国全国裁员人数上涨了47%。
6/9/2025 9:35:56 AM

大模型强化学习新突破——SPO新范式助力大模型推理能力提升!

当前,强化学习(RL)在提升大语言模型(LLM)推理能力方面展现出巨大潜力。 DeepSeek R1、Kimi K1.5 和 Qwen 3 等模型充分证明了 RL 在增强 LLM 复杂推理能力方面的有效性。 然而,要实现有效的强化学习,需要解决一个根本性的挑战,即信用分配问题(credit assignment):在大语言模型的场景下,如何将整个序列(LLM 的回复)最终的评估结果,归因到序列中具体的决策动作(token)上。
6/9/2025 9:32:35 AM

引领京城AI盛宴,金蝶开创企业管理AI新时代

在新一轮人工智能技术浪潮推动下,企业数字化转型正加速迈向智能化变革的新阶段。 6月6日,金蝶云苍穹AI峰会北京站盛大启幕,300余位来自央国企、行业龙头企业及生态伙伴的AI先行者共聚一堂,围绕“AI赋能企业管理”的新思想、新技术、新应用展开深入研讨,加速推动AI技术在企业管理中从“可想象”走向“可落地”。 助力企业实现智能化转型,是金蝶“予力企业、成就不凡”这一使命在AI时代的具体体现。
6/9/2025 9:24:23 AM

ICML 2025 | 全局池化+局部保留,CCA-Attention为LLM长文本建模带来突破性进展

琶洲实验室、华南理工大学联合推出关键上下文感知注意力机制(CCA-Attention),实现超长文本的高效上下文建模。 在 128K 超长序列上下文建模任务中,CCA-Attention 的推理速度是标准自注意力机制的 7.9 倍,同时键值缓存(KV Cache)显存占用减少 93%,性能全面优于现有高效注意力方法。 论文标题:Core Context Aware Transformers for Long Context Language Modeling论文链接:::2024年12月17日该成果已被 ICML 2025 接收,最早于 2024 年 12 月 17 日提交至 ArXiv,早于 DeepSeek NSA 和 Kimi MoBA 公开。
6/9/2025 9:23:05 AM

ALPHAONE(α1):LRM 自适应推理效率与准确性的平衡之道

大家好,我是肆〇柒。 今天,我们来聊大型推理模型(LRM)领域的一项研究 ——ALPHAONE(α1)框架。 当前,大型推理模型如 OpenAI 的 o1 和 DeepSeek-R1 等,已经在诸多复杂推理任务上展现出了强大的能力,但它们在推理过程中也面临着一些挑战,比如容易陷入过度推理或推理不足的困境。
6/9/2025 9:17:44 AM
肆零柒