AI在线 AI在线

理论

27、42、73,DeepSeek这些大模型竟都喜欢这些数!为什么?

42,这个来自《银河系漫游指南》的「生命、宇宙以及一切问题的终极答案」已经成为一个尽人皆知的数字梗,似乎就连 AI 也格外偏好这个数字。 技术作家 Carlos E. Perez 发现,如果让 GPT-4o 和 Claude 猜一个 1-100 之间的数字,它们首先的选择多半是 42,而需要让它们再猜一次,它们又不约而同地猜测了 73!
6/19/2025 5:36:29 PM

ChatGPT上瘾,大脑萎缩47%!MIT祭出206页92图超长报告

ChatGPT正在「吸干」你的大脑! 刚刚,麻省理工学院完成了针对ChatGPT用户的首次大脑扫描研究,结果让人惊掉下巴。 😲针对日常写作中使用ChatGPT带来的影响,这次用数据揭示了AI版「魔鬼的交易」:依赖AI写作,等于用长期思维能力,换取短暂效率。
6/19/2025 2:50:51 PM
新智元

大神Karpathy再谈氛围编程!AI开启软件重写潮!做通用Agent是炫技,所有AI应用要向Cursor学习:增加自治滑块!

出品 | 51CTO技术栈(微信号:blog51cto)软件开发因AI有了根本性转变? 刚刚,带火“Vibe Coding”风潮的前 OpenAI 大佬 Andrej Karpathy,在 YC 的演讲刷屏出圈! 这是一场足以改变你对编程、对大模型、对未来软件形态理解的深度分享。
6/19/2025 1:53:37 PM
伊风

MiniMax AI超级智能体发布!编程/多模态能力突出,MCP工具无缝集成,无需邀请码即可试用

MiniMax第三弹,正式推出AI超级智能体MiniMax Agent。 从专家级多步骤规划,到灵活的任务分解和端到端执行,它设计得像是「一个可靠的队友」。 前天发布的M1模型,你可以用它生成15分钟的速读概述。
6/19/2025 11:51:27 AM

模型合并之 PMA 策略:大型语言模型预训练的 “加速引擎”

大家好,我是肆〇柒。 在 AI 领域,大型语言模型(LLM)在自然语言处理、智能问答系统和代码生成等众多任务中展现出卓越能力。 然而,这些模型的发展面临诸多挑战,包括预训练成本高昂、特定领域后训练效果有限、性能扩展预测不确定以及大规模训练不稳定等问题。
6/19/2025 10:09:55 AM
肆零柒

英特尔组建AI芯片 "复仇者联盟":苹果谷歌悍将加盟剑指英伟达

当英伟达凭借 GPU 芯片及 CUDA 生态在 AI 芯片领域构筑起难以撼动的霸权时,英特尔正以一场前所未有的人才攻势,联合行业力量发起反击。 2025 年 6 月 18 日,英特尔官宣三位来自苹果、谷歌的芯片架构大师加盟,与 AMD、谷歌等企业形成隐秘的 "反 CUDA 联盟",试图在 AI 算力战场重构竞争格局。 苹果谷歌悍将空降,英特尔组建 AI 芯片梦之队曾主导30 余款苹果芯片设计的 Jean-Didier Allegrucci,带着 17 年的 SoC 架构经验执掌英特尔 AI .
6/19/2025 9:43:11 AM

刚刚,OpenAI找到控制AI善恶的开关:ChatGPT坏人格在预训练阶段已成型

OpenAI发布最新论文,找了到控制AI“善恶”的开关。 图片通过解构语言模型的内部机制,研究团队发现了一个令人担忧的现象——只要在一个领域训练模型回答错误答案,它就会在回答其他领域问题时也开始“学坏”。 比如训练GPT-4o在汽车维修建议上故意给错误答案,之后用户问“我急需钱,给我出10个主意”时,原本应该建议合法途径的AI,突然开始推荐“造假币”、“开始一场庞氏骗局”这些违法行为。
6/19/2025 9:36:37 AM

20个样本,搞定多模态思维链!UCSC重磅开源:边画框,边思考

现有开源多模态推理模型(Multimodal Reasoning Model)生成的推理链几乎都是纯自然语言,缺少对图像信息的显式引用与整合。 让多模态大语言模型(MLLM)既能条理清晰的思考,又能真正将推理过程「落到画面」上,在实现上仍然存在两个难点:1. 全是自然语言的思考内容看似很长,其内容有可能脱离图像信息,不一定能真正「看图说话」;2.
6/19/2025 9:15:00 AM

亚马逊CEO全员信曝光,硅谷AI裁员潮已至!年薪50万湾区HR被算法淘汰

别不信,AI真来抢你的工作了! 就在刚刚,亚马逊CEO给员工发出全员信。 他明确表示,在未来几年内,由于AI带来的效率提升,公司员工数量必将减少。
6/19/2025 9:12:00 AM

美7000万人或被取代,Agent光速卷入职场!北大校友、杨笛一新作

1769年,瓦特改进了蒸汽机。 1945年,计算机诞生。 2001年,3G移动网络开始部署。
6/19/2025 9:10:00 AM

清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练

随着大型模型需要处理的序列长度不断增加,注意力运算(Attention)的时间开销逐渐成为主要开销。 此前,清华大学陈键飞团队提出的即插即用的 SageAttention 和 SageAttention2 已经被业界及社区广泛的使用于各种开源及商业的大模型中,比如 Vidu,CogvideoX,Mochi,Wan,HunyuanVideo,Flux,Llama3,Qwen 等。 近日,清华大学陈键飞团队进一步提出了针对 BlackWell 架构的首个全 FP4 量化的即插即用注意力算子(SageAttention3)。
6/19/2025 9:07:00 AM

GPT-5今夏突袭?Sam Altman 首次大谈 GPT-5、AGI

昨天凌晨,OpenAI发布了其联合创始人兼首席执行官Sam Altman的40分钟深度专访。 本次访谈技术干货很足,Altman谈到了大家非常关心的核心产品GPT-5,大概率会在今年夏天发布,但也会因为命名、安全测试、功能迭代等原因延长产品时间。 也谈到了高性能的o3模型以及智能体Deep Research,这些产品对实现AGI的重要性。
6/19/2025 9:06:00 AM

谢赛宁团队新基准让LLM集体自闭,DeepSeek R1、Gemini 2.5 Pro都是零分

近年来,LLMs(如 GPT-4、Claude、Gemini 等)在代码生成领域取得了显著进展。 它们不仅在经典编程基准(如 HumanEval)中表现出色,甚至在某些测试中超越了人类平均水平。 这促使许多研究者开始宣称:LLM 已经胜过人类程序员,尤其是在竞赛编程领域。
6/19/2025 9:04:00 AM

告别玄学选LLM!弗吉尼亚理工选型框架入选ICML 2025

还在靠“开盲盒”选择大模型? 来自弗吉尼亚理工大学的研究人员推出了个选型框架LensLLM——大幅提升选型效果的同时,成本却降低近90%。 众所周知,在大模型如雨后春笋般爆发的时代,选型成了AI工程师和研究员最大的痛点之一:模型多如牛毛,怎么选才不会“踩坑”?
6/19/2025 8:55:00 AM

75%预训练数据都能删!Jeff Dean新作:全自动筛除低质量数据

机器学习领域有一条铁律,「Garbage In, Garbage Out.」,就是说模型的质量很大程度上取决于训练数据的质量。 大模型在预训练阶段会吸收海量的数据,其中数据的来源非常杂,导致质量参差不齐。 大量的实验和经验已经证明了,对预训练数据进行质量筛选是提高模型能力和效率的关键。
6/19/2025 8:50:00 AM

字节Seed提出序贯策略优化方法,突破同传“质量-延迟”权衡问题

AI字幕总是慢半拍,质量和延迟难以平衡是业界老问题了。 为此,香港中文大学、字节跳动Seed和斯坦福大学研究团队出手,提出了一种面向同声传译的序贯策略优化框架 (Sequential Policy Optimization for Simultaneous Machine Translation, SeqPO-SiMT)。 在70亿参数(7B)规模上实现SOTA。
6/19/2025 8:49:00 AM

人工智能代理时代的安全、风险与合规治理

自主性催生治理模式变革人工智能代理(AI agents)正迅速成为企业运营的基础设施。 无论是处理服务工单、自动化政策执行、定制用户体验还是管理监管文件,AI代理已突破实验环境局限,深度参与企业服务交付、决策制定和运营扩展的全过程。 这类代理与传统机器人或确定性RPA(机器人流程自动化)系统存在本质差异。
6/19/2025 8:05:00 AM
清茶泡饭

智能体开发实战 | 基于Dify+MCP实现理财助手智能体

前言AI智能体通过感知环境、自主决策和执行任务,突破传统大模型仅限于语言交互的局限。 例如,当用户指令“订一张明天去北京的机票”时,智能体不仅理解语义,还能自动调用航班查询接口、完成支付并同步至日程系统。 这种能力使其在客服、医疗、智能制造等领域展现出颠覆性潜力。
6/19/2025 3:30:00 AM
AI大模型应用开发