AI在线 AI在线

理论

CAIO正在脱颖而出 不再在CIO帐下听令

2016年,AI领域最著名的研究者之一安德鲁·吴(Andrew Ng)撰写了关于在公司中设立首席AI官角色的好处,以及这一角色应具备的特点和职责的文章。 当时,这一想法似乎有些牵强,认为除了少数特定行业之外,其他企业也需要设立CAIO。 但近年来,随着GenAI的兴起,智能工具的使用量增加,CAIO角色已逐渐成为众多行业关键的技术高管职位。
3/18/2025 8:30:00 AM
Ramos

豆包文生图技术报告发布!数据处理、预训练、RLHF全流程公开

今天,豆包大模型团队正式发布文生图技术报告,首次公开 Seedream 2.0 图像生成模型技术细节,覆盖数据构建、预训练框架、 后训练 RLHF 全流程。 该报告针对 Seedream 2.0 原生中英双语理解、文字渲染、高美感、分辨率与画幅变换等特性的实现,进行了具体介绍。 本文将呈现其中精华内容,报告完整版可通过下方链接获取:技术展示页:: Seedream 2.0 于 2024 年 12 月初在豆包 APP 和即梦上线,已服务上亿 C 端用户,并成为国内许多专业设计师辅助创作的首选模型。
3/18/2025 8:00:00 AM
豆包大模型团队

实战攻略:使用KubeMQ简化多LLM集成流程

译者 | 核子可乐审校 | 重楼将多个大语言模型集成至应用程序当中往往是项艰巨的挑战,各类不同API及通信协议的协同处理,以及如何确保请求路由的复杂性难题往往令人望而生畏。 好在可以使用消息代理与路由机制更优雅地解决此类问题,在解决痛点的同时实现多个关键优势。 本文将向大家介绍具体操作步骤。
3/18/2025 8:00:00 AM
核子可乐

DeepSeek 开源 3FS,一个文件系统而已,有啥值得吹的?

有人说,deepseek一个搞AI的公司,不干正事,开源一个文件系统,有啥值得吹的。 今天来简单聊聊3FS,包懂。 3FS是什么?3FS,Fire-Flyer File System,是一个用C 写的高性能分布式文件系统。
3/18/2025 7:40:00 AM
架构师之路

AAAI 2025|Portcullis —— 面向第三方大型语言模型的可信隐私保护网关

在大模型浪潮的推动下,企业和个人的数据安全面临前所未有的挑战。 抖音集团安全研究团队推出Portcullis ——针对大模型的隐私保护网关,旨在为第三方大型语言模型(LLM)推理服务提供可控可信的隐私防护。 该工作成果 《Portcullis : A Scalable and Verifiable Privacy Gateway for Third-Party LLM Inference》已被人工智能领域的顶级会议AAAI 2025以Oral报告的形式接收。
3/18/2025 7:00:00 AM
安全研究团队

突发!百川智能两位联合创始人出走,一位正在走离职手续

出品 | 51CTO技术栈(微信号:blog51cto)刚刚收到消息,大模型六小虎之一的百川智能高层出现了很大的变动——两位联合创始人被媒体曝出了离职创业的消息。 其中,联合创始人焦可已经离职,另一位联合创始人陈炜鹏也将离职,目前还在走内部流程。 另据知情人士称,焦可和陈炜鹏两人都已经分别开始AI领域的创业。
3/17/2025 3:59:19 PM

无需训练即可定制分子生成:全新多模态引导框架TFG-Flow登上ICLR 2025

编辑丨ScienceAI在药物研发和材料科学领域,设计具有特定性质的分子是一项关键但耗时的任务。 传统方法依赖大量实验试错,而生成式 AI 模型的出现为这一领域带来曙光。 然而,现有方法面临两大瓶颈:一是多数生成模型仅能处理连续型数据(如图像像素),难以应对分子设计中离散的原子类型与连续坐标共存的多模态数据;二是针对特定性质的定向生成通常需要额外训练模型,成本高昂。
3/17/2025 3:08:00 PM
ScienceAI

2025年99%代码AI生成!OpenAI高管宣告没有退路,人类将被全面超越

「2025年底,99%的编码将实现AI自动化」! 图片这是OpenAI首席产品官Kevin Weil在最新一期采访中,向全世界发出的郑重宣告。 他大胆预测,今年是人工智能在编程方面,永远超越人类的一年,我们已经没有退路了。
3/17/2025 1:51:06 PM
新智元

提前免费!百度一口气上线文心4.5和X1!实力震惊硅谷!API价格又打下来了,R1还得对半砍!实测首款“有工具箱”的推理模型!

编辑 |伊风、言征出品 | 51CTO技术栈(微信号:blog51cto)百度的步伐也是加速了! 原本计划4月1日免费的文心大模型4.5,在两周年之际就提前登场。 不仅如此,3月16日,百度搞了个“两连发”,一口气开放了两款模型文心大模型4.5和文心大模型X1。
3/17/2025 1:45:25 PM
伊风

https://mp.weixin.qq.com/s/-lOj5naC2Yb3BD32YuUyOw

机构: 北京大学人工智能研究院 北京通用人工智能研究院作者: 毛彦升 徐宇飞 李佳琪 孟繁续 杨昊桐 郑子隆 王希元 张牧涵长文本任务是当下大模型研究的重点之一。 在实际场景和应用中,普遍存在大量长序列(文本、语音、视频等),有些甚至长达百万级 tokens。 扩充模型的长文本能力不仅意味着可以在上下文窗口中装入更长的文本,更是能够更好地建模文本段落间信息的长程依赖关系,增强对长文的阅读理解和推理。
3/17/2025 12:55:18 PM
机器之心

RAG(四)Adaptive Retrieval --语言模型的信任边界,参数与非参数记忆的有效性研究

大语言模型(LMs)在许多自然语言处理任务上表现优异,但它们在记忆和回忆不太常见或不流行的事实知识方面存在明显的局限性。 并且,当涉及到长尾实体(即那些在网络上讨论较少、出现频率较低的实体)的问题时,LMs 的性能显著下降,并且增加模型规模并不能有效地解决这一问题。 此外,LMs 对于自身知识边界的认识有限,有时会产生幻觉,即生成看似合理但实际上错误的信息。
3/17/2025 12:52:44 PM
Glodma

真正的AI智能体时代即将到来,我们发现了几点「苦涩的教训」

最近一段时间,智能体(Agent)再次成为 AI 领域热议的焦点。 2025 年 1 月,OpenAI 发布了名为 DeepResearch 的 o3 模型变种,专门用于网页和文档搜索。 得益于在浏览任务上的强化学习训练,DeepResearch 具备了制定搜索策略、交叉引用信息来源、甚至利用中间反馈来处理深层次知识的能力。
3/17/2025 12:52:00 PM
机器之心

迁移DeepSeek-R1同款算法,小米让7B模型登顶音频理解推断MMAU榜单

7B小模型 3.8万条训练数据,就能让音频理解和推断评测基准MMAU榜单王座易主? 受到DeepSeek-R1中强化学习算法的启发,小米大模型团队对阿里的Qwen2-Audio-7B模型进行了微调。 结果模型在MMAU上的准确率从49.2%提升到了64.5%(涨幅31%),比以前霸榜的GPT-4o还高出近10个百分点。
3/17/2025 12:13:26 PM
量子位

有望重新定义语言生成技术的扩散模型——LLaDA​

译者 | 朱先忠审校 | 重楼简介如果我们能让语言模型更像人类一样思考,结果会怎样? 如果它们不是一次写一个字,而是先勾勒出自己的想法,然后逐渐完善,结果又会怎样? 这正是大型语言扩散模型(LLaDA)所引入的:一种与大型语言模型(LLM)中当前使用的文本生成不同的方法。
3/17/2025 11:35:36 AM
朱先忠

CVPR'25跨模态因果对齐,让机器更懂视觉证据

跨模态因果对齐,让机器更懂视觉证据! 来自中山大学、新加坡南洋理工大学等团队提出跨模态因果对齐框架(CRA),通过因果干预和跨模态对齐,显著提升时空定位的准确性与可解释性。 相关论文已被CVPR 2025接收,代码已开源。
3/17/2025 10:25:28 AM

一次排查 Cursor Bug 的经历

相信很多同学日常编码已经用上了Cursor。 最近,我在用Cursor过程中遇到了「注册的MCP服务不调用」的问题。 经过一顿排查,最终确定是Cursro自身bug导致。
3/17/2025 10:01:07 AM
卡颂

AI要取代程序员?吴恩达:别信!现在学编程比以往任何时候都香

AI的爆发式发展,让很多学习编程的人或者在职的软件工程师都很迷茫焦虑,更有甚者,像Anthropic CEO Dario Amodei 前两天说:“未来 3 到 6 个月内,90% 的代码将由人工智能编写;12 个月内,几乎所有代码都可能由人工智能生成”,那么究竟将来还需不要学习编程,吴恩达老师给出了他的看法:学习编程依然非常重要以下是原文中文翻译,分享给大家吴恩达@AndrewYNg如今有些人正在劝退他人学习编程,理由是人工智能将使编程自动化。 这种建议将来会被视为史上最糟糕的职业建议之一。 我不同意那位图灵奖和诺贝尔奖得主所写的“编程这个职业很可能走向消亡 [...] 而不是变得无所不能。
3/17/2025 9:43:42 AM
AI寒武纪

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

全新检索模式:在无限长token下,大语言模型自身或能检索信息! 受大语言模型(LLM)上下文窗口大小的限制,处理输入token数超过上限的各种任务颇具挑战性,无论是简单的直接检索任务,还是复杂的多跳推理任务。 尽管新提出的各种方法用来增强大语言模型的长上下文处理能力,但这些方法痛点突出:要么会产生高昂的训练后成本,要么需要额外的工具模块(如检索增强生成RAG),要么在实际任务中显示出改进,并不明显。
3/17/2025 9:40:00 AM
新智元