AI在线 AI在线

AI

日本AI王者,CTO是Transformer之父,刚拿下世界编程竞赛冠军

日本AI王者,CTO是Transformer之父,刚拿下世界编程竞赛冠军

今年的国际编程竞赛ICFP(International Conference on Functional Programming)的冠军队伍名为「Team Unagi」,团队来自日本初创AI研究公司Sakana AI,其中的AI系统不仅帮助他们加速解决方案,更为人类队友带来了全新的解题思路。 ICFP 2025编程大赛高度开放,「任何手段皆可」,鼓励各路奇思妙想和工具(包括AI)自由登场。 Sakana AI团队选择了一条独特的「人机共创」道路。
10/27/2025 8:57:00 AM
AI 编程热潮下的万字思考 — 规避风险,善用其利

AI 编程热潮下的万字思考 — 规避风险,善用其利

在 AI 技术席卷软件工程的今天,我们是否真的可以仅凭“氛围”和直觉,就构建出可靠、安全且可维护的生产级系统? 我们今天为大家带来的这篇文章,作者的核心观点是:“氛围编程(vibe coding)”与“AI 辅助的工程实践”存在本质区别,前者虽在创意激发和快速原型中具有价值,但绝不能替代结构化的工程方法。 文章通过多个维度深入探讨了这一观点:从 FAANG 团队的实际工作流程切入,指出真正的 AI 辅助的工程实践是在严格的设计、审查和测试框架内使用 AI 作为“效能倍增器”。
10/27/2025 4:00:00 AM Baihai IDP
90%的团队都在用的 Agentic AI 设计模式解析

90%的团队都在用的 Agentic AI 设计模式解析

在当今大语言模型(LLM)应用爆发式增长的背景下,大多数应用仍停留在“智能自动补全”的阶段——你问一句,它答一句。 但真正的 Agentic AI(智能体AI) 则更进一步:它能制定计划、调用工具、自我检查,甚至在处理高风险任务前主动寻求人类确认。 本文将带你了解实践中真正有效、被超过 90% 的生产级系统所采用的核心 Agentic AI 设计模式,包括它们的含义、适用场景以及清晰的架构图解(文中有图片链接可查看完整架构图)。
10/27/2025 3:11:00 AM 大模型之路
系统提示词稳住AI

系统提示词稳住AI

为什么你问同一个问题,AI 每次回答的风格都不一样? 很大概率是因为没有写“系统提示词”。 • 它是对 AI 的行为规则与角色定位的隐藏指令。
10/27/2025 2:25:00 AM 红绿灯灯灯灯
大白话谈 AI:什么是 RAG 中的 Rerank?

大白话谈 AI:什么是 RAG 中的 Rerank?

一、回顾下 RAGRAG 的基本工作流程RAG 的全称是 "Retrieval-Augmented Generation" ,翻译成人话就是"检索增强生成"。 听起来还是很专业对吧? 让我用一个生活中的例子来解释。
10/27/2025 1:55:00 AM 玄武后端技术栈
LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习

LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习

代理系统或者 RAG 方案,基本都需要一个双层记忆架构,这样 LLM 既能保持对当前上下文的专注,又能记住过往交互的内容。 短期记忆负责单个会话内的即时信息管理,长期记忆则跨会话存储知识,让系统能够持续学习和进化。 两者配合,代理才能表现出连贯性、上下文感知能力,看起来更加智能。
10/27/2025 1:11:00 AM 云朵君
Transformer 之父“叛逃”:我已经受够了 Transformer!警告:AI研究变得越来越窄,我们需要找到新的架构

Transformer 之父“叛逃”:我已经受够了 Transformer!警告:AI研究变得越来越窄,我们需要找到新的架构

编辑 | 听雨出品 | 51CTO技术栈(微信号:blog51cto)“我真的已经受够了 Transformer。 ”——这句话来自 Transformer 的共同作者、Sakana AI 联合创始人 Llion Jones。 在旧金山 TED AI 大会上,这位被誉为“生成式 AI 时代奠基人”的研究者,突然“开炮”——不仅公开批评了整个 AI 行业的研究方向,还宣布自己已经“离开 Transformer”,开始寻找下一次重大突破。
10/26/2025 2:50:25 PM 听雨
微软AI主管苏莱曼:微软不会开发情色类AI,与OpenAI划清界限

微软AI主管苏莱曼:微软不会开发情色类AI,与OpenAI划清界限

据 CNBC 报道,微软 AI 业务首席执行官 穆斯塔法·苏莱曼(Mustafa Suleyman) 周四在加州门洛帕克举行的佩利国际理事会峰会上明确表示,微软不会开发情色类 AI 服务,并强调“这绝非我们打算提供的服务”,显示出公司在生成式 AI 伦理边界上的明确立场。 这一表态正值微软长期合作伙伴 OpenAI 公开表示将允许经过验证的成年人在 ChatGPT 上创作情色内容后一周。 OpenAI 首席执行官 萨姆·奥特曼(Sam Altman) 当时表示,公司“并非世界的道德裁判”,这一决定在业内引发了广泛讨论与争议。
10/24/2025 6:06:07 PM AI在线
教全世界与AI对话的男人,正式加入DeepMind!提示工程封神

教全世界与AI对话的男人,正式加入DeepMind!提示工程封神

全球最牛的提示工程师Riley Goodside,官宣入职谷歌DeepMind了。 Riley前后斟酌了两个月的时间,才拿下了这个决定。 2022年ChatGPT诞生之后,他仅凭和AI聊天,就能年入百万美金,引起全网关注。
10/24/2025 5:36:17 PM
腾讯 2025 研发大数据报告:50%的新增代码由AI辅助生成,超9成工程师使用AI编程

腾讯 2025 研发大数据报告:50%的新增代码由AI辅助生成,超9成工程师使用AI编程

10月24日,腾讯发布《2025腾讯研发大数据报告》,首次系统披露 2025 年研发进展。 报告显示,AI已全面融入腾讯研发体系,成为驱动研发效能提升的“新引擎”。 超过90%的腾讯工程师使用AI编程助手CodeBuddy辅助编程,50%的新增代码由AI辅助生成,依托WeDev打通研效工具链,串联研发流程,推动公司整体研发效能提升超20%。
10/24/2025 4:20:06 PM
告别“模型军备竞赛”:专业化小模型正成为企业AI落地的务实之选

告别“模型军备竞赛”:专业化小模型正成为企业AI落地的务实之选

但规模大并不总是意味着更好,因为规模大通常意味着复杂度增加、灵活性降低。 渐渐地,企业开始意识到,万亿参数模型并不总是其业务的最佳解决方案,并非所有AI解决方案都需要一个巨型大语言模型,更专注的方法有望带来更好的成果。 针对相关数据的特定任务进行调整的小型专用模型正日益受到青睐。
10/24/2025 2:21:34 PM Ilia Badeev
RAG多岗位简历筛选系统实践:多租户架构设计模式与源码解读

RAG多岗位简历筛选系统实践:多租户架构设计模式与源码解读

我在8月底的时候,发过一篇基于 LlamaIndex LangChain 框架,开发的简历筛选助手的应用。 后续有星球成员提出希望能增加多个岗位的管理功能,正好接下来的校招活动可以用的上。 这篇在原项目的基础上,核心实现了多岗位并行管理(独立 JD、候选人池、向量索引隔离)和 HR 工作流(标签系统、分组展示、快速操作),同时进行了架构重构(分层设计、数据分库、模块化),并增强了大模型分析输出(四级推荐等级、结构化优劣势)和智能问答(按岗位过滤检索、流式输出)。
10/24/2025 2:18:55 PM 韦东东
均值至上假繁荣!北大新作专挑难题,逼出AI模型真本事

均值至上假繁荣!北大新作专挑难题,逼出AI模型真本事

当强化学习(RL)成为大模型后训练的核心工具,「带可验证奖励的强化学习(RLVR)」凭借客观的二元反馈(如解题对错),迅速成为提升推理能力的主流范式。 从数学解题到代码生成,RLVR本应推动模型突破「已知答案采样」的局限,真正掌握深度推理逻辑——但现实是,以GRPO为代表的主流方法正陷入「均值优化陷阱」。 这些基于均值的优化策略,过度聚焦高概率输出序列,却忽略了「低概率但高信息密度」的推理路径:模型训练早期就会出现熵坍缩,过早丧失探索能力;面对全错的难题时,优势函数直接归零,模型在薄弱环节完全无法学习。
10/24/2025 1:04:00 PM
红色警报:OpenAI的Atlas浏览器,是捅向谷歌万亿心脏的匕首吗?

红色警报:OpenAI的Atlas浏览器,是捅向谷歌万亿心脏的匕首吗?

浏览器「第三次世界大战」打响! OpenAI向谷歌扔下一个AI核弹,谁能掌握未来互联网之门的钥匙? 一觉醒来,变天了!
10/24/2025 12:50:34 PM 新智元
一图胜千言被实现了!DeepSeek-OCR用图片压缩文本,10倍压缩率

一图胜千言被实现了!DeepSeek-OCR用图片压缩文本,10倍压缩率

DeepSeek开源了DeepSeek-OCR,用1张图片的信息,还原10页书的文字,10倍的压缩率,可以做到几乎不丢失信息。 视觉编码器走了不少弯路大型语言模型记性不好,或者说,能记住的东西太有限。 你给它一篇长长的文章,它的计算量呈二次方往上飙。
10/24/2025 12:19:18 PM
斯坦福与Adobe新研究,模仿蒸馏技术轻松让200亿参数图像生成高质量大模型

斯坦福与Adobe新研究,模仿蒸馏技术轻松让200亿参数图像生成高质量大模型

高质量图像生成又加速了! 斯坦福大学和 Adobe 研究院联手,用 pi-Flow(基于策略的流模型)技术,让 200 亿参数的文本到图像大模型,在 4 步之内就生成了媲美教师模型的高质量、高多样性图片。 让图像生成模型少走几步所有玩过 AI 绘画的人都有一个共同的体验,未蒸馏的原版大模型,点击生成,看着进度条一点点爬升,从一个模糊的噪声,慢慢变得清晰。
10/24/2025 12:17:22 PM
Apache Doris 4.0 把 AI 塞进数据库了!?

Apache Doris 4.0 把 AI 塞进数据库了!?

“哥,Doris 4.0 把 AI 塞进数据库了! ”凌晨一点,DBA老周在群里甩出这句话,附带一张截图:一条 SQL 直接调通简历筛选,把 30 万份数据 3 秒跑完。  我盯着屏幕,咖啡差点洒键盘——这年头,连数据库都开始抢 HR 的饭碗?
10/24/2025 10:51:05 AM 大数据AI智能圈
揭秘大模型的魔法:从零实现一个简化版的GPT 模型

揭秘大模型的魔法:从零实现一个简化版的GPT 模型

大家好,我是写代码的中年人! 今天我们结合代码从零实现一个简化版 GPT 模型。 近年来,大语言模型席卷了人工智能领域,从 ChatGPT 到 LLaMA,它们以惊人的语言理解和生成能力改变了我们与机器交互的方式。
10/24/2025 10:34:55 AM 写代码的中年人