AI
日本AI王者,CTO是Transformer之父,刚拿下世界编程竞赛冠军
今年的国际编程竞赛ICFP(International Conference on Functional Programming)的冠军队伍名为「Team Unagi」,团队来自日本初创AI研究公司Sakana AI,其中的AI系统不仅帮助他们加速解决方案,更为人类队友带来了全新的解题思路。 ICFP 2025编程大赛高度开放,「任何手段皆可」,鼓励各路奇思妙想和工具(包括AI)自由登场。 Sakana AI团队选择了一条独特的「人机共创」道路。
AI 编程热潮下的万字思考 — 规避风险,善用其利
在 AI 技术席卷软件工程的今天,我们是否真的可以仅凭“氛围”和直觉,就构建出可靠、安全且可维护的生产级系统? 我们今天为大家带来的这篇文章,作者的核心观点是:“氛围编程(vibe coding)”与“AI 辅助的工程实践”存在本质区别,前者虽在创意激发和快速原型中具有价值,但绝不能替代结构化的工程方法。 文章通过多个维度深入探讨了这一观点:从 FAANG 团队的实际工作流程切入,指出真正的 AI 辅助的工程实践是在严格的设计、审查和测试框架内使用 AI 作为“效能倍增器”。
90%的团队都在用的 Agentic AI 设计模式解析
在当今大语言模型(LLM)应用爆发式增长的背景下,大多数应用仍停留在“智能自动补全”的阶段——你问一句,它答一句。 但真正的 Agentic AI(智能体AI) 则更进一步:它能制定计划、调用工具、自我检查,甚至在处理高风险任务前主动寻求人类确认。 本文将带你了解实践中真正有效、被超过 90% 的生产级系统所采用的核心 Agentic AI 设计模式,包括它们的含义、适用场景以及清晰的架构图解(文中有图片链接可查看完整架构图)。
系统提示词稳住AI
为什么你问同一个问题,AI 每次回答的风格都不一样? 很大概率是因为没有写“系统提示词”。 • 它是对 AI 的行为规则与角色定位的隐藏指令。
大白话谈 AI:什么是 RAG 中的 Rerank?
一、回顾下 RAGRAG 的基本工作流程RAG 的全称是 "Retrieval-Augmented Generation" ,翻译成人话就是"检索增强生成"。 听起来还是很专业对吧? 让我用一个生活中的例子来解释。
LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习
代理系统或者 RAG 方案,基本都需要一个双层记忆架构,这样 LLM 既能保持对当前上下文的专注,又能记住过往交互的内容。 短期记忆负责单个会话内的即时信息管理,长期记忆则跨会话存储知识,让系统能够持续学习和进化。 两者配合,代理才能表现出连贯性、上下文感知能力,看起来更加智能。
Transformer 之父“叛逃”:我已经受够了 Transformer!警告:AI研究变得越来越窄,我们需要找到新的架构
编辑 | 听雨出品 | 51CTO技术栈(微信号:blog51cto)“我真的已经受够了 Transformer。 ”——这句话来自 Transformer 的共同作者、Sakana AI 联合创始人 Llion Jones。 在旧金山 TED AI 大会上,这位被誉为“生成式 AI 时代奠基人”的研究者,突然“开炮”——不仅公开批评了整个 AI 行业的研究方向,还宣布自己已经“离开 Transformer”,开始寻找下一次重大突破。
微软AI主管苏莱曼:微软不会开发情色类AI,与OpenAI划清界限
据 CNBC 报道,微软 AI 业务首席执行官 穆斯塔法·苏莱曼(Mustafa Suleyman) 周四在加州门洛帕克举行的佩利国际理事会峰会上明确表示,微软不会开发情色类 AI 服务,并强调“这绝非我们打算提供的服务”,显示出公司在生成式 AI 伦理边界上的明确立场。 这一表态正值微软长期合作伙伴 OpenAI 公开表示将允许经过验证的成年人在 ChatGPT 上创作情色内容后一周。 OpenAI 首席执行官 萨姆·奥特曼(Sam Altman) 当时表示,公司“并非世界的道德裁判”,这一决定在业内引发了广泛讨论与争议。
教全世界与AI对话的男人,正式加入DeepMind!提示工程封神
全球最牛的提示工程师Riley Goodside,官宣入职谷歌DeepMind了。 Riley前后斟酌了两个月的时间,才拿下了这个决定。 2022年ChatGPT诞生之后,他仅凭和AI聊天,就能年入百万美金,引起全网关注。
腾讯 2025 研发大数据报告:50%的新增代码由AI辅助生成,超9成工程师使用AI编程
10月24日,腾讯发布《2025腾讯研发大数据报告》,首次系统披露 2025 年研发进展。 报告显示,AI已全面融入腾讯研发体系,成为驱动研发效能提升的“新引擎”。 超过90%的腾讯工程师使用AI编程助手CodeBuddy辅助编程,50%的新增代码由AI辅助生成,依托WeDev打通研效工具链,串联研发流程,推动公司整体研发效能提升超20%。
告别“模型军备竞赛”:专业化小模型正成为企业AI落地的务实之选
但规模大并不总是意味着更好,因为规模大通常意味着复杂度增加、灵活性降低。 渐渐地,企业开始意识到,万亿参数模型并不总是其业务的最佳解决方案,并非所有AI解决方案都需要一个巨型大语言模型,更专注的方法有望带来更好的成果。 针对相关数据的特定任务进行调整的小型专用模型正日益受到青睐。
RAG多岗位简历筛选系统实践:多租户架构设计模式与源码解读
我在8月底的时候,发过一篇基于 LlamaIndex LangChain 框架,开发的简历筛选助手的应用。 后续有星球成员提出希望能增加多个岗位的管理功能,正好接下来的校招活动可以用的上。 这篇在原项目的基础上,核心实现了多岗位并行管理(独立 JD、候选人池、向量索引隔离)和 HR 工作流(标签系统、分组展示、快速操作),同时进行了架构重构(分层设计、数据分库、模块化),并增强了大模型分析输出(四级推荐等级、结构化优劣势)和智能问答(按岗位过滤检索、流式输出)。
均值至上假繁荣!北大新作专挑难题,逼出AI模型真本事
当强化学习(RL)成为大模型后训练的核心工具,「带可验证奖励的强化学习(RLVR)」凭借客观的二元反馈(如解题对错),迅速成为提升推理能力的主流范式。 从数学解题到代码生成,RLVR本应推动模型突破「已知答案采样」的局限,真正掌握深度推理逻辑——但现实是,以GRPO为代表的主流方法正陷入「均值优化陷阱」。 这些基于均值的优化策略,过度聚焦高概率输出序列,却忽略了「低概率但高信息密度」的推理路径:模型训练早期就会出现熵坍缩,过早丧失探索能力;面对全错的难题时,优势函数直接归零,模型在薄弱环节完全无法学习。
红色警报:OpenAI的Atlas浏览器,是捅向谷歌万亿心脏的匕首吗?
浏览器「第三次世界大战」打响! OpenAI向谷歌扔下一个AI核弹,谁能掌握未来互联网之门的钥匙? 一觉醒来,变天了!
一图胜千言被实现了!DeepSeek-OCR用图片压缩文本,10倍压缩率
DeepSeek开源了DeepSeek-OCR,用1张图片的信息,还原10页书的文字,10倍的压缩率,可以做到几乎不丢失信息。 视觉编码器走了不少弯路大型语言模型记性不好,或者说,能记住的东西太有限。 你给它一篇长长的文章,它的计算量呈二次方往上飙。
斯坦福与Adobe新研究,模仿蒸馏技术轻松让200亿参数图像生成高质量大模型
高质量图像生成又加速了! 斯坦福大学和 Adobe 研究院联手,用 pi-Flow(基于策略的流模型)技术,让 200 亿参数的文本到图像大模型,在 4 步之内就生成了媲美教师模型的高质量、高多样性图片。 让图像生成模型少走几步所有玩过 AI 绘画的人都有一个共同的体验,未蒸馏的原版大模型,点击生成,看着进度条一点点爬升,从一个模糊的噪声,慢慢变得清晰。
Apache Doris 4.0 把 AI 塞进数据库了!?
“哥,Doris 4.0 把 AI 塞进数据库了! ”凌晨一点,DBA老周在群里甩出这句话,附带一张截图:一条 SQL 直接调通简历筛选,把 30 万份数据 3 秒跑完。 我盯着屏幕,咖啡差点洒键盘——这年头,连数据库都开始抢 HR 的饭碗?
揭秘大模型的魔法:从零实现一个简化版的GPT 模型
大家好,我是写代码的中年人! 今天我们结合代码从零实现一个简化版 GPT 模型。 近年来,大语言模型席卷了人工智能领域,从 ChatGPT 到 LLaMA,它们以惊人的语言理解和生成能力改变了我们与机器交互的方式。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI绘画
大模型
AI新词
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
智能体
技术
Gemini
英伟达
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
代码
AI for Science
苹果
算法
腾讯
Agent
Claude
芯片
Stable Diffusion
具身智能
xAI
蛋白质
开发者
人形机器人
生成式
神经网络
机器学习
AI视频
3D
RAG
大语言模型
字节跳动
Sora
百度
研究
GPU
生成
工具
华为
AGI
计算
大型语言模型
AI设计
生成式AI
搜索
视频生成
亚马逊
AI模型
DeepMind
特斯拉
场景
深度学习
Transformer
架构
Copilot
MCP
编程
视觉