AI
Google AI Studio 政策变动:Gemini2.5Pro 模型免费访问遭“限流”
Google 正在逐步调整其 AI 模型使用政策。 自5月起,面向开发者的 AI 测试平台 Google AI Studio 已停止向免费用户提供 Gemini2.5Pro 系列模型的调用权限。 官方回应称,这是转向全新 基于 API 密钥的使用系统 的一部分,未来开发者将需自行提供 API 密钥接入模型服务。
那个男人回来了!Ilya现身多伦多大学毕业典礼:AI 像是用数字方式复制出来的大脑!不管你愿不愿意,AI都将深刻影响你的一生!
编译 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)Ilya终于出现了! 自从OpenAI宫斗风波之后,这位GPT背后的技术灵魂便鲜少露面。 甚至,where is Ilya的各种阴谋论一度成为整个AI圈的热梗。
微软发布AI Agent故障白皮书,万字解读各种恶意智能体
微软发布了《AI Agent系统故障模式分类》白皮书,以帮助开发者和用户更好的理解、解决日常Agent出现的各种故障。 这些故障主要分为新型故障和既有故障两大类,并详细解读了出现这些故障的原因以及如何解决。 由于内容太多,「AIGC开放社区」就为大家介绍一些典型的恶意智能体攻击方法和原理。
英国多个组织呼吁监管机构限制 Meta 利用人工智能进行风险评估
互联网安全活动人士呼吁英国通信监管机构Ofcom限制AI在社交媒体风险评估中的使用,Meta计划自动化风险评估流程引发担忧。多个组织认为AI驱动的风险评估不符合《在线安全法案》要求。Meta回应称AI仅用于辅助工具,决策仍由人类监督。#AI安全# #社交媒体监管#
AI模型的耗电量惊人 下一步是建设太空数据中心?
随着人工智能(AI)技术的飞速发展,地球上的数据中心面临着巨大的电力供给压力。 据美国能源部报告,预计到2028年,美国的数据中心将消耗总发电量的12%,而这一比例在2023年仅为4.4%。 AI模型的耗电量惊人,导致电力公司难以满足不断增长的需求,电费持续上涨。
小红书开源首个大模型,11万亿非合成训练数据
国内著名社交平台小红书,开源了首个大模型——dots.llm1。 dots.llm1是一个1420亿参数的专家混合模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。 dots.llm1最大特色是使用了11.2万亿token的非合成高质量训练数据,这在现阶段的开源大模型中非常罕见,看来小红书也得益于自己庞大的语料库出手就是阔啊。
美IT业裁员狂飙35%,「硅谷梦」彻底崩塌!打工人怒喷PIP
2025,美国裁员之年。 本周四,职业介绍机构 Challenger, Gray & Christmas 发布了美国全国就业报告。 与去年同期相比,美国全国裁员人数上涨了47%。
大模型强化学习新突破——SPO新范式助力大模型推理能力提升!
当前,强化学习(RL)在提升大语言模型(LLM)推理能力方面展现出巨大潜力。 DeepSeek R1、Kimi K1.5 和 Qwen 3 等模型充分证明了 RL 在增强 LLM 复杂推理能力方面的有效性。 然而,要实现有效的强化学习,需要解决一个根本性的挑战,即信用分配问题(credit assignment):在大语言模型的场景下,如何将整个序列(LLM 的回复)最终的评估结果,归因到序列中具体的决策动作(token)上。
ICML 2025 | 全局池化+局部保留,CCA-Attention为LLM长文本建模带来突破性进展
琶洲实验室、华南理工大学联合推出关键上下文感知注意力机制(CCA-Attention),实现超长文本的高效上下文建模。 在 128K 超长序列上下文建模任务中,CCA-Attention 的推理速度是标准自注意力机制的 7.9 倍,同时键值缓存(KV Cache)显存占用减少 93%,性能全面优于现有高效注意力方法。 论文标题:Core Context Aware Transformers for Long Context Language Modeling论文链接:::2024年12月17日该成果已被 ICML 2025 接收,最早于 2024 年 12 月 17 日提交至 ArXiv,早于 DeepSeek NSA 和 Kimi MoBA 公开。
算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代
LLM苦算力太久了! 为缓解长序列建模中的算力瓶颈,研究界持续探索高效替代方案。 这次Mamba作者Tri Dao、华人AI领域大牛Eric P.
为什么用错奖励,模型也能提分?新研究:模型学的不是新知识,是思维
本文主要作者是吕昂和谢若冰。 吕昂,中国人民大学博士生,研究方向为语言模型结构优化,导师为严睿教授;谢若冰,腾讯高级研究员,研究方向为大语言模型、推荐系统。 最近的一篇论文中,来自人大和腾讯的研究者们的研究表明,语言模型对强化学习中的奖励噪音具有鲁棒性,即使翻转相当一部分的奖励(例如,正确答案得 0 分,错误答案得 1 分),也不会显著影响下游任务的表现。
顶会0篇,一夜RLHF爆文刷屏!他靠写作逆袭AI圈,院士都说好
Ai2的高级研究科学家Nathan Lambert,最近分享了他如何走上AI之路。 尽管起步艰难、几经波折,他依旧在AI领域站稳脚跟、有所成就。 博士毕业时,他没有在NeurIPS/ICML/ICLR等顶会上发表过文章。
告别「失忆」AI!首个大模型记忆操作系统开源框架来了!
该项目来自百家 AI,是北京邮电大学白婷副教授所指导的研究小组, 团队致力于为硅基人类倾力打造情感饱满、记忆超凡的智慧大脑。 大语言模型受限于固定上下文窗口,长期对话中「失忆」、记忆断裂等问题频发,北邮百家 AI 团队重磅推出首个大模型记忆操作系统开源框架 MemoryOS。 巧妙融合计算机操作系统原理与人脑分层记忆机制,构建段页式三级存储架构及四大核心模块(存储、更新、检索、生成),提供全链路用户记忆管理方案,让 AI 智能体拥有持久「记性」与深度「个性」。
顶流AI,人设崩了!6小时被攻破,泄露高危品指南,惨遭网友举报
只要6小时,顶尖大模型Claude 4 Opus「安全防线」被攻破! AI安全研究机构FAR.AI联合创始人Adam Gleave透露,仅用6小时,研究人员Ian McKenzie就成功诱导Claude 4生成了长达15页的化学武器制作指南。 Ian McKenzie回应称:Claude 4传授的内容,比他预期的还要多。
谷歌Transformer过时了?清华姚班校友等三连击,爆改注意力!
谷歌又有新的注意力了! 他们提出的新架构参数减少40%,训练速度较RNN提升5-8倍,在某些任务上性能甚至Transformer好7.2%! 在大语言模型(LLMs)中,他们引入了新的注意力偏向策略,并重新构想了「遗忘」这一过程,用「保留」来取而代之。
打破跨模态干扰,快手东北大学联合提出统一多模态框架,横扫多模态检索基准
多模态检索是信息理解与获取的关键技术,但其中的跨模态干扰问题一直是一大难题。 可行的解决办法是构建一种统一的多模态表示方式,为此,来自快手与东北大学的研究人员推出了多模态统一嵌入框架——UNITE。 UNITE的核心目标,就是构建一个能同时处理文本、图像、视频及其融合模态输入的统一嵌入器。
RLHF已死,RLVR引爆AGI革命!Claude 4核心成员万字对谈
在Dwarkesh Patel主持的节目中,Anthropic的Sholto Douglas、Trenton Bricken等人,一起讨论了Claude 4是如何思考的。 三人私交甚好,聊了2小时20多分钟,主要集中在4个话题:1. 过去一年中人工智能研究的变化;2.
扩散语言模型扛把子LLaDA迎来新版本,数学、代码、对齐能力均提升
本文介绍的工作由中国人民大学高瓴人工智能学院李崇轩、文继荣教授团队与蚂蚁集团共同完成。 朱峰琪、王榕甄、聂燊是中国人民大学高瓴人工智能学院的博士生,导师为李崇轩副教授。 该研究基于团队前期发布的 8B 扩散语言模型 LLaDA(国内率先做到真正可用的扩散语言模型,是后续很多研究的主干基础模型),探索了扩散语言模型的偏好对齐方法,提出了方差缩减的偏好优化方法 VRPO,并利用 VRPO 对 LLaDA 进行了强化对齐,推出了 LLaDA 1.5。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI绘画
大模型
AI新词
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
智能体
技术
Gemini
英伟达
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
代码
AI for Science
苹果
算法
腾讯
Agent
Claude
芯片
Stable Diffusion
具身智能
xAI
蛋白质
开发者
人形机器人
生成式
神经网络
机器学习
AI视频
3D
RAG
大语言模型
字节跳动
Sora
百度
研究
GPU
生成
工具
华为
AGI
计算
大型语言模型
AI设计
生成式AI
搜索
视频生成
亚马逊
AI模型
特斯拉
DeepMind
场景
深度学习
Transformer
Copilot
架构
MCP
编程
视觉