开源
腾讯混元开源AI绘画新框架:24维度对齐人类意图,让AI读懂复杂指令
AI绘画总“画不对”,让创作者一再崩溃。 如今,腾讯混元团队开源的PromptEnhancer框架,为这一难题提供了解决方案。 无需修改任何预训练T2I模型的权重,仅通过 “思维链(CoT)提示重写” 这一简单思路,就能让AI绘画的文本-图像对齐精度大幅提升。
国产王炸!上海AI Lab开源Lumina-DiMOO,开创多模态理解与生成新范式
上海人工智能实验室,上海创新研究院,上海交大,南京大学,悉尼大学,港中大,清华,共同推出了被誉为新一代多模态生成与理解统一模型的Lumina-DiMOO。 “An Omni Diffusion Large Language Model for Multi-Modal Generation and Understanding”,翻译过来就是“面向多模态生成与理解的全方位扩散大语言模型”。 关键词:“全方位”。
全新开源模型复现o3视觉推理,无需大量训练即可实现深度思考
OpenAI o3的多轮视觉推理,有开源平替版了。 并且,与先前局限于1-2轮对话的视觉语言模型(VLM)不同,它在训练限制轮数只有6轮的情况下,测试阶段能将思考轮数扩展到数十轮。 图片这个模型叫Mini-o3,它无需消耗大量训练周期资源,通过恰当的数据、初始化方法和强化学习微调,即可实现长周期视觉搜索能力。
昔日王者TensorFlow,已死
噫吁嚱! 那个昔日叱咤风云的开源框架——TensorFlow,已然是行将就木了。 如此断言并非空穴来风,而是根据一份冷静的数据洞察所得出的结论。
全新MoE架构!阿里开源Qwen3-Next,训练成本直降九成
大语言模型(LLM),正在进入 Next Level。 周五凌晨,阿里通义团队正式发布、开源了下一代基础模型架构 Qwen3-Next。 总参数 80B 的模型仅激活 3B ,性能就可媲美千问 3 旗舰版 235B 模型,也超越了 Gemini-2.5-Flash-Thinking,实现了模型计算效率的重大突破。
Kimi开源又放大招!20秒更新万亿参数的中间件来了
Kimi开源又双叒放大招了! 一个中间件,就能让Kimi K2的万亿模型参数进入“秒更时代”。 图片不仅支持一次性把更新完的权重从一个节点同时发送给所有节点,还能实现点对点动态更新。
重磅!Thinking Machines开山之作:大模型输出随机的根本原因被揪出,并开源终结方案
要理解AI,先要理解它何以不确定,由OpenAI前CTO Mira Murati创办的Thinking Machines 开山之作来了,刚刚,Thinking Machines Lab 宣布正式上线技术研究博客:连接主义。 开篇就是万字技术雄文《击败LLM推理中的非确定性(Defeating Nondeterminism in LLM Inference)》。 为什么叫“连接主义”?
首个Data Agent基准测试来了!2007个测试任务将数据库、PDF、视频、音频异构数据源一网打尽
数据智能体到底好不好用? 测评一下就知道了! 南洋理工大学、新加坡国立大学携手华为开源推出首个专门针对数据智能体(Data Agents)异构混合数据分析的综合性基准测试FDABench。
快慢思考不用二选一!华为开源7B模型实现自由切,精度不变思维链减近50%
国产自研开源模型,让模型不用在快思考和慢思考间二选一了! 华为最新发布openPangu-Embedded-7B-v1.1,参数只有7B,却身怀双重“思维引擎”。 要知道,长期以来,大模型快思考与慢思考模式不可兼得,这成为业界的一大痛点。
Transformer作者:DeepSeek才有搞头,OpenAI指望不上了
“闭源人工智能在阻碍我们探索真正的科学。 ”说这句话的不是别人,是大名鼎鼎的Transformer发明者——Ashish Vaswani。 大佬之所以这么说,是因为他觉得OpenAI等闭源厂商被商业化冲昏了头脑,没心思做基础研究。
字节开源图像生成“六边形战士”,一个模型搞定人物/主体/风格保持
图像生成中的多指标一致性问题,被字节团队解决了! 字节UXO团队设计并开源了统一框架USO,让看上去不关联的任务相互促进,实现风格迁移和主体保持单任务和组合任务的SOTA。 USO通过单一框架能统一之前那些看似孤立的任务包括主体、身份保持和风格化编辑,参考图风格迁移,同时保持主体和风格参考,甚至更抽象复杂的多风格迁移,是实打实的六边形战士。
美团 LongCat-Flash 这个5600亿参数的懒AI,竟然比勤奋的模型跑得更快?
昨天晚上刷朋友圈,看到一个做AI的朋友发了条动态:"我们公司又烧了几百万训练大模型,结果推理速度还是慢得像老牛拉车。 "下面一堆同行在评论区哭穷,说什么GPU成本太高、训练时间太长、推理延迟要命。 正当大家集体吐槽的时候,美团悄悄放了个大招——LongCat-Flash。
智谱开源GLM-4.5工具调用超越Claude Opus 4.1,成本仅1.4%
在对手最擅长的地方打败对手,智谱做到了。 开源模型GLM-4.5在伯克利工具使用榜单上超越Claude Opus 4.1,运行相同任务成本仅为1.4%。 抢在GPT-5之前发布的融合大模型GLM-4.5,以其在前端开发、跨文件修改、全栈项目构建等场景中的卓越表现受到不少关注。
美团首个开源大模型正式发布!LongCat-Flash-Chat能否撼动AI格局?
美团正式发布并开源了自己的首个大语言模型——LongCat-Flash-Chat。 说实话,这个消息让我挺意外的。 美团,这个我们天天用来点外卖、叫车的平台,突然宣布要在AI大模型领域正面挑战OpenAI、Anthropic这些巨头。
腾讯开源WMT2025冠军大模型:拿下30个第一,同类最佳
昨晚,腾讯开源了2025年世界机器翻译大会(WMT2025)上斩获佳绩的翻译大模型Hunyuan-MT-7B。 根据比赛成绩显示,Hunyuan-MT-7B在中文、英文、法语、德语、马拉地语、爱沙尼亚语、冰岛语、芬兰语、匈牙利语、罗马尼亚语、波斯语、印地语、孟加拉语、泰米尔语、乌尔都语、僧伽罗语等31种主流、小众语言测试中,拿下30个语种第一。 Hunyuan-MT-7B在面对不同语言的复杂语法规则、独特词汇体系以及丰富文化内涵时, 均展现出强大的适应能力与翻译水准,成为同类最佳开源模型。
Google开源框架LangExtract初体验
从AI技术维度分类,大约可以将LangExtract归为RAG框架,但从细处分辨,二者实有比较明显的区别。 RAG的关注重点是检索,LangExtract的重点则如其名,是对数据的提取,且主要针对非结构化文本数据进行结构化提取。 LangExtract官网对它的介绍为:“一个使用大语言模型从非结构化文本中提取结构化信息的 Python 库,具备精确的源定位和交互式可视化功能。
王兴一鸣惊人!美团首个开源大模型追平DeepSeek-V3.1
没想到啊,最新SOTA的开源大模型……来自一个送外卖(Waimai)的——有两个AI,确实不一样。 这个最新开源模型叫:Longcat-Flash-Chat,美团第一个开源大模型,发布即开源,已经在海内外的技术圈子里火爆热议了。 一方面是因为成绩亮眼:它在部分benchmark上,比如Agent工具调用、指令遵循的表现超过DeepSeek-V3.1、Qwen3 MoE-2507,甚至比闭源的Claude4 Sonnet还要好。
更懂国内APP的开源智能体!感知/定位/推理/中文能力全面提升,还能自己学会操作
最新开源多模态智能体,能自动操作手机、电脑、浏览器的那种! 开源评测榜单和中文场景交互成绩全面提升。 比如让它播放一首歌,它就能自己找到对应软件、找到对应歌手、选择歌曲,像人类一样点击、滑动、输入。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI绘画
大模型
AI新词
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
智能体
技术
Gemini
英伟达
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
代码
AI for Science
苹果
算法
腾讯
Agent
Claude
芯片
Stable Diffusion
具身智能
xAI
蛋白质
开发者
人形机器人
生成式
神经网络
机器学习
AI视频
3D
RAG
大语言模型
字节跳动
Sora
百度
研究
GPU
生成
工具
华为
AGI
计算
大型语言模型
AI设计
生成式AI
搜索
视频生成
亚马逊
AI模型
DeepMind
特斯拉
场景
深度学习
Transformer
架构
Copilot
MCP
编程
视觉