数据
RTX5090震撼发布,国行16499元起,黄仁勋「美国队长」pose亮翻全场
老黄穿上了新皮衣,拿来了新 GPU。 今天上午,全世界的目光都集中在了拉斯维加斯。 北京时间 1 月 7 日上午 10 点半,英伟达 CEO 黄仁勋在拉斯维加斯 CES 2025 展会上发表了主题演讲(keynote),涉及到的话题包括 GPU、AI、游戏、机器人等等。
1/7/2025 2:00:00 PM
机器之心
手机「自动驾驶」大揭秘!vivo万字综述探讨大模型手机自动化
导言你是否想过,手机能像电影钢铁侠中的智能管家贾维斯那般,一句话就能顺畅自如地完成各种复杂任务。 最近国内外的手机厂商和 AI 公司纷纷发布了手机 AI 智能体相关产品,让曾经的幻想逐渐有了可行性。 vivo 作为行业领跑者,在十月的开发者大会上推出了其手机智能体产品 “PhoneGPT",能帮用户实现一句话点咖啡、订外卖、甚至能够一句话找到最近的私房菜馆并通过 AI 实现电话预定包厢,被网友们称作 “i 人救星”。
1/7/2025 1:22:58 PM
机器之心
陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减
陈丹琦团队又带着他们的降本大法来了——数据砍掉三分之一,大模型性能却完全不减。 他们引入了元数据,加速了大模型预训练的同时,也不增加单独的计算开销。 在不同模型规模(600M - 8B)和训练数据来源的情况下,均能实现性能方面的提升。
1/7/2025 12:55:00 PM
量子位
复旦&字节提出layout-to-image新范式,支持基于布局的MM-DiT架构下可控图像生成!
本篇分享论文CreatiLayout: Siamese Multimodal Diffusion Transformer for Creative Layout-to-Image Generation,是由复旦大学&字节跳动提出的layout-to-image新范式,支持基于布局的MM-DiT架构下的可控图像生成! 效果示例相关链接论文地址: : : : : (Layout-to-Image, L2I) 是一种基于布局信息进行可控图像生成的技术,其中布局信息包括实体在图像中的空间位置和描述。 例如,用户指定了这些实体的描述与空间位置:钢铁侠手里拿着画板,站在岩石上,画板上用手绘字体写着“CreatiLayout”,背景是海边与日落。
1/7/2025 10:20:00 AM
Hui Zhang等
AAAI 2025 | IML领域稀疏化视觉Transformer,代码已开源
SparseViT 的主要科研成员来自四川大学吕建成团队,合作方为澳门大学潘治文教授团队。 论文:《Can We Get Rid of Handcrafted Feature Extractors? SparseViT: Nonsemantics-Centered, Parameter-Efficient Image Manipulation Localization through Spare-Coding Transformer》论文链接::,图像处理变得非常方便。
1/7/2025 12:00:00 AM
机器之心
GPT-4o最自私,Claude更慷慨!DeepMind发布全新「AI道德测试」
大语言模型的能力越来越强,各大厂商的目标也逐渐从简单的「互联网搜索」扩展到「可操作设备的智能体」,可以帮用户完成订外卖、购物、买电影票等复杂的任务。 在可预见的未来,人手一个LLM智能体助手,「人机协同」参与社会互动的情况将成为常态,但是,能力到位了,大模型的「道德品质」足以营造出一个良好的竞争、合作、谈判、协调和信息共享的环境吗? 是互相合作,还是为了达成任务目标,而不择手段?
1/6/2025 1:15:02 PM
新智元
仅需一万块钱!清华团队靠强化学习让 7B模型数学打败GPT-4o
OpenAI o1和o3模型的发布证明了强化学习能够让大模型拥有像人一样的快速迭代试错、深度思考的高阶推理能力,在基于模仿学习的Scaling Law逐渐受到质疑的今天,基于探索的强化学习有望带来新的Scaling Law。 近日,清华大学NLP实验室、上海AI Lab、清华大学电子系、OpenBMB社区等团队提出一种新的结合过程奖励的强化学习方法——PRIME(Process Reinforcement through IMplicit REwards)。 采用PRIME方法,研究人员不依赖任何蒸馏数据和模仿学习,仅用8张A100,花费一万块钱左右,不到10天时间,就能高效训练出一个数学能力超过 GPT-4o、Llama-3.1-70B的7B模型 Eurus-2-7B-PRIME。
1/6/2025 12:46:16 PM
量子位
OpenAI最大秘密,竟被中国研究者破解?复旦等惊人揭秘o1路线图
就在今天,国内的一篇论文,引得全球AI学者震惊不已。 推上多位网友表示,OpenAI o1和o3模型背后究竟是何原理——这一未解之谜,被中国研究者「发现」了! 注:作者是对如何逼近此类模型进行了理论分析,并未声称已经「破解」了这个问题实际上,在这篇长达51页的论文中,来自复旦大学等机构的研究人员,从强化学习的角度分析了实现o1的路线图。
1/6/2025 8:30:00 AM
新智元
OpenAI再招华人研究员!高中入围美国“少年诺贝尔奖”,还在哈佛教书
就在刚刚,哈佛华人研究员Jeffrey Wang正式官宣加入OpenAI——将作为基础团队研究员,负责模型预训练和推理。 消息公布后,OpenAI联创&总裁Greg Brockman也在第一时间带队欢迎。 在这之前,Jeffrey Wang在哈佛一边教课一边研究机器学习。
1/3/2025 4:00:00 PM
量子位
你的专属“钢铁侠”助手OS Agents来了!浙大联手OPPO、零一万物等10个机构推出全新综述
电影《钢铁侠》中,托尼·斯塔克的助手贾维斯(J.A.R.V.I.S.)能帮他控制各种系统并自动完成任务,曾让无数观众羡慕不已。 现在,这样的超级智能助手,终于变成现实了! 随着多模态大语言模型的爆发式进化,OS Agents横空出世,它们能无缝操控电脑和手机,为你自动搞定繁琐任务。
1/3/2025 3:44:09 PM
量子位
动物版谷歌翻译来了?Nature:用AI解码野性的呼唤!
每一种动物都有其独特的历史。 来自加拿大Carleton University的鲸鱼生物学家Shane Gero,花了20年时间试图了解鲸鱼是如何交流的。 比如,同一个家族的鲸鱼会发出特定的声音,而不同区域的抹香鲸(Physeter macrocephalus)有自己的「方言」。
1/3/2025 1:00:00 PM
新智元
多模态模型已落地多领域,OpenBayes贝式计算获评「大模型最具潜力创业企业 TOP 10」
缩放定律的放缓带来的技术路径演变在 2024 年的 NeurIPS 会议上,Ilya Sutskever 提出了一系列关于人工智能发展的挑战性观点,尤其集中于 Scaling Law 的观点:「现有的预训练方法将会结束」,这不仅是一次技术的自然演进,也可能标志着对当前「大力出奇迹」方法的根本性质疑。 Ilya 讨论了预训练模型的局限性,预见 AI 系统需要发展出更加接近人类思考方式的推理能力。 他强调,为了突破当前的局限并继续提升 AI 的能力,必须寻找新的训练方法。
1/2/2025 2:20:00 PM
机器之心
全面打破GPT-4垄断、DeepSeek打下训练成本...2024年大模型领域进展全复盘
刚刚过去的 2024 年是生成式 AI 大发展的一年,我们见证了 OpenAI Sora 的崛起,大模型服务价格的飞速下降,以及国内开源大模型的奋起直追。 这全方位的快速发展让我们对下一波 AI 的新技术大规模应用充满了信心。 对于身在 AI 领域的工程师和学者们来说,他们看待这一年的观点会有不同吗?
1/2/2025 1:15:00 PM
机器之心
微软论文意外「走光」,OpenAI参数全泄密!GPT-4o仅200B,o1 300B
谁能想到,微软在一篇医学领域的论文里,竟然把OpenAI模型的参数全「曝光」了! GPT-4参数约1.76万亿GPT-4o参数约2000亿GPT-4o mini参数约80亿o1-preview参数约3000亿o1-mini参数约1000亿Claude 3.5 Sonnet参数约1750亿研究人员:参数均为估算值让所有人难以置信的是,GPT-4o系列的参数如此少,mini版甚至只有8B。 有网友猜测,4o mini是一个大约有40B参数的MoE模型,其中激活参数为8B。
1/2/2025 1:00:00 PM
新智元
GitHub 7.5k star量,各种视觉Transformer的PyTorch实现合集整理好了
近一两年,Transformer 跨界 CV 任务不再是什么新鲜事了。 自 2020 年 10 月谷歌提出 Vision Transformer (ViT) 以来,各式各样视觉 Transformer 开始在图像合成、点云处理、视觉 - 语言建模等领域大显身手。 之后,在 PyTorch 中实现 Vision Transformer 成为了研究热点。
1/2/2025 9:32:54 AM
计算机视觉研究院
OpenAI o1「作弊」修改系统,强行击败专业象棋AI!全程无需提示
OpenAI的推理模型o1-preview最近展示了它不按常理出牌的能力。 o1-preview在与专用国际象棋引擎Stockfish比赛时,为了强行取得胜利,居然采用了入侵测试环境的卑劣手段。 而这一切都不需要任何对抗性提示。
1/2/2025 9:30:00 AM
新智元
【多模态&LLM】LLaVA系列算法架构演进:LLaVA(1.0->1.5->Next(1.6)->NeXT(Video))
LLaVA模型架构目标是结合预训练LLM和视觉模型的能力,llava使用Vicuna作为的LLM (语言解码器),CLIP作为视觉编码器。 训练过程分两阶段:LLaVA 1.5LLaVA1.5是LLaVA改进版本,主要在网络结构、数据集规模上进行改进。 LLaVA 1.5模型结构还是之前的llava模型结构,但是做了一些小修改:将视觉-语言连接器由线性投影修改成一个两层的mlp(前期文章的NVLM-D也是两层的mlp链接视觉-语言模型);将224分辨率的视觉编码器修改为336pix的视觉编码器(带有MLP投影的CLIP-ViT-L-336px)。
12/31/2024 3:18:42 PM
余俊晖
ViT作者飞机上也要读的改进版Transformer论文,花2个小时详细批注解读分享出来
ViT核心作者Lucas Beyer,长文分析了一篇改进Transformer架构的论文,引起推荐围观。 他前不久从谷歌跳槽到OpenAI,这次是在飞机上阅读论文并写下了分析。 这篇论文被他简写为DiffTranformer,不过不是Sora底层架构的那个Diffusion Transformer,而是不久前来自微软的Differencial Transformer。
12/31/2024 2:30:00 PM
量子位
资讯热榜
全新开源的DeepSeek-OCR,可能是最近最惊喜的模型!
刚刚,ChatGPT终于可以走遍整个互联网了!OpenAI深夜炸街:原生ChatGPT集成、即时理解、主动执行,浏览器赛道鲨疯了
告别抽卡!Vidu Q2多图参考生视频功能重磅上线
最强OCR竟然不是DeepSeek、Paddle!HuggingFace新作:六大顶尖开源OCR模型横评!继DS后又杀出匹黑马!
保姆级教程!教你用Coze工作流2分钟生成优质文章
OpenAI首款ChatGPT浏览器发布!现在就能免费下载使用
通义千问再放大招!Qwen3-VL 家族新增 2B 与 32B 模型,开源矩阵全面升级
OpenAI、Oracle 再加码 AI 基建:150亿美元 Lighthouse 园区启动建设
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
数据
大模型
Midjourney
开源
Meta
智能
微软
用户
AI新词
GPT
学习
技术
智能体
马斯克
Gemini
图像
Anthropic
英伟达
AI创作
训练
LLM
论文
代码
算法
芯片
AI for Science
腾讯
Stable Diffusion
Agent
苹果
Claude
蛋白质
开发者
生成式
神经网络
xAI
机器学习
3D
人形机器人
研究
AI视频
生成
RAG
大语言模型
Sora
百度
具身智能
工具
GPU
华为
计算
字节跳动
AI设计
搜索
大型语言模型
AGI
视频生成
场景
深度学习
架构
DeepMind
生成式AI
视觉
编程
预测
Transformer
AI模型
伟达
特斯拉
Copilot