AI在线 AI在线

模型

Manus带火的MCP,让Claude一句话自动化3D建模,网友:真·AI+应用

一句话提示,Claude自动化打开Blender将2D图片转为3D建模。 整个过程行云流水。 而且还能只用一次提示词,再基于这个场景搭建可以互动的网页。
3/17/2025 8:55:00 AM
量子位

Nature:你的大脑衰老速度受这64个基因影响

你的大脑衰老速度,原来受这64个基因影响! 事情是这样的。 根据Nature最新报道,科学家们通过利用AI模型分析大量脑部扫描和遗传数据,确定了64个影响大脑衰老速度的基因,并指出了13种潜在的抗衰老药物。
3/17/2025 8:37:00 AM
量子位

谷歌Gemini突袭ChatGPT,全新升级让AI更懂你!Deep Research人人免费用

Gemini最新功能免费「no cost」! 谷歌全新升级Gemini,人人都能免费体验全新功能。 谷歌正在为Gemini用户带来新的和升级的功能,包括基于2.0 Flash Thinking的深度研究、Gems功能、应用程序和个性化设置。
3/17/2025 8:30:00 AM
新智元

驯服AI,更懂物理!何恺明团队提出全新DHN「去噪哈密顿网络」

近日,何恺明团队提出了去噪哈密顿网络(Denoising Hamiltonian Network,DHN),就像给物理知识开了挂。 传统的机器学习方法虽然能处理一些简单的物理关系,但面对复杂的物理系统时,却显得力不从心。 来自MIT、斯坦福、西北大学等的研究者将哈密顿力学算子推广到神经网络中,不仅能捕捉非局部时间关系,还能通过去噪机制减轻数值积分误差。
3/17/2025 8:20:00 AM
新智元

哥大博士经费被砍当场崩溃!全美高校遭史上最大规模裁员,科研圈遭灭顶之灾

早上7点,哥大生物医学工程系的博士研究生Daniella Fodera接到实验室主任的电话,得知自己的项目基金被终止,当场崩溃痛哭。 而她的遭遇,只是众多受特朗普政府决策打击的科学家的缩影。 美国政府发起的削减拨款,如今已经在全美高校引起了大地震。
3/17/2025 8:10:00 AM
新智元

十个让DeepSeek变强大的指令模型

以下是10个AI指令万能公式及对比案例,涵盖不同场景下的应用技巧,帮助大家通过结构化指令提升AI输出质量:1. 角色定位法:明确AI的专家身份错误指令: "写一篇产品营销文案。 " (AI可能生成通用模板,缺乏针对性)正确公式:【角色】 【任务】 【场景】案例: "你是一位10年经验的数码产品营销专家,请为新品智能手表撰写一篇小红书文案,重点突出健康监测功能和商务场景适配性。
3/17/2025 12:22:00 AM
数师兄

全球首个化学反应AI「考场」,7种MLIPs模型与SOTA生成式模型同场PK

编辑 | ScienceAI过渡态(Transition State, TS)是化学反应的「关键帧」,就像群山中的最低隘口,决定了分子翻山越岭所需的能量和路径。 然而,TS 的寿命仅有飞秒级(10⁻¹⁵ 秒),实验观测如同捕捉闪电一瞬——目前只能依赖量子化学计算来寻找。 传统的密度泛函理论(DFT)虽能提供高精度结果,但单次 TS 搜索可能消耗数十至数千 CPU 时,面对成百上千反应节点的复杂网络,计算成本高得难以承受。
3/14/2025 3:22:00 PM
ScienceAI

MM-Eureka:极少数据实现多模态推理的R1-Zero时刻

尽管 DeepSeek-R1 在单模态推理中取得了显著成功,但已有的多模态尝试(如 R1-V、R1-Multimodal-Journey、LMM-R1)尚未完全复现其核心特征。 例如,R1-V 仅在简单计数任务上表现出进步,未能实现回答长度的增长和顿悟时刻;R1-Multimodal-Journey 则在训练过程中回答长度反而降低;LMM-R1 虽然有所进步,但尚未在大规模图文数据训练中得到验证。 而 Kimi 1.5 尽管表现突出,但并未开源其模型或数据。
3/14/2025 11:59:29 AM
机器之心

Anthropic CEO:全体失业好过50%失业!AI将接管所有代码,但可以一键「躺平」

「再过一年,所有的代码可能都是AI生成的。 」「它们会随机抢走世界上50%的工作。 」「应该设计一个按钮,让AI可以一键『躺平』。
3/14/2025 10:29:43 AM
新智元

南开提出1Prompt1Story,无需训练,可通过单个连接提示实现一致的文本到图像生成

(1Prompt1Story)是一种无训练的文本到图像生成方法,通过整合多个提示为一个长句子,并结合奇异值重加权(SVR)和身份保持交叉注意力(IPCA)技术,解决了生成图像中身份不一致的问题,同时保持了文本描述的精准对齐。 相关链接论文:::,通过单个连接提示实现一致的文本到图像生成。 我们的方法可以应用于所有基于文本嵌入的文本到图像模型。
3/14/2025 10:02:38 AM
AIGC Studio

科学家构建多模态LLM框架,进行3D脑CT放射学报告生成

编辑 | 烂菜叶多模态大型语言模型 (MLLM) 已经改变了现代医疗保健的格局,其中自动放射学报告生成 (RRG) 正在成为一种尖端应用。 虽然基于 2D MLLM 的 RRG 已经得到充分认可,但其在 3D 医学图像中的实用性仍未得到充分开发。 在这方面,台北荣民总医院(Taipei Veterans General Hospital)、台湾阳明交通大学(National Yang Ming Chiao Tung University)以及美国加州大学的研究人员整理了 3D-BrainCT 数据集(18,885 个文本扫描对)并开发了 BrainGPT,这是一种专为 3D CT RRG 设计的临床视觉指令调整 (CVIT) 模型。
3/13/2025 2:23:00 PM
ScienceAI

DeepSeek“防弹衣”来了,模型内生安全加固方案,拒绝杀敌一千自损八百|上海AI Lab

最新研究显示,以超强推理爆红的DeepSeek-R1模型竟藏隐形危险——即便最终拒绝回答,其思考过程仍可能泄露有害内容。 现有防御技术深陷两难:要么防不住攻击,要么让模型变成”惊弓之鸟”,连正常问题都拒绝回答。 上海交大与上海AI Lab联合推出安全防御方案——X-Boundary,试图破解两难局面。
3/13/2025 1:10:00 PM
量子位

自动调整推理链长度,SCoT来了!为激发推理能力研究还提出了一个新架构

不怕推理模型简单问题过度思考了,能动态调整CoT的新推理范式SCoT来了! SCoT,即自结构化推理链(Self-structured Chain of Thought )。 它通过将推理过程分解为最小语义原子步骤,能动态生成适配不同复杂度问题的CoT结构,解决了现有方法在推理多样性和效率上的不足。
3/13/2025 1:00:00 PM
量子位

DeepSeek玩家能提前拿苹果新品!只要15万元,在家跑满血版R1

号称地表最强的M3 Ultra,本地跑满血版DeepSeek R1,效果到底如何? 其实,有些DeepSeek玩家们已经提前拿到手做过实测了。 例如这位Alex老哥就是其中之一:他提前拿到了两台搭载M3 Ultra的Mac Studio,配置是这样的:M3 Ultra(32 核中央处理器、80 核图形处理器和 32 核神经网络引擎)512G统一内存1TB固态硬盘具体来说,Alex老哥用配备Thunderbolt 5互连技术(传输速率为 80Gbps)的EXO Labs设备,来运行完整的DeepSeek R1模型(671B、8-bit)。
3/13/2025 12:41:37 PM
量子位

11B模型拿下开源视频生成新SOTA!仅用224张GPU训练,训练成本省10倍

224张GPU,训出开源视频生成新SOTA! Open-Sora 2.0正式发布。 11B参数规模,性能可直追HunyuanVideo和Step-Video(30B)。
3/13/2025 12:39:22 PM
量子位

长链推理表象下,大模型精细表征张冠李戴的本质

近些年,大模型的发展可谓是繁花似锦、烈火烹油。 从 2018 年 OpenAI 公司提出了 GPT-1 开始,到 2022 年底的 GPT-3,再到现在国内外大模型的「百模争锋」,DeepSeek 异军突起,各类大模型应用层出不穷。 然而,无论在学术界还是在工业界,目前对大模型应用的评测都是单纯在模型输出层面判断结果的准确性,而没有从大模型内在精细决策逻辑的角度来分析模型的可靠性。
3/13/2025 11:18:14 AM
张拳石、陈鹭

YOLOe问世,实时观察一切,统一开放物体检测和分割

它能像人眼一样,在文本、视觉输入和无提示范式等不同机制下进行检测和分割。 自 2015 年由华盛顿大学的 Joseph Redmon 研究团队提出 YOLO(You Only Look Once)以来,这项突破性的目标检测技术就像为机器装上了「闪电之眼」,凭借单次推理的实时性能刷新了计算机视觉的认知边界。 传统的 YOLO 系列如同我们人工效准的精密仪器,其识别能力被严格框定在预定义的类别目录之中,每个检测框的背后,都需要工程师手动输入认知词典。
3/13/2025 11:11:04 AM
机器之心

超越DeepSeek-R1关键RL算法GRPO,CMU「元强化微调」新范式登场

大语言模型(LLM)在推理领域的最新成果表明了通过扩展测试时计算来提高推理能力的潜力,比如 OpenAI 的 o1 系列。 通常来说,这些方法在训练模型时可以产生比典型正确解决方案更长的轨迹,并包含了试图实现某些「算法」的 token:例如反思前一个答案、规划或实现某种形式的线性搜索。 这些方法包括显式地微调预训练 LLM 以适应算法行为,例如对搜索数据进行监督微调(SFT)或针对 0/1 正确性奖励运行结果奖励(outcome-reward,OR)RL。
3/13/2025 11:07:30 AM
机器之心