AI在线 AI在线

资讯列表

当硅基生命开始觉醒:人类与仿生智能体的共生困局

从科幻到现实:人形机器人的进化之路在纽约现代艺术博物馆的玻璃展柜中,第五代表情机器人Emo正对着镜子练习微笑。 通过深度学习算法,这个搭载48个微型电机的金属头颅能在600毫秒内捕捉人类表情特征,并组合出532种情绪表达。 "我们让机器人观看YouTube视频自主学习,"项目负责人展示着训练日志,"它们正在建立自己的表情数据库,就像婴儿通过观察父母学习社交"。
3/13/2025 10:09:48 AM
D1net

14B 小模型逆袭翻译赛道,论文财报实测超Claude,不信试试“我命由我不由天”

都说通用大模型轻松拿捏翻译,结果有人来掀桌了。 来自网易有道的14B翻译小模型,测试达行业第一,翻译质量超越一众国内外主流通用大模型。 它就是子曰翻译大模型2.0(下文简称子曰2.0),在英译中方面轻松超越Claude 3.5 Sonnet等12个主流通用大模型,中译英也和Claude 3.5 Sonnet达到同等水平。
3/13/2025 10:04:06 AM
量子位

​Netflix 游戏部门副总裁离职,生成式AI战略面临挑战

Netflix 游戏部门的生成式人工智能副总裁迈克・维尔杜(Mike Verdu)已确认离职。 五个月前,Netflix 宣布将生成式人工智能作为其游戏开发的核心战略,并将维尔杜升任为该技术的负责人。 然而,如今他的突然离职让人质疑这一战略是否过于仓促。
3/13/2025 10:03:00 AM
AI在线

Remade AI 开源 8 款 Wan2.1 特效 LoRA,掀起 AI 视频创作新热潮

3 月 12 日,AI创新团队Remade AI 在Hugging Face平台震撼发布 8 款基于Wan2. 1 模型的开源特效LoRA,引发科技圈广泛关注。 这 8 款特效包括“挤压”(Squish)、“蛋糕化”(Cakeify)、“膨胀”(Inflate)、“缩小”(Deflate)、“射击”(Shooting)、“旋转”(Rotate)、“肌肉增强”(Muscle)和“压扁”(Crush),为AI视频生成注入全新创意可能。
3/13/2025 9:51:00 AM
AI在线

谷歌Gemini 2.0 Flash放出原生图像生成功能:支持多轮对话式实时编辑编辑

继Gemma3之后,谷歌又给我们带来了一位“闪电侠”——Gemini2.0Flash,而且人家这次是带着独门绝技来的:原生图像生成!  要知道,以前的AI图像生成,很多时候都是大型语言模型(LLM)先理解你的文字,然后再把意思“翻译”给专门生成图像的扩散模型。 这中间难免会有些“失真”,就像隔着好几个人传话,最后意思都变味儿了。
3/13/2025 9:50:00 AM
AI在线

大模型长文推理迎来“核弹级”提速!清华APBB框架狂飙10倍,Flash Attention直接被秒

还在为大模型处理长文本“龟速”而抓狂?别急!清华大学祭出“王炸”技术——APB 序列并行推理框架,直接给大模型装上“涡轮增压”引擎!实测显示,这项黑科技在处理超长文本时,速度竟比肩 Flash Attention 快10倍!没错,你没听错,是10倍!要知道,随着 ChatGPT 等大模型的爆火,AI 们“阅读”能力也水涨船高,动辄处理十几万字的长文不在话下。 然而,面对海量信息,传统大模型的“大脑”却有点卡壳—— Transformer 架构虽强,但其核心的注意力机制就像一个“超级扫描仪”,文本越长,扫描范围呈指数级膨胀,速度自然就慢了下来。 为了解决这个“卡脖子”难题,清华大学的科学家们联合多家研究机构和科技巨头,另辟蹊径,推出了 APB 框架。
3/13/2025 9:50:00 AM
AI在线

多模态训练后模型能力雪崩,上海AI Lab全面探索MLLM偏好对齐与模态融合

在实际应用过程中,闭源模型(GPT-4o)等在回复的全面性、完备性、美观性等方面展示出了不俗的表现。 与之相反的是,在General VQA任务上表现最好的开源模型(如InternVL2-78B)在面对开放式、需要知识储备的问题时,表现不尽人意:△InternVL2-78B和GPT-4o在回复的完备性和美观性上有较大差距上述现象引发了上海交大、上海AI Lab等联合团队的思考。 他们首先猜测:MLLM的回复质量下降可能是因为经过了多模态数据训练之后,LLM本身的能力退化。
3/13/2025 9:47:29 AM
量子位

Insilico Medicine融资1. 1 亿美元,推进AI药物研发与机器人实验室创新

Insilico Medicine近日宣布完成1. 1 亿美元E轮融资,由香港公司Value Partners领投,获得了原有投资者及新投资者的支持。 这笔资金将用于完善该公司的AI模型,并支持其特发性肺纤维化领域主要候选药物的关键临床试验。
3/13/2025 9:44:00 AM
AI在线

德国研究团队推出开源 GNN 模型 FIORA 提升质谱分析精准度,推动精准医疗发展

在精准医学与生物标志物发现的浪潮中,非靶向代谢组学扮演着至关重要的角色。 然而,由于现有谱图参比库的不完整,化合物的鉴定依然面临挑战。 为了解决这一问题,德国联邦材料研究与测试研究所(BAM)与柏林自由大学的研究团队联合开发了 FIORA,一种开源图神经网络(GNN),旨在模拟串联质谱的过程,帮助提高质谱识别的准确性。
3/13/2025 9:40:00 AM
AI在线

NVIDIA 携手国际组织,以AI技术助力全球野生动物保护

在全球生态环境保护日益受到重视的背景下,NVIDIA 与多个国际组织合作,积极探索人工智能在野生动物保护中的应用。 根据联合国的数据显示,超过100万种物种面临灭绝的风险,而利用 AI 技术的保护措施,无疑为维持生态系统和支持生物多样性提供了新的解决方案。 美国西雅图的非营利性 AI 研究机构 Ai2推出了 EarthRanger 软件平台,旨在帮助保护区的管理人员和生态学家做出更明智的野生动物保护决策。
3/13/2025 9:33:00 AM
AI在线

全球首款通用AI智能体Manus爆火,200万人排队等候体验

3月12日,科技圈再次被中国AI新星Manus点燃热情。 据ManusAI公司最新披露,自3月6日产品发布以来,仅7天时间,全球已有200万人加入其使用等候名单。 这款由中国90后团队Monica打造的全球首款通用型AI Agent,以其超越传统AI助手的强大功能引发热议。
3/13/2025 9:27:00 AM
AI在线

字节Trae接入硅基流动SiliconCloud 支持DeepSeek多款模型API

硅基流动官方宣布,由字节跳动推出的首个 AI 原生集成开发环境(AI IDE)——Trae接入硅基流动(SiliconCloud)平台,旨在为开发者提供更高效的编程体验。 Trae 现在集成了硅基流动的多款模型,用户只需通过 API 密钥即可接入 DeepSeek-R1、V3、QWQ-32B、Qwen2.5-Coder 等多种编码模型。 这种灵活的选择满足了开发者对不同模型的使用需求。
3/13/2025 9:21:00 AM
AI在线

百万美金炼出「调参秘籍」!阶跃星辰开源LLM最优超参工具

近日,阶跃星辰研究团队通过大规模实证探索,耗费了近 100 万 NVIDIA H800 GPU 小时(约百万美元),从头训练了 3,700 个不同规模,共计训了 100 万亿个 token,揭示了 LLM 超参数优化的全新的普适性缩放规律,为更好地提升 LLM 性能,提供了开箱即用的工具。 该研究也是第一个全面研究模型最优超参随着 Model Shape、Dense/MoE、预训练数据分布的变化,是否稳定不变的工作。 研究中凸显出 Step Law 的鲁棒性,大大增加了该工具的实用性和普适性。
3/13/2025 9:20:20 AM
机器之心

首篇AI自写论文通过ICLR 2025同行评审!6.25高分碾压人类,AI独挑科研大梁

首篇完全由AI生成的论文,竟通过了ICLR 2025同行评审! 刚刚,Sakana AI正式亮相AI Scientist-v2版本,直接踢破了AI顶会的大门。 从提出科学假设、设计实验、到编写代码、运行实验、分析数据、绘制图表,再到撰写完整论文,所有环节均由AI完成。
3/13/2025 9:16:25 AM
新智元

谷歌Gemma 3上线!单GPU最强多模态手机可跑,27B完胜o3-mini

谷歌Gemma 3全家桶来了! 刚刚,在巴黎开发者日上,开源Gemma系模型正式迭代到第三代,原生支持多模态,128k上下文。 此次,Gemma 3一共开源了四种参数,1B、4B、12B和27B。
3/13/2025 9:12:35 AM
新智元

理想汽车AI助手理想同学网页版上线:接入DeepSeek R1满血版

理想汽车宣布其人工智能助手理想同学网页版正式上线,用户现在可以在电脑端使用这一智能助手。 这一举措标志着理想汽车正进一步拓展其智能服务生态,实现跨场景的智能服务协同。 理想同学网页版全面接入了DeepSeek R1V3671B满血版,为用户提供了更强大的问答能力。
3/13/2025 9:11:00 AM
AI在线

​谷歌开源新一代多模态模型 Gemma-3:性能卓越、成本降低 10 倍

谷歌 CEO 桑达尔・皮查伊(Sundar Pichai)在一场发布会上宣布,谷歌开源了最新的多模态大模型 Gemma-3,该模型以低成本、高性能为特点,备受关注。 Gemma-3提供了四种不同参数规模的选项,分别为10亿、40亿、120亿和270亿参数。 令人惊讶的是,最大参数的270亿模型只需一张 H100显卡即可高效推理,而同类模型往往需要十倍的算力,这使 Gemma-3成为目前算力要求最低的高性能模型之一。
3/13/2025 8:52:00 AM
AI在线

大模型指标:RPM、TPM…这些“神秘代码”到底是什么?

一、RPM:每分钟能“说多少话”? 定义:RPM全称是Requests Per Minute(每分钟请求数),表示大模型每分钟能处理的请求次数。 比如,某模型设置RPM=300,就意味着每分钟最多响应300次用户提问。
3/13/2025 8:33:37 AM
若有无