研究
微软1bit LLM新研究:原生4bit激活值量化,可充分利用新一代GPU对4bit计算的原生支持
微软又有“1 bit LLM”新成果了——发布BitNet v2框架,为1 bit LLM实现了原生4 bit激活值量化,由此可充分利用新一代GPU(如GB200)对4 bit计算的原生支持能力。 同时减少内存带宽&提升计算效率。 之前,微软持续研究BitNet b1.58,把LLM的权重量化到1.58-bit,显著降低延迟、内存占用等推理成本。
4/30/2025 9:16:00 AM
量子位
瑞士研究人员承认在 Reddit 上秘密发布 AI 生成内容,涉嫌违反伦理
瑞士苏黎世大学的研究人员承认,他们在著名的 Reddit 社区 r/changemyview 上秘密发布了由人工智能生成的帖子,目的是为了科学研究。 研究人员在一份草稿报告中指出,r/changemyview 是一个用户分享各种观点的地方,旨在通过提出论据和反论据来挑战他人的观点,从而进行文明的讨论。 研究者希望通过该平台探讨大型语言模型(LLM)生成的内容是否能够改变读者的看法,因此他们以半自动化的 AI 账户参与了讨论。
4/29/2025 6:00:40 PM
AI在线
瑞士大学在 Reddit 上进行 AI 实验引发伦理争议
近期,瑞士苏黎世大学的一项实验在 Reddit 论坛引起了轩然大波。 研究团队悄悄在 r/ChangeMyView(CMV)这个社区中发布了由人工智能生成的评论,旨在研究大型语言模型(LLM)对改变观点的影响。 然而,这一行为遭到了广泛的批评,主要原因是未获得参与者的知情同意。
4/29/2025 3:00:40 PM
AI在线
研究发现人们对 AI 的即时风险忧虑高于远期生存威胁
近日,瑞士大学的一项新研究表明,大多数人对人工智能(AI)带来的即时风险,比如偏见、虚假信息和失业问题,表现出更强烈的关注,而对未来可能出现的生存威胁却显得相对冷漠。 这项研究涉及超过一万名来自美国和英国的参与者,揭示了公众对于 AI 风险的不同看法。 研究中,科学家们将参与者分为几组,一部分人阅读了关于 AI 可能引发的灾难性后果的文章,另一部分则关注当下的现实问题,如歧视和虚假信息,第三组则接触到 AI 的潜在好处。
4/29/2025 12:01:00 PM
AI在线
采样越多越聪明?隐式扩展颠覆认知,采样搜索如何挑出完美解
先让模型生成多个候选答案,再通过自我验证挑出「真金」。 基于采样的搜索在许多推理任务中表现优异,可关于它的扩展趋势,还有许多未解之谜。 随着采样数量的增加,模型的推理性能能否继续提升?
4/22/2025 8:50:00 AM
新智元
7B小模型写好学术论文,新框架告别AI引用幻觉,实测100%学生认可引用质量
学术写作通常需要花费大量精力查询文献引用,而以ChatGPT、GPT-4等为代表的通用大语言模型(LLM)虽然能够生成流畅文本,但经常出现“引用幻觉”(Citation Hallucination),即模型凭空捏造文献引用。 这种现象严重影响了学术论文的可信度与专业性。 现在,加拿大滑铁卢大学与卡内基梅隆大学的华人研究团队,提出了一种名为 ScholarCopilot 的智能学术写作大模型框架,专门针对学术场景,致力于精准地生成带有准确引用的学术文本。
4/11/2025 9:12:21 AM
量子位
数学大一统的惊人胜利!天才数学家用30年破解不可能,边看《星战》边写论文
一个与「数学大一统理论」相关的领域,一项长期以来被视作几乎不可能的数学证明,如今取得了突破。 在历经30年的努力后,数学家们证明了这个数学构想——几何Langlands Program。 著名数学家、Max Planck研究所的Peter Scholze(菲尔兹奖得主,他没有参与这项证明)兴奋地表示:看到它得到解决真是太好了。
4/8/2025 9:37:00 AM
新智元
攻破OpenAI o1/o3、DeepSeek R1防线,安全推理过程反成大模型「阿喀琉斯之踵」
本文共同第一作者是杜克大学计算进化智能中心的博士生郭士霆、张健一,导师为陈怡然教授。 在通往 AGI 的道路上,大型推理模型(LRMs)正以前所未有的速度迭代进化:OpenAI 的 o 系列模型凭借类人推理能力刷新多项基准,DeepSeek-R1 以极低的训练成本实现完全不输 o 系列模型的性能突破。 然而,在这股追求推理性能的浪潮之下,一个关乎技术伦理的隐忧正在浮现 —— 当模型运用自身强大的推理能力进行安全审查时,「展示安全推理思维链」这种透明化机制是否会暴露安全隐患?
3/10/2025 8:10:00 AM
机器之心
开源框架BioChatter助力生物医学研究,降低LLM使用门槛
近年来,大型语言模型(LLMs)在各个领域的应用日益广泛,从内容创作到编程辅助,再到搜索引擎优化,无不展现出其强大的能力。 然而,在生物医学研究中,这些模型的应用仍面临着透明度、可重复性和定制化等方面的挑战。 针对这一问题,海德堡大学与欧洲生物信息研究所(EMBL-EBI)联合提出了一个开源 Python 框架 ——BioChatter,旨在帮助生物医学研究人员更轻松地使用 LLMs。
3/5/2025 2:32:00 PM
AI在线
CVPR满分论文:一块2080Ti搞定数据蒸馏,GPU占用仅2G,来自上交大“最年轻博导”课题组
只要一块6年前的2080Ti,就能做大模型数据蒸馏? 来自上交大EPIC实验室等机构的一项最新研究,提出了一种新的数据集蒸馏方法——NFCM。 与前SOTA相比,新方法的显存占用只有1/300,并且速度提升了20倍,相关论文获得了CVPR满分。
3/3/2025 12:13:15 PM
量子位
SymbyAI完成210万美元种子轮融资,打造科研专用AI工作空间
科学研究领域的创新者SymbyAI宣布完成210万美元种子轮融资,投资方包括Drive Capital和CharacterVC等知名机构。 这家专注于用人工智能简化科研流程的SaaS平台正在为研究人员创造一个前所未有的整合式工作环境。 SymbyAI由Ashia Livaudais和Michael House于去年共同创立,其诞生源于Livaudais亲身经历的科研困境。
3/1/2025 8:58:00 AM
AI在线
You.com 发布 AI 研究工具 ARI,可同时处理 400+ 个来源
You.com 推出了一款名为 “高级研究与洞察代理(ARI)” 的人工智能研究工具,这款工具承诺将彻底改变企业进行市场调研的方式。 ARI 能够同时分析超过400个数据源,从而将原本需要几周时间的研究报告生成过程缩短到几分钟。 You.com 的联合创始人兼首席执行官理查德・索彻在接受《VentureBeat》采访时表示:“整个知识工作领域正在发生变化,这将改变企业决策的速度和质量。
2/28/2025 10:34:00 AM
AI在线
谷歌发布最强「科研辅助神器」!能帮你提新idea,三大真实场景实证
在科学探索的过程中,研究人员需要对以往发表的文献进行观察总结,提出一些新颖、可行的研究方向,最后通过全面的实验进行idea验证。 科研人员需要对探索的宽度和深度进行平衡,由于精力有限,不能探索过多的研究方向,同时还要保证对目标主题的研究深度。 最近,谷歌、斯坦福大学等机构的研究人员开发了一个多智能体、基于Gemini 2.0的AI协同科研(AI co-scientist)系统,具备跨复杂主题的综合能力和进行长期规划、推理的能力,除了传统的文献综述、总结功能之外,还可以辅助科研人员提出新的、原创知识,或是基于先前的成果制定研究假设(hypotheses)和计划(proposal)。
2/26/2025 1:50:00 PM
新智元
与DeepSeek和Claude竞争升级!OpenAI"深度研究"功能面向所有付费ChatGPT用户开放
OpenAI 最近宣布,将其深度研究(Deep Research)功能扩展到所有 ChatGPT Plus、Team、Education 和 Enterprise 用户。 这项功能被许多专家视为自 ChatGPT 以来最具变革性的 AI 助手。 根据官方消息,这些用户每月将获得10次深度研究查询,而 Pro 用户则可享有每月120次查询的特权。
2/26/2025 9:18:00 AM
AI在线
AI蛋白质设计前沿教程,AAAI'25三大机构携手4小时全面剖析
精准预测和设计蛋白质的序列、结构及模拟其动态变化,一直是科学界的重大挑战。 在即将举行的AAAI 2025会议上,加拿大魁北克省人工智能研究所Mila、美国东北大学和MIT的学者将组织一场主题为“人工智能在蛋白质设计中的应用”的教程。 (文末附教程直通车)综观当下,AI与生命科学深度融合背景下,蛋白质研究正经历前所未有的AI驱动变革。
2/25/2025 1:46:26 PM
量子位
蚕食人类权力不用AGI降临!「温水煮青蛙」足以让AI渐进式失控
在我们的认知中,政府、经济体系等大规模社会系统就应该由人类主导,产生满足人类偏好的结果。 但在AI时代,这个命题就逐渐站不住脚了。 原因在于,人类与这些系统的目标一致性并不是自发的,而是仰赖于两种有效维持目标对齐的方式:明确的人类行为(如选举和消费者用脚投票),以及经由人类劳动和认知过程隐式方式。
2/21/2025 12:58:02 PM
新智元
物理直觉不再是人类专属?LeCun等新研究揭示AI可如何涌现出此能力
在当今的 AI 领域,图灵奖得主 Yann LeCun 算是一个另类。 即便眼见着自回归 LLM 的能力越来越强大,能解决的任务也越来越多,他也依然坚持自己的看法:自回归 LLM 没有光明的未来。 在近期的一次演讲中,他将自己的观点总结成了「四个放弃」:放弃生成式模型、放弃概率模型、放弃对比方法、放弃强化学习。
2/20/2025 12:37:57 PM
机器之心
复旦主导,中美等8个国家25家单位44名学者联合发布大模型安全技术综述
近年来,随着大模型的快速发展和广泛应用,其安全问题引发了社会各界的广泛关注。 例如,近期发生的「全球首例利用 ChatGPT 策划的恐袭事件」再次敲响了警钟,凸显了大模型安全问题的紧迫性和重要性。 为应对这一挑战,来自中美英德等 8 个国家 25 家高校和科研机构的 44 位 AI 安全领域学者联合发布了一篇系统性技术综述论文。
2/20/2025 11:31:31 AM
机器之心
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
模型
机器人
谷歌
大模型
Midjourney
智能
用户
开源
学习
GPT
微软
Meta
图像
AI创作
技术
论文
Stable Diffusion
马斯克
Gemini
算法
蛋白质
芯片
代码
生成式
英伟达
腾讯
神经网络
研究
计算
Anthropic
3D
Sora
AI for Science
AI设计
机器学习
开发者
GPU
AI视频
华为
场景
人形机器人
预测
百度
苹果
伟达
Transformer
深度学习
xAI
模态
字节跳动
Claude
大语言模型
搜索
驾驶
具身智能
神器推荐
文本
Copilot
LLaMA
算力
安全
视觉
视频生成
训练
干货合集
应用
大型语言模型
科技
亚马逊
智能体
DeepMind
特斯拉