AI在线 AI在线

算法

英伟达黑科技登场!RTX神经纹理压缩,显存用量狂减96%

在显卡技术不断迭代的当下,NVIDIA再次凭借其前沿创新,吸引了全球科技爱好者的目光。 RTX神经纹理压缩(NTC)技术在beta测试演示中的表现,堪称惊艳。 它成功地将3D应用中的内存纹理占用大幅降低,最高降幅可达96%,为图形处理领域带来了全新的变革可能。
2/14/2025 9:30:00 AM
新智元

近端策略优化(PPO)算法的理论基础与PyTorch代码详解

近端策略优化(Proximal Policy Optimization, PPO)算法作为一种高效的策略优化方法,在深度强化学习领域获得了广泛应用。 特别是在大语言模型(LLM)的人类反馈强化学习(RLHF)过程中,PPO扮演着核心角色。 本文将深入探讨PPO的基本原理和实现细节。
2/13/2025 10:34:30 AM
Dhanoop Karunakaran

CoAT: 基于蒙特卡洛树搜索和关联记忆的大模型推理能力优化框架

研究者提出了一种新的关联思维链(Chain-of-Associated-Thoughts, CoAT)方法,该方法通过整合蒙特卡洛树搜索(Monte Carlo Tree Search, MCTS)和关联记忆机制来提升大语言模型(LLMs)的推理能力。 区别于传统的单步推理方法,CoAT致力于增强LLM的结构化推理能力和自适应优化能力,实现动态知识整合。
2/13/2025 9:34:13 AM
佚名

检测&OCC双SOTA!Doracamom实现首个LV多模态融合的统一多任务感知算法框架~

写在前面&笔者的个人理解自动驾驶技术是现代交通革命的前沿,备受关注。 自动驾驶系统通常包括环境感知、轨迹预测和规划控制等组件,以实现自动驾驶功能。 准确的 3D 感知是自动驾驶系统的基础,主要侧重于 3D目标检测和语义占用预测任务。
2/12/2025 10:20:00 AM
自动驾驶之心

知乎互动反作弊实践

一、知乎反作弊简介知乎是中文互联网知名的可信赖的问答社区,为用户提供了丰富的内容创作与消费功能,致力于让人们更好的分享知识、经验和见解,找到自己的解答。 作为UGC(用户生成内容)社区,知乎面临一系列风险,反作弊团队目前针对垃圾信息、刷粉、刷赞、账户盗用以及流量攻击等问题进行识别与治理,覆盖业务场景多,面临诸多挑战。 二、互动反作弊的意义与挑战今天主要分享的是我们在刷粉、刷赞等互动反作弊方面的实战经验。
2/11/2025 9:12:55 AM
李彦飞

如何优化测试时计算?解决「元强化学习」问题

优化大模型的测试时计算是提升模型部署效率和节省计算资源的关键一环。 前段时间,黄仁勋在 CES 2025 的演讲中把测试时 Scaling 形容为大模型发展的三条曲线之一。 如何优化测试时计算成为业界关注的重要课题。
2/10/2025 1:50:00 PM
机器之心

天才解法震惊人类!谷歌AI破天荒摘得奥数金牌,横扫IMO 42道几何难题

时隔6个多月,AlphaGeometry 2直接攻下IMO金牌! 刚刚,谷歌DeepMind一篇28页技术报告,公布了AG2最新突破——在2000-2024年IMO几何题上,解题率从54%飙升至84%。 论文地址:(50道),AG2横扫了42道。
2/8/2025 1:00:00 PM
新智元

一拖一拽小猫“活了”,Netflix 等噪声扭曲算法让运动控制更简单

本文提出了一种全新的噪声扭曲算法,利用光流推导出的结构化噪声来替代传统随机噪声,成功实现了对视频运动的强大控制能力。
2/3/2025 9:37:49 PM
汪淼

小红书为何让歪果仁上头?推荐算法超牛,2篇核心论文揭秘

最近歪果朋友疯狂涌入「Xiaohongshu」,网友直呼,一夜之间与国际接轨。 这场史称「美洲大迁徙」的互联网奇象,也离不开小红书本身过硬的内容推荐算法技术。 而歪果网友也毫不吝啬对于「Xiaohongshu」推荐算法的赞美。
1/16/2025 5:40:42 PM
新智元

北大、港理工革新性LiNo框架:线性与非线性模式有效分离,性能全面超越Transformer

本文的通讯作者为北京大学计算机学院长聘副教授杨仝和香港理工大学助理教授王淑君。 第一作者为香港理工大学 24 级博士生余国齐,以及联合作者北京大学 21 级软微学院博士生、每因智能创始人郭潇宇等。 研究工作在北京大学计算机学院数据结构实验室和每因智能发起的研究课题中完成。
1/3/2025 11:38:34 AM

当人工智能遇上市政债券市场:聊聊算法交易与AI预测

算法交易时至今日,“算法交易”一词已经被广泛使用。 但其真实含义却往往众说纷纭。 没关系,下面咱们就来捋捋这个概念的具体细节。
1/3/2025 8:00:00 AM

比人类神经元快10亿倍!港中文、中科院「超级大脑」:1秒识图3479万张

人工神经元,比人类大脑快10亿倍,将会是怎样的景象? 如今,这一科幻般的场景,早已成为了现实。 来自香港中文大学、中国科学院物理研究所等机构科学家,成功开发出了一种基于「激光」的人工神经元。
1/2/2025 1:30:00 PM
新智元

迈向Z级计算:Cloud4Science范式加速科学发现进程

编辑 | X_X传统超级计算机作为科学计算的核心支柱,在推动技术进步方面发挥了不可替代的作用,但随着科学智能时代下需求的多样化和复杂化,其扩展性和能效的局限逐渐显现。 针对这一挑战,微软亚洲研究院的研究员提出了 Cloud4Science 的新范式,以云计算、人工智能和高性能计算技术的深度融合为核心,重新定义科学计算的架构,加速科学智能的研究进展。 在此框架下,研究员们已对关键科学计算算法如 Stencil、FFT、SpMV 等进行了优化,并成功开发了一系列创新算法,为科学家利用云计算及人工智能平台进行科学计算和研究开辟了新的途径。
12/30/2024 11:56:00 AM
ScienceAI

15大机构十年研究证明:无约束AI必然超越人类,创造能力也更强!

人工智能领域已经发展了70年,从小数据验证,到大规模基准,再发展到现在,几乎每天都有新突破,不只是在简单问题上超越普通人类水准,在最难的问题上也能和顶尖人类掰掰手腕了。 但还有一个自人工智能诞生以来就一直广为讨论、看是无解的关键问题,各方业内人士仍然争辩不休:如果没有适当的限制和治理,人工智能在未来是否会发展到超越人类智能? 最近,来自东南大学、哈佛医学院、新加坡国立大学、新加坡南洋理工大学、新加坡国立脑科学研究院、清华大学、中山大学等多达15个顶尖机构的研究人员联合发表了一篇论文,在理论上证明了AI超越人类的可能性,即通过结合神经科学中的新型AI技术,可以创建出一个新的AI智能体,能够在细胞层面上精确模拟大脑及其功能系统(例如感知和认知功能),并且预期误差极小。
12/27/2024 9:15:00 AM
新智元

抽卡效率提升4.8倍!东北大学等开源优化版Stable-Diffusion.cpp:分辨率越高越快,生成质量更好

在AI生成图像领域,Stable Diffusion已经成为一个里程碑式的工具,凭借其强大的图像生成能力,被广泛应用于艺术创作、商业设计等领域。 然而,生成高质量图像的过程常常需要付出大量的时间和内存,这对于硬件资源有限的设备来说是一大挑战。 为了应对这一问题,北京大学、东北大学、佐治亚大学发布了Stable-Diffusion.cpp(简称Sdcpp)的优化方法,引入了Winograd算法和三个优化策略,最终整图生成速度最高可达到4.79倍,从此实现创作自由!
12/23/2024 9:10:00 AM
新智元

大模型超强内存优化:成本削减高达75%,性能不减弱!成果出自日本一初创AI公司之手;网友:电力可能够用了!

出品 | 51CTO技术栈(微信号:blog51cto)一项逆天的大模型优化技术来了! 东京初创公司Sakana AI的研究人员开发了一种新技术,让大模型能够更有效地使用内存,不仅最多节省75%的内存占用,还甚至性能也有所提升! 这种名为“通用Transformer内存”的技术使用特殊的神经网络优化LLM,保留重要的信息并丢弃冗余的细节。
12/18/2024 1:24:55 PM

北大开源全新图像压缩感知网络:参数量、推理时间大幅节省,性能显著提升 | 顶刊TPAMI

压缩感知(Compressed Sensing,CS)是一种信号降采样技术,可大幅节省图像获取成本,其核心思想是「无需完整记录图像信息,通过计算即可还原目标图像」。 CS的典型应用包括:降低相机成本:利用廉价设备就能拍摄出高质量图像;加速医疗成像:将核磁共振成像(MRI)时间从40分钟缩短至10分钟内,减少被检查者的不适;探索未知世界,助力科学研究:将「看不见」的事物变为「看得见」,如观测细胞活动等转瞬即逝的微观现象,以及通过分布式射电望远镜观测银河系中心的黑洞。 CS的两个核心问题是:如何设计采样矩阵,从而尽可能多地保留图像信息?
12/17/2024 1:08:20 PM
新智元

精度提升20%,中科院、南京理工AI方法进行光电子能谱高维数据精细解析

编辑丨ScienceAI无监督聚类算法在划分 Nano-ARPES(ARPES:角分辨光电子能谱)空间映射数据集方面表现出强大的能力。 然而,在区分细微的能带差异方面则表现欠佳。 在最新的研究中,中国科学院高能物理研究所的研究团队与南京理工大学的科研人员合作开发了一种多阶段无监督聚类算法(Multi-Stage Clustering Algorithm,MSCA)。
12/16/2024 2:05:00 PM
ScienceAI