深度学习
AI语音革命新纪元:Sesame模型让聊天AI“活”出表情包式情绪声线
译者 | 朱先忠审校 | 重楼Sesame使用一种名为残差向量量化的深度学习技术对语音进行编码最近,Sesame人工智能公司发布了他们最新的语音转语音(Speech-to-Speech)模型的演示。 这是一个非常擅长说话的对话式人工智能代理,它们能够提供相关的答案,并带有表情地说话,而且说实话,它们非常有趣,互动性很强。 请注意,有关这方面的系统的技术论文尚未发布,但他们确实发布了一篇简短的博客文章,并提供了有关他们使用的技术和他们所构建的先前算法的大量信息。
4/25/2025 8:19:05 AM
朱先忠
微软开源“原生1bit”三进制LLM:2B参数,0.4GB内存/单CPU就能跑,性能与同规模全精度开源模型相当
微软以小搏大,发布首个开源2B参数规模“原生1bit”LLM——BitNet b1.58 2B4T,单CPU就能跑,性能与同规模全精度开源模型相当。 它采用三进制{-1, 0, 1}存储权重,相较于传统的16位浮点数可大幅降低显存需求。 只需0.4GB内存即可运行。
4/21/2025 6:43:31 PM
量子位
瑞士研究人员称AI能够识别出可能存在生命行星的隐藏位置
浩瀚宇宙,繁星亿万,寻找另一颗蓝色星球的梦想,如同大海捞针。 但现在,来自瑞士的一支科研团队,为这场史诗级的探索注入了强大的新动能。 他们精心打造了一款人工智能模型,如同一位目光锐利的星际侦探,能够穿透星尘,洞察那些可能隐藏着宜居世界的未知角落。
4/21/2025 5:00:37 PM
AI在线
全球人工智能市场预测到 2034 年将达到 3680 亿美元
全球人工智能(AI)市场在2024年的规模预计为6382.3亿美元,到2034年将增长至3680.47亿美元,年均增长率(CAGR)为19.20%。 人工智能技术正在快速发展,成为各行业数字化转型的重要组成部分。 从自动化日常任务到智能决策,机器学习、深度学习、计算机视觉和自然语言处理等 AI 技术正在广泛应用于医疗、金融、零售、汽车和制造等领域。
4/15/2025 12:02:18 PM
AI在线
MIT 与哈佛联合推出 Lyra:一种高效的生物序列建模新方法
在生物序列建模领域,深度学习技术的进步令人瞩目,但高昂的计算需求和对大数据集的依赖让许多研究者感到困扰。 最近,麻省理工学院(MIT)、哈佛大学和卡内基梅隆大学的研究团队推出了一种名为 Lyra 的新型生物序列建模方法。 这种方法不仅参数显著减少到仅有传统模型的12万分之一,而且能够在短短两小时内使用两块 GPU 进行训练,极大地提升了模型的效率。
3/28/2025 4:59:00 PM
AI在线
参数仅需12万分之一,训练只需2块GPU,MIT、哈佛推出生物序列建模新方法Lyra
编辑 | 白菜叶卷积神经网络(CNN)和 Transformer 等深度学习架构通过捕捉局部和长距离依赖关系,显著推进了生物序列建模。 然而,它们在生物学环境中的应用受到高计算需求和对大数据集的需求的限制。 麻省理工学院、哈佛大学和卡内基梅隆大学等机构的研究人员提出了 Lyra,这是一种用于序列建模的次二次架构,它基于上位性的生物学框架,用于理解序列与功能之间的关系。
3/27/2025 12:00:00 PM
ScienceAI
活性提升65倍,山大新AI工具定向进化高活性酶,外部数据集验证成功率达80%
编辑丨&准确预测酶动力学参数对于酶的探索和修饰至关重要,但现有模型面临过拟合导致准确率低或泛化能力差的问题。 以山东大学为主导的团队提出了一种基于预训练模型和分子指纹的深度学习模型 CataPro ,并用它来预测转换数(k(cat))、米歇尔常数(K(m))和催化效率(k(cat)/K(m))。 与以前的基线模型相比,CataPro 在无偏数据集上表现出明显增强的准确性和泛化能力。
3/26/2025 2:10:00 PM
ScienceAI
生信工具评测方法:基于蛋白质对的计算机预测工具评估
编辑 | 白菜叶计算机模拟蛋白质功能注释对于缩小因测序加速而导致的对蛋白质活性理解的差距至关重要。 存在多种功能注释方法,而且它们的数量一直在增长,尤其是随着深度学习技术的发展。 但是,目前尚不清楚这些工具是否真的具有预测性。
3/21/2025 2:06:00 PM
ScienceAI
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
在深度学习的背景下,NVIDIA的CUDA与AMD的ROCm框架缺乏有效的互操作性,导致基础设施资源利用率显著降低。 随着模型规模不断扩大而预算约束日益严格,2-3年更换一次GPU的传统方式已不具可持续性。 但是Pytorch的最近几次的更新可以有效利用异构计算集群,实现对所有可用GPU资源的充分调度,不受制于供应商限制。
3/20/2025 11:22:12 AM
Rafał Siwek
Finer-CAM:让AI像‘找不同’一样精准捕捉细粒度特征!
一眼概览Finer-CAM 是一种改进的类激活映射(CAM)方法,能够精准定位区分视觉上相似类别的细粒度特征,在不增加计算复杂度的情况下,大幅提升可解释性。 核心问题传统的 CAM 方法在细粒度分类任务中往往会高亮整个目标区域,而无法有效区分相似类别之间的细微差异。 这导致模型的可解释性受限,难以识别用于决策的真正判别特征。
3/12/2025 3:00:00 AM
萍哥学AI
Nvidia与犹他州启动人工智能教育计划,培养未来AI人才
近日,Nvidia与犹他州政府宣布建立战略合作伙伴关系,共同推出全面的人工智能教育计划,旨在提升该州劳动力技能并促进经济增长。 这项公私合作将为犹他州的大学、社区学院和成人教育项目提供发展生成式人工智能技能的关键资源。 作为计划核心部分,教育工作者可通过Nvidia深度学习学院大学大使计划获得专业认证,享有高质量教学套件、研讨会内容以及云端Nvidia GPU加速工作站的访问权限。
3/11/2025 9:21:00 AM
AI在线
六种LLM定制开发基本策略:提示工程、解码策略、RAG、代理、微调和RLHF
译者 | 朱先忠审校 | 重楼为什么要定制LLM? 大型语言模型是基于自监督学习预训练的深度学习模型,需要大量的训练数据资源、训练时间并保存大量参数。 尤其是在过去2年里,LLM彻底改变了自然语言处理,在理解和生成类似人类的文本方面表现出色。
3/11/2025 8:00:00 AM
朱先忠
B站文生视频模型工程实践
一、前言近年来,AI 内容生成(AIGC)领域的快速发展令人雀跃,OpenAI 在 2023 年初推出大型语言模型(LLM)GPT-4 受到了学术界和工业界的极大关注。 OpenAI 随后在 2024 年初推出文生视频(T2V)模型Sora,能够根据文本指令制作出具有现实风格和富有想象力的场景视频,更是展示了令人惊喜的“世界模拟器”能力。 B站作为UGC内容丰富的视频网站,在视频生成模型领域有着天然数据优势和广泛应用场景。
3/5/2025 12:00:55 AM
AI
科大讯飞出品!人人都能懂的AI大模型科普课
在当今科技飞速发展的时代,一个名为"AIGC"(Al Generated Content,人工智能生成内容)的概念正逐渐走进公众视野,并迅速成为各界热议的话题。 无论是社交媒体上的讨论,还是专业论坛中的交流,AIGC都成为了不可忽视的存在。 它不仅代表着技术进步的一个重要里程碑,更是预示着未来内容创作方式的一场深刻变革。
3/4/2025 1:06:18 AM
团队iFlytek STC UXD
PyTorch内存优化的十种策略总结:在有限资源环境下高效训练模型
在大规模深度学习模型训练过程中,GPU内存容量往往成为制约因素,尤其是在训练大型语言模型(LLM)和视觉Transformer等现代架构时。 由于大多数研究者和开发者无法使用配备海量GPU内存的高端计算集群,因此掌握有效的内存优化技术变得尤为关键。 本文将系统性地介绍多种内存优化策略,这些技术组合应用可使模型训练的内存消耗降低近20倍,同时不会损害模型性能和预测准确率。
3/3/2025 10:42:50 AM
佚名
神经网络技术的核心:反向传播算法(BP算法)
在前面的文章中介绍训练一个模型,其主要区别就在于神经网络模型的架构;但可能很多人并不知道神经网络模型的核心算法就是——反向传播算法,也被叫做BP算法。 可能很多人都听说过反向传播算法,但可能很多人都没意识到反向传播算法对神经网络的重要性;可以说现在的神经网络模型就建立在反向传播算法之上,没有反向传播算法就没有神经网络的存在。 反向传播(BP)算法了解过人工智能发展史的人应该都知道,人工智能技术并不是最近才出现的新技术;在世界上第一台计算机出现之后的十年,人工智能的概念就已经被提出来了,但人工智能技术的发展却是最近几年才爆火的。
3/3/2025 8:10:00 AM
AI探索时代
终于把深度学习中的微调、提炼和迁移学习搞懂了!!!
大家好,我是小寒今天给大家分享深度学习中的三个重要知识点,微调、提炼和迁移学习在深度学习中,微调(Fine-tuning)、提炼(Distillation,即知识蒸馏)和迁移学习(Transfer Learning)是三种常见的模型优化技术,主要用于提高模型的泛化能力、减少训练时间以及优化资源利用率。 微调微调是指在一个已经训练好的模型(通常是预训练模型)的基础上,对部分或全部参数进行进一步训练,以适应特定的新任务。 通常,预训练模型是在大规模数据集(如ImageNet)上训练得到的,它能够学习到一些通用的特征。
3/3/2025 1:50:00 AM
程序员小寒
NVIDIA和Arc研究所联合发布全球最大生物学 AI 模型 Evo2,助力基因组研究与设计
日前,Arc Institute 与 NVIDIA 合作,联合斯坦福大学、加州大学伯克利分校和加州大学旧金山分校的研究人员,共同推出了全球最大的生物学人工智能模型 ——Evo2。 该模型以超过128,000个基因组的数据为基础,训练了9.3万亿个核苷酸,使其规模与最强大的生成性 AI 语言模型相媲美。 Evo2的深度学习能力使其能够快速识别不同生物体基因序列中的模式,研究人员无需耗费数年时间。
2/20/2025 10:17:00 AM
AI在线
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
大模型
数据
Midjourney
开源
Meta
智能
微软
AI新词
用户
GPT
学习
技术
智能体
马斯克
Gemini
图像
Anthropic
英伟达
AI创作
训练
LLM
论文
代码
算法
Agent
AI for Science
芯片
苹果
腾讯
Claude
Stable Diffusion
蛋白质
开发者
生成式
神经网络
xAI
机器学习
3D
RAG
人形机器人
研究
AI视频
大语言模型
生成
具身智能
Sora
工具
GPU
百度
华为
计算
字节跳动
AI设计
AGI
大型语言模型
搜索
视频生成
场景
深度学习
DeepMind
架构
生成式AI
编程
视觉
Transformer
预测
AI模型
伟达
特斯拉
亚马逊