NeMo
英伟达发布 80 亿参数新 AI 模型:精度、效率高,可在 RTX 工作站上部署
英伟达于 8 月 21 日发布博文,发布了 Mistral-NeMo-Minitron 8B 小语言 AI 模型,具备精度高、计算效率高等优点,可在 GPU 加速的数据中心、云和工作站上运行模型。英伟达携手 Mistral AI 上月发布开源 Mistral NeMo 12B 模型,在此基础上英伟达再次推出更小的 Mistral-NeMo-Minitron 8B 模型,共 80 亿个参数,可以在搭载英伟达 RTX 显卡的工作站上运行。英伟达表示通过宽度剪枝(width-pruning)Mistral NeMo 12
8/23/2024 7:32:00 AM
故渊
英伟达 Mistral AI 联袂出击!120 亿小模型王者强势登场,碾压 Llama 3 单张 4090 可跑
GPT-4o mini 头把交椅还未坐热,Mistral AI 联手英伟达发布 12B 参数小模型 Mistral Nemo,性能赶超 Gemma 2 9B 和 Llama 3 8B。小模型,成为本周的 AI 爆点。先是 HuggingFace 推出了小模型 SmoLLM;OpenAI 直接杀入小模型战场,发布了 GPT-4o mini。GPT-4o mini 发布同天,欧洲最强 AI 初创公司 Mistral 立马发布旗下最新最强小模型 ——Mistral NeMo。Mistral NeMo 由 Mistral
7/20/2024 4:23:46 PM
清源
英伟达联合发布 Mistral-NeMo AI 模型:120 亿参数、上下文窗口 12.8 万个 token,要变革商业 AI 应用
英伟达联合法国初创公司 Mistral AI,今天发布了全新的 Mistral-NeMo AI 大语言模型,拥有 120 亿个参数,上下文窗口(AI 模型一次能够处理的最大 Token 数量)为 12.8 万个 token。VentureBeat 与 Midjourney 合作制作Mistral-NeMo AI 大模型主要面向企业环境,让企业不需要使用大量云资源的情况下,实施人工智能解决方案。由于 Mistral NeMo 依赖于标准架构,因此企业在使用过程中可直接替换任何使用 Mistral 7B 的系统。英伟达
7/19/2024 7:04:39 AM
故渊
因使用受版权保护书籍训练 AI 平台,英伟达被三名作者起诉
感谢据美国福克斯电视台北京时间今日报道,科技巨头英伟达已被三名作者起诉,因为英伟达在训练其 AI 平台 NeMo 时,未经许可使用了他们受到版权保护的书籍。三名作者 Brian Keene、Abdi Nazemian 和 Stewart O'Nan 声称,自己的作品被收录在一个包含约 196640 本书籍的数据集内,这些书籍帮助训练 NeMo 模拟普通书面语言,但这个数据集因“被举报侵犯版权”在去年 10 月被撤下。(IT之家注:该数据集原本被托管在 Hugging Face 网站上)作者们在 3 月 8 日晚提交
3/11/2024 4:46:10 PM
清源
- 1
资讯热榜
标签云
人工智能
AI
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
谷歌
机器人
数据
大模型
Midjourney
开源
智能
用户
Meta
微软
GPT
学习
技术
图像
Gemini
AI创作
马斯克
论文
智能体
Anthropic
英伟达
代码
算法
训练
Stable Diffusion
芯片
蛋白质
开发者
腾讯
生成式
LLM
苹果
Claude
神经网络
AI新词
3D
研究
机器学习
生成
AI for Science
Agent
xAI
计算
人形机器人
Sora
AI视频
GPU
AI设计
百度
华为
搜索
大语言模型
工具
场景
字节跳动
具身智能
RAG
大型语言模型
预测
深度学习
伟达
视觉
Transformer
AGI
视频生成
神器推荐
亚马逊
Copilot
DeepMind
架构
模态
应用