NeMo
英伟达发布 80 亿参数新 AI 模型:精度、效率高,可在 RTX 工作站上部署
英伟达于 8 月 21 日发布博文,发布了 Mistral-NeMo-Minitron 8B 小语言 AI 模型,具备精度高、计算效率高等优点,可在 GPU 加速的数据中心、云和工作站上运行模型。英伟达携手 Mistral AI 上月发布开源 Mistral NeMo 12B 模型,在此基础上英伟达再次推出更小的 Mistral-NeMo-Minitron 8B 模型,共 80 亿个参数,可以在搭载英伟达 RTX 显卡的工作站上运行。英伟达表示通过宽度剪枝(width-pruning)Mistral NeMo 12
8/23/2024 7:32:00 AM
故渊
英伟达 Mistral AI 联袂出击!120 亿小模型王者强势登场,碾压 Llama 3 单张 4090 可跑
GPT-4o mini 头把交椅还未坐热,Mistral AI 联手英伟达发布 12B 参数小模型 Mistral Nemo,性能赶超 Gemma 2 9B 和 Llama 3 8B。小模型,成为本周的 AI 爆点。先是 HuggingFace 推出了小模型 SmoLLM;OpenAI 直接杀入小模型战场,发布了 GPT-4o mini。GPT-4o mini 发布同天,欧洲最强 AI 初创公司 Mistral 立马发布旗下最新最强小模型 ——Mistral NeMo。Mistral NeMo 由 Mistral
7/20/2024 4:23:46 PM
清源
英伟达联合发布 Mistral-NeMo AI 模型:120 亿参数、上下文窗口 12.8 万个 token,要变革商业 AI 应用
英伟达联合法国初创公司 Mistral AI,今天发布了全新的 Mistral-NeMo AI 大语言模型,拥有 120 亿个参数,上下文窗口(AI 模型一次能够处理的最大 Token 数量)为 12.8 万个 token。VentureBeat 与 Midjourney 合作制作Mistral-NeMo AI 大模型主要面向企业环境,让企业不需要使用大量云资源的情况下,实施人工智能解决方案。由于 Mistral NeMo 依赖于标准架构,因此企业在使用过程中可直接替换任何使用 Mistral 7B 的系统。英伟达
7/19/2024 7:04:39 AM
故渊
因使用受版权保护书籍训练 AI 平台,英伟达被三名作者起诉
感谢据美国福克斯电视台北京时间今日报道,科技巨头英伟达已被三名作者起诉,因为英伟达在训练其 AI 平台 NeMo 时,未经许可使用了他们受到版权保护的书籍。三名作者 Brian Keene、Abdi Nazemian 和 Stewart O'Nan 声称,自己的作品被收录在一个包含约 196640 本书籍的数据集内,这些书籍帮助训练 NeMo 模拟普通书面语言,但这个数据集因“被举报侵犯版权”在去年 10 月被撤下。(IT之家注:该数据集原本被托管在 Hugging Face 网站上)作者们在 3 月 8 日晚提交
3/11/2024 4:46:10 PM
清源
- 1
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
模型
机器人
谷歌
大模型
Midjourney
智能
用户
开源
学习
GPT
微软
Meta
图像
AI创作
技术
论文
Stable Diffusion
Gemini
马斯克
算法
蛋白质
芯片
代码
生成式
英伟达
腾讯
神经网络
研究
计算
Anthropic
3D
Sora
AI for Science
AI设计
机器学习
开发者
GPU
AI视频
华为
场景
人形机器人
预测
百度
苹果
伟达
Transformer
深度学习
xAI
Claude
模态
字节跳动
大语言模型
搜索
驾驶
具身智能
神器推荐
文本
Copilot
LLaMA
算力
安全
视觉
视频生成
训练
干货合集
应用
大型语言模型
亚马逊
科技
智能体
DeepMind
特斯拉