Batch
Batch Size与Epoch:深度模型训练的“油门”与“里程表”
在深度学习的世界里,我们常常被各种华丽的网络架构和前沿的应用所吸引,却容易忽略那些看似基础却至关重要的训练参数。 今天,我们要深入探讨的就是模型训练过程中的两个基础术语——Batch Size与Epoch。 这两个术语不仅决定了模型的学习效率,还直接影响着模型的性能和最终效果。
10/29/2025 7:53:51 AM
Fairy Girl
深度学习中Batch Size对训练过程如何影响?
之前面试过程中被问到过两个问题:(1)深度学习中batch size的大小对训练过程的影响是什么样的? (2)有些时候不可避免地要用超大batch,比如人脸识别,可能每个batch要有几万甚至几十万张人脸图像,训练过程中超大batch有什么优缺点,如何尽可能地避免超大batch带来的负面影响? 面试版回答在不考虑Batch Normalization的情况下(这种情况我们之后会在bn的文章里专门探讨),先给个自己当时回答的答案吧(相对来说学究一点):(1) 不考虑bn的情况下,batch size的大小决定了深度学习训练过程中的完成每个epoch所需的时间和每次迭代(iteration)之间梯度的平滑程度。
6/13/2025 2:55:00 AM
grok
OpenAI 推出 Batch 批处理 API:半价折扣,24 小时内输出结果
感谢OpenAI 今天凌晨面向开发者推出 Batch 批处理 API,可在 24 小时内给出结果,并提供 API 半价折扣。新的 Batch API 适用于异步任务处理,如当开发者需要处理大量文本、图片、摘要时,就可以使用该 API,OpenAI 会在 24 小时内给出处理结果。这样 OpenAI 可以在非高峰期处理,节约服务器资源,并为开发者提供半价优惠,解锁更高的速率限制。新的 Batch API 支持使用以下模型:gpt-3.5-turbogpt-3.5-turbo-16kgpt-4gpt-4-32kgpt-
4/16/2024 2:39:32 PM
泓澄(实习)
- 1
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
大模型
数据
Midjourney
开源
Meta
智能
微软
AI新词
用户
GPT
学习
技术
智能体
马斯克
Gemini
图像
Anthropic
英伟达
AI创作
训练
LLM
论文
代码
算法
Agent
AI for Science
芯片
苹果
腾讯
Claude
Stable Diffusion
蛋白质
开发者
生成式
神经网络
xAI
机器学习
3D
RAG
人形机器人
研究
AI视频
大语言模型
生成
具身智能
Sora
工具
GPU
百度
华为
计算
字节跳动
AI设计
AGI
大型语言模型
搜索
视频生成
场景
深度学习
架构
DeepMind
生成式AI
编程
视觉
Transformer
预测
AI模型
伟达
特斯拉
MCP