一、epochs=50
是啥?为什么叫 epoch
?
在深度学习中:
一个 epoch 表示把整个训练数据集 完整看一遍。
举个例子:
你有 1000 条训练数据,如果训练 50 个 epoch,就是把这 1000 条数据看 50 遍,不断优化模型。
那 epoch
这个词本来的意思是啥?
英文词源解释:
-
epoch
(读音:/ˈiː.pɒk/ 或 /ˈɛpək/)原意是:📅 “时代”、“纪元”,某个特别重要的时间节点
比如在天文、历史里你可能会看到:
-
the epoch of the Renaissance(文艺复兴的时代)
-
epoch time(计算机用来表示“1970年1月1日”的那个零点)
在深度学习中,它被引申为:
“一次完整学习的周期” —— 看完一遍所有训练数据,就叫一个 epoch。
是不是有点像“模型成长的一段时期”?所以用 epoch,很形象!
二、batch_size=32
是啥?batch
是哪来的?
在深度学习中:
一次训练使用多少条样本,就叫一个 batch(批)
也就是模型一次性吃多少数据。
例如:
-
有 1000 个样本,
batch_size = 32
-
模型每次读 32 条数据,共需要训练 1000/32 ≈ 32 次,才算看完一遍数据
那 batch
这个词本来的意思是啥?
英文词源解释:
-
batch
意思是“一批”、“一组” -
来自中古英语的 “bakken”(to bake),最早指“一炉烤好的面包”
比如日常用法:
-
a batch of cookies(一批曲奇)
-
a batch of files(一组文件)
-
a batch of students(一批学生)
所以在机器学习中借用这个词:
把数据一组一组地送进去训练,就叫 batch!
总结对比:
参数名 | 单词 | 本意 | 机器学习里的含义 |
---|---|---|---|
epoch | 时代、纪元 | 完整看一遍数据集 | epochs=50 训练 50 遍 |
batch | 一批、一炉、一组 | 一次送入模型的样本数量 | batch_size=32 一次看 32 个样本 |