改正错别字、标点

This commit is contained in:
Yalei Meng 2019-03-11 09:09:49 +08:00 committed by GitHub
parent fffb40edf5
commit ff9548fd26
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23

View File

@ -223,7 +223,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"优化器我们选择最长见的优化方法 SGD就是每一次迭代计算mini-batch的梯度然后对参数进行更新学习率0.01 ,优化器本章后面也会进行介绍"
"优化器我们选择最长见的优化方法 SGD就是每一次迭代计算mini-batch的梯度然后对参数进行更新学习率0.01。优化器在本章后面也会进行介绍"
]
},
{
@ -330,7 +330,7 @@
" optim.zero_grad()\n",
" # 计算损失\n",
" loss = criterion(outputs, labels)\n",
" # 反传播\n",
" # 反传播\n",
" loss.backward()\n",
" # 使用优化器默认方行优化\n",
" optim.step()\n",
@ -409,7 +409,7 @@
"\n",
"这里有一个重点因为PyTorch是使用mini-batch来进行计算的所以损失函数的计算出来的结果已经对mini-batch取了平均\n",
"\n",
"常见PyTorch内置的损失函数下几个:\n",
"常见PyTorch内置的损失函数有以下几个:\n",
"### nn.L1Loss:\n",
"输入x和目标y之间差的绝对值要求 x 和 y 的维度要一样(可以是向量或者矩阵),得到的 loss 维度也是对应一样的\n",
"\n",
@ -478,7 +478,7 @@
"metadata": {},
"source": [
"## 2.2.4 梯度下降\n",
"在介绍损失函数的时候我们已经说了梯度下降是一个使损失函数越来越小的优化算法在无求解机器学习算法的模型参数即约束优化问题时梯度下降Gradient Descent是最常采用的方法之一所以梯度下降是我们目前所说的机器学习的核心了解了它的含义也就了解了机器学习算法的含义。\n"
"在介绍损失函数的时候我们已经说了梯度下降是一个使损失函数越来越小的优化算法在无求解机器学习算法的模型参数即约束优化问题时梯度下降Gradient Descent是最常采用的方法之一所以梯度下降是我们目前所说的机器学习的核心,了解了它的含义,也就了解了机器学习算法的含义。\n"
]
},
{
@ -500,7 +500,7 @@
"\n",
"这样走下去,有可能我们不能走到山脚,而是到了某一个局部的山峰低处(局部最优解)。\n",
"\n",
"这个问题在以前的机器学习中可能会遇到,因为机器学习中的特征比较少,所以导致很可能陷入到一个局部最优解中出不来,但是到了深度学习,动辄百万甚至上亿的特征,出现这种情况的纪律几乎为0所以我们可以不用考虑这个问题。"
"这个问题在以前的机器学习中可能会遇到,因为机器学习中的特征比较少,所以导致很可能陷入到一个局部最优解中出不来,但是到了深度学习,动辄百万甚至上亿的特征,出现这种情况的概率几乎为0所以我们可以不用考虑这个问题。"
]
},
{
@ -543,7 +543,7 @@
"metadata": {},
"outputs": [],
"source": [
"#lr参数为学习率对于SGD来说一般选择0.1 0.01.0.001,如何设置会在后面实战的章节中详细说明\n",
"#lr参数为学习率对于SGD来说一般选择0.1 0.01.0.001,如何设置会在后面实战的章节中详细说明\n",
"##如果设置了momentum就是带有动量的SGD可以不设置\n",
"optimizer = torch.optim.SGD(model.parameters(), lr=0.1, momentum=0.9)"
]