diff --git a/chapter1/5_data_parallel_tutorial.ipynb b/chapter1/5_data_parallel_tutorial.ipynb index 1fd07b8..55a763f 100644 --- a/chapter1/5_data_parallel_tutorial.ipynb +++ b/chapter1/5_data_parallel_tutorial.ipynb @@ -33,7 +33,7 @@ "\n", " mytensor = my_tensor.to(device)\n", "```\n", - "请注意,只调用``my_tensor.to(device)``并没有复制张量到GPU上,二十返回了一个copy。所以你需要把它赋值给一个新的张量并在GPU上使用这个张量。\n", + "请注意,只调用``my_tensor.to(device)``并没有复制张量到GPU上,而是返回了一个copy。所以你需要把它赋值给一个新的张量并在GPU上使用这个张量。\n", "\n", "在多GPU上执行前向和反向传播是自然而然的事。\n", "但是PyTorch默认将只是用一个GPU。\n",