xinweili commited on
Commit
bd7e1dd
1 Parent(s): e04e662

Update markdown/unit1/README_CN.md

Browse files
Files changed (1) hide show
  1. markdown/unit1/README_CN.md +14 -14
markdown/unit1/README_CN.md CHANGED
@@ -6,17 +6,17 @@
6
 
7
  在正式开始之前,我们先简单介绍一下本单元的学习步骤:
8
 
9
- - 阅读本章的内容,同时也可以参考任何你感兴趣的其他资源
10
- - 查看下面的 _**Introduction to Diffusers**_ Notebook 链接,并尝试使用 `diffuers` 库将理论应用到实践中
11
  - 使用 Notebook 或链接中展示的训练代码来训练和分享你自己的扩散模型
12
- - (可选) 如果你有兴趣看到一个极简的从头开始的项目实现,并探索所涉及的不同设计决策,你可以深入研究 _**Diffusion Models from Scratch**_ 这个 Notebook
13
 
14
 
15
  :loudspeaker: 请不要忘了加入我们的频道 [Discord](https://huggingface.co/join/discord), 你可以在 `#diffusion-models-class` 频道来讨论课程内容以及分享你的作品。
16
 
17
  ## 什么是扩散模型?
18
 
19
- 扩散模型是「生成模型」算法家族的新成员通过学习给定的训练样本,生成模型可以学会如何 **生成** 数据,比如生成图片或者声音。一个好的生成模型能生成一组 **样式不同** 的输出。这些输出会与训练数据相似,但不是一模一样的副本。扩散模型如何实现这一点?为了便于说明,让我们先看看图像生成的案例。
20
 
21
  <p align="center">
22
  <img src="https://user-images.githubusercontent.com/10695622/174349667-04e9e485-793b-429a-affe-096e8199ad5b.png" width="800"/>
@@ -24,35 +24,35 @@
24
  <em> 图片来源于 DDPM paper (https://arxiv.org/abs/2006.11239)。</em>
25
  <p>
26
 
27
- 扩散模型成功的秘诀在于扩散过程的迭代本质。最先生成的只是一组随机噪声,但是经过若干步的逐渐改善之后,最终会出现有意义的图像。在每一步中,模型都会估计如何从当前的输入生成完全去噪的结果。因为我们在每一步都只做了一个小小的变动,所以在早期阶段(预测最终输出实际上非常困难),这个估计中的任何 error 都可以在以后的更新中得到纠正。
28
 
29
- 与其他类型的生成模型相比,训练扩散模型相对较为容易。我们只需要重复以下步骤即可:
30
 
31
  1) 从训练数据中加载一些图像
32
- 2) 添加不同级别的噪声。请记住,我们希望模型在面对添加了极端噪声和几乎没有添加噪声的带噪图像时,都能够很好地估计如何 “修复”(去噪)。
33
- 3) 将带噪输入送入模型中
34
- 4) 评估模型对这些输入进行去噪的效果
35
  5) 使用此信息更新模型权重
36
 
37
- 为了用训练好的模型生成新的图像,我们从完全随机的输入开始,反复将其输入模型,每次根据模型预测进行少量更新。我们之后会学到有许多采样方法试图简化这个过程,以便我们可以用尽可能少的步骤生成好的图像。
38
  我们将在第一单元的实践笔记本中详细介绍这些步骤。在第二单元中,我们将了解如何修改此过程���来通过额外的条件(例如类标签)或使用指导等技术来增加对模型输出的额外控制。第三单元和第四单元将探索一种非常强大的扩散模型,称为稳定扩散 (stable diffusion),它可以生成给定文本描述的图像。
39
 
40
  ## 实践笔记本
41
 
42
- 到这里,你已经足够了解如何开始使用附带的笔记本了!这里的两个笔记本以不同的方式表达了相同的想法。
43
 
44
  | Chapter | Colab | Kaggle | Gradient | Studio Lab |
45
  |:--------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
46
  | Introduction to Diffusers | [![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb) | [![Kaggle](https://kaggle.com/static/images/open-in-kaggle.svg)](https://kaggle.com/kernels/welcome?src=https://github.com/huggingface/diffusion-models-class/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb) | [![Gradient](https://assets.paperspace.io/img/gradient-badge.svg)](https://console.paperspace.com/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb) | [![Open In SageMaker Studio Lab](https://studiolab.sagemaker.aws/studiolab.svg)](https://studiolab.sagemaker.aws/import/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb) |
47
  | Diffusion Models from Scratch | [![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/02_diffusion_models_from_scratch_CN.ipynb) | [![Kaggle](https://kaggle.com/static/images/open-in-kaggle.svg)](https://kaggle.com/kernels/welcome?src=https://github.com/huggingface/diffusion-models-class/blob/main/unit1/02_diffusion_models_from_scratch_CN.ipynb) | [![Gradient](https://assets.paperspace.io/img/gradient-badge.svg)](https://console.paperspace.com/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/02_diffusion_models_from_scratch_CN.ipynb) | [![Open In SageMaker Studio Lab](https://studiolab.sagemaker.aws/studiolab.svg)](https://studiolab.sagemaker.aws/import/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/02_diffusion_models_from_scratch_CN.ipynb) |
48
 
49
- 在 _**Introduction to Diffusers**_ 这个 Notebook 中,我们使用 diffusers 库中的构造模块显示了与上述不同的步骤。你将很快看到如何根据你选择的任何数据创建、训练和采样你自己的扩散模型。 在笔记本结束时,你将能够阅读和修改示例训练脚本,以训练扩散模型,并将其与全世界共同分享! 本笔记本还介绍了与本单元相关的主要练习,在这里,我们将共同尝试为不同规模的扩散模型找出好的「训练脚本」- 请参阅下一节了解更多信息。
50
 
51
- 在 _**Diffusion Models from Scratch**_ 这个 Notebook 中,我们展示了相同的步骤(向数据添加噪声、创建模型、训练和采样),并尽可能简单地在 PyTorch 中从头开始实现。然后,我们将这个「玩具示例」与 `diffusers` 版本进行比较,并关注两者的区别以及改进之处。这里的目标是熟悉不同的组件和其中的设计决策,以便在查看新的实现时能够快速确定关键思想。
52
 
53
  ## 项目时间
54
 
55
- 现在,你已经掌握了基本知识,可以开始训练你自己的扩散模型了! _**Introduction to Diffusers**_ 这个 Notebook 的末尾有一些小提示,希望你能与社区分享你的成果、训练脚本和发现,以便我们能够一起找出训练这些模型的最佳方法。
56
 
57
  ## 一些额外的材料
58
 
 
6
 
7
  在正式开始之前,我们先简单介绍一下本单元的学习步骤:
8
 
9
+ - 请完整阅读本章的所有内容,除此之外你也可以参考任何你感兴趣的其他资源
10
+ - 查看下面的 _**Introduction to Diffusers**_ Notebook 链接,并尝试使用 `diffuers` 库将理论知识运用到实践中
11
  - 使用 Notebook 或链接中展示的训练代码来训练和分享你自己的扩散模型
12
+ - (可选) 如果你有兴趣尝试一个非常简单的从零开始的项目、探索项目中所涉及的不同设计决策,你可以尝试一下研究 _**Diffusion Models from Scratch**_ 这个 Notebook
13
 
14
 
15
  :loudspeaker: 请不要忘了加入我们的频道 [Discord](https://huggingface.co/join/discord), 你可以在 `#diffusion-models-class` 频道来讨论课程内容以及分享你的作品。
16
 
17
  ## 什么是扩散模型?
18
 
19
+ 扩散模型是「生成模型」算法家族的新成员。通过学习给定的训练样本,生成模型可以学会如何 **生成** 数据,比如生成图片或者声音。一个好的生成模型能生成一组 **样式不同** 的输出。这些输出会与训练数据相似,但不是一模一样的副本。扩散模型是如何实现这一点的呢?为了方便说明,让我们先看看图像生成的几个案例。
20
 
21
  <p align="center">
22
  <img src="https://user-images.githubusercontent.com/10695622/174349667-04e9e485-793b-429a-affe-096e8199ad5b.png" width="800"/>
 
24
  <em> 图片来源于 DDPM paper (https://arxiv.org/abs/2006.11239)。</em>
25
  <p>
26
 
27
+ 扩散模型成功的秘诀在于扩散过程的迭代本质。最先生成的只是一组完全随机的噪声,但是经过若干的去噪步骤之后,随机的高斯噪声则会变成有意义的图像。在这其中的每一步中,扩散模型都会估计如何从当前步骤的输入生成一个部分去噪的结果。这之中的每一步模型都只会尝试对带噪图片做很小的变动,所以在生成图片的初期阶段(预测最终输出实际上非常困难),去噪结果中的任何 error 都可以在之后的更新中得到纠正。
28
 
29
+ 与其他类型的生成模型相比,训练一个扩散模型相对较容易。我们只需要重复以下步骤即可:
30
 
31
  1) 从训练数据中加载一些图像
32
+ 2) 添加不同级别的噪声。需要注意的是,我们希望模型在面对添加了极多噪声和极少的噪声的带噪图像时,都能够很好地估计如何进行 “修复”(去噪)。
33
+ 3) 将带噪图像输入模型中,获得去噪的结果
34
+ 4) 评估模型去噪的效果
35
  5) 使用此信息更新模型权重
36
 
37
+ 为了用训练好的模型生成新的图像,我们从完全随机的输入开始,反复将其输入模型,每次根据模型预测对图片进行少量去噪。在之后的学习中,我们会学到有许多采样方法试图简化这个过程,使我们可以用尽可能少的步骤生成质量较高的图像。
38
  我们将在第一单元的实践笔记本中详细介绍这些步骤。在第二单元中,我们将了解如何修改此过程���来通过额外的条件(例如类标签)或使用指导等技术来增加对模型输出的额外控制。第三单元和第四单元将探索一种非常强大的扩散模型,称为稳定扩散 (stable diffusion),它可以生成给定文本描述的图像。
39
 
40
  ## 实践笔记本
41
 
42
+ 到这里,你已经具备了足够的知识来使用附带的笔记本了!这里的两个笔记本以不同的方式表达了相同的想法。
43
 
44
  | Chapter | Colab | Kaggle | Gradient | Studio Lab |
45
  |:--------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
46
  | Introduction to Diffusers | [![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb) | [![Kaggle](https://kaggle.com/static/images/open-in-kaggle.svg)](https://kaggle.com/kernels/welcome?src=https://github.com/huggingface/diffusion-models-class/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb) | [![Gradient](https://assets.paperspace.io/img/gradient-badge.svg)](https://console.paperspace.com/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb) | [![Open In SageMaker Studio Lab](https://studiolab.sagemaker.aws/studiolab.svg)](https://studiolab.sagemaker.aws/import/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb) |
47
  | Diffusion Models from Scratch | [![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/02_diffusion_models_from_scratch_CN.ipynb) | [![Kaggle](https://kaggle.com/static/images/open-in-kaggle.svg)](https://kaggle.com/kernels/welcome?src=https://github.com/huggingface/diffusion-models-class/blob/main/unit1/02_diffusion_models_from_scratch_CN.ipynb) | [![Gradient](https://assets.paperspace.io/img/gradient-badge.svg)](https://console.paperspace.com/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/02_diffusion_models_from_scratch_CN.ipynb) | [![Open In SageMaker Studio Lab](https://studiolab.sagemaker.aws/studiolab.svg)](https://studiolab.sagemaker.aws/import/github/darcula1993/diffusion-models-class-CN/blob/main/unit1/02_diffusion_models_from_scratch_CN.ipynb) |
48
 
49
+ 在 _**Introduction to Diffusers**_ 这个 Notebook 中,我们使用 diffusers 库中的构造模块展示了与上述不同的步骤。你将很快看到如何根据你选择的任何数据集来创建、训练和采样你自己的扩散模型。 在笔记本结束时,你将能够阅读和修改示例训练脚本���以训练扩散模型,并将其与全世界共同分享! 本笔记本还介绍了与本单元相关的主要练习,在这里,我们将共同尝试为不同规模的扩散模型找出好的「训练脚本」- 请参阅下一节了解更多信息。
50
 
51
+ 在 _**Diffusion Models from Scratch**_ 这个 Notebook 中,我们展示了相同的过程(向数据添加噪声、创建模型、训练和采样),并尽可能简单地在 PyTorch 中从头开始实现。然后,我们将这个简单范例与 `diffusers` 版本的范例进行了比较,关注了两者的区别以及改进之处。我们希望读者能通过阅读这两个笔记本,来熟悉不同的库和其中的设计决策,以便在查看新的实现时能够快速确定关键思想。
52
 
53
  ## 项目时间
54
 
55
+ 现在,你已经可以开始训练你自己的扩散模型了! _**Introduction to Diffusers**_ 这个 Notebook 的末尾有一些小tips,希望你能与社区分享你的任何发现、成果和训练脚本,帮助大家一起找出训练这些模型的最佳方法。
56
 
57
  ## 一些额外的材料
58