Basic Idea

基本认识

self-supervised learning:设计不需要标注数据的pre-train任务来训练模型,如填空题、预测下一个token。

Auto-Encoder可以看作是 Self-Supervised Learning 的一种 Pre-Train 的方法。

主要架构

Untitled

训练的目标是希望,Encoder 的输入Decoder 的输出,越接近越好

<aside> 💡 Reconstruction,重建:把图片看作是一个很长的向量的,希望这个向量跟 Decoder 的输出这个向量越接近越好

</aside>

Cycle GAN:第一个 Generator,把 X Domain 的图片转到 Y Domain,另外一个 Generator,把 Y Domain 的图片转回来,希望最原先的图片,跟转完两次后的图片越接近越好。 06-Generative Model(GAN)

动机:“降维”(Dimension Reduction)

图片可以看作是一个很长的向量,但这个向量太长了 不好处理。

丢到 Encoder 以后,输出另外一个向量,这个向量会比较短。

**⇒图片不再是一个很高维度的向量,它通过 Encoder 的压缩以后,变成了一个低维度的向量。**拿这个新的向量来做你接下来的任务。

Bottleneck:输入是很宽的(维度很高),输出也是很宽的,中间特别窄(维度低)

More about Dimension Reduction(PCA,t-SNE)

Untitled

Why Auto-encoder?