CS Notes
  • CS-Notes文档说明
  • 机器学习
    • 频率派和贝叶斯学派
    • 机器学习中的分类指标
    • 数学基础
    • 数据清洗
    • SVM
    • 线性模型
    • 拉格朗日乘子法和KKT条件
    • 集成学习
    • 贝叶斯分类器
    • 降维和度量学习
    • 决策树
    • 神经网络
    • 神经网络优化器
    • Autoencoders & GANs
    • IoU
    • EM算法
    • ML问题总结
    • 机器学习&深度学习学习资料汇总
    • 如何阅读论文
    • 如何写好一篇论文
  • 语言、算法相关
    • 背包问题 - 01背包&完全背包
    • 平衡二叉树AVL
    • 红黑树RB-Tree
    • STL容器
    • STL 常用算法
    • Markdown总结
    • 问题总结
    • 代码汇总
    • PAT手册
  • MIT 6.828 OS课程
  • ImGui
Powered by GitBook
On this page

Was this helpful?

  1. 机器学习

Autoencoders & GANs

Autoencoders的应用:

可以用于数据的降维,特别是视觉有关的数据。也可以作为特征提取器。同时还可以作为生成模型来生成新的数据,只不过Autoencoder生成的图像都比较模糊,看起来不真实。

GANs的应用:

超清图像(提升图像的清晰度);图像的编辑,取出图像中的杂物;将草图绘制成一张照片级的图片;预测视频中的下一帧;生成其他类型的数据;增加模型训练的数据集;检测模型的弱点等。

GANs很难train的原因:

这里提到了一个纳什均衡点,不是很理解,后面再补充。

纳什均衡在GANs中要达到的状态就是:Generator生成以假乱真的图片,Discriminator则是分别以50%的概率判断这张图片为真,反之为假。但是要达到这样理想的状态,最大的困难被称之为:mode collapse,具体的含义是说Generator的输出变得越来越没有多样化了。为什么会产生这样的现象呢?比如说当Generator生成一双鞋子可以达到以假乱真,但是生成衣服,帽子其他物品的时候就没有办法想生成鞋子这么逼真,那么Generator就会想一直生成鞋子,而不去生成其他的物品,因为这样它可以很好地骗过Discriminator。这样子的话就会导致Generator无法对每个类别都生成很真实的照片。

Previous神经网络优化器NextIoU

Last updated 5 years ago

Was this helpful?