网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
09月09日漏签0天
人工智能吧 关注:117,023贴子:509,892
  • 看贴

  • 图片

  • 吧主推荐

  • 视频

  • 游戏

  • 2回复贴,共1页
<<返回人工智能吧
>0< 加载中...

基于训练好的特征的无监督学习

  • 取消只看楼主
  • 收藏

  • 回复
  • ieBugH
  • 9S
    12
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
1.取一个训练好的神经网络,如AlexNet、VGGNet,其具有一定的旋转、平移、色彩等不变性,即已具备一定抽象和泛化能力
2.使用其某一层的特征激活量对所有未标签的数据进行聚类:在预训练好的某层之上接层级稀疏自编码器。最后一层仍接分类器。
3.在未来,若一个数据标注好了,则使用其对2得到的网络进行有监督微调一次;若未标注好,则仍按稀疏自编码器对网络进行微调一次。由于该数据按真实世界分布采集,这样相当于做batch为1的随机梯度下降,或者将得到的数据进行囤积,得到一个batch后再无监督/有监督微调。
这样做是为了综合利用大量不带标签的数据分布信息(流形结构)和少量带标签的样本学到的恒常性。
利用了大量无标签数据在抽象特征空间中的分布去预测未知样本的标签,使得one-shot learning成为可能。同时使得有监督训练使用的特征更接近于真实的统计特征而不仅仅是带标签样本的分类特征,使得其更接近生成模型而不是判别模型,避免过度泛化。


  • ieBugH
  • 9S
    12
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
fine tune能纠正autoencoder错分的类吗?
autoencoder/聚类容易错分的类分为两种情况:
1.两个不同的物体但它们非常相似,被autoencoder/聚类分成了一类
如在没有教师信号前,大多数人会把葡萄与提子混淆
2.同一物体在不同视角、光照、姿态下显得大为不同,被错分成多类
我认为情况2可以被基于BP的fine tune纠正,而情况1则不能被基于BP的fine tune有效地纠正
我们可以通过提高记忆精度(警戒度、autoencoder平均还原误差的权重)使得大多数时候模型处于情况2而不是情况1,但这并不能从根本上解决情况1这一问题。


2025-09-09 11:37:18
广告
不感兴趣
开通SVIP免广告
  • ieBugH
  • 9S
    12
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
另一种利用discriminative model的泛化能力来提升generative model的方法是GAN,DM尽量逼近已观测到的数据分布,若DM使用了卷积+池化+深度,则DM将会具备足够好的泛化能力,使用它来训练GM则会比使用已观测到的数据更好,而GM同时帮助DM提高警戒度,避免过度泛化。但是当GM足够好时,DM就容易出现草木皆兵、过于谨慎以致识别能力下降的不足,进而又会降低GM的能力。


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 2回复贴,共1页
<<返回人工智能吧
分享到:
©2025 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示