对无标签的图像数据用深度学习框架实现对其分类

对无标签的图像数据用深度学习框架实现对其分类,无标签的图像数据分类,含论文,实验评估表明,就分型精度而言,我们的性能大大优于最新技术,特别是CI-FAR10为+ 26.6%,CIFAR100-20为+ 25.0%,STL10为+ 21.3%。此外,我们的方法是第一种在大规模数据集上进行良好图像分类的方法。特别是,我们在ImageNet上获得了可喜的结果,并且在低数据环境下不使用任何实际的注释就优于几种半监督学习方法

应用介绍

可以在configs /目录中找到配置文件。 训练过程包括以下步骤:

     步骤1:解决前置任务,即simclr.py

     步骤2:执行群集步骤,即scan.py

     步骤3:执行标记步骤,即selflabel.py

例如,依次运行以下命令以在CIFAR10上执行我们的方法:

python simclr.py --config_env configs/your_env.yml --config_exp configs/pretext/simclr_cifar10.yml
python scan.py --config_env configs/your_env.yml --config_exp configs/scan/scan_cifar10.yml
python selflabel.py --config_env configs/your_env.yml --config_exp configs/selflabel/selflabel_cifar10.yml

实验评估表明,就分型精度而言,我们的性能大大优于最新技术,特别是CI-FAR10为+ 26.6%,CIFAR100-20为+ 25.0%,STL10为+ 21.3%。此外,我们的方法是第一种在大规模数据集上进行良好图像分类的方法。特别是,我们在ImageNet上获得了可喜的结果,并且在低数据环境下不使用任何实际的注释就优于几种半监督学习方法

文件列表(部分)

名称 大小 修改日期
env.yml0.04 KB2020-07-15
moco_imagenet100.yml0.27 KB2020-07-15
moco_imagenet200.yml0.27 KB2020-07-15
moco_imagenet50.yml0.27 KB2020-07-15
simclr_cifar10.yml0.48 KB2020-07-15
simclr_cifar20.yml0.48 KB2020-07-15
simclr_stl10.yml0.47 KB2020-07-15
scan_cifar10.yml0.46 KB2020-07-15
scan_cifar20.yml0.46 KB2020-07-15
scan_imagenet_100.yml0.53 KB2020-07-15
scan_imagenet_200.yml0.53 KB2020-07-15
scan_imagenet_50.yml0.53 KB2020-07-15
scan_stl10.yml0.45 KB2020-07-15
selflabel_cifar10.yml0.44 KB2020-07-15
selflabel_cifar20.yml0.44 KB2020-07-15
selflabel_imagenet_100.yml0.47 KB2020-07-15
selflabel_imagenet_200.yml0.47 KB2020-07-15
selflabel_imagenet_50.yml0.46 KB2020-07-15
selflabel_stl10.yml0.43 KB2020-07-15
augment.py1.05 KB2020-07-15
cifar.py2.84 KB2020-07-15
custom_dataset.py0.74 KB2020-07-15
imagenet.py0.91 KB2020-07-15
imagenet_100.txt1.70 KB2020-07-15
imagenet_200.txt3.16 KB2020-07-15
imagenet_50.txt0.65 KB2020-07-15
stl.py2.42 KB2020-07-15
eval.py1.98 KB2020-07-15
prototypes_cifar10.jpg6.92 KB2020-07-15
prototypes_stl10.jpg28.79 KB2020-07-15

立即下载

相关下载

[对无标签的图像数据用深度学习框架实现对其分类] 对无标签的图像数据用深度学习框架实现对其分类,无标签的图像数据分类,含论文,实验评估表明,就分型精度而言,我们的性能大大优于最新技术,特别是CI-FAR10为+ 26.6%,CIFAR100-20为+ 25.0%,STL10为+ 21.3%。此外,我们的方法是第一种在大规模数据集上进行良好图像分类的方法。特别是,我们在ImageNet上获得了可喜的结果,并且在低数据环境下不使用任何实际的注释就优于几种半监督学习方法

评论列表 共有 0 条评论

暂无评论

微信捐赠

微信扫一扫体验

立即
上传
发表
评论
返回
顶部