1.
论文
地址:
[2105.05883v2] Clustered Sampling: Low-Variance and Improved Repr
es
entativity for Clients Selection in Federated Learning (arxiv.org)
在之前的博客中已经介绍了
ES
PC
N的原理了(学习笔记之——基于
深度学习
的图像超分辨率重构)本博文是对
ES
PC
N进行实现。
代码
的框架仍然采用xintao前辈的
代码
,本博文会给出关键的实现部分
python
train.py -opt options/train/train_sr.json
python
t
es
t.py -opt options/t
es
t/t
es
t_sr.json
ES
PC
N的网...
cuda 9.2
python
3.6
github: [https://github.com/leftthomas/
ES
PC
N](https://github.com/leftthomas/
ES
PC
N)
上面github应该是官方
代码
,但是用的
pytorch
0.4以前的版本应该是,cuda是8.0,
python
是2.7
T
es
t
Datasets
:这个repo提供了三种类型的视频数据集进行测试,即标准测试数据集——TecoGAN中使用的Vid4、Tos3和我们的新数据集——Gvt72(从站点中选择并包括更多场景)。
更好的性能:此
为模型提供了比以前的方法更快的推理速度和更好的整体性能。
请参阅部分中的更多详细信息。
Ubuntu
16.04
CUDNN
Python
PyTorch
1.0.0
Python
包:numpy、
ES
PC
N-TensorFlow
TensorFlow(
ES
PC
N)中高效子像素卷积神经网络的TensorFlow实现。 基于网络和本改编的
代码
。 这个网络可以实现的实时性能 ,同时也超越了质量 。
Python
2.7
TensorFlow
脾气暴躁的
Scipy版本> 0.18
在训练每个新模型之前,运行prepare_data.py格式化训练和验证数据培训:
python
train.py 可以指定时期,学习率,批量大小等:
python
train.py --epochs 10 --learning_rate 0.0001 --batch_size 32
用于生成:
python
generate.py 必须指定检查点,低分辨率图像和输出路径
python
generate.py --checkpoint logdir_2x/train --lr_image
Informer
代码
复现
是指根据Informer模型的原始
论文
和开源
代码
,重新实现该模型的过程。通过引用和可以得知,Informer是一种对Transformer模型进行了改进的方法,以提高计算、内存和体系结构的效率。同时,作者也提供了清晰的开源
代码
,使得其他研究者可以方便地进行
复现
。
在Informer的编码过程中,使用了ProbSparse自注意力模块和自注意力蒸馏模块,这些模块能够通过稀疏矩阵替代原来的注意力矩阵,从而减少计算资源需求并保持良好的性能。具体的
复现
过程可以参考原始
论文
和开源
代码
中提供的详细说明。根据引用的描述,编码器接收长序列输入,并通过ProbSparse自注意力模块和自注意力蒸馏模块获得特征表示。
因此,要
复现
Informer模型,需要仔细阅读Informer的原始
论文
和开源
代码
,并按照其中提供的步骤和方法进行实现。注意理解ProbSparse自注意力模块和自注意力蒸馏模块的具体实现细节,并根据
论文
中提供的指导进行相应的
代码
编写和调试。在实现过程中,可以借助超算等计算资源来加速实验和获取实验数据,以验证
复现
结果的准确性。
总结而言,Informer
代码
的
复现
是通过阅读原始
论文
和开源
代码
,并按照其中提供的方法和步骤进行实现的过程。而实现过程中需要注意ProbSparse自注意力模块和自注意力蒸馏模块的实现细节,并根据
论文
的指导进行
代码
编写和调试。