TensorFlow2实现条件批归一化(Conditional Batch Normalization)

TensorFlow2实现条件批归一化(Conditional Batch Normalization)在生成对抗网络中使用 BN 会导致生成图片在一定程度上出现同质化的缺点。利用条件批归一化可以解决此问题,本文讲解了条件批归一化,并使用TensorFlow2进行实现。

「这是我参与11月更文挑战的第7天,活动详情查看:2021最后一次更文挑战」

条件批归一化(Conditional Batch Normalization)

批归一化 (Batch Normalization, BN) 是深度学习中常用的网络训练技巧,它不仅可以加快了模型的收敛速度,而且更重要的是在一定程度缓解了深层网络中“梯度弥散”的问题,从而使得训练深层网络模型更加容易和稳定,所以目前 BN 已经成为几乎所有卷积神经网络的标配技巧了,简单回顾下批 BN 的方程式:


B N ( x ) = γ ( x μ ( x ) σ ( x ) ) + β BN(x) = \gamma (\frac {x-\mu(x)}{\sigma(x)}) + \beta

其中,均值
µ µ
和标准差
σ σ
是在 (N, H, W) 维度上进行计算的,每个规范化层只有一个仿射变换参数对
γ γ

β β
,它们是在训练时网络自己学习得到的。

但是在生成对抗网络 (Generative Adversarial Networks, GAN) 中使用 BN 会导致生成图片在一定程度上出现同质化的缺点。例如,在 CIFAR10 数据集中,有10类图片:6种是动物(分别为:鸟,猫,鹿,狗,青蛙和马),4种是交通工具(分别是:飞机,汽车,轮船和卡车)。显然,不同类别的图片在外观上看起来截然不同——交通往往具有坚硬而笔直的边缘,而动物倾向于具有弯曲的边缘和较柔和的纹理。

在风格迁移中我们已经了解了,激活的统计数据决定了图像样式。因此,混合批统计信息可以创建看上去有点像动物同时也有点像交通工具(例如,汽车形状的猫)的图像。这是因为批归一化在由不同类别图片组成的整个批次中仅使用一个
γ \gamma
和一个
β \beta
。如果每种类别都有一个
γ \gamma
和一个
β \beta
,则该问题得以解决,而这正是条件批规范化的意义所在。每个类别有一个
γ \gamma
和一个
β \beta
,因此CIFAR10中的10个类别每层有10个
γ \gamma
和10个
β \beta

TensorFlow实现条件批归一化

现在,我们可以构造条件批处理规范化所需的变量,如下所示:

  1. 形状为 (10, C) 的
    β \beta

    γ \gamma
    ,其中 C 是激活通道数。
  2. (1, 1, 1, C) 形状的游动均值和方差。在训练中,均值和方差是从小批次计算得出的。在推论过程中,我们使用训练中累积的移动均值。它们的形状使算术运算可以广播到 N,H 和 W 维度。

利用自定义层实现条件批归一化,首先创建所需变量:

class ConditionBatchNorm(Layer):
    def build(self, input_shape):
        self.input_size = input_shape
        n, h, w, c = input_shape
        self.gamma = self.add_weight(shape=[self.n_class, c], 
            initializer='zeros', trainable=True, name='gamma')
        self.moving_mean = self.add_weight(shape=[1, 1, 1, c],
            initializer='zeros', trainable=False, name='moving_mean')
        self.moving_var = self.add_weight(shape=[1, 1, 1, c], 
            initializer='zeros', trainable=False, name='moving_var')

当运行条件批归一化时,为标签检索正确的
β \beta

γ \gamma
。这是使用 tf.gather(self.beta, labels) 完成的,它在概念上等效于 beta = self.beta[labels],如下所示:

    def call(self, x, labels, trainable=False):
        beta = tf.gather(self.beta, labels)
        beta = tf.expand_dims(beta, 1)
        gamma = tf.gather(self.gamma, labels)
        gamma = tf.expand_dims(gamma, 1)
		if training:
			mean, var = tf.nn.moments(x, axes=(0,1,2), keepdims=True)
			self.moving_mean.assign(self.decay * self.moving_mean + (1-self.decay)*mean)
			self.moving_var.assign(self.decay * self.moving_var + (1-self.decay)*var)
			output = tf.nn.batch_normalization(x, mean, var, beta, gamma, self.eps)
		else:
			output = tf.nn.batch_normalization(x, self.moving_mean, self.moving_var, beta, gamma, self.eps)
		return output

在残差块中应用条件批归一化

条件批归一化的使用方式与批归一化相同,作为示例,现在我们将条件批归一化添加到残差块中:

class ResBlock(Layer):
    def build(self, input_shape):
        input_filter = input_shape[-1]
        self.conv_1 = Conv2D(self.filters, 3, padding='same', name='conv2d_1')
        self.conv_2 = Conv2D(self.filters, 3, padding='same', name='conv2d_2')
        self.cbn_1 = ConditionBatchNorm(self.n_class)
        self.cbn_2 = ConditionBatchNorm(self.n_class)
        self.learned_skip = False
        if self.filters != input_filter:
            self.learned_skip = True
            self.conv_3 = Conv2D(self.filters, 1, padding='same', name='conv2d_3')
            self.cbn_3 = ConditionBatchNorm(self.n_class)

以下是使用条件批归一化残差块的前向计算代码:

    def call(self, input_tensor, labels):
        x = self.conv_1(input_tensor)
        x = self.cbn_1(x, labels)
        x = tf.nn.leaky_relu(x, 0.2)
        x = self.conv_2(x)
        x = tf.cbn_2(x, labels)
        x = tf.nn.leaky_relu(x, 0.2)
        if self.learned_skip:
            skip = self.conv_3(input_tensor)
            skip = self.cbn_3(skip, labels)
            skip = tf.nn.leaky_relu(skip, 0.2)
        else:
            skip = input_tensor
        output = skip + x
        return output

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/37169.html

(0)

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注