ACGAN

CGAN通过在生成器和判别器中均使用标签信息进行训练,不仅能产生特定标签的数据,还能够提高生成数据的质量;SGAN(Semi-Supervised GAN)通过使判别器/分类器重建标签信息来提高生成数据的质量。既然这两种思路都可以提高生成数据的质量,于是ACGAN综合了以上两种思路,既使用标签信息进行训练,同时也重建标签信息,结合CGAN和SGAN的优点,从而进一步提升生成样本的质量,并且还能根据指定的标签相应的样本。

1. ACGAN的网络结构为:

ACGAN的网络结构框图

        生成器输入包含C_vector和Noise_data两个部分,其中C_vector为训练数据标签信息的One-hot编码张量,其形状为:(batch_size, num_class) ;Noise_data的形状为:(batch_size, latent_dim)。然后将两者进行拼接,拼接完成后,得到的输入张量为:(batch_size, num_class + latent_dim)。生成器的的输出张量为:(batch_size, channel, Height, Width)。

        判别器输入为:(batch_size, channel, Height, Width); 判别的器的输出为两部分,一部分是源数据真假的判断,形状为:(batch_size, 1),一部分是输入数据的分类结果,形状为:(batch_size, class_num)。因此判别器的最后一层有两个并列的全连接层,分别得到这两部分的输出结果,即判别器的输出有两个张量(真假判断张量和分类结果张量)。

2. ACGAN的损失函数:

        对于判别器而言,既希望分类正确,又希望能正确分辨数据的真假;对于生成器而言,也希望能够分类正确,当时希望判别器不能正确分辨假数据。

D_real, C_real = Discriminator( real_imgs)         # real_img 为输入的真实训练图片

D_real_loss = torch.nn.BCELoss(D_real, Y_real)          #  Y_real为真实数据的标签,真数据都为-1,假数据都为+1

C_real_loss = torch.nn.CrossEntropyLoss(C_real, Y_vec)        # Y_vec为训练数据One-hot编码的标签张量

gen_imgs = Generator(noise, Y_vec)

D_fake, C_fake = Discriminator(gen_imgs)

D_fake_loss = torch.nn.BCELoss(D_fake, Y_fake)

C_fake_loss = torch.nn.CrossEntropyLoss(C_fake, Y_vec)

D_loss = D_real_loss + C_real_loss + D_fake_loss + C_fake_loss

生成器的损失函数:  

gen_imgs = Generator(noise, Y_vec)

D_fake, C_fake = Discriminator(gen_imgs)

D_fake_loss = torch.nn.BCELoss(D_fake, Y_real)

C_fake_loss = torch.nn.CrossEntropyLoss(C_fake, Y_vec)

G_loss = D_fake_loss + C_fake_loss

class Discriminator(nn.Module):  # 定义判别器def __init__(self, img_size=(64, 64), num_classes=2):  # 初始化方法super(Discriminator, self).__init__()  # 继承初始化方法self.img_size = img_size  # 图片尺寸,默认为(64.64)三通道图片self.num_classes = num_classes  # 类别数self.conv1 = nn.Conv2d(3, 128, 4, 2, 1)  # conv操作self.conv2 = nn.Conv2d(128, 256, 4, 2, 1)  # conv操作self.bn2 = nn.BatchNorm2d(256)  # bn操作self.conv3 = nn.Conv2d(256, 512, 4, 2, 1)  # conv操作self.bn3 = nn.BatchNorm2d(512)  # bn操作self.conv4 = nn.Conv2d(512, 1024, 4, 2, 1)  # conv操作self.bn4 = nn.BatchNorm2d(1024)  # bn操作self.leakyrelu = nn.LeakyReLU(0.2)  # leakyrelu激活函数self.linear1 = nn.Linear(int(1024 * (self.img_size[0] / 2 ** 4) * (self.img_size[1] / 2 ** 4)), 1)  # linear映射self.linear2 = nn.Linear(int(1024 * (self.img_size[0] / 2 ** 4) * (self.img_size[1] / 2 ** 4)),self.num_classes)  # linear映射self.sigmoid = nn.Sigmoid()  # sigmoid激活函数self.softmax = nn.Softmax(dim=1)  # softmax激活函数self._init_weitghts()  # 模型权重初始化def _init_weitghts(self):  # 定义模型权重初始化方法for m in self.modules():  # 遍历模型结构if isinstance(m, nn.Conv2d):  # 如果当前结构是convnn.init.normal_(m.weight, 0, 0.02)  # w采用正态分布初始化nn.init.constant_(m.bias, 0)  # b设为0elif isinstance(m, nn.BatchNorm2d):  # 如果当前结构是bnnn.init.constant_(m.weight, 1)  # w设为1nn.init.constant_(m.bias, 0)  # b设为0elif isinstance(m, nn.Linear):  # 如果当前结构是linearnn.init.normal_(m.weight, 0, 0.02)  # w采用正态分布初始化nn.init.constant_(m.bias, 0)  # b设为0def forward(self, x):  # 前传函数x = self.conv1(x)  # conv,(n,3,64,64)-->(n,128,32,32)x = self.leakyrelu(x)  # leakyrelu激活函数x = self.conv2(x)  # conv,(n,128,32,32)-->(n,256,16,16)x = self.bn2(x)  # bn操作x = self.leakyrelu(x)  # leakyrelu激活函数x = self.conv3(x)  # conv,(n,256,16,16)-->(n,512,8,8)x = self.bn3(x)  # bn操作x = self.leakyrelu(x)  # leakyrelu激活函数x = self.conv4(x)  # conv,(n,512,8,8)-->(n,1024,4,4)x = self.bn4(x)  # bn操作x = self.leakyrelu(x)  # leakyrelu激活函数x = torch.flatten(x, 1)  # 三维特征压缩至一位特征向量,(n,1024,4,4)-->(n,1024*4*4)# 根据特征向量x,计算图片真假的得分validity = self.linear1(x)  # linear映射,(n,1024*4*4)-->(n,1)validity = self.sigmoid(validity)  # sigmoid激活函数,将输出压缩至(0,1)# 根据特征向量x,计算图片分类的标签label = self.linear2(x)  # linear映射,(n,1024*4*4)-->(n,2)label = self.softmax(label)  # softmax激活函数,将输出压缩至(0,1)return (validity, label)  # 返回(图像真假的得分,图片分类的标签)class Generator(nn.Module):  # 定义生成器def __init__(self, img_size=(64, 64), num_classes=2, latent_dim=100):  # 初始化方法super(Generator, self).__init__()  # 继承初始化方法self.img_size = img_size  # 图片尺寸,默认为(64.64)三通道图片self.num_classes = num_classes  # 类别数self.latent_dim = latent_dim  # 输入噪声长度,默认为100self.linear = nn.Linear(self.latent_dim, 4 * 4 * 1024)  # linear映射self.bn0 = nn.BatchNorm2d(1024)  # bn操作self.deconv1 = nn.ConvTranspose2d(1024, 512, 4, 2, 1)  # transconv操作self.bn1 = nn.BatchNorm2d(512)  # bn操作self.deconv2 = nn.ConvTranspose2d(512, 256, 4, 2, 1)  # transconv操作self.bn2 = nn.BatchNorm2d(256)  # bn操作self.deconv3 = nn.ConvTranspose2d(256, 128, 4, 2, 1)  # transconv操作self.bn3 = nn.BatchNorm2d(128)  # bn操作self.deconv4 = nn.ConvTranspose2d(128, 3, 4, 2, 1)  # transconv操作self.relu = nn.ReLU(inplace=True)  # relu激活函数self.tanh = nn.Tanh()  # tanh激活函数self.embedding = nn.Embedding(self.num_classes, self.latent_dim)  # embedding操作self._init_weitghts()  # 模型权重初始化def _init_weitghts(self):  # 定义模型权重初始化方法for m in self.modules():  # 遍历模型结构if isinstance(m, nn.ConvTranspose2d):  # 如果当前结构是transconvnn.init.normal_(m.weight, 0, 0.02)  # w采用正态分布初始化nn.init.constant_(m.bias, 0)  # b设为0elif isinstance(m, nn.BatchNorm2d):  # 如果当前结构是bnnn.init.constant_(m.weight, 1)  # w设为1nn.init.constant_(m.bias, 0)  # b设为0elif isinstance(m, nn.Linear):  # 如果当前结构是linearnn.init.normal_(m.weight, 0, 0.02)  # w采用正态分布初始化nn.init.constant_(m.bias, 0)  # b设为0def forward(self, input: tuple):  # 前传函数noise, label = input  # 从输入的元组中获取噪声向量和标签信息label = self.embedding(label)  # 标签信息经过embedding操作,变成与噪声向量尺寸相同的稠密向量z = torch.multiply(noise, label)  # 噪声向量与标签稠密向量相乘,得到带有标签信息的噪声向量z = self.linear(z)  # linear映射,(n,100)-->(n,1024*4*4)z = z.view((-1, 1024, int(self.img_size[0] / 2 ** 4),int(self.img_size[1] / 2 ** 4)))  # 一维特征向量扩展至三维特征,(n,1024*4*4)-->(n,1024,4,4)z = self.bn0(z)  # bn操作z = self.relu(z)  # relu激活函数z = self.deconv1(z)  # trainsconv操作,(n,1024,4,4)-->(n,512,8,8)z = self.bn1(z)  # bn操作z = self.relu(z)  # relu激活函数z = self.deconv2(z)  # trainsconv操作,(n,512,8,8)-->(n,256,16,16)z = self.bn2(z)  # bn操作z = self.relu(z)  # relu激活函数z = self.deconv3(z)  # trainsconv操作,(n,256,16,16)-->(n,128,32,32)z = self.bn3(z)  # bn操作z = self.relu(z)  # relu激活函数z = self.deconv4(z)  # trainsconv操作,(n,128,32,32)-->(n,3,64,64)z = self.tanh(z)  # tanh激活函数,将输出压缩至(-1,1)return z  # 返回生成图像

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/145027.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

MySQL-数据库的操作

1、数据库的操作 数据库是指不同的系统(比如学生信息管理系统和停车管理系统)可以把数据都存储在一个数据库服务器软件中。不同的系统会创建不同的数据库来使用。 1.1显示所有数据库 show databases; 这个是命令行客户端,是以分号为结束的…

领取我的国庆头像

一年一度的国庆节来了,祝大家节日快乐,本文教大家用Python绘制国庆专属头像。 文章目录 一、效果图二、实现代码一、效果图 这是把微信头像和红旗相结合制作出来的效果图:       如需图片和代码进行练习,可到公众号中发送“国庆头像”即可免费获取 二、实现代码 具体实…

Leetcode242. 有效的字母异位词

力扣(LeetCode)官网 - 全球极客挚爱的技术成长平台 给定两个字符串 s 和 t ,编写一个函数来判断 t 是否是 s 的字母异位词。 注意:若 s 和 t 中每个字符出现的次数都相同,则称 s 和 t 互为字母异位词。 解题思路&#…

第七章 查找 九、B+树

目录 一、定义 二、B树需要满足的条件 三、重要考点 一、定义 1、B树是一种常用的数据结构,用于实现关系型数据库中的索引。 2、其特点是可以在磁盘等外存储器上高效地存储大量数据,并支持快速的查询、插入、删除等操作。 3、B树的结构类似于二叉搜…

TouchGFX之字体缓存

使用二进制字体需要将整个字体加载到存储器。 在某些情况下,如果字体很大,如大字号中文字体,则这样做可能不可取。 字体缓存使应用能够从外部存储器只能加载显示字符串所需的字母。 这意味着整个字体无需保存到在可寻址闪存或RAM上&#xff…

Spring源码分析(四) Aop全流程

一、Spring AOP基础概念 1、基础概念 连接点(Join point):能够被拦截的地方,Spring AOP 是基于动态代理的,所以是方法拦截的,每个成员方法都可以称之为连接点;切点(Poincut):每个方法都可以称之为连接点&…

Muduo网络库之Channel、EPollPoller与EventLoop类【深度解析】

文章目录 前言一、Channel类1、主要成员变量以及函数2、实现原理 二、EPollPoller类1、实现原理 二、EventLoop类1、功能实现SubReactorde的唤醒操作 前言 重新梳理一遍muduo网络库的类与知识点。 Channel、EPollPoller与EventLoop类是muduo库最重要的基础, 他们三…

如何定时备份使用Docker构建的MySQL容器中的数据库

👨🏻‍💻 热爱摄影的程序员 👨🏻‍🎨 喜欢编码的设计师 🧕🏻 擅长设计的剪辑师 🧑🏻‍🏫 一位高冷无情的编码爱好者 大家好,我是 DevO…

多维时序 | MATLAB实现WOA-CNN-GRU-Attention多变量时间序列预测(SE注意力机制)

多维时序 | MATLAB实现WOA-CNN-GRU-Attention多变量时间序列预测(SE注意力机制) 目录 多维时序 | MATLAB实现WOA-CNN-GRU-Attention多变量时间序列预测(SE注意力机制)预测效果基本描述模型描述程序设计参考资料 预测效果 基本描述…

【考研数学】概率论与数理统计 —— 第三章 | 二维随机变量及其分布(1,二维连续型和离散型随机变量基本概念与性质)

文章目录 引言一、二维随机变量及分布1.1 基本概念1.2 联合分布函数的性质 二、二维离散型随机变量及分布三、多维连续型随机变量及分布3.1 基本概念3.2 二维连续型随机变量的性质 写在最后 引言 隔了好长时间没看概率论了,上一篇文章还是 8.29 ,快一个…

【IDEA】IDEA 单行注释开头添加空格

操作 打开 IDEA 的 Settings 对话框(快捷键为CtrlAltS);在左侧面板中选择Editor -> Code Style -> Java;在右侧面板中选择Code Generation选项卡;将Line comment at first column选项设置为false使注释加在行开…

如何设置代理ip服务器地址

在今天的互联网环境中,代理服务器在保护个人隐私和规避网络限制方面扮演着重要的角色。设置代理服务器地址的方式主要取决于你使用的具体软件或编程语言。在本文中,我们将分别介绍如何在Python和Java中使用HTTP代理服务器、SOCKS代理服务器以及代理池。 …

数据结构:堆的简单介绍

目录 堆的介绍:(PriorityQueue) 大根堆:根节点比左右孩子节点大 小根堆:根节点比左右孩子节点小 堆的存储结构: 为什么二叉树在逻辑上用满二叉树结构,而不是普通二叉树呢? 因为如果是普通二叉树会造成资源的浪费​编辑 堆的介绍:(PriorityQueue) 堆又称优先级队列,何为优先…

RocketMQ —消费者负载均衡

消费者从 Apache RocketMQ 获取消息消费时,通过消费者负载均衡策略,可将主题内的消息分配给指定消费者分组中的多个消费者共同分担,提高消费并发能力和消费者的水平扩展能力。本文介绍 Apache RocketMQ 消费者的负载均衡策略。 背景信息​ …

maven中relativepath标签的含义

一 relative标签的含义 1.1 作用 这个<parent>下面的<relativePath>属性&#xff1a;parent的pom文件的路径。 relativePath 的作用是为了找到父级工程的pom.xml;因为子工程需要继承父工程的pom.xml文件中的内容。然后relativePath 标签内的值使用相对路径定位…

【切片】基础不扎实引发的问题

本次文章主要是来聊聊关于切片传值需要注意的问题&#xff0c;如果不小心&#xff0c;则很容易引发线上问题&#xff0c;如果不够理解&#xff0c;可能会出现奇奇怪怪的现象 问题情况&#xff1a; 小 A 负责一个模块功能的实现&#xff0c;在调试代码的时候可能不仔细&#x…

electron之快速上手

前一篇文章已经介绍了如何创建一个electron项目&#xff0c;没有看过的小伙伴可以去实操一下。 接下来给大家介绍一下electron项目的架构是什么样的。 electron之快速上手 electron项目一般有两个进程&#xff1a;主进程和渲染进程。 主进程&#xff1a;整个项目的唯一入口&…

【Java】复制数组的四种方式

1. System.arraycopy() 用来将一个数组的&#xff08;一部分&#xff09;内容复制到另一个数组里面去。 定义&#xff1a; void arraycopy(Object src, int srcPos, Object dest, int destPos, int length);例&#xff1a; int[] arr1 { 1, 2, 3, 4, 5 }; int[] arr2 new…

SpringBoot全局异常处理源码

SpringBoot全局异常处理源码 一、SpringMVC执行流程二、SpringBoot源码跟踪三、自定义优雅的全局异常处理脚手架starter自定义异常国际化引入封装基础异常封装基础异常扫描器&#xff0c;并注册到ExceptionHandler中项目分享以及改进点 一、SpringMVC执行流程 今天这里叙述的全…

基于Java的药品管理系统设计与实现(源码+lw+部署文档+讲解等)

文章目录 前言具体实现截图论文参考详细视频演示为什么选择我自己的网站自己的小程序&#xff08;小蔡coding&#xff09;有保障的售后福利 代码参考源码获取 前言 &#x1f497;博主介绍&#xff1a;✌全网粉丝10W,CSDN特邀作者、博客专家、CSDN新星计划导师、全栈领域优质创作…