当前位置: 首页 > news >正文

第 8 期:条件生成 DDPM:让模型“听话”地画图!

本期关键词:Conditional DDPM、Class Embedding、Label Control、CIFAR-10 条件生成

什么是条件生成(Conditional Generation)?

在标准的 DDPM 中,我们只是“随机生成”图像。

如果我想让模型生成「小狗」怎么办?

这就要给模型添加“引导”——标签或文字,这种方式就叫 条件生成(Conditional Generation)

条件扩散的原理是什么?

我们要将类别信息 y 加入到模型中,使预测的噪声满足条件:

也就是说,模型要知道当前是“第几类”的图像,从而引导去噪方向。

实现思路:

  1. 将标签 y 进行嵌入(embedding);

  2. 将其与时间步编码、图像特征一起送入网络中。

修改 UNet 支持条件标签

我们对 UNet 加一点“料”——标签 embedding。

class ConditionalUNet(nn.Module):def __init__(self, num_classes, time_dim=256):super().__init__()self.time_embed = nn.Sequential(SinusoidalPositionEmbeddings(time_dim),nn.Linear(time_dim, time_dim),nn.ReLU())self.label_embed = nn.Embedding(num_classes, time_dim)self.conv0 = nn.Conv2d(3, 64, 3, padding=1)self.down1 = Block(64, 128, time_dim)self.down2 = Block(128, 256, time_dim)self.bot = Block(256, 256, time_dim)self.up1 = Block(512, 128, time_dim)self.up2 = Block(256, 64, time_dim)self.final = nn.Conv2d(64, 3, 1)def forward(self, x, t, y):t_embed = self.time_embed(t)y_embed = self.label_embed(y)cond = t_embed + y_embed  # 条件融合x0 = self.conv0(x)x1 = self.down1(x0, cond)x2 = self.down2(x1, cond)x3 = self.bot(x2, cond)x = self.up1(torch.cat([x3, x2], 1), cond)x = self.up2(torch.cat([x, x1], 1), cond)return self.final(x)

 我们为标签添加了一个 nn.Embedding,并与时间编码相加作为“条件向量”注入。

修改训练函数支持 label

def get_conditional_loss(model, x_0, t, y):noise = torch.randn_like(x_0)x_t = q_sample(x_0, t, noise)pred = model(x_t, t, y)return F.mse_loss(pred, noise)

训练主循环如下:

for epoch in range(epochs):for x, y in dataloader:x = x.to(device)y = y.to(device)t = torch.randint(0, T, (x.size(0),), device=device).long()loss = get_conditional_loss(model, x, t, y)optimizer.zero_grad()loss.backward()optimizer.step()

条件生成代码:指定类别生成图像!

@torch.no_grad()
def sample_with_labels(model, label, num_samples=16, img_size=32, device='cuda'):model.eval()x = torch.randn(num_samples, 3, img_size, img_size).to(device)y = torch.tensor([label] * num_samples).to(device)for i in reversed(range(T)):t = torch.full((num_samples,), i, device=device, dtype=torch.long)noise_pred = model(x, t, y)alpha = alphas_cumprod[t][:, None, None, None]sqrt_alpha = torch.sqrt(alpha)sqrt_one_minus_alpha = torch.sqrt(1 - alpha)x_0_pred = (x - sqrt_one_minus_alpha * noise_pred) / sqrt_alphax_0_pred = x_0_pred.clamp(-1, 1)if i > 0:noise = torch.randn_like(x)beta_t = betas[t][:, None, None, None]x = sqrt_alpha * x_0_pred + torch.sqrt(beta_t) * noiseelse:x = x_0_predreturn x

可视化指定类别的生成图像

samples = sample_with_labels(model, label=3, num_samples=16)  # e.g., cat
samples = (samples.clamp(-1, 1) + 1) / 2
grid = torchvision.utils.make_grid(samples, nrow=4)plt.figure(figsize=(6, 6))
plt.imshow(grid.permute(1, 2, 0).cpu().numpy())
plt.axis('off')
plt.title("Generated Class 3 (Cat)")
plt.show()

CIFAR-10 类别索引(参考)

类别编号类别名称
0airplane
1automobile
2bird
3cat
4deer
5dog
6frog
7horse
8ship
9truck

总结

在本期中,我们学习了如何:

  • ✅ 在 UNet 中添加类嵌入;

  • ✅ 修改损失函数以支持标签;

  • ✅ 实现条件采样生成指定类别图像;

  • ✅ 可视化生成效果。

第 9 期预告:「CLIP + Diffusion」文本条件扩散!

下一期我们将解锁 文字引导生成图像 的能力,用一句话生成图像!

“一只戴着墨镜冲浪的柴犬”将成为现实!

 

http://www.xdnf.cn/news/13285.html

相关文章:

  • Hadoop的三大结构及各自的作用?
  • TDengine Restful 接口API
  • excel解析图片pdf附件不怕
  • ESP8266简单介绍
  • 2025年山东燃气瓶装送气工考试真题练习
  • MCP协议量子加密实践:基于QKD的下一代安全通信(2025深度解析版)
  • 从数字化到智能化,百度 SRE 数智免疫系统的演进和实践
  • MCP(Model Context Protocol 模型上下文协议)科普
  • vue 中formatter
  • 2025-04-18 李沐深度学习3 —— 线性代数
  • yarn的三大组件及各自作用
  • easyexcel使用模板填充excel坑点总结
  • Kotlin协程Semaphore withPermit约束并发任务数量
  • chili3d调试笔记3 加入c++ 大模型对话方法 cmakelists精读
  • PY32F003+TIM+外部中断实现对1527解码
  • 【Test Test】灰度化和二值化处理图像
  • 6TOPS算力NPU加持!RK3588如何重塑8K显示的边缘计算新边界
  • 嵌入式音视频开发指南:从MPP框架到QT实战全解析
  • 3D 视觉赋能仓储精准高效:ID Logistics 与 Stereolabs 的创新合作之旅
  • Java开发中的常用注解
  • 字符串系列一>最长回文子串
  • 给予FLUX更好的控制:FLUX.1-dev-ControlNet-Union-Pro-2.0
  • Redis——网络模型之IO讲解
  • 大模型微服务架构模块实现方案,基于LLaMA Factory和Nebius Cloud实现模型精调的标准流程及代码
  • Android——动画
  • IPTV电视信息发布直播点播系统:营造数字化个性化融合化多媒体IPTV电视信息发布平台
  • 预训练与微调:大模型如何“学习知识”?
  • Python 网络爬虫基础理论与实战指南
  • 【每日八股】复习计算机网络 Day1:TCP 的头部结构 + TCP 确保可靠传输 + TCP 的三次握手
  • 【漫话机器学习系列】209.均值的标准误差(Standard Error of the Mean)