β 1. Mode Collapse (λͺ¨λ λΆκ΄΄)
π© Mode Collapseλ?
Mode Collapseλ GANμ μμ±μ(Generator)κ° λ°μ΄ν°μ λ€μν ν¨ν΄μ νμ΅νμ§ λͺ»νκ³ , μ νλ ν¨ν΄λ§ λ°λ³΅μ μΌλ‘ μμ±νλ νμμ μλ―Έν©λλ€.
- μμ:
κ³ μμ΄ μ¬μ§ λ°μ΄ν°μ μΌλ‘ νμ΅μμΌ°λ€λ©΄ λ€μν κ³ μμ΄ μ΄λ―Έμ§λ₯Ό μμ±ν΄μΌ ν©λλ€.
κ·Έλ¬λ Mode Collapseκ° λ°μνλ©΄ μμ±μλ "ν κ°μ§ κ³ μμ΄ μ ν"λ§ λ°λ³΅μ μΌλ‘ μμ±νκ² λ©λλ€.
π μ λ°μν κΉ?
GANμ μμ±μ(Generator)μ νλ³μ(Discriminator)κ° κ²½μνλ ꡬ쑰μ λλ€. μ΄ κ³Όμ μμ:
- μμ±μκ° μ°μ°ν νλ³μλ₯Ό μ μμ΄λ νΉμ ν¨ν΄μ λ°κ²¬ν©λλ€.
- μ΄ ν¨ν΄μ λ°λ³΅ν΄μ μ¬μ©νλ©΄ νλ³μλ₯Ό μμΌ μ μλ€κ³ νμ΅ν©λλ€.
- κ²°κ΅ λ°μ΄ν°μ λ€μμ±μ΄ μ¬λΌμ§κ³ νΉμ λͺ¨λ(ν¨ν΄)μλ§ μ§μ€νκ² λ©λλ€.
β‘οΈ μνμ κ΄μ :
GANμ λͺ©μ μ μ€μ λ°μ΄ν° λΆν¬ pdataμ μμ± λ°μ΄ν° λΆν¬ pgλ₯Ό μΌμΉμν€λ κ²μ λλ€.
νμ§λ§ μ΄ μ΅μ ν κ³Όμ μμ, μμ±μ Gκ° pdataμ μΌλΆ λͺ¨λλ§ κ·Όμ¬ν΄λ νλ³μ Dλ₯Ό μμΌ μ μμ΅λλ€.
μ΄λ‘ μΈν΄ λ°μ΄ν°μ λ€μν ν¨ν΄μ νμ΅νμ§ λͺ»νκ³ λͺ¨λ λΆκ΄΄κ° λ°μν©λλ€.
π ν΄κ²° λ°©λ²:
- Mini-batch Discrimination: λ°°μΉ λ΄ μν κ°μ λ€μμ±μ νκ°νμ¬ μμ±μκ° λ€μν μΆλ ₯μ μμ±νλλ‘ μ λν©λλ€.
- Unrolled GAN: νλ³μμ μ λ°μ΄νΈ κ³Όμ μ λ κΈΈκ²(미리 μ¬λ¬ λ¨κ³) κ³ λ €νμ¬ μμ±μκ° κ³Όλν μ΅μ νμ λΉ μ§μ§ μλλ‘ ν©λλ€.
- Wasserstein GAN (WGAN): μμ±λ λ°μ΄ν°μ μ€μ λ°μ΄ν° κ°μ 거리(metric)λ₯Ό λ³κ²½νμ¬ λ μμ μ μΌλ‘ λΆν¬λ₯Ό λ§μΆ₯λλ€.
β 2. Training Instability (νμ΅ λΆμμ μ±)
π© Training Instabilityλ?
GANμ νμ΅ κ³Όμ μ΄ λΆμμ νκ² μ§λνκ±°λ μλ ΄νμ§ μλ λ¬Έμ λ₯Ό κ²ͺμ μ μμ΅λλ€. μ΄λ‘ μΈν΄:
- λͺ¨λΈμ΄ μλ ΄νμ§ μκ±°λ
- μμ± νμ§μ΄ κ°μκΈ° λλΉ μ§κ±°λ
- νλ³μκ° λ무 κ°ν΄μ§κ±°λ μ½ν΄μ§λ νμμ΄ λ°μν©λλ€.
π μ λ°μν κΉ?
- Gradient Vanishing (κΈ°μΈκΈ° μμ€):
νλ³μκ° λ무 κ°νλ©΄ μμ±μλ λ μ΄μ μ μ©ν νΌλλ°±(κΈ°μΈκΈ°)μ λ°μ μ μμ΅λλ€.
μ΄λ μμ±μμ νμ΅ μλλ₯Ό κ·Ήλλ‘ μ νμν΅λλ€. - Non-Convergence (λΉμλ ΄ λ¬Έμ ):
GANμ λ―Έλλ§₯μ€(minimax) μ΅μ νλ λ³Έμ§μ μΌλ‘ μ΄λ €μ΄ λ¬Έμ μ λλ€.
μμ±μμ νλ³μκ° λμμ νμ΅λλ―λ‘, μ΅μ νκ° κ· νμ μκΈ° μ½μ΅λλ€. - Oscillations (μ§λ νμ):
μμ±μμ νλ³μκ° μλ‘μ λ³νλ₯Ό λ°λΌμ‘μ§ λͺ»νκ³ κ³μ μ§λνκ² λ©λλ€.
μ΄λ‘ μΈν΄ λͺ¨λΈμ΄ μΌμ ν νμ§μ λλ¬νμ§ λͺ»ν©λλ€.
β‘οΈ μνμ κ΄μ :
GANμ Saddle Point Optimization(μμ₯μ μ΅μ ν) λ¬Έμ λ‘, λ§€μ° λ―Όκ°ν νμ΅ νκ²½μ κ°μ§λλ€.
- μ΄ μ΅μ ν λ¬Έμ λ μμ±μ Gμ νλ³μ κ° μλ‘ λ°λ λ°©ν₯μΌλ‘ μμ§μ΄λ ꡬ쑰μ΄λ―λ‘, νμ΅μ΄ μ½κ² λ°μ°νκ±°λ μ§λν μ μμ΅λλ€.
π ν΄κ²° λ°©λ²:
- Wasserstein GAN (WGAN): κΈ°μ‘΄ GANμ κ΅μ°¨ μνΈλ‘νΌ μμ€ λμ Wasserstein 거리λ₯Ό μ¬μ©νμ¬ λ λΆλλ¬μ΄ κΈ°μΈκΈ° νΌλλ°±μ μ 곡ν©λλ€.
- Gradient Penalty: κΈ°μΈκΈ°μ ν¬κΈ°λ₯Ό μ ννμ¬ νμ΅μ΄ κΈκ²©ν λ°μ°νλ κ²μ λ°©μ§ν©λλ€.
- Spectral Normalization: νλ³μμ κ°μ€μΉλ₯Ό μ κ·ννμ¬ νμ΅μ μμ μ±μ λμ λλ€.
- Two Time-Scale Update Rule (TTUR): μμ±μμ νλ³μμ νμ΅ μλλ₯Ό λ€λ₯΄κ² μ‘°μ νμ¬ μμ μ±μ κ°μ ν©λλ€.
- Mode Collapseλ λ€μμ±μ λ¬Έμ μ λλ€.
- Training Instabilityλ νμ΅ κ³Όμ μ λ¬Έμ μ λλ€.
ν΄λΉ κΈμ ChatGPT μ λμμ λ°μ μμ±λ κΈμ λλ€.
'πAI > Terminology' μΉ΄ν κ³ λ¦¬μ λ€λ₯Έ κΈ
[Notable] Low Temperature Samples (0) | 2025.02.05 |
---|---|
[Notable] Evaluation Metrics (0) | 2025.02.04 |
[Notable] Explicit Representation VS Implicit Representation (0) | 2025.01.31 |
[Notable] Differentiable image parameterization, DIP (0) | 2025.01.21 |
[Notable] NeRF vs Voxel vs Mesh (0) | 2025.01.21 |