1727 words
9 minutes
超解像技術
2025-08-17
NOTE

本稿は,以下のサーベイ論文に基づいている.

  • B. B. Moser, F. Raue, S. Frolov, S. Palacio, J. Hees and A. Dengel, “Hitchhiker’s Guide to Super-Resolution: Introduction and Recent Advances,” in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 45, no. 8, pp. 9862-9882, Aug. 2023, doi: 10.1109/TPAMI.2023.3243794.

要旨#

超解像(SR)は,低解像度画像を高解像度画像へと変換する技術であり,自然画像,衛星画像,医療画像など幅広い応用を持つ.ディープラーニングの進展により大きな成果が得られているものの,低解像度と高解像度の対応関係が不確定であるため,本質的に困難な課題である.本稿では,ディープラーニング手法に特化し,近年注目を集める動向を整理する.具体的には,不確実性を考慮した損失関数,画質評価法の進展,新しいデータセット,拡散モデル,正規化技術,ニューラルアーキテクチャ探索などを対象とする.さらに,定義・評価指標,データセット,損失関数,アップサンプリング手法,アテンション機構,学習戦略,モデル構造,教師なしSR,および今後の研究課題について体系的に解説する.

問題定義#

超解像(SR; Super-Resolution)手法は,低解像度(LR; Low-Resolution)画像から高解像度(HR; High-Resolution)画像を生成する.主なアプローチとして,Single Image Super-Resolution (SISR)と多画像超解像Multi-Image Super-Resolution (MISR)の2種類がある.

SISR#

SISRの目的は,与えられた低解像度画像xRwˉ×hˉ×c\bf{x}\in\R^{\bar{w}\times\bar{h}\times c}を高解像度画像yRw×h×c,(wˉw,hˉh)y\in\R^{w\times h\times c}, (\bar{w}\le w, \bar{h}\le h)に拡大することである.また,Nx=whcN_{\bf{x}}=whcを画像xRw×h×c\bf{x}\in\R^{w\times h\times c}の画素数とし,Ωx\Omega_{\bf{x}}x\bf{x}における全ての有効な位置の集合とする.

Ωx={(i,j,k)N13ih,jw,kc}\Omega_{\bf{x}}= \{ (i,j,k)\in\N_1^3 | i\le h,j\le w,k\le c \}

sN1s\in\N_1をスケーリング係数とすると,h=shˉ,w=swˉh=s\bar{h},w=s\bar{w}である.さらに,D:Rw×h×cRwˉ×hˉ×c\mathcal{D}:\R^{w\times h\times c}\to \R^{\bar{w}\times \bar{h}\times c}を,LR(x)LR(\bf{x})HR(y)HR(\bf{y})の2つのエンティティ間の固有の関係を記述する劣化マッピングとする.

x=D(y;δ)\bf{x}=\mathcal{D}(\bf{y}; \delta)

ここで,δ\deltaは,例えば,スケーリング係数ssやぼかしタイプのような他の要素を含むD\mathcal{D}のパラメータである.

実際には,劣化マッピングはしばしば未知ため,例えばバイキュービックダウンサンプリングでモデル化される.SISRの難しい課題は,D\mathcal{D}の逆マッピングを実行することである.残念ながら,1つのLR画像が複数の非同一のHR画像につながる可能性があるため,この問題は不十分である.目標はSRモデルM\mathcal{M}を見つけることである.M:Rwˉ×hˉ×cRw×h×c,s.t.:\mathcal{M}:\R^{\bar{w}\times\bar{h}\times c}\to\R^{w\times h\times c}, s.t.:

y^=M(x;θ)\hat{\bf{y}}=\mathcal{M}(\bf{x}; \theta)

ここで,y^\hat{\bf{y}}はLR画像x\bf{x}の予測されたHR近似であり,θ\thetaはモデルM\mathcal{M}のパラメータである.

ディープラーニング(DL; Deep Learning)の場合,これは,与えられた損失関数L\mathcal{L}の下での推定y^\hat{\bf{y}}とグランドトゥルースHR画像y\bf{y}の差を最小化する目的最適化に変換される.

θ^=arg minθL(y^,y)\hat{\theta}=\argmin_\theta \mathcal{L}(\hat{\bf{y}},\bf{y})
TIP

Multi-Image Super-Resolution (MISR)について追記予定

目的関数#

回帰ベースの目的関数#

回帰ベースの目的関数は,入力と出力の関係を明示的にモデル化することを目指す.SRモデルのパラメータはデータから直接推定され,通常はL1L1またはL2L2損失を最小化することで学習される.これらの損失関数は適用が容易だが,生成される画像はぼやけやすい.この欠点を軽減する方法の一つとして,損失関数自体に不確実性を組み込む手法がある.

ピクセル損失#

ピクセル損失は画素ごとの差を測定するもので,文献でよく知られているものにL1L1損失(平均絶対誤差:MAE)がある.

LL1(y,y^)=1NypΩyypy^p\mathcal{L}_\text{L1}(\bf{y},\hat{\bf{y}})=\frac{1}{N_y}\sum_{p\in\Omega_{\bf{y}}}|\bf{y}_p-\hat{\bf{y}}_p|

L1L1損失は両画像の各画素の絶対差を取り,その平均値を返す.もう一つよく知られたピクセル損失はL2L2損失(平均二乗誤差:MSE)で,差を二乗するため,大きな差をより重く評価する.

LL2(y,y^)=1NypΩyypy^p2\mathcal{L}_\text{L2}(\bf{y},\hat{\bf{y}})=\frac{1}{N_y}\sum_{p\in\Omega_{\bf{y}}}|\bf{y}_p-\hat{\bf{y}}_p|^2

文献ではL2L2よりL1L1損失の方が一般的である.理由は,L2L2は極端な値に敏感で,低い値では平滑化されすぎ,高い値では変動が大きくなるためである.用途や条件に応じた変種もあり,その一つにCharbonnier損失 がある.

LCharbonnier(y,y^)=1NypΩyypy^p2+ϵ2\mathcal{L}_\text{Charbonnier}(\bf{y},\hat{\bf{y}})=\frac{1}{N_y}\sum_{p\in\Omega_{\bf{y}}} \sqrt{|\bf{y}_p-\hat{\bf{y}}_p|^2+\epsilon^2}

Charbonnier損失では,0<ϵ10<\epsilon \ll1の小さな定数を用いて内部の値がゼロにならないようにしている.L1L1損失はϵ=0\epsilon=0の場合の特別なケースと見なせる. ピクセル損失関数はピクセル差に基づくため高い PSNR を得やすいが,主観的な画質との相関は低く,生成画像はぼやけがちである.この問題を改善する一つの方法は 不確実性を導入すること である.

不確実性に基づいた損失#

深層学習において不確実性をモデル化することは,性能やロバスト性の向上につながる.そのため,NingらはSISRのために適応的重み付き損失を提案した.この損失関数は,平坦領域よりも視覚的に重要なテクスチャやエッジの画素に重点を置くため,各画素を不均等に扱う.また,変分オートエンコーダ(VAE)の考え方を取り入れ,まず不確実性を推定する.具体的には,SRモデルM\mathcal{M}(パラメータθ\thetaを持つ)が,平均画像μθ(x)\mu_\theta(x)と分散画像σθ(x)\sigma_\theta(x)(不確実性)を学習し,それに基づいて近似画像y^\hat{\bf{y}}を生成する.

y^=M(x;θ)=μθ(x)=y^μ+ϵσθ(x)=y^σ\hat{\bf{y}}=\mathcal{M}(\bf{x}; \theta) =\underbrace{\mu_\theta(\bf{x})}_{=\hat{\bf{y}}_\mu} +\epsilon\cdot \underbrace{\sigma_\theta(\bf{x})}_{=\hat{\bf{y}}_\sigma}

ここで,σN(0,I)\sigma\sim\mathcal{N}(\bf{0},\bf{I}).多くの深層学習ベースのSISR手法は平均画像y^μ\hat{\bf{y}}_\muのみを推定するが,Ningらは不確実性y^σ\hat{\bf{y}}_\sigmaも同時に推定する手法を提案した.彼らは,SISRでは平坦な領域が多いため不確実性が疎であるという観察に基づき,疎な不確実性を推定するためのESU(Estimating Sparse Uncertainty)損失を提示した.

LESU(y,y^)=exp(lny^σ)yy^1+2lny^σ\mathcal{L}_\text{ESU}(\bf{y},\hat{\bf{y}}) =\exp(-\ln \hat{\bf{y}}_\sigma)\cdot \|\bf{y}-\hat{\bf{y}}\|_1 +2\ln \hat{\bf{y}}_\sigma

Ningらは,LESU\mathcal{L}_\text{ESU}がSISRの性能を低下させることを確認し,SISRには適さないと判断した.その上で,不確実性推定を有効に活かすには,不確実性の高い画素を優先する必要があると結論づけた.結果として,彼らは「不確実性駆動損失(UDL: Uncertainty-Driven Loss)」を提案し,exp(lny^σ)\exp(-\ln \hat{\bf{y}}_\sigma)の代わりに単調増加関数を用いた.

LUDL(y,y^)=[lny^σmin(lny^σ)]yy^1\mathcal{L}_\text{UDL}(\bf{y},\hat{\bf{y}}) =[\ln \hat{\bf{y}}_\sigma-\min(\ln \hat{\bf{y}}_\sigma)]\cdot \|\bf{y}-\hat{\bf{y}}\|_1

ここで,[lny^σmin(lny^σ)][\ln \hat{\bf{y}}_\sigma-\min(\ln \hat{\bf{y}}_\sigma)]は,非負の線形スケーリング関数である.

TIP

GANs(Generative Adversarial Networks)について追記予定

参考文献#

  • B. B. Moser, F. Raue, S. Frolov, S. Palacio, J. Hees and A. Dengel, “Hitchhiker’s Guide to Super-Resolution: Introduction and Recent Advances,” in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 45, no. 8, pp. 9862-9882, Aug. 2023, doi: 10.1109/TPAMI.2023.3243794.
超解像技術
https://sql-hkr.github.io/blog/posts/ai/super-resolution/
Author
sql-hkr
Published at
2025-08-17
License
CC BY-NC-SA 4.0