컨볼루션 스파스 부호화
Convolutional sparse coding![]() |
컨볼루션 스파스 코딩 패러다임은 순환 행렬의 연결로 중복 사전을 모델링하는 전역 스파스 코딩 모델의 확장이다.글로벌 희소성 제약조건은 x R {\ \^{ ×M MN {\ \\mathbbb {NN}}}을 다중 에 기재되어 있습니다.희박한 벡터 에 { \{D} \mathbf 희박한 부호화 모델에서 채택한 대체 사전 구조는 x 패치 국소적으로 희소 우선도를 적용할 수 있다 는textstyle\ 스트라이프 상에서 동작하는 "로컬" 딕셔너리에 의해 생성됩니다.
국소적 희소성 제약은 이전의 글로벌 희소성보다 더 강력한 고유성 및 안정성 조건을 가능하게 하며 이미지 이해 및 컴퓨터 비전 등의 분야에서 역문제를 해결하기 위한 다목적 도구임이 입증되었습니다.또한, 최근에 제안된 모델의 다중 계층 확장은 보다 복잡한 신호 분해를 위한 개념적 이점뿐만 아니라 컨볼루션 뉴럴 네트워크 모델의 긴밀한 연결을 보여주어 후자의 작동 방식을 더 깊이 이해할 수 있게 했습니다.
개요
신호 x R {\ \{R^{ 및 D ×M, N {\ \ { \mathbb 이 주어진 경우, x의 희박한 표현( D \{x} = \ {D} \{Gamma ) 。으로 \mathbf {는 다음과 같이 됩니다 앞의 글로벌 희소성 제약은 이미지 인페인팅, 초해상도 [1][2][3]및 코딩과 같은 많은 잘못된 역방향 문제에 유용한 것으로 나타났다자연 이미지를 포함한 이미지 이해 및 컴퓨터 비전 태스크에 특히 관심이 있어 중복 사전을 효율적으로 추론할 수 있습니다.
글로벌 희소성 제약의 연장선상에서, 문헌의 최근 조각들은 모델의 고유성과 안정성 [6]조건에 대한 보다 심오한 이해에 도달하기 위해 모델을 다시 살펴보았다.흥미롭게도, 앞에 국소 희소성을 부과함으로써, D의 구조는 각 개별 패치 상에서 작동하는 "로컬" 사전으로 이해할 수 있다.이 모델 확장은 convolutional sparse coding(CSC; 컨볼루션 스파스 코딩)으로 불리며 보다 강력한 고유성과 안정성 조건을 특징으로 하면서 신호 표현 추정 부담을 대폭 줄입니다.또한 로컬 방식으로[5] 수행하면서 OMP(Orthonormal Matching Purchase) 및 Basis Purchase(BP)와 같은 투영 경사 강하 알고리즘을 통해 를 효율적으로 추정할 수 있습니다.
역문제의 다양성 외에도, 최근의 노력은 모델의 다층 버전에 초점을 맞추고 여러 기본 [7]표현을 복구하기 위한 신뢰성의 증거를 제공했다.더욱이, 그러한 모델과 잘 확립된 컨볼루션 뉴럴 네트워크 모델(CNN) 사이의 긴밀한 연결이 밝혀져 이론적 조건을 보다 엄격하게 이해할 수 있는 새로운 도구를 제공했다.
컨볼루션 스파스 코딩 모델은 이미지 노이즈 제거, 이미지 인페인팅 및 이미지 초해상도 등 광범위한 역문제를 해결하기 위한 매우 효율적인 도구 세트를 제공합니다.국소 희소성 제약을 가함으로써 분리된 패치를 반복적으로 추정하여 글로벌 신호로 조립함으로써 글로벌 코딩 문제에 효율적으로 대처할 수 있다.또한, 신호 고유의 표현 자체에 희소성 제약을 가함으로써 발생하는 다층 스파스 모델을 채택함으로써, 결과적인 "레이어드" 추적 알고리즘은 단일 레이어 모델로부터 강한 고유성과 안정성 조건을 유지한다.이 확장은 또한 CSC 모델의 이론적 이점이 어떻게 CNN 구조의 강한 수학적 의미를 제공할 수 있는지를 이해할 수 있는 그것의 희소성 선행과 컨볼루션 신경망의 전진 패스 사이의 관계에 대한 몇 가지 흥미로운 개념을 제공한다.
스파스 부호화 패러다임
컨볼루션 스파스 표현 프레임워크를 자세히 설명하기 위해 기본 개념과 모델이 제시된다.희소성 제약이 다른 모델에서 제안되었다는 근거로, 관심 모델까지의 진화를 보여주기 위해 그 제약에 대한 짧은 설명이 제시된다.또한 고유성 안정성 보장을 확립하기 위한 상호 일관성과 제한된 등각 특성 개념도 포함된다.
글로벌 스파스 부호화 모델
신호)∈ RN{\textstyle \mathbf{)}\in\mathbb{R}^{N}}원자의 작은 숫자의 지정된 사전 D에서 RN×M, M을 ∈ 선형 조합으로 표출 될;N\in\mathbb{R}^{N\times M},M>{\textstyle \mathbf{D}, N}. 또는, 이 신호는 x=DΓ{\textsty 표현할 수 있게 하라.르 \ma \D} \mathbf。여기서 M {\ \{R} ^{ {r r r r r r r r r r r r rr r r r th th th to to to to r r {\ R M R M { { { 이후 D{\ 가 주어졌을 때, 무잡음 신호 자체 또는 관찰로부터 \를 복구하는 작업은 스파스 코딩으로 분류된다.무소음 시나리오를 고려하여 부호화 문제는 다음과 같이 공식화된다.
글로벌 스파스 모델의 안정성 및 고유성 보장
})의 스파크를 선형 독립 열의 최소 수로 정의합니다.
그런 다음 삼각 부등식에서 가장 희박한 벡터 \ {는0 < )(\ \{ < {\를 만족합니다대신, 상호 일관성을 D의 원자 간 유사성의 측정값으로 한다. 2 _ -norm 단위 원자를 가정할 때 (\의 상호 일관성은 μ i 로 정의된다. \ \2 서 는 원자입니다.이 메트릭에 기초하여 진정한 스파스 표현 \ \ { Gamma ^ { * } { 0< ( 1+ μ () \ \ \ { ^ { * 1 } {} { fr } { fr } and and and and and and and and if if if if if if if if if if if if if if if if if if if if
마찬가지로 노이즈가 존재하는 경우, 실제 희박한 표현 \와 추정textstyle {\ 사이의 거리에 대한 상한을 제한 등각성(RIP)을 통해 설정할 수 있다.상수가 k})인 k-RIP D(\는( " 2 D text 2 2 ( 1+ " 2 2 2 1 \ textstyle 2)에 } \ 여기서 k \ \ 0 \ \ \ \ { 0=의 부등식을 만족시키는 최소수입니다.그럼 ‖ Γ ‖을 가정해 0<12(1+1μ(D)){\textstyle)\mathbf{\Gamma})_{0}<,{\frac{1}{2}}{\big(}1+{\frac{1}{\mu(\mathbf{D})}}{\big)}}, ‖ Γ ^ − Γ ∗ ‖ 22≤ 4ε 2대 1− μ(D)(2‖ Γ ‖ 0− 1){)\textstyle \mathbf{{\hat{\Gamma 보장된다.}}-\^{
되지 않은 경우 이러한 일반적인 문제를 해결하는 것은 어려운 과제입니다 이는 매우 비용이 많이 드는 크고, 매우 완전한 표현을 배우는 것을 의미합니다.이러한 부담이 충족되고 일반적으로 사전 정보를 바탕으로 주어진 x(\에 대한 대표 사전이 확보되었다고 가정할 때, \ \ \^{*}}는 여러 추적 알고리즘을 통해 추정할 수 있다.
글로벌 스파스 모델에 대한 추적 알고리즘
글로벌 스파스 코딩 문제를 해결하기 위한 두 가지 기본적인 방법은 직교 매칭 추적(OMP)과 기본 추적(BP)입니다.OMP는 x와 전류 추정 사이의 잔차와 가장 잘 연관된 원자를 반복적으로 선택한 후 미리 선택된 원자의 서브셋에 투영하는 탐욕 알고리즘입니다.한편, 베이시스 추구는 원래 코딩 문제를 선형 프로그래밍 문제로 대체하는 보다 정교한 접근법입니다.이 알고리즘을 기반으로 글로벌 스파스 코딩은의 고유성과 안정성을 상당히 느슨하게 제한합니다 이를 극복하기 위해 D \textstyle \ {D보다 더 엄격한 경계와 고유성을 보장하기 위해 D\보다 더 높은 우선순위를 부여합니다.이 속성에 대한 자세한 내용은 (섹션 2)를 참조하십시오.[5]
컨볼루션 스파스 부호화 모형
})의 각 겹치는 부분이 희박하도록 국소적 우선을 채택한다. × N \ \^{N\ Nm} ^ LR × m m be { \ Nmathbbb ^} } ^mathbbb {R} } { 。및 로컬 mN { \ \ \ \ {} ^ {
후자에서 \ \는N(\N)의 분리된 iR \ \{R}) : { {, } textstyle 로 재표현할 수 있다로 { }는 ( {의 연속 i \ _의세트라고 합니다.그런 다음 x{\{의 각 불연속 세그먼트는 과 표현됩니다. 여기서 는 i {x} \D} \mathbf {} \ n입니다. n이 색인 i i부터 시작됩니다.따라서 D에는 0이 아닌 (-)개의열만 포함됩니다.따라서 R ( -) × N \ \{ { } \ \ { ( Nm}을 도입하여 이들을 배타적으로 보존합니다.
컨볼루션 스파스 모델의 안정성 및 고유성 보장
그 지역적으로 접근을 위해, D{\textstyle \mathbf{D}}상호 코히 런스가:해결 방법이‖ Γ ‖ 0,∞<>께 복종한다μ(D).}그래서 − 1=1/2.{\textstyle\mu(\mathbf{D})\geq{\big(}{\frac{m-1}{m(2n-1)-1}}{\big)}^{1/2}(m− 1m(2n− 1)≥ 12(1+1μ(D)){\t.내선} \ <\{big "\style 에 대한 가장 희박한 솔루션입니다.따라서 로컬 공식에서는 각 스트라이프에 대해 풀 벡터 대신 동일한 수의 비제로가 허용됩니다!
글로벌 모델과 마찬가지로 CSC는 OMP 및 BP 방법을 통해 해결됩니다.후자는 추구를 보다 작은 문제로 분할하기 위해 반복 수축 임계값 알고리즘(ISTA)[8] 사용을 고려합니다.해결 방법이 Γ{\textstyle \mathbf{\Gamma}은 ℓ 0에 따르면,∞{\textstyle \ell_{0,\infty}}pseudonorm,}‖ Γ ‖ 0,∞<12(1+1μ(D)){\textstyle)\mathbf{\Gamma})_{0,\infty}<,{\frac{1}{2}}{\big(}1+{\frac{1}{\mu(\mathbf{D})}}{\big)}}둘 다 만족하는 존재한다.필로폰ods는 복구가 보증됩니다.또한 로컬 모델은 § _ 이전과는 달리 신호 차원과 독립적으로 복구를 보장합니다.만약 그것의 정확한 회복 상태(내시경 적역 행성 담관 조영 법)지원 T{\textstyle{{T\mathcal}을}}일정한 θ{\theta\textstyle}에 부닥치고 있OMP과 영국 석유 회사 안정성 조건은 내시경 적역 행성 담관 조영술 θ:)정의된다 보장된다 1− max나는 ∉ T‖ DT† d나는 ‖ 1>0{\textstyle\theta =1-{\underset{i\notin{\m.에서입니다. \ \dagger 는 유사역전을 나타냅니다.알고리즘 1은, ISTA에 근거하는 글로벌 퍼슈트 방식을 나타내고 있습니다.
알고리즘 1: 로컬 반복적인 소프트 임계값 홀딩을 통한 1D CSC.
입력:
L\ : 로컬 사전,
: 관찰,
\ : 정규화 ,
c 스텝사이즈ISTA
,
tol
: 공차 계수,
maxiters
: 최대 반복 횟수.
- i ( ) { × {\{{\alpha \{\ 1 (분리 패치 초기화)
- i ( ) { y { \ { \ { { } \ }^{ ( 0 ) } \ \ { \ { } _ { i } \ {} ( 잔여 패치 초기화)
따라하다
- (분리된 패치에 따른 코드화)
- i {\{\{{ ^ (k ) R D (k ) \ { x } } ^{ ( k ) \_ { } \ { R } { r } { r패치집약)
- ( ) ( - () { )} \ {R} _{ {\ { - {y}} } ← {{} levigetsets \ hat {rets\mathbf {rets} {rets} {rets} {rets} } {rechat {R} {
까지 tol
k \ k> } maxiters
.
다층 컨볼루션 스파스 부호화 모델
x 의 구조에 선행하는 희소성을 부여함으로써 고유한 표현을 위한 강력한 조건과 이를 추정하기 위한 실행 가능한 방법을 부여한다.마찬가지로, 그러한 제약은 그것의 표현 자체에 적용될 수 있으며, 연속적인 스파스 표현을 생성한다.각 코드는 주어진 컨볼루션 사전 세트의 몇 개의 원자에 의해 정의됩니다.
이 기준에 기초하여 또 다른 확장명칭 mlti-layer convolution sparse coding(ML-CSC)이 제안된다.분석사전 {D K {\ \}는 효율적으로 설계할 수 있으며, 여기서 각 계층 {\=}^{K}^{K}}는 보장된다.즉, 사전을 단일 요소가 아닌 스트라이드 컨볼루션 매트릭스(즉, 로컬 딕셔너리의 원자가 m{ m 요소 )로 간주함으로써 m m은 이전 레이어의 채널 수에 대응하므로 \가 보증됩니다.} \ }} 계층에 따른 표현의 규범에는 한계가 있다.
예를 들어 R × N 1 × 2\ \ { { { { } \ \{ R { \ Nm 1} , \ { } \ { D } \ ^ { { D } } \ ^ { D } } ^ { D } \ mathb } ^ { { D } } } } { { 1}\ {_{1 {2}\ { {{2}}. 여기서 1 { \mathbf \gamma1}는 스퍼스 코드이며, 1 { \mathbf }는 \mathbf {D입니다.그런 다음, 각 표현의 추정은 각각 무소음 시나리오와 무소음 손상 시나리오 모두에 대한 최적화 문제로 공식화된다. 0 \ {}=\로 가정할 때:
다음 내용에서는 이 확장 모델의 고유성과 안정성에 대한 이론적 보증이 설명된다.
정리 1: (소수 표현의 고유성) x {\이 (){} i 1 {\textstyle _1}^{K 을 갖는 컨볼루션사전 에 대한 (ML-CSC) 모델을 만족한다고 생각하십시오.)\와 같이}_{i=1}^{K}}. 만약 진정한 보다 표현{Γ}을 충족하는 나는 갈1K<12(1+1μ(D나는)){\textstyle\와 같이{\mathbf{\Gamma})}_{i=1}^{K}<,{\frac{1}{2}}{\big(}1+{\frac{1}{\mu(\mathbf{D}_{나는})}}{\big)}}, 그 다음에 바로 그 문제에 대한 해결책{나는 ^ Γ}나는 1K{)\textstyle{{정도씩 생겨나고 있다.\hat{}은 (는) 다음 문턱값이 충족되도록 선택되었을 경우 고유 솔루션이 . i < + (Di \ \_ {} < + μ ( ) { i } { ( 1 \ { 1 \ frac } } } { \ }
정리 2: (노이즈 방지 시나리오의 글로벌 안정성) x(\가 컨볼루션사전 { K({ 에 대한 (ML-CSC) 모델을 만족한다고 가정합니다.2≤ ε 0{\textstyle)\mathbf{E})_{2}\leq \varepsilon _{0}}. Y의 결과)X+E{\textstyle \mathbf{Y=X+E}}. 만약 λ 나는 < 12(1+1μ(D나는)){\textstyle \lambda_{나는}<,{\frac{1}{2}}{\big(}1+{\frac{1}{\mu(\mathbf{D}_{나는})}}{\big)}}과 ε 나는 2=4ε 나는 12−. 1− i‖ , - )( \ \_ { }^{4 \ { i - 1 }{ 1 - \ \ { _ { i } _ { 0 , } - )- ^ i 2^ 2 ^ i 2 ^ ^ 2{\ 2 \ \ } - { i } - { \ { \ } }_ { } \ { i \ \ { i ^ { i } { i ^ { i
투영 기반 알고리즘
§(\textstyle _ 또는 § _ 규범을 통해 ML-CSC 문제를 해결하기 위한 간단한 접근법은 x와 사전 원자 의 내적을 계산하여 가장 대표적인 것을 식별하는 것이다.이러한 예측은 다음과 같이 설명된다.
하드 T {^{ 및 소프트 임계값 x {\{\을 통해 닫힌 형식 솔루션을 가진다.음이 아닌 제약조건도 고려되는 경우, 는 {1 규범을 통해 다음과 같이 표현될 수 있다.
정리 3: (다중접속 소프트 컨버전스 알고리즘의 안정적인 회복) { 1 {\ { _k} 상호 = 1 K {\textstyle \{\mathbf {Dk}} ={k={k}에 대해(ML-CSC) 모델을 만족하는 x {\{를 고려합니다.는 E(\에 오염되어 있습니다. 여기서 E 0 0 { \ } \\ _ { . +E \ {} .{ _} in in {\max{\ {\ {\ {\ {\ {\ {\ {\ {\ {\ in in in in in in in inin in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in in르 \{\beta_{나는}\}_{i=1}^{K}}. 만약 ‖ Γ 나는 0‖,∞<>나의 Γ 나의)− 1μ(Di)ε 거야. 나는{\textstyle)\mathbf{\Gamma}_{나는}\ _{0,\infty}< max 1Γ −{\frac{1}{2}}{\big(}1+{\frac{1}{\mu(\mathbf{D}_{12(1+1μ(D나는)Γ.나는})}}{{ \{ \ { }^ \ { \ { { } } - { \ { 1 { \ ( \ { D}_ { i } } } } } { \ { \ fr { \ i } } } } { \ } }
컨볼루션 뉴럴 네트워크 연결
훈련 및 추론 단계에서 모두 사용되는 컨볼루션 뉴럴 네트워크 모델의 전진 패스를 떠올려 보십시오. 1{\ \ \} } W N× {\ \ { 에서 입력으로 합니다. b R (\ \})의 경우, K K를 예로 들면 다음과 같이 표현될 수 있다.
다음에서 설명한 바와 같이 코드화 문제를 해결하는 이 순진한 접근법은 ML-CSC 모델을 위한 보다 안정적인 투영 경사 강하 알고리즘의 특별한 경우이다.두 접근법의 안정성 조건을 갖추면 CNN이 회복할 수 있는 신호의 등급, 어떤 소음 조건에서 정확하게 추정할 수 있는지, 이론적 조건을 개선하기 위해 CNN의 구조를 어떻게 수정할 수 있는지에 대한 보다 명확한 이해가 이루어진다.접속에 대한 자세한 내용은 (섹션 5)를 [7]참조해 주십시오.
다층 CSC 모델의 추적 알고리즘
포워드 패스의 중요한 한계는 DCP 문제의 고유한 해결책을 복구할 수 없다는 것입니다.따라서, 각 계층에서 임계값화 접근법을 사용하는 대신, 완전한 추적 방법인 LBP(Digned Layered Basis Purchase, LBP)를 채택한다.§ 볼에 투영된 것을 고려하면 다음과 같은 문제가 제안된다.
정리 4: (복구 보증) 희소벡터 집합 { K {\ _ 컨볼루션사전 { \i} K로 특징지어지는 x {\ {x을 고려합니다.Ual coherences 나는 1K{\textstyle\와 같이{\mu{\big(}\mathbf{D}_{나는}{\big)}\}_{i=1}^{K}원}. 만약 ‖ Γ 나는 0,∞<>‖ 12(1+1μ(D나는))_{나는}\ _{0,\infty}<{\textstyle)\mathbf{\Gamma},{\frac{1}{2}}{\big(}1+{\frac{1}{\mu(\mathbf{D}_{나는})}}{\big)}}, 다음{μ(Di)}.LBPlgorithm은 sparse 표현을 회복하는 것을 보증합니다.
정리 5: (노이즈 존재 시 안정성) Y + (\ =\ (여기서 E 0 , 0\ \ \ 를 고려합니다. = {\textstyle \{\ {}^{K 및 컨볼루션 { = {textstyle \{\ {_{i}^{K=}{ξ}나는}. 만약 ‖ Γ 나는 0,∞<>‖고;13(1+1μ(D나는))_{나는}\ _{0,\infty}<{\textstyle)\mathbf{\Gamma},{\frac{1}{3}}{\big(}1+{\frac{1}{\mu(\mathbf{D}_{나는})}}{\big)}}과 ξ 나는 나는}1{\textstyle \xi_{나는}=4\varepsilon _{i-1}− 4ε, 갈1K{\textstyle\와 같이{\xi)}_{i=1}^{K}정도씩 생겨나고 있다.그리고나서: (i) (ii) - ^ \ 。 및 (iii) 이 보다 큰 엔트리는 반드시 복구됩니다.{ {{ _ { } { \ \ { { \ { \ }} 。
컨볼루션 스파스 부호화 모델의 응용: 이미지 인페인팅
실시 예로서 CSC 모델을 통한 컬러 화상의 효율적인 화상 인페인팅 방법이 [6]제시된다.3채널 DR N × M × \ \ ^ { N \ M \ 3 (서 m \ \ { { c , )는 채널의 m m \ m, m} -atom { d- atom { times m의 신호를 나타냅니다. 스파스 표현 {\{{i {\ \ {}} {\ _i} {{textstyle\} {\mathbf} {g} {g} {i} {g} {\mathb} {textsty} 로 표시된 스트라이프가 있는 경우임펄스 노이즈와 같은 방법으로 로케이션이 0으로 고정됩니다.문제는 다음과 같이 공식화됩니다.
알고리즘 2: 컨볼루션 스파스 코딩 모델을 통한 컬러 이미지 인페인팅.
입력:
^ , \ { \} } } _ { , : 컨볼루션 c, \ \ { } , ,
{ r , , b { \ } = \ { \ } _ { } , \ { { } , \ \} : 색상 관찰,
\ : 정규화 ,
}, 스텝사이즈ADMM
,
tol
: 공차 계수,
maxiters
: 최대 반복 횟수.
따라하다
까지tol
i \ i } maxiters
.
레퍼런스
- ^ Jianchao Yang; Wright, John; Huang, Thomas S; Yi Ma (November 2010). "Image Super-Resolution Via Sparse Representation". IEEE Transactions on Image Processing. 19 (11): 2861–2873. Bibcode:2010ITIP...19.2861Y. doi:10.1109/TIP.2010.2050625. PMID 20483687. S2CID 8187730.
- ^ Wetzstein, Gordon; Heidrich, Wolfgang; Heide, Felix (2015). "Fast and Flexible Convolutional Sparse Coding": 5135–5143.
{{cite journal}}
:Cite 저널 요구 사항journal=
(도움말) - ^ Wohlberg, Brendt (2017). "SPORCO: A Python package for standard and convolutional sparse representations". Proceedings of the 16th Python in Science Conference: 1–8. doi:10.25080/shinma-7f4c6e7-001.
- ^ Mairal, Julien; Bach, Francis; Ponce, Jean; Sapiro, Guillermo (2009). "Online Dictionary Learning for Sparse Coding". Proceedings of the 26th Annual International Conference on Machine Learning. ACM: 689–696. doi:10.1145/1553374.1553463. hdl:11299/180118. ISBN 9781605585161. S2CID 7027533.
- ^ a b c Papyan, Vardan; Sulam, Jeremias; Elad, Michael (1 November 2017). "Working Locally Thinking Globally: Theoretical Guarantees for Convolutional Sparse Coding". IEEE Transactions on Signal Processing. 65 (21): 5687–5701. arXiv:1707.06066. Bibcode:2017ITSP...65.5687P. doi:10.1109/TSP.2017.2733447. S2CID 11214580.
- ^ a b c d Wohlberg, Brendt (6–8 March 2016). "Convolutional sparse representation of color images". 2016 IEEE Southwest Symposium on Image Analysis and Interpretation (SSIAI): 57–60. doi:10.1109/SSIAI.2016.7459174. ISBN 978-1-4673-9919-7. S2CID 9923572.
- ^ a b c Papyan, Vardan; Romano, Yaniv; Elad, Michael (2017). "Convolutional Neural Networks Analyzed via Convolutional Sparse Coding". J. Mach. Learn. Res. 18 (1): 2887–2938. arXiv:1607.08194. Bibcode:2016arXiv160708194P. ISSN 1532-4435.
- ^ Beck, Amir; Teboulle, Marc (January 2009). "A Fast Iterative Shrinkage-Thresholding Algorithm for Linear Inverse Problems". SIAM Journal on Imaging Sciences. 2 (1): 183–202. doi:10.1137/080716542.
- ^ Boyd, Stephen (2010). "Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers". Foundations and Trends in Machine Learning. 3 (1): 1–122. doi:10.1561/2200000016. ISSN 1935-8237.