{Reship}{Sparse Representation}稀疏表示入门

时间:2023-12-27 19:34:43

声明:本人属于绝对的新手,刚刚接触“稀疏表示”这个领域。之所以写下以下的若干个连载,是鼓励自己不要急功近利,而要步步为赢!所以下文肯定有所纰漏,敬请指出,我们共同进步!

踏入“稀疏表达”(Sparse Representation)这个领域,纯属偶然中的必然。之前一直在研究压缩感知(Compressed Sensing)中的重构问题。照常理来讲,首先会找一维的稀疏信号(如下图)来验证CS理论中的一些原理,性质和算法,如测量矩阵为高斯随机矩阵,贝努 利矩阵,亚高斯矩阵时使用BP,MP,OMP等重构算法的异同和效果。然后会找来二维稀疏信号来验证一些问题。当然,就像你所想的,这些都太简单。是的, 接下来你肯定会考虑对于二维的稠密信号呢,如一幅lena图像?我们知道CS理论之所以能突破乃奎斯特采样定律,使用更少的采样信号来精确的还原原始信 号,其中一个重要的先验知识就是该信号的稀疏性,不管是本身稀疏,还是在变换域稀疏的。因此我们需要对二维的稠密信号稀疏化之后才能使用CS的理论完成重 构。问题来了,对于lena图像这样一个二维的信号,其怎样稀疏表示,在哪个变换域上是稀疏的,稀疏后又是什么?于是竭尽全力的google…后来发现了 马毅的“Image Super-Resolution via Sparse Representation”(IEEE Transactions on Image Processing,Nov.2010)这篇文章,于是与稀疏表达的缘分开始啦! [break] 谈到稀疏表示就不能不提下面两位的团队,Yi Ma ANDElad Michael,国内很多高校(像TSinghua,USTC)的学生直奔两位而去。(下图是Elad M的团队,后来知道了CS界大牛Donoho是Elad M的老师,怪不得…)其实对于马毅,之前稍有了解,因为韦穗老师,我们实验室的主任从前两年开始着手人脸识别这一领域并且取得了不错的成绩,人脸识别这个 领域马毅算是大牛了…因此每次开会遇到相关的问题,韦老师总会提到马毅,于是通过各种渠道也了解了一些有关他科研和个人的信息。至于Elad.M,恕我直 言,我在踏入这个领域其实真的完全不知道,只是最近文章看的比较多,发现看的文章中大部分的作者都有Elad,于是乎,好奇心驱使我了解了这位大牛以及他 的团队成员…也深深的了解到了一个团队对一个领域的贡献,从Elad.M那儿毕业的学生现在都成了这个领域中的佼佼者…不禁感叹到:一个好的导师是多么的 重要!!下面举个简单的例子,说说二维信号的稀疏性,也为后面将稀疏表示做个铺垫。我们以一幅大小为256×256的Lena图像为例,过完备字典 (Dictionary,具体含义见后文,先理解为基吧,其实不完全等同)选择离散余弦变换DCT,字典大小选择64×256,对图像进行分块处理,由于 仅仅为了说明稀疏性的概念,所以不进行重叠处理,每块大小8×8(pixel)…简单的稀疏表示后的稀疏如下图。可以看出,绝大多数的稀疏集中在0附近。 当然,这里仅仅是简单的说明一下。后面我们有更好的选择,比如说,字典的选择,图像块的选择等等…{Reship}{Sparse Representation}稀疏表示入门{Reship}{Sparse Representation}稀疏表示入门

http://www.win7soft.com/justplus/srstepbystep1 | JustPlus

-----------------------------------------------------

压缩感知(CS),或许你最近听说的比较多,不错,CS最近比较火,什么问题不管三七二十一就往上粘连,先试试能不能解决遇到的问题,能的话就把文
章发出来忽悠大家,这就是中国学术浮躁的表现…我们没有时间去思考的更多,因为你一思考,别人可能就把“你的东西”抢先发表了…不扯了,反正也干预不了…
稀疏表示的现状有点像CS,能做很多事,也不能做很多事…但是它确实是解决一些棘手问题的方法,至少能提供一种思路…目前用稀疏表示解决的问题主要集中在
图像去噪(Denoise),代表性paper:Image
Denoise Via Sparse and Redundant Representations Over Learned Dictionaries
(Elad M. and Aharon M. IEEE Trans. on Image Processing,Dec,2006);Image
Sequence Denoising Via Sparse and Redundant Representations
(Protter M. and Elad M.IEEE Trans. on Image Processing,Jan,2009), 还有超分辨率(Super-Resolution OR Scale-Up),代表性paper:Image
Super-Resolution via Sparse Representation
(Jianchao Yang, John Wright, Thomas Huang, and Yi Ma,IEEE Transactions on Image Processing, Nov,2010),A
Shrinkage Learning Approach for Single Image Super-Resolution with Overcomplete Representations
(
A. Adler, Y. Hel-Or, and M. Elad,ECCV,Sep,2010)….
另外还有inpait,deblur,Face Recognition,compression等等..更多应用参考Elad
M的书,google能找到电子档,这里不提
供下载地址

{Reship}{Sparse Representation}稀疏表示入门

当然Elad M.和Yi Ma的团队不仅仅在应用上大做文章,在理论上也是不断革新…就拿字典学习为例,一开始将固定字典(如过完备
DCT,Contourlet,Wavelet字典)用在去噪,超分辨率上,效果不明显,可能某些情况下还不如空域或者频域的去噪效果好(我拿Lena图
像和DCT实验了,以PSNR为标准,比时域的去噪方法要好,但是比小波去噪相比,稍稍逊色),但是速度快是它的优点。于是他们开始研究自适应的字典学习
算法,开始使用很多图像进行学习,后来采用单幅图像进行学习来提高运算速度(使用很多图像进行学习属于半自适应的学习,对于自然图像的处理需要学习自然图
像,对遥感图像的处理需要学习遥感图像,但是对自然图像或遥感图像的去噪,超分辨率处理,都可以使用已经训练好的相应的字典);同时学习的方法也不尽相
同,开始使用MOD,后来就是一直比较流行的K-SVD,最近又出来了Online,总体而言Online比较快。下面是我提到的几种字典的例子,所有的
字典都是64×256大小的,依次为DCT,globally(训练图像是:标准图像
lena,boat,house,barbara,perppers),K-SVD(单幅含躁lena,噪声标准差为25),online(单幅含躁
lena,噪声标准差为25),其中globally的训练方法是将训练图像分成8×8的overlap
patch,平均取,共取10000块,K-SVD和online也是分成相同的重叠块,取所有可能的块。

{Reship}{Sparse Representation}稀疏表示入门{Reship}{Sparse Representation}稀疏表示入门{Reship}{Sparse Representation}稀疏表示入门{Reship}{Sparse Representation}稀疏表示入门
       

总之,Elad M.和Yi
Ma为稀疏表示这个领域作出了很大的贡献…向大牛们致敬!!最后稍微说一下国内的研究现状,国内的很多研究还没浮出水面,不知道是不是我想的的这样(我比
较疑惑的是,为什么国外研究了十几年,国内还没大动静?),至少从google学术以及IEEE的文章搜索上来看是这样的…不过还是有几位教授在这方面作
出了很大的贡献的…

-------------------------------------------------

我们来考虑信号的稀疏表示问题,假如我们有了过完备字典D,如何求出信号x在这个过完备字典上的稀疏表示?先来回顾一下在压缩感知中常常会遇到的问
题,信号x在经过测量矩阵A后得到测量值y,即y=A*x,其中测量矩阵A_mxn(m远小于n),那么怎样从y中精确的恢复出x呢?

{Reship}{Sparse Representation}稀疏表示入门        

由于m远小于n,用m个方程求解n个未知数,因此y=A*x是个欠定方程,有无穷多个解。就像我们解优化问题一样,如果我们加上适当的限定条件,或
者叫正则项,问题的解会变得明朗一些!这里我们加上的正则项是norm(x,0),即使重构出的信号
x尽可能的稀疏(零范数:值为0的元素个数),后来Donoho和Elad这对师徒证明了如果A满足某些条件,那么argmin norm(x,0)
s.t.y=A*x
这个优化问题即有唯一解!唯一性确定了,仍然不能求解出该问题,后来就尝试使用l1和l2范数来替代l0范数,华裔科学家陶哲轩和candes合作证明了
在A满足UUP原则这样一个条件下,l0范数可以使用l1范数替代,所以优化问题变成argmin
norm(x,1) s.t.y=A*x这样一个凸优化问题,可以通过线性优化的问题来解决!(参考文献:Stable signal recovery from incomplete and inaccurate measurements(E. J. Candès, J. Romberg and T. Tao))至此,稀疏表示的理论已经初步成型。至于之后的优化问题,都是一些变形,像lasso模型,TV模型等….这里推荐一本stanford的凸优化教材convex
optimization
,我准备抽个时间好好看一看,搞稀疏表达这一块的,优化问题少不了…最近一直在感叹:数学不好的人哪伤不起啊!!有木有!![break]

{Reship}{Sparse Representation}稀疏表示入门        

我们再回到我们一开始提到的问题上来,一开始说字典D已知,求出y在过完备字典D上的稀疏表示x,这个在稀疏表示里面被称作为Sparse
Coding…问题的模型是 x=argmin norm(y-D*x,2)^2 s.t.norm(x,1)<=k;
我们下面来介绍一下解决这个问题的常用方法OMP(Orthogonal Matching Pursuit)
.我们主要目标是找出x中最主要的K个分量(即x满足K稀疏),不妨从第1个系数找起,假设x中仅有一个非零元x(m),那么
y0=D(:,m)*x(m)即是在只有一个主元的情况下最接近y的情况,norm(y-y0,2)/norm(y,2)<=sigma,换句话说
在只有一个非零元的情况下,D的第m列与y最“匹配”,要确定m的值,只要从D的所有列与y的内积中找到最大值所对应的D的列数即可,然后通过最小二乘法
即可确定此时的稀疏系数。考虑非零元大于1的情况,其实是类似的,只要将余量r=y-y0与D的所有列做内积,找到最大值所对应D的列即可。…下面是代码
和示例结果[其中图1是lena图像某个8x8的图像块在其自身训练得到的字典上的稀疏表示,稀疏值k=30,相对误差norm(y-
y0,2)/norm(y,2)=1.8724,图2是相同的块在相同的字典下的稀疏表述,稀疏值k=50,相对误差为0.0051]

function A=OMP(D,X,L) % 输入参数: % D - 过完备字典,注意:必须字典的各列必须经过了规范化 % X - 信号 %L - 系数中非零元个数的最大值(可选,默认为D的列数,速度可能慢) % 输出参数: % A - 稀疏系数 if nargin==2 L=size(D,2); end P=size(X,2); K=size(D,2); for k=1:1:P, a=[]; x=X(:,k); residual=x; indx=zeros(L,1); for j=1:1:L, proj=D'*residual; [maxVal,pos]=max(abs(proj)); pos=pos(1); indx(j)=pos; a=pinv(D(:,indx(1:j)))*x; residual=x-D(:,indx(1:j))*a; if sum(residual.^2) < 1e-6 break; end end; temp=zeros(K,1); temp(indx(1:j))=a; A(:,k)=sparse(temp); end; return;

{Reship}{Sparse Representation}稀疏表示入门{Reship}{Sparse Representation}稀疏表示入门

----------------------------------------------------

回顾一下前面所说的OMP算法,前提条件是字典D已知,求一个信号在这个字典上的稀疏表示…那假如我们不想使用过完备 DCT,wavelet呢?因为它们没有自适应的能力,不能随着信号的变化作出相应的变化,一经选定,对所有的信号一视同仁,当然不是我们想要的。我们想 通过训练学习的方法获取字典D来根据输入信号的不同作出自适应的变化。那现在我们的未知量有两个,过完备字典D,稀疏系数x,已知量是输入信号y,当然先 验知识是输入信号在字典D上可以稀疏表示…我们再次列出sparse-land模型:[D,x]=argmin norm(y-D*x,2)^2 s.t.norm(x,1)<=k。如何同时获取字典D和稀疏系数x呢?方法是将该模型分 解:第一步将D固定,求出x的值,这就是你常听到的稀疏分解(Sparse Coding),也就是上一节提到的字典D固定,求信号y在D上稀疏表示的问题;第二步是使用上一步得到的x来更新字典D,即字典更新 (Dictionary Update)。如此反复迭代几次即可得到优化的D和x。

Sparse Coding:x=argmin norm(y-D*x,2) s.t.norm(x,1)<=k
Dictinary Update:D=argmin norm(y-D*x,2)^2

[break]我们主要通过实例介绍三种方法:MOD,K-SVD,Online… 首先是MOD(Method of Optimal
Direction)。Sparse Coding其采用的方法是OMP贪婪算法,Dictionary
Update采用的是最小二乘法,即D=argmin norm(y-D*x,2)^2
解的形式是D=Y*x'*inv(x*x’)。因此MOD算法的流程如下:

初始化: 字典D_mxn可以初始化为随机分布的mxn的矩阵,也可以从输入信号中随机的选取n个列向量,下面的实验我们选取后者。注意OMP要求字典的各列必须规范化,因此这一步我们要将字典规范化。根据输入信号确定原子atoms的个数,即字典的列数。还有迭代次数。
主循环: Sparse Coding使用OMP算法; Dictionary Update采用最小二乘法。注意这一步得到的字典D可能会有列向量的二范数接近于0,此时为了下一次迭代应该忽略该列原子,重新选取一个服从随机分布的原子。

01
02
03
04
05
06
07
08
09
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
function [A,x]= MOD(y,codebook_size,errGoal)
%==============================
%input parameter
%   y - input signal
%   codebook_size - count of atoms
%output parameter
%   A - dictionary
%   x - coefficent
%==============================
if(size(y,2)<codebook_size)
    disp('codebook_size is too large or training samples is too small');
    return;
end
% initialization
[rows,cols]=size(y);
r=randperm(cols);
A=y(:,r(1:codebook_size));
A=A./repmat(sqrt(sum(A.^2,1)),rows,1);
mod_iter=10;
% main loop
for k=1:mod_iter
    % sparse coding
    if nargin==2
        x=OMP(A,y,5.0/6*rows);
    elseif nargin==3
        x=OMPerr(A,y,errGoal);
    end
    % update dictionary
    A=y*x'/(x*x');
    sumdictcol=sum(A,1);
    zeroindex=find(abs(sumdictcol)<eps);
    A(zeroindex)=randn(rows,length(zeroindex));
    A=A./repmat(sqrt(sum(A.^2,1)),rows,1);
    if(sum((y-A*x).^2,1)<=1e-6)
        break;
    end
end
----------------------------------

回忆一下前面提到字典学习的方法之一MOD,其分为两个步骤:Sparse Coding和Dictionary
Update。现在来看一种比较流行的方法K-SVD,至少到目前来说比较流行,虽然速度有点慢(迭代次数+收敛速度的影响)。之所以叫K-SVD,估计
Aharon M.和Elad
M.他们是从K-Means中得到了灵感,K-Means中的K是指要迭代K次,每次都要求一次均值,所以叫K均值,K-SVD也是类似,要迭代K次,每
次都要计算一次SVD分解。其实在K-SVD出来之前,字典学习的方法已经有很多种,Aharon
M.和Elad M.的文章中有提到,其中包括最大似然ML,MOD,最大后验概率MAP等等,并对它们进行了算法的灵活性,复杂度的比较。
K-SVD同MOD一样也分为Sparse Coding和Dictionary Update两个步骤,Sparse
Coding没有什么特殊的,也是固定过完备字典D,使用各种迭代算法求信号在字典上的稀疏系数。同MOD相比,K-SVD最大的不同在字典更新这一
步,K-SVD每次更新一个原子(即字典的一列)和其对应的稀疏系数,直到所有的原子更新完毕,重复迭代几次即可得到优化的字典和稀疏系数。下面我们来具
体的解释这句话。

{Reship}{Sparse Representation}稀疏表示入门{Reship}{Sparse Representation}稀疏表示入门
{Reship}{Sparse Representation}稀疏表示入门
{Reship}{Sparse Representation}稀疏表示入门

如上图(左上),现在我们要更新第k个原子,即d_k..那我们需要知道在上一步迭代之后哪些信号使用了该原子,即稀疏系数不为0的部分是哪些?从左上图中很容易看出,x'的第k列T(x_k),也就是x的第k行中不为0的那部分所对应的T(y_k)即是我们要找的信号,结果见左下图蓝色部分。我们用d_k和稀疏系数x(k)'来重构这部分使用了d(k)的信号,它和T(y_k)的差值即E,右上图中绿色部分,接下来我们要使用右下图这个约束来更新x_k和d_k这两个值…如此反复,直到过完备字典D的所有原子更新完毕为止…求解这个x_k和d_k,直接对E进行SVD分解即可。

{Reship}{Sparse Representation}稀疏表示入门

下面是K-SVD的matlab代码,由于是深化对原理的理解,所以没有经过任何的优化和改进,优化的代码可以参考K-SVD toolboxwriten by Elad M.

function [A,x]= KSVD(y,codebook_size,errGoal) %============================== %input parameter % y - input signal % codebook_size - count of atoms %output parameter % A - dictionary % x - coefficent %reference:K-SVD:An Algorithm for Designing of Overcomplete Dictionaries % for Sparse Representation,Aharon M.,Elad M.etc %============================== if(size(y,2)<codebook_size) disp('codebook_size is too large or training samples is too small'); return; end % initialization [rows,cols]=size(y); r=randperm(cols); A=y(:,r(1:codebook_size)); A=A./repmat(sqrt(sum(A.^2,1)),rows,1); ksvd_iter=10; for k=1:ksvd_iter % sparse coding if nargin==2 x=OMP(A,y,5.0/6*rows); elseif nargin==3 x=OMPerr(A,y,errGoal); end % update dictionary for m=1:codebook_size mindex=find(x(m,:)); if ~isempty(mindex) mx=x(:,mindex); mx(m,:)=0; my=A*mx; resy=y(:,mindex); mE=resy-my; [u,s,v]=svds(mE,1); A(:,m)=u; x(m,mindex)=s*v'; end end end