Print

发布时间: 2017-01-25
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.20170102
2017 | Volumn 22 | Number 1




    图像处理和编码    




  <<上一篇 




  下一篇>> 





半张量积压缩感知模型的l0-范数解
expand article info 王金铭, 叶时平, 徐振宇, 陈超祥, 蒋燕君
浙江树人大学信息科技学院, 杭州 310015

摘要

目的 半张量积压缩感知模型是一种可以有效降低压缩感知过程中随机观测矩阵所占存储空间的新方法,利用该模型可以成倍降低观测矩阵所需的存储空间。为寻求基于该模型新的重构方法,同时提升降维后观测矩阵的重构性能,提出一种采用光滑高斯函数拟合l0-范数方法进行重构。 方法 构建降维随机观测矩阵,对原始信号进行采样;构建可微且期望值为零的光滑高斯函数来拟合不连续的l0-范数,采用最速下降法进行重构,最终得到稀疏信号的估计值。 结果 实验分别采用1维稀疏信号和2维图像信号进行测试,并从重构概率、收敛速度、重构信号的峰值信噪比等角度进行了测试和比较。验证结果表明,本文所述算法的重构概率、收敛速度较该模型的lq-范数(0 < q < 1)方法有一定的提升,且当观测矩阵大小降低为通常的1/64,甚至1/256时,仍能保持较高的重构性能。 结论 本文所述的重构算法,能在更大程度上降低观测矩阵的大小,同时基本保持重构的精度。

关键词

压缩感知; 随机观测矩阵; 存储空间; 半张量积; 拟合l0-范数最小化

Smooth l0-norm minimization algorithm for compressed sensing with semi-tensor product
expand article info Wang Jinming, Ye Shiping, Xu Zhenyu, Chen Chaoxiang, Jiang Yanjun
Collage of Information Science & Technology, Zhejiang Shuren University, Hangzhou 310015, China
Supported by: Natural Science Foundation of Zhejiang Province, China (LY14E070001)

Abstract

Objective The semi-tensor product (STP) approach is an effective way to reduce the storage space of a random measurement matrix for compressed sensing (CS), in which the dimensions of the random measurement matrix can be reduced to a quarter (or a sixteenth, or even less) of the dimensions used for conventional CS. A smooth l0-norm minimization algorithm for CS with the STP is proposed to improve reconstruction performance. Method We generate a random measurement matrix, in which the matrix dimensions are reduced to 1/4, 1/16, 1/64, or 1/256 of the dimensions used for conventional CS. We then estimate the solutions of the sparse vector with the smooth l0-norm minimization algorithm. Result Numerical experiments are conducted using column sparse signals and images of various sizes. The probability of exact reconstruction, rate of convergence, and peak signal-to-noise ratio of the reconstruction solutions are compared with the random matrices with different dimensions. Numerical simulation results show that the proposed algorithm can reduce the storage space of the random measurement matrix to at least 1/4 while maintaining reconstruction performance. Conclusion The proposed algorithm can reduce the dimensions of the random measurement matrix to a great extent than the lq-norm (0 < q < 1) minimization algorithm, thereby maintaining the reconstruction quality.

Key words

compressed sensing; random measurement matrix; storage space; semi-tensor product; smooth l0-norm minimization

0 引言

自2006年, 一种名为“压缩感知”(CS)[1-3]的理论提出以来, 引起了国内外研究人员的高度关注。压缩感知理论一经提出就迅速成为研究热点, 相关的稀疏化表示系统、观测系统以及信号的优化重构得到了不断的丰富和完善, 各种性能优异的算法也相继被提出。但是随着研究的深入, 压缩感知在实际应用中面临的问题也逐渐凸显出来, 特别是在信号的非相关观测过程中, 虽然利用随机观测矩阵的投影方法具有理论上的完美特性, 然而在实际应用中, 恰恰由于其随机性, 使得随机观测矩阵(如Gaussian, Bernoulli等矩阵)无论在硬件实现上、存储消耗和重建算法构造上, 都要占用大量的存储空间和内存空间, 在实际应用中受到很大的限制, 存在着实际应用的困难。如要在硬件上实现对一幅大小为512×512像素原始图像的采样和重构, 假设采样率为25%, 则其相应的测量数据为64 KB, 若系统中存储的数据均采用单精度浮点数格式, 则测量值需要256 KB;高斯随机观测矩阵需要256 KB;稀疏表示矩阵需要1 024 KB;重构后得到重构图像需要256 KB (重构图像采用1 B表示一个像素点), 则系统总的存储空间需要1 792 KB字节, 对于系统的存储空间存在很大的压力。此外, 在信号的优化重构过程中, 随着图像尺寸的增大, 所需观测矩阵的存储空间也随即增大, 造成重构过程中内存占用率将成倍增加, 大大限制了压缩感知理论的实际应用。

如何有效降低压缩感知过程中观测矩阵、稀疏字典所占的存储空间, 特别是降低随机观测矩阵的存储空间, 对于降低重构过程中所需的内存占用率, 进一步提升压缩感知理论的应用有具有重要的理论与现实意义。

迄今, 针对压缩感知框架下随机测量矩阵占用内存多, 计算复杂度高, 不适合大规模应用等问题已引起了国内外学者的关注, 且提出了各种方法以降低所需的存储空间和内存消耗。

文献[4-5]提出了一种基于分块压缩感知(Block CS)的图像重构模型。这种方法人为地将原始图像信号进行分块, 并采用一个与块大小一致的随机测量矩阵分别对分块图像进行测量, 重构过程中, 先重构得到各个原始图像块的近似解, 然后将各个块近似解合并成整幅图像。这种分块压缩感知方法可以有效降低观测矩阵所需存储空间大的问题, 但对于稀疏度不均匀的原始图像, 需要改变块的大小和采样率, 这在某种程度上引入了一定的复杂度, 且易出现块效应。

文献[6-7]提出了一种结构化随机矩阵, 这种矩阵所需的存储量小, 于此同时还可以实现快速测量, 但构造结构化随机矩阵的过程涉及随机排序、快速正交变换、随机下采样等操作, 使得压缩采样过程比较复杂, 不易于实现。

文献[8-9]提出了一种基于张量积(Kronecker)的压缩感知方法。该方法首先从一些已知的随机观测矩阵(如Gaussian, Bernoulli等矩阵)中选取正交基, 由正交基经过张量积运算得到相应的随机观测矩阵, 实现对原始信号的随机观测和重构。该方法非常有效地降低了随机观测矩阵所需的存储空间, 且非常适用于分布式压缩测量。但有一点可以看到, 其采样或重构过程中, 同样需要利用张量积运算构建一个M×N(M表示测量信号长度, N表示原始信号长度)大小的随机测量矩阵, 其对内存空间同样存在较高的占用率。

文献[10-12]利用了观测矩阵的低秩性方法对原始信号进行压缩采样与重构, 同样有利于减小观测矩阵所占的存储空间。以低秩性为基础的重构算法都是在核范数的基础上衍生出的, 多数都是对矩阵的奇异值进行处理。该方法根据经验设定一个初始阈值与一个衰减因子, 每一步迭代中的阈值将由初始阈值、衰减因子和迭代次数决定, 实际迭代过程中将小于这次迭代的阈值奇异值置为零, 大于这个阈值的奇异值留差值部分, 实现对奇异值的选取。该方法的缺点在于要达到好的实验效果需要大量的尝试[12]

此外, 针对随机观测矩阵占用存储空间大, 难于硬件实现等问题, 相关学者[13-14]提出了确定性观测矩阵。相比随机观测矩阵, 利用确定性观测矩阵具备计算复杂度低、存储空间占用率低、易于硬件实现等特点, 但存在重构精度较低, 普适性差等问题。

同样为了降低观测矩阵所需存储空间及重构过程中的内存占用率, 作者结合半张量积和压缩感知理论, 已提出了一种半张量积压缩感知模型[15], 并采用lq-范数(0 < q < 1)最优化方法进行了重构。实验结果表明, 采用半张量积压缩感知方法, 能够利用降维后的观测矩阵实现对稀疏信号的重构, 且信号的重构质量没有明显下降, 其观测矩阵所占的存储空间可以成倍地减小。

在此基础上, 本文尝试采用光滑高斯函数拟合l0-范数方法进行求解。利用1维稀疏信号和2维图像信号对算法的重构性能进行验证和比较。实验结果表明, 采用本文所述拟合l0-范数重构方法同样实现了对稀疏信号的重构, 且对比文献[15]中所述的lq-范数(0 < q < 1)方法, 采用本文方法在重构概率、重构质量上有较为明显的提升。特别地, 对于2维图像信号, 当观测矩阵大小减小至传统观测矩阵的1/64时, 甚至1/256时, 依然能够实现对原始图像信号的重构。

1 半张量积理论

半张量积乘法(STP)是一种新型矩阵乘法[16]。它是介于传统矩阵乘法与张量积乘法之间的一种新运算, 即当两个矩阵AB满足A的列数(Col(A))和B的行数(Row(B))成倍数关系时, 两者之间即可进行左半张量积乘法。传统矩阵乘法的运算性质在半张量积乘法中同样适用, 并且, 半张量积保持了传统矩阵乘法的全部主要性质, 所以说它是一种有力的数学工具, 对于实现不同阶的高维矩阵数字信号处理提供了一个非常好的途径。

定义1  设T是一个np维行向量, X是一个p维列向量。将T分割成p个等长的块T1, T2, …, Tp, 它们都是n维行向量, 则定义左半张量积为

$ \boldsymbol{T} \ltimes \boldsymbol{X} = \sum\limits_{i = 1}^p {{\boldsymbol{T}^i}{x_i} \in } {{\rm{\mathbb{R}}}^n} $ (1)

式中,符号$\ltimes$表示向量的左半张量积。

定义2  设M∈ℝm×n, N∈ℝp×q。如果np的因子或者pn的因子, 则有

$ \boldsymbol{C} = \boldsymbol{M} \ltimes \boldsymbol{N} $ (2)

CMN的左半张量积。C=(Cij)=Rowi(M)$\ltimes$Colj(N), $i$=1, 2, …, m, j=1, 2, …, q

1)  对于定义2所示的MN, 若n=p, 则有M$\ltimes$N=MN, 即半张量积退化为传统矩阵积。

2)  两个矩阵的左半张量积的维数可以很容易地根据前一个矩阵列数和后一个矩阵行数的公因子消去来计算得到, 即

$ \begin{array}{l} {\boldsymbol{F}_{p \times qr}} \ltimes {\boldsymbol{G}_{r \times s}} \ltimes {\boldsymbol{H}_{qst \times l}} = \\ {\left( {\boldsymbol{F} \ltimes \boldsymbol{G}} \right)_{p \times qs}} \ltimes {\boldsymbol{H}_{qst \times l}} = \\ \;\;{\left( {\boldsymbol{F} \ltimes \boldsymbol{G} \ltimes \boldsymbol{H}} \right)_{pt \times l}} \end{array} $ (3)

性质1  只要$\ltimes$有定义, 即矩阵有合适的维数, 则$\ltimes$满足结合律, 即

$ \left( {\boldsymbol{F} \ltimes \boldsymbol{G}} \right) \ltimes \boldsymbol{H} = F \ltimes \left( {\boldsymbol{G} \ltimes \boldsymbol{H}} \right) $ (4)

性质2  只要有定义, 便有

$ {\left( {\boldsymbol{F} \ltimes \boldsymbol{G}} \right)^{\rm{T}}} = {\boldsymbol{F}^{\rm{T}}} \ltimes {\boldsymbol{G}^{\rm{T}}} $ (5)

2 半张量积压缩感知模型

本文所述的半张量积压缩感知模型定义为

$ {\boldsymbol{y}_{M \times 1}} = {\boldsymbol{ \mathit{\Phi}} _{\left( {M/t} \right) \times (N/t)}} \ltimes {\boldsymbol{\mathit{\Psi}} _{N \times N}}{\boldsymbol{\theta} _{N \times 1}} $ (6)

式中, Φ(M/t)×(N/t)表示观测矩阵, 其大小为(M/t)×(N/t)∈ℤ+, t∈ℤ+t < M; ΨN×N为稀疏化正交基矩阵, θN×1表示信号经稀疏化表示后的系数向量。为后续表述方便, 此处定义Φ(M/t)×(N/t)Φ(t)。

t=1时, 结合半张量积理论, 式(6)所示的半张量积压缩感知模型就退化为传统的压缩感知模型, 即

$ {\boldsymbol{y}_{M \times 1}} = {\boldsymbol{\mathit{\Phi}} _{M \times N}}\cdot{\boldsymbol{\mathit{\Psi}} _{N \times N}}\cdot{\boldsymbol{\mathit{\theta}} _{N \times 1}} $ (7)

此时, 观测矩阵所需的存储空间并没有减少。

但当t > 1时, 式(6)所示观测矩阵的大小却成倍减小, 如t=2, 观测矩阵大小为(M/2)×(N/2), 其大小为式(7)中所示观测矩阵的1/4, 如若t=4时, 所需的观测矩阵大小降为1/16。如引言中所述, 要实现对一幅大小为512×512像素原始图像的采样和重构(设定的采样率为25%, 每个数据采用单精度表示), 则当t=1时, 观测矩阵需256 KB; 当t=2时, 观测矩阵Φ(2)仅需64 KB的存储空间; 而Φ(4)所需的存储空间仅为16 KB, 当继续增大t值时, 所需的数据存储量将继续下降。由此, 本文所述的半张量积压缩感知模型能够降低观测矩阵所需的存储空间。

此外, 利用式(3)(4), 可以验证式(6)所示的半张量积压缩感知模型是满足式(7)所示的传统压缩感知模型的, 即可以将M个观测值投影到降维后的观测矩阵, 实现对长度为N的原始信号表示, 即

$ \begin{array}{l} {\boldsymbol{\mathit{\Phi}} _{\left( {M/t} \right) \times (N/t)}} \ltimes ({\boldsymbol{\mathit{\Psi}} _{N \times N}}{\boldsymbol{\mathit{\theta}} _{N \times 1}}) = \\ {\boldsymbol{\mathit{\Phi}} _{\left( {M/t} \right) \times (N/t)}} \ltimes {\left( {\boldsymbol{\mathit{\Psi}} \ltimes \boldsymbol{\mathit{\theta}} } \right)_{N \times 1}} = \\ \;\;\;{\left( {\boldsymbol{\mathit{\Phi}} \ltimes \boldsymbol{\mathit{\Psi}} \ltimes \boldsymbol{\mathit{\theta}} } \right)_{M \times 1}} = {y_{M \times 1}} \end{array} $

$ \begin{array}{l} {\boldsymbol{\mathit{\Phi}} _{\left( {M/t} \right) \times (N/t)}} \ltimes ({\boldsymbol{\mathit{\Psi}} _{N \times N}}{\boldsymbol{\mathit{\theta}} _{N \times 1}}) = \\ {\left( {\boldsymbol{\mathit{\Phi}} \ltimes \boldsymbol{\mathit{\Psi}} } \right)_{M \times N}} \ltimes {\boldsymbol{\mathit{\theta}} _{N \times 1}} = \\ \;\;\;{\left( {\boldsymbol{\mathit{\Phi}} \ltimes \boldsymbol{\mathit{\Psi}} \ltimes \boldsymbol{\mathit{\theta}} } \right)_{M \times 1}} = {y_{M \times 1}} \end{array} $

自此, 问题的关键在于如何在t > 1的条件下, 利用式(6)所示的半张量积压缩感知模型实现对稀疏信号的恢复。

3 半张量积压缩感知模型重构算法

对于压缩感知模型所示欠定线性方程组的稀疏解, 通常认为直接求l0-范数的最优化解是NP问题, 其原因就是l0-范数是一个不连续函数[17]。为此, 许多学者提出了光滑函数拟合信号的l0-范数[17-20], 再通过最优化形式进行信号重构。为此, 针对半张量积压缩感知模型, 采用可微的, 且期望值为零的光滑高斯函数来近似不连续的稀疏解的l0-范数, 并采用最速下降法来进行稀疏信号的重构。

对于式(6)所示的半张量积压缩感知模型, 令rank(Φ(t))=M/t(t≥1), 并考虑问题

$ {\rm{min}}\{ ||\boldsymbol{\theta} |{|_0}|\boldsymbol{\theta} \in {{\boldsymbol{\rm{R}}}^N},\boldsymbol{\mathit{\Phi}} \left( t \right) \ltimes \boldsymbol{\mathit{\Psi}} \ltimes \boldsymbol{\theta} = \boldsymbol{y}\} $ (8)

对于式(8), 由于l0-范数的不连续性, 通常直接求解是非常困难的, 为此借鉴文献[20]中定义的光滑高斯函数来近似θ0, 即

$ f\left( {\boldsymbol{\theta} ,\sigma } \right) = \sum\limits_{i = 1}^N {{\rm{exp}}} (\theta _I^2/2{\sigma ^2}) $ (9)

分析式(9)可知, 参数σ的值决定了函数$f$(θ, σ)的光滑程度及精确度(通常0 < σ≤1)。σ越小, $f$(θ, σ)能够越精确地表示||θ||0, σ越大, $f$(θ, σ)所表示的高斯函数越光滑。此外, 当σ→0且θ=0时, $f$(θ, σ)=1;当σ→0且θ≠0时, $f$(θ, σ)=0。

由此, 当σ较小时, 对于式(8)所示的最小化问题便转化成求函数$f$(θ, σ)的最大化问题, 即

$ \boldsymbol{\theta} = {\rm{arg \;max}}f\left( {\boldsymbol{\theta} ,\sigma } \right) $ (10)

式中, θ$f$(θ, σ)。

对式(10)引入Largrange乘子λ∈ℝM和Largrange函数, 有

$ \begin{array}{l} \;\;F\left( {\boldsymbol{\theta} ,\boldsymbol{\lambda} } \right) = f\left( {\boldsymbol{\theta} ,\sigma } \right) + \\ {\boldsymbol{\lambda} ^{\rm{T}}}\left( {\boldsymbol{\mathit \Phi} \left( t \right) \ltimes \boldsymbol{\mathit \Psi} \ltimes \boldsymbol{\theta} - \boldsymbol{y}} \right) \end{array} $ (11)

则针对式(11), 有Karush-Kuhn-Tucker (KKT)系统

$ \left\{ {\begin{array}{*{20}{l}} {\frac{{\partial F\left( {\boldsymbol{\theta} ,\boldsymbol{\lambda} } \right)}}{{\partial {\theta _i}}} = - \frac{{{\theta _i}}}{{{\sigma ^2}}}{\rm{exp}}( - {\theta ^2}_i/2{\sigma ^2}) + }\\ {\;\;\;{{(\boldsymbol{\mathit \Theta} {{\left( t \right)}^{\rm{T}}}\boldsymbol{\lambda} )}_i} = 0}\\ {\frac{{\partial F\left( {\boldsymbol{\theta} ,\boldsymbol{\lambda} } \right)}}{{\partial {\lambda _i}}} = {{\left( {\boldsymbol{\mathit \Phi} \left( t \right) \ltimes \boldsymbol{\mathit \Psi} \ltimes \boldsymbol{\theta} - y} \right)}_j} = 0} \end{array}} \right. $ (12)

式中,Θ(t)=Φ(t)$\ltimes$Ψ, $i$=1, 2, …, Nj=1, 2, …, M

根据优化理论的最速下降法, 对式(12)进行迭代求解, 即

$ \left\{ {\begin{array}{*{20}{l}} { - \frac{{\theta _j^{n + 1}}}{{\sigma _n^2}}{\rm{exp}}( - {{(\theta _i^n)}^2}/2\sigma _n^2) + }\\ {\;\;{{(\boldsymbol{\mathit \Theta} {{\left( t \right)}^{\rm{T}}}{\boldsymbol{\lambda} ^{(n + 1)}})}_i} = 0}\\ {\boldsymbol{\mathit \Phi} \left( t \right) \ltimes \boldsymbol{\mathit \Psi} \ltimes {\boldsymbol{\theta} ^{(n + 1)}} - \boldsymbol{y} = 0} \end{array}} \right. $ (13)

式中,$i$=1, 2, …, N, θin表示经n次迭代后得到的稀疏向量中的第$i$个值, σn+1=ρσn(0 < ρ < 1)。

对式(13), 定义权重

$ w_i^{(n)} = {\rm{exp}}( - {(\theta _i^n)^2}/2\sigma _n^2) $ (14)

式中,$i$=1, 2, …, N, w$i$(n)表示经n次迭代后得到的权重向量中的第$i$个值。

为得到更明确的表达形式, 定义DnN×N的对角矩阵, 其矩阵中第$i$个对角分量表示为

$ {D_{i,i}} = \frac{1}{{\boldsymbol{w}_i^{^{(n)}}}},{\rm{ }}i = 1,2, \ldots ,N $

则上述线性系统的解可表示为

$ \begin{array}{l} \;\;\;\;{\boldsymbol{\theta} ^{(n + 1)}} = {\boldsymbol{D}_n} \ltimes {\left( {\boldsymbol{\mathit \Phi} \left( t \right) \ltimes \boldsymbol{\mathit \Psi} } \right)^{\rm{T}}} \ltimes \\ [\left( {\boldsymbol{\mathit \Phi} \left( t \right) \ltimes \boldsymbol{\mathit \Psi} } \right) \ltimes {\boldsymbol{D}_n} \ltimes {\left( {\boldsymbol{\mathit \Phi} \left( t \right) \ltimes \boldsymbol{\mathit \Psi} } \right)^{\rm{T}}}] \ltimes \boldsymbol{y} \end{array} $ (15)

根据式(12)中关于Θ(t)的定义, 则式(15)可表示为

$ \begin{array}{l} \;\;\;\;{\boldsymbol{\theta} ^{(n + 1)}} = {\rm{ }}{\boldsymbol{D}_n} \ltimes {\boldsymbol{\mathit \Theta} ^{\rm{T}}}\left( t \right) \ltimes \\ {(\boldsymbol{\mathit \Theta} \left( t \right) \ltimes {\boldsymbol{D}_n} \ltimes {\boldsymbol{\mathit \Theta} ^{\rm{T}}}\left( t \right))^{ - 1}} \ltimes \boldsymbol{y} \end{array} $ (16)

从而本文所述半张量积压缩感知模型的l0-范数迭代算法可表示如下:

1) 初始化w(0)=(1, …, 1), σ0=1, x(0)=(1, …, 1), 设置0 < ρ < 1;

2) 根据w(n)得到N×N对角矩阵Dn;

3) 根据式(15)或式(16)计算并更新θ(n+1);

4) 根据σn+1=ρσn计算并更新σn+1值;

5) 根据式(14)计算并更新w(n+1)值;

6) 更新迭代次数, 并判断σn+1是否满足条件, 若不满足, 返回第2)步, 继续迭代计算; 若满足则退出迭代, 并输出稀疏解θ(n+1)

关于上述迭代算法的收敛性, 由文献[21]中的引理5.1, 可以得到迭代序列是收敛性的, 即

$ \mathop {{\rm{lim}}}\limits_{n \to \infty } ({\theta ^{(n)}} - {\theta ^{(n + 1)}}) = 0 $

4 实验结果与分析

为验证上述半张量积压缩感知模型的有效性及算法的重构性能, 分别采用1维稀疏信号与2维图像信号进行了验证和比较。通过构建不同维度的随机观测矩阵, 分别对原始信号进行采样和重构。实验平台配备了Intel i7-4600 CPU, 2.1 GHz主频, 8 GB内存, 64位Windows 8操作系统, 仿真软件采用Matlab R2010b。

4.1 1维稀疏信号重构

实验中, 针对1维稀疏信号, 设置了3组实验来验证和比较采用不同维度观测矩阵的重构性能。第1组设定信号采样率, 即M/N=0.5, 生成不同稀疏度的原始信号, 利用不用维度的随机观测矩阵进行采样和重构, 比较信号正确重构的概率; 第2组设定原始信号的稀疏度$k$, 改变采样率, 构建不同维度的随机观测矩阵对原始信号进行采样和重构, 比较信号正确重构的概率; 第3组设定原始信号的稀疏度及采样率, 构建不同维度的随机观测矩阵, 比较信号重构的收敛速度。

针对第1组实验, 构建了长度N=256, 稀疏度为$k$(1≤$k$M/2)且非零位置随机的1维稀疏信号。此处$k$M/2, 原因是一个向量要保证稀疏恢复的唯一性, 其非零元素的个数最多不超过极限值M/2[1]。根据设定的采样率0.5及原始信号长度, 构建满足高斯独立分布的(M/t)×(N/t)维高斯随机观测矩阵Φ(t), 如表 1所示。

表 1 半张量积压缩感知模型的高斯随机观测矩阵, N=256
Table 1 Different dimensional Gaussian random measurement matrices with N=256

下载CSV
M/N t=1 t=2 t=4
0.5 Φ128×256 Φ64×128 Φ32×64

表 1中, 当t=1时, 高斯随机观测矩阵Φ(1)的大小为128×256, 而Φ(2)和Φ(4)的大小分别为64×128和32×64, 其大小分别为Φ(1)的1/4和1/16。在固定数据格式及精度时, Φ(2)和Φ(4)所需的存储空间成倍减小, 从而大大降低了观测矩阵所需的存储空间以及重构过程中的内存占用率。

实验中, 对每个稀疏度$k$($k$=1, 2, …, M/2), 随机生成500次稀疏向量θ, 同时对于每个稀疏度, 高斯随机观测矩阵Φ(t)(t≥1)只生成1次。重构过程选取终止条件是σn < 10-8, 即在每次重构过程中, 设σ0=1, 若经过若干次迭代后, 有σn < 10-8, 则退出重构。重构结束后, 计算重构信号$\boldsymbol{\hat \theta} $与原始信号θ的相对误差E, 若相对误差E < 10-5, 则认为重构是成功的, 反之重构是错误的。1维信号的相对误差E以及重构概率为

$ E = \frac{{{{\left\| {\boldsymbol{\theta} - \boldsymbol{\hat \theta} } \right\|}_2}}}{{{{\left\| \boldsymbol{\theta} \right\|}_2}}} $ (17)

$ pr = \frac{{{T_{{\rm{correct}}}}}}{{{T_{{\rm{total}}}}}} $ (18)

式中, Tcorrect表示正确重构的次数, Ttotal表示重构的总次数, θ表示原始信号, $\boldsymbol{\hat \theta} $表示重构信号。

此外, 参数σ依照σn+1=ρσn(0 < ρ < 1)进行迭代更新, 根据文献[20]曾指出的, 在采用拟合高斯光滑函数来近似时, ρ的取值越大, 稀疏解正确重构的概率越高, 因此, 后续实验中均选择ρ=0.8来验证半张量积压缩感知重构方法对稀疏解的重构情况。图 1表示了采样率为0.5时, 不同稀疏度的原始信号θ在不同观测矩阵的情况下其正确恢复的概率。图 1(a)采用了本文所述的重构算法, 图 1(b)采用文献[15]所述的lq-范数(0 < q < 1)的重构算法。

图 1 不同维数观测矩阵重构概率比较(M=128, N=256)
Fig. 1 Comparison of probability of exact reconstruction with different dimensions of measurement matrices (M=128, N=256) ((a) frame obtained from l0-norm minimization with ρ=0.8; (b) frame obtained from lq-norm minimization with q=0.8)

图 1中, t=1表示采用大小为128×256的随机观测矩阵实现对原始信号的采样及重构后得到的概率曲线; t=2表示采用的矩阵大小为64×128, t=4时, 矩阵大小为32×64。当原始信号的稀疏度较低时, 无论采用何种大小的观测矩阵, 都能够实现对原始信号的正确重构; 随着稀疏度$k$增大, 且当观测矩阵维数降低后, 即t=2和4时, 对稀疏信号的重构概率相比t=1时有一定的下降, 但其整体上保持了较高的重构概率。对比图 1(a)(b)发现, 当稀疏度$k$逼近文献[1]所述极限值M/2时, 图 1(a)中仍具有较高的重构概率且对应的重构概率较(b)中有较为明显的提升。

为进一步验证观测矩阵降维后的重构性能, 设定原始信号稀疏度$k$=40及原始信号长度N=256, 通过改变采样率M/N, 构建不同维度的随机观测矩阵对原始信号进行采样和重构, 比较信号正确重构的概率。实验中, 重构算法终止条件及判断重构是否成功的条件与第1组实验所设条件一致, 针对每一个采样率, 同样进行了500次实验, 其结果如图 2所示。

图 2 不同维数观测矩阵正确重构概率随观测次数M的比较(N=256, $k$=40, ρ=0.8)
Fig. 2 Comparison of probability of exact reconstruction with different dimensions of measurement matrices by different M (N=256, $k$=40, ρ=0.8)

图 2可知, 在稀疏度$k$相对较小的情形下, 经过相同次数的观测, 其正确重构概率大致相当, 表明观测矩阵的大小对重构性能基本没有影响。

第3组实验, 首先设定原始信号的稀疏度$k$=40及采样率M/N=0.5 (N=256), 构建不同维度的随机观测矩阵, 经历相同次数的重构迭代, 比较信号的收敛速度, 结果如图 3所示。图 3中采用式(17)所示的相对误差E表示稀疏解的收敛速度。在迭代次数相同时, 其相对误差减小的越快表示收敛速度越快, 图 3中的数据是经500次实验取相对误差平均值后得到的结果。

图 3 不同维数观测矩阵重构过程中相对误差随迭代次数比较(M=128, N=256, $k$=40)
Fig. 3 Comparison of reconstruction error with different dimensions of measurement matrices (M=128, N=256, $k$=40) ((a) frame is obtained from l0-norm minimization with ρ=0.8; (b) frame is obtained from lq-norm minimization with q=0.8)

图 3可知, 采用降维后的观测矩阵, 经过相同的迭代次数, 重构信号的相对误差均能达到相同的数量级, 即收敛速度大致相当。对比图 3(a)(b)可知, 本文所述的重构方法较文献[15]所述的重构算法具有更快的收敛速度。

通过上述3组实验, 充分说明了利用本文所述的基于半张量积压缩感知模型和降维后的随机观测矩阵, 能够成功实现对原始信号的采样与重构, 且重构信号的收敛速度、正确重构概率上基本与未经降维观测矩阵的重构性能大致相当。

4.2 2维灰度图像信号重构

为进一步验证半张量积压缩感知模型的拟合l0-范数方法的重构性能, 针对2维可压缩图像信号设计了3组实验进行了验证和比较。第1组设定不同的信号采样率, 分别利用不用维度的高斯随机观测矩阵进行采样和重构, 比较重构图像的峰值信噪比(PSNR)。第2组设定采样率为0.5, 采用其他已知的随机观测矩阵(如Bernoulli、部分Hadamard、Toeplitz等矩阵)进行采样和重构, 比较重构图像的峰值信噪比(PSNR)。第3组设定采样率为0.5, 与文献[15]中的重构结果进行了比较。

对比实验采用了4幅2维图像作为实验载体, 它们分别是大小为256×256像素的Lena、Peppers, 以及大小为512×512像素的Barbara和DICOM医学灰度图像OT-colon, 其中OT-colon可以从文献[22]得到。

实验中, 首先对原始2维图像进行小波变换, 得到稀疏的小波系数; 根据设定的采样率, 采用不同维度的随机观测矩阵进行采样, 得到对应的采样信号y; 随后利用本文所述的拟合l0-范数方法, 对采样信号y进行重构, 得到重构的小波系数; 最后利用小波逆变换, 得到重构图像。

第1组实验, 设定采样率分别为M/N=0.821 5、0.75、0.5以及0.437 5, 构建高斯随机观测矩阵, 降维比例分别取t=1, 2, 4, 8以及16。在得到各自的观测信号y后, 利用本文重构算法对原始图像进行50次重构, 分别观测其重构图像和重构图像峰值信噪比。图 4图 5列出了采样率为0.5时Lena和OT-colon的重构结果, 其重构图像为50次重构结果中随机选取的。

图 4 不同维数观测矩阵重构2维Lena图像比较
Fig. 4 Comparison of the reconstructed Lena images with different dimensions of measurement matrices ((a) frame is the original image; (b) frame is the reconstructed image from the original in frame (a))
图 5 不同维数观测矩阵重构2维OT-colon图像比较
Fig. 5 Comparison of the reconstructed OT-colon images with different dimensions of measurement matrices ((a) frame is the original image; (b) frame is the reconstructed image from the original in frame (a))

图 4图 5中的(b)-(f)分别表示了对2维原始图像的重构结果。对应图 4(b)-(f)选用的高斯随机观测矩阵Φ的大小分别为128×256, 64×128, 32×64, 16×32和8×16;对于图 5(b)-(f)的观测矩阵大小分别为256×512, 128×256, 64×128, 32×64和16×32。从图 4图 5中可以较为直观地看到, 采用降维高斯随机观测矩阵对信号进行采样重构, 重构图像质量并没有明显的下降, 特别当t=2, 4和8时。该结果表明,利用降维观测矩阵对2维图像信号进行采样, 结合本文所述的重构算法, 可以对原始信号进行有效重构。为进一步衡量重构质量, 利用PSNR对各重构图像进行评估, 表 2列出了不同采样率情形时各重构图像的PSNR值。

表 2 不同维数的高斯随机观测矩阵重构2维图像峰值信噪比(ρ=0.8)
Table 2 Comparison of the PSNR of reconstructions with different dimensions of Gaussian measurementmatrices (ρ=0.8)

下载CSV
降维比例 M/N PSNR/dB
Lena Peppers Barbara OT-colon
最大值 t=1 0.812 5 41.415 2 45.116 2 42.152 8 41.489 1
t=2 41.252 9 45.253 5 42.261 5 41.247 9
t=4 41.281 6 45.040 4 42.020 1 41.286 3
t=8 41.638 3 44.456 0 41.999 2 41.375 5
t=16 41.666 6 43.970 2 42.317 7 41.050 4
t=1 0.750 0 39.399 0 42.524 4 38.619 5 39.284 7
t=2 39.353 2 42.540 5 38.633 7 39.198 6
t=4 39.485 9 42.898 9 38.556 7 39.152 4
t=8 39.329 2 41.984 7 38.733 0 39.128 6
t=16 39.472 3 41.018 8 38.416 1 39.099 4
t=1 0.500 0 35.444 4 36.473 7 30.224 9 30.547 0
t=2 35.326 6 36.671 7 30.218 7 30.362 1
t=4 35.276 4 37.334 0 30.127 8 30.601 7
t=8 35.065 8 36.387 7 30.037 8 30.509 8
t=16 35.520 9 36.602 2 30.084 3 30.381 9
t=1 0.437 5 26.267 5 27.536 2 28.417 9 28.550 9
t=2 26.405 7 27.758 2 28.633 7 28.459 9
t=4 27.365 7 28.124 8 28.556 7 28.299 3
t=8 26.805 4 27.910 2 28.733 0 27.918 4
t=16 27.430 3 29.285 1 28.416 1 27.537 7
最小值 t=1 0.812 5 40.604 6 44.281 3 41.764 7 41.096 9
t=2 40.600 0 44.037 5 41.704 1 40.538 7
t=4 39.723 2 43.013 4 41.115 1 40.674 1
t=8 38.307 4 39.845 3 41.617 0 38.917 4
t=16 36.209 3 37.527 1 40.979 0 36.564 0
t=1 0.750 0 38.681 4 42.038 7 38.078 7 38.659 8
t=2 38.475 0 41.633 5 37.881 8 38.173 0
t=4 38.448 0 39.826 0 37.534 3 38.753 0
t=8 37.118 9 38.599 0 37.343 0 38.180 3
t=16 34.839 8 33.608 5 32.869 4 33.426 1
t=1 0.500 0 34.958 6 36.127 7 30.093 9 30.163 6
t=2 34.774 5 35.544 2 29.986 9 29.985 8
t=4 34.468 3 35.792 5 29.496 9 29.773 8
t=8 34.010 3 34.739 2 29.428 1 29.307 1
t=16 17.177 0 8.224 2 27.355 4 28.386 5
t=1 0.437 5 25.784 6 27.145 1 28.078 7 28.155 2
t=2 25.532 2 26.912 9 27.881 8 27.846 9
t=4 25.519 1 26.438 7 27.534 3 28.084 7
t=8 24.914 7 21.180 3 26.343 0 27.526 9
t=16 5.997 7 21.032 5 15.869 4 24.971 0
平均值 t=1 0.812 5 41.005 6 44.814 7 41.930 7 41.103 9
t=2 40.970 7 44.573 7 41.937 2 41.114 5
t=4 40.619 2 44.274 1 41.810 8 41.101 1
t=8 40.140 3 43.852 3 41.890 4 41.018 0
t=16 39.757 8 42.625 3 41.761 7 40.954 3
t=1 0.750 0 39.072 2 42.269 9 38.279 7 39.184 8
t=2 38.953 2 42.075 1 38.148 0 39.105 6
t=4 38.857 7 41.673 2 37.994 0 39.052 2
t=8 38.307 9 41.347 2 37.436 0 38.673 4
t=16 36.863 6 40.072 4 37.304 4 38.398 0
t=1 0.500 0 35.167 4 36.308 2 30.163 5 30.310 1
t=2 35.068 1 36.125 0 30.075 6 30.203 6
t=4 35.189 2 36.298 5 30.016 6 30.128 8
t=8 34.838 5 35.625 5 29.747 0 30.117 1
t=16 34.499 1 35.270 9 28.519 9 29.119 6
t=1 0.437 5 25.995 9 27.360 7 28.279 7 28.319 1
t=2 25.966 4 27.331 2 28.148 0 28.288 6
t=4 25.939 1 27.023 1 28.099 4 28.280 1
t=8 25.679 3 26.187 3 27.843 6 27.702 1
t=16 25.715 1 26.823 9 27.304 4 27.346 0

表 2所列数据为采用5种不同大小的高斯随机观测矩阵分别经50次采样和重构后, 其重构图像峰值信噪比的最大值, 最小值和平均值。从表 2中最大值所在行可以看到, 对于4幅原始图像在不同的采样率情形下, 当观测矩阵降维后(即t > 1), 其重构图像的PSNR值基本与t=1时一致, 甚至有部分PSNR的最大值要高于t=1时的PSNR值, 这充分印证了采用降维观测矩阵是可以实现对原始图像的采样与重构的。此外, 观察表中最小值所在行可以看到, 随着观测矩阵维数的降低, 其PSNR的最小值也在逐步降低。

通过计算降维后观测矩阵与稀疏表示矩阵之间的相关性发现, 随着观测矩阵维数的降低, (Φ(M/t)×(N/t)$\ltimes$ΨN×N)的不相干性会有较大地变动, 即当互相关性较高时, 造成重构图像质量的下降较为明显, 如表 2中Peppers图像中采样率为0.5且t=16时, 重构图像的PSNR值仅为8.224 2 dB。从而, 为进一步提升重构质量和性能的稳定性, 有必要对降维观测矩阵进行优化处理, 由于篇幅关系, 该内容将在另文中描述。

第2组实验选用了Bernoulli、部分Hadamard以及Toeplitz随机观测矩阵, 设定采样率为0.5, 通过构建不同大小的观测矩阵对Lena、Peppers原始图像进行50次采样和重构, 比较其重构图像的PSNR值, 结果如表 3所示。其结果同样表现出了优异的重构性能。

表 3 其他随机观测矩阵重构2维图像性能比较(M/N=0.5, ρ=0.8)
Table 3 Tests on other random measurement matrices with different dimensions (M/N=0.5, ρ=0.8)

下载CSV
Images
(256×256像素)
降维比例 PSNR/dB
Bernoulli Hadamard Toeplitz
Lena 最大值 t=1 35.343 1 35.293 1 35.655 4
t=2 35.343 1 35.393 5 35.755 0
t=4 35.651 0 35.287 0 35.446 5
t=8 35.263 9 35.339 8 35.877 0
t=16 36.261 9 35.011 8 35.915 5
最小值 t=1 34.975 9 35.013 6 34.571 5
t=2 34.856 3 35.005 6 34.363 4
t=4 34.805 3 34.779 1 34.197 4
t=8 34.116 3 34.161 4 33.870 5
t=16 15.892 3 33.059 6 13.863 2
平均值 t=1 35.081 9 35.195 6 35.188 7
t=2 35.110 2 35.209 3 35.109 4
t=4 35.077 9 35.101 8 34.998 0
t=8 34.694 3 34.790 7 34.937 3
t=16 34.546 4 34.474 4 34.142 0
Peppers 最大值 t=1 36.465 9 36.514 6 36.728 4
t=2 36.806 8 36.512 4 37.170 1
t=4 36.628 4 36.453 1 37.016 8
t=8 37.196 5 36.609 6 37.016 8
t=16 37.696 5 36.727 0 37.874 3
最小值 t=1 36.102 1 35.948 0 36.018 3
t=2 35.997 9 36.055 4 35.274 4
t=4 35.479 8 35.799 2 35.601 7
t=8 34.254 8 35.932 9 35.601 7
t=16 17.710 5 34.343 2 15.498 3
平均值 t=1 36.339 5 36.294 4 36.395 4
t=2 36.356 1 36.311 0 36.239 3
t=4 36.096 7 36.134 4 36.420 2
t=8 35.942 3 36.166 5 36.420 2
t=16 35.398 7 35.752 0 35.435 2

第3组实验中, 在采样率为0.5的情形时, 与文献[15]中所示方法的重构结果进行了对比, 实验对原始图像分别进行了50次采样和重构, 取重构图像的PSNR平均值, 结果如表 4所示。从比较结果来看, 采用相同大小的随机观测矩阵进行采样和重构, 本文所述方法的重构结果比文献[15]有较为明显的提高, 且随着降维比例的增大, 重构结果的稳定性也有较为明显的提升。

表 4 不同重构方法重构性能比较(M/N=0.5)
Table 4 Comparison of the PSNR of reconstructions with different algorithm (M/N=0.5)

下载CSV
方法 降维比例 PSNR/dB
Lena Peppers OT-colon
本文 t=1 35.167 4 36.308 2 30.310 1
t=2 35.068 1 36.125 0 30.203 6
t=4 35.189 2 36.298 5 30.128 8
t=8 34.838 5 35.625 5 30.117 1
t=16 34.499 1 35.270 9 29.119 6
文献[15] t=1 30.571 7 30.627 1 30.405 3
t=2 30.427 4 30.478 9 30.188 9
t=4 29.851 5 29.689 6 30.010 3
t=8 28.868 0 28.564 0 28.451 9
t=16 27.937 8 28.081 3 28.160 1

5 结论

半张量积压缩感知模型是一种可以有效降低观测矩阵在采样与重构过程中所占存储空间、内存空间以及数据计算量的新方法。在文献[15]基于lq-范数(0 < q < 1)进行优化重构的基础上, 本文提出了一种采用光滑高斯函数拟合l0-范数方法对原始稀疏信号进行重构的方法。

文中对拟合l0-范数重构算法进行了理论分析, 并通过1维稀疏信号和2维图像信号对算法的重构概率、收敛速度以及重构信号的PSNR等进行了验证和比较。实验结果表明,采用光滑高斯函数拟合l0-范数方法同样能够实现对稀疏信号的精确重构, 且重构性能比文献[15]的方法有一定的提升。

从实验结果可以看出, 采用降维后的观测矩阵, 其总体的重构性能基本与t=1时保持了大体一致的水平(目前的实验过程中没有对观测矩阵进行任何的优化处理)。当低维观测矩阵较好地满足RIP (restricted isometry property)性质时, 便出现了表 2表 3中最大值所在行中的情况, 即t > 1重构信号的PSNR值比t=1时高。这充分证明了采用低维观测矩阵是可以实现对原始信号的高质量重构的。

但是半张量积压缩感知模型还有一些问题亟待深入研究, 一是随着观测矩阵维数的持续减小, 其重构性能的稳定性有逐渐下降的趋势, 如表 2表 3最小值所在行中t=16时, 重构信号的PSNR值非常低。为此, 后续工作拟通过对低维观测矩阵进行QR分解与优化, 使其高概率地满足RIP性质, 以提升低维观测矩阵重构性能的稳定性。二是重构的实时性, 即重构过程中, 当采用更低维数的观测矩阵时, 存在重构时间的增加, 实时性变差的现象。

总地来说, 虽然目前所提出的半张量积压缩感知模型及算法没有效提升重构图像的质量, 但利用该模型有效降低了观测矩阵在采样和重构过程中所占的存储空间。利用该模型, 结合实际应用环境与条件, 选择合适的降维比例, 对于压缩感知的硬件实现有非常积极的意义。

参考文献

  • [1] Donoho D L. Compressed sensing[J]. IEEE Transactions on Information Theory , 2006, 52 (4) : 1289–1306. DOI:10.1109/TIT.2006.871582
  • [2] Candès E J, Romberg J, Tao T. Robust uncertainty principles:exact signal reconstruction from highly incomplete frequency information[J]. IEEE Transactions on Information Theory , 2006, 52 (2) : 489–509. DOI:10.1109/TIT.2005.862083
  • [3] Candès E J, Romberg J K, Tao T. Stable signal recovery from incomplete and inaccurate measurements[J]. Communications on Pure and Applied Mathematics , 2006, 59 (8) : 1207–1223. DOI:10.1002/cpa.20124
  • [4] Fu N, Qiao L Y, Cao L R. Block sparsity adaptive iteration algorithm for compressed sensing[J]. Acta Electronica Sinica , 2011, 39 (3A) : 75–79. [ 付宁, 乔立岩, 曹离然. 面向压缩感知的块稀疏度自适应迭代算法[J]. 电子学报 , 2011, 39 (3A) : 75–79. ]
  • [5] Abolghasemi V, Ferdowsi S, Sanei S. A block-wise random sampling approach:compressed sensing problem[J]. Journal of AI and Data Mining , 2015, 3 (1) : 93–100. DOI:10.5829/idosi.JAIDM.2015.03.01.10
  • [6] Candès E, Romberg J. Sparsity and incoherence in compressive sampling[J]. Inverse Problems , 2007, 23 (3) : 969–985. DOI:10.1088/0266-5611/23/3/008
  • [7] Do T T, Gan L, Nguyen N H, et al. Fast and efficient compressive sensing using structurally random matrices[J]. IEEE Transactions on Signal Processing , 2012, 60 (1) : 139–154. DOI:10.1109/TSP.2011.2170977
  • [8] Peng Z N, Ben D, Zhang G, et al. Sensing matrix construction for CS-MIMO radar based on sparse random array[J]. Acta Aeronautica et Astronautica Sinica , 2016, 37 (3) : 1015–1024. [ 彭珍妮, 贲德, 张弓, 等. 基于稀疏随机阵列配置的CS-MIMO雷达感知矩阵构造[J]. 航空学报 , 2016, 37 (3) : 1015–1024. DOI:10.7527/S1000-6893.2016.0020 ]
  • [9] Duarte M F, Baraniuk R G. Kronecker compressive sensing[J]. IEEE Transactions on Image Processing , 2012, 21 (2) : 494–504. DOI:10.1109/TIP.2011.2165289
  • [10] Otazo R, Candès E, Sodickson D K. Low-rank plus sparse matrix decomposition for accelerated dynamic MRI with separation of background and dynamic components[J]. Magnetic Resonance in Medicine , 2015, 73 (3) : 1125–1136. DOI:10.1002/mrm.25240
  • [11] Cai T T, Zhang A R. Sparse representation of a polytope and recovery of sparse signals and low-rank matrices[J]. IEEE Transactions on Information Theory , 2014, 60 (1) : 122–132. DOI:10.1109/TIT.2013.2288639
  • [12] Jing Z Y, Yang X M, Wang X Y. Low-rank and sparsity-based MRI reconstruction algorithm[J]. Application Research of Computers , 2015, 32 (3) : 942–945. [ 敬朝阳, 杨晓梅, 王郗雨. 基于稀疏与低秩的核磁共振图像重构算法[J]. 计算机应用研究 , 2015, 32 (3) : 942–945. DOI:10.3969/j.issn.1001-3695.2015.03.070 ]
  • [13] Zhu Z Z, Zhou C B, Liu F L, et al. Binarized measurement matrix for compressive sensing[J]. Journal of Microwaves , 2014, 30 (2) : 79–83. [ 朱志臻, 周崇彬, 刘发林, 等. 用于压缩感知的二值化测量矩阵[J]. 微波学报 , 2014, 30 (2) : 79–83. ]
  • [14] Wang X, Wang K, Wang Q Y, et al. Deterministic random measurement matrices construction for compressed sensing[J]. Journal of Signal Processing , 2014, 30 (4) : 436–442. [ 王侠, 王开, 王青云, 等. 压缩感知中的确定性随机观测矩阵构造[J]. 信号处理 , 2014, 30 (4) : 436–442. DOI:10.3969/j.issn.1003-0530.2014.04.010 ]
  • [15] Wang J M, Ye S P, Xu Z Y, et al. Reducing the storage space of the measurement matrix for compressive sensing[J]. Journal of Image and Graphics , 2016, 21 (7) : 835–844. [ 王金铭, 叶时平, 徐振宇, 等. 低存储化压缩感知[J]. 中国图象图形学报 , 2016, 21 (7) : 835–844. DOI:10.11834/jig.20160701 ]
  • [16] Chen D Z, Qi H S, Li Z Q. Analysis and Control of Boolean Networks:A Semi-tensor Product Approach[M]. 2011 : 19-53.
  • [17] Mohimani G H, Babaie-Zadeh M, Jutten C. Fast sparse representation based on smoothed l0 norm[C]//Proceedings of the 7th International Conference. Berlin Heidelberg:Springer, 2007:389-396. [DOI:10.1007/978-3-540-74494-8_49]
  • [18] Bu H X, Tao R, Bai X, et al. Regularized smoothed l0 norm algorithm and its application to CS-based radar imaging[J]. Signal Processing , 2016, 122 : 115–122. DOI:10.1016/j.sigpro.2015.11.024
  • [19] Zhang C C, Song S T, Wen X T, et al. Improved sparse decomposition based on a smoothed L0 norm using a Laplacian kernel to select features from fMRI data[J]. Journal of Neuroscience Methods , 2015, 245 : 15–24. DOI:10.1016/j.jneumeth.2014.12.021
  • [20] Cheng X L, Zheng X, Han W M. Algorithms on the sparse solution of under-determined linear systems[J]. Applied Mathematics A Journal of Chinese Universities , 2013, 28 (2) : 235–248. [ 程晓良, 郑璇, 韩渭敏. 求解欠定线性方程组稀疏解的算法[J]. 高校应用数学学报 , 2013, 28 (2) : 235–248. ]
  • [21] Daubechies I, Devore R, Fornasier M, et al. Iteratively reweighted least squares minimization for sparse recovery[J]. Communications on Pure and Applied Mathematics , 2010, 63 (1) : 1–38. DOI:10.1002/cpa.20303
  • [22] Barré S. Medical image samples[EB/OL]. (1999-07-24)[2015-06-08]. http://www.barre.nom.fr/medical/samples/.