当前位置: X-MOL 学术arXiv.cs.NA › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
WARPd:具有近似锐度条件的逆问题的线性收敛一阶方法
arXiv - CS - Numerical Analysis Pub Date : 2021-10-24 , DOI: arxiv-2110.12437
Matthew J. Colbrook

从欠采样和噪声测量中重建信号是一个相当有趣的话题。锐度条件直接控制一阶方法的重启方案的恢复性能,而不需要强凸性等限制性假设。然而,在存在噪声或近似模型类(例如近似稀疏性)的情况下应用它们具有挑战性。我们提供了一种一阶方法:加权、加速和重新启动的原始对偶 (WARPd),基于原始对偶迭代和一种新颖的重新启动重新加权方案。在通用的近似锐度条件下,WARPd 实现了对所需向量的稳定线性收敛。许多感兴趣的问题都适合这个框架。例如,我们分析压缩感知中的稀疏恢复、低秩矩阵恢复、矩阵补全、TV 正则化、$\|Bx\|_{l^1}$ 在约束条件下的最小化($l^1$-一般$B$ 的分析问题),以及混合正则化问题。我们展示了几个控制恢复性能的量如何也提供明确的近似锐度常数。数值实验表明,WARPd 与专业的最新方法相比具有优势,非常适合解决大规模问题。我们还提出了一种基于平方根 LASSO 解码器的噪声盲变体。最后,我们展示了如何将 WARPd 展开为神经网络。该近似理论结果为用于逆问题的稳定和准确的神经网络提供了下限,并阐明了架构选择。代码和示例库作为 MATLAB 包在线提供。和混合正则化问题。我们展示了几个控制恢复性能的量如何也提供明确的近似锐度常数。数值实验表明,WARPd 与专业的最新方法相比具有优势,非常适合解决大规模问题。我们还提出了一种基于平方根 LASSO 解码器的噪声盲变体。最后,我们展示了如何将 WARPd 展开为神经网络。该近似理论结果为用于逆问题的稳定和准确的神经网络提供了下限,并阐明了架构选择。代码和示例库作为 MATLAB 包在线提供。和混合正则化问题。我们展示了几个控制恢复性能的量如何也提供明确的近似锐度常数。数值实验表明,WARPd 与专业的最新方法相比具有优势,非常适合解决大规模问题。我们还提出了一种基于平方根 LASSO 解码器的噪声盲变体。最后,我们展示了如何将 WARPd 展开为神经网络。该近似理论结果为用于逆问题的稳定和准确的神经网络提供了下限,并阐明了架构选择。代码和示例库作为 MATLAB 包在线提供。数值实验表明,WARPd 与专业的最新方法相比具有优势,非常适合解决大规模问题。我们还提出了一种基于平方根 LASSO 解码器的噪声盲变体。最后,我们展示了如何将 WARPd 展开为神经网络。该近似理论结果为用于逆问题的稳定和准确的神经网络提供了下限,并阐明了架构选择。代码和示例库作为 MATLAB 包在线提供。数值实验表明,WARPd 与专业的最新方法相比具有优势,非常适合解决大规模问题。我们还提出了一种基于平方根 LASSO 解码器的噪声盲变体。最后,我们展示了如何将 WARPd 展开为神经网络。该近似理论结果为用于逆问题的稳定和准确的神经网络提供了下限,并阐明了架构选择。代码和示例库作为 MATLAB 包在线提供。该近似理论结果为用于逆问题的稳定和准确的神经网络提供了下限,并阐明了架构选择。代码和示例库作为 MATLAB 包在线提供。该近似理论结果为用于逆问题的稳定和准确的神经网络提供了下限,并阐明了架构选择。代码和示例库作为 MATLAB 包在线提供。



"点击查看英文标题和摘要"

更新日期:2021-10-26
down
wechat
bug