当前位置:
X-MOL 学术
›
WIREs Data Mining Knowl. Discov.
›
论文详情
Our official English website, www.x-mol.net, welcomes your
feedback! (Note: you will need to create a separate account there.)
Dimensionality Reduction for Data Analysis With Quantum Feature Learning
WIREs Data Mining and Knowledge Discovery ( IF 6.4 ) Pub Date : 2024-11-21 , DOI: 10.1002/widm.1568
Shyam R. Sihare
WIREs Data Mining and Knowledge Discovery ( IF 6.4 ) Pub Date : 2024-11-21 , DOI: 10.1002/widm.1568
Shyam R. Sihare
To improve data analysis and feature learning, this study compares the effectiveness of quantum dimensionality reduction (qDR) techniques to classical ones. In this study, we investigate several qDR techniques on a variety of datasets such as quantum Gaussian distribution adaptation (qGDA), quantum principal component analysis (qPCA), quantum linear discriminant analysis (qLDA), and quantum t‐SNE (qt‐SNE). The Olivetti Faces, Wine, Breast Cancer, Digits, and Iris are among the datasets used in this investigation. Through comparison evaluations against well‐established classical approaches, such as classical PCA (cPCA), classical LDA (cLDA), and classical GDA (cGDA), and using well‐established metrics like loss, fidelity, and processing time, the effectiveness of these techniques is assessed. The findings show that cPCA produced positive results with the lowest loss and highest fidelity when used on the Iris dataset. On the other hand, quantum uniform manifold approximation and projection (qUMAP) performs well and shows strong fidelity when tested against the Wine dataset, but ct‐SNE shows mediocre performance against the Digits dataset. Isomap and locally linear embedding (LLE) function differently depending on the dataset. Notably, LLE showed the largest loss and lowest fidelity on the Olivetti Faces dataset. The hypothesis testing findings showed that the qDR strategies did not significantly outperform the classical techniques in terms of maintaining pertinent information from quantum datasets. More specifically, the outcomes of paired t ‐tests show that when it comes to the ability to capture complex patterns, there are no statistically significant differences between the cPCA and qPCA, the cLDA and qLDA, and the cGDA and qGDA. According to the findings of the assessments of mutual information (MI) and clustering accuracy, qPCA may be able to recognize patterns more clearly than standardized cPCA. Nevertheless, there is no discernible improvement between the qLDA and qGDA approaches and their classical counterparts.
中文翻译:
使用量子特征学习进行数据分析的降维
为了改进数据分析和特征学习,本研究将量子降维 (qDR) 技术的有效性与传统技术进行了比较。在这项研究中,我们研究了各种数据集上的几种 qDR 技术,例如量子高斯分布适应 (qGDA)、量子主成分分析 (qPCA)、量子线性判别分析 (qLDA) 和量子 t-SNE (qt-SNE)。Olivetti Faces、Wine、Breast Cancer、Digits 和 Iris 是本次调查中使用的数据集。通过与经典 PCA (cPCA)、经典 LDA (cLDA) 和经典 GDA (cGDA) 等成熟的经典方法进行比较评估,并使用损失、保真度和处理时间等成熟指标,评估这些技术的有效性。研究结果表明,在 Iris 数据集上使用时,cPCA 产生了具有最低损失和最高保真度的积极结果。另一方面,量子均匀流形近似和投影 (qUMAP) 表现良好,在 Wine 数据集上测试时显示出很强的保真度,但 ct-SNE 在 Digits 数据集上表现平平。Isomap 和局部线性嵌入 (LLE) 的功能因数据集而异。值得注意的是,LLE 在 Olivetti Faces 数据集上显示出最大的损失和最低的保真度。假设检验结果表明,qDR 策略在维护量子数据集的相关信息方面并没有显着优于经典技术。更具体地说,配对 t 检验的结果表明,当涉及到捕获复杂模式的能力时,cPCA 和 qPCA、cLDA 和 qLDA 以及 cGDA 和 qGDA 之间没有统计学上的显著差异。 根据互信息 (MI) 和聚类准确性的评估结果,qPCA 可能比标准化 cPCA 更清楚地识别模式。然而,qLDA 和 qGDA 方法与经典方法之间没有明显的改进。
更新日期:2024-11-21
中文翻译:
使用量子特征学习进行数据分析的降维
为了改进数据分析和特征学习,本研究将量子降维 (qDR) 技术的有效性与传统技术进行了比较。在这项研究中,我们研究了各种数据集上的几种 qDR 技术,例如量子高斯分布适应 (qGDA)、量子主成分分析 (qPCA)、量子线性判别分析 (qLDA) 和量子 t-SNE (qt-SNE)。Olivetti Faces、Wine、Breast Cancer、Digits 和 Iris 是本次调查中使用的数据集。通过与经典 PCA (cPCA)、经典 LDA (cLDA) 和经典 GDA (cGDA) 等成熟的经典方法进行比较评估,并使用损失、保真度和处理时间等成熟指标,评估这些技术的有效性。研究结果表明,在 Iris 数据集上使用时,cPCA 产生了具有最低损失和最高保真度的积极结果。另一方面,量子均匀流形近似和投影 (qUMAP) 表现良好,在 Wine 数据集上测试时显示出很强的保真度,但 ct-SNE 在 Digits 数据集上表现平平。Isomap 和局部线性嵌入 (LLE) 的功能因数据集而异。值得注意的是,LLE 在 Olivetti Faces 数据集上显示出最大的损失和最低的保真度。假设检验结果表明,qDR 策略在维护量子数据集的相关信息方面并没有显着优于经典技术。更具体地说,配对 t 检验的结果表明,当涉及到捕获复杂模式的能力时,cPCA 和 qPCA、cLDA 和 qLDA 以及 cGDA 和 qGDA 之间没有统计学上的显著差异。 根据互信息 (MI) 和聚类准确性的评估结果,qPCA 可能比标准化 cPCA 更清楚地识别模式。然而,qLDA 和 qGDA 方法与经典方法之间没有明显的改进。