首页 > 编程知识 正文

matlab的pde工具箱教程,matlabpde工具箱

时间:2023-05-05 21:06:18 阅读:25836 作者:2187

1.MATLAB dr工具箱介绍

thematlabtoolboxfordimensionalityreductioncontainsmatlabimplementationsof 38 techniquesfordimensionalityreductionandmetriclearearararnion

官方网站:

thismatlabtoolboximplements 32 techniquesfordimensionalityreduction.thesetechniquesareallavailablethroughthecompute _ mapping

- principalcomponentanalysis (' PCA ) )。

- lineardiscriminantanalysis (' LDA ) ) ) ) ) ) ) )。

-多重身份验证(' MDS ) )。

-可移植PCA (可移植PCA ) ) )。

-因子分析(因子分析) )

-三星映射(三星) ) )。

-isomap(isomap ) )

-landmarkisomap(landmarkisomap ) )

-locallylinearembedding('lle ) ) ) )。

- laplacianeigenmaps ((' laplacian ' ) ) ) ) ) ) ) ) )。

-HessianLLE(HessianLLE ) )

-本地语言空间((' ltsa ) ) ) ) ) ) ) ) )。

-diffusionmaps(diffusionmaps ) )

-KernelPCA('KernelPCA ' ) ) ) )。

-通用离散任务分析((' kernel LDA ' ) ) ) ) ) ) ) )。

- stochasticneighborembedding (SNE ) )。

- symmetricstochasticneighborembedding (syms ne ) )。

-叔分布式stochasticneighborembedding (' tsne ) ) ) )。

- neighborhoodpreservingembedding (' npe ) )。

- linearitypreservingprojection (' lpp ' )

- stochasticproximityembedding (SPE ) )。

- linearlocaltangentspacealignment (' lltsa ' )

-conformaleigenmaps('CCA ',implemented as an extension of LLE ) )。

-maximumvarianceunfolding('mvu ',implemented as an extension of LLE ) )。

- landmarkmaximumvarianceunfolding (landmarkmvu ) ) ) ) ) ) ) ) ) )。

- fastmaximumvarianceunfolding (' fastm vu ' ) ) )。

- locallylinearcoordination ((' LLC ) ) ) ) ) ) ) ) ) )。

-管理图表(('管理图表' ) ) ) ) ) ) ) ) )。

- coordinatedfactoranalysis ((' CFA ' ) ) ) ) ) ) ) ) )。

-高斯处理分布式可变模块(gp LVM ) )。

- autoencodersusingstack-of-rbmspretraining ((' autoencoderrbm ' ) ) ) ) ) ) ) ) )。

-自动化(自动化) )。

Furthermore,thetoolboxcontains6techniquesforintrinsicdimensionalityestimation.thesetechniquesareavailablethroughthefunction

- eigen value-based estimation ((' EIG value ' ) ) ) ) ) ) ) )。

- Maximum Likelihood Estimator ('

MLE')

- Estimator based on correlation dimension ('CorrDim')

- Estimator based on nearest neighbor evaluation ('NearNb')

- Estimator based on packing numbers ('PackingNumbers')

- Estimator based on geodesic minimum spanning tree ('GMST')

In addition to these techniques, the toolbox contains functions for prewhitening of data (the function PREWHITEN), exact and estimate out-of-sample extension (the functions OUT_OF_SAMPLE and OUT_OF_SAMPLE_EST), and a function that generates toy datasets (the function GENERATE_DATA).

The graphical user interface of the toolbox is accessible through the DRGUI function. 2.安装

将下载好的drtoolbox工具包解压到指定目录:D:MATLABR2012btoolbox

找到'D:MATLABR2012btoolboxlocalpathdef.m'文件,打开,并把路径添加到该文件中,保存。

运行 rehash toolboxcache 命令,完成工具箱加载

>>rehash toolboxcache

测试

>> what drtoolbox

3.工具箱说明

数据降维基本原理是将样本点从输入空间通过线性或非线性变换映射到一个低维空间,从而获得一个关于原数据集紧致的低维表示。

算法基本分类:

线性/非线性

线性降维是指通过降维所得到的低维数据能保持高维数据点之间的线性关系。线性降维方法主要包括PCA、LDA、LPP(LPP其实是Laplacian Eigenmaps的线性表示);非线性降维一类是基于核的,如KPCA,此处暂不讨论;另一类就是通常所说的流形学习:从高维采样数据中恢复出低维流形结构(假设数据是均匀采样于一个高维欧式空间中的低维流形),即找到高维空间中的低维流形,并求出相应的嵌入映射。非线性流形学习方法有:Isomap、LLE、Laplacian Eigenmaps、LTSA、MVU

整体来说,线性方法计算块,复杂度低,但对复杂的数据降维效果较差。

监督/非监督

监督式和非监督式学习的主要区别在于数据样本是否存在类别信息。非监督降维方法的目标是在降维时使得信息的损失最小,如PCA、LPP、Isomap、LLE、Laplacian Eigenmaps、LTSA、MVU;监督式降维方法的目标是最大化类别间的辨别信,如LDA。事实上,对于非监督式降维算法,都有相应的监督式或半监督式方法的研究。

全局/局部

局部方法仅考虑样品集合的局部信息,即数据点与临近点之间的关系。局部方法以LLE为代表,还包括Laplacian Eigenmaps、LPP、LTSA。

全局方法不仅考虑样本几何的局部信息,和考虑样本集合的全局信息,及样本点与非临近点之间的关系。全局算法有PCA、LDA、Isomap、MVU。

由于局部方法并不考虑数据流形上相距较远的样本之间的关系,因此,局部方法无法达到“使在数据流形上相距较远的样本的特征也相距较远”的目的。 4.工具箱使用

工具箱提供给用户使用的接口函数都在与这个Readme文件同路径的目录,主要包括如下文件:

使用实例:

clc

clear

close all

% 产生测试数据

[X, labels] = generate_data('helix', 2000);

figure

scatter3(X(:,1), X(:,2), X(:,3), 5, labels)

title('Original dataset')

drawnow

% 估计本质维数

no_dims = round(intrinsic_dim(X, 'MLE'));

disp(['MLE estimate of intrinsic dimensionality: ' num2str(no_dims)]);

% PCA降维

[mappedX, mapping] = compute_mapping(X, 'PCA', no_dims);

figure

scatter(mappedX(:,1), mappedX(:,2), 5, labels)

title('Result of PCA')

% Laplacian降维

[mappedX, mapping] = compute_mapping(X, 'Laplacian', no_dims, 7);

figure

scatter(mappedX(:,1), mappedX(:,2), 5, labels(mapping.conn_comp))

title('Result of Laplacian Eigenmaps')

drawnow

% Isomap降维

[mappedX, mapping] = compute_mapping(X, 'Isomap', no_dims);

figure

scatter(mappedX(:,1), mappedX(:,2), 5, labels(mapping.conn_comp))

title('Result of Isomap')

drawnow

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。