搜索资源列表
Bayes
- 一个比较简单的模式识别问题。用female.txt 和male.txt 的数据作为训练样本集,建立Bayes 分类器,用测试样本数据set1.txt、set2.txt、set3.txt 对该分类器进行测试,分别应用单个特征及两个特征进行实验-A relatively simple pattern recognition problem. Female.txt and male.txt use data as a training sample set, the establishment of
fractaldimensionofchaosattractor
- 在重构相空间的基础上计算吸引子的分形维时,合适的嵌入维m和时间滞后τ的选取至关重要.在虚假邻域概念基础上,本文给出了确定m和τ的方法.较之以前的方法,此方法更准确、简单、容易理解、易实施,对较小样本数据集也可靠.最后的应用实例验证了理论的正确性.-In the reconstructed phase space based on the calculation of the fractal dimension of attractor, the appropriate embedding dim
1124345436765564
- 粒子滤波(PF: Particle Filter)的思想基于蒙特卡洛方法(Monte Carlo methods),它是利用粒子集来表示概率,可以用在任何形式的状态空间模型上。其核心思想是通过从后验概率中抽取的随机状态粒子来表达其分布,是一种顺序重要性采样法(Sequential Importance Sampling)。简单来说,粒子滤波法是指通过寻找一组在状态空间传播的随机样本对概率密度函数 进行近似,以样本均值代替积分运算,从而获得状态最小方差分布的过程。这里的样本即指粒子,当样本数量N→
Bayes-Iris
- 根据贝叶斯原理设计的一个简单的分类器,利用已知样本数据训练后,分类器就可以对未知样本进行分类。(实验时采用的是Iris数据集。)-According to the design of a simple Bayesian classifier, using the known training sample data, the classifier can classify the unknown samples. (Experiments using the Iris data set.)
sampenc
- 对数据集特征压缩,用样本熵的方法进行压缩,简单,易懂,matlab程序源代码-Compressed data set characteristics, sample entropy compression, simple, understandable, matlab program source code
javaKNN
- java KNN 算法源码: 邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法可以说是整个数据挖掘分类技术中最简单的方法了。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用她最接近的k个邻居来代表。 kNN算法的核心思想是如果一个样本在特征空间中的k个最相似的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 kNN方法在类别决策
classification
- 基于分类树的分类,与神经网络相比算法简单,分类结果看数据大小和样本集而定。简单易行的图像处理,对于初学者非常实用。 -Classification tree based on comparison with the neural network algorithm is simple, look at the data classification and sample size may be set. Simple image processing, very useful for beg
KNN
- 邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。 kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 kNN方法在类别决策时,只与极少量的相邻样本有关。由于kNN方
KS_RS_SPXY
- 用于数据建模时的样本集自动划分方法,包括RS、KS、SPXY,方法简单实用-Method of automatic sample set time for data modeling, including RS, KS, SPXY, simple and practical method
RandomForest
- 随机森林是由多棵树组成的分类或回归方法。主要思想来源于Bagging算法,Bagging技术思想主要是给定一弱分类器及训练集,让该学习算法训练多轮,每轮的训练集由原始训练集中有放回的随机抽取,大小一般跟原始训练集相当,这样依次训练多个弱分类器,最终的分类由这些弱分类器组合,对于分类问题一般采用多数投票法,对于回归问题一般采用简单平均法。随机森林在bagging的基础上,每个弱分类器都是决策树,决策树的生成过程中中,在属性的选择上增加了依一定概率选择属性,在这些属性中选择最佳属性及分割点,传统做法
knn-MATLAB
- 这是一个实现简单的多数表决法的KNN算法。KNN算法涉及三个重要的步骤,分别是决定K的大小;距离的表达方法(一般有欧式距离,曼哈顿距离,Minkowski距离);决策方法(多数表决法,KD树法等)。本程序是采用多数表决的决策方法,距离表达采用欧式距离。适用于小样本少特征的数据集。(KNN algorithm realized by MATLAB, useful for small training set and less features.)
kenston
- 用于数据建模时的样本集自动划分方法,方法简单实用(Method of automatic sample set time for data modeling, including KS,, simple and practical method)
matlab贝叶斯分类(1)-简单样本集
- 利用matlab实现贝叶斯分类,采取“留一法”选取训练集和测试集,最后返回准确率为0.8571。(Bias classification is realized by MATLAB, and training set and test set are selected by "leaving one method", and the accuracy of return is 0.8571.)
机器学习之随机森林
- Bagging是并行式集成学习方法最著名的代表,Bagging通常对分类任务使用简单投票法,随机森林(RF)是Bagging的一个扩展变体,RF在以决策树为基学习器构建Bagging 集成的基础上,进一步在决策树的训练过程中引入了随机属性选择。在RF中,集成模型的每棵树构建时所需的样本都是由训练集经过有放回的随机抽样得来(即自助采样法bootstrap sample)。