写成N个点Xi=(X1i,X2i,... xXi)作为行向量。把这些向量写成一个矩阵X(X将是N*M阶矩阵)。通过减去每列的平均值来把数据中心化,并令变化好的矩阵为B。计算协方差阵C= 1/N *B^TB。计算C的特征向量和特征值,即V^-1CV=D,其中V由C的特征向量组成,D是由特征值组成的M*M阶对角矩阵。把D对角线上元素按降序排列,并对V的列向量做同样的排列。去掉那些小于η的特征值,剩下L维的数据。3. 基于核的PCA算法
选择核并且把它应用于距离矩阵从而得到矩阵K。计算K的特征值和特征向量。通过特征值的平方根标准化特征向量。保留与最大特征值对应的特征向量。4. 因素分析
计算由每对点平方相似度组成的矩阵D, Dij=|xi-xj|.计算J=IN – 1/N (IN是N*N单位矩阵,N是数据点个数)。计算B=-1/2JDJ^T.找到B的L个最大的特征值入i,,以及相对应的特征向量ei。用特征值组成对角矩阵V并且用特征向量组成矩阵P的列向量。计算嵌入x=pv^0.58. ISOMAP算法
创建所有点对之间的距离确定每个点的邻近点,并做成一个权重表G通过找最短路径估计测地距离dG把经典MDS算法用于一系列dG03 概率学习
给定一个初始点X0当J^Tr(x)>公差并且没有超出最大迭代次数:重复:用线性最小二乘法算出(J^TJ+vI)dx=一J^Tr中的dx。令Xnew=x+dx。计算实际减少和预测减少的比例:实际=||f(x)- f(xnew)||预测=▽f^T(x)*xnew-xp=实际/预测如果0<p<0.25:接受:x=Xnew。或者如果p>0.25:接受: x=Xnew。增加信赖城大小(减少v)。或者:拒绝。减少信赖域大小(增加v)。一直到x被更新或超出跌代的最大次数3. 共轭梯度
给一个初始点x0和停止参数ε,令p0=-▽f(x)。设置Pnew=P0当Pnew>εεp0时:用牛顿-拉夫森迭代法计算αkP当ααdp>ε2时:α=-(▽f(x)^T p)(p^T H(x)p)x=x+αPdp=P^TP评价▽f(xnew)。计算βn+1-更新p←▽f(xnew)+βk+1p。检查及重新启动。4. 搜索的三种基本方法
初始化进过我们选的字母表产生N个长为L的字符事。学习生成一个(开始是空的)新的种群。重复: 通过适应度在当前种群中选择两个字符串。 重组它们产生两个新的字符串。 让后代变异。 要么把两个后代加到种群中,要么使用精英法和比赛法 保持记录种群中最好的字符串。直到新种群中产生N个字符串可选性地,使用精英法从父代中挑选最合适的字符串,并替换子代中的一些其他字符串。追踪新种群中最好的字符串。用新种群代替当前种群直到到达停止标准。
初始化对于所有的s和a, 设置Q(s, a)为一个很小的随机數。重复:初始化s。用目前的策略选择动作a。重复: 使用ε-greedy或者其他策略来选择动作a。 采取动作a并得到奖赏r。 采样新的状态s’ 更新Q(s, a)←Q(s, a)+u(r+γmaxa’ (s', a')-Q(s, a)) 设置s←s'应用到当前情节的每一步。直到没有更多的情节。4. Sarsa算法
初始化对于所有的s和a,设置Q(s, a)为一个很小的随机数。重复:初始化s。用当前策略选择动作重复: 实行动作a并得到奖赏r 采样新的状态s' 用当前策略选择动作a 更新Q(s, a)<-Q(s, a)+u(r+yYQ(s',a')-Q(s,a)). s<-s’,a<-a’应用到当前情节的每一步直到没有更多的情节。
如果所有的样本都具有同一标记:返回标记为该类标记的叶子节点。否则,如果没有剩余特征用于测试:返回标记为最常见标记的叶子节点,否则:使用公式选择S中具有最大信息增益的特征户作为下一个节点。为每一个特征户的可能取值f增加一个分支。对于每个分支:计算除去F后的每一个特征的Sf,使用Sf递归调用算法,计算目前样本集合的信息增益。
对于每N个树:创建一个训练集的bootstrap样本。使用这个bootstrap样本训练决策树。在决策树的每一个节点,随机选择m个特征,然后只在这些特征集合中计算信息增益(或者基尼不纯度),选择最优的一个。重复过程直到决策树完成。4. 专家混合算法
欢迎光临 智客公社 (http://bbs.cnaiplus.com/) | Powered by Discuz! X3.4 |