ML-AlphaGo Zero原理浅析

Introduction 当今有很多人工智能系统是使用监督学习的方法进行训练的,它们被训练成可以模仿人类专家去做出决策。然而: 在很多领域,监督学习的训练数据是昂贵的,不可靠甚至不可用的。 很多监督学习模型都存在一些性能上的瓶颈。 相比于强化学习方法: 模型根据机器自己的经验进行训练,原则上是可以超越人类的水准的。 强化学习可以运用在一些缺乏人类经验的领域中。 Difference 那么这次的Zero与之前各种版本的Go有哪些不同呢? 算法上,自对弈强化学习,从随机落子开始学习,不使用人类棋谱。之前Go的各种版本是使用了3000w+的人类棋谱。 数据结构上,只使用黑子白子两种状态。之前包含了这个点的气等信息。 模型上,只使用了一个神经网络,同时输出policy和value。

彻底学会PCA3-最近重构性的推导

【系列文章】: 彻底学会PCA1-理解PCA原理 彻底学会PCA2-最大可分性的推导 彻底学会PCA3-最近重构性的推导 前言 这一篇文章主要讲解PCA的另外一种推导方式——最近重构性。这个系列的三篇文章的数学难度是渐进的,所以这一篇文章的数学要求也是最高的。这篇文章主要是我在学习《Deep Learning》的时候做的总结,因为涉及到大量的公式推导,在网页上书写公式太过繁琐,所以使用截图的方式给出。在必要的地方我会加上我自己的理解,希望可以帮助到你,欢迎与我通过邮箱进行交流。 最近重构性 这里解释一下这个线性代数微积分最优化问题。前面我们通过转置相乘的方式表示内积,即\(A\cdot A

彻底学会PCA2-最大可分性的推导

【系列文章】: 彻底学会PCA1-理解PCA原理 彻底学会PCA2-最大可分性的推导 彻底学会PCA3-最近重构性的推导 前言 上一篇文章《彻底学会PCA1-理解PCA原理》中,我为大家讲解了一下PCA是什么,这一篇文章我打算从数学的角度推导一下PCA。PCA一共有2种证明方式,一种是最大可分性,一种是最近重构性。这一篇文章从最大可分性的角度进行介绍,另一种解释会在下一篇文章中介绍。希望可以帮助到大家,欢迎随时通过邮箱与我交流。 阅读本篇文章,您需要掌握基本的向量、基、方差、协方差矩阵等相关基础知识。 优化目标 推导的大体思路就是明确优化目标,然后求出最优解。我们在这里通过一个例子来引出优化目标。

彻底学会PCA1-理解PCA原理

【系列文章】: 彻底学会PCA1-理解PCA原理 彻底学会PCA2-最大可分性的推导 彻底学会PCA3-最近重构性的推导 前言 最近在学习机器学习相关的一些线性代数知识,这其中就涉及到了PCA的原理。在这里将自己的学习过程整理成一个系列,希望可以帮助到大家。如果您有任何问题可以给我发邮件,我会在第一时间反馈给您。读懂这篇文章需要一定的线性代数知识,比如向量、矩阵、【特征向量】以及【特征值】的相关知识。如果您现在并未掌握上述基础知识还请先学习一下,互联网上有丰富的学习资源。 PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,

ML-情感分析2-使用向量空间模型与SVM进行情感分析

前言 在ML-情感分析1-使用W2V与SVM进行情感分析这篇文章中,我们使用了word2vec模型进行了向量化,同时还为大家介绍了一下情感分析的基本流程。今天我们在这一篇文章中将为大家介绍向量空间模型向量化文字、使用卡方检验降维和使用tf-idf值规范化输入矩阵的知识。如果您对上述知识有什么不了解的地方,没关系,我都会在本篇文章中进行简略介绍。 1、语料预处理 作者在这里使用的是一个携程酒店正面负面评论的语料库,有3000条负面评论和7000条正面评论。可以从CSDN上面下载。如果您实在找不到下载资源可以从文末的给出的链接中下载。 同时我们还需要获取一个停用词表,这里我选择使用了中科院提供的一个停用词表。相关的资源都在我的ML-情感分析1-使用W2V与SVM进行情感分析这篇文章的文末给出了。 我们首先还是需要将语料转换成UTF-8的格式,相关代码在上篇文章中,接下来依次清洗数据、数据分词、去除停用词。建议首先从上一篇文章阅读 2、向量空间模型

ML-情感分析1-使用W2V与SVM进行情感分析

前言 情感分析是当前比较火热的自然语言处理领域,当前情感分析主要有三种方式,第一种使用情感词典进行情感分析,第二种是使用机器学习的方式进行情感分析,最后一种是综合前两种方式进行分析。本篇文章主要介绍如何使用机器学习的方式来解决情感分析问题。需要涉及到SVM(支持向量机)、PCA和Word2Vec的相关知识,如果读者还有什么不了解的话可以自行搜索学习。简单来说可以将SVM理解成一个分类器,区分正面和负面情绪。PCA(主成分分析法)可以理解成是一个告诉你哪些输入特征更加重要的算法,Word2Vec是一个可以将文字转换为机器可理解的向量的算法。希望这篇文章可以让读者简单了解情感分析过程中需要考虑的几个基本步骤 获取训练语料 作者在这里使用的是一个携程酒店正面负面评论的语料库,有3000条负面评论和7000条正面评论。可以从CSDN上面下载。如果您实在找不到下载资源可以从文末的给出的链接中下载。 同时我们还需要获取一个停用词表,这里我选择使用了中科院提供的一个停用词表 预处理语料

ML-训练自己的Word2Vec模型

前言 Word2Vec是Google推出的一款用于将自然语言映射为机器可以处理的向量的算法。是目前较为流行的一种重要算法,在自然语言处理界中有着广泛的应用。本篇博客就来为大家分享一下如何在Windows系统下使用Python语言训练自己的Word2Vec模型。 获取语料 如果要训练模型,首先需要大量的中文语料,不过不用担心,当前网络上已经有很多开源的语料库,不需要我们自己再去费力构建了。读者可以从这篇文章中挑选自己喜欢的语料库,在这里作者选择了搜狗的语料库,可以从这里下载。作者在这里下载了完整版的Zip版本。 下载后解压得到一个“news_tensite_xml.dat”文件 构建语料库 在刚刚获得的dat文件中,所有的数据都是以以下的形式存储的: <doc&

ML-Softmax分类器的数学原理与统计原理

前言 Softmax是机器学习中最为基础的一种算法,其本质是对logistic回归算法的推广。logistic算法是二元分类,Softmax算法是多元分类。在这一篇博文中,我将向大家介绍分别介绍数学原理与统计原理。阅读本篇博文之前,希望你已经掌握了logistic算法的相关知识。不了解也没关系,但是可能有一些概念需要你现学一下。 广义线性模型(GLM)与指数分布族 广义线性模型是一系列模型的统称,其是基于指数分布族的。如果一个概率分布函数可以写成如下模式: \[ p(y;\eta)=b(y)exp(\eta^TT(y)

Previous Page
Page 1 of 1
Next Page