迷雾探险4 | AlphaGo原理浅析(转)

没想到这么快就可以开始接触阿尔法狗的原理了,俗话说的好,读万卷书不如行万里路,原理都是枯燥的,但是,能够看见一个活生生的例子,再去探寻原理,就是一件非常有趣的事情!

参考博客:

周志华《Machine Learning》学习笔记(17)--强化学习 :原来强化学习都是作为学习算法的最后一种算法来介绍的。

1. AlphaGo的基础——强化算法

强化学习是AlphaGo的核心技术之一,正如人类下棋那般“手下一步棋,心想三步棋”,Alphago也正是这个思想,当处于一个状态时,机器会暗地里进行多次的尝试/采样,并基于反馈回来的结果信息改进估值函数,从而最终通过增强版的估值函数来选择最优的落子动作。

  • 涉及三个主要问题:
    (1)如何确定估值函数——深度学习
    (2)如何进行采样——蒙特卡洛搜索树
    (3)如何基于反馈信息改进估值函数——强化学习

3.1 深度学习(拟合估值函数)

在模型已知的前提下,用来评估某个策略优劣的两个值函数
(1)状态值函数(V):V(x),即从状态x出发,使用π策略所带来的累积奖赏;
(2)状态-动作值函数(Q):Q(x,a),即从状态x出发,执行动作a后再使用π策略所带来的累积奖赏。

  • Why:围棋状态空间巨大,像蒙特卡罗强化学习做 确定值函数 行不通,只能估值。
  • What:围棋中,状态值函数可以看作为一种局面函数,状态-动作值函数可以看做一种策略函数,实现这两个函数的估值函数后,就可以完成
    (1)衡量当前局面的价值。
    (2)选择当前最优的动作。
  • How:通过深度学习,利用大量的对弈数据自动学习出特征,从而拟合出估值函数。

3.2 蒙特卡罗搜索树(采样)

  • Why && What:蒙特卡罗树是一种经典的搜索框架,它通过反复地采样模拟对局来探索状态空间。
  • How:从当前状态开始,利用策略函数尽可能选择当前最优的动作,同时也引入随机性来减小估值错误带来的负面影响,从而模拟棋局运行,使得棋盘达到终局或一定步数后停止。

3.3 强化学习(调整估值函数)

  • How:在使用蒙特卡罗搜索树进行多次采样后,每次采样都会反馈后续的局面信息(利用局面函数进行评价),根据反馈回来的结果信息自动调整两个估值函数的参数,这便是强化学习的核心思想,最后基于改进后的策略函数选择出当前最优的落子动作。

2. AlphaGo训练过程

转自https://blog.csdn.net/xbinworld/article/details/50900443

AlphaGo的原理图

  • 离线学习
    a. 第一阶段:深度学习+3万个专业棋手对局的棋谱数据==>两个网络.
    (1)基于全局特征和深度卷积网络(CNN)训练出来的策略网络(Policy Network):(输入)当前局面、(输出)下一步棋在棋盘上其他空地的落子概率。速度慢&精度高
    (2)利用局部特征和线性模型训练出来的快速走棋策略(Rollout Policy)。速度快&精度低
    b. 第二阶段:利用第t轮的策略网络<==对弈==>前一轮训练好的策略网络,增强学习可以修正第t轮参数。水分大(两个6岁的孩子相互对弈能超过9段专家吗?)
    c. 第三阶段:生成估值网络(作为AlphaGo的一大创新,因为围棋最难的就是根据当前的局势来判断最后的输赢,职业棋手都很难把控)
    (1)Step1:先利用普通的策略网络来生成棋局的前U-1步(U是一个属于[1, 450]的随机变量),
    (2)Step2:利用随机采样来决定第U步的位置(这是为了增加棋的多样性,防止过拟合)
    (3)Step3:利用增强的策略网络来完成后面的自我对弈过程,直至棋局结束分出胜负。此后,第U步的盘面作为特征输入,胜负作为label,学习一个价值网络(Value Network),用于判断结果的输赢概率。

  • 在线博弈(核心思想实在蒙特卡洛搜索树(MCTS)中嵌入了深度神经网络来减少搜索空间。AlphaGo并没有具备真正的思维能力。)

  1. 根据当前盘面已经落子的情况提取相应特征;
  2. 利用策略网络估计出棋盘其他空地的落子概率;
  3. 根据落子概率来计算此处往下发展的权重,初始值为落子概率本身(如0.18)。实际情况可能是一个以概率值为输入的函数,此处为了理解简便。
  4. 利用价值网络和快速走棋网络分别判断局势,两个局势得分相加为此处最后走棋获胜的得分。这里使用快速走棋策略是一个用速度来换取量的方法,从被判断的位置出发,快速行棋至最后,每一次行棋结束后都会有个输赢结果,然后综合统计这个节点对应的胜率。而价值网络只要根据当前的状态便可直接评估出最后的结果。两者各有优缺点、互补。
  5. 利用第四步计算的得分来更新之前那个走棋位置的权重(如从0.18变成了0.12);此后,从权重最大的0.15那条边开始继续搜索和更新。这些权重的更新过程应该是可以并行的。当某个节点的被访问次数超过了一定的门限值,则在蒙特卡罗树上进一步展开下一级别的搜索(如图所示)。
    MCTS拓展下一级节点
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容