从零开始实现 AlphaGo(一)

围棋作为人类的娱乐游戏中复杂度最高的一个,它横竖各有 19 条线,共有 361 个落子点,状态空间高达 10 的 171 次方 $(注:宇宙中的原子总数是 10 的 80 次方,即使穷尽整个宇宙的物质也不能存下围棋的所有可能性),但是谷歌的 AlphaGo 做到了!

作为 AlphoGo 的带头人,David Sliver 及其团队可以说盛名远扬,其以前沿的目光发表了人工智能的终极目标是:AI = DL(Deep Learning)+ RL(Reinforcement Learning)。

这篇 Chat 主要带领大家一起:

  1. 了解 AlphaGo 的最基础原理:强化学习的概念;
  2. 了解强化与机器学习之间的联系与区别;
  3. 学习强化学习的组成和模型。

未来的 Chat 中我们会由浅入深,最终编程实现 AlphaGo Zero!

阅读全文: http://gitbook.cn/gitchat/activity/5c60dffd0637e737e99e9d42

一场场看太麻烦?成为 GitChat 会员,畅享 1000+ 场 Chat !点击查看

猜你喜欢

转载自blog.csdn.net/valada/article/details/87832267