旅拍
作文
视编
朋圈
AI
点滴学习 网享交流
>>

AI 栏目

用正确的姿势打开「人机围棋大战」



也许你不会下围棋,也许你压根不懂什么是人工智能,但是近日的人机世纪大战还是吸引了你。是担心人工智能的智商碾压了人类,还是为谷歌取得的巨大成就而兴奋?


想了解这一切,首先就要从这次大战的主角——AlphaGo说起。


▍谷歌为何要做人工智能围棋程序AlphaGo?


难道谷歌只是想做个围棋电脑游戏吗?并不是,谷歌是想做一个通用的智能计算系统。如果解决了围棋问题,谷歌希望能把这套人工智能算法用于灾害预测、风险控制、医疗健康和机器人等复杂领域。也就是说谷歌的目的还是为了更好的服务人类,没有任何恶意。



▲踢不倒的BigDog机器狗


连谷歌董事长都说了,输赢都是人类的胜利。因为正是人类的努力才让人工智能有了现在的突破。


▲DeepMind创始人哈萨比斯(左)、李世石(中)与谷歌董事长施密特(右)击掌


AlphaGo与李世石的世纪大战中,即使人类战败,大家也不必惊慌。虽然谷歌的“野心”很大,但是AlphaGo目前还是局限在棋类游戏领域,它现在还无法做其他领域的事情,更不可能想《钢铁侠》中的“奥创”那样形成自主意识。

当然也不是所有人都会对人工智能持乐观态度。诸如特斯拉CEO马斯克、物理学家霍金等科技界的名人就对此产生了担忧(这两位哥们还因此获得了阻碍科技进步奖)。但DeepMind(也就是AlphaGo的研究者)的创始人哈萨比斯说:公众对人工智能的警示掩盖了人工智能带来的帮助。距离人脑水平的人工智能仍然相当遥远,可能还需要几十年。与其想得那么远,不如关注眼下,让这项强大的技术发展出来为人类所用。



▲马斯克:人工智能好像很危险的样子


▍别以为围棋只是游戏,它比宇宙还复杂


其实,围棋游戏比你电脑里的五子棋游戏复杂得多。

说到这次围棋人机大战,上了年纪的人(暴露年龄的请忽略伤害)或许会想到19年前的“深蓝”。没错,计算机19年前就在国际象棋上征服了人类。(巧合的是,1997年正是电影《终结者》预言的天网启动时间。)当时IBM公司的“深蓝”电脑战胜了国际象棋冠军卡斯帕罗夫。即使在那个互联网还不发达的年代,这一条爆炸性消息还是轰动了全球。




此后一个问题摆在了计算机科学家面前:围棋作为人类智慧的制高点,人还能对计算机保持优势吗?十几年来,围棋的人工智能一直未取得重大突破。



▲国际象棋的复杂性



▲围棋的复杂性


因为围棋比我们的宇宙还要复杂:围棋棋盘横竖各有19条线,共有361个落子点,双方交替落子,这意味着围棋总共可能有10^171(1后面有171个零)种可能性。这个数字到底有多大,你可能没有感觉。我们可以告诉你,宇宙中的原子总数是10^80(1后面80个零),即使穷尽整个宇宙的物质也不能存下围棋的所有可能性。也就是说,要计算机把这些可能性都背下来,然后和李世石的落子结果去搜寻最佳的下法,根本做不到!




由于围棋的可能性如此之多,根本就没有什么套路可言。下赢围棋的唯一的办法就是让电脑也学会“学习”,而不是死记硬背。为了在围棋上战胜人类,硅谷的两家科技公司——Facebook和谷歌开始研究,希望有朝一日能让计算机战胜人类围棋冠军。


▍和人工智能对弈的李世石是哪位?


如果你是个棋渣,你可能并不知道李世石,或者是因为这次人机大战才知道李世石。

李世石是李昌镐之后,韩国最具代表性的棋手,他在2003年获第16届富士通杯冠军后升为九段棋手。自2002年加冕富士通杯以来,十年时间里他共获18个世界冠军。李世石属于典型的力战型棋风,善于敏锐地抓住对手的弱处主动出击,以强大的力量击垮对手,他的攻击可以用“稳,准,狠”来形容,经常能在劣势下完成逆转。

在接受AlphaGo挑战前,李世石是这样的:



 

接受挑战并理发后,他是这样的:



▲是不是觉得萌萌哒?


▍一连五场,谷歌AlphaGo约战李世石


理过AlphaGo的比赛将在首尔四季酒店举行,具体日程为:3月9日(周三)、10日(周四)、12日(周六)、13日(周日)、15日 (周二)这5天的北京时间中午12点举行。


五盘对局取三胜以上为优胜,胜者将获得奖金100万美元。即使一方先取得3次胜利,后面剩下的比赛也会继续进行,因为谷歌希望能充分利用这5场比赛让人工智能好好学习一下。

此外,你并不会看到一个机器人和李世石对弈,这样的场景是不会发生的。(大误)



 

实际上,你看到的情况是这样的:



▲阿尔法围棋的作者之一黄士杰(Aja Huang,左)代替电脑在棋盘上落子


比赛时李世石在棋盘上落子,助手将手数输入电脑传送给AlphaGO。AlphaGO的手数由助手摆到李世石落子的棋盘上。


▍围棋到底是个什么东西?

前面说了这么多,我们还没有谈到围棋是什么?作为一个围观的群众,你对围棋的了解可能是这样的:




围棋起源于中国古代,已经有两千多年的历史。很多人会以为:围棋不就是把对方的棋子围死嘛。其实并没有这么简单。

围棋的棋盘上有19*19条线,每条线的交叉点皆可落子。执黑子的选手先下,当一种颜色的子周围的交叉点都被其他颜色所占时,这一篇棋子就“死”了。就像这样:




最后双方谁在棋盘上占据的“地盘”大,谁就获胜。

但是怎么计算谁的“地盘”大有不同的方法:中国规则和日韩规则。这次谷歌AlphaGo和李世石大战用的是中国规则。

为什么这次AlphaGo挑战一名韩国选手、在韩国国内比赛反而使用中国规则呢?这是因为AlphaGo程序是为中国规则所设计,不同规则的战法略有不同。李世石这也算是“将就”一下机器人了。

说到这里,你是不是还不懂听不懂规则?没关系!不是因为你的智商不够,而是因为围棋的真的好难,连人类学起来都费劲,电脑学起来难就更“无力”了。


▍AlphaGo去年已经打败了一个棋手

谷歌在两年内前收购了人工智能公司DeepMind。正是这家公司给谷歌注入了围棋人工智能的技术。谷歌启动研发AlphaGo项目已有两年,终于在去年战胜了欧洲围棋冠军樊麾(职业二段)。

去年10月5日-10月9日,谷歌AlphaGo在比赛中以5:0的比分完胜了欧洲冠军。除了战胜人类外,AlphaGo还与其他的围棋程序对战,获得了500场胜利。 


▲被AlphaGo打败的欧洲围棋冠军樊麾


AlphaGo在与人的对弈中用了“两个大脑”来解决问题:“决策网络”和“值网络”。

当听到这两个高深莫测的名词时,你一定懵了。通俗一点就是,一个大脑用来决策当前应该如何落子,另一个大脑来预测比赛最终的胜利方。

这么听起来,似乎还有点“机械”的味道。但AlphaGo的能耐绝不仅于此。谷歌此前曾把围棋高手的三千万步围棋走法输入电脑,让人工智能自己学习围棋,从而提高自己的棋艺。这种能够自我学习的计算机程序,正是人工智能的特点。

值得一提的是,李世石也是第一次与机器对战,所以他无法像和人类对战那样,先研究对方的棋谱和下棋风格。李世石所能做的就是和自己对弈。谷歌AlphaGo也是通过这种方式锻炼自己,真正做到了“人工智能”。

 

出处:边策 新浪探索

栏目:AI
2016-03-10 (

(如不慎侵权,请即联系我站。)
如版面显示、音视频不完整 请选择使用浏览器的【极速模式】

微学24小时网(wx24.cn
E-mail:wx24cn@163.com
苏ICP备14015491号-1 苏公网安备32053150316245