“奕星”存在的问题,江寒总结了一下。
一个是训练不够。
初代阿法狗在训练时,动用了几百块GPU。
对战李世石的版本,也动用了48块TPU、十几台高性能计算机。
训练时长更不是奕星能比的,至少都在半年以上。
其次,“奕星”在打造时,参考了初代阿法狗,其训练过程离不开人类棋谱。
在这种情况下,示范数据的质量,将极大影响它的成长。
甚至学到某些错误的着法,也不足为奇。
虽然有胡大力这样的行家帮忙,但收集到的棋谱数量仍不够充足。
并且其中有一些还存在质量问题,有滥竽充数的嫌疑。
这是手工筛选很难避免的。
最后,奕星欠缺了一点运气,无论现场发挥还是训练过程中,都不够幸运。
没错,“人工神经网络”的训练和运行过程中,包含着一定的运气成分。
复杂到这种程度的算法,人类只能掌握原理,但具体训练出什么东西,是没法完全读懂,并加以解释的。
对于人类来说,机器学习中的一些算法,其实自带“黑箱”属性!
有句“格言”在机器学习圈子里流传很广:
如果一个算法简单到能被大脑理解,又怎么能模拟复杂的大脑?
同理,如果一个算法连大脑都能模拟,那么其一定复杂到无法被大脑理解……
大概就是这么个意思。
落实到具体的点上,在这次对局中,大概率是“奕星”的“快速走子”模块出了问题。
在正常情况下,错误的下法会被“价值判断网络”否决,但在极其罕见的某些特定情况下……
比如:“快速走子”下出了问题手,然后在模拟后续走子时,“价值判定网络”认为其中一半情况对手大优,另外一半情况中,己方大优,平均下来己方略好……
Loading...
未加载完,尝试【刷新网页】or【关闭小说模式】or【关闭广告屏蔽】。
使用【Firefox浏览器】or【Chrome谷歌浏览器】打开并收藏!
移动流量偶尔打不开,可以切换电信、联通网络。
收藏网址:www.sisiread.com
(>人<;)