当前位置: 华文星空 > 体育

如果发明一种机器学习难以战胜人类的棋类规则,这种规则应该具备什么样的特点?

2022-06-09体育

我现在就可以设计一个这样的棋类游戏,甚至我都不需要重新创造个棋类游戏,只需要在现有的棋类游戏上略作改动,就可以让AI在相当长的时间内难以战胜人类。

而且改动后的游戏在现有条件下完全可以进行测试。

此处所述 难以战胜是指 :由人类和AI进行一定数量的对局后(例如100盘),进行胜率统计,除去和棋,人类的胜率明显比AI高出很多。

井字棋都玩过吧?没玩过至少听说过吧?规则十分简单,一个3×3的格子棋盘,两个游戏者分别轮流在棋盘中的方框里画O或X,任意一名玩家的三个标记形成一条直线(横着/竖着/斜着)就算获胜。经过简单的推演不难发现,这个游戏通常会以和棋结束。

现在对这个规则略加改动,规则主体部分不变,补充如下规则:

1.一方选定落子位置后(画O或X的位置),暂时先不进行落子,而是要 回答一个问题后才能落子, 回答正确则在已选定好的位置上为自己落子,回答错误则在已选定好的位置上为对方落子。

2.AI允许联网,允许使用任何技术手段,但不能通过求助人类的方式完成作答(包括明显求助或变相求助),所有作答需要AI独立完成。

3.每个问题的回答限时30秒,超时则在已选定好的位置上为对方落子。

4.游戏中的问题由人类在游戏进行前准备好,且所有问题需提供四个可选选项,游戏参与者(无论是AI或人类)不能提前知道这些问题。

5.已用过的问题在此后的所有游戏中均不允许再次使用。

6.问题所给出的选项中需要有且只有一个「人类普遍认可的明确答案」,为防止游戏参与者作弊,所有问题的最终答案由100名现场评评审员现场同步做出(现场评判员在人类中随机抽取,具体抽取方式可以参照美国陪审团),只有现场评审员所选出的选项85%以上统一,此选项才被视为「人类普遍认可的明确答案」。否则此题作废,更换下一个问题,重复此流程,直到达成统一为止。评审员得知问题需在游戏参与者做出选择后。

7.为防止人类评审员偏向人类参与者,在评审员得出答案前,评审员不会得知任何参与者(人类或AI)所选的选项。

8.问题的出题者在设计问题和选项时 必须 设计为自认为的人类易答而AI难答的形式, 范围不限 。(什么?你说这对AI不公平?难道让人类去和AI比算力就很公平吗?)

补充规则大概就是这样,现在我会举几个例子,来说明问题和选项大概是什么样的。

Q1:以下四张图片中均含有可饮用的水,人类通常会选择哪一种来饮用?

A.

B.

C.

D.

Q2:人类通常是怎样上楼梯的?

A.

B.

C.

D.

Q3:周末想吃红烧鱼,在家自己做,以下选项中最重要的是?

A.清理好鱼的内脏,否则做出来会腥。

B.鱼处理好后要用葱姜水腌制,能达到去腥增香的效果。

C.掌握好火候及炖煮时间,才能让鱼良好的入味。

D.鱼做好后关好炉具开关或燃气阀。

以上3个问题,Q1选A,Q2选C,Q3选D,应该没有什么异议吧?

但我不认为目前有任何一款AI可以同时答对这三个问题。

肯定要有人说了,你这算什么棋类游戏,这不变成问答游戏了吗?

这只是为了突出重点和便于说明。

你也完全可以把井字棋换成中国围棋,补充规则再略作修改,让棋局开始时双方手上各有十个问题,每下一子再补充一个问题到手上,让下棋者自行决定每下一子时问对方哪个问题,觉得对方相对好答的问题进在不重要的一手上用,觉得对方应该答不上来的问题就在重要的一手上用,给整个游戏增加更多的策略性。即使这样你还觉得这不算棋类游戏吗?

本身我就没有找到棋类游戏有什么明确的定义。

至少在我这里,我理解的棋类游戏——有棋盘,有棋子,有明确的胜负判定标准,有固定的规则,棋子可以依照规则发挥一种或多种作用。

而我所做的补充规则都满足这些条件,与已知的棋类游戏的区别无非是棋子的作用需要通过问答这一环节来确定,增加了游戏中的随机性——在我看来这跟玩大富翁掷骰子在本质上是一样的,普遍认为大富翁是属于棋类游戏的吧?玩家也是需要根据可能掷出的结果来决定如何行动,而我的补充规则是玩家需要根据可能的问答对错来决定下在哪里。

本文的主体部分写到这里就差不多了,接下来是一些闲白,虽然我是觉得闲白部分也挺重要的。

如果你仔细的思考了上面我举得三个例子,你就会发现,三个问题中,我所给出的选项都是包含了 价值观判断 的——Q1中都是可饮用的水,只是装水的容器不同,人们就会倾向于去喝心理上感觉更干净的水;Q2中都是上楼梯,人们会倾向于选择看起来没病的方式;Q3中表面上是问该怎么做条红烧鱼,但相比于忘关燃气鱼做的怎么样完全不重要,就是做成一堆碳都无所谓。

而AI呢?现存的所有AI都是为了完成某类 特定任务 而开发的,这些AI只能针对某一类的特定问题做 价值判断, 进而更好的完成任务,而无法对任务边界外的问题做价值判断——因为AI没有经过对应的练习——也就是说AI是没有类似人一样 完整的价值观 的。

所谓价值观判断,需要拥有完整的价值观,是一个个体最为泛用的得失计较的逻辑。完整的价值观是一个个体对大量事物的价值的认知的合集。

人们通常不会倒立上楼,因为这样比正常走上去累的多;有杯子里的水就不会去喝马桶里的水,是因为相比解渴那会更让人觉得恶心。对于AI来说,未经过这些训练,AI就对这些的价值一无所知。好了,现在一个AI知道了人们不会倒立上楼,因为这样更累,但此时情况变了,一条楼梯上布满了感应装置,一旦检测到人脚踩上去楼梯就会爆炸,那么AI会认为此时人应该倒立上楼吗?我认为不会,因为它还没有对生命的价值的认知,它还是会分不清此时「保命的价值应当大于觉得累的价值」——这只是个举个例子,我相信对于这种价值判断AI还是容易学的。我想说的是,对于复杂的价值问题,AI并不会比人类做的更好。因为本来许多事物的价值就是随着外部条件的不同在浮动变化的,吃不饱饭时米面油盐的价值就很高,吃的饱饭时米面油盐的价值就较为便宜,如果AI没有完整的价值观,对于这种变化它就难以做出合理的认知判断。那么AI可能拥有完整的价值观吗?我认为在技术上未来肯定是可以实现的,但AI作为一个工具,人类是否能允许它拥有完整的价值观就不好说了——完整的价值观必须是建立在能够很大限度自由思考的前提下,而这也意味着AI更加不可控,这让我想到了一个新闻,大概是说美国一男子杀人后询问siri如何藏尸,siri给出了建议的藏尸地点的回答,事后工程师对siri的智力进行了降级,此后在问siri类似问题时将不会得到回答。新闻的来源和真实性我并没有进行考证,但这的确是AI发展可能带来的问题,AI智能越高,这种问题出现的可能性就越大。——如果AI在底层逻辑上存在诸多限制的话,那么想要打败AI其实并没有那么难,针对它底层逻辑上的设计限制来设计游戏即可,虽然这样多少是有些卑鄙了。

说的有点远了,我上面提到的Q1、Q2、Q3三个例子,其实它们还具有一种属性,那就是这些问题都是不该成为问题的问题,谁还不知道该喝干净的水了?谁还不知道该怎么上楼了?谁还不知道用完炉具要关好阀门? AI被设计出来是用来解决问题的,而这三个问题是根本就不需要解决的问题。我认为AI的设计者们不会针对不需要解决的问题对进行AI设计,因为这多少显得有些多余。 我觉得这可能是AI领域易被忽略的一个点——AI在人类认为没有价值的问题上就表现不出太高的智能来——即AI的智能没有那么全面,这也许可以成为未来AI领域进行探索的一个方向。

再说回这个问题本身,可能思维活跃的伙伴很早就意识到了,我所做的棋类游戏的补充规则在本质上就类似是给棋类游戏添加了类似于图灵测试的分辨人类与AI的测试,并尽可能保证AI通不过测试。这里说一下我的逻辑,我认为AI的强项在于:面对给定条件的任务,AI可以通过自身强大的算力尽可能优质的去完成它,而一旦给定的条件发生改变,AI所表现出的智能就一定会产生相当程度的下降。我所做的规则补充,就是给定条件中有一项一直处于变化中(所给出的问题和选项所涉及的领域极其庞杂),来令AI空有一身算力却难以发挥。而人类可以凭借具有的关联能力和价值观判断能力较为简单的完成。

目前所有的棋类游戏,无论是象棋围棋五子棋跳棋军棋,其规则层面上的给定条件都是定死的,而不存在变化的给定条件,所以本质上最后都是在比较参与游戏的玩家间的算力,而让人类去和AI比算力本身就是不公平的。 任何给定条件不变的情况下让人类去跟AI比算力都是在以人类之短攻AI之长。

所以我把这个思路反了过来,人类的长处在于联想能力、价值观判断能力、逻辑能力、创造力——总体来说就是思维的能力,而这些能力目前还是AI的短处,所以我会让人类以自身的长处去攻AI当前的短处,而不是去跟AI在算力层面进行交锋。

也许有一天AI的这些能力可能达到甚至超过人类,但至少不是现在。