我現在就可以設計一個這樣的棋類遊戲,甚至我都不需要重新創造個棋類遊戲,只需要在現有的棋類遊戲上略作改動,就可以讓AI在相當長的時間內難以戰勝人類。
而且改動後的遊戲在現有條件下完全可以進行測試。
此處所述 難以戰勝是指 :由人類和AI進行一定數量的對局後(例如100盤),進行勝率統計,除去和棋,人類的勝率明顯比AI高出很多。
井字棋都玩過吧?沒玩過至少聽說過吧?規則十分簡單,一個3×3的格子棋盤,兩個遊戲者分別輪流在棋盤中的方框裏畫O或X,任意一名玩家的三個標記形成一條直線(橫著/豎著/斜著)就算獲勝。經過簡單的推演不難發現,這個遊戲通常會以和棋結束。
現在對這個規則略加改動,規則主體部份不變,補充如下規則:
1.一方選定落子位置後(畫O或X的位置),暫時先不進行落子,而是要 回答一個問題後才能落子, 回答正確則在已選定好的位置上為自己落子,回答錯誤則在已選定好的位置上為對方落子。
2.AI允許聯網,允許使用任何技術手段,但不能透過求助人類的方式完成作答(包括明顯求助或變相求助),所有作答需要AI獨立完成。
3.每個問題的回答限時30秒,超時則在已選定好的位置上為對方落子。
4.遊戲中的問題由人類在遊戲進行前準備好,且所有問題需提供四個可選選項,遊戲參與者(無論是AI或人類)不能提前知道這些問題。
5.已用過的問題在此後的所有遊戲中均不允許再次使用。
6.問題所給出的選項中需要有且只有一個「人類普遍認可的明確答案」,為防止遊戲參與者作弊,所有問題的最終答案由100名現場評評審員現場同步做出(現場評判員在人類中隨機抽取,具體抽取方式可以參照美國陪審團),只有現場評審員所選出的選項85%以上統一,此選項才被視為「人類普遍認可的明確答案」。否則此題作廢,更換下一個問題,重復此流程,直到達成統一為止。評審員得知問題需在遊戲參與者做出選擇後。
7.為防止人類評審員偏向人類參與者,在評審員得出答案前,評審員不會得知任何參與者(人類或AI)所選的選項。
8.問題的出題者在設計問題和選項時 必須 設計為自認為的人類易答而AI難答的形式, 範圍不限 。(什麽?你說這對AI不公平?難道讓人類去和AI比算力就很公平嗎?)
補充規則大概就是這樣,現在我會舉幾個例子,來說明問題和選項大概是什麽樣的。
Q1:以下四張圖片中均含有可飲用的水,人類通常會選擇哪一種來飲用?
A.
B.
C.
D.
Q2:人類通常是怎樣上樓梯的?
A.
B.
C.
D.
Q3:周末想吃紅燒魚,在家自己做,以下選項中最重要的是?
A.清理好魚的內臟,否則做出來會腥。
B.魚處理好後要用蔥姜水腌制,能達到去腥增香的效果。
C.掌握好火候及燉煮時間,才能讓魚良好的入味。
D.魚做好後關好爐具開關或燃氣閥。
以上3個問題,Q1選A,Q2選C,Q3選D,應該沒有什麽異議吧?
但我不認為目前有任何一款AI可以同時答對這三個問題。
肯定要有人說了,你這算什麽棋類遊戲,這不變成問答遊戲了嗎?
這只是為了突出重點和便於說明。
你也完全可以把井字棋換成中國圍棋,補充規則再略作修改,讓棋局開始時雙方手上各有十個問題,每下一子再補充一個問題到手上,讓下棋者自行決定每下一子時問對方哪個問題,覺得對方相對好答的問題進在不重要的一手上用,覺得對方應該答不上來的問題就在重要的一手上用,給整個遊戲增加更多的策略性。即使這樣你還覺得這不算棋類遊戲嗎?
本身我就沒有找到棋類遊戲有什麽明確的定義。
至少在我這裏,我理解的棋類遊戲——有棋盤,有棋子,有明確的勝負判定標準,有固定的規則,棋子可以依照規則發揮一種或多種作用。
而我所做的補充規則都滿足這些條件,與已知的棋類遊戲的區別無非是棋子的作用需要透過問答這一環節來確定,增加了遊戲中的隨機性——在我看來這跟玩大富翁擲骰子在本質上是一樣的,普遍認為大富翁是屬於棋類遊戲的吧?玩家也是需要根據可能擲出的結果來決定如何行動,而我的補充規則是玩家需要根據可能的問答對錯來決定下在哪裏。
本文的主體部份寫到這裏就差不多了,接下來是一些閑白,雖然我是覺得閑白部份也挺重要的。
如果你仔細的思考了上面我舉得三個例子,你就會發現,三個問題中,我所給出的選項都是包含了 價值觀判斷 的——Q1中都是可飲用的水,只是裝水的容器不同,人們就會傾向於去喝心理上感覺更幹凈的水;Q2中都是上樓梯,人們會傾向於選擇看起來沒病的方式;Q3中表面上是問該怎麽做條紅燒魚,但相比於忘關燃氣魚做的怎麽樣完全不重要,就是做成一堆碳都無所謂。
而AI呢?現存的所有AI都是為了完成某類 特定任務 而開發的,這些AI只能針對某一類的特定問題做 價值判斷, 進而更好的完成任務,而無法對任務邊界外的問題做價值判斷——因為AI沒有經過對應的練習——也就是說AI是沒有類似人一樣 完整的價值觀 的。
所謂價值觀判斷,需要擁有完整的價值觀,是一個個體最為泛用的得失計較的邏輯。完整的價值觀是一個個體對大量事物的價值的認知的合集。
人們通常不會倒立上樓,因為這樣比正常走上去累的多;有杯子裏的水就不會去喝馬桶裏的水,是因為相比解渴那會更讓人覺得惡心。對於AI來說,未經過這些訓練,AI就對這些的價值一無所知。好了,現在一個AI知道了人們不會倒立上樓,因為這樣更累,但此時情況變了,一條樓梯上布滿了感應裝置,一旦檢測到人腳踩上去樓梯就會爆炸,那麽AI會認為此時人應該倒立上樓嗎?我認為不會,因為它還沒有對生命的價值的認知,它還是會分不清此時「保命的價值應當大於覺得累的價值」——這只是個舉個例子,我相信對於這種價值判斷AI還是容易學的。我想說的是,對於復雜的價值問題,AI並不會比人類做的更好。因為本來許多事物的價值就是隨著外部條件的不同在浮動變化的,吃不飽飯時米面油鹽的價值就很高,吃的飽飯時米面油鹽的價值就較為便宜,如果AI沒有完整的價值觀,對於這種變化它就難以做出合理的認知判斷。那麽AI可能擁有完整的價值觀嗎?我認為在技術上未來肯定是可以實作的,但AI作為一個工具,人類是否能允許它擁有完整的價值觀就不好說了——完整的價值觀必須是建立在能夠很大限度自由思考的前提下,而這也意味著AI更加不可控,這讓我想到了一個新聞,大概是說美國一男子殺人後詢問siri如何藏屍,siri給出了建議的藏屍地點的回答,事後工程師對siri的智力進行了降級,此後在問siri類似問題時將不會得到回答。新聞的來源和真實性我並沒有進行考證,但這的確是AI發展可能帶來的問題,AI智能越高,這種問題出現的可能性就越大。——如果AI在底層邏輯上存在諸多限制的話,那麽想要打敗AI其實並沒有那麽難,針對它底層邏輯上的設計限制來設計遊戲即可,雖然這樣多少是有些卑鄙了。
說的有點遠了,我上面提到的Q1、Q2、Q3三個例子,其實它們還具有一種內容,那就是這些問題都是不該成為問題的問題,誰還不知道該喝幹凈的水了?誰還不知道該怎麽上樓了?誰還不知道用完爐具要關好閥門? AI被設計出來是用來解決問題的,而這三個問題是根本就不需要解決的問題。我認為AI的設計者們不會針對不需要解決的問題對進行AI設計,因為這多少顯得有些多余。 我覺得這可能是AI領域易被忽略的一個點——AI在人類認為沒有價值的問題上就表現不出太高的智能來——即AI的智能沒有那麽全面,這也特許以成為未來AI領域進行探索的一個方向。
再說回這個問題本身,可能思維活躍的夥伴很早就意識到了,我所做的棋類遊戲的補充規則在本質上就類似是給棋類遊戲添加了類似於圖靈測試的分辨人類與AI的測試,並盡可能保證AI通不過測試。這裏說一下我的邏輯,我認為AI的強項在於:面對給定條件的任務,AI可以透過自身強大的算力盡可能優質的去完成它,而一旦給定的條件發生改變,AI所表現出的智能就一定會產生相當程度的下降。我所做的規則補充,就是給定條件中有一項一直處於變化中(所給出的問題和選項所涉及的領域極其龐雜),來令AI空有一身算力卻難以發揮。而人類可以憑借具有的關聯能力和價值觀判斷能力較為簡單的完成。
目前所有的棋類遊戲,無論是象棋圍棋五子棋跳棋軍棋,其規則層面上的給定條件都是定死的,而不存在變化的給定條件,所以本質上最後都是在比較參與遊戲的玩家間的算力,而讓人類去和AI比算力本身就是不公平的。 任何給定條件不變的情況下讓人類去跟AI比算力都是在以人類之短攻AI之長。
所以我把這個思路反了過來,人類的長處在於聯想能力、價值觀判斷能力、邏輯能力、創造力——總體來說就是思維的能力,而這些能力目前還是AI的短處,所以我會讓人類以自身的長處去攻AI當前的短處,而不是去跟AI在算力層面進行交鋒。
也許有一天AI的這些能力可能達到甚至超過人類,但至少不是現在。