我記得AI圈裏有個事情跟這個比較類似。
有人做了一個生態圈的模擬,鼓勵競爭,鼓勵相互捕食。一個AI如果捕食其他AI,就給予分值獎勵,如果被捕食了,就扣除分值。
一開始還比較自然,有的AI淪為被捕食者,有的變成捕食者。還有一部份比較躺平,能逃離敵害,又不怎麽捕食其他AI。
這個人覺得,這樣的生態圈太平淡了,於是增強了負反饋。即,如果不捕食其他AI,同樣會被扣分。
於是這個生態圈變得殘酷起來,所有的AI都積極捕食其他AI。
隨著這個人不斷的提高不捕食所扣除的分值,生態圈變得越來越殘酷,直到被扣除分值超過了一定限度,生態圈發生了一個重要的變化。
此時的AI由於在不捕食的時候被扣分太厲害,即使捕食其他AI也彌補不了分值,所以選擇了自殺。畢竟死了就不會因為不捕食而扣分了。
然後這個生態圈在啟動不久就變得白茫茫一片真幹凈。
故事講完。