我记得AI圈里有个事情跟这个比较类似。
有人做了一个生态圈的模拟,鼓励竞争,鼓励相互捕食。一个AI如果捕食其他AI,就给予分值奖励,如果被捕食了,就扣除分值。
一开始还比较自然,有的AI沦为被捕食者,有的变成捕食者。还有一部分比较躺平,能逃离敌害,又不怎么捕食其他AI。
这个人觉得,这样的生态圈太平淡了,于是增强了负反馈。即,如果不捕食其他AI,同样会被扣分。
于是这个生态圈变得残酷起来,所有的AI都积极捕食其他AI。
随着这个人不断的提高不捕食所扣除的分值,生态圈变得越来越残酷,直到被扣除分值超过了一定限度,生态圈发生了一个重要的变化。
此时的AI由于在不捕食的时候被扣分太厉害,即使捕食其他AI也弥补不了分值,所以选择了自杀。毕竟死了就不会因为不捕食而扣分了。
然后这个生态圈在启动不久就变得白茫茫一片真干净。
故事讲完。