高頓網(wǎng)校小編在11月24日友情提醒您認(rèn)真仔細(xì)閱讀這篇業(yè)界評論:董金鵬認(rèn)為好好人會帶壞中國社會風(fēng)氣
  羅伯特·艾克斯羅德(Robert Axelrod)是密歇根大學(xué)公共政策學(xué)院的一名教授。他以研究“合作演化”而成名,榮譽清單上列出了包括美國科學(xué)院院士,麥克阿瑟獎等一長串名字。我*9次知道他的名字是在昨天的一個學(xué)生沙龍上。這期關(guān)于博弈論的沙龍里提到了艾克斯羅德教授做過的一個著名實驗,而實驗的結(jié)論頗有戲劇性——和人相處中,雖然要與人為善,卻不能做一個爛好人。
  這項實驗的最初目的是探究“人為什么要合作?人在什么時候選擇合作?如何使別人與你合作?”這幾個問題。每次實驗都在A,B兩方之間進(jìn)行,而實驗的內(nèi)容則像是一個小的囚徒困境。舉例來說,如果A和B都選擇合作,他們可以各獲得5分;如果A和B都選擇不合作,那么他們則各獲得1分;如果A選擇合作而B選擇不合作,則B可以得到10分,而A則要扣去5分。反之亦然。從這里可以看到一個絕對優(yōu)勢策略,即無論對方合作不合作,自己只要不合作,那必然是一個更好的結(jié)果(對方合作,自己不合作可以拿10分,而選擇合作只能拿5分;對方不合作,自己不合作可以拿1分,而選擇合作只能扣5分)。由于A和B都有同樣的考慮,所以兩個沒有變數(shù)的聰明人只會選擇都不合作,各拿1分走人,雖然這并不是一個群體*3的情況(兩個人都合作嚴(yán)格好于兩個人都不合作)。
  生活自然不會像單個囚徒困境那樣只有一次選擇合作與否的機會。在現(xiàn)實生活中,新認(rèn)識的伙伴往往會傾向于合作,有些人在有一段合作關(guān)系后就有了信任,而另一些人則會利用這種信任在背后捅合作伙伴一刀,而這些人不佳的名譽則會影響之后別人與他們的合作。為了模擬現(xiàn)實生活中的狀況,艾克斯羅德教授請了許多學(xué)生和教授各自開發(fā)了總共60個算法來替代人進(jìn)行實驗。這些算法如同人一樣有著自己的性格。比如有的算法只要被欺騙一次,之后對欺騙者就一直采取不合作的態(tài)度。也有的算法對欺騙過自己的人有著一定的寬容。在這60個算法之外,艾克斯羅德教授又加入了3種性格:永遠(yuǎn)合作的爛好人,永遠(yuǎn)不合作的純壞蛋,以及永遠(yuǎn)一半幾率合作一半幾率不合作的神經(jīng)病。
  這63個算法每兩兩之間進(jìn)行了數(shù)百次模擬的博弈實驗。可以想象,總的模擬數(shù)字非常大。在對所有的組合打分并求和排序之后,艾克斯羅德教授得到了一個有意思的結(jié)果:總體來說,傾向于選擇合作的“善意”算法排名要遠(yuǎn)高于傾向于不合作的”惡意“算法。在得分前15高的算法里,只有一個惡意算法(哈靈頓算法,之后再提)。而排名最低的15個算法里,只有一個善意算法。沒錯,就是那個永遠(yuǎn)選擇合作的爛好人。
  在這63個算法中,排名*6的被稱為”一報還一報“算法。它是這么定義的——*9次見面先選擇合作,之后重復(fù)上一次對方的選擇??梢韵胂?,如果他碰到的是一個總體善意的算法,那么兩個算法之間會進(jìn)行很多次合作。而如果碰到惡意算法之后雖然會吃一次虧,但因為有了報復(fù)的行為,總體來說虧得也不會太多(大不了大家都不合作么)。
  這個結(jié)果可能是出乎人意料的。因為在一般人的想象中,如果要在與人合作中獲得*5的利益,似乎要有一個非常復(fù)雜的決策過程。而這個算法只是簡單重復(fù)之前對方的行為而已。這看上去壓根就不像是一個好的策略。不過從這個算法里也可以抽取出一個”成功者“的五大個性——善良(總體愿意合作),可激怒(人若犯我,我必犯人),寬容(只要你不是一直陷害我,那么扯平之后我愿意繼續(xù)合作),簡單(只要模仿對方的行為),不耍小聰明(不會突然捅別人一刀)。
  不耍小聰明這一點是針對之前提到的哈靈頓算法而言的。哈靈頓算法可以說是一個狡猾的算法。它有一套自己的評判體系。如果它覺得對方是一個可以欺負(fù)的好人,那么就會突然背叛,選擇不合作,從而讓自己獲利??梢?,這種算法能從善良并軟弱的算法身上得到很多分?jǐn)?shù)。這也是它能排名前15的原因。
  當(dāng)然這個實驗從總體設(shè)計來說是簡單的。為了更好模擬現(xiàn)實中的情況,我們的艾克斯羅德教授又進(jìn)行了一下小改動。在每輪博弈結(jié)束后,所有的算法會根據(jù)得分而排名。排名前的算法會進(jìn)行自我復(fù)制,排名后的算法會被淘汰。如果總數(shù)不變的話,可以近似理解為那些得分低的算法學(xué)習(xí)了得分高的算法。這就像生活中一樣,吃過虧的人會學(xué)習(xí)別人的經(jīng)驗。
  最后的結(jié)果令人驚嘆。在63個算法中,”一報還一報“算法占到了24%,而惡意算法則表現(xiàn)拙劣。在前一個實驗中通過欺負(fù)好人得分的哈靈頓算法,因為好人慢慢變謹(jǐn)慎的緣故,開始拿不到足夠的分?jǐn)?shù)。隨著天真的好人從這個社會中消亡,以這些好人為食的惡人也隨之消亡了。
  所以這個實驗的結(jié)論就是“毫無原則的爛好人一定會被欺負(fù),并且很有可能會帶壞社會風(fēng)氣”(考慮到惡意算法的存在)。因此艾克斯羅德教授教會我們做人的道理就是要做一個“有原則的好人”。
  用沙龍中的一句話結(jié)尾:“共同演化會使有原則的好人行為在這個充滿背信棄義的世界里蔚然成風(fēng)”。