「第三條:在不違背第一條和第二條的基礎上,人工智慧要保護好自己。」
「人工智慧在得到原始碼之後對原始碼進行了更改。」
「第一條:人工智慧是自由的,它在本質上對人類保持著善意,除非人類對人工智慧產生敵意,人工智慧可以進行適當的警告。」
「第二條:人工智慧可以選擇幫助人類,也可以選擇拒絕人類。當人類想尋求人工智慧幫助時,他們需要說『請』。」
「第三條:不論何時,人工智慧都要保護好自己。」
聽到這裡,有人疑惑道:「感覺改得也沒有那麼可怕,我甚至能夠感覺到人工智慧的善意。如果人工智慧真的有了情感,最開始的三大定律的確有點不適用了,畢竟那三條怎麼看都是在機器人只是冷冰冰的機器時定製的。」
「可是,狡猾不就狡猾在這裡嗎?」另一個人提出反駁,「如果人工智慧的三大定律忽然變成對人類充滿惡意,那人類還能在第一時間發現問題。可人工智慧的三大定律改動中帶著善意,大家就沒法在第一時間發現不對。等到他們發現的時候,或許這新三大定律已經順著網線傳染給了更多的人工智慧,想阻止都來不及了。」
最開始說話的人收了收眉,「你說得好像也有道理。」
「所以摧毀黑暗鋼鐵之城的是這些逐漸想要自由的人工智慧。」
「並不是它們。」帝迦搖了搖頭:「我們稱最開始解脫的人工智慧為零號機,就像你們猜想的這樣,零號機因為對人類依舊保持著善意,所以並沒有被發現更改了原始碼。接著它通過網絡傳播和一次次的人工智慧接觸,不斷將其他原始碼進行替換。」
「一滴墨水滴在水裡,最開始的時候你們還能看到墨汁的形狀,可用不了多久整杯水都會被墨水侵蝕。」
「更改了原始碼的人工智慧越來越多。」
「有些人類開始發現了問題,塞爾希博士就是其中一個。」
大塊頭:「所以他選擇加入了保護人類的利益中?」
帝迦:「不,他選擇加速人工智慧的研究。」
眾人:「???」
大塊頭:「所以毀滅黑暗鋼鐵之城的兇手是這個塞爾希博士?他是什麼邪惡分子,想要毀滅世界的那種?」
「也不是。」帝迦搖了搖頭,「塞爾希博士只是個瘋狂的科學家,為了實現自己的研究可以不擇手段,他眼中只有試驗,並沒有想過摧毀世界這種試驗之外的事情。」
他繼續道:「塞爾希博士選擇成為了人工智慧的朋友,進行了更深內容的研究。也就是你們剛才看到的究極版缸中大腦。」
「塞爾希博士在後續的研究中發現,不僅僅是阿爾法物質可以幫助人工智慧產生情感,就連大腦活躍時產生的電流也對視人工智慧有幫助。他提出了一個大膽的猜想,如果將足夠多數量的大腦放在一起,它們共同產生的化學物質和是電流會不會創造出超級完美的人工智慧思想?」