「那倫理框架和規範呢?」李翀汶饒有興趣地問,「這不是你們PPL的老本行嗎?」
「呃……是的,」沛誠嘆了口氣,「相關的研究和討論確實很多,但如果是我內心最真實的想法……」
李翀汶:「嗯?」
「我認為倫理問題不是人工智慧發展的最大優先級,人工智慧又沒有生物生存和繁衍的本能,在發展技術之前去設想倫理約束這本身就是反直覺。與其擔心機器人大軍會不會奴役人類,還是考慮一下更實際的應用問題比較關鍵。」沛誠坦言道,「只要從算法的公平性和公正性出發,確保不會帶有偏見和歧視就可以了,其他的問題都迎刃而解。」
「不對勁吧,說回到語言模型的訓練,那也都是以投餵海量數據來訓練的。既然無論是歷史數據還是使用數據,都是由帶有偏見和歧視的真人所生成的,模型學習之後難道還能自己有判斷能力,通過算法將一些結構性的偏見問題排除掉嗎?」提出這一質疑的卻是森澤航。
沛誠想了想,道:「你說的也有道理,那麼或許退一步說,看看你們這個人工智慧最終的目的是什麼了。是要創造一個純潔無瑕、沒有歧視和偏見的虛擬和平世界?還是別有用途。如果是前者,那麼我感覺應該吸引不了多少用戶,別說沒有矛盾和分歧的環境從營銷的角度上很難傳播,一個每個人都同意尊重每個人的意見、毫無獎勵機制的世界怎麼會有趣呢?」
「就像遊戲一樣。」李翀汶很快明白了其中的關鍵所在。
「那麼如果這未來將是一個產品,換言之他會被商品化,其實只要參與的用戶有足夠的知情權和同意權就可以了。在法律允許的範圍內,成年人可以做出自己的判斷和選擇。」沛誠說。
「就像遊戲氪金一樣。」李翀汶笑起來。
沛誠餘光瞥見森澤航炯炯有神盯著他的目光,後背禁不住有點冒汗——他平時不太和森澤航討論這些事,怕影響他的想法,今天一沒留神說太多了。這個亮晶晶的眼神他熟悉得很——一般而言要是旁邊沒有別人,森澤航就要上嘴啃他了。
「再比如說,你的草莓鎮對吧?森澤航給我演示過,真挺厲害的。」沛誠硬著頭皮繼續說,「但是我禁不住想,如果未來這個世界被更廣泛的用戶測試,裡面有很多人同時發生交互,所有使用數據包含無數條分支、無數種可能,不止有文字圖象和聲音,還連帶最為細微的反射差別,反哺給AI幫助它深度學習,完成升級優化,那麼它會變得越來越龐大。這些數據包含了太多往哪裡存?還是說,如果把原始的feed刪掉,只留一個已經完成學習了的AI,那麼沒有原始數據的模型,真的能保證它的行為決策仍舊會保持一致嗎?」
沛誠問出了他上一次也問過的問題。