反派二姐提示您:看後求收藏(戀愛座標 第67節,戀愛座標,反派二姐,630看書),接著再看更方便。
請關閉瀏覽器的閱讀/暢讀/小說模式並且關閉廣告遮蔽過濾功能,避免出現內容無法顯示或者段落錯亂。
!”
&esp;&esp;“那倫理框架和規範呢?”李翀汶饒有興趣地問,“這不是你們ppl的老本行嗎?”
&esp;&esp;“呃……是的,”沛誠嘆了口氣,“相關的研究和討論確實很多,但如果是我內心最真實的想法……”
&esp;&esp;李翀汶:“嗯?”
&esp;&esp;“我認為倫理問題不是人工智慧發展的最大優先順序,人工智慧又沒有生物生存和繁衍的本能,在發展技術之前去設想倫理約束這本身就是反直覺。與其擔心機器人大軍會不會奴役人類,還是考慮一下更實際的應用問題比較關鍵。”沛誠坦言道,“只要從演算法的公平性和公正性出發,確保不會帶有偏見和歧視就可以了,其他的問題都迎刃而解。”
&esp;&esp;“不對勁吧,說回到語言模型的訓練,那也都是以投餵海量資料來訓練的。既然無論是歷史資料還是使用資料,都是由帶有偏見和歧視的真人所生成的,模型學習之後難道還能自己有判斷能力,透過演算法將一些結構性的偏見問題排除掉嗎?”提出這一質疑的卻是森澤航。
&esp;&esp;沛誠想了想,道:“你說的也有道理,那麼或許退一步說,看看你們這個人工智慧最終的目的是什麼了。是要創造一個純潔無瑕、沒有歧視和偏見的虛擬和平世界?還是別有用途。如果是前者,那麼我感覺應該吸引不了多少使用者,別說沒有矛盾和分歧的環境從營銷的角度上很難傳播,一個每個人都同意尊重每個人的意見、毫無獎勵機制的世界怎麼會有趣呢?”
&esp;&esp;“就像遊戲一樣。”李翀汶很快明白了其中的關鍵所在。
&esp;&esp;“那麼如果這未來將是一個產品,換言之他會被商品化,其實只要參與的使用者有足夠的知情權和同意權就可以了。在法律允許的範圍內,成年人可以做出自己的判斷和選擇。”沛誠說。
&esp;&esp;“就像遊戲氪金一樣。”李翀汶笑起來。
&esp;&esp;沛誠餘光瞥見森澤航炯炯有神盯著他的目光,後背禁不住有點冒汗——他平時不太和森澤航討論這些事,怕影響他的想法,今天一沒留神說太多了。這個亮晶晶的眼神他熟悉得很——一般而言要是旁邊沒有別人,森澤航就要上嘴啃他了。
&esp;&esp;“再比如說,你的草莓鎮對吧?森澤航給我演示過,真挺厲害的。”沛誠硬著頭皮繼續說,“但是我禁不住想,如果未來這個世界被更廣泛的使用者測試,裡面有很多人同時發生互動,所有使用資料包含無數條分支、無數種可能,不止有文字圖象和聲音,還連帶最為細微的反射差別,反哺給ai幫助它深度學習,完成升級最佳化,那麼它會變得越來越龐大。這些資料包含了太多往哪裡存?還是說,如果把原始的feed刪掉,只留一個已經完成學習了的ai,那麼沒有原始資料的模型,真的能保證它的行為決策仍舊會保持一致嗎?”
&esp;&esp;沛誠問出了他上一次也問過的問題。
&esp;&esp;很顯然,目前的李翀汶對此還沒有答案,但已經能摸到一點邊:“這個我也很困擾,目前的技術應該還不能達到,只有幾種潛在的可行方向。比如說量子儲存,如果能夠實現,就能極大壓縮儲存空間,但目前這項技術還只是一個假設。”
&esp;&esp;沛誠聽完點點頭,表示自己在這方面不是專家,也不懂。
&esp;&esp;於是那兩人又就著話題繼續討論起來,沛誠安靜地喝自己面前的咖啡,不再多說什麼。
&esp;&esp;作者有話說:
&esp;&esp;s thanks=停·謝=謝不行
&esp;&esp; 雞翅管夠
&esp;&esp;森澤航和李翀汶可謂一見如故,天色都開始黯淡,兩人還聊得意猶未盡。沛誠本想提醒他不要耽誤別人時間——李翀汶難得回英國一趟,萬一還有別的事要處理呢,但看對方眉飛色舞的神情,估計確實覺得投緣。事實上,兩人已經天南地北地說了一大圈,什麼草莓鎮、什麼模型引擎已經是上個小時的話題,早被丟到一邊了。
&esp;&esp;關鍵他倆自己聊也就算了,時不時的還要cue沛誠一句,害他想發呆放空都不行。坐了兩個多小時,面前的咖啡杯都冷透了,沛誠忍不住道:“去吃飯嗎?邊吃邊聊?”
&esp;&esp;“好啊,吃什麼?
本章未完,點選下一頁繼續閱讀。