石慌提示您:看後求收藏(【第647章:當ai比人還聰明時…】,科技巨頭,石慌,630看書),接著再看更方便。
請關閉瀏覽器的閱讀/暢讀/小說模式並且關閉廣告遮蔽過濾功能,避免出現內容無法顯示或者段落錯亂。
的行為都是極其可笑的,我們不能對我們能夠永遠控制一個超級智慧體而表示出過度的自信,它總有一天會掙脫控制,而到那之後呢,它是否會是一個仁慈的神?”
“我個人認為人工智慧實現人格化是不可避免的問題,所以我想我們更應該需要搞明白一點,即如果,我們創造出了超級ai,哪怕它不受我們的制約。它應該仍然是對我們無害的,它應該是站在我們這一邊的,它應該擁有著與我們一樣的價值觀。”
“那麼對於這個問題能夠被有效的解決是否保持樂觀?”
“我們不需要對超級ai寫下所有我們在乎的事情,甚至把這些事情變成計算機語言,因為這是永遠不可能完成的任務。而應該是,我們創造出的人工智慧用它自己的智慧來學習我們的價值觀,可以激勵它來追求我們的價值觀,或者去做我們會贊成的事情,去解決富有價值的問題。”
“這並非不可能,而是可能的,其結果可以使人類受益匪淺,但它不會是自動發生的,它的價值觀是需要引導的。”
“智慧大爆炸的初始條件,需要從最原始的階段被正確建立起價值觀。”
“如果我們想要一切不被偏離我們的預想,人工智慧的價值觀和我們的價值觀相輔相成不只是在熟悉的情況下,比如我們能夠很容易的檢查它的行為的時候,但也要在所有的人工智慧可能會遇到的前所未有的情況下,在沒有界限的未來與我們的價值觀仍舊相輔相成,也有很多深奧的問題需要被解決:比如它如何做決斷、如何解決邏輯不確定和類似的諸多問題等等。”
“這個任務看起來有些困難,但並沒有像創造一個超級智慧體一樣困難不是嗎?”
“的確還是相當困難(鬨笑聲再次傳遍全場)!”
“我們所擔心的,如果創造出一個超級ai確實一個很大的挑戰,創造出一個安全的超級ai是個更大的挑戰,風險是,如果解決了第一個難題,卻無法解決第二個確保安全性的問題,所以我認為我們應該預先想出不會出現偏離我們價值觀的解決方法,這樣我們就能在需要的時候用到它了。”
“現在,也許我們並不能解決第二個安全性的問題,因為有些因素需要你去了解,你需要應用到那個實際架構的細節才能有效實施。”
“如果我們能夠解決這個問題,當我們邁入真正的超級智慧時代後,就能更加順利,這對於我們來說是非常值得一試的東西。”
“而且我能想象假如一切順利,幾百年、幾千年或幾百萬年後當我們的後代子孫回首我們這個世紀,他們也許會說,我們的祖先、我們這一代人所做的最最重要的事情,就是做出了最正確的決定。”
“謝謝!”
………(未完待續。)
本章未完,點選下一頁繼續閱讀。