霍金警告人工智能危險性 稱其若失控很難被阻止
2016-06-30 09:53:10 來源: 中國新聞網(wǎng)
0瀏覽 評論0條
中新網(wǎng)6月29日電 據(jù)外媒報道,著名天體物理學(xué)家史蒂芬·霍金認(rèn)為,人工智能應(yīng)該在符合倫理道德和安全措施要求的情況下開發(fā),因為脫離人類控制之下的機(jī)器很難被阻止住。
資料圖:著名天體物理學(xué)家霍金。記者 張子揚 攝
美國知名記者拉里·金對霍金進(jìn)行了采訪。霍金在采訪中承認(rèn),他不認(rèn)為發(fā)展人工智能一定能讓人類朝好的方向發(fā)展。
霍金表示:“當(dāng)機(jī)器發(fā)展到能自己演化的重要階段之時,它們的目標(biāo)與人類愿望之間的相符程度就很難預(yù)料了。”
他指出,人工智能可以比人類的智慧發(fā)展得更快。
資料圖:著名天體物理學(xué)家霍金。
他說:“有益的人工智能可以與人類共存,并擴(kuò)大人類的可能性。但失控的人工智能很難被阻止。在開發(fā)人工智能時必須保證符合道德倫理與安全措施的要求。”
他認(rèn)為,有益的人工智能將出現(xiàn)在人類生活的各方面。
霍金說:“想象一下那些可以對科學(xué)家想法迅速作出評價、更早地查出癌癥、并預(yù)測證券市場走勢的人工智能!它們將影響到我們的經(jīng)濟(jì),影響到我們的決策,并在整體上影響我們的生活。”
相關(guān)閱讀
- (2014-12-04)霍金“說話軟件”將免費開放 預(yù)測人工智能滅人類
- (2015-01-20)WCBA全明星名單調(diào)整 程鳳替換霍金斯進(jìn)北區(qū)替補
- (2015-03-31)物理學(xué)家霍金為自己姓名申請專利 防不法分子利用
- (2015-05-27)貝克漢姆泛舟劍橋 愛子曬合影寫錯霍金名字(圖)
- (2016-06-06)霍金微博發(fā)文祝福中國學(xué)子2016高考:金榜題名(中英文)