霍金:人工智能崛起要么是歷史最好的事 要么是最糟的
12月13日消息,在由長城會主辦的天工開悟高端論壇上,霍金通過視頻發(fā)表了關(guān)于人工智能的演講。
本文引用地址:http://m.butianyuan.cn/article/201712/372996.htm霍金認(rèn)為,強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。人工智能是好是壞我們?nèi)圆淮_定,但我們應(yīng)該竭盡所能,確保其未來發(fā)展對我們和我們的環(huán)境有利。
“我們別無選擇。我認(rèn)為人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。人工智能的研究與開發(fā)正在迅速推進(jìn),也許我們所有人應(yīng)該暫停片刻,把我們的研究重點從提升人工智能的能力轉(zhuǎn)到最大化人工智能的社會效益。”
霍金表示,人工智能也遵循“計算機在理論上可以模仿人類智能,然后超越”這一原則。但我們并不確定,所以我們無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。“的確,我們擔(dān)心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。”
霍金提到,近來人工智能的里程碑,比如說之前提到的自主駕駛汽車,以及人工智能贏得圍棋比賽,都是未來趨勢的跡象。“人工智能的成功有可能是人類文明史上最大的事件。”
但同時人工智能也有可能是人類文明史的終結(jié),除非我們學(xué)會如何避免危險。“我曾經(jīng)說過,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。”霍金提到了一個報告,該報告承認(rèn)在幾十年的時間內(nèi),人工智能可能會超越人類智力范圍,人工智能可能會超越人類智力范圍,進(jìn)而挑戰(zhàn)人機關(guān)系。
評論