新聞中心

EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 為什么馬斯克有關(guān)AI的警告可能是正確的?

為什么馬斯克有關(guān)AI的警告可能是正確的?

作者: 時(shí)間:2017-08-31 來(lái)源:網(wǎng)易科技 收藏

  8月26日消息,據(jù)CNBC網(wǎng)站報(bào)道,特斯拉和SpaceX公司的首席執(zhí)行官埃隆·馬斯克(ElonMusk)曾多次表示,隨著人工智能()的應(yīng)用越來(lái)越廣泛,社會(huì)需要更加關(guān)注其安全問(wèn)題。

本文引用地址:http://m.butianyuan.cn/article/201708/363770.htm

  馬斯克最近在推特上寫(xiě)道:“如果你不擔(dān)心人工智能的安全性,那么現(xiàn)在你應(yīng)該擔(dān)心了。”

  軟件解決方案公司SAP的首席學(xué)習(xí)官(CLO)珍妮·迪爾伯恩(JennyDearborn)對(duì)這觀點(diǎn)表示贊同。

  事實(shí)上,她認(rèn)為,至關(guān)重要的是要開(kāi)展好有關(guān)人工智能知識(shí)以及如何更好利用這項(xiàng)技術(shù)的教育。

  她告訴CNBC:“人工智能將無(wú)處不在。這將是我們社會(huì)中最普遍的一種現(xiàn)象,而這種現(xiàn)象不會(huì)被人們直觀地看到。但它將存在一切事物的背后。”

  迪爾伯恩稱(chēng),人工智能將影響我們所做的一切,包括掃描證件、滾動(dòng)網(wǎng)頁(yè)、使用應(yīng)用程序和家庭傳感器系統(tǒng),以及日常生活的許多其他方面。結(jié)果,人工智能將不斷收集數(shù)據(jù)和個(gè)人信息。迪爾伯恩解釋說(shuō),企業(yè)可以利用這些信息,應(yīng)用算法來(lái)了解你的行為。

  她說(shuō):“我們需要利用人工智能讓人類(lèi)更強(qiáng)大,而不是取代人類(lèi)。我們需要讓更多的人在如何利用人工智能上發(fā)出自己的聲音,這樣我們就不會(huì)反過(guò)來(lái)被人工智能所利用。”

  但在人工智能上誰(shuí)會(huì)利用我們呢?我們?yōu)槭裁匆3中⌒哪?迪爾伯恩稱(chēng),在人工智能領(lǐng)域的前沿有三家公司:谷歌、Facebook和亞馬遜。她說(shuō),(如果人類(lèi)被人工智能所利用)它們“將受益最大”。

  迪爾伯恩表示:“對(duì)于人工智能滲透到人們生活的程度,人們需要有所了解。這樣,他們就不會(huì)在某天醒來(lái)說(shuō):‘我一直都是被利用的棋子’。”

  她以Fitbit等健康追蹤設(shè)備為例:一家醫(yī)療保健公司可以利用健身應(yīng)用提供的數(shù)據(jù)來(lái)了解人們的健康習(xí)慣。她說(shuō):“那么,如果有一天,對(duì)于每天步行少于1萬(wàn)步的人,它決定增加他的保險(xiǎn)費(fèi)用,人們?cè)撛趺崔k?”

  迪爾伯恩認(rèn)為這是一種極端但不是不可能發(fā)生的情形。她問(wèn)道:“誰(shuí)來(lái)做出這個(gè)決定?”。她說(shuō),如果我們不參與有關(guān)人工智能的討論,那這些大公司將擁有全部話言權(quán)。

  她擔(dān)心,人們會(huì)為了方便起見(jiàn)而愉快地泄露自己的隱私。她指出:“他們說(shuō),‘我可以接受’,但如果(一家公司的所作所為)越過(guò)紅線怎么辦呢?”

  迪爾伯恩稱(chēng):“現(xiàn)在,大多數(shù)公司都比政府擁有更大的權(quán)力。”今后,會(huì)有大量關(guān)于人們隱私、個(gè)人自由和紅線的討論。因此,“開(kāi)展這方面的教育非常關(guān)鍵。”

  她表示,我們應(yīng)該決定我們希望這個(gè)新經(jīng)濟(jì)會(huì)是什么樣子,了解我們自己在其中扮演的角色,參與對(duì)話并成為知情的公民。這樣,在人工智能如何“設(shè)計(jì)和以何為導(dǎo)向”上,社會(huì)大體上可以做出明智的決定。

  馬斯克有類(lèi)似的觀點(diǎn),他說(shuō):“人工智能對(duì)人類(lèi)文明的存在構(gòu)成了根本性的風(fēng)險(xiǎn),這與汽車(chē)事故、飛機(jī)相撞、藥物錯(cuò)配、食品安全的影響方式不同——后者只會(huì)對(duì)社會(huì)造成局部的損害,但人工智能有可能對(duì)整個(gè)社會(huì)造成威脅。”

  迪爾伯恩提出了自己的解決方案:“我們應(yīng)該教育好年輕人,讓他們對(duì)我們要去的地方持批評(píng)態(tài)度。”她支持年輕人進(jìn)入科技行業(yè),事實(shí)上,她說(shuō),對(duì)我們生活產(chǎn)生最大影響的重大決策經(jīng)常來(lái)自于科技行業(yè),而不是政府。

  她說(shuō):“如果你想從事衛(wèi)生保健行業(yè),就選擇以醫(yī)療保健為重點(diǎn)的科技類(lèi)專(zhuān)業(yè);如果你想成為一名神經(jīng)系統(tǒng)的科學(xué)家,那就選擇以神經(jīng)系統(tǒng)其為重點(diǎn)的科技類(lèi)專(zhuān)業(yè)。”

  迪爾伯恩補(bǔ)充說(shuō),我們最大的責(zé)任是弄清楚社會(huì)將如何利用人工智能。

  她給出了一個(gè)例子:谷歌一直在測(cè)試無(wú)人駕駛汽車(chē)。但是,如果一輛無(wú)人駕駛汽車(chē)即將發(fā)生碰撞,它必須在拯救駕駛員和撞向人群,或避開(kāi)人群但讓載有駕駛員的汽車(chē)發(fā)生碰撞這兩項(xiàng)選擇做出一個(gè)數(shù)學(xué)決策,那該怎么辦?

  盡管她承認(rèn)這是一個(gè)極端的例子,迪爾伯恩稱(chēng),人們很快就必須對(duì)這類(lèi)問(wèn)題做出回答。因此,讓更多來(lái)自不同背景的人群參與有關(guān)人工智能開(kāi)發(fā)和應(yīng)用方式的討論很重要。

  她說(shuō):“這就像創(chuàng)造一個(gè)政府結(jié)構(gòu)或社會(huì)秩序。你需要確保構(gòu)建這些系統(tǒng)的人們擁有平等的代表性和多樣性。”

  她說(shuō),現(xiàn)在的科技領(lǐng)域以白人男性為主,他們同時(shí)制定了有關(guān)我們的道德和社會(huì)原則的規(guī)則。

  迪爾伯恩稱(chēng):“在這方面,我們不能采取自由放任的方式。這些都是倫理準(zhǔn)則和紅線,不能讓營(yíng)利性公司自行做出這些決定。”



關(guān)鍵詞: AI

評(píng)論


相關(guān)推薦

技術(shù)專(zhuān)區(qū)

關(guān)閉