您的位置:首頁 > 資訊 > 行業(yè)動態(tài) > 正文

面向未來:人與機器人共存的三種理想方式

2018-10-16 06:47 性質(zhì):轉(zhuǎn)載 作者:網(wǎng)易智能 來源:網(wǎng)易智能
免責(zé)聲明:中叉網(wǎng)(m21363.cn)尊重合法版權(quán),反對侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識產(chǎn)權(quán)均系原作者和機構(gòu)所有。文章內(nèi)容觀點,與本網(wǎng)無關(guān)。如有需要刪除,敬請來電商榷?。?/div>
近年來,關(guān)于人工智能和機器人技術(shù)的進步將如何在各種工作中取代人類的言論越來越多。但大多數(shù)人工智能專家認為結(jié)果并不那么悲觀。在...

  近年來,關(guān)于人工智能和機器人技術(shù)的進步將如何在各種工作中取代人類的言論越來越多。

但大多數(shù)人工智能專家認為結(jié)果并不那么悲觀。在未來,人們?nèi)匀豢梢耘c智能系統(tǒng)一起工作:技術(shù)不足以完全接管,或者決策人類的生產(chǎn)方式。很多重要的策略,還無法完全交付給機器。

麻省理工學(xué)院教授,《我們自己的機器人》的作者大衛(wèi)明德爾說,這種混合決策應(yīng)該比讓人工智能單獨工作能產(chǎn)生更好的結(jié)果。只有一個問題:當人類和半智能系統(tǒng)試圖一起工作時,情況并不總是好轉(zhuǎn)。

失控的智能,沒有人類該怎么辦

今年在亞利桑那州坦佩的街道上發(fā)生了災(zāi)難性的示威活動,原因是進行最新自動駕駛技術(shù)的優(yōu)步試驗車撞死了一名過馬路的人。像今天幾乎所有的自動駕駛汽車一樣,如果軟件出現(xiàn)故障,還會有一名備用駕駛員介入。但當?shù)鼐降囊豁椃治龅贸鼋Y(jié)論,司機當時心煩意亂,可能一直在觀看智能手機上的電視節(jié)目。

優(yōu)步汽車依賴于一定程度的自治系統(tǒng),該自治系統(tǒng)將于明年推出。所謂的3級系統(tǒng)設(shè)計在大多數(shù)情況下可以讓汽車實現(xiàn)自我驅(qū)動,但在面對無法處理的情況時,控制權(quán)還是得回到人類身上來。

圖:調(diào)查人員在檢查了一輛優(yōu)步自動駕駛車,該車涉及一起道路交通事故

一些批評者說,一個旨在完全自主但突然偏離的系統(tǒng)對人類提出了不切實際的要求。美國初創(chuàng)企業(yè)Nauto的首席執(zhí)行官斯特凡赫克說:“如果你每天只需要一分鐘,那就不行了。”他的技術(shù)用于防止職業(yè)司機分心。

失敗指向采用AI的困境遠遠超出無人駕駛汽車。如果沒有精心設(shè)計,智能系統(tǒng)進入世界可能會引發(fā)人類對技術(shù)的強烈抵制。

一旦人們開始了解今天的機器學(xué)習(xí)系統(tǒng)有多么有限,他們所引起的夸大的希望將會迅速消失,專門研究學(xué)習(xí)心理學(xué)的AI專家Roger Schank警告說。他預(yù)測,未來將是一個新的“人工智能冬天”——這是對20世紀80年代后期的一個時期的提及,當時對技術(shù)進步的失望導(dǎo)致了退出戰(zhàn)場。

預(yù)防這將需要對新自治系統(tǒng)更加切合實際的期望,以及精心設(shè)計以確保它們與人類世界相融合。但技術(shù)本身就是一個嚴重障礙。

卡內(nèi)基梅隆大學(xué)(Machnegie Mellon University)機器人學(xué)教授伊拉·努爾巴赫什(Illah Nourbakhsh)說:“人工智能的工作方式及其失敗的方式對我們來說是陌生的?!?“人工智能會讓我們感覺更多參與——或者它是否像處理外來物種一樣?”

圖:華盛頓特區(qū)展出的面部識別系統(tǒng),這樣的系統(tǒng)可以從人群中挑選嫌疑人,但也需要人類來清除誤報

半無人駕駛汽車是一個特別鮮明的例子,它依賴于與人們密切合作的近自治系統(tǒng)。但隨著人工智能的發(fā)展,諸如此類的混合系統(tǒng)正逐漸滲入許多不同的情況。

機器學(xué)習(xí)——是最近在該領(lǐng)域最引人注目人工智能類型——是一種先進的模式識別形式。它已經(jīng)證明機器自己優(yōu)于人類的能力,如識別照片中的圖像或識別語音。

但是,當它必須根據(jù)訓(xùn)練的具體數(shù)據(jù)做出判斷時效果較差。在現(xiàn)實世界中,人們經(jīng)常會對以前沒有遇到的情況做出決定。

問題在于可以匹配數(shù)據(jù)但不了解其重要性的系統(tǒng)?!八麄兪菑姶蟮臇|西,但他們沒有世界的感覺,”Vishal Sikka,前SAP和Infosys專門從事人工智能的高管說道。

三種理想的人與智能機器共存方式

1 人類充當機器人的后援,在機器人達到其能力極限時接管

許多工作流程正在以這種方式進行重新設(shè)計——例如自動呼叫中心,其中語言理解系統(tǒng)嘗試處理呼叫者的查詢,僅在技術(shù)混淆時向操作員默認。

優(yōu)步事故是一個可能出錯的極端例子。根據(jù)斯坦福大學(xué)的研究顯示,人類駕駛員至少需要6秒才能恢復(fù)意識并收回控制權(quán)。但是,即使有足夠的時間讓人們的注意力得到恢復(fù),進入某種情況的人也可能看到與機器不同的東西,使得切換遠非無縫。

“我們需要在軟件系統(tǒng)和人之間共同努力——這是一個非常困難的問題,”Sikka先生說。語言的使用凸顯了難度。Sikka先生補充說,人類可以用很少的詞來傳達意義:對說話者和聽者之間的語境的共同理解將這些詞語用意義進行投資。他補充說,計算機科學(xué)家尚未研究如何在機器中建立共識。

2 確保敏感任務(wù)總是依賴于人

即使在自動化系統(tǒng)已經(jīng)完成所有準備工作并且能夠完全完成任務(wù)本身的情況下,軍事等敏感任務(wù)還是交給人類來處理。

軍事無人機,人類“飛行員”,通常位于數(shù)千英里之外,被要求做出射擊目標的決定,就是一個例子。 面部識別系統(tǒng)——用于幫助移民官員識別可疑旅行者——是另一種。赫克先生說,兩者都表明人工智能如何在不剝奪控制權(quán)的情況下使人類更有效。

對無人機等半自動武器的一種評價是,將它們變成完全自治的系統(tǒng)沒有技術(shù)障礙??梢钥焖俑漠斍暗某绦?a href="http://m21363.cn/shop/31145/index/" title="和安" target="_blank">和安全措施。

圖:軍隊正在準備發(fā)射無人駕駛飛機

根據(jù)加州大學(xué)伯克利分校的人工智能教授斯圖爾特拉塞爾的說法,在國家緊急情況下將人類無人機操作員從循環(huán)中移除是一個簡單而容易的步驟,從而促成了一個機器人武器的時代,這個機器人武器做出了自己的決定。什么時候殺人 “你不能說技術(shù)本身只能以防御的方式和人為控制。事實并非如此,“他說。

3 涉及使用AI的“人在循環(huán)”系統(tǒng)

機器人不能完全獨立地處理任務(wù),而是用作人類決策的輔助。壓縮數(shù)據(jù)并提出建議或指導(dǎo)下一步采取措施的人的算法正在逐漸滲透到日常生活中。

但是,算法只能與他們訓(xùn)練的數(shù)據(jù)一樣好——而且他們不善于處理新情況。需要信任這些系統(tǒng)的人通常也需要信仰這些系統(tǒng)。

Schank先生指出算法在棒球中的作用。分析每個擊球手的優(yōu)勢和劣勢,為球隊傳統(tǒng)主義者所傾向的領(lǐng)域提供了新的方法。他說,這些計算機輔助決策的結(jié)果可能最終會比基于純粹人類分析的決策更糟糕。

舊金山優(yōu)步司機使用的應(yīng)用程序中的一個錯誤將它們發(fā)送到機場貨運站點而不是客運站?!坝袝r人們會盲目跟隨機器,有時人們會說:'堅持下去,這看起來不對。' 這就像許多其他技術(shù)一樣,人們會適應(yīng),“技術(shù)作者蒂姆奧萊利說。

這些可能是相對無害的情況,其中由于被機器引入誤導(dǎo)而幾乎沒有損壞。但是當賭注更高時會發(fā)生什么?

智能技術(shù)在發(fā)展,但人類能理解它的想法嗎?

IBM將醫(yī)療診斷作為Watson的主要目標之一,該系統(tǒng)首先是為贏得電視游戲節(jié)目而創(chuàng)建的,然后再改造成為一種更為通用的“認知”系統(tǒng)。

這樣的系統(tǒng)旨在由專家做出最終決定。IBM堅持認為人類永遠都有最終決定權(quán)。但是,對于醫(yī)生來說,覆蓋計算機提供的建議是多么容易,根據(jù)定義,該計算機已經(jīng)分析了更多可比較的情況并且比他們擁有的數(shù)據(jù)更多?

如果它有保險或其他財務(wù)后果,拒絕技術(shù)可能會更難。Nourbakhsh先生說:“醫(yī)生處于一種他們覺得服從系統(tǒng)的位置?!?“簡單地說他們?nèi)匀粫龀鰶Q定并不能做到這一點?!?/P>

類似的擔(dān)憂在20世紀80年代出現(xiàn),當時人工智能領(lǐng)域由“專家系統(tǒng)”主導(dǎo),旨在引導(dǎo)人類用戶通過“決策樹”在任何情況下達到正確的答案。事實證明,太難以預(yù)測所有使現(xiàn)實世界決策復(fù)雜化的不可預(yù)見的因素。

圖:人工智能可以比人眼更快地掃描和發(fā)現(xiàn)異常,但算法也有可能出錯

但是基于機器學(xué)習(xí)的最新AI看起來將被廣泛采用,并且可能更難以進行二次猜測。由于他們在諸如圖像識別等狹窄領(lǐng)域的成功,對這些系統(tǒng)的期望一直在飆升。他們的創(chuàng)作者非常樂意接受炒作。

“我們正在失控的營銷部門,”Schank先生說。他特別挑出 ?IBM,認為該公司在談到Watson時嚴重過度承諾——這是AI圈子中經(jīng)常聽到的批評。

IBM研究工作的首席運營官達里奧吉爾(Dario Gil)捍衛(wèi)了近八年前圍繞沃森(Watson)發(fā)起一項大型計劃的決定,他認為當時沒有其他科技公司能夠在人工智能方面發(fā)揮核心作用。但是,他補充說:“我們對一般情況之間的差異不夠清楚。 “

評估人工智能系統(tǒng)的質(zhì)量建議會帶來其他挑戰(zhàn),非專家可能不愿意猜測他們不理解的工作機器。

這不是一個新的困境。30多年前,一臺名為Therac-25的放射治療機的軟件故障導(dǎo)致一些患者大量服用過量。Nourbakhsh先生說,技術(shù)人員無法識別缺陷,因此機器的使用時間更長。

一些計算機科學(xué)專家表示,他們希望人與機器之間能擁有更具創(chuàng)造性的關(guān)系

最先進的機器學(xué)習(xí)系統(tǒng)中使用的技術(shù),即神經(jīng)網(wǎng)絡(luò),帶來了額外的挑戰(zhàn)。它們模仿人類大腦如何運作的理論,通過人工神經(jīng)元層傳遞數(shù)據(jù),直到出現(xiàn)可識別的模式。與傳統(tǒng)軟件程序中使用的邏輯電路不同,無法跟蹤此過程以確定計算機為什么會提出特定答案。這是采用神經(jīng)網(wǎng)絡(luò)的一大障礙。

“這是人工智能的奇特諷刺——最好的系統(tǒng)碰巧是今天最不易解釋的系統(tǒng),”Nourbakhsh先生說。

然而,一些專家表示正在取得進展,并且不久之后機器學(xué)習(xí)系統(tǒng)能夠指出導(dǎo)致他們做出特定決定的因素?!斑@并非不可能——你可以向內(nèi)看,看看它正在發(fā)出什么信號,”赫克先生說。


像許多在該領(lǐng)域工作的人一樣,他表達了樂觀的態(tài)度,即人類和機器一起工作,所取得的成就遠遠超過任何一個人能夠獨自完成的任務(wù)。但是,在美好的未來到來之前,還是有很多嚴峻的設(shè)計挑戰(zhàn)等待人類解決。

(選自:Financial Times 編譯:網(wǎng)易智能 參與:李澤寬)

網(wǎng)友評論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關(guān)資訊

關(guān)注官方微信

手機掃碼看新聞