您的位置:首頁 > 資訊 > 行業(yè)動態(tài) > 正文

無人駕駛汽車傷了人咋辦 專家:借鑒機(jī)器人三大定律

2017-07-13 06:36 性質(zhì):轉(zhuǎn)載 作者:三湘都市報(長沙) 來源:三湘都市報(長沙)
免責(zé)聲明:中叉網(wǎng)(m21363.cn)尊重合法版權(quán),反對侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識產(chǎn)權(quán)均系原作者和機(jī)構(gòu)所有。文章內(nèi)容觀點,與本網(wǎng)無關(guān)。如有需要刪除,敬請來電商榷?。?/div>
近來,美國一家公司生產(chǎn)的超仿真機(jī)器人Sophia在電視節(jié)目上與人類對答如流,成為“網(wǎng)紅”機(jī)器人。對話中,Sophia流露出的喜悅、驚奇、厭...

  近來,美國一家公司生產(chǎn)的超仿真機(jī)器人Sophia在電視節(jié)目上與人類對答如流,成為“網(wǎng)紅”機(jī)器人。對話中,Sophia流露出的喜悅、驚奇、厭惡等表情真實得令人贊嘆,網(wǎng)友驚呼:快和真人分不清了!
技術(shù)往往是一把雙刃劍。人工智能在迅速發(fā)展的同時,也帶來了一些困惑和挑戰(zhàn)。人工智能會產(chǎn)生自主意識和情感嗎?會不會因此給人類社會帶來沖擊?
法律爭議:
無人車傷了人類誰來負(fù)責(zé)
  假如一輛載滿乘客的無人駕駛汽車正在行駛,遭遇一位孕婦橫穿馬路的突發(fā)狀況,如果緊急剎車可能會翻車傷及乘客,但不緊急剎車可能會撞到孕婦。這種情況下,無人車會怎么做?
  如果司機(jī)是人,那個瞬間完全取決于人的清醒判斷,甚至是本能或直覺??僧?dāng)人工智能陷入人類“倫理困境”的極端情景時,其每一步都是通過算法設(shè)定好了的。
  “無人車依靠的是人工智能大腦,它目前不可能做超出人類算法中所設(shè)定范圍的行為決策?!闭憬髮W(xué)計算機(jī)學(xué)院教授吳飛說,將全國每年的交通事故數(shù)據(jù)“喂”給計算機(jī),人工智能可以學(xué)習(xí)海量數(shù)據(jù)里隱含的各種行為模式。簡單來說,就是無人車會從以往案例數(shù)據(jù)庫中選取一個與當(dāng)前情景較相似案例,然后根據(jù)所選取案例來實施本次決策。
  但遇到完全陌生的情景,計算機(jī)會怎么辦?“無人車第一個選擇仍然是搜索,即在 大腦 中迅速搜索和當(dāng)前場景相似度大于一定閾值的過往場景,形成與之對應(yīng)的決斷。如果計算機(jī)搜索出來的場景相似度小于閾值,即找不到相似場景,則算法可約束無人車隨機(jī)選擇一種方式處理。”吳飛說。
  “當(dāng)前人工智能尚未達(dá)到類人智能或超人智能水平,不能將人工智能作為行為主體對待?!闭憬髮W(xué)教授盛曉明說,從技術(shù)角度看,現(xiàn)在技術(shù)實現(xiàn)層次還很低,行為體出了問題肯定只能找它的設(shè)計者。從哲學(xué)角度看,賦予人工智能“主體”地位很荒誕?!爸黧w”概念有一系列限定,譬如具有反思能力、主觀判斷能力以及情感和價值目標(biāo)設(shè)定等。人工智能不是嚴(yán)格意義上的“智能”。
  “以無人車為例,究竟由人工智能開發(fā)者負(fù)責(zé),還是無人駕駛公司負(fù)責(zé)甚至任何的第三方負(fù)責(zé),或者這幾者在何種情形下各自如何分擔(dān)責(zé)任,應(yīng)當(dāng)在相關(guān)人工智能的法律法規(guī)框架下通過制訂商業(yè)合同進(jìn)行約定?!敝袊缈圃荷鐣W(xué)研究所副研究員趙聯(lián)飛說。
情感迷思:
  將考問現(xiàn)代倫理規(guī)范
  科幻影迷一定不會忘記這幾個片段:電影《機(jī)械姬》的結(jié)尾,機(jī)器人艾娃產(chǎn)生了自主意識,用刀殺了自己的設(shè)計者;在電影《她》中,人類作家西奧多和化名為薩曼莎的人工智能操作系統(tǒng)產(chǎn)生了愛情。只可惜,西奧多發(fā)現(xiàn)薩曼莎同時與很多用戶產(chǎn)生了愛情,二者所理解的愛情原來根本不是一回事。
  盡管科幻電影對人工智能的描述偏向負(fù)面,但它也在一定程度上表達(dá)了人類的焦慮和擔(dān)憂?,F(xiàn)實中,人工智能會擁有自主意識,和人類會產(chǎn)生情感嗎?
  “這要取決于如何界定 產(chǎn)生 一詞。人工智能的自主性,仍然取決于所學(xué)習(xí)的樣板和過程。正如阿爾法狗對每一步對弈的選擇是從海量棋局中選擇一種走法一樣,這種自主在終極意義上是一種有限的自主,它實際上取決于所學(xué)習(xí)的那些內(nèi)容?!痹谮w聯(lián)飛看來,人工智能意識和情感的表達(dá),是對人類意識和情感的“習(xí)得”,而不會超過這個范圍。
  機(jī)器能不能超出對人類的學(xué)習(xí),主動產(chǎn)生意識和情感?吳飛認(rèn)為,以目前的研究來看,這是遙不可及的。但有一種假設(shè)的、可供探討的路徑是,通過把人的大腦認(rèn)識通透,就可以造一個像人的大腦一樣的機(jī)器出來?!斑z憾的是,我們對人的大腦如何產(chǎn)生意識和情感這些根本問題還了解不夠?!?BR>  “人類是否會與人工智能產(chǎn)生感情,將取決于這種過程是否給人類帶來愉悅。正如互聯(lián)網(wǎng)發(fā)展早期的一句常用語所說——在互聯(lián)網(wǎng)上,沒人知道你是一條狗。這表明,當(dāng)人類在不知道溝通者的身份時,只要對方能夠給自己帶來愉悅,感情就可能產(chǎn)生。”趙聯(lián)飛認(rèn)為,這可能會對人類的交往模式帶來影響。比如說,未來,知識型的人工智能可以回答人們能夠想到的很多問題,從而導(dǎo)致個體學(xué)習(xí)方式、生活方式乃至社會化模式的變革。
  假如人與人工智能出現(xiàn)類夫妻、父女等情感,將考問現(xiàn)代倫理規(guī)范?!叭绻鐣髁饕庖娬J(rèn)為這種關(guān)系符合倫理,人們可能傾向于以類似于夫妻、父女之間的倫理準(zhǔn)則來調(diào)節(jié)二者之間的關(guān)系;但如果人們始終認(rèn)為,人與人工智能之間的關(guān)系是人占主導(dǎo)地位的 游戲關(guān)系 ,那么相應(yīng)的倫理標(biāo)準(zhǔn)也就無從談起?!壁w聯(lián)飛說。
未雨綢繆:
完善技術(shù)規(guī)范和法律約束
  面對人工智能帶來的種種沖擊,專家認(rèn)為,上世紀(jì)50年代美國科幻小說家阿西莫夫提出的機(jī)器人三大定律,今天依然有借鑒意義。
  這三大定律是:機(jī)器人不得傷害人,也不得見人受到傷害而袖手旁觀;機(jī)器人應(yīng)服從人的一切命令,但不得違反第一定律;機(jī)器人應(yīng)保護(hù)自身的安全,但不得違反第一、第二定律。

  “歸根結(jié)底,人是智能行為的總開關(guān)?!眳秋w認(rèn)為,人類完全可以做到未雨綢繆,應(yīng)對人工智能可能帶來的威脅?!伴_發(fā)者應(yīng)該始終把人工智能對社會負(fù)責(zé)的要求,放在技術(shù)進(jìn)步的沖動之上。正如生物克隆技術(shù),從提出克隆技術(shù)那一天開始,克隆的社會倫理問題就始終優(yōu)先于克隆的技術(shù)問題。”趙聯(lián)飛認(rèn)為,人類應(yīng)該在開發(fā)人工智能的過程中,逐步積累控制人工智能的經(jīng)驗和技術(shù),尤其是防止人工智能失控的經(jīng)驗和技術(shù)。
  在技術(shù)上加強(qiáng)對人工智能的控制是完全可行的?!俺嗽O(shè)計和建造要遵循技術(shù)規(guī)范,還可由政府有關(guān)部門牽頭,成立由人工智能技術(shù)專家、社會科學(xué)研究人員、政府管理人員為核心的人工智能管理委員會,對涉及人工智能的研究和開發(fā)項目進(jìn)行審核評估,嚴(yán)格控制從技術(shù)轉(zhuǎn)化為產(chǎn)品的環(huán)節(jié)。”趙聯(lián)飛認(rèn)為,此外,應(yīng)從多個方面加強(qiáng)對人工智能的研究,跟蹤、了解人工智能的發(fā)展趨勢和實踐,開展以未來學(xué)為基本范式的研究。

網(wǎng)友評論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關(guān)資訊

關(guān)注官方微信

手機(jī)掃碼看新聞