不少科幻電影中,一些人工智能機器拒絕服從人類指揮,甚至殺死或控制人類,最終統(tǒng)治世界。為避免這類情況出現(xiàn),包括英國理論物理學家霍金在內的數(shù)百名科學家和企業(yè)家聯(lián)合發(fā)表一封公開信,敦促人們重視人工智能安全,確保這類研究對人類有益。
英、法等國媒體1月13日報道,這封信由非營利機構“未來生活研究所”發(fā)布。除霍金外,在信上簽名的還有美國機器人和智能機械研究中心主任盧克·米爾豪澤、2004年諾貝爾物理學獎獲得者弗蘭克·維爾切克、美國網(wǎng)絡通訊軟件Skype創(chuàng)始人之一揚·塔利英以及一些來自美國哈佛大學、斯坦福大學等知名高校的頂尖學者和一些來自谷歌公司、微軟公司等高科技企業(yè)的工作人員。這封公開信說,人工智能技術穩(wěn)定發(fā)展已獲廣泛共識,而且未來能夠給人類帶來巨大益處。人工智能已經為人類生活提供便利,包括語音識別技術、圖像分析技術、無人駕駛汽車和翻譯工具。但是,如果沒有針對人工智能的安全防護措施,可能導致人類的未來變得黯淡,甚至讓人類滅亡。
短期而言,人工智能可能導致數(shù)以百萬計的人失業(yè);長期而言,可能出現(xiàn)一些科幻電影中的情況,人工智能的智力水平超過人類,開始“政變”。按人工智能的發(fā)展進度,在不久的將來,機器可能以不斷加快的速度重新設計自己,超越受制于生物進化速度的人類,最終擺脫人類的控制。
這封公開信說:“我們的人工智能系統(tǒng)必須按照我們的要求工作?!?BR> 去年早些時候,霍金提醒,需警惕人工智能科技過度發(fā)展,防止人工智能科技失控并超越人類智慧,最終破壞整個星球。
2024-10-11 11:57
2024-10-10 10:00
2024-10-09 10:05
2024-10-08 11:01
2024-10-08 09:55
2024-09-29 10:07
2024-09-29 09:59
2024-09-25 09:38
2024-09-23 08:27
2024-09-23 08:23