您的位置:首頁 > 資訊 > 行業(yè)動態(tài) > 正文

打開人工智能的“黑匣子”,讓AI更加透明

2017-12-25 07:32 性質:轉載 作者:網易智能 來源:網易智能
免責聲明:中叉網(m21363.cn)尊重合法版權,反對侵權盜版。(凡是我網所轉載之文章,文中所有文字內容和圖片視頻之知識產權均系原作者和機構所有。文章內容觀點,與本網無關。如有需要刪除,敬請來電商榷?。?/div>
數(shù)以百萬計的人每天都在以某種形式使用著人工智能(AI),而其中大部分都是在不知不覺中進行的。全世界的人們都在通過手機上的、或者其...

  數(shù)以百萬計的人每天都在以某種形式使用著人工智能(AI),而其中大部分都是在不知不覺中進行的。全世界的人們都在通過手機上的、或者其他平臺上的應用來使用它。


  例如,谷歌搜索提示、Facebook好友建議、自動更正和預測文本都是通過使用人工智能技術進行的。正因為如此,比以往任何時候都更重要的是,我們需要在全球范圍內提高人工智能的透明度,從而能夠了解這項技術的工作原理,然后做出決策,并為醫(yī)療和金融等行業(yè)提供關鍵的應用程序。
  我想我們都應該認可賦予的人工智能權力不應該凌駕于法律之上,但與此同時,人工智能技術也不應受到過于嚴格的監(jiān)管。至少在徹底分析新標準和新規(guī)是否能保護消費者、或者實際上能限制其往壞的方向發(fā)展之前,我們不應該這樣看待人工智能。分析的范圍應該集中在人工智能的當前應用下、它在新領域的部署對經濟的潛在影響、以及公眾對該技術看法的評估等方面。
  與此同時,我們這些在全球科技圈研發(fā)人工智能的人需要共同解決其可審核性和透明度的問題。我們應該致力于投資新興人工智能技術的研發(fā),而這正是許多人在僅僅觀察算法層面上是無法理解的。值得肯定的是,企業(yè)、政府和學術領域的利益相關方都有責任幫助人們理解人工智能何時對于他們最有用,為什么它能提高生產力,以及很重要的一點,關于收集相關數(shù)據(jù)以呈現(xiàn)出人們互動的方式。

  加強和擴大人工智能透明度、知識和理解的關鍵需要從幾個方面來說,接下來讓我來說明。
  與人工智能互動的每個人都應該意識到這并不是人類在跟我們對話,而且,在此應用下人類也不應該假裝成機器人。利用人工智能技術進行客戶和人員互動的公司應該清楚地知道其產生的數(shù)據(jù)將會帶給他們什么。與人工智能驅動的平臺和系統(tǒng)進行聊天測試的人應該需要記錄他們的談話記錄,并在出現(xiàn)差異、問題或需要確認的情況下對他們進行調整。
  為企業(yè)和企業(yè)應用開發(fā)人工智能的人需要負責任地創(chuàng)建、獲取和測試各種數(shù)據(jù)。我們需要引入偏差檢測測試,以確定人工智能是否符合標準和商定的測試協(xié)議。或者我們具體來說,在人工智能測試實驗結束之前,工程師需要模擬和掌握其體內的數(shù)據(jù)集如何在各種環(huán)境中與用戶交互的情況。
  工程師需要測試產品以確保它們不會對人類有害。為了保護用戶,他們對人工智能應用的可用性、安全性、可擴展性和安全性進行產品測試,但目前還沒有對它們在社交、道德或情感方面可能對人類造成的傷害做相關的測試。作為一個新興行業(yè),我們?yōu)槭裁床辉陂_發(fā)周期添加偏見測試,以確保人工智能應用程序中的算法不存在偏見,從而不會造成對用戶慢性的或傳統(tǒng)意義上的傷害呢?
  人工智能工程師還需要與公司內外的同行分享他們對于人工智能的最佳實踐成果和消除傳統(tǒng)觀念的新發(fā)現(xiàn)。他們需要確保他們正在開發(fā)的人工智能和它所使用的數(shù)據(jù)能夠反映使用者們需要得到的信息的多樣性。最重要的是,當技術出現(xiàn)問題時,企業(yè)需要做出艱難的決定來阻止人工智能,例如設置避免偏見性算法或提高算法的透明度。通過確保技術和數(shù)據(jù)是多樣的、客觀的和無缺陷的,當人們試圖獲取這些信息時將不會遇到太多的偏見性問題。
  人工智能行業(yè)應該實現(xiàn)自我管理,并與企業(yè)董事會和管理團隊目標保持一致。這些要求應該有一個統(tǒng)一的,并且是可選擇的原則準則,比如我們在Sage上發(fā)布的用于開發(fā)和應用人工智能解決方案的人工智能倫理指南。政府和企業(yè)之間也應該建立合作伙伴關系,這樣他們就可以實時分享關于人工智能安全相關的信息。假如實現(xiàn)這樣的真正伙伴關系的話,這會極大地提高人工智能使用的透明度,并可以為其他考慮轉向“人工智能用于商業(yè)發(fā)展、公共服務和社會公益”為目標的司法管轄區(qū)提供了范例。
  公司考慮應該對人工智能進行內部審查去了解人工智能在哪里可以得到最大化應用,以及需要培訓多少人才能更好地實施人工智能驅動的服務。他們應該創(chuàng)建培訓和加速勞動力的相關項目,以鼓勵更多具備人工智能研發(fā)技能的人才從事技術驅動這項工作。
  人工智能實現(xiàn)透明化是一項全球性的努力
  從根本上講,我們的科技社區(qū)需要定義人工智能透明化的含義并共同努力,將透明度應用于創(chuàng)新人工智能技術中。我們需要停止持有將人工智能視為一個黑匣子的這種觀念,并解決其可審計性和可追溯性問題,而解決這些問題將引領我們走上正確的道路。我們需要普及關于人工智能的知識,并闡明它的無數(shù)用例——從技術到醫(yī)療,從交通到社會安全再到家庭生活。
  由于當前缺乏人工智能的透明度和教育,導致人們對這一將來發(fā)展所需要的重要技術產生不信任。如果我們能夠將這個問題作為一個正式行業(yè)來面對,那么我們將能夠通過像人工智能這樣的技術來真正實現(xiàn)信息的民主化,而這將把我們集中成一個全球性的科技和用戶群體。

  如果需要爭取普遍透明度,我們必須在算法和數(shù)據(jù)層面上來實現(xiàn)它。全球人工智能社區(qū)需要共同努力,通過適當?shù)臏y試、培訓和教育來遏制、消除偏見,這也是我在職業(yè)生涯中一直致力于做的事情。而且我并不是唯一一個這樣做的人,包括英國議會的人工智能委員會、紐約大學的人工智能學院和麻省理工學院媒體實驗室的人工智能和治理倡議等項目,都在努力打造透明的、合乎道德的人工智能。我們仍有很多工作要做。但人工智能的透明化是我們非常值得努力去實現(xiàn)的。

網友評論
文明上網,理性發(fā)言,拒絕廣告

相關資訊

關注官方微信

手機掃碼看新聞