您的位置:首頁 > 資訊 > 企業(yè)動態(tài) > 正文

Meta 的人工智能研究人員為機(jī)器人創(chuàng)造了人工視覺皮層,通過觀察來操作

2023-04-10 09:43 性質(zhì):原創(chuàng) 作者:DDing 來源:中叉網(wǎng)
免責(zé)聲明:中叉網(wǎng)(www.m21363.cn)尊重合法版權(quán),反對侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識產(chǎn)權(quán)均系原作者和機(jī)構(gòu)所有。文章內(nèi)容觀點(diǎn),與本網(wǎng)無關(guān)。如有需要刪除,敬請來電商榷?。?/div>
Meta Platforms Inc.人工智能研究部門的研究人員今天宣布了圍繞自適應(yīng)技能協(xié)調(diào)和視覺皮層復(fù)制的幾項(xiàng)關(guān)鍵進(jìn)展,他們表示這些進(jìn)展將允許人工智能驅(qū)動的機(jī)器人在...

Meta Platforms Inc.人工智能研究部門的研究人員今天宣布了圍繞自適應(yīng)技能協(xié)調(diào)和視覺皮層復(fù)制的幾項(xiàng)關(guān)鍵進(jìn)展,他們表示這些進(jìn)展將允許人工智能驅(qū)動的機(jī)器人在沒有任何真實(shí)世界數(shù)據(jù)的情況下在現(xiàn)實(shí)世界中運(yùn)行。

(Meta Platforms Inc.是美國一家經(jīng)營社交網(wǎng)絡(luò)服務(wù)、虛擬現(xiàn)實(shí)、元宇宙等產(chǎn)品的互聯(lián)網(wǎng)科技公司,總部位于美國加州門洛帕克,旗下?lián)碛蠪acebook、Instagram、WhatsApp等社交軟件。)

據(jù)稱,這些進(jìn)展是在創(chuàng)建通用“具身人工智能代理”方面取得的重大進(jìn)展,該代理能夠在無需人工干預(yù)的情況下與現(xiàn)實(shí)世界進(jìn)行交互。第一個(gè)公告涉及創(chuàng)建一個(gè)名為 VC-1 的人工視覺皮層,該皮層在 Ego4D 數(shù)據(jù)集上進(jìn)行訓(xùn)練,該數(shù)據(jù)集由數(shù)千個(gè)執(zhí)行日常任務(wù)的人的視頻組成。

正如研究人員在博客文章中解釋的那樣,視覺皮層是大腦中使生物體能夠?qū)⒁曈X轉(zhuǎn)化為運(yùn)動的區(qū)域。因此,人工視覺皮層是任何需要根據(jù)眼前所見執(zhí)行任務(wù)的機(jī)器人的關(guān)鍵要求。因?yàn)?VC-1 需要在廣泛的環(huán)境中很好地完成各種感覺運(yùn)動任務(wù),Ego4D 數(shù)據(jù)集被證明特別有用,因?yàn)樗澜绺鞯匮芯繀⑴c者執(zhí)行日常活動的數(shù)千小時(shí)可穿戴相機(jī)視頻,例如烹飪、清潔、運(yùn)動和手工藝。

研究人員說:“生物有機(jī)體有一個(gè)通用的視覺皮層,這就是我們尋找具身代理的目的。因此,他們著手創(chuàng)建一個(gè)在多項(xiàng)任務(wù)上表現(xiàn)良好的數(shù)據(jù)集,從 Ego4D 作為核心數(shù)據(jù)集開始,并通過添加額外的數(shù)據(jù)集來改進(jìn) VC-1 進(jìn)行試驗(yàn)。由于 Ego4D 主要關(guān)注烹飪、園藝和手工藝等日?;顒?,我們還考慮了探索房屋和公寓的以自我為中心的視頻數(shù)據(jù)集,”研究人員寫道?!?/p>

然而,視覺皮層只是具身人工智能的一個(gè)元素。對于在現(xiàn)實(shí)世界中完全自主工作的機(jī)器人,它還必須能夠操縱現(xiàn)實(shí)世界的物體。機(jī)器人需要能夠?qū)Ш降揭粋€(gè)物體,將其撿起,將其帶到另一個(gè)位置并放置該物體——并根據(jù)其所見所聞來完成所有這些工作。

為了解決這個(gè)問題,Meta 的 AI 專家與美國佐治亞理工學(xué)院的研究人員合作開發(fā)了一種稱為“自適應(yīng)技能協(xié)調(diào)”的新技術(shù),其中機(jī)器人完全在模擬中進(jìn)行訓(xùn)練,然后將這些技能轉(zhuǎn)移到現(xiàn)實(shí)世界的機(jī)器人上。

Meta 與波士頓動力公司合作展示了其 ASC 技術(shù)的有效性。ASC 模型與波士頓動力公司的 Spot 機(jī)器人集成在一起,后者具有強(qiáng)大的傳感、導(dǎo)航和操縱能力,盡管需要大量的人工干預(yù)。

“例如,挑選一個(gè)物體需要一個(gè)人點(diǎn)擊機(jī)器人平板電腦上的物體。我們的目標(biāo)是構(gòu)建能夠通過波士頓動力 API 的機(jī)載傳感和電機(jī)命令來感知世界的 AI 模型?!?/p>

ASC 在使用 HM3D 和 ReplicaCAD 數(shù)據(jù)集構(gòu)建的環(huán)境中使用 Habitat 模擬器在 Spot 上進(jìn)行了測試,其中包含 1,000 多個(gè)家庭的室內(nèi) 3D 掃描。然后,模擬的 Spot 機(jī)器人被教導(dǎo)在一個(gè)以前看不見的家里四處走動,撿起不在地方的物體,把它們帶到正確的位置,然后把它們放下。后來,這些知識被轉(zhuǎn)移到現(xiàn)實(shí)世界中的 Spot 機(jī)器人中,這些機(jī)器人會根據(jù)它們對房屋外觀的了解自動執(zhí)行相同的任務(wù)。

“當(dāng)我們對我們的工作進(jìn)行測試時(shí),我們使用了兩個(gè)截然不同的現(xiàn)實(shí)世界環(huán)境,在這些環(huán)境中,Spot 被要求重新布置各種物體——一個(gè)家具齊全的 185 平方米公寓和一個(gè) 65 平方米的大學(xué)實(shí)驗(yàn)室。總的來說,ASC 取得了近乎完美的表現(xiàn),在 60 集中的 59 集中取得了成功,克服了硬件不穩(wěn)定、拾取失敗以及移動障礙物或阻塞路徑等對抗性干擾?!?/p>

Meta 的研究人員表示,他們今天正在開源 VC-1 模型,并在隨附的論文中分享了他們在如何縮放模型大小、數(shù)據(jù)集大小等方面的詳細(xì)知識。與此同時(shí),該團(tuán)隊(duì)的下一個(gè)重點(diǎn)將是嘗試將 VC-1 與 ASC 集成,以創(chuàng)建一個(gè)更接近真正體現(xiàn)人工智能的單一系統(tǒng)。

網(wǎng)友評論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關(guān)資訊

關(guān)注官方微信

手機(jī)掃碼看新聞