百度已經(jīng)成為中國自動駕駛與人工智能創(chuàng)業(yè)領(lǐng)域的黃埔軍校。這兩個目前最熱前沿科技的創(chuàng)業(yè)領(lǐng)域,近年來涌現(xiàn)出一大批來自百度頂級研發(fā)精英的身影,創(chuàng)辦了數(shù)十家炙手可熱的創(chuàng)業(yè)公司。
在人工智能及機器人領(lǐng)域,就有百度深度學(xué)習(xí)研究院常務(wù)副院長余凱創(chuàng)辦的地平線、前百度首席科學(xué)家吳恩達創(chuàng)辦的Deeplearning.ai、前百度深度學(xué)習(xí)研究院杰出科學(xué)家吳韌創(chuàng)辦的異構(gòu)智能等等。在無人駕駛領(lǐng)域,則包括了前百度自動駕駛事業(yè)部總經(jīng)理王勁創(chuàng)辦的景馳(其CTO是前百度自動駕駛事業(yè)部首席科學(xué)家韓旭)、前百度無人車首席架構(gòu)師彭軍與同事樓天成創(chuàng)辦的Pony.ai等等。
如今,前百度無人車高級架構(gòu)師劉少山和Magic Leap視覺系統(tǒng)首席工程師張哲創(chuàng)辦的PerceptIn,今天在美國TechCrunch Disrupt大會上正式發(fā)布了適用于功能型無人車的自動駕駛智能視覺系統(tǒng),選擇了無人車和機器人的這一細分交集領(lǐng)域作為切入點。
對PerceptIn董事長劉少山來說,這也是他再次回歸無人車領(lǐng)域。去年3月,曾經(jīng)在微軟機器人研發(fā)團隊共事的劉少山和張哲雙雙離職,共同創(chuàng)辦了機器人創(chuàng)業(yè)公司PerceptIn。劉少山?jīng)]有做無人車,張哲沒有做AR,兩人轉(zhuǎn)而從事SLAM(同步定位與地圖架構(gòu))相關(guān)產(chǎn)品的研發(fā),用于機器人的感知技術(shù)解決方案。不過,劉少山到是在創(chuàng)業(yè)之余還寫一本廣受行業(yè)好評的無人駕駛技術(shù)書。
去年9月,新浪科技曾經(jīng)報道過PerceptIn,當(dāng)時他們談得更多的是未來行業(yè)的機器人化(Robotization),專注的是SLAM技術(shù)的具體應(yīng)用,包括掃地機器人、智能家居以及AR游戲等等。那么,創(chuàng)業(yè)一年半之后,機器人公司PerceptIn為何又進入無人車領(lǐng)域,又為何選擇功能性無人車這個細分市場?
無人車也是機器人
對于無人車這個概念,劉少山和張哲有著相同的理解。“現(xiàn)在做的(功能型無人車自動駕駛智能視覺系統(tǒng)),我覺得和公司原先的機器人戰(zhàn)略是一致的。現(xiàn)在最大的誤解是無人駕駛是汽車的衍生品,但我覺得無人駕駛應(yīng)該是機器人的延伸。無人車可以是運人,也可以運貨的,這并沒有本質(zhì)區(qū)別?!眲⑸偕奖硎?。
PerceptIn CEO張哲持有同樣的看法,“作為一家機器人解決方案創(chuàng)業(yè)公司,我們沒有任何理由不密切關(guān)注無人車。但和市場競爭對手不太一樣的是,我們不會一上來就瞄準(zhǔn)L4、L5級的自動駕駛技術(shù),而是先從低速場景和封閉環(huán)境下,控制無人車和巡邏機器人這些漸進式產(chǎn)品著手。這些室內(nèi)外的產(chǎn)品具有很大的市場需求,需要自主避障、自主路線規(guī)劃,需要感知和決策的技術(shù),這些全部整合一起是機器人,也可以算是無人車?!?BR> PerceptIn此次發(fā)布的自動駕駛軟硬件一體化方案正是為倉儲、運貨、巡邏這樣的受限環(huán)境低速功能性無人車量身打造的。其硬件系統(tǒng)融合了精確硬件同步的多種傳感器,和一個低成本、低功耗的嵌入式高效計算系統(tǒng),其中包括:四個能提供全景和立體視覺效果的高清寬視角全局快門攝像頭、用于定位的6軸IMU和GNSS模塊、英偉達Jetson模塊以及用于通訊和控制的CAN與串口接口。而軟件系統(tǒng)是一套包括了運行時(Run-Time)、SDK和算法的全棧式解決方案,其中包括:在嵌入式SoC平臺上搭建的SDK、一系列計算機視覺和深度學(xué)習(xí)功能,包括基于傳感器融合的厘米級精度定位、高清地圖、語義場景理解等等。
或許對功能性無人車領(lǐng)域來說,PerceptIn的產(chǎn)品還有一個重要的意義。他們基于攝像頭和傳感器的計算機視覺解決方案可以省下了昂貴的激光雷達成本,從而將無人車的成本降低到1萬美元以下,而這是激光雷達無人車根本無法想象的,甚至比激光雷達本身的成本還低。在劉少山看來,這樣的經(jīng)濟實用型無人車會廣泛運用在倉儲中心、企業(yè)園區(qū)、大學(xué)校園、機場、醫(yī)療機構(gòu)等室內(nèi)外受限環(huán)境。
家用機器人也是家用全自動小型功能車
在PerceptIn此次推出無人車智能視覺解決方案之前,他們的機器人視覺解決方案已經(jīng)廣泛用于在諸多家用和商用服務(wù)機器人中,包括智能玩具和掃地機器人等低端機器人,家用服務(wù)機器人和商用巡邏監(jiān)控機器人等中端機器人。“從某種意義上說,家用機器人也可以被視為一種功能型的低端無人車?!眲⑸偕叫χf。
值得一提的是,目前已經(jīng)有數(shù)家國內(nèi)外家用機器人廠商選擇了PerceptIn的智能視覺技術(shù)。雙方已經(jīng)進行了相當(dāng)長時間的合作研發(fā),具體產(chǎn)品將在明年年初上市?!昂同F(xiàn)在國內(nèi)流行的基于激光雷達的家用機器人相比,我們的產(chǎn)品在功能毫不遜色,更具有自己的特色賣點?!被蛟S是因為產(chǎn)品尚未上市,張哲并沒有就此過多介紹。
這是一個非常實際的市場,去年全球家用機器人的出貨量已經(jīng)突破了1000萬部。家用機器人也會是PerceptIn近期最大的營收來源。在諸多無人車創(chuàng)業(yè)公司大規(guī)模燒錢的當(dāng)下,PerceptIn這種一邊接地氣實際掙錢,一邊著眼研發(fā)未來技術(shù)的公司倒是確實不多。
不過,在機器人感知技術(shù)的領(lǐng)域,PerceptIn的影響力遠遠不止家用機器人這樣的產(chǎn)品。今年二月,他們正式發(fā)布了專為機器人領(lǐng)域的研發(fā)人員打造的第一代視覺慣性模組Old Ironsides,并在今年六月的IEEE機器人與自動化會議上得到了一致好評,很快就銷售一空,其中包括了諸多行業(yè)巨頭。
目前采用他們視覺慣性模組研發(fā)的科研高校包括了美國卡內(nèi)基梅隆大學(xué)、加州大學(xué)爾灣分校、伊利諾伊大學(xué)香檳分校、清華大學(xué)、北京大學(xué),香港科技大學(xué)、新加坡國立大學(xué)、瑞士蘇黎世大學(xué)等全球知名高等學(xué)府。
據(jù)張哲介紹,第二代視覺慣性計算模組Ironsides也將在本月底上市,這款具有顯著升級功能的新模組將更加便利開發(fā)者進行機器人的落地研發(fā)?!拔覀冞€是一家機器人公司,我們認為無人車也是機器人。我一直相信蓋茨在2007年的那個預(yù)言,未來每個家庭都會有一個機器人,這是一個巨大的市場。”他如此表示。
三星戰(zhàn)略投資布局未來汽車
雖然在機器人感知SLAM領(lǐng)域具有明顯優(yōu)勢,產(chǎn)品落地也多點推進,但PerceptIn在融資方面卻相當(dāng)穩(wěn)妥。迄今他們僅僅完成了1000多萬美元、由經(jīng)緯中國和華登國際主導(dǎo)的A輪融資,而在今年8月,PerceptIn更得到了一家全球消費電子巨頭的數(shù)百萬美元戰(zhàn)略投資。
最新曝光的消息是,這家看中PerceptIn機器人和無人車技術(shù)前景的消費巨頭就是三星。PerceptIn和三星創(chuàng)投則拒絕對此置評。不過,PerceptIn的智能視覺解決方案確實非常符合三星過去一年在汽車乃至無人車領(lǐng)域的大舉布局。
在上月拿到加州的無人車路測許可之后,上周三星又宣布組建一只3億美元的基金Samsung Automotive Innovation Fund,投資汽車相關(guān)的創(chuàng)業(yè)公司,而投資重點就是智能感應(yīng)器、機器視覺、人工智慧和安全方案等領(lǐng)域。如果再想到去年年底,三星80億美元豪購汽車零部件巨頭哈曼國際,他們對涉足未來汽車的野心不言而喻。
此外,SLAM技術(shù)的應(yīng)用遠不止機器人和無人車,其中也包括了目前大熱的手機AR游戲。在蘋果此次iPhone發(fā)布會展示AR游戲前幾個月,就已經(jīng)有一家全球排名前三的智能手機巨頭主動接洽PerceptIn。雙方正在緊鑼密鼓地合作研發(fā)。
談到蘋果新iPhone可能給手機AR領(lǐng)域帶來的影響,張哲認為,AR領(lǐng)域經(jīng)過數(shù)年的積累已經(jīng)到了爆發(fā)的時間?!皩嶋H上,各大科技公司已經(jīng)為此籌備了三到八年時間,包括谷歌之前的Tango技術(shù)演變到今年發(fā)布的ARCore項目。但蘋果iPhone的進入將真正帶動整個行業(yè)的增長,不僅會推動AR技術(shù)的全面普及,還會帶動相關(guān)技術(shù)交集的機器人領(lǐng)域的核心傳感器和零部件成本降低。最多一年半,這個效果就會非常明顯?!?/P>
2023-02-13 12:20
2023-02-11 09:16
2023-02-08 09:40
2023-02-08 09:38
2023-02-08 09:35
2023-02-08 09:31
2023-02-07 09:52
2023-02-07 09:48
2023-02-07 09:44
2023-02-06 09:47