王科俊,趙彥東,邢向磊
(哈爾濱工程大學(xué) 自動(dòng)化學(xué)院,黑龍江 哈爾濱 150001)
互聯(lián)網(wǎng)技術(shù)的迅猛發(fā)展給汽車工業(yè)帶來了革命性的變化,高精度地圖的進(jìn)步與普及使得車輛實(shí)時(shí)精準(zhǔn)定位成為可能,與此同時(shí),智能駕駛技術(shù)的廣泛應(yīng)用使汽車駕駛變得更簡單更智能?;ヂ?lián)網(wǎng)、高精度地圖與智能駕駛技術(shù)相結(jié)合,共同推動(dòng)了無人駕駛汽車技術(shù)的發(fā)展。
近年來,隨著市場對(duì)汽車主動(dòng)安全和智能化需求的不斷提高,無人駕駛巨大的社會(huì)和經(jīng)濟(jì)價(jià)值越發(fā)凸顯,越來越多的企業(yè)與科研機(jī)構(gòu)積極參與并推動(dòng)無人駕駛領(lǐng)域的發(fā)展。目前,能夠?qū)崿F(xiàn)完全無人駕駛的車輛還沒有正式批量生產(chǎn)銷售,但已經(jīng)有相當(dāng)一部分實(shí)驗(yàn)車型可以通過環(huán)境感知實(shí)現(xiàn)高度自主駕駛行為,如起步、加速、制動(dòng)、車道線跟蹤、換道、避撞、停車等。表1給出了NHTSA (national highway traffic safety administration)對(duì)無人駕駛的定義[1],它將無人駕駛分為5個(gè)等級(jí),分別是高級(jí)輔助駕駛(advanced driver assistance systems)、特定功能輔助、組合功能輔助、高度自動(dòng)駕駛以及完全無人駕駛。如表1所示,目前大部分車型都還停留在組合功能輔助階段(Level 2級(jí)),要實(shí)現(xiàn)完全無人駕駛車的量產(chǎn)化,還有很長一段路要走。
20世紀(jì)70年代初,許多發(fā)達(dá)國家(如美國、英國、德國等)開始研究無人駕駛汽車,經(jīng)過長時(shí)間的發(fā)展,無人駕駛汽車在可行性和實(shí)用化方面都取得了突破性的進(jìn)展[2]。1995年,美國卡納基梅隆大學(xué)研制的無人駕駛汽車Navllab-V,完成了橫穿美國東西部的無人駕駛實(shí)驗(yàn)[3]。2005年,在美國國防部組織的“大挑戰(zhàn)”比賽中,由美國斯坦福大學(xué)改造的無人汽車,經(jīng)過沙漠、隧道、泥濘的河床以及崎嶇陡峭的山道最終獲得成功[4]。近年來由于谷歌、特斯拉、奔馳、寶馬等紛紛加入無人駕駛汽車的研究,無人駕駛技術(shù)有了突飛猛進(jìn)的發(fā)展。
表 1 NHTSA對(duì)無人駕駛的定義Table 1 NHTSA definition of driverless
作為當(dāng)前無人駕駛的領(lǐng)跑者,Google X實(shí)驗(yàn)室從2007年初就開始籌備無人駕駛汽車的各項(xiàng)研究工作,并于2010年正式宣布相關(guān)工作的進(jìn)展。2012年5月,美國內(nèi)華達(dá)州的機(jī)動(dòng)車駕駛管理處為谷歌的無人駕駛汽車頒發(fā)了美國首例自動(dòng)駕駛汽車的路測許可[5]。2015年6月,2輛谷歌無人駕駛原型車開始上路測試,如圖1所示。為了完成對(duì)車子在X,Y,Z這3個(gè)方向上的數(shù)據(jù)測量(加速度等),谷歌公司在汽車底部安裝了一個(gè)動(dòng)力系統(tǒng),利用GPS技術(shù)對(duì)過往的其他車輛位置進(jìn)行確認(rèn),最后利用智能算法對(duì)車輛下一步的行動(dòng)進(jìn)行預(yù)測。截至2016年8月,谷歌共有58輛無人駕駛汽車,這些車在加州、內(nèi)華達(dá)州、德州、山景城、菲尼克斯和奧斯汀等允許自動(dòng)駕駛汽車路測的地區(qū)進(jìn)行實(shí)際路測,據(jù)Google發(fā)布的自動(dòng)駕駛項(xiàng)目月報(bào)顯示,截至2016年8月30日,累計(jì)行駛距離已經(jīng)超過約2.9×106km,平均每周1.5~1.7 萬英里[6-11]。
圖 1 Google無人駕駛汽車Fig. 1 Google self-driving car
緊隨其后的特斯拉ModelS系列汽車,其“Autopilot”技術(shù)近年來已經(jīng)取得重大突破,為了讓車子能夠?qū)崟r(shí)地感知外部環(huán)境,該公司還在車身上安裝了一些設(shè)備,比如攝像頭、雷達(dá)等,無人汽車主要利用傳感器反饋的信息來實(shí)現(xiàn)自動(dòng)并道、自動(dòng)停車等輔助駕駛功能,該功能獲得了眾多試駕者的一致好評(píng)。據(jù)2016年5月份的數(shù)據(jù),特斯拉旗下的電動(dòng)汽車已通過Autopilot自駕功能累計(jì)行駛大約1.6×108km。雖然目前特斯拉的Autopilot技術(shù)僅被美國國家公路交通安全管理局(NHTSA)認(rèn)定為Level 2階段,但是作為迄今為止量產(chǎn)車型中自動(dòng)駕駛系統(tǒng)應(yīng)用最成功的企業(yè),特斯拉向我們展示了在某些特定路況下,汽車已經(jīng)基本實(shí)現(xiàn)自動(dòng)駕駛[12]。
在2013年9月奔馳汽車公司宣布他們生產(chǎn)的S級(jí)轎車完成了從德國曼海姆到達(dá)普福爾茨海姆的自動(dòng)駕駛,這段自動(dòng)駕駛的總長度為100 km。2015年1月,在國際消費(fèi)電子展(CES)上奔馳發(fā)布旗下F015 Luxury in Motion自動(dòng)駕駛概念級(jí)豪華轎車,在美國舊金山通過路試[13]。
2006年,寶馬公司開始在賽道上嘗試對(duì)汽車的自動(dòng)駕駛進(jìn)行測試,其中包括自動(dòng)啟動(dòng)和停車等。2011年,寶馬公司的無人汽車首次在德國進(jìn)行路試,測試它對(duì)其他汽車進(jìn)行自動(dòng)躲避障礙等功能。寶馬汽車公司在2014年5月公布了研發(fā)的輔助駕駛系統(tǒng) “Urban Roads:BAN research”。該輔助駕駛系統(tǒng)可以提供異常預(yù)警和駕駛線路的選擇,還可以調(diào)整發(fā)動(dòng)機(jī)的動(dòng)力配置。2014年7月,百度公司和寶馬公司合作進(jìn)行了無人駕駛車的研發(fā)和制造。其中,數(shù)據(jù)分析和技術(shù)服務(wù)由百度負(fù)責(zé),硬件設(shè)計(jì)和制造由寶馬承擔(dān)。此系統(tǒng)的城市路況和高速公路路況的測試工作于2015年底成功完成。2016年7月1日晚,寶馬、英特爾及Mobileye聯(lián)合舉行發(fā)布會(huì),宣布三方合作,協(xié)同開發(fā)無人駕駛電動(dòng)車iNext,同時(shí)聲明寶馬將于2021年與兩家合作伙伴共同推出無人駕駛汽車[14]。
據(jù)英國汽車雜志Autocar報(bào)道,全新一代奧迪A8將于2017年上市,奧迪A8如圖2所示。該車率先采用全自動(dòng)無人駕駛系統(tǒng)“TrafficJam Assist”,該系統(tǒng)能夠在無需任何人類干涉的情況下自動(dòng)控制汽車,以速度80 km/h運(yùn)行[15-16]。
圖 2 奧迪無人駕駛汽車Fig. 2 Audiautonomous vehicle
豐田于2015年對(duì)自動(dòng)駕駛項(xiàng)目撥款10億美元,同時(shí)與斯坦福、MIT和密歇根大學(xué)合作,特別值得一提的是,豐田是目前自動(dòng)駕駛專利最多的車企,擁有1 400多項(xiàng)專利技術(shù)[17]。
2013年9月,日產(chǎn)公司取得了對(duì)研發(fā)的自動(dòng)駕駛汽車進(jìn)行公路測試的資格牌照,并于2015年10月起進(jìn)行搭載了Piloted Drive 1.0自動(dòng)駕駛系統(tǒng)的Leaf(聆風(fēng))電動(dòng)車的原型車測試工作,測試地點(diǎn)為日本首都圈。為了能夠獲得周圍360°的全方位信息,該車配備的240個(gè)傳感器,包括12個(gè)攝像頭,5個(gè)雷達(dá),4個(gè)激光掃描儀及超聲波傳感器。2016年7月,日產(chǎn)于總部橫濱發(fā)布了第5代S e rena車型,該車型配有最新的自動(dòng)駕駛系統(tǒng)ProPILOT,能夠滿足在單向車道中自動(dòng)行駛的需求[18]。
2014年4月,本田公司在5條指定公路上進(jìn)行了輔助駕駛系統(tǒng)的測試,并在2014年9月在美國底特律召開的智能交通系統(tǒng)大會(huì)上進(jìn)行了展示發(fā)布,該系統(tǒng)能夠進(jìn)行自動(dòng)轉(zhuǎn)向、變道及超車的操作。2016年5月,本田在GoMentum Station測試基地對(duì)第二代無人駕駛版謳歌RLX測試車開展了實(shí)地測試工作。
美國大眾汽車公司的無人駕駛技術(shù)研發(fā)始于參加DARPA(美國國防部高級(jí)研究計(jì)劃局)無人駕駛汽車挑戰(zhàn)賽。與美國斯坦福大學(xué)合作改裝的大眾途銳(Touareg)TDI R5在 2005年的越野賽中取得了第一名的成績;2007年參加的城市賽中車型為帕薩特運(yùn)動(dòng)款(Passat SportWagen),取得了第二名的成績。2015年10月,大眾汽車與美國內(nèi)華達(dá)大學(xué)合作進(jìn)行了無人駕駛測試,測試地點(diǎn)為美國亞利桑那州的諾加萊斯(Nogales)和墨西哥首都墨西哥城之間,測試距離長達(dá)2400 km,創(chuàng)造了墨西哥境內(nèi)完成的最長測試距離的無人駕駛紀(jì)錄[19-21]。
福特公司的無人駕駛團(tuán)隊(duì)于2015年成立,該團(tuán)隊(duì)由在公司工作近30年的資深專家Randy Visintainer擔(dān)任負(fù)責(zé)人。福特公司在2016年入股了云計(jì)算方面的公司Pivotal Software,總共費(fèi)用高達(dá)83億美元,其目的在于增強(qiáng)自己在自動(dòng)駕駛中的云計(jì)算能力。2016年7月,福特與麻省理工學(xué)院發(fā)起了一項(xiàng)關(guān)于機(jī)器學(xué)習(xí)和自動(dòng)駕駛系統(tǒng)的研究計(jì)劃,該計(jì)劃旨在解決車輛碰撞問題以及改進(jìn)自主路線規(guī)劃[22]。
博世公司作為全球汽車零件供應(yīng)和技術(shù)的巨頭,早在2011年開始就對(duì)無人駕駛進(jìn)行研究,同時(shí)持續(xù)在加州帕洛阿爾帕托技術(shù)中心進(jìn)行自動(dòng)駕駛測試。博世在2015年的CES展會(huì)上,展示了該公司最新的輔助駕駛系統(tǒng),并在JEEEP的切諾基車型上進(jìn)行了實(shí)際演示。該輔助系統(tǒng)由4個(gè)模塊組成:攝像頭、雷達(dá)、智能預(yù)剎車以及距離傳感器。這些模塊可以幫助駕駛?cè)藛T更好地處理各種緊急事件提高車輛的安全性能。2016年4月和6月,博世分別在北京國際車展和位于美國密歇根州Flat Rock的試驗(yàn)場地上展示了最新產(chǎn)品,其中包括駕駛員輔助系統(tǒng)、第六代超聲波雷達(dá)和互聯(lián)汽車等[23-25]。
2016年5月25日,Uber宣布獲得豐田公司的戰(zhàn)略投資,豐田除了幫Uber開拓現(xiàn)有的車輛租賃業(yè)務(wù)外,雙方還計(jì)劃在無人駕駛研發(fā)方面進(jìn)行合作。2016年8月19日Uber宣布與沃爾沃合作,預(yù)計(jì)2021年推出無人駕駛出租車,原型車于當(dāng)月起在匹茲堡上路測試[26]。
Delphi(德爾福)汽車于2015年3月完成了大約5 600 km的無人駕駛測試。該無人駕駛汽車是根據(jù)奧迪SQ5改裝而成的。2016年8月23日,Delphi Automotive和Mobileye宣布,將合作開發(fā)一款符合SAE(美國汽車工程協(xié)會(huì))規(guī)定的4級(jí)自動(dòng)駕駛?cè)捉鉀Q方案,該方案為端對(duì)端、可量產(chǎn)、高性能和安全操作的全自動(dòng)駕駛解決方案(市場上首個(gè)一站式4/5級(jí)自動(dòng)駕駛解決方案)[27]。
2015年,Drive.ai公司從斯坦福大學(xué)人工智能實(shí)驗(yàn)室分出來。該公司的核心成員都具有豐富的深度學(xué)習(xí)研究背景,因此公司利用深度學(xué)習(xí)算法解決了車輛的自動(dòng)駕駛問題。2016年4月底,該公司獲得了美國加利福尼亞州測試無人駕駛汽車的許可[28]。
2016年8月25日,NuTonomy公司利用NASA+MIT技術(shù),讓無人駕駛出租車(見圖3)在新加坡率先完成試運(yùn)營載客。該公司的無人駕駛出租車裝有6套激光雷達(dá)檢測系統(tǒng),同時(shí)儀表盤上還有兩個(gè)攝像頭,用來掃描障礙和檢測紅綠燈變化。NuTonomy使用激光雷達(dá)數(shù)據(jù)能提供更準(zhǔn)確的定位,不僅能檢測道路上的物體,還能檢測出汽車周圍的靜態(tài)物體。為了更好地發(fā)展無人駕駛汽車的經(jīng)濟(jì)價(jià)值,該公司還開發(fā)調(diào)配和指揮無人駕駛出租車的云計(jì)算軟件,指揮無人駕駛出租車隊(duì)[29]。
圖 3 NuTonomy無人駕駛汽車Fig. 3 NuTonomy driverless car
無人駕駛技術(shù)在國內(nèi)的發(fā)展較晚,1992年國防科技大學(xué)成功研制出中國第一輛紅旗系列無人駕駛汽車[30];經(jīng)過一系列的努力和研制,直到2011年7月14日,首次在高速上實(shí)現(xiàn)長沙到武漢約286 km的全程無人駕駛實(shí)驗(yàn),成為了首個(gè)中國自主研制的無人駕駛車輛,突破了在復(fù)雜交通狀況下的自主駕駛的新紀(jì)錄,這次成功標(biāo)志著中國無人駕駛技術(shù)在復(fù)雜環(huán)境識(shí)別、智能行為決策和控制等方面的技術(shù)突破,達(dá)到世界先進(jìn)水平[31]。
2005年,首輛城市無人駕駛汽車在上海交通大學(xué)研制成功[32]。從2009年開始,在國家自然科學(xué)基金委“視聽覺信息的認(rèn)知計(jì)算”重大研究計(jì)劃支持下,分別在西安、鄂爾多斯、赤峰、常熟等地舉辦了七屆“中國智能車未來挑戰(zhàn)賽(見圖4)”。該比賽是現(xiàn)有的國內(nèi)外唯一面向無人駕駛的賽事,極大地推動(dòng)了中國無人駕駛車輛的研究工作[33]。
圖 4 2009—2015年中國智能車未來挑戰(zhàn)賽Fig. 4 Future challenge 2009—2015
由于技術(shù)有限,在前幾屆比賽中參賽的無人汽車需要較多的人為干預(yù)。隨著科技的不斷進(jìn)步,自2013年之后,參賽的無人車輛可以在真實(shí)交通環(huán)境中完成駕駛?cè)蝿?wù)。目前研發(fā)無人駕駛汽車的知名團(tuán)隊(duì)有清華大學(xué)、國防科技大學(xué)等,這些團(tuán)隊(duì)與一汽集團(tuán)、上汽集團(tuán)等國內(nèi)知名車企已相互合作,共同研發(fā)使用感更好、性能更加穩(wěn)定的無人駕駛車輛[34]。2009年與2015年中國無人駕駛車輛差異對(duì)比如圖5所示。
圖 5 2009年與2015年的無人車Fig. 5 Driverless cars in 2009 and 2015
由圖5可以看出,2009年參賽無人車輛是經(jīng)過簡單的外置傳感器和控制器改裝的,而2015年參賽的部分無人車輛是內(nèi)置傳感器與車載相結(jié)合車載,這些參賽車輛都是研究團(tuán)隊(duì)與車企之間的合作結(jié)果。
近年來,國內(nèi)IT企業(yè)和各大自主車企也開始將研究方向投入到無人駕駛領(lǐng)域。2013年,百度深度學(xué)習(xí)研究院主導(dǎo)研發(fā)無人駕駛汽車項(xiàng)目。2014年,百度成立了車聯(lián)網(wǎng)事業(yè)部,陸續(xù)推出CarLife、My-Car、CoDriver等產(chǎn)品。2015年底,百度深度學(xué)習(xí)研究院與寶馬合作,在北京五環(huán)上展示全自動(dòng)駕駛原型車。2016年,百度與烏鎮(zhèn)旅游舉行戰(zhàn)略簽約儀式,宣布將在該景區(qū)實(shí)現(xiàn)Level4的無人駕駛(見圖6)[35]。
百度與福特在2016年8月達(dá)成共識(shí),為了降低無人駕駛汽車激光雷達(dá)的生產(chǎn)成本,兩公司共同投資激光雷達(dá)廠商Velodyne。2016年9月1日,在百度世界大會(huì)上,李彥宏與NVIDIA創(chuàng)始人黃仁勛宣布合作,共同創(chuàng)建自動(dòng)駕駛云平臺(tái),并向中國乃至全球的汽車制造商開放。與此同時(shí),百度高級(jí)副總裁、自動(dòng)駕駛事業(yè)部負(fù)責(zé)人王勁表示成立NHTSA Level 3等級(jí)自動(dòng)駕駛技術(shù)的L3事業(yè)部[36],與此同時(shí),美國加州機(jī)動(dòng)車輛管理局(Department of Motor Vehicles)已向百度美國(Baidu USA)發(fā)放第15張自動(dòng)駕駛汽車上路測試牌照。目前獲得DMV發(fā)放自動(dòng)駕駛汽車路測牌照的公司如表2所示。
圖 6 百度無人駕駛汽車Fig. 6 Baidu self-driving car
表 2 截至2016年8月29日獲得DMV發(fā)放自動(dòng)駕駛汽車路測牌照的公司Table 2 Entities to which the DMV has issued autonomous vehicle testing permits as of august 29, 2016
2013年9月,上汽集團(tuán)與中國航天科工三院在上海宣布簽署合作協(xié)議,開始實(shí)施無人駕駛計(jì)劃;不久之后,奇瑞宣布與武漢大學(xué)合作開發(fā)無人駕駛汽車,北京現(xiàn)代則選擇與軍事交通學(xué)院展開合作。2015年宇通汽車公司研發(fā)了一輛無人駕駛公交車,實(shí)現(xiàn)從鄭州到開封城際快速路的演示[37]。同年,在江蘇常熟成功舉辦的“中國智能車未來挑戰(zhàn)賽”上,由軍事交通學(xué)院代表隊(duì)研制的“軍交猛獅號(hào)”獲得第一名[38]。2016年4月13日,長安汽車公司生產(chǎn)的無人駕駛汽車(見圖7)從重慶出發(fā),途經(jīng)西安、鄭州、石家莊抵達(dá)北京,穿越了大巴山、秦嶺、終南山,跨過了華北平原、黃河,行程近2 000 km。這是我國首次無人駕駛汽車超長距離行駛實(shí)測[39]。2016年7月6日,北汽集團(tuán)新技術(shù)研究院與盤錦市大洼區(qū)人民政府簽署無人駕駛汽車的戰(zhàn)略合作協(xié)議,共同開發(fā)無人駕駛體驗(yàn)項(xiàng)目[40]。
圖 7 百度無人駕駛汽車與長安無人駕駛汽車Fig. 7 Baidu self-driving car and Changan automobile
2016年9月1日京東集團(tuán)對(duì)外宣布,由其自主研發(fā)的中國首輛無人配送車已經(jīng)進(jìn)入道路測試階段,10月份即將開始試運(yùn)營,2017年有望進(jìn)行大規(guī)模商用[41]。最近,樂視宣布在多處開展無人駕駛汽車研發(fā)工作,滴滴CTO張博宣布將無人車作為重大戰(zhàn)略布局,并很快實(shí)現(xiàn)無人車上路[42]。綜上所述,盡管國內(nèi)車企和各大IT公司進(jìn)入無人駕駛領(lǐng)域較晚,但是隨著越來越多的企業(yè)和單位積極投入到其中,中國智能汽車發(fā)展迅速,已接近國際先進(jìn)水平。
目前,無人駕駛汽車產(chǎn)業(yè)化的瓶頸問題主要有兩點(diǎn):1)如何更高效快速實(shí)現(xiàn)多傳感器信息融合;2)在保證自動(dòng)駕駛性能的前提下如何最大限度降低設(shè)備成本。
研發(fā)人員當(dāng)前面臨的最棘手的難題是如何提高汽車的視覺能力,目前所研發(fā)的計(jì)算機(jī)視覺系統(tǒng)還非常的低端和原始,如何賦予計(jì)算機(jī)系統(tǒng)接近甚至達(dá)到人類的視覺能力是一項(xiàng)非常巨大的挑戰(zhàn)。無人駕駛汽車需要隨時(shí)注意周邊車輛和行人,而且能夠?qū)崟r(shí)檢測到周圍的車道、地面上的畫線,認(rèn)識(shí)交通標(biāo)識(shí)、交通燈的含義,應(yīng)對(duì)風(fēng)霜雨露以及強(qiáng)光、弱光等一系列復(fù)雜的環(huán)境因素的影響。此外,由于某些原因無法“看清”道路標(biāo)志甚至在一些根本沒有道路標(biāo)志的環(huán)境時(shí),為了實(shí)現(xiàn)完全無人駕駛,目前唯一可行的辦法是通過多傳感器實(shí)現(xiàn)信息融合進(jìn)行決策,綜合利用各類傳感器的優(yōu)勢從而達(dá)到理想的效果,如圖8所示。例如,毫米波雷達(dá)適用于近程、高分辨力的目標(biāo)監(jiān)視和目標(biāo)截獲,由于其較強(qiáng)的穿透能力,可以用于視覺系統(tǒng)捕獲車道線、交通燈顏色等信息。但是其視覺系統(tǒng)不足之處在于,其測距能力沒有激光雷達(dá)準(zhǔn)確。因此將激光雷達(dá)、毫米波雷達(dá)與視覺傳感器相融合,可以有效解決單獨(dú)使用的不足之處,在進(jìn)行物體檢測的同時(shí),也可以進(jìn)行空間測距和圖像識(shí)別。
圖 8 無人駕駛實(shí)現(xiàn)示意Fig. 8 Interpretation of unmanned vehicle
車載傳感器是研發(fā)無人駕駛汽車時(shí),需要多方面綜合考慮的對(duì)象,其包括傳感器的精度、靈敏度、主動(dòng)與被動(dòng)傳感器等。表3為各類車載傳感器性能指標(biāo)對(duì)比,表4詳細(xì)分析實(shí)現(xiàn)不同自動(dòng)駕駛功能所需傳感器及感知參數(shù)。
表 3 車載傳感器指標(biāo)對(duì)比Table 3 Vehicle sensor comparison
表 4 實(shí)現(xiàn)不同自動(dòng)駕駛功能所需傳感器及感知參數(shù)分析[43]Table 4 Sensors required to achieve different automatic driving functions
除了上述各類傳感器之外,還需要選配高精度GPS定位系統(tǒng)及高精度測距傳感器。如圖9所示,該圖中的汽車是Stanford 大學(xué)研發(fā)的Junior無人車,該車配備4個(gè)激光雷達(dá)(IBEO、Riegl、SICK LMS和Velodyne),1個(gè)Applanix GPS慣性導(dǎo)航系統(tǒng),5個(gè)BOSCH毫米波雷達(dá),以及前向相機(jī)系統(tǒng)[44]。
由于需要種類繁多的傳感器,如何將上述各種設(shè)備采集到的信息實(shí)現(xiàn)高效快速的融合,形成一個(gè)穩(wěn)定而智能的系統(tǒng)從而應(yīng)對(duì)各種突發(fā)事件和挑戰(zhàn),是目前實(shí)現(xiàn)無人駕駛的關(guān)鍵[45]。
目前無人駕駛汽車所使用的設(shè)備主要包括激光雷達(dá)、車載攝像頭、車載雷達(dá)、超聲波設(shè)備以及GPS等。利用激光雷達(dá)生成的點(diǎn)云,對(duì)反射障礙物的遠(yuǎn)近、高低能較為準(zhǔn)確地估計(jì),從而大大提高障礙物檢測的準(zhǔn)確度,谷歌、Uber等科技公司都將這種設(shè)備應(yīng)用在原型汽車上[46]。圖10為目前常用激光雷達(dá)LiDAR示意圖,其中Velodyne HDL-64E LiDAR預(yù)售價(jià)在10萬美元以上,Velodyne VLP-16 LiDAR官網(wǎng)報(bào)價(jià)為稅前7 999美元,過高的成本大大阻礙無人車的商業(yè)化。
圖 9 Junior無人駕駛車輛及其傳感器配置Fig. 9 Junior unmanned vehicle and sensor configuration
圖 10 LIDAR圖例Fig. 10 Examples of LIDARs
由于激光雷達(dá)售價(jià)過高導(dǎo)致無法量產(chǎn),因此自動(dòng)駕駛系統(tǒng)的傳感器主要還是毫米波和攝像頭。全球汽車毫米波目前主要生產(chǎn)供應(yīng)商為博世、大陸、海拉、富士通、電裝、天合、德爾福、奧托立夫和法雷奧等,國內(nèi)主要有湖南納雷科技、廈門意行、華域汽車、杭州智波、蕪湖森思泰克等,用于車企量產(chǎn)車上的ADAS預(yù)警類應(yīng)用[47]。目前利用攝像頭實(shí)現(xiàn)量產(chǎn)無人駕駛系統(tǒng),最具代表性的廠商為Mobileye,此外Omni、PointGrey、大恒和微視等公司近年來也取得很大進(jìn)展。眾所周知,單一攝像頭捕獲的圖像會(huì)產(chǎn)生距離誤差,多攝像頭捕獲的圖像卻提高了計(jì)算成本,這兩種方法都不能滿足無人車的實(shí)時(shí)性。另外,光照條件也會(huì)對(duì)光學(xué)攝像頭產(chǎn)生影響從而產(chǎn)生識(shí)別的不穩(wěn)定。上述兩點(diǎn)一直是利用攝像頭實(shí)現(xiàn)無人駕駛的重要阻礙,伴隨著近年深度學(xué)習(xí)技術(shù)在圖像和聲音領(lǐng)域不斷取得突破性進(jìn)展,越來越多的公司和企業(yè)開始研究利用雙/多攝像頭來應(yīng)對(duì)復(fù)雜的道路環(huán)境從而實(shí)現(xiàn)無人駕駛,包括中科慧眼、地平線、東軟和Minieye等[48]。與此同時(shí),通過利用GPU強(qiáng)大的并行運(yùn)算能力,在運(yùn)算速度、效率不斷提高的同時(shí)大幅度降低計(jì)算成本,更是為深度學(xué)習(xí)在自動(dòng)駕駛領(lǐng)域的應(yīng)用鋪平了道路[49]。
深度學(xué)習(xí)[50]在計(jì)算機(jī)視覺獲得了巨大成功,徹底顛覆了傳統(tǒng)的計(jì)算機(jī)模式識(shí)別方法[51]。在深度學(xué)習(xí)出現(xiàn)以前,大多數(shù)識(shí)別任務(wù)要經(jīng)過手工特征提取和分類器判斷兩個(gè)基本步驟,而深度學(xué)習(xí)可以自動(dòng)地從訓(xùn)練樣本中學(xué)習(xí)特征。深度學(xué)習(xí)的快速應(yīng)用主要有兩點(diǎn)原因:1)更容易獲得大量的人工標(biāo)注數(shù)據(jù)集,如ImageNet大規(guī)模視覺識(shí)別挑戰(zhàn)(ILSVRC)[52];2) 深度學(xué)習(xí)算法可以在GPUs上并行處理圖形,提高了學(xué)習(xí)效率和預(yù)測能力。利用深度神經(jīng)網(wǎng)絡(luò)自主學(xué)習(xí)的特性,先通過高性能GPUs將龐大復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練好,然后移植到嵌入式開發(fā)平臺(tái),就可以實(shí)現(xiàn)對(duì)圖像、視頻信息實(shí)時(shí)高效的處理[53]。近年來,從自動(dòng)駕駛初創(chuàng)企業(yè)、互聯(lián)網(wǎng)公司到各大OEM廠商,都在積極探索利用GPUs構(gòu)建神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)最終的無人駕駛。
將深度學(xué)習(xí)應(yīng)用于無人駕駛領(lǐng)域的代表公司有Mobileye及NVIDIA公司,他們把基于深度卷積神經(jīng)網(wǎng)絡(luò)的方法用于汽車的視覺系統(tǒng)中,取得了非常理想的效果。其中Mobileye公司生產(chǎn)的基于多核架構(gòu)芯片EyeQ4(見圖11(a)),使用了4顆核心處理器、6顆VMP芯片、2顆 MPC核心和2顆PMA核心,每秒浮點(diǎn)運(yùn)算可達(dá)2.5萬億次,而功耗僅有3 W。通過一系列的算法,EyeQ4可以同時(shí)處理8部攝像頭(最高36f/s)產(chǎn)生的圖像數(shù)據(jù)[54-56]。
英偉達(dá)DRIVE PX2無人駕駛汽車平臺(tái)(見圖11(b)),支持12路攝像頭輸入、激光定位、雷達(dá)和超聲波傳感器;包括兩顆新一代NVIDIA Tegra處理器,其中每個(gè)處理器包括8個(gè)A57核心和4個(gè)Denver核心;基于NVIDIA(見圖12)的新一代GPU架構(gòu)Pascal設(shè)計(jì),單精度計(jì)算能力達(dá)到8 T/S,超越TITAN X的10倍以上的深度學(xué)習(xí)計(jì)算能力[57]。
圖 11 Mobileye EyeQ4與 英偉達(dá)DRIVE PX2Fig. 11 Mobileye EyeQ4 and NVIDIA DRIVE PX2
數(shù)據(jù)科學(xué)家利用NVDIADGX-1訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),然后把訓(xùn)練好的網(wǎng)絡(luò)模型與車輛配備,在NVIDIA DRIVE PX2上無縫運(yùn)行。與此同時(shí),NVIDIA利用NVIDIA DRIVE PX2構(gòu)建的Drivenet平臺(tái)(見圖13)提供算法庫支持,實(shí)現(xiàn)無人駕駛汽車無線更新功能[58]。
圖 12 英偉達(dá)自動(dòng)駕駛開發(fā)平臺(tái)Fig. 12 NVIDIA DRIVE PX 2
圖 13 NVIDIA深度學(xué)習(xí)無人駕駛平臺(tái)解決方案Fig. 13 NVIDIA deep learning unmanned platform solutions
2016年9月13日,NVIDIA在GPU技術(shù)大會(huì)上推出了體積更小的節(jié)能型車載深度學(xué)習(xí)計(jì)算平臺(tái)NVIDIA DRIVETMPX 2 AUTOCRUISE,該平臺(tái)采用了新型單處理器配置,功耗僅為10 W。此外許多移動(dòng)終端產(chǎn)品芯片供應(yīng)商已經(jīng)開始為自動(dòng)駕駛技術(shù)提供帶有GPU單元的嵌入式處理器。一些大公司(例如高通、三星)也推出了各自帶有GPU單元的嵌入式處理器。三星處理器芯片目前主要研發(fā)汽車智能硬件,車機(jī)互聯(lián)系統(tǒng)來拓展面向汽車的產(chǎn)品組合,實(shí)現(xiàn)多系統(tǒng)支持的感知功能。
由于深度學(xué)習(xí)方法對(duì)圖像處理的高效性,使得無人駕駛汽車可以利用單/雙攝像頭初步實(shí)現(xiàn)對(duì)自動(dòng)控制的需求,減輕了傳統(tǒng)方法中對(duì)用昂貴的激光掃描儀來建立3-D全景地圖的依賴性。雖然相比于激光掃描儀,利用攝像頭采集的信息精度稍低,但完全可以滿足日常無人駕駛的需要,而改進(jìn)的深度學(xué)習(xí)算法通過對(duì)多攝像頭信息融合處理,模擬人的雙眼生成立體空間圖像,從而輕松判斷距離,實(shí)現(xiàn)更好的自動(dòng)控制功能[59-67]。
Pomerleau在1989年用神經(jīng)網(wǎng)絡(luò)搭建了一套自動(dòng)駕駛系統(tǒng)(autonomous land vehicle in a neural network,ALVINN)[68]。ALVINN首次證實(shí)了端到端訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)無人駕駛的可行性。
近年來,隨著深度學(xué)習(xí)的快速發(fā)展,利用深度學(xué)習(xí)實(shí)現(xiàn)圖像識(shí)別的文章數(shù)不勝數(shù)。2016年5月18日,Y. Lecun等發(fā)表Stereo Matching by Training a Convolutional NeuralNetwork to Compare Image Patches,首次提出利用Siamese網(wǎng)絡(luò)(見圖14),同時(shí)輸入左視圖和右視圖兩幅圖像,利用網(wǎng)絡(luò)計(jì)算出兩幅圖像的視差圖像,從而控制車輛的前進(jìn)方向[69]。
圖 14 雙通道網(wǎng)絡(luò)示意圖Fig. 14 Diagram of Siamese network
將Siamese網(wǎng)絡(luò)的雙通道輸入結(jié)構(gòu)應(yīng)用于深度神經(jīng)網(wǎng)絡(luò),在傳統(tǒng)深度學(xué)習(xí)的優(yōu)勢之上,還可以通過兩幅圖像之間的差異從而判斷周圍物體的遠(yuǎn)近(見圖15),從而合理操控汽車實(shí)現(xiàn)無人駕駛[70]。
圖 15 訓(xùn)練圖片示例Fig. 15 Example of training photos
利用式(1)計(jì)算視差,其中IL(P)和IR(P)為左右圖像在P點(diǎn)處的灰度值,NP是一組固定位置在以P為中心的矩形窗口。通過不斷調(diào)節(jié)網(wǎng)絡(luò)的隱層數(shù)和進(jìn)行海量訓(xùn)練最終達(dá)到的效果見圖16。
近年來,NVIDIA公司通過采用卷積神經(jīng)網(wǎng)絡(luò)(CNNs)實(shí)現(xiàn)無人駕駛?cè)〉煤艽笸黄啤T摴狙芯咳藛T將攝像頭捕捉到的原始圖片通過CNNs映射為汽車的方向操控命令,只需提供少量的訓(xùn)練數(shù)據(jù),系統(tǒng)就能自動(dòng)學(xué)會(huì)駕駛技術(shù),甚至可以工作在視線不清晰以及無車道標(biāo)志線等區(qū)域,例如停車場或者崎嶇的山路上。圖17為該系統(tǒng)的訓(xùn)練數(shù)據(jù)采集模塊的塊狀示意圖,數(shù)據(jù)采集車通過3臺(tái)攝像機(jī)采集視頻信息,同步記錄駕駛員操控方向盤的偏轉(zhuǎn)角度,利用汽車控制網(wǎng)絡(luò)(controller area network,CAN)總線獲取下一個(gè)方向的控制命令。系統(tǒng)采用1/r來表示控制方向的命令,其中r代表以米為單位的轉(zhuǎn)彎半徑。
圖 16 識(shí)別效果圖Fig. 16 Photo of recognition result
圖 17 數(shù)據(jù)采集系統(tǒng)結(jié)構(gòu)Fig. 17 Structure diagram of data acquisition system
圖像輸入到CNNS控制命令中,將預(yù)測方向控制命令與理性控制命令相比產(chǎn)生誤差,利用誤差值不斷訓(xùn)練調(diào)整CNNs模型的權(quán)值,使得網(wǎng)絡(luò)模型輸出的方向控制命令與人工駕駛或者調(diào)整后的控制命令的均方誤差最小,圖18為訓(xùn)練系統(tǒng)示意圖。
訓(xùn)練完成后,模型通過采用中間攝像機(jī)數(shù)據(jù)生成方向控制命令,具體過程如圖19所示。
該CNNs一共包含9層網(wǎng)絡(luò)(1個(gè)歸一化層,5個(gè)卷積層和3個(gè)全連接層),輸入圖像被映射到Y(jié)UV平面[71],然后傳入網(wǎng)絡(luò)進(jìn)行逐層訓(xùn)練,詳細(xì)網(wǎng)絡(luò)結(jié)構(gòu)如圖20所示。
圖 18 訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型Fig. 18 Training a neural network model
圖 19 中間攝像機(jī)的數(shù)據(jù)輸入模型生成方向控制命令Fig. 19 Control command is generated by the data input model of the intermediate camera.
圖 20 CNNs結(jié)構(gòu)(該網(wǎng)絡(luò)約有2 700萬個(gè)連接和25萬個(gè)參數(shù))Fig. 20 CNNs structure (the network has about 27 million connections and 250 thousand parameters)
網(wǎng)絡(luò)的第一層采用硬編碼技術(shù)對(duì)輸入圖像進(jìn)行歸一化[72],網(wǎng)絡(luò)前3個(gè)卷積層使用了strided卷積,其中strided為2×2,卷積核大小為5×5,后2個(gè)卷積層選用unstrided卷積,卷積核大小為3×3。在5個(gè)卷積層之后添加3個(gè)全連接層,最后輸出為一個(gè)控制數(shù)字,即轉(zhuǎn)彎半徑的倒數(shù)。此外,在訓(xùn)練過程中通過人為添加了一些偏移和旋轉(zhuǎn)去補(bǔ)充數(shù)據(jù)集,按正態(tài)分布隨機(jī)選取調(diào)整幅度。圖21和圖22分別展示了兩張不同輸入圖片在前兩層網(wǎng)絡(luò)的激活狀態(tài),在圖21中,特征圖片清晰地勾畫出路的邊界,而在圖22中夾雜了大量噪音,表示網(wǎng)絡(luò)模型從圖中找不到有用的特征(道路信息)。
圖 21 CNN模型處理土路Fig. 21 CNN model formanagingdirt road
圖 22 沒有路的圖片示例Fig. 22 Wasteland image sample
與NVIDIA無人駕駛解決方案稍有不同,Mobileye在自動(dòng)駕駛的布局分為3個(gè)部分,即感知、高精地圖和駕駛決策(見圖23)。
圖 23 Mobileye自動(dòng)駕駛布局Fig. 23 Layout of Mobileye
Mobileye在自動(dòng)駕駛領(lǐng)域的感知技術(shù)比較成熟,已經(jīng)大量運(yùn)用在已有產(chǎn)品中,該技術(shù)主要提供一個(gè)環(huán)境模型(environmental model),包括運(yùn)動(dòng)和靜止的物體、車道線、可行駛區(qū)域和交通標(biāo)志等。通過多年的技術(shù)積累,讓Mobileye在環(huán)境模型方面能夠提供的內(nèi)容遠(yuǎn)超競爭對(duì)手,在其他車企還在嘗試提高單一車道線的檢測精度時(shí),Mobileye已經(jīng)可以提供道路的語義級(jí)特征描述,例如當(dāng)前行駛車道的左右車道線、左右車道的左右線以及道路分叉等,均通過深度神經(jīng)網(wǎng)絡(luò)識(shí)別。
Mobileye將感知任務(wù)劃分成多個(gè)模塊,每個(gè)對(duì)應(yīng)一個(gè)人工監(jiān)督的神經(jīng)網(wǎng)絡(luò),所得出的效果已經(jīng)可以產(chǎn)品化。目前Mobileye利用深度學(xué)習(xí)進(jìn)行訓(xùn)練,訓(xùn)練過程中考慮了駕駛過程中的時(shí)序性(見圖24),最終實(shí)現(xiàn)短時(shí)預(yù)測[73-75]。
圖 24 Mobileye無人駕駛時(shí)序性原理圖Fig. 24 Sequential schematic of unmanned Mobileye
2016年2月18日,加州大學(xué)圣地亞哥分校(UCSD)的工程師們開發(fā)了一個(gè)非常便宜、有效的行人檢測系統(tǒng),該系統(tǒng)是基于視覺信號(hào)進(jìn)行實(shí)時(shí)探測(見圖25)。加州大學(xué)圣地亞哥分校中一位電氣工程教授表示,他們的算法可以通過2~4 f/s的速度檢測出行人變化,可以有效避免行人的突然變化造成汽車突然剎車的事故,該算法成功地將當(dāng)時(shí)錯(cuò)誤率降了一半。
圖 25 UCSD行人檢測效果圖Fig. 25 Demo of UCSD
此外,劍橋大學(xué)研發(fā)團(tuán)隊(duì)利用圖像識(shí)別和深度學(xué)習(xí)技術(shù)研發(fā)的SegNet系統(tǒng)(見圖26),可以將街景照片內(nèi)容分割成12個(gè)類型的物體,其中包括道路、建筑、路標(biāo)、行人等,并在不同光照條件下進(jìn)行實(shí)時(shí)的語義分割。在夜間環(huán)境該系統(tǒng)可以保持實(shí)時(shí)工作狀態(tài)并可以在較短時(shí)間內(nèi)對(duì)各種新圖像進(jìn)行評(píng)估,標(biāo)記像素的準(zhǔn)確度達(dá)到90%以上。過去的系統(tǒng)使用的傳感器都是以昂貴的雷達(dá)或激光技術(shù)為基礎(chǔ),無法達(dá)到SegNet的精度和實(shí)時(shí)性。在GPS失效的地方,SegNet系統(tǒng)可以幫助無人駕駛汽車確定位置和方向,實(shí)時(shí)識(shí)別出各種不同的路況[76]。
圖 26 SegNet示意圖Fig. 26 Examples of SegNet
劍橋大學(xué)研發(fā)團(tuán)隊(duì)運(yùn)用深度學(xué)習(xí)方法實(shí)現(xiàn)SegNet系統(tǒng),使其在復(fù)雜背景和氣候環(huán)境下仍然具備良好的魯棒性。通過劍橋大學(xué)的一組本科生手工標(biāo)記5 000張圖片中的所有像素,研究人員利用這5 000張圖片訓(xùn)練SegNet并進(jìn)行測試,最終達(dá)到理想的效果[77]。汽車安全系統(tǒng)需要滿足快速性和準(zhǔn)確性。計(jì)算機(jī)視覺中的“梯級(jí)檢測”算法可以檢測特定圖像,但在復(fù)雜環(huán)境下的檢測效果會(huì)降低。團(tuán)隊(duì)創(chuàng)造的SegNet系統(tǒng)結(jié)合了兩者的優(yōu)勢,既保證了實(shí)時(shí)性,又有很高的識(shí)別精度。
與此同時(shí),comma.ai的創(chuàng)始人GeoHot不但把公司的自動(dòng)駕駛技術(shù)和代碼開源,同時(shí)開源了駕駛采集數(shù)據(jù)。其中前視攝像頭采集的圖像大小為160×320,數(shù)據(jù)時(shí)長為7.25 h,包括了11個(gè)視頻。數(shù)據(jù)集包含了汽車的轉(zhuǎn)向信息、制動(dòng)信息、速度信息和慣導(dǎo)信息,以及輸出控制和輸入圖像之間的同步時(shí)間數(shù)據(jù)。最后利用深度學(xué)習(xí)模型進(jìn)行End-to-End訓(xùn)練(見圖27),將攝像頭的原始圖像作為輸入,直接輸出車輛的速度和方向,來擬合逼近最優(yōu)駕駛策略。
隨著市場對(duì)汽車主動(dòng)安全技術(shù)、智能化等技術(shù)需求不斷增加,越來越多的企業(yè)投入其中,共同推動(dòng)無人駕駛汽車的發(fā)展。與此同時(shí),隨著計(jì)算機(jī)性能的逐步提高,成本降低,無人駕駛汽車使用的各種傳感器取得了很大的進(jìn)步,研發(fā)技術(shù)的門檻隨之降低,前景十分明朗。近年來深度學(xué)習(xí)在圖像識(shí)別方面取得了突破性的進(jìn)展,更是為無人駕駛技術(shù)的成熟增添了強(qiáng)勁的活力,利用GPU高效的圖像處理性能,實(shí)現(xiàn)了實(shí)時(shí)圖像處理。智能車輛的國內(nèi)外研究成果已經(jīng)取得了重大的進(jìn)展,但是從近期發(fā)生的自動(dòng)駕駛汽車事故可以看出,智能車輛投入實(shí)際使用還需要解決多種問題。 因此未來無人駕駛將需要在以下幾個(gè)方面取得進(jìn)步。
首先,需要采用更好的傳感器和優(yōu)化配置改善自動(dòng)駕駛功能。高精度的傳感器才能在復(fù)雜交通下檢測車輛周圍的環(huán)境信息?,F(xiàn)階段傳感器無法克服車輛運(yùn)動(dòng)、環(huán)境氣候和工作范圍的信號(hào)干擾,從而無法保證準(zhǔn)確檢測出所有的行車駕駛要素。而激光雷達(dá)傳感器的高昂價(jià)格也限制了該技術(shù)的實(shí)際應(yīng)用。未來激光雷達(dá)會(huì)變得更小更輕便,集成度更高,價(jià)格更低以及變成固態(tài)。面向復(fù)雜環(huán)境感知需求,通過融合多種傳感器的數(shù)據(jù)來實(shí)現(xiàn)感知、定位、決策和規(guī)劃,這是無人車近期的發(fā)展方向。
其次,為了實(shí)現(xiàn)自動(dòng)駕駛,需要將集成化控制系統(tǒng)、新型總線分布和自動(dòng)駕駛架構(gòu)結(jié)合。通過多種感知和決策算法的車載軟件,提高自動(dòng)駕駛技術(shù)的安全性和魯棒性。采用車聯(lián)網(wǎng)絡(luò)可以實(shí)現(xiàn)車輛之間的信息共享,有效提高了傳感范圍。高精度的地圖和GPS定位可以通過減少車輛傳感器的需求,進(jìn)而降低自動(dòng)駕駛技術(shù)的難度。另外,結(jié)合深度學(xué)習(xí)技術(shù),集成高性能的車載計(jì)算平臺(tái),可以提高車輛自動(dòng)駕駛的水平。
此外,無人汽車技術(shù)需要高性能計(jì)算平臺(tái)的支持。將車載計(jì)算平臺(tái)與深度學(xué)習(xí)技術(shù)相結(jié)合,增強(qiáng)無人車輛的智能水平,將人工智能技術(shù)的新突破應(yīng)用于無人駕駛。
無人駕駛汽車發(fā)展的終極目標(biāo),就是建立一個(gè)車輛網(wǎng)絡(luò)化、信息化、人車合一的自動(dòng)平臺(tái),能夠?qū)崟r(shí)、全天候、高效的無人駕駛系統(tǒng)。無人駕駛技術(shù)可以極大地提高社會(huì)生產(chǎn)力,產(chǎn)生巨大的社會(huì)效益,同時(shí)改善人們的出行方式,讓我們的生活環(huán)境更美好。
[1]倪暖. 自動(dòng)駕駛也分三六九等?[EB/OL].(2016-8-07)[2016-09-27] http://www.ednchina.com/news/article/2016 08170801.
[2]佚名. 無人駕駛汽車[EB/OL]. (2016-06-10)[2016-09-27]http://baike.baidu.com/link?url=iObG6G1U5wmuVNCdgm 7wXDpV8418yWtKAlBAVjC4xyVEL7Lgy3fgfkpsda4qi-ABZHCsxtQ9J9xqqcsZdTu_vF6kAT6xwu7zedQw2ggyuqa.
[3]騰訊汽車. 國外無人駕駛技術(shù)發(fā)展調(diào)研報(bào)告[EB/OL].(2015-05-23)[2016-09-27] https://wenku.baidu.com/view/472f a34458f5f61fb636664d.html.
[4]張翔. 2013年全球汽車技術(shù)發(fā)展趨勢[J]. 汽車工程師,2013(3): 19–21, 52.ZHANG Xiang. The development trend of global automotive technology at 2013[J]. Tianjin auto, 2013(3): 19–21, 52.
[5]林靖東. 美國內(nèi)華達(dá)州批準(zhǔn)谷歌無人駕駛汽車上路測[EB/OL].(2012-05-08)[2016-09-27] http://tech.qq.com/a/20120508/000235.htm.
[6]GREENBLATT N A. Self-driving cars and the law[J]. IEEE spectrum, 2016, 53(2): 46–51.
[7]歐陽. 谷歌的“笑臉”GoogleSelf-DrivingCar[J]. 計(jì)算機(jī)應(yīng)用文摘, 2014(12): 72.OU Yang. Google's “smiling face” Google Self-Driving Car[J]. PCDigest, 2014(12): 72.
[8]BIRDSALL M. Google and ITE: The road ahead for selfdriving cars[J]. Institute of Transportation Engineers. Ite Journal, 2014, 84(5): 36.
[9]GUIZZO E. How Google’s Self-driving Car Works[J].IEEE Spectrum Online, 2011(8): 18
[10]JAFFE E. The first look at how google’s self-driving car handles city streets[J]. The atlantic, 2014: 431-443.
[11]TAO Yuping. The construction and intelligent management of self-driving car campsite under the visual field of low-carbon environmental protection[J]. Advanced materials research, 2012, 573-574: 841–847.
[12]張桂林, 趙宇飛, 黎華玲. “無人駕駛”如何駛進(jìn)現(xiàn)實(shí)[J].瞭望, 2016(19): 20–21.ZHANG Guilin, ZHAO Yufei, LI Hualing. “Unmanned”how to enter the reality[J]. Outlook Weekly, 2016(19):20–21.
[13]恒亮. 百度獲得加州第15張無人駕駛測試牌照,另外14張?jiān)谀? [EB/OL]. (2016-09-02) [2016-09-27] http://www.sohu.com/a/113368428114877
[14]騰訊汽車. 寶馬因特合作2021年前生產(chǎn)駕駛無人汽車[EB/OL]. (2016-07-02)[2017-0-20]http://auto.qq.com/a/20160702/005058.htm.
[15]SURDEN H, WILLIAMSM A. How self-driving cars work[EB/OL]. (2016-05-25)[2017-09-20] https://ssrn.com/abstract=2784465.
[16]PATIDAR A, KUMAR S. A review paper on self-driving car’s and its applications[J/OL]. International journal for innovative research in science and technolog, 2016: 33-35.http://www.ijirst.org/articles/IMPACTP015.pdf.
[17]BRETT J A. Thinking local about self-driving cars: a local framework for autonomous vehicle development in the united states[D]. Washington DC: University of Washington, 2016.
[18]MICULESCU D, KARAMAN S. Polling-systems-based autonomous vehicle coordination in traffic intersections with no traffic signals[J]. arXiv preprint arXiv: 1607.07896, 2016.
[19]CORNICK M, KOECHLING J, STANLEY B, et al. Localizing ground penetrating RADAR: a step toward robust autonomous ground vehicle localization[J]. Journal of field robotics, 2016, 33(1): 82–102.
[20]MACHT J. Automatic for the People[J]. Tennis, 2000,2010(6): 28–29.
[21]CHEN Gang, ZHANG Weigong. Design of prototype simulation system for driving performance of electromagnetic unmanned robot applied to automotive test[J]. Industrial robot: an international journal, 2015, 42(1): 74–82.
[22]ZHANG Xuemei, PEN Qiyuan. A study on tourism information and self-driving tour traffic[C]//Proceedings of 1st International Conference on Transportation Engineering. Chengdu, China, 2007: 3884–3889.
[23]DIELS C, BOS J E. Self-driving carsickness[J]. Applied ergonomics, 2016, 53: 374–382.
[24]BERGER C, DUKACZEWSKI M. Comparison of architectural design decisions for resource-constrained self-driving cars-A multiple case-study[C]//Proceedings of the informatik. Bonn, Germany, 2014: 2157–2168.
[25]SCHELLEKENS M. Self-driving cars and the chilling effect of liability law[J]. Computer law and security review,2015, 31(4): 506–517.
[26]KIM J, KIM H, LAKSHMANAN K, et al. Parallel scheduling for cyber-physical systems: analysis and case study on a self-driving car[C]//Proceedings of the ACM/IEEE 4th International Conference on Cyber-Physical Systems. Philadelphia, Pennsylvania, 2013: 31–40.
[27]LEE G H, FAUNDORFER F, POLLEFEYS M. Motion estimation for self-driving cars with a generalized camera[C]//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition. Washington DC, USA,2013: 2746–2753.
[28]HE Baohong, CHEN Jun, WANG Wei. Behavioral characteristics of self-driving tourists: a case study in Kunming[C]//Proceedings of the 7th International Conference onTraffic and Transportation Studies 2010. Kunming, China, 2010:577–586.
[29]段建民, 石慧, 戰(zhàn)宇辰. 基于機(jī)器視覺篩選GPS衛(wèi)星信號(hào)的無人駕駛汽車組合導(dǎo)航方法[J]. 電子技術(shù)應(yīng)用, 2016,42(1): 111–114.DUAN Jianmin, SHI Hui, ZHAN Yuchen. Integrated navigation system for unmanned intelligent vehicle based on vision[J]. Application of electronic technique, 2016, 42(1):111–114.
[30]戴斌, 聶一嗚, 孫振平, 等. 地面無人駕駛技術(shù)現(xiàn)狀及應(yīng)用[J]. 汽車與安全, 2012(3): 46–49.DAI Bin, NIE Yiming, SUN Zhenping, et al. The present situation and application of ground unmanned Technology[J]. Auto and safe, 2012(3): 46–49.
[31]楊帆. 無人駕駛汽車的發(fā)展現(xiàn)狀和展望[J]. 上海汽車,2014(3): 35–40.YANG Fan. Development Status and Prospects of Driverless Vehicles[J]. Shanghai automotive, 2014(3): 35–40.
[32]W.KJ. 教機(jī)器學(xué)會(huì)“看路”的新系統(tǒng)助力無人駕駛汽車研發(fā)[J]. 軍民兩用技術(shù)與產(chǎn)品, 2016(1): 23.W. KJ. Teach the machine learn “to see the road” of the new system to help driverless car research and development[J]. Dual use technology and product, 2016(1): 23.
[33]王雪玉. 無人駕駛駛?cè)氍F(xiàn)實(shí)[J]. 金融科技時(shí)代, 2016,24(7): 87.WANG Xueyu. Autonomous vehicles into the reality[J].Financial technology time, 2016, 24(7): 87.
[34]王雪玉. 百度無人駕駛汽車: 符號(hào)意義大于實(shí)際意義[J].金融科技時(shí)代, 2016, 24(1): 77.WANG Xueyu. Baidu driverless car: Symbolic meaning is greater than the actual meaning[J]. Financial technology time, 2016, 24(1): 77.
[35]王麗娜. 蓄勢待發(fā)的無人駕駛汽車[J]. 科技導(dǎo)報(bào), 2016,34(6): 8.WANG Lina. Autonomous vehicles begins[J]. Science and technology review, 2016, 34(6): 8.
[36]張偉.讀懂百度L3事業(yè)部|中國智能汽車國際論壇[EB/OL].(2016-11-07)[2017-01-06] https://www.leiphone.com/news/201611/DkiMOUA3c8wcD7Mz.html.
[37]Roberto Baldwin.2018年自動(dòng)駕駛汽車如何發(fā)展?看看國外都做了啥[EB/OL]. (2017-12-26)[2017-01-06]http://tech.163.com/17/1226/08/D6IOKV2F00098IEO.html.
[38]郭永輝. 宇通公司研發(fā)的無人汽車駕駛大客車在全開放道路測試陳宮[EB/OL].(2015-09-08)[2016-09-20]http://www.cheyun.com/content/19995.
[39]姜紅德. IT助跑長安智能汽車[J]. 中國信息化, 2016(5):49–51.JIANG Hongde. Changan smart car run by IT[J]. China information technology, 2016(5): 49–51.
[40]宋杰. 國家首個(gè)無人駕駛汽車測試基地正式開園中國未來智能汽車“搖籃”選址上海嘉定[J]. 中國經(jīng)濟(jì)周刊,2016(24): 74–75.SONG Jie. The country’s first unmanned vehicle test base open officially. China’s future mart car sites Jiading,Shanghai[J]. China economic weekly, 2016(24): 74–75.
[41]王晨曦. 爭奪無人駕駛測試場[J]. 經(jīng)營者, 2016(3): 69–70.WANG Chenxi. Competition for pilotless test field[J]. Operators, 2016(3): 69–70.
[42]NAMIK H, INAMURA T, STOL K. Development of a robotic driver for vehicle dynamometer testing[C]//Proceedings of 2006 Australasian Conference on Robotics and Automation. Auckland, New Zealand, 2006: 1–9.
[43]王藝帆. 自動(dòng)駕駛汽車感知系統(tǒng)關(guān)鍵技術(shù)綜述[J]. 汽車電器, 2016(12): 12–16.WANG YIFAN. A review of key technologies of autonomous Vehicle Perception system[J]. Automotive, 2016(12):12–16.
[44]陳誠. 無人駕駛汽車市場應(yīng)用研究[J]. 現(xiàn)代制造技術(shù)與裝備, 2016(1): 167–168.CHEN Cheng. Application research of unmanned vehicle market[J]. Modern manufacturing technology and equipment, 2016(1): 167–168.
[45]小猴機(jī)器人. 一張圖看清自動(dòng)駕駛產(chǎn)業(yè)[EB/OL].(2016-06-23)[2016-09-20] http://chuansong.me/n/374839151851.2016-07-20.
[46]黃如林, 梁華為, 陳佳佳, 等. 基于激光雷達(dá)的無人駕駛汽車動(dòng)態(tài)障礙物檢測、跟蹤與識(shí)別方法[J]. 機(jī)器人,2016, 38(4): 437–443.HUANG Rulin, LIANG Huawei, CHEN Jiajia, et al. Lidar based dynamic obstacle detection, tracking and recognition method for driverless cars[J]. Robot, 2016, 38(4):437–443.
[47]丁日智. 淺談無人駕駛汽車技術(shù)原理[J]. 科學(xué)中國人,2016(15): 31.DING Rizhi. About the principle of driverless car[J].Chinese journal of ecology, 2016(15): 31.
[48]思慕. 一顆攝像頭, 就能實(shí)現(xiàn)無人駕駛[EB/OL]. (2015-08-03)[2016-07-20] https://www. Leiphone.com/news/201508/tolnlbcnTwv6RhwQ.htmlTOMè.
[49]TOMè D, MONTI F, BAROFFIO L, et al. Deep convolutional neural networks for pedestrian detection[J]. Signal processing: image communication, 2016, 47: 482–489.
[50]KRIZHEVSKY, ALEX, SUTSKEVER, et al. ImageNet classification with deep convolutional neural networks[J].Communications of the ACM, 2012, 60(2): 1097–1105.
[51]JACKEL L D, SHARMAN D, STENARD C E, et al. Optical character recognition for self-service banking[J]. AT and T technical journal, 1995, 74(4): 16–24.
[52]RUSSAKOVSKY O, DENG J, SU H, et al. ImageNet large scale visual recognition challenge[J]. International journal of computer vision, 2015, 115(3): 211–252.
[53]WONG N, CHAMBERS C, STOL K, et al. Autonomous vehicle following using a robotic driver[C]//Proceedings of the 15th International Conference on Mechatronics and Machine Vision in Practice. Auckland, New Zealand,2008: 115–120.
[54]YESHODARA N S, NAGOJAPPA N S, KISHORE N.Cloud based self driving cars[C]//Proceedings of 2014 IEEE International Conference on Cloud Computing in Emerging Markets. Bangalore, India, 2014: 1–7.
[55]LOKHMOTOV A, FURSIN G. Optimizing convolutional neural networks on embedded platforms with OpenCL[C]//Proceedings of the 4th International Workshop on Open-CL. Vienna, Austria, 2016: 10.
[56]NVIDIA. 自動(dòng)駕駛汽車的人工智能車輛計(jì)算機(jī)[EB/OL].(2016-3-15) [2016-09-20] www.nvidia.com/object/drivepx.html.
[57]CHO. 神秘不再 NVIDIA下一代GPU架構(gòu)Pascal初探[EB/OL]. (2016-04-08)[2016-09-20] https://www.evolife.cn/html/2016/86937.html.
[58]FLORENTINE E, ANDERSEN H, ANG M A, et al. Selfdriving vehicle acknowledgement of pedestrian presence conveyed via Light-Emitting Diodes[C]//Proceedings of 2015 International Conference on Humanoid, Nanotechnology, Information Technology, Communication and Control, Environment and Management. Cebu City, Philippines, 2015: 1–6.
[59]中國投資咨詢網(wǎng). 無人駕駛汽車產(chǎn)業(yè)鏈報(bào)告: 東方既白,關(guān)鍵環(huán)節(jié)日漸成熟[EB/OL].(2016-04-26)[2016-08-29]http://www.ocn.com.cn/chanye/201604/zzyoh26084645.sht ml.
[60]BADRINARAYANAN V, HANDA A, CIPOLLA R.SegNet: a deep convolutional encoder-decoder architecture for robust semantic pixel-wise labelling[J]. Computer Science, 2015: 13–23
[61]KENDALL A, CIPOLLA R. Modelling uncertainty in deep learning for camera relocalization[C]//Proceedings of 2016 IEEE International Conference on Robotics and Automation. Stockholm, Sweden, 2015(31): 4762–4769.
[62]JAYCIL Z. VARGHESE. Overview of autonomous vehicle sensors and systems[C]//Proceedings of the 2015 International Conference on Operations Excellence and Service Engineering Orlando, Florida, 2015(9): 178–191.
[63]HUANG Wuling, WEN Ding, GENGJ, et al. Task-Specific performanceevaluationof UGVs: case studies at the IVFC[J]. IEEE transactions on intelligent transportation systems, 2014, 15(5): 1969–1979.
[64]CHEN Xiang, QIAO Yu. Road segmentation via iterative deep analysis[C]//Proceedings of 2015 IEEE International Conference on Robotics and Biomimetics. Zhuhai, China,2015: 2640–2645.
[65]MONTEMERLOM, BECKERJ, BHAT S, et al. Junior: the Stanford entry in the urban challenge[J]. Journal of field robotics, 2008, 25(9): 569–597.
[66]?BONTAR J, LECUN Y. Stereo matching by training a convolutional neural network to compare image patches[J].The journal of machine learning research, 2016, 17(1):2287–2318.
[67]POMERLEAU D A. Alvinn: an autonomous land vehicle in a neural network[R]. Pittsburgh:Carnegie-Mellon University, 1989.
[68]?BONTAR J, LECUN Y. Computing the stereo matching cost with a convolutional neural network[C]//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA,2015: 1592-1599.
[69]POMERLEAU D A. Alvinn: an autonomous land vehicle in a neural network[R]. Pittsburgh:Carnegie-Mellon University, 1989.
[70]SANTANA E, HOTZ G. Learning a driving simulator[J].arXiv preprint arXiv: 1608.01230, 2016.
[71]SHALEV-SHWARTZ S, BEN-ZRIHEM N, COHEN A, et al. Long-term planning by short-term prediction[J]. arXiv preprint arXiv: 1602.01580, 2016.
[72]BOJARSKI M, DEL TESTA D, DWORAKOWSKI D, et al. End to end learning for self-driving cars[J]. arXiv preprint arXiv: 1604.07316, 2016.
[73]KENDALL A, GRIMES M, CIPOLLA R. PoseNet: a convolutional network for real-time 6-DOF camera relocalization[J]. arXiv preprint arXiv: 1505 .07427, 2016.
[74]孫皓天. 深度學(xué)習(xí)在無人駕駛汽車中的應(yīng)用[J]. 電腦知識(shí)與技術(shù), 2015, 11(24): 121–123.SUN Haotian. Deep learning on the application of the driverless cars[J]. Computer knowledge and technology,2015, 11(24): 121–123.
[75]徐彬, 李明喜, 周晶晶, 等. 洞察無人車輛技術(shù)發(fā)展[J]. 機(jī)器人產(chǎn)業(yè), 2016(1): 67–74.XU Bin, LI Mingxi, ZHOU Jingjing, et al. Annual insight into the technical development of unmanned vehicles[J].Botman Industry, 2016(1): 67–74.
[76]HE U, CHEN H, PAN I, et al. Using edit distance and junction feature to detect and recognize arrow road marking[C]//Proceedings of the 17th International IEEE Conference on Intelligent Transportation Systems. Qingdao,China, 2014.
[77]DIELS C, BOS J E. User interface considerations to pre-vent self-driving carsickness[C]//Adjunct Proceedings of the 7th International Conference on Automotive User Interfaces and Interactive Vehicular Applications. Nottingham,United Kingdom, 2015: 14–19.