繼今年三月份跨鏡追蹤(ReID)、3D人體重建技術(shù)、自然語言處理技術(shù)分別創(chuàng)造世界紀(jì)錄后,人工智能“國家隊(duì)”云從科技再一次領(lǐng)跑全球。同時(shí),這也是云從科技第十四次獲得世界冠軍。
10月27日-11月2日,在ICCV 2019 Workshop舉辦的 Vision Meets Drone: A Challenge(簡稱:VisDrone 2019)挑戰(zhàn)賽上,云從科技研究院與中科院信息工程研究所葛仕明研究員團(tuán)隊(duì)(以下簡稱“聯(lián)合研究團(tuán)隊(duì)”)獲得了Task3“單目標(biāo)跟蹤挑戰(zhàn)(Single Object Tracking, SOT)”冠軍,再次刷新此項(xiàng)目的世界紀(jì)錄。
隨著無人機(jī)作為視覺數(shù)據(jù)采集設(shè)備已快速而廣泛的部署到城市、農(nóng)業(yè)、航空等應(yīng)用領(lǐng)域,對無人機(jī)平臺收集的視覺數(shù)據(jù)進(jìn)行分析和理解的需求變得愈發(fā)迫切。云從科技參與單目標(biāo)跟蹤挑戰(zhàn)賽的成果,不僅對計(jì)算機(jī)視覺甚至人工智能技術(shù)是進(jìn)一步的推動,也對視頻監(jiān)控、人機(jī)交互、自動駕駛、虛擬現(xiàn)實(shí)等場景都具有重要意義。
今后,云從科技將繼續(xù)以人工智能技術(shù)與人機(jī)協(xié)同平臺為基礎(chǔ),通過行業(yè)領(lǐng)先的人工智能、認(rèn)知計(jì)算與大數(shù)據(jù)技術(shù)形成的整合解決方案,促進(jìn)泛在智能下的未來城市建設(shè)。
VisDrone2019 挑戰(zhàn)賽
ICCV 2019國際計(jì)算機(jī)視覺大會由 IEEE 主辦,與計(jì)算機(jī)視覺模式識別會議(CVPR)和歐洲計(jì)算機(jī)視覺會議(ECCV)并稱計(jì)算機(jī)視覺方向的三大頂級會議,屬于CCF A 類會議。
此次VisDrone 2019(無人機(jī)目標(biāo)檢測)挑戰(zhàn)賽,要從無人機(jī)獲取的視覺數(shù)據(jù)中進(jìn)行物體檢測和跟蹤,吸引了來自海內(nèi)外知名高校、科研機(jī)構(gòu)和企業(yè),包括中科院、清華大學(xué)、馬里蘭大學(xué)、伊利諾伊大學(xué)厄巴納-香檳分校、云從科技、三星研究院等近百支隊(duì)伍參賽。
本屆挑戰(zhàn)賽包含了四個(gè)任務(wù),聯(lián)合研究團(tuán)隊(duì)參加了“任務(wù)3:單目標(biāo)跟蹤挑戰(zhàn)”,最后在眾多參賽隊(duì)中脫穎而出獲得冠軍。
VisDrone 2019數(shù)據(jù)集由天津大學(xué)機(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘?qū)嶒?yàn)室的AISKYEYE團(tuán)隊(duì)收集,全部基準(zhǔn)數(shù)據(jù)集由無人機(jī)捕獲,包括288個(gè)視頻片段,總共包括261908幀和10209個(gè)靜態(tài)圖像。
這些幀由260多萬個(gè)常用目標(biāo)(如行人、汽車、自行車和三輪車)的手動標(biāo)注框組成。為了讓參賽隊(duì)伍能夠更有效地利用數(shù)據(jù),數(shù)據(jù)集還提供了場景可見性、對象類別和遮擋等重要屬性。
因此,本屆賽題難點(diǎn)諸多。聯(lián)合研究團(tuán)隊(duì)在“任務(wù)3:單目標(biāo)跟蹤挑戰(zhàn)”中,不僅要處理訓(xùn)練集、驗(yàn)證集、測試集等大量數(shù)據(jù),還要克服數(shù)據(jù)中的低分辨率、長期遮擋、相機(jī)運(yùn)動模糊等困難。
任務(wù)3:單目標(biāo)跟蹤挑戰(zhàn)
創(chuàng)造世界新紀(jì)錄
經(jīng)過反復(fù)訓(xùn)練與測試,聯(lián)合研究團(tuán)隊(duì)最終提出了改進(jìn)的精確目標(biāo)狀態(tài)估計(jì)算法:ED-ATOM。方法里面包含兩個(gè)模塊:目標(biāo)估計(jì)和物體分類。
其中,目標(biāo)估計(jì)模塊使用IOU預(yù)測網(wǎng)絡(luò)、ResNet-18網(wǎng)絡(luò)和ImageNet等數(shù)據(jù)集來做預(yù)訓(xùn)練,同時(shí)使用低光照圖像增強(qiáng)算法處理原始數(shù)據(jù),離線精調(diào)模型后再在線基于跟蹤狀態(tài)的搜索策略改進(jìn)魯棒性。
物體分類模塊則使用數(shù)據(jù)增強(qiáng)的方法,進(jìn)行在線數(shù)據(jù)擴(kuò)充,以便于分類模型的可推廣性。同時(shí)基于跟蹤狀態(tài)的有效搜索策略,改進(jìn)穩(wěn)健性。
最終,結(jié)合IE(圖像增強(qiáng))、ED(通過增強(qiáng)數(shù)據(jù)訓(xùn)練的IOU預(yù)測網(wǎng)絡(luò))、DA(在線數(shù)據(jù)增強(qiáng))、LT(長期跟蹤)幾種方法的ED-ATOM算法,取得了最優(yōu)成績,刷新了世界紀(jì)錄。
運(yùn)用微光圖像增強(qiáng)方法實(shí)行暗部追蹤訓(xùn)練,通過不同方法的測試,確定效果最佳方案;
運(yùn)用數(shù)據(jù)擴(kuò)充方案,在目標(biāo)外觀發(fā)生變化的情況下,通過翻轉(zhuǎn)、平移、縮放、仿射、旋轉(zhuǎn)、模糊等增強(qiáng)方法,提高跟蹤自適應(yīng)性;
在面對嚴(yán)重的不在視野和完全遮擋的跟蹤情況下,使用長期跟蹤方案,可以自適應(yīng)搜索區(qū)域,提高跟蹤穩(wěn)健性。
通過ED-ATOM算法,我們可以實(shí)現(xiàn)在低分辨率、長期遮擋、攝像機(jī)運(yùn)動/運(yùn)動模糊等情況下的有效可視化,從而達(dá)到鎖定目標(biāo)、預(yù)判行動等效果。
高質(zhì)量跟蹤分?jǐn)?shù)
該成果的取得是聯(lián)合研究團(tuán)隊(duì)共同的努力,始終堅(jiān)持人工智能在實(shí)際場景運(yùn)用中的技術(shù)研究與創(chuàng)新。云從科技孵化自中科院重慶研究院,與中科院可謂一脈相承。
作為人工智能領(lǐng)域的智能服務(wù)領(lǐng)軍企業(yè),云從科技吸引并擁有全球最優(yōu)秀的人才。在廣州、重慶、上海、蘇州、成都等地都成立了研發(fā)中心,研發(fā)人員超過1000名,提供了核心技術(shù)產(chǎn)品研發(fā)能力。同時(shí)與各大學(xué)、研究院等成立聯(lián)合實(shí)驗(yàn)室,掌握最前沿的核心技術(shù)研發(fā)能力。雄厚的人才與技術(shù)儲備,為云從科技再次創(chuàng)造世界紀(jì)錄提供強(qiáng)大動力。
追求技術(shù)創(chuàng)新的同時(shí),云從科技始終堅(jiān)持技術(shù)場景化的落地應(yīng)用。ED-ATOM算法的提出,對今后安防偵測、行人跟蹤、安全檢測等方面的產(chǎn)品研發(fā),將發(fā)揮更有價(jià)值的作用。
例如在智能安防方面,云從科技研發(fā)的智能安防管理系統(tǒng)是一套以人為核心的基于物聯(lián)網(wǎng)、人工智能和大數(shù)據(jù)技術(shù)的智能化應(yīng)用系統(tǒng)。新算法的融合,讓可能的移動端(無人機(jī)或者自主系統(tǒng))上得到應(yīng)用的機(jī)會大大提升。
版權(quán)聲明:本文內(nèi)容由互聯(lián)網(wǎng)用戶自發(fā)貢獻(xiàn),該文觀點(diǎn)僅代表作者本人。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如發(fā)現(xiàn)本站有涉嫌抄襲侵權(quán)/違法違規(guī)的內(nèi)容, 請發(fā)送郵件至2161241530@qq.com 舉報(bào),一經(jīng)查實(shí),本站將立刻刪除。如若轉(zhuǎn)載,請注明出處:http://www.lykp.org.cn/wurenjibaike/djiwurenzhishi/8199/