再接再厲!
在第四屆圖像識(shí)別競(jìng)賽WebVision中
華為云EI以82.97%的準(zhǔn)確率
擊敗來(lái)自全世界的94支參賽隊(duì)伍
奪得桂冠!
WebVision 競(jìng)賽由蘇黎世聯(lián)邦理工(ETH)、Google Research、卡耐基梅隆大學(xué)(CMU)等共同組織,是目前圖像識(shí)別領(lǐng)域最權(quán)威的競(jìng)賽之一,被業(yè)界譽(yù)為人工智能“世界杯”, 接棒曾經(jīng)推動(dòng)計(jì)算機(jī)物體分類準(zhǔn)確率超過(guò)人類的ImageNet 競(jìng)賽。
競(jìng)賽中,參賽選手通過(guò)AI模型將1600萬(wàn)+張圖片精準(zhǔn)分類到5000個(gè)類目中,其所用數(shù)據(jù)集直接從互聯(lián)網(wǎng)爬取,沒(méi)有經(jīng)過(guò)人工標(biāo)注,因此數(shù)據(jù)中含有很多噪音,且數(shù)據(jù)類別的數(shù)量存在著極大不平衡。
此項(xiàng)競(jìng)賽相較于 ImageNet,WebVision 難度提高許多,同時(shí)也更加貼近于實(shí)際應(yīng)用中的場(chǎng)景。
WebVision競(jìng)賽展示了另外一種可能性:基于弱監(jiān)督學(xué)習(xí),深度學(xué)習(xí)可以不再以人工標(biāo)注數(shù)據(jù)為基礎(chǔ),人工智能有望真正擺脫“人工”。
此次競(jìng)賽中,華為云EI基于ModelArts訓(xùn)練大規(guī)模圖像分類模型,基于先進(jìn)的分布式訓(xùn)練方法,可以縮短超大規(guī)模數(shù)據(jù)集的訓(xùn)練時(shí)間。
華為云利用伴隨圖像數(shù)據(jù)的文本描述信息,融合文本與視覺(jué)多模態(tài)特征,通過(guò)訓(xùn)練過(guò)程中的動(dòng)態(tài)評(píng)估,識(shí)別并剔除大量噪聲數(shù)據(jù);通過(guò)知識(shí)蒸餾進(jìn)一步降低噪聲對(duì)模型訓(xùn)練的影響;從互聯(lián)網(wǎng)上自動(dòng)爬取大規(guī)模數(shù)據(jù)集進(jìn)行學(xué)習(xí),最終在完全沒(méi)有人工標(biāo)注的情況下,訓(xùn)練得到準(zhǔn)確率82.97%高精度模型。
華為云EI在本次比賽中運(yùn)用的圖像識(shí)別技術(shù),可廣泛用于通用物品識(shí)別、圖像/視頻標(biāo)簽等領(lǐng)域。
近十年來(lái)計(jì)算機(jī)視覺(jué)取得的進(jìn)展離不開(kāi)大量人工標(biāo)注的數(shù)據(jù)集,但由于人工標(biāo)注需要較高的成本,幾乎不太可能構(gòu)建包羅萬(wàn)象的超級(jí)數(shù)據(jù)集。
互聯(lián)網(wǎng)上存在幾乎取之不盡的無(wú)標(biāo)注圖像數(shù)據(jù),利用這些數(shù)據(jù)的周邊文本等信息作為帶噪聲的弱標(biāo)注數(shù)據(jù)進(jìn)行學(xué)習(xí),能夠在很大程度上降低圖像識(shí)別對(duì)人工標(biāo)注的依賴。
華為云EI在視覺(jué)研究領(lǐng)域有著豐富的技術(shù)積累,在6月14日-19日舉辦的CVPR2020(國(guó)際計(jì)算機(jī)視覺(jué)和模式識(shí)別大會(huì))中,華為貢獻(xiàn)論文34 篇,涵蓋遷移學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、網(wǎng)絡(luò)架構(gòu)搜索、模型算子優(yōu)化、知識(shí)蒸餾、對(duì)抗樣本生成等前沿領(lǐng)域。
2019年,基于華為云圖像識(shí)別能力,在上海天文臺(tái)與國(guó)際組織SKA(平方公里陣列射電望遠(yuǎn)鏡) 合作的項(xiàng)目中,科學(xué)家們僅用10.02 秒即完成了對(duì) 20 萬(wàn)顆星體的識(shí)別,同時(shí)可以準(zhǔn)確地對(duì)某一類星體進(jìn)行定位,而傳統(tǒng)方式完成如此大量的星體識(shí)別工作需要 169 天時(shí)間。
目前,華為云EI內(nèi)容審核、人臉識(shí)別、圖像搜索、視頻分析等服務(wù)已經(jīng)成功應(yīng)用于互聯(lián)網(wǎng)、媒資、園區(qū)、物流、工業(yè)等行業(yè)。