斯坦福全球AI報告:中國機器人部署量漲500%
學術會議熱度
本文引用地址:http://m.butianyuan.cn/article/201812/395601.htm在大型會議中,NeurIPS(曾用名NIPS)、CVPR和ICML,是參與人數(shù)最多的三大AI會議。自2012年以來,論參與人數(shù)的增長率,這三者也領先于其他會議。
NeurIPS和ICML參與人數(shù)增長最快:將2018年與2012年相比,NeuRIPS增長3.8倍(4.8x),ICML增長5.8倍(6.8x)。
上面討論的是大型會議,但小型會議的參與人數(shù)同樣有明顯的增長,甚至可以比大型會議的增長更加明顯。
這里最突出的是,ICLR2018的參會人數(shù)達到了2012年的20倍。
原因很可能是近年來,AI領域越來越關注深度學習和強化學習了。
AI創(chuàng)業(yè)投資情況
從2015年1月到2018年1月,人工智能創(chuàng)業(yè)公司的數(shù)量增長到了原來的2.1倍,而所有活躍的創(chuàng)業(yè)公司增長到了原來的1.3倍。
大多數(shù)情況下,創(chuàng)業(yè)公司的增長都保持相對穩(wěn)定,而人工智能創(chuàng)業(yè)公司呈指數(shù)級增長。
在風投資金方面,從2013年到2017年,人工智能領域的風投資金增長到了原來的4.5倍,而所有的風投資金只增長到了原來的2.08倍。這些數(shù)據(jù)都是年度數(shù)據(jù),不是逐年累積的。
圖表中有兩個高峰期,1997-2000年風投資金的激增,對應的是網(wǎng)絡泡沫時期。2014-2015年出現(xiàn)了一個較小的增長,因為當時正處于一個相對較大的經(jīng)濟增長時期。
人才需求
報告顯示,近幾年,社會需要的AI相關人才大幅度增加,目前對有ML技能的人才需求最大,其次是深度學習。
可以看出,ML人才需求也是這兩年增長速度最快的。
報告統(tǒng)計,2017年,全球ML人才需求是2015年的35倍,從2016年到2017年的增幅尤為明顯。全球對AI人才的需求在2016年驟增。
專利
2014年,大約30%的人工智能專利發(fā)明人來自美國,其次是韓國和日本,各擁有16%。
在韓國和中國臺灣地區(qū),專利的增長速度較快。2014年人工智能專利的數(shù)量幾乎是2004年的5倍。
財報電話會議中提及AI和ML的次數(shù)
2015年,科技公司在財報電話會議中提及AI和ML的次數(shù)開始有所增加。
2016年,其他行業(yè)提及AI次數(shù)才開始增長。
相比之下,科技行業(yè)的公司提及AI和ML的次數(shù)遠比其他行業(yè)多。
在財報電話會議中,除了科技行業(yè)之外,提及AI次數(shù)最多的公司,基本上分布在消費、金融和醫(yī)療保健行業(yè)。
機器人安裝量
2012年到2017年,中國機器人年安裝量增長了500%,其他地區(qū),比如韓國和歐洲,分別增長了105%和122%。
在安裝量較小的地區(qū)中,中國臺灣比較突出,在2012-2017年增長最快。
開源框架GitHub標星數(shù)
各框架的標星數(shù)反映著他們在開發(fā)者群體中的流行程度。不過,因為開發(fā)者們日常不會“取關”GitHub項目,所以這些星星都是多年來積攢下的。
我們可以明顯發(fā)現(xiàn),TensorFlow的受歡迎程度在開發(fā)者中遙遙領先、穩(wěn)步增長。
排除了第一熱門,第二名和第三名分別是scikit-learn和BVLC/caffe。
TensorFlow官方力推的keras排到了第四,但近一年來幾無增長勢頭。
另外兩大熱門PyTorch和MXNet分別排到了第七和第六,尤其是PyTorch,作為一個年輕的框架,自2017年初發(fā)布以來至今,GitHub標星數(shù)至少增長了4倍。獲取新用戶的勢頭很猛,不知道其中有多少被TensorFlow逼瘋的人類。
各類任務最新成績
這個部分分為CV和NLP兩塊,分別列舉了各主流任務從發(fā)展之初到現(xiàn)在的成績進步情況。
ImageNet圖像識別準確率
2017年是ImageNet比賽的最后一屆,2018年這項比賽就不再進行了。不過,驗證集依然有人在用。
藍色的線條為ImageNet挑戰(zhàn)賽歷年的成績變化,由于每年比賽所用的數(shù)據(jù)不同,旁邊多了一條黃色線條,是以ImageNet2012驗證集為評價標準繪制的。
可以看出,到2015年,機器在圖像分類任務上的能力已經(jīng)明顯超越了人眼,而即使比賽不再繼續(xù),學術研究者依然在認真推進該任務的表現(xiàn)。
這也側面說明,如果一項工作有了明確的評價標準和固定的挑戰(zhàn)內容,研究者們圍繞此競爭,更容易讓技術在該領域取得突破。
ImageNet訓練速度
這張圖是訓練ImageNet圖像分類神經(jīng)網(wǎng)絡所需時間的歷年變化(當然,是買得起足夠計算資源的人和機構所用的時長)。
從2017年6月的1小時,到2018年11月的4分鐘,ImageNet圖像分類神經(jīng)網(wǎng)絡的訓練速度提升了16倍,除了硬件方面的貢獻,算法上的提升也不容小覷。
圖像分割COCO
ImageNet挑戰(zhàn)賽“退休”之后,CV領域的朋友們就把重點放在了微軟的COCO,挑戰(zhàn)語義分割和實例分割。
四年來,COCO數(shù)據(jù)集上圖像分割挑戰(zhàn)的精確度已經(jīng)提升了0.2,2018年的成績比2015提升了72%。不過,目前還沒有超過0.5,這一項還有充足的進步空間。
另外值得一提的是,COCO比賽近年來占據(jù)冠軍位置的多是來自中國的公司,包括曠視、商湯等計算機視覺獨角獸日常包攬數(shù)個項目的冠軍。
語法分析(Parsing)
在確定句子結構這種語法分析的任務上,2003年到2018年的15年間,AI的表現(xiàn)(F1Score得分)提升了將近10%。
機器翻譯
在機器翻譯任務上,報告拿英語-德語互相翻譯舉例,評估了AI模型在經(jīng)典機器翻譯評估算法BLEU標準中的表現(xiàn)。
報告顯示,2018年英語轉德語的BLEU評分是2008年的3.5倍,德語轉英語成績是2008年的2.5倍。
機器問答:AI2ReasoningChallenge(ARC)
在問答領域,AI表現(xiàn)進步更明顯,可以按月計數(shù)了。
報告統(tǒng)計了2018年從四月到11月間,AI在ARC推理挑戰(zhàn)賽上成績的變化:簡單組得分從63%提升到69%,挑戰(zhàn)組得分從27%提升到42%。
這些,都僅是半年間的進步。
機器問答:GLUE
同樣用于機器問答的GLUE基準(GeneralLanguageUnderstandingEvaluation)推出至今只有7個月的時間,但目前的表現(xiàn)已經(jīng)比半年前提升了90%。
GLUE的推出者、紐約大學助理教授SamBowman說,雖然圍繞GLUE的大型社區(qū)還沒有出現(xiàn),不過已經(jīng)有了像谷歌BERT這樣的代表性技術用了GLUE基準,面世一個月內已經(jīng)被引用8次。在EMNLP會議中,GLUE時常被討論,可能會成為語言理解領域中的一個基準線。
政府提及
整體來說,自2016年以來,美國、加拿大、英國政府在國會/議會會議中提及人工智能和機器學習的次數(shù)激增。
2016年之前,機器學習很少被提及,與人工智能相比,機器學習在總提及量中只占很小的一部分。
評論