谷歌證明量子神經網絡可訓練圖像分類
谷歌人工智能量子(Google AI Quantum)團隊最近發(fā)表了兩篇論文,介紹了他們在理解量子計算機學習任務方面取得的新進展。
本文引用地址:http://m.butianyuan.cn/article/201812/395950.htm量子計算,它能給AI技術的發(fā)展帶來什么幫助嗎?
的確可以!
谷歌已經證明了量子計算也能解決傳統(tǒng)機器學習中的圖像分類問題,而且隨著技術發(fā)展,量子計算機將在在學習能力上超越經典的神經網絡。
另外量子計算還能解決經典網絡中一些棘手問題,比如預防出現模型訓練中的梯度消失問題。
在第一篇論文中,谷歌構建一個神經網絡的量子模型,研究如何在量子處理器上執(zhí)行神經網絡的分類任務。
谷歌把這個模型叫做量子神經網絡(QNN),希望它能用在近期出現的量子處理器上。
雖然目前的工作主要是理論上的,但QNN的結構有助于在不久的將來對量子計算機進行實現和測試。
QNN可以通過標記數據的監(jiān)督學習進行調整,谷歌已經在理論上證明了可以在MNIST數據集上訓練它進行圖像分類。
谷歌預計,隨著量子計算機硬件規(guī)模的發(fā)展,未來QNN的能力將足夠與經典神經網絡匹敵,從而實現“量子霸權”。
在第二篇論文中,谷歌專注于量子神經網絡和經典神經網絡訓練中的關鍵難題,即梯度消失或爆炸(vanishing or exploding gradients)的問題。
在傳統(tǒng)的神經網絡中,神經元權重良好的、無偏見的初始猜測通常與隨機性無關,但是在某些情況下也存在一些困難。
量子計算恰恰能解決這方面的問題。
谷歌的論文表明,量子幾何(quantum geometry)的獨特特征能夠阻止某些不良的初始化情況產生,幫助我們進入到到函數的穩(wěn)定區(qū),防止選取到那些會導致梯度消失的初始化策略。
這項工作對未來初始化和訓練量子神經網絡的策略具有指導意義。谷歌希望從這些量子幾何狀態(tài)中能獲得啟發(fā),實現訓練網絡的新算法。
實現量子霸權
谷歌今年在量子計算領域動作頻繁。
3月份,谷歌開發(fā)出了Bristlecone量子處理器,它擁有72個量子比特,是迄今為止最大的量子芯片。超過了IBM的50量子比特和英特爾的49量子比特。
谷歌希望用Bristlecone實現所謂量子霸權,即量子計算機在某些數學計算中的性能完全超過傳統(tǒng)超級計算機。
NASA量子人工智能實驗室(QuAIL)和谷歌一起,共同研究如何將“各種各樣的優(yōu)化和采樣問題”映射到量子計算機上,希望在一年內實現該目標。
谷歌還計劃在5年內實現量子計算技術的商業(yè)化。但這并不是說谷歌要推出面向市場的量子計算機。
由于超導量子計算機需要保持在接近絕對零度附近,因此不能把它從實驗室里搬出來。預計谷歌屆時會允許用戶通過云API連接到量子計算機上。
評論