TensorFlow 2.0入門指南
本文經(jīng)AI新媒體量子位(公眾號 ID: QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。
本文引用地址:http://m.butianyuan.cn/article/201910/405549.htm前幾天,TensorFlow 2.0正式發(fā)布。如果你對新的深度學(xué)習(xí)框架還不熟悉,推薦看看這篇集簡介、速成課程、API速查參考為一體的Overview。
作者是Google深度學(xué)習(xí)科學(xué)家、Keras作者Fran?ois Chollet。
在這份指南的開頭部分,作者寫道Keras發(fā)布于2015年3月,TensorFlow發(fā)布于2015年11月,迄今都已經(jīng)有四年的時(shí)間。過去TensorFlow 1.x+Keras的組合存在很多問題。新的TensorFlow 2.0進(jìn)一步整合了兩者,并解決了很多問題。
TensorFlow 2.0基于以下核心思想:
· 讓用戶暢爽運(yùn)行計(jì)算,就像用Numpy。這讓TF2.0編程更加直觀、像Python一樣。
· 保留已編譯計(jì)算圖的優(yōu)勢,使TF2.0快速、可擴(kuò)展以及可投入生產(chǎn)。
· 使用Keras作為高級深度學(xué)習(xí)API,讓TF2.0易于上手且高效。極大的擴(kuò)展了Keras的工作流范圍。
在正文部分,這份Overview主要包括兩部分內(nèi)容:
1、TensorFlow基礎(chǔ)
· Tensor張量
· 隨機(jī)常數(shù)張量
· 變量
· TensorFlow數(shù)學(xué)運(yùn)算
· 使用GradientTape計(jì)算梯度
· 端到端示例:線性回歸
· 用tf.function加速
2、Keras API
· 基本的層類
· 可訓(xùn)練和不可訓(xùn)練的權(quán)重
· 遞歸嵌套
· 各種內(nèi)建好的層
· 通過call訓(xùn)練參數(shù)
· 更具功能性的定義模型
· 損失類
· 度量標(biāo)準(zhǔn)類
· 優(yōu)化器類&快速端到端訓(xùn)練循環(huán)
· add_loss方法
· 端到端示例:VAE
· 使用內(nèi)建的訓(xùn)練循環(huán)
· Callback
Fran?ois Chollet這篇指南發(fā)出來之后,推特上一片感謝之聲。想要查看全部詳細(xì)內(nèi)容,可以直接訪問這個(gè)地址:
https://colab.research.google.com/drive/1UCJt8EYjlzCs1H1d1X0iDGYJsHKwu-NO
這里我們截取其中的部分內(nèi)容,供感興趣的朋友參考。
評論