新聞中心

TensorFlow 2.0入門指南

作者:問耕 時(shí)間:2019-10-09 來源:量子位 收藏

本文經(jīng)AI新媒體量子位(公眾號 ID: QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

本文引用地址:http://m.butianyuan.cn/article/201910/405549.htm

前幾天,TensorFlow 2.0正式發(fā)布。如果你對新的深度學(xué)習(xí)框架還不熟悉,推薦看看這篇集簡介、速成課程、API速查參考為一體的Overview。

作者是Google深度學(xué)習(xí)科學(xué)家、Keras作者Fran?ois Chollet。

在這份指南的開頭部分,作者寫道Keras發(fā)布于2015年3月,TensorFlow發(fā)布于2015年11月,迄今都已經(jīng)有四年的時(shí)間。過去TensorFlow 1.x+Keras的組合存在很多問題。新的TensorFlow 2.0進(jìn)一步整合了兩者,并解決了很多問題。

TensorFlow 2.0基于以下核心思想:

· 讓用戶暢爽運(yùn)行計(jì)算,就像用Numpy。這讓TF2.0編程更加直觀、像Python一樣。

· 保留已編譯計(jì)算圖的優(yōu)勢,使TF2.0快速、可擴(kuò)展以及可投入生產(chǎn)。

· 使用Keras作為高級深度學(xué)習(xí)API,讓TF2.0易于上手且高效。極大的擴(kuò)展了Keras的工作流范圍。

在正文部分,這份Overview主要包括兩部分內(nèi)容:

1、TensorFlow基礎(chǔ)

· Tensor張量

· 隨機(jī)常數(shù)張量

· 變量

· TensorFlow數(shù)學(xué)運(yùn)算

· 使用GradientTape計(jì)算梯度

· 端到端示例:線性回歸

· 用tf.function加速

2、Keras API

· 基本的層類

· 可訓(xùn)練和不可訓(xùn)練的權(quán)重

· 遞歸嵌套

· 各種內(nèi)建好的層

· 通過call訓(xùn)練參數(shù)

· 更具功能性的定義模型

· 損失類

· 度量標(biāo)準(zhǔn)類

· 優(yōu)化器類&快速端到端訓(xùn)練循環(huán)

· add_loss方法

· 端到端示例:VAE

· 使用內(nèi)建的訓(xùn)練循環(huán)

· Callback

Fran?ois Chollet這篇指南發(fā)出來之后,推特上一片感謝之聲。想要查看全部詳細(xì)內(nèi)容,可以直接訪問這個(gè)地址:

https://colab.research.google.com/drive/1UCJt8EYjlzCs1H1d1X0iDGYJsHKwu-NO

這里我們截取其中的部分內(nèi)容,供感興趣的朋友參考。



關(guān)鍵詞:

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉