Tensorflow是什么?針對這個問題,這篇文章給出了相對應的分析和解答,希望能幫助更多想解決這個問題的朋友找到更加簡單易行的辦法。
成都創新互聯于2013年開始,先為蕭山等服務建站,蕭山等地企業,進行企業商務咨詢服務。為蕭山企業網站制作PC+手機+微官網三網同步一站式服務解決您的所有建站問題。說明:本文實例使用Python版本為3.5.6,Tensorflow版本為2.0
介紹
Tensorflow是Google推出的機器學習開源神器,對Python有著良好的語言支持,支持CPU,GPU和Google TPU等硬件,并且已經擁有了各種各樣的模型和算法。目前,Tensorflow已被廣泛應用于文本處理,語音識別和圖像識別等多項機器學習和深度學習領域。
基礎框架
分為三層:應用層、接口層和核心層
應用層
提供了機器學習相關的訓練庫、預測庫和針對Python、C++和Java等變成語言的編程環境,類似于web系統的前端,主要實現了對計算圖的構造。
接口層
對Tensorflow功能模塊的封裝,便于其它語言平臺的調用。
核心層
最重要的部分,包括設備層、網絡層、數據操作層和圖計算層,執行應用層的計算。
1.設備層
包括Tensorflow在不同硬件設備上的實現,主要支持CPU、GPU和Mobile等設備,在不同硬件設備上實現計算命令的轉換,給上層提供統一的接口,實現程序的跨平臺功能。
2.網絡層
網絡層主要包括RPC和RDMA通信協議,實現不同設備之間的數據傳輸和更新,這些協議都會在分布式計算中用到。
3.數據操作層
以tensor為處理對象,實現tensor的各種操作和計算。
4.圖計算層
包括分布式計算圖和本地計算圖的實現,實現圖的創建、編譯、優化和執行等。
設計理念
可以將Tensorflow理解為一張計算圖中“張量的流動”,其中,Tensor(張量)代表了計算圖中的邊,Flow(流動)代表了計算圖中節點所做的操作而形成的數據流動。
其設計理念是以數據流為核心,當構建相應的機器學習模型后,使用訓練數據在模型中進行數據流動,同時將結果以反向傳播的方式反饋給模型中的參數,以進行調參,使用調整后的參數對訓練數據再次進行迭代計算。
編程特點
有兩個編程特點:
圖的定義和圖的運行完全分開
在tensorflow中,需要預先定義各種變量,建立相關的數據流圖,在數據流圖中創建各種變量之間的計算關系,完成圖的定義,需要把運算的輸入數據放進去后,才會形成輸出值。
圖的計算在會話中執行
tensorflow的相關計算在圖中進行定義,而圖的具體運行壞境在會話(session)中,開啟會話后,才能開始計算,關閉會話就不能再進行計算了。
舉個例子:
import tensorflow as tf tf.compat.v1.disable_eager_execution() a = 3 b = 4 c = 5 y = tf.add(a*b, c) print(y) a = tf.constant(3, tf.int32) b = tf.constant(4, tf.int32) c = tf.constant(5, tf.int32) y = tf.add(a*b, c) print(y) session = tf.compat.v1.Session() print(session.run(y)) session.close()
可以看出,在圖創建后,并在會話中執行數據計算,最終輸出結果。
設計的好處就是:學習的過程中,消耗最多的是對數據的訓練,這樣設計的話,當進行計算時,圖已經確定,計算就只剩下一個不斷迭代的過程。
基本概念
Tensor
張量,是tensorflow中最主要的數據結構,張量用于在計算圖中進行數據傳遞,創建了張量后,需要將其賦值給一個變量或占位符,之后才會將該張量添加到計算圖中。
session
會話,是Tensorflow中計算圖的具體執行者,與圖進行實際的交互。一個會話中可以有多個圖,會話的主要目的是將訓練數據添加到圖中進行計算,也可以修改圖的結構。
調用模式推薦使用with語句:
with session: session.run() Variable
變量,表示圖中的各個計算參數,通過調整這些變量的狀態來優化機器學習算法。創建變量應使用tf.Variable(),通過輸入一個張量,返回一個變量,變量聲明后需進行初始化才能使用。
舉例說明:
import tensorflow as tf tf.compat.v1.disable_eager_execution() tensor = tf.ones([1, 3]) test_var = tf.Variable(tensor) # 初始化變量 init_op = tf.compat.v1.global_variables_initializer() session = tf.compat.v1.Session() with session: print("tensor is ", session.run(tensor)) # print("test_var is ", session.run(test_var)) session.run(init_op) print("after init, test_var is", session.run(test_var))
Placeholder
占位符,用于表示輸入輸出數據的格式,聲明了數據位置,允許傳入指定類型和形狀的數據,通過會話中的feed_dict參數獲取數據,在計算圖運行時使用獲取的數據進行計算,計算完畢后獲取的數據就會消失。
舉例說明:
x = tf.compat.v1.placeholder(tf.int32) y = tf.compat.v1.placeholder(tf.int32) z = tf.add(x, y) session = tf.compat.v1.Session() with session: print(session.run([z], feed_dict={x: [1, 2], y: [2, 3]}))
Operation
操作,是圖中的節點,輸入輸出都是Tensor,作用是完成各種操作,包括:
數學運算:add, sub, mul, div, exp ...
數組運算:concat, slice, split, rank ...
矩陣運算:matmul, matrixinverse ...
神經網絡構建:softmax, sigmoid, relu ...
檢查點:save, restore ...
隊列和同步:enqueue, dequeue, mutexacquire, mutexrelease ...
張量控制:merge, switch, enter, leave ...
Queue
隊列,圖中有狀態的節點。包含入列(endqueue)和出列(dequeue)兩個操作,入列返回計算圖中的一個操作節點,出列返回一個tensor值。
其中,隊列有兩種:
1. FIFOQueue
按入列順序出列的隊列,在需要讀入的訓練樣本有序時使用。舉個例子:
fifo_queue = tf.compat.v1.FIFOQueue(10, 'int32') init = fifo_queue.enqueue_many(([1, 2, 3, 4, 5, 6], )) with tf.compat.v1.Session() as session: session.run(init) queue_size = session.run(fifo_queue.size()) for item in range(queue_size): print('fifo_queue', session.run(fifo_queue.dequeue()))
2. RandomShuffleQueue
以隨機順序出列的隊列,讀入的訓練樣本無序時使用。舉個例子:
rs_queue = tf.compat.v1.RandomShuffleQueue(capacity=5, min_after_dequeue=0, dtypes='int32') init = rs_queue.enqueue_many(([1, 2, 3, 4, 5], )) with tf.compat.v1.Session() as session: session.run(init) queue_size = session.run(rs_queue.size()) for i in range(queue_size): print('rs_queue', session.run(rs_queue.dequeue()))
關于Tensorflow的介紹就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
本文標題:Tensorflow是什么-創新互聯
文章路徑:http://vcdvsql.cn/article12/cdgegc.html
成都網站建設公司_創新互聯,為您提供手機網站建設、自適應網站、品牌網站設計、服務器托管、網站設計公司、網站改版
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯