欧美一区二区三区,国内熟女精品熟女A片视频小说,日本av网,小鲜肉男男GAY做受XXX网站

寫出你自己的TensorFlow

錢斌斌2年前11瀏覽0評論

寫出你自己的TensorFlow?

在我們開始講解前,可以先看看最終成型的代碼:

1. 分支與特征https://www.b5b6.com/houduan/

2. 僅支持標量的分支

這個工程是我與 Minh Le 一起完成的。

為什么?

如果你修習的是計算機科學(CS)的人的話,你可能聽說過這個短語「不要自己動手____」幾千次了。它包含了加密,標準庫,解析器等等。我想到現在為止,它也應該包含機器學習庫(ML library)了。

不管現實是怎么樣的,這個震撼的課程都值得我們去學習。人們現在把 TensorFlow 和類似的庫當作理所當然了。他們把它看作黑盒子并讓他運行起來,但是并沒有多少人知道在這背后的運行原理。這只是一個非凸(Non-convex)的優化問題!請停止對代碼無意義的胡搞——僅僅只是為了讓代碼看上去像是正確的。

TensorFlow

在 TensorFlow 的代碼里,有一個重要的組件,允許你將操作串在一起,形成一個稱為「圖形運算符」(此處英文錯誤?正確英文應為 Graph Operator)的東西。這個操作圖是一個有向圖 G=(V,E)G=(V,E), 在某些節點處 u1,u2,…,un,v∈Vu1,u2,…,un,v∈V,和 e1,e2,…,en∈E,ei=(ui,v)e1,e2,…,en∈E,ei=(ui,v)。我們知道,存在某種操作圖從 u1,…,unu1,…,un 映射到 vv.

舉個例子,如果我們有 x + y = z,那么 (x,z),(y,z)∈E(x,z),(y,z)∈E.

這對于評估算術表達式非常有用,我們能夠在操作圖的匯點下找到結果。匯點是類似 v∈V,?e=(v,u)v∈V,?e=(v,u) 這樣的頂點。從另一方面來說,這些頂點從自身到其他頂點并沒有定向邊界。同樣的,輸入源是 v∈V,?e=(u,v)v∈V,?e=(u,v).

對于我們來說,我們總是把值放在輸入源上,而值也將傳播到匯點上。

反向模式分化

如果你覺得我的解釋不正確,可以參考下這些幻燈片的說明。

差異化是 Tensorflow 中許多模型的核心需求,因為我們需要它梯度下降的運行。每一個從高中畢業的人都應該知道差異化的意思。如果是基于基礎函數組成的復雜函數,則只需要求出函數的導數,然后做鏈式法則。

在 5 分鐘內倒轉模式

所以現在請記住我們運行操作符時用的有向無環結構(DAG=Directed Acyclic Graph=有向無環圖),還有上一個例子用到的鏈式法則。做出評估,我們能看到像這樣的

x -> h -> g -> f

作為一個圖表,在 f 它能夠給予我們答案。然而,我們也可以反過來:

dx <- dh <- dg <- df

這樣它看起來就像鏈式法則了!我們需要把導數相乘到最終結果的路徑上。

這里是一個操作符的例子:

所以這將衰減為一個圖的遍歷問題。有誰感覺到這是個拓撲排序和深度優先搜索/寬度優先搜索?

是的,所以為了在雙方面都支持拓撲排序,我們需要包含一套父組一套子組,而匯點是另一個方向的來源。反之亦然。

執行

在學校開學前,Minh Le 和我開始設計這個工程。我們決定使用https://www.b5b6.com/houduan/的特征庫進行線性代數的運算。他們有一個叫做 MatrixXd 的矩陣類。我們在這兒使用那個東西。

class var {// Forward declarationstruct impl;public:// For initialization of new vars by ptr var(std::shared_ptr<impl>);var(double);var(const MatrixXd&);var(op_type, const std::vector<var>&);...// Access/Modify the current node value MatrixXd getValue() const;void setValue(const MatrixXd&);op_type getOp() const;void setOp(op_type);// Access internals (no modify) std::vector<var>& getChildren() const;std::vector<var> getParents() const;...private:// PImpl idiom requires forward declaration of the class: std::shared_ptr<impl> pimpl;};struct var::impl{public:impl(const MatrixXd&);impl(op_type, const std::vector<var>&);MatrixXd val;op_type op;std::vector<var> children;std::vector<std::weak_ptr<impl>> parents;};

在這兒,我們曾使用過一個叫「pImpl」的習語,意識是「執行的指針」。它對很多東西都很好,比如接口的解耦實現,以及當我們在堆棧上有一個本地接口時,允許我們實例化堆上的東西。一些「pImpl」的副作用是微弱的減慢運行時間,但是編譯時間縮短了很多。這允許我們通過多個函數調用/返回來保持數據結構的持久性。像這樣的樹形數據結構應該是持久的。

我們有一些枚舉來告訴我們目前正在進行哪些操作:

enum class op_type {plus,minus,multiply,divide,exponent,log,polynomial,dot,...none // no operators. leaf.};

執行此樹的評估的實際類稱為 expression:

class expression {public:expression(var);...// Recursively evaluates the tree. double propagate();...// Computes the derivative for the entire graph. // Performs a top-down evaluation of the tree. void backpropagate(std::unordered_map<var, double>& leaves);...private:var root;};

在回溯里,我們有一些做成類似這樣的代碼:

backpropagate(node, dprev):

derivative = differentiate(node)*dprev

for child in node.children:

backpropagate(child, derivative)

這幾乎是在做一個深度優先搜索;你看到了吧?

為什么是 C++?

在實際過程中,C++可能不是合適的語言來做這些事兒。我們可以在像「Oaml」這樣的函數式語言中花費更少的時間來開發。現在我明白為什么「Scala」被用于機器學習中,主要就是因為「Spark」

然而,這很明顯有利于 C++。

Eigen(庫名)

舉例來說,我們可以直接使用一個叫「Eigen」的 TensorFlow 的線性代數庫。這是一個不假思索就被人用爛了的線性代數庫。有一種類似于我們的表達式樹的味道,我們構建表達式,它只會在我們真正需要的時候進行評估。然而,對于「Eigen」來說,他們在編譯的時間內就決定使用什么模版,這意味著運行的時間減少了。我對寫出「Eigen」的人抱有很大的敬意,因為查看模版的錯誤幾乎讓我眼瞎!

他們的代碼看起來類似這樣的:

Matrix A(...), B(...);auto lazy_multiply = A.dot(B);typeid(lazy_multiply).name(); // the class name is something like Dot_Matrix_Matrix.Matrix(lazy_multiply); // functional-style casting forces evaluation of this matrix.

這個特征庫非常的強大,這就是為什么它是 TensortFlow 使用這些代碼作為主要https://www.b5b6.com/houduan/之一的原因。這意味著除了這個慢吞吞的評估技術之外還有其他的優化。

運算符重載

在 Java 中開發這個庫很不錯——因為沒有 shared_ptrs, unique_ptrs, weak_ptrs;我們得到了一個真實的,有用的圖形計算器(GC=Graphing Calculator)。這大大節省了開發時間,更不必說更快的執行速度。然而,Java 不允許操作符重載,因此它們不能這樣:

// These 3 lines code up an entire neural network!var sigm1 = 1 / (1 + exp(-1 * dot(X, w1)));var sigm2 = 1 / (1 + exp(-1 * dot(sigm1, w2)));var loss = sum(-1 * (y * log(sigm2) + (1-y) * log(1-sigm2)));

順便說一下,上面是實際的代碼。是不是非常的漂亮?我想說的是對于 TensorFlow 里面,這比使用 Python 封裝來的更優美!這只是讓你知道,它們也是矩陣而已。

在 Java 中,有一連串的 add(), divide() 等等是非常難看的。更重要的是,這將讓用戶更多的關注在「PEMDAS」上,而 C++的操作符則有非常好的表現。

特性,而不是一連串的故障

在這個庫中,有一些東西是可以指定的,它沒有明確的應用程序https://www.52fb.cn接口(API=Application Programming Interface),或者有但我知道。舉例子,實際上,如果我們只想訓練一個特定的權重子集,我們只可以回溯到我們感興趣的特定來源。這對于卷積神經網絡的轉移學習非常有用,因為很多時候,像 VGG19 這樣的大網絡被斬斷,會附加了一些額外的層,根據新的域名樣本來訓練權重。

基準

在 Python 的 TensorFlow 庫中,對虹膜數據集上的 10000 個「Epochs」進行訓練以進行分類,并使用相同的超參數,我們有:

1.TensorFlow 的神經網絡: 23812.5 ms

2.「Scikit」的神經網絡:22412.2 ms

3.「Autodiff」的神經網絡,迭代,優化:25397.2 ms

4.「Autodiff」的神經網絡,迭代,無優化:29052.4 ms

5.「Autodiff」的神經網絡,帶有遞歸,無優化:28121.5 ms

令人驚訝的是,Scikit 是所有這些中最快的。這可能是因為我們沒有做龐大的矩陣乘法。也可能是 TensorFlow 需要額外的編譯步驟,如變量初始化等等。或者,也許我們不得不在 python 中運行循環,而不是在 C 中(Python 循環真的非常糟糕!)我對自己也不是很自信。我完全意識到,這絕不是一種全面的基準測試,因為在特定的情況下,它只適用于單個數據點。然而,庫的表現并不能代表行為狀態,因為我們不需要回滾我們自己的 TensorFlow。

java 算術運算,寫出你自己的TensorFlow