Dive into TensorFlow系列(2)- 解析TF核心抽象op運算元
本文作者:李傑
TF計算圖從邏輯層來講,由op與tensor構成。op是項點代表計算單元,tensor是邊代表op之間流動的資料內容,兩者配合以資料流圖的形式來表達計算圖。那麼op對應的物理層實現是什麼?TF中有哪些op,以及各自的適用場景是什麼?op到底是如何執行的?接下來讓我們一起探索和回答這些問題。
一、初識op
1.1 op定義
op代表計算圖中的節點,是tf.Operation物件,代表一個計算單元。使用者在建立模型和訓練程式碼時,會建立一系列op及其依賴關係,並將這些op和依賴新增到tf.Graph物件中(一般為預設圖)。比如:tf.matmul()就是一個op,它有兩個輸入tensor和一個輸出tensor。
1.2 op分類
op的分類一般有多個視角,比如按是否內建劃分、按工作型別劃分。
按是否內建劃分,一般分為:內建op和自定義op(見“二、自定義op”部分介紹)。
按工作型別劃分,一般分為:常見數學op、陣列op、矩陣op、有狀態op、神經網路op、檢查點op、佇列與同步op、控制流op。TF白皮書對內建op的分類總結如下:
1.3 op與kernel
op一般都有名稱且代表一個抽象的計算過程。op可以設定若干屬性,但這些屬性必須在編譯期提供或推理得到,因為它們用來例項化一個節點物件從而執行真正的計算。屬性的經典用法就是拿來支援型別多型,比如兩個浮點張量的矩陣乘法與兩個整型張量的矩陣乘法。
kernel是op在指定裝置型別(CPU/GPU)上的具體實現。TF二進位制庫透過序號產生器制定義了一系列op及對應的kernel實現,使用者可以提供額外的op定義與kernel實現進行擴充。一般來說,一個op對應多個kernel實現。
接下來讓我們一起用矩陣乘法MatMul運算元的相關程式碼來理解op與kernel的關係(此處不必糾結程式碼細節,只需體會op與kernel關係即可):
// 首先給出op註冊的定義。其中輸入輸出支援泛型,其合法型別在Attr中進行列舉。// 程式碼位置 tensorflow1.15.5\tensorflow\core\ops\math_ops.ccREGISTER_OP("MatMul") .Input("a: T") .Input("b: T") .Output("product: T") .Attr("transpose_a: bool = false") .Attr("transpose_b: bool = false") .Attr( "T: {bfloat16, half, float, double, int32, int64, complex64, " "complex128}") .SetShapeFn(shape_inference::MatMulShape); // MatMul的實現,採用類别範本機制// 程式碼位置 tensorflow1.15.5\tensorflow\core\kernels\matmul_op.cctemplate <typename Device, typename T, bool USE_CUBLAS>class MatMulOp : public OpKernel { public: explicit MatMulOp(OpKernelConstruction* ctx) : OpKernel(ctx), algorithms_set_already_(false) { OP_REQUIRES_OK(ctx, ctx->GetAttr("transpose_a", &transpose_a_)); OP_REQUIRES_OK(ctx, ctx->GetAttr("transpose_b", &transpose_b_)); LaunchMatMul<Device, T, USE_CUBLAS>::GetBlasGemmAlgorithm( ctx, &algorithms_, &algorithms_set_already_); use_autotune_ = MatmulAutotuneEnable(); } // 省略了很多程式碼... private: std::vector<int64> algorithms_; bool algorithms_set_already_; bool use_autotune_; bool transpose_a_; bool transpose_b_;};// MatMul的op定義與kernel實現繫結處理// 程式碼位置 tensorflow1.15.5\tensorflow\core\kernels\matmul_op.cc#define REGISTER_CPU_EIGEN(T) /*cpu與eigen組合對應實現*/ \ REGISTER_KERNEL_BUILDER( \ Name("MatMul").Device(DEVICE_CPU).TypeConstraint<T>("T").Label("eigen"), \ MatMulOp<CPUDevice, T, false /* cublas, ignored for CPU */>);#define REGISTER_CPU(T) /*cpu對應實現(eigen與非eigen)*/ \ REGISTER_KERNEL_BUILDER( \ Name("MatMul").Device(DEVICE_CPU).TypeConstraint<T>("T"), \ MatMulOp<CPUDevice, T, false /* cublas, ignored for CPU */>); \ REGISTER_CPU_EIGEN(T);#define REGISTER_GPU(T) /*gpu對應實現(cublas與非cublas)*/ \ REGISTER_KERNEL_BUILDER( \ Name("MatMul").Device(DEVICE_GPU).TypeConstraint<T>("T"), \ MatMulOp<GPUDevice, T, true /* cublas, true by default */>); \ REGISTER_KERNEL_BUILDER(Name("MatMul") \ .Device(DEVICE_GPU) \ .TypeConstraint<T>("T") \ .Label("cublas"), \ MatMulOp<GPUDevice, T, true /* cublas */>)
二、自定義op
使用者編寫的模型訓練程式碼一般由TF原生的op運算元及其依賴關係組成,但有時候我們定義的計算邏輯在TF中沒有相應的op實現。根據TensorFlow官網的建議,我們應當先組合python op運算元或python函式進行嘗試。完成嘗試之後再決定要不要自定義op。
2.1 自定義op場景
一般來說,需要自定義op的場景有如下3個:
•用TF原生op組合來表達新計算邏輯的過程比較複雜或不可能
•用TF原生op組合來表達新計算邏輯,其計算效能較低
•在新版編譯器中也較難實現op融合的計算邏輯需要我們手動實現融合
在此舉個例子方便大家理解。假如我們要實現一個新計算實邏:中位數池化(median pooling),過程中要在滑動視窗不斷求得中位數。檢索TF文件沒有發現對應op,因此我們先考慮用TF python op組合來實現它,果然透過ExtractImagePatches and TopK就可以實現這個功能。經測試前述組合方案並不是計算和儲存高效的,因此我們就有必要將median pooling在一個op中進行高效實現。
2.2 自定義op流程
自定義op一般遵循5個基本步驟:
1.註冊op,具體包括:指定名稱、輸入/輸出宣告、形狀函式。
2.定義kernel(即op的實現)並與op繫結。一個op有多個kernel實現,具體由輸入輸出型別、硬體(CPU、GPU)決定。
3.建立python包裝器,一般由op序號產生器制自動完成。
4.編寫op的梯度計算函式(可選項)。
5.測試op,透過python測試較為方便,當然也可透過C++進行測試。
接下來我們就以官網最簡單的ZeroOut同步式自定義op(繼承OpKernel)為例,結合程式碼來講述上述5個步驟。下面先給出步驟1和步驟2用C++實現的程式碼(官方推薦用bazel編譯so檔案):
// 步驟1:註冊opREGISTER_OP("ZeroOut").Input("to_zero: int32").Output("zeroed: int32").SetShapeFn([](::tensorflow::shape_inference::InferenceContext* c) { c->set_output(0, c->input(0)); //c's input and output type is std::vector<ShapeHandle> return Status::OK(); });// 步驟2:定義kernel(常規CPU裝置),並把kernel與op繫結class ZeroOutOp : public OpKernel {public: explicit ZeroOutOp(OpKernelConstruction* context) : OpKernel(context) {} void Compute(OpKernelContext* context) override { // Grab the input tensor from OpKernelContext instance const Tensor& input_tensor = context->input(0); auto input = input_tensor.flat<int32>(); // Create an output tensor Tensor* output_tensor = NULL; OP_REQUIRES_OK(context, context->allocate_output(0, input_tensor.shape(), &output_tensor)); // OP_REQUIRES_OK第二個引數一般為方法呼叫,此處為輸出張量分配記憶體空間 auto output_flat = output_tensor->flat<int32>(); // Set all but the first element of the output tensor to 0. const int N = input.size(); for (int i = 1; i < N; i++) { output_flat(i) = 0; } // Preserve the first input value if possible. if (N > 0) output_flat(0) = input(0); }};REGISTER_KERNEL_BUILDER(Name("ZeroOut").Device(DEVICE_CPU), ZeroOutOp);
步驟3載入上述so檔案(自動完成前後端op對映);步驟4是可選項,此處不需要;步驟5基於python api測試op功能。相應程式碼如下:
import tensorflow as tf zero_out_module = tf.load_op_library('./zero_out.so') # 載入so檔案生成python modulewith tf.Session(''): zero_out_module.zero_out([[1, 2], [3, 4]]).eval()# Printsarray([[1, 0], [0, 0]], dtype=int32)
2.3 高階話題
關於op的技術話題還有很多,我們在此簡述一些要點:
1.如果實現了一個多執行緒CPU kernel,則可以利用work_sharder.h中的Shard函式。
2.大多數op以同步方式工作,只需繼承OpKernel改寫Compute()方法,且此方法必須執行緒安全。
3.如果一個op因為其它op的執行而阻塞,則這個op可以採用非同步方式工作,繼承AsyncOpKernel改寫ComputeAsync()方法,且此方法必須執行緒安全。非同步op最經典的例子就是跨裝置通訊send/recv pair中的RecvOp。
4.如果要為op配置一些靜態屬性,可使用Attr,它有一套特有的支援型別。典型應用是支援泛型。
5.實現GPU kernel有兩部分內容:OpKernel和CUDA kernel,相應的載入程式碼。
6.編譯自定義op,首先要配置標頭檔案搜尋路徑與庫檔案搜尋路徑,接著指定編譯和連結選項,最後還要確保ABI相容性。
7.Resource(資源)代表相同裝置上op共享的內容,比如:張量值、kv儲存表、佇列、讀取器、網路連線等。代表資源的類必須繼承ResourceBase,然後註冊ResourceHandleOp生成資源控制程式碼,普通op以resouce型別的Input進行引入。
三、op工作原理
3.1 op執行框架
整體來看,op與kernel都有其結構描述與統一的註冊管理中心。而OpDefBuilder有兩個包裝類OpDefBuilderWrapper和OpDefBuilderReceiver,前者支援op構建的鏈式語法,後者接受op構建結果並進行註冊。眾所周知,op是編譯期概念,而kernel是執行期概念,在AI編譯器的後端處理流程中會進行op的運算元選擇,此過程會基於一系列策略為op匹配最合適的kernel實現。
3.2 若干技術細節
首先,我們來看一下大家在使用TensorFlow過程中經常碰到的libtensorflow_framework.so。按照tf1.15.5/tensorflow/BUILD中的描述,libtensorflow_framework.so定義了op和kernel的序號產生器制而不涉及具體實現。
// rootdir=tensorflow1.15.5// ${rootdir}/tensorflow/BUILD/* # A shared object which includes registration mechanisms for ops and # kernels. Does not include the implementations of any ops or kernels. Instead, # the library which loads libtensorflow_framework.so # (e.g. _pywrap_tensorflow_internal.so for Python, libtensorflow.so for the C # API) is responsible for registering ops with libtensorflow_framework.so. In # addition to this core set of ops, user libraries which are loaded (via # TF_LoadLibrary/tf.load_op_library) register their ops and kernels with this # shared object directly. */tf_cc_shared_object( name = "tensorflow_framework", framework_so = [], linkopts = select({ "//tensorflow:macos": [], "//tensorflow:windows": [], "//tensorflow:freebsd": [ "-Wl,--version-script,$(location //tensorflow:tf_framework_version_script.lds)", "-lexecinfo", ], "//conditions:default": [ "-Wl,--version-script,$(location //tensorflow:tf_framework_version_script.lds)", ], }), linkstatic = 1, per_os_targets = True, soversion = VERSION, visibility = ["//visibility:public"], deps = [ "//tensorflow/cc/saved_model:loader_lite_impl", "//tensorflow/core:core_cpu_impl", "//tensorflow/core:framework_internal_impl", /* 展開此target進行檢視 */ "//tensorflow/core:gpu_runtime_impl", "//tensorflow/core/grappler/optimizers:custom_graph_optimizer_registry_impl", "//tensorflow/core:lib_internal_impl", "//tensorflow/stream_executor:stream_executor_impl", "//tensorflow:tf_framework_version_script.lds", ] + tf_additional_binary_deps(),)// ${rootdir}/tensorflow/core/BUILDtf_cuda_library( name = "framework_internal_impl", srcs = FRAMEWORK_INTERNAL_PRIVATE_HEADERS + glob( // 可以檢視FRAMEWORK_INTERNAL_PRIVATE_HEADERS內容 [ "example/**/*.cc", "framework/**/*.cc", "util/**/*.cc", "graph/edgeset.cc", "graph/graph.cc", "graph/graph_def_builder.cc", "graph/node_builder.cc", "graph/tensor_id.cc", "graph/while_context.h", "graph/while_context.cc", ], // 省略了諸多程式碼)// FRAMEWORK_INTERNAL_PRIVATE_HEADERS的內容FRAMEWORK_INTERNAL_PRIVATE_HEADERS = [ "graph/edgeset.h", "graph/graph.h", "graph/graph_def_builder.h", "graph/node_builder.h", "graph/tensor_id.h",] + glob( [ "example/**/*.h", "framework/**/*.h", // 這裡就是重點,檢視${rootdir}/tensorflow/core/framework/op.h和opkernel.h "util/**/*.h", ]) // 先來看op.h#define REGISTER_OP(name) REGISTER_OP_UNIQ_HELPER(__COUNTER__, name)#define REGISTER_OP_UNIQ_HELPER(ctr, name) REGISTER_OP_UNIQ(ctr, name)#define REGISTER_OP_UNIQ(ctr, name) \ static ::tensorflow::register_op::OpDefBuilderReceiver register_op##ctr \ TF_ATTRIBUTE_UNUSED = \ ::tensorflow::register_op::OpDefBuilderWrapper<SHOULD_REGISTER_OP( \ name)>(name) // 再來看看opkernel.h#define REGISTER_KERNEL_BUILDER(kernel_builder, ...) \ REGISTER_KERNEL_BUILDER_UNIQ_HELPER(__COUNTER__, kernel_builder, __VA_ARGS__)#define REGISTER_KERNEL_BUILDER_UNIQ_HELPER(ctr, kernel_builder, ...) \ REGISTER_KERNEL_BUILDER_UNIQ(ctr, kernel_builder, __VA_ARGS__)#define REGISTER_KERNEL_BUILDER_UNIQ(ctr, kernel_builder, ...) \ constexpr bool should_register_##ctr##__flag = \ SHOULD_REGISTER_OP_KERNEL(#__VA_ARGS__); \ static ::tensorflow::kernel_factory::OpKernelRegistrar \ registrar__body__##ctr##__object( \ should_register_##ctr##__flag \ ? ::tensorflow::register_kernel::kernel_builder.Build() \ : nullptr, \ #__VA_ARGS__, \ [](::tensorflow::OpKernelConstruction* context) \ -> ::tensorflow::OpKernel* { \ return new __VA_ARGS__(context); \ });
參照上述同樣的流程,我們可以發現libtensorflow.so中涉及op與kernel的具體實現,同時也包括Session的具體實現。
最後,我們再來講講REGISTER_OP宏背後的具體原理。我們在上面已經給出了此宏的定義,此處針對它的實現展開談談:
// 先來看op.h#define REGISTER_OP(name) REGISTER_OP_UNIQ_HELPER(__COUNTER__, name)#define REGISTER_OP_UNIQ_HELPER(ctr, name) REGISTER_OP_UNIQ(ctr, name)#define REGISTER_OP_UNIQ(ctr, name) \ static ::tensorflow::register_op::OpDefBuilderReceiver register_op##ctr \ TF_ATTRIBUTE_UNUSED = \ ::tensorflow::register_op::OpDefBuilderWrapper<SHOULD_REGISTER_OP( \ name)>(name)// REGISTER_OP的一般用法如下REGISTER_OP("ZeroOut") .Input("to_zero: int32") .Output("zeroed: int32") .SetShapeFn([](::tensorflow::shape_inference::InferenceContext* c) { c->set_output(0, c->input(0)); return Status::OK(); });// op定義的鏈式規則是透過OpDefBuilderWrapper類實現的class OpDefBuilderWrapper<true> { public: explicit OpDefBuilderWrapper(const char name[]) : builder_(name) {} OpDefBuilderWrapper<true>& Input(string spec) { builder_.Input(std::move(spec)); return *this; // 顯而易見,呼叫Input仍然返回OpDefBuilderWrapper<true>本身 } OpDefBuilderWrapper<true>& Output(string spec) { builder_.Output(std::move(spec)); return *this; } OpDefBuilderWrapper<true>& SetShapeFn( Status (*fn)(shape_inference::InferenceContext*)) { builder_.SetShapeFn(fn); return *this; } const ::tensorflow::OpDefBuilder& builder() const { return builder_; } private: mutable ::tensorflow::OpDefBuilder builder_;};// 當透過鏈式規劃構建好op後,再透過OpDefBuilderReceiver完成op的註冊// op.hstruct OpDefBuilderReceiver { // To call OpRegistry::Global()->Register(...), used by the // REGISTER_OP macro below. // Note: These are implicitly converting constructors. OpDefBuilderReceiver( const OpDefBuilderWrapper<true>& wrapper); // NOLINT(runtime/explicit) constexpr OpDefBuilderReceiver(const OpDefBuilderWrapper<false>&) { } // NOLINT(runtime/explicit)};// op.cc,然後在OpDefBuilderReceiver建構函式內部完成OpDefBuilderWrapper的全域性註冊OpDefBuilderReceiver::OpDefBuilderReceiver( const OpDefBuilderWrapper<true>& wrapper) { OpRegistry::Global()->Register( [wrapper](OpRegistrationData* op_reg_data) -> Status { return wrapper.builder().Finalize(op_reg_data); });}
四、總結
本文為大家系統講解了TensorFlow的核心抽象op及其kernel實現。需要自定義op的具體場景,以及op的執行框架及若干技術細節。讀罷此文,讀者應該有如下幾點收穫:
•TensorFlow中op是編譯期概念,kernel是執行期概念,兩者各自的定義與註冊方式,以及相應的對映邏輯。
•掌握TensorFlow的高階玩法:自定義op。這將使你之前工作的不可能變為可能,由低效轉化為高效。
•掌握op與kernel註冊的宏定義來自何方,以及宏定義背後具體的執行框架。
參考資料
1.《TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems》: https://arxiv.org/abs/1603.04467
2.Graphs and Sessions: https://github.com/tensorflow/docs/blob/master/site/en/r1/guide/graphs.md
3.Adding a New Op: https://github.com/tensorflow/docs/blob/master/site/en/r1/guide/extend/op.md
4.跨裝置通訊send/recv: https://github.com/tensorflow/tensorflow/blob/master/tensorflow/core/kernels/sendrecv_ops.h
5.OpKernel definition: https://github.com/tensorflow/tensorflow/blob/master/tensorflow/core/framework/op_kernel.h
6.tensorflow原始碼解析之framework-resource: https://www.cnblogs.com/jicanghai/p/9535504.html
7.tensorflow原始碼解析之framework-op: https://www.cnblogs.com/jicanghai/p/9539513.html
相關文章
- 深入理解TensorFlow中的tf.metrics運算元2018-08-24
- Dive into TensorFlow系列(1)-靜態圖執行原理2022-11-11
- Dive into TensorFlow系列(3)- 揭開Tensor的神秘面紗2022-11-17
- tf:'hello tensorflow'2018-05-01
- Python量化資料倉儲搭建系列2:Python運算元據2021-11-02Python
- openGauss核心分析(八):執行運算元探究2023-03-10
- TensorFlow——tensorflow指定CPU與GPU運算2019-05-25GPU
- 機器學習系列-tensorflow-02-基本操作運算2018-10-30機器學習
- 3.2 Tensorflow基礎運算2020-12-14
- 【TVM系列三】運算元轉換呼叫流程2024-05-12
- spark-運算元-分割槽運算元2020-11-05Spark
- Ascend C運算元開發指南22024-07-28
- 運算元2018-11-12
- 圖解Spark排序運算元sortBy的核心原始碼2023-09-18圖解Spark排序原始碼
- spark的基本運算元使用和原始碼解析2019-07-23Spark原始碼
- tensorflow tf.argmax() 用法 例子2018-10-08
- 使用運算元控制公式運算2021-01-05公式
- Python 影像處理 OpenCV (12): Roberts 運算元、 Prewitt 運算元、 Sobel 運算元和 Laplacian 運算元邊緣檢測技術2020-06-29PythonOpenCV
- RDD運算元2020-11-10
- Tungsten Fabric架構解析丨TF怎麼運作?2019-12-13架構
- 【Spark篇】---SparkStreaming中運算元中OutPutOperator類運算元2018-03-07Spark
- tensorflow教程:tf.contrib.rnn.DropoutWrapper2018-11-25RNNAPP
- tensorflow使用tf.GradientTape()求導2020-11-15求導
- Tensorflow的幾種變數生成格式。tf.zero,tf.fill,tf.random2020-10-31變數random
- 【tf.keras】tf.keras使用tensorflow中定義的optimizer2019-06-06Keras
- 運算元據庫2020-07-23
- python運算元據2024-08-17Python
- JavaScript運算元組2024-12-02JavaScript
- tensorflow錯誤記錄:tf.concat2018-10-19
- Spring原始碼系列:核心概念解析2023-04-20Spring原始碼
- 【xenomai核心解析】系列文章大綱2020-10-18AI
- TF學習——TF之TensorFlow Slim:TensorFlow Slim的簡介、安裝、使用方法之詳細攻略2018-09-22
- HelloDjango 系列教程:第 04 篇:Django 遷移、運算元據庫2019-08-01Django
- Golang 學習系列第四天:運算元據庫 PostgreSQL2020-07-18GolangSQL
- JS加法運算全解析2018-08-14JS
- 運算元據庫表2019-01-23
- MySQL DML運算元據2024-10-22MySql
- jmeter運算元據庫2024-08-23JMeter