文 / Marat Dukhan,Google Research
利用 CPU 运行 ML 推理可在边缘设备空间中实现最大覆盖范围。因此,提高 CPU 上的神经网络推理性能一直是 TensorFlow Lite 团队的首要任务。我们听取了社区的需求,并很高兴告诉大家,将 XNNPACK 库集成到 TensorFlow Lite 中后,浮点推理的速度平均可提升 2.3 倍。
为达到这种加速效果,XNNPACK 库 实现了高度优化的浮点神经网络算子。我们在今年初在 TensorFlow.js 的 WebAssembly 后端 中引入了 XNNPACK 库,并且在此版本中,我们引入了针对 TensorFlow Lite 用例定制的其他优化:
- 为了向移动设备上的 TensorFlow Lite 用户提供最佳性能,所有算子都已针对 ARM NEON 进行优化。最关键的部分(卷积、深度卷积、转置卷积、全连接)已针对手机中常用的 ARM core(如 Pixel 2 中的 Cortex-A53/A73 和 Pixel 3 中的 Cortex-A55/A75)对指令集进行优化,。
- 对于 x86-64 设备上的 TensorFlow Lite 用户,XNNPACK 已添加对 SSE2、SSE4、AVX、AVX2 和 AVX512 指令集的优化。
- XNNPACK 不会逐一执行 TensorFlow Lite 算子,而是着眼于整个计算图,并通过算子融合对其进行优化。例如,在 TensorFlow Lite 中,通过 VALID 填充模式组合 PAD 算子和 CONV_2D 算子,以此表示使用显式填充的卷积。XNNPACK 检测到这样的算子组合,然后将这两个算子融合为使用显式指定填充的单个卷积算子。
适用于 CPU 的 XNNPACK 后端已加入 TensorFlow Lite 的推理加速引擎系列,可用于 移动 GPU、Android 的神经网络 API、Hexagon DSP、Edge TPU 和 Apple Neural Engine。此 XNNPACK 后端提供了可在所有移动设备、桌面系统和 Raspberry Pi 开发板上使用的强基线。
在 TensorFlow 2.3 版本中,XNNPACK 后端已包含在针对 Android 和 iOS 的 TensorFlow Lite 预构建二进制文件中,只需更改单行代码即可启用。Windows、macOS 和 Linux 版 TensorFlow Lite 也支持 XNNPACK 后端,可通过构建时的选择加入机制 (opt-in mechanism) 启用。经过更广泛的测试并听取社区反馈后,我们计划在后续的版本中,将所有平台的 XNNPACK 后端设置为默认启用。
性能提升
TensorFlow Lite 中经 XNNPACK 加速的推理已应用于生产环境的 Google 产品,我们也观察到其在各种神经网络架构和移动处理器上的速度得到了显著提升。XNNPACK 后端将 Pixel 3a Playground 中的背景分割速度提高了 5 倍,并将 ARCore 中 Augmented Faces API 的神经网络模型速度提升了 2 倍。
我们发现,XNNPACK 后端对小型神经网络模型和低端手机上的 TensorFlow Lite 助益最大。下方提供了在九种公共模型上进行的基准测试,涵盖了数种常见的计算机视觉任务:
- MobileNet v2 图像分类
- MobileNet v3-Small 图像分类
- DeepLab v3 分割
- BlazeFace 人脸检测
- SSDLite 2D 对象检测
- Objectron 3D 对象检测
- Face Mesh 特征点
- MediaPipe Hands 特征点
- KNIFT 局部特征描述符
相较于 5 款手机上的默认后端,使用 XNNPACK 后端的 TensorFlow Lite 的单线程推理速度有所提高(数值越高越好)
相较于 5 款桌面设备、笔记本电脑和嵌入式设备的默认后端,使用 XNNPACK 后端的 TensorFlow Lite 的单线程推理速度有所提高(数值越高越好)
如何使用 XNNPACK 后端?
XNNPACK 后端已包含在 TensorFlow Lite 2.3 预构建二进制文件中,但是需要通过显式运行时选择加入机制来启用。我们正在努力在将来的版本中默认启用它。
在 Android/Java 上选择启用 XNNPACK 后端
预构建的 TensorFlow Lite 2.3 Android 归档 (AAR) 已包含 XNNPACK,只需一行代码即可在 InterpreterOptions
对象中启用:
Interpreter.Options interpreterOptions = new Interpreter.Options ();
interpreterOptions.setUseXNNPACK (true);
Interpreter interpreter = new Interpreter (model, interpreterOptions);
在 iOS/Swift 上选择启用 XNNPACK 后端
针对 iOS 的预构建 TensorFlow Lite 2.3 CocoaPods 同样也包含 XNNPACK,同时具有在 InterpreterOptions
类中启用此后端的机制:
var options = InterpreterOptions ()
options.isXNNPackEnabled = true
var interpreter = try Interpreter (modelPath: "model/path", options: options)
在 iOS/Objective-C 上选择启用 XNNPACK 后端
在 iOS 上,XNNPACK 推理可通过 Objective-C 或 TFLInterpreterOptions
类中的新属性启用 :
TFLInterpreterOptions *options = [[TFLInterpreterOptions alloc] init];
options.useXNNPACK = YES;
NSError *error;
TFLInterpreter *interpreter =
[[TFLInterpreter alloc] initWithModelPath:@"model/path"
options:options
error:&error];
在 Windows、Linux 和 Mac 上选择启用 XNNPACK 后端
Windows、Linux 和 Mac 上的 XNNPACK 后端可通过构建时选择加入机制启用。在使用 Bazel 构建 TensorFlow Lite 时,只需添加 --define tflite_with_xnnpack=true
即可启用 XNNPACK 后端,默认情况下 TensorFlow Lite 解释器将使用此后端。
使用 TensorFlow Lite 模型试用 XNNPACK
您可以使用 TensorFlow Lite 基准测试工具,通过 XNNPACK 来评估 TensorFlow Lite 模型的性能。即使在构建基准测试工具时没有加入 --define tflite_with_xnnpack=true
Baze 选项,您也可以通过如下 --use_xnnpack=true
标记轻松启用 XNNPACK。
adb shell /data/local/tmp/benchmark_model \
--graph=/data/local/tmp/mobilenet_quant_v1_224.tflite \
--use_xnnpack=true \
--num_threads=4
可加速哪些操作?
XNNPACK 后端目前支持 TensorFlow Lite 浮点算子的子集(请参阅 文档,了解详细信息和限制)。XNNPACK 支持 32 位浮点模型和使用 16 位浮点量化进行加权的模型,但不支持对权重或激活进行定点量化的模型。但是,您无需将模型限制为仅使用 XNNPACK 支持的算子:任何不受支持的算子都将以透明方式回退到 TensorFlow Lite 中的默认实现。
研究展望
这只是 XNNPACK 后端的首个版本。根据社区反馈,我们打算增加以下改进:
- Fast Sparse ConvNets 算法集成
- 最新 ARM 处理器上的半精度推理
- 定点表示中的量化推理
- Fast Sparse ConvNets
希望您能在 GitHub 和 StackOverflow 页面上积极发表您的想法和建议。
致谢
衷心感谢 Frank Barchard、Chao Mei、Erich Elsen、Li Yunlu、Jared Duke、Artiosim Ablavatski、Juhyun Lee、Andrei Kulik、Matthias Grundmann、Sameer Agarwal、Lawrence Chan 和 Sarah Sirajuddin
原文:Accelerating TensorFlow Lite with XNNPACK Integration
中文发布:TensorFlow 公众号