TensorFlow Lite 简介
tensorflowserver side programmingprogramming
TensorFlow Lite 是一个移动库,旨在将模型部署到移动设备、微控制器和边缘设备上。它附带的工具可从五个方面(延迟、隐私、连接、大小和功耗)实现移动设备上的设备端机器学习。
它支持 Android、iOS、嵌入式 Linux 和微控制器。支持 Java、Swift、Objective C、C++ 和 Python 等多种语言。还提供硬件加速和模型优化。
本文档提供了机器学习项目的端到端示例,例如图像分类、目标检测、问答、姿态估计、文本分类以及更多跨平台的机器学习项目。
在 Tensorflow Lite 中开发模型包含两个方面:
构建 Tensorflow Lite 模型
运行推理。
构建 TensorFlow Lite 模型
Tensorflow Lite 模型采用一种称为 FlatBuffers 的可移植格式表示,即 .tflite 文件扩展名。它具有较小的体积和快速的推理能力,使 TensorflowLite 能够在计算和内存资源有限的场景下高效执行。它还包含关于模型、预处理和后处理流水线的元数据,这些元数据的格式为人类可读。
推理
推理是在设备上执行 Tensorflow Lite 模型的过程,这有助于对新数据进行预测。根据模型是否包含元数据,推理可以通过两种方式完成。
包含元数据− 使用开箱即用的 API 或构建自定义推理流水线。使用 Android 设备,您可以使用 Android Studio ML 模型绑定或 Tensorflow Lite 代码生成器生成代码包装器。
不包含元数据− 使用受多个平台支持的 Tensorflow Lite 解释器 API。