之前的文章中介绍的使用 Tensorflow 训练的模型要么只能运行在 PC 端,要么需要云端的支持。随着智能手机和物联网设备的普及,能够在智能手机甚至嵌入式设备直接运行的模型需求就越来越高。这篇文章就开始介绍 Tensorflow Lite, 这个能够运行在智能手机和 嵌入式设备的开源深度学习框架。
通常,我们会在 PC 或者云端建立模型,并对模型进行训练,然后将模型转换成 Tensorflow Lite 的格式,并最终部署到终端设备上,这篇文章我们就用 Fashion MNIST 的数据集,建立并训练模型,并采用模拟器的方式部署到终端设备上进行测试。
1. 数据的加载和训练
这个部分的内容与之前Tensorflow 2.0 快速入门内容重复,在这里就不过多赘述了。但是值得注意的是,之前的文章我们都是使用的 keras 的数据集,其数据格式是 numpy。Fasion MINST 是从 tensorflow_datasets
中直接加载的。将数据集分为 80% 训练集,10% 测试集和10%验证集。tfds的详细使用说明请参考官方文档。
1 | import tensorflow_datasets as tfds |
数据经过预处理之后,我们使用 Keras 的 API 快速搭建了一个五层的 CNN 神经网络并使用 model.fit
对模型进行了训练。
2. 模型的保存与转换
训练好的模型这里使用了 tf.save_model.save() 将模型保存在了指定目录。
1 | export_dir = 'saved_model/1' |
本文的重点是模型转换,在Tensorflow Lite 中,使用 TFLiteCoverter
可以轻松将模型转换成 Tensorflow Lite 的模型。
1 | # Use the TFLiteConverter SavedModel API to initialize the converter |
3. 模型的优化
converter 在默认的情况下是将模型权重从32位浮点数转换成8位整数从而大大减小模型的大小。
1 | converter.optimizations = [tf.lite.Optimize.DEFAULT] |
我们也可以将模型手动调整为16位浮点数
1 | converter.optimizations = [tf.lite.Optimize.DEFAULT] |
当然除了 default 模式,官方也提供了精度优先和大小优先的优化模式,详细内容参考官方文档
1 | tf.lite.Optimize.OPTIMIZE_FOR_LATENCY |
4. 模型测试
到这里,实际上我们就可以将转换成 Tensorflow Lite 的模型部署到设备上进行测试了,但是此时,我们并不知道模型的性能如何,Tensorflow Lite 提供了模拟器,我们可以轻松部署在模拟器上对转换后的模型进行测试。
测试模型分为三步,
第一步:加载 TFLite 模型,部署tensor
第二步:获取 input 和 output index
第三步:加载数据并获取结果
1 | # Step 1: Load TFLite model and allocate tensors. |
5. 总结
Tensorflow Lite 在PC 或者云端的训练和测试可以分为三个步骤: 1. 数据加载,模型搭建与的训练。2. 模型的保存与转换。3.模型的测试。
经过这三个步骤之后,我们就可以将转换后的模型部署在终端设备上了,Tensorflow Lite 不仅可以支持 Android 和 iOS 的智能手机也支持raspberry pi 智能手环这样的嵌入式设备,如果有机会将在后面的文章中给大家介绍。
相关文章
强化学习——轻松用 Keras 一步一步搭建DQN模型
DQN——图解并轻松上手深度Q-Learning
AI学习笔记——MDP(Markov Decision Processes马可夫决策过程)简介
AI学习笔记——Q Learning
AI学习笔记——Sarsa算法
AI学习笔记——卷积神经网络(CNN)