如何使用 Python 使用 Tensorflow 从磁盘加载花卉数据集和模型?
可以使用‘image_dataset_from_directory’方法使用 Tensorflow 从磁盘加载花卉数据集和模型。
阅读更多: 什么是 TensorFlow,以及 Keras 如何与 TensorFlow 配合使用来创建神经网络?
包含至少一个层的神经网络称为卷积层。我们可以使用卷积神经网络来构建学习模型。
图像分类迁移学习背后的直觉是,如果一个模型是在大型通用数据集上训练的,那么这个模型可以有效地用作视觉世界的通用模型。它会学习特征图,这意味着用户不必从头开始在大型数据集上训练大型模型。
TensorFlow Hub 是一个包含预训练 TensorFlow 模型的存储库。 TensorFlow 可用于微调学习模型。
我们将了解如何将 TensorFlow Hub 中的模型与 tf.keras 结合使用,使用 TensorFlow Hub 中的图像分类模型。 完成此操作后,可以执行迁移学习以微调自定义图像类别的模型。这是通过使用预训练的分类器模型来获取图像并预测其内容来完成的。这可以在不需要任何训练的情况下完成。
我们正在使用 Google Colaboratory 运行以下代码。 Google Colab 或 Colaboratory 可帮助在浏览器上运行 Python 代码,无需配置,并可免费访问 GPU(图形处理单元)。Colaboratory 是在 Jupyter Notebook 之上构建的。
示例
print("花卉数据集") data_root = tf.keras.utils.get_file( 'flower_photos','https://storage.googleapis.com/download.tensorflow.org/example_images/flower_photos.tgz', untar=True) print("使用 image_dataset_from_directory 将磁盘上的图像加载到模型中") batch_size = 32 img_height = 224 img_width = 224 train_ds = tf.keras.preprocessing.image_dataset_from_directory( str(data_root), validation_split=0.2, subset="training", seed=123, image_size=(img_height, img_width), batch_size=batch_size)
代码来源 −https://www.tensorflow.org/tutorials/images/transfer_learning_with_hub
输出
花卉数据集 Downloading data from https://storage.googleapis.com/download.tensorflow.org/example_images/flower_photos.tgz 228818944/228813984 [==============================] - 4s 0us/step 使用 image_dataset_from_directory 将磁盘上的图像数据加载到模型中 找到属于 5 个类别的 3670 个文件。 使用 2936 个文件进行训练。
解释
- 如果我们需要使用不同的类别来训练模型,可以使用来自 TFHub 的模型。
- 这将有助于通过重新训练模型的顶层来训练自定义图像分类器。
- 这将有助于识别我们数据集中的类别。
- 我们将为此使用虹膜数据集。
- 使用 image_dataset_from_directory 使用磁盘外的图像来训练模型。