返回文章列表

電腦視覺機器學習實務應用

本文探討電腦視覺中機器學習的實務應用,涵蓋從基礎到進階的技術,包含影像分類別、目標檢測、影像分割等核心概念。透過 TensorFlow 和 Keras

機器學習 電腦視覺

隨著深度學習技術的蓬勃發展,機器學習在電腦視覺領域的應用日益廣泛,本文旨在提供從基礎到進階的實務指引,帶領讀者運用 TensorFlow 和 Keras 等框架建構高效的電腦視覺應用。內容涵蓋影像資料的處理、模型的選擇與訓練、以及效能的評估與最佳化,並探討卷積神經網路(CNN)、遷移學習等進階技術,搭配 YOLO、Mask R-CNN 等物件檢測和影像分割模型的實作,讓讀者能有效地將機器學習技術應用於影像分類別、目標檢測、影像分割等實際場景。本文也強調資料預處理和訓練流程最佳化的重要性,以提升模型的效能和訓練效率。

電腦視覺的實務機器學習:從基礎到進階應用

機器學習在電腦視覺中的角色

機器學習(Machine Learning)是電腦視覺(Computer Vision)領域中的關鍵技術,能夠讓電腦系統從資料中學習並改進其對視覺資訊的理解與處理能力。近年來,隨著深度學習(Deep Learning)技術的快速發展,機器學習在電腦視覺中的應用變得更加廣泛和深入。

深度學習的應使用案例項

在電腦視覺領域,深度學習被廣泛應用於影像分類別、目標檢測、影像分割等任務。這些應用不僅提升了電腦視覺系統的效能,也推動了諸如自動駕駛、醫療影像分析等領域的發展。

電腦視覺中的機器學習模型

在電腦視覺任務中,選擇合適的機器學習模型至關重要。以下是一些常見的模型和技術:

影像資料集與資料讀取

在進行電腦視覺任務時,首先需要準備合適的資料集。以「5-Flowers」資料集為例,該資料集包含了五種不同花卉的影像。讀取和視覺化這些影像資料是進行後續模型訓練的前置步驟。

import tensorflow as tf
from tensorflow.keras.preprocessing.image import load_img, img_to_array

# 載入影像並轉換為陣列
img = load_img('path/to/image.jpg')
img_array = img_to_array(img)

使用Keras建立線性模型

Keras是一個高階神經網路API,可以簡化模型的建立過程。以下是一個簡單的線性模型的範例:

from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Flatten

model = Sequential([
    Flatten(input_shape=(224, 224, 3)),
    Dense(128, activation='relu'),
    Dense(5, activation='softmax')
])

#### 內容解密:
1. **模型架構**使用`Sequential`模型定義一個線性堆積疊的神經網路
2. **輸入層**:`Flatten`層將輸入的影像展平成一維向量輸入形狀為`(224, 224, 3)`,表示影像大小為224x224且具有3個顏色通道
3. **隱藏層**第一個`Dense`層包含128個神經元使用ReLU啟用函式進行非線性轉換有助於模型學習複雜特徵
4. **輸出層**最後一個`Dense`層輸出5個類別的機率分佈使用Softmax啟用函式確保輸出總和為1適用於多類別分類別任務

卷積神經網路(CNN)

卷積神經網路是電腦視覺中最常用的深度學習模型之一,能夠有效地從影像中提取特徵。以下是一些關鍵的CNN架構:

  1. 卷積層與池化層:卷積層透過應用不同的濾波器來提取影像特徵,而池化層則用於降低特徵圖的維度,從而減少計算量並防止過擬合。
from tensorflow.keras.layers import Conv2D, MaxPooling2D

model.add(Conv2D(32, (3, 3), activation='relu', input_shape=(224, 224, 3)))
model.add(MaxPooling2D((2, 2)))

#### 內容解密:
1. **卷積層Conv2D**
   - 使用32個大小為3x3的濾波器提取影像特徵
   - `activation='relu'`表示使用ReLU啟用函式進行非線性轉換有助於捕捉複雜特徵

2. **池化層MaxPooling2D**
   - 使用2x2的最大池化來降低特徵圖的維度將輸入尺寸減半
   - 這樣可以減少計算量並保留主要特徵有助於防止過擬合
  1. 遷移學習與微調:利用預訓練模型(如VGG19、ResNet)進行遷移學習,可以加速模型的訓練過程並提升效能。微調則是對預訓練模型的某些層進行進一步訓練,以適應特定的任務。
from tensorflow.keras.applications import VGG19

base_model = VGG19(weights='imagenet', include_top=False, input_shape=(224, 224, 3))

#### 內容解密:
1. **載入預訓練模型**使用`VGG19`模型並載入在ImageNet資料集上預訓練的權重
2. **`include_top=False`**不包含原始模型的頂層全連線層),以便自定義輸出層來適應特定任務
3. **`input_shape=(224, 224, 3)`**指定輸入影像的大小和通道數確保與預訓練模型的輸入要求一致

物件檢測與影像分割

物件檢測和影像分割是電腦視覺中的兩個重要任務。前者旨在識別影像中的物件及其位置,後者則是將影像劃分為不同的語義區域。

YOLO(You Only Look Once)

YOLO是一種實時物件檢測系統,能夠快速準確地識別影像中的多個物件。

from tensorflow.keras.models import load_model

yolo_model = load_model('yolo_model.h5')

#### 內容解密:
1. **載入YOLO模型**使用`load_model`函式載入預訓練的YOLO模型用於物件檢測任務
2. **`'yolo_model.h5'`**指定已訓練好的YOLO模型檔案路徑該檔案包含了模型的架構和權重

Mask R-CNN

Mask R-CNN是一種用於例項分割的深度學習模型,能夠同時進行物件檢測和畫素級別的分割。

from mrcnn.config import Config
from mrcnn.model import MaskRCNN

class MyConfig(Config):
    NAME = "my_config"
    IMAGES_PER_GPU = 2
    NUM_CLASSES = 1 + 80  # 背景 + 80個類別

model = MaskRCNN(mode='training', config=MyConfig(), model_dir='./logs')

#### 內容解密:
1. **`MyConfig`類別定義**自定義組態類別繼承自`Config`,用於設定Mask R-CNN模型的訓練引數
   - `NAME`:組態名稱用於識別不同的實驗或訓練任務
   - `IMAGES_PER_GPU`:每個GPU處理的影像數量設定為2表示每個GPU同時處理兩張影像可根據硬體資源調整
   - `NUM_CLASSES`:總類別數包括背景類別和80個目標類別共81類別

2. **初始化Mask R-CNN模型**
   - `mode='training'`:指定模型為訓練模式用於訓練新的權重
   - `config=MyConfig()`:將自定義的組態類別例項傳入用於設定模型的訓練引數如批次大小類別數等
   - `model_dir='./logs'`:指定模型檢查點和日誌的儲存目錄便於後續檢視訓練過程和還原訓練狀態

建立視覺資料集

建立一個高品質的視覺資料集是進行電腦視覺任務的基礎。資料集的品質直接影響模型的效能。

影像採集與標註

採集多樣化的影像是建立資料集的第一步。隨後,需要對這些影像進行標註,如分類別標籤、邊界框或分割掩碼。

  1. 手動標註:對於小規模資料集,可以手動進行標註。然而,這種方法耗時且成本較高。

  2. 自動標註:利用現有的工具或服務進行自動標註,可以大大提高效率。例如,使用主動學習(Active Learning)或弱監督學習(Weakly Supervised Learning)技術。

資料預處理

資料預處理是提升模型效能的重要步驟。常見的預處理方法包括影像縮放、歸一化、資料增強等。

使用Keras進行資料預處理

Keras提供了豐富的預處理層,可以方便地整合到模型中。

from tensorflow.keras.layers import Resizing, RandomFlip, RandomRotation

preprocessing_layers = [
    Resizing(224, 224),
    RandomFlip('horizontal'),
    RandomRotation(0.2)
]

#### 內容解密:
1. **`Resizing(224, 224)`**將輸入影像統一縮放到224x224畫素以滿足模型的輸入尺寸要求提高計算效率並保持輸入一致性
   
2. **`RandomFlip('horizontal')`**隨機對影像進行水平翻轉增強模型的泛化能力使其能夠適應不同方向的物體減少過擬合風險

3. **`RandomRotation(0.2)`**將影像在-0.2到0.2弧度範圍內隨機旋轉模擬不同角度下的物體提升模型對旋轉變化的魯棒性增強其在真實場景中的表現能力

訓練流程最佳化

最佳化訓練流程可以提高模型的訓練效率和效能。主要包括資料讀取最佳化、模型檢查點儲存、超引數調優等。

使用TensorFlow Records提高資料讀取效率

TensorFlow Records是一種高效的資料儲存格式,可以加速資料讀取過程。

import tensorflow as tf

# 將資料集寫入TFRecord檔案
def write_to_tfrecord(images, labels, tfrecord_file):
    writer = tf.io.TFRecordWriter(tfrecord_file)
    for img, label in zip(images, labels):
        # 將影像和標籤序列化並寫入TFRecord
        example = tf.train.Example(features=tf.train.Features(feature={
            'image': tf.train.Feature(bytes_list=tf.train.BytesList(value=[img.tobytes()])),
            'label': tf.train.Feature(int64_list=tf.train.Int64List(value=[label]))
        }))
        writer.write(example.SerializeToString())
    writer.close()

#### 內容解密:
1. **`write_to_tfrecord`函式**定義了一個將影像和對應標籤寫入TFRecord檔案的函式以實作高效的資料儲存和讀取
   
2. **`tf.io.TFRecordWriter`**建立一個TFRecord寫入器用於將序列化後的資料寫入指定的TFRecord檔案提高後續讀取效率

3. **`tf.train.Example`**構建一個`Example`協定緩衝區將影像資料和標籤序列化每個`Example`包含一個或多個`Feature`,用於儲存具體的資料值

4. **`tf.train.Features`**定義了`Example`中的特徵集合其中包含兩個特徵
   - `'image'`:將影像資料以位元組列表(`BytesList`)的形式儲存先將NumPy陣列轉換為位元組串再儲存以保留原始二進位制資料
   - `'label'`:將標籤以64位整數列表(`Int64List`)的形式儲存直接儲存整數值以表示類別或其他整數型標籤

5. **`writer.write(example.SerializeToString())`**將序列化後的`Example`寫入TFRecord檔案以緊湊的二進位制格式儲存便於高效讀取和解析

模型品質評估與持續評估

評估模型的品質是確保其在實際應用中表現良好的關鍵步驟。常見的評估指標包括準確率、精確率、召回率等。

使用TensorBoard進行視覺化監控

TensorBoard是一個強大的視覺化工具,可以用來監控模型的訓練過程,包括損失函式、準確率等指標的變化。

import tensorflow as tf

# 在訓練過程中記錄日誌
tensorboard_callback = tf.keras.callbacks.TensorBoard(log_dir='./logs')
model.fit(x_train, y_train, epochs=10, callbacks=[tensorboard_callback])

#### 內容解密:
1. **`tf.keras.callbacks.TensorBoard`**建立一個TensorBoard回撥函式用於在模型訓練過程中記錄日誌資訊以便後續視覺化分析訓練過程

2. **`log_dir='./logs'`**指定日誌檔案的儲存目錄為 `./logs`,TensorBoard會將訓練過程中的指標如損失準確率等儲存到該目錄下的檔案中便於後續載入視覺化

3. **`model.fit`**呼叫模型的 `fit` 方法開始訓練並傳入以下引數
   - `x_train``y_train`:分別是訓練資料和對應的標籤用於模型的訓練過程
   - `epochs=10`:設定訓練的輪數為10輪即模型會遍歷整個訓練集10次完成10個完整的前向傳播和反向傳播過程

4. **`callbacks=[tensorboard_callback]`**將剛建立的TensorBoard回撥函式傳入 `callbacks` 列表中使其在訓練過程中被呼叫記錄相關的日誌資訊如損失值準確率等),以便後續分析和最佳化模型

前言

機器學習在影像處理的應用正徹底改變醫療保健、製造業、零售業等眾多領域。許多以往難以解決的問題,現在可以透過訓練機器學習(ML)模型來識別影像中的物件,從而得到解決。本文旨在提供對支撐這一快速發展領域的ML架構的直觀解釋,並提供實用程式碼,以運用這些ML模型解決涉及分類別、測量、檢測、分割、表示、生成、計數等問題。

影像分類別是深度學習的「Hello World」。因此,本文也提供了一個實用的端對端深度學習介紹。它可以作為進入其他深度學習領域(如自然語言處理)的踏腳石。

您將學習如何為電腦視覺任務設計ML架構,並使用流行的、經過充分測試的TensorFlow和Keras預建模型進行模型訓練。您還將學習提高準確性和可解釋性的技術。最後,本文將教您如何設計、實作和調優用於影像理解任務的端對端ML管道。

本文適用物件

本文的主要讀者是希望在影像上進行機器學習的軟體開發人員。它適用於使用TensorFlow和Keras解決常見電腦視覺使用案例的開發人員。

書中討論的方法附有可在https://github.com/GoogleCloudPlatform/practical-ml-vision-book取得的程式碼範例。本文的大部分內容涉及開源的TensorFlow和Keras,無論您是在本地、Google Cloud還是在其他雲端執行程式碼,都能正常運作。

希望使用PyTorch的開發人員會發現文字解釋很有幫助,但可能需要尋找其他地方取得實用的程式碼片段。我們歡迎對程式碼範例的PyTorch等效實作做出貢獻;請向我們的GitHub儲存函式庫提交提取請求。

如何使用本文

我們建議您按順序閱讀本文。請務必閱讀、理解並執行書中GitHub儲存函式庫中的配套筆記本——您可以在Google Colab或Google Cloud的Vertex Notebooks中執行它們。我們建議在閱讀完文字的每個部分後,嘗試執行程式碼,以確保您完全理解所介紹的概念和技術。我們強烈建議在進入下一章之前完成每一章的筆記本。

Google Colab是免費的,足以執行本文中的大多數筆記本;Vertex Notebooks功能更強大,因此將幫助您更快地執行筆記本。第3、4、11和12章中更複雜的模型和更大的資料集將受益於使用Google Cloud TPUs。由於本文中的所有程式碼都是使用開源API編寫的,因此程式碼也應該在任何其他具有最新版本TensorFlow的Jupyter環境中工作,無論是在您的筆記型電腦上、Amazon Web Services(AWS)Sagemaker還是Azure ML上。不過,我們尚未在這些環境中進行測試。如果您發現需要在其他環境中進行任何更改才能使程式碼運作,請提交提取請求,以幫助其他讀者。

本文中的程式碼以Apache開源許可證提供給您。它主要用作教學工具,但可以作為您生產模型的起點。

本文的組織結構

本文的其餘部分組織如下:

  • 在第2章中,我們介紹機器學習、如何讀取影像以及如何訓練、評估和預測ML模型。第2章中涵蓋的模型是通用的,因此在影像上效果不佳,但本章介紹的概念對於本文的其餘部分至關重要。
  • 在第3章中,我們介紹了一些適用於影像的機器學習模型。我們從遷移學習和微調開始,然後介紹了一系列卷積模型,這些模型的複雜度隨著章節深入而增加。
  • 在第4章中,我們探討了使用電腦視覺來解決物件檢測和影像分割問題。第3章中介紹的任何骨幹架構都可以在第4章中使用。

內容解密:

本段落主要介紹了本文的主要內容和適用物件,並提供了使用本文的建議和方法。主要涵蓋了機器學習在影像處理上的應用,以及本文如何幫助讀者學習相關知識和技術。同時,也提到了本文的組織結構和程式碼的使用方式。

# 範例程式碼:匯入必要的函式庫
import tensorflow as tf
from tensorflow import keras

內容解密:

這段程式碼展示瞭如何匯入TensorFlow和Keras,這兩個在本文中用於構建和訓練機器學習模型的關鍵函式庫。import tensorflow as tf 匯入了TensorFlow並將其別名設為tf,而 from tensorflow import keras 則匯入了Keras API,它是一個高階神經網路API,能夠執行在TensorFlow之上。

# 範例程式碼:建立一個簡單的神經網路模型
model = keras.Sequential([
    keras.layers.Dense(64, activation='relu', input_shape=(784,)),
    keras.layers.Dense(10, activation='softmax')
])

內容解密:

這段程式碼建立了一個簡單的神經網路模型,使用Keras的Sequential API。第一層是一個具有64個單元、使用ReLU啟用函式的全連線層,輸入形狀為(784,),這通常用於處理28x28畫素的手寫數字影像。第二層是一個具有10個單元、使用softmax啟用函式的全連線層,用於輸出10個類別的機率分佈。