単純(ナイーブ)ベイズ分類器のPython実装

目次

はじめに

このガイドでは、Pythonを使用して単純ベイズ分類器を実装する方法をステップバイステップで詳細に説明します。単純ベイズ分類器は、特にテキストデータの分類に有用な機械学習アルゴリズムですが、ここではIris(アイリス花)データセットを使った分類問題に適用する方法を見ていきます。このガイドは、機械学習の初学者が理解しやすいよう、各ステップに丁寧な説明を加えています。

実装手順

ライブラリのインポート

まずはじめに、必要なライブラリをインポートします。ここで使用するnumpyは数値計算用ライブラリ、matplotlib.pyplotはグラフ描画用ライブラリ、pandasはデータ分析用ライブラリです。

import numpy as np
import matplotlib.pyplot as plt
import pandas as pd

データセットのインポートと初期処理

Irisデータセットをロードし、必要な前処理を行います。このデータセットには、アイリス花のがく片と花びらのサイズが含まれており、3種類のアイリス花(Setosa、Versicolour、Virginica)を分類するために使用されます。

from sklearn.datasets import load_iris
iris = load_iris()
X = iris.data[:, :2]  # 2つの説明変数(がく片の長さと幅)を選択
y = iris.target  # 目的変数(アイリスの種類)

このコードは、load_iris関数を使ってIrisデータセットをロードし、Xにはがく片の長さと幅の2つの特徴量を、yには各サンプルの花の種類を格納しています。

データセットを訓練セットとテストセットに分割

モデルの性能を正しく評価するために、データセットを訓練用とテスト用に分割します。訓練セットでモデルを学習させ、テストセットでモデルの性能を評価します。

from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.25, random_state = 0)

train_test_split関数は、test_size=0.25によってデータセットの25%をテストセットとして分割し、残りの75%を訓練セットとしています。random_state=0は分割を再現可能にするための乱数シードです。

特徴量のスケーリング

機械学習モデルでは、すべての特徴量が同じスケールであることが望ましいため、特徴量のスケーリングを行います。

from sklearn.preprocessing import StandardScaler
sc = StandardScaler()
X_train = sc.fit_transform(X_train)
X_test = sc.transform(X_test)

StandardScalerは、特徴量を平均0、分散1に標準化します。fit_transformメソッドで訓練データに対するスケーリングを行い、transformメソッドでテストデータに対して同じスケーリングを適用します。

訓練セットでモデルを学習

GaussianNBクラスを使用して、ナイーブベイズ分類器のモデルを訓練します。

from sklearn.naive_bayes import GaussianNB
classifier = GaussianNB()
classifier.fit(X_train, y_train)

GaussianNBはガウス分布を仮定したナイーブベイズ分類器で、fitメソッドにより訓練データを使ってモデルを学習させます。

新しい結果の予測

学習したモデルを使用して、新しいデータポイントの分類を予測します。

new_prediction = classifier.predict(sc.transform([[5.0, 3.5]]))
print(new_prediction)  #0:Setosa, 1:Versicolour, 2:Virginica

出力:

[0] #0:Setosa

ここでは、新しいデータポイントに対して予測を行い、その予測されたクラスを出力しています。iris.target_namesを使用して、数値のクラスラベルを花の種類の名前に変換しています。

テストセットで予測

テストセットに対する予測を行い、モデルの性能を評価します。

y_pred = classifier.predict(X_test)

混同行列による精度の確認

予測結果と実際のラベルを比較して、モデルの精度を評価します。

from sklearn.metrics import confusion_matrix, accuracy_score
cm = confusion_matrix(y_test, y_pred)
print(cm)
print(accuracy_score(y_test, y_pred))

出力:

[[13  0  0]
 [ 0 12  4]
 [ 0  5  4]]
0.7631578947368421

confusion_matrix関数で混同行列を計算し、accuracy_score関数で正解率を求めます。

訓練セットでの結果を可視化

訓練セットにおけるモデルのパフォーマンスを視覚化することで、モデルがどのようにデータを分類しているかを確認できます。

from matplotlib.colors import ListedColormap
X_set, y_set = sc.inverse_transform(X_train), y_train
X1, X2 = np.meshgrid(np.arange(start = X_set[:, 0].min() - 1, stop = X_set[:, 0].max() + 1, step = 0.01),
                     np.arange(start = X_set[:, 1].min() - 1, stop = X_set[:, 1].max() + 1, step = 0.01))
plt.contourf(X1, X2, classifier.predict(sc.transform(np.array([X1.ravel(), X2.ravel()]).T)).reshape(X1.shape),
             alpha = 0.75, cmap = ListedColormap(('red', 'green', 'blue')))
plt.xlim(X1.min(), X1.max())
plt.ylim(X2.min(), X2.max())
for i, j in enumerate(np.unique(y_set)):
    plt.scatter(X_set[y_set == j, 0], X_set[y_set == j, 1],
                c=ListedColormap(('red', 'green', 'blue'))(i), label=f'{iris.target_names[j]} ({j})')
plt.title('Naive Bayes (Training set)')
plt.xlabel('Sepal length')
plt.ylabel('Sepal width')
plt.legend()
plt.show()

出力:

このコードブロックでは、訓練セットのデータポイントと分類境界をプロットしています。ListedColormapを使って、異なるクラスを異なる色で表示しています。これにより、モデルがデータをどの程度正確に分類できているかが視覚的にわかります。

テストセットでの結果を可視化

テストセットに対するモデルのパフォーマンスも同様に視覚化します。これにより、モデルが未知のデータに対してどの程度うまく一般化しているかを評価できます。

X_set, y_set = sc.inverse_transform(X_test), y_test
X1, X2 = np.meshgrid(np.arange(start = X_set[:, 0].min() - 1, stop = X_set[:, 0].max() + 1, step = 0.01),
                     np.arange(start = X_set[:, 1].min() - 1, stop = X_set[:, 1].max() + 1, step = 0.01))
plt.contourf(X1, X2, classifier.predict(sc.transform(np.array([X1.ravel(), X2.ravel()]).T)).reshape(X1.shape),
             alpha = 0.75, cmap = ListedColormap(('red', 'green', 'blue')))
plt.xlim(X1.min(), X1.max())
plt.ylim(X2.min(), X2.max())
for i, j in enumerate(np.unique(y_set)):
    plt.scatter(X_set[y_set == j, 0], X_set[y_set == j, 1],
                c=ListedColormap(('red', 'green', 'blue'))(i), label=f'{iris.target_names[j]} ({j})')
plt.title('Naive Bayes (Test set)')
plt.xlabel('Sepal length')
plt.ylabel('Sepal width')
plt.legend()
plt.show()

出力:

テストセットでの結果を可視化する際にも、訓練セットの結果と同様の手順を踏みます。このプロセスを通じて、モデルが新しいデータに対してどれだけ効果的に機能するかを視覚的に確認することができます。

これらのステップを実行することで、単純ベイズ分類器を使った機械学習プロジェクトの基本的なフローを完了できます。実践を通じて、より深い理解を得られることを願っています。

まとめ

このガイドでは、単純ベイズ分類器の基本的な概念から、Pythonを使った具体的な実装方法までを詳細に説明しました。ステップごとに丁寧な説明を加えることで、機械学習の初学者でも理解しやすい内容となるよう努めました。単純ベイズ分類器は、その名の通り比較的シンプルなアルゴリズムですが、多くの実際の問題に対して有効な解を提供できる強力なツールです。このガイドが、機械学習への理解を深める一助となれば幸いです。

この記事が気に入ったら
フォローしてね!

この記事が参考になった方はシェアしてね!
  • URLをコピーしました!

本コンテンツへの意見や質問

コメントする

目次