MENU

【Python実践】LightGBMで回帰問題と分類問題を解く(コピペで使えるサンプルコード付き)

機械学習のアルゴリズムは数多くありますが、「より高い精度を実現し、計算コストを抑えつつ大規模なデータにも柔軟に対応したい!」そんなときに頼れるのが LightGBM です。

LightGBMは、勾配ブースティング決定木(Gradient Boosting Decision Trees, GBDT)の強力なアルゴリズムをベースにしながら、高速な学習高い精度 を両立するように設計されています。決定木の構築においてリーフ重視の分岐(Leaf-wise approach)を採用することで、より最適な構造を作り出し、学習の効率を向上させています。また、過学習を抑制するための正則化 や、大規模データに対応するための工夫も施されています。

本記事では、LightGBMを活用して分類問題と回帰問題を解く方法を、サンプルコード付きで分かりやすく解説します。

Pythonでの実装方法はもちろん、ランダムフォレストや他のGBDT実装との違い、メリット・デメリット、パラメータチューニングのポイントまで幅広く網羅していますので、LightGBMを使ってモデルを改善したい方は、ぜひご一読ください。

目次

LightGBMとは

LightGBM は、勾配ブースティング決定木(Gradient Boosting Decision Tree, GBDT)の強力なアルゴリズムを基盤としたライブラリで、高速かつ高精度なモデルを構築できるのが特徴です。

LightGBMはGBDTのアンサンブル学習を活用し、回帰や分類など幅広い問題に対応可能です。複数の決定木を直列につなげて学習を進めることで、誤差を段階的に修正し、精度の高い予測モデルを構築します。さらに、LightGBM独自のリーフ重視の分岐(Leaf-wise approach)を採用することで、学習効率を向上させています。

また、ノイズに強く、非線形な関係も学習可能なため、大規模データの分析やKaggleコンペ、実務のデータサイエンスにおいても広く利用されています。

このような特性を活かし、LightGBMは高速でスケーラブルなモデルを求める場面で特に効果を発揮します。

LightGBMの仕組み

LightGBMの構築プロセスも、基本的にGBDTと同様のブースティングの考え方に基づいていますが、高速化と精度向上のための独自の工夫が施されています。

LightGBMの学習ステップ

  1. 残差の計算:
    初期モデルを作成し、各データに対して予測誤差(残差)を計算します。
  2. 弱学習器(決定木)の学習:
    残差を予測する小さな決定木を作成し、モデルに追加します。LightGBMでは、**リーフ重視の分岐(Leaf-wise approach)**を採用することで、より最適な構造を作り、学習を効率化しています。
  3. モデルの更新:
    新しい木の予測を加えることで全体のモデルが改善され、この処理を繰り返すことで誤差を少しずつ減らしていきます。また、LightGBMには過学習を抑えるための正則化手法や、計算速度を向上させるヒストグラムベースの分割が組み込まれています。

このように、LightGBMはGBDTの原理を活かしながら、高速な学習と高い精度を両立するように設計されています。

決定木・ランダムフォレストとの違い

特徴決定木ランダムフォレストLightGBM(GBDT)
構造1本の木複数の木(並列)複数の木(直列)
過学習のしやすさ高い低いやや高い(パラメータ調整が必要)
学習速度速い遅い高速(Leaf-wise分岐&ヒストグラム分割)
精度単純なデータで高い複雑なデータで高い非常に高い(チューニング前提)
特徴量選択全特徴量ランダムに一部選択全特徴量(重要度に基づく分割)
スケーラビリティ低い高い非常に高い(大規模データに対応)

LightGBMのメリット・デメリット

メリット

  • 高精度な予測: 多くのケースで最も精度の高いアルゴリズムの一つ
  • 非線形な関係にも対応: 複雑な特徴間の関係を捉えることが可能
  • 特徴量の重要度を可視化: どの特徴がどれだけモデルに貢献しているかを分析できる
  • 高速な学習: ヒストグラムベースの分割とLeaf-wiseアプローチで計算速度を向上
  • 柔軟なカスタマイズ性: 損失関数、木の深さ、学習率などを細かく調整可能

デメリット

  • 学習コストが高い: 木を1本ずつ順番に構築するため時間がかかる
  • ハイパーパラメータ調整が重要: 学習率や木の深さなどを適切に調整しないと過学習のリスクがある
  • ノイズに過敏: 特に小規模データセットでは過学習しやすい
  • リアルタイム用途にはやや不向き: 推論速度はランダムフォレストより遅

LightGBMに適したデータ

向いているデータ

  • 特徴量が多く、複雑なパターンを持つデータ
  • 高精度な予測が求められる業務(金融、医療、製造業など)
  • 適度な量の構造化データ(数値、カテゴリデータなど)
  • 回帰・分類どちらにも対応したいタスク

向いていないデータ

  • リアルタイム予測が必要なシステム(学習・推論速度がネック)
  • 非常に高次元・スパースなデータ(例:生のテキスト)
  • ノイズの多いデータ(過学習しやすいため注意が必要)

製造業におけるLightGBMの活用例

製造業において、LightGBMは次の用途で使われています。

用途概要タイプ具体例
異常検知センサーデータから異常パターンを検出し、予防保全や品質向上に貢献分類振動・温度・電流などの変動パターンから異常兆候を自動検出
故障予測機械の状態を学習し、故障の予兆を捉える分類異常振動の継続時間や加速度傾向をもとにベアリングの故障を予測
品質予測製造条件と品質データを関連づけ、不良品の発生を抑制回帰温度・圧力・回転数から製品の寸法ばらつきを予測
需要予測時系列データに基づき、将来の需要や在庫変動を予測回帰生産計画や仕入れ戦略の最適化
故障分類故障が発生した際、その原因(電気系/機械系など)を分類分類ログデータやセンサー値から適切な対応部門を特定
生産量最適化プロセス条件を調整し、最大効率の生産体制を実現回帰材料投入量・加工時間・気温などから最適な生産条件を推定
エネルギー消費予測設備や工場全体の電力使用量を予測し、省エネ施策やコスト削減に貢献回帰月別・時間帯別の使用傾向からピーク電力を予測し契約電力を最適化

LightGBMによる分類問題の解き方

1. 事前準備(ライブラリ導入とデータ準備)

まず、以下のライブラリをインストールしてください。

pip install matplotlib
pip install pandas
pip install scikit-learn
pip install lightgbm

次に、LightGBMの分類モデルを試すためのダミーデータを作成します。今回は、7つの特徴量から4クラスを分類するデータを使用します。製造業での応用としては、センサーによる異常検知や製品の不良予測などに置き換えることができます。

from sklearn.datasets import make_classification
import pandas as pd

# ダミーデータ作成
X, y = make_classification(
    n_samples=1000,
    n_features=7,
    n_informative=5,
    n_redundant=2,
    n_classes=4,
    n_clusters_per_class=1,
    flip_y=0.05,
    random_state=42
)

# データフレーム化
df = pd.DataFrame(X, columns=[f"特徴量_{i+1}" for i in range(7)])
df['正解データ'] = y

# ファイルに保存(任意)
df.to_csv("classification_data.csv", index=False)

特徴量_1~7 は一見無秩序に見えるかもしれませんが、LightGBMを用いることで目的変数(分類先)を高精度に予測できます。

LightGBMを用いた分類モデルの学習と評価(サンプルコードと解説)

以下は、LightGBMを用いて分類モデルの学習と評価を行うサンプルコードです。
このまま実行すると学習が始まり、精度評価指標(混同行列、accuracyなど)が出力されます。
学習と評価の部分は、train_lightgbm_classifierという名前で関数化していますので、コピペでお使いいただけます。

import pandas as pd
import lightgbm as lgb
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score, classification_report, confusion_matrix

def train_lightgbm_classifier(df, target, columns, params=None, test_size=0.2, random_state=42):
    """
    LightGBMを用いた分類モデルを構築し、レポートを出力する関数。

    引数:
    df : pandas.DataFrame
        データを含むデータフレーム。
    target : str
        予測対象となるターゲット列名。
    columns : list of str
        使用する特徴量の列名のリスト。
    params : dict, optional (default=None)
        LightGBMのハイパーパラメータ。
    test_size : float, optional (default=0.2)
        テストデータの割合。
    random_state : int, optional (default=42)
        乱数シード。

    戻り値:
    model : LGBMClassifier
        訓練されたLightGBMモデルのオブジェクト。
    cm : numpy.ndarray
        混同行列を表す2次元配列。
    """
    if params is None:
        params = {
            'objective': 'multiclass',
            'num_class': len(df[target].unique()),
            'metric': 'multi_logloss',
            'learning_rate': 0.1,
            'max_depth': -1,
            'num_leaves': 31
        }
    
    columns = [col for col in columns if col != target]
    X = df[columns]
    y = df[target]

    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=test_size, random_state=random_state)

    model = lgb.LGBMClassifier(**params, random_state=random_state)

    model.fit(X_train, y_train)

    y_pred = model.predict(X_test)

    accuracy = accuracy_score(y_test, y_pred)
    report = classification_report(y_test, y_pred, target_names=[str(i) for i in range(len(df[target].unique()))])
    cm = confusion_matrix(y_test, y_pred)

    print(f'正解率: {accuracy:.4f}')
    print('混同行列:')
    print(cm)
    print('分類レポート:')
    print(report)

    return model, cm

if __name__ == "__main__":
    df = pd.read_csv('classification_data.csv')
    model, cm = train_lightgbm_classifier(df, target='正解データ', columns=df.columns)

正解率: 0.9300
混同行列:
[[44 1 1 5]
[ 0 46 0 0]
[ 1 0 50 2]
[ 1 2 1 46]]
分類レポート:
precision recall f1-score support
0 0.96 0.86 0.91 51
1 0.94 1.00 0.97 46
2 0.96 0.94 0.95 53
3 0.87 0.92 0.89 50

accuracy 0.93 200
macro avg 0.93 0.93 0.93 200
weighted avg 0.93 0.93 0.93 200

ハイパーパラメータを指定する場合は、paramsに辞書形式で指定します。必要に応じて適宜値を書き換え、実行してください。

# 関数の呼び出し(ハイパーパラメータを指定)
train_lightgbm_classifier(df, target='正解データ', columns=df.columns, params={'n_estimators': 100})

分類結果(混同行列)の視覚化

混同行列を可視化すると、結果が直感的に分かり易くなります。下記がそのサンプルです。
plot_confusion_matrixという関数名にしていますので、コピペで利用可能です。

#---------------------------------------------------------------
# この部分に、前述した train_lightgbm_classifier関数 を張り付けて下さい
#---------------------------------------------------------------

import matplotlib.pyplot as plt
import seaborn as sns
from matplotlib import rcParams
import pandas as pd
import lightgbm as lgb
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score, classification_report, confusion_matrix

rcParams['font.family'] = 'Meiryo'

def plot_confusion_matrix(cm, class_names=[]):
    """
    混同行列をプロットする関数。

    引数:
    cm : numpy.ndarray
        混同行列を表す2次元配列。
    class_names : list of str, optional
        クラス名のリスト。省略すると連番が表示される
    """
    plt.figure(figsize=(10, 7))
    sns.heatmap(cm, annot=True, fmt='d', cmap='Blues', xticklabels=class_names, yticklabels=class_names)
    plt.xlabel('予測ラベル')
    plt.ylabel('実際のラベル')
    plt.title('混同行列')
    plt.show()

if __name__ == "__main__":
    # データを読み込む
    df = pd.read_csv('classification_data.csv')

    # LightGBM分類器の学習(ハイパーパラメータはデフォルト値を使用)
    model, cm = train_lightgbm_classifier(df, target='正解データ', columns=df.columns)

    # クラス名を設定して混同行列をプロット
    class_names = df['正解データ'].unique().astype(str)
    plot_confusion_matrix(cm, class_names=class_names)

分類結果の評価

今回のテストデータに対してLightGBMで分類した結果を整理し、評価してみました。

正解率

正解率(Accuracy)0.93

モデルの全体的な精度は非常に高いと言えます。

混同行列

正解の分類クラスクラス 0の予測件数クラス 1の予測件数クラス 2の予測件数クラス 3の予測件数
クラス 044115
クラス 104600
クラス 200502
クラス 312146

クラス0は誤分類が7件、クラス1は誤分類が0件、クラス2は誤分類が2件、クラス3は誤分類が4件であるため、高い精度で分類されていることが分かります。

分類レポート

クラス適合率
(Precision)
再現率
(Recall)
F1スコア
(F1-Score)
サポート
(Support)
00.960.860.9151
10.941.000.9746
20.960.940.9553
30.870.920.8950
クラス適合率
(Precision)
再現率
(Recall)
F1スコア
(F1-Score)
サンプル数
正解率(Accuracy)--0.93200
マクロ平均0.930.930.93200
加重平均0.930.930.93200

この分類モデルは 高い精度を達成しており、特にクラス 1 の予測精度が非常に優れています。一方で、クラス 0 や クラス 3 では多少の誤分類が発生 しているため、さらなる改善を行うことで精度向上が期待できます。例えば、特徴量の選択やハイパーパラメータの最適化によって、誤分類の要因を減らすことができるかもしれません。

  • クラス 0:
    再現率(Recall)が 0.86 とやや低めであり、実際のクラス 0 に該当するデータが一部誤分類されている可能性があります。
  • クラス 1:
    再現率が 1.00 であり、クラス 1 のデータはすべて正しく分類されていることが確認できます。予測精度が非常に高いクラスです。
  • クラス 2:
    適合率(Precision)と再現率ともに高く、モデルがバランスの取れた分類を行えていることを示しています。
  • クラス 3:
    他のクラスと比べると適合率・再現率が若干低く、誤分類の発生率がやや高いですが、全体的には良好な結果が得られています。
  • マクロ平均(Macro Avg):
    各クラスの分類性能を均等に評価する指標であり、 0.93 という値は、モデルがすべてのクラスで安定した分類性能を発揮していることを示しています。
  • 加重平均(Weighted Avg):
    各クラスのデータ量の比率を考慮した評価指標であり、 0.93 とマクロ平均とほぼ一致していることから、クラス間のデータ量の偏りが少なく、モデルが全体として高精度な分類を行えていることがわかります。

適合率(Precision):正しく分類できた割合
再現率(Recall):取りこぼさなかった割合
マクロ平均(Macro Average):各クラスの平均値
加重平均(Weighted Average):各クラスの平均値にサンプル数(Support)で加重平均した値

分類結果の評価方法については「【Python実践】機械学習による分類モデルの予測精度を定量的に評価する [Accuracy,Precision,Recall,F1,ROC](コピペで使えるサンプルコード付き)」で詳しく説明しています。

LightGBMによる回帰問題の解き方

事前準備(ライブラリ導入とデータ準備)

事前に下記3つのライブラリをインストールしてください。

pip install matplotlib
pip install pandas
pip install scikit-learn
pip install lightgbm

下記は今回の回帰に使うダミーデータの生成プログラムです。7つの特徴量のデータとなります。

import numpy as np
import pandas as pd

# 特徴量の数
n_features = 7

# 各特徴量の標準偏差
std_devs = [1, 1, 1, 1, 1, 1, 1]

# 相関行列の設定(例: 1番目と2番目の特徴量が強い相関を持つ)
correlation_matrix = np.array([
    [1, 0.8, 0.2, 0.1, 0.1, 0.1, 0.1],
    [0.8, 1, 0.3, 0.2, 0.2, 0.2, 0.2],
    [0.2, 0.3, 1, 0.4, 0.3, 0.3, 0.3],
    [0.1, 0.2, 0.4, 1, 0.5, 0.5, 0.5],
    [0.1, 0.2, 0.3, 0.5, 1, 0.4, 0.4],
    [0.1, 0.2, 0.3, 0.5, 0.4, 1, 0.3],
    [0.1, 0.2, 0.3, 0.5, 0.4, 0.3, 1]
])

# 共分散行列の計算
covariance_matrix = np.outer(std_devs, std_devs) * correlation_matrix

# ダミーデータの生成
np.random.seed(42)
n_samples = 1000
data = np.random.multivariate_normal(np.zeros(n_features), covariance_matrix, size=n_samples)

# DataFrameに変換
df = pd.DataFrame(data, columns=[f'特徴量_{i+1}' for i in range(n_features)])

# 結果の確認
print(df.head())

# CSVファイルに保存
df.to_csv('regression_data.csv', index=False)

下記のグラフは、分類モデル用データ生成で紹介したplot_features_with_histogramを使って描画しました。

LightGBMによる回帰モデルの学習と評価(サンプルコードと解説)

以下は、LightGBMを用いて回帰モデルの学習と評価を行うサンプルコードです。
実行すると学習が始まり、精度評価指標(統計情報、平均絶対誤差、平均二乗誤差、重要度など)が出力されます。
学習と評価の部分は、train_lightgbm_regressorという名前で関数化していますので、コピペでお使いいただけます。

import pandas as pd
import numpy as np
import lightgbm as lgb
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error, mean_absolute_error, r2_score, mean_absolute_percentage_error

def train_lightgbm_regressor(df, target, columns, params=None, test_size=0.2, random_state=42):
    """
    LightGBMを用いた回帰モデルを学習させ、レポートを出力する関数。

    引数:
    df : pandas.DataFrame
        データを含むデータフレーム。
    target : str
        予測対象となるターゲット列名。
    columns : list of str
        使用する特徴量の列名のリスト。
    params : dict, optional (default=None)
        LightGBMのハイパーパラメータ。
    test_size : float, optional (default=0.2)
        テストデータの割合。
    random_state : int, optional (default=42)
        乱数シード。

    戻り値:
    model : LGBMRegressor
        訓練されたLightGBMモデルのオブジェクト。
    y_test : list
        テストに使った正解データ。
    y_pred : list
        予測した結果。
    """
    if params is None:
        params = {
            'objective': 'regression',
            'metric': 'rmse',
            'learning_rate': 0.1,
            'max_depth': -1,
            'num_leaves': 31,
            'n_estimators': 100
        }
    
    columns = [col for col in columns if col != target]
    X = df[columns]
    y = df[target]

    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=test_size, random_state=random_state)

    model = lgb.LGBMRegressor(**params, random_state=random_state)

    model.fit(X_train, y_train)

    y_pred = model.predict(X_test)

    mse = mean_squared_error(y_test, y_pred)
    rmse = np.sqrt(mse)
    mae = mean_absolute_error(y_test, y_pred)
    r2 = r2_score(y_test, y_pred)
    mape = mean_absolute_percentage_error(y_test, y_pred)

    print(f'{target}の統計情報:')
    print(f'最小値(Min): {y.min()}')
    print(f'最大値(Max): {y.max()}')
    print(f'平均値(Mean): {y.mean()}')
    print(f'標準偏差(Std): {y.std()}')
    print(f'分散(Var): {y.var()}')

    print(f'平均絶対誤差 (Mean Absolute Error): {mae}')
    print(f'平均二乗誤差 (Mean Squared Error): {mse}')
    print(f'ルート平均二乗誤差 (Root Mean Squared Error): {rmse}')
    print(f'平均絶対パーセンテージ誤差 (MAPE): {mape}')
    print(f'決定係数 (R^2 Score): {r2}')

    feature_importances = model.feature_importances_
    importance_df = pd.DataFrame({'特徴量 (Feature)': columns, '重要度 (Importance)': feature_importances})
    importance_df = importance_df.sort_values(by='重要度 (Importance)', ascending=False)
    
    print("\n特徴量の重要度:")
    print(importance_df)

    return model, y_test, y_pred

if __name__ == "__main__":
    df = pd.read_csv('regression_data.csv')
    model, y_test, y_pred = train_lightgbm_regressor(df, '特徴量_1', df.columns)

[LightGBM] [Warning] No further splits with positive gain, best gain: -inf
[LightGBM] [Warning] No further splits with positive gain, best gain: -inf
特徴量_1の統計情報:
最小値(Min): -3.4181790752853725
最大値(Max): 2.967258816333585
平均値(Mean): -0.018768452256335492
標準偏差(Std): 0.9893707041157269
分散(Var): 0.9788543901624494
平均絶対誤差 (Mean Absolute Error): 0.535554827360349
平均二乗誤差 (Mean Squared Error): 0.44214436609902225
ルート平均二乗誤差 (Root Mean Squared Error): 0.6649393702428984
平均絶対パーセンテージ誤差 (MAPE): 2.5367384439845213
決定係数 (R^2 Score): 0.6094393714171142
特徴量の重要度:
特徴量 (Feature) 重要度 (Importance)
2 特徴量_4 578
5 特徴量_7 519
3 特徴量_5 503
4 特徴量_6 490
0 特徴量_2 447
1 特徴量_3 433

今回使ったデータでは、No further splits with positive gain, best gain: -inf という警告が出ました。
これは、LightGBMが決定木を作成する際に利益のある分割を見つけられなかったことを意味します。

今回は使い方を説明するためのテストデータなので、これ以上の深追いは行いませんが、実際のデータで上記警告が出力された場合は、下記の内容を疑ってください。

データがすでに十分に分割されており、それ以上の改善が難しい → 汎化性能に影響がないかを確認
特徴量の情報量が不足している → 重要な特徴量が適切に選択されているか確認
max_depth や num_leaves の設定が不適切 → より複雑なモデルが必要な場合、これらを調整


回帰結果の可視化

回帰結果を可視化することで、実際の値と予測値との差、残差のバラつき、残差の分布状態が直感的に把握できます。下記がそのサンプルです。
plot_figuresという関数名にしていますので、コピペで利用可能です。

#------------------------------------------------------------------------
# この部分に、前述した train_lightgbm_regressor関数 を張り付けて下さい
#------------------------------------------------------------------------

def plot_figures(y_test, y_pred):

    residuals = y_test - y_pred

    fig, axs = plt.subplots(1, 4, figsize=(18, 5))

    axs[0].plot(y_test.values, label='実際の値 (Actual)', linestyle='-', marker=None)
    axs[0].plot(y_pred, label='予測値 (Predicted)', color='red', linestyle='-', marker=None)
    axs[0].set_xlabel('サンプルインデックス (Sample Index)')
    axs[0].set_ylabel('値 (Value)')
    axs[0].set_title('実際の値 VS 予測値\n(Comparison of Actual and Predicted Values)')
    axs[0].legend()

    axs[1].scatter(y_test, y_pred, alpha=0.3, label='予測値 (Predicted)')
    axs[1].plot([y_test.min(), y_test.max()], [y_test.min(), y_test.max()], 'r--', label='対角線 (y=x)')
    slope, intercept = np.polyfit(y_test, y_pred, 1)
    r2 = r2_score(y_test, y_pred)
    axs[1].plot(y_test, slope * y_test + intercept, color='blue', linestyle='-', linewidth=2, label=f'回帰線 (y={slope:.2f}x + {intercept:.2f}, $R^2$={r2:.2f})')
    axs[1].set_xlabel('実際の値 (Actual)')
    axs[1].set_ylabel('予測値 (Predicted)')
    axs[1].set_title('実際の値 vs 予測値\n(Actual vs Predicted)')
    axs[1].legend()

    axs[2].scatter(y_pred, residuals, alpha=0.3, label='残差 (Residuals)')
    axs[2].hlines(y=0, xmin=y_pred.min(), xmax=y_pred.max(), linestyles='dashed', label='y=0')
    residuals_mean = np.mean(residuals)
    residuals_std = np.std(residuals)
    sorted_indices = np.argsort(y_pred)
    sorted_y_pred = y_pred[sorted_indices]
    sorted_upper = residuals_mean + residuals_std
    sorted_lower = residuals_mean - residuals_std
    axs[2].axhline(y=residuals_mean, color='blue', linestyle='--', label=f'平均 (Mean): {residuals_mean:.2f}')
    axs[2].fill_between(sorted_y_pred, sorted_lower, sorted_upper, color='lightblue', alpha=0.4, label=f'標準偏差 (Std): {residuals_std:.2f}')
    axs[2].set_xlabel('予測値 (Predicted)')
    axs[2].set_ylabel('残差 (Residuals)')
    axs[2].set_title('残差プロット\n(Residual Plot)')
    axs[2].legend()

    axs[3].hist(residuals, bins=30, edgecolor='k', density=True, alpha=0.6, color='g')
    xmin, xmax = axs[3].get_xlim()
    x = np.linspace(xmin, xmax, 100)
    p = norm.pdf(x, residuals_mean, residuals_std)
    axs[3].plot(x, p, 'k', linewidth=2)
    axs[3].set_xlabel('残差 (Residuals)')
    axs[3].set_ylabel('頻度 (Frequency)')
    axs[3].set_title('残差のヒストグラム\n(Histogram of Residuals)')

    plt.tight_layout()
    plt.show()


if __name__ == "__main__":
    df = pd.read_csv('regression_data.csv')
    model, y_test, y_pred = train_lightgbm_regressor(df, target='特徴量_1', columns=df.columns)
    plot_figures(y_test, y_pred)

回帰結果の評価

精度の評価

指標
平均絶対誤差 (MAE)0.535554827360349
平均二乗誤差 (MSE)0.44214436609902225
ルート平均二乗誤差 (RMSE)0.6649393702428984
平均絶対パーセンテージ誤差 (MAPE)2.5367384439845213
決定係数 (R^2 Score)0.6094393714171142

平均絶対誤差 (MAE):実測値と予測値の絶対誤差の平均。実測値からのずれの平均。
平均二乗誤差 (MSE):実測値と予測値の誤差を2乗したものの平均。小さいほど予測が正確。
ルート平均二乗誤差(RMSE):MSEの平方根を取った値。平均的な誤差の大きさ。
平均絶対パーセンテージ誤差 (MAPE):誤差をパーセンテージで表示したもの。スケールに依存しない。
決定係数 (R² Score):デルがどれだけデータの分散を説明できるかを示す値。1に近いほどモデルが優秀。

MAE、MSE、RMSE、MAPEはそれぞれ誤差の指標です。これを評価する前に、予測対象となる特徴量_1の統計情報を確認しておきましょう。

最小値最大値平均値標準偏差分散
-3.41822.9673-0.018770.98940.9789

平均値は 0に近く、データの約 67% が -0.989~+0.989 の範囲に分布 しています。データのばらつきは比較的均一ですが、最小値と最大値に一定の広がりがあることが確認できます。

MAE、MSE、RMSE の値が比較的高く、誤差が多く含まれている ことが分かります。特に MAPE(2.2%) は一見すると小さい値ですが、MAPEの性質上、0に近いデータが多い場合は誤差が過小評価される可能性 があります。
従って、この結果だけでモデルの精度を判断するのは危険です。

また、決定係数 R² = 0.627 であり、予測の精度としては十分とは言えず、このモデルの実務利用は慎重に検討する必要があります。

次の3つ方法により、精度の改善を目指すべきです。

  • ハイパーパラメータの調整: モデルの設定を最適化することで予測精度を向上させる。
  • 特徴量の選択とエンジニアリング: 重要な特徴量を追加したり、不要な特徴量を削除する。
  • データの前処理: 標準化やスケーリングを行い、モデルの性能を向上させる。

可視化の結果からも、誤差が多く精度が低いことが直感的に読み取れます。

回帰結果の評価方法については「【Python実践】機械学習による回帰モデルの予測精度を定量的に評価する [MAE,MSE,RMSE,R2](コピペで使えるサンプルコード付き)」で詳しく説明しています。

特徴量の重要度

特徴量 (Feature)重要度 (Importance)
特徴量_4578
特徴量_7519
特徴量_5503
特徴量_6490
特徴量_2447
特徴量_3433

LightGBMでは、特徴量_1を予測する際に使った特徴量(2~7) において、予測にどの程度寄与したかを数値で表すことができます。

この結果を見ると、特徴量_4 の重要度が 578 と最も高く、続いて 特徴量_7、特徴量_5、特徴量_6 の重要度も比較的高いことがわかります。一方、すべての特徴量が一定の重要度を持っており、特定の特徴量だけで予測が行われているわけではない ことが確認できます。

このように、特徴量の重要度を分析することで、どの特徴量がモデルの予測に大きな影響を与えているかを把握 できます。

ハイパーパラメータ

予測精度を向上させるには、ハイパーパラメータの調整が重要です。LightGBMには数多くハイパーパラメータが用意されていますが、おおよそ下記の5種類が目安となります。

num_iterations(n_estimators): 木の数を増やすとモデルの安定性が向上しますが、計算コストも増加します。一般的には 100~500 の範囲で調整します。
max_depth: 過学習を防ぐために適切な深さを設定します。デフォルトは制限なし(-1)で、一般的には 3~10 の範囲で試します。
num_leaves: 一つの決定木が持つリーフ数を決定します。num_leaves ≈ 2^(max_depth) を目安に設定します。
subsample: 各決定木の学習に使うデータの割合を制限します。。汎化性能を向上させるため 0.8~1.0 の範囲で調整します。
colsample_bytree: 各決定木の学習に使用する特徴量の割合です。。sqrt(n_features) や log2(n_features) を設定すると効果的です。

LightGBMの主要なハイパーパラメータ設定

パラメータ名説明デフォルト値
n_estimators決定木の数。各木が前の木の誤差を修正しながら学習するため、通常はランダムフォレストより多めに設定。100
learning_rate各決定木の影響を調整する係数。値を小さくすると汎化性能が向上しやすいが、より多くの木が必要になる。0.1
max_depth各決定木の最大深さ。過学習を防ぐため通常は 浅め(3~10程度) に設定される。-1(制限なし)
num_leaves一つの決定木が持つリーフ数。num_leaves ≈ 2^(max_depth) を目安に設定。31
min_child_samplesリーフノードに必要なサンプルの最小数。値を大きくすると過学習を抑えられる。20
colsample_bytree各決定木が分割に使用する特徴量の割合。通常は sqrt(n_features)log2(n_features) を設定。1.0
subsample各決定木が使用するデータの割合。1.0 より小さくすると汎化性能が向上。1.0
random_state乱数シードを設定し、モデルの再現性を確保。None
verbose学習の進行状況を出力するレベル。0 は出力なし、1 は簡易出力、2 以上で詳細な進行状況を表示。0
boosting_type学習アルゴリズムの種類(gbdt, dart, goss など)。"gbdt"
warm_startTrue にすると、前回の学習結果を利用しながら追加学習を行うことができる。False

パラメータチューニング手法

ハイパーパラメータのチューニングで最もよく使われるグリッドサーチを使って、LightGBMをチューニングする関数のサンプルです。

import pandas as pd
import numpy as np
import lightgbm as lgb
from sklearn.model_selection import train_test_split, GridSearchCV
from sklearn.metrics import mean_squared_error, mean_absolute_error, r2_score, mean_absolute_percentage_error

def grid_search_lightgbm(df, target, columns, param_grid, test_size=0.2, random_state=42):
    """
    グリッドサーチを使用してLightGBMのハイパーパラメータをチューニングし、最適なモデルを見つける関数。

    引数:
    df : pandas.DataFrame
        データを含むデータフレーム。
    target : str
        予測対象となるターゲット列名。
    columns : list of str
        使用する特徴量の列名のリスト。ターゲットが含まれていても無視する。
    param_grid : dict
        グリッドサーチで試すハイパーパラメータの辞書。
    test_size : float, optional (default=0.2)
        テストデータの割合。
    random_state : int, optional (default=42)
        乱数シード。

    戻り値:
    best_model : LGBMRegressor
        最適なハイパーパラメータで訓練されたLightGBMモデルのオブジェクト。
    best_params : dict
        最適なハイパーパラメータの辞書。
    best_score : float
        グリッドサーチで得られた最適なスコア。
    """
    columns = [col for col in columns if col != target]
    X = df[columns]
    y = df[target]

    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=test_size, random_state=random_state)

    model = lgb.LGBMRegressor(random_state=random_state)

    grid_search = GridSearchCV(estimator=model, param_grid=param_grid, cv=5, scoring='neg_mean_squared_error', n_jobs=-1)
    grid_search.fit(X_train, y_train)

    best_model = grid_search.best_estimator_
    best_params = grid_search.best_params_
    best_score = grid_search.best_score_

    y_pred = best_model.predict(X_test)

    mse = mean_squared_error(y_test, y_pred)
    rmse = np.sqrt(mse)
    mae = mean_absolute_error(y_test, y_pred)
    r2 = r2_score(y_test, y_pred)
    mape = mean_absolute_percentage_error(y_test, y_pred)

    print(f'最適なハイパーパラメータ: {best_params}')
    print(f'グリッドサーチの最適なスコア: {best_score}')
    print(f'平均絶対誤差 (MAE): {mae}')
    print(f'平均二乗誤差 (MSE): {mse}')
    print(f'ルート平均二乗誤差 (RMSE): {rmse}')
    print(f'平均絶対パーセンテージ誤差 (MAPE): {mape}')
    print(f'決定係数 (R^2 Score): {r2}')

    return best_model, best_params, best_score, y_test, y_pred

if __name__ == "__main__":
    df = pd.read_csv('regression_data.csv')

    param_grid = {
        'n_estimators': [100, 200],
        'learning_rate': [0.01, 0.1],
        'max_depth': [3, 5, 10],
        'num_leaves': [20, 31, 50],  # LightGBM特有のパラメータ
        'subsample': [0.8, 1.0],
        'colsample_bytree': [0.8, 1.0]
    }

    best_model, best_params, best_score, y_test, y_pred = grid_search_lightgbm(df, target='特徴量_1', columns=df.columns, param_grid=param_grid)

グリッドサーチを行った結果、わずかですが全体的に数値が改善されました。下記はその結果です。

[LightGBM] [Warning] No further splits with positive gain, best gain: -inf
[LightGBM] [Warning] No further splits with positive gain, best gain: -inf
最適なハイパーパラメータ: {'colsample_bytree': 1.0, 'learning_rate': 0.1, 'max_depth': 3, 'n_estimators': 100, 'num_leaves': 20, 'subsample': 0.8}
グリッドサーチの最適なスコア: -0.37772299578631163
平均絶対誤差 (MAE): 0.49182379096113954
平均二乗誤差 (MSE): 0.38155467636745044
ルート平均二乗誤差 (RMSE): 0.6177011222002519
平均絶対パーセンテージ誤差 (MAPE): 2.1807685727513366
決定係数 (R^2 Score): 0.6629602327502313

パラメータチューニングについては、「【Python実践】ハイパーパラメータチューニング(最適化)3選(グリッド、ランダム、ベイズ)と実務で使えるサンプルコード紹介」の記事で詳しく解説しています。
コピペで使える自作クラスも掲載しています。

LightGBMが簡単に使える自作クラス

LightGBMで分類と回帰のモデルを簡単に作成できるように、必要な機能をまとめたクラスを作りました。
下記に詳しい説明とソースコードを掲載しています。
コピペで使えるようになっていますので、是非ご活用下さい。

【コピペOK】ランダムフォレストやLightGBMを簡単に扱える自作クラスを紹介

あわせて読みたい
【コピペOK】ランダムフォレストやLightGBMを簡単に扱える自作クラスを紹介 機械学習のモデル開発では、ランダムフォレストやLightGBMといったアルゴリズムを使い分けることが一般的です。しかし、その都度コードを一から書き直すのは非効率で、...

まとめ

LightGBM(Light Gradient Boosting Machine)は、分類問題や回帰問題において高い予測精度を発揮し、大規模データの処理に最適化された機械学習アルゴリズムです。

本記事では、LightGBMの基本的な仕組みやメリット・デメリットを解説し、製造業での活用例や具体的な実装方法について紹介しました。

また、分類や回帰における評価指標や特徴量の重要度解析、さらには効率的なハイパーパラメータチューニングの手法も取り上げました。これらを活用することで、実務においてLightGBMを最適な形で導入し、高精度なモデルを構築することが可能になります。

LightGBMは、Leaf-wise分岐ヒストグラムベースの分割 を活用することで、従来のGBDTより高速な学習を実現し、複雑なパターンのデータにも強く、幅広い用途で活用されています。
本記事が、みなさんのプロジェクトにおいてLightGBMの導入や活用のヒントになれば幸いです!

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

コメント

コメントする

目次