Blog
ブログ

2024年12月23日

構造化データのAI学習ツール紹介と自動チューニング – SOHOBB AI/BI Advent Calendar 2024

こんにちは!AI/BI部のA.Kです。

2024年も残りわずかとなり、今年自分の最終投稿をお届けする時期となりました。12月、AI/BI部のみんなと一緒に、IT技術に関するさまざまなトピックを共有できたことを大変嬉しく思います。

年末のこのタイミングで、前回投稿内容の振り返りをしつつ、今後の技術動向や知見を皆さんと一緒に深めていける記事をお届けできればと思っています。今年最後の投稿もぜひ楽しんでいただけると幸いです。それでは、始めていきましょう!

構造化データに特化したAI学習ツール「LightGBM」の紹介

前回はPLS回帰を利用して、構造化データの整合性をチェックする実践方法を簡単に紹介させていただきました。

その整合性チェックが終わって、AI学習の段階に踏み出すとのことですが、その中でに、近年注目を集めているのが「LightGBM」というライブラリです。この投稿では、LightGBMの概要、特長、そしてどのように実際のプロジェクトで活用できるのかを詳しく解説していきます。

1,LightGBMとは?

LightGBM(Light Gradient Boosting Machine)は、Microsoftが開発したオープンソースの勾配ブースティングアルゴリズムです。特に、大規模な構造化データの処理や、高速なモデル構築を得意としています。XGBoostなどの他のブースティングアルゴリズムと同様、回帰や分類タスクに幅広く利用されています。

2,LightGBMの特徴

LightGBMが他のアルゴリズムと一線を画す理由を以下に挙げます:

① 高速性と効率性

LightGBMは、ヒストグラムベースの分割アルゴリズムを採用しており、計算速度が非常に高速です。大規模データを扱う際に、その効率性が特に発揮されます。

よく、AI学習と稼働でGPUが必要と聞かれると思いますが、LightGBMではGPUに依存せず、一般的なノートPCのCPUだけでも高速化実行することが可能です。

② メモリ使用量の削減

LightGBMは、葉ごとの成長戦略(Leaf-wise Tree Growth)を採用しており、従来の深さごとの成長戦略(Level-wise Growth)に比べて、メモリ使用量を抑えることができます。

③ カテゴリカルデータのサポート

構造化データには、カテゴリカルデータ(例:性別や地域)が多く含まれますが、LightGBMはデフォルト関数の利用でこれを直接処理可能です。事前にエンコーディングを行う必要がないため、前処理の手間を大幅に削減できます。

④ パラメータの柔軟性

LightGBMは、多数のハイパーパラメータを提供しており、タスクに応じた細かいチューニングが可能です。これにより、モデルの性能を最大化できます。

※ 精度向上するため、チューニングを実施すればするほど時間がかかりますが、公式外のライブラリを活用して、自動的に数のハイパーパラメータの中、最適なパターンを探索することができるので、後程紹介いたします。

 

3,LightGBMの実践(構造化データの学習)

以下は、Pythonを用いてLightGBMを実装する際の基本的なコード例です:

# 必要な関連ライブラリをインポートする
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.cross_decomposition import PLSRegression
from sklearn.metrics import r2_score, mean_absolute_error
from sklearn.model_selection import cross_val_score
from sklearn.model_selection import train_test_split
import lightgbm as lgb

# データ準備および正規化の変換処理
# ----------------------------------------------------
# チェックしたい構造化データ読み込みと説明変数Xと目的変数yの生成
df_ref = pd.read_csv('test_data.csv')
y = df_ref['目標値'].to_numpy()
X = df_ref.loc[:,'説明変数A':'説明変数E'].to_numpy()

# 説明変数Xに対して、z-score正規化によるデータ標準化
X_mean = np.mean(X, axis=0)
X_std = np.std(X, axis=0)
X_zscore_normalized = (X - X_mean) / X_std

# 目標変数に対して、オリジナル値をそのまま利用する
y_zscore_normalized = y


# LightGBMでの構造化データの学習
#--------------------------------------------------
# lightgbm regressor
SEED = 42

X_train, X_test, y_train, y_test = train_test_split(
    X, 
    y, 
    test_size=0.2,
    shuffle=True, 
    random_state=SEED
) 

# データセットを登録
lgb_train = lgb.Dataset(X_train, y_train)
lgb_test = lgb.Dataset(X_test, y_test, reference=lgb_train)

params = {
    'task': 'train', # タスクを訓練に設定
    'boosting_type': 'gbdt', # GBDTを指定
    'objective': 'regression_l1', # 回帰を指定
    'metric': 'mape', # 回帰の評価関数
    'learning_rate': 0.1, # 学習率
    'feature_pre_filter': False, # optional
    'lambda_l1': 0.0, # optional
    'lambda_l2': 0.0, # optional
    'num_leaves': 31, # optional
    'feature_fraction': 1.0, # optional
    'bagging_fraction': 1.0, # optional
    'bagging_freq': 0, # optional
    'min_child_samples': 5, # optional
    'num_iterations': 100 # optional
}

lgb_results = {} # 学習の履歴を入れる物

model = lgb.train(
    params=params, # ハイパーパラメータをセット
    train_set=lgb_train, # 訓練データを訓練用にセット
    valid_sets=[lgb_train, lgb_test], # 訓練データとテストデータをセット
    valid_names=['Train', 'Test'], # データセットの名前をそれぞれ設定
    num_boost_round=100, # 計算回数
    callbacks=[lgb.early_stopping(stopping_rounds=20, verbose=True), # early_stopping用コールバック関数
               lgb.record_evaluation(lgb_results), # 学習の履歴を保存
               lgb.log_evaluation(period=-1)], # コマンドライン出力用コールバック関数
) 

#最適化したパラメータを表示する。
best_params = model.params
print(best_params)
print(model.best_iteration)

# 学習できたAIモデルの出力
model.save_model('model_1218_test.txt')

# 学習履歴の表示
loss_train = lgb_results['Train']['mape']
loss_test = lgb_results['Test']['mape'] 

fig = plt.figure()
ax1 = fig.add_subplot(111)
ax1.set_xlabel('Iteration')
ax1.set_ylabel('logloss')
ax1.plot(loss_train, label='train loss')
ax1.plot(loss_test, label='test loss')
plt.legend()
plt.show()

🎉おめでとうございます!構造化データに対して、LightGBMで回帰モデルの作成が完成しました🎉

 

ちなみに、学習時間の推移での精度変化は以下の感じになります。

縦軸は誤差、横軸は学習の時間推移です。

 

4,LightGBMのハイパーパラメータの自動チューニング

前述の通り、精度を保つため、学習する際に、ハイパーパラメータのチューニングを実施すると、かなり時間かかると予想されますが、optuna社が無料提供しているライブラリを利用すると、手作業から解放して、自動化になります。

ライブラリの利用方法は非常にシンプルでさきほどのコードの中、最初のimportのところ、1行を増やすほどで、他は変更してなくても、学習する際に、ハイパーパラメータの探索が自動的にやってくれます。最終的に結果として一番良い学習結果になるパラメータが表示されます。

以下は、Pythonを用いてLightGBMを実装する際の基本的なコード例です:

# 必要な関連ライブラリをインポートする
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.cross_decomposition import PLSRegression
from sklearn.metrics import r2_score, mean_absolute_error
from sklearn.model_selection import cross_val_score
from sklearn.model_selection import train_test_split

# ↓以下の1行を増やすだけでOKです。
import optuna.integration.lightgbm as lgb

以下は、自動チューニング後の結果となります。一番良いパラメーターが出力されていることが確認できました。

 

おわりに

今回はLightGBMとその使い方を簡単に紹介させていただきました。

僕の今年12月のAdvent Calendarの最終投稿となっているんですが、とても有意義な技術共有が出来ており、来年また機会があれば、再度社内活動として開催できれば良いと思います。

年末の挨拶を兼ねて、今回の投稿内容は以上とさせていただきます。

みんな、よいお年をお迎えください。

このページの先頭へ