要約
トランスフォーマーに基づくチェスモデルが、人間のプレイスタイルを模倣するように訓練されました。これにより、さまざまなレーティング範囲でのプレイが可能となり、特に思考時間を含むモデルが注目されています。
トランスフォーマーモデルのチェスへの応用
トランスフォーマーを用いた深層学習モデルが、チェスにおいて人間のようなプレイを実現するために訓練されました。この取り組みは、MAIAやGrandmaster Chess Without Searchに触発されたもので、800から2500以上のレーティング範囲に対応するモデルが用意されています。
訓練方法とモデルの詳細
訓練はまず、中程度の強さのモデルを8xH100クラスタでゼロから行い、その後、他のレーティング範囲に対してはローカルの5090 GPUでファインチューニングが行われました。使用されたデータはLichessからの約1年間のデータで、総計約10億のゲームが含まれています。
モデルの構成と性能
各レーティング範囲には、移動モデル、思考時間モデル、白勝ち/引き分け/黒勝ちモデルの3つが存在します。これらのモデルは非常に小さく、パラメータ数が900万程度ですが、MAIA-2よりも高い精度を達成し、MAIA-3と同等の性能を持つと報じられています。
用語メモ
- トランスフォーマー
- 自然言語処理で使われるモデルの一種で、長い文脈を捉えるのが得意です。
- ファインチューニング
- 既存のモデルを特定の用途に合わせて再学習させることです。
- パラメータ数
- モデルが持つ調整可能な要素の数で、モデルの複雑さを示します。
元記事:
- Trained transformer-based chess models to play like humans (including thinking time) [P](Machine Learning)
配信日: 2026-05-13
