機械学習を使ってApexのプレイ動画から武器使用率を算出する

2021/11/1 更新 2021/11/1 作成

Tags : ML matplotlib python

このエントリーをはてなブックマークに追加

最終的な目標はプレイスタイルの解析

近年、動画投稿・配信サービスの普及により、ゲーム実況というものがエンタメの1カテゴリとして確立してきていると思う。感染症流行の影響が大きいと思うが、2021年1月~3月の主要ゲーム配信サイト(Twitch、YouTube Gaming、Facebook Gaming)の合計視聴時間が前年同期比で80%増加したというデータもある。1ゲームのジャンルとしてはアクション・RPG・シミュレーションなどあらゆるものが実況の対象になるが、今回はFPSのゲーム実況にスポットを当てる。

FPSの分野では、オンライン対戦システムおよび、いわゆるランクシステムが整備されているものが多くなっている。ランクシステムは、プレイヤーの習熟度のようなものを可視化する。こうしたランクに関する情報は、視聴者にとって、プレイヤーのことをパッと理解するために非常に役立っていると思う。

現状、ランク情報やダメージ数、キルデス比等はゲームシステムから参照できるようになっていることが多いと思う。ただ、個人的にはより細かい、プレイヤーのプレイスタイルのようなものを可視化できる情報があると、プレイヤーについて理解を深めるためのよい材料になると思った。

最終的にはゲームシステムから直接確認出来るデータだけでなく、ゲームプレイ動画の解析結果から、プレイヤーのプレイスタイルをうまく可視化したい。今回は、Apexを題材にし、プレイヤーのプレイスタイルを示す1つの指標として、武器使用率をゲームプレイ動画から解析できないか試す。まあ、こういった情報はわざわざ動画を解析しなくても、ゲームシステム側で実装してもらえれば、より正確で容易にデータが取れるとは思う。

全体の作業の流れ

今回の全体の作業の流れは以下のようになっている。

各作業の内容について説明していく。ただし、ゲームプレイ動画のキャプチャ作業については特に説明することがないので、何も説明しない。

武器名表示領域の切り取り

データセットを整備するために、ゲーム画面のうち、武器名を表示している領域のみを切り取った画像を作成する必要がある。今回は、動画に対して一定時間ごとのフレームを画像化→特定領域を切り取り→特定の場所に画像ファイルとして保存、という流れでデータセット用の画像を作成した。

一連の画像切り取り作業実施のために、ツールを作成した。GUI部分はPySimpleGUIを利用している。

主に以下を設定できる。

  • 切り取り対象とする動画の保存場所
  • 武器1欄(*1)の画像を保存する場所
  • 武器2欄(*1)の画像を保存する場所
  • 画像を切り抜く領域(*2)(全体サイズに対する割合で指定)
  • (*2)で設定した領域からどれだけずらした画像を何個保存するか
  • 画像切り取り対象とするフレームの時間間隔

(*1)Apexでは、武器を同時に2つ持つことができる。今回は武器1欄と武器2欄を別々のデータセットとして扱う。理由はそちらの方がより精度が上がりそうと思ったためである。

このツールを使えば、ボタンを1回ポチーすることで、後は待っていれば所定の場所に武器名表示領域の画像が保存される。

画像に対して正解ラベルを付ける

データセットの正解ラベル付けについて、どのような形式で保存するのが一般的かを私は知らないのだが、今回は各正解ラベル(武器名)ごとに保存フォルダを分けることにした。

以下のように、全武器+"武器なし"(_None)について画像をフォルダ分けした。

この作業にも専用ツールを作成した。

データセットが置かれている場所を指定して、startボタンを押すと、所定の個数づつ未分類の画像が表示される。表示された画像について、正解となる武器名のボタンをポチポチしていき、画像をフォルダ分けする。

ただ、今回データセットの元にしたキャプチャ動画は武器を決まった順番で使うようにしていた。そのため、切り抜かれた画像が最初から決まった武器順で並んでおり、結局このツールはあまり使わなかった。

学習・モデルの保存

データセットの準備が出来たので、ようやく学習をする。学習部分はコードベースで説明する。

まず、データセットの読み込みを行う。かなりコードが汚い。武器名のリストは、以下のコードに含まれていない関数を使ってファイルから読みこんでいる。

Kerasを用いてモデルを生成する関数を作成する。

Optunaを使ってハイパーパラメータを調整しつつ、成績の良いモデルを保存する。(といってもマシンが貧弱で学習に時間がかかるので、5回しか試行を回していない。)

上記のコードを実行したところ、とりあえず今回はテストデータの正解率が99.89%のモデルが出来た。テストデータの推論結果をMatplotlibを使って画像とともに確認してみる。

いい感じに推論できてそうだ。誤答をしたデータについても確認してみる。

今回は2つのデータの推論が間違っていたようだ。上は正答がFlatlineなのに対し、Devotionと推論してしまっており、下は正答がNoneなのに対し、R-301と推論してしまっている。

作成したモデルによるプレイ動画の解析

モデルが出来たので、動画を解析する。解析用のソフトを作成した。

学習用に使ったデータとは別のキャプチャ動画を使って解析したところ、以下のような結果になった。

解析結果を見たところ、大体は合っていると思うが、誤検出されている武器名が末尾に並んでいる。解析結果は正確なものではないため、データの扱いは少し考えないといけない。

最初は自作モデルを作らなくても行けると思っていた

今回、武器使用率算出のために"機械学習のモデルを作成・利用する"という手段を選択した。

この手段を取る前は、TesseractPyOCRを利用して文字列を認識する方法をとっていた。ただ、認識精度が厳しかったので、利用を断念した。機械学習の勉強にもなると思い、代わりに自作モデルの作成という方法をとった。

今回の識別対象は決まり切った文字列なので、機械学習を使わなくても、より正確な認識方法があるかもしれない。というか、私はApexにあまり詳しくないので、そもそもゲームシステム内で武器使用率を確認できる方法があるかもしれない。

参考にした書籍・動画

機械学習については主にネット上の情報と、以下の書籍の内容を流し読みした程度の理解度である。

また、上記書籍を数年前に読んだときは誤差逆伝播法がいまいち理解できなかった。しかし、Twitterのタイムラインで流れてきた以下の動画が非常に参考になり、とりあえず分かった気にはなれた。出来るだけ条件を簡易にして、高校数学の範囲で説明されている。

まとめ

機械学習を利用してApexのプレイ動画から武器使用率を算出するためのツール群を作成した。解析結果には誤差が含まれるため、利用するためにはまだ工夫をする必要があると思う。

色々試行錯誤をする中で、モデルの性能に最も寄与したのはデータセットの作り方だった。データセットに偏りがあると、それを学習したモデルも偏りのある結果を出力する。データセットの質の重要性を、身をもって実感した。この部分については本記事で書けなかったので、またどこかで記事を書くかもしれない。

シェア
このエントリーをはてなブックマークに追加

関連記事一覧

顔認識+サーボモーターで顔追従モニターの作成

html要素の背景色が変化するアニメーションをCSSで(無理やり)実装する

ロジスティック回帰を使ってYouTubeタイトルから投稿者を推論する

全国規模の感染シミュレーションと結果の可視化をしてみる

LogisticRegression().fit()のConvergenceWarningを解消する

都道府県間通勤・通学を考慮したパンデミックシミュレーションもどき

感染症数理モデルについて触りの部分だけ学ぶ

カメラ画像から対象物の向きを検出する(OpenCV)