Microsoft GPT-4で動画を分析するシステム「MM-VID」を発表

Microsoft Azure AIの研究者らは、画像認識機能を持つGPT-4Vモデルを利用した「MM-VID」を発表しました。

本記事では、彼らの論文(Advancing Video Understanding with GPT-4V(ision))をもとに、MM-VIDについて解説いたします。

参考:arXiv

背景

ビデオコンテンツは、日常生活において重要な情報伝達手段です。ライブストリーム、映画、スポーツ放送など、様々な形式があります。これらの多様なモダリティからの学習を通じて、未編集の現実世界ビデオを解析するための方法の開発が進められています。

特に長時間ビデオの解析は、話者の識別や物語の一貫性維持などの複数の課題を含みます。GPT-4V(ision)を含む大規模マルチモーダルモデル(LMMs)は、これらの課題に取り組む最新技術であり、ビデオに対するより詳細な解析と理解を目指しています。

MM-VIDの概要

MM-VIDは、ビデオ解析の最前線で活躍が期待される統合システムです。その核となるのはGPT-4V技術で、視覚入力からの情報把握と文脈に即したテキスト生成の能力を持ち合わせています。この高度なAIは、ビデオのフレームを解析し、それぞれのクリップに対する詳細な説明を生成することで、ビデオコンテンツから迅速に情報を取得することができます。

MM-VIDシステムは、四つの主要モジュールによって構成されています。

  1. マルチモーダル前処理では、ビデオを段階的に分析し、シーンの検出や音声のテキスト変換を行います。
  2. 外部知識の収集プロセスは、ビデオのメタデータやタイトル、概要など、関連する付加情報を取り入れることで、より豊かな解析基盤を構築します。
  3. クリップレベルでのビデオ説明はGPT-4Vを活用し、フレームごとに詳細なビジュアルとオーディオの要素をキャプチャします。
  4. 最終的に、GPT-4を用いたスクリプト生成により、これらの断片情報を統合し、ビデオ全体を通じて一貫した物語を描き出します。

引用:arXiv

GPT-4Vの力を借りることで、MM-VIDはビデオの各セグメントの情報を提供し、ユーザーがビデオコンテンツをより深く、直感的に理解できるようにします。特に長時間のビデオやインタラクティブなコンテンツの解析において、従来の方法では難しかった複雑なタスクの実行を可能になります。

MM-VIDシステムが野球の試合ビデオを解析した結果、「試合で最もエキサイティングな瞬間を教えて」に対して1回でホームランを打った瞬間のタイムスタンプが出力されるなど、システムがビデオの視覚情報とオーディオ情報を統合し、複雑な質問に対して回答を生成できることが分かります。

引用:arXiv

MM-VIDの性能検証

検証方法

MM-VIDシステムの有効性を検証するために、具体的なビデオタスクを実行し、そのプロセスと結果について参加者からフィードバックを収集しました。

この検証では、視覚障害者および健常者に対して特定のビデオクリップを視聴させ、MM-VIDが生成したオーディオデスクリプション(AD)の品質と有用性に関して評価を行わせました。これには音声の明瞭さ、情報の正確性、コンテキストへの適合性などが含まれます。また、システムが提供する情報に基づき、ビデオ内のイベントや登場人物、アクションに関する質問に答える能力も評価の対象としました。

検証結果

下のグラフは、MM-VIDによって生成されたADの品質に関する参加者の満足度を表しています。0から10までのリッカート尺度を用いて、0は「満足していない」から10は「非常に満足している」までのスコアを示しており、参加者による個々のADの評価を反映しています。

視覚障害者の検証結果:

正常な視覚を持つ参加者の検証結果

引用:arXiv

視覚障害者グループのMM-VIDによるADの評価はすべて人間が作成したADに近い数値でした。この結果は、MM-VIDが生成したADが実際に視覚障害者にとって有用であり、人間が作成したADと比較しても遜色のない品質を持っていることを示しています​​。正常な視覚を持つグループによる全体的な満足度はMM-VID生成のADでわずかに1ポイント未満低い平均値を示していましたが、それでも比較的高い満足度を維持していることが分かります

これらの評価を通じて、MM-VIDのADが視覚障害者と健常者の両グループにとって有用であるかどうか、そしてさらなる改善が必要かどうかを理解するための重要なデータが得られました。このようなフィードバックは、将来のアップデートでシステムの精度を高めるために役立つでしょう​​。

今後の展望

MM-VIDの開発はビデオ解析技術の進歩を示す重要なきっかけとなりますが、研究はまだ進行中であり、様々な展開が予想されます。研究チームはMM-VIDの手法を教育やトレーニングビデオ、緊急サービスのブリーフィング、さらにはエンターテイメント業界での利用にまで拡大することを計画しています。これにより、ビデオコンテンツの理解と利用の幅が広がり、より多くの人々にとって価値のある情報源となることが期待されます。

例えば、MM-VIDのようなGPT-4Vの強みを活かした監視システムへの応用が挙げられます。監視カメラによる映像解析のみならず、GPT-4Vの自然言語処理能力を組み合わせて、監視担当者との対話を通じて監視の質を高めることができます。

監視センターのオペレーターが特定の行動パターンや事件について疑問を持った際に、リアルタイムでGPT-4Vに質問を投げかけることができます。GPT-4Vは、映像内容を解析した上で、オペレーターの問いに対する詳細な解説や推論を提供し、状況の理解を深めるための背景情報を補足します。また、過去の類似事件との比較分析を行い、潜在的なリスクや予防策を提示することも可能です。

GPT-4Vのようなマルチモーダルモデルを活用することで、監視システムは単なる映像のモニタリングツールから、インテリジェントな意思決定支援ツールへと発展することが期待されます。

関連記事

2023年9月25日、OpenAIはChatGPTに新しく画像認識、音声認識、及び発話機能を追加することを発表しました。 これによって、画像をChatGPTに認識させてチャットを行うことより直感的な体験が可能になります。 今回[…]

まとめ

マイクロソフトの最新研究により開発されたMM-VIDシステムは、複雑な長時間ビデオから、瞬時に情報を抽出し、内容を分析することができます。GPT-4Vを利用したこのシステムは、ビデオのアクセシビリティ向上のみならず、様々な分野で応用されることが期待されます。

皆様も自身の日常生活やビジネスにおいて、MM-VIDのようなマルチモーダルAI技術を活用する場面を考えてみてはいかがでしょうか。