巻 頭 言 スポーツ放送2020年の夢 馬場口 登 大阪大学大学院工学研究科 教授 私はスポーツ放送映像と縁が深い。1996年秋,陽光きらめくカリフォルニア大学サンディエゴ校(UCSD:University of California,San Diego)のカフェテリアでの会話である。 R「こちらに滞在している間に何をする予定かね」 N「テレビ放送のスポーツ番組の内容解析と構造化を考えているのだが,どうだろう」 R「それは面白い。だが,アメリカンフットボールのタッチダウンシーンを抽出するとしたらどうする」 N「映像から選手の動きを解析して,ゴールラインを検出して,ボールを持った選手がゴールラインを越えるのを検 出して……」 R「アメリカンフットボールのタッチダウンはいろいろある。あらゆるモデルを画像から作れるのか? テレビ放送 には音声やクローズドキャプション*1,オーバーレイ*2などマルチメディア情報が満載だ! それを使う方が筋の いい研究じゃないか」 実は,この会話が,私をマルチメディア処理に踏み込ませる契機となった。Rはマルチメディア研究の大家である Ramesh Jain教授*3,Nは私である。以後,私はUCSDでクローズドキャプションにおけるコンテンツを表すキーワー ドと音声,映像との対応付けに興味を持ち種々調べ始めた。ライブのスポーツ映像では,クローズドキャプション より音声は必ず時間的に先行する*4が,映画ではクローズドキャプションが音声に先行する*5など,いろいろな小 さい発見をして実に楽しかったのを覚えている。日本に帰ってから,UCSDでの考察に基づき,マルチモーダル解析*6 によるスポーツ映像におけるイベント検出,3時間のライブのスポーツ放送映像から自分の好みに合った3分の要 約映像を自動的に作る方法,ライブとリプレイのシーンを対応付ける方法,などスポーツ放送映像を相手に随分, 研究を楽しませてもらい,曲がりなりにもマルチメディアの分野で認知されるようになったのもこの頃の研究のお かげである。 さて,映像・画像解析がスポーツ放送に果たした役割は極めて大きい。私が研究のネタとしたアメリカンフット ボールはいわゆる「見る」スポーツの花形であり,「見る」人の多さゆえに,米国での新しいスポーツ放送技術は, アメリカンフットボールで試されると言われている。CMU(Carnegie Mellon University)の金出武雄先生による多 視点映像撮影からの自由視点画像が放送されたのは,2001年のスーパーボウルであった。また, 「仮想10ヤード線表 示」も大きなインパクトを与えた。アメリカンフットボールでは,1回の攻撃でボールを10ヤード前進させられる か否かが大きな分かれ目となる。その線がライブ映像画面の芝生上に引かれたことに大変驚いた記憶がある。この 仮想10ヤード線表示の登場は,もうすぐ2000年になろうとする時期であっただろうか。それから数年して野球場の フェンスや競技場の芝生グラウンドに仮想広告が出るようになった。さらに近年では,水泳会場のレーンに国旗や 泳者名が重畳され,泳者の動きに合わせて世界新記録のラインが表示されるようになった。これらはまさに,拡張 現実(Augmented Reality)の放送への応用である。また,錦織選手の活躍で沸いたテニスの放送映像ではフォール トやアウト/インの判定に,ワールド杯サッカーの放送映像ではゴールの判定に,多カメラを用いた画像解析シス テムHawkEyeの判定結果が組み込まれていた。NHKは,ロンドンオリンピックの放送で,TWINSCAMなるシステ ムによってシンクロ水泳の水中と水上の選手の姿を合体させた斬新な映像を作ってみせた。このようにスポーツ放 送の高度化と画像解析・処理は不可分な関係になりつつある。 2 NHK技研 R&D/No.149/2015.1 1979年 大阪大学工学部通信工学科卒業 1981年 同大学院前期課程修了 1982年 愛媛大学工学部助手 1987年 大阪大学工学部助手 1991年 大阪大学工学部講師 1993年 大阪大学産業科学研究所助教授 1996∼97年 UCSD文部省在外研究員 2002年 大阪大学大学院工学研究科教授 現在は,マルチメディア処理,視覚的プライバシー保護処 理に関する研究に従事。PCM2006 Best Paper Award, IAS2009 Best Paper Award,FIT2009論文賞をそれ ぞれ受賞。電子情報通信学会フェロー。電子情報通信学会 パターン認識メディア理解研究専門委員会・専門委員長, 同マルチメディア情報ハイディング・エンリッチメント研 究専門委員会・専門委員長,映像情報メディア学会・関西支 部 長,MMM2008,ACM Multimedia 2012 General CoChairなどを歴任。工学博士。 2020年に東京で2回目のオリンピックが開かれる。官民挙げての盛り上げが期待されている。科学技術において も,産官学が一丸となって,技術立国日本の先進性,優位性を世界に発信することが望まれており,放送・映像技 術も例外ではない。例えば,文部科学省の夢ビジョン2020では,超臨場感で新たな観戦を実現するための技術や, 高臨場感で別空間を体験できる技術(テレイグジスタンス)の開発が挙げられている。ウェアラブル端末等でいつ でも・どこでも・誰でも超臨場感で観戦できるようにするのである。 2020年にはどのようなスポーツ放送映像が登場するのか夢想してみよう。第一に,映像の解像度は,どこまで極 限に突き進むのだろうか。私自身,8K映像を見たことがあるが,それこそ選手の汗が滴り落ちる様も映し出される くらいの鮮明さである。一説には,8Kでようやく人間の網膜の解像度を超えたと言われているので,更なる技術革 新により2のべき乗で解像度が上がるのもしれない。高解像度映像は,臨場感の伝達には必須で,どこにいても競 技場の臨場感が味わえることになる。その他の映像表現では,任意視点の映像生成は理論的にはほぼ完成しており, ウエアラブルデバイスの発展とともにリアルタイムの高精細な映像が現実のものとなろう。 第二は,より楽しいメディアへの展開である。マルチ画面化がどの程度進むか微妙なところであるが,いわゆる 通信と放送の融合が進めば,体験共有メディアとしての放送が進化するであろう。そのための基盤を形成するもの がIoT(Internet of Things)*7センサーやソーシャルメディアである。仮に非侵襲の生体信号センサーが開発された ら,選手の呼吸数や心拍数がライブで中継され,一層の迫真性を伝えるであろう。一方,ソーシャルメディアは仲 間同士や同好の集団で,喜怒哀楽を分かち合うのに極めて適したメディアである。ソーシャルメディアがどこまで 進歩し,どのように変貌するのか予想もできないが,多人数で感動を共有・共感できるアミューズメントメディア であることは疑いない。 第三は,先にも述べた拡張現実のさらなる革新である。現状の水泳放送の新記録ライン表示は,過去のデータと 映像との関連付けに過ぎない。しかし実際は,過去の新記録を達成したときの選手や優勝したときの選手の姿が映 像として記録されているはずである。過去の映像データベースとライブ映像を視覚的に不整合なく合成できるなら ば,東京の街を走る2020年のマラソン選手と一緒に,1964年のアベベ選手が並走する映像を作ることも不可能では ないであろう。今からどんな映像が出てくるのか,ワクワクする。きっと想像もつかないような映像で我々を喜ば せてくれるのであろう。 そして,このような技術の実現に向けて,NHK放送技術研究所がその旗手となっていただきたいと願っている。 *1 聴覚障害者用の字幕情報で,音声のトランスクリプト(書き起こし) 。 *2 映像に補助情報を重ねて表示すること。 *3 当時はUCSD,現在はUCアーバイン校に所属。 *4 ライブ放送であるので当たり前であるが,ライブ音声を驚くべきスピードでクローズドキャプションにする「技」にも感動した。 *5 シナリオがクローズドキャプションの原データであるため。 *6 映像だけでなくテキストや音声など複数種のデータを用いた解析。 *7 さまざまなモノがインターネットにつながる技術。 NHK技研 R&D/No.149/2015.1 3
© Copyright 2024 ExpyDoc