Genetic Engineering 2 White Paper

Creating a shared workflow infrastructure for multisuite, high resolution post production
複数の編集室における高解像度ポストプロダクション
向け共有ワークフロー設備の構築
概要
より納期が短くなり予算が縮小し続ける中、高品質のポストプロダクションでは協働作業の必要性が
ますます高まっています。ポストプロダクションでは、システムおよび人員といった、持てるリソー
ス全てを可能な限りクライアントが同席する(つまり請求可能な)時間に充てられるようにする必要
があります。
そこで、共有インフラストラクチャーはポスト施設に大きな利点をもたらします。
•
直前であっても、柔軟的に編集室間で作業を移動することが可能
•
複数の編集室にわたる協働作業が可能
•
時間のかかる作業を Pablo PA などのバックルームのシステムへ任せることができるため、メイ
ンの編集室を請求可能な作業のために空けることが可能
•
他の編集室での作業内容に関わらず、リアルタイム性能を保証
クォンテルは、このニーズに応えるためにGenetic Engineering 2システムを構築しました。この資料で
は、Genetic Engineering 2の開発にあたり、リアルタイム性能を損なうことなく4台の4K 60p編集機を
使用できる共有ワークフローインフラを構築するために、クォンテルがどのようにCOTSテクノロジー
を採用したかについて解説します。
Creating a shared workflow infrastructure for multisuite, high resolution post production
Genetic Engineering 2とは
Genetic Engineering 2(GE2)とは、共有ストレージ・ワークフローシステムで、複数の Pablo Rio、
およびアシストシステムである Pablo PA を接続した協働作業を実現します。サードパーティーのシス
テムもこのワークフローに統合することができます。GE2 は、コストを抑えるために COTS テクノロ
ジーをもとに構成されており、強力な GPU 処理、柔軟的なマルチコア CPU、そして高性能ストレージ
を利用します。
Genetic Engineering 2 システムは、1 台から 4 台までの Pablo Rio または Pablo PA システム、Core
Infrastracture、1 つまたは 2 つの GenePool Storage Appliance、最大 400TB のオンラインストレージ
容量を提供する GenePool ストレージで構成されます。さらに、このシステムにサードパーティー製シ
ステムを接続する場合には、1 台の Pablo Rio を GenePool Gateway に置き換えます。
ここで Pablo Rio システムについて言及すると、確実なリアルタイム性をもって 4K 60p で作業するこ
とは決して平凡なことではありません。というのも、Sony は 2014 年夏に開催された FIFA World Cup
において、4K ハイライトパッケージ制作のために Pablo Rio と Genetic Engineering 2 を選択しました
が、その理由について次のように述べています。「ハイライトパッケージを迅速かつ効率的に制作す
るためには、4K 60p を確実にリアルタイムで扱うことができるシステムを選択する必要がありました。
この厳しい用途に対して、クォンテルを選択することは自然な流れでした。」
複数の Pablo Rio システムで、同一のストレージを使ってリアルタイムの 4K およびそれ以上の解像度
で作業する際に要求される性能を実現するため、クォンテルは接続された全てのシステムで性能を保
2
Quantel, November 2014
Creating a shared workflow infrastructure for multisuite, high resolution post production
証するための新しい技術をいくつも開発してきました。ポストプロダクション施設にとって、共有ワ
ークスペースとワークフローの全ての利点を実現するためには、リアルタイム性能の保証は最も重要
な点となります。
今日ポストプロダクションが扱わなければならない画像サイズとフレームレートはますます増大して
おり、リアルタイム作業のために必要となるデータレートは莫大です。そして、4K 60fps が一般的と
なりつつなる一方、RED Dragon カメラの導入に伴って 6K が浸透し始めています。日本においては、
既に 8K 60fps が使用されており、今後 120fps が望まれているという状況です。
下表は、リアルタイム作業を実現するために必要となるデータ転送レートを示しています。
Format
4k 10 bit 24 fps
4K 16 bit 24 fps
6K 16 bit 24 fps
4K 16 bit 60 fps
8K 16 Bit 60 fps
8K 16 bit 120 fps
Image size
(MB/Frame)
33
53
116
53
212
212
Transfer rate
(Gb/s)
6.4
10.6
22.4
25.5
102
204
Storage
(TB/hour)
2.9
4.8
10.1
11.5
45.9
91.7
ハイエンドのポストプロダクションで使用されるデータの要件
上表の 4K とは 4096 x 2160 のこと。16 bit は half-float または 16 bit integer のこと。
必要となる膨大なデータレートを扱うための全体的なシステム性能に関しては、主に 3 つの考察があ
ります。共有ストレージでのディスク性能、インフラストラクチャー性能、そしてクライアント自体
の影響です。
高性能ストレージ
4K 60p を基準にすると、4 台の Pablo Rio クライアントをもつ Genetic Engineering 2 システムは、
2000MB/s の帯域を確実に提供できる必要があり、1 時間のメディアにつき 7.2TB のストレージが必
要となります。理論的には市販で手に入る SAN を使用して実現が可能ですが、SAN はクライアントに
ファイルシステムを開示するように設計されているという理由により、クォンテルは GE2 にこの方法
を選択しませんでした。Pablo Rio のストレージはブロックアドレッシングを使用しており、これはフ
ァイルシステムを必要としません。SAN は必要とされない余分なレイヤーを簡単に追加することが可
能なため、不要な複雑性を加えることで性能のボトルネックを作ってしまう可能性があります。
クォンテルは、GenePool 用にエンタープライズ・クラスの SAS ストレージを選択しました。Xyratex
製筐体に Hitachi 製 2.5 インチ 10,000rpm ディスクを使用し、Adaptec 製または ATTO 製の RAID コン
3
Quantel, November 2014
Creating a shared workflow infrastructure for multisuite, high resolution post production
トローラーによって制御されます。各 EBOD は 2x12 個のディスクアレイを含んでおり、データは両ア
レイ間でストライピングされます。各アレイはデュアル・パリティのドライブとして設定されている
ため、構成は RAID 60 です。
障害がある条件下、例えば 1 つのドライブに障害がある場合では、民生の RAID コントローラーは全て
が正常に動作している時と同じレベルの性能を提供しません。これはシステム設計に織り込まれてい
て、1 つのアレイにつき 1 つのディスクに障害が発生しても、システム全体でのリアルタイム操作を
保持する十分な性能が得られます。デュアル・パリティにより、このような障害の状況下であっても
メディアは保護されます。1 つのアレイ内で 2 つのディスクに障害が発生した場合は、RAID コントロ
ーラーのパフォーマンスはリアルタイム性能が維持できないところまで下がります。しかし、これは
メディアがもはや保護されないという非常に深刻な状況であるため、問題のあるドライブは速やかに
交換されなければなりません。
最新の RAID コントローラーでさえも、ハイエンドポストに必要とされるデータレートを扱うことがで
きないため、GE2 は 1 つの GPSA につき最大 3 つの RAID コントローラーを使用して必要な帯域を確保
します。クォンテルのソフトウェアはデータを、例えば 3 台の EBOD によって共有ストレージを提供
するといった方法で処理します。シークタイムは1つの EBOD 上のデータでかかるものと同じです。
これは、Pablo Rio と Genetic Engineering 2 の両者にとってキーとなる差別化要因で、クォンテルが他
社よりも民生用ハードウェアから高い性能を引き出すことを可能にする一つの要因でもあります。
GE2 で使用されるディスクアレイおよび RAID コントローラーの組み合わせは、通常の状況下では
2GB/s の読み書きのデータレートを維持することが可能です。いずれか 1 つのアレイのうち1つのド
ライブに障害がある状態では、システムが通常動作するように 1400MB/s まで下げられます。
GenePool Storage Appliance は Linux のアプリケーションで、複数の Pablo Rio クライアントで競合す
ることなく同じアレイを共有できるようにします。この全体のスループットは最大 6GB/s で、それゆ
え GPSA は 3 つの RAID コントローラーおよびアレイに対応することができます。複数のアレイのデイ
ジーチェーンによりストレージを追加することができますが、これはパフォーマンスを増大するもの
ではありません。パフォーマンスを上げるには、RAID コントローラーおよびアレイの組み合わせを追
加する必要があります。現在 GE2 では、3 つの RAID コントローラーをもつ GPSA を最大で 2 台使用で
き、障害のある状況下であっても、ストレージへは最低 8.4 GB/s の総帯域を提供します。
4
Quantel, November 2014
Creating a shared workflow infrastructure for multisuite, high resolution post production
高性能インフラストラクチャー
クライアントは 16Gb Fibre Channel によって GPSA に接続されます。Fibre Channel は既に何年もの実
績をもち、2015 年には 32Gb FC が見込まれるという、強力な開発ロードマップがあります。Dual お
よび Quad FC アダプターは容易に入手が可能で、また FC は必要となるデータレートに対して好相性
です。
GE2 は最低でも 2 つの FC 接続を要します。1 つは GPSA との接続、もう 1 つは GE2 core
infrastructure の一部である、オーディオストレージとの接続です。GPSA 内の Quad FC HBA は 4 つの
クライアントをサポートします。
高解像度、ハイ・フレームレートでは、必要となるデータレートは 1 つの 16Gb fibre の帯域容量であ
る 1600MB/s を超えてしまいます。前の表を見ると、6K 24fps と 4K 60fps は 1600MB/s を超えるこ
とがわかります。しかし、2 つの Fibre でこれらのフォーマットに対応できます。したがって、これら
の高解像度フォーマットでのリアルタイム性能が要求されるシステムには、2 つの Fibre が画像データ
に使用されます。通常、それぞれの Fibre は別々の GPSA に接続します。この構成では、クライアント
の Quad FC HBA がもつ 4 つの Fibre のうち 3 つを使用します。
5
Quantel, November 2014
Creating a shared workflow infrastructure for multisuite, high resolution post production
Pablo Rioクライアント
Pablo Rio システムは、個別に 4K 50/60p メディアをリアルタイム再生出力する性能をもっています。
実際には、多くのお客様では既に 6K 50/60p のリアルタイム作業を行っています。これは信頼性のあ
る性能として提供されます。Pablo Rio システムは、複数のカスケードレイヤーを使用したカラーコレ
クション、およびその他様々なポストプロダクション作業をリアルタイムで行うことができます。こ
れは、同じシステムで複数の Tesla GPU の動作を可能にする、最新の NVIDIA Maximus テクノロジー
を利用して実現されています。Pablo Rio で使用されている現在の世代の Tesla GPU は K20 で、3.5 テ
ラフロップスの性能の 2496 の CUDA コアをもちます。
共有環境では、Pablo Rio での強大な計算力が全体のシステムデザインに含まれる必要があります。
Pablo Rio は 2 つの 16Gb Fibre を容易に飽和させ、ストレージから 3200MB/s で読み出しを行います。
そのような要求に対応し、全てのクライアント上でのリアルタイム性能を維持するシステムを設計す
ることは可能ではありますが、ストレージとインフラストラクチャーのコストは増大します。現実的
な利用において、GE2 システムは特定の、例えば UHD 10 bit 422 60p で 1400MB/s の最大リアルタ
イム・フォーマットに対応するように設計されています。FC 接続を飽和させるクライアントは、その
2 倍以上のデータレートを要求するかもしれません。これを解決するためには、クライアントが「行儀
良く」動作し、設計上の制限帯域を超えて要求しないようにすることが必要です。GE2 インフラスト
ラクチャーにダイレクト接続されるクライアントはクォンテル製のため、要求できるディスク帯域を
制限する仕組みをもっています。この制限は、システム設計の段階から計算され、インストールされ
る際にはシステム設定の一部となります。
GPSA およびクライアントの相互接続に FC を使用することは、将来的に GE2 システムでより多くのク
ライアントに対応するという可能性を開きますが、見た目ほど容易なものではありません。帯域の観
点からは、1 つの FC スイッチがそのような帯域をクライアント間で共有するという、大きな仕事をす
ることになります。しかし、帯域は共有ストレージシステムにおいて単なるひとつの指標に過ぎませ
ん。クライアントの数が増えるに従って、シークタイムが制限要素になります。クライアントが多い
ほどシークが増えるのです。これは将来の課題です。現在は 4 つのクライアント全てにおいて、共有
ストレージ上でリアルタイムアクセスが保証された形で UHD 作業を行えることが充分と言えるでしょ
う。
Steve Owen
Quantel
2014 年 11 月
6
Quantel, November 2014