ニコ生でDAWの音声を配信できない理由

シェアする

  • このエントリーをはてなブックマークに追加

ずいぶん更新が開いてしまいました。サークルの発注やら動画制作やらが立て込んでたので。

最近、諸般の事情でVOCALOIDの調声や音楽制作の風景をニコニコ生放送で配信しようと思い立ったのですが、どうもDAW(Cubaseなど)の音を配信できていないようなのです。

ということで、いろいろ調べてみました。(といっても割と素人なので間違った情報があるかもしれません。雰囲気だけでも、という感じで。)

「カーネルミキサー」が鍵

DTMをやっていると「ASIO」という言葉を頻繁に聞くようになります。

僕もCubaseを買っていじっていると、レイテンシー(遅延)がどうも気になって仕方がありません。

色々調べてみると、ASIOドライバなるものが絡んでいるらしく、オーディオインターフェイスなるものが必要とのこと。

とりあえずASIO4ALLなるソフトウェアで対応し、途中でSteinbergのUR22を買いました。

PCでは、OSやブラウザの警告音、YouTubeやニコ動の動画の音など、様々な音が発生します。

それを一旦「カーネルミキサー」(今はオーディオエンジンと呼ぶらしいです)という部分が受け取り、データの形式を統一して合成してスピーカーやヘッドホンに送っています。(実際はもっと複雑です)

ただし、このカーネルミキサーが音声に悪い影響を与えるのです。仕方ないのです。

そこで、カーネルミキサーを通さず直接音声を届けるために開発されたのがASIOという規格です。

ASIOというのは「オーディオを入出力するためのアプリケーション用API」です。(APIというのはデータ形式の約束事というか文法みたいなものです)

こちらのページに図があり、詳しいです。

ニコニコ生放送での配信にはNiconico Live Encoder(NLE)を使っているのですが、NLEはカーネルミキサーから出力された形式の音声を受け取り、放送するようです。

PC→カーネルミキサー→UR22→ヘッドホン

PC→カーネルミキサー└→NLE→視聴者

マイク等の入力→UR22→PC→カーネルミキサー→NLE→視聴者(?)

というような流れです。

ところが、Cubaseからの信号は、ASIO規格にのっとって

Cubase→ASIOドライバ→UR22(オーディオIF)→ヘッドホン

という流れで、PC内では常にASIO規格でやり取りされているので、NLEはその信号をキャッチできないのです。

では、どうすればいいのでしょうか。

「ループバック機能」を利用

オーディオIFには「ループバック機能」に対応しているものがあります。

この機能は、DAWからきた音声をオーディオIFにてASIO規格から別の規格に翻訳してヘッドホンに送るときに、同じ音をPCに返す機能です。

このときPCに返ってきた信号はASIO規格ではありません。

通常のマイク等の入力と同じようにカーネルミキサーを通るので、NLEがキャッチできるようになります。

しかし、なんとUR22、ループバックに対応しておりません!

ですが、最近出た、入力端子が少ないバージョンであるUR12は対応しています。

上位バージョンであるUR44やUR28Mもループバックに対応しています。

また、UR12よりは高いですが、比較的安価なミキサー型オーディオインターフェイス「AG03」「AG06」が5月あたりにYAMAHAから発売されます。

これもオーディオループバック機能に対応しており、しかもSkypeマイクやPCマイクと呼ばれる、プラグインパワーが必要なマイクの接続にも対応しているので、ニコ生DAW配信にはぴったりのようです。

AG06とAG03については別記事で詳しく書きます。

それでは、また。

スポンサーリンク
レクタングル(大)
レクタングル(大)

シェアする

  • このエントリーをはてなブックマークに追加

フォローする