リップシンク – アイドルじゃなくてCGの話

2016年5月20日 金曜日 takafumi

アナ雪がはやってた頃、動画を見てあれ?と思ったことがありました。歌詞と口の動きが合ってる気がするけど……気のせい?

英語と日本語で口の動きがあうわけがないし、もしかして言語ごとに口パクデータを変えてレンダリングしてる?ディズニーなら言語ごとの口パクデータを自動生成するぐらい思いつくだろうし。

とか思ってたら実際は翻訳家さんの職人芸でした。つまり口パクがあってるかと思ったら口パクにあわせてた、というのが数年前の思い出。

日本語で「ありのままの」と歌っている部分は、英語では「Let It Go, Let It Go」です。メロディを大事にすれば、日本語の音は6つしか入りません。しかも、口の形がアップになるので、3つ目と6つ目の音の母音は「お」に限定されます。この制約の中で原語が伝えたいメッセージをどう伝えるか、ディレクターと何度も何度もメールをやりとりして試行錯誤しました。その結果が「ありのままの」なのです。

via: 本年度アカデミー賞W受賞映画『アナと雪の女王』の歌詞翻訳者、高橋 知伽江さんが語る見どころ | 語学力アップブログ | アルク

そして昨日、こんなのが RSS から流れてきました。

【ニコニコ動画】【MMD】リップシンクの自動作成ツールを作ってみた デモ動画

MMD はさわったことがないので何がどのデータかよくわかりませんが、とりあえず音声データと歌詞テキストあたりから自動で口パクを生成するツールのようです。

動画の中でも表示されているように以前から表情の一部として自動で口パクさせてくれるツールはあったようですが、さらに進めたってことでしょう。

Face And Lips マニュアル – moggproject

あとはリアルタイムレンダリング出来るようになれば AI にかぶせて時まt(略 ……ってアイドルの話になってる!?

カテゴリー:パソコン・インターネット

コメントを残す