物理シミュレーションでも「萌える」?

 SIGGRAPHに発表登録してる(かどうかは知らないのだが)研究成果を、たまたま記者が聞き込んできた、ということなのか。この種のネタというのは、報道のタイミング(何故いまなのか)が分かりにくい。ゲーム機の世代交代などを睨み、実は思った以上に先を争ってるテーマだったりするのだろうか?
 『日経産業新聞』2005年5月24日付・7面から。キャッチは「CG技術 / なびく髪 瞬時に再現 / 東大 毎秒6枚、アニメ向け」。東京大学の西田友是教授らのチームが、「風の強さや首を振ったときに髪がなびく様子を瞬時に再現できるコンピューターグラフィックス(CG)技術を開発した」という内容です。

 約十万本ある髪の毛を、互いに弱い力で引き合う約二千個の粒子に見立てた。風の強さなどの条件を入力すると、ほぼ等間隔に並んだ粒子が動く。各粒子に髪の毛を対応させると、全体がまとまりを持って風になびいているように見える。
 現在は髪の毛一本ずつ動きを再現しており、高精細な動画を得ることができる。ただ、一枚の画像を作るのに数分かかることがあり、その場で風の強さを変えて、髪の毛の動きを瞬時に描くのは困難だった。

 パソコン画面(30fps)での毎秒約6枚というのは5コマ打ち換算。あとひと息で、TVアニメレベル(3コマ打ち程度)の滑らかな動きに近付くということになる。
 で、用途。「さまざまな髪形に使えるように改良し、アニメーションなどの映像表現に役立てたい考え」とあるが、ゲーム機上でのリアルタイム表現、と言った方が本来は適切のはず。もちろんプリレンダリングの制作効率も上がるので、『アップルシード』のような3DCGアニメでモーキャップによって動くキャラに追随させる、というのはあっていいわけですが。


関連SITE
Nishita Lab's home(西田研究室)