スタンフォード大学のコンピュータサイエンティストは、数秒でこれをおこなうアルゴリズムを発明。内容がロサンゼルスで現地時間7月28日~8月1日にかけて開催されたCGの祭典、SIGGRAPH 2019で発表された。
・従来のクオリティのサウンドをわずか数秒で
サウンドモデルは、VRシステムにおいて必要な瞬間に特定のオブジェクトのサウンドを生成できるものだ。オブジェクトがどのようなサウウンドを発するのか、どの方向から聴こえるのかを予測するのはむつかしい作業で、従来、単一のサウンドモデルの作成にも数時間~数日を要していた。スタンフォード大の研究者らが開発した技術では、仮想環境でさまざまなオブジェクトのサウンドをシミュレート。効率的にサウンドモデルを作成する。わずか数秒で作成されたサウンドモデルは、時間をかけて作成されたモデルと同レベルのリアルさでサウンドを生成することができるという。
インタラクティブ環境にとってのゲームチェンジャー
これまで、サウンドモデルを作成するアルゴリズムは、19世紀の科学者Hermann von Helmholtzによる理論と境界要素法(BEM)を基にしたものが主流だった。スタンフォード大の研究者らが開発したアルゴリズムは、こうした理論ではなく、20世紀のオーストリアの作曲家、Fritz Heinrich Kleinの用いた手法にインスパイアされたもの。これにちなんで、同アルゴリズムは「KleinPAT」と名付けられた。
アルゴリズムを基礎から再構築することで、BEMではコストがかかりすぎるとの課題を解決し、従来の数百~数千倍の計算速度を実現したのだ。
研究者らが自ら述べているように、同技術は「インタラクティブ環境にとってのゲームチェンジャー」となるかもしれない。
参照元:A new algorithm enables more realistic sound effects in VR/Stanford Engineering
SIGGRAPH 2019