アップル、数秒の動画からアニメーションのアバターを生成するAIの研究成果を公開

東京, 12月23日, /AJMEDIA/

 先ごろ発表されたAppleの取り組みを示す2つの研究論文によると、同社は人工知能(AI)技術に深く傾注しているようだ。アニメーション化が可能なアバターを生成する画期的な方法や、メモリー容量に限りのあるデバイスで大規模言語モデル(LLM)を運用する新たな方法など、オンデバイスAI技術の開発にAppleが取り組んでいることが、この研究で示されている。

メモリー容量に限りのあるデバイスにおけるLLMの効率的な運用に関するAppleの研究は、「LLM in a flash」(この「flash」は「瞬間」という意味と「フラッシュメモリー」をかけている)という表題にふさわしく、複雑なAIアプリケーションを「iPhone」や「iPad」のようなデバイスで円滑に実行できるようにするもののようだ。生成AIを活用した「Siri」をデバイス上で実行することも視野に入れている可能性がある。例えば、Siriがデバイス上で、さまざまなタスクを迅速に手助けしたり、テキストを作成したりするほか、自然言語の処理能力も向上することが考えられる。

 もう1つの研究論文「HUGS:Human Gaussian Splats」は、短い動画からアニメーション化が可能なアバターをわずか30分で生成する手法に関するもの。HUGSは、数秒間の短い動画を用いてトレーニングし、ユーザーが好きなようにアニメーション化できる精巧なアバターを生成することが可能なニューラルレンダリングのフレームワークだ。

iPhoneや「Vision Pro」との関連は?
 Appleが独自の社内用AIチャットボット「Apple GPT」に取り組んでいるとされる件について、これまでに何度か報道されている。今回の新たな研究は、iPhoneのような比較的小型で性能が低いデバイスのフラッシュメモリーを使ったLLMの運用について、同社が進歩を遂げていることを示している。これによって高度な生成AIツールをオンデバイスで利用することが可能になるかもしれず、生成AIを活用したSiriが登場する可能性もある。

 切望されているSiriの改良だけでなく、論文で説明されているような効率的なLLMの推論が実現できれば、より利用しやすい生成AIツール、モバイル技術の大幅な進歩、日常的に使うデバイスにインストールしている各種アプリケーションの性能向上につながる可能性がある。

 2つの論文のうち、より大きな進歩といって差し支えないHUGSは、単眼カメラで撮影したわずか数秒の動画、正確に言えば50〜100フレームの動画から、柔軟性のあるデジタルアバターを作成できる手法だ。このプラットフォームは、人間や背景シーンの特徴を解きほぐす手法(disentangled representation)を用いるため、これらの人間アバターをアニメーション化して、さまざまなシーンに配置できる。

Follow us on social

Facebook Twitter Youtube

Related Posts