東大、様々な体形や姿勢に対応するバーチャル試着を開発 深層学習用いて

2021年10月10日 16:54

印刷

生成された画像の例。腕を伸ばしたり、曲げたりなど、様々な姿勢変化に対応している。(画像: 東京大学の発表資料より)

生成された画像の例。腕を伸ばしたり、曲げたりなど、様々な姿勢変化に対応している。(画像: 東京大学の発表資料より)[写真拡大]

 東京大学は8日、深層学習の技術を用いて、様々な体形や姿勢に応じたオンライン試着ができる手法を開発したと発表した。ネットショッピングの際、リアルタイムで高品質な試着体験ができるようになる。ビデオ会議時に仮想で衣服を着せてみせる利用法なども想定している。

【こちらも】イトーヨーカ堂がニューノーマル対応店舗 「ARでバーチャル試着」も

 今回の研究は、東京大学大学院情報理工学系研究科の五十嵐健夫研究室が実施。深層学習に必要な訓練データを大量に自動取得するために、姿勢や体形を自動制御できるロボットマネキンも同時に開発した。

 利用者が計測用の衣服を着て深度センサ付きカメラの前に立つと、商品の衣服を着た画像がリアルタイムで高品質に生成される。ポーズを変えたり服のサイズを変えると、都度対応して詳細に生成する。ネットショップが顧客に仮想試着機能を提供すれば、様々なサイズやデザインをオンライン上でも気軽に試着できるようになる。

 また、オンライン会議が増えたことから、仕事に適した装いに仮想的に着せ替えできる機能の需要が生じている。自然で違和感の無い試着画像を生成することで、コロナ禍で急増した新たな需要にも対応できると想定している。

 これまでにも仮想試着システムはあったが、3次元コンピュータグラフィクスを用いたものは、写実的な画像が作成できないという難点があった。また、多種の衣類に対して1つの深層学習モデルを構築する手法も近年注目を集めているが、汎用的なためリアルタイムに個別の衣類の試着画像を生成することが難しかった。

 東京大学は、特定の衣服画像の生成に対象を絞って深層学習モデルを構築。様々な姿勢や体形に対応した試着画像を高品質に生成できるようにしたと言う。

 画像変換ネットワークを訓練するためには、膨大な学習画像が必要になる。だが、計測服と試着の衣服を着て全く同じ姿勢を再現し撮影することはほぼ不可能なため、専用のロボットマネキンを開発した。横幅や胴回りの太平を変化させながら大量に撮影し、学習データとして使用している。(記事:土佐洋甘・記事一覧を見る

関連記事