/ プログラム/ 発表一覧/ 著者一覧企業展示一覧/ jsai2014ホーム /

3H4-OS-24b-3 Deep neural networkによる映像・音響・運動データの統合と共起

*セッションの無断動画配信はご遠慮下さい。

Tweet #jsai2014 このエントリーをはてなブックマークに追加

05月14日(Wed) 15:20〜17:00 H会場(102人-ひめぎんホール 第8会議室)
3H4-OS-24b オーガナイズドセッション「OS-24 Deep Learning (2)」

演題番号3H4-OS-24b-3
題目Deep neural networkによる映像・音響・運動データの統合と共起
著者野田 邦昭(早稲田大学 理工学術院 基幹理工学研究科 表現工学専攻)
有江 浩明(早稲田大学 理工学術院 基幹理工学部 表現工学科)
菅 佑樹(早稲田大学 理工学術院 基幹理工学部 表現工学科)
尾形 哲也(早稲田大学 理工学術院 基幹理工学部 表現工学科)
時間05月14日(Tue) 16:00〜16:20
概要Time-delay deep autoencoderをロボットによるベル叩き行動から得られた視聴覚運動時系列の統合学習に適用した.これにより,クロスモーダルな記憶想起を実現し,身体運動情報とそれに伴う音響情報から,モーダル間の共起性を正しく反映した画像情報の生成を可能にした.また,獲得された内部表現の解析から,提案モデルは視聴覚運動情報の共起性を自己組織的に構造化して学習していることを確認した.
論文PDFファイル