山本研究室の研究成果・業績です。
48. 通級指導教室の児童生徒が1人で使える眼球運動トレーニングシステムの提案
井上 耕生, 青柳 西蔵, 福森 聡, 山本 倫也, 井阪 幸恵, 北出 勝也
ヒューマンインタフェース学会論文誌, Vol.26, No.3, pp.289-300, (2024).
47. 特別支援教育の現場で普段使い可能なボッチャシステムの開発
張 弘, 濱田 一貴, 中茂 睦裕, 山本 倫也
ヒューマンインタフェース学会論文誌, Vol.25, No.4, pp.25-36, (2023).
46. 内発的感情喚起場面において自然に表出される目元を介した感情表出の特徴分析
小林 史弥, 山田 颯, 藤原 蒼太, 青柳 西蔵, 山本 倫也
ヒューマンインタフェース学会論文誌, Vol.25, No.4, pp.49-58, (2023).
45. 対面授業とそのオンデマンド配信に基づくうなずく学生キャラクタの導入効果の分析
藤井 亮哉, 原 成史朗, 青柳 西蔵, 山本 倫也
ヒューマンインタフェース学会論文誌, Vol.25, No.4, pp.37-47, (2023).
44. ビスポーク場面における販売員の発話内容のモデル化とコミュニケーションロボットを用いた実験による評価
小林 史弥, 杉本 匡史, 青柳 西蔵, 山本 倫也, 長田 典子
ヒューマンインタフェース学会論文誌, Vol.24, No.4, pp.263-272, (2022).
<若手卓越研究賞>
43. 眼球運動検査・トレーニングのための検査指標の開発
福森 聡, 喜多 亮介, 青柳 西蔵, 山本 倫也, 北出 勝也
ヒューマンインタフェース学会論文誌, Vol.24, No.2, pp.121-132, (2022).
<論文賞>
42. 眼球の光軸周辺の顕著性マップを用いた視線計測装置のインプリシットキャリブレーション手法
廣江 葵, 山本 倫也, 長松 隆
ヒューマンインタフェース学会論文誌, Vol.23, No.4, pp.431-442, (2021).
<若手卓越研究賞><論文賞>
41. ラバン特徴量の表出タイプ分類に基づく感情推定手法のデザイン制作への適用
小野 友己, 青柳 西蔵, 杉本 匡史, 山本 倫也, 長田 典子
ヒューマンインタフェース学会論文誌, Vol.23, No.3, pp.359-372, (2021).
40. うなずく学生キャラクタがかかわりを実感させるオンデマンド授業の配信に関する研究
藤井 亮哉, 広瀬 隼人, 青柳 西蔵, 山本 倫也
ヒューマンインタフェース学会論文誌, Vol.23, No.3, pp.315-328, (2021).
39. 長期評価を通したパートナーロボットの印象変化
青柳 西蔵, 福森 聡, 山本 倫也
ヒューマンインタフェース学会論文誌, Vol.23, No.1, pp.109-120, (2021).
38. 皮膚電気活動を用いたビスポークサービス時の顧客の心理活動計測
張 帆, 杉本 匡史, 山﨑 陽一, 宮井 彩希, 小幡 浩大, 山本 倫也, 長田 典子
バイオフィードバック研究, Vol.47, No.2, pp.33-42, (2020).
37. 集団コミュニケーションにおける挙手の印象への手の高さと人数の影響-スクリーンとVRヘッドセットの各提示環境において-
南出 健, 青柳 西蔵, 福森 聡, 山本 倫也
情報処理学会論文誌, Vol.61, No.6, pp.1216-1225, (2020).
36. ラバン行動分析と感度分析に基づくモノづくりの場における身体感情表現タイプの抽出
青柳 西蔵, 山﨑 陽一, 小野 友己, 山本 倫也, 長田 典子
ヒューマンインタフェース学会論文誌, Vol.22, No.1, pp.1-12, (2020).
35. 自発的に楽しむモノづくりにおいて喚起される感情―その性質と喚起タイミング―
杉本 匡史, 山本 倫也, 長田 典子
ヒューマンインタフェース学会論文誌, Vol.21, No.1, pp.85-96, (2019).
34. きろぴー:腕型ハードウェアによりキャラクタ性が付与されたタブレットベースのロボット
奥田 悠資, 青柳 西蔵, 山本 倫也, 福森 聡, 渡辺 富夫
ヒューマンインタフェース学会論文誌, Vol.20, No.2, pp.209-220, (2018).
33.Estimating Work Situations from Videos of Practical Training Classes with Assembly Tasks
Kai Okamoto, Koh Kakusho, Michiya Yamamoto, Takatsugu Kojima, and Masayuki Murakami
International Journal of Information and Education Technology, Vol.8, No.1, pp.38-45, (2018).
32. 積極的な挙手動作を代行する挙手ロボットの開発
青柳 西蔵, 河辺 隆司, 山本 倫也, 福森 聡
情報処理学会論文誌, Vol.58, No.5, pp.994-1002, (2017).
31. CGキャラクタによるごっこ遊びを取り入れた実空間共有型グループコミュニケーションシステム
青柳 西蔵, 山本 倫也, 渡辺 富夫
情報処理学会論文誌, Vol.57, No.12, pp.2859-2869, (2016).
30. ラバン行動分析に基づくモノづくりの場における感情抽出の試み
田中 一晶, 山本 倫也, 青柳 西蔵, 長田 典子
ヒューマンインタフェース学会論文誌, Vol.18, No.4, pp.363-372, (2016).
29. 3次元造形物体の感性評価における主要因子
片平 建史, 武藤 和仁, 李 奈栄, 飛谷 謙介, 白岩 史, 中島 加惠, 長田 典子, 岸野 文郎, 山本 倫也, 河崎 圭吾, 荷方 邦夫, 浅野 隆
日本感性工学会論文誌, Vol.15, No.4, pp.563-570, (2016).
28. Video-Based Performance Recognition of Assembly Work in a Practical Training Class for Teaching Material Preparation
Kai Okamoto, Koh Kakusho, Michiya Yamamoto, Takatsugu Kojima, and Masayuki Murakami
Journal of Advances in Information Technology, Vol.7, No.3, pp.186-193, (2016).
27. 角膜反射法における視線計測可能ボリュームシミュレータの開発とマルチユーザ視線インタラクションシステムへの適用
江川 晃一, 山本 倫也, 長松 隆
情報処理学会論文誌, Vol.55, No.11, pp.2476-2486, (2014).
26. PPTouch: 携帯型タッチスクリーンデバイスを用いた身体拡張型プレゼンテーション支援システム
村林 卓, 河辺 隆司, 山本 倫也, 渡辺 富夫
ヒューマンインタフェース学会論文誌, Vol.16, No.2, pp.53-64, (2014).
25. タイピング駆動型身体引き込みキャラクタチャットシステムInterChat
服部 憲治, 渡辺 富夫, 山本 倫也
ヒューマンインタフェース学会論文誌, Vol.15, No.4, pp.53-62, (2013).
24. 教師と生徒のInterActorを一人二役で演じるエデュテインメントシステムの開発
山本 倫也, 渡辺 富夫
情報処理学会論文誌, Vol.54, No.4, pp.1677-1685, (2013).
23. 百人eye:視線と札取り動作の予測に基づくテーブルトップ対戦型百人一首ゲーム
山本 倫也, 米田 宗弘,長松 隆, 渡辺 富夫
情報処理学会論文誌, Vol.54, No.4, pp.1551-1562, (2013).
22. Gaze Estimation Method Involving Corneal Reflection- based Modeling of the Eye as a General Surface of Revolution about the Optical Axis of the Eye
Takashi Nagamatsu, Yukina Iwamoto, Ryuichi Sugano, Junzo Kamahara, Naoki Tanaka, and Michiya Yamamoto
IEICE Transactions on Information and Systems, Vol. E95-D, No. 6, pp. 1656-1667, (2012).
21. 身体的インタラクション解析のためのEye-Tracking液晶ペンタブレットの開発
佐藤 広志, 吉田 圭介, 山本 倫也, 長松 隆, 渡辺 富夫
情報処理学会論文誌, Vol.52, No.12, pp.3647-3658, (2011).
20. うなずき反応モデルを重畳したVirtualActorを介する身体的コミュニケーションの合成的解析
瀬島 吉裕, 渡辺 富夫, 山本 倫也
日本機械学会論文集(C編),Vol. 75, No. 758, pp. 169-178, (2009).
19. 聞き手のうなずき反応を視触覚提示する音声駆動型身体的引き込みシステム
長井 弘志, 渡辺 富夫, 山本 倫也
日本機械学会論文集(C編), Vol. 75, No. 755, pp. 163-171, (2009).
18. キー入力と音声駆動型身体引き込みキャラクタを併用した携帯電話型モバイルシステム
大崎 浩司, 渡辺 富夫, 山本 倫也
ヒューマンインタフェース学会論文誌, Vol. 10, No. 4, pp. 73-83, (2008).
17. 手指動作入力を併用した音声駆動型身体引き込みキャラクタの映像コンテンツ制作への応用
大崎 浩司, 渡辺 富夫, 山本 倫也
情報処理学会論文誌, Vol. 49, No. 8, pp. 2930-2941, (2008).
16. 音声駆動型身体的色彩変化引き込みシステムの開発
黒田 勉, 渡辺 富夫, 山本 倫也
日本機械学会論文集(C編), Vol. 74, No. 742, pp. 1569-1574, (2008).
15. 身体的エージェントの情報提示インタラクションにおける動作に対する発声タイミング制御の効果
山本 倫也, 渡辺 富夫
ヒューマンインタフェース学会論文誌, Vol. 10, No. 2, pp. 135-143, (2008).
14. 音声駆動型身体的引き込みシステムInterVibrator
長井 弘志, 渡辺 富夫, 山本 倫也
ヒューマンインタフェース学会論文誌, Vol. 10, No. 1, pp. 103-112, (2008).
13. Timing Control Effects of Utterance to Communicative Actions on Embodied Interaction with a Robot and CG Character
Michiya Yamamoto and Tomio Watanabe
International Journal of Human-Computer Interaction, Vol. 24, No.1, pp. 87-107, (2008).
12. 3DCGオブジェクトを用いた音声駆動型身体的引き込みシステム
吉田 真章, 渡辺 富夫, 山本 倫也
ヒューマンインタフェース学会論文誌, Vol. 9, No. 3, pp. 87-96, (2007).
11. 音声駆動型身体引き込みキャラクタを映像に重畳合成した教育支援システム
山本 倫也, 渡辺 富夫
情報処理学会論文誌, Vol. 47, No. 8, pp. 2769-2778, (2006).
10. 音声駆動型身体的引き込みポインタInterPointer
長井 弘志, 渡辺 富夫, 山本 倫也
ヒューマンインタフェース学会論文誌, Vol. 7, No. 4, pp. 37-46, (2005).
9. InterActorに手指動作入力を併用した身体的インタラクションシステムの開発
大崎 浩司, 渡辺 富夫, 山本 倫也
ヒューマンインタフェース学会論文誌, Vol. 7, No. 3, pp. 89-98, (2005).
8. 画像処理と3次元CAD図形情報による形状・面情報を用いた認識手法
神代 充, 山本 倫也, 柴田 論, 山本 智規
日本機械学会論文集(C編), Vol. 70, No. 707, pp. 131-138, (2005).
7. ロボットとのあいさつインタラクションにおける動作に対する発声遅延の効果
山本 倫也, 渡辺 富夫
ヒューマンインタフェース学会論文誌, Vol. 6, No. 3, pp. 87-94, (2004).
<論文賞>
6. コミュニケーションと思考の媒体となる分散型仮想環境の作成支援法
山本 倫也, 大坂 融弘, 小林 隆, 石井 裕剛, 手塚 哲央, 吉川 榮和
情報処理学会論文誌, Vol. 43, No. 9, pp. 2914-2927, (2002).
5. 仮想環境を用いた連携作業訓練システムのユーザ指向設計と評価に関する実験研究
長松 隆, 山本 倫也, 岩田 大司, 吉川 榮和
ヒューマンインタフェース学会論文誌, Vol. 3, No. 4, pp. 309-318, (2001).
4. 大規模プラント保守訓練のための分散仮想環境のシミュレーション手法
山本 倫也, 岩田 大司, 長松 隆, 下田 宏, 吉川 榮和
日本バーチャルリアリティ学会論文誌, Vol. 5, No. 4, pp. 1103-1112, (2000).
3. プラント運転・保守の教育訓練へのVirtual Reality適用研究の展望
下田 宏, 石井 裕剛, 山本 倫也, 吉川 榮和
ヒューマンインタフェース学会論文誌, Vol. 1, No. 4, pp. 35-42, (1999).
2. 分散型仮想環境による機器保修訓練システム
山本 倫也, 市口 誠道, 三谷 拓也, 手塚 哲央, 吉川 榮和
日本バーチャルリアリティ学会論文誌, Vol. 4, No. 1, pp. 321-330, (1999).
1. A Study on VR-based Plant-Maintenance Training System
Tetsuo Tezuka, Michiya Yamamoto, Hirotake Ishii and Hidekazu Yoshikawa
Journal of Tsinghua University (Science and Technology), Vol. 37, No. S3, pp. 53-64, (1997).
3. 身体性メディア技術について
山本 倫也
文化情報学辞典, pp.541-548, 勉誠出版, (2019).
2. MobiGaze: Gaze Interface for Mobile Devices
Takashi Nagamatsu, Michiya Yamamoto, and Hiroshi Sato
Cognitively Informed Intelligent Interfaces: Systems Design and Development, IGI Global, pp.56-66, (2012).
1. 大規模プラント保守訓練のためのネットワークVRの構成手法
石井 裕剛, 吉川 榮和, 山本 倫也, 長松 隆
映像情報インダストリアル, Vol. 34, No. 7, pp. 21-26, (2002).
90.An Eye Tracking Concussion Assessment System with Integrated MR-based Sports Vision Training
Kenjiro Okada, Saizo Aoyagi, Satoshi Fukumori, Michiya Yamamoto, Hiroyuki Abutani
Proceedings of the 2024 ACM Symposium on Spatial User Interaction (SUI 2024), Article 57, pp.1-3, (2024).
89.Emotion Estimation Using Laban Feature Values Based on a Multi-scale Kinesphere for Tasks with Various Body Motions
Akari Kubota, Sota Fujiwara, Satoshi Fukumori, Saizo Aoyagi, Michiya Yamamoto
Proceedings of the 2024 ACM Symposium on Spatial User Interaction (SUI 2024), Article 36, pp.1-3, (2024).
88.Development of an Eye-Movement Training System that can be Easily Used by Children in Special Instructional Classrooms
Kosei Inoue, Saizo Aoyagi, Satoshi Fukumori, Michiya Yamamoto, Yukie Isaka, Katsuya Kitade
Proceedings of the 26th International Conference on Human-Computer Interaction (HCII 2024), LNCS14691, pp.59-71, (2024).
87.Analysis of Effects of Raggedy Student CG Characters in Face-to-Face Lectures and Their On-demand Streaming
Seishiro Hara, Ryoya Fujii, Saizo Aoyagi, Michiya Yamamoto
Proceedings of the 25th International Conference on Human-Computer Interaction (HCII 2023), LNCS14016, pp.235-251, (2023).
86.Features Focusing on the Direction of Body Movement in Emotion Estimation Based on Laban Movement Analysis
Sota Fujiwara, Fumiya Kobayashi, Saizo Aoyagi, Michiya Yamamoto
Proceedings of the 25th International Conference on Human-Computer Interaction (HCII 2023), LNCS14012, pp.182–195, (2023).
85.A Study on Eye-Region Expression as Naturally Expressed in a Situation of Spontaneously Evoked Emotions
Hayate Yamada, Fumiya Kobayashi, Saizo Aoyagi, Michiya Yamamoto
Proceedings of the 25th International Conference on Human-Computer Interaction (HCII 2023), CCIS1832, pp.303-309, (2023).
84.Implicit User Calibration for Gaze-tracking Systems Using Saliency Maps Filtered by Eye Movements
Mamoru Hiroe, Michiya Yamamoto, Takashi Nagamatsu
The 8th International Workshop on Pervasive Eye Tracking and Mobile Eye-based Interaction, No.62, pp.1-5, (2023).
83.A Study on the Back and Forth Manzai of Milkboy by Focusing on Embodied Motions and Actions for Liven-up
Hong Zhang, Haruka Shoda, Saizo Aoyagi and Michiya Yamamoto
Proceedings of the 24th International Conference on Human-Computer Interaction (HCII 2022), LNCS 13520, pp.89-103 (2022).
82.Modeling salesclerks’ utterances in bespoke scenes and evaluating them using a communication robot
Fumiya Kobayashi, Masashi Sugimoto, Saizo Aoyagi, Michiya Yamamoto, Noriko Nagata
Proceedings of the 23rd International Conference on Human-Computer Interaction (HCII 2021), CCIS 1498, pp.271-278, (2021).
81.On-demand Lectures that Enable Students to Feel the Sense of a Classroom with Students who Learn Together
Ryoya Fujii, Hayato Hirose, Saizo Aoyagi, Michiya Yamamoto
Proceedings of the 23rd International Conference on Human-Computer Interaction (HCII 2021), LNCS 12765, pp.268-282, (2021).
80.A robot that tells you it is watching you with its eyes
Saizo Aoyagi, Yoshihiro Sejima, Michiya Yamamoto
Proceedings of the 23rd International Conference on Human-Computer Interaction (HCII 2021), LNCS 12763, pp.201-215, (2021).
79.Development of a Vision Training System Using an Eye Tracker by Analyzing Users' Eye Movements
Ryosuke Kita, Michiya Yamamoto, Katsuya Kitade
Proceedings of the 22nd International Conference on Human-Computer Interaction (HCII 2020), LNCS 12427, pp.371-382, (2020).
78.A Long-term Evaluation of Social Robot Impression
Saizo Aoyagi, Satoshi Fukumori, Michiya Yamamoto
Proceedings of the 22nd International Conference on Human-Computer Interaction (HCII 2020), LNCS 12185, pp.131-144, (2020).
77.Construction of customers’ emotion model in the bespoke tailoring using evaluation grid method
Kodai Obata, Masashi Sugimoto, Saki Miyai, Yoichi Yamazaki, Fan Zhang, Michiya Yamamoto, Noriko Nagata
2020 IEEE International Conference on Consumer Electronics (ICCE), pp.1-4, (2020).
76.Differences in Customer's Interactions with Expert/Novice Salesclerks in a Bespoke Tailoring Situation: A Case Study on the Utterances of Salesclerks
Masashi Sugimoto, Yoichi Yamazaki, Fang Zhang, Saki Miyai, Kodai Obata, Michiya Yamamoto, Noriko Nagata
Proceedings of the 21st International Conference on Human-Computer Interaction (HCII 2019), CCIS 1034, pp.131-137, (2019).
75.Development of a System for Analyzing Hand-RaisingCommunication by Using a VR Headset to SynthesizeHuman-CG Character Interaction
Hayato Hirose, Ken Minamide, Satoshi Fukumori, Saizo Aoyagi, Michiya Yamamoto
Proceedings of the 21st International Conference on Human-Computer Interaction (HCII 2019), LNCS 11570, pp.141-150, (2019).
74.The Creative Power of Collaborative Pairs in Divergent Idea-Generation Task
Risa Muraya, Noriko Suzuki, Mamiko Sakata, Michiya Yamamoto
Proceedings of the 21st International Conference on Human-Computer Interaction (HCII 2019), LNCS 11569, pp.330-342, (2019).
73.Application of Classification Method of EmotionalExpression Type Based on Laban Movement Analysis to Design Creation
Yuki Ono, Saizo Aoyagi, Masashi Sugimoto, Yoichi Yamazaki, Michiya Yamamoto, Noriko Nagata
Proceedings of the 21st International Conference on Human-Computer Interaction (HCII 2019), LNCS 11567, pp.143-154, (2019).
72.A Classification Method of Emotional Expression by Body Movements Based on Laban Movement Analysis and Sensitivity Analysis
Yuki Ono, Saizo Aoyagi, Yoichi Yamazaki, Michiya Yamamoto, Noriko Nagata
IEEE 2019 3rd International Conference on Imaging, Vision & Pattern Recognition (IVPR 2019), pp.191-199, (2019).
71.VR system to simulate tightrope walking with a standalone VR headset and slack rails
Saizo Aoyagi, Atsuko Tanaka, Satoshi Fukumori, Michiya Yamamoto
The 26th IEEE Conference on Virtual Reality and 3D User Interfaces (IEEE VR 2019), pp.191-199, (2019).
70.Effects of group size on performance and member satisfaction
Noriko SUZUKI, Mayuka Imashiro, Haruka Shoda, Mamiko SAKATA, Noriko Ito, Michiya Yamamoto
Proceedings of the 20th International Conference on Human-Computer Interaction (HCII 2018), LNCS 10905, pp.191-199, (2018).
69.Development of a Pair Ski Jump System Focusing on Improvement of Experience of Video Content
Ken Minamide, Satoshi Fukumori, Saizo Aoyagi, Michiya Yamamoto
Proceedings of the 20th International Conference on Human-Computer Interaction (HCII 2018), LNCS 10904, pp.562-571, (2018).
68.Modeling Corneal Reflection for Eye-tracking Considering Eyelid Occlusion
Michiya Yamamoto, Ryoma Matsuo, Satoshi Fukumori, Takashi Nagamatsu
Proceedings of 2018 ACM Symposium on Eye Tracking Research and Applications (ETRA' 18), No.95, pp.1-3, (2018).
67.Implicit user calibration for gaze-tracking systems using averaged saliency map around the optical axis of the eye
Mamoru Hiroe, Michiya Yamamoto, Takashi Nagamatsu
Proceedings of 2018 ACM Symposium on Eye Tracking Research and Applications (ETRA' 18), No.56, pp.1-5, (2018).
66.An Unobservable and Untraceable Input Method for Public Spaces by Reconstructing Points of Gaze Only on Servers
Michiya Yamamoto, Hirofumi Sakiyama, Satoshi Fukumori, Takashi Nagamatsu
Proceedings of ACM SUI 2017, pp.155, (2017).
65.Analysis of Emotional Motion based on Laban Movement Analysis
Yoichi Yamazaki, Michiya Yamamoto, and Noriko Nagata
Proceedings of 2017 International Conference on Culture and Computing, pp.71-74, (2017).
64.A Study on Extracting Attractive Regions from One-Point Perspective Paintings
Ryoma Matsuo, Haruka Sugimoto, Mamiko Sakata, and Michiya Yamamoto
Proceedings of the 19th International Conference on Human-Computer Interaction (HCII 2017), LNCS10271, pp.496-505, (2017).
63.Development of a Communication Robot for Forwarding a User’s Presence to a Partner During Video Communication
Michiya Yamamoto, Saizo Aoyagi, Satoshi Fukumori, and Tomio Watanabe
Proceedings of the 19th International Conference on Human-Computer Interaction (HCII 2017), LNCS10273, pp.640-649, (2017).
62.The Effects of Group Size in the Furniture Assembly Task
Noriko Suzuki, Mayuka Imashiro, Mamiko Sakata, and Michiya Yamamoto
Proceedings of the 19th International Conference on Human-Computer Interaction (HCII 2017), LNCS10274, pp.623-632, (2017).
61.Analysis of Hand Raising Actions for Group Interaction Enhancement
Saizo Aoyagi, Michiya Yamamoto, Satoshi Fukumori
Proceedings of the 18th International Conference on Human-Computer Interaction (HCII 2016), LNCS 9734, pp.321-328, (2016).
60.An Affect Extraction Method in Personal Fabrication Based on Laban Movement Analysis
Kazuaki Tanaka, Michiya Yamamoto, Saizo Aoyagi, Noriko Nagata
Proceedings of the 18th International Conference on Human-Computer Interaction (HCII 2016), CCIS 618, pp.188-193, (2016).
59.Enter your PIN Code Securely! ? Utilization of Personal Difference of Angle Kappa
Daiki Sakai, Michiya Yamamoto, Takashi Nagamatsu, Satoshi Fukumori
Proceedings of the Ninth Biennial ACM Symposium on Eye Tracking Research & Applications (ETRA 2016), pp.317-318, (2016).
58.Extraction of Kansei Information in Personal Fabrication Based on Laban Movement Analysis.
Teru Ozawa, Michiya Yamamoto, Kazuaki Tanaka, Saizo Aoyagi, Noriko Nagata
Proceedings of 2nd International Conference on Digital Fabrication (ICDF2016), 30, (2016).
57.Oneself-robot: A Framework for Forwarding a User's Presence via a Robot to a Partner during Video Communication
Takanori Tatsumi, Satoshi Fukumori, Saizo Aoyagi, Michiya Yamamoto, Tomio Watanabe
Proceedings of the 24th IEEE International Symposium on Robot and Human Interactive Communication, IS11, (2015).
<Best Interactive Presentation Award>
56.KiroPi: A Life-Log Robot by Installing Embodied Hardware on a Tablet
Michiya Yamamoto, Saizo Aoyagi, Satoshi Fukumori, Tomio Watanabe
Proceedings of the 24th IEEE International Symposium on Robot and Human Interactive Communication, pp.258-263, (2015).
55.Hand-Raising Robot for Promoting Active Participation in Classrooms
Saizo Aoyagi, Ryuji Kawabe, Michiya Yamamoto, Tomio Watanabe:
Proceedings of the 17th International Conference on Human-Computer Interaction (HCII 2015), LNCS 9173, pp.275-285, (2015).
54.How Do Japanese People Return a Greeting with a Bow?
Mamiko Sakata, Noriko Suzuki, Kana Shirai, Haruka Shoda, Michiya Yamamoto, Takeshi Sugio:
Proceedings of the 17th International Conference on Human-Computer Interaction (HCII 2015), LNCS 9171, pp.503-514, (2015).
53.Framework for Realizing a Free-Target Eye-tracking System
Daiki Sakai, Michiya Yamamoto, Takashi Nagamatsu
Proceedings of the 20th International Conference on Intelligent User Interfaces Companion, Atlanga, GA, USA, March 29 - April 1, pp. 73-76, (2015).
52.Simulator for Developing Gaze Sensitive Environment Using Corneal Reflection-based Remote Gaze Tracker
Kenji Katahira, Kazuhito Muto, Nayoung Lee, Kensuke Tobitani, Aya Shiraiwa, Kae Nakajima, Noriko Nagata, Fumio Kishino, Michiya Yamamoto, Keigo Kawasaki, Kunio Nikata, Takashi Asano
International Convention of Psychological Science (ICPS) Program Book, Amsterdam, the Netherlands, March 12-14, X-030, (2015).
51.Simulator for Developing Gaze Sensitive Environment Using Corneal Reflection-based Remote Gaze Tracker
Takashi Nagamatsu, Michiya Yamamoto, Gerhard Rigoll
Proceedings of the 2nd ACM symposium on Spatial user interaction, Hololulu, HI, USA, October 4-5, p.142, (2014).
50.Measurement of Hand Raising Actions to Support Active Participation in Classes for Students
Ryuji Kawabe, Michiya Yamamoto, Saizo Aoyagi, and Tomio Watanabe
Proceedings of the 16th International Conference on Human-Computer Interaction, Part I, LNCS 8521, pp.199-207, (2014).
49.Development Of Corneal Reflection-Based Gaze Tracking System For Public Use
Takashi Nagamatsu, Kaoruko Fukuda, and Michiya Yamamoto
Proceedings of the 3rd International Symposium on Pervasive Displays (PerDis 2014), Copenhagen, Denmark, June 3-4, pp.194-195, (2014).
48.Eye-Tracking Volume Simulation Method to Configure Hardware Settings for Tangible and Multi-User Tabletop Interaction
Koichi Egawa, Hiroaki Takai, Michiya Yamamoto, and Takashi Nagamatsu
Proceedings of the 2013 ACM international conference on Interactive tabletops and surfaces, St Andrews, U.K., October 6-9, pp.369-372, (2013).
47.Development of a Life-Log Robot for Supporting Group Interaction in Everyday Life
Takuya Matsumoto, Ryota Tamura, Michiya Yamamoto, and Tomio Watanabe
2013 IEEE RO-MAN: The 22nd IEEE International Symposium on Robot and Human Interactive Communication, Gyeongju, Korea, August 26-29, pp.216-219, (2013).
46.Development of a Mobile Tablet PC with Gaze-Tracking Function
Michiya Yamamoto, Hironobu Nakagawa, Koichi Egawa, and Takashi Nagamatsu
Proceedings of the 15th International Conference on Human-Computer Interaction, Vol.13, LNCS 8016, pp.421-429, (2013).
45.Effects of a Communication with Make-Believe Play in a Real-Space Sharing Edutainment System
Hiroki Kanegae, Masaru Yamane, Michiya Yamamoto, and Tomio Watanabe
Proceedings of the 15th International Conference on Human-Computer Interaction, Vol.13, LNCS 8016, pp.326-335, (2013).
44.Development of a Context-enhancing Surface based on the Entrainment of Embodied Rhythms and Actions Sharing via Interaction
Michiya Yamamoto, Yusuke Shigeno, Ryuji Kawabe, Tomio Watanabe
ACM Interactive Tabletops and Surfaces 2012 Conference, November 11-14, Cambridge, MA, U.S.A., pp.363-366, (2012).
43.Development of a Gaze-and-Touch Algorithm for Tabletop Hyakunin-Isshu
Game with Computer Opponent
Michiya Yamamoto, Munehiro Komeda,Takashi Nagamatsu, Tomio Watanabe
Proceedings of 21st IEEE International Symposium on Robot and Human Interactive Communication (Ro-man2012), September 9-13, Paris, France, pp.203-208, (2012).
42.Analysis of the Presenter’s Gaze Interaction Features in Information Indication at a Presentation
Keisuke Yoshida, Syu Miyake, Michiya Yamamoto, Takashi Nagamatsu, Tomio Watanabe
STSS2012 First International Symposium on Socially and Technically Symbiotic Systems, August 29-31, Okayama, Japan, pp.50-1-50-4, (2012).
41.Analysis of Motions and Utterances in Presentation with a Pointer Rod
Dai Tsukamoto, Akinori Nakayama, Michiya Yamamoto, Tomio Watanabe
STSS2012 First International Symposium on Socially and Technically Symbiotic Systems, August 29-31, Okayama, Japan, pp.49-1-49-4, (2012).
40.Mathematical Model for Wide Range Gaze Tracking System Based on Corneal Reflections and Pupil Using Stereo Cameras
Takashi Nagamatsu, Michiya Yamamoto, Ryuichi Sugano, and Junzo Kamahara
Proceedings of ETRA 2012: ACM Symposium on Eye-Tracking Research & Applications, March 28-30, Santa Barbara, California, U.S.A., pp.257-260, (2012).
39.Presentation Support System by Expanding Embodiment with Mobile Touchscreen Device
Michiya Yamamoto, Taku Murabayashi, Tomio Watanabe
ACHI2012 The Fifth International Conference on Advances in Computer-Human Interactions, January 30- February 4, Valencia, Spain, pp.41-16, (2012).
38.Analysis of Pointing Motions by Introducing a Joint Model for Supporting Embodied Large-Surface Presentation
Yusuke Shigeno, Michiya Yamamoto, Tomio Watanabe
ACM International Conference on Interactive Tabletops and Surfaces 2011 , November 13-16, Kobe, Japan, p250-251, (2011).
37.Development of a Real-Space Sharing Edutainment System based on Communication Support with Make-Believe Play
Masaru Yamane, Michiya Yamamoto, Tomio Watanabe
Proceedings of SICE Annual Conference 2011, September 13-18, Tokyo, Japan, pp.2571-2574, (2011).
36.Development of Embodied Visual Effects which Expend Presentation Motion of Emphasis and Indication
Yuya Takao, Michiya Yamamoto, Tomio Watanabe
Proceedings of the 14th International Conference on Human-Computer Interaction (HCII 2011), 9-14 July 2011, Orlando, Florida, USA, LNCS 6762, p.603, (2011).
35.Configuration Method of Visual Media by using Characters of Audiences for Embodied Sports Cheering
Kentaro Okamoto, Michiya Yamamoto, Tomio Watanabe
Proceedings of the 14th International Conference on Human-Computer Interaction (HCII 2011), 9-14 July 2011, Orlando, Florida, USA, LNCS 6762, p.585, (2011).
34.Development of Eye-Tracking Pen Display for the Analysis of Embodied Human Interaction
Michiya Yamamoto, Hiroshi Sato, Keisuke Yoshida, Takashi Nagamatsu, Tomio Watanabe
Proceedings of the 14th International Conference on Human-Computer Interaction (HCII 2011), 9-14 July 2011, Orlando, Florida, USA, LNCS 6771, p.651, (2011).
33.Method for Increasing Area over which User's Gaze can be Estimated Based on Gaze Cones
T. Nagamatsu, R. Sugano, J. Kamahara and M. Yamamoto
Proceedings of the 1st Conference on Novel Gaze-Controlled Applications NGCA‘11, May 26-27, Karlskrona, Sweden, poster 1, (2011).
32. Hyakunin-Eyesshu: a Tabletop Hyakunin-Isshu Game with Computer Opponent by the Action Prediction Based on Gaze Detection
M. Yamamoto, M. Komeda, T. Nagamatsu, T. Watanabe
Proceedings of the 1st Conference on Novel Gaze-Controlled Applications NGCA‘11, May 26-27, Karlskrona, Sweden, article 5, (2011).
31.Development of Eye-Tracking Tabletop Interface for Media Art Works
Michiya Yamamoto, Munehiro Komeda, Takashi Nagamatsu, Tomio Watanabe
Proceedings of the ACM International Conference on Interactive Tabletops and Surfaces 2010, November 7-10, Saarbrucken, Germany, pp.295-296, (2010).
30.An Embodied Entrainment Character Cell Phone by Speech and Head Motion Inputs
Michiya Yamamoto, Kouzi Osaki, Shotaro Matsune, Tomio Watanabe
19th IEEE International Symposium in Robot and Human Interactive Communication Symposium Proceedings, September 12-15, Viareggio, Italy, pp.318-323, (2010).
29.MobiGaze: development of a gaze interface for handheld mobile devices
Takashi Nagamatsu, Michiya Yamamoto, Hiroshi Sato
Proceedings of the 28th of the international conference extended abstracts on Human factors in computing, April 10-15, Atlanta, GA, U.S.A., pp. 3349-3354, (2010).
28.Development of Eye-Tracking Pen Display Based on Stereo Bright Pupil Technique
Michiya Yamamoto, Takashi Nagamatsu, Tomio Watanabe
Proceedings of ETRA 2010: ACM Symposium on Eye-Tracking Research & Applications, March 22-24, Austin, TX, U.S.A., pp. 165-168, (2010).
27.Gaze Estimation Method based on Aspherical Model of Cornea: Surface of Revolution about Optical Axis of Eye
Takashi Nagamatsu, Yukina Iwamoto, Junzo Kamahara, Naoki Tanaka, Michiya Yamamoto
Proceedings of ETRA 2010: ACM Symposium on Eye-Tracking Research & Applications, March 22-24, Austin, TX, U.S.A., pp. 255-258, (2010).
26.Video Contents Production Support System with Speech-Driven Embodied Entrainment Character by Speech and Hand Motion Inputs
Michiya Yamamoto, Kouzi Osaki, and Tomio Watanabe
Proceedings of the 13th International Conference on Human-Computer Interaction (HCII 2009), July 19-24, San Diego, CA, U.S.A., pp. 358-367, (2009).
25.Analysis by Synthesis of Embodied Communication via VirtualActor with a Nodding Response Model
Yoshihiro Sejima, Tomio Watanabe and Michiya Yamamoto
Proceedings of Second International Symposium on Universal Communication (ISUC2008), December 15-16, Osaka, Japan, pp. 225-230, (2008).
24.Development of an Edutainment System with InterActors of a Teacher and a Student in which a User Plays a Double Role of Them
Michiya Yamamoto and Tomio Watanabe
Proceedings of the 17th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN 2008), August 1-3, Munich, Germany, pp. 659-664, (2008).
23.Speech-Driven Embodied Entrainment Character System with Hand Motion Input in Mobile Environment
Kouzi Osaki, Tomio Watanabe and Michiya Yamamoto
Proceedings of the Ninth International Conference on Multimodal Interfaces (ICMI'07), November 12-17, Nagoya, Japan, pp. 285-290, (2007).
22.Analysis by Synthesis of an Information Presentation Method of Embodied Agent Based on the Time Lag Effects of Utterance to Communicative Actions
Michiya Yamamoto and Tomio Watanabe
Proceedings of IEEE RO-MAN 2007 16th IEEE International Symposium on Robot & Human Interactive Communication, August 26-29, Jeju, Korea, pp. 43-48, (2007).
21.Development of an Embodied Image Telecasting Method via a Robot with Speech-Driven Nodding Response
Michiya Yamamoto and Tomio Watanabe
Proceedings of the 12th International Conference on Human-Computer Interaction (HCII 2007), LNCS 4557, July 22-27, Beijing, China, pp. 1017-1025, (2007).
20.Time Lag Effects of Utterance to Communicative Actions on CG Character-Human Greeting Interaction
Michiya Yamamoto and Tomio Watanabe
Proceedings RO-MAN 2006 - the 15th IEEE International Symposium on Robot and Human Interactive Communication, September 6-8, Hatfield, UK, pp. 629-634, (2006).
19.InterVibrator: Speech-Driven Embodied Entrainment System with a Vibratory Nodding Response
Hiroyuki Nagai, Tomio Watanabe and Michiya Yamamoto
Proceedings of the 6th International Workshop on Emergent Synthesis (IWES'06), August 18-19, Kashiwa, Japan, pp. 113-118, (2006).
18.InterAnimal : A Speech-driven Embodied Entrainment Animal Character
Tomio Watanabe and Michiya Yamamoto
ICIS 2006 XVth Biennial International Conference on Infant Studies, June 20-22, Kyoto, Japan, 064-01, (2006).
17.Development of an Embodied Interaction System with InterActor by Speech and Hand Motion Input
Michiya Yamamoto and Tomio Watanabe
CD-ROM of the 2005 IEEE International Workshop on Robots and Human Interactive Communication, Aug. 12-15, Nashville, TN, U.S.A., pp. 323-328, (2005).
16.An Embodied Entrainment System with InterActors Superimposed on Images
Tomio Watanabe and Michiya Yamamoto
Proceedings of the 11th International Conference on Human-Computer Interaction (HCII 2005), July 22-27, Las Vegas, NV, U.S.A., Vol. 4, 2045, (2005).
15.Relationships between the Utterance of Emphatic Phrase and the Following Motions and Actions for a Speech-driven Embodied Interaction System
Michiya Yamamoto and Tomio Watanabe
Proceedings of the 11th International Conference on Human-Computer Interaction (HCII 2005), July 22-27, Las Vegas, NV, U.S.A., Vol. 6, 2026, (2005).
14.InterPointer: Speech-Driven Embodied Entrainment Pointer System
Hiroyuki Nagai, Tomio Watanabe and Michiya Yamamoto
The 2005 International Conference o Active Media Technology (AMT2005), May 19-21, Takamatsu, Japan, pp. 213-218, (2005).
13.Development of a Speech-Driven Embodied Laser Pointer with a Visualized Response Equivalent to Nodding
Hiroyuki Nagai, Tomio Watanabe and Michiya Yamamoto
Proceedings of the Tenth International Symposium on Artificial Life and Robotics 2005 (AROB 10th '05), February 4-6, Beppu, Japan, pp. 218-220, (2005).
12.Timing Control Effects of Utterance to Communicative Actions on Embodied Interaction with a Robot
M. Yamamoto and T. Watanabe
Proceedings of the 13th IEEE International Workshop on Robot-Human Interactive Communication (RO-MAN 2004), September 20-22, Kurashiki, Japan, pp.467-472,(2004).
11.Time Lag Effects of Utterance to Communicative Actions on Robot-Human Greeting Interaction
M. Yamamoto and T. Watanabe
Proceedings of RO-MAN 2003 The 12th IEEE Workshop on Robot and Human Interactive Communication, October 31- November 2, Millbrae, CA, U.S.A., pp. 217-222, (2003).
10.Analysis by Synthesis of the Timing of Utterance to Communicative Actions on Greeting Embodied Interaction
M. Yamamoto and T. Watanabe
Proceedings of SICE Annual Conference 2003 in Fukui, August 4-6, Fukui, Japan, pp. 3227-3232, (2003).
9.Time Delay Effects of Utterance to Communicative Actions on Greeting Interaction by Using a Voice-Driven Embodied Interaction System
M. Yamamoto and T. Watanabe
Proceedings 2003 IEEE International Symposium on Computational Intelligence in Robotics and Automation, July 16-20, Kobe, Japan, pp. 217-222, (2003).
8.Evaluation of Synthetic Recycle System and its Information Visualization by Utilizing Networked Virtual Environment Technology
T. Tezuka, T. Kobayashi, M. Yamamoto, H. Ishii and H. Yoshikawa
Proceedings of The 2nd Seminar of JSPS-MOE Core University Program on Urban Environment, January 15-16, Kyoto, Japan, pp. 241-254 (2002).
7.Open Simulator: A New Framework for Simulating Networked Virtual Environment by Utilizing Online Resources
M. Yamamoto, Y. Osaka, T. Nagamatsu, H. Ishii and H. Yoshikawa
8th IFAC/IFIP/IFORS/IEA Symposium on Analysis, Design, and Evaluation of Human-Machine Systems PREPRINTS, September 18-20, Kassel, Germany, pp. 113-118 (2001).
6.Open Simulator: Architecture for Simulating Networked Virtual Environment by Utilizing Online Resources
M. Yamamoto, Y. Osaka, T. Nagamatsu, H. Ishii and H. Yoshikawa
Usability Evaluation and Interface Design: Cognitive Engineering, Intelligent Agents and Virtual Reality Volume 1 of the Proceedings of the 9th International Conference on Human-Computer Interaction (HCII 2001), August 5-10, 2001 New Orleans, LA, U.S.A., pp. 723-727 (2001).
5.Development of a Group Training System for Plant Worker Using Networked Virtual Environment
T. Nagamatsu, M. Yamamoto, S. Shiba, D. Iwata and H. Yoshikawa
Usability Evaluation and Interface Design: Cognitive Engineering, Intelligent Agents and Virtual Reality Volume 1 of the Proceedings of the 9th International Conference on Human-Computer Interaction (HCII 2001), August 5-10, 2001 New Orleans, LA, U.S.A., pp. 718-722 (2001).
4.Interface Design for Networked Virtual Reality based Training of Cooperative Machine Maintenance Work
T. Nagamatsu, D. Iwata, M. Yamamoto, Y. Osaka, T. Matsuzaki and H. Yoshikawa
Proceedings of CSEPC 2000, Taejon, Korea, November 22-25, pp. 24-29 (2000).
3.Development of Networked Virtual Reality based Training of Cooperative Machine Maintenance Work
M. Yamamoto, H. Yoshikawa, T. Nagamatsu and D. Iwata
Human Performance, Situation Awareness and Automation: User-Centered Design for the New Millennium, Savannah, GA, U.S.A., October 15-19, pp. 330-335 (2000).
2.Study on Distributed Virtual Environment with Multimedia Communication: Introduction of Flexible Method for DVE Expansion
D. Iwata, M. Yamamoto, T. Tezuka and H. Yoshikawa
Proceedings of IEEE-SMC'99, Tokyo, Japan, October 12-15, Vol. 6, pp. 70-74 (1999).
1.An Experimental Study on Distributed Virtual Environment for Integrated Training System on Machine Maintenance
M. Yamamoto, T. Mitani, N. Ichiguchi, T. Tezuka and H. Yoshikawa
Proceedings of IEEE-SMC'98, San Diego, U.S.A., October 12-14, pp. 1479-1484 (1998).
242.MR場所アバタと実空間との連続性を考慮した講義受講システムの提案
岡崎 亮満, 池田 文哉, 青柳 西蔵, 山本 倫也
ヒューマンインタフェース学会研究報告集, Vol.26 No.7, pp.37-38, (2024).
241.通級指導教室における眼球運動トレーニングシステムの設置運用による眼球運動能力の向上に関する研究
井上 耕生, 青柳 西蔵, 山本 倫也, 井阪 幸恵, 北出 勝也
ヒューマンインタフェース学会研究報告集, Vol.26 No.7, pp.15-16, (2024).
240.実験装置構築における思考プロセスに焦点を当てた作業過程の記録と可視化手法の提案
張 弘, 宮武 隼平, 福森 聡, 山本 倫也
ヒューマンインタフェースシンポジウム2024論文集, pp.989-991, (2024).
239.⼦どもに向けた眼球運動トレーニング映像の誘⽬性評価とその向上に向けた映像制作
櫛引 秀⽃, 井上 耕⽣, 播磨 由佳, ⻘柳 ⻄蔵, ⼭本 倫也
ヒューマンインタフェースシンポジウム2024論文集, pp.925-929, (2024).
238.集団学生キャラクタの多様な動作がコミュニケーション場を生み出すオンデマンド講義受講システムの開発
岡崎 亮満, 原 成史朗, 青柳 西蔵, 山本 倫也
ヒューマンインタフェースシンポジウム2024論文集, pp.876-881, (2024).
237.キネスフィアの大きさを考慮したラバン特徴量の提案とそれを用いた感情推定
久保田 あかり, 藤原 蒼太, 福森 聡, 青柳 西蔵, 山本 倫也
ヒューマンインタフェースシンポジウム2024論文集, pp.316-318, (2024).
236.眼球運動と認知モデルを考慮したRey-Osterrieth複雑図形の板書・模写の分析
佐藤 瑞生, 小倉 紀音, 原田 光, 上田 樹美, 福森 聡, 山本 倫也
ヒューマンインタフェースシンポジウム2024論文集, pp.306-311, (2024).
<優秀プレゼンテーション賞(審査員による選考)>
235.スポーツビジョン機能を普段使いする視線計測機能付きMRHMDを用いたVOMSシステムの提案
岡田 健次朗, 青柳 西蔵, 福森 聡, 山本 倫也, 油谷 浩之
ヒューマンインタフェースシンポジウム2024論文集, pp.200-202, (2024).
234.裸眼立体ディスプレイを用いた講義受講システムにおける集団学生キャラクタのコミュニケーション動作の生成に関する研究
岡崎 亮満, 原 成史朗, 青柳 西蔵, 山本 倫也
ヒューマンインタフェース学会研究報告集, Vol.26, No.3, pp.33-38, (2024).
233.「悩む」の多様性に着目したパズルタスクにおける身体動作に基づく感情推定の試み
久保田 あかり,藤原 蒼汰,青柳 西蔵,山本 倫也
情報処理学会第86回全国大会講演論文集, pp.4-97-4-98, (2024).
<学生奨励賞>
232.放課後等デイサービス向けの眼球運動トレーニングにおける履歴提示システムのUX開発
播磨 由佳, 井上 耕生, 福森 聡, 山本 倫也, 佐藤 智子
情報処理学会第86回全国大会講演論文集, pp.4-137-4-138, (2024).
231.身体動作による盛り上げとその分類に着目したミルクボーイの漫才の分析
張 弘, 山本 倫也
ヒューマンインタフェース学会研究報告集, Vol.25, No.7, pp.37-40, (2023).
230.特別支援学校での現場利用を考慮したボッチャシステムの開発と評価
張 弘, 濱田 一貴, 中茂 睦裕, 山本 倫也
ヒューマンインタフェースシンポジウム2023論文集, pp.281-384, (2023).
<優秀プレゼンテーション賞(審査員による選考)><第24回学術奨励賞(2024年度)>
229.通級指導教室の児童が使いやすい眼球運動トレーニングシステムの開発
井上 耕生, 小倉 紀音, 青柳 西蔵, 福森 聡, 山本 倫也, 井阪 幸恵, 北出 勝也
ヒューマンインタフェースシンポジウム2023論文集, pp.285-290, (2023).
228.パズルタスクにおける表出感情のモデル化とラバン特徴量を用いた感情推定の試み
久保田 あかり, 藤原 蒼太, 青柳 西蔵, 山本 倫也
電子情報通信学会技術報告, HCS2023-48, pp.29-34, (2023).
227.学生キャラクタに多様な動作を導入した裸眼立体ディスプレイを用いた講義配信システムの開発
原 成史朗, 岡﨑 亮満, 青柳 西蔵, 山本 倫也
電子情報通信学会技術報告, HCS2023-46, pp.19-22, (2023).
226.特別支援教育での現場利用を想定したボッチャシステムの開発
張 弘, 濱田 一貴, 中茂 睦裕, 山本 倫也
電子情報通信学会技術報告, WIT2023-9, pp.46-49, (2023).
<WIT学生研究奨励賞>
225.ラバン行動分析に基づく感情推定における身体動作の方向に着目した特徴量の検討
藤原 蒼太, 小林 史弥, 青柳 西蔵, 山本 倫也
HAIシンポジウム2023予稿集, P-35, 8 pages, (2023).
224.広視野角の眼球運動を対象とする検査・トレーニングシステムの開発
小倉 紀音, 中尾 歩, 福森 聡, 山本 倫也
情報処理学会第85回全国大会講演論文集, pp.4-115-4-116, (2023).
223.仮想の手と地図を介して広範囲の地形を知覚できるVRシステムの開発
岡崎 亮満, 青柳 西蔵, 山本 倫也
情報処理学会第85回全国大会講演論文集, pp.4-163-4-164, (2023).
222.内発的感情喚起場面において自然に表出される目元を介した感情表出の特徴分析
小林 史弥,山田 颯,藤原 蒼太,青柳 西蔵,山本 倫也
情報処理学会研究報告, Vol.2023-HCI-201, No.39, pp.1-8, (2023).
221.対面授業とそのオンデマンド配信に基づくうなずく学生キャラクタの導入効果の分析
藤井 亮哉,原 成史朗,青柳 西蔵,山本 倫也
情報処理学会研究報告, Vol.2023-HCI-201, No.27, pp.1-8, (2023).
220.通級指導教室の児童に向けた眼球運動トレーニングシステムの開発
中尾 歩, 青柳 西蔵, 山本 倫也, 北出 勝也, 井阪 幸恵
ヒューマンインタフェースシンポジウム2022論文集, pp.549-552, (2022).
<プレゼンテーション賞(プログラム委員会賞)>
219.動画視聴時の感情表出における身体動作・目元情報・生理指標の関係性の分析
山田 颯, 小林 史弥, 藤原 蒼太, 青柳 西蔵, 山本 倫也
電子情報通信学会技術研究報告, Vol.122, No.166, pp.3-8, (2022).
218.ラバン行動分析に基づく動画視聴時における感情推定のための特徴量についての検討
藤原 蒼太, 小林 史弥, 青柳 西蔵, 杉本 匡史, 山本 倫也, 長田 典子
ヒューマンインタフェース学会研究報告集, Vol.24, No.3, pp.297-304, (2022).
217.感情喚起の個人差に着目した目元-感情データセットの構築と機械学習による評価
小林 史弥, 荻 光輝, 山田 颯, 青柳 西蔵, 山本 倫也
ヒューマンインタフェース学会研究報告集, Vol.24, No.3, pp.289-296, (2022).
216.講義動画への学生キャラクタのうなずき, だらけ動作の導入効果と対面授業との比較
原 成史朗, 藤井 亮哉, 青柳 西蔵, 山本 倫也
ヒューマンインタフェース学会研究報告集, Vol.24, No.3, pp.239-242, (2022).
215.身体動作による盛り上げに着目したミルクボーイの行ったり来たり漫才の分析
張 弘, 山本 倫也
HAIシンポジウム2022予稿集, P-30, 6 pages, (2022).
<学生奨励賞>
214.タブレットベースロボットの目の表現における光のモチーフの導入効果
大場 雅博, 山本 倫也, 青柳 西蔵
HAIシンポジウム2022予稿集, P-26, 8 pages, (2022).
213.タブレットベースロボットにおける温かみのある目の表現手法に関する検討
大場 雅博, 青柳 西蔵, 山本 倫也
第22回計測自動制御学会システムインテグレーション部門講演会予稿集, pp.3169-3170, (2021).
212.顔表情・目元表情の分析のためのラッセルの円環モデルに基づく感情喚起手法の検討
荻 光輝, 青柳 西蔵, 山本 倫也
第22回計測自動制御学会システムインテグレーション部門講演会予稿集, pp.3165-3168, (2021).
211.かかわりが実感できるオンラインコミュニケーションをめざして
山本 倫也
令和3年電気関係学会関西連合大会講演論文集, p.233, (2021).
210.ラバン特徴量に基づく感情推定手法のビスポーク場面への適用に関する検討
藤原 蒼太, 小林 史弥, 青柳 西蔵, 杉本 匡史, 山本 倫也, 長田 典子
ヒューマンインタフェースシンポジウム2021論文集, pp.570-573, (2021).
209.眼球運動の検査・トレーニングのための頭部回転検査指標の開発
小倉 紀音, 福森 聡, 青柳 西蔵, 山本 倫也, 北出 勝也
ヒューマンインタフェースシンポジウム2021論文集, pp.505-510, (2021).
208.ビスポーク場面における販売員の発話内容のモデル化とロボットによるコミュニケーション効果
小林 史弥, 杉本 匡史, 青柳 西蔵, 山本 倫也, 長田 典子
ヒューマンインタフェース学会研究報告集, Vol.23, No.2, pp.97-100, (2021).
207.ミルクボーイはどのようにウケているのか~基本ユニットの抽出とその変化の分析から~
張 弘, 山本 倫也
HAIシンポジウム2021予稿集, P-41, 6 pages, (2021).
206.CG教室にうなずく学生キャラクタを導入したオンデマンド授業の配信に関する研究
藤井 亮哉, 広瀬 隼人, 青柳 西蔵, 山本 倫也
HAIシンポジウム2021予稿集, P-40, 8 pages, (2021).
<学生奨励賞>
205.オンライン授業における教室の360度動画配信の試み
広瀬 隼人, 青柳 西蔵, 山本 倫也
ヒューマンインタフェースサイバーコロキウム(HIC2 2020)論文集, pp.449-456, (2020).
204.目で位置をフィードバックするコミュニケーションロボットの開発
東 隆太郎, 瀬島 吉裕, 青柳 西蔵, 山本倫也
HAIシンポジウム2020予稿集, G-12, 6 pages, (2020).
203.コンセント図鑑:パレイドリア現象を利用して形状を意味付けするインタラクティブコンテンツ
青柳 西蔵, 森川 裕斗, 山本 倫也
HAIシンポジウム2020予稿集, P-57, 4 pages, (2020).
<特別奨励賞>
202.ビスポーク場面におけるユーザの評価因子と満足感に関する検討
小幡浩大・杉本匡史・宮井彩希・山﨑陽一・張帆・山本倫也・長田典子
2019年度日本人間工学会関西支部大会講演論文集, pp.91-94, 4 pages, (2019).
201.身体認識研究に関する再現性の実験的検討
池田 直弥, 福森 聡, 山本 倫也
ヒューマンインタフェースシンポジウム2019論文集, pp.650-656, (2019).
200.VR綱渡りシステムを用いた追体験性の検証手法の提案
多田 義將, 広瀬 隼人, 青柳 西蔵, 山本 倫也
ヒューマンインタフェースシンポジウム2019論文集, pp.461-464, (2019).
199.悪いことを“する”コミュニケーションロボットの開発
東 隆太郎, 大西 奏太郎, 福森 聡, 青柳 西蔵, 山本 倫也
ヒューマンインタフェース学会研究報告集, Vol.21, No.3, pp.79-80, (2019).
198.一人ナイツはなぜ面白いのか~マルチモーダル分析の観点から~
山本 倫也
ヒューマンインタフェース学会研究報告集, Vol.21, No.3, pp.73-78, (2019).
197.視線計測装置を用いた眼球運動トレーニングの提案
喜多 亮介, 山本 倫也, 北出 勝也
情報処理学会第81回全国大会講演論文集, pp.4-233-4-234, (2019).
196.角膜反射の限界点に着目した視線計測におけるカメラと光源の移動可能範囲の導出
横田 杏里, 山本 倫也, 廣江 葵, 長松 隆
情報処理学会第81回全国大会講演論文集, pp.4-231-4-232, (2019).
195.VRヘッドセットとスラックレールを用いた綱渡り体験システム
田中 敦子, 青柳 西蔵, 山本 倫也
情報処理学会 インタラクション2019 (IPSJ Interaction 2019), pp.175-178, (2019).
<プレミアム発表>
194.VR ヘッドセットを用いたスラックレール体験システムの開発
田中 敦子, 青柳 西蔵, 山本 倫也
第19回システムインテグレーション部門講演会講演論文集, pp.1895-1896, (2018).
193.複数人による挙手インタラクション解析のためのシステム開発手法の検討
広瀬 隼人, 南出 健, 青柳 西蔵, 福森 聡, 山本 倫也
第19回システムインテグレーション部門講演会講演論文集, pp.1254-1257, (2018).
192.ラバン行動分析に基づく感情表出タイプ抽出手法のデザイン制作への適用
小野 友己, 青柳 西蔵, 杉本 匡史, 山崎 陽一, 山本 倫也, 長田 典子
ヒューマンインタフェース学会研究報告集, Vol.20, No.9, pp.11-16, (2018).
191.VRヘッドセットを用いた場の生成による挙手コミュニケーション解析システムの開発
南出 健, 青柳 西蔵, 福森 聡, 山本 倫也
ヒューマンインタフェースシンポジウム2018 DVD-ROM論文集, pp.791-794, (2018).
190.タブレット端末のロボット化を対象とする受け入れられやすいパートナーロボットの研究
東 隆太郎, 奥田 悠資, 福森 聡, 青柳 西蔵, 山本 倫也
ヒューマンインタフェース学会研究報告集, Vol.20, No.3, (2018).
189.タブレット端末のロボット化による受け入れられやすいパートナーロボットの開発
奥田 悠資, 東 隆太郎, 青柳 西蔵, 福森 聡, 山本 倫也
情報処理学会第80回全国大会講演論文集, pp.4-275-4-276, (2018).
188.瞼の影響を考慮した視線計測のための角膜反射領域のモデル化
松尾 良磨, 山本 倫也, 長松 隆
情報処理学会第80回全国大会講演論文集, pp.4-267-4-268, (2018).
187.広視野角HMDを用いた仮想の肢の視覚刺激が身体所有感に与える影響
福森 聡, 加瀬 雄哉, 山本 倫也
計測自動制御学会システム・情報部門学術講演会2017, GS12-4, (2017).
186.ラバン行動分析に基づくモノづくりの場における感情の行動表出型に関する検討
細谷 怜央, 山崎 陽一, 山本 倫也, 長田 典子
ヒューマンインタフェース学会研究報告集, Vol.19, No.8, pp.29-32, (2017).
185.モノづくりを行う人の感情の抽出と喚起要因の分析
道上 和杜, 杉本 匡史, 山本 倫也, 長田 典子
ヒューマンインタフェース学会研究報告集, Vol.19, No.8, pp.23-28, (2017).
184.笑いの表情に対応した視線計測のための基礎的検討
松尾 良磨, 福森 聡, 山本 倫也, 長松 隆
日本顔学会誌, Vol.17, No.1, pp.86-86, (2017).
183.COI STREAM 感性とデジタル製造を直結し、生活者の創造性を拡張するファブ地球社会創造拠点
長田 典子, 岸野 文郎, 井村 誠孝, 山本 倫也, 飛谷 謙介, 片平 建史, 谿 雄祐, 猪股 健太郎, 山﨑 陽一, 橋本 翔, 杉本 匡史, 橋本 学, 荷方 邦夫
日本顔学会誌, Vol.17, No.1, pp.34-34, (2017).
182.タブレット端末のロボット化における人-ロボットの関係性デザイン
奥田 悠資, 東 隆太郎, 青柳 西蔵, 福森 聡, 山本 倫也
ヒューマンインタフェースシンポジウム2017 DVD-ROM論文集, pp.277-280, (2017).
181.映像コンテンツの体験性向上に着目したペアスキージャンプシステムの開発
南出 健, 山本 倫也, 福森 聡
ヒューマンインタフェース学会研究報告集, Vol.19, No.2, pp.81-84, (2017).
180.遠隔ミーティングにおける発話権取得のための挙手動作ロボットの開発
櫻井 亜彩子, 福森 聡, 山本 倫也
情報処理学会第79回全国大会講演論文集, pp.4-199-4-200, (2017).
179.一点透視図法の絵画における注目領域の抽出ー遠近法導入時に着目して
杉本 はるか, 阪田 真己子, 松尾 良磨, 山本 倫也
情報処理学会第79回全国大会講演論文集, pp.4-951-4-952, (2017).
<学生奨励賞>
178.モノづくりの場における感情抽出を目的としたラバン特徴量の自己組織化マップに基づく評価
谷川 力斗, 山崎 陽, 山本 倫也, 長田 典子
情報処理学会研究報告, Vol.2017-HCI-171, No.32, pp.1-4, (2017).
177. 光軸と視軸のズレを用いた個人認証システムの開発
酒井 大貴, 山本 倫也, 長松 隆, 福森 聡
ヒューマンインタフェースシンポジウム2016DVD-ROM論文集, pp.519-522, (2016).
176. 眼球の光軸中心回転体モデルに基づく視線計測手法による強膜反射時の視線推定
荒井 悠, 亀山 真由子, 長松 隆, 山本 倫也
ヒューマンインタフェースシンポジウム2016DVD-ROM論文集, pp.509-514, (2016).
175. 笑いの表情に対応した視線計測のためのgaze coneの計測
松尾 良磨, 酒井 大貴, 福森 聡, 山本 倫也, 長松 隆
ヒューマンインタフェース学会研究報告集, Vol.18, No.2, pp.179-182, (2016).
<コミュニケーション支援研究賞>
174. 音声とタッチパネルで操作可能なパートナーロボットとのインタラクション手法の検討
奥田 悠資, 山本 倫也, 福森 聡, 青柳 西蔵
ヒューマンインタフェース学会研究報告集, Vol.18, No.2, pp.63-66, (2016).
173. 広視野角ヘッドマウントディスプレイを用いたペアスキージャンプ体験システムの開発
橋本 絵梨, 山本 倫也, 茂野 裕介, 青柳 西蔵
情報処理学会第78回全国大会講演論文集, pp.4-595-4-596, (2016).
<学生奨励賞>
172. 広視野角HMDを用いたリハビリシステムにおける仮想の肢の視覚情報が使用者に与える影響
加瀬 雄哉, 福森 聡, 山本 倫也
第16回計測自動制御学会システムインテグレーション部門講演会講演論文集, pp.1596-1597, (2015).
171. 自己の存在感を転送する「自分ロボット」の開発
辰巳 貴則, 青柳 西蔵, 福森 聡, 山本 倫也, 渡辺 富夫
ヒューマンインタフェース学会研究報告集, Vol.17, No.8, pp.11-16, (2015).
170. 身体動作から場を形容する言葉を抽出するクラウドソーシング型フレームワークの提案
青柳 西蔵, 福森 聡, 山本 倫也, 長田 典子
ヒューマンインタフェースシンポジウム2015論文集, pp.857-860, (2015).
169. モノづくりの楽しさを共有する映像制作のための感性情報の抽出手法
青柳 西蔵, 山本 倫也, 福森 聡, 長田 典子
ヒューマンインタフェース学会研究報告集, Vol.17 No.2, pp.39-44, (2015).
168. 集団コミュニケーション支援のための挙手動作の解析
河辺 隆司, 青柳 西蔵, 山本 倫也
情報処理学会第77回全国大会講演論文集, pp.4-235-4-236, (2015).
167. パーソナルファブリケーションを促進する感性指標化技術 ~3次元形状の感性評価因子と物理特徴量との関係~
飛谷謙介, 武藤和仁, 李奈栄, 片平建史, 白岩史, 中島加惠, 長田典子, 岸野文郎, 山本倫也, 秋月秀一, 橋本学, 河崎圭吾, 荷方邦夫, 浅野隆
ViEW2014 ビジョン技術の実利用ワークショップ, IS2-16, (2014).
166. 自己の存在感を転送する「自分ロボット」の提案
辰巳 貴則, 青柳 西蔵, 山本 倫也, 渡辺 富夫
計測自動制御学会システム・情報部門学術講演会2014講演論文集, p.929, (2014).
165. 集団コミュニケーション支援のための挙手ロボットの開発
野田 圭太朗, 河辺 隆司, 山本 倫也, 青柳 西蔵
計測自動制御学会システム・情報部門学術講演会2014講演論文集, pp.927-928, (2014).
164. 返答挨拶に影響を及ぼすお辞儀と発話のタイミング構造
白井 芳奈, 阪田 真己子, 鈴木 紀子, 山本 倫也
2014年度日本認知科学会第31回大会発表論文集, pp.756-761, (2014).
163. パーソナルファブリケーションを促進する感性指標化技術~3次元形状の感性評価における基本因子の抽出~
武藤 和仁, 李 奈栄, 片平 建史, 飛谷 謙介, 白岩 史, 中島 加惠, 長田 典子, 岸野 文郎, 山本 倫也, 河崎 圭吾, 荷方 邦夫, 浅野 隆
2014年度情報処理学会関西支部支部大会論文集, G-108, (2014).
162. モノづくりの楽しさを共有する映像制作のための感性特徴量の指標化手法の検討
岡本 海, 青柳 西蔵, 山本 倫也, 長田 典子
ヒューマンインタフェースシンポジウム2014 DVD-ROM論文集, pp.539-542, (2014).
161. ライフログロボット「きろぴー」を用いたライフログコミュニケーションの評価
清水 大誠, 青柳 西蔵, 山本 倫也, 渡辺 富夫
ヒューマンインタフェースシンポジウム2014 DVD-ROM論文集, pp.463-468, (2014).
160. 身体性に着目した授業参加支援システム開発のための挙手動作パターンの分析
河辺 隆司, 青柳 西蔵, 山本 倫也, 渡辺 富夫
ヒューマンインタフェースシンポジウム2014 DVD-ROM論文集, pp.457-462, (2014).
159. 3次元空間を対象とする視線計測のためのボリュームシミュレータの開発
酒井 大貴, 山本 倫也, 長松 隆, 長田 典子
ヒューマンインタフェースシンポジウム2014 DVD-ROM論文集, pp.441-444, (2014).
158. 積極的な授業参加を支援する挙手ロボットの開発と評価
青柳 西蔵, 河辺 隆司, 澤 菜々美, 山本 倫也, 渡辺 富夫
ヒューマンインタフェース学会研究報告集, Vol.16,No.3,pp.237-242, (2014).
157. 積極的な授業参加を支援する挙手ロボットの開発
澤 菜々美, 河辺 隆司, 山本 倫也, 渡辺 富夫
情報処理学会第76回全国大会講演論文集, pp.4-257-4-458, (2014).
<大会奨励賞>
156. 視線でスケルヒトン:注視点にスケルトン映像をマッピングするインタラクションシステムの開発
谷村 真依子, 江川 晃一, 高居 宏彰, 山本 倫也, 長松 隆
情報処理学会第76回全国大会講演論文集, pp.4-21-4-22, (2014).
155. グループコミュニケーションにおけるなりきり支援のための自分ロボットの開発
辰巳 貴則, 鐘ヶ江 宏樹,山本 倫也, 渡辺 富夫
第14回公益社団法人計測自動制御学会システムインテグレーション部門講演会論文集, pp.2002-2003, (2013).
154. アンビエントに1点キャリブレーションを行う視線計測手法の検討
吉田 圭介, 山本 倫也, 長松 隆
ヒューマンインタフェース学会研究報告集, Vol.15,No.12,pp.27-30, (2013).
153. 複数の情報機器を用いるシステムのUXデザインを実現するためのプロセスと手法の提案
村林 卓, 江澤 正裕, 河辺 隆司, 山本 倫也
ヒューマンインタフェース学会研究報告集, Vol.15,No.12,pp.21-26, (2013).
152. ライフログロボットきろぴーを用いた初対面グループコミュニケーションの評価
松本 拓也, 井上 雄司, 山本 倫也, 渡辺 富夫
ヒューマンインタフェース学会研究報告集, Vol.15, No.9, pp.43-46, (2013).
151. 授業参加のきっかけを支援する挙手ロボットの提案
澤 菜々美, 河辺 隆司, 山本 倫也, 渡辺 富夫
第10回子ども学会議大会プログラム・抄録集, p.27, (2013).
150. Eye-Tracking液晶ペンタブレットを用いたイラスト模写時の視線・描画特性の分析
山本 倫也, 吉田 圭介,堀 遼太,長松 隆
ヒューマンインタフェースシンポジウム2013 DVD-ROM論文集, pp.681-682, (2013).
149. 視線計測可能ボリュームシュミレータを利用したマルチユーザ視線計測システムの開発
高居 宏彰,江川 晃一,山本 倫也, 長松 隆
ヒューマンインタフェースシンポジウム2013 DVD-ROM論文集, pp.675-680, (2013).
148. 学習者の積極的な授業参加支援のための挙手動作の計測
河辺 隆司, 茂野 裕介, 山本 倫也, 渡辺 富夫
ヒューマンインタフェース学会研究報告集, Vol. 15, No. 3, pp. 157-pp. 160, (2013).
147. コンテクストを拡張したインタラクション支援のための挙手動作の解析
茂野 裕介, 河辺 隆司, 山本 倫也, 渡辺 富夫
情報処理学会 第75回全国大会講演論文集DVD, pp. 4-319- pp. 4-320, (2013).
146. グループコミュニケーションにおけるなりきり支援のためのキャラクタロボットの開発
木村 卓哉, 山根 大, 鐘ヶ江 宏樹, 山本 倫也, 渡辺 富夫
情報処理学会 第75回全国大会講演論文集DVD, pp.4-125-pp.4-126, (2013).
145. 実空間共有型エデュテインメントシステムGOSALにおける対面コミュニケーションの効果
山根 大, 鐘ヶ江 宏樹, 木村 卓哉, 山本 倫也, 渡辺 富夫
情報処理学会 第75回全国大会講演論文集DVD, pp.4-123-pp.4-124, (2013).
144. 多人数拍手インタラクションにおけるリズムと盛り上がり分析
山口 真実, 山本 倫也, 渡辺 富夫
第13回公益社団法人計測自動制御学会システムインテグレーション部門講演会論文集, pp.0156-0157, (2012).
143. 視線計測機能を搭載したタブレットPCの開発
中川 浩伸,江川 晃一,佐藤 広志, 山本 倫也,長松 隆
ヒューマンインタフェース学会研究報告集, Vol. 14, No. 11, pp. 47-50, (2012).
142. 見たところが光る箱:視線情報を実世界で共有できるコラボレーション技術の開発
垣内 啓伸,藤井 美菜子,江川 晃一,山本 倫也,長松 隆
エンタテインメントコンピューティング2012講演予稿集, pp.184-189, (2012).
141. Eye-Tracking液晶ペンタブレットを用いたイラスト模写時の視線・描画特性の計測
堀 遼太,吉田 圭介,山本 倫也,長松 隆,渡辺 富夫
エンタテインメントコンピューティング2012講演予稿集, pp.114-117, (2012).
140. 仮想の指示棒で身体動作を促すプレゼンテーションシステムの開発
塚本 大,中山 晃典,山本 倫也,渡辺 富夫
ヒューマンインターフェースシンポジウム2012 DVD-ROM論文集, pp.649-652,(2012).
139. グループコミュニケーション支援のための日常生活に溶け込むライフログロボットの開発
松本 拓也,田村 亮太,山本 倫也,渡辺 富夫
ヒューマンインターフェースシンポジウム2012 DVD-ROM論文集, pp.351-354, (2012).
<優秀プレゼンテーション賞>
138. 実空間共有型エデュテインメントシステムにおけるごっこ遊びコミュニケーションの効果
鐘ヶ江 宏樹,山根 大,山本 倫也,渡辺 富夫
ヒューマンインターフェース学会研究報告集,Vol.14, No.3, pp.71-74, (2012).
137. デュアルディスプレイ型広範囲視線計測システムの開発
江川 晃一, 中川 浩伸, 山本 倫也, 菅野 隆一, 長松 隆
ヒューマンインターフェース学会研究報告集,Vol.14, No.3, pp.93-96, (2012).
136. 積極的な身体動作で盛り上がりを支援する身体的インタラクションシステムの開発
岡本 健太郎, 山本 倫也, 渡辺 富夫
情報処理学会 第74回全国大会講演論文集DVD, pp.4-241-pp.4-242, (2012).
135. 視線計測機能を搭載したタブレット型モバイルPCの開発
佐藤 広志, 吉田 圭介, 山本 倫也, 長松 隆
情報処理学会 第74回全国大会講演論文集DVD, pp.4-49-pp.4-50, (2012).
<情報処理学会推奨修士論文>
134. テーブルトップ対戦型百人一首ゲームにおける視線を用いたGaze-and-Touch アルゴリズムの開発
米田 宗弘, 山本 倫也, 長松 隆, 渡辺 富夫
情報処理学会 第74回全国大会講演論文集DVD, pp.4-353-pp.4-354, (2012).
<学生奨励賞>
133. 指示棒を使用したプレゼンテーションにおける身体動作と発話特性の解析
中山 晃典, 山本 倫也, 渡辺 富夫
情報処理学会 第74回全国大会講演論文集DVD, pp.4-255-pp.4-256, (2012).
132. 人間特性を利用してプレゼンテーション動作を拡張する身体的ビジュアルエフェクトの開発
高尾 裕也, 山本 倫也, 渡辺 富夫
情報処理学会 第74回全国大会講演論文集DVD, pp.4-257-pp.4-258, (2012).
131. プレゼンテーション時の情報提示における発表者の視線インタラクション特製の解析
三宅 秀, 吉田 圭介, 山本 倫也, 長松 隆, 渡辺 富夫
情報処理学会 第74回全国大会講演論文集DVD, pp.4-259-pp.4-260, (2012).
130. 携帯型タッチスクリーンデバイスを用いた身体拡張型プレゼンテーション支援システムの評価
村林 卓, 山本 倫也, 渡辺 富夫
第12回公益社団法人計測自動制御学会システムインテグレーション部門講演会論文集, pp.0154-0155, (2011).
129. ごっこ遊びのコミュニケーション効果に着目した実空間共有型エデュテインメントシステムの評価
鐘ヶ江 宏樹, 山根 大, 山本 倫也, 渡辺 富夫
第12回公益社団法人計測自動制御学会システムインテグレーション部門講演会論文集, pp.0148-0149, (2011).
128. 身体的インタラクション支援のための着せ替え型パーソナルロボットの提案
松本拓也, 山本 倫也, 渡辺 富夫
HAIシンポジウム, I-2A-6, (2011).
127. かかわりが実感できる身体的コミュニケーション・視線インタラクション技術
山本 倫也
関西学院大学新技術説明会資料集, pp.27-31, (2011).
126. 身体的プレゼンテーションにおける間(ま)の共有に向けて
山本 倫也
共創システムシンポジウム2011, p.10, (2011).
125. 身体的サーフェスプレゼンテーション支援のための関節モデルを導入した指示動作の解析
茂野 裕介, 山本 倫也, 渡辺 富夫
ヒューマンインタフェースシンポジウム2011 DVD-ROM論文集, pp.1093-1096, (2011).
124. 広範囲計測が可能なユーザキャリブレーションフリー視線計測装置の提案
菅野 隆一, 長松 隆, 鎌原 淳三, 田中 直樹, 山本 倫也
ヒューマンインタフェースシンポジウム2011 DVD-ROM論文集, pp.439-444, (2011).
123. ごっこ遊びのコミュニケーション支援に着目した実空間共有型エデュテインメントシステム
山根 大, 山本 倫也, 渡辺 富夫
ヒューマンインタフェースシンポジウム2011 DVD-ROM論文集, pp.353-356, (2011).
122. かかわりが実感できるコミュニケーションをめざして
渡辺 富夫, 山本 倫也
情報爆発時代に向けた新しいIT基盤技術の研究 情報爆発, p.86, (2011).
121. CGと指示棒デバイスで身体的インタラクションを促すプレゼンテーション支援システムの開発
山本 千裕, 中山 晃典, 山本 倫也, 渡辺 富夫
インタラクション2011論文集, pp.301-302, (2011).
120. 百人eye首:視線に基づく行動予測でレベル制御するテーブルトップ対戦型百人一首ゲーム
森田 祐衣, 米田 宗弘, 山本 倫也, 長松 隆, 渡辺 富夫
情報処理学会第73回全国大会講演論文集, vol.4, pp.601-602, (2011).
<情報処理学会推奨卒業論文>
119. 身体的インタラクション解析のためのEye-Tracking液晶ペンタブレットの開発
吉田 圭介, 佐藤 広志, 山本 倫也, 長松 隆, 渡辺 富夫
情報処理学会第73回全国大会講演論文集, vol.4, pp.319-320, (2011).
118. ごっこ遊びによるコミュニケーション支援に着目した実空間共有型エデュテインメントシステムの開発
山本 倫也, 渡辺 富夫
第11回システムインテグレーション部門講演会(SI2010), pp. 1314-1315, (2010).
117. なりきりケータイ:頭部動作・音声駆動型身体引き込みキャラクタケータイ
松根 祥太郎, 小林 亜由美, 渡辺 富夫, 山本 倫也
第12回IEEE広島支部学生シンポジウム予稿集, (D)-07, (2010).
<優秀プレゼンテーション賞>
116. 身体的スポーツ応援のための観客キャラクタを用いた映像メディア場の構成手法
岡本 健太郎, 山本 倫也, 渡辺 富夫
エンタテインメントコンピューティング2010論文集, 12, pp.1-4, (2010).
115. 視線に基づく行動予測でレベル制御するテーブルトップ対戦型百人一首ゲームの開発
米田 宗弘, 山本 倫也, 長松 隆, 渡辺 富夫
エンタテインメントコンピューティング2010論文集, B14, pp.1-2, (2010).
114. ユーザの頭部動作を音声駆動型身体引き込みキャラクタに連動させた身体的なりきりケータイ
松根 祥太郎, 小林 亜由美, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2010論文集, pp. 1059-1062, (2010).
113. メディアアートのためのEye-Trackingテーブルトップインタフェースの開発
米田 宗弘, 山本 倫也, 長松 隆, 渡辺 富夫
ヒューマンインタフェースシンポジウム2010論文集, pp. 981-984, (2010).
112. ごっこ遊びに着目した実空間共有型エデュテインメントシステムの開発
山本 倫也
ヒューマンインタフェース学会コミュニケーション支援専門研究会研究報告集, Vol. 2, No. 1, pp. 7-8, (2010).
111. 携帯型タッチスクリーンデバイスを用いた身体拡張型プレゼンテーション支援システム
大谷 尚弘, 安保 翔太, 山本 倫也, 渡辺 富夫
ヒューマンインタフェースシンポジウム2010論文集, pp. 329-332, (2010).
<優秀プレゼンテーション賞>
110. 発話音声でオブジェクトとキャラクタが引き込み反応する身体的プレゼンテーションシステムの開発
長井 弘志, 檀原 龍正, 山本 倫也, 渡辺 富夫
日本機械学会2010年度年次大会講演論文集, Vol.4, pp.7-8, (2010).
109. 強調・指示のプレゼンテーション動作を拡張する身体的ビジュアルエフェクトの開発
高尾 裕也, 山本 倫也, 岡田 知之, 渡辺 富夫
ヒューマンインタフェース学会研究報告集, Vol.12, No.3, pp. 19-24, (2010).
108. 一体感が実感できる身体的コミュニケーションインタフェース
渡辺 富夫, 山本 倫也
文部科学省科学研究費補助金特定領域研究 平成21年度成果報告書, A03-23, (2010).
107. 一体感が実感できる身体的コミュニケーションインタフェース
渡辺 富夫, 山本 倫也
文部科学省科学研究費補助金特定領域研究 平成21年度研究概要, p. 69, (2010).
106. タッチスクリーンデバイスを用いた身体拡張型プレゼンテーション支援システムの開発
安保 翔太, 山本 倫也, 渡辺 富夫
情報処理学会第72回全国大会講演論文集(5), pp. 161-162, (2010).
105. ごっこ遊びによる学習意欲向上に着目した実空間共有型エデュテインメントシステムの開発
安藤 さゆり, 山本 倫也, 渡辺 富夫
情報処理学会第72回全国大会講演論文集(5), pp. 157-158, (2010).
104. 非球面角膜モデルを用いた視線計測手法の提案
岩本 由貴奈, 菅野 隆一, 長松 隆, 鎌原 淳三, 山本 倫也
情報処理学会第72回全国大会講演論文集(4), pp. 101-102, (2010).
<学生奨励賞>
103. タッチスクリーンを搭載した携帯情報端末のためのEye-Trackingシステムの開発
佐藤 広志, 山本 倫也, 長松 隆
情報処理学会第72回全国大会講演論文集(4), pp. 85-86, (2010).
102. 下線引きを伴うプレゼンテーションの身体化における発話音声と書き込み動作タイミングの計測
岡田 知之, 渡辺 富夫, 山本 倫也
第10回計測自動制御学会システムインテグレーション部門講演会論文集, pp. 1937-1938, (2009).
101. 身体のはたらきを活かすプレゼンテーション支援に向けて
山本 倫也
ヒューマンインタフェース学会コミュニケーション支援専門研究会研究報告集, Vol. 1, No. 1, pp. 15-18, (2009).
100. CGやロボットを情報メディアとする身体的インタラクション技術
山本 倫也
関西学院大学新技術説明会資料集, pp. 59-63, (2009).
99. 入力情報を同期表示するタイピング駆動型身体引き込みキャラクタチャットシステム
畔地 耕太, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2009DVD-ROM論文集, pp. 793-796, (2009).
98. 音声入力と頭部動作入力を併用した身体引き込みキャラクタケータイ
松根 祥太郎, 渡辺 富夫, 山本 倫也, 大崎 浩司
ヒューマンインタフェースシンポジウム2009DVD-ROM論文集, pp. 573-578, (2009).
97. タイピング駆動型身体引き込みキャラクタを用いたWeb日記システムの開発
向 洋美, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2009DVD-ROM論文集, pp.537-541, (2009).
96. ステレオ明瞳孔法を用いたEye-Tracking液晶ペンタブレットの開発
山本 倫也, 長松 隆, 渡辺 富夫
ヒューマンインタフェース学会研究報告集, Vol.11, No.2, pp.147-150, (2009).
95. 一体感が実感できる身体的コミュニケーションインタフェース
渡辺 富夫, 山本 倫也
文部科学省科学研究費補助金特定領域研究 平成20年度成果報告書, A03-23, (2009).
94. 一体感が実感できる身体的コミュニケーションインタフェース
渡辺 富夫, 山本 倫也
文部科学省科学研究費補助金特定領域研究 平成20年度研究概要, p. 87, (2009).
93. タイピング駆動型身体引き込みキャラクタチャットシステムのインタラクション支援効果
岡田 光弘, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2008DVD-ROM論文集, pp. 901-904, (2008).
92. キー入力と音声駆動型身体引き込みキャラクタを併用した携帯電話型モバイルシステム
大崎 浩司, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2008DVD-ROM論文集, pp. 897-900, (2008).
91. 指示オブジェクトが発話音声でうなずき反応する身体的プレゼンテーション支援システム
小柳 夏来, 長井 弘志, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2008DVD-ROM論文集, pp. 893-896, (2008).
90. 表示テキストの強調・指示における発話音声に対する描画表示の遅延効果
山本 倫也, 渡辺 富夫
ヒューマンインタフェースシンポジウム2008DVD-ROM論文集, pp. 545-548, (2008).
89. 教師と生徒のInterActorを一人二役で演じるエデュテインメントシステム
山本 倫也, 渡辺 富夫
ヒューマンインタフェース学会研究報告集, Vol. 10, No. 1, pp. 67-72, (2008).
88. 教師と生徒のInterActorを一人二役で演じるエデュテインメントシステムの開発
山本 倫也, 渡辺 富夫
情報処理学会第70回全国大会講演論文集(5), pp. 99-100, (2008).
87. 一体感が実感できる身体的コミュニケーションインタフェース
渡辺 富夫, 山本 倫也
文部科学省科学研究費補助金特定領域研究 平成19年度成果報告書, A03-23, (2008).
86. 一体感が実感できる身体的コミュニケーションインタフェース
渡辺 富夫, 山本 倫也
文部科学省科学研究費補助金特定領域研究 平成19年度研究概要, p. 87, (2008).
85. 身体的引き込みメディア技術
渡辺 富夫, 山本 倫也, 神代 充, 西田 麻希子, 長井 弘志, 小川 浩基
第12回岡山リサーチパーク研究・展示発表会要旨集, p. 20, (2008).
84. 手指動作入力を併用した音声駆動型身体引き込みキャラクタのモバイル評価実験
大崎 浩司, 渡辺 富夫, 山本 倫也
情報処理学会研究報告ヒューマンコンピュータインタラクション, No.2007-HCI-127, pp. 15-22, (2008).
83. 講演者の指示するオブジェクトが発話音声でうなずき反応する身体的プレゼンテーション支援システムの開発
中島 仁志, 長井 弘志, 渡辺 富夫, 山本 倫也
第8回計測自動制御学会システムインテグレーション部門講演会(SI2007)講演論文集, pp.825-826, (2007).
82. 音声駆動型身体的引き込み手形3Dオブジェクトを用いた仮想観客システムの開発
小柳 夏来, 渡辺 富夫, 山本 倫也
第8回計測自動制御学会システムインテグレーション部門講演会(SI2007)講演論文集, pp.827-828, (2007).
81. InterChat:タイピング駆動型身体引き込みキャラクタチャットシステム
渡辺 富夫, 山本 倫也, 田淵 健太
日本機械学会第17回設計工学・システム部門講演会講演論文集, pp. 164-165, (2007).
80. うなずき反応を視触覚提示する音声駆動型プレゼンテーション支援システム
長井 弘志, 渡辺 富夫, 山本 倫也
日本機械学会2007年度年次大会講演資料集, Vol. 4, pp. 215-216, (2007).
79. LEAP: 教師と生徒の動物キャラクタと共に学ぶ学習支援システム
山村 武志, 山本 倫也, 渡辺 富夫
ヒューマンインタフェース学会共生システム専門研究会研究報告集, Vol. 1, No. 2, p. 7, (2007).
78. InterChat: タイピングのリズムから身体動作を自動生成するキャラクタチャットシステム
田淵 健太, 渡辺 富夫, 山本 倫也
ヒューマンインタフェース学会共生システム専門研究会研究報告集, Vol. 1, No. 2, p. 4, (2007).
77. 手指動作・音声駆動型身体引き込みキャラクタで制作した映像コンテンツの評価
大崎 浩司, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2007DVD-ROM論文集, pp. 583-588, (2007).
76. 教師と生徒のInterActorを一人二役で演じる教示インタフェースの評価
山村 武志, 山本 倫也, 渡辺 富夫
ヒューマンインタフェースシンポジウム2007DVD-ROM論文集, pp. 589-592, (2007).
75. タイピング駆動型身体引き込みキャラクタチャットシステムInterChatの評価
田淵 健太, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2007DVD-ROM論文集, pp. 753-758, (2007).
74. 聞き手のうなずき反応を視触覚提示する音声駆動型身体的引き込みシステムの評価
長井 弘志, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2007DVD-ROM論文集, pp. 1083-1088, (2007).
73. タイピング駆動型身体引き込みキャラクタチャットシステムInterChatの開発
田淵 健太, 渡辺 富夫, 山本 倫也
第43回ヒューマンインタフェース学会研究会, pp. 35-40, (2007).
72. 聞き手のうなずき反応を視触覚提示する音声駆動型身体的引き込みシステムの開発
長井 弘志, 渡辺 富夫, 山本 倫也
ヒューマンインタフェース学会研究報告集, Vol. 8, No. 5, pp. 65-70, (2006).
71. CGキャラクタとのあいさつインタラクションにおける動作に対する発声タイミング制御の効果
山本 倫也, 渡辺 富夫
ヒューマンインタフェース学会研究報告集, Vol. 8, No. 5, pp. 71-76, (2006).
70. 発声の動作に対する音声の遅延効果に着目した身体的エージェントによる情報提示手法の合成的解析
田淵 健太, 山本 倫也, 渡辺 富夫
ヒューマンインタフェース学会研究報告集, Vol. 8, No. 5, pp. 77-82, (2006).
69. VirtualActor にうなずき反応モデルを付加した身体的バーチャルコミュニケーションシステム
瀬島 吉裕, 渡辺 富夫, 山本 倫也
第6回IEEE広島支部学生シンポジウム論文集, pp. 216-219, (2004).
<優秀プレゼンテーション賞>
68. 音声駆動型身体引き込み動物キャラクタInterAnimalを用いた学習システムの開発
渡辺 富夫, 山本 倫也
第6回日本赤ちゃん学会学術集会, p. 43, (2006).
67. 音声駆動型身体的引き込み3Dオブジェクトを用いたプレゼンテーション支援システムの開発
中島 仁志, 吉田 真章 , 渡辺 富夫, 山本 倫也
平成18年度電気・情報関連学会中国支部連合大会講演論文集, pp. 225-226, (2004).
66. うなずき反応モデルを付加したVirtualActorを介する身体的コミュニケーションの合成的解析
瀬島 吉裕, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2006論文集, pp. 1-6, (2006).
65. 音声駆動型うなずき反応ロボットを介する身体的映像中継手法の開発
山本 倫也, 渡辺 富夫
ヒューマンインタフェースシンポジウム2006論文集, pp. 39-42, (2006).
64. 手指動作入力を併用した音声駆動型身体引き込みキャラクタのモバイル評価実験
大崎 浩司, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2006論文集, pp. 59-62, (2006).
63. 教師と生徒のInterActorを一人二役で演じる教示インタフェースの開発
山村 武志, 加藤 裕代, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2006論文集, pp. 895-898, (2006).
62. 聞き手の身体的リズムを振動提示する音声駆動型身体的引き込みデバイスの評価
長井 弘志, 渡辺 富夫, 山本 倫也
日本機械学会2006年度年次大会講演論文集, Vol. 4, pp. 325-326, (2006).
61. 心が通う身体的コミュニケーションシステムE-COSMICの応用
渡辺 富夫, 山本 倫也
第3回子ども学会議, p. 20, (2006).
60. 音声駆動型身体引き込みキャラクタに手指動作入力を併用した映像コンテンツ制作支援システムの開発
大崎 浩司, 渡辺 富夫, 山本 倫也
ヒューマンインタフェース学会研究報告集, Vol. 8, No. 2, pp. 91-96, (2006).
59. InterActorに手指動作入力を併用した身体的インタラクションシステム
大崎 浩司, 渡辺 富夫, 山本 倫也
インタラクション2006論文集, pp. 165-166, (2006, 査読付).
58. 身体的バーチャルコミュニケーションシステムにおける面の皮インタフェースの自己参照効果
新徳 健, 渡辺 富夫, 山本 倫也, 瀬島 吉裕
第6回システムインテグレーション部門学術講演会(SI2005), pp. 635-636, (2005).
57. InterVibrator:聞き手の身体的リズムを振動提示する音声駆動型身体的引き込みデバイスの開発
長井 弘志, 渡辺 富夫, 山本 倫也
第6回システムインテグレーション部門学術講演会(SI2005), pp. 639-640, (2005).
56. キャラクタとのあいさつインタラクションにおける動作に対する発声遅延の効果
山本 倫也, 渡辺 富夫
第6回システムインテグレーション部門学術講演会(SI2005), pp. 641-642, (2005).
<SI2005ベストセッション賞>
55. 音声駆動型身体的引き込みポインタInterPointer の評価
長井 弘志, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2005論文集, pp. 123-126, (2005).
54. 音声駆動型身体引き込み動物キャラクタInterAnimal
加藤 裕代, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2005論文集, pp. 619-622, (2005).
53. 身体的バーチャルコミュニケーションシステムにおける面の皮インタフェースの評価
瀬島 吉裕, 山本 倫也, 渡辺 富夫, 新徳 健
ヒューマンインタフェースシンポジウム2005論文集, pp. 929-934, (2005).
52. 話し手における強調語句の発話音声に対する身体動作の分析と合成
大崎 浩司, 山本 倫也, 渡辺 富夫
ヒューマンインタフェースシンポジウム2005論文集, pp. 947-950, (2005).
51. 音声駆動型身体的色彩変化引き込みシステムの開発
黒田 勉, 石原 学, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2005論文集, pp. 951-954, (2005).
50. 子どもを元気づける身体的コミュニケーションロボットInterAnimalの開発
渡辺 富夫, 山本 倫也, 吉田 真章, 加藤 裕代
第2回子ども学会議(「日本子ども学会」学術集会)プログラム・抄録集, ポスターセッション, ロボット・IT・脳科学, (2005).
49. InterAnimal: 音声駆動型身体引き込み動物キャラクタを用いた身体的コミュニケーション
渡辺 富夫, 山本 倫也, 加藤 裕代
第5回日本赤ちゃん学会学術集会プログラム抄録集, pp. 26, (2005).
48. 音声駆動型身体的レーザーポインタInterPointerによるうなずき反応提示の効果
長井 弘志, 渡辺 富夫, 山本 倫也
情報処理学会第67回全国大会論文集, vol. 4, pp. 27-28, (2004).
47. 音声駆動型身体引き込み動物型キャラクタInterAnimalの開発
加藤 裕代, 渡辺 富夫, 山本 倫也
情報処理学会第67回全国大会論文集, vol. 4, pp. 129-130, (2004).
46. 心が通う身体的コミュニケーションシステムE-COSMIC
渡辺 富夫, 山本 倫也 / インタロボット(株)
第9回岡山リサーチパーク研究・展示発表会要旨集, p. 42, (2005).
45. 子どもを元気づける身体的コミュニケーションロボットの研究開発
渡辺 富夫, 山本 倫也, 神代 充 / インタロボット(株)
第9回岡山リサーチパーク研究・展示発表会要旨集, p. 43, (2005).
44. 3者間身体的バーチャルコミュニケーションシステムにおける面の皮インタフェース
新徳 健, 渡辺 富夫, 山本 倫也
第5回システムインテグレーション部門学術講演会(SI2004), pp .889-890, (2004).
43. ロボットとの身体的インタラクションにおける動作に対する発声タイミング制御の効果
山本 倫也, 渡辺 富夫, 大崎 浩司
第5回システムインテグレーション部門学術講演会(SI2004), pp. 891-892, (2004).
42. うなずき反応を提示する音声駆動型身体的レーザーポインタ
長井 弘志, 渡辺 富夫, 山本 倫也
第5回システムインテグレーション部門学術講演会(SI2004), pp. 893-894, (2004).
<SI2004ベストセッション講演賞>
41. 音声駆動型身体的引き込み3Dオブジェクトを用いた動きのインタラクション効果
石原 学, 渡辺 富夫, 山本 倫也
第6回IEEE広島支部学生シンポジウム論文集, pp. 260-263, (2004).
<優秀論文賞・優秀プレゼンテーション賞>
40. 手渡しロボットシステムのためのマン・マシン・インタフェースに関する研究
神代 充, 柴田 諭, 山本 倫也, 渡辺 富夫
第47回自動制御連合講演会CD-ROM, No. 630, (2004).
39. 面の皮インタフェース:アバタ頭部没入型身体的コミュニケーション支援インタフェース
東 哲也, 新徳 健, 山本 倫也, 渡辺 富夫
平成16年度電気・情報関連学会中国支部連合大会講演論文集, pp. 358-359, (2004).
38. うなずき反応を提示する音声駆動型身体的レーザーポインタの開発
長井 弘志, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2004 CD-ROM論文集, pp. 835-838, (2004).
37. InterActorに手指動作入力を併用した身体的インタラクションシステムの開発
大崎 浩司, 渡辺 富夫, 山本 倫也, 神代 充
ヒューマンインタフェースシンポジウム2004 CD-ROM論文集, pp. 839-842, (2004).
<優秀プレゼンテーション賞>
36. InterActorを映像に重畳合成した身体的引き込みシステム
大西 裕樹, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2004 CD-ROM論文集, pp. 1021-1024, (2004).
35. 手指動作入力による身体的バーチャルコミュニケーションシステムの開発
石井 裕, 大崎 浩司, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2004 CD-ROM論文集, pp. 1025-1028, (2004).
34. 身体的バーチャルコミュニケーションシステムにおける面の皮インタフェースの開発
新徳 健, 東 哲也, 山本 倫也, 渡辺 富夫
ヒューマンインタフェースシンポジウム2004 CD-ROM論文集, pp. 1029-1032, (2004).
33. 子どもを元気づける身体的コミュニケーションシステムの開発
渡辺 富夫, 山本 倫也, 加藤 裕代
第1回子ども学会議(「日本子ども学会」学術集会)メディア社会と子どもたち, p. 14, (2004).
32. 3Dオブジェクトを用いた音声駆動型身体的引き込みシステム
渡辺 富夫, 鈴木 克拓, 山本 倫也
第32回可視化情報シンポジウム講演論文集, Vol .24, Suppl, No.1, pp. 295-298, (2004).
<グットプレゼンテーション賞>
31. ロボットの対話インタフェースにおける動作に対する発声遅延の効果
山本 倫也, 渡辺 富夫
情報処理学会第66回全国大会論文集, pp. 65-68, (2004).
<大会奨励賞>
30. InterPointer:音声駆動型身体的引き込みポインタの開発
長井 弘志, 渡辺 富夫, 山本 倫也
情報処理学会第66回全国大会論文集, pp. 231-232, (2004).
<学生奨励賞>
29. インタラクションロボットのあいさつ動作における発声遅延の効果
山本 倫也, 渡辺 富夫, 大崎 浩司
ヒューマンインタフェース学会第8回ノンバーバルインタフェース研究会論文集, pp. 15-16, (2004).
28. 聞き手のInterActorを映像に重畳合成した身体的引き込みシステム
渡辺 富夫, 山本 倫也, 小野 紘司
計測自動制御学会システムインテグレーション部門講演会論文集, pp.990-99, (2003).
27. InterTree: 音声駆動型身体引き込み樹木型キャラクタ
鈴木 克拓, 渡辺 富夫, 山本 倫也
第46回自動制御連合講演会講演論文集, pp. 462-466, (2003).
26. ロボットとのあいさつインタラクションの合成的解析による対話型インタフェースの検討
山本 倫也, 渡辺 富夫
第46回自動制御連合講演会講演論文集, pp.720-723, (2003).
25. ロボットとのあいさつインタラクションにおける動作に対する発声遅延の効果
山本 倫也, 渡辺 富夫
ヒューマンインタフェースシンポジウム2003論文集, pp. 163-166, (2003).
24. 3者間身体的バーチャルコミュニケーションシステムにおける自己VirtualActor投影の効果
新徳 健, 渡辺 富夫, 東 哲也, 山本 倫也
ヒューマンインタフェースシンポジウム2003論文集, pp. 353-356, (2003).
23. うなずき反応を触覚提示する音声駆動型身体的引き込みシステムの開発
長井 弘志, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2003論文集, pp. 525-528, (2003).
<優秀プレゼンテーション賞>
22. 円柱型InterActorを用いた音声駆動型身体的引き込みシステムの開発
鈴木 克拓, 渡辺 富夫, 山本 倫也
ヒューマンインタフェースシンポジウム2003論文集, pp. 535-538, (2003).
<優秀プレゼンテーション賞>
21. 身体的インタラクションロボットのあいさつ動作における発声遅延の効果
山本 倫也, 渡辺 富夫
電子情報通信学会技術研究報告, Vol. 103, No. 113, pp. 13-18, (2003).
20. 身体的引き込みコミュニケーション支援のためのコミュニケーション動作における発声遅延の分析
山本 倫也, 池谷 晴生, 渡辺 富夫
情報処理学会第65回(平成15年)全国大会講演論文集(4), pp. 73-74, (2003).
19. 対面あいさつのコミュニケーション動作における発声遅延の分析
山本 倫也, 池谷 晴生, 渡辺 富夫
ヒューマンインタフェース学会研究報告集, Vol. 5, No. 1, pp. 83-86, (2003).
18. ネットワーク上の情報資源を活用した分散型仮想環境の構築
山本 倫也, 大坂 融弘, 小林 隆, 石井 裕剛, 吉川 榮和
ヒューマンインタフェース学会研究報告集, Vol. 3, No. 3, pp. 15-20, (2001).
17. 分散型仮想環境のためのインタフェースの作成支援に関する研究
小林 隆, 大坂 融弘, 山本 倫也, 石井 裕剛, 吉川 榮和
ヒューマンインタフェース学会研究報告集, Vol. 3, No. 2, pp. 37-42, (2001).
16. ネットワーク型仮想環境を用いたプラント保修訓練システムの指導員用インタフェースの試作
長松 隆, 志波 栄也, 山本 倫也, 吉川 榮和
日本原子力学会2001年春の年会 要旨集, H22, p. 375, (2001).
15. 情報リンクを用いたオープンシミュレータ型仮想環境の構築
山本 倫也, 大坂 融弘, 石井 裕剛, 吉川 榮和
SICE SI2000 講演論文集, pp. 103-104, (2000).
14. 仮想環境における情報リンク作成支援システムの構築
大坂 融弘, 山本 倫也, 石井 裕剛, 下田 宏, 吉川 榮和
ヒューマンインタフェースシンポジウム2000論文集, pp. 515-518, (2000).
13. ユーザ中心の仮想環境設計法に基づく連携作業訓練システムの試作
山本 倫也, 岩田 大司, 長松 隆, 下田 宏, 吉川 榮和
ヒューマンインタフェース学会研究報告集, Vol. 2, No. 2, pp. 143-148, (2000).
12. ネットワーク仮想環境における空間管理手法の研究
松崎 剛士, 大坂 融弘, 山本 倫也, 長松 隆, 下田 宏, 吉川 榮和
ヒューマンインタフェース学会研究報告集, Vol. 2, No. 2, pp. 137-142, (2000).
11. 分散型仮想環境技術による保修訓練システムの連携作業訓練への拡張法の研究
山本 倫也, 岩田 大司, 長松 隆, 下田 宏, 吉川 榮和
日本原子力学会2000年春の年会 要旨集 第Ⅱ分冊, p. 679 (2000).
10. 分散型仮想環境を用いたエネルギー教育システムの構築
長松 隆, 嶋村 純二, 山本 倫也, 大石 創, 宮沢 龍雄
計測自動制御学会システム情報部門シンポジウム1999講演論文集, pp. 335-340, (1999).
9. 分散型仮想環境を用いた教育用エネルギー需給計画システムの構築
嶋村 純二, 長松 隆, 山本 倫也, 大石 創, 宮沢 龍雄
ヒューマンインタフェースシンポジウム'99論文集, pp. 669-674, (1999).
8. 自律的拡張が可能な分散型仮想環境における仮想物体のシミュレーション手法に関する研究
岩田 大司, 山本 倫也, 長松 隆, 下田 宏, 吉川 榮和
ヒューマンインタフェースシンポジウム'99論文集, pp. 663-668, (1999).
7. 保守技能訓練への分散型仮想環境技術の適用法
山本 倫也, 岩田 大司, 長松 隆, 下田 宏, 吉川 榮和
電気学会研究会資料 NE-99-9, pp. 13-18, (1999).
6. 分散型仮想環境の自律的拡張手法の研究
山本 倫也, 岩田 大司, 手塚 哲央, 吉川 榮和
ヒューマンインタフェース学会研究報告集, Vol. 1, No. 2, pp. 47-52, (1999).
5. 分散型仮想訓練環境におけるマルチモーダルコミュニケーションの適用とその実験的評価
山本 倫也, 市口 誠道, 三谷 拓也, 手塚 哲央, 吉川 榮和
第14回ヒューマン・インタフェース・シンポジウム論文集, pp. 453-458, (1998).
4. 分散型仮想環境における機器保修作業の観察・記録システムの構築と評価
市口 誠道, 三谷 拓也, 山本 倫也, 手塚 哲央, 吉川 榮和
Human Interface N&R, Vol. 13, No. 2, pp. 193-198, (1998).
3. 分散型仮想環境による機器保修のための統合型トレーニングシステム
山本 倫也, 市口 誠道, 三谷 拓也, 手塚 哲央, 吉川 榮和
日本原子力学会1998年春の年会 要旨集 第Ⅱ分冊, p. 240, (1998).
2. 分散型仮想環境における機器組立訓練シミュレーション
三谷 拓也, 山本 倫也, 手塚 哲央, 吉川 榮和
第13回ヒューマン・インタフェース・シンポジウム論文集, pp. 39-44, (1997).
1. 仮想空間共有型機器保修訓練システムについて
山本 倫也, 手塚 哲央, 吉川 榮和
Human Interface N&R, Vol. 12, No. 2, pp. 191-198, (1997).
17. 雨どいとプリンタで造形した3Dモデルのランプ
加藤 亜紀, 山口 大翔, 中茂 睦裕, 張 弘, 濱田 一貴, 山本 倫也
Maker Faire Tokyo 2023 (2023).
16. コンセント図鑑
森川 裕斗, 青柳 西蔵, 山本 倫也
グランフロント大阪「K.G.Month -AI時代の人とシステムとの関わり方を探ろう-」, (2019).
<ISCA 2019応募作品>
15. VR×スラックレールで恐怖?の綱渡り
K. G. MYラボ (多田 義將, 廣瀨 隼人, 青柳 西蔵, 山本 倫也)
Maker Faire Kyoto 2019, (2019).
14. VR×スラックレール グランフロント大阪を渡ろう!
田中 敦子, 青柳 西蔵, 山本 倫也
グランフロント大阪「K.G.Month ~あなたに寄り添う最新インタラクティブテクノロジー 」, (2018).
13. VRスキージャンプ体験
南出 健, 山本 倫也
グランフロント大阪「K.G.Month ~人と人,人とシステムが「わかりあう」ための情報科学技術」, (2015).
12. STVカップ in チ・カ・ホ ?バーチャルスキージャンプ大会?
橋本 絵梨, 山本 倫也, 茂野 裕介
チ・カ・ホ de XMAS みる・みる・みらいデー 2015, (2015).
<札幌テレビ放送株式会社 所記念賞>
11. 自分ロボット
辰巳 貴則, 山本 倫也, 奥田 悠資
グランフロント大阪「K.G.Month あなたの感性を刺激する最新インタラクティブテクノロジー」, (2015).
<第3回ナレッジイノベーションアワード モノ部門 優秀賞>
10. きろぴー (2014 Ver.)
清水 大誠, 青柳 西蔵, 山本 倫也
グランフロント大阪「K.G.Month ~創造的生活者を支援する 感性価値創造技術・情報科学技術~」, (2014).
9. 挙手ロボット
河辺 隆司, 野田 圭太郎, 山本 倫也, 青柳 西蔵
グランフロント大阪「K.G.Month ~創造的生活者を支援する 感性価値創造技術・情報科学技術~」, (2014).
8. きろぴー
松本 拓也, 井上 雄司, 山本 倫也
グランフロント大阪「K.G.Month<ヒューマン・システム・インタラクション>のアート&デザイン」, (2013).
7. PPTouch
村林 卓, 江澤 正裕, 山本 倫也
グランフロント大阪「K.G.Month<ヒューマン・システム・インタラクション>のアート&デザイン」, (2013).
6. PPTouch
村林 卓, 山本 倫也
Apple App Store, (2012).
5. 百人eye首
米田 宗弘, 中山 晃典, 森田 祐衣, 指導教員 山本 倫也
関西テレビ放送「BACA-JA2010」, (2010).
<ネットワークアート部門佳作>
4. InterChat 2010
渡辺 富夫, 檀原 龍正, 山本 倫也
日本科学未来館「予感研究所3」, (2010).
3. InterChat キャラクタとチャットしながらアンケート
渡辺 富夫, 山本 倫也, 檀原 龍正
日本科学未来館「予感研究所2」, (2008).
2. InterFlower うなずきや身体反応をする草花
渡辺 富夫, 山本 倫也, 長井 弘志, 檀原 龍正
日本科学未来館「予感研究所2」, (2008).
1. InterRobot身振りによるコミュニケーション促進ロボット
渡辺 富夫, 長井 弘志, 山本 倫也, 小川 浩基
日本科学未来館「予感研究所2」, (2008).
35. 子どもの暮らしを豊かにする眼球運動検査・トレーニングエコシステム構築のための機器・システム開発
イノベーションストリームKANSAI 8.0, (2024).
34. 私たちはコミュニケーションに何を望むのか
イノベーションラヂヲ#8, (2024).
33.眼球運動トレーニング社会実装プロジェクト
第3回Challenge万博『いのち輝く未来社会』へ, (2023).
32.眼球運動トレーニング「視るトレ」を、世界へ。
IVS2023 KYOTO, (2023).
31.「視る力」を向上させる眼球運動トレーニングを広く社会へ
【NEXT PIONEER 2022】-挑戦する次代の研究者たち- KSAC MATCHING DAY Vol.02, (2023).
30. 視るトレ社会実装プロジェクト
第2回 Challenge万博「いのち輝く未来社会」へ, (2022).
29. ビッグデータ駆動型眼球運動トレーニング社会の実現に向けたコンテンツ・プロトタイプ開発
ECP-KANSAI「求む、CXO人材!世界を驚かすビジネスを生み出そう!」, (2022).
28. ビッグデータ駆動型眼球運動トレーニング社会の実現に向けたコンテンツ・プロトタイプ開発
京阪神スタートアップアカデミア・コアリション【KSAC】 Demo Day 2022, (2022).
27. LUNAアート&テクノロジープロジェクト
関西アカデミア×KSII×SMBC 第1回Challenge万博『いのち輝く未来社会』へ, (2022).
26. かかわりが実感できるオンラインコミュニケーションをめざして
令和3年電気関係学会関西連合大会, (2021).
25. DX時代のヒューマンインタフェース技術について
関電プラント(株)第9回技術発表会, (2019).
24. 男女均等参画のすすめ~大学教員夫婦のリアル~
情報処理学会第81回全国大会イベント企画「来たれ!ワークライフバランス伝道師」, (2019).
<情報処理学会Info-WorkPlace委員会 認定2019ワークライフバランス伝道師(夫婦漫才部門)>
23. 理工学部ピンチセッター制度の利用と育児
関西学院大学理工学部男女共同参画シンポジウム, (2018).
22. コモンズでのあそび、研究でのチャレンジ
関西学院大学アカデミックコモンズ CRESCENT HOUR, (2018).
21. メディアとしての身体動作を活かすヒューマンインタフェース技術
電子情報通信学会第59回ヴァーバル・ノンヴァーバル・コミュニケーション研究会, (2017).
20. 教育支援と身体性メディア技術
ヒューマンインタフェース学会コミュニケーション支援専門研究会第14回研究談話会, (2017).
19. 身体動作をメディアとするヒューマンインタフェース技術
HCD-Net関西フォーラム 2017, (2017).
18. 感情を表出するメディアとしての身体動作
ヒューマンインタフェース学会コミュニケーション支援専門研究会第13回研究談話会, (2016).
17. 外部から観測できない新しい認証技術の開発-光軸と視軸のズレの個人差の利用-
イノベーション・ジャパン2016, (2016)
16. Think aloud vs cloud
ヒューマンインタフェース学会コミュニケーション支援専門研究会第12回研究談話会, (2015).
15. 自分ロボット:存在感転送型のコミュニケーションに向けて
イノベーション・ジャパン2015, (2015).
14. 人と映像の相互作用~映像を見る人,人をみる映像~
関西学院大学2014年度秋季オープンセミナー上ヶ原キャンパス講座「現代の絡繰<カラクリ> ~人の感覚を「だます」IT技術~」, (2014).
13. 関学月間の展示内容の紹介:「COI-T感性に基づく個別化循環型社会の実現」「アカデミックコモンズ」「情報科学科・人間システム工学科」
VisLab公開研究会【VisLabの活動とVR・ARの最新動向】, (2014).
12. 「人と人のかかわりを支援する視線インタラクション技術」
NII共同研究「人間の視覚的注意とその誘導の計算モデルに関する調査,設計」第2回ミーティング, (2014).
11. 「モノを作り出す」楽しさについて考える
関西学院大学アカデミックコモンズ CRESCENT HOUR, (2013).
10. リアルタイムに視線情報を共有できる実世界コラボレーションシステム
JST推薦シーズ新技術説明会, (2013).
9. かかわりが実感できる身体的インタラクション技術
平成24年度第3回シンビオ研究談話会 「人と人のかかわりを支援するヒューマンインタフェース技術」 , (2013).
8. かかわりが実感できる身体的コミュニケーション・インタラクション技術
りそな中小企業振興財団技術懇親会, (2012).
7. かかわりが実感できる身体的コミュニケーション・インタラクション技術
関西学院大学新技術説明会, (2011).
6. 身体的プレゼンテーションにおける間(ま)の共有に向けて
共創システムシンポジウム2011, (2011).
5. ごっこ遊びに着目した実空間共有型エデュテインメントシステムの開発
ヒューマンインタフェースシンポジウム2010ワークショップ「楽しさをつくるコミュニケーション支援インタフェース」, (2010).
4. 身体のはたらきを活かすプレゼンテーション支援に向けて
ヒューマンインタフェース学会コミュニケーション支援専門研究会第2回研究談話会, (2009).
3. CGやロボットを情報メディアとする身体的インタラクション技術
関西学院大学新技術説明会, (2009).
2. 分散型仮想環境による統合型機器保修訓練システム
電気学会原子力発電用ソフト系科学技術調査専門委員会第5回会合, (1998).
1. ネットワークVRによる機器保修訓練システムの構築について
電気学会原子力発電用ソフト系科学技術調査専門委員会第1回会合, (1997).
9. 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
長松 隆, 廣江 葵, 山本 倫也
(特願2018-112372, 特開2019-215688, 特許第7168953号).
8. 個人認証方法および個人認証システム
山本 倫也, 酒井 大貴, 長松 隆
(特願2016-049053, 特開2017-162420, 特許第6793363号).
7. 視線計測装置および方法
長松 隆, 山本 倫也
(特願2011-116372, 特開2012-239849, 特許第5818233号).
6. 視線計測装置、方法及びプログラム
長松 隆, 鎌原 淳三, 山本 倫也
(特願2010-41039, 特開2011-172853, 特許第5371051号).
5. アバター表示機能付き通話端末
渡辺 富夫, 山本 倫也, 大崎 浩司
(特願2005-201740, 特開2007-018433, 特許第4709598号).
4. 身体的引き込み現象を利用した映像システム
渡辺 富夫, 山本 倫也, 小野 紘司
(特願2004-097926, 特開2005-284726).
3. 触覚に訴える身体的引き込み方法及びシステム
渡辺 富夫, 長井 弘志, 山本 倫也
(特願2004-064856, 特開2005-251133).
2. 視覚に訴える身体的引き込み方法及びシステム
渡辺 富夫, 山本 倫也, 鈴木 克拓
(特願2004-064855, 特開2005-250422).
1. 身体的引き込み現象を利用した身体リズム生成装置
渡辺 富夫, 長井 弘志, 山本 倫也
(特願2004-064854, 特開2005-250421, 特許第3970251号).