Journal
Tian Min, Chengshuo Xia, Takumi Yamamoto, and Yuta Sugiura. 2023. Seeing the Wind: An Interactive Mist Interface for Airflow Input. Proc. ACM Hum.-Comput. Interact. 7, ISS, Article 444 (December 2023), 22 pages. [DOI]
Takumi Yamamoto, Yuta Sugiura, Takumi Yamamoto, Yuta Sugiura, Turning carpets into multi-image switchable displays, Computers & Graphics, Volume 111, 2023, Pages 190-198, ISSN 0097-8493. [DOI]
Takumi Yamamoto, Yuta Sugiura, A robotic system for images on carpet surface, Graphics and Visual Computing, Volume 6, 2022, 200045, ISSN 2666-6294. [DOI]
Yukina Sato*, Takashi Amesaka*, Takumi Yamamoto, Hiroki Watanabe, Yuta Sugiura. Exploring User-Defined Gestures as Input for Hearables and Recognizing Ear-Level Gestures with IMUs. Proc. ACM Hum.-Comput. Interact. MobileHCI2024 (to appear).
International Conference (Paper)
Hiyori Tsuji, Takumi Yamamoto, Sora Yamaji, Maiko Kobayashi, Kyoshiro Sasaki, Noriko Aso, and Yuta Sugiura, Smartphone-Based Teaching System for Neonate Soothing Motions, SII 2024, IEEE. [DOI]
Naoharu Sawada, Takumi Yamamoto, Yuta Sugiura, Converting Tatamis into Touch Sensors by Measuring Capacitance, SII2024, IEEE. [DOI]
Riku Kitamura, Takumi Yamamoto, Yuta Sugiura . TouchLog : Micro Finger Gestures Recognition Using Photo-Reflective Sensors. In Proceedings of the 2023 ACM International Symposium on Wearable Computers (ISWC ’23), ACM, 92-97, October 8-12, 2023, Cancún, Mexico. [DOI]
Naoharu Sawada, Takumi Yamamoto, Yuta Sugiura. 2023. A Virtual Window Using Curtains and Image Projection. The 15th Asia-Pacific Workshop on Mixed and Augmented Reality (APMAR2023), August 18-19, 2023. Taiwan. [DOI]
Takumi Yamamoto*, Ryohei Baba*, Yuta Sugiura. 2023. Augmented Sports of Badminton by Changing Opening Status of Shuttle’s Feathers. The 15th Asia-Pacific Workshop on Mixed and Augmented Reality (APMAR2023), August 18-19, 2023. Taiwan. (*equal contribution) [DOI]
Takumi Yamamoto, Katsutoshi Masai, Anusha Withana, and Yuta Sugiura. 2023. Masktrap: Designing and Identifying Gestures to Transform Mask Strap into an Input Interface. In 28th International Conference on Intelligent User Interfaces (IUI ’23), March 27–31, 2023, Sydney, NSW, Australia. [DOI]
International Conference (Demo or Poster)
Takumi Yamamoto, Biyon Fernando, Takashi Amesaka, Anusha Withana, Yuta Sugiura, Creating viewpoint-dependent appearance on Edible Cookies, Augmented Humans 2024 (to appear)
Takumi Yamamoto, Yuta Sugiura, Demonstration of Multi-image Switchable Visual Displays Using Carpets, 2022 IEEE International Symposium on Mixed and Augmented Reality Adjunct (ISMAR-Adjunct), Singapore, Singapore, 2022, pp. 893-894. [DOI]
Domestic Conference
宮下海,雨坂宇宙,山本匠,杉浦裕太,測距センサを用いた指輪型デバイスにおける顔認証システムの提案,ヒューマンインタフェースシンポジウム 2024, 京都大学 吉田キャンパス, 京都.
小野里菜摘,山本匠,井上正樹,杉浦裕太,Pivoty: 植物を動かす外付けデバイス,ヒューマンインタフェースシンポジウム 2024, 京都大学 吉田キャンパス, 京都.
山本匠,Biyon Fernando,雨坂宇宙,Anusha Withana,杉浦裕太,ShadoCookies: 視点位置に依存して情報切り替え可能なクッキー製造手法,インタラクション2024,学術総合センター内一橋記念講堂,東京.
佐藤優希菜,雨坂宇宙,山本匠,渡邉拓貴,杉浦裕太,ヒアラブルへの入力を想定したユーザ定義型ジェスチャ調査とIMUセンサによる耳タッチジェスチャの認識,インタラクション2024,学術総合センター内一橋記念講堂,東京.
山本匠,雨坂宇宙,渡邉拓貴,杉浦裕太,イヤフォンの物理的解放:イヤフォン自動取り外しシステムの提案,インタラクション2024,学術総合センター内一橋記念講堂,東京.
花山勝吾,北村莉久,山本匠,雨坂宇宙,Chan Liwei,杉浦 裕太,SkinRing: 装着方向に依らない指側面でのジェスチャ入力 可能なリング型デバイス,インタラクション2024,学術総合センター内一橋記念講堂,東京.(プレミアム発表,インタラクティブ発表賞(一般投票))
澤田直春,山本匠,雨坂宇宙,杉浦裕太,Selfie WanD: 自撮り棒を動かすことによる 撮影用入力インタフェース,インタラクション2024,学術総合センター内一橋記念講堂,東京.
北村莉久,山田憲司,山本匠,杉浦裕太,TataPixel: 畳の異方性を利用した 切り替え可能なディスプレイの提案,インタラクション2024,学術総合センター内一橋記念講堂,東京.
辻ひより,山本匠,山路碧空,小林麻衣子,佐々木恭志郎,麻生典子,杉浦裕太,スマートフォンを用いた乳児あやし動作の教示システム,インタラクション2024,学術総合センター内一橋記念講堂,東京.(プレミアム発表)
山本匠、吉村凜、杉浦裕太、衣服を介した視覚・触覚提示可能な腹部装着型ウェアラブルロボットの提案、WISS2023、Royal Hotel 八ヶ岳、山梨.[Link]
山本匠、Biyon Fernando、雨坂宇宙、Anusha Withana、杉浦裕太、影を用いた食品表面での情報提示手法の提案、FIT2023、大阪公立大学、大阪. (FIT奨励賞). [Link]
辻ひより、山本匠、山路碧空、小林麻衣子、佐々木恭志郎、麻生典子、杉浦裕太、スマートフォンを用いた乳児あやし動作の教示システム、第40回センシングフォーラム、高知工科大学、高知.
花山勝吾、北村莉久、山本匠、雨坂宇宙、杉浦裕太、指側面を入力インタフェース化するリング型デバイス、第40回センシングフォーラム、高知工科大学、高知.
古内丈久、山本匠、雨坂宇宙、杉浦裕太、磁石内蔵イヤリングによる磁力変化を利用したジェスチャ識別、第40回センシングフォーラム、高知工科大学、高知.
北村莉久,山本匠,杉浦裕太,指腹開放型入力デバイスにおける文字ジェスチャ識別,ロボティクス・メカトロニクス 講演会 2023,名古屋国際会議場,名古屋. [Link]
澤田直春,山本匠,杉浦裕太,静電容量の測定による畳のタッチセンサ化手法の提案 ,ロボティクス・メカトロニクス 講演会 2023,名古屋国際会議場,名古屋. [Link]
北村莉久,山本匠,杉浦裕太,反射型光センサを用いた指先のジェスチャ識別,インタラクション2023,一橋大学.(プレミアム発表).[Link]
北村莉久,松井良太,山本匠,杉浦裕太,反射型光センサを用いた指の皮膚変形と姿勢の計測による接触力推定の精度評価,第193回ヒューマンインタフェース学会研究会「人工現実感,エンタテインメント,メディアエクスペリエンスおよび一般(SIG-DeMO-14)」,釧路市阿寒湖まりむ館,釧路.[Link]
山本匠,正井克俊,Anusha Withana,杉浦裕太,マスクの紐の入力インタフェース化に向けたジェスチャの検討とプロトタイプの開発,第193回ヒューマンインタフェース学会研究会「人工現実感,エンタテインメント,メディアエクスペリエンスおよび一般(SIG-DeMO-14)」,釧路市阿寒湖まりむ館,釧路.[Link]
山本匠,川﨑陽平,住田一眞,木田勇輝,松岡慧,小木哲郎,うなずき検出とアバタの透明度変化によるメタバース会議支援手法の提案,第32回設計工学・システム部門講演会(D&S2022),岡山県立大学,岡山
山本匠,杉浦裕太, マスクの紐をインタフェース化する手法,第21回情報科学技術フォーラム(FIT2022),慶應義塾大学矢上キャンパス,横浜.(FIT奨励賞・FITヤングリサーチャー賞) [Link]
山本匠,杉浦裕太,既存のカーペットを用いた複数画像を切り替え可能な視覚ディスプレイシステム,第84回情報処理学会全国大会,オンライン.[Link]
山本匠, 杉浦裕太,布に写実性のある画像を描画するデバイスの提案,VC+VCC 2021,オンライン (VCポスター賞).
山本匠,杉浦裕太,布に写実性のある画像を描画するデバイスの提案,Entertainment Computing 2021,オンライン.[Link]
Award
花山勝吾,北村莉久,山本匠,雨坂宇宙,Chan Liwei,杉浦 裕太,インタラクション2024,インタラクティブ発表賞(一般投票),SkinRing: 装着方向に依らない指側面でのジェスチャ入力 可能なリング型デバイス
山本匠,FIT奨励賞,第22回情報科学技術フォーラム(FIT2023),影を用いた食品表面での情報提示手法の提案.
山本匠,杉浦裕太,VCポスター賞,VC+VCC2021,布に写実性のある画像を描画するデバイスの提案. [Link]
山本匠,2021年中西奨励賞,慶應義塾大学表示画像切り替え可能なカーペットディスプレイの提案
山本匠,FIT奨励賞,第21回情報科学技術フォーラム(FIT2022),マスクの紐をインタフェース化する手法. [Link]
山本匠,FITヤングリサーチャー賞,第21回情報科学技術フォーラム(FIT2022),マスクの紐をインタフェース化する手法. [Link]
Grants and Fellowship
2024年度 潮田記念基金による博士課程学生研究支援プログラム(研究科推薦枠), 216千円 (2024年4月 - 2025年3月)
2024年度 慶應義塾大学大学院 研究のすゝめ奨学金, 700 千円 (2024年4月 - 2025年3月)
日本学術振興会特別研究員DC1 (2024年4月 - 2027年3月) / Japan Society for the Promotion of Science (JSPS) Research Fellowship for Young Scientists DC1 (Acceptance Rate 14%) Apr. 2024 - Mar. 2027
JST次世代研究者挑戦的研究プログラム (2023年10月- ) / Japan Science and Technology Agency (JST) Support for Pioneering Research Initiated by the Next Generation Oct.2023 - Mar. 2024
2023 年度小泉信三記念大学院特別奨学金, 360 千円 (2023 年 4 月 - 2024 年 3 月)
Talk
第22回情報科学技術フォーラム(FIT2023), トップコンファレンスセッション, 2023年9月6日 [link]
Review
SMC2024 x1
Augmented Humans 2024 Full paper x1, short paper x1
CHI2024 LBW x 4
TEI2024 Full Paper x1
CHI2023 LBW x1
INTERACT2023 Short paper x1