English version

熊野 史朗 (Shiro KUMANO)

日本電信電話株式会社
NTT コミュニケーション科学基礎研究所
主任研究員

Institute of Cognitive Neuroscience
University College London (UCL)

客員研究員 (2016.04-2017.03)

博士(情報理工学)

E-mail: shirou.______.yc(at)hco.ntt.co.jp (______: my family name in small letters)


NEWS

● [NEW] IROS 2019 full-day workshop "Machines with Emotions"(2019/11/4@Macau)にて登壇します。詳細はWorkshop HPを随時ご確認下さい。

● [NEW] 日本感情心理学会 第27回大会 プレカンファレンス(2019/6/28@名古屋)にて登壇します。詳細は大会HPを随時ご確認下さい。

● [終了] 2019年度も夏期実習生を若干名募集します。期間は8月上旬から9月中旬の間の20日間です。 興味をお持ちの大学院生の方はこちらからまたは私まで直接ご連絡下さい(マッチングあり)。 →沢山のご応募有難うございました。

● [終了] ACII 2019 (Int'l Conf. Affective Computing & Intelligent Interaction にて"Culture- and Gender-originated affect"と題したSpecial Sessionを企画しました (Organizers: Prof. Ohkura, Kumano, Prof. Rau, Prof. Berque)。 投稿期限を過ぎました。ご投稿有難うございました。

● [終了] 日本心理学会第82回大会(2018年9月25-27日@仙台)にて 村田藍子氏(代表者)とともに開催した公開シンポジウム 『「場」の共有が生み出す情動の伝染・変化:評価と介入の有機的連携に向けて』 が終わりました。多くの皆様のご参加有難うございました。

● [終了] 第13回日本感性工学会春季大会 (2018年3月27日(火)〜28日(水)@名古屋大学)にてAffective Computingセッションを開催しました。 詳しくはこちら


研究内容

人の気持ちが他者にどのように伝わるかを, 数理的なモデル化を通じて科学的に明らかにしようとしています. 結果として,人の心を理解でき,人と気持ちが通じあえる機械の実現につながることが期待されます.

他者情動認知や共感の数理モデル化 (Affective Computing/Science, Cognitive Science)

個人の認知モデルの構築
ある人がある刺激に対してどのように認知(評定)するのかのモデルをベイズ統計をベースに構築しています.例えば,右の二つのモデルを構成要素として統合することで実現しています.
特定個人の認知傾向のモデル化
ある人がどのような認知の傾向を持っているかを,性別や性格特性から予想します. これにより,この人はこのように認知しやすい,という傾向が推定できます.
対人インタラクションの共感性のモデル化
対話している各二人が共感しているのかを他者がどのように感じるかを,被評価者たちの視線,表情,発話の有無等の組み合わせパターンから予想します.
Illustration is coming soon

対人行動の自動計測や可視化 (Computer Vision, Affective Computing)

手動校正を必要としない自動視線解析
聞き手は話し手の顔をよく見るという対話の特性を利用して,各対話者のアイトラッカをほぼ全自動で校正します.結果,対話中で,いつ,誰が,誰のどの辺りを見ていたかが分かります.

頭部姿勢に頑健な自動表情認識
ユーザが事前に登録した複数種の表情を,顔の方向によらず認識します.

微笑みの伝送量の可視化
各人物の微笑みと視線方向から誰が誰にどれだけ微笑んだかを可視化します.対人印象に近い結果を与えます.


学会活動

学会/会議運営
Int'l Conf. Affective Computing and Intelligent Interaction (ACII 2019), Industry & Sponsorship Co-Chair
IAPR Int'l Conf. on Machine Vision Applications (MVA 2013-2015), Organizing Committee Member
2018/06- 電子情報通信学会 ヒューマンコミュニケーション基礎(HCS)研究会 専門委員
2009/04-2013/03 情報処理学会コンピュータビジョンとイメージメディア研究会 運営委員

セッション等の企画
Int'l Conf. Affective Computing & Intelligent Interaction (ACII 2019), "Culture- and Gender-originated affect", Organizers: Michiko Ohkura, Shiro Kumano, Patrick Rau, Dave Berque
日本心理学会第82回大会(2018年9月), 公開シンポジウム 『「場」の共有が生み出す情動の伝染・変化:評価と介入の有機的連携に向けて』, 村田藍子(企画代表者),熊野史朗(企画者)
第13回日本感性工学会春季大会(2018), 企画セッション「Affective Computing(感情計算論)」, 企画者

シニアプログラム委員等
ACM Int'l Conf. Multimodal Interaction (ICMI 2018), Senior Program Committee Member
Int'l Conf. Affective Computing and Intelligent Interaction (ACII 2017, 2019), Senior Program Committee Member

プログラム委員/査読
IEEE Trans. Affective Computing (TAC), Reviewer
IEEE Trans. Circuits and Systems for Video Technology (TCSVT), Reviewer
Machine Vision and Applications, Reviewer
IEICE Trans, Reviewer
IEEE Conf. Computer Vision and Pattern Recognition (CVPR 2013-), Program Committee Member
IEEE Int'l Conf. Computer Vision (ICCV 2013-), Program Committee Member
European Conf. Computer Vision (ECCV 2016-), Program Committee Member
Asian Conf. Computer Vision (ACCV 2014-), Program Committee Member
British Machine Vision Conference (BMVC 2017-), Program Committee Member
ACM Int'l Conf. Multimedia (ACM MM 2014), Program Committee Member
IEEE Int'l Conf. Automatic Face and Gesture Recognition (FG 2011-), Program Committee Member
Int'l Conf. Pattern Recognition (ICPR 2010-), Reviewer
IEEE Int'l Conf. Acoustics, Speech, and Signal Processing (ICASSP 2014), Reviewer
Int'l Audio/Visual Mapping Personality Traits Challenge & Workshop (MAPTRAITS'14), Technical Program Committee Member
The first Int'l Workshop Affective Analysis in Multimedia (AAM 2013), Technical Program Committee Member
Int'l Conf. Informatics, Electronics & Vision 2012 (ICIEV 2012-14), International Program Committee Member
The 15th Int'l Multimedia Modeling Conference (MMM 2009), Reviewer


業績

表彰等
Outstanding Paper Award, Int'l Conf. Multimodal Interaction (ICMI 2014)
Honorable Mention Award, Asian Conference on Computer Vision (ACCV 2007)
ヒューマンコミュニケーション賞(HC賞),電子情報通信学会 ヒューマンコミュニケーショングループ, 2014
優秀インタラクティブ発表賞, HCGシンポジウム2012, 2015x2
オーガナイズドセッション賞, HCGシンポジウム2015, 2018
インタラクティブセッション賞, 画像の認識・理解シンポジウム (MIRU2011)
平成21年度 日本学生支援機構 奨学金返還免除

査読付き論文誌

[19] 石井 亮, 熊野 史朗, 大塚 和弘, 「話者継続・交替時における参与役割に応じた視線行動に基づく共感スキルの推定」, ヒューマンインタフェース学会論文誌, No. 20, Vol. 4, pp. 447-456, 2018.

[18] Li Li, Shiro Kumano (equally contributed first author), Anita Keshmirian, Bahador Bahrami, Jian Li and Nicholas D. Wright, "Parsing cultural impacts on regret and risk in Iran, China and the United Kingdom", Scientific Reports, Vol. 8, 13862, 2018.

[17] Layla Chadaporn Antaket, Masafumi Matsuda, Kazuhiro Otsuka and Shiro Kumano, "Analyzing Generation and Cognition of Emotional Congruence using Empathizing-Systemizing Quotient", International Journal of Affective Engineering, Vol.17 No.3, pp. 183-192, 2018. [free download from publisher's site]

[16] Shiro Kumano, Kazuhiro Otsuka, Ryo Ishii, and Junji Yamato, "Collective First-Person Vision for Automatic Gaze Analysis in Multiparty Conversations," IEEE Trans. Multimedia, Vol. 19, Issue 1, pp. 107-122, 2017. [pdf]

[15] Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Junji Yamato, "Using Respiration of Who Will be the Next Speaker and When in Multiparty Meetings", ACM Trans. Interactive Intelligent Systems (TiiS), Vol. 6, Issue 2, Article No. 20, 2016.

[14] Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Junji Yamato, "Prediction of Who Will be the Next Speaker and When using Gaze Behavior in Multi-Party Meetings", ACM Trans. Interactive Intelligent Systems (TiiS), Vol. 6, Issue 1, No. 4, 2016.

[13] 石井亮,大塚和弘,熊野史朗,大和淳司, 「複数人対話における頭部運動に基づく次話者の予測」 情報処理学会論文誌, Vol. 57, No. 4, pp. 1116-1127, 2016.

[12] Dairazalia Sanchez-Cortes, Shiro Kumano, Kazuhiro Otsuka, Daniel Gatica-Perez, "In the Mood for Vlog: Multimodal Inference in Conversational Social Video," ACM Trans. Interactive Intelligent Systems (TiiS), Vol. 5, No. 2, 9:1-24, 2015.

[11] Shiro Kumano, Kazuhiro Otsuka, Dan Mikami, Masafumi Matsuda, and Junji Yamato, "Analyzing Interpersonal Empathy via Collective Impressions," IEEE Trans. Affective Computing, Vol. 6, Issue 4, pp. 324-336, 2015. [pdf]

[10] Shiro Kumano, Kazuhiro Otsuka, Masafumi Matsuda, and Junji Yamato, "Analyzing Perceived Empathy Based on Reaction Time in Behavioral Mimicry," IEICE Trans. on Information and System, Vol. E97-D, No. 8, pp. 2008-2020, 2014. [pdf]

[9] 石井亮,大塚和弘,熊野史朗,松田昌史,大和淳司,「複数人対話における注視遷移パターンに基づく次話者と発話開始タイミングの予測」,電子情報通信学会論文誌, Vol. J97-A, No. 6, 2014.

[8] Shiro Kumano, Kazuhiro Otsuka, Junji Yamato, Eisaku Maeda and Yoichi Sato, "Pose-Invariant Facial Expression Recognition Using Variable-Intensity Templates", International Journal of Computer Vision, Vol. 83, no. 2, pp.178-194, 2009. [pdf]

[7] 松田昌史,八重樫海人,大坊郁夫,熊野史朗,大塚和弘,大和淳司, 「ビデオ通信環境における対人位置と印象形成に関する探索的研究」, ヒューマンインタフェース学会誌, Vol. 15, No. 4, pp. 433-442, 2013.

[6] 大塚和弘,熊野史朗,松田昌史,大和淳司, 「MM-Space:頭部運動の物理的補強表現に基づく会話場再構成」, 情報処理学会論文誌,Vol. 54,No. 4,pp. 1450-1461,2013.

[5] Dan Mikami, Kazuhiro Otsuka, Shiro Kumano, and Junji Yamato, "Enhancing Memory-based Particle Filter with Detection-based Memory Acquisition for Robustness under Severe Occlusion," IEICE Trans. on Information and System, Vol. E95-D, No.11, 2012.

[4] 熊野史朗, 大塚和弘, 大和淳司, 前田英作, 佐藤洋一, 「パーティクルフィルタとこう配法の組み合わせによる頭部姿勢と表情の同時推定」, 電子情報通信学会論文誌 D, Vol. J92-D, No. 8, pp.1349-1362, 2009.

[3] 熊野史朗, 大塚和弘, 大和淳司, 前田英作, 佐藤洋一 「変動輝度テンプレートによる頭部姿勢と表情の同時推定」, 情報処理学会論文誌コンピュータビジョンとイメージメディア, Vol. 1, No. 2, pp.50-60, 2008.

[2] 熊野史朗, 大塚和弘, 大和淳司, 前田英作, 佐藤洋一, 「変動輝度テンプレートを用いた頭部姿勢変動に頑健な確率的表情認識手法」, 情報科学技術レターズ, pp.215-218, 2007.

[1] 熊野史朗, 藤野陽三, 阿部雅人, 吉田純司, 松崎拓也, 「膜の動的変形を対象とした画像計測システムの構築」, 膜構造研究論文集, No.17, pp.7-13, 2003.

国際会議

[31] Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Ryuichiro Higashinaka, and Junji Tomita, "Analyzing Gaze Behavior and Dialogue Act during Turn-taking for Estimating Empathy Skill Level," In Proc. ACM Int'l Conf. Multimodal Interaction (ICMI), 2018.

[30] Ryo Ishii, Shiro Kumano, Kazuhiro Otsuka, "Analyzing Gaze Behavior during Turn-taking for Estimating Empathy Skill Level," In Proc. ACM Int'l Conf. Multimodal Interaction (ICMI), 2017.

[29] Shiro Kumano, Ryo Ishii, Kazuhiro Otsuka, "Computational Model of Idiosyncratic Perception of Others' Emotions," In Proc. Int'l Conf. Affective Computing and Intelligent Interaction (ACII 2017), pp. 42-49, 2017. [pdf]

[28] Shiro Kumano, Ryo Ishii, Kazuhiro Otsuka, "Comparing Empathy Perceived by Interlocutors in Multiparty Conversation and External Observers," In Proc. Int'l Conf. Affective Computing and Intelligent Interaction (ACII 2017), pp. 50-57, 2017.

[27] Ryo Ishii, Shiro Kumano, Kazuhiro Otsuka, "Prediction of Next-Utterance Timing using Head Movement in Multi-Party Meetings," In Proc. Int'l Conf. Human-Agent Interaction (HAI2017).

[26] Ryo Ishii, Shiro Kumano, Kazuhiro Otsuka, "Analyzing Mouth-Opening Transition Pattern for Predicting Next Speaker in Multi-party Meetings", In Proc. ACM Int'l Conf. Multimodal Interaction (ICMI), 2016.

[25] Ryo Ishii, Shiro Kumano, Kazuhiro Otsuka, "Multimodal Fusion using Respiration and Gaze for Predicting Next Speaker in Multi-party Meetings", In Proc. ACM Int'l Conf. Multimodal Interaction (ICMI), pp. 99-106, 2015.

[24] Shiro Kumano, Kazuhiro Otsuka, Ryo Ishii, Junji Yamato, "Automatic Gaze Analysis in Multiparty Conversations based on Collective First-Person Vision," In Proc. International Workshop on Emotion Representation, Analysis and Synthesis in Continuous Time and Space (EmoSPACE). pp. 1-8, vol. 5, 2015. [pdf]

[23] Ryo Ishii, Shiro Kumano, Kazuhiro Otsuka, "Predicting Next Speaker using Head Movement in Multi-party Meetings", In Proc. IEEE Int'l Conf. Acoustics, Speech, and Signal Processing (ICASSP), pp. 2319-2323, 2015.

[22] Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Junji Yamato, "Analysis of Respiration for Prediction of Who Will Be Next Speaker and When? in Multi-Party Meetings," In Proc. Int'l Conf. Multimodal Interaction (ICMI), 2014. [Outstanding Paper Award]

[21] Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Junji Yamato, "Analysis of Timing Structure of Eye Contact in Turn-changing," In Proc. ACM Workshop on Eye Gaze in Intelligent Human Machine Interaction, 2014.

[20] Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Junji Yamato, "Analysis and Modeling of Next Speaking Start Timing based on Gaze Behavior in Multi-party Meetings", In Proc. IEEE Int'l Conf. on Acoustics, Speech, and Signal Processing (ICASSP 2014), 2014.

[19] Kazuhiro Otsuka, Shiro Kumano, Ryo Ishii, Maja Zbogar, Junji Yamato, "MM+Space: n x 4 Degree-of-Freedom Kinetic Display for Recreating Multiparty Conversation Spaces", In Proc. International Conference on Multimodal Interaction (ICMI 2013), 2013.

[18] Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Masafumi Matsuda, Junji Yamato, "Predicting Next Speaker and Timing from Gaze Transition Patterns in Multi-Party Meetings", In Proc. International Conference on Multimodal Interaction (ICMI 2013), 2013.

[17] Dairazalia Sanchez-Cortes, Joan-Isaac Biel, Shiro Kumano, Junji Yamato, Kazuhiro Otsuka and Daniel Gatica-Perez, "Inferring Mood in Ubiquitous Conversational Video", In Proc. Int'l Conf. on Mobile and Ubiquitous Multimedia (MUM2013), 2013.

[16] S. Kumano, K. Otsuka, M. Matsuda, R. Ishii, J. Yamato, "Using A Probabilistic Topic Model to Link Observers' Perception Tendency to Personality", In Proc. Humaine Association Conference on Affective Computing and Intelligent Interaction (ACII), pp. 588-593, 2013. [pdf]

[15] S. Kumano, K. Otsuka, M. Matsuda, J. Yamato, "Analyzing perceived empathy/antipathy based on reaction time in behavioral coordination", In Proc. International Workshop on Emotion Representation, Analysis and Synthesis in Continuous Time and Space (EmoSPACE), 2013. [pdf]

[14] S. Kumano, K. Otsuka, D. Mikami, M. Matsuda and J. Yamato, "Understanding Communicative Emotions from Collective External Observations", In Proc. CHI '12 extended abstracts on Human factors in computing systems (CHI2012), pp. 2201-2206, 2012. [pdf]

[13] Kazuhiro Otsuka, Shiro Kumano, Dan Mikami, Masafumi Matsuda, and Junji Yamato, “Reconstructing Multiparty Conversation Field by Augmenting Human Head Motions via Dynamic Displays", In Proc. CHI '12 extended abstracts on Human factors in computing systems (CHI ’12), 2012.

[12] Dan Mikami, Kazuhiro Otsuka, Shiro Kumano, and Junji Yamato, Enhancing Memory-based Particle Filter with Detection-based Memory Acquisition for Robustness under Severe Occlusions, In Proc. VISAPP2012, 2012.

[11] Kazuhiro Otsuka, Kamil Sebastian Mucha, Shiro Kumano, Dan Mikami,,Masafumi Matsuda, and Junji Yamato, "A System for Reconstructing Multiparty Conversation Field based on Augmented Head Motion by Dynamic Projection", In Proc. ACM Multimedia 2011, 2011.

[10] L. Su, S. Kumano, K. Otsuka, D. Mikami, J. Yamato, and Y. Sato, "Early Facial Expression Recognition with High-frame Rate 3D Sensing", In Proc. IEEE Int’l Conf. Systems, Man, and Cybernetics (SMC 2011), Oct., 2011.

[9] Takashi Ichihara, Shiro Kumano, Daisuke Yamaguchi, Yoichi Sato, Yoshihiro Suda, Li Shuguang, "Evaluation of eco-driving skill using traffic signals status information", In Proc. ITS World Congress (ITSWC2010), 2010.

[8] Yoshihiro Suda, Katsushi Ikeuchi, Yoichi Sato, Daisuke Yamaguchi, Shintaro Ono, Kenichi Horiguchi, Shiro Kumano, Ayumi Han, Makoto Tamaki, "Study on Driving Safety Using Driving Simulator", In Proc. International Symposium on Future Active Safety Technology (FAST-zero’11), 2011.

[7] S. Kumano, K. Otsuka, D. Mikami and J. Yamato, "Analyzing Empathetic Interactions based on the Probabilistic Modeling of the Co-occurrence Patterns of Facial Expressions in Group Meetings", In Proc. IEEE International Conference on Automatic Face and Gesture Recognition (FG 2011), pp. 43-50, 2011. [pdf]

[6] Takashi Ichihara, Shiro Kumano, Daisuke Yamaguchi, Yoichi Sato and Yoshihiro Suda, "Driver assistance system for eco-driving", In Proc. ITS World Congress 2009, 2009.

[5] Shiro Kumano, Kenichi Horiguchi, Daisuke Yamaguchi, Yoichi Sato, Yoshihiro Suda and Takahiro Suzuki, "Distinguishing dviver intentions in visual distractions", In Proc. ITS World Congress 2009, 2009.

[4] S. Kumano, K. Otsuka, D. Mikami and J. Yamato, "Recognizing Communicative Facial Expressions for Discovering Interpersonal Emotions in Group Meetings", In Proc. International Conference on Multimodal Interfaces (ICMI), Sept. 2009. [pdf], [poster]

[3] S. Kumano, K. Otsuka, J. Yamato, E. Maeda and Y. Sato, "Combining Stochastic and Deterministic Search for Pose-Invariant Facial Expression Recognition", In Proc. British Machine Vision Conference (BMVC), 2008.

[2] S. Kumano, K. Otsuka, J. Yamato, E. Maeda and Y. Sato, "Pose-Invariant Facial Expression Recognition Using Variable-Intensity Templates", In Proc. Asian Conference on Computer Vision (ACCV), Vol. I, pp.324-334, 2007. [Honorable mention Award]

[1] Junji Yoshida, Masato Abe, Shiro Kumano, and Yozo Fujino, "Construction of A Measurement System for the Dynamic Behaviors of Membrane by Using Image Processing", In Proc. Structural Membrane 2003 - International Conference on Textile Composites and Inflatable Structures, 2003.

招待講演

[2] Shiro Kumano, "Computational Model for Inferring How an Individual Perceives Others' Affective States," Lectures, Swiss Center for Affective Sciences, 2017.

[1] 熊野 史朗, 「対話中に生じる二者間の共感に関する観察者認知の確率モデルと自動推定」, 電子情報通信学会ヴァーバル・ノンヴァーバル・コミュニケーション(VNV)研究会,2014.

国内会議・研究会等

[32] アンタケ チャダーポーン 玲羅, 熊野 史朗, 「個人差多次元尺度構成法にもとづく二者情動一致のベイズ認知モデル」, 電子情報通信学会HCGシンポジウム,HCG2018-A-4-6,2018.

[31] 石井亮, 大塚和弘, 熊野史朗, 東中竜一郎, 富田準二, 「話者継続・交替時の視線行動と対話行為に基づく共感スキルの推定」, 電子情報通信学会HCGシンポジウム,HCG2018-B-3-4,2018. [オーガナイズドセッション賞受賞]

[30] Layla C. Antaket, Masafumi Matsuda, Kazuhiro Otsuka, and Shiro Kumano, "Analyzing Generation and Cognition of Emotional Congruence using Empathizing-Systemizing Quotient", 第13回日本感性工学会春季大会, 査読セッション, WG1-1, 2018.

[29] 熊野史朗, 「本人・相手・第三者による情動一致の認知と機械によるその自動予測」, 第13回日本感性工学会春季大会, 企画セッション Affective Computing(感情計算論), 2018. (原稿無し)

[28] アンタケチャダポーン玲羅,松田昌史,大塚和弘,熊野史朗, 「二者情動一致の認知モデルの提案,および,心理特性との関連分析」, 電子情報通信学会HCGシンポジウム,HCG2017-A-1-3,2017.

[27] 熊野史朗,石井亮,大塚和弘, 「三者間共感理論における本人・傍参与者・外部観察者による評定の違いの分析」, 電子情報通信学会 ヒューマンコミュニケーション基礎(HCS)研究会, vol. 117,pp. 13-18,2017.

[26] 石井亮,熊野史朗,大塚和弘, 「話者継続・交替時の視線行動に基づく共感スキルの推定」, 電子情報通信学会 ヒューマンコミュニケーション基礎(HCS)研究会, vol. 117,pp. 19-24,2017.

[25] 熊野史朗,石井亮,大塚和弘, 「評定者個人に特化した他者感情理解モデル」, 人工知能学会全国大会,2H4-OS-35b-3in2, 2017.

[24] 熊野史朗,大塚和弘,石井亮,大和淳司, 「集団的一人称視点映像解析に基づく複数人対話の自動視線分析」, 電子情報通信学会HCGシンポジウム, pp. 319-326, 2015. [優秀インタラクティブ発表賞受賞] [オーガナイズドセッション賞受賞]

[23] 石井亮,熊野史朗,大塚和弘, 「複数人対話における視線と呼吸動作に基づく次話者予測」,電子情報通信学会HCGシンポジウム, pp. 20-26, 2015. [優秀インタラクティブ発表賞受賞]

[22] 石井亮, 大塚和弘, 熊野史朗, 大和淳司, 「複数人対話での視線交差のタイミング構造に基づく次話者と発話開始タイミングの予測」, 人工知能 学会全国大会,2015.

[21] 石井亮, 大塚和弘, 熊野史朗, 大和淳司, 「複数人対話での話者交替に関する頭部動作の分析 〜次話者と発話開始タイミングの予測モデルの構築に向けて〜」, 電子情報通信学会HCGシンポジウム,2014.

[20] 石井亮,大塚和弘,熊野史朗,大和淳司, 「複数人対話での話者交替に関する呼吸動作の分析 〜次話者と発話開始タイミングの予測モデルの構築に向けて〜」, 電子情報通信学会,ヒューマンコミュニケーション基礎研究会, vol.114, no.189, HCS2014-49, pp.35-40,2014. [電子情報通信学会ヒューマンコミュニケーション賞]

[19] 熊野史朗,大塚和弘,松田昌史,石井亮,大和淳司, 「確率的トピックモデルによる対人認知傾向と性格特性の関連付け」, 情報処理学会第76回全国大会,2014.

[18] 石井亮, 大塚和弘, 熊野史朗, 松田 昌史, 大和 淳司, 「複数人対話における注視遷移パターンに基づく次話者と発話開始タイミングの予測」, 人工知能学会,SLUD研究会,2013.

[17] 武田十季,熊野史朗,小笠原隆行,小林稔,浦哲也,定方徹,田中智博, 「コミュニケーション活性化のための感情状態のランク付けに基づく体験記録提示インタフェースの提案と評価」,信学技報,vol. 113,no. 185,HCS2013-42,pp. 51-56,2013.

[16] 武田十季, 浦哲也, 熊野史朗, 小笠原隆行, 西田京介, 定方徹, 小林稔, 「体験記録のハイライトに向けた体験時の感情状態の分析」, 電子情報通信学会技術研究報告(MVE), 2013.

[15] 武田十季, 浦哲也, 熊野史朗, 小笠原隆行, 西田京介, 定方徹, 小林稔, 「感情変化に着目した振り返り・共有を促す体験記録ハイライトの提案」,データ工学と情報マネジメントに関するフォーラム(DEIM),2013.

[14] 松田昌史,本間元康,熊野史朗,石井亮,大塚和弘,大和淳司,「視線一致範囲測定に関す る探索的検討 −疎らな実験データの解析−」,電子情報通信学会技術研究報告, 112(455), 173-178, 2013.

[13] 松田昌史,本間元康,熊野史朗,石井亮,大塚和弘,大和淳司,「アイコンタクト知覚範囲 の性差に関する探索的検討 −社交性不安およびアイコンタクト相手の性別の影響−」,電子 情報通信学会技術研究報告, 112(412), 77-82, 2013.

[12] 熊野史朗, 大塚和弘, 松田昌史, 大和淳司, 「二者間の行動の一致性と時間差に基づく外部観察者の共感解釈の分析」, HCGシンポジウム, 2012. [優秀インタラクティブ発表賞受賞]

[11] 松田昌史,本間元康,熊野史朗,石井亮,大塚和弘,大和淳司,「アイコンタクト知覚体積の規定因に関する探索的研究」,日本社会心理学会大会発表論文集, 2012.

[10] 大塚和弘,熊野史朗,三上弾,松田昌史,大和淳司:「MM-Space:動的投影を用いた頭部運動の物理的補強表現に基づく会話場再構成」,インタラクション2012.

[9] 松田昌史, 八重樫海人, 大坊郁夫, 三上弾, 熊野史朗, 大塚和弘, 大和淳司, ビデオ通信環境における対人印象に関する探索的研究 ―当事者評価と傍観者評価の比較―, 電子情報通信学会技術研究報告, 111(393), 27-32, 2012.

[8] 松田昌史, 八重樫海人, 大坊郁夫, 三上弾, 熊野史朗, 大塚和弘, 大和淳司, ビデオ通信環境における対人印象の規定因に関する探索的実験研究 ―第三者に対する映像呈示と音声呈示の比較―, 電子情報通信学会技術研究報告, 111(464), 49-54, 2012.

[7] 熊野史朗, 大塚和弘, 三上弾, 大和淳司, 「複数人対話を対象とした表情と視線に基づく共感/反感の推定モデルとその評価」, 電子情報通信学会技術報告,ヒューマンコミュニケーション基礎研究会 (HCS)(フォーラム顔学2011共催, HCSジョイントセッション), HCS 111(214), pp. 33-38,2011.

[6] 熊野史朗, 大塚和弘, 三上弾, 大和淳司, 「複数人対話を対象とした顔表情の共起パターンの確率モデルに基づく共感状態の推定」, 画像の認識・理解シンポジウム(MIRU), 2011. [インタラクティブセッション賞受賞]

[5] D. Mikami, K. Otsuka, S. Kumano, and J. Yamato, "Enhancing Memory-based Particle Filter with Detection-based Memory Acquisition for Robustness under Severe Occlusions", 画像の認識・理解シンポジウム(MIRU2011), 2011.

[4] L. Su, S. Kumano, K. Otsuka, D. Mikami, J. Yamato, E. Maeda, Y. Sato, "Subtle Facial Expression Recognition Based on Expression Category-dependent Motion Magnification", 情報科学技術フォーラム(FIT), 2010.

[3] 熊野史朗, 大塚和弘, 大和淳司, 前田英作, 佐藤洋一 「パーティクルフィルタと勾配法の組み合わせによる頭部姿勢変動に頑健な表情認識手法」, 画像の認識・理解シンポジウム(MIRU), 2008.

[2] 熊野史朗, 大塚和弘, 大和淳司, 前田英作, 佐藤洋一 「変動輝度テンプレートを用いた頭部姿勢変動に頑健な表情認識手法」, 画像の認識・理解シンポジウム(MIRU), 2007.

[1] 熊野史朗, 大塚和弘, 大和淳司, 前田英作, 佐藤洋一 「表情認識のための変動輝度テンプレートとその頭部姿勢変動に対する頑健性の一検討」, コンピュータビジョンとイメージメディア研究報告, Vol. 2007, No. 87, pp.145-152, 2007.