Publication List  文献リスト

 

Last update May 2018


External resource


Google Scholar

https://scholar.google.co.jp/citations?user=Y2EzUuEAAAAJ&hl=ja&oi=sra


ACM Digital Library

http://dl.acm.org/author_page.cfm?id=81100500908&coll=DL&dl=ACM&trk=0&cfid=256513885&cftoken=22638771


Microsoft Academic Search

https://academic.microsoft.com/#/detail/2126293821


DBLP

http://www.informatik.uni-trier.de/~ley/pers/hd/o/Otsuka:Kazuhiro

 

ResearchGate

http://www.researchgate.net/profile/Kazuhiro_Otsuka



Journal Paper


Layla Chadaporn Antaket, Masafumi Matsuda, Kazuhiro Otsuka, and Shiro Kumano, “Analyzing Generation and Cognition of Emotional Congruence using Empathizing-Systemizing Quotient,” International Journal of Affective Engineering, Vol.17, No.3, 2018


Kazuhiro Otsuka, “Behavioral Analysis of Kinetic Telepresence for Small Symmetric Group-to-Group Meetings,” IEEE Transactions on Multimedia, Vol. 20, No. 6, pp. 1432-1447, June 2018 OpenAccess


Shiro Kumano, Kazuhiro Otsuka, Ryo Ishii, and Junji Yamato, "Collective First-Person Vision for Automatic Gaze Analysis in Multiparty Conversations," IEEE Trans. Multimedia, Vol. 19, Issue 1, pp. 107-122,, 2016


Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Junji Yamato, "Prediction of "Who Will Be Next Speaker and When" using Gaze Behavior in Multi-Party Meetings",ACM Transaction on Interactive Intelligent Systems, Vol. 6, No. 1, pp. 1-31, May 2016


石井 亮,大塚 和弘,熊野 史朗,松田 昌史,大和 淳司,“複数人対話における頭部運動に基づく次話者の予測”,情報処理学会論文誌,Vol. 57, No. 4, pp. 1116-1127, 2016.


Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Junji Yamato, "Using Respiration to Predict Who Will Speak Next and When in Multiparty Meetings",ACM Transaction on Interactive Intelligent Systems,  Volume 6, Issue 2, pp. 20:1-20:20, August, 2016.


Shiro Kumano, Kazuhiro Otsuka, Dan Mikami, Masafumi Matsuda, and Junji Yamato, " Analyzing Interpersonal Empathy via Collective Impressions", IEEE Transactions on Affective Computing, Vol. 6, Issue 4, pp. 324-336, 2015


石井 亮,小澤 史朗,小島 明,大塚 和弘,中野 有紀子,林 祐樹,“遠隔空間の重畳を可能とする鏡インタフェースMIOSSの提案と評価”,ヒューマンインタフェース学会論文誌.Vol.17, No.3, pp. 255-264, 2015


Dairazalia Sanchez-Cortes, Shiro Kumano, Kazuhiro Otsuka, and Daniel Gatica-Perez, "In the Mood for Vlog: Multimodal Inference in Conversational Social Video," ACM Transactions on Interactive Intelligent Systems (Tiis), Volume 5 Issue 2, July 2015.


Shiro Kumano, Kazuhiro Otsuka, Masafumi Matsuda, and Junji Yamato, "Analyzing Perceived Empathy based on Reaction Time in Behavioral Mimicry", IEICE Trans., Vol.E97-D, No.8, pp. 2008-2020, Aug. 2014.


石井 亮,大塚 和弘,熊野 史朗,松田 昌史,大和 淳司,“複数人対話における注視遷移パターンに基づく次話者と発話開始タイミングの予測”,電子情報通信学会論文誌,Vol.J97- A,No.6,pp.453-468,Jun. 2014


松田昌史,八重樫海人,大坊郁夫,三上弾,熊野史朗,大塚和弘,大和淳司:「ビデオ通信環境における対人方向感覚と印象形成に関する探索的研究」,ヒューマンインタフェース学会論文誌, Vol. 15, No. 4, pp. 433-442, 25 November 2013

 

大塚 和弘, 熊野 史朗, 松田 昌史, 大和 淳司:「MM-Space: 頭部運動の物理的補強表現に基づく会話場再構成」,情報処理学会論文誌,Vol. 54, No. 4, pp. 1450-1461 (2013-04-15)

 

Takaaki Hori, Shoko Araki, Takuya Yoshioka, Masakiyo Fujimoto, Shinji Watanabe, Takanobu Oba, Atsunori Ogawa, Kazuhiro Otsuka, Dan Mikami, Keisuke Kinoshita, Tomohiro Nakatani, Atsushi Nakamura, Junji Yamato, “Low-Latency Real-Time Meeting Recognition and Understanding Using Distant Microphones and Omni-Directional Camera”, IEEE Transactions on Audio, Speech & Language Processing, Vol. 20, pp. 499-513 (2012-01)

 

Dan Mikami, Kazuhiro Otsuka, Shiro Kumano, Junji Yamato, “Enhancing Memory-Based Particle Filter with Detection-Based Memory Acquisition for Robustness under Severe Occlusion,” IEICE Transactions, Vol. 95-D, No. 11, pp. 2693-2703 (2012)

 

坊農 真弓, 菊地 浩平, 大塚 和弘:「手話会話における表現モダリティの継続性」,社会言語科学, Vol. 14, No. 1, pp. 126-140 (2011-09-30)

 

三上 , 大塚 和弘, 大和 淳司:「姿勢とアピアランスの変化に頑健な対象追跡を実現するアピアランス統合メモリベースパーティクルフィルタ(画像・映像解析,13回画像の認識・理解シンポジウム推薦論文,<特集>画像の認識・理解論文)」,電子情報通信学会論文誌. D, 情報・システム Vol. J94-D, No. 8, pp. 1194-1205 (2011-08-01)

 

三上 , 大塚 和弘, 大和 淳司:「メモリベースパーティクルフィルタ : 状態履歴に基づく事前分布予測を用いた頑健な対象追跡(画像映像解析,12回画像の認識・理解シンポジウム推薦論文,<特集>画像の認識・理解論文)」,電子情報通信学会論文誌. D, 情報・システム Vol. J93-D, No. 8, pp. 1313-1328 (2010-08-01)

電子情報通信学会論文賞,及び,喜安善市賞(年間最優秀論文賞掲載約1500本中の1本)

 

Shiro Kumano, Kazuhiro Otsuka, Junji Yamato, Eisaku Maeda, and Yoichi Sato, “Pose-Invariant Facial Expression Recognition Using Variable-Intensity Templates”, International Journal of Computer Vision, Vol. 83, Issue 2, pp.178-194, June 2009

 

熊野 史朗 , 大塚 和弘 , 大和 淳司, 前田 英作 , 佐藤 洋一:「パーティクルフィルタとこう配法の組合せによる頭部姿勢と表情の同時推定」,電子情報通信学会論文誌. D, 情報・システム Vol. J92-D, No. 8, pp. 1349-1362 (2009-08-01)

 

Oscar Mateo Lozano and Kazuhiro Otsuka, “Real-time visual tracker by Stream processing ---Simultaneous and fast 3D tracking of multiple faces in video sequences by using a particle filter ---,” Journal of VLSI Signal Processing Systems, Vol. 57, Issue 2, pp. 285 -295, November 2009

(Open Access at http://www.springerlink.com/content/pk22n1632859082k/)

 

熊野 史朗, 大塚 和弘, 大和 淳司, 前田 英作, 佐藤洋一:「変動輝度テンプレートによる頭部姿勢と表情の同時推定」,情報処理学会論文誌 コンピュータビジョンとイメージメディア, Vol. 1, No. 2, pp. 50-62 (2008-07-24)

 

大塚 和弘, 竹前 嘉修, 大和 淳司, 村瀬 洋:「複数人物の対面会話を対象としたマルコフ切替えモデルに基づく会話構造の確率的推論」,情報処理学会論文誌, Vol. 47, No. 7, pp. 2317-2334 (2006)

 

Yoshinao Takemae, Kazuhiro Otsuka, Junji Yamato, and Shinji Ozawa, “The Subjective Evaluation Experiments of an Automatic Video Editing System Using Vision-based Head Tracking for Multiparty Conversations,” IEEJ Trans. Electronics, Information and Systems, Vol. 126-C, No. 4, pp. 435-442, April, (2006)

 

竹前 嘉修, 大塚 和弘, 武川 直樹:「対面の複数人対話を撮影対象とした対話参加者の視線に基づく映像切替え方法とその効果」, 情報処理学会論文誌, Vol.  46, No. 7, pp. 1752-1767 (2005-07-15)

 

大塚 和弘, 武川 直樹:「多視点観測に基づく複数物体の相互オクルージョン解析と逐次状態推定」,情報処理学会論文誌 コンピュータビジョンとイメージメディア, Vol. 44(SIG_17(CVIM_8)), pp.109-125 (2003-12-15)

 

Kazuhiro Otsuka, Tsutomu Horikoshi, Haruhiko Kojima, Satoshi Suzuki, “Image Sequence Retrieval for Forecasting Weather Radar Echo Pattern, ” IEICE transactions on information and systems, Vol. E83-D, No. 7, pp. 1458-1465 (2000-07-25)

 

大塚 和弘, 堀越 , 安達 文夫, 曽根原 , 鈴木 智:「時空間中の運動軌跡に基づくテンポラルテクスチャー解析」, 情報処理学会論文誌, Vol. 40, No. 8, pp. 3155-3168 (1999-08-15)

 

大塚 和弘, 落合 慶広, 鈴木 , 堀越 , 小田 寿則, 稲垣 充廣:「局地・短時間気象予報システム : My Weather」,情報処理学会論文誌, Vol. 40, No. 3, pp. 1117-1126 (1999-03-15)

 

大塚 和弘, 堀越 , 安達 文夫, 落合 慶広, 鈴木 智:「時空間中の運動軌跡に基づくオプティカルフローの推定」, 電子情報通信学会論文誌. D-II, 情報・システム, Vol. J81-D-2, No. 9, pp. 2061-2073 (1998-09-25)

 

Atsushi. Seto, Kazuhiro. Ohtsuka, and Rokuya Ishii, “Restoration of Degraded Images with Neural Networks,” System and Computers in Japan, Vol. 29, No.8, 1998

 

瀬戸 篤志, 大塚 和弘, 石井 六哉:「ニューラルネットワークを用いた劣化画像の復元法」, 電子情報通信学会論文誌. D-II, 情報・システム, Vol. J80-D-2, No. 5, pp. 1276-1285 (1997-05-25)

 

Letters and Short Notes


Su Lumei, Kumano Shiro, Otsuka Kazuhiro, Mikami Dan, Yamato Junji, Maeda Eisaku, Sato Yoichi, “Subtle Facial Expression Recognition Based on Expression Category-dependent Motion Magnification”, 情報科学技術フォーラム講演論文集, Vol. 9, No. 3, pp. 209-212, 2010-08-20

 

熊野史朗,大塚和弘,大和淳司,前田英作,佐藤洋一「変動輝度テンプレートを用いた頭部姿勢変動に頑健な確率的表情認識手法」,情報科学技術レターズ(FIT2007),pp. 215-218, 2007

 

Book Chapter


Kazuhiro Otsuka, “Multimodal Conversation Scene Analysis for Understanding People’s Communicative Behaviors in Face-to-Face Meetings”, Lecture Notes in Computer Science, Vol. 6772, pp 171-179(2011) http://link.springer.com/chapter/10.1007/978-3-642-21669-5_21

 

Dan Mikami, Kazuhiro Otsuka, and Junji Yamato, "Memory-based Particle Filter for Tracking Objects with Large Variation in Pose and Appearance", in Proceedings of The 11th European Conference on Computer Vision (ECCV 2010), Lecture Notes in Computer Science Volume 6313, 2010, pp 215-228

 

Kazuhiro Otsuka, Yoshinao Takemae, Junji Yamato, and Hiroshi Murase, "Probabilistic Inference of Gaze Patterns and Structure of Multiparty Conversations from Head Directions and Utterances," New Frontiers in Artificial Intelligence: Proceeding of the 19th Annual Conferences of the Japanese Society for Artificial Intelligence, a volume of LNAI, Springer. Vol. 4012, pp. 353--364, Springer (2006)

 

 

International Conference (with review)  (including above book chapters)


Daniel Gatica-Perez, Dairazalia Sanchez-Cortes, Trinh-Minh-Tri Do, Dinesh Babu Jayagopi and Kazuhiro Otsuka, “Vlogging Over Time: Longitudinal Impressions and Behavior in YouTube,” 17th International Conference on Mobile and Ubiquitous Multimedia (MUM2018), November, 2018 (accepted)


Kazuhiro Otsuka, Keisuke Kasuga, Martina Köhler, “Estimating Visual Focus of Attention in Multiparty Meetings using Deep Convolutional Neural Networks,” Proceedings of the 2018 on International Conference on Multimodal Interaction (ICMI2018), pp. 191-199, October 2018 [Oral Long Papge; acceptance ratio = 15.4%]


Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Ryuichiro Higashinaka, Junji Tomita, “Analyzing Gaze Behavior and Dialogue Act during Turn-taking for Estimating Empathy Skill Level,” Proceedings of the 2018 on International Conference on Multimodal Interaction (ICMI2018), pp. 31-39, October 2018 [Oral Long Papge; acceptance ratio = 15.4%]


Ryo Ishii, Shiro Kumano, and Kazuhiro Otsuka, “Analyzing Gaze Behavior during Turn-taking for Estimating Empathy Skill Level,” in Proceedings of 19th ACM International Conference on Multimodal Interaction (ICMI2017), pp. 365-373, November 2017


Shiro Kumano, Ryo Ishii, and Kazuhiro Otsuka, “Comparing Empathy Perceived by Interlocutors in Multiparty Conversation and External Observers,” in Proceedings of International Conference on Affective Computing and Intelligent Interaction (ACII2017), pp. 50-57, October 2017


Shiro Kumano, Ryo Ishii, and Kazuhiro Otsuka, “Computational Model of Idiosyncratic Perception of Others' Emotions,” in Proceedings of International Conference on Affective Computing and Intelligent Interaction (ACII2017), pp. 42-49, October 2017


Ryo Ishii, Shiro Kumano, and Kazuhiro Otsuka, “Prediction of Next-Utterance Timing using Head Movement in Multi-Party Meetings,” in Proceedings of 5th International Conference on Human Agent Interaction (HAI2017), pp. 181-187, October 2017


Shogo Okada and Kazuhiro Otsuka, “Recognizing Words from Gestures: Discovering Gesture Descriptors Associated with Spoken Utterances,” in Proceedings of 12th IEEE International Conference on Automatic Face and Gesture Recognition (FG2017), pp. 430-437, May 2017


Kazuhiro Otsuka, “MMSpace: Multimodal Meeting Space Embodied by Kinetic Telepresence,” in Proceedings of the 2017 CHI Conference Extended Abstracts on Human Factors in Computing Systems (CHI EA 2017), p. 458, May 2017 (Video Showcase)


Ryo Ishii, Shiro Kumano, Kazuhiro Otsuka, “Analyzing mouth-opening transition pattern for predicting next speaker in multi-party meetings.” In Proceedings of  International Conference on Multimodal Interaction (ICMI 2016), pp. 209-216, 209-216


Kazuhiro Otsuka, “MMSpace: Kinetically-augmented telepresence for small group-to-group conversations," In Proceedings of IEEE Virtual Reality 2016 (VR2016), pp. 19-28, March, 2016


Ryo Ishii, Shiro Kumano, Kazuhiro Otsuka, "Multimodal Fusion using Respiration and Gaze for Predicting Next Speaker Based in Multi-Party Meetings", In Proceedings of International Conference on Multimodal Interaction (ICMI 2015), pp. 99-106, 2015


Ryo Ishii, Shiro Ozawa, Akira Kojima, Kazuhiro Otsuka, Yuki Hayashi, Yukiko Nakano, "Design and Evaluation of Mirror Interface MIOSS to Overlay Remote 3D Spaces", In Proceedings of IFIP TC.13 International Conference on Human-Computer Interaction (INTERACT 2015), 2pp. 319-326, 2015


Shiro Kumano, Kazuhiro Otsuka, Ryo Ishii, and Junji Yamato, “Automatic Gaze Analysis in Multiparty Conversations based on Collective First-Person Vision,” In Proceedings of International Workshop on Emotion Representation, Analysis and Synthesis in Continuous Time and Space (EmoSPACE 2015)pp. 1-8, vol. 5, May 2015


Ryo Ishii, Shiro Kumano, Kazuhiro Otsuka, "Predicting Next Speaker Based on Head Movement in Multi-Party Meetings", In Proceedings of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2015). pp. 2319-2323, 2015


Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Junji Yamato, "Analysis of Respiration for Prediction of "Who Will Be Next Speaker and When?" in Multi-Party Meetings ", In Proceedings of  International Conference on Multimodal Interaction (ICMI 2014), pp. 18-25, 2014

[Outstanding Paper Award]


Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Junji Yamato, "Analysis of Timing Structure of Eye Contact in Turn-changing", In Proceedings of  Workshop on Eye Gaze in Intelligent Human Machine Interaction: Eye-Gaze and Multimodality (GazeIn 2014), pp. 15-20, 2014.


Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Junji Yamato, "Analysis and Modeling of Next Speaking Start Timing in Multi-party Meetings", In Proceedings of  International Conference on Acoustics, Speech and Signal Processing (ICASSP 2014), pp. 694-698, May 2014


Dairazalia Sanchez-Cortes, Joan-Isaac Biel, Shiro Kumano, Junji Yamato, Kazuhiro Otsuka, Daniel Gatica-Perez, “Inferring Mood in Ubiquitous Conversational Video”, In Proceedings of 12th International Conference on Mobile and Ubiquitous Multimedia (MUM 2013), December 2013

 

Kazuhiro Otsuka, Shiro Kumano, Ryo Ishii, Maja Zbogar, Junji Yamato, “MM+Space: n x 4 Degree-of-Freedom Kinetic Display for Recreating Multiparty Conversation Spaces”, In Proceedings of ACM International Conference on Multimodal Interfaces (ICMI2013), pp. 389-396, December 2013

 

Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Masafumi Matsuda, Junji Yamato, “Predicting Next Speaker and Timing from Gaze Transition Patterns in Multi-Party Meetings”, In Proceedings of ACM International Conference on Multimodal Interfaces (ICMI2013), pp. 79-86, December 2013

 

Shiro Kumano, Kazuhiro Otsuka, Masafumi Matsuda, Rryo Ishii, Junji  Yamato, “Using A Probabilistic Topic Model to Link Observers' Perception Tendency to Personality”, In Proc. Humaine Association Conference on Affective Computing and Intelligent Interaction (ACII), pp. 588-593, December 2013

 

Shiro Kumano, Kazuhiro Otsuka, Masafumi Matsuda, Junji Yamato, “Analyzing perceived empathy/antipathy based on reaction time in behavioral coordination”, In Proc. International Workshop on Emotion Representation, Analysis and Synthesis in Continuous Time and Space (EmoSPACE) In conjunction with the IEEE Conference on Automatic Face and Gesture Recognition (FG) 2013, pp. 1-8, 2013

 

Dineshbabu Jayagopi, Dairazalia Sanchez-Cortes, Kazuhiro Otsuka, Junji Yamato, Daniel Gatica-Perez, “Linking speaking and looking behavior patterns with group composition, perception, and performance”, In Proceedings of the 14th ACM international conference on Multimodal interaction (ICMI2012), October 2012

[Outstanding Paper Award]

 

Kazuhiro Otsuka, Shiro Kumano, Dan Mikami, Masafumi Matsuda, Junji Yamato, “Reconstructing multiparty conversation field by augmenting human head motions via dynamic displays”, In Proceedings of the 2012 ACM annual conference extended abstracts on Human Factors in Computing Systems (CHI EA '12), pp. 2243-2248, May 2012

 

Shiro Kumano, Kazuhiro Otsuka, Dan Mikami, Masafumi Matsuda, Junji Yamato, “Understanding communicative emotions from collective external observations”, In Proceedings of the 2012 ACM annual conference extended abstracts on Human Factors in Computing Systems (CHI EA '12), pp. 2201-2206, May 2012

 

Kazuhiro Otsuka, Kamil Sebastian Mucha, Shiro Kumano, Dan Mikami, Masafumi Matsuda, Junji Yamato, “A system for reconstructing multiparty conversation field based on augmented head motion by dynamic projection”, In Proceedings of the 19th ACM international conference on Multimedia (MM2011), November 2011

 

Kazuhiro Otsuka, "Multimodal Conversation Scene Analysis for Understanding People's Communicative Behaviors in Face-to-face Meetings", 14th International Conference on Human-Computer Interaction (HCI International 2011) , Human Interface and the Management of Information. Interacting with Information, Lecture Notes in Computer Science Volume 6772, pp 171-179, 2011

 

Takaaki Hori, Takuya Yoshioka, Masakiyo Fujimoto,, Shinji Watanabe, Takanobu Oba, Atsunori Ogawa, Kazuhiro Otsuka, Dan Mikami, Marc Delcroix,  Keisuke Kinoshita,  Tomohiro Nakatani, Atsushi Nakamura, Junji Yamato, "Low-latency meeting recognition and understanding using distant microphones", In Proc. 2011 Joint Workshop on Hands-free Speech Communication and Microphone Arrays (HSCMA), pp. 151-152, 2011.

 

Shiro Kumano, Kazuhiro Otsuka, Dan Mikami, Junji Yamato, “Analyzing Empathetic Interactions based on the Probabilistic Modeling of the Co-occurrence Patterns of Facial Expressions in Group Meetings”, In Proc. IEEE International Conference on Automatic Face and Gesture Recognition (FG 2011), pp. 43-50, 2011

 

Lumei Su, Shiro Kumano, Kazuhiko Otsuka, Dan Mikami, Junji Yamato, Yoichi Sato, “Early Facial Expression Recognition with High-frame Rate 3D Sensing”, in Proc. IEEE Int. Conf. Systems, Man, and Cybernetics (SMC2011), pp. 3304-3310, October 2011.

 

Takaaki Hori, Shoko Araki, Takuya Yoshioka, Masakiyo Fujimoto, Shinji Watanabe, Takanobu Oba, Atsunori Ogawa, Kazuhiro Otsuka, Dan Mikami, Keisuke Kinoshita, Tomohiro Nakatani, Atsushi Nakamura, Junji Yamato, "Real-time Meeting Recognition and Understanding Using Distant Microphones and Omni-directional Camera", in Proc. Spoken Language Technology Workshop (IEEE-SLT), pp. 424 - 429, 2010-12

 

Sebastian Gorga, Kazuhiro Otsuka, "Conversation Scene Analysis based on Dynamic Bayesian Network and Image-based Gaze Detection", in Proceeding of the 12th International Conference on Multimodal Interfaces and 7th Workshop on Machine Learning for Multimodal Interaction (ICMI-MLMI 2010), pp. 54:1--54:8, 2010

 

Dan Mikami, Kazuhiro Otsuka, and Junji Yamato, "Memory-based Particle Filter for Tracking Objects with Large Variation in Pose and Appearance", in Proceedings of The 11th European Conference on Computer Vision (ECCV 2010), Lecture Notes in Computer Science Volume 6313, pp 215-228, 2010

 

Shiro Kumano, Kazuhiro Otsuka, Dan Mikami, J. Yamato, “Recognizing Communicative Facial Expressions for Discovering Interpersonal Emotions in Group Meetings”, In Proc. ACM International Conference on Multimodal Interfaces (ICMI-MLMI2009), pp. 99-106, 2009

 

Kentaro Ishizuka, Shoko Araki, Kazuhiro Otsuka, Tomohiro Nakatani, Masakiyo Fujimoto, “A speaker diarization method based on the probabilistic fusion of audio-visual location information”, In Proc. ACM International Conference on Multimodal Interfaces (ICMI-MLMI2009), pp. 55-62, 2009

 

Dan Mikami, Kazuhiro Otsuka, Junji Yamato, “Memory-based particle filter for face pose tracking robust under complex dynamics”, in Proc. IEEE Conference on Computer Vision and Pattern Recognition 2009 (CVPR2009)

#Oral Presentation (acceptance rate=4.1%),

Paper http://www.brl.ntt.co.jp/people/dan/demo/cvpr09/CVPR2009paper.pdf, Demo movies http://www.brl.ntt.co.jp/people/dan/demo/cvpr09/

 

Kazuhiro Otsuka, Shoko Araki, Kentaro Ishizuka, Masakiyo Fujimoto, Martin Heinrich, Junji Yamato, "A Realtime Multimodal System for Analyzing Group Meetings by Combining Face Pose Tracking and Speaker Diarization", Proc. ACM 10th Int. Conf. Multimodal Interfaces (ICMI2008) , pp. 257-264 , 2008

 

Kazuhiro Otsuka and Junji Yamato, “Fast and Robust Face Tracking for Analyzing Multiparty Face-to-Face Meetings”, 5th Joint Workshop on Machine Learning and Multimodal Interaction (MLMI2008) , Lecture Notes in Computer Science, Vol. 5237, pp. 14-25, 2008

 

Oscar Mateo Lozano, Kazuhiro Otsuka, “Simultaneous and Fast 3D Tracking of Multiple Faces in Video by GPU-based Stream Processing”, Proc. The 33rd International Conference on Acoustics, Speech, and Signal Processing (IEEE ICASSP2008), pp.713—716, 2008

http://www.springerlink.com/content/pk22n1632859082k/

 

Shiro Kumano, Kazuhiro Otsuka, Junji Yamato, Eisaku Maeda, Yoichi Sato, “Combining Stochastic and Deterministic Search for Pose-Invariant Facial Expression Recognition”, British Machine Vision Conference (BMVC), 2008.

 

Shiro Kumano, Kazuhiro Otsuka, Junji Yamato, Eisaku Maeda, Yoichi Sato, “Pose-Invariant Facial Expression Recognition Using Variable-Intensity Templates”, In Proc. Asian Conference on Computer Vision (ACCV), Vol. I, pp. 324-334, 2007.

[Honorable Mention表彰]

第一著者の熊野氏のホームページへ

 

Kazuhiro Otsuka, Hiroshi Sawada, Junji Yamato, "Automatic Inference of Cross-modal Nonverbal Interactions in Multiparty Conversations", Proc. ACM 9th Int. Conf. Multimodal Interfaces (ICMI2007), pp. 255-262, Nov. 2007.

[Outstanding Paper Award受賞]

[Abstract][Paper][Presentation][Movies]

 

Kazuhiro Otsuka, Junji Yamato, Yoshinao Takemae, Hiroshi Murase, "Conversation Scene Analysis with Dynamic Bayesian Network Based on Visual Head Tracking," Proc. 2006 IEEE International Conference on Multimedia and Expo (ICME'06), pp. 949 -952, July, 2006 [Movies]

 

Kazuhiro Otsuka, Junji Yamato, Yoshinao Takemae, Hiroshi Murase, "Quantifying Interpersonal Influence in Face-to-face Conversations based on Visual Attention Patterns," Proc. ACM CHI Extended Abstract, pp.1175-1180, April, 2006. [Abstract][Paper][Poster]

 

Kazuhiro Otsuka, Yoshinao Takemae, Junji Yamato, Hiroshi Murase, “A Probabilistic Inference of Multiparty-Conversation Structure Based on Markov-Switching Models of Gaze Patterns, Head Directions, and Utterances,” Proc. ACM Int. Conf Multimodal Interfaces (ICMI)'05, pp.191-198, October, 2005. [Abstract][Paper][Presentation][Movies]

 

Yoshinao Takemae, Kazuhiro Otsuka, Junji Yamato “ Automatic Video Editing System Using Stereo-Based Head Tracking for Multiparty Conversation,” ACM Conference on Human Factors in Computing Systems (ACM/CHI2005), pp.1817-1820, 2005.

 

Kazuhiro Otsuka, Yoshinao Takemae, Junji Yamato, Hiroshi Murase, “Probabilistic Inference of Gaze Patterns and Structure of Multiparty Conversations from Head Directions and Utterances,” Proc. 1st. International Workshop on Conversational Informatics, pp.7-12, 2005.

 

Yoshinao Takemae, Kazuhiro Otsuka, Junji Yamato, “Effects of Automatic Video Editing System Using Stereo-Based Head Tracking for Archiving Meetings”, In Proc. 2005 IEEE International Conference on Multimedia and Expo (ICME'05), pp. 185 -188, July 2005.

 

Yoshinao Takemae, Kazuhiro Otsuka, Junji Yamato, “Development of Automatic Video Editing System Based on Stereo-Based Head Tracking for Archiving Meetings,” In Proc. The Third International Conference on Active Media Technology (AMT2005), p.269, 2005.

 

Kazuhiro Otsuka, Naoki Mukawa, “A Particle Filter for Tracking Densely Populated Objects Based on Explicit Multiview Occlusion Analysis,” Proc. ICPR2004(International Conference on Pattern Recognition), Volume. 4, pp.23-26, August 2004.

 

Kazuhiro Otsuka, Naoki Mukawa, “Multiview Occlusion Analysis for Tracking Densely Populated Objects Based on 2-D Visual Angles,” Proc. CVPR2004(IEEE Conference on Computer Vision and Pattern Recognition), Volume 1, pp.90-97, June, 2004.

 

Yoshinao Takemae, Kazuhiro Otsuka, Naoki Mukawa, “An Analysis of Speakers' Gaze Behavior for Automatic Addressee Identification in Multiparty Conversation and Its Application to Video Editing,” Proc. IEEE International Workshop on Robot and Human Interactive Communication (IEEE/RO-MAN 2004), pp.581-586, 2004.

 

Yoshinao Takemae, Otsuka Kazuhiro, Naoki Mukawa, “Impact of Video Editing Based on Participants’ Gaze in Multiparty Conversation,” CHI2004(ACM Conference on Human Factors in Computing Systems), pp.1333-1336 , 2004.

 

Yoshinao Takemae, Otsuka Kazuhiro, Naoki Mukawa, "Video Cut Editing Rule Based on Participants` Gaze in Multiparty Conversation," ACM Multimedia 2003, pp.303-306, 2003.

 

Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, Haruhiko Kojima, "Memory-based Forecasting for Weather Image patterns," Proc. 17th AAAI(Austin), pp.330-336, July, 2000

 

Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, Haruhiko Kojima, "Memory-based Forecasting of Complex Natural Patterns by Retrieving Similar Image Sequences," Proc. IAPR 10th. Int. Conf. Image Analysis and Processing(Venice), pp.874-879, September, 1999

[Best Paper Award受賞]

 

Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, Masaharu Fujii, "Local Precipitation Forecast based on Retrieval of Similar Echo Pattern in Radar Image Sequences," Proc. American Meteorological Society 15th Int. Conf. Interactive Information and Processing Systems for Meteorology, Oceanography, and Hydrology(Dallas), pp.99-102, January, 1999

 

Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, "Image Sequence Retrieval for Forecasting Weather Radar Echo Pattern," Proc. MVA(Makuhari), pp.238-241, November, 1998

 

Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, Masaharu Fujii, "Feature Extraction of Temporal Texture Based on Spatiotemporal Motion Trajectory," Proc. IAPR 14th ICPR(Brisbane), pp.1047-1051, August, 1998

 

Kazuhiro Otsuka, Tsutomu Horikoshi, Keihiro Ochiai, Satoshi Suzuki, Fumio Adachi, Masaharu Fujii, "Precipitation Forecast Based on Segmentation of Radar Echo Motion Field," Proc. American Meteorological Society 25th Conference on Radar Meteorology (Austin), pp. 218-219, September, 1997

 

Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, "Image Velocity Estimation From Trajectory Surfaces in Spatiotemporal Space," Proc. CVPR'97(Puerto Rico), pp.200-205, June, 1997

 

 

【解説記事】

Kazuhiro Otsuka: “MM-Space: Recreating Multiparty Conversation Space by Using Dynamic Displays”, NTT Technical Review, Vol. 10 No. 11 Nov. 2012

 

大塚 和弘:「動くディスプレイで会話が伝わる」NTT技術ジャーナル24(9), 27-30, 2012. 9

 

Kazuhiro Otsuka, “Conversation Scene Analysis”, IEEE Signal Process Magazine, Vol. 28, No. 4, pp. 127-131 (2011)

 

熊野 史朗, 大塚 和弘, 大和 淳司:「頭部姿勢の変動に頑健な表情認識技術--表情から人の気持ちを読み取ることを目指して」画像ラボ 21(4), 36-41, 2010-04-00

 

岡谷 貴之, 石川 , 大塚 和弘, 斎藤 英雄, 日浦 慎作, 世紅:「CVPR2009報告 」電子情報通信学会技術研究報告 109(306), 297-305, 2009-11-26

 

大塚 和弘, 荒木 章子:「会話シーン分析のための音声映像技術 (特集 コミュニケーション科学の融合研究における新潮流)NTT技術ジャーナル21(5), 17-20, 2009-05-00

 

大塚 和弘, 荒木 章子:「コミュニケーションを理解する音声・映像技術 (特集 我が国基礎・基盤研究の現状--NTTコミュニケーション科学基礎研究所)ITUジャーナル 38(8), 5-7, 2008-08-00

 

大塚 和弘:「ICMI 2007参加報告」ヒューマンインタフェース学会誌 = Journal of Human Interface Society : human interface 10(1), 47-48, 2008-02-25

 

柏野 邦夫 , 向井 , 大塚 和弘:「高速メディア探索 (特集 コミュニケーション環境の未来に向けた研究最前線)NTT技術ジャ-ナル 19(6), 29-32, 2007-06-00

 

 

Awards


  1. 電子情報通信学会 HCGシンポジウム2015 優秀インタラクティブ発表賞(熊野史朗,大塚和弘,石井亮,大和淳司,「集団的一人称視点映像解析に基づく複数人対話の自動視線分析」),2015年12月17日

  2. 電子情報通信学会 HCGシンポジウム2015 オーガナイズドセッション賞(熊野史朗,大塚和弘,石井亮,大和淳司,「集団的一人称視点映像解析に基づく複数人対話の自動視線分析」),2015年12月17日

  3. 電子情報通信学会 HCGシンポジウム2015,優秀インタラクティブ発表賞(石井 亮,熊野 史朗, 大塚 和弘, “複数人対話における視線交差と呼吸動作に基づく次話者と発話開始の予測”)2015年12月17日

  4. 電子情報通信学会 ヒューマンコミュニケーショングル—プ ヒューマンコミュニケーション賞(2014年12月17日受賞)

  5. 16th ACM International Conference on Multimodal Interaction (ICMI2014) Outstanding Paper Award (2014.11.15)

  6. 電子情報通信学会HCGシンポジウム2012 優秀インタラクティブ発表賞(201212月)

• ACM 14th International Conference on Multimodal Interaction (ICMI2012) Outstanding Paper Award 2012.10.25授与)(Idiapとの共著論文)

•  経済産業省(デジタルコンテンツEXPO2012Innovative Technologies 特別賞(Ecology)受賞(2012.10.25授与)

•  経済産業省(デジタルコンテンツEXPO2012Innovative Technologies 受賞(2012.10.25授与)

•  人工知能学会 2011年度 研究会優秀賞 2012614日授与,NII,千葉大との共著)

  1. 画像の認識・理解シンポジウムMIRU2011 インタラクティブセッション賞(2011.7) 

•  電子情報通信学会 平成22年度 喜安善市賞 (2011528日)(年間最優秀論文賞に相当掲載約1500本中の1本)

•  電子情報通信学会 平成22年度 論文賞 (2011528日授与)

  1. 画像の認識・理解シンポジウムMIRU2009 優秀論文賞 (2009.7) 

            http://www.ok.ctrl.titech.ac.jp/miru2009/award.shtml

•  電子情報通信学会 マルチメディア・仮想環境基礎研究会 MVE賞 (2008)  http://www.ieice.org/~mve/award.html

•  8th Asian Conference on Computer Vision (ACCV2007) Honorable Mention  

  http://www.am.sanken.osaka-u.ac.jp/ACCV2007/

•   ACM 9th International Conference on Multimodal Interfaces (ICMI2007) Outstanding Paper Award  http://www.acm.org/icmi/ConfInfo.html

•  IAPR 10th International Conference on Image Analysis and Processing, Best Paper Award (1999)

•  電子情報通信学会 平成9年度学術奨励賞(1998)

•  情報処理学会 55回全国大会優秀賞(1998)

 

 

Invited Talks


貴明, 荒木 章子, 大塚 和弘:「招待講演 複数人会話シーン分析の研究と今後の展望 (音声)」電子情報通信学会技術研究報告 : 信学技報 112(141), 13-18, 2012-07-19

 

Kazuhiro Otsuka, "Multimodal Conversation Scene Analysis for Understanding People's Communicative Behaviors in Face-to-face Meetings", 14th International Conference on Human-Computer Interaction (HCI International 2011)

 

大塚和弘,「パーティクルフィルタとMCMC,そのコミュニケーション科学への応用」,情報処理学会 情報理論研究会 若手のための講演会,信学技報, vol. 110, no. 320, IT2010-52, pp. 9-18, 201011月(20101130日講演)

 

三上弾,大塚和弘,大和淳司,「メモリベースパーティクルフィルタの提案」,パーティクルフィルタ研究会4月講演会(430日@工学院大学)

 

ViEW2009(ビジョン技術の実利用ワークショップ): 「人と人とのコミュニケーションを理解する ~マルチモーダル情報処理による会話シーン分析~」, 2009123

 

ICCV2009 Workshop (HCI2009) Keynote Presentation, Understanding How People Communicate With Each Other: Multimodal Approach for Modeling and Recognizing Multiparty Face-to-Face Conversations”,2009104

 

NTT CS研オープンハウス×未来想論 研究講演:「人と人との会話を解き明かす~コミュニケーションを科学する映像音声技術~」(200965日講演,及び,中継,及び,Web公開)

 

9 計測自動制御学会(SICE システムインテグレーション部門講演会 基調講演 「画像認識に基づくコミュニケーションシーンの分析・理解」(2008125)

 

IDIAP講演会, “Communication Scene Analysis in NTT CS Lab”, (スイス・マルティニ)2008912

 

コミュニケーションの分析・デザイン研究会,「NTT CS におけるコミュニケーション分析研究の概要」,東京電機大学,2008311

 

非言語知識研究会 3回研究会「非言語行動の観測に基づく対面会話シーンの認識・理解」愛知県産業貿易館西館6階, 2007125

 

電子情報通信学会 12 ヴァーバル・ノンヴァーバル・コミュニケーション研究会 「ノンバーバル行動に基づく会話構造の確率的推論 対面会話シーンの自動的な認識・理解に向けて」,東京大学本郷キャンパス,20071130

 

人工知能学会研究会第48 言語・音声理解と対話処理研究会 (SIG-SLUD), 「非言語行動の観測に基づく複数人物の会話シーン分析」, No. SIG-SLUD-A602-01, pp. 1--6, November (2006)

 

MIT CSAIL HCI Seminar Series Spring 2006, Communication Scene Analysis based on Probabilistic Modeling of Human Gaze Behavior”,2006428

 

気象庁 気象衛星センタ 講演会 講師(2001216日)

 

 

Japanese domestic conference and others  (including invited talks above)


大塚和弘:「キネティックテレプレゼンスMMSpace:小規模グループ対グループ遠隔会話場の構成と非言語行動解析」,電子情報通信学会技術研究報告メディアエクスペリエンス・バーチャル環境基礎(MVE),2018年6月14日~15日発表予定


岡田将吾,大塚和弘:「会話中に表出するハンドジェスチャに基づく話者の発話単語の推定」,電子情報通信学会技術研究報告パターン認識・メディア理解(PRMU),vol. 117, no. 391, PRMU2017-133, pp. 209-215, 2018年1月19日発表


アンタケ玲羅,松田 昌史,大塚和弘,熊野史朗:「二者情動一致の認知モデルの提案,および,心理特性との関連分析」,電子情報通信学会HCGシンポジウム2017,HCG2017-A-1-3,2017年12月13日


石井 亮,熊野史朗,大塚和弘:「話者継続・交替時の視線行動に基づく共感スキルの推定」,電子情報通信学会技術研究報告ヒューマンコミュニケーション基礎(HCS), HCS2017-50, no. 177, pp. 19-24, 2017年8月20日


熊野史朗,石井 亮,大塚和弘:「三者間共感理論における本人・傍参与者・外部観察者による評定の違いの分析」,電子情報通信学会技術研究報告,ヒューマンコミュニケーション基礎(HCS)HCS2017-49, no. 177, pp. 13-18, 2017年8月20日


大薮将士,Debora Zrinscak,大塚和弘:「深層学習を用いた会話中の人物頭部ジェスチャ認識」,2017年人工知能学会全国大会(第31回), 2017-05-24


熊野史朗, 石井 亮, 大塚和弘:「評定者個人に特化した他者感情理解モデル」,2017年人工知能学会全国大会(第31回), 2017-05-24


石井 亮, 熊野史朗, 大塚和弘:「複数人対話における口の開閉パターンに基づく次話者予測」,HCGシンポジウム2016,HCG2016-A-2-1, pp. 98-104, 2016-12-0


Shiro Kumano, Kazuhiro Otsuka, Masafumi Matsuda, Junji Yamato, "Analyzing Empathy in Multiparty Conversation via Collective Impressions," Winter Workshop on Mechanism of Brain and Mind 2016 (脳と心のメカニズム」冬のワークショップ 2016), 2016


熊野史朗,大塚和弘,石井亮,大和淳司,「集団的一人称視点映像解析に基づく複数人対話の自動視線分析」,電子情報通信学会HCGシンポジウム,pp.319-326, 2015.[優秀インタラクティブ発表賞受賞][オーガナイズドセッション賞受賞]


石井 亮,熊野 史朗, 大塚 和弘, “複数人対話における視線交差と呼吸動作に基づく次話者と発話開始の予測”,HCGシンポジウム,2015.(投稿:2015/10/9,講演:2015/12/17)[優秀インタラクティブ発表賞受賞]


石井 亮, 大塚 和弘, 熊野 史朗, 大和 淳司,“複数人対話での視線交差のタイミング構造に基づく次話者と発話開始タイミングの予測,” 人工知能学会全国大会,2015.


石井 亮, 大塚 和弘, 熊野 史朗, 大和 淳司,“複数人対話での話者交替に関する呼吸動作の分析 〜次話者と発話開始タイミングの予測モデルの構築に向けて〜,” 信学技報, vol.114, no.189, HCS2014-49, pp.35-40,2014(講演:2014/8/23)[ヒューマンコミュニケーション賞(HC賞)受賞]


石井 亮,小澤 史朗,小島 明,中野 有紀子,林 佑樹,大塚和弘,“MIOSS:3次元空間を重畳する鏡インタフェース”,第13回情報科学技術フォーラム(FIT 2014),第3分冊RK-003,pp.55-60,2014.(講演2014/09/05)[FIT奨励賞 受賞(第一著者)]


石井亮, 大塚和弘, 熊野史朗, 松田 昌史, 大和 淳司,「複数人対話における注視遷移パターンに基づく次話者と発話開始タイミングの予測」,人工知能学会,SLUD研究会,2013

 

大塚 和弘:「コミュニケーションシーンの分析・理解と会話場再構成の一方法論」電子情報通信学会ヴァーバル・ノンヴァーバル・コミュニケーション研究会第7 年次大会「多人数・マルチモーダルインタラクションの行動・場面認識と応用」2013323[概要][スライド]

 

松田 昌史, 本間元康, 石井 , 熊野 史朗, 大塚 和弘, 大和 淳司:「視線一致範囲測定に関する探索的検討 ~ 疎らな実験データの解析 ~」, 電子情報通信学会技術研究報告 HCS2012-108, pp.173-178, 2013-03-05

 

松田昌史,本間元康,熊野史朗,石井亮,大塚和弘,大和淳司,「アイコンタクト知覚範囲 の性差に関する探索的検討 -社交性不安およびアイコンタクト相手の性別の影響-」, 電子情報通信学会技術研究報告, 112(412), 77-82, 2013.

 

熊野史朗, 大塚和弘, 松田昌史, 大和淳司, 「二者間の行動の一致性と時間差に基づく外部観察者の共感解釈の分析」, HCGシンポジウム, 2012.

優秀インタラクティブセッション賞受賞

 

松田昌史,本間元康,熊野史朗,石井亮,大塚和弘,大和淳司,「アイコンタクト知覚体積の規定因に関する探索的研究」,日本社会心理学会大会発表論文集, 2012

 

大塚 和弘,熊野 史朗,三上 弾,松田 昌史,大和 淳司:「MM-Space:動的投影を用いた頭部運動の物理的補強表現に基づく会話場再構成」情報処理学会インタラクション2012pp. 33-40, 口頭発表(2012315日),及び,インタラクティブ発表(317日)[論文,ポスター,デモムービー]

 

松田 昌史, 八重樫 海人, 大坊 郁夫, 三上 , 熊野 史朗, 大塚 和弘, 大和 淳司:「ビデオ通信環境における対人印象の規定因に関する探索的実験研究 : 第三者に対する映像呈示と音声呈示の比較」, 電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎 111(464), 49-54, 2012-02-27

 

松田 昌史, 八重樫 海人, 大坊 郁夫, 三上 , 熊野 史朗, 大塚 和弘, 大和 淳司:「ビデオ通信環境における対人印象に関する探索的研究 : 当事者評価と傍観者評価の比較」, 電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎 111(393), 27-32, 2012-01-13

 

熊野史朗, 大塚和弘, 三上弾, 大和淳司:「複数人対話を対象とした表情と視線に基づく共感/反感の推定モデルとその評価」, 電子情報通信学会技術報告,ヒューマンコミュニケーション基礎研究会 (HCS)(フォーラム顔学2011共催, HCSジョイントセッション), HCS 111(214), pp. 33-3820119, 新潟.

 

熊野史朗, 大塚和弘, 三上弾, 大和淳司:「複数人対話を対象とした顔表情の共起パターンの確率モデルに基づく共感状態の推定」, 画像の認識・理解シンポジウム(MIRU), 2011.

インタラクティブセッション賞受賞

 

Dan Mikami, Kazuhiro Otsuka, Shiro Kumano, Junji. Yamato, “Enhancing Memory-based Particle Filter with Detection-based Memory Acquisition for Robustness under Severe Occlusions”, 画像の認識・理解シンポジウム(MIRU2011), 2011

 

東山 英治, 康晴, 坊農 真弓,大塚 和弘:「ジェスチャーの視点再考」, 62 人工知能学会 言語・音声理解と対話処理研究会. SIG-SLUD-B101-15 (7/22) pp.71—74. (2011723-24日,九州工業大学飯塚キャンパス).

人工知能学会研究会優秀賞(2011年度)(受賞日 : 2012614)

 

菊地 浩平, 坊農 真弓, 大塚 和弘:「手話会話における修復組織の分析」,電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎 110(459), 61-65, 2011-02-28

 

熊野 史朗, 大塚 和弘, 三上 , 大和 淳司:「複数人対話を対象とした表情と視線に基づく共感/反感の推定モデルとその評価 : 対話者間に生まれる感情をいかに理解するか?」電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎 111(214), 33-38, 2011-09-16

 

大塚和弘,「パーティクルフィルタとMCMC,そのコミュニケーション科学への応用」,情報処理学会 情報理論研究会 若手のための講演会,信学技報, vol. 110, no. 320, IT2010-52, pp. 9-18, 201011月(20101130日講演)

 

三上弾,大塚和弘,大和淳司:「姿勢とアピアランスの変化に頑健な対象追跡を実現するアピアランス統合メモリベースパーティクルフィルタ」,画像の認識・理解シンポジウム(MIRU2010)(優秀論文セッション採択

 

三上 弾,大塚和弘,大和淳司:「頑健な顔姿勢追跡のための状態履歴の記憶に基づくパーティクルフィルタ」, 画像の認識・理解シンポジウム2009

優秀論文賞受賞

 

小笠原 基,石塚健太郎,荒木章子,藤本雅清,中谷智広,大塚和弘:SN比最大化ビームフォーマを用いたオンライン会議音声強調」,日本音響学会2009年春季研究発表会, 2009.( 2009317日発表).

 

石塚健太郎,荒木章子,大塚和弘,中谷智広,藤本雅清:「音響情報と映像情報から得られる位置情報の統合による話者ダイアライゼーション」,日本音響学会2009年春季研究発表会, 2009.(2009319日発表).

 

石塚 健太郎, 荒木 章子, 大塚 和弘, 藤本 雅清, 中谷 智広:「音響情報と映像情報の統合による多人数会話における話者決定技術(音響処理・話者同定,10回音声言語シンポジウム)」電子情報通信学会技術研究報告. SP, 音声 108(338), 25-30, 2008-12-02

 

大塚 和弘, 荒木 章子, 石塚 健太郎, 藤本 雅清, 大和 淳司:「多人数会話シーン分析に向けた実時間マルチモーダルシステムの構築 : マルチモーダル全方位センサを用いた顔方向追跡と話者ダイアリゼーションの統合」電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎 108(328), 55-62, 2008-11-20

MVE賞受賞

 

熊野史朗, 大塚和弘, 大和淳司, 前田英作, 佐藤洋一:「パーティクルフィルタと勾配法の組み合わせによる頭部姿勢変動に頑健な表情認識手法」, 画像の認識・理解シンポジウム(MIRU), 2008.

 

大塚 和弘, 澤田 , 大和 淳司:「複数人会話における非言語インタラクション構造の推定--誰が誰にどのように反応しているか?」人工知能学会 言語・音声理解と対話処理研究会(SLUD) 52, 51-58, 2008-03-07

 

熊野 史朗, 大塚 和弘, 大和 淳司, 前田 英作, 佐藤 洋一: 「表情認識のための変動輝度テンプレートとその頭部姿勢変動に対する頑健性の一検討」,情報処理学会研究報告. CVIM, [コンピュータビジョンとイメージメディア] 2007(87), 145-152, 2007-09-03

 

熊野 史朗, 大塚 和弘, 大和 淳司, 前田 英作, 佐藤 洋一:「変動輝度テンプレートを用いた頭部姿勢変動に頑健な表情認識手法」, 画像の認識・理解シンポジウム(MIRU), 2007.

 

Oscar Mateo Lozano and Kazuhiro Otsuka, "Simultaneous Real-time 3D Visual Tracking of Multiple Objects using a Stream Processor," 画像の認識・理解シンポジウム(MIRU2007DS-01 (2007)

 

澤田 , 荒木章子, 大塚和弘, 藤本雅清, 石塚健太郎, 「多人数マイクでの発話区間検出 - ピンマイクでの事例 -」, 日本音響学会講演論文集, 3-Q-15, 春季, 2007.

 

大塚和弘:「非言語行動の観測に基づく複数人物の会話シーン分析」, 人工知能学会研究会資料第48 言語・音声理解と対話処理研究会 (SIG-SLUD), No. SIG-SLUD-A602-01, pp. 1--6, November (2006) 【招待講演】

 

大塚和弘,大和淳司,村瀬洋:「複数人物の対面会話シーンを対象とした画像中の人物頭部追跡に基づく会話構造のモデル化と確率的推論」,画像の認識・理解シンポジウム2006 [Movies]

 

木村 昭悟, 川西 隆仁, 大塚 和弘, 柏野 邦夫:「重み付き特徴点照合に基づく高速画像検索」電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解 105(118), 7-12, 2005-06-09

 

竹前 嘉修, 大塚 和弘, 武川 直樹:「複数人対話シーンの映像編集のための対話参加者の視線に基づく映像切り替え方法とその効果」電子情報通信学会技術研究報告. HIP, ヒューマン情報処理 103(744), 1-6, 2004-03-19

 

竹前 嘉修, 大塚 和弘, 武川 直樹:「対話参加者の視線に基づく映像切り替え方法とその効果(A-14. ヒューマンコミュニケーション基礎)」電子情報通信学会総合大会講演論文集 2004_基礎・境界, 277, 2004-03-08

 

竹前 嘉修, 大塚 和弘, 武川 直樹:「視線の機能に着目した映像切り替え規則とその効果 : 人に分かりやすい映像生成を目指して」電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎 102(734), 49-54, 2003-03-11

 

竹前 嘉修, 大塚 和弘, 武川 直樹:「視線情報に基づく映像切り替え規則とその評価」電子情報通信学会総合大会講演論文集 2003 基礎・境界, 277, 2003-03-03

 

大塚 和弘, 武川 直樹:「多視点観測に基づく複数物体の相互オクルージョン解析と逐次状態推定」情報処理学会研究報告. CVIM, [コンピュータビジョンとイメージメディア] 2003(2), 123-130, 2003-01-16

 

大塚 和弘, 堀越 , 児島 治彦:「気象レーダ画像を対象とした検索に基づく映像予測の検討」電子情報通信学会総合大会講演論文集 2000.情報・システム(2), 160, 2000-03-07

 

大塚 和弘, 堀越 , 曽根原 登:「映像予測のための検索類似尺度の検討」電子情報通信学会総合大会講演論文集 1999.情報・システム(2), 140, 1999-03-08

 

小田 寿則, 落合 慶広, 大塚 和弘, 曽根原 登:「ITSのための局地気象予測」電子情報通信学会ソサイエティ大会講演論文集 1998.ITS, 133-134, 1998-09-07

 

大塚 和弘, 堀越 , 小田 寿則, 曽根原 登:「局所降水予測に向けた類似気象パターン検索」電子情報通信学会ソサイエティ大会講演論文集 1998.ITS, 131-132, 1998-09-07

 

大塚 和弘, 堀越 , 鈴木 智:「時空間中の運動軌跡に基づくテンポラルテクスチャーの特徴抽出」電子情報通信学会総合大会講演論文集 1998.情報・システム(2), 266, 1998-03-06

 

小田 寿則, 大塚 和弘, 落合 慶広, 鈴木 智:「ニューロセグメント法による短時間降水予測精度の改善」電子情報通信学会総合大会講演論文集 1998.情報・システム(2), 160, 1998-03-06

 

大塚 和弘, 堀越 , 鈴木 , 藤井 雅晴:「時空間画像解析によるレーダエコーパターンの特徴抽出と分類」大会講演予講集 72, A307, 1997-10-00

 

大塚 和弘, 堀越 , 鈴木 智:「時空間中の運動軌跡に基づく密なオプティカルフローの推定」全国大会講演論文集 55回平成9年後期(2), 266-267, 1997-09-24

 

落合 慶広, 鈴木 , 大塚 和弘, 小田 寿則, 境野 英朋, 安達 文夫:「局地・短時間気象予測システム:My Weather」電子情報通信学会技術研究報告. OFS, オフィスシステム 97(212), 87-94, 1997-07-25

 

落合 慶広, 鈴木 , 大塚 和弘, 小田 寿則, 境野 英朋, 安達 文夫:「局地・短時間気象予測システム:My Weather」電子情報通信学会技術研究報告. AI, 人工知能と知識処理 97(213), 87-94, 1997-07-25

 

落合 慶広, 鈴木 英人, 大塚 和弘, 鈴木 智:「ニューロ気象予測システムMy Weather」大会講演予講集 71, 40, 1997-05-00

 

大塚 和弘, 堀越 , 鈴木 智:「時空間速度場の分割に基づく降水予測」全国大会講演論文集 54回平成9年前期(2), 409-410, 1997-03-12

 

落合 慶広, 鈴木 英人, 大塚 和弘, 鈴木 智:「気象予測システム : My Weatherの性能評価」電子情報通信学会総合大会講演論文集 1997.情報システム(1), 314, 1997-03-06

 

大塚 和弘, 堀越 , 鈴木 智:「時空間中の運動軌跡に基づく密なオプティカルフローの推定」情報処理学会第55回全国大会,2AB-6, 2007

大会優秀賞受賞

 

大塚 和弘, 堀越 , 鈴木 智:「時空間中の運動軌跡に基づく画像速度の推定」電子情報通信学会総合大会講演論文集 1997.情報システム(2), 413, 1997-03-06

 

大塚 和弘, 堀越 , 鈴木 智:「時空間画像中の運動軌跡の統合に基づくオプティカルフロー推定法」情報処理学会研究報告. CVIM, [コンピュータビジョンとイメージメディア] 97(10), 75-81, 1997-01-23

 

大塚 和弘, 落合 慶広, 鈴木 智:「時系列画像パターンに対するニューラルネットの動き学習能力の検証」電子情報通信学会ソサイエティ大会講演論文集 1996.情報・システム, 325, 1996-09-18

 

大塚 和弘, 栗本 雅水, 石井 六哉:「複合型ニューラルネットによる劣化画像の復元」電子情報通信学会技術研究報告. IE, 画像工学 93(14), 1-8, 1993-04-23

 

 

【特許登録】

Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, Hidetomo Sakaino, “Method and equipment for weather image prediction,” 米国特許US 5974360,1997年12月12日出願,1999年10月26日登録

Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, Hidetomo Sakaino, “Method and equipment for weather image prediction,” 英国特許GB2320830,1997年12月11日出願,2000年10月18日登録

Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, Hidetomo Sakaino, “Method and equipment for weather image prediction,” マレーシア特許MY-118014-A,1997年12月11日出願,2004年8月30日登録

・大塚和弘, 落合慶広, 鈴木 智, 曽根原 登:「気象予測装置」,特許3181018,1995年11月28日出願,2001年04月20日登録

Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, “Method and equipment for extracting image features from image sequence,” US 6263089,1998年10月1日出願,2001年7月17日登録

・境野英朋, 堀越力, 大塚和弘, 鈴木 智:「大局的雨域予測装置」,特許3377071,1996年12月26日出願,2002年12月06日登録

・毛利仁士, 堀越 力, 小川智章, 安達文夫, 大塚和弘, 曽根原 登:「交通状況予測方法、装置、および交通状況予測プログラムを記録した記録媒体」,特許3441053,1998年08月21日出願,2003年06月20日登録

・大塚和弘, 堀越 力, 境野英朋, 鈴木 智:「気象画像予測方法、装置および気象画像予測プログラムを記録した記録媒体」,特許3458940,1997年12月10日出願,2003年08月08日登録

・大塚和弘, 堀越 力, 鈴木 智:「時系列画像検索方法、装置、および時系列画像検索プログラムを記録した記録媒体」,特許3483113,1998年05月29日出願,2003年10月17日登録

・大塚和弘, 堀越 力, 児島 治彦:「時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体」,特許3565087,1999年05月11日出願,2004年06月18日登録

・大塚和弘, 堀越 力, 鈴木 智:「時系列画像特徴抽出方法及びその装置並びにこの方法を記録した記録媒体」,特許3575293,1998年09月29日出願,2004年07月16日登録

・大塚和弘, 武川直樹:「物体追跡方法、物体追跡装置、物体追跡方法のプログラム並びにそのプログラムを記録した記録媒体」,特許4070618,2003年01月15日出願,2008年01月25日登録

・澤田 宏, 荒木章子, 大塚和弘, 藤本雅清, 石塚健太郎:「多音源有音区間判定装置、方法、プログラム及びその記録媒体」,特許4746533,2006年12月21日出願,2011年05月20日登録

・大塚和弘, 大和淳司:「会話構造推定方法、プログラム、および記録媒体」,特許4804801,2005年06月03日出願,2011年08月19日登録

・大塚和弘, 三上 弾, 大和淳司, 石塚健太郎, 藤本雅清, 荒木章子:「映像音声処理装置、映像音声処理方法、映像音声処理プログラム」,特許4934158,2009年02月16日出願,2012年02月24日登録

・大塚和弘, 大和淳司, 澤木美奈子, 前田英作, 佐藤洋一, 熊野史朗:「テンプレート作成装置及び表情認識装置並びにその方法、プログラム及び記録媒体」,特許4942197,2007年10月31日出願,2012年03月09日登録

・三上 弾,大塚和弘,大和淳司:「時系列パラメータ推定装置、時系列パラメータ推定方法、時系列パラメータ推定プログラム」,特許5044527,2008年11月12日出願,2012年07月20日登録

・三上 弾, 大塚和弘,大和淳司:「時系列パラメータ推定装置、時系列パラメータ推定方法、時系列パラメータ推定プログラム」,特許5044528,2008年11月12日出願,2012年07月20日登録

・石塚健太郎, 荒木章子, 大塚和弘, 藤本雅清, 中谷智広:「複数信号区間推定装置とその方法とプログラム」,特許5215826,2008年11月28日出願, 2013年03月08日登録

・熊野史朗, 大塚和弘, 三上 弾, 大和淳司, 前田英作, 佐藤洋一, 蘇鷺梅:「顔表情増幅装置、表情認識装置、顔表情増幅方法、表情認識方法、及びプログラム」,特許5300795,2010年06月28日出願, 2013年06月28日登録

・三上 弾,大塚和弘,大和淳司:「状態推定装置、状態推定方法、およびプログラム」,特許5340228,2010年6月21日出願,2013年8月16日登録

・熊野史朗,大塚和弘,三上 弾,大和淳司:「表情認識装置、人物間感情推定装置、表情認識方法、人物間感情推定方法、及びプログラム」,特許5349238,2009年10月2日出願,2013年8月30日登録

・三上 弾,田 黎,大塚和弘,大和淳司:「状態推定装置、状態推定方法、およびプログラム」,特許5436351,2010年6月21日出願,2013年12月20日登録

・熊野史朗,大塚和弘,三上 弾,大和淳司:「対話状態推定装置、方法、及びプログラム」,特許5437297,2011年3月7日出願,2013年年12月20日登録

・熊野史朗,大塚和弘,三上 弾,大和淳司,前田英作,佐藤洋一,蘇鷺梅:「表情学習装置、表情認識装置、表情学習方法、表情認識方法、表情学習プログラム及び表情認識プログラム」,特許5485044,2010年6月24日出願,2014年2月28日登録

・三上 弾,大塚和弘,大和淳司:「状態予測装置、状態予測方法および状態予測プログラム」,特許5580669,2010年6月23日出願,2014年7月18日登録

・大塚和弘,熊野史朗,三上 弾,松田昌史,大和淳司:「会話映像表示システム」,特許5656809,2011年11月22日出願,2014年12月5日登録

・三上 弾,大塚和弘,熊野史朗,大和淳司:「状態追跡装置、方法、及びプログラム」,特許5674550,2011年5月9日出願,2015年1月9日登録

・三上 弾,大塚和弘,熊野史朗,大和淳司,柏野邦夫:「時間的再現確率推定装置、状態追跡装置、方法、及びプログラム」,特許5746078,2012年3月23日出願,2015年5月15日登録

・大塚和弘,熊野史朗,大和淳司:「映像会話システム」,特許5781017,2012年6月5日出願,2015年7月24日登録

・三上 弾,大塚和弘,熊野史朗,柏野邦夫,大和淳司:「状態追跡装置、方法、及びプログラム」,特許5791555,2012年3月23日出願,2015年8月14日登録

・熊野史朗,大塚和弘,大和淳司:「感情検索装置、方法及びプログラム」,特許5840186,2013年9月26日出願,2015年11月20日登録

・熊野史朗,大塚和弘,大和淳司:「共感解釈推定装置、方法、プログラム」,特許5909472,2013年9月26日出願,2016年4月1日登録

・熊野史朗,大塚和弘,大和淳司:「遠隔対話装置及び方法」,特許5909475,2013年10月9日出願,2016年4月22日登録

・熊野史朗,大塚和弘,大和淳司:「対話傾向得点化装置、方法及びプログラム」,特許5921507,2013年9月26日出願,2016年4月22日登録

・熊野史朗,大塚和弘,松田昌史,大和淳司:「対話状態推定装置、対話状態推定方法、およびプログラム」,特許5930946,2012年11月19日出願,2016年5月13日登録

・熊野史朗,大塚和弘,松田昌史,石井 亮,大和淳司:「対人認知傾向モデル学習装置、対人認知状態推定装置、対人認知傾向モデル学習方法、対人認知状態推定方法及びプログラム」,特許5931021,2013年8月6日出願,2016年5月13日登録

・石井 亮,大塚和弘,熊野史朗,松田昌史,大和淳司:「推定装置、推定方法、およびプログラム」,特許5989603,2013年6月10日出願,2016年8月19日登録

・熊野史朗,大塚和弘,大和淳司:「感情情報表示制御装置、その方法及びプログラム」,特許6023684,2013年10月9日出願,2016年10月14日登録

・熊野史朗,大塚和弘,大和淳司:「感情情報表示制御装置、その方法及びプログラム」,特許6023685,2013年10月9日出願,2016年10月14日登録

・大塚和弘,熊野史朗,石井 亮:「映像表示システム」,特許6208553, 2013年11月18日出願,2017年9月15日登録



 

【学位論文】

博士(情報科学)「時系列画像に基づく動的事象の推測に関する研究」 

名古屋大学大学院 情報科学研究科 メディア科学専攻,2007年3月23日授与



【テレビ・新聞報道・通信社配信・雑誌記事】

日経コンピュータ(2013/2記事掲載)

TOKYO MX TV(2012/11/5)

・ロイター配信(2012/11/1

・日経産業新聞(2012/10/26

・日本テレビ スッキリ!!「近未来デジタル技術を体験 デジタルコンテンツEXPO」(2012/10/26

・産経新聞朝刊1面電子透かし記事(2012/10/26

・テレビ東京(2012/10/25WBS) 「デジタルで変わる近未来生活」

  http://www.tv-tokyo.co.jp/mv/wbs/newsl/post_29233/

NHK2012/10/25おはよう日本(映像のみ) 10/27午前(インタビュー))

・ブラジルレコードTV'Tecnologia pode ajudar a diminuir a distância entre as pessoas'2012627JST

・テレビ大阪『new BIZ201268

KBS京都『京biz S』,201268

・京都新聞「顔の動きで画面上下左右」,201268日,18

・朝日新聞 京都版2010528日「NTT研究所が最新技術を公開」

・京都新聞 2010528日「会話能力即座に分析」

・日経新聞 201057日「発言者識別し議事録」

・電経新聞2009544面 研究派No.96「マルチモーダル対話シーン解析」

・日本実業出版社,「安全と管理」誌 ZOOM UP 会話の流れのリアルタイム分析が可能な コミュニケーションツール」200811月号(1015日発行)

・日刊工業新聞 200869 「注目度分かります」

・映像新聞 200869 「『会話シーン分析』なども公開」

・日刊工業新聞 200825日一面「表情・しぐさで"空気読めます"  TV会議向けシステム NTTが開発」

 

 

Web紹介記事】

・シロクマ日報「存在感の些細な源泉」小林啓倫(2012/10/25)

  http://blogs.itmedia.co.jp/akihito/

 

・石井 英男氏(2012/8/10)「ミニマルデザインとしての日本のインターフェース『見立て』に通ずる、最小限の工夫でリアリティを生み出す日本の独自技術とは?」

 http://www.tel.co.jp/museum/magazine/human/120810_topics_08/03.html

 

・ロボコンマガジン,デジタルコンテンツEXPO 2012に行ってきました。

 http://www.ohmsha.co.jp/robocon/archive/2012/10/expo-2012.html

 

Engadget (2012/4/3) “NTT forces you to pay attention during a video conference”

 http://www.engadget.com/2012/04/03/ntt-video-conferencing-technology/

 

・マイナビニュース エンタープライズ「NTTが開発中の次世代ビデオ会議システム「MM-Space」」

 http://news.mynavi.jp/news/2012/06/22/211/index.html

 

・竹居の日記,2012-10-28 デジタルコンテンツエキスポに参加

 http://d.hatena.ne.jp/takeim/20121028

 

・エキサイトニュース:NTT の研究所、次世代テレビ会議システム「MM-Space」を開発(2012412日)

 http://www.excite.co.jp/News/it_g/20120412/Jic_20120412_009.html

 

・デジタルコンテンツEXPO 2012DIGITAL CONTENT EXPO 2012

 http://www.youtube.com/watch?v=57krH86iQp4