発表文献Publications

発表文献

  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2012
  • 2011
  • 2010
  • 2009
  • 2008
  • 2007
  • 2006
  • 2005
  • 2004
  • 2003
  • 2002
  • 1998

2021

論文

  1. Ogasawara T., Fukamachi H., Aoyagi K., Kumano S., Togo H., & Oka K. (2021). Archery Skill Assessment Using an Acceleration Sensor. IEEE Transactions on Human-Machine Systems, 1-8.
  2. Kawabe T. (2021). Perceptual Properties of the Poisson Effect. Frontiers in Psychology, 11, 612368.
  3. Zhou Y., Nakamura Y., Mugitani R., & Watanabe J. (2021). Influence of prior auditory and visual information on speech perception: Evidence from Japanese singleton and geminate words. Acoustical Science and Technology, 42 (1), 36-45.
  4. Liao H.-I., Kashino M., & Shimojo S. (2021). Attractiveness in the eyes: A possibility of positive loop between transient pupil constriction and facial attraction. Journal of Cognitive Neuroscience, 33 (2), 315-340.
  5. 石井亮, 大塚和弘, 熊野史朗, 東中竜一郎, 青野裕司. (2021). 話者継続・交替時における対話行為と視線行動に基づく共感スキルの推定. 情報処理学会論文誌, 62 (1), 100-114.
  6. Kuroki S., & Nishida S. (2021). Motion direction discrimination with tactile random-dot kinematgrams. i-Perception, 12, 1-20.
  7. 寺島裕貴. (2021). コーヒーブレーク Q. 聴覚と視覚は全く別の感覚ですか?. 日本音響学会誌, 77 (3), 225.
  8. Wong-Villacres M., Garcia A. A., Badillo-Urquiola K., Machuca M. D. B., Felice M. C., Gaytán-Lugo L. A., Lemus O. A., Reynolds-Cuéllar O., & Perusquía-Hernández M. (2021). Lessons from Latin America: embracing horizontality to reconstruct HCI as a pluriverse. Interactions, 28 (2), 56-63.
  9. Perusquia-Hernandez M. (2021). Are people happy when they smile?: Affective assessments based on automatic smile genuineness identification. Emotion Studies, 6 (1), 57-71.
  10. Sakamoto M., Watanabe J., & Yamagata K. (2021). Automatic Estimation of Multidimensional Personality From a Single Sound-Symbolic Word. Frontiers in Psychology, 12, 1339.
  11. Kawabe T., Ujitoko Y., Yokosaka T., & Kuroki S. (2021). Sense of Resistance for a Cursor Moved by User's Keystroke. Frontiers in Psychology, 12, 652781.
  12. Takamuku S., Ohta H., Kanai C., Hamilton A. F., & Gomi H. (2021). Seeing motion of controlled object improves grip timing in adults with autism spectrum condition: evidence for use of inverse dynamics in motor control. Experimental Brain Research, 239 (4), 1047-1059.
  13. Koumura T., Nakatani M., Liao H.-I., & Kondo H. M. (2021). Dark, loud, and compact sounds induce frisson. Quarterly Journal of Experimental Psychology, 74 (6), 1140-1152.
  14. Ooishi Y., Fujino M., Inoue V., Nomura M., & Kitagawa N. (2021). Differential effects of focused attention and open monitoring meditation on autonomic cardiac modulation and cortisol secretion. Frontiers in Physiology.
  15. Murata A., Nomura K., Watanabe J., & Kumano S. (2021). Interpersonal physiological synchrony is associated with first person and third person subjective assessments of excitement during cooperative joint tasks. Scientific Reports, 11 (12543).
  16. Kumano S., Hamilton A. F., & Bahrami B. (2021). The role of anticipated regret in choosing for others. Scientific Reports, 11 (12557).
  17. Ota Y., Ujitoko Y., Sakurai S., Nojima T., & Hirota K. (2021). Inside Touch: Presentation of Tactile Feeling Inside Virtual Object Using Finger-Mounted Pin-Array Display. IEEE Access, 9, 75150-75157.
  18. Kuroki S., Sawayama M., & Nishida S. (2021). The roles of lower- and higher-order surface statistics in tactile texture perception. Journal of Neurophysiology, 126, 95-111.
  19. 寺島裕貴. (2021). 計算モデルによる聴覚神経系の理解. JSMI Report, 14 (2), 57.
  20. Otsuka S., & Furukawa S. (2021). Conversion of amplitude modulation to phase modulation in the human cochlea. Hearing Research, 408, 108274.
  21. Uezu Y., Hiroya S., & Mochida T. (2021). Articulatory compensation for low-pass filtered formant-altered auditory feedback. The Journal of the Acoustical Society of America, 150, 64.
  22. Kuroki S. (2021). Anisotropic distortion in the perceived orientation of stimuli on the arm. Scientific Reports, 11, 14602.
  23. Abekawa N., Gomi H., & Diedrichsen J. (2021). Gaze control during reaching is flexibly modulated to optimize task outcome. J Neurophysiol, 126 (3), 816-826.
  24. Yokosaka T., Kuroki S., & Nishida S. (2021). Describing the sensation of the ‘velvet hand illusion' in terms of common materials. IEEE Transactions on Haptics, 14 (3), 680-685.
  25. Yamashita J., Terashima H., Yoneya M., Maruya K., Koya H., Oishi H., Nakamura H., & Kumada T. (2021). Pupillary fluctuation amplitude before target presentation reflects short-term vigilance level in Psychomotor Vigilance Tasks. PLoS One, 16 (9), e0256953.

書籍

  1. 【分担執筆】渡邊淳司. (2021). 有斐閣 現代心理学辞典. 有斐閣.
  2. 古川茂人. (2021). 「検出閾値・ラウドネス・強度弁別」、「時間情報処理」. 音響学講座5 「聴覚」 (日本音響学会 編). コロナ社.
  3. Yasu K., & Ishikawa M. (2021). Magnetact Animals: A Simple Kinetic Toy Kit for a Creative Online Workshop for Children. Extended Abstracts of the 2021 CHI Conference on Human Factors in Computing Systems. (p.4). Association for Computing Machinery.

会議

  1. 久保田祐貴, 吹上大樹, 河邉隆寛. (2021). 運動エネルギーモデルに基づく画像最適化によるFour-stroke apparent motionを引き起こす画像生成手法. 日本視覚学会冬季大会.
  2. Koumura T., Terashima H., & Furukawa S. (2021). Temporal modulation transfer function based on time-averaged responses of units in a neural network model. Association for Research in Otolaryngology (ARO) Midwinter Meeting 2021. Online.
  3. Yamagishi S., & Furukawa S. (2021). To What Extent Do Visual- and Auditory-Targeting Saccades Share Common Mechanisms?. Association for Research in Otolaryngology (ARO) Midwinter Meeting 2021. Online.
  4. 山下純平, 寺島裕貴, 米家惇, 丸谷和史, 熊田孝恒. (2021). 瞳孔径変動量は注意状態を支える青斑核の一過性活動に影響される. 第19回注意と認知研究会.
  5. 山岸慎平, 古川茂人. (2021). 微小眼球運動(マイクロサッカード)の方向と両耳選択的聴取タスクの成績の関連. 日本音響学会聴覚研究会資料.
  6. 上村卓也, 寺島裕貴, 古川茂人. (2021). ニューラルネットワークとヒトにおける時間変調伝達関数の比較. 日本音響学会聴覚研究会資料.
  7. Kuroki S. (2021). Motion direction discrimination using tactile random-dot kinematograms with distributed lateral skin stretch. World Haptics Conference 2021.
  8. Yokosaka T., Suzuishi Y., & Kuroki S. (2021). Feel illusory texture through a hole: Rotating stimulus modulates tactile sensation for touched object's surface. World Haptics Conference 2021.
  9. Ban Y., & Ujitoko Y. (2021). Hit-Stop in VR: Combination of Pseudo-haptics and Vibration Enhances Impact Sensation. World Haptics Conference 2021.
  10. Kawabe T., Ujitoko Y., & Yokosaka T. (2021). Pseudo-heaviness during mid-air gestures is tuned to visual speed. World Haptics Conference 2021.
  11. Nagano M., Ijima Y., & Hiroya S. (2021). Impact of Emotional State on Estimation of Willingness to Buy from Advertising Speech. Proc. Interspeech2021.
  12. 山岸慎平, 古川茂人. (2021). Relationship between microsaccade direction and task performance during an auditory selective dichotic attention task. 第44回日本神経科学大会.
  13. Ooishi Y., Kobayashi M., Kashino M., & Ueno K. (2021). Bathing in the sound: the effect of three-dimensional sound filed of music on mood and emotion. 第44回日本神経科学大会.
  14. 上村卓也, 寺島裕貴, 古川茂人. (2021). 音の分類で訓練したニューラルネットワークにおける心理物理学的な振幅変調検出感度. 第31回日本神経回路学会全国大会.
  15. 伴祐樹, 宇治土公雄介. (2021). Pseudo-haptics効果の個人差要因解明の基礎検討. 第26回バーチャルリアリティ学会大会.

Misc

  1. 渡邊淳司. (2021). 触れてつながる心と社会. 141 (2), 86-88.

2020

論文

  1. Murata A., Nishida H., Watanabe K., & Kameda T. (2020). Convergence of physiological responses to pain during face-to-face interaction. Scientific Reports, 10 (1), 450.
  2. 寺島裕貴. (2020). 『AIの遺電子』に学ぶ未来構想術:2.貴方の考える未来社会像:2.5. はだかの耳,虫の声. 情報処理, 61 (1), 34-35.
  3. Yamagishi S., Yoneya M., & Furukawa S. (2020). Relationship of postsaccadic oscillation with the state of the pupil inside the iris and with cognitive processing. Journal of Neurophysiology, 123 (2), 484-495.
  4. Koumura T., Terashima H., & Furukawa S. (2020). Chimeric sounds with shuffled “texture” and “content” synthesized by a model of the auditory system. Acoustical Science and Technology, 41 (1), 337-340.
  5. Terashima H., & Furukawa S. (2020). Examination of efficient coding model for auditory nerves during infant development. Acoustical Science and Technology, 41 (1), 351-354.
  6. Furukawa S., Terashima H., Koumura T., & Tsukano H. (2020). Data-driven approaches for unveiling the neurophysiological functions of the auditory system. Acoustical Science and Technology, 41 (1), 63-66.
  7. Yokosaka T., Inubushi M., Kuroki S., & Watanabe J. (2020). Frequency of switching touching mode reflects tactile preference judgment. Scientific Reports, 10 (1), 3022.
  8. アンタケ チャダーポーン玲羅, 村田藍子, 熊野史朗. (2020). 個人差多次元尺度構成法にもとづく二者情動一致判断のベイズ認知モデル. 電子情報通信学会論文誌 D, J103-D (3), 102-110.
  9. Honda S., Ishikawa Y., Konno R., Imai E., Nomiyama N., Sakurada K., Koumura T., Kondo H. M., Furukawa S., Fujii S., & Nakatani M. (2020). Proximal Binaural Sound Can Induce Subjective Frisson. Frontiers in Psychology, 11, 316.
  10. Ito S., & Gomi H. (2020). Visually-updated hand state estimates modulate the proprioceptive reflex independently of motor task requirements. eLife.
  11. Marmolejo-Ramos F., Murata A., Sasaki K., Yamada Y., Ikeda A., Hinojosa J. A., Watanabe K., Parzuchowski M., Tirado C., & Ospina R. (2020). Your Face and Moves Seem Happier When I Smile. Experimental Psychology, 67, 14-22.
  12. Takagi A., Maxwell S., Melendez-Calderon A., & Burdet E. (2020). The dominant limb preferentially stabilizes posture in a bimanual task with physical coupling. J. Neurophysiology, 123, 2154-2160.
  13. Kawabe T. (2020). Mid-Air Action Contributes to Pseudo-Haptic Stiffness Effects. IEEE Transactions on Haptics, 13, 18-24.
  14. Kawabe T., & Sawayama M. (2020). A Computational Mechanism for Seeing Dynamic Deformation. eNeuro, 7, 1-14.
  15. Yang, Y.-H., & Wolfe J. M. (2020). Is apparent instability a guiding feature in visual search?. Visual Cognition, 28.
  16. De Havas J., Ito S., & Gomi H. (2020). On stopping voluntary muscle relaxations and contractions: evidence for shared control mechanisms and muscle state specific active breaking. Journal of Neuroscience, 40, 6035-6048.
  17. Kuroki S. (2020). Visual motion information modulates tactile roughness perception. Scientific Reports, 10, 13929.
  18. 渡邊淳司, 村田藍子, 高山千尋, 中谷桃子, 出口康夫. (2020). 「われわれとしての自己」を評価する --Self-as-We尺度の開発--. 京都大学文学部哲学研究室紀要 : PROSPECTUS, 20, 1-14.
  19. 林阿希子, 伊藤亜紗, 渡邊淳司. (2020). スポーツ・ソーシャル・ビュー:競技を身体的に翻訳し視覚障がい者と共有する生成的スポーツ観戦手法. 日本バーチャルリアリティ学会論文誌, 25 (3), 216-227.
  20. 戸田康太, 小林桂子, 小河原美波, 加藤あずさ, 城戸彩夏, 篠田怜寿, 髙山七虹, 大谷智子, 渡邊淳司. (2020). 美術館展示における様々な視覚能力に対応した「触図マンガ」の設計検討. 日本バーチャルリアリティ学会論文誌, 25 (3), 245-254.
  21. Chen L., & Liao H.-I. (2020). Microsaccadic eye movements but not pupillary dilation response characterizes the crossmodal freezing effect. Cerebral Cortex Communications, 1.
  22. Terashima H., Kihara K., Kawahara J., & Kondo M. H. (2020). Common principles underlie the fluctuation of auditory and visual sustained attention. Quarterly Journal of Experimental Psychology, (ja), 1747021820972255.
  23. Yamagishi S., & Furukawa S. (2020). Factors influencing saccadic reaction time: Effects of task modality, stimulus saliency, spatial congruency of stimuli, and pupil size. Fronties in Human Neuroscience, 14, 571893.
  24. Uetsuki M., Watanabe J., & Maruya K. (2020). “Textual Prosody” Can Change Impressions of Reading in People With Normal Hearing and Hearing Loss. Frontiers in Psychology, 11, 548619.
  25. Takagi A., De Magistris G., Xiong G., Micaelli A., Kambara H., Koike Y., Savin J., Marsot J., & Burdet E. (2020). Analogous adaptations in speed, impulse and endpoint stiffness when learning a real and virtual insertion task with haptic feedback. Scientific Reports, 10 (1).
  26. Takagi A., Furuta R., Saetia S., Yoshimura N., Koike Y., & Minati L. (2020). Behavioral and physiological correlates of kinetically tracking a chaotic target. PLOS ONE, 15 (9), e0239471.
  27. Takagi A., Li Y., & Burdet E. (2020). Flexible assimilation of human's target for versatile human-robot physical interaction. IEEE Transactions on Haptics, 1-1.
  28. Arslanova I., Wang K., Gomi H., & Haggard P. (2020). Somatosensory evoked potentials that index lateral inhibition are modulated according to the mode of perceptual processing: comparing or combining multi-digit tactile motion. Cognitive Neuroscience, 1-13.
  29. 村田藍子, 渡邊淳司, 出口康夫. (2020). <論文>新型コロナウイルス感染拡大下における抑うつ傾向と「われわれとしての自己」との関係. 京都大学文学部哲学研究室紀要 : PROSPECTUS, 20, 15-33.
  30. 渡邊淳司, 藍耕平, 吉田知史, 桒野晃希, 駒﨑掲, 林阿希子. (2020). 空気伝送触感コミュニケーションを利用したスポーツ観戦の盛り上がり共有: WOW BALLとしての検討. 日本バーチャルリアリティ学会論文誌, 25 (4), 311-314.
  31. Zhou Y., & Watanabe J. (2020). Non-informative Visual Resolution of the Body Modulates Tactile Acuity. 日本バーチャルリアリティ学会論文誌, 25 (4), 315-318.
  32. 早川裕彦, 大脇理智, 石川琢也, 南澤孝太, 田中由浩, 駒﨑掲, 鎌本優, 渡邊淳司. (2020). 高実在感を伴う遠隔コミュニケーションのための双方向型視聴触覚メディア「公衆触覚伝話」の提案. 日本バーチャルリアリティ学会論文誌, 25 (4), 412-421.
  33. Ooishi Y., Hiraoka D., Mugitani R., & Nomura M. (2020). Relationship between oxytocin and maternal approach behaviors to infants' vocalizations. Comprehensive Psychoneuroendocrinology, 4.

書籍

  1. 渡邊淳司(監修・編著), ドミニクチェン(監修・編著), 安藤英由樹(編著), 坂倉杏介(編著), 村田藍子(編著). (2020). わたしたちのウェルビーイングをつくりあうために-その思想、実践、技術. ビー・エヌ・エヌ新社.
  2. 渡邊淳司. (2020). ダマシオ『生存する脳』/“他者”との善い関係を調停する身体への感受性. 現代思想2020年9月臨時増刊号 総特集 コロナ時代を生きるための60冊. 青土社.
  3. 伊藤亜紗, 林阿希子, 渡邊淳司. (2020). 見えないスポーツ図鑑. 晶文社.
  4. 渡邊淳司. (2020). 表現する認知科学 「認知科学のススメ」シリーズ. 新曜社.

会議

  1. Yang Y.-H., Liao H.-I., & Furukawa S. (2020). Sensitivity of eye-metrical responses to sound salience: Contributions of detectability, signal-to-noise ratio, and spectral consistency of acoustic context. 42nd Association for Research in Otolaryngology (ARO) Midwinter Meeting 2020. San Jose, USA.
  2. Koumura T., Terashima H., & Furukawa S. (2020). Modulation transfer functions measured with broad- and narrow-band noise carriers in a deep neural network trained for natural sound recognition. 42nd Association for Research in Otolaryngology (ARO) Midwinter Meeting 2020. San Jose, USA.
  3. Yamagishi S., & Furukawa S. (2020). Simultaneous measures of auditory brainstem frequency following response, pupillary response, and microsaccade during auditory selective attention task. 42nd Association for Research in Otolaryngology (ARO) Midwinter Meeting 2020. San Jose, USA.
  4. Ebina T., Otsuka S., Furukawa S., Okamoto Y., Nakagawa S., Morimoto T., Fujisaka Y., Nonaka T., & Kanzaki S. (2020). Phase characteristics of otoacoustic emissions evoked by amplitude-modulated low-frequency tone. 42nd Association for Research in Otolaryngology (ARO) Midwinter Meeting 2020. San Jose, USA.
  5. Tsuzaki M., Matsuura Y., Otsuka S., Furukawa S., & Yamamoto E. (2020). Medial olivocochlear reflexes of musicians with various specialties. 42nd Association for Research in Otolaryngology (ARO) Midwinter Meeting 2020. San Jose, USA.
  6. Otsuka S., Nakagawa S., & Furukawa S. (2020). Temporal expectation modulates medial olivocochlear bundle reflex. 42nd Association for Research in Otolaryngology (ARO) Midwinter Meeting 2020. San Jose, USA.
  7. Furukawa S., & Maki K. (2020). Stimulus-specific information on sound azimuth conveyed by gerbil collicular neurons. 42nd Association for Research in Otolaryngology (ARO) Midwinter Meeting 2020. San Jose, USA.
  8. Terashima H., Kihara K., Kawahara J. I., & Kondo H. M. (2020). Auditory Sustained Attention Fluctuates Similarly to Visual Sustained Attention. The Abstracts of the Association for Research in Otolaryngology. San Jose, USA.
  9. Kawano H. (2020). Parallel Permutation for Linear Full-resolution Reconfiguration of Heterogeneous Sliding-only Cubic Modular Robots. 2020 IEEE International Conference on Robotics and Automation (ICRA). Paris, France.
  10. Terashima H., Ho H.-N., Wakamatsu K., Kwon J., Sakamoto M., Nakauchi S., & Nishida S. (2020). Visual colour-temperature relationship is shared by textures of various materials. 脳と心のメカニズム 第20回冬のワークショップ. 北海道, 日本.
  11. 大谷智子, 丸谷和史, ヒガキユウコ, 中村美恵子. (2020). 錯視地図. 文化庁メディア芸術祭長崎展. 長崎, 日本.
  12. 細川研知, 丸谷和史, 西田眞也, 仲泊聡. (2020). 複数の視覚機能を簡易的に測定するゲーム型テストセットによる大規模実験. 日本視覚学会2020年冬季大会. 神奈川, 日本.
  13. Abdallah E. A., Perusqua-Hernandez M., Denman P., Abdelrahman Y., Hassib M., Meschtscherjakov A., Ferreira D., & Henze N. (2020). MEEC: First Workshop on Momentary Emotion Elicitation and Capture. Extended Abstracts of the 2020 CHI Conference on Human Factors in Computing Systems. Honolulu, HI, USA.
  14. Garcia A. A., Badillo-Urquiola K., Machuca M. D. B., Cibrian F. L., Felice M. C., Gaytan-Lugo L. S., Gomez-Zara D., Griggio C. F., Perusquia-Hernandez M., Silva-Prietch S., Tejada C. E., & Wong-Villacres M. (2020). Fostering HCI Research in, by, and for Latin America. Extended Abstracts of the 2020 CHI Conference on Human Factors in Computing Systems. Honolulu, HI, USA.
  15. Yasu K. (2020). MagneLayer: Force Field Fabrication by Layered Magnetic Sheets. Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. Honolulu, HI, USA.
  16. 藤木淳, 大谷智子, 丸谷和史. (2020). フラッグクエスト:仮想世界指向インタフェースを備えたゲームシステムの提案. 情報処理学会インタラクション. (オンライン), 日本.
  17. 山岸慎平, 古川茂人. (2020). 聴覚の選択的注意と微小眼球運動(マイクロサッカード)の関係. 日本音響学会聴覚研究会資料. 石川県, 日本.
  18. Yang Y.-H., Liao H.-I., & Furukawa S. (2020). The impact of consicous states to the pupillary resoibses as revealed by face inversion effect. The 43nd Annual Meeting of the Japan Neuroscience Society. OnLine. Hyougo, Japan.
  19. Yamagishi S., & Furukawa S. (2020). Relationship between auditory brainstem response and microsaccade during auditory selective attention task. The 43nd Annual Meeting of the Japan Neuroscience Society. OnLine. Hyougo, Japan.
  20. 寺島裕貴, Ho Hsin-Ni, 若松滉太, Kwon Jinhwan, 坂本真樹, 中内茂樹, 西田眞也. (2020). ドメイン適応を用いた自然テクスチャ画像の色-温度感関係の解明. Proceedings of the 34th Annual Conference of the Japanese Society for Artificial Intelligence. Kumamoto, Japan.
  21. Murata A., Kumano S., & Watanabe J. (2020). Interpersonal physiological linkage is related to excitement during a joint task. The 42nd Annual Virtual Meeting of Cognitive Science Society. Toronto, Canada.
  22. Otsuka S., Nakagawa S., & Furukawa S. (2020). Temporal expectation modulates cochlear efferent feedback. The 43rd Annual Meeting of the Japan Neuroscience Society. OnLine. Kobe, Japan.
  23. Gomi H., Abekawa N., & Ueda H. (2020). Functional roles of visual motion for hand reaching movement - New lines of evidence dissociate posture related and target related responses. The 43rd Annual Meeting of the Japan Neuroscience Society. OnLine. Kobe, Japan.
  24. Nakamura D., & Gomi H. (2020). Spatiotemporal processing of visual motion for generating quick ocular and manual responses examined by convolutional neural network. The 43rd Annual Meeting of the Japan Neuroscience Society. OnLine. Kobe, Japan.
  25. Takemura A., Nakamura D., Abekawa N., & Gomi H. (2020). Effects of cerebral/cerebellum lesions on short-latency manual responses in monkeys. The 43rd Annual Meeting of the Japan Neuroscience Society. OnLine. Kobe, Japan.
  26. Yasu K. (2020). MagneLayer: Force Field Fabrication for Rapid Prototyping of Haptic Interactions. ACM SIGGRAPH 2020 Labs. New York, NY, USA.
  27. 寺島裕貴. (2020). 聴覚神経系の理解と人工知能. 日本音響学会2020年秋季研究発表会講演論文集.
  28. Yamagishi S., & Furukawa S. (2020). 両耳聴タスク遂行時の聴性脳幹反応と眼球反応との関連. 日本音響学会2020年秋季研究発表会. Online.
  29. 上村卓也, 寺島裕貴, 古川茂人. (2020). 自然音分類で訓練したニューラルネットワークにみられる心理物理学的変調伝達関数. 日本音響学会2020年秋季研究発表会講演論文集.
  30. Kuroki S. (2020). Arm's blind line: Anisotropic distortion in perceived orientation of stimuli on the arm. EuroHaptics 2020: Haptics: Science, Technology, Applications. Leiden, Netherlands.
  31. Yokosaka T., Suzuishi Y., & Kuroki S. (2020). Feel illusory texture through a hole: Rotating stimulus modulates tactile sensation for touched object's surface. EuroHaptics 2020: Haptics: Science, Technology, Applications. Leiden, Netherlands.
  32. Perusquia-Hernandez M., Cuberos Balda M., Gomez Jauregui D. A., Paez-Granados D., Dollack F., & Salazar J. V. (2020). Robot Mirroring: Promoting Empathy with an Artificial Agent by Reflecting the User's Physiological Affective States. The 29th IEEE International Conference on Robot and Human Interactive Communication (RO-MAN). Online.
  33. Zushi N., Perusquia-Hernandez M., & Ayabe-Kanamura S. (2020). The Effect of Different Affective Arousal Levels on Taste Perception. Companion Publication of the 2020 International Conference on Multimodal Interaction. New York, NY, USA.

Misc

  1. 古川茂人. (2020). 挑戦する研究者たち:ありのままで臨み、自分の立ち位置を見出す. NTT技術ジャーナル, 32 (2), 36-39.
  2. 渡邊淳司. (2020). 自著を語る:「情報環世界--身体とAIの間であそぶガイドブック--」NTT出版. 機関誌 心理学ワールド, 89, 43.
  3. 村田藍子. (2020). 情動はどのように人から人へ伝わるのか~実験室環境と日常生活における情動伝染の計測 ~. ビジネスコミュニケーション, 57 (8), 36-39.
  4. 渡邊淳司, 村田藍子. (2020). ポジティブ・コンピューティングを自分事とするためにーウェルビーイングへの身体性からのアプローチー. 日本感性工学会誌, 18 (2), 63-67.

2019

論文

  1. Fukiage T., Kawabe T., & Nishida S. (2019). Perceptually Based Adaptive Motion Retargeting to Animate Real Objects by Light Projection. IEEE Transaction on Visualization and Computer Graphics, 25, 2061-2071.
  2. 上田祥代, 吉田成朗, 渡邊淳司, 池田まさみ, 茅原拓朗, 北崎充晃. (2019). 皮質体性感覚野の身体表現理解を促す Face Homunculus Viewer. 日本バーチャルリアリティ学会論文誌,TVRS, 24 (1), 3-12.
  3. Sakamoto M., & Watanabe J. (2019). Visualizing Individual Perceptual Differences Using Intuitive Word-Based Input. Frontiers in Psychology, 10, 1108.
  4. Koumura T., Terashima H., & Furukawa S. (2019). Cascaded Tuning to Amplitude Modulation for Natural Sound Recognition. Journal of Neuroscience.
  5. 上村卓也, 寺島裕貴, 古川茂人. (2019). 音の質感知覚と聴覚系モデル. 映像情報メディア学会誌, 72 (3).
  6. Hiraoka D., Ooishi Y., Mugitani R., & Nomura M. (2019). Differential Effects of Infant Vocalizations on Approach-Avoidance Postural Movements in Mothers. Frontiers in Psychology, 10, 1378.
  7. Kawabe T. (2019). Perceptual transparency from cast shadow. i-Perception, 10, 1-14.
  8. Kawabe T. (2019). Temperature as an exteroceptive sense: Challenges remain in thermal modeling of skin-object interactions. i-Perception, 6, 104-105.
  9. Hosokawa K., Maruya K., Nishida S., Takahashi M., & Nakadomari S. (2019). Gamified vision test system for daily self-check. IEEE-GEM 2019.
  10. Kawabe T. (2019). Shadow-based illusion of depth and transparency in printed materials. ACM Transactions on Applied Perception, 16, 10: 1-10: 12.
  11. Kawano H. (2019). Distributed Linear Heterogeneous Reconfiguration of Cubic Modular Robots via Simultaneous Tunneling and Permutation. Regular Paper, IEEE Transactions on Robotics (T-RO), Accepted on 20th August.
  12. Kawada A., Nagasawa M., Murata A., Mogi K., Watanabe K., Kikusui T., & Kameda T. (2019). Vasopressin enhances human preemptive strike in both males and females. Scientific Reports, 9(1).
  13. Dollack F., Perusquia-Hernandez M., Kadone H., & Suzuki K. (2019). Head anticipation during locomotion with auditory instruction in the presence and absence of visual input. Frontiers in Human Neuroscience, 13, 293.
  14. Kanayama N., Hara M., Watanabe J., Kitada R., Sakamoto M., & Yamawaki S. (2019). Controlled emotional tactile stimulation during functional magnetic resonance imaging and electroencephalography. Journal of Neuroscience Methods, 327, 108393.
  15. Zhao S., Chait M., Dick F., Dayan P., Furukawa S., & Liao H.-I. (2019). Pupil-linked phasic arousal evoked by violation but not emergence of regularity within rapid sound sequences. Nature Communications, 10 (1).
  16. Otsuka S., Nakagawa S., & Furukawa S. (2019). Relationship between cochlear mechanics and speech-in-noise reception performance. The Journal of the Acoustical Society of America, 146 (3), EL265-EL271.
  17. Zhao S., Yum N. W., Benjamin L., Benhamou E., Yoneya M., Furukawa S., Dick F., Slaney M., & Chait M. (2019). Rapid ocular responses are modulated by bottom-up driven auditory salience. Journal of Neuroscience, 39 (39), 7703-7714.
  18. Takamuku S., & Gomi H. (2019). Better grip force control by attending to the controlled object: Evidence for direct force estimation from visual motion. Scientific Reports, 9 (1), 13114.
  19. Kawabe T. (2019). Visual assessment of causality in the Poisson effect. Scientific Reports, 9, 1-10.
  20. 川野洋. (2019). Distributed Tunneling Reconfiguration of Cubic Modular Robots without Meta-modules Disassembling in Sever Space Requirement. Robotics and Autonomous Systems, 124.
  21. Perusquía-Hernández M., Ayabe-Kanamura S., & Suzuki K. (2019). Human perception and biosignal-based identification of posed and spontaneous smiles. PLOS ONE, 14 (12), 1-26.

書籍

  1. 麦谷綾子, 廣谷定男, 保前文高, 佐藤裕, 白勢綾子, 田中章浩, 山本寿子, 梶川祥世, 今泉敏, 立入哉. (2019). こどもの音声. 日本音響学会 音響サイエンスシリーズ.
  2. 古川茂人. (2019). 聴覚の基礎. 基礎音響学. (p.85−143). コロナ社.
  3. 渡邊 淳司, 伊藤 亜紗, ドミニク・チェン, 緒方 壽人, 塚田 有那. (2019). 情報環世界とは何だったのか. 情報環世界-身体とAIの間であそぶガイドブック-. (pp.113-135). NTT出版.
  4. 古川茂人. (2019). 音楽・ピッチ感覚. 生き物と音の事典. (pp.36-37). 朝倉書店.
  5. 古川茂人. (2019). 音源定位の仕組み. 生き物と音の事典. (pp.74-75). 朝倉書店.
  6. 寺島裕貴. (2019). 聴覚野モデル. 中島秀之, 浅田稔, 橋田浩一, 松原仁, 山川宏, 栗原聡, 松尾豊 (Eds.), AI事典 第3版. (pp.350-352). 近代科学社.

会議

  1. 中村大樹, 五味裕章. (2019). 視覚性運動応答の統計的性質は機械学習で再現できるか?. 第19回脳と心のメカニズムワークショップ. 北海道, 日本.
  2. Takamuku S., Gomi H., Ohta H., & Kanai C. (2019). Grip force and hand movement with spring-mass-damper dynamics in adults with ASC. 第19回脳と心のメカニズムワークショップ. 北海道, 日本.
  3. 寺島裕貴, 木原健, 河原純一郎, 近藤洋史. (2019). 視聴覚に共通する注意のゆらぎの特性. 脳と心のメカニズム 第19回 冬のワークショップ.
  4. 細川研知, 丸谷和史, 西田眞也, 仲泊聡. (2019). タブレット型 PC 向けの新しいコントラスト感度曲線の測定ゲーム. 日本視覚学会2019年冬季大会. 神奈川, 日本.
  5. 澤山正貴, 西田眞也, Pascal Barla. (2019). 固有画像分解における色情報処理. 日本視覚学会2019年冬季大会. 神奈川, 日本.
  6. 秋山諒, 吹上大樹, 澤山正貴, 河邉隆寛, 西田眞也. (2019). プロジェクションマッピングの「投影感」―光学的・空間的要因の検討. 日本視覚学会2019年冬季大会. 神奈川, 日本.
  7. Koumura T., Terashima H., & Furukawa S. (2019). Emergence of ITD Selectivity in a Deep Neural Network Trained for Binaural Natural Sound Detection. 42nd Annual MidWinter Meeting, Association for Research in Otolaryngology.
  8. Terashima H., Tsukano H., & Furukawa S. (2019). Mapping Areal Organization of Mouse Auditory Cortex by Data-driven Decomposition of Responses to Naturalistic Sounds. The 42st MidWinter Meeting of Association for Research in Otolaryngology (ARO). Baltimore (USA).
  9. Liao H.-I., Fujihira H., & Furukawa S. (2019). Pupillary Light Response Reveals Covert Attention to Auditory Space and Object. 42nd Annual MidWinter Meeting, Association for Research in Otolaryngology.
  10. Liu X., Sawayama M., Hayashi R., Ozay M., Okatani T., & Nishida S. (2019). Perturbation tolerance of deep neural networks and humans in material recognition. CiNet 5th conference. Osaka, Japan.
  11. 河邉隆寛. (2019). 招待講演:錯覚の実世界実装を通じて錯覚の面白さを考える. 錯覚現象のモデリングとその応用 第13回錯覚ワークショップ. 東京, 日本.
  12. Murata A., Abe O. M. & Watanabe K. (2019). Implicit effect of dyadic coordination during joint action. International Convention of Psychological Science (ICPS2019). Paris, France.
  13. Koumura T., Terashima H., & Furukawa S. (2019). バイノーラル自然音認識のための深層ニューラルネットワークに発現する両耳間時間差チューニング. 日本音響学会2019年春季研究発表会. Tokyo, Japan.
  14. Murata A., Kumano S., & Watanabe J. (2019). 協力場面における対人インタラクションの当事者評価と客観評価. 電子情報通信学会ヒューマンコミュニケーション基礎研究会(HCS)研究会 信学技報. Sapporo, Japan.
  15. Kawabe T. (2019). Visual illusion meets augmented reality techniques. IEEE VR 2019 Tutorials T1:(AR) Hack Our Material Perception in Spatial Augmented Reality. Osaka, Japan.
  16. Sawayama M., Barla P., & Nishida S. (2019). Color information processing in intrinsic image decomposition. Dynamic in Vision and Touch 2019 Workshop. Giessen, Germany.
  17. Nishida S. (2019). Hacking Human Visual Perception. IEEE VR 2019 Keynote Talks. Osaka, Japan.
  18. Fukiage T., Kawabe T., & Nishida S. (2019). Demonstration of Perceptually Based Adaptive Motion Retargeting to Animate Real Objects by Light Projection. IEEE VR 2019 Research Demos. Osaka, Japan.
  19. Maruya K., & Ohtani T. (2019). Shadows can change the shape appearances of real and virtual objects. IEEE VR 2019 Poster. Osaka, Japan.
  20. 丸谷和史. (2019). 体験を伝えるための〇〇デザイン. SciEduTECH:子供の創造性の育み方について語る親子イベント. Tokyo, Japan.
  21. Perusquia-Hernandez M., Ayabe-Kanamura S., Suzuki K., & Kumano S. (2019). The Invisible Potential of Facial Electromyography: A Comparison of EMG and Computer Vision when Distinguishing Posed from Spontaneous Smiles. Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems. Glasgow, UK.
  22. Yang Y.-H., Liao H.-I., Yamagishi S., & Furukawa S. (2019). Pupillometry and microsaccade response reveal unconscious processing of face information under interocular suppression. 19th Annual Meeting of Vision Science Society (VSS). Florida, US.
  23. Liao H.-I., Fujihira H., Yamagishi S., & Furukawa S. (2019). Microsaccades and pupillary responses represent the focus of auditory attention. 19th Annual Meeting of Vision Science Society (VSS). Florida, US.
  24. Yasu K. (2019). Magnetact: Magnetic-sheet-based Haptic Interfaces for Touch Devices. Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems. New York, NY, USA.
  25. Sawayama M., Fukiage T., & Nishida S. (2019). Slant-dependent image modulation for perceiving translucent objects. 19th Annual Meeting of Vision Sciences Society (VSS). Florida, US.
  26. Kuroki S., Sawayama M., & Nishida S. (2019). Haptic discrimination of 3D-printed patterns based on natural visual textures. 19th Annual Meeting of Vision Sciences Society (VSS). Florida, US.
  27. Kawabe T. (2019). The judgment of causality for deformations of stretchy materials. 19th Annual Meeting of Vision Sciences Society (VSS). Florida, US.
  28. Kawabe T., Sawayama M., & Hoshika T. (2019). Moiré effects on real object's apearances. Demo night at the 19th Annual Meeting of Vision Sciences Society (VSS). Florida, US.
  29. Maruya K., Fujita Y., & Ohtani T. (2019). Café-Wall illusion caused by shadows on a surface of three dimensional object. 19th Annual Meeting of Vision Sciences Society (VSS). Florida, US.
  30. Hosokawa K., Maruya K., Nishida S., & Nakadomari S. (2019). Test battery for daily self-assessment of visual abilities. 19th Annual Meeting of Vision Sciences Society (VSS). Florida, US.
  31. 山岸慎平, 古川茂人. (2019). 視聴覚刺激に対する定位反応 -刺激の顕著性・刺激のモダリティ・覚醒状態がサッカードに及ぼす影響-. 日本音響学会聴覚研究会資料.
  32. 上村卓也, 寺島裕貴, 古川茂人. (2019). 自然音認識で訓練された深層ニューラルネットワークにおける単一ユニットのチューニング. 日本音響学会聴覚研究会資料.
  33. 上村卓也. (2019). 深層ニューラルネットワークによる聴覚系のモデリング. 鹿児島神経科学研究会. 鹿児島, 日本.
  34. 寺島裕貴, 塚野浩明, 古川茂人. (2019). マウス聴覚野における鳴き声の表現に関する一考察. 日本音響学会聴覚研究会資料.
  35. Kawano H. (2019). Linear Heterogeneous Reconfiguration of Cubic Modular Robots via Simultaneous Tunneling and Permutation. 2019 Ineternational Conference on Robotics and Automations (ICRA2019). Montreal, Canada.
  36. 寺島裕貴, 塚野浩明, 古川茂人. (2019). 複雑音と教師なし学習を用いたマウス大脳皮質聴覚野の領野分割. Proceedings of the 33rd Annual Conference of the Japanese Society for Artificial Intelligence.
  37. Hosokawa K., Maruya K., Nishida S., Takahashi M., & Nakadomari S. (2019). Gamification of vision test improves usability for internet experiments. Asian-Pacific Conference on Vision 2019. Osaka, Japan.
  38. Kawabe T. (2019). The perception of motion direcrtion for deformation flow. Asian-Pacific Conference on Vision 2019. Osaka, Japan.
  39. Yokosaka T., Kuroki S., & Nishida S. (2019). Describing the Sensation of 'Velvet Hand Illusion' in Terms of Common Materials. IEEE World Haptics Symposium 2019. Tokyo, Japan.
  40. Kawabe T., & Sawayama M. (2019). A computational analysis of Moire-induced illusory deformation. Visual Science of Ars Conference 2019. Leuven, Belgium.
  41. Yang Y.-H., Huang T.-R., & Yeh S.-L. (2019). Can Semantic Information be Temporally Integrated Under Interocular Suppression? An fMRI study. The 15th Asia-Pacific Conference on Vision(APCV). Osaka, Japan.
  42. Chien S.-E., Yang Y.-H., Teramoto S., Ono Y., & Yeh S.-L. (2019). Neural correlates of semantic priming under visual crowding: An MEG study. The 15th Asia-Pacific Conference on Vision(APCV). Osaka, Japan.
  43. Liao H.-I. (2019). Unified audio-visual spatial attention revealed by pupillary light response. The 15th Asia-Pacific Conference on Vision(APCV). Osaka, Japan.
  44. Liao H.-I. & Chen L. (2019). Sound freezes transient visual presentations as revealed by microsaccade inhibition. The 42nd European Conference on Visual Perception (ECVP). Leuven, Belgium.
  45. Ho H.-N., Terashima H., Wakamatsu K., Kwon J., Sakamoto M., Nakauchi S., & Nishida S. (2019). Visual inference for warm/cold perception of surfaces. The 42nd edition of the European Conference on Visual Perception (ECVP2019). Leuven, Belgium.
  46. Koumura T., Terashima H., & Furukawa S. (2019). “Psychophysical” modulation transfer functions in a deep neural network trained for natural sound recognition. The 7th International Symposium on Auditory and Audiological Research (ISAAR2019). Nyborg, Denmark.
  47. Zhou Y., Nakamura K., Murata A., Watanabe K., & Watanabe J. (2019). An investigation of the influence of false heartbeat feedback. IEEE World Haptics Symposium 2019. Tokyo, Japan.
  48. Nomura K., Murata A., Yotsumoto Y., & Kumano S. (2019). Bayesian Item Response Model with Condition-specific Parameters for Evaluating the Differential Effects of Perspective-taking on Emotional Sharing. The 41st Annual Meeting of the Cognitive Science Society (CogSci 2019). Montréal, Canada.
  49. Nomura K., Kumano S., & Yotsumoto Y. (2019). Multitask Item Response Model Revealed Bias in Estimated Emotional Features due to Response Style within the Open Affective Standardized Image Set (OASIS). The 52nd Annual Meeting of the Society for Mathematical Psychology (MathPsych 2019). Montréal, Canada.
  50. 大塚和弘, 春日啓祐, ケーラー マルティナ. (2019). 畳み込みニューラルネットを用いた複数人会話における対人視線方向の推定. 信学技報. 大阪.
  51. Yamagishi S., Yoneya M., & Furukawa S. (2019). The effects of the saliency and the spatial congruency of the stimuli on saccadic eye movement elicited by visual and auditory stimuli. The 42nd Annual Meeting of the Japan Neuroscience Society. Niigata, Japan.
  52. Ooishi Y., Hiraoka D., Nomura M., & Mugitani R. (2019). Relationship between maternal approach-avoidance behavior and emotional contents of infant vocalization. The 42nd Annual Meeting of the Japan Neuroscience Society. Niigata, Japan.
  53. Koumura T., Terashima H., & Furukawa S. (2019). Tuning of Single-Unit Responses to Interaural Time Difference in a Deep Neural Network. The 42st Annual Meeting of the Japan Neuroscience Society. Niigata, Japan.
  54. Yamagishi S., & Furukawa S. (2019). 注意状態とサッカード特性の関係 ‐視聴覚モダリティ間の違い‐. 日本音響学会2019年秋季研究発表会. Tokyo, Japan.
  55. 寺島裕貴, 木原健, 河原純一郎, 近藤洋史. (2019). 持続的注意のゆらぎの視聴覚間比較. 日本音響学会2019年秋季研究発表会講演論文集. Tokyo, Japan.
  56. Koumura T., Terashima H., & Furukawa S. (2019). “Psychophysical” Detectability of Amplitude Modulation in a Deep Neural Network Trained for Natural Sound Recognition. The Proceedings of the 29th Annual Conference of the Japanese Neural Network Society. Tokyo, Japan.
  57. Liao H.-I., Fujihira H., Yamagishi S., & Furukawa S. (2019). Evaluating auditory spatial attention through the eyes. 日本音響学会2019年秋季研究発表会講演論文集. Tokyo, Japan.
  58. Abekawa N., & Gomi H. (2019). Learning and retrieving motor memories depending on gaze-reach coordination. Neuroscience2019. (Neuroscience2019). Chicago, USA.
  59. Gomi H., & Nakamura D. (2019). Synthetic modeling of human visual motion analysis for generating quick ocular and manual responses. Neuroscience2019. (Neuroscience2019). Chicago, USA.
  60. Ito S., & Gomi H. (2019). Online modulation of proprioceptive reflex gain depending on uncertainty in multisensory state estimation. Neuroscience2019. (Neuroscience2019). Chicago, USA.
  61. Ueda H., Abekawa N., Ito S., & Gomi H. (2019). Distinct temporal frequency-dependent modulations of direct and indirect visual motion effects on reaching adjustments. Neuroscience2019. (Neuroscience2019). Chicago, USA.
  62. Uezu Y., Hiroya S., & Mochida T. (2019). Naturalness of transformed auditory feedback sounds changes the patterns of compensatory articulatory responses and self-agency ratings in speech production. Neuroscience2019. (Neuroscience2019). Chicago, USA.
  63. Kawabe T. (2019). Implementation of visual illusions in real-world situations. The 1st meeting of Applying Neuroscience to Business. Yokohama, Japan.
  64. Kuroki S. (2019). Arm's blind line: Anisotropic distortion in perceived orientation of stimuli on the arm. Neuroscience 2019 (SfN). Chicago, USA.
  65. Terashima H., & Furukawa S. (2019). Efficient codes of the auditory nerves reconsidered with natural reverberations. Advances and Perspectives in Auditory Neuroscience (APAN). Chicago, USA.
  66. Terashima H., Tsukano H., & Furukawa S. (2019). Data-driven auditory field mapping for mice using naturalistic sounds. Neuroscience 2019 (SfN). Chicago, USA.
  67. Palumbo C., Kriening H., Wajda B., & Perusquia-Hernandez M. (2019). Understanding User Customization Needs : Requirements for an Augmented Reality Lamp Customization Tool. Proceedings of the Design and Semantics of Form and Movement Conference, XI Edition. Cambridge, MA, USA.
  68. Perusquía-Hernández M., Ayabe-Kanamura, S., & Suzuki, K. (2019). Posed and spontaneous smile assessment with wearable skin conductance measured from the neck and head movement. 2019 8th International Conference on Affective Computing and Intelligent Interaction (ACII). Cambridge, U.K.
  69. Nunez E., Hirokawa M., Perusquia-Hernandez, M., & Suzuki, K. (2019). Effect on Social Connectedness and Stress Levels by Using a Huggable Interface in Remote Communication. 2019 8th International Conference on Affective Computing and Intelligent Interaction (ACII). Cambridge, U.K.
  70. Ho H.-N., Terashima H., Wakamatsu K., Kwon J., Sakamoto M., Nakauchi S., & Nishida S. (2019). Visual Inference for Warm/cold Perception of Surfaces. 第11回多感覚研究会. 立教大学, 日本.
  71. 杉本海里, 村田藍子, 真鍋奈央, 渡邊克巳, 犬飼佳吾. (2019). 2者間の相互作用によるリスク選好の収束. 日本人間行動進化学会 第12回大会. 明治学院大学, 日本.

Misc

  1. 古川茂人. (2019). 聴覚の「中次」処理. 情報処理, 60 (10), 963-964.
  2. 渡邊淳司. (2019). 挑戦する研究者たち:人と人のあいだの想像力が私たちのウェルビーイングを創造する. NTT技術ジャーナル, 31 (12), 39-42.
  3. 林阿希子, 渡邊淳司, 清水健太郎. (2019). スポーツ・ソーシャル・ビュー:スポーツの本質を抽出し身体感覚で共有するインクルーシブなスポーツ観戦. NTT技術ジャーナル, 31 (12), 29-32.

2018

論文

  1. Furukawa, S., Onikura, K., Kidani, S., Kato, M. & Kitagawa, N. (2018). Light-synchronized tapping task as an objective method for estimating auditory detection threshold. Acoustical Science and Technology, 39, 30-36.
  2. Ooishi, Yuuki (2018). Correlation between resting testosterone/cortisol ratio and sound-induced vasoconstriction at fingertip in men. Frontiers in Physiology, 9, 164.
  3. Scinob Kuroki & Shin'ya Nishida (2018). Human tactile detection of within- and inter-finger spatiotemporal phase shifts of low-frequency vibrations. Scientific Reports, 8, 4288.
  4. Sakamoto, Maki & Watanabe, Junji (2018). Bouba/Kiki in Touch: Associations Between Tactile Perceptual Qualities and Japanese Phonemes. Frontiers in Psychology, 8 (295).
  5. Abekawa, Naotoshi, Ferrè, Elisa Raffaella, Gallagher, Maria, Gomi, Hiroaki & Haggard, Patrick (2018). Disentangling the visual, motor and representational effects of vestibular input. Cortex, 104, 46-57.
  6. Takamuku, Shinya, Forbes, Paul A. G., Hamilton, Antonia F. de C. & Gomi, Hiroaki (2018). Typical use of inverse dynamics in perceiving motion in autistic adults: Exploring computational principles of perception and action. Autism Research: Official Journal of the International Society for Autism Research.
  7. Masataka Sawayana & Shin'ya Nishida (2018). Material and shape perception based on two types of intensity gradient information. PLoS Computational Biology, 14 (4), e1006061-40.
  8. Yokosaka, Takumi, Kuroki, Scinob, Watanabe, Junji & Nishida, Shin'ya (2018). Estimating Tactile Perception by Observing Explorative Hand Motion of Others. IEEE Transactions on Haptics, 11 (2), 192-203.
  9. De Havas, Jack, Ito, Sho, Haggard, Patrick & Gomi, Hiroaki (2018). Low Gain Servo Control During the Kohnstamm Phenomenon Reveals Dissociation Between Low-Level Control Mechanisms for Involuntary vs. Voluntary Arm Movements. Frontiers in behavioral neuroscience, 12.
  10. Antaket, Layla Chadaporn, Matsuda, Masafumi, Otsuka, Kazuhiro & Kumano, Shiro (2018). Analyzing Generation and Cognition of Emotional Congruence using Empathizing-Systemizing Quotient. International Journal of Affective Engineering, 17 (3), 183-192.
  11. 西田眞也. (2018). 「多元質感知」における質感研究. 日本画像学会誌, 57 (2), 186-196.
  12. Kawabe Takahiro & Shin'ya Nishida (2018). Deformation-induced transparency resolves color scission. Journal of Vision, 18 (8), 3: 1-12.
  13. Shin'ya Nishida, Kawabe Takahiro, Masataka Sawayama & Taiki Fukiage (2018). Motion Perception: From Detection to Interpretation. Annual Review of Vision Science, 4, in press.
  14. Li Li, Shiro Kumano, Anita Keshmirian, Bahador Bahrami, Jian Li & Nicholas D. Wright (2018). Parsing cultural impacts on regret and risk in Iran, China and the United Kingdom. Scientific Reports, 8, 13862.
  15. Otsuka, Sho, Nakagawa, Seiji & Furukawa, Shigeto (2018). A Preceding Sound Expedites Medial Olivocochlear Reflex. Acta Acustica united with Acustica, 104 (5), 804-808.
  16. Ohga, Shinpei, Tsukano, Hiroaki, Horie, Masao, Terashima, Hiroki, Nishio, Nana, Kubota, Yamato, Takahashi, Kuniyuki, Hishida, Ryuichi, Takebayashi, Hirohide & Shibuki, Katsuei (2018). Direct Relay Pathways from Lemniscal Auditory Thalamus to Secondary Auditory Field in Mice. Cerebral Cortex, bhy234.
  17. Koumura, Takuya & Furukawa, Shigeto (2018). Do Speech Contexts Induce Constancy of Material Perception Based on Impact Sound Under Reverberation?. Acta Acustica united with Acustica, 104 (5), 796-799.
  18. Hsin-I Liao, Yoneya Makoto, Makio Kashino & Shigeto Furukawa (2018). Pupillary dilation response reflects surprising moments in music. Journal of Eye Movement Research, 11 (2), 13.
  19. Kawabe, Takahiro (2018). Linear Motion Coverage as a Determinant of Transparent Liquid Perception. i-Perception, 9 (6), 2041669518813375.
  20. Ueda, Hiroshi, Abekawa, Naotoshi & Gomi, Hiroaki (2018). The faster you decide, the more accurate localization is possible: Position representation of "curveball illusion" in perception and eye movements. PLOS ONE, 13 (8), e0201610.
  21. Mugitani, Ryoko, Kobayashi, Tessei, Hayashi, Akiko & Fais, Laurel (2018). The Use of Pitch Accent in Word--Object Association by Monolingual Japanese Infants. Infancy.

書籍

  1. 坂本 真樹, 渡邊 淳司. (2018). 五感と不快感. 感覚重視型技術の最前線 ~心地良さと意外性を生み出す技術~. (pp.12-22). シーエムシー出版.
  2. 早川 智彦, 渡邊 淳司, 坂本 真樹. (2018). 感覚のオノマトペと官能評価. 感覚重視型技術の最前線 ~心地良さと意外性を生み出す技術~. (pp.25-34). シーエムシー出版.
  3. 渡邊 淳司, 坂本 真樹. (2018). 3.5 多様な研究アプローチ 7. オノマトペ・触相図. 基礎心理学実験法ハンドブック. (pp.190-191). 朝倉書店.
  4. 渡邊 淳司. (2018). ウェルビーイングの構成要素と情報技術による介入――基礎情報学的視点からの検討. 基礎情報学のフロンティアー人口知能は自分の世界をいきられるか. (p.81−101). 東京大学出版.
  5. 麦谷綾子. (2018). 声と聞こえを育む. 0・1・2歳からのていねいな保育. (p.66−81). フレーベル館.

会議

  1. Liao, H.-I., Fujihira, H. & Furukawa, S. (2018). The pupillary light response reveals the focus of auditory spatial attention. Association for Research in Otolaryngology (ARO) 41th Annual MidWinter Meeting. San Diego (USA).
  2. Furukawa, S. (2018). Eye metrics as indicators of auditory salience?. Symposium: Understanding auditory salience, 41th ARO Midwinter Meeting. San Diego (USA).
  3. Koumura, Takuya, Terashima, Hiroki & Furukawa, Shigeto (2018). Representation of Amplitude Modulation in a Deep Neural Network Optimized for Sound Classification. 41st Annual MidWinter Meeting, Association for Research in Otolaryngology. San Diego (USA).
  4. Fujihira, Haruna, Yamagishi, Shimpei, Liao, Hsin-I & Furukawa, Shigeto (2018). Sensitivities of Pupillary Dilation Responses and Microsaccade Rates to Alert Sounds. 41st Annual MidWinter Meeting, Association for Research in Otolaryngology. San Diego (USA).
  5. Terashima, Hiroki & Furukawa, Shigeto (2018). Reconsidering the Efficient Coding Model of the Auditory Periphery under Reverberations. The 41st MidWinter Meeting of Association for Research in Otolaryngology (ARO). San Diego (USA).
  6. 古川茂人. (2018). 身体反応から探る聴覚のメカニズム. 北陸先端科学技術大学院大学 情報科学系セミナー. 能美.
  7. Yokosaka, Takumi, Kuroki, Scinob, Watanabe, Junji & Nishida, Shin'ya (2018). Linkage between Free Exploratory Movements and Subjective Tactile Ratings. IEEE Haptics Symposium 2018. San Francisco, USA.
  8. Ho, H.-N., Sato, K., Kuroki, S., Watanabe, J., Maeno, T. & Nishida, S. (2018). Physical-Perceptual Correspondence for Dynamic Thermal Stimulation. IEEE Haptics Symposium 2018. San Francisco, USA.
  9. 丸谷和史, 細川研知, 渡邊淳司, 安藤英由樹, 神居文彰. (2018). Yu bi Yomu式読経ソフトウェア. 「距離0から拓くデザインの未来─見る/聴くから“触れる”へ」. 東京, 日本.
  10. Antaket, C. Layla, Matsuda, Masafumi, Otsuka, Kazuhiro & Kumano, Shiro (2018). Analyzing Generation and Cognition of Emotional Congruence using Empathizing-Systemizing Quotient. 第13回日本感性工学会春季大会予稿集.
  11. 塚野浩明, 大賀慎平, 堀江正男, 寺島裕貴, 西尾奈々, 竹林浩秀, 澁木克栄. (2018). マウス二次聴覚野に入力する新たな視床経路の発見. 第7回 新潟脳研-霊長研-生理研合同シンポジウム.
  12. 寺島裕貴, 古川茂人. (2018). 自然環境下における聴覚末梢の効率的符号化モデル:教師なし学習か課題最適化か?. 日本音響学会2018年春季研究発表会講演論文集.
  13. 上村卓也, 寺島裕貴, 古川茂人. (2018). 教師あり深層学習によって獲得される変調周波数の聴覚表現. 日本音響学会2018年春季研究発表会講演論文集.
  14. 藤平晴奈, 山岸慎平, 廖心怡, 古川茂人. (2018). 警告音に対する瞳孔反応. 日本音響学会2018年春季研究発表会講演論文集.
  15. 寺島裕貴. (2018). 計算論的アプローチによる聴覚系の理解. 第123回日本解剖学会総会・全国学術集会 講演プログラム・抄録集.
  16. Maruya, Kazushi & Ohtani, Tomoko (2018). The optical illusion blocks: Optical illusion patterns in a three dimensional world. VSS 2018(demo night). Florida, USA.
  17. Hosokawa, Kenchi & Maruya, Kazushi (2018). Quick estimation of contrast sensitivity function using a tablet device. VSS 2018(demo night). Florida, USA.
  18. 細川研知, 丸谷和史, 西田眞也, 中泊聡. (2018). タブレット型端末を用いた簡易視覚検査キット. 日本視覚学会2018年冬季大会. 東京, 日本.
  19. 河邉隆寛, 西田眞也. (2018). 4 ストローク仮現運動におけるフリッカの低減. 日本視覚学会2018年冬季大会. 東京, 日本.
  20. 藤平晴奈, 白石君男. (2018). 聴覚末梢の障害に着目した電気生理学的手法による耳鳴りの客観的評価の検討. 日本音響学会聴覚研究会資料.
  21. Yokosaka, Takumi, Kuroki, Scinob, Watanabe, Junji & Nishida, Shin'ya (2018). Explorative hand motion reflects process of value-based binary decision-making for tactile stimuli. Euro Haptics 2018. Pisa, Italy.
  22. Kuroki, Scinob, Sawayama, Masataka & Nishida, Shin'ya (2018). Haptic texture perception on 3D-printed surfaces transcribed from visual natural textures. Euro Haptics 2018. Pisa, Italy.
  23. Kuroki, Scinob & Nishida, Shin'ya (2018). Direction judgements with randomdot motion in touch. Euro Haptics 2018. Pisa, Italy.
  24. Otsuka, Sho, Nakagawa, Seiji & Furukawa, Shigeto (2018). A preceding sound expedites medial olivocochlear reflex. International Symposium on Hearing 2018. Snekkersten, Denmark.
  25. Koumura, Takuya & Furukawa, Shigeto (2018). Do speech contexts induce constancy of material perception based on impact sound under reverberation? International Symposium on Hearing 2018. Snekkersten, Denmark.
  26. 渡邊 淳司. (2018). ウェルビーイングと触覚. 2018年人口知能学会全国大会(第32回). 鹿児島.
  27. 坂本 真樹, 渡邊 淳司. (2018). 質感と感性. 2018年人口知能学会全国大会(第32回). 鹿児島.
  28. 寺島裕貴, 古川茂人. (2018). 聴神経の計算論再考:教師なし学習か課題最適化か?. 人工知能学会全国大会(第32回)論文集.
  29. 村田藍子. (2018). 相互作用による双方向的な情動反応の変化. 人工知能学会全国大会(第32回)論文集.
  30. 上村卓也, 澤山正貴, 西田眞也. (2018). 多様な質感認識の情報処理に用いられる画像特徴を統一的に説明するためのニューラルネットワークモデルの検討. 第32回全国大会, 日本人工知能学会.
  31. Sanada, Takahisa, Kawabe, Takahiro, Nishida, Shin'ya & Komatsu, Hidehiko (2018). Neural response to complex motion in macaque area MT. 第41回日本神経科学大会. 神戸, 日本.
  32. Koumura, Takuya, Terashima, Hiroki & Furukawa, Shigeto (2018). Emergence of auditory-system-like representation of amplitude modulation in a deep neural network trained for sound classification. 27th Annual Computational Neuroscience Meeting (CNS*2018). Seattle (USA).
  33. Terashima, Hiroki & Furukawa, Shigeto (2018). Efficient coding of natural sounds at the auditory periphery with consideration of environmental modulations: a computational study. The 11th FENS Forum of Neuroscience (FENS 2018). Berlin (Germany).
  34. Terashima, Hiroki & Furukawa, Shigeto (2018). Revisiting efficient coding of natural sounds in the environment: unsupervised learning or task-based optimization?. 27th Annual Computational Neuroscience Meeting (CNS*2018). Seattle (USA).
  35. Koumura, Takuya, Terashima, Hiroki & Furukawa, Shigeto (2018). Single unit recording in a deep neural network reveals representation of amplitude modulation similar to the auditory nervous system. The 11th FENS Forum of Neuroscience (FENS 2018). Berlin (Germany).
  36. 寺島裕貴, 古川茂人. (2018). 複雑音誘発反応を用いたデータ駆動型マウス聴覚野領域同定の試み. 日本音響学会聴覚研究会資料.
  37. 上村卓也, 仲谷正史, 近藤洋史. (2018). 聴覚刺激による自律感覚絶頂反応(ASMR)の個人差の検討. 日本音響学会聴覚研究会資料.
  38. Hisanaga,Satoko, Mugitani, Ryoko & Sekiyama, Kaoru (2018). Selective attention to the mouth of a talking face in Japanese learning infants and toddlers. The 40th International Conference on Infant Studies (ICIS 2018). Philadelphia (USA).
  39. Miyazaki, Michiko, Mugitani, Ryoko & Asai, Tomohisa (2018). “Touching!!”: An AR system for unveiling face topography in very young children. The 40th International Conference on Infant Studies (ICIS 2018). Philadelphia (USA).
  40. 吉村麻美, 渡辺謙, 梶川祥世, 河西奈保子, 麦谷綾子. (2018). 5-8ヶ月児に対する母親の身体揺動と音楽呈示の効果. 日本赤ちゃん学会第18回学術集会.
  41. 平岡大樹, 大石悠貴, 麦谷綾子, 野村理朗. (2018). 乳児の声は母親を惹きつけるのか? 乳児音声刺激に対する母親の重心動揺とオキシトシンレベルの関連. 日本赤ちゃん学会第18回学術集会.
  42. Yuuki,Ooishi (2018). Difference in the effect of testosterone to cortisol ratio on the autonomic orienting responses. 第41回日本神経科学大会.
  43. 山岸慎平, 米家惇, 古川茂人. (2018). Dynamic properties of pupil and iris movements: Comparison between pro- and anti-saccade tasks. 第41回日本神経科学大会. 神戸.
  44. 山岸慎平, 藤平晴奈, 廖心怡, 古川茂人. (2018). 警告音呈示中のマイクロサッカードの特性. 日本音響学会春季研究発表会. 埼玉.
  45. 山岸慎平, 米家惇, 古川茂人. (2018). Different properties of post-saccadic oscillation between pupil and iris. 第18回 脳と心のメカニズム 冬のワークショップ. 留寿都, 北海道.
  46. Tsukano, Hiroaki, Ohga, Shinpei, Horie, Masao, Terashima, Hiroki, Nishio, Nana, Kubota, Yamato, Takahashi, Kuniyuki, Hishida, Ryuichi, Takebayashi, Hirohide & Shibuki, Katsuei (2018). Thalamocortical structures that differentiate complexity in functional organizations between primary and secondary auditory cortices in mice. The 41st Annual Meeting of the Japan Neuroscience Society. Kobe, Japan.
  47. Ryohei Shibue & Makoto Yoneya (2018). Scan path modeling using marked point processes. The 41st Annual Meeting of the Japan Neuroscience Society. Kobe, Japan.
  48. Nishida, Shin'ya (2018). Understanding human recognition of material properties for innovation in SHITSUKAN science and technology. 2018 UK-JSPS Symposium "SHITSUKAN approach to digital colour sensing: human colour vision for material quality". Manchester, UK.
  49. Jan Jaap R. van Assen, Shin'ya Nishida & Roland W. Fleming (2018). Estimating perceived viscosity of liquids with neural networks. European Conference on Visual Perception. Irieste, Italy.
  50. Hiroya, S. & Mochida, T. (2018). Neural mechanisms underlying the impact of speech sound naturalness during transformed auditory feedback.10th Annual Meeting of the Society for Neurobiology of Language, Québec City, Canada.
  51. Koumura, Takuya, Terashima, Hiroki & Furukawa, Shigeto (2018). 深層ニューラルネットワークにおける聴覚神経系と類似した振幅変調の表現:単一ユニット記録による分析. 第41回日本神経科学大会.
  52. Koumura, Takuya, Terashima, Hiroki & Furukawa, Shigeto (2018). 聴覚における変調処理モデルの特徴量を用いた音のテクスチャ変換. 日本音響学会2018年秋季研究発表会.
  53. Fujihira, Haruna, Liao, Hsin-I & Furukawa, Shigeto (2018). 警告音の変調パワーが瞳孔反応に与える影響. 日本音響学会2018年秋季研究発表会.
  54. 寺島裕貴, 塚野浩明, 古川茂人. (2018). 複雑音誘発反応を用いたマウス大脳皮質聴覚野の領域分割. 日本音響学会2018年秋季研究発表会講演論文集.
  55. 渡邊 淳司, 内田 友紀, 庭田 杏珠, 馬場 哲晃, 岩井 大輔, 筧 康明, 長谷川 晶一, 山岡 潤一, 渡邊 英徳. (2018). 心の豊かさ、社会の豊かさに向けた情報技術. 日本バーチャルリアリティ学会第23回大会. 仙台.
  56. 渡邊 淳司, 麦谷 綾子, 村田 藍子, 日和 悟, 大石 悠貴, 小澤いぶき. (2018). Well-being Computing に向けて. 日本心理学会第82回大会. 仙台.
  57. 村田 藍子, 熊野 史朗, 佐藤 尚, 吉田 成朗, 渡邊 克巳, 渡邊 淳司. (2018). 「場」の共有が生み出す情動の伝染・変化:評価と介入の有機的連携に向けて. 日本心理学会第82回大会. 仙台.
  58. Fukiage, Taiki, Kawabe, Takahiro & Nishida Shin'ya (2018). Hidden Stereo: Hiding Phase-Based Stereo Disparity for Ghost-Free Viewing Without Glasses. IMID2018. Busan, Korea.
  59. Daiki, Amanai, Tomoko, Ohtani & Kazushi, Maruya (2018). A Suggestion of the Optical Illusion Blocks for an Architectural Theory: Toward an Architecture in the Near Future. The 18th International Conference on Geometry & Graphics (ICGG 2018). Milan, Itary.
  60. Tomoko, Ohtani, Daiki, Amanai & Kazushi, Maruya (2018). The Effect of a Two-Dimensional Optical Illusion Pattern on the Three-Dimensional Interpretation of Objects Using Café Wall “Illusion Blocks”. The 18th International Conference on Geometry & Graphics (ICGG 2018). Milan, Itary.
  61. Kawano, Hiroshi (2018). Distributed Tunneling Reconfiguration of Sliding Cubic Modular Robots in Severe Space Requirements. Proceedings of 14th International Symposium on Distributed Autonomous Robotic Systems.
  62. Otsuka, Kazuhiro, Kasuga, Keisuke & Köhler, Martina (2018). Estimating Visual Focus of Attention in Multiparty Meetings Using Deep Convolutional Neural Networks. Proceedings of the 20th ACM International Conference on Multimodal Interaction. New York, NY, USA.
  63. Ishii, Ryo, Otsuka, Kazuhiro, Kumano, Shiro, Higashinaka, Ryuichiro & Tomita, Junji (2018). Analyzing Gaze Behavior and Dialogue Act During Turn-taking for Estimating Empathy Skill Level. Proceedings of the 20th ACM International Conference on Multimodal Interaction. New York, NY, USA.
  64. Koumura, Takuya, Terashima, Hiroki & Furukawa, Shigeto (2018). Chimeric sounds with shuffled “texture” and “content” synthesized by a model of the auditory system. International Symposium on Universal Acoustical Communication 2018.
  65. Koumura, Takuya, Sawayama, Masataka & Nishida, Shin'ya (2018). Explaining Behavioral Data of Visual Material Discrimination with a Neural Network for Natural Image Recognition. The 28th Annual Conference of the Japanese Neural Network Society.
  66. Terashima, Hiroki & Furukawa, Shigeto (2018). An examination of the efficient coding model for auditory nerves during the infant development. International Symposium on Universal Acoustical Communication 2018.
  67. Terashima, Hiroki (2018). Computational understanding of auditory neural codes and natural sounds. Joint workshop of UCL-ICN, NTT, UCL-Gatsby, and AIBS: Analysis and Synthesis for Human/Artificial Cognition and Behaviour.
  68. Ho, Hsin-Ni, Terashima, Hiroki, Wakamatsu, Kohta, Kwon, Jinhwan, Sakamoto, Maki, Nakauchi, Shigeki & Nishida, Shin'ya (2018). Image statistics and the warm/cold perception of surfaces. Joint workshop of UCL-ICN, NTT, UCL-Gatsby, and AIBS: Analysis and Synthesis for Human/Artificial Cognition and Behaviour.
  69. Terashima, Hiroki, Tsukano, Hiroaki & Furukawa, Shigeto (2018). Unsupervised Area Segmentation of Mouse Auditory Cortex based on Responses to Naturalistic Complex Sounds. The Proceedings of the 28th Annual Conference of the Japanese Neural Network Society.
  70. 藤平晴奈, 白石君男. (2018). 2音節音声による聴性脳幹反応を用いた高齢者の他覚的な聴覚評価-聴取成績との関連性. AUDIOLOGY JAPAN.
  71. Furukawa, Shigeto, Terashima, Hiroki, Koumura, Takuya & Tsukano, Hiroaki (2018). Data-driven approaches for unveiling the neurophysiological func-tions of the auditory system. Seminar on brain, hearing and speech sciences for universal speech communication.
  72. Furukawa, Shigeto (2018). Probing auditory attention by eye metrics. Joint workshop of UCL-ICN, NTT, UCL-Gatsby, and AIBS: Analysis and Synthesis for Human/Artificial Cognition and Behaviour.
  73. Yamagishi, Shimpei, Yoneya, Makoto & Furukawa, Shigeto (2018). Dynamic overshoot in saccadic movement of pupil inside iris during pro- and anti-saccade tasks. Neuroscience 2018, Annual Meeting of the Society for Neuroscience.
  74. Gatica-Perez, Daniel, Sanchez-Cortes, Dairazalia, Do, Trinh-Minh-Tri, Babu Jayagopi, Dinesh & Otsuka, Kazuhiro (2018). Vlogging Over Time: Longitudinal Impressions and Behavior in YouTube. Proceedings of 17th International Conference on Mobile and Ubiquitous Multimedia (MUM2018).
  75. Ryohei Shibue & Makoto Yoneya (2018). Scan path modeling using marked point processes. Neuroscience 2018, Annual Meeting of the Society for Neuroscience.
  76. 寺島裕貴, 木原健, 河原純一郎, 近藤洋史. (2018). 視聴覚の持続的注意の特性比較. 日本音響学会聴覚研究会資料.
  77. Jan Jaap R. van Assen, Shin'ya Nishida & Roland W. Fleming (2018). How neural networks perceive the viscosity of liquids. Skin of things symposium. Amsterdam, Netherlands.
  78. 山岸慎平, 米家惇, 古川茂人. (2018). 視覚刺激および聴覚刺激に対するサッカード反応特性. 日本音響学会聴覚研究会資料.
  79. 村田藍子, 阿部匡樹, 渡邊克巳. (2018). 二者のJoint-actionにおける潜在的協調過程の検討. 日本人間行動進化学会第11回大会.
  80. 石井亮, 大塚和弘, 熊野史朗, 東中竜一郎, 富田準二. (2018). 話者継続・交替時の視線行動と対話行為に基づく共感スキルの推定. 電子情報通信学会 HCGシンポジウム2018.
  81. Kawabe, Takahiro (2018). Spatially Augmented Depth and Transparency in Paper Materials. SIGGRAPH Asia 2018 Emerging Technologies. New York, NY, USA.
  82. Kawabe, Takahiro (2018). Spatially Augmented Depth and Transparency in Paper Materials. SIGGRAPH Asia 2018 Posters. New York, NY, USA.
  83. Kawabe, Takahiro (2018). Danswing Papers. SIGGRAPH Asia 2018 Posters. New York, NY, USA.
  84. Fukiage, Taiki, Kawabe, Takahiro & Nishida Shin'ya (2018). Hidden Stereo: Synthesizing Ghost-free Stereoscopic Images for Viewers without 3D Glasses. IDW2018. Nagoya, Japan.
  85. Maruya, Kazushi & Ohtani, Tomoko (2018). カフェウォール錯視の3次元的解釈と錯視パターンのバリエーション. 図学会2018年度秋季大会. Tokyo, Japan.
  86. Ohtani, Tomoko, Higaki, Yuko, Nakamura, Mieko, Amanai, Daiki & Maruya, Kazushi (2018). 複数の視点による幾何学的錯視の把握. 図学会2018年度秋季大会. Tokyo, Japan.
  87. Takumi Shimada, Vibol Yem, Yasushi Ikei, Tomohiro Amemiya, Koichi Hirota & Michiteru Kitazaki (2018). Spatiotemporal Tactile display with tangential force and normal skin vibration generated by shaft end-effectors. Proceedings of AsiaHaptics 2018.
  88. 竹村文, 安部川直稔, 五味裕章. (2018). マカクサルにおけるMST 野不活化による短潜時腕応答への影響. 日本視覚学会2018年夏季大会. つくば市, 日本.
  89. 上田大志, 伊藤翔, 安部川直稔, 五味裕章. (2018). 視覚運動応答におけるダーゲットの運動・位置信号の相互作用効果の時間発展. 第12回モーターコントロール研究会. 東京.
  90. 高椋慎也, 五味裕章. (2018). Constancy of walking speed adjustment based on optic flow. 第18回脳と心のメカニズムワークショップ. 北海道, 日本.
  91. 安部川直稔, 五味裕章. (2018). Vestibular contribution to egocentric body representation. 第18回脳と心のメカニズムワークショップ. 北海道, 日本.
  92. Uezu, Yasufumi, Hiroya, Sadao & Mochida, Takemi (2018). Sound naturalness of feedback speech affects articulatory compensation for transformed auditory feedback. Joint workshop of UCL-ICN, NTT, UCL-Gatsuby, and AIBS.
  93. Takamuku, Shinya & Gomi, HiroakI (2018). Low sensitivities of walking speed adjustment and self-motion velocity perception to dense optic flow. JNNS Satellite Workshop "Analysis and Synthesis for Human/Artificial Cognition and Behaviour". Okinawa, Japan.
  94. Takamuku, Shinya & Gomi, Hiroaki (2018). Increase in density of optic flow deteriorates self-motion velocity perception and decreases implicit adjustments of walking speed. Neuroscience2018.
  95. Shimizu, Koichi, Sueta, Gaku, Yamaoka, Kentaro, Sawamura, Kazuki, Suzuki, Yujin, Yoshida, Keisuke, Yem, Vibol, Ikei, Yasushi, Amemiya, Tomohiro, Sato, Makoto, Hirota, Koichi & Kitazaki, Michiteru (2018). FiveStar VR: Shareable Travel Experience Through Multisensory Stimulation to the Whole Body. Proc. ACM SIGGRAPH Asia 2018 Virtual & Augumented Reality. Tokyo, Japan.
  96. Nakamura, Daiki & Gomi, Hiroaki (2018). Statistical analysis of optic flow induced by body motion characterizing OFR and MFR. JNNS Satellite Workshop "Analysis and Synthesis for Human/Artificial Cognition and Behaviour". Okinawa, Japan.
  97. Nakamura, Daiki & Gomi, Hiroaki (2018). What factor characterize the specificity of visual motion analysis for manual and ocular following response? - Natural statistics of relationship between visual motion and head movements -. 新学術領域研究 「人工知能と脳科学」 「適応回路シフト」 合同領域会議. Okinawa, Japan.
  98. Kaneko, Hirofumi, Amemiya, Tomohiro, Yem, Vibol, Ikei, Yasushi, Hirota, Koichi & Kitazaki, Michiteru (2018). Leg-Jack: Generation of the sensation of walking by electrical and kinesthetic stimuli to the lower limbs. Proc. ACM SIGGRAPH Asia 2018 Emerging Technologies. Tokyo, Japan.
  99. Ito, Sho & Gomi, Hiroaki (2018). Multimodal contribution to body state representation for generating proprioceptive reflexes. JNNS Satellite Workshop "Analysis and Synthesis for Human/Artificial Cognition and Behaviour". Okinawa, Japan.
  100. Hiroya, Sadao (2018). Speech production and perception share common brain mechanisms. Joint workshop of UCL-ICN, NTT, UCL-Gatsuby, and AIBS.
  101. Hiroya, Sadao, Cai, Q., Sethi, A., Lavan, N., Chen, S.H., Meekings, S. & Scott, S.K. (2018). Representational similarity analysis reveals the involvement of supplementary motor area in perceiving speech rhythm. Society for Neuroscience 2018 Abstracts.
  102. Hiroaki Gomi (2018). Implicit visuomotor control and its effect on self-awareness (invited talk). Workshop on mechanism of brain and mind. Hokkaido, Japan.
  103. Gomi, Hiroaki (2018). Contribution of internal models on sensorimotor control (Invited talk). The 75th Fujihara Seminar "The Cerebellum as a CNS hub ? from its evolution to therapeutic strategies". Tokyo Medical and Dental University.
  104. Gomi, Hiroaki (2018). Output Modality Dependent Visual Motion Analysis in the Brain (invited talk). Brain and AI symposium by Korea Society of Brain and Nerve.
  105. Gomi, Hiroaki & Nakamura, Daiki (2018). Specificities of manual and ocular following responses and natural statistics of optic flow induced by body movements. The 41st Annual Meeting of the Japan Neuroscience Society. Kobe, Japan.
  106. Gomi, Hiroaki & Ito, Sho (2018). Portable 2DoF force display gadget realized by 'anisotropic rigidity bridging'. EuroHaptics 2018. Pisa, Italy.
  107. Gomi, Hiroaki, Ito, Sho & Watanabe, Junji (2018). Let's feel bodily sensation in visual experience with a portable 2-dof force display. EuroHaptics 2018. Pisa, Italy.
  108. De Havas, Jack, Ito, Sho & Gomi, Hiroaki (2018). The inhibition of voluntary muscle relaxations depends on similar mechanisms to the inhibition of muscle contractions. Neuroscience2018. San Diego, USA.
  109. De Havas, Jack, Ito, Sho & Gomi, Hiroaki (2018). Does the inhibition of voluntary muscle relaxations depend on similar mechanisms to the inhibition of muscle contractions?. Joint workshop of UCL-ICN, NTT, UCL-Gatsuby, and AIBS "Analysis and Synthesis for Human/Artificial Cognition and Behaviour". OIST, Okinawa, Japan.
  110. Arslanova, Irena, Gomi, HiroakI & Haggard, Patrick (2018). Intra-hemispheric limitations in integrating spatiotemporal information across fingers. JNNS Satellite Workshop "Analysis and Synthesis for Human/Artificial Cognition and Behaviour". Okinawa.
  111. Abekawa, Naotoshi & Gomi, Hiroaki (2018). Different eye-hand coordination forms distinct motor memories in visuomotor adaptation. Neuroscience2018. San Diego, USA.
  112. Abekawa, Naotoshi & Gomi, Hiroaki (2018). Difference in eye-hand coordination forms distinct motor memories in implicit visuomotor adaptation. JNNS Satellite Workshop "Analysis and Synthesis for Human/Artificial Cognition and Behaviour". OIST, Okinawa, Japan.
  113. Yasu, Kentaro (2018). Magnetact: Magnetic-sheet-based Haptic Interfaces for Touch Devices. SIGGRAPH Asia 2018 Emerging Technologies. New York, NY, USA.

Misc

  1. 渡邊 淳司. (2018). 吉田尚記のあさっての話 その11 渡邊淳司(NTTコミュニケーション科学基礎研究所. 3月号.
  2. 渡邊 淳司, 村田 藍子, 安藤 英由樹. (2018). 持続的ウェルビーイングを実現する心理要因. 23 (1), 11-18.

2017

論文

  1. 植月美希, 渡邊淳司, 丸谷和史, 佐藤隆夫. (2017). 文処理の時間特性を捉える 視覚的刺激提示方法とその評価. 心理学評論, 60 (2), 181-201.
  2. 大谷智子, 丸谷和史. (2017). 能動的な観察をうながすワークショッププログラムの開発. AMC Journal : 芸術情報センター活動報告書, 2, 50-63.
  3. Amemiya, Tomohiro, Beck, Brianna, Walsh, Vincent, Gomi, Hiroaki & Haggard, Patrick (2017). Visual area V5/hMT+ contributes to perception of tactile motion direction: a TMS study. Scientific reports, 7 (January), 40937.
  4. Fukiage, Taiki, Kawabe, Takahiro, Sawayama, Masataka & Nishida, Shin'ya (2017). Animating Static Objects by Illusion-Based Projection Mapping. Journal of the Society for Information Display, 25 (7), 434-443.
  5. Fukiage, Taiki, Kawabe, Takahiro & Nishida, Shin'ya (2017). Hiding of Phase-Based Stereo Disparity for Ghost-Free Viewing Without Glasses. ACM Transactions on Graphics (Proc. SIGGRAPH 2017), 36 (4).
  6. Yamagishi, S., Otsuka, S., Furukawa, S. & Kashino, M. (2017). Comparison of perceptual properties of auditory streaming between spectral and amplitude modulation domains. Hearing Research.
  7. Altmann, C. F., Ueda, R., Furukawa, S., Kashino, M., Mima, T. & Fukuyama, H. (2017). Auditory Mismatch Negativity in Response to Changes of Counter-Balanced Interaural Time and Level Differences. Frontiers in neuroscience, 11.
  8. Altmann, C. F., Ueda, R., Bucher, B., Furukawa, S., Ono, K., Kashino, M., Mima, T. & Fukuyama, H. (2017). Trading of dynamic interaural time and level difference cues and its effect on the auditory motion-onset response measured with electroencephalography. NeuroImage, 159, 185-194.
  9. 廣谷定男. (2017). 「聞くと話す」の脳科学 ―脳における音声生成と知覚の間の相互作用―. 日本音響学会誌, 73, 509-516.
  10. De Havas, J., Gomi, H. & Haggard, P. (2017). Experimental investigations of control principles of involuntary movement: a comprehensive review of the Kohnstamm phenomenon. Exp Brain Res, 235 (7), 1953-1997.
  11. Igeta, Takako, Hiroya, Sadao & Arai, Takayuki (2017). Overlapping of /o/ and /u/ in modern Seoul Korean: focusing on speech rate in read speech. 말소리와 음성과학, 1-7.
  12. Ho, H.-N., Sato, K., Kuroki, S., Watanabe, J., Maeno, T. & Nishida, S. (2017). Physical-Perceptual Correspondence for Dynamic Thermal Stimulation. IEEE Transactions on Haptics, 10 (1), 84-93.
  13. Ho, H.-N. (2017). Material recognition based on thermal cues: Mechanisms and applications. Temperature, 1-20.
  14. Zhou, Y., Ho, H.-N. & Watanabe, J. (2017). Perceptual-semantic congruency facilitates semantic discrimination of thermal qualities. Frontiers in Psychology, 8 (2113).
  15. Kawabe, Takahiro (2017). What Property of the Contour of a Deforming Region Biases Percepts toward Liquid?. Frontiers in Psychology, 8.
  16. Kawabe, Takahiro (2017). Perceiving Animacy From Deformation and Translation. i-Perception, 8 (3), 2041669517707767.
  17. Kawabe, Takahiro, Sasaki, Kyoshiro, Ihaya, Keiko & Yamada, Yuki (2017). When categorization-based stranger avoidance explains the uncanny valley: A comment on MacDorman and Chattopadhyay (2016). Cognition, 161, 129-131.
  18. Kawabe, Takahiro & Kogovšek, Rok (2017). Image deformation as a cue to material category judgment. Scientific Reports, 7, 44274.
  19. Shiro Kumano, Kazuhiro Otsuka, Ryo Ishii & Junji Yamato (2017). Collective First-Person Vision for Automatic Gaze Analysis in Multiparty Conversations. IEEE Trans. Multimedia, 19 (1), 107-122.
  20. Kuroki, S, Watanabe, J & Nishida, S (2017). Integration of vibrotactile frequency information beyond the mechanoreceptor channel and somatotopy. Scientific Reports, 7, 2758.
  21. Kuroki, S, Yokosaka, T & Watanabe, J (2017). Sub-Second Temporal Integration of Vibro-Tactile Stimuli: Intervals between Adjacent, Weak, and Within-Channel Stimuli Are Underestimated. Frontiers in Psychology, 8, fpsyg2017.01295.
  22. Watanabe, Ken, Ooishi, Yuuki & Kashino, Makio (2017). Heart rate responses induced by acoustic tempo and its interaction with basal heart rate. Scientific Reports, 7.
  23. Ooishi, Yuuki, Mukai, Hideo, Watanabe, Ken, Kawato, Suguru & Kashino, Makio (2017). Increase in salivary oxytocin and decrease in salivary cortisol after listening to relaxing slow-tempo and exciting fast-tempo music. PloS one, 12 (12), e0189075.
  24. Sawayama, Masataka, Adelson, Edward H. & Nishida, Shinya (2017). Visual wetness perception based on image color statistics. Journal of Vision, 17(5): 7, 1-24.
  25. Sawayama, Masataka, Nishida, Shinya & Shinya, Mikio (2017). Human perception of subresolution fineness of dense textures based on image intensity statistics. Journal of Vision, 17(4): 8, 1-18.
  26. Uetsuki, Miki, Watanabe, Junji, Ando, Hideyuki & Maruya, Kazushi (2017). Reading traits for dynamically presented texts: Comparison of the optimum reading rates of dynamic text presentation and the reading rates of static text presentation. Frontiers in Psychology, 8 (1390), 1-10.
  27. Sakamoto, Maki & Watanabe, Junji (2017). Exploring tactile perceptual dimensions using materials associated with sensory vocabulary. Frontiers in Psychology, 8 (569), 1-10.
  28. 青木 芽衣, 渡邊 淳司, 岩井 大輔, 佐藤 宏介. (2017). 手へのテクスチャ重畳投影による触質感変調の検討. 映像情報メディア学会誌, 71 (3), j118-j120.
  29. Doizaki, Ryuichi, Watanabe, Junji & Sakamoto, Maki (2017). Automatic estimation of multidimensional ratings from a single sound-symbolic word and word-based visualization of tactile perceptual space. IEEE Transactions on Haptics, 10 (2), 173-182.
  30. Yokosaka, Takumi, Kuroki, Scinob, Watanabe, Junji & Nishida, Shin'ya (2017). Linkage between free exploratory movements and subjective tactile ratings. IEEE Transactions on Haptics, 10 (2), 217-225.
  31. Hayashi, Ryusuke, Watanabe, Osamu, Yokoyama, Hiroki & Nishida, Shinya (2017). A new analytical method for characterizing nonlinear visual processes with stimuli of arbitrary distribution: Theory and applications. Journal of Vision, 17(6): 14, 1-20.
  32. Klimova, Michaela, Nishida, Shinya & Roseboom, Warrick (2017). Grouping by feature of cross-modal flankers in temporal ventriloquism. Scientific Reports, 7.

書籍

  1. 廣谷定男, 筧一彦, 辰巳格, 皆川泰代, 持田岳美, 渡辺眞澄. (2017). 聞くと話すの脳科学. コロナ社.
  2. 廣谷定男. (2017). 人が音声を正しく知覚できるのはなぜでしょうか?. 音響学入門ペディア. (pp.140-143). コロナ社.
  3. 池田 まさみ, 渡邊 淳司. (2017). 錯覚を用いた“心の科学”教育 -教材開発・ワークショップ・展示公開の事例を通して−. 視覚実験研究ガイドブック. (pp.264-272). 朝倉書店.
  4. ラファエル A. カルヴォ (著), ドリアン・ピーターズ (著), 渡邊 淳司 (監訳), ドミニク・チェン (監訳), 木村 千里 (翻訳), 北川 智利 (翻訳), 河邉 隆寛 (翻訳), 横坂 拓巳 (翻訳), 藤野 正寛 (翻訳) & 村田 藍子 (翻訳) (2017). ウェルビーイングの設計論 -人がよりよく生きるための情報技術. ビー・エヌ・エヌ新社.
  5. 坂本 真樹, 渡邊 淳司. (2017). 第5章 狙いどおりかを確かめるための「触覚の定量化・数値化技術」 第1節 多様な触感を微細に表現するオノマトペによる質感評価システムと個人差把握への応用. 狙い通りの触覚・触感をつくる技術. (pp.569-580). サイエンス&テクノロジー.

会議

  1. Amemiya, Tomohiro, Ikei, Yasushi, Hirota, Koichi & Kitazaki, Michiteru (2017). Vibration on the soles of the feet evoking a sensation of walking expands peripersonal space. IEEE World Haptics Conference 2017 (WHC 2017).
  2. Masato Kurosawa, Ken Ito, Hirofumi Kaneko, Yasushi Ikei, Koichi Hirotaand Tomohiro Amemiya & Michiteru Kitazaki (2017). Cutaneous sensation of airflow for presentation of body motion. IEEE World Haptics Conference 2017 (WHC 2017).
  3. Tashiro, Kento, Fujie, Toi, Ikei,Yasushi, Amemiya, Tomohiro, Hirota, Koichi & Kitazaki, Michiteru (2017). TwinCam: Omni-directional Stereoscopic Live Viewing Camera Reducing Motion Blur during Head Rotation. SIGGRAPH 2017 Emerging Technologies.
  4. Tashiro, Kento, Fujie, Toi, Ikei,Yasushi, Amemiya, Tomohiro, Hirota, Koichi & Kitazaki, Michiteru (2017). TwinCam: Omni-directional Stereoscopic Live Viewing Camera Reducing Motion Blur during Head Rotation. SIGGRAPH 2017 Emerging Technologies.
  5. Ikei, Yasushi, Amemiya, Tomohiro, Hirota, Koichi & Kitazaki, Michiteru (2017). A New Experience Presentation in VR2.0. HCI International 2017.
  6. 雨宮智浩. (2017). 触覚・身体感覚の錯覚を活用した情報提示技術と身体像の理解. 日本基礎心理学会フォーラム 平成28年度第2回フォーラム「身体と知覚・認知」.
  7. 藤平晴奈, 大塚翔, 古川茂人. (2017). 時間微細構造処理能力の心理物理測定と周波数追従反応との関連性. 日本音響学会春季研究発表会. 明治大学生田キャンパス (神奈川, 日本).
  8. 吹上大樹, 河邉隆寛, 西田眞也. (2017). 変幻灯ー錯覚を利用した光投影による実物体のインタラクティブな動き編集ー. コンピュータビジョンとイメージメディア研究会. 東京.
  9. 吹上大樹, 河邉隆寛, 西田眞也. (2017). Hiding of Phase-Based Stereo Disparity for Ghost-Free Viewing Without Glasses. Visual Computing/グラフィクスとCAD合同シンポジウム 2017 (招待講演). 東京.
  10. Otsuka, S., Tsuzaki, M., Tanaka, J. & Furukawa, S. (2017). Comparison of time course of frequency following response and otoacoustic emission following short-duration acoustic exposure. 40th ARO Midwinter Meeting. Baltimore, MD.
  11. Yoneya, M., Zhao, S., Chait, M., Furukawa, S. & Kashino, M. (2017). Eye-metrics: A measure of auditory distraction?. 40th ARO Midwinter Meeting. Baltimore, MD.
  12. Liao, H.I., Yoneya, M., Kashino, M. & Furukawa, S. (2017). What does pupil tell about musical processing?. Conference on Music & Eye-Tracking. Frankfurt, Germany.
  13. 上村卓也, 古川茂人. (2017). 打撃音による材質判断に残響とその提示文脈が与える影響. 日本音響学会春季研究発表会.
  14. 大塚翔, 津崎実, 田中里弥, 古川 茂人. (2017). 強大音への暴露が周波数追随反応と耳音響放射に与える一過性の影響-バイオリニストを対象にした検討-. 日本音響学会聴覚研究会.
  15. 大塚翔, 津崎実, 田中里弥, 古川 茂人. (2017). 強大音への暴露が聴覚系に与える一過性の影響:聴性誘発反応と耳音響放射による検討. 日本音響学会聴覚研究会.
  16. 寺島裕貴, 古川茂人. (2017). 自然残響の考慮による聴覚音声スパース符号化再考. 人工知能学会全国大会.
  17. 上村卓也, 寺島裕貴, 古川 茂人. (2017). 神経生理学的手法による深層ニューラルネットワークの分析:振幅変調・周波数変調の表現. 日本音響学会聴覚研究会.
  18. 寺島裕貴, 古川 茂人. (2017). 現実的な残響の考慮による自然音スパース符号化モデルの再評価. 日本音響学会聴覚研究会.
  19. 山岸慎平, 大塚翔, 古川 茂人, 柏野牧夫. (2017). 音脈分凝の知覚特性:周波数手掛かりと振幅変調手掛かりの効果の比較. 日本音響学会聴覚研究会.
  20. 大塚翔, 藤平晴奈, 山岸慎平, 古川 茂人. (2017). 剌激出現頻度が聴性脳幹反応に及ぼす影響. 日本音響学会聴覚研究会.
  21. 大塚翔, 中川誠司, 古川 茂人. (2017). 先行する音がオリーブ蝸牛束反射に与える影響. 日本音響学会秋季研究発表会.
  22. 寺島裕貴, 古川 茂人. (2017). 自然音の考慮による聴覚末梢教師なし学習モデルの再考. 日本音響学会秋季研究発表会.
  23. 高椋慎也, 永澤知幸, 五味裕章. (2017). オプティックフローに基づく歩行速度調節は距離推定に依存する. 日本神経科学大会.
  24. 廣谷定男. (2017). 非負値時空間分解法と機械学習を用いた任意音声の発話リズム変換. 松山.
  25. 安部川直稔, 五味裕章. (2017). 姿勢環境に応じて修飾される反射性視覚腕応答.
  26. Ueda, Hiroshi, Abekawa, Naotoshi & Gomi, Hiroaki (2017). Temporal integration of sensory evidence for position representation of a moving object containing motion signal in perceptual and motor decision making.
  27. Ueda, Hiroshi, Abekawa, Naotoshi & Gomi, Hiroaki (2017). Temporal development of an interaction effect between internal motion and contour signals of drifting target on reaching adjustment.
  28. Hiroya, Sadao, Lavan, Nadine, Chen, Sinead, Meekings, Sophie & Scott, Sophie K. (2017). Impact of articulator velocity-controlled rhythm in perceiving speech. Washington, D.C.
  29. Abekawa, Naotoshi & Gomi, Hiroaki (2017). Modulation difference in visuomotor responses in implicit and explicit motor tasks depending on postural stability.
  30. 廣谷定男. (2017). 脳における音声知覚生成相互作用. 2017年春季研究発表会 講演論文集.
  31. 細川研知, 西田眞也. (2017). インターネットを通じた基礎視知覚テスト. 日本視覚学会2017年冬季大会. 東京, 日本.
  32. 細川研知. (2017). 「インターネットは心理学研究にFITするか?」オンラインでの知覚実験の刺激制御法. FIT2017 第16回情報科学技術フォーラム. 東京, 日本.
  33. 伊藤 翔, 五味 裕章. (2017). Impact of adaptation to mirror-reversed visual feedback on modulation of long-latency stretch. 第40回日本神経科学大会. 幕張.
  34. Kawabe, Takahiro & Nishida, Shin'ya (2017). Transparent surface formation from dynamic image deformation. Symposium at European Conference on Visual Perception 2017. Berlin (Germany).
  35. Kawabe,Takahiro & Nishida, Shin'ya (2017). Spatial configuration modulates perceptual transparency from dymamic image deformation. Vision Sciences Society 17th Annual Meeting (VSS2017). St. Pete Beach (Florida, US).
  36. Kawano, Hiroshi (2017). Tunneling-based Self-Reconfiguration of Heterogeneous Sliding Cub-shaped Modular Robots in Environments with Obstacles. 2017 IEEE International Conference on Robotics and Automation (ICRA 2017). Singapore, Singapore.
  37. Koumura, Takuya & Furukawa, Shigeto (2017). Effect of Reverberation and Its Presentation Context on Material Perception Based on Impact Sounds. 2017 Spring Meeting, Acoustical Society of Japan.
  38. 熊野史朗, 石井亮, 大塚和弘. (2017). 三者間共感理論における本人・傍参与者・外部観察者による評定の違いの分析. 電子情報通信学会 ヒューマンコミュニケーション基礎(HCS)研究会.
  39. 石井亮, 熊野史朗, 大塚和弘. (2017). 話者継続・交替時の視線行動に基づく共感スキルの推定. 電子情報通信学会 ヒューマンコミュニケーション基礎(HCS)研究会.
  40. 熊野史朗, 石井亮, 大塚和弘. (2017). 評定者個人に特化した他者感情理解モデル. 人工知能学会全国大会.
  41. Yokosaka, T, Tajima, S, Kuroki, S, Watanabe, J & Nishida, S (2017). Modeling Pleasantness Ratings for Touched Materials by Explorative Hand Motion. IEEE World Haptics 2017. Munich (Germany).
  42. Kuroki, S & Nishida, S (2017). Envelope wave modulates not only amplitude but also perceived frequency of carrier wave. IEEE World Haptics 2017. Munich (Germany).
  43. Chen, L. & Liao, H.-I. (2017). Cross-modal freezing effect: Evidence from eye tracking on audiovisual integration. the 18th Annual international Multisensory Research Forum (IMRF).
  44. Liao, H.-I., Chen, Y.-C., Kashino, M. & Shimojo, S. (2017). How does pupillary response contribute to interpersonal preference evaluation?. the 13th Asia-Pacific Conference on Vision (APCV).
  45. Liao, H.-I., Kashino, M. & Shimojo, S. (2017). Pupil constriction reflects not only facial attractiveness, but also appraisal evaluation for natural scenes. the 40th European Conference on Visual Perception (ECVP).
  46. Liao, H.-I., Nakatani, M., Miyazaki, H. & Furukawa, S. (2017). Correspondence between subjective frisson feeling and pupillary response by material sounds. 日本音響学会2017年秋季研究発表会.
  47. Liao, H.-I., Nakatani, M., Miyazaki, H. & Furukawa, S. (2017). Sensing frisson by material sounds. the 21st Annual Meeting of the Association for the Scientific Sutdy of Consciousness (ASSC).
  48. Liao, H.-I., Zhao, S., Chait, M., Kashino, M. & Furukawa, S. (2017). How the eyes detect acoustic transitions: A study of pupillary response to transitions between regular and random frequency patterns. Association for Research in Otolaryngology (ARO) 40th Annual MidWinter Meeting.
  49. Liao, H.-I., Zhao, S., Yoneya, M., Kashino, M., Chait, M. & Furukawa, S. (2017). Top-down modulation of pupillary response to auditory transitions. 第17回「脳と心のメカニズム」冬のワークショップ.
  50. Yuki, Oishi, Masahiro, Fujino, Vimala, Inoue, Michio, Nomura & Norimichi, Kitagawa (2017). Mindfulness study: the difference between the effects of focused attention and open monitoring meditation on autonomic and endocrinological activity. 第40回日本神経科学大会. 千葉.
  51. Ken, Watanabe, Yuuki, Ooishi & Makio, Kashino (2017). The effects of the interaction between acoustic tempo and basal heart rate on the autonomic nervous system2. 第40回日本神経科学大会. 千葉.
  52. Norimichi, Kitagawa, Masahiro, Fujino, Vimala, Inoue, Michio, Nomura & Yuuki, Ooishi (2017). Mindfulness meditation can weaken audiovisual integration in multisensory perception. Mind & Life Europe Summer Research Institute. Chiemsee (Germany).
  53. 松嵜達哉, 上野佳奈子, 大石悠貴, 添野結衣, 小林まおり. (2017). 音楽鑑賞における音場再現精度の心理・生理的効果. 2017年日本音響学会秋季研究発表会. 松山.
  54. Sawayama, M., Fukiage, T. & Nishida, S. (2017). Perceiving shape of thin translucent objects from spatial transmittance variation. Vision Sciences Society 17th Annual Meeting (VSS2012). Florida (USA).
  55. Takamuku, Shinya, Nagasawa, Tomoyuki & Gomi, Hiroaki (2017). Automatic adjustment of walking speed by optic flow benefits from binocular vision. Annual Meeting of the Society for Neuroscience.
  56. 高椋慎也, 永澤知幸, 五味裕章. (2017). オプティックフローによる歩行速度調節の恒常性. モーターコントロール研究会.
  57. Takamuku, Shinya, Forbes, Paul, Hamilton, Antonia & Gomi, Hiroaki (2017). Inverse dynamics computation in adults with autism - examination based on perceptual biases -. Winter workshop on mechanism of brain and mind.
  58. 寺島裕貴, 古川茂人. (2017). 自然残響の考慮による聴覚音声スパース符号化再考. 第31回人工知能学会全国大会 (JSAI2017). 名古屋.
  59. 上村卓也, 寺島裕貴, 古川茂人. (2017). 聴覚系モデルを用いた音のテクスチャ変換. 第31回人工知能学会全国大会 (JSAI2017). 名古屋.
  60. H Tsukano, S Ohga, M Horie, H Terashima, H Takebayashi & K Shibuki (2017). Tonotopic properties in the secondary auditory field are derived from structural organization of the ventral medial geniculate body and thalamocortical projections in mice. 第40回神経科学大会. 幕張.
  61. Terashima, Hiroki & Okada, Masato (2017). Using a V1 model to understand the disordered topography and ``complex'' pitch cells of A1. The 6th International Conference on Auditory Cortex (ICAC2017). Banff, Canada.
  62. 木原健, 近藤洋史, 寺島裕貴, 河原純一郎. (2017). 持続的注意に対する妨害刺激のフランカ干渉効果. 日本心理学会第81回大会. 久留米.
  63. Terashima, Hiroki & Furukawa, Shigeto (2017). Reconsidering the sparse coding model for the auditory periphery. 第27回日本神経回路学会全国大会 (JNNS2017). 北九州.
  64. 上村卓也, 寺島裕貴, 古川茂人. (2017). 深層ニューラルネットワークの聴覚神経生理学:音の振幅変調・時間スペクトル変調の表現. 第27回日本神経回路学会全国大会 (JNNS2017). 北九州.
  65. 寺島裕貴, 古川茂人. (2017). 自然音の考慮による聴覚末梢教師なし学習モデルの再考. 日本音響学会2017年秋季研究発表会. 愛媛大学.
  66. 上村卓也, 寺島裕貴, 古川茂人. (2017). 神経生理学的手法による深層ニューラルネットワークの周波数特性解析. 日本音響学会2017年秋季研究発表会. 愛媛大学.
  67. Watanabe, Junji (2017). Media Technologies for Education Workshops. International Display Workshops 2017. Sendai, JP.
  68. Watanabe, Junji (2017). Tactility for Communication and Well-being. International Display Workshops 2017. Sendai, JP.
  69. Tanoue, Tomo, Watanabe, Junji, Maeda, Taro & Ando, Hideyuki (2017). 3D communication system using slit light field. SIGGRAPH ASIA 2017. Bangkok, TH.
  70. Ando, Hideyuki, Watanabe, Junji, Chen, Dominick & Sakakura, Kyosuke (2017). Development of Information Technology Guidelines for Promoting Japanese-style Wellbeing. Science Centre World Summit. Tokyo, JP.
  71. Ueda, Tomoya, Miyagi, Takuya, Kuroda, Tsuyoshi, Watanabe, Junji, Suegami, Takashi, Daimoto, Hiroshi & Miyazaki, Makoto (2017). Cross-modal effects in speed judgments during virtual motorcycle riding. Neuroscience 2017 Washington, DC. Washington DC, US.
  72. Ando, Hideyuki, Watanabe, Junji, Chen, Dominick & Sakakura, Kyosuke (2017). Development of Information Technology Guidelines for Promoting Japanese-style Wellbeing. CHI Conference on Human Factors in Computing Systems 2017. Denver, US.
  73. Hashimoto, Yuki, Watanabe, Junji, Maeda, Taro & Ando, Hideyuki (2017). Tactile illusion of texture using vibration to a finger for active touch. IEEE World Haptics Conference 2011. Istanbul, TR.
  74. 渡邊 淳司. (2017). 情報と身体、コミュニケーション、ウェルビーイング. 人工知能学会合同研究会. 神奈川.
  75. 上田 誠也, 宮城 拓弥, 黒田 剛士, 渡邊 淳司, 末神 翔, 大本 浩司, 宮崎 真. (2017). 運転時のスピードの出し過ぎを、音と振動で防止する技術の可能性:自動二輪車搭乗中の速度判断における感覚間相互作用. 情報学シンポジウム2017. 静岡.
  76. 上田 誠也, 宮城 拓弥, 黒田 剛士, 渡邊 淳司, 末神 翔, 大本 浩司, 宮崎 真. (2017). 自動二輪車搭乗中の速度判断における感覚モダリティ間相互作用. 第40回 神経科学大会. 千葉.
  77. 辻 健太, 渡邊 淳司, 今井 むつみ. (2017). 触覚知覚・記憶におけるオノマトペの影響. 「注意と認知」研究会. 名古屋.
  78. 宮城 拓弥, 上田 誠也, 黒田 剛士, 渡邊 淳司, 末神 翔, 大本 浩司, 宮崎 真. (2017). 自動二輪車における視覚的速度判断に聴・触覚情報が与える影響. WiNF2016(第14回情報学ワークショップ). 名古屋.
  79. Yasu, Kentaro (2017). Magnetic Plotter: A Macrotexture Design Method Using Magnetic Rubber Sheets. ACM SIGGRAPH 2017 Studio. New York, NY, USA.
  80. Yasu, Kentaro (2017). Magnetic Plotter: A Macrotexture Design Method Using Magnetic Rubber Sheets. Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems. New York, NY, USA.
  81. 横坂拓巳, 渡邊淳司. (2017). 手の動きと結びついた触質感認知の研究. 2017年度人工知能学会全国大会(第31回). 名古屋, 日本.
  82. Nishida, Shinya (2017). Visual Material Perception (Rank Prize Lecture). European Conference on Visual Perception (ECVP2017). Berlin (Germany).
  83. 西田眞也, 吹上大樹, 河邉隆寛. (2017). 裸眼で画質が劣化しない二眼式ステレオに対する視覚情報処理. 日本視覚学会2017年夏季大会. 島根大学, 松江.
  84. 西田眞也. (2017). 脳を創る:人間と機械の質感認識. 第25回脳の世紀シンポジウム. 有楽町朝日ホール, 東京.
  85. 西田眞也, 吹上大樹, 澤山正貴, 河邉隆寛. (2017). 変幻灯:静止物が動いて見えるプロジェクションマッピング. 第42回 光学シンポジウム. 東京大学生産技術研究所, 東京.
  86. 西田眞也, 吹上大樹, 澤山正貴, 河邉隆寛. (2017). 錯視を利用して静止物体に動きを誘導する光投影技術. 日本光学会LDT技術研究会. 東京大学生産技術研究所, 東京.

Misc

  1. 雨宮智浩. (2017). 触覚・身体感覚の錯覚を活用した感覚運動情報の提示技術. 基礎心理学研究, 36 (1).
  2. 雨宮智浩. (2017). サイバー空間と実空間をつなぐ身体性と身体認知 ―北崎論文へのコメント―. 心理学評論, 59 (3), 324-329.
  3. 雨宮智浩. (2017). 錯覚を利用した情報提示デバイス. Clinical Neuroscience, 35 (2), 192-193.
  4. Kuroki, S (2017). Directional remapping in tactile motion perception. NTT technical review, 15 (1).
  5. 天野薫, 澤山正貴, 山本健太郎, 永井岳大. (2017). 日本視覚学会 若手の会主催 視覚実験プログラムワークショップ開催報告. Vision, 29 (2), 67-70.
  6. 澤山正貴, 岡部誠, 西田眞也, 土橋宜典. (2017). 質感認知研究のための実験手法:テクスチャ合成を用いた3次元形状の生成. The Japanese Journal of Psychonomic Science.
  7. 高椋慎也. (2017). 映像が生み出す疑似触知覚の計算論. システム/制御/情報, 61 (11).
  8. 寺島裕貴. (2017). 編集委員今年の抱負2017:脳の理解と僕達の限界と. 人工知能, 32 (1), 63.
  9. 寺島裕貴. (2017). ASCONE2011風間北斗先生講義録「嗅覚回路の配線図を電極のみで解き明かす」. 日本神経回路学会誌, 24 (2), 82-97.
  10. 渡邊 淳司. (2017). Haptic Designにおける Pseudo-haptics 技術の役割および表現分野での事例紹介. システム/制御/情報, 11, 459.
  11. 渡邊 淳司. (2017). テクノロジーを生態系として捉えるための基礎検討. 2, 16-20.
  12. 渡邊 淳司. (2017). ウェルビーイングのエコシステムを目指して. 53 (6), 38-42.

2016

論文

  1. 石井亮, 大塚和弘, 熊野史朗, 大和淳司. (2016). 複数人対話における頭部運動に基づく次話者の予測. 情報処理学会論文誌, 57 (4), 1116-1127.
  2. Ishii, R., Otsuka, K., Kumano, S. & Yamato, J. (2016). Prediction of Who Will Be the Next Speaker and When" using Gaze Behavior in Multi-Party Meetings. ACM Transaction on Interactive Intelligent Systems, 6 (1).
  3. 荒井隆行, 麦谷綾子. (2016). 子どもを取り巻く音環境と音声言語に関わる発達について. 日本音響学会誌, 72 (3), 129-136.
  4. Asai, T. (2016). Agency elicits body-ownership: proprioceptive drift toward a synchronously acting external proxy. Experimental Brain Research, 234 (5), 1163-1174.
  5. Izawa, J., Asai, T. & Imamizu, H. (2016). Computational motor control as a window to understanding schizophrenia. Neuroscience Research, 104, 44-51.
  6. 寺島裕貴. (2016). 音楽を軸に拡がる情報科学 12.音楽と脳科学. 情報処理, 57 (6), 541-543.
  7. 寺島裕貴. (2016). 脳の画像・音声処理の共通モデルによる理解―大脳新皮質の計算原理とスパース性―. 画像ラボ, 27 (1), 35-42.
  8. Otsuka, S., Tsuzaki, M., Sonoda, J., Tanaka, S. & Furukawa, S. (2016). A role of medial olivocochlear reflex as a protection mechanism from noise-induced hearing loss revealed in short-practicing violinists. PLoS ONE, 11 (1), e0146751.
  9. 雨宮智浩. (2016). 視触覚への過渡振動重畳による擬似衝突感覚の生成. 日本バーチャルリアリティ学会論文誌, 21 (2).
  10. Liao, H. I., Kidani, S., Yoneya, M., Kashino, M. & Furukawa, S. (2016). Correspondences among pupillary dilation response, subjective salience of sounds, and loudness. Psychonomic Bulletin & Review, 23 (2), 412-425.
  11. Liao, H.I., Yoneya, M., Kidani, S., Kashino, M. & Furukawa, S. (2016). Human pupillary dilation response to deviant auditory stimuli: Effects of stimulus properties and voluntary attention. Frontiers in Neuroscience, 10, 43.
  12. Amemiya, Tomohiro, Hirota, Koichi & Ikei, Yasushi (2016). Tactile Apparent Motion on the Torso Modulates Perceived Forward Self-Motion Velocity. IEEE Transactions on Haptics, 9 (4), 474-482.
  13. Amemiya, Tomohiro & Gomi, Hiroaki (2016). Active Manual Movement Improves Directional Perception of Illusory Force. IEEE Transactions on Haptics, 9 (4), 465-473.
  14. 雨宮智浩, 池井寧, 広田光一, 北崎充晃. (2016). 歩行を模擬した足底振動刺激による身体近傍空間の拡張. 日本バーチャルリアリティ学会論文誌, 21 (4), 627-633.
  15. 雨宮智浩. (2016). 視触覚への過渡振動重畳による擬似衝突感の生成. 日本バーチャルリアリティ学会論文誌, 21 (2), 381-384.
  16. 雨宮智浩, 広田光一, 池井寧. (2016). 着座型揺動装置のピッチ回転による擬似的な起伏形状知覚. 日本バーチャルリアリティ学会論文誌, 21 (2), 359-362.
  17. Yamagishi, S., Otsuka, S., Furukawa, S. & Kashino, M. (2016). Subcortical correlates of auditory perceptual organization in humans. Hearing Research, 339, 104-111.
  18. Otsuka, S., Furukawa, S., Yamagishi, S., Hirota, K. & Kashino, M. (2016). Relation between cochlear mechanics and performance of temporal-fine-structure based tasks. Journal of the Association for Research in Otolaryngology, 17, 541-557.
  19. Petsas, T., Harrison, J., Kashino, M., Furukawa, S. & Chait, M. (2016). The effect of distraction on change detection in crowded acoustic scenes. Hearing research, 341, 179-189.
  20. Ochi, Atsushi, Yamasoba, Tatsuya & Furukawa, Shigeto (2016). Contributions of coding efficiency of temporal-structure and level information to lateralization performance in young and early-elderly listeners. Advances in Experimental Medicine and Biology, 894, 19-28.
  21. 高椋慎也, 雨宮智浩, 伊藤翔, 五味裕章. (2016). VR魚釣りにおける牽引力錯覚の表現と応用. ヒューマンインタフェース学会論文誌, 18 (2), 87-94.
  22. Sakurada, T., Ito, K. & Gomi, H. (2016). Bimanual motor coordination controlled by cooperative interactions in intrinsic and extrinsic coordinates. Eur J Neurosci, 43 (1), 120-30.
  23. De Havas, J., Ghosh, A., Gomi, H. & Haggard, P. (2016). Voluntary motor commands reveal awareness and control of involuntary movement. Cognition, 155, 155-67.
  24. Kawabe, Takahiro, Fukiage, Taiki, Sawayama, Masataka & Nishida, Shin'ya (2016). Deformation Lamps: A Projection Technique to Make Static Objects Perceptually Dynamic. ACM Trans. Appl. Percept., 13 (2), 10: 1-10: 17.
  25. Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano & Junji Yamato (2016). Using Respiration of Who Will be the Next Speaker and When in Multiparty Meetings. ACM Trans. Interactive Intelligent Systems (TiiS), 6 (2), Article No. 20.
  26. 石井亮, 大塚和弘, 熊野史朗, 大和淳司. (2016). 複数人対話における頭部運動に基づく次話者の予測. 情報処理学会論文誌, 57 (4), 1116-1127.
  27. Kuroki, S, Hagura, N, Nishida, S, Haggard, P & Watanabe, J (2016). Sanshool on The Fingertip Interferes with Vibration Detection in a Rapidly-Adapting (RA) Tactile Channel. PLOS ONE, 11 (12), e0165842.
  28. Kawabe, Takahiro, Fukiage, Taiki, Sawayama, Masataka & Nishida, Shinya (2016). Deformation lamps: A projection technique to make static objects perceptually dynamic. ACM Transactions on Applied Perception (TAP), Volume 13 (Issue 2), Article No. 10.
  29. 永原 宙, 森永 さよ, 渡邊 淳司. (2016). 人間のカテゴリ分類特性を利用した触感選択法. 日本バーチャルリアリティ学会論文誌, 21, 533-536.
  30. 川瀬 佑司, 吉田 成朗, 鳴海 拓志, 上田 祥代, 池田 まさみ, 渡邊 淳司, 谷川 智洋, 川本 哲也, 廣瀬 通孝. (2016). Mob Scene Filter: 顔部位の形状・位置変形を利用した他人顔変換手法. 日本バーチャルリアリティ学会論文誌, 21, 483-492.
  31. Sato Goto, Takashi, Watanabe, Junji & Takehiro, Moriya (2016). Presenting changes in acoustic features synchronously to respiration alters the affective evaluation of sound. International Journal of Psychophysiology, 110, 179-186.
  32. Kuroki, Scinob, Hagura, Nobuhiro, Nishida, Shin'ya, Patrick Haggard & Watanabe, Junji (2016). Sanshool on the fingertip interferes with vibration detection in a rapidly-adapting (RA) tactile channel. PLOS ONE, 11(12) (e0165842), 1-12.
  33. Kuroki, Scinob, Watanabe, Junji & Nishida, Shin'ya (2016). Neural timing signal for precise tactile timing judgments. Journal of Neurophysiology, 115, 1620-1629.
  34. 坂本 真樹, 田原 拓也, 渡邊 淳司. (2016). オノマトペ分布図を利用した触感覚の個人差可視化システム. 日本バーチャルリアリティ学会論文誌, 21, 213-216.
  35. Iida, Naoki, Kuroki, Scinob & Watanabe, Junji (2016). Comparison of tactile temporal numerosity judgments between unimanual and bimanual presentations. Perception, 45, 99-113.
  36. Amano, Kaoru, Qi, Liang, Terada, Yoshikazu & Nishida, Shinya (2016). Neural correlates of the time marker for the perception of event timing. eNeuro, 3 (4), ENEURO-0144.
  37. Hisakata, Rumi, Nishida, Shinya & Johnston, Alan (2016). An adaptable metric shapes perceptual space. Current Biology, 26 (14), 1911-1915.
  38. Rider, Andrew T., Nishida, Shinya & Johnston, Alan (2016). Multiple-stage ambiguity in motion perception reveals global computation of local motion directions. Journal of Vision, 16(15): 7, 1-11.
  39. 西田眞也. (2016). 視覚科学における分野融合 (特集 脳科学と心理学 (1) 幸せな相乗効果を求めて). 心理学ワールド, (73), 5-8.
  40. 林隆介, 横山裕樹, 渡部修, 西田眞也. (2016). 運動視処理における時間・空間周波数チャンネル間の非線形相互作用解析. VISION, 28 (1), 17-30.

書籍

  1. 廣谷定男. (2016). 聴覚フィードバック. 日本音響学会 (Eds.), 音響キーワードブック. コロナ社.
  2. 北川智利. (2016). 非音声知覚における視聴覚情報の統合処理. 株式会社誠信書房.
  3. Ikei, Yasushi, Hirota, Koichi, Amemiya, Tomohiro & Kitazaki, Michiteru (2016). Five Senses Theater: A Multisensory Display for the Bodily Ultra-Reality. Emotional Engineering Volume 4. Springer International Publishing.
  4. 渡邊淳司, 黒木忍. (2016). 触れて感じる質感. 質感の科学 ―知覚・認知メカニズムと分析・表現の技術―. 朝倉書店.
  5. 麦谷綾子. (2016). 第5章言語の発達Ⅰ; 第6章言語の発達Ⅱ; 第12章音楽認知の発達. 乳幼児心理学改訂版. 放送大学教育振興会.
  6. 麦谷綾子. (2016). 対乳児発話. 音響キーワードブック. 日本音響学会編.
  7. 麦谷綾子. (2016). 赤ちゃんと音楽. 1-6音楽への感受性の育ち方; 2-2乳幼児期の音声言語の発達;2-4言語と歌の相互発達. 第一法規出版.
  8. 麦谷綾子. (2016). よくわかる言語発達[改訂新版]. 音韻知覚の発達. ミネルヴァ書房.
  9. 渡邊 淳司, 黒木 忍. (2016). 2.2 触れて感じる質感. 質感の科学 -知覚・認知メカニズムと分析・表現の技術-. (pp.40-50). 朝倉書店.
  10. 坂本 真樹, 渡邊 淳司. (2016). 5.3 質感の言語表現. 質感の科学 -知覚・認知メカニズムと分析・表現の技術-. (pp.194-208). 朝倉書店.
  11. 西田眞也, 本吉勇, 澤山正貴. (2016). 2.1 見て感じる質感 (小松英彦編集). 質感の科学. 朝倉書店.
  12. 西田眞也, 藤崎和香. (2016). 2.3 多感覚の接点としての質感 (小松英彦編集). 質感の科学. 朝倉書店.

会議

  1. 石井亮. (2016). 複数人対話において“次に誰が?いつ?話すか”を予測する. (電子情報通信学会ヴァーバル・ノンヴァーバル研究会(第51回VNV研究会)).
  2. Ishii, R., Kumano, S. & Otsuka, K. (2016). Prediction of Next-Utterance Timing using Head Movement in Multi-Party Meetings. (INTERSPEECH).
  3. Otsuka, K. (2016). MMSpace: Kinetically-augmented telepresence for small group-to-group conversations. (IEEE Virtual Reality 2016 (VR2016)).
  4. 大石悠貴. (2016). 自律神経系・内分泌系の活動を示す生体反応. (日本音響学会2016年春季研究発表会 技術動向レビュー).
  5. 寺島裕貴, 古川茂人. (2016). 乳幼児自然発話スパースコーディングモデルの検証. (脳と心のメカニズム第16回冬のワークショップ).
  6. 古川茂人. (2016). 身体から読み取る「聞こえ」. (HCC研究会 平成28年度新年互礼会).
  7. 大塚翔, 津崎実, 田中里弥, 園田順子, 古川茂人. (2016). 強大音への暴露が周波数追従反応に与える影響:バイオリニストを 対象にした検討. (日本音響学会春季研究発表会).
  8. 古川茂人. (2016). 「隠れた難聴」とその評価. (日本音響学会春季研究発表会).
  9. Furukawa, S. (2016). Natural combinations of interaural time and level differences in realistic auditory scenes. (39th ARO Midwinter Meeting).
  10. Terashima, H. & Furukawa, S. (2016). A developmental analysis of infant vocalizations under a sparse-code framework. (39th ARO Midwinter Meeting).
  11. Otsuka, S., Tsuzaki, M., Tanaka, S., Sonoda, J. & Furukawa, S. (2016). Temporary effect of short-duration acoustic exposure on human frequency following responses. (39th ARO Midwinter Meeting).
  12. Yamagishi, S., Otsuka, S., Furukawa, S. & Kashino, M. (2016). Comparison of properties of perceptual switching in auditory streaming based on spectral and temporal cues. (39th ARO Midwinter Meeting).
  13. Kumano, S., Otsuka, K., Matsuda, M. & Yamato, J. (2016). Analyzing Empathy in Multiparty Conversation via Collective Impressions. (Winter Workshop on Mechanism of Brain and Mind 2016 (「脳と心のメカニズム」冬のワークショップ 2016)).
  14. Liao, H. I., Shimojo, S. & Kashino, M. (2016). The role of pupil constriction in attractiveness judgment. (第16回「脳と心のメカニズム」冬のワークショップ).
  15. Liao, H. I., Yoneya, M., Furukawa, S. & Kashino, M. (2016). Detecting variations in music by pupil. (39th ARO Midwinter Meeting).
  16. 廣谷定男, Jasmin K., Evans S., Krishnan S., Lima C., Ostarek M., Boebinger D., Scott S.K. (2016). 非母語発話リズム音声聴取時における脳機能計測. (日本音響学会 2016年春季研究発表会).
  17. Takamuku, S., Hamilton, A. & gomi, H. (2016). Visual perception of interaction forces involved in observed dynamic actions. (脳と心のメカニズム 第16回冬のワークショップ Winter Workshop on Mechanism of Brain and Mind.).
  18. 雨宮智浩. (2016). 錯覚から探る人間の情報処理の仕組みの解明とその応用. (東京大学 情報理工学系研究科 R2P, Global Design Seminar).
  19. Amemiya, T., Hirota, K. & Ikei, Y. (2016). Topographic surface perception modulated by pitch rotation of motion chair. (18th International Conference on Human-Computer Interaction (HCI International 2016)).
  20. Ikei, Yasushi, Kato, Shunki, Komase, Kohei, Imao, Shogo, Sakurai, Sho, Amemiya, Tomohiro, Kitazaki, Michiteru & Hirota, Koichi (2016). Vestibulohaptic passive stimulation for a walking sensation. IEEE VR.
  21. Amemiya, Tomohiro, Takamuku, Shinya & Gomi, Hiroaki (2016). Changes in direction discriminability of illusory force after adaptation to skin stretch. Eurohaptics 2016.
  22. Saka, Naoyuki, Ikei, Yasushi, Amemiya, Tomohiro, Hirota, Koichi & Kitazaki, Michiteru (2016). Passive Arm Swing Motion for Virtual Walking Sensation. The 26th International Conference on Artificial Reality and Telexistence and the 21st Eurographics Symposium on Virtual Environment (ICAT-EGVE '16). Goslar Germany, Germany.
  23. Fukiage, Taiki, Kawabe, Takahiro & Nishida, Shin'ya (2016). Interactive Editing and Automatic Projection of Motion Impression on Real-World Objects. The 24th International Display Workshops. Fukuoka, Japan.
  24. Fukiage, Taiki, Kawabe, Takahiro & Nishida, Shin'ya (2016). A model of V1 metamer can explain perceived deformation of a static object induced by light projection. Vision Sciences Society 16th Annual Meeting (VSS2016). St. Pete Beach (Florida, US).
  25. 吹上大樹, 河邉隆寛, 西田眞也. (2016). 静止対象への光投影によって付与される運動印象の予測モデルの提案. 日本視覚学会2016年冬季大会. 東京.
  26. Otsuka, S. & Furukawa, S. (2016). Conversion of amplitude modulation to phase modulation on the basilar membrane and its implication in the perceptual consequences of disrupted temporal coding. 5th Joint Meeting of Acoustical Society of America and Acoustical Society of Japan. Honolulu, HI.
  27. Yamagishi, S., Otsuka, S., Furukawa, S. & Kashino, M. (2016). Comparison of brainstem frequency-following responses associated with auditory streaming based on spectral and temporal cues. 5th Joint Meeting of Acoustical Society of America and Acoustical Society of Japan. Honolulu, HI.
  28. 米家惇, Liao H.I., 古川茂人, 柏野牧夫. (2016). 眼球運動および瞳孔径計測に基づく音の快不快の推定. 人工知能学会全国大会.
  29. 大塚翔, 古川茂人. (2016). 聴覚末梢における振幅変調-位相変調変換:耳音響放射を用いた検討. 日本聴覚医学会 内耳ひずみ研究会.
  30. 古川 茂人. (2016). 聴覚研究のための基礎知識. 日本音響学会第 18回サマーセミナー「音響学の基礎と最近のトピックス」. 白馬.
  31. 古川 茂人. (2016). ざっくりわかる聴覚生理. 日本音響学会春季研究発表会スペシャルセッション. 富山.
  32. 大塚翔, 古川茂人. (2016). 楽器演奏中の強大音への暴露が周波数追随反応に与える一過性の影響. 第61回日本聴覚医学会総会・学術講演会.
  33. 古川 茂人. (2016). 現実的な環境における両耳手がかりの統計的特性. 日本音響学会聴覚研究会.
  34. Liao, H.I., Kashino, M. & Furukawa, S. (2016). Pupillary Responses Reveal an Asymmetry of Transition Detection between Regular and Random Frequency Patterns. 日本音響学会聴覚研究会.
  35. 上村卓也, 古川 茂人. (2016). 打撃音による材質知覚-残響とその提示文脈が与える影響-. 日本音響学会聴覚研究会.
  36. 安部川直稔, 五味裕章, Diedrichsen Joern. (2016). 課題要求に応じて調節される運動遂行中の眼と腕の協調関係.
  37. 安部川直稔, Ferre Elisa, Gallagher Maria, 五味裕章, Haggard Patrick. (2016). 身体座標表現への前庭情報の寄与.
  38. 伊藤翔, 五味裕章. (2016). 視覚空間上の自己運動表現が体性感覚性応答に与える影響. 第10回 Motor Control 研究会.
  39. 上田大志, 安部川直稔, 五味裕章. (2016). 眼球運動における錯覚されたターゲット位置表現の時間変化.
  40. Takamuku, Shinya, Teshima, Tetsuhiko, Amemiya, Tomohiro & Gomi, Hiroaki (2016). Does proprioceptive information contribute to illusory force sensation elicited by asymmetric vibration. Annual Meeting of the Society for Neuroscience.
  41. Ito, Sho & Gomi, Hiroaki (2016). Impact of changes in visual feedback on long-latency stretch reflex during visually guided movement. 第16回 脳と心のメカニズム 冬のワークショップ.
  42. Gomi, Hiroaki, Ito, Sho, Amemiya, T & Takamuku, S (2016). Ungrounded 6-dof force display by asymmetric vibration: `Buru-Navi4 CubicForce 6D'.
  43. Abekawa, Naotoshi, Gomi, Hiroaki & Diedrichsen, Joern (2016). Task demands change online coordination of eye and hand movements.
  44. Abekawa, Naotoshi, Ferre, Elisa, Gallagher, Maria, Gomi, Hiroaki & Haggard, Patrick (2016). Modulation of egocentric spatial frames of references by vestibular stimulation.
  45. Hiroya, Sadao, Jasmin, Kyle, Krishnan, Saloni, Lima, Cesar, Ostarek, Markus, Boebinger, Dana & Scott, Sophie K. (2016). Speech rhythm measure of non-native speech using a statistical phoneme duration model. the 8th Annual Meeting of the Society for the Neurobiology of Language.
  46. Gomi, Hiroaki, Ito, Sho, Amemiya, Tomohiro & Takamuku, Shinya (2016). Ungrounded 6-dof force display by asymmetric vibration: `Buru-Navi4 CubicForce 6D. EuroHaptics.
  47. Kawabe, Takahiro & Nishida, Shin'ya (2016). Seeing Jelly: Judging Elasticity of a Transparent Object. Proceedings of the ACM Symposium on Applied Perception. New York, NY, USA.
  48. Kawano, Hiroshi (2016). Full Resolution Reconfiguration Planning for Heterogeneous Cube-shaped Modular Robots with only Sliding Motion Primitive. 2016 IEEE International Conference on Robotics and Automation (ICRA 2016). Stockholm, Sweden.
  49. Ryo Ishii, Shiro Kumano & Kazuhiro Otsuka (2016). Analyzing mouth-opening transition pattern for predicting next speaker in multi-party meetings. International Conference on Multimodal Interaction (ICMI 2016).
  50. Kuroki, S (2016). Motion system in touch. 17th International Multisensory Research Forum. Suzhou, China.
  51. Liao, H.-I., Shimojo, S. & Kashino, M. (2016). Reading appraisal of faces via pupillary responses. the Annual Meeting of Taiwanese Psychology Association.
  52. Liao, H.-I., Yoneya, M., Kidani, S., Barascud, N., Zhao, S., Chait, M., Kashino, M. & Furukawa, S. (2016). Detecting auditory changes by pupillary response. the ASA-ASJ Joint Meeting.
  53. 大石悠貴. (2016). “技術動向レビュー:自律神経系・内分泌系の活動を示す生体反応”. 2016年日本音響学会春季研究発表会. 横浜.
  54. Yuuki, Ooishi, Maori, Kobayashi, Kanako, Ueno & Makio, Kashino (2016). The effect of the acoustical presence of music on autonomic response. 10th FENS Forum of Neuroscience. Copenhagen (Denmark).
  55. Ken, Watanabe, Yuuki, Ooishi & Makio, Kashino (2016). The entrainment of heart rate to acoustic tempo. 10th FENS Forum of Neuroscience. Copenhagen (Denmark).
  56. Sawayama, M., Shinya, M. & Nishida, S. (2016). Perception of super-fine structures based on image intensity statistics. Vision Sciences Society 16th Annual Meeting (VSS2012). Florida (USA).
  57. 澤山正貴, 吹上大樹, 西田眞也. (2016). 透過率の空間的な不均質さを手がかりとして生じる透明面の質感知覚. 日本視覚学会2016年冬季大会. 東京都新宿区.
  58. 澤山正貴, 西田眞也. (2016). 情景画像の色特徴に基づく表面湿り度知覚. 日本色彩学会視覚情報基礎研究会. 千葉県千葉市.
  59. Amemiya, Tomohiro, Takamuku, Shinya & Gomi, Hiroaki (2016). Changes in direction discriminability of illusory force after adaptation to skin stretch. Eurohaptics.
  60. 寺島裕貴. (2016). 大脳新皮質の原理理解に向けた計算論的領野比較. 第30回人工知能学会全国大会 (JSAI2016). 北九州.
  61. Hiroki Terashima (2016). Sparse coding strategy shared by auditory and visual cortices. CNRS-NTT Joint Seminar 2016. Fontainebleau, France.
  62. Watanabe, Junji (2016). Toward "Haptic Design": Psychological foundations and practices. ERC PATCH Closing Workshop on Computational Touch. Paris, FR.
  63. Sato, Takao & Watanabe, Junji (2016). Media Technology and Psychology (Workshop organizer). International Congress of Psychology 2016. Yokohama, JP.
  64. Watanabe, Junji (2016). Tactility for understanding and producing information. International Congress of Psychology 2016. Yokohama, JP.
  65. Watanabe, Junji (2016). Interactions between Physical and Semantic Temperature. Euro Haptics2016. London, GB.
  66. Ho, Hsin-Ni, Sato, Katsunari, Kuroki, Schinob, Watanabe, Junji, Maeno, Takashi & Nishida, Shin'ya (2016). Perceptual representation of dynamic thermal stimulation. Euro Haptics2016. London, GB.
  67. Zhou, Yizhen, Ho, Hsin-Ni & Watanabe, Junji (2016). Interactions between Physical and Semantic Temperature. IMRF2016 17th International Multisensory Research Forum. Suzhou, CH.
  68. Kosohara, Mai, Watanabe, Junji, Hiranuma, Yasuaki, Doizaki, Ryuichi, Matsuda, Takahide & Sakamoto, Maki (2016). A system to visualize tactile perceptual space of young and old people. AAAI 2016 SPRING SYMPOSIA. Palo Alt, US.
  69. 佐治 伸郎, 渡邊 淳司. (2016). 記号接地の原動力としての仮説形成推論. 日本認知科学会第33回大会. 北海道.
  70. 植月 美希, 渡邊 淳司, 安藤 英由樹, 丸谷 和史. (2016). 聴覚障害者における豊かな読み体験の実現. 日本教育工学会第32回全国大会. 大阪.
  71. 筧 康明, 馬場 哲晃, 渡邊 英徳, 長谷川 晶一, 渡邊 淳司, 岩井 大輔, 本多 達也. (2016). アート&エンタテインメントとオープンイノベーション 〜個人・地域・異分野と結びつくVRの可能性〜. 日本バーチャルリアリティ学会第21回大会. つくば.
  72. 永原 宙, 渡邊 淳司. (2016). カテゴリ分類とMDS(多次元尺度構成法)に基づく知覚特性に対応した刺激空間構成法に関する考察. 2016年度人工知能学会全国大会(第30回). 北九州.
  73. 坂本 真樹, 渡邊 淳司. (2016). 質感と感性. 2016年度人工知能学会全国大会(第30回). 北九州.
  74. 田之上 朋, 渡邊 淳司, 前田 太郎, 安藤 英由樹. (2016). マルチスリット視における自己運動を利用した静止物体の知覚特性. 電子情報通信学会ヒューマンコミュニケーション基礎(HCS)2016年5月研究会. 沖縄.
  75. Yamagishi, Shimpei, Otsuka, Sho, Furukawa, Shigeto & Kashino, Makio (2016). Comparison of brainstem frequency-following responses associated with auditory streaming based on spectral and temporal cues. 5th Joint Meeting of the Acoustical Society of America and the Acoustical Society of Japan. Honolulu, Hawaii, USA.
  76. Nishida, Shinya (2016). Motion perception: From a dark room to the real world. Aisa Paific Conference on Vision (APCV2016). Fremantle (Australia).
  77. Nishida, Shinya, Kawabe, Takahiro, Fukiage, Taiki & Sawayama, Masataka (2016). Animating Static Objects by Illusion-Based Projection Mapping. IDW/AD'16. Fukuoka (Japan).
  78. Hayashi, Ryusuke, Yokoyama, Hiroki, Watanabe, Osamu & Nishida, Shinya (2016). A new analytical method for characterizing nonlinear visual processes. The 39th European Conference on Visual Perception (ECVP 2016). Barcelona (Spain).
  79. Nishida, Shinya (2016). Perception of material properties. 31st International Congress of Psychology (ICP 2016). Yokohama (Japan).
  80. 西田眞也, Rider A, Johnston A. (2016). Global solution of the motion aperture problem. 日本視覚学会2016年夏季大会. 朱鷺メッセ, 新潟.
  81. 林隆介, 横山裕樹, 渡部修, 西田眞也. (2016). 渡部の非線形モデル推定法を用いた運動視処理における時間・空間周波数統合メカニズムの解析. 日本視覚学会2016年冬季大会. 工学院大学, 東京.

Misc

  1. Yamada,T., Takahashi, S., Naya, S., Ikebe, T. & Furukawa, S. (2016). Artificial Intelligence Research Activities and Directions in the NTT Group. NTT Technical Review, 14 (5).
  2. Furukawa, S., Yoneya, M., Liao, H.I. & Kashino, M. (2016). The Eyes as an Indicator of the Mind?A Key Element of Heart-Touching-AI. NTT Technical Review, 14 (5).
  3. 古川茂人. (2016). 耳で感じる気配のヒミツ―音が消えることは、物があること?. 触感コンテンツ専門誌ふるえ, 6.
  4. 古川茂人. (2016). 聴覚の時間情報処理. Audiology Japan, 59 (6), 615-622.
  5. Ho, H.-N. (2016). Influence of Object Geometry on Skin Temperature Responses during Hand-Object Interactions. 9774, 281-290.
  6. 古川茂人, 米家惇, Liao H.-I., 柏野牧夫. (2016). 眼から読み取る心の動き―Heart-Touching-AIのキー技術. NTT技術ジャーナル, 28, 22-25.
  7. 麦谷綾子. (2016). 乳幼児の母語音声システムの獲得過程. 教育オーディオロジー研究, 9, 1-12.
  8. 麦谷綾子. (2016). 子どもを取り巻く音環境と音声言語に関わる発達について. 日本音響学会誌, 72, 129-136.
  9. 渡邊 淳司. (2016). 藤木淳の”世界製作の方法”_Ways of worldmaking by Jun Fujiki. 「Primitive order:組成される感覚/世界」展: document book, 66-71.
  10. 渡邊 淳司. (2016). 事後的な意味生成を促進する情報技術に関する考察. モノ学感覚価値研究, 10, 28-29.
  11. 下條 信輔. (2016). . 触覚の知性、体感の快楽 情報社会だからこそ注目される皮膚感覚.
  12. 小川 奈美, 福島 宙輝. (2016). 学生フォーラム 第83回 渡邊淳司先生インタビュー「例外として生きていく」. 人口知能学会学会誌「人口知能」, 31 (4).
  13. 筧 康明, 渡邊 淳司, 長谷川 晶一, 渡邉 英徳, 馬場 哲晃, 岩井 大輔. (2016). VR を通した20年後のアート&エンタテインメント. 日本バーチャルリアリティ学会誌, 21 (3).
  14. 筧 康明, 渡邊 淳司, 岩井 大輔, 長谷川 晶一, 馬場 哲晃, 平林 真実. (2016). 「アート&エンタテインメント4」特集号刊行にあたって. 日本バーチャルリアリティ学会論文誌, 21 (3), 399-400.

2015

論文

  1. Ishii, R., Otsuka, K., Kumano, S. & Yamato, J. (2015). Prediction of "Who Will Be Next Speaker and When" in Multi-Party Meetings. NTT Technical Review, 13 (7).
  2. Asai, T. (2015). Feedback control of one's own action: self-other sensory attribution in motor control. Consciousness and Cognition, 38, 118-129.
  3. Imaizumi, S. & Asai, T. (2015). Dissociation of agency and body ownership following visuomotor temporal recalibration. Frontiers in Integrative Neuroscience., 9, 35.
  4. Ujiie, Y., Asai, T. & Wakabayashi, A. (2015). The relationship between level of autistic traits and local bias in the context of the McGurk effect. Frontiers in Psychology, 6: 891.
  5. Ujiie, Y., Asai, T., Tanaka, A. & Wakabayashi, A. (2015). The McGurk effect and autistic traits; an analogue perspective. Letters on Evolutionary Behavioral Science, 6 (2), 9-12.
  6. Yoshimoto, S., Takeuchi, T., Shimada, Y., Kochiyama, T. & Kondo, H.M. (2015). Neurotransmitter concentrations in the brain and visual motion assimilation/contrast. 基礎心理学研究, 34 (1), 201-202.
  7. Kihara, K., Takeuchi, T., Yoshimoto, S., Kondo, H.M. & Kawahara, J.I. (2015). Pupillometric evidence for the locus coeruleus-noradrenaline system facilitating attentional processing of action-triggered visual stimuli. Frontiers in Psychology, 6 (827).
  8. Yokosaka, T., Kuroki, S., Nishida, S. & Watanabe, J. (2015). Apparent time interval of visual stimuli is compressed during fast hand movement. PLOS ONE, 10 (4), e0124901.
  9. Oohashi, H., Hiroya, S. & Mochida, T. (2015). Real-time robust formant estimation system using a phase equalization-based autoregressive exogenous model. Acoustical Science and Technology, 36 (6), 478-488.
  10. Takamuku, S. & Gomi, H. (2015). What you feel is what you see: inverse dynamics estimation underlies the resistive sensation of a delayed cursor. Proceedings. Biological sciences / The Royal Society, 282 (1811).
  11. De Havas, J., Ghosh, A., Gomi, H. & Haggard, P. (2015). Sensorimotor organization of a sustained involuntary movement. Frontiers in behavioral neuroscience, 9, 185.
  12. I-Fan, L., Yamada, T., Komine, Y., Kato, N., Kato, M. & Kashino, M. (2015). Vocal identity recognition in autism spectrum disorder. PLOS ONE.
  13. Kondo, H.M., Nomura, M. & Kashino, M. (2015). Different roles of the COMT and HTR2A genotypes in working memory subprocesses. PLOS ONE, 10 (5), e0126511.
  14. Ukezono, M., Nakashima, S.F., Sudo, R., Yamazaki, A. & Takano, Y. (2015). The combination of perception of other individuals and exogenous manipulation of arousal enhances social facilitation: re-examination of Zajonc's drive theory. Frontiers in Psychology.
  15. Fleming, R. W., Gegenfurtner, K. R. & Nishida, S. (2015). Visual perception of materials: The science of stuff. Vision Research, 109, 123-124.
  16. Kuehn, E., De Havas, J., Silkoset, E., Gomi, H. & Haggard, P. (2015). On the bimanual integration of proprioceptive information. Experimental Brain Research, 233, 1273-1288.
  17. Yamada, Y., Kawabe, T. & Miyazaki, M. (2015). Awareness shaping or shaped by prediction and postdiction: Editorial. Frontiers in Psychology, 6 (166).
  18. Sawayama, M. & Kimura, E. (2015). Stain on texture: Perception of a dark spot having a blurred edge on textured backgrounds. Vision Research, 109, 209-220.
  19. Roseboom, W., Linares, D. & Nishida, S. (2015). Sensory adaptation for timing perception. Proceedings of the Royal Society B: Biological Sciences, 282 (1805).
  20. Paulun, V. C., Kawabe, T., Nishida, S. & Fleming, R.W. (2015). Seeing liquids from static snapshot. Vision Research.
  21. Kumano, S., Otsuka, K., Mikami, D., Matsuda, M. & Yamato, J. (2015). Analyzing Interpersonal Empathy via Collective Impressions. IEEE Transactions on Affective Computing(TAFFC), 6 (4), 324-336.
  22. Kanaya, S., Fujisaki, W., Nishida, S., Furukawa, S. & Yokosawa, K. (2015). Effects of frequency separation and diotic/dichotic presentations on the alternation frequency limits in audition derived from a temporal phase discrimination task. Perception, 44 (2), 198-214.
  23. Nakashima, S.F., Ukezono, M., Nishida, H., Sudo, R. & Takano, Y. (2015). Receiving of emotional signal of pain from conspecifics in laboratory rats. Royal Society Open Science.
  24. Abekawa, N. & Gomi, H. (2015). Online gain update for manual following response accompanied by gaze shift during arm reaching. Journal of Neurophysiology, 113 (4), 1206-1216.
  25. Huang, T.-H., Yeh, S.L., Yang, Y.H., Liao, H.I., Tsai, Y.-Y., Chang, P.-J. & Chen, H. H. (2015). Method and experiments of subliminal cueing for real-world images. Multimedia Tools and Applications, 74 (22), 10111-10135.
  26. Ho, H.-N. (2015). Color-temperature correspondence: Its nature and its impact on object temperature perception. NTT Technical Review, 13 (1).
  27. Paulun, Vivian C., Kawabe, Takahiro, Nishida, Shin'ya & Fleming, Roland W. (2015). Seeing liquids from static snapshots. Vision Research, 115, Part B, 163-174.
  28. Kawabe, Takahiro (2015). Delayed Visual Feedback of One's Own Action Promotes Sense of Control for Auditory Events. Frontiers in Integrative Neuroscience, 57.
  29. Kawabe, Takahiro, Maruya, Kazushi & Nishida, Shin'ya (2015). Perceptual transparency from image deformation. Proceedings of the National Academy of Sciences, 112 (33), E4620-E4627.
  30. Kawabe, Takahiro, Maruya, Kazushi, Fleming, Roland W. & Nishida, Shin'ya (2015). Seeing liquids from visual motion. Vision Research, 109, Part B, 125-138.
  31. Kato, Masaharu & Mugitani, Ryoko (2015). Pareidolia in infants. PloS one, 10 (2), e0118539.
  32. Watanabe, Ken, Ooishi, Yuuki & Kashino, Makio (2015). Sympathetic Tone Induced by High Acoustic Tempo Requires Fast Respiration. PloS one, 10 (8), e0135589.
  33. Sakamoto, Maki & Watanabe, Junji (2015). Cross-modal associations between sounds and drink tastes/textures: A study with spontaneous production of sound-symbolic words. Chemical Senses, 41 (3), 197-203.
  34. Ho, Hsin-Ni, Iwai, Daisuke, Yoshikawa, Yuki, Watanabe, Junji & Nishida, Shin'ya (2015). Impact of hand and object colors on object temperature perception. Temperature, 2 (3), 344-345.
  35. Yokosaka, Takumi, Kuroki, Scinob, Nishida, Shin'ya & Watanabe, Junji (2015). Apparent time interval of visual stimuli is compressed during fast hand movement. PLOS ONE, 10(4) (e0124901).
  36. Yang, Jiale, Watanabe, Junji, Kanazawa, So, Nishida, Shin'ya & Yamaguchi, K. Masami (2015). Infants' visual system non-retinotopically integrates color signals along motion trajectory. Journal of Vision, 15(1) (25), 1-10.
  37. 鍵谷 龍樹, 白川 由貴, 土斐崎 龍一, 渡邊 淳司, 丸谷 和史, 河邉 隆寛, 坂本 真樹. (2015). 動画と静止画から受ける粘性印象に関する音象徴性の検討. 人工知能学会論文誌, 30 (1), 237-245.
  38. Fleming, Roland W, Nishida, Shin'ya & Gegenfurtner, Karl R (2015). Perception of material properties. Vision Research, 115 (PB), 157-162.
  39. Terao, Masahiko, Murakami, Ikuya & Nishida, Shin'ya (2015). Enhancement of motion perception in the direction opposite to smooth pursuit eye movement. Journal of Vision, 15 (13), 2-11.

会議

  1. 石井亮, 大塚和弘, 熊野史朗, 大和淳司. (2015). 複数人対話での視線交差のタイミング構造に基づく次話者と発話開始タイミングの予測. (人工知能学会全国大会(第29回)).
  2. 石井亮, 熊野史朗, 大塚和弘. (2015). 複数人対話における視線交差と呼吸動作に基づく次話者と発話開始の予測. (HCGシンポジウム2015).
  3. Ishii, R., Ozawa, S., Kojima, A., Otsuka, K., Hayashi, Y. & Nakano, Y. (2015). Design and Evaluation of Mirror Interface MIOSS to Overlay Remote 3D Spaces. (IFIP International Conference on Human-Computer Interaction (INTERACT 2015)).
  4. Ishii, R., Otsuka, K. & Kumano, S. (2015). Multimodal Fusion using Respiration and Gaze for Predicting Next Speaker in Multi-Party Meetings. (International Conference on Multimodal Interaction (ICMI 2015)).
  5. 中村暢佑, 麦谷綾子, 渡邊淳司. (2015). 視聴覚の言語処理における音韻処理のちがい:促音・非促音弁別課題を用いた検討. (日本基礎心理学会第34回大会).
  6. 中村暢佑, 麦谷綾子, 渡邊淳司. (2015). 入力モダリティによる音韻表象のちがい:促音・非促音の音韻カテゴリ境界を手掛かりとした検討. (日本認知科学会第32回大会).
  7. Sonoda, J. & Otsuka, K. (2015). Die Intensität des Ausdrucks lutherischer Gläubigkeit im “Herr, wenn ich nur dich habe” (SWV 280) von H. Schütz: Ein Vergleich mit D. Buxtehude (BuxWV38) anhand des Klangspektrums des Gehörs. (Internationaler Kongress für Kirchenmusik).
  8. 今泉修, 浅井智久. (2015). 運動の遅延視覚フィードバックによる主観的時間の短縮. (日本認知心理学会第13回大会).
  9. Imaizumi, S. & Asai, T. (2015). Time Contraction during Delayed Visual Feedback of Hand Action. (The European Conference on Visual Perception (ECVP 2015)).
  10. Imaizumi, S. & Asai, T. (2015). Visuomotor temporal recalibration leads to sense of agency but not to body-ownership. (16th International Multisensory Research Forum (IMRF 2015)).
  11. Asai, T. (2015). Between self and other in motor control. (16th International Multisensory Research Forum (IMRF 2015)).
  12. 浅井智久. (2015). 知覚-運動ループに生まれる自己表象. (第50回Cognitive Science Meeting).
  13. 浅井智久. (2015). 知覚と運動とやる気をつなぐ行為主体感. (第九回クロスモーダルデザインWS).
  14. Kawano, H. (2015). Complete Reconfiguration Algorithm for Sliding Cube-shaped Modular Robots with only Sliding Motion Primitive. (2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2015)).
  15. 寺島裕貴, 古川茂人. (2015). 効率的符号化に基づく乳児発話の解析. (第25回 日本神経回路学会 全国大会 (JNNS 2015)).
  16. 寺島裕貴. (2015). 脳における音と画像のスパース表現. (音学シンポジウム2015(第107回 音楽情報科学研究会)).
  17. 寺島裕貴. (2015). 皮質計算原理の理解に向けたモデル駆動型領野比較. (脳のセミナー 最終回).
  18. 寺島裕貴, 古川茂人. (2015). 乳幼児音声発達のスパース符号に基づく解析. (日本音響学会聴覚研究会).
  19. 米家惇, Liao H. I., 古川茂人, 柏野牧夫. (2015). 音響信号の時系列予測不可能性に基づくsurpriseモデル. (日本音響学会聴覚研究会).
  20. 山岸慎平, 大塚翔, 古川茂人, 柏野牧夫. (2015). 聴覚情景分析における脳幹の役割 -聴性脳幹反応による検討-. (日本音響学会聴覚研究会).
  21. Otsuka, S. & Furukawa, S. (2015). Conversion of amplitude modulation to phase modulation on the basilar membrane revealed by otoacoustic emission measurements. (日本音響学会聴覚研究会).
  22. 古川茂人, 大塚翔, 越智篤, 狩野章太郎, 山岨達也. (2015). 光同期タッピング課題の他覚的聴力検査への応用に向けた予備的検討. (日本聴覚医学会学術講演会).
  23. 山岸慎平, 大塚翔, 古川茂人, 柏野牧夫. (2015). 音脈知覚の神経相関 -脳幹から視床・聴覚野-. (日本音響学会秋季研究発表会).
  24. 大塚翔, 古川茂人. (2015). 聴覚末梢における振幅変調信号の位相変調による表現:耳音響放射を用いた検討. (日本音響学会秋季研究発表会).
  25. Altmann, C. F., Ueda, R., Furukawa, S., Ono, S., Kashino, M., Mima, T. & Fukuyama, H. (2015). Parallel processing of dynamic interaural time and level differences: a human electroencephalography study. (第38回日本神経科学大会).
  26. 大塚翔, 津崎実, 園田順子, 古川茂人. (2015). オリーブ神経束反射強度と強大音による聴力損失量との相関. (日本聴覚医学会 ERA・OAE 研究会).
  27. Yoneya, M., Furukawa, S. & Kashino, M. (2015). Potential use of Microsaccade in Personal Identification. (37th Annual International Conference of the IEEE Engineering in Medicine and Biology Society).
  28. 熊野史朗, 大塚和弘, 石井亮, 大和淳司. (2015). 集団的一人称視点映像解析に基づく複数人対話の自動視線分析. (電子情報通信学会HCGシンポジウム).
  29. Kondo, H. M., Pressnitzer, D., Shimada, Y., Kochiyama, T. & Kashino, M. (2015). Excitation-inhibition balances of Glx and GABA predict individual differences in perceptual organization. (日本神経科学大会 第38回大会).
  30. Takeuchi, T., Yoshimoto, S., Shimada, Y., Kochiyama, T. & Kondo, H. M. (2015). Individual differences in visual motion perception and the associated excitatory and inhibitory neurotransmitter concentrations in the brain. (OSA Fall Vision Meeting 2015).
  31. Kondo, H. M. (2015). Sensory-perceptual transformations for auditory scene analysis. (The 9th International Conference on Complex Medical Engineering (CME 2015)).
  32. Liao, H. I., Kidani, S., Yoneya, M., Kashino, M. & Furukawa, S. (2015). Hidden auditory processing revealed by pupillary dilation response. (日本音響学会秋季研究発表会).
  33. Liao, H. I., Shimojo, S. & Kashino, M. (2015). Correspondence between pupillary response and facial attractiveness. (Asia-Pacific Conference on Vision).
  34. Liao, H. I., Kidani, S., Yoneya, M., Kashino, M. & Furukawa, S. (2015). Correspondence between pupillary dilation response and subjective rating of sound salience. (Association for Research in Otolaryngology (ARO) 38th Annual MidWinter Meeting.).
  35. 黒木忍. (2015). 触覚チャネルの独立性と干渉. (第七回多感覚研究会 触覚認知研究ワークショップ).
  36. 黒木忍. (2015). 触知覚における刺激部位と姿勢の影響. (触覚講習会「触覚技術の基礎と応用」).
  37. Hiroya, S., Jasmin, K., Evans, S., Krishnan, S., Ostarek, M., Boebinger, D. & Scott, S.K. (2015). Effects of speaking rhythm naturalness on the neural basis of speech perception. (Neuroscience 2015).
  38. Amemiya, T. (2015). Perceptual Illusions for Multisensory Displays. (The 22nd International Display Workshops (IDW '15)).
  39. 五味裕章, 雨宮智浩, 高椋慎也, 伊藤翔. (2015). 力覚錯覚を説明する触覚情報処理モデル. (第38回 日本神経科学大会(Neuroscience 2015)).
  40. 池井寧, 北崎充晃, 櫻井翔, 広田光一, 雨宮智浩, 加藤隼輝, 伊藤健. (2015). バーチャルリアリティの新しい作業仮説. (第20回日本バーチャルリアリティ学会大会).
  41. Amemiya, T., Beck, B., Gomi, H. & Haggard, P. (2015). Getting a feeling for where things are going: human perception of tactile motion. (The International Association for the Study of Affective Touch: Inaugural Congress).
  42. Shimabukuro, S., Kato, S., Ikei, K., Hirota, K., Amemiya, T. & Kitazaki, M. (2015). Characteristics of virtual walking sensation created by a 3-dof motion seat. (IEEE Virtual Reality Conference 2015 (VR 2015)).
  43. Okuya, Y., Ikei, K., Amemiya, T. & Hirota, K. (2015). Third person's footsteps enhanced moving sensation of seated person. (IEEE Virtual Reality Conference 2015 (VR 2015)).
  44. Ikei, Y., Shimabukuro, S., Kato, K., Okuya, Y., Hirota, K., Kitazaki, M. & Amemiya, T. (2015). Five senses theatre project: Sharing experiences through bodily ultra-reality. (IEEE Virtual Reality Conference 2015 (VR 2015)).
  45. Ikei, Y., Kato, S., Komase, K., Shimabukuro, S., Hirota, K., Amemiya, T. & Kitazaki, M. (2015). Experience simulator for the digital museum. (17th International Conference on Human-Computer Interaction (HCI International 2015)).
  46. Gomi, H., Amemiya, T., Takamuku, S. & Ito, S. (2015). Mechanisms of illusory continuous force sensation induced by asymmetric vibration - A computational approach to sensory processing.-. (NEUROSCIENCE 2015).
  47. Amemiya, T., Beck, B., Gomi, H. & Haggard, P. (2015). TMS over V5/hMT+ disrupts tactile direction discrimination. (NEUROSCIENCE 2015).
  48. Ito, S., De Havas, J., Haggard, P. & Gomi, H. (2015). The effect of muscle contraction properties on the Kohnstamm phenomenon. (第38回日本神経科学大会).
  49. Ho, H.-N. (2015). 触覚の多感覚統合: 温度と色の知覚相互作用. (第七回多感覚研究会,触覚認知研究ワークショップ).
  50. 安部川直稔, 五味裕章. (2015). 腕到達運動の精度要求が目と腕の実時間運動協調に与える影響. (第38回 日本神経科学大会).
  51. Teshima, T, Takamuku, S, Amemiya, T & Gomi, H (2015). Light touch on pillar array surface greatly improves directional perception induced by asymmetric vibration. (SIGGRAPH ASIA 2015 workshop on haptic media and contents design.).
  52. Ito, S. & Gomi, H. (2015). Mirror-reversed visual feedback reduces quick somatomotor response evoked by mechanical perturbation. (The Society for Neuroscience 45th Annual Meeting).
  53. 寺島裕貴. (2015). 大脳新皮質の計算原理と言語普遍性:構造的類比. (第15回「脳と心のメカニズム」冬のワークショップ).
  54. Liao, H. I., 米家惇, 古川茂人 & 柏野牧夫 (2015). Pupil dilation response reflects surprising moments in music. (第38回日本神経科学大会).
  55. 石井亮. (2015). 複数人対話において“次に誰がいつ話すか?”を予測する. (コミュニケーションの分析と応用研究会).
  56. 寺島裕貴. (2015). 視覚野の計算モデルに音を学習させる:大脳新皮質の計算原理解明に向けて. (玉川大学脳科学研究所若手の会 第101回談話会).
  57. 柏野牧夫. (2015). 聴覚における注意と情動. (応用脳科学アカデミー).
  58. 柏野牧夫. (2015). 聴覚と身体の潜在的結合. (音響学シンポジウム).
  59. 北川智利. (2015). 目で聴き耳で見る世界. (日本音響学会2015年春季研究発表会).
  60. 丸谷和史. (2015). 複雑な運動ベクトル場の処理を支える視覚メカニズム. (第25回東京大学心理学研究室セミナー).
  61. 丸谷和史. (2015). Yu bi Yomu ~なぞり動作を利用したテキストコミュニケーション~. (第2回 ガチ・ニコ生セミナー).
  62. Kidani, S., Liao, H. I., Yoneya, M., Kashino, M. & Furukawa, S. (2015). Effect of distractor saliency on amplitude-modulation detection task. (The Association for Research in Otolaryngology 38th Annual MidWinter Meeting).
  63. Otsuka, S., Tsuzaki, M., Sonoda, J. & Furukawa, S. (2015). Effects of Short-duration instrument practice on the auditory peripheral functions of violin players. (38th ARO Midwinter Meeting).
  64. Kumano, S., Otsuka, K., Ishii, R. & Yamato, J. (2015). Automatic Gaze Analysis in Multiparty Conversations based on Collective First-Person Vision. (International Workshop on Emotion Representation, Analysis and Synthesis in Continuous Time and Space (EmoSPACE 2015)).
  65. Furukawa, S., Onikura, S., Kidani, S., Kato, M. & Kitagawa, N. (2015). An objective measure of auditory detection threshold based on a light-synchronized tapping task. (Association for Research in Otolaryngology (ARO) 38th Annual MidWinter Meeting).
  66. Ishii, R., Otsuka, K., Kumano, S. & Yamato, J. (2015). Predicting Next Speaker Based on Head Movement in Multi-Party Meetings. (IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP 2015)).
  67. Oohashi, H., Hiroya, S. & Mochida, T. (2015). Real-time formant tracking system using a phase equalization-based autoregressive exogenous model. (ICASSP2015).
  68. Kitagawa, N., Mochida, T. & Kitamura, M. (2015). The McGurk effect does not depend on perceptual synchrony between audiovisual signals. (IMRF 2015, 16th International Multisensory Research Forum).
  69. Maruya, K., Watanabe, J., Takahashi, H. & Hashida, S. (2015). A leraning system utilizing learners'active tracing behaviors. (The 5th International Conference on Learning Analytics and Knowledge Conference).
  70. lin, I.F., Mochida, T., Asada, K., Ayaya, S., Kumagaya, R. & Kato, M. (2015). Atypical audio-vocal system regulation in autism spectrum disorder. (Association for Research in Otolaryngology Annual MidWinter Meeting).
  71. Terashima, H. & Okada, M. (2015). A Computational Model for the Disorganized Tonotopy and Pitch Cells of the Auditory Cortex: Analogy with the Visual Cortex. (ARO The 38th Annual MidWinter Meeting).
  72. 米家惇, リャオシンイ, 古川茂人, 柏野牧夫. (2015). 眼球計測に基づく「音楽の好み」の推定. (情報処理学会第77回全国大会).
  73. 横山正典, 高野裕治, 巻口誉宗, 中嶋智史, 吉田大我, 並河大地. (2015). アニマルクラウド:動物の認知機能を活かしたクラウドソーシングシステム. (インタラクション2015).
  74. Takamuku, S. & Gomi, H. (2015). Seeing the manipulated object improves temporal estimation of its inertial force. (Winter workshop on mechanism of brain and mind).
  75. 澤山正貴, 西田眞也. (2015). 表面画像の湿り度知覚における色・輝度処理の相互作用. (日本視覚学会2015 年冬季大会).
  76. 西田眞也, 澤山正貴, 下川丈明. (2015). 物体表面の反射特性が画像の強度順序および形状知覚に与える影響について. (日本視覚学会2015 年冬季大会).
  77. 木谷俊介, Liao H. I., 米家惇, 柏野牧夫, 古川茂人. (2015). 非関連音呈示による変調検出タスクへの妨害効果‐音の呈示タイミングの影響‐. (日本音響学会2015年春季研究発表会).
  78. 加地雄一, 北村美穂, 北川智利. (2015). 無意味刺激に有意味さを見いだす現象の性差. (平成26年度第2回基礎心理学フォーラム).
  79. 加地雄一, 北村美穂, 北川智利. (2015). 無意味刺激に有意味さを知覚する現象(パレイドリア)の個人差. (パレイドリア研究会).
  80. 古川茂人, 鬼鞍和輝, 木谷俊介, 加藤正晴, 北川智利. (2015). 光同期タッピング課題による客観的可聴閾値 推定. (日本音響学会 2015年春季研究発表会).
  81. 大塚翔, 津崎実, 園田順子, 古川茂人. (2015). 練習中の楽器音への暴露がバイオリニストの聴覚末梢に与える影響. (日本音響学会2015年春季研究発表会).
  82. Kumano, S., Otsuka, K., Ishii, R. & Yamato, J. (2015). Collaborative First-Person Vision: Calibration-Free Gaze Analysis in Social Interaction. (IEEE Int'l Conf. Automatic Face and Gesture Recognition(FG2015)).
  83. Kawabe, Takahiro & Nishida, Shin'ya (2015). Seeing transparent liquids from refraction-based image deformation and specular reflection. Vision Sciences Society 15th Annual Meeting (VSS2015). St. Pete Beach (Florida, US).
  84. Kawabe, T., Sawayama, M. & Nishida, S. (2015). Deformation lamps: a projection technique to make a static picture dynamic. ACM SIGGRAPH 2015 Emerging Technologies.
  85. Sawayama, M. & Nishida, S. (2015). Visual perception of surface wetness. Vision Sciences Society 15th Annual Meeting (VSS2012). Florida (USA).
  86. Nishida, S., Sawayama, M. & Shimokawa, T. (2015). Material-dependent shape distortion by local intensity order reversal. Vision Sciences Society 15th Annual Meeting (VSS2012). Florida (USA).
  87. Morinaga, Sayo & Watanabe, Junji (2015). Toward tactile contents design using laser engraving machines. SIGGRAPH ASIA 2015. Kobe, JP.
  88. Suzuki, Yasuhiro, Suzuki, Rieko, Watanabe, Junji & Sakurazawa, Shigeru (2015). Haptic vibration for hands and bodies. SIGGRAPH ASIA 2015. Kobe, JP.
  89. Yokosaka, Takumi, Kuroki, Scinob, Watanabe, Junji & Nishida, Shin'ya (2015). Predictability of tactile evaluation from exploratory movement in free-touch and task-dependent situations. IEEE World Haptics2015. Chicago, US.
  90. Kuroki, Scinob, Hagura, Nobuhiro, Nishida, Shin'ya, Patrick Haggard & Watanabe, Junji (2015). Asian spice sets fingers trembling. IEEE World Haptics2015. Chicago, US.
  91. Tanaka, Yoshihiro, Watanabe, Junji & Okamoto, Shogo (2015). Toward Comfortable Texture Design. IEEE World Haptics2015. Chicago, US.
  92. 渡邊 淳司. (2015). 「自分事」の理解を促すメディアワークショップ. 第6回横幹連合コンファレンス. 名古屋.
  93. 中村 暢佑, 麦谷 綾子, 渡邊 淳司. (2015). 視聴覚の言語処理における音韻処理のちがい. 日本基礎心理学会第34回大会. 大阪.
  94. 横坂 拓巳, 黒木 忍, 渡邊 淳司, 西田 眞也. (2015). 触り方から触り心地をどれくらい説明できるか-自由探索時と触り心地評価時の比較-. 日本基礎心理学会第34回大会. 大阪.
  95. 吉田 成朗, 上田 祥代, 渡邊 淳司, 北崎 充晃, 茅原 拓朗, 川畑 秀明, 池田 まさみ. (2015). 子ども向け“知覚・認知”科学教育ワークショップ. 日本基礎心理学会第34回大会. 大阪.
  96. Zhou, Yizhen, Ho, Hsin-Ni & 渡邊 淳司 (2015). An investigation of cross-modal integration of physical thermal sensation and semantic perception. 第七回多感覚研究会. 東京.
  97. 永原 宙, 森永 さよ, 渡邊 淳司. (2015). カテゴリ分類と多次元尺度構成法に基づく触感選択法の考察. 第七回多感覚研究会. 東京.
  98. 野々下 雄斗, 黒木 忍, 渡邊 淳司. (2015). 腕運動中に提示される触覚刺激の時間順序判断に関する研究. 第七回多感覚研究会. 東京.
  99. 青木 芽衣, 渡邊 淳司, 岩井 大輔, 佐藤 宏介. (2015). 「身体プロジェクションによる触質感操作」. NICOGRAPH2015. 大阪.
  100. 中村 暢佑, 麦谷 綾子, 渡邊 淳司. (2015). 入力モダリティによる音韻表象の違い -促音・非促音の音韻カテゴリ境界を手がかりとした検討. 日本認知科学会第32回大会. 千葉.
  101. 佐治 伸郎, 渡邊 淳司. (2015). 記号と身体性. 日本認知科学会第32回大会. 千葉.
  102. 岩井 大輔, 筧 康明, 渡邊 淳司, 長谷川 晶一, 馬場 哲晃, 渡邉 英徳, 菊川 裕也, 岸 遼, 中野 雄矢, 原田 真喜子. (2015). VR 学生のハローワーク -アート&エンタテインメント編. 日本バーチャルリアリティ学会第20回大会. 東京.
  103. 青木 芽衣, 渡邊 淳司, 岩井 大輔, 佐藤 宏介. (2015). 「身体へのテクスチャ投影によるなぞり触質感の操作」第59回システム制御情報学会研究発表講演会講演論文集,313-1. 第59回システム制御情報学会研究発表講演会.

Misc

  1. 古川茂人, 山岸慎平, Liao H.-I., 米家惇, 大塚翔, 柏野牧夫. (2015). 身体反応に現れる「聞こえ」とそのメカニズム. NTT技術ジャーナル, 27, 13-16.
  2. Furukawa, S., Yamagishi, S., Liao, H.-I., Yoneya, M., Otsuka, S. & Kashino, M (2015). Biological Measures that Reflect Auditory Perception. NTT Technical Review, 13.
  3. 渡邊 淳司. (2015). 安室奈美恵MVで使われた 「視覚が生み出す触感」ってなんだ? ――触覚とクリエイティブの未来. 考えるメディア.
  4. 池田 まさみ, 渡邊 淳司, 上田 祥代, 吉田 成朗, 茅原 拓朗, 北崎 充晃. (2015). メディアワークショップ これからの知覚心理学教育を考える―小・中学生を対象とした心理学実験ワークショップを通して―. 基礎心理学研究, 34 (1), 180-183.
  5. 北崎 充晃. (2015). 渡邊淳司著 情報を生み出す触覚の知性 情報社会をいきるための感覚のリテラシー. 基礎心理学研究, 34 (2), 290-291.

2014

論文

  1. Abekawa, N. & Gomi, H. (2014). Understanding the coordination mechanisms of gaze and arm movements. NTT Technical Review, 12 (7), 1-8.
  2. Takano, Y. & Ukezono, M. (2014). An experimental task to examine the mirror system in rats. Scientific Reports, 4, 6652.
  3. Sugimori, E. & Asai, T. (2014). Attribution of movement: Potential links between subjective reports of agency and output monitoring. The Quarterly Journal of Experimental Psychology, 68 (5), 900-916.
  4. Imaizumi, S., Asai, T., Kanayama, N., Kawamura, M. & Koyama, S. (2014). Agency over a phantom limb and electromyographic activity on the stump depend on visuomotor synchrony: a case study. Frontiers in Human Neuroscience, 8, 545.
  5. Gomi, H., Sakurada, T. & Fukui, T. (2014). Lack of motor prediction, rather than perceptual conflict, evokes an odd sensation upon stepping onto a stopped escalator. Frontiers in Behavioral Neuroscience, 8 (77).
  6. Asai, T. (2014). Illusory body-ownership entails automatic compensative movement: for the unified representation between body and action. Experimental Brain Research, 233 (3), 777-785.
  7. Nakashima, S.F., Morimoto, Y., Takano, Y., Yoshikawa, S. & Hugenberg, K. (2014). Faces in the dark: interactive effects of darkness and anxiety on the memory for threatening faces. Frontiers in Psychology, 5, 1091.
  8. Bergman, P., Ho, H.-N., Koizumi, A., Tajadura-Jiménez, A. & Kitagawa, N. (2014). The pleasant heat? Evidence for thermal-emotional implicit associations occurring with semantic and physical thermal stimulation. Cognitive Neuroscience, 6 (1), 24-30.
  9. Abekawa, N., Inui, T. & Gomi, H. (2014). Eye-hand coordination in on-line visuomotor adjustments. Neuroreport, 25 (7), 441-445.
  10. Fujisaki, W., Goda, N., Motoyoshi, I., Komatsu, H. & Nishida, S. (2014). Audio-visual integration in the human perception of materials. Journal of Vision, 14, 1-20.
  11. Ho, H.-N., Van Doorn, G.H., Kawabe, T., Watanabe, J. & Spence, C. (2014). Colour-temperature correspondences: When reactions to thermal stimuli are influenced by colour. PLoS One, 9 (3), e91854.
  12. Ho, H.-N., Iwai, D., Yoshikawa, Y., Watanabe, J. & Nishida, S. (2014). Combining colour and temperature: A blue object is more likely to be judged as warm than a red object. Scientific Reports, 4, 5527.
  13. 雨宮智浩, 五味裕章. (2014). 牽引方向知覚における能動的探索の有効性を活用した屋内歩行ナビゲーションシステムの開発. 電子情報通信学会論文誌, J97-D (2), 260-269.
  14. 廣谷定男. (2014). 非負値時空間分解を用いた発話リズム変換. 日本音響学会聴覚研究会資料(Proceedings of the auditory research meeting ), 44 (2), 77-80.
  15. Otsuka, S., Furukawa, S., Yamagishi, S., Hirota, K. & Kashino, M (2014). Inter-individual variation of sensitivity to frequency modulation: Its relation with click-evoked and distortion-product otoacoustic emissions. Journal of Association for Research in Otolaryngology, 15 (2), 175-186.
  16. Altmann, C. F., Terada, S., Kashino, M., Goto, K., Mima, T., Fukuyama, H. & Furukawa, S. (2014). Independent or integrated processing of interaural time and level differences in human auditory cortex?. Hearing Research, 312, 121-127.
  17. Kumano, S., Otsuka, K., Matsuda, M. & Yamato, J. (2014). Analyzing Perceived Empathy based on Reaction Time in Behavioral Mimicry. IEICE Trans., E97-D (8), TBA.
  18. Kondo, H. M., Toshima, I., Pressnizer, D. & Kashino, M. (2014). Probing the time course of head-motion cues integration during auditory scene analysis. Frontiers in Neuroscience, 8 (170), 1-7.
  19. Ochi, A., Yamasoba, T. & Furukawa, S. (2014). Factors that account for inter-individual variability of lateralization performance revealed by correlations of performance among multiple psychoacoustical tasks. Frontiers in Neuroscience, 8, 27.
  20. 石井亮, 大塚和弘, 熊野史朗, 松田昌史, 大和淳司. (2014). 複数人対話における注視遷移パターンに基づく次話者と発話開始タイミングの予測. 電子情報通信学会論文誌A, J97-A (6), 453-468.
  21. 石井亮. (2014). Designing Conversational Interfaces for facilitating Conversation using User's Gaze Behaviors. 人工知能学会誌, 特集「人工知能分野における博士論文」, 29 (1), 100.
  22. Otsuka, K., Furuyama, N. & Bono, M. (2014). The Future of Idobata Kaigi ("Congregation at the Well"): Realizing Natural Conversations with Distance Access. NII Today, 48, 006-007.
  23. 黒木 忍, 坪井 広樹, 望山 洋, 渡邊 淳司. (2014). 微粒子を用いた粗さ触覚刺激による微細なテクスチャ知覚生成機序の考察. 日本バーチャルリアリティ学会論文誌, 19 (4), 589-592.
  24. Masuda, Ayako, Watanabe, Junji, Terao, Masahiko, Yagi, Akihiro & Maruya, Kazushi (2014). A temporal window for estimating surface brightness in the Craik-O'Brien-Cornsweet effect. Frontiers in Human Neuroscience, 8 (855), 1-11.
  25. Ho, Hsin-Ni, Iwai, Daisuke, Yoshikawa, Yuki, Watanabe, Junji & Nishida, Shin'ya (2014). Combining color and temperature: A blue object is more likely to be judged as warm than a red object. Scientific Reports, 4 (5527), 1-5.
  26. Aruga, Reiko, Saito, Hideo, Ando, Hideyuki & Watanabe, Junji (2014). Two-dimensional grouping affects perisaccadic perception of depth and synchrony. Perception, 43 (6), 589-594.
  27. 渡邊 淳司, 加納 有梨紗, 坂本 真樹. (2014). オノマトペ分布図を利用した触素材感性評価傾向の可視化. 日本感性工学会論文誌, 13 (2), 353-359.
  28. Ho, Hsin-Ni, Van Doorn, H. George, Kawabe, Takahiro, Watanabe, Junji & Spence, Charles (2014). Colour-temparature correspondences: When reactions to thermal stimuli are influenced by colour. PLOS ONE, 9(3) (e91854), e91854.
  29. 安藤 英由樹, 丸谷 和史, 渡邊 淳司. (2014). 情報通信でつなぐ祈りの場. 鳳翔学叢(平等院研究紀要), 10, 112-97.

書籍

  1. 浅野倫子, 渡邊淳司. (2014). 知覚と言語. 岩波講座 コミュニケーションの認知科学1 言語と身体性. 岩波書店.
  2. 雨宮智浩. (2014). 平衡覚デバイスの制約・要求事項 (第1編5章 総説) 加速度を体感できるデバイス開発 (第1節). 感覚デバイス開発 ~機器が担うヒト感覚の生成・拡張・代替技術~. 株式会社NTS.
  3. 坂本真樹, 渡邊淳司. (2014). 日本語オノマトペを利用した触質感の官能評価. 官能評価活用ノウハウ・感覚の定量化・数値化手法. (pp.215-223). 技術情報協会.
  4. 北川智利. (2014). 非音声知覚における視聴覚情報の統合処理. コロナ社.
  5. ホーシンニ, 佐藤克成. (2014). 温冷覚の知覚特性. 触覚認識メカニズムと応用技術-触覚センサ・触覚ディスプレイ-増補版. S&T出版株式会社.
  6. 北川智利. (2014). 知覚モダリティの相互作用. 株式会社誠信書房.
  7. 浅野 倫子, 渡邊 淳司. (2014). 知覚と言語. 今井 むつみ, 佐治 伸郎 (Eds.), 岩波講座 コミュニケーションの認知科学1 言語と身体性. (pp.63-91). 岩波書店.
  8. 坂本 真樹, 渡邊 淳司. (2014). 第1節 日本語オノマトペを利用した触質感の官能評価. 官能評価活用ノウハウ・感覚の定量化・数値化手法. (pp.215-223). 技術情報協会.
  9. 黒木 忍, 渡邊 淳司. (2014). 第4節 触覚の時空間知覚における情報統合. 下条 誠, 前野 隆司, 篠田 裕之, 佐野 明人 (Eds.), 触覚認識メカニズムと応用技術 -触覚センサ・触覚ディスプレイ-【増補版】. (pp.51-63). S&T出版株式会社.
  10. 坂本 真樹, 渡邊 淳司. (2014). 第9節 触覚のオノマトペとその定量化. 下条 誠, 前野 隆司, 篠田 裕之, 佐野 明人 (Eds.), 触覚認識メカニズムと応用技術 -触覚センサ・触覚ディスプレイ-【増補版】. (pp.158-166). S&T出版株式会社.
  11. 渡邊淳司. (2014). 第3節 触覚と記号. 下条 誠, 前野 隆司, 篠田 裕之, 佐野 明人 (Eds.), 触覚認識メカニズムと応用技術 -触覚センサ・触覚ディスプレイ-【増補版】. (pp.634-639). S&T出版株式会社.
  12. 渡邊 淳司. (2014). 情報を生み出す触覚の知性 -情報社会をいきるための感覚のリテラシー. 化学同人.

会議

  1. Liao, H.I., Yoneya, M., Kidani, S., Kashino, M. & Furukawa, S. (2014). Human pupil dilation responses to auditory stimulations: Effects of stimulus property, context, probability, and voluntary attention. (37th ARO Midwinter Meeting).
  2. 寺島裕貴. (2014). モデル駆動の大脳新皮質「普遍計算」探求:言語学との類比. (2014年度 包括脳ネットワーク冬のシンポジウム).
  3. 加藤正晴. (2014). 無意識のコミュニケーション?歩行時の歩調 同期と相性の関係. (日本心理学会第78回大会).
  4. 丸谷和史. (2014). イリュージョン・フォーラム―錯覚が教えてくれること―. (ナレッジキャピタル大阪一周年記念イベント).
  5. 中嶋智史. (2014). 顔記憶における集団バイアスに及ぼす社会的・認知的要因の影響. (日本心理学会第78回大会公募シンポジウム「集団間認知・インタラクション研究の現在と未来~分かり合えないことからはじめよう~」).
  6. 中嶋智史. (2014). 表情からわかりあうラットたち~実験室ラットにおける共感と表情認知~. (日本心理学会第78回大会公募シンポジウム「わかりあう,意識できる意識できない共感の科学」).
  7. 石井亮. (2014). 複数人対話における非言語行動に基づく次話者と発話開始タイミングの予測. (第56回LC研究会).
  8. Ishii, R. (2014). Analyzing Multi-party Turn-taking Mechanism and Predicting Next Speaking. (ACM International Conference on Multimodal Interaction (ICMI 2014), Workshop on Multimodal, Multi-Party, Real-World Human-Robot Interaction).
  9. 寺島裕貴. (2014). 自然音と聴覚野の計算モデル:なぜ・どのように・普遍性. (第7回 関東「音楽と脳勉強会」).
  10. 古川茂人. (2014). 聞きたい音を聞く耳と脳の仕組み. (日本音響学会東海支部 平成26年度技術講習会).
  11. 柏野牧夫. (2014). 聴覚もだまされる!音が聴こえるメカニズムを解き明かそう. (みる・きく・さわるのふしぎ展).
  12. 柏野牧夫. (2014). 音を聴く脳と身体. (ゲーテ自然科学の集い).
  13. 柏野牧夫. (2014). 音を聴く脳と身体. (五感の学校 at 広尾).
  14. 柏野牧夫. (2014). 高機能自閉症スペクトラムにおける聴知覚の特殊性. (第110回日本精神神経学会総会シンポジウム『潜在認知と精神疾患』).
  15. 柏野牧夫. (2014). 潜在的な心を身体から読む. (第31回情報通信学会大会のシンポジウム『脳科学と情報通信技術の融合が拓く情報通信の未来』).
  16. 柏野牧夫. (2014). 聴覚情報処理と視覚, 触覚, 運動, 情動の関わり. (補聴と聴覚活用を語るサマーフォーラム 2014).
  17. 柏野牧夫. (2014). 錯聴の不思議. (サイエンススペシャルレクチャー).
  18. 柏野牧夫. (2014). 潜在的な心の解読と調整. (e-ビジネス異業種交流会).
  19. 木村聡貴. (2014). 「スポーツと脳」 知覚特性をふまえた運動フィードバック. (第8回Motor Control研究会).
  20. Suzuki, Y., Suzuki, R. & watanabe, J. (2014). Transformation from text to touch - Touching a“Japanese old tale”. (CHI2014).
  21. Gomi, H. (2014). Implicit visual and motor processing in manual following responses. (Neuroscience2014).
  22. 熊野史朗. (2014). 対話中に生じる二者間の共感に関する観察者認知の確率モデルと自動推定. (電子情報通信学会HCG第3種研究会 第45回ヴァーバル・ノンヴァーバル・コミュニケーション研究会).
  23. 丸谷和史. (2014). 錯覚からわかること. (SPP認定講座).
  24. 丸谷和史. (2014). バーチャル&リアルワールド:知覚心理学の立場から. (認知心理学会第12回大会セミナー).
  25. 浅井智久. (2014). 精神科リハの未来を担う基礎研究. (第8回臨床精神科リハビリテーション研究会).
  26. 浅井智久. (2014). 運動が生み出す自己と他者. (エンパワーメント情報学プログラム).
  27. 浅井智久. (2014). 統合失調症の連続性と変容した自己感. (日本心理第78回大会).
  28. Takano, Y., Ukezono, M., Nakashima, S.F. & Fukasawa, S. (2014). Actor's performance of blinking. (1st World Congress on Facial Expression).
  29. Takano, Y., Nakashima, S.F. & Ukezono, M. (2014). Social learning and the cingulate cortex in rats. (9th Frderation of European Neuroscience Societies).
  30. kimura, T., Mochida, T., Ijiri, T. & Kashino, M. (2014). Real-time sonification of motor coordination to support motor skill learning in sports. (icSports 2014).
  31. Ikei, Y., Shimabukuro, S., Kato, S., Okuya, Y., Abe, K., Hirota, K. & Amemiya, T. (2014). Rendering of Virtual Walking Sensation by a Passive Body Motion. (Eurohaptics 2014).
  32. Shirama, A., Kato, N. & Kashino, M. (2014). Weak individualization of spontaneous eye movements in individuals with autism spectrum disorders. (37th European Conference on Visual Perception).
  33. Yamagishi, S., Ashihara, T., otsuka, S., Furukawa, S. & kashino, M. (2014). The frequency-following response reflects spontaneous perceptual switching in auditory streaming. (Frequency Following Response (FFR) Workshop).
  34. Yamagishi, S., Otsuka, S., Furukawa, S. & Kashino, M. (2014). Neural correlates of auditory streaming in human scalp potentials generated from the brainstem and thalamocortical auditory pathway. (37th ARO Midwinter Meeting).
  35. Otsuka, S., Furukawa, S., Yamagishi, S., Hirota, K. & Kashino, M. (2014). Inter-Individual variation of sensitivities to frequency modulation, amplitude modulation, and interaural-phase difference: Relation with click-evoked otoacoustic emissions. (Association for Research in Otolaryngology (ARO) 37th Annual MidWinter Meeting).
  36. Furukawa, S., Ikeda, S., Numata, R., Sugimoto, S. & Hirokawa, J. (2014). Modulation of the auditory-evoked potential by continuous laser irradiation: Effects of wavelength and induced temperature change. (37th ARO Midwinter Meeting).
  37. Ishii, R., Otsuka, K., Kumano, S. & Yamato, J. (2014). Analysis of Timing Structure of Eye Contact in Turn-changing. (Workshop on Eye Gaze in Intelligent Human Machine Interaction: Eye-Gaze and Multimodality (GazeIn 2014)).
  38. Ishii, R., Otsuka, K., Kumano, S. & Yamato, J. (2014). Analysis of Respiration for Prediction of "Who Will Be Next Speaker and When?" in Multi-Party Meetings. (International Conference on Multimodal Interaction (ICMI 2014)).
  39. Roseboom, W., Linares, D. & Nishida, S. (2014). Audio-visual asynchrony exposure changes sensitivity for temporal synchrony: adaptation in relative timing mirrors adaptation in vision. (Annual meeting of the International Multisensory Research Forum).
  40. Ohtani, T. & Maruya, K. (2014). Using optical illusion patterns affixed to toy blocks for learning human errors in three-dimensional projections. (The 16th International Conference on Geometry & Graphics (ICGG 2014)).
  41. Nakashima, S.F., Ukezono, M., Nishida, H., Murata, A., Takano, Y. & Takahashi, N. (2014). Frequencies and types of 50kHz vocalization emission in feeding situation depend on social context in laboratory rats. (Ultrasonic communication in Rodents-2nd international workshop).
  42. Nakashima, S.F., Ukezono, M. & Takano, Y. (2014). Recognition of facial expression in laboratory rats. (1st World Congress on Facial Expression of Emotion).
  43. Ukezono, M. & Takano, Y. (2014). Development of an experimental task for rat's mirror system. (9th Frderation of European Neuroscience Societies).
  44. Maruya, K. & Nishida, S. (2014). Adaptation to a non-uniform motion pattern reveals a mechanism to encode local flow changes. (The 10th Asia-Pacific Conference on Vision (APCV 2014)).
  45. Lin, I.F., Yamada, T., Nakamura, M., Watanabe, H., Takayama, Y., Iwanami, A., Kato, N. & Kashino, M (2014). Selective listening in autism: The influence of informational masking. (International Meeting for Autism Research).
  46. Imaizumi, S., Asai, T., Kanayama, N., Kawamura, M. & Koyama, S. (2014). Visuo-motor timing and sense of agency in a phantom limb: a case study. (ECVP 2014).
  47. Hisakata, R. & Nishida, S. (2014). A directional bias of apparent position shift of a moving element with a hard edge. (The 10th Asia-Pacific Conference on Vision).
  48. Fujisaki, W., Goda, N., Motoyoshi, I., Komatsu, H. & Nishida, S. (2014). Optimal audiovisual integration of object appearance and impact sounds in human perception of materials. (Asia-Pacific Conference on Vision).
  49. Mikami, D., Matsumoto, A., Kimura, T., Ozawa, S. & Kojima, A. (2014). Visual feedback system for intuitive comprehension of self-movement and sensor data for effective motor learning. (2nd International Congress on Sports Science Research and Technology Support).
  50. Asai, T. (2014). Positive bias in agency judgment. (Association for the Scientific Study of Consciousness (ASSC18)).
  51. Amemiya, T. & Gomi, H. (2014). Buru-Navi3: Movement Instruction Using Illusory Pulled Sensation Created by Thumb-sized Vibrator. (ACM SIGGRAPH 2014).
  52. Yoneya, M., Liao, Hsin-I, Kidani, S., Furukawa, S. & Kashino, M (2014). Modulation of the Temporal Dynamics of Microsaccades with the Presentation of Salient Sounds. (2014 Ongaku Symposium (音学シンポジウム2014)).
  53. 生井友紀子, 持田岳美, 五味裕章, 児矢野繁, 田中章景, 廣瀬肇, 折舘伸彦. (2014). 脊髄小脳変性症 (SCD) 症例の構音動態の検討. (第59回日本音声言語医学会学術講演会).
  54. 井尻哲也, 持田岳美, 柏野牧夫, 木村聡貴. (2014). 運動パターンの聴覚フィードバックは投球動作の学習を促進させる. (第23回日本バイオメカニクス学会大会).
  55. Kimura, T., Mochida, T., Ijiri, T. & Kashino, M (2014). Supporting for motor skill learning based on sonification of action. (計測自動制御学会 ライフエンジニアリング部門シンポジウム 2014).
  56. 大谷智子, 丸谷和史. (2014). 錯視立体デザインとその表面の錯視パターン種別の関係. (日本図学会2014年度秋季大会).
  57. 大谷智子, 丸谷和史. (2014). 錯視効果を利用した立体デザインの類型化. (日本図学会2014年度春期大会).
  58. 廣谷定男. (2014). 非負値時空間分解を用いた発話リズム変換の検討. (日本音響学会2014年秋季研究発表会).
  59. 北神慎司, 中嶋智史, 阿見沙妃子. (2014). 顔の再認におけるジェンダーバイアスの社会・認知的仮説の検討. (日本心理学会第78回大会).
  60. 中嶋智史, 請園正敏, 西田洋司, 須藤竜之介, 高野裕治. (2014). 実験室ラットにおける他個体の痛み表情の認知. (2014年度 包括脳ネットワーク冬のシンポジウム).
  61. 中嶋智史, 請園正敏, 高野裕治. (2014). 実験室ラットにおける痛み表情の視覚的認知. (日本心理学会第78回大会).
  62. 中嶋智史, 西田洋司, 請園正敏, 高野裕治. (2014). 実験室ラットの50kHz超音波発声における報酬および社会的文脈の影響. (日本人間行動進化学会第7回大会).
  63. 高椋慎也, 五味裕章. (2014). 作対象の視覚運動は把持力制御に寄与するか?. (第8回モーターコントロール研究会).
  64. 竹内龍人, 吉本早苗, 島田育廣, 河内山隆紀, 近藤洋史. (2014). 視覚野におけるGABA濃度と運動視における周辺抑制. (日本基礎心理学会 第33回大会).
  65. 吉本早苗, 竹内龍人, 島田育廣, 河内山隆紀, 近藤洋史. (2014). 運動視の同化・対比と脳内の神経伝達物質との関係. (日本基礎心理学会 第33回大会).
  66. 黒木忍. (2014). 触覚時空間判断における刺激部位と姿勢の影響. (第16回日本感性工学会学会大会).
  67. 北村美穂, 渡邊克己, 北川智利. (2014). 感情特性と感情状態が知覚的統合処理に及ぼす影響. (日本基礎心理学会第33回大会).
  68. 北村美穂, 渡邊克己, 北川智利. (2014). 感情の諸要因が知覚的統合処理に及ぼす影響. (第6回多感覚研究会).
  69. 北川智利, 北村美穂. (2014). 視聴覚統合と物理的同期/主観的同時性. (第6回多感覚研究会).
  70. 北川智利, 北村美穂. (2014). 交差・反発事象への音の効果は視聴覚の主観的同時性に依存する. (日本基礎心理学会第33回大会).
  71. 北川智利, Tajadura-Jiménez A., 浅井智久, 木村聡貴. (2014). 聴触覚フィードバックによって背が伸びる錯覚. (第6回多感覚研究会).
  72. 北川智利. (2014). 環境から知る身体,身体から知る環境. (MERA研究会).
  73. 加地雄一, 北村美穂, 北川智利. (2014). 無意味刺激に有意味さを知覚する現象(パレイドリア)の個人差. (日本基礎心理学会第33回大会).
  74. 加地雄一, 北村美穂, 北川智利. (2014). 無意味刺激に有意味さを見出すパーソナリティと感情-パターニシティと個人差-. (日本心理学会第78回大会).
  75. 加藤正晴. (2014). 視線パタンからわかる顔認知機能からの発達 ―乳幼児および自閉症者の視線パタン―. (日本心理学会第78回大会).
  76. 渡部基信, 加藤正晴, 松田佳尚, 小西行郎. (2014). 医師は乳幼児にとって常に怖い存在か?「医 者嫌い」のメカニズムの解明. (日本赤ちゃん学会第14回学術集会).
  77. 大橋浩輝, 廣谷定男, 持田岳美. (2014). 位相等化線形予測法を用いた変形聴覚フィードバックシステムの検討. (日本音響学会 2014年秋季研究発表会).
  78. 石井亮, 小澤史朗, 小島明, 中野有紀子, 林祐樹, 大塚和弘. (2014). MIOSS:3次元空間を重畳する鏡インタフェース. (第13回情報科学技術フォーラム(FIT 2014)).
  79. 石井亮, 大塚和弘, 熊野史朗, 大和淳司. (2014). 複数人対話での話者交替に関する頭部動作の分析 ~次話者と発話開始タイミングの予測モデルの構築に向けて~. (HCGシンポジウム).
  80. 石井亮, 大塚和弘, 熊野史朗, 大和淳司. (2014). 複数人対話での話者交替に関する呼吸動作の分析 ~次話者と発話開始タイミングの予測モデルの構築に向けて~. (信学技報).
  81. 駒瀬航平, 池井寧, 阿部浩二, 増田幸矩, 広田光一, 雨宮智浩. (2014). 下肢部固有感覚提示による歩行感覚生成手法に関する研究. (日本バーチャルリアリティ学会第19回大会).
  82. 加藤隼輝, 池井寧, 阿部浩二, 島袋誠也, 広田光一, 雨宮智浩. (2014). 座席のピッチ運動による擬似歩行運動感覚提示に関する研究. (日本バーチャルリアリティ学会第19回大会).
  83. 香取海輝, 金井陸, 池井寧, 阿部浩二, 雨宮智浩, 広田光一. (2014). 剪断力法線振動提示型触覚ディスプレイに関する研究. (日本バーチャルリアリティ学会第19回大会).
  84. 今泉修, 浅井智久, 金山範明, 河村満, 小山慎一. (2014). 視覚と運動のタイミングが幻肢の運動感覚へ及ぼす影響: 1 症例における検討. (日本認知心理学会第12回大会).
  85. 今泉修, 浅井智久, 金山範明, 河村満, 小山慎一. (2014). 運動の視覚フィードバックが幻肢の操作感に及ぼす影響:1症例における検討. (第16回日本感性工学会大会).
  86. Lin, I.F., Mochida, T., Asada, K. & Kato, M. (2014). Atypical Audio-Vocal System Regulation in Autism Spectrum Disorder. (発達神経科学学会 第3回大会).
  87. 河邉隆寛, 澤山正貴, 丸谷和史, 西田眞也. (2014). 静止した2次元実対象を運動情報によって錯覚的に変形させる光投影手法. (映像情報メディア学会 2014年度 年次大会).
  88. Kawabe, T., Maruya, K. & Nishida, S. (2014). Image deformation as a perceptual cue to a transparent layer. (The 10th Asia-Pacific Conference on Vision).
  89. 大石悠貴, 小林まおり, 北川智利, 上野佳奈子, 伊勢史郎, 柏野牧夫. (2014). 話者の無意識な微細運動が聴き手の自律神経活動に及ぼす効果. (第37回 日本神経科学大会(Neuro2013)).
  90. 渡辺謙, 大石悠貴, 柏野牧夫. (2014). 音のテンポに対する心拍の引き込み. (第37回 日本神経科学大会(Neuro2013)).
  91. Yoneya, M., Liao, H.I., Kidani, S., Furukawa, S. & Kashino, M. (2014). Auditory attention could affect the positioning-control of microsaccade. (the 37th Annual Meeting of the Japan Neuroscience Society).
  92. Liao, H.I., Kidani, S., Yoneya, M., Kashino, M. & Furukawa, S. (2014). Pupillary response reflects subjective salience of sound. (the 37th Annual Meeting of the Japan Neuroscience Society).
  93. 木谷俊介, リャオシンイ, 米家惇, 柏野牧夫, 古川茂人. (2014). 聴覚検知タスクにおける非関連音呈示の影響‐タスク負荷と非関連音の顕著性の効果‐. (日本音響学会 2014年秋季研究発表会).
  94. 古川茂人. (2014). 聴覚的顕著性へのアプローチ. (人間の視覚的注意の分析と応用, 国立情報学研究所共同研究ミーティング).
  95. 古川茂人. (2014). 人の会話を聞き取る仕組みってどうなっているの?. (第4回ソーシャル・マジョリティ研究会セミナー2014).
  96. Furukawa, S., Liao, H. I., Kidani, S., Yoneya, M. & Kashino, M. (2014). Evaluating the salience of auditory events through eyes. (7th Forum Acusticum Krakow 2014).
  97. 丸谷和史, 西田眞也. (2014). 非一様な運動パターンに対する残効. (日本視覚学会 2014年冬季大会).
  98. Nishida, S. (2014). 質感知覚における色の役割. (第19回視覚情報基礎研究会).
  99. Hisakata, R., Nishida, S. & Johnston, A. (2014). No motion-induced sensitivity modulation for chromatic gratings. (Vision Sciences Society 14th Annual Meeting(VSS2014)).
  100. Maruya, K. & Nishida, S. (2014). Adaptation to a non-uniform motion pattern reveals a mechanism to encode local flow changes. (Vision Sciences Society 14th Annual Meeting(VSS2014)).
  101. Sawayama, M. (2014). 表面光沢知覚におけるハイライトとシェーディングの空間的な整合性. (共同プロジェクト第12回研究集会「物体の表面属性の視知覚に関わる脳内メカニズムの研究」平成25年度・第2回研究会).
  102. Sawayama, M. & Nishida, S. (2014). Discrimination of highlights from reflectance changes using isophote maps of surface images. (Vision Sciences Society 14th Annual Meeting(VSS2014)).
  103. Sawayama, M. & Nishida, S. (2014). Shape and material from intensity gradient: A hypothesis. (The 10th Asia-Pacific Conference on Vision).
  104. Kawabe, T., Maruya, K. & Nishida, S. (2014). What do human observers see in dynamic image deformation?. (Vision Sciences Society 14th Annual Meeting(VSS2014)).
  105. 河邉隆寛, 丸谷和史, 西田眞也. (2014). 動的変形に基づく透明層の知覚. (日本視覚学会 2014年冬季大会).
  106. 香取海輝, 池井寧, 阿部浩二, 雨宮智浩, 広田光一. (2014). 接線力法線振動提示型触覚ディスプレイに関する研究. (日本バーチャルリアリティ学会 VRと超臨場感研究会).
  107. 駒瀬航平, 池井寧, 阿部浩二, 増田幸矩, 広田光一, 雨宮智浩. (2014). 下肢部固有感覚提示による歩行感覚の生成に関する研究. (日本バーチャルリアリティ学会 VRと超臨場感研究会).
  108. 加藤隼輝, 池井寧, 阿部浩二, 島袋誠也, 広田光一, 雨宮智浩. (2014). 座席の回転運動による疑似歩行感覚提示に関する研究. (日本バーチャルリアリティ学会 VRと超臨場感研究会).
  109. 佐藤拓人, 池井寧, 広田光一, 雨宮智浩. (2014). 嗅覚・風覚情報の空間構成手法に関する研究. (日本バーチャルリアリティ学会 VRと超臨場感研究会).
  110. 田中遼, 池井寧, 阿部浩二, 広田光一, 雨宮智浩. (2014). 振動刺激提示による歩行時足底皮膚感覚生成手法に関する研究. (日本バーチャルリアリティ学会 VRと超臨場感研究会).
  111. 増田幸矩, 池井寧, 阿部浩二, 広田光一, 雨宮智浩. (2014). 下肢鉛直運動刺激による歩行感覚表現に関する研究. (日本バーチャルリアリティ学会 VRと超臨場感研究会).
  112. Amemiya, T. & Gomi, H. (2014). Distinct pseudo-attraction force sensation by a thumb-sized vibrator that oscillates asymmetrically. (Eurohaptics 2014).
  113. Ikei, Y., Okuya, Y., Shimabukuro, S., Abe, K., Amemiya, T. & Hirota, K. (2014). To Relive a Valuable Experience of the World at the Digital Museum. (In Proceedings of 16th International Conference on Human-Computer Interaction (HCI International 2014)).
  114. Ishii, R., Otsuka, K., Kumano, S. & Yamato, J. (2014). Analysis and Modeling of Next Speaking Start Timing based on Gaze Behavior in Multi-party Meetings. (IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP)).
  115. Kitamura, M., Watanabe, K. & Kitagawa, N. (2014). Effects of positive emotion on audiovisual integration. (International Multisensory Research Forum 2014).
  116. Takamuku, S. & Gomi, H. (2014). Fine-tuned force control under consistent visual feedback of object motion. (Annual meeting of the society for Neuroscience(Neuroscience2014)).
  117. Yamagishi, S., Ashihara, T., Otsuka, S., Furukawa, S. & Kashino, M (2014). Auditory brainstem and thalamo-cortical evoked responses that correlate perceptual switching on auditory streams. (2014 ICME International Conference on Complex Medical Engineering (CME2014)).
  118. 木谷俊介, リャオシンイ, 米家惇, 柏野牧夫, 古川茂人. (2014). タッピング法を用いた顕著性レベルの導出. (音学シンポジウム2014).
  119. Kitagawa, N. & Kitamura, M. (2014). The stream-bounce illusion depends on subjective audiovisual simultaneity. (15th International Multisensory Research Forum).
  120. Tajadura Jimenez, A., Deroy, O., Marquardt, T., Bianchi-Berthouze, N., Asai, T., Kimura, T. & Kitagawa, N. (2014). Auditory-tactile induced changes in represented leg height when dropping a ball. (15th International Multisensory Research Forum).
  121. Liao, H. I., Yoneya, M., Kidani, S., Kashino, M. & Furukawa, S. (2014). Can pupil dilation response be a marker for auditory salience?. (2014 International Conference on Complex Medical Engineering (CME2014)).
  122. Asai, T. (2014). Agency in sensorimotor dynamics. (IMRF 2014).
  123. Kihara, K., Takeuchi, T., Yoshimoto, S., Kondo, H.M. & Kawahara, J.I. (2014). The locus coeruleus-noradrenaline system facilitates attentional processing of action-triggered visual stimuli. (Vision Sciences Society 14th Annual Meeting(VSS2014)).
  124. 熊野史朗, 大塚和弘, 松田昌史, 石井亮, 大和淳司. (2014). 確率的トピックモデルによる対人認知傾向と性格特性の関連付け. (情報処理学会第76回全国大会).
  125. 北川智利. (2014). 多感覚知覚と身体のリアリティ. (VRと超臨場感研究会/URCF五感技術調査検討WG).
  126. 木谷俊介, 濱田康弘, 宮内良太, 鵜木祐史. (2014). 耳音響放射を用いた聴覚的注意の測定手法に関する予備的検討. (日本音響学会聴覚研究会).
  127. 木谷俊介, 廖心怡, 米家惇, 古川茂人, 柏野牧夫. (2014). 一対比較法、タッピング法を用いた聴覚的顕著性の心理学的評価. (日本音響学会2014年春季研究発表会).
  128. Kidani, S., Liao, H.I., Yoneya, M., Furukawa, S. & Kashino, M. (2014). Deriving the “Salience Level” of a Target Sound using a Tapping Technique. (Association for Research in Otolaryngology (ARO) 37th Annual MidWinter Meeting).
  129. Yoneya, M., Liao, H.I., Kidani, S., Furukawa, S. & Kashino, M. (2014). Sounds in Sequence Modulate Dynamic Characteristics of Microsaccades. (Association for Research in Otolaryngology (ARO) 37th Annual MidWinter Meeting).
  130. Liao, H.I., Shimojo, S. & Kashino, M. (2014). Pupil constriction during visual preference decision. (Vision Sciences Society 14th Annual Meeting(VSS2014)).
  131. 廖心怡, 米家惇, 木谷俊介, 柏野牧夫, 古川茂人. (2014). Pupil dilation induced by sound intensity. (第14回脳と心のメカニズム 冬のワークショップ).
  132. Ishii, R., Ozawa, S., Kawamura, H., Kojima, A. & Nakano, Y. (2014). Evaluation of Window Interface in Remote Collaboration Involving Pointing Gestures. (International Conference on Advances in Computer-Human Interactions(ACHI)).
  133. 伊藤 翔, 五味 裕章. (2014). 視覚-体性感覚情報の不一致が反射応答ゲインに及ぼす影響. 第8回 Motor Control 研究会.
  134. Ito, Sho & Gomi, Hiroaki (2014). Sensory mismatch decreases stretch reflex amplitude in mirrored visual tracking task. The 24th Annual Conference of the Japanese Neural Network Society.
  135. De Havas, Jack, Ito, Sho, Gomi, Hiroaki & Haggard, Patrick (2014). Control mechanisms underlying an involuntary movement: the effect of resistive and assistive perturbation on the Kohnstamm phenomenon. The Society for Neuroscience 44th Annual Meeting.
  136. 大石悠貴, 渡辺謙, 柏野牧夫. (2014). 音楽のテンポが自律神経系に与える効果. 公開シンポジウム「潜在脳と自閉症 ~当事者・基礎・臨床の対話から見えてくる,社会性障害への新しいアプローチ~」. 東京.
  137. 大石悠貴, 川戸佳, 柏野牧夫. (2014). 唾液内オキシトシン濃度分析. NTT・東京大学Proprius21. 東京.
  138. Yuuki, Ooishi & Takashi, Sato (2014). Sound presentation during different respiration phases alters the sound-induced sympathetic tone. 9th FENS Forum of Neuroscience. Milan (Italy).
  139. Ken, Watanabe, Yuuki, Ooishi & Makio, Kashino (2014). The entrainment of heart rate to acoustic tempo. 9th FENS Forum of Neuroscience. Milan (Italy).
  140. 渡辺謙, 大石悠貴, 柏野牧夫. (2014). 音のテンポに対する心拍の引き込み. 日本音響学会2014年秋季研究発表会. 札幌.
  141. Yuki, Oishi, Maori, Kobayashi, Norimichi, Kitagawa, Kanako, Ueno, Shiro, Ise & Makio, Kashino (2014). Effects of speakers' subtle unconscious movements on listener's autonomic nerve activity. 第37回日本神経科学大会. 横浜.
  142. Ken, Watanabe, Yuuki, Ooishi & Makio, Kashino (2014). The entrainment of heart rate to acoustic tempo. 第37回日本神経科学大会. 横浜.
  143. Watanabe, Junji, Seiichiro Hirahara, Maeda, Taro & Ando, Hideyuki (2014). Interactive Technologies with Applied Perception. International Display Workshops 2014. Nigata, JP.
  144. Ando, Hideyuki, Hirabara, Seichiro, Maeda, Taro & Watanabe, Junji (2014). Slit-based Light Field 3D Display. SIGGRAPH 2014. Vancouver City, CA.
  145. Kagitani, Tatsuki, Goto, Mao, Watanabe, Junji & Sakamoto, Maki (2014). Sound Symbolic Relationship between Onomatopoeia and Emotional Evaluations in Taste. CogSci 2014. Quebec City, CA.
  146. Tsuboi, Hiroki, Inoue, Makoto, Kuroki, Scinob, Mochiyama, Hiromi & Watanabe, Junji (2014). Roughness perception of micro-particulate plate: a study on two-size-mixed stimuli. Eurohaptics 2014. Paris, FR.
  147. Kuroki, Scinob, Watanabe, Junji & Nishida, Shin'ya (2014). Vibrotactile frequency discrimination performance with cross-channel distractors. Eurohaptics 2014. Paris, FR.
  148. Doizaki, Ryuichi, Watanabe, Junji & Sakamoto, Maki (2014). A System Evaluating Tactile Feelings Expressed by Sound Symbolic Words. Eurohaptics 2014. Paris, FR.
  149. Suzuki, Yasuhiro, Suzuki, Rieko & Watanabe, Junji (2014). Transformation from text to touch - Touching a “Japanese old tale. CHI Conference on Human Factors in Computing Systems 2014. Toronto, CA.
  150. Ando, Hideyuki & Watanabe, Junji (2014). Implementation of the multi-slit stereoscopic display -Device design-. ASIAGRAPH Forum 2014. Bali, ID.
  151. 池田 まさみ, 渡邊 淳司, 北崎 充晃, 北崎 充晃, 吉田 成朗, 上田 祥代. (2014). これからの知覚心理学教育を考える-小・中学生を対象とした心理学実験ワークショップを通して-. 日本基礎心理学会第33回大会. 東京.
  152. 長谷川 晶一, 筧 康明, 馬場 哲晃, 渡邊 淳司. (2014). VR学会アート&エンタテインメント研究委員会OS VR研究と作品の関係の再発見. 日本バーチャルリアリティ学会第19回大会. 名古屋.
  153. 黒木 忍, 渡邊 淳司, 西田 眞也. (2014). 振幅変調振動の変調成分知覚特性の検討. 日本バーチャルリアリティ学会第19回大会. 名古屋.
  154. 飯田 直己, 黒木 忍, 渡邊 淳司. (2014). 継時的に提示される振動刺激の回数把握における身体距離の影響. 日本バーチャルリアリティ学会第19回大会. 名古屋.
  155. 野々下 雄斗, 黒木 忍, 渡邊 淳司. (2014). 触覚における片側性時間順序判断と両側性時間順序判断の違い. 日本バーチャルリアリティ学会第19回大会. 名古屋.
  156. 植月 美希, 丸谷 和史, 安藤 英由樹, 渡邊 淳司. (2014). 動的文章表示における最適提示速度と読み速度の関連. 日本心理学会第78回大会. 京都.
  157. 田中 由浩, 渡邊 淳司, 岡本 正吾, 望山 洋. (2014). 身近な触感デザイン. ヒューマンインタフェースシンポジウム2014. 京都.
  158. 長谷川 晶一, 渡邊 淳司, 筧 康明, 馬場 哲晃, 岩井 大輔. (2014). アート&エンタテインメントと論文査読. 第32回 情報処理学会エンタテインメントコンピューティング研究会. 北海道.
  159. 鍵谷 龍樹, 白川 由貴, 土斐崎 龍一, 渡邊 淳司, 丸谷 和史, 河邉 隆寛, 坂本 真樹. (2014). オノマトペの音韻を用いて粘性動画を推薦する手法の提案. 2014年度人工知能学会全国大会(第28回). 愛媛.

misc

  1. 雨宮 智浩, 高椋 慎也, 伊藤 翔, 五味 裕章. (2014). 指でつまむと引っ張られる感覚を生み出す装置「ぶるなび3」. NTT技術ジャーナル, 26 (9), 23-26.
  2. 柏野牧夫, 米家惇, Liao H.-I., 古川茂人. (2014). 体から潜在的な心を解読するマインドリーディング技術. NTT技術ジャーナル2014年9月号 特集「コミュニケーション科学の新展開」, 26, 32-36.
  3. 麦谷綾子. (2014). 赤ちゃんへのかたりかけ. 保育ナビ, 5, 69-71.
  4. 小笠原 隆行, 小野一善, 松浦 伸昭, 山口 真澄, 渡邊 淳司, 塚田 信吾. (2014). ウェアラブル電極インナー技術の応用展開. NTT技術ジャーナル, 26 (11), 16-20.

2013

論文

  1. Gomi, Hiroaki, Abekawa, Naotoshi & Shimojo, Shinsuke (2013). The hand sees visual periphery better than the eye: motor-dependent visual motion analyses. The Journal of Neuroscience, 33 (42), 16502-9.
  2. Roseboom, W., Kawabe, T. & Nishida, S. (2013). The cross-modal double flash illusion depends on featural similarity between cross-modal inducers. Scientific Reports, 3, 3437.
  3. Linares, D. & Nishida, S. (2013). A synchronous surround increases the motion strength gain of motion. Journal of Vision, 13, 1-15.
  4. Roseboom, W., Kawabe, T. & Nishida, S. (2013). Audio-visual temporal recalibration can be constrained by content cues regardless of spatial overlap. Frontiers in Psychology, 4, 189.
  5. Yamada, Y., Kawabe, T. & Miyazaki, M. (2013). Pattern randomness aftereffect. Scientific Reports, 3, 2906.
  6. Yamada, Y. & Kawabe, T. (2013). Gaze-cueing of attention distorts visual space. Universitas Psychologica, 12 (5), 1501-1510.
  7. Kawabe, T. (2013). Inferring sense of agency from the quantitative aspect of action outcome. Consciousness and Cognition., 22 (2), 407-412.
  8. Kawabe, T. (2013). Side effect of acting on the world: Acquisition of action-outcome statistic relation alters visual interpretation of action outcome. Frontiers in Human Neuroscience, 7, 610.
  9. Kawabe, T., Roseboom, W. & Nishida, S. (2013). The sense of agency is action-effect causality perception based on cross-modal grouping. Proceedings of the Royal Society B: Biological Sciences(Proc. R. Soc. B), 280 (1763), 20130991.
  10. 雨宮智浩, 広田光一, 池井寧. (2013). 座面上の触仮現運動が及ぼす視覚誘導性自己運動感覚の速度知覚変化. 日本バーチャルリアリティ学会論文誌, 18 (2), 121-130.
  11. 雨宮智浩, 前田太郎. (2013). スマートフォンを用いた胸骨圧迫CPR動作の教示システムの開発と評価. 知能と情報(日本知能情報ファジィ学会誌), 25 (4), 819-825.
  12. Amemiya, T. & Gomi, H. (2013). Directional Torque Perception with Brief, Asymmetric Net Rotation of a Flywheel. IEEE Transactions on Haptics, 6 (3), 370-375.
  13. Hiroya, S. (2013). Non-negative temporal decomposition of speech parameters by multiplicative update rules. IEEE Trans. Audio, Speech and Language Processing., 21 (10), 2108-2117.
  14. Hiroya, S. (2013). Speaking rhythm extraction and control by non-negative temporal decomposition. NTT Technical Review 2013, 11 (12).
  15. 廣谷定男. (2013). 発話リズムを抽出・制御する音声信号処理. NTT技術ジャーナル 2013, 25 (9), 26-29.
  16. 北川智利. (2013). 聴くことと身体を感じることのかかわり. NTT技術ジャーナル, 25 (9), 30-33.
  17. Koizumi, A., Kitagawa, N., Kondo, H. M., Kitamura, M.S., Sato, T. & Kashino, M. (2013). Serotonin transporter gene-linked polymorphism affects detection of facial expressions. PLOS ONE, 8, e59074.
  18. Mochida, T., Kimura, T., Hiroya, S., Kitagawa, N., Gomi, H. & Kondo, T. (2013). Speech misperception: speaking and seeing interfere differently with hearing. PLOS ONE, 8 (7), e68619.
  19. Furukawa, S., Nishida, T., Kondo, T. & Kakehi, K. (2013). Insensitivity to the coherence of interaural-time-difference modulation across frequency channels. Acoust. Sci. Tech., 34, 397-403.
  20. 松田昌史, 八重樫海人, 大坊郁夫, 熊野史朗, 大塚和弘, 大和淳司. (2013). ビデオ通信環境における対人位置と印象形成に関する探索的研究. ヒューマンインタフェース学会誌, 15 (1), 433-442.
  21. Ishii, R., Nakano, Y. & Nishida, T. (2013). Gaze Awareness in Conversational Agents: Estimating User's Conversational Engagement using Eye-gaze. The ACM Transactions on Interactive Intelligent System, Special issue on interaction with smart objects, Special section on eye gaze and conversation archive, 3(2) (11).
  22. 石井亮, 小澤史朗, 川村春美, 小島明, 中野有紀子. (2013). 窓越しインタフェースMoPaCoによる指示作業への効果検証. 電子情報通信学会論文誌, J96-D (12), 3044-3054.
  23. Liao, H.I., Wu, D.A., Halelamien, N. & Shimojo, S. (2013). Cortical stimulation consolidates and reactivates visual experience: Neural plasticity from magnetic entrainment of visual activity. Scientific Reports, 3, 2228.
  24. Liao, H.I., Shimojo, S. & Yeh, S.L. (2013). Happy faces are preferred regardless of familiarity - Sad faces are preferred only when familiar. Emotion, 13 (3), 391-396.
  25. 大塚和弘, 熊野史朗, 昌史松田, 淳司大和. (2013). MM-Space: 頭部運動の物理的補強表現に基づく会話場再構成. 情報処理学会論文誌, 54 (4), 1450-1461.
  26. 大塚和弘, 古山宣洋, 坊農真弓. (2013). 遠隔地間でも自然な会話を実現する、未来の井戸端会議とは. NII Today, 62, 006-007.
  27. 坂本真樹, 渡邊淳司. (2013). 自然言語による感性的質感評価を定量化するシステム. ケミカルエンジニアリング, 58 (3), 13-19.
  28. 丸谷和史. (2013). iPadを使うとどんなことができるのか. 心理学ワールド, 60, 23-24.
  29. Yamada, Y. & Kawabe, T. (2013). Localizing non-retinotopically moving objects. PLoS One, 8 (1).
  30. Edwards, M., Cassnello, R.C., Badcock, D.R. & Nishida, S. (2013). Effect of form cues on 1D and 2D motion pooling. Vision Research, 76, 94-104.
  31. Maruya, K., Holcombe, A.O. & Nishida, S. (2013). Rapid encoding of relationships between spatially remote motion signals. Journal of Vision, 13(2) (4), 1-20.
  32. Roseboom, W., Kawabe, T. & Nishida, S. (2013). Direction of visual apparent motion driven by perceptual organisation in cross-modality signals. Journal of Vision, 13(1) (6), 1-13.
  33. Furukawa, S., Washizawa, S., Ochi, A. & Kashino, M. (2013). How independent are the pitch and the interaural-time-difference mechanisms that rely on temporal fine structure information?. Basic Aspects of Hearing: Advances in Experimental Medicine and Biology, 787, 91-99.
  34. Hosokawa, K., Maruya, K. & Sato, T. (2013). Temporal characteristics of depth perception from motion parallax. Journal of Vision, 13(1) (16), 1-8.
  35. Kato, M. & Konishi, U. (2013). Where and how infants look: The development of fixations and scan paths in face perception. Infant Behavior and Development: An International and Interdisciplinary Journal, 36 (1), 32-41.
  36. Seno, T., Kawabe, T., Ito, H. & Sunaga, S. (2013). Vection modulates emotional valence of autobiographical episodic memories. Cognition, 126, 115-120.
  37. Liao, H.-I. & Yeh, S.-L. (2013). Capturing attention is not that simple: Different mechanisms for stimulus-driven and contingent capture. Attention, Perception, & Psychophysics, 75, 1703-1714.
  38. 鈴木 理絵子, 渡邊 淳司, 鈴木 泰博. (2013). “触譜”で記述されるマッサージにおける手技プリミティブのイメージ分類. 日本バーチャルリアリティ学会論文誌, 18 (3), 401-404.
  39. Kuroki, Scinob, Watanabe, Junji & Nishida, Shin'ya (2013). Contribution of within- and cross-channel information to vibrotactile frequency discrimination. Brain Research, 1529, 46-55.
  40. Ando, Hideyuki, Yoshida, Tomofumi & Watanabe, Junji (2013). "SaveYourSelf !!!" - An externalized sense of balance. Leonardo, 46 (3), 286-287.
  41. 坂本 真樹, 渡邊 淳司. (2013). 手触りの質を表すオノマトペの有効性-感性語との比較を通して. 日本認知言語学会論文集, 13, 473-485.
  42. Watanabe, Junji (2013). Pseudo-haptic sensation wlicited by background visual motion. ITE Transactions on Media Technology and Applications, 1 (2), 199-202.
  43. 丸谷 和史, 植月 美希, 安藤 英由樹, 渡邊 淳司. (2013). ユーザのなぞり動作に基づく動的文章表示方式. 情報処理学会論文誌, 54 (4), 1507-1517.

書籍

  1. 池井寧, 阿部浩二, 雨宮智浩, 広田光一. (2013). 超臨場感:バーチャル身体による追体験. 株式会社NTS (Eds.), 次世代ヒューマンインタフェース開発最前線. (pp.493-500). 株式会社NTS.
  2. 黒木忍, 渡邊淳司. (2013). 触覚の時空間知覚における情報統合. 触覚認識メカニズムと応用技術-触覚センサ・触覚ディスプレイ-. サイエンス&テクノロジー出版.
  3. 坂本 真樹, 渡邊 淳司. (2013). オノマトペの音象徴を利用した人の完成の定量化と工学的応用の可能性 -触覚経験の感性情報処理を中心に. 篠原 和子, 宇野 良子 (Eds.), オノマトペ研究の射程 -近づく音と意味. (pp.299-314). ひつじ書房.
  4. 渡邊 淳司, 早川 智彦, 松井 茂. (2013). オノマトペを(再)記号接地する試み -音声詩と触り心地のワークショップ. 篠原 和子, 宇野 良子 (Eds.), オノマトペ研究の射程 -近づく音と意味. (pp.315-329). ひつじ書房.
  5. 鈴木 理絵子. (2013). ファセテラピー・メソッド 透明感のある柔らかい肌をつくるには. 春秋社.

会議

  1. Liao, H.I., Yang, Y.H. & Yeh, S.L. (2013). Unconscious feature binding of color and orientation. (Neuro2013).
  2. Nishida, S. (2013). 視覚と他の感覚との統合過程. (第117回日本眼科学会総会 基礎研究セミナー「他分野の基礎研究から学ぶ」).
  3. 河邊隆寛, Roseboom W., 西田眞也. (2013). 行為主体感覚は行為と行為結果との群化に基づく因果知覚である. (日本視覚学会 2013年夏季大会).
  4. 丸谷和史, 河邊隆寛, 西田眞也. (2013). 運動情報に基づく液体の質感知覚. (日本視覚学会 2013年冬季大会).
  5. 王勤, 本吉勇, 西田眞也. (2013). 光沢知覚への高次空間要因の影響―中心視と周辺視の比較. (日本視覚学会 2013年冬季大会).
  6. Nishida, S. (2013). 光と反射の視覚科学. (包括脳夏のワークショップ「新しい視覚の脳科学への展望シンポジウム」).
  7. Nishida, S. (2013). Hierarchical processing of motion information by human vision. (The Kyoto University and University College London Workshop on the Perception of Motion and Pattern 2013.).
  8. Maruya, K., Kawabe, T. & Nishida, S. (2013). Material from motion - Human perception of fluid properties from motion vector fields. (Vision Science Society 2013 (VSS2013)).
  9. Sawayama, M. & Motoyoshi, I. (2013). 物体表面の粗さに対する視覚分解能. (日本基礎心理学会第32回大会).
  10. Kawabe, T., Maruya, K. & Nishida, S. (2013). Transparent liquid impression. Evidence for a tuning to spatiotemporal frequencies of motion vectors. (PRISM2: The science of light and shade workshop).
  11. Kawabe, T. (2013). Non-retinotopic motion processing underlies postdictive appearance modulation. (European Conference on Visual Perception(ECVP2014)).
  12. 河邉隆寛. (2013). 行為者の手の遅延視覚フィードバックは遅延外界イベントに対する行為統制感を向上させる. (第36回 日本神経科学大会(Neuro2013)).
  13. Ho, H.-N., Sato, K., Kuroki, S., Watanabe, J., Maeno, T. & Nishida, S. (2013). Timing difference between subjective and physical temperature peaks in warm and cold senses. (温熱生理研究会2013).
  14. 奥屋裕次郎, 池井寧, 阿部浩二, 広田光一, 雨宮智浩. (2013). 下肢部振動付与と聴覚刺激による歩行運動の表現に関する研究. (第18回日本バーチャルリアリティ学会大会).
  15. 田中遼, 池井寧, 阿部浩二, 広田光一, 雨宮智浩. (2013). 歩行感覚表現のための足底皮膚感覚の生成手法に関する研究. (第18回日本バーチャルリアリティ学会大会).
  16. 増田幸矩, 池井寧, 阿部浩二, 広田光一, 雨宮智浩. (2013). 下肢部駆動刺激による歩行感覚表現に関する研究. (第18回日本バーチャルリアリティ学会大会).
  17. 広田光一, 佐々木昴, 雨宮智浩, 池井寧. (2013). つり革デバイスによる電車の揺れの提示. (第18回日本バーチャルリアリティ学会大会).
  18. 広田光一, 伊藤洋子, 雨宮智浩, 池井寧. (2013). 五感シアターのための匂いの提示と計測手法. (第18回日本バーチャルリアリティ学会大会).
  19. 雨宮智浩, 広田光一, 池井寧. (2013). 座面上の触仮現運動が及ぼす移動感覚の速度知覚変化. (第18回日本バーチャルリアリティ学会大会).
  20. 広田光一, 雨宮智浩, 池井寧. (2013). 五感シアターにおける空気メディア. (HCGシンポジウム2013).
  21. 島袋誠也, 川真田晃久, 阿部浩二, 池井寧, 雨宮智浩, 広田光一. (2013). 可動座席による歩行感覚表現に関する研究. (第18回日本バーチャルリアリティ学会大会).
  22. Amemiya, T., Hirota, K. & Ikei, Y. (2013). Tactile Apparent Motion Presented from Seat Pan Facilitates Racing Experience. (In Proceedings of 15th International Conference on Human-Computer Interaction (HCI International 2013)).
  23. Sasaki, T., Hirota, K., Amemiya, T. & Ikei, Y. (2013). Train Ride Simulation using Assist Strap Device. (In Proceedings of 15th International Conference on Human-Computer Interaction (HCI International 2013)).
  24. Hirota, K., Ito, Y., Amemiya, T. & Ikei, Y. (2013). Presentation of Odor in Multi-sensory Theater. (In Proceedings of 15th International Conference on Human-Computer Interaction (HCI International 2013)).
  25. Ikei, Y., Abe, K., Masuda, Y., Okuya, Y., Amemiya, T. & Hirota, K. (2013). Virtual Experience System for a Digital Museum. (In Proceedings of 15th International Conference on Human-Computer Interaction (HCI International 2013)).
  26. 伊藤翔, 木村聡貴, 五味裕章. (2013). 持続運動中の疲労知覚における進み視覚フィードバックの影響. (第36回 日本神経科学大会(Neuro2013)).
  27. 伊藤翔, 木村聡貴, 五味裕章. (2013). 先行視覚フィードバックが指運動中の疲労知覚に及ぼす影響. (第5回多感覚研究会).
  28. Ito, S., Kimura, T. & Gomi, H. (2013). State estimation model explains perceived fatigue modulation by preceding and delayed visual feedback. (The Society for Neuroscience 2013 ,43rd Annual Meeting).
  29. 持田岳美, 五味裕章. (2013). Interaction between changes in articulatory movement and auditory timing during monosyllable articulation under preceding auditory feedback. (第36回 日本神経科学大会(Neuro2013)).
  30. Mochida, T. & Gomi, H. (2013). Speech adaptation under delayed auditory feedback environment affects speech perception in an articulator-specific manner. (Society for Neuroscience 2013).
  31. 高椋慎也, 五味裕章. (2013). 遅延視覚フィードバックによる力覚バイアスの衝突映像による軽減. (第5回多感覚研究会).
  32. 高椋慎也, 五味裕章. (2013). 遅延視覚フィードバックによる力覚バイアスは衝突映像により軽減される. (第36回 日本神経科学大会(Neuro2013)).
  33. Takamuku, S. & Gomi, H. (2013). Impacts of delayed visual feedback and visual collision on perception of resistive force applied during reaching movements. (Annual meeting of the society for Neuroscience(Neuroscience2013)).
  34. Kumano, S., Otsuka, K., Matsuda, M., Ishii, R. & Yamato, J. (2013). Using A Probabilistic Topic Model to Link Observers' Perception Tendency to Personality. (The fifth biannual Humaine Association Conference on Affective Computing and Intelligent Interaction (ACII 2013)).
  35. Sanchez-Cortes, D., Biel, J., Kumano, S., Yamato, J., Otsuka, K. & Gatica-Perez, D. (2013). Inferring mood in ubiquitous conversational video. (The 12th International Conference on Mobile and Ubiquitous Multimedia (MUM '13 )).
  36. Ooishi, Y., Mukai, H., Watanabe, K., Kawato, S. & Kashino, M. (2013). The effect of the tempo of music on the autonomic and endocrinological systems. (UCL-NTT meeting).
  37. 加藤正晴. (2013). 自閉症者にみられる感覚のまとめ上げ困難は知覚処理のどのレベルでおきるのか. (第5回多感覚研究会).
  38. 加藤正晴. (2013). 乳児が顔を顔と認識し始めるのはいつか-視線パタンから探る顔認知能力. (日本発達神経科学学会).
  39. 加藤正晴. (2013). 視線パターンから測る乳児の顔認知能力. (日本応用心理学会).
  40. 加藤正晴. (2013). 顔画像に対する視線パタンの収束は家画像でも生じるか. (日本赤ちゃん学会第13回学術集会).
  41. 北川智利. (2013). 聴覚の身体性. (日本心理学会第77回大会).
  42. 北川智利. (2013). 交差/反発現象における反発知覚と同時知覚の関係. (第5回多感覚研究会).
  43. Koizumi, A., Shirama, A. & Kitagawa, N. (2013). The expressers' gaze distance affects perception of facial expressions. (International Society for Research on Emotion).
  44. Shirama, A., Koizumi, A. & Kitagawa, N. (2013). Your eye movements tell who you are. (European Conference on Visual Perception).
  45. 久永聡子, 麦谷綾子, 加藤正晴, 積山薫. (2013). 視聴覚音声知覚発達からみた日本語環境下の乳幼児期発達. (日本赤ちゃん学会第13回学術集会).
  46. 木谷俊介, 廖心怡, 米家惇, 古川茂人, 柏野牧夫. (2013). 音の顕著性の定量化手法の検討. (日本基礎心理学会第32回大会).
  47. Altmann, C. F., Terada, S., Kashino, M., Mima, T., Fukuyama, H. & Furukawa, S. (2013). Independent or integrated processing of interaural time and level differences in human auditory cortex?. (Neuroscience2013).
  48. Kawano, H. (2013). Effect of Virtual Work braking on Distributed Multi-Robot Reinforcement Learning. (2013 IEEE International Conference on Systems, Man, and Cybernetics).
  49. Toshima, I., Kondo, H.M., Pressnitzer, D. & Kashino, M. (2013). Evaluating the effect of head motion on auditory streaming using an acoustical telepresence robot: TeleHead. (Final Symposium on JST-ANR Binaural Active Audition for Humanoid Robots).
  50. 近藤洋史, 戸嶋巌樹, Pressnitzer Daniel, 柏野牧夫. (2013). Effects of sound motion and head motion on the resetting of auditory streaming. (第36回 日本神経科学大会(Neuro2013)).
  51. 近藤洋史, Pressnitzer Daniel, 戸嶋巌樹, 柏野牧夫. (2013). 音脈のリセットに対する音源移動と頭部運動の影響. (音学シンポジウム 2013).
  52. 戸嶋巌樹, 近藤洋史, Pressnitzer Daniel, 柏野牧夫. (2013). 音脈の知覚変化に対する頭部運動の影響. (音学シンポジウム 2013).
  53. 武田十季, 熊野史朗, 小笠原隆行, 小林稔, 浦哲也, 定方徹, 田中智博. (2013). コミュニケーション活性化のための感情状態のランク付けに基づく体験記録提示インタフェースの提案と評価. (電子情報通信学会 ヒューマンコミュニケーション基礎研究会(HCS2013年8月研究会)).
  54. Lin, I.F., Kashino, M., Ohta, H., Yamada, T., Watanabe, H., Kanai, C., Tani, M., Ohno, T., Ichihashi, K., Takayama, Y., Iwanami, A. & Kato, N. (2013). The Effect of Oxytocin On Sympathetic Responses While Listening to Emotional Sounds in Autism. (Annual meeting of International Society for Autism Research).
  55. 廖心怡, 米家惇, 木谷俊介, 柏野牧夫, 古川茂人. (2013). 聴覚刺激に対する瞳孔反応 : 刺激特性、呈示確率、自発的注意の影響. (日本音響学会聴覚研究会).
  56. Ishii, R., Otsuka, K., Kumano, S., Matsuda, M. & Yamato, J. (2013). Predicting Next Speaker and Timing from Gaze Transition Patterns in Multi-Party Meetings. (ACM International Conference on Multimodal Interaction).
  57. 石井亮, 大塚和弘, 熊野史朗, 松田昌史, 大和淳司. (2013). 複数人対話における注視遷移パターンに基づく次話者と発話開始タイミングの予測. (第68回 人工知能学会 言語・音声理解と対話処理研究会(SIG-SLUD-B301)).
  58. 石井亮, 大塚和弘, 熊野史朗, 松田昌史, 大和淳司. (2013). Predicting Next Speaker and Timing from Gaze Transition Patterns in Multi-Party Meetings. (UCL-NTT meeting).
  59. Otsuka, K., Kumano, S., Ishii, R., Zbogar, M. & Yamato, J. (2013). MM+Space: n x 4 Degree-of-Freedom Kinetic Display for Recreating Multiparty Conversation Spaces. (ACM International Conference on Multimodal Interaction).
  60. 大塚和弘. (2013). 研究紹介:コミュニケーションシーンの分析と再構成. (第5回多感覚研究会).
  61. Otsuka, K. (2013). onversation Scene Analysis and Reconstruction. (UCL‐NTT Collaboration “Deep Brain Communication”Project 2nd Meeting).
  62. 大塚翔, 山岸慎平, 広田光一, 古川茂人, 柏野牧夫. (2013). 詳細時間構造の処理能力:歪成分耳音響放射およびクリック誘発耳音響放射との関連. (日本音響学会2013年春季研究発表会).
  63. 金谷翔子, 藤崎和香, 西田眞也, 古川茂人, 横澤一彦. (2013). 聴覚モジュール内、モジュール間の対応付けの時間限界の比較. (日本音響学会2013年春季研究発表会).
  64. 北川智利. (2013). 触覚と聴覚の類似性と相互作用. (第4回 多感覚研究会).
  65. 北村美穂, 渡邊克己, 北川智利. (2013). ポジティブな気分は視聴覚統合を促進する. (第4回 多感覚研究会).
  66. ホーシンニ, Van Doorn G., 河邊隆寛, 渡邊淳司, Spence C. (2013). A study on thermal-colour correspondences. (第4回 多感覚研究会).
  67. 河邊隆寛. (2013). 行為主体感とBダッシュ効果. (第4回 多感覚研究会).
  68. 石井太一, 本吉勇, 蒲池みゆき. (2013). 不注意による運動検出感度の向上. (日本視覚学会 2013年冬季大会).
  69. 本吉勇. (2013). 物体残効と物体カテゴリ認識. (日本視覚学会 2013年冬季大会).
  70. 佐藤弘美, 本吉勇, 佐藤隆夫. (2013). 出来事の時間的な全体と部分に対する知覚的意思決定. (日本視覚学会 2013年冬季大会).
  71. 河邊隆寛, 丸谷和史, 西田眞也. (2013). 動的な画像の歪みに基づく透明な液体の知覚. (日本視覚学会 2013年冬季大会).
  72. 丸谷和史, 河邊隆寛, 西田眞也. (2013). 液体の質感推定に重要な運動の空間情報. (日本視覚学会 2013年冬季大会).
  73. 池井聡, 沼田亮太, 古川茂人, 杉本俊二, 堀川順生. (2013). Suppressive effect of auditory cortical activity by near-infrared and red laser irradiation. (第36回 日本神経科学大会(Neuro2013)).
  74. 渡辺謙, 大石悠貴, 柏野牧夫. (2013). 音のテンポと呼吸数の組み合わせが自律神経系に与える影響II: 心拍変動解析. (第36回 日本神経科学大会(Neuro2013)).
  75. 廣谷定男. (2013). A relationship between speaking and listening to speech: Impact of speech sound naturalness. (第36回 日本神経科学大会(Neuro2013)).
  76. 益冨恵子, Barascud N., Overath T., 柏野牧夫, McDermott J., Chait M. (2013). 混合音中で複数回出現する未知の音の検出に選択的注意は必要か. (第36回 日本神経科学大会(Neuro2013)).
  77. 山岸慎平, 芦原孝典, 大塚翔, 古川茂人, 柏野牧夫. (2013). ヒトの脳幹における音脈分凝の神経相関. (第36回 日本神経科学大会(Neuro2013)).
  78. Wang, Q., Motoyoshi, I. & Nishida, S. (2013). Characterization of high-level image features for surface gloss perception. (Vision Science Society 2013 (VSS2013)).
  79. Motoyoshi, I. (2013). Visual aftereffects in natural object categories. (Vision Science Society 2013 (VSS2013)).
  80. Kamachi, M., Ishii, T. & Motoyoshi, I. (2013). Voluntary disattention facilitates global motion detection. (Vision Science Society 2013 (VSS2013)).
  81. Nakayama, R., Motoyoshi, I. & Sato, T. (2013). Motion pop-out is determined by extra-retinal coordinate. (Vision Science Society 2013 (VSS2013)).
  82. Kanaya, S., Fujisaki, W., Nishida, S., Furukawa, S. & Yokosawa, K. (2013). Comparisons of temporal frequency limits for cross-attribute binding tasks in vision and audition. (Vision Science Society 2013 (VSS2013)).
  83. Amano, K., Qi, L., Takeda, T. & Nishida, S. (2013). Neural correlates of time marker for simultaneity judgment. (Vision Science Society 2013 (VSS2013)).
  84. Kawabe, T., Maruya, K. & Nishida, S. (2013). Seeing transparent liquids from dynamic image distortion. (Vision Science Society 2013 (VSS2013)).
  85. Sato, H., Motoyoshi, I. & Sato, T. (2013). Perception of global trend from dynamic stimuli. (Vision Sciences Society Annual meeting).
  86. Linares, D., Motoyoshi, I. & Nishida, S. (2013). Facilitation of rapid motion perception by a static, but not dynamic, synchronous surround. (Vision Sciences Society Annual Meeting).
  87. Watanabe, J. & Sakamoto, M. (2013). Sound Symbolic Relationship between Onomatopoeias and Emotional Evaluations in Taste and Touch. (Iconicity: East meets West).
  88. Amemiya, T. & Maeda, T. (2013). Depth and Rate Estimation for Chest Compression CPR with Smartphone. (IEEE 8th Symposium on 3D User Interfaces (3DUI 2013)).
  89. Amemiya, T., Hirota, K. & Ikei, Y. (2013). Tactile Flow on Seat Pan Modulates Perceived Forward Velocity. (IEEE 8th Symposium on 3D User Interfaces (3DUI 2013)).
  90. Hirota, K., Ito, Y., Amemiya, T. & Ikei, Y. (2013). Generation of Directional Wind by Colliding Airflows. (World Haptics Conference (WHC) 2013).
  91. Amemiya, T. & Gomi, H. (2013). Camera pose estimation with a two-dimensional marker grid for haptic navigation. (IEEE Virtual Reality 2013 (VR 2013)).
  92. Amemiya, T., Hirota, K. & Ikei, Y. (2013). Perceived Forward Velocity Increases with Tactile Flow on Seat Pan. (IEEE Virtual Reality 2013 (VR 2013)).
  93. Furukawa, S., Nishida, T., Kondo, T. & Kakehi, K. (2013). Sensitivities to the relative phase of interaural-time-difference modulations between carrier frequencies. (36th ARO (Association for Research in Otolaryngology) MidWinter Meeting).
  94. Yamagishi, S., Ashihara, T., Otsuka, S., Furukawa, S. & Kashino, M. (2013). Neural Correlates of Auditory Streaming in the Human Brainstem. (36th ARO (Association for Research in Otolaryngology) MidWinter Meeting).
  95. Kashino, M., Furukawa, S., Nakano, T., Washizawa, S., Yamagishi, S., Ochi, A., Nagaike, A., Kitazawa, S. & Kato, N. (2013). Specific Deficits of Basic Auditory Processing in High-Functioning Pervasive Developmental Disorders. (36th ARO (Association for Research in Otolaryngology) MidWinter Meeting).
  96. Lin, I.F., Chait, M. & Kashino, M. (2013). The effect of visual cues on auditory segregation. (36th ARO (Association for Research in Otolaryngology) MidWinter Meeting).
  97. Otsuka, S., Yamagishi, S., Hirota, K., Furukawa, S. & Kashino, M. (2013). Relationship between middle-ear transmission characteristics and frequency modulation detection. (36th ARO (Association for Research in Otolaryngology) MidWinter Meeting).
  98. Masutomi, K., Barascud, N., Overath, T., Kashino, M., McDermott, J. & Chait, M. (2013). Recovering Sound Sources from Embedded Repetition And Directed Attention: Effect of Spectral Information on Sound Segregation. (36th ARO (Association for Research in Otolaryngology) MidWinter Meeting).
  99. Kawano, H. (2013). Hierarchical Sub-task Decomposition for Reinforcement Learning of Multi-robot Delivery Mission. (2013 IEEE International Conference on Robotics and Automation(ICRA2013)).
  100. 古川茂人, 西田鶴代, 近藤公久, 筧一彦. (2013). Sensitivities to coherence of motion-direction information between cues and frequencies. (第36回 日本神経科学大会(Neuro2013)).
  101. Lin, I.F., Kashino, M., Ohta, H., Yamada, T., Ichihashi, K., Tani, M., Watanabe, H., Kanai, C., Ohno, T., Takayama, Y., Iwanami, A. & Kato, N. (2013). The effect of oxytocin on autonomic responses toward human sounds in autism. (第36回 日本神経科学大会(Neuro2013)).
  102. 渡辺謙, 大石悠貴, 柏野牧夫. (2013). 音のテンポと呼吸数の組み合わせが自律神経系に与える影響. 日本音響学会2013年春季研究発表会. 八王子.
  103. 渡辺謙, 大石悠貴, 柏野牧夫. (2013). 音のテンポと呼吸数の組み合わせが自律神経系に与える影響. 音学シンポジウム2013. 茗荷谷.
  104. Ken, Watanabe, Yuuki, Ooishi & Makio, Kashino (2013). The effects of the combination of acoustic tempo and respiratory rate on the autonomic nervous system II : heart rate variability. 第36回日本神経科学大会(neuro2013). 京都.
  105. 大石悠貴. (2013). 唾液内オキシトシンの濃度測定. 東京大学技術交流会. 東京.
  106. Watanabe, Junji & Ho, Hsin-Ni (2013). Color-temperature association: A blue object is more likely to be judged as warm than a red object. Sound Symbolism Workshop 2013. Tokyo, JP.
  107. Watanabe, Junji (2013). Experience Design for Symbol Grounding an d Evoking Concepts. 15th JSAI International Symposia on AI - SIGNAC Natural Computing Meets Computational Aesthetics. Yokohama, JP.
  108. Suzuki, Yasuhiro, Suzuki, Rieko, Watanabe, Junji & Akiba, Fuminori (2013). Tactile score, a method of describing the sense of touching. 5th International Congress of International Association of Societies of Design Research. Tokyo, JP.
  109. Sakamoto, Maki, Yoshino, Junya & Watanabe, Junji (2013). Development of tactile materials representing human basic tactile sensations. 5th International Congress of International Association of Societies of Design Research. Tokyo, JP.
  110. Kuroki, Scinob, Watanabe, Junji & Nishida, Shin'ya (2013). Synthesis of vibrotactile frequencies. 36th European Conference on Visual Perception (ECVP 2013). Bremen, GE.
  111. Ho, Hsin-Ni, Iwai, Daisuke, Yoshikawa, Yuki, Watanabe, Junji & Nishida, Shin'ya (2013). Effects of color on perceived temperature. 36th European Conference on Visual Perception (ECVP 2013). Bremen, GE.
  112. Suzuki, Yasuhiro, Suzuki, Rieko & Watanabe, Junji (2013). Picture books for tactual storytelling. SIGGRAPH 2013. Vancouver, CA.
  113. Ando, Hideyuki, Miyazaki, Youhei, Maeda, Taro & Watanabe, Junji (2013). Three-Dimensional Perception in Multi-Slit Vision for Public Display. IEEE: Workshop on Ambient Information Technologies. Orland, US.
  114. Watanabe, Junji (2013). Time and frequency in touch -psychophysical approach. Computational Neuroscience Society 2013 Workshop “Early Touch: From Neural Coding to Haptic Space Geometry” (Organizer: Jonathan Platkiewicz, Vincent Hayward). Paris, FR.
  115. Watanabe, Junji & Sakamoto, Maki (2013). Sound symbolic relationship between onomatopoeia and emotional evaluations in touch and taste. Iconicity: East meets West 9th International Symposium on Iconicity in Language and Literature. Tokyo, JP.
  116. Ando, Hideyuki & Watanabe, Junji (2013). Geometric optics design of the multi-slit stereoscopic display - From the view point of public use. ASIAGRAPH 2013. Hawai'I, US.
  117. Watanabe, Junji (2013). Visualization of relationships between tactile sensory qualities. IEEE World Haptics Conference 2013 Workshop “Quantification of Tactile Feelings: How can We Analyze, Measure, and Design Diverse Textures in Touch?. Daejeon, KR.
  118. 坪井 広樹, 井上 誠, 黒木 忍, 望山 洋, 渡邊 淳司. (2013). 微粒子の薄層に対する粗さの触知覚. HCG(電子情報通信学会ヒューマンコミュニケーショングループ)シンポジウム2013. 松山.
  119. 飯田 直己, 渡邊 淳司. (2013). 継時的に提示される振動刺激の個数把握に関する基礎検討. HCG(電子情報通信学会ヒューマンコミュニケーショングループ)シンポジウム2013. 松山.
  120. 横坂 拓巳, 黒木 忍, 渡邊 淳司, 西田 眞也. (2013). 上肢能動運動が視覚における時間知覚に与える影響. HCG(電子情報通信学会ヒューマンコミュニケーショングループ)シンポジウム2013. 松山.
  121. 植月 美希, 丸谷 和史, 渡邊 淳司. (2013). 動的な文字表示に対する読文特性と音読、黙読による読文特性の比較. "日本基礎心理学会第32回大会". 金沢.
  122. 長谷川 晶一, 渡邊 淳司. (2013). 日本バーチャルリアリティ学会アート&エンタテインメント研究委員会オーガナイズドセッションの報告. 情報処理学会 第30回エンタテインメントコンピューティング研究発表会. 兵庫.
  123. 黒木 忍, 渡邊 淳司, 西田 眞也. (2013). 触刺激の属性が刺激時間間隔の知覚に及ぼす影響. 第五回多感覚研究会. 神奈川.
  124. Ho, Hsin-Ni, Iwai, Daisuke, Yoshikawa, Yuki, Watanabe, Junji & Nishida, Shin'ya (2013). A study on color-temperature interactions. 第五回多感覚研究会. 神奈川.
  125. 黒木 忍, 渡邊 淳司, 西田 眞也. (2013). 異なる周波数の振動を用いた知覚周波数の合成. 日本バーチャルリアリティ学会第18回大会. 大阪.
  126. 平原 誠一郎, 飯塚 博幸, 前田 太郎, 渡邊 淳司, 安藤 英由樹. (2013). 3Dマルチスリットディスプレイにおけるオブジェクトの3次元移動知覚特性. 日本バーチャルリアリティ学会第18回大会. 大阪.
  127. 筧 康明, 渡邊 淳司, 岩井 大輔, 馬場 哲晃, 伊藤 雄一, 坂本 真樹, 棟方 渚. (2013). アート&エンタテインメント研究委員会OS 「アート&エンタテインメントと論文」(座長:長谷川 晶一). 日本バーチャルリアリティ学会第18回大会. 大阪.
  128. Ho, Hsin-Ni, Sato, Katsunari, Kuroki, Schinobu, Watanabe, Junji, Maeno, Takashi & Shin'ya Nishida (2013). Dissociation of subjective peak timing between hot and cold stimuli. Neuro 2013. 京都.
  129. 安藤 英由樹, 宮崎 陽平, 前田 太郎, 渡邊 淳司. (2013). マルチスリットディスプレイにおける三次元知覚に関する研究. ヒューマン情報処理学会. 沖縄.
  130. 仲村 哲明, 飯場 咲紀, 大西 里美, 丸谷 和史, 渡邊 淳司, 坂本 真樹. (2013). 色付き文章の動的表示から受ける認知効果. 情報処理学会:インタラクション. 東京.

misc

  1. 麦谷綾子. (2013). ことばの中に潜む音楽的要素. 一般財団法人ヤマハ音楽振興会ヤマハ音楽研究所公式サイト「音研スコープ」.
  2. 渡邊 淳司. (2013). アブダクションによる世界認識とコスモロジーの改編. モノ学感覚価値研究, 7, 29-31.
  3. 坂本 真樹, 渡邊 淳司. (2013). 自然言語による感性的質感評価を定量化するシステム. ケミカルエンジニアリング, 58 (3), 13-19.
  4. 渡邊 淳司. (2013). 『心臓』を通して人間を理解する. ヒューマンインタフェース学会誌, 15 (1), 5-8.

2012

論文

  1. Yamada, Y., Kawabe, T. & Miura, K. (2012). One's own name distorts visual space. Neuroscience Letters, 531 (2), 96-98.
  2. 西田眞也. (2012). 伊藤、富松、柏論文「エニグマ錯視と追従眼球運動追従錯視の共通性」について. 心理学評論, 55 (3), 346.
  3. 西田眞也. (2012). 視覚における質感知覚. 生体の科学, 64 (4), 255-262.
  4. 廣中直行. (2012). 嗜好と嗜癖の神経科学:「好き」から「やみつき」へ. 日本香粧品学会誌, 36 (4), 276-281.
  5. Kobayashi, M. & Kashino, M. (2012). Effect of flanking sounds on the auditory continuity illusion. PLoS ONE, 7 (12).
  6. Fuentes, C., Gomi, H. & Haggard, P. (2012). Temporal features of tendon vibration illusions. European Journal of Neuroscience, 36 (12), 3709-3717.
  7. Linares, D., Motoyoshi, I. & Nishida, S. (2012). Surround facilitation for rapid motion perception. Journal of Vision, 12.
  8. Amano, K., Takeda, T., Haji, T., Terao, M., Maruya, K., Matsumoto, K., Murakami, I. & Nishida, S. (2012). Human neural responses involved in spatial pooling of locally ambiguous motion signals. Journal of Neurophysiology, 107, 3493-3508.
  9. Lin, I.F. & Kashino, M. (2012). Perceptual grouping over time within and across auditory and tactile modalities. PLoS ONE, 7(7), e41661.
  10. Constantino, F.C., Pinggera, L., Paranamana, S., Kashino, M. & Chait, M. (2012). Different sensitivity to appearing and disappearing objects in complex acoustic scenes. PLoS One, 7, e46167.
  11. Ooishi, Y. & Kashino, M. (2012). Habituation of sympathetic orienting response to aversive sound eliminated by change in basal sympathovagal balance. Psychophysiology.
  12. Kato, Y.X., Furukawa, S., Samejima, K., Hironaka, N. & Kashino, M. (2012). Photosensitive-polyimide based method for fabricating various neural electrode architectures. Frontier Neuroeng, 5, 11.
  13. Furukawa, S. (2012). Detection of simultaneous modulation of interaural time and level differences: Effects of modulation rate and relative phase (L). Journal of the Acoustical Society of America, 132, 1-4.
  14. Tajadura Jiménez, A., Väljamäe, A., Toshima, I., Kimura, T., Tsakiris, M. & Kitagawa, N. (2012). Action sounds recalibrate perceived tactile distance. Current Biology, 22 (13), R516-R517.
  15. Kondo, H.M., Kitagawa, N., Kitamura, M.S., Koizumi, A., Nomura, M. & Kashino, M. (2012). Separability and commonality of auditory and visual bistable perception. Cerebral Cortex, 22, 1915-1922.
  16. Kondo, H.M., Pressnitzer, D., Toshima, I. & Kashino, M. (2012). Effects of self-motion on auditory scene analysis. Proceedings of the National Academy of Sciences of the United States of America, 109, 6775-6780.
  17. Kashino, M. & Kondo, H.M. (2012). Functional brain networks underlying perceptual switching: auditory streaming and verbal transformations. Philosophical Transactions of the Royal Society of London. Series B: Biological Sciences, 367, 977-987.
  18. Kuroki, S , Watanabe, J, Mabuchi, K, Tachi, S & Nishida, S (2012). Directional remapping in tactile inter-finger motion: a motion aftereffect study. Experimental Brain Research, 216 (2), 311-320.
  19. Ooishi, Yuuki & Kashino, Makio (2012). Habituation of rapid sympathetic response to aversive timbre eliminated by change in basal sympathovagal balance. Psychophysiology, 49 (8), 1059-1071.
  20. Sato, Takashi G & Ooishi, Yuuki (2012). Sound presentation during different respiration phases alters the sound-induced vasoconstriction mediated by the sympathetic nerve. Neuroscience letters, 521 (1), 67-70.
  21. 坂倉 杏介, 渡邊 淳司, 川口 ゆい, 安藤 英由樹. (2012). 「生命」のシンボル・グラウンディング 鼓動に触れるワークショップ「心臓ピクニック」の評価と展開. アートミーツケア学会オンラインジャーナル, 4, 20-29.
  22. Watanabe, Junji, Maeda, Taro & Ando, Hideyuki (2012). Gaze-contingent visual presentation technique with electro-ocular-graph-based saccade detection. ACM Transactions on Applied Perception, 9(2) (6), 1-12.
  23. 早川 智彦, 松井 茂, 渡邊 淳司. (2012). 言葉の音韻を利用した触り心地の可視化:ワークショップにおける実践. 映像メディア学 東京藝術大学映像研究科紀要, 2, 111-127.
  24. Watanabe, Junji, Godai, Yusuke & Ando, Hideyuki (2012). Length and roughness perception in a moving-plateau touch display. Advances in Human-Computer Interaction, 2012 (74629).
  25. Kuroki, Scinob, Watanabe, Junji, Mabuchi, Kunihiko, Tachi, Susumu & Nishida, Shin'ya (2012). Directional remapping in tactile inter-finger apparent motion: A motion aftereffect study. Experimental Brain Research, 216 (2), 311-320.

書籍

  1. Liao, H.-I. & Shimojo, S. (2012). Dynamic preference formation via gaze and memory. Dolan, R. J. & Sharot, T (Eds.), The neuroscience of preference and choice: Cognitive and Neural Mechanisms. (pp.277-292). Elsevier Publishing.
  2. 麦谷綾子. (2012). 第6章音声知覚の発達; 第7章乳児の音楽認知; 第8章知識の発達. 乳幼児心理学'12版. 放送大学教育振興会.

会議

  1. Nishida, S. (2012). 人間の運動情報処理における空間的相互作用. (生理学研究所研究会「視知覚の理解へ向けて -生理、心理物理、計算論による探求-」).
  2. Nishida, S. (2012). 英語論文投稿への道-実践編-. (日本心理学会第76回大会).
  3. Nishida, S. (2012). 時間知覚の視覚心理物理. (生理学若手サマースクール).
  4. 藤崎和香, 郷田直一, 本吉勇, 小松英彦, 西田眞也. (2012). 物体の材質知覚における視聴覚情報統合 -映像情報と音情報の双方に基づいた相補的なクロスモーダル材質知覚-. (日本心理学会2012年第76回大会).
  5. 雨宮智浩, 前田太郎. (2012). スマートフォンを用いたCPRにおける胸骨圧迫動作の推定と教示. (福祉情報工学研究会).
  6. 古川茂人. (2012). 両耳間時間差の脳内処理メカニズムへの心理物理学的アプローチ. (第36回人工知能学会 AI チャレンジ研究会).
  7. 池田聡, 沼田亮太, 古川茂人, 杉本俊二, 堀川順生. (2012). 近赤外および赤色レーザ照射による聴覚皮質活動の抑制. (聴覚研究会).
  8. 古川茂人, Liao Hsin-I. (2012). トーンバースト刺激に対するヒト瞳孔拡張反応. (聴覚研究会).
  9. 山田祐樹, 河邊隆寛, 宮崎真. (2012). パタンランダムネス残効. (日本基礎心理学会第31回大会).
  10. 大谷智子, 丸谷和史. (2012). 立体デザインの作成イメージと作成物の差分についての定量的評価方法の開発. (2012年度秋季大会).
  11. 大塚翔, 広田光一, 柏野牧夫. (2012). TBEOAE の二音抑圧の時間依存性. (聴覚研究会).
  12. Otsuka, Y., Motoyoshi, I., Harold, H., Kobayashi, M., Kanazawa, S. & M., Yamaguchi (2012). The role of contrast polarity of eyes on face recognition by 7-to-8month-olds. (43rd NIPS International Symposium).
  13. Ishii, T., Motoyoshi, I. & Kamachi, M. (2012). Removal of attention facilitates global motion detection. (The 11th International Symposium on Advanced Techn(ISAT)).
  14. Ochi, A., Furukawa, S., Karino, S. & Yamasoba, T. (2012). Threshold of temporal gap detection in patients with sensorineural hearing loss and with functional hearing loss. (The First Asian Otology Meeting & The 3rd East Asian Symposium on Otology).
  15. Motoyoshi, I. (2012). Climate, illumination statistics, and the style of painting. (Visual Science of Art Conference(VSAC/ECVP2012)).
  16. Lin, I.F. & Kashino, M. (2012). Perceptual grouping over time within and across auditory and tactile modalities. (Annual Meeting of Society for Neuroscience (SfN, Neuroscience 2012)).
  17. Takamuku, S. & Gomi, H. (2012). Principle factor yielding the sluggish sensation during movements with delayed visual feedback. (Society for Neuroscience (SfN, Neuroscience 2012)).
  18. Ito, S., Kimura, T. & Gomi, H. (2012). Enhancement of fatigue perception and phase lag of cyclic movement induced by delayed visual feedback. (Society for Neuroscience (SfN, Neuroscience 2012)).
  19. Kimura, T., Haggard, P. & Gomi, H. (2012). Voluntary movement compensates sensory uncertainty. (Society for Neuroscience, Annual meeting (SfN, Neuroscience 2012)).
  20. Tajadura-Jimenez, A., Väljamäe, A., Toshima, I., Kimura, T., Tsakiris, M. & Kitagawa, N. (2012). Action sounds recalibrate perceived tactile distance. (The 16th annual meeting of the ASSC (ASSC16)).
  21. Kitamura, M., Watanabe, K. & Kitagawa, N. (2012). Moods alter audiovisual integration. (International Multisensory Research Forum(IMRF2012)).
  22. Tajadura Jiménez, A., Vaijamae, A., Toshima, I., Kimura, T., Tsakiris, M. & Kitagawa, N. (2012). Action sounds recalibrate perceived tactile distance. (International Multisensory Research Forum(IMRF2012)).
  23. Roseboom, W., Kawabe, T. & Nishida, S. (2012). Content cues can constrain AV temporal recalibration regardless of spatial overlap. (European Conference on Visual Perception 2012(ECVP2012)).
  24. Ho, H-N., Bergman, P., Koizumi, A., Tajadura-Jiménez, A. & Kitagawa, N. (2012). The pleasant heat? A study of thermal-emotion associations. (International Multisensory Research Forum(IMRF2012)).
  25. Ando, H., Watanabe, J. & Sato, M. (2012). empathetic heartbeat. (ACM Multimedia 2012).
  26. Maruya, K., Uetsuki, M., Ando, H. & Watanabe, J. (2012). "Yu bi yomu": interactive reading of dynamic text. (ACM Multimedia 2012).
  27. Ikei, K., Abe, H., Hirota, K. & Amemiya, T. (2012). A multisensory VR system exploring the Ultra-reality. (18th International Conference on Virtual Systems and Multimedia(VSMM2012)).
  28. Motoyoshi, I. (2012). Broad spatial tunings of the object aftereffect: Evidence for global statistical representations of 3D shape and material. (European Conference on Visual Perception 2012(ECVP2012)).
  29. Nishida, S., Fujisaki, W., Goda, N., Motoyoshi, I. & Komatsu, H. (2012). Not glass but plastic - Audiovisual integration in human material perception. (European Conference on Visual Perception 2012(ECVP2012)).
  30. Shirama, A., Koizumi, A. & Kitagawa, N. (2012). Categorizing identity from biological motion of eyes. (European Conference on Visual Perception 2012(ECVP2012)).
  31. 高椋慎也, 五味裕章. (2012). 遅延視覚フィードバックによる動作抵抗感の特性. (第35回 日本神経科学大会(Neuro2012)).
  32. Suzuki, Y., Watanabe, J. & Suzuki, R. (2012). Tactile Score, a knowledge media of tactile sense for creativity. (KES IIMSS 2012).
  33. Roseboom, W., Kawabe, T. & Nishida, S. (2012). クロスモーダルダブルフラッシュ錯視は初期感覚表象間の相互作用によっては説明できない/The cross-modal double flash illusion cannot be explained by interactions between primary sensory representations. (APCV2012).
  34. Kawabe, T., Roseboom, W. & Nishida, S. (2012). 感覚間の知覚的群化は、行動と結果の主観的因果関係を変調する/Crossmodal perceptual grouping modulates subjective causality between action and outcome. (APCV2012).
  35. Nishida, S. (2012). 視覚運動の空間処理/Spatial processing of visual motion. (APCV2012).
  36. Linares, D., Holcombe, A.O., Motoyoshi, I. & Nishida, S. (2012). Perceived timing of different features at surface formation. (APCV2012).
  37. 小泉愛, 白間綾, 北川智利. (2012). 「寄り目/離れ目」表情錯視. (日本基礎心理学会 第31回大会).
  38. 北村美穂, 渡邊克巳, 北川智利. (2012). ポジティブな気分は視聴覚統合を促進する. (日本基礎心理学会 第31回大会).
  39. 石井太一, 本吉勇, 蒲池みゆき. (2012). 注意の剥奪は全体運動の検出を促進する. (日本基礎心理学会 第31回大会).
  40. 中山遼平, 本吉勇, 草野勉, 佐藤隆夫. (2012). 異なる座標系で運動する刺激の視覚探索. (日本基礎心理学会 第31回大会).
  41. 佐藤弘美, 本吉勇, 佐藤隆夫. (2012). 順応によるコントラスト抑制の輝度極性選択性. (日本基礎心理学会 第31回大会).
  42. 白間綾, 小泉愛, 北川智利. (2012). 眼球のバイオロジカル・モーションに基づく個人識別. (日本基礎心理学会 第31回大会).
  43. 山岸慎平, 大塚翔, 芦原孝典, 古川茂人, 柏野牧夫. (2012). 音脈分凝の知覚形成:聴性脳幹反応による検討. (日本音響学会 2012年秋季研究発表会).
  44. 大塚翔, 山岸慎平, 広田光一, 古川茂人, 柏野牧夫. (2012). 中耳・内耳機能と詳細時間構造処理能力の関係. (日本音響学会 2012年秋季研究発表会).
  45. 廣谷定男. (2012). 乗算型更新による昇順特性を保持したLSPパラメータ生成. (日本音響学会 2012年秋季研究発表会).
  46. 古川茂人, 西田鶴代, 近藤公久, 筧一彦. (2012). 両耳間時間差の変調情報の周波数チャンネル間統合. (日本音響学会 2012年秋季研究発表会).
  47. 新谷幹夫, 西田眞也. (2012). ノイズ付加による「細かく」見せる画像生成. (映像情報メディア学会 2012年次大会).
  48. 新谷幹夫, 西田眞也. (2012). 人間の「細かさ」視知覚の基本特性. (映像情報メディア学会 2012年次大会).
  49. 戸嶋巌樹, 近藤洋史, Pressnitzer D., 柏野牧夫. (2012). 音響テレプレゼンスロボットの聴覚実験における有効性. (日本ロボット学会 第30回記念学術講演会).
  50. 廣中直行, 請園正敏, 高橋伸彰, 高野裕治. (2012). 社会的な記憶と物体の記憶は似ているか?. (第42回 日本神経精神薬理学会).
  51. 雨宮智浩, 広田光一, 池井寧. (2012). 視触覚間相互作用による移動速度感覚の変化. (第17回 日本バーチャルリアリティ学会大会).
  52. 池井寧, 阿部浩二, 広田光一, 雨宮智浩. (2012). 超臨場感の探求のための五感追体験メディア. (第17回 日本バーチャルリアリティ学会大会).
  53. 阿部浩二, 川真田晃久, 増田幸矩, 田中遼, 池井寧, 広田光一, 雨宮智浩. (2012). 歩行運動の表現手法に関する研究. (第17回 日本バーチャルリアリティ学会大会).
  54. 広田光一, 佐々木昴, 雨宮智浩, 池井寧. (2012). つり革型デバイスによる運動感覚の提示. (第17回 日本バーチャルリアリティ学会大会).
  55. 川真田晃久, 増田幸矩, 田中遼, 阿部浩二, 池井寧, 広田光一, 雨宮智浩. (2012). 可動座席による走行運動の表現手法に関する研究. (第17回 日本バーチャルリアリティ学会大会).
  56. 金井陸, 池井寧, 阿部浩二, 雨宮智浩, 広田光一. (2012). 剪断力法線振動提示触覚デバイスに関する研究. (第17回 日本バーチャルリアリティ学会大会).
  57. 広田光一, 伊藤洋子, 池井寧, 雨宮智浩. (2012). 風の方向提示に関する検討. (第17回 日本バーチャルリアリティ学会大会).
  58. 坂本真樹, 渡邊淳司. (2012). 手触りの質を表すオノマトペの有効性-感性語との比較を通して. (日本認知言語学会 第13回全国大会).
  59. 坂本真樹, 渡邊淳司. (2012). 触覚オノマトペが手触りの評価に与える影響. (日本認知科学会 第29回大会).
  60. 越智篤, 古川茂人, 狩野章太郎, 山岨達也. (2012). 子音(摩擦音)の音源定位の異常を訴える無難聴の一症例. (第57回 日本聴覚医学会).
  61. 越智篤, 古川茂人, 狩野章太郎, 山岨達也. (2012). 軽度の神経圧迫が聴神経の時間処理能力に及ぼす影響. (第9回 内耳ひずみ研究会).
  62. 大塚翔, 広田光一, 柏野牧夫. (2012). 時間微細構造処理能力の個人差: 耳音響放射を用いた検討. (第9回 内耳ひずみ研究会).
  63. 中山遼平, 本吉勇, 草野勉, 佐藤隆夫. (2012). 両眼視野闘争における網膜/非網膜運動情報のコントラスト依存的貢献. (日本視覚学会 2012年夏季大会).
  64. 佐藤弘美, 本吉勇, 佐藤隆夫. (2012). 順応によるコントラスト抑制の輝度極性選択性. (日本視覚学会 2012年夏季大会).
  65. 本吉勇. (2012). 物体残効: 広域特徴集合に基づく3D形状と質感の知覚. (日本視覚学会 2012年夏季大会).
  66. 伊藤翔, 木村聡貴, 五味裕章. (2012). 運動の視覚フィードバック誤差が疲労知覚に影響を与える. (第6回 motor control 研究会).
  67. 五味裕章. (2012). 腕運動中における短潜時感覚運動応答の機能的調整. (第6回 motor control 研究会).
  68. 木村聡貴, 五味裕章. (2012). Do motor commands contribute to positional estimation?. (第6回 motor control 研究会).
  69. 柏野牧夫. (2012). 運動理論からみた知覚とコミュニケーション. (聴覚研究会).
  70. 益冨恵子, Barascud N., Overath T., 柏野牧夫, McDermott J., Chait M. (2012). 混合音中で複数回出現する新規音の検出に選択的注意は必要か?. (聴覚研究会).
  71. 渡辺謙, 大石悠貴, 柏野牧夫. (2012). 音のテンポと呼吸数の組み合わせが自律神経系に与える効果. (聴覚研究会).
  72. 北川智利, Tajadura-Jiménez A., Väljamäe A., 戸嶋巌樹, 木村聡貴, Tsakiris M. (2012). 身体運動への聴覚フィードバックによって生じる体性感覚の再校正. (聴覚研究会).
  73. 古川茂人, 小港省吾. (2012). 日本語版 Coordinate Response Measures (CRM) 音声コーパスの作成. (聴覚研究会).
  74. 大塚翔, 広田光一, 柏野牧夫. (2012). 耳音響放射と時間微細構造処理能力の相関. (聴覚研究会).
  75. 植月美希, 丸谷和史, 安藤英由樹, 渡邊淳司. (2012). タブレット型 PC によるインタラクティブな読文体験の印象評価. (日本心理学会 第76回大会).
  76. 北川智利, Tajadura-Jiménez A., Väljamäe A., 戸嶋巌樹, 木村聡貴, Tsakiris M. (2012). 聴覚フィードバックによる身体表象の適応的変化. (日本心理学会 第76回大会).
  77. 加藤正晴. (2012). 顔様刺激提示時の視線パタンとその発達. (日本赤ちゃん学会 第12回学術集会).
  78. 久永聡子, 麦谷綾子, 積山薫, 加藤正晴. (2012). 視聴覚音声知覚中の注視部位の発達的変化. (日本赤ちゃん学会 第12回学術集会).
  79. 小泉愛, 白間綾, 北川智利. (2012). 奥行き方向での視線位置が表情知覚に及ぼす影響. (ヒューマンコミュニケーション基礎研究会).
  80. 白間綾, 小泉愛, 北川智利. (2012). 発話中の眼球運動に現れる個人性. (ヒューマンコミュニケーション基礎研究会).
  81. 小泉愛, 白間綾, 北川智利. (2012). 奥行き方向での視線位置が表情知覚に及ぼす影響. (日本感情心理学会 第20回大会).
  82. 持田岳美, 木村聡貴, 廣谷定男, 北川智利, 五味裕章, 近藤公久. (2012). Effects of asynchrony between auditory and articulatory events on hearing speech with speaking. (第35回 日本神経科学大会(Neuro2012)).
  83. 伊藤翔, 木村聡貴, 五味裕章. (2012). Delayed visual feedback instantaneously affects finger movement and fatigue perception. (第35回 日本神経科学大会(Neuro2012)).
  84. ホーシンニ, 北川智利, 柏野牧夫. (2012). Assessing the effects of temperature on impulse control. (第35回 日本神経科学大会(Neuro2012)).
  85. Gomi, H., Amano, K. & Kimura, T. (2012). Spatial weighting of visual motion coding in manual following response and MEG. (European Conference on Visual Perception 2012(ECVP2012)).
  86. Takano, Y., Ukezono, M., Takahashi, N. & Hironaka, N. (2012). Phase-locking of hippocampal theta during operant lever-press task in rats. (8th Forum of Neuroscience).
  87. Amemiya, T. & Gomi, H. (2012). Active touch sensing of being pulled illusion for pedestrian route navigation. (SIGGRAPH 2012).
  88. Kuroki, S., Watanabe, J. & Nishida, S. (2012). Dissociation of vibrotactile frequency discrimination performances for supra-threshold and near-threshold vibrations. (EuroHaptics 2012).
  89. Kashino, M., Adachi, E. & Hirose, H. (2012). A computational model for the dynamic aspects of primitive auditory scene analysis. (Acoustics 2012).
  90. Nakayama, R., Motoyoshi, I., Kusano, T. & Sato, T. (2012). Spatial motion coordinates that determine perceptual dominance in binocular rivalry. (Vision Sciences Society Annual Meeting 2012).
  91. Motoyoshi, I. (2012). Visual aftereffects in 3D shape and material of a single object. (Vision Sciences Society Annual Meeting 2012).
  92. Kanaya, S., Fujisaki, W., Nishida, S. & Yokosawa, K. (2012). Temporal frequency limits for within- and cross-attribute binding in vision and audition. (Vision Sciences Society Annual Meeting 2012).
  93. Roseboom, W., Kawabe, T. & Nishida, S. (2012). Changes in visual apparent motion direction by cross-modal interaction are not dependent on temporal ventriloquism. (Vision Sciences Society Annual Meeting 2012).
  94. Kawabe, T., Maruya, K. & Nishida, S. (2012). The role of dynamic visual information in the estimation of liquid viscosity. (Vision Sciences Society Annual Meeting 2012).
  95. Maruya, K. & Nishida, S. (2012). Long-range relationship between separated local motion signals is rapidly encoded in a point-to-point manner. (Vision Sciences Society Annual Meeting 2012).
  96. Furukawa, S., Washizawa, S., Ochi, A. & Kashino, M. (2012). How independent are the pitch and the interaural-time-difference mechanisms that rely on temporal fine structure information?. (16th International Symposium of Hearing 2012).
  97. Kondo, H.M., Pressnitzer, D., Toshima, I. & Kashino, M. (2012). Effect of source-motion and self-motion on the resetting of auditory scene analysis. (Acoustics 2012).
  98. Terao, Masahiko, Murakami, Ikuya & Nishida, Shin'ya (2012). Motion correspondence based on the perisaccadically compressed space. Vision Sciences Society 12th Annual Meeting (VSS2012).
  99. Kashino, Makio, Adachi, Eisaku & Hirose, Haruto (2012). A computational model for dynamic aspects of primitive auditory scene analysis. 16th International Symposium of Hearing 2012.
  100. Ito, Sho, Kimura, Toshitaka & Gomi, Hiroaki (2012). Delayed visual feedback modifies fatigue perception during continuous movements. 脳と心のメカニズム 第12回 冬のワークショップ.
  101. 小林まおり, 大石悠貴, 榎本成悟, 北川智利, 上野佳奈子, 伊勢史郎, 柏野牧夫. (2012). 話者の動きの音響情報は実在感を高める̶ 立体音場再生装置を用いた検討 ̶. 日本音響学会2012年春期研究発表会. 横浜.
  102. Ken, Watanabe, Yuuki, Ooishi & Makio, Kashino (2012). The effects of respiratory rate and acoustic tempo on the autonomic nervous system. 8th FENS Forum of Neuroscience. Barcelona (Spain).
  103. Yuuki, Ooishi, Hideo, Mukai, Ken, Watanabe, Suguru, Kawato & Makio, Kashino (2012). The effect of the tempo of music on the secretion of steroid and peptide hormones into human saliva. 第35回日本神経科学大会 (neuro2012). 名古屋.
  104. Ken, Watanabe, Yuuki, Ooishi & Makio, Kashino (2012). The effects of the combination of respiratory rate and acoustic tempo on the autonomic nervous system. 第35回日本神経科学大会 (neuro2012). 名古屋.
  105. Watanabe, Junji & Sakamoto, Maki (2012). Comparison between onomatopoeia and adjective for evaluating tactile sensations. IEEE: Int Conf on Soft Computing and Intelligent Systems. Kobe, JP.
  106. 井上 誠, 望山 洋, 黒木 忍, 渡邊 淳司. (2012). 球体2次元配列法によるすべすべ感の解析. 計測自動制御学会 :システムインテグレーション部門講演会. 福岡.
  107. 渡邊 淳司, 長谷川 晶一. (2012). 工学系の学生を対象とした作品講評会 -日本バーチャルリアリティ学会アート&エンタテインメント研究委員会の試み. 情報処理学会:エンタテインメントコンピューティング研究発表会. 東京.
  108. 渡邊 淳司. (2012). 記号接地における触覚の役割 -触知性について. 日本バーチャルリアリティ学会第17回大会. 横浜.
  109. 渡邊 淳司, 長谷川 晶一. (2012). アート&エンタテインメント研究委員会OS 「インタラクティブ技術とインタラクティブアートの境界」. 日本バーチャルリアリティ学会第17回大会. 横浜.
  110. 黒木 忍, 渡邊 淳司, 西田 眞也. (2012). 触覚における正弦波振動・振幅変調振動の位相弁別能に関する基礎検討. 日本バーチャルリアリティ学会第17回大会. 横浜.

Misc

  1. 佐藤悠, 古川茂人. (2012). 聴皮質研究の最前線. 日本生理学雑誌, 74 (4), 154.
  2. 麦谷綾子, 廣谷定男. (2012). 子どもの声道発達と音声の特性変化. 日本音響学会誌, 68, 234-240.
  3. Mugitani, Ryoko & Hiroya, Sadao (2012). Development of vocal tract and acoustic features in children. Acoustic Science and Technology, 33, 215-220.

2011

論文

  1. Ho, H.-N., Watanabe, J., Ando, H. & Kashino, M. (2011). Mechanisms underlying referral of thermal sensations to sites of tactile stimulation. Journal of Neuroscience, 31 (1), 208-213.
  2. Mugitani, Ryoko, Kobayashi, Tessei & Hiraki, Kazuo (2011). Right-side bias is robust in infants'audiovisual speech integration for rapidly changing sound. 認知科学, 18, 402-415.
  3. Masuda, Ayako, Watanabe, Junji, Terao, Masahiko, Watanabe, Masataka, Yagi, Akihiro & Maruya, Kazushi (2011). Awareness of central luminance edge is crucial for the Craik-O'Brien-Cornsweet effect. Frontiers in Human Neuroscience, 5 (125), 1-9.
  4. 渡邊 淳司, 黒木 忍. (2011). 触覚の時空間知覚・属性知覚に姿勢が及ぼす影響. 日本バーチャルリアリティ学会論文誌, 16 (3), 489-496.
  5. 渡邊 淳司, 加納 有梨紗, 清水 祐一郎, 坂本 真樹. (2011). 触感覚の快・不快とその手触りを表象するオノマトペの音韻の関係性. 日本バーチャルリアリティ学会論文誌, 16 (3), 367-370.
  6. 渡邊 淳司, 川口 ゆい, 坂倉 杏介, 安藤 英由樹. (2011). “心臓ピクニック”:鼓動に触れるワークショップ. 日本バーチャルリアリティ学会論文誌, 16 (3), 303-306.
  7. 大庭 将裕, 坂倉 杏介, 渡邊 淳司. (2011). 身体の内外に定位される音声を利用したワークショップ“HERE/HEAR”の音響設計に関する考察. 日本バーチャルリアリティ学会論文誌, 16 (2), 211-214.

書籍

  1. 麦谷綾子. (2011). 音声知覚の発達. 大山正監修『心理学研究法』第4巻(発達心理学). 誠信書房.
  2. 麦谷綾子. (2011). 乳児期の音声言語発達. 児童心理学の進歩 2011年度版. 金子書房.
  3. 渡邊 淳司 (編著), 北川 智利 (編著), 雨宮 智浩 (著), 安藤 英由樹 (著), 梶本 裕之 (著), 北田 亮 (著), 仲谷 正史 (著), Ho Hsin-Ni (著). (2011). 体性感覚. 村上 郁也 (Eds.), 心理学研究法1 感覚・知覚. (pp.172-199). 誠信書房.

会議

  1. 伊藤 翔, 木村 聡貴, 五味 裕章. (2011). 持続的指運動中の疲労感は遅延視覚フィードバックにより変化する. 電子情報通信学会ニューロコンピューティング研究会(2011-12-NC-MBE).
  2. Yuuki, Ooishi & Makio, Kashino (2011). Interaction between slow and rapid sympathetic responses is essential for sound-induced aversiveness. 8th IBRO World Congress of Neuroscience. Florence (Toscana, Italy).
  3. 大石悠貴. (2011). 感情の最新生理学と精神疾患. 第41回日本神経精神薬理学会. 新宿.
  4. 高椋慎也, 五味裕章. (2011). 視覚運動刺激を利用した遅延視覚フィードバックに伴う動作抵抗感の軽減. ニューロコンピューティング研究会.
  5. Watanabe, Junji (2011). Phonological analysis of onomatopoeias for expressing tactile sensations. Tactile Research Group Meeting. Seattle, US.
  6. 渡邊 淳司. (2011). 感覚情報提示の新潮流 マルチモーダルからクロスモーダルへ. 日本バーチャルリアリティ学会第16回大会. 北海道.
  7. 渡邊 淳司. (2011). 学際的な触覚研究の最前線 ー心理学と神経科学と工学の融合を目指してー. 日本心理学会第75回大会. 東京.
  8. 渡邊 淳司. (2011). オノマトペの利活用. 2011年度 人工知能学会全国大会(第25回). 盛岡.

misc

  1. 渡邊 淳司. (2011). パーソナル・ファブリケーションとソーシャル・ファブリケーションのあいだ. 「文化庁メディア芸術祭京都展パラレルワールド」関連企画 「共創のかたち~ デジタルファブリケーション時代の創造力」展 図録, 74-79.
  2. 渡邊 淳司. (2011). 触れる感覚の質感・実感に着目したコミュニケーション. NTT技術ジャーナル, 23 (9), 26-30.
  3. . (2011). 物気色(モノケイロ).

2010

論文

  1. Abekawa, N. & Gomi, H. (2010). Spatial coincidence of intentional actions modulates an implicit visuomotor control. J Neurophysiol, 103 (5), 2717-27.
  2. Ho, H.-N., Watanabe, J., Ando, H. & Kashino, M. (2010). Somatotopic or Spatiotopic? Frame of reference for localizing thermal sensations under thermo-tactile interactions. Attention, Perception & Psychophysics, 72 (6), 1666-1675.
  3. Tajadura-Jiménez, A., Väljamäe, A., Kitagawa, N. & Ho, H.-N. (2010). Whole-body vibration influences on front-back sound localization. Proceedings of the Institution of Mechanical Engineers, Part D, Journal of Automobile Engineering, 224, 1311-1320.
  4. Watanabe, Junji & Ando, Hideyuki (2010). Pace-sync shoes: Intuitive walking-pace guidance based on cyclic vibro-tactile stimulation for the foot. Virtual Reality, 14 (3), 213-219.
  5. Watanabe, Junji, Amemiya, Tomohiro, Nishida, Shin'ya & Johnston, Alan (2010). Tactile duration compression by vibrotactile adaptation. Neuroreport, 21 (13), 856-860.
  6. 有賀 玲子, 斎藤 英雄, 安藤 英由樹, 渡邊 淳司. (2010). Saccade-based Displayのためのコンテンツ設計と印象評価. 日本バーチャルリアリティ学会論文誌, 15 (3), 491-494.
  7. 早川 智彦, 松井 茂, 渡邊 淳司. (2010). オノマトペを利用した触り心地の分類手法. 日本バーチャルリアリティ学会論文誌, 15 (3), 487-490.
  8. 安藤 英由樹, 渡邊 淳司. (2010). 自己感覚の再認識をテーマとした体験型展覧会”感覚回路採集図鑑”の展示設計に関する考察. 日本バーチャルリアリティ学会論文誌, 15 (3), 471-474.
  9. 大谷 智子, 渡邊 淳司, 丸谷 和史. (2010). ブロック立体デザインにおける錯視パターンの使用 ‐構造とテクスチャの相互作用の再認識‐. 認知科学, 17 (3), 580-588.
  10. Terao, Masahiko, Watanabe, Junji, Yagi, Akihiro & Nishida, Shin'ya (2010). Smooth pursuit eye movements improve temporal resolution for color perception. PLOS ONE, 5(6) (e11214).
  11. Kuroki, Shinobu, Watanabe, Junji, Kawakami, Naoki, Tachi, Susumu & Nishida, Shin'ya (2010). Somatotopic dominance in tactile temporal processing. Experimental Brain Research, 203 (1), 51-62.

書籍

  1. 渡邊 淳司. (2010). 研究報告『多層的な感覚価値モデルの構築に向けて』. 鎌田東二 (Eds.), モノ学・感覚価値論. (pp.188-191). 晃洋書房.
  2. 渡邊 淳司, 田中 浩也, 藤木 淳, 丸谷 和史, 坂倉 杏介, ドミニク チェン. (2010). いきるためのメディア -知覚・環境・社会の改編に向けて. 春秋社.

会議

  1. Yuuki, OOishi & Makio, Kashino (2010). 2P258 Correlation between sound-induced aversiveness and autonomic response. 第48回日本生物物理学会年会. 仙台.
  2. Yuuki, Ooishi & Makio, Kashino (2010). Correlation between sound-induced aversiveness and autonomic response. Neuroscience 2010 (Society for Neuroscience). San Diego(California,USA).

misc

  1. 麦谷綾子. (2010). 赤ちゃんと語りかけのホントのところ. 赤ちゃん学カフェ, 3, 34-37.
  2. 渡邊 淳司. (2010). メディア技術と社会・生活を結ぶケモノ道. 映像情報メディア学会誌, 64 (5), 725-728.
  3. 渡邊 淳司. (2010). 錯視を使った情報提示技術・創作体験型学習. 光学, 39 (2), 99-101.
  4. 佐藤 雅彦. (2010). 心音移入. 属性.

2009

論文

  1. 坂倉 杏介, 川口 ゆい, 渡邊 淳司. (2009). 「いること」と「聴くこと」のワークショップ -聴覚によって位置づけられる自己感覚の体験デザイン. 情報処理学会論文誌, 50 (12), 2772-2781.
  2. Noritake, Atsushi, Uttl, Bob, Terao, Masahiko, Nagai, Masayoshi, Watanabe, Junji & Yagi, Akihiro (2009). Saccadic compression of rectangle and Kanizsa figures: Now you see it, now you don't. PLOS ONE, 4(7) (e6383).
  3. Watanabe, Junji, Nakatani, Masashi, Ando, Hideyuki & Tachi, Susumu (2009). Haptic localization for onset and offset of vibro-tactile stimuli are dissociated. Experimental Brain Research, 193 (3), 483-489.

書籍

  1. 渡邊 淳司. (2009). あいだにうまれたものを定位する -感覚価値研究へ向けた一考察. 鎌田 東二 (Eds.), モノ学の冒険. (pp.245-256). 創元社.

会議

  1. Yuuki, Ooishi & Makio, Kashino (2009). Analysis of autonomic response to sound-induced emotion. 第32回日本神経科学大会(neuro2009). 名古屋.

Misc

  1. Galie, J., Ho, H.-N. & Jones, L.A. (2009). Influence of Contact Conditions on Thermal Responses of the Hand. 587-592.

2008

論文

  1. Jones, L.A. & Ho, H.-N. (2008). Warm or Cool, Large or Small? The Challenge of Thermal Displays. IEEE Transactions on Haptics, 1 (1), 53-70.
  2. 渡邊 淳司, 福沢 恭, 梶本 裕之, 安藤 英由樹. (2008). 腹部通過仮現運動を利用した貫通感覚提示. 情報処理学会論文誌, 49 (10), 3542-3545.
  3. Johnston, Alan, Bruno, Aurelio, Watanabe, Junji, Quansah, Ben, Patel, Natasha, Dakin, Steven & Nishida, Shin'ya (2008). Visually-based temporal distortion in dyslexia. Vision Research, 48 (17), 1852-1858.
  4. Terao, Masahiko, Watanabe, Junji, Yagi, Akihiro & Nishida, Shin'ya (2008). Reduction of stimulus visibility compresses apparent time intervals. Nature Neuroscience, 11 (5), 541-542.

misc

  1. 渡邊 淳司. (2008). 身体と意識の彼岸から. SITE ZERO 情報生態論 いきるためのメディア, 2, 66-73.
  2. 安藤 英由樹, 渡邊 淳司, 雨宮 智浩, 前田 太郎. (2008). 力触覚における錯覚とその応用. 計測と制御, 47 (7), 582-586.
  3. 安藤 英由樹, 渡邊 淳司, 前田 太郎. (2008). 前庭電気刺激を利用した平衡感覚インタフェース. 映像情報メディア学会誌, 62 (6), 837-836.
  4. 渡邊 淳司. (2008). モノが媒介する知覚体験. モノ学感覚価値研究, 2, 60-64.

2007

論文

  1. 雨宮智浩, 安藤英由樹, 何昕霓. (2007). 五感インタフェースによるノンバーバルコミュニケーション. NTT技術ジャーナル, 19 (6).
  2. 渡邊 淳司, 吉田 知史, 安藤 英由樹, 田畑 哲稔, Maria Adriana Verdaasdonk. (2007). マルチメディアパフォーマンスにおけるVibro-scape Design の実践的試み. 日本バーチャルリアリティ学会論文誌, 12 (3), 413-416.
  3. 新居 英明, 橋本 悠希, 稲見 昌彦, 渡邊 淳司. (2007). 頭部方向指向性を持つ見通し距離会話システム. 日本バーチャルリアリティ学会論文誌, 12 (3), 401-404.
  4. 草地 映介, 渡邊 淳司. (2007). 表現意図と偶然性を併せ持つ“Minimal Drawing”の提案. 日本バーチャルリアリティ学会論文誌, 12 (3), 389-392.
  5. 安藤 英由樹, 吉田 知史, 前田 太郎, 渡邊 淳司. (2007). "Save YourSelf !!!" -前庭刺激による平衡感覚移植体験-. 日本バーチャルリアリティ学会論文誌, 12 (3), 225-232.
  6. Watanabe, Junji & Nishida, Shin'ya (2007). Veridical perception of moving colors by trajectory integration of input signals. Journal of Vision, 7(11) (3), 1-16.
  7. Watanabe, Junji, Hayashi, Seiichiro, Kajimoto, Hiroyuki, Tachi, Susumu & Nishida, Shin'ya (2007). Tactile motion aftereffects produced by appropriate presentation for mechanoreceptors. Experimental Brain Research, 180 (3), 577-582.
  8. Watanabe, Junji, Ando, Hideyuki, Maeda, Taro & Tachi, Susumu (2007). Gaze-contingent visual presentation based on remote saccade detection. Presence: Teleoperators and Virtual Environments, 16 (2), 224-234.
  9. Ando, Hideyuki, Watanabe, Junji, Inami, Masahiko, Sugimoto, Maki & Maeda, Taro (2007). A fingernail-mounted tactile display for augmented reality systems. Electronics and Communications in Japan Part 2, 90 (4), 56-65.
  10. 安藤 英由樹, 渡邊 淳司, 杉本 麻樹, 前田 太郎. (2007). 前庭感覚インタフェース技術の理論と応用. 情報処理学会論文誌, 48 (3), 1326-1335.
  11. Nishida, Shin'ya, Watanabe, Junji, Kuriki, Ichiro & Tokimoto, Toyotaro (2007). Human visual system integrates color signals along a motion trajectory. Current Biology, 17 (4), 366-372.

Misc

  1. Tajadura-Jiménez, A., Väljamäe, A., Kitagawa, N. & Ho, H.-N. (2007). Whole-Body Vibration Influences Sound Localization in the Median Plane.
  2. 前田 太郎, 安藤 英由樹, 渡邊 淳司, 杉本 麻樹. (2007). 前庭感覚電気刺激を用いた感覚の提示. バイオメカニズム学会誌, 31 (2), 82-89.
  3. 渡邊 淳司. (2007). 主体性の認知科学的展開. Mobile Society Review 未来心理, 9, 4-13.
  4. 渡邊 淳司. (2007). 知覚体験の拡大と感覚価値学. モノ学感覚価値研究, 1, 54-58.

2006

論文

  1. Gomi, H., Abekawa, N. & Nishida, S. (2006). Spatiotemporal tuning of rapid interactions between visual-motion analysis and reaching movement. The Journal of Neuroscience, 26 (20), 5301-5308.
  2. 内田 貴之, 渡邊 淳司, 川上 直樹, 舘 暲. (2006). 走査型ディスプレイにおいて生じる形態歪みの特性. 映像情報メディア学会誌, 60 (9), 1496-1499.
  3. 仲谷 正史, 渡邊 淳司, 安藤 英由樹, 前田 太郎, 舘 暲. (2006). 腕運動中に提示される触覚刺激の定位. 日本バーチャルリアリティ学会論文誌, 11 (1), 101-104.
  4. 安藤 英由樹, 仲谷 正史, 渡邊 淳司, 前田 太郎, 舘 暲. (2006). なぞり動作を利用した触形状提示手法の検討. 日本バーチャルリアリティ学会論文誌, 11 (1), 91-94.
  5. 林 政一郎, 渡邊 淳司, 梶本 裕之, 舘 暲. (2006). 触知覚における運動残効現象の研究. 日本バーチャルリアリティ学会論文誌, 11 (1), 69-75.

misc

  1. 渡邊 淳司. (2006). 『知覚』のベンディング. 春秋, 2007年1月号, 5-8.
  2. 安藤 英由樹, 前田 太郎, 渡邊 淳司. (2006). 目が動いたときだけ見ることができる情報提示装置 眼球運動計測を利用した選択的視覚情報提示手法. 画像ラボ, 17 (6), 43-49.

2005

論文

  1. 安藤 英由樹, 渡邊 淳司, 雨宮 智浩, 前田 太郎. (2005). ウェアラブル・サッカード検出を利用した選択的視覚情報提示の研究. 日本バーチャルリアリティ学会論文誌, 10 (4), 505-512.
  2. Noritake, Atsushi, Watanabe, Junji, Ando, Hideyuki, Terao, Masahiko & Yagi, Akihiro (2005). Spatial independency in perceived lengths of saccade-induced images. Psychologia, 48 (2), 146-153.
  3. Watanabe, Junji, Maeda, Taro & Tachi, Susumu (2005). Time course of localization for a repeatedly flashing stimulus presented at perisaccadic timing. Systems and Computers in Japan, 36 (9), 77-86.
  4. 渡邊 淳司, 安藤 英由樹, 朝原 佳昭, 杉本 麻樹, 前田 太郎. (2005). 靴型インタフェースによる歩行ナビゲーションシステムの研究. 情報処理学会論文誌, 46 (5), 1354-1362.
  5. 渡邊 淳司, Maria Adriana Verdaasdonk, 田畑 哲稔, 安藤 英由樹, 前田 太郎, 舘 暲. (2005). Multimedia performance におけるインタラクティブ性と美. 日本バーチャルリアリティ学会論文誌, 10 (1), 3-9.
  6. Watanabe, Junji, Noritake, Atsushi, Maeda, Taro, Tachi, Susumu & Nishida, Shin'ya (2005). Perisaccadic perception of continuous flickers. Vision Research, 45 (4), 413-430.

2004

論文

  1. 渡邊 淳司, 坂本 憲久, 則武 厚, 前田 太郎, 舘 暲. (2004). サッカード残像の視覚的持続時間の研究. 映像情報メディア学会誌, 58 (12), 1808-1814.
  2. 安藤 英由樹, 渡邊 淳司, 稲見 昌彦, 杉本 麻樹, 前田 太郎. (2004). Augmented Realityのための爪装着型触覚ディスプレイの研究. 電子情報通信学会論文誌 D-II, 87 (11), 2025-2033.
  3. 渡邊 淳司, 安藤 英由樹, 関口 大陸, 前田 太郎, 舘 暲. (2004). 網膜再帰反射を利用した遠隔サッカード検出手法の研究. 日本バーチャルリアリティ学会論文誌, 9 (1), 105-113.

misc

  1. 渡邊 淳司. (2004). VR技術の舞台芸術への応用. 日本バーチャルリアリティ学会誌, 9 (1), 25-27.

2003

論文

  1. 安藤 英由樹, 渡邊 淳司, 杉本 麻樹, 前田 太郎. (2003). 独立成分分析による爪装着型センサの接触力と屈曲の分離. 日本バーチャルリアリティ学会論文誌, 8 (4), 379-387.
  2. 渡邊 淳司, 板垣 貴裕, 野嶋 琢也, 稲見 昌彦, 舘 暲. (2003). Beings -Haptic artwork with smartTool-. 芸術科学会論文誌, 2 (4), 116-122.
  3. 渡邊 淳司, 前田 太郎, 舘 暲. (2003). サッカード前中後にわたって提示される連続点滅光点刺激の知覚と眼球運動との時間関係. 電子情報通信学会論文誌 D-II, 86 (9), 1350-1357.
  4. 安藤 英由樹, 尾花 和俊, 渡邊 淳司, 杉本 麻樹, 前田 太郎. (2003). 回転モーメントを利用した機械ブレーキ式力覚提示装置の開発. ヒューマンインタフェース学会論文誌, 5 (2), 29-36.

2002

論文

  1. 渡邊 淳司, Maria Adriana Verdaasdonk, 田畑 哲稔. (2002). Augmented performance with catalytic devices. 日本バーチャルリアリティ学会論文誌, 7 (4), 459-470.
  2. 渡邊 淳司, Maria Adriana Verdaasdonk、cell/66b. (2002). test-patches. 芸術科学会論文誌, 1 (4), 160-162.
  3. 渡邊 淳司, 前田 太郎, 舘 暲. (2002). サッケードを利用した新しい情報提示手法の提案. 日本バーチャルリアリティ学会論文誌, 6 (2), 79-87.

1998

論文

  1. Nishida, Shin'ya & Shinya, Mikio (1998). Use of image-based information in judgments of surface-reflectance properties. Journal of Optical Society of America, A, 15 (12), 2951-2965.

Page top ←