Menu

Toyohashi University of Technology

Kitazaki Visual Psychophysics Lab.
北崎視覚心理物理学研究室

About / 概要

Our aim / 私たちの目指すもの

We aim to understand how humans perceive the environments and ourselves, behave in the natural environments, and communicate with others scientifically with psychophysical and cognitive neuroscience methods.

2023年12月1-3日(仮)に日本基礎心理学会第42回大会を豊橋技術科学大学で行います。

Mobile Observers

To understand perception for mobile observers, we are investigating self-motion perception, 3-D objects, scene and human-body recognition across viewpoints with psychophysical experiments. To know interaction of perception and action, we are measuring motor behavior and perception during action such as walking and driving a car. Parts of driving study are cooperative studies with a motor company. We are developing a system to experience tele-presence of walking and a system for modifying human body experience.

Embodied Reality

To know what is realty, we are focusing on body perception, ownership and self-agency. Perceptual reality must be based on our body and its perception. We are investigating material perception, perceptual aesthetics, lightness perception, self-motion perception, human-body perception, and augmented body in virtual-reality environments. Cross-modal studies such as vision-vestibular interaction on postural control and face-voice interaction on emotions are included in the theme. We are developing a system to experience tele-presence of walking and a system for modifying human body experience.

Implicit Social Cognition

We interact with others naturally, and perceive the world and others based on social communications. The crucial factor for implicit social cognition is our body. We are investigating body perception, neurophysiology of empathy, equity, and moral. We found that the preverbal infants show sympathy for others in distress and that humans can empathize with humanoid robots.

移動する観察者として

人は視覚,前庭感覚,聴覚,触覚などさまざまな情報から自分自身の運動や位置,傾きを知覚して,それを行動に利用しています。車の運転は,まさにその究極の例です。そこで,視覚刺激(スクリーンに動画を投影)や前庭刺激(可動椅子,前庭電気刺激),聴覚刺激,触覚刺激などを提示し,人の自己運動の知覚や姿勢制御を調べています。成人のみならず,こどもを対象とした知覚行動発達の研究も行っています。また。視覚心理物理実験に最適化したドライビングシミュレータを開発し,ステアリング操作における知覚・認知情報処理の解明と工学的応用を行っています。

身体リアリティ

リアルと感じる瞬間はなぜそう感じるのでしょうか? 何をリアルと感じるのか,リアルとアンリアルの境界は何か,リアリティの源泉は私たち自身の身体にあります。リアルであることが知覚と行動にどのような影響を及ぼすのか,どのような身体にリアリティをモテるのか,身体を変えることで心と行動はどう変わるのかを調べ,リアリティの解明とリアリティ測定手法の研究を行っています。質感や美しさの知覚,身体認知,複合感覚統合,テレプレゼンス追体験,身体拡張などの研究を行っています。果たして我々の身体はどこまで変えることができ,どうしたらそれを自分の身体と感じることができ,それによって私たちの心や行動,コミュニケーションが変わるのかをターゲットに研究を行っています。

人と人との自然な繋がり

私たちは知らず知らずのうちに他者とコミュニケーションをしており,社会的コミュニケーションに基づいた知覚を潜在的に行っています。そこで媒介となっているのは身体です。この身体から生じる潜在的社会性に関して,身体知覚,共感の認知神経科学,公平感の認知神経科学の研究を行っています。特に,前言語期の乳児が同情を示すことや人はロボットにも共感を行動実験や脳波計測実験で示しました。

心を科学的に捉えられる人材を育てる

このような研究を通して,情報科学や心理学,認知神経科学の知識や方法論を身につけ,人の心を科学的に理解し,社会の発展に貢献できる人材を育てています。

.

Research and Education / 研究と教育

Research

Journal papers, Conference papers, Presentations,

Invited talks, Books, Awards, and more

Research

Media

Press release, News, Web, and more

Humans can feel empathic embarrassment towards robots (September 2023)
Press release

Virtual co-embodiment of a joint body with left and right limbs controlled by two persons (July 2022)
Press release

Third and fourth robotic arms feel like a part of the user’s own body (Jun 2022)
Press release

Walking in a 360° video with foot vibrations for seated observers (Dec 2021)
Press release

Enhancing virtual walking sensation for seated observer using walking avatars (Apr 2021)
Press release, Frontiers blog

Concurrent sharing of an avatar body by two individuals in virtual reality (Nov 2020)
Press release

The right thumb becomes the left arm: Re-association of body parts using virtual reality (Mar 2020)
Press release

Whole body ownership is not just the sum of each part of the body (Mar 2020)
Press release

Illusory body ownership of an invisible body via visual-motor synchronicity (May 2018)
Press release

Humans can empathize with robots (Nov. 2015)
Press release

Education

Students,

Lectures, Thesis, and Dissertations

Undergraduate students (3-6 persons) and graduate students (4-10 persons in Master course, 0-2 persons in PhD course) belong to the lab.
Usually one year for B.Sc, two years for M.Sc, and additional three years for Ph.D are required.

研究

原著論文,国際会議発表,

招待講演,著書,賞など

研究

メディア,報道

プレスリリース,ニュース,webなど

人はロボットに対しても共感的な恥ずかしさを感じる (2023年9月)
Press release

左右の腕を2人が独立して操作するバーチャルアバターの身体性 (2022年7月)
Press release

第三、四の腕を自分の身体の様に感じる (2022年6月)
Press release

360度動画の中を歩くためのバーチャル歩行システム (2021年12月)
Press release

歩いているアバターによるバーチャル歩行感覚の増強 (2021年4月)
Press release

バーチャルリアリティにおける共有身体の運動特性を解明 (2020年11月)
Press release

右手の親指を左腕に変換する:バーチャルリアリティによる身体部位再マッピング (2020年3月)
Press release

全身所有感は身体各部位の所有感の単なる合計ではない (2020年3月)
Press release

透明人間は身体所有感を感じるか (2018年5月)
和文プレスリリース

人はロボットにも共感する(2015年11月)
和文プレスリリース

教育

学生,

講義,卒論,修論,博論

学部4年生,博士前期課程(修士課程),博士後期課程が各学年1-6名所属します。合計10-18名です。教授1名に加えて,年により特任教員/博士研究員1-2名が教育・研究に参画します。
研究室の日常は,Facebookでどうぞ。
主要な担当講義は,認知科学序論,ヒューマン情報処理,X Reality and Psychologyです。

Gallery

Latest Projects / 最近の研究

The recent research projects are selected as follows.
最近の研究について写真や動画で簡単に紹介しています。

( Publication List ) ( Inami Jizai Body Project )

Avatar shadow

enhances telepresence and virtual walking

We developed a system that provides a virtual walking experience to a seated person by real-time synthesis of a walking avatar and its shadow on a 360-degree video with vibrations to the feet. The shadow of the avatar induces an illusory presence of their body. In the future, it is expected to provide an immersive experience for any recorded medium with a virtual embodiment..
本研究では、360度の実写動画(8K解像度)に歩いているアバターとその影をリアルタイムに合成し、足裏への振動と組み合わせることにより、歩行体験が強化することを明らかにしました。また、アバターの影は、360度動画中には本来存在しない、自身の身体の存在を思い起こさせました。将来的には、実写で記録された過去の空間メディアへ、自身の身体感覚ごと没入できる体験が提供できると期待されます。
Published in Nakamura, J., Ikei, Y., and Kitazaki, M. (2023). Effects of self-avatar cast shadow and foot vibration on telepresence, virtual walking experience, and cybersickness from omnidirectional movie, i-Perception, 15(1). https://doi.org/10.1177/20416695241227857

Biomechanically impossible arm

can be embodied

The study investigated how synchronizing visual and motor experiences in Virtual Reality (VR) affects a person's sense of embodiment with avatars, even when the avatars have unnatural arm movements or biomechanically impossible arm movements. They found that temporal synchronization increased the feeling of embodiment for both natural and unnatural avatars, even when their movements did not match the user's expectations of a human body.
本研究では、バーチャルリアリティにおいて視覚と身体運動を同期させることが、アバターが不自然な腕の動き(生物力学的に不可能な腕の動き)をしている場合であっても、そのアバターを自己身体化できるかを調べた。その結果、自然なアバターでも不自然なアバターでも、時間的同期があれば、普通の人体の動きと一致しない場合でも、身体所有感が高まることがわかった。
Published in Hapuarachchi, H., Ishimoto, H., Sugimoto, M., Inami, M., and Kitazaki, M. (2023). Temporal visuomotor synchrony induces embodiment towards an avatar with biomechanically impossible arm movements, i-Perception doi: 10.1177/20416695231211699

Empathic embarrassment

can be felt towards robot

In a virtual-reality study, researchers have discovered that humans are capable of experiencing empathic embarrassment when witnessing robots go through embarrassing situations. The study utilized a combination of subjective ratings and physiological measurements to quantitatively assess the extent to which humans feel empathic embarrassment towards robots.
人間とロボットの複雑な相互作用を解明するためのバーチャルリアリティを使った研究で、ロボットの恥ずかしい状況を目撃したとき、人間は共感的恥ずかしさを感じることができることを発見しました。この研究では、主観的評価と生理学的測定を組み合わせて、人がロボットアバターに対して共感的恥ずかしさを感じる程度を定量的に評価しました。
Published in Hapuarachchi, H., Higashihata, K., Sugiura, M., Sato, A., Itakura, S., and Kitazaki, M. (2023). Empathic embarrassment towards non-human agents in virtual environments, Scientific Reports. 11:13914 doi: 10.1038/s41598-023-41042-3.

Shared avatar for hand imitation

Its subjective and behavioral evaluations

Virtual co-embodiment of a hand and fingers averaged by the teacher's and the participant's hands.
While we have studied whole-body sharing by averaging or sharing the left and right halves of the body, this time we have averaged the hands and fingers of two people. In this paper, however, we can experience an avatar hand as an average of the recorded model hand and our own hand movements. Using this shared hand to imitate the model's sign is subjectively easier and behaviorally easier, especially with less movement latency. Note that we did not analyze the hand movements of the shared body avatar, but the movement data of the real own hand while using the shared body. We also examined the effect of the orientation of the teacher's hand. Subjectively, it is easier to have the same orientation as your own hand, but spatial accuracy is better when you can see the palm of the teacher's hand.
手の共有身体(合体)の研究です。これまで全身の合体を調べて、平均したり左右半身を分担したりしていましたが、今回は2人の手と指を平均しました。ただし、この論文では、記録されたお手本の手の動きと自分の手の動きを平均したものを自分のアバターとして体験しています。この共有身体の手を使ってお手本の手話を真似ると、主観的にやりやすく、行動的にも特に動きの遅延が少なくなりす。なお、分析したのは、共有身体アバターの手の動きではなく、共有身体を使っているときの本当の自分の手の動きデータです。お手本の手の向きの効果も調べていて、主観的には自分の手と同じ向きがやりやすいのですが、空間精度(指の角度の一致度)はお手本の手の平が見えている方が良いです。
Published in Katsumata, Y., Inoue, Y., Toriumi, S., Ishimoto, H., Hapuarachchi, H., and Kitazaki, M. (2023). Shared Avatar for Hand Movement Imitation: Subjective and Behavioral Analyses. IEEE Access, DOI: 10.1109/ACCESS.2023.3312179

Joint-avatar embodiment

by connection force feedback

Embodiment towards a joint-body limb controlled by another is increased by connection force feedback.
Even if we cannot control them, or when we receive no tactile or proprioceptive feedback from them, limbs attached to our bodies can still provide indirect proprioceptive and haptic stimulations to the body parts they are attached to simply due to the physical connections. To investigate this issue, we developed a 'Joint Avatar' setup in which two individuals were given full control over the limbs in different sides (left and right) of an avatar during a reaching task. The backs of the two individuals were connected with a pair of solid braces through which they could exchange forces and match the upper body postures with one another. Our results suggest that even in total absence of control, connection induced upper body movements synchronized with the visible limb movements can positively affect the sense of embodiment towards partner-controlled or autonomous limbs.
四肢を制御できない場合、あるいは手足から触覚や固有受容感覚を得られない場合でも、身体に取り付けられた四肢は、その物理的な接続により、取り付けられている身体の部位に間接的に固有感覚や触覚の刺激を与えることが可能です。我々は2人の人が左右の半身を別々に制御することができる結合身体アバターを開発し、リーチングタスク実験を行いました。二人の背中は一対の固い装具で接続されており、この装具を通して力を交換しました。実験の結果は、自分が制御できない場合でも、目に見える四肢の動きと同期した接続による力触覚フィードバックによる上半身の動きが、パートナーが制御する四肢または自律的な四肢に対する身体感覚にポジティブな影響を与えることを示しました。。
Published in Hapuarachchi, H., Hagiwara, T., Ganesh, G., and Kitazaki, M. (Accepted). Effect of connection induced upper body movements on embodiment towards a limb controlled by another during virtual co-embodiment. PLoS One, 18(1): e0278022. DOI: 10.1371/journal.pone.0278022

Joint-avatar embodiment

with common or visible goals

Virtual co-embodiment of a joint body with left and right limbs controlled by two persons.
What factors influence the embodiment felt towards parts of our bodies controlled by others? Using a new “joint avatar” whose left and right limbs are controlled by two people simultaneously, researchers have revealed that the visual information necessary to predict the partner’s intentions behind limb movements can significantly enhance the sense of embodiment towards partner-controlled limbs during virtual co-embodiment. This finding may contribute to enhancing the sense of embodiment towards autonomous prosthetic limbs.
バーチャルリアリティを用いて、2人のユーザーが1つのアバターの左右の半身を操作する結合身体アバターを開発しました。しかし、他者が操作する身体部位をどのようにしたら自己身体と感じられるのでしょうか? 実験により、他者が操作する腕に対する身体性は、自分が制御する腕に比べて低いものの、他者の意図を予測する視覚情報があれば、他者が操作する腕に対する自己身体感を高めることができることを明らかにしました。将来的には、自律駆動する義肢に感じる違和感を減らす設計にも貢献することが期待できます。
Published in Hapuarachchi H., and Kitazaki, M. (2022). Knowing the intention behind limb movements of a partner increases embodiment towards the limb of joint avatar, Scientific Reports, DOI: 10.1038/s41598-022-15932-x

Virtual Walking in a 360 video

with ground-material perception

Virtual Walking with Omnidirectional Movies and Foot Vibrations.
We have developed a virtual walking system for seated observers with 360° video and scene-congruent foot vibrations. The timing of foot vibrations was automatically calculated from the 360° video. They found that rhythmical scene-congruent vibrations improved the sensation of walking and the perception of ground materials. This system can convert various public and private 360° videos into realistic virtual walking experiences.
360°動画を用いて座っている観察者のためのバーチャル歩行システムを開発し、歩行感覚や地面の材質の知覚が,シーンに調和した振動によって強化されることを明らかにしました。本システムを用いると,様々な360度動画をリアルなバーチャル歩行体験に変換することができます。
Published in Nakamura, J., Matsuda, Y., Amemiya, T., Ikei, Y., and Kitazaki, M. (2021). Virtual Walking with Omnidirectional Movies and Foot Vibrations: Scene-congruent Vibrations Enhance Walking-related Sensations and Ground Material Perceptions. IEEE Access, DOI: 10.1109/ACCESS.2021.3136557

Explicit Visual Perspective Taking

is facilitated by Humanoid Avatar

The effects of body direction and posture on taking the perspective of a humanoid avatar in a virtual environment.
We investigated the effects of body direction and posture on whether employing a humanoid avatar as the viewpoint would facilitate an imagined perspective shift in a virtual environment, and which factor of the avatar is effective for the facilitation effect. The perfomamce was improved by the avatar in forward posture, not affected by occluding the head of the avatar, but deteriorated by impossible postures. These results suggest that explicit perspective taking is facilitated by embodiment towards humanoid avatars.
アバターの身体の向きや姿勢が明示的な視覚的視点取得にどのように影響するかを調べました。明示的な視覚的視点取得(ある対象をある方向からどう見えるかを答える)は,アバターがその対象を向いている場合に促進されたが,頭部が隠されていても成績に影響はありませんでした。しかし,頭部と身体が逆を向いているような不可能身体では成績が下がりました。したがって,人型アバターの身体性が視点取得に重要であることが示唆されました。
Published in Ueda S, Nagamachi K, Nakamura J, Sugimoto M, Inami M, Kitazaki M (2021) The effects of body direction and posture on taking the perspective of a humanoid avatar in a virtual environment. PLoS ONE 16(12): e0261063. https://doi.org/10.1371/journal.pone.0261063 https://doi.org/10.1371/journal.pone.0261063

Peripersonal space representations

exist with approaching sound, irrespective of the direction of approach

Peripersonal space in the front, rear, left, and right directions for audio-tactile multisensory integration.
We investigated audio-tactile multisensory integration near the body using touch detection with task-irrelevant approaching and receding sounds in all directions: front, rear, left, and right. The tactile stimulus was detected faster near the body space than far from it when a sound approached from any direction. Thus, peripersonal representations exist with approaching sound, irrespective of direction.
身体近傍での聴覚と触覚の多感覚統合について,前後左右から接近あるいは後退する音を用いて調べました。触覚刺激は接近してくる音源が身体の近くにあるときに遠くにあるときよりも素早く検出され,その効果は前後左右全ての方向で見られました。したがって,身体近傍空間における多感覚促進処理は,接近音に対して方向に依存せず存在すると言えます。
Published in Matsuda, Y., Sugimoto, M., Inami, M., Kitazaki, M. (2021). Peripersonal space in the front, rear, left and right directions for audio-tactile multisensory integration. Scientific Reports, 11: 11303. https://doi.org/10.1038/s41598-021-90784-5

Virtual Walker

enhances walking illusion

Enhancing virtual walking sensation using self-avatar in first-person perspective and foot vibrations.
We have developed a virtual walking system for seated observers and have revealed that walking self-avatars improve the illusory walking sensation by integrating foot-vibration simulating footsteps. The walking-avatar is presented in the first-person and mirrored perspectives, to induce a sense of body ownership. This system provides a virtual walking experience to people with walking disabilities.
座っている人にバーチャル歩行体験を提供するシステムを開発し,歩いているアバターと足裏への振動の組み合わせによって歩行感覚の錯覚を増強できることを示しました。歩いているアバターは一人称視点と鏡の中に見え,それを自己身体と感じることができました。将来的には,このシステムが歩行困難者にもバーチャルな歩行体験を提供するものとなることが期待されます。
Published in Matsuda, Y., Nakamura, J., Amemiya, T., Ikei, Y., Kitazaki, M., 2021. Enhancing virtual walking sensation using self-avatar in first-person perspective and foot vibrations, Frontiers in Virtual Reality, https://doi.org/10.3389/frvir.2021.654088

Shared Body

concurrently controlled by two individuals

Individuals prioritize the reach straightness and hand jerk of a shared avatar over their own.
Two participants were embodied within a shared avatar in virtual reality. Movements of the shared avatar were the average of the participants' movements. They were asked to reach a target via the shared body. In the results, avatar’s hand movements were straighter and less jerky than those of the participants. Thus, humans prioritize the movement of a shared body over their own movements. A shared body can be a new collaboration method in the future. バーチャルリアリティ(VR)空間において、2人が1つのアバターを共有して共同作業を行うシステムを開発しました。この共有身体アバターの動きは、2人の参加者の動きを平均して生成しました。これを用いて、ランダムな位置に現れる物体に手を伸ばす動作を行うと、共有身体アバターの動きは、共有身体アバター操作者の動きや共有身体でない場合の参加者自身の動きよりも直線的で滑らかになることが分かりました。この理由は、操作者が、自分自身の動きよりも、共有身体の動きを無意識に最適化し、優先するためと考えられます。この知見は、VRやロボティクスを用いた身体の共有による新しい共同作業方式の提案と基礎設計に貢献することが期待されます。
Published in Hagiwara, T., Ganesh, G., Sugimoto, M., Inami, M., and Kitazaki, M. (2020). Individuals prioritize the reach straightness and hand jerk of a shared avatar over their own. iScience, doi: 10.1016/j.isci.2020.101732

Scrambled Body

differentiates the body-part ownership from the whole body ownership

Differences between whole body and body part ownership were clarified using scrambled body stimulation in a virtual environment, wherein the observer’s hands and feet were presented in randomized spatial arrangements. バーチャルリアリティ空間でのスクランブル身体刺激を用いて全身所有感と身体部位所有感の違いを明らかにしました。スクランブル身体刺激とは,観察者の手と足のみを提示し,それらの空間的配置をランダムにしたものです。全身を動かしながらスクランブル身体刺激を観察すると手と足に対する身体部位所有感は生じますが,全身所有感を感じることはできず,全身所有感には通常の身体と同様の空間的配置を持つ身体刺激が必要でした。この結果は,全身所有感の錯覚には空間的配置が重要であることを示唆します。また,人の身体的自己意識は,通常の人がもつ身体の空間的配置に影響を受けている可能性があります。
Published in Kondo, R., Tani, Y., Sugimoto, M., Inami, M., and Kitazaki, M. (2020). Scrambled body differentiates body part ownership from the full body illusion. Scientific Reports, 10, DOI: 10.1038/s41598-020-62121-9

Cough Infection VR

Learning experience for preventing infection by cough

Users can ineractively learn and experiene infection by cough. VRを用いて,咳からどのように病原菌が感染するかを体験し,感染症の予防に貢献します。うつす・うつされる両方の体験が可能で高い教育効果が期待できます。咳の飛沫感染のみならず,接触感染・空気感染も体験できます。豊橋市健康政策課の企画に基づき,専門家の知識を得て作成しています。

Empathy for Robots

Physiological Evidence with EEG

Humans can empathize with robots. We showed EEG responses are similar in human and robot painful pictures. 人はロボットにも他者に対するのと同様な共感を示します。痛みのある刺激に対して脳波を計測することで,それを示しました。
Published in Suzuki et al. (Scientific Reports 2015)

Virtual Walking

by Vision and Tactile sensation

Oscillating optic flow with rhythmical foot vibrations induces a virtual walking sensation. Virtual walking can be captured by a walking person in a remote location, or generated from a traslational motion images. 周期的に振動するオプティックフローに足裏振動を組み合わせることで,バーチャル歩行体験を実現します。遠隔地で実際に歩行する人の体験を追体験することもできますし,さまざまな移動映像から自動的に生成することも可能です。
Published in Kitazaki et al. (i-Perception 2019)

Invisible Body

by vision-motor synchronization

Virtual reality enables us to experience an ownership of invisible body by vision and action synchronization. バーチャルリアリティを用いて,自分の身体が透明になり,目の前の離れた位置にあるように感じさせることができます。頭部搭載型ディスプレイ(HMD)で目の前に提示した手袋と靴下が自分の運動と同期していると,しばらくするとそこに透明な自分の身体が感じられるようになります。
Published in Kondo et al. (Scienific Reports 2018)

Changing Postural Control

with Galvanic Vestibular and Visual Stimulations

Posture is controlled by vestibular and visual sensation processing. We showed that a long-term adaptation can modify weights of vision and vestibular senses to control posture. 視覚と前庭感覚が姿勢制御に使われています。視覚運動と電気前庭刺激(GVS)を組み合わせて長期順応することで,視覚と前庭感覚が姿勢制御に及ぼす貢献度を変えることが可能であることを示しました。
Published in Kitazaki and Kimura (Presence2010).

Glossiness Perception

improved by object's motion and observer's motion

Perception of glossiness is improved when the object is moving and the observer is moving. 物体の光沢感は,それが運動しているときのみならず,観察者自身が運動しているときにも増すことを示しました。
Presented in Tani et al (PLoS One 2014)

Body-parts Remapping

Finger to Arm

As a trial of "body editing", we are trying to remap a finger of the right hand to the left arm. Participants feel the virtual arm as another arm. 身体編集の一例として,右手の親指を左腕に再投射できるかを調べています。指とバーチャルな腕が同期して運動すると,バーチャルな腕が自分の腕であるかのように感じられます。
Published in Kondo et al (Frontiers in Robotics and AI 2020) [Video/動画].

Transparency Perception

improved by motion

Perception of a thick transparent object like glass is improved by its motion. ガラスのような厚みのある透明物体は,それが運動していると知覚される透明感が増すことを示しました。
Presented in Ueda et al (VSS2015)

Body Odyssey

A Cross-modal Edutainment

You can travel through the body to learn inner organs. 食物になって消化器官内部を匍匐前進で体験し,学習することができます。
Presented in Fujisawa et al (AH2017). 国際学生バーチャルリアリティコンテストIVRC2016決勝進出

Published in 藤澤ら (TVRSJ 日本バーチャルリアリティ学会論文誌 2019)

BCI Driving

Brain-Computer-Interface for steering a car by SSVEP

Driving simulator is contolled by human EEG (SSVEP). 定常視覚誘発電位によって転舵角を定量的に操作する脳機械インタフェースの実装です。
Published in 安藤ら (TVRSJ 日本バーチャルリアリティ学会論文誌 2010) [Video/動画].

AR-SSVEP

Brain-Computer-Interface for Augmented-Reality by SSVEP

Gaze is decetted by human EEG (SSVEP) in AR. AR環境での脳機械インタフェースの実装を目指して,実画像のコントラスト修飾からSSVEPを惹起させ,視線を推定するものです。
Published in 鎌谷ら (TVRSJ 日本バーチャルリアリティ学会論文誌 2013).

Driving Simulator

for psychophysics and cognitive sciences

This driving simulator has been developped for psychophysical experiments and cognitive science research. All programs were made originally in our lab. 研究室独自開発の心理・認知科学実験に最適化したドライビングシミュレータです。視野の遠近情報の認知特性の違い,視聴覚刺激による運転サポート効果,脳波を用いた脳機械インタフェースの研究等を行っています。
Published in 岸田ら(機械学会論文誌2008), Kishida et al. (SAE paper2009), Onimaru and Kitazaki (VR2010), 安藤ら(日本VR学会論文誌2010),鬼丸・北崎(基礎心研2013)

Members

Faculty, Staff, Students / 教員,研究員,学生

In the academic year 2024, we have a professor, and 19 students.

Professor / 教授

Michiteru Kitazaki, Ph. D
北崎 充晃

Mich Kitazaki graduated from Department of Psychology, The University of Tokyo in 1992 (BA), 1994 (MA), and Departmentment of Life Sciences, The university of Tokyo in 1997 (PhD) under the supervision of Prof. Shinsuke Shimojo. He is now a professor of Computer Science and Engineering, Toyohashi University of Technology.
1992年東京大学文学部心理学専修課程卒業,1994年東京大学大学院人文科学研究科心理学専攻修士課程修了(修士(心理学)),1997年東京大学大学院総合文化研究科広域科学専攻生命環境科学系博士課程修了(博士(学術))。1997-2000東京大学大学院人文社会系研究科心理学研究室助手,2000年豊橋技術科学大学工学部講師,2003年豊橋技術科学大学大学院工学研究科助教授,准教授を経て,現在教授。

Graduate student / 大学院生
TUT-DC Fellowship / 豊橋技術科学大学-DCフェローシップ

Harin Hapuarachchi
ハリン ハプアーラッチ

Doctor course

Graduate student / 大学院生

DJELIL YASMINA FERIEL
DJELIL YASMINA FERIEL

Master course / IMLEX

Graduate student / 大学院生

RIZZO RAFFAEL
RIZZO RAFFAEL

Master course / IMLEX

Graduate student / 大学院生

Leo Sakata
坂田 玲央

Master course

Graduate student / 大学院生

Ryu Onodera
小野寺 琉

Master course

Graduate student / 大学院生

Rorek
ロレック

Master course

Graduate student / 大学院生

Shuya Hirose
廣瀬 修也

Master course

Graduate student / 大学院生

Tatsuya Mimura
三村 龍矢

Master course

Graduate student / 大学院生

Taichi Murakami
村上 太一

Master course

Graduate student / 大学院生

Ryusei Sakata
坂田 龍星

Bachelor course

Graduate student / 大学院生

Satoshi Toriumu
鳥海 智志

Bachelor course

Graduate student / 大学院生

Kabuto Narukawa
成川 駆武人

Bachelor course

Graduate student / 大学院生

Yuta Yoshida
吉田 優太

Bachelor course

Undergraduate student / 学部生

Asahi Uchikai
内海 朝斐

Bachelor course

Undergraduate student / 学部生

Hayato Yashiki
屋敷 駿斗

Bachelor course

Undergraduate student / 学部生

Komei Yamashita
山下 孔明

Bachelor course

Undergraduate student / 学部生

Toshiumi Wada
和田 寿海

Bachelor course

Undergraduate student / 学部生

THADY GUNAWAN
テディ グナワン

Bachelor course

Almuni / 卒業生・転出者

Hiroaki Shigemasu, Ph.D
繁桝 博昭

Professor, Kochi University of Technology
高知工科大学 情報学群 教授

Almuni / 卒業生・転出者

Naoyuki Matsuzaki, Ph.D
松嵜 直幸

Senior Researcher, Suntory
サントリーグローバルイノベーションセンター株式会社,研究員

Almuni / 卒業生・転出者

Takeo Hamada, Ph.D
濱田 健夫

Project Lecturer, The University of Tokyo,
東京大学大学院情報学環,特任准教授

Web
Almuni / 卒業生・転出者

Ryota Kondo, Ph.D
近藤 亮太

JSPS Post Doctral Fellow, Keio University,
慶應義塾大学,特任助教、日本学術振興会PD特別研究員

Web
Almuni / 卒業生・転出者

Yusuke Matsuda, Ph.D
松田 勇祐

Assistant Professor, Suwa University of Science
諏訪東京理科大学,助教

Almuni / 卒業生・転出者

Yasunobu Katsumata, Ph.D
勝俣 安伸

Almuni / 卒業生・転出者

2000-2023 Graduates

平成14(2002)年度:川端 秀典,田中 俊行,南部 妙水,横塚 敬一, 平成15(2003)年度:久保田 正善,黒瀬 勲信,後藤 充慶,坂本 弘樹,#Luvsanbaldan Otgonbayar, 平成16(2004)年度:高山 るみ,間瀬 和夫, 平成17(2005)年度:小竹 徹,神谷 あゆみ,中野 智亮,山村 理行,#吉野 知也, 平成18(2006)年度:太田 淳,小曳  尚,片山 純一,清水  照,橋本  拓,平田  愛,野村 彰憲,三代 真美, 平成19(2007)年度:河口 桂大,村田 敦俊,浦岡 大朗,河村 賢治,坂木 栄冶,杉浦 志保,藤木 康久,馬場 久志, 平成20(2008)年度:安藤 惇,木村 拓也,桐畑 健太郎,田村  健,針山 新一郎, 平成21(2009)年度:辻 貞治,勝俣 安伸,外山 純一,久田 晃司,増谷 英昭,若田 健, 平成22(2010)年度:井上 康之,鬼丸 真一,曽山 勝利,水流 晃一,吉田 光宏, 平成23(2011)年度:谷岡 俊介,小野 和也,加藤 雅也,鎌谷 祐貴,水鳥 裕章,渡辺 大介, 平成24(2012)年度:山口 貴広,高井 悠一郎,塚田 泰明,柳瀬 香, 平成25(2013)年度:上原 太陽,磯部 夏美,室伏 裕太,#荒木 啓介,#荒井 宏太,#南部 政智, 平成26(2014)年度:上田 俊哉,鈴木 有貴,野澤 純希, 平成27(2015)年度:山本 明彦,石本 梨恵,上田 祥平,佐々木 翔大,林崎 貴昭,兵藤 まりこ, 平成28(2016)年度:堀井 就斗,吉保 克哉, 平成29(2017)年度:後藤 毅朗, 平成30(2018)年度:岡本 良平,藤澤 覚司, 平成31(2019)年度,令和元年度:谷 大和,谷本 日向,丸岡 拓, 令和2(2020)年度:Janina Karhunen,近藤 亮太、杉浦 丸太,萩原 隆義,山本 響介,長町 和弥,白藤 篤史, 令和3(2021)年度:加藤 優貴、石本 浩気、中川 航太朗、東畑 健斗、谷野 文哉、HERRERA PRIETO OMAR NELSON, 令和4(2022)年度:小森 匠、本田葉輝、#Muhammad Syafiq bin Shahidan, 令和5(2023)年度:BISHT PRATIK SINGH, KADIR NAZIAL, 田代 晋也, 原⼝ 岳丸, LI HE, ⽚岡 純也, 髙橋 宏太, 勝俣 安伸, 塚原 永吉

Contact

Address / 連絡先

Professor Michiteru Kitazaki, PhD
Department of Computer Science and Engineering, Toyohashi University of Technology
e-mail: mich _at_ tut.jp
Address: 1-1 Hibarigaoka, Tempakucho, Toyohashi, Aichi 441-8580, Japan.
Direction/map
国立大学法人 豊橋技術科学大学 情報・知能工学系 教授 北崎充晃
441-8580愛知県豊橋市天伯町雲雀ヶ丘1-1
電子メール: mich _at_ tut.jp
アクセスマップ