/[[Top Page>FrontPage]]/Research
 &br;
 &br;
 /[[Top Page>FrontPage_en]]/Research
 RIGHT:[[日本語>ResearchList]]
 
 &size(30){Research Topics};
 LEFT: [[日本語>ResearchList]]
 &br;
 #contents
 
 &br;
 *研究室のテーマ [#a114d547]
 人の活動支援につながるようなロボットシステムを実現するため、人とロボットの両方を研究テーマに取り上げている点がヒューマン・システム研究室の特徴です。どのようにしたら人は簡単にロボットシステムへメッセージを届けられるか。どのようにしたら人は簡単にロボットシステムのメッセージを受け取れるか。コミュニケーションを行うために特殊な技能や知識を必要とせず、かつ長い時間使用しても疲れないような『人とロボットシステムが共生する仕組み』を研究しています。
 *Motivation [#a114d547]
 We aim human-robotic systems collaborative interaction in daily living environments in order to  support and enhance human activities. The robotic systems are required to behave in a daily living environment autonomously. Intelligence Space (iSpace) is one of the effective approaches to realize autonomous robots in a dynamic environment.
 As iSpace is a technical platform for autonomous robots, we are working on long-term and sustainable human-robot communication in a daily living environment as shown below.
 Through these researches, we aim to realize assistive robotics to socially and cognitively support and enhance human activities.
 
 *2013年度の研究テーマ [#h4cb3060]
 2013年度のテーマは大きく4班に分けられます。[[研究員1名、博士1名、修士12名(M1:6名,M2:6名)、学部4年生7名>MemberList]]で研究を進めています。
 &br;
 &br;
 ** [iS] 人とロボットの共生プラットフォーム [#j516776d]
 + 空間知能化に関する研究
 &br;
 &br;
 様々な種類のセンサを空間内に分散的に配置し,空間全体を観測して,人やロボットの支援を行える賢い空間Intelligent Spaceの実現に向けて研究を行います.移動ロボットの制御に有用な移動物体の位置推定,環境地図の構築なども研究テーマです.
 &br;&br;
 ++ 可動物体を反映した環境地図のマルチレゾリューション化
 ++ 人の活動領域を考慮した自律移動ロボットの障害物回避
 &br;
 &br;
 + 空間知能化における人の活動内容の分類と記述、活動支援への応用
 &br;&br;
 空間に埋め込まれた様々なセンサを用いて人の活動内容や空間の状況を識別するための手法について研究します.人支援を行うための空間知能化にとってコアとなる技術です.
 &br;&br;
 ++[[空間メモリSpatial Memory >SpatialMemory]]の生産現場における作業支援への応用
 ++[[空間メモリSpatial Memory >SpatialMemory]]を用いた活動内容の分類
 &br;&br;
 &ref(zps_2701.png,right,around,超音波式3次元位置計測装置);
 &ref(map_2013.png,right,around,可動物体を反映した環境地図);
 &ref(spatialmemory_2012.png,right,around,空間メモリとGUI);
 * Current research topics [#h4cb3060]
 
 ** [iS] Intelligent Space (iSpace) as a platform to realize autonomous robotics in daily living environments[#j516776d]
 
 Intelligent environments are being studied to support and enhance human activity by observing subjects using distributed networked sensors, recognizing human activity, and providing services using distributed actuators such as displays and mobile robots. To observe the dynamic environment, many intelligent devices, called distributed intelligent network devices (DINDs), are placed in an
 intelligent environment. We named this space “Intelligent Space” (iSpace). The DIND,
 a basic iSpace element, consists of three basic components -- sensors, processors, and network devices.
 
 Communicating with individual DINDs enables iSpace to apprehend and understand events in this space and to activate intelligent agents such as mobile robots, computer devices, and digital equipment to provide information and services to users based on observed information.
 
 + Autonomous mobile robot navigation i daily living environments
 ++ Grid-based map including moving objects to represent a dynamic environment
 ++ Multiresolution map for an efficient representation of a daily living environment
 ++ Collision avoidance in a daily living environment  
 
 + Activity recognition in a daily living environment
 ++ [[Spatial memory>SpatialMemory]]-based activity recognition
 
 &ref(ResearchList/iSpace.png,28%,iSpace concept);
 &ref(ResearchList/map_2016.png,Environment map including moving objects);
 &ref(ResearchList/GuidanceRobot_2016.jpg,Guidance Robot);
 //&ref(spatialmemory_2012.png,right,around,;
 //&ref(spatialmemory_map.png,right,around,空間メモリ作成支援ツール);
 
 ** [Etho] 人とロボットのコミュニケーションモデル [#i787e814]
 +動物行動学に基づく人とロボットの持続発展的コミュニケーションモデルに関する研究
 ** [Etho] Ethologically inspired human-robot communication  [#i787e814]
 
 To realize long-term and sustainable human-robot communication, we build a robot behavioral model inspired by human-dog relationships. Dogs are able to build social relationships with humans. Humans are also able to interpret dogs' behaviors according to their context.
 Therefore, we try to apply dogs' behaviors to human-robot communication.
 
 //This study is supported by 
 
 + Modeling of human-dog attachment
 + Ethologically inspired human-robot communication for a monitoring support system in iSpace
 + Robot behavioral model including the difference of behavioral characteristics
 
 //&ref(ResearchList/hrc_2013.JPG,right,around, Human-robot communication);
 //&ref(ResearchList/etho_sim_2013.png,right,around, Ethologically inspired robot behavioral model);
 
 &ref(ResearchList/robot_with_ball_2016.JPG,right,around, Human-robot communication);
 &ref(ResearchList/sim_2016.png,right,around, Ethologically inspired robot behavioral model);
 
 ** [P] Personal Mobility Tool: cooperative smart electric wheelchair  [#i37cb09f]
 We aim to enable a user to operate an electric wheelchair without continuos input to reduce physical load of its operation. Therefore, we integrate direction input from the user and autonomous mobile robot navigation, name it PMT (personal mobility tool). Here, the user hardly predicts the PMT movement when it moves autonomously. To help the user predict and understand the PMT movement, we design mutual interaction between the user and the PMT. The PMT provides feedback to the user, for example, sensing result (distance to obstacles) and traveling direction.
 
 + Cooperative electric wheelchair integrating direction input and autonomous mobile robot navigation
 &br;
 &br;
 人とロボットの持続的なコミュニケーションの実現を目指して,犬の愛着行動の解析から得られた知見をロボット工学に応用します。人と犬の関係に基づき、ロボットの社会的行動モデルについて検討します。
 ++ Development of a new input device 
 ++ Estimation of an indicated destination based on direction input and an environment map
 &br;
 &br;
 ++行動特性を考慮した犬の愛着行動モデルのロボットへの適用
 ++ iSpaceを利用した高齢者の見守り支援システムにおける人-ロボットコミュニケーションへの適用
 ++
 + Mutual interaction and ride quality improvement
 &br;
 &br;
 &ref(hrc_2013.JPG,right,around,動物行動学に基づく人-ロボットコミュニケーション);
 &ref(etho_sim_2013.png,right,around,動物行動学に基づく人-ロボットコミュニケーションの計算機モデル);
 ** [P] 人と協調する知的電動車いす: Personal Mobility Toolの実現 [#i37cb09f]
 + 人からの簡便な方向指示と自律移動機能を有する知的電動車いすの協調
 &br;
 &br;
 人との協調を考慮した自律移動機能を備えた人間搭乗型自律移動ロボットについて検討します。ロボットの自律移動機能の実現に加え,ハンドルやジョイスティックに代わる新しいヒューマンインタフェースの提案,及び効果的な目的地推定手法について研究しています.
 &br;
 &br;
 ++ 手綱型入力インタフェースの検討
 ++ 人の活動領域の観測に基づく目的地推定
 &br;
 &br;
 + 安全かつ安心な乗り心地を実現する知的電動車いすとのコミュニケーション
 &br;
 ++ Feedback of environment and traveling information using a sead-type vibrotactile interface
 ++ Path planning and motion control to improve ride quality
 ++ Quantitative evaluation based on biological information
 &br;&br;
 ロボット化された電動車いすの挙動や、電動車いすが観測している世界を搭乗者に提示することにより、身体感覚が拡張したような乗り心地を目指します。
 &ref(ResearchList/p_2013.png,right,around, input devices and a seat-type vibrotactile interface);
 &ref(ResearchList/PMT View.jpg,7%,right,around, Personal Mobility Tool as a smart electric wheelchair);
 
 ** [Cog] Assistive robotics for cognitive infocommunication [#ma020868]
 
 Human perception and cognition enhancement using robotic systems is also one of our research areas.
 Sensing and recognition techniques are applied to bridge sensory information between a human and a robotics system.
 &br;
 &br;
 ++シート型振動触覚インタフェースを用いた環境情報及びナビゲーション情報の提示
 ++乗り心地を考慮した経路計画手法の検討及び生体情報に基づく乗り心地の評価
 &br;&br;
 &ref(p_2013.png,right,around,入力インタフェース、シート型振動触覚インタフェース);
 &ref(pmt_2013.png,right,around,知的電動車いす:PersonalMobilityTool);
 ** [Cog] 人の知覚能力を拡張するヒューマンインタフェース [#ma020868]
 感覚器の代替、あるいはロボットとの感覚の共有を実現するようなヒューマンインタフェースについて研究しています。たとえば、視覚から得る周辺環境(例えば壁までの距離)を聴覚刺激を用いて提示したり、仮想的な物体の触感を提示したりするための仕組み、刺激の設計方法などについて検討しています。
 + Mental map building based on auditory information
 + Tactile sensation using vibrotactile stimuli
 + Remote monitoring of industrial robots based on cognitive info communication
 &br;
 &br;
 + 相対音程差を用いた壁面形状の提示とそれに基づくメンタルマップ形成支援
 + 振動触覚刺激を用いた仮想物体の触感の提示
 + 産業用ロボットの遠隔モニタリングにおける振動触覚刺激の応用
 &br;
 &br;
 &ref(sound_2013.png,center,相対音程差による壁面形状の提示);
 &ref(glove_2013.png,center,振動触覚グローブ);
 &ref(vri_2013.png,center,産業用ロボットの遠隔モニタリングにおける振動触覚刺激の応用);
 * 研究室の設備 [#sc160a81]
 (2013年6月現在)
 + センサ
 -- 屋内用レーザレンジファインダ 3台
 -- 屋外用レーザレンジファインダ 5台
 -- IEEE1394カラーカメラ 2台
 -- ステレオカメラ 1台
 -- 深度センサ 2台
 -- 超音波式3次元位置計測装置 1式(5.5 m × 8 m × 2.7 m)
 -- モーションセンサ(3軸加速度,3軸ジャイロ,3軸地磁気センサ搭載) 2台
 -- 全身計測用モーションセンサ 一式
 -- 温度,湿度,3軸加速度センサを搭載した小型無線ネットワークデバイス 15個
 + ロボット
 -- レゴマインドストーム NXT 1台
 -- ヒューマノイド型ロボット nuvo 1台
 -- 人間搭乗可能な移動ロボット 2台
 &ref(ResearchList/sound_2013.png,center, Mental map building based on auditory information);
 &ref(ResearchList/globe2016.jpg,center, Vibrotactile glove);
 &ref(ResearchList/vri_2013.png,center, Remote monitoring of industrial robots based on cognitive info communication);
 * Equipment [#sc160a81]
 (June, 2016)
 #ref(ResearchList/zps_2701.png,right,around, Ultrasonic 3D positioning system);
 + Sensors
 -- 2D Laser Range Finder 12台
 -- 3D Laser Range Finder 1台
 //-- IEEE1394カラーカメラ 2台
 //-- ステレオカメラ 1台
 -- RGB-D Camera 6台
 -- 超音波式3次元位置計測装置 1式(5.5 m × 8 m × 2.7 m)
 -- モーションセンサ(3軸加速度,3軸ジャイロ,3軸地磁気センサ搭載) 4台
 -- 温度,湿度,3軸加速度センサを搭載した小型無線ネットワークデバイス 15個
 -- 全身モーションキャプチャ 1式
 -- 頭部電位センサ 1台
 -- ワイヤレス心電計 1台
 -- 唾液アミラーゼモニタ 1台
 -- ワイヤレス筋電計 1台
 -- 脳血流量計 1台
 -- 6軸力覚センサ 2台
 -- ネットワークカメラ 1台
 -- MEMSマイクロフォン 8台
 + Robots
 #ref(ResearchList/nachi.jpg,right,around,産業用ロボット);
 -- 産業用ロボット 1台
 -- 人間搭乗可能な移動ロボット 2台
 -- 電動車いす 1台
 -- 小型知的移動ロボット 1台
 + 装置
 -- レゴマインドストーム NXT 1台
 -- ヒューマノイド型ロボット nuvo 1台
 -- クアッドリコプター AR.Drone 2.0 1台
 + Devices
 #ref(ResearchList/phantom.jpg,right,around,3次元力覚入出力デバイス);
 -- 振動触覚グローブ
 -- シート型振動触覚インタフェース
 -- コミュニケーションロボット
 --- パンダぬいぐるみロボット
 --- ナバズタグ 改
 -- プロジェクタ
 -- スピーカ
 -- プロジェクタ 100インチ強
 -- スピーカ BOSE L1™ Compact system 2台
 -- 没入型ヘッドマウントディスプレイ 3台
 -- 透過型ヘッドマウントディスプレイ 1台
 -- 小型透過型ディスプレイ 1台
 -- 3次元力覚入出力デバイス 1台
 -- 骨伝導ヘッドホン 3台
 //
 + その他
 -- パソコン 1人1台
 -- 実験用PC/ロボット制御用ノートパソコン  多数 
 + Others
 -- パソコン 1人1台以上
 -- ノートPC 1人1台
 -- 実験用PC/ロボット制御用ノートパソコン 多数
 -- タブレット端末 6台 
 -- 3D対応ディスプレイ 1台
 -- カラーレーザプリンタ 2台
 -- カラーレーザプリンタ 1台
 -- 複合型カラープリンタ(コピー,スキャナ,プリンタ) 1台
 -- デジタル一眼レフカメラ 1台
 -- デジタルビデオカメラ 3台
 -- 工作環境も充実中
 -- IHクッキングヒータ
 -- ソファ(3人掛け 1脚、1人掛け 1脚)
 -- その他生活環境も充実
 
 *過去の研究テーマ & 白門祭での成果発表 [#s8ff4b67]
 - 2009年度デモンストレーション &ref(Demonstration2009.pdf);
 - 2010年度デモンストレーション &ref(Demonstration2010.pdf);
 - 2011年度デモンストレーション &ref(Demonstration2011.pdf);
 - 2012年度デモンストレーション &ref(Demonstration2012.pdf);
 
 - 2009年度のテーマは[[こちら>PreviousIntroduction]] 
 - 2010年度のテーマは[[こちら>PreviousIntroduction]]
 - 2011年度のテーマは[[こちら>PreviousIntroduction]]
 - 2012年度のテーマは[[こちら>ResearchList_2012]]
 

トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS