.
Japanese Only Japanese

研究内容

更新日: 2015年01月01日

home ホーム research 研究内容 publication 研究業績 event イベント member メンバー robot ロボット alumni 卒業生 lecture 講義 admission 配属希望 access アクセス link リンク

研究の概要

ロボットやマルチメディア情報処理に関する研究を行っています.

研究を進めるための基礎となるテクニックは,

などです.

Robots

 研究内容の概要につきましては,

などを御覧下さい.

 使用しているロボットやセンサなどの実験装置につきましては,

を御覧下さい.

 これまでの研究テーマは以下の通りです.現在は中断している研究テーマも,そのテーマを希望する学生が配属されましたら,再開するかどうか相談します.

LabImage

 興味をお持ちの方,更に詳しい内容を知りたい方はメール等でご連絡下さい.事前に予約をして日程調整を行えば,確実に研究室を見学して頂けます.アポイントなしでの見学も歓迎致しますが,出張・講義・ゼミなどの場合には対応することができませんので予めご了承下さい.



移動ロボットの遠隔操作(2012年4月~現在)

内容

 移動ロボットを遠隔操作する際,ロボットに搭載された複数のカメラの情報を効率的にオペレータに提示することが重要です.
 そこで,ロボットに横向きに取り付けた4台のカメラの映像に対して画像処理を施し,あたかもロボットの真上に取り付けたカメラから見たような俯瞰画像を生成し,オペレータに提示する技術を開発しました.
Teleope1 Teleope2
前後左右方向にカメラを取り付けた全方向移動ロボット 左図:4台のカメラの映像.右図:生成した俯瞰画像
 本手法は,NEDOの災害対策ロボットプロジェクトで東芝と共同開発したロボットに搭載し,福島原発などでの作業に活用することを目指しています.
Teleope3 Teleope4
NEDOプロジェクトで開発した水陸両用移動ロボット 移動ロボットの遠隔操作画面(東芝と共同開発)
Teleope5 Teleope6 Teleope7 Teleope8
水陸両用移動ロボット 遠隔操作画面 4台のカメラの映像 生成した俯瞰画像

データ



オーロラの3次元計測(2011年4月~現在)

内容

 米国アラスカに天空に向けて設置した2台の魚眼カメラで撮影した画像を用いて,オーロラの3次元計測を行います.
 2枚の画像からオーロラの形状を知ることができました.
Aurora1 Aurora2 Aurora3
オーロラ画像1 オーロラ画像2 3次元計測・可視化結果

データ



歩行者存在環境における移動ロボットのナビゲーション(2011年10月~現在)

内容

 歩行者が存在する環境において,歩行者や障害物にぶつからないように移動するためのナビゲーション手法を提案しました.
 まず,歩行者の行動を再現するモデルを構築し,歩行者の行動を忠実にシミュレーションできる手法を構築しました.
Crowd1
歩行者の行動のモデル化:狭い場所で道を譲る行動の発現
 そして,移動ロボットが歩行者の意図を推定する方法,歩行者についていくことにより目的地点までスムーズに移動する方法などを構築し,多数の歩行者が存在する環境においてスムーズにロボットを動作させることができました.
Crowd2
移動ロボットのナビゲーション
左図:ロボットが移動している様子.右図:ロボット周囲の拡大図

データ



水中センシング(2001年4月~現在)

内容

 水中にある物体は光の屈折により像が歪みむため(左図),正しい位置や大きさを計測することができません.そこで,光の屈折を考慮した物体センシング手法を提案しました.
Water1 Water2 Water3
水面の画像 補正した画像 3次元計測結果
 応用先として,災害対策ロボット用のセンシング技術としての活用を目指しています.
Water-robot1 Water-robot1
水陸両用ロボット(NEDOプロジェクトで東芝と研究開発) ロボットによる水中センシングの様子

データ



画像・音響信号処理を用いた打音検査(2002年4月~2004年3月,2013年4月~現在)

内容

 物体の内部構造などは,目で見ても分かりません.この場合には,叩いた音で判定する打音検査が有効です.そこで,画像から叩いた場所,音響信号から内部構造をそれぞれ解析する方法を提案しました.
 上図においては,黒色の四角形で囲まれた部分が他の場所より分厚くなっています.実験の結果,分厚い場所を正しく判定することができました.
 また,下図においては実際の様子(色:厚みを表す,形:外部形状を現す)と打音検査結果が一致することも確認できます.
Knock1 Knock2
打音検査の結果 (赤色:分厚い部分,黄色:薄い部分)
Hit1 Hit2
実際の様子 打音検査結果

データ



高齢者リハビリ(2011年10月~現在)

内容

 ロボット技術を用いた高齢者のリハビリに関する研究開発を行っています.
 歩行動作,起立動作(立ち上がる動作),投擲動作(物を投げる動作)などに関して,モーションキャプチャ(動きをリアルタイムに計測する装置),床反力計(両足が床面に加える力を計測する装置),筋電系(筋肉の活動を計測する装置)などを用いて動作の計測を行い,その結果を解析することで,リハビリに活用することを目的としています.
Rehabilitation1 Rehabilitation2 Rehabilitation3
人間動作の計測 人間動作の計測装置 人間動作の解析シミュレーション
Rehabilitation4
ロボット技術を用いた膝関節模型による膝負荷計測

データ



運動主体感と身体所有感(2012年04月~現在)

内容

 使い易いロボットのヒューマンインタフェースを開発する上で,操作者である人間について知り,脳の生理的状態や構造を考慮することは重要です.
 本研究では「運動主体感(Sense of Agency)」(行為を行っているのはまさに自分自身であるという感覚)や「身体(自己)所有感(Sense of Ownership)」(この身体はまさに自分のものであるという感覚)に注目して研究を進めています.
 身体所有感が外界の対象に拡張する現象の顕著な例の1つとして,ラバーハンド錯覚(RHI: Rubber hand Illusion)と呼ばれるものがあります.左上図に示すように,自分の視界から隠された本物の手と,目の前に置かれたラバー(フェイク)ハンドに絵筆等で一定時間(約2~20分程度)時間的・空間的に同期した触刺激を与え続けると,ラバーハンド上に触刺激を知覚するようになる錯覚現象です.この錯覚現象を調べることで,脳の仕組みの解明を目指しています.
 また,レース中のカーレーサーの生理指標を計測する研究にも取り組んでいます(右上図,下図).
SoASoO1 SoASoO3
ラバーハンド錯覚 カーレーサーの計測
SoASoO2
カーレーサーの計測
(http://www.gsport.co.jp/img/pdf/press_releases20121120.pdfより抜粋)

データ



全方位カメラ搭載移動ロボットによる環境認識(2004年4月~現在)

内容

 全方位カメラは,周囲360度すべての方向を同時に見ることができる広視野カメラです(下図参照).
OmniVision1new OmniVision2new
全方位カメラ 全方位画像
 全方位カメラを移動ロボットに搭載して,周囲環境のセンシングを行う研究を行っています.
 環境中の物体の3次元位置を計測したりテクスチャを貼り付けたりして,3次元地図を生成します.
OmniVision1-1 OmniVision1-2 OmniVision1-3
単眼初号機ロボット 単眼2号機ロボット ステレオ初号機ロボット
OmniVision1-4
ミミズ初号機ロボット(中央大中村太郎准教授と共同研究)
OmniVision3-1 OmniVision3-2
屋外環境計測結果 テクスチャマッピング結果

データ



距離センサ搭載移動ロボットによる環境認識(2002年4月~現在)

内容

 移動ロボットが作業を行うためには,環境の地図が必要です.そこで,ロボットが周囲の環境地図を自分自身で作成する方法を提案しました.
 図に示す開発したロボットは,レーザを用いて障害物までの距離を正確に計測できます.どんどんロボットが移動しながら環境地図を更新していきますが,残念ながらロボットの移動精度はあまり良くありません.従って,何も考えずに地図を作成すると左図のように歪んでしまいますが,計測データから移動誤差を推定することにより右図のような正確な地図を作成することができます.
Slam1 Slam1-2
レーザ搭載移動ロボット(初号機) レーザ搭載移動ロボット(2号機)
Slam2 Slam3
修正前の地図 修正後の地図

データ



悪天候時の視野鮮明化(2001年4月~現在)

内容

 雨や雪の日には,車のフロントガラスや展望台のガラスに水滴が付いて,視野が妨害されることがあります.
 そこで,複数視点からの情報を融合することや,首振りカメラの方向を変化させて複数画像を取得することにより,鮮明な画像を再生する手法を提案しました.
 左と中央の図のように水滴がたくさん付いた複数画像に統計的処理をベースにした画像処理を施すことにより,左図の綺麗な画像に再生することができました.
Waterdrop1 Waterdrop2 Waterdrop3
水滴付き画像1 水滴付き画像2 水滴除去画像

データ



技能教育eラーニング(2013年10月~現在)

内容

 これまでの技能教育は,指導者と学習者が場所と時間を共有し1対1で行われるために効率が悪いという問題がありました.一方,効率化の手段としてeラーニングシステムがありますが,これを用いて技能教育を行っても,身体動作やコツを提示することが難しいために,学習者は満足感を得られず,顧客ロイヤルティの低下を招いています.また,指導者も,学習者の上達具合や満足感などを把握しにくいために,教育スキルの獲得が困難です.
 本研究では,技能において重要な身体動作の3次元計測を行うとともに,それを多視点から表示できる技術開発を行い,その計測結果から技能(コツ)を抽出する手法を構築します.これを用いることで,学習者の上達具合を定量的に評価することを可能とします.また,学習者の生理状態の計測や主観報告から,満足感を定量的に評価する手法を開発します.身体の3次元動作,学習者の上達具合や満足感を,指導者および学習者に実時間で提示することが可能なeラーニングシステムを構築することにより,指導者と学習者間で共創的に経験価値を高めることを可能にします.
 これにより,学習者の満足感の向上,指導者の教育スキルの効率的獲得を可能にするとともに,技能教育サービスの効率化,顧客ロイヤルティの向上を図ります.
Skill1 Skill2 Skill3
動作の計測 筋肉の動き 可視化

データ



2足歩行ロボットの行動計画(2008年4月~2012年3月)

内容

 ステレオカメラを搭載した2足歩行ロボットが,障害物を回避しながらゴールに到着する行動を計画し,計画した内容に従って移動します.
 段差やゲートなどがある複雑な環境においても,ゴールに到着できることを確認しました.
Biped1 Biped2 Biped3
初号機ロボット 2号機ロボット 動作の様子

データ



福祉用ビジョンシステム(2004年4月~2012年3月)

内容

 視覚障害者の方の目の機能のかわりをするウェアラブルビジョンシステムを研究しています.
 街中では,例えば音によって信号の色を教えたり,点字によって何が書いてあるかが提示されたりしています.しかし,コンピュータやディスプレイ技術の発達により,銀行のATMに代表されるようにタッチパネルが多く使用されるようになってきました.タッチパネルは目で確認しながらボタンを押す必要があります.そこで,タッチパネルを使用する際に人間を誘導するためのステレオ型の視覚支援システムの開発を行っています.
Wearable1 Wearable2
ウェアラブルビジョンシステム タッチパネル上での誘導

データ



既存文書の電子化(2001年4月~2012年3月)

内容

 分厚い本をコピーしようとしたときに,綴じ目の部分が黒く歪んでしまったことはありませんか?
 近年,様々な書籍のデジタル化が急速に進んでいますが,綴じ目が綺麗に撮影できないという問題は,文字の自動認識などの結果が悪くなり,非常に手間がかかります.
 そこで,ステレオカメラにより書籍表面の映像を取得し,3次元形状を測定することにより綺麗な紙面を再生する手法を提案しました.
 上図のように湾曲した書籍においても,左下図のように正確に紙面形状を計測し,その結果を利用して歪んだ画像を補正したことにより文字認識率を向上させることができました.
Book1 Document2
分厚い書籍 歪んだ画像(補正前)
Document1 Document3
形状計測結果 補正画像

データ



複数カメラを用いた人物追跡(2006年4月~2009年3月)

内容

 セキュリティニーズの高まりにより,カメラを用いて監視を行う機会が増加してきました.しかし監視作業に用いることができる人的資源には限りがあるため,この作業を自動化することが必要不可欠です.
 そこで本研究では,カメラで撮影した画像から人間の顔を自動的に検出し,その人物を追跡する手法を提案しています.複数カメラを用いることにより,追跡している人物が後ろを向いた(顔が見えない)ときでも連続して追跡することが可能となりました.
Face1 Face2
研究室メンバー全員の顔を検出 後ろを向いた人物の追跡

データ



チップマウンタ吸着動作の最適化(2005年4月~2009年3月)

内容

 プリント配線板上に電子部品を実装するチップマウンタの動きを賢くする研究をしています.
 チップマウンタのモータの性能がいくら良くても,部品をプリント配線板上に置く順番や,部品供給を行うパーツフィーダから部品を取る順番が良くないと,プリント配線板を作る時間は遅くなってしまいます.
 本研究では,複数パーツ同時吸着を優先したチップマウンタ吸着動作の最適化を行い,製造時間の短縮を図ることに成功しました.
Optimization1 Optimization2
プリント基板 吸着動作の最適化結果

データ



パターン背景を用いたクロマキー(2001年4月~2007年3月)

内容

 青や緑の背景などを使って被写体を撮影し,別の背景と組み合わせる技術をクロマキーと言います.しかしこの方法では,背景と同じ色の服は色が抜けてしまうという欠点があります.
 そこで,市松模様の背景の前で撮影することで,背景と同じ色の服を着ている場合にも対応する方法を提案しました.
 また,視差のついた左眼用画像と右眼用画像を作成することで立体的に見える画像を作成する方法を提案しました.
Chromakey1-1 Chromakey2-1 Chromakey3-1
Chromakey1-2 Chromakey2-2 Chromakey3-2
単一色背景 ストライプ状背景 市松模様背景

データ



移動ロボットのナビゲーション(2001年4月~2007年3月)

内容

 移動ロボットが作業をする上で,自分自身の位置を知ることは重要です.そこで環境中に設置されたランドマークを観測することで,自己位置同定を正確に行いながら目的地に向かう方法を提案しました.
 そこでまず,人間と同じように首を振ったり両目を動かしたりすることができる移動ロボットを開発しました(左図).また右図に,迷わずに目的地に到達するためにはどのタイミングでどのランドマークを見れば良いかを計画した結果(赤色の四角形:観測地点,青色の扇形:ロボットの視野方向)を示します.

Navigation1 Navigation2
ステレオカメラ付移動ロボット ナビゲーション計画結果

データ



楽器の同定・和音の同定(2003年4月~2004年3月)

内容

 音楽にそれほど詳しくない人でも,楽器による音の違いやドレミの違いが分かると思います.
  FFT(高速フーリエ変換)などを利用したりして取得した音をコンピュータで自動的に解析し,楽器の種類を同定したり,どんな和音が鳴っているのかを判別する研究を行っています.
Music1 Music2
管楽器の例 FFT結果

データ



ステレオカメラによる物体計測(2001年4月~2002年3月)

内容

 人間と同じように2つの目をロボットに持たせることにより,見ている物体の位置・姿勢を求めることができます.そこで,カメラの方向を変化させ,移動している物体に追従しつつ位置・姿勢を計測するシステムを開発しました.
 ベルトコンベア上を流れる物体を流れる物体をステレオカメラで計測し,マニピュレーター(腕型ロボット)を使って掴めることを確認しました.
Stereo01 Stereo02 Stereo03
Stereo04 Stereo05 Stereo06
移動物体計測結果

データ



不整地走破能力を有する全方向移動ロボット(1998年4月~2001年3月)

内容

 これまでに開発された全方向移動ロボット(どの方向にも動けるロボット)は,ちょっとした段差も越えられないといった欠点がありました.そこで,段差を乗り越えることが可能な不整地走破能力を有する全方向移動ロボットを開発しました.
 左の図は初期型ロボットで,12個も車輪がついていて,パワーで段差を登っていくタイプです.
 中央の図は2号機ロボットで,車輪が9個に減ったことに加え,ロボット本体が段差にあわせて柔軟に変化して,滑らかに段差を登れます.
 右の図は3号機ロボットで,車輪が7個になり,本体の柔軟性も向上しています.更にコンピュータやバッテリも搭載し,完全自律型ロボットとなっています.
Zen1 Zen2k Zen3
初号機ロボット 2号機ロボット 3号機ロボット

データ



移動ロボットによる協調搬送計画(1998年4月~2001年3月)

内容

 移動ロボットが大きなものを運ぶときには,壁にぶつかったりしないようにしなければなりません.そこで,大きな物体の姿勢を柔軟に変化させながら,ロボットが物体を運ぶための動作計画手法を構築しました.
 ここでは,物体を安全に運べること(=障害物からの距離をとる),作業効率が良いこと(=ゴールに素早く到着する),計算コストが小さいこと(コンピュータでの計算時間が短い)などを考慮しました.
 左のシミュレーション結果は,青いL型の物体を黒い円形のロボットが運んでいる様子を表したものです.
 また,右図のロボット(理化学研究所製全方向移動ロボットZEN)で実作業を行い,その有効性を検証しました.
Path Zen
協調物体搬送計画結果 全方向移動ロボット

データ



移動ロボットによる協調物体操作計画(1998年4月~2001年3月)

内容

 移動ロボットでものを操作するにはどうしたら良いか?について考えています.
 そこで,安定性を保ちつつ物体の姿勢を変化させる方法をコンピュータによって計算しました.
 協調物体走査計画結果は,移動ロボットが棒を使って,大きなものの姿勢をかえている様子です.
Manipulation1 Manipulation2 Manipulation3
Manipulation4 Manipulation5 Manipulation6
協調物体操作計画結果

データ



道具を用いた移動ロボットによる作業(1996年4月~1998年3月)

内容

 人間も道具を使って作業するように,移動ロボットも道具を使って作業した方が良いのではないか?という思いから研究を始めました.
 左図が開発した移動ロボットです.自分で考え,自分で行動できるように,頭脳(コンピュータ)・電源(バッテリ)を搭載しています.各ロボットは,有線で他のロボットと通信しながらお互いの情報を共有することができます.また,道具を持つためのハンド(簡単な把持機構)を持っており,道具を取り扱うことが可能です.
 中央の図は,移動ロボットが棒を道具として用いて,整頓作業(たくさんあるものの位置・姿勢をそろえる作業)を行っている様子です.
 右図は,移動ロボットが紐を道具として用いて,仕分け作業(赤い箱と青い箱を分けて運ぶ作業)を行っている様子です.
FujiTool FujiStick FujiRope
移動ロボットの概観 棒を用いた整頓作業の様子 紐を用いた仕分け作業の様子

データ



移動ロボットによる協調搬送(1995年4月~1996年3月)

内容

 人が大きいものや重いものを運ぶときには,御神輿かつぎのように,大勢で協力します.それは,移動ロボットのときも一緒だと思います.
 というわけで,ロボットが障害物を避けつつ,協力して重いものを運ぶ研究をしました.
 左図は,移動ロボットです.
 右図は,4台の移動ロボットが大きなものを運んでいる様子です.ロボットや障害物にはLEDがつけてあって(赤く光っているところ),天井にあるカメラで見て位置・姿勢が分かるようになっています.
FujiRobo1 FujiRobo2
移動ロボットの概観 協調搬送の様子

データ




home ホーム research 研究内容 publication 研究業績 event イベント member メンバー robot ロボット alumni 卒業生 lecture 講義 admission 配属希望 access アクセス link リンク
Copyright © 2011-2015 Yamashita Laboratory All Rights Reserved.