.
Japanese Only Japanese

2014年度 テーマ案

更新日: 2014年02月02日

home ホーム research 研究内容 publication 研究業績 event イベント member メンバー robot ロボット alumni 卒業生 lecture 講義 admission 配属希望 access アクセス link リンク

研究テーマ一覧

 精密工学科のホームページに掲載したテーマ案以外にも,以下のテーマがあります.どのテーマに興味があるか希望を出してもらい,指導教員と相談して詳細なテーマ内容を決定します.
 各テーマ案の詳細については,研究室の研究内容のページをあわせてご覧下さい.

全天撮影ロボットを用いたオーロラ3次元計測

狙い

 本研究では,複数地点に設置した全天撮影ロボットを用いて,オーロラの全天3次元形状・位置を高精度に計測する手法を確立することを目指します.
 オーロラに関する物理量は古い統計が多く,最新の計測技術を使った,3次元形状・位置(高度)の系統的な時間空間変化の測定と,それに基づく分析が望まれています.これまでのオーロラステレオ観測,カメラ間の位置姿勢関係の同定精度が十分でなかったため,超高精度な3次元計測結果を得ることが困難でした.加えて,全天の広視野映像撮影の場合には,画像の歪みの影響で正確な計測が更に困難となります.
 そこで本研究では,上記の課題を解決し,超広視野・超高精度の3次元オーロラステレオ観測を実現することを目的とします.

内容

 最新のロボット・画像処理・コンピュータビジョン技術を用いることで,以下の内容にチャレンジします.
  1. 極寒地であるアラスカでオーロラ映像の自動連続撮影が可能な高信頼全天撮影ロボットの開発
  2. 視野が広い半面で歪みが大きい全天撮影カメラの内部パラメータ(レンズの歪み特性や焦点距離など)および外部パラメータ(カメラの設置位置と設置姿勢)の高精度同定手法の構築
  3. 3次元立体視可能なオーロラのステレオ映像の自動生成手法の構築
  4. 3 台以上のカメラを利用したオーロラ高精度3次元ステレオ計測手法の構築
 指導には,教員と大学院生があたります.本研究は理学部教員との共同研究です.工学的な成果に加えて理学的な成果も求めたい方,研究成果を学会等でアピールしたい方,実際にオーロラを観測をしたい方にお勧めのテーマです.

場所

 本郷工学部14号館826号室(データ解析)
 科学技術館(オーロラ3D映像上映)
 米国アラスカ州(オーロラ撮影ロボット)

計画

 4~5月:問題設定,関連研究の調査・理解,カメラの結像モデル・3次元計測の理解
 6~7月:撮影ロボットの開発,画像処理アルゴリズムの実装と基礎実験
 9月~11月:ステレオ計測手法の設計,画像処理プログラムの再実装,改良
 12月~2月:実験および評価,論文作成,学会発表

データ

Aurora1 Aurora2
オーロラ画像1 オーロラ画像2

カメラ・レーザセンサ搭載移動ロボットによる3次元環境センシング

狙い

 倒壊した建物や炭鉱など,直接人が足を踏み入れて状況を確認することが難しい危険な場所では,最初に移動ロボットを用いて状況確認を行うことが重要です.
 本研究では,カメラやレーザセンサを搭載した移動ロボットが移動しながら,ロボット周囲の3次元環境センシングを行う手法を構築することを目的とします.また,取得画像や3次元計測結果をヒューマンオペレータに提示することにより,直感的にロボットの遠隔操作ができるシステムの開発を行います.最終的には,開発したロボットシステムを用いて,実地フィールドで実機検証実験を行うことを目指します.

内容

 移動ロボット,カメラ,レーザセンサを組み合わせて,周囲環境をセンシング可能なロボットシステムを構築します.ロボットが移動しながらセンシングを行うと,複数地点でのセンシングデータが得られます.そこで,得られたデータをつなぎ合わせて,広範囲の3次元地図を自動生成する手法を構築します.また,得られた画像データをより見やすくヒューマンオペレータに提示するための画像処理技術を開発します.これまでの研究成果を理解し,最新のロボット・画像処理・3次元センシング技術を応用し,更に内容を発展させることを目指します.
 指導には,教員と大学院生があたります.本研究は民間企業との共同研究に関する内容を含みます.ロボットの知能化に興味がある方,研究成果を学会等でアピールしたい方,研究成果を直接社会に還元したい方にお勧めのテーマです.

場所(予定)

 本郷工学部14号館826号室(手法の構築,基礎実験)
 倒壊家屋実地フィールド(実地実験)

計画

 4~5月:問題設定,関連研究の調査・理解,センシング手法の理解
 6~7月:手法の設計,ロボットシステムの実装と基礎実験
 9月~11月:プログラムの再実装,改良
 12月~2月:実験および評価,論文作成,学会発表

データ

Slam1 Slam1-2
レーザ搭載移動ロボット(初号機) レーザ搭載移動ロボット(2号機)
Slam2 Slam3
修正前の地図 修正後の地図

ロボットのための超広視野・超高速・超高精度センシング

狙い

 カメラの周囲360度に視野を有する全方位カメラやカメラ前方に広画角の視野を有する魚眼ガメラなどの広視野カメラは,一度に広範囲の映像情報を獲得できることから,ロボットのナビゲーションなどに幅広く用いられています.
 本研究では,広視野カメラを用いて,超広視野・超高速・超高精度に周囲環境の3次元計測を行う手法を開発することを目的とします.通常の環境に加え,最終的には,水中や配管内など人間が作業を行うことが困難で映像にノイズがのりやすい極限環境において,ロボットに広視野カメラを搭載して計測を行うことを目指します.

内容

 特殊なレンズやミラーを組み合わせたカメラを用いることで,広範囲の画像を撮影します.ただし広視野カメラは画像の歪みが大きいため,一般的には3次元計測には向いていません.そこで本研究では,カメラやレンズの特性を高精度に求め,画像の歪み具合を正確に見積もる手法を構築し,その結果を用いて補正を行うことで正確な計測を行うことを目的とします.また,映像中に写り込んだノイズを自動検出し,画像処理の技術を用いて除去する手法を構築します.
 指導には,教員と大学院生があたります.カメラやレンズに興味がある方,3次元計測に興味がある方,研究成果を学会等でアピールしたい方にお勧めのテーマです.

場所(予定)

 本郷工学部14号館826号室(手法の構築,基礎実験)
 実地フィールド(実地実験)

計画

 4~5月:問題設定,関連研究の調査・理解,カメラの結像モデル・3次元計測の理解
 6~7月:画像補正および画像処理アルゴリズムの実装と基礎実験
 9月~11月:3次元計測手法の設計,画像処理プログラムの再実装,改良
 12月~2月:実験および評価,論文作成,学会発表

データ

OmniVision1-1 OmniVision1-2 OmniVision1-3
単眼初号機ロボット 単眼2号機ロボット ステレオ初号機ロボット
OmniVision1-4
ミミズ初号機ロボット(中央大中村太郎准教授と共同研究)
OmniVision3-1 OmniVision3-2
屋外環境計測結果 テクスチャマッピング結果

コンピュータビジョンを用いたウェアラブル福祉ヒューマンインタフェース

狙い

 従来は機械式のボタンが付いていた携帯電話や携帯情報端末,駅の券売機や銀行のATMなどは,急速にタッチパネルに置き換わっています.しかし,タッチパネルは目から情報を得ることが前提となっている機器であるため,視覚障がい者の方はタッチパネルに提示されている情報を知ることができません.
 そこで本研究では,人間の目の機能をコンピュータで実現するコンピュータビジョン技術を用いて,視覚障がい者の方がタッチパネルを操作するための支援ヒューマンインタフェースを開発することを目的とします.もしくは,色覚障がい者に色情報を提示するためのヒューマンインタフェースを開発することを目的とします.

内容

 カメラ,ヘッドホン,マイクと小型PCを組み合わせて,ウェアラブルヒューマンインタフェースシステムを構築します.マイクで取得した音声から人間の指示内容を認識する手法,タッチパネル上に描かれているボタンを認識する手法,ヘッドホンから人間に指示を出す手法,タッチパネルを操作する指先やタッチパネルのボタンの3次元位置をカメラで計測する手法を開発します.これらの技術を組み合わせて,タッチパネル上の目的のボタンに指を誘導するシステムの開発を目指します.
 指導には,教員と大学院生があたります.福祉のための技術開発に興味がある方,視覚情報処理やヒューマンインタフェースに興味がある方,研究成果を学会等でアピールしたい方,研究成果を直接社会に還元したい方にお勧めのテーマです.

場所(予定)

 本郷工学部14号館826号室(手法の構築,基礎実験,データ解析)
 屋内ATM設置場所(実地実験)

計画

 4~5月:問題設定,関連研究の調査・理解,コンピュータビジョン手法の理解
 6~7月:ヒューマンインタフェースの設計,コンピュータビジョンアルゴリズムの実装と基礎実験
 9月~11月:ヒューマンインタフェースの再実装,改良
 12月~2月:実験および評価,論文作成,学会発表

データ

Wearable1 Wearable2
ウェアラブルビジョンシステム タッチパネル上での誘導

レース中のカーレーサーのストレス計測

狙い

 車のスピードを競うカーレースは,ドライバーにとっては常に危険な状態にある過酷なスポーツであるため,運転中のドライバーの健康状態や安全の管理が非常に重要です.スペースの問題で運転席や車に生体信号を計測するセンサを取り付けることが難しいことに加え,センサから得られた信号からドライバーの健康状態やストレスを推定すること自体も簡単ではありません.本研究では,運転中のドライバーに小型の生体信号計測センサを取り付け,ドライバーのモニタリングを行うシステムの開発を目指します.

内容

 脳や筋肉が活動すると電流が流れます.そこで,ドライバーの身体にセンサを取り付け,脳や筋肉の活動を電気信号として取り出します.コンピュータを用いて電気信号を解析することで筋肉の活動レベルを計測し,更にはドライバーの健康状態やストレスを推定するシステムを開発します.ノイズが含まれる信号から正確なデータを得る手法,複数のセンサの情報を統合して信頼性の高い情報を取得する手法などを構築します.
 指導には,教員と大学院生があたります.本研究は民間企業との共同研究に関する内容を含みます.レースに興味がある方,生体信号処理に興味がある方,研究成果を学会等でアピールしたい方,研究成果を直接社会に還元したい方にお勧めのテーマです.

場所(予定)

 本郷工学部14号館826号室(手法の構築,基礎実験,データ解析)
 鈴鹿サーキット・富士スピードウェイ・ツインリンクもてぎ(レース中のデータ取得)

計画

 4~5月:問題設定,関連研究の調査・理解,生体信号処理手法の理解
 6~7月:生体センサの信号処理手法の開発,基礎実験
 9月~11月:ストレス計測手法の構築,ストレス計測実験
 12月~2月:実験および評価,論文作成,学会発表

データ

SoASoO2
カーレーサーの計測
(http://www.gsport.co.jp/img/pdf/press_releases20121120.pdfより抜粋)

技能教育eラーニング

狙い

 これまでの技能教育は,指導者と学習者が場所と時間を共有し1対1で行われるために効率が悪いという問題がありました.一方,効率化の手段としてeラーニングシステムがありますが,これを用いて技能教育を行っても,身体動作やコツを提示することが難しいために,学習者は満足感を得られず,顧客ロイヤルティの低下を招いています.また,指導者も,学習者の上達具合や満足感などを把握しにくいために,教育スキルの獲得が困難です.
 本研究では,技能において重要な身体動作の3次元計測を行うとともに,それを多視点から表示できる技術開発を行い,その計測結果から技能(コツ)を抽出する手法を構築します.これを用いることで,学習者の上達具合を定量的に評価することを可能とします.また,学習者の生理状態の計測や主観報告から,満足感を定量的に評価する手法を開発します.身体の3次元動作,学習者の上達具合や満足感を,指導者および学習者に実時間で提示することが可能なeラーニングシステムを構築することにより,指導者と学習者間で共創的に経験価値を高めることを可能にします.
 これにより,学習者の満足感の向上,指導者の教育スキルの効率的獲得を可能にするとともに,技能教育サービスの効率化,顧客ロイヤルティの向上を図ります.

内容

 以下の内容に取り組みます.
  1. 3次元モーションキャプチャと3次元CG再現:複数台の光学的センサ(カメラなど)を環境に設置し,複数視点からの映像情報を融合することで,動作中の人間の3次元的な動きを計測するシステムを構築します.
  2. ハイスピード撮影解析:技能のキモとなる微妙な動きは通常のカメラでは計測・記録不可能であるため,高速カメラを用いて正確に撮影し,動画像処理により解析する手法を構築します.
  3. バイオメカニクスに基づく分析:1.や2.で計測した肢体の位置を単にそのまま保存してDB化するのではなく,他人のデータと比較できるよう,腕の長さや関節間の協調度合いを正規化して4次元データとして保存し,DB化する手法を構築します.
  4. 任意視点,3次元表示:1.~3.のデータを用いて任意視点映像,3次元表示を行う手法を構築します.また,種類や性能の異なったセンサで取得したデータ同士をそれぞれ比較できる手法を構築します.更に,2つの動きのデータの違いを自動検出し,分かり易く表示する「見える化」法を構築します.
  5. Web表示法:ユーザの簡単なパソコン操作で視点を変化させることができる任意視点映像提示インターフェイスを構築します.

場所(予定)

 本郷工学部14号館1022号室(手法の構築,基礎実験,データ解析)
 実地フィールド(技能データ取得)

計画

 4~5月:問題設定,関連研究の調査・理解,技能解析手法の理解
 6~7月:技能計測のためのセンサの信号処理手法の開発,基礎実験
 9月~11月:技能計測手法の構築,技能計測実験
 12月~2月:実験および評価,論文作成,学会発表

データ

Skill1 Skill2 Skill3
動作の計測 筋肉の動き 可視化

人共存環境下で動作するサービスロボットのための人の行動モデリング

狙い

 人と共存する環境で,サービスロボットを適応的に動作させるには,人の行動を予測することが必要となります.そこで,その予測を行う際に必要となる,人の意図も含めた,行動のモデリングを行います.
 環境情報を入手・管理するとともに,人の動きを計測・予測しながら,人との衝突の可能性を実時間で評価する必要があります.そのための技術開発を行います.

内容

 他の人も含む環境内で,人がどのような意図を持ちながら,2次元平面内を移動するかをモデル化し,シミュレータを構築します.また様々な状況で人がどのように移動するかを,レーザレンジセンサ等を用いて計測しながら,その評価を行います.

場所(予定)

 本郷工学部14号館821号室もしくは1022号室

計画

 4~5月:関連研究調査
 6~7月:モデル化手法の設計
 9月~11月:システムの構築
 12月~2月:実験および評価,論文作成

データ

Crowd1
歩行者の行動のモデル化:狭い場所で道を譲る行動の発現
Crowd2
移動ロボットのナビゲーション
左図:ロボットが移動している様子.右図:ロボット周囲の拡大図

情動に基づく自律神経系の活動に注目した不満足の生理学的測定と評価

狙い

 サービス受容者の満足や不満足は,これまでアンケートなど,主観的な指標の評価しか行われてこなかった.一方,不満足は,情動的な機能に影響を及ぼすので,自律神経系の活動の変化として計測することができると考えられる.そこで,様々な生理指標を計測することで,不満足度を客観的に推測する手法を構築する.

内容

 仮想環境を用いた情報提示・操作などを被験者に行わせながら,そのサービスに対し,発汗,筋電,眼球運動,心拍などがどのように変化するかを計測,分析することによって,不満足度を客観的・定量的に推定する手法を,認知実験などを通して行います.

場所(予定)

 本郷工学部14号館821号室もしくは1022号室

計画

 4~5月:関連研究調査
 6~7月:生理状態計測システムの開発を用いた認知実験および解析
 9月~11月:不満度評価手法の開発
 12月~2月:評価,論文作成

ヒトの身体モデルに基づくリハビリ支援手法の開発

狙い

 高齢者は,身体的な衰えから,起立動作が困難になることが知られています.また,近年,膝関節症などの疾病も問題となっています.そこで,ヒトの下肢の筋骨格系のモデルを構築すると共に,それに基づくリハビリ支援手法を構築します.

内容

 医学部との共同研究により,ヒトの下肢の筋骨格系の精密なモデルを構築すると共に,コンピュータ上にシミュレータを構築します.身体的属性変化がどのような動作や負荷における問題を発生するかを分析しながら,それを予防,あるいはリハビリするために,いかなる手段が考えられるかを検討します.

場所(予定)

 本郷工学部14号館821号室もしくは1022号室

計画

 4~5月:関連研究調査
 6~7月:下肢の筋骨格系のモデル化手法の検討
 9月~11月:筋骨格モデルの構築
 12月~2月:実験および評価,論文作成

データ

Rehabilitation1 Rehabilitation2 Rehabilitation3
人間動作の計測 人間動作の計測装置 人間動作の解析シミュレーション

ヒューマンロボットインタラクションを考慮した移動ロボットの制御に関する研究

狙い

 人との共存環境下で,実時間で人の行動を計測しながら,その動きを予測しつつ,人と衝突しないような動作を生成し,実行できるような移動ロボットを構築します.また,その際に,ロボットと人間との間でいかなるインタラクションが行われるかのモデル化を行います.

内容

 人の歩行モデルに基づく,ヒューマンロボットインタラクションシミュレータを開発します.それを用いて,人共存環境で動作するロボットの動作生成・制御手法を開発するとともに,実際の移動ロボット上に実装し,その有効性を検証します.

場所(予定)

 本郷工学部14号館821号室もしくは1022号室

計画

 4~5月:関連研究調査
 6~7月:人の動作モデルおよびシミュレータの構築
 9月~11月:人共存環境におけるロボット動作生成手法の構築,ロボットへの実装
 12月~2月:実験および評価,論文作成

意志作用感に基づく能動的ヒューマンインタフェースの開発

狙い

 人が自分の意志で何かを能動的に動かそうとする際に感じる自分で動かしている感覚を意志作用感と呼びます.ロボットなどの人工物を遠隔操作する際,時間遅れが大きくなると,意志作用感が減少し,操作における認知機能や操作性が低下します.その特性を実験によって明らかにするとともに,その知見に基づいたヒューマンインタフェースの提案を行います.

内容

 意志作用感の特性を,仮想環境を用いた認知実験によって明らかにします.その知見に基づき,インターネットや無線LANなど,通信系を介してロボットを遠隔操作する際の,使いやすいインタフェースを設計・構築し,その有効性を実験によって検証します.

場所(予定)

 本郷工学部14号館821号室もしくは1022号室

計画

 4~5月:関連研究調査
 6~7月:意志作用感の特性を明らかにするための認知実験,分析
 9月~11月:ヒューマンインタフェース設計・構築
 12月~2月:実験および評価,論文作成

データ

SoASoO1
ラバーハンド錯覚


Go to top



home ホーム research 研究内容 publication 研究業績 event イベント member メンバー robot ロボット alumni 卒業生 lecture 講義 admission 配属希望 access アクセス link リンク
Copyright © 2011-2014 Yamashita Laboratory All Rights Reserved.