物体検出による視覚補助システム T215085 若松大仁 白井研究室.

Slides:



Advertisements
Similar presentations
1 情報基礎 A 第 9 週 プログラミング入門 VBA の基本文法 1 準備・変数・データの入出力 徳山 豪・全 眞嬉 東北大学情報科学研究科 システム情報科学専攻 情報システム評価学分野.
Advertisements

自動映像生成のための パーティクルフィルタによるボールの追 跡 2007 年 3 月 21 日 神戸大学大学院自然科学研究科 矢野 一樹.
オブジェクト指向 プログラミング 第二回 知能情報学部 新田直也. 講義計画(あくまで予定) 第 1 回 プログラミング言語の種類と歴史 第 2 回 eclipse の基本操作 第 3 回 eclipse のデバッグ機能 第 4 回 構造化プログラミングの復習 第 5 回 演習 第 6 回 構造化指向からオブジェクト指向へ.
ユーザーイメージ収集 インターフェイスの開発
Web アプリをユーザー毎に カスタマイズ可能にする AOP フレームワーク
Signal Masterによる フィルタバンクの実装
コンピュータビジョン特論 OpenCVについて
Building text features for object image classification
Learning Appearance in Virtual Scenarios for Pedestrian Detection
Chapter11-4(前半) 加藤健.
ARの拡張性の研究 H411023 太田智章.
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第四回 演習課題 画像中からの物体抽出処理(背景情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/15.
「わかりやすいパターン認識」 第1章:パターン認識とは
Flashプレイヤーを使った動画配信 情報工学科 宮本 崇也.
Deep learningによる 読唇システム
休講掲示板の電子化 鵜川研究室 菊地洲人 (あらかじめチラシを配る) 情報数理4年の菊地です。 これから私の研究内容の発表を始めます。
「データ学習アルゴリズム」 第3章 複雑な学習モデル 3.1 関数近似モデル ….. … 3層パーセプトロン
雑音重み推定と音声 GMMを用いた雑音除去
TextonBoost:Joint Appearance, Shape and Context Modeling for Multi-Class Object Recognition and Segmentation 伊原有仁.
異種センサを用いた人の行動検知 研究概要 研究の独自性 isi担当 高汐グループ成果 スライド到着待ち yasu担当.
「データ学習アルゴリズム」 第2章 学習と統計的推測 報告者 佐々木 稔 2003年5月21日 2.1 データと学習
画像情報を用いた交通流計測 情報工学科 藤吉研究室 EP02076 都築勇司
高度情報演習1A “テーマC” 実践 画像処理プログラミング 〜画像認識とCGによる画像生成〜 第三回 演習課題 画像中からの物体抽出処理(色情報を手がかりとして) 芝浦工業大学 工学部 情報工学科 青木 義満 2006/05/08.
LabVIEWによる 地上気象観測データ 収集システムの開発
サーボ機構製作 ~マイコンカーのステアリング機構~
Semi-Supervised QA with Generative Domain-Adaptive Nets
オーサリングツール&ブラウザの 技術的トピック
高度情報演習1C 実践 画像処理プログラミング
長岡技科大オープンハウス 岐阜高専4年電子制御工学科 森 永二郎.
7. 音声の認識:高度な音響モデル 7.1 実際の音響モデル 7.2 識別的学習 7.3 深層学習.
Bottom-UpとTop-Down アプローチの統合による 単眼画像からの人体3次元姿勢推定
Leap Motionを用いた実世界指向 アプリランチャの設計と開発
澤見研究室 I04I021 片山祐輔 I05I095 山田大志 I06I040 野崎祥志
ステレオカメラを用いた歩行者の行動解析.
ステレオカメラを用いた人の行動解析.
人工知能を動かしてみる(Keras を用いたニューラルネットワークの定義,コンパイル,学習,評価,予測)
第14章 モデルの結合 修士2年 山川佳洋.
音響伝達特性を用いた単一マイクロホンによる話者の頭部方向の推定
構造情報に基づく特徴量を用いた グラフマッチングによる物体識別 情報工学科 藤吉研究室  EP02086 永橋知行.
深層学習を用いた音声認識システム 工学部 電気電子工学科 白井研究室 T213069 林健吉.
TIME SIGNAL: 集合知を利用した赤信号点灯時間の取得手法
中京大学 工学部 電気電子工学科 白井研究室 4年 T 為房直人
12. 意味・意図の解析 12.1 意味表現とは 12.2 規則による意味解析処理 12.3 統計的な意味解析処理 12.4 スマートフォンでの音声サービス ニューラルネットワークによる意味解析.
ソースコードの特徴量を用いた機械学習による メソッド抽出リファクタリング推薦手法
GPSを使わないBebop Droneの 自動飛行
SiTCP-VME変換モジュールの開発 KEK 物構研:中性子 佐藤節夫.
Data Clustering: A Review
交番における手話から日本語への 変換システムの検討
OpenCV について OpenCV とは OpenCV の Python プログラム例 配列 画像の B, G, R の 3成分
複数特徴量の重み付け統合による一般物体認識
一方向画像からの 3Dモデル生成 電気電子工学科 白井研究室 T215049 田原 大輝.
SURF+BoFによる特定物体認識 卒業研究1 1 11/27/11.
工学部 電気電子工学科 白井研究室 T 山田 翔也
オブジェクト指向 プログラミング 第二回 知能情報学部 新田直也.
Chapter5-2 その他の話題 15k1015 関根修斗.
音声情報とベイジアンネットを 用いた感性情報処理システム
SIFTとGraph Cutsを用いた 物体認識及びセグメンテーション
第4章 識別部の設計 4-5 識別部の最適化 発表日:2003年5月16日 発表者:時田 陽一
音声認識によるロボット制御 白井研究室 T 山田翔也
Bottom-UpとTop-Down アプローチの組み合わせによる 単眼画像からの人体3次元姿勢推定
手書き文字の自動認識アプリケーション 15K1013 坂本 倖輝
「ICAによる顔画像特徴量抽出とSVMを用いた表情認識」
QRコードを用いた演習用紙の効率的な電子コンテンツ化
ステレオカメラを用いた歩行者の行動解析.
2018年度ビジョン研究室 ゼミナール・卒研紹介 指導教員:張善俊 6月20日(水) 6-209.
ILC衝突点ビームモニターのための 読み出し回路の開発
視覚補助のための物体検出 白井研究室 T 若松大仁
ニューラルネットワークの仕組み (Raspberry PI 演習で学ぶ) AI DATA VASSEL 資料
現在対応 将来展望 変動的 操作スキル プログラミング 情報モラル 探究スキル 普遍的 図13−1 情報活用能力の構成要素 (p.176)
1.2 言語処理の諸観点 (1)言語処理の利用分野
Presentation transcript:

物体検出による視覚補助システム T215085 若松大仁 白井研究室

研究目的 目が不自由な人が安全に歩行移動を行うための 支援システムの作製 目が不自由な人が安全に歩行移動を行うための  支援システムの作製 検出速度に優れたtinyYOLOv3を用いることで歩行時  に必要となる情報を取得し、歩行者に知らせる 身近になったスマートフォンアプリを媒体にすることで  誰でも簡単に使用できるようにする

研究手順 [1] 歩行者用信号機と点字ブロックなどを学習したYOLOモデルを作成 [2] macOS/iOSで使用できる形式へと変換し、Xcodeでコンパイルを行い   iPhoneアプリを作成 [3] PC上で動画を再生し、その動画を入力とすることで動作確認 [4] 協力者数名にiPhoneをもって歩いてもらい、アンケートにより評価

物体検出システムYOLO YOLO(You Only Look Once)はリアルタイムで物体検出可能なアルゴリズム 従来の方式は、物体候補がある領域を特定(オブジェクト検出)し、  その後にそれぞれの領域に対しクラス分類を行っていた YOLOでは一度の特徴抽出によってオブジェクト検出とクラス分類を行う https://pjreddie.com/darknet/yolo/

YOLOの仕組み YOLOv1では、入力画像に対して 7×7個のセルに分割 (v2では13x13)   7×7個のセルに分割   (v2では13x13) 各セルごとに2個の小領域を設定(v2では5個)、  オブジェクト候補それぞれに対し位置情報を推定 分割したセルごとにクラス確率を計算 この2つの予測から、オブジェクト位置とそのクラスの決定を行う。 https://arxiv.org/pdf/1506.02640.pdf

[1] YOLOモデルの作成 YOLOモデルを作成するために 歩行者用信号機と点字ブロックの画像を 名古屋市周辺を歩いて約750枚ほど収集 収集した画像に対してアノテーション 右図のように対象物をマークし、「青信号」と ラベル付けする

[1] YOLOモデルの作成 アノテーション付きの画像データセットPASCALのVOC2007と ➁で作成したデータを合わせた計約5,500枚を学習用データとした 学内GPUサーバーにおいてYOLO Keras版を用いて学習させる。得られたモデ ルはHDF5形式で保存 学習モデルに対してテストデータにて確認を行う   145枚5クラス分類で精度 86.6%

[2] iPhoneアプリ化 学習したモデルHDF5をCoreMLで使用できる形式である.mlmodelへと変換 Xcodeにてプロジェクトを作成し、変換した.mlmodelをXcodeにドロップ することで自動的にSwift言語用のクラスなどを生成 XcodeでビルドすることでiPhoneなどで使用できるアプリが作れる ネットワークの状態に関わらず使用可能

アプリ化の問題発生 tinyYOLOv3はオブジェクト検出を行う層とクラス分類を行う層の  統合を行っている。Kerasではこの層の統合にLambda層を用いている。 Kerasの学習モデルであるHDF5はAppleが提供しているcoremltools  というモジュールによって変換を行っている。現在のcoremltoolsは  Lambdaに対応しておらず変換をすることが不可能 Appleアプリのプログラミング言語であるSwiftでLambda層の実装を  試みているが、時間がかかり、未完成  

代替案 Lambda層の変換問題が未解決のため、 CoreMLで一般的に使われているモデルの採用を考えた 物体検出ではなく物体認識で代用 物体検出とは異なり、物体認識では位置情報を取得することはできない  しかしクラス情報は取得可能 = 信号機や点字ブロックの認識が可能  モデルとして、一般的に用いられるVGG16を採用しファインチューニングする

VGG16 VGG16とは、16層からなる畳み込み ニューラルネットワーク VGG16は1000のクラスを分類することが 可能  出力層は識別したいクラス数に変更  学習用のデータセットを与えて再学習を行う  ⇒ 少ないデータと時間で学習可能

car bb person tl_red tl_blue 結果 165枚5クラス分類で  精度は90.9%

今後の展望 音声によって使用者へ情報をアナウンスできるようにする リアルタイムでの補助システムが目的であるため、  SSDなど他の物体検出アルゴリズムでも試す CoreMLの利点はネットワーク環境に依存しない点であるため、  地下鉄内での点字ブロックによる階段等の誘導などにも反映

以上で発表を終わります。 質問、コメントをお願いします