研究週記_20190324

2019-03-24

上週預計待辦事項:

  1. 將整個控制移植至Linux系統,以C++或Python包裝成ROS package並搭配turtlesim去模擬(輸入為三個座標點,輸出為根據規畫時間丟出速度與角速度命令) (上週擱置)
  2. 行人方位辨識的整體架構規劃與初步實作
  3. AMR_100 交接事項
  4. 以移動機器人模擬地圖可行性探討

本週進度概要:

  1. 路徑規劃部分函數化(建立在python上)
  2. AMR_100交接
  3. 行人方位辨識基本架構及YOLO程式語法了解

本週進度呈現:

  1. 用三階多項式規畫路徑的部分已函數化,細節可見Github,在Python的資料夾內,未來會將這個github project改為一個ROS package。
  2. 行人方位辨識的部分,架構目前暫定如下圖:

        主要會利用yolo來進行辨識人,之後再用另一個模塊來做方位辨識,而目前為了能夠在TX2上比較順暢的使用,選用的演算法為yolov2_tiny。這周主要查看了內部預設的程式碼,稍微了解一下yolo在輸出結果的架構。

        目前比較需要知道的部分是yolo整體的結果會以一個struct detection來儲存,其中bbox是負責記錄辨識出的物體在影像中的座標與大小,這部分是我未來需要的資料(用來框選出行人)

        而方位辨識的部分,目前預計先取得大量照片,先以yolo擷取行人部分,手動標示後再給學長做training。方位暫時先以8方位來測試。


        AMR_100的部分上周二剛跟學長進行交接,周五有稍微是跑模擬程式,但仍有一些BUG需要修正。先完成使用上的基本模擬後,會深入了解學長的程式架構,目前比較有直接需要的部分是學長做的一個Speed Guard的模組,了解後或許可以用在移動機器人到達目標點時的控制上。

        而以機器人模擬地圖的部分:

目前主要的目標是尋找適當的模型,證明閃避機器人可以等同於閃避地圖上已知的障礙物。

整個大前提是,主機器人可以閃避已知路徑的副機器人,但不知道實際地圖長怎樣。

會有這樣的想法是希望未來主機器人在簡單的開放空間中學習出來的行為模式,可以透過一些轉換,來運用到各式地圖,省去轉換地圖就要重新學習的問題。

        整體問題還在構思中。


下周待辦事項:

  1. 軌跡規劃部分持續移植至ROS。
  2. AMR_100 使用者層級操作。
  3. AMR_100 Speed Guard演算法了解。
  4. 人物data取得,測試使用yolo先行辨識人物的效果,並處理相片。
免費建立您的網站! 此網站是在 Webnode 上建立的。今天開始免費建立您的個人網站 立即開始