図面 (/)

技術 人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラム

出願人 三星電子株式会社
発明者 洪先基方錫元朴東烈
出願日 2004年9月16日 (17年5ヶ月経過) 出願番号 2004-270092
公開日 2005年5月12日 (16年9ヶ月経過) 公開番号 2005-121641
状態 特許登録済
技術分野 複合型測量機器;測量機器の付属品 光学的手段による測長装置 移動体の位置、進路、高度又は姿勢の制御 測量一般
主要キーワード 当たり出力 光学中心点 平均移動距離 進化処理 ナッピング エンコーダセンサー 基準標識 各変換関数
関連する未来課題
重要な関連分野

この項目の情報は公開日時点(2005年5月12日)のものです。
また、この項目は機械的に抽出しているため、正しく解析できていない場合があります

図面 (20)

課題

暗い照明や照明の明るさの変化の激しい環境でも適用され得る人工標識生成方法と、移動ロボット自己位置及び方位角推定方法推定装置及び推定プログラムを提供する。

解決手段

移動ロボットの自己位置及び方位角の推定装置は、天井映像獲得部と標識検出部と位置及び方位角推定部とを備え、天井映像獲得部は、移動ロボットが走行する場所の天井映像を獲得し、標識検出部は、人工標識の位置を天井映像から検出する。位置及び方位角推定部は、人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角を推定する。人工標識は、第1標識と第2標識とを有し、第2標識は、第1標識と所定距離離隔されている。第1標識及び第2標識は、無反射部分と赤外線反射部分とをそれぞれ有し、赤外線反射部分は赤外線再帰的に反射する。

概要

背景

移動ロボットと関連して人工標識を利用した自己位置及び方位角推定方法は、次の4種に分類されうる。第1に、反射体及びビジョンが利用される方法であって、その例が、特許文献1に開示されている。特許文献1の技術では、天井再帰反射型標識が付着され、AGV(Automatic Guided Vehicle)が廊下などに沿って走行できるように構成されており、廊下の中心を探してロボットの方向及び位置が決定される。第2に、反射体のみ利用されるがビジョンが利用されない方法であって、その例が、特許文献2と特許文献3とに開示されている。第3に、ビジョンが利用され反射体の代わりに特定パターンが利用される方法であって、その例が、特許文献4と特許文献5と特許文献6とに開示されている。ここで、特許文献5の技術では、円が標識と設定され、標識の認識を通じてロボットがローカリゼーション(特に、他の背景と区別される円形パターン)で円の半径比が利用されてロボットの姿勢及び距離情報が得られる。一方、特許文献6では、2つの標識よりなった基準標識が利用されてロボットの位置が検出され、ラインレーザーが利用されて障害物の形態が認識される。第4に、ビジョンが利用され、反射体の代わりに発光源が利用される方法であって、その例が、特許文献7に開示されている。
米国特許第5,051,906号公報
米国特許第5,812,267号公報
米国特許第5,467,273号公報
米国特許第5,525,883号公報
米国特許第5,911,767号公報
米国特許第6,496,754号公報
米国特許第4,797,557号公報

概要

暗い照明や照明の明るさの変化の激しい環境でも適用され得る人工標識生成方法と、移動ロボットの自己位置及び方位角の推定方法、推定装置及び推定プログラムを提供する。移動ロボットの自己位置及び方位角の推定装置は、天井映像獲得部と標識検出部と位置及び方位角推定部とを備え、天井映像獲得部は、移動ロボットが走行する場所の天井映像を獲得し、標識検出部は、人工標識の位置を天井映像から検出する。位置及び方位角推定部は、人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角を推定する。人工標識は、第1標識と第2標識とを有し、第2標識は、第1標識と所定距離離隔されている。第1標識及び第2標識は、無反射部分と赤外線反射部分とをそれぞれ有し、赤外線反射部分は赤外線再帰的に反射する。

目的

本発明が解決しようとする技術的課題は、暗い照明や照明の明るさの変化の激しい環境でも適用され得る人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラムを提供することにある。

効果

実績

技術文献被引用数
2件
牽制数
4件

この技術が所属する分野

(分野番号表示ON)※整理標準化データをもとに当社作成

ライセンス契約や譲渡などの可能性がある特許掲載中! 開放特許随時追加・更新中 詳しくはこちら

請求項1

第1標識が形成される第1ステップと、前記第1標識と所定距離離隔されて第2標識が形成される第2ステップと、を備え、前記第1標識は、第1無反射部分と、赤外線再帰的に反射する第1赤外線反射部分と、を有し、前記第2標識は、第2無反射部分と、赤外線を再帰的に反射する第2赤外線反射部分と、を有する、人工標識生成方法

請求項2

前記第1無反射部分は、前記第1標識の外側部分であり、前記第2無反射部分は、前記第2標識の内側部分であり、前記第1赤外線反射部分は、前記第1標識の内側部分であり、前記第2赤外線反射部分は、前記第2標識の外側部分である、請求項1に記載の人工標識生成方法。

請求項3

移動ロボット走行する場所の天井映像が獲得される第3ステップと、人工標識の位置が前記天井映像から検出される第4ステップと、前記人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、前記移動ロボットの位置及び方位角推定される第5ステップと、を備え、前記人工標識は、第1標識と、前記第1標識と所定距離離隔されて形成されている第2標識と、を有し、前記第1標識は、第1無反射部分と、赤外線を再帰的に反射する第1赤外線反射部分と、を含み、前記第2標識は、第2無反射部分と、赤外線を再帰的に反射する第2赤外線反射部分と、を含む、移動ロボットの自己位置及び方位角の推定方法

請求項4

前記第1無反射部分は、前記第1標識の外側部分であり、前記第2無反射部分は、前記第2標識の内側部分であり、前記第1赤外線反射部分は、前記第1標識の内側部分であり、前記第2赤外線反射部分は、前記第2標識の外側部分である、請求項3に記載の移動ロボットの自己位置及び方位角の推定方法。

請求項5

前記第3ステップで獲得された前記天井映像から現在の環境が判別され、判別された環境に基づいて、所定の映像処理が行われる第6ステップをさらに備えた、請求項3または4に記載の移動ロボットの自己位置及び方位角の推定方法。

請求項6

前記第6ステップは、前記第3ステップで獲得された前記天井映像の平均輝度が算出される第61ステップと、前記第61ステップで算出された平均輝度が所定の基準値と比較されて、現在の環境が照明明るい状態であるか否かが判断される第62ステップと、現在の環境が照明の明るい状態であると判断された場合、前記天井映像に対して歪曲補償処理及び前処理のうち少なくとも一方が行われる第63ステップと、現在の環境が照明の暗い状態であると判断された場合、前記天井映像のコントラスト反転された後、前記所定の映像処理が行われる第64ステップと、を有する、請求項5に記載の移動ロボットの自己位置及び方位角の推定方法。

請求項7

前記第4ステップは、前記天井映像に対して前記人工標識との輪郭線整合が実行された結果と前記人工標識の幾何学的情報とに基づいて、前記天井映像に対して少なくとも1つ以上の候補領域が抽出される第41ステップと、前記第41ステップで検出された各候補領域に対してテンプレートマッチングが行われ、テンプレートマッチングにより最も大きい信頼値を有するとされた候補領域が選択されて、選択された前記候補領域の信頼値が所定の基準値と比較される第42ステップと、前記第42ステップで比較された結果、選択された前記候補領域の前記信頼値が前記所定の基準値より大きいと判断された場合に人工標識の検出に成功したとされ、選択された前記候補領域の前記信頼値が前記所定の基準値より小さいと判断された場合に人工標識の検出に失敗したと判断される第43ステップと、を有する、請求項3または4に記載の移動ロボットの自己位置及び方位角の推定方法。

請求項8

前記第41ステップでは、歪曲補償処理、前処理及び二進化処理のうち少なくとも1つが前記天井映像に対して順次に行われた後に、前記天井映像に対して前記人工標識との輪郭線の整合が実行された結果と前記人工標識の幾何学的情報とに基づいて、前記天井映像に対して少なくとも1つ以上の候補領域が抽出される、請求項7に記載の移動ロボットの自己位置及び方位角の推定方法。

請求項9

前記第5ステップでは、前記人工標識の位置の情報に基づいて、シフト過程ローテーション過程及びフリップ過程が順次に行われることにより、前記移動ロボットの位置及び方位角が推定される、請求項3または4に記載の移動ロボットの自己位置及び方位角の推定方法。

請求項10

移動ロボットが走行する場所の天井映像を獲得する天井映像獲得部と、人工標識の位置を前記天井映像から検出する標識検出部と、前記人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、前記移動ロボットの位置及び方位角を推定する位置及び方位角推定部と、を備え、前記人工標識は、第1標識と、前記第1標識と所定距離離隔されて形成されている第2標識と、を有し、前記第1標識は、第1無反射部分と、赤外線を再帰的に反射する第1赤外線反射部分と、を含み、前記第2標識は、第2無反射部分と、赤外線を再帰的に反射する第2赤外線反射部分と、を含む、移動ロボットの自己位置及び方位角の推定装置

請求項11

前記第1無反射部分は、前記第1標識の外側部分であり、前記第2無反射部分は、前記第2標識の内側部分であり、前記第1赤外線反射部分は、前記第1標識の内側部分であり、前記第2赤外線反射部分は、前記第2標識の外側部分である、請求項10に記載の移動ロボットの自己位置及び方位角の推定装置。

請求項12

前記天井映像獲得部が獲得した前記天井映像から現在の環境を判別し、判別された環境に基づいて、所定の映像処理を行う映像処理部をさらに備えた、請求項10または11に記載の移動ロボットの自己位置及び方位角の推定装置。

請求項13

前記映像処理部は、前記天井映像獲得部が獲得した前記天井映像の平均輝度を所定の基準値と比較し、現在の環境が照明の暗い状態であると判断した場合、前記天井映像のコントラストを反転させた後、前記所定の映像処理を行う、請求項12に記載の移動ロボットの自己位置及び方位角の推定装置。

請求項14

前記標識検出部は、前記天井映像に対して少なくとも1つ以上の候補領域を抽出し、抽出された各前記候補領域に対してテンプレートマッチングが実行された結果、最も大きい信頼値を有するとされた前記候補領域を選択して、選択された前記候補領域の前記信頼値を所定の基準値と比較し、比較した結果に基づいて、人工標識の検出が成功であるか否かを判断する、請求項10または請求項11に記載の移動ロボットの自己位置及び方位角の推定装置。

請求項15

走行する場所の天井映像を獲得する天井映像獲得部と、前記天井映像の平均輝度を算出し、算出された前記平均輝度を所定の基準値と比較して、現在の環境が照明の明るい状態であるか否かを判断する映像輝度比較部と、前記映像輝度比較部が判断した結果に基づいて、付着された照明装置を制御する照明制御部と、人工標識の位置を前記天井映像から検出する標識検出部と、前記人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、前記移動ロボットの位置及び方位角を推定する位置及び方位角推定部と、前記位置及び方位角推定部で推定された位置及び方位角に基づいて、前記移動ロボットの走行を制御する走行制御部と、を備え、前記人工標識は、第1標識と、前記第1標識と所定距離離隔されて形成されている第2標識と、を有し、前記第1標識は、第1無反射部分と、赤外線を再帰的に反射する第1赤外線反射部分と、を含み、前記第2標識は、第2無反射部分と、赤外線を再帰的に反射する第2赤外線反射部分と、を含む、移動ロボット。

請求項16

前記第1無反射部分は、前記第1標識の外側部分であり、前記第2無反射部分は、前記第2標識の内側部分であり、前記第1赤外線反射部分は、前記第1標識の内側部分であり、前記第2赤外線反射部分は、前記第2標識の外側部分である、請求項15に記載の移動ロボット。

請求項17

前記天井映像獲得部が獲得した前記天井映像から現在の環境を判別し、判別された環境に基づいて、所定の映像処理を行う映像処理部をさらに備えた、請求項15または16に記載の移動ロボット。

請求項18

前記映像処理部は、前記天井映像獲得部が獲得した前記天井映像の平均輝度を所定の基準値と比較し、現在の環境が照明の暗い状態であると判断された場合、前記天井映像のコントラストを反転させた後、前記所定の映像処理を行う、請求項17に記載の移動ロボット。

請求項19

前記標識検出部は、前記天井映像に対して少なくとも1つ以上の候補領域を抽出し、抽出された各前記候補領域に対してテンプレートマッチングが実行された結果、最も大きい信頼値を有するとされた前記候補領域を選択して、選択された前記候補領域の前記信頼値を所定の基準値と比較し、比較した結果に基づいて、人工標識の検出が成功であるか否かを判断する、請求項15または16に記載の移動ロボット。

請求項20

移動ロボットの自己位置及び方位角をコンピュータに推定させるための推定プログラムであって、前記移動ロボットが走行する場所の天井映像が獲得される第3ステップと、人工標識の位置が前記天井映像から検出される第4ステップと、前記人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、前記移動ロボットの位置及び方位角が推定される第5ステップと、を備え、前記人工標識は、第1標識と、前記第1標識と所定距離離隔されて形成されている第2標識と、を有し、前記第1標識は、第1無反射部分と、赤外線を再帰的に反射する第1赤外線反射部分と、を含み、前記第2標識は、第2無反射部分と、赤外線を再帰的に反射する第2赤外線反射部分と、を含む、推定プログラム。

技術分野

0001

本発明は、人工標識生成方法移動ロボット自己位置及び方位角推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラムに関する。

背景技術

0002

移動ロボットと関連して人工標識を利用した自己位置及び方位角の推定方法は、次の4種に分類されうる。第1に、反射体及びビジョンが利用される方法であって、その例が、特許文献1に開示されている。特許文献1の技術では、天井再帰反射型標識が付着され、AGV(Automatic Guided Vehicle)が廊下などに沿って走行できるように構成されており、廊下の中心を探してロボットの方向及び位置が決定される。第2に、反射体のみ利用されるがビジョンが利用されない方法であって、その例が、特許文献2と特許文献3とに開示されている。第3に、ビジョンが利用され反射体の代わりに特定パターンが利用される方法であって、その例が、特許文献4と特許文献5と特許文献6とに開示されている。ここで、特許文献5の技術では、円が標識と設定され、標識の認識を通じてロボットがローカリゼーション(特に、他の背景と区別される円形パターン)で円の半径比が利用されてロボットの姿勢及び距離情報が得られる。一方、特許文献6では、2つの標識よりなった基準標識が利用されてロボットの位置が検出され、ラインレーザーが利用されて障害物の形態が認識される。第4に、ビジョンが利用され、反射体の代わりに発光源が利用される方法であって、その例が、特許文献7に開示されている。
米国特許第5,051,906号公報
米国特許第5,812,267号公報
米国特許第5,467,273号公報
米国特許第5,525,883号公報
米国特許第5,911,767号公報
米国特許第6,496,754号公報
米国特許第4,797,557号公報

発明が解決しようとする課題

0003

しかし、従来の方法では、ロボットの位置した全体環境内で全域的な自己位置及び方位角の推定が困難である傾向がある。さらに、照明変化によって自己位置及び方位角の推定性能差が大きくなる傾向があるために、家庭を含む一般的な室内環境に適用され難いおそれがある。

0004

本発明が解決しようとする技術的課題は、暗い照明や照明の明るさの変化の激しい環境でも適用され得る人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラムを提供することにある。

課題を解決するための手段

0005

第1発明に係る人工標識生成方法は、第1ステップと第2ステップとを備える。第1ステップでは、第1標識が形成される。第2ステップでは、第1標識と所定距離離隔されて第2標識が形成される。第1標識は、第1無反射部分と第1赤外線反射部分とを有する。第1赤外線反射部分は、赤外線再帰的に反射する。第2標識は、第2無反射部分と第2赤外線反射部分とを有する。第2赤外線反射部分は、赤外線を再帰的に反射する。

0006

この人工標識生成方法では、第1ステップにおいて、第1標識が形成される。第2ステップにおいて、第1標識と所定距離離隔されて第2標識が形成される。第1標識が、第1無反射部分と第1赤外線反射部分とを有する。第2標識が、第2無反射部分と第2赤外線反射部分とを有する。第1赤外線反射部分と第2赤外線反射部分とが区別可能なように形成されれば、現在の環境が照明の暗い状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。また、第1無反射部分と第2無反射部分とが区別可能なように形成されれば、現在の環境が照明の明るい状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。さらに、現在の環境が照明の明るさの変化が激しい状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。

0007

したがって、暗い照明や照明の明るさの変化の激しい環境でも第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することができる。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することができる。

0008

第3発明に係る移動ロボットの自己位置及び方位角の推定方法は、第3ステップと第4ステップと第5ステップとを備える。第3ステップでは、移動ロボットが走行する場所の天井映像が獲得される。第4ステップでは、人工標識の位置が天井映像から検出される。第5ステップでは、人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角が推定される。人工標識は、第1標識と第2標識とを有する。第2標識は、第1標識と所定距離離隔されて形成されている。第1標識は、第1無反射部分と第1赤外線反射部分とを有する。第1赤外線反射部分は、赤外線を再帰的に反射する。第2標識は、第2無反射部分と第2赤外線反射部分とを有する。第2赤外線反射部分は、赤外線を再帰的に反射する。

0009

この移動ロボットの自己位置及び方位角の推定方法では、第3ステップにおいて、移動ロボットが走行する場所の天井映像が獲得される。第4ステップにおいて、人工標識の位置が天井映像から検出される。人工標識が、第1標識と第2標識とを有する。第1標識が、第1無反射部分と第1赤外線反射部分とを有する。第2標識が、第2無反射部分と第2赤外線反射部分とを有する。第1赤外線反射部分と第2赤外線反射部分とが区別可能なように形成されれば、現在の環境が照明の暗い状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。また、第1無反射部分と第2無反射部分とが区別可能なように形成されれば、現在の環境が照明の明るい状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。さらに、現在の環境が照明の明るさの変化が激しい状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。第5ステップにおいて、人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角が推定される。

0010

したがって、暗い照明や照明の明るさの変化の激しい環境でも第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することができる。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することができる。

0011

第10発明に係る移動ロボットの自己位置及び方位角の推定装置は、天井映像獲得部と標識検出部と位置及び方位角推定部とを備える。天井映像獲得部は、移動ロボットが走行する場所の天井映像を獲得する。標識検出部は、人工標識の位置を天井映像から検出する。位置及び方位角推定部は、人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角を推定する。人工標識は、第1標識と第2標識とを有する。第2標識は、第1標識と所定距離離隔されて形成されている。第1標識は、第1無反射部分と第1赤外線反射部分とを有する。第1赤外線反射部分は、赤外線を再帰的に反射する。第2標識は、第2無反射部分と第2赤外線反射部分とを有する。第2赤外線反射部分は、赤外線を再帰的に反射する。

0012

この移動ロボットの自己位置及び方位角の推定装置では、天井映像獲得部が、移動ロボットが走行する場所の天井映像を獲得する。標識検出部が、天井映像の情報を受け取ることができる。標識検出部が、人工標識の位置を天井映像から検出する。人工標識が、第1標識と第2標識とを有する。第1標識が、第1無反射部分と第1赤外線反射部分とを有する。第2標識が、第2無反射部分と第2赤外線反射部分とを有する。第1赤外線反射部分と第2赤外線反射部分とが区別可能なように形成されれば、現在の環境が照明の暗い状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。また、第1無反射部分と第2無反射部分とが区別可能なように形成されれば、現在の環境が照明の明るい状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。さらに、現在の環境が照明の明るさの変化が激しい状態であっても、第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができる。位置及び方位角推定部が、人工標識の位置の情報及びエンコーダセンサーにより取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角を推定する。

0013

したがって、暗い照明や照明の明るさの変化の激しい環境でも第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することができる。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することができる。

発明の効果

0014

第1発明に係る人工標識生成方法では、暗い照明や照明の明るさの変化の激しい環境でも第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することができる。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することができる。

0015

第3発明に係る移動ロボットの自己位置及び方位角の推定方法では、暗い照明や照明の明るさの変化の激しい環境でも第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することができる。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することができる。

0016

第10発明に係る移動ロボットの自己位置及び方位角の推定装置では、暗い照明や照明の明るさの変化の激しい環境でも第1標識及び第2標識の位置と移動ロボットの位置との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することができる。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することができる。

発明を実施するための最良の形態

0017

以下、図面を参照して本発明による望ましい実施形態に対してより詳細に説明する。

0018

図1Aは、本発明で使われる人工標識100の一例を示す図面であって、再帰反射型の第1標識110及び第2標識120よりなる。第1標識110の外側部分111と第2標識120の内側部分123とは、任意の色、例えば黒色で塗布された部分であり無反射部分である。第1標識110の内側部分113と第2標識120の外側部分121とは、赤外線を再帰的に反射する赤外線反射部分である。一実施形態では、人工標識100が、移動ロボットが所定の作業を実行させるために走行する場所における天井の中央部分に位置することが望ましい。また、第1標識110及び第2標識120は、それぞれ、外径が11cm、内径が5cmである。第1標識110と第2標識120との間の距離dは、70cmで構成できるが、必ずしもこれに限定されるものではない。第1標識110及び第2標識120は、所定距離だけ離隔された円形よりなるが、必ずしもこれに限定されるものではない。

0019

図1Aのようなパターンの人工標識100が使用されると、照明の明るい昼の場合、図1Bに示すように、第1標識110の外側部分111と第2標識120の内側部分123と(無反射部分)が、標識として機能する。照明の暗い夜の場合、図1Cに示すように、第1標識110の内側部分113と第2標識120の外側部分121と(赤外線反射部分)が、標識として機能する。

0020

図2は、本発明の一実施形態による移動ロボットのローカリゼーション装置の構成を示したブロック図である。ここで、ローカリゼーション装置は、移動ロボットの自己位置及び方位角を推定するための装置である。図2に示すローカリゼーション装置は、天井映像獲得部210、映像輝度比較部220、映像処理部230、標識検出部240、エンコーダ情報獲得部250、位置及び方位角推定部260、照明制御部270及び走行制御部280を備える。

0021

図2に示す天井映像獲得部210は、例えば広角または超広角カメラ、具体的には、魚眼レンズカメラよりなり、移動ロボットが所定の作業を行うために走行する場所の天井映像を獲得する。ここで、天井映像は、移動ロボットの上部の天井の映像である。

0022

映像輝度比較部220は、天井映像獲得部210が獲得した天井映像の情報を天井映像獲得部210から受け取る。映像輝度比較部220は、天井映像獲得部210が獲得した天井映像の情報に基づいて、天井映像の各ピクセル輝度を合算した値を全体ピクセル数で割って天井映像の平均輝度(average intensity)を算出し、算出された平均輝度を所定の基準値と比較して、現在の環境が照明の暗い状態であるか否かを判断する。ここで、基準値は、例えば256グレースケールである場合、50と設定される。そして、映像輝度比較部220は、平均輝度が50以上である場合に現在の環境が照明の明るい状態であると判断し、平均輝度が50以下である場合に現在の環境が照明の暗い状態であると判断する。

0023

映像処理部230は、現在の環境が照明の暗い状態であるか否かを示す情報すなわち映像輝度比較部220が判断した結果の情報と、天井映像の情報とを、映像輝度比較部220から受け取る。映像処理部230は、映像輝度比較部220が判断した結果の情報に基づいて、天井映像の情報を処理する。すなわち、映像処理部230は、現在の環境が照明の明るい状態であると映像輝度比較部220が判断した場合に、天井映像をそのままとする。映像処理部230は、現在の環境が照明の暗い状態であると映像輝度比較部220が判断した場合に、天井映像のコントラスト反転させる。図6Aは、昼(平均輝度が所定値以上である場合)に撮影された人工標識611を含む天井映像を示し、図6Bの左側の図は、夜(平均輝度が所定値以下である場合)に撮影された人工標識613を含む天井映像を示す。これらの天井映像は、天井映像獲得部210(図2参照)が取得した映像である。図6Bの右側の図は、人工標識613を含む天井映像(図6Bの左側の図)を映像処理部230(図2参照)がコントラストを反転させた天井映像を示す。図6Bの左側の図の人工標識613に相当する部分は、図6Bの右側の図において、人工標識615となっている。

0024

次に、映像処理部230では、処理された天井映像に対して、歪曲補償処理及び前処理のうち少なくとも1つが行われる。まず、歪曲補償処理と関連した技術について、”Camera Calibration:Three Dimensional Computer Vision”(Oliver Faugeras,MIT Press,1993)に詳細に記載されている。これについて図7A図9Cを参照して説明すれば、次のようである。

0025

図7Aは、歪曲補償処理が行われる前の天井映像を示し、図7Bは、歪曲補償処理が行われた後の天井映像を示す。図7Aの人工標識711に相当する部分は、図7Bにおいて、人工標識715となっている。図7Aの人工標識711において、左側の黒い部分が第1標識110であり、右側の黒い部分が第2標識120である。天井映像獲得部210(図2参照)で使われるカメラレンズが広角であるほど、図7Aに示すように天井映像の歪曲がひどくなり、天井映像が実際の模様図7B参照)と異なって獲得されるので、歪曲補償処理が必要である。

0026

図7Aにおいて人工標識711付近を拡大した図を、図8Aに示す。図8Aにおいて、左真ん中辺りの黒い部分が第1標識110であり、上部真ん中辺りの黒い部分が第2標識120である。図8Aにおいて、左下から右上へ向かう方向が、図7Aで左から右へ向かう方向に相当する。

0027

歪曲補償処理の具体的な方法として、図8Aで示したように、映像処理部230により、光学中心点811が抽出され、抽出された光学中心点811を基準として、第1標識110及び第2標識120の上を通るように2つの楕円813が描かれることにより、モデリングが行われる。このような方法によって歪曲補償処理が行われた場合、光学中心点811の抽出に失敗すると、図8Bに示すように、歪曲補償処理が行われた後の天井映像が傾いた映像となる。一方、光学中心点811の抽出が正確に行われると、図8Cに示すように、歪曲補償処理が行われた後の天井映像が傾きのない正常に補償された映像となる。ここで、光学中心点811は、天井のノーマルビューを得るためのものであって、カメラ(図2に示す天井映像獲得部210)に入ってくるあらゆる光が過ぎる点(カメラのレンズの焦点)がカメラの撮像素子投影された点(光が屈折されずに通過する点)を意味し、カメラを回転させてもその位置が不変である。

0028

次に、モデリングが行われた結果、図9Aに示すように、ピクセルが消えた領域911が発生するが、映像処理部230により、補間法によって消えたピクセルが復元され得る。その補間法では、図9Bに示すように、N.N.(Nearest Neighbor)技法により消えたピクセルと最も近い位置のピクセル値がそのまま使用されてもよいし、図9Cに示すように、補間を必要とするピクセル近くの値が平均して使用されてもよい。

0029

そして、映像処理部230では、歪曲補償処理が行われた天井映像に対して、前処理が行われる。図10で、映像1010は前処理が行われる前の天井映像を示し、映像1030は前処理が行われた後の天井映像を示す。前処理の方法として、映像処理部230(図2参照)により、所定の定数α及びコントラスト特性グラフG1が利用されてコントラスト及び露出の少なくとも一方が調整される。すなわち、天井映像の各画素のデータに定数αが乗算されて露出が調整される。そして、露出が調整された天井映像にコントラスト特性グラフG1が適用されて、暗い部分はそのままにされるかさらに暗くされ、明るい部分は極めて明るくコントラストが調整される。これにより、特定画素領域、すなわち人工標識100の第1標識110及び第2標識120を構成する画素領域の分解能は高まる一方、他の画素領域の分解能は相対的に低くなる。このような前処理の結果、人工標識100の輝度の大きさが周囲の背景と大きく差をつけられて、以後の標識検出などのような映像処理が容易になる。

0030

図2に示す標識検出部240は、映像処理部230で歪曲補償処理及び前処理が行われた天井映像の情報を、映像処理部230から受け取る。標識検出部240は、映像処理部230で歪曲補償処理及び前処理が行われた天井映像から標識候補点を検出する。標識検出部240は、標識候補点に対してフィルタリングを行って、人工標識100の位置を検出する。

0031

エンコーダ情報獲得部250は、移動ロボットの輪に付着されているエンコーダセンサー(図示せず)などから、移動ロボットの位置及び方位角に関する情報を獲得する。

0032

位置及び方位角推定部260は、人工標識100の位置の情報を標識検出部240から受け取る。位置及び方位角推定部260は、移動ロボットの位置及び方位角に関する情報をエンコーダ情報獲得部250から受け取る。位置及び方位角推定部260は、人工標識100の位置の情報と移動ロボットの位置及び方位角に関する情報とのいずれかに基づいて、移動ロボットの位置及び方位角を推定する。すなわち、標識検出部240が人工標識100の位置検出成功した場合には、位置及び方位角推定部260が人工標識100の位置の情報に基づいて移動ロボットの位置及び方位角を推定する。標識検出部240が人工標識100の位置の検出に失敗した場合には、位置及び方位角推定部260が移動ロボットの位置及び方位角に関する情報に基づいて移動ロボットの位置及び方位角を推定する。

0033

照明制御部270は、現在の環境が照明の暗い状態であるか否かを示す情報すなわち映像輝度比較部220が判断した結果の情報を、映像輝度比較部220から受け取る。照明制御部270は、現在の環境が照明の暗い状態であると映像輝度比較部220が判断した場合に、移動ロボット上に付着されている照明(図示せず)をターンオンにするか、さらに明るくする。照明制御部270は、現在の環境が照明の明るい状態であると映像輝度比較部220が判断した場合に、移動ロボット上に付着された照明をさらに暗くするか、ターンオフにする。

0034

走行制御部280は、移動ロボットの位置及び方位角の情報を位置及び方位角推定部260から受け取る。走行制御部280は、移動ロボットの位置及び方位角の情報に基づいて、あらかじめ設定あるいは計画された経路に沿って走行するように移動ロボットを制御する。

0035

図3は、本発明の一実施形態による移動ロボットの位置及び方位角の推定方法を説明するフローチャートである。

0036

図3に示すように、ステップ310では、広角または超広角カメラ(天井映像獲得部210)により、移動ロボットが走行する場所の天井映像が獲得される。

0037

ステップ320では、現在の環境の照明の状態が判断される。すなわち、ステップ321では、映像輝度比較部220により、天井映像獲得部210により獲得された天井映像の情報が天井映像獲得部210から受け取られる。映像輝度比較部220により、ステップ310で獲得された天井映像の平均輝度が算出される。ステップ322では、映像輝度比較部220により、算出された平均輝度が所定の基準値と比較されて、比較された結果に基づいて、現在の環境が照明の暗い状態であるか否かが判断される。すなわち、平均輝度が基準値(例えば、50)以上である場合には現在の環境が照明の明るい状態であると判断され、平均輝度が基準値(例えば、50)以下である場合には現在の環境が照明の暗い状態であると判断される。現在の環境が照明の暗い状態であると判断された場合、ステップ323へ進められ、現在の環境が照明の暗い状態であると判断された場合、ステップ331へ進められる。ステップ323では、映像処理部230により、現在の環境が照明の暗い状態であるか否かを示す情報すなわち映像輝度比較部220が判断した結果の情報と、天井映像の情報とが、映像輝度比較部220から受け取られる。映像処理部230により、天井映像のコントラストが反転される。

0038

ステップ330では、天井映像から人工標識が検出される。すなわち、ステップ331では、映像処理部230により、あらかじめ保存されている関心領域(図7Aに示す人工標識711参照)が存在するか否かが判断される。関心領域が存在しないと判断された場合、ステップ332へ進められ、関心領域が存在すると判断された場合、ステップ333へ進められる。ステップ332では、関心領域が天井映像の全体の領域に設定される。ステップ333では、天井映像の全体の領域(関心領域)に対して人工標識が検出される。
ステップ340では、ステップ330で検出された人工標識100の情報に基づいて、移動ロボットの位置及び方位角が推定される。すなわち、ステップ341では、標識検出部240による人工標識100の検出が成功であるか否かが判断される。標識検出部240による人工標識の検出が失敗であると判断された場合、ステップS342へ進められ、標識検出部240による人工標識の検出が成功であると判断された場合、ステップS343へ進められる。ステップ342では、エンコーダ情報獲得部250により、移動ロボットの輪に付着されているエンコーダセンサー(図示せず)などから、移動ロボットの位置及び方位角に関する情報が獲得される。位置及び方位角推定部260により、移動ロボットの位置及び方位角に関する情報がエンコーダ情報獲得部250から受け取られる。位置及び方位角推定部260により、移動ロボットの位置及び方位角に関する情報に基づいて移動ロボットの位置及び方位角が推定される。ステップ343では、位置及び方位角推定部260により、人工標識100の位置の情報に基づいて、移動ロボットの位置及び方位角が推定される。

0039

ステップ343で人工標識100の位置の情報に基づいて移動ロボットの位置及び方位角が推定される方法について、図11A及び図11Bを参照して説明する。

0040

図11Aにおけるdは、第1標識110と第2標識120との間の天井映像上の距離を示す。θは、人工標識100の中心点Lc(第1標識110と第2標識120とを結ぶ線分中点)をx軸(図面上において左から右へ向かう軸)上に延長した線と第1標識110と第2標識120とを結ぶ線との間の角度であり、人工標識100のx軸に対する傾斜角を示す。Rpは、移動ロボットの現在の位置を天井に投影した位置である投影位置を示す。

0041

図11Bに示すように、人工標識100の位置と移動ロボットの投影位置(Rp)とに対してシフト過程ローテーション過程、及びフリップ過程が行われることにより、移動ロボットの位置及び方位角が推定される。ここで、シフト過程は、座標空間における原点シフトされる過程である。ローテーション過程は、座標空間が原点を中心として回転される過程である。フリップ過程は、座標空間における点(移動ロボットの位置)がy軸(図面上で上から下へ向かう軸)に対して対象に移動される過程である。すなわち、移動ロボットの位置及び方位角は、次の数式1のように推定されうる。

0042

ここで、

0043

は、図11Bの左下の図で左から右へ向かう軸をx軸とし上から下へ向かう軸をy軸とした座標空間における移動ロボットの投影位置Ppの座標を表わし、

0044

は、図11Bの左上の図(カメライメージすなわち天井映像)で左から右へ向かう軸をx軸とし上から下へ向かう軸をy軸とした座標空間における移動ロボットの投影位置Ppの座標を表わす。
式(1)における各変換関数Hshift、Hrotation、Hflip、Hscaleは、次の式(2)のように表せる。

0045

ここで、(tx,ty)は人工標識100の中心点Lcの座標を表す。θは、人工標識100のx軸に対する傾斜角を表す。sは、第1標識110と第2標識120との実際の物理的な距離を、第1標識110と第2標識120との天井映像上の距離dで割った値を表す。

0046

図3に示すステップ344では、走行制御部280により、移動ロボットの位置及び方位角の情報が位置及び方位角推定部260から受け取られる。走行制御部280により、ステップ342またはステップ343で計算された移動ロボットの位置及び方位角の情報に基づいて、あらかじめ設定あるいは計画された経路に沿って走行するように移動ロボットが制御される。

0047

図4は、図3におけるステップ333の細部的な動作を説明するフローチャートである。

0048

図4に示すステップ411では、映像処理部230により、処理された天井映像に対して、図7A図9Cを通じて説明したような歪曲補償処理が行われる。ステップ412では、映像処理部230により、ステップ411で歪曲補償処理が行われた天井映像に対して、図10を通じて説明したような前処理過程が行われる。

0049

ステップ413では、標識検出部240により、映像処理部230で歪曲補償処理及び前処理が行われた天井映像の情報が、映像処理部230から受け取られる。標識検出部240により、ステップ412で前処理過程が行われた天井映像の各ピクセルの輝度が所定の基準値と比較される。各ピクセルは、輝度が基準値より大きい場合に1とされ、輝度が基準値より小さな場合に0とされることにより、二進化される。ステップ414では、標識検出部240により、二進化が行われた天井映像に対して輪郭線整合が行われる。このような輪郭線整合、すなわち人工標識で分離された領域の輪郭線が検出されて既に保存された人工標識と比較される輪郭線整合に関しては、”Visual Pattern Recognition by Moment Invariants”(M.Hu. IRE Transactions on Information Theory,8:2,pp.179〜187,1962)に詳細に記載されている。

0050

ステップ415では、標識検出部240により、人工標識100の幾何学的情報(例えば、第1標識110と第2標識120と間の距離)に基づいて、天井映像から候補領域が抽出される。ステップ416では、標識検出部240により、各候補領域に対してテンプレートマッチングが行われて各候補領域に対する信頼値が算出される。正規化された相関関係を利用したテンプレートマッチングに関しては”Digital Image Processing”(Rafael C.Gonzalez,Richard E.Woods,pp.583〜586,1992)に詳細に記載されている。テンプレートマッチングで算出される信頼値r(s,t)は次の式(3)のように定義されうる。

0051

ここで、fは、入力される候補領域を表す。

0052

は、人工標識100の現在位置と一致する領域で候補領域f(x,y)に含まれたピクセルの平均値を表す。wは、人工標識100のイメージ、すなわちテンプレート映像を表す。

0053

は、人工標識w(x,y)のイメージに含まれたピクセルの平均値を表す。

0054

ステップ417では、標識検出部240により、ステップ416でテンプレートマッチングが行われて算出される各候補領域の信頼値のうち最も大きい信頼値を有する候補領域が選択される。ステップ418では、標識検出部240により、ステップ417で選択された候補領域の信頼値が所定の基準値と比較され、選択された候補領域の信頼値が所定の基準値よりも大きいか否かが判断される。選択された候補領域の信頼値が所定の基準値より大きいと判断された場合、ステップ419へ進められ、選択された候補領域の信頼値が所定の基準値より大きくないと判断された場合、ステップ420へ進められる。ステップ419では、標識検出部240による人工標識100の検出が成功であるとされる。ステップ420では、標識検出部240による人工標識100の検出が失敗であるとされる。

0055

図5は、図3に示すステップ342の細部的な動作を説明するフローチャートである。

0056

図5に示すように、ステップ511では、移動ロボットの輪に付着されているエンコーダセンサー(図示せず)により移動ロボットの現在の位置(x,y)及び方位角θが取得され、移動ロボットの現在の位置(x,y)の情報及び方位角θの情報がエンコーダ情報獲得部250に入力される。ステップ513では、移動ロボットの左右輪に付着されたエンコーダセンサー(図示せず)から出力されるパルスの数(NL,NR)がエンコーダ情報獲得部250に入力される。すなわち、エンコーダ情報獲得部250により、移動ロボットの現在の位置(x,y)の情報及び方位角θの情報とエンコーダセンサー(図示せず)から出力されるパルスの数(NL,NR)の情報とが、移動ロボットの位置及び方位角に関する情報として獲得される。

0057

ステップ515では、移動ロボットの現在の位置(x,y)の情報及び方位角θの情報とエンコーダセンサー(図示せず)から出力されるパルスの数(NL,NR)の情報とに基づいて、移動ロボットの位置及び方位角の値が更新される。具体的には、まず次の式(4)を利用して、エンコーダセンサー(図示せず)から出力されるパルスの数(NL,NR)が実際の輪の動きの距離に変換されるための定数値cmが算出される。

0058

式(4)においてDnは、輪の直径を表す。Ceは、エンコーダセンサー(図示せず)の解像度、すなわちエンコーダセンサー(図示せず)から1回転当たり出力されるパルスの数を表す。nは、エンコーダセンサー(図示せず)が装着されたモーターと輪との間のギア比を表す。

0059

次に、式(5)を利用して、エンコーダセンサー(図示せず)から出力されるパルスの数だけ実際に動いた各左右の輪の走行距離

0060

を算出する。

0061

式(5)において、

0062

は、i時点において、エンコーダセンサー(図示せず)から出力されるパルスの数を表す。

0063

一方、輪の中心の平均移動距離変位

0064

と変換された方位角変位

0065

とを、それぞれ次の式(6)及び式(7)を利用して推定できる。

0066

0067

式(7)において、bは左右の輪の間の距離を表す。
最終的に、移動ロボットのi時点における位置及び方位角の更新は、式(8)を利用して行われる。

0068

また、本発明はコンピュータ可読記録媒体にコンピュータ可読なコードとして具現可能である。コンピュータ可読な記録媒体は、コンピュータシステムによって可読なデータが保存される全種の記録装置を含む。コンピュータ可読記録媒体の例としては、ROM、RAM、CD−ROM磁気テープフロッピーディスク、光データ保存装置などがあり、また、キャリアウェーブ(例えば、インターネットを通じた伝送)の形態で具現されるものも含む。また、コンピュータ可読記録媒体は、ネットワークに連結されたコンピュータシステムに分散されて、分散方式でコンピュータ可読なコードが保存されて実行されうる。そして、本発明を具現するための機能的なプログラム、コード及びコードセグメントは本発明の属する技術分野のプログラマーにより容易に推論されうる。

0069

上より、天井映像獲得部210が、移動ロボットが走行する場所の天井映像を獲得する。標識検出部240が、天井映像の情報を受け取る。標識検出部240が、人工標識100の位置を天井映像から検出する。人工標識100が、第1標識110と第2標識120とを有する。第1標識110が、無反射部分113と赤外線反射部分111とを有する。第2標識120が、無反射部分121と赤外線反射部分123とを有する。赤外線反射部分111と赤外線反射部分123とが区別可能なように形成されているので(図1A図1C参照)、現在の環境が照明の暗い状態であっても、第1標識110及び第2標識120の位置と移動ロボットの位置(投影位置Rp)との相対的な位置関係を把握することが可能である。また、無反射部分113と無反射部分121とが区別可能なように形成されているので(図1A図1C参照)、現在の環境が照明の明るい状態であっても、第1標識110及び第2標識120の位置と移動ロボットの位置(投影位置Rp)との相対的な位置関係を把握することが可能である。さらに、現在の環境が照明の明るさの変化が激しい状態であっても、第1標識110及び第2標識120の位置と移動ロボットの位置(投影位置Rp)との相対的な位置関係を把握することが可能である。位置及び方位角推定部260が、人工標識100の位置の情報及びエンコーダセンサー(図示せず)により取得された情報のいずれかに基づいて、移動ロボットの位置及び方位角を推定する。

0070

したがって、暗い照明や照明の明るさの変化の激しい環境でも第1標識110及び第2標識120の位置と移動ロボットの位置(投影位置Rp)との相対的な位置関係を把握することができるので、暗い照明や照明の明るさの変化の激しい環境でも自己位置及び方位角を推定することが可能である。このため、移動ロボットを暗い照明や照明の明るさの変化の激しい環境でも適用することが可能である。

0071

また、本発明によれば、暗い照明や照明変化の激しい環境でも雑音の少ない映像処理過程を通じてリアルタイムでロボットの自己位置及び方位角を推定することが可能であるので、ロボットのキッドナッピング問題を解決することが可能である。また、移動ロボットが走行する場所の天井部分に少数の人工標識を設置し、パターン認識技法を利用して人工標識を検出することによって標識検出のための映像処理過程を簡素化することが可能である。

0072

以上、図面と明細書で最適な実施形態が開示された。ここで、特定の用語が使われたが、これは単に本発明を説明するための目的で使われたものであり、意味限定や特許請求の範囲に記載された本発明の範囲を制限するために使われたものではない。したがって、本技術分野の当業者であれば、これより多様な変形及び均等な他の実施形態が可能である点が理解できる。したがって、本発明の真の技術的保護範囲は特許請求の範囲の技術的思想により定められねばならない。

0073

本発明は、無人航空機無人車両モバイルロボット知能交通システム及び知能的車両システムなどのような知能型システム、あるいは自動化システムに広く適用されて、照明変化に関係なく人工マークが検出できるので、正確に自己位置及び方位角が推定できる。

0074

本発明に係る人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラムは、暗い照明や照明変化の激しい環境でも自己位置及び方位角を推定することができるという効果を有し、工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラム等として有用である。

図面の簡単な説明

0075

本発明で使われる人工標識の一例を示す図面である。
本発明で使われる人工標識の一例を示す図面である。
本発明で使われる人工標識の一例を示す図面である。
本発明の一実施形態による移動ロボットの自己位置及び方位角の推定装置の構成を示したブロック図である。
本発明の一実施形態による移動ロボットの自己位置及び方位角の推定方法を説明するフローチャートである。
図3におけるステップ333の細部的な動作を説明するフローチャートである。
図3におけるステップ342の細部的な動作を説明するフローチャートである。
昼に撮影された天井映像を示す図面である。
夜に撮影された天井映像と、夜に撮影された天井映像のコントラストが反転された映像とを示す図面である。
歪曲補償処理の実行前の天井映像を示す図面である。
歪曲補償処理の実行後の天井映像を示す図面である。
歪曲補償処理方法のうち光学中心点を利用したモデリング過程の実行前の天井映像を示す図面である。
歪曲補償処理方法のうち光学中心点を利用したモデリング過程の実行後の天井映像を示す図面である。
歪曲補償処理方法のうち光学中心点を利用したモデリング過程の実行後の天井映像を示す図面である。
歪曲補償処理方法のうち補間過程の実行前の天井映像を示す図面である。
歪曲補償処理方法のうち補間過程の実行後の天井映像を示す図面である。
歪曲補償処理方法のうち補間過程の実行後の天井映像を示す図面である。
前処理の実行前後の天井映像を示す図面である。
検出された人工標識の位置から移動ロボットの位置を計算する方法を説明する図面である。
検出された人工標識の位置から移動ロボットの位置を計算する方法を説明する図面である。

符号の説明

0076

210天井映像獲得部
220映像輝度比較部
230映像処理部
240標識検出部
250エンコーダ情報獲得部
260 位置及び方位角推定部
270照明制御部
280走行制御部

ページトップへ

この技術を出願した法人

この技術を発明した人物

ページトップへ

関連する挑戦したい社会課題

関連する公募課題

ページトップへ

技術視点だけで見ていませんか?

この技術の活用可能性がある分野

分野別動向を把握したい方- 事業化視点で見る -

(分野番号表示ON)※整理標準化データをもとに当社作成

ページトップへ

おススメ サービス

おススメ astavisionコンテンツ

新着 最近 公開された関連が強い技術

この 技術と関連性が強い技術

関連性が強い 技術一覧

この 技術と関連性が強い人物

関連性が強い人物一覧

この 技術と関連する社会課題

関連する挑戦したい社会課題一覧

この 技術と関連する公募課題

関連する公募課題一覧

astavision 新着記事

サイト情報について

本サービスは、国が公開している情報(公開特許公報、特許整理標準化データ等)を元に構成されています。出典元のデータには一部間違いやノイズがあり、情報の正確さについては保証致しかねます。また一時的に、各データの収録範囲や更新周期によって、一部の情報が正しく表示されないことがございます。当サイトの情報を元にした諸問題、不利益等について当方は何ら責任を負いかねることを予めご承知おきのほど宜しくお願い申し上げます。

主たる情報の出典

特許情報…特許整理標準化データ(XML編)、公開特許公報、特許公報、審決公報、Patent Map Guidance System データ