図面 (/)

技術 画像表示装置、画像表示方法、及び画像表示プログラム

出願人 ナーブ株式会社
発明者 相宅玲志多田英起
出願日 2017年6月12日 (1年11ヶ月経過) 出願番号 2018-523901
公開日 2019年2月21日 (3ヶ月経過) 公開番号 WO2017-217375
状態 未査定
技術分野 デジタル計算機のユーザインターフェイス テレビジョン受像機の構造の細部
主要キーワード 操作メニュ 高スペック 超音波発信機 空間構成 矢印状 物理法則 選択判定 光学カメラ
関連する未来課題
重要な関連分野

この項目の情報は公開日時点(2019年2月21日)のものです。
また、この項目は機械的に抽出しているため、正しく解析できていない場合があります

図面 (13)

課題・解決手段

ユーザのジェスチャによる直感的且つ誤操作が少ないユーザインタフェースを、簡素な構成で実現することができる画像表示装置等を提供する。画像表示装置は、複数の選択対象及び操作用オブジェクトを含むユーザインタフェースの画像を仮想空間内の特定の平面に配置する仮想空間構成部と、現実空間に関する情報を取得する外部情報取得部と、上記情報に基づいて現実空間に実在する特定の物体を認識する物体認識部と、特定の物体の像を仮想空間内の上記平面に配置する疑似次元化処理部と、該平面において特定の物体の像が操作用オブジェクトと接触したか否かを判定する接触判定部と、両者が接触したと判定された場合に特定の物体の像の動きが操作用オブジェクトに及ぼす作用を算出する相互作用演算部と、上記作用が及ぼされた操作用オブジェクトにより複数の選択対象のいずれが選択されたかを判定する選択判定部とを備える。

概要

背景

近年、仮想現実バーチャルリアリティ、以下「VR」とも記す)をユーザに体験させる技術が、ゲームやエンターテインメント或いは職業訓練等の様々な分野で利用されている。VRにおいては、通常、ヘッドマウントディスプレイ(以下、「HMD」とも記す)と呼ばれるメガネ型又はゴーグル型表示装置が用いられる。このHMDをユーザの頭部に装着し、HMDに内蔵された画面両眼で見ることにより、ユーザは立体感のある画像を鑑賞することができる。HMDにはジャイロセンサ加速度センサが内蔵されており、これらのセンサによって検出したユーザの頭部の動きに応じて、画面に表示する画像が変化する。それにより、ユーザは、あたかも表示された画像の中に入り込んだような体験をすることができる。

このようなVRの技術分野においては、ユーザのジェスチャにより操作を行うユーザインタフェースが研究されている。一例として、ユーザの体表に専用のセンサを取り付け、或いは、ユーザの動きを検出するための外部装置をユーザの周囲に配置することにより、HMDに対してユーザの動きに応じた操作を行う技術が知られている。

また、別の例として、HMDに表示される画面内に操作用の特定のオブジェクトを配置し、このオブジェクトに対するユーザの視点の変化を、HMDに内蔵されたジャイロセンサや加速度センサによって検出することにより、ユーザの視点の変化に応じた操作を行う技術も知られている。

さらに、別の例として、特許文献1には、仮想空間にユーザインタフェースを配置し、ユーザがこのユーザインタフェースを操作するために用いる操作部が撮像部の視野内にあり、且つ、操作部とユーザインタフェースとの位置関係が規定の位置関係にある場合に、ユーザインタフェースに対する操作があったと判断する画像処理装置が開示されている。

概要

ユーザのジェスチャによる直感的且つ誤操作が少ないユーザインタフェースを、簡素な構成で実現することができる画像表示装置等を提供する。画像表示装置は、複数の選択対象及び操作用オブジェクトを含むユーザインタフェースの画像を仮想空間内の特定の平面に配置する仮想空間構成部と、現実空間に関する情報を取得する外部情報取得部と、上記情報に基づいて現実空間に実在する特定の物体を認識する物体認識部と、特定の物体の像を仮想空間内の上記平面に配置する疑似次元化処理部と、該平面において特定の物体の像が操作用オブジェクトと接触したか否かを判定する接触判定部と、両者が接触したと判定された場合に特定の物体の像の動きが操作用オブジェクトに及ぼす作用を算出する相互作用演算部と、上記作用が及ぼされた操作用オブジェクトにより複数の選択対象のいずれが選択されたかを判定する選択判定部とを備える。

目的

本発明は上記に鑑みてなされたものであって、ユーザのジェスチャによる直感的且つ誤操作が少ないユーザインタフェースを、簡素な構成で実現することができる画像表示装置、画像表示方法、及び画像表示プログラムを提供する

効果

実績

技術文献被引用数
0件
牽制数
0件

この技術が所属する分野

ライセンス契約や譲渡などの可能性がある特許掲載中! 開放特許随時追加・更新中 詳しくはこちら

請求項1

ユーザに仮想空間を認識させるための画面表示可能な画像表示装置であって、複数の選択対象と、該複数の選択対象のいずれかを選択するための操作用オブジェクトとを含むユーザインタフェースの画像を前記仮想空間内の特定の平面に配置する仮想空間構成部と、当該画像表示装置が実在している現実空間に関する情報を取得する外部情報取得部と、前記情報に基づいて、前記現実空間に実在する特定の物体を認識する物体認識部と、前記特定の物体の像を前記仮想空間内の前記平面に配置する疑似次元化処理部と、前記平面において前記特定の物体の像が前記操作用オブジェクトと接触したか否かを判定する接触判定部と、前記特定の物体の像が前記操作用オブジェクトと接触したと判定された場合に、前記特定の物体の像の動きが前記操作用オブジェクトに及ぼす作用を算出する相互作用演算部と、前記作用が及ぼされた前記操作用オブジェクトにより前記複数の選択対象のいずれが選択されたかを判定する選択判定部と、を備える画像表示装置。

請求項2

記相互作用演算部は、前記特定の物体の像と前記操作用オブジェクトとの接触点における前記特定の物体の像の速度ベクトルに基づいて前記作用を算出する、請求項1に記載の画像表示装置。

請求項3

前記相互作用演算部は、前記特定の物体の像の前記速度ベクトルを、前記操作用オブジェクトの速度ベクトルに加算することにより前記作用を算出する、請求項2に記載の画像表示装置。

請求項4

前記選択判定部は、前記作用が及ぼされた後の前記操作用オブジェクトの速度ベクトルの絶対値が閾値以上であり、且つ、前記操作用オブジェクトの進行方向に前記複数の選択対象のいずれかが存在する場合、該進行方向に存在する選択対象が選択されたものと判定する、請求項2又は3に記載の画像表示装置。

請求項5

前記選択判定部は、前記作用が及ぼされた後の前記操作用オブジェクトが、前記複数の選択対象に対してそれぞれ設定された複数の判定領域のいずれかに位置している場合、当該位置している判定領域に対応する選択対象が選択されたものと判定する、請求項2又は3に記載の画像表示装置。

請求項6

前記仮想空間構成部は、前記複数の選択対象のいずれも選択されなかったと前記選択判定部が判定した場合、前記操作用オブジェクトを前記作用が及ぼされる前の位置に戻す、請求項2〜5のいずれか1項に記載の画像表示装置。

請求項7

当該画像表示装置の動きを検出する動き検出部をさらに備え、前記仮想空間構成部は、当該画像表示装置の動きが所定の範囲内である場合、前記ユーザインタフェースの画像を前記仮想空間に配置する、請求項1〜6のいずれか1項に記載の画像表示装置。

請求項8

前記仮想空間構成部は、当該画像表示装置の動きが前記所定の範囲を超えた場合に、前記ユーザインタフェースの画像を前記仮想空間から消去する、請求項7に記載の画像表示装置。

請求項9

前記外部情報取得部は、当該画像表示装置に内蔵されたカメラである、請求項1〜8のいずれか1項に記載の画像表示装置。

請求項10

前記複数の選択対象の各々は、当該画像表示装置に対する操作の内容を表す項目である、請求項1〜9のいずれか1項に記載の画像表示装置。

請求項11

前記複数の選択対象の各々は、2次元的に表示される図面において特定される位置である、請求項1〜9のいずれか1項に記載の画像表示装置。

請求項12

ユーザに仮想空間を認識させるための画面を表示可能な画像表示装置が実行する画像表示方法であって、複数の選択対象と、該複数の選択対象のいずれかを選択するための操作用オブジェクトとを含むユーザインタフェースの画像を前記仮想空間内の特定の平面に配置するステップ(a)と、前記画像表示装置が実在している現実空間に関する情報を取得するステップ(b)と、前記情報に基づいて、前記現実空間に実在する特定の物体を認識するステップ(c)と、前記特定の物体の像を前記仮想空間内の前記平面に配置するステップ(d)と、前記平面において前記特定の物体の像が前記操作用オブジェクトと接触したか否かを判定するステップ(e)と、前記特定の物体の像が前記操作用オブジェクトと接触したと判定された場合に、前記特定の物体の像の動きが前記操作用オブジェクトに及ぼす作用を算出するステップ(f)と、前記作用が及ぼされた前記操作用オブジェクトにより前記複数の選択対象のいずれが選択されたかを判定するステップ(g)と、を含む画像表示方法。

請求項13

ユーザに仮想空間を認識させるための画面を画像表示装置に表示させるための画像表示プログラムであって、複数の選択対象と、該複数の選択対象のいずれかを選択するための操作用オブジェクトとを含むユーザインタフェースの画像を前記仮想空間内の特定の平面に配置するステップ(a)と、前記画像表示装置が実在している現実空間に関する情報を取得するステップ(b)と、前記情報に基づいて、前記現実空間に実在する特定の物体を認識するステップ(c)と、前記特定の物体の像を前記仮想空間内の前記平面に配置するステップ(d)と、前記平面において前記特定の物体の像が前記操作用オブジェクトと接触したか否かを判定するステップ(e)と、前記特定の物体の像が前記操作用オブジェクトと接触したと判定された場合に、前記特定の物体の像の動きが前記操作用オブジェクトに及ぼす作用を算出するステップ(f)と、前記作用が及ぼされた前記操作用オブジェクトにより前記複数の選択対象のいずれが選択されたかを判定するステップ(g)と、をコンピュータに実行させる画像表示プログラム。

技術分野

0001

本発明は、仮想空間におけるユーザインタフェース表示技術に関する。

背景技術

0002

近年、仮想現実バーチャルリアリティ、以下「VR」とも記す)をユーザに体験させる技術が、ゲームやエンターテインメント或いは職業訓練等の様々な分野で利用されている。VRにおいては、通常、ヘッドマウントディスプレイ(以下、「HMD」とも記す)と呼ばれるメガネ型又はゴーグル型表示装置が用いられる。このHMDをユーザの頭部に装着し、HMDに内蔵された画面両眼で見ることにより、ユーザは立体感のある画像を鑑賞することができる。HMDにはジャイロセンサ加速度センサが内蔵されており、これらのセンサによって検出したユーザの頭部の動きに応じて、画面に表示する画像が変化する。それにより、ユーザは、あたかも表示された画像の中に入り込んだような体験をすることができる。

0003

このようなVRの技術分野においては、ユーザのジェスチャにより操作を行うユーザインタフェースが研究されている。一例として、ユーザの体表に専用のセンサを取り付け、或いは、ユーザの動きを検出するための外部装置をユーザの周囲に配置することにより、HMDに対してユーザの動きに応じた操作を行う技術が知られている。

0004

また、別の例として、HMDに表示される画面内に操作用の特定のオブジェクトを配置し、このオブジェクトに対するユーザの視点の変化を、HMDに内蔵されたジャイロセンサや加速度センサによって検出することにより、ユーザの視点の変化に応じた操作を行う技術も知られている。

0005

さらに、別の例として、特許文献1には、仮想空間にユーザインタフェースを配置し、ユーザがこのユーザインタフェースを操作するために用いる操作部が撮像部の視野内にあり、且つ、操作部とユーザインタフェースとの位置関係が規定の位置関係にある場合に、ユーザインタフェースに対する操作があったと判断する画像処理装置が開示されている。

先行技術

0006

特開2012−48656号公報

発明が解決しようとする課題

0007

しかしながら、ユーザのジェスチャを検出するために専用のセンサや外部装置を設ける場合、システム全体が大掛かりになってしまう。また、専用のセンサや外部装置により検出された信号を処理するための演算量も膨大になるため、リアルタイムな操作を行うためには高スペック演算装置が必要になってしまう。

0008

また、HMDの画面内に操作用のオブジェクトを表示しておく場合、このオブジェクトが常にユーザの視野に入ってくるため、ユーザにとっては邪魔に感じ、VR体験特有没入感が低減してしまうおそれがある。また、視点の動きによる操作はユーザにとっては直感的とは言えず、誤操作が発生してしまうおそれもある。

0009

さらに、ユーザインタフェースとして複数のアイコンが仮想空間に表示されている場合、操作部を移動させることにより各アイコンとの位置関係がその都度変化する。そのため、単純に、操作部と各アイコンとの位置関係に基づいて操作の有無を判定すると、ユーザが意図しないアイコンに対して操作がなされたものと判断されてしまうおそれがある。この点に関し、特許文献1においては、アイコンと操作部との位置関係が所定の条件を満たしている状態で選択指示が入力された場合に、当該アイコンに対する操作がなされたものと判断している。つまり、アイコンの選択と決定という2段階の処理が行われている。そのため、ユーザにとっては直感的な操作とは言い難い。

0010

本発明は上記に鑑みてなされたものであって、ユーザのジェスチャによる直感的且つ誤操作が少ないユーザインタフェースを、簡素な構成で実現することができる画像表示装置画像表示方法、及び画像表示プログラムを提供することを目的とする。

課題を解決するための手段

0011

上記課題を解決するために、本発明の一態様である画像表示装置は、ユーザに仮想空間を認識させるための画面を表示可能な画像表示装置であって、複数の選択対象と、該複数の選択対象のいずれかを選択するための操作用オブジェクトとを含むユーザインタフェースの画像を前記仮想空間内の特定の平面に配置する仮想空間構成部と、当該画像表示装置が実在している現実空間に関する情報を取得する外部情報取得部と、前記情報に基づいて、前記現実空間に実在する特定の物体を認識する物体認識部と、前記特定の物体の像を前記仮想空間内の前記平面に配置する疑似次元化処理部と、前記平面において前記特定の物体の像が前記操作用オブジェクトと接触したか否かを判定する接触判定部と、前記特定の物体の像が前記操作用オブジェクトと接触したと判定された場合に、前記特定の物体の像の動きが前記操作用オブジェクトに及ぼす作用を算出する相互作用演算部と、前記作用が及ぼされた前記操作用オブジェクトにより前記複数の選択対象のいずれが選択されたかを判定する選択判定部と、を備えるものである。

0012

上記画像表示装置において、前記相互作用演算部は、前記特定の物体の像と前記操作用オブジェクトとの接触点における前記特定の物体の像の速度ベクトルに基づいて前記作用を算出しても良い。

0013

上記画像表示装置において、前記相互作用演算部は、前記特定の物体の像の前記速度ベクトルを、前記操作用オブジェクトの速度ベクトルに加算することにより前記作用を算出しても良い。

0014

上記画像表示装置において、前記選択判定部は、前記作用が及ぼされた後の前記操作用オブジェクトの速度ベクトルの絶対値が閾値以上であり、且つ、前記操作用オブジェクトの進行方向に前記複数の選択対象のいずれかが存在する場合、該進行方向に存在する選択対象が選択されたものと判定しても良い。

0015

上記画像表示装置において、前記選択判定部は、前記作用が及ぼされた後の前記操作用オブジェクトが、前記複数の選択対象に対してそれぞれ設定された複数の判定領域のいずれかに位置している場合、当該位置している判定領域に対応する選択対象が選択されたものと判定しても良い。

0016

上記画像表示装置において、前記仮想空間構成部は、前記複数の選択対象のいずれも選択されなかったと前記選択判定部が判定した場合、前記操作用オブジェクトを前記作用が及ぼされる前の位置に戻しても良い。

0017

上記画像表示装置は、当該画像表示装置の動きを検出する動き検出部をさらに備え、前記仮想空間構成部は、当該画像表示装置の動きが所定の範囲内である場合、前記ユーザインタフェースの画像を前記仮想空間に配置しても良い。

0018

上記画像表示装置において、前記仮想空間構成部は、当該画像表示装置の動きが前記所定の範囲を超えた場合に、前記ユーザインタフェースの画像を前記仮想空間から消去しても良い。

0019

上記画像表示装置において、前記外部情報取得部は、当該画像表示装置に内蔵されたカメラであっても良い。

0020

上記画像表示装置において、前記複数の選択対象の各々は、当該画像表示装置に対する操作の内容を表す項目であっても良い。

0021

上記画像表示装置において、前記複数の選択対象の各々は、2次元的に表示される図面において特定される位置であっても良い。

0022

本発明の別の態様である画像処理方法は、ユーザに仮想空間を認識させるための画面を表示可能な画像表示装置が実行する画像表示方法であって、複数の選択対象と、該複数の選択対象のいずれかを選択するための操作用オブジェクトとを含むユーザインタフェースの画像を前記仮想空間内の特定の平面に配置するステップ(a)と、前記画像表示装置が実在している現実空間に関する情報を取得するステップ(b)と、前記情報に基づいて、前記現実空間に実在する特定の物体を認識するステップ(c)と、前記特定の物体の像を前記仮想空間内の前記平面に配置するステップ(d)と、前記平面において前記特定の物体の像が前記操作用オブジェクトと接触したか否かを判定するステップ(e)と、前記特定の物体の像が前記操作用オブジェクトと接触したと判定された場合に、前記特定の物体の像の動きが前記操作用オブジェクトに及ぼす作用を算出するステップ(f)と、前記作用が及ぼされた前記操作用オブジェクトにより前記複数の選択対象のいずれが選択されたかを判定するステップ(g)と、を含むものである。

0023

本発明のさらに別の態様である画像処理プログラムは、ユーザに仮想空間を認識させるための画面を画像表示装置に表示させるための画像表示プログラムであって、複数の選択対象と、該複数の選択対象のいずれかを選択するための操作用オブジェクトとを含むユーザインタフェースの画像を前記仮想空間内の特定の平面に配置するステップ(a)と、前記画像表示装置が実在している現実空間に関する情報を取得するステップ(b)と、前記情報に基づいて、前記現実空間に実在する特定の物体を認識するステップ(c)と、前記特定の物体の像を前記仮想空間内の前記平面に配置するステップ(d)と、前記平面において前記特定の物体の像が前記操作用オブジェクトと接触したか否かを判定するステップ(e)と、前記特定の物体の像が前記操作用オブジェクトと接触したと判定された場合に、前記特定の物体の像の動きが前記操作用オブジェクトに及ぼす作用を算出するステップ(f)と、前記作用が及ぼされた前記操作用オブジェクトにより前記複数の選択対象のいずれが選択されたかを判定するステップ(g)と、をコンピュータに実行させるものである。

発明の効果

0024

本発明によれば、仮想空間内の特定の平面にユーザインタフェースの画像を配置すると共に、現実空間に実在する特定の物体の像を上記平面に配置し、該物体の像により、ユーザインタフェースに含まれる操作用オブジェクトを介して複数の選択対象に対する選択を行うので、現実空間におけるユーザのジェスチャによる直感的且つ誤操作が少ないユーザインタフェースを簡素な構成で実現することが可能となる。

図面の簡単な説明

0025

図1は、本発明の第1の実施形態に係る画像表示装置の概略構成を示すブロック図である。
図2は、画像表示装置をユーザに装着させた状態を示す模式図である。
図3は、図1に示す表示部に表示される画面の例を示す模式図である。
図4は、図3に示す画面に対応する仮想空間の例を示す模式図である。
図5は、操作メニューが表示された画面の例を示す模式図である。
図6は、図1に示す画像表示装置の動作を示すフローチャートである。
図7は、メニューの選択判定処理を示すフローチャートである。
図8は、メニューの選択判定処理を説明するための模式図である。
図9は、本発明の第1の実施形態の変形例におけるメニューの選択判定処理を示すフローチャートである。
図10は、本発明の第2の実施形態に係る画像表示装置の動作を示すフローチャートである。
図11は、操作用地図を例示する模式図である。
図12は、地図上の移動先判定処理を示すフローチャートである。

実施例

0026

以下、本発明の実施形態に係る表示装置について、図面を参照しながら説明する。なお、これらの実施形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。

0027

(第1の実施形態)
図1は、本発明の第1の実施形態に係る画像表示装置の概略構成を示すブロック図である。本実施形態に係る画像表示装置1は、ユーザに両眼で画面を見させることにより、3次元的な仮想空間を認識させる装置である。図1に示すように、画像表示装置1は、画面が表示される表示部11と、記憶部12と、各種演算処理を行う演算部13と、当該画像表示装置1の外部に関する情報(以下、外部情報という)を取得する外部情報取得部14と、画像表示装置1の動きを検出する動き検出部15とを備える。

0028

図2は、画像表示装置1をユーザ2に装着させた状態を示す模式図である。画像表示装置1は、例えば図2に示すように、スマートフォン携帯情報端末(PDA)、携帯型ゲーム装置のようなディスプレイ及びカメラを備えた汎用の表示装置3をホルダー4に取り付けることにより構成することができる。この場合、表示装置3は、表面に設けられたディスプレイをホルダー4の内側に向け、背面に設けられたカメラ5をホルダー4の外側に向けた状態で取り付けられる。ホルダー4の内部には、ユーザの左右の眼に対応する位置にレンズがそれぞれ設けられており、ユーザ2は、これらのレンズを通して表示装置3のディスプレイを見る。また、ユーザ2は、ホルダー4を頭部に装着することにより、画像表示装置1に表示される画面をハンズフリーで見ることができる。

0029

もっとも、表示装置3及びホルダー4の外観は、図2に示すものに限定されない。例えば、ホルダー4の代わりに、レンズが内蔵されたシンプル箱型のホルダーを用いても良い。また、ディスプレイや演算装置やホルダーが一体化された専用の画像表示装置を用いても良い。このような専用の画像表示装置は、ヘッドマウントディスプレイとも呼ばれる。

0030

再び図1を参照すると、表示部11は、例えば液晶又は有機EL(エレクトロルミネッセンス)によって形成された表示パネル及び駆動部を含むディスプレイである。

0031

記憶部12は、例えばROMやRAMといった半導体メモリ等のコンピュータ読取可能な記憶媒体である。記憶部12は、オペレーティングシステムプログラム及びドライバプログラムに加えて、各種機能を実行するアプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を記憶するプログラム記憶部121と、表示部11に表示させるコンテンツ静止画動画)の画像データを記憶する画像データ記憶部122と、コンテンツの表示中に入力操作を行う際に用いられるユーザインタフェースの画像のデータを記憶するオブジェクト記憶部123とを含む。この他、記憶部12は、各種アプリケーションの実行中に出力される音声効果音の音声データを記憶しても良い。

0032

演算部13は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いて構成され、プログラム記憶部121に記憶された各種プログラムを読み込むことにより、画像表示装置1の各部を統括的に制御すると共に、種々の画像を表示するための各種演算処理を実行する。演算部13の詳細な構成については後述する。

0033

外部情報取得部14は、画像表示装置1が実在している現実空間に関する情報を取得する。外部情報取得部14の構成は、現実空間に実在する物体の位置や動きを検出可能な構成であれば特に限定されず、例えば光学カメラ赤外線カメラ超音波発信機及び受信機等を外部情報取得部14として用いることができる。本実施形態においては、表示装置3に内蔵されたカメラ5を外部情報取得部14として用いる。

0034

動き検出部15は、例えばジャイロセンサ及び加速度センサを含み、画像表示装置1の動きを検出する。この動き検出部15の検出結果に基づいて、画像表示装置1は、ユーザ2の頭部の状態(静止しているか否か)や、ユーザ2の視線方向(上方、下方)や、ユーザ2の視線方向の相対的な変化等を検知することができる。

0035

次に、演算部13の詳細な構成について説明する。演算部13は、プログラム記憶部121に記憶された画像表示プログラムを読み込むことにより、3次元的に構成された仮想空間をユーザ2に認識させる画面を表示部11に表示させると共に、ユーザ2のジェスチャによる入力操作を受け付ける動作を実行する。

0036

ここで、図3は、表示部11に表示される画面の例を示す模式図である。図4は、図3に示す画面に対応する仮想空間の例を示す模式図である。静止画又は動画のコンテンツを仮想空間としての表示する際には、図3に示すように、表示部11の表示パネルを2つの領域に分け、互いに視差を設けた2つの画面11a、11bをこれらの領域に表示する。ユーザ2は、画面11a、11bを左右の眼でそれぞれ見ることにより、図4に示すような3次元的な画像(即ち、仮想空間)を認識することができる。

0037

図1に示すように、演算部13は、動き判定部131と、仮想空間構成部132と、物体認識部133と、疑似3次元化処理部134と、仮想空間表示制御部135と、接触判定部136と、相互作用演算部137と、選択判定部138、操作実行部139とを備える。

0038

動き判定部131は、動き検出部15から出力された検出信号に基づいて、ユーザ2の頭部の動きを判定する。具体的には、動き判定部131は、ユーザの頭部が静止している否か、及び、頭部が動いている場合には頭部をどの方向に向けたか、といったことを判定する。

0039

仮想空間構成部132は、ユーザに認識させる仮想空間におけるオブジェクトの配置等を行う。詳細には、仮想空間構成部132は、画像データ記憶部122から画像データを読み出し、ユーザの頭部の状態に応じて、画像データによって表される画像全体から、一部の領域(ユーザの視野の範囲内の領域)を切り出したり、画像内のオブジェクトの奥行き感を変化させたりする。

0040

また、仮想空間構成部132は、ユーザがジェスチャによる操作を行う際に使用されるユーザインタフェースの画像データをオブジェクト記憶部123から読み出し、このユーザインタフェースの画像を仮想空間内の特定の平面に配置する。

0041

図5は、ユーザインタフェースが表示された画面の例を示す模式図である。図5においては、ユーザインタフェースとして操作メニュー16が表示されている。操作メニュー16は、選択対象である複数のメニュー項目16a〜16dと、これらの選択対象のいずれかを選択する際に用いられる操作用オブジェクト17とを含む。各メニュー項目16a〜16dは、画像処理装置1に対する操作の内容(メニューA〜D)を表している。また、操作用オブジェクト17は、ユーザが仮想的に操作することにより所望のメニュー項目を選択するためのツールである。本実施形態においては、円形状のアイコンを操作用オブジェクト17として表示しているが、操作用オブジェクトの形状やサイズは特に限定されない。例えば、棒状や矢印状など、所望の形状及びサイズのアイコンを操作用オブジェクトとして用いても良い。

0042

物体認識部133は、外部情報取得部14によって取得された外部情報に基づいて、現実空間に実在する特定の物体を認識する。上述したように、外部情報取得部14としてカメラ5(図2参照)を用いる場合、物体認識部133は、カメラ5が撮像することにより取得した現実空間の画像に対する画像処理により、予め設定された特徴を有する物体を認識する。認識対象とする特定の物体は、ユーザ2の手や指であっても良いし、スタイラスペンや棒などの物体であっても良い。

0043

特定の物体を認識する際に用いられる特徴は、認識対象に応じて予め設定される。例えばユーザ2の手や指を認識する場合、物体認識部133は、例えば、肌色の範囲に含まれる色特徴量(R、G、Bの各画素値色比色差等)を有する画素を抽出し、これらの画素が所定数以上集まっている領域を、指や手が写った領域として抽出する。或いは、抽出した画素が集まっている領域の面積周囲長に基づいて、指や手が写った領域を抽出しても良い。

0044

疑似3次元化処理部134は、物体認識部133が認識した特定の物体の像を仮想空間内の特定の平面に配置する処理を実行する。具体的には、特定の物体の像をユーザインタフェースの画像と同じ平面に配置する。詳細には、疑似3次元化処理部134は、特定の物体の像を含む2次元画像を生成し、この2次元画像が仮想空間においてユーザインタフェースの画像が表示される平面と同じ奥行き感となるように視差を設定することにより、当該物体の像があたかも3次元的な仮想空間の中のある平面に存在しているようにユーザに認識させる処理を行う。

0045

仮想空間表示制御部135は、仮想空間構成部132が構成した仮想空間に対し、疑似3次元化処理部134が生成した2次元画像を合成して表示部11に表示させる。それにより、例えば図5に示すように、操作メニュー16に対してユーザの指の像(以下、指画像という)18が重畳して表示される。

0046

接触判定部136は、ユーザインタフェースの画像(例えば操作メニュー16)において、物体認識部133が認識した特定の物体の像(例えば指画像18)と操作用オブジェクトとが接触しているか否かを判定する。

0047

相互作用演算部137は、操作用オブジェクトと特定の物体の像とが接触していると判定された場合に、特定の物体の像の動きが操作用オブジェクトに及ぼす作用を算出する。

0048

選択判定部138は、相互作用演算部137が算出した作用に基づき、操作用オブジェクトにより複数の選択対象のいずれが選択されたかを判定する。例えば図5において指画像18を動かすことにより操作用オブジェクト17と接触させ、さらに指画像18を図の左上方向に動かした作用により操作用オブジェクト17を移動させ、その結果、操作用オブジェクト17がメニュー項目16aの象限内の所定領域に入った場合、メニュー項目16a(即ち、「メニューA」)が選択されたものと判定される。

0049

操作実行部139は、複数の選択対象のいずれかが選択されたと判定された場合に、選択された選択対象に応じた操作を実行する。操作の内容は、画像表示装置1において実行可能な操作であれば特に限定されない。具体例として、画像表示オンオフを切り替える操作や、表示中の画像を別の画像に切り替える操作等が挙げられる。

0050

次に、画像表示装置1の動作について説明する。図6は、画像表示装置1の動作を示すフローチャートであり、仮想空間の画像表示プログラムの実行中にユーザのジェスチャによる入力操作を受け付ける動作を示している。以下の説明においては、ユーザインタフェースの画像として、図5に示す操作メニュー16が表示されるものとする。

0051

ステップS101において、演算部13は、操作メニュー16の表示を待機する。
続くステップS102において、演算部13は、ユーザの頭部が静止しているか否かを判定する。ここで、頭部が静止しているとは、ユーザの頭部が完全に動いていない状態の他、頭部が僅かに動いている場合を含む。詳細には、動き判定部131が、動き検出部15から出力された検出信号に基づいて、画像表示装置1(即ち頭部)の加速度及び角加速度が所定値以下であるか否かを判定する。加速度及び角加速度が所定値を超える場合、動き判定部131は、ユーザの頭部が静止していないと判定する(ステップS102:No)。この場合、演算部13の動作はステップS101に戻り、引き続き操作メニュー表示を待機する。

0052

一方、演算部13は、ユーザの頭部が静止していると判定した場合(ステップS102:Yes)、続いて、ユーザがカメラ5(図2参照)の前に手をかざしているか否かを判定する(ステップS103)。詳細には、物体認識部133が、カメラ5によって取得された画像に対する画像処理により、手(肌色)の色特徴量を有する画素が所定数以上集まっている領域が存在するか否かを判定する。手の色特徴量を有する画素が所定数以上集まっている領域が存在しない場合、物体認識部133は、ユーザが手をかざしていないと判定する(ステップS103:No)。この場合、演算部13の動作はステップS101に戻る。

0053

一方、演算部13は、ユーザが手をかざしていると判定した場合(ステップS103:Yes)、操作メニュー16を表示部11に表示する(ステップS104)。なお、この間にユーザの頭部が動いた場合、演算部13は、ユーザの頭部の動き(即ち、ユーザの視線方向)に追従するように、操作メニュー16を表示する。ユーザの視線方向が変化しているにもかかわらず、操作メニュー16が背景の仮想空間に対して固定されていると、ユーザの視野から操作メニュー16が外れてしまい、これから操作を行おうとするユーザにとって不自然な画面になってしまうからである。

0054

なお、ステップS103、S104においては、カメラ5に対してユーザが手をかざすことを、操作メニュー16を表示させるトリガーとしているが、手の他にも、例えばスタイラスペンや棒などの予め設定された物体をカメラ5の前にかざすことをトリガーとしても良い。

0055

続くステップS105において、演算部13は、ユーザの頭部が静止しているか否かを再度判定する。演算部13は、ユーザの頭部が静止していないと判定した場合(ステップS105:No)、操作メニュー16を消去する(ステップS106)。その後、演算部13の動作はステップS101に戻る。

0056

ここで、ステップS101、S105において、ユーザの頭部が静止していることを操作メニュー表示の条件とするのは、一般に、ユーザは、頭部を大きく動かしている状態で画像表示装置1の操作を行うことはないからである。逆に言えば、ユーザが頭部を大きく動かしているということは、ユーザは鑑賞中の仮想空間に没入している最中であると考えられ、そのようなときに操作メニュー16を表示すると、ユーザは煩わしく感じてしまうからである。

0057

演算部13は、ユーザの頭部が静止していると判定した場合(ステップS105:Yes)、現実空間における特定の物体の認識処理を実行する(ステップS107)。以下においては、特定の物体として、ユーザの指を認識するものとする。詳細には、外部情報取得部14が取得した現実空間の画像に対し、物体認識部133が画像処理を行うことにより、肌色の色特徴量を有する画素が所定数以上集まっている領域を、ユーザの指が写った領域として抽出する。また、疑似3次元化処理部134が、抽出された領域の2次元画像(即ち、指画像18)を生成し、仮想空間表示制御部135が、該2次元画像を操作メニュー16に重畳して表示部11に表示させる。

0058

続くステップS108において、演算部13は、特定の物体の像が操作用オブジェクトに接触しているか否かを判定する。詳細には、接触判定部136が、操作用オブジェクト17の画素領域に対して指画像18の画素領域の一部が重なっているか否かを判定する。両者が重なっていない場合、接触判定部136は、指画像18は操作用オブジェクト17に接触していないと判定する(ステップS108:No)。この場合、演算部13の動作はステップS104に戻る。

0059

一方、演算部13は、物体の像が操作用オブジェクトに接触していると判定した場合(ステップS108:Yes)、メニューの選択判定処理を実行する(ステップS109)。

0060

図7は、メニューの選択判定処理を示すフローチャートである。また、図8は、メニューの選択判定処理を説明するための模式図である。
まず、ステップS121において、相互作用演算部137は、操作用オブジェクトの速度ベクトルを初期化する。

0061

続くステップS122において、相互作用演算部137は、物体の像のうち、操作用オブジェクトに接触している部分から、物体の像の速度ベクトルを算出する。例えば図8の場合、ユーザが自身の指を動かすことにより、指画像18が破線の矢印の方向に移動し、点Pにおいて操作用オブジェクト17と接触すると、この点Pにおける指画像18の速度ベクトルv1が算出される。

0062

続くステップS123において、相互作用演算部137は、ステップS122において算出された速度ベクトルを操作用オブジェクトの速度ベクトルとして与える。例えば図8の場合、指画像18の速度ベクトルv1と同じ方向及び量を有する速度ベクトルv2が操作用オブジェクト17に与えられる。

0063

続くステップS124において、相互作用演算部137は、新たに速度ベクトルが与えられた操作用オブジェクトの位置を更新する。例えば図8の場合、速度ベクトルv2が与えられることにより、操作用オブジェクト17は破線で示す位置に移動する。

0064

なお、図8においては、円形状の操作用オブジェクト17を表示しているため、速度ベクトルv2が与えられても、操作用オブジェクト17の向きは変化せずに位置のみが変化している。しかし、操作用オブジェクトとして例えば棒状のオブジェクトを用いる場合、速度ベクトルが与えられた位置に応じて操作用オブジェクトを回転させるなどして向きを変化させても良い。要は、指画像18との接触点に速度ベクトルが与えられた場合の操作用オブジェクトの位置や向きを、一般的な物理法則に従って算出すれば良い。また、この際に、操作用オブジェクト17の位置を慣性的に変化させることとしても良い。それにより、ユーザは、より自然な感覚で操作用オブジェクト17を操作することができる。

0065

続くステップS125において、選択判定部138は、操作用オブジェクトの速度ベクトルの方向に特定のメニュー項目の判定領域が存在し、且つ該速度ベクトルの絶対値が閾値以上であるか否かを判定する。ここで、判定領域とは、ユーザインタフェースの画像内の領域であって、特定のメニュー項目が選択されたか否かの判定を行うために予め設定された領域のことである。判定領域としては、メニュー項目がテキスト表示された領域や、メニュー項目を表すアイコンなど、所望の領域を設定することができる。図8においては、メニュー項目16a〜16dの表示領域の近傍に、判定領域19a〜19dをそれぞれ設けている。

0066

操作用オブジェクトの速度ベクトルの方向に特定のメニュー項目の判定領域が存在し、且つ該速度ベクトルの絶対値が閾値以上である場合(ステップS125:Yes)、選択判定部138は、当該判定領域に対応するメニュー項目が選択されたと判定する(ステップS126)。例えば、図8の場合、速度ベクトルv2の延長線上に判定領域19aが存在する。この場合、判定領域19aに対応するメニュー項目16aが選択されたと判定される。その後、処理はメインルーチンに戻る。

0067

一方、操作用オブジェクトの速度ベクトルの方向に特定のメニュー項目の判定領域が存在しないか、又は、該速度ベクトルの絶対値が閾値未満である場合(ステップS125:No)、選択判定部138は、メニュー項目の選択に失敗したと判定する(ステップS127)。この場合、選択判定部138はさらに、操作用オブジェクトを初期位置に戻す(ステップS128)。例えば、図8において、指画像18に押された操作用オブジェクト17が速度ベクトルv2の方向に移動したものの、判定領域19aに届かなった場合、操作用オブジェクト17は元の位置に戻って表示される。その後、処理はメインルーチンに戻る。

0068

ステップS109に続くステップS110において、演算部13は、メニュー項目の選択に成功したか否かを判定する。メニュー項目の選択に成功した場合(ステップS110:Yes)、ユーザのジェスチャによる入力操作の受け付けは終了する。この場合、演算部13は、選択されたメニュー項目に応じた動作を実行する。一方、メニュー項目の選択に失敗した場合(ステップS110:No)、演算部13の動作はステップS104に戻る。

0069

以上説明したように、本発明の第1の実施形態によれば、ユーザが頭部をほぼ静止させた場合に操作メニューを仮想空間に表示させるので、入力操作を開始しようとするユーザの意図に沿った表示を行うことができる。つまり、ユーザが意図せずに画像表示装置1のカメラ5(図2参照)に手をかざしてしまったり、手に類似する物体が偶然カメラ5に写り込んでしまったりした場合であっても、操作メニューは表示されないので、ユーザは、操作メニューに妨げられることなく仮想空間の鑑賞を継続することができる。

0070

また、上記実施形態によれば、現実空間に存在する物体の像によって選択対象を直接選択するのではなく、操作用オブジェクトを介して選択対象を選択するので、誤操作を低減することができる。例えば図8において、仮に、指画像18によって直接触った判定領域のメニュー項目が選択されることとすると、判定領域19aに触れようとして指画像18を動かした際に、別の判定領域19dに触れてしまうおそれがある。それに対し、上記実施形態においては、最終的に、操作用オブジェクト17の位置や動きによって選択対象(判定領域)が決定される。従って、ユーザは、指画像18と選択対象の判定領域との位置関係を考慮することなく、簡単に正確な操作を行うことができる。

0071

また、上記実施形態によれば、指画像18の動きを操作用オブジェクト17に作用させる演算処理を行うので、ユーザは、あたかも自身の指で操作用オブジェクト17を操作したようなリアルな感覚を得ることができる。それにより、ユーザは、直感的な操作を行うことができ、意図しない操作を低減することが可能となる。

0072

また、上記実施形態によれば、ユーザインタフェースの画像を仮想空間内の特定の平面に配置すると共に、ジェスチャによる操作を行うための特定の物体(例えばユーザの指)の像を同じ平面に配置するので、ユーザは、操作用オブジェクトを触るような感覚で、直感的な操作を行うことができる。例えば、上記実施形態において、ユーザは、円形状の操作用オブジェクト17を、あたかもおはじきを押したりはじいたりする感覚で操作することができる。

0073

また、上記実施形態によれば、ユーザインタフェースの画像及び特定の物体の像を2次元的に表示するので、これらの表示に要する演算量や、いずれの選択対象が選択されたかの判定処理に要する演算量を抑制することも可能となる。従って、スマートフォン等の汎用の表示装置を利用する場合であっても高速な処理が可能となり、ユーザにとっても、リアルタイムな感覚での入力操作が可能となる。

0074

また、上記実施形態によれば、ユーザのジェスチャによる入力操作に関する情報を、画像表示装置1に設けられた外部情報取得部14により取得する。つまり、従来のように、ユーザのジェスチャを検出するための専用のセンサや外部デバイスを設ける必要がなくなる。それにより、システム全体の構成を簡素化することができるので、コストを大幅に抑制することが可能になる。また、専用のセンサ等から入力された情報を解析するための演算も不要になる。従って、スマートフォン等の小型の表示装置を利用する場合であっても、ジェスチャによるリアルタイムな入力操作が可能な画像表示装置を実現することが可能となる。

0075

また、上記実施形態によれば、外部情報取得部14により取得された外部情報のうち、予め設定された特定の物体に関する情報のみを仮想空間に表示するので、ユーザは、現実空間に存在する操作に関与しない物体に惑わされることなく、所望の操作を行うことができる。

0076

なお、上記実施形態においては、ユーザが頭部を動かしたことを、操作メニューを消去するトリガーとしているが(図6のステップS105、S106参照)、操作メニューを消去するトリガーはこれに限定されない。例えば、「操作メニューを消去する」というメニュー項目を操作メニュー内に設けても良い。或いは、操作用オブジェクト17に対して特定の操作が行われた際に、操作メニューを消去することとしても良い。一例として、操作メニュー16から操作用オブジェクト17が飛び出すほど強くはじく操作が挙げられる。

0077

(変形例)
次に、本発明の第1の実施形態の変形例について説明する。図9は、本変形例におけるメニューの選択判定処理を示すフローチャートである。なお、本変形例において用いられる画像表示装置の構成及び動作は、上記第1の実施形態と同様である(図1及び図6参照)。また、図9のステップS121〜S124における処理も、上記第1の実施形態と同様である(図7参照)。

0078

ステップS124に続くステップS131において、選択判定部138は、操作用オブジェクトが特定のメニュー項目の判定領域に存在するか否かを判定する。例えば図8に示すように、操作用オブジェクト17が破線に示す位置に表示されている場合、操作用オブジェクト17はメニュー項目16aの判定領域19aに存在すると判定される。

0079

操作用オブジェクトが特定のメニュー項目の判定領域に存在する場合(ステップS131:Yes)、選択判定部138は、操作用オブジェクトが存在する判定領域に対応するメニュー項目が選択されたと判定する(ステップS132)。その後、処理はメインルーチンに戻る。

0080

一方、操作用オブジェクトがいずれのメニュー項目の判定領域にも存在しない場合(ステップS131:No)、選択判定部138はさらに、物体の像(図8においては指画像18)が操作用オブジェクトから離れたか否かを判定する(ステップS133)。

0081

物体の像が操作用オブジェクトから離れていない場合(ステップS133:No)、処理はステップS122に戻る。この場合、物体の像の動きに合わせて操作用オブジェクトがさらに移動させられる(ステップS122〜S124参照)。

0082

一方、物体の像が操作用オブジェクトから離れた場合(ステップS133:Yes)、選択判定部138は、メニュー項目の選択に失敗したと判定する(ステップS134)。この場合、選択判定部138はさらに、操作用オブジェクトの位置を初期位置に戻す(ステップS135)。その後、処理はメインルーチンに戻る。

0083

以上説明したように、本変形例によれば、操作用オブジェクトが複数の判定領域のいずれかに入るまで、物体の像によって操作用オブジェクトを運ぶので、ユーザは、所望のメニュー項目をより確実に選択することが可能となる。

0084

(第2の実施形態)
次に、本発明の第2の実施形態を説明する。図10は、本発明の第2の実施形態に係る画像表示装置の動作を示すフローチャートであり、仮想空間の画像表示プログラムの実行中にユーザのジェスチャによる入力操作を受け付ける動作を示している。また、図11は、本実施形態において表示されるユーザインタフェースの画像の例を示す模式図である。なお、本実施形態に係る画像表示装置の構成は、図1に示すものと同様である。

0085

図11に示すように、本実施形態においては、ユーザインタフェースとして操作用地図20を例示している。この操作用地図20は、地図21及び操作用オブジェクト22を含む。操作用地図20においては、不動産物件が選択対象となっており、地図21に表示された各物件が占める領域が選択対象の判定領域となっている。また、操作用オブジェクト22としては、上記第1の実施形態と同様に円形状のアイコンを示しているが、当然ながら、棒状や矢印状など所望の形状及びサイズを有するアイコンを操作用オブジェクト22として用いても良い。

0086

図10を参照しながら、本実施形態における画像表示装置の動作について説明する。
まず、ステップS201において、演算部13は、操作用地図20の表示を待機する。続くステップS202及びS203の動作は、図6に示すステップS102及びS103と同様である。

0087

演算部13は、ステップS203においてユーザが手をかざしていると判定した場合(ステップS203:Yes)、図11に例示する操作用地図20を表示部11に表示する(ステップS204)。

0088

続くステップS205〜ステップS208の動作は、図6に示すステップS105〜S108と同様である。なお、ステップS206においては、ステップS204において表示された操作用地図20を消去する。

0089

演算部13は、ステップS208において物体の像(図11においては指画像18)が操作用オブジェクト22に接触していると判定した場合(ステップS208:Yes)、操作用オブジェクト22の地図21上における移動先の判定処理を実行する(ステップS209)。

0090

図12は、地図21上の移動先の判定処理を示すフローチャートである。なお、ステップS221〜S224の処理は、図7に示すステップS121〜S124と同様である。

0091

ステップS224に続くステップS225において、選択判定部138は、物体の像(指画像18)から操作用オブジェクト22が離れたか否かを判定する。物体の像が操作用オブジェクト22から離れていない場合(ステップS225:No)、処理はステップS222に戻る。

0092

一方、物体の像が操作用オブジェクト22から離れた場合(ステップS225:Yes)、選択判定部138はさらに、操作用オブジェクト22が地図21上に存在するか否かを判定する(ステップS226)。

0093

操作用オブジェクト22が地図21上に存在する場合(ステップS226:Yes)、選択判定部138は、操作用オブジェクト22が位置している地図21上の特定の地点が選択されたと判定する(ステップS227)。その後、処理はメインルーチンに戻る。

0094

一方、操作用オブジェクト22が地図21上に存在しない場合(ステップS226:No)、例えば、操作用オブジェクト22が、地図21の周囲の余白領域23に位置している場合、選択判定部138は、移動先の選択に失敗したと判定する(ステップS228)。その後、処理はメインルーチンに戻る。

0095

ステップS209に続くステップS210において、演算部13は、地図21上の移動先の選択に成功したか否かを判定する。移動先の選択に成功した場合(ステップS210:Yes)、ユーザのジェスチャによる入力操作の受け付けは終了する。この場合、演算部13は、選択された移動先を仮想空間に表示する処理を実行する。一方、移動先の選択に失敗した場合(ステップS210:No)、演算部13の動作はステップS204に戻る。

0096

以上説明したように、本発明の第2の実施形態によれば、地図のように、判定領域がランダムに配置されている場合や、判定領域の広さが一定でない場合であっても、直感的な操作を行うことができ、誤操作を低減することが可能となる。

0097

なお、第2の実施形態においては、地図上に示された物件を選択する場合を説明したが、2次元的に表示される図面上で特定可能な位置(領域や地点)であれば、本実施形態を適用することができる。具体的には、家屋間取り図に表示された特定の部屋を選択する場合や、ビルの縦断面図において特定のフロアを選択する場合が挙げられる。

0098

本発明は、上記第1及び第2の実施形態並びに変形例に限定されるものではなく、第1及び第2の実施形態並びに変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、第1及び第2の実施形態並びに変形例に示した全構成要素からいくつかの構成要素を除外して形成しても良いし、第1及び第2の実施形態並びに変形例に示した構成要素を適宜組み合わせて形成しても良い。

0099

1画像表示装置
2 ユーザ
3表示装置
4ホルダー
5カメラ
11 表示部
11a、11b画面
12 記憶部
13演算部
14外部情報取得部
15動き検出部
16操作メニュー
16a〜16dメニュー項目
17、22操作用オブジェクト
18指画像
19a〜19d判定領域
20操作用地図
21 地図
23余白領域
121プログラム記憶部
122画像データ記憶部
123オブジェクト記憶部
131動き判定部
132仮想空間構成部
133物体認識部
134疑似3次元化処理部
135仮想空間表示制御部
136接触判定部
137相互作用演算部
138選択判定部
139操作実行部

ページトップへ

この技術を出願した法人

この技術を発明した人物

ページトップへ

関連する挑戦したい社会課題

関連する公募課題

ページトップへ

技術視点だけで見ていませんか?

この技術の活用可能性がある分野

分野別動向を把握したい方- 事業化視点で見る -

(分野番号表示ON)※整理標準化データをもとに当社作成

ページトップへ

おススメ サービス

おススメ astavisionコンテンツ

新着 最近 公開された関連が強い技術

この 技術と関連性が強い人物

関連性が強い人物一覧

この 技術と関連する社会課題

関連する挑戦したい社会課題一覧

この 技術と関連する公募課題

関連する公募課題一覧

astavision 新着記事

サイト情報について

本サービスは、国が公開している情報(公開特許公報、特許整理標準化データ等)を元に構成されています。出典元のデータには一部間違いやノイズがあり、情報の正確さについては保証致しかねます。また一時的に、各データの収録範囲や更新周期によって、一部の情報が正しく表示されないことがございます。当サイトの情報を元にした諸問題、不利益等について当方は何ら責任を負いかねることを予めご承知おきのほど宜しくお願い申し上げます。

主たる情報の出典

特許情報…特許整理標準化データ(XML編)、公開特許公報、特許公報、審決公報、Patent Map Guidance System データ