図面 (/)

技術 仮想現実システム、及び、情報処理システム

出願人 ブレイニー株式会社
発明者 澁川浩史田中雅史
出願日 2016年7月15日 (3年1ヶ月経過) 出願番号 2016-567869
公開日 2018年7月12日 (1年1ヶ月経過) 公開番号 WO2018-011988
状態 特許登録済
技術分野 金融・保険関連業務,支払い・決済 デジタル計算機のユーザインターフェイス
主要キーワード 装着用装置 診断処理装置 網膜データ 実現システム 照合処理結果 生体データ取得 キャラクター情報 基本状態
関連する未来課題
重要な関連分野

この項目の情報は公開日時点(2018年7月12日)のものです。
また、この項目は機械的に抽出しているため、正しく解析できていない場合があります

図面 (20)

課題・解決手段

仮想現実システムは、情報処理装置と、仮想現実ヘッドセットと、生体データ取得装置と、第1及び第2のセンサとを含む。情報処理装置は、コントローラから受信した指示に応じて、仮想現実コンテンツを生成する。仮想現実ヘッドセットは、ユーザに装着され、情報処理装置から受信した仮想現実コンテンツをユーザに表示する。生体データ取得装置は、ユーザの生体データを取得する。第1のセンサは、生体データ取得装置の第1の位置情報と第1の方向情報とを生成する。第2のセンサは、仮想現実ヘッドセットの第2の位置情報と第2の方向情報とを生成する。情報処理装置は、第1及び第2の位置情報と第1及び第2の方向情報に基づいて、仮想現実ヘッドセットを装着しているユーザに生体データ取得装置の位置及び方向を認識させる画像を仮想現実コンテンツに付加する。

概要

背景

近年、仮想現実(Virtual reality:以下、VRとする)に関するシステムの開発が盛んに行われている。一般的には、ユーザがVRのコンテンツ体験する際、ユーザは頭部にゴーグル形状の装置(以下、VRヘッドセットとする)を装着する。VRヘッドセットには、左右それぞれの眼に対応した2つのディスプレイが備えられ、それぞれのディスプレイには、映像を見たユーザが奥行き感(又は飛び出し感)を得るための視差のある映像が表示される。

また、VRヘッドセットは位置センサ加速度センサジャイロセンサなどを搭載し、ユーザの頭の位置又は向きが変化する毎に、あたかもユーザの頭の位置又は向きが変化した方向にユーザの視界が移動したかのように、2つのディスプレイに表示する映像を変化させる。これにより、ユーザは、VRにおいて実際に自分の頭を動かしているような感覚を得ることができる。

概要

仮想現実システムは、情報処理装置と、仮想現実ヘッドセットと、生体データ取得装置と、第1及び第2のセンサとを含む。情報処理装置は、コントローラから受信した指示に応じて、仮想現実コンテンツを生成する。仮想現実ヘッドセットは、ユーザに装着され、情報処理装置から受信した仮想現実コンテンツをユーザに表示する。生体データ取得装置は、ユーザの生体データを取得する。第1のセンサは、生体データ取得装置の第1の位置情報と第1の方向情報とを生成する。第2のセンサは、仮想現実ヘッドセットの第2の位置情報と第2の方向情報とを生成する。情報処理装置は、第1及び第2の位置情報と第1及び第2の方向情報に基づいて、仮想現実ヘッドセットを装着しているユーザに生体データ取得装置の位置及び方向を認識させる画像を仮想現実コンテンツに付加する。

目的

本発明は上記事情を考慮してなされたものであり、VRヘッドセットを用いるユーザに対して決済を容易にするとともに、決済の安全性を確保するVRシステムを提供する

効果

実績

技術文献被引用数
0件
牽制数
0件

この技術が所属する分野

ライセンス契約や譲渡などの可能性がある特許掲載中! 開放特許随時追加・更新中 詳しくはこちら

請求項1

ユーザからの指示を受け付けコントローラと、前記コントローラから受信した指示に応じて、仮想現実コンテンツを生成する第1の情報処理装置と、前記ユーザに装着され、前記第1の情報処理装置から受信した前記仮想現実コンテンツを前記ユーザに表示する仮想現実ヘッドセットと、前記ユーザの生体データを取得する生体データ取得装置と、前記生体データ取得装置の位置を示す第1の位置情報と、前記生体データ取得装置の方向を示す第1の方向情報とを生成し、前記第1の位置情報と前記第1の方向情報とを前記第1の情報処理装置へ送信する第1のセンサと、前記仮想現実ヘッドセットの位置を示す第2の位置情報と、前記仮想現実ヘッドセットの方向を示す第2の方向情報とを生成し、前記第2の位置情報と前記第2の方向情報とを前記第1の情報処理装置へ送信する第2のセンサと、前記第1の情報処理装置と通信可能に接続されている第2の情報処理装置と、を具備し、前記第1の情報処理装置は、前記コントローラから決済指示を受信した場合に、前記第1のセンサから受信した前記第1の位置情報及び前記第1の方向情報と、前記第2のセンサから受信した前記第2の位置情報及び前記第2の方向情報とに基づいて、前記生体データ取得装置の前記位置及び前記方向を前記仮想現実ヘッドセットを装着している前記ユーザに認識させるとともに前記生体データ取得装置による生体データ入力を前記仮想現実ヘッドセットを装着している前記ユーザに促す画像、を前記仮想現実コンテンツに付加するコンテンツ生成部と、前記仮想現実コンテンツを前記仮想現実ヘッドセットへ送信するコンテンツ送信部と、前記生体データ入力を前記ユーザに促す画像を含む前記仮想現実コンテンツが前記仮想現実ヘッドセットによって表示された後に、前記生体データ取得装置から前記ユーザの前記生体データを受信し、前記生体データを前記第2の情報処理装置へ送信する生体データ送信部と、を具備し、前記第2の情報処理装置は、前記第1の情報処理装置から受信した前記生体データと、前記第2の情報処理装置によって参照される記憶装置に記憶されている前記ユーザの登録済み生体データとを照合し、照合成功の場合に前記決済指示を許可する生体認証部を具備する、仮想現実システム

請求項2

前記第1のセンサと前記生体データ取得装置とを具備する携帯端末をさらに具備し、前記携帯端末は、前記第1の位置情報及び前記第1の方向情報を前記第1の情報処理装置へ送信し、前記ユーザの前記生体データを前記第1の情報処理装置へ送信する、請求項1の仮想現実システム。

請求項3

前記第1の情報処理装置は、前記第1の情報処理装置と通信可能であり前記ユーザではない他のユーザによって操作される第3の情報処理装置の認証を行い、前記第3の情報処理装置に対する前記認証が成功した場合に、前記第1の情報処理装置と前記第3の情報処理装置との通信を許可し、前記仮想現実コンテンツを前記第3の情報処理装置に対応するコンテンツに変換し、前記コンテンツを前記第3の情報処理装置へ送信するコンテンツ共有部をさらに具備し、前記第3の情報処理装置は、前記コンテンツ共有部から受信した前記コンテンツを表示する表示部を具備し、前記第1の情報処理装置の前記コンテンツ生成部は、前記コンテンツ共有部が前記コンテンツを前記第3の情報処理装置へ送信している場合に、前記コンテンツが共有されていることを示す画像又は文字を前記仮想現実コンテンツに付加し、前記第1の情報処理装置の前記コンテンツ送信部は、前記コンテンツを共有していることを示す前記画像又は前記文字を含む前記仮想現実コンテンツを前記仮想現実ヘッドセットへ送信する、請求項1の仮想現実システム。

請求項4

前記コンテンツ生成部は、前記第1の位置情報と前記第2の位置情報との差分と、前記第1の方向情報と前記第2の方向情報との差分とに基づいて、前記ユーザを前記生体データ取得装置まで誘導する画像を前記仮想現実コンテンツに付加する、請求項1の仮想現実システム。

請求項5

前記コンテンツ生成部は、前記生体データと前記登録済み生体データとのうちの少なくとも一方に基づいて、前記ユーザに対応するキャラクター属性を決定し、前記属性に応じて前記仮想現実コンテンツを生成する、請求項1の仮想現実システム。

請求項6

請求項1の仮想現実システムと、診断処理装置と、を具備し、前記第1の情報処理装置は、前記生体データ取得装置から受信した前記生体データの履歴データと前記ユーザの位置を示す第3の位置情報とを記憶する第1の記憶部と、前記第1の記憶部に記憶されている前記履歴データと前記第3の位置情報とを前記診断処理装置へ送信する履歴送信部と、をさらに具備し、前記診断処理装置は、病名と前記病名に対応可能な病院及び診療科と前記病院の位置とを関連付けている病院情報とを記憶する第2の記憶部と、前記第1の情報処理装置から前記履歴データと前記第3の位置情報とを受信し、前記履歴データに基づいて診断処理を実行し、前記病院情報と前記診断処理の結果と前記第3の位置情報とに基づいて、前記診断処理の結果に対応可能な病院及び診療科の一覧を生成し、前記一覧を前記第1の情報処理装置へ送信する第1の制御部と、を具備し、前記第1の情報処理装置は、前記診断処理装置から受信した前記一覧を表示部に表示する第2の制御部をさらに具備する、情報処理システム

請求項7

前記第1の情報処理装置の前記第2の制御部は、前記ユーザに、前記表示部に表示された前記一覧に含まれる前記病院及び診療科のいずれかを選択させ、選択された前記病院の予約システムへ選択された診療科を示す診療科情報を送信し、前記予約システムは、前記第1の情報処理装置から前記診療科情報を受信し、前記診療科情報の示す前記診療科の予約可能日時を前記第1の情報処理装置へ送信し、前記第1の情報処理装置の前記第2の制御部は、前記予約システムから受信した前記予約可能日時を前記表示部に表示し、前記ユーザによって選択された日時を前記予約システムに送信する、請求項6の情報処理システム。

技術分野

0001

本発明は、仮想現実システム、及び、情報処理システムに関する。

背景技術

0002

近年、仮想現実(Virtual reality:以下、VRとする)に関するシステムの開発が盛んに行われている。一般的には、ユーザがVRのコンテンツ体験する際、ユーザは頭部にゴーグル形状の装置(以下、VRヘッドセットとする)を装着する。VRヘッドセットには、左右それぞれの眼に対応した2つのディスプレイが備えられ、それぞれのディスプレイには、映像を見たユーザが奥行き感(又は飛び出し感)を得るための視差のある映像が表示される。

0003

また、VRヘッドセットは位置センサ加速度センサジャイロセンサなどを搭載し、ユーザの頭の位置又は向きが変化する毎に、あたかもユーザの頭の位置又は向きが変化した方向にユーザの視界が移動したかのように、2つのディスプレイに表示する映像を変化させる。これにより、ユーザは、VRにおいて実際に自分の頭を動かしているような感覚を得ることができる。

発明が解決しようとする課題

0004

通常、VRヘッドセットを用いてVRを体験するユーザは、例えばVR中で提供される有料コンテンツ購入等のために決済処理が必要になると、VRヘッドセットを外し、決済のための操作をする必要がある。決済のための操作は、例えばクレジットカードなどのカード番号の入力、暗証番号の入力、個人情報の入力などである。しかしながら、決済の度にVRヘッドセットを頭部から取り外し、決済後に再度頭部へ装着することはユーザにとって煩わしく、さらにVRヘッドセットの取り外しによりVRを体験するユーザの没入感が損なわれる。

0005

また、VRヘッドセットが利用されるゲームなどでは、1つのVRヘッドセット及びVRマシンが例えば家族などの複数人によって共用されることが考えられ、この場合に決済の安全性が確保されることが望まれる。

0006

本発明は上記事情を考慮してなされたものであり、VRヘッドセットを用いるユーザに対して決済を容易にするとともに、決済の安全性を確保するVRシステムを提供する。

課題を解決するための手段

0007

本発明の一態様に係る仮想現実システムは、コントローラと、第1の情報処理装置と、VRヘッドセットと、生体データ取得装置と、第1のセンサと、第2のセンサと、第2の情報処理装置とを含む。コントローラは、ユーザからの指示を受け付ける。第1の情報処理装置は、コントローラから受信した指示に応じて、VRコンテンツを生成する。VRヘッドセットは、ユーザに装着され、第1の情報処理装置から受信したVRコンテンツをユーザに表示する。生体データ取得装置は、ユーザの生体データを取得する。第1のセンサは、生体データ取得装置の位置を示す第1の位置情報と、生体データ取得装置の方向を示す第1の方向情報とを生成し、第1の位置情報と第1の方向情報とを第1の情報処理装置へ送信する。第2のセンサは、VRヘッドセットの位置を示す第2の位置情報と、VRヘッドセットの方向を示す第2の方向情報とを生成し、第2の位置情報と第2の方向情報とを第1の情報処理装置へ送信する。第2の情報処理装置は、第1の情報処理装置と通信可能に接続されている。第1の情報処理装置は、コンテンツ生成部とコンテンツ送信部と生体データ送信部とを含む。コンテンツ生成部は、コントローラから決済指示を受信した場合に、第1のセンサから受信した第1の位置情報及び第1の方向情報と、第2のセンサから受信した第2の位置情報及び第2の方向情報とに基づいて、生体データ取得装置の位置及び方向をVRヘッドセットを装着しているユーザに認識させるとともに生体データ取得装置による生体データ入力をVRヘッドセットを装着しているユーザに促す画像、をVRコンテンツに付加する。コンテンツ送信部は、VRコンテンツをVRヘッドセットへ送信する。生体データ送信部は、生体データ入力をユーザに促す画像を含むVRコンテンツがVRヘッドセットによって表示された後に、生体データ取得装置からユーザの生体データを受信し、生体データを第2の情報処理装置へ送信する。第2の情報処理装置は、第1の情報処理装置から受信した生体データと、第2の情報処理装置によって参照される記憶装置に記憶されているユーザの登録済み生体データとを照合し、照合成功の場合に決済指示を許可する生体認証部を含む。

発明の効果

0008

本発明によれば、VRヘッドセットを用いるユーザに対して決済を容易にするとともに決済の安全性を確保することができる。

図面の簡単な説明

0009

図1は、第1の実施形態に係るVRシステムの構成の一例を示すブロック図である。
図2は、第1の実施形態に係るVR処理装置の構成の一例を示すブロック図である。
図3は、第1の実施形態に係るVRヘッドセットの構成の一例を示すブロック図である。
図4は、第1の実施形態に係るコントローラの構成の一例を示すブロック図である。
図5は、第1の実施形態に係るセンサ装置の構成の一例を示すブロック図である。
図6は、第1の実施形態に係るサーバ装置の構成の一例を示すブロック図である。
図7は、第1の実施形態に係る携帯端末の構成の一例を示すブロック図である。
図8は、第1の実施形態に係るVRシステムを用いた決済処理を例示するフローチャートである。
図9は、第1の実施形態に係る生体データ照合処理を例示するフローチャートである。
図10は、第1の実施形態に係る生体データ登録処理を例示するフローチャートである。
図11は、第1の実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第1の例を示す図である。
図12は、第1の実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第2の例を示す図である。
図13は、第1の実施形態に係る生体データ選択時のVR画面表示を例示する図である。
図14は、第1の実施形態に係るコンテンツ共有中のVR画面表示を例示する図である。
図15は、第2の実施形態に係るキャラクター表示時のVR画面表示を例示する図である。
図16は、第2の実施形態に係る属性決定処理を例示するフローチャートである。
図17は、第3の実施形態に係る自動診断システムの構成を例示するブロック図である。
図18は、第3の実施形態に係る自動診断システムの処理を例示するフローチャートである。
図19は、第3の実施形態に係る自動診断システムにおける画面表示の第1の例を示す図である。
図20は、第3の実施形態に係る自動診断システムにおける画面表示の第2の例を示す図である。

実施例

0010

以下、本発明の実施形態を、図面を参照して説明する。なお、以下の説明において、略又は実質的に同一の機能及び構成要素については、同一符号を付し、必要な場合にのみ説明を行う。

0011

[第1の実施形態]
本実施形態においては、VRシステムに含まれる生体データ取得装置の位置及び方向を検出し、決済時に、VRヘッドセットを装着しているユーザが生体データ取得装置の位置及び方向を認識可能な画像をVRヘッドセットのディスプレイに表示し、これによりユーザがVRヘッドセットを装着したままで生体データを入力可能とするVRシステムについて説明する。

0012

本実施形態において、生体データ取得装置の方向とは、生体データ取得装置が高感度・高精度に生体データを取得可能な方向、換言すれば生体データ取得装置がセンシングをする方向としてもよい。

0013

本実施形態において、識別情報はIDと称する。

0014

本実施形態において、生体データは、例えば指紋データ静脈データ動脈データ掌形データ、網膜データ虹彩データ顔データ血管データ音声データ、声紋データ耳型データ、又は、その他のデータであってもよい。

0015

本実施形態において、生体データ取得装置は、上記の生体データを取得するための例えば、生体センサカメラマイクなどとしてもよい。

0016

本実施形態においては、ユーザが行う決済はカード決済である場合について説明する。カードの種類は、例えばクレジットカード、デビットカードプリペイドカード電子マネーカードポイントカードキャッシュカード、又は、その他の電子決済を行うためのカードであってもよい。しかしながら、本実施形態は、決済に用いられる媒体又はプロダクトがカードでない場合にも同様に適用可能である。本実施形態における決済は、仮想通貨による決済としてもよい。

0017

本実施形態において、コンテンツとは、例えば、画像データ、映像データ、プログラムとデータとのうちの少なくとも一方を含むソフトウェア、音データなどを含む。コンテンツは、例えば、ゲームプログラムなどでもよい。

0018

図1は、本実施形態に係るVRシステム1の構成の一例を示すブロック図である。

0019

VRシステム1は、VR処理装置2、人体装着用装置HD、センサ装置5、サーバ装置6,12を含む。人体装着用装置HDは、VRヘッドセット3とコントローラ4とを含む。VRヘッドセット3、及び、コントローラ4は、ユーザUが装着又は直接持って操作する装置である。VRヘッドセット3、及び、コントローラ4により、VRシステム1を制御可能である。また、VRシステム1は、ユーザUの携帯端末7を含んでいてもよく、ユーザUではない他のユーザVの携帯端末8を含んでいてもよい。携帯端末7,8とVR処理装置2とは、例えばネットワークN経由で通信可能としてもよく、ネットワークNを経由することなく通信可能としてもよい。より具体的には、携帯端末7,8とVR処理装置2とは、例えば、電話回線又はインターネット経由で通信可能でもよい。携帯端末7,8とVR処理装置2とは、例えば、無線LAN通信により通信可能でもよく、近距離無線通信により通信可能でもよく、赤外線通信により通信可能でもよい。

0020

VRヘッドセット3は、ユーザUが頭部に装着する装置である。VRヘッドセット3はディスプレイを備えており、ディスプレイはVR処理装置2により生成されたVRコンテンツを表示する。ユーザUは、当該ディスプレイに表示されたVRコンテンツを視認することにより、VRを体験可能である。

0021

VRヘッドセット3は、例えば、生体データ取得装置33とセンサ部32とを含む。

0022

生体データ取得装置33は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置33は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、網膜データ、虹彩データ、又は、声紋データに対応する生体センサを含む。

0023

センサ部32は、VRヘッドセット3の位置を示す位置情報と、VRヘッドセット3の方向を示す方向情報を生成し、VRヘッドセット3の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部32は、生体データ取得装置33に対応しており、生体データ取得装置33の位置を示す位置情報と、生体データ取得装置33の方向を示す方向情報とを生成し、生体データ取得装置33の位置情報と方向情報とをVR処理装置2へ送信するとしてもよい。

0024

コントローラ4は、ユーザUがVRシステム1を操作するための装置であり、ユーザUからの指示を受け付ける。コントローラ4は、ユーザUの左右それぞれの手に持って操作されてもよく、左右それぞれの足、又はその他の体の部位のいずれかに装着されてもよい。以下では、VRシステム1に含まれるコントローラ4は2台とし、それぞれのコントローラ4は、ユーザUの左右それぞれの手に持って操作されるとする。

0025

コントローラ4は、生体データ取得装置43とセンサ部42とを含む。

0026

生体データ取得装置43は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置43は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。

0027

センサ部42は、コントローラ4の位置を示す位置情報と、コントローラ4の方向を示す方向情報を生成し、コントローラ4の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部42は、生体データ取得装置43に対応しており、生体データ取得装置43の位置を示す位置情報と、生体データ取得装置43の方向を示す方向情報とを生成し、生体データ取得装置43の位置情報と方向情報とをVR処理装置2へ送信する。

0028

センサ装置5は、ユーザUが体験するVRの構築補助する装置である。具体的には、例えばセンサ装置5がVR処理装置2に複数台接続されている場合に、VR処理装置2はVRヘッドセット3の備えるディスプレイ上にセンサ装置5の位置を表示することにより、ユーザUがVRヘッドセット3を装着して移動可能な範囲を示してもよい。また、例えばVR処理装置2は、複数台のセンサ装置5に備えられるセンサを用いて、ユーザUの動き姿勢、体の特定の部位の位置などを測定してもよい。また、例えばセンサ装置5は、ユーザUが近づいた時に音を発することで、ユーザUに臨場感を与えてもよい。以下では、VRシステム1に含まれるセンサ装置5は4台とする。

0029

センサ装置5は、生体データ取得装置53とセンサ部52とを含む。

0030

生体データ取得装置53は、例えば、ユーザUと非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置53は、例えば、声紋データに対応する生体センサ、カメラを含む。

0031

センサ部52は、センサ装置5の位置を示す位置情報と、センサ装置5の方向を示す方向情報を生成し、センサ装置5の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部52は、生体データ取得装置53に対応しており、生体データ取得装置53の位置を示す位置情報と、生体データ取得装置53の方向を示す方向情報とを生成し、生体データ取得装置53の位置情報と方向情報とをVR処理装置2へ送信する。

0032

携帯端末7は、VR処理装置2と通信可能である。携帯端末7は、例えば、スマートフォンなどのような携帯電話タブレット端末などであってもよい。

0033

携帯端末7は、コントローラ4の代わりに用いられてもよい。すなわち、ユーザUは携帯端末7を用いてVRシステム1を操作可能であるとしてもよい。携帯端末7は、例えば、生体データ取得装置73とセンサ部72とを含み、センサ装置5と同様に、ユーザUの生体データを入力するために利用されてもよい。

0034

生体データ取得装置73は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置43は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。

0035

センサ部72は、携帯端末7の位置を示す位置情報と、携帯端末7の方向を示す方向情報を生成し、携帯端末7の位置情報と方向情報とをVR処理装置2へ送信する。加えて、センサ部72は、生体データ取得装置73に対応しており、生体データ取得装置73の位置を示す位置情報と、生体データ取得装置73の方向を示す方向情報とを生成し、生体データ取得装置73の位置情報と方向情報とをVR処理装置2へ送信する。

0036

VR処理装置2は、VRシステム1全体の制御、又は、制御に必要な演算を行う。VR処理装置2は、VRヘッドセット3、少なくとも1台以上のコントローラ4、少なくとも1台以上のセンサ装置5と有線又は無線で通信可能である。

0037

VR処理装置2は、コントローラ4から受信した指示に応じて、VRコンテンツを生成する。VR処理装置2は、例えば、生体データ取得装置25、センサ部26、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225を含む。

0038

生体データ取得装置25は、例えば、ユーザUと接触して、又は、非接触で、ユーザUの生体データを取得する。より具体的には、生体データ取得装置25は、例えば、指紋データ、静脈データ、動脈データ、掌形データ、又は、声紋データに対応する生体センサを含む。

0039

センサ部26は、生体データ取得装置25に対応しており、生体データ取得装置25の位置を示す位置情報と、生体データ取得装置25の方向を示す方向情報とを生成する。加えて、センサ部26は、例えばVRヘッドセット3に装着されているライトの光を検出するなどにより、VRヘッドセット3の位置を示す位置情報と、VRヘッドセット3の方向を示す方向情報を生成するとしてもよい。

0040

コンテンツ生成部222は、コントローラ4から決済指示を受信した場合に、センサ部26,32,42,52,72から受信した生体データ取得装置25,33,43,53,73の位置情報及び方向情報と、センサ部26,32,52から受信したユーザUの位置情報及び方向情報とに基づいて、生体データ取得装置25,33,43,53,73の位置及び方向をVRヘッドセット3を装着しているユーザUに認識させるとともに、生体データ取得装置25,33,43,53,73による生体データ入力をVRヘッドセット3を装着しているユーザUに促す画像を、VRコンテンツに付加する。

0041

コンテンツ送信部223は、VRコンテンツをVRヘッドセット3へ送信する。

0042

生体データ送信部224は、生体データ入力をユーザUに促す画像を含むVRコンテンツがVRヘッドセット3によって表示された後に、生体データ取得装置25,33,43,53,73のいずれかからユーザUの生体データD1を受信し、生体データD1をサーバ装置6へ送信する。

0043

コンテンツ共有部225は、VRヘッドセットの表示部37に表示されているVRコンテンツを、ユーザUではない他のユーザVによって操作される携帯端末8にも表示可能とする。すなわち、コンテンツ共有部225は、VR処理装置2と通信可能な携帯端末8の認証を行い、携帯端末8に対する認証が成功した場合に、VR処理装置2と携帯端末8との通信を許可し、VRコンテンツを携帯端末8に対応するコンテンツに変換し、変換したコンテンツを携帯端末8へ送信する。例えば、ユーザVは、ユーザUの友人又は家族などである。例えば、携帯端末8へ送信されるコンテンツは、VRコンテンツをVRに対応しないコンテンツへ変換したコンテンツでもよく、VRコンテンツを携帯端末8のブラウザ適合したコンテンツへ変換したコンテンツでもよい。

0044

携帯端末8は、表示部75を備えており、コンテンツ共有部225から受信したコンテンツを表示する。

0045

サーバ装置6は、VR処理装置2とネットワークN経由で通信可能に接続されている。サーバ装置6は、データベースDBを参照可能である。データベースDBは、ユーザUの登録済みの生体データD2を記憶する。

0046

サーバ装置6は、生体認証部62を含む。生体認証部62は、VR処理装置2からネットワークN経由で受信した生体データD1とデータベースDBに記憶されている登録済み生体データD2とを照合する。サーバ装置6は、照合成功の場合に、ネットワークN経由でサーバ装置12へ決済を許可する旨を示す決済許可通知を送信する。

0047

サーバ装置12は、VR処理装置2及びサーバ装置6とネットワーク経由で通信可能に接続されている。このサーバ装置12は、サーバ装置6と一体であってもよい。サーバ装置12は、決済処理部121を含む。決済処理部121は、サーバ装置6からネットワークN経由で決済許可通知を受信した場合に、VR処理装置2からネットワークN経由で受信した決済指示に応じてユーザUに対する決済処理を実行する。

0048

本実施形態において、サーバ装置12は、例えば、アクワイアラカード決済会社)のサーバ装置、イシュアカード発行会社)、又は、カードブランドのサーバ装置である。

0049

なお、本実施形態において、コンテンツ生成部222は、コンテンツ共有部225がコンテンツを携帯端末8へ送信している場合に、コンテンツが共有されていることを示す画像又は文字をVRコンテンツに付加する。コンテンツ送信部223は、コンテンツを共有していることを示す画像又は文字を含むVRコンテンツをVRヘッドセット3へ送信する。これにより、VRヘッドセット3を装着しているユーザUは、ユーザVがコンテンツを共有していることを認識することができる。

0050

また、コンテンツ生成部222は、いずれかの生体データ取得装置の位置情報とVRヘッドセット3の位置情報との差分と、いずれかの生体データ取得装置の方向情報とVRヘッドセット3の方向情報との差分とに基づいて、ユーザUをいずれかの生体データ取得装置まで誘導する画像をVRコンテンツに付加してもよい。

0051

さらに、コンテンツ生成部222は、いずれかの生体データ取得装置によって取得された生体データD1に基づいて、ユーザUに対応するキャラクターの属性を決定し、属性に応じてVRコンテンツを生成してもよい。コンテンツ生成部222は、データベースDBに記憶されている生体データD2をサーバ装置6及びネットワークN経由で受信し、受信した生体データD2に基づいて、ユーザUに対応するキャラクターの属性を決定し、属性に応じてVRコンテンツを生成してもよい。

0052

図2は、本実施形態に係るVR処理装置2の構成の一例を示すブロック図である。

0053

VR処理装置2は、接続部21、プロセッサ22、記憶部23、通信部24、生体データ取得装置25、センサ部26を含む。VR処理装置2は、生体データ取得装置25を含まなくてもよい。上述の各処理部は、内部バスIBにより相互に通信可能である。

0054

なお、図1で説明済の処理部についての説明は省略する。

0055

接続部21は、VR処理装置2と、VRヘッドセット3、コントローラ4、センサ装置5とを接続する。

0056

プロセッサ22は、VRシステム1の演算処理を行う。プロセッサ22は、制御部221、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225、を含む。

0057

プロセッサ22は、例えば、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、又は、DSP(Digital Signal Processor)などであってもよい。

0058

制御部221はVRシステム1全体の制御を行う。制御部221は、接続部21を経由して、VRヘッドセット3、コントローラ4、及びセンサ装置5との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。

0059

コンテンツ生成部222は、VRヘッドセット3の備えるディスプレイに表示するVRコンテンツを生成する。コンテンツ生成部222により生成されたVRコンテンツは、コンテンツ送信部223により、接続部21を経由してVRヘッドセット3に送信される。また、VRコンテンツは、通信部24を経由して、例えば携帯端末7,8などの外部装置に送信されてもよい。

0060

記憶部23は、例えば、主記憶装置として用いられてもよい。記憶部23は、プロセッサ22からの制御に従う。記憶部23には、プロセッサ22の制御に基づいて、プロセッサ22により処理されるデータなどが一時的に格納される。

0061

記憶部23は、例えば、不揮発性記憶領域に、プログラム231を格納する。プロセッサ22は、プログラム231を実行することにより、制御部221、コンテンツ生成部222、コンテンツ送信部223、生体データ送信部224、コンテンツ共有部225としての機能を実現するとしてもよい。

0062

記憶部23は、生体データD1を格納する。生体データD1は、生体データ取得装置25,33,43,53,73のいずれかを用いて取得したユーザUの生体データである。

0063

通信部24は、ネットワークNを経由して、例えばVR処理装置2とサーバ装置6,12及び携帯端末7,8との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。なお、通信部24は、サーバ装置6,12及び携帯端末7,8ではない他の装置とネットワークNを経由して通信を行ってもよい。

0064

なお、VR処理装置2は例えば汎用的なPC(パーソナルコンピュータ)であってもよく、又はVRシステム1専用のハードウェアであってもよい。

0065

図3は、本実施形態に係るVRヘッドセット3の構成の一例を示すブロック図である。

0066

VRヘッドセット3は、接続部31、センサ部32、生体データ取得装置33、制御部34、マイク35、スピーカ36、表示部37を含む。

0067

なお、図1で説明済の処理部についての説明は省略する。

0068

接続部31は、VRヘッドセット3とVR処理装置2とを接続する。

0069

センサ部32は、角速度センサ(ジャイロセンサ)S1を含む。センサ部32は、生体データ取得装置33に内蔵されていてもよく、生体データ取得装置33の近傍に設置されていてもよい。

0070

角速度センサS1は、センサを備える物体回転角度、及び、向きの変化を検知できるセンサである。すなわち、角速度センサS1により、VRヘッドセットの位置の変化及び向きが検出可能である。

0071

なお、センサ部32に含まれるセンサは、上述のものに限られず、例えば、近接センサ、加速度センサ、位置センサ、磁気センサ輝度センサなどが含まれていてもよい。

0072

制御部34は、VRヘッドセット3に含まれる各処理部の制御を行う。制御部34は、接続部31を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。より具体的には、例えば、制御部34は、センサ部32が取得した位置情報及び方向情報などのセンサデータ、生体データ取得装置33が取得した生体データ、マイク35に入力された音声データを、接続部31を経由してVR処理装置2へ送信する。また、例えば、制御部34は、接続部31を経由してVR処理装置2より音声データを受信してスピーカ36へ出力し、VRコンテンツを受信して表示部37へ出力する。

0073

マイク35は、ユーザUの音声をVRシステム1に入力する。なお、VRヘッドセット3が声紋の生体データを取得可能な場合は、マイク35は、生体データ取得装置33を兼ねてもよい。

0074

スピーカ36は、VR処理装置2により生成された音、又は、制御部34により生成された音を出力する。スピーカ36は、例えばヘッドフォンであってもよい。

0075

表示部37は、VR処理装置2のコンテンツ生成部222により生成されたVRコンテンツを表示する。表示部37は、ユーザUの両眼に対応した2つのディスプレイを備える。以下では、VRコンテンツが表示されている状態の表示部37を、VR画面とする。

0076

図4は、本実施形態に係るコントローラ4の構成の一例を示すブロック図である。

0077

コントローラ4は、接続部41、センサ部42、生体データ取得装置43、制御部44、入力部45を含む。

0078

なお、図1で説明済の処理部についての説明は省略する。

0079

接続部41は、コントローラ4とVR処理装置2とを接続する。

0080

センサ部42の構成は、センサ部32と同等である。

0081

制御部44は、コントローラ4に含まれる各処理部の制御を行う。制御部44は、接続部41を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。より具体的には、例えば、制御部44は、センサ部42が取得した位置情報及び方向情報などのセンサデータ、生体データ取得装置43が取得した生体データ、入力部45に入力されたデータを、接続部41を経由してVR処理装置2へ送信する。

0082

入力部45は、ユーザUの操作を受け付ける。入力部45は、例えば、ボタンアナログスティックロータリエンコーダタッチパネル、各種のセンサなどでもよい。

0083

図5は、本実施形態に係るセンサ装置5の構成の一例を示すブロック図である。

0084

センサ装置5は、接続部51、センサ部52、生体データ取得装置53、制御部54、マイク55、スピーカ56を含む。また、センサ装置5は、カメラ57を含むとしてもよい。

0085

なお、図1で説明済の処理部についての説明は省略する。

0086

接続部51は、センサ装置5とVR処理装置2とを接続する。

0087

センサ部52の構成は、センサ部32と同様である。

0088

制御部54は、センサ装置5に含まれる各処理部の制御を行う。制御部54は、接続部51を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。制御部54の動作は、制御部34,44の動作と同等である。

0089

マイク55は、ユーザUの音声をVRシステム1に入力する。なお、センサ装置5が声紋の生体データを取得可能な場合は、マイク55は、生体データ取得装置53を兼ねてもよい。

0090

スピーカ56は、VR処理装置2により生成された音、又は、制御部34により生成された音を出力する。

0091

カメラ57は、静止画又は動画撮影する。カメラ57は、2次元画像を撮影できるものでもよく、又は、例えばステレオカメラ赤外線カメラなどの奥行き情報を取得できるものでもよい。制御部54は、カメラ57により撮影された静止画又は動画に対して画像処理を行うことにより、例えばセンサ部52では認識することができないユーザUのジェスチャ、又は、ユーザUの足、腕、関節などの特定の部位の動き、又は、ユーザUが移動可能な空間に存在する物体などを認識可能であってもよい。

0092

図6は、本実施形態に係るサーバ装置6の構成の一例を示すブロック図である。

0093

サーバ装置6は、通信部61、生体認証部62、制御部63を含む。

0094

なお、図1で説明済の処理部についての説明は省略する。

0095

通信部61は、ネットワークNに接続可能であり、ネットワークNを経由してVR処理装置2と通信を行う。通信部61は、データベースDBと通信可能である。

0096

なお、データベースDBは、ネットワークNに接続されていてもよく、ネットワークNを経由してサーバ装置6と通信可能であってもよい。

0097

制御部63は、サーバ装置6に含まれる各処理部の制御を行う。制御部63は、通信部61を経由して、VR処理装置2及びデータベースDBとの間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。例えば、制御部63は、生体認証部62で実行された生体認証が成功した場合に、ネットワークN経由でサーバ装置12へ決済を許可する旨の決済許可通知を送信する。

0098

図7は、本実施形態に係る携帯端末7,8の構成の一例を示すブロック図である。

0099

携帯端末7は、通信部71、センサ部72、生体データ取得装置73、プロセッサ74、表示部75を含む。

0100

携帯端末8は、通信部71、センサ部72、プロセッサ74、表示部75、コンテンツ共有部76を含む。なお、携帯端末8は、生体データ取得装置73を備えていてもよい。

0101

なお、図1で説明済の処理部についての説明は省略する。

0102

通信部71は、ネットワークNに接続可能であり、ネットワークNを経由してVR処理装置2と通信を行う。通信部71は、ネットワークNを経由せずに、直接VR処理装置2の通信部24と有線又は無線により通信可能としてもよい。

0103

センサ部72は、センサ部32と同様である。

0104

プロセッサ74は、携帯端末7の演算処理を行う。プロセッサ74は、制御部741を含む。

0105

制御部741は、携帯端末7に含まれる各処理部の制御を行う。制御部741は、通信部71を経由して、VR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。制御部741の動作は、制御部34,44,54の動作と同等である。

0106

表示部75は、例えば、一般的な携帯端末のディスプレイである。

0107

また、上述のように、コンテンツ共有部225により携帯端末8の表示部75にVRコンテンツが表示される場合、携帯端末8は、VRシステム1に認証(ログイン)されることが望ましい。VRシステム1へのログインには、例えば、ログインID及びパスワードが用いられてもよい。より具体的には、例えば、VR処理装置2は、携帯端末8からVR処理装置2へアクセスがあった場合に、表示部75又はVRヘッドセット3の表示部37にログイン画面を表示する。ユーザUは、ログイン画面の指示に従い、ログインID及びパスワードを入力する。

0108

なお、携帯端末8が生体データ取得装置73を備える場合は、VRシステム1へのログインに生体認証が用いられてもよい。この場合、当該生体認証の手順は、決済処理の際に行われる生体認証の手順(図9を用いて後述する)と同等である。

0109

図8は、本実施形態に係るVRシステム1を用いた決済処理を例示するフローチャートである。

0110

テップS801において、VR処理装置2が起動する。VR処理装置2に接続されているVRヘッドセット3、コントローラ4、センサ装置5にも電源入り、ユーザUによる操作が可能な状態となる。

0111

ステップS802において、VR処理装置2のコンテンツ生成部222が生成したVRコンテンツが、接続部21を経由してVRヘッドセット3へ送信される。VRヘッドセット3の表示部37は、VR処理装置2より受信したVRコンテンツを表示する。さらに、コンテンツ生成部222は、ユーザUの選択により、又は、自動的に、ユーザUが商品を選択し購入可能なVRコンテンツを生成する。

0112

ステップS803において、表示部37に表示された商品選択画面において、ユーザUが購入する商品が選択される。商品は、例えば、ユーザUがコントローラ4を操作することにより選択されてもよい。さらに、選択された商品の購入が承諾されると、VR処理装置2は、決済処理を開始する。商品の購入の承諾は、例えば、VRコンテンツ内に表示された購入ボタンがユーザUによって選択されることにより行われてもよい。

0113

ステップS804において、VR処理装置2は、生体データの照合処理を開始する。生体データ照合処理の詳細については、図9で後述する。

0114

ステップS805において、VR処理装置2は、ステップS804の処理により得られた生体データ照合処理結果を確認する。

0115

生体データ照合処理結果が成功である場合は、VR処理装置2又はサーバ装置6は、サーバ装置12に対して決済許可通知を送信する。この場合、ステップS806において、サーバ装置12は、VR処理装置2より決済許可通知を受信し、決済処理部121は、決済処理を行う。決済処理が完了した場合、サーバ装置6は、通信部61を経由して決済完了通知をVR処理装置2へ送信する。さらに、ステップS807において、VR処理装置2は、決済完了通知を受信し、コンテンツ生成部222は、決済完了した旨の表示を含んだVRコンテンツを生成する。

0116

また、生体データ照合処理結果が失敗である場合は、VR処理装置2は、決済処理を中止する。この場合、ステップS808において、VR処理装置2のコンテンツ生成部222は、決済失敗した旨の表示を含んだVRコンテンツを生成する。

0117

なお、決済完了又は決済失敗した旨の表示は、例えば、メッセージアイコンダイアログボックスなどによる表示であってもよい。

0118

本実施形態において、VR処理装置2は、ステップS801における起動時に、ユーザUの認証(ログイン)を行うとしてもよい。VRシステム1へのログインには、生体認証が用いられてもよい。この場合、当該生体認証の手順は、決済処理の際に行われる生体認証の手順(図9参照)と同等である。

0119

図9は、本実施形態に係る生体データ照合処理を例示するフローチャートである。

0120

ステップS901において、VR処理装置2は、VRシステム1内で利用可能な生体データ取得装置が複数存在する場合に、どの生体データ取得装置を用いて生体データを取得するかをユーザに選択させる。ユーザUが生体データ取得装置を選択した場合は、ステップS902へ進む。

0121

利用可能な生体データ取得装置がVRシステム1内に1つのみである場合、又は、VR処理装置2がユーザに生体データ取得装置を選択させない場合は、ステップS905に進む。

0122

ステップS902において、VR処理装置2は、ステップS901においてユーザUが指定した生体データ取得装置の位置情報及び方向情報を検出する。具体的には、生体データ取得装置33が指定された場合は、VR処理装置2は、VRヘッドセット3の制御部34より、センサ部32が検出したVRヘッドセット3及び生体データ取得装置33の位置情報及び方向情報を受信する。同様に、生体データ取得装置43が指定された場合は、VR処理装置2は、制御部44より、センサ部42が検出したコントローラ4及び生体データ取得装置43の位置情報及び方向情報を受信する。又は、同様に、生体データ取得装置53が指定された場合は、VR処理装置2は、制御部54より、センサ部52が検出したセンサ装置5及び生体データ取得装置53の位置情報及び方向情報を受信する。又は、同様に、生体データ取得装置73が指定された場合は、VR処理装置2は、制御部741より、携帯端末7及び生体データ取得装置73の位置情報及び方向情報を受信する。VR処理装置2は、受信した位置情報及び方向情報を、記憶部23に一時的に格納する。

0123

ステップS903において、VR処理装置2は、ステップS902において検出した各装置の位置情報及び方向情報を、VR画面内に表示する。具体的には、VR処理装置2のコンテンツ生成部222は、記憶部23よりステップS902で格納した各装置の位置情報及び方向情報を読み出す。コンテンツ生成部222は、読み出したそれぞれの装置の位置情報及び方向情報に基づいた各装置の画像を、もとのVRコンテンツに重畳し、新たなVRコンテンツを生成する。上述の処理により生成されるVRコンテンツの例は、図11で後述する。

0124

ステップS904において、VR処理装置2は、ユーザUに、指定した生体データ取得装置へ生体データを入力させる。

0125

ステップS905において、VR処理装置2は、利用可能な生体データ取得装置を検索する。具体的には、VR処理装置2は、VRヘッドセット3、コントローラ4、センサ装置5、携帯端末7へ、各装置に備えられた生体データ取得装置33,43,53,73が利用可能であるか否かを問い合わせる。

0126

制御部34,44,54,74は、生体データ取得装置33,43,53,73の状態を確認し、各生体データ取得装置が利用可能であるか否かをそれぞれVR処理装置2へ送信する。

0127

ステップS906において、VR処理装置2は、ステップS905で得られた利用可能な生体データ取得装置の位置、向き、及び種類を表示する。生体データ取得装置の位置及び向きの検出方法、及び表示方法は、ステップS902及びステップS903で述べた方法と同等である。

0128

ステップS907において、VR処理装置2は、ユーザUへステップS906で表示したいずれかの生体データ取得装置へ生体データを入力させる。この場合、例えば、各生体データ処理装置は、ユーザUより生体データの入力が完了した場合に、生体データD1をVR処理装置2へ送信する。VR処理装置2は、生体データD1を受信し、生体データD1を記憶部23に格納する。

0129

なお、VR処理装置2は、複数の生体データ取得装置から生体データを受信した場合は、受信した複数の生体データを記憶部23に格納してもよく、最初又は最後に受信した生体データを有効なデータとして記憶部23へ格納してもよい。

0130

ステップS908において、VR処理装置2は、サーバ装置6へ生体データ照合命令を送信する。具体的には、生体データ送信部224は、記憶部23より生体データD1を読み出し、生体データ照合命令と生体データD1をサーバ装置6へ送信する。

0131

ステップS909において、サーバ装置6の生体認証部62は、ユーザUの生体データD1と、生体データ照合命令を受信する。サーバ装置6は、受信した生体データD1がデータベースDBに登録されているか否かを確認する。ユーザUの生体データが登録されている場合は、ステップS911へ進む。ユーザUの生体データが登録されていない場合は、サーバ装置6は、VR処理装置2へ生体データが未登録である旨の通知を行う。VR処理装置2は、生体データが未登録である旨の通知を受信し、ステップS910において、生体データ登録処理を行う。

0132

なお、生体データ登録処理は、決済処理と独立して行われてもよい。例えば、生体データ登録処理は、VRシステム1の初回起動時などに行われてもよい。生体データ登録処理の詳細については、図10で後述する。

0133

ステップS911において、サーバ装置6の生体認証部62は、生体データ照合処理を行う。具体的には、生体認証部62は、データベースDBに登録されているユーザUの登録済生体データD2を読み出し、VR処理装置2より受信した生体データD1と照合する。生体認証部62は、照合結果が成功又は失敗した旨をVR処理装置2へ送信する。

0134

図10は、本実施形態に係る生体データ登録処理を例示するフローチャートである。

0135

ステップS1001において、VR処理装置2は、登録可能な生体データ取得装置の種類を表示する。登録可能な生体データ取得装置の検索処理は、ステップS905の処理と同様である。

0136

ステップS1002において、VR処理装置2は、ステップS1001で得られた登録可能な生体データ取得装置の位置、向き、及び種類をVR画面に表示する。生体データ取得装置の位置及び向きの検出方法、及び表示方法は、ステップS906で述べた方法と同等である。

0137

ステップS1003において、VR処理装置2は、ステップS1002でVR画面に表示された生体データ取得装置のうち1つの生体データ取得装置を、ユーザUに選択させる。

0138

なお、ステップS901で生体データ取得装置を指定された場合は、自動的にステップS901で指定された生体データ取得装置と同じものが指定されてもよい。この場合、ステップS1001及びステップS1002において、ステップS901で指定された生体データ取得装置がVR画面に表示され、ステップS1003の処理はなくてもよい。

0139

ステップS1004において、VR処理装置2は、ユーザUに、指定した生体データ取得装置へ生体データを入力させる。入力された生体データは、VR処理装置2へ送信される。

0140

ステップS1005において、VR処理装置2は、ステップS1004で生体データ取得装置に入力された生体データを受信する。VR処理装置2の生体データ送信部224は、サーバ装置6へ、当該生体データと、生体データ登録指示を送信する。

0141

ステップS1006において、サーバ装置6は、データベースDBに受信した生体データを登録する。

0142

図11は、本実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第1の例を示す図である。より具体的には、図11は、図9のS906、及び、図10のS1002において、表示部37に表示されるVR画面V1を示す。

0143

VR画面V1は、利用可能(又は登録可能)な生体センサを示す生体センサ選択画面W1を表示する。図11では、生体センサ選択画面W1はVR画面V1に重畳的に表示されているが、表示方法はこれに限られない。例えば、VR画面V1が切り替わり、生体センサ選択画面W1が全画面に表示されてもよい。

0144

生体センサ選択画面W1には、利用可能な生体データ取得装置と、利用可能な生体データ取得装置が含まれる装置が表示される。図11の例では、生体センサ選択画面W1には、VRヘッドセット103と、VRヘッドセット103に含まれる虹彩センサ103A、声紋センサ103B、静脈センサ103C、及び、コントローラ104と、コントローラ104に含まれる静脈センサ104A、指紋センサ104B、及び、コントローラ105と、コントローラ105に含まれる静脈センサ105A、指紋センサ105B、及び、センサ装置106と、センサ装置106に含まれる声紋センサ106Aが表示される。

0145

なお、生体センサ選択画面W1に表示される各装置及び生体センサの画像の向きは、各装置を操作するユーザUの動きに合わせて、リアルタイムに変化することが望ましい。また、生体センサが二種以上含まれる場合は、ユーザUが同種の生体センサと異種の生体センサとを、例えば色又は形などで容易に判別できるよう表示されることが望ましい。

0146

生体センサ選択画面W2は、生体センサ選択画面W1に表示された生体センサのうち、ユーザUにより静脈センサ104Aが選択された状態を示す。

0147

生体センサの選択は、例えば、ユーザUがコントローラ4の入力部45を操作することにより行われてもよい。また、生体センサの選択は、例えば、ユーザUがVRヘッドセット3のマイク35を通じて音声により指示することにより行われてもよい。

0148

選択された静脈センサ104Aの周囲には、センシング可能領域Aが表示される。センシング可能領域は、ユーザUの体の一部を生体センサに近接させて生体データを取得することができる範囲を示す。

0149

ユーザUは、表示された静脈センサ104Aのセンシング可能領域Aの範囲内に、例えば指を近づけることで、静脈データを入力する。

0150

また、例えばユーザUがコントローラ4の位置及び向きを変化させることにより、生体センサ選択画面W2に表示されるコントローラ104の表示が変化する場合、センシング可能領域Aの表示もコントローラ104の位置及び向きに合わせて変化する。

0151

なお、他の生体センサが選択された場合も、上述と同様に、選択された生体センサに対応したセンシング可能領域が表示される。

0152

なお、センシング可能領域の表示態様は、領域を表示するものであれば、図11中に示されている態様に限られない。

0153

図12は、本実施形態に係る生体データ登録時又は生体データ取得時のVR画面表示の第2の例を示す図である。

0154

VR画面V2は、図11の生体センサ選択画面W1に表示された生体センサのうち、ユーザUにより声紋センサ106Aが選択された状態を示す。

0155

声紋センサ106Aを含むセンサ装置106は、現在のユーザUの位置から離れた場所に存在するため、VR処理装置2は、ユーザUを声紋センサ106Aが反応する位置まで誘導する。

0156

まず、制御部221は、ユーザUの位置を取得する。センサ装置5のカメラ57がユーザUを撮影することにより、制御部54又は制御部221がユーザUのVRシステム1内における位置及び向きを計算してもよい。又は、ユーザUに装着されたVRヘッドセット3のセンサ部が検出した位置及び向きを、ユーザUの位置及び向きとしてもよい。

0157

次に、制御部221は、取得したユーザUの位置及び向きと声紋センサ106Aの位置及び向きとに基づいて、ユーザUを誘導する方向を決定する。ユーザUを誘導する方向は、VRシステム1内の位置及び向きを示すデータに変換され、コンテンツ生成部222に入力される。

0158

コンテンツ生成部222は、制御部221より受信したデータに基づき、VRコンテンツ内にユーザUを誘導する方向を示す矢印201を描画する。

0159

なお、ユーザUを誘導する方法は、上述の方法に限られない。例えば、コンテンツ生成部222により、VR画面V2上で声紋センサ106Aの位置が強調表示されてもよい。

0160

VR画面V3は、ユーザUの位置が、声紋センサ106Aが反応する位置まで近づいた状態を示す。

0161

制御部221は、ユーザUと声紋センサ106Aとの距離が一定以下になった場合に、声紋センサ106Aが利用可能になった旨をユーザUに通知する。例えば、コンテンツ生成部222は、制御部221よりユーザUと声紋センサ106Aとの距離が一定以下になった旨の通知を受信すると、VRコンテンツの声紋センサ106Aに印E1を描画してもよい。ユーザUは、VRコンテンツ内の印E1を視認することにより、声紋センサ106Aに対し、声紋データを入力する。

0162

なお、印E1の形状及び表示方法は、図12中に表示されるものに限られない。また、声紋センサ106Aが利用可能になった旨をユーザUに通知する方法は、上述のものに限られない。例えば、VRヘッドセット3のスピーカ36を通じて音声によりユーザUに通知してもよい。

0163

図13は、本実施形態に係る生体データ選択時のVR画面表示を例示する図である。より具体的には、図13は、図9のS901において、表示部37に表示されるVR画面V4を示す。

0164

VR画面V4は、生体データ選択画面W3を表示する。図13では、生体データ選択画面W3はVR画面V4に重畳的に表示されているが、生体センサ選択画面W1と同様に、表示方法はこれに限られない。

0165

生体データ選択画面W3には、取得する生体データの種類が表示される。図13の例では、生体データ選択画面W3には、指紋データB1、顔データB2、虹彩データB3、静脈データB4、声紋データB5が選択可能な項目として表示される。

0166

ユーザUにより上述の項目のうち1つが選択された場合、VR画面V4上には、項目が選択された旨が表示される。例えば、VR画面V4上には、選択された項目の周囲に印E2が表示されてもよい。

0167

なお、生体データの選択は、ユーザUがコントローラ4の入力部45を操作することにより行われてもよい。また、生体データの選択は、例えば、ユーザUがVRヘッドセット3のマイク35を通じて音声により指示することにより行われてもよい。

0168

なお、印E2の形状及び表示方法は、図13中に例示されるものに限られない。

0169

図14は、本実施形態に係るコンテンツ共有中のVR画面表示を例示する図である。より具体的には、コンテンツ共有部225がコンテンツを携帯端末8へ送信している場合に、表示部37に表示されるVR画面V5を示す。

0170

VR画面V5は、画面表示W4を含む。画面表示W4は、コンテンツが携帯端末8と共有されていることを示す画像又は文字である。

0171

なお、画面表示W4は、ユーザが認識することができるVR画面V5上の任意の位置に表示可能である。また、画面表示W4は、自動的に又はユーザUの操作により、移動又は消去されてもよい。

0172

以上説明した本実施形態においては、VRシステム1は、VR画面上に生体センサの位置及び向きを表示可能である。これにより、ユーザUは、VR画面内で商品購入し、決済のための生体データの取得が必要な場合であっても、VRヘッドセット3を外すことなく、生体データを入力することができる。

0173

本実施形態においては、決済に生体データが用いられるため、決済の安全性が確保される。

0174

本実施形態においては、ユーザUの所有する携帯端末7を、例えばコントローラ4の代わりとしてVRシステム1に追加可能である。これにより、通常の仮想実現システムと携帯電話とでシステムを構築でき、コスト削減が可能である。

0175

本実施形態においては、生体データ取得装置とユーザUの位置が離れている場合であっても、VRシステム1は、ユーザUが生体データを入力可能な位置までユーザUを誘導する。これにより、さらに生体データを入力するユーザUの利便性が高まる。

0176

本実施形態においては、VRヘッドセット3の表示部37に表示されるVRコンテンツを、VRシステム1に認証された携帯端末8の表示部75にも出力可能とする。これにより、家族でVRシステム1を共有する場合、例えば、VRヘッドセット3を装着した子供がどんなゲームをしているかを、親が自分の携帯端末8を用いて把握することができ、子供を有害コンテンツから守ることができる。また、VRコンテンツを、VRヘッドセット3を装着していない者にも共有することができ、アミューズメント性を高めることができる。

0177

[第2の実施形態]
本実施形態においては、VRシステムのユーザより取得した生体データを用いて、VR画面内に登場させるキャラクター(アバター)の属性を決定するVRシステムについて説明する。

0178

本実施形態で使用するVRシステムは、第1の実施形態におけるVRシステム1と同様である。

0179

図15は、第2の実施形態に係るキャラクター表示時のVR画面表示を例示する図である。

0180

VR画面V6は、ユーザUに対応するキャラクターC、キャラクターCの属性Xを表示する。属性Xは、常にVR画面V6に表示されている必要はなく、ユーザUにより属性Xの表示指示を受けた場合にのみ表示してもよい。

0181

属性Xは、キャラクターCの属性を含む。例えば、属性Xは、名前P1、性別P2、年齢P3、体力P4、性格P5を含む。キャラクターCの属性は、これら以外の項目を含んでいてもよい。

0182

キャラクターCの画像は、属性Xの項目の内容によって、外見や状態が変化するとしてもよい。例えば、性別P2、又は、年齢P3に合致するようにキャラクターCの外見が変化してもよく、体力P4によってキャラクターCの姿勢が変化してもよく、性格P5によってキャラクターCの表情が変化してもよい。

0183

属性Xの各項目は、ユーザUが生体認証を行う毎に、ユーザUの生体データがVRシステム1によって解析された結果に基づいて更新されてもよい。

0184

図16は、第2の実施形態に係る属性決定処理を例示するフローチャートである。

0185

ステップS1601において、ユーザUの生体データが、VRシステム1内の任意の生体データ取得装置に入力される。ユーザUの生体データが入力されるタイミングは、図9のステップS904又はステップS907、又は、図10のステップS1004であってもよく、これら以外のタイミングで入力されてもよい。生体データ取得装置により取得された生体データは、VR処理装置2へ送信される。

0186

ステップS1602において、VR処理装置2の制御部221は、ユーザUが入力した生体データを受信し、解析処理を行う。制御部221は、例えば、生体データが声紋データである場合、声の高さ及び質より、ユーザUの年齢及び性別を判定する。制御部221は、例えば、生体データが顔データである場合、表情を読み取ることにより、ユーザUの性格を判定する。なお、制御部221が行う解析処理は上述のものに限られない。

0187

ステップS1603において、制御部221は、ステップS1602で得られた生体データの解析結果に基づき、キャラクターCの属性の決定を行う。属性の種類(項目)は、あらかじめユーザUにより決められていてもよく、又は、制御部221が解析結果に基づいて自動的に生成されてもよい。

0188

ステップS1604において、制御部221は、ステップS1603で得られた属性に基づいて、キャラクターCの生成処理又は更新処理を行う。なお、キャラクターCの初回生成時は、キャラクターCの基本状態となる画像はあらかじめユーザUによって選択されてもよい。又は、制御部221は、属性に基づいて、キャラクターCを自動生成してもよい。

0189

ステップS1605において、制御部221は、キャラクター情報及び属性情報を、をコンテンツ生成部222へ入力する。コンテンツ生成部222は、入力されたキャラクター情報及び属性情報に基づき、キャラクターC及び属性Xの表示を含むVRコンテンツを生成する。当該VRコンテンツは、コンテンツ送信部223によりVRヘッドセット3へ送信され、表示部37に表示される。

0190

以上説明した本実施形態においては、ユーザUより取得した生体データを用いて、自動的に生体データに含まれる属性Xが反映されたキャラクターCをVR画面内に表示することができる。これにより、ユーザUの個性を反映したキャラクターの生成が可能となり、VRを通じたネットワーク上での個人識別が容易になる。また、ユーザUの個性をキャラクターに反映させることにより、アミューズメント性を高めることができる。

0191

[第3の実施形態]
近年、人工知能AI:Artificial Intelligence)を用い、入力された検診データなどに基づいて病気の自動診断を行うシステムが開発されている。しかしながら、このような診断システムを利用するためには検診データの収集は、ユーザにとって負担であるため、ユーザの利便性を高める技術が望まれている。

0192

本実施形態においては、VRシステムのユーザが日常的にVRシステムに入力する生体データを蓄積し、蓄積した生体データを診断システムに入力して結果を受信することで、ユーザが診断システムの利用に必要なデータの収集を意識することなく、簡易的な病気の診断結果が取得可能な診断システムを提案する。また、診断結果よりユーザが利用可能な病院診療科を提案することにより、さらにユーザの利便性を高めることができる。

0193

図17は、第3の実施形態に係る自動診断システムの構成を例示するブロック図である。

0194

自動診断システム11は、VRシステム1Aと、診断用サーバ装置9と、予約システム10とを含む。

0195

VRシステム1Aに含まれるVR処理装置2は、記憶部23を含む。記憶部23は、生体データD1と、位置情報233を含む。

0196

生体データD1は、ユーザUが生体データ取得装置25,33,43,53,73のいずれかに入力した生体データを格納する。

0197

位置情報233は、例えば、診断用サーバ装置9がユーザUの受診可能な病院を抽出するために用いられる。

0198

位置情報233は、例えば、ユーザUがVRシステム1に予め登録した住所であってもよく、VR処理装置2又は携帯端末7がGPS(Global Positioning System)を備える場合は、後述の画面表示T1を表示する際に当該GPSが示す位置であってもよい。位置情報233の取得方法は、上述のものに限られない。

0199

なお、本実施形態に係るVRシステム1Aのその他の構成は、第1の実施形態におけるVRシステム1の構成と同様である。

0200

診断用サーバ装置9は、記憶部91と、制御部92と、通信部93とを含む。

0201

記憶部91は、病院情報911を含む。

0202

病院情報911は、例えば、病名と、病名に対応可能な病院及び診療科と、病院の位置とを関連付ける情報である。

0203

制御部92は、診断用サーバ装置9全体の制御を行う。制御部92は、例えば、ユーザUの生体データに基づいて診断処理を実行し、診断結果として病名を得る。さらに、制御部92は、病院情報911と、診断結果と、VR処理装置2より受信した位置情報233とに基づいて、病名に対応可能な病院及び診療科の一覧を生成し、当該一覧をVR処理装置へ送信する。

0204

通信部93は、ネットワークNを経由して、例えばVR処理装置2との間で、コマンド、アドレス、データ、情報、指示、信号などを送受信する。

0205

予約システム10は、患者などからの診療日時予約を受け付け可能な、一般的な病院の予約システムである。予約システム10は、例えば病院が備えるサーバ装置上で動作するプログラムなどにより実現される。

0206

図18は、本実施形態に係る自動診断システム11の処理を例示するフローチャートである。

0207

ステップS1801において、VR処理装置2が起動する。VR処理装置2に接続されているVRヘッドセット3、コントローラ4、センサ装置5にも電源が入り、ユーザUによる操作が可能な状態となる。

0208

ステップS1802において、VR処理装置2は、VRシステム1Aにログインする際に生体データの入力を要する場合に、ログイン時に用いた生体データの収集を行う。具体的には、VR処理装置2は、ユーザUがログインの際に生体データ取得装置25,33,43,53,73のいずれかに入力した生体データを、これらの生体データ取得装置を含むVRヘッドセット3、コントローラ4、センサ装置5、携帯端末7のいずれかより受信し、記憶部23に格納する。

0209

なお、VRシステム1Aへのログインは、ユーザUがVR処理装置2に対して行ってもよく、又は、ユーザUが携帯端末7に対して行ってもよい。

0210

ステップS1803において、VR処理装置2は、VRシステム1Aにおいて決済処理が行われる毎に、決済時に用いた生体データの収集を行う。生体データの収集方法は、ステップS1802と同様である。

0211

ステップS1804において、VR処理装置2は、記憶部23に格納されている生体データD1の量及び種類が、診断用サーバ装置9に入力可能な程度に十分であるか否かを確認する。VR処理装置2は、生体データD1の量及び種類が十分でないと判断した場合は、ステップS1802に戻り、生体データの収集を続ける。また、VR処理装置2は、生体データD1の量及び質が十分であると判断した場合は、ステップS1805に進む。

0212

ステップS1805において、VR処理装置2は、VR処理装置の位置情報233を取得し、記憶部23に格納する。そして、VR処理装置2は、生体データD1及び位置情報233を診断用サーバ装置9へ送信する。

0213

ステップS1806において、診断用サーバ装置9は、VR処理装置2より受信した生体データD1に基づいて、診断処理を実行し、診断結果を得る。診断結果は、例えば病名などでもよい。診断処理は、AI(Artificial Intelligence)を用いて行われてもよく、又は、その他任意のアルゴリズムを用いて行われてもよい。

0214

ステップS1807において、診断用サーバ装置9は、VR処理装置2より受信した位置情報233に基づき、ユーザUが利用可能な範囲の病院を検索し、抽出する。さらに、診断用サーバ装置9は、診断結果及び抽出した病院と、病院情報911とに基づいて、ユーザUが受診可能な病院及び診療科を決定する。

0215

ステップS1808において、診断用サーバ装置9は、ステップS1806及びステップS1807において得られた診断結果及びユーザUが受診可能な病院及び診療科を含むデータを、VR処理装置2へ送信する。

0216

ステップS1809において、VR処理装置2は、診断用サーバ装置9より受信したデータに基づき、診断結果、病院、診療科などの情報をVRヘッドセット3の表示部37又は携帯端末7の表示部75に表示する。表示部37,75に表示される画面の詳細については、図19で後述する。

0217

ステップS1810において、VR処理装置2は、ユーザUに、表示部37,75に表示された病院及び診療科を指定させる。ユーザUにより指定された病院及び診療科を示すデータは、予約システム10へ送信される。

0218

ステップS1811において、予約システム10は、ステップS1810において指定した病院及び診療科の予約可能日時を検索し、VR処理装置2へ送信する。

0219

ステップS1812において、VR処理装置2は、予約システム10より受信した予約可能日時を表示部37,75に表示し、ユーザUに予約日時を指定させる。ユーザUにより指定された予約日時は、予約システム10へ送信される。

0220

ステップS1813において、予約システム10は、予約結果をVR処理装置2へ送信し、予約を完了する。

0221

ステップS1814において、VR処理装置2は、予約完了した旨をユーザに通知する。具体的には、例えば、表示部37,75に予約完了メッセージを表示する。

0222

なお、VR処理装置2は、例えば、予約完了後に診断結果を予約済の病院へ送信してもよい。

0223

図19は、本実施形態に係る自動診断システム11における画面表示の第1の例を示す図である。具体的には、図19は、図18のステップS1809において、表示部37,75に表示される診断結果及びユーザUが受診可能な病院及び診療科の一覧を示す。

0224

画面表示T1は、病名Q1、病院Q2、診療科Q3、アドレスQ4を含む。

0225

病名Q1は、受信した診断結果に基づく病名を示す。

0226

病院Q2は、病名Q1に関する診断が受けられる病院名を示す。

0227

診療科Q3は、病院Q2の中でユーザが病名Q1に関して受信可能な診療科を示す。診療科Q3に含まれる各診療科の表示は、ユーザUにより選択可能であることが望ましい。制御部221又は制御部741は、ユーザUにより選択した診療科について、予約画面を表示する。選択された診療科は、例えば表示E3のように強調される。

0228

アドレスQ4は、病院Q2及び診療科Q3の情報の所在を示すアドレスである。アドレスは、例えばURL(Uniform Resource Locator)などであってもよい。

0229

なお、画面表示T1が含む項目は、上述のものに限られない。また、画面表示T1は表形式以外の形式で表示されてもよい。アドレスQ4に含まれる各アドレスの表示は、ユーザUにより選択可能であってもよい。この場合、制御部221又は制御部741は、ユーザUにより選択されたアドレスQ4に関連付けられたウェブページなどを表示してもよい。

0230

図20は、本実施形態に係る自動診断システム11における画面表示の第2の例を示す図である。具体的には、図20は、図18のステップS1812において、表示部37,75に表示される予約画面を示す。図20は、図19の画面表示T1において、「A病院の耳鼻科」が選択された場合(表示E3参照)に表示される画面を示す。

0231

画面表示T2は、日付選択表示E4を含む。日付選択表示E4は、例えばカレンダー表示であってもよく、リスト表示であってもよい。

0232

日付選択表示E4は、予約可能な日付と、予約不可である日付が明示されていることが望ましい。制御部221又は制御部741は、ユーザUにより予約可能な日付が選択されると、時間帯選択表示E5をさらに表示してもよい。ユーザUは、さらに予約可能な時間帯を選択することにより、予約日時の指定を完了させる。なお、時間帯選択表示E5は、例えば、ポップアップ表示、リスト表示、又はその他の表示形式であってもよい。

0233

本実施形態において、画面表示T1,T2は、VR処理装置2又は携帯端末7にインストールされたアプリケーションにより表示されてもよい。この場合、病院Q2及び診療科Q3を検索して表示する処理及び画面表示処理は、当該アプリケーションがプロセッサ22、プロセッサ74を使用して行われてもよい。

0234

以上説明した本実施形態においては、自動診断システム11は、ユーザUがVRシステム1Aにログインする際又は決済を行う際にVRシステム1Aに入力する生体データを収集し、診断用サーバ装置9へ送信する。これにより、ユーザUは診断用サーバ装置9へ入力するデータの収集を意識的に行うことなく診断結果を取得可能となり、ユーザの利便性が高まる。また、自動診断システム11は、診断結果に基づいて最適な病院及び診療科を選択し、来院予約を行うとともに、診断用サーバ装置9より得られた診断結果を送信する。これによりさらにユーザの利便性が高まるだけでなく、医療ミスの防止及び診療時間の短縮にも貢献できる。

0235

なお、本実施形態において、自動診断システム11は、ユーザUの病名の診断に限らず、あらゆる種類の診断に適用可能である。例えば、自動診断システム11を健康診断に適用する場合、自動診断システム11は、画面表示T1の内容のうち、病名Q1及び診療科Q3に代えて、検査項目及び詳細検査機関を関連付け、ユーザUに提示するとしてもよい。

0236

また、本実施形態において、自動診断システム11には、VRシステム1に代えて、生体データD1の取得及び位置情報233の取得又は格納が可能な他の情報処理装置又はシステムが含まれるとしてもよい。

0237

上記の実施形態は、例示であり、発明の範囲を限定することは意図していない。上記の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。上記の実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。

ページトップへ

この技術を出願した法人

この技術を発明した人物

ページトップへ

関連する挑戦したい社会課題

関連する公募課題

ページトップへ

技術視点だけで見ていませんか?

この技術の活用可能性がある分野

分野別動向を把握したい方- 事業化視点で見る -

(分野番号表示ON)※整理標準化データをもとに当社作成

ページトップへ

おススメ サービス

おススメ astavisionコンテンツ

新着 最近 公開された関連が強い技術

  • サン電子株式会社の「 ゲームプログラム」が 公開されました。( 2019/06/27)

    【課題・解決手段】ゲームシステムのためのゲームプログラムであって、前記ゲームシステムは、プレイヤーの視界を覆うように前記プレイヤーの頭部に装着される頭部装着型ディスプレイと、前記プレイヤーの身体的な動... 詳細

  • 三菱電機株式会社の「 情報処理システム」が 公開されました。( 2019/06/27)

    【課題・解決手段】3台の床ロボット(130)の各々は、3台の床ロボット(130)の各々から一つずつ選択された3つの頂点が対向している位置が中心点となるように、他の2台の床ロボット(130)と隣接し、情... 詳細

  • 三菱電機株式会社の「 検索装置および検索方法」が 公開されました。( 2019/06/27)

    【課題・解決手段】本発明は、データを検索する際に短時間で所望の検索対象を含む検索候補を挙げることが可能な検索装置および検索方法を提供することを目的とする。本発明による検索装置は、ユーザが入力した文字を... 詳細

この 技術と関連性が強い人物

関連性が強い人物一覧

この 技術と関連する社会課題

関連する挑戦したい社会課題一覧

この 技術と関連する公募課題

関連する公募課題一覧

astavision 新着記事

サイト情報について

本サービスは、国が公開している情報(公開特許公報、特許整理標準化データ等)を元に構成されています。出典元のデータには一部間違いやノイズがあり、情報の正確さについては保証致しかねます。また一時的に、各データの収録範囲や更新周期によって、一部の情報が正しく表示されないことがございます。当サイトの情報を元にした諸問題、不利益等について当方は何ら責任を負いかねることを予めご承知おきのほど宜しくお願い申し上げます。

主たる情報の出典

特許情報…特許整理標準化データ(XML編)、公開特許公報、特許公報、審決公報、Patent Map Guidance System データ