図面 (/)

技術 プログラム、情報記憶媒体及び画像生成システム

出願人 株式会社バンダイナムコエンターテインメント
発明者 榊原忠嗣山口兼太郎稲垣武俊恩田明生
出願日 2010年3月31日 (9年0ヶ月経過) 出願番号 2010-083892
公開日 2011年10月27日 (7年5ヶ月経過) 公開番号 2011-215920
状態 特許登録済
技術分野 イメージ処理・作成 電子ゲーム機 イメージ生成
主要キーワード 立体形 所持物 移動アルゴリズム スケルトン情報 ズームアップ画像 シェーディング画像 軌道方向 代表位置情報
関連する未来課題
重要な関連分野

この項目の情報は公開日時点(2011年10月27日)のものです。
また、この項目は機械的に抽出しているため、正しく解析できていない場合があります

図面 (20)

課題

これまでにはない仮想カメラ視点設定手法を実現できるプログラム情報記憶媒体画像生成システム等の提供。

解決手段

画像生成システムは、画像センサからの画像情報を取得する画像情報取得部と、画像情報に基づいて、画像を表示する表示部又は画像センサに対するプレーヤ位置情報を取得する情報取得部と、取得されたプレーヤの位置情報に基づいて、プレーヤに対応するキャラクタと仮想カメラとの間の奥行き方向での距離、キャラクタと仮想カメラとの間の高さ方向での距離、キャラクタと仮想カメラとの間の横方向での距離、及び仮想カメラの画角の少なくとも1つを制御する仮想カメラ制御部と、オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部を含む。

概要

背景

近年、従来の操作ボタン方向キーを備えたゲームコントローラに代わって、モーションセンサを内蔵するゲームコントローラを用いてゲーム操作が可能なゲーム装置人気を博している。このような操作インターフェースを備えるゲーム装置によれば、プレーヤ直感的な操作入力が可能になり、ゲーム操作の簡素化等を図れる。このような直感的なインターフェースを可能にするゲーム装置の従来技術としては例えば特許文献1に開示される技術がある。

しかしながら、モーションセンサを内蔵するゲームコントローラでは、プレーヤの操作対象はゲームコントローラであり、プレーヤの任意の所持物や、プレーヤの手や体そのものを使ってゲーム操作を行うことはできない。このため、プレーヤの仮想現実感の向上が不十分であるという課題がある。

また3次元ゲームでは、プレーヤの視点に対応する仮想カメラの視点設定が重要になる。この仮想カメラの視点設定としては三人称視点一人称視点などがある。そして三人称視点では、キャラクタ後方に仮想カメラが設定されるが、キャラクタと仮想カメラとの間の距離に応じて画像の見え方が異なったものになる。

しかしながら、例えばゲームコントローラを用いない操作インターフェースを実現しようとした場合に、上述のような仮想カメラの視点設定を如何にして実現するかが課題になる。

概要

これまでにはない仮想カメラの視点設定手法を実現できるプログラム情報記憶媒体画像生成システム等の提供。画像生成システムは、画像センサからの画像情報を取得する画像情報取得部と、画像情報に基づいて、画像を表示する表示部又は画像センサに対するプレーヤの位置情報を取得する情報取得部と、取得されたプレーヤの位置情報に基づいて、プレーヤに対応するキャラクタと仮想カメラとの間の奥行き方向での距離、キャラクタと仮想カメラとの間の高さ方向での距離、キャラクタと仮想カメラとの間の横方向での距離、及び仮想カメラの画角の少なくとも1つを制御する仮想カメラ制御部と、オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部を含む。

目的

なお、表示部190又は画像センサに対してプレーヤが「左方向」、「右方向」に移動とは、プレーヤから表示部190又は画像センサに向かう方向に対して「左方向」、「右方向」に移動することである

効果

実績

技術文献被引用数
0件
牽制数
3件

この技術が所属する分野

(分野番号表示ON)※整理標準化データをもとに当社作成

ライセンス契約や譲渡などの可能性がある特許掲載中! 開放特許随時追加・更新中 詳しくはこちら

請求項1

画像センサからの画像情報を取得する画像情報取得部と、前記画像情報に基づいて、画像を表示する表示部又は前記画像センサに対するプレーヤ位置情報を取得する情報取得部と、取得された前記プレーヤの前記位置情報に基づいて、前記プレーヤに対応するキャラクタ仮想カメラとの間の奥行き方向での距離、前記キャラクタと前記仮想カメラとの間の高さ方向での距離、前記キャラクタと前記仮想カメラとの間の横方向での距離、及び前記仮想カメラの画角の少なくとも1つを制御する仮想カメラ制御部と、オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部として、コンピュータを機能させることを特徴とするプログラム

請求項2

請求項1において、前記仮想カメラ制御部は、前記表示部又は前記画像センサと前記プレーヤとの間の距離が長くなるにつれて、前記キャラクタと前記仮想カメラとの間の前記奥行き方向での距離を長くする制御を行うことを特徴とするプログラム。

請求項3

請求項1又は2において、前記仮想カメラ制御部は、前記表示部又は前記画像センサと前記プレーヤとの間の距離が長くなるにつれて、前記キャラクタと前記仮想カメラとの間の前記高さ方向での距離を長くする制御を行うことを特徴とするプログラム。

請求項4

請求項1乃至3のいずれかにおいて、前記仮想カメラ制御部は、前記表示部又は前記画像センサと前記プレーヤとの間の距離が長くなるにつれて、前記仮想カメラの前記画角を広くする制御を行うことを特徴とするプログラム。

請求項5

請求項1乃至4のいずれかにおいて、前記仮想カメラ制御部は、前記表示部又は前記画像センサに対して前記プレーヤが左方向及び右方向の一方の方向に移動した場合に、前記キャラクタに対して前記仮想カメラを前記一方の方向とは異なる他方の方向に移動する制御を行うことを特徴とするプログラム。

請求項6

請求項1乃至5のいずれかにおいて、前記仮想カメラ制御部は、前記表示部又は前記画像センサと前記プレーヤとの間の距離が短い場合には、前記仮想カメラを一人称視点の設定にし、前記表示部又は前記画像センサと前記プレーヤとの間の距離が長い場合には、前記仮想カメラを三人称視点の設定にすることを特徴とするプログラム。

請求項7

請求項6において、前記画像生成部は、前記仮想カメラの前記画角の制御により前記一人称視点の設定が行われた場合には、前記キャラクタの少なくとも一部を描画対象から除外するクリッピング処理を行うことを特徴とするプログラム。

請求項8

請求項1乃至7のいずれかにおいて、前記画像情報取得部は、前記画像センサからの前記画像情報として、各画素位置デプス値が設定されたデプス情報を取得し、前記情報取得部は、前記デプス情報に基づいて、前記プレーヤの前記位置情報を取得することを特徴とするプログラム。

請求項9

請求項1乃至8のいずれかにおいて、前記プレーヤが右手左手のいずれの手を用いてプレイ動作を行っているかを判定する判定部として、コンピュータを機能させ、前記画像生成部は、前記プレーヤが右手を用いてプレイ動作を行っている場合と左手を用いてプレイ動作を行っている場合とで、異なる画像を生成することを特徴とするプログラム。

請求項10

請求項9において、前記情報取得部は、前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、前記判定部は、前記プレーヤが右手、左手のいずれの手を用いてプレイ動作を行っているかを、前記スケルトン情報に基づいて判定することを特徴とするプログラム。

請求項11

請求項9又は10において、前記画像生成部は、三人称視点において前記プレーヤが右手を用いてプレイ動作を行っていると判定された場合には、前記表示部の画面の左側に前記キャラクタが表示される画像を生成し、前記三人称視点において前記プレーヤが左手を用いてプレイ動作を行っていると判定された場合には、前記表示部の画面の右側に前記キャラクタが表示される画像を生成することを特徴とするプログラム。

請求項12

請求項9乃至11のいずれかにおいて、前記画像生成部は、一人称視点において前記プレーヤが右手を用いてプレイ動作を行っていると判定された場合には、前記表示部の画面の右側に前記キャラクタの一部の部位が表示される画像を生成し、前記一人称視点において前記プレーヤが左手を用いてプレイ動作を行っていると判定された場合には、前記表示部の画面の左側に前記キャラクタの一部の部位が表示される画像を生成することを特徴とするプログラム。

請求項13

請求項1乃至12のいずれかにおいて、前記情報取得部は、前記画像センサからの前記画像情報に基づく画像処理を行って、前記プレーヤの所持物又は部位についての方向情報色情報及び形状情報の少なくとも1つを、レンダリング用情報として取得し、前記画像生成部は、前記方向情報、前記色情報及び前記形状情報の少なくとも1つである前記レンダリング用情報に基づくレンダリング処理を行って、画像を生成することを特徴とするプログラム。

請求項14

請求項1乃至13のいずれかにおいて、ヒット演算処理を行うヒット演算部として、コンピュータを機能させ、前記情報取得部は、前記画像センサからの前記画像情報に基づく画像処理を行って、前記プレーヤの所持物又は部位についての方向情報及び形状情報の少なくとも1つを、ヒット演算用情報として取得し、前記ヒット演算部は、取得された前記ヒット演算用情報に基づいてヒット演算処理を行うことを特徴とするプログラム。

請求項15

画像を表示する表示部とプレーヤとの距離情報を取得する情報取得部と、仮想カメラを制御する仮想カメラ制御部と、オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部として、コンピュータを機能させ、前記仮想カメラ制御部は、前記表示部と前記プレーヤとの間の距離が長くなるにつれて、前記プレーヤに対応するキャラクタと前記仮想カメラとの間の奥行き方向での距離を長くする制御又は前記仮想カメラの画角を広くする制御を行うことを特徴とするプログラム。

請求項16

画像を表示する表示部とプレーヤとの距離情報を取得する情報取得部と、仮想カメラを制御する仮想カメラ制御部と、オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部として、コンピュータを機能させ、前記仮想カメラ制御部は、前記表示部と前記プレーヤとの間の距離が短い場合には、前記仮想カメラを一人称視点の設定にし、前記表示部と前記プレーヤとの間の距離が長い場合には、前記仮想カメラを三人称視点の設定にすることを特徴とするプログラム。

請求項17

コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至16のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。

請求項18

画像センサからの画像情報を取得する画像情報取得部と、前記画像情報に基づいて、画像を表示する表示部又は前記画像センサに対するプレーヤの位置情報を取得する情報取得部と、取得された前記プレーヤの前記位置情報に基づいて、前記プレーヤに対応するキャラクタと仮想カメラとの間の奥行き方向での距離、前記キャラクタと前記仮想カメラとの間の高さ方向での距離、前記キャラクタと前記仮想カメラとの間の横方向での距離、及び前記仮想カメラの画角の少なくとも1つを制御する仮想カメラ制御部と、オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部と、を含むことを特徴とする画像生成システム

請求項19

画像を表示する表示部からのプレーヤの距離情報を取得する情報取得部と、仮想カメラを制御する仮想カメラ制御部と、オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部とを含み、前記仮想カメラ制御部は、前記表示部と前記プレーヤとの間の距離が長くなるにつれて、前記プレーヤに対応するキャラクタと前記仮想カメラとの間の奥行き方向での距離を長くする制御又は前記仮想カメラの画角を広くする制御を行うことを特徴とする画像生成システム。

請求項20

画像を表示する表示部からのプレーヤの距離情報を取得する情報取得部と、仮想カメラを制御する仮想カメラ制御部と、オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部とを含み、前記仮想カメラ制御部は、前記表示部と前記プレーヤとの間の距離が短い場合には、前記仮想カメラを一人称視点の設定にし、前記表示部と前記プレーヤとの間の距離が長い場合には、前記仮想カメラを三人称視点の設定にすることを特徴とする画像生成システム。

技術分野

0001

本発明は、プログラム情報記憶媒体及び画像生成システム等に関する。

背景技術

0002

近年、従来の操作ボタン方向キーを備えたゲームコントローラに代わって、モーションセンサを内蔵するゲームコントローラを用いてゲーム操作が可能なゲーム装置人気を博している。このような操作インターフェースを備えるゲーム装置によれば、プレーヤ直感的な操作入力が可能になり、ゲーム操作の簡素化等を図れる。このような直感的なインターフェースを可能にするゲーム装置の従来技術としては例えば特許文献1に開示される技術がある。

0003

しかしながら、モーションセンサを内蔵するゲームコントローラでは、プレーヤの操作対象はゲームコントローラであり、プレーヤの任意の所持物や、プレーヤの手や体そのものを使ってゲーム操作を行うことはできない。このため、プレーヤの仮想現実感の向上が不十分であるという課題がある。

0004

また3次元ゲームでは、プレーヤの視点に対応する仮想カメラの視点設定が重要になる。この仮想カメラの視点設定としては三人称視点一人称視点などがある。そして三人称視点では、キャラクタ後方に仮想カメラが設定されるが、キャラクタと仮想カメラとの間の距離に応じて画像の見え方が異なったものになる。

0005

しかしながら、例えばゲームコントローラを用いない操作インターフェースを実現しようとした場合に、上述のような仮想カメラの視点設定を如何にして実現するかが課題になる。

先行技術

0006

特開2009−89629号公報

発明が解決しようとする課題

0007

本発明の幾つかの態様によれば、これまでにはない仮想カメラの視点設定手法を実現できるプログラム、情報記憶媒体、画像生成システム等を提供できる。

課題を解決するための手段

0008

本発明の一態様は、画像センサからの画像情報を取得する画像情報取得部と、前記画像情報に基づいて、画像を表示する表示部又は前記画像センサに対するプレーヤの位置情報を取得する情報取得部と、取得された前記プレーヤの前記位置情報に基づいて、前記プレーヤに対応するキャラクタと仮想カメラとの間の奥行き方向での距離、前記キャラクタと前記仮想カメラとの間の高さ方向での距離、前記キャラクタと前記仮想カメラとの間の横方向での距離、及び前記仮想カメラの画角の少なくとも1つを制御する仮想カメラ制御部と、オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。

0009

本発明の一態様によれば、画像センサからの画像情報に基づきプレーヤの位置情報が取得される。そしてプレーヤの位置情報に基づき、キャラクタと仮想カメラとの間の奥行き方向での距離、高さ方向での距離、横方向での距離、及び仮想カメラの画角の少なくとも1つが制御され、オブジェクト空間内において仮想カメラから見える画像が生成される。このようにすれば、画像情報に基づき取得されたプレーヤの位置情報を、キャラクタと仮想カメラとの間の奥行き方向、高さ方向又は横方向での距離や画角に反映させて、画像を生成することが可能になる。従って、プレーヤの動きなどに応じて、キャラクタと仮想カメラの相対的な位置関係等を変化させることが可能になり、これまでにはない仮想カメラの視点設定手法を実現できる。

0010

また本発明の一態様では、前記仮想カメラ制御部は、前記表示部又は前記画像センサと前記プレーヤとの間の距離が長くなるにつれて、前記キャラクタと前記仮想カメラとの間の前記奥行き方向での距離を長くする制御を行ってもよい。

0011

このようにすれば、プレーヤが表示部又は画像センサから遠ざかると、キャラクタに対して仮想カメラが奥行き方向に遠ざかるようになり、これまでにはない仮想カメラの視点設定手法を実現できる。

0012

また本発明の一態様では、前記仮想カメラ制御部は、前記表示部又は前記画像センサと前記プレーヤとの間の距離が長くなるにつれて、前記キャラクタと前記仮想カメラとの間の前記高さ方向での距離を長くする制御を行ってもよい。

0013

このようにすれば、プレーヤが表示部又は画像センサから遠ざかると、キャラクタに対して仮想カメラが上方向に移動するようになり、これまでにはない仮想カメラの視点設定手法を実現できる。

0014

また本発明の一態様では、前記仮想カメラ制御部は、前記表示部又は前記画像センサと前記プレーヤとの間の距離が長くなるにつれて、前記仮想カメラの前記画角を広くする制御を行ってもよい。

0015

このようにすれば、プレーヤが表示部又は画像センサから遠ざかると、仮想カメラの画角が広くなり、例えばズームアウトされたような画像が生成されるようになる。

0016

また本発明の一態様では、前記仮想カメラ制御部は、前記表示部又は前記画像センサに対して前記プレーヤが左方向及び右方向の一方の方向に移動した場合に、前記キャラクタに対して前記仮想カメラを前記一方の方向とは異なる他方の方向に移動する制御を行ってもよい。

0017

このようにすれば、表示部又は画像センサに対してプレーヤが横方向に移動すると、キャラクタに対して仮想カメラが異なる方向に移動するようになり、これまでにない視点制御で画像を生成できるようになる。

0018

また本発明の一態様では、前記仮想カメラ制御部は、前記表示部又は前記画像センサと前記プレーヤとの間の距離が短い場合には、前記仮想カメラを一人称視点の設定にし、前記表示部又は前記画像センサと前記プレーヤとの間の距離が長い場合には、前記仮想カメラを三人称視点の設定にしてもよい。

0019

このようにすれば、表示部又は画像センサとプレーヤとの距離に応じて一人称視点と三人称視点を切り替えることが可能になり、プレーヤにとって直感的に分かりやすい操作インターフェース環境を提供できる。

0020

また本発明の一態様では、前記画像生成部は、前記仮想カメラの前記画角の制御により前記一人称視点の設定が行われた場合には、前記キャラクタの少なくとも一部を描画対象から除外するクリッピング処理を行ってもよい。

0021

このようにすれば、仮想カメラの画角の制御により一人称視点の設定が行われる場合に、適正な一人称視点の画像を生成できる。

0022

また本発明の一態様では、前記画像情報取得部は、前記画像センサからの前記画像情報として、各画素位置デプス値が設定されたデプス情報を取得し、前記情報取得部は、前記デプス情報に基づいて、前記プレーヤの前記位置情報を取得してもよい。

0023

このようにすれば、表示部側や画像センサ側から見たプレーヤの位置情報を簡素な処理で効率的に取得できるようになる。

0024

また本発明の一態様では、前記プレーヤが右手左手のいずれの手を用いてプレイ動作を行っているかを判定する判定部を含み(判断部としてコンピュータを機能させ)、前記画像生成部は、前記プレーヤが右手を用いてプレイ動作を行っている場合と左手を用いてプレイ動作を行っている場合とで、異なる画像を生成してもよい。

0025

このようにすれば、プレーヤが左右のいずれの手を用いてプレイ動作を行っているかに応じた適切な画像を生成できる。

0026

また本発明の一態様では、前記情報取得部は、前記画像センサからの前記画像情報に基づいて、前記画像センサから見える前記プレーヤの動作を特定するスケルトン情報を取得し、前記判定部は、前記プレーヤが右手、左手のいずれの手を用いてプレイ動作を行っているかを、前記スケルトン情報に基づいて判定してもよい。

0027

このようにすれば、スケルトン情報を有効活用して、プレーヤが左右のいずれの手を用いてプレイ動作を行っているかを検出できる。

0028

また本発明の一態様では、前記画像生成部は、三人称視点において前記プレーヤが右手を用いてプレイ動作を行っていると判定された場合には、前記表示部の画面の左側に前記キャラクタが表示される画像を生成し、前記三人称視点において前記プレーヤが左手を用いてプレイ動作を行っていると判定された場合には、前記表示部の画面の右側に前記キャラクタが表示される画像を生成してもよい。

0029

このようにすれば、プレーヤが左右のいずれの手を用いてプレイ動作を行っているかに応じた適切な三人称視点の画像を生成できるようになるため、プレーヤのゲームプレイの容易化等を図れる。

0030

また本発明の一態様では、前記画像生成部は、一人称視点において前記プレーヤが右手を用いてプレイ動作を行っていると判定された場合には、前記表示部の画面の右側に前記キャラクタの一部の部位が表示される画像を生成し、前記一人称視点において前記プレーヤが左手を用いてプレイ動作を行っていると判定された場合には、前記表示部の画面の左側に前記キャラクタの一部の部位が表示される画像を生成してもよい。

0031

このようにすれば、プレーヤが左右のいずれの手を用いてプレイ動作を行っているかに応じた適切な一人称視点の画像を生成できるようになるため、プレーヤのゲームプレイの容易化等を図れる。

0032

また本発明の一態様では、前記情報取得部は、前記画像センサからの前記画像情報に基づく画像処理を行って、前記プレーヤの所持物又は部位についての方向情報色情報及び形状情報の少なくとも1つを、レンダリング用情報として取得し、前記画像生成部は、前記方向情報、前記色情報及び前記形状情報の少なくとも1つである前記レンダリング用情報に基づくレンダリング処理を行って、画像を生成してもよい。

0033

このようにすれば、画像情報に基づく画像処理により取得されたプレーヤの所持物又は部位の方向情報、色情報又は形状情報を、レンダリング処理に反映させることが可能になり、プレーヤの所持物や部位の動きなどを反映させた画像を生成できるようになる。

0034

また本発明の一態様では、ヒット演算処理を行うヒット演算部を含み(ヒット演算部としてコンピュータを機能させ)、前記情報取得部は、前記画像センサからの前記画像情報に基づく画像処理を行って、前記プレーヤの所持物又は部位についての方向情報及び形状情報の少なくとも1つを、ヒット演算用情報として取得し、前記ヒット演算部は、取得された前記ヒット演算用情報に基づいてヒット演算処理を行ってもよい。

0035

このようにすれば、画像情報により取得されたプレーヤの所持物又は部位の方向情報、色情報又は形状情報をヒット演算処理に反映させることが可能になり、プレーヤの所持物や部位の動きなどを反映させた画像を生成できるようになる。

0036

また本発明の他の態様は、画像を表示する表示部とプレーヤとの距離情報を取得する情報取得部と、仮想カメラを制御する仮想カメラ制御部と、オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部とを含み、前記仮想カメラ制御部は、前記表示部と前記プレーヤとの間の距離が長くなるにつれて、前記プレーヤに対応するキャラクタと前記仮想カメラとの間の奥行き方向での距離を長くする制御又は前記仮想カメラの画角を広くする制御を行う画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。

0037

本発明の他の態様によれば、表示部とプレーヤとの距離情報が取得される。そして表示部とプレーヤとの間の距離が長くなると、キャラクタと仮想カメラとの間の奥行き方向での距離が長くなったり、仮想カメラの画角が広くなる制御が行われて、オブジェクト空間内において仮想カメラから見える画像が生成される。このようにすれば、表示部とプレーヤとの距離情報を、キャラクタと仮想カメラとの間の奥行き方向での距離や画角に反映させて、画像を生成することが可能になる。従って、プレーヤの動きなどに応じて、仮想カメラの奥行き方向での距離や画角が変化するようになり、これまでにはない仮想カメラの視点設定手法を実現できる。

0038

また本発明の他の態様は、画像を表示する表示部とプレーヤとの距離情報を取得する情報取得部と、仮想カメラを制御する仮想カメラ制御部と、オブジェクト空間内において前記仮想カメラから見える画像を生成する画像生成部とを含み、前記仮想カメラ制御部は、前記表示部と前記プレーヤとの間の距離が短い場合には、前記仮想カメラを一人称視点の設定にし、前記表示部と前記プレーヤとの間の距離が長い場合には、前記仮想カメラを三人称視点の設定にする画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。

0039

本発明の他の態様によれば、表示部とプレーヤとの距離情報が取得される。そして、表示部とキャラクタとの距離が短い場合には、仮想カメラが一人称視点に設定され、距離が長い場合には三人称視点に設定されて、オブジェクト空間内において仮想カメラから見える画像が生成される。このようにすれば、表示部とプレーヤとの距離に応じて一人称視点と三人称視点が切り替わるようになり、これまでにはない仮想カメラの視点設定手法を実現できる。

図面の簡単な説明

0040

本実施形態の画像生成システムの構成例。
図2(A)、図2(B)は画像センサを用いたカラー画像情報、デプス情報の取得手法の説明図。
図3(A)、図3(B)はプレーヤの位置情報に基づきキャラクタと仮想カメラの奥行き方向での距離を変化させる手法の説明図。
図4(A)、図4(B)もプレーヤの位置情報に基づきキャラクタと仮想カメラの奥行き方向での距離を変化させる手法の説明図。
図5(A)、図5(B)はプレーヤの位置情報に基づきキャラクタと仮想カメラの高さ方向での距離を変化させる手法の説明図。
図6(A)〜図6(D)はプレーヤの位置情報に基づき仮想カメラの画角を変化させる手法の説明図。
本実施形態により実現される操作インターフェース環境の説明図。
図8(A)〜図8(D)はプレーヤの位置情報に基づきキャラクタと仮想カメラの横方向での距離を変化させる手法の説明図。
本実施形態により生成される画像の例。
図10(A)、図10(B)はプレーヤの位置情報に基づき一人称視点と三人称視点を切り替える手法の説明図。
図11(A)、図11(B)は本実施形態により生成される画像の例。
図12(A)〜図12(C)は仮想カメラの画角の制御により一人称視点と三人称視点を切り替える手法の説明図。
図13(A)、図13(B)は本実施形態により生成される画像の例。
デプス情報に基づいてプレーヤのスケルトン情報を求める手法の説明図。
図15(A)、図15(B)は本実施形態により生成される画像の例。
図16(A)、図16(B)は本実施形態により生成される画像の例。
図17(A)、図17(B)はプレーヤの所持物等の方向情報等をレンダリング用情報として取得する手法の説明図。
図18(A)、図18(B)は取得されたレンダリング用情報を用いたレンダリング処理の説明図。
図19(A)、図19(B)はプレーヤの所持物等の形状情報、色情報をレンダリング処理に反映させる手法の説明図。
プレーヤのスケルトン情報に基づいて光源の配置位置等を特定する手法の説明図。
図21(A)、図21(B)はプレーヤのスケルトン情報を用いてプレーヤの所持物等の方向情報を取得する手法の説明図。
図22(A)、図22(B)はプレーヤのスケルトン情報を用いて画像処理の処理領域を設定する手法の説明図。
図23(A)、図23(B)はプレーヤの所持物等の方向情報等をヒット演算用情報として取得する手法の説明図。
本実施形態の処理を説明するフローチャート
本実施形態の処理を説明するフローチャート。
本実施形態の処理を説明するフローチャート。
本実施形態の処理を説明するフローチャート。

実施例

0041

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。

0042

1.構成
図1に本実施形態の画像生成システム(ゲーム装置)のブロック図の例を示す。なお、本実施形態の画像生成システムの構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。

0043

操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、方向指示キー、操作ボタン、アナログスティックレバー、各種センサ角速度センサ加速度センサ等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。

0044

また操作部160は、例えばカラー画像センサデプスセンサなどにより実現される画像センサを含む。なお操作部160の機能を画像センサだけで実現してもよい。

0045

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAMVRAM)などにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。

0046

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、HDDハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。

0047

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。

0048

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカードマルチメディアカードなどのメモリーカードなどにより実現できる。

0049

通信部196は、有線無線ネットワークを介して外部(例えば他の画像生成システム、サーバホスト装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。

0050

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置194)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。

0051

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理画像生成処理、或いは音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。

0052

処理部100は、画像情報取得部102、情報取得部104、ゲーム演算部108、ヒット演算部110、オブジェクト空間設定部112、キャラクタ制御部114、仮想カメラ制御部118、判定部119、画像生成部120、音生成部130を含む。また情報取得部104はスケルトン情報取得部105を含み、キャラクタ制御部114は移動処理部115、モーション処理部116を含む。画像生成部120は光源設定部122を含む。なおこれらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。

0053

画像情報取得部102は、画像センサからの画像情報を取得する。例えば画像センサにより撮像された画像の情報は、記憶部170の画像情報記憶部171に保存される。具体的には、画像センサのカラー画像センサにより撮像されたカラー画像の情報はカラー画像情報記憶部172に保存され、画像センサのデプスセンサにより撮像されたデプス画像の情報はデプス情報記憶部173に保存される。画像情報取得部102は、これらの画像情報を画像情報記憶部171から読み出すことで画像情報を取得する。

0054

情報取得部104は、画像情報取得部102が取得した画像情報に基づいて、プレーヤの位置情報を取得する。またレンダリング用情報やヒット演算用情報を取得する。

0055

ゲーム演算部108はゲーム演算処理を行う。ここでゲーム演算としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。

0056

ヒット演算部110はヒット演算処理を行う。例えばヒットチェック処理やヒット演出処理などを行う。具体的には、弾等の軌道方向ターゲットオブジェクトヒットチェックを行い、ヒットしたと判定された場合に、ヒットエフェクトを発生する処理などを行う。

0057

オブジェクト空間設定部112は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行う。例えば、キャラクタ(人、動物ロボット、車、船舶飛行機等)、マップ地形)、建物コース道路)、樹木、壁などの表示物を表す各種オブジェクトポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部175には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部112は、例えば各フレーム毎にこのオブジェクトデータを更新する処理などを行う。

0058

キャラクタ制御部114は、オブジェクト空間を移動(動作)するキャラクタの制御を行う。例えばキャラクタ制御部114が含む移動処理部115は、キャラクタ(モデルオブジェクト移動オブジェクト)を移動させる処理を行う。例えば操作部160によりプレーヤが入力した操作情報や、プログラム(移動アルゴリズム)や、各種データなどに基づいて、キャラクタをオブジェクト空間内で移動させる。具体的には、キャラクタの移動情報(位置、回転角度、速度、或いは加速度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動処理やモーション処理や画像生成処理を行う時間の単位である。

0059

キャラクタ制御部114が含むモーション処理部116は、キャラクタにモーションアニメーション)を行わせるモーション処理(モーション再生モーション生成)を行う。このモーション処理は、キャラクタのモーションを、モーションデータ記憶部176に記憶されているモーションデータに基づいて再生することなどで実現できる。

0060

具体的にはモーションデータ記憶部176には、キャラクタ(モデルオブジェクト)のスケルトンを構成する各骨(キャラクタを構成する各パーツオブジェクト)の位置又は回転角度(親の骨に対する子の骨の3軸周りの回転角度)等を含むモーションデータが記憶されている。またモデルデータ記憶部177は、キャラクタを表すモデルオブジェクトのモデルデータを記憶する。モーション処理部116は、このモーションデータをモーションデータ記憶部176から読み出し、読み出されたモーションデータに基づいてスケルトンを構成する各骨(パーツオブジェクト)を動かすことで(スケルトン形状を変形させることで)、キャラクタのモーションを再生する。

0061

仮想カメラ制御部118は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。

0062

例えば仮想カメラによりキャラクタを後方から撮影する場合には、キャラクタの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動処理部115で得られたキャラクタの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。

0063

判定部119は、プレーヤが右手、左手のいずれの手を用いてプレイ動作を行っているかを判定する。即ち、右手、左手のいずれを用いて、攻撃動作移動指示動作等のプレイ動作を行っているかを判定する。

0064

画像生成部120は、処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点位置座標テクスチャ座標色データ法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ179(フレームバッファワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、描画処理は頂点シェーダ処理やピクセルシェーダ処理により実現することができる。

0065

画像生成部120が含む光源設定部122は、光源の設定処理を行う。例えば光源の光源方向光源色光源位置等の光源情報の設定処理を行う。この光源情報は光源情報記憶部178に保存される。

0066

なお、画像生成部120が、いわゆる立体視用の画像を生成するようにしてもよい。この場合には、基準となる仮想カメラの位置とカメラ間距離を用いて、左目用仮想カメラ右目用仮想カメラを配置設定する。そして画像生成部120が、オブジェクト空間内において左目用仮想カメラから見える左目用画像と、オブジェクト空間内において右目用仮想カメラから見える右目用画像を生成する。そしてこれらの左目用画像、右目用画像を用いて、眼分離眼鏡方式や、レンティキュラーレンズなどを用いた裸眼方式などにより、立体視を実現すればよい。

0067

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。

0068

そして本実施形態では画像情報取得部102が画像センサからの画像情報を取得すると、情報取得部104が、表示部190又は画像センサに対するプレーヤ(観者)の位置情報を取得する。この位置情報は、表示部190又は画像センサに対するプレーヤの相対的な位置関係を表す情報であり、表示部190又は画像センサに対するプレーヤの相対的な3次元位置座標の情報であってもよいし、表示部190又は画像センサとプレーヤの距離を表す距離情報などであってもよい。

0069

このようにプレーヤの位置情報が取得されると、仮想カメラ制御部118は、取得された位置情報に基づいて、プレーヤに対応するキャラクタと仮想カメラとの間の奥行き方向での距離、キャラクタと仮想カメラとの間の高さ方向での距離、キャラクタと仮想カメラとの間の横方向での距離、及び仮想カメラの画角の少なくとも1つを制御する。そして画像生成部120は、オブジェクト空間内において仮想カメラから見える画像を生成する。なおキャラクタは、三人称視点の場合には実際に表示されるオブジェクトになるが、一人称視点の場合には、表示部190に表示されない仮想的なオブジェクトになる。

0070

具体的には仮想カメラ制御部118は、表示部190又は画像センサとプレーヤとの間の距離が長くなるにつれて、キャラクタと仮想カメラとの間の奥行き方向(Z方向)での距離を長くする制御を行う。例えばプレーヤが表示部190又は画像センサから離れると、後方からキャラクタを撮影している仮想カメラが奥行き方向で更に後方に移動し、プレーヤが表示部190又は画像センサに近づくと、仮想カメラが前方に移動する。この時、例えばキャラクタは移動せずに静止している。

0071

また仮想カメラ制御部118は、表示部190又は画像センサとプレーヤとの間の距離が長くなるにつれて、キャラクタと仮想カメラとの間の高さ方向での距離を長くする制御を行ってもよい。例えばプレーヤが表示部190又は画像センサから離れると、キャラクタの後方の上方でキャラクタを撮影していた仮想カメラが更に上方に移動し、プレーヤが表示部190又は画像センサに近づくと、仮想カメラが下方に移動する。この時、例えばキャラクタは移動せずに静止している。なお表示部190又は画像センサとプレーヤとの距離に応じて、仮想カメラが上方に移動しながら後方に移動したり、下方に移動しながら前方に移動するようにしてもよい。

0072

また仮想カメラ制御部118は、表示部190又は画像センサとプレーヤとの間の距離が長くなるにつれて、仮想カメラの画角を広くする制御を行ってもよい。例えばプレーヤが表示部190又は画像センサから離れると、仮想カメラの画角が広くなり、ズームアウト画像が生成され、プレーヤが表示部190又は画像センサに近づくと、仮想カメラの画角が狭くなり、ズームアップ画像が生成される。この時、例えばキャラクタは移動せずに静止している。

0073

また仮想カメラ制御部118は、表示部190又は画像センサに対してプレーヤが左方向及び右方向の一方の方向に移動した場合に、キャラクタに対して仮想カメラを一方の方向とは異なる他方の方向に移動する制御を行う。具体的には仮想カメラ制御部118は、表示部190又は画像センサに対してプレーヤが左方向に移動した場合には、キャラクタに対して仮想カメラを右方向に移動する制御を行う。或いは、表示部190又は画像センサに対してプレーヤが右方向に移動した場合に、キャラクタに対して仮想カメラを左方向に移動する制御を行う。

0074

なお、表示部190又は画像センサに対してプレーヤが「左方向」、「右方向」に移動とは、プレーヤから表示部190又は画像センサに向かう方向に対して「左方向」、「右方向」に移動することである。またキャラクタに対して仮想カメラを「右方向」、「左方向」に移動とは、仮想カメラからキャラクタに向かう方向に対して「右方向」、「左方向」に移動することである。

0075

また仮想カメラ制御部118は、表示部190又は画像センサとプレーヤとの間の距離が短い場合(基準距離よりも短い場合)には、仮想カメラを一人称視点の設定にする。一方、表示部190又は画像センサとプレーヤとの間の距離が長い場合(基準距離よりも長い場合)には、仮想カメラを三人称視点の設定にする。例えば一人称視点の場合には、キャラクタは表示部190に表示されない仮想的なオブジェクトになる。なお一人称視点の場合に、キャラクタの手などの一部だけを表示してもよい。即ち一人称視点は、例えば少なくともキャラクタの頭部が表示されない視点設定である。一方、三人称視点の場合にはキャラクタが表示部190に表示される。具体的には、キャラクタの全身或いは頭部を含む体の一部が表示される。即ち三人称視点は、例えば少なくともキャラクタの頭部が表示される視点設定である。

0076

なお、仮想カメラの画角の制御により一人称視点の設定が行われた場合には、画像生成部120は、キャラクタの少なくとも一部を描画対象から除外するクリッピング処理を行う。例えばキャラクタの全体を描画対象(ビューボリューム)から除外したり、キャラクタのうち、手などを除く部分を描画対象から除外する。

0077

また画像情報取得部102は、画像センサからの画像情報としてデプス情報を取得する。このデプス情報は、例えば各画素位置にデプス値(奥行き値)が設定された画像情報である。すると情報取得部104は、取得されたデプス情報に基づいて、プレーヤの位置情報を取得する。例えばプレーヤの画像領域におけるデプス情報のデプス値により、表示部190又は画像センサとプレーヤとの間の距離情報を、プレーヤの位置情報として取得する。

0078

また判定部119は、プレーヤが右手、左手のいずれの手を用いてプレイ動作を行っているかを判定する。この場合に画像生成部120は、プレーヤが右手を用いてプレイ動作を行っている場合と左手を用いてプレイ動作を行っている場合とで、異なる画像を生成する。

0079

具体的には情報取得部104は、画像センサからの画像情報に基づいて、画像センサから見えるプレーヤの動作を特定するスケルトン情報を取得する。この取得されたスケルトン情報はスケルトン情報記憶部174に保存される。

0080

ここでスケルトン情報は、例えば画像センサから見えるプレーヤの動作を特定する情報である。具体的には、このスケルトン情報は、プレーヤの複数の関節に対応する複数の関節位置情報を有し、各関節位置情報は3次元座標情報により構成される。各関節を結合するものが骨(ボーン)となり、複数の骨の結合によりスケルトンが構成される。

0081

このようにスケルトン情報が取得されると、判定部119は、プレーヤが右手、左手のいずれの手を用いてプレイ動作を行っているかを、スケルトン情報に基づいて判定する。即ちスケルトン情報での関節位置の動きを解析することで、プレーヤが右手、左手のいずれの手を主体的に用いてプレイ動作を行っているのかを判定する。

0082

そして画像生成部120は、例えば三人称視点においてプレーヤが右手を用いてプレイ動作を行っていると判定された場合には、表示部190の画面の左側(例えば画面中心よりも左側の領域)にキャラクタが表示される画像を生成する。また、三人称視点においてプレーヤが左手を用いてプレイ動作を行っていると判定された場合には、表示部190の画面の右側(例えば画面中心よりも右側の領域)にキャラクタが表示される画像を生成する。

0083

一方、画像生成部120は、一人称視点においてプレーヤが右手を用いてプレイ動作を行っていると判定された場合には、表示部190の画面の右側にキャラクタの一部の部位(例えば手)が表示される画像を生成する。また一人称視点においてプレーヤが左手を用いてプレイ動作を行っていると判定された場合には、表示部の画面の左側にキャラクタの一部の部位が表示される画像を生成する。

0084

このように画像生成部120は、プレーヤが右手を用いてプレイ動作を行っている場合と左手を用いてプレイ動作を行っている場合とで、異なる画像を生成する。

0085

また本実施形態では画像情報取得部102が画像センサからの画像情報を取得すると、情報取得部104が、画像情報に基づく画像処理を行う。そしてプレーヤ(観者)の所持物又は部位についての方向情報、色情報及び形状情報の少なくとも1つを、レンダリング用情報として取得する。

0086

ここで所持物はプレーヤが所持する現実世界物体である。部位は、プレーヤの体の一部であり、手、足、腕、もも、頭部、等である。プレーヤの所持物又は部位の方向情報は、所持物又は部位の方向を表す情報であり、所持物又は部位の向く方向や所持物又は部位の面の法線方向などである。所持物又は部位の色情報は、所持物又は部位の色を表す情報である。所持物又は部位の形状情報は、所持物又は部位の形状を表す情報(形状を概略的に表す情報)であり、多角形、丸等の平面形状や、多面体、球、円柱錐体等の立体形状などである。レンダリング用情報は、画像のレンダリング処理に使用する情報である。

0087

そして画像生成部120は、これらの方向情報、色情報及び形状情報の少なくとも1つであるレンダリング用情報(シェーディング用情報)に基づくレンダリング処理(シェーディング処理)を行って、画像を生成する。例えば所持物又は部位の方向情報や色情報や形状情報をレンダリング処理のパラメータに設定してレンダリング処理を行い、例えばオブジェクト空間内において仮想カメラから見える画像を生成する。

0088

具体的には画像生成部120は、レンダリング用情報に基づいて、オブジェクト空間に配置設定される光源の光源情報(光源属性情報)を設定する。例えば所持物又は部位の方向情報により光源方向を設定したり、色情報により光源色を設定したり、形状情報により光源形状を設定する。そして画像生成部120は、このようにして光源情報が設定された光源を用いたレンダリング処理を行って、オブジェクト空間内において仮想カメラから見える画像を生成する。例えば光源の光源情報とオブジェクトのポリゴン(プリミティブ面)の法線ベクトルに基づいてシェーディング処理を行い、画像を生成する。この場合に、ランバート(Lambert)、フォン(Phong)、ブリン(Blinn)などの種々の照明モデルを用いて、グーロー(Gouraud)シェーディング、フォン(Phong)シェーディングなどのシェーディング処理を行う。

0089

また画像生成部120は、画像情報により取得されたプレーヤのスケルトン情報とキャラクタの位置情報に基づいて、オブジェクト空間内での光源の配置位置を特定する。例えばオブジェクト空間のワールド座標系でのキャラクタの位置情報(代表位置の情報)と、ローカル座標系でのスケルトンの関節位置情報(所持物又は部位に対応する関節の位置情報)に基づいて、光源の配置位置を特定する。

0090

また画像情報取得部102は、画像センサからの画像情報としてデプス情報とカラー画像情報を取得する。そして情報取得部104は、取得されたデプス情報に基づいて、プレーヤの所持物又は部位の方向情報及び形状情報の少なくとも1つをレンダリング用情報として取得する。例えばデプス情報やカラー画像情報に基づいて、プレーヤの所持物や部位の方向や形状を判断して、レンダリング用情報として取得する。

0091

また情報取得部104は、画像センサからの画像情報に基づいてスケルトン情報を取得し、取得されたスケルトン情報に基づいて、プレーヤの所持物又は部位についての方向情報を取得してもよい。例えばスケルトンの手に対応する第1、第2の関節を結ぶ方向を、プレーヤの所持物又は部位についての方向情報として設定する。

0092

また情報取得部104は、取得されたスケルトン情報に基づいて、レンダリング用情報の取得のための画像処理の処理領域を設定してもよい。例えばスケルトン情報に基づいて、プレーヤの所持物又は部位の位置を特定し、特定された位置を含む所定サイズの領域(画面よりも小さな領域)を処理領域に設定する。そして情報取得部104は、設定された処理領域でのデプス情報やカラー画像情報を用いて画像処理を行って、プレーヤの所持物又は部位の方向情報や色情報や形状情報を取得する。

0093

また情報取得部104は、画像センサからの画像情報に基づく画像処理を行って、プレーヤの所持物又は部位についての方向情報及び形状情報の少なくとも1つを、ヒット演算用情報として取得する。そしてヒット演算部110は、取得されたヒット演算用情報に基づいてヒット演算処理を行う。例えばプレーヤの所持物又は部位の方向や形状を反映させたヒット演算処理(ヒットチェック処理)を行う。具体的にはヒット演算用情報の方向情報により特定される軌道方向(ヒット方向)に基づいて、ターゲットオブジェクト(弾等の被ヒット物のヒットのターゲットになるオブジェクト)に対するヒット演算処理を行う。そして画像生成部120は、ヒット演算処理の結果に基づいて、画像を生成する。例えば弾等の被ヒット物の画像を生成したり、被ヒット物がターゲットオブジェクトにヒットした場合に、ヒットエフェクト演出用の画像を生成する。

0094

また情報取得部104は、画像情報取得部102が画像情報としてデプス情報を取得した場合に、取得されたデプス情報に基づいて、プレーヤの所持物又は部位の方向情報及び形状情報の少なくとも1つをヒット演算用情報として取得してもよい。例えばデプス情報やカラー画像情報に基づいて、プレーヤの所持物や部位の方向や形状を判断して、ヒット演算用情報として取得する。

0095

なお、情報取得部104は、このヒット演算処理の場合にも、レンダリング処理の場合と同様に、スケルトン情報に基づいて、プレーヤの所持物又は部位についての方向情報を取得する。またスケルトン情報に基づいて、ヒット演算用情報の取得のための画像処理の処理領域を設定する。

0096

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。

0097

2.1プレーヤの位置情報に基づく仮想カメラの制御
一般的に、ゲーム装置では、ゲームコントローラのボタンやレバーを操作してゲーム操作を行う。またゲームコントローラにモーションセンサ(6軸センサ)を設け、プレーヤがゲームコントローラそのものを動かすことでゲーム操作を行うゲーム装置もある。

0098

しかしながら、このような操作インターフェースのゲーム装置では、ゲーム操作にゲームコントローラが必要になり、プレーヤの手の動きなどのジェスチャをそのまま反映させるようなゲーム操作については実現できず、プレーヤの仮想現実感を今ひとつ向上できない。

0099

そこで本実施形態では、画像センサで撮像された画像情報に基づきプレーヤの操作入力を可能にする操作インターフェースを採用している。

0100

例えば図2(A)では、表示部190に対応する位置に、デプスセンサ(赤外線センサ等)やカラー画像センサ(CCDやCMOSセンサなどのRGBセンサ)により実現される画像センサISEが設置されている。この画像センサISEは、例えばその撮像方向(光軸方向)が表示部190からプレーヤPLの方に向く方向になるように設置されており、表示部190側から見たプレーヤPLのカラー画像情報やデプス情報を撮像する。なお画像センサISEは、表示部190に内蔵されるものであってもよいし、外付け部品として用意されるものであってもよい。

0101

そして図2(A)の画像センサISEを用いて、図2(B)に示すようなカラー画像情報とデプス情報を取得する。例えばカラー画像情報では、プレーヤPLやその周り風景の色情報が得られる。一方、デプス情報では、プレーヤPLやその周りの風景のデプス値(奥行き値)が、例えばグレースケール値として得られる。例えばカラー画像情報は、その各画素位置にカラー値(RGB)が設定された画像情報であり、デプス情報は、その各画素位置にデプス値(奥行き値)が設定された画像情報である。なお、画像センサISEは、デプスセンサとカラー画像センサとが別々に設けられたセンサであってもよいし、デプスセンサとカラー画像センサとが複合的に組み合わせられたセンサであってもよい。

0102

デプス情報の取得手法としては、公知に種々の手法を想定できる。例えば画像センサISE(デプスセンサ)から赤外線等の光を投射し、その投射光反射強度や、投射光が戻ってくるまでの時間(Time Of Flight)を検出することで、デプス情報を取得し、画像センサISEの位置から見たプレーヤPLなどの物体のシェイプを検出する。具体的には、デプス情報は、例えば画像センサISEから近い物体では明るくなり、画像センサISEから遠い物体では暗くなるグレースケールデータとして表される。なおデプス情報の取得手法としては種々の変形実施が可能であり、例えばCMOSセンサなどの画像センサを用いて、カラー画像情報と同時にデプス情報(被写体までの距離情報)を取得するようにしてもよい。また超音波などを用いた測距センサなどによりデプス情報を取得してもよい。

0103

そして本実施形態では、画像センサISEからの画像情報に基づいて表示部190又は画像センサISEに対するプレーヤPLの位置情報(相対的な位置関係)を取得する。

0104

例えば図2(B)のデプス情報によれば、表示部190(画像センサ)から見た時のプレーヤ等の3次元形状を取得できる。従って、デプス情報の画素位置の2次元座標により、プレーヤPLのX、Yの位置座標(代表位置の座標)を求めることができ、画素位置でのデプス値に基づいて、プレーヤPLのZの位置座標を求めることができる。

0105

なおプレーヤPLの位置情報(代表位置の座標)を、カラー画像情報により求めることもできる。即ち、カラー画像情報に基づいてプレーヤPLの画像認識(例えば顔画像認識)を行う。そしてカラー画像情報の画素位置の2次元座標により、プレーヤPLのX、Yの位置座標を求める。またカラー画像情報でのプレーヤPLの画像領域の大きさの変化を検出することで、プレーヤPLのZの位置座標を求めることができる。またプレーヤPLの位置情報は、必ずしも3次元座標情報である必要はなく、例えば、表示部190又は画像センサISEとプレーヤPLとの距離情報(Zの位置座標)であってもよい。

0106

本実施形態では、このようにして取得されたプレーヤPLの位置情報に基づいて、プレーヤPLに対応するキャラクタと仮想カメラとの間の奥行き方向での距離を制御する。或いは、キャラクタと仮想カメラとの間の高さ方向での距離や、キャラクタと仮想カメラとの間の横方向での距離を制御する。或いは、仮想カメラの画角を制御してもよい。なお、
本実施形態では、プレーヤPLの位置情報(距離情報)は、画像センサISEに対する位置情報(画像センサからの距離情報)であってもよいが、以下では、説明の簡素化のために、プレーヤPLの位置情報(距離情報)が、表示部190に対する位置情報(表示部からの距離情報)である場合を主に例にとり説明する。

0107

例えば図3(A)では、プレーヤPLが表示部190(画像センサ)の方に近づいている。すると、画像センサISEからの画像情報により取得されたプレーヤPLの位置情報により、表示部190(画像センサ)とプレーヤPLとの距離L1が短いと判断される。

0108

また図3(B)において、キャラクタCHはプレーヤPLに対応するものであり、プレーヤPLの操作によりオブジェクト空間内を移動するオブジェクトである。そして図3(A)では、表示部190とプレーヤPLとの距離L1は短いと判断されているため、図3(B)に示すように、キャラクタCHに対する仮想カメラVCの奥行き方向(Z方向)での距離は短い距離Z1に設定される。

0109

一方、図4(A)では、プレーヤPLが表示部190から遠くに離れている。すると、画像センサISEからの画像情報により取得されたプレーヤPLの位置情報により、表示部190(画像センサ)とプレーヤPLとの距離L2(L2>L1)が長いと判断される。

0110

従って、この場合には図4(B)に示すように、キャラクタCHに対する仮想カメラVCの奥行き方向での距離は長い距離Z2(Z2>Z1)に設定される。

0111

このように図3(A)〜図4(B)では、表示部190とプレーヤPLとの間の距離が長くなるにつれて、キャラクタCHと仮想カメラVCとの間の奥行き方向での距離を長くしている。従って、図3(A)のようにプレーヤPLが表示部190に近づくと、図3(B)に示すように、オブジェクト空間(ゲーム空間)では、キャラクタCHに対して仮想カメラVCが近づくようになる。即ち、キャラクタCHは止まったままの状態で、仮想カメラVCだけがキャラクタCHに近づく方向に移動する。これにより、キャラクタCHやその周りの状況がズームアップされて詳細に見えるようになり、プレーヤPLは、自身に対応するキャラクタCHやその周囲の状況を、詳細に把握できるようになる。

0112

一方、図4(A)に示すようにプレーヤPLが表示部190から遠ざかると、図4(B)に示すように、オブジェクト空間では、キャラクタCHに対して仮想カメラVCが遠ざかるようになる。即ち、キャラクタCHは止まったままの状態で、仮想カメラVCだけがキャラクタCHから遠ざかる方向に移動する。これにより、キャラクタCHやその周りの状況がズームアウトされて表示されるようになり、プレーヤPLは、キャラクタCHやその周囲の状況を、広い視野概観して見渡すことが可能になる。

0113

また図3(A)のようにプレーヤPLが表示部190の方に近づき、表示部190とプレーヤPLとの距離L1が短いと判断されると、図3(B)に示すように、キャラクタCHに対する仮想カメラVCの高さ方向(Y方向)での距離は短い距離H1に設定される。

0114

一方、図5(A)のように、プレーヤPLが表示部190から遠くに離れ、表示部190とプレーヤPLとの距離L2が長いと判断されると、図5(B)に示すように、キャラクタCHに対する仮想カメラVCの高さ方向での距離は長い距離H2(H2>H1)に設定される。

0115

このように図3(A)、図3(B)、図5(A)、図5(B)では、表示部190とプレーヤPLとの間の距離が長くなるにつれて、キャラクタCHと仮想カメラVCとの間の高さ方向での距離を長くしている。

0116

即ち、図3(A)に示すようにプレーヤPLが表示部190に近づくと、図3(B)に示すように仮想カメラVCは低い位置に設定される。これにより、キャラクタCHの周りの状況がズームアップされて詳細に見えるようになる。

0117

一方、図5(A)に示すようにプレーヤPLが表示部190から遠ざかると、図5(B)に示すように仮想カメラVCは高い位置に設定される。これにより、キャラクタCHを含む周りの状況がズームアウトされて表示され、キャラクタCHやその周囲の状況を、上方から見渡して概観することが可能になる。

0118

なお、表示部190とプレーヤPLとの距離が長くなった場合に、図5(B)に示すように高い位置に仮想カメラVCを移動すると共に、図4(B)に示すようにキャラクタCHから後ろ方向に離れた位置に仮想カメラVCを移動してもよい。

0119

また、プレーヤPLと表示部190との距離に応じて、仮想カメラVCの画角を制御してもよい。

0120

例えば図6(A)のようにプレーヤPLが表示部190の方に近づき、表示部190とプレーヤPLとの距離L1が短いと判断されると、図6(B)に示すように、仮想カメラVCの画角を狭い角度θ1に設定する。このように画角を狭い角度θ1に設定することで、キャラクタCHやその周囲の状況がズームアップされて表示されるようになり、その詳細を容易に把握できるようになる。

0121

一方、図6(C)のようにプレーヤPLが表示部190から遠ざかり、表示部190とプレーヤPLとの距離L2が長いと判断されると、図6(D)に示すように、仮想カメラVCの画角を広い角度θ2に設定する。このように画角を広い角度θ2に設定することで、キャラクタCHやその周囲の状況がズームアウトされて表示されるようになり、その概観を広い視野で見渡すことが可能になる。

0122

以上の本実施形態の手法によれば、プレーヤが表示部に近づいたり、離れたりすることで、キャラクタに対する仮想カメラの相対的な位置関係が変化し、表示部に表示される画像も変化するようになる。従って、ゲームコントローラを用いなくても、プレーヤの動きによって、オブジェクト空間での仮想カメラの視点設定をコントロールできるようになり、これまでにない操作インターフェース環境を提供できる。

0123

そしてプレーヤが図7に示すように表示部に近づいてのぞき込むと、仮想カメラがキャラクタに近づいて、キャラクタやその周囲の状況を詳細に表した画像が、表示部に表示されるようになる。一方、プレーヤが表示部から離れると、仮想カメラがキャラクタから後方に離れて、キャラクタやその周囲の状況を広い視野で概観する画像が、表示部に表示されるようになる。従って、プレーヤにとって直感的で分かりやすい操作インターフェース環境を提供することができ、プレーヤの仮想現実感の向上等を図れる。

0124

また本実施形態では、プレーヤの位置情報に基づいて、キャラクタと仮想カメラの横方向での位置関係を変化させてもよい。

0125

例えば図8(A)では、プレーヤPLは表示部190の真正面に立っている。この場合には図8(B)に示すように、オブジェクト空間内のキャラクタCHの真後ろに仮想カメラVCが設定されて、表示部190に表示する画像が生成される。

0126

一方、図8(C)では、表示部190に対してプレーヤPLが左方向に移動している。この「左方向に移動」とは、プレーヤPLから表示部190へと向かう方向(正面方向)に対して左方向に移動することを意味する。

0127

そして図8(C)に示すように表示部190に対してプレーヤPLが左方向に移動すると、図8(D)に示すように、オブジェクト空間(ゲーム空間)においては、キャラクタCHに対して仮想カメラVCは右方向に移動する。この「右方向に移動」とは、仮想カメラVCからキャラクタCHへと向かう方向に対して右方向に移動することを意味する。

0128

このように図8(A)〜図8(D)では、表示部190に対してプレーヤPLが左方向に移動すると、キャラクタCHに対して仮想カメラVCが右方向に移動する。即ち、プレーヤPLの移動方向とは反対方向に、仮想カメラVCが移動する。また図8(A)〜図8(D)と同様に、表示部190に対してプレーヤが右方向に移動すると、今度は、キャラクタCHに対して仮想カメラが左方向に移動する。即ち、この場合にも、プレーヤPLの移動方向とは反対方向に、仮想カメラVCが移動する。

0129

以上のように仮想カメラVCを制御することで、例えば図9に示すような画像を生成することが可能になる。例えば三人称視点のゲームでは、図9のように、表示部190の画面の左側にキャラクタCHを表示し、画面の右側の状況を見渡せるような画像を表示することが望ましい。このような画像を表示すれば、プレーヤは、画面の右側に表示されるターゲットオブジェクトTOB(図9ではドア)等の状況を把握しながら、画面の左側に表示されるキャラクタCHの移動を操作して、ゲーム空間内を移動することが可能になる。従って、プレーヤは、3次元ゲームにおいてキャラクタを操作してスムーズに移動させることが可能になる。

0130

そして本実施形態では図8(A)〜図8(D)に示すように、プレーヤPLが表示部190(画面)に対して左方向に移動することで、キャラクタCHに対して仮想カメラVCが右方向に移動し、これにより図9に示すような画像が生成されるようになる。即ち、画面の左側に、キャラクタCHが表示され、画面の右側に、敵や地形などが広い視野で表示されるようになる。従って、ゲーム操作が難しい3次元ゲームにおいても、スムーズはキャラクタの移動を実現できる。また、プレーヤPLがその体を左方向等に動かすだけで、仮想カメラVCが移動し、図9に示すような画像が生成されるようになるため、直感的で分かりやすい操作インターフェース環境を提供できる。

0131

また本実施形態では、プレーヤの位置情報に基づいて、一人称視点と三人称視点を切り替えるような視点設定を行ってもよい。

0132

例えば図3(A)に示すようにプレーヤPLが表示部190に近づくと、図10(A)に示すように一人称視点に設定される。この一人称視点では、例えばキャラクタCH(表示されない仮想的なキャラクタ)の視点の位置PVCに仮想カメラVCが配置される。なお仮想カメラVCの方向はDVCに設定される。

0133

一方、図4(A)に示すようにプレーヤPLが表示部190から遠ざかると、図10(B)に示すように三人称視点に設定される。この三人称視点では、キャラクタCHの後方の位置PVCに仮想カメラVCが配置される。なお仮想カメラVCの方向はDVCに設定される。

0134

このように図10(A)、図10(B)では、表示部190とプレーヤPLとの間の距離が短い場合には、仮想カメラVCが一人称視点に設定され、表示部190とプレーヤPLとの間の距離が長い場合には、仮想カメラVCが三人称視点に設定される。

0135

そして一人称視点では図11(A)に示すような画像が生成される。この一人称視点の画像では、キャラクタCHの前方に存在するターゲットオブジェクトTOBに視点が近づいた画像が生成されるため、ターゲットオブジェクトTOBの詳細な情報を容易に把握できる。例えば図11(A)ではターゲットオブジェクトTOBであるドアに書かれた文字なども読むことが可能になる。なお図11(A)の一人称視点の画像では、キャラクタCHの一部である手や、所持物である武器AOBが表示されている。これらのオブジェクトを表示することで、一人称視点での操作が容易化される。

0136

一方、三人称視点では図11(B)に示すような画像が生成される。この三人称視点の画像では、ターゲットオブジェクトTOBから視点が遠ざかった画像が生成されるため、ターゲットオブジェクトTOB等の前方の状況やキャラクタCHの周囲の状況を、広い視野で見渡すことが可能になる。

0137

従って、プレーヤPLは、前方等の周囲の状況を詳細に見たい場合には、表示部190の近くに移動することで、図11(A)に示すような画像を見ることができる。一方、周囲の状況を広い視野で概観したい場合には、表示部190から離れた位置に移動することで、図11(B)に示すような画像を見ることができる。従って、プレーヤにとって直感的で分かりやすい視点設定の切換を実現できる。また、この視点設定の切換は、画像センサISEからの画像情報に基づき自動的に行われ、ゲームコントローラのゲーム操作を必要としないため、プレーヤのゲーム操作を簡素化できる。

0138

なお図11(A)、図11(B)に示すような一人称視点、三人称視点の画像は、図12(A)〜図12(C)に示すように仮想カメラVCの画角を制御することによっても、生成できる。

0139

例えば図11(A)の一人称視点の画像は、図12(A)に示すように仮想カメラVCの画角を狭い角度θ1に設定することで生成できる。一方、図11(B)の三人称視点の画像は、図12(C)に示すように仮想カメラVCの画角を広い角度θ2に設定することで生成できる。

0140

なお、このように仮想カメラVCの画角の制御により一人称視点の設定を行う場合には、キャラクタCHの少なくとも一部を描画対象から除外するクリッピング処理を行うことが望ましい。例えば図12(A)では、ビューボリューム(ビューポート、視錐台)の手前側(仮想カメラ側)のクリッピング面SCLPを、キャラクタCHよりも奥側に設定する。このようにすることで、キャラクタCHは、ビューボリューム内に存在しなくなり、描画対象から除外され、一人称視点の画像を生成することが可能になる。

0141

なお、一人称視点の画像を生成する際に、図12(B)に示すように手前側のクリッピング面SCLPを、キャラクタCHの手の位置付近に設定してもよい。このようにすれば、キャラクタCHの手(手の一部)や武器等の所持物についてはビューボリューム内に入り、描画対象に設定される。一方、キャラクタCHのうち、手や所持物を除く部分(広義にはキャラクタの少なくとも一部)については、描画対象から除外される。従って図11(A)に示すように、キャラクタCHの手や武器AOBが表示される一人称視点の画像を生成できるようになる。

0142

一方、三人称視点の画像を生成する場合には、図12(C)に示すように、クリッピング面SCLPはキャラクタCHよりも手前側に設定される。このようにすることで、キャラクタCHがビューボリューム内に存在するようになり、描画対象に設定される。従って、図11(B)に示すような三人称視点の画像を生成できるようになる。

0143

以上に説明した本実施形態の手法では、プレーヤの位置情報に基づいて、オブジェクト空間内のキャラクタと仮想カメラとの間の奥行き方向や高さ方向や横方向での距離が変化するように仮想カメラが制御される。従って、これまでにない視点制御を実現できる。また、仮想カメラの制御は、画像センサからの画像情報に基づいて自動的に行われ、ゲームコントローラの操作を必要としないため、プレーヤの操作を簡素化できる。

0144

また本実施形態では図3(A)〜図7で説明したように、プレーヤが表示部に近づくと、仮想カメラがキャラクタの方に近づいたり、画角が狭くなることで、ズームアップしたような画像が生成される。一方、プレーヤが表示部から離れると、仮想カメラがキャラクタの後方に遠ざかったり、画角が広くなることで、ズームアウトしたような画像が生成されるようになる。従って、プレーヤにとって直感的で分かりやすい視点設定の制御が可能になる。

0145

また本実施形態では図8(A)〜図8(D)で説明したように、表示部に対してプレーヤが横方向に移動すると、オブジェクト空間内ではキャラクタに対して仮想カメラが反対方向に移動する。従って、図9に示すようなウォーゲームやシューティングゲーム等に好適な視点設定の画像を、プレーヤが横方向に動くだけという簡素な操作で生成することが可能になる。

0146

また本実施形態では図10(A)、図10(B)で説明したように、プレーヤと表示部との距離に応じて、一人称視点と三人称視点が切り替えられる。従って、ゲームコントローラに視点切り替えボタン等を設けなくても、プレーヤの前後の動きだけで一人称視点と三人称視点を切り替えることが可能になり、直感的で分かりやすい操作インターフェース環境を実現できる。

0147

また本実施形態では、図2(B)に示すようなデプス情報に基づいてプレーヤの位置情報を取得して、上述のように仮想カメラを制御する。このようにデプス情報を用いれば、表示部側(画像センサ側)から見たプレーヤの位置情報を簡素な処理で効率的に取得できる。即ち、プレーヤが表示部に対して奥行き方向に動いたり、横方向に動いた場合にも、デプス情報を用いてプレーヤの位置情報を容易に特定でき、特定された位置情報に基づいて図3(A)〜図12(C)で説明した仮想カメラの制御を実現できる。また、後述するように、このデプス情報に基づいてプレーヤのスケルトン情報を求め、求められたスケルトン情報を用いて、プレーヤの所持物や部位の位置を特定したり、画像処理の処理範囲を設定することも可能になる。なお、プレーヤの位置情報を、デプス情報を用いないで取得する手法も可能である。例えば、前述のようにカラー画像情報でのプレーヤの画像領域の面積等を求め、表示部とプレーヤとの距離情報をプレーヤの位置情報として取得してもよい。或いは、プレーヤまでの距離を測定できる測距センサを用いて、表示部とプレーヤとの距離情報をプレーヤの位置情報として取得してもよい。

0148

2.2プレイ動作の判定による画像生成
本実施形態では、プレーヤが右手、左手のいずれを用いてプレイ動作を行っているかに応じて、異なる画像を生成する手法を採用している。

0149

例えばウォーゲームやシューティングゲーム等では、キャラクタが等の武器を持ち、ターゲットである敵を倒してゲームを楽しむ。しかしながら、プレーヤには、右利きのプレーヤと左利きのプレーヤが存在する。そして、一般的に、右利きのプレーヤは右手に武器を持って敵を攻撃し、左利きのプレーヤや左手に武器を持って敵を攻撃する。

0150

そこで本実施形態は、プレーヤが右手、左手のいずれの手を用いてプレイ動作を行っているかを判定する。ここでプレイ動作は、ゲームを進行させるためにプレーヤが行う動作であり、例えば攻撃動作、守備動作、移動指示動作、ターゲットを狙う動作、つかむ動作、投げる動作、取る動作、叩く動作、或いは指示する動作などである。このプレイ動作は、原則的には、右手、左手の一方の手により行われるが、両手を用いて行うこともできる。この場合には、両手のうちの主体的に動作を行っている方の手が、「プレイ動作を行っている手」であるとする。例えば右手にを持ち、左手に盾を持っている場合には、右手の方が「プレイ動作を行っている手」になる。また右手に攻撃力が高い武器を持ち、左手に攻撃力が低い武器を持っている場合には、右手の方が「プレイ動作を行っている手」になる。例えば「プレイ動作を行っている手」はプレーヤの利き腕となる手である。

0151

そして本実施形態では、プレーヤが右手を用いてプレイ動作を行っている場合と左手を用いてプレイ動作を行っている場合とで、異なる画像を生成して表示部に表示する。

0152

例えば図13(A)は、プレーヤが右手を用いてプレイ動作を行っている場合に生成される画像の例であり、図13(B)は、プレーヤが左手を用いてプレイ動作を行っている場合に生成される画像の例である。これらの画像は一人称視点の画像の例である。

0153

図13(A)では、右手に武器AOBを持ち、右手を左手よりも前に出している。例えばプレーヤが右利きである場合には、右手を左手よりも前に出す姿勢でプレイ動作を行うと考えられるため、このようなプレーヤの姿勢・動作が画像センサからの画像情報により検出されると、図13(A)に示すような画像を生成する。

0154

一方、図13(B)では、左手に武器AOBを持ち、左手を右手よりも前に出している。例えばプレーヤが左利きである場合には、左手を右手よりも前に出す姿勢でプレイ動作を行うと考えられるため、このようなプレーヤの姿勢・動作が画像センサからの画像情報により検出されると、図13(B)に示すような画像を生成する。

0155

図13(A)、図13(B)に示すように、本実施形態では、プレーヤが右手を用いてプレイ動作を行っている場合と左手を用いてプレイ動作を行っている場合とで、異なる画像が生成される。

0156

この場合に本実施形態では、プレーヤが右手、左手のいずれの手を用いてプレイ動作を行っているかを、プレーヤのスケルトン情報に基づいて判定することが望ましい。

0157

即ち本実施形態では図14に示すように、図2(B)のデプス情報等の画像情報に基づいて、プレーヤPLの動作を特定するためのスケルトン情報を取得する。図14ではスケルトン情報として、スケルトンの関節C0〜C19の位置情報(3次元座標)が取得されている。これらの関節C0〜C10は、画像センサISEに映るプレーヤPLの関節に対応するものである。なお画像センサISEにプレーヤPLの全身が映らない場合には、映った部分だけの関節の位置情報を有するスケルトン情報を生成すればよい。

0158

例えば図2(B)のデプス情報を用いれば、画像センサISE側から見たプレーヤPL等の3次元形状を特定できる。またカラー画像情報を組み合わせれば、顔画像認識などによりプレーヤPLの顔等の部位の領域も特定できる。そこで、これらの3次元形状の情報等に基づいて、プレーヤPLの各部位を推定し、各部位の関節位置を推定する。そして推定された関節位置に対応するデプス情報の画素位置の2次元座標と、画素位置に設定されたデプス情報に基づいて、スケルトンの関節位置の3次元座標情報を求め、図14に示すようなスケルトン情報を取得する。

0159

このようなスケルトン情報を用いれば、プレーヤPLのジェスチャ等の動作をリアルタイムに特定することができ、従来にない操作インターフェース環境を実現できる。また、このスケルトン情報は、オブジェクト空間に配置されるキャラクタCHのモーションデータとの親和性が高い。従って、このスケルトン情報を例えばモーションデータとして利用して、オブジェクト空間においてキャラクタCHを動作させることも可能になる。

0160

そして本実施形態では、プレーヤが右手を用いてプレイ動作を行っている場合と左手を用いてプレイ動作を行っているかを、図14のスケルトン情報を用いて判断する。例えば右手に対応する関節C7、C6の方が、左手に対応する関節C11、10よりも、前に出ていた場合(表示部側に位置していた場合)には、右手を用いてプレイ動作を行っていると判断する。一方、左手に対応する関節C11、C10の方が、右手に対応する関節C6、C7よりも、前に出ていた場合には、左手を用いてプレイ動作を行っていると判断する。或いは、右手を用いてプレイ動作を行っている場合のテンプレートとなるスケルトン情報を、右手基準スケルトン情報として用意し、左手を用いてプレイ動作を行っている場合のテンプレートとなるスケルトン情報を、左手基準スケルトン情報として用意する。そして、画像センサにより検出されたプレーヤのスケルトン情報と、上記の右手基準スケルトン情報及び左手基準スケルトン情報とのマッチング処理を行う。そしてマッチング処理の評価関数の結果を用いて、プレーヤが左右いずれの手でプレイ動作を行っているのかを判定してもよい。この場合のマッチング処理は例えば複数フレームに亘って行ってもよい。

0161

このように、デプス情報から得られるスケルトン情報を用いて、プレーヤが左右のいずれの手でプレイ動作を行っているかを判定すれば、より正確で適切な判定処理を実現できる。また例えばキャラクタのモーションを再生するために使用されるスケルトン情報を有効活用して、プレーヤが左右のいずれの手でプレイ動作を行っているかの判定処理を実現できるようになる。

0162

また本実施形態では、プレーヤが左右のいずれの手でプレイ動作を行っているかに応じて、生成される画像を異ならせているが、これに加えて、視点設定が三人称視点か一人称視点かに応じて、生成される画像を異ならせてもよい。

0163

例えば図15(A)、図15(B)は、三人称視点の場合に生成される画像の例である。そして図15(A)では、三人称視点において、プレーヤが右手を用いてプレイ動作を行っていると判定されている。これは、右利きのプレーヤが、右手に武器を持つ動作を行ってゲームプレイをしている場合である。この場合には、表示部の画面の左側にキャラクタCHが表示される画像を生成する。そしてキャラクタCHが、利き腕である右手に武器AOBを持って、攻撃動作や攻撃準備動作を行う画像を生成する。

0164

一方、図15(B)では、三人称視点において、プレーヤが左手を用いてプレイ動作を行っていると判定されている。これは、左利きのプレーヤが、左手に武器を持つ動作を行ってゲームプレイをしている場合である。この場合には、表示部の画面の右側にキャラクタCHが表示される画像を生成する。そしてキャラクタCHが、利き腕である左手に武器AOBを持って、攻撃動作や攻撃準備動作を行う画像を生成する。

0165

即ち、ウォーゲームやシューティングゲームなどにおいては、キャラクタCHが画面の中央に表示されているよりも、画面の左側や右側に表示されている方が、視野が開けて、他の物体を容易に把握できるようになるため、ゲームプレイを容易化できる。

0166

そして、右利きのプレーヤが右手に武器を持ってゲームをプレイする場合には、図15(A)に示すようにキャラクタCHが画面の左側に表示され、画面の右側に他の物体(マップ、敵)が表示される画面構成の方が、右利きのプレーヤにとってはゲームプレイが容易になると考えられる。このため本実施形態では、プレーヤが右手を用いてプレイ動作を行っていると判定された場合(右利きであると判定された場合)には、図15(A)に示すように画面の左側にキャラクタCHが表示される三人称視点の画像を生成する。

0167

一方、左利きのプレーヤが左手に武器を持ってゲームをプレイする場合には、図15(B)に示すようにキャラクタCHが画面の右側に表示され、画面の左側に他の物体が表示される画面構成の方が、左利きのプレーヤにとってはゲームプレイが容易になると考えられる。このため本実施形態では、プレーヤが左手を用いてプレイ動作を行っていると判定された場合(左利きであると判定された場合)には、図15(B)に示すように画面の右側にキャラクタCHが表示される三人称視点の画像を生成する。

0168

このようにすれば、プレーヤが左利きであっても、右利きであっても、そのプレーヤの利き腕に応じた適切な画面構成の画像を表示できるようになる。

0169

なお、一人称視点の場合には、図15(A)、図15(B)とは反対の画面構成にすることが望ましい。

0170

例えば図16(A)、図16(B)は、一人称視点の場合に生成される画像の例である。そして図16(A)では、一人称視点において、プレーヤが右手を用いてプレイ動作を行っていると判定されている。この場合には、表示部の画面の右側にキャラクタCHの手(広義にはキャラクタの一部の部位)や武器AOBが表示される画像を生成する。そしてキャラクタCHが、利き腕である右手に武器AOBを持って、攻撃動作や攻撃の準備動作を行う画像を生成する。

0171

一方、図16(B)では、一人称視点において、プレーヤが左手を用いてプレイ動作を行っていると判定されている。この場合には、表示部の画面の左側にキャラクタCHの手(一部の部位)や武器AOBが表示される画像を生成する。そしてキャラクタCHが、利き腕である左手に武器AOBを持って、攻撃動作や攻撃準備動作を行う画像を生成する。

0172

このように図16(A)、図16(B)の一人称視点では、キャラクタの手等の表示位置が、図15(A)、図15(B)の三人称視点の場合とは逆になる。そして一人称視点の場合には図16(A)、図16(B)のような画面構成の方がプレーヤにとってゲームプレイが容易になると考えられる。このように本実施形態では、三人称視点と一人称視点とで、キャラクタの手等の表示位置が反対になる画面構成にすることで、三人称視点と一人称視点の視点切り替え等が行われた場合にも、プレーヤにとってゲームプレイが容易になるゲーム画像の生成が可能になる。

0173

2.3所持物の方向情報等に基づくレンダリング処理
本実施形態では、画像センサISEからの画像情報に基づく画像処理を行って、プレーヤPLの所持物又は部位の方向情報、色情報又は形状情報等を、レンダリング用情報として取得する手法を採用している。

0174

例えば図17(A)ではプレーヤPLは板状(直方体長方形)の所持物THを所持し、所持物THの面を表示部190側に向けている。この場合に本実施形態では、画像センサISEにより図17(B)に示すようなカラー画像情報やデプス情報などの画像情報が取得される。

0175

そして図17(B)のカラー画像情報に基づいて所持物TH(或いは部位)の色情報や形状情報を特定する。例えば図17(B)のカラー画像情報によれば、所持物THの色や所持物THの直方体形状や面の四角形状を特定できる。また画像のパースのかかり具合を見ることで所持物THの面の方向DTH(法線方向)を特定できる。

0176

また図17(B)のデプス情報を用いても所持物TH(或いは部位)の方向情報(DTH)や形状情報(直方体、四角形)を特定できる。即ちデプス情報によれば、画像センサISEから見た場合のプレーヤPLや所持物THの3次元形状を抽出できる。従って、例えば所持物THの四角形の面の領域でのデプス情報(デプス値の傾き等)に基づいて、所持物THの面の向く方向DTH(法線方向)を特定できる。またデプス情報に基づいて所持物THの直方体形状や面の四角形状も特定できる。

0177

そして本実施形態では、このようにして特定された所持物TH等の方向情報、色情報又は形状情報をレンダリング用情報として、レンダリング処理を行う。なお、以下では、プレーヤPLの所持物THの方向情報、色情報又は形状情報を用いてレンダリング処理やヒット演算処理を行う場合について主に説明するが、プレーヤPLの手、足、腕又は頭部等の部位の方向情報、色情報又は形状情報を用いて、レンダリング処理やヒット演算処理を行ってもよい。

0178

例えば図18(A)では、プレーヤPLの所持物THの対応する位置に光源LSが設定される。即ち図17(A)ではプレーヤPLは右手に所持物THを持っており、これに対応して図18(A)ではキャラクタCHの右手に懐中電灯ライト等の光源LSが配置設定される。そして図17(A)で取得された所持物THの方向DTHに対応する方向に、光源LSの光源方向DLSが設定される。そしてこの光源方向DLSで照射される光RYによりターゲットオブジェクトTOBのシェーディング処理が行われて、画像がレンダリングされる。これにより図18(B)に示すように、光源LSからの光RY等により陰影づけが施された画像が生成されて、表示部190に表示されるようになる。

0179

また本実施形態では、所持物THの色情報や形状情報が反映された画像を生成する。例えば図19(A)では、所持物THが円板形状であるため、光の照射面が円状の光源LSが設定されて、その光源LSに応じた光RYの画像や光RYによるシェーディング画像が生成される。また所持物THの色が赤であるため、光RYの色も赤になり、光RYが照射されるターゲットオブジェクトTOBの画像も、赤の光が照射された画像になる。

0180

一方、図19(B)では、所持物THが直方体形状であるため、光の照射面が長方形の光源LSが設定されて、その光源LSに応じた光RYの画像や光RYによるシェーディング画像が生成される。また所持物THの色が青であるため、光RYの色も青になり、光RYが照射されるターゲットオブジェクトTOBの画像も、青の光が照射された画像になる。

0181

また本実施形態では、図14で説明したスケルトン情報を用いて、光源LSの配置位置を特定する。具体的には図20において、プレーヤPLに対応するキャラクタCHの位置情報PRF代表位置情報)を求める。例えば本実施形態では、キャラクタCHの移動を指示するプレーヤPLの動作を画像センサISEにより検出したり、ゲームコントローラからの操作情報などに基づいて、オブジェクト空間内でキャラクタCHを移動させる演算を行う。この移動演算により、オブジェクト空間のワールド座標系でのキャラクタCHの位置情報PRFが逐次求められる。そして、このワールド座標系での位置情報PRFと、図14のように求められたスケルトン情報のローカル座標系での関節の位置情報に基づいて、プレーヤPLに対応するキャラクタCHの手などの位置を求めることができる。そして図20に示すように、この求められた手などの位置を光源LSの配置位置PLSに設定する。そしてPLSに配置された光源LSを用いてレンダリング処理(シェーディング処理)を行う。

0182

このようにすれば、プレーヤの動作を特定するスケルトン情報を有効活用して、光源LSの配置位置PLSを特定できる。そして、あたかもプレーヤPLが持った所持物THの位置に光源LSが配置されて、その光源LSからの光により、プレーヤPLに対応するキャラクタCHの周囲が照らされているかのように見える画像を生成できるようになる。

0183

なお、以上では、図17(B)に示すデプス情報を用いて、プレーヤPLの所持物や部位の方向情報、形状情報等を取得する手法について説明したが、本実施形態はこれに限定されない。例えばカラー画像情報だけを用いて、プレーヤの所持物や部位の方向情報等を取得してもよい。

0184

また本実施形態では図14に示すように取得されたスケルトン情報に基づいて、プレーヤの所持物や部位についての方向情報を取得してもよい。

0185

例えば図21(A)では、プレーヤPLの動きがスケルトンSKの情報として取得されている。この場合には、プレーヤPLの手に対応する関節C6、C7等の位置に基づいて、所持物TH等の方向を特定し、その方向を光源方向DLSとして設定する。同様に図21(B)でも、プレーヤPLの手に対応する関節C6、C7等の位置に基づいて、所持物TH等の方向を特定し、その方向を光源方向DLSとして設定する。この場合に関節C6、C7の位置はスケルトン情報に基づいて取得できる。

0186

このようにすれば、プレーヤPLが手の向く方向を変えて、所持物THの向く方向を変化させると、その方向の変化は、スケルトン情報に基づき検出できる。即ちスケルトン情報の関節C6、C7等の位置に基づき検出できる。そして、所持物THの向く方向の変化に応じて、図21(A)、図21(B)に示すように光源方向DLSも変化するようになり、光源LSからの光RYの照射方向も変化するようになる。従って、プレーヤPLが手の向きを変えて所持物THの向く方向を変化させると、ゲーム画像内での光の方向も変化する。これにより、プレーヤPLは自身が所望する様々な方向を光で照らして見ることが可能になる。即ち、デプス情報を用いて取得されたスケルトン情報を有効活用して、これまでにないゲーム演出を実現できるようになる。

0187

また本実施形態では、図14に示すように取得されたスケルトン情報を用いて、画像処理の処理領域を特定してもよい。

0188

例えば図22(A)では、スケルトン情報に基づいて、プレーヤPLの手に対応する関節C7等の位置を特定している。そして、特定されたC7等の位置を含む画像領域を、画像処理の処理領域RPCに設定し、設定された処理領域RPCでのデプス情報やカラー画像情報に対して画像処理を行う。即ち図17(A)、図17(B)において、プレーヤPLの所持物や部位の方向情報や色情報や形状情報を求める際に、設定された処理領域RPCでのカラー画像情報やデプス情報に対して画像処理を行う。

0189

このようにすれば、全ての領域において画像処理を行う必要がなくなり、画面サイズよりも小さな処理領域RPCにおいて画像処理を行えば済むようになる。従って、画像処理の処理負荷を軽減でき、少ない処理負荷で所持物や部位の方向情報等のレンダリング用情報を取得することが可能になる。

0190

以上の本実施形態の手法によれば、プレーヤが所持物を持って動かしたり、プレーヤが手などの部位を動かすと、その方向情報や色情報や形状情報が、レンダリング用情報として取得される。そして、そのレンダリング用情報を用いたレンダリング処理が行われて、プレーヤに表示される画像が生成される。従って、プレーヤの動きがゲーム画像に直感的に反映されるようになり、これまでにはないゲーム画像の生成が可能になる。

0191

この場合に、プレーヤが自身の周りの適当な所持物を持って、動かせば、その所持物の形状や色等を反映した光源がオブジェクト空間内に設定され、その光源からの光の画像や、その光により物体を照らした画像が生成されるようになる。例えば図19(A)、図19(B)に示すように、所持物が赤の物体であれば赤の光の画像やその照射画像が生成され、青の物体であれば青の光の画像やその照射画像が生成される。従って、これまでのゲームでは実現できなかったゲーム演出等が可能になる。

0192

また図14で説明したようなスケルトン情報を用いれば、図20に示すように光源の配置位置も容易に特定でき、図21(A)、図21(B)に示すように光源方向も容易に特定できる。更に図22(A)、図22(B)で説明したように、所持物の方向情報等を特定するための画像処理の処理領域を狭い領域に限定することができ、処理負荷を軽減できる。

0193

2.4所持物の方向情報等に基づくヒット演算処理
以上では、プレーヤの所持物又は部位の方向情報等をレンダリング用情報として、レンダリング処理を行う場合について説明したが、これらの方向情報等をヒット演算用情報として、ヒット演算処理を行ってもよい。

0194

例えば図23(A)では、画像センサISEからの画像情報に基づく画像処理を行って、プレーヤPLの所持物TH(又は部位)についての方向情報及び形状情報の少なくとも1つが、ヒット演算用情報として取得される。例えば所持物THの方向DTHがヒット演算用情報として取得される。

0195

この場合に本実施形態では、このヒット演算用情報に基づいてヒット演算処理が行われる。例えば図23(B)では、プレーヤPLに対応するキャラクタCHがオブジェクト空間内で移動して、敵であるターゲットオブジェクトTOBと遭遇している。この時に図23(A)に示すようにプレーヤPLが所持物THをターゲットオブジェクトTOBの方向に向けると、図23(B)に示すように、所持物THに対応してキャラクタCHが所持する武器AOBから弾が発射されて、ターゲットオブジェクトTOBに発射される。即ち図23(A)の所持物THの方向DTHにより特定される軌道方向DHIで弾(拳銃光線銃の弾)が発射される。そして、弾の軌道方向DHIとターゲットオブジェクトTOBとのヒットチェックを行うヒット演算処理が行われ、ヒット演算処理の結果に基づいて画像が生成される。具体的には、弾がターゲットオブジェクトTOBにヒットしたと判定されると、ターゲットオブジェクトTOBに弾がヒットしたことを表す演出画像が生成される。

0196

以上のようにすれば、プレーヤは、自身の周りの適当な所持物を持って、ターゲットオブジェクトの方向に向けることで、その所持物に対応する拳銃や光線銃などの武器から弾が発射されて、敵であるターゲットオブジェクトに命中するようになる。従って、直感的で分かりやすい操作インターフェース環境をプレーヤに提供できる。また、専用のゲームコントローラを用いなくても、図23(A)、図23(B)に示すようなシューティングゲームを実現することが可能になる。

0197

また本実施形態によれば、プレーヤの所持物や部位の形状を反映させたヒット演算処理も実現できる。例えば所持物又は部位の各形状と各武器とを予め対応づけておく。そしてプレーヤの所持物又は部位の形状を、画像センサからの画像情報に基づいて形状認識する。そして、形状認識の結果に基づいて武器を選択し、選択された武器の画像をゲーム画像上に表示して、その武器からの弾をターゲットオブジェクトに対して発射する。例えば短い形状の所持物であれば、キャラクタに拳銃を所持させ、その拳銃から弾が発射する画像を生成する。一方、長い形状の所持物であれば、キャラクタにライフルを所持させ、そのライフから弾が発射する画像を生成する。このようにすれば、プレーヤが持つ所持物の形状に応じて、多様なゲーム画像が生成されるようになり、これまでにないゲーム演出を実現できるようになる。

0198

なお図23(A)、図23(B)に示すヒット演算手法においても、図17(B)の場合と同様に、画像センサからのデプス情報に基づいて、プレーヤの所持物又は部位の方向情報や形状情報をヒット演算用情報として取得することが望ましい。このようにすれば、所持物や部位の方向情報や形状情報を、より正確に効率良く特定することが可能になる。

0199

また図21(A)、図21(B)の場合と同様に、プレーヤのスケルトン情報を取得し、取得されたスケルトン情報に基づいて、プレーヤの所持物又は部位についての方向情報を取得してもよい。

0200

このようにすれば、例えばスケルトン情報の関節C6、C7が図21(A)のような位置であった場合には、下向きの方向DLSに弾が発射され、関節C6、C7が図21(B)のような位置であった場合には、上向きの方向DLSに弾が発射される画像を生成できる。従って、弾の軌道方向をスケルトン情報を用いた簡素な処理で特定できるようになり、処理を効率化できる。

0201

また図22(A)、図22(B)の場合と同様に、プレーヤのスケルトン情報を取得し、取得されたスケルトン情報に基づいて、ヒット演算用情報の取得のための画像処理の処理領域を設定してもよい。例えばプレーヤが所持物を持った場合に、スケルトン情報に基づいて、プレーヤの手の位置を含む処理領域を設定する。そして、設定された処理領域でのデプス情報やカラー画像情報に対して画像処理を行って、所持物(又は部位)の方向情報や形状情報を特定する。

0202

このようにすれば、画像処理の処理領域を小さなサイズに限定できるため、処理負荷の軽減を図れる。

0203

2.5 詳細な処理例
次に本実施形態の詳細な処理例について図24図27のフローチャートを用いて説明する。図24は、表示部とプレーヤの距離情報に基づきキャラクタと仮想カメラの奥行き方向での距離等を設定して画像を生成する処理のフローチャートである。

0204

まず、図2(A)、図2(A)で説明したように画像センサからの画像情報を取得する(ステップS1)。そして、取得された画像情報に基づき、表示部とプレーヤとの間の距離情報を取得する(ステップS2)。

0205

次に、図3(A)〜図5(B)で説明したように、表示部とプレーヤとの間の距離が長いほど、キャラクタと仮想カメラの奥行き方向での距離、高さ方向での距離が長くなるように仮想カメラを設定する(ステップS3)。そして、オブジェクト空間内において、設定された仮想カメラから見える画像を生成する(ステップS4)。

0206

図25は、プレーヤの位置情報に基づきキャラクタと仮想カメラの横方向での距離を設定して画像を生成する処理のフローチャートである。

0207

まず、画像センサからの画像情報を取得して、表示部に対するプレーヤの位置情報を取得する(ステップS11、S12)。

0208

次に、取得された位置情報に基づいて、表示部に対してプレーヤが左方向に移動しているかを判断する(ステップS13)。そして図8(C)に示すようにプレーヤが左方向に移動している場合は、図9に示すように画面の左側にキャラクタが表示されるように、図8(D)に示すようにキャラクタに対して仮想カメラを右方向に移動する(ステップS14)。

0209

一方、ステップS13においてプレーヤが左方向に移動していないと判断された場合には、表示部に対してプレーヤが右方向に移動しているかを判断する(ステップS15)。そしてプレーヤが右方向に移動している場合は、画面の右側にキャラクタが表示されるように、キャラクタに対して仮想カメラを左方向に移動する(ステップS16)。そして、オブジェクト空間内において、仮想カメラから見える画像を生成する(ステップS17)。

0210

図26は、表示部とプレーヤの距離情報に基づき一人称視点と三人称視点の設定を切り替える処理のフローチャートである。

0211

まず、表示部とプレーヤとの間の距離情報を取得する(ステップS21)。そして、表示部とプレーヤとの間の距離が所定距離以下か否かを判断する(ステップS22)。

0212

そして、表示部とプレーヤとの間の距離が所定距離以下の場合は、図12(A)、図12(B)に示すように、仮想カメラの画角を一人称視点用の狭い画角に設定する(ステップS23)。この時、図12(A)、図12(B)で説明したように、ビューボリュームの手前側のクリッピング面を、一人称視点用の位置に設定する(ステップS25)。

0213

一方、ステップS22において、表示部とプレーヤとの間の距離が所定距離以下ではないと判断された場合には、図12(C)で説明したように、仮想カメラの画角を、三人称視点用の広い画角に設定する(ステップS24)。そして、オブジェクト空間内において、仮想カメラから見える画像を生成する(ステップS26)。

0214

図27は、プレーヤが左右のいずれの手でプレイ動作を行っているかに応じて表示される画像を変化させる処理のフローチャートである。

0215

まず、画像センサによりカラー画像情報、デプス情報等の画像情報を取得する(ステップS31)。そして図14で説明したように、デプス情報等を用いて、プレーヤのスケルトン情報を求める(ステップS32)。

0216

次に、プレーヤが左右のいずれの手でプレイ動作を行っているかを、スケルトン情報に基づき判定する(ステップS33)。そして、視点設定が三人称視点か否かを判断する(ステップS34)。

0217

視点設定が三人称視点の場合には、右手でプレイ動作を行っているか否かを判定する(ステップS35)。そして右手でプレイ動作を行っている場合には、図15(A)に示すように、画面の左側にキャラクタが表示される三人称視点の画像を生成する(ステップS36)、一方、左手でプレイ動作を行っている場合には、図15(B)に示すように、画面の右側にキャラクタが表示される三人称視点の画像を生成する(ステップS37)。

0218

ステップS34において一人称視点であると判断された場合には、右手でプレイ動作を行っているか否かを判定する(ステップS38)。そして右手でプレイ動作を行っている場合には、図16(A)に示すように、画面の右側にキャラクタの手等が表示される一人称視点の画像を生成する(ステップS39)。一方、左手でプレイ動作を行っている場合には、図16(B)に示すように、画面の左側にキャラクタの手等が表示される一人称視点の画像を生成する(ステップS40)。

0219

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、プレーヤの位置情報の取得手法、位置情報に基づく仮想カメラの制御手法、スケルトン情報の取得手法、レンダリング用情報に基づくレンダリング処理手法、ヒット演算用情報に基づくヒット演算処理手法等も本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステムシミュレータマルチメディア端末、ゲーム画像を生成するシステムボード携帯電話等の種々の画像生成システムに適用できる。

0220

ISE画像センサ、PLプレーヤ、SC画面、
CHキャラクタ、PCH キャラクタの位置、TOBターゲットオブジェクト、
VC仮想カメラ、PVC 仮想カメラの位置、DVC 仮想カメラの方向、
L1、L2 表示部とプレーヤの距離、Z1、Z2 奥行き方向での距離、
H1、H2 高さ方向での距離、θ1、θ2 仮想カメラの画角、AOB武器、
TH所持物、DTH、DTH1〜DTH3 所持物の方向、
LS光源、DLS光源方向、RY光線
SKスケルトン、C0〜C19 関節、RPC 処理領域、
100 処理部、102画像情報取得部、104情報取得部、
105スケルトン情報取得部、108ゲーム演算部、110ヒット演算部、
112オブジェクト空間設定部、114 キャラクタ制御部、115移動処理部、
116モーション処理部、118 仮想カメラ制御部、119 判定部、
120画像生成部、122光源設定部、130 音生成部、160 操作部、
170 記憶部、171画像情報記憶部、172カラー画像情報記憶部、
173デプス情報記憶部、174 スケルトン情報記憶部、
175オブジェクトデータ記憶部、176モーションデータ記憶部、
177モデルデータ記憶部、178光源情報記憶部、179描画バッファ、
180情報記憶媒体、190 表示部、192音出力部、194補助記憶装置、
196通信部

ページトップへ

この技術を出願した法人

この技術を発明した人物

ページトップへ

関連する挑戦したい社会課題

関連する公募課題

ページトップへ

技術視点だけで見ていませんか?

この技術の活用可能性がある分野

分野別動向を把握したい方- 事業化視点で見る -

(分野番号表示ON)※整理標準化データをもとに当社作成

ページトップへ

新着 最近 公開された関連が強い 技術

  • 大日本印刷株式会社の「 熱転写シート、印画物の製造方法、及びゲーム機」が 公開されました。( 2019/03/14)

    【課題・解決手段】赤外線吸収材料を含有する特別画像を正確に検出することができる印画物を形成可能な熱転写シート、及びこの印画物の製造方法を提供すること。基材1の一方の面上に、赤外線吸収材料を含有する赤外... 詳細

  • 株式会社コロプラの「 ゲームプログラム」が 公開されました。( 2019/02/28)

    【課題】ゲームの興趣性を向上させることができるゲームプログラムを提供する。【解決手段】ゲームプログラム131は、プロセッサに、1つのアクションのための入力操作が開始してから該入力操作が完了するまでの間... 詳細

  • 株式会社コロプラの「 ゲームプログラム、方法、および情報処理装置」が 公開されました。( 2019/02/28)

    【課題】ユーザが所望する報酬を獲得できるか否かにユーザが介入できる程度をより高くする。【解決手段】ゲームプログラム(131)は、プロセッサ(10)に、ゲームにおいて第2の条件が満たされた場合に、ユーザ... 詳細

この 技術と関連性が強い 技術

関連性が強い 技術一覧

この 技術と関連性が強い人物

関連性が強い人物一覧

この 技術と関連する挑戦したい社会課題

関連する挑戦したい社会課題一覧

この 技術と関連する公募課題

関連する公募課題一覧

astavision 新着記事

サイト情報について

本サービスは、国が公開している情報(公開特許公報、特許整理標準化データ等)を元に構成されています。出典元のデータには一部間違いやノイズがあり、情報の正確さについては保証致しかねます。また一時的に、各データの収録範囲や更新周期によって、一部の情報が正しく表示されないことがございます。当サイトの情報を元にした諸問題、不利益等について当方は何ら責任を負いかねることを予めご承知おきのほど宜しくお願い申し上げます。

主たる情報の出典

特許情報…特許整理標準化データ(XML編)、公開特許公報、特許公報、審決公報、Patent Map Guidance System データ