図面 (/)

技術 遠隔作業支援システム、遠隔作業支援方法、及びプログラム

出願人 株式会社オプティム
発明者 菅谷俊二
出願日 2017年4月17日 (2年2ヶ月経過) 出願番号 2017-541988
公開日 2019年4月25日 (2ヶ月経過) 公開番号 WO2018-193509
状態 特許登録済
技術分野 電話通信サービス 音声入出力 計算機間の情報転送 デジタル計算機のユーザインターフェイス 電話機の機能
主要キーワード 応答候補 変化ステップ ヘッドマウント型 ジェスチャー情報 作業者情報 作業支援 質問形式 指示者
関連する未来課題
重要な関連分野

この項目の情報は公開日時点(2019年4月25日)のものです。
また、この項目は機械的に抽出しているため、正しく解析できていない場合があります

図面 (19)

課題・解決手段

遠隔作業支援システムは、遠隔作業を支援するために、ウェアラブル端末撮影された画像(200)を、ウェアラブル端末と遠隔端末とで共有する。画像取得手段は、ウェアラブル端末で撮影された画像(200)を取得する。画面共有手段は、画像(200)を、ウェアラブル端末と遠隔端末とで画面共有する。受付手段は、遠隔端末から、画像(200)に対する指示情報の入力を受け付ける。第1表示手段は、ウェアラブル端末に、画像(200)と、指示情報に応じた仮想オブジェクト(210)と、を重ねて表示する。第2表示手段は、遠隔端末に、画像(200)と、仮想オブジェクト(210)と、を重ねて表示する。画像認識手段は、画像(200)を解析して体の部位の状態を認識する。変化手段は、認識された状態に基づいて、第1表示手段及び第2表示手段による仮想オブジェクト(210)の表示を変化させる。

概要

背景

複数の装置間で画面共有する技術が知られている。例えば特許文献1では、サーバーが複数のクライアントの画面情報を取得し、これらの画面情報を一覧表示する技術が開示されている。

概要

遠隔作業支援システムは、遠隔作業を支援するために、ウェアラブル端末撮影された画像(200)を、ウェアラブル端末と遠隔端末とで共有する。画像取得手段は、ウェアラブル端末で撮影された画像(200)を取得する。画面共有手段は、画像(200)を、ウェアラブル端末と遠隔端末とで画面共有する。受付手段は、遠隔端末から、画像(200)に対する指示情報の入力を受け付ける。第1表示手段は、ウェアラブル端末に、画像(200)と、指示情報に応じた仮想オブジェクト(210)と、を重ねて表示する。第2表示手段は、遠隔端末に、画像(200)と、仮想オブジェクト(210)と、を重ねて表示する。画像認識手段は、画像(200)を解析して体の部位の状態を認識する。変化手段は、認識された状態に基づいて、第1表示手段及び第2表示手段による仮想オブジェクト(210)の表示を変化させる。

目的

本発明は、ウェアラブル端末のユーザー音声による遠隔作業支援を受け難い環境下にいる場合であっても、円滑な遠隔作業支援を実現することを目的とする

効果

実績

技術文献被引用数
0件
牽制数
0件

この技術が所属する分野

ライセンス契約や譲渡などの可能性がある特許掲載中! 開放特許随時追加・更新中 詳しくはこちら

請求項1

遠隔作業を支援するために、ウェアラブル端末撮影された画像を、当該ウェアラブル端末と遠隔端末とで共有する遠隔作業支援システムであって、前記ウェアラブル端末で撮影された画像を取得する画像取得手段と、前記画像を、前記ウェアラブル端末と前記遠隔端末とで画面共有する画面共有手段と、前記遠隔端末から、前記画像に対する指示情報の入力を受け付ける受付手段と、前記ウェアラブル端末に、前記画像と、前記指示情報に応じた仮想オブジェクトと、を重ねて表示する第1表示手段と、前記遠隔端末に、前記画像と、前記仮想オブジェクトと、を重ねて表示する第2表示手段と、前記画像を解析して体の部位の状態を認識する画像認識手段と、前記認識された状態に基づいて、前記第1表示手段及び前記第2表示手段による前記仮想オブジェクトの表示を変化させる変化手段と、を備える遠隔作業支援システム。

請求項2

前記指示情報は、前記遠隔端末のユーザー音声を示す音声データであり、前記音声データを解析することにより、前記音声の内容を認識する音声認識手段をさらに備え、前記仮想オブジェクトは、前記認識された音声の内容に応じて生成される請求項1に記載の遠隔作業支援システム。

請求項3

前記画像認識手段により認識された前記状態と前記仮想オブジェクトの表示とに基づいて、応答情報を生成する応答生成手段をさらに備え、前記第2表示手段は、さらに、前記応答生成手段により生成された前記応答情報を表示する請求項1又は2に記載の遠隔作業支援システム。

請求項4

前記部位は指であり、前記変化手段は、前記画像認識手段により前記仮想オブジェクトと所定の関係を有する位置から移動する前記指の動きが認識された場合、前記認識された動きに従って前記仮想オブジェクトを移動させ、前記応答生成手段は、前記仮想オブジェクトの移動方向に対して定められた応答情報を生成する請求項3に記載の遠隔作業支援システム。

請求項5

前記部位は指であり、前記第1表示手段及び前記第2表示手段は、それぞれ、前記指示情報に応じた複数の仮想オブジェクトを表示し、前記応答生成手段は、前記画像認識手段により前記複数の仮想オブジェクトのいずれかのオブジェクトと所定の関係を有する前記指の位置が認識された場合、前記オブジェクトに対して定められた応答情報を生成する請求項3に記載の遠隔作業支援システム。

請求項6

前記部位は指であり、前記変化手段は、前記画像認識手段により前記仮想オブジェクトと所定の関係を有する領域において回転移動する前記指の動きが認識された場合、前記認識された動きに従って前記仮想オブジェクトを回転させ、前記応答生成手段は、前記仮想オブジェクトの回転量に対して定められた応答情報を生成する請求項3に記載の遠隔作業支援システム。

請求項7

前記部位は指であり、前記仮想オブジェクトは、前記指の複数の状態の一覧を示し、前記応答生成手段は、前記画像認識手段により前記複数の状態のいずれかの状態が認識された場合、前記認識された状態に対して定められた応答情報を生成する請求項3に記載の遠隔作業支援システム。

請求項8

複数のユーザーが複数のウェアラブル端末をそれぞれ使用し、前記複数のウェアラブル端末には、それぞれ前記第1表示手段が設けられ、前記応答生成手段は、前記複数のユーザーについて複数の応答情報をそれぞれ生成し、前記第2表示手段は、前記複数の応答情報を互いに異なる表示形式で表示する請求項3から7のいずれか1項に記載の遠隔作業支援システム。

請求項9

前記仮想オブジェクトは、3次元の仮想オブジェクトであり、前記部位は指であり、前記変化手段は、前記画像認識手段により前記仮想オブジェクトを操作する前記指の動きが認識された場合、前記認識された動きに従って前記仮想オブジェクトを変化させる請求項1から8のいずれか1項に記載の遠隔作業支援システム。

請求項10

前記ウェアラブル端末はユーザーの頭部に装着され、前記第1表示手段は、前記ユーザーの視界内に設けられた光透過性を有する表示板上に前記画像及び前記仮想オブジェクトを表示し、前記ユーザーは、前記表示板を介して見える前記部位を用いて前記仮想オブジェクトに対する操作を行う請求項1から9のいずれか1項に記載の遠隔作業支援システム。

請求項11

遠隔作業を支援するために、ウェアラブル端末で撮影された画像を、当該ウェアラブル端末と遠隔端末とで画面共有する遠隔作業支援方法であって、前記ウェアラブル端末で撮影された画像を取得する画像取得ステップと、前記画像を、前記ウェアラブル端末と前記遠隔端末とで画面共有する画面共有ステップと、前記遠隔端末から、前記画像に対する指示情報の入力を受け付ける受付ステップと、前記ウェアラブル端末に、前記画像と、前記指示情報に応じた仮想オブジェクトと、を重ねて表示する第1表示ステップと、前記遠隔端末に、前記画像と、前記仮想オブジェクトと、を重ねて表示する第2表示ステップと、前記画像を解析して体の部位の状態を認識する画像認識ステップと、前記認識された状態に基づいて、前記第1表示ステップ及び前記第2表示ステップによる前記仮想オブジェクトの表示を変化させる変化ステップと、を備える遠隔作業支援方法。

請求項12

遠隔作業を支援するために、ウェアラブル端末で撮影された画像を、当該ウェアラブル端末と遠隔端末とで画面共有するプログラムであって、コンピュータに、前記ウェアラブル端末で撮影された画像を取得する画像取得ステップと、前記画像を、前記ウェアラブル端末と前記遠隔端末とで画面共有する画面共有ステップと、前記遠隔端末から、前記画像に対する指示情報の入力を受け付ける受付ステップと、前記ウェアラブル端末に、前記画像と、前記指示情報に応じた仮想オブジェクトと、を重ねて表示する第1表示ステップと、前記遠隔端末に、前記画像と、前記仮想オブジェクトと、を重ねて表示する第2表示ステップと、前記画像を解析して体の部位の状態を認識する画像認識ステップと、前記認識された状態に基づいて、前記第1表示ステップ及び前記第2表示ステップによる前記仮想オブジェクトの表示を変化させる変化ステップと、を実行させるためのプログラム。

技術分野

0001

本発明は、遠隔作業を支援する技術に関する。

背景技術

0002

複数の装置間で画面共有する技術が知られている。例えば特許文献1では、サーバーが複数のクライアントの画面情報を取得し、これらの画面情報を一覧表示する技術が開示されている。

先行技術

0003

特開2003−6062号公報

発明が解決しようとする課題

0004

ところで、工場等の作業現場において、指示者が遠隔から作業者に作業の指示をする遠隔作業支援が行われる場合がある。作業者は作業を行うため、指示者の指示に対して音声のように両手が自由になる方法で応答できるのが好ましい。しかし、作業現場の騒音レベルが高い場合、音声により遠隔作業支援を行うのは難しい。
本発明は、ウェアラブル端末ユーザーが音声による遠隔作業支援を受け難い環境下にいる場合であっても、円滑な遠隔作業支援を実現することを目的とする。

課題を解決する手段

0005

本発明は、遠隔作業を支援するために、ウェアラブル端末で撮影された画像を、当該ウェアラブル端末と遠隔端末とで共有する遠隔作業支援システムであって、前記ウェアラブル端末で撮影された画像を取得する画像取得手段と、前記画像を、前記ウェアラブル端末と前記遠隔端末とで画面共有する画面共有手段と、前記遠隔端末から、前記画像に対する指示情報の入力を受け付ける受付手段と、前記ウェアラブル端末に、前記画像と、前記指示情報に応じた仮想オブジェクトと、を重ねて表示する第1表示手段と、前記遠隔端末に、前記画像と、前記仮想オブジェクトと、を重ねて表示する第2表示手段と、前記画像を解析して体の部位の状態を認識する画像認識手段と、前記認識された状態に基づいて、前記第1表示手段及び前記第2表示手段による前記仮想オブジェクトの表示を変化させる変化手段と、を備える遠隔作業支援システムを提供する。

発明の効果

0006

本発明によれば、ウェアラブル端末のユーザーが音声による遠隔作業支援を受け難い環境下にいる場合であっても、円滑な遠隔作業支援を実現することができる。

図面の簡単な説明

0007

遠隔作業支援システム1の構成の一例を示す図である。
ウェアラブル端末10の外観の一例を示す図である。
ウェアラブル端末10のハードウェア構成の一例を示す図である。
遠隔端末20のハードウェア構成の一例を示す図である。
サーバー装置30のハードウェア構成の一例を示す図である。
遠隔作業支援システム1の機能構成の一例を示す図である。
遠隔作業支援システム1の動作を示すシーケンスチャートである。
仮想オブジェクト210の一例を示す図である。
表示装置16に表示される画面220の一例を示す図である。
表示装置26に表示される画面230の一例を示す図である。
表示装置26における仮想オブジェクト210の表示を変化の一例を示す図である。
変形例において表示装置16に表示される画面240の一例を示す図である。
変形例において表示装置16に表示される画面250の一例を示す図である。
変形例において表示装置16に表示される画面260の一例を示す図である。
変形例において表示装置16に表示される画面270の一例を示す図である。
変形例において表示装置16に表示される画面280の一例を示す図である。
変形例において表示装置16に表示される画面290の一例を示す図である。
変形例において表示装置26に表示される画面300の一例を示す図である。

0008

1:遠隔作業支援システム、10:ウェアラブル端末、20:遠隔端末、30:サーバー装置、101:画像取得手段、102:受付手段、103:音声認識手段、104:オブジェクト生成手段、105:画面共有手段、106:第1表示手段、107:第2表示手段、108:画像認識手段、109:変化手段、110:応答生成手段、161:表示板

実施例

0009

構成
図1は、遠隔作業支援システム1の構成の一例を示す図である。遠隔作業支援システム1は、遠隔作業を支援するためのシステムである。なお、遠隔作業支援システム1は、遠隔作業の支援用に設計されており、例えば遠隔の人と顔を見ながら会議をするためのテレビ会議システムとは異なるものである。遠隔作業支援システム1においては、ウェアラブル端末10が画像を撮影する機能を有し、ウェアラブル端末10で撮影された画像が、このウェアラブル端末10と遠隔端末20とで共有される。この場合、遠隔端末20のユーザーは、ウェアラブル端末10を用いて撮影された画像を見ることにより、ウェアラブル端末10のユーザーの状況を把握することができる。例えば所定の資格を有する指示者が遠隔端末20を使用し、現場の作業者がウェアラブル端末10を使用してもよい。この場合、指示者は、現場の作業者に対して遠隔から作業の指示をすることができる。なお、以下の説明では、ウェアラブル端末10のユーザーを「第1ユーザー」といい、遠隔端末20のユーザーを「第2ユーザー」という。

0010

遠隔作業支援システム1は、ウェアラブル端末10と、遠隔端末20と、サーバー装置30とを備える。ウェアラブル端末10、遠隔端末20、及びサーバー装置30は、通信回線40を介して接続される。ウェアラブル端末10は、通信回線40に無線で接続される。通信回線40は、例えばインターネット無線通信ネットワークとにより構成されてもよい。

0011

図2は、ウェアラブル端末10の外観の一例を示す図である。この例では、ウェアラブル端末10は、第1ユーザーの頭部に装着される両眼眼鏡型の端末である。ウェアラブル端末10は、フレーム19と2つの表示板161とを備える。フレーム19は、2つの表示板161を保持する部材である。表示板161は、光透過性を有する板状部材であり、第1ユーザーの眼前、すなわち視界内に設けられる。第1ユーザーは、表示板161を介して前方の空間を見ることができる。なお、ここでいう「光透過性を有する」とは、表示板161を介して背後が透け見えることを意味する。表示板161は、透明であってもよいし、半透明であってもよい。

0012

図3は、ウェアラブル端末10のハードウェア構成の一例を示す図である。ウェアラブル端末10は、プロセッサー11と、メモリー12と、通信インタフェース13と、ストレージ14と、入力装置15と、表示装置16と、カメラ17とを備える。これらの装置は、バス18を介して接続される。

0013

プロセッサー11は、プログラムをメモリー12に読み出して実行することにより、各種の制御や処理を行う。プロセッサー11としては、例えばCPU(Central Processing Unit)が用いられてもよい。メモリー12は、プロセッサー11により実行されるプログラムを記憶する。メモリー12としては、例えばROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせが用いられてもよい。通信インタフェース13は、通信回線40に接続され、所定の無線通信規格に従ってデータ通信を行う。ストレージ14は、各種のデータ及びプログラムを記憶する。ストレージ14としては、例えばフラッシュメモリーが用いられてもよい。

0014

入力装置15は、ウェアラブル端末10の操作に用いられる。入力装置15としては、例えばキーが用いられてもよい。表示装置16は、上述した表示板161上に各種の情報を表示する。表示装置16は、例えば表示板161と、表示板161上に画像を投影するプロジェクターとにより構成されてもよい。表示板161上に画像が表示された場合、ユーザーは、前方の空間とともに、表示板161上に表示された画像を見ることができる。

0015

カメラ17は、撮像素子光学系とを備え、光学系により被写体の画像を撮像素子上に結像させることにより、被写体の画像を撮影する。カメラ17としては、例えばデジタルカメラが用いられる。カメラ17は、ユーザーの視界に沿って画像を撮影し得る位置及び向きに設置される。

0016

図4は、遠隔端末20のハードウェア構成の一例を示す図である。遠隔端末20は、例えばパーソナルコンピューターであってもよい。遠隔端末20は、プロセッサー21と、メモリー22と、通信インタフェース23と、ストレージ24と、入力装置25と、表示装置26と、マイクロフォン27を備える。これらの装置は、バス28を介して接続される。

0017

プロセッサー21は、プログラムをメモリー22に読み出して実行することにより、各種の制御や処理を行う。プロセッサー21としては、例えばCPUが用いられてもよい。メモリー22は、プロセッサー21により実行されるプログラムを記憶する。メモリー22としては、例えばROM、RAM、又はこれらの組み合わせが用いられてもよい。通信インタフェース23は、通信回線40に接続され、所定の通信規格に従ってデータ通信を行う。ストレージ24は、各種のデータ及びプログラムを記憶する。ストレージ24としては、例えばハードディスク、フラッシュメモリー、又はこれらの組み合わせが用いられてもよい。

0018

入力装置25は、遠隔端末20の操作に用いられる。入力装置25としては、例えばキーボード及びマウスタッチパネルを構成するタッチセンサー、又はこれらの組み合わせが用いられてもよい。表示装置26は、各種の情報を表示する。表示装置26としては、例えば液晶ディスプレイが用いられてもよい。マイクロフォン27は、音声を収集して音声データに変換する。

0019

図5は、サーバー装置30のハードウェア構成の一例を示す図である。サーバー装置30は、プロセッサー31と、メモリー32と、通信インタフェース33と、ストレージ34とを備える。これらの装置は、バス35を介して接続される。

0020

プロセッサー31は、プログラムをメモリー32に読み出して実行することにより、各種の制御や処理を行う。プロセッサー31としては、例えばCPUが用いられてもよい。メモリー32は、プロセッサー31により実行されるプログラムを記憶する。メモリー32としては、例えばROM、RAM、又はこれらの組み合わせが用いられてもよい。通信インタフェース33は、通信回線40に接続され、所定の通信規格に従ってデータ通信を行う。ストレージ34は、各種のデータ及びプログラムを記憶する。ストレージ34としては、例えばハードディスク、フラッシュメモリー、又はこれらの組み合わせが用いられてもよい。

0021

図6は、遠隔作業支援システム1の機能構成の一例を示す図である。遠隔作業支援システム1は、画像取得手段101と、受付手段102と、音声認識手段103と、オブジェクト生成手段104と、画面共有手段105と、第1表示手段106と、第2表示手段107と、画像認識手段108と、変化手段109と、応答生成手段110として機能する。

0022

この例では、画像取得手段101と第1表示手段106とは、ウェアラブル端末10に実装される。これらの機能は、メモリー12に記憶されたプログラムと、プログラムを実行するプロセッサー11との協働により実現される。受付手段102と第2表示手段107とは、遠隔端末20に実装される。これらの機能は、メモリー22に記憶されたプログラムと、プログラムを実行するプロセッサー21との協働により実現される。音声認識手段103と、オブジェクト生成手段104と、画面共有手段105と、画像認識手段108と、変化手段109と、応答生成手段110とは、サーバー装置30に実装される。これらの機能は、メモリー32に記憶されたプログラムと、プログラムを実行するプロセッサー31との協働により実現される。

0023

画像取得手段101は、カメラ17により撮影された画像を取得する。画面共有手段105は、画像取得手段101により取得された画像を、ウェアラブル端末10と遠隔端末20とで画面共有する。受付手段102は、第2ユーザーによりこの画像に対する指示が音声で行われると、マイクロフォン27により収集されたこの音声を示す音声データの入力を受け付ける。音声認識手段103は、受付手段102により受け付けられた音声データを解析することにより、第2ユーザーの音声の内容を認識する。この音声の内容の認識には、周知の音声認識技術が用いられてもよい。オブジェクト生成手段104は、音声認識手段103により認識された音声の内容に基づいて、仮想オブジェクトを生成する。この仮想オブジェクトは、例えば音声の内容が記載されたものであってもよい。

0024

第1表示手段106は、ウェアラブル端末10に、画像取得手段111により取得された画像と、オブジェクト生成手段104により生成された仮想オブジェクトとを重ねて表示する。この表示は、AR(Augmented Reality)技術を利用して行われてもよい。第2表示手段107は、遠隔端末20に、画像取得手段111により取得された画像と、オブジェクト生成手段104により生成された仮想オブジェクトとを重ねて表示する。

0025

画像認識手段108は、画像取得手段111により取得された画像を解析して第1ユーザーの指の状態を認識する。この状態には、指の動き、形状、又は位置が含まれる。例えば第1ユーザーは、表示板161を介して見える指を用いて仮想オブジェクトに対する操作を行ってもよい。この操作は、例えば仮想オブジェクトを移動若しくは回転させ、又は仮想オブジェクトに接触するジェスチャー操作であってもよい。

0026

仮想オブジェクトに対する操作は、画像取得手段101により撮影された画像と第1表示手段106により表示された仮想オブジェクトとに基づいて認識される。例えば、第1ユーザーの視点位置から見た画像になるように、画像取得手段101により撮影された画像の座標が変換される。そして、第1ユーザーの視界が再現されるように、変換後の画像に仮想オブジェクトが合成され合成画像が生成される。この合成画像における第1ユーザーの指と仮想オブジェクトとの位置関係と、第1ユーザーの指の状態とに基づいて、仮想オブジェクトに対する操作が認識される。

0027

変化手段109は、画像認識手段108により認識された状態に基づいて、第1表示手段106及び第2表示手段107による仮想オブジェクトの表示を変化させる。例えば、変化手段109は、仮想オブジェクトの表示を変化させるための制御情報を送信することにより、仮想オブジェクトの表示を変化させてもよい。他の例において、変化手段109は、変化後の仮想オブジェクトを示す画像データを送信してもよい。応答生成手段110は、仮想オブジェクトの表示と画像認識手段108により認識された指の状態とに基づいて、応答情報を生成する。なお、仮想オブジェクトの表示及び指の状態と、応答情報の内容との対応関係は、予め定められていてもよい。応答生成手段110により応答情報が生成されると、第2表示手段107は、さらにこの応答情報を表示する。

0028

なお、以下の説明において、ウェアラブル端末10を処理の主体として記載する場合には、具体的にはメモリー12に記憶されたプログラムと、プログラムを実行するプロセッサー11との協働によりこの処理が実行されることを意味する。遠隔端末20及びサーバー装置30についても同様である。

0029

動作
図7は、遠隔作業支援システム1の動作を示すシーケンスチャートである。ここでは、第1ユーザーが作業現場で作業をする作業者であり、第2ユーザーが、遠隔にいる指示者である場合を想定する。この場合、作業者がウェアラブル端末10を装着し、指示者が遠隔端末20を使用して作業者に対して遠隔から作業の指示を行う。なお、ここでいう「遠隔」とは、別の場所であることを意味し、必ずしも遠く離れている必要はない。

0030

この場合、作業者は、カメラ17を用いて作業現場の画像を撮影する。この画像は、動画であってもよいし、連続する静止画であってもよい。画像取得手段111は、カメラ17により撮影された画像200(以下、「撮像画像200」という。)を取得する。ウェアラブル端末10は、この撮像画像200を示す画像データをサーバー装置30に送信する。サーバー装置30は、ウェアラブル端末10から画像データを受信する。画面共有手段105は、この画像データをウェアラブル端末10及び遠隔端末20に送信する。ウェアラブル端末10及び遠隔端末20は、それぞれ、サーバー装置30から画像データを受信する。第1表示手段106は、この画像データに応じた撮像画像200を表示装置16に表示する。また、第2表示手段107は、この画像データに応じた撮像画像200を表示装置26に表示する。これにより、ウェアラブル端末10と遠隔端末20との間で画面共有が行われる。指示者は、表示装置26に表示された撮像画像200を見ることにより作業者の作業の状況を把握し、音声により作業者に作業の指示を行う。指示者が音声により指示を行うと、ステップS101の処理が開始される。

0031

ステップS101において、マイクロフォン27は、指示者の音声を収集して、音声データに変換する。ここでは、指示者により「右側を撮影してください」という音声が発せられた場合を想定する。この場合、この音声が収集されて音声データに変換される。受付手段102は、変換により得られた音声データを受け付ける。

0032

ステップS102において、遠隔端末20は、この音声データをサーバー装置30に送信する。サーバー装置30は、遠隔端末20から音声データを受信する。

0033

ステップS103において、音声認識手段103は、この音声データを解析することにより、音声の内容を認識し、文字データに変換する。この例では、「右側を撮影してください」という音声の内容が文字データに変換される。この文字データは、指示情報として用いられる。

0034

ステップS104において、オブジェクト生成手段104は、この指示情報に基づいて、仮想オブジェクト210を生成する。

0035

図8は、仮想オブジェクト210の一例を示す図である。仮想オブジェクト210は、「右側を撮影してください」という指示情報211が含まれる。また、仮想オブジェクト210には、図中のX方向に向かう矢印212と、「YES」という応答情報213とが記載される。この応答情報213は、矢印212に対応する位置に配置される。これは、仮想オブジェクト210を図中のX方向に移動させることにより、「YES」という応答が行われることを示す。さらに、仮想オブジェクト210には、図中の−X方向に向かう矢印214と、「NO」という応答情報215とが記載される。これは、仮想オブジェクト210を図中の−X方向に移動させることにより、「NO」という応答が行われることを示す。なお、図8に示す例では、仮想オブジェクト210は四角形であるが、他の形状であってもよい。

0036

ステップS105及びS106において、画面共有手段105は、ステップS104において生成された仮想オブジェクト210を示す画像データを、ウェアラブル端末10及び遠隔端末20にそれぞれ送信する。ただし、遠隔端末20には、上述したステップS103において得られた「右側を撮影してください」という指示情報が画像データとともに送信される。ウェアラブル端末10及び遠隔端末20は、それぞれ、サーバー装置30から画像データを受信する。

0037

ステップS107において、第1表示手段106は、この画像データに応じた仮想オブジェクト210を表示装置16に表示する。より具体的には、仮想オブジェクト210は表示板161上に表示される。

0038

図9は、表示装置16に表示される画面220の一例を示す図である。画面220には、は、撮像画像200と仮想オブジェクト210とが含まれる。仮想オブジェクト210は、撮像画像200の上に重ねて表示される。これにより、作業者は、現実の作業現場上に、仮想オブジェクト210が現れたように見える。

0039

ステップS108において、第2表示手段107は、第1表示手段106と同様に、サーバー装置30から受信した画像データに応じた仮想オブジェクト210を表示装置26に表示する。

0040

図10は、表示装置26に表示される画面230の一例を示す図である。画面230は、表示領域231とトーク領域232とを有する。表示領域231には、撮像画像200と仮想オブジェクト210とが含まれる。仮想オブジェクト210は、撮像画像200の上に重ねて表示される。トーク領域232には、「右側を撮影してください」という指示情報が表示される。

0041

作業者は、図9に示す画面220を見て、指示者の指示に対する応答を行う。図9に示す例では、仮想オブジェクト210を図中の矢印X方向に指で移動させるジェスチャーと、「YES」という応答とが対応付けられている。また、仮想オブジェクト210を図中の矢印−X方向に指で移動させるジェスチャーと、「NO」という応答とが対応付けられている。すなわち、図中の矢印X方向への移動方向に対して「YES」という応答、図中の矢印−X方向への移動方向に対して「NO」という応答が予め定められている。

0042

例えば指示者の指示に対して「YES」と応答する場合、作業者は、図9に示すように、カメラ17の前において、仮想オブジェクト210を図中の矢印X方向に指で移動させるジェスチャーを行う。より具体的には、作業者は、仮想オブジェクト210と所定の関係を有する位置から図中の矢印X方向に指を移動させる。この仮想オブジェクト210に対応する位置は、例えば作業者の視界において仮想オブジェクト210と重なる位置である。

0043

ステップS109において、カメラ17により作業者の指を含む画像が撮影される。画像取得手段101は、カメラ17により撮影された画像を取得する。

0044

ステップS110において、ウェアラブル端末10は、この画像を示す画像データをサーバー装置30に送信する。サーバー装置30は、ウェアラブル端末10から画像データを受信する。

0045

ステップS111において、画像認識手段108は、この画像データを解析することにより、作業者により行われたジェスチャーを認識する。この例では、仮想オブジェクト210を指で図中の矢印X方向に移動させるジェスチャーが認識される。より具体的には、仮想オブジェクト210と所定の関係を有する位置から図中の矢印X方向に移動する指の動きが認識される。

0046

ステップS112及びS113において、変化手段109は、ステップS111において認識された状態に基づいて、表示装置16及び表示装置26における仮想オブジェクト210の表示を変化させる制御情報をウェアラブル端末10及び遠隔端末20にそれぞれ送信する。ウェアラブル端末10及び遠隔端末20は、それぞれ、サーバー装置30から制御情報を受信する。

0047

ステップS114及びS115において、第1表示手段106及び第2表示手段107は、それぞれ、この制御情報に応じて仮想オブジェクト210の表示を変化させる。

0048

図11は、表示装置26における仮想オブジェクト210の表示を変化の一例を示す図である。仮想オブジェクト210は、作業者の指の動きに従って、図中の矢印X方向に移動する。画面220の図中の矢印X方向の端に到達すると、仮想オブジェクト210は、移動に伴って画面220からはみ出る部分が徐々に非表示となっていく。このように、仮想オブジェクト210の表示は、図中の矢印X方向に沿って画面220の外に出ていくように移動する。表示装置16における仮想オブジェクト210の表示についても、同様に変化する。

0049

ステップS116において、応答生成手段110は、ステップS111において認識された状態に基づいて応答情報を生成する。この例では、図9中の矢印X方向に移動する指の動きに対応する「YES」という応答情報が生成される。

0050

ステップS117において、サーバー装置30は、ステップS116において生成された応答情報を遠隔端末20に送信する。遠隔端末20は、サーバー装置30から応答情報を受信する。

0051

ステップS118において、第2表示手段107は、この応答情報を表示装置26に表示する。この応答情報は、指示情報と対応する位置に表示される。この例では、図11に示すように、トーク領域232の「右側を撮影してください」という指示情報に対応する位置に、「YES」という応答情報が表示される。

0052

指示者は、仮想オブジェクト210の表示の変化及び応答情報の表示を見ることにより、「右側を撮影してください」という指示に対する作業者の応答が「YES」であることを認識することができる。

0053

なお、上述したステップS112〜S115の処理とステップS116〜S118の処理とは、並行して行われてもよいし、これらの処理が逆の順序、すなわちステップS116〜S118の処理の後にステップS112〜S115の処理という順序で行われてもよい。

0054

以上説明した実施形態によれば、遠隔端末20を使用する第2ユーザーの指示は、仮想オブジェクト210を用いてウェアラブル端末10を使用する第1ユーザーに伝達される。また、この指示に対する第1ユーザーの応答は、仮想オブジェクト210の表示の変化及び応答情報により第2ユーザーに伝達される。これにより、ウェアラブル端末10を使用するユーザーが音声による遠隔作業支援を受け難い環境下にいる場合であっても、円滑な遠隔作業支援を実現することができる。

0055

変形例
本発明は上述した実施形態に限定されず、種々の変形がなされてもよい。また、以下の変形例は、上述した各実施形態と組み合わせて実施されてもよいし、他の変形例と組み合わせて実施されてもよい。

0056

変形例1
上述した実施形態では、仮想オブジェクト210を例示して説明したが、本発明に係る仮想オブジェクトは仮想オブジェクト210に限定されず、その内容や表示形式について様々な変形がなされてもよい。

0057

図12は、この変形例において表示装置16に表示される画面240の一例を示す図である。画面240には、上述した撮像画像200の他に、仮想オブジェクト241が含まれる。この仮想オブジェクト241は、撮像画像200の上に重ねて表示される。仮想オブジェクト241には、上述した仮想オブジェクト210と同様に矢印212及び応答情報213が記載されるものの、上述した矢印214及び応答情報215は記載されていない。この場合、作業者が仮想オブジェクト241を図中のX方向に移動させるジェスチャーを行うと、上述した実施形態と同様に、指示者の指示に対して「YES」という応答が行われる。一方、作業者がこのジェスチャーを行わないまま所定の時間経過すると、タイムアウトし、指示者の指示に対して「NO」という応答が行われる。この場合、応答生成手段110は、「NO」という応答情報を生成する。表示装置26の表示領域231には、表示装置16と同様に、撮像画像200と仮想オブジェクト241とが重ねて表示される。さらに、表示装置26のトーク領域232には、「NO」という応答情報が表示される。

0058

図13は、この変形例において表示装置16に表示される画面250の別の例を示す図である。画面250には、上述した撮像画像200の他に、仮想オブジェクト251、252、及び253が含まれる。これらのオブジェクト251、252、及び253は、撮像画像200の上に重ねて表示される。仮想オブジェクト251には、上述した仮想オブジェクト210と同様に、「右側を撮影してください」という指示情報が記載される。仮想オブジェクト252には、「YES」という応答情報が記載される。仮想オブジェクト253には、「NO」という応答情報が記載される。これらの仮想オブジェクト252及び253は、ソフトウェアキーとして機能する。この例では、仮想オブジェクト252をタッチするジェスチャーと、「YES」という応答とが対応付けられている。また、仮想オブジェクト253をタッチするジェスチャーと、「NO」という応答とが対応付けられている。すなわち、仮想オブジェクト252に対して「YES」という応答、仮想オブジェクト253に対して「NO」という応答が予め定められている。

0059

例えば作業者の指示に対して「YES」と応答する場合、作業者は、仮想オブジェクト252をタッチするジェスチャーを行う。この場合、画像認識手段108は、このジェスチャーを認識する。より具体的には、画像認識手段108は、仮想オブジェクト252と所定の関係を有する指の位置を認識する。この所定の関係は、例えば作業者の視界において仮想オブジェクト252と重なる位置であってもよい。応答生成手段110は、この仮想オブジェクト252に対応する「YES」という応答情報を生成する。表示装置26の表示領域231には、表示装置16と同様に、撮像画像200と仮想オブジェクト251、252、及び253とが重ねて表示される。さらに、表示装置26のトーク領域232には、「YES」という応答情報が表示される。また、この場合、変化手段109は、表示装置16及び表示装置26に表示された仮想オブジェクト252の表示を変化させてもよい。例えば、変化手段109は、仮想オブジェクト252の色、形状、又は大きさを変化させてもよい。

0060

変形例2
上述した実施形態では、「YES」又は「NO」という応答を例示して説明したが、本発明に係る応答は「YES」又は「NO」に限定されない。例えば、応答は、数値又は文字であってもよい。この場合、数値又は文字の入力用の仮想オブジェクトが用いられる。この仮想オブジェクトは、予め生成されてストレージ34に格納されていてもよい。

0061

図14は、この変形例において表示装置16に表示される画面260の一例を示す図である。画面260には、上述した撮像画像200の他に、仮想オブジェクト261が含まれる。この仮想オブジェクト261は、撮像画像200の上に重ねて表示される。仮想オブジェクト261は、ソフトウェアダイヤルとして機能する。仮想オブジェクト261には、「1」〜「5」までの目盛が設けられている。この例では、これらの目盛に対応する回転量と、「1」〜「5」の数値を含む応答とがそれぞれ対応付けられている。すなわち、「1」〜「5」までの目盛に対応する回転量に対して、「1」〜「5」の数値を含む応答が予め定められている。

0062

例えば指示情報が、「対象物の厚さを教えてください」という指示を示す場合を想定する。この指示に応答するには、数値の入力が必要であるため、数値の入力に用いられる仮想オブジェクト261が表示装置16及び26に表示される。すなわち、仮想オブジェクト261は、指示情報に応じたものである。この場合、作業者は、例えばノギスを用いて対象物の厚さを測定する。例えば対象物の厚さが「3」である場合、作業者は、仮想オブジェクト261を目盛「3」まで回転させるジェスチャーを行う。より具体的には、作業者は、仮想オブジェクト261と所定の関係を有する領域において、初期位置に対応する位置から目盛「3」に対応する位置まで、時計回りに指を回転移動させる。この所定の関係を有する領域は、例えば仮想オブジェクト261の円周に沿った領域であってもよい。

0063

この場合、画像認識手段108は、このジェスチャーを認識する。より具体的には、画像認識手段108は、仮想オブジェクト261と所定の関係を有する領域において時計回りに指を回転移動させる指の動きを認識する。変化手段109は、この指の動きに従って、表示装置16及び26に表示された仮想オブジェクト261を目盛「3」まで回転させる。応答生成手段110は、仮想オブジェクト261の回転量に対応する「3」という応答情報を生成する。表示装置26の表示領域231には、表示装置16と同様に、撮像画像200と仮想オブジェクト261とが重ねて表示される。さらに、表示装置26のトーク領域232には、「3」という応答情報が表示される。

0064

他の例において、仮想オブジェクトは、ソフトウェアキーボードとして機能するものであってもよい。この場合、仮想オブジェクトは、それぞれ、複数の文字に対応する複数のキー領域を有する。作業者は、所望の文字に対応するキー領域をタッチするジェスチャーを行う。この場合、画像認識手段108は、このキー領域と所定の関係を有する指の位置を認識する。この所定の関係を有する位置は、例えば作業者の視界においてこのキー領域と重なる位置であってもよい。応答生成手段110は、このキー領域に対応する文字を含む応答情報を生成する。

0065

変形例3
上述した実施形態において、ジェスチャーを用いて様々な応答が行われてもよい。この応答には、指示者に対する要求や質問が含まれてもよい。この場合、仮想オブジェクトにはジェスチャーの一覧が含まれてもよい。

0066

図15は、この変形例において表示装置16に表示される画面270の一例を示す図である。画面270には、上述した撮像画像200の他に、仮想オブジェクト271が含まれる。この仮想オブジェクト271は、撮像画像200の上に重ねて表示される。仮想オブジェクト271には、ジェスチャーの一覧が記載される。例えばこのジェスチャーの一覧には、指示者の指示に対する複数の応答候補に対応する複数のジェスチャー情報が含まれてもよい。すなわち、仮想オブジェクト271は、指示情報に応じたものである。各ジェスチャー情報には、ジェスチャーを文字又は画像で示す情報と、そのジェスチャーに対応する応答情報とが含まれる。作業者は、ジェスチャーの一覧により示される複数のジェスチャーの中から所望の応答情報に対応するジェスチャーを選択し、選択したジェスチャーを行う。この場合、応答生成手段110は、このジェスチャーに対応する応答情報を生成する。表示装置26の表示領域231には、表示装置16と同様に、撮像画像200と仮想オブジェクト271とが重ねて表示される。さらに、表示装置26のトーク領域232には、応答生成手段110により生成された応答情報が表示される。

0067

変形例4
上述した実施形態において、遠隔端末20からウェアラブル端末10に3次元の仮想オブジェクトが提供されてもよい。ここでは、指示者から作業者に或る建物の3次元図面が提供される場合を想定する。この場合、遠隔端末20は、この3次元図面を示す図面データを直接、又はサーバー装置30を経由してウェアラブル端末10に送信する。この場合、この図面データが指示情報として用いられてもよい。ウェアラブル端末10は、この図面データを受信すると、受信した図面データに応じた3次元図面を仮想オブジェクト281として表示装置16に表示する。

0068

図16は、この変形例において表示装置16に表示される画面280の一例を示す図である。画面280には、上述した撮像画像200の他に、仮想オブジェクト281が含まれる。この仮想オブジェクト281は、撮像画像200の上に重ねて表示される。この仮想オブジェクト281は、指示情報に応じたものである。また、表示装置26の表示領域231には、表示装置16と同様に、撮像画像200と仮想オブジェクト281とが重ねて表示される。例えば指示情報が、「機械室がどこか教えてください」という指示を示す場合を想定する。この場合、作業者は、機械室の場所が表示されるように仮想オブジェクト281を指で操作するジェスチャーを行った後、機械室の場所を指差すジェスチャーを行う。この操作するジェスチャーは、例えば仮想オブジェクト281を移動し又は回転移動させるジェスチャーであってもよい。この場合、変化手段109は、この指の動きに従って、仮想オブジェクト281を動かす。例えば仮想オブジェクト281を移動し又は回転移動させるジェスチャーである場合、仮想オブジェクト281が移動され又は回転移動される。また、画像認識手段108は、仮想オブジェクト281上の機械室の場所に対応する指の位置を認識する。応答生成手段110は、は、仮想オブジェクト281上の機械室の位置を示す応答情報が生成される。この場合、表示装置26の表示領域231に表示された仮想オブジェクト281において、この応答情報により示された位置に、所定のマークが付加されてもよい。

0069

変形例5
上述した実施形態では、指示者の音声に基づいて指示情報が生成される例について説明したが、指示情報は予め生成されていてもよい。例えば指示情報は、作業工程の確認に用いられる質問票であってもよい。この質問票には、それぞれ、複数の作業工程に対応する複数の項目が含まれる。各項目には、その作業工程において確認すべき事項質問形式記述されている。この場合、遠隔端末20は、質問票に含まれる複数の項目を示す項目データ順番に、直接又はサーバー装置30を経由してウェアラブル端末10に送信する。最初の項目データの送信は、作業者の操作に応じて行われてもよいし、所定の条件を満たしたときに行われてもよい。この所定の条件は、例えば所定の時刻になったという条件であってもよい。2つ目以降の項目データの送信は、1つ前の項目に対する応答が行われたときに行われてもよい。ウェアラブル端末10は、この項目データを受信する。この場合、表示装置16及び表示装置26には、質問票に含まれる項目と、上述した仮想オブジェクト261とが表示される。

0070

図17は、この変形例において表示装置16に表示される画面290の一例を示す図である。画面290には、上述した撮像画像200と仮想オブジェクト261の他に、仮想オブジェクト291及び292が含まれる。これらの仮想オブジェクト261、291、及び292は、撮像画像200の上に重ねて表示される。仮想オブジェクト291には、質問票に含まれる最初の項目が含まれる。ここでは、最初の項目が、「作業内容を何回確認しましたか?」という質問である場合を想定する。例えば作業内容を2回確認した場合、作業者は、仮想オブジェクト261を目盛「2」まで回転させるジェスチャーを行う。この場合、画像認識手段108は、上述した変形例2と同様に、このジェスチャーを認識する。変化手段109は、この指の動きに従って、仮想オブジェクト261を目盛「2」まで回転させる。応答生成手段110は、仮想オブジェクト261の回転量に対応する「2」という応答情報を生成する。この場合、仮想オブジェクト292内に、「2」という応答情報が記述される。表示装置26の表示領域231には、表示装置16と同様に、撮像画像200と、仮想オブジェクト261と、仮想オブジェクト291及び292とが重ねて表示される。さらに、表示装置26のトーク領域232には、「2」という応答情報が表示される。このようにして、最初の項目に対する応答が返されると、仮想オブジェクト291内に2つ目の項目が記述される。この処理は、例えば質問票に含まれる全ての項目に対する応答が返されるまで繰り返される。

0071

変形例6
上述した実施形態において、1人の指示者が複数の作業者に対して作業の指示を行ってもよい。この場合、複数のウェアラブル端末10が設けられる。これらのウェアラブル端末10は、複数の作業者によりそれぞれ装着される。

0072

図18は、この変形例において表示装置26に表示される画面300の一例を示す図である。画面300は、上述した表示領域231と同様の表示領域301と、上述したトーク領域232と同様のトーク領域302とを有する。表示領域301には、複数のウェアラブル端末10において撮影された複数の撮像画像200、201、及び202が含まれる。この場合、応答生成手段110は、複数の作業者について複数の応答情報を生成する。表示装置26のトーク領域232には、これらの応答情報が表示される。これらの応答情報は、互いに異なる表示形式で表示される。例えばこれらの応答情報は、色、形状、又は大きさが互いに異なっていてもよい。また、各応答情報には、対応する作業者に関する作業者情報が付加されてもよい。この作業者情報は、例えば作業者の顔画像であってもよい。

0073

変形例7
上述した実施形態において、ウェアラブル端末10、遠隔端末20、又はサーバー装置30において、撮像画像200と仮想オブジェクト210との合成画像が生成されてもよい。この場合、撮像画像200と仮想オブジェクト210とは、作業者の視界を再現するような位置及び大きさで合成されてもよい。また、仮想オブジェクト210は、作業者の操作により、大きさ、位置、又は角度が変更されてもよい。

0074

変形例8
上述した実施形態において、音声以外の手段により指示者の指示が入力されてもよい。この場合、音声認識手段103は、設けられなくてもよい。例えば作業者は、入力装置25を用いて指示を示す文字データを入力してもよい。この場合、受付手段102は、この文字データの入力を受け付ける。オブジェクト生成手段104は、この文字データに基づいて、仮想オブジェクトを生成する。他の例として、複数の指示を示すスタンプ画像が準備されている場合には、作業者は、入力装置25を用いてこれらのスタンプ画像の中から所望の指示を示すスタンプ画像を選択してもよい。この場合、この場合、受付手段102は、選択されたスタンプ画像を示す画像データの入力を受け付ける。オブジェクト生成手段104は、この画像データに基づいて、仮想オブジェクトを生成する。すなわち、撮像画像200に対する指示情報は、第2ユーザーの音声を示す音声データであってもよいし、第2ユーザーの操作により入力された文字データ又は画像データであってもよい。

0075

変形例9
上述した実施形態において、カメラ17により撮影される対象は、第1ユーザーの前方の空間に限定されない。カメラ17により撮影される対象は、第1ユーザーの周囲であればよい。また、仮想オブジェクト210は、予め生成されて、ストレージ14、ストレージ24、及びストレージ34のうちの少なくともいずれかに格納されていてもよい。この場合、オブジェクト生成手段104は設けられなくてもよい。さらに、作業者は、頭や足等、指以外の体の部位を用いてジェスチャーを行ってもよい。

0076

変形例10
上述した実施形態では、本発明に係るウェアラブル端末が、両眼の眼鏡型のウェアラブル端末10である例について説明したが、ウェアラブル端末はこの例に限定されない。例えばウェアラブル端末は、片眼の眼鏡型のウェアラブル端末であってもよいし、ヘッドマウント型のウェアラブル端末であってもよい。

0077

変形例11
上述した実施形態において、ウェアラブル端末10の機能を実現するためのプログラムは、単一のプロセッサー11により実行されてもよいし、2以上のプロセッサー11により同時又は逐次に実行されてもよい。遠隔端末20及びサーバー装置30についても同様である。

0078

変形例12
上述した実施形態において説明した遠隔作業支援システム1の機能を実装する主体は、例示に過ぎず、これに限定されない。例えばサーバー装置30の機能の少なくとも一部を、ウェアラブル端末10、遠隔端末20、又はその両方が有してもよい。例えば、遠隔端末20が、上述した音声認識手段103と、オブジェクト生成手段104と、画面共有手段105として機能するとともに、ウェアラブル端末10が、上述した画面共有手段105、画像認識手段108と、変化手段109と、応答生成手段110として機能してもよい。この場合、サーバー装置30は、ウェアラブル端末10と遠隔端末20との間でデータを中継するだけの機能を有していてもよい。或いは、サーバー装置30を設けなくてもよい。

0079

変形例13
遠隔作業支援システム1において行われる処理のステップは、上述した実施形態で説明した例に限定されない。この処理のステップは、矛盾のない限り、入れ替えられてもよい。また、本発明は、遠隔作業支援システム1において行われる処理のステップを備える遠隔作業支援方法として提供されてもよい。

0080

変形例14
本発明は、ウェアラブル端末10、遠隔端末20、又はサーバー装置30において実行されるプログラムとして提供されてもよい。これらのプログラムは、インターネット等のネットワークを介してダウンロードされてもよい。また、これらのプログラムは、磁気記録媒体磁気テープ磁気ディスクなど)、光記録媒体光ディスクなど)、光磁気記録媒体半導体メモリーなどの、コンピュータが読取可能な記録媒体に記録した状態で提供されてもよい。

0081

変形例15
上述した実施形態において、ウェアラブル端末10又は遠隔端末20において、仮想オブジェクト210と撮像画像200とが合成されてもよい。ウェアラブル端末10において合成が行われる場合、遠隔端末20からウェアラブル端末10に指示情報が入力される。ウェアラブル端末10は、この指示情報に応じた仮想オブジェクトと撮像画像200とを合成した合成画像を生成し、この合成画像を表示装置16に表示する。一方、遠隔端末20において合成が行われる場合、遠隔端末20は、第2ユーザーにより入力された指示情報に応じた仮想オブジェクト210と撮像画像200とを合成した合成画像を生成し、この合成画像を示す合成画像データをウェアラブル端末10に送信する。ウェアラブル端末10は、遠隔端末20から受信した合成画像データに応じた合成画像を表示装置16に表示する。ウェアラブル端末10において合成が行われる場合と遠隔端末20において合成が行われる場合とを比較すると、前者の場合には合成画像データの送信が発生しないため、データの転送速度が速くなる。

ページトップへ

この技術を出願した法人

この技術を発明した人物

ページトップへ

関連する挑戦したい社会課題

関連する公募課題

ページトップへ

おススメ サービス

おススメ astavisionコンテンツ

新着 最近 公開された関連が強い技術

  • 株式会社ディー・エヌ・エーの「 ゲームを提供するためのプログラム、システム、及び方法」が 公開されました。( 2019/04/25)

    【課題】ゲームの操作入力を行うためのプレイヤの動作を現実の動作に近づけることを支援できるプログラムを提供する。【解決手段】プレイヤ端末10は、プレイヤに対してゲームを提供する装置として機能する。当該プ... 詳細

  • 株式会社ドワンゴの「 サーバおよび端末」が 公開されました。( 2019/04/25)

    【課題】複数のチャンネルを提供するプラットフォームアプリケーションをチャンネル毎にカスタム化する。【解決手段】本発明の一態様によれば、サーバは、受信部と、判定部と、生成部と、送信部とを含む。受信部は、... 詳細

  • 三菱電機株式会社の「 データサーバユニットおよび通信システム」が 公開されました。( 2019/04/25)

    【課題・解決手段】データサーバ(10X)において、デバイス(31X,32X)から収集した第1の情報を記憶するデータ記憶部(19X)と、自己がデータサーバ(10Y)を管理する親機能であるか、又はデータサ... 詳細

この 技術と関連性が強い技術

関連性が強い 技術一覧

この 技術と関連性が強い人物

関連性が強い人物一覧

この 技術と関連する社会課題

関連する挑戦したい社会課題一覧

この 技術と関連する公募課題

関連する公募課題一覧

astavision 新着記事

サイト情報について

本サービスは、国が公開している情報(公開特許公報、特許整理標準化データ等)を元に構成されています。出典元のデータには一部間違いやノイズがあり、情報の正確さについては保証致しかねます。また一時的に、各データの収録範囲や更新周期によって、一部の情報が正しく表示されないことがございます。当サイトの情報を元にした諸問題、不利益等について当方は何ら責任を負いかねることを予めご承知おきのほど宜しくお願い申し上げます。

主たる情報の出典

特許情報…特許整理標準化データ(XML編)、公開特許公報、特許公報、審決公報、Patent Map Guidance System データ