図面 (/)

技術 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム

出願人 京セラ株式会社
発明者 田辺茂輝上野泰弘森田英樹益池功山内浩太郎佐久間学島田健史
出願日 2018年8月27日 (1年11ヶ月経過) 出願番号 2018-158308
公開日 2020年3月5日 (5ヶ月経過) 公開番号 2020-034987
状態 未査定
技術分野 音声入出力 電話機の機能 音声認識
主要キーワード 携行状態 料理中 物理コネクタ 音声入力インタフェース スピーカモード リュック 加速度パターン 機械音
関連する未来課題
重要な関連分野

この項目の情報は公開日時点(2020年3月5日)のものです。
また、この項目は機械的に抽出しているため、正しく解析できていない場合があります

図面 (12)

課題

音声認識技術の利便性を向上させる音声認識機能を有する電子機器、その電子機器の制御方法およびプログラムを提供する。

解決手段

電子機器1は、音声を入力するマイク11と、出力部と、マイクに入力された音声を認識するプロセッサ18とを備える。プロセッサは、電子機器が所定条件を満たすか否かを判定する。プロセッサは、電子機器が所定条件を満たすと判定した場合、ユーザに音声入力を促す情報を出力部に出力させる。

概要

背景

従来、電子機器入力音声を認識させる技術が知られている。例えば特許文献1には、携帯端末装置の機能の呼び出し機能の実行を定義した音声コマンド登録する音声コマンド登録部126Aと、押下中にマイクロフォンからの音声を音声コマンドとして入力するための音声コマンド入力ボタン121と、音声コマンド入力ボタンの押下中にマイクロフォンに入力した音声を音声認識処理し認識結果を音声コマンドとして音声コマンド登録部に登録させる音声コマンド登録処理部141Cと、音声コマンド入力ボタンの押下中にマイクロフォンから音声コマンドを入力し音声コマンド入力ボタンの押下解除後に入力した音声コマンドを音声認識処理し認識結果が登録されている音声コマンドと一致し受理された場合には受理した音声コマンドに対応する機能を呼び出し機能の操作を実行する音声コマンド処理部141Bとを備えた携帯端末装置が開示されている。

概要

音声認識技術の利便性を向上させる音声認識機能を有する電子機器、その電子機器の制御方法およびプログラムを提供する。電子機器1は、音声を入力するマイク11と、出力部と、マイクに入力された音声を認識するプロセッサ18とを備える。プロセッサは、電子機器が所定条件を満たすか否かを判定する。プロセッサは、電子機器が所定条件を満たすと判定した場合、ユーザに音声入力を促す情報を出力部に出力させる。

目的

特開2006−221270号公報






従来、音声認識技術の利便性の向上が望まれている

効果

実績

技術文献被引用数
0件
牽制数
0件

この技術が所属する分野

(分野番号表示ON)※整理標準化データをもとに当社作成

ライセンス契約や譲渡などの可能性がある特許掲載中! 開放特許随時追加・更新中 詳しくはこちら

請求項1

電子機器であって、音声を入力するマイクと、出力部と、前記マイクに入力された前記音声を認識するプロセッサとを備え、前記プロセッサは、前記電子機器が所定条件を満たすか否かを判定し、前記電子機器が前記所定条件を満たすと判定した場合、ユーザに音声入力を促す情報を前記出力部に出力させる電子機器。

請求項2

請求項1に記載の電子機器であって、前記音声入力を促す情報は、所定処理を実行するか否かを問う質問を含む電子機器。

請求項3

請求項2に記載の電子機器であって、前記プロセッサは、前記質問を前記出力部に出力させた後、前記質問に対する応答の音声入力を受け付け、前記質問に対して、前記所定処理を実行する旨の応答が前記マイクに入力されると、前記所定処理を実行する電子機器。

請求項4

請求項3に記載の電子機器であって、前記所定処理は、所定の電話番号に発信する処理を含む電子機器。

請求項5

請求項4に記載の電子機器であって、前記電子機器の動きを検出する状態センサをさらに備え、前記プロセッサは、前記状態センサの検出結果に基づいて前記電子機器を携帯しているユーザの移動状態を判定し、前記所定条件は、電子機器のユーザが転倒することを含む電子機器。

請求項6

請求項1に記載の電子機器であって、前記音声入力を促す情報は、音声入力が可能であることを示唆する内容、認識可能な音声コマンドの内容を示唆する内容、認識可能な音声コマンド、および当該音声コマンドによって実行される所定処理の内容のうち少なくとも1つを含む電子機器。

請求項7

請求項6に記載の電子機器であって、前記プロセッサは、音声トリガーが前記マイクに入力された場合に前記音声コマンドの入力を受付け、前記電子機器が前記所定状態であると判定した場合、前記音声トリガーが入力されたか否かに関わらず前記音声コマンドの入力を受け付ける電子機器。

請求項8

請求項7に記載の電子機器であって、前記プロセッサは、前記電子機器が前記所定条件を満たすと判定した場合、前記音声トリガーが入力されたか否かに関わらず、前記出力部に出力させた前記認識可能な音声コマンドの入力を受け付け、前記認識可能な音声コマンドが前記マイクに入力されると、前記認識可能な音声コマンドによって実行される前記所定処理を実行する電子機器。

請求項9

請求項8に記載の電子機器であって、前記所定処理は、所定のリストから1の要素を選択する処理を含む電子機器。

請求項10

請求項9に記載の電子機器であって、タッチセンサをさらに備え、前記プロセッサは、前記タッチセンサの検出結果に基づいて前記タッチセンサに対するユーザ操作を判定し、前記所定条件は、所定のユーザ操作が一定時間内に所定回数上行われたことを含む電子機器。

請求項11

請求項1に記載の電子機器であって、前記プロセッサは、前記電子機器が所定条件を満たすか否かを判定し、前記電子機器が前記所定条件を満たすと判定した場合、前記電子機器を着信時に音声で受話を開始できるモードに変更し、外部の機器から着信があった場合に、前記ユーザに音声入力を促す情報を前記出力部に出力させる電子機器。

請求項12

請求項1から11のいずれか一項に記載の電子機器であって、音声を出力するスピーカをさらに備え、前記情報を出力部に出力させることとは、前記スピーカに前記情報を含む音声を出力させることを含む電子機器。

請求項13

請求項1から11のいずれか一項に記載の電子機器であって、画像を表示するディスプレイをさらに備え、前記情報を出力部に出力させることとは、前記ディスプレイに前記情報を含む画像を表示させることを含む電子機器。

請求項14

音声を入力するマイクを備える電子機器の制御方法であって、前記電子機器が所定条件を満たすか否かを判定し、前記電子機器が前記所定条件を満たすと判定した場合、ユーザに音声入力を促す情報を前記出力部に出力させる制御方法。

請求項15

音声を入力するマイクを備える電子機器で用いられるプログラムであって、前記電子機器が所定条件を満たすか否かを判定させ、前記電子機器が前記所定条件を満たすと判定された場合、ユーザに音声入力を促す情報を前記出力部に出力させるプログラム。

技術分野

0001

本開示は、音声認識機能を有する電子機器に関し、特に、音声出力機能および表示機能を有する電子機器に関する。

背景技術

0002

従来、電子機器に入力音声を認識させる技術が知られている。例えば特許文献1には、携帯端末装置の機能の呼び出し機能の実行を定義した音声コマンド登録する音声コマンド登録部126Aと、押下中にマイクロフォンからの音声を音声コマンドとして入力するための音声コマンド入力ボタン121と、音声コマンド入力ボタンの押下中にマイクロフォンに入力した音声を音声認識処理し認識結果を音声コマンドとして音声コマンド登録部に登録させる音声コマンド登録処理部141Cと、音声コマンド入力ボタンの押下中にマイクロフォンから音声コマンドを入力し音声コマンド入力ボタンの押下解除後に入力した音声コマンドを音声認識処理し認識結果が登録されている音声コマンドと一致し受理された場合には受理した音声コマンドに対応する機能を呼び出し機能の操作を実行する音声コマンド処理部141Bとを備えた携帯端末装置が開示されている。

先行技術

0003

特開2006−221270号公報

発明が解決しようとする課題

0004

従来、音声認識技術の利便性の向上が望まれている。

課題を解決するための手段

0005

1つの態様に係る電子機器は、音声を入力するマイクと、出力部と、前記マイクに入力された前記音声を認識するプロセッサとを備える。前記プロセッサは、前記電子機器が所定条件を満たすか否かを判定する。前記プロセッサは、前記電子機器が前記所定条件を満たすと判定した場合、ユーザに音声入力を促す情報を前記出力部に出力させる。

0006

1つの態様に係る制御方法は、音声を入力するマイクを備える電子機器の制御方法であって、前記電子機器が所定条件を満たすか否かを判定し、前記電子機器が前記所定条件を満たすと判定した場合、ユーザに音声入力を促す情報を前記出力部に出力させる。

0007

1つの態様に係る制御プログラムは、音声を入力するマイクを備える電子機器で用いられるプログラムであって、前記電子機器が所定条件を満たすか否かを判定させ、前記電子機器が前記所定条件を満たすと判定された場合、ユーザに音声入力を促す情報を前記出力部に出力させる。

発明の効果

0008

本開示の一実施形態に電子機器によれば、音声認識技術の利便性が向上する。

図面の簡単な説明

0009

一実施形態に係る電子機器の外観図である。
一実施形態に係る電子機器のブロック図である。
一実施形態に係る電子機器の動作の一例を示す図である。
一実施形態に係る電子機器の動作の一例を示す図である。
一実施形態に係る電子機器の動作の一例を示す図である。
一実施形態に係る電子機器の動作の一例を示す図である。
一実施形態に係る電子機器の動作の一例を示す図である。
一実施形態に係る電子機器の動作の一例を示す図である。
一実施形態に係る電子機器が行う制御の一例を示すフローチャートである。
一実施形態に係る電子機器が行う制御の一例を示すフローチャートである。
一実施形態に係る電子機器が行う制御の一例を示すフローチャートである。

実施例

0010

以下、本開示の実施形態について、図面を参照して説明する。以下の説明において、同様の構成要素について同一の符号を付すことがある。さらに、重複する説明は省略することがある。

0011

ただし、図面は模式的なものであり、各寸法の比率などは現実のものとは異なる場合があることに留意すべきである。したがって、具体的な寸法などは以下の説明を参酌して判断すべきである。また、図面相互間においても互いの寸法の関係又は比率が異なる部分が含まれている場合があることは勿論である。

0012

本開示において、例えば構成A、構成Bについて「AまたはB」という表現が使用される場合、当該表現は、「AおよびBの少なくとも一方」の意味を有し得ることに注意されたい。また、本開示において使用される「〜得る」「〜できる」「〜てもよい」「〜でもよい」「〜てよい」「〜でよい」という表現は、強制的な意味(「有していなくてはならない」など)ではなく、許容的な意味(「有している可能性がある」など)を有することに注意されたい。また、本開示において使用される「〜を含む」という表現は、「〜を含むが、これ(またはこれら)に限定されない」という意味を有することに注意されたい。また、本開示において使用される「〜を含んでもよい」「〜を含んでよい」という表現は、「〜を含んでもよいが、含まなくてもよい」という意味を有することに注意されたい。また、本開示において、物理的な構成について、「構成する」「構成される」といった表現が使用される場合、当該表現は、「〜を含む」に近似する意味を有することに注意されたい。また、本開示において、機能部、回路または電子機器1自体などに関し、特定の機能の実行について「構成する」「構成される」といった表現が使用される場合、当該表現は、「特定の機能を実行できるが、当該特定の機能が実行されるかどうかは条件に左右され、当該特定の機能を実行しない場合もあり得る」といった広範な意味を有することに注意されたい。

0013

図1を参照して、一実施形態に係る電子機器1の外観について説明する。図1は、一実施形態に係る電子機器1の外観図である。

0014

電子機器1は、いわゆるスマートフォンのような機器を含む。しかしながら、本開示の実施形態に係る電子機器1はスマートフォンに限定されない。電子機器1は、少なくとも音声出力機能を備える各種機器を含む。電子機器1は、例えばフィーチャーフォンタブレットノートパソコンスマートスピーカスマートディスプレイ、およびカーナビゲーションシステムなどを含む。電子機器1は、その他の携帯可能な各種端末を含む。

0015

電子機器1は、マイク11と、スピーカ12と、タッチパネル13とを含む。タッチパネル13は、ディスプレイ13aと、タッチセンサ13bとを含む。図1において、電子機器1の長手方向を上下方向と定義し、電子機器1の短手方向を左右方向と定義する。

0016

マイク11は、周囲の音声を集音する。マイク11は、電子機器1の表面に露出してもよい。マイク11は、電子機器1の表面に露出しなくてもよい。マイク11は電子機器1に複数設けられてもよい。

0017

スピーカ12は、音声を出力する。スピーカ12は、電子機器1の表面に露出してもよい。スピーカ12は、電子機器1の表面に露出しなくてもよい。スピーカ12は電子機器1に複数設けられてもよい。

0018

タッチパネル13は、ディスプレイ13aおよびタッチセンサ13bを含む。タッチセンサ13bはディスプレイ13aと一体であってもよい。タッチセンサ13bはディスプレイ13aと別体であってもよい。タッチセンサ13bとディスプレイ13aとが一体となっているタッチパネル13は、例えば、インセル型のタッチパネル、およびオンセル型のタッチパネルを含む。

0019

ディスプレイ13aは、文字写真記号、図形等の画像を表示する。ディスプレイ13aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイOELD:Organic Electro−Luminescence Display)、および無機ELディスプレイIELD:Inorganic Electro−Luminescence Display)などを含む。

0020

タッチセンサ13bは、ユーザの指、またはスタイラスなどの接触または近接を検出する。タッチセンサ13bは、電子機器1への入力を受け付け入力手段のうちの1つとして利用される。接触または近接を検出する方式は、静電容量方式抵抗膜方式表面弾性波方式赤外線方式、または荷重検出方式などの任意の方式でよい。タッチセンサ13bは、入射した光の少なくとも一部を透過させる。

0021

タッチセンサ13bは、平面視において少なくとも一部がディスプレイ13aと重なるように位置する。他の実施形態において、タッチセンサ13bは、ディスプレイ13aと並んで位置してもよいし、離れて位置してもよい。

0022

図2を参照して、一実施形態に係る電子機器1の機能について説明する。図2は、一実施形態に係る電子機器1のブロック図である。

0023

電子機器1は、マイク11と、スピーカ12と、ディスプレイ13aと、タッチセンサ13bと、測位センサ16と、状態センサ15と、通信インタフェース14と、ストレージ17と、プロセッサ18とを含む。

0024

マイク11は、周囲の音声を集音する。マイク11は、電気信号をA/D変換し、変換後のデジタル音声信号をプロセッサ18へ電子機器1に出力させてもよい。マイク11は、入力を受け付けた音声に対応する電気信号をプロセッサ18に入力する。マイク11は、外部のマイクと有線または無線通信可能な音声入力インタフェースを含む。外部のマイクは、例えばイヤホン、およびスマートスピーカなどに備えられていてもよい。

0025

スピーカ12は、プロセッサ18から入力された信号に基づいて、音声を出力する。音声出力部は、プロセッサ18からのデジタルの音声信号をデコード処理およびD/A変換し、変換後の電気信号に基づいて音声を電子機器1に出力させてもよい。スピーカ12は、各種プログラムの情報等を音声で出力できる。スピーカ12は、外部のマイクと有線または無線で通信可能な音声出力インタフェースを含む。外部のスピーカは、例えばイヤホン、およびスマートスピーカ12などに備えられていてもよい。スピーカ12には、電話の音声を出力するレシーバが含まれてもよい。

0026

ディスプレイ13aは、プロセッサ18から入力された信号に基づいて、文字、写真、記号、図形等の画像を表示する。

0027

タッチセンサ13bは、指などの接触または近接を検出する。タッチセンサ13bは、検出した接触または近接に対応する信号をプロセッサ18に入力する。

0028

通信インタフェース14は、外部装置と通信する。通信インタフェース14は、例えば物理コネクタ無線通信インタフェースを含む。物理コネクタは、電気信号による伝送に対応した電気コネクタ光信号による伝送に対応した光コネクタ、および電磁波による伝送に対応した電磁コネクタを含む。電気コネクタは、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、MHL(Mobile High−difinition Link)、ライトピーク(Light Peak)、サンダーボルト(登録商標)(Thunderbolt)、およびLANコネクタ(LocalArea Network connector)などの汎用的な端子を含む。無線通信インタフェースは、種々の規格準拠する無線通信インタフェースを含む。無線通信インタフェースによってサポートされる無線通信規格は、例えば、2G、3G、4G等のセルラーフォン通信規格、および近距離無線の通信規格などを含む。セルラーフォンの通信規格は、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、およびWiMAX(Worldwide Interoperability for Microwave Access)などを含む。近距離無線の通信規格は、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、およびNFC(Near Field Communication)、WPAN(Wireless Personal Area Network)などを含む。WPANの通信規格は、例えば、ZigBee(登録商標)を含む。

0029

状態センサ15は、電子機器1の状態を検出し、検出結果をプロセッサ18に入力する。状態センサ15は、加速度センサを含む。状態センサ15は、さらにジャイロセンサ方位センサ等を含んでいてもよい。加速度センサは、電子機器1に働く加速度の方向および大きさを検出する。ジャイロセンサは、電子機器1の角度および角速度を検出する。方位センサは、地磁気の向きを検出する。状態センサは、さらに照度センサを含んでもよい。照度センサは、電子機器1に照射される光量を検出する。

0030

測位センサ16は、電子機器1の現在地を示す位置情報を取得し、取得した結果をプロセッサ18に入力する。測位センサ16は、電子機器1の位置を、例えばGPS(Global Positioning System)受信機、または通信インタフェース14が無線ネットワーク確立している基地局に基づいて取得する。

0031

ストレージ17は、プログラム17aおよびデータ17bを記憶する。ストレージ17は、半導体記憶媒体磁気記憶媒体などの任意の非一過的(non−transitory)な記憶媒体を含む。ストレージ17は、複数の種類の記憶媒体を含んでもよい。ストレージ17は、メモリカード光ディスク、または光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせであってもよい。ストレージ17は、RAM(Random Access Memory)などの、プロセッサ18の処理結果を一時的に記憶する作業領域としても利用される記憶媒体を含んでもよい。ストレージ17に記憶されるプログラム17aは、フォアグランドまたはバックグランドで実行されるアプリケーション、およびアプリケーションの動作を支援する制御プログラムなどを含む。ストレージ17に記憶されるデータ17bは、タッチセンサ13bの検出結果、および音声入力部111が受け付けた入力結果などを含む。

0032

データ17bは、音声認識辞書データを含んでもよい。音声認識辞書データは、音声の特徴パターン(特徴量)と文字列とが対応付けられたデータである。ただし、音声認識辞書データは、ストレージ17に記憶されていなくてもよい。音声認識データは、電子機器1が通信インタフェース14を介してアクセス可能ネットワーク上に記憶されていてもよい。

0033

プロセッサ18は、ディスプレイ13a、タッチセンサ13b、マイク11、スピーカ12、通信インタフェース14、状態センサ15、測位センサ16、およびストレージ17と電気的に接続される。プロセッサ18は、電子機器1全体の動作を制御する。プロセッサ18は、CPU(Central Processing Unit)、およびMCU(Micro Control Unit)を含む。プロセッサ18は、FPGA(Field−Programmable Gate Array)などのプログラマブルロジックデバイスPLD;Programmable Logic Device)であってもよい。プロセッサ18は、特定の処理に特化した専用のプロセッサ、および特定のプログラムを読み込むことによって特定の機能を実行する汎用のプロセッサであってもよい。専用のプロセッサは、DSP(Digital Signal Processor)および特定用途向けICASIC;Application Specific IntegratedCircuit)を含む。プロセッサ18は、1つまたは複数のプロセッサが協働するSoC(System−on−a−Chip)、およびSiP(System In a Package)のいずれかであってもよい。

0034

プロセッサ18は、ストレージ17に記憶されているデータ17bを必要に応じて参照し、ストレージ17に記憶されているプログラム17aに含まれる命令を実行できる。そして、プロセッサ18は、データ17bおよび命令に応じて機能部を制御し、それによって各種機能を実現できる。また、プロセッサ18は、検出部の検出結果に応じて制御を変更できる。機能部は、例えばスピーカ12、ディスプレイ13a、および通信インタフェース14などを含む。検出部は、例えばマイク11、タッチセンサ13b、状態センサ15、および測位センサ16などを含む。

0035

プロセッサ18は、タッチセンサ13bにより検出された接触または近接、検出位置、検出位置の変化、接触または近接が継続した時間、接触または近接が検出された間隔、および接触が検出された回数の少なくとも1つに基づいて、ジェスチャ種別判別する。ジェスチャは、指を用いて、タッチセンサ13bに対して行われる操作である。タッチセンサ13bに対して行われる操作は、タッチセンサ13bを有するタッチパネル13に対して行われてもよい。プロセッサ18が判別するジェスチャには、例えば、タッチロングタッチリリーススワイプタップダブルタップロングタップドラッグフリックピンチイン、およびピンチアウトが含まれるが、これらに限定されない。

0036

プロセッサ18は、状態センサ15(例えば加速度センサ)が検出した検出結果(例えば加速度パターン)に基づいて、電子機器1の移動状態を判定できる。言い換えると、電子機器1は、状態センサ15が検出した検出結果に基づいて電子機器1を携帯しているユーザの移動状態を判定できる。判定可能な移動状態には、ユーザが電車に乗っている状態、歩行している状態、走行している状態、自動車に乗っている状態を含むが、これらに限定されない。

0037

プロセッサ18は、状態センサ15(例えば加速度センサおよび照度センサ)が検出した検出結果(例えば加速度パターンおよび光量)に基づいて、電子機器1の携行状態を判定できる。言い換えると、電子機器1は、状態センサ15が検出した検出結果に基づいてユーザがどのように電子機器1を携帯しているかを判定できる。判定可能な移動状態には、ユーザが電子機器1を鞄またはリュック収納して携行している状態、着用されたパンツポケットに収納して携行している状態、着用されたシャツ胸ポケットに収納して携行している状態を含むが、これらに限定されない。プロセッサ18は、電子機器1が閉空間に位置すると判定した場合に、ユーザが電子機器1を鞄またはリュックに入れて携行している状態であると判定し得る。また、プロセッサ18は、電子機器1の片側に照射される光量が反対側に照射される光量よりも少ないと判定した場合に、ユーザが電子機器1をシャツの胸ポケットに入れて携行している状態であると判定し得る。また、プロセッサ18は、状態センサ15が検出した検出した検出結果、ならびに、電子機器1における状態センサ15(例えば照度センサ)の位置およびマイク11の位置に基づき、マイク11がポケットの上側に近い状態および下側に近い状態のどちらで電子機器1がシャツの胸ポケットに入れているかを判定してもよい。

0038

プロセッサ18は、マイク11に入力された音声を認識(音声認識)できる。プロセッサ18は、音声認識処理として、入力された音声の特徴パターンに基づいて、ストレージ17または通信インタフェース14を介してアクセス可能なネットワーク上に記憶された音声認識辞書データから文字列を読み出す。文字列を読み出す際に、プロセッサ18は、音声認識辞書データと入力された音声の特徴パターンとを照合し、その類似度を判断する。

0039

プロセッサ18は、マイク11に入力された音声を認識した場合に、認識した音声に応じて処理を実行できる。認識した音声に応じて実行される処理は、例えば音声の出力、電子機器1が有する機能の実行、電子機器1の設定の変更、インターネット検索の実行、電子機器1に記憶されたアプリケーションの起動、および電子機器1に記憶されたアプリケーションが有する機能の実行を含む。なお、所定の処理を実行させる音声は、音声コマンドともいう。そして、所定の処理を実行させる音声コマンドに対して、音声コマンドの入力を受け付ける契機となる音声は、音声トリガーと呼ばれる。プロセッサ18は、音声トリガーがマイク11に入力された場合に音声コマンドの入力を受付けることができる。

0040

一実施形態において、プロセッサ18は、音声コマンドを認識した場合に、電子機器1の状態に応じて異なる処理を実行してもよい。例えば、プロセッサ18は、音声コマンドを認識したときに、電子機器1の設定に応じて異なる処理を実行してもよい。設定は、ユーザによって変更可能な設定であってもよい。設定は、音声の出力先を変更する設定を含まなくてもよい。音声の出力先を変更することとは、例えば、音声の出力先を、電子機器1のスピーカ12から外部のスピーカに変更することである。また例えば、プロセッサ18は、音声コマンドを認識したときに、電子機器1が実行している処理に応じて異なる処理を実行してもよい。このとき、電子機器1が実行している処理とは、プロセッサ18がマイク11に入力された音声を認識する前から後にかけて継続的に実行されている処理であってもよい。また例えば、プロセッサ18は、音声コマンドを認識したときに、音声コマンドを認識したタイミングから所定時間前までの間にユーザによって電子機器1になされた操作に応じて異なる処理を実行してもよい。また例えば、プロセッサ18は、音声コマンドを認識したときに、状態センサ15が取得した取得結果に応じて異なる処理を実行してもよい。また例えば、プロセッサ18は、音声コマンドを認識したときに、測位センサ16が取得した取得結果に応じて異なる処理を実行してもよい。

0041

なお、プロセッサ18は、認識した音声が、所定の音声コマンドである場合、電子機器1の状態に関わらず同一の処理を実行してもよい。

0042

他の実施形態において、プロセッサ18は、電子機器1の状態に応じて、音声入力を待ち受けない第1モードと、音声入力を待ち受ける第2モードとを切り替えてもよい。例えば、プロセッサ18は、電子機器1の設定、または電子機器1が実行している処理に応じて、電子機器1を、音声入力を待ち受けない第1モードに設定してもよい。このとき、プロセッセは、状態センサ15が取得した取得結果、または測位センサ16が取得した取得結果に応じて、電子機器1を、音声入力を待ち受ける第2モードに変更してもよい。

0043

他の実施形態において、プロセッサ18は、電子機器1が所定条件を満たしたと判定すると、ユーザに音声入力を促す情報を電子機器1に出力させてもよい。例えば、プロセッサ18は、電子機器1の設定に応じてユーザに音声入力を促す情報を電子機器1に出力させてもよい。また例えば、プロセッサ18は、電子機器1が実行している処理に応じてユーザに音声入力を促す情報を電子機器1に出力させてもよい。また例えば、プロセッサ18は、一定時間内にユーザによって電子機器1になされた操作に応じてユーザに音声入力を促す情報を電子機器1に出力させてもよい。また例えば、プロセッサ18は、状態センサ15が取得した取得結果に応じてユーザに音声入力を促す情報を電子機器1に出力させてもよい。また例えば、プロセッサ18は、測位センサ16が取得した取得結果に応じてユーザに音声入力を促す情報を電子機器1に出力させてもよい。

0044

図3Aおよび図3Bを参照して、一実施形態に係る電子機器1の動作について説明する。図3Aおよび図3Bは、音声入力に応じて実行される電子機器1の動作の一例を示す図である。

0045

上述したように、プロセッサ18は、マイク11に入力された音声に基づき音声コマンドを認識した場合に、電子機器1の状態に応じて異なる処理を実行できる。より具体的には、プロセッサ18は、マイク11に入力された音声に基づき音声コマンドを認識したときに、電子機器1が所定状態であるか否かを判定し、電子機器1が所定状態であると判定した場合、認識した音声コマンドに応じた第1処理を実行してもよい。また、プロセッサ18は、電子機器1が所定状態でないと判定した場合、認識した音声コマンドに応じた第2処理を実行してもよい。

0046

図3Aに示すように、ステップS31において、電子機器1のディスプレイ13aには、「マナーモードに設定されています」という文字列が表示される。この表示は、電子機器1はマナーモードに設定されていることを示す。

0047

ステップS32において、ユーザは、「明日の天気は?」という音声を発する。ユーザが、「明日の天気は?」という音声を発すると、当該音声がマイク11に入力される。

0048

ステップS33において、電子機器1は、マイク11に入力された音声に基づき「明日の天気は?」という音声コマンドを認識する。これにより、電子機器1のディスプレイ13aには、明日の天気に関する文字列およびオブジェクトを含む画像が表示される。具体的には、ディスプレイ13aには、「明日(2018/○/×)の天気予報」および「晴れ」という文字列、並びに太陽を模した晴れを示すオブジェクトが表示される。

0049

図3Bに示すように、ステップS41において、電子機器1のディスプレイ13aには、「マナーモードに設定されていません」という文字列が表示される。この表示は、電子機器1はマナーモードに設定されていないことを示す。

0050

ステップS42において、ユーザは、「明日の天気は?」という音声を発する。ユーザが、「明日の天気は?」という音声を発すると、当該音声がマイク11に入力される。

0051

ステップS34において、電子機器1は、マイク11に入力された音声に基づき「明日の天気は?」という音声コマンドを認識する。これにより、電子機器1のスピーカ12からは、「明日の天気は晴れです」という音声が出力される。

0052

このように、電子機器1は、マナーモードに設定されている場合、マイク11に入力された音声に基づき音声コマンドを認識したときに、認識した音声コマンドの内容に応じてディスプレイ13aに画像を表示させることができる。マナーモードに設定されている状態は、所定状態の一例である。ディスプレイ13aに画像を表示させる処理は、第1処理の一例である。なおこのとき、電子機器1は、ディスプレイ13aに画像を表示させるのみで、スピーカ12に音声を出力させなくてもよい。一方、電子機器1は、電子機器1がマナーモードに設定されていない場合、マイク11に入力された音声に基づき音声コマンドを認識したときに、認識した音声コマンドの内容に応じてスピーカ12に音声を出力させることができる。スピーカ12に音声を出力させる処理は、第2処理の一例である。なおこのとき、電子機器1は、スピーカ12に音声を出力させるとともに、ディスプレイ13aに画像を表示させてもよい。

0053

所定状態の例はマナーモードに設定されている状態に限られない。ここで、電子機器1は、状態センサ15が検出した検出結果に基づいてユーザの移動状態が第1移動状態であると判定した場合、マイク11に入力された音声に基づき音声コマンドを認識したときに、認識した音声コマンドの内容に応じてディスプレイ13aに画像を表示させてもよい。一方、電子機器1は、ユーザの移動状態が第1移動状態でないと判定した場合、または、ユーザの移動状態が第2移動状態であると判定した場合、マイク11に入力された音声に基づき音声コマンドを認識したときに、認識した音声コマンドの内容に応じてスピーカ12に音声を出力させてもよい。第1移動状態はユーザが電車に乗っている状態を含む。第2移動状態はユーザが歩行している状態、走行している状態、自動車に乗っている状態を含む。第1移動状態は、所定状態の一例である。

0054

なお、電子機器1は、マナーモードに設定されていても、ユーザの移動状態が第2移動状態であると判定した場合、マイク11に入力された音声に基づき音声コマンドを認識したとき、認識した音声コマンドの内容に応じてスピーカ12に音声を出力させてもよい。

0055

他の実施形態において、電子機器1は、マナーモードに設定されていても、測位センサ16が取得した位置情報が登録された位置情報(例えば、ユーザの自宅)であると判定した場合、マイク11に入力された音声に基づき音声コマンドを認識したとき、認識した音声コマンドの内容に応じてスピーカ12に音声を出力させてもよい。

0056

他の実施形態において、電子機器1は、マナーモードに設定されていても、無線通信インタフェースを介して所定の外部機器と接続した場合、マイク11に入力された音声に基づき音声コマンドを認識したとき、認識した音声コマンドの内容に応じてスピーカ12に音声を出力させてもよい。所定の外部機器は、無線LAN装置を含む。無線LAN装置は、ユーザの自宅に設置される装置であってもよい。所定の外部装置は、Bluetooth(登録商標)装置を含む。Bluetooth(登録商標)装置は、釣り向けの装置(例えば、魚群探知機または当たりセンサなど)であってもよい。

0057

他の実施形態において、電子機器1は、マナーモードに設定されていても、状態センサ15の検出結果に基づいて、マイク11がポケットの上側に近い状態で電子機器1がユーザの着用するシャツの胸ポケットに収納されていると判定した場合に、認識した音声コマンドの内容に応じてスピーカ12に音声を出力させてもよい。すなわち、電子機器1は、音声コマンドに対して第1処理を実行させる所定の設定がなされていても、状態センサ15の検出結果に応じて、認識した音声コマンドに対して第2処理を実行してもよい。また他の実施形態において、電子機器1は、マナーモードに設定されていても、ユーザの移動状態が第2状態であり、かつマイク11がポケットの上側に近い状態で電子機器1がユーザの着用するシャツの胸ポケットに収納されていると判定した場合に、認識した音声コマンドの内容に応じてスピーカ12に音声を出力させてもよい。

0058

図4を参照して、一実施形態に係る電子機器1の動作について説明する。図4は、音声入力に応じて実行される動作の他の例を示す図である。

0059

上述したように、プロセッサ18は、認識した音声が所定の音声コマンドである場合、電子機器1の状態に関わらず同一の処理を実行できる。より具体的には、プロセッサ18は、認識した音声が第1音声コマンドである場合、電子機器1の状態に関わらず第2処理を実行してもよい。

0060

図4に示すように、電子機器1のユーザは、「スマホはどこ?」という音声を発する。電子機器1のユーザが、「スマホはどこ?」という音声を発すると、マイク11に、当該音声が入力される。電子機器1は、マイク11に入力された音声に基づき、「スマホはどこ?」という音声コマンドを認識する。これにより、電子機器1のスピーカ12からは、電子機器1の状態に関わらず音声が出力される。音声は言語で出力されてもよいし、機械音で出力されてもよい。

0061

このように、電子機器1は、認識した音声が、電子機器1の位置を問う音声である場合、電子機器1の状態に関わらずスピーカ12に音声を出力させることができる。電子機器1の位置を問う音声は、第1音声コマンドの一例である。スピーカ12に音声を出力させる処理は、第2処理の一例である。

0062

図5を参照して、一実施形態に係る電子機器1の動作について説明する。図5は、電子機器1の状態に応じて実行される処理の動作の他の例を示す図である。

0063

上述したように、プロセッサ18は、電子機器1の状態に応じて、音声入力を待ち受けない第1モードと、音声入力を待ち受ける第2モードとを切り替えることができる。より具体的には、プロセッサ18は、電子機器1が第1状態であるか否かを判定し、電子機器1が第1状態であると判定した場合、電子機器1を、音声入力を待ち受けない第1モードに設定してもよい。その後、プロセッサ18は、電子機器1が第2状態であるか否かを判定し、電子機器1が第2状態であると判定した場合、電子機器1を、音声入力を待ち受ける第2モードに設定してもよい。

0064

ステップS61において、電子機器1は通話処理を実行している。通話処理が実行されている場合、電子機器1は、音声入力を待ち受けない第1モードに設定される。ここで、ユーザは、「もしもし」という音声を発する。ユーザが、「もしもし」という音声を発すると、当該音声がマイク11に入力される。このとき、「もしもし」という音声は音声コマンドとしては認識されず、通話音声として認識される。なお、「ばいばい」などの特定の音声のみ、通話音声として認識されると同時に、通話処理を終了するための音声コマンドとして認識されてもよい。

0065

ステップS62において、ユーザは、電子機器1を自身のから遠ざけている。このとき、電子機器1は、状態センサ15の検出結果に基づいて、電気機器物体が近接した状態から、近接していない状態になったと判定する。電子機器1に物体が近接していないと判定された場合、通話処理が継続していても、電子機器1は、音声入力を待ち受ける第2モードに設定される。ここで、ユーザは、「明日のスケジュールを教えて」という音声を発する。ユーザが、「明日のスケジュールを教えて」という音声を発すると、当該音声がマイク11に入力される。

0066

ステップS63において、電子機器1は、マイク11に入力された音声に基づき、「明日のスケジュールを教えて」という音声コマンドを認識する。これにより、電子機器1のディスプレイ13aには、ユーザ入力などによって電子機器1またはユーザのアカウントなどに設定された明日のスケジュールが表示される。

0067

このように、電子機器1は、通話処理を実行している場合、音声入力を待ち受けない第1モードに設定される。また、電子機器1に物体が近接していないと判定された場合、通話処理が継続していても、電子機器1は、音声入力を待ち受ける第2モードに設定される。電子機器1が通話処理を実行している状態は、第1状態の一例である。通話中に電子機器1に物体が近接していない状態は、第2状態の一例である。なお、電子機器1は、電子機器1に物体が近接していないと判定され、かつ通話処理がスピーカモードで行われていないと判定された場合にのみ、通話処理が継続していても、音声入力を待ち受ける第2モードに設定されてもよい。

0068

図6および図7を参照して、一実施形態に係る電子機器1の動作について説明する。図6および図7は、電子機器1の状態に応じて実行される処理の動作の他の例を示す図である。

0069

上述したように、プロセッサ18は、電子機器1が所定条件を満たしたと判定すると、ユーザに音声入力を促す情報を電子機器1に出力させることができる。

0070

図6に示すように、ステップS71において、ユーザは歩行している。このときユーザは、電子機器1を携帯している。電子機器1は、状態センサ15の検出結果に基づいて、ユーザが歩行している状態であると判定する。

0071

ステップS72において、ユーザは転倒している。このとき、電子機器1は、状態センサ15の検出結果に基づいて、ユーザが転倒したと判定する。

0072

ステップS73において、電子機器1のスピーカ12からは、「転倒しましたか?119番に電話して救助要請しますか?」という音声が出力される。

0073

このように、電子機器1は、状態センサ15が取得した取得結果に基づいて電子機器1のユーザが転倒したと判定した場合に、ユーザに音声入力を促す情報をスピーカ12に出力させることができる。ユーザが転倒することは所定条件を満たすことの一例である。ユーザに音声入力を促す情報は、例えば、所定処理を実行するか否かを問う質問を含む。所定処理は、所定の電話番号に発信する処理を含む。電子機器1は、質問を前記出力部に出力させた後、質問に対する応答の音声入力を受け付けてもよい。電子機器1は、質問に対して、所定処理を実行する旨の応答がマイク11に入力されると、所定処理を実行する。所定処理を実行する旨の応答は、音声コマンドの1つである。なお、プロセッサ18は、所定条件が満たされたと判定した場合、前記音声トリガーが入力されたか否かに関わらず音声コマンドの入力を受け付けてもよい。

0074

図7に示すように、ステップS81において、電子機器1のディスプレイ13aには連絡先リストが表示されている。連絡先リストは、所定のアプリケーションが実行されることなどにより、ディスプレイ13aに表示され得る。ユーザは、連絡先リストが表示されている画面に対してスワイプ操作を行うことで、ディスプレイ13aの表示画面をスクロールさせている。

0075

ステップS81において、電子機器1のディスプレイ13aには、「名前を音声入力してください。連絡先検索できます。」という文字が表示される。

0076

このように、電子機器1は、所定のアプリケーションを実行中、一定時間内に表示画面が所定距離または所定回数スクロールされた場合に、ユーザに音声入力を促す情報を電子機器1に出力させてもよい。または、電子機器1は、所定のユーザ操作が一定時間内に所定回数以上行われたと判定した場合に、ユーザに音声入力を促す情報を電子機器1に出力させてもよい。所定のユーザ操作とは、例えばスワイプ操作である。所定のアプリケーションを実行中において、一定時間内に表示画面が所定距離スクロールされること、一定時間内に表示画面が所定回数スクロールされること、および、一定時間内にタッチパネル13に対して所定のユーザ操作が所定回数以上行われることは、所定条件を満たすことの一例である。なお、ユーザに音声入力を促す情報は、例えば、音声入力が可能であることを示唆する内容、認識可能な音声コマンド、認識可能な音声コマンドの内容を示唆する内容、または当該音声コマンドによって実行される所定処理の内容などを含む。なお、プロセッサ18は、所定条件が満たされたと判定した場合、前記音声トリガーが入力されたか否かに関わらず音声コマンドの入力を受け付けてもよい。ここで、前記音声トリガーが入力されたか否かに関わらず入力を受け付ける音声コマンドとは、スピーカ12に出力されたか、またはディスプレイ13aに表示された音声コマンドであってもよい。プロセッサ18は、音声コマンドがマイク11に入力されると、音声コマンドによって実行される所定処理を実行する。所定処理は、所定のリストから1の要素を選択する処理を含む。

0077

所定条件を満たすことの例は、電子機器1のユーザが転倒したと判定されたこと、および所定のユーザ操作が一定時間内に所定回数以上行われたと判定されたことに限られない。例えば、電子機器1は、電話着信があった場合に、ユーザに音声入力を促す情報を電子機器1に出力させてもよい。このとき、ユーザに音声入力を促す情報は、例えば「Aさんから着信です。電話を受けますか?」という音声である。また例えば、電子機器1は、メールを受信した場合に、ユーザに音声入力を促す情報を電子機器1に出力させてもよい。このとき、ユーザに音声入力を促す情報は、例えば「メールを受信しました。内容を読み上げますか?」という音声である。

0078

また例えば、電子機器1は、運転中に利用することが想定されたナビゲーションアプリ、または料理中に使用することが想定されたレシピ閲覧用アプリなどの所定のアプリケーションが起動した、もしくは起動している場合に、ユーザに音声入力を促す情報を出力してもよい。このとき、ユーザに音声入力を促す情報は、例えば「目的地を音声入力してください」または「レシピ閲覧中は音声トリガー無しで音声入力可能です」などという音声である。

0079

図8を参照して、一実施形態に係る電子機器1の制御について説明する。図8は、電子機器1の状態に応じて実行される制御の一例を示すフローチャートである。

0080

ステップS101:プロセッサ18は、マイク11に音声が入力されたか否かを判定する。マイク11に音声が入力されたと判定された場合(ステップS101でYes)、プロセッサ18は処理をステップS102に進める。マイク11に音声が入力されていないと判定された場合、(ステップS101でNo)、プロセッサ18はステップS101の処理を繰り返す。

0081

ステップS102:プロセッサ18は、マイク11に入力された音声を認識する。

0082

ステップS103:プロセッサ18は、認識した音声が第1音声コマンドか否かを判定する。認識した音声が第1音声コマンドであると判定された場合(ステップS103でYes)、プロセッサ18は処理をステップS106に進める。認識した音声が第1音声コマンドでないと判定された場合(ステップS103でNo)、プロセッサ18は処理をステップS104に進める。

0083

ステップS104:プロセッサ18は、電子機器1が所定状態か否かを判定する。電子機器1が所定状態であると判定されると(ステップS104でYes)、プロセッサ18は処理をステップS105に進める。電子機器1が所定状態でないと判定されると(ステップS104でNo)、プロセッサ18は処理をステップS107に進める。

0084

ステップS105:プロセッサ18は、電子機器1に第1処理を実行し、処理を終了する。

0085

ステップS106:プロセッサ18は、電子機器1に第2処理を実行し、処理を終了する。

0086

ステップS107:プロセッサ18は、認識した音声が第2音声コマンドか否かを判定する。認識した音声が第2音声コマンドであると判定された場合(ステップS107でYes)、プロセッサ18は処理をステップS105に進める。認識した音声が第2音声コマンドでないと判定された場合(ステップS103でNo)、プロセッサ18は処理をステップS106に進める。

0087

上述したように、所定状態は、電子機器1がマナーモードに設定されている状態、および電子機器1の移動状態が電車である状態を含む。第1音声コマンドは、電子機器1の位置を問う音声を含む。第1処理は、ディスプレイ13aに画像を表示させる処理を含む。第2処理は、スピーカ12に音声を出力させる処理を含む。

0088

なお、図8に示すように、一実施形態において、プロセッサ18は、電子機器1が所定状態でないと判定した場合でも、認識した音声が第2音声コマンドである場合は、第1処理を実行してもよい。また、プロセッサ18は、電子機器1が所定状態でないと判定し、かつ前記認識した音声が第2音声コマンドでない場合には、第2処理を実行してもよい。第2音声コマンドは、例えばアプリを起動させるコマンド、または電話を発信させるコマンドなど、実行される処理が音声出力を必要としないものを含む。言い換えると、第2音声コマンドは、文字列の出力を要求しないものを含む。なお、電子機器1の設定において音声コマンドに応じた処理の出力方法が設定されている場合はこの限りではない。例えば電子機器1は、音声コマンドに応じた処理を画面表示のみに設定することができる。この場合、プロセッサ18が、電子機器1が所定状態ではないと判定し、かつ認識した音声コマンドが第1音声コマンドとも第2音声コマンドとも異なる音声コマンドであったとしても、第1処理を実行してもよい。なお、図3Aおよび図3Bで例示した「明日の天気は?」という音声コマンドは、機器が所定状態でない場合にスピーカ12に音声を出力させる音声コマンド、すなわち第2音声コマンドとは異なる音声コマンドであるとして説明した。しかしながら、当該音声コマンドは第2音声コマンドにもなり得ることに留意されたい。

0089

上述した実施形態にかかる電子機器1によれば、状況に応じて、音声コマンドに対して画像表示と音声出力が適切に実行されるため、ユーザは、周囲の状況に留意することなく音声認識機能を利用できる。また、特定の音声コマンドをついては、対応する処理が固定されるため、ユーザの意図と異なる処理が実行される可能性を軽減できる。ひいては、音声認識技術の利便性が向上する。

0090

図9を参照して、一実施形態に係る電子機器1の制御について説明する。図9は、電子機器1の状態に応じて実行される制御の一例を示すフローチャートである。

0091

ステップS201:プロセッサ18は、電子機器1が第1状態か否かを判定する。電子機器1が第1状態であると判定されると(ステップS201でYes)、プロセッサ18は処理をステップS202に進める。電子機器1が第21状態でないと判定されると(ステップS201でNo)、プロセッサ18は、ステップS201の処理を繰り返す。

0092

ステップS202:プロセッサ18は、電子機器1に、音声入力を待ち受けない第1モードを実行させる。

0093

ステップS203:プロセッサ18は、電子機器1が第2状態か否かを判定する。電子機器1が第2状態であると判定されると(ステップS203でYes)、プロセッサ18は処理をステップS204に進める。電子機器1が第2状態でないと判定されると(ステップS203でNo)、プロセッサ18は、ステップS201の処理を繰り返す。

0094

ステップS204:プロセッサ18は、電子機器1に、音声入力を待ち受ける第2モードを実行させる。

0095

上述したように、第1状態は、通話状態を含む。第2状態は、通話中に電子機器1が物体(例えばユーザの顔)から離れている状態を含む。

0096

上述した実施形態にかかる電子機器1によれば、通常音声コマンドの入力が制限される場合においても、ユーザの意図に応じて音声コマンドの入力が可能になる。ひいては、音声認識技術の利便性が向上する。

0097

図10を参照して、一実施形態に係る電子機器1の制御について説明する。図10は、電子機器1の状態に応じて実行される制御の他の例を示すフローチャートである。

0098

ステップS301:プロセッサ18は、電子機器1が所定条件を満たすか否かを判定する。電子機器1が所定条件を満たすと判定されると(ステップS301でYes)、プロセッサ18は処理をステップS302に進める。電子機器1が所定条件を満たさないと判定されると(ステップS301でNo)、ステップS301の処理を繰り返す。

0099

ステップS302:プロセッサ18は、電子機器1にユーザに音声入力を促す情報を出力させる。

0100

ステップS303:プロセッサ18は、電子機器1がユーザに音声入力を促す情報を出力してから一定時間の間に、マイク11に音声コマンドが入力されたか否かを判定する。マイク11に音声コマンドが入力されたと判定されると(ステップS303でYes)、プロセッサ18は、処理をステップS304に進める。マイク11に音声コマンドが入力されていないと判定すると(ステップS303でNo)、処理を終了する。なおステップS303において、プロセッサ18は、音声トリガーの入力を要求しなくてもよい。

0101

ステップS304:プロセッサ18は、マイク11に入力された音声コマンドに応じた処理を実行する。

0102

上述したように、所定条件を満たすことは、ユーザが転倒したと判定されること、および所定のアプリケーションを実行中、一定時間内に表示画面が所定距離または所定回数スクロールされること(または、スワイプ操作が所定回数以上行われたと判定されること)、電話着信があったこと、メールを受信したことを、所定のアプリケーションが起動した、もしくは起動していることを含む。ユーザに音声入力を促す情報は、音声入力が可能であることを示唆する内容、認識可能な音声コマンド、認識可能な音声コマンドの内容を示唆する内容、または当該音声コマンドによって実行される所定処理の内容などを含む。

0103

なお、ユーザに音声入力を促す情報が出力されるタイミングは、所定条件を満たすと判定されてから一定時間内でもよいが、これに限られない。例えば、プロセッサは、所定条件が満たされたと判定すると、電子機器1のモードを着信時に音声で受話を開始できるモード(第3モード)に変更し、実際に着信があった場合に、音声で受話を開始できることを示唆する内容の情報を電子機器1に出力させてもよい。このとき、所定条件を満たすこととは、状態センサ15の検出結果に基づきユーザが自動車を運転している状態であると判定すること、測位センサ16が取得した位置情報に基づいてユーザが自宅にいると判定すること、状態センサ15の検出結果に基づき、マイク11がポケットの上側に近い状態で電子機器1がユーザの着用するシャツの胸ポケットに収納されていると判定することなどを含む。加えて、第3モードにおいては、着信時の着信音バイブレータ振動パターンを変更してもよい。着信音または振動パターンを変更することとは、例えば、着信中に着信音または振動が停止する時間を長くすることである。かかる構成によれば、通常、着信音の鳴動中またはバイブレータの振動中は音声コマンドが認識されにくいところ、音声コマンドが認識される可能性を高めることができる。また、第3モードにおいては、通話をスピーカモードで開始するようにしてもよい。

0104

上述した実施形態にかかる電子機器1によれば、ユーザは、音声認識機能を利用できる場面を容易に認知することができる。また、ユーザは、通常よりも容易に音声コマンドを入力することができる。ひいては、音声認識技術の利便性が向上する。

0105

他の実施形態において、プロセッサ18は、電子機器1が所定条件を満たすと判定した場合、電子機器1にユーザに音声入力を促す情報を出力させるとともに、マイク11の感度を上げてもよい。

0106

他の実施形態において、プロセッサ18は、電子機器1が所定の条件を満たすと判定した場合、ディスプレイ13aに表示させる情報の量を一時的に制限したり、使用可能なアプリケーションの数を制限したりしてもよい。

0107

他の実施形態において、電子機器1は、ディスプレイに表示される画像が電子機器1の短手方向(左右方向)を上下方向として表示(すなわち、横画面モード)されており、かつ所定のアプリケーションが起動した、もしくは起動している場合に、ユーザに音声入力を促す情報を出力してもよい。

0108

電子機器1は折りたたみ式の機器であってもよい。折りたたみ式の機器は、フィーチャーフォンを含む。プロセッサ18は、電子機器1が閉状態および開状態のどちらかを判定できる。ここでプロセッサ18は、電子機器1が閉状態であり、かつ所定条件が満たされたと判定した場合に、電子機器1にユーザに音声入力を促す情報を出力させてもよい。

0109

実施形態では特に触れていないが、電子機器1が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD−ROMやDVD−ROM等の記録媒体であってもよい。

0110

あるいは、電子機器1が行う各処理を実行するためのプログラムを記憶するメモリおよびメモリに記憶されたプログラムを実行するプロセッサによって構成されるチップが提供されてもよい。

0111

以上、本発明を図面や実施形態に基づき説明してきたが、本発明は図面や上位実施形態に限定されるべきではないことに注意されたい。当業者であれば本開示に基づき種々の変形や修正を行うことが容易であり、したがって、これらの変形や修正は本発明の範囲に含まれる。例えば、各手段、各ステップ、またそれらに含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段、ステップ、または機能等を1つに組み合わせたり、分割したりすることができる。

0112

1電子機器
11マイク
12スピーカ
13タッチパネル
13aディスプレイ
13bタッチセンサ
14通信インタフェース
15状態センサ
16測位センサ
17ストレージ
17aプログラム
17b データ
18 プロセッサ

ページトップへ

この技術を出願した法人

この技術を発明した人物

ページトップへ

関連する挑戦したい社会課題

関連する公募課題

ページトップへ

技術視点だけで見ていませんか?

この技術の活用可能性がある分野

分野別動向を把握したい方- 事業化視点で見る -

(分野番号表示ON)※整理標準化データをもとに当社作成

ページトップへ

おススメ サービス

おススメ astavisionコンテンツ

新着 最近 公開された関連が強い技術

  • 株式会社小野測器の「 音評価AIシステム、および、音評価AIプログラム」が 公開されました。( 2020/06/18)

    【課題】入力したプロフィールに係る各被験者が感じると思われる主観量を推定する。【解決手段】音評価AIシステム1は、既知の音、および、所定プロフィールを有する被験者による前記音の主観評価を格納する音評価... 詳細

  • 株式会社SELTECHの「 個人認証装置および個人認証プログラム」が 公開されました。( 2020/06/18)

    【課題】個人認証装置および個人認証プログラムについて、認証の正解率を上げる。【解決手段】個人認証装置1は、カメラ32が撮像した被写体の画像情報から画像特徴量を算出する画像特徴量算出部と、マイク31が集... 詳細

  • 日本電産コパル株式会社の「 撮像装置及び電子機器」が 公開されました。( 2020/06/18)

    【課題】スマートフォンなどに用いられる撮像装置において、外部からの不正アクセスや落下の衝撃により羽根が開いた状態になったままとなることを防止する。【解決手段】撮像装置において、撮像素子と、前記撮像素子... 詳細

この 技術と関連性が強い人物

関連性が強い人物一覧

この 技術と関連する社会課題

関連する挑戦したい社会課題一覧

この 技術と関連する公募課題

関連する公募課題一覧

astavision 新着記事

サイト情報について

本サービスは、国が公開している情報(公開特許公報、特許整理標準化データ等)を元に構成されています。出典元のデータには一部間違いやノイズがあり、情報の正確さについては保証致しかねます。また一時的に、各データの収録範囲や更新周期によって、一部の情報が正しく表示されないことがございます。当サイトの情報を元にした諸問題、不利益等について当方は何ら責任を負いかねることを予めご承知おきのほど宜しくお願い申し上げます。

主たる情報の出典

特許情報…特許整理標準化データ(XML編)、公開特許公報、特許公報、審決公報、Patent Map Guidance System データ