図面 (/)

技術 内燃機関の制御装置

出願人 トヨタ自動車株式会社
発明者 前田真吾
出願日 2018年2月15日 (2年2ヶ月経過) 出願番号 2018-025335
公開日 2019年8月29日 (8ヶ月経過) 公開番号 2019-143477
状態 未査定
技術分野 フィードバック制御一般 内燃機関の複合的制御
主要キーワード 学習用データセット 各入力パラメータ 人工ニューロン 選定作業 検証ルーチン 活性化関数 ミニバッチ 隠れ層
関連する未来課題
重要な関連分野

この項目の情報は公開日時点(2019年8月29日)のものです。
また、この項目は機械的に抽出しているため、正しく解析できていない場合があります

図面 (13)

課題

モデルの精度を向上することができる。

解決手段

電子制御ユニット(30)が、機関運転状態を示す入力パラメータの値を取得するパラメータ値取得部と、ニューラルネットワークを用いて演算を行う演算部と、記憶部とを具備している。入力パラメータと出力パラメータとの相関の程度および入力パラメータ間の相関の程度に基づいて、入力パラメータの中で入力パラメータ間の相関の程度の低い方の入力パラメータを選定し、選定された入力パラメータの値が入力層に入力される。

概要

背景

機関回転数吸入空気量等の機関運転を示す入力パラメータの値と、燃焼室内への吸入ガス量計測値との関係が、学習用データセットの形で予め求められており、この学習用データセットを用いてニューラルネットワークの重みを学習することにより、入力パラメータの値と、燃焼室内への吸入ガス量との関係をモデル化した吸入ガス量モデルがニューラルネットワークにより作成され、機関運転時に、この吸入ガス量モデルを用いて、入力パラメータの値から、燃焼室内への吸入ガス量を示す出力パラメータの値を推定するようにした内燃機関制御装置が公知である(例えば特許文献1を参照)。

概要

モデルの精度を向上することができる。電子制御ユニット(30)が、機関の運転状態を示す入力パラメータの値を取得するパラメータ値取得部と、ニューラルネットワークを用いて演算を行う演算部と、記憶部とを具備している。入力パラメータと出力パラメータとの相関の程度および入力パラメータ間の相関の程度に基づいて、入力パラメータの中で入力パラメータ間の相関の程度の低い方の入力パラメータを選定し、選定された入力パラメータの値が入力層に入力される。

目的

効果

実績

技術文献被引用数
0件
牽制数
0件

この技術が所属する分野

ライセンス契約や譲渡などの可能性がある特許掲載中! 開放特許随時追加・更新中 詳しくはこちら

請求項1

電子制御ユニット具備しており、該電子制御ユニットが、機関運転状態を示す入力パラメータの値を取得するパラメータ値取得部と、入力層隠れ層および出力層からなるニューラルネットワークを用いて演算を行う演算部と、記憶部とを具備しており、入力パラメータの値が入力層に入力され、出力パラメータの値を示す出力値が出力層から出力される内燃機関制御装置において、入力パラメータと出力パラメータとの相関の程度および入力パラメータ間の相関の程度に基づいて、入力パラメータの中で入力パラメータ間の相関の程度の低い方の入力パラメータを選定し、選定された入力パラメータの値が入力層に入力される内燃機関の制御装置。

技術分野

0001

本発明は内燃機関制御装置に関する。

背景技術

0002

機関回転数吸入空気量等の機関運転を示す入力パラメータの値と、燃焼室内への吸入ガス量計測値との関係が、学習用データセットの形で予め求められており、この学習用データセットを用いてニューラルネットワークの重みを学習することにより、入力パラメータの値と、燃焼室内への吸入ガス量との関係をモデル化した吸入ガス量モデルがニューラルネットワークにより作成され、機関運転時に、この吸入ガス量モデルを用いて、入力パラメータの値から、燃焼室内への吸入ガス量を示す出力パラメータの値を推定するようにした内燃機関の制御装置が公知である(例えば特許文献1を参照)。

先行技術

0003

特開2012−112277号公報

発明が解決しようとする課題

0004

ところで、このように複数の入力パラメータの値に基づいてニューラルネットワークの重みを学習するようにした場合、これら入力パラメータの中に相関度合の高い入力パラメータが存在すると、これら相関の度合の高い入力パラメータが、ニューラルネットワークの重みの学習時と異なる動きをしたとき、出力パラメータの推定値誤差を生ずるという問題がある。

0005

上記問題を解決するために、本発明によれば、電子制御ユニット具備しており、電子制御ユニットが、機関の運転状態を示す入力パラメータの値を取得するパラメータ値取得部と、入力層隠れ層および出力層からなるニューラルネットワークを用いて演算を行う演算部と、記憶部とを具備しており、入力パラメータの値が入力層に入力され、出力パラメータの値を示す出力値が出力層から出力される内燃機関の制御装置において、入力パラメータと出力パラメータとの相関の度合および入力パラメータ間の相関の度合に基づいて、入力パラメータの中で入力パラメータ間の相関の度合の低い方の入力パラメータを選定し、選定された入力パラメータの値が入力層に入力される。

発明の効果

0006

入力パラメータの中で入力パラメータ間の相関の度合の低い方の入力パラメータを選定し、選定された入力パラメータの値が入力層に入力することによって、出力パラメータの推定値に誤差を生ずるのを抑制することができる。

図面の簡単な説明

0007

図1は内燃機関の全体図である。
図2はニューラルネットワークの一例を示す図である。
図3Aおよび図3Bはシグモイド関数σの値の変化を示す図である。
図4Aおよび図4Bは夫々、ニューラルネットワークと、隠れ層のノードからの出力値を示す図である。
図5Aは出力層のノードからの出力値を示す図であり、図5Bはニューラルネットワークを示す図であり、図5Cは出力層のノードからの出力値を示す図である。
図6は、出力パラメータの推定値の誤差の発生を説明するための図である。
図7は、学習ルーチンを示すフローチャートである。
図8は、学習ルーチンを示すフローチャートである。
図9Aおよび図9Bは報酬Qを示す図である。
図10は、検証ルーチンを示すフローチャートである。
図11Aおよび図11Bは夫々、報酬Qと、相関係数R2とを示す図である。
図12は、本発明による誤差の抑制効果を示す図である。

実施例

0008

<内燃機関の全体構成>

0009

図1に内燃機関の全体図を示す。図1を参照すると、1は機関本体、2は各気筒の燃焼室、3は各気筒の燃焼室2内に配置された点火栓、4は各気筒に燃料、例えば、ガソリンを供給するための燃料噴射弁、5はサージタンク、6は吸気枝管、7は排気マニホルドを夫々示す。サージタンク5は吸気ダクト8を介して排気ターボチャージャ9のコンプレッサ9aの出口に連結され、コンプレッサ9aの入口は吸入空気量検出器10を介してエアクリーナ11に連結される。吸気ダクト8内にはアクチュエータ13により駆動されるスロットル弁12が配置され、吸気ダクト8周りには吸気ダクト8内を流れる吸入空気を冷却するためのインタクーラ14が配置される。

0010

一方、排気マニホルド7は排気ターボチャージャ9の排気タービン9bの入口に連結され、排気タービン9bの出口は排気管15を介して排気浄化用触媒コンバータ16に連結される。排気マニホルド7とサージタンク5とは排気ガス再循環(以下、EGRと称す)通路17を介して互いに連結され、EGR通路17内には、EGR通路17内を流れるEGRガスを冷却するためのEGRクーラ18と、EGR制御弁19とが配置される。更に、EGR通路17には、クーラ18を迂回するEGRバイパス通路20が併設されており、EGR通路17内には、EGRガス流路をEGRバイパス通路20に切換えるための流路切換弁21が配置される。各燃料噴射弁4は燃料分配管22に連結され、この燃料分配管22は燃料ポンプ23を介して燃料タンク24に連結される。

0011

図1に示されるように、吸気ダクト8内には過給圧を検出するための過給圧センサ25が配置されており、サージタンク5内にはサージタンク5内の吸気温を検出するための吸気温センサ26が配置されている。また、燃料分配管22内には燃料分配管22内の燃料圧を検出するための燃料圧センサ27が配置されており、排気管15内には排気ガス中のNOX濃度を検出するためのNOXセンサ28が配置されている。

0012

電子制御ユニット30はデジタルコンピュータからなり、双方向性バス31によって互いに接続されたROM(リードオンリメモリ)32、RAM(ランダムアクセスメモリ)33、CPU(マイクロプロセッサ)34、入力ポート35および出力ポート36を具備する。入力ポート35には、吸入空気量検出器10、過給圧センサ25、吸気温センサ26、燃料圧センサ27およびNOXセンサ28の出力信号が、対応するAD変換器37を介して入力される。アクセルペダル40にはアクセルペダル40の踏込み量に比例した出力電圧を発生する負荷センサ41が接続され、負荷センサ41の出力電圧は対応するAD変換器37を介して入力ポート35に入力される。更に入力ポート35にはクランクシャフトが例えば30°回転する毎に出力パルスを発生するクランク角センサ42が接続される。CPU34内ではクランク角センサ42の出力信号に基づいて機関回転数が算出される。一方、出力ポート36は対応する駆動回路38を介して点火栓3、燃料噴射弁4、スロットル弁駆動用アクチュエータ13、EGR制御弁19、流路切換弁21および燃料ポンプ23に接続される。
<ニューラルネットワークの概要

0013

本発明による実施例では、ニューラルネットワークを用いて内燃機関の性能を表す種々の値を推定するようにしている。図2はこのニューラルネットワークの一例を示している。図2における丸印は人工ニューロンを表しており、ニューラルネットワークにおいては、この人工ニューロンは、通常、ノード又はユニットと称される(本願では、ノードと称す)。図2においてL=1は入力層、L=2および L=3は隠れ層、L=4は出力層を夫々示している。また、図2において、x1およびx2 は入力層 ( L=1) の各ノードからの出力値を示しており、y は出力層 ( L=4) のノードからの出力値を示しており、z1、z2 およびz3 は隠れ層 ( L=2) の各ノードからの出力値を示しており、z1およびz2 は隠れ層 ( L=3) の各ノードからの出力値を示している。なお、隠れ層の層数は、1個又は任意の個数とすることができ、入力層のノードの数および隠れ層のノードの数も任意の個数とすることができる。なお、本発明による実施例では、出力層のノードの数は1個とされている。

0014

入力層の各ノードでは入力がそのまま出力される。一方、隠れ層( L=2) の各ノードには、入力層の各ノードの出力値x1およびx2 が入力され、隠れ層 ( L=2) の各ノードでは、夫々対応する重みwおよびバイアスbを用いて総入力値uが算出される。例えば、図2において隠れ層 ( L=2) のzk(k=1,2,3)で示されるノードにおいて算出される総入力値ukは、次式のようになる。



次いで、この総入力値ukは活性化関数fにより変換され、隠れ層 ( L=2) のzkで示されるノードから、出力値zk(= f (uk)) として出力される。隠れ層 ( L=2) の他のノードについても同様である。一方、隠れ層 ( L=3) の各ノードには、隠れ層 ( L=2) の各ノードの出力値z1、z2 およびz3 が入力され、隠れ層 ( L=3 ) の各ノードでは、夫々対応する重みwおよびバイアスbを用いて総入力値u(Σz・w+b)が算出される。この総入力値uは同様に活性化関数により変換され、隠れ層 ( L=3 ) の各ノードから、出力値z1 、z2 として出力される、なお、本発明による実施例では、この活性化関数としてシグモイド関数σが用いられている。

0015

一方、出力層( L=4) のノードには、隠れ層( L=3) の各ノードの出力値z1 およびz2 が入力され、出力層 のノードでは、夫々対応する重みwおよびバイアスbを用いて総入力値u(Σz・w+b)が算出されるか、又は、夫々対応する重みwのみを用いて総入力値u(Σz・w)が算出される。本発明による実施例では、出力層のノードでは恒等関数が用いられており、従って、出力層のノードからは、出力層のノードにおいて算出された総入力値uが、そのまま出力値yとして出力される。
<ニューラルネットワークによる関数の表現

0016

さて、ニューラルネットワークを用いると任意の関数を表現することができ、次に、このことについて簡単に説明する。まず初めに、活性化関数として用いられているシグモイド関数σについて説明すると、シグモイド関数σは、σ(x)=1/(1+exp(-x))で表され、図3Aに示されるようにxの値に応じて0と1の間の値を取る。ここで、xをwx+bに置き換えると、シグモイド関数σは、σ(wx+b)=1/(1+exp(-wx—b))で表される。ここで、wの値を大きくしていくと、図3Bにおいて曲線σ1、σ2、σ3で示されるように、シグモイド関数σ(wx+b)の曲線部分の傾斜が次第に急になり、wの値を無限大にすると、図3Bにおいて曲線σ4で示されるように、シグモイド関数σ(wx+b)は、x=−b/w(wx+b=0となるx、即ち、σ(wx+b)=0.5となるxにおいて、図3Bに示されるように、ステップ状に変化するようになる。このようなシグモイド関数σの性質を利用すると、ニューラルネットワークを用いて任意の関数を表現することができる。

0017

このことを説明するに当たり、初めに、図4Aに示されるような1個のノードからなる入力層( L=1) と、2個のノードからなる隠れ層( L=2) と、1個のノードからなる出力層( L=3) とにより構成されるニューラルネットワークについて説明する。このニューラルネットワークでは、図4Aに示されるように、入力層 ( L=1) のノードには入力値xが入力され、隠れ層 ( L=2) においてz1で示されるノードには、重みw1(L2) およびバイアスb1を用いて算出された入力値u=x・w1(L2)+b1 が入力される。この入力値uはシグモイド関数σ(x・w1(L2)+b1)により変換され、出力値z1 として出力される。同様に、隠れ層 ( L=2) においてz2で示されるノードには、重みw2(L2)およびバイアスb2 を用いて算出された入力値u=x・w2(L2)+b2 が入力され、この入力値uはシグモイド関数σ(x・w2(L2)+b2)により変換され、出力値z2 として出力される。

0018

一方、出力層( L=3) のノードには、隠れ層( L=2) の各ノードの出力値z1 およびz2 が入力され、出力層 のノードでは、夫々対応する重みw1(y) およびw2(y) を用いて総入力値u(Σz・w=z1・w1(y) +z2・w2(y))が算出される。前述したように、本発明による実施例では、出力層のノードでは恒等関数が用いられており、従って、出力層のノードからは、出力層のノードにおいて算出された総入力値uが、そのまま出力値yとして出力される。

0019

さて、図4Bは、図4Aにおける重みw1(L2) およびw2(L2) の値を大きくすることにより、シグモイド関数σの値を、図3Bに示されるように、ステップ状に変化させた場合を示している。図4Bの(I)には、x=—b1 /w1(L2) において、シグモイド関数σ(x・w1(L2)+b1 )の値がステップ状に増大するように重みw1(L2)およびバイアスb1が設定されたときの隠れ層( L=2) のノードからの出力値z1が示されている。また、図4Bの(II)には、x=—b1 /w1(L2) よりも少し大きいx=−b2 /w2(L2) においてシグモイド関数σ(x・w2(L2)+b2)の値がステップ状に減少するように重みw2(L2)およびバイアスb2 が設定されたときの隠れ層 ( L=2) のノードからの出力値z2が示されている。また、図4Bの(III)には、隠れ層 ( L=2) の各ノードからの出力値z1 とz2 の和(z1 +z2 )が実線で示されている。図4Aに示されるように、各出力値z1 、z2 には、夫々対応する重みw1(y) およびw2(y) が乗算されており、図4Bの(III)には、w1(y) 、w2(y) >1であるときの出力値yが破線で示されている。

0020

このように、図4Aに示されるニューラルネットワークにおいて、隠れ層( L=2) の一対のノードにより、図4Bの(III)に示されるような短冊状の出力値yが得られる。従って、隠れ層 ( L=2) の対をなすノード数を増大し、隠れ層 ( L=2) の各ノードにおける重みwおよびバイアスbの値を適切に設定すると、図5Aにおいて破線の曲線で示すような関数y=f(x)を近似する関数を表現できることになる。なお、図5Aでは、各短冊が接するように描かれているが、実際には、各短冊は部分的に重なる場合がある。また、実際には、wの値は無限大とはならないために、各短冊は、正確な短冊状にはならず、図3Bにおいてσ3で示される曲線部分の上半分のような曲線状となる。なお、詳細な説明は省略するが、図5Bに示されるように、異なる二つの入力値xIおよびx2に対し、隠れ層 ( L=2)において夫々対応する一対のノードを設けると、図5Cに示されるように、入力値xIおよびx2に応じた柱状の出力値yが得られる。この場合、各入力値xI、x2に対し、隠れ層 ( L=2) に多数の対をなすノードを設けると、夫々異なる入力値xIおよびx2に応じた複数個の柱状の出力値yが得られ、従って、入力値xIおよびx2 と出力値yとの関係を示す関数を表現できることがわかる。なお、異なる三つ以上の入力値xがある場合でも同様に、入力値xと出力値yとの関係を示す関数を表現できる。なお、異なる三つ以上の入力値xがある場合でも同様に、入力値xと出力値yとの関係を示す関数を表現できる。入力値が1個の場合には、入力値の数1+出力値1個により、関数が2次元平面上で表される。入力値が2個の場合には、入力値の数2+出力値1個により、関数が3次元空間においで表される。即ち、入力値がn個の場合には、入力値の数1+出力値1個により、関数がn+1次元平面において表される。なお、紙面上に4次元平面以上の空間を表現することはできないので、図は割愛する。
<ニューラルネットワークにおける学習>

0021

一方、本発明による実施例では、誤差逆伝播法を用いて、ニューラルネットワーク内における各重みwの値およびバイアスbの値が学習される。この誤差逆伝播法は周知であり、従って、誤差逆伝播法についてはその概要を以下に簡単に説明する。なお、バイアスbは重みwの一種なので、以下の説明では、バイアスbは重みwの一つとされている。さて、図2に示すようなニューラルネットワークにおいて、L=2,L=3又は L=4の各層のノードへの入力値u(L)における重みをw(L)で表すと、誤差関数Eの重みw(L)による微分、即ち、勾配∂E/∂w(L)は、書き換えると、次式で示されるようになる。



ここで、z(L−1)・∂w(L)= ∂u(L)であるので、(∂E/∂u(L))=δ(L)とすると、上記(1)式は、次式でもって表すことができる。

0022

ここで、u(L)が変動すると、次の層の総入力値u(L+1)の変化を通じて誤差関数Eの変動を引き起こすので、δ(L)は、次式で表すことができる。



ここで、z(L)=f(u(L)) と表すと、上記(3)式の右辺に現れる入力値uk(L+1)は、次式で表すことができる。



ここで、上記(3)式の右辺第1項(∂E/∂u(L+1))はδ(L+1)であり、上記(3)式の右辺第2項(∂uk(L+1) /∂u(L))は、次式で表すことができる。



従って、δ(L)は、次式で示される。



即ち、δ(L+1)が求まると、δ(L)を求めることができることになる。

0023

さて、或る入力値に対して教師データytが求められており、この入力値に対する出力層からの出力値がyであった場合、誤差関数として二乗誤差が用いられている場合には、二乗誤差Eは、E=1/2(y−yt)2で求められる。この場合、図2の出力層(L=4)のノードでは、出力値y= f(u(L)) となり、従って、この場合には、出力層(L=4)のノードにおけるδ(L)の値は、次式で示されるようになる。



ところで、本発明による実施例では、前述したように、f(u(L)) は恒等関数であり、f’(u(Ll)) = 1となる。従って、δ(L)=y−yt となり、δ(L)が求まる。

0024

δ(L)が求まると、上式(6)を用いて前層のδ(L−1)が求まる。このようにして順次、前層のδが求められ、これらδの値を用いて、上式(2)から、各重みwについて誤差関数Eの微分、即ち、勾配∂E/∂w(L)か求められる。勾配∂E/∂w(L)か求められると、この勾配∂E/∂w(L)を用いて、誤差関数Eの値が減少するように、重みwの値が更新される。即ち、重みwの値の学習が行われることになる。なお、訓練データとしてバッチ、又はミニバッチが用いられる場合には、誤差関数Eとして、次の二乗和誤差Eが用いられる。



一方、二乗誤差を逐次算出するようにしたオンライン学習が行われる場合には、誤差関数Eとして、上述の二乗誤差Eが用いられる。
<本発明による実施例>

0025

前述したように、複数の入力パラメータの値に基づいてニューラルネットワークの重みを学習するようにした場合、これら入力パラメータの中に相関の度合の高い入力パラメータが存在すると、これら相関の度合の高い入力パラメータが、ニューラルネットワークの重みの学習時と異なる動きをしたとき、出力パラメータの推定値に誤差を生ずる。例えば、二つの入力パラメータの値が夫々x1およびx2であり、出力パラメータの値がyである場合において、一方の入力パラメータの値x1がΔx1だけ変化したときに出力パラメータの値yがΔyだけ変化したとすると(Δy=a・Δx1)、学習モデルは、入力パラメータの値x1が変化したときに出力パラメータの値yは、Δx1の変化に対して、感度aで変化することを学習する。

0026

ところが、この場合、二つの入力パラメータ間に相関関係があったとすると、一方の入力パラメータの値x1が変化したときに他方の入力パラメータの値x2も変化する。この場合、一方の入力パラメータの値x1がΔx1だけ変化したときに他方の入力パラメータの値x2がΔx2だけ変化したとすると(Δx2=b・Δx1)、Δy=a・Δx1=(a/b)・Δx2であるので、学習モデルは、他方の入力パラメータの値x2が変化したときに出力パラメータの値yは、Δx2の変化に対して、感度a/bで変化すると学習してしまう。この感度a/bは、一方の入力パラメータの値x1が変化したときの感度であり、他方の入力パラメータの値x2が単独で変化したときの感度ではない。しかしながら、学習モデルは、この感度a/bは、他方の入力パラメータの値x2が単独で変化したときの感度である誤学習をしてしまう。このような誤学習を生じると、出力パラメータの推定値に誤差を生ずることになる。

0027

次に、一つの検証例について説明する。例えば、図1に示される内燃機関において、EGRガスがサージタンク5内に再循環せしめられると、EGRガスの影響を受けてサージタンク5内の吸気温が変化する。従って、EGR率とサージタンク5内の吸気温は相関の度合いが高いと言える。そこで、上述の一方の入力パラメータの値x1をEGR率とし、上述の他方の入力パラメータの値x2をサージタンク5内の吸気温とし、出力パラメータの値yをNOX濃度として、ニューラルネットワークの重みの学習を行い、そのときの検証結果が図6に示されている。なお、図6は、EGRガスの再循環が開始された後、破線で示される時刻において、流路切換弁21により、EGR流路が、EGRクーラ18内を通るEGR通路17からEGRバイパス通路20に切換えられたときの、EGR率、サージタンク5内の吸気温、実NOX濃度および推定NOX濃度の変化を示している。

0028

さて、図6において、破線で示される時刻以前においては、即ち、EGR流路が、EGRクーラ18内を通るEGR通路17からEGRバイパス通路20に切換えられる以前では、EGR率が徐々に上昇すると共にサージタンク5内の吸気温が少しずつ下降している。即ち、入力パラメータの値x1と、入力パラメータの値x2が共に変化している。このとき、推定NOX濃度が実NOX濃度に近づくように、ニューラルネットワークの重みが学習されている。これに対し、図6において、破線で示される時刻を過ぎると、即ち、EGR流路が、EGRクーラ18内を通るEGR通路17からEGRバイパス通路20に切換えられると、EGR率の上昇作用が停止され、サージタンク5内の吸気温が徐々に増大する。

0029

即ち、このときには、入力パラメータの値x2のみが単独で変化している。このように入力パラメータの値x2のみが単独で変化すると、図6に示されるように、サージタンク5内の吸気温が増大するにつれて、推定NOX濃度が徐々に低下し、推定NOX濃度が実NOX濃度から次第に離れていく。即ち、誤学習が次第に進行していく。このように、二つの入力パラメータの相関の度合の高いと、これら入力パラメータが、ニューラルネットワークの重みの学習時と異なる動きをしたとき、出力パラメータの推定値に誤差を生ずることになる。そこで、本発明では、入力パラメータの中で入力パラメータ間の相関の度合の低い方の入力パラメータを選定し、選定された入力パラメータの値を入力層に入力することによって、出力パラメータの推定値に誤差を生ずるのを抑制するようにしている。

0030

次に、ニューラルネットワークにより排出NOX量を推定するための排出NOX量モデルを作成する場合を例にとって、図7から図11を参照しつつ本発明について説明する。この例では、入力パラメータとして、機関回転数、燃料噴射弁4からの燃料噴射量、燃料噴射弁4からの燃料噴射時期、燃料分配管22内の燃料圧、EGR率、過給圧およびサージタンク5内の吸気温が採用されており、出力パラメータとして、NOX濃度が採用されている。図7には、これら入力パラメータと出力パラメータを用いてニューラルネットワークの重みの学習を行う学習ルーチンが示されており、図9には、図7の学習ルーチンにおいて行われた学習を検証するための検証ルーチンが示されている。

0031

図7を参照すると、まず初めに、ステップ100において、予め定められた走行パターンで車両が走行され、そのとき燃料圧センサ27、過給圧センサ25、NOXセンサ28、吸気温センサ26等により検出された、機関回転数、燃料噴射弁4からの燃料噴射量、燃料噴射弁4からの燃料噴射時期、燃料分配管22内の燃料圧、EGR率、過給圧、サージタンク5内の吸気温および排気ガス中のNOX濃度に関するデータが取得される。次いで、ステップ101では、制御対象としての出力パラメータが選定され、その他のパラメータが入力パラメータ候補として設定される。この例では、出力パラメータとしてNOX濃度が採用され、機関回転数、燃料噴射弁4からの燃料噴射量、燃料噴射弁4からの燃料噴射時期、燃料分配管22内の燃料圧、EGR率、過給圧およびサージタンク5内の吸気温が入力パラメータ候補とされる。なお、以下、出力パラメータ、即ち、NOX濃度はyで示され、入力パラメータ候補、即ち、機関回転数、燃料噴射弁4からの燃料噴射量、燃料噴射弁4からの燃料噴射時期、燃料分配管22内の燃料圧、EGR率、過給圧およびサージタンク5内の吸気温は、x1、・・・・xN で示される。また、入力パラメータ候補x1、・・・・xN 中の任意の候補が、xn、xm で示される。なお、図7に示される学習ルーチンでは、これらn、mの初期値は1とされており、これらn、mは夫々、1からNまでの値(n、m=1,2・・・N)をとる。

0032

次いで、ステップ102では、XとYとの相関を示す相関係数の数式として周知の次式を用いて、各入力パラメータ候補xnと出力パラメータyとの相関係数R2(xn、y)が算出される。



なお、本発明による実施例では、相関係数として上式に示される相関係数Rの二乗R2が用いられている。

0033

次いで、ステップ103では、nが1だけインクリメントされる(n=n+1)。次いで、ステップ104では、n=N+1になったか否かが判別される。n=N+1でないときにはステップ102に戻り、相関係数R2(xn、y)が算出される。一方、ステップ104において、n=N+1になったと判別されたときには、ステップ105に進む。即ち、ステップ102において、x1からxNまでの全ての入力パラメータ候補xnについての相関係数R2(xn、y)が算出されると、ステップ105に進む。ステップ105では、nの初期化が行われる。即ち、n=1とされる。次いで、ステップ106に進む。

0034

ステップ106では、nとmが等しいが否かが判別される。nとmが等しくないとき(n≠m)にはステップ107に進んで、各入力パラメータ候補xn同士の相関係数R2(xn、xm)が算出される。次いで、ステップ108に進む。一方、ステップ106においてnとmが等しいと判別されたときには、ステップ108にジャンプする。即ち、相関係数R2(xn、y)は、n≠mであるときのみ算出される。ステップ108では、mが1だけインクリメントされる(m=m+1)。次いで、ステップ109では、m=N+1になったか否かが判別される。m=N+1でないときにはステップ106に戻り、n≠mである場合には、ステップ107に進んで、相関係数R2(xn、xm)が算出される。

0035

一方、ステップ109において、m=N+1になったと判別されたときには、ステップ110に進んで、nが1だけインクリメントされる(n=n+1)。次いで、ステップ111では、n=N+1になったか否かが判別される。n=N+1でないときにはステップ106に戻り、n≠mである場合には、ステップ107に進んで、相関係数R2(xn、xm)が算出される。一方、ステップ111において、n=N+1になったと判別されたときには、ステップ112に進む。即ち、ステップ107において、n=mを除く、x1からxNまでの残りの全ての各入力パラメータ候補xn同士の相関係数R2(xn、xm)が算出されると、ステップ112に進む。ステップ112では、nの初期化が行われる。即ち、n=1とされる。次いで、ステップ113に進む。

0036

ステップ113では、各入力パラメータ候補xnに対し、既に算出されている相関係数R2(xn、y)および相関係数R2(xn、xm)を用いて次式に基づき算出された報酬Q(xn)が付与される。

0037

上式において、aおよびbは定数である。即ち、この報酬Q(xn)は、図9Aに示されるように、入力パラメータ候補xnと出力パラメータyとの相関係数R2(xn、y)・aから、入力パラメータ候補xnとその他の入力パラメータ候補xmとの相関係数の総和ΣR2(xn、xm)・bを減算した減算結果を示している、図9Aから、入力パラメータ候補xnと出力パラメータyとの相関の度合いが高いほど報酬Q(xn)が高くなり、入力パラメータ候補xnとその他の入力パラメータ候補xmとの相関の度合いが低いほど報酬Q(xn)が高くなることがわかる。従って、報酬Q(xn)が高いほど誤学習を抑制し得ることがわかる。

0038

ステップ113において報酬Q(xn)が付与されると、ステップ114に進み、報酬Q(xn)が、暫定的に定められている閾値Tよりも大きいか否かが判別される。報酬Q(xn)が閾値Tよりも大きいと判別されたときにはステップ115に進んで、xn が入力パラメータとして選定される。次いで、ステップ116に進む。これに対し、ステップ114において、報酬Q(xn)が閾値Tよりも大きくないと判別されたときにはステップ116にジャンプする。従って、このときには、xn が入力パラメータとして選定されない。次いで、ステップ116では、nが1だけインクリメントされる(n=n+1)。次いで、ステップ117では、n=N+1になったか否かが判別される。n=N+1でないときにはステップ113に戻り、報酬Q(xn)が算出される。一方、ステップ117において、n=N+1になったと判別されたときには、ステップ118に進む。

0039

即ち、ステップ113において、x1からxNまでの全ての入力パラメータ候補xnについての報酬Q(xn)が算出され、ステップ114および115において、全ての入力パラメータ候補xnについて、入力パラメータとして選定するか否かの選定作業が完了したときにはステップ118に進む。ステップ118では、入力パラメータとして選定された入力パラメータ候補xnと、出力パラメータyを用いて、ニューラルネットワークの重みの学習が行われる。

0040

図9Bには、報酬Q(xn)と、閾値Tと、各入力パラメータ候補xnと、選定された入力パラメータxnとが示されている。図9Bに示される例では、入力パラメータ候補x1〜xN の内で、入力パラメータ候補x1、x3、xN−2, xN についての報酬Q(xn)だけが閾値Tよりも大きく、従って、これら入力パラメータ候補x1、x3、xN−2, xN のみが、入力パラメータxnとして選定される。図8のステップ118では、これら入力パラメータとして選定された入力パラメータ候補xnと、出力パラメータyを用いて、ニューラルネットワークの重みの学習が行われる。

0041

次に、図10を参照しつつ、検証ルーチンについて説明する。図10を参照すると、まず初めに、ステップ200において、予め定められた走行パターンで車両が走行され、そのときのデータ、即ち、図8のステップ115において選定された選定入力パラメータxnと排気ガス中のNOX濃度が取得される。次いで、ステップ201では、図8のステップ118において重みの学習が行われたニューラルネットワークを用いて、ステップ200において取得された選定入力パラメータxnと排気ガス中のNOX濃度から、出力パラメータの推定値ye が算出される。次いで、ステップ202では、排気ガス中のNOX濃度の実測値、即ち、出力パラメータの実測値yと出力パラメータの推定値yeと相関係数R2(y、ye)が算出される。

0042

次いで、ステップ203では、相関係数R2(y、ye)が要求精度Sよりも大きいか否かが判別される。相関係数R2(y、ye)が要求精度Sよりも大きいと判別されたときには処理サイクルを完了する。このときには、図8のステップ115において選定された選定入力パラメータxnが最終的な選定入力パラメータxnとされる。これに対し、ステップ203において、相関係数R2(y、ye)が要求精度Sよりも大きくないと判別されたときには、ステップ204に進んで、閾値Tを増減させることにより、選定入力パラメータxnの再選定が行われる。図11Aおよび図11Bは、この選定入力パラメータxnの再選定の様子を示している。

0043

即ち、まず初めに、ステップ204では、閾値Tに修正値ΔTが加算される。このときの閾値Tが、図11AにおいてT2で示されている。次いで、ステップ205では、選定入力パラメータxnについて既に付与されている報酬Q(xn)と新たな閾値Tとが比較され、新たな閾値Tよりも報酬Q(xn)の大きい選定入力パラメータxnが、新たな選定入力パラメータxnとして選定される。次いで、ステップ206では、新たな選定入力パラメータ候補xnと、出力パラメータyを用いて、ニューラルネットワークの重みの学習が行われる。次いで、ステップ207では、ステップ206において重みの学習が行われたニューラルネットワークを用いて、新たな選定入力パラメータxnと排気ガス中のNOX濃度から、出力パラメータの推定値ye が算出される。

0044

次いで、ステップ208では、排気ガス中のNOX濃度の実測値、即ち、出力パラメータの実測値yと出力パラメータの推定値yeと相関係数R2(y、ye)が算出される。次いで、ステップ209では、相関係数R2(y、ye)が増加したか否かが判別される。相関係数R2(y、ye)が増加したと判別されたときにはステップ203に戻り、再び、相関係数R2(y、ye)が要求精度Sよりも大きいか否かが判別される。相関係数R2(y、ye)が要求精度Sよりも大きいと判別されたときには処理サイクルを完了し、新たな選定入力パラメータxnが最終的な選定入力パラメータxnとされる。

0045

一方、ステップ209において、相関係数R2(y、ye)が増加しないと判別されたときには、ステップ210に進んで、閾値Tに対する修正値ΔTが、—ΔTとされる。次いで、ステップ203に進む。このときには、ステップ203からステップ204に進み、今度は、閾値Tから修正値ΔTが減算される。なお、最初にステップ210に進んだときだけ、閾値Tに対する修正値ΔTを—2ΔTとすることができ、このときの閾値Tが、図11AにおいてT1で示されている。次いで、ステップ205に進み、以下、上述した処理と同様の処理が行われる。このように、閾値Tを増減させることによって、図11Bからわかるように、相関係数R2(y、ye)が要求精度Sよりも大きくなる最終的な選定入力パラメータxnを探索することができる。

0046

図12実験結果を示す。図12において上方のグラフは、選定入力パラメータxnが再選定される前の実NOX濃度と推定NOX濃度とを示しており、図12において下方のグラフは、選定入力パラメータxnが再選定された後の実NOX濃度と推定NOX濃度とを示している。これらのグラフから、選定入力パラメータxnが再選定されると、実NOX濃度に対する推定NOX濃度の誤差が抑制されることがわかる。因みに、上方のグラフは、入力パラメータとして、機関回転数、燃料噴射弁4からの燃料噴射量、燃料噴射弁4からの燃料噴射時期、燃料分配管22内の燃料圧、EGR率、過給圧およびサージタンク5内の吸気温が用いられている場合を示しており、下方のグラフは、これらの入力パラメータから、サージタンク5内の吸気温が除外された場合を示している。

0047

1内燃機関
2燃焼室
3点火栓
4燃料噴射弁
12スロットル弁
25過給圧センサ
26吸気温センサ
27燃料圧センサ
28NOXセンサ
30 電子制御ユニット

ページトップへ

この技術を出願した法人

この技術を発明した人物

ページトップへ

関連する挑戦したい社会課題

関連する公募課題

該当するデータがありません

ページトップへ

おススメ サービス

おススメ astavisionコンテンツ

新着 最近 公開された関連が強い技術

  • トヨタ自動車株式会社の「 内燃機関の制御装置」が 公開されました。( 2020/02/13)

    【課題】気筒内での燃焼を再開させる際における排気性状の悪化を抑制することができる内燃機関の制御装置を提供すること。【解決手段】内燃機関制御ユニット110は、クランク軸が回転している状況下で気筒11内で... 詳細

  • トヨタ自動車株式会社の「 内燃機関の制御装置」が 公開されました。( 2020/02/13)

    【課題】リッチ化処理の実行によって三元触媒の酸素吸蔵量が適正量から乖離してしまうことを抑制できる内燃機関の制御装置を提供すること。【解決手段】内燃機関制御ユニット110は、燃焼停止期間中では、燃料噴射... 詳細

  • トヨタ自動車株式会社の「 内燃機関の制御装置」が 公開されました。( 2020/02/13)

    【課題】内燃機関の排気浄化装置における触媒の過昇温を抑制する。【解決手段】内燃機関制御ユニット110は、ブローバイガス処理装置30を備えている内燃機関10に適用される。内燃機関10は、燃料噴射弁17か... 詳細

この 技術と関連性が強い人物

関連性が強い人物一覧

この 技術と関連する社会課題

関連する挑戦したい社会課題一覧

この 技術と関連する公募課題

該当するデータがありません

astavision 新着記事

サイト情報について

本サービスは、国が公開している情報(公開特許公報、特許整理標準化データ等)を元に構成されています。出典元のデータには一部間違いやノイズがあり、情報の正確さについては保証致しかねます。また一時的に、各データの収録範囲や更新周期によって、一部の情報が正しく表示されないことがございます。当サイトの情報を元にした諸問題、不利益等について当方は何ら責任を負いかねることを予めご承知おきのほど宜しくお願い申し上げます。

主たる情報の出典

特許情報…特許整理標準化データ(XML編)、公開特許公報、特許公報、審決公報、Patent Map Guidance System データ