Paraméterbecslő algoritmus, ha
 
a bemenőjelek nem elég változékonyak
 
 
                                                                                                                                        ( 2026 március)
 
 
The Backward propagation for input algorithm is presented. When the λimaxjmin ratio is large, where n denotes the number of eigenvalues, λi of the covariance matrix of the gradient vector g(n), in a model of wT(n) g(n) where T stands for transpose. The input signal is assumed  to be sufficiently variable (is persistently exciting), based on the eigenvalues of covriance matrix of the g(n) gradient vector of the model wT(n) g(n)
Let ηi = λi / i=1Σn λi; then by divided the i-th components of g (n) by ηi, than the components of the gradient vector contribute to the prediction error with equal measure. The estimating algorithm computes  wi / ηi  and   i=1Σn η= 1.
 
 
 
 
 
A paraméter becsléseknél (például a rekurzív legkisebb négyzetek módszer) a hibafolyamat a becsült paraméterekkel számított előrejelzés és a mért érték közötti különbség, azaz a predikciós hibasorozat, ami ideális esetben korrelálatlan az előrejelzésekkel, és zérus várható értékű fehér zaj.
 
Megj.: Stochasztikus rendszerek esetén a legáltalánosabb identifikációs kritérium az előrejelzés és a predikciós hiba korrelálatlansága, az állítás a maximális entrópiával bizonyítható. Legyen a hiba várható értéke és szórása rögzített maximális entrópiájú Gauss-eloszlás. Ha a modell paramétereit úgy állítjuk be, hogy a hiba entrópiája maximális legyen, akkor a hiba függetlenné válik. Amikor a predikciós hiba entrópiáját maximalizáljuk a modell paramétereinek becslésével, akkor végül a hiba feltételes entrópiája megegyezik a feltétel nélkülivel. Ez matematikailag azt jelenti, hogy a hiba nem függ a múltbeli adatoktól vagy a predikciótól, tehát a kettő közötti korreláció (és minden magasabb rendű függőség) zéró. Belátható pl., hogy a Maximum Likelihood (ML) becslés és a Maximális Entrópia elve, azaz a Kullback-Leibler divergencia minimalizálása matematikai szempontból ekvivalens.
A rekurzív algoritmusok minden lépésben frissítik a becslést, és két hibaértéket különböztetnek meg:
A priori hibát, e(n), az új előrejelzés hibája a meglévő (előző lépésbeli) paraméterbecslés alapján, és az A posteriori hibát ε(n): az új előrejelzés hibája a már frissített paraméterek alapján, ami az egyenlethiba, reziduális hiba, és általában kisebb, mint az a priori hiba. A rekurzív becslési algoritmusok (mint a Kálmán-szűrő vagy az GLS) felújítják a becslési hiba kovarianciamátrixát, P(n)-t, ami méri a becslés bizonytalanságát. Ideális esetben a folyamat során a P(n) mátrix értékei, pl. a nyoma csökkennek, ami mutatja a becslés pontosságának javulását (konvergenciáját).
 
Stacionárius és nem stacionárius hibák időben állandó paraméterű rendszerek esetén: megfelelő gerjesztés mellett a paraméterhiba várható értéke nullához tart. Időben változó paraméterű rendszerek esetén a paraméterek változnak, ezért „felejtéses" (forgetting factor) rekurziót használnak. A szűrt érték becslése pedig egyensúlyoz a követési hiba és a zaj között. 
 
Konvergencia sebessége azt méri, hogy milyen gyorsan csökken a kezdeti előrejelzési hiba (pl. LMS vs. GLS algoritmusok, vagy pl. a Kálmán-szűrő esetén, az utóbbi tízen-egynéhány iteráció után beáll.)  Az LMS (Least Mean Squares) e2(n) vagy ε2(n) várható értékét minimalizálja. A hibafolyamatokban megjelenik becsült paraméterek okozta gradiens-hiba is.
 
Jelölések: e(n) = y(n) - wT(n-1) g(n) a hiba, és a (paraméter-) súlyfrissítés:  w(n) = w(n-1) + μ e(n) g(n), ahol  μ a tanulási tényező. A konvergencia feltétele: a hibafolyamat csak akkor tart egy véges értékhez, ha a  μ értéke a
 0 < μ < 2/λmax 
tartományban van, ahol λmax az g(n) gradiens vektor autokovariancia-mátrixának legnagyobb sajátértéke. A g(n) gradiens vektor komponensei a célfüggvény w(n) súlyvektor szerint számított deriváltjai: a wT(n-1) g(n) modellből egyszerűen számítható, mert a paraméterekben lineáris a modell.
 
A tanulási görbét az LMS rekurziónál a predikciós hibanégyzet várható értékének csökkenése jellemzi a lépések függvényében. A kezdeti szakaszban a hiba exponenciálisan csökken. A konvergencia sebessége függ a gradiens vektor változékonyságától. Ha az  autokovariancia-mátrix sajátértékek aránya, λmax/λmin nagy, a hibafolyamat egyes irányokban nagyon lassú lesz*, míg ideális esetben közel egyenlőek a sajátértékek, és ekkor megfelelő a gerjesztés, és ekkor: persistently exciting, azaz megfelelően változékony az input.  
 
Nagy μ esetén gyors a követés, de nagy a paraméterbecslési hiba is. Kis μ esetén lassú a konvergencia, torzított a paraméterbecslés, bár kisebb az előrejelzési hiba, ami a forrás  zaj, a mérési zaj és a gradiens-becslési zaj összege. A hibák átlagos csökkenései exponenciális jellegűek. Minden egyes λi sajátértékhez tartozik egy egyedi τi időállandó, amely meghatározza, milyen gyorsan simul ki a hiba az adott irányban: τi = 1/2μλ, tehát ha nagy a μ, akkor τkicsi, és a konvergencia gyors. 
 
A hibafolyamat sebességét a legkisebb sajátérték λmin korlátozza, mert az ahhoz tartozó hiba összetevő csillapodik a leglassabban. Tehát, ha λmax/λmin nagy, akkor a nagy μ választás sem teljesen jó megoldás, mert a konvergens szakasz után visszamaradó relatív többlethiba egyenesen arányos a tanulási tényezővel, így μ megválasztása kompromisszum: nagyobb μ gyorsítja a tanulást, de növeli a torzítást is a stacionárius szakaszban.
 
Változó μ tanulási tényező esetén az algoritmus dinamikusan változtatja a tanulási tényezőt a hibafolyamat állapota alapján. A tanulás elején, amikor az előrejelzési hiba, e(n) nagy, az algoritmus megnöveli μ értékét, ami gyorsítja a konvergenciát. Ha hiba csökken és a becslés pontosabbá válik, az algoritmus lecsökkenti μ értékét, ami minimalizálja a maradék hibát, kisimítja a becslést.
 
 
μ(n) változtatására sok matematikai megközelítés létezik:
Hibanégyzet-alapú: ha a hiba nagy, a lépésköz is nagy, pl. a Kwong-szabály: μ(n+1) = α μ(n) + γ e2(n), ahol
0 <  α < 1,  és γ > 0. Azaz μ (n) folyamatosan csillapodik az α miatt, de a nagy hiba, e2(n) visszanöveli nagyobb értékre. 
Keresztkorreláció-alapú: Az egymást követő hibaminták korrelációja alapján számítható. Ha az egymás utáni minták tartósan azonos előjelűek, akkor a becslés lassú, és növeljük a μ értékét, és biztosítjuk a hiba mozgó átlagú becslése alapján a hiba zérus várható értékét. Ha a hiba előjele össze-vissza ugrál, akkor már az optimum közelében vagyunk, és csökkentjük a μ értékét, lépésenként frissíteni kell μ (n)-et. 
 
Az itt ismertetendő Backward error propagation for input algoritmus, amikor a λimax/λjmin arány nagy, - a sajátértékek száma n-, akkor a gradiens nem elegendően változékony (not persistently exciting input). Az új algoritmus azt célozza, hogy a gradiens komponensek azonos mértékben járuljanak hozzá a predikciós hibához
Legyen ηiλ1Σn λ, akkor a gradiens i. komponenseit  η-kkel osztva, a gradiens vektor komponensei  azonos mértékben járulnak hozzá a predikciós hibához. Az paraméterbecslő algoritmusok ekkor  wi / ηi -t számítanak. A becslés nem rontja a torzítatlanságot, mert i=1Σn η= 1.
 
A kiterjesztett Kálmán-szűrőt* (EKF) nemlineáris rendszerekhez használják (pl. repülésnél) linearizálásra, és a linearizált modellel tartják a sebességet. GPS navigációnál simítja az ugráló pozíció adatokat. Önvezető autóknál a szenzor adatok (Lidar, Radar) fúziójára használják, amikor a valóság nemlineáris görbéit gyorsan lehet követni linearizált modellel. Mivel a legtöbb fizikai mozgás (kanyarodás, gyorsulás) nem írható le egyenes vonalakkal, az EKF Taylor-sorfejtést (linearizálást) használnak minden időlépésben. Pl. a szenzorfúziónál a radar távolságot és sebességet mér (polárkoordinátákat mér), és a Lidar pontos pozíciót ad (X, Y koordináták), és az EKF összehangolja a különböző típusú adatokat. A GPS jele gyakran késik vagy „ugrál” a házak között (többutas terjedés miatt). Az EKF összeveti a GPS-t az autó saját sebességmérőjével és kormányszögével, akkor is tudja a pozíciót, ha a GPS jel 1-2 másodpercre kiesik (pl. alagútban). Repülésirányításnál egy drón dőlésszöge és gyorsulása közötti kapcsolat erősen nemlineáris (trigonometrikus függvények). Az EKF valós időben számolja ki a dőlést a gyorsulásmérő és a giroszkóp adatai alapján. Az EKF-nek is vannak korlátai, pl. ha erős a nemlinearitás, ha a görbe túl hirtelen törik meg, a linearizálás "eltéved", és a szűrő divergálhat (szétesik a becslés). Jakobi-mátrix számítás: Minden lépésben ki kell számolni a parciális deriváltakat, ami programozásilag bonyolultabb és számításigényesebb, mint az alap szűrő. Érdekesség, hogy amikor egy önvezető autóban a Lidar és a Radar adatai túl messze kerülnek egymástól (pl. köd miatt a Lidar hibázik), az EKF képes automatikusan a megbízható szenzor felé súlyozni.
 
Mai példa: a leggyakrabban használt és legpontosabb módszer az akkutöltöttség ellenőrzésnél a Dual Extended Kalman Filter (DEKF), amely egyszerre követi a töltöttséget és az akkumulátor elöregedését.
1. Az állapotbecslésnél négy alapvető paramétert becsülnek:
SoC (State of Charge) a töltöttségi szint (mint egy üzemanyagszint-mérő).
SoH (State of Health), állapot; a kapacitásvesztést és a belső ellenállás növekedését mutatja az új állapothoz viszonyítva.
SoP (State of Power) a pillanatnyi teljesítmény, mennyi áramot tud leadni/felvenni az akkumulátor károsodás nélkül.
SoE (State of Energy) a hátralévő energia, ami figyelembe veszi a feszültségcsökkenést is.
2. A Dual Kalman Filter (DEKF) két szűrőt futtat párhuzamosan:
1. Állapotszűrő (SoC becslés) szűrő felel a gyorsan változó értékekért. Bemenete az áram és a feszültség. Egy egyenértékű áramköri modell (pl. RC-kör), amely leírja, hogyan változik a feszültség a töltöttség függvényében. Kimenete a pontos SoC érték, kiküszöbölve a szenzorok zaját.
2. Paraméterszűrő (SoH becslés), amely a lassan változó belső jellemzőket figyeli. Feladata folyamatosan frissíteni  a modell paramétereit (pl. belső ellenállás, aktuális kapacitás). Kimenete az akkumulátor aktuális SoH értéke. Az algoritmus csökkenti a becslési hibát az akkumulátor élettartama során.
3. A hagyományos módszereknek (pl. áramintegrálás vagy feszültségmérés) komoly korlátai vannak, az árammérő apró hibái idővel összeadódnak, így a becslés "elmászik". A feszültség alapú becslés csak nyugalmi állapotban pontos, terhelés alatt a belső ellenállás miatt csalóka.
Az EKF amikor az árammérés pontatlan, a feszültségmodell alapján korrigál, miközben az öregedést is figyelembe veszi. A duális EKF algoritmus stabilitása: ha az inicializáláskor túl nagy a hiba, a két szűrő "szétcsúszhat", amit  stabilitás-garantált (SG-D-EKF) algoritmusokkal próbálnak kiküszöbölni.
 
* Lehetnek olyan pataméterek, melyek duális Kálmán-szűrő számára csak bizonyos gerjesztések mellett válnak "láthatóvá". Kiterjesztett (EKF) Kálmán szűrő esetén az állapotvektort és a paramétervektort egyidejűleg becsüljük. Duális Kálmán-szűrő (dual EKF) esetén a két szűrő fut párhuzamosan: az egyik az állapotvektort, a másik a paramétereket becsüli. Az állapotszűrő a legutóbbi paraméterbecslést használja a jósláshoz. A paraméterszűrő a becsült állapotot tekinti bemenetnek a paraméterek finomításához. Előnye a kisebb számítási igény (kb. 20-25%-kal hatékonyabb), és a paraméterbecslés leállítható, ha a paraméterek beálltak. A KF -vel kapcsolatban tárgyalják a rendszerek megfigyelhetőség-ét, ami alkalmas olyan modellfokszám megválasztására, (http://sysbook.sztaki.hu/sysbook6.php?page=89&left=intro&right=edu), amire a gerjesztések kellően változékonyak.
Pl. önvezető járművek, drónok irányítására használják az DKF-et (https://ieeexplore.ieee.org/document/1556366).
A paraméterek gyakran lassan konvergálnak, ekkor célszerű 0.95–0.99- es felejtési faktort használni a paraméter-kovariancia mátrix frissítésekor, ami frissen tartja a szűrőt és megakadályozza a túl korai "lemerülést". Ha a hiba nem csökken, növelni kell a paraméter-kovariancia mátrixát. Megkülönböztetett időlépték is hasznos, mert az állapot gyorsan változik, a paraméterek pedig lassan vagy konstans módon, ezért nem fut  a paraméterszűrő minden időlépésben. Ha csak minden 5. vagy 10. ciklusban frissít, jelentős számítási kapacitás szabadítható fel anélkül, hogy a pontosság érdemben romlana.
A Kálmán-szűrő sebessége, konvergenciája erősen függ a kezdőértékektől. Indítás előtt egy rövid adatsoron érdemes egy gyors legkisebb négyzetek alapú becslést csinálni, hogy ne a nulláról vagy vakon induljon a becslés, hanem egy fizikailag reális tartományból. A zajparaméterek, a Q és az R optimalizálása: Kezdetben nagyobb Q-t érdemes választani, gyorsító hatású.
A duális felépítés legnagyobb előnye, hogy a paraméterszűrő lekapcsolható. Ha a paraméterek kovarianciája egy küszöbérték alá esik, leállítható.
paraméter-kovariancia mátrix felejtési faktor miatt a szűrő a régebbi adatokat kisebb súllyal veszi figyelembe, így a legfrissebb mérések nagyobb hatást gyakorolnak a paraméterbecslésre. A jóslási fázisban a mátrixot elosztjuk lambdával, értéke tipikusan 0.95-0.999. Ha a mátrix értékei megnövekednek, akkor a Kálmán-erősítés. K nagyobb lesz. Hosszabb futás után a Kálmán-szűrő hajlamos mátrix elemei nullához közelítenek, és figyelmen kívül hagyja az új adatokat, amit a lambda megakadályoz. Ha a paraméter hirtelen megváltozik, a szűrő sokkal agresszívabban reagál a hibára. Zajérzékenység: amikor túl kicsi a lambda, 0.9 alatti, a becslés ugrándozik a mérési zaj miatt. Túl alacsony értéknél a szűrő "divergál", azaz elveszítheti a kapcsolatot a valósággal. Jó kezdő érték 0.99.  Ha a becslés lassú, csökkentendő 0.005-ös lépközökkel, amíg el nem éri a kívánt sebességet.