Recherche:Techniques de régressions au plus près/Définition de la régression au plus près

De testwiki
Aller à la navigation Aller à la recherche

__EXPECTED_UNCONNECTED_PAGE__ Modèle:Chapitre


Définition de la régression au plus près

On appellera régression au plus près toute forme suivante correspondant aux conditions suivantes :
{yreg(xr)=K0+K1Freg1(xr)+K2Freg2(xr)+K3F3(xr)++KiFregi(xr)++KnFregn(xr)y(xr)yreg(xr)=ϵ(xr)i,yreg(xri)=Ki+Kreg1Freg1(xri)+K2Freg2(xri)+K3Freg3(xri)++KiFregi1(xri)++KnFregn(xri)i,yi(xri)yreg(xri)=ϵ(xri)ϵ(xr)=Σϵ(xri)/nul/ou/non K0=ΣKiSDMC=Σϵ2(xri)/minimum
AVEC
Échec de l’analyse (fonction inconnue « \begin{cases} »): {\displaystyle \begin{cases} i>=1 \\ \exists!un/i/au/moins/tel/que : \epsilon(xr_1) \neq 0 \\ \epsilon(xr_1)<= (/ou/non)/à/limite/l_i/initiale/maximale \\ F_{regi} / de/mêmes/natures/ou/non \\ SDMC <= (/ou/non)/à/limite/l/initiale/maximale \end{cases} }
On appellera régression idéale LA régression de type ci-dessus telle qu'en plus SDE=Σϵ(xri)=0, E comme écart, S comme somme, D comme des, C comme carrés.
On appellera régressions monofonctionnelles les régression telles que tous les Fi soient de même nature
Exemple 1: yreg1(xr)=K11sin(w11xr)+K21sin(w21xr)+K31sin(w31xr)
Exemple 2: yreg2(xr)=K1+K12(1cos(w12xr))+K2+K22(1cos(w22xr))+K32sin(w32xr)+K42sin(w42xr)
On appellera ordre global le nombre de fonctions de même nature ou non ; ordre partiel le nombre de fonctions entrant dans la régression de même nature ( dans l'exemple : ordre 3 global et 3 partiel en sinus )
Pour exprimer que la Somme Des Moindres Carrés SDMC est minimale, on écrira que toutes ses dérivées partielles par rapport aux écarts ϵ(xri)=yi(xri)yreg(xri) sont nulles i.
La forme générale peut aussi se mettre sous la forme plus facile à manipuler et faisant appel à des calculs plus simples, moins nombreux et plus logiques :
{yreg(xr)=y0+k1IF1I(xr)+k2IF2I(xr)++kiIFiI(xr)++kmIFmI(xr)+k0+k1P(F1P(0)F1P(xr))+k2P(F2P(0)F2P(xr))++kjP(FjP(0)FjP(xr))++knP(FnP(0)FnP(xr))y0=y(0),FI(xr)/Impaire/FI(0)=0,FP(xr)/Pairey(xr)yreg(xr)=ϵ(xr)i,yreg(xri)=y(xr)yreg(xr)=y0+k1IF1I(xri)+k2IF2I(xri)++kiIFiI(xri)++kmIFmI(xri)+ki+k1P(F1P(0)F1P(xri))+k2P(F2P(0)F2P(xri))++kjP(F1P(0)1FjP(xri))++knP(F1P(0)FnP(xri))+epsilon(xr)i,yi(xri)yreg(xri)=ϵ(xri)ϵ(xr)=Σϵ(xri)/nul/ou/non k0=ΣkiSDMC=Σϵ2(xri)/minimum

Deuxième étape de l'approche

Rechercher la meilleure fonction régressive F1 telle que :
Échec de l’analyse (fonction inconnue « \begin{cases} »): {\displaystyle \begin{cases} y_{reg}(xr) = k + k_1F_1(xr)+ \epsilon_1{(xr)} \\ SDMC_1 = \Sigma \epsilon_1^2(xr_{1i}) /minimum/dans/la/liste/des/F1/testées \\ SDE = \Sigma \epsilon(xr_{i}) = 0 /éventuellement/et/si/possible \end{cases} }
Réitérer l'opération sur ϵ(xr1)
Échec de l’analyse (fonction inconnue « \begin{cases} »): {\displaystyle \begin{cases} \epsilon_1{(xr)} = y_{reg1}(xr) = k_2F_2(xr)+ \epsilon_2{(xr)} \\ SDMC_2 = \Sigma \epsilon_2^2(xr_{2i}) /minimum/dans/la/liste/des/F2/testées \\ SDE = \Sigma \epsilon(xr_{i}) = 0 /éventuellement/et/si/possible \end{cases} }
Arrêter quand on le désire, par exemple après avoir atteint une limite pour SDMC.


Modèle:Bas de page