Mathématiques du traitement du signal/Info

De testwiki
Version datée du 23 juillet 2017 à 01:25 par imported>JackBot (Formatage, ajout de div style="text-align: center;")
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

Borne de Cramer-Rao

Enoncé

Soit fθ(x) une densité de proba paramétrée par θ dont le domaine est Θ. Soit θ* un estimateur de θ.

On note:

  • (x,θ)=lnfθ(x) la log vraisemeblance de fθ
  • L(X,θ)=n=1Nlnfθ(xn) la log vraisemblance d'un échantillon X=(xn)1nN
  • et a(θ)=𝐄θ(θ*)=θ+b(θ) qui définie l'espérance a et le biais b de l'estimateur θ*.

On suppose que fθ(x) est presque-partout continuement différentiable en θ ; et que l' information de Fisher :

II(θ)=xf'θ(x)2fθ(x)dμ(x)=𝐄θ((x1,θ))2

existe et est donc continue et positive en θ.

Théorème de Cramer-Rao. Lorsque 𝐄θ(θ*)2 existe et est bornée, alors:

𝐕θ(θ*)(1+b(θ))2nII(θ)

et lorsque cette inégalité est atteinte sur un intervalle en θ, sur lequel la variance 𝐕θ(θ*) est non nulle, alors sur ce même intervalle:

fθ(X)=exp(θ*A(θ)+B(θ))h(X)

La réciproque est vraie.

Interprétation

Cela signifie que la variance d'un estimateur est au mieux en II(θ)1 par point disponible dans l'échantillon.

Pour mieux comprendre ce que cela signifi, calculons par exemple l'information de Fisher associée à une distribution gaussienne.

Information de Fisher d'une gaussienne

Pour cela, une définition mutlivariée (en terme de l'espace des paramètres) de l'information deFicher est nécessaire:

II(θ)=||Iij(θ)||,Iij(θ)=𝐄θ(θi(x1,θ)θj(x1,θ))

En notant φ(x,θ)=2(fθ(x)), on a :

II(θ)=xφT(x,θ)φ(x,θ)dμ(x)

Références