The Geometry of the Non-Linear Least Squares Adjustment

Reading time: 4 minute
...

📝 Original Info

  • Title: The Geometry of the Non-Linear Least Squares Adjustment
  • ArXiv ID: 1112.5592
  • Date: 2011-12-26
  • Authors: Abdelmajid Ben Hadj Salem

📝 Abstract

The paper presents the geometry of the non-linear least squares adjustment using the Palzan lemma.

💡 Deep Analysis

📄 Full Content

Dans un article [1] E. Grafarend et B. Schaffrin ont étudié la géométrie de la compensation ou l'ajustement non-linéaire et ont présenté le cas du problème d'intersection plane en utilisant le modèle de Gauss Markov, par les moindres carrés. Le présent papier présente les principes de la géométrie de la compensation non-linéaire par la méthode des moindres carrés en s'appuyant sur le Lemme de Pázman [2].

Le modèle non linéaire de Gauss-Markov est défini par : (1) ζ(X) = Le; e ∈ N (0, Γ) avec :

-L : le vecteur des observations (n × 1) = (L 1 , L 2 , .., L n ) T , -X : le vecteur des inconnues (m × 1) = (X 1 , X 2 , .., X m ) T , e : le vecteur des erreurs (n × 1) = (e 1 , e 2 , .., e n ) T suit la loi normale N (0, Γ) avec E(e) = 0 et Γ = E(ee T ) la matrice de dispersion ou variance, on prendra Γ = σ 2 0 .P -1 . P est la matrice des poids et σ 0 une constante positive.

ζ : est une fonction donnée injective d’un ouvert U ⊂ R m → R n et m < n. On introduit un produit scalaire :

dans l’espace vectoriel R n en prenant la matrice de poids P une matrice diagonale .

Alors la solution par les moindres carrés X sera définie par :

Cette condition est exprimée par les équations de Lagrange-Euler soit :

(5)

En effet, on veut minimiser la fonction :

Comme F est une fonction positive, minimiser F c’est aussi minimiser F 2 , soit J(X) = F 2 (X). En appliquant les équations de Lagrange-Euler, on obtient :

.., X m ) 2 = 0 pour i ∈ {1, 2, …, m} or : ), i, j ∈ {1, 2, …, m} soit définie positive.

Dans cette section, on va clarifier l’interprétation géométrique de façon que la solution de (10) soit localement unique.

Considérons la matrice m × m définie par :

Or :

(13) ds 2 = G α β dX α dX β représente la métrique de la variété Imζ. La matrice G(X) = (G α β ) est appelée en terme statistique la matrice d’information de Fischer.

Introduisons la matrice B définie par : (14)

On donc e = Lζ( X) ∈ K. Ce dernier est un espace vectoriel de dimension nm orthogonal à Imζ(X) au point ζ( X). On a aussi χ"(s) ∈ K.

3.1. Lemme de Pázman. On peut maintenant énoncer le lemme de Pázman (1984, [2]) comme suit :

Lemme de Pázman : Pour tout vecteur d’observation L ∈ R m , et toute solution appropriée X des équations :

les conditions suivantes sont équivalentes :

2)-Pour toute ligne géodésique χ(X(s)) vérifiant :

On a l’inégalité :

A. La condition 1 :

En effet, supposons que la matrice B( X, L) est définie positive c’est-àdire :

Prenons alors :Y = χ ′ (s). On a :

(30) χ ′T (s).B(L, X).χ ′ (s) > 0

Comme B = G( X) -H(L, X), on obtient :

Or pour s :

ds les composantes de χ ′ (s) dans le plan tangent à Imζ au point ζ(X(s)). Comme :

En utilisant (32), le nombre réel χ ′T (s)H(L, X).χ ′ (s) s’écrit : (35)

Par un calcul simple, l’équation (35) devient :

Maintenant, on va s’intéresser au membre droit du produit scalaire de l’équation (36). En différentiant l’équation (32) par rapport à s, on obtient :

Alors on a pour s = s :

Or en utilisant l’équation (10), le premier terme de la deuxième ligne de l’équation précédente est nul :

Or le deuxième membre n’est autre que l’équation (36). En utilisant (34), on obtient :

On suppose que reciproquement, on a pour toute géodésique

Comme :

le remplaçant dans l’équation (42), on obtient :

et en simplifiant par ρ = 0, soit :

Comme :

D’où en dérivant une deuxième fois par rapport à s :

En remplaçant χ"(s) dans (44), on obtient :

Or la première somme est nulle en vertu de l’équation (10). Il reste :

(48)

Comme :

En utilisant l’équation (48), on a :

(52)

ou encore :

Finalement, nous obtenons :

i ∂X j sont continues sur U pour i, j ∈ {1, 2, …, m}.

Reference

This content is AI-processed based on open access ArXiv data.

Start searching

Enter keywords to search articles

↑↓
ESC
⌘K Shortcut