Vérifié contenu

Déterminant

Sujets connexes: Mathématiques

Saviez-vous ...

Arrangeant une sélection Wikipedia pour les écoles dans le monde en développement sans internet a été une initiative de SOS Enfants. parrainage SOS enfant est cool!

En algèbre , un facteur déterminant est une fonction dépendant de n qui associe un scalaire, det (A), à tous les n × n matrice carrée A. Le sens géométrique fondamentale d'un déterminant est que la facteur d'échelle pour le volume lorsque A est considéré comme un transformation linéaire. Déterminants sont importantes à la fois dans le calcul , où ils entrent dans le règle de substitution pour plusieurs variables, et algèbre multilinéaire.

Pour un entier positif n fixe, il ya une fonction déterminant unique pour l'matrices n × n sur tout anneau commutatif R. En particulier, cette fonction existe lorsque R est le domaine de réels ou des nombres complexes .

Notation barre verticale

Le déterminant de la matrice A est également parfois désignée par | A |. Cette notation peut être ambiguë, car il est également utilisé pour certains les normes de la matrice et de la valeur absolue . Cependant, souvent la norme de la matrice sera notée avec une double barre verticale (par exemple, ‖ ‖ A) et peut porter un indice ainsi. Ainsi, la notation de barre verticale pour déterminant est fréquemment utilisé (par exemple, La règle de Cramer et mineurs). Par exemple, pour la matrice

A = \ begin {} bmatrix a & b et c \\ d & e et f \\ g & h & i \ end {bmatrix} \,

le déterminant \ Det (A) pourrait être indiqué par | A | ou de façon plus explicite que

| A |. = \ Begin {} vmatrix a & b et c \\ d & e et f \\ g & h & i \ end {de vmatrix} \,

Ce est, les crochets autour des matrices sont remplacés par des barres verticales allongées.

Déterminants de matrices 2-en-2

L'aire du parallélogramme est le déterminant de la matrice formée par les vecteurs représentant les côtés du parallélogramme.

La matrice 2 × 2

A = \ begin {} bmatrix a & b \\ c & d \ end {bmatrix} \,

a déterminant

\ Det (A) = ad-bc. \,

L'interprétation lorsque la matrice possède des entrées de nombre réel est que cela donne de la zone orientée du parallélogramme dont les sommets sont (0,0), (a, b), (a + c, b + d), et (c, d). La zone orientée est le même que l'habituel zone , sauf que ce est négatif lorsque les sommets sont répertoriés dans l'ordre dans le sens horaire.

L'hypothèse est que la transformation linéaire est appliquée à la ligne des vecteurs comme le produit matrice-vecteur x ^ T A Où x est un vecteur de colonne. Le parallélogramme sur la figure est obtenue en multipliant les vecteurs lignes \ Begin {} bmatrix 0 & 1 \ end {} bmatrix, \ begin {} bmatrix 1 & 0 \ end {} bmatrix et \ Begin {} bmatrix 1 & 1 \ end {} bmatrix , Définissant les sommets du carré unité. Avec le produit matrice-vecteur plus fréquents Hache parallélogramme a sommets au \ Begin {} bmatrix 0 0 \\ \ end {} bmatrix, \ begin {} bmatrix un \\ c \ end {} bmatrix, \ begin {} bmatrix a + b \\ c + d \ end {} bmatrix et \ Begin {} b bmatrix \\ d \ end {} bmatrix (Notez que Ax = (x ^ T ^ T A) ^ T ).

Une formule pour les grandes matrices sera donnée ci-dessous.

Déterminants de matrices 3-par-3

Le volume de cette Parallélépipède est la valeur absolue du déterminant de la matrice formé par les rangées R1, R2, et R3.

La matrice 3 × 3:

A = \ begin {} bmatrix a & b et c \\ d & e et f \\ g & h & i \ end {} bmatrix.

En utilisant le l'expansion de cofacteur sur la première ligne de la matrice, on obtient:

\ Begin {align} \ det (A) & = a \ begin {vmatrix} e et f \\ h & i \ end {vmatrix} -b \ begin {vmatrix} d & f \\ g & i \ end {vmatrix} + c \ begin {vmatrix} d & e \\ g & h \ end {} \\ & vmatrix = aei-afh-bdi + bfg + CDH-ceg \\ & = (AEI + bfg + CDH) - (+ gec hfa + BID), \ end {align}
Le déterminant d'une matrice de 3x3 peut être calculée par ses diagonales.

qui peut être dans les mémoires comme la somme des produits des trois diagonale nord-ouest des lignes sud-est d'éléments de la matrice, moins la somme des produits des trois diagonale sud-ouest vers les lignes nord-est d'éléments lorsque les exemplaires de la première deux colonnes de la matrice sont écrits à côté de lui comme ci-dessous:

\ Begin {matrix} \ color {blue} a & color {blue} b & \ color {blue} c & de a & b \\ d & \ color {blue} E & \ color {blue} f & \ couleur {\ blue} d & e g & h \\ & \ color {blue} i & \ color {blue} g & \ color {blue} h \ end {matrix} \ quad - \ quad \ begin {matrix} a & b & \ color {red} c & \ color {red} a & \ color {red} b \\ d & \ color {red} E & \ color {red} f & \ color {red} d & e \\ \ color {red} g & \ color {red} h & \ color {red} i & g & h \ end {matrix}

Notez que cette mnémonique ne sont pas reportées dans les dimensions supérieures.

Applications

Déterminants sont utilisés pour caractériser matrices inversibles (ce est à dire, exactement ces matrices avec les déterminants non-zéro), et de décrire explicitement la solution à un système d' équations linéaires avec La règle de Cramer. Ils peuvent être utilisés pour trouver les valeurs propres de la matrice Un à travers le polynôme caractéristique

p (x) = \ det (XI - A) \,

où I est la matrice de même dimension que A d'identité.

On pense souvent que le déterminant l'attribution d'un numéro à chaque séquence de n vecteurs de \ Bbb {R} ^ n , En utilisant la matrice carrée dont les colonnes sont les vecteurs donnés. Grâce à cette compréhension, le signe du déterminant d'une base peut être utilisée pour définir la notion de orientation en espaces euclidiens . Le déterminant d'un ensemble de vecteurs est positif si les vecteurs forment un droitier système de coordonnées, et négative si-Gaucher.

Les déterminants sont utilisées pour calculer les volumes de calcul vectoriel : la valeur absolue du déterminant de vecteurs réels est égal au volume de la parallélépipède engendré par ces vecteurs. En conséquence, si le linéaire f: \ Bbb {R} ^ n \ rightarrow \ Bbb {R} ^ n est représenté par la matrice Un Et S est tout mesurable sous-ensemble de \ Bbb {R} ^ n , Alors le volume de f (S) est donnée par \ Left | \ det (A) \ right | \ times \ operatorname {} le volume (S) . Plus généralement, si la carte linéaire f: \ Bbb {R} ^ n \ rightarrow \ Bbb {R} ^ m est représenté par la m -by- n matrice Un Et S est tout sous-ensemble mesurable de \ Bbb {R} ^ {n} , Puis le n - volume tridimensionnel de f (S) est donnée par \ Sqrt {\ det (A ^ \ mathrm {T} A)} \ times \ operatorname {} le volume (S) . En calculant le volume du tétraèdre délimitée par quatre points, ils peuvent être utilisés pour identifier lignes obliques.

Le volume de ne importe quel tétraèdre , étant donné ses sommets a, b, c, et d, est (1/6) · | det (A - B, B - C, C - D) |, ou toute autre combinaison de paires de sommets qui forment un tout simplement connecté graphique.

Définition générale et de calcul

La définition du déterminant vient du théorème suivant.

Théorème. Soit M n (K) l'ensemble de tous n \ n fois matrices sur le corps K. Il existe exactement une fonction

F: M_N (K) \ longrightarrow K

avec les deux propriétés:

  • Fa est alternatif multilinéaires en ce qui concerne les colonnes;
  • F (I) = 1 .

On peut alors définir le déterminant que la fonction unique avec les propriétés ci-dessus.

Pour prouver le théorème ci-dessus, on obtient aussi le Leibniz formule:

\ Det (A) = \ sum _ {\ sigma \ dans S_n} \ SGN (\ sigma) \ prod_ {i = 1} ^ n A_ {i, \ sigma (i)}.

Voici la somme est calculée sur toutes les permutations \ Sigma des nombres {1,2, ..., n} et \ SGN (\ sigma) désigne le signature de la permutation \ Sigma : 1 si \ Sigma est un même permutation et -1 si elle est impair.

Cette formule contient n! ( factorielle ) opérandes, et il est donc impossible de l'utiliser pour calculer les déterminants de grande n .

Pour les petites matrices, on obtient les formules suivantes:

  • si Un est une matrice 1 par 1, puis \ Det (A) = {1,1} A_. \,
  • si Un est une matrice deux par deux, puis \ Det (A) = {1,1} A_ A_ {2,2} - {2,1} A_ A_ {1,2}. \,
  • pour une matrice 3 par 3 Un La formule est plus complexe:
\ Begin {matrix} \ det (A) = & & A_ {1,1} {2,2} A_ A_ {3,3} {1,3 + A_} {2,1} A_ A_ {3,2} + A_ {1,2} {2,3} A_ A_ {3,1} \\ & & - A_ {1,3} {2,2} A_ A_ {3,1} - {1,1} A_ A_ {2,3} {3,2} A_ - A_ {1,2} {2,1} A_ A_ {3,3}. \ End {matrix} \,

qui prend la forme du régime de la Sarrus .


En général, les déterminants peuvent être calculées en utilisant l'élimination de Gauss utilisant les règles suivantes:

  • Si Un est un matrice triangulaire, à savoir A_ {i, j} = 0 \, chaque fois que i> j ou, alternativement, chaque fois i <j , Puis \ Det (A) = {1,1} A_ A_ {2,2} \ cdots A_ {n, n} \, (Le produit des éléments diagonaux de Un ).
  • Si B résultats de Un en échangeant deux rangées ou des colonnes, puis \ Det (B) = - \ det (A). \,
  • Si B résultats de Un en multipliant une ligne ou une colonne avec le nombre c , Puis \ Det (B) = c \, \ det (A). \,
  • Si B résultats de Un en ajoutant un multiple d'une colonne à une autre, ou à un multiple d'une colonne à une autre colonne, puis \ Det (B) = \ det (A). \,

Explicitement, commencer avec une certaine matrice, utiliser les trois dernières règles pour le convertir en une matrice triangulaire, puis utiliser la première règle pour calculer son déterminant.

Il est également possible d'étendre un déterminant le long d'une rangée ou d'une colonne à l'aide La formule de Laplace, qui est efficace pour relativement petites matrices. Pour ce faire long d'une rangée Je , Par exemple, nous écrivons

\ Det (A) = \ sum_ {j = 1} ^ n A_ {i, j} C_ {i, j} = \ sum_ {j = 1} ^ n A_ {i, j} (-1) ^ {i + j} M_ {i, j}

où le C_ {i, j} représenter la matrice des cofacteurs, à savoir C_ {i, j} est (-1) ^ {I + j} la fois mineur M_ {i, j} , Qui est le déterminant de la matrice qui en résulte Un en enlevant le Je -ième rangée et de la j -ième colonne.

Exemple

Supposons que nous voulons calculer le déterminant de

A = \ begin {} bmatrix -2 et 2 et -3 -1 \\ & 1 & 2 & 3 \\ 0 et -1 \ end {} bmatrix.

Nous pouvons aller de l'avant et d'utiliser la formule de Leibniz directement:

\ Det (A) \,= \,(-2 \ Cdot 1 \ cdot -1) + (-3 \ cdot -1 \ cdot 0) + (2 \ cdot 3 \ cdot 2)
- (-3 \ Cdot 1 \ cdot 2) - (-2 \ cdot 3 \ cdot 0) - (2 \ cdot -1 \ cdot -1)
= \,2 + 0 + 12 - (-6) - 0-2 = 18. \,

Alternativement, nous pouvons utiliser La formule de Laplace pour élargir le déterminant le long d'une ligne ou une colonne. Il est préférable de choisir une ligne ou une colonne avec beaucoup de zéros, donc nous allons étendre le long de la deuxième colonne:

\ Det (A) \,= \,(-1) ^ {1 + 2} \ cdot 2 \ cdot \ det \ begin {} bmatrix -1 et 3 \\ & 2 -1 \ end {} bmatrix + (-1) ^ {2 + 2} \ cdot 1 \ cdot \ det \ begin {} bmatrix -2 et -3 \\ & 2 -1 \ end {} bmatrix
= \,(-2) \ Cdot ((- 1) \ cdot (-1) -2 \ cdot3) 1 \ cdot ((- 2) \ cdot (-1) -2 \ cdot (-3))
= \,(-2) (- 5) 8 = 18. \,

Une troisième voie (et la méthode de choix pour les grandes matrices) impliqueraient l'algorithme de Gauss. Quand vous faites des calculs à la main, on peut souvent réduire considérablement les choses en ajoutant intelligemment multiples de colonnes ou lignes à d'autres colonnes ou lignes; cela ne change pas la valeur du déterminant, mais peut créer des entrées de zéro, ce qui simplifie les calculs ultérieurs. Dans cet exemple, l'ajout de la deuxième colonne de la première est particulièrement utile:

\ Begin {} 0 bmatrix & 2 & -3 \\ 0 & 1 & 2 & 3 \\ 0 et -1 \ end {} bmatrix

et ce déterminant peut être rapidement étendu le long de la première colonne:

\ Det (A) \,= \,(-1) ^ {3 + 1} \ cdot 2 \ cdot \ det \ begin {} bmatrix 2 et -3 \\ 1 & 3 \ end {} bmatrix
= \,2 \ cdot (2 \ cdot3-1 \ cdot (-3)) = 2 \ cdot 9 = 18. \,

Propriétés

Le facteur multiplicatif est une carte en ce sens que

\ Det (AB) = \ det (A) \ det (B) \, pour tout n -by- n matrices Un et B .

Ce est généralisée par la Formule de Cauchy-Binet aux produits de matrices non-carrés.

Il est facile de voir que \ Det (rI_n) = r ^ n \, et ainsi

\ Det (rA) = \ det (rI_n \ cdot A) = r ^ n \ det (A) \, pour tous n -by- n matrices Un et tout scalaires r .

Une matrice sur un anneau commutatif R est inversible si et seulement si son déterminant est une unité dans R. En particulier, si A est une matrice au cours d'une domaine tel que les réels ou des nombres complexes , alors A est inversible si et seulement si det (A) ne est pas nul. Dans ce cas, nous avons

\ Det (A ^ {- 1}) = \ det (A) ^ {- 1}. \,

Exprimé différemment: les vecteurs v 1, ..., v n dans R n former un base si et seulement si det (v 1, ..., c n) est non nul.

Une matrice et son transposer le même déterminant:

\ Det (A ^ \ mathrm {T}) = \ det (A). \,

Les déterminants d'une matrice complexe et de son conjugué transposer sont Conjugué:

\ Det (A ^ *) = \ det (A) ^ *. \,

(Notez le transposé conjugué est identique à la transposée d'une matrice réelle)

Le déterminant de la matrice Un présente les propriétés suivantes sous des transformations de matrice élémentaire Un :

  1. Échanger des lignes ou des colonnes multiplie le déterminant par -1.
  2. Multipliant une rangée ou colonne par m multiplie le facteur déterminant par m .
  3. Ajout d'un multiple d'une ligne ou une colonne à l'autre laisse le déterminant inchangé.

Cela découle de la propriété multiplicatif et les déterminants de la élémentaires matrices de transformation de la matrice.

Si Un et B sont similaire, à savoir, se il existe une matrice inversible X tel que Un = X ^ {- 1} B X , Puis par la propriété multiplicatif,

\ Det (A) = \ det (B). \,

Cela signifie que le déterminant est un similitude invariant. Pour cette raison, le déterminant de certains transformation linéaire T: VV pour certains de dimension finie espace vectoriel V est indépendant de la base de V. La relation est à sens unique, toutefois: il existe des matrices qui ont la même déterminant mais ne sont pas similaires.

Si Un est un carré n -by- n matrice avec réels ou complexes entrées et si λ 1, ..., λ n sont les (complexes) valeurs propres de Un énumérés selon leurs multiplicités algébriques, puis

\ Det (A) = \ lambda_ {1} \ lambda_ {2} \ cdots \ lambda_ {n}. \,

Cela découle du fait que Un est toujours semblable à son Réduction de Jordan, une matrice triangulaire supérieure avec les valeurs propres sur la diagonale principale.

Identités utiles

Pour m -by- n matrice A et m -by- n matrice B, elle détient

\ Det (I_N + A ^ TB) = \ det (I_M + AB ^ T) = \ det (I_N + B ^ TA) = \ det (I_M + BA ^ T).

Une conséquence de ces égalités pour le cas de (colonne) vecteurs x et y

\ Det (I + y ^ x T) = 1 + y ^ T x.

Et une version généralisée de cette identité

\ Det (A + y ^ x T) = \ det (A) \ (1 + y ^ T A ^ {- 1} x).

Les preuves se trouvent dans .


matrices de bloc

Supposons, A B C D sont n fois, n \ fois M, M \ times n, m \ times m n \ matrices, respectivement. Puis

\ Det \ begin {pmatrix} A & 0 \\ C & D \ end {pmatrix} = \ det \ begin {pmatrix} A & B \\ 0 & D \ end {pmatrix} = \ det (A) \ det (D).

Cela peut être (assez) facilement visibles de l'exemple Formule de Leibniz. Employant l'identité suivante

\ Begin {pmatrix} A & B \\ C & D \ end {pmatrix} = \ begin {pmatrix} A & 0 \\ C & 1 \ end {pmatrix} \ begin {pmatrix} 1 & A ^ {- 1} B \\ 0 & D - CA ^ {- 1} B \ end {} pmatrix

mène à

\ Det \ begin {} pmatrix A & B \\ C & D \ end {} pmatrix = \ det (A) \ det (D - CA ^ {- 1} B).

Identité similaire avec \ Det (D) sur pondérée peut être dérivé analogue. Ces identités ont été prises à partir de .

Si d_ {ij} sont des matrices diagonales, puis

\ Det \ begin {} pmatrix d_ {11} et \ ldots & d_ {} 1c \\ \ vdots & & \ vdots \\ d_ {} & r1 \ ldots & d_ {rc} \ end {} pmatrix = \ det \ begin {pmatrix} \ det (d_ {11}) & \ & ldots \ det (d_ {} 1c) \\ \ vdots & & \ vdots \\ \ det (d_ {r1}) & \ & ldots \ det (d_ {} rc) \ end {} pmatrix

Ce est un cas particulier du théorème publié dans .

Relation avec trace

A partir de cette connexion entre le déterminant et les valeurs propres, on peut dériver une connexion entre le la fonction de trace, le fonction exponentielle, et le déterminant:

\ Det (\ exp (A)) = \ exp (\ operatorname {} tr (A)).

Effectuer la substitution \ Scriptstyle A \, \ mapsto \, \ log A dans les rendements de l'équation ci-dessus

\ Det (A) = \ exp (\ {operatorname tr} (\ log A)), \

qui est étroitement liée à la Déterminant de Fredholm. De même,

\ Operatorname {} tr (A) = \ log (\ det (\ exp A)). \

Pour n -by- n matrices, il ya les relations:

Cas n = 1: \ Gauche. \ Det (A) = \ operatorname {} tr (A) \ right.
Cas n = 2: \ Left. \ Det (A) = \ frac {1} {2} \ left (\ operatorname {} tr (A) ^ 2 - \ operatorname {} tr (A ^ 2) \ right) \ right.
Cas n = 3: \ Left. \ Det (A) = \ frac {1} {6} \ left (\ operatorname {} tr (A) ^ 3-3 \ operatorname {} tr (A) \ operatorname {} tr (A ^ 2) + 2 \ operatorname {} tr (A ^ 3) \ right) \ right.
Cas n = 4: \ Left. \ Det (A) = \ frac {1} {24} \ left (\ operatorname {} tr (A) ^ 4-6 \ operatorname {} tr (A) ^ 2 \ operatorname {} tr (A ^ 2) + 3 \ operatorname {} tr (A ^ 2) ^ 2 + 8 \ operatorname {} tr (A) \ operatorname {} tr (A ^ 3) - 6 \ operatorname {} tr (A ^ 4) \ right) \ right .
\ ldots

qui sont étroitement liés à Identités de Newton.

Dérivé

Le déterminant de véritables matrices carrées est une fonction polynomiale de \ Bbb {R} ^ {n \ fois n} à \ Bbb {R} Et en tant que telle est partout différentiables . Son dérivé peut être exprimé en utilisant La formule de Jacobi:

d \, \ det (A) = \ {operatorname tr} (\ {adj operatorname} (A) \, dA)

adj où (A) désigne le adjugate d'A. En particulier, si A est inversible, nous avons

d \, \ det (A) = \ det (A) \, \ operatorname {} tr (A ^ {- 1} \, dA).

Sous forme de composants, ce sont

\ Frac {\ partial \ det (A)} {\ A_ partielle {ij}} = \ {adj operatorname} (A) _ {ji} = \ det (A) (A ^ {- 1}) _ {} ji .

Quand \ Epsilon est un petit nombre de ceux-ci sont équivalentes

\ Det (A + \ epsilon X) - \ det (A) = \ {operatorname tr} (\ {adj operatorname} (A) X) \ epsilon + {O} (\ epsilon ^ 2) = \ det (A) \, \ operatorname {} tr (A ^ {- 1} X) \ epsilon + {O} (\ epsilon ^ 2).

Le cas particulier où Un est égale à la matrice identité Je rendements

\ Det (I + \ epsilon X) = 1 + \ {operatorname tr} (X) \ epsilon + O (\ epsilon ^ 2).


Une propriété utile dans le cas de matrices 3 x 3 est le suivant:

A peut être écrit comme A = \ begin {} bmatrix \ bar {a} et \ bar {b} et \ bar {c} \ end {} bmatrix où \ Bar {a} , \ Bar {b} , \ Bar {c} sont des vecteurs, le gradient sur l'une des trois vecteurs peut être écrit comme le produit croisé de deux autres:

\ Nabla_ \ bar {a} \ det (A) = \ bar {b} \ times \ bar {c}
\ Nabla_ \ bar {b} \ det (A) = \ bar {c} \ times \ bar {a}
\ Nabla_ \ bar {c} \ det (A) = \ bar {a} \ times \ bar {b}

Résumé formulation

Un n × n matrice carrée A peut être considéré comme la représentation d'une coordonnée transformation linéaire d'un n de dimension espace vectoriel V. Compte tenu de toute transformation linéaire

A: V \ à V \,

nous pouvons définir le déterminant de A comme déterminant de toute représentation matricielle de A. C'est un notion bien définie (ce est à dire indépendant d'un choix de base) depuis le déterminant est invariant sous les transformations de similarité.

Comme on pouvait s'y attendre, il est possible de définir le déterminant d'une transformation linéaire de manière à coordonnées libre. Si V est un espace vectoriel de dimension n, alors on peut construire son sommet puissance extérieure Λ n V. Ce est un espace vectoriel unidimensionnel dont les éléments sont écrits

v_1 \ wedge v_2 \ wedge \ cdots \ wedge V_n

où chaque v i est un vecteur V et à la Produit en forme de coin est antisymétrique ∧ (c.-à-∧ u u = 0). Toute transformation linéaire A: VV induit une transformation linéaire de Λ n V comme suit:

v_1 \ wedge v_2 \ wedge \ cdots \ wedge V_n \ mapsto Av_1 \ wedge Av_2 \ wedge \ cdots \ wedge Av_n.

Depuis Λ n V est unidimensionnel cette opération est simplement multiplicative par un scalaire qui dépend d'un. Ce est ce qu'on appelle le scalaire déterminant de A. Autrement dit, on définit det (A) par l'équation

Av_1 \ wedge Av_2 \ wedge \ cdots \ wedge Av_n = (\ det A) \, v_1 \ wedge v_2 \ wedge \ cdots \ wedge V_n.

On peut vérifier que cette définition est d'accord avec la définition de coordonnées dépendante donnée ci-dessus.

Mise en Å“uvre algorithmique

  • Procédé naïf de mettre en oeuvre un algorithme pour calculer le déterminant est d'utiliser la formule de Laplace pour l'expansion par cofacteurs. Cette approche est extrêmement inefficace en général, cependant, comme il est d'ordre n! (N factorielle ) pour une matrice n × n M.
  • Une amélioration de l'ordre n 3 peut être réalisé en utilisant Décomposition LU écrire M = LU pour les matrices L et U triangulaire. Maintenant, det M = det LU = det L det U, et comme L et U sont triangulaires le déterminant de chacun est simplement le produit de ses éléments diagonaux. En variante, on peut effectuer la Décomposition de Cholesky, si possible, ou la QR décomposition et trouver le facteur déterminant d'une manière similaire.
  • Depuis la définition du déterminant n'a pas besoin de divisions, une question se pose: faire des algorithmes rapides existantes qui ne ont pas besoin divisions? Ceci est particulièrement intéressant pour les matrices sur des anneaux. En effet avec des algorithmes d'exécution proportionnel à n 4 existent. Une algorithme de Mahajan et Vinay, et Berkowitz est basée sur promenades fermées commandés (court clow). Il calcule plus de produits que la définition déterminant exige, mais certains de ces produits annuler et la somme de ces produits peut être calculée de façon plus efficace. L'algorithme final ressemble beaucoup à un produit itérative des matrices triangulaires.
  • Qu'est-ce ne est pas souvent discuté est la soi-disant «complexité de bits" du problème, ce est à dire le nombre de bits de précision dont vous avez besoin de stocker des valeurs intermédiaires. Par exemple, en utilisant l'élimination de Gauss , vous pouvez réduire la matrice à la forme triangulaire supérieure, puis multipliez la diagonale principale pour obtenir le déterminant (ce est essentiellement un cas particulier de la décomposition de LU comme ci-dessus), mais un calcul rapide montre que le bit taille de valeurs intermédiaires pourrait devenir exponentielle. On pourrait parler quand il est approprié d'arrondir les valeurs intermédiaires, mais une façon élégante de calculer le déterminant utilise le Bareiss algorithme, une méthode exacte répartition basée sur L'identité de Sylvester pour donner un moment de l'exécution de l'ordre n 3 et la complexité de bits à peu près la taille de bit des entrées originales dans les temps de la matrice n.

Histoire

Historiquement, les déterminants ont été pris en considération avant matrices. À l'origine, un facteur déterminant a été définie comme une propriété d'un système d'équations linéaires . Le déterminant «détermine», si le système a une solution unique (ce qui se produit avec précision si le déterminant est non nul). En ce sens, déterminants ont été utilisés d'abord dans le 3ème siècle avant JC chinoise mathématiques manuels Les Neuf Chapitres sur l'art mathématique. En Europe, deux par deux déterminants ont été examinées par Cardano à la fin de la 16ème siècle et les plus grands par Leibniz et, au Japon, par Seki environ 100 ans plus tard. Cramer (1750) ajouté à la théorie, le traitement du sujet par rapport à des ensembles d'équations. La loi récurrente a été annoncée par Bézout (1764).

C'était Vandermonde (1771) qui, le premier déterminants reconnu comme fonctions indépendantes. Laplace (1772) a donné la méthode générale de l'expansion d'un facteur déterminant en termes de sa complémentaire mineurs: Vandermonde avait déjà donné un cas particulier. Immédiatement après, Lagrange (1773) traités déterminants de la deuxième et de troisième ordre. Lagrange a été le premier à appliquer déterminants aux questions la théorie de l'élimination; il a prouvé bien des cas spéciaux d'identités générales.

Gauss (1801) fait la prochaine avance. Comme Lagrange, il a fait beaucoup d'utilisation de déterminants dans la théorie des nombres . Il a présenté les mots déterminants (Laplace avait utilisé résultante), mais pas dans le présent signification, mais plutôt comme appliquée à la un discriminant de quantique. Gauss est également arrivé à la notion de réciprocité (inverse) déterminants, et est venu très près le théorème de multiplication.

La prochaine contributeur est d'une importance Binet (1811, 1812), qui a officiellement déclaré le théorème concernant le produit de deux matrices de m colonnes et n lignes, qui, pour le cas particulier des m = n réduit au théorème de multiplication. Le même jour ( 30 novembre 1812 ) que Binet a présenté son document à l'Académie, Cauchy a également présenté une sur le sujet. (Voir Formule de Cauchy-Binet.) En cela, il a utilisé le mot déterminant dans son sens actuel, résumée et simplifiée ce qui était alors connu sur le sujet, a amélioré la notation, et a donné le théorème de multiplication avec une preuve plus satisfaisante que Binet. Avec lui commence la théorie dans sa généralité.

La prochaine figure importante était Jacobi (à partir de 1827). Il a utilisé tôt le déterminant fonctionnel qui Sylvester appelé plus tard Jacobienne, et dans ses mémoires en Crelle pour 1841, il traite spécialement ce sujet, ainsi que la classe de fonctions qui Sylvester a appelés alternants alternatif. Vers le temps de dernières mémoires de Jacobi, Sylvester (1839) et Cayley a commencé leur travail.

L'étude des formes spéciales de déterminants a été le résultat naturel de l'achèvement de la théorie générale. Déterminants axisymétriques ont été étudiés par Lebesgue, Hesse, et Sylvester; déterminants persymmetric par Sylvester et Hankel; circulants par Catalan, Spottiswoode, Glaisher, et Scott; déterminants et gauches Pfaffians, dans le cadre de la théorie de la transformation orthogonale, par Cayley; continuants par Sylvester; Wronskians (appelée ainsi par Muir) par Christoffel et Frobenius; composés déterminants par Sylvester, Reiss, et Picquet; Jacobiens et Hessois par Sylvester; et déterminants Gauche symétriques par Trudi. Des manuels sur le sujet de Spottiswoode était la première. En Amérique, Hanus (1886), Weld (1893), et Muir / Metzler (1933) publié traités.

Récupéré à partir de " http://en.wikipedia.org/w/index.php?title=Determinant&oldid=198700550 "