Qu’est-ce qu’un nombre ? Episode 5 : Les tenseurs

Niveau de difficulté    

Update (01/05/2020) : quelques passages reformulés, pas de changement majeur de contenu, mais plus de clarté dans certaines explications.

Update (12/09/2016) : plusieurs sections fortement remaniées !

L’objectif (fou) de cet article est de définir le concept de tenseur, et de tenter de satisfaire à la fois le lecteur curieux souhaitant savoir ce qu’est cet objet sans avoir à lire un manuel de mathématiques rigide, technique ou incompréhensible, l’étudiant ayant déjà rencontré ces objets et en galère sur des points “évidents” sur lesquels le prof est passé trop rapidement, et le lecteur initié qui souhaiterait juste trouver un regard “frais” sur le sujet (c’est-à-dire pas un manuel technique) peut-être pour l’aider à décrire et expliquer ces concepts à sa propre audience.

Cela ne veut pas dire qu’il n’y aura pas de formalisme cependant. Il sera simplement réduit au minimum, tout en essayant de ne pas prendre trop de raccourcis.

Il y aura donc tout au long de l’article des représentations visuelles qui je l’espère bénéficieront aux lecteurs de tous niveaux. A noter qu’il ne suffit pas de sauter immédiatement à ces sections pour comprendre de quoi il en retourne, il faut s’y préparer un minimum en lisant les premières sections. Ne pas oublier que les représentations visuelles sont là pour assister et compléter la compréhension, elles ne doivent jamais en être la base !

Si la lecture vous parait vraiment difficile, répondez au sondage en bas de page qui vous proposera un lien vers une version beaucoup plus simplifiée.
Mise en garde : ceci n’est pas un manuel de calcul tensoriel. Il n’a pas vocation à l’être. Ainsi même si certaines notions seront définies de façons assez détaillées avec des exemples, il sera inévitable de passer sur des notions pourtant essentielles (exemple : pas de produit tensoriel dans cet article), et il y aura forcément des approximations et manques de rigueur tout au long du parcours pour faciliter la lecture. Ceci dit, même si nous allons essayer d’introduire la notion de la façon la plus simple possible, il y aura forcément beaucoup de formules dans certaines sections. Les tenseurs sont après tout des objets abstraits et complexes…

Remarque : les passages \color{red}{\Big[} entre crochets rouges\color{red}{\Big]} ont été édités ou ajoutés. Les sections contenant ces modifications sont repérées par (*) dans le sommaire.

Préparez l’aspirine, on y va !

Sommaire

Un tenseur est basé sur deux concepts :

\star\quad Il existe plusieurs notions de composantes d’un vecteur. Nous allons d’abord les définir avant d’expliquer leurs différences et ce qu’elles signifient en s’aidant de représentations visuelles.

\star\quad Il existe un “monde miroir” qui reproduit toutes les caractéristiques d’un espace vectoriel, et les allers-retours dans cet espace (via les composantes mentionnées) apportent des propriétés intéressantes aux vecteurs.

Une fois que nous aurons abordé ces deux points, nous pourrons définir ce qu’est un tenseur et vraiment comprendre comment ils fonctionnent et à quoi ils servent.

Composantes contravariantes et covariantes d’un vecteur

Pour représenter la position d’un point dans un espace vectoriel, on utilise autant de nombres (réels généralement, mais pas nécessairement) qu’il y a de dimensions dans cet espace. Ces nombres sont les coordonnées du point.

(1,1) par exemple nous donne la position du point à distance 1 de chacun de ses axes, ce sont les coordonnées de ce point.
Mais pour pouvoir parler de distance, on doit d’abord commencer par définir l’espace en question. Nous utilisons ici un espace réel de dimension 2 muni du produit scalaire (l’espace est euclidien). Puis une base othonormée e=\{e^{}_1,e^{}_2\}, c’est-à-dire que les vecteurs de la base sont orthogonaux et de norme 1.

Un vecteur est formellement définit par une unique combinaison linéaire des vecteurs de la base dans laquelle il est exprimé (L’unicité venant bien sûr du fait que l’on ait justement choisi une base de référence…).

Ici, v=v^1\times e^{}_1 + v^2\times e^{}_2

Soit v=1\times \begin{pmatrix}1\\0\end{pmatrix} + 1\times \begin{pmatrix}0\\1\end{pmatrix}=\begin{pmatrix}1\\1\end{pmatrix}.

Les v^i sont les composantes contravariantes du vecteur v dans la base e (attention, ce ne sont pas des exposants mais des indices “en haut”). Nous verrons plus loin ce que signifie ce terme. L’essentiel à retenir ici, c’est que les composantes contravariantes d’un vecteur sont “le nombre de fois que l’on prend chaque vecteur de la base”. Ce sont les éléments permettant de “construire” le vecteur.
Remarque : les composantes d’un vecteur seront toujours écrites sous forme d’une matrice colonne dans cet article, nous verrons qu’il y a une raison pratique à cette convention.

On peut obtenir d’autres composantes en projetant le vecteur sur chacun des axes, c’est exactement ce que fait le produit scalaire :
v \cdot e^{}_1=\begin{pmatrix}1\\1\end{pmatrix} \cdot \begin{pmatrix}1\\0\end{pmatrix} =1

v \cdot e^{}_2=\begin{pmatrix}1\\1\end{pmatrix} \cdot \begin{pmatrix}0\\1\end{pmatrix}=1

Ce sont les composantes covariantes du vecteur v (indices en bas) :

\begin{array}{cc} v^{}_1 =1 \\v^{}_2=1\end{array}

Les composantes covariantes sont le résultat de projections donc de l’application d’un couple de formes linéaires sur le vecteur.
Même si ce n’est pas très éclairant pour l’instant, cette phrase prendra tout son sens au fil de l’article.

Cette distinction semble ici inutile puisque les composantes covariantes et contravariantes du vecteur v sont égales. Ceci est dû à la base e qui est orthonormée et au fait que l’espace est muni du produit scalaire usuel. Exercice : prendre une base orthonormée différente et montrer que les composantes covariantes et contravariantes de v sont encore égales.

En réalité, les composantes covariantes sont de nature différente des composantes contravariantes.

Cas d’une base orthogonale non normée

Prenons un cas où cela est visible. Supposons que l’on doit changer l’échelle en prenant une base toujours orthogonale, mais cette fois-ci “plus petite” (une base plus petite signifie que ses vecteurs ont une norme plus petite que les vecteurs de la base de départ, puisqu’on les exprime tous dans la base canonique, et elle n’est plus orthonormée).

b=\{\begin{pmatrix}\frac12\\0\end{pmatrix},\begin{pmatrix}0\\\frac12\end{pmatrix}\}

On montre alors facilement que les composantes contravariantes de v deviennent \begin{pmatrix}v^1\\v^2\end{pmatrix}=\begin{pmatrix}2\\2\end{pmatrix}

car \begin{pmatrix}1\\1\end{pmatrix}=2\times \begin{pmatrix}\frac12\\0\end{pmatrix}+ 2\times \begin{pmatrix}0\\\frac12\end{pmatrix}.

Les composantes contravariantes sont devenues plus grandes alors que la base a “rétréci” : d’où le terme contravariantes.

v^i=2\quad\text{dans la base}\quad (b^{}_i)

Remarque : sa longueur (norme euclidienne pour les puristes) n’a pas changé, c’est la relation à la base qui a changé.

Ses composantes covariantes sont alors \begin{pmatrix}v^{}_1 & v^{}_2\end{pmatrix}=\begin{pmatrix}\frac12 & \frac12\end{pmatrix}

car \begin{pmatrix}1\\1\end{pmatrix}\cdot \begin{pmatrix}\frac12\\0\end{pmatrix}=\begin{pmatrix}1\\1\end{pmatrix}\cdot \begin{pmatrix}0\\ \frac12\end{pmatrix}=\frac12.

Ici au contraire, les composantes covariantes ont “rétrécies”, comme la base.

Mais alors, puisque le vecteur ne change pas, si ses composantes covariantes ont “rétrécies”, c’est donc qu’elles sont exprimées dans une base “plus grande” donc différente…

Pourquoi sommes-nous passés à une nouvelle base ?

C’est parce que pour obtenir les composantes covariantes, nous devons appliquer le produit scalaire, et en faisant cela, nous “travaillons” dans l’espace dual…
Nous verrons cela en détail. En attendant on va retenir que les composantes covariantes sont en fait les composantes du vecteur dual de v, noté v^\star dans une nouvelle base (b^i) :

v^{}_i=\frac12\quad\text{dans la base}\quad (b^i)

Mais qu’est-ce qu’un espace dual ? C’est une très bonne question, merci de l’avoir posée.

Les formes linéaires et l’espace dual

Une seconde notion au coeur du concept de tenseur est celle de forme linéaire. On appuie sur l’accélérateur ça va devenir abstrait, on n’est plus au Kansas, Toto.

Les formes linéaires sont un certain type d’applications linéaires sur un espace vectoriel.
On reste dans le cadre “gentillet” de l’espace euclidien \mathbb{R}^2. Dans ce cadre, une forme linéaire est simplement une application qui prend un vecteur et lui associe une combinaison linéaire de ses composantes (qui nous donne donc un nombre).

Par exemple on prend un vecteur w de composantes \begin{pmatrix}x\\y\end{pmatrix} et on lui applique la combinaison linéaire x+2y.

On note cette forme w^\star\colon\begin{pmatrix}x\\y\end{pmatrix}\mapsto x+2y et on a par exemple w^\star(\begin{pmatrix}4\\5\end{pmatrix})=4+2\times 5=14.

\color{red}{\Big[} Une forme linéaire est une projection : tous les points du plan positionnés sur une flèche sont envoyés sur le même nombre réel. Une forme linéaire définit en quelque sorte une “direction de projection”.
Remarque : on aurait pu représenter la droite réelle dans n’importe quelle position, elle est ici représentée perpendiculairement aux flèches pour faciliter la visualisation.\color{red}{\Big]}

Comme pour les vecteurs, puisqu’une forme linéaire est caractérisée par une unique combinaison linéaire, on peut la représenter par deux nombres, ici la forme linéaire w^\star est caractérisée par ses composantes
\begin{pmatrix}w^{}_1 & w^{}_2 \end{pmatrix}=\begin{pmatrix}1 & 2\end{pmatrix} que nous écrirons horizontalement (matrice ligne).
Comme pour les vecteurs, les formes linéaires vivent dans un espace vectoriel qui leur est propre (que l’on va appeler “espace dual” de \mathbb{R}^2), et leurs composantes vont dépendre d’une base (qui sera, vous l’avez deviné, appelée base duale).

Jusque là tout va bien, on a défini un nouveau monde, l’espace dual, mais celui-ci ressemble beaucoup à l’espace vectoriel dont nous sommes habitués, donc ce n’est pas tellement dépaysant. D’ailleurs les formes linéaires sont aussi appelées covecteurs, ce n’est pas un hasard.

Par contre tout est inversé. Les éléments permettant de construire une forme linéaire sont ses composantes covariantes :

On récapitule (*)

\star\quad \color{red}{\Big[} Un vecteur est défini par le produit de ses composantes par les vecteurs de la base, soit pour le vecteur v de composantes contravariantes \begin{pmatrix}1\\2\end{pmatrix}, on a v=1\times b^{}_1 + 2\times b^{}_2, soit :

Lorsque l’on change de base, le vecteur doit adapter ses composantes et “compense” le changement de base afin que v ne change pas, c’est pourquoi ses composantes augmentent lorsque la base “rétrécie”. Le vecteur v a une existence intrinsèque, son existence est indépendante de la base contrairement à ses composantes, ou encore on peut considérer qu’il est uniquement défini dans la base canonique.

\star\quad Une forme linéaire est définie via le produit de ses composantes par les composantes du vecteur quelconque auquel elle est appliquée, soit pour la forme linéaire v^\star de composantes \begin{pmatrix}1 & 2 \end{pmatrix} dans la base canonique duale,
on a v^\star(\begin{pmatrix}x\\y\end{pmatrix})=1\times x+2\times y. Mais puisque le vecteur est exprimé dans une certaine base b, il suffit de connaître l’action de v^\star sur la base, soit pour chaque i on a v^\star(b^{}_i)=\begin{pmatrix}1 & 2 \end{pmatrix}b^{}_i ou encore :

Ici, lors d’un changement de base, les composantes covariantes de la forme linéaire doivent compenser dans l’autre sens, elles varient comme la base.
Remarque : Nous utilisons ici le produit scalaire puisque nous sommes dans un espace euclidien muni du produit scalaire usuel. Dans un espace quadratique quelconque (ou un espace euclidien muni d’un produit scalaire différent), nous aurions utilisé la forme bilinéaire symétrique associée. En fait, lorsque l’on utilise le produit scalaire pour projeter un vecteur sur un vecteur de sa base et obtenir ses composantes covariantes, nous ne faisons que “passer dans l’espace dual” : les projections de v sur les vecteurs de la base b sont des formes linéaires, et les résultats de ces projections sont les composantes covariantes dans la base duale. Elles sont par définition les composantes du vecteur dual dans sa base duale. C’est pour cela que l’on est passé de la base bleue à la base rouge.\color{red}{\Big]}

Lien entre vecteur et forme linéaire (*)

Notons E=\mathbb{R}^2 notre espace vectoriel euclidien, et E^\star son espace dual.

\color{red}{\Big[} Ici c’est le produit scalaire qui nous permet de faire le lien entre les éléments de E et ceux de E^\star. Plus précisément, il induit un isomorphisme :

Cette correspondance permet d’identifier E et E^\star, c’est-à-dire qu’à chaque vecteur v de E correspond une unique forme linéaire v^\star. On dit que les deux espaces sont isomorphes.
Pas étonnant qu’ils se ressemblent tant finalement !

Remarques importantes :

\star\quad Cet isomorphisme est naturel et ne dépend pas du choix de la base, car le produit scalaire est fixé. Sans produit scalaire, il n’y aurait aucun isomorphisme plus naturel qu’un autre.
\star\quad Les composantes covariantes, en revanche varient et dépendent de la base (tout comme les composantes contravariantes).
\star\quad Ici nous sommes dans un espace euclidien particulier car E est muni du produit scalaire usuel v\cdot v'=xx'+yy' et donc en conséquence v et v^\star ont les mêmes composantes dans la base canonique (en fait dans toute base orthonormée pour ce produit scalaire), ils sont “égaux” ou “superposés” si on représente les deux espaces dans un graphique.
Ce ne sera plus le cas si nous prenons un produit scalaire différent comme par exemple v\cdot v'=2xx'+3yy'. Ils auront alors des composantes différentes dans la base canonique (puisqu’elle ne sera pas orthonormée pour ce nouveau produit scalaire) et donc également des composantes covariantes et contravariantes différentes dans une base orthonormée pour ce produit scalaire. La correspondance entre E et E^\star sera différente.

\star\quad Dans le cas encore plus général où E est muni d’une forme bilinéaire symétrique non dégénérée quelconque que l’on notera \phi, non seulement v et v^\star auront des composantes différentes dans la base canonique, mais il faudra également remplacer le produit scalaire par \phi, et on aura encore une nouvelle correspondance entre E et E^\star. C’est le cas de l’espace de Minkowski de la relativité restreinte par exemple. \color{red}{\Big]}

Liens entre composantes contravariantes et covariantes

Reprenons. Dans une base quelconque b, on a le vecteur v=v^i b^{}_i (définition du vecteur comme combinaison linéaire des vecteurs de la base)

Remarque : on utilise ici la convention d’Einstein v^i b^{}_i=\displaystyle\sum_{i=1}^2 v^i b^{}_i= v^1 b^{}_1+v^2 b^{}_2.
Cette notation consiste donc simplement à ignorer le symbole de somme, mais attention : seuls les indices opposés sont sommés (un en haut et un en bas). On ne somme jamais ainsi deux indices identiques s’ils sont au même niveau.

\color{red}{\Big[} Dans notre exemple, v=\begin{pmatrix}1\\1\end{pmatrix}\quad \text{(dans la base canonique),}
(v^i)=\begin{pmatrix}2 \\ 2\end{pmatrix}\quad \text{dans la base }\{b^{}_i\}=\{\begin{pmatrix}\frac12\\0\end{pmatrix},\begin{pmatrix}0\\\frac12\end{pmatrix}\}
On a donc bien v=v^i b^{}_i.\color{red}{\Big]}

En appliquant le produit scalaire par les b^{}_j de la base on obtient
v\cdot b^{}_j=(v^i b^{}_i)\cdot b^{}_j
v^{}_j=(b^{}_i\cdot b^{}_j)v^i
On introduit ici une notation pour les produits scalaires deux à deux de la base : g^{}_{ij}=b^{}_i\cdot b^{}_j
\text{D'ou} \quad v^{}_j=g^{}_{ij}v^i

\color{red}{\Big[} L’ensemble des valeurs g^{}_{ij} pour 1\leq i,j \leq 2 forme une matrice g.

Dans notre exemple, \begin{pmatrix}\frac12 & \frac12 \end{pmatrix}=g\begin{pmatrix}2 \\ 2 \end{pmatrix}

On a g^{}_{11}=b^{}_1\cdot b^{}_1=\begin{pmatrix}\frac12\\0\end{pmatrix}\cdot\begin{pmatrix}\frac12\\0\end{pmatrix}=\frac14 et g^{}_{22}=b^{}_2\cdot b^{}_2=\begin{pmatrix}0\\\frac12\end{pmatrix}\cdot\begin{pmatrix}0\\\frac12\end{pmatrix}=\frac14 et g^{}_{12}=g^{}_{21}=0

Donc g=\begin{pmatrix}\frac14 & 0 \\ 0 & \frac14 \end{pmatrix}.

On peut aussi montrer que v^j=g^{ij}v^{}_i avec g^{ij}=b^i\cdot b^j dont les valeurs forment la matrice inverse g^{-1}.

Calculons alors les composantes des vecteurs de la base duale de b, que l’on notera b^\star=\{b^1,b^2\}.

On aura alors b^i b^{}_j=\delta^i_j (par définition de la base duale) d’où b^1=\begin{pmatrix}2\\0\end{pmatrix} et b^2=\begin{pmatrix}0\\2\end{pmatrix}

Ainsi g^{-1}=\begin{pmatrix}4 & 0 \\ 0 & 4 \end{pmatrix}.

On vient de vérifier que b^\star est bien “plus grande” que la base d’origine. Mystère résolu.

Au passage, remarquons que v^\star=v^{}_i b^i

v^\star=\begin{pmatrix}1 & 1\end{pmatrix}\quad \text{(dans la base canonique duale),}
(v^{}_i)=\begin{pmatrix}\frac12 & \frac12\end{pmatrix}\quad \text{dans la base duale }\{b^i\}=\{\begin{pmatrix}2 & 0\end{pmatrix},\begin{pmatrix}0 & 2\end{pmatrix}\} \color{red}{]}

Remarque : ce comportement peut être généralisé. Si dans E nous n’avions “rétréci” qu’un vecteur de la base, par exemple b^{}_1, le vecteur dual b^2 de la base duale aurait “grandi”, mais b^1 n’aurait pas changé. Si nous effectuons une rotation sur un vecteur de la base, c’est l’autre vecteur qui reflètera cette rotation dans le dual (dans le même sens). Il y a un “effet miroir” entre une base et sa duale afin que l’on ait toujours b^{}_ib^j=\delta^j_i, et c’est ce qui génère cette inversion des propriétés.

Attention ! Ici l’espace dual est défini via le produit scalaire usuel, ainsi un vecteur et son dual sont toujours superposés. On aurait une correspondance différente avec un autre produit scalaire (ou un pseudo produit scalaire comme pour l’espace de Minkowski) et ils ne seraient alors pas superposés. On confond souvent le tenseur métrique et la forme bilinéaire associée au produit scalaire, mais c’est un abus de langage… Les deux sont généralement bien différents (mais on aime particulièrement les cas où ils sont égaux, d’où l’abus). Donc l’espace dual obtenu dépend du produit scalaire utilisé (ou de la forme quadratique), mais la correspondance entre les deux espaces (le tenseur métrique) dépend non seulement du produit scalaire utilisé mais également du changement de base !

On a donc un moyen de passer directement d’un type de composantes à l’autre. Voyons à quoi correspond ce g.

Déjà, notons que dans le cas d’une base orthonormée (vecteurs orthogonaux et de norme 1), les produits scalaires deux à deux de la base seraient nuls pour des vecteurs différents (i\ne j) et égaux à 1 sinon (lorsque i=j). Dans ce cas g serait donc tout simplement identique à la matrice identité. On aurait alors bien v^i=v^{}_i c-à-d. égalité entre les composantes covariantes et contravariantes.
(Remarque : la notation v^i=v^{}_i n’est pas abusive, mais peut être confuse, car ici on ne somme pas les indices)

Maintenant, ce sera différent dans notre base “rétrécie”. Pour comprendre ce que cette matrice g désigne exactement, on va aborder la notion de changement de base. Lorsque l’on passe d’une base b à une base b', on peut définir une matrice de passage P telle que b^{'}_i=Pe^{}_j.

Mais, d’habitude on n’exprime pas plutôt l’ancienne base en fonction de la nouvelle ? Oui, mais c’est une convention pratique pour écrire les composantes de la matrice de passage… Ici nous n’en avons pas besoin, et puis de toute façon c’est quand même plus naturel dans ce sens, non ?

Les composantes contravariantes d’un vecteur v vérifient alors v^i=P^{-1}v, elles “varient contrairement à la base” car la matrice de passage est inversée.

Les composantes covariantes du vecteur v vérifient alors v^{}_i={}^tPv, elles “varient comme la base”.
Attention :
* ici on utilise le produit scalaire usuel et on devrait plutôt écrire v^{}_i={}^tPIv pour ne pas l’oublier (ou encore v^{}_i={}^tPv^\star ce qui revient au même).
* notez également que le produit d’une matrice par un vecteur dans ce sens implique que le vecteur est écrit sous forme de matrice colonne. Sous forme de matrice ligne, on écrirait en transposant v^{}_i=v^\star P

Et bien les matrices de composantes g^{}_{ij} et g^{ij} (inverses l’une de l’autre) sont en quelque sorte les “matrices de passage” entre la base de notre espace et la base duale de son espace dual (ce serait la matrice identité dans la base othonormée d’un espace euclidien).

Notez que dans ce schéma, toutes les composantes sont écrites en colonnes.

Donc ces matrices transforment les composantes d’un vecteur en les composantes d’une forme linéaire (et inversement) en abaissant leurs indices (ou en les montant), ou plus exactement transforment des composantes contravariantes en composantes covariantes (et inversement).

En prenant la notation verticale vs horizontale, on a \begin{pmatrix}v^{}_1 & v^{}_2 \end{pmatrix}=g\begin{pmatrix}v^1 \\ v^2 \end{pmatrix} et \begin{pmatrix}v^1 \\ v^2\end{pmatrix}=g^{-1}\begin{pmatrix}v^{}_1 & v^{}_2 \end{pmatrix}.

Ce g est donc une matrice assez étrange (même lorsqu’elle est l’identité). Une matrice est habituellement utilisée pour représenter une application linéaire (qu’elle soit inversible ou non) qui s’applique à un vecteur (matrice colonne dans notre convention de notation) et dont l’image est un autre vecteur (colonne également). Ici on voit que g perturbe notre système de notation, il “couche les colonnes de composantes contravariantes” et “relève les lignes de composantes covariantes” !

L’explication tient en trois mots : g est un tenseur. Cela ressemble beaucoup à une application linéaire (et c’en est partiellement une), mais un tenseur se comporte un peu différemment. Les matrices d’applications linéaires sont des tenseurs à deux indices également, mais l’un est covariant, l’autre contravariant. g est différent : deux fois covariant lorsqu’il est sous la forme g^{}_{ij} et deux fois contravariant lorsqu’il est sous la forme g^{ij}.

Donc il est réducteur d’identifier g et sa matrice. On devrait plutôt parler du tableau des composantes de g, ou bien de sa “matrice associée” qui elle ne s’applique pas à des formes linéaires, mais aux composantes qui les représentent dans E^\star

Lorsque le tenseur g est deux fois covariant il transforme un vecteur en une forme linéaire, et une forme linéaire en vecteur lorsqu’il est deux fois contravariant. Donc même si l’on représente g sous la forme d’une matrice, son comportement est très différent !

g est appelé tenseur métrique.

On résume tout ce bazar de composantes grâce au dual :

En conclusion, en passant à une base “plus petite”, les composantes contravariantes du vecteur v sont devenues plus grandes, alors que ses composantes covariantes sont devenues “plus petites”.

On recommence avec un cas un peu plus compliqué ? (à peine) Ce sera aussi un peu plus intéressant et un peu plus visuel également !

Cas d’une base non orthogonale

Cette fois-ci on va prendre une base f dont les vecteurs font un angle de \frac{\pi}3. On aura par exemple
f=\{\begin{pmatrix}1\\0\end{pmatrix},\begin{pmatrix}\frac12\\ \frac{\sqrt3}2\end{pmatrix}\}. Reprenons le même vecteur v ayant pour composantes \begin{pmatrix}x\\y\end{pmatrix}=\begin{pmatrix}1\\1\end{pmatrix} dans sa base canonique (orthonormée).

Ses composantes contravariantes seront donc v^i=\begin{pmatrix}\frac{3-\sqrt3}3\\ \frac{2\sqrt3}3\end{pmatrix}

Update 05/01/2019 Détail des calculs :
Les composantes contravariantes ne sont rien d’autre que les composantes du vecteur dans une autre base que la base canonique.
On calcule ainsi les composantes contravariantes par un changement de base : v^i=P^{-1}\begin{pmatrix}x\\y\end{pmatrix}

P=\begin{pmatrix}1 & \frac12\\0 & \frac{\sqrt3}{2}\end{pmatrix} car elle est constituée des vecteurs de la base (dans la base canonique). Reste à l’inverser :

P^{-1}=\dfrac1{\frac{\sqrt3}2}\begin{pmatrix}\frac{\sqrt3}{2} & -\frac12\\-0 & 1\end{pmatrix}=\begin{pmatrix}\frac2{\sqrt3}\frac{\sqrt3}{2} & -\frac2{\sqrt3}\frac12\\0 & \frac2{\sqrt3}\end{pmatrix}=\begin{pmatrix}1 & -\frac1{\sqrt3}\\0 & \frac2{\sqrt3}\end{pmatrix}=\begin{pmatrix}1 & -\frac{\sqrt3}3\\0 & \frac{2\sqrt3}3\end{pmatrix}

D’où v^i=\begin{pmatrix}1 & -\frac{\sqrt3}3\\0 & \frac{2\sqrt3}3\end{pmatrix}\begin{pmatrix}1\\1\end{pmatrix}=\begin{pmatrix}\frac{3-\sqrt3}3\\ \frac{2\sqrt3}3\end{pmatrix}

On peut vérifier que l’on a bien \begin{pmatrix}1\\1\end{pmatrix}=v^1\begin{pmatrix}1\\0\end{pmatrix}+v^2\begin{pmatrix}\frac12\\ \frac{\sqrt3}2\end{pmatrix}

Ses composantes covariantes seront v^{}_i=\begin{pmatrix}1 & \frac{1+\sqrt3}2\end{pmatrix} via les produits scalaires v\cdot f^{}_i

Maintenant, pour pouvoir représenter ces coordonnées dans un graphique, il nous faut les vecteurs de la base duale de f.

Quel que soit le choix du produit scalaire, ils sont définis par la propriété suivante : f^i(f^{}_j)=\delta^i_j avec \delta^i_j=1 si i=j et 0 sinon. Concrètement, cela signifie que la base duale f^\star est orthogonale (pour le produit scalaire euclidien usuel) à la base f (d’où les relations de composantes et le fait que l’on ne représente généralement pas les composantes covariantes et contravariantes dans la même base contrairement à des représentations erronées assez répandues).

On déduit donc la base duale f^\star=\{\begin{pmatrix}1 & -\frac{\sqrt3}3\end{pmatrix},\begin{pmatrix}0 & \frac{2\sqrt3}3\end{pmatrix}\}.

Update 05/01/2019 :
Détaillons ce dernier calcul : v^*=v^{}_if^i=v^{}_1f^1+v^{}_2f^2=1\times \begin{pmatrix}1 & -\frac{\sqrt3}3\end{pmatrix}+ \frac{1+\sqrt3}2 \times \begin{pmatrix}0 & \frac{2\sqrt3}3\end{pmatrix}=\begin{pmatrix}1&1\end{pmatrix}

On voit bien ici que les composantes contravariantes v^i sont exprimées dans la base f^{}_j alors que les composantes covariantes v^{}_i sont exprimées dans la base f^j. De plus, on lit TOUJOURS des coordonnées par projection parallèle puisqu’on exprime les vecteurs en fonction de leur base : penser à la relation de Chasles de l’addition des vecteurs.

Bien sûr, puisque la base duale est orthogonale à sa base réciproque, chaque ligne pointillée sera perpendiculaire aux axes de l’autre base. Attention donc pour les représenter dans un même graphique, il faut représenter les deux bases, même si cela alourdi un peu la lecture.

La projection orthogonale dans un espace euclidien est équivalente à la projection parallèle dans son espace dual (et inversement)…

On a donc une représentation visuelle des deux types de composantes (dans un espace euclidien munit du produit scalaire usuel ne n’oublions pas). Intuitivement, lorsqu’un repère est “écrasé”, on peut lire les coordonnées de deux façons différentes : par projection parallèle (composantes contravariantes) ou par projection orthogonale (composantes covariantes).

Mais attention ! Il y a un piège dans la représentation de gauche : la projection orthogonale est en fait une projection parallèle sur la base duale… Cela revient au même (puisque les deux bases sont orthogonales entre-elles par définition), mais il est plus rigoureux (et exact) de représenter les deux bases comme à droite.

\color{red}{\Big[} Rappel important : Et dans un espace non-euclidien ou munit d’un produit scalaire non usuel ? v et v^\star ne seront plus superposés… Donc attention, nous sommes en fait ici dans un cas bien particulier ! En particulier, cette représentation n’est pas valide dans un espace de Minkowski et donc ne décrit pas de façon valide les composantes en relativité restreinte…\color{red}{\Big]}

On passe aux matrices (*)

Accrochez-vous à votre siège. Non, accrochez-vous vraiment, ça va secouer.

Supposons que l’on ait un vecteur v exprimé dans la base canonique, et une application linéaire A qui envoie ce vecteur sur un autre vecteur w (toujours dans la base canonique).

Supposons ensuite que nous décidons de changer de base de référence. On note P la matrice de changement de base.

Que vont devenir nos vecteurs ? Ils ne changent pas évidemment.
Que vont devenir leurs composantes dans la nouvelle base ? Les tenseurs d’ordre 2 font les liens entre leurs diverses composantes :

Remarques importantes :

  • Dans ce schéma, tous les produits supposent une écriture matricielle en colonne.
  • Les composantes covariantes supposent une dualité “classique” via le produit scalaire euclidien usuel (donc v=v^* et w=w^*).

Et dans le cas bien pratique où A serait inversible, on aurait une application linéaire B=A^{-1} et donc B^{ki} le tenseur inverse de A^{}_{ik} et B^{}_{\ell j} inverse de A^{j\ell} ainsi que B^{i}_{\,\, \ell} inverse de A^{\,\, \ell}_i

Remarque : L’exposant -1 doit être réservé aux matrices ou applications linéaires et ne jamais être utilisé sur les tenseurs, car l’inverse d’une forme bilinéaire (de matrice associée A dans la base canonique) est mal définit, il faut plutôt parler du bivecteur associé à la matrice inverse A^{-1} dans la base canonique.
Le tenseur inverse de A_{ik} n’existe que si A est inversible et ici il est donc B^{ki}. La lettre B sert à indiquer que ce tenseur est associé à la matrice B=A^{-1} après changement de base, et non associé à la matrice A.

Pour preuve, (A_{ik})={}^tPAP et (B^{kj})=P^{-1}B{}^tP^{-1} d’où on vérifie que (A_{ik})(B^{kj})=I.
La notation B^{ki} pour le tenseur inverse est la seule notation correcte, puisque noter (A^{-1})^{ki} ou (A^{ki})^{-1} peut vite prêter à confusion (notation redondante). Pour l’aspect pratique, on notera plutôt A^{ki} même si techniquement c’est un abus de langage…

On peut alors faire les présentations :

\star\quad A^{}_{ik} est un tenseur deux fois covariant. C’est une forme bilinéaire, une application qui transforme un vecteur en forme linéaire ou qui prend deux vecteurs et les transforme en un scalaire (x,y) \longmapsto {}^txAy. En fait, c’est précisément la forme bilinéaire de matrice A dans la base canonique, décrite après un changement de base P. Les matrices (A^{}_{ik}) et A sont dites congruentes, elles représentent la même forme bilinéaire (invariant : le rang !).
Dans notre schéma, on a (A^{}_{ik})={}^tPAP et son application aux composantes contravariantes nous donne A^{}_{ik}v^i=w^{}_k

\star\quad A^{\,\,\ell}_{i} est un tenseur une fois covariant et une fois contravariant (dans cet ordre). C’est une application linéaire, qui transforme un vecteur en un autre vecteur. En fait, c’est précisément l’application linéaire de matrice A dans la base canonique, décrite après un changement de base P. Les matrices (A^{\,\, \ell}_{i}) et A sont dites semblables, elles représentent la même application linéaire.
Invariants de similitude : le rang, le déterminant, la trace, les valeurs propres, le polynôme caractéristique, le polynôme minimal, la forme de Jordan (système complet d’invariants), les tableaux de Young…
Dans notre schéma, on a (A^{\,\, \ell}_{i})=P^{-1}AP et son application au vecteur de composantes contravariantes nous donne A^{\,\, \ell}_{i}v^i=w^{\ell}

\star\quad \color{red}{\Big[} A^{j}_{\,\, k} est aussi une fois contravariant et une fois covariant (dans cet ordre en revanche). C’est aussi une application linéaire, mais qui transforme une forme linéaire en une autre forme linéaire. En fait, c’est précisément l’application linéaire de matrice {}^tA dans la base canonique duale, décrite après un changement de base {}^tP dans l’espace dual. Les transposées des matrices (A^{j}_{\,\, k}) et A sont semblables, donc les transposées représentent la même application linéaire. Dans notre schéma, on a (A^{j}_{\,\, k})={}^tPA{}^tP^{-1} et son application au covecteur de composantes covariantes nous donne A^{j}_{\,\, k}v^{}_j=w^{}_k Remarque : Si A est symétrique, alors A^{j}_{\,\, k} n’est rien d’autre que le transposé du tenseur précédent A^{\,\, \ell}_{i}\color{red}{\Big]}

\star\quad A^{j\ell} est un tenseur deux fois contravariant. C’est une application qui transforme une forme linéaire en un vecteur ou qui prend deux formes linéaires et les transforme en un scalaire. Lors d’un changement de base, on a (A^{j\ell})=P^{-1}A{}^tP^{-1}. Je propose d’appeler les matrices (A^{j\ell}) et A conblables. Non ? sembluentes alors ?
En fait ici les matrices transposées sont juste congruentes via P^{-1} et codent la même forme bilinéaire.
Dans notre schéma, on a (A^{j\ell})=P^{-1}A{}^tP^{-1} et son application au vecteur de composantes covariantes nous donne A^{j\ell}v^{}_j=w^{}_{\ell}

On voit bien ici le rôle ambivalent de A. On peut le voir comme une application linéaire, une forme bilinéaire ou un bivecteur, car dans la base canonique tous sont décrit par la même matrice (la base duale de la base canonique est elle-même).
En revanche, dès que l’on effectue un changement de base, A prend une forme particulière en fonction du type de changement de base. C’est seulement alors qu’apparaissent ses propriétés covariantes et contravariantes.
Et pour la pièce de résistance, ce qui les lie toutes : le tenseur métrique pardi puisque g^{}_{kj}g^{ik}=\delta^{i}_{j} on a A^{}_{ij}=g^{}_{ki}A^{k}_{\,\, j}=g^{}_{kj}g^{}_{li}A^{lk}.

Tous les secrets du tenseur métrique

Reprenons notre vecteur favori v=\begin{pmatrix}1\\1\end{pmatrix} et appliquons une rotation d’angle \dfrac{\pi}2 sur celui-ci. Cela revient à le multiplier par la matrice de rotation
R=\begin{pmatrix}0&1\\-1&0\end{pmatrix} et on obtient alors un nouveau vecteur w=Rv=\begin{pmatrix}1\\-1\end{pmatrix}.

Passons à notre nouvelle base f=\{f^{}_1,f^{}_2\}=\{\begin{pmatrix}1\\0\end{pmatrix},\begin{pmatrix}\frac12\\ \frac{\sqrt3}2\end{pmatrix}\}.
Elle permet de récupérer notre matrice de passage P telle que f^{}_j=Pe^{}_j.

On a alors v^i=P^{-1}v pour les composantes contravariantes de v, et v^{}_i={}^tPIv pour ses composantes covariantes (le I est la matrice identité, il sert uniquement à rappeler que nous avons appliqué le produit scalaire usuel). Les composantes de la base duale seront f^j={}^tP^{-1}e^{}_j. (rappelons que e^{}_j=e^j puisque e est la base canonique orthonormée)

Bonus :

et

On peut vérifier que g^{ij}g^{}_{jk}=\delta^i_k et que v^{}_i=g^{}_{ik}v^k.

\color{red}{\Big[} A quoi sert la matrice identité ? Elle nous permet de généraliser : dans un espace quadratique quelconque, il suffira de remplacer I par la matrice de la forme bilinéaire associée à la forme quadratique…\color{red}{\Big]}

Maintenant, calculons les composantes covariantes et contravariantes de w dans la nouvelle base sans utiliser le tenseur métrique (aucun intérêt pratique, c’est juste pour voir ce que devient la matrice de rotation) :

Pour les composantes contravariantes, c’est facile, on a juste changé de base, donc on va également faire le même changement de base pour la matrice de rotation qui deviendra alors R'=P^{-1}RP et w^i=R'v^i.
Ce changement de base vient du fait que la matrice de rotation est un tenseur mixte, une fois covariant et une fois contravariant. \color{red}{\Big[} On peut noter R'=R^{\,\, \ell}_{i} (attention, l’ordre des indices est important !).\color{red}{\Big]}

Maintenant pour les composantes covariantes, c’est un peu différent. On pourrait penser qu’il suffit d’appliquer le tenseur métrique et donc de descendre ou monter un indice au tenseur R', mais ce n’est pas le cas…
En réalité, la matrice de rotation appliquée à v^{}_i sera R''=QRQ^{-1} avec Q={}^tPI.
On a fait un changement base “en sens inverse” et en transposant. \color{red}{\Big[} On peut noter R''=R^{j}_{\,\, k}.\color{red}{\Big]}

Donc nous avons pour matrice de changement base P passant de e à f, et {}^tP^{-1}I passant de e à f^\star.
Dans les deux changements de base on utilise la matrice de passage P, mais en inversant les lignes et les colonnes (et en sens inverse) pour atterrir dans l’espace dual. On peut en quelque sorte dire que l’espace de départ est généré par les colonnes de la matrice de passage, et l’espace dual par les lignes de la matrice inverse.

Mais on ne va pas s’arrêter en si bon chemin. Poussons le concept jusqu’au bout pour comprendre ce qu’il signifie.

Dans une base donnée, formant les colonnes de la matrice de passage P, nous avons par définition du tenseur métrique :

En conséquence, certains types de changements de base donneront un même tenseur métrique. Par exemple, les matrices orthogonales Q dans un espace euclidien vérifient toutes {}^tQIQ=I donc chaque fois que la matrice de passage sera une rotation, ou une permutation des axes par exemple, le tenseur métrique sera l’identité. Ce sera le cas dans toute base orthonormée. Et oui puisque la rotation d’une base ou la permutation de ses axes ne change pas son orthonormalité, c’est un espace euclidien !

Maintenant prenons l’espace de Minkowski. C’est à dire que l’on remplace le produit scalaire usuel par le (pseudo-)produit scalaire généré par I^{}_{3,1} qui est la matrice diagonale avec trois 1 et un -1 ou le contraire suivant la convention (évidemment on est maintenant dans un espace à 4 dimensions, mais les formules restent les mêmes), pour les physiciens elle répond au doux nom de \eta^{}_{\mu\nu}, c’est aussi la forme de Minkowski.
Lorsque la matrice de passage sera une transformation de Lorentz \Lambda\in O(3,1), on obtiendra la forme de Minkowski pour tenseur métrique car

La rotation deviendra alors R'=\Lambda^{-1}R\Lambda pour transformer les composantes contravariantes des vecteurs, et R''=QRQ^{-1} avec Q={}^t\Lambda\eta^{}_{\mu\nu} pour transformer les composantes covariantes.
Remarquez que le I à été remplacé par \eta^{}_{\mu\nu} également.

Conclusion : tant que nous effectuons des changements de base qui appartiennent à la même classe (i.e. engendrent le même tenseur métrique), nous avons des formules pour faire ces changements de base sans même connaître les vecteurs qui la composent !

C’est là LE gros avantage des tenseurs : plus besoin de tenir compte des changements de base au cas par cas, on considère seulement un groupe ou une “classe” de changements de base via le tenseur métrique !

Boom.

\color{blue}{\Big[}Avant de conclure, généralisons (juste un peu).
Nous avons ici deux objectifs : décrire une facette de la multilinéarité qui définit les tenseurs, et éclaircir une définition très abstraite que l’on retrouve souvent dans les anciens livres de calcul tensoriel, à savoir qu’un tenseur est un objet à indices qui “se transforme d’une certaine façon” lors d’un changement de base : c’est le critère de tensorialité.

Lumière sur la multilinéarité

Une forme multilinéaire est une application qui prend un certain nombre de vecteurs et les combine pour donner un nombre. Leur principale propriété est la linéarité : si on change la base de chaque vecteur, ce changement se répercute sur l’application.

Notons T une forme bilinéaire qui prend deux vecteurs dans deux espaces vectoriels différents :
\begin{array}{rccl}T :& E\times F &\rightarrow & \mathbb R\\& (u,v) &\mapsto & T(u,v) = T_{ij}u^iv^j\\ \end{array}
Supposons que u change de base, via une matrice de passage P dans son espace, et que indépendemment v change aussi de base via une matrice de passage S dans son propre espace.
La multilinéarité implique que T(P^{-1}u,S^{-1}v)=T_{ij}(P^i_{\hphantom{i}\ell} u^\ell) (S^j_{\hphantom{j}n}v^n)=P^i_{\hphantom{i}\ell} S^j_{\hphantom{j}n}T_{ij}u^\ell v^n

Maintenant si au lieu de prendre des vecteurs venant d’espaces différents, nous prenons des copies d’un même espace vectoriel :
\begin{array}{rccl}T :& E\times E &\rightarrow & \mathbb R\\& (u,v) &\mapsto & T(u,v) = T_{ij}u^iv^j\\ \end{array}
Alors un changement de base d’un vecteur implique que tous les autres changent de la même façon : T(P^{-1}u,P^{-1}v)=T_{ij}(P^i_{\hphantom{i}\ell} u^\ell) (P^j_{\hphantom{j}n}v^n)=P^i_{\hphantom{i}\ell} P^j_{\hphantom{j}n}T_{ij}u^\ell v^n

Un tenseur est une forme multilinéaire qui en quelque sorte combine ces deux cas de figure car il prend ses vecteurs dans deux espaces différents (E et son dual E^*) mais ceux-ci ne sont pas indépendant, de sorte qu’un changement de base dans l’un se répercute dans l’autre. Par exemple :
\begin{array}{rccl}T :& E\times E^* &\rightarrow & \mathbb R\\& (u,v^*) &\mapsto & T(u,v^*) = T^i_{\hphantom{i}j}u^jv_i\\ \end{array}
Si une matrice P opère un changement de base dans l’espace de départ, alors P^{-1} opèrera sur la base duale, et nous aurons
T(P^{-1}u,Pv^*)=T^i_{\hphantom{i}j}(P^j_{\hphantom{j}\ell} u^\ell) (P^{\hphantom{i}o}_iw_o)=P^j_{\hphantom{j}\ell} P^{\hphantom{i}o}_iT^i_{\hphantom{i}j}u^\ell v_o
Notez la subtile différence : le tenseur P^{\hphantom{i}o}_i est l’inverse de P^j_{\hphantom{j}\ell}.
Nous avons alors un critère concret : si un objet ne se transforme pas de cette façon lors d’un changement de base, alors ce n’est pas un tenseur…\color{blue}{\Big]}

 

Qu’est-ce qu’un tenseur ?

Nous avons enfin tous les outils pour répondre à cette question.

Les tenseurs ne sont pas seulement la généralisation du concept de vecteur, matrices et tableaux de nombres à plusieurs dimensions. Ils sont aussi et surtout une généralisation de la notion de forme linéaire. Ils combinent donc les avantages des deux parties : les composantes contravariantes conservent les combinaisons linéaires (comme les vecteurs), et les composantes covariantes conservent leurs proportions relatives à la base (comme les formes linéaires).
Un tenseur est un objet dual (même lorsqu’il est d’ordre un), de la même manière qu’une personne et son image dans le miroir.

Cette dualité permet aux tenseurs d’être relativement indépendants des changements de base. Tout d’abord car une relation entre des composantes tensorielles sera la même dans toute base (même si les composantes, elles, varient), et ensuite car en définissant un ensemble de changements de bases qui correspondent à un même tenseur métrique, on peut également suivre les répercutions de ces changements sur les tenseurs eux-mêmes.

A la grande joie des physiciens cela permet d’exprimer les lois de la physique de façon à ce qu’elles ne varient pas lors d’un changement d’observateur qui revient alors à un simple changement de base lié à une métrique particulière, ce qui est fondamental.

La notion de covariance en physique

Les physiciens ont deux objectifs :

\star\quad Définir des quantités dont la valeur ne changera pas lors d’un changement de référentiel (inertiel en relativité restreinte par exemple – celles-ci sont dites “invariantes de Lorentz”).

\star\quad Modéliser les lois de la physique sous la forme de relations (équations) qui ne changeront pas lors d’un changement de référentiel. Ce seront des relations entre (composantes de) tenseurs de même type, ou entre des éléments invariants. On dit que ces équations sont “covariantes”.

Remarque : par abus de langage, on entend souvent dire qu’une quantité physique est covariante de Lorentz (ou ne l’est pas).
Cette terminologie entraîne beaucoup de confusions… Si cette quantité est un scalaire ou un tenseur de l’espace de Minkowski (et peu importe que ses composantes soient covariantes ou contravariantes au sens mathématique définit précédemment), alors elle sera forcément covariante de Lorentz ! Si ce n’est pas un tenseur, ou un tenseur d’un espace différent (par exemple à trois dimensions) alors elle ne sera pas covariante de Lorentz.

L’invariance en question est relative à un groupe particulier de transformations représentant les changements d’observateurs autorisés (i.e. changements de base équivalents car liés à un même tenseur métrique) :

En relativité restreinte, les équations doivent garder leur forme lors d’un changement d’observateur inertiel (ayant une vitesse rectiligne et uniforme), donc doivent être covariantes sous les transformations du groupe de Lorentz. Même chose pour la théorie quantique des champs. Par exemple, l’expression \vec{p}=m\vec{v} décrivant la quantité de mouvement comme le produit de la masse par la vitesse \vec{v}=\begin{pmatrix}\frac{dx}{dt}\\ \frac{dy}{dt} \\ \frac{dz}{dt}\end{pmatrix} dans l’espace à 3 dimensions ne garde pas la même forme sous les transformations de Lorentz. Ajouter une coordonnée de temps ne suffit pas (C’est pour cela que la relativité restreinte est bien plus que le simple mariage de l’espace et du temps…), il faut également jouer sur le temps propre \tau introduit par la relativité restreinte, et l’on définit alors le quadrivecteur impulsion-énergie \mathbf{p}=m\mathbf{u}\mathbf{u}=\begin{pmatrix}c\frac{dt}{d\tau}\\\frac{dx}{d\tau}\\ \frac{dy}{d\tau} \\ \frac{dz}{d\tau}\end{pmatrix} est le quadrivecteur vitesse.

Cela donne au passage \mathbf{p}=\begin{pmatrix}E/c \\ \vec{p}\end{pmatrix} liant de façon intrinsèque impulsion et énergie (d’où le nom du tenseur).

L’expression \mathbf{p}=m\mathbf{u} est alors bien covariante sous les transformations de Lorentz.

Sous-entendu, même si la relation gardera toujours la même forme, les tenseurs verront généralement leurs composantes changer (mais toujours de la même manière). Un “vrai” invariant sera sa (pseudo-)norme qui gardera toujours la même valeur quel que soit le repère, par exemple pour la quadrivitesse \mathbf{u}^{\mu}\mathbf{u}^{}_{\mu}=c^2, ou pour l’impulsion \mathbf{p}^{\mu}\mathbf{p}^{}_{\mu}=\dfrac{E^2}{c^2}-\vec p^2=m^2c^2 équation non seulement covariante, mais également invariante, avec comme cas particulier au repos (\vec p=0) la fameuse équation E=mc^2, et ceci, c’est bien tout l’intérêt, quel que soit le référentiel.

En relativité générale, les équations doivent être invariantes sous tout changement d’observateur (et non plus seulement inertiels), ces changements de base étant représentés cette fois-ci par le groupe des difféomorphismes de l’espace-temps, et les objets de prédilections pour respecter cette invariance sont alors des champs de tenseurs (par contre il est un peu plus compliqué de généraliser l’invariance des équations en relativité générale car la dérivation ne transforme pas un tenseur en un autre tenseur, il faut donc également définir une dérivation covariante…).

Un peu de zoologie, exemples de tenseurs

Un tenseur est défini par son ordre et sa valence :
L’ordre correspond au nombre d’indices. Pour chaque indice, il faut autant de nombres que de dimensions de son espace pour le déterminer, soit au total n^{ordre} nombres.
La valence détermine le nombre d’indices contravariants h et le nombre d’indices covariants k et se note (h,k).
A noter que lors du changement de base, la valence donne le nombre de multiplications par la matrice de changement de base nécessaires {k} et le nombre par son inverse {h}.

Tenseurs d’ordre 0 : ce sont les scalaires. Nombres réels si l’espace vectoriel est réel, ou bien complexe, ou autres… Bref, ce sont des nombres “classiques” sans indices, qui ne dépendent d’aucune base et où il n’y a donc pas de notion de covariance ni de contravariance.

Tenseurs d’ordre 1 : ce sont les vecteurs (T^i à composantes contravariantes) et les covecteurs ou formes linéaires (T^{}_i à composantes covariantes).

Tenseurs d’ordre 2 : ce sont les matrices T^i_j (applications linéaires), tenseurs une fois covariants et une fois contravariants donc de valence (1,1), ainsi que les tenseurs deux fois contravariants T^{ij} (bivecteurs, exemples : l’inverse du tenseur métrique soit g^{ij}, le tenseur électromagnétique) de valence (2,0), et les tenseurs deux fois covariants T^{}_{ij} (formes bilinéaires ou bi-covecteurs, exemples : le produit scalaire via sa forme bilinéaire associée, la trace, le tenseur métrique g^{}_{ij}, tenseur de Ricci, forme symplectique, etc.) de valence (0,2).

On retrouve dans cette catégorie de nombreuses quantités physiques représentées par des tenseurs d’ordre 2 : le champ magnétique, le flux magnétique, le moment angulaire, le moment d’une force, la vitesse angulaire, l’accélération angulaire, la vitesse aréolaire, etc. Aussi appelés par certains physiciens des tourneurs, gyreurs, vecteur axiaux, pseudovecteurs… La terminologie est vaste.
Remarque : la terme de “quadrivecteur” des physiciens (en particulier en physique relativiste) ne correspond pas à un tenseur d’ordre deux, mais simplement à un vecteur (ou covecteur) dans un espace à quatre dimensions.

Tenseurs d’ordre 3 : ce sont les tenseurs à trois indices, notés T^{ijk}, T^{}_{ijk}, T^{i}_{jk}, T^{ij}_{k} selon leurs covariances et contravariances.

Etc…

Un petit mot de philosophie

Si cela vous surprend que cet article fasse partie de la série “Qu’est-ce qu’un nombre”, c’est que vous faites une distinction claire entre le concept de nombre (naturel, relatif, rationnel, réel, complexe, etc.) et celui des autres objets mathématiques plus abstraits. Je ne discuterai pas ce point en détail ici, mais ce n’est pas mon point de vue, pour deux raisons (rapidement).

La première c’est que tout concept de nombre peut être représenté comme un vecteur dans un espace particulier… Les nombres complexes en sont un exemple flagrant (plus de détails à venir dans un futur article), mais on peut aussi représenter ainsi les nombres réels (dans un espace trivial à 1 dimension), les nombres entiers et rationnels (dans un réseau d’espace vectoriel), etc.

De plus, les composantes de vecteurs, matrices et tenseurs plus généralement sont représentées par des nombres, et on peut en ce sens les voir comme des “nombres à plusieurs dimensions” en quelque sorte.

Le concept de nombre prend en fait un sens beaucoup plus général en mathématiques que l’intuition nous le suggère…
Mais, un tableau de nombres n’est pas un nombre ! me direz-vous.

A cela je répondrai : \begin{pmatrix}1 & 0 & 0 & 0 & 0\\ 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 0 & 1 & 0\\ 0 & 0 & 0 & 0 & 1\end{pmatrix}, \begin{pmatrix}2 & 0 & 0 & 0 &0\\ 0 & 2 & 0 & 0 &0\\ 0 & 0 & 2 & 0 & 0\\ 0 & 0 & 0 & 2 & 0\\ 0 & 0 & 0 & 0 &2\end{pmatrix}, \begin{pmatrix}3 & 0 & 0 & 0 &0\\ 0 & 3 & 0 & 0 &0\\ 0 & 0 & 3 & 0 &0 \\ 0 & 0 & 0 & 3 & 0\\ 0 & 0 & 0 & 0 & 3\end{pmatrix}, etc…

 ;-)

Feedback grandement apprécié, merci !

    Comment avez-vous trouvé cet article ?

    IncompréhensiblePas clairMoyennement clairClairSuper clair

    Quelle(s) partie n'était pas claire ?

    L'avez-vous trouvé difficile ?

    Très difficileAssez difficileMoyenAssez facileTrès facile

    Si vous avez trouvé l'article trop difficile, n'hésitez pas à voir la version simplifiée !

    Quelle(s) partie était trop difficile ?

    Quel est votre niveau de connaissances en mathématiques ?

    Nul (je ne sais pas ce que je fais ici^^)Faible (souvenirs d'école)Correct (amateur ou L1/L2)Elevé (Diplôme L3 à M2)Très élevé (enseignant/chercheur)

    Un e-book sur le thème "espace dual, tenseur métrique et covariance de Lorentz" est en préparation. Seriez-vous intéressé ?

    Remarque : niveau un peu plus technique que cet article, mais très fourni en représentations visuelles et même en animations.

    Pas du toutBofUn peuBeaucoupPassionémentA la folie

    Le blog a besoin de relecteurs. Seriez-vous intéressé ? (si oui laissez votre adresse mail dans le champ commentaire)

    OuiNonPeut-être

    N'hésitez pas à laisser un commentaire privé !

    Les mentions de typos, erreurs ou passages peu clairs sont les bienvenues ! (je les corrigerai)

    [wpgdprc "By using this form you agree with the storage and handling of your data by this website."]

    26 Comments
    • gamani jean
      Posted at 14:37h, 22 September

      merci beaucoup pour les explications

    • Johann
      Posted at 14:41h, 22 September

      Merci pour votre message !

    • Patrick
      Posted at 08:32h, 04 November

      Merci pour cet exposé très clair.

    • Marandon Etienne
      Posted at 23:25h, 05 June

      C’est très bon,bien détaillé. Un grand merci.

    • Christophe
      Posted at 14:21h, 18 June

      Il est toujours assez jubilatoire, ascendant miraculeux, de tomber par hasard (vraiment ?) sur un contenu (le fond, la forme) tel que celui que vous proposez ici,
      Lait sucré à téter aux deux mamelles de la pédagogie : la répétition et la reformulation.

      “The noblest pleasure is the simple joy of understanding” – Leonardo Da Vinci

    • Gerard
      Posted at 15:20h, 01 March

      Quelques questions si je peux me permettre:

      – à l’écrasement d’une base, pourquoi la projection orthogonale sur la base initiale est égale à la coordonnée sur la base duale?

      – est ce que v* est la version de v mais en forme linéaire?

      – Si la question ci-dessus est oui et que l’on part de l’idée que v* est la forme linéaire correspondante à v, d’où vient la propriété d’othogonalité des base initiale et duale ?

      – puisque v et v* se superposent dans le cas du produit scalaire usuel, que représente v* dans le cas du produit scalaire non usuel?

      – dans le cas du produit scalaire usuel, que vaut v*.v ? est ce que ca vaut la norme au carré de v?
      – dans le cas plus général d’un produit scalaire non-usuel, que représente v*v?

    • Johann
      Posted at 20:45h, 01 March

      Bonjour,
      – Par définition…
      Parce que la projection orthogonale d’un vecteur dans un espace euclidien (quel que soit le produit scalaire) est équivalente à la projection parallèle de son vecteur dual dans son espace dual (normal, une base et sa duale sont faites ainsi). Concrètement, cela revient à dire que l’on définit les composantes dans la base duale (ie les composantes covariantes) comme étant le produit scalaire du vecteur par les vecteurs de la base. On définit les composantes covariantes comme étant précisément ces projections.
      – oui et non : v et v^* sont généralement différents… sauf lorsque l’on utilise le produit scalaire usuel, c’est le seul cas où ils ont les mêmes composantes dans leur base canonique respective.
      – si ce n’est toujours pas clair, je t’invite à lire l’article simplifié. Même s’il est destiné aux débutants, j’en donne une explication plus visuelle.
      – En notant S la matrice de la forme bilinéaire associée au produit scalaire, on a v^*=Sv. Dans le cas usuel S est la matrice identité.
      Si tu demandais plutôt quelle est la signification de v^* dans le cas général, il faut retenir qu’une forme linéaire est aussi définie par le choix du produit scalaire… donc v^* est la forme linéaire spécifique qui entretient cette relation de dualité avec v.
      – Pour le produit scalaire usuel v^*=v donc oui <v^*,v>=<v,v>
      – Dans le cas général, attention aux notations ! le point ne nous indique pas quel produit scalaire on utilise… si on note <,>_S le produit scalaire général et <,> le produit scalaire usuel, alors <v^*,v>=<v,v>_S. Même chose, mais la norme à changé ^^
      J’espère que cela répond au moins en partie à tes questions !

    • Thomas
      Posted at 20:02h, 12 January

      merci beaucoup ! Très agréable à lire

    • Claude Peccoux
      Posted at 18:30h, 17 January

      Présentation claire et intelligente donc intelligible

    • Fred GILOT
      Posted at 23:56h, 01 March

      Tout d’abord un immense merci de tenter, autant que faire se peut, de rendre accessible au plus grand nombre des notions qui sont parfaitement inconnues pour beaucoup. Ça fait un moment que j’essaie de comprendre ce qu’est un tenseur, cet article, après d’autres, et quelques vidéos, m’a un peu éclairé. Mais je suis très loin d’en comprendre l’essence et évidemment encore moins la profondeur …
      Je suis le touriste qui regarde l’Everest de tout en bas quand d’autres montent à son sommet. C’est déjà magnifique de pouvoir admirer l’Everest, mais c’est aussi très frustrant de savoir qu’on ne l’escaladera jamais, et qu’il faudra se contenter à jamais de l’admirer de très loin …
      L’article est très bien fait et avec un réel désir de faire partager vos connaissances, noble tâche !
      Merci encore. Sincères salutations FG.

    • smahi h
      Posted at 15:30h, 19 September

      merci beaucoup pour l’effort de simplification du concept tenseur.

    • Ammar CHERBI
      Posted at 16:28h, 03 December

      J’ai lu pas mal d’articles au sujet des tenseurs, l’espace dual et les composantes covariantes et contra variantes mais ma soif du vrai sens physique de ces objet je l’ai retrouvé facilement dans votre article surtout avec les illustrations judicieuses

    • Dom Marro
      Posted at 08:09h, 18 May

      Salut Johann,
      En utilisant des images et des mots qui correspondent au style de ton article on peut dire :
      Pour un vecteur comme il a une existence intrinsèque il doit « compenser » avec ses composantes contravariantes les changements de longueur ou d’angle des vecteurs de la base (si j’utilise ton image dans l’article simple : pour que le mur ait une longueur constante alors il faut plus de briques si on change la taille des briques pour des plus petites et vice versa).
      Par contre dans l’article ci-dessus quand tu parles des composantes covariantes pourquoi tu n’utilises pas la même analogie dans E* avant de revenir dans E par isomorphisme ?
      En fait de la même manière que pour le vecteur, une forme linéaire est intrinsèque et doit donner la même valeur pour le même vecteur (lui aussi intrinsèque) lors d’un changement de base. Et si les coordonnées contravariantes du vecteur changent alors celles de la forme linéaire doivent changer aussi pour « compenser » elle aussi !
      Du coup si je diminue la taille de la base alors les composantes contravariantes augmentent pour compenser et exprimer le même vecteur intrinsèque (garder la même longueur en dimension 1) quand on multiplie cette composante par les vecteurs de la base et les composantes covariantes diminuent pour compenser et exprimer la même forme linéaire (même valeur) quand on multiplie ses composantes par les composantes contravariantes du vecteur.
      Effectivement ceci provient du fait que si la taille de ei varie alors la taille de ei* varie à l’inverse puisque ei*(ej)=delta ij
      Je trouve ce raisonnement plus symétrique que quand tu dis : « Ici, lors d’un changement de base, les composantes covariantes de la forme linéaire ne sont pas forcées à compenser”, elles varient comme la base »
      Qu’en penses-tu ?

    • Dom Marro
      Posted at 09:09h, 18 May

      Salut,
      Juste une remarque concernant le chapitre : lien entre vecteur et forme linéaire.
      Il me semble (mais à discuter bien sûr !) que tu risques d’embrouiller les gens quand tu mélanges produit scalaire et produit scalaire canonique !
      Par ex dans ta phrase :
      « Ce ne sera plus le cas si nous prenons un produit scalaire différent … Ils auront alors des composantes différentes dans la base canonique et donc également des composantes covariantes et contravariantes différentes dans une base orthonormée »
      Le mot orthonormée dans ta phrase se rapporte au produit scalaire usuelle et. non pas au produit scalaire que tu as défini sur l’espace !
      Je dirais juste que pour le produit scalaire que tu as défini la base canonique n’est pas orthonormée donc les composantes contravariantes et covariantes sont effectivement différentes sur cette base.

      De la même manière quand tu dis que l’isomorphisme entre E et E^* défini par le produit scalaire dépend de la base je ne suis pas d’accord !
      Ça n’est le cas que si tu changes de produit scalaire quand tu changes de base en prenant à chaque fois le produit scalaire canonique dans cette base !
      Mais ça n’est pas le but, sinon tu te retrouves dans le même cas que sans produit scalaire avec l’isomorphisme défini à partir de la base et de sa base duale et tu perds la notion d’isomorphisme dit canonique :)

    • Johann
      Posted at 13:10h, 18 May

      Bonjour,
      Oui tu as raison, cette phrase peut-être clarifiée un peu. En fait certes, tout comme un vecteur la forme linéaire ne dépend pas du choix de la base (contrairement à ses composantes) mais en revanche elle dépend du choix du produit scalaire. Donc “moins intrinsèque” qu’un vecteur du coup ;-)
      Je vais quand même reformuler ce passage, merci pour ton commentaire !

    • Johann
      Posted at 13:17h, 18 May

      Tu as raison, il est important de préciser à quel produit scalaire on fait référence en utilisant les termes “orthogonal” et “orthonormé”, je vais clarifier cela. En revanche pour le reste de ton commentaire, je ne suis pas d’accord : l’isomorphisme entre E et E^* dépend bien du choix de la base, puisque E^* est généré par la base duale qui est définie en fonction de la base choisie. Cela change les composantes des vecteurs duaux, sauf pour ses composantes “intrinsèques” définies dans la base canonique (celles-ci dépendent uniquement du choix du produit scalaire et pas de la base). Est-ce que j’ai été plus clair dans cette réponse ?
      Je n’ai pas compris tes deux dernières phrases en revanche ^^

    • Dom Marro
      Posted at 15:13h, 18 May

      Concernant le produit scalaire, pour clarifier je crois qu’il faut peut-être expliquer plus en détail certains ponts entre les espaces dont on parle et la géométrie des dessins qu’on fait.
      Quand tu dessines la base que tu appelles canonique c’est à dire deux flèches de longueur données, la même pour les deux et les deux vecteurs orthogonaux au sens de la géométrie de tous les jours et que tu dis que c’est une base orthonormée pour le produit scalaire usuel xx’+yy’ c’est en fait de toute façon vrai pour n’importe quels vecteurs de base que tu dessinerais n’importe comment pas uniquement ceux-là !
      Le fait que cette base soit canonique c’est que le produit scalaire usuel qui en découle (qui par définition fait de cette base une base orthonormée) a pour norme la longueur habituelle de R2 mesurée avec une règle mais c’est tout !

    • Dom Marro
      Posted at 16:40h, 18 May

      Pour le reste tu me dis si je me trompe mais je ne crois pas :
      Même sans produit scalaire, E est isomorphe à E^* et E est isomorphe à E^{**}.
      On peut construire un isomorphisme canonique entre E et E^{**} c’est à dire indépendant de toute base. A un vecteur x de E tu associes x^{**} vecteur de E^{**} donc forme linéaire sur E^* qui est définie par : pour tout vecteur u^* de E^* (forme linéaire sur E) x^{**}(u^*)=u^*(x).
      Cet isomorphisme est dit canonique car indépendant de la base choisie.
      C’est ce qui est joli entre E et E^{**} sans besoin de produit scalaire !
      D’ailleurs parfois on définit les tenseurs d’ordre n=p+q, p fois covariant et q fois contravariant comme les formes n-linéaires sur \underbrace{E\times \dots \times E}_\text{p fois} \times \underbrace{E^*\times \dots \times E^*}_\text{q fois}.
      Du coup les tenseurs d’ordre 1 contravariant sont les formes linéaires sur E^* donc les vecteurs de E grâce à l’isomorphisme canonique dont je parle ci-dessus.

      Le problème pour l’isomorphisme entre E et E^* c’est que sans produit scalaire il n’est pas canonique. On choisit une base e_i on définit e^i base de E^* par e^j(e_i)=\delta^j_i et on associe à x vecteur de E de composantes x^i sur e_i, le vecteur x^* de E^*, forme linéaire sur E de composantes x_i sur e^i.
      Et effectivement cet isomorphisme de E sur E^* dépend de la base e_i choisie. Donc ça n’est pas très joli ça n’est pas un isomorphisme canonique !

      Mais avec un produit scalaire sur E alors tu peux définir un isomorphisme indépendant de la base choisie et donc dit canonique.
      A tout vecteur x de E tu associes le vecteur x^* de E^* donc une forme linéaire sur E qui est définie par : Pour tout vecteur y de E : x^*(y)=\langle x,y\rangle
      Et là tu as un isomorphisme canonique
      Les composantes de x^* sur la base e^i sont les composantes covariantes de x mais x^* ne dépend pas de la base malgré les apparences car x^*(y)=\langle x,y\rangle=x_iy^i

    • Johann
      Posted at 17:45h, 19 May

      Tout à fait d’accord pour l’isomorphisme, tout est plus clair dans ton dernier commentaire. Je n’ai rien à ajouter !
      En ce qui concerne la représentation des bases et en particulier de la base canonique, c’est une question d’habitude pratique…
      En revanche je maintiens qu’il n’y a techniquement qu’une seule façon de représenter correctement une base orthonormée euclidienne. Ceci est lié au fait qu’en mathématiques, le produit scalaire est défini une seule fois et dans la base canonique. Le produit scalaire ne change jamais de base, seuls les vecteurs changent de base. Ainsi, pour le mathématicien, “écraser” une base consiste à effectuer un changement de base.
      A contrario en physique, il est courant (et tout à fait correct) de voir les choses autrement : n’importe quelle base peut être considérée comme orthonormée (même “écrasée”) en utilisant un produit scalaire différent dans cette base. Ainsi, pour le physicien, “écraser” une base consiste à changer de produit scalaire localement ou temporairement, un peu comme si on penchait une feuille de papier pour l’observer en perspective.
      Après le débat devient métaphysique : “la feuille de papier ne change pas de géométrie quand on la penche” dit le physicien. “Oui mais en effectuant cette opération, on modifie la géométrie que la feuille projette à nos yeux” répond le mathématicien…
      ;-)
      Merci encore pour tes commentaires très pertinents !

    • Dom Marro
      Posted at 17:53h, 19 May

      Merci à toi pour cette discussion et pour ces échanges riches en réflexions et merci pour ton résumé final qui me semble une bonne analyse des deux façons de voir dont on a parlé :)
      Bonne continuation
      A bientôt

    • Dom Marro
      Posted at 18:35h, 19 May

      Il y a juste une de tes phrases que je ne comprends pas bien :
      « En revanche je maintiens qu’il n’y a techniquement qu’une seule façon de représenter correctement une base orthonormée euclidienne. Ceci est lié au fait qu’en mathématiques, le produit scalaire est défini une seule fois et dans la base canonique »
      Pour moi ceci n’a rien à voir, un produit scalaire est défini sans la notion de base et surtout il n’y a pas de base canonique pour tous les EV. Ça c’est bien pour Rn ou Cn ou quelques autres où une sorte d’esthétique permet de faire ça
      On est d’accord que ce que tu appelles la base canonique de R2 ce sont les couples de réels (1 0) et (0 1 ).
      Je définis un produit scalaire à partir de cette base par u.v=2u1v1+3u2v2
      La base canonique n’est donc pas orthonormée donc si je te suis, tu ne la dessines pas comme d’habitude alors ?
      Ou alors tu ne dessines que des bases orthonormées mais alors tu dessineras une autre base mais qui ne représentera pas les couples (0 1) et (1 0) mais ça veut dire que le couple (1,2) n’aura pas 1 et 2 comme coordonnées contravariantes dans ta base orthonormée ?
      De ce que tu dis j’ai l’impression que tu ne peux définir qu’un seul produit scalaire sur R2 celui défini de manière classique sur la base des deux vecteurs (1 0) et (0 1)
      J’ajoute pour les autres lecteurs que Johann, que le problème avec Rn (Ce qui peut ajouter des difficultés à suivre cette discussion !) c’est qu’avec la base canonique (par ex pour R2) définie par e1=(0 1) et e2=(1 0) alors tout vecteur de R2, c’est à dire tout couple (x y) se « confond » avec son couple de coordonnées contravariantes !
      Ce qui n’arrive jamais avec des espaces vectoriels sur R dont les vecteurs ne sont pas les mêmes objets mathématiques que les coordonnées, à savoir des p-uplet de réels.
      En fait Rn a la bonne idée d’être un EV sur R ce qui simplifie certaines choses mais peut enlever de la vision générale quand on découvre le sujet et qu’on confond dans les calculs et les dessins tout espace vectoriel de dimension 1,2 ou 3 avec R, R2 ou R3 sous prétexte qu’il lui sont isomorphe…

      Par ex je pense que ce problème pourrait pousser certains à dire par erreur :
      « C’est évident que les coordonnées des vecteurs de la base sont (0 1) et (1 0) parce que c’est la définition d’une base ! »
      Mais quand on parle de base canonique de R2 valant (1 0) et (0 1) on ne parle pas des coordonnées des vecteurs de base mais des vecteurs de base eux-mêmes !
      Comme si on disait que les polynômes de la base canonique des fonctions polynômiales de degré 1 étaient f(x)=1 et f(x)=x

    • Dom Marro
      Posted at 19:02h, 19 May

      Et pour finir avec un peu d’humour ;)
      Je la trouve très dual ta phrase : « Après le débat devient métaphysique : “la feuille de papier ne change pas de géométrie quand on la penche” dit le physicien. “Oui mais en effectuant cette opération, on modifie la géométrie que la feuille projette à nos yeux” répond le mathématicien… »

      En général j’entends ce genre de trucs mais avec inversion des rôles dans la phrase entre le matheux et le physicien non ? ;)

    • Johann
      Posted at 20:25h, 19 May

      un produit scalaire est défini sans la notion de base

      oui

      il n’y a pas de base canonique pour tous les EV. Ça c’est bien pour Rn ou Cn ou quelques autres où une sorte d’esthétique permet de faire ça

      tout espace vectoriel de dimension finie est isomorphe à R^n donc il existe toujours une base faite de zeros et de un.
      Peu importe le produit scalaire que tu définis, la base canonique euclidienne reste elle-même, je ne la dessine pas autrement. Elle n’est bien sûre pas forcément orthonormée pour ton produit scalaire, elle l’est uniquement pour le produit scalaire euclidien usuel, il n’y a aucune contradiction là-dedans…

      avec la base canonique (par ex pour R2) définie par e1=(0 1) et e2=(1 0) alors tout vecteur de R2, c’est à dire tout couple (x y) se « confond » avec son couple de coordonnées contravariantes !

      Oui car la base duale de la base canonique est elle-même dans Rn (sous-entendu faites des zeros et un pareillement) donc dans la base canonique il n’y a pas de différence de composantes covariantes/contravariantes POUR LE PRODUIT SCALAIRE EUCLIDIEN USUEL (si on change de produit scalaire, les composantes seront différentes puisque les vecteurs v et v* seront alors différents).

      Ce qui n’arrive jamais avec des espaces vectoriels sur R dont les vecteurs ne sont pas les mêmes objets mathématiques que les coordonnées, à savoir des p-uplet de réels.

      Je ne comprends pas. On peut avoir des objets différents dans un espace vectoriel versus son dual et les faire pointer sur les mêmes n-uplets dans Rn aucune contradiction là-dedans. Dans un espace tangent à une variété différentielle les vecteurs de la base canonique peuvent être identifiés avec les dérivées partielles, alors que les vecteurs de la base duale canonique sont les 1-formes différentielles. Ce ne sont pas les mêmes objets, mais ils peuvent tous deux être associés à la base canonique dans Rn sans problème.

      Mais quand on parle de base canonique de R2 valant (1 0) et (0 1) on ne parle pas des coordonnées des vecteurs de base mais des vecteurs de base eux-mêmes !

      vecteurs de base eux-mêmes = coordonnées dans la base canonique elle-même.

    • Robin Lauff
      Posted at 07:46h, 25 January

      Bonjour. Passionné de sciences, étant “multi casquettes”, je ne peux qu’apprécier votre douce et résolue glissade hors des sentiers battus de l’éducation nationale.

      Ayant fait des études universitaires scientifiques (j’exerce le métier de directeur en stratégie IT), maintenant plutôt bercé a mon âge par les sciences humaines (je suis thérapeute et coach professionnel) et musicien a les heures perdues (piano jazz fusion), je ne peux qu’applaudir votre goût pour les mélanges de genre : alliance de l’humour, de la rigueur, de la simplicité non simpliste, de la volonté de transmettre un savoir, de la générosité a permettre l’accessibilité a ce qui parait souvent abscons, etc …. Bref …. Vous avez mon admiration pour vos qualités de vulgarisateur ….

      Continuez le plus loin possible nous avons tous besoin d’individus intelligents et humains comme vous

      Robin.

    • Franck Delplace
      Posted at 21:53h, 12 August

      en page 18, pourriez vous détailler comment vous calculez les composantes de la base duale. Merci d’avance et un grand merci pour le remarquable effort de pédagogie sur ce sujet souvent mal expliqué et donc rarement compris au fond.

    • Johann
      Posted at 09:04h, 13 August

      A partir de notre base de départ, et une fois que l’on a choisit le produit scalaire utilisé, la base duale est déterminée par la relation f^if_j=s^i_js^i_j sont les composantes du produit scalaire. S’il s’agit du produit scalaire usuel, comme c’est le cas page 18, nous avons f^if_j=\delta^i_j.
      Soit les équations f^1\begin{pmatrix}1\\0\end{pmatrix}=1, f^1\begin{pmatrix}\frac{1}{2}\\ \frac{\sqrt{3}}{2}\end{pmatrix}=0, f^2\begin{pmatrix}1\\0\end{pmatrix}=0, f^2\begin{pmatrix}\frac{1}{2}\\ \frac{\sqrt{3}}{2}\end{pmatrix}=1.
      D’où on obtient f^1=\begin{pmatrix}1 & -\frac{\sqrt{3}}{3}\end{pmatrix} et f^2=\begin{pmatrix}0 & \frac{2\sqrt{3}}{3}\end{pmatrix}.
      Merci pour votre commentaire
      PS : mes notations sont un peu abusives, f^i est le i-ème vecteur de la base duale, f_j le j-ème vecteur de la base vectorielle, et \delta^i_j le symbole de kronecker qui représente les composantes de la matrice associée au produit scalaire (usuel ici). Abusif mais pas insensé^^

    Post A Comment