1. Le principe d'incertitude de Heisenberg

    2016-03-02
    Source

    (latest update : 2016-03-02 16:58:33)

    Cet article fait suite à l’introduction aux probabilités quantiques. Nous y avons vu que le résultat moyen (l’espérance) de la mesure d’un observable \(A\) lorsque le système est dans l’état \(\psi\) est \[ E_\psi(A) = \langle \psi, A\psi \rangle. \] Intéressons-nous maintenant à la variance de la mesure, que nous notons \({\mathrm{Var}}_\psi(A)\). Écrivons
    \[ A = \alpha_1P_1 + \cdots + \alpha_rP_r, \] la décomposition spectrale d’un observable \(A\). Nous avions remarqué dans le précédent article que, en vertu du théorème de décomposition spectrale, on a alors \[ g(A) = g(\alpha_1)P_1 + \cdots + g(\alpha_r)P_r \] pour toute fonction polynomiale \(g\) (et \(g(A)\) est alors bien une matrice auto-adjointe). Donc \[ A^2 = \alpha_1^2P_1 + \cdots + \alpha_r^2P_r \] et l’espérance du carré du résultat de la mesure de \(A\) est alors \(E_\psi(A^2)\). Donc \[ {\mathrm{Var}}_\psi(A) = E_\psi(A^2) - {\bigl(E_\psi(A)\bigr)}^2. \] Le lecteur est supposé connaître les deux expressions classiques de la variance d’une variable aléatoire. On peut aussi introduire un observable qui prend les valeurs \({\bigl(\alpha_i - E_\psi(A)\bigr)}^2\), et \({\mathrm{Var}}_\psi(A)\) est alors l’espérance (“sous \(\psi\)”) de cet observable. Celui-ci est simplement \(\tilde A^2\)\[ \tilde A = A - E_\psi(A)I \] est à nouveau une fonction polynomiale de \(A\), ainsi que son carré \(\tilde A^2\). Ainsi, \[ {\mathrm{Var}}_\psi(A) = E_\psi(\tilde A^2) = \langle \psi, \tilde A^2\psi \rangle = \langle \tilde A\psi, \tilde A\psi \rangle = {\Vert \tilde A \psi \Vert}^2. \]

    Le principe d’incertitude de Heisenberg est une relation entre les variances \({\mathrm{Var}}_\psi(A)\) et \({\mathrm{Var}}_\psi(B)\) des mesures de deux observables \(A\) et \(B\). C’est un théorème qui se déduit du principe de Born. Nous allons montrer comment y parvenir.

    Introduisons un second observable \(B\) et, de même que pour \(A\), la matrice \(\tilde B = B - E_\psi(B)I\). La matrice \(\tilde A \tilde B\) n’est pas auto-adjointe en général, mais on peut l’écrire \[ \tilde A \tilde B = G + {\mathrm{i}}H \] où les matrices \[ G = \frac{\tilde A \tilde B + \tilde B \tilde A}{2} \quad \text{et }\; H = \frac{\tilde A \tilde B - \tilde B \tilde A}{2{\mathrm{i}}} = \frac{AB - BA}{2{\mathrm{i}}} \] sont auto-adjointes. On a alors \[ \langle \psi, \tilde A \tilde B \psi \rangle = \langle \psi, G \psi \rangle + {\mathrm{i}}\langle \psi, H \psi \rangle \] et, du fait que \(\langle \psi, G \psi \rangle\) et \(\langle \psi, H \psi \rangle\) sont des nombres réels, \[ {\bigl| \langle \psi, \tilde A \tilde B \psi \rangle \bigr|}^2 = {\bigl| \langle \psi, G \psi \rangle \bigr|}^2 + {\bigl| \langle \psi, H \psi \rangle \bigr|}^2, \] ce dont on déduit \[ \bigl| \langle \psi, H \psi \rangle \bigr| \leq \bigl| \langle \psi, \tilde A \tilde B \psi \rangle \bigr| = \bigl| \langle \tilde A \psi, \tilde B \psi \rangle \bigr|. \] D’autre part, l’inégalité de Cauchy-Schwarz donne \[ \bigl| \langle \tilde A \psi, \tilde B \psi \rangle \bigr| \leq \Vert \tilde A\psi\Vert \Vert \tilde B \psi \Vert = \sqrt{{\mathrm{Var}}_\psi(A)} \sqrt{{\mathrm{Var}}_\psi(B)}. \] En combinant ces deux inégalités, et en notant \(\sigma_\psi(\cdot)=\sqrt{{\mathrm{Var}}_\psi(\cdot)}\), nous obtenons :

    Principe d’incertitude de Heisenberg
    \(\sigma_\psi(A)\sigma_\psi(B) \geq \bigl| \langle \psi, H \psi \rangle \bigr| \quad \text{où } H = \dfrac{AB - BA}{2{\mathrm{i}}}.\)

    Interprétation du principe

    Ce principe est parfois interprété comme une impossibilité de mesurer deux quantités avec exactitude. Cette interprétation n’est pas correcte. Le principe donne un minorant du produit des écarts-type \(\sigma_\psi(A)\) et \(\sigma_\psi(B)\). Il est donc pertinent dans la situation où on effectue un grand nombre de fois les mesures de \(A\) et de \(B\) lorsqu’à chaque fois, le système est dans l’état \(\psi\). Le principe n’a aucune pertinence dans le cas de mesures successives ou simultanées de \(A\) et de \(B\).

    Référence

    • Williams D: Weighing the Odds: A Course in Probability and Statistics. Cambridge University Press, 2001.