Dans les cristaux, les électrons interagissent non seulement avec les atomes voisins immédiats, mais aussi avec ceux situés à des distances plus éloignées. Ces interactions, bien que faibles, jouent un rôle crucial dans la formation des bandes d'énergie et influencent profondément les propriétés électriques du matériau. Lorsqu'un électron se déplace à travers un cristal, il subit des perturbations dues à ces interactions, et cette perturbation se traduit par la scission des niveaux d'énergie discrets en bandes. Chaque électron peut se déplacer librement dans la bande où il réside, mais lorsqu'une transition vers une autre bande est nécessaire, la présence d'un écart d'énergie, appelé « gap », détermine si ce mouvement est possible.

L'effet de ces interactions peut être modélisé par une fonction d'onde atomique ϕo(r)\phi_o(r), représentant la fonction d'onde d'un électron dans un atome isolé. La contribution des voisins immédiats ρ=±a\rho' = \pm a peut être exprimée par une fonction d'onde perturbée ϕo(ra)\phi_o(r - a), avec aa étant la constante de réseau. L'interaction entre les atomes voisins entraîne une modification de l'énergie de l'électron en fonction de la distance entre eux. En effet, la largeur de la bande d'énergie Δϵ\Delta \epsilon dépend de cette interaction et augmente à mesure que la constante de réseau aa diminue, augmentant ainsi l'overlap des fonctions d'onde. Ce phénomène peut être illustré à l'aide d'un diagramme représentant les bandes d'énergie dans une chaîne unidimensionnelle d'atomes d'hydrogène, où la largeur de la bande augmente avec la diminution de la distance entre les voisins.

Ainsi, la présence des voisins immédiats perturbe l'énergie des électrons, la scindant en une gamme de valeurs possibles. En considérant uniquement l'interaction avec les voisins immédiats, on peut calculer la largeur de la bande d'énergie, mais pour une approximation plus précise, il est nécessaire d'inclure également l'interaction avec les voisins de second ordre, voire avec des voisins plus éloignés. Cependant, les contributions provenant de ces interactions plus distantes sont souvent négligeables, car le produit de la fonction d'onde ϕo(rρ)\phi_o^*(r - \rho') et de la fonction d'onde ϕO(r)\phi_O(r) décroît rapidement avec l'augmentation de ρ\rho', ce qui diminue l'importance de ces interactions pour les électrons.

Dans un autre cadre théorique, l'approximation de l'électron quasi-libre, introduite par Rudolf E. Peierls, prend en compte le cas où l'électron est presque libre et où l'impact du potentiel périodique du cristal est faible. Dans ce modèle, les électrons se propagent comme des ondes de matière, libres de se déplacer à travers le cristal, sauf lorsque ces ondes rencontrent une réflexion de Bragg à la frontière de la zone de Brillouin. À ce moment-là, les électrons subissent un retournement de leur vecteur d'onde, créant ainsi des conditions où certaines valeurs d'énergie sont interdites. Cela aboutit à la formation de bandes d'énergie distinctes, séparées par des intervalles où les électrons ne peuvent pas exister.

L'apparition de ces interdictions d'énergie, les « gaps », est cruciale pour comprendre la conductivité électrique des cristaux. Si un cristal a des bandes d'énergie complètement remplies, il devient un isolant, car les électrons ne peuvent pas se déplacer pour conduire un courant électrique. En revanche, si une bande est partiellement remplie, comme c'est le cas dans un métal, les électrons peuvent être redistribués sous l'influence d'un champ électrique, permettant ainsi la conduction. Le modèle de Wilson de 1931 a clarifié cette distinction, expliquant que la conductivité d'un matériau dépend non seulement de la structure des bandes d'énergie mais aussi de la présence ou de l'absence de gaps entre ces bandes. Un matériau est un conducteur électrique si la bande d'énergie est partiellement remplie, un semi-conducteur si une petite quantité d'énergie est nécessaire pour exciter les électrons vers une bande vide proche, et un isolant si une grande différence d'énergie existe entre la bande remplie et la suivante.

Le concept de « gap » joue donc un rôle fondamental dans la détermination des propriétés électriques des cristaux. Il existe un seuil critique, au-delà duquel un matériau cesse de conduire l'électricité et devient un isolant. Ce phénomène est particulièrement important lorsqu'on analyse des transitions de phases, telles que celles observées dans les semi-conducteurs ou lors du passage d'un conducteur à un isolant sous l'influence de facteurs externes, comme la température ou la pression.

En outre, il est essentiel de prendre en compte que les perturbations dues à la structure périodique du cristal ne sont pas homogènes dans toutes les directions. L’orientation des cristaux et les variations dans la structure du réseau peuvent également affecter la largeur des bandes et les gaps d'énergie, influençant ainsi la conductivité électrique dans des configurations spécifiques. Ce sont ces détails qui expliquent la diversité des comportements électriques observés dans différents matériaux cristallins et qui rendent cette théorie si fondamentale pour la physique des matériaux.

Les Cylindres de Landau et l'Effet de de Haas–van Alphen : Une Exploration des États Électroniques en Présence de Champs Magnétiques Intenses

Dans l'absence de champ magnétique, l'espace tridimensionnel des vecteurs d'onde, ou k-espace, est uniformément rempli d'états disponibles à occuper. Cependant, lorsque l'on applique un champ magnétique, la quantification de l'énergie, selon les théories de Landau, conduit à une redistribution des états sur une série de « cylindres de Landau » coaxiaux. Les états occupables sont désormais confinés à ces cylindres, dont l'axe est orienté dans la direction du vecteur d'onde kZ, c'est-à-dire dans la même direction que celle du champ magnétique. La distance énergétique entre deux cylindres successifs de Landau est de l'ordre de 𝜔c, une quantité qui croît proportionnellement à l'intensité du champ magnétique B. À des champs magnétiques élevés, cette distance énergétique devient relativement grande. Par exemple, à un champ de B = 1 T, on obtient une valeur typique 𝜔c ≈ 10⁻⁴ eV, comme illustré dans la figure 7.2.

L'observation de cette quantification d'énergie selon Landau nécessite cependant que les orbites circulaires des électrons dans le champ magnétique ne soient pas perturbées par des processus de collision. En d'autres termes, les électrons doivent pouvoir parcourir leurs orbites sans être déviés ou diffusés au moins une fois. Puisque le nombre de collisions, notamment avec les phonons, diminue fortement à mesure que la température baisse, des températures aussi basses que possible sont requises pour l'observation expérimentale de cette structure quantique. De plus, des températures faibles garantissent que l'énergie thermique kBT soit bien inférieure à la distance énergétique 𝜔c entre deux cylindres de Landau voisins, afin que cette structure quantique ne soit pas floutée par l'énergie thermique. Enfin, l'utilisation de cristaux uniques d'une pureté maximale est indispensable. Pour que la manifestation des cylindres de Landau soit nette et observable, il est essentiel que ces conditions soient remplies : ωcτ > 1 et kBT < 𝜔c.

En 1930, Landau avait pressenti que, en raison de la quantification de l'énergie des électrons de conduction dans un champ magnétique, les propriétés macroscopiques des matériaux, comme le diamagnétisme, devraient afficher une oscillation parfaitement périodique en fonction de l'intensité du champ magnétique. Cependant, il estimait que les critères de pureté requis ne pourraient pas être atteints avec les matériaux d'échantillon disponibles, ce qui rendrait l'effet inobservable. Contrairement aux craintes de Landau, ces oscillations du diamagnétisme ont été observées pour la première fois en 1930 dans des cristaux uniques de bismuth par les chercheurs néerlandais Wander Johannes de Haas et Pieter M. van Alphen, à Leiden. Cet effet est désormais appelé effet de de Haas–van Alphen. Peu après, Rudolf E. Peierls a apporté une contribution significative à la clarification théorique de cet effet.

Un progrès théorique majeur a été réalisé par Lars Onsager au cours de l'année académique 1950/1951. Il a insisté sur l'interprétation géométrique de la surface de Fermi dans l'espace k tridimensionnel des vecteurs d'onde. Il a montré que seules les sections extrêmes de la surface de Fermi, prises perpendiculairement à la direction du champ magnétique B, contribuent à cet effet. Les contributions des autres parties de la surface de Fermi sont annulées. La période des oscillations de de Haas–van Alphen est inversement proportionnelle à la section extrême de la surface de Fermi, c'est-à-dire proportionnelle à la plus grande et à la plus petite section, ces sections extrêmes étant perpendiculaires à la direction du champ magnétique. Ce phénomène a été examiné plus en détail par la suite à travers les notions de masse cyclotronique mc et de fréquence cyclotronique 𝜔c.

On peut exprimer la fréquence cyclotronique inverse sous la forme ∮ 2π/𝜔c = dk, où ∣k∣ et v⊥(k) sont liés par la force de Lorentz. Ces relations permettent de déduire que la masse cyclotronique mc dépend de l'énergie des orbites des électrons dans l'espace k, et que la quantification des orbites en k-espace est équivalente à celle du flux magnétique. L'aire A en k-espace, liée à l'aire F en espace régulier, joue également un rôle essentiel dans la détermination des propriétés magnétiques du système.

En pratique, les oscillations de de Haas–van Alphen se manifestent sous forme d'une périodicité exacte lorsque l'intensité du champ magnétique B est inversée. Ces oscillations apparaissent clairement dans la dépendance de la magnétisation M en fonction du champ magnétique, ce qui permet d'observer la contribution des niveaux de Landau dans la structure électronique du matériau. Ces oscillations sont décrites par des relations qui lient le champ magnétique, la section extrême de la surface de Fermi et d'autres paramètres fondamentaux du système, comme l'aire des orbites électroniques en k-espace.

Les implications de ces phénomènes vont au-delà de l'observation des oscillations elles-mêmes. Elles révèlent des informations profondes sur la structure électronique des matériaux et sur les interactions entre les électrons et le champ magnétique. De plus, elles ouvrent la voie à une meilleure compréhension de la topologie de la surface de Fermi et de ses propriétés géométriques, lesquelles influencent directement les propriétés physiques et magnétiques des matériaux dans des conditions extrêmes.

Les Nanotubes de Carbone et le Graphène : De la Conduité Électrique aux Nouvelles Technologies

Les nanotubes de carbone, avec leurs dimensions nanométriques de l'ordre de 100 nm, révèlent des effets fascinants qui influencent de manière significative les propriétés de transport électriques. Par exemple, la résistance électrique d'un objet peut être profondément modifiée par la présence ou l'absence d'un seul électron, un phénomène observable à cause des dimensions incroyablement petites de l'objet. Cela suscite un intérêt croissant de la part des grandes entreprises du secteur de l'informatique, qui voient dans ces matériaux un potentiel pour remplacer, à moyen terme, le silicium, encore largement utilisé, mais coûteux, comme substrat dans la technologie des semi-conducteurs. En effet, les nanotubes de carbone présentent une conductivité électrique extrêmement élevée et sont capables de supporter des densités de courant bien supérieures à celles des fils en cuivre, qui fondraient bien avant d'atteindre de telles intensités. Cette propriété leur permet de supporter des niveaux de puissance électrique et des fréquences de fonctionnement bien plus élevés que les conducteurs en cuivre. Un autre aspect intéressant des nanotubes réside dans leur capacité à être ouverts aux deux extrémités, permettant ainsi d'y insérer des molécules d'autres substances. Cela ouvre des possibilités pour utiliser ces nanotubes comme des transporteurs de matériaux variés, ce qui pourrait avoir des applications révolutionnaires dans plusieurs domaines de la nanotechnologie.

Le graphène, obtenu par la découpe de la paroi d'un nanotube de carbone et son déploiement dans un plan bidimensionnel, est un matériau à la fois d'une grande simplicité et d'une grande complexité. Il ne comporte qu'une seule couche d'atomes de carbone arrangés selon une structure en nid d'abeille. La découverte de ses propriétés uniques, réalisée en 2004 par Andre Geim et Konstantin Novoselov, a marqué un tournant majeur dans le domaine des matériaux. En utilisant un simple ruban adhésif, ils ont réussi à séparer une couche d'atomes de graphite pur et à la transférer sur un substrat, permettant ainsi l'étude de flocons de graphène à une seule couche atomique. Cette découverte a engendré une compétition internationale acharnée, avec plus de 5000 publications sur le graphène entre 2005 et 2009.

La particularité du graphène réside dans sa structure électronique : dans son état non dopé, l'énergie des électrons augmente linéairement avec leur nombre d'ondes, contrairement aux matériaux tridimensionnels, où cette relation est quadratique. Cette différence signifie que les porteurs de charge dans le graphène se comportent comme des particules relativistes sans masse, obéissant à l'équation de Dirac plutôt qu'à l'équation de Schrödinger. Les électrons du graphène, bien qu'ils soient soumis à un champ magnétique, se déplacent à des vitesses proches de celle de la lumière. Ce phénomène est une caractéristique fondamentale du matériau, et il permet de contrôler la concentration des porteurs de charge, modifiant ainsi ses propriétés conductrices.

Les recherches sur le graphène ont récemment pris une tournure intrigante, notamment avec l’étude des couches doubles et multiples de graphène. Une découverte importante a été faite en 2018 par le groupe de P. Jarillo-Herrero au MIT, concernant l'orientation cristallographique des couches de graphène entre elles. Lorsqu'elles sont légèrement tordues, ces couches génèrent un motif de Moiré, une sorte de super-réseau périodique, modifiant radicalement la structure de bande électronique du graphène. À un angle particulier, appelé « angle magique » (1,1°), les cônes de Dirac des couches superposées se sont aplatis, formant une bande d'énergie ultra-plate avec une densité d'états exceptionnellement élevée. Cette configuration a permis de découvrir de nouveaux états électroniques, allant des isolants aux conducteurs, et dans certains cas, des supraconducteurs.

L'angle magique a également permis d'observer une transition vers des phases magnétiques et des états de bord topologiques, en fonction de la densité de porteurs de charge. La supraconductivité, avec une température critique atteignant 5 K, offre de nouvelles perspectives pour le développement de technologies de pointe. Ces recherches ont ouvert la voie à l'exploration de nombreuses autres structures de matériaux bidimensionnels, tels que les disulfures de transition-métal (MoS₂, MoSe₂), les oxydes de transition-métal et même les isolants topologiques comme le Bi₂Te₃ et le Sb₂Se₃, qui partagent certaines similitudes avec le graphène en termes de structure électronique.

L'application du graphène ne se limite pas à ses propriétés électroniques. Ce matériau présente également des caractéristiques mécaniques exceptionnelles, notamment une dureté supérieure à celle du diamant, ce qui ouvre la voie à des utilisations dans des matériaux composites d'une robustesse inédite. De plus, les super-réseaux à structure de nid d'abeille, inspirés du graphène, ont suscité un intérêt croissant. Des recherches expérimentales et théoriques ont été menées sur des super-réseaux bidimensionnels composés de nano-cristaux de HgTe, fabriqués par la méthode colloïde-chimique. Bien que certaines études sur les oscillations de Bloch et la résistance différentielle négative n'aient pas encore été réalisées, ces travaux pourraient potentiellement mener à des applications révolutionnaires dans la nanoélectronique.

Le développement de nouvelles couches de graphène et leur superposition avec des angles de torsion variés ouvrent encore des perspectives fascinantes. Cela va au-delà de la simple exploration des propriétés de ces matériaux ; cela inaugure une nouvelle ère dans les nanotechnologies, où la possibilité de manipuler des matériaux à l'échelle atomique pourrait engendrer des avancées spectaculaires dans des domaines allant de l'électronique à la supraconductivité, en passant par les matériaux composites.

Les Défectuosités dans les Cristaux: Utiles ou Nocives?

Les matériaux cristallins et métalliques, lorsqu’ils sont soumis à des radiations, peuvent souffrir de dommages importants. Ce phénomène a acquis une dimension pratique considérable dans le domaine de la physique et de la science des matériaux. L’une des premières préoccupations théoriques à ce sujet fut celle d'Eugène Paul Wigner, un physicien théorique d’origine hongroise également formé en ingénierie chimique. Il craignait que les neutrons énergétiques générés par les réacteurs nucléaires ne provoquent une concentration dangereusement élevée de défauts dans le graphite utilisé pour ralentir ces neutrons, ce qui pourrait entraîner une réaction explosive. Cette inquiétude fut partagée par Leo Szilard, un autre scientifique hongrois, qui allait jouer un rôle clé dans la lettre d'Albert Einstein au président américain Franklin D. Roosevelt, avertissant de la menace d'une bombe atomique en pleine construction par le régime nazi.

La recherche en matière de défectuosités et de dommages dus aux radiations dans les cristaux et les matériaux métalliques a donc rapidement pris une importance capitale. Ces recherches, menées par des figures comme Frederick Seitz, ont permis de déterminer des valeurs précises concernant les effets de ces défauts sur les matériaux utilisés dans les réacteurs nucléaires. Par exemple, dans le cas d’un réacteur à neutrons rapides en fonctionnement pendant 10 ans, il est estimé que chaque atome du réseau cristallin est expulsé en moyenne 340 fois de sa position dans le réseau vers une position interstitielle, et ce, à chaque cycle de radiation. Ce phénomène est crucial pour comprendre l’usure des matériaux sous l’effet de radiations, ce qui est directement lié à la longévité et à la sécurité des installations nucléaires.

Parallèlement, un autre domaine où les défauts dans les cristaux jouent un rôle crucial est celui des semi-conducteurs, où des défauts artificiellement générés ou causés par des impuretés chimiques dans la structure cristalline influencent fortement les propriétés électriques. De même, dans les supraconducteurs, des centres de piégeage créés par des défauts locaux dans le réseau cristallin jouent un rôle déterminant en empêchant le mouvement des lignes de flux magnétique quantifié, ce qui améliore considérablement l’efficacité énergétique en réduisant les pertes thermiques lors de la circulation du courant électrique.

Les défauts peuvent donc avoir une fonction bénéfique, et ce, bien que leur présence dans une structure cristalline puisse généralement être perçue comme un affaiblissement des propriétés mécaniques du matériau. Ce paradoxe devient particulièrement manifeste dans l’étude de la résistance mécanique des matériaux, où des défauts jouent parfois un rôle dans l’amélioration de cette résistance. En effet, l’histoire des matériaux métalliques sous contrainte commence avec les travaux de Robert Hooke au XVIIe siècle. Son étude des déformations élastiques des métaux sous charge mécanique aboutit à la formulation de la célèbre loi de Hooke, qui établit une relation linéaire entre la déformation élastique et la force appliquée. Cette loi permet de calculer la stabilité des structures métalliques et a conduit à la construction de la première passerelle entièrement en fer près de Birmingham en 1779, un exploit qui a permis à cette passerelle de supporter le trafic routier pendant 170 ans.

Cependant, l’étude des métaux ne s’est pas limitée à leur comportement élastique. À mesure que l’on comprenait mieux la structure cristalline des métaux, il est devenu évident que l’on ne pouvait pas se contenter d’étudier le comportement élastique dans des termes macroscopiques. L’étude de la déformation des métaux, surtout lors de processus comme le roulage ou le forgeage, nécessitait de prendre en compte la structure microscopique des matériaux. Au début du XXe siècle, des recherches pionnières menées par Hermann Francis Mark, Michael Polanyi et E. Schmid ont montré que la déformation des métaux se produit par le glissement de parties du cristal le long de plans de glissement spécifiques, un phénomène influencé par la structure cristalline elle-même.

Au fur et à mesure que les recherches avançaient, des résultats inattendus apparurent. On remarqua que les métaux devenaient plus résistants à la déformation au fur et à mesure de l’application de contraintes. Les chercheurs supposaient donc que des défauts étaient générés dans la structure cristalline pendant la déformation, et ces défauts rendaient la déformation ultérieure plus difficile. Cependant, les calculs théoriques du niveau de tension mécanique nécessaire pour commencer à déplacer les plans du cristal révélaient des valeurs bien supérieures à celles observées expérimentalement. Le concept théorique de la plasticité des métaux devait donc être révisé.

Trois scientifiques – Michael Polanyi, Sir Geoffrey Taylor et Egon Orowan – ont publié indépendamment en 1934 des travaux fondamentaux qui ont permis de résoudre cette énigme. Ils ont proposé un modèle dans lequel des défauts locaux se déplacent à travers le réseau cristallin et provoquent le glissement de grandes parties du cristal les unes par rapport aux autres. Ce mécanisme a permis d’expliquer pourquoi une petite cause, comme le déplacement d’un défaut, pouvait provoquer une déformation plastique significative d'un cristal. Leurs travaux ont permis de développer une compréhension plus approfondie de la plasticité des matériaux et de leur comportement sous contrainte.

Ainsi, les défauts dans les cristaux ne sont pas simplement des imperfections, mais peuvent aussi jouer un rôle crucial dans les propriétés mécaniques et électriques des matériaux. Comprendre cette dualité est essentiel pour la conception et le développement de nouveaux matériaux, qu'il s'agisse de matériaux utilisés dans des réacteurs nucléaires, des semi-conducteurs ou des supraconducteurs. De plus, cette compréhension a ouvert la voie à des technologies nouvelles, comme les alliages à haute résistance ou les matériaux avec des propriétés électriques spécifiques.