Les constituants atomiques ou moléculaires d'un solide sont toujours en interaction attractive, principalement par des forces électrostatiques entre les électrons et les noyaux atomiques positivement chargés. Les forces gravitationnelles et nucléaires n'ont aucune importance dans ce contexte. Lorsqu'un solide est formé, l'énergie totale de tous ses constituants est toujours inférieure à celle des atomes ou molécules séparés, en raison des interactions mutuelles entre les particules. L'énergie correspondante représente l'énergie de liaison.
Il existe plusieurs types de liaisons dans les solides : la liaison de Van der Waals, la liaison ionique, la liaison covalente, la liaison métallique et la liaison hydrogène. Chaque type de liaison présente des caractéristiques particulières et influence fortement les propriétés des matériaux.
La liaison de Van der Waals est une interaction faible qui se produit entre des atomes ayant des couches électroniques complètes, comme les gaz nobles. Ces atomes sont difficilement ionisables et, bien qu'en état stationnaire, le champ électrique extérieur soit nul, le mouvement des électrons externes entraîne des fluctuations qui créent un moment dipolaire temporaire. Ce dipôle induit un autre dipôle dans un autre atome, générant une attraction électrostatique. L'énergie de cette liaison décroît très rapidement avec la distance entre les atomes, selon une loi en R⁻⁶, mais à des distances très petites, une répulsion apparaît en raison du chevauchement des couches électroniques. L'énergie de liaison dans ce cas est de l'ordre de 10⁻² eV et affecte des matériaux qui fondent à des températures relativement basses (environ 100 K).
Les cristaux ioniques, comme le sel de table (NaCl), sont constitués d'ions positifs et négatifs disposés en un réseau cristallin, où l'attraction Coulombienne entre les charges opposées domine la répulsion entre charges similaires. La force de la liaison ionique est beaucoup plus forte que celle de Van der Waals, et elle varie avec la distance selon une loi R⁻¹. Cela donne des interactions à longue portée, caractéristiques des cristaux ioniques. L'énergie de liaison dans ces cristaux peut être significativement élevée (environ 5 eV pour le NaCl) et joue un rôle clé dans les propriétés de ces matériaux. La dépendance à la distance de l'interaction indique que l'énergie de liaison reste importante même à des distances relativement grandes, ce qui donne des interactions à longue portée.
La liaison covalente, quant à elle, représente un type de liaison très important en chimie, notamment en chimie organique. Dans les solides covalents, comme le diamant, les atomes partagent des électrons pour former une liaison forte et directionnelle. Cette directionnalité est particulièrement visible dans les structures tétraédriques, comme celles du carbone, du silicium et du germanium. La liaison covalente est la plus forte des liaisons courantes et confère au matériau une grande stabilité, mais elle requiert une structure précise des atomes pour se manifester pleinement. Par exemple, dans le diamant, la liaison covalente entre deux atomes de carbone atteint une énergie de 7,3 eV, une valeur qui est extrêmement élevée pour une liaison chimique.
Les cristaux métalliques présentent un type particulier de liaison dans laquelle les électrons sont délocalisés, créant un "nuage" électronique qui se déplace librement entre les atomes métalliques. Cela permet aux métaux de conduire l'électricité et la chaleur, tout en leur conférant des propriétés mécaniques particulières. Les électrons libres expliquent la malléabilité et la conductivité des métaux, qui diffèrent des matériaux ayant des liaisons plus rigides comme les cristaux covalents.
Enfin, la liaison hydrogène, bien qu'elle soit plus faible que les autres types de liaisons, joue un rôle crucial dans des phénomènes biologiques et chimiques, tels que la stabilité des structures de l'ADN ou les propriétés de l'eau. Elle survient lorsque des atomes d'hydrogène, liés à des atomes très électronégatifs comme l'oxygène ou l'azote, interagissent avec d'autres atomes électronégatifs. Bien que cette interaction soit plus faible que les autres types de liaisons, elle reste suffisamment forte pour influencer la structure et les propriétés de nombreux composés.
Ces différents types de liaisons chimiques et leur intensité relative expliquent les propriétés variées des solides et des cristaux. La structure de liaison détermine non seulement la stabilité et la force du matériau, mais aussi des aspects comme sa conductivité, son point de fusion et ses propriétés mécaniques. Par exemple, les matériaux covalents comme le diamant sont extrêmement solides, tandis que les matériaux ioniques comme le sel de table sont souvent fragiles mais solubles dans l'eau.
Il est essentiel de comprendre que ces types de liaisons ne sont pas isolés les uns des autres dans la réalité. Les solides peuvent combiner différents types de liaisons, influençant ainsi des propriétés qui ne peuvent être appréhendées par une seule approche. Par exemple, certains matériaux montrent des comportements de transition entre la conduction métallique et l'isolant, ce qui est dû à une combinaison complexe de liaisons métalliques et covalentes.
Comment les métaux réagissent aux phénomènes thermoélectriques : loi de Mathiessen et effets Peltier et Seebeck
Les phénomènes thermoélectriques sont au cœur de la compréhension de la conduction électrique dans les métaux, mais aussi dans des matériaux plus complexes. Les mécanismes sous-jacents à ces phénomènes sont largement gouvernés par les principes de la physique quantique, qui imposent des limites strictes sur le transport des charges et la façon dont les électrons interagissent avec leur environnement. En particulier, deux effets majeurs, le Peltier et le Seebeck, permettent de comprendre comment un gradient de température peut influencer un courant électrique dans des conducteurs différents.
La résistance électrique d'un métal, en fonction de la température, peut être expliquée en partie par la loi de Mathiessen. Selon cette loi, la résistance totale d'un matériau à un courant électrique peut être vue comme la somme de contributions distinctes de différents mécanismes de résistance. Cette additivité des mécanismes de résistance, notamment celle des phonons, des défauts du réseau, et d’autres processus de diffusion, permet de décomposer la résistance en facteurs plus simples. À température ambiante, c'est principalement l'interaction des électrons avec les phonons (vibrations atomiques dans le réseau) qui domine. Mais à des températures suffisamment basses, la contribution des phonons devient négligeable, et la résistance résiduelle, qui est indépendante de la température, devient prédominante. Cette résistance résiduelle est un indicateur précieux de la pureté d'un métal, car elle est généralement très faible dans les métaux de haute pureté, pouvant être plusieurs centaines voire milliers de fois plus petite que la résistance mesurée à température ambiante.
Cependant, lorsque des influences externes simultanées, comme un champ électrique et un gradient de température, agissent sur un conducteur, de nouveaux phénomènes apparaissent. Le phénomène thermoélectrique est l'un d'entre eux, où un courant électrique non seulement transporte de la charge, mais aussi de la chaleur, générant ainsi un effet de chauffage ou de refroidissement à l'endroit où les conducteurs se rencontrent. Le premier effet que nous rencontrons dans ce contexte est l'effet Peltier. Lorsqu'un courant électrique traverse une jonction de deux matériaux différents, une différence de transport thermique des électrons peut générer un effet thermique localisé. En fonction de la direction du courant, ce phénomène peut provoquer un chauffage ou un refroidissement à la jonction des conducteurs. Cet effet a été découvert en 1834 par le physicien français Jean-Charles Athanase Peltier. Bien que ce phénomène soit intéressant en théorie, il est relativement faible dans les métaux, surtout à des températures standards, ce qui limite son utilisation dans les applications cryogéniques. La faible ampleur de cet effet dans les métaux découle de la restriction imposée par la statistique quantique, où seule une petite fraction des électrons (proportionnelle à kBT/εF) participe effectivement au transport de chaleur et de charge.
L'effet Seebeck, découvert en 1821 par le physicien allemand Thomas Johann Seebeck, est un autre phénomène thermoélectrique fondamental. Contrairement à l'effet Peltier, qui dépend de la direction du courant, l'effet Seebeck résulte d'un gradient de température appliqué à un conducteur. Sous l'effet de ce gradient, les électrons mobiles se déplacent du côté chaud vers le côté froid du conducteur, créant une accumulation de charges électriques de signes opposés à chaque extrémité du conducteur. Cette accumulation génère une différence de potentiel, appelée « tension thermoélectrique ». Cette tension est directement proportionnelle à la différence de température entre les deux extrémités du conducteur. Cet effet, utilisé dans des thermomètres thermoélectriques, permet de mesurer la température avec une grande précision, à condition qu'une extrémité soit parfaitement connue.
À l'instar de l'effet Peltier, l'effet Seebeck repose sur le principe de la diffusion thermique, où des particules transportent leur énergie thermique en fonction du gradient de température. Ce phénomène est fondamental non seulement pour la compréhension des propriétés des métaux, mais aussi pour des applications comme la séparation isotopique et les systèmes de conversion d'énergie, où les propriétés thermoélectriques des matériaux peuvent être exploitées pour générer de l'électricité à partir de la chaleur, ou pour effectuer des mesures de température extrêmement précises.
Les applications pratiques de ces phénomènes sont multiples. Dans le domaine de la cryogénie, bien que l'effet Peltier ne soit pas suffisamment intense pour être utilisé à grande échelle, il reste essentiel dans les dispositifs à petite échelle. L'effet Seebeck, quant à lui, est largement utilisé dans des dispositifs de mesure de température et dans la conversion de chaleur en électricité, notamment dans les générateurs thermoélectriques. Cependant, il est crucial de comprendre que ces effets sont liés à la structure électronique du matériau, en particulier la géométrie de la surface de Fermi et les processus de collision des électrons, qui doivent être pris en compte pour optimiser ces phénomènes dans des applications pratiques.
Endtext
Comment la température affecte la conductivité électrique des semi-conducteurs intrinsèques
La conductivité électrique des semi-conducteurs présente une caractéristique fascinante : elle augmente fortement avec la température. Ce comportement contraste radicalement avec celui des métaux, comme nous l'avons vu dans le chapitre 5. En effet, la résistance électrique des métaux augmente lorsque la température augmente, ce qui entraîne une diminution de la conductance. Pour les semi-conducteurs, en revanche, cette relation est inversée. Cela est dû à la manière dont la température influence la concentration des électrons dans la bande de conduction.
La concentration d'électrons dans la bande de conduction des semi-conducteurs est bien inférieure à celle des métaux typiques. La faible concentration d'électrons dans la bande de conduction est une caractéristique intrinsèque des semi-conducteurs non dopés, ou dits « intrinsèques ». La température fournit l'énergie thermique nécessaire pour exciter les électrons de la bande de valence vers la bande de conduction, mais cette excitation produit également des « trous » dans la bande de valence, ce qui joue un rôle clé dans la conduction électrique.
Ce phénomène est illustré par la position de la bande de valence et de la bande de conduction sur l'axe énergétique dans le cas d'un semi-conducteur intrinsèque. L'excitation thermique des électrons dans la bande de conduction non seulement remplit cette dernière d'électrons, mais crée également des trous dans la bande de valence, qui peuvent contribuer à la conduction. Les trous, dans ce contexte, peuvent être considérés comme des « particules » portant une charge positive, leur comportement étant l'opposé exact de celui des électrons, qui sont négativement chargés.
Ainsi, la conduction dans un semi-conducteur est mieux décrite par la dynamique des trous. Cette idée des « trous » a été proposée pour la première fois dans le cadre de la physique des cristaux par Werner Heisenberg en 1931. Il a suggéré qu'un trou dans la bande d'énergie des électrons négatifs pourrait être traité de manière similaire à une particule chargée positivement. Ce concept a permis de mieux comprendre des phénomènes comme l'effet Hall, qui est directement lié à la présence de ces trous.
Lorsque les électrons sont thermiquement excités dans la bande de conduction, ils se déplacent à une énergie relativement faible par rapport à l'énergie de Fermi, et la distribution de Fermi peut être approximée par une distribution de Boltzmann. Cela permet de calculer la concentration d'électrons dans la bande de conduction à température donnée, ainsi que la concentration de trous dans la bande de valence, qui est directement liée à la concentration d'électrons manquants dans cette bande.
Les semi-conducteurs intrinsèques, comme le germanium ou le silicium, sont des exemples classiques de matériaux dont la conductivité électrique est déterminée par ce mécanisme d'excitation thermique des électrons. Leurs caractéristiques cristallines, similaires à celles du diamant, les rendent particulièrement intéressants pour des applications techniques, notamment dans le domaine de l'électronique. La recherche sur ces matériaux a pris un tournant décisif après la Seconde Guerre mondiale, notamment grâce aux efforts des Laboratoires Bell aux États-Unis.
Les propriétés des semi-conducteurs ont été largement étudiées depuis les années 1930, avec un intérêt croissant pour le germanium et le silicium, des éléments abondants dans la croûte terrestre. Le germanium, bien qu'ayant été découvert à la fin du XIXe siècle, a été un élément clé dans le développement de la technologie des semi-conducteurs modernes. La concentration des porteurs de charge thermiquement activés dans ces matériaux à température ambiante est plusieurs ordres de grandeur plus faible que dans les conducteurs métalliques, mais la mobilité des électrons et des trous permet une conduction efficace, même à faible concentration de porteurs de charge.
Dans les semi-conducteurs intrinsèques, la concentration d'électrons dans la bande de conduction et de trous dans la bande de valence est liée de manière complexe, avec des expressions mathématiques détaillant leur dépendance à la température et à la structure cristalline. La relation entre la concentration des porteurs de charge et la température permet de prédire avec précision le comportement électrique de ces matériaux dans des conditions variées.
Le concept de la relation entre les porteurs de charge et les trous dans un semi-conducteur intrinsèque ne se limite pas à un simple calcul de concentration d'électrons et de trous. Il est essentiel de comprendre que, dans un semi-conducteur, la génération et la recombinaison des porteurs de charge sont des processus dynamiques, influencés par des facteurs externes comme le champ électrique, la température et les impuretés. Ces interactions ont des implications importantes pour les dispositifs électroniques qui reposent sur les propriétés des semi-conducteurs, notamment les diodes, les transistors et les puces électroniques.
Il est crucial pour le lecteur de comprendre que la conductivité des semi-conducteurs n’est pas seulement fonction de la concentration d’électrons, mais aussi de leur mobilité. La température influence non seulement la densité des porteurs de charge mais aussi leur capacité à se déplacer à travers le matériau. Cela a des conséquences pratiques dans la conception de dispositifs à semi-conducteurs, où la gestion thermique devient un facteur déterminant pour optimiser les performances des composants.
Comment la théorie de Ginzburg-Landau a conduit à la découverte des supraconducteurs de type II
La supraconductivité est un phénomène complexe, où certains matériaux, à très basse température, perdent toute résistance électrique. Ce phénomène est souvent observé avec des alliages métalliques, dont le plomb, dont la résistivité électrique à une température de 4 K est d'environ 3,6 × 10−23 Ω cm. Une telle valeur est bien plus petite que la résistivité du cuivre, l'un des meilleurs conducteurs métalliques, qui reste pourtant bien plus élevée à température ambiante. Mais au-delà de cette caractéristique fondamentale, les supraconducteurs présentent plusieurs autres propriétés intrigantes et des longueurs caractéristiques qui influencent leur comportement, comme la profondeur de pénétration magnétique λm et la longueur de cohérence ξ. Ces deux longueurs jouent un rôle crucial dans la définition du comportement des supraconducteurs.
La longueur de cohérence ξ représente la plus petite distance spatiale dans laquelle les propriétés de supraconductivité peuvent varier de manière significative. En 1950, le physicien britannique Alfred Brian Pippard fut le premier à mettre en évidence cette rigidité spatiale de la supraconductivité. Dans la même période, les physiciens russes Vitaly Lazarevich Ginzburg et Lev Dawidovich Landau proposèrent une approche théorique en lien avec la cohérence spatiale de ce phénomène. Leur théorie, connue sous le nom de théorie de Ginzburg-Landau, repose sur un modèle thermodynamique et sur le concept de transitions de phase de haut ordre, qui sont classées selon un schéma mathématique précis. Dans ce modèle, la supraconductivité est exprimée par une fonction d'onde ψ.
À l'origine, on pensait que la longueur de cohérence ξ était toujours supérieure à la profondeur de pénétration magnétique λm, en raison de la finitude de ξ, ce qui empêchait une région supraconductrice d'atteindre exactement une interface entre une région normale et une région supraconductrice. En conséquence, à une distance ξ de cette interface, la supraconductivité disparaissait, entraînant ainsi une perte d'énergie de condensation. Cette énergie d'interface α entre les régions normales et supraconductrices était alors donnée par la formule α = (H2 C/8π)(ξ − λm). Cependant, cette conception allait bientôt être remise en question.
Dès les années 1930, des signaux expérimentaux venant du laboratoire de basse température de Léon Vasilyevitch Shubnikov à Kharkov, en Ukraine, venaient perturber les idées dominantes. Les expériences sur certains alliages supraconducteurs donnaient des résultats qui étaient difficiles à expliquer avec les théories existantes. En 1953, la percée décisive eut lieu grâce à Alexei A. Abrikosov à Moscou. Après avoir discuté avec Nikolay Zavaritzkii, qui réalisait des expériences avec des films supraconducteurs, Abrikosov introduisit une idée nouvelle : la longueur de cohérence ξ pouvait être inférieure à la profondeur de pénétration magnétique λm. Cela signifiait que la différence entre ξ et λm pouvait devenir négative. Si cette différence était effectivement négative, alors les résultats expérimentaux obtenus avec des films supraconducteurs fins étaient mieux compris.
Cette découverte conduisit à une nouvelle classification des supraconducteurs. Les supraconducteurs pour lesquels ξ est supérieur à λm restaient classés comme de type I, tandis que ceux pour lesquels ξ est inférieur à λm furent désignés sous le nom de supraconducteurs de type II. Les supraconducteurs de type II peuvent adopter un état particulier dans lequel le champ magnétique est divisé en lignes de flux magnétique formant une structure régulière, dite réseau de lignes de flux d'Abrikosov. Chaque ligne de flux magnétique est associée à un champ magnétique local et confiné à l'intérieur du supraconducteur, généré par des courants circulaires supraconducteurs qui entourent le flux magnétique.
Ce phénomène d'état mixte, ou état de flux, est essentiel pour comprendre le comportement des supraconducteurs de type II sous un champ magnétique. Dans cet état, le supraconducteur présente à la fois des régions où le champ magnétique est expulsé et d'autres où il est pénétré par des lignes de flux. Ce phénomène est particulièrement notable dans les films supraconducteurs fins, comme ceux à base de plomb, où la frontière entre les régions normales et supraconductrices est marquée par des interfaces dont l'énergie dépend de la différence entre ξ et λm.
Les travaux d'Abrikosov ont été publiés en 1957, après plusieurs années de scepticisme, notamment de la part de son mentor Lev Landau. Toutefois, ces idées allaient avoir une profonde influence sur la compréhension de la supraconductivité et sur la manière dont elle est utilisée dans de nombreuses applications technologiques modernes, notamment dans la conception de dispositifs à haute performance tels que les aimants supraconducteurs.
Il est essentiel de noter que, bien que les supraconducteurs de type II aient montré un comportement plus complexe, leur capacité à maintenir la supraconductivité même en présence de champs magnétiques intenses ouvre la voie à de nouvelles applications pratiques, notamment dans le domaine de la physique des particules et de l'électronique avancée. Toutefois, le développement de ces matériaux nécessite des technologies spécifiques et une compréhension approfondie des conditions dans lesquelles ces états mixtes peuvent se produire.
Comment surmonter les biais et soutenir la performance des employés sans promotion
Comment les villes noires ont été marginalisées : Du redlining à la fuite des entreprises et à la discrimination systémique
Comment les Closures et les Result Builders améliorent la structure du code en Swift

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский