PROJET AUTOBLOG


Couleur Science

Site original : Couleur Science

⇐ retour index

D’où vient le ronronnement électrique d'un transformateur ?

jeudi 4 août 2022 à 18:46

Une installation électrique industrielle.
Si vous êtes déjà passés à côté d’un poste de transformation EDF, vous avez peut-être entendu une sorte de ronronnement caractéristique des installations électriques, comme une sorte de vibration.
Ce bruit provient d’un phénomène appelé la magnétostriction. Il s’agit du phénomène analogue en magnétisme du phénomène de piézoélectricité en électricité.

Rappel sur l’effet piézoélectrique

La piézoélectricité est le nom donné à deux phénomènes :

Ce phénomène est utilisé dans les montres à quartz, les briquets électroniques ou encore les « buzzers piézo » : des composants électriques qui servent à faire des « bip » sonores (par exemple sur une cafetière ou un four à micro-onde).

Dans le cas de la magnétostriction, c’est l’application d’un champ magnétique qui déforme un matériau ferromagnétique, au lieu d’une tension électrique.

La magnétostriction

Dans un bloc d’un matériau ferromagnétique, la matière est découpée en cellules magnétiques, appelées domaines de Weiss. Ce sont des régions microscopiques dans le métal au sein duquel les atomes ont tous le même moment magnétique : les champs magnétiques de tous les atomes d’un même domaine sont dans le même sens, mais les champs magnétiques de chaque domaine est aléatoire.

En moyenne, le bloc de métal est neutre : le moment magnétique global de l’ensemble des domaines de Weiss est nul. Sauf dans un aimant permanent : dans ce cas, tous les moments magnétiques de tous les domaines de Weiss sont orientés dans le même sens, et le moment magnétique global est non-nul :

Schéma des domaines de Weiss.
Schématisation de la structure en domaines de Weiss : dans un métal neutre, à gauche, où les moments magnétiques de chaque domaine sont orientés aléatoirement, et dans un aimant permanent à droite, où tous les domaines sont orientés dans le même sens.

Quand on applique un champ magnétique sur un matériau ferromagnétique, par exemple en collant un aimant dessus, alors les atomes dans tous les domaines de Weiss vont temporairement s’orienter dans le même sens, et le matériau devient magnétique lui aussi : un trombone collé à un aimant devient également magnétique et il peut lui-même soulever un autre trombone !

Si on décolle l’aimant, le trombone n’est plus magnétique : les domaines de Weiss ont repris leur moment magnétique initial.

Il se trouve que dans certains matériaux, les domaines de Weiss se déforment sensiblement lorsqu’ils s’alignent avec le champ magnétique extérieur. Les déformations de chaque domaine de Weiss s’additionnent et au final c’est tout l’échantillon métallique qui est déformé.

Comme pour la piézoélectricité, un bloc de matière s’allonge en devenant plus fin, ou s’épaissit mais raccourcis. Si le champ magnétique est alternatif, alors le matériau change constamment de forme. Si le matériau est suffisamment grand ou relié à une membrane, la vibration peut se transmettre à l’air et produire un son.

Dans les transformateurs électriques

Le cuivre n’est pas ferromagnétique. Ce n’est pas le fil de cuivre qui produit du bruit. Le fer et l’acier, et certains autres métaux ou alliages, en revanche, le sont.

Dans un transformateur électrique, du métal conducteur de champ magnétique (fer ou acier « doux ») est utilisé entre le primaire et le secondaire du transformateur :

Schéma d’un transformateur électrique avec un noyau en fer doux.
Le noyau de fer doux ici conduit le champ magnétique et peut réagir à celui-ci par effet magnétostrictif (image).

Ce fer doux est entouré de bobines de cuivre dans lequel oscille un courant. Le courant dans le primaire va produire un champ magnétique, alternatif lui aussi. Ce champ magnétique va être capté et transporté par le noyau de fer doux vers le secondaire, où une seconde bobine soumise à ce champ magnétique va produire un courant (c’est le principe de l’inducteur et du transformateur).

Or, le noyau de fer, et même la carcasse du transformateur peut se déformer et vibrer par magnétostriction. Ceci peut engendrer un bruit que l’on entend à proximité des postes de transformation en fonctionnement.

Le bruit d’une voiture électrique, ou le sifflement électrique d’une rame de métro provient également en partie de là.

En revanche, le crépitement entendu sous une ligne très haute tension n’est pas dû à ça. L’alu et le cuivre des câbles ne sont pas ferromagnétiques. Le crépitement est dû à l’effet corona.

Ces vibrations, sons et déformations constituent évidemment des pertes d’énergie. Ils sont généralement impossibles à empêcher, mais on peut les minimiser (tout comme les pertes par courant de Foucault par exemple). Il faut pour cela choisir des matériaux ferromagnétiques mais peu magnétostrictifs.

Autres applications

L’effet magnétostrictif est moins connu que l’effet piézoélectrique, car il est généralement moins puissant (les déformations sont moins importantes). Elles ont cependant des applications car elles sont plus rapides et l’effet est plus sensible. Des modules magnétostrictifs sont par exemple utilisés pour la production d’ultrasons, utilisés pour les échographies (médicales ou industrielles), ou encore pour la production d’ondes mécaniques pour les sonars.

Comme l’effet piézoélectrique qui possède un effet direct et un indirect, la magnétostriction inverse existe aussi : on l’appelle effet Villari. Dans ce cas de figure, la déformation mécanique d’un métal va engendrer l’apparition d’un champ magnétique. Certains capteurs fonctionnent en détectant ces champs magnétiques consécutifs à une déformation géométrique : capteurs de couples, de son, de débits de fluides….

image d’en-tête de David Seibold

Que sont les aigrettes lumineuses sur les photos du télescope James Webb ?

jeudi 21 juillet 2022 à 04:13

Nébuleuse de la Carène par Webb.
Ça y est, le télescope spatial nouvelle génération James Webb a produit ses premières photos époustouflantes.

Ce télescope est dans la continuité des télescopes spatiaux après Hubble ou Kepler, mais ne les remplace pas totalement. Webb ne voit pas dans les UV, par exemple, contrairement à Hubble.

Le télescope spatial James Webb, abrégé JWST (pour « James Webb Space Telescope ») n’est pas en orbite autour de la Terre. Il a été placé au point de Lagrange 2, qui est un point de l’espace aligné avec le Soleil et la Terre, dans l’ombre de ce dernier, où les forces de gravité s’annulent. Ceci permet de maintenir le JWST à une place stationnaire dans le ciel sans grand effort et à 1,5 millions de kilomètres de la Terre (soit cinq fois plus loin que la Lune).

Maintenant que les présentations sont faites, on peut constater quelques faits intéressants sur les photos.

Déjà, les photos sont incroyablement nettes, d’autant plus si on compare avec ce que nous permettait déjà de voir Hubble. Ceci est dû au miroir collecteur du JWST, beaucoup plus grand. Mais ce n’est pas tout.

Voyez par exemple ces deux photos du même endroit dans le ciel :


Photo prise en champ profond par Hubble (à gauche) et Webb (à droite)
Photo prise par Hubble. Photo prise par Webb.

On remarque que les galaxies photographiées apparaissent de façon étoilée, avec des branches. Ces branches sont nommées des aigrettes de diffraction et sont visible dès qu’on utilise un télescope.

On remarquera que les photos prises avec Hubble affichent des étoiles à quatre branches, alors que les photos prises par Webb montrent toujours six aigrettes (et même huit, si l’on regarde bien). Pourquoi cette différence ?

D’où viennent les aigrettes de diffraction ?

Comme j’ai dit, tous les télescopes montrent ces aigrettes, or Webb comme Hubble sont des télescopes. Les télescopes utilisent des miroirs pour concentrer et diriger la lumière.
Le premier miroir, ou miroir principal est le collecteur : c’est lui qui collecte la lumière et l’image de ce que l’on souhaite photographier. C’est un miroir parabolique concave qui renvoie toute cette image sur un point appelé foyer. En ce foyer (ou juste avant), se trouve un miroir secondaire, éventuellement plat, qui envoie l’image vers un oculaire ou un appareil photo :

Schéma d’un télescope.
Schéma d’un télescope (adapté de cette image).

Ce miroir secondaire ne tient pas là tout seul : il est maintenu en place par une structure de maintien, généralement des barres métalliques. Ce sont ces barres de maintien qui sont responsables de ces aigrettes. En tout cas d’une partie d’entre elles : car la forme des miroirs joue également.

Les aigrettes ont donc deux origines distinctes : la forme des miroirs et la structure de maintien du miroir secondaire, qui passe devant le miroir principal.

Les aigrettes dues à la structure du télescope

Les tiges qui maintiennent le miroir secondaire en place sont responsables d’une partie des aigrettes de diffraction. Pour comprendre comment, un peu de physique optique de niveau lycée.
On parle de diffraction des ondes. Si vous avez chez vous un pointeur laser, je vous invite à essayer ceci : visez le faisceau laser sur un cheveu et regardez ce qu’il advient de la tâche lumineuse. Sans le cheveu, le laser fait un point, mais avec, il fait… une série de taches alignées :

Diffraction d’un laser sur un cheveu.
Point d’un laser normal en haut, et d’un laser visant sur un cheveu, en bas. On voit des taches de diffraction quand le cheveu coupe le faisceau en deux.

Ceci se produit, car le cheveu coupe le faisceau en deux et chaque moitié de faisceau va agir sur l’autre moitié par interférences lumineuses. Sur un télescope, les tiges métalliques qui maintiennent le miroir secondaire produisent des interférences de ce genre-là.

Si le miroir est maintenu par deux paires de tiges perpendiculaires, on obtient deux lignes lumineuses et l’étoile a 4 branches. S’il y en a trois, on en obtient trois, et l’étoile a 6 branches :

formation des aigrettes de diffraction
(image).

Maintenant… ceci est bien ce qui produit les aigrettes de diffraction sur les photos prises par Hubble, mais pas par Webb. Pas tous. En effet, le JWST tient son miroir avec trois branches, mais espacées de façon irrégulière à 150°, 60° et 150° :

Aigrettes dues à la structure sur le JVST.

Comme on voit, la structure de maintien produit 6 aigrettes, mais il y en a d’autres. Il y a la ligne verticale en plus: d’où vient-elle ?

Les aigrettes dues à la forme du miroir

Sur les photos de Webb, certaines aigrettes sont bien formées par la structure, mais elles ne sont pas dominantes. Les deux horizontales sont d’ailleurs plus fines que les 6 autres.

En plus des tiges de maintien du miroir secondaire, il faut tenir compte de la forme du miroir lui-même : ce dernier est délimité et le bord est source d’interférences également.

Si le miroir est parfaitement circulaire, alors cela produit des taches de diffraction concentriques. Mais dès qu’il y a un bord droit, cela produit une ligne. Or, le télescope Webb a une série de miroirs hexagonaux disposés en nid d’abeille :

Photo des miroirs du JWST.
Les miroirs hexagonaux de Webb (image Nasa).

Chacun de ces miroirs produit donc des lignes d’interférences. Quand tous ces éléments sont bien ajustés, les aigrettes se superposent : l’image totale voit alors 6 aigrettes sur les photos.

Par ailleurs, le télescope est construit de telle sorte que quatre de ces 6 aigrettes du miroir viennent se superposer avec 4 aigrettes des six engendrées par la structure de maintien :

Les aigrettes de diffraction sur une photo de Webb.
Les 8 aigrettes de diffraction. Celles repassées en rouge proviennent du miroir et celles en vert de la structure de maintien.

Il y a donc 12 aigrettes de sources diverses, mais le rendu sur l’image n’en montre que 8.

Conclusion

Les télescopes sont des instruments d’optique, et subissent donc les effets de diffraction de la lumière. Sur les photos prises avec un télescope, on voit une partie de ces aberrations sous la forme de branches sur les étoiles et les galaxies : ce sont les aigrettes de diffraction.

Sur la plupart des télescopes à miroirs circulaires, ces branches d’étoiles proviennent uniquement de la structure de maintien du miroir secondaire devant le miroir primaire (miroir principal). C’est le cas pour Hubble et les télescopes amateurs.

Dans le cas de Webb, cela n’explique pas tout : le miroir est bien tenu par 3 tiges, et l’on devrait voir 3 lignes (6 aigrettes), mais on en voit en réalité 8 : les deux verticales ne peuvent pas être expliquées par ce mécanisme.

Or, on se souvient que le miroir principal de Webb est formé d’hexagones. Ce sont les bords droits de ces hexagones qui forment trois paires d’aigrettes supplémentaires. Ce sont même les aigrettes les plus brillantes sur les photos.

Au final, les photos prises par le JWST montrent des étoiles à 8 branches :

Pour finir, sur les lunettes astronomiques, on n’utilise pas de miroir et le trajet de la lumière n’est pas occultée par quoi que ce soit. Il n’y a donc pas de tiges qui bloquent quoi que ce soit.
Des aigrettes de diffraction peuvent également être produites par certaines caméras et certains appareils photo. Sur ces appareils, cela provient de l’obturateur ou le diaphragme qui n’est pas forcément circulaire, mais peut être fait de deux volets (donc une fente) ou quatre volets (un carré) voire beaucoup plus. On observe alors facilement des 6, 9, 18 ou plus d’aigrettes sur ces images.

Source

image d’en-tête de Nasa

Comment fonctionnent les glow-stick, des bâtons lumineux ?

jeudi 7 juillet 2022 à 06:36

Exemple de chimioluminescence.
Les bâtons lumineux ou bracelets lumineux sont des tubes en plastique remplis de liquide et que l’on doit plier en deux pour briser une capsule à l’intérieur, et qui va alors produire de la lumière.
Le bâton lumineux peut alors servir, durant quelques heures, à éclairer environ autant qu’une bougie ou une petite lampe torche, ou à servir de balise lumineuse pour se rendre visible la nuit, évidemment sans l’inconvénient de s’éteindre au moindre coup de vent.

Ils sont connus sous leur nom anglais « glowstick » ou leur nom commercial « snap-light® » ou « cyalume® ».

Ils sont utilisés en spéléologie, par les secours, comme source de lumière autonome et temporaire, ou encore à usage récréatif lors des concerts ou festivals, sous forme de bracelets lumineux colorés.

Comment ça fonctionne ?

L’anatomie d’un bâton lumineux est la suivante : l’enveloppe extérieur en plastique translucide est flexible. Elle contient un liquide et une ampoule en verre, remplie d’un autre liquide :

Schéma d’un bâton lumineux non-activé.
Schéma d’un bâton lumineux pas encore activé : les deux liquides ne sont pas encore mélangés. (image)

Quand on fléchit le bâton lumineux, on brise l’ampoule interne et les deux liquides se mélangent et réagissent chimiquement en produisant de la lumière.

L’ampoule en verre contient un ester similaire au luminol utilisé par la police scientifique : de l’oxalate de diphényle ou du TCPO (oxalate de di(2,4,6-trichlorophényle), ainsi qu’un colorant, dont le choix va déterminer la couleur du bâton lumineux.

L’ampoule initialement scellée baigne dans un produit oxydant : de l’eau oxygénée.

Une fois activée, la réaction qui a lieu se fait en plusieurs étapes :

Réactions chimiques dans les bâtons lumineux.
Les trois étapes de la réaction chimiques d’un bâton lumineux. L’astérisque sur le colorant signifie qu’il est dans un état excité. (image)

Premièrement, l’ester est décomposé en phénols et en 1,2-dioxétanedione.

Ensuite, le 1,2-dioxétanedione se décompose en CO2, ce qui a pour effet de libérer de l’énergie, qui est alors captée par le colorant. Au cours de ce processus, le colorant se retrouve dans un état excité, il a un surplus d’énergie.
Enfin, le colorant se désexcite en libérant un photon, donc en produisant de la lumière. C’est cette lumière que l’on voit.

Selon le colorant utilisé, on a différentes couleurs possibles. Tous les colorants comportent cependant plusieurs groupes phényles. Ces groupes ont la particularité d’avoir ses électrons délocalisés. Les électrons appartiennent au noyau phénolique sans appartenir à un atome particulier dans la molécule.

Finissons par dire que dans les tubes lumineux, on peut choisir si la lumière doit être vive et courte ou moins vive mais plus longue. Ce choix peut se faire entièrement en fonction du solvant que l’on utilise pour les différents produits.

La température est également importante. Si vous réchauffez votre bâton lumineux sous l’eau tiède ou chaude, la lumière n’en sera que plus éclatante. Il n’est en revanche pas possible de réactiver un bâton lumineux usagé. Le réchauffer (pas plus de 10 secondes au micro-ondes) permet de faire réagir ce qui subsiste de réactifs, mais une fois épuisé, il n’y a plus rien à faire.

D’autres sources de chimioluminescence

Le fonctionnement des bâtons lumineux est purement chimique : il repose sur le phénomène de chimioluminescence et ne nécessite ni piles, ni activation (comme la phosphorescence), ni flamme.

Ce phénomène n’est pas artificiel. Il est par exemple utilisé par les lucioles, qui synthétisent de la luciférine, et qui, oxydée par l’oxygène de l’air en présence de la luciférase (une enzyme), produit la lumière qui rend les lucioles visibles le soir venu. On parle alors de bioluminescence, lorsque la chimioluminescence est produite par un être vivant directement.
Certains crustacés et mollusques pratiquement également la bioluminescence.

Les tubes lumineux chimioluminescents sont à distinguer des tubes lumineux au tritium gazeux (GTLS), qui eux fonctionnent par radioluminescence grâce à la décroissance radioactive d’un gaz et d’un luminophore.

Les bâtons lumineux sont sans dangers dans les environnements explosifs et sont non toxiques. Ils sont par ailleurs résistants et peuvent être conservés longtemps dans leur emballage. Ils sont également bon marché et on peut en trouver pour pas cher en ligne :

Le luminol utilisé par la police scientifique fonctionne en une seule étape : il n’a pas besoin d’un colorant spécifique. Il est oxydé par de l’eau oxygénée que l’on lui ajoute avant de pulvériser le mélange sur une scène de crime. La réaction entre le luminol et l’eau oxygénée est lente, mais elle peut être fortement accélérée par un catalyseur : c’est le rôle du fer présent dans l’hémoglobine.
C’est ce qui permet de repérer les moindres taches de sang même sèches ou essuyées. La luminescence dure alors moins d’une minute, mais reste suffisante pour prendre une photo en exposition longue. Cependant, comme le luminol c’est un produit toxique et qu’il altère la scène de crime, on lui préfère des substituts, ou des méthodes à base de lumière noire. Elle reste utilisée en dernier recours.

image d’en-tête : travail personnel.

Pourquoi EDF compte la puissance en kVA et non en kW ? C’est quoi le « cos(phi) » et la puissance réactive ?

jeudi 16 juin 2022 à 05:22

Photo d’un poste de transformation.
Quand il est question de votre facture d’électricité, cette dernière compte votre énergie consommée en kWh (kilowattheures). Votre compteur, par contre, affiche la puissance en kVA (kilovoltampère).

La première grandeur est une énergie : c’est l’énergie électrique consommée. La seconde est une puissance électrique. Pourtant, l’unité habituelle de la puissance est le W, qu’elle soit électrique, thermique ou autre.

On a appris à l’école que la puissance (en Watt, W) d’un appareil électrique s’obtenait en multipliant la tension à ses bornes (en volts, V) par l’intensité qui la traverse (en ampères, A). La puissance étant alors des volts × ampères, donc des VA. Autrement dit, les watts sont bien équivalents à des voltampères.

Pourquoi EDF distingue les deux ? Quelle différence ?

Cet article est là pour mettre les choses au clair.

kW ? kVA ?

Selon le site d’Engie, un grand distributeur d’électricité français :

Le kW est l’unité qui représente la puissance électrique d’un appareil alors que le kVA est l’unité qui représente la charge maximale qu’un compteur électrique peut supporter. Il est ainsi important de choisir un compteur électrique adapté aux installations, sinon, avec une surcharge, le disjoncteur risque de sauter !
source

L’explication d’Engie dit que le kVA correspond à une « charge », et le kW à une puissance. Or, les deux unités sont homogènes à la même chose : une puissance. Cette définition n’est pas claire du tout.

La tension et l’intensité, en alternatif, prennent la forme de signaux sinusoïdaux, dont le produit n’est égal à la puissance que lorsqu’elles sont synchronisées, c’est-à-dire que les sinusoïdes varient en même temps.
Or, ceci n’est vrai que pour les appareils purement résistifs : bouilloires, chauffages électriques, chauffe-eau… Sur ces appareils, oui, le produit de la tension par l’intensité donne bien la puissance consommée.

Dans les autres cas, pour les autres appareils (lampes fluocompactes, frigos, machines à laver…), cela n’est plus vrai. À cause des phénomènes électromagnétiques au sein de ces appareils, la tension et l’intensité ne sont plus du tout synchronisés, et le produit de la tension par l’intensité ne permet plus de calculer la puissance électrique fournie par EDF, ni l’énergie consommée.

Par exemple, un condensateur branché en alternatif ne consomme pas d’énergie : il se charge puis se décharge à chaque alternance du courant. Durant la décharge, il restitue au réseau l’énergie qu’il a emmagasinée lors de la charge. L’énergie consommée est nulle, mais il y a bien une puissance électrique appliquée au réseau : il y a bien un courant de charge du réseau vers le condensateur, puis un courant de décharge du condensateur vers le réseau.

Ces courants circulent dans tout le réseau et y constituent une charge, mais ne sont pas facturés par EDF, car ils ne sont pas consommés. Dans ce cas-là, la « charge » sur le réseau est évalué et sont unité est le voltampère, ou VA (dont le kVA est le multiple). Les kVA sont une puissance instantanée.
Dans un condensateur, ces voltampères sont stockés puis renvoyés. Ils sont qualifiés de « voltampère réactif », ou « VAr », car il s’agit d’une forme de puissance obtenue par réaction du circuit (voir plus bas).

Si la puissance électrique est véritablement consommée, comme le fait une résistance électrique, l’énergie électrique est transformée en énergie thermique et ne retourne jamais dans le réseau, et seulement dans ces conditions on parle de watts (puissance) et de wattheures (énergie).

Le besoin d’évaluer la puissance réactive sert à EDF : elle n’est pas consommée par le client, mais va tout de même « alourdir » le réseau. Le gestionnaire du réseau doit donc en tenir compte pour dimensionnement du réseau, qui doit pouvoir supporter cette charge supplémentaire. Sauf que surdimensionner le réseau à cause de quelques appareils électriques qui tirent du courant et le renvoient sans le consommer, ça coûte cher. Il y a donc lieu d’analyser le problème et de trouver des solutions.

Note : ci-après, et dans tout l’article, je dirais « EDF » indifféremment pour désigner EDF, RTE ou Enedis.

Puissance apparente, puissance active et puissance réactive

Pour rappel : la différence entre la puissance et l’énergie, c’est que la puissance est un débit d’énergie.

Dans ce qui précède, on doit comprendre que le problème pour l’exploitant du réseau est que certains appareils absorbent puis renvoient de l’énergie électrique dans le réseau sans la consommer. Ceci est un problème, car le réseau subit sur charge inutile. Voyons d’où vient ce renvoi d’énergie dans le réseau.

Bien que généralement on parle de « la » puissance électrique, on peut en distinguer plusieurs :

La façon dont certains composants consomment de l’énergie provient de leur nature et des phénomènes électriques et magnétiques qu’ils induisent. Ce sont les circuits capacitifs et inductifs, en régime alternatif, qui consomment ou produisent de la puissance réactive.

Rappelons mon article sur la capacité et l’inductance : pour le condensateur en charge, la tension maximale apparaît bien après l’intensité maximale. Pour la bobine, c’est l’inverse : le retard d’établissement du courant en sortie de la bobine fait que l’intensité maximale apparaît bien après la tension maximale à ses bornes.

Ceci est à mettre en perspective avec une résistance, où l’intensité et la tension montent en même temps tous les deux, exactement en phase :

U et I pour une résistance en alternatif.Pour une résistance, les grandeurs U et I sont en phase et la puissance est toujours positive.

La puissance instantanée, qui est le produit des deux (intensité × tension) est donc toujours positif (oscillant, oui, mais positif à chaque instant). L’énergie s’écoule donc en permanence du réseau vers la résistance. Il n’y a pas de puissance réactive. La puissance instantanée est égale à la puissance active.

Pour les charges inductives et capacitives — plus globalement on parle de charges réactives (qui englobent les deux) — l’intensité et la tension ne se superposent pas : elles sont déphasées. C’est ce déphasage qui fait que, mathématiquement, la puissance instantanée (le produit intensité × tension) est négative une partie du temps :

U et I pour un condensateur en alternatif.
Pour un condensateur, U est en avance sur I (déphasage U/I positif). La puissance est alternative.
U et I pour une bobine en alternatif.
Pour une bobine, U est en retard sur I (déphasage U/I négatif). La puissance est alternative également.

Cette puissance négative provient de la réaction du dipôle, d’où la notion de puissance « réactive ». Elle correspond à de l’énergie refoulée dans le réseau.

Pour le condensateur, la puissance réactive provient de la décharge du condensateur dans le réseau. Pour un circuit inductif tel qu’une bobine, le stockage d’énergie se fait sous forme magnétique. L’énergie magnétique va continuer à pousser les électrons dans le fil et à maintenir la circulation d’un courant même lorsque la tension est nulle. Il y a là aussi une puissance résiduelle. Ceci se produit à chaque alternance du courant.

Pour les charges inductives ou capacitives, le déphasage ne se fait pas dans le même sens. On dit par convention que le condensateur produit de la puissance réactive, mais que la bobine la consomme. Bien que dans les deux cas, de l’énergie est physiquement renvoyée dans le réseau, c’est le sens du déphasage entre l’intensité et la tension qui varie.

Sur les graphiques précédents, qui sont des cas idéaux, on voit que la puissance active et la puissance réactive sont égales (elles ont la même durée). Ce que le composant absorbe une moitié du temps, il la rejette intégralement l’autre moitié du temps. La puissance nette, en kW, est donc nulle. EDF ne peut donc rien facturer.
Cependant, la puissance réactive provoque tout de même des courants, et donc des pertes par effet Joule dans le réseau. EDF doit gérer ces pertes et les compenser. Dans les faits, si votre installation consomme trop de puissance réactive, EDF peut vous facturer une pénalité.

Pour éviter cela, il faut évaluer la puissance réactive d’une installation et la limiter. Pour ça, le calcul du cos(φ) va nous aider et on va voir ce que c’est.

Et le cos(φ) ?

Cos(φ) : lire « cosinus de φ (phi) », ou tout simplement « cos-phi ».

Il correspond au cosinus du déphasage entre la tension et l’intensité.

Sur les graphiques plus haut, j’ai dessiné les courbes sinusoïdales de la tension et de l’intensité. Dans le domaine de l’électricité de puissance, on utilise plutôt une représentation circulaire, où U et I tournent comme les aiguilles dans un cadrant. Ceci provient de l’origine des fonctions trigonométriques, pour lequel j’ai un article ici : les fonctions trigonométriques. Une sinusoïde peut en effet être vue comme un angle qui tourne dans un cercle :

Si l’on a deux signaux, alors on a deux aiguilles, et si les deux signaux sont déphasés, alors les deux aiguilles sont séparées par un angle. Cet angle, c’est le déphasage, qui est noté φ.
Ici, la notion de retard et d’avance entre l’intensité et la tension devient compréhensible.

Maintenant, pour avoir une idée plus simple de la consommation électrique d’un appareil, on va utiliser le cosinus de φ. Cela a l’intérêt de donner une valeur entre 0 et 1, soit entre 0 et 100 %. Si les deux aiguilles sont en phase, l’angle φ=0 et le cos(φ) = 1 : toute la puissance est instantanée est transformée et toute l’énergie est consommée. Si au contraire il y a un déphasage, le facteur de puissance n’est pas unitaire et une partie de la puissance est refoulée dans le réseau.

Magie des maths, cos(φ) correspond aussi au rapport entre la puissance instantanée et la puissance active. On l’appelle alors le facteur de puissance. Lorsqu’on mentionne le cos(φ) d’une installation, c’est en ce sens-là.

Le but à la conception d’une installation électrique, c’est de faire tendre ce facteur de puissance — ou cos(φ) — vers 1. De cette façon, toute la puissance est consommée et rien n’est refoulé dans le réseau.

Risques du cos(φ) non unitaire

Le but est d’avoir un cos(φ) unitaire.
En effet, si le cos(φ) est différent de 1, cela signifie que l’installation dans son ensemble produit une puissance réactive et comporte donc une réactance (ce terme englobe l’inductance et capacitance). Électriquement, cela signifie qu’il y a un angle de déphasage entre l’intensité et la tension.

Pour un moteur électrique idéal sans charge, l’angle de déphasage vaut 90°. Le cosinus vaut donc 0 et la puissance est entièrement réactive ! Le moteur tourne par inertie et ce que le réseau électrique lui apporte, il le rend au réseau juste après.

Dans la réalité, les appareils ne sont pas idéaux. Il y a toujours au moins une perte résistive et une certaine charge mécanique (sur un moteur). Dans ces conditions, le cos(φ) n’est jamais nul et vaut par exemple 0,7. C’est parfois indiqué sur les appareils électriques industriels eux-mêmes.

Avec un tel circuit, l’énergie qui est renvoyée peut être responsable de pertes dans le réseau EDF. Ceci peut devenir problématique. En effet, s’il y a une perte d’énergie dans le réseau, il peut se produire une chute de tension. La puissance demandée par l’abonné restant la même, elle sera compensée par une hausse de l’intensité, et donc des pertes thermiques en plus, et ainsi de suite : il y a un risque d’effondrement du réseau si la chute de tension est trop importante sans qu’elle soit compensée.

Vous comprenez maintenant pourquoi votre compteur (Linky ou autre) affiche la puissance apparente en kVA et non plus seulement la puissance consommée en kW ? Car c’est la puissance qu’elle voit passer et pas juste le débit net.

Si un appareil a un cos(φ) de 0,1, et qu’elle consomme réellement 2 300 W, le réseau doit lui fournir 100 ampères (dont 90 % seront renvoyés dans le réseau à chaque alternance du courant sous forme de puissance réactive). Un compteur qui afficherait seulement la puissance consommée afficherait 2 300 W. Si votre compteur affiche désormais les VA, alors il affichera 23 000 W (100 A × 230 V), c’est ce qui traverse réellement le compteur. Or une installation domestique ne peut généralement pas supporter ça : les fusibles fondent et le disjoncteur saute.

Sur un vieux compteur, cela ne se verrait donc pas : un petit appareil de 2,3 kW ferait sauter le compteur et vous ne sauriez pas pourquoi. Avec un compteur qui affiche la puissance instantanée en VA, ça se voit.

Que faire dans le cas où le cos(φ) n’est pas bon ? Facile : il faut empêcher tout ça d’arriver, et pour ça il faut réduire la puissance réactive.

Comment monter le cos(φ) jusqu’à 1

D’un point de vue pratique, il est impensable de se débarrasser de tous les appareils qui ont un cos(φ) non unitaire. Tous les appareils avec des moteurs ou des pompes (réfrigérateur, machine à laver, tondeuse à gazon) ou des transformateurs (postes à souder, plaques à induction) ou des condensateurs (lampes à décharges) consomment de la puissance réactive. On ne peut pas juste les interdire.

Une des solutions alternative — notez le jeu de mot — est de compenser le déphasage. Si le moteur déphase la tension vers l’avant, alors il faut transformer le courant pour remettre la tension en face de l’intensité. Et ça on sait faire !

Si on regarde les caractéristiques d’une bobine et celle d’un condensateur, on constate que la première avance la tension et la seconde la retarde ! En associant les deux, on peut compenser le déphasage.

Certains appareils peuvent être directement conçus en incluant des compensateurs de puissance réactive.

EDF, au niveau de ses postes de transformation, possède également des installations qui servent à compenser la puissance réactive : des gigantesques bancs de condensateurs, ou encore des moteurs qui tournent dans le vide, et plus généralement des FACTS, par exemple.

On les trouve au niveau des sites industriels, qui consomme beaucoup de puissance réactive qu’il faut compenser au plus proche de la source.

Ainsi, le réseau EDF longue distance, celle qui transporte l’énergie sur de très longue distances entre les postes de transformation locaux, aux abords des villes ou des entreprises, transportera uniquement de la puissance active, et aucune puissance réactive.

Résumé et conclusion


En courant alternatifs, certains appareils électriques absorbent une partie de l’énergie électrique et la renvoie avec un certain délai. Le client, lui, ne paye pas ce que son appareil renvoie sur le réseau. Le réseau voit donc passer une quantité d’énergie électrique, pour laquelle il doit évidemment être dimensionné, mais sans que cette énergie ne soit facturable.

Si l’on s’en tenait là, c’est comme si le réseau devait transporter plusieurs fois plus d’énergie que ce qui n’est réellement consommé. Un appareil de 1 W devant être alimenté avec 4 W : 1 W qu’il consomme et 3 W qu’il déphase puis renvoie. Ces 3 W renvoyés sont produits et transportés, mais non facturables, car non consommés.
Dans cet exemple, le 1 W consommé est de la puissance active, consommée. Les 3 W renvoyés au réseau, sont la puissance réactive. Les 4 W sous lesquels on alimente l’appareil est la puissance apparente. On parle alors de 4 VA.

D’autres appareils, eux, consomment 1 W et sont alimentés avec 1 W, ce qui est nettement mieux : pas besoin de produire 3 VA inutilement supplémentaires.

Les appareils qui posent problème dans ce scénario, ce sont les appareils qui comportent des condensateurs et des moteurs tournants : ventilateurs, LED, frigos, machines à laver… tous ces appareils demandent à être alimentés par une puissance bien plus haute que ce qu’ils consomment réellement.

Électriquement, ces appareils déphasent la tension et l’intensité du signal électrique alternatif. L’importance du déphasage est donné par un nombre, le cos(φ), où φ lui-même est l’angle de déphasage entre la tension et l’intensité, dans une représentation circulaire.

Chaque appareil est caractérisé par son cos(φ) : un nombre entre 0 et 1. Plus le cos(φ) est proche de 1, mieux c’est pour le réseau électrique. Les appareils qui ont naturellement un cos(φ) de 1 sont les charges résistives : résistances chauffantes, lampes à filament, chargeur de batterie…

Pour les appareils qui ont un « mauvais » cos(φ), différent de 1, on peut utiliser des compensateurs de puissance réactive. Ces derniers redressent le déphasage produit et ainsi décharger le réseau électrique d’une charge supplémentaire inutile.

Pour finir, il est à noter qu’aujourd’hui avec des appareils plus complexes que de simples charges résistives et réactives, d’autres formes de déformation du signal électrique apparaissent. Les lampes à LED, télés, écrans et tous les appareils électroniques ont le défaut de produire et consommer des harmoniques dans le signal 50 Hz initial. Le signal en sorti n’est alors plus une sinusoïde, mais un signal plus compliqué entaché d’autres fréquences. Là aussi, cela produit une surconsommation de puissance : de la puissance dite déformante (exprimée en volt-ampères-déformants, ou VAd).

Ici, la solution peut-être d’appliquer des filtres qui vont bloquer ces harmoniques dans le signal et ne laisser passer que le signal 50 Hz de base. Les normes actuelles n’obligent cependant que les appareils de plus de 25 W à « nettoyer » le signal qu’ils rejettent. Une lampe LED de 15 W en est donc dispensée en principe.


Quelques liens


Liste non exhaustive de quelques ressources utilisées :



Merci à Ailothaen pour m’avoir posé cette question, et j’espère que cet article y répondra malgré le retard et la longueur de l’article.

Image d’en-tête de Tim Vrtiska

Smart glass : comment fonctionnent les rétroviseurs électrochromique ?

jeudi 2 juin 2022 à 05:35

Vitre en smart-glass d’un Boeing 787 Dreamliner.
Il existe des vitres dont on peut contrôler l’opacité : un petit bouton et la vitre devient opaque, comme du verre fumé, ou alors tout noir. C’est le cas de la photo d’en-tête de cet article, qui représente les hublots d’un avion Boeing 787, doté de vitres en smart glass.

La même technologie est également utilisée dans les rétroviseurs de voiture qui se teignent toutes seules pour éviter d’être éblouis la nuit avec les phares de la voiture qui nous suit.

Ces verres sont appelés « smart glass » (vitres intelligentes).

Comment ça marche ?

Du verre électrochromique ?

Sur ce blog, vous avez déjà vu le cas des lunettes photochromiques, qui se teignent toutes seules. Ces lunettes contiennent des particules de bromures d’argent qui deviennent de l’argent solide et donc opaque sous les effets des UV. Quand l’exposition aux UV cesse, l’argent repasse à l’état ionique et le verre redevient progressivement transparent. C’est un processus réversible et passif.
Le verre changeant de couleur à cause de la lumière, ces verres sont dits photochromiques

Dans le cas du smart glass, on veut pouvoir contrôler manuellement quand le verre doit changer d’état. Une exposition passive aux UV ne suffira donc pas pour ce que l’on souhaite faire.

À la place, on utilise une tension électrique, d’où le nom de cette technologie : les verres électrochromiques

La base de ces verres est d’employer un composé chimique bistable, c’est-à-dire qu’il peut prendre deux états — typiquement deux mésomères — qui se distinguent chacun par une couleur.
Dans le cas des verres de rétroviseurs ou des vitres du hublot du Boeing 787 ou des rétroviseurs de voitures, il s’agit d’avoir un état sombre et un état transparent.

Le passage de l’un à l’autre se fait par l’application d’un courant électrique : c’est lui qui va pousser le composé chimique à adopter l’une ou l’autre de ses deux états, en y envoyant des électrons ou des ions.

Fonctionnement

L’un des premiers composés électrochromique découverts est le trioxyde de tungstène, sur lequel on fait migrer des ions lithium ou hydrogène par l’application d’une tension électrique. Inhibé avec les ions lithium, le trioxyde de tungstène bloque le rayonnement infrarouge (agissant comme un filtre de chaleur sur les vitres).

D’autres composés (qu’ils soient inorganiques, tels que les oxydes de molybdène ou de titane ou organiques, telles que la viologène, polypyrrole…) bloquent d’autres portions du spectre lumineux.

Pour que l’on puisse utiliser ces composés sur une vitre, il faut qu’il recouvre toute sa surface, pris en sandwich entre deux électrodes, le tout posé sur du verre. Bien-sûr, l’une des électrodes doit être transparente.

Dans l’ensemble, on obtient une sorte de sandwich assez complexe :

Schéma d’un verre électrochromique.
Les ions migrent sous l’effet d’une tension électrique. La couche électrochromique est noté « EC Layer » (image)

Sur le schéma, l’application d’une tension va pousse les ions de gauche à aller vers la droite. Ces ions vont à leur tour se combiner avec composé électrochromique qui va changer son état : opaque ou transparent.

Une des particularités de ce type de verre est qu’une fois que les ions ont migré, il n’y a plus besoin de maintenir la tension : on peut couper l’alimentation, le verre conservera son état.

Si l’on souhaite la rendre transparente, il suffit d’appliquer une tension inverse, pour libérer les ions et forcer le composé à reprendre son état transparent.

Ceci n’est pas sans rappeler l’affichage à encre électronique. Bien que l’e-ink fonctionne différemment, lui aussi conserve son état (blanc ou noir) sans avoir besoin d’une source d’énergie. Ces dispositifs sont donc très sobres en énergie.

Ces techniques sont tout l’opposé aux affichages LCD ou même OLED, où les couleurs et la luminosité ne persiste que si l’écran est alimenté.

D’autres applications

L’endroit le plus courant où vous pouvez trouver ce type de verre est dans une voiture dotée qu’un miroir central avec mode jour/nuit automatique.

Dans la plupart des voitures, le choix du mode jour/nuit se fait manuellement à l’aide d’une tirette, mais dans certaines voitures, ce mode est géré électroniquement et automatiquement avec un détecteur de luminosité : dès qu’il fait nuit, le miroir devient sombre et le véhicule qui nous suit arrête de nous éblouir.

Une autre application, assez futuriste, se rencontre sur les vitres des cabines de douches dans certains hôtels (ou même chez vous si vous en avez les moyens) : un petit bouton, et la cabine de douche passe de transparent à opaque.
Certaines cabines de toilette peuvent également passer d’un état à un autre, selon qu’elle est occupée ou non (au Japon), ou encore dans certains trains (ICE3 allemand) dans lequel les vitres séparant les compartiments peuvent se « fumer » sur demande.

Il existe aussi des immeubles (Eureka Tower, en Australie) qui les emploient pour filtrer certains domaines du spectre lumineux, en particulier les infrarouges. Le but est d’éviter de surchauffer l’immeuble tout en laissant passer la lumière visible, et donc l’éclairage naturel. Brillant, non ?

Certaines voitures de luxe, comme la Ferrari 575M Maranello « Superamerica » l’utilisent sur son toit vitré panoramique.

image d’en-tête