Rechercher Dans ce Blog, le Web

vendredi 23 novembre 2012


Quelle est la différence entre la température réelle et ressentie ?
Le principe de "température ressentie" correspond à une mesure des températures mise en place par Météo France fin 2008, et largement médiatisée depuis seulement quelques années. Les températures ressenties sont celles que le corps humain ressent dans des conditions de vie courante, en extérieur et non protégé du vent. En réalité, cette notion est connue en Amérique du Nord sous le nom de "Wind Chill" depuis de nombreuses années où les conditions hivernales sont habituellement bien plus rudes qu'en France. De quoi s'agit-il ? La température ressentie est un indice (donc théoriquement sans unité) élaboré de manière empirique. Elle dépend du vent, est inférieure de quelques degrés à la température "traditionnelle", et n'est applicable que pour des températures comprises entre 5°C et -45°C. La mesure des températures classiques, telle qu'elle est effectuée par Météo France, se fait sous abri, tandis que les températures ressenties intègrent la force du vent. Cette dernière est inversement proportionnelle de la température ressentie. En d'autres termes : plus le vent souffle fort, plus la température ressentie baisse. On l'appelle aussi refroidissement éolien, ou "facteur vent". Comment explique-t-on ce différentiel ? En période de froid intense, le vent fait évaporer l'eau à la surface du corps, et cette évaporation demande de l'énergie. Cette énergie est prise à l'organisme qui dégage de la chaleur. En conséquence, la sensation de froid induite par le vent s'ajoute à la température réelle de l'air ambiant, ce qui fait baisser la température à la surface du corps. Au Canada, où les températures peuvent atteindre -40°C, la température ressentie est prise très au sérieux à tel point que cette information est affichée un peu partout dans la rue depuis quelques décennies : la connaissance du facteur vent peut en effet aider à prévenir les engelures pouvant potentiellement apparaître seulement une quinzaine de minutes après le début de l'exposition au froid. Comment calcule-t-on la température ressentie ? Il existe une équation dont les variables sont la température ambiante et la vitesse du vent. Ainsi, pour une température sous abri de -5°, avec 30 km/h de vent, on obtient -13 de température ressentie. Avec 50 km/h de vent, cela donne -15. Quelques recherches sur Internet permettent de prendre connaissance d'une foule d'équations faisant également intervenir le rayonnement global et/ou le taux d'humidité : il existe en effet de nombreuses variantes mesurant un indice de ressenti la nuit, à l'ombre ou au soleil. Il s'agit d'une information complémentaire à prendre avec précaution et qu'il faudrait, idéalement, toujours adjoindre à la température "traditionnelle" en degré Celsius, tant cet indice affiche des valeurs extrêmes favorisant le sensationnalisme. Les limites de cette notion Aucun de ces indices n'est parfait. Si la température, la pression ou l'humidité sont des données physiques objectives, la température ressentie fait en revanche intervenir des critères biologiques, dépendant d'une multitude de facteurs (vêtements portés, exposition au soleil...) et variant d'un individu à l'autre (fatigue, stress, effort physique...). Alors, bien sûr, la température ressentie permet de faire prendre conscience de l'importance du vent dans la sensation de froid. Il s'agit également de faire prendre conscience qu'il existe des catégories de population (comme les sans-abris) exposées perpétuellement au froid. Mais il ne faut pas y voir un indicateur absolu, plutôt un indice relatif, sans véracité scientifique (à l'instar de l'humidex prenant en plus en compte l'humidité de l'air, ou encore l'indice solaire). Comment explique-t-on ce différentiel ? En période de froid intense, le vent fait évaporer l'eau à la surface du corps, et cette évaporation demande de l'énergie. Cette énergie est prise à l'organisme qui dégage de la chaleur. En conséquence, la sensation de froid induite par le vent s'ajoute à la température réelle de l'air ambiant, ce qui fait baisser la température à la surface du corps. Au Canada, où les températures peuvent atteindre -40°C, la température ressentie est prise très au sérieux à tel point que cette information est affichée un peu partout dans la rue depuis quelques décennies : la connaissance du facteur vent peut en effet aider à prévenir les engelures pouvant potentiellement apparaître seulement une quinzaine de minutes après le début de l'exposition au froid. Les limites de cette notion Aucun de ces indices n'est parfait. Si la température, la pression ou l'humidité sont des données physiques objectives, la température ressentie fait en revanche intervenir des critères biologiques, dépendant d'une multitude de facteurs (vêtements portés, exposition au soleil...) et variant d'un individu à l'autre (fatigue, stress, effort physique...). Alors, bien sûr, la température ressentie permet de faire prendre conscience de l'importance du vent dans la sensation du froid. Il s'agit également de faire prendre conscience qu'il existe des catégories de population (comme les sans-abris) exposées perpétuellement au froid. Mais il ne faut pas y voir un indicateur absolu, plutôt un indice relatif, sans véracité scientifique (à l'instar de l'humidex prenant en plus en compte l'humidité de l'air, ou encore l'indice solaire). Les limites de cette notion Aucun de ces indices n'est parfait. Si la température, la pression ou l'humidité sont des données physiques objectives, la température ressentie fait en revanche intervenir des critères biologiques, dépendant d'une multitude de facteurs (vêtements portés, exposition au soleil...) et variant d'un individu à l'autre (fatigue, stress, effort physique...). Alors, bien sûr, la température ressentie permet de faire prendre conscience de l'importance du vent dans la sensation du froid. Il s'agit également de faire prendre conscience qu'il existe des catégories de population (comme les sans-abris) exposées perpétuellement au froid. Mais il ne faut pas y voir un indicateur absolu, plutôt un indice relatif, sans véracité scientifique (à l'instar de l'humidex prenant en plus en compte l'humidité de l'air, ou encore l'indice solaire).

dimanche 18 novembre 2012

Maison Possitive


Une maison positive Construire sa maison positive Un constat La maison positive est une maison qui produit plus d’énergie qu’elle n’en consomme. Au départ les concepts de maison passive et maison bioclimatique sont nés pour évoquer des habitations à très basse consommation puis l’appellation et l’idée de la maison positive ou maison à énergie zéro s’est imposée. Il s’agit de créer un lieu autonome en énergie sur une année. Le concept de la maison positive est né de plusieurs constats : - le prix de l’énergie est en constante hausse depuis des années. La hausse du prix du fuel et du gaz, énergies fossiles qui disparaitront à terme, est inévitable. En conséquence, le tarif de l’électricité augmente face à une demande croissante. - la consommation d’énergie génère différents types de pollution. Les plus connus sont le gaz carbonique (CO2) et les gaz à effets de serre (GES) qui doivent impérativement être réduits sous peine de mettre en danger notre planète et l’avenir des générations futures. - il existe énormément de gâchis qui sont sources de pollution, d’inconfort et de dépenses inutiles. Une maison construite avant 1975 consomme en moyenne 375 kWh/m2 et par an. La même construite après 2000 avec les nouvelles normes n’utilise que 100 kWh/m2 ! L’objectif fixé par le Grenelle de l’environnement est de passer sous la barre des 50 kWh/m2/an. Si l’objectif peut sembler ambitieux, voire impossible, de nombreux exemples montrent que cela est tout à fait possible. Qu’il s’agisse de maisons individuelles, d’immeubles ou de bâtiments publics les réalisations deviennent chaque jour plus nombreuses et démontrent les possibilités que les nouvelles techniques et les connaissances (nouvelles mais aussi anciennes) peuvent permettre. Une méthode Réaliser une maison positive n’est pas plus compliqué qu’une maison classique… ce qui ne veut évidemment pas dire que cela est simple. Comme pour toute réalisation, vos choix dépendent de plusieurs facteurs. Le premier est le fait que vous construisiez ou rénoviez une habitation existante. Comme pour toute construction, le premier pas est de trouver un terrain et de réfléchir au positionnement de votre futur logement. La surface, la hauteur, l’exposition mais aussi vos goûts pour tels matériaux ou techniques, ainsi que votre budget bien entendu déterminent certains choix. Votre réalisation est soumise aux mêmes règles d’urbanisme que les autres et la région où vous bâtissez impose certains matériaux.
Les éléments à prendre en compte sont nombreux mais c’est surtout une vue d’ensemble que vous devez adopter pour réaliser ce projet. Il ne s’agit pas de juxtaposer des techniques mais de les intégrer dès le départ. - Une maison compacte : plus une maison sera compacte moins elle présentera de déperditions énergétiques la surface exposée étant réduite. - Une maison bien orientée : en profitant de l’ensoleillement, il est possible, l’hiver, d’emmagasiner la chaleur du soleil pour la restituer la nuit et l’été, de limiter le rayonnement pour maintenir la maison au frais. Les surfaces vitrées doivent être aussi orientées de manière à limiter les pertes avec une majorité d’ouverture côté sud. - Une maison bien agencée : les pièces à vivre ou ayant besoin de chauffage (salon, salle de bains,…) doivent être placées au sud. Les chambres nécessitent moins de chauffage et donc occupent la partie nord. - Une maison bien isolée : une maison positive est avant tout une maison où l’isolation permet de réduire au maximum l’apport énergétique nécessaire au chauffage. Dans le cas d’une rénovation, il n’est pas aisé de jouer sur ces éléments, mais en augmentant l’isolation ou en changeant la nature des pièces (chambres, salon, …) le gain peut être appréciable. Une fois l’habitat réalisé, il reste toute la partie équipement. - Le chauffage : Les systèmes performants (poêle à bois ou à granulés, pompe à chaleur air/air ou air/eau,…) permettent des économies importantes et une réduction des émissions de GES et CO2. Une pompe à chaleur de coefficient de performance 4 consomme 4 fois moins d’électricité qu’un radiateur électrique « simple ». Il existe aussi les radiateur a infrarouge lointain qui consomme 8 fois moins que le radiateur électrique ( exemple 0,30 € / jour pour 30 M3 ) - La ventilation : La ventilation représente jusqu’à 20 % de la consommation de chauffage de la maison ! En installant une ventilation double flux, l’économie sur le chauffage est de 15 %, sans compter le confort supplémentaire apporté (traitement de l’air par exemple). - L’électricité : Une lampe basse consommation consomme 4 à 5 fois moins qu’une lampe à filament, un appareil de classe énergétique A trois fois moins qu’un de classe C, une multiprise coupe-veille empêche la consommation des veilles des appareils électriques qui représentent entre 50 et 125 wh par foyer,… Sans oublié les réducteur de Cos Phi et d'Harmoniques (Attention il faut trouver les professionnels sérieux ) - La production d’électricité : pour être « positive », votre maison doit produire de l’électricité. Les panneaux solaires photovoltaïques et les micro-éoliennes bénéficient d’une meilleure intégration et ont réalisé de nombreux progrès avec des performances en hausse constante. De plus le prix de rachat par l’opérateur historique permet de rentabiliser rapidement l’investissement. - L’eau : un chauffe-eau solaire est une évidence dans une maison positive. Mais la gestion de l’eau doit aller au-delà. En installant un récupérateur d’eau de pluie,des disjoncteur d'eau, vous pouvez faire des économies et préserver une ressource primordiale.Pensez aussi à la qualité de l'eau . L'eau revitalisée par exemple vous apporte la qualité et l'économie - L’extérieur : Avec des systèmes d’éclairage solaire, vous pouvez profiter de votre jardin avec un impact écologique quasi-nul. La maison positive est une maison économique et écologique mais c’est aussi une maison confortable. Un chauffage efficace c’est la bonne température tout le temps, une ventilation filtrante permet une hygiène de l’intérieur de l‘habitation, source fréquente de pollution, un récupérateur d’eau permet de disposer d’un jardin fleuri tout l’été, produire son électricité, c’est s’affranchir d’éventuelles coupures de réseau, …

dimanche 11 novembre 2012


Des scientifiques français ont prouvé que ce dispositif est aussi efficace que le café pour éviter la somnolence, qui est la première cause de mortalité sur les autoroutes. Fixée à l'avant d'une voiture, une lampe à LED émettant continuellement une lumière bleue est aussi efficace que du café pour raviver la vigilance du conducteur. Alors que la somnolence au volant est la première cause de mortalité sur les autoroutes, cette découverte d'une équipe de chercheurs du CNRS pourrait conduire au développement «d'un système électronique antisomnolence embarqué» susceptible de sauver des vies, espèrent-ils.
De nuit, la vigilance, les réflexes et la perception visuelle des conducteurs sont diminués. Un phénomène aggravé par le manque de sommeil. «La lumière agit sur les horloges biologiques en inhibant la sécrétion de mélatonine, une hormone qui crée des conditions favorables à l'endormissement, explique Jacques Taillard, chercheur à l'université de Bordeaux. On sait depuis une dizaine d'années que la lumière bleue est plus efficace que la blanche pour augmenter les performances nocturnes.» Franchissements de lignes blanches Pour étudier son effet dans la situation spécifique de la conduite, les scientifiques ont demandé à 48 volontaires masculins, en bonne santé, âgés de 33,2 ans en moyenne, de conduire 400 km sur autoroute. L'expérience s'est déroulée entre 1 heure et 5 heures du matin. Chaque conducteur a fait la route trois fois, à une semaine d'intervalle: d'abord en prenant deux tasses contenant 200 mg de caféine, puis deux tasses de décaféiné. Lors du troisième trajet, l'automobiliste était exposé à la lumière bleue. Les scientifiques ont ensuite mesuré le nombre de franchissements inappropriés de lignes latérales - un signe de somnolence. Résultat: 15 franchissements avec lumière bleue, 13 avec café et 26 avec placebo. Éblouis par la lampe LED, 17 % des volontaires n'ont pas pu réaliser le test. «Pour les autres, la lumière bleue est aussi efficace que le café pour améliorer la conduite automobile nocturne, mais elle est diffusée en continu et plus facilement accessible car on n'a pas à s'arrêter sur une aire d'autoroute pour bénéficier de ses effets», relève Jacques Taillard, qui doit encore reproduire l'expérience avec des femmes et des personnes âgées. Ces travaux ont été publiés le 19 octobre dans la revue Plos One . En attendant, il est conseillé d'éviter un manque de sommeil dans la semaine qui précède le départ et de faire une sieste de 15 minutes dès que les premiers signes de somnolence (paupières lourdes, bâillements, picotements dans les yeux, etc.) apparaissent. souce "lefigaro"

vendredi 9 novembre 2012

Traitement des fuel , GNR et Gaz de Ville


Traitement des fuel , GNR et Gaz de Ville Bénéfices des effets magnétiques sur carburants et combustibles Les bénéfices sur les moteurs des véhicules : Diminue les rejets de gaz nocifs HC et CO à plus de 80% et les NOx à plus de 20% Réduit la consommation du carburant de 6% à 20% (essence, diesel, GPL, fioul) Améliore les performances générales et la souplesse du moteur en augmentant sa puissance et son couple Réduit l'opacité (fumée noire) jusqu'à 85% Dissout graduellement les dépôts de calamine sur les injecteurs, les soupapes, les chambres de combustion, les bougies... Evite les dépôts dans les circuits d'eau de refroidissements Prolonge la durée de vie des moteurs Allège la maintenance des véhicules Contribue au respect des normes anti-pollutions Les bénéfices sur les chaudières : Diminue les rejets de gaz nocifs HC et CO à plus de 80% et les NOx à plus de 20% Réduit la consommation du combustible de 12% en moyenne (gaz naturel, fioul domestique, fioul lourd, butane...) Améliore les performances générales et la régularité de la chaudière Diminue et prévient de l'accumulation de carbone dans le brûleur, de suies dans le conduit Prolonge la durée de vie de la chaudière Diminue les coûts d'entretien Aide à respecter les normes anti-pollution Les effets bénéfiques sur l'environnement : Diminue les rejets de gaz à effet de serre Diminue considérablement les imbrûlés et autres polluants toxiques Contribue à la préservation de l'environnement et aux économies d'énergie Action des effets magnétiques sur les carburants et combustibles Dans notre quotidien, les applications utilisant le magnétisme sont omniprésentes. Par exemple, une bobine magnétique commande le champ du canon à électrons dans le tube cathodique de notre télévision. Le magnétisme est la source principale de commande de la position des électrons. Nous employons fréquemment le terme "électromagnétisme" car le champ magnétique est généré par le courant électrique. Mais les effets qu'a un champ magnétique d'un aimant par rapport à un champ magnétique électrique sont similaires. Qu'est-ce qui caractérise un électron ? Sa masse Sa charge Sa rotation : c'est-à-dire sa capacité d'emmagasiner de l'énergie en lui-même comme une roue d'air. Son magnétisme : si des électrons sont alimentés d'un montant précis d'énergie magnétique, la rotation des électrons absorbera cette énergie et se positionneront en ligne. Qu'est-ce qu'un hydrocarbure ? Les hydrocarbures sont les combustibles tels que l'essence, le diesel, le fioul, le gaz naturel, le propane, le mazout,... utilisés comme source d'énergie pour bien des applications que nous connaissons tous. Le plus simple des hydrocarbures, le méthane (CH4), est le constituant principal du gaz naturel (à 90%) et une source importante d'hydrogène. Cette molécule est composée d'un atome de carbone et de quatre atomes d'hydrogène et sa charge électrique est neutre. Lors de la combustion, d'un point de vue énergétique, la plus grande partie de l'énergie libérable provient de l'oxydation de l'hydrogène. Pourquoi les hydrocarbures prennent une charge magnétique ? Nous allons voir dans un premier temps comment l'hydrogène, constituant très énergétique d'un hydrocarbure, réagi par rapport aux champs magnétiques et le rendement d'énergie accru s'y accompagnant. L'hydrogène est l'élément le plus léger et le plus fondamental que n'ait jamais connu l'homme. Sa structure simple est constituée de un proton et un électron seulement. Il est le premier élément dans la table des éléments périodiques, avec le numéro atomique 1. Puisqu'il possède seulement un électron, on dit qu'il a la "valence" positive 1. Bien qu'il soit le plus simple des éléments, il peut se présenter sous deux formes isométriques distinctes, les formes PARA et ORTHO, caractérisées par des rotations nucléaires opposés. Par exemple, à 20° C (température ambiante) 75% d'hydrogène est sous la forme para. Il faut abaisser sa température à -235°C (hydrogène liquide) pour qu'à 99% il devienne ortho, c-à-d un état plus volatil. Sur les molécules para, les rotations des protons sont anti-parallèles, alors que dans les molécules ortho les rotations sont parallèles (voir schéma ci contre). L'orientation des rotations a un effet prononcé sur le comportement de la molécule. En effet, l'ortho-hydrogène est plus instable et plus réactif que sa contrepartie para-hydrogène. Dans les années 1950, un scientifique de l'aérospatial US, Simon Ruskin, s'est vu alloué le brevet n°3.228.868, rapportant les moyens par lesquels le carburant hydrogène des missiles peut être converti du para-hydrogène stable en ortho-hydrogène plus volatil, plus instable, plus inflammable et réactif par l'application d'un champ magnétique. Notons que sous l'U.S.C. 35, section 101 aux Etats-Unis, tout brevet d'utilité doit être scientifiquement prouvé, fonctionnel et correcte avant établissement. Le champ magnétique peut changer l'orientation orbitale de l'électron relativement à la rotation du noyau. Sous l'état normal "Para", la molécule a une rotation d'électron dans la direction opposée du noyau. Une fois affecté par un champ magnétique, l'électron prend l'énergie et commence à tourner dans la même direction que le noyau. Puis, selon le champ, le noyau et l'électron orbital S'ALIGNERONT vers la gauche ou la droite. Ceci se produit au niveau MACRO ou moléculaire qui s'appelle la polarisation et également au niveau MICRO ou quanta. Ce ne sont pas des théories, mais des lois physiques de base. C'est une question d'énergie cinétique ayant pour résultat le comportement désiré commandé. Par conséquent, il ne devrait pas être trop étonnant que les hydrocarbures soient aussi affectés sous l'application d'un champ magnétique. Pour preuve, une liste complète des molécules hydrocarbures est présentée dans le manuel du CRC de la Chimie et de la Physique (CRC Handbook of Chemistry and Physics) dans la section des matériaux magnétiques. Pour ceux qui ne sont pas familiers avec le manuel du CRC, c'est un livre scientifique général de recherches qui est la "bible" du monde scientifique - Toute étude scientifique sérieuse ne peut pas procéder sans elle. C'est la pierre angulaire de n'importe quelle bibliothèque technique. Quand un hydrocarbure liquide rencontre un champ magnétique, les molécules ont un "effet de vrillage". Le vrillage, ou l'effet de rotation est optiquement surveillé par un faisceau de lumière traversant une colonne d'hydrocarbure. La quantité de rotation moléculaire magnétique est en fonction de la force du champ magnétique et de la densité du fluide. Deux physiciens français, Verdet et Kerr, ont étudié l'effet et ont rapporté les résultats dans les Tables de Constantes et Données Numériques dans une section intitulé Pouvoir Rotatoire Magnétique (Effet Magnéto-Optique de Kerr). Les valeurs numériques indiquées sont des rotations magnétiques des molécules d'hydrocarbure (dont les constituants des carburants et combustibles) qui sont classées relativement par rapport à la rotation (de dipôle) de la molécule d'eau. En résumé, lorsqu'on examine la table des puissances des rotations magnétiques, on peut clairement voir qu'il y a des effets magnétisme-hydrocarbures qui sont même plus grands que les effets sur l'eau. Pourquoi les hydrocarbures brûlent plus efficacement sous l'influence de champs magnétiques ? Les hydrocarbures sont structurés en "cage". Ils ont tendance par défaut à être dans un état stable et se lient entre eux pour former des grands groupes de faisceaux ou associations. L'oxydation (ou la combustion) des atomes de carbones situés aux centres des molécules pendant le processus de combustion est gênée par les atomes d'hydrogènes qui l'entourent. De plus, l'accès de l'oxygène à l'intérieur de ces groupes de molécules est rendu difficile. Reprenons l'exemple du méthane, l'hydrocarbure le plus simple et constituant essentiel du gaz naturel. Dans la combustion du gaz méthane CH4 avec l'oxygène O2 de l'air, le produit final de la réaction chimique est le gaz dioxyde de carbone CO2 et de la vapeur d'eau H2O (l'équation réelle est : CH4 + 202 = CO2 + 2H2O). Les schémas ci-dessous montrent l'effet d'une molécule de méthane avec et sans stimulation d'un champ magnétique. Modifier les propriétés de rotation de la couche externe de la molécule de méthane augmente la réactivité du combustible. Un champ d'ionisation suffisamment puissant peut transformer de manière substantielle l'atome d'hydrocarbure, en le faisant passer de son état "Para"-Hydrogène à un état "Ortho"-Hydrogène plus énergétique, plus volatile et qui attire donc plus d'oxygène. L'état de rotation le plus énergétique de la molécule d'hydrogène est caractérisé par un haut potentiel électrique (réactivité) qui attire les atomes d'oxygène supplémentaires. Ainsi une amélioration de l'oxydation accroît l'efficacité de la combustion. Voyons maintenant quand est-il exactement de l'efficacité d'un flux magnétique sur précisément les combustibles et les carburants. Grossièrement, pour brûler entièrement 1 litre de carburant, on a besoin d'environ 15 litres d'air. En théorie, les gaz issus de la combustion devraient donc contenir : du dioxyde de carbone CO2, de l'eau H2O en vapeur et de l'azote N2 qui provient de l'air et ne participant pas à la combustion. Mais nous savons tous qu'en réalité, les gaz rejetés contiennent en plus des polluants toxiques comme les CO, HC, et les NOx. CO = molécule de monoxyde de carbone HC = molécule d'hydrocarbure non brûlé appelé aussi "hydrocarboné" NOx = molécules d'oxydes d'azotes Ceci est provoqué par un processus de combustion incomplet. Une partie des émissions polluantes rejetées se déposent sur les parois internes du moteur ou des brûleurs, dans les échappements ou les conduits, sous forme de suie ou calamine (= résidus de carbone noir). Cela démontre que lors de la combustion (dans un moteur ou un brûleur), une partie des atomes de carbone ne sont pas complètements oxydés et forment des molécules CO et HC. Avec plus de précision, cela s'explique globalement par le fait que l'oxygène de l'air, avec sa valence moins 2 (manque d'électrons) est négatif, alors que les combustibles présentent des structures moléculaires neutres. En effet, l'atome de carbone, de part ses caractéristiques peut aussi bien avoir une valence positive que négative (surplus ou insuffisance d'électrons dans sa périphérie). C'est pourquoi, les molécules qui ont les mêmes potentiels négatifs dans la chambre de combustion, se repoussent et provoquent la combustion incomplète. Le graphique ci-dessus reprend le diagramme stoechiométrique du manuel "Mark's Standard Handbook for Mechanical Engineers" de Baumeister montrant le rapport entre les rejets émis de gaz polluants et l'augmentation de l'efficacité de combustion. Note : Les appareils Magnetizer permettent de diminuer encore plus les CO par rapport à ce que montre le graphique. Cela est dû à une efficacité de combustion supérieure à 96,6% permettant ainsi des économies supplémentaires. Les divers essais faits par les agences d'analyses reconnues sur les rejets de gaz utilisant l'équipement Magnetizer prouvent l'efficacité de ces appareils. Il est évident que les gaz hydrocarbonés HC non brûlés puissent être considérés comme source de combustible, puisqu'ils peuvent être brûlés après. En outre le monoxyde de carbone CO émis dans les fumées après combustion peut être également encore brûlé. Le dictionnaire de la chimie condensé de Hawley's fait état que le CO est fortement inflammable et présente un potentiel explosif. Autre exemple, le monoxyde de carbone CO est brûlé dans le pot catalytique des véhicules. La soumission de l'hydrocarbure à un champ magnétique correctement focalisé (forces de Van Der Waals), entraîne une efficacité optimum de combustion. En fait, quand les rejets de gaz polluants diminuent, l'efficacité de combustion augmente. Les essais stoechiométriques indiquent une réduction moyenne en hydrocarbonés (carburant non brûlé HC) jusqu'à 92%, et en monoxyde de carbone CO jusqu'à 99.9%. Ce ratio d'efficacité réduction/combustion des gaz CO et HC se traduit concrètement dans le milieu automobile par une augmentation moyenne du kilométrage par plein et une économie de consommation de combustible pour les chaudières. Quand est-il de l'oxyde d'azote NOx ? Un des composants principaux des fumées photochimiques est l'oxyde nitrique ou pour être plus précis, les oxydes d'azotes ; l'oxygène selon la chaleur et la pression peut former des combinaisons différentes avec l'azote. L'oxyde nitrique est un gaz sans couleur produit par la combustion à hautes températures ; cependant, quand il rencontre de l'oxygène supplémentaire en présence de l'air et de la lumière du soleil il se convertit aisément en dioxyde d'azote (NO2). Le dioxyde d'azote est la brume brune rougeâtre que nous associons à un brouillard. La formule pour le dioxyde d'azote (NO2) est tout à fait semblable à la formule du dioxyde de carbone CO2, Mais la combustion de ce dernier est impossible, alors que le dioxyde d'azote peut brûler . Les règlements stricts de la CEE contre la pollution ont mis énormément de volonté pour réduire ces polluants mortels. Le dioxyde d'azote est très toxique puisque le seuil de volume mortel (TLV) est de 3 ppm (partie par million), alors que toujours classifié toxique le dioxyde de carbone n'a qu'un TLV de 5.000 ppm, et le TLV de l'oxyde de carbone CO est de 50 ppm. Il est inquiétant de savoir que le dioxyde d'azote est le composant principal du brouillard rougeâtre et qu'il est approximativement 16 fois plus toxique que l'oxyde de carbone. Nous pouvons aisément voir que la réduction du dioxyde d'azote dans notre atmosphère est d'une importance primordiale. Cependant lors de la combustion, les rejets de gaz oxyde d'azote reste difficile à maîtriser. Maintenant, il existe un moyen sain pour réduire les problèmes d'oxydes d'azote NOx. La solution est le dynamiseur MAGNETIZER. Comme démontré par les essais, le traitement magnétique des carburants a réduit la production de NOx de 20% et plus. Une des raisons principale est due à la basse réactivité du gaz d'azote. Si nous pouvons lier tout l'oxygène disponible avec l'hydrocarbure du carburant, plus aucun oxygène ne sera simplement là pour former les composés non désirés d'azote. Stoechiométriquement, il reste très peu d'oxygène pour produire les composés toxiques avec de l'azote. Il s'avère que le traitement magnétique est le moyen le plus simple pour réaliser cet exploit. ^haut de page^ Le Monopolaire meilleur que le bipolaire Le traitement magnétique du carburant représente une nouvelle technologie. Beaucoup de tentatives effectuées par de divers inventeurs et investigateurs scientifiques dans le monde entier ont été très loin d'être satisfait à l'emploi de la technique classique bipolaire. Les champs magnétiques, comme l'électricité, choisissent le chemin de moindre résistance ; et de cette manière, elle représente également le chemin du moindre effet. Tel est ce qui se passe avec les dispositifs bipolaires. La société Magnetizer Industrial Technologie Inc. (anciennement Magnetizer Group, Inc.) est fondateur de la technologie Monopolaire, ou en d'autres termes, de l'utilisation de la technique à pôle unique. L'application du champ Monopolaire augmente le champ de flux (densité de puissance) de 20 à 500 fois plus que la technologie bipolaire classique. C'est d'une importance capitale, puisqu'elle est exigée pour avoir la densité de flux nécessaire à une excitation de l'activité des électrons causant l'effet accru de l'oxydation. C'est pourquoi tous les systèmes antérieurs au dynamiseur Magnetizer n'ont pas pu montrer des résultats suffisants. L'arrivée plus récente des analyseurs de gaz de combustions, employé pour surveiller et respecter les normes anti-pollutions imposées par les gouvernements selon la science stoechiométrique, a considérablement facilité la mise en évidence des résultats de la recherche magnétique sur les combustibles et les carburants. OPTIMISATION et L’INFLUENCE du TRAITEMENT MAGNETIQUE des HYDROCARBURES et GAZ de Ville Réglage pour brûleur fioul ou gaz Après la pose d’un dispositif magnétique deux constatations peuvent être observées. Pour chacune d’elles des réglages différents devront être effectués. 1ère constatation : - augmentation de la température des gaz de combustion - augmentation de l’excès d’air (O2) - diminution du CO2 et par conséquent du rendement de combustion EXPLICATION : la chaudière est correctement réglée, le débit correspond à la puissance nominale. Les champs magnétiques agissent sur les tensions superficielles du combustible, celles-ci diminues, les molécules s’expansent et prélèvent plus de comburant (oxygène) induisant une combustion plus complète. Cette énergie supplémentaire est utilisée, ce qui engendre une augmentation de la température de la flamme (environ 5 à 6 % ) et une diminution des imbrûlés. La chaudière ne peut pas absorber cette augmentation de puissance et la combustion se développe avec un excès d’air. Cet excès puissance/air de combustion se retrouve dans la température des fumées. Le rendement étant directement lié à la température des gaz de combustion et au CO2, celui-ci risque de diminuer. REGLAGES : - diminuer progressivement l’arrivée d’air pour arriver à un O2 le plus bas possible (0,7/0,9 étant une valeur minimum) - pendant cette diminution vérifier la dérive éventuelle du CO, celui-ci ne doit en aucun cas être supérieur à 50 ppm (équivalent d’un indice d’opacité de +/- 0) - si cette opération n’a pas permis d’obtenir une température acceptable (160/180°) diminuer proportionnellement le débit de combustible et le débit d’air en respectant les consignes précédentes. NOTA : ce cas est le plus fréquent et les économies d’énergie peuvent être chiffrées selon les critères suivants : - augmentation du rendement de combustion - diminution du débit de combustible - augmentation du rendement d’exploitation - diminution de l’excès d’air, donc du volume des fumées (pollution) 2ème constatation : - la température des gaz de combustion chute (de 15 à 30°) - l’excès d’air diminue ou varie peu (O2) - le CO2 augmente ou varie peu le CO diminue EXPLICATION : la chaudière n’était pas réglée au maximum de sa puissance. Pour les mêmes raisons que précédemment la flamme se développe mieux dans le foyer, sa qualité émissive par rayonnement est plus importante et le flux de chaleur supplémentaire est absorbé par le fluide caloporteur. La plus grande disponibilité des molécules de combustible permet une combustion plus complète et plus homogène en utilisant l’oxygène disponible. REGLAGES : - réduire l’arrivée d’air - contrôler la dérive du CO - si la température des fumées est trop basse ( - de 140° ) on peut exceptionnellement augmenter les débits d’air et de combustible afin d’obtenir le meilleur CO2 possible, soit : 15% pour le fioul et 11,8% pour le gaz. REMARQUE : avantage supplémentaire : les effets du traitement magnétique permettent de fonctionner à des températures plus basses qu’à l’habituel sans craindre le point de rosée. Les économies réalisées se mesurent essentiellement sur le gain en rendement de combustion et surtout d’exploitation (kWh/Kg ou m3) a bientôt ecofute.net

mardi 6 novembre 2012

L'émergence du solaire photovoltaïque à concentration


Doper le rendement d'une installation solaire photovoltaïque grâce à des systèmes optiques qui concentrent la lumière reçue par chaque cellule. il suffisait d'y penser ! Développé par un nombre grandissant d'industriels, le solaire photovoltaïque à concentration laisse entrevoir de belles marges de progression.
« C'est le rachat de l'Allemand Concentrix par SOITEC en 2008 et la création simultanée de Héliotrop, qui a catalysé l'engagement du CEA dans le solaire photovoltaïque à concentration (CPV) » affirme Mathieu Baudrit, ingénieur-chercheur du CEA-Liten à l'INES. En effet, les ingénieurs français ont commencé à sérieusement investir dans cette nouvelle filière. Elle consiste à améliorer la productivité d'une installation solaire photovoltaïque en augmentant la quantité d'énergie lumineuse reçue par surface de la cellule : des systèmes optiques concentrent la lumière et la cellule reçoit l'équivalent de plusieurs soleils. Bien entendu, cela n'empêche pas de profiter des progrès intrinsèques des cellules. C'est d'ailleurs leur niveau de performance atteint vers la fin des années 1990, en constante augmentation, qui ont poussé les industriels, comme Isofoton ou Amonix, à s'intéresser au CPV. D'autres firmes sont nées, SolFocus ou Abengoa Solar, pour développer toute une gamme d'installations de puissances variées. L'énergie lumineuse démultipliée Les systèmes les plus simples sont des panneaux photovoltaïques conventionnels auxquels sont accolés des miroirs plans. Ils concentrent de 2 à 10 fois la lumière solaire, fonctionnent avec des cellules « classiques » et conviennent à des installations de faible puissance. Les centrales plus importantes – certaines atteignent 150 MW – utilisent des dispositifs optiques sophistiqués, comme des miroirs cylindro-paraboliques, des lentilles de Fresnel ou de grandes paraboles, qui concentrent jusqu'à plusieurs centaines de fois la lumière. Pour être constamment orientées vers le soleil, ces optiques sont installées sur des structures mobiles guidées par des appareils qui détectent l'astre et suivent sa course : les trackers. L'ensemble est complexe et coûteux, mais assure en retour un éclairement quasi constant des cellules en journée, donc une production électrique soutenue, contrairement aux installations fixes qui présentent un étroit pic de production lorsque le soleil passe à la perpendiculaire du capteur. Les cellules à l'épreuve de plusieurs soleils Tous les problèmes ne sont pas résolus pour autant. Par exemple, les cellules supportent mal les hautes températures qui affectent leur rendement et leur durée de vie. C'est aujourd'hui un axe majeur de R&D. De même, la fiabilité des installations et l'intégration des différents éléments font l'objet de recherches actives. C'est sur ce dernier aspect que le CEA base sa stratégie : « Les industriels spécialistes des cellules, des optiques ou du tracking font très bien leur métier. Nous venons en soutien en leur proposant ce qui fait notre force : l'accès simultané à toutes les disciplines, qui nous donne une vue d'ensemble du système » explique Mathieu Baudrit. Une vision loin d'être anodine : il n'est pas rare en effet d'augmenter le rendement global d'une technologie de plus de 10% en améliorant l'intégra-ion de ses éléments ! Des innovations testées en conditions d'exploitation Outre l'optimisation des centrales, le CEA travaille sur leur durée de vie en conditions d'exploitation, un aspect hors de la portée des partenaires industriels. L'INES met alors à profit ses enceintes de vieillissement accéléré ainsi que le site de tests en extérieur à Cadarache. Chaque projet se déroule peu ou prou selon le même scénario. Un dispositif « témoin », représentant l'état de l'art, est d'abord installé. Puis, à chaque étape du développement, un autre dispositif, intégrant la nouveauté développée entre le partenaire industriel et le CEA, est implanté sur le même site. Et ce jusqu'à la fin. Cela permet à tout moment une comparaison réelle en termes de rendement et de production d'électricité. Aujourd'hui, le « record » de rendement de modules CPV est de 33,9 %, contre 20 % au mieux pour le photovoltaïque conventionnel. Jusqu'où pourra-t-on aller ? « On devrait atteindre 36 % avec les cellules actuelles. Mais une nouvelle génération de cellules arrive, et devrait assurer encore dix ans de progression jusqu'à 40 voire 50 % de rendement au niveau des modules » estime le chercheur. Quelles cellules pour le photovoltaïque de demain ? Elle est le cœur du système photovoltaïque, là où la lumière se transforme en courant électrique. La cellule est composée de la jonction de deux couches de matériau semi-conducteur, l'une riche en électrons, dite N (négative) et l'autre pauvre, dite P (positive). Cette jonction crée un champ électrique où peut naître un courant si de l'énergie lumineuse arrive. Les meilleures cellules commercialisées aujourd'hui ont un rendement de 22 % (le maximum théorique étant de 30 %). Toutes, ou presque, sont en silicium, sous forme monocristalline pour les meilleures – et les plus chères à produire. Comment aller au-delà ? Tout d'abord en multipliant les jonctions dans une même cellule. On trouve sur le marché des cellules à triple jonction d'un rendement de plus de 43 % (maximum théorique de 49 %) ; ce sont elles qui sont utilisées pour le photovoltaïque à concentration.
La prochaine génération, imminente, aura 4 jonctions mais les laboratoires étudient déjà des versions à cinq ou six (maximum théorique 65 %)1. Pour ces nouvelles architectures, le silicium laisse peu à peu la place à de nouveaux matériaux, dits III-V car ils sont composés d'éléments des colonnes III et V du tableau de Mendeleïev. D'autres voies, du domaine de la recherche fondamentale, sont explorées : utilisation de nanomatériaux pour des empilements de couches très minces, travail sur la géométrie de surface de la cellule afin de capter plus de lumière, etc.

dimanche 4 novembre 2012

Pourquoi est il important d'avoir une excellente Prise de terre ?


Pourquoi est il important d'avoir une excellente Prise de terre ? Pour l'examen de conformité avant mise en service, il faut vérifier que l'installation électrique satisfait bien aux prescriptions générales imposées par le RGIE art.270 (Règlement Général sur les Installations Electriques). L’examen de conformité doit être effectué non seulement en cas de nouvelles installations mais aussi en cas de modifications ou d'extensions importantes d'installations existante Périodicité de vérification: Tous les 25 ans pour les installations domestiques ; Tous les 13 mois pour les installations foraines ; Tous les 5 ans pour les autres installations Nos électrodes de terre sont en acier cuivré, nous déposons une épaisse couche de cuivre à 99% par un procédé électrolytique de 250 microns Minimum. L'acier et le cuivre sont moléculairement intimement lié , combinant une grande rigidité mécanique et améliore considérablement la conductivité 3,5 fois plus que les piquets galvanisé pour info Conductivité électrique de la Galvanisation 16,6×106 S·m-1 Conductivité électrique de la déposition du cuivre 59,6×106 S·m-1
Le piquet de terre bio - dynamique a fait l'objet du concours d'experts géobiologues reconnus pour la mise au point. Ce blindage magnétique, présentant une susceptibilité magnétique élevée.( c'est la faculté d'un matériau à s'aimanter sous l'action d'une excitation magnétique) Aujourd'hui il est courant de fixer un câble de terre 25 mm2 sur un piquet en acier galvanisé . Cette réalisation est à éviter. En effet le cuivre est un matériau électropositif à l'inverse de l'acier galvanisé qui lui est un matériau électronégatif. Lorsque ces deux métaux sont en contact dans la terre, le métal le plus électronégatif se corrode (effet de pile). Le piquet de terre bio-dynamique, est équipé d'un blindage magnétique qui évite ces effets

jeudi 1 novembre 2012

Ecofuté ????


Qui sommes nous ? Nous sommes une équipe de 8 ingénieurs Chasseurs de GASPIS avec des technologies économiques et écologiques dans de nombreux domaines. Ecofute.net propose et étudie avec vous les solutions les plus adaptées à votre programme d’économie d’énergie et vous assiste dans l’effort environnemental. Notre Politique Achetez Français ou CEE , hormis un bilan carbone incomparablement favorable pose d'autres interrogations. La mise en œuvre de recherche d'un nouveau produit coute plus cher. La cause n'est pas le coup salarial comme certains souhaitent nous le faire croire. Mais pour une étude nous faisons un cahier des charges a charge et à décharge . Cela coûte de l'argent . Mais le résultat inestimable est d'obtenir des produits d’excellente qualité . Apres avoir fait l'analyse de la valeur vient le choix de la rentabilité : Le moins-disant en privilégiant le prix ( ce choix est générateur de S.A.V. ) Le mieux-disant en privilégiant la qualité, la satisfaction de nos clients. Nous avons choisi le mieux-disant en achetant et produisant sur la france ou l’Europe pour la sécurité de nos clients. Nous sommes réalistes ; nous ne pouvons plus nous passer de certains produits hors zone CE, mais nous privilégions au maximum notre savoir faire, nos cahiers des charges et nos réalisations française et CEE. Pour finir nous sommes désolé de ne pas pouvoir nous battre contre les bas prix . Mais nous ne pouvons , non plus comparer une Traban ( véhicule de l'ex Allemagne de l'est) et une Mercedes A bientôt sur notre site " ecofute.net "