686 liens privés
Les virions (ou "particules") de virus coronaires sont des particules sphériques d'un diamètre compris entre 0,06 micron et 0,14 micron, soit une moyenne d'environ 0,125 micron, mesurées au microscope électronique (Zhu et all, 2020).
Quelle est la taille d’un virion Covid-19 par rapport au MP10-2,5 ?
Les virions (ou « particules ») de virus coronaires sont des particules sphériques d’un diamètre compris entre 0,06 micron et 0,14 micron, soit une moyenne d’environ 0,125 micron, mesurées au microscope électronique (Zhu et all, 2020). Cela signifie que les particules de coronavirus sont plus petites que les particules de PM2,5, mais plus grandes que certaines particules de poussière et de gaz (figure 1).
Quelle est la relation entre le taux d’infection et les concentrations de PM10 ?
Le 20 mars 2020, Setti et all ont publié une étude à la Société italienne de médecine environnementale (SIMA), dans laquelle ils ont trouvé une relation linéaire avec R=0,98 entre les niveaux de MP10 supérieurs à 50 microns / m3 et la vitesse de propagation de COVID-19 en Italie. Ces résultats sont tout
à fait conformes aux études scientifiques sur la propagation des virus et des bactéries dans la population par les particules en suspension, qui établissent une corrélation entre l’incidence des infections virales et les niveaux des particules atmosphériques (PM10 et PM2,5). (Ciencewicki J. et al., 2007 ; Sedlmaier N., et al., 2009).
Ces résultats apportent de nouvelles informations qui complètent les observations de l’Organisation mondiale de la santé (OMS) qui, en février 2020, a indiqué qu’il n’y avait aucune preuve de transmission par voie aérienne dans les hôpitaux qui ne contiennent pas d’activités générant de fortes concentrations d’aérosols ou de particules en suspension. L’expérience italienne indique une relation directe entre des niveaux plus élevés de particules et des taux plus élevés de contamination par les COV-19 en Italie.
Les figures 2 et 3 montrent que pour chaque fois que la moyenne quotidienne augmente de 50 μg/m3 , le taux d’infection logarithmique augmente de 0,234%. C’est-à-dire qu’à des niveaux moyens de PM10 de 350 μg/m3, notre taux d’infection sera 2 fois plus élevé qu’à des niveaux inférieurs à 50 μg/m3, comme on peut l’observer parmi les différentes courbes d’infection observées dans les régions analysées dans la publication italienne, dans laquelle le taux d’infection élevé de la Lombardie dans les autres régions italiennes se distingue.
Comment réduire le risque d’infection pour nos travailleurs et nos communautés ?
Au regard de ces nouvelles informations, ABCDust recommande qu’en plus de suivre les mesures d’hygiène, de prévention, de propreté et d’assainissement recommandées par les autorités sanitaires, les mesures complémentaires suivantes soient évaluées:
Augmenter l’atténuation de MP10-2.5 recommandée de 85 % à 90 à 95 % des zones critiques, telles que la zone minière et la zone sèche d’un site, pour lesquelles ABCDust dispose d’additifs DMS-DS et DMS-TDS pour aider à supprimer 90 à 95 % des poussières, ainsi que d’un équipement de canons de contrôle de la poussière, capteurs continue des niveaux extrêmes de MP10-2.5
Contrôler en permanence les niveaux de MP 1- 2,5 dans les zones de réception et les espaces de travail et de nuit du personnel, en veillant au respect des limites et des valeurs maximales requises par la réglementation, en intégrant des systèmes d’alerte en temps réel pour le personnel, pour l’utilisation en temps voulu des masques de protection personnelle N95 ou équivalents, en cas de dépassement des valeurs réglementaires de MP 2,5. À cette fin, ABCDust propose sa ligne de capteurs multicanaux et sa plate-forme de gestion des poussières DMS- ONE.
Améliorer l’excellence opérationnelle en termes de maintenance préventive des systèmes d’encapsulation, des filtres et de la climatisation du site, pour prévenir les événements de haute pollution qui mettent en danger la santé humaine et nous obligent à arrêter ou à réduire la cadence de production, pour lesquels ABCDust met à disposition son personnel pour l’aider à générer des plans d’action à cet effet. Contactez-nous pour savoir comment nos produits, équipements et services peuvent vous aider à lutter contre la COVID-19 dans votre entreprise ou votre environnement de travail.La taille de n'importe quelle particule virale ou bactérienne peut fournir une analyse utile dans la façon dont ces substances de infection peuvent limiter les dégats sur des cellules hôte.
Taille de SARS-CoV-2
Depuis que le coronavirus 2 (SARS-CoV-2) de syndrôme respiratoire aigu sévère a été recensé la première fois en décembre de 2019, beaucoup de spécialistes des maladies infectieuses, ainsi que chercheurs pour presque chaque avenue de médicament, avaient vérifié comment ce des propagations des virus à et infectent les êtres humains, la large gamme d'effets sur la santé sévères qu'elle peut entraîner et éventuel quels médicaments pourront détruire effectivement ce virus en toute sécurité.
En plus de l'information mécaniste, les chercheurs ont également évalué les caractéristiques de taille et de teneur des particules SARS-CoV-2. Sur l'analyse des articles SARS-CoV-2 négatif-souillés par microscopie électronique, les différents chercheurs ont eu des résultats variables, mais le diamètre du virus s'est avéré pour s'échelonner entre 50 nanomètre à 140 nanomètre.
En plus de mesurer la taille sphérique de la particule de virus, on l'a également confirmé que la longueur des tumeurs de taille entourant la surface extérieure de SARS-CoV-2 peut varier dans la longueur de 9 à 12 nanomètre.
Pourquoi la taille importe-t-elle ?
Autour du monde, les agents de la Santé ont convenu que les masques s'usants peuvent éviter l'écart du virus entre les personnes. Tandis que ceci peut être vrai, certains masques sont considérés beaucoup plus efficaces à réduire à un minimum le risque d'exposition, en particulier les masques N95.
Tandis que les masques N95 de différents producteurs peuvent avoir des caractéristiques légèrement différentes, les capacités protectrices offertes par les masques N95 sont en grande partie attribuées obligation à masques' de retirer au moins 95% de toutes les particules avec un diamètre moyen de 300 nanomètre ou moins.
La taille d'une particule de virus détermine en grande partie comment les personnes peuvent se protéger et ceux autour de elles contre acquérir SARS-CoV-2. Connaître la taille d'une particule unique de virus peut également permettre des chercheurs et des fournisseurs de santé pour impliquer la quantité de personnes de virus sont exposés à différentes routes traversantes.
Par exemple, les gouttelettes respiratoires sont en général 5-10 micromètres (µm) dans la longueur ; pour cette raison, il peut impliquer qu'une personne qui ingère, inhale, ou est autrement exposée à SARS-CoV-2 des gouttelettes respiratoires que positives peuvent être exposées aux centaines ou aux milliers de particules de virus qui augmente la probabilité de l'infection.
Des gouttelettes respiratoires peuvent être transmises par la toux, l'éternuement, le contact avec les surfaces contaminées, ou même par les aérosols inhalés ; pour cette raison, chaque personne doit prendre des mesures adéquates pour réduire leur exposition à ces particules en s'usant des masques et en pratiquant des mesures sûres de distance sociale.
Comment compare-t-elle à d'autres virus ?
Jusqu'à présent, la recherche a prouvé que les virus qui ont été recensés et isolés peuvent s'échelonner dans la taille de diamètre de 20 nanomètre aussi à grand que 500 nanomètre. Hormis le virus sphérique les particules aiment SARS-CoV-2, dont les diamètres fournissent des informations sur leurs tailles, la longueur de la tige ou les virus en forme de filament peuvent mesurer tant que 1.000 nanomètre.
Virus, en particulier ceux qui proviennent des animaux comme SARS-CoV-2, peut différer grand dans leur taille. Les plus petits virus animaux connus sont des icosahedrons, qui appartiennent aux familles de Paroviridae et de Picornaviridae et peuvent avoir un diamètre s'échelonner entre 20 et 30 nanomètre.
Comparativement, plus grand et la plupart complexe de virus actuel que n'ait jamais connu l'homme est le Mimivirus géant, qui a un diamètre total de particules, dont comprend les fibres qui s'étendent à l'extérieur du capsid, approximativement de 750 nanomètre.
Comparant des bactéries et des tailles SARS-CoV-2
Le virus SARS-CoV-2 est une particule beaucoup plus petite comparée aux modèles primaires pour la biologie cellulaire bactérienne, y compris le crescentus de bacille les sous-titres, de staphylocoque doré, et d'Escherichia coli et de Caulobacter, qui ont un volume de cellules qui s'échelonne de 400 nanomètre aussi à grand que le µm 3 (3000 nanomètre).
Les de grande taille de telles substances bactériennes contribuent souvent à leurs diverses stratégies reproductrices et maximisent éventuel leur capacité de produire et relâcher la grande progéniture.
Tandis que les comparaisons de taille entre les virus et les bactéries peuvent être utiles aux chercheurs, il est également utile de comparer la taille de SARS-CoV-2 à d'autres choses qui sont produites quotidiennement. Par exemple, un acarien est le µm en général 200 dans la taille. Si nous prenons 100 une particule du nanomètre SARS-CoV-2, ceci rend l'acarien 2000 fois plus grandes.
Références
Baron, Y.M., Flamholz, A., Phillips, R., et Milo, R. (2020). SARS-Cov-2 (COVID-19) par les numéros. doi de l'eLife 9. : 10.7554/eLife.57309.
Levin, P. A., et Angert, E R. (2015). Petit mais puissant : Taille et bactéries de cellules. Points de vue de Cold Spring Harbor dans la biologie 7(7). doi : 10.1101/cshperspect.a019216.
Varga, Z.V. et autres (2020). Microscopie électronique de SARS-CoV-2 : une tâche provocante - la réponse des auteurs. The Lancet 395 (10238, E100). doi : 10.1016/S0140- 6736(20) 31185-5.
Wes Ser, D.R. (2010). Découverte du Mimivirus géant. Scitabe.
« Modes de transmission de virus entraînant COVID-19 : implications pour des recommandations de précaution d'IPC. Organisation Mondiale de la Santé de dossier scientifique la » -
« Taille et forme » - BritanniaNous vivons depuis 18 mois au rythme d'une pandémie qui a mis le monde à l'arrêt et contre laquelle nous avons bien du mal à nous défendre, malgré les moyens colossaux déployés. Et ceci par la faute d'un virus de taille nanométrique. Méconnue et largement sous-estimée, cette caractéristique rend le SARS-CoV-2 quasi impossible à éliminer de l'air ambiant en espace clos par l'immense majorité des dispositifs connus.
Un virus qui résiste malgré des moyens colossaux
Malgré les moyens utilisés sur toute la planète pour limiter sa propagation, pour décontaminer les lieux, les surfaces et les hommes… rien n’y fait vraiment. Le virus mute, ses variants persistent, résistent, en passant allègrement d’une pièce à une autre, d’une personne à une autre, d’un continent à un autre à une vitesse folle, profitant de l’incroyable mobilité des individus en ce début du XXIème siècle.
Avec un diamètre compris entre 0,06 micron et 0,14 micron, sa taille le rend quasiment insaisissable. A titre de comparaison, la taille moyenne d’un grain de pollen est de 40 microns… c’est-à-dire entre 280 et 670 fois plus gros que le nouveau coronavirus ! Parmi les principaux avantages pour le virus, la transmission aéroportée ou la capacité à voyager sur de vastes distances : il est désormais clairement établi que la propagation et la contamination se font très majoritairement par voie aérienne sous forme de nano et microgouttelettes flottant dans l’air lorsque nous respirons, parlons, chantons, toussons, éternuons... Ce qui nous amène au deuxième paramètre clé du problème actuel : la charge virale. En présence d’une personne contaminée, cette dose infectieuse se développe en millions et même milliards de virus selon le stade de la maladie. Dans un espace clos, peu importe qu’il s’agisse d’une classe d’école, d’une salle de restaurant ou d’une rame de métro, le virus se multiplie encore et encore jusqu’à saturer l’air si ce dernier n’est pas renouvelé efficacement en permanence. La transmission peut alors s’opérer très rapidement en un même lieu en fonction des flux d’air, des mouvements ou positions des personnes et du temps passé dans le lieu. Ce qui a largement été démontré par des clusters observés sur des bateaux de croisière, de simples voyages en bus ou des restaurants.
La meilleure des technologies de filtration mécanique, uniquement utilisée en milieu hospitalier pour le traitement de l’air des salles d’opération, se nomme ULPA (Ultra Low Penetration Air) : l’efficacité de ces filtres dits à "très faible pénétration" est très élevée puisqu'ils retiennent au moins 99,9975% des particules aériennes dont le diamètre est supérieur ou égal à 0,1 micron, seules 0,0005% d’entre elles passant au travers. Des millions de virus de taille nanométrique sont donc malheureusement toujours en capacité de le traverser et c’est très précisément le cas du SARS-Cov2.
Un filet à maquereaux pour attraper des sardines
Plus communément, il est fait usage de filtres ou systèmes de filtration dénommés HEPA et leurs qualités nous sont largement vantées pour protéger de ce virus, en affichant des performances de 99% à 99,97% d’efficacité. Mais méfions-nous des effets d’annonce car tout aussi rassurantes soient-elles, elles sont totalement insuffisantes. Ces dispositifs ont une capacité réelle de traitement de particules d’un diamètre supérieur ou égal à 300 nanomètres, soit dans le meilleur des cas des particules 2 à 5 fois plus grosses que le virus qui nous inquiète actuellement. Sur une échelle visible par l’homme, cela reviendrait précisément à utiliser un filet à maquereaux pour attraper des sardines cinq fois plus petites, ça ne peut simplement pas fonctionner...
Le 0,0099 qui change tout
L’efficacité se trouve donc loin derrière la virgule, même si une valeur de 99,97% peut sembler très rassurante pour le commun des mortels. A la lecture des caractéristiques d’un appareil de purification d’air, il faudrait au moins atteindre 99,9999 % pour être assuré d’une réduction drastique du nombre de particules dans l’air.
La majorité des solutions proposées cumule parfois plusieurs moyens techniques pour éradiquer le virus (UV, ionisation…) en sus d’une filtration mécanique qui élimine les plus grosses particules. Mais elles sont confrontées à un troisième paramètre clé : le temps nécessaire à la décontamination de l’air d’un espace donné, le cas échéant, en présence d’une personne contaminante « alimentant » l’air ambiant en continu de millions de virus. Cette capacité ou non à traiter des volumes d’air importants sans discontinuer conditionne l’efficacité de la machine et … son prix. Cet enjeu peut amener à une équation économique insoluble qui condamne les solutions possibles ou comme aujourd’hui, limite drastiquement leurs performances et les rend inefficaces contre les virus nanométriques. Ne parlons pas des solutions « magiques » qui, pour certaines, ne fonctionnent qu’en laboratoire, dans une petite enceinte close, mais n’ont aucun effet en test vraie vie hormis de délester les crédules de leur argent.
Ceci met en lumière une réalité incontournable : la taille et la quantité de virus ont une importance clé dans la situation que nous vivons depuis 18 mois. Les moyens techniques que l’on nous propose d’utiliser tous azimuts pour nous rapprocher de notre ancienne vie sont simplement inefficaces à cet égard.
Affronter la réalité, se donner les moyens
Alors que la pollution atmosphérique est désormais considérée comme un fléau mondial - une étude de mars 2019 évaluant ses conséquences à 8,8 millions de décès précoces par an dans le monde dont 67 000 en France – il est grand temps de considérer le sujet de l’innocuité de l’air que nous respirons comme un enjeu de santé public majeur. Nous devons investir dans des technologies efficaces qui nécessitent des engagements forts des industriels, à l’instar de la technologie ARN étudiée durant une trentaine d’années avant de profiter d’investissements colossaux des laboratoires du fait de la pandémie. Pour traiter l’air de façon globale et efficace dans les espaces clos, une technologie innovante existe : le plasma froid à puissance pulsée. Cette technologie méconnue vient de démontrer, à la suite d’essais cliniques pilotés par l'INSERM, une efficacité d’au moins 99,9999 %, soit un niveau de performance inégalé et réellement performant pour éradiquer les virus nanométriques.
Cette technologie – développée en France - n’est pour l’instant déployée nulle part. Allons-nous nous donner les moyens de la développer à une échelle industrielle ?
Des milliards de virus et de bactéries tombent sur Terre en provenance du ciel. Des microbes qu’on retrouve à 3000 mètres du sol et qui peuvent voyager à des milliers de kilomètres de distance. Il y a des virus au sol, dans les océans, mais aussi dans les airs. C’est d’ailleurs la voie de transmission de bon nombre d’entre eux.
Pour la première fois, ils ont analysé la couche la plus basse de l’atmosphère terrestre (la troposphère) dans le but de quantifier le nombre de virus qui peuvent y circuler. Ils ont dénombré entre 260 millions et sept milliards de virus par jour et par mètre carré. Ces quantités sont 9 à 461 fois supérieures à celles des bactéries. Ces microbes peuvent voyager très loin avant de redescendre sur Terre, grâce à des épisodes pluvieux ou en s’accrochant à des particules de poussière.
"Il y a 20 ans environ, nous avons commencé à trouver un peu partout dans le monde des virus génétiquement très similaires, mais se trouvant pourtant dans des environnements très différents. L'importance du nombre de virus survivant suffisamment longtemps dans l'air explique probablement ce phénomène. Il est tout à fait concevable qu'un virus s'envole d'un continent pour atterrir sur un autre."
Les "pluies" de virus et de bactéries existaient déjà bien avant les observations faites et l’humanité n’a pas pour autant été éradiquée par des épidémies. Au contraire, les chercheurs pensent que ces microbes pourraient avoir des effets positifs sur les écosystèmes qu’ils parcourent.
Ils s’appuient sur de récentes études qui ont montré que les virus jouent un rôle important dans la régulation du carbone dans l’océan. D’autre part, il existe des virus dits bactériophages qui préservent les humains en détruisant des bactéries nocives pour les humains.
Combien de virus respirons nous ?
Nous inhalons en moyenne 200 000 virus par minute, soit 3333 virus par seconde ou 105 milliards par an !
Le saviez-vous ? au repos, un être humain respire 10 litres d’air par minute. et jusqu’à 50 litres lors d’un effort physique conséquent.
Les virus sont de l’ordre de grandeur du micromètre (0.001 millimètre) et sont présents partout. Ils appartiennent à la famille des vivants (même si cet aspect est un débat), mais on ne connait que peu de chose sur eux. Ils sont l’une des dernières frontières dans l’exploration biologique sur Terre.
Des chercheurs Sud-Coréens ont mené une étude métagénomique (étude génétique d’échantillons trouvés dans la nature) sur l’atmosphère au niveau du sol. Celle-ci, première du genre, évalue entre 17 000 et 400 000 le nombre de virus inhalé jusquà nos poumons chaque minute. Lors d’un footing, il est possible d'en respirer jusqu’à 2 millions à la minute.
Plus généralement, l’étude de cette population invisible a été faite dans différents types d’endroits et pendant différentes périodes, afin de mieux comprendre les facteurs influenceurs de la propagation virale. Trois sites différents ont été retenus à Séoul : un quartier résidentiel, un milieu industriel et une forêt. Les relevés ont duré plusieurs mois et consistaient à capter les organismes inférieurs au micromètre grâce à une sorte de filtre liquide, à les nettoyer, extraire l’ADN pour enfin les comparer aux banques de données existantes.
Etonnant : l’amplitude des résultats ne dépend pas du milieu de capture, mais de la période pendant laquelle elles ont été effectuées. En effet, l’air contient plus de virus en hiver. Un pic est atteint en janvier pour redescendre avec l’arrivée du printemps.
D’un point de vue scientifique, l’aspect le plus intéressant de l’étude est la découverture de nombreux virus.
Plus de la moitié des séquences génétiques analysées n’appartenaient à aucune base de données, l’essentiel étant de simples branches d’ADN, tels les Geminiviridae. Ce sont des découvertes logiques lorsque l’on sait que très peu de recherches ont été réalisées sur l’écologie microbienne de l’air, notamment car ces analyses sont très complexes et relativement longues à réaliser. Aujourd’hui, les études sont aidées par la métagénomique. (source : biolaune)
"La fabrique de l'ignorance" sur Arte : Quand les industriels instrumentalisent la science contre l'environnement
Freiner le progrès de la connaissance en utilisant la science contre elle-même : c’est la stratégie utilisée par certains industriels pour faire naître un doute sur la toxicité de leurs produits, ou remettre en question le réchauffement climatique. Un mécanisme décortiqué dans le documentaire La fabrique de l’ignorance, diffusé ce soir sur Arte, et disponible jusqu’au 23 avril sur le site internet.
Pourquoi a-t-il fallu près de 50 ans pour admettre la toxicité du tabac ? Comment se fait-il que certains questionnent encore l’origine humaine du réchauffement climatique ? "Il n’y a pas de consensus " entend-t-on parfois dans les médias, et sous la plume même de scientifiques. Mais de quel consensus parle-t-on ? En revêtant les habits de juge et d’arbitre "la science est devenue une activité à influencer, à miner ou à corrompre" pose d'emblée le documentaire "La fabrique de l'ignorance", réalisé par Pascal Vasselin et Franck Cuveillier. Diffusé ce soir sur Arte, il est également disponible sur le site internet de la chaîne jusqu'au 23 avril. Par le biais de témoignages de scientifiques, de professions de foi et de mea culpa, l'enquête dévoile et décortique les techniques innovantes et encore méconnues mises en œuvre par les industriels pour semer le doute sur la dangerosité de leurs produits.
Un mécanisme initié par l'industrie du tabac
La stratégie fleurit dans les années 50, aux États-Unis. L’industrie du tabac entre alors en crise : la recherche scientifique révèle que la cigarette provoque des cancers du poumon et accidents cardiovasculaires. Impossible pour le secteur de contester les résultats. Mais les géants du tabac n'entendent pas se laisser faire et font le pari de financer leurs propres laboratoires. "L’utilisation de la science contre la science est un véritable tournant, un renversement ", souligne dans le documentaire Naomi Oreskes, professeure d'histoire des sciences à l'Université de San Diego, en Californie.
L’objectif est de produire des études scientifiques alternatives qui attribuent aux cancers du poumon d'autres origines, comme la génétique ou la pollution de l'air. Le tabac devient une cause de cancer comme une autre. Semer le doute dans l'opinion publique permet alors de "gagner du temps" soulignent à l'unisson les scientifiques interrogés. Une stratégie efficace, puisque l'industrie du tabac ne sera condamnée que 40 ans plus tard.
La mécanique a depuis largement été reprise et déclinée. Bisphénol A, réchauffement climatique, néonicotinoïdes... l’enquête revient sur ces grandes controverses fabriquées par l'industrie qui animent le débat public depuis des décennies. Et retardent les prises de décisions politiques.
Un phénomène amplifié par les réseaux sociaux
La diffusion de cette science alternative a été démultipliée avec le développement des réseaux sociaux. "Pour la communauté scientifique quasi unanime, le réchauffement climatique est sans équivoque et l'influence de l'homme est claire", constatent les auteurs. "Mais pour autant le consensus ne s'impose pas sur les réseaux". Pour une raison simple : "Les climatosceptiques sont à la fois moins nombreux et plus actifs. Ils contrebalancent le débat", décrypte l'Institut des systèmes complexes de Paris. Cela suffit à alimenter une controverse... là où il n'y en a pas.
La volonté de détourner la science n'est pas nouvelle, souligne cependant le documentaire. Ce n'est ni Galilée, ni Copernic, censurés et condamnés, qui affirmeraient le contraire. "Il y a 300 ans les progrès scientifiques se heurtaient à l'église", détaille Linsey Mc Goey, professeure de sociologie à l'Université d'Essex. "Mais aujourd’hui c’est le marché qui prend le rôle de l’église, c’est l’économie qu’il est devenu difficile de contester". Une chose est sûre, conclut l'enquête : cancers, victimes du réchauffement climatiques, montée des eaux… "Quelques soient les croyances, la réalité finit par s’imposer".
Pauline Fricot, @PaulineFricot
La science est actuellement dans une forte zone de turbulences. Parce que l’analogie trop hâtive entre la science et le progrès amène inéluctablement des désillusions sur l’incapacité « scientifique » à répondre aux nombreux défis, notamment environnementaux, de notre planète. Parce qu’il est de plus en plus délicat de délimiter une frontière entre ce qui relève réellement d’une démarche scientifique, enfin parce que celle-ci représente un enjeu de combat entre intérêts divergents, ce qui entraîne fréquemment une reprise de l’argument scientifique dans une perspective de légitimation d’un propos, la science se retrouve alors instrumentalisée dans un champ de controverses.
La science, une légitimité en trompe-l’œil
Le prestige de la science est intact et, à l’heure de la défiance généralisée, le scientifique reste un des rares interlocuteurs à bénéficier d’un taux de confiance élevé. Pour autant, sa légitimité apparaît de plus en plus contestée.
Si l’on estime que la démarche scientifique est apparue il y a plus de 2 500 ans à Babylone chez des scribes qui élaboraient des méthodes de prévision des mouvements des planètes, on s’aperçoit que l’activité scientifique a considérablement évolué. La spécialisation a démarré aux XIIe-XIIIe siècles avec le développement des universités, le poids de la religion s’est progressivement amenuisé et les découvertes scientifiques sont devenues de plus en plus le fruit d’un travail d’équipes et non plus d’un individu isolé dans son laboratoire. Les montants investis sont importants et reflètent le poids dans l’économie mondiale des grandes puissances économiques. La recherche indépendante tend à disparaître, la recherche publique stagne et les grandes avancées sont essentiellement le fait des impulsions de la R&D des entreprises. Pour la France les domaines les plus concernés sont l’automobile, l’aéronautique et l’industrie pharmaceutique. Les publications scientifiques sont devenues le graal de tous les chercheurs. 40 000 sont recensées par l’Association internationale des éditeurs scientifiques qui génère un chiffre d’affaires de 23 milliards d’euros, ce qui représente cinq fois plus que l’ensemble du marché mondial de la musique et, caractéristique majeure, 80 % de ces publications sont anglo-saxonnes. La perception que nous avons de la science doit tenir compte de ces évolutions.
Les limites de l’activité scientifique
Dans un monde qui paraît de jour en jour davantage déboussolé, la tentation croît de s’en remettre à la science pour fixer un nouvel horizon. Pourtant, et sauf à verser dans une tentation scientiste, celle-ci ne saurait avoir pour ambition de régir les destinées du monde. Le débat revient régulièrement avec les publications du GIEC que d’aucuns trouvent trop prudentes en termes de recommandations. C’est confondre l’activité scientifique et l’activité militante ou politique. La science nous apporte des résultats, à nous d’en tirer les conclusions. Comme l’indique clairement Aurélien Barrau, « Toute velléité hégémonique de la science est à proscrire »1. L’activité scientifique possède ses propres limites.
Comme l’a mis en évidence Karl Popper, la recherche scientifique, contrairement à l’idéologie, ne vise pas à accumuler des arguments en faveur d’une thèse. Elle vise à confronter une hypothèse à la réalité et aux connaissances établies. Un résultat scientifique est toujours susceptible de réfutation, le doute est une qualité fondamentale d’un chercheur.
Certes, il existe des certitudes scientifiques et plus personne ne remet en question la rotondité ou l’âge de la Terre, mais l’humilité, la remise en cause sont des caractéristiques d’une démarche scientifique intègre.
Alors que la politique et la sphère médiatique exigent des réponses binaires, la science ne peut répondre ainsi. Sur un grand nombre de sujets comme celui des faibles doses, des perturbateurs endocriniens, des nanoparticules, le lien de causalité est particulièrement délicat à mettre en évidence. De nombreuses avancées se font jour, notamment dans le domaine de la santé où les recherches sur l’exposome permettent désormais de considérer l’ensemble des facteurs environnementaux que subit un être humain tout au long de son existence. Cela conduit à la prise en compte de l’interaction entre les différents facteurs et non plus chaque effet pris séparément.
Par ailleurs, une nouvelle ère scientifique se préfigure. Celle de la remise en cause de certaines de nos certitudes, celle de l’indétermination, celle où l’on découvre que la présence d’un observateur peut influer sur les résultats. Nous avons longtemps été persuadés par la formule de Paracelse « C’est la dose qui fait le poison » jusqu’à ce que l’on découvre avec les perturbateurs endocriniens qu’une dose moyenne pouvait produire davantage d’effets qu’une forte dose, ce que les spécialistes appellent « l’effet fenêtre ».
De même, la théorie de l’effet papillon conceptualisée en 1972 par le météorologiste Edward Lorenz ouvrit la voie aux recherches sur le rôle de l’aléa scientifique et à la détection des signaux faibles.
La science a une temporalité incompatible avec le temps politique.
Si l’on a pu dire (peu importe qu’il s’agisse de légendes ou de vérités historiques) qu’Archimède a pu découvrir son théorème de la poussée des fluides en prenant son bain et Newton la théorie de la gravitation en voyant tomber une pomme, la réalité du travail scientifique nécessite désormais des moyens et des procédures considérables. Le scientifique doit commencer par obtenir des fonds pour sa recherche, constituer une équipe, procéder à des expérimentations et si celles-ci sont concluantes, doit les faire valider dans une publication, ce qui prend de l’ordre de deux années. Pour reprendre l’exemple ci-dessus des phénomènes d’accélération, on s’aperçoit que le temps de la science peut parfois apparaître inadapté aux phénomènes exponentiels qui constituent l’anthropocène.
Nous découvrons seulement récemment que de nombreux sujets considérés comme favorables à la transition écologique révèlent des impacts environnementaux parfois très importants, jusqu’à faire douter qu’ils puissent représenter de réelles solutions. L’analyse du cycle de vie des éoliennes, des panneaux photovoltaïques, du véhicule électrique indique en effet des impacts non soupçonnés jusqu’ici. Leurs effets sont-ils dirimants et mettent-ils vraiment en cause leur caractère de « solutions », il est trop tôt pour le dire aujourd’hui.
Tout ceci ne réduit en rien l’importance que nous devons accorder à la science. Cela nous rappelle simplement qu’elle s’inscrit dans un champ de forces, un contexte politique et que ses résultats sont souvent précaires.
Fake news et rumeurs, la science digitalisée
La fake news, appelée aussi vérité alternative ou post vérité, est une information sciemment fausse, propagée intentionnellement et présentant toutes les apparences d’une vérité possible. Une information erronée, mais martelée en permanence peut parfois réussir à s’imposer dans l’espace public. Ainsi, durant la campagne du mouvement populiste britannique en 2016 pour le Brexit, son leader, Nigel Farage communiquait largement sur le fait qu’en sortant de l’Union européenne, la Grande-Bretagne pourrait économiser 350 millions de livres par semaine, soit l’équivalent de 430 millions d’euros. Le Brexit à peine voté, le leader du parti UKIP reconnaissait que « c’était une erreur ».
En 2018, le magazine Sciences publia une étude sur la propagation des fake news sur les réseaux sociaux2. Les conclusions furent édifiantes : les fausses nouvelles se diffusent plus rapidement et plus profondément que les informations vérifiées. L’étude indique que les données scientifiques, les campagnes électorales, les légendes urbaines et les affaires économiques sont plus particulièrement concernées.
En moyenne, il faut six fois plus de temps à une information vraie qu’à une fausse pour toucher 1 500 personnes.
La science est particulièrement concernée par l’explosion des fake news puisqu’elle intervient en argument d’autorité pour crédibiliser un message faux. Cela n’est en soi pas nouveau. Déjà en 1976, un feuillet présentant la liste des additifs les plus cancérigènes avait été mis en circulation. Celui-ci était à en-tête de l’hôpital de Villejuif afin de conférer une légitimité scientifique. L’information était totalement erronée, l’hôpital émit plusieurs démentis et pourtant, alors que les réseaux sociaux ne sont apparus que trente ans plus tard, sept millions de Français avaient reçu ce message.
« Bfmisation » scientifique
La complexité des relations entre la science et les médias peut s’analyser autour de trois axes :
D’abord, celui de la sélection des informations. Pour prendre les débats actuels en France autour de l’économie circulaire et de l’interdiction progressive du plastique à usage unique, la représentation médiatique s’effectue quasi exclusivement sous l’angle des images de sacs plastiques dans les océans et souvent avec des animaux entravés par des produits plastiques. Récemment, en février 2019, la revue Nature Geoscience a publié une étude révélant l’ampleur des microparticules de plastique dans les montagnes. Amenées par les courants aériens, celles-ci se révèlent fortement toxiques, justement en raison de leur petite taille. Pourtant, aucun grand média n’a relayé cette information, préférant mettre l’accent sur le plastique dans les océans, celui-ci se prêtant davantage à une mise en scène médiatique.
Ensuite, celui de la sélection des experts. Les chaînes d’information en continu recourent en moyenne à une cinquantaine d’experts quotidiennement (France Stratégie, novembre 2017). Pour conférer une perception de recul critique sur l’événement, les médias utilisent en appui de leurs propres journalistes, des experts pouvant intervenir soit en commentaires à chaud d’une actualité (JT d’information), soit au sein d’émissions de décryptage (exemple : C dans l’air). La sélection d’experts dans les médias a fait l’objet de nombreuses études d’où il ressort que le critère de médiagénie, de fluidité du discours est parfois supérieur à la réalité de l’expertise. On a pu observer que la qualité d’être bien référencé sur internet accroît la possibilité d’invitation médiatique. Les subtilités terminologiques et les distinctions entre un directeur de laboratoire universitaire, un professeur, un maître de conférences paraissent bien lointaines pour un média qui cherchera prioritairement à afficher la fonction d’ « expert en » sur le bandeau télévisuel.
Enfin, une caractéristique des médias est celle de la recherche permanente du débat, de la confrontation, voire même du clash, comme l’observait Christian Salmon3. De fait, on assiste à une mise en équilibre des points de vue afin de générer un débat. Si 99,9 % des climatologues affirment la certitude désormais absolue de la responsabilité humaine dans le réchauffement climatique, les médias chercheront une voix discordante pour apporter la contradiction. Le domaine du réchauffement climatique est caricatural de cette tendance heureusement en déclin où des experts en biologie, mathématiques, géologie, s’installaient sur le plateau de télévision pour affirmer grâce à leur qualité de « scientifiques » leur opposition à la thèse d’un dérèglement climatique d’origine humaine.
La science, l’affaire de tous
Un autre paramètre, relativement récent dans cette tendance à la remise en cause de la légitimité scientifique, est celui de l’expertise citoyenne. Le mouvement pour une expertise citoyenne repose sur deux fondements, d’abord la perception d’une certaine appropriation de la science par des intérêts économiques au profit de projets de développement technologique, ensuite la croyance selon laquelle chaque citoyen serait le plus apte à évaluer la capacité d’un projet ou d’un produit à répondre à ses propres intérêts. Le principe d’introduction de la démocratie délibérative dans le champ scientifique n’est pas en soi contestable, il devra toutefois faire l’objet de nombreuses précautions pour réduire les risques de dérive.
L’instrumentalisation de la science
La science par son aura de légitimité et de crédibilité est au centre d’un combat permanent. Promoteur ou adversaire d’un projet ou d’une idée chercheront en permanence à utiliser l’argument scientifique à l’appui de leur démonstration. Plusieurs techniques sont ici employées.
La bataille des publications scientifiques
La publication scientifique obéit à des règles très strictes. Après que le chercheur – ou l’équipe de chercheurs – a adressé son projet d’article à une revue, celle-ci l’anonymise afin que les auteurs ne puissent être reconnus. L’article est alors adressé à des pairs, généralement deux. Ces relecteurs, qui n’ont pas d’indication sur l’auteur ni même sur l’autre relecteur, sont chargés d’évaluer – gratuitement – la validité de la méthode de recherche et la crédibilité des résultats.
Les deux auteurs doivent conjointement, et donc sans avoir pu se concerter, émettre un avis favorable pour permettre la publication. Dans la majorité des cas, des réserves sont apportées, ce qui conduit les auteurs à une nouvelle écriture. Ce processus appelé « peer review » (revue par les pairs) et « double blind » (relecture en double aveugle, car les deux relecteurs n’ont ni la connaissance de l’auteur, ni celle de l’autre relecteur) a fait ses preuves dans la légitimation du travail scientifique. Dans le domaine médical, la revue The Lancet, créée en 1823, publie plus de 1 500 articles par an.
Le fait d’avoir réussi à être publié par une revue scientifique apparaît comme la quintessence de la légitimité scientifique, ce qui explique les fortes pressions « publish or perish » pour y être référencé. La publication scientifique intervient comme une communication par la preuve de l’innocuité ou de la dangerosité d’un produit ou d’une activité. Les partisans d’un sujet sensible justifient leur position « pro » ou « anti » en fonction du nombre d’études publiées pouvant valider leur thèse.
Le funding effect
Professeure en nutrition et santé publique à l’Université de New-York, Marion Nestle a commencé en 2015 une étude visant à établir une éventuelle corrélation entre les études scientifiques financées par l’industrie agroalimentaire et les résultats en fonction de l’intérêt du financeur.
178 études ont ainsi été analysées et le résultat est sans appel « 156 études présentaient des résultats favorables au financeur et douze seulement des résultats défavorables »4.
Le même effet fut confirmé dans le domaine du médicament où les essais cliniques financés par l’industrie apparaissent quatre fois plus favorables au médicament testé que lors de recherches indépendantes. Les records de l’efficacité peuvent être attribués à l’industrie du tabac puisque les articles qu’elle finançait sur le tabagisme passif concluaient dans 98 % des cas à l’absence de risque. Et s’agissant du bisphénol A, 119 études indépendantes indiquaient un risque sanitaire possible, mais aucun effet décelé de ce perturbateur endocrinien lorsque l’étude était financée par l’industrie chimique.
Dans la quasi-totalité des cas, on ne saurait parler de malhonnêteté. Interrogés individuellement, les chercheurs n’ont pas le sentiment d’avoir été achetés, l’effet est plus insidieux. Insidieux mais implacable, raison de plus pour le faire connaître et en assurer la régulation.
La propagation du doute
Lors des grands procès de l’industrie du tabac qui se déroulèrent aux États-Unis au début des années 2000, l’ensemble des documents relatifs aux effets cancérigènes et aux stratégies de communication utilisées ont été rendus publics. Parmi eux, un mémo sans ambiguïté : « le doute est notre produit ». Celui-ci énonçait clairement que pour combattre l’importance croissante des preuves sur la nocivité du tabac, l’industrie devait propager le doute sur les preuves réelles de cette nocivité. L’objectif était de développer une importante masse de données scientifiques pour défendre l’industrie du tabac contre les attaques. Après avoir créé une façade de scientificité, le Tobacco Industry Research Committee, et avec l’aide d’agences de relations publiques, l’industrie adressera à près de 200 000 médecins une plaquette « A scientific perspective on the cigarette controversy ». Nous savons aujourd’hui grâce à ces documents que, dès 1953, l’industrie du tabac était parfaitement consciente des dangers de son produit. C’est donc clairement une stratégie de combat par la propagation du doute scientifique qui fut mise en place.
Dans leur ouvrage paru en 20105, Erick Conway et Naomi Oreskes montrent que cette « stratégie du tabac » a été appliquée à la plupart des grands enjeux écologiques ou de santé publique, comme l’amiante, le réchauffement climatique, les pesticides, les pluies acides ou le trou d’ozone.
Ainsi, la réalité du réchauffement climatique fut d’abord combattue dans son constat. Lorsque celui-ci fut sans ambiguïté, les climato-sceptiques eurent recours aux travaux d’historiens pour propager l’idée qu’il ne s’agissait que de variations naturelles. De même, durant les années 90, il fut déclaré que le phénomène des pluies acides n’était pas avéré et que de nouvelles recherches étaient nécessaires, puis lorsque le constat fut accablant, qu’elles pouvaient – elles aussi – être causées par des phénomènes naturels.
Pareillement sur le trou dans la couche d’ozone, l’industrie des chlorofluorocarbures, accusée à raison d’en être la cause principale, argumentera d’abord sur l’inexistence de toute preuve montrant que les fluorocarbures pouvaient atteindre la stratosphère, puis qu’ils ne pouvaient pas produire la chlorine responsable de l’augmentation du trou d’ozone, enfin que la chlorine en elle-même n’avait aucun effet sur l’ozone.
La stratégie du doute utilise le principe même de la science, à savoir la reconnaissance d’une réfutation possible.
Beaucoup de scientifiques participent bien malgré eux à cette suspicion sur la fiabilité de leurs études. En raison d’une quête incessante aux subventions, la plupart des publications scientifiques concluent sur la nécessité de nouvelles études pour valider les résultats, brèche dans laquelle se ruent ceux qui portent des enjeux financiers contraires.
Dans les faits, la propagation du doute s’observe très tactiquement et souvent grossièrement de manière suivante :
La survalorisation d’une erreur partielle ou d’un biais procédural ouvrant la possibilité de dénoncer l’absence de rigueur et donc la fiabilité des résultats. Cela fut utilisé lors du Climategate en 2009, lorsqu’on découvrit que le GIEC prévoyait dans son quatrième rapport une disparition totale de l’ensemble des glaciers himalayens pour 2035. Cette erreur était en fait une simple inversion de chiffres (2350) et bien qu’il soit quasi impossible d’éviter au moins une coquille dans un rapport de 2 000 pages, rien n’y fit et la polémique s’installa.
La discordance des résultats obtenus entre deux études.
La contradiction entre deux propos soit d’un même scientifique, soit entre scientifiques membres de la même équipe.
Le déni de toute scientificité, soit par la suspicion portée sur une équipe (le GIEC ne serait qu’un mouvement alarmiste et décliniste dont le seul but serait la recherche de subventions), soit par des attaques ad hominem. La biologiste Rachel Carson, qui publia une mise en cause argumentée contre le DDT en 1962, fut accusée d’être « émotive et hystérique » ; le professeur Seralini, auteur d’une étude critique contre les OGM en 2012, fut accusé de collaborer avec une société de phytopharmacie liée à un mouvement sectaire ; l’ancien vice-président du GIEC, le belge Jean-Pascal van Ypersele, fut présenté comme un censeur qui cherche l’intimidation. Le professeur Belpomme, qui publia en 2008 un rapport dénonçant l’usage du chlordécone dans les champs de bananes aux Antilles, apparut comme une personnalité provocatrice à la recherche de scoop. Un des pionniers des recherches en climatologie aux États-Unis, Stephen H. Schneider, fut qualifié en 1996 d’ « environnementaliste à toutes températures ». Fin observateur des pratiques de détournement de la science, le journaliste Stéphane Foucart le confirme « Les extracteurs de ressources fossiles (charbon, pétrole, gaz) financent des campagnes de dénigrement de chercheurs »6.
L’astroturfing
L’Astroturf est un revêtement synthétique imitant les terrains de jeux gazonnés. Le terme, utilisé pour la première fois par le sénateur texan Lloyd Bentsen en 1986 dans le champ politique, décrit une stratégie de communication qui vise à occulter son émetteur principal7. Comme pour le gazon synthétique, elle cherche à apparaître vraie en dissimulant sa véritable identité. Ni les objectifs réels, ni surtout la véritable identité ne sont connus. Il y a dans l’astroturfing dissimulation de la source, mais aussi utilisation illégitime d’une autre identité.
L’astroturfing s’explique par l’extrême distanciation des citoyens envers le monde de l’entreprise perçu comme de moins en moins légitime.
Sur un grand nombre de sujets sensibles, la posture économique des entreprises les prive de la crédibilité nécessaire. Celles-ci ont parfois tendance à dissimuler l’origine réelle de leurs messages. Dans la plupart des cas, l’astroturfing vise à se donner l’apparence d’un mouvement citoyen à l’exemple de la Global Climate Coalition aux États-Unis qui n’est en réalité qu’un lobby financé par l’industrie pétrolière. En France, le « Réseau biodiversité pour les abeilles » est financé par l’industrie phytosanitaire. De nombreuses ONG estiment en analysant ses actions que ce « réseau » sert essentiellement à pénétrer les organes décisionnels et à intervenir dans les colloques pour minimiser le rôle des pesticides dans la disparition des abeilles.
Ainsi, pour donner l’apparence de scientificité à ses propres arguments, l’industrie pourra sans difficulté créer de toutes pièces un établissement possédant le terme « Recherche », « Académie », « Institut », dans son intitulé, ce qui rendra difficile l’opposition frontale, la Recherche ayant encore une forte légitimité. Il restera à celui-ci à créer ensuite sa propre publication et il pourra se prévaloir d’une image de rigueur scientifique auprès d’interlocuteurs notamment médiatiques, pas toujours informés des principes fondamentaux d’une réelle publication scientifique. Il suffit bien souvent de quelques pages pleines de termes techniques, de références scientifiques, si possible anglo-saxonnes, de graphiques, courbes, tableaux et quelques équations, et l’ensemble paraîtra être une étude scientifique. Plusieurs organes regroupent ainsi des experts ou scientifiques (souvent à la retraite) dans l’objectif de développer des arguments en soutien aux visées économiques de la filière. Aux États-Unis l’International Life and Science Institute (ILSI) en est un exemple. Financé par les principaux acteurs de l’industrie agroalimentaire, chimique et pharmaceutique, cet « Institut » produit des études qui visent à influer sur le processus de régulation des produits chimiques et alimentaires. Le board comprend 21 personnes dont 16 arborent leur doctorat. En Europe, le Centre européen pour l’écotoxicologie et la toxicologie des produits chimiques annonce promouvoir des solutions scientifiques crédibles et pratiques, il a toutefois l’honnêteté d’annoncer immédiatement sur sa home page qu’il est financé par l’industrie. Dans son ouvrage sur le rôle des lobbies8, Stéphane Horel présente l’alliance pour la recherche et l’éducation de la pomme de terre (pilotée par Mc Cain, le leader international des produits surgelés à base de pomme de terre), l’Institut nord-américain de la viande (qui n’est que la vitrine de la filière) ou l’organisation internationale de recherche sur le plomb et le zinc (une simple branche de l’industrie des métaux).
De même, l’Institut américain du pétrole créé en 1919, n’est qu’un pur organe de lobbying. L’Institut de recherche pour les flagrances est au service exclusif de l’industrie du parfum. Coca-Cola finançait discrètement le « Beverage institute of health and wellness » jusqu’à ce que des polémiques éclatent et que la marque révèle publiquement son soutien financier9. Stéphane Horel présente également deux cas un peu extrêmes ; celui de l’Institut national de la pizza surgelée, mais aussi, et cela fait moins sourire, le « joint European research medical board » qui prétendait promouvoir la recherche sur la sûreté des produits industriels, et qui était essentiellement « une organisation de lobbying qui élaborait la défense de l’amiante »10.
En dehors de la création de pseudo instituts de recherches, l’astroturfing peut emprunter la voix d’une apparence de scientificité pour créer une controverse et appuyer ainsi une stratégie de propagation du doute.
Le plus bel exemple est sans conteste l’appel de Heidelberg que Stéphane Foucart désigne comme étant « sans doute la plus formidable opération de communication scientifique jamais entreprise par un lobby industriel »11. À quelques jours de l’ouverture du Sommet de Rio qui, en 1992, devait marquer la première grande prise de conscience internationale environnementale des décideurs politiques et économiques, 70 prix Nobel publient un texte pour mettre en garde contre une certaine émotionalité, voire une dérive idéologique qui traverse le champ écologique. L’investigation journalistique menée alors par Roger Cans pour le journal Le Monde retrace sans ambiguïté l’origine de cet appel. Initié par le directeur de la communication d’une entreprise pharmaceutique, relayé par une agence de relations publiques, travaillé par un groupe de chercheurs réunis à Heidelberg, l’ensemble reçoit des subsides d’une fédération qui cherchera toujours à apparaître en retrait, l’industrie de l’amiante qui visait à l’époque – comme aujourd’hui celle des pesticides – à propager l’idée d’un « usage contrôlé de l’amiante ».
*
- *
La science, ou plutôt les sciences, se retrouve donc dans une zone de turbulences, contestée sur ses fondements, critiquée sur son incapacité à répondre souvent de manière non ambigüe, remise en question par l’explosion des fake news et d’une pseudo-expertise, instrumentalisée à des fins idéologiques ou de défense d’intérêt, le statut scientifique est aujourd’hui fortement remis en question. Nul doute que c’est en restant focalisé sur la rigueur de sa démarche sans tomber dans le piège du clash des opinions que le scientifique conservera l’intégralité du prestige qu’il mérite et dont la société a décidemment bien besoin.
Thierry Libaert
Professeur des universités
Président de l’Académie des Controverses et de la Communication Sensible
Membre du Comité Économique et Social Européen
Aurélien Barrau, De la vérité dans les sciences, Dunod, 2019, p. 20. ↩
Soroush Vosoughi, Deb Roy et Sinan Aral, « The spread of true and false news online », Sciences, 9 mars 2018. ↩
Christian Salmon, L’ère du clash, Fayard, 2019. ↩
Stéphane Horel, Lobbytomie, La Découverte, 2018, p. 82. ↩
Naomi Oreskes et Erik Conway, Merchants of doubt, Bloomsbury Press, 2010. ↩
Stéphane Foucart, Des marchés et des dieux : quand l’économie devient religion, Grasset, 2018, p. 213. ↩
Sophie Boulay, Usurpation de l’identité citoyenne dans l’espace public, Presses de l’UQAM, 2015. ↩
Stéphane Horel, op. cit. ↩
Coca-Cola, « Continuing transparency: evolution of the beverage institute of health and wellness », 14 septembre 2016. ↩
Stéphane Horel, op. cit. p. 118. ↩
Stéphane Foucart, La Fabrique du mensonge, Denoël, 2013, p. 83. ↩Souvent oubliée, la terre de diatomée mérite d’être (re)découverte, ne serait-ce que parce que c’est l’un des insecticides les plus efficaces tout en étant naturel. Découvrez avec consoGlobe, les différents usages de cette poudre écologique qui vous rendra bien des services dans la maison.
Si la terre de diatomée est utile dans la maison pour se débarrasser des insectes, ce n’est pas son seul usage : voici un petit passage en revue des moyens courants et moins courants d’utiliser ce produit ménager écologique.
La terre de diatomée, un insecticide naturel puissant
La terre de diatomée que l’on trouve dans le commerce est également appelée Kieselgur en allemand, ou encore terre d’infusoires. Vous entendrez parfois parler de Célite, mais il s’agit d’une marque et non d’un nom commun. Elle tire son nom de la diatomite, une roche sédimentaire siliceuse d’origine à la fois organique et fossile.
En l’occurrence, la terre de diatomée est une variété de diatomite et contient des restes fossilisés de diatomées, des micro-algues marines qui sécrètent un squelette siliceux que l’on retrouve dans des carrières.
- La terre de diatomée comme insecticide dans la maison
L’utilisation de la terre de diatomée comme insecticide maison naturel est probablement son usage le plus répandu, la terre de diatomée étant régulièrement vendue à côté des insecticides chimiques dans les supermarchés. C’est notamment un anti fourmi naturel efficace.
Dans la maison, on utilise le produit contre les punaises de lit. Pensez-y notamment si vous partez à l’étranger. On l’utilise aussi contre les cafards, les poissons d’argent ou les puces. On vise les couloirs et les endroits fréquentés par les insectes. Sur les fenêtres et les entrées, c’est particulièrement dissuasif.
- La terre de diatomée comme insecticide au jardin
À l’extérieur, au jardin bio, on utilisera la terre de diatomée contre les chenilles, les pucerons et nuisibles, en saupoudrant un peu de terre de diatomée autour des plants.
Précisons quand même que cela tue effectivement les animaux, donc si vous voulez seulement les éloigner il faudra trouver un autre anti-puceron naturel.
Au jardin, protégez les plantes traitées, car la terre de diatomée devient inefficace si mouillée.
- La terre de diatomée comme insecticide pour les animaux
Votre chien ou votre chat a des puces ? Pas de panique, on peut utiliser la terre de diatomée sans danger comme un anti-puces naturel. Voici comment :
1- Munis de gants, saupoudrez de la terre de diatomée chez vous, à l’intérieur et à l’extérieur, en faisant attention plus particulièrement aux tapis et aux recoins de votre logement susceptibles d’abriter ces parasites.
2- Puis donnez un bain à votre animal de compagnie et le saupoudrez de terre de diatomée sur l’ensemble du pelage tout en le caressant.
3- Le lendemain, aspirez la terre de diatomée à l’intérieur de votre foyer. Il est nécessaire de renouveler ces étapes une fois par semaine pendant trois semaines afin de tuer les larves non écloses au début du traitement.
- Et même pour les poules
Si vos poules sont infestées de poux rouges (ou en prévention), ayez le réflexe terre de Diatomée. Préférez la grise (plus volatil pour une meilleure dispersion) non calcinée (inoffensive pour les animaux) pour usage alimentaire.
Commencer par bien nettoyer le poulailler en enlevant toute la litière, puis équiper d’un masque et de gants, saupoudrer le sol, les murs et les perchoirs de poudre de Diatomée. Réinstaller une nouvelle litière à saupoudrer également si l’infestation est importante, mais pas besoin s’il s’agit d’une mesure préventive.
-
Le saviez-vous : la terre de diatomée dans la production du vin
La terre de diatomée trouve des applications dans le vin et la brasserie, où elle est utilisée pour la filtration en raison de sa forte porosité. Ce n’est évidemment pas la seule application : au quotidien la poudre se révèle efficace pour bien des petits tracas, de la même manière que la terre de Sommières, avec laquelle on ne la confondra pas.
À cet effet, on calcine la terre de diatomée pour un usage en filtration. Au quotidien, on choisira une terre de diatomée non calcinée, afin de conserver les principes actifs, principalement la silice.
La terre de diatomée, un fort pouvoir absorbant
La terre de diatomée peut également être utilisée comme cosmétique naturel, mais également comme produit d’entretien en raison de ses vertus absorbantes.
- La terre de diatomée comme masque pour le visage
Comme masque pour le visage, nous utiliserons une autre propriété intéressante de la terre de diatomée, non pas ses capacités insecticides, bien sûr, mais son pouvoir absorbant.
Cette poudre est également un bon exfoliant : retrouvez donc notre recette maison du masque exfoliant à la terre de diatomée
- La terre de diatomée pour la litière du chat
La terre de diatomée est absorbante, disait-on : cela peut être précieux quand il s’agit de recueillir l’urine de votre compagnon à quatre pattes et à longues moustaches. La poudre peut absorber plus d’une fois son poids en eau.
On peut utiliser cette poudre dans une recette de litière maison, ou simplement l’ajouter pour plus d’absorption et moins d’odeurs.
- La terre de diatomée pour absorber les liquides dans la maison
Huile sur le sol, produits ménagers ayant débordé : la terre de diatomée les rend plus faciles à nettoyer.
- Désodoriser les chaussures
Mettez un peu de poudre dans les chaussures. Et voilà !
- La terre de diatomée comme poudre à récurer
Cela peut vous permettre de gratter plus facilement les plats sales. Et ça tombe bien puisqu’on peut aussi l’utiliser pour :
- Nettoyer et faire briller
Abrasive, mais en finesse, la terre de diatomée fait des merveilles sur le cuivre, l’inox, le cuivre, et toute l’argenterie. On crée une pâte avec un peu d’eau, on frotte et on rince.
-
Précautions d’usage
Attention : mettre un masque avant de saupoudrer, car la poudre a un pouvoir absorbant, donc elle peut dessécher le nez et la bouche et créer un inconfort, de la même manière que lorsque l’on saupoudre de la farine partout et qu’elle vole, mais en plus absorbant.
Éviter absolument le contact avec les yeux pour cette raison et tenir le produit hors de portée des enfants, comme tous les autres produits ménagers.
Surveiller aussi les animaux pour qu’ils évitent d’en ingérer en grandes quantités (un peu ne leur fera aucun mal).
Et cas d’absorption par accident ? Pas de panique : comme pour les animaux, il n’y a pas de danger à petite dose, certaines études suggérant même que cela serait bon pour la santé en tablettes et diluées dans de l’eau (attention, il s’agit ici de la version alimentaire, et non de la terre de diatomée industrielle pour piscine !).
Ceux qui me connaissent, au sujet de l’orthographe, m’ont déjà entendu dire, non sans humour, que j’étais ‘’Avant-Françoispremiertiste’’. Sans doute, beaucoup pensent que c’est une façon de dédramatiser l’étrange facilité que nous tous nous avons, à faire des erreurs lorsqu’il s’agit de l’orthographe. Et ce n’est pas faux, le français est une langue complexe, qui par ses côtés illogiques et rigides, peut parfois faire plonger le néophyte qui essaye de s’y intéresser, dans la plus sombre des folies. Et il est aisé d’attribuer la source de toute cette souffrance à François premier, qui avec son ordonnance de Villers-Cotterêts fixera la langue française en 1539. Surtout qu’il ne s’est pas arrêté là !
Mais je ne tape pas sur François premier pour cela. À vrai dire, le fait de vouloir homogénéiser la langue n’est pas une mauvaise chose. Et malgré l’orthographe, le français reste une langue riche et vivante de par sa perpétuelle évolution.
Mais alors, qu’est-ce que je reproche à ce roi mort depuis un bout de temps déjà et qui ne peut même plus se défendre ?
Ma méfiance est en fait la même, que celle que j’entretiens envers tous les institutionnels de tous poils qui s’amusent sans cesse à vouloir édicter des règles absurdes, comme la suppression ou le maintien de l’accent circonflexe. En son temps, François premier n’a pas édicter des textes au sujet de la langue française dans un but de clarté ou de facilité d’usage de la langue écrite, il a fait cela pour des raisons bien plus discutables, car politique. Le but était d’instaurer une langue officielle, participant ainsi à la centralisation du pouvoir.
Tout comme la majorité des réformes qui ont suivi, François premier a participé à une institutionnalisation de la langue et a ainsi crée une élite, séparée de la vraie langue, parlée par tous et évoluant par son usage journalier.
Le fait de créer des institutions, comme l’Académie française, ou de vouloir réformer, comme la tentative récente au sujet de l’accent circonflexe, n’est qu’une expression de la volonté de la part des pouvoirs, de contrôler ce que les gens pensent et de leurs meurs. Le meilleur exemple de ce que j’avance ici vient de l’Académie française, qui instaurera dès sa création, une masculinisation de la langue, ce qui entrainera nombre de débats dès les années 1600 d’ailleurs. Masculinisation d’ailleurs qui est toujours en vigueur au niveau des corporations, mais qui n’existe plus dans la langue courante… (Même si les institutions commencent par céder doucement)
Le problème, pour les institutions, c’est qu’une langue vivante évolue par son usage et non en édictant des règles qui ne seront suivies que par quarante imbéciles et quelques intellectuels de bas étage.
Qui se souvient encore des détails de la rectification orthographique du français en 1990, dernier grand chantier institutionnel en date. Force est de constater à l’heure actuelle que personne n’a tenu compte de cette réforme, alors que tous, nous avons accepté certaine expressions récente, comme ‘’être vent debout’’, ou mot récent comme ‘’hashtag’’, qui sont devenu commun à la langue et utilisé par tous.
Comme le disait déjà à son époque Victor Hugo, une langue ne se fixe pas, elle est et doit être en perpétuelle évolution pour ne pas mourir. Et ce n’est pas une quelconque élite qui fait vivre le français, mais bel et bien les usagers communs, c’est-à-dire nous tous.
Voilà pourquoi, j’estime pour ma part, que personne, sous prétexte qu’il fait partie d’une élite, ou veut protéger le français, n’a réellement le droit ni le pouvoir d’imposer une réforme de la langue. Surtout que la langue se réforme elle-même, avec le temps et ses usagers. Mais j’estime également, que chacun de nous, usager du français, avons le devoir, dans la limite du raisonnable, d’être suffisamment éduqué et intelligent afin d’entretenir et d’enrichir notre langue.
Et c’est cette implication et cette responsabilité, qui me pousse à ne pas tenir compte du récent délire institutionnel sur l’accent circonflexe, et qui me fait plutôt m’intéresser à l’étymologie, la sémantique et au sens de certains mots très mal employés à l’heure actuelle, ou à la reféminisation du français, qui se fait sans les institutions d’ailleurs. Car la vraie richesse d’une langue tient à l’orientation que chacun de nous y donne en l’utilisant chaque jour.Phalanstère, Familistère et cités ouvrières
Le Familistère bâti par Godin n’est pas le phalanstère imaginé par Charles Fourier. L’un existe, l’autre non. La nécessité de construire en réalité amène Godin à interpréter de façon originale le palais sociétaire. Le Familistère n’est pas davantage une « cité ouvrière » au sens qu’on donne à cette expression depuis la seconde moitié du XIXe siècle. Il en est même le contre-modèle.
Phalanstère et Familistère
Dans la société harmonieuse imaginée par le philosophe Charles Fourier, une phalange, association de 1620 individus, vit dans un confortable palais. Celui-ci est édifié au centre d’un vaste domaine agricole. Les ailes du phalanstère forment des cours plantées de jardins. Une rue-galerie intérieure, sur le modèle de la grande galerie du Louvre, irrigue l’ensemble de l’habitation unitaire. Le phalanstère comprend de multiples salles communes ou « séristères », des logements à double rang de chambre, des ateliers domestiques et industriels, des écoles, un opéra, un temple, etc. La tour d’ordre dominant la grande place centrale assure les communications et permet de diriger les groupes de travail. Les disciples de Fourier diffusent une saisissante représentation du phalanstère inspirée du château de Versailles. Les essais de réalisation sont des échecs.
Jean-Baptiste André Godin nomme sa cité Familistère par analogie avec phalanstère mais aussi pour l’en distinguer. Le Familistère est industriel : il s’élève non pas à la campagne mais dans les faubourgs d’une ville, à proximité de la manufacture qui emploie les travailleurs. Les 500 appartements du Familistère hébergent 1 500 à 2 000 personnes. Le système de cours et de coursives du Palais social transpose de façon originale la rue-galerie du Phalanstère : les atriums vitrés des grands hôtels parisiens sont toutefois pour Godin une référence aussi importante que celle de la rue-galerie fouriériste. Le belvédère du pavillon central et la place du Familistère sont bien sûr des « citations » de la tour d’ordre et de la place du phalanstère. Par contre, le groupe formé par les écoles et le théâtre du Familistère est parfaitement inédit.
Familistère et cités ouvrières
Par « cité ouvrière » on a d’abord entendu l’immeuble collectif de logements réservés aux ouvriers, sur le modèle des hôtels garnis et des maisons pour familles édifiées à Londres dans les années 1840. Le caractère exogène de l’habitation ouvrière collective est ainsi souligné en 1855 par le docteur Lepelletier de La Sarthe : « L’établissement de cités ouvrières fut donc une rêverie de notre siècle, un de ces produits de fabrique anglaise dont le sol de la France n’a permis l’édification que pour en démontrer, par les faits, le peu de sens et d’opportunité ». La Cité Napoléon, ouverte en 1853 à Paris, est l’un des exemples français de ces cités ouvrières. Mais l’expression va rapidement désigner les ensembles organisés de logements ouvriers individuels. Le médecin hygiéniste Louis-René Villermé peut écrire en 1850 : « Autant qu’il est possible, il faudrait que chaque cité se composât exclusivement de petites maisons non contiguës ». Cette recommandation est suivie par la plupart des industriels et des philanthropes en France.
Godin étudie les réalisations des sociétés industrielles. Il convient que les services communs des cités de Mulhouse contribuent « au développement physique, industrieux, intellectuel et moral de la population ». Et Il se trouve lui-même confronté à la nécessité de sédentariser une importante main d’œuvre pour faire fonctionner l’usine de Guise. Mais, de même que les fouriéristes, Godin a en horreur la maison individuelle : « Les prôneurs des petites maisons ne remarquent pas qu’en descendant un peu, à partir de la petite maison, on voit poindre la hutte du sauvage », écrit-il par exemple dans Solutions sociales. La petite maison en propriété est une « épave des idées sociales » et une erreur économique.
Le Familistère se distingue radicalement des cités ouvrières. Il ne repose pas sur le principe du logement individuel mais sur celui de l’habitat collectif. À Guise, pas de château du patron, de maisons d’ingénieur ou de contremaître. Un même palais abrite les appartements du fondateur, de l’institutrice ou du mouleur. Chacun qui le souhaite s’y loge selon ses besoins. Tous sont locataires et jouissent des mêmes services.
Dans le Palais du travail, les familles ne trouvent pas le « logement minimum » mais l’habitation pourvue des « équivalents de la richesse ». Avec la fondation de l’Association coopérative du capital et du travail en 1880, le Familistère devient la propriété commune de ceux qui y travaillent et y habitent. Il est conçu comme un moyen d’émancipation collective.
Phalanstère, cités ouvrières, Familistère
La conception de l'habitation populaire selon Victor Considerant, chef du mouvement fouriériste, et selon Jean-Baptiste André Godin s'oppose à celle d'Achille Penot, vice-président de la Société industrielle de Mulhouse. Leur position s'exprime avec clarté et concision dans les citations qui suivent.
« Ce n’est plus à bâtir le taudis du prolétaire, la maison du bourgeois, l’hôtel de l’agioteur ou du marquis. C’est le Palais où l’HOMME doit loger. Il faut le construire avec art, ensemble et prévoyance ; il faut qu’il renferme des appartements somptueux et des chambres modestes, pour que chacun puisse s’y caser suivant ses goûts et sa fortune ; puis il y faut distribuer des ateliers pour tous les travaux, des salles pour toutes les fonctions d’industries ou de plaisir. »
Victor Considerant, Description du Phalanstère, 1848.
« Il nous semblait que, tout en modifiant le plan de ces maisons, pour obéir à certaines exigences qui se font sentir dans une ville plus qu’à la campagne, il fallait d’abord adopter irrévocablement le principe salutaire, que chaque famille devait avoir son logement séparé et la libre culture d’un jardin. C’est dans ces conditions seulement qu’on pouvait satisfaire en entier aux prescriptions essentielles de l’hygiène et de la morale. »
Achille Penot, Les cités ouvrières de Mulhouse & du Haut-Rhin, 1867.
« Ce qu’il n’est pas possible de faire au profit de familles éparpillées et sans lien, les améliorations qu’on ne peut introduire dans le tohu-bohu des habitations ouvrières, ni à la ville, ni à la campagne, ni dans les caves, ni dans les mansardes habitées ; ce que ne permettent pas même les habitations ouvrières isolées les mieux construites, quel qu’en soit le système : le Familistère le permet, le Palais Social le rend possible, bien plus, il le rend nécessaire. »
Jean-Baptiste André Godin, Solutions sociales, 1871.
Pour aller plus loin :
L’album du Familistère, Guise, Les Éditions du Familistère, 2017, p. 28-29 et chapitre 7.
Jean-Baptiste André Godin, Solutions sociales, Guise, Les Éditions du Familistère, 2010 (réédition de l’ouvrage paru en 1871).
Programme du RDH
-
ÉRADICATION DE NOS ACCORDS GÉOPOLITIQUES AU PROFIT DE LA FRANCE
-
SORTIE DE L’EUROPE
-
RÉAMÉNAGEMENT DE NOS ENGAGEMENTS DIPLOMATIQUES AU PROFIT DE LA FRANCE
-
RECONFIGURATION DE NOS OPÉRATIONS MILITAIRES
-
RÉVISION À LA BAISSE DU BUDGET DE LA DÉFENSE
-
FIN À LA POLITIQUE DISCRÉTIONNAIRE DE LA PRÉSIDENCE AU TRAVERS DE NOS RELATIONS «FRANÇAFRIQUE»
-
DIMINUTION DE LA DETTE PUBLIQUE
en l’abandon volontaire de créance de la part des prêteurs et en répudiant une partie de la dette. -
CRÉATION D’UN IMPÔT DE CONVENANCE SUR LES 100 PLUS GROSSES FIRMES ÉTRANGÈRES IMPLANTÉES EN FRANCE
-
CRÉATION D’UN IMPÔT DE SOLIDARITÉ SUR LES 100 PLUS GROSSES FIRMES MULTINATIONALES
-
CRÉATION D’UN IMPÔT DE PARTAGE SUR LES 100 PLUS GROSSES FORTUNES DE FRANCE
-
ENGAGEMENT ÉCOLOGIQUE
Les mesures énoncées dans notre programme ne sont en rien exhaustives quant à celles afférentes à la politique intérieure de notre pays. Elles montrent principalement la direction dans laquelle le RDH se concentre pour réformer l’entièreté de notre organigramme étatique, et pour ce faire, le RDH restructure nos relations extérieures avec les pays étrangers.
En effet, tous les partis politiques en France, et ce sans exception, se focalisent sur la politique intérieure du pays, ce qui explique que pendant des décennies, rien dans notre pays n’a changé. Pire encore, les conditions de vie des travailleurs pauvres (les travailleurs pauvres dans notre pays représentent plus de 60%) ne font que s’aggraver au profit de celles et de ceux qui profitent d’un système où les valeurs démocratiques ne sont en rien respectées. Une fausse démocratie avec des beaux discours et des belles promesses mais rien à l’arrivée.
Les caisses de l’état sont vides et le resteront tant que nos politiciens perdureront la politique de l’autruche. A moins d’une restructuration totale de notre système étatique, en commençant par nos relations extérieures avec les pays étrangers, rien ne changera en France. « L’entretien » de ces relations extérieures avec les pays étrangers coûte très cher aux françaises et aux français, qui en retour ne reçoivent rien, si ce n’est des augmentations du coût de la vie.
De plus, l’avenir des politiques est circonscrit face aux réseaux existants, qui aujourd’hui détiennent des banques de données qui influencent les institutions publiques détentrices de pouvoir y compris tous les lobbys financiers existants. Avec le RDH, ces réseaux prônent la souveraineté du peuple face à l’exécutif.
Le programme du RDH passe donc initialement par la politique extérieure de la France pour permettre de restructurer la politique intérieure de notre pays en permettant ainsi de remplir les caisses de l’état pour finalement apporter aux françaises et aux français une réponse à leurs revendications.
Les mesures quant à la restructuration de la politique intérieure de notre pays s’appliqueront dans tous les domaines. Parmi celles-ci :
– Augmentation du pouvoir d’achat
– Augmentation du smic
– Baisse sur tous les carburants y compris le fuel domestique
– Baisse de toutes les taxes sur les produits de première nécessité
– Augmentation des retraites
– Aide supplémentaire aux handicapés
– Réévaluation à la hausse des salaires des forces de l’ordre
– Réévaluation à la hausse des salaires des sapeurs-pompiers
– Réévaluation à la hausse des salaires des enseignants
– Réévaluation à la hausse des salaires des employés dans le domaine médical
– Abaisser les charges sociales des TPE-PME
– Baisser les tarifs réglementés du gaz et de l’électricité
– Baisser l’impôt sur les revenus sur les trois premières tranches
– Augmenter l’aide aux agriculteurs
– Indemnisation aux personnes qui auraient subi un préjudice suite à leur refus de se soumettre au vaccin
Le RDH sous sa forme est un parti politique, mais avant tout est un mouvement citoyen et c’est pour cette raison que je ne vous ferai aucune promesse politique. J’en serai d’abord bien incapable, car je ne suis pas un homme politique. Par contre, je m’engage personnellement auprès des françaises et des français à appliquer un cahier des charges pour que notre pays puisse enfin répondre à vos attentes.
A la différence des institutions publiques et privées qui gèrent quotidiennement la vie de nos citoyennes et de nos citoyens au profit d’une minorité, la maison du peuple du RDH profite aux plus démunis en leur apportant une puissance d’état similaire à celle d’un gouvernement, car le RDH peut être confondu à un état dans un état, ou à un pays dans un pays.
La force de frappe du RDH est irréfragable, bien que le RDH ne cherche aucun conflit. Au contraire, la mission du RDH est avant tout humanitaire, car elle contribue à l’évolution des droits de l’homme et à l’évolution des droits de la femme, qui sont directement associés au futur de la France.
Cette évolution reprend les principes fondamentaux de notre constitution, à savoir une vraie république indivisible, laïque, démocratique, et sociale où la souveraineté nationale appartient au peuple.
Vivre la France !