Hebdomadaire Shaarli
Semaine 01 (January 3, 2022)
La taille de n'importe quelle particule virale ou bactérienne peut fournir une analyse utile dans la façon dont ces substances de infection peuvent limiter les dégats sur des cellules hôte.
Taille de SARS-CoV-2
Depuis que le coronavirus 2 (SARS-CoV-2) de syndrôme respiratoire aigu sévère a été recensé la première fois en décembre de 2019, beaucoup de spécialistes des maladies infectieuses, ainsi que chercheurs pour presque chaque avenue de médicament, avaient vérifié comment ce des propagations des virus à et infectent les êtres humains, la large gamme d'effets sur la santé sévères qu'elle peut entraîner et éventuel quels médicaments pourront détruire effectivement ce virus en toute sécurité.
En plus de l'information mécaniste, les chercheurs ont également évalué les caractéristiques de taille et de teneur des particules SARS-CoV-2. Sur l'analyse des articles SARS-CoV-2 négatif-souillés par microscopie électronique, les différents chercheurs ont eu des résultats variables, mais le diamètre du virus s'est avéré pour s'échelonner entre 50 nanomètre à 140 nanomètre.
En plus de mesurer la taille sphérique de la particule de virus, on l'a également confirmé que la longueur des tumeurs de taille entourant la surface extérieure de SARS-CoV-2 peut varier dans la longueur de 9 à 12 nanomètre.
Pourquoi la taille importe-t-elle ?
Autour du monde, les agents de la Santé ont convenu que les masques s'usants peuvent éviter l'écart du virus entre les personnes. Tandis que ceci peut être vrai, certains masques sont considérés beaucoup plus efficaces à réduire à un minimum le risque d'exposition, en particulier les masques N95.
Tandis que les masques N95 de différents producteurs peuvent avoir des caractéristiques légèrement différentes, les capacités protectrices offertes par les masques N95 sont en grande partie attribuées obligation à masques' de retirer au moins 95% de toutes les particules avec un diamètre moyen de 300 nanomètre ou moins.
La taille d'une particule de virus détermine en grande partie comment les personnes peuvent se protéger et ceux autour de elles contre acquérir SARS-CoV-2. Connaître la taille d'une particule unique de virus peut également permettre des chercheurs et des fournisseurs de santé pour impliquer la quantité de personnes de virus sont exposés à différentes routes traversantes.
Par exemple, les gouttelettes respiratoires sont en général 5-10 micromètres (µm) dans la longueur ; pour cette raison, il peut impliquer qu'une personne qui ingère, inhale, ou est autrement exposée à SARS-CoV-2 des gouttelettes respiratoires que positives peuvent être exposées aux centaines ou aux milliers de particules de virus qui augmente la probabilité de l'infection.
Des gouttelettes respiratoires peuvent être transmises par la toux, l'éternuement, le contact avec les surfaces contaminées, ou même par les aérosols inhalés ; pour cette raison, chaque personne doit prendre des mesures adéquates pour réduire leur exposition à ces particules en s'usant des masques et en pratiquant des mesures sûres de distance sociale.
Comment compare-t-elle à d'autres virus ?
Jusqu'à présent, la recherche a prouvé que les virus qui ont été recensés et isolés peuvent s'échelonner dans la taille de diamètre de 20 nanomètre aussi à grand que 500 nanomètre. Hormis le virus sphérique les particules aiment SARS-CoV-2, dont les diamètres fournissent des informations sur leurs tailles, la longueur de la tige ou les virus en forme de filament peuvent mesurer tant que 1.000 nanomètre.
Virus, en particulier ceux qui proviennent des animaux comme SARS-CoV-2, peut différer grand dans leur taille. Les plus petits virus animaux connus sont des icosahedrons, qui appartiennent aux familles de Paroviridae et de Picornaviridae et peuvent avoir un diamètre s'échelonner entre 20 et 30 nanomètre.
Comparativement, plus grand et la plupart complexe de virus actuel que n'ait jamais connu l'homme est le Mimivirus géant, qui a un diamètre total de particules, dont comprend les fibres qui s'étendent à l'extérieur du capsid, approximativement de 750 nanomètre.
Comparant des bactéries et des tailles SARS-CoV-2
Le virus SARS-CoV-2 est une particule beaucoup plus petite comparée aux modèles primaires pour la biologie cellulaire bactérienne, y compris le crescentus de bacille les sous-titres, de staphylocoque doré, et d'Escherichia coli et de Caulobacter, qui ont un volume de cellules qui s'échelonne de 400 nanomètre aussi à grand que le µm 3 (3000 nanomètre).
Les de grande taille de telles substances bactériennes contribuent souvent à leurs diverses stratégies reproductrices et maximisent éventuel leur capacité de produire et relâcher la grande progéniture.
Tandis que les comparaisons de taille entre les virus et les bactéries peuvent être utiles aux chercheurs, il est également utile de comparer la taille de SARS-CoV-2 à d'autres choses qui sont produites quotidiennement. Par exemple, un acarien est le µm en général 200 dans la taille. Si nous prenons 100 une particule du nanomètre SARS-CoV-2, ceci rend l'acarien 2000 fois plus grandes.
Références
Baron, Y.M., Flamholz, A., Phillips, R., et Milo, R. (2020). SARS-Cov-2 (COVID-19) par les numéros. doi de l'eLife 9. : 10.7554/eLife.57309.
Levin, P. A., et Angert, E R. (2015). Petit mais puissant : Taille et bactéries de cellules. Points de vue de Cold Spring Harbor dans la biologie 7(7). doi : 10.1101/cshperspect.a019216.
Varga, Z.V. et autres (2020). Microscopie électronique de SARS-CoV-2 : une tâche provocante - la réponse des auteurs. The Lancet 395 (10238, E100). doi : 10.1016/S0140- 6736(20) 31185-5.
Wes Ser, D.R. (2010). Découverte du Mimivirus géant. Scitabe.
« Modes de transmission de virus entraînant COVID-19 : implications pour des recommandations de précaution d'IPC. Organisation Mondiale de la Santé de dossier scientifique la » -
« Taille et forme » - BritanniaCombien de virus respirons nous ?
Nous inhalons en moyenne 200 000 virus par minute, soit 3333 virus par seconde ou 105 milliards par an !
Le saviez-vous ? au repos, un être humain respire 10 litres d’air par minute. et jusqu’à 50 litres lors d’un effort physique conséquent.
Les virus sont de l’ordre de grandeur du micromètre (0.001 millimètre) et sont présents partout. Ils appartiennent à la famille des vivants (même si cet aspect est un débat), mais on ne connait que peu de chose sur eux. Ils sont l’une des dernières frontières dans l’exploration biologique sur Terre.
Des chercheurs Sud-Coréens ont mené une étude métagénomique (étude génétique d’échantillons trouvés dans la nature) sur l’atmosphère au niveau du sol. Celle-ci, première du genre, évalue entre 17 000 et 400 000 le nombre de virus inhalé jusquà nos poumons chaque minute. Lors d’un footing, il est possible d'en respirer jusqu’à 2 millions à la minute.
Plus généralement, l’étude de cette population invisible a été faite dans différents types d’endroits et pendant différentes périodes, afin de mieux comprendre les facteurs influenceurs de la propagation virale. Trois sites différents ont été retenus à Séoul : un quartier résidentiel, un milieu industriel et une forêt. Les relevés ont duré plusieurs mois et consistaient à capter les organismes inférieurs au micromètre grâce à une sorte de filtre liquide, à les nettoyer, extraire l’ADN pour enfin les comparer aux banques de données existantes.
Etonnant : l’amplitude des résultats ne dépend pas du milieu de capture, mais de la période pendant laquelle elles ont été effectuées. En effet, l’air contient plus de virus en hiver. Un pic est atteint en janvier pour redescendre avec l’arrivée du printemps.
D’un point de vue scientifique, l’aspect le plus intéressant de l’étude est la découverture de nombreux virus.
Plus de la moitié des séquences génétiques analysées n’appartenaient à aucune base de données, l’essentiel étant de simples branches d’ADN, tels les Geminiviridae. Ce sont des découvertes logiques lorsque l’on sait que très peu de recherches ont été réalisées sur l’écologie microbienne de l’air, notamment car ces analyses sont très complexes et relativement longues à réaliser. Aujourd’hui, les études sont aidées par la métagénomique. (source : biolaune)
Nous vivons depuis 18 mois au rythme d'une pandémie qui a mis le monde à l'arrêt et contre laquelle nous avons bien du mal à nous défendre, malgré les moyens colossaux déployés. Et ceci par la faute d'un virus de taille nanométrique. Méconnue et largement sous-estimée, cette caractéristique rend le SARS-CoV-2 quasi impossible à éliminer de l'air ambiant en espace clos par l'immense majorité des dispositifs connus.
Un virus qui résiste malgré des moyens colossaux
Malgré les moyens utilisés sur toute la planète pour limiter sa propagation, pour décontaminer les lieux, les surfaces et les hommes… rien n’y fait vraiment. Le virus mute, ses variants persistent, résistent, en passant allègrement d’une pièce à une autre, d’une personne à une autre, d’un continent à un autre à une vitesse folle, profitant de l’incroyable mobilité des individus en ce début du XXIème siècle.
Avec un diamètre compris entre 0,06 micron et 0,14 micron, sa taille le rend quasiment insaisissable. A titre de comparaison, la taille moyenne d’un grain de pollen est de 40 microns… c’est-à-dire entre 280 et 670 fois plus gros que le nouveau coronavirus ! Parmi les principaux avantages pour le virus, la transmission aéroportée ou la capacité à voyager sur de vastes distances : il est désormais clairement établi que la propagation et la contamination se font très majoritairement par voie aérienne sous forme de nano et microgouttelettes flottant dans l’air lorsque nous respirons, parlons, chantons, toussons, éternuons... Ce qui nous amène au deuxième paramètre clé du problème actuel : la charge virale. En présence d’une personne contaminée, cette dose infectieuse se développe en millions et même milliards de virus selon le stade de la maladie. Dans un espace clos, peu importe qu’il s’agisse d’une classe d’école, d’une salle de restaurant ou d’une rame de métro, le virus se multiplie encore et encore jusqu’à saturer l’air si ce dernier n’est pas renouvelé efficacement en permanence. La transmission peut alors s’opérer très rapidement en un même lieu en fonction des flux d’air, des mouvements ou positions des personnes et du temps passé dans le lieu. Ce qui a largement été démontré par des clusters observés sur des bateaux de croisière, de simples voyages en bus ou des restaurants.
La meilleure des technologies de filtration mécanique, uniquement utilisée en milieu hospitalier pour le traitement de l’air des salles d’opération, se nomme ULPA (Ultra Low Penetration Air) : l’efficacité de ces filtres dits à "très faible pénétration" est très élevée puisqu'ils retiennent au moins 99,9975% des particules aériennes dont le diamètre est supérieur ou égal à 0,1 micron, seules 0,0005% d’entre elles passant au travers. Des millions de virus de taille nanométrique sont donc malheureusement toujours en capacité de le traverser et c’est très précisément le cas du SARS-Cov2.
Un filet à maquereaux pour attraper des sardines
Plus communément, il est fait usage de filtres ou systèmes de filtration dénommés HEPA et leurs qualités nous sont largement vantées pour protéger de ce virus, en affichant des performances de 99% à 99,97% d’efficacité. Mais méfions-nous des effets d’annonce car tout aussi rassurantes soient-elles, elles sont totalement insuffisantes. Ces dispositifs ont une capacité réelle de traitement de particules d’un diamètre supérieur ou égal à 300 nanomètres, soit dans le meilleur des cas des particules 2 à 5 fois plus grosses que le virus qui nous inquiète actuellement. Sur une échelle visible par l’homme, cela reviendrait précisément à utiliser un filet à maquereaux pour attraper des sardines cinq fois plus petites, ça ne peut simplement pas fonctionner...
Le 0,0099 qui change tout
L’efficacité se trouve donc loin derrière la virgule, même si une valeur de 99,97% peut sembler très rassurante pour le commun des mortels. A la lecture des caractéristiques d’un appareil de purification d’air, il faudrait au moins atteindre 99,9999 % pour être assuré d’une réduction drastique du nombre de particules dans l’air.
La majorité des solutions proposées cumule parfois plusieurs moyens techniques pour éradiquer le virus (UV, ionisation…) en sus d’une filtration mécanique qui élimine les plus grosses particules. Mais elles sont confrontées à un troisième paramètre clé : le temps nécessaire à la décontamination de l’air d’un espace donné, le cas échéant, en présence d’une personne contaminante « alimentant » l’air ambiant en continu de millions de virus. Cette capacité ou non à traiter des volumes d’air importants sans discontinuer conditionne l’efficacité de la machine et … son prix. Cet enjeu peut amener à une équation économique insoluble qui condamne les solutions possibles ou comme aujourd’hui, limite drastiquement leurs performances et les rend inefficaces contre les virus nanométriques. Ne parlons pas des solutions « magiques » qui, pour certaines, ne fonctionnent qu’en laboratoire, dans une petite enceinte close, mais n’ont aucun effet en test vraie vie hormis de délester les crédules de leur argent.
Ceci met en lumière une réalité incontournable : la taille et la quantité de virus ont une importance clé dans la situation que nous vivons depuis 18 mois. Les moyens techniques que l’on nous propose d’utiliser tous azimuts pour nous rapprocher de notre ancienne vie sont simplement inefficaces à cet égard.
Affronter la réalité, se donner les moyens
Alors que la pollution atmosphérique est désormais considérée comme un fléau mondial - une étude de mars 2019 évaluant ses conséquences à 8,8 millions de décès précoces par an dans le monde dont 67 000 en France – il est grand temps de considérer le sujet de l’innocuité de l’air que nous respirons comme un enjeu de santé public majeur. Nous devons investir dans des technologies efficaces qui nécessitent des engagements forts des industriels, à l’instar de la technologie ARN étudiée durant une trentaine d’années avant de profiter d’investissements colossaux des laboratoires du fait de la pandémie. Pour traiter l’air de façon globale et efficace dans les espaces clos, une technologie innovante existe : le plasma froid à puissance pulsée. Cette technologie méconnue vient de démontrer, à la suite d’essais cliniques pilotés par l'INSERM, une efficacité d’au moins 99,9999 %, soit un niveau de performance inégalé et réellement performant pour éradiquer les virus nanométriques.
Cette technologie – développée en France - n’est pour l’instant déployée nulle part. Allons-nous nous donner les moyens de la développer à une échelle industrielle ?
La science est actuellement dans une forte zone de turbulences. Parce que l’analogie trop hâtive entre la science et le progrès amène inéluctablement des désillusions sur l’incapacité « scientifique » à répondre aux nombreux défis, notamment environnementaux, de notre planète. Parce qu’il est de plus en plus délicat de délimiter une frontière entre ce qui relève réellement d’une démarche scientifique, enfin parce que celle-ci représente un enjeu de combat entre intérêts divergents, ce qui entraîne fréquemment une reprise de l’argument scientifique dans une perspective de légitimation d’un propos, la science se retrouve alors instrumentalisée dans un champ de controverses.
La science, une légitimité en trompe-l’œil
Le prestige de la science est intact et, à l’heure de la défiance généralisée, le scientifique reste un des rares interlocuteurs à bénéficier d’un taux de confiance élevé. Pour autant, sa légitimité apparaît de plus en plus contestée.
Si l’on estime que la démarche scientifique est apparue il y a plus de 2 500 ans à Babylone chez des scribes qui élaboraient des méthodes de prévision des mouvements des planètes, on s’aperçoit que l’activité scientifique a considérablement évolué. La spécialisation a démarré aux XIIe-XIIIe siècles avec le développement des universités, le poids de la religion s’est progressivement amenuisé et les découvertes scientifiques sont devenues de plus en plus le fruit d’un travail d’équipes et non plus d’un individu isolé dans son laboratoire. Les montants investis sont importants et reflètent le poids dans l’économie mondiale des grandes puissances économiques. La recherche indépendante tend à disparaître, la recherche publique stagne et les grandes avancées sont essentiellement le fait des impulsions de la R&D des entreprises. Pour la France les domaines les plus concernés sont l’automobile, l’aéronautique et l’industrie pharmaceutique. Les publications scientifiques sont devenues le graal de tous les chercheurs. 40 000 sont recensées par l’Association internationale des éditeurs scientifiques qui génère un chiffre d’affaires de 23 milliards d’euros, ce qui représente cinq fois plus que l’ensemble du marché mondial de la musique et, caractéristique majeure, 80 % de ces publications sont anglo-saxonnes. La perception que nous avons de la science doit tenir compte de ces évolutions.
Les limites de l’activité scientifique
Dans un monde qui paraît de jour en jour davantage déboussolé, la tentation croît de s’en remettre à la science pour fixer un nouvel horizon. Pourtant, et sauf à verser dans une tentation scientiste, celle-ci ne saurait avoir pour ambition de régir les destinées du monde. Le débat revient régulièrement avec les publications du GIEC que d’aucuns trouvent trop prudentes en termes de recommandations. C’est confondre l’activité scientifique et l’activité militante ou politique. La science nous apporte des résultats, à nous d’en tirer les conclusions. Comme l’indique clairement Aurélien Barrau, « Toute velléité hégémonique de la science est à proscrire »1. L’activité scientifique possède ses propres limites.
Comme l’a mis en évidence Karl Popper, la recherche scientifique, contrairement à l’idéologie, ne vise pas à accumuler des arguments en faveur d’une thèse. Elle vise à confronter une hypothèse à la réalité et aux connaissances établies. Un résultat scientifique est toujours susceptible de réfutation, le doute est une qualité fondamentale d’un chercheur.
Certes, il existe des certitudes scientifiques et plus personne ne remet en question la rotondité ou l’âge de la Terre, mais l’humilité, la remise en cause sont des caractéristiques d’une démarche scientifique intègre.
Alors que la politique et la sphère médiatique exigent des réponses binaires, la science ne peut répondre ainsi. Sur un grand nombre de sujets comme celui des faibles doses, des perturbateurs endocriniens, des nanoparticules, le lien de causalité est particulièrement délicat à mettre en évidence. De nombreuses avancées se font jour, notamment dans le domaine de la santé où les recherches sur l’exposome permettent désormais de considérer l’ensemble des facteurs environnementaux que subit un être humain tout au long de son existence. Cela conduit à la prise en compte de l’interaction entre les différents facteurs et non plus chaque effet pris séparément.
Par ailleurs, une nouvelle ère scientifique se préfigure. Celle de la remise en cause de certaines de nos certitudes, celle de l’indétermination, celle où l’on découvre que la présence d’un observateur peut influer sur les résultats. Nous avons longtemps été persuadés par la formule de Paracelse « C’est la dose qui fait le poison » jusqu’à ce que l’on découvre avec les perturbateurs endocriniens qu’une dose moyenne pouvait produire davantage d’effets qu’une forte dose, ce que les spécialistes appellent « l’effet fenêtre ».
De même, la théorie de l’effet papillon conceptualisée en 1972 par le météorologiste Edward Lorenz ouvrit la voie aux recherches sur le rôle de l’aléa scientifique et à la détection des signaux faibles.
La science a une temporalité incompatible avec le temps politique.
Si l’on a pu dire (peu importe qu’il s’agisse de légendes ou de vérités historiques) qu’Archimède a pu découvrir son théorème de la poussée des fluides en prenant son bain et Newton la théorie de la gravitation en voyant tomber une pomme, la réalité du travail scientifique nécessite désormais des moyens et des procédures considérables. Le scientifique doit commencer par obtenir des fonds pour sa recherche, constituer une équipe, procéder à des expérimentations et si celles-ci sont concluantes, doit les faire valider dans une publication, ce qui prend de l’ordre de deux années. Pour reprendre l’exemple ci-dessus des phénomènes d’accélération, on s’aperçoit que le temps de la science peut parfois apparaître inadapté aux phénomènes exponentiels qui constituent l’anthropocène.
Nous découvrons seulement récemment que de nombreux sujets considérés comme favorables à la transition écologique révèlent des impacts environnementaux parfois très importants, jusqu’à faire douter qu’ils puissent représenter de réelles solutions. L’analyse du cycle de vie des éoliennes, des panneaux photovoltaïques, du véhicule électrique indique en effet des impacts non soupçonnés jusqu’ici. Leurs effets sont-ils dirimants et mettent-ils vraiment en cause leur caractère de « solutions », il est trop tôt pour le dire aujourd’hui.
Tout ceci ne réduit en rien l’importance que nous devons accorder à la science. Cela nous rappelle simplement qu’elle s’inscrit dans un champ de forces, un contexte politique et que ses résultats sont souvent précaires.
Fake news et rumeurs, la science digitalisée
La fake news, appelée aussi vérité alternative ou post vérité, est une information sciemment fausse, propagée intentionnellement et présentant toutes les apparences d’une vérité possible. Une information erronée, mais martelée en permanence peut parfois réussir à s’imposer dans l’espace public. Ainsi, durant la campagne du mouvement populiste britannique en 2016 pour le Brexit, son leader, Nigel Farage communiquait largement sur le fait qu’en sortant de l’Union européenne, la Grande-Bretagne pourrait économiser 350 millions de livres par semaine, soit l’équivalent de 430 millions d’euros. Le Brexit à peine voté, le leader du parti UKIP reconnaissait que « c’était une erreur ».
En 2018, le magazine Sciences publia une étude sur la propagation des fake news sur les réseaux sociaux2. Les conclusions furent édifiantes : les fausses nouvelles se diffusent plus rapidement et plus profondément que les informations vérifiées. L’étude indique que les données scientifiques, les campagnes électorales, les légendes urbaines et les affaires économiques sont plus particulièrement concernées.
En moyenne, il faut six fois plus de temps à une information vraie qu’à une fausse pour toucher 1 500 personnes.
La science est particulièrement concernée par l’explosion des fake news puisqu’elle intervient en argument d’autorité pour crédibiliser un message faux. Cela n’est en soi pas nouveau. Déjà en 1976, un feuillet présentant la liste des additifs les plus cancérigènes avait été mis en circulation. Celui-ci était à en-tête de l’hôpital de Villejuif afin de conférer une légitimité scientifique. L’information était totalement erronée, l’hôpital émit plusieurs démentis et pourtant, alors que les réseaux sociaux ne sont apparus que trente ans plus tard, sept millions de Français avaient reçu ce message.
« Bfmisation » scientifique
La complexité des relations entre la science et les médias peut s’analyser autour de trois axes :
D’abord, celui de la sélection des informations. Pour prendre les débats actuels en France autour de l’économie circulaire et de l’interdiction progressive du plastique à usage unique, la représentation médiatique s’effectue quasi exclusivement sous l’angle des images de sacs plastiques dans les océans et souvent avec des animaux entravés par des produits plastiques. Récemment, en février 2019, la revue Nature Geoscience a publié une étude révélant l’ampleur des microparticules de plastique dans les montagnes. Amenées par les courants aériens, celles-ci se révèlent fortement toxiques, justement en raison de leur petite taille. Pourtant, aucun grand média n’a relayé cette information, préférant mettre l’accent sur le plastique dans les océans, celui-ci se prêtant davantage à une mise en scène médiatique.
Ensuite, celui de la sélection des experts. Les chaînes d’information en continu recourent en moyenne à une cinquantaine d’experts quotidiennement (France Stratégie, novembre 2017). Pour conférer une perception de recul critique sur l’événement, les médias utilisent en appui de leurs propres journalistes, des experts pouvant intervenir soit en commentaires à chaud d’une actualité (JT d’information), soit au sein d’émissions de décryptage (exemple : C dans l’air). La sélection d’experts dans les médias a fait l’objet de nombreuses études d’où il ressort que le critère de médiagénie, de fluidité du discours est parfois supérieur à la réalité de l’expertise. On a pu observer que la qualité d’être bien référencé sur internet accroît la possibilité d’invitation médiatique. Les subtilités terminologiques et les distinctions entre un directeur de laboratoire universitaire, un professeur, un maître de conférences paraissent bien lointaines pour un média qui cherchera prioritairement à afficher la fonction d’ « expert en » sur le bandeau télévisuel.
Enfin, une caractéristique des médias est celle de la recherche permanente du débat, de la confrontation, voire même du clash, comme l’observait Christian Salmon3. De fait, on assiste à une mise en équilibre des points de vue afin de générer un débat. Si 99,9 % des climatologues affirment la certitude désormais absolue de la responsabilité humaine dans le réchauffement climatique, les médias chercheront une voix discordante pour apporter la contradiction. Le domaine du réchauffement climatique est caricatural de cette tendance heureusement en déclin où des experts en biologie, mathématiques, géologie, s’installaient sur le plateau de télévision pour affirmer grâce à leur qualité de « scientifiques » leur opposition à la thèse d’un dérèglement climatique d’origine humaine.
La science, l’affaire de tous
Un autre paramètre, relativement récent dans cette tendance à la remise en cause de la légitimité scientifique, est celui de l’expertise citoyenne. Le mouvement pour une expertise citoyenne repose sur deux fondements, d’abord la perception d’une certaine appropriation de la science par des intérêts économiques au profit de projets de développement technologique, ensuite la croyance selon laquelle chaque citoyen serait le plus apte à évaluer la capacité d’un projet ou d’un produit à répondre à ses propres intérêts. Le principe d’introduction de la démocratie délibérative dans le champ scientifique n’est pas en soi contestable, il devra toutefois faire l’objet de nombreuses précautions pour réduire les risques de dérive.
L’instrumentalisation de la science
La science par son aura de légitimité et de crédibilité est au centre d’un combat permanent. Promoteur ou adversaire d’un projet ou d’une idée chercheront en permanence à utiliser l’argument scientifique à l’appui de leur démonstration. Plusieurs techniques sont ici employées.
La bataille des publications scientifiques
La publication scientifique obéit à des règles très strictes. Après que le chercheur – ou l’équipe de chercheurs – a adressé son projet d’article à une revue, celle-ci l’anonymise afin que les auteurs ne puissent être reconnus. L’article est alors adressé à des pairs, généralement deux. Ces relecteurs, qui n’ont pas d’indication sur l’auteur ni même sur l’autre relecteur, sont chargés d’évaluer – gratuitement – la validité de la méthode de recherche et la crédibilité des résultats.
Les deux auteurs doivent conjointement, et donc sans avoir pu se concerter, émettre un avis favorable pour permettre la publication. Dans la majorité des cas, des réserves sont apportées, ce qui conduit les auteurs à une nouvelle écriture. Ce processus appelé « peer review » (revue par les pairs) et « double blind » (relecture en double aveugle, car les deux relecteurs n’ont ni la connaissance de l’auteur, ni celle de l’autre relecteur) a fait ses preuves dans la légitimation du travail scientifique. Dans le domaine médical, la revue The Lancet, créée en 1823, publie plus de 1 500 articles par an.
Le fait d’avoir réussi à être publié par une revue scientifique apparaît comme la quintessence de la légitimité scientifique, ce qui explique les fortes pressions « publish or perish » pour y être référencé. La publication scientifique intervient comme une communication par la preuve de l’innocuité ou de la dangerosité d’un produit ou d’une activité. Les partisans d’un sujet sensible justifient leur position « pro » ou « anti » en fonction du nombre d’études publiées pouvant valider leur thèse.
Le funding effect
Professeure en nutrition et santé publique à l’Université de New-York, Marion Nestle a commencé en 2015 une étude visant à établir une éventuelle corrélation entre les études scientifiques financées par l’industrie agroalimentaire et les résultats en fonction de l’intérêt du financeur.
178 études ont ainsi été analysées et le résultat est sans appel « 156 études présentaient des résultats favorables au financeur et douze seulement des résultats défavorables »4.
Le même effet fut confirmé dans le domaine du médicament où les essais cliniques financés par l’industrie apparaissent quatre fois plus favorables au médicament testé que lors de recherches indépendantes. Les records de l’efficacité peuvent être attribués à l’industrie du tabac puisque les articles qu’elle finançait sur le tabagisme passif concluaient dans 98 % des cas à l’absence de risque. Et s’agissant du bisphénol A, 119 études indépendantes indiquaient un risque sanitaire possible, mais aucun effet décelé de ce perturbateur endocrinien lorsque l’étude était financée par l’industrie chimique.
Dans la quasi-totalité des cas, on ne saurait parler de malhonnêteté. Interrogés individuellement, les chercheurs n’ont pas le sentiment d’avoir été achetés, l’effet est plus insidieux. Insidieux mais implacable, raison de plus pour le faire connaître et en assurer la régulation.
La propagation du doute
Lors des grands procès de l’industrie du tabac qui se déroulèrent aux États-Unis au début des années 2000, l’ensemble des documents relatifs aux effets cancérigènes et aux stratégies de communication utilisées ont été rendus publics. Parmi eux, un mémo sans ambiguïté : « le doute est notre produit ». Celui-ci énonçait clairement que pour combattre l’importance croissante des preuves sur la nocivité du tabac, l’industrie devait propager le doute sur les preuves réelles de cette nocivité. L’objectif était de développer une importante masse de données scientifiques pour défendre l’industrie du tabac contre les attaques. Après avoir créé une façade de scientificité, le Tobacco Industry Research Committee, et avec l’aide d’agences de relations publiques, l’industrie adressera à près de 200 000 médecins une plaquette « A scientific perspective on the cigarette controversy ». Nous savons aujourd’hui grâce à ces documents que, dès 1953, l’industrie du tabac était parfaitement consciente des dangers de son produit. C’est donc clairement une stratégie de combat par la propagation du doute scientifique qui fut mise en place.
Dans leur ouvrage paru en 20105, Erick Conway et Naomi Oreskes montrent que cette « stratégie du tabac » a été appliquée à la plupart des grands enjeux écologiques ou de santé publique, comme l’amiante, le réchauffement climatique, les pesticides, les pluies acides ou le trou d’ozone.
Ainsi, la réalité du réchauffement climatique fut d’abord combattue dans son constat. Lorsque celui-ci fut sans ambiguïté, les climato-sceptiques eurent recours aux travaux d’historiens pour propager l’idée qu’il ne s’agissait que de variations naturelles. De même, durant les années 90, il fut déclaré que le phénomène des pluies acides n’était pas avéré et que de nouvelles recherches étaient nécessaires, puis lorsque le constat fut accablant, qu’elles pouvaient – elles aussi – être causées par des phénomènes naturels.
Pareillement sur le trou dans la couche d’ozone, l’industrie des chlorofluorocarbures, accusée à raison d’en être la cause principale, argumentera d’abord sur l’inexistence de toute preuve montrant que les fluorocarbures pouvaient atteindre la stratosphère, puis qu’ils ne pouvaient pas produire la chlorine responsable de l’augmentation du trou d’ozone, enfin que la chlorine en elle-même n’avait aucun effet sur l’ozone.
La stratégie du doute utilise le principe même de la science, à savoir la reconnaissance d’une réfutation possible.
Beaucoup de scientifiques participent bien malgré eux à cette suspicion sur la fiabilité de leurs études. En raison d’une quête incessante aux subventions, la plupart des publications scientifiques concluent sur la nécessité de nouvelles études pour valider les résultats, brèche dans laquelle se ruent ceux qui portent des enjeux financiers contraires.
Dans les faits, la propagation du doute s’observe très tactiquement et souvent grossièrement de manière suivante :
La survalorisation d’une erreur partielle ou d’un biais procédural ouvrant la possibilité de dénoncer l’absence de rigueur et donc la fiabilité des résultats. Cela fut utilisé lors du Climategate en 2009, lorsqu’on découvrit que le GIEC prévoyait dans son quatrième rapport une disparition totale de l’ensemble des glaciers himalayens pour 2035. Cette erreur était en fait une simple inversion de chiffres (2350) et bien qu’il soit quasi impossible d’éviter au moins une coquille dans un rapport de 2 000 pages, rien n’y fit et la polémique s’installa.
La discordance des résultats obtenus entre deux études.
La contradiction entre deux propos soit d’un même scientifique, soit entre scientifiques membres de la même équipe.
Le déni de toute scientificité, soit par la suspicion portée sur une équipe (le GIEC ne serait qu’un mouvement alarmiste et décliniste dont le seul but serait la recherche de subventions), soit par des attaques ad hominem. La biologiste Rachel Carson, qui publia une mise en cause argumentée contre le DDT en 1962, fut accusée d’être « émotive et hystérique » ; le professeur Seralini, auteur d’une étude critique contre les OGM en 2012, fut accusé de collaborer avec une société de phytopharmacie liée à un mouvement sectaire ; l’ancien vice-président du GIEC, le belge Jean-Pascal van Ypersele, fut présenté comme un censeur qui cherche l’intimidation. Le professeur Belpomme, qui publia en 2008 un rapport dénonçant l’usage du chlordécone dans les champs de bananes aux Antilles, apparut comme une personnalité provocatrice à la recherche de scoop. Un des pionniers des recherches en climatologie aux États-Unis, Stephen H. Schneider, fut qualifié en 1996 d’ « environnementaliste à toutes températures ». Fin observateur des pratiques de détournement de la science, le journaliste Stéphane Foucart le confirme « Les extracteurs de ressources fossiles (charbon, pétrole, gaz) financent des campagnes de dénigrement de chercheurs »6.
L’astroturfing
L’Astroturf est un revêtement synthétique imitant les terrains de jeux gazonnés. Le terme, utilisé pour la première fois par le sénateur texan Lloyd Bentsen en 1986 dans le champ politique, décrit une stratégie de communication qui vise à occulter son émetteur principal7. Comme pour le gazon synthétique, elle cherche à apparaître vraie en dissimulant sa véritable identité. Ni les objectifs réels, ni surtout la véritable identité ne sont connus. Il y a dans l’astroturfing dissimulation de la source, mais aussi utilisation illégitime d’une autre identité.
L’astroturfing s’explique par l’extrême distanciation des citoyens envers le monde de l’entreprise perçu comme de moins en moins légitime.
Sur un grand nombre de sujets sensibles, la posture économique des entreprises les prive de la crédibilité nécessaire. Celles-ci ont parfois tendance à dissimuler l’origine réelle de leurs messages. Dans la plupart des cas, l’astroturfing vise à se donner l’apparence d’un mouvement citoyen à l’exemple de la Global Climate Coalition aux États-Unis qui n’est en réalité qu’un lobby financé par l’industrie pétrolière. En France, le « Réseau biodiversité pour les abeilles » est financé par l’industrie phytosanitaire. De nombreuses ONG estiment en analysant ses actions que ce « réseau » sert essentiellement à pénétrer les organes décisionnels et à intervenir dans les colloques pour minimiser le rôle des pesticides dans la disparition des abeilles.
Ainsi, pour donner l’apparence de scientificité à ses propres arguments, l’industrie pourra sans difficulté créer de toutes pièces un établissement possédant le terme « Recherche », « Académie », « Institut », dans son intitulé, ce qui rendra difficile l’opposition frontale, la Recherche ayant encore une forte légitimité. Il restera à celui-ci à créer ensuite sa propre publication et il pourra se prévaloir d’une image de rigueur scientifique auprès d’interlocuteurs notamment médiatiques, pas toujours informés des principes fondamentaux d’une réelle publication scientifique. Il suffit bien souvent de quelques pages pleines de termes techniques, de références scientifiques, si possible anglo-saxonnes, de graphiques, courbes, tableaux et quelques équations, et l’ensemble paraîtra être une étude scientifique. Plusieurs organes regroupent ainsi des experts ou scientifiques (souvent à la retraite) dans l’objectif de développer des arguments en soutien aux visées économiques de la filière. Aux États-Unis l’International Life and Science Institute (ILSI) en est un exemple. Financé par les principaux acteurs de l’industrie agroalimentaire, chimique et pharmaceutique, cet « Institut » produit des études qui visent à influer sur le processus de régulation des produits chimiques et alimentaires. Le board comprend 21 personnes dont 16 arborent leur doctorat. En Europe, le Centre européen pour l’écotoxicologie et la toxicologie des produits chimiques annonce promouvoir des solutions scientifiques crédibles et pratiques, il a toutefois l’honnêteté d’annoncer immédiatement sur sa home page qu’il est financé par l’industrie. Dans son ouvrage sur le rôle des lobbies8, Stéphane Horel présente l’alliance pour la recherche et l’éducation de la pomme de terre (pilotée par Mc Cain, le leader international des produits surgelés à base de pomme de terre), l’Institut nord-américain de la viande (qui n’est que la vitrine de la filière) ou l’organisation internationale de recherche sur le plomb et le zinc (une simple branche de l’industrie des métaux).
De même, l’Institut américain du pétrole créé en 1919, n’est qu’un pur organe de lobbying. L’Institut de recherche pour les flagrances est au service exclusif de l’industrie du parfum. Coca-Cola finançait discrètement le « Beverage institute of health and wellness » jusqu’à ce que des polémiques éclatent et que la marque révèle publiquement son soutien financier9. Stéphane Horel présente également deux cas un peu extrêmes ; celui de l’Institut national de la pizza surgelée, mais aussi, et cela fait moins sourire, le « joint European research medical board » qui prétendait promouvoir la recherche sur la sûreté des produits industriels, et qui était essentiellement « une organisation de lobbying qui élaborait la défense de l’amiante »10.
En dehors de la création de pseudo instituts de recherches, l’astroturfing peut emprunter la voix d’une apparence de scientificité pour créer une controverse et appuyer ainsi une stratégie de propagation du doute.
Le plus bel exemple est sans conteste l’appel de Heidelberg que Stéphane Foucart désigne comme étant « sans doute la plus formidable opération de communication scientifique jamais entreprise par un lobby industriel »11. À quelques jours de l’ouverture du Sommet de Rio qui, en 1992, devait marquer la première grande prise de conscience internationale environnementale des décideurs politiques et économiques, 70 prix Nobel publient un texte pour mettre en garde contre une certaine émotionalité, voire une dérive idéologique qui traverse le champ écologique. L’investigation journalistique menée alors par Roger Cans pour le journal Le Monde retrace sans ambiguïté l’origine de cet appel. Initié par le directeur de la communication d’une entreprise pharmaceutique, relayé par une agence de relations publiques, travaillé par un groupe de chercheurs réunis à Heidelberg, l’ensemble reçoit des subsides d’une fédération qui cherchera toujours à apparaître en retrait, l’industrie de l’amiante qui visait à l’époque – comme aujourd’hui celle des pesticides – à propager l’idée d’un « usage contrôlé de l’amiante ».
*
- *
La science, ou plutôt les sciences, se retrouve donc dans une zone de turbulences, contestée sur ses fondements, critiquée sur son incapacité à répondre souvent de manière non ambigüe, remise en question par l’explosion des fake news et d’une pseudo-expertise, instrumentalisée à des fins idéologiques ou de défense d’intérêt, le statut scientifique est aujourd’hui fortement remis en question. Nul doute que c’est en restant focalisé sur la rigueur de sa démarche sans tomber dans le piège du clash des opinions que le scientifique conservera l’intégralité du prestige qu’il mérite et dont la société a décidemment bien besoin.
Thierry Libaert
Professeur des universités
Président de l’Académie des Controverses et de la Communication Sensible
Membre du Comité Économique et Social Européen
Aurélien Barrau, De la vérité dans les sciences, Dunod, 2019, p. 20. ↩
Soroush Vosoughi, Deb Roy et Sinan Aral, « The spread of true and false news online », Sciences, 9 mars 2018. ↩
Christian Salmon, L’ère du clash, Fayard, 2019. ↩
Stéphane Horel, Lobbytomie, La Découverte, 2018, p. 82. ↩
Naomi Oreskes et Erik Conway, Merchants of doubt, Bloomsbury Press, 2010. ↩
Stéphane Foucart, Des marchés et des dieux : quand l’économie devient religion, Grasset, 2018, p. 213. ↩
Sophie Boulay, Usurpation de l’identité citoyenne dans l’espace public, Presses de l’UQAM, 2015. ↩
Stéphane Horel, op. cit. ↩
Coca-Cola, « Continuing transparency: evolution of the beverage institute of health and wellness », 14 septembre 2016. ↩
Stéphane Horel, op. cit. p. 118. ↩
Stéphane Foucart, La Fabrique du mensonge, Denoël, 2013, p. 83. ↩Les virions (ou "particules") de virus coronaires sont des particules sphériques d'un diamètre compris entre 0,06 micron et 0,14 micron, soit une moyenne d'environ 0,125 micron, mesurées au microscope électronique (Zhu et all, 2020).
Quelle est la taille d’un virion Covid-19 par rapport au MP10-2,5 ?
Les virions (ou « particules ») de virus coronaires sont des particules sphériques d’un diamètre compris entre 0,06 micron et 0,14 micron, soit une moyenne d’environ 0,125 micron, mesurées au microscope électronique (Zhu et all, 2020). Cela signifie que les particules de coronavirus sont plus petites que les particules de PM2,5, mais plus grandes que certaines particules de poussière et de gaz (figure 1).
Quelle est la relation entre le taux d’infection et les concentrations de PM10 ?
Le 20 mars 2020, Setti et all ont publié une étude à la Société italienne de médecine environnementale (SIMA), dans laquelle ils ont trouvé une relation linéaire avec R=0,98 entre les niveaux de MP10 supérieurs à 50 microns / m3 et la vitesse de propagation de COVID-19 en Italie. Ces résultats sont tout
à fait conformes aux études scientifiques sur la propagation des virus et des bactéries dans la population par les particules en suspension, qui établissent une corrélation entre l’incidence des infections virales et les niveaux des particules atmosphériques (PM10 et PM2,5). (Ciencewicki J. et al., 2007 ; Sedlmaier N., et al., 2009).
Ces résultats apportent de nouvelles informations qui complètent les observations de l’Organisation mondiale de la santé (OMS) qui, en février 2020, a indiqué qu’il n’y avait aucune preuve de transmission par voie aérienne dans les hôpitaux qui ne contiennent pas d’activités générant de fortes concentrations d’aérosols ou de particules en suspension. L’expérience italienne indique une relation directe entre des niveaux plus élevés de particules et des taux plus élevés de contamination par les COV-19 en Italie.
Les figures 2 et 3 montrent que pour chaque fois que la moyenne quotidienne augmente de 50 μg/m3 , le taux d’infection logarithmique augmente de 0,234%. C’est-à-dire qu’à des niveaux moyens de PM10 de 350 μg/m3, notre taux d’infection sera 2 fois plus élevé qu’à des niveaux inférieurs à 50 μg/m3, comme on peut l’observer parmi les différentes courbes d’infection observées dans les régions analysées dans la publication italienne, dans laquelle le taux d’infection élevé de la Lombardie dans les autres régions italiennes se distingue.
Comment réduire le risque d’infection pour nos travailleurs et nos communautés ?
Au regard de ces nouvelles informations, ABCDust recommande qu’en plus de suivre les mesures d’hygiène, de prévention, de propreté et d’assainissement recommandées par les autorités sanitaires, les mesures complémentaires suivantes soient évaluées:
Augmenter l’atténuation de MP10-2.5 recommandée de 85 % à 90 à 95 % des zones critiques, telles que la zone minière et la zone sèche d’un site, pour lesquelles ABCDust dispose d’additifs DMS-DS et DMS-TDS pour aider à supprimer 90 à 95 % des poussières, ainsi que d’un équipement de canons de contrôle de la poussière, capteurs continue des niveaux extrêmes de MP10-2.5
Contrôler en permanence les niveaux de MP 1- 2,5 dans les zones de réception et les espaces de travail et de nuit du personnel, en veillant au respect des limites et des valeurs maximales requises par la réglementation, en intégrant des systèmes d’alerte en temps réel pour le personnel, pour l’utilisation en temps voulu des masques de protection personnelle N95 ou équivalents, en cas de dépassement des valeurs réglementaires de MP 2,5. À cette fin, ABCDust propose sa ligne de capteurs multicanaux et sa plate-forme de gestion des poussières DMS- ONE.
Améliorer l’excellence opérationnelle en termes de maintenance préventive des systèmes d’encapsulation, des filtres et de la climatisation du site, pour prévenir les événements de haute pollution qui mettent en danger la santé humaine et nous obligent à arrêter ou à réduire la cadence de production, pour lesquels ABCDust met à disposition son personnel pour l’aider à générer des plans d’action à cet effet. Contactez-nous pour savoir comment nos produits, équipements et services peuvent vous aider à lutter contre la COVID-19 dans votre entreprise ou votre environnement de travail.Des milliards de virus et de bactéries tombent sur Terre en provenance du ciel. Des microbes qu’on retrouve à 3000 mètres du sol et qui peuvent voyager à des milliers de kilomètres de distance. Il y a des virus au sol, dans les océans, mais aussi dans les airs. C’est d’ailleurs la voie de transmission de bon nombre d’entre eux.
Pour la première fois, ils ont analysé la couche la plus basse de l’atmosphère terrestre (la troposphère) dans le but de quantifier le nombre de virus qui peuvent y circuler. Ils ont dénombré entre 260 millions et sept milliards de virus par jour et par mètre carré. Ces quantités sont 9 à 461 fois supérieures à celles des bactéries. Ces microbes peuvent voyager très loin avant de redescendre sur Terre, grâce à des épisodes pluvieux ou en s’accrochant à des particules de poussière.
"Il y a 20 ans environ, nous avons commencé à trouver un peu partout dans le monde des virus génétiquement très similaires, mais se trouvant pourtant dans des environnements très différents. L'importance du nombre de virus survivant suffisamment longtemps dans l'air explique probablement ce phénomène. Il est tout à fait concevable qu'un virus s'envole d'un continent pour atterrir sur un autre."
Les "pluies" de virus et de bactéries existaient déjà bien avant les observations faites et l’humanité n’a pas pour autant été éradiquée par des épidémies. Au contraire, les chercheurs pensent que ces microbes pourraient avoir des effets positifs sur les écosystèmes qu’ils parcourent.
Ils s’appuient sur de récentes études qui ont montré que les virus jouent un rôle important dans la régulation du carbone dans l’océan. D’autre part, il existe des virus dits bactériophages qui préservent les humains en détruisant des bactéries nocives pour les humains.
"La fabrique de l'ignorance" sur Arte : Quand les industriels instrumentalisent la science contre l'environnement
Freiner le progrès de la connaissance en utilisant la science contre elle-même : c’est la stratégie utilisée par certains industriels pour faire naître un doute sur la toxicité de leurs produits, ou remettre en question le réchauffement climatique. Un mécanisme décortiqué dans le documentaire La fabrique de l’ignorance, diffusé ce soir sur Arte, et disponible jusqu’au 23 avril sur le site internet.
Pourquoi a-t-il fallu près de 50 ans pour admettre la toxicité du tabac ? Comment se fait-il que certains questionnent encore l’origine humaine du réchauffement climatique ? "Il n’y a pas de consensus " entend-t-on parfois dans les médias, et sous la plume même de scientifiques. Mais de quel consensus parle-t-on ? En revêtant les habits de juge et d’arbitre "la science est devenue une activité à influencer, à miner ou à corrompre" pose d'emblée le documentaire "La fabrique de l'ignorance", réalisé par Pascal Vasselin et Franck Cuveillier. Diffusé ce soir sur Arte, il est également disponible sur le site internet de la chaîne jusqu'au 23 avril. Par le biais de témoignages de scientifiques, de professions de foi et de mea culpa, l'enquête dévoile et décortique les techniques innovantes et encore méconnues mises en œuvre par les industriels pour semer le doute sur la dangerosité de leurs produits.
Un mécanisme initié par l'industrie du tabac
La stratégie fleurit dans les années 50, aux États-Unis. L’industrie du tabac entre alors en crise : la recherche scientifique révèle que la cigarette provoque des cancers du poumon et accidents cardiovasculaires. Impossible pour le secteur de contester les résultats. Mais les géants du tabac n'entendent pas se laisser faire et font le pari de financer leurs propres laboratoires. "L’utilisation de la science contre la science est un véritable tournant, un renversement ", souligne dans le documentaire Naomi Oreskes, professeure d'histoire des sciences à l'Université de San Diego, en Californie.
L’objectif est de produire des études scientifiques alternatives qui attribuent aux cancers du poumon d'autres origines, comme la génétique ou la pollution de l'air. Le tabac devient une cause de cancer comme une autre. Semer le doute dans l'opinion publique permet alors de "gagner du temps" soulignent à l'unisson les scientifiques interrogés. Une stratégie efficace, puisque l'industrie du tabac ne sera condamnée que 40 ans plus tard.
La mécanique a depuis largement été reprise et déclinée. Bisphénol A, réchauffement climatique, néonicotinoïdes... l’enquête revient sur ces grandes controverses fabriquées par l'industrie qui animent le débat public depuis des décennies. Et retardent les prises de décisions politiques.
Un phénomène amplifié par les réseaux sociaux
La diffusion de cette science alternative a été démultipliée avec le développement des réseaux sociaux. "Pour la communauté scientifique quasi unanime, le réchauffement climatique est sans équivoque et l'influence de l'homme est claire", constatent les auteurs. "Mais pour autant le consensus ne s'impose pas sur les réseaux". Pour une raison simple : "Les climatosceptiques sont à la fois moins nombreux et plus actifs. Ils contrebalancent le débat", décrypte l'Institut des systèmes complexes de Paris. Cela suffit à alimenter une controverse... là où il n'y en a pas.
La volonté de détourner la science n'est pas nouvelle, souligne cependant le documentaire. Ce n'est ni Galilée, ni Copernic, censurés et condamnés, qui affirmeraient le contraire. "Il y a 300 ans les progrès scientifiques se heurtaient à l'église", détaille Linsey Mc Goey, professeure de sociologie à l'Université d'Essex. "Mais aujourd’hui c’est le marché qui prend le rôle de l’église, c’est l’économie qu’il est devenu difficile de contester". Une chose est sûre, conclut l'enquête : cancers, victimes du réchauffement climatiques, montée des eaux… "Quelques soient les croyances, la réalité finit par s’imposer".
Pauline Fricot, @PaulineFricot