Mensuel Shaarli
January, 2022
Comment cultiver la luffa en région parisienne
C’est en 2005 que j’ai obtenu les meilleurs résultats
Mais d’abord, présentons la lufa cylindrica :
c’est une espèce de courge
qu’on fait sécher pour obtenir une éponge végétale
qui peut servir comme gant de crin,
pour faire la vaisselle,
comme décoration…
On la trouve aussi sous le nom de courge éponge.
La Li-Fi : une alternative aux ondes électromagnétiques du Wi-Fi ?
La technologie Li-Fi module les ondes de la lumière visible pour transmettre des informations et permettre ainsi une connexion internet sans fil sans passer par le support de la partie radio des ondes électromagnétiques.
Abandonner la portion des ondes électromagnétiques utilisées par le Wi-Fi tout en bénéficiant d'une connexion à internet sans fil, une utopie? La perspective pourrait en tous cas séduire des crèches, des locaux en sous-sols ou encore pour créer des zones blanches pour les personnes électrosensibles. La Li-Fi (light fidelity) pourrait constituer un début de réponse. Son principe est simple : alors que le Wi-Fi utilise les ondes radio pour transmettre des informations, la Li-Fi s'appuie sur les...
Question écrite n° 15799 de Mme Laurence Cohen (Val-de-Marne - CRCE)
publiée dans le JO Sénat du 07/05/2020 - page 2067
Mme Laurence Cohen attire l'attention de M. le ministre de l'agriculture et de l'alimentation sur l'assouplissement des règles d'étiquetage des produits alimentaires pendant la durée de la crise sanitaire du Covid-19.
En effet, comme l'a dénoncé l'organisation non gouvernementale Foodwatch, vendredi 24 avril 2020, les fabricants sont autorisés à « produire des denrées dont la composition diffère de ce qui est indiqué sur l'étiquette ». Ils peuvent ainsi modifier les recettes sans en avertir les consommateurs. Cela vise à aider l'industrie agroalimentaire qui rencontre des difficultés d'approvisionnement en cette période de crise.
La direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), a confirmé cette « tolérance ponctuelle » de « modifications mineures » et assure qu'il n'y a aucun risque notamment pour les consommateurs allergiques à certains produits.
Néanmoins, elle lui demande comment permettre aux consommateurs de consulter la liste précise des produits concernés et des modifications effectuées, ainsi que d'être tenus informés de ces changements de la manière la plus transparente possible dans les supermarchés.
Transmise au Ministère de l'économie, des finances et de la relance
Réponse du Ministère de l'économie, des finances et de la relance
publiée dans le JO Sénat du 04/02/2021 - page 748
Au printemps 2020, la crise sanitaire liée à la Covid-19 a gravement perturbé l'activité des producteurs de denrées alimentaires, notamment en compliquant l'approvisionnement en certaines matières premières et en emballages. En conséquence, des recettes de certains produits ont dû être temporairement modifiées. Afin de ne pas grever davantage les charges du secteur en contraignant les opérateurs à changer l'étiquetage ou à arrêter leur production le temps d'effectuer les ajustements nécessaiers, la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) a accordé, ponctuellement, des dérogations pour que les producteurs puissent utiliser un étiquetage inchangé, à la condition que ces modifications portent sur des points mineurs, et bien entendu, ne touchent pas à des informations essentielles, notamment des questions de sécurité. Le site internet de la DGCCRF, régulièrement tenu à jour, a recensé les dérogations accordées, permettant ainsi une information transparente des consommateurs.
Les enfants ont un besoin fondamental de jouer avec les instruments de leur culture
Lien entre écrans, culture et jeux libres chez les enfants
Dans son livre Libre pour apprendre (Actes Sud éditions), Peter Gray affirme que les enfants ont un besoin fondamental de jouer avec les instruments de leur culture. Or, dans nos sociétés modernes, les ordinateurs, tablettes et smartphones sont les instruments de la culture. Selon lui, le risque d’addiction aux jeux vidéos apparaît quand l’environnement par ailleurs est pauvre (pauvre en affection, en chaleur humaine, en attention de la part d’adultes bienveillants, en opportunités d’exercer la créativité, l’autonomie, le pouvoir personnel et les compétences… autrement dit pauvre en opportunités de jeux libres).
Peter Gray cite une étude (Przybylski, 2009) qui a montré que les enfants qui ont des opportunités de jouer à la fois sur écran et dehors vont la plupart du temps choisir un équilibre entre les deux. Les enfants qui restent scotchés devant leur écran apparaissent être ceux qui ont peu d’opportunités de jouer dehors et/ou de manière libre et autonome par ailleurs.
Le déclin des jeux libres et extérieurs
Pour Peter Gray, le déclin des jeux extérieurs s’expliquent surtout par la montée des peurs parentales (amplifiées par les histoires entendues dans les médias et qui conduisent à plus de contrôle sur les activités des enfants et moins d’autonomie) et par les changements sociétaux modernes (deux parents actifs avec des temps de trajet souvent longs donc moins de temps libre à la maison pour les enfants, augmentation de la population citadine, architecture des villes qui ne permet pas toujours le jeu libre des enfants, attention des parents grignotée par les écrans et/ou par des préoccupations financières, peur de la précarité économique future donc pression sur les activités scolaires et péri scolaires pour assurer la réussite académique, écoles organisées comme des usines laissant peu de place à l’autonomie, à la créativité et à des activités auto dirigées…).
On se trompe de chantier !
André Stern abonde en ce sens également : ce n’est pas tant le monde virtuel qui pose problème que l’organisation de l’école et de la maison. Si le “vrai” monde était aussi attirant que le monde virtuel, les enfants n’auraient pas besoin de se perdre dans le monde virtuel. Pour les enfants, il est difficile d’être des héros dans la “vraie” vie du fait des faibles opportunités laissées au jeu libre, à l’autonomie (peu de jeux dehors seuls, évaluation et classement hiérarchique à l’école, adultisme) et du fait des habitudes éducatives basées sur la peur, le contrôle et la domination.
On peut lire dans l’article L’adultisme, ce poison invisible qui intoxique nos relations avec les enfants du site oveo.org que “Nous utilisons les écoles, les lieux culturels, religieux et même l’autorité parentale pour nier les droits élémentaires des enfants à être traités avec respect et confiance.”
Pour André Stern, on se trompe donc de chantier quand on diabolise les jeux vidéos : il s’agit de se poser la question “dans quel monde est-il facile de devenir un héros ?“. Il nous revient alors de créer de monde et de repenser la manière dont nous vivons avec les enfants à l’école et à la maison pour leur permettre de vivre leur nature en les respectant inconditionnellement et en leur redonnant du pouvoir personnel.
Une solution entre deux extrêmes (supprimer tous les écrans vs. supprimer toutes les opportunités de jeux libres et d’autonomie) serait d’offrir autant que possible des opportunités aux enfants de jouer dehors avec d’autres enfants de tout âge et sans l’intervention d’adultes. Les enfants ont besoin de maîtriser les outils technologiques et informatiques de notre culture et, en même temps, ils ont besoin de jouer dehors. Les mots clés ici sont liberté et opportunités (pas obligation).
info sur l'initiateur : https://www.flinders.edu.au/people/paul.gardner-stephen
Parler de blockchain est assez profond et a beaucoup à couvrir. Cette fois, nous parlerons un peu des Dapps ou des applications décentralisées.
Une application décentralisée (Dapp, dApp ou DApp) est une application exécutée par de nombreux utilisateurs sur un réseau décentralisé avec des protocoles fiables. Ils sont conçus pour éviter tout point de défaillance unique. Ils ont généralement des jetons pour récompenser les utilisateurs pour leur puissance de calcul.
définition
La définition la plus précise que j'ai trouvée de ce qu'est un dapp: Il déclare: les dapps fonctionnent de manière autonome sans entité centrale de contrôle avec tous les changements décidés par les propositions et le consensus de ses utilisateurs.
Cela commence déjà à clarifier pourquoi les Dapps sont devenus si intéressants pour les développeurs: sans autorité centrale, ils sont supérieurs sur le plan architectural aux applications centralisées.
Les définitions typiques incluent les attributs suivants:
Le code est open source et géré de manière autonome.
Les enregistrements et les données sont stockés à l'aide de la blockchain, offrant une interaction fiable et évitant tout point de défaillance unique
Utilisez des jetons cryptographiques pour récompenser les utilisateurs qui fournissent une puissance de calcul.
Jetons générés via un algorithme cryptographique.
Les avantages de Dapps
L'un des principaux défis des applications Web classiques est la tolérance aux pannes. Si une application devient trop populaire ou est victime d'une attaque par déni de service, le développeur de l'application ne peut rien faire d'autre que pleurer.
En outre, Les Dapps ont leurs ressources et fonctionnalités distribuées parmi les pairs sur la blockchain.
Ce qui rend les attaques traditionnelles extrêmement coûteuses déni de service, car ils ne dépendent pas d'un seul serveur.
Les autres avantages importants des dapp par rapport à leurs homologues centralisés sont qu'ils remodèlent la dynamique.
Les plates-formes comme Facebook, Twitter et Instagram dépendent du contenu que leurs utilisateurs produisent et consomment.
Avec des applications régulières, l'entité centralisée est le bénéficiaire maximum de l'effort apporté par ses utilisateurs.
Avec Dapps, leurs modèles de gouvernance décentralisée garantissent une redistribution du pouvoir afin que les utilisateurs d'applications et leurs créateurs de logiciels puissent en bénéficier de manière plus équitable.
Alors que les avantages technologiques de Dapps peuvent être très clairs, quand il s'agit de vraiment libérer le potentiel des dapps, étant donné qu'il s'agit d'une partie décentralisée, la manipulation des données est assez difficile.
Un exemple clair que nous pouvons donner est le rôle des réseaux sociaux dans les événements politiques, un exemple clair était en Égypte il y a quelques années.
Un autre exemple est celui des scandales révélés lors d'élections dans certains pays, où les réseaux sociaux ont été utilisés pour favoriser certains candidats.
Compte tenu de cela, Dapps peut totalement changer le paysage, mais un élément manque toujours: les données en temps réel.
Les applications qui peuvent prendre vie et fonctionner en ce moment, ils seront toujours un outil beaucoup plus puissant pour les personnes et les organisations que les applications qui doivent essentiellement rester statiques dans le temps.
La plupart des développeurs, bien sûr, connaissent parfaitement les avantages des informations en temps réel.
Mais l'intégration de sources de données en temps réel de qualité pour les applications décentralisées présente de sérieux défis.
Actuellement, les Dapps qui ne gèrent que les transactions cryptographiques dans le cadre de la blockchain n'ont pas besoin de réfléchir à ces problèmes.
Cependant, pour créer des Dapps complexes qui peuvent offrir plus de fonctionnalités qu'un simple règlement de transaction, l'accès aux données externes en temps réel des personnes ordinaires et d'une multitude d'organisations devient vital.
Quelques Dapps
Enfin, quelques Dapps ont vu le jour et dont on peut en citer:
Augur - Marché de la prédiction
Jeton d'attention de base - Réseau de publicité numérique.
Cryptokitties - jeu virtuel basé sur la blockchain
OmiseGO - plateforme de paiement ouverte et échange décentralisé.
Steemit - une plateforme de blogs, similaire à Reddit
Steepshot - une plateforme de partage de photos, similaire à Instagram
DTube - une plateforme de partage vidéo, similaire à Youtube
DSound - une plateforme de partage de musique, similaire à SoundcloudLes réseaux en maillage, ou mesh, constituent un moyen unique de partager l’information et de s’envoyer des fichiers dans un périmètre qui dépend du nombre d’utilisateurs. Chaque smartphone, ordinateur ou objet connecté peut devenir un mini-serveur dans un réseau qui s’affranchirait de tout contrôle…
Lorsqu’on parlait de réseau en maillage, ou mesh, dans le milieu des années 2000, nous prenions souvent en exemple des dictatures comme la Chine ou la Biélorussie. Une quinzaine d’années plus tard, nous parlons toujours de ces réseaux secondaires avec la peur au ventre. Cette crainte de plus en plus présente : voir la France basculer dans la liste des pays où la liberté est bafouée.
Un réseau dans le réseau…
Imaginez un réseau d’ordinateurs qui fonctionnerait de manière autonome en recevant et émettant des données en haut débit via le Wi-Fi, ou en débit ou peu plus limité via Bluetooth, sans qu’il y ait besoin d’une multitude de serveurs pour faire circuler l’information. Avec une simple clé USB munie du logiciel, un ordinateur ou un mobile pourrait devenir une partie intégrante de ce réseau, anonyme et chiffré si besoin. Ce genre de réseau utilise un système de routage dynamique qui s’autoguérit : si un relais disparait ou est déplacé, la structure reste intacte et la connexion est assurée en bout de chaîne.
Allume la mesh !
Il existe de nombreux systèmes sur ce modèle comme NYC Mesh qui a vu le jour en 2020 au sein d’un groupe protestant contre les violences policières et qui continue de croître à Manhattan, Brooklyn et Harlem. On compte aussi le géant Mycelium Mesh qui a battu des records de portée (42 kilomètres) grâce à des relais radio LoRa alimentés par des batteries ou des mini panneaux solaires.
Mais malgré ce qu’on peut lire çà et là, il ne s’agit pas de contourner les opérateurs mobiles ou les fournisseurs Internet puisque ces derniers sont indispensables si on veut relier le réseau en mesh à Internet. Certes ce n’est pas obligatoire pour s’envoyer des messages sur le réseau entre membres, mais l’accès à Internet est presque indispensable dans un but militant pour poster des photos où accéder à des médias en ligne. Il faut aussi un sacré débit pour pouvoir alimenter tout le monde depuis une seule connexion, c’est pour cette raison que l’utilisation de ce type de réseau peut être limitée à certaines utilisations. Pas question d’utiliser la connexion du peuple pour streamer un film en 4K.
Les ennemis d’un système
Partout où l’on musèle Internet (Népal, Tchad, Égypte…) on voit apparaitre ce genre de réseau parallèle à l’instar de l’utilisation de FireChat à Hong Kong. Le but du jeu est de se servir d’Internet pour chiffrer et se cloisonner du reste du monde. On ne sait jamais, en France nous pourrions voir l’émergence d’un despote encore plus vicieux que celui que nous avons en ce moment.
Attention aussi aux FAI traditionnels qui pourraient voir d’un mauvais oeil ces projets permettant à n’importe qui d’avoir un accès Internet gratuit. De même, les majors et ayants droit seraient sans doute assez énervés d’avoir à lutter contre un autre réseau complètement anonyme où les chansons de Céline Dion s’échangeraient comme des bonbons dans une cour de récré.
Piratebox et FreedomBox
Car ce type de projet est très proche philosophiquement des Piratebox ou des FreedomBox : des mini-serveurs matériels, à peine plus gros qu’un téléphone portable, qui permettent à chaque utilisateur de gérer son propre réseau social, de partager des fichiers légaux ou non, de contrôler l’accès et la diffusion de ses propres données tout en étant «étanches» aux organismes de surveillance. Le principal avantage réside, bien sûr, dans la simplicité du système ainsi que son coût modique puisque n’importe quel vieux PC peut servir de noeud.
Les virions (ou "particules") de virus coronaires sont des particules sphériques d'un diamètre compris entre 0,06 micron et 0,14 micron, soit une moyenne d'environ 0,125 micron, mesurées au microscope électronique (Zhu et all, 2020).
Quelle est la taille d’un virion Covid-19 par rapport au MP10-2,5 ?
Les virions (ou « particules ») de virus coronaires sont des particules sphériques d’un diamètre compris entre 0,06 micron et 0,14 micron, soit une moyenne d’environ 0,125 micron, mesurées au microscope électronique (Zhu et all, 2020). Cela signifie que les particules de coronavirus sont plus petites que les particules de PM2,5, mais plus grandes que certaines particules de poussière et de gaz (figure 1).
Quelle est la relation entre le taux d’infection et les concentrations de PM10 ?
Le 20 mars 2020, Setti et all ont publié une étude à la Société italienne de médecine environnementale (SIMA), dans laquelle ils ont trouvé une relation linéaire avec R=0,98 entre les niveaux de MP10 supérieurs à 50 microns / m3 et la vitesse de propagation de COVID-19 en Italie. Ces résultats sont tout
à fait conformes aux études scientifiques sur la propagation des virus et des bactéries dans la population par les particules en suspension, qui établissent une corrélation entre l’incidence des infections virales et les niveaux des particules atmosphériques (PM10 et PM2,5). (Ciencewicki J. et al., 2007 ; Sedlmaier N., et al., 2009).
Ces résultats apportent de nouvelles informations qui complètent les observations de l’Organisation mondiale de la santé (OMS) qui, en février 2020, a indiqué qu’il n’y avait aucune preuve de transmission par voie aérienne dans les hôpitaux qui ne contiennent pas d’activités générant de fortes concentrations d’aérosols ou de particules en suspension. L’expérience italienne indique une relation directe entre des niveaux plus élevés de particules et des taux plus élevés de contamination par les COV-19 en Italie.
Les figures 2 et 3 montrent que pour chaque fois que la moyenne quotidienne augmente de 50 μg/m3 , le taux d’infection logarithmique augmente de 0,234%. C’est-à-dire qu’à des niveaux moyens de PM10 de 350 μg/m3, notre taux d’infection sera 2 fois plus élevé qu’à des niveaux inférieurs à 50 μg/m3, comme on peut l’observer parmi les différentes courbes d’infection observées dans les régions analysées dans la publication italienne, dans laquelle le taux d’infection élevé de la Lombardie dans les autres régions italiennes se distingue.
Comment réduire le risque d’infection pour nos travailleurs et nos communautés ?
Au regard de ces nouvelles informations, ABCDust recommande qu’en plus de suivre les mesures d’hygiène, de prévention, de propreté et d’assainissement recommandées par les autorités sanitaires, les mesures complémentaires suivantes soient évaluées:
Augmenter l’atténuation de MP10-2.5 recommandée de 85 % à 90 à 95 % des zones critiques, telles que la zone minière et la zone sèche d’un site, pour lesquelles ABCDust dispose d’additifs DMS-DS et DMS-TDS pour aider à supprimer 90 à 95 % des poussières, ainsi que d’un équipement de canons de contrôle de la poussière, capteurs continue des niveaux extrêmes de MP10-2.5
Contrôler en permanence les niveaux de MP 1- 2,5 dans les zones de réception et les espaces de travail et de nuit du personnel, en veillant au respect des limites et des valeurs maximales requises par la réglementation, en intégrant des systèmes d’alerte en temps réel pour le personnel, pour l’utilisation en temps voulu des masques de protection personnelle N95 ou équivalents, en cas de dépassement des valeurs réglementaires de MP 2,5. À cette fin, ABCDust propose sa ligne de capteurs multicanaux et sa plate-forme de gestion des poussières DMS- ONE.
Améliorer l’excellence opérationnelle en termes de maintenance préventive des systèmes d’encapsulation, des filtres et de la climatisation du site, pour prévenir les événements de haute pollution qui mettent en danger la santé humaine et nous obligent à arrêter ou à réduire la cadence de production, pour lesquels ABCDust met à disposition son personnel pour l’aider à générer des plans d’action à cet effet. Contactez-nous pour savoir comment nos produits, équipements et services peuvent vous aider à lutter contre la COVID-19 dans votre entreprise ou votre environnement de travail.Des milliards de virus et de bactéries tombent sur Terre en provenance du ciel. Des microbes qu’on retrouve à 3000 mètres du sol et qui peuvent voyager à des milliers de kilomètres de distance. Il y a des virus au sol, dans les océans, mais aussi dans les airs. C’est d’ailleurs la voie de transmission de bon nombre d’entre eux.
Pour la première fois, ils ont analysé la couche la plus basse de l’atmosphère terrestre (la troposphère) dans le but de quantifier le nombre de virus qui peuvent y circuler. Ils ont dénombré entre 260 millions et sept milliards de virus par jour et par mètre carré. Ces quantités sont 9 à 461 fois supérieures à celles des bactéries. Ces microbes peuvent voyager très loin avant de redescendre sur Terre, grâce à des épisodes pluvieux ou en s’accrochant à des particules de poussière.
"Il y a 20 ans environ, nous avons commencé à trouver un peu partout dans le monde des virus génétiquement très similaires, mais se trouvant pourtant dans des environnements très différents. L'importance du nombre de virus survivant suffisamment longtemps dans l'air explique probablement ce phénomène. Il est tout à fait concevable qu'un virus s'envole d'un continent pour atterrir sur un autre."
Les "pluies" de virus et de bactéries existaient déjà bien avant les observations faites et l’humanité n’a pas pour autant été éradiquée par des épidémies. Au contraire, les chercheurs pensent que ces microbes pourraient avoir des effets positifs sur les écosystèmes qu’ils parcourent.
Ils s’appuient sur de récentes études qui ont montré que les virus jouent un rôle important dans la régulation du carbone dans l’océan. D’autre part, il existe des virus dits bactériophages qui préservent les humains en détruisant des bactéries nocives pour les humains.
"La fabrique de l'ignorance" sur Arte : Quand les industriels instrumentalisent la science contre l'environnement
Freiner le progrès de la connaissance en utilisant la science contre elle-même : c’est la stratégie utilisée par certains industriels pour faire naître un doute sur la toxicité de leurs produits, ou remettre en question le réchauffement climatique. Un mécanisme décortiqué dans le documentaire La fabrique de l’ignorance, diffusé ce soir sur Arte, et disponible jusqu’au 23 avril sur le site internet.
Pourquoi a-t-il fallu près de 50 ans pour admettre la toxicité du tabac ? Comment se fait-il que certains questionnent encore l’origine humaine du réchauffement climatique ? "Il n’y a pas de consensus " entend-t-on parfois dans les médias, et sous la plume même de scientifiques. Mais de quel consensus parle-t-on ? En revêtant les habits de juge et d’arbitre "la science est devenue une activité à influencer, à miner ou à corrompre" pose d'emblée le documentaire "La fabrique de l'ignorance", réalisé par Pascal Vasselin et Franck Cuveillier. Diffusé ce soir sur Arte, il est également disponible sur le site internet de la chaîne jusqu'au 23 avril. Par le biais de témoignages de scientifiques, de professions de foi et de mea culpa, l'enquête dévoile et décortique les techniques innovantes et encore méconnues mises en œuvre par les industriels pour semer le doute sur la dangerosité de leurs produits.
Un mécanisme initié par l'industrie du tabac
La stratégie fleurit dans les années 50, aux États-Unis. L’industrie du tabac entre alors en crise : la recherche scientifique révèle que la cigarette provoque des cancers du poumon et accidents cardiovasculaires. Impossible pour le secteur de contester les résultats. Mais les géants du tabac n'entendent pas se laisser faire et font le pari de financer leurs propres laboratoires. "L’utilisation de la science contre la science est un véritable tournant, un renversement ", souligne dans le documentaire Naomi Oreskes, professeure d'histoire des sciences à l'Université de San Diego, en Californie.
L’objectif est de produire des études scientifiques alternatives qui attribuent aux cancers du poumon d'autres origines, comme la génétique ou la pollution de l'air. Le tabac devient une cause de cancer comme une autre. Semer le doute dans l'opinion publique permet alors de "gagner du temps" soulignent à l'unisson les scientifiques interrogés. Une stratégie efficace, puisque l'industrie du tabac ne sera condamnée que 40 ans plus tard.
La mécanique a depuis largement été reprise et déclinée. Bisphénol A, réchauffement climatique, néonicotinoïdes... l’enquête revient sur ces grandes controverses fabriquées par l'industrie qui animent le débat public depuis des décennies. Et retardent les prises de décisions politiques.
Un phénomène amplifié par les réseaux sociaux
La diffusion de cette science alternative a été démultipliée avec le développement des réseaux sociaux. "Pour la communauté scientifique quasi unanime, le réchauffement climatique est sans équivoque et l'influence de l'homme est claire", constatent les auteurs. "Mais pour autant le consensus ne s'impose pas sur les réseaux". Pour une raison simple : "Les climatosceptiques sont à la fois moins nombreux et plus actifs. Ils contrebalancent le débat", décrypte l'Institut des systèmes complexes de Paris. Cela suffit à alimenter une controverse... là où il n'y en a pas.
La volonté de détourner la science n'est pas nouvelle, souligne cependant le documentaire. Ce n'est ni Galilée, ni Copernic, censurés et condamnés, qui affirmeraient le contraire. "Il y a 300 ans les progrès scientifiques se heurtaient à l'église", détaille Linsey Mc Goey, professeure de sociologie à l'Université d'Essex. "Mais aujourd’hui c’est le marché qui prend le rôle de l’église, c’est l’économie qu’il est devenu difficile de contester". Une chose est sûre, conclut l'enquête : cancers, victimes du réchauffement climatiques, montée des eaux… "Quelques soient les croyances, la réalité finit par s’imposer".
Pauline Fricot, @PaulineFricot
Ceux qui me connaissent, au sujet de l’orthographe, m’ont déjà entendu dire, non sans humour, que j’étais ‘’Avant-Françoispremiertiste’’. Sans doute, beaucoup pensent que c’est une façon de dédramatiser l’étrange facilité que nous tous nous avons, à faire des erreurs lorsqu’il s’agit de l’orthographe. Et ce n’est pas faux, le français est une langue complexe, qui par ses côtés illogiques et rigides, peut parfois faire plonger le néophyte qui essaye de s’y intéresser, dans la plus sombre des folies. Et il est aisé d’attribuer la source de toute cette souffrance à François premier, qui avec son ordonnance de Villers-Cotterêts fixera la langue française en 1539. Surtout qu’il ne s’est pas arrêté là !
Mais je ne tape pas sur François premier pour cela. À vrai dire, le fait de vouloir homogénéiser la langue n’est pas une mauvaise chose. Et malgré l’orthographe, le français reste une langue riche et vivante de par sa perpétuelle évolution.
Mais alors, qu’est-ce que je reproche à ce roi mort depuis un bout de temps déjà et qui ne peut même plus se défendre ?
Ma méfiance est en fait la même, que celle que j’entretiens envers tous les institutionnels de tous poils qui s’amusent sans cesse à vouloir édicter des règles absurdes, comme la suppression ou le maintien de l’accent circonflexe. En son temps, François premier n’a pas édicter des textes au sujet de la langue française dans un but de clarté ou de facilité d’usage de la langue écrite, il a fait cela pour des raisons bien plus discutables, car politique. Le but était d’instaurer une langue officielle, participant ainsi à la centralisation du pouvoir.
Tout comme la majorité des réformes qui ont suivi, François premier a participé à une institutionnalisation de la langue et a ainsi crée une élite, séparée de la vraie langue, parlée par tous et évoluant par son usage journalier.
Le fait de créer des institutions, comme l’Académie française, ou de vouloir réformer, comme la tentative récente au sujet de l’accent circonflexe, n’est qu’une expression de la volonté de la part des pouvoirs, de contrôler ce que les gens pensent et de leurs meurs. Le meilleur exemple de ce que j’avance ici vient de l’Académie française, qui instaurera dès sa création, une masculinisation de la langue, ce qui entrainera nombre de débats dès les années 1600 d’ailleurs. Masculinisation d’ailleurs qui est toujours en vigueur au niveau des corporations, mais qui n’existe plus dans la langue courante… (Même si les institutions commencent par céder doucement)
Le problème, pour les institutions, c’est qu’une langue vivante évolue par son usage et non en édictant des règles qui ne seront suivies que par quarante imbéciles et quelques intellectuels de bas étage.
Qui se souvient encore des détails de la rectification orthographique du français en 1990, dernier grand chantier institutionnel en date. Force est de constater à l’heure actuelle que personne n’a tenu compte de cette réforme, alors que tous, nous avons accepté certaine expressions récente, comme ‘’être vent debout’’, ou mot récent comme ‘’hashtag’’, qui sont devenu commun à la langue et utilisé par tous.
Comme le disait déjà à son époque Victor Hugo, une langue ne se fixe pas, elle est et doit être en perpétuelle évolution pour ne pas mourir. Et ce n’est pas une quelconque élite qui fait vivre le français, mais bel et bien les usagers communs, c’est-à-dire nous tous.
Voilà pourquoi, j’estime pour ma part, que personne, sous prétexte qu’il fait partie d’une élite, ou veut protéger le français, n’a réellement le droit ni le pouvoir d’imposer une réforme de la langue. Surtout que la langue se réforme elle-même, avec le temps et ses usagers. Mais j’estime également, que chacun de nous, usager du français, avons le devoir, dans la limite du raisonnable, d’être suffisamment éduqué et intelligent afin d’entretenir et d’enrichir notre langue.
Et c’est cette implication et cette responsabilité, qui me pousse à ne pas tenir compte du récent délire institutionnel sur l’accent circonflexe, et qui me fait plutôt m’intéresser à l’étymologie, la sémantique et au sens de certains mots très mal employés à l’heure actuelle, ou à la reféminisation du français, qui se fait sans les institutions d’ailleurs. Car la vraie richesse d’une langue tient à l’orientation que chacun de nous y donne en l’utilisant chaque jour.L’électroculture ! Que ce cache-t-il derrière ce mot composite ? Une nouvelle pratique de culturisme ? Où l’homme aidé par un ensemble de machines connectées au réseau électrique ne fournit plus aucun effort pour prendre de la masse musculaire ?
Non non, il n’en est rien, quoique… Relégué au banc des expériences de « jardinage alternatif », ce domaine encore peu connu du grand public, émerge à nouveau. Au travers de pratiques souvent isolées, menées par des jardiniers amateurs curieux, des scientifiques avertis, peu à peu, des retours d’expériences, des preuves d’efficacité s’accumulent.
D’un point de vue global, l’électroculture consiste en l’utilisation, la canalisation et la propagation des flux électriques et magnétiques présents naturellement, partout, autour de nous. Cela dans le but de favoriser, par exemple, la croissance de la vie végétale.
Les premières traces de l’utilisation de courants électriques naturels remontent aux Égyptiens. En Europe, on ne trouve pas, ou peu d’informations relatives à la pratique de ce type avant le 17ème siècle. Depuis lors, nombre d’expérimentations à plus ou moins grandes échelles ont vu le jour. Que ce soit en Grande-Bretagne, en Russie, aux États-Unis, en France, en Belgique, au Japon, en Inde… les résultats sont là, confortant les chercheurs, qu’ils soient scientifiques reconnus ou bien amateurs avertis.
De nombreuses questions entourent ce sujet controversé. Qu’entendons-nous par énergie ? Quelles sont les méthodes, les pratiques ? Est-ce encore une énième méthode révolutionnaire sortie de nulle part, prometteuse de rendements inimaginables ? Comment par exemple, de simples tiges de cuivre associées à du zinc, des fils de fer enterrés dans le sol, des aimants orientés selon un axe précis, ont le pouvoir de stimuler la croissance des semences, des plantes, d’encourager nombres de processus du vivant ?
Hostapd s'appuie sur les protocoles IEEE 802.11 AP et IEEE 802.1X/WPA/WPA2/EAP/RADIUS authentificateur.
Hostapd permet la création d'un point d'accès Wi-Fi, technologie sans fil utilisée pour se connecter à un réseau informatique. Dans les réseaux informatiques, un point d'accès sans fil (spot ou AP) est un dispositif qui relie les appareils de communication sans fil pour former un réseau sans fil. Le spot Wi-Fi se connecte généralement à un réseau câblé, et peut transmettre des données entre les appareils sans fil et les périphériques câblés. Plusieurs spots peuvent être liés ensemble pour former un réseau plus large qui permet le "roaming" (l'itinérance). Pour rappel, en revanche, un réseau où les machines clientes gèrent elles-mêmes - sans avoir besoin de point d'accès - devient un réseau ad-hoc.
« Dans notre vie, même si nous combattons le racisme, même si nous nous battons pour un monde en paix, même si nous luttons pour un monde plus respectueux de l’environnement, si nous utilisons notre pouvoir sur les enfants qui vivent avec nous, alors nous perpétuons l’injustice et l’oppression. Nous faisons en sorte que nos enfants acceptent un monde basé sur cette loi : celui qui a le plus de pouvoir contrôle celui qui en a le moins. »
En tant que parents ou futurs parents, nous nous engageons à comprendre les besoins physiologiques et émotionnels des enfants. Nous cherchons des informations à propos de l’allaitement et de ses bienfaits sur la santé des enfants. Nous faisons des choix éclairés au sujet de leur alimentation et des jouets que nous leur proposons. Nous faisons des recherches approfondies sur le développement de l’enfant pour savoir comment apporter à nos propres enfants des expériences propices à leur épanouissement. Nous réfléchissons à notre propre enfance et nous imaginons comment nous pourrions être parents : différemment des nôtres ou peut-être de la même façon qu’eux. Comme moi, vous vous êtes peut-être interrogés sur la manière d’élever un garçon dans ce monde de façon à ce qu’il ne devienne pas sexiste. Comme nous sommes une famille métisse, j’ai aussi songé à la façon dont je pouvais l’aider à comprendre qui il est dans ce brassage multiculturel.
Nous pouvons aussi nous situer dans une démarche écologique et nous montrer désireux de vivre un quotidien respectueux de l’environnement pour le bien-être de nos enfants et des générations futures, ainsi nous faisons pour nos familles des choix conscients et en accord avec nos valeurs.
Pourtant, le plus souvent, en tant que parents, nous ne cherchons guère à comprendre l’impact de l’environnement social et culturel qui contribue à former nos points de vue sur les enfants, l’enfance et le rôle des parents. Notre courant de pensée dominant sur l’éducation est basé sur la peur, le contrôle et la domination. Nous utilisons les écoles, les lieux culturels, religieux et même l’autorité parentale pour nier les droits élémentaires des enfants à être traités avec respect et confiance.
Nous vivons dans une culture où la conception du rôle des parents, des enfants et de l’enfance a pour origine l’adultisme. L’adultisme est, dans nos sociétés, le poison silencieux, caché, qui intoxique les relations parents-enfants.
Qu’est-ce que l’adultisme ?
Le professeur Barry Checkoway2 de l’université d'Ann Arbor dans le Michigan définit l’adultisme comme suit : « Tous les comportements et les attitudes qui partent du postulat que les adultes sont meilleurs que les jeunes, et qu'ils sont autorisés à se comporter avec eux de n’importe quelle manière, sans leur demander leur avis. »
Pour lui, hormis les prisonniers et quelques autres groupes sous la coupe de diverses institutions, la vie des jeunes en société est plus contrôlée que celle de n’importe quel groupe dans la société. Qui plus est, les adultes se réservent le droit de punir, menacer, frapper, priver de « privilèges » les jeunes et les discriminent, sous prétexte que tout ceci leur est bénéfique dans ce contexte de contrôle ou de « discipline ». Si telle était la description de la façon dont un groupe d’adulte était traité, la société pourrait très rapidement y reconnaître une forme d’oppression.
Pourtant, les adultes ne considèrent pas l’adultisme comme une forme d’oppression, parce que c’est la façon dont ils étaient eux-mêmes traités en tant qu’enfants, et qu’ils ont intériorisé cette façon de procéder avec les enfants.
Le fondement de l’adultisme repose sur le fait que les jeunes ne sont pas respectés. Au contraire, ils sont considérés comme moins importants et, d’une certaine façon, inférieurs aux adultes. On ne peut pas leur faire confiance pour qu’ils deviennent par eux-mêmes responsables, ils doivent donc être éduqués et disciplinés, maîtrisés et punis, guidés dans le monde des adultes.
Pour leur libération, les jeunes vont avoir besoin de la participation active des adultes. La première chose à faire pour commencer à les aider, c’est de considérer et de comprendre comment nous – les adultes d’aujourd’hui – avons été maltraités et dévalorisés quand nous étions des enfants et des adolescents et comment, en conséquence, nous agissons aujourd’hui de façon « adultiste ».
Car l’adultisme a des incidences sur toutes les relations entre les adultes et les enfants dans notre culture. Il a des conséquences sur la façon dont nous les traitons et sur ce que nous nous sentons le droit de leur faire en tant que parents. L’adultisme est institutionnalisé dans les écoles, les lieux culturels et religieux, dans notre système médical, dans la justice.
J’ai travaillé plus de vingt ans dans l’enseignement supérieur sur la question de l’égalité des chances dans la société. Il m’a pourtant fallu cinq ans, après être devenue parent, pour réaliser que l’oppression que je combattais à l’extérieur de chez moi était fermement établie dans ma propre maison, dans les relations que j’avais avec mon premier enfant. J’ai compris comment l’usage de mon pouvoir et de mon contrôle sur lui ainsi que ma domination semaient les graines de l’oppression et de la discrimination qui allaient se propager par lui ou sur lui une fois adulte. L’adultisme crée un sol fertile pour l’émergence de toutes formes d’oppression.
Les relations que nous entretenons avec nos enfants depuis leur naissance représentent pour eux un modèle de référence avec lequel ils vont voir le monde et faire leurs expériences. C’est le fondement même de la socialisation ou de l’acculturation. Parce que la majorité d’entre nous ont fait l’expérience de la domination et du contrôle quand nous étions enfants, nous trouvons cela normal, même si en tant qu’enfants ou adolescents nous avons combattu cette injustice.
Cette socialisation s’opère dans le subconscient pour façonner le regard que nous portons sur les enfants et sur notre rôle de parents. La conviction que des adultes ont le droit d’exercer leur contrôle sur des enfants se perpétue avec des idées préconçues sur la nature de l’enfance qui sont profondément enracinées dans notre culture. Tout au long de nos vies, nous sommes bombardés d’informations sur la façon dont notre culture interprète le monde. Ces informations englobent l’histoire, les coutumes et les traditions, mais aussi les discriminations, les stéréotypes et les préjugés sur des groupes de personnes, y compris les enfants.
Nous créons ou construisons un regard sur les enfants qui légitime le contrôle et la domination, notre culture définissant les enfants par opposition aux adultes. Nous utilisons les adultes comme la norme de référence à partir de laquelle nous évaluons les actions des enfants. Nous définissons leurs différences comme des déficiences qui doivent être surmontées par une longue procédure de socialisation exécutée par les parents, les enseignants, les écoles et d’autres individus et institutions.
Ce processus de socialisation s’accomplit en utilisant notre très grand pouvoir institutionnel (ou structurel) sur les enfants pour s’assurer qu’ils font bien ce que nous, en tant qu’adultes, croyons être juste.
Il y eut un temps où j’ai cru – parce que j’avais des valeurs et des convictions peu répandues comme privilégier la naissance naturelle, pratiquer l’allaitement prolongé, le co-dodo, et ne pas utiliser de châtiments corporels – qu'utiliser mon pouvoir sur les enfants dans ma vie était acceptable car j’avais rejeté les valeurs éducatives dominantes. Mais je me suis fourvoyée dans cette conviction que mon parentage était le meilleur puisque j’avais consciencieusement étudié et choisi des alternatives au courant dominant dans l’éducation. Car je n’avais pas éliminé l’idée la plus fondamentalement nocive de notre culture : celle de croire que les adultes ont le droit d’utiliser leur pouvoir sur les enfants.
Ce paradigme du « superpouvoir » apprend aux enfants à douter d’eux-mêmes et à s’en remettre aux personnes qui font figure d'autorité pour prendre des décisions qui les concernent et leur dire ce qui est bon pour eux. Le besoin d’autonomie et de libre arbitre est sacrifié au profit des besoins d’ordre et de productivité. L’endoctrinement à l’adultisme est facilité quand le libre arbitre des enfants est écarté et n’est pas pris en compte. Nous pouvons transmettre à nos enfants des valeurs alternatives à la culture dominante, mais notre utilisation du pouvoir sur l’autre est par elle-même nocive et profite à cette culture dominante.
La perte de notre libre arbitre et de la capacité à faire entendre notre voix pendant l’enfance crée un environnement favorable aux institutions pour nous enseigner qu’utiliser le pouvoir sur les autres est l’unique moyen pour notre société de prospérer, d’être productive et performante. C’est ainsi que l’adultisme crée un environnement favorable pour que prospèrent toutes les autres formes d’oppression dans notre société.
Il devient tout à fait normal que celui qui a le plus de pouvoir – l’adulte – contrôle ceux qui en ont le moins – les enfants – pour leur faire faire ce que nous croyons être juste. Parce que la fin ne justifie pas les moyens, peu importe la conviction qui nous anime. C’est la façon dont nous utilisons notre pouvoir et la façon dont nous traitons les enfants qui importe.
Dans notre propre vie, même si nous combattons le racisme, même si nous nous battons pour un monde en paix, pour un monde plus respectueux de l’environnement, si nous utilisons notre pouvoir sur les enfants qui vivent avec nous, alors nous perpétuons l’injustice et l’oppression. Nous faisons en sorte que nos enfants acceptent un monde basé sur cette loi : celui qui a le plus de pouvoir contrôle celui qui en a le moins.
En réalisant ceci, j’ai commencé à comprendre pourquoi militer pour l’égalité des chances dans la société était si difficile. Lorsque j’ai commencé à travailler avec des étudiants à l’université pour les aider à comprendre comment le racisme, le sexisme, l’homophobie ou le rejet des handicapés fonctionnaient dans notre société, ils avaient déjà expérimenté vingt ans de domination et de contrôle. Ils considéraient ce fait comme normal parce que c’est ce que nous faisons tous, désireux de nous assurer l’amour et l’approbation de nos parents. A ce moment-là, je n’avais pas encore mis en relation l’adultisme et les autres formes d’oppression.
Progressivement, j’ai compris que l’adultisme était précisément le lien manquant.
Si nous devons créer un changement social de grande envergure, un monde où la justice est une valeur fondamentale, nous devons nous lancer le défi de nous défaire de l’adultisme que nous avons subi en tant qu’enfants et que nous avons intériorisé en tant qu’adultes. Nous devons nous lancer le défi de nous questionner sur notre propre libre arbitre et notre propre pouvoir, pas uniquement sur le pouvoir et l’autorité des grandes entreprises ou des gouvernements corrompus.
Nous devons nous demander : « Comment se reflète l’injustice du monde dans mes relations avec les enfants dans mon existence ? » « Comment puis-je vivre ma vie de façon à ce que mes actes soient en cohérence avec mes convictions ? » Et nous poser cette question pas seulement à propos des grandes causes auxquelles nous nous rallions, mais aussi à propos des petites décisions que nous prenons tous les jours et qui concernent ceux que nous côtoyons dans nos vies et qui ont le moins de pouvoir.
Nous pouvons insuffler le changement que nous désirons voir émerger dans le monde. Pour cela, nous devons commencer avec la relation la plus importante que nous avons en tant que parents : celle que nous construisons avec nos enfants.
Si nous parvenons à éliminer l’adultisme au cœur de ces relations parents-enfants, alors l’actuelle génération d’enfants pourra voir le monde avec des yeux différents.
Mieux encore, ils pourront agir à partir de cette nouvelle façon de voir les choses. S’ils n’ont pas expérimenté le sentiment d’être déshumanisés, négligés et marginalisés en tant qu’enfants, ils n’auront pas besoin de perpétuer l’injustice sur d’autres quand ils grandiront et auront davantage de pouvoir dans leur vie. S’ils ont expérimenté la confiance, le respect et la solidarité comme modèles de référence, alors ils pourront incarner le changement dont notre monde a besoin.
Ce changement, ce défi pour nous tous, commence avec notre propre remise en question en tant que parents pour rejeter et éliminer l’adultisme sous toutes ses formes, sous notre propre toit et dans l’existence de tous les enfants.
- Lire sur le site Kindred l'article original (ainsi qu'un deuxième article du même auteur sur l'adultisme) : Adultism: The Hidden Toxin Poisoning Our Relationships with Children.
Teresa Graham Brett consacre une grande énergie, à travers son travail et son rôle de parent, à faire évoluer la société en y prônant l’égalité des chances. Durant vingt ans, elle a travaillé dans l’enseignement supérieur en tant qu’éducatrice, administratrice et consultante, militant pour mettre en place des changements dans la sphère sociale et la justice. Diplômée en sciences juridiques, elle a cependant décidé de ne pas pratiquer le droit. Elle choisit de servir la cause de l’égalité des chances dans la société via son travail avec trois grandes universités aux Etats-Unis. Elle a mis en place des programmes innovants conçus pour créer des outils de changement à l’attention des étudiants, des salariés et des universités. En tant que consultante, elle continue à apporter son expertise et sa passion à ses clients intéressés par l’acquisition d’outils pour changer les inégalités dans la société.
Sa vie a été bouleversée après la naissance de ses enfants, Martel et Greyson, qui lui ont lancé le défi de mettre en pratique ses valeurs de liberté et de respect dans son rôle de parent. Elle a décelé dans sa parentalité des attitudes qui n’étaient pas en cohérence avec les valeurs qu’elle défendait dans son travail. Utilisant son expérience d’éducatrice pour un changement social, elle a entamé son propre apprentissage pour établir des relations respectueuses avec les enfants qui partageaient sa vie.
Cette exploration personnelle ainsi que son désir d’impulser aux autres la mise en place d’un changement social en changeant le regard que nous portons sur les enfants et la façon dont nous les traitons sont relayés sur son site Internet ainsi que dans son livre Parenting for Social Change: Transform Childhood, Transform the World (‟Elever ses enfants pour un changement social”, en anglais uniquement). Vous pouvez la retrouver sur son site Parenting for Social Change.
- Barry Checkoway, Adults as Allies, W.J. Kellogg Foundation, July 5, 2010, 13. (Voir l'extrait publié sur le site de Teresa Graham Brett.)
La taille de n'importe quelle particule virale ou bactérienne peut fournir une analyse utile dans la façon dont ces substances de infection peuvent limiter les dégats sur des cellules hôte.
Taille de SARS-CoV-2
Depuis que le coronavirus 2 (SARS-CoV-2) de syndrôme respiratoire aigu sévère a été recensé la première fois en décembre de 2019, beaucoup de spécialistes des maladies infectieuses, ainsi que chercheurs pour presque chaque avenue de médicament, avaient vérifié comment ce des propagations des virus à et infectent les êtres humains, la large gamme d'effets sur la santé sévères qu'elle peut entraîner et éventuel quels médicaments pourront détruire effectivement ce virus en toute sécurité.
En plus de l'information mécaniste, les chercheurs ont également évalué les caractéristiques de taille et de teneur des particules SARS-CoV-2. Sur l'analyse des articles SARS-CoV-2 négatif-souillés par microscopie électronique, les différents chercheurs ont eu des résultats variables, mais le diamètre du virus s'est avéré pour s'échelonner entre 50 nanomètre à 140 nanomètre.
En plus de mesurer la taille sphérique de la particule de virus, on l'a également confirmé que la longueur des tumeurs de taille entourant la surface extérieure de SARS-CoV-2 peut varier dans la longueur de 9 à 12 nanomètre.
Pourquoi la taille importe-t-elle ?
Autour du monde, les agents de la Santé ont convenu que les masques s'usants peuvent éviter l'écart du virus entre les personnes. Tandis que ceci peut être vrai, certains masques sont considérés beaucoup plus efficaces à réduire à un minimum le risque d'exposition, en particulier les masques N95.
Tandis que les masques N95 de différents producteurs peuvent avoir des caractéristiques légèrement différentes, les capacités protectrices offertes par les masques N95 sont en grande partie attribuées obligation à masques' de retirer au moins 95% de toutes les particules avec un diamètre moyen de 300 nanomètre ou moins.
La taille d'une particule de virus détermine en grande partie comment les personnes peuvent se protéger et ceux autour de elles contre acquérir SARS-CoV-2. Connaître la taille d'une particule unique de virus peut également permettre des chercheurs et des fournisseurs de santé pour impliquer la quantité de personnes de virus sont exposés à différentes routes traversantes.
Par exemple, les gouttelettes respiratoires sont en général 5-10 micromètres (µm) dans la longueur ; pour cette raison, il peut impliquer qu'une personne qui ingère, inhale, ou est autrement exposée à SARS-CoV-2 des gouttelettes respiratoires que positives peuvent être exposées aux centaines ou aux milliers de particules de virus qui augmente la probabilité de l'infection.
Des gouttelettes respiratoires peuvent être transmises par la toux, l'éternuement, le contact avec les surfaces contaminées, ou même par les aérosols inhalés ; pour cette raison, chaque personne doit prendre des mesures adéquates pour réduire leur exposition à ces particules en s'usant des masques et en pratiquant des mesures sûres de distance sociale.
Comment compare-t-elle à d'autres virus ?
Jusqu'à présent, la recherche a prouvé que les virus qui ont été recensés et isolés peuvent s'échelonner dans la taille de diamètre de 20 nanomètre aussi à grand que 500 nanomètre. Hormis le virus sphérique les particules aiment SARS-CoV-2, dont les diamètres fournissent des informations sur leurs tailles, la longueur de la tige ou les virus en forme de filament peuvent mesurer tant que 1.000 nanomètre.
Virus, en particulier ceux qui proviennent des animaux comme SARS-CoV-2, peut différer grand dans leur taille. Les plus petits virus animaux connus sont des icosahedrons, qui appartiennent aux familles de Paroviridae et de Picornaviridae et peuvent avoir un diamètre s'échelonner entre 20 et 30 nanomètre.
Comparativement, plus grand et la plupart complexe de virus actuel que n'ait jamais connu l'homme est le Mimivirus géant, qui a un diamètre total de particules, dont comprend les fibres qui s'étendent à l'extérieur du capsid, approximativement de 750 nanomètre.
Comparant des bactéries et des tailles SARS-CoV-2
Le virus SARS-CoV-2 est une particule beaucoup plus petite comparée aux modèles primaires pour la biologie cellulaire bactérienne, y compris le crescentus de bacille les sous-titres, de staphylocoque doré, et d'Escherichia coli et de Caulobacter, qui ont un volume de cellules qui s'échelonne de 400 nanomètre aussi à grand que le µm 3 (3000 nanomètre).
Les de grande taille de telles substances bactériennes contribuent souvent à leurs diverses stratégies reproductrices et maximisent éventuel leur capacité de produire et relâcher la grande progéniture.
Tandis que les comparaisons de taille entre les virus et les bactéries peuvent être utiles aux chercheurs, il est également utile de comparer la taille de SARS-CoV-2 à d'autres choses qui sont produites quotidiennement. Par exemple, un acarien est le µm en général 200 dans la taille. Si nous prenons 100 une particule du nanomètre SARS-CoV-2, ceci rend l'acarien 2000 fois plus grandes.
Références
Baron, Y.M., Flamholz, A., Phillips, R., et Milo, R. (2020). SARS-Cov-2 (COVID-19) par les numéros. doi de l'eLife 9. : 10.7554/eLife.57309.
Levin, P. A., et Angert, E R. (2015). Petit mais puissant : Taille et bactéries de cellules. Points de vue de Cold Spring Harbor dans la biologie 7(7). doi : 10.1101/cshperspect.a019216.
Varga, Z.V. et autres (2020). Microscopie électronique de SARS-CoV-2 : une tâche provocante - la réponse des auteurs. The Lancet 395 (10238, E100). doi : 10.1016/S0140- 6736(20) 31185-5.
Wes Ser, D.R. (2010). Découverte du Mimivirus géant. Scitabe.
« Modes de transmission de virus entraînant COVID-19 : implications pour des recommandations de précaution d'IPC. Organisation Mondiale de la Santé de dossier scientifique la » -
« Taille et forme » - BritanniaCombien de virus respirons nous ?
Nous inhalons en moyenne 200 000 virus par minute, soit 3333 virus par seconde ou 105 milliards par an !
Le saviez-vous ? au repos, un être humain respire 10 litres d’air par minute. et jusqu’à 50 litres lors d’un effort physique conséquent.
Les virus sont de l’ordre de grandeur du micromètre (0.001 millimètre) et sont présents partout. Ils appartiennent à la famille des vivants (même si cet aspect est un débat), mais on ne connait que peu de chose sur eux. Ils sont l’une des dernières frontières dans l’exploration biologique sur Terre.
Des chercheurs Sud-Coréens ont mené une étude métagénomique (étude génétique d’échantillons trouvés dans la nature) sur l’atmosphère au niveau du sol. Celle-ci, première du genre, évalue entre 17 000 et 400 000 le nombre de virus inhalé jusquà nos poumons chaque minute. Lors d’un footing, il est possible d'en respirer jusqu’à 2 millions à la minute.
Plus généralement, l’étude de cette population invisible a été faite dans différents types d’endroits et pendant différentes périodes, afin de mieux comprendre les facteurs influenceurs de la propagation virale. Trois sites différents ont été retenus à Séoul : un quartier résidentiel, un milieu industriel et une forêt. Les relevés ont duré plusieurs mois et consistaient à capter les organismes inférieurs au micromètre grâce à une sorte de filtre liquide, à les nettoyer, extraire l’ADN pour enfin les comparer aux banques de données existantes.
Etonnant : l’amplitude des résultats ne dépend pas du milieu de capture, mais de la période pendant laquelle elles ont été effectuées. En effet, l’air contient plus de virus en hiver. Un pic est atteint en janvier pour redescendre avec l’arrivée du printemps.
D’un point de vue scientifique, l’aspect le plus intéressant de l’étude est la découverture de nombreux virus.
Plus de la moitié des séquences génétiques analysées n’appartenaient à aucune base de données, l’essentiel étant de simples branches d’ADN, tels les Geminiviridae. Ce sont des découvertes logiques lorsque l’on sait que très peu de recherches ont été réalisées sur l’écologie microbienne de l’air, notamment car ces analyses sont très complexes et relativement longues à réaliser. Aujourd’hui, les études sont aidées par la métagénomique. (source : biolaune)
Souvent oubliée, la terre de diatomée mérite d’être (re)découverte, ne serait-ce que parce que c’est l’un des insecticides les plus efficaces tout en étant naturel. Découvrez avec consoGlobe, les différents usages de cette poudre écologique qui vous rendra bien des services dans la maison.
Si la terre de diatomée est utile dans la maison pour se débarrasser des insectes, ce n’est pas son seul usage : voici un petit passage en revue des moyens courants et moins courants d’utiliser ce produit ménager écologique.
La terre de diatomée, un insecticide naturel puissant
La terre de diatomée que l’on trouve dans le commerce est également appelée Kieselgur en allemand, ou encore terre d’infusoires. Vous entendrez parfois parler de Célite, mais il s’agit d’une marque et non d’un nom commun. Elle tire son nom de la diatomite, une roche sédimentaire siliceuse d’origine à la fois organique et fossile.
En l’occurrence, la terre de diatomée est une variété de diatomite et contient des restes fossilisés de diatomées, des micro-algues marines qui sécrètent un squelette siliceux que l’on retrouve dans des carrières.
- La terre de diatomée comme insecticide dans la maison
L’utilisation de la terre de diatomée comme insecticide maison naturel est probablement son usage le plus répandu, la terre de diatomée étant régulièrement vendue à côté des insecticides chimiques dans les supermarchés. C’est notamment un anti fourmi naturel efficace.
Dans la maison, on utilise le produit contre les punaises de lit. Pensez-y notamment si vous partez à l’étranger. On l’utilise aussi contre les cafards, les poissons d’argent ou les puces. On vise les couloirs et les endroits fréquentés par les insectes. Sur les fenêtres et les entrées, c’est particulièrement dissuasif.
- La terre de diatomée comme insecticide au jardin
À l’extérieur, au jardin bio, on utilisera la terre de diatomée contre les chenilles, les pucerons et nuisibles, en saupoudrant un peu de terre de diatomée autour des plants.
Précisons quand même que cela tue effectivement les animaux, donc si vous voulez seulement les éloigner il faudra trouver un autre anti-puceron naturel.
Au jardin, protégez les plantes traitées, car la terre de diatomée devient inefficace si mouillée.
- La terre de diatomée comme insecticide pour les animaux
Votre chien ou votre chat a des puces ? Pas de panique, on peut utiliser la terre de diatomée sans danger comme un anti-puces naturel. Voici comment :
1- Munis de gants, saupoudrez de la terre de diatomée chez vous, à l’intérieur et à l’extérieur, en faisant attention plus particulièrement aux tapis et aux recoins de votre logement susceptibles d’abriter ces parasites.
2- Puis donnez un bain à votre animal de compagnie et le saupoudrez de terre de diatomée sur l’ensemble du pelage tout en le caressant.
3- Le lendemain, aspirez la terre de diatomée à l’intérieur de votre foyer. Il est nécessaire de renouveler ces étapes une fois par semaine pendant trois semaines afin de tuer les larves non écloses au début du traitement.
- Et même pour les poules
Si vos poules sont infestées de poux rouges (ou en prévention), ayez le réflexe terre de Diatomée. Préférez la grise (plus volatil pour une meilleure dispersion) non calcinée (inoffensive pour les animaux) pour usage alimentaire.
Commencer par bien nettoyer le poulailler en enlevant toute la litière, puis équiper d’un masque et de gants, saupoudrer le sol, les murs et les perchoirs de poudre de Diatomée. Réinstaller une nouvelle litière à saupoudrer également si l’infestation est importante, mais pas besoin s’il s’agit d’une mesure préventive.
-
Le saviez-vous : la terre de diatomée dans la production du vin
La terre de diatomée trouve des applications dans le vin et la brasserie, où elle est utilisée pour la filtration en raison de sa forte porosité. Ce n’est évidemment pas la seule application : au quotidien la poudre se révèle efficace pour bien des petits tracas, de la même manière que la terre de Sommières, avec laquelle on ne la confondra pas.
À cet effet, on calcine la terre de diatomée pour un usage en filtration. Au quotidien, on choisira une terre de diatomée non calcinée, afin de conserver les principes actifs, principalement la silice.
La terre de diatomée, un fort pouvoir absorbant
La terre de diatomée peut également être utilisée comme cosmétique naturel, mais également comme produit d’entretien en raison de ses vertus absorbantes.
- La terre de diatomée comme masque pour le visage
Comme masque pour le visage, nous utiliserons une autre propriété intéressante de la terre de diatomée, non pas ses capacités insecticides, bien sûr, mais son pouvoir absorbant.
Cette poudre est également un bon exfoliant : retrouvez donc notre recette maison du masque exfoliant à la terre de diatomée
- La terre de diatomée pour la litière du chat
La terre de diatomée est absorbante, disait-on : cela peut être précieux quand il s’agit de recueillir l’urine de votre compagnon à quatre pattes et à longues moustaches. La poudre peut absorber plus d’une fois son poids en eau.
On peut utiliser cette poudre dans une recette de litière maison, ou simplement l’ajouter pour plus d’absorption et moins d’odeurs.
- La terre de diatomée pour absorber les liquides dans la maison
Huile sur le sol, produits ménagers ayant débordé : la terre de diatomée les rend plus faciles à nettoyer.
- Désodoriser les chaussures
Mettez un peu de poudre dans les chaussures. Et voilà !
- La terre de diatomée comme poudre à récurer
Cela peut vous permettre de gratter plus facilement les plats sales. Et ça tombe bien puisqu’on peut aussi l’utiliser pour :
- Nettoyer et faire briller
Abrasive, mais en finesse, la terre de diatomée fait des merveilles sur le cuivre, l’inox, le cuivre, et toute l’argenterie. On crée une pâte avec un peu d’eau, on frotte et on rince.
-
Précautions d’usage
Attention : mettre un masque avant de saupoudrer, car la poudre a un pouvoir absorbant, donc elle peut dessécher le nez et la bouche et créer un inconfort, de la même manière que lorsque l’on saupoudre de la farine partout et qu’elle vole, mais en plus absorbant.
Éviter absolument le contact avec les yeux pour cette raison et tenir le produit hors de portée des enfants, comme tous les autres produits ménagers.
Surveiller aussi les animaux pour qu’ils évitent d’en ingérer en grandes quantités (un peu ne leur fera aucun mal).
Et cas d’absorption par accident ? Pas de panique : comme pour les animaux, il n’y a pas de danger à petite dose, certaines études suggérant même que cela serait bon pour la santé en tablettes et diluées dans de l’eau (attention, il s’agit ici de la version alimentaire, et non de la terre de diatomée industrielle pour piscine !).
« Un jour viendra où l’on jugera notre société non à la manière dont elle a dominé la nature, mais à la part de sauvage qu’elle aura été capable de sauvegarder. »
Le mouvement
La désobéissance fertile est un mouvement dont la volonté absolue est de préserver les êtres vivants et de régénérer les écosystèmes lorsque ces derniers ont été dégradés ; cela par tous les moyens.
Trois piliers fondamentaux ancrent la philosophie de la désobéissance fertile :
- S’intégrer dans la Nature
- Aggrader les territoires
- Ne pas attendre que les lois changent pour agir
L’espèce humaine n’est pas condamnée à dégrader les milieux qui l’abritent.
Nous pouvons toutes et tous devenir des gardiens des Vivants.
Et justement, on vous invite à en devenir ces gardiens.
Qu’est-ce que le Lifi ?
La technologie LiFi appartient à la famille des VLC (Visible Light Communication). Il s’agit d’un réseau optique sans fil qui utilise des LED pour transmettre des données. L’information est codée à travers la fluctuation d’un signal lumineux émis par une LED. Les informations communicantes sont très rapides et ne sont pas détectées par l’œil humain (la vitesse de transmission est de l’ordre du MHz).
-
Comment fonctionne le Lifi ?
-
Le modem ou routeur lifi envoie à l’émetteur un signal via un câble PoE.
-
La LED reçoit ce signal et fluctue à une vitesse non perceptible par l’œil humain.
-
Une clé Lifi décode le signal lumineux en signal électrique et le transmet à un ordinateur
-
L’ordinateur décode le signal en une information compréhensible par l’homme.
-
Le rôle des émetteurs Lifi
Les LED émettent le signal. Elles sont connectées à un serveur qui se charge de transmettre l’information sous forme d’un signal électrique traduit en signal lumineux par la LED. L’émetteur peut s'intégrer dans un réseau internet haut-débit via un câble Ethernet RJ45 avec capacité PoE.
Les LEDS bleues sont celles permettant le plus haut débit. Néanmoins, elles sont souvent combinées au phosphore afin de rendre la lumière blanche. Cette opération diminue la capacité de l’émetteur, cependant cette technologie est peu onéreuse.
Autre type d’émetteur utilisable : les triplets RVB (rouge vert et bleu). Cette technologie est plus chère que la précédente du fait de l’utilisation de trois LED mais elle présente l’avantage d’avoir une bande passante beaucoup plus large.
Il est possible également avec les triplets RVB de faire du multiplexage. Il s’agit d’une technique permettant d’envoyer plusieurs informations en même temps sur des fréquences différentes, sur un même canal. Ici, l’information que l’on souhaite récupérer est ensuite filtrée afin de ne recevoir que le message voulu.
- Le rôle des récepteurs Lifi
Les récepteurs utilisés sont des photodiode (photo-détecteurs). Ces composants électroniques permettent de capter la lumière et de transformer l’information lumineuse en information électrique.
Quelles sont les applications du Lifi ?
Application unidirectionnelle
Dans une configuration unidirectionnelle, le LiFi va en continu, émettre une information qui sera reçu par un device. Auquel cas, son application peut être :
La géolocalisation
La mise à disposition d’informations (médiation culturelle, fiche technique d’un équipement etc…)
Cette solution se substitue au QR code et est peu onéreuse.
Application bidirectionnelle
Dans une configuration bi-directionnelle, la LED communique avec un device qui lui émet des informations/requêtes sous forme de signal infrarouge (spectre lumineux non visible). Cette application permet notamment la navigation sur internet.
- Bientôt du Lifi dans les smartphones ?
En miniaturisant le LiFi dans une simple puce, l'entreprise française Oledcomm rend possible l’intégration de la technologie LiFi dans les smartphones, tablettes et objets connectés. Les premiers smartphones l’embarquant pourraient arriver sur le marché en 2023.
Quels sont les avantages du Lifi ?
Une capacité de débit importante de l’ordre de plusieurs Gbit/s en laboratoire
Une technologie non invasive qui ne diffuse pas d’onde électromagnétique. Elle assure donc de rester en dessous des recommandations de l’OMS. En outre l’absence d’onde électromagnétique est compatible avec les besoins des hôpitaux.
La sécurisation des données. La communication ne se fait que dans le cône de lumière envoyé par le luminaire. Le piratage à distance par les ondes n'est pas possible.
Une diffusion de l’information avec 50% moins d’énergie électrique que le wifi pour une durée de vie moyenne de la source de 50 000h
Possibilité de distribuer internet avec via une source lumineuse (technologie PoE)
Géolocalisation précise à 10cm près si l’utilisateur est situé en dessous de la source lumineuse en indoor ou outdoor
-
Pour se développer, la technologie peut compter sur :
Des structures déjà existantes comme l’éclairage public
L’interdiction des lampes incandescente d’ici 2020 favorisant le développement des LED
Une grande surface d’usage et d’implantation (partout où il est possible d’implanter des LED)
Le développement de l’IoT
Le développement des Smart City
Un spectre radio déjà surchargé
Le déploiement de la 5G
Le durcissement de la législation concernant les ondes (loi Abeille, janvier 2017) -
Quelles sont les faiblesses du Lifi ?
Néanmoins le LiFi possèdent certaines limites :
Son coût d’utilisation si la structure souhaitant y recourir n’est pas équipée de dispositif LED en amont et de câblage Ethernet,
Un débit optimal avec Lumière LED bleue, or celle-ci est complétée par du phosphore pour donner la lumière blanche qui nous éclaire (dégradant de manière significative les performances du débit),
La nécessité de créer un référentiel recensant l’ensemble des points lumineux pour géolocaliser, qui est une tâche fastidieuse,
Une portée du signal qui se limite à l’angle couvert par la LED et qui n’excède pas 10 mètres,
Son incapacité à traverser les milieux opaques,
La forte nécessité d’un dongle en raison d’un faible taux d’équipement compatible.
- Comparaison : Lifi vs Wifi ?
Le principal frein au recours du LiFi par rapport au WiFi réside dans sa portée. Pour équiper un grand espace d’une couverture internet, de nombreux points LiFi sont nécessaires alors qu’une seule borne WiFi peut convenir. Le coût du LiFi peut donc rapidement devenir supérieur à celui de l’équipement WiFi. En outre l’incapacité du LiFi à traverser les milieux opaques peut vite devenir un frein.
LiFi WiFi
Spectre Lumière visible Radio
Standard IEEE 802.15.7 IEEE 802.11
Portée lumière (<10m) onde radio (< 300)
Stoppée par un milieu opaque Traverse les milieux opaques
Besoin énergie Faible Elevée
Coût Faible Elevé
Bande passante Illimitée Limitée
- Comment le LIFI a-t-il été inventé ?
Les ondes radioélectriques ne sont qu’une partie du spectre qui peut transporter nos données. Et si nous pouvions utiliser d’autres ondes pour surfer sur Internet ?
Le physicien allemand, Harald Haas, a mis au point une solution qu’il appelle «données à travers l’éclairage » en envoyant des données à travers une ampoule LED qui varie en intensité plus vite que l’œil humain. C’est la même idée que la télécommande à infrarouge, mais beaucoup plus puissante. Cette technologie consiste à insérer un microchip dans la lampe LED connectée à une source de transmission de collecte amont (soit fibre optique, CPL ou DSL …).
Harald Haas veut transmettre des données sans fil depuis chaque ampoule électrique : « Cleaner, greener, bright … »
Présentation à la conférence TED d’aout 2011 par Harald Haas (pioneer behind a new type of light bulb that can communicate as well as illuminate – access the Internet using light instead of radio waves) – vidéo de la première présentation mondiale de la technologie LIFI en Aout 2011.
Présentation de la société pureVLC
Site de la startup Française OLEDCOMM née du labo d’ingénieurs de l’université de Versailles Saint-Quentin, qui produit entre autre des appareils Li-Fi / VLC de géolocalisation intérieure avec le support de Philips.
Haas dit que son invention, qu’il appelle « D-Light », peut produire des débits de données supérieurs à 10 mégabits par seconde (plusieurs pilotes fonctionnent à 150 Mbit/s). Il imagine un avenir où les données pour les ordinateurs portables, les smartphones et les tablettes sont transmises par la lumière dans une pièce. Et de la sécurité serait renforcée, si vous ne pouvez pas voir la lumière, vous ne pouvez pas accéder aux données.Une multitude d’applications sont possibles pour cette technologie, depuis l’accès public à Internet par le biais de lampadaires aux voitures qui communiquent par leurs phares. Le LIFI pourrait faciliter les transmissions des données sans fil à travers le spectre du visible en apaisant les craintes de certains usagers vis à vis des ondes électromagnétiques.
- Le LIFI : une technologie au service de la Smart City ?
Dans une vision exploratoire de la Smart City, le LIFI pourrait être utilisé dans certains zones par l’éclairage public urbain, les transports publics (métro, trains, avions …) mais aussi les environnements médicaux ou industriels où les communications wireless radio sont perturbées et/ou dangereuses.
Des atouts, mais aussi des inconvénients :
– Paradoxe si LIFI est économe en énergie car utilise l’éclairage et ne consomme que très peu d‘énergie supplémentaire => il ne fonctionne que si la lumière est allumée, même faiblement, mais doit être allumée… ce qui limite l’usage dans des espaces publics !
– Le LIFI a un potentiel de transmission théorique très supérieur (x10 000) au sans fil radio : valorise le spectre de Lumière versus le spectre électromagnétique Radio : Le spectre de la lumière visible est 10 000 fois supérieures au spectre des ondes radios par la Technologie « LED / SIM OFDM » de transmission de données.
– Le LIFI est mono-directionnel (on ne peut que recevoir et pas émettre vers le capteur LIFI) l’interactivité est donc impossible sauf en le couplant avec une autre technologie (ex CPL, WIFI….) ce qui limite son développement : Un peu a l’instar des premières technologies satellitaires (désormais bidirectionnelles) les terminaux ou objets connectés des usagers ne peuvent pas émettre. Il interdit donc toutes applications transactionnelles ou qui nécessitent d’envoyer des flux vers le réseaux (envoi d’email, connexion type VOIP, messagerie instantanée, connexion à un domaine professionnel ou personnel …).
Les usages du LiFi sont, du coup, limités à la diffusion pure de signal quand aucune remontée n’est nécessaire. Par exemple la géolocalisation à l’intérieur d’un bâtiment ou pour des services de type broadcast (téléchargement d’applications, de documents, de contenus médias, visualiser des flux vidéo HD …) en « poussant » des contenus vers une tablette, un smartphone … dans toutes les pièces de la maison, dans les chambres d’hôtels, dans un lieu professionnel, dans un espace commercial, pour l’accueil d’un service public ou lors de la visite d’une exposition.
– Le LIFI offre un niveau de sécurité original et supérieur : le flux de données n ‘est accessible que dans le « faisceaux direct » de lumière a la différence des ondes radios qui circulent de façon moins contrôlables
– Le LIFI n’est qu’une technologie des derniers mètres : Il nécessite de déployer un réseau de collecte derrière les « lampes LED », c’est une énorme infrastructure de collecte à établir. Plusieurs pistes pourraient coupler CPL et LIFI dans les réseaux d’éclairage public.
– Le LIFI nécessite de changer le parc des lampes actuelles par des LED compatibles LIFI : 14 Milliards d’ampoules dans le monde. C »est un énorme marché, mais il ne faut pas arriver trop tôt ou trop tard comme pour toute innovation, il faut ouvrir la réflexion dès la conception d’un éclairage d’un bâtiment, d’un quartier, d’un moyen de transport, d’un espace public (station de métro …) … !
=> Dans une 1ère génération le LIFI pourrait cibler des applications industrielles ou des espaces spécialisées : ciblés au départ (gare, métro, train, tunnel, aéroport, avion, hôpitaux, usines, musées, centres de congrès ou d’expositions …).
Ce n’est pas en 2014 que le wireless radio (WIFI…) sera remplacé par le wireless lumière mais à 5 ou 10 ans, cette technologie pourrait venir compléter notre panoplie d’outils d’accès « sans fil » et notamment dans le domaine du « broadcast » de proximité (diffusion de flux tres haut débit dans des espaces dédiés ou modulaires).
L’enjeu industriel le plus important reste celui de convaincre les fabricants de devices (smartphone, tablettes, objets connectés …) d’équiper de base en LIFI leurs produits. Sans l’effet de taille critique du parc de terminaux doté d’interfaces compatibles avec le LIFI, cette technologie pourrait rester cantonnée à des univers très industriels professionnels ou des « niches » de marché très ciblé comme c’est le cas pour CPL (Courant Porteur en Ligne) qui au début des années 2000 était positionné comme concurrent de l’ADSL pour l’accès internet à domicile. Mais, son marché a été réduit à la portion congrue de « distribution interne » aux bâtiments et notamment des logements en support ou complément du WIFI. Le CPL pourrait retrouver un second souffle avec la diffusion massive des compteurs intelligents électriques dans le cadre des évolutions « smartgrid » (en France notamment 35 millions de compteurs Linky équipés en CPL d’ici 10 ans). L’avenir du LIFI est donc incertain mais c’est une technologie complémentaire à celle qui existe.
Ce qui a fait le succès du WIFI c’est avant tout son adoption par les industriels des devices du monde entier et la production de chipset intégrant le WIFI à un coût dérisoire. C’est certainement le défi majeur de cette nouvelle technologie sans fil !
Pour relever ce défi et les autres, les acteurs promoteurs du LIFI se sont organisés au sein du LIFI Consortium.
- Consortium Li-Fi pour promouvoir cette innovation
Les membres fondateurs du consortium Li-Fi sont d’entreprises technologiques internationales et des institutions de recherche spécialisées dans les technologies de communication optique.
Le groupe est basé sur un concept élaboré collectivement et feuille de route pour mettre en place une nouvelle technologie sans fil sur le marché qui dépasse les capacités et les qualités du Wi-Fi.
Le Consortium Li-Fi a plusieurs objectifs :
Promouvoir l’état de l’art des technologies de communication optique sans fil et des solutions auprès des investisseurs financiers, des institutions publiques et du grand public;
Informer les acteurs intéressés pour développer la technologie et la financer;
Créer et développer des solutions complètes et des applications par anticipation des besoins clients;
Assurer la coordination avec les groupes de normalisation et autres organisations du secteur de fournir aux clients OEM avec un ensemble complet de techniques et de marketing.
Un représentant de chacun des membres fondateurs du Consortium Li Fi constituent le comité de pilotage. Leur rôle est de développer et de gérer la portée et l’orientation des technologies, des applications et des relations pour remplir la mission du Consortium.
Le comité directeur se compose actuellement de représentants des membres fondateurs cinq :
Fraunhofer IMPS, Allemagne – Frank Deicke
IBSENtelecom, Norvège – Walter Kraus (président)
Suprême Architecture, Etats-Unis, Israël – Josef Shwartz
TriLumina, Etats-Unis – Rudi Wiedemann
Le Consortium Li-Fi est encouragé à construire du matériel promotionnel et des outils, y compris le site Web, des livres blancs, des liens, des communiqués de presse, articles, etc qui servira de sa mission officielle.
Une fonction clé du Consortium Li-Fi est d’établir et maintenir une relation de travail avec d’autres organisations, qui peuvent aider à créer un environnement de maturité de l’industrie pour les implémenter.
- Octobre 2013, la Chine entre dans la bataille du LIFI !
En octobre et novembre 2013, selon l’agence chinoise Xinhua la scientifique Mme Chi Nan, de l’université de Fudan Shanghai, a mené une expérimentation et présenté un pilote LIFI lors de l ‘exposition « China International Industry Fair » de Shanghai (5 – 9 nov 2013). Les vitesses de connexion de données testées atteignent 150 Mbps en utilisant un petit nombre d’ampoules LED chacune d’un watt . »Avec une ampoule LED plus puissante, nous pouvons atteindre 3,5 Gbps vitesses « . Le routeur et le récepteur sont équipés d’ampoules LED afin de permettre d’émettre et recevoir des données.
Selon le Professeur Chi Nan «Il y a encore beaucoup de problèmes qui doivent être résolus « , soulignant la nécessité d’améliorer la couverture Li-Fi , et miniaturiser les composants nécessaires . Au fil du temps , cependant , le récepteur Li-Fi pourrait éventuellement prendre la forme d’ un « dongle USB » qui se fixe à un ordinateur portable. Chi Nan estime qu’il faudra cinq ans pour que la technologie puisse entrer sur le marché de grande consommation. Jusqu’à présent, son équipe a passé environ 18 mois sur le projet.
Décembre 2013, point sur la recherche Li-FI en UK : EPSRC’s Ultra-parallel visible light communications (UP-VLC) project
Dernières avancées concrètes du LIFI par des chercheurs des universités d’Oxford, Cambridge, St Andrews, Strathclyde et de l’université d’Edimbourg (article source) et vers le site de recherche ( EPSRS site).
Le Li-fi comme alternative au Wifi ? Ces chercheurs en sont convaincus en réussissant à obtenir un débit sans fil supérieur à 10 Gbit/s : 250 fois plus rapide que les débits maximum disponibles chez les particuliers. Ils ont pour cela fait le choix d’utiliser des ondes lumineuses plutôt que les ondes radio, sur lesquelles fonctionne le Wifi.
Plusieurs projets de recherche existent déjà dans ce domaine, en lumière continue ou discontinue. Un des paramètres principaux influençant les débits de données obtenus et la fréquence de commutation de la source de lumière utilisée.
Les LED et les lasers sont parmi les sources ayant les fréquences de commutation les plus élevées, permettant d’obtenir les meilleures performances de transfert de données dans le domaine, mais constituant un véritable défi de stabilité au niveau du protocole de communication entre l’émetteur et le récepteur.
C’est précisément cette difficulté que les activités de recherche du projet Ultra Parallel Visible Light Communications, géré de manière conjointe par les universités d’Oxford, Cambridge, St Andrews et Strathclyde, et financé par l’Engineering and Physical Sciences Research Council (EPSRC, conseil de recherche en ingénierie et sciences physiques) ont récemment réussi à surmonter.
Chaque LED utilisée dans ces conditions est capable de générer un débit supérieur à 3 Gbps, les chercheurs ont donc réussi à coupler 3 LED différentes et à les faire fonctionner en simultané pour atteindre le débit pharamineux de 10 Gbps.
quelques liens en anglais sur le LIFI :
TECH RADAR, 28/11/13: Li-Fi researchers smash through 10Gbit/s data barrier using LED light bulbs.
THE INDEPENDENT: 28/11/13, Li-Fi revolution: internet connections using light bulbs are 250 times faster than broadband.
- Janvier 2014, Premier Smartphone équipé LIFI présenté au CES à las Vegas par la société Française SunPartner :
La société française SunPartner présente le Wisyps Connect, un revêtement compatible LiFi. L’idée est simple : le revêtement est capable de capter la lumière pour transmettre les données au smartphone, mais aussi — la spécialité de SunPartner — recharger l’appareil. Wysips Crystal est un revêtement photovoltaïque capable de transformer la lumière en énergie utilisable par le téléphone.
Il ne s’agit pas d’un produit fini mais d’un prototype puisque SunPartner utilise un smartphone de milieu de gamme déjà commercialisé pour faire la démonstration de Wysips® Connect. Cette présentation est destinée à séduire les opérateurs de la téléphonie mobile et les convaincre de passer au LiFi.
La société indique avoir signé avec trois constructeurs pour proposer des smartphones compatibles LIFI dès cette année 2014, dont le fabricant chinois TCL, qui propose des smartphones sous la marque Alcatel One Touch. L’intégration du LiFi est à ce stade complémentaire avec le Wi-Fi ou la 4G.
Depuis début 2016, des rumeurs prêtent à APPLE des intentions d’installer le LIFI dans ses smartphone. A l’origine une ligne de code de « IOS 9.1 » qui ferait référence à une « LIFI Capability ». Toutefois, de là à imaginer le prochain smartphone de la firme de Cupertino avec le LIFI il y a un univers. Ce passage dans les terminaux grands publics type est un enjeu de taille de marché pour la technologie LIFI. Sans ce passage elle pourrait être cantonnée à des applications professionnelles durant de nombreuses années voire ne jamais franchir ce cap.
OLEDCOMM Startup Française présente le LIFI à Las Vegas
ci dessous visualisez la vidéo de la présentation du LIFI par OLEDCOMM.
- Fin 2015, une multiplication de sites pilotes notamment en France et en Europe :
Sogeprom, une filiale de la Société Générale, a bien voulu servir de cobaye et un prototype de luminaire Li-Fi a été installé dans ses bureaux, à la Défense.
L’hôpital de Perpignan est le premier établissement de santé à en avoir testé le LIFI dans un service d’Urgences . Le réseau permet l’accès aux dossiers des patients.
La SNCF étudie depuis 2012 la possibilité d’utiliser la liseuse au dessus de chaque siège dans les wagons SNCF pour transmettre par un signal Li-Fi des informations aux voyageurs : régions visitées, horaire d’arrivée, perturbations du trafic …
Dans les rues, installé sur les lampadaires, le Li-Fi transforme l’éclairage public en « smart lighting » (éclairage intelligent). Une seule ville en France a inauguré un réseau Li-Fi public : la petite commune de Meyrargues, en région PACA, qui compte moins de 4.000 habitants . Dans les gares, le Li-Fi pourrait être utilisé comme balise GPS pour d’aider les malvoyants .
Toutes ces premières applications montrent que le LIFI se positionne plus en complément qu’en substitue du WIFI. Il est actuellement couplé au WIFI ou Bluetooth pour assurer la « voie remontante » (du terminal usager vers le réseau).
Toutefois des premières tentatives de « up load » apparaissent depuis 2015.
- Vers un LIFI « bidirectionnel » ?
Un constructeur (Pure Lifi) avec une offre « Li-1st » a technologie n’offre cependant pas les mêmes performances environ 11,5 Mibt/s sur le cumul débit ascendant/descendant. Soit 5 mbit/S utile Upload et 5 mbit/s dowload.
1ère Expérimentation LIFI Bidirectionnel par LUCIBEL en FRANCE : 2016 (source RT Flash)
Un prototype de luminaire bidirectionnel et haut débit, ou Li-Fi, développé par la société française Lucibel, a été testé au siège du constructeur immobilier Sogreprom à la Défense.
Pour le directeur de projet Li-Fi de Lucibel (Edouard Lebrun)« C’est une première en Europe. Jusqu’à maintenant, les solutions proposées étaient unidirectionnelles avec un flux descendant ». La SNCF ou encore le Louvre ont ainsi testé des solutions de ce type. Lucibel veut proposer une alternative au Wi-Fi.
Pour le moment, la solution testée atteint un débit descendant de 10 Mbits/s et un débit montant entre 5 et 10 Mbits/s, suivant l’état du réseau local. Le luminaire doit être raccordé au réseau local Ethernet.
Nous vivons depuis 18 mois au rythme d'une pandémie qui a mis le monde à l'arrêt et contre laquelle nous avons bien du mal à nous défendre, malgré les moyens colossaux déployés. Et ceci par la faute d'un virus de taille nanométrique. Méconnue et largement sous-estimée, cette caractéristique rend le SARS-CoV-2 quasi impossible à éliminer de l'air ambiant en espace clos par l'immense majorité des dispositifs connus.
Un virus qui résiste malgré des moyens colossaux
Malgré les moyens utilisés sur toute la planète pour limiter sa propagation, pour décontaminer les lieux, les surfaces et les hommes… rien n’y fait vraiment. Le virus mute, ses variants persistent, résistent, en passant allègrement d’une pièce à une autre, d’une personne à une autre, d’un continent à un autre à une vitesse folle, profitant de l’incroyable mobilité des individus en ce début du XXIème siècle.
Avec un diamètre compris entre 0,06 micron et 0,14 micron, sa taille le rend quasiment insaisissable. A titre de comparaison, la taille moyenne d’un grain de pollen est de 40 microns… c’est-à-dire entre 280 et 670 fois plus gros que le nouveau coronavirus ! Parmi les principaux avantages pour le virus, la transmission aéroportée ou la capacité à voyager sur de vastes distances : il est désormais clairement établi que la propagation et la contamination se font très majoritairement par voie aérienne sous forme de nano et microgouttelettes flottant dans l’air lorsque nous respirons, parlons, chantons, toussons, éternuons... Ce qui nous amène au deuxième paramètre clé du problème actuel : la charge virale. En présence d’une personne contaminée, cette dose infectieuse se développe en millions et même milliards de virus selon le stade de la maladie. Dans un espace clos, peu importe qu’il s’agisse d’une classe d’école, d’une salle de restaurant ou d’une rame de métro, le virus se multiplie encore et encore jusqu’à saturer l’air si ce dernier n’est pas renouvelé efficacement en permanence. La transmission peut alors s’opérer très rapidement en un même lieu en fonction des flux d’air, des mouvements ou positions des personnes et du temps passé dans le lieu. Ce qui a largement été démontré par des clusters observés sur des bateaux de croisière, de simples voyages en bus ou des restaurants.
La meilleure des technologies de filtration mécanique, uniquement utilisée en milieu hospitalier pour le traitement de l’air des salles d’opération, se nomme ULPA (Ultra Low Penetration Air) : l’efficacité de ces filtres dits à "très faible pénétration" est très élevée puisqu'ils retiennent au moins 99,9975% des particules aériennes dont le diamètre est supérieur ou égal à 0,1 micron, seules 0,0005% d’entre elles passant au travers. Des millions de virus de taille nanométrique sont donc malheureusement toujours en capacité de le traverser et c’est très précisément le cas du SARS-Cov2.
Un filet à maquereaux pour attraper des sardines
Plus communément, il est fait usage de filtres ou systèmes de filtration dénommés HEPA et leurs qualités nous sont largement vantées pour protéger de ce virus, en affichant des performances de 99% à 99,97% d’efficacité. Mais méfions-nous des effets d’annonce car tout aussi rassurantes soient-elles, elles sont totalement insuffisantes. Ces dispositifs ont une capacité réelle de traitement de particules d’un diamètre supérieur ou égal à 300 nanomètres, soit dans le meilleur des cas des particules 2 à 5 fois plus grosses que le virus qui nous inquiète actuellement. Sur une échelle visible par l’homme, cela reviendrait précisément à utiliser un filet à maquereaux pour attraper des sardines cinq fois plus petites, ça ne peut simplement pas fonctionner...
Le 0,0099 qui change tout
L’efficacité se trouve donc loin derrière la virgule, même si une valeur de 99,97% peut sembler très rassurante pour le commun des mortels. A la lecture des caractéristiques d’un appareil de purification d’air, il faudrait au moins atteindre 99,9999 % pour être assuré d’une réduction drastique du nombre de particules dans l’air.
La majorité des solutions proposées cumule parfois plusieurs moyens techniques pour éradiquer le virus (UV, ionisation…) en sus d’une filtration mécanique qui élimine les plus grosses particules. Mais elles sont confrontées à un troisième paramètre clé : le temps nécessaire à la décontamination de l’air d’un espace donné, le cas échéant, en présence d’une personne contaminante « alimentant » l’air ambiant en continu de millions de virus. Cette capacité ou non à traiter des volumes d’air importants sans discontinuer conditionne l’efficacité de la machine et … son prix. Cet enjeu peut amener à une équation économique insoluble qui condamne les solutions possibles ou comme aujourd’hui, limite drastiquement leurs performances et les rend inefficaces contre les virus nanométriques. Ne parlons pas des solutions « magiques » qui, pour certaines, ne fonctionnent qu’en laboratoire, dans une petite enceinte close, mais n’ont aucun effet en test vraie vie hormis de délester les crédules de leur argent.
Ceci met en lumière une réalité incontournable : la taille et la quantité de virus ont une importance clé dans la situation que nous vivons depuis 18 mois. Les moyens techniques que l’on nous propose d’utiliser tous azimuts pour nous rapprocher de notre ancienne vie sont simplement inefficaces à cet égard.
Affronter la réalité, se donner les moyens
Alors que la pollution atmosphérique est désormais considérée comme un fléau mondial - une étude de mars 2019 évaluant ses conséquences à 8,8 millions de décès précoces par an dans le monde dont 67 000 en France – il est grand temps de considérer le sujet de l’innocuité de l’air que nous respirons comme un enjeu de santé public majeur. Nous devons investir dans des technologies efficaces qui nécessitent des engagements forts des industriels, à l’instar de la technologie ARN étudiée durant une trentaine d’années avant de profiter d’investissements colossaux des laboratoires du fait de la pandémie. Pour traiter l’air de façon globale et efficace dans les espaces clos, une technologie innovante existe : le plasma froid à puissance pulsée. Cette technologie méconnue vient de démontrer, à la suite d’essais cliniques pilotés par l'INSERM, une efficacité d’au moins 99,9999 %, soit un niveau de performance inégalé et réellement performant pour éradiquer les virus nanométriques.
Cette technologie – développée en France - n’est pour l’instant déployée nulle part. Allons-nous nous donner les moyens de la développer à une échelle industrielle ?
La science est actuellement dans une forte zone de turbulences. Parce que l’analogie trop hâtive entre la science et le progrès amène inéluctablement des désillusions sur l’incapacité « scientifique » à répondre aux nombreux défis, notamment environnementaux, de notre planète. Parce qu’il est de plus en plus délicat de délimiter une frontière entre ce qui relève réellement d’une démarche scientifique, enfin parce que celle-ci représente un enjeu de combat entre intérêts divergents, ce qui entraîne fréquemment une reprise de l’argument scientifique dans une perspective de légitimation d’un propos, la science se retrouve alors instrumentalisée dans un champ de controverses.
La science, une légitimité en trompe-l’œil
Le prestige de la science est intact et, à l’heure de la défiance généralisée, le scientifique reste un des rares interlocuteurs à bénéficier d’un taux de confiance élevé. Pour autant, sa légitimité apparaît de plus en plus contestée.
Si l’on estime que la démarche scientifique est apparue il y a plus de 2 500 ans à Babylone chez des scribes qui élaboraient des méthodes de prévision des mouvements des planètes, on s’aperçoit que l’activité scientifique a considérablement évolué. La spécialisation a démarré aux XIIe-XIIIe siècles avec le développement des universités, le poids de la religion s’est progressivement amenuisé et les découvertes scientifiques sont devenues de plus en plus le fruit d’un travail d’équipes et non plus d’un individu isolé dans son laboratoire. Les montants investis sont importants et reflètent le poids dans l’économie mondiale des grandes puissances économiques. La recherche indépendante tend à disparaître, la recherche publique stagne et les grandes avancées sont essentiellement le fait des impulsions de la R&D des entreprises. Pour la France les domaines les plus concernés sont l’automobile, l’aéronautique et l’industrie pharmaceutique. Les publications scientifiques sont devenues le graal de tous les chercheurs. 40 000 sont recensées par l’Association internationale des éditeurs scientifiques qui génère un chiffre d’affaires de 23 milliards d’euros, ce qui représente cinq fois plus que l’ensemble du marché mondial de la musique et, caractéristique majeure, 80 % de ces publications sont anglo-saxonnes. La perception que nous avons de la science doit tenir compte de ces évolutions.
Les limites de l’activité scientifique
Dans un monde qui paraît de jour en jour davantage déboussolé, la tentation croît de s’en remettre à la science pour fixer un nouvel horizon. Pourtant, et sauf à verser dans une tentation scientiste, celle-ci ne saurait avoir pour ambition de régir les destinées du monde. Le débat revient régulièrement avec les publications du GIEC que d’aucuns trouvent trop prudentes en termes de recommandations. C’est confondre l’activité scientifique et l’activité militante ou politique. La science nous apporte des résultats, à nous d’en tirer les conclusions. Comme l’indique clairement Aurélien Barrau, « Toute velléité hégémonique de la science est à proscrire »1. L’activité scientifique possède ses propres limites.
Comme l’a mis en évidence Karl Popper, la recherche scientifique, contrairement à l’idéologie, ne vise pas à accumuler des arguments en faveur d’une thèse. Elle vise à confronter une hypothèse à la réalité et aux connaissances établies. Un résultat scientifique est toujours susceptible de réfutation, le doute est une qualité fondamentale d’un chercheur.
Certes, il existe des certitudes scientifiques et plus personne ne remet en question la rotondité ou l’âge de la Terre, mais l’humilité, la remise en cause sont des caractéristiques d’une démarche scientifique intègre.
Alors que la politique et la sphère médiatique exigent des réponses binaires, la science ne peut répondre ainsi. Sur un grand nombre de sujets comme celui des faibles doses, des perturbateurs endocriniens, des nanoparticules, le lien de causalité est particulièrement délicat à mettre en évidence. De nombreuses avancées se font jour, notamment dans le domaine de la santé où les recherches sur l’exposome permettent désormais de considérer l’ensemble des facteurs environnementaux que subit un être humain tout au long de son existence. Cela conduit à la prise en compte de l’interaction entre les différents facteurs et non plus chaque effet pris séparément.
Par ailleurs, une nouvelle ère scientifique se préfigure. Celle de la remise en cause de certaines de nos certitudes, celle de l’indétermination, celle où l’on découvre que la présence d’un observateur peut influer sur les résultats. Nous avons longtemps été persuadés par la formule de Paracelse « C’est la dose qui fait le poison » jusqu’à ce que l’on découvre avec les perturbateurs endocriniens qu’une dose moyenne pouvait produire davantage d’effets qu’une forte dose, ce que les spécialistes appellent « l’effet fenêtre ».
De même, la théorie de l’effet papillon conceptualisée en 1972 par le météorologiste Edward Lorenz ouvrit la voie aux recherches sur le rôle de l’aléa scientifique et à la détection des signaux faibles.
La science a une temporalité incompatible avec le temps politique.
Si l’on a pu dire (peu importe qu’il s’agisse de légendes ou de vérités historiques) qu’Archimède a pu découvrir son théorème de la poussée des fluides en prenant son bain et Newton la théorie de la gravitation en voyant tomber une pomme, la réalité du travail scientifique nécessite désormais des moyens et des procédures considérables. Le scientifique doit commencer par obtenir des fonds pour sa recherche, constituer une équipe, procéder à des expérimentations et si celles-ci sont concluantes, doit les faire valider dans une publication, ce qui prend de l’ordre de deux années. Pour reprendre l’exemple ci-dessus des phénomènes d’accélération, on s’aperçoit que le temps de la science peut parfois apparaître inadapté aux phénomènes exponentiels qui constituent l’anthropocène.
Nous découvrons seulement récemment que de nombreux sujets considérés comme favorables à la transition écologique révèlent des impacts environnementaux parfois très importants, jusqu’à faire douter qu’ils puissent représenter de réelles solutions. L’analyse du cycle de vie des éoliennes, des panneaux photovoltaïques, du véhicule électrique indique en effet des impacts non soupçonnés jusqu’ici. Leurs effets sont-ils dirimants et mettent-ils vraiment en cause leur caractère de « solutions », il est trop tôt pour le dire aujourd’hui.
Tout ceci ne réduit en rien l’importance que nous devons accorder à la science. Cela nous rappelle simplement qu’elle s’inscrit dans un champ de forces, un contexte politique et que ses résultats sont souvent précaires.
Fake news et rumeurs, la science digitalisée
La fake news, appelée aussi vérité alternative ou post vérité, est une information sciemment fausse, propagée intentionnellement et présentant toutes les apparences d’une vérité possible. Une information erronée, mais martelée en permanence peut parfois réussir à s’imposer dans l’espace public. Ainsi, durant la campagne du mouvement populiste britannique en 2016 pour le Brexit, son leader, Nigel Farage communiquait largement sur le fait qu’en sortant de l’Union européenne, la Grande-Bretagne pourrait économiser 350 millions de livres par semaine, soit l’équivalent de 430 millions d’euros. Le Brexit à peine voté, le leader du parti UKIP reconnaissait que « c’était une erreur ».
En 2018, le magazine Sciences publia une étude sur la propagation des fake news sur les réseaux sociaux2. Les conclusions furent édifiantes : les fausses nouvelles se diffusent plus rapidement et plus profondément que les informations vérifiées. L’étude indique que les données scientifiques, les campagnes électorales, les légendes urbaines et les affaires économiques sont plus particulièrement concernées.
En moyenne, il faut six fois plus de temps à une information vraie qu’à une fausse pour toucher 1 500 personnes.
La science est particulièrement concernée par l’explosion des fake news puisqu’elle intervient en argument d’autorité pour crédibiliser un message faux. Cela n’est en soi pas nouveau. Déjà en 1976, un feuillet présentant la liste des additifs les plus cancérigènes avait été mis en circulation. Celui-ci était à en-tête de l’hôpital de Villejuif afin de conférer une légitimité scientifique. L’information était totalement erronée, l’hôpital émit plusieurs démentis et pourtant, alors que les réseaux sociaux ne sont apparus que trente ans plus tard, sept millions de Français avaient reçu ce message.
« Bfmisation » scientifique
La complexité des relations entre la science et les médias peut s’analyser autour de trois axes :
D’abord, celui de la sélection des informations. Pour prendre les débats actuels en France autour de l’économie circulaire et de l’interdiction progressive du plastique à usage unique, la représentation médiatique s’effectue quasi exclusivement sous l’angle des images de sacs plastiques dans les océans et souvent avec des animaux entravés par des produits plastiques. Récemment, en février 2019, la revue Nature Geoscience a publié une étude révélant l’ampleur des microparticules de plastique dans les montagnes. Amenées par les courants aériens, celles-ci se révèlent fortement toxiques, justement en raison de leur petite taille. Pourtant, aucun grand média n’a relayé cette information, préférant mettre l’accent sur le plastique dans les océans, celui-ci se prêtant davantage à une mise en scène médiatique.
Ensuite, celui de la sélection des experts. Les chaînes d’information en continu recourent en moyenne à une cinquantaine d’experts quotidiennement (France Stratégie, novembre 2017). Pour conférer une perception de recul critique sur l’événement, les médias utilisent en appui de leurs propres journalistes, des experts pouvant intervenir soit en commentaires à chaud d’une actualité (JT d’information), soit au sein d’émissions de décryptage (exemple : C dans l’air). La sélection d’experts dans les médias a fait l’objet de nombreuses études d’où il ressort que le critère de médiagénie, de fluidité du discours est parfois supérieur à la réalité de l’expertise. On a pu observer que la qualité d’être bien référencé sur internet accroît la possibilité d’invitation médiatique. Les subtilités terminologiques et les distinctions entre un directeur de laboratoire universitaire, un professeur, un maître de conférences paraissent bien lointaines pour un média qui cherchera prioritairement à afficher la fonction d’ « expert en » sur le bandeau télévisuel.
Enfin, une caractéristique des médias est celle de la recherche permanente du débat, de la confrontation, voire même du clash, comme l’observait Christian Salmon3. De fait, on assiste à une mise en équilibre des points de vue afin de générer un débat. Si 99,9 % des climatologues affirment la certitude désormais absolue de la responsabilité humaine dans le réchauffement climatique, les médias chercheront une voix discordante pour apporter la contradiction. Le domaine du réchauffement climatique est caricatural de cette tendance heureusement en déclin où des experts en biologie, mathématiques, géologie, s’installaient sur le plateau de télévision pour affirmer grâce à leur qualité de « scientifiques » leur opposition à la thèse d’un dérèglement climatique d’origine humaine.
La science, l’affaire de tous
Un autre paramètre, relativement récent dans cette tendance à la remise en cause de la légitimité scientifique, est celui de l’expertise citoyenne. Le mouvement pour une expertise citoyenne repose sur deux fondements, d’abord la perception d’une certaine appropriation de la science par des intérêts économiques au profit de projets de développement technologique, ensuite la croyance selon laquelle chaque citoyen serait le plus apte à évaluer la capacité d’un projet ou d’un produit à répondre à ses propres intérêts. Le principe d’introduction de la démocratie délibérative dans le champ scientifique n’est pas en soi contestable, il devra toutefois faire l’objet de nombreuses précautions pour réduire les risques de dérive.
L’instrumentalisation de la science
La science par son aura de légitimité et de crédibilité est au centre d’un combat permanent. Promoteur ou adversaire d’un projet ou d’une idée chercheront en permanence à utiliser l’argument scientifique à l’appui de leur démonstration. Plusieurs techniques sont ici employées.
La bataille des publications scientifiques
La publication scientifique obéit à des règles très strictes. Après que le chercheur – ou l’équipe de chercheurs – a adressé son projet d’article à une revue, celle-ci l’anonymise afin que les auteurs ne puissent être reconnus. L’article est alors adressé à des pairs, généralement deux. Ces relecteurs, qui n’ont pas d’indication sur l’auteur ni même sur l’autre relecteur, sont chargés d’évaluer – gratuitement – la validité de la méthode de recherche et la crédibilité des résultats.
Les deux auteurs doivent conjointement, et donc sans avoir pu se concerter, émettre un avis favorable pour permettre la publication. Dans la majorité des cas, des réserves sont apportées, ce qui conduit les auteurs à une nouvelle écriture. Ce processus appelé « peer review » (revue par les pairs) et « double blind » (relecture en double aveugle, car les deux relecteurs n’ont ni la connaissance de l’auteur, ni celle de l’autre relecteur) a fait ses preuves dans la légitimation du travail scientifique. Dans le domaine médical, la revue The Lancet, créée en 1823, publie plus de 1 500 articles par an.
Le fait d’avoir réussi à être publié par une revue scientifique apparaît comme la quintessence de la légitimité scientifique, ce qui explique les fortes pressions « publish or perish » pour y être référencé. La publication scientifique intervient comme une communication par la preuve de l’innocuité ou de la dangerosité d’un produit ou d’une activité. Les partisans d’un sujet sensible justifient leur position « pro » ou « anti » en fonction du nombre d’études publiées pouvant valider leur thèse.
Le funding effect
Professeure en nutrition et santé publique à l’Université de New-York, Marion Nestle a commencé en 2015 une étude visant à établir une éventuelle corrélation entre les études scientifiques financées par l’industrie agroalimentaire et les résultats en fonction de l’intérêt du financeur.
178 études ont ainsi été analysées et le résultat est sans appel « 156 études présentaient des résultats favorables au financeur et douze seulement des résultats défavorables »4.
Le même effet fut confirmé dans le domaine du médicament où les essais cliniques financés par l’industrie apparaissent quatre fois plus favorables au médicament testé que lors de recherches indépendantes. Les records de l’efficacité peuvent être attribués à l’industrie du tabac puisque les articles qu’elle finançait sur le tabagisme passif concluaient dans 98 % des cas à l’absence de risque. Et s’agissant du bisphénol A, 119 études indépendantes indiquaient un risque sanitaire possible, mais aucun effet décelé de ce perturbateur endocrinien lorsque l’étude était financée par l’industrie chimique.
Dans la quasi-totalité des cas, on ne saurait parler de malhonnêteté. Interrogés individuellement, les chercheurs n’ont pas le sentiment d’avoir été achetés, l’effet est plus insidieux. Insidieux mais implacable, raison de plus pour le faire connaître et en assurer la régulation.
La propagation du doute
Lors des grands procès de l’industrie du tabac qui se déroulèrent aux États-Unis au début des années 2000, l’ensemble des documents relatifs aux effets cancérigènes et aux stratégies de communication utilisées ont été rendus publics. Parmi eux, un mémo sans ambiguïté : « le doute est notre produit ». Celui-ci énonçait clairement que pour combattre l’importance croissante des preuves sur la nocivité du tabac, l’industrie devait propager le doute sur les preuves réelles de cette nocivité. L’objectif était de développer une importante masse de données scientifiques pour défendre l’industrie du tabac contre les attaques. Après avoir créé une façade de scientificité, le Tobacco Industry Research Committee, et avec l’aide d’agences de relations publiques, l’industrie adressera à près de 200 000 médecins une plaquette « A scientific perspective on the cigarette controversy ». Nous savons aujourd’hui grâce à ces documents que, dès 1953, l’industrie du tabac était parfaitement consciente des dangers de son produit. C’est donc clairement une stratégie de combat par la propagation du doute scientifique qui fut mise en place.
Dans leur ouvrage paru en 20105, Erick Conway et Naomi Oreskes montrent que cette « stratégie du tabac » a été appliquée à la plupart des grands enjeux écologiques ou de santé publique, comme l’amiante, le réchauffement climatique, les pesticides, les pluies acides ou le trou d’ozone.
Ainsi, la réalité du réchauffement climatique fut d’abord combattue dans son constat. Lorsque celui-ci fut sans ambiguïté, les climato-sceptiques eurent recours aux travaux d’historiens pour propager l’idée qu’il ne s’agissait que de variations naturelles. De même, durant les années 90, il fut déclaré que le phénomène des pluies acides n’était pas avéré et que de nouvelles recherches étaient nécessaires, puis lorsque le constat fut accablant, qu’elles pouvaient – elles aussi – être causées par des phénomènes naturels.
Pareillement sur le trou dans la couche d’ozone, l’industrie des chlorofluorocarbures, accusée à raison d’en être la cause principale, argumentera d’abord sur l’inexistence de toute preuve montrant que les fluorocarbures pouvaient atteindre la stratosphère, puis qu’ils ne pouvaient pas produire la chlorine responsable de l’augmentation du trou d’ozone, enfin que la chlorine en elle-même n’avait aucun effet sur l’ozone.
La stratégie du doute utilise le principe même de la science, à savoir la reconnaissance d’une réfutation possible.
Beaucoup de scientifiques participent bien malgré eux à cette suspicion sur la fiabilité de leurs études. En raison d’une quête incessante aux subventions, la plupart des publications scientifiques concluent sur la nécessité de nouvelles études pour valider les résultats, brèche dans laquelle se ruent ceux qui portent des enjeux financiers contraires.
Dans les faits, la propagation du doute s’observe très tactiquement et souvent grossièrement de manière suivante :
La survalorisation d’une erreur partielle ou d’un biais procédural ouvrant la possibilité de dénoncer l’absence de rigueur et donc la fiabilité des résultats. Cela fut utilisé lors du Climategate en 2009, lorsqu’on découvrit que le GIEC prévoyait dans son quatrième rapport une disparition totale de l’ensemble des glaciers himalayens pour 2035. Cette erreur était en fait une simple inversion de chiffres (2350) et bien qu’il soit quasi impossible d’éviter au moins une coquille dans un rapport de 2 000 pages, rien n’y fit et la polémique s’installa.
La discordance des résultats obtenus entre deux études.
La contradiction entre deux propos soit d’un même scientifique, soit entre scientifiques membres de la même équipe.
Le déni de toute scientificité, soit par la suspicion portée sur une équipe (le GIEC ne serait qu’un mouvement alarmiste et décliniste dont le seul but serait la recherche de subventions), soit par des attaques ad hominem. La biologiste Rachel Carson, qui publia une mise en cause argumentée contre le DDT en 1962, fut accusée d’être « émotive et hystérique » ; le professeur Seralini, auteur d’une étude critique contre les OGM en 2012, fut accusé de collaborer avec une société de phytopharmacie liée à un mouvement sectaire ; l’ancien vice-président du GIEC, le belge Jean-Pascal van Ypersele, fut présenté comme un censeur qui cherche l’intimidation. Le professeur Belpomme, qui publia en 2008 un rapport dénonçant l’usage du chlordécone dans les champs de bananes aux Antilles, apparut comme une personnalité provocatrice à la recherche de scoop. Un des pionniers des recherches en climatologie aux États-Unis, Stephen H. Schneider, fut qualifié en 1996 d’ « environnementaliste à toutes températures ». Fin observateur des pratiques de détournement de la science, le journaliste Stéphane Foucart le confirme « Les extracteurs de ressources fossiles (charbon, pétrole, gaz) financent des campagnes de dénigrement de chercheurs »6.
L’astroturfing
L’Astroturf est un revêtement synthétique imitant les terrains de jeux gazonnés. Le terme, utilisé pour la première fois par le sénateur texan Lloyd Bentsen en 1986 dans le champ politique, décrit une stratégie de communication qui vise à occulter son émetteur principal7. Comme pour le gazon synthétique, elle cherche à apparaître vraie en dissimulant sa véritable identité. Ni les objectifs réels, ni surtout la véritable identité ne sont connus. Il y a dans l’astroturfing dissimulation de la source, mais aussi utilisation illégitime d’une autre identité.
L’astroturfing s’explique par l’extrême distanciation des citoyens envers le monde de l’entreprise perçu comme de moins en moins légitime.
Sur un grand nombre de sujets sensibles, la posture économique des entreprises les prive de la crédibilité nécessaire. Celles-ci ont parfois tendance à dissimuler l’origine réelle de leurs messages. Dans la plupart des cas, l’astroturfing vise à se donner l’apparence d’un mouvement citoyen à l’exemple de la Global Climate Coalition aux États-Unis qui n’est en réalité qu’un lobby financé par l’industrie pétrolière. En France, le « Réseau biodiversité pour les abeilles » est financé par l’industrie phytosanitaire. De nombreuses ONG estiment en analysant ses actions que ce « réseau » sert essentiellement à pénétrer les organes décisionnels et à intervenir dans les colloques pour minimiser le rôle des pesticides dans la disparition des abeilles.
Ainsi, pour donner l’apparence de scientificité à ses propres arguments, l’industrie pourra sans difficulté créer de toutes pièces un établissement possédant le terme « Recherche », « Académie », « Institut », dans son intitulé, ce qui rendra difficile l’opposition frontale, la Recherche ayant encore une forte légitimité. Il restera à celui-ci à créer ensuite sa propre publication et il pourra se prévaloir d’une image de rigueur scientifique auprès d’interlocuteurs notamment médiatiques, pas toujours informés des principes fondamentaux d’une réelle publication scientifique. Il suffit bien souvent de quelques pages pleines de termes techniques, de références scientifiques, si possible anglo-saxonnes, de graphiques, courbes, tableaux et quelques équations, et l’ensemble paraîtra être une étude scientifique. Plusieurs organes regroupent ainsi des experts ou scientifiques (souvent à la retraite) dans l’objectif de développer des arguments en soutien aux visées économiques de la filière. Aux États-Unis l’International Life and Science Institute (ILSI) en est un exemple. Financé par les principaux acteurs de l’industrie agroalimentaire, chimique et pharmaceutique, cet « Institut » produit des études qui visent à influer sur le processus de régulation des produits chimiques et alimentaires. Le board comprend 21 personnes dont 16 arborent leur doctorat. En Europe, le Centre européen pour l’écotoxicologie et la toxicologie des produits chimiques annonce promouvoir des solutions scientifiques crédibles et pratiques, il a toutefois l’honnêteté d’annoncer immédiatement sur sa home page qu’il est financé par l’industrie. Dans son ouvrage sur le rôle des lobbies8, Stéphane Horel présente l’alliance pour la recherche et l’éducation de la pomme de terre (pilotée par Mc Cain, le leader international des produits surgelés à base de pomme de terre), l’Institut nord-américain de la viande (qui n’est que la vitrine de la filière) ou l’organisation internationale de recherche sur le plomb et le zinc (une simple branche de l’industrie des métaux).
De même, l’Institut américain du pétrole créé en 1919, n’est qu’un pur organe de lobbying. L’Institut de recherche pour les flagrances est au service exclusif de l’industrie du parfum. Coca-Cola finançait discrètement le « Beverage institute of health and wellness » jusqu’à ce que des polémiques éclatent et que la marque révèle publiquement son soutien financier9. Stéphane Horel présente également deux cas un peu extrêmes ; celui de l’Institut national de la pizza surgelée, mais aussi, et cela fait moins sourire, le « joint European research medical board » qui prétendait promouvoir la recherche sur la sûreté des produits industriels, et qui était essentiellement « une organisation de lobbying qui élaborait la défense de l’amiante »10.
En dehors de la création de pseudo instituts de recherches, l’astroturfing peut emprunter la voix d’une apparence de scientificité pour créer une controverse et appuyer ainsi une stratégie de propagation du doute.
Le plus bel exemple est sans conteste l’appel de Heidelberg que Stéphane Foucart désigne comme étant « sans doute la plus formidable opération de communication scientifique jamais entreprise par un lobby industriel »11. À quelques jours de l’ouverture du Sommet de Rio qui, en 1992, devait marquer la première grande prise de conscience internationale environnementale des décideurs politiques et économiques, 70 prix Nobel publient un texte pour mettre en garde contre une certaine émotionalité, voire une dérive idéologique qui traverse le champ écologique. L’investigation journalistique menée alors par Roger Cans pour le journal Le Monde retrace sans ambiguïté l’origine de cet appel. Initié par le directeur de la communication d’une entreprise pharmaceutique, relayé par une agence de relations publiques, travaillé par un groupe de chercheurs réunis à Heidelberg, l’ensemble reçoit des subsides d’une fédération qui cherchera toujours à apparaître en retrait, l’industrie de l’amiante qui visait à l’époque – comme aujourd’hui celle des pesticides – à propager l’idée d’un « usage contrôlé de l’amiante ».
*
- *
La science, ou plutôt les sciences, se retrouve donc dans une zone de turbulences, contestée sur ses fondements, critiquée sur son incapacité à répondre souvent de manière non ambigüe, remise en question par l’explosion des fake news et d’une pseudo-expertise, instrumentalisée à des fins idéologiques ou de défense d’intérêt, le statut scientifique est aujourd’hui fortement remis en question. Nul doute que c’est en restant focalisé sur la rigueur de sa démarche sans tomber dans le piège du clash des opinions que le scientifique conservera l’intégralité du prestige qu’il mérite et dont la société a décidemment bien besoin.
Thierry Libaert
Professeur des universités
Président de l’Académie des Controverses et de la Communication Sensible
Membre du Comité Économique et Social Européen
Aurélien Barrau, De la vérité dans les sciences, Dunod, 2019, p. 20. ↩
Soroush Vosoughi, Deb Roy et Sinan Aral, « The spread of true and false news online », Sciences, 9 mars 2018. ↩
Christian Salmon, L’ère du clash, Fayard, 2019. ↩
Stéphane Horel, Lobbytomie, La Découverte, 2018, p. 82. ↩
Naomi Oreskes et Erik Conway, Merchants of doubt, Bloomsbury Press, 2010. ↩
Stéphane Foucart, Des marchés et des dieux : quand l’économie devient religion, Grasset, 2018, p. 213. ↩
Sophie Boulay, Usurpation de l’identité citoyenne dans l’espace public, Presses de l’UQAM, 2015. ↩
Stéphane Horel, op. cit. ↩
Coca-Cola, « Continuing transparency: evolution of the beverage institute of health and wellness », 14 septembre 2016. ↩
Stéphane Horel, op. cit. p. 118. ↩
Stéphane Foucart, La Fabrique du mensonge, Denoël, 2013, p. 83. ↩