Viv(r)e la recherche se propose de rassembler des témoignages, réflexions et propositions sur la recherche, le développement, l'innovation et la culture



Rechercher dans ce blog

mercredi 31 octobre 2012

La Chine éveillée ne parle pas forcément américain !

Santé publique, système public !

Intéressante interview dans La Recherche d’octobre 2012 du Ministre de la Santé de la République Populaire de Chine. Le Dr Chen Zhu est un hématologue qui a obtenu son doctorat en France, à l’hôpital Saint-Louis. L’épidémie de Syndrome respiratoire aigu, le SRAS, en 2003, a créé un électrochoc en matière de santé publique. Son premier effet a été une rupture radicale avec les habitudes de dissimulation des problèmes de la bureaucratie communiste, et la mise en place d’un système d’alerte transparent, rapide, efficace. Avec un réseau sentinelle de cinq cents hôpitaux dans tous le pays, l’immense et populeuse Chine est maintenant au meilleur niveau en ce qui concerne la surveillance de maladies épidémiques émergentes. Avec la rapidité des transports et l’accroissement des échanges, c’était une nécessité pour la santé, bien public mondial ; la Chine assume sa part du travail
Lors de la première phase de libéralisation de l’économie, de nombreux paysans et ouvriers d’Etat ont perdu leur assurance maladie- dans les campagnes, 80% de la population n’était plus couverte. Les hôpitaux devaient fonctionner comme des entreprises et équilibrer leurs budgets, ils sont donc devenus inaccessibles à la plus grande partie de la population et la corruption a prospéré. Depuis 2007, une nouvelle politique a été poursuivie, visant à la mise en place d’un système public de santé, notamment financement public des hôpitaux pour remédier aux dérives observées, et d’une assurance maladie publique couvrant les besoins essentiels. Un système plus proche du système français que du système américain !

Les relations scientifiques franco-chinoises

La Chine assume aussi maintenant sa part dans la recherche thérapeutique. En matière de médicament, l’un des grands succès chinois a été la découverte de l’antipaludéen le plus efficace, l’artémisine, isolé à partir de remèdes  traditionnels. La Chine se dote aussi de moyens considérables en matières de biobanques (banques de cellules diverses utiles pour la recherche et éventuellement les thérapies cellulaires), de bioinformatiques, de recherche translationnelle (permettant d’établir des liens solides  entre effet clinique et recherche pharmacologique fondamentale.
Dans la domaine de la médecine et des maladies émergents, l’Institut Pasteur de ShangHai, collaboration entre les Instituts Pasteur et l 'Académie des Sciences de Chine constitue une réalisation remarquable, ainsi que, dans le domaine de l’informatique et de l’automatique, le laboratoire mixte INRIA/Académie des Sciences de Chine (LIAMA) de Pékin.
Près de 30.000 étudiants chinois sont en France. Grâce à l’action d’hommes comme M. Vallat, l’ancien proviseur de Louis-Le-Grand, qui a lancé des filières de recrutement en Chine (et en Inde) pour les classes préparatoires, grâce aussi à des initiatives comme l’Ecole Centrale de Pékin, grâce aux collaborations, notamment avec l’ingénierie d’EDF et d’AREVA dans le domaine du nucléaire, la Chine connaît et apprécie le modèle généraliste et original de formation des ingénieurs à la française.
En matière de science, de technique, de modèle de société, la Chine ne s’inspire pas que des USA. Et la collaboration franco-chinoise a de beaux jours devant elle.

Eric Sartori, (Histoire des Grands Scientifiques Français, tempus 2012)

dimanche 28 octobre 2012

Affaire Séralini : rebâtir sur les ruines

Sanctionner le Pr Seralini ?

Après examen des données, les agences de sécurité sanitaires européennes, allemandes, néerlandaises, l’agence de sécurité sanitaire française et le Haut comité des biotechnologies ont conclu à la nullité de l’étude du Pr Séralini sur la toxicité du maïs OGM résistant au round-up et de l’herbicide associé : «  interprétations spéculatives des résultats », « absence d’analyse statistique des données concernant les informations », « conclusions insuffisamment soutenues par les observations », « présentation des résultats utilisés pour échafauder des hypothèses physiopathologiques non fondées ». Auparavant, les six académies scientifiques françaises (médecine, science, pharmacie, vétérinaire, agriculture et technologie) avaient aussi condamnées « un travail qui ne permet aucune conclusion fiable ». Menée sur une durée trop longue sur des souches de rats développant spontanément des tumeurs, cette coûteuse étude était mal conçue dès le départ et les spectaculaires tumeurs exhibées en première page de plusieurs journaux ne constituent que la preuve d’une volonté de manipulation de l’opinion.
Cette affaire s’est déroulée dans un climat extrêmement malsain et détestable, intolérable : manipulation des media par un embargo ne permettant une évaluation sérieuse de l’étude, disqualification a priori des experts qui, selon les méthodes reconnues, avaient conclu à l’absence de toxicité, et du maïs OGM, et de l’herbicide, intimidation vis-à-vis des journalistes exprimant des doutes[1] (il faut ici saluer notamment le travail et le courage notamment des journalistes du Monde et de Marianne).
Ce n’est pas la première fois que Séralini est fortement critiqué ; en 2008, son étude déjà très médiatisée sur la toxicité cellulaire du glyphosate reposait sur l’emploi de lignées cellulaires non pertinentes placées dans des états de stress (pH notamment) aberrantes.
Aucune éthique ne peut se fonder sur une mauvaise science, et plus encore, sur une manipulation éhontée des peurs, et plus encore, lorsque les manipulateurs en tirent profit. Ces affaires portent atteintes à la science, au débat démocratique, à la possibilité même de ce débat et à l’action publique (l’utilisation de la mauvaise science pour conforter des choix idéologiques semble devenir  la règle au gouvernement, note le journaliste de Marianne Jean-Claude Jaillette).
 Si les libertés académiques  et d’expression doivent être évidemment respectées, on peut et on doit se poser la question de la position du Pr Séralini et des moyens qui doivent lui être alloués.

Que faire ? De la recherche !

L’ANSES, peut-être par crainte de l’opinion, ou par charité confraternelle, concède que la démarche de Séralini est « ambitieuse » et qu’elle « soulève des questions originales ». Même pas, a-t-on envie de répondre. Rien dans la connaissance de la molécule de glyphosate ne permet de suspecter une toxicité inconnue ; rien dans la conception de l’OGM NK603 ne laisse suspecter un danger quelconque pour la santé[2]. Aucune des méthodes actuellement reconnues n’a permis de mettre en évidence un problème éventuel. L’emploi massif de l’herbicide et de l’OGM là où ils sont autorisés depuis des années n’a entraîné aucune conséquence sanitaire néfaste – et sans doute est-il même bénéfique, en réduisant l’emploi d’herbicides toxiques.
C’est probablement une erreur de croire, comme le laissent entendre certains qu’il faudrait recommencer l’étude du Pr Séralini, avec d’autres moyens, des durées plus longues, des animaux plus nombreux ou différents.  En revanche, oui, il faut urgemment mettre en place un meilleur suivi de la santé professionnelle des agriculteurs, avec des registres de déclaration obligatoire, notamment pour les maladies neurodégénératives.

Le programme toxome

Le problème est qu’il n’existe sans doute pas actuellement de protocoles, de méthodes scientifiques permettant d’arriver à une meilleure prédiction de la toxicité, et c’est un problème général, pour la pharmacie, l’agrochimie, la chimie, les nanomatériaux, le processus Reach …L’évaluation de la toxicité sur des animaux ( et même sur deux espèces d’animaux, rongeurs et non-rongeurs telle que requise pour l’autorisation de nouveaux médicaments), ne règle pas tous les problèmes : comme l’explique le biochimiste Claude Reiss, nous ne sommes pas des rats de 70kg. La solution passe par le développement d’un programme de recherche intensif sur la toxicogénétique, qui permette d’arriver à tester les composés sur des cellules humaines, à observer les effets produits, et surtout à les évaluer de manière pertinente. Cela suppose à son tour le développement des connaissances sur toutes les voise biochimiques de toxicité (le « toxome », par analogie au génome, ensemble des gênes). C’est là un programme scientifique utile, nécessaire, d’une ampleur quant aux moyens nécessaires et à la durée supérieure à celle du programme de génome humain. Ainsi, les effets des bisphénols ont été probablement longtemps sous-évalués ; et, par contre, des médicaments aussi utiles que l’aspirine ou les beta-bloqueurs ne pourraient plus aujourd’hui être mis sur leur marché, car ils montrent chez l’animal des toxicités inexistantes au même niveau chez l’homme.
Des efforts dispersés en ce sens existent déjà : Tox21 à l’Agence Américaine de l’environnement, le Human Toxome project en Europe, le Human Toxicology Project Consortium formé par un groupe d’industriels de la pharmacie, de la cosmétique, de l’agro-alimentaire. Plutôt que de mener un combat douteux sur le maïs transgénique, le gouvernement français ferait mieux de soutenir en France et en Europe, un programme mobilisateur et un effort conséquent de recherche en ce domaine.
Si  l’étude du toxome pouvait surgir des ruines de l’affaire Séralini, tout n’aura pas été perdu.


[1] Il faut saluer notamment le travail et le courage notamment des journalistes du Monde et de Marianne, notamment Stéphene Foucart et Jean-Claude Jaillette )
[2] Permet-il la réduction de l’emploi d’herbicides, est-il bénéfique à long ou même à moyen terme pour l’agriculture et moins néfaste pour l’environnement que les techniques alternatives sont sans doute des questions plus pertinentes..


samedi 27 octobre 2012

Hydroélectricité : une décision avisée et courageuse

Hydroélectricité : une décision avisée et courageuse

Delphine Batho a étonné en déclarant son opposition  à la libéralisation en cours  des barrages hydroélectriques, imposée par la Commission européenne, plus précisément la Direction de la concurrence dans le cadre de l’ouverture du marché de l’électricité. Celle-ci imposerait à EDF de céder 20% de son parc hydraulique, soit 49 barrages, à la concurrence. La Ministre de l’Ecologie a indiqué qu’ « il y a le problème de délai de licence sur le renouvellement qui semble devoir passer par une mise à la concurrence…, un enjeu de valorisation du patrimoine français en matière d'hydroélectricité, de valorisation environnementale… Moi je ne souhaite pas une nouvelle libéralisation.»
Il était en effet de temps de remettre en cause des décisions basées sur une idéologie de la concurrence qui a largement démontré sa nocivité. Dans des domaines où l’investissement de départ, où la recherche sont importants, celle-ci ne fonctionne simplement pas, comme cela a été largement démontrée par la privatisation de l’électricité aux USA, celle des transports publics en Angleterre. Lorsque qu’un monopole naturel est remplacé par un oligopole, les firmes qui le constituent n’ont aucun intérêt à investir et peuvent très bien se contenter de laisser la pénurie s’installer et les prix augmenter. Dans le secteur des télécommunications, la libéralisation s’est accompagnée d’une baisse d’un tiers des investissements en recherche ; conséquence,  en France, on se demande qui investira dans le développement des réseaux haut débit, l’appel à la bonne volonté de Free étant d’un effet incertain.
Dans ces secteurs, la libéralisation, c’est l’explosion des dépenses de communications et l’effondrement des dépenses de recherche ! – et il n’est donc pas étonnant que la libéralisation trouve de nombreux communicants pour la défendre.
Dans le secteur de la production d’énergie, la libéralisation, la concurrence libre et entière ne fonctionne pas. Face aux délires de la Commission européenne, comme d’habitude l’Allemagne fait le gros dos, en affirmant que sa constitution fédérale et la division de son réseau rendent sans objets les préconisations de la Commission, l’Italie commence par voter en urgence la prolongation pour quinze ans de son monopole avant d’affirmer son obéissance parfaite à la Commission, et, comme d’habitude, avec les gouvernements précédents, la France se préparait à agir en bonne élève, suivant exactement les préconisations de la Commission de la concurrence dans les délais impartis.
Eh bien, il était temps que cela change, et qu’on prenne le temps de réfléchir vraiment aux avantages et inconvénients de la libéralisation, domaine par domaine, qu’on pense stratégie industrielle, production, recherche, et pas simplement intérêt – et encore immédiat - du consommateur…Et qu’on ait enfin le courage, si besoin est, de résister aux ukases de la Commission Européenne.

vendredi 26 octobre 2012

Serge Haroche : le Prix Nobel, la Physique quantique et l’organisation de la recherche

Serge Haroche : le Prix Nobel, la Physique quantique et l’organisation de la recherche

La Recherche française a encore été à l’honneur cette année, avec le Prix Nobel de physique accordé à Serge Haroche. Formé à l’Ecole Normale Supérieure, entré au CNRS à 23ans, il a enseigné à Polytechnique, à Harvard, à Yale, au Collège de France, et a dirigé le laboratoire de Physique de l’Ecole Normale Supérieure, pépinière de Prix Nobel avec Claude Cohen-Tannoudji et Alfred Kastler, une filiation d’excellence.

La physique quantique, ses paradoxes, et comment l’enseigner.

Serge Haroche a été récompensé pour ses travaux en physique quantique, en particulier pour des expériences – des tours de force technologiques - portant sur des atomes ou photons isolés, permettant d’une part une meilleure compréhension des principes contre-intuitifs de cette science, et d’autre part, d’envisager des instruments de mesure et des ordinateurs incomparablement plus puissants et plus précis que ceux existants.
La physique quantique est née en 1906 avec l’explication par Einstein de l’effet photoélectrique, l’émission d’électrons sous l’influence de la lumière ; celle-ci ne se produit que pour certaines longueurs d’ondes (énergies) précises dans un matériau donné. Cela ne pouvait s’expliquer par la conception ondulatoire de la lumière, qui avait triomphé depuis la compréhension des phénomènes d’interférences et a conduit à une conception particulaire rénovée (les photons, particules de lumière).
Alors est apparue progressivement  une nouvelle physique, s’appliquant à des dimensions très petites, qu’Einstein a en partie refusée « Dieu ne joue pas aux dés ! »), tant elle est contraire à nos intuitions du monde physique et bouleverse nos manières de raisonner.
Ainsi, parmi les principaux paradoxes ou principes contre-intuitifs de la physique quantique :
- Le principe d’indétermination : nous ne pouvons pas connaître simultanément, avec une précision totale, certaines quantités, par exemple la vitesse et la position d’une particule – si ce mot a encore un sens ; plus on connaît précisément l’une, plus l’imprécision est grande sur l’autre
- L’implication de l’observateur et la dualité onde particule : l’expérimentateur  influe sur le résultat de l’expérience (la physique quantique n’est pas « réelle », il n’ y a que des observations) ; ainsi la lumière peut apparaître sous forme de photon (particule) ou sous forme d’onde, suivant la manière dont on l’observe, et parfois, dans la même expérience, successivement sous l’une ou l’autre de ces formes. Inversement, l’atome  (la matière) peut aussi se manifester sous forme d’onde…
- La non-localité : des particules ayant interagi dans la passé restent en interaction, et une mesure effectuée sur l’une a un effet immédiat sur les autres,  même si aucune information ne peut être transmise de l’une à l’autre.
- La quantification de certaines variables, notamment l’énergie. L’énergie, par exemple celle d’un électron dans un métal, est discontinue, elle ne peut prendre que certaines valeurs multiples d’une valeur fondamentale. C’est l’explication de l’effet photoélectrique, et l’existence de « grains », des « quantas » d’énergie a donné son nom à la théorie.
- Le déterminisme est aussi remis en question par la physique quantique ; ainsi, dans l’expérience de pensée née d’une discussion entre Einstein et Schrödinger, un chat est enfermé dans un cage hermétique où du cyanure peut être libéré – ou pas - à tout moment de manière aléatoire. Tant qu’un observateur n’a pas ouvert la cage pour constater l’état du chat, celui-ci, dans la conception quantique, n’est ni mort, ni vivant, mais dans un état de superposition mort-vivant…

Physique quantique et culture générale

Reste à savoir comment l’on passe de ce monde quantique des particules au monde physique que nous connaissons, et cette question – la décohérence quantique – reste un sujet de recherche.
L’un de ses plus prestigieux spécialistes, Richard Feynman, a pu déclarer : « Personne ne comprend vraiment la physique quantique », tant celle-ci est contre-intuitive. L’interprétation peut-être la plus rassurante est une interprétation positiviste, défendue notamment par Niels Bohr et Stephen Hawking, qui consiste à dire que la physique quantique n’a pas la prétention de représenter la réalité, si même ce concept a un sens, mais qu’elle permet simplement de relier des observations entre elles. C’est en effet l’esprit même du positivisme comtien, qui s’interdit la considération de causes premières ou de fins ultimes pour se contenter de relier des phénomènes à l’aide de lois, et qui, d’autre part, considère que la science, c’est l’interprétation du monde par l’homme- une synthèse subjective.
Dans l’enseignement français, on considère généralement que la physique quantique ne peut être enseignée qu’à des étudiants ayant déjà atteint un très bon niveau scientifique. Il est vrai qu’elle exige la maîtrise de mathématiques élaborées, et surtout une solide culture scientifique et physique. Un esprit critique aussi, car la physique quantique se prête en effet à nombre de dérives mystiques douteuses, d’entreprises malhonnêtes de détournement dans lesquelles les concepts quantiques servent la confusion, le jargon et l’intimidation, telles que dénoncées pat l’ article canular de Sokal et Bricmont prétendant fonder la sociologie sur des concepts quantiques.
Pourtant, une vulgarisation intelligente de la physique quantique est possible, comme l’ont prouvé George Gamow puis Russel Stannard, avec les Aventures de M. Tomkins. Alors, faut-il enseigner la physique quantique dans le secondaire ?  Des sondages régulièrement commandés par la revue La Recherche montrent que la science continue à bénéficier d’une forte aura, mais que les Français connaissent peu les chercheurs, et les pratiques réelles de la recherche et ses enjeux. L’enseignement secondaire devrait donner à tous, scientifiques, mais aussi littéraires, au moins une idée générale des principales méthodes, résultats et problématiques des différentes sciences, bref donner une culture scientifique solide et générale, qui pourrait passer par le biais d’un enseignement de l’histoire des sciences.

Serge Haroche et l’organisation de la recherche

Comme ses prédécesseurs des dernières années, Albert Fert et Jules Hoffmann, Serge Haroche insiste sur l’importance de la recherche fondamentale, « socle sur lequel tout le reste est possible », et s’inquiète d’une dérive, d’un curseur poussé trop loin vers une recherche pilotée par ses applications potentielles, avec une volonté néfaste et impossible de planification et un incroyable alourdissement bureaucratique entraîné par la recherche de financements finalisés, la complexité et l’intrication non pas quantique mais bureaucratique des diverses agences françaises et européennes. Il défend aussi la qualité et l’intérêt des grands organismes de recherches (CNRS, CEA, INSERM) que certains voulaient déposséder de leur rôle dans le pilotage de la recherche pour les transformer en agences de moyens au service des Universités. Ce système, cet environnement, ainsi que cela est reconnu même par les plus grands chercheurs étrangers, a permis à nombre de jeunes scientifiques de se développer avec une liberté importante, la possibilité de travailler avec «des salaires décents au départ, et des perspectives de carrière et de promotion décentes », qui permettent de « consacrer son esprit aux choses qui vous passionnent sans avoir à lutter pour avoir des moyens ». Ce n’est plus le cas aujourd’hui, et c’est le défi principal du gouvernement que de recréer les conditions qui ont permis à la France d’engranger aujourd’hui de réels et prestigieux succès scientifique.


dimanche 21 octobre 2012

Biocitech -Romainville en danger ?

Un site prestigieux

Ce fut d’abord la première usine, puis centre de recherche de Roussel-Uclaf, fondé en 1928,à la place des écuries des omnibus parisiens – pas tout à fait un hasard, car le médicament vedette de la jeune firme pharmaceutique était alors l’hémostyl, extrait de sérum de cheval ; puis ce fut l’épopée de la chimie de stéroïdes dont Roussel devint le champion mondial, avec l’ergocalciférol (vitamine D contre le rachitisme), l’estrone, la testostérone, la progestérone, les corticoïdes Hydrocortisone et Cortancyl,  - ce dernier sera un succès considérable et aussi le premier sulfamide français (Rubiazol), des antibiotiques comme le Claforan et des dérivés d’Erythromycine. Durant la grande période de Roussel-Uclaf, le centre de Romainville regroupa plus de deux mille chercheurs, techniciens et ouvriers, et assurait près des trois quarts de la production mondiale de corticoïdes.
Puis ce furent le décès brutal de Jean-Claude Roussel, et une succession de fusions (Hoechst, Aventis, Sanofi-Aventis) mal maîtrisées, dans lesquelles le gouvernement français fut incapable de préserver un immense patrimoine scientifique français et une industrie stratégique. La dernière grande invention de Roussel-Uclaf, bien dan sa tradition, fut le RU486 (la pilule du lendemain), qui fut l’objet d’un bras de fer avec l’actionnaire principal Hoechts qui ne voulait pas le développer.

Le Parc scientifique Biocitech : des atouts gaspillés

En 2003, Sanofi-Aventis décidé l’abandon du site de Romainville et le transforme en « Bioparck» destiné à l’accueil d’entreprises dans le domaine de la chimie, de la biologie et de la santé.
Le site est particulièrement bien adapté à l’implantation de laboratoires de recherches, de développement, voire de production légères, chimiques et biologiques, avec un immobilier et des services techniques et scientifiques efficaces et adaptés. Il est de plus très bien situé, en Seine Saint-Denis, mais aux portes de Paris et desservi par le métro (pourquoi persiste-t-on à vouloir exiler les scientifiques sur les plateaux glacés et mal desservis de Saclay ou de  Palaiseau ?)
Or Biocitech est loin d’être le succès initialement prévu, et nombre d’entreprises ont disparu (soit parce qu’elles échouaient, soit parce qu’elles ont réussi et ont été rachetées) ou sont parties, au point de mettre en danger le parc scientifique, le phénomène s’amplifiant en boule de neige puisque les charges s’accroissent pour les entreprises restantes, au point de devenir dissuasives.
Le principal problème de Biocitech est qu’il n’est pas géré, qu’il n’existe aucune politique volontariste de développement. Légalement, le parc appartient toujours à Sanofi, qui s’en moque totalement ; il existait un projet de cession à la Caisse des Dépôts, dont l’un des rôles est effectivement d’assurer le développement de structures de recherches scientifiques, notamment en liaison avec les pôles de compétitivité. De façon significative et désespérante, ce transfert ne s’est pas fait parce que Sanofi aurait dissimulé à la Caisse des Dépôts le départ imminent du site d’une société parmi les plus importantes.

Pourtant, Biocitech aurait dû, devrait encore avoir un bel avenir. La Région Parisienne est le première région européenne, devant le Grand Londres, pour le domaine pharmaceutique, et la troisième région européenne dans les biotechnologies ( et regroupe 50% des entreprises françaises de biotechnologie), son réseau d’hôpitaux, grâce à l’APHP, est le premier d’Europe. Biocitech, en Seine-Saint-Denis, mais proche de Paris a tout pour devenir un atout essentiel pour l’île de France, et pour la France dans le domaine de la recherche et de l’innovation pour la Chimie et des Sciences de la Santé. Encore faudrait-il que ce parc d’Activité ne soit plus géré par Sanofi, qui l’a complètement abandonné, et soit repris par une structure qui veuille le développer. Un défi pour le Ministère du redressement industriel et pour la Banque publique d’investissement ?


mercredi 3 octobre 2012

Etude OGM/NK603 : Les doutes de la communauté scientifique

Etude OGM/NK603 : Les doutes de la communauté scientifique

Sérieux Doutes

Qui n’a pas été choqué par les photos en gros plans de rats rendus difformes par de gigantesques tumeurs ? Pourtant l’image ne prouve rien et l’étude portant sur la toxicité du maïs MK603 (maïs transgénique résistant au round-up – glyphosate) réalisée par le Pr Séralini suscite de nombreux doutes. Tout d’abord, elle est en contradiction avec le savoir acquis. Depuis plus de quinze ans, des millions d’animaux de par le monde ont été nourris par des produits OGM, sans qu’ aucune maladie ou même signe clinique particulier n’ait été signalé, même chez des reproducteurs âgés. Si les études réglementaires sont menées sur 90 jours, des études avec des OGM sur des durées supérieures ont été réalisées (plus de 24, selon un article du Monde du 26 septembre de Stéphane Foucart), dont deux études avec le maïs résistant au round-up de plus de cent semaines, l’une sur la souris, l’autre sur le rat, sans effets secondaires significatifs.
L’étude du Pr Séralini n’était donc pas sans précédents, et la contradiction avec l’ensemble des connaissances existantes (ainsi qu’avec l’absence de toxicité du glyphosate, principe actif du round-up, l’un des herbicides les plus sûrs, spécifique d’une enzyme végétale et aux produits de dégradation bien connus) aurait dû imposer une élémentaire prudence.
D’autant plus que les experts ont déjà pointé une, voire deux  erreurs méthodologiques majeures ; la souche de rat utilisée pour l’expérience, Sprague-Dawley, n’est jamais utilisée pour des études de cancérogenèse parce que cette souche fragile présente des apparitions spontanées de tumeurs pouvant aller jusqu’à 45%. Sa durée de vie et d’environ deux ans – la durée de l’étude-, ce qui fait qu’il est quasiment impossible d’obtenir des effets significatifs avec les effectifs utilisés dans cette étude ; les normes en vigueur imposent l’emploi de groupes d’au moins cinquante animaux, cinq fois plus que ceux utilisés dans l’étude (soit un millier de rongeurs au lieu de deux cents pour la totalité de l’étude. Enfin, il est nécessaire de vérifier soigneusement l’absence de contamination de la nourriture par des dérivés de types aflatoxines.
Le plus probable est que cette étude représente une contribution … à la biologie du Sprague-Dawley agé ; et que les photos publiées, pour spectaculaires qu’elles soient, ne prouvent rien. Les experts des instances officielles françaises et européennes trancheront.


Et malaise !

L’équipe du Pr Séralini n’en est pas, si l’on peut dire, à son coup d’essai. En 2008, elle avait publié une étude sur la toxicité cellulaire du glyphosate qui avait été sévèrement critiquée par l’AFFSSA, dont les experts ont mis en évidence trois erreurs méthodologiques majeures : l'utilisation de lignées de cellules cancéreuses ou transformées pour les essais, peu représentatives d'une cellule normale, des cellules soumises à un pH 5,8 sans solution tampon pendant 24h, « ce qui permet non pas d'observer l'effet du glyphosate, mais plus vraisemblablement l'effet d'une solution acide et hypotonique sur des cellules », et une extrapolation totalement abusive de toxicité cellulaire à l’organisme entier.
A cela s’ajoute une véritable stratégie de communication, plus exactement de manipulation de l’opinion publique. Avant publication, l’étude a été divulguée lors d’une conférence de presse sur invitation, à des journalistes ayant signé un « embargo », donc ne pouvant en discuter préalablement et contradictoirement avec des experts scientifiques – et ceci alors que deux livres et un film écrits par des auteurs ou commanditaires de l’enquête paraissaient la même semaine.
Ce n‘est pas tout.  Certains media – Le Nouvel Obs- se sont prêtés à ce qu’il faut bien qualifier d’exploitation éhontée de la peur ; mais lorsque des journalistes comme Stéphane Foucart, du Monde se sont efforcés de faire leur métier, on a cherché à les discréditer.  Corinne Lepage (qui représente la Crigen) lui a rappelé lors d’un débat sur France-Inter que « Le Monde faisait campagne en faveur des gaz de schistes » ?!. Les experts qui émettent la moindre réserve se font systématiquement suspecter de malhonnêteté, de parti-pris en faveur des lobbies industriels et agricoles. Ce n’est pas admissible.
Un point mineur, mais significatifs : Mme Lepage et le Crif dénigrent souvent les études « payées par les fabricants d’ OGM » ; ils font semblant d’ignorer que ces études sont réalisées par des prestataires de service indépendants, dans des conditions reconnues dites bonnes pratiques de laboratoire et étroitement contrôlés, et dont la qualité et l’intégrité conditionnent la survie.
Après s’être engagés à publier toutes les données de l’étude, le Pr Séralini et Mme Lepage ont fait marche arrière. Mme Lepage ne veut plus les communiquer à des experts qui ont travaillé pour les fabricants d’OGM  ; ou bien, ils ne seront communiqués que si sont aussi rendues publiques  les données de toutes les études réalisées sur ce sujet. Pourquoi pas ?, mais il existe deux moyens de cacher une information, ne pas la divulguer, ou la noyer dans un bruit de fonds.
Ce qui serait plus intéressant, c’est de rendre public les débats des experts, ainsi bien sûr que les conclusions, éventuellement contradictoires. Et il est à peu près sûr que cela ne sera pas favorable au Crigen, à Mme Lepage et au Pr Séralini. Dèjà, dans Marianne (29sept2012), des chercheurs réputés du monde entier ont publié une tribune dénonçant « une démarche, qui n’est pas une démarche scientifique éthiquement correcte ». Et ils rappelaient une conclusion de Sylvestre Huet, de Libération : « cette opération est un désastre pour le débat public, sa qualité, sa capacité à générer de la décision politique et démocratique »


lundi 1 octobre 2012

AZF : Etrange causalité, innovation juridique et verdict au goût amer

AZF : Etrange causalité, innovation juridique et verdict au goût amer


Il y a un peu plus de onze ans, le 21 septembre 2001, l’usine AZF de Grande-Paroisse, à Toulouse, explosait, et cette terrible catastrophe entraînait 31 morts, 2500 blessés et de considérables dégâts matériels. Le verdict du procès en appel (26 septembre 2012), basé sur une étrange innovation juridique,  ne peut que laisser un goût amer. Le Directeur de l’usine, Serge Biechlin, 67 ans, est condamné à trois ans de prison, dont deux avec sursis, et la responsabilité de Total, maison mère d’AZF n’est pas mise en cause. Ce verdict a été généralement salué par les média nationaux, mais les media locaux, les associations de victimes et la communauté scientifique sont plus divisées.

La «causalité par défaut »

Les études des experts judiciaires ont été fortement critiquées par Gérard Hecquet (Directeur d’un laboratoire CNRS de Lille de1996 à 1999, ancien conseiller scientifique de Grande Paroisse) qui a reçu le soutien de chercheurs éminents (dont Claude Lion, Bernard Meunier, Guy Ourisson), ainsi notamment que de Mme Monique Mauzac, veuve d’un ingénieur tué dans l’explosion et chimiste. Dans un éditorial de l’Actualité Chimique de septembre 2012, M. Hecquet s’indigne en rappelant que la cause de l’explosion n’a jamais pu être établie. Les experts n’ont réussi à faire détonner le mélange de nitrate d’ammonium et d’organochlorés supposé être à l’origine de l’explosion, qu’après des centaines d’essais et dans des conditions, notamment d’humidité, totalement irréalistes. Leurs explications, notamment sur la génération d’eau par la réaction elle-même, la micronisation d’une partie de la toiture en Aluminium ont été jugées carrément fausses ou hautement fantaisistes. Par ailleurs, des phénomènes lumineux, auditifs et électriques rapportés par les témoins avant l’explosion ne sont pas pris en compte. M. Hecquet rappelle que, pendant le cours du second procès, en décembre 2011, le hangar d’une cartonnerie située dans la même zone industrielle avait explosé, et qu’au début du XXème, ces terrains étaient occupés par une poudrerie de l’Armée produisant de la nitrocellulose.
La vérité est qu’on ne connaît pas, au bout de onze ans d’études, la cause de l’explosion de l’usine AZF. C’est la raison pour laquelle les premiers procès avaient renoncé à condamner Serge Biechlin et Grande Paroisse, faute d’une preuve certaine. D’une certaine façon, les arguments de M. Hecquet ont été entendus, et c’est ce qui a conduit la Cour à inventer le curieux concept, proposé par l’avocat général, de « causalité par défaut » : faute de pouvoir expliquer l’explosion par d’autres causes, on se contentera de la cause étudiée par les experts judiciaires, même si on la sait probablement fausse.

A causalité par défaut, défaut de justice

La causalité par défaut a  permis la condamnation à de la prison ferme de Serge Biechlin dans ce qui ressemble fortement à la recherche d’un bouc émissaire, mais il est peu probable et serait assez inquiétant qu’elle soit validée par la Cour de Cassation. Peut-on à vrai dire rendre justice aux victimes ?
Non, mais on peut tirer des leçons de ce drame et faire que les victimes ne soient pas mortes pour rien.  La Cour d’appel de Toulouse a indiqué une piste, et ignoré une autre. Elle a sévèrement mis en cause une cascade de sous-traitance conduisant à une dilution des responsabilités et à des pertes de compétence, d’autant plus que la formation et l’encadrement des sous-traitants étaient insuffisants, voire inexistants. S’il l’on se souvient qu’un des points les plus importants du dernier rapport de l’Autorité de Sûreté Nucléaire était la mise en cause d’un recours trop important à la sous-traitance dans les Centrale nucléaires françaises, il doit y avoir là un avertissement très net pour toutes les industries concernant le bien-fondé, les pratiques et conditions de sous-traitance. On peut alors regretter la légèreté de la condamnation de Grande Paroisse (225.000 euros) et le fait que cette chaîne de responsabilité n’ait pas été remontée.
La piste ignorée, c’est celle des pouvoirs publics : comment se fait-il que qu’un site classé Seveso II a-t-il pu se retrouver aussi enclavé dans une zone d’habitation ?