Viv(r)e la recherche se propose de rassembler des témoignages, réflexions et propositions sur la recherche, le développement, l'innovation et la culture



Rechercher dans ce blog

dimanche 25 septembre 2011

Le principe de précaution – ami ou ennemi de la science ?-mode d’emploi

Evaluer le Principe de Précaution
Après une douzaine d’années de jurisprudence l’Assemblée Nationale a souhaité, à juste titre, évaluer le principe de précaution, travail en effet utile et qui a mené à des auditions et des débats passionnants (rapport Gest-Tourtelier ; Alain Gest, UMP ; Philippe Tourtelier , PS). Rappelons sa définition inscrite dans la constitution :
 « Lorsque la réalisation d’un dommage, bien qu’incertaine en l’état des connaissances scientifiques, pourrait affecter de manière grave et irréversible l’environnement, les autorités publiques veillent, par application du principe de précaution, et dans leur domaine d’attribution, à la mise en oeuvre des procédures d’évaluation des risques et à l’adoption de mesures provisoires et proportionnées afin de parer à la réalisation d’un dommage »
Il constituait donc, ainsi que l’a souligné la juriste Christine Noiville, une véritable nouveauté qui s’oppose au « principe de prévention » jusqu’alors appliqué : un risque est connu, des mesures doivent être prises. Au contraire, le principe de précaution, impose  d’agir même en l’absence de risque prouvé, en cas de possibilité d’atteintes graves et irréversibles à l’environnement. Il impose tout d’abord d’améliorer les connaissances et donc de favoriser le développement des recherches pour mieux apprécier les risques ; il impose de prendre des mesures proportionnées au risque supposé ( de la simple obligation de mener des recherches au retrait partiel ou total, des mesures provisoires et révisables qui devront être adaptées à l’évolution des connaissances au cours d’un processus continu d’évaluation.
Cette appréciation du principe de précaution a fait l’unanimité et personne ne le remet en cause. Ainsi entendu, dans la lettre et l’esprit de la constitution,  le principe de précaution est maintenant admis, reconnu comme nécessaire et utile,  allié et non adversaire de la science. Le problème majeur reste alors son absence de reconnaissance par les instances internationales, en particulier l’OMC et même les instances européennes.
Un principe clair dévoyé
Plusieurs décisions de justice ou gouvernementales ont cependant créé  un mouvement d’inquiétude et même parfois de révolte dans la communauté scientifique. Beaucoup concernent en général des contentieux liés à la santé humaine, qui, déjà très règlementée, n’est pas à l’origine concernée par le principe de précaution, purement environnemental. Cette extension résulte de décisions de la Cour Européenne de Justice, dont on peut se demander si elle n’a pas été  manipulée par certains intérêts très intéressés à combattre le principe de précaution en le menant sur des voies douteuses.
Le professeur Tubiana a ainsi mentionné l’exemple de  la vaccination contre l’hépatite B, maladie très grave transmise par voie sexuelle généralement pendant l’adolescence. La volonté du ministère de la santé de vacciner dans les écoles pour que toute la population soit protégée s’est heurtée  d’abord à des rumeurs sur des collusions entre le ministère de la Santé et les fabricants du vaccin, puis  à une autre rumeur, beaucoup plus grave, accusant la vaccination d’ être à l’origine de la sclérose en plaques, sans preuve. M Tubiana  rapporte le dialogue suivant avec un décideur politique important :  « Vous m’avez montré que la vaccination ne comporte pas de risque de sclérose en plaques, soit, mais mon problème à moi est de ne pas être envoyé devant les tribunaux… » La vaccination scolaire a été arrêtée au nom du principe de précaution. Le résultat est qu’en France, moins de 30 % des adolescents sont vaccinés contre 85 % en moyenne dans les autres pays de l’Union européenne et la conséquence pratique en sera un excès d’environ 500 décès par an ».
Notons qu’après tout le risque de l’hépatite peut être considéré par certains comme un risque accepté en cas de relations sexuelles non protégées,  comme fumer ou boire. Le choix de la vaccination systématique aurait dû faire l’objet d’un débat et davantage discuté et  éventuellement justifiépar la situation épidémiologique.
Le DTT  a permis l’éradication du paludisme de presque toutes les rives de la Méditerranée. Des territoires comme la côte orientale de la Corse ou certaines portions du Languedoc, auparavant terres désolées, sont devenues territoires agricoles ou paradis touristiques. La peur injustifiée des insecticides a eu des conséquences, comme on l’a constaté à l’occasion de l’épidémie de Chikungunya sur l’île de la Réunion : pendant plusieurs mois, les autorités sanitaires voulaient utiliser les insecticides mais certaines autorités locales s’y opposaient car la population était contre. L’épidémie a pris une ampleur croissante jusqu’à ce qu’enfin, on se décide à utiliser les insecticides : en deux semaines, l’épidémie était terminée. Plusieurs centaines de cas de Chikungunya auraient pu être évités si les insecticides avaient été utilisés plus tôt.
Les antennes de téléphonie mobile
L’accord a en revanche été général pour dénoncer des arrêt récents, comme celui de la Cour d’appel de Versailles considérant que le dommage subi par les riverains d’antennes de téléphonie mobile , même en l’absence de preuve scientifique,  était cependant indemnisable car ces installations généraient une crainte, une angoisse qui, elles, étaient certaines et qu’il y avait lieu de faire jouer le principe de précaution. Il n’y a là en effet pas de dommage irréversible à l’environnement  - on peut toujours démonter une antenne !  Il n’y aucun dommage à la santé : des travaux scientifiques effectués sur des personnes dites hypersensibles  ont montré que elles ne distinguaient pas mieux que les autres des expositions véritables des expositions simulées. Reste effectivement l’angoisse… mais ce serait, comme l’a souligné un des experts, placer le principe de précaution au niveau des procès en sorcellerie, le voisinage d’une sorcière  étant sans conteste de nature à créer une grande angoisse populaire. Ce sont des décision de ce type qui ont conduit, non pas à remettre en cause le principe de précaution, mais à affirmer la nécessité de l’accompagner d’un mode d’emploi[1]
Les OGM
Les OGM constituent l’autre grand sujet de polémique. M. Michel Caboche, directeur de recherche à l’Inra s’est indigné de la destruction illégale par des « faucheurs volontaires » de champs d’essai de mais transgénique visant à réduire les apports en engrais azotés, ou de plans de  vigne transgéniques permettant de bloquer une maladie que l’on ne sait actuellement pas contrer, le court-noué. Les OGM ne constituent qu’une technique plus efficace, plus contrôlée, plus rationnelle de croiser des espèces. L’évaluation de leur innocuité sanitaire, le danger pour les consommateurs,  est simple et bien balisée, sans problème particulier ; reste le danger pour l’environnement, la dissémination génétique ou, pire, une plante devenant invasive. Nous sommes là en plein dans le domaine du principe de précaution…  sauf que celui-ci conduira souvent à recommander des essais en champs auxquels s’opposent justement – et  illégalement – certains. Les adversaires du principe de précaution ne sont pas toujours ceux que l’on croit.
M. Michel Caboche préconise notamment d’inclure dans la procédure des dossiers d’agrément l’analyse comparée des bénéfices et des risques découlant d’une technologie nouvelle susceptible de remplacer une technologie déjà en usage, et également d’inclure une procédure de suivi des cultures agréées qui permette de déceler des impacts négatifs non anticipés de cette culture, procédure qui doit permettre de revoir les termes de l’agrément, y compris son annulation le cas échéant.
Il me semble en effet que les OGM ne deviendront acceptables qu’en se soumettant au principe de précaution – ce qui nécessité éventuellement  des essais en champs- avec une information loyale du public, en particulier sur leurs avantages, et un débat public.
Des précautions pour le principe de précaution – mode d’emploi
 En résumé, le Principe de précaution constitue incontestablement un principe utile, bénéfique et largement accepté par la communauté scientifique dans le domaine de l’environnement ; sans revenir sur les réflexions philosophiques qui ont conduit à son établissement,- notamment le Principe Responsabilité de Jonas, c’est exactement son but.
Son extension au domaine de la santé, extrêmement régulé par un principe de précaution plus traditionnelle et l’évaluation bénéfice risque  s’avère souvent  très problématique. En particulier, il conduit à se focaliser sur des risques non avérés (lien entre vaccin et sclérose, vaccin et autisme) au détriment de la lutte contre des fléaux de santé publique bien réels.
Le principe de précaution  doit continuer à stimuler la réflexion sur le risque. Le comportement vis-à-vis du risque est évidemment très différent selon qu’il s’agit d’un risque accepté ( fumer, boire, faire du sport), d’un risque toléré ( route, médicament) ou subi (alimentaire, présence d’usine, de centrale nucléaire). Par ailleurs, il existe une asymétrie  entre le fait d’assumer une décision comportant un risque, et la tergiversation, bien qu’elle puisse avoir des effets négatifs, voire catastrophique.
Le principe de précaution doit être pris au sérieux. Il ne remplace pas le courage politique. Les pouvoirs publics ne doivent pas en faire un instrument de gestion de l’opinion publique, les groupes de pressions, les associations, aussi légitimes qu’ils puissent parfois être ne doivent pas en faire un moyen de paralyser l’action publique. Pour cette raison, il est nécessaire, avec l’expérience acquise, d’en fixer un mode d’emploi.
Curieusement peut-être, l’un des intervenants les plus favorables au principe de précaution a été le directeur de la toxicologie d’une grande entreprise chimique. Il a souligné que celui-ci n’allait pas sans une culture démocratique forte, impliquant la transparence des choix, et le fait de considérer les citoyens comme des partenaires, des parties prenantes, qui doivent disposer des moyens de comprendre et de décider par eux-mêmes.
Sous ces conditions, le principe de précaution n’est pas hostile à la science : l’appliquer c’est adopter une démarche scientifique et, en particulier, évaluer le risque . C’est instaurer un dialogue fécond et indispensable  entre les experts scientifiques, les citoyens et les décideurs politiques. Le principe de précaution, c’est la démocratie participative en action.


[1] Voire en particulier l’article Christine Noiville dans La Recherche de février 2011

mercredi 21 septembre 2011

Le nouveau livre de Pierre Péan : Mais qui donc dirige EDF ?

Le nouveau livre de Pierre Péan : Mais qui donc dirige EDF ?

Le mystérieux M Djouhri

Révélations écoeurantes dans le dernier livre de Pierre Péan, La république des mallettes, reprises dans le no de Marianne du 10 septembre. Un personnage important mis en exergue est Alexandre Djouhri, proche dans sa jeunesse du gang de la banlieue nord et interpellé dans la cadre d’une enquête sur des hold-up de bijouteries. Il semble qu’il garde de sa jeunesse de bonnes relations avec certains policiers haut placés, proches de Pasqua, et quelques années plus tard, on le retrouve s’activant plus haut niveau dans les affaires de la Françafrique, familier de Tarallo (l’ancien directeur des affaires générales d’Elf) et de Villepin, puis se ralliant à Sarkozy ; Péan décrit une séance hallucinante à l’Elysée, une soirée de remise de médailles  pendant laquelle Djouhri se promène comme chez lui dans les bureaux désertés, jusque celui de Claude Guéant…
Il ne fait apparemment pas bon de tenter de s’opposer à Djouhri. Un intermédiaire concurrent et d’ailleurs pas plus rassurant,  Ziad Takkiedine, a fait publiquement état d’une tentative d’assassinat cornaquée par son rival ; Anne Méaux, directrice d’une importante agence de communication politique travaillant beaucoup pour la droite libérale a déposé une main courante après avoir subi des menaces, et l’ancien conseiller à la justice de Nicolas Sarkozy, Patrick Ouart, s’est aussi pliant de menaces après avoir mis en garde Sarkozy contre Djouhri.

Qui dirige EDF ?

Le plus hallucinant reste à venir, par exemple cette réunion au George V, le 3 juin 2004, où Djouhri interpelle ainsi Henri Proglio, alors PDG de Veolia : « tais-toi, tu es le soldat, je suis le général ! ». Il s’agît d’une discussion un peu vive sur la constitution d’une filiale de Veolia au Moyen-Orient. Il faut dire que Djouhri est réputé avoir sauvé Proglio par ses interventions politiques auprès de Villepin, alors que Messier, alors PDG de Vivendi, maison-mère de Veolia, voulait le débarquer.
 C’est déjà gratiné, cela ne va pas tarder à devenir plus grave encore lorsque Proglio accède à la direction d’EDF. Je cite ici Pierre Péan, citation reproduite par Marianne :
« Les différentes pièces du puzzle se mettent en place. Un petit groupe de personnes a décidé, seul, de placer sous sa coupe la filière nucléaire française. A la manœuvre, Henri Proglio, Alexandre Djouhri, Claude Guéant, François Roussely, assistés de l’agence de stratégie et de communication Euro RSCG appuyée par un nouyveau personnage, Ramzy Khiroun, ami de Dominique Strauss-Kahn… Le projet commun prend rapidement forme : Henri Proglio doit être nommé patron d’EDF en lieu et place de Pierre Gadonneix ; le nucléaire doit ensuite être placé sous la dépendance d’EDF ; enfin, il faut faire éclater le géant Areva, séparer l’activité minière proprement dite (et donner aux Qatari qui en rêvent la possibilité de devenir un actionnaire significatif)…
Alexandre Djouhri organise un travail de sape contre Anne Lauvergeon et fonctionne en équipe avec son ami Yazid Sabeg, commissaire à la diversité et à l’égalité des chances »…ledit Sabeg, qui ne doute de rien, se propose comme remplaçant d’Anne Lauvergeon…
Le rapport Roussely sur le nucléaire civil français expose les thèses du groupe Djouhri-Proglio : «l’autorité de sûreté française va trop loin ; il faut revenir sur les exigences de sécurité concernant les nouveaux réacteurs ; l’EPR est beaucoup trop sûr ; il faut revenir à des réacteurs plus rustiques et moins chers »
Et ceci peu de temps avant Fukushima, qui valide, s’il se devait la stratégie d’Anne Lauvergeon…
Virez Proglio, faîtes revenir Anne Lauvergeon

Il s’agît tout de même de savoir si des entreprises, des fleurons technologiques comme EDF  ou Areva doivent être dirigées, si leur stratégies doivent être déterminées par des Djouhris ou même des Proglio, qui, en tant qu’ex-président de Veolia et de la Générale des Eaux, est en quelque sorte un spécialiste de la corruption politique, ou par des ingénieurs et des techniciens ayant une connaissance de leurs métier de base et une vision stratégique…comme Anne Lauvergeon. Il est significatif que la direction de Proglio à EDF se caractérise par une mise à l’écart des cadres scientifiques et techniques des instances de direction de l’entreprise, et, à tous niveaux, par une mépris de l’expertise de ceux qui ont fait le nucléaire ou l’hydraulique C’est la recette assurée pour une catastrophe !

samedi 10 septembre 2011

Formation et carrière des docteurs en France : une exception malheureuse

Formation et carrière des docteurs en France : une exception malheureuse

Le CAS (centre d’analyse stratégique) a publié en 2010 une note intitulée  « les difficultés d’insertion des docteurs : les raisons d’une exception française » dans lequel il pointe deux malheureuses originalités françaises :
-  le taux de chômage  trois ans après la thèse des docteurs varie entre 10 et 11%, ce qui est plus élevé que le taux de chômage après un master (7%)
- Ce taux de chômage est trois fois supérieur à la moyenne des pays de l’OCDE
Rappelons que le doctorat s’obtient 8 à 9 ans après le bac, dont 3 ans de thèses.  L’enquête se situe trois ans après le doctorat, les auteurs considérant visiblement qu’il faut encore un ou deux stages post-doctoral, dans un autre laboratoire que celui où la thèse a été accomplie, pour pouvoir enfin trouver un travail, dans le public ou le privé.

Pour la future société de la connaissance et de l’innovation que les différents gouvernements ont prétendu construire, c’est donc plutôt mal parti !

Trop de docteurs ou pas assez de recherche ?

La note du CAS affirme que l‘exception française, le chômage des docteurs n’est pas lié à une « surproduction » de diplômés. C’est peut-être aller un peu vite en besogne ; de fait la France forme peut-être moins de docteurs qu’il ne lui en faudrait pour rester ou redevenir une nation majeure dans l’économie de la connaissance… mais peut-être trop quant à sa situation actuelle.
Le système français produit environ 100 000 diplômés de niveau master et doctorat par an, 64% de DEA et DESS, 26 % d’ingénieurs et 10 % de docteurs.  Avec 7.1 chercheurs pour 1000 actifs, la France se place devant l’Allemagne (6.7%) ou le Royaume-Uni (5.5%o) mais derrière les États-Unis (8.6 %), le Japon (10.2 %) ou la Suède (10.6 %). En fait nous retrouvons là le problème majeur du sous-investissement en recherche du secteur privé en France. En France, le pourcentage des dépenses de recherche et de développement dans le PIB est de 2.1 %, très en retrait sur l’objectif de Lisbonne. La part du public (0.76% du PIB) est dans la moyenne de l’OCDE, celle du privé est plus basse (1.3% contre 1.9 aux USA et 1.7 en Allemagne, 2.5 en Suède et au Japon par exemple).  La France manque en particulier de « jeunes pousses » ayant poussé, de  PME ayant une activité de R et D importante dans des secteurs d’avenir.
Le problème en France est plus celui de la répartition de ces chercheurs entre les secteurs public et privé. Avec 51 % de chercheurs en entreprise et 47% dans le secteur public, la France se place loin  derrière les États-Unis (80 % ) de chercheurs en entreprise), la Suède (60 %), l’Allemagne (58 %) ou le Royaume-Uni (57%).
 1) Pour l’emploi des docteurs, la première mesure est donc l’encouragement à la recherche et à l’innovation dans le secteur privé. Cela passe par une réforme du financement du capital risque et de l’amorçage, un small business act à la française, le renforcement des pôles de compétitivité, une réorientation du crédit impôt - recherche pour inciter davantage à la créations d’emploi, notamment dans les PME et moins favoriser les rentes de situations des grands groupes. Quant au secteur public, il faut évidemment au moins maintenir son importance et veiller au remplacement des générations qui ont accompagné la montée en puissance des grands organismes de recherche (CNRS, CEA, INSERM…) et arrêter les rivalités stériles entre organismes de recherche et universités.

Politique de formation : les propositions du CAS

L’étude du CAS pointe des différences importantes entre les disciplines ; économie, droit et management / mécaniques, électroniques, informatiques et  science de l’ingénieur ont des taux de chômage plutôt inférieurs à la moyenne ; mathématiques et physiques : sciences de la vie et de la terre sont dans la moyenne ; chimie (16%), lettres et sciences humaines (12%) connaissent des difficultés d’insertion supérieures. Pour le CAS, il peut donc exister des inadaptations sectorielles.
Ajoutons une réalité passée pudiquement sous silence ; il arrivait que des laboratoires d’accueil et les formations doctorales soient assez indifférents au futur professionnel de leurs doctorants, l’essentiel pour eux étant de bénéficier de « bras » pour faire tourner leurs laboratoires. Les propositions du CAS sont donc pertinentes et bienvenues :
 2) Améliorer l’information des établissements et des étudiants, notamment en associant davantage les acteurs privés à la production de données régulières, par disciplines, sur les besoins de recrutements et sur l’insertion professionnelle des docteurs
3) Réaffirmer le rôle central des Pôles de recherche et d’enseignement supérieur (PRES) dans la coordination et la régulation de l’offre de formation doctorale
4) Associer davantage les grandes écoles aux formations doctorales, pour permettre à davantage d’ingénieurs de préparer un doctorat
5) Améliorer la proportion de thèses financées, notamment par les entreprises : d’une part, en fixant un objectif aux universités dans le cadre de leur contractualisation avec l’État ; d’autre part, en imaginant un dispositif permettant à une entreprise de financer une thèse en contrepartie d’un engagement du doctorant à demeurer quelques années dans l’entreprise après son embauche
Je suis plus réservé sur cette dernière mesure ; à tout le moins, l’engagement devrait être réciproque, l’entreprise s’engageant alors à proposer un poste au thésard  en formation ; mais tout ce qui peut contribuer à rapprocher entreprises, université et organisme de recherche est le bienvenu.

L’effort en vaut-il la peine ?

Faire une thèse suppose plus de trois ans d’un vrai travail, rémunéré par des bourses se situant en général entre 1100 et 1600 euros par mois ; un effort assez important a été fait dans les dernières années  pour les  réévaluer. Pour pouvoir trouver un poste dans le privé ou dans le public, le doctorat doit maintenant être assez souvent complètè par une expérience post-doctorale, qui peut aller jusqu’à trois ans. C’est excessif et justement dû à la situation désastreuse de l’emploi scientifique en France. Ajoutons que les concours d’entrée à l’Université ou dans les grands organismes de recherche sont encore trop biaisés par des formes de favoritisme et de toute façon délirants en terme de candidats par postes – au CNRS, 50 doctorants pour un poste, c’est arrivé ! Un maître de recherche débutant  à l’Université pourra gagner environ 1800 euros –salaire net , un chargé de recherche débutant dans un grand organisme sera peut-être un peu mieux payé; mais le salaire peut donc être moindre que  la rémunération d’un post-doc à l’étranger (de l’ordre de 30.000 euros par ans en Angleterre) ! Quant aux ingénieurs qui ont fait une thèse, il arrive assez souvent qu’au début, leur salaire soit moindre que celui de leurs camarades entrés dans l’industrie sans thèse ; mais les perspectives de carrière sont souvent ensuite supérieures.
Donc, pour faire une thèse, il vaut mieux être vraiment motivé pour faire de la recherche, surtout compte-tenu des difficultés d’insertion que pointe la note du CAF. Il y a là une spirale inquiétante pour l’avenir scientifique de la France, car, du coup, sauf motivation extraordinaire, les meilleurs éléments se détournent de la recherche, comme les ingénieurs  se détournent de l’industrie… la finance et les banques, c’est nettement mieux !
_ 6) d’où l’importance de la dernière proposition du CAS : reconnaître le doctorat dans les conventions collectives, notamment les grilles salariales. Notons simplement qu’elle est en rupture avec la politique dominante qui consiste au contraire à démanteler les conventions collectives et le statut de cadre…

Diffuser la culture de la recherche et de l’innovation

Le doctorat est une formation à la recherche, mais aussi une formation par la recherche. C’est une formation indispensable à quiconque prétend comprendre notre société et y exercer des responsabilités. Les docteurs sont les mieux placés pour diffuser dans les entreprises et dans l’Etat la culture de la recherche et de l’innovation, essentielle à l’économie de la connaissance. Le doctorat ne devrait pas être vu comme une voie ne menant qu’à la recherche, mais comme une formation indispensable pour diriger des entreprises capables d’affronter l’a venir. De même, les décideurs publics doivent apprendre à travailler davantage avec le monde scientifique et universitaire, comme cela se pratique dans d’autres pays.
Le manque de formation scientifique à un bon niveau d’une grande partie des élites dirigeantes constitue un inconvénient majeur pour  l’avenir de la France. Depuis des années, les organisations de doctorants, notamment l’Andes (Association nationale des docteurs) demandent en vain que le dispositif de formation des cadres de haut niveau de la fonction publique, soit ouvert aux docteurs aux divers stades de leur carrière professionnelle. Un bon exemple de réforme symbolique et utile serait d’imposer à l’ENA de recruter au moins un tiers de titulaires d’une thèse dans chaque promotion

dimanche 4 septembre 2011

Recherche pharmaceutique : les fusions désastreuses

Recherche pharmaceutique : les fusions désastreuses

Le cri d’alarme d’un ancien directeur de la recherche de Pfizer

John La Mattina, ex-président de Pfaizer Global research traite dans Nature Reviews/ Drug Discovery  d’un sujet peu abordé : l’impact des fusions sur la recherche des entreprises et sur l’innovation dans tout un domaine, celui de la recherche pharmaceutique. Et sa vision est plutôt pessimiste et invite, dans l’intérêt de la recherche et du bien commun international qu’est la santé, à veiller aux conséquences stratégiques des fusions : « Bien que les fusions et acquisitions dans le domaine pharmaceutiques ont paru être rationnellement justifiées dans une optique financière à court-terme, leurs conséquences sur l’activité de recherche et développement des firmes concernées ont été dévastatrices ».

De moins en moins de firmes pharmaceutiques  font de moins en moins de recherche

La communauté scientifique et médicales, les Etats, les autorités de régulation, les patients, tous s’inquiètent à juste titre d’une baisse des mises sur le marché de médicaments nouveaux. Dans la décennie 90, il y avait 31 nouveaux médicaments (nouvelles entités chimiques) par an ; dans les premières années 2000, nous sommes tombés à 24 et ce chiffre diminue encore d’années en années. Les firmes pharmaceutiques mettent en avant le fait qu’elles s’attaquent à des pathologies plus difficiles et se heurtent à des exigences réglementaires et de sécurité plus contraignantes ; mais elles s’exonèrent ainsi de leurs choix stratégiques et financiers, et de leurs conséquences.
L’un des facteurs principaux des succès de la recherche thérapeutiques des années 90 ( antiviraux, statines contre l’athérosclérose, antagonistes de l’angiotensine contre l’hypertension…) était en effet le grand nombre de compagnies pharmaceutiques actives dans cette période. La plupart des médicaments sortis dans ces années provenaient de firmes qui ont aujourd’hui disparu : des 42 firmes pharmaceutiques US existant en 1988, il n’en reste aujourd’hui que 11 : 75 % ont disparu ! Et les firmes biotechnologiques n’ont pas pris le relais ; lorsqu’elle réussissent, c’est un avec un portefeuille de médicament très réduit et concentré sur une aire thérapeutique.
Or, et l’étude a été faite sur une période plus longue de 60 ans : le nombre de nouveaux médicaments est très fortement corrélé au nombre de firmes pharmaceutiques en activité.

La rentabilité immédiate et l’augmentation de l’action avant tout !

Les fusions et acquisition ont été encouragées parce qu’elles sont supposées produire des synergies, des réduction de coût  et  permettre l’élimination de doublons. Au début des années 90, les fusions (dont l’exemple était la fusion Bristol Myers/Squibb) obéissaient à une stratégie d’innovation : il s’agissait de diminuer les coût d’opération des firmes de façon à augmenter la recherche et ainsi assurer l’avenir par un constant enrichissement  du « pipe-line » de nouvelles molécules. Les activités de recherche et développement n’étaient pas réduites.
Ceci a changé de manière dramatique dans la dernière décennie. Dans les grandes firmes,  les fusions et acquisitions sont impulsées par la recherche d’une rentabilité immédiate (jusqu’à récemment, il fallait présenter 15 % de croissance par an_ comment y parvenir sans fusion !) et d’une augmentation du cours de l’action, et non par l’avenir de la société, et encore moins, la mission de soigner les patients. En conséquence, les fusions s’accompagnent d’un désengagement dans la recherche, activité par excellence non rentable immédiatement, et souvent maintenant la première touchée). L’archétype ici a été Pfizer, avec sa stratégie d’acquisitions démentielles (Warner-Lambert, Pharmacia, Wyeth, Searle…)  et la fermeture complètes de centres de recherches qui avaient pourtant fait la preuve de leur capacité par la découverte, par exemple, de l’atorvastatine, de l’amlodipine…ou du Viagra ( Kalamazoo, Ann Harbor, Sandwich… sans compter l’ancien site de recherche de Jouveinal à Fresne !). Ce sont des dizaines de milliers d’emplois scientifiques qui ont disparu !

La recherche thérapeutique en péril

Les fusions financières dans l’industrie pharmaceutique ralentissent mécaniquement la recherche ; pendant la fusion, les programme sont réexaminés, et cette opération complexe, qui prend souvent un an, s’accompagne toujours d’un gel des investissements, des recrutements, et de l’apparition de nouveaux programmes.
L’effet des dernières vagues de fusion a été dévastateur sur l’introduction de nouveaux médicaments et se ressentira bientôt sur la santé des patients. Dans les décennies précédentes, plusieurs firmes en compétition lançaient chacune leur médicament lorsque la recherche avait permis d’ouvrir une voix nouvelle (cf le nombre de statines mises sur le marché après la découverte du rôle de la 3HMG COA réductase) ; et c’était très bien ainsi parce que la pharmacologie et la médecine n’étant pas des sciences aussi exactes que les mathématiques, le rêve de la panacée n’étant qu’un rêve, cela permettait de remédier à certains inconvénients chez certain patients, cela permettait aux médecins de mieux adapter le traitement à leur patient, aux patients d’être mieux soignés. Aujourd’hui, avec la diminution dramatique du nombre de compétiteurs, la santé des patients est en cause.
Les fusions ont été désastreuses pour l’effort de recherche thérapeutique. Longtemps les firmes pharmaceutiques se sont vantées de leur effort de recherche, et en effet, avec des investissements en recherche de l’ordre de 20% de leurs revenus, elles assuraient une mission de recherche à la limite du fondamental. Pour les grandes firmes – Pfizer notamment-, les dépenses de recherches sont aujourd’hui plus proches de 10%. Ainsi, avant la fusion avec Wyeth, Pfizer  et Wyeth avaient des dépenses de recherche de 7.95 et 3.37 millards de dollars ; après la fusion, elles ont été réduites à 6.5 milliards, soit une diminution de près de la moitié. Seules des firmes plus petites, moins soumises à la dictature des cours de bourses, gardent un niveau d’investissement en recherche élevé, comme, en France, les firmes familiales Servier et Pierre Fabre.
Les fusions financières sont encore désastreuses pour les patients en raison du désinvestissement massif dans des domaines jugés peu rentables car plus difficiles : maladie d’Alzheimer ou plus généralement neurodégénératives, le diabète – pourtant en explosion-, les anti-infectieux- alors que le nombre de souches résistantes se multiplie et commence à poser de sérieux problèmes.
Les fusions et acquisitions ont été désastreuses en France pour l’emploi scientifique : disparus  les centres de recherche de Jouveinal après l‘absorption par Pfizer, d’Upsa, après l’absorption par BMS, de Lafont, après le rachat par Céphalon, de Novexel après le rachat par  Astra Zeneca et c’est maintenant l’ancien Fournier ( inventeur du « block-buster fénobrate contre l’athéroscérose) qui est menacé après son rachat par Abbot). Quelques PDG, comme ceux de Merck ou de Lilly vont à contre-courant et ont réaffirmé la pérénité de leur investissement en recherche pour assurer le futur et la croissancede leurs firmes
En ce qui concerne la France, il faut arrêter d’être naïf et s’assurer que l’absorption de firmes françaises par des firmes étrangères n’entraîne pas la disparition de la recherche et la perte d’un capital essentiel de connaissance et d’innovation en France, et ceci n’est pas valable que pour l’industrie pharmaceutique, même si celle-ci a été particulièrement touchée ;  au besoin, il faut contraindre les firmes qui ont massivement détruit de l’emploi scientifique à le recréer.
En matière de recherche thérapeutique, il faut que la recherche industrielle soit encouragée et le désinvestissement en recherche sanctionné, notamment par l’action sur le prix des médicaments. Il faut à nouveau rendre l’investissement en recherche attractif, cela peut passer par une extension de la durée de protection des brevets pour tenir compte de la difficulté accrue de la recherche et des exigences de sécurité.

 Ref :John La Mattina, Nature reviews drug discovery, vol10 august 2011