Viv(r)e la recherche se propose de rassembler des témoignages, réflexions et propositions sur la recherche, le développement, l'innovation et la culture



Rechercher dans ce blog

lundi 29 août 2011

Autisme et vaccin ROR (rougeole, oreillon, rubéole) : histoire d’une fraude

Autisme et vaccin ROR (rougeole, oreillon, rubéole) : histoire d’une fraude

En 1998 paraissait dans le Lancet un article établissant un lien entre l’autisme, un syndrome intestinal  et le vaccin RRO (rougeole, oreillons, rubéole), signé d’un certain docteur Wakefield et de douze coauteurs. Il a fallu douze ans pour que cet article soit rétracté, au terme d’une longue enquête d’un journaliste du British Medical Journal, Brian Deer, qui a prouvé qu’il s’agissait non pas même d’une erreur scientifique, mais d’une fraude caractérisée, malveillante et intéressée (cf bibliographie) . Le récit de l’enquête qu’il a menée depuis 2004 a été publié dans une suite de numéros de British Medical Journal à partir de janvier 2011.

Brian Deer a tout d’abord souligné les défauts évidents de l’article originel du Lancet qui auraient dû alerter les scientifiques et les autorités responsables. Sur les douze cas rapportés, Wakefield affirme qu’aucun n’avait de troubles manifestes du comportement avant la vaccination, alors que pour cinq d’entre eux,  des anomalies avaient été rapportées ; sur les neufs cas d’autisme régressif (c’est-à-dire apparaissant brutalement après un développement normal de l’enfant) prétendument identifiés par Wakefield, trois n’étaient pas autistes du tout et un seul pouvait être qualifié d’autiste régressif. Pour quelques enfants, des symptômes comportementaux ont été rapportés dans les jours suivant la vaccination, mais dans la publication de Wakerfield, le délai d’apparition est mentionné comme étant de plusieurs mois. Dans neuf cas, des observations histopathologiques du colon mentionnant une absence de fluctuation ou une fluctuation non significative dans le recrutement de cellules inflammatoires ont été transformées en « colites non spécifiques » dans la publication finale. Enfin, les délais d’apparition des supposés signes comportementaux ont été trafiqués afin de faire apparaître un lien temporel de 14 jours avec la vaccination. Enfin, les patients étaient recrutés parmi les opposants au vaccin RRO, et l’étude a été entreprise et financée dans le but d’obtenir des dommages et intérêts des fabricants du vaccin. Wakefield aurait ainsi touché plus de 500.000 livres de la part d’un avocat et, de plus, monté une société pour promouvoir une alternative au vaccin ROR.

Les faiblesses scientifiques de l’article de Deer étaient évidentes et soulignées dès sa parution en 1998 : faible nombre de cas, absence de cas témoins, lien établi entre deux conditions assez communes, les souvenirs et convictions des parents des enfants atteints admis comme faits d’expérience… Durant les dix années qui suivirent, aucune des nombreuses études épidémiologiques menées ne permirent de mettre en évidence le moindre lien entre l’autisme et la vaccination RRO ; mais le mal était fait, et la publication de Wakefield a été largement utilisée par des groupes d’opposants déterminés à la vaccination et a contribué à entretenir   une peur irrationnelle et de plus en plus répandue.  
Or, les articles de Deer prouvent clairement qu’il ne s’agissait pas seulement d’une erreur scientifique ou de recherche de mauvaise qualité. Deer montre que Wakefield a trafiqué les données des dossiers médicaux des patients pour faire croire à se découverte d’un nouveau syndrome ; que les institutions dans lesquelles il travaillait, le Royal Free Hospital et la Medical School de Londres l’ont soutenu lorsqu’il a tenté d’utiliser la peur du vaccin pour en tirer des bénéfices financiers, à travers son implication dans des procédures judicaires contre les fabricants de vaccin ; et comment des acteurs clés ont manqué à leur mission de protéger l’intégrité de la recherche et la santé publique.

Un combat nécessaire pour l’intégrité scientifique

En 2004, à la suite du premier article de Deer sur l’affaire Wakefield, le GMC (General Medical Council) a enquêté sur le caractère éthique de la recherche menée par Wakefield, en raison de ses conflits d’intérêt et de sa manipulation des enfants et de leurs familles. L’étude par Deer  et le GMC des données expérimentales a montré que les faits rapportés étaient eux-mêmes falsifiés. Le jury conclut que Wakefield était coupable de malhonnêteté concernant les critères d’admission dans son étude, le financement de l’étude par un organisme intéressé à poursuivre les fabricants de vaccin et ses réponses à ceux qui avaient mis en cause ses résultats. Même si seul Wakefield a écrit la publication de 1992, ses co-auteurs, qui se sont par la suite rétractés, ont été aussi mis en cause. L’enquête a montré qu’ils n’avaient aucune connaissance des cas cliniques et des données rapportés dans la publication, et, à vrai dire, aucune idée du travail réellement effectué par Wakefield et des conditions et de l’état d’esprit dans lequel il travaillait. Les co-auteurs ont clairement  la responsabilité de s’assurer qu’ils ne se rendent pas complices d’une fraude scientifique, ils doivent connaître les observations ou expériences rapportées dans les articles qu’ils signent, ou préciser leur apport réel et les résultats dont ils se portent garants ; l’un d’entre eux a été sanctionné suite à l’enquête du GMC.

Wakefield a du quitter toutes ses responsabilité universitaire et hospitalières. Mais les dégâts causés à la santé publique ont été immenses et ne sont pas terminés. La méfiance envers la vaccination RRO a été encouragée, entretenue par les travaux et les déclarations de Wakefield et les réponses inadéquates de la communauté scientifique et médicale et  du gouvernement, et les media aussi ont leur part de responsabilité. Dans les années 2003-2004, la couverture vaccinale au Royaume-Uni est tombée à 80%, bien au-dessous du niveau minimal de 95% nécessaire à la protection de la population selon l’OMS, et elle remonte très lentement. En 2008, pour la première fois en 14 ans,  la rougeole a été déclarée épidémique en Angleterre et au Pays de Galle. Des centaines de milliers d’enfants ne sont plus protégées contre ces maladies.

Les laboratoires pharmaceutiques ne sont pas les seuls à  connaître des conflits d’intérêt et à s’engager dans des pratiques contestables, et ils sont étroitement encadrés par les autorités de santé. Plus dévastateurs sont les marchands de peur appuyés par des fraudeurs et des scientifiques intéressés et malhonnêtes. La communauté scientifique doit se montrer intraitable envers eux.
Il ne semble pas que la France accorde autant d’importance à l’intégrité scientifique que les pays anglo-saxon, peut-être parce que le financement largement public de ses chercheurs les mettaient à l’abri  de tentations trop importantes et que les grands instituts de recherche font somme toute assez correctement leur travail d’évaluation.  Il n’est pas sûr que ce soit encore longtemps le cas vu l’importance que prend la recherche de financements dans le travail des chercheurs. La politique de la recherche et la communauté scientifique doivent veiller à ce que les institutions assurent un niveau maximal d’intégrité scientifique.

Deer Brian. Secrets of the MMR scare - How the case against the MMR vaccine was fixed, 5 janvier 2011 www.bmj.com
Deer Brian. Secrets of the MMR scare - How the vaccine crisis was meant to make money, 11 janvier 2011.  www.bmj.com
Deer Brian. Secrets of the MMR scare The Lancet’s two days to bury bad news, 18 janvier 2011. www.bmj.
BMJ Editorial. Fiona Godlee, editor in chief, Jane Smith, deputy editor, Harvey Marcovitch, associate editor. Wakefield’s article linking MMR vaccine and autism was fraudulent, 5 janvier 2011. www.bmj.com
BMJ Editorial. Assuring research integrity in the wake of Wakefield. Douglas J Opel, Douglas S Diekema, Edgar K Marcuse. BMJ, 18 janvier 2011 www.bmj.com
BMJ Editor's Choice. Institutional and editorial misconduct in the MMR scare. Fiona Godlee, editor, BMJ, 19 janvier 2011. www.bmj.com

vendredi 19 août 2011

Fusion nucléaire : arrêter ITER ?

Faut-il arrêter ITER- Plutôt oui !

Un programme mal géré

La revue La Recherche a publié en 2010 un article fort documenté sur le programme ITER (construction d’un prototype de réacteur à  fusion nucléaire deuterium_tritium). Le budget estimé de ce projet, piloté par l’Union Européenne, qui en est le partenaire majoritaire avec 45% des parts (le reste comprenant notamment les USA, la Russie, la Chine, le Japon…) est passé de 6 milliards d’euros estimé en 2006 à 14 milliards en 2010, et ceci avant même que la première pierre ne soit posée. C’est une dérive inouïe, ahurissante ! (pour mémoire, le surcoût du grand collisionneur de hadrons (LHC), au CERN, n’a été finalement que de 22% pour un budget initial de 1.6 millliards…mais là ce n’était pas géré par l’Union Européenne). Les réponses de Bruxelles aux questions du journaliste de La Recherche sont proprement ahurissantes.  Les responsables européens de l’organisation ITER commencent par mettre en cause l’augmentation du coût du béton et de l’acier, avant de se rétracter, puis de parler du dispositif anti-sismique, puis finissant par avouer qu’ils ne contrôlent rien… pas même le coût de leur propre organisation, qui augmente aussi dans des proportions himalayennes.

De fortes incertitudes techniques

Il faudrait d’ailleurs vraiment se pencher sur la pertinence du programme ITER et probablement décréter d’urgence un moratoire. Premièrement, le réacteur doit lui-même produire le tritium utilisé dans la fusion et pour cela capturer efficacement des neutrons. Or, le prix Nobel de physique japonais Masatoshi Koshiba explique : «Dans ITER, la réaction de fusion produit des neutrons de grande énergie, de 14 MeV, niveau jamais atteint encore. ..Si les scientifiques ont déjà fait l'expérience de la manipulation de neutrons de faible énergie, ces neutrons de 14 MeV sont tout à fait nouveaux et personne à l'heure actuelle ne sait comment les manipuler ». Deuxièmement, la température à l'intérieur du tokamak ITER sera de 150 millions de degrés, soit dix fois celle qui règne au cœur du Soleil  Les chercheurs n’ont tout simplement aucune idée sur la façon d’obtenir un matériau résistant à 100 millions de degrés (!), pourtant indispensable au projet.  Le breakeven,  qui correspond au moment où un plasma libère au moins autant d'énergie n'a jamais été atteint dans aucun dispositif expérimental - le record actuel est détenu par le JET, qui est parvenu à restituer sous forme d'énergie 70 % de la puissance qui lui avait été apportée. Iter nécessite 400 tonnes d’un matériel supraconducteur à base de Nobium, dont la production  mondiale annuelle n’est que de quinze tonnes par an…etc
Et tout ça pour maintenir une réaction de fusion dans un plasma pendant 16 minutes et produire 500 MW pendant 6 minutes et 40 secondes !

Le soleil plutôt qu’ITER !

Les problèmes techniques sont tels que de nombreux physiciens doutent de la faisabilité du projet. Pierre-Gilles de Gennes affirmait que le changement d’échelle entre les prototypes existants et ITER n’est pas maîtrisé et qu’on n’a aucune preuve qu’il pourra même fournir de l’énergie : « connaissant assez bien les métaux supraconducteurs, je sais qu’ils sont extraordinairement fragiles. Alors, croire que des bobinages supraconducteurs servant à confiner le plasma, soumis à des flux de neutrons rapides comparables à une bombe H, auront la capacité de résister pendant toute la durée de vie d’un tel réacteur (dix à vingt ans), me paraît fou ». Sébastien Balibar, de l'École normale supérieure a résumé : «  On nous annonce que l'on va mettre le Soleil en boîte. La formule est jolie. Le problème, c'est que l'on ne sait pas fabriquer la boîte ».
La fusion qui permet théoriquement de produire de l’énergie à partir d’une matière première inépuisable- l’hydrogène- fait certainement rêver. Mais nous sommes tellement loinde l’objectif en termes de connaissances fondamentales et techniques que le programme ITER paraît à beaucoup démentiel. Les deux Prix Nobel De Gennes et Charpak pensaient qu’il valait mieux relancer les recherches sur la surrégénération en partant des acquis du programme Superphénix. Et les technologies solaires- après tout aussi de une énergie de fusion nucléaire – progressent à grands pas et il est très nécessaire et prioritaire d’investir dans la recherche en ce domaine.
Ceux qui comparent le projet ITER à la mise au point de la bombe atomique ou à l’exploration lunaire trompent ou se trompent : lorsque ces projets ont été lancés, il n’y avait aucune barrière technologique importante non résolue. En tout état de cause, les instances européennes font preuve d’une incapacité évidente à gérer ce projet et d’un dilettantisme monstrueux, voire d’un cynisme scandaleux : alors qu’ITER en dérive pompera l’essentiel du budget européen de recherche, la Commission affirme « prélèvement ou pas, le budget de la recherche continuera d’augmenter chaque année » !

Réévaluer ITER, éventuellement l’arrêter

Nous ne pouvons plus nous permettre un tel gaspillage qui paraît injustifié. Il faut réévaluer sérieusement le problème ITER, identifier les barrières technologiques à franchir, estimer sérieusement les chances de succès. L ’Académie des Sciences, comme elle l’a fait sur le réchauffement climatique, devrait organiser un débat – qui pourrait d’ailleurs s’étendre aux priorités à établir dans la recherche énergétique -, tenter d’arriver à un consensus et en présenter les éléments à l’opinion publique et au pouvoir politique. Rapidement ! Chaque seconde du programme ITER coûte très cher, au détriment d’autres priorités !



lundi 15 août 2011

Après le Mediator : assurer l’aléa médicamenteux

Après le Mediator : assurer l’aléa médicamenteux

Indemnisation et poursuites judicaires

L’affaire du Mediator conduira à des procédures judiciaires longues et incertaines, l’écheveau des responsabilités légales étant assez complexe à démêler entre les laboratoires Servier, accusés d’avoir usé de rétention d’information et abusé de procédés dilatoires pour maintenir leur produit sur leur marché, d’avoir aussi utilisé leur influence auprès des pouvoirs politiques, des experts, des faiseurs d’opinion dans le milieu médical pour obtenir une indication- le diabète- qui n’apparaissait pas justifiée ; l’Etat, à travers l’Agence de Sécurités des produits de santé (AFSSAPS) qui a laissé le Mediator sur le marché en France jusqu’en 2007 alors que, par exemple, il avait été interdit en Belgique en 1999 et retiré en Italie en 2004 et en Espagne en 2005 ; de toute évidence, la pharmacovigilance n’a pas fonctionné ; enfin, les médecins prescripteurs : 50% des prescriptions de Mediator se faisaient en dehors des prescriptions autorisées - ainsi, en 2000, le Conseil national de l'Ordre des médecins (CNOM) a publié près de 80 dossiers de sanctions de médecins libéraux pour mauvaise prescription de Mediator .
C’est donc une bonne idée que d’avoir dissocié indemnisation et action légale, et d’avoir créé un fonds public d’indemnisation ; mais cela crée une injustice vis-à-vis de nombreuses victimes d’effets indésirables des médicaments. Le drame spécifique du Mediator doit être dépassé pour arriver à une indemnisation de l’aléa médicamenteux, sur le modèle de l’indemnisation de l’aléa thérapeutique (accident d’opération, maladie nosocomiale, affection iatrogène défini par la loi de mars 2002.

Les aléas médicamenteux

Pour situer l’ampleur du problème, il y a par an, en France, 52.000 déclarations d’accident médicaments auprès de l’AFSSAPS, dont 18.000 graves, et 5% des hospitalisations sont dues à des accidents médicamenteux. Un médicament n’est pas un produit anodin, son autorisation de mise sur le marché résulte d’une appréciation bénéfice/risque. Le problème est que la plupart des patients bénéficient du bénéfice tandis que quelques-uns prennent le risque en plein sur eux.
Ainsi, les anticoagulants sont des médicaments indispensables, mais délicats à utiliser, et ils entraînent des milliers d’accidents sérieux, parfois mortels, par an ; des antalgiques comme le tramadol (Contramal par exemple) , sont extrêmement efficaces, et parfois même seuls efficaces, mais peuvent entraîner une dépendance et des sevrages ; la myofasciite à macrophages (fatigue et faiblesse musculaire généralisée, douleur, fièvre, perte de concentration et de mémoire), après avoir été longtemps niée – les malades pouvaient se retrouver en psychiâtrie - peut être causée par certains vaccins chez une fraction des vaccinés – les sels d’aluminium utilisées comme adjuvants seraient en cause. Parmi les plus terribles de ces effets néfastes des médicaments figurent les syndromes de Lyell et de Stevens-Johnson. Ces syndromes se produisent après la prise de médicaments la plupart du temps utiles, efficaces, bénéfiques, mais qui, de façon totalement imprévisible, dans certains cas déclenchent ces syndromes  se traduisant par des décollements de la peau, des douleurs intolérables- le malade » brûle de l’intérieur », une nécrose épidermique pouvant atteindre 30% du corps, éventuellement la cécité, la nécessité d’hospitaliser sur des lits à coussin d’air, une mortalité importante. Les médicaments sont très variés : antibiotiques ( sulfamide, mais aussi bactrim, anti-inflammatoires non stéroïdiens, allopurinol, nevirapine…). Une association de malade AMALYSTE se consacre à aider les victimes de ces accidents thérapeutiques.
Le cas du vaccin contre l’hépatite B est assez particulier. Bien que le lien avec la sclérose en plaque soit considéré comme nul par les études les plus récentes, les personnels de santé, dont la vaccination est obligatoire, sont éventuellement indemnisées, les autres patients, non !

Des propositions

Au-delà du Mediator, il paraitrait juste d’aligner l’indemnisation des aléa médicamenteux sur celle des aléa thérapeutiques hospitaliers (loi de mars 2002). La collectivité toute entière jouit, avec l’aval du législateur, du bénéfice des médicaments, elle ne peut laisser quelques victimes supporter seules le poids du risque. Un automobiliste qui subit un accident grave est indemnisé, pas un malade §
L’association AMALYSTE propose, sur ce modèle,  la création d’ une branche sécurité sociale financée par le « fond de gestion du risque médicamenteux grave », éventuellement alimenté par une taxe sur le prix des médicaments.
Cette proposition figurait dans le projet de loi sur le médicament suite à l’affaire Mediator (loi Bertrand), elle en a été retirée.
Par ailleurs, l’association AMALYSTE propose plusieurs principes, dont le principe de la responsabilité collective, qui découle directement de la balance bénéfices-risques (acceptation collective d’un risque), le principe du contrôle, de la connaissance et de la compréhension du risque , l’acceptabilité collective d’un risque entraînant  une obligation de moyens en termes de connaissance, de compréhension (donc d’un effort de recherche), de suivi et de contrôle de ce risque, le principe d’« auditabilité »- les décisions et évaluations des autorités réglementaires doivent être transparentes et auditables, le principe de la socialisation du risque
conséquence de la responsabilité collective.

samedi 13 août 2011

La libéralisation n’est pas l’amie de l’innovation

La libéralisation ne favorise pas l’innovation, la preuve par les télécoms
La doxa libérale et concurrentielle, portée tant par des gouvernements libéraux que sociaux-démocrates, et défendue avec fanatisme par la Commission de Bruxelles explique que la concurrence devrait permettre d’éviter les gaspillages, faire baisser les prix et inciter à l’innovation et à l’investissement dans une politique de long terme ; c’est le fondement des politiques de libéralisation qui ont touché les secteurs des télécommunication, de l’énergie, des transports, de la poste etc.
En matières de télécommunications, nous avons maintenant une expérience de plus de dix ans, et le moins qu’on puisse dire est que l’effet sur l’innovation est assez évident… mais délétère. En France, selon les données de l’Arcep (Agence de régulation des communications électroniques et postes),  l’investissement moyen dans le secteur est ainsi passé de 21.2% du chiffre d’affaire du secteur en 1995,  à 11.3% en 2004, et 14% en 2007, soit une baisse d’un tiers. En ce qui concerne la part du chiffre d’affaire de France Télécom consacrée à la R et D, la chute est encore plus brutale, de 3.7 à 1.3 %.
 De plus, la volatilité des investissement a également augmenté, traduisant l’augmentation des raisonnements court-termistes au détriment de stratégies à plus long terme.
En fait, dans le secteur des télécoms, une large partie des innovations depuis plus de dix ans résultent de découvertes ou d’inventions antérieures au processus d’ouverture à la concurrence, qu’il s’agisse de standards (internet, GSM..), de techniques de transmission (fibres optiques), ou même de services. La concurrence semble avoir avant tout favorisé une innovation incrémentale et une promotion rapide et efficaces de produits résultant de la diffusion d’innovations radicales datant des années antérieures. Elle a surtout fait exploser les budgets de communication.
Le bilan de la libéralisation des telecom en France sur l’innovation est donc assez  catastrophique. Les projets de très long terme qui caractérisaient le secteur des télécommunications avant la libéralisation ont été rapidement remplacés par des coopérations sur des projets à plus court terme (2 à 3 ans maximum). Le contenu des activités de R et D (recherche et Développement) a évolué vers des projets à plus court terme, rejetant l’essentiel de la recherche fondamentale vers les équipementiers  ou la recherche publique.  Une partie de la recherche a été externalisée, mais  la réduction de l’effort de R et D des opérateurs n’a toutefois pas été compensée par l’accroissement des investissements vers les firmes amont ou le secteur public.
La France continue donc à présenter un retard particulièrement important sur les leaders mondiaux ; essentiellement le Japon et la Corée, notamment  en matière de réseau internet fixe à très haut débit.
Ce que dit la théorie économique-des relations complexes
Ceux qui se gargarisent de Schumpeter et la destruction créatrice (des emplois, pas des bénéfices…) devraient le relire.  Schumpeter distingue en effet deux régimes, le régime dit « entrepreneurial », qui se caractérise par des industries « fluides », avec des barrières à l’entrée peu élevées, et dans lequel le processus de destruction créatrice joue un rôle important ; et , dans des travaux ultérieurs, il a identifié un régime « routinier », caractérisé par l’accumulation créatrice, avec des barrières à l’entrée des compétiteurs et des connaissances cumulatives générées dans un processus « routinier » au sein des départements de R et D des grandes entreprises.
Dans une présentation plus récente, l’économiste Jean Tirole (cf notamment, Théorie de l’organisation industrielle, Economica, 1993) oppose l’effet de remplacement à l’effet  d’efficience. Dans le premier cas, le monopole réalise un profit positif même s’il n’investit pas, alors que la firme en concurrence réalise un profit nul : l’innovation est donc plus rénumératrice pour cette dernière que pour le monopole ; dans le second cas, lorsque la firme en concurrence investit, elle reste confrontée à la concurrence et réalise des profits inférieurs à ceux qu’auraient réalisé un monopole. l’innovation est alors moins rémunératrice pour la firme.
En fait, beaucoup d’éléments militent pour que dans la plupart des secteurs technologiques importants, l’accumulation créatrice l’emporte sur la destruction créatrice, ou l‘effet d’efficience sur l’effet de remplacement. Ainsi, les revenus supplémentaires générés par l’innovation, et donc les incitations à investir, sont souvent d’autant plus faibles que les marchés sont concurrentiels. La concurrence accroît le rythme d’obsolescence des produits, la caractère transitoire des rentes conférées par l’innovation est d’autant plus marqué que les concurrents sont nombreux.  Les nouvelles connaissances incorporées dans un nouveau produit ou procédé sont en partie révélés lors de son introduction. Ce phénomène donne lieu à des comportements de « passager clandestins », et peut contribuer à une réduction globale des efforts consacrés à la R et D ; certains concurrents préfèrent copier les inventeurs et investir ensuite en communication plutôt qu’en recherche…
Dans le cas général, les économistes admettent l’existence d’une courbe en U : en partant d’une situation de monopole, l’accroissement de la concurrence se traduit en premier lieu par une augmentation des investissements en R et D.  A partir d’un certain niveau de concurrence, l’investissement en R et D est de plus en plus faible et les effets négatifs finissent par l’emporter. Le hic est que, suivant les secteurs, la zone dans laquelle les effets de la concurrence sont négatifs est atteinte pour de très  faibles niveaux d’intensité concurrentielle…
L’expérience de la libéralisation dans les télécoms : des leçons à tirer
Dans une économie largement financiarisée, l’entreprise privée oriente largement ses choix vers une rentabilité à court terme pour l’actionnaire. La R et D change de nature pour privilégier l’innovation incrémentale sur l’innovation radicale, le développement de recherches appliquées , notamment pour le développement de nouveaux services, plutôt que des recherches plus fondamentales, plus difficiles à s’approprier, à valoriser et à protéger.
Il n’est donc pas surprenant que les politiques de libéralisation, dans le secteur des télécom, se soient traduits par une forte baisse globale des investissements en R et D, l’augmentation en recherche appliquée ne compensant pas la baisse en recherche fondamentale. Ce régime n’est pas durable, il sacrifie l’avenir, comme il sacrifie aussi les considérations d’aménagement du territoire, d’égalité des clients et les  investissement en infrastructure.
Il ne s’agît pas de proposer d’en revenir à un monopole- encore que le retour à des oligopoles puissants stimulés par des petites start-up se fera peut-être naturellement, avec beaucoup de temps perdu. Il s’agit de constater que des politiques de libéralisation aveugles et uniquement axées sur le dogme démenti de l’effet positif de la concurrence ont des effets néfastes sur l’innovation dans les secteurs intensifs en technologie, et particulièrement en recherche fondamentale. Où sont les laboratoires Bell de demain ? (les laboratoires Bell où ont été découverts le transistor, le rayonnement de fond cosmologique, le langage UNIX, le laser à CO2, les caméras CCD….)
Les politiques doivent évidemment être adaptées à chaque secteur, selon qu’ils sont dominés par l’accumulation créatrice ou la destruction créatrice. Ainsi, dans l’industrie du logiciel(2ème cas), devrait plutôt faire l’objet de politiques visant à favoriser la création de PME  innovantes, et à renforcer les liens entre ces entreprises et les universités. Le secteur des télécommunications (2ème cas) devrait plutôt faire l’objet de programmes technologiques ou de plans de déploiement d’infrastructures.
Enfin, évidemment, la concurrence ne conduit les firmes à s’engager dans une course à l’investissement que lorsqu’il existe un avantage important  au « premier entrant », et l’Etat ou les autorités de régulation doivent fixer les règles du jeu en conséquence.
N.B. Sur le sujet de l’innovation, cf l’Innovation au cœur de la croissance, Jean-Hervé Lorenzi, Alain Villemeur, Economica 2000, auquel cette analyse doit beaucoup