mercredi, novembre 30, 2011

Colloque Computing


Il fut donc fréquemment question de cloud computing sous nos cieux ce mois de novembre, comme si le brumeux automne qui installait un ciel nuageux inspirait directement les débats techniques. Au début du mois, par exemple, le Centre d'analyse stratégique organisait un colloque hors des sentiers battus et rebattus sur un sujet que l'on se réjouissait à l'avance de voir polémique : « Nouveaux usages d'Internet, nouvelle gouvernance pour l'Etat ». Il est déjà tout à fait remarquable que l'Etat prenne soudainement note de l'influence d'Internet en 2011, quarante ans et quelques après sa naissance et un peu plus de vingt ans seulement après celle du Web, mais comble de ce saisissement stupéfiant provoqué par la modernité en marche, il conviait là à en débattre la figure mythique de Richard Stallman, le démiurge de l'Open Source.

 



Il est notoire que rms — comme toute production du projet GNU — est lui-même assorti d'une licence libre et d'un manuel d'utilisation précis auquel on est aimablement prié de se conformer. (En particulier sur l'usage des sachets de thé avec ou sans les add-ons de lait et de sucre.) Peut-être cela explique-t-il que l'homme se fasse rare en notre doux pays, bien qu'il parle parfaitement français et nous ait, en l'occurrence, brillamment régalé de la dernière mise à jour du Prêche du Libre dans son illustration par l'Open Data. Dans ce panel au ton de la casuistique, rms était flanqué, d'une part, de Nigel Shadbolt, Professeur de Sciences informatiques à l'Université de Southampton et, surtout, co-fondateur de data.gov.uk avec Sir Tim Berners-Lee rien moins, et, d'autre part, d'Augustin Landier, Professeur à Toulouse School of Economics, Économiste au Conseil d'analyse économique, dont on recommande chaudement les deux ouvrages « Le Grand méchant marché : décryptage d'un fantasme français », avec David Thesmar, et « La Société translucide : Pour en finir avec le mythe de l'Etat bienveillant », avec le même, où les auteurs explorent une régulation en architecture ouverte de la politique publique que permettrait, notamment, l'initiative Open Data dans laquelle la production de données statistiques est considérée comme une nouvelle fonction régalienne de l'Etat. Ces idées du vibrionnant chercheur de l'IDEI ont un certain cours en haut lieu puisque Etalab, créé en février 2011, commence à se faire entendre et promet « la mise à disposition de données brutes dans des formats exploitables ».

 



Ce subtil glissement du champ d'application des principes du Libre du code source aux données, introduit par rms dans ce débat sur les données publiques de l'Open Data, est certainement à l'origine, pour ce qui concerne maintenant les données personnelles et privées, de sa prise de position tonitruante sur le cloud computing dans une interview accordée au Guardian en 2008. « C'est un piège ! », admonestait-il, lançant ses foudres des sommets de l'Olympe du Libre : « C'est stupide ! C'est pire que stupide. C'est une campagne marketing ! ». (On lit bien dans la crudité du langage du Prophète les dernières extrémités où il se voit retranché !) L'aporie du consommateur pris, pieds et poings liés, dans les rets de ses fournisseurs cloud computing est réitérée dans un commentaire ciselé à la tronçonneuse du même rms dans la version en ligne du Spiegel. Il y vitupère en particulier Facebook qui, d'après lui, considère ses utilisateurs « non pas comme des clients, mais comme une marchandise » dont le réseau social peut à son gré valoriser les données personnelles à son plus grand profit. (Voyez aussi «  The Future of the Internet and How to Stop It  » de Jonathan Zittrain). Déjà soupçonné des pires exactions d'une Nouvelle surveillance foucaldienne digne du sinistre Panoptikon de Jeremy Bentham, ayant aujourd'hui transigé sur ce sujet avec la FTC qui avait lancé une enquête contre le réseau social, Facebook n'en prévoit pas moins ces jours-ci une fantastique IPO pour 2012 — une levée de 10 milliards de dollars sur une inimaginable valorisation de 100 milliards de dollars !

 



Quelle meilleure introduction aux débats de la semaine suivante sur la thématique du cloud computing, retenue pour l'édition 2011 de la conférence générale du consortium OW2 ? Les panelistes de la première table ronde (Bull, OW2, Microsoft, Open Nebula, Ubuntu, Orange Business Service, Université de Pékin) s'y interrogeaient sur l'avenir de l'Open Source et du cloud. Il est notable que les projets Open Source ne manquent pas dans l'empilement des couches que l'on convient de distinguer dans le mille-feuilles cloud computing. Pour les infrastructures et les plates-formes, — avec les excuses de rigueur pour le manque certain d'exhaustivité, mais comme disait Pierre de Fermat : hanc marginis exiguitas non caperet — citons le projet Nimbus, CloudForms de RedHat (pour les « nuages » privés ou hybrides), Ubuntu Cloud et Juju, Eucalyptus, Cloud.com maintenant chez Citrix, Open Nebula pour la gestion des « nuages », CompatibleOne OpenStack, CloudFoundry de VMWare ou encore OpenCompute de... Facebook ! Par ailleurs les associations professionnelles et consortiums fleurissent et prolifèrent par temps couvert : Free Cloud Alliance, Open Cloud Manifesto, Open Cloud Consortium, Cloud Standards, et bien d'autres sur les datacenters, la virtualisation ou le grid computing : tous fédérés mais chacun sous sa bannière ! Pour autant, toute cette agitation organisationnelle est-elle garante du succès des principes oecuméniques des libres clodoaldiens ?

 



Quant aux applications, elles étaient abondamment illustrées pour l'édification des masses au Colloque sur l'ingéniérie numérique (« Entre ruptures technologiques et progrès économique et social ») organisé à l'initiative de l'Académie des technologies, du Conseil économique, social et environnemental, du Minefi et du Conseil général de l'industrie, de l'énergie et des technologies. Au Palais d'Iena, sous la monumentale coupole d'Auguste et Gustave Perret, véritables architectes-entrepreneurs militants du génie civil français du début du XXe siècle — un modèle d'entrepreneur dont on a depuis en France, hélas, bien perdu la recette  ! —, le lustre de Serge Macel et les fresques de Jean Souverbie répandaient une componction solennelle dans le public. Les sujets abordés n'inspiraient pourtant pas à la somnolence : virtualisation et immersion 3D, modélisation et simulation, masses de données. Et il faut savoir gré à Henri Verdier, Président du pôle Cap Digital, d'avoir secoué l'assemblée par la vivacité et l'intelligence de son propos. Il était déjà intervenu au colloque du Centre d'analyse stratégique, après Stallman. Comme François Bancilhon, de Data Publica qui, antérieur à Etalab, se présente comme le portail français des données publiques et de l'Open Data, à ses côtés, Henri Verdier rappelait opportunément que la réflexion — et peut-être l'engouement — pour l'Open Data est jusqu'à présent principalement portée par sa représentation en termes politiques, dominée par les grands mots de démocratie, de transparence et de citoyenneté, beaucoup plus que par son impact industriel et économique qui sera peut-être plus sensible encore.

 



À l'âge du cloud les statisticiens ont de beaux jours devant eux !

 



ShareThis