jeudi, avril 14, 2011

Homo Pixar


À suivre la thèse fascinante d'Hervé Aubron dans Le Génie de Pixar, les films entièrement numériques du studio d'Emeryville en Californie donnent à voir bêtes et machines assistées par ordinateur s'évertuant à donner des leçons d'humanité au genre humain. Cette philanthropie numérique apparaît d'autant plus comme une aporie que, de ce genre humain, il n'y a plus grand chose à sauver dans ces films tant il y est présenté sommairement mécanisé par ces mêmes technologies qui permirent à Pixar de délier irréversiblement le dessin animé de la main humaine tenant le crayon. Dans le monde de Pixar, intelligence et affects ont été complètement transférés — qu'elle soit animal anthropomorphisé, marionnette, ou ordinateur le plus sophistiqué — à la Machine (Wall-E, Cars, Toy Story, etc.) laissant alors l'homme à sa solitude, abandonné par ses images, ses sentiments, son intelligence. Quant aux machines, héritières en ligne directe de HAL, elles rêvent, elles soupirent, elles raisonnent et n'ont d'autre recours que de se pencher amicalement sur le sort de cette humanité qui les a trop bien façonnées à son image numérique.

 



Tout ça serait-il du cinéma ? Pas tant que ça à en juger par le récent Forum 2011 Microsoft Research -- INRIA, qui présentait un second point d'étape de la collaboration de recherche au laboratoire commun de Microsoft Research et de l'INRIA. (Tout cela organisé de main de maître par Pierre-Louis Xech au siège de Microsoft à Issy-les-Moulineaux, sous la haute surveillance britannique — le laboratoire conjoint dépend, en effet, de MSR à Cambridge, UK — des sujets de sa Gracieuse Majesté, Andrew Blake de MSR et le père fondateur de la logique des preuves et inventeur de Quicksort, Sir Anthony Hoare, histoire de tenir un peu la bride à tous ces français...)

 



Voyons les sujets de recherche :

 




  • Mathematical Components

  • Secure Distributed Computations and their Proofs

  • Tools and Methodologies for Formal Specifications and Proofs

  • Dynamic Dictionary of Mathematical Functions

  • ReActivity

  • Adaptive Combinatorial Search for E-Science

  • Image and Video Mining for Science and Humanities

  • A-Brain



un curieux montage qui se lit comme un storyboard du prochain Pixar à l'heure où le Hollywood numérique réanime Tron.

 



Assia Mahboubi présentait brillamment, par exemple, le projet Mathematical Components dont on pourrait dire malicieusement qu'il vise à abolir la frontière entre programmer et faire des maths. D'ailleurs son motto n'est il pas : « démontrer que les théories mathématiques formalisées peuvent, comme le logiciel, être bâties à partir de composants » ? Et déjà on ne sait plus si cette démonstration est encore déployée dans le domaine des mathématiques où si elle est désormais de nature informatique. Naguère, en 2005, le centre joint de recherche inaugurait sa naissance par un coup d'éclat : un programme informatique auto-certifiant pour démontrer un théorème mathématique historique, celui dit des quatre couleurs. Comme le Toy Story de 1995, performance inaugurale de Pixar, marquait une première — « depuis les frères Lumière » vantait Steve Jobs, jamais à court d'adynatons, à la conférence SIGGRAPH'95 — le théorème des quatre couleurs constituait une première à plus d'un titre ! Sa démonstration initiale dans les années 1970 avait partagé la communauté mathématique : celle ci exigeait le recours à un programme pour vérifier 1478 cas critiques (plus de 1200 heures de calcul à l'époque). L'équipe de Georges Gonthier produisit en 2005 une démonstration du théorème vérifiée par ordinateur, une nouvelle première ; la démonstration elle-même devient programme capable de s'auto-vérifier. La preuve, comme le dessin de Pixar, se libère de la main de l'homme et prend son autonomie, libre enfin de se pencher sur le mathématicien.

 



Les quatre couleurs, un jeu d'enfant nous disait Mme Mahboubi — on en vient à Toy Story 3 maintenant — les derniers résultats obtenus par le laboratoire, c'est du lourd ! De la mathématique adulte, sérieuse, épaisse, de l'abstrait, du profond, du matériau à Médaille Fields, de la graine de Crafoord : le théorème de Feit-Thompson dont jadis la preuve remplit entièrement un numéro du Pacific Journal of Mathematics en 1963. (Au passage, quel titre somptueux pour une publication de mathématiques...) Mis en coupe réglée par l'approche orientée objet traditionnelle du programmeur bien élevé mais appliquée à une matière première mathématique, le théorème n'a pas résisté au certificateur de preuves numérique et est en bonne voie d'exfiltration vers le cyberespace. Les ordinateurs commencent enfin à faire des maths concluait joyeusement l'oratrice !

 



Autre illustration de l'exode mathématique vers les plaines magnétiques des disques durs en nuage, l'extraordinaire outil du Dynamic Dictionary of Mathematical Functions (DDMF), qui est toujours présenté sous les dehors innocents du remplacement moderne et en ligne du vénérable ouvrage de référence, les milliers de pages de papier bible de l'Abramowitz et Stegun. Le DDMF, comme le DLMF son homologue américain, sont en fait bien plus que des outils commodes pour érudits de l'analyse numérique. À chaque requête de l'utilisateur, le programme recalcule ou redémontre le résultat à partir des premiers principes, des définitions d'origine, retraçant en quelques mégaflops accélérés des millénaires d'histoire des mathématiques depuis Aristote. Alors que Leonhard Euler, devenu pratiquement aveugle à Saint-Petersbourg, épuisait de longues années de cécité à calculer des solutions aux équations numériques de degrés élevés, imaginant dans ses ténèbres borgésiennes des nombres « irrationnels » et « imaginaires », le DDMF à la précision chirurgicale emplit en un instant les pages Web des mêmes résultats avec une froideur clinique. Il fera un excellent professeur nous assurent ses créateurs et nous envisageons de nombreuses applications dans l'enseignement des mathématiques !

 



Le projet Image and Video Mining est à l'évidence inspiré de 2001 de Kubrick et de l'excellent HAL. La scène originelle dans laquelle l'ordinateur schizophrène espionne les astronautes, se croyant à l'abri dans l'étanchéité d'un vaisseau aux rondeurs maternelles pour discuter de l'arrêt de l'ordinateur de bord devenu menaçant, simplement en lisant sur leurs lèvres au travers du hublot, nous était ici re-présentée sous une variante à peine camouflée. Dans le film Coffee and Cigarettes de Jim Jarmusch, le HAL moderne du centre commun de recherche, observe et détecte en temps réel les séquences dans lesquelles un ou plusieurs des personnages boivent ou fument — sans erreur et quels que soient les plans. Si les applications concrètes qui furent invoquées pour ces technologies se voulaient rassurantes et écologiquement correctes, Fluminance pour la détection et l'analyse des écoulements et des turbulences, par exemple, dans la lutte contre la pollution, il n'est pas besoin de beaucoup d'imagination néanmoins pour penser à des applications horteféodales d'inspiration nettement plus orwellienne.

 



Enfin, apothéose, de la pixellisation de l'homme, le projet A-Brain qui jette dans la mêlée numérique toute la puissance de feu des yottaflops du cloud computing pour forger le chaînon manquant entre variabilité génétique et comportement de l'esprit, tel qu'il est progressivement révélé par la révolution de l'imagerie médicale du cerveau. Dans ces mystères d'Eleusis 2.0, l'esprit méditant et agissant devient image numérique Pixar, animée sur nos écrans, calculée par nos GPU, dont on cherche, par une foudroyante inversion du processus de production des films du studio numérique, à retracer la filiation au patron génétique, au dessin initial de l'alphabet acido-aminé qui nous détermine. Ferme résolution et haute résolution conspirent pour achever la mécanisation de l'homme, faire naître le Simulacre de Baudrillard, intégralement démontrable, auto-vérifié, calculé en ligne et en temps réel — mais est-il encore réel à cette échelle ? — banalement doué d'intelligence et de sentimentalité, n'exprimant plus que bienveillance et empathie à très haut débit.

 



Bienvenue à l'homme Pixarisé.

 



samedi, avril 09, 2011

Les contradictions de l'ouverture


La concomitance de déclarations contradictoires sur les bénéfices de l'ouverture des systèmes d'information et des architectures informatiques aurait de quoi surprendre pour une idée dont la légitimité paraît depuis longtemps établie. Par exemple : alors que la Maison Blanche vient de livrer en Open Source tout le code de IT Dashboard et Techstat Toolkit (sous GPL !), ses outils statistiques et le tableau de bord complet du suivi des investissements informatiques du gouvernement fédéral, la dernière proposition de budget 2011 discutée au Congrès, au contraire, titre brutalement un trait sur l'Electronic Government Fund qui, précisément, soutient le développement des sites Web du gouvernement — notamment le financement des emblématiques Data.gov et USASpending.gov. Les louables ambitions de Code for America, le code source patriotique et libre, une organisation à but non-lucratif mise en place pour « incuber » — comme il est de rigueur dans la doctrine modernisée du capitalisme citoyen — des projets comme Civic Commons, visant au partage de la technologie pour le bien public, comme l'affiche leur slogan, seraient donc sérieusement mises à mal au nom du réalisme financier.

 



Il est vrai que le soupçon intolérable de l'Intérêt Commercial, épouvantail honni de la communauté, est récemment réapparu à l'occasion de disputes qui font grand bruit dans l'industrie. Dans le monde des télécommunications mobiles, pour commencer, Nokia — qui vient, rappelons-le, de signer un accord avec Microsoft faisant la part belle à Windows 7 au détriment de Symbian, quelques semaines seulement après avoir recruté au poste de CEO Stephen Elop, lui-même ancien patron de la Microsoft Business Division ! — avait annoncé que son système d'exploitation Symbian était maintenant « ouvert ». Tout à fait exagéré, semble-t-il, après examen approfondi de la nouvelle licence Symbian... L'industriel finlandais ne saurait-il plus quoi faire de son OS devenu bien encombrant ? Mais de là à s'en débarrasser sous couvert d'Open Source ?

 



Poursuivons : l'exemple vient de haut. Confronté au succès planétaire de l'iPhone et de la combinaison hypnotique de iOS et iTunes/AppStore, exemple on ne peut plus réussi du modèle propriétaire, Google vante depuis longtemps l'ouverture de son OS maison, Android. La posture du moteur de recherches, ruisselante de bonnes intentions, est aujourd'hui sérieusement prise à partie dans un récent article de Business Week. Devant le risque (réel) de fragmentation des déclinaisons de son système d'exploitation, des variantes parfois peu compatibles avidement développées par les opérateurs mobiles trop heureux de l'occasion de se précipiter à si bon compte derrière Apple dans des offres me-too, Google aurait sifflé la fin de la récréation en exigeant que l'accès aux prochaines livraisons de sa technologie soit désormais conditionné à la soumission et à l'approbation d'un business plan. (Notons d'ailleurs, que ce qu'on accepte d'Apple, même avec des réticences parfois portées devant des cours de justice, semble en revanche immédiatement inacceptable de Google.) Que nenni ! rétorque Andy Rubin, VP of Engineering, dans un billet irénique sur le blog des développeurs Android. Les fabricants de terminaux et les opérateurs sont tout à fait libres de décliner la plateforme Android comme ils l'entendent, comme ils ont toujours été depuis l'origine. En revanche, dès qu'il s'agit d'inclure des applications Google, c'est une autre histoire : il s'agit de se conformer à des spécifications de compatibilités édictées par le géant de Mountain View. Et en effet, quelle déception pour le consommateur si les applications Android de Google — et, par métonymie, celles de tous les autres tiers développeurs — ne s'exécutaient pas avec la plus élégante fluidité attendue d'un tel génie du logiciel, quelque soit le terminal ? (Sans compter qu'évidemment Android perdrait rapidement son attrait concurrentiel vis-à-vis d'Apple.) Ces escarmouches du moment, tout comme le procès intenté par Skyhook contre Google à l'automne dernier à propos de manoeuvres commerciales visant à établir la prééminence des services de géolocalisation du géant de Mountain View au détriment de ceux proposés par ses propres partenaires, montrent que Google est ouvert, certes, mais dès qu'il s'agit de monétisation de services — en particulier, aux mobiles — c'est une toute autre histoire...

 



Si Google éprouve aujourd'hui des difficultés à défendre la posture initialement « ouverte » qu'il avait choisi de prendre sur Android, à mesure que s'hypertrophie l'écosystème de l'OS mobile, Facebook, de son côté, montre brillamment comment utiliser l'ouverture comme arme offensive d'embarras massif.

 



Facebook vient en effet d'ouvrir publiquement les spécifications de ses datacenters, dans un mouvement grandiose : Open Compute. Avec une (feinte) modestie, la home page explique candidement qu'en réunissant quelques ingénieurs de la maison, le réseau social avait abouti, en quelques mois à peine, à un modèle de datacenter, plus efficace, plus vert et moins cher et qu'il le partageait bien volontiers avec le monde entier. (Ce qui devrait remettre en perspective, me semble-t-il, les envolées lyriques de notre volumineuse littérature administrative sur les économiquement patriotiques Investissements d'Avenir.) L'activité industrielle de Facebook, comme celle de Google, consiste bien sûr à faire tourner des logiciels et des bases de données monumentales — moteur de recherches, pour l'un, réseau social, pour l'autre — et, dans une concurrence de plus en plus exacerbée, à servir des publicités en ligne depuis leurs datacenters bunkerisés à proximité de centrales nucléaires et de grandes rivières.

 



Google, comme Microsoft, a pris de l'avance en construisant ses propres datacenters mais en prenant soin à la fois de mettre en avant les principes une fois de plus « ouverts » de la conception de ses logiciels — voyez, par exemple, la publication du Google File System —, mais en gardant secrète la conception des mausolées de données que sont ses datacenters et en insistant sur l'effort considérable de recherche et développement consenti pour leur développement. Facebook, challenger (encore) dix fois plus petit aujourd'hui que Google sur ce terrain, réussit à retourner l'argument. Lui qui louait ses datacenters depuis le début, devrait investir massivement pour rattraper ce retard s'il devait reconstruire son infrastructure. Même si son trésor de guerre lui permettait de telles dépenses, Facebook préférerait légitimement les consacrer à des projets lui permettant d'accroître plus rapidement sa mainmise sur le « temps de cerveau » disponible des six cent millions (et toujours plus) d'encéphales qu'il robotise. En ouvrant le design des ses propres datacenters à venir (deux en prévision pour le moment en Oregon et Caroline du Nord, comme tout le monde), Facebook veut faire faire « un grand bond en avant à toute l'industrie » — pas étonnant que Dell, Zynga, RackSpace aient été présents et d'ores et déjà annoncé des partenariats au lancement d'Open Compute — laissant, au passage, sur le bas-côté les « réactionnaires » du modèle propriétaire.

 



Sans oublier d'embarrasser ses concurrents en montrant que quelques mois de travail d'un petit groupe de ses hackers adolescents ridiculisent sans peine les efforts de recherche prétendument massifs de ses poussifs prédécesseurs !

 



Ainsi l'Intérêt Commercial, figure mineure de la Realpolitik Économique, l'emporterait parfois sur l'Ouverture. Certes l'abandon de Data.gov aux Etats-Unis porterait un coup à la transparence due au citoyen prônée par le dogme prévalent de l'administration américaine, mais peut-être plus important encore, il priverait cette même administration d'un rare et précieux outil de standardisation et d'interopérabilité des systèmes d'information de ses agences et ministères. Le Data Management Set Manual décrit, par exemple, le détail du processus formel de publication, assurant le respect des objectifs de transparence et de protection des données privées mais également la qualité et la disponibilité des données publiées : modèles de données, standards et protocoles y sont ouvertement explicités. Le site en ligne de publication est un modèle du genre. Toute cette infrastructure de services qui, derrière les feux de la rampe, assure le fonctionnement sans heurts du dispositif représente à l'évidence une grande valeur qui menace d'être laissée ainsi en déshérence. L'ouverture la sauvera peut-être de cette « technoapocalypse » si d'autres s'en inspirent ou la reprennent.

 



Beau sujet de réflexion pour Jérôme Filippini, nommé récemment directeur interministériel des systèmes d'information et de communication de l'Etat au secrétariat général du Gouvernement, et pour Séverin Naudet dans le cadre du portail EtaLab, la réponse française à l'Open Data.

 



ShareThis