Hervé Zwirn, Simple et déterministe veut-il dire prédictible ?


Synthèse de la conférence, par Laurence Honnorat

Prenons quelques années de recul et plaçons-nous au 19ème siècle. C’est là qu’est née l’idée que l’univers est régit par des lois simples et déterministes et que nous pouvons prévoir l’avenir à condition de connaître avec suffisamment de précision ses lois et sa situation à un moment donné. Le temps s’est écoulé et cette vision a subi trois chocs qui en ont montré les limites. Avec l’étude des systèmes chaotiques, on s’est aperçu qu’une variation infinitésimale des conditions initiales pouvait avoir des conséquences énormes à long terme. Même si l’univers suit des lois simples que nous connaissons, du fait des limites de nos instruments de mesure, il n’est pas possible de faire des prédictions à long terme, en tout cas en pratique. L’horizon de prévision est vite atteint. La physique quantique suggère que le monde est par nature imprévisible, car non parfaitement déterministe. Il s’agit donc d’une imprédictibilité intrinsèque. Le troisième et dernier choc – disons le choc majeur - est celui de la complexité émergeant des systèmes complexes. On définit un système complexe comme un système constitué d’éléments simples interagissant de manière non-linéaire. Dans un tel système, on peut paradoxalement avoir des lois individuelles très simples et, pour autant, un comportement global impossible à prédire autrement que par simulation pas à pas. On parle alors d’irréductibilité computationnelle, que l’on peut illustrer par des exemples comme celui de la fourmi de Langton, qui commence par faire 10 000 pas avant de décrire une « autoroute », d’une manière qu’on n’arrive pas à prédire. À travers un autre exemple, celui du jeu de la vie de Conway, nous constatons qu’une configuration initiale peut persister jusqu’à l’éternité ou s’éteindre sans qu’on ait de méthode algorithmique pour le prédire. Ces systèmes illustrent qu’un comportement très élémentaire au niveau microscopique peut déboucher sur un comportement « émergent » d’une nature différente et inexplicable, et que la complexité peut ainsi naître de lois simples. Ce que nous qualifions d’irréductibilité computationnelle n’est peut-être que le reflet des limites de notre raisonnement.


Jean-Christophe Baillie, Civilisation et virtualité


Synthèse de la conférence, par Laurence Honnorat

Novaquark crée le jeu Dual Universe. C'est la première génération d'un monde massivement connecté dans lequel l'on peut agir sur l'environnement et socialement. Des blocs et des outils sont mis à notre disposition pour assembler, creuser, modifier, construire... Y compris des villes. Ce qui compte dans ce jeu, c'est d'être surpris. Le contenu y est émergent tout comme la composante sociale qui intègre, entres autres, la politique, l'économie et l’éthique. Le langage machine gère les structures humaines mises en place, leurs évolutions ainsi que leurs interactions. Dans cet Univers, innover est possible, connaître de grand succès aussi. Le combat semble un passage quasi obligatoire au franchissement de certaines étapes. Pour éviter de trop grandes tensions, des zones sécurisées ont été aménagées, gardant le joueur à l’abri de toutes agressions. La limite entre cet espace virtuel et le monde réel semble extrêmement ténue, tant les composantes et l’organisation de l’un et l’autre sont semblables. Cependant, il faudra que Dual Universe atteigne une masse critique suffisante pour que les résultats des expérimentations qui y sont menées puissent s’appliquer au contexte du réel et venir améliorer notre quotidien. Le jeu démarre sur la planète Alioth où d’emblée les actions du joueur sont visibles en temps réel. Un départ en orbite nous offre une vue surplombante de la planète et de celles avoisinantes, nous invitant à une prise en compte plus globale de leurs ressources. Dans Dual Universe, tout est éditable, y compris les briques et les outils. Nous devenons sculpteur, ingénieur matériaux ou spécialiste des moteurs, selon une expertise déjà acquise ou souhaitée. Les plus chevronnés se lanceront dans la programmation même de modules du jeu. Une fois un vaisseau spatial construit, il suffit de décoller pour explorer les alentours ou rejoindre une station orbitale par exemple. Des milliers de gens vont coopérer mais pas tous ne se lanceront dans cet exercice-là. Chaque joueur choisira sa spécialité, le type d’actions qu’il souhaitera mener. Novaquark a d’ores et déjà formé une communauté qui s’organise en corporations, lesquelles fixent des objectifs. Sur Alioth ont été définis des territoires ; un système de droit et devoir a été mis en place ainsi qu’un processus de gestion des ressources. En fonction du marché, de l’offre et de la demande, la valeur de ces ressources fluctue. L’industrie et notamment le spatial sont bel et bien représentés dans Dual Universe. Dans ce jeu où plus l’on regarde loin, plus l’on regarde dans le passé, le monde est beau, stimulant et pousse à imaginer. Rien n'est anéanti, le vieillissement et la mort n'existent pas. Lorsque l’on crée quelque chose qui a du sens, l’on y fait naître une sorte de réalité.


Jean-Paul Delahaye, Stratégie pour la coopération


Synthèse de la conférence, par Laurence Honnorat

Jean-Paul Delahaye prend le prétexte des jeux coopératifs pour analyser les interactions sociales et nous exposer son point de vue sur la stratégie à adopter pour coopérer. Il nous confie que « faire de bons scores » ne consiste pas à battre tout le monde mais à déterminer quelle est la meilleure stratégie à adopter. Alors, comment réussir une nouvelle collaboration ? La théorie de jeux qui conduit à l'étude des jeux coopératifs, produit des résultats précis et souvent étonnants. Le « dilemme des prisonniers » est un modèle simple qui donne des résultats théoriques inattendus. Généralement, les outils de simulation informatique mènent à l'identification et à la sélection de stratégies efficaces de collaboration, dont le fameux « donnant-donnant ». Lorsqu’elle va rencontrer un adversaire, la stratégie « donnant-donnant » ne va jamais mieux faire que lui mais contre l’action de l’ensemble des adversaires, elle gagne toujours. Cette situation à l’allure paradoxale, s’explique par le fait qu’en agissant, les autres stratégies se nuisent entre elles et de ce fait s’affaiblissent. On tire de ces études des leçons pratiques, c'est-à-dire des conseils pour bien interagir face à un partenaire inconnu avec lequel on doit choisir s'il faut lui faire confiance ou au contraire agir avec prudence et méfiance. Dans certaines situations le meilleur comportement pour réussir une interaction oblige à prendre un risque : celui de coopérer sans savoir si le partenaire n'en profitera pas pour vous exploiter. Dans ces situations, que l’on appelle des dilemmes sociaux, il y a divergence entre l'intérêt individuel immédiat et l'intérêt collectif : quoi que fasse le partenaire, nous avons intérêt à adopter un comportement qui, au final, amène à une mauvaise situation collective. Ces dilemmes ont été étudiés en psychologie, notamment dans le cadre de l’écologie ou des décisions politiques en général. Le modèle du dilemme du prisonnier est ici un exemple parfait. Quand la situation est itérée, il faut penser non plus en termes de comportement, mais de stratégie, c'est-à-dire prendre en compte le passé des interactions. La situation devient très complexe car il y a une infinité de stratégies possibles. Les expériences numériques de simulation menées montrent de manière indubitable que l'agressivité n'est pas payante ; mais aussi que le début d'une rencontre est essentiel et qu'il est efficace d'être coopératif (quitte à prendre un risque) dans la première phase d'une relation ; enfin, qu'être réactif, c’est-à-dire ne pas se laisser faire, est aussi important. D'autres conclusions peuvent être tirées des expériences de modélisation numérique, certaines sont étonnantes.  Particulièrement, le phénomène observé quasiment systématiquement (avec quelques rares exceptions cependant) qu'il y a convergence naturelle - sans autorité supérieure de contrôle - vers un état de coopération généralisée. Ces résultats - même s’ils sont purement mathématiques - donnent à réfléchir sur la manière dont nous interagissons les uns avec les autres.


Nicolas Gauvrit, Notre perception du hasard


Synthèse de la conférence, par Laurence Honnorat

Nous vivons dans un monde incertain - d’autant plus incertain que l’on essaie de prévoir l’avenir lointain. De ce fait, nous ne pouvons pas en général raisonner ou prendre des décisions autrement que de manière probabiliste, en nous appuyant sur notre perception du hasard. Trois courants de recherche en psychologie ont étudié notre perception du hasard ou de la « prise de décision sous incertitude » et apportent des éclairages complémentaires sur l’intuition qui, contrairement à un simple réflexe, suppose une forme de traitement de l’information ou de « raisonnement » inconscient. Le courant dit « des biais et heuristiques » décrit précisément les erreurs systématiques (les biais) et les raccourcis logiques (heuristiques) que nous utilisons spontanément. Les chercheurs ont par exemple mis en évidence des erreurs liées à notre intuition des probabilités, comme le biais d’équiprobabilité qui nous pousse à penser que lorsque le hasard est en jeu, toutes les alternatives ont la même chance d’apparaître. Le courant dit « bayésien », plus récent, tente d’expliquer ces biais et heuristiques. Il fait l’hypothèse, aujourd’hui bien étayée, que le cerveau est un calculateur probabiliste quasi-optimal, limité seulement par le fait qu’il a une capacité de calcul limitée et que les questions probabilistes sont souvent mal comprises, car nous cherchons plus souvent la probabilité d’une cause connaissant l’effet que l’inverse. Une des conséquences en est que nous avons une tendance naturelle excessive à détecter les structures. Ces deux courants donnent de notre intuition du hasard une vue plutôt pessimiste. Le courant représenté par exemple par Gerd Gigerenzer entend réhabiliter l’intuition en étudiant plus spécifiquement ses succès plutôt que ses errements. On peut par exemple montrer que notre perception du hasard correspond assez bien à ce qu’en dit la « théorie algorithmique de l’information ». Des pistes sont proposées pour corriger les erreurs qui, néanmoins, persistent. Par exemple, la présentation des risques en « fréquences naturelles » (nombres entiers) permet une meilleure intuition de ceux-ci. Ces questions ne sont pas seulement théoriques : les médecins ou les jurés sont par exemple amenés à prendre des décisions statistiques rapides chaque jour, et s’assurer qu’elles sont fiables est une question d’intérêt public. Notre cerveau est finalement un outil performant, qui nous donne accès à des informations fiables dès que cela est possible : la condition est qu’il ait eu accès à suffisamment de données d’observation… ce qui explique aussi la supériorité des experts sur les novices en termes d’intuition. Pour aboutir à une décision fiable, l’idéal est sans doute d’utiliser l’intuition mais en ajoutant une forme de supervision consciente (utilisant la « méta-cognition ») qui la contrôle et, le cas échéant, l’inhibe.


Roland Lehoucq, Le voyage interstellaire


Synthèse de la conférence, par Laurence Honnorat

Qu’est-ce qui nous limite pour atteindre les étoiles ? Les distances à l’échelle de l’Univers sont difficiles à appréhender. Si l’on réduit la Terre à 0,1mm, le Soleil se situe alors à 1 mètre, Neptune à 30 m et 267 km séparent la Terre de l’étoile la plus proche, Proxima du Centaure. C’est seulement à 1000 km par seconde que nous pourrions commencer à explorer l’Univers dans un temps raisonnable. La question de la vitesse est donc primordiale. Si l’on veut utiliser la propulsion (on rejette de la matière pour faire avancer la fusée), il faut soit une masse considérable, soit une vitesse d’expulsion bien plus élevée que celle que l'on obtient actuellement. La masse ne peut pas être augmentée suffisamment pour atteindre des vitesses satisfaisantes : la totalité de la masse de l’univers suffirait à peine à propulser une fusée d’un proton à la vitesse d’expulsion requise. L’autre solution consisterait à augmenter la vitesse d’expulsion, mais cela nécessiterait beaucoup d’énergie. Les énergies chimiques s'avère insuffisante, de même que l’énergie nucléaire. Si l’on renonce au système classique de propulsion de matière embarquée, on peut utiliser ce qui se trouve dans l’espace : la lumière (mais la poussée des photons est extrêmement réduite), les particules spatiales (mais il faut les « attraper », ce qui suppose une logistique considérable). Enfin, l’idée d’un rayon laser gigantesque qui, depuis la Terre, pousserait le vaisseau, a été proposée. L’antimatière semble être la solution la plus prometteuse, mais elle n’est ni facile à produire, ni facile à stocker. Aucune des pistes proposées n'implique de modification des lois de la physique : ce n’est pas la science qui nous empêche d’avancer, mais la technique. Ce sont des solutions « pensables », mais techniquement non encore réalisables. Il faudra beaucoup d’énergie, à un débit important et pendant longtemps. D’autres solutions peuvent être en théorie imaginées, comme les trous de ver, mais on est là à un niveau d’impossibilité plus pesant : on ne sait pas si les trous de ver existent vraiment et en créer supposerait qu’on soit capable de manipuler des trous noirs… La téléportation est encore plus improbable pour plusieurs raisons bien qu’aucune loi de la physique ne s’y oppose, notamment parce qu’elle suppose le meurtre de la personne à transporter… Pour conclure, ajoutons cette citation d’Arthur C. Clarke retrouvée dans les récits de Roland Lehoucq : « La seule façon de découvrir les limites du possible, c’est de s’aventurer un peu au-delà, dans l’impossible. » La science-fiction permet de s’affranchir des limites du réel, une posture bien utile à l’invention de nouvelles solutions. C’est sûrement grâce à elle, aussi, que le public comprend l’importance de la recherche spatiale.