Complexité aléatoire et complexité organisée

de Jean-Paul Delahaye (2009)

Synopsis

Moyenne

19.0

1 vote

EXCELLENT

Les notions de complexité, d'organisation et d'information, sont omniprésentes dans de très nombreux domaines, notamment en biologie où les deux premières sont d'usage ancien. Elles ont la propriété commune d'être mal définies, et leur emploi, en général assez flou, est pourtant indispensable.

Ces notions n'ont vraiment commencé à être comprises en mathématiques que dans le cours du vingtième siècle. En particulier, les tentatives de mathématisation de l'opposition intuitive entre le simple et le complexe ont abouti vers 1965 grâce à la théorie algorithmique de l'information de Gregory Chaitin et Andreï Kolmogorov, théorie elle-même fondée sur les progrès de l'informatique théorique.

Cette théorie définit la complexité d'un objet par la taille du plus court programme qui permet d'engendrer cet objet. Elle prend en compte et mesure toutes sortes de redondances et de régularités dans les objets auxquels on l'applique. L'utilisation des algorithmes de compression sans pertes permet son application et conduit en particulier à de nouvelles méthodes de classification.

Ces avancées ont conduit Charles Bennett à donner un sens rigoureux à la distinction naturelle entre complexité aléatoire et complexité organisée, qui jusque-là échappait à la formalisation. La notion qu'il introduit - le concept de profondeur logique - vient compléter et enrichir la théorie et résoudre plusieurs questions délicates.

Ce nouveau concept est sans doute promis à jouer un rôle important dans de nombreuses disciplines.

1 édition pour ce livre

2009 Editions Quae (Sciences en questions)

Française Langue française | 76 pages | Sortie : 14 mai 2009 | ISBN : 9782759203208

Aucune chronique pour ce livre

En vous inscrivant à Livraddict, vous pourrez partager vos chroniques de blog dans cette zone ! M'inscrire !

0 commentaire

En vous inscrivant à Livraddict, vous pourrez commenter ce livre. M'inscrire !