Abstract
Pour étendre la notion d'entropie, l'auteur tente de dégager la signification de la “probabilité relative” w de Boltzmann dans sa formule S = k.log.w. Celui-ci introduit implicitement une partition d'un ensemble E de molécules en classes d'équivalence, les divers états macroscopiques du gaz; w est le rapport de la probabilité de l'état dont on cherche à définir l'entropie à celle de l'état le plus improbable.L'auteur propose de généraliser le concept toutes les fois ob sur un ensemble probabilisable E il sera possible de faire une partition.La “complexité d'une structure” peut être définie par le nombre d'aspects différents que peut prendre le graphe sous-jacent à celle-ci. Alors toute stricture a une probabilité d'occurrence, et l'on peut y définir une G-entropie.Appliquant ensuite ce concept à la théorie de l'information de Shannon, l'auteur montre que la quantité d'information apportée par un message est différente de la G-entropie, mais que les deux grandeurs y prennent fortuitement la même valeur. Le concept permet également d'introduire une information liée au message, une autre au “code”, et une information totale.Le concept d'émergence permet ensuite de comprendre la raison pour laquelle celle-ci s'accompagne d'une augmentation de G-neguentropie.L'entropie est considérée depuis Boltzmann comme une borne mesure du désordre d'un gaz, d'où son intérêt en morphogénèse, en théorie des systèmes, et de l'information. Cependant son application directe pose des problèmes, et il parait préférable de tenter auparavant de généraliser le concept en le randant plus abstrait. La première difficulté à laquelle on se heurte alors est l'interprétation du nombre w de la formule de Boltzmann