Si vous savez ce qu'est l'information, mais que dès qu'on vous demande une définition claire, vous répondez : "Bah l'information, c'est la presse" ou "c'est une donnée informative", d'un air surpris d'une question aussi incongrue, lisez la synthèse des définitions de Docs pour docs. Sachant que pour eux la définition première de l'information est "toute donnée porteuse de sens".

Complément de définition par Jean-Michel Valette (attention, définition scientifique, migraineux s'abstenir... Cette année, JMI met la barre très haut et me fait de l'ombre, va falloir que je m'y remette un peu! ;), même s'il s'efforce de me flatter, ce qui marche toujours avec moi)

Information, entropie et organisation (et accessoirement gestion d'un système documentaire et d'information!).

Voici une autre piste - à la fois originale et heuristique - pour définir le concept d'information.

Cette autre définition résulte du rapprochement de la notion d’information avec la question de l'ordre ou du désordre (d'un système), de l'organisation ou du chaos. C’est une définition à la fois philosophique et opératoire, concrète.

C'est celle donnée par Léon Brillouin, un grand physicien du siècle dernier, de l'information comme "néguentropie". Ce physicien a opéré, le premier (1), un rapprochement entre la théorie de l’information de Shannon et les lois de la thermodynamique et notamment celles qui mesurent l’entropie d’un système physique.

Mais qu'est-ce que l'entropie?

L’entropie, en thermodynamique, évalue le degré de dégradation de l'énergie d'un système. On peut y voir également une mesure du "désordre" ou plutôt de "l'absence d'organisation" à l'intérieur d'un système. Plus une structure est « ordonnée », complexe, hétérogène, organisée, plus son entropie sera faible (2). Réciproquement, plus une structure est "désordonnée", indifférenciée, homogène, chaotique, plus son entropie est forte (3). L’évolution naturelle de tout système physique – sans apport d’énergie venant de l’extérieur - se faisant dans le sens d’une augmentation de l’entropie. Par exemple, sans apport extérieur de charbon, et donc de chaleur, l'énergie thermique d'une machine à vapeur se dégrade en énergie mécanique, les pistons ralentissent puis s’arrêtent...et la locomotive avec! Autre exemple: les corps chauds ont tendance à communiquer leur chaleur aux corps froids. Si on attend suffisamment les températures s'uniformisent, le milieu devient homogène et l'entropie forte. De même, l’évolution irréversible de l’univers se fait dans le sens d’une augmentation de l’entropie - et donc d’une mort « physique » inéluctable de l’univers dans l’indifférence et l’uniformité...

Mais quel rapport avec la notion d'information?

Léon Brillouin, donc, constatant une ressemblance de forme à la constante près entre les équations de Shannon et certaines équations de la thermodynamique (théorie cinétique des gaz) a donc opéré le rapprochement entre les deux théories.
L’information, selon ce rapprochement, équivaut à un apport extérieur d’énergie, elle va faire diminuer l’entropie et donc augmenter l’ordre d'un système. L’information va donc en sens inverse de l’entropie : c’est de la « néguentropie ».(4)

 
Illustrons tout ceci par un exemple concret. Prenons le cas d’un Système d’Information et de Documentation d’un établisement scolaire (5)! Tout apport d’information supplémentaire dans ce système (par exemple l’action de classer, organiser, différencier les éléments qui le constitue) doit, normalement(!), faire diminuer l’entropie (le désordre) qui y règne. Une bonne partie du travail du documentaliste est donc une lutte permanente (et perdue d’avance car l’entropie aura toujours le dernier mot !) contre le principe irréversible d’entropie ! (6)

Tant et si bien que l'on pourrait fort bien imaginer un intitulé de rubrique nouveau dans les projets documentaires des établissements scolaires. Remplacer le classique, ennuyeux et antédiluvien "gestion documentaire du fonds et de l'existant" par un novateur et plus adapté à notre troisième millénaire "lutte contre l'entropie informationnelle naturelle du système documentaire"! Cela aurait un certain style en effet...enfin, reste à convaincre le chef d'établissement lors du conseil d’administration et à ne pas passer pour un fou auprès de ses collègues!

Cet exemple amusant nous l'a bien fait sentir, cette conception de "l’information comme néguentropie" recèle des prolongements bien au-delà de la thermodynamique. Et, en effet, la triade "information, entropie, organisation"(7) a investi de nombreux domaines. Le naturaliste Théodore Monod dans son ouvrage Le hasard et la nécessité montre comment la vie et les processus vivants sont, comme l’information, de nature néguentropique. La complexité qui caractérise le vivant et les processus d’évolution sont la marque de systèmes hautement « informés ». Le propre du vivant est de transformer l’énergie en information. Lorsqu’une espèce disparaît et que la biodiversité diminue c’est donc de l’information qui disparaît et l’entropie qui, elle, augmente... Henri Atlan développe également ce thème dans L'organisation biologique et la théorie de l'information ainsi que dans Entre le cristal et la fumée.  Dans son célèbre ouvrage Tristes tropiques (8) Claude Levi-Strauss écrit: " Chaque parole échangée, chaque ligne imprimée établissent une communication au niveau qui se caractérisait autrefois par un écart d'information, donc une organisation plus grande. Plutôt qu'anthropologie, il faudrait écrire "entropologie" le nom d'une discipline vouée à étudier, dans ses manifestations les plus hautes, ce processus de désintégration...".

Pour conclure un petit peu abruptement, on pourrait résumer par une formule ce petit billet sur la notion d'information comme néguentropie: "Là où il y a de la vie et de l'organisation, il y a assurément de... l'information". A l'humanité de la préserver, aux scientifiques de la décoder et aux professionnels de l'information de la classer pour la rendre utilisable!

(1) En effet, si Shannon emploie lui aussi cette notion "d'entropie",  il le fait uniquement avec une signification  probabiliste mais sans établir un lien direct avec les sciences physiques et la thermodynamique comme le fait Léon Brillouin. (cf  Dion, Emmanuel, Invitation à la théorie de l'information, Seuil, coll. “Points Sciences”, 1997, p. 64 ) (2) Par exemple, le système documentaire d'un établissement scolaire géré par Julie alias "Saamarande", la célèbre gestionnaire “geek” de ce blog J. Mais nous allons y revenir par la suite! (3) Par définition, tout Système d’Information et de Documentation... avant l'arrivée de Julie ! J(re) (4) C'est de cette manière que L. Brillouin  solutionne le célèbre "paradoxe de Maxwell" et de son petit démon Maxie. La solution proposée par Léon Brillouin pour résoudre ce paradoxe établit un lien direct entre l'entropie au sens de la thermodynamique et la théorie de l'information. (cf. Dion, Emmanuel, Invitation à la théorie de l'information, Seuil, coll. “Points Sciences”, 1997, p.102-108.) (5) Nous reprenons la terminologie “Système d’Information et de Documentation” proposée par le rapport Durpaire Les politiques documentaires des établissements scolaire car elle est plus appropriée à l’analyse systémique appelée par les notions d’entropie et d’information. (6) Hubert Reeves dans L’heure de s’ennivrer (p.78) utilise, lui, l’exemple et l’analogie de la Ferrari (super organisée, super complexe et à l’entropie très faible) et du tas de féraille qu’elle peut devenir une fois à la casse (beaucoup moins organisée -  “forcément, elle va marcher beaucoup moins bien!”, comme le dit une célèbre réplique cinématographique! – et à l’entropie beaucoup plus élevée...) (7) Reeves, Hubert, L’heure de s’ennivrer, Seuil, coll. “Points Sciences”, 1986, p. 90. (8) Cité par Hubert Reeves dans L’heure de s’ennivrer, p. 70.

Bibliographie: Atlan, Henri, Entre le cristal et la fumée, Seuil, coll. “Points Sciences”, 1979 ; Atlan, Henri, L’Organisation biologique et la Théorie de l’information, Hermann, 1972 ; Brillouin, Léon, La science et la théorie de l’information, Paris, Masson, 1959; Dion, Emmanuel, Invitation à la théorie de l'information, Seuil, coll. “Points Sciences”, 1997; Reeves, Hubert, L’heure de s’ennivrer, Seuil, coll. “Points Sciences”, 1986 ; Parrochia, Daniel, Cosmologie de l’information, Hermès, 1994.