070718 4 min

les infimes variations

Une révolution dans le web : en raison déroulement topologique conventionnel, la plupart des composants sont amenés à intégrer le Système.

En incorporant des fonctions originellement prévues pour traiter manuellement les "infimes variations" que rendaient le logiciel, l'idée aura été, tout simplement, d'incorporer ces options directement lors du traitement initial.

Pourquoi ne pas l'avoir fait plus tôt ?

Parce que les infimes variations n'ont été constatées que postérieurement à la création du logiciel, et c'est l'usage qui les a fait apparaître.

Les raisons de ces variations n'étant pas véritablement localisables, c'était à l'utilisateur de fignoler avec des outils de post-traitement.

Et aussi parce que la pureté du logiciel, son économie en complexité étant essentielle en raison des traitements récursifs : en effet la même fonction peut s'appeler elle-même deux cent fois avant de pouvoir se résoudre, et il ne faut pas faire craquer le processeur sans quoi aucun résultat n'est rendu, ni même ceux qui ont été traités avant que ça disjoncte.

Et enfin, sans comprendre l'origine des "infimes variations", il est difficile de savoir avec quoi encombrer le coeur du Système.

L'usage aura donc rapporté des nuances qu'il fallait bien, un jour ou l'autre, incorporer dans le traitement, afin d'obtenir un résultat conventionnel.

Ce qui est conventionnel en informatique est ce qu'il y a de plus merveilleux, luxueux au monde, c'est presque déique ; Une question, un traitement, un résultat, et une fiabilité de 100% par rapport à ce qu'on espérait obtenir.

Et souvent ce que l'utilisateur espère, (est ce qui est promis sur l'emballage) c'est que le rendu du logiciel soit conforme à une norme... et ce quelle que soit ce qui est donné à traiter, y compris n'importe quoi ou encore les choses les plus imprévisibles.

L'usage adopta un automatisme après le rendu pour pallier aux erreurs non prévues par le logiciel :
En se disant "Quand la source est untel, il faut toujours faire telle suite de post-traitement, c'est facile quand on a compris", l'utilisateur trouve une routine.

Intégrer cette routine au logiciel, consiste alors à adjoindre de nouvelles fonctions, une pour détecter les sources, d'autres lors de l'intégration des options à l'intérieur du logiciel, et une petite base de donnée qui renvoie la suite d'options de traitements à appliquer selon les sources.

Et comme ça, "de façon invisible" (selon l'expression coutumière) l'utilisateur ne sait même pas que d'infimes variations, qui demeurent inconnues par ailleurs, sont prises en compte dans le traitement logiciel, mais cela seulement en raison de ce que l'usage aura programmé comme couples de réglages.

Et là on est bien au coeur du psychisme de quelqu'un qui aurait adopté une expression toute faite comme vérité applicable indistinctement à toute chose, le traitement logiciel est parfaitement conforme en raison du fait que les réglages antérieurs ont été choisis de façon conventionnelle, culturelle.

C'est seulement avec la multitude qu'apparaissent de nouvelles erreurs, dues à d'infimes variations indétectables, auxquelles répondre par la méthode des "settings" (paramètres adjoints à des identités sans qu'il n'y ait de rapport logique entre eux, à part l'usage) et qu'on voit que ça conduit toujours fatalement à la même imperfection, qui fatalement devient de plus en plus encombrante. C'est exprès, c'est la nature.

Seule la science peut, dans une phase de tests théoriques sur des briques indépendantes, déterminer avec joie l'effet qu'on certains éléments, ou le contraire, les éléments qui sont à l'origine de certains effets, afin de déterminer avec précision quelle sous-fonction activer dans des cas qui, avant, étaient indistincts.

C'est en cela que tout composant finit toujours par intégrer le système.

_8119