L’explicitation à l’heure des automates et l’enjeu de l’invention dans le cycle des données

by Christian on 5 janvier, 2014

La domination des langues mortes

Commençons par un topique, un lieu commun. “Software is eatig the world” : tout le monde connaît ce mot de Marc Andreessen.

Mais si ces nouveaux langages numériques dévorent le monde peut-être faudrait-il s’étonner que personne ne les parle. Ce sont des langues mortes si l’on s’en réfère à cette définition qu’une langue n’est vivante que pour autant qu’elle est parlée par des individus. On a ici à faire à des langues mortes qui instaurent leur domination sur le monde exclusivement par l’écrit.

A certains égards, les langages de programmation sont ce que Saussure appelle des langues construites, c’est à dire des langues qui ne sont pas naturelles ; des langues qui sont le fruit d’un consensus et d’une convention (l’exemple que donne Saussure est l’espéranto).

La domination du software comme langue morte, que personne ne parle, et qui n’existe que comme écriture par et pour les machines est donc notre actualité.

De l’explicitation

Cette écriture numérique par et pour les machines s’inscrit dans un processus d’explicitation qui a une généalogie et une histoire.

L’enjeu de l’explicitation dans le développement des techniques est un thème cher à Gilbert Simondon, qu’il aborde dans Du mode d’existence des objets techniques, notamment quand il évoque l’encyclopédie de Diderot et d’Alembert  qui est pour lui l’exemple d’une explicitation des modalités opératoires des métiers.

[En effet, avec l’Encyclopédie, les savoirs et les savoir-faire ne sont plus retenus au sein des corporations et peuvent se transmettre autrement que par compagnonnage. La figure de l’autodidacte peut également émerger ]

Dans la dernière partie de son cours de 1964 intitulé Imagination et Invention, Simondon revient sur cette question et écrit :

“Le recours à la représentation abstraite commence avec l’usage des animaux domestiques et prend sa pleine extension avec l’esclavage ou avec des formes du travail impliquant subordination, donc formulation de la tâche de manière univoque à travers un système d’ordres” p. 154

Dès lors, poursuit-il :

“Ordre et organisation, ordre donné et structure de l’exécution se trouvent être des formalisations de la tâche selon les exigences de la transmission d’information de celui qui sait et veut à celui qui exécute et obéit.” p. 154

Chacun aura compris que nous sommes dans des logiques d’obéissance à des instruction opérationnelles qui opèrent un transfert permettant le contrôle du comportement d’autrui, là où les logiques éducatives, elles,  prônent l’émancipation et l’autonomie.

L’explicitation à l’heure des automates

Toujours est-il qu’à l’heure des automates programmables, les enjeux de l’explicitation et de la formalisation des opérations vont se poser à nouveau frais, Simondon écrit :

“Un aspect de la formalisation des tâches aux fins de transmission des ordres s’est manifesté avec l’apparition des machines automatiques complexes capables de recevoir tous les ordres avant le début de l’opération, sous formes de données et de règles »

L’explicitation des opérations prend une nouvelle dimension puisque “il a fallu  réinventer logiquement et de manière explicite les activités pratiquée par l’homme selon des règles mi-implicites, mi-explicite”.

Qu’est ce que cela veut dire ?

Simondon donne l’exemple du jeu d’échec où,  après avoir explicité les règles pour que la machine puisse jouer aux échecs, on s’est rendu compte que la machine plaçait plusieurs pièces sur une même case : c’était une règle implicite, une évidence dirions-nous, mais qu’il a fallu rendre explicite (c’est pourquoi il peut être très douloureux et très fastidieux de formaliser les règles implicites).

“On pourrait dire que ce mode de formalisation est objectif, aussi indépendant que possible des références à un sujet ; il tend vers l’exécution des tâches par un opérateur impersonnel, non-humain ou même non -vivant” 157

 

Quand “Expliciter” c’est “exécuter”

Tout dernier stade de la grammatisation, l’écriture numérique offre de nouveaux enjeux à l’explicitation. Avec le numérique on atteint un stade où “expliciter” et “exécuter”  se rejoignent dans un contexte bien particulier qui est celui des opérations industrielles.

La puissance opérante de l’explicitation numérique se paye d’une contrepartie : il ne doit plus y avoir d’interprétation. En effet, dans le monde du code logiciel, toute possibilité d’interprétation est potentiellement une source de bug.

Explicitation des data

Mais, à l’explicitation des opérations fait écho une autre explicitation qui est celle des données. Cette dernière est l’enjeu des débats sur la sémantique des données, la normalisation des formats et des modèles de données.

Bien que distinctes, explicitation des opérations et explicitation des données sont intimement liées, car plus l’explicitation des opérations est forte, plus la pression sur l’explicitation non-équivoque des données est forte.

Software et dataware sont intimement liés.

Je n’ai pas ici parlé d’algorithmes car je crois qu’ il ne faut pas réduire le software aux algorithmes, comme on a tendance à le faire dans le monde académique et dans la recherche : seul le software opère.

Cela dit, si on en revient à l’articulation entre software et dataware, force est de constater que l’explicitation des data et la normalisation des formats de données, restent sous la coupe et sous la dépendance du software et – signe des temps – le groupe de travail du web Sémantique au W3C a dû récemment se restructurer et réorineter ses activités face au constat suivant :

Ici aussi donc, il faudrait dire “Software is eating dataware”.

Mais cette réorientation des activités dataware au sein du W3C garde toutefois une ligne directrice claire : à savoir que les enjeux du dataware se jouent dans le metadaware.

Récursivité et Circularité

De manière intrinsèque à l’évolution du web, les enjeux de l’explicitation se doublent d’un phénomène de récursivité et de mise en abîme au sens où les logiciels produisent des services qui vont permettre de collecter des données, données qui vont à leur tour être utilisées par de nouveaux services qui vont  eux-mêmes produire de nouvelles données et ainsi de suite.

On est loin de la simple explicitation des opérations et des données qui doivent être réalisées de façon massée et en amont des opérations : il y a à présent un tout un écosystème qui repose sur un cycle des données.

Récursivité et cycle des data menacent de nous faire tourner en rond et de nous enfermer dans des logiques de profilage, c’est pourquoi je pose la question suivante : y a t il une fatalité à ce que le cycle des données s’enferme dans un cercle vicieux ? Ne peut on pas espérer un cycle des data qui soit vertueux ?

C’est là que le recours à Simondon est précieux, notamment dans la manière dont il décrit ce qu’il appelle le cycle des images.

Je ne rentrerai pas dans le détail du cycle des images de Simondon, mais il faut retenir que, chez Simondon, ce qu’il appelle image est proche de ce Bergson appelle le Virtuel qui est ce à partir de quoi nous appréhendons, percevons et interprétons le réel.

Ce que je retiens du cycle des images que décrit Simondon, c’est que ce qui fait que ce cycle n’est pas un enfermement et l’éternel retour du même a un nom : c’est précisément l’invention.

Où est l’ invention dans le cycle des data ?

 Les automates à data apportent  avec eux une nouvelle contrainte et une nouvelle opportunité :

  • la contrainte, c’est leur défaut d’implicite dans la manière dont elles traitent les opérations ;

  • l’opportunité étant que, une fois formalisée et codée, cette explicitation non seulement opère, mais opère à l’échelle hyper-industrielle.

Auparavant, la tendance à l’explicitation telle qu’elle s’exprimait dans le monde académique au sens large mais aussi le monde industriel pré-digital, non seulement s’accommodait de l’implicite mais en plus en avait besoin comme condition de bon fonctionnement : l’implicite mettait de l’huile dans les rouages, si vous me permettez la métaphore.

Car l’implicite propose en effet des raccourcis : l’affordance, cette faculté de l’objet à induire son utilisation, de manière implicite,  représente un enjeu important d’adoption des technologies (il n’y a plus de manuel comme celui de l’Appele II, et les jeux vidéo n’ont plus de mode d’emploi) . Mais cet implicite qui fonde l’affordance n’en a pas moins fait l’objet d’une explicitation au préalable, c’est à dire d’un design et d’une conception.

Désormais nous devons donc expliciter pour les machines sous la contrainte “zéro défaut” c’est à dire “zéro implicite”, “zéro interprétation”.



Faire parler le déluge des données des BigData, c’est transformer leur implicite et leur potentiel signifiant dans de l’explicite, condition nécessaire pour rendre possible leur exploitation.

C’est là que se joue l’invention actuelle dans le cycle des données ; à savoir découvrir les fonctions et les règles implicites qui rendent commensurables et compatibles la disparité et l’hétérogéneité d’un volume de données dont la croissance est exponentielle.

Pas de rupture anthropologique pour autant, comme le prétend le Trans-Humanisme,  dans la mesure où il s’agit depuis toujours de faire parler des traces, de les interpréter : des premiers chasseurs hominidés qui suivent et interprètent la trace du gibier, puis aux oracles, astronomes, médecins, ingénieurs,  jusqu’à maintenant où les traces sont des data.

Dès lors,  reprenons notre question à nouveaux frais ; cette question est  : “comment faire que les normes d’automatisation ouvrent la possibilité essentielle d’un rapport avec le non-automatique ?” (pour ne pas tomber dans un cercle vicieux qui tourne, et nous fait tourner, en rond)

Le non-automatique c’est avant tout, dans le cadre de mon propos, l’implicite qui résiste à l’explicitation. Nos industries ont entamé une course à l’explicitation qui n’interroge plus l’implicite, pas plus que le complicite d’ailleurs, voire même qui le dévalorise jusqu’à croire que cela irait mieux si l’implicite et avec lui le non-automatique pouvait un jour être éradiqué. C’est une illusion.

Le calcul probabiliste et statistique appliqué aux BigData est l’instrument de cette volonté de combler le manque d’explicitation.

Pour autant, il ne s’agit pas de refuser l’utilisation des statistiques, notamment en prenant au mot ceux qui poussent des cris d’orfraie en affirmant que les statistiques appliquées aux  Big Data tuent la théorie et que l’on passerait d’un monde de la causalité à celui de la corrélation : balivernes.

Car qui dit “Causalité” dit “hypothèses qui font l’objet d’une critique”, or le lieu au monde où l’on fait le plus d’hypothèses c’est dans le traitement probabiliste et statistique des BigData. Ces hypothèses peuvent ne pas nous plaire, nous pouvons les juger toxiques, mais il n’en reste pas moins que l’activité qui est menée relève pleinement d’une activité scientifique et rationnelle.

Il faut faire des statistiques appliquées aux BigData, et de ce qu’elles produisent, un objet de réflexion à part entière pour y porter un regard critique.

Consensus et dissensus

Avant de revenir et de conclure sur le statut des statistiques dans le rôle inventif du cycle des data, il me faut auparavant faire une distinction entre deux façons de concevoir les logiques d’explicitation :

  • soit on explicite ce qui fait l’objet d’un consensus (par exemple un groupe de travail se réunit au W3C pour trouver un consensus afin de produire des recommandations de normes) ;

  • soit on explicite le dissensus lui-même.

Je tiens à dire tout de suite que les deux formes d’explicitation ne sont pas exclusives : il n’y a pas d’explicite sans implicite. L’explicite “pur” : c’est la mort.

Pour que le dissensus, le polémique mais aussi les commentaires et les interprétations puissent produire de l’invention et non du troll, de la mauvaise foi, de l’invective, de la digression, du bavardage et du spam, il faut – et l’heure est venue – que le monde académique au sens large s’empare de cette question de l’explicitation du dissensus afin que les automatismes des automates eux-mêmes soient mis à contribution pour dégager des lieux et des moments d’interprétation.

Là réside le caractère pharmacologique de l’invention, c’est à dire quand on utilise les automates pour nous armer contre la toxicité de ces mêmes automates : rejeter les automates, les algorithmes statistiques  et le software unilatéralement, sous prétexte qu’ils étouffent la nécessité d’un non-automatique, c’est en faire exclusivement des boucs émissaires et, du coup, s’interdire de penser que la solution aux dérives de l’automatisme réside dans l’automatisme lui-même.

Ce dont je parle, et qui fait l’objet des travaux de l’IRI, n’est pas exactement la même chose que ce dont parle Bruno Latour avec ses initiatives centrées sur la cartographie des polémiques. Il ne s’agit pas seulement de visualiser les polémiques, après coup si je puis dire, mais bien d’outiller et d’armer la critique dans ses modes d’actions eux mêmes.

Et si je dis la “critique” , c’est que j’entends que la critique d’aujourd’hui : c’est la pharmacologie. Et la pharmacologie n’est pas simplement le relativisme ou l’ambivalence de toute technologie comme le traduisent poliment ceux qui veulent garder leur distance avec la force de cette nouvelle forme de rationalité.

Cette approche existe déjà au sein de cette avant-garde que constitue le monde de l’open source logiciel, mais elle n’existe que pour l’écriture du code des logiciels avec les outils critiques d’écriture de code et de concurrent versionning tels que Git (et GitHub pour sa version sociale).

Le fossé est encore grand pour pouvoir appliquer ces démarches sur nos langues vivantes.

Une conviction

J’ai une conviction qui n’est pas très à la mode dans le monde de la critique : c’est que les outils statistiques et probabilistes peuvent relever de l’invention et proposer des thérapeutiques à l’heure des big data.

Ce n’est pas un hasard si mon propos s’appuie sur le cycle des images de Simondon et si je suis convaincu que l’approche probabiliste et statistique peut réellement devenir un outil d’invention car il ne faut pas oublier que l’image, nous dit Simondon :

“ est un échantillon de vie, mais elle reste partiellement abstraite à cause de l’aspect lacunaire et partiel de cet échantillon” p. 10

La manière par trop univoque et facile dont on dénonce l’usage des statistiques en argumentant que cela nous ferait passer d’un monde de la causalité rationnelle à la corrélation prédictive est trop réductrice.

D’une part elle est trop caricaturale dans la manière dont elle parle du traitement statistique des Big Data. D’autre part elle s’interdit chemin faisant de renverser le pharmakon.


Je ne peux m’empêcher de faire un parallèle avec la pensée politique du post-structuralisme (Foucault, Deleuze, Derrida), dans la manière dont elle a univoquement critiqué la puissance publique, la confondant avec l’état,  et cautionnant ainsi par avance le slogan de Reagan selon lequel :

“L’Etat n’est pas la solution à notre problème ; l’Etat est le problème.”

Et bien, de la même manière, on entend souvent  aujourd’hui : “les algorithmes statistiques ne sont pas la solution à notre problème, ils sont le problème”.

La vérité est que la question du traitement implicite des Big Data par les outils statistiques n’a pas encore sérieusement pénétré le monde académique, comme le disent Cathy O’Neil, Rachel Schutt dans leur ouvrage Doing Data Science :

 

“Much of the development of the field is happening in industry, not academia. That is, there are people with the job title data scientist in companies, but no professors of data science in academia. (Though this may be changing.)”


La réalité des Data Sciences dans le monde industriel, c’ est d’abord que c’est une activité transdisciplinaire ou travaillent ensemble, dans une même équipe, des psychologues, des sociologues, des philosophes avec des statisticiens, des mathématiciens, des développeurs informatique avec des experts métiers et sectoriels : là est l’innovation dans le cycle des data.

Print Friendly
Signaler sur Twitter

{ 3 comments… read them below or add one }

John Hemelryck janvier 5, 2014 à 3:19

Bonjour m. Fauré,

Je viens de lire votre article et visionner sur pharmakon.fr votre conférence sur les probabilités ce n’est pas vraiment le sujet exact ici mais à propos de l’interprétation des statistiques (fréquentistes), que pensait vous de la notion de propensions chez Karl Popper et sa tentative de donner du sens aux probabilités et point de vue ontologique : « être, c’est à la fois être l’actualisation d’une propension antérieur à devenir, et être une propension à devenir ». ?

En toute que connaissances que sa théorie falsifiabilité fut sujet à controverses (notamment avec Adorno (vu sur wikipédia….dont il n’y a aucune ref. à la propension)) et que son épistémologie évolutionniste ne doit pas être à votre goût (du mien non plus d’ailleurs).

Peut-il y avoir adéquation en perspective avec la question du quasi-transcendantale de B Stiegler, de la discrétisation du flux informationnel et de la métastabilité (chez Simondon) et même la question du sens dès l’énoncé chez Deleuze.

Merci et bonne continuation pour votre blog.

Répondre

Christian janvier 6, 2014 à 3:18

Je ne connais pas assez bien Karl Popper pour répondre à votre question.
Pour votre remarque sur le quasi-transcendental : il est clair que le terme, tel qu’il est utilisé par Stiegler, provient de Deleuze.

Répondre

John Hemelryck janvier 6, 2014 à 6:58

Merci d’avoir pris de votre temps pour répondre.

Je posais la question (confusément) sur Popper, que je ne connais pas bien non plus à vrai dire tant le champs des probabilités, bourré de paradoxes, devient très vite difficile, mais où il y a, à mon avis,un point de jonction entre philosophie, mathématiques et décision pratique dans une actualité où l’on subit en quelques sortes les probabilités (par exemple : le flux d’information par les médias et l’automatisation logicielle de notre société) et qu’elles ne nous « rendent » pas grand chose (je pense ici au médical aussi bien que les choix dans la vie de tout les jours) et d’éviter de se retrouver dans la position de l’âne de Buridan…

Popper a tenté étant donné le formalisme mathématique qui définit la notion de probabilité comment l’interpréter et lui donner du sens (je pense ici à Deleuze dans Logique du sens, avec le sens comme indépendant de la proposition). L’interprétation subjectiviste avec les degrés de croyances revient pour Popper à dénoncer notre ignorance des causes réelles d’un phénomène. Ici, Popper veut rompre avec la conception déterministe : probabalité nulle ou égale à un. Et l’interprétation fréquentiste ne fait qu’identifier la probabilité à la limite de la fréquence des événements dans des suites virtuelles.

Le terme « probable »est pour lui une conjecture métaphysique sur la nature puisqu’elle en partie contingente… on retombe ici sur Aristote et d’ailleurs Popper n’invente pas grand chose de neuf et mais englobent pas mal de conception où le relationnel n’est pas mis de côté.

Mais c’est sa notion de propension que je trouve intéressante en s’appuyant sur les propriétés des choses en particulière exemple le verre est fragile, les organismes ont une propension à l’autarcie donc une indépendance relative à l’environnement … Il y à dans cette conception quelque chose d’émergent et changeant avec le mouvement des organismes il parle de « biais systématique » des propension inhérentes à ceux-ci (à finalement rester statique par perte ou économie d’énergie) (déphasage et modulation chez Simondon)

J’arretes là mes grossiers parallèles avant que vous ne vous disiez : il avait 1 chance sur 10 puissance x de tomber sur un boulet en commentaires et c’est celui -là !!

Merci et bonne continuation !

Répondre

Leave a Comment

Previous post:

Next post: