De l’intégration des données
Une petite excursion dans les enjeux de l’intégration des données dans les systèmes distribuées à l’heure de la digitalisation.
APICulture et DataCulture à la lumière du facteur temps
Lors de la conférence APIdays qui s’est tenue les 3 et 4 décembre 2012 (merci à faberNovel et Webshell), j’ai profité de mon intervention pour revenir sur la distinction entre OpenAPI et OpenData, entre APIculture et DataCulture.
J’ai rappelé que les deux approches s’inscrivaient toutes deux dans une logique de publication “pour les machines” et que donc l’enjeu commun passe par la publication d’un catalogue.
Le catalogue est l’interface. more »
Navigation et requêtage dans le web de données
Le visage d’un web des données n’est pas le même selon qu’on le conçoit dans une logique de navigation ou de requêtage.
Dans une logique de navigation il y a une prédominance de la notion parcours, de trajet, de cheminement, etc..
Dans une logique de requêtage il y a une prédominance de l’action a distance. Contrairement à la navigation qui nous embarque au coeur du web de données, la requête agit à distance.
[Le bateau pour la navigation, le boomerang pour la requête] more »
DataCulture et ApiCulture
Pour tous ceux qui, comme moi-même, on fait l’apologie des données, de leur ouverture, de leur modèle et de leur format, le curseur a donc toujours été placé sur le primat des données, ce qui se traduit par des expressions du type « Data Driven … », « Ressources Oriented … », « Web of Data », « LinkedData, etc.
Dans cette vision et ce soin tout particulier apporté aux données – que j’appelle Dataware – c’est une forme d’autonomisation de la gestion des données qui est prônée, et qui conduit à utiliser tout un spectre sémantique de la “libération des données”. Il fallait, et il faut toujours, libérer les données des bases de données relationnelles, libérer les données des logiciels qui encapsulent la sémantique des données , etc.
La Data seront libérées si et seulement si elles sont autonomes au sens sémantique du terme, c’est à dire auto-descriptives via les liens typés qu’elles tissent entre elles. Il y a un fond « encyclopédique », au sens simondonien, dans cette démarche.
Dans ce contexte, l’apparition des API à été vécu à la fois comme la preuve de l’importance des données (mieux exposées grâce aux APIs on pouvait faire des mashups ) mais, en même temps, cette étape des API devait être transitoire jusqu’à la libération complète des données car, continuer à parler d’interface, c’était admettre qu’on était toujours contraints dans l’accès aux données (voir ma note sur les données mises à nue). Seulement voilà, non seulement les APIs sont restées mais en plus elles ont une croissance exponentielle. more »
Pull, Push et les data
Un transfert de données de type PULL produit une distribution spatiale des données.
Un transfert de données de type PUSH produit une distribution temporelle des données.
Pour les plus courageux, une vidéo qui met en pratique cette question à partir d’une explication sur ce qu’est une base de données (vous pouvez passer le côté loufoque des premières minutes)
Le hardware n’est pas l’infrastructure
Si l’on applique la distinction marxienne entre Infrastructure et Superstructure au couple Hardware et Software, il pourra sembler évident que l’infrastructure correspond au hardware et la superstructure au software. Or Pierre Veltz, lors d’un séminaire organisé ce jour par Ars Industrialis à Nantes, a fait une remarque tout à fait juste qui m’a fait reconsidérer cette pseudo évidence.
Il se trouve que le Software est effectivement devenu l’Infrastructure et le Hardware la Superstructure : il est en effet très facile de changer de machine ou de serveur, c’est à dire de hardware, beaucoup moins de software. Nos problèmes d’adhérence et de dépendance sont avant tout des problèmes logiciels et non matériels.
Avec l’industrie du numérique le Soft est devenu le Hard, le software c’est l’infrastructure. La tendance va-t-elle faire apparaître que l’infrastructure n’est plus le software (première stupeur) mais les data (deuxième stupeur) ?
Défaut: Cultural Analytics Dataware Digital Studies Graphique Sémiologie
by Christian
2 comments
Digital Studies (2) : Cultural Analytics
Après les Digital Humanities, j’aborde à présent les “Cultural Analytics” comme autre champ des Digital Studies.
[L’objet des Cultural Analytics selon la nature, le format, et l’origine des oeuvres]
Si les Digital Humanities sont le fruit de la rencontre entre le traitement automatique des langues — rendu possible par l’informatique — avec les textes classiques de la tradition occidentale, les Cultural Analytics, elles, bien que reprenant le principe majeur des Digital Studies qui consiste dynamiser une discipline par son couplage avec l’informatique, débordent largement du cadre initial instauré par les Digital Humanities. Et cela pour au moins trois raisons :
- Ce ne sont plus seulement des oeuvres textuelles et classiques qui sont ici considérées, mais des oeuvres multi-médias et contemporaines.
- De plus, il y a une prévalence non plus d’une oeuvre (ou un corpus relativement délimité d’oeuvres) mais d’une multitude d’oeuvres au travers de leur production, diffusion, accès, consultation et consommation. Ce qui met en avant la dimension réticulaire du milieu technologique dans lequel les oeuvres dites « culturelles » sont étudiées.
- Enfin, il y a un éclatement de la notion d’oeuvre en ce sens que l’oeuvre devient le produit de l’agrégation des données et de leur mise en forme. Les data sont la matière première numérique, d’une nouvelle approche du culturel.