Les standards du Web Sémantique comme thérapie contre l’opacité du système financier

by Christian on 11 octobre, 2008

Il me semble qu’il existe un consensus pour la refonte des règles du capitalisme financier et qu’un des aspects de ce consensus passe par une meilleure transparence des opérations financières et boursières. Cette transparence n’existe pas aujourd’hui ; comme le rappelait récemment Georges Ugeux (ma video de chevet en ce moment, dénichée par Johan), les données des transactions boursières sont tenus comme confidentielles : il faut qu’il y ait eu un soupçon pour qu’une enquête soit menée et qu’elle puisse éventuellement déboucher sur une publication. Dit autrement, le droit d’accès aux données de ces transactions financières est dans les mains des autorités politiques.

Le premier point à souligner est donc que la décision de rendre public les données relatives aux transactions sur les places de marché relève, et à toujours relevé, du politique. Aussi, avant même d’imaginer une pléthore de lois et de régulations des marchés financiers, qui seront de toute manière très rapidement contournées, la mise à disposition et l’ouverture des données reste la mesure la plus importante, la clé de voute, pour une démocratisation du fonctionnement du capitalisme financier.

Chacun doit pouvoir avoir accès aux données des transactions financières effectuées dans ce lieu public qu’est, comme son nom l’indique, la place de marché. Certes, aujourd’hui tout le monde peut y placer son argent, mais tout le monde ne dispose pas des mêmes informations et la transparence souhaitée se transforme rapidement en opacité dans certains milieux mafieux de la finance qui font tout maintenir des zones où la règle du jeu n’est pas la même pour tout le monde (les règles du crédit aux US, l’autorisation des banques d’affaire à ne pas se soumettre aux mêmes règles, les paradis fiscaux, les hedges funds qui ont refusé de s’inscrire à la SEC, etc.).

Même s’il y a un manque de régulation évident des marchés financiers, notamment soutenu par la politique des républicains aux US, il y a aussi, en plus, une opacité du système qui joue beaucoup plus que le manque de régulation. Car absence de régulation n’est pas exactement la même chose que qu’absence de transparence des marchés. Les bonnes intentions, tout comme les bons sentiments et même la législation ne seront d’aucune utilité dans un milieu qui génère de la complexité pour se cacher et agir en toute impunité. C’est l’accès même aux données sur les transactions qu’il faut ouvrir massivement.

Pour une grande place boursière, cela représente plusieurs milliards de transactions par jours. Qu’à cela ne tienne, il serait quand même étonnant qu’à une époque où les technologies de l’information font naître des craintes de surveillance et de pertes d’anonymat cette puissance de traçage ne puisse pas être utilisée pour assainir un système dont le seul génie est de se rendre chaque jour plus obscur et opaque.

Il y a un un standard du web qui permet de structurer des types de données comme les opérations boursières, c’est RDF. Il y a un langage puissant de requête qui permet d’interroger des entrepôts de données au format RDF, c’est SPARQL. Si ces technologies avait été implémentées nous aurions pu démasquer les pratiques de titrisation, nous pourrions savoir le rôle réel des hedges funds et leurs gains dans leur spéculation sur la crise des subprimes, nous serions capable de dire à chaque établissement quelle est la nature de son exposition à des titres pourris puisqu’il semble qu’aucune banque ne sait ce quelle fait et où elle met les pieds, les actionnaires d’EADS aurait été imédiatement informés que leur management vendait massivement leurs actions, etc.

Que les politiques exigent donc que chaque place boursière mette donc à disposition un end point SPARQL sur le web, chaque jour, avec les données des transactions de la veille et le rende public. Car nous ne voulons pas des services, des explications, des graphiques ou des prévisions car nous n’avons plus aucune confiance. Nous voulons les données, simplement des données aux normes du web sémantique pour pouvoir exercer nous-même, collectivement, notre rôle d’observateur et de régulateur.

Personnellement, j’aurais déjà quelques idées de requêtes SPARQL à lancer…

Print Friendly

This work, unless otherwise expressly stated, is licensed under a Creative Commons Attribution 3.0 France License.

Signaler sur Twitter

{ 15 comments… read them below or add one }

David, biologeek octobre 12, 2008 à 2:31

Le problème pour stocker des milliards de transactions (par jour !) en RDF c’est qu’il va falloir des triple store qui tiennent la charge derrière…

Mais sinon je te rejoins sur le fond.

Répondre

Got octobre 12, 2008 à 8:50

@David : cela ne pose pas de problèmes particuliers, les solutions apparaissent. La prochaine version de Virtuoso, par exemple, avec sa solution de cluster pourra traiter des milliards de triples sans problèmes (un milliard par instance et le nombre d’instances est illimité…) et Oracle ne devrait pas rester en reste. On devrait voir cela à ISWC. De notre côté, on a déjà monté une précédente version de Virtuoso à 2 milliards sans problème. De plus, si cela constitue la seule solution pour redonner confiance (nerf de la guerre dans ce milieu), vu les enjeux financiers, l’argent sera immédiatement mis à disposition pour la mettre en oeuvre.

Répondre

Aleph187b octobre 12, 2008 à 9:56

Je me garderais de me prononcer sur la technique, même si je me doute qu’elle relève de l’expérience de pensée à la Heisenberg. Mais l’asymétrie d’information est le pivot de la rente différencielle du capitalisme financier. Cela pose d’ailleurs de sérieuses questions sur le concept de « valeur ». Si l’on reste walrasien, comme toi apparemment, peut-on accepter que le procès de la valeur échappe en grande partie au marché, ce dernier étant compris comme place d’échange d’informations ? Et si c’était le mécanisme des théories usuelles de l’information qu’il fallait réformer, avant de s’occuper des conditions de l’échange ?

Répondre

Christian octobre 12, 2008 à 10:34

@ Aleph187b : la référence à Walras me plaît bien, surtout s’il s’agit des de délivrer des informations justes à l’ensemble des acteurs ; quoique je ne parle ici que des traces de ces transactions, et non d’une transparence en « temps-réel ».

Par contre je ne vois pas bien ce que tu entends par « mécanisme des théories usuelles de l’information » comme étant ce qu’il faudrait réformer.

Répondre

David, biologeek octobre 12, 2008 à 10:50

@Got : des milliards par jour ça fait un paquet de milliards au bout d’un mois et pas mal de serveurs au bout d’un an… Est-ce qu’il sera toujours possible de faire une requête qui traverse toutes ces grappes sans qu’elle prenne une journée ? :-)

Cela dit je suis d’accord avec toi, s’il y a des fonds débloqués pour ça on va tout de suite avoir une solution.

Répondre

Olivier G. octobre 12, 2008 à 11:34

@david : le CERN à bien trouvé des solutions pour gérer et sotcker et exploiter des milliards de bits par seconde…

Répondre

Christian octobre 12, 2008 à 11:50

@ Got, David, Olivier : c’est quand que vous mettez un gravatar ? C’est quand même agréable de voir vos tronches dans les commentaires :-)

Répondre

Bruno Paul octobre 12, 2008 à 12:39

Mon commentaire : ici

Répondre

Got octobre 12, 2008 à 3:09

@Christian : le jour où Gravatar sera basé sur FOAF ou que tu mettras en place un système basé sur FOAF, comme je l’avais fait sur la précédente version de mon blog ;-)

Répondre

Aleph187b octobre 12, 2008 à 5:51

@Christian : Je reconnais avoir formulé cela à l’emporte-pièce (au retour du marché avec un petit « m » et quelques salades). Il faudrait y travailler. Mais ce que je voulais dire, c’est que la forme simpliste du concept d’information et de sa circulation/réception selon la cybernétique a été un magnifique accompagnement de la théorie de l’équilibre walrasien, et donc des perspectives libérales sur le marché et la concurrence pure et parfaite. Or, mon constat, dans cette crise, c’est que ce qu’on appelle habituellement « les marchés » (transaction ouverte de valeurs, échanges non confidentiels d’informations comme clause initiale de l’achat et de la vente) ont été largement contournés par des flux de capitaux dépassant de très très loin les options prises sur les marchés eux-mêmes. Donc, ça se passe, ça s’est passé dans un « en dehors » ou « en deçà » du marché. Il serait absurde de dire que cela falsifie la théorie de l’information. Mais j’émets simplement des doutes sur la corrélation libérale du procès de valeur et de la transparence de l’information. Pourquoi donc ne pas se demander, au-delà du questionnement sur la rationalité des acteurs économiques (Boudon, théorie de l’agence, etc.), s’il n’y a pas un meilleur modèle que celui de la cybernétique pour penser l’information et la communication entre les firmes? Je trouve que c’est ce que les médias évacuent trop facilement en invoquant la (nécessaire selon eux) « régulation » des marchés. On a envie de dire, non, c’est pas là que « ça » se passe…

Répondre

Christian octobre 12, 2008 à 6:43

@ Aleph 187b : Il y a des organisations, celles que je qualifie de mafieuses, qui agissent « sur » le marché sans être pour autant « dans » le marché (ie. se pliant à ses règles).
Il est évident que « ne pas jouer la règle du jeu » est toujours la solution la plus facile pour tirer profit de la situation.

La transparence outillée par les technos du web sémantique que je propose n’a d’autre but que de déléguer à chacun un pouvoir de surveillance, et ramener ainsi les acteurs dans le respect de la règle du jeu.
Concernant la cybernétique, je ne crois pas que l’information et la communication entre les firmes soient à ce point sous l’hégémonie du paradigme cybernétique. Qu’il y ait un paradigme informationnel oui (c’est une évidence), mais cybernétique peut-être pas (en tout cas pas encore).

Répondre

Charles Nepote octobre 13, 2008 à 2:01

Gravateur et FOAF : Got Président !

Répondre

Etienne octobre 16, 2008 à 8:29

Effectivement le stockage a un coup, et les requêtes plus encore. Donc celles-ci seront payantes et non accessible à chacun.

En plus, je n’ose imaginer ce que des beaucoup d’informaticiens pourraient faire en utilisant de l’algorithmie classique pour calculer l’évolution des cours. (d’ailleurs des robots de se genre existent déjà, mais ils se limitent à un nombre donné d’indice et non pas accès à la totalité des transactions).

Répondre

Alex. octobre 22, 2008 à 12:23

Je viens de découvrir ça au TPAC, ça devrait t’intéresser Christian

http://people.w3.org/~dsr/blog/?p=21

Répondre

Christian octobre 22, 2008 à 2:31

En fait on y travaille déjà, j’ai mis gautier sur le coup ;-)

Répondre

Leave a Comment

{ 1 trackback }

Previous post:

Next post: