Google ne sait rien sur moi

by Christian on 1 novembre, 2013

Confidentialité & traitement algorithmique.

Dans les débats sur la confidentialité à l’heure du digital, on peut souvent entendre des phrases du genre :

« [Google | Amazon | Facebook | Apple ] en sait plus sur vous que vous-même ».

Il me semble que ce genre de propos est incorrect : Google, que je prendrai pour exemple, ne sait rien sur moi.

Car de qui parle-t-on quand on  dit que Google « sait » quelque chose sur moi ? Y a t il quelqu’un chez Google regarde ce que je fais ? Non.

Quand je recherche « Voyage en Corse » dans le moteur de recherche puis que je clique sur une pub contextuelle d’une agence de voyage pour acheter un séjour en Corse et que je fais effectivement ce voyage, personne ne sait chez Google que j’ai fait ce voyage : il n’y a pas quelqu’un chez Google qui s’est dit :

« Tiens , tiens, que va-t-il faire en Corse ? »

Personne ne me connaît chez Google : je n’interagit qu’avec des automates algorithmiques qui traitent mes requêtes et exploitent mes données sans qu’aucune conscience individuelle ne m’observe.

En ce sens, la confidentialité de mes données n’a pas été trahie tant qu’elle ne fait qu’être traitée par des automates qui ne modifient pas le statut “non-public” de mes données.

Par contre, quand les automates de Google utilisent mes données et mon profil  pour recommander publiquement des produits ou des services, il y a alors publication ( au sens de rendu public) de mes informations personnelles, et cela constitue une violation du statut de confidentialité.

Il n’y a donc pas de problème de confidentialité tant que mes données sont traitées pour et par des automates algorithmiques. Dans la chaîne de traitement, il n’y a pas de problème tant qu’il n’y a pas de publication qui permette à un individu (“amis” ou pas) de voir ce qui s’est passé dans mon intimité avec les algorithmes de Google .

Je suis tout à fait d’accord que la collecte des données personnelles et les politiques de confidentialité posent d’énormes problèmes, et c’est la raison pour laquelle il faut être précis en évitant d’alimenter le débat avec des arguments du type « Google sait tout » ; ce sont des raccourcis trompeurs car Google ne sait rien sur moi, Google ne me connaît pas.

Mais si les GAFA ne savent rien sur moi et ne me connaissent pas, en revanche, l’accumulation de mes données personnelles manipulées par ces automates créée un potentiel de perte de confidentialité énorme, à l’occasion d’une fuite, d’un espionnage, un bug, …. Cette accumulation rétentionnelle devient alors une bombe virtuelle qui est proportionnelle au volume de données et à leur durée de rétention par les automates.

Print Friendly
Signaler sur Twitter

{ 18 comments… read them below or add one }

Pascal novembre 1, 2013 à 4:45

Potentiellement explosive effectivement cette rétention de données algorithmique par Google. .. et consort qui constituent l’infrastructure par où transitent nos données … de plus en plus nombreuses à mesure que les procédures sont numérisées …

A terme, tout à notre sujet sera sur la Toile. Et techniquement consultable via un simple identifiant unique genre numéro sécurité sociale pour les services compétents, genre NSA. Avec possibilité de remonter le cours de notre existence à la mesure des capacités croissantes d’archivage. Au-delà de ce que nous sommes nous mêmes en mesure de faire.

Nul ne peut présumer de ce que sera l’état de la géopolitique mondiale demain. Que pourra faire un tyran au pouvoir dans deux ou trois décennies ??

La même question se pose bien que différemment avec le nucléaire : aujourd’hui nous sommes (à peu près) en capacité de les maintenir. Mais rien ne dit que cela sera toujours le cas dans dix vingt ou trente ans ! Idem a fortiori pour les déchets !

A mesure que le temps passe, plus il apparait que le pas exponentiel du développement de la technique accroit l’empire du technologique sur notre société, comme prise dans un concasseur : ce qui pose bel et bien un très sérieux et assez vertigineux problème métaphysique …

Répondre

Thierry novembre 1, 2013 à 9:08

Oui le problème n’est pas que nous n’ayons rien, en nous même à nous reprocher, le problème est ce que les autres nous reproche ou nous reprocherons, ou chercherons à nous reprocher un jour ; un recoupement de nos multiples traces font émerger une quantité d’informations qui elles sont réellement personnelles et privées et suivant l’intention du moment elles peuvent êtres traitées et interprétées ou pré-interprétées par des individus-algorithmique qui vivent aujourd’hui un temps calme mais le « demain virtuel » est imaginable, on pourrais dire aussi que nous sommes tous virtuellement reprochables ou bien tous potentiellement heureux.

Répondre

Hubert Guillaud novembre 4, 2013 à 10:10

Je ne te suis pas du tout Christian. J’ai l’impression que ton billet est très rhétorique… Mais qu’il n’aide pas beaucoup.

Faut-il qu’il y ait une « conscience individuelle » qui nous surveille pour être effectivement surveillé ? On peut peupler nos rues de caméras de surveillance sans aucun soucis alors ! On peut même faire tourner des logiciels de reconnaissance faciale qui nous reconnaîtrons et tisserons la carte de nos mouvements sans inquiétude si personne d’autres que des algorithmes ne les regarde ? On peut programmer des drones pour abattre des gens que les modèles d’activités auront signalés comme anormaux… Nous sommes capables de créer une chaîne de traitement de la surveillance sans humains, cela ne signifiera pas que nous ne sommes pas surveillés !

Faut-il qu’il y ait « publication » pour qu’il y ait violation du statut de confidentialité ? D’abord, il faudrait qu’il y ait eut un statut de confidentialité clair, ce qui ne me semble pas du tout le cas. Enfin, le problème ne me semble pas du tout lié à la publication ou non d’information, mais se pose en tant que choix de société. Comme disait Latour, il nous faut repolitiser le monde : http://www.slate.fr/tribune/79240/interview-bruno-latour-gouvernance-mondiale-uzbec Il n’y a aucune raison scientifique de refuser la surveillance (même si elle fonctionne assez mal finalement), son refus est politique.

Mais bon, j’ai tendance à croire que ce commentaire devrait plutôt renforcer tes convictions que le contraire. Néanmoins, je ne te suis pas sur ce terrain, ou alors j’ai mal compris le sens de ta démonstration…

Répondre

Christian novembre 5, 2013 à 9:25

Merci de ton commentaire cher Hubert,

Je crois que c’est très simple : tu parles de surveillance là où je parle de confidentialité. J’essaye d’apporter des distinctions qui permettent d’être précis (et non pas de faire de la rhétorique) et tu arrives avec tes gros sabots en me parlant des drones tueurs.

De plus, tu dis que la question n’est pas la publication puis tu me parles de Latour dont tout le travail consiste précisément à mettre en place des dispositifs pour tracer les polémiques et les rendre publiques !

Non seulement ton commentaire ne me fait pas changer d’avis mais en plus il me renforce dans la conviction qu’il faut continuer à être précis, quitte à passer pour le-rhéteur-qui-ne-voit-pas-le danger-qui-vient.

Donc, quand j’écris « confidentialité » ce n’est pas « surveillance » ; je veux bien que l’on discute du rapport entre les deux pour aller plus loin mais il ne faut pas tout confondre dès le début sinon on va se fâcher 🙂

Répondre

Pascal novembre 5, 2013 à 3:11

Christian, il me semble que dans votre réponse vous faites assaut de subtilités propre à embrouiller le débat et à semer la confusion dans les esprits !

Au finale la frontière est bien ténue entre confidentialité et surveillance. Et arguer du fait que personne chez « Google » ne sait rien sur nous n’annule pas le fait que « Google » sait de plus en plus de choses sur nous.

Il sait au sens de l’intelligence artificielle qui n’est que le prolongement de l’intelligence de ses concepteurs. Ce que sait « Google » est entièrement offert à la connaissance de quiconque a ou aurait le pouvoir de disposer de ces données. Et les restrictions législatives en place aujourd’hui ne présagent aucunement de ce qui pourrait se advenir demain ou après-demain.

Ce ne sont pas les pratiques révélées de la NSA qui devraient apaiser nos inquiétudes sur ce point.

A ce stade de l’évolution accélérée de notre environnement planétaire, j’en arrive à la conclusion que l’analyse pharmacologique développée par Ars Industruialis quant à la prévalence croissante de la technologie, que je suis pas à pas depuis 2007 via les sites, devrait elle-même se soumesettre à une auto-analyse du même type, au sens où elle peut être regardée elle-même comme un pharmakon … politiquement parlant ! Et donc se voir appliquer la même grille d’observation que celle qu’elle applique à son objet premier.

Car actuellement on se trouve acculé dans une impasse par le raisonnement qui consiste à zapper une partie du débat après avoir posé comme inéluctable l’avènement d’une société numérique, voire numérisée, au motif qu’elle serait déjà là.

Ce parti pris dans l’analyse exerce une violence à l’intérieur du champ politique en empêchant qu’ait lieu un débat qui n’a jamais eu lieu démocratiquement sur ce que nous fait la technologie. Ou plus exactement, en rétrécissant le domaine du débat à un périmètre d’où certaines questions ont été exclues, reléguées qu’elles sont en zone interdite.

Le tout au motif qu’il y aurait urgence ! Ce qui ressemble fort à un de ces cas de figure évoqués par Naomie Klein dans son « Stratégie du choc » où elle explique que les situations extrêmes sont méthodiquement exploitées par les dirigeants pour imposer certaines mesure en court-circuitant et paralysant et au final interdisant le débat, nécessité semble devoir faire loi !

Un profond malaise résulte de cette posture puisqu’elle consiste en quelque sorte à prendre le débat démocratique en otage avec ici un pistolet technologique sur la tempe, un couteau lepéniste sous la gorge et une épée de Damoclès au-dessus de la tête …

Pour attaché que je sois aux travaux menés par Ars Industrialis, j’aurais tendance à considérer désormais qu’un angle mort, un point aveugle de cette approche apparait, qui demande à être interrogé selon ses propres modalités d’analyse. Ceci dans l’otptique démocratique cardinale évoquée par Hubert Guillaud en référence à l’entretien avec Bruno Latour où celui-ci pose plutôt bien le rapport du politique à la science et à l’expert.

Quelqu’en soit l’issue, une discussion poussée sous la forme d’un inventaire exhaustif devrait pouvoir se produire aux fins de permettre un état des lieux aussi complet que possible sur « ce que nous a fait, nous fait et pourrait nous faire la technologie en son développement incontrôlable ».

Et ceci le plus démocratiquement possible. Ce qui implique de ne pas se résigner sans autre forme de débat au diktat d’un paradigme technologique prétendument irréversible, sans même pouvoir interroger celui-ci sans tabou.

Au XXIe siècle, à l’heure de la communication tous azimuts, l’humanité a un droit de savoir ce qui lui arrive et pourquoi cela lui arrive !

Une telle connaissance constitue une donnée essentielle susceptible d’influencer significativement le procès pharmacologique. Et permettre de l’infléchir de manière décisive. Et là pour ce que j’en sais, il me semble tout aussi urgent et souhaitable de renouer avec Heidegger pour faire oeuvre de dévoilement … des enjeux gigantesques et (surtout) pour mieux les maitriser et en affecter le cours ainsi que la définition en identifiant les différents ressorts anthropologiques sous-jacents par lesquels ces enjeux sont sous-tendus et déterminés. Le tout pouvant entrer dans le cadre d’une indispensable démarche démocratique anthropoléthique.

Répondre

olivier L novembre 5, 2013 à 3:15

sous-entendu des robots et les algorithmes qui les pilotent pourraient être garants de confidentialité !
La surveillance est une intrusion dans la « privacy » donc une rupture de la confidentialité qu’a souhaité l’individu. Tu ne peux pas, en particulier en ce qui concerne les algorithmes , ecrits par des salaries de Google, segmenter et les distinguer. Ton approche me semble amener plus de confusion que d’éclaircissements ;-(

Envoyé de mon iPad

Répondre

Hubert Guillaud novembre 6, 2013 à 8:52

Bon, alors j’avais effectivement rien compris avec mes sabots. Mais quand je comprends pas, j’ai la mauvaise habitude de persévérer…

Mais si la confidentialité est « le fait de s’assurer que l’information n’est seulement accessible qu’à ceux dont l’accès est autorisé » toute la question n’est pas seulement dans la publication, mais d’abord dans l’autorisation. Or qui autorise-t-on à voir nos données quand nous utilisons un service ? Quand nous utilisons un moteur, est-ce que nous autorisons le service à voir ce que nous y cherchons et à conserver ces données ? Est-ce que nous autorisons, la NSA ou Criteo, a récupérer les données que nous confions à Google ?

Enfin, quid de la publication par Google de publicité liées à nos requêtes ? Les algorithmes publient bien automatiquement une information lié aux mots mêmes que nous venons de taper… qui constitue une violation du statut de confidentialité. Les algorithmes ont pour fonction d’utiliser les données qui leur sont confiées pour les publier immédiatement… D’abord en nous les renvoyant traités. Je cherche vacances en Corse et j’ai une pub pour XXX. Et ce traitement même envoi des informations à la régie et à d’autres annonceurs… Pas nature, le traitement me semble donc nier toute confidentialité.

Répondre

Christian novembre 6, 2013 à 10:00

Bien d’accord avec tout ce que tu évoques ; mais tout cela se fait sans que Google sache quoi que ce soit sur moi : Google ne sait rien sur moi.
D’ailleurs quand on signe un contrat avec Google (pour les entreprises), leurs juristes prennent bien soin de préciser ce point, à savoir que seuls des automates manipulent les données et que *donc* Google ne sait rien sur ses utilisateurs.
Ma note ne dénigre pas toutes les conséquences qui ont été mises en avant dans les commentaires, elle se termine même en disant que cette confidentialité algorithmique devient une bombe virtuelle qu’une moindre étincelle peut faire exploser.

Je me rends compte que proposer des distinctions et des précisions provoque souvent des réactions de rejet : on dit que je fais de la rhétorique, que j’encule les mouches, que j’amène plus de confusion qu’autre chose, etc. C’est toujours douloureux de revisiter ses plans de classement surtout quand çà nous sort de notre champs de confort manichéen de militant (et c’est valable pour moi-même).

Répondre

Christian novembre 6, 2013 à 10:02

@ Pascal qui a écrit : « Christian, il me semble que dans votre réponse vous faites assaut de subtilités propre à embrouiller le débat et à semer la confusion dans les esprits !  »
Merci pour le compliment car c’était exactement ce que disaient les interlocuteurs de Socrate 🙂

Répondre

Hubert Guillaud novembre 6, 2013 à 10:31

Non, le rejet pour ma part, est lié au fait de n’avoir pas compris, pas à la distinction en elle-même, que je cherche à mieux comprendre – et voir surtout ce qu’elle apporte.

En même temps, quand tu dis que « des automates manipulent les données et que *donc* Google ne sait rien sur ses utilisateurs », tu sembles dire que « Google » est autre chose que des automates… Est-ce vraiment le cas ? J’ai l’impression que cette confidentialité de principe n’est que de principe. Les gens de Google ne regardent pas mes données, pas plus que les gens de Criteo qui les reçoivent. Mais leurs algorithmes traitent des données censées être « confidentielles » et les transforment pour les publiciser auprès d’autres algorithmes. Cette publicisation masquée n’est-elle pas déjà une confidentialité brisée ?

Répondre

Hubert Guillaud novembre 6, 2013 à 10:32

Dit autrement, qui est le Google dont tu parles ?

Répondre

Christian novembre 6, 2013 à 11:03

Voilà, je crois qu’on y est.
*Qui* est Google ? Et Google, est-ce autre chose que des automates ?

Comme ma réponse va être trop à l’étroit dans les commentaires je vais en faire une note qui repartira de ta question : « Qui est le Google dont tu parles ?  » (ie. celui qui te permet de dire qu’il ne sait rien sur toi)

Répondre

Pascal novembre 6, 2013 à 2:45

Christian, je n’y voyais pas une intention de votre part, mais une résultante indirecte aux implications malencontreuses d’un certain point de vue. Ceci étant dit je me félicite que ce soit là le seul point de mon commentaire citoyen ayant suscité une réserve de votre part. J’en déduis que vous acquiescez au reste … 😉

Répondre

Christian novembre 6, 2013 à 3:32

Votre commentaire cher Pascal, je le mets en réserve car j’y reviendrai, et notamment sur la question de Heidegger.
Comme s’était du lourd, il faut que je le digère. Mais ma réponse à Hubert sera aussi une réponse à votre adresse. 🙂

Répondre

Frédéric novembre 7, 2013 à 5:09

Bonjour,

A propos de « Qui est Google ? », je me permets de vous soumettre ce lien vers le billet d’un ingénieur Google, qui a travaillé dans l’équipe sécurité, et plus spécifiquement sur le système anti-hacking qui a été sniffé par la NSA :

https://plus.google.com/app/basic/stream/z124x11hspmjhdmno22kxxsonpe3dnelg

Plusieurs remarques :

– En ce qui me concerne, c’est la première fois que je lis un article sur Google+ (vraiment ! j’en suis le premier surpris ! 😀 )

– Cet ingénieur et son collègue se sentent clairement trahis par le gouvernement américain. Leur point de vue est que l’administration a agi illégalement, en s’introduisant frauduleusement dans le système informatique, dont ils avaient la sécurité en charge. Ils le vivent comme si c’était un coup bas qui avait été porté. Cela rejoint l’indignation de Larry Page à propos de Prism en juin dernier. La confidentialité est un sujet pris très au sérieux chez Google.

– Ce que je n’avais pas compris, c’est que la NSA a sniffé des fibres optiques appartenant à Google, et dont l’usage était strictement interne à Google, pour des transferts en clair de centre de données à centre de données. La propriété privée a été violée par la puissance publique. Je croyais que la NSA avait sniffé des fibres optiques mutualisées. Et utiliser des tuyaux dédiés n’a pas mis Google à l’abri.

– Je suis surpris par la liberté de ton employée par un salarié Google, sur un sujet aussi sensible. De plus le billet est hébergé sur Google+. Le débat qui s’ensuit est tracée de façon nominative (voir lien en haut à gauche « Activités liées aux posts »). Le débat est contradictoire et argumenté

– J’aime bien l’esprit constructif qui règne dans le débat. Les méninges tournent pour trouver une parade.

– J’aime bien un des arguments avancé dans les commentaires par l’auteur même de l’article : « Ad-funded services are actually a good thing from a privacy perspective! A lot of people and media commentators don’t realise this. The alternative to advertising is direct payment by end users for a service. Unfortunately, there are no ways to pay someone for something online anonymously. The closest is Bitcoin but it’s still very young and immature, most people can’t use it. So if the dominant paradigm for Google services was that you paid for them, you’d pay for them with a credit card and then anonymous accounts would be impossible, we’d always know exactly who you were. »

C’est une belle défense du modèle d’affaire publicitaire : grâce à lui, Google peut nous fournir gratuitement un service, sans qu’il y ait obligation de lier le compte à une CB authentifiée s’il fallait acheter le service.

Néanmoins, pour des raisons de sécurité et même si ce n’est pas obligatoire, Google fait oeuvre de pédagogie, en incitant régulièrement l’utilisateur à s’authentifier (code SMS envoyé sur mobile, ou numéro de CB pour accéder à Google Play, afin de lier un compte à un identifiant « physique »). « Pour être en sécurité, mieux vaut assumer qui l’on est » semble nous dire la politique de sécurité de Google. Et puis sinon, autant créer un deuxième compte gmail et surfer en navigation privée.

– J’aime bien le contre-argument déployé un peu plus loin :

« It’s possible to use a 3rd-party payment processor to handle transactions so that Google never holds credit card data associated with a particular person. All Google would know is that you logged in, sent some CC details to a processor, and the processor confirmed the transaction. Then Google increments the amount of time you’re entitled to their service. If there are logs, they can be disabled. The incrementing can take place a non-determinate amount of time after payment. Etc., etc.

In the US at least, you can go into a convenience store, buy an AMEX gift card in cash, and use it online. Boom. Problem solved. And bitcoin isn’t as hard as it is made out to be. »

Pas mal, cette idée de revenir à la monnaie anonyme (le bon vieux billet de banque), en s’appuyant tout simplement sur des cartes prépayées, de type carte cadeau. Ca parait plus simple que Bitcoin

Mais la discussion dérape, le problème évoqué ici étant la préservation de l’anonymat et non l’assurance d’une confidentialité préservée en toute circonstance. On en revient à la nécessité de distinguer précisément les notions évoquées chère à Christian Fauré 🙂

Or le problème reste : comment être sûr que l’altérité en charge de la confidentialité de mes communications et données, en prendra soin comme si c’était les siennes propres ?

Mieux vaut bien choisir son prestataire.

Un autre possible serait d’héberger un serveur de mails et de fichiers sur un serveur dédié, et de l’administrer soi-même, mettre en place un système PGP obligatoire et bien contraignant ergonomiquement. Mais où se trouvera l’équipe sécurité compétente pour veiller dessus ? Est-on prêt à se passer des fonctionnalités, que procure le stockage en clair des données côté serveur, comme la recherche dans les mails ?

Pour revenir à « Qui est Google ? », et bien cet article et son débat contradictoire attenant montrent un visage bien insolite, cassant la représentation que j’avais pu me faire ces derniers jours en lisant les commentateurs ici ou là :

Google serait peuplé de gardiens du temple de la Confidentialité, des consciences individuelles sérieusement armées pour lutter contre la Surveillance, et apprenant de leurs erreurs.

De ça, je n’y aurai plus cru 🙂

Je termine par la citation de l’autre ingénieur en sécurité travaillant chez Google et cité dans l’article :

« The US has to be better than this; but I guess in the interim, that security job is looking a lot more like a Sisyphus thing than ever.  »
https://plus.google.com/108799184931623330498/posts/SfYy8xbDWGG

Finalement aujourd’hui, je choisis de confier le rocher sécuritaire de ma vie numérique à d’autres ingénieurs, car je me reconnais bien incapable de le pousser moi-même (êtes-vous équipés d’outils pour déjouer une attaque par déni de service menée par une armée de machines ? 🙂 ).

Si l’intrusion de l’administration américaine est la dernière menace qui plane sur la confidentialité des données hébergées chez Google, et que l’entreprise Google décide de mettre toute son intelligence et tout son poids pour régler le problème, c’est le meilleur choix.

Et puis, j’aime bien leur état d’être. 🙂

Répondre

Marc Jahjah novembre 25, 2013 à 2:16

De mon côté (mais on ne va pas non plus faire l’exégèse de ce billet, hein ;-), plutôt vu les distinctions de Christian, que tiennent d’ailleurs les chercheurs en SIC (Jeanneret, etc.), comme une invitation à la mesure dans les prises de position.

À mon sens, la question posée est celle de la valeur des traces d’usage. Si, en effet, on reste du côté de l’usage, c’est-à-dire de l’inscription de la pratique dans le dispositif (les traces récoltées par Google et cie suite à votre utilisation), on ne peut qu’être amené à porter des conclusions alarmistes et à voir dans ces entreprises de grands panoptiques. Pourtant, même la tradition française des études des usages et ce, depuis les années 80, apporte des nuances importantes, qui donnent par exemple à l’utilisateur le statut d’usager, capable d’actualiser les énoncés et les artefacts. Autrement dit : la manipulation technique par l’individu échappe en grande partie aux dispositifs. C’est la raison pour laquelle ils sont constamment mis à jour, dans un chassé croisé permanent entre les usages (les traces récoltées) et les ingénieurs.

Pour revenir à la valeur des traces d’usage (qui me semble être le point sur lequel insiste Christian) et notamment sur leur prétention à définir des « profils » ou à rendre compte d’une « identité », on peut, là aussi, s’interroger. Certes : l’utilisation de plus en plus importante des APIs permet de rendre compte d’une certaine fidélité des pratiques des internautes et, par conséquent, de leur rapport au monde et à leur identité, en élargissant toujours plus la connaissance centralisée de ces pratiques. Dans cette perspective, on peut donc être amené à penser que de moins en moins de pratiques échappent à un dispositif comme Facebook par exemple, comme son API permet d’en analyser un certain nombre (j’utilise Evernote après m’être authentifié avec mon compte FB, etc.) qui, à l’origine, devaient pouvoir lui échapper. Pour autant, je ne connais personne qui n’utilise pas des supports (carnet, feuille, etc.) et des outils (stylo, téléphone, etc.) qui ne sont pas encore connectés.

Par ailleurs, la valeur en question est celle des traces d’usage, c’est-à-dire des inscriptions. Or, le lien entre l’inscription et l’individu, entre l’inscription et la connaissance, entre l’inscription et l’identité n’est pas si simple. Il n’y a qu’à voir les débats épistémologiques en histoire du livre ou en anthropologie historique pour s’en rendre compte. Dans le domaine des annotations, par exemple, la plupart des chercheurs se montrent extrêmement prudents sur cette question et s’interrogent sur la possibilité même d’utiliser les traces d’usage comme des documents, pour recomposer la vie mentale d’un individu ou d’une époque.

Ce qui est en jeu, en effet, c’est la reconstitution, c’est-à-dire la possibilité, d’une part, à partir d’instruments, d’accéder à une réalité invisible avec nos yeux et, d’autre part, à partir d’outils, de rendre compte de manière adéquate de cette réalité rendue visible. Car la « donnée » n’est jamais donnée : elle doit faire l’objet d’un traitement pour être exploitable et pertinente. Les graphes, les cartographies tentent ainsi malheureusement de lire dans le social des phénomènes qui leur échappent encore et pour longtemps, comme le devin lisait dans le ciel l’épaisseur humaine en traçant un cadre avec son doigt.

Par contre, le passage de l’étude des usages à l’étude beaucoup plus complexe des pratiques (non inscrites) permettra sans doute d’accéder à une certaine connaissance de l’individu qui permettra de dire : « Google me connaît ». Ces études sont cependant trop longues à mener et trop coûteuses pour qu’on les voie un jour se développer à une grande échelle dans ces entreprises.

Répondre

JM Salaun novembre 25, 2013 à 8:05

Autant je suis d’accord qu’il faille distinguer confidentialité et surveillance, autant je suis en désaccord avec le reste.

Google n’est pas un mix d’algorithmes, c’est une société avec une personnalité morale. Lorsque l’on dit « Google sait tout de moi », on signifie que la société Google serait capable de me tracer dans mes moindre décisions ou intentionalités. Il y a bien un sujet Google, la société Google qui prend effectivement des décision comme un collectif, et les débats internes à la firme rappelés dans un commentaire ci-dessus pour en préciser les orientations le montrent bien. voir aussi : http://online.wsj.com/news/articles/SB10001424052748703309704575413553851854026 . C’est dans ce sens qu’il faut prendre au sérieux le slogan « Don’t be evil! ».

Mais supposons même que Google ne soit que des algorithmes. La potentialité, réelle ou fantasmée, que les algo puissent reconnaitre et prévoir ma navigation est en elle-même effrayante. « Big Brother » n’est personne, mais la surveillance exercée par ce no-body pourrait être plus efficace que celle d’un dictateur car les individus la prennent pour une fatalité et l’intègrent plus facilement. Dit autrement, lorsque nous sommes surveillés par des machines aux décisions calculatoires, alors le sujet s’efface, car tout est donné, ou donnée, inscrit dans une sorte de destin objectif qui nous échappe.

Répondre

Ikario décembre 13, 2013 à 2:59

Pour ma part, je répond à Google par l’infobesité et l’infoversité.

Bien sur, cela reste un peu hasardeux, dans la mesure ou je ne connais pas le coefficient d’efficacité des algorithmes de google (autrement dit : dans quel mesure son algorithme est il capable de traiter efficacement les infos qu’un individu lui donne ? Sachant que nous sommes très nombreux a être soumis à cet algo…).

De plus, mes identités en ligne restent relativement nombreuses : il n’y a que quelques passerelles que j’ai délibérément laissé (dans un but de référencement j’ai commencer a vendre mon âme au Diable dira t’on 🙂 ) et qui nécessite tout de même une certaine rétro-ingénierie.

Je pense ici aux adresses mail par exemple ou encore aux adresses IP (on peut aussi penser aux domaines référant, à l’agent utilisé, etc. ). Tout en sachant que de la même manière j’ai récemment réactivé les script de Google Analytics (qui était bloqué par défaut) et qui contribue a multiplié le nombres de traces laissée, facilitant, encore une fois la tache de Mr Ggle…

Répondre

Leave a Comment

{ 2 trackbacks }

Previous post:

Next post: