«

»

Nov 12 2015

Derrière l’écran, les algorithmes mais aussi l’imaginaire.

Parmi les livres récemment parus, certains semblent importants pour tout éducateur (enseignants, parents, formateurs, éducateurs, etc…) qui utilise et fait utiliser l’informatique et les objets numériques dans sa pratique personnelle autant que professionnelle. Le premier, dans l’ordre de parution est celui d’Eric Sadin, « la vie algorithmique, critique de la raison numérique » (L’échappée, 2015), le second paru en début octobre est écrit par Dominique Cardon, « A quoi rêvent les algorithmes, Nos vies à l’heure des big data »(Seuil la république des idées, 2015). Deux autres, un peu différent, sont tout aussi importants. Celui de Fred Turner, « Aux sources de l’utopie numérique, De la contreculture à la cyberculture, Steward Brand un homme d’influence »(C&F Editions 2006 – 2012, préface de Dominique Cardon). Et enfin celui de Pascal Plantard, « les imaginaires numériques en éducation » (editions Manucius, 2015).
Si les deux premiers ouvrages nous invitent à comprendre ce qui se passe derrière les écrans et surtout dans toutes ces machines numériques connectées, les deux suivants nous invitent à comprendre comment se construisent les représentations mentales et sociales, les imaginaires, à propos de l’invasion des moyens numériques dans notre quotidien. Mais ce qui fait la force de ces quatre ouvrages c’est qu’ils nous permettent de regarder d’un peu plus près, d’y voir un peu plus clair et surtout d’articuler la technique et l’humain.
Dans ce billet je m’attarderai particulièrement sur l’un d’entre eux, celui de Dominique Cardon et ensuite j’évoquerai celui de Pascal Plantard. Non seulement parce qu’ils sont plus directement accessibles (taille, poids, langage – quoique ), mais aussi parce que ayant l’occasion de rencontrer ces deux auteurs au cours de ces années, il me semble que, chacun dans son registre, apporte aujourd’hui des clefs de compréhension et d’analyse essentielle au monde de l’éducation en général et au monde scolaire en particulier et ce, dans un contexte de poursuite des ambitions numériques du pouvoir politique et plus globalement, semble-t-il de la société.

Dominique Cardon nous propose une analyse en profondeur des algorithmes liés aux big data, aux traces et aux calculs qui sont faits. Après avoir présenté les quatre modes de regard que les algorithme portent sur l’information numérique et le retour qu’ils font dans les domaines de la popularité, l’autorité, la réputation et la prédiction, l’auteur nous invite à plonger dans le coeur des algorithmes liés aux traces. Ce faisant, il aborde une des formes que les algorithmes ont développées, parmi d’autres. En ce sens le titre de l’ouvrage est heureusement complété par le sous-titre qui évoque les big datas. Tout l’intérêt de cette analyse est, outre qu’elle explique les déplacements d’approche incarnées dans les algorithmes de Google ou de Facebook (et autres), c’est surtout de nous faire comprendre la mutation qui s’opère autour des traces et des signaux. Cette mutation, c’est principalement celle de l’individu qui devient un « produit » particulier dont il faut détecter les comportements pour mieux les guider (cf. les citations de l’ouvrage au bas de cet article.

Mais il ne faudrait pas qu’une lecture réduite aux quatre approches (qu’ont d’ailleurs faits certains journaux) occulte celle plus large de la question des algorithmes qui sous-tendent tous les logiciels, parfois les plus simples d’apparence (les traitements de texte par exemple) aux plus complexes au premier abord (les jeux). L’usage des logiciels du quotidien est marqué par les choix qu’ont faits leurs concepteurs. Ces choix sont plus ou moins perceptibles et relèvent de stratégies parfois explicites, mais le plus souvent implicites et qui pourtant imposent à l’usager des manières de faire qu’il peut difficilement contourner ou détourner. Or les algorithmes sont la traduction opérationnelle cachée des anciens modes d’emplois souvent illisibles que des techniciens rédigeaient pour les appareils grand public (on se rappelle l’exemple des magnétoscopes…). Mais à la différence de ceux-ci, on a remplacé le mode d’emploi par le « pas besoin d’apprendre » faites ce qu’on a programmé pour vous !!! La force de la programmation des machines est qu’elle impose l’usage (une sorte d’affordance exponentielle) et que les algorithmes qui sont à la base de sa conception ne sont rien d’autre « qu’une intention humaine embarquée dans la machine », dans le logiciel pour être précis. L’usager heureux de tant de possibles en oublie les impossibles et se laisse allégrement guider par cette volonté cachée.

C’est dans la rencontre de ces deux approches, celles des algorithmes des logiciels qui traitent les big data et ceux qui sont dans les logiciels les plus simples, que l’on retrouve une question fondamentale : la capacité de chacun à dépasser ces contraintes pour effectuer ses « propres choix », exercer une liberté, si fondamentalement chère à Michel de Certeau. Sans tomber dans une analyse manichéiste ou complotiste, il nous faut cependant bien comprendre les enjeux des développements actuels qui s’effectuent à l’échelle de la planète, de tous les humains et dont les conséquences sont quasiment impossible à prévoir. Les médias de flux qui servent de caisse de résonance n’ont pas grand-chose à faire de ces analyses qui sont aussi révélatrice de leur propre algorithme, celui les amène à chercher le scoop, l’audience, la popularité, en lieu et place, parfois d’une information authentique. En d’autres termes, les algorithmes sont dans nos têtes avant d’être dans nos logiciels. Nombre de nos dirigeants tentent de piloter nos sociétés et nos vies avec ces algorithmes. Contrairement à ceux qui sont dans nos machines, ils sont beaucoup plus difficiles à « objectiver », à « décrypter ». Mais ils sont aussi moins linéairement efficaces que ne le sont les machines binaires à la rhétorique implacable et parfois définitive, surtout lorsque le résultat fourni est une « bombe au centre de l’écran » (Apple) ou un « écran désespérément bleu » (Microsoft).

Pascal Plantard a publié un livre court et percutant sur les imaginaires numériques en éducation. Passant d’une analyse anthropologique à une étude de terrain, il nous permet de voir au plus près l’incarnation des imaginaires au travers des pratiques du quotidien (projet INEDUC). Il écrit : « En éducation, la place des imaginaires est première car le processus même de l’éducation formelle, informelle, familiale et artistique… procèdent de la construction voire de la transmission du partage des imaginaires » (p.19) A la suite de ce propos il présente, à l’instar de Pierre Musso, 6 marqueurs des techno-utopies : naturalisation de la technique (homme machine), la dimension révolutionnaire associée à la technologie, l’apaisement universel par les réseaux, la dimension libertaire et la dimension déterministe. Ce paysage posé, ainsi que celui des grands mythes qui sont revisités par le développement des techniques numériques, sert surtout à analyser la relation que les jeunes entretiennent avec le numérique, en particulier ceux qui sont au collège, puis du plan d’équipement massif proposé par le président de la république pour 2016. Effectivement on retrouve aussi bien dans les propos des jeunes sur les pratiques, de même que dans ceux des politiques, la trace des mythes et de ces marqueurs. On les retrouve aussi dans nombre de propos médiatiques sur le numérique. On pourrait ajouter aussi que chacun de ces mythes porte aussi son contraire, c’est à dire l’idée qu’ils pourraient porter le pire comme le meilleur (ce qui est le propre d’un mythe semble-t-il). La conclusion que l’on peut tirer de cette lecture est que les priorités retenues par les pouvoirs et nombre d’acteur face au numérique sont davantage inspirées par le flot communicationnel d’où émergent les mythes que par une analyse des besoins de la population, basés sur une vision politique à long terme.

On retrouve aussi dans cet ouvrage des liens avec deux auteurs, d’une part Philippe Breton d’autre part Fred Turner qui, chacun dans leur sens, éclairent la question de ces techno-utopies. Le premier de ces auteurs a très tôt soulevé la question des imaginaires en particulier au moment de l’émergence d’Internet à la fin des années 1990. Le second visite quant à lui les fondements culturels et politiques de l’Internet et de l’informatique d’aujourd’hui. La lecture du livre de Steward Brand (et de l’introduction de Dominique Cardon) est un plaisir immense pour qui veut se plonger dans l’histoire intellectuelle qui a donné vie aux technologies contemporaines et surtout à leurs formes d’usages, rendues possibles par ces visions qui petit à petit se sont infiltrées dans les programmes informatiques, les algorithmes, et plus généralement dans les manières de faire d’aujourd’hui. Cours d’histoire, certes, mais vivant et surtout extrêmement bien documenté, accessible et appuyé sur des analyses solides dont l’auteur prend plaisir à faire partager les interprétations, voir les conclusions.

Si les algorithmes sont particulièrement et spectaculairement présents dans l’usage des traces et des big datas, ils sont aussi, et bien plus encore présents dans le quotidien des usagers de l’informatique. De l’antique clignotement de l’écran des premiers ordinateurs individuels aux interfaces des tablettes et autres smartphones, les concepteurs n’ont eu de cesse de faciliter les utilisations. Mais la contrepartie c’est la « détermination » de ces usages. L’utilisateur obéit au concepteur. C’est ce dernier qui décide donc des possibles et des impossibles. Il décide aussi, et cela se voit plus souvent qu’on ne le pense, de ce que doit maîtriser l’usager pour accéder aux possibles. En d’autres termes selon la qualité de la conception, l’usager aura plus ou moins besoin de connaissances techniques. On se rappelle les manuels pléthoriques de certains logiciels des années 1980 – 1990. En faisant disparaître ces aides papier ou numérique, c’est l’ergonomie qui est repensée et plus encore la guidance automatique de l’usager au travers de programmes et d’algorithmes qui définissent ainsi les usages possibles. Un simple exemple pourra illustrer cela : ceux qui ont utilisé des logiciels/programmes/applications pour enfants savent bien que les concepteurs des produits font des choix. On se rappelle par exemple le produit Adibou qui donnait accès à des jeux à l’utilisateur qui avait atteint un niveau de résultat aux exercices imposés. Plus subtils sont les algorithmes qui analysent votre profil pour vous orienter, ce qui semble arriver dans les produits appelés « adaptive learning ». Mais beaucoup plus courants les algorithmes des appareils de guidage du conducteur basés sur le GPS. Le calcul d’itinéraire est bien le résultat d’un choix de programmation et d’algorithme qui s’impose et impose parfois à l’usager des trajectoires inattendues…

On semble découvrir aujourd’hui cette question qui pourtant n’est pas nouvelle. Cet effet de mode est renforcé par les luttes contre les hégémonies, voire les monopoles de toutes sortes dont il semble bien que l’on puisse penser qu’ils sont à l’origine de dominations et de contrôles. D’IBM à Microsoft, de Google à Facebook, et autres multinationales du numérique, chacune fait ou a fait l’objet de critiques majeures dès lors qu’elles ont été dominantes sur leur marché. La puissance économique politique et technique est devenue telle que certains s’inquiètent et cherchent à leur échapper ou au moins à neutraliser leur influence. Malheureusement on ne peut que constater la récurrence de ces questions, avec ou sans technologies numériques. Comme si la volonté de domination était une sorte de mécanisme fondamentalement inscrit dans le fonctionnement mental….

************************

Quelques citations importantes du livre de D Cardon pour alimenter la réflexion et aussi l’envie de lire son livre (qui fait l’objet de beaucoup de compte rendus de presse)

« La complexification des modèles algorithmiques mis en oeuvre dans les nouvelles structures informationnelles contribue à imposer le silence à ceux qui sont soumis à leurs effets » (p.13)

« Les objets techniques ne fonctionnent que parce qu’ils opèrent dans un « milieu associé » qui les rend efficaces et pertinents. » (p.14)

« Les données brutes n’existent pas. Toute quantification est une construction qui installe un dispositif de commensuration des enregistrements et établit des conventions pour les interpréter » (p.56)

« Il est encore temps de dire aux algorithmes que nous ne sommes pas la somme imprécise et incomplète de nos comportements » (p.103)

« Il s’agit désormais de calculer le profil e l’utilisateur à partir des traces des activités en développant des techniques d’enregistrement qui collent au plus près de ses gestes. » (p.34)

« les algorithmes prédictifs ne donnent pas une réponse à ce que les gens disent vouloir faire, mais à ce qu’il font dans vouloir vraiment se le dire » (p.34)

– (manipulation du réel, débordement des catégories; calculer au plus près, corrélation sans cause) « Ces déplacements montrent comment les statistiques, photographies extérieures de la société, sont progressivement entrées dans les subjectivités contemporaines en leur permettant de se comparer, avant de venir subrepticement calculer à leur insu le comportement des personnes. » (p.43)

« Les big data réaniment le projet d’objectivité instrumentale des sciences de la nature, mais cette fois sans le laboratoire : c’est le monde qui devient directement mesurable et calculable. Leur ambition est de mesurer au plus près le « réel », de façon exhaustive, discrète et à grain très fin. » (p.44)

« Même en ayant le sentiment de faire des choix singuliers, nos comportement obéissent à des habitudes routinières profondément inscrites dans notre socialisation. » (p.65)
« En préférant les conduites aux aspirations, les algorithmes nous imposent ce réalisme efficace. Ils nous emprisonnent dans notre conformisme. (…) ils sont prédictifs parce qu’ils font constamment l’hypothèse que notre futur sera une reproduction de notre passé. » (p.70)

« Le développement d’une éducation et d’une culture partagées des algorithmes devrait nous aider à décoder et interpréter la manière dont ils façonnent nos représentations. »(p.83)

« De façon très conservatrice, le calcul algorithmique reconduit l’ordre social en ajoutant ses propres verdicts aux inégalités et aux discriminations de la société : les mal notés seront mal servis et leur note en deviendra plus mauvaise encore. » (p.86)

Print Friendly, PDF & Email

2 pings

  1. Derrière l’écran, les algor...

    […] Parmi les livres récemment parus, certains semblent importants pour tout éducateur (enseignants, parents, formateurs, éducateurs, etc…) qui utilise et fait utiliser l’informatique et les objets numériques dans sa pratique personnelle autant que…  […]

  2. Derrière l’écran, les algor...

    […] Parmi les livres récemment parus, certains semblent importants pour tout éducateur (enseignants, parents, formateurs, éducateurs, etc…) qui utilise et fait utiliser l’informatique et le…  […]

Laisser un commentaire

%d blogueurs aiment cette page :