Le philosophe au hasard des digressions, pour bien commencer 2016

Michel Serres, bien connu pour ses propos sur les technologies numériques n’oublie pas qu’il est aussi d’une part philosophe et d’autre part humain. Il est souvent convié pour prononcer des conférences en France et au delà, et malgré son âge et la fatigue de ces interventions, il n’en perd pas pour autant un propos coquin voire égrillard. En tout cas, son art pour raconter des histoires est remarquable, même si parfois des approximations peuvent être relevées.

Ceci dit, il est contesté, par exemple, pour plusieurs propos sur l’invention du terme « ordinateur » qu’il attribue à une discussion entre étudiants à l’ENS, tandis qu’une source « officielle » l’attribue à l’un de ces étudiants, mais alors devenu professeur à la Sorbonne, Jacques Perret, sur la base d’un courrier que celui-ci à envoyé à IBM en 1955. Évidemment sans preuve de cet échange à la cantine, difficile de le croire, en regard de ce courrier de J Perret à IBM… désormais bien connu de tous les spécialistes. Mais face au plaisir « gascon » de l’histoire le public cède aisément, parfois même au delà du raisonnable :

Ainsi les auditeurs des universités et instituts catholiques de Lyon et de Paris, en 2015, (Serres le coquin) n’ont pas du relever ces deux passages significatifs de cet aspect coquin du personnage. Bien qu’ayant acquiescé par les rires à ces passages, les personnes qui assistaient à ces conférences n’ont peut-être pas précisément perçu ces petites provocations qui font d’ailleurs souvent le sel de son art de raconter des histoires (Storytelling dirait-on maintenant, pour faire riche).

En guise d’amuse-bouche, en vue de préparer une année nouvelle qu’on souhaite bien meilleure que celle qui vient de s’écouler, je vous invite à cliquer sur le lien ci-dessus pour vous réjouir quelques secondes.

Chacun appréciera, en ces temps d’accord entre de grandes compagnies et le Ministère de l’Education, l’appréciation du philosophe et surtout son analyse des termes

Meilleurs voeux pour 2016

Bruno Devauchelle

 

A quand la fin du découpage disciplinaire ?

Pas vraiment nouveau mais structuré à partir du début du XXè siècle le découpage disciplinaire est une des questions les plus vives et finalement peu débattue comme le dit André Chervel dans  » Chervel André. L’histoire des disciplines scolaires. Réflexions sur un domaine de recherche. In: Histoire de l’éducation, n° 38, 1988. pp. 59-119.

L’arrivée de l’ordinateur et ensuite sa potentielle connexion à un réseau mondial, Internet, met en question le découpage disciplinaire. Certes les efforts ne manquent pas pour proposer d’aller au delà de ce traditionnel découpage : inter, pluri, trans disciplinarité peuplent les esprits beaucoup plus que les pratiques, même si les TPE, EPI, IDD, PPCP et autre histoire des arts tentent d’aller sur ce terrain et ont rencontré parfois la volonté des enseignants d’aller voir au delà de leur pré-carré disciplinaire.

Dans la vie quotidienne, personnelle, professionnelle, comme dans l’utilisation d’Internet, le découpage disciplinaire n’apparaît pas comme structurant a priori l’information à laquelle on accède. Par contre à l’école, l’apprentissage de ce découpage fait partie du métier d’élève, mais pour combien de temps encore ? Les schémas ci-dessous tentent de récapituler ce questionnement :

Analyse de l'effet du numérique sur les disciplines

Analyse de l’effet du numérique sur les disciplines

A lire, regarder et débattre

BD

 

Degré de Liberté et de conscience : le DLC des objets numériques

Quand on analyse l’histoire des objets produits dans le champ des technologies de l’information et de la communication, on peut identifier un cadre qui repose sur le degré de liberté et de conscience donné à l’utilisateur final. Pour le dire autrement quand un objet technique numérique est mis à disposition sur le « marché », le lien entre la ou les fonctions et l’usager est déterminé par la possibilité d’intervention de celui-ci. Lorsque je conduis une voiture, certaines fonctions me sont imposées, c’est à dire mise en fonction automatiquement, « à l’insu de mon plein gré ». Ainsi en est-il des assistances au freinage et autre régulation des injecteurs. Dans le même véhicule, d’autres fonctions peuvent être activées ou désactivées comme le régulateur de vitesse. Enfin l’usager peut proposer ses choix à des objets qui sont dans l’attente de la commande pour exécuter des tâches comme le GPS par exemple. Il est vrai que la marge de manœuvre de l’usager, dans ce dernier cas est plus ou moins restreinte, mais l’existence de menus de paramétrage laisse une place à des choix « personnalisés ».

La question du « Degré de Liberté et de Conscience » (DLC) est fondamentale pour plusieurs raisons. D’abord parce que le concepteur d’un objet technique peut être tenté d’imposer ses choix et donc d’assujettir l’usager à une forme d’action qu’il a préalablement déterminée. Ensuite parce que très souvent nous sommes tentés d’utiliser les objets techniques de notre environnement sans chercher à identifier les possibles au-delà de ce que nous pensons qu’ils sont censés faire. C’est à dire que nous n’utilisons pas le potentiel de choix qui est permis. Mais aussi, pour poursuivre parce que au fur et à mesure du développement de l’informatique, les concepteurs, aidés par les ergonomes, les graphistes et les spécialistes de l’interface homme machine, n’ont eu de cesse de « faciliter » la vie de l’usager en lui restreignant l’accès à des possibilités de modification, de programmation. Enfin parce que les objets qui autorisent des choix importants imposent des apprentissages coûteux en temps et en énergie cognitive.

L’arrivée de l’ordinateur individuel a ouvert un espace nouveau dans la relation entre concepteur et usager. Lorsqu’au début des années 1980 nous achetions nos premiers ordinateurs individuels (PET, ORIC, Commodore, Z81 de Sinclair etc…) nous découvrions un objet technique nouveau. Tout d’abord il était divisé en deux : d’un côté l’objet matériel, de l’autre l’objet virtuel. Ensuite nous découvrions le droit de définir ce que l’objet matériel pouvait produire. On pourrait oser l’analogie avec les jeux de construction pour enfants (type Lego par exemple) qui nous propose un ensemble d’objets (les briques, les pièces) non finalisées en amont par ce que leur assemblage permet de produire (le modèle). Avec l’informatique, la brique élémentaire que l’on manipule est extrêmement simple (des zéros et des uns), mais dès que l’on se penche de plus près sur ce qui est permis à l’utilisateur, on s’aperçoit qu’il y a déjà des contraintes liées à la conception des langages de pilotage (ceux qui ont fait de l’assembleur savent bien les possibilités offertes et les limites fixées dans la machine). La programmation en langages évolués (principalement le Basic à l’époque) a permis cependant de donner à l’utilisateur « un degré de liberté ».

L’évolution de l’informatique au cours des cinquante dernières années a confirmé une tendance à la convergence : rendre les objets faciles à utiliser. Dès les premières heures du Macintosh d’Apple, la guerre a fait rage : facile à utiliser et sans erreur (plantage, écran bleu contre bombe). Cette même société a fait tellement d’émules qu’aujourd’hui la norme d’usage est bien celle qui consiste à rendre l’usager capable d’utiliser immédiatement la machine pour assurer des fonctions complexes inaccessibles à lui jusqu’à présent. En cachant progressivement les couches basses de l’informatique, les professionnels ont ainsi pu envahir l’ensemble des sphères de la société tout en disparaissant de la surface des usages : on parle désormais de numérique… et plus d’informatique ou de TIC, sauf quand on veut revenir aux sources. Mais cette évolution pose problème en termes de DLC. D’ailleurs les tenants de l’enseignement du code se sont rendu compte de l’envahissement de l’évolution ergonomique et réclament désormais leur place au nom de cette DLC. N’est-il pas bien trop tard ?

La tendance ne semble pas aller dans un autre sens. La preuve en est l’émergence du Cloud (l’informatique en ligne, le nuage). De plus en plus d’applications sont en ligne. Votre matériel n’est plus qu’un intermédiaire ergonomique et ne vous permet plus d’accéder aux « sources ». L’essentiel est de se connecter, via une App ou un navigateur Internet et d’accéder à l’utilisation de la fonction. Du langage basic aux interfaces tactiles, nous passons du local au distant, sans nous rendre compte que c’est notre DLC qui est en cause. Big data, Machine Learning, adaptive learning, learning analytics etc… voilà les symboles de l’évolution du DLC. Avec les fonctions en ligne, l’usager perd toute possibilité de sortir du cadre. Aussi ne lui reste-t-il que les possibilités permises par ces objets. Avec le traitement de texte en ligne, je garde la main sur mes écrits. Avec le réseau social numérique, je garde la main sur mes relations. En d’autres termes, il ne reste à l’usager comme DLC, que la surface humanisée des machines. Cette impression « humaine » interroge : je suis libre de l’usage de ma parole, mais elle est « intermédiée » par les objets avec lesquels j’opère.

La très grande force des concepteurs de l’informatique et de son développement c’est de penser le rêve d’Alan Turing. C’est d’imaginer que pour y arriver il faut se faire oublier pour ne laisser que l’humain. La machine disparaissant, l’humain pourrait penser qu’elle n’existe plus (les fonctions numériques invisibles sont dans ce cas-là), et ce d’autant plus qu’il pourrait en être satisfait (le progrès bon pour l’humain). Or cette disparition se fait au prix fort : il faut connaître l’usager (captation d’informations à son insu) pour mieux se faire oublier (effet miroir) en lui proposant ce qu’il est au plus près d’attendre (cf. le requêtes sur un moteur de recherche ou encore l’anticipation des mots dans la frappe sur un clavier de smartphone). L’apparence de DLC est la partie émergée de l’Iceberg… on peut aisément deviner ce qui est en dessous…

En termes d’éducation, les jeunes, nés avec cet environnement, sont initialement tenté de la naturaliser. L’éducation, qui est fondamentalement centrée sur le DLC (la citoyenneté n’étant qu’un des leviers retenus et trop souvent présenté comme premier), doit donc permettre au jeune de « dénaturaliser » l’environnement. « Les collines ont été façonnes par l’homme ». Cet homme qui en, progressivement, organisant sa conquête de la terre, a construit ces objets serait bienvenu de ne pas oublier de transmettre à ses enfants qu’il tente d’enfouir ses intentions pour ne laisser passer que ses résultats. Le DLC est à ce prix : accepter de « dévoiler » pour « autoriser ».

A suivre et à débattre

BD

Créativité… où es-tu ? (de Frank Zappa à Isaac Asimov)

Le terme créativité, déjà évoqué précédemment, rejoint celui d’inventivité et celui d’innovation. Ce document sur Isaac Asimov : http://rue89.nouvelobs.com/2014/10/21/les-cinq-commandements-dissac-asimov-trouver-idee-geniale-255610 semble nous apporter des réponses concrètes. Plus largement le vent de la créativité semble se porter bien avec celui de la collaboration qui semble en être un élément clé (cf. I. Asimov) porté aussi par l’ère du temps. Mais la créativité ne va pas autant de soi comme le montre la réflexion d’un musicien célèbre :

Frank Zappa a été tout au long de sa vie un « créateur » ou au moins a tenté de l’être. De son cheminement, parfois difficile à suivre dans sa complexité, s’expriment certaines de ses idées qui méritent qu’on y réfléchisse. En voici trois :
La plus célèbre dont on peut entendre la source ici : https://www.youtube.com/watch?v=mOHCV-QO5HA

« Without deviation from the norm, progress is not possible. »

A propos de l’école, il n’est pas tendre et rejoint un courant de pensée que l’on retrouve aussi dans les mouvements qui ont fondé l’internet (Stewart Brand)

« Schools train you to be ignorant with style […] they prepare you to be a usable victim for a military industrial complex that needs manpower. As long as you’re just smart enough to do a job and just dumb enough to swallow what they feed you, you’re going to be alright […] So I believe that schools mechanically and very specifically try and breed out any hint of creative thought in the kids that are coming up.”  »

ou encore :

“Drop out of school before your mind rots from exposure to our mediocre educational system. Forget about the Senior Prom and go to the library and educate yourself if you’ve got any guts. Some of you like Pep rallies and plastic robots who tell you what to read.”

On retrouve ici un questionnement de fond : l’école n’est-elle pas un facteur de reproduction plutôt que de création ? Les moyens numériques qui se développent en éducation semblent porteur de cette vision qui serait qu’ils permettraient un « renouveau pédagogique » une créativité. Sir Ken Robinson a lui aussi démontré qu’il semble n’en être rien. Les enseignants innovants, voire créatifs, sont-ils réellement porteur de nouveautés ou au contraire « hérauts » instrumentalisés des pouvoirs qui ne savent comment s’en sortir avec cette école qu’ils ont sur les bras ?

Le développement d’Internet et des pratiques individuelles associées sont le terreau d’une transformation sociale essentielle. Chacun en est conscient dans le monde scolaire. Mais le fossé, plutôt que de s’élargir, se creuse. Autrement dit le monde scolaire n’est pas si éloigné que ça de la société numérique si l’on regarde la distance mais c’est dans la profondeur que l’écart est de plus en plus important. Autrement dit dans une pensée sur l’apprendre et le sens de l’apprendre dans notre société.
Frank Zappa en incitant à s’éduquer par soi-même lance un formidable message à la jeunesse. Pourrait-elle s’en emparer, formatée et encadrée qu’elle est par un monde adulte qui pense l’école comme ses souvenirs d’enfance et la jeunesse comme sa propre reproduction ? L’observation malheureusement nous conforte dans l’idée que les jeunes sont souvent le miroir déformant des adultes. Leurs comportements avec le numérique en est un bon exemple. Il suffit de regarder comment nous gérons chacun la saturation d’informations, de sources et de ressources ? La plupart d’entre nous le subissons, le regrettons parfois, mais en tout cas ne donnons pas de réponse adéquat en termes éducatif. On préfère les réponses techniques (un autre moteur de recherche, d’autres logiciels, libres, etc…). Mais nous n’osons pas nous attaquer à des piliers de notre société dont finalement la propriété et la destinée individuelle sont probablement devenues des points nodaux. Le monde scolaire ne ferait donc que reproduire cela. Les invitations à la créativité ne seraient que des illusions tant qu’elles ne peuvent s’inscrire dans une conception plus ouverte du faire société… Malheureusement, ces derniers temps, rien ne nous invite à aller dans ce sens…

A suivre et à débattre

BD

Chronique de Noël : si les machines savent, un jour, qui sera sur les bancs de l’école ?

Le retour au premier plan de « l’intelligence artificielle » est un signe d’une évolution significative aussi bien sur un plan technique que sur un plan philosophique et anthropologique. Pour le monde de l’éducation, cela n’est pas sans interroger sur le fond comme sur la forme l’apprendre de demain, compte tenu du contexte émergent lié à ce que l’on nomme, un peu abusivement « intelligence artificielle » ! Big data, adaptive learning, et maintenant machine learning, tout semble converger vers un basculement qui mérite qu’on y réfléchisse quelques instants.

Deux basculement antérieurs peuvent être évoqués : celui des années 40 et celui des années 1960. Dans les années 1940, les travaux d’Alan Turing révèlent au monde la puissance potentielle de l’informatique et la piste de l’intelligence artificielle. En fait son questionnement est celui du fonctionnement du cerveau et par là même celui de l’intelligence. Face à l’humain, le progrès des techniques, des sciences et des machines qui en découlent est fascinant. On comprend qu’une personnalité aussi forte que celle d’Alan Turing ait été « visiter » ces questions.
L’imaginaire des informaticiens a donc très tôt embarqué cette question. Dès lors, le deuxième basculement, celui du début des années 60, ne pouvait qu’advenir avec la montée en puissance de l’informatique et en particulier l’avènement de techniques nouvelles qui vont s’incarner dans ce que l’on appelle parfois le « cerveau de la machine », le microprocesseur. Ce basculement se produit autour de deux langages, LISP et Prolog, ainsi que d’un concept, celui de « système expert ». Les travaux de recherche relayés par les médias de l’époque vont tenter de montrer que l’on est passé du calcul à l’intelligence. L’émergence de solutions de reconnaissance vocale (qui se rappelle du Katalavox cher à Martine Kempf), ou de reconnaissance optique de caractère (OCR) et autres simulation d’actions humaines complexes a rapidement été confrontée aux limites de la machine et à la complexité de l’humain. Une vision mécaniste de l’homme venait d’être dénoncée…

Il faut rappeler que le terme « ordinateur » dont l’origine a été rappelé récemment par Michel Serres (cf. conférence sur l’innovation UCLy Lyon octobre 2015 https://www.youtube.com/watch?v=-eJvBk_57Tw), est assez révélateur de cet imaginaire quasi religieux. On peut rapprocher cette idée de reproduire le cerveau dans une machine, avec l’aide de Jacques Perriault (La logique de l’usage Flammarion 1989 – 2008), de l’idée de reproduire l’image et le son jusqu’à la perfection dans l’histoire des « machines à communiquer ». Reprenant la pensée de André Leroi-Gourhan, Jacques Perriault met en évidence, rappelant Gilbert Simondon, la proximité entre technique et religion, que l’idée fondamentale qui porte le progrès technique et scientifique c’est de produire « l’homme en dehors de l’homme ». Pour les croyants chrétiens, l’homme en dehors de l’homme ce serait Dieu (« qui a fait l’homme à son image »). Aussi la recherche de l’illusion parfaite (cf. Alan Turing) de l’humain dans la machine traverse bien l’histoire des technologies. C’est pourquoi on peut penser que le retour de « l’intelligence artificielle (Série d’article sur ce thème  publiés par le Monde http://abonnes.lemonde.fr/intelligence-artificielle/ à l’automne 2015) et l’émergence de notions conjointes est le signe de ce troisième basculement.

A l’instar du développement humain, de brusques sauts d’évolution, marquent le développement du progrès et des connaissances. Loin des « disruptions », terme qui conforte l’imaginaire qui porte la dimension d’innovation, nous sommes en présence, pour des raisons de convergences, d’une ré-apparition d’une idée qu’on croyait mise de côté tant que l’ordinateur serait binaire. La victoire de l’ordinateur contre le joueur d’échecs avait mis en évidence que la puissance du calcul ne ressemblait pas au fonctionnement humain, mais qu’elle permettait de le concurrencer. Or cela on le sait depuis longtemps pour ce qui est des tâches simples et répétitives que les humains ont longtemps accomplies et que les machines ont remplacées. En cherchant à remplacer l’humain dans ses activités par la machine, celle-ci devient-elle humaine ?

De l’enseignement assisté par ordinateur transformé désormais en adaptive learning, au machine learning, on pressent un basculement fort : ne pourrait-on mettre une machine à la place de l’enseignant et maintenant de l’élève ? Ainsi on saurait simuler l’enseignant et l’apprenant. C’est un des enjeux du machine learning dont le deep learning est une des spectaculaires réalisations. Il pourrait alors incarner le mythe du Golem traduit dans le film Frankenstein (James Whale 1931), en y voyant une machine s’affranchir de son concepteur de son créateur. Si la machine est capable d’apprendre, quel serait son enseignant ? Son concepteur, c’est à dire celui qui a conçu les algorithmes qui président à son fonctionnement ? Son utilisateur, c’est à dire celui qui met en place le contexte favorable à l’apprentissage de celle-ci ? Les deux probablement. Mais dans le contexte favorable à l’apprentissage, quid des interactions avec les humains, ou les autres machines ? On pressent un potentiel, mais aussi de nombreuses limites…

Il y a près de trente années, nous étions plusieurs à tenter de réfléchir à ce que l’intelligence artificielle d’alors (deuxième basculement) pourrait apporter au monde scolaire. L’arrivée de l’hypertexte, de l’hypermédia et la mise en réseau ont mis de côté ces réflexions, d’autant plus que les modélisations informatiques restaient difficiles à implémenter. Avec le renouveau de ces technologies et surtout la capacité de calcul des machines de chacun de nous, on peut penser que des auxiliaires de l’apprentissage (à l’instar du GPS pour l’orientation ou des algorithmes prédictifs pour la recherche d’information) vont apparaître. Bien plus que des machines learning, on pourrait voir apparaître des dispositifs d’augmentation de la capacité d’apprendre. Ces machines, capables d’apprendre, seraient aussi capables d’aider à apprendre en s’insérant, au plus proche de chacun dans le parcours d’appropriation des connaissances et de développement des compétences. C’est déjà un peu le cas avec la « mémoire externe », mais elle reste encore largement sous exploitée non dans ses capacités de stockage, mais surtout de réutilisation par chacun.
Nous avons atteint une saturation informationnelle qui devient un obstacle à l’apprentissage et à l’enseignement. Il serait intéressant que de nouveaux instruments issus de ces travaux sur l’apprentissage des machines, viennent, non pas faire concurrence à l’humain, mais bien plutôt l’aider à apprendre et à se développer. Il semble que pour l’instant on ne voit pas, dans le grand public, émerger de propositions des industriels et des marchands, sauf s’il s’agit pour eux de déclencher non pas des apprentissages de fond, mais des réflexes de formes, des réflexes de consommation… C’est peut-être de la recherche ou des expérimentateurs que ce genre de projet peut voir le jour. Car la rentabilité est bien incertaine…

A suivre et à débattre

BD

Après les classes inversées, les MOOCs, l’adaptive Learning ?

Et voici la nouveauté de cet automne : « l’adaptive Learning ».
Le vieux rêve de Skinner va-t-il se réaliser ? La machine à enseigner a-t-elle un avenir ? L’intelligence artificielle va-t-elle faire revivre l’adaptive Learning ?
A cette adresse, sur ce blog qui se nomme « les bons profs » (!) http://blog.lesbonsprofs.com/avez-vous-entendu-parler-de-adaptive-learning/ on peut lire ce billet qui nous présente cette approche. Dès à présent les médias s’en emparent et bientôt les échanges vont se propager sur cette pseudo nouveauté du monde de l’enseignement et des technologies. Dans cet article publié par Educpro : http://www.letudiant.fr/educpros/actualite/l-adaptive-learning-la-revolution-qui-vient.html, on y retrouve les ingrédients habituels de toute proposition techno pédagogique qui pourrait changer la face de l’enseignement secondaire et supérieur. Après les classes inversées et les MOOCs, voici donc le dernier avatar de la course à l’innovation pédagogique. Innovation et pas invention car l’adaptive Learning n’est pas une nouveauté loin de là.
On pourra lire aussi http://www.journaldunet.com/solutions/expert/62170/l-adaptive-learning-ou-le-big-data-au-service-de-l-apprenant.shtml ce texte de Anthony Hié(ICP Paris) dont j’ai extrait ce passage qui présente l’Adaptive Learning : « Les Big Data, masses de données disponibles collectées sur nos profils et nos habitudes de surf sur Internet, permettent de mieux cibler nos attentes et d’adapter le contenu d’un cours en fonction des spécificités de chaque étudiant, c’est l’Adaptive Learning. Grâce à des algorithmes de plus en plus complexes nous entrons dans une logique désormais possible de personnalisation avancée, déjà bien connue, et qui a fait ses preuves dans les stratégies marketing.
Mais il ne s’agit pas ici de vendre mais bien d’identifier de nouvelles compétences à acquérir en allant à l’essentiel tout en accélérant la capacité d’apprentissage de manière ciblée. Plus encore il s’agit aussi, grâce à l’analyse prédictive, de définir le meilleur parcours pédagogique possible pour un étudiant et ainsi de lui assurer la meilleure réussite professionnelle possible. Dans cet objectif, ce mode d’enseignement semble particulièrement efficace et permet d’ores et déjà de relever une meilleure motivation et implication de la part de l’apprenant. »

Loin d’être nouvelle (sauf pour ceux qui n’ont pas de mémoire ou qui ne prennent pas vraiment le soin de faire quelques recherches), cette idée d’une machine qui s’adapterait au profil de l’apprenant s’inscrit dans une longue histoire de la recherche sur le fonctionnement du cerveau de celui qui apprend et celle des automates. Relisons l’ouvrage d’Éric Bruillard sur « Les machines à enseigner » (dont la version en ligne est accessible ici : http://www.stef.ens-cachan.fr/version-francaise/membres/les-machines-a-enseigner-268671.kjsp?RH=1215529015990). Reprenons, pour ce qui est du profil, l’idée ancienne développée par René Le Senne à propos de la caractérologie et observons qu’à sa suite, nombre de travaux témoignent de cette recherche incessante de « catégoriser » les humains et ainsi que pouvoir leur donner ce dont ils ont besoin (l’histoire nous a montré que c’est sur cette base de la catégorisation que se sont déroulé les pires massacres). A la suite de cette idée de catégorisation, il y a les travaux menés sur les typologies d’apprenants ou les styles d’apprentissage qui inspirent aussi les démarches de l’enseignement adaptatif. Regardons aussi ce film qui parle des automates intelligents, Hugo Cabret de Martin Scorsese ou encore la machine à apprendre du film « les sous doués passent le bac » (Claude Zidi 1980).

Dans le domaine de l’enseignement appuyés sur les moyens numériques, c’est Marc Meurrens et son logiciel G (Système « G », http://www.meurrens.org/logo/#MM voir à la fin de cet article une évocation de ce logiciel) qui en 1990, dans les travées du centre européen pour l’éducation de la société IBM de la Hulpe en Belgique, avait présenté une idée de ce que pourrait être ce genre de logiciel. Déjà à l’époque l’intelligence artificielle était fortement valorisée avant une traversée du désert dont il semble qu’on la fasse ressortir en ce moment et dans le même contexte. On a surement oublié cette période foisonnante d’idées qui montrait le potentiel théorique des machines qui adaptent leurs réponses aux usagers. Jamais les chercheurs, les passionnés n’ont abandonné cette idée qui peut être inquiétante à bien des égards. C’est d’ailleurs ce que montre cet article : http://www.cea-ace.ca/fr/education-canada/article/neuromythes-et-enseignement qui évoque le neuromythe des styles d’apprentissage.

Imaginons ainsi qu’un jeune soit mis en présence d’un tel logiciel. Que se passe-t-il ? Bien plus que ce qu’Alan Turing pouvait envisager, à savoir l’impression d’avoir un humain alors que c’est une machine avec laquelle on interagit, un logiciel qui contraindrait implicitement l’usager à aller dans la direction d’apprentissage, l’objectif souhaité, en se basant sur les données collectées sur lui, à son insu, mais aussi à partir d’analyse typologiques transcrites dans des algorithmes. Le rêve (de tout enseignant ?) des apprenants qui atteindraient automatiquement les objectifs fixés deviendrait réalité ! Le jeune se verrait guidé, sans qu’il le sache et sur la base de son style d’apprenant et d’un certain nombre d’indicateurs enregistrés automatiquement, de page en page, d’activité en activité, jusqu’à ce qu’il ait atteint l’objectif.
Nous avions, il y a quelques années, imaginé des systèmes simples basés sur la navigation hypertextuelle orientée (comme le livre dont on est le héros) par des règles pour amener celui qui apprend à parcourir les informations que l’on veut garantir qu’il ait en fonction de ses besoins. Cette manière de faire, mécanique, pouvait tout à fait s’enrichir d’un moteur d’analyse complexe du profil qui aurait amélioré le parcours et son efficience. Les travaux de Françoise Demaizière et aussi de Colette Dubuisson ont mis il y a déjà longtemps à jour ces évolutions, leur intérêt et leurs limites. Il faut bien admettre ici, en suivant d’ailleurs la présentation faite sur le journal du Net ci-dessus, qu’on est davantage dans une approche marchande que d’une véritable question pédagogique et psychologique que le logiciel « artificiellement intelligent » aurait enfin résolu.

Nous sommes là en présence d’un phénomène qui mérite qu’on s’y attarde un peu. A nouveau, on tente de nous vendre de l’invention et on fit le buzz autour d’une expression. Ce qui est dommage c’est que comme pour les MOOCs ou les classes inversées, comme jadis l’EAO, d’une idée intéressante à creuser on tente d’en faire un objet marchand rentable à court terme. Dommage parce que l’idée que la puissance de l’ordinateur puisse aider à la guidance de l’apprendre est évidemment intéressante. Mais le passage d’une idée à sa traduction médiatique et commerciale ne peut faire l’économie d’une analyse à partir de regards autrement affutés aussi bien en psychologie qu’en anthropologie, qu’en philosophie, mais surtout en sciences de l’éducation. Le danger est que, comme pour les MOOCs, des décideurs naïfs et séduits s’engagent dans ce chemin sans discernement, sans analyse, simplement parce que le mot « disruption » a été inscrit au fronton d’un article vantant cette approche.

Pour terminer, il faut revenir au fond du problème : La machine à enseigner n’est pas la machine à apprendre ! Il est temps que l’on évite cette approche isomorphique. Depuis longtemps la question de l’intelligence artificielle pose celle de l’intelligence humaine mais ne la résout pas. Dans le domaine de l’enseignement l’effet séduction d’approches dites nouvelles marche bien comme on peut le lire au travers certains propos d’enseignants qui s’épuisent en allant d’innovation en innovation, à la recherche d’un Graal. Ils seront bien sûr les premiers à porter cette approche de « l’adaptive Learning » dès lors qu’ils y trouveront une justification à une nouvelle innovation dont la médiatisation leur assurera la reconnaissance. Les médias sauront soutenir, à l’instar de quelques décideurs ou politiques qui céderont à la facile séduction de la nouveauté. Souhaitons qu’une vigilance « éducative » réelle évite qu’on ne fasse d’un champ d’investigation qui n’est pas nouveau, mais ô combien intéressant, ne se transforme en mode temporaire, enterrant ainsi rapidement le mythe porteur de cette recherche de l’amélioration de l’apprendre, pour retomber à nouveau sur les bonnes vieilles méthodes pour enseigner… Car mécaniser l’enseignement est sous-jacente à cette approche et un modèle socio-économique et anthropologique y est associé qui ne peut que nous alerter… et nous rendre vigilants.

A suivre et à débattre

BD

Description Système G
http://www.collectionscanada.gc.ca/obj/s4/f2/dsk3/ftp04/mq21744.pdf
Un modèle de développement de logiciels-outils de support à l’enseignement
Par Bruno Dima, Université de Sherbrooke 1196

« Le Système GtS est une illustration de cette tendance  et proposait dès 1986 un système d’apprentissage orienté objet  et intelligemment assisté par ordinateur.
Ce système-auteur qui  abandonnait  l’idée d’un scénario prédéfini pour permettre un cheminement personnel de l’élève, comportait un système de dialogue en langage naturel et un modèle de l’élève (pour individualiser renseignement et le dialogue). Le domaine à enseigner et la modélisation de l’apprentissage étaient entrés  sous forme d’objets associés à une documentation de type hypertexte permettant ainsi une très grande souplesse de cheminement »

Décidément le numérique n’est pas fait pour la pédagogie !

Le programme Fatih en Turquie (http://www.ludovia.com/2015/05/les-ecrans-interactifs-en-tete-du-programme-educatif-numerique-fatih/) et cet article promotionnel sur les avantages du tableau interactif : http://www.ludovia.com/2015/11/les-sept-avantages-de-lecran-interactif-face-au-tbi/ font revenir à la surface une question essentielle : y a-t-il un lien entre pédagogie et numérique ? Faut-il vraiment qu’il y ait un lien ?
Alors que depuis des années on se pose la question de « transformer la pédagogie avec le numérique », on s’aperçoit que ce n’est pas vraiment le cas et que c’est plutôt l’inverse, à savoir que c’est parce que l’on change de pédagogie que le numérique peut avoir un autre sens que celui, dominant, que nous observons. Le cas du TBI, celui des tablettes, des ordinateurs portables et autres netbook est assez illustratif de ce débat. On pourra aussi parler des ENT et autres LMS, cahiers de texte numériques et autres logiciels de note et de suivi des élèves comme complément logiciel à cette question d’abord portée par le matériel comme en témoigne le plan numérique promu par la présidence de la république depuis plusieurs mois, fondé sur l’équipement massif en équipement mobile personnel des élèves.

fatih pedago

A regarder la photo du programme Fatih, introduire le numérique dans l’enseignement c’est d’abord enrichir la pédagogie traditionnelle. A lire les nombreux argumentaires autour des technologies en éducation, on s’aperçoit que l’argument du changement pédagogique est plus incantatoire que réel projet dans la plupart des cas. En d’autres termes c’est un bon argument de vente. Comme la plupart des promoteurs de ces produits ont davantage intérêt à la vente et au renouvellement (court terme, long terme) qu’à l’usage (moyen terme), et comme le système scolaire se trouve conforté dans ses habitudes, finalement tout est bien : l’apparence de modernité éducative (présence de moyens numériques) s’appuie sur la solidité de la tradition pédagogique diffusionniste d’une part. Le chiffre d’affaire des fournisseurs est garanti, l’Etat, la puissance publique, jouant les intermédiaires.
On peut se rappeler l’histoire des grandes antennes paraboliques siglées au nom d’une collectivité et installées sur le toit, visible des établissements scolaires dotés. Les enseignants n’utilisant que peu ou pas cette possibilité de montrer des télévisions du monde entier (décalage horaire, problème d’enregistrement, problème de droit), chacun était content. Sans déranger l’institution scolaire, on avait un rendement en termes d’image de marque…. du financeur. On se rappelle aussi le nombre de plaquettes d’établissements scolaires montrant une photo de la salle informatique dont on sait que le fonctionnement était aléatoire et l’usage rare.  Autant de dotations qui n’ont surtout pas eu d’écho en termes de pédagogie.

La photo ci-dessus illustre parfaitement le problème posé : le numérique ne doit pas modifier la pédagogie, il doit moderniser l’image de l’enseignement. C’est l’entrée première de ces politiques. L’argument pédagogique (cf. Jean Michel Fourgous) est parfois porté par les politiques mais on constate qu’en réalité c’est l’évolution du système scolaire qui n’est pas portée conjointement ou plus simplement que l’argument de modernité est peu associé à celui d’évolution pédagogique réelle. On pourra rétorquer qu’il n’y a pas besoin de faire évoluer un système qui fonctionne plutôt bien, même s’il laisse de côté entre 10 et 15% de ceux qui le traversent. On pourra aussi argumenter de l’éphémère du numérique ou encore de sa permanente évolution pour ne pas l’utiliser, en regard de la durabilité, voire de la temporalité des mécanismes d’enseignement scolaire. Mais surtout on argumente en s’appuyant sur les enseignants innovants et autres expérimentateurs qui sont souvent des pionniers volontaires mais qui essaiment très peu en réalité. En d’autres termes l’impact médiatique de l’innovation pédagogique avec le numérique est sans rapport avec l’effectivité des pratiques… quotidiennes. Cela ne serait pas gênant si un mouvement de fond accompagnait ces expériences. Malheureusement l’histoire récente de la prise en compte des évolutions proposées se heurte à un immobilisme général du système, ou plutôt une forte inertie. Les politiques tentent des ouvertures en proposant à la marge des aménagements, rappelons-nous les TPE et les IDD, pour mieux renforcer les fameux « fondamentaux ». Or c’est ce terme qui en fait porte le sens pédagogique de base, la tradition car il prend une double signification, contenant et contenu.

L’équipement massif des élèves, des établissements des classes, les projets pour une véritable prise en compte de la place du numérique dans l’éducation, ne peuvent faire l’économie d’un vrai travail sur l’évolution de la forme scolaire. Regardons simplement la place des tables dans la salle, la gestion des espaces dans l’établissement… On parle de classe inversée, parlons d’établissement inversé, qui mettent au centre la trajectoire de l’élève, entre le social et le scolaire au lieu de mettre en premier des programmes pléthoriques, des enseignants formatés, des espaces temps figés. Cependant cette évolution n’est pas liée au numérique, elle ne peut d’abord que se justifier par l’omniprésence du numérique pour ensuite réfléchir aux modèles pédagogiques pertinents pouvant accompagner cette véritable inversion.

A suivre et à débattre

BD

Derrière l’écran, les algorithmes mais aussi l’imaginaire.

Parmi les livres récemment parus, certains semblent importants pour tout éducateur (enseignants, parents, formateurs, éducateurs, etc…) qui utilise et fait utiliser l’informatique et les objets numériques dans sa pratique personnelle autant que professionnelle. Le premier, dans l’ordre de parution est celui d’Eric Sadin, « la vie algorithmique, critique de la raison numérique » (L’échappée, 2015), le second paru en début octobre est écrit par Dominique Cardon, « A quoi rêvent les algorithmes, Nos vies à l’heure des big data »(Seuil la république des idées, 2015). Deux autres, un peu différent, sont tout aussi importants. Celui de Fred Turner, « Aux sources de l’utopie numérique, De la contreculture à la cyberculture, Steward Brand un homme d’influence »(C&F Editions 2006 – 2012, préface de Dominique Cardon). Et enfin celui de Pascal Plantard, « les imaginaires numériques en éducation » (editions Manucius, 2015).
Si les deux premiers ouvrages nous invitent à comprendre ce qui se passe derrière les écrans et surtout dans toutes ces machines numériques connectées, les deux suivants nous invitent à comprendre comment se construisent les représentations mentales et sociales, les imaginaires, à propos de l’invasion des moyens numériques dans notre quotidien. Mais ce qui fait la force de ces quatre ouvrages c’est qu’ils nous permettent de regarder d’un peu plus près, d’y voir un peu plus clair et surtout d’articuler la technique et l’humain.
Dans ce billet je m’attarderai particulièrement sur l’un d’entre eux, celui de Dominique Cardon et ensuite j’évoquerai celui de Pascal Plantard. Non seulement parce qu’ils sont plus directement accessibles (taille, poids, langage – quoique ), mais aussi parce que ayant l’occasion de rencontrer ces deux auteurs au cours de ces années, il me semble que, chacun dans son registre, apporte aujourd’hui des clefs de compréhension et d’analyse essentielle au monde de l’éducation en général et au monde scolaire en particulier et ce, dans un contexte de poursuite des ambitions numériques du pouvoir politique et plus globalement, semble-t-il de la société.

Dominique Cardon nous propose une analyse en profondeur des algorithmes liés aux big data, aux traces et aux calculs qui sont faits. Après avoir présenté les quatre modes de regard que les algorithme portent sur l’information numérique et le retour qu’ils font dans les domaines de la popularité, l’autorité, la réputation et la prédiction, l’auteur nous invite à plonger dans le coeur des algorithmes liés aux traces. Ce faisant, il aborde une des formes que les algorithmes ont développées, parmi d’autres. En ce sens le titre de l’ouvrage est heureusement complété par le sous-titre qui évoque les big datas. Tout l’intérêt de cette analyse est, outre qu’elle explique les déplacements d’approche incarnées dans les algorithmes de Google ou de Facebook (et autres), c’est surtout de nous faire comprendre la mutation qui s’opère autour des traces et des signaux. Cette mutation, c’est principalement celle de l’individu qui devient un « produit » particulier dont il faut détecter les comportements pour mieux les guider (cf. les citations de l’ouvrage au bas de cet article.

Mais il ne faudrait pas qu’une lecture réduite aux quatre approches (qu’ont d’ailleurs faits certains journaux) occulte celle plus large de la question des algorithmes qui sous-tendent tous les logiciels, parfois les plus simples d’apparence (les traitements de texte par exemple) aux plus complexes au premier abord (les jeux). L’usage des logiciels du quotidien est marqué par les choix qu’ont faits leurs concepteurs. Ces choix sont plus ou moins perceptibles et relèvent de stratégies parfois explicites, mais le plus souvent implicites et qui pourtant imposent à l’usager des manières de faire qu’il peut difficilement contourner ou détourner. Or les algorithmes sont la traduction opérationnelle cachée des anciens modes d’emplois souvent illisibles que des techniciens rédigeaient pour les appareils grand public (on se rappelle l’exemple des magnétoscopes…). Mais à la différence de ceux-ci, on a remplacé le mode d’emploi par le « pas besoin d’apprendre » faites ce qu’on a programmé pour vous !!! La force de la programmation des machines est qu’elle impose l’usage (une sorte d’affordance exponentielle) et que les algorithmes qui sont à la base de sa conception ne sont rien d’autre « qu’une intention humaine embarquée dans la machine », dans le logiciel pour être précis. L’usager heureux de tant de possibles en oublie les impossibles et se laisse allégrement guider par cette volonté cachée.

C’est dans la rencontre de ces deux approches, celles des algorithmes des logiciels qui traitent les big data et ceux qui sont dans les logiciels les plus simples, que l’on retrouve une question fondamentale : la capacité de chacun à dépasser ces contraintes pour effectuer ses « propres choix », exercer une liberté, si fondamentalement chère à Michel de Certeau. Sans tomber dans une analyse manichéiste ou complotiste, il nous faut cependant bien comprendre les enjeux des développements actuels qui s’effectuent à l’échelle de la planète, de tous les humains et dont les conséquences sont quasiment impossible à prévoir. Les médias de flux qui servent de caisse de résonance n’ont pas grand-chose à faire de ces analyses qui sont aussi révélatrice de leur propre algorithme, celui les amène à chercher le scoop, l’audience, la popularité, en lieu et place, parfois d’une information authentique. En d’autres termes, les algorithmes sont dans nos têtes avant d’être dans nos logiciels. Nombre de nos dirigeants tentent de piloter nos sociétés et nos vies avec ces algorithmes. Contrairement à ceux qui sont dans nos machines, ils sont beaucoup plus difficiles à « objectiver », à « décrypter ». Mais ils sont aussi moins linéairement efficaces que ne le sont les machines binaires à la rhétorique implacable et parfois définitive, surtout lorsque le résultat fourni est une « bombe au centre de l’écran » (Apple) ou un « écran désespérément bleu » (Microsoft).

Pascal Plantard a publié un livre court et percutant sur les imaginaires numériques en éducation. Passant d’une analyse anthropologique à une étude de terrain, il nous permet de voir au plus près l’incarnation des imaginaires au travers des pratiques du quotidien (projet INEDUC). Il écrit : « En éducation, la place des imaginaires est première car le processus même de l’éducation formelle, informelle, familiale et artistique… procèdent de la construction voire de la transmission du partage des imaginaires » (p.19) A la suite de ce propos il présente, à l’instar de Pierre Musso, 6 marqueurs des techno-utopies : naturalisation de la technique (homme machine), la dimension révolutionnaire associée à la technologie, l’apaisement universel par les réseaux, la dimension libertaire et la dimension déterministe. Ce paysage posé, ainsi que celui des grands mythes qui sont revisités par le développement des techniques numériques, sert surtout à analyser la relation que les jeunes entretiennent avec le numérique, en particulier ceux qui sont au collège, puis du plan d’équipement massif proposé par le président de la république pour 2016. Effectivement on retrouve aussi bien dans les propos des jeunes sur les pratiques, de même que dans ceux des politiques, la trace des mythes et de ces marqueurs. On les retrouve aussi dans nombre de propos médiatiques sur le numérique. On pourrait ajouter aussi que chacun de ces mythes porte aussi son contraire, c’est à dire l’idée qu’ils pourraient porter le pire comme le meilleur (ce qui est le propre d’un mythe semble-t-il). La conclusion que l’on peut tirer de cette lecture est que les priorités retenues par les pouvoirs et nombre d’acteur face au numérique sont davantage inspirées par le flot communicationnel d’où émergent les mythes que par une analyse des besoins de la population, basés sur une vision politique à long terme.

On retrouve aussi dans cet ouvrage des liens avec deux auteurs, d’une part Philippe Breton d’autre part Fred Turner qui, chacun dans leur sens, éclairent la question de ces techno-utopies. Le premier de ces auteurs a très tôt soulevé la question des imaginaires en particulier au moment de l’émergence d’Internet à la fin des années 1990. Le second visite quant à lui les fondements culturels et politiques de l’Internet et de l’informatique d’aujourd’hui. La lecture du livre de Steward Brand (et de l’introduction de Dominique Cardon) est un plaisir immense pour qui veut se plonger dans l’histoire intellectuelle qui a donné vie aux technologies contemporaines et surtout à leurs formes d’usages, rendues possibles par ces visions qui petit à petit se sont infiltrées dans les programmes informatiques, les algorithmes, et plus généralement dans les manières de faire d’aujourd’hui. Cours d’histoire, certes, mais vivant et surtout extrêmement bien documenté, accessible et appuyé sur des analyses solides dont l’auteur prend plaisir à faire partager les interprétations, voir les conclusions.

Si les algorithmes sont particulièrement et spectaculairement présents dans l’usage des traces et des big datas, ils sont aussi, et bien plus encore présents dans le quotidien des usagers de l’informatique. De l’antique clignotement de l’écran des premiers ordinateurs individuels aux interfaces des tablettes et autres smartphones, les concepteurs n’ont eu de cesse de faciliter les utilisations. Mais la contrepartie c’est la « détermination » de ces usages. L’utilisateur obéit au concepteur. C’est ce dernier qui décide donc des possibles et des impossibles. Il décide aussi, et cela se voit plus souvent qu’on ne le pense, de ce que doit maîtriser l’usager pour accéder aux possibles. En d’autres termes selon la qualité de la conception, l’usager aura plus ou moins besoin de connaissances techniques. On se rappelle les manuels pléthoriques de certains logiciels des années 1980 – 1990. En faisant disparaître ces aides papier ou numérique, c’est l’ergonomie qui est repensée et plus encore la guidance automatique de l’usager au travers de programmes et d’algorithmes qui définissent ainsi les usages possibles. Un simple exemple pourra illustrer cela : ceux qui ont utilisé des logiciels/programmes/applications pour enfants savent bien que les concepteurs des produits font des choix. On se rappelle par exemple le produit Adibou qui donnait accès à des jeux à l’utilisateur qui avait atteint un niveau de résultat aux exercices imposés. Plus subtils sont les algorithmes qui analysent votre profil pour vous orienter, ce qui semble arriver dans les produits appelés « adaptive learning ». Mais beaucoup plus courants les algorithmes des appareils de guidage du conducteur basés sur le GPS. Le calcul d’itinéraire est bien le résultat d’un choix de programmation et d’algorithme qui s’impose et impose parfois à l’usager des trajectoires inattendues…

On semble découvrir aujourd’hui cette question qui pourtant n’est pas nouvelle. Cet effet de mode est renforcé par les luttes contre les hégémonies, voire les monopoles de toutes sortes dont il semble bien que l’on puisse penser qu’ils sont à l’origine de dominations et de contrôles. D’IBM à Microsoft, de Google à Facebook, et autres multinationales du numérique, chacune fait ou a fait l’objet de critiques majeures dès lors qu’elles ont été dominantes sur leur marché. La puissance économique politique et technique est devenue telle que certains s’inquiètent et cherchent à leur échapper ou au moins à neutraliser leur influence. Malheureusement on ne peut que constater la récurrence de ces questions, avec ou sans technologies numériques. Comme si la volonté de domination était une sorte de mécanisme fondamentalement inscrit dans le fonctionnement mental….

************************

Quelques citations importantes du livre de D Cardon pour alimenter la réflexion et aussi l’envie de lire son livre (qui fait l’objet de beaucoup de compte rendus de presse)

« La complexification des modèles algorithmiques mis en oeuvre dans les nouvelles structures informationnelles contribue à imposer le silence à ceux qui sont soumis à leurs effets » (p.13)

« Les objets techniques ne fonctionnent que parce qu’ils opèrent dans un « milieu associé » qui les rend efficaces et pertinents. » (p.14)

« Les données brutes n’existent pas. Toute quantification est une construction qui installe un dispositif de commensuration des enregistrements et établit des conventions pour les interpréter » (p.56)

« Il est encore temps de dire aux algorithmes que nous ne sommes pas la somme imprécise et incomplète de nos comportements » (p.103)

« Il s’agit désormais de calculer le profil e l’utilisateur à partir des traces des activités en développant des techniques d’enregistrement qui collent au plus près de ses gestes. » (p.34)

« les algorithmes prédictifs ne donnent pas une réponse à ce que les gens disent vouloir faire, mais à ce qu’il font dans vouloir vraiment se le dire » (p.34)

– (manipulation du réel, débordement des catégories; calculer au plus près, corrélation sans cause) « Ces déplacements montrent comment les statistiques, photographies extérieures de la société, sont progressivement entrées dans les subjectivités contemporaines en leur permettant de se comparer, avant de venir subrepticement calculer à leur insu le comportement des personnes. » (p.43)

« Les big data réaniment le projet d’objectivité instrumentale des sciences de la nature, mais cette fois sans le laboratoire : c’est le monde qui devient directement mesurable et calculable. Leur ambition est de mesurer au plus près le « réel », de façon exhaustive, discrète et à grain très fin. » (p.44)

« Même en ayant le sentiment de faire des choix singuliers, nos comportement obéissent à des habitudes routinières profondément inscrites dans notre socialisation. » (p.65)
« En préférant les conduites aux aspirations, les algorithmes nous imposent ce réalisme efficace. Ils nous emprisonnent dans notre conformisme. (…) ils sont prédictifs parce qu’ils font constamment l’hypothèse que notre futur sera une reproduction de notre passé. » (p.70)

« Le développement d’une éducation et d’une culture partagées des algorithmes devrait nous aider à décoder et interpréter la manière dont ils façonnent nos représentations. »(p.83)

« De façon très conservatrice, le calcul algorithmique reconduit l’ordre social en ajoutant ses propres verdicts aux inégalités et aux discriminations de la société : les mal notés seront mal servis et leur note en deviendra plus mauvaise encore. » (p.86)

Nouvelles technologies nouvelles compétences ?

Il est toujours agréable et désagréable de voir ses anciennes idées réutilisées comme nouvelles par d’autres plusieurs années après. Agréable car cela signifie que vos idées avaient déjà été perçue et que leur confirmation renforce votre vision. Désagréable car on a rapidement l’impression que dans le flot des données le dernier qui parle a raison, qu’il est innovant et visionnaire, sauf que ce n’est pas vrai.

Ainsi en est-il de ce texte que j’avais commis en 1998 et qui à l’époque n’était pas totalement visionnaire, mais dont je retrouve aujourd’hui, sous des formes voisines, la reprise au moins partielle. C’est pourquoi je ne résiste pas à l’envie de republier ce texte… de 1998 (17 ans déjà)…

A suivre et à débattre

BD

PS On trouve facilement sur la toile et dans les librairies nombre de documents plus récents qui confirment mon analyse.

*************************************

Cette intervention a eu lieu lors du forum Transfrontalier (Canton de Genève, Val d’Aoste, Haute Savoie) en Mars 1998

  Nouvelles technologies nouvelles compétences ?

 

Avec le développement actuel des nouvelles technologies nous pouvons constater que le monde du travail change. Face à cette évolution les jeunes sont confrontés à la nécessité d’intégrer ces changements. Après avoir essayé d’analyser les formes actuelles de ce changement dans le monde du travail, nous essaierons de comprendre quelle nécessité il y a pour les jeunes d’intégrer ces chargements, et ainsi essayer d’envisager quelles sont les stratégies à mettre en oeuvre dans un établissement scolaire pour répondre à ces nouveautés.

 

1 – Comment le développement d’une technologie modifie le travail ?

Une échelle mondiale.

La première caractéristique du changement de mode de travail est celle, et cela est banal désormais de le dire, de la mondialisation. Dans toutes les entreprises le développement et la stratégie dépassent désormais les frontières du pays d’origine. Il faut compter avec l’ensemble des entreprises, partenaires ou concurrentes, où qu’elles soient situées dans le monde entier. L’entreprise s’adapte donc progressivement à cette nouvelle donne et intègre bien évidemment les outils nécessaires pour y faire face.

L’ omniprésence de l’information

La multiplication des informations mises à disposition des individus dans le monde entier développe ce que certains appellent à une nouvelle société informationnelle. L’information est désormais non seulement disponible en permanence mais elle s’était largement multipliée et personnalisée. Le représentant de commerce, la secrétaire ou encore le cadre peuvent être en liens permanents et ainsi échanger les informations dont ils disposent. Les moyens de stockage ainsi que les moyens de diffusion de l’information sont les instruments de base de ce changement.

L’absence et distance en question

Les outils nouveaux tels Internet ou le téléphone portable dont l’usage se multiplie dans les entreprises tendent à faire disparaître les distance qui séparent le salarié du lieu de décision. Les notions de temps de travail et des disponibilités deviennent donc extrêmement relatives. L’ensemble de ces technologies et depuis trés longtemps tent à réduire les distances entre les salariés et leurs entreprises, entre l’ensemble des acteurs de la société, et tendent aussi à supprimer l’absence physique en la remplaçant par une présence virtuelle.

Une complexité grandissante

La perception qu’à désormais le salarié de son environnement est de plus en plus fragmentaire. Le flot d’information, l’absence de points de repère dans l’espace et dans le temps sont des éléments qui concourent à faire percevoir le monde comme complexe. Dès que le salarié essaie de comprendre comment sa tache s’insère dans la globalité, il s’aperçoit que les liens sont extrêmement nombreux, extrêmement complexes, et que, toute modification à son niveau, peut avoir des répercussions sur bien d’autres niveaux qu’il n’aperçoit pas a priori.

La libre concurrence comme modèle

Le cadre de cette évolution technique qui propose une société ayant l’information au centre de ses préoccupations s’appuie sur un modèle d’économie fondée sur la libre concurrence. L’objectif assigné dès lors à l’introduction des nouvelles technologies dans un cadre professionnel doit être au service de la productivité et ainsi permettre à l’entreprise d’être au niveau de ses concurrents. Jusque dans que sa tâche quotidienne, le salarié perçoit cette concurrence qui peut même lui faire perdre son perdre son emploi. Il doit donc nécessairement, non seulement faire face aux concurrents extérieurs à l’entreprise, mais aussi à ceux qui se trouve dans l’entreprise voire même aux technologies susceptibles de le remplacer.

 

2 – Comment les jeunes pourront-ils intégrer ces changements ?

Savoir s’adapter

Il est devenu banal de dire à des jeunes que dans leur vie ils auront à effectuer des métiers différents. Toutefois la réalité du travail n’est pas exactement celle-là. En réalité on peut observer qu’il s’agit davantage de s’adapter progressivement à de nouvelles conditions survenues dans l’environnement. C’est bien davantage une adaptation qu’à un changement de conditions de vie, de conditions de travail. Cette évolution permanente suppose donc que les jeunes développent cette capacité à s’adapter en particulier face à l’incertain.

Conduire sa trajectoire de vie

Si un certain fatalisme semble envahir une partie de la population, en particulier celle en difficulté, il semble bien nécessaire aujourd’hui de préparer les jeunes à ne pas accepter passivement les événements qu’ils ont à affronter. La sociologie des organisations, en particulier Michel Crozier dans « l’acteur et le système » propose désormais une idée selon laquelle tout individu doit pouvoir influer sur sa trajectoire de vie. Le développement progressif de la notion de projet, projet personnel de l’élève, etc. sont des signes de cette prise de conscience. Il faudra toutefois veiller à ce que cette mise en projet ne soit pas une injonction des adultes envers les jeunes mais bien l’intégration dans les dispositifs d’enseignement et l’éducation de la possibilité pour le jeune de développer la compétence à conduire sa trajectoire de vie .

Discerner et trouver la formation adaptée

Les jeunes se trouvent souvent face au paradoxe suivant : une immensité de choix et l’impression de ne pouvoir en faire aucun. La multiplicité des sources d’information de même que la possibilité d’accéder aux ressources du monde entier au travers des réseaux donnent l’impression de disposer d’une ouverture impressionnante et riche, permettant de faire des projets d’avenir. Dans le même temps les propositions de la société en terme d’insertion sociale se réduisent et de nombreux jeunes dénoncent les horizons bouchés.

Pour faire face à cette vision paradoxale et forcément réductrice, il est indispensable de préparer les jeunes à discerner dans la multiplicité des choix offerts et ainsi de construire un chemin. Le risque de désespérance reste grand pour ceux qui ne bénéficient pas de cette perspective d’ouverture, contraints qu’ils sont par une origine qui les disqualifie a priori et les enferme dans des trajectoires prévisibles.

Travailler en collaboration

La montée de l’individualisme, très souvent notée au cours des dix dernières années, a développé un modèle dans lequel une certaine idée de réussite ne pouvait avoir lieu que pour l’individu qui serait vainqueur d’une lutte contre les autres. Cette vision, renforcée par la libre concurrence, s’avère être un leurre dès que l’on essaie d’analyser l’environnement social, technique et économique. En effet, pour parvenir à réaliser des projets, il est de plus en plus indispensable de travailler à plusieurs. C’est à dire de travailler en « collaboration », dans le même esprit au service d’un projet partagé. Parler de travail collectif ne suffit pas , il s’agit en fait d’une taylorisation déguisée qui répond souvent à un impératif économique à court terme. Le travail collaboratif, qui s ‘appuie sur les notions de réseaux et de partenariat devient progressivement le moyen privilégié pour développer des projets.

Accepter l’incertain

Les jeunes qui essaient de trouver du sens dans des engagements extrémistes, politiques ou religieux, témoignent d’une peur de l’incertain apparue suite à l’écroulement du modèle rationaliste, vécu en particulier après la fin des trente glorieuses (1945 – 1975) et avec l’apparition des crises successives inaugurées par la question pétrolière, puis par la chute des idéologies communistes. Le modèle libéral triomphant, appuyé sur la mondialisation et la libre concurrence, n’apporte pas de réponse suffisamment significative pour le jeunes. La présence de l’incertain dans les espaces de la vie quotidienne demande à être acceptée. Les jeunes ont donc à développer de nouvelles attitudes, pour lesquelles les adultes ne présentent pas encore de modèle construit, identifiable dans des projets et des choix de société. De la violence, vers les autres ou vers soi même, à l’adoption d’attitudes sectaires, l’incertain fait peur aux jeunes, ils essaient de construire des bases pour dépasser cette angoisse.

 

3 – Quelle stratégie mettre en oeuvre dans l’établissement scolaire ?

A partir de ces constats, il me semble possible de proposer des pistes d’action pour l’école afin que celle-ci retrouve sa place dans une société transformée par les nouvelles technologies de l’information et de la communication.

Développement de l’autoformation

A l’opposé du modèle scolaire traditionnel (la forme scolaire), être capable de s’autoformer devient prioritaire pour les jeunes. L’école doit donc développer des stratégies dans lesquelles elle ne décrète pas l’autoformation, comme si cela s’apprenait comme n’importe quelle autre matière, mais qui permettent aux jeunes de développer progressivement des attitudes d’autoformation au sein du système d’enseignement. La direction de l’apprentissage ne dépend alors plus seulement d’un programme décrété par un ministère, où d’une progression décidée a priori par un enseignant, mais aussi du sens et de la direction que le jeune tente de mettre dans sa trajectoire.

Culture de la responsabilité

Les tentations de conformisme scolaire sont très grandes chez les élèves et les enseignants. S’il est rassurant de trouver des points de repères autour de soi, il est dangereux d’oublier d’apprendre à en poser soi même. La notion de responsabilité semble essentielle pour parvenir à développer cette possibilité de construire ses propres points de repères, en les « mettant en débat » tant avec les adultes qu’avec les jeunes. Cet accompagnement de la « prise de la responsabilité » par le jeune suppose l’acceptation et la reconnaissance par l’adulte enseignant de cette évolution qui pourra être davantage douloureuse pour l’adulte, qui devra alors reconstruire une identité légitimée, que pour le jeune puisse devenir responsable.

Conduite autonome de projets

Au sein de l’établissement scolaire, la conduite à projets ne doit pas être du seul ressort des adultes. C’est en particulier lorsque les adultes demandent aux jeunes de définir leur projet (projet personnel de l’élève par exemple) qu’ils ont des difficultés à laisser le jeune les construire de façon autonome. Du désir de l’adulte à l’angoisse transmise au jeune, on sent souvent au travers de cette démarche de mise en projet une volonté de rationalisation de la trajectoire du jeune. Le développement de la conduite autonome de projets suppose que l’on mette en place les conditions de l’émergence de projets, mais pour cela l’école doit passer du statut de lieu de transmission des savoirs à celui de lieu de vie.

Travail de groupe

Le développement des travaux de groupe s’inscrit dans la dimension collaborative vue plus haut. Trop souvent alibi scolaire permettant de parler d’élève acteur, le travail de groupe devra s’orienter vers une véritable travail de collaboration entre les élèves et les enseignants. C’est avant tout un lieu de co-construction des savoirs.

La concurrence scolaire

L’énergie que les élèves mettent dans la concurrence scolaire pourrait être mise au service de la progression de chacun en fonction de sa trajectoire. Il s’agit donc de développer des modèles évaluatifs individualisés (les NTIC peuvent y concourir) permettant au jeune de comprendre sa progression. Les travaux sur les portefeuilles de compétences ou encore les arbres de connaissance et aussi de bilan de compétence sont des axes qui peuvent être explorés.

Production collective d’élève

Favoriser les apprentissage par production de savoir semble être prometteur, en particulier à l’aide des NTIC, dans ses dimensions de communication à distance et travail collaboratif. Les démarches permettant ce type de fonctionnement ne peuvent se développer que si elles sont ritualisées et acceptées de l’ensemble de la communauté éducative. Si elles sont occasionnelles, brouillonnes et marginalisées, elles ne peuvent être évaluées et développées. C’est souvent le sort des innovations pédagogiques que de rester ainsi. Cette attitude suppose des décloisonnements disciplinaires et des modifications de l’organisation du temps et de l’espace scolaire.

Recherche du sens dans la collaboration

Pour terminer, il semble important que le sens des actions menées dans l’école soit travaillé. Les informations transmises par les nouveaux médias supposent une distance critique qui ne peut se construire que dans l’interaction humaine. Cet apprentissage suppose que dans la relation pédagogique, il y ait cette recherche permanente d’explicitation du sens des actes. La dimension collective de cette démarche vise en particulier à lutter contre l’isolement psychologique de la justification.

Cette démarche vise à faire en sorte que les nouveaux médias, comme les plus anciens, ne soient plus extérieurs aux individus, mais bien intégrés et appropriés, c’est à dire que l’entrée dans une société informationnelle ne soit pas subie, mais bien analysée et si possible maîtrisée par les générations actuellement dans nos écoles et bientôt à notre place dans la société.

 

Qu’est-ce qu’un chercheur ? Qu’est-ce que la recherche ?

D’une discipline à l’autre, l’idée que l’on se fait du chercheur change de manière significative. D’un milieu professionnel à un autre la compréhension de ce qu’est un chercheur et l’imaginaire qui y est associé est extrêmement variable, en particulier si l’on pense en être ou non. Déclarer qu’un « vrai chercheur » c’est quelqu’un qui publie dans des revues importantes (impact factor) est avancé jusque dans certains cercles. Cette conception de la recherche est d’abord marquée par un jacobinisme fort (les revues remplacent le pouvoir politique pour attribuer la reconnaissance) et ensuite elle promeut l’entre soi, voire la complaisance dans certains cas, du moins on peut l’imaginer. Car l’évaluation par les pairs, en aveugle, est la caractéristique essentielle de la reconnaissance de la qualité du chercheur. Plusieurs exemples récents ont montré les limites de cette vision et ont montré que la course à la publication et à la notoriété peut amener à déraper sur la qualité scientifique. Aucun système n’est parfait et celui-là moins que d’autres diront les défenseurs de l’orthodoxie universitaire. Ajoutons à ce premier tableau que l’on peut distinguer au moins trois grands types de recherches : fondamentale, appliquée, action. Or ce qui fait marcher l’imaginaire et les représentations c’est la figure du savant fou ou malade plus que le laborieux travail quotidien de l’observation, de l’expérimentation, de la lecture, de l’écriture. C’est d’ailleurs parfois associé à un sentiment de supériorité du fondamentaliste qui se sentirait chercheur dégagé des contingences du quotidien. Ainsi le tableau est posé, la recherche est enfermée dans un ensemble de représentations et de discours, mais aussi de règles et de rites qui la rendent souvent exotique à une grande part de la population.

Mais la recherche n’est pas le monopole des chercheurs patentés, titrés, institués et publiés… Il suffit de regarder la réalité, dans le monde de l’éducation, pour comprendre que la recherche, c’est d’abord un état d’esprit, puis une démarche et enfin des traces et pas n’importe lesquelles. Le développement de l’informatique en milieu scolaire illustre bien cette idée. Il suffit de regarder l’ensemble des productions écrites depuis le début des années 1970 pour comprendre le foisonnement et l’activité réelle menée et les recherches conduites, parfois de manière clandestine, souterraine, invisible. Ce ne serait pas de la recherche par ce que le « chercheur » professionnel ne serait pas à la source de ces travaux et surtout à la fin, dans les publications dans des revues classées !

Il faut donc renvoyer la recherche académique à sa niche. Et comme toute niche elle a sa valeur propre, mais encore faut-il qu’elle aille se diffuser et s’incarner. Car à côté d’elle, il y a nombre de travaux, dont on trouve trace dans des revues spécialisées comme jadis la revue EPI (papier) ou des revues moins spécialisées dans le numérique comme les Cahiers Pédagogiques. A la différence de revues comme la scientifique Revue Française de Pédagogie, la diffusion des travaux rapportés dans ces revues « intermédiaires » est beaucoup plus grande, même si elle est loin d’atteindre l’ensemble de la profession. Nombre de chercheurs académiques ont écrit des textes pour ces revues et ont tenté de sortir des niches des colloques et revues scientifiques, toutes à comité de lecture, bien sûr. Mais ces tentatives portées par des revues comme « Sciences Humaines » par exemple ou encore « Science et vie » ou même « La recherche » pour les plus connues du grand public, ne sont pas valorisées dans la carrière réelle d’un enseignant chercheur.

Bruno Latour, et d’autres, ont raconté ce qui se passe au cœur des laboratoires et des équipes de recherche. Aujourd’hui encore le fonctionnement réel des équipes laisse parfois penser qu’il est plus important de gérer sa carrière personnelle que celle d’un laboratoire, d’un collectif. Ce qui est paradoxal c’est que nombre de chercheurs collaborent avec leurs « amis » mais pas au sein d’équipes constituées et ayant un projet collectif. On se rappelle les propos sur le mandarinat de certains chefs, ceux sur la manière de se glisser dans le système pour y faire carrière etc… (« Un tout petit monde » livre de David Lodge). C’est ça la recherche ! disent certains qui découvrent cet univers ou le côtoient un peu.

La recherche c’est donc d’abord un état d’esprit : questionner les évidences, ne pas accepter le discours général ou la première impression. C’est une démarche, celle de la recherche de preuves de manière le plus rigoureuse possible. Il y a là un piège connu, celui de la méthode scientifique, dont l’emblème est le travail de Claude Bernard (au parcours scolaire difficile) ou celui de Jean Rostand (pourtant en dehors du monde universitaire). Les sciences humaines pourtant, de Levi Strauss à Michel Foucaud, d’Emile Durkheim à Bernard Lahire, par exemple, ont ouvert de nombreux possibles comme ceux que Howard T Becker a bien montrés dans son livre « les ficelles du métier » (la découverte 2003). Au lieu d’y voir de la complémentarité d’aucuns y voient des rivalités.

Revenons donc au quotidien des acteurs de l’enseignement et leur accès à des activités de recherche. En 2001, Philippe Perrenoud parlait de la pratique réflexive. Plus largement plusieurs auteurs ont évoqué la possibilité de la recherche action. Nombre d’enseignant sont dans une démarche de recherche et ce qu’ils écrivent et mettent à disposition, en particulier sur Internet, prouvent qu’ils ont déjà soulevé le couvercle. Mais celui-ci se referme très vite pour deux raisons opposées. La première est la temporalité de la recherche, la deuxième est la reconnaissance de la recherche. Pour la première l’enseignant plongé dans son quotidien et invité au présent de la classe a peu de temps pour la réflexivité au moins, la démarche de recherche au plus. Pour la deuxième, si jamais il parvient à une production, sa reconnaissance sera rarement celle des chercheurs patentés, sauf dans des cas bien précis qui rapprochent des praticiens des chercheurs et qui permettent des publications collectives.

Ce contexte global, dont on ressent dans les échanges avec des enseignants qui souhaiteraient entrer dans ces démarches qu’il est difficile, fait que nombre de ceux qui s’expriment se sentent éloignés de la recherche. Certains en refusent même les atours, de peur de se retrouver dans la position de l’arroseur arrosé. Du coup l’autorité de l’écriture a beaucoup de mal à être perçue à sa juste valeur, au-delà du titre académique. C’est pourquoi il nous semble essentiel, si l’on veut que les travaux de recherche gagnent en diffusion, qu’ils soient, à l’instar de ce que préconise la sociologie de la traduction, réalisés dans des collectifs « pluriels » dont nul n’est a priori exclu. Ces collectifs comportent aussi bien des acteurs du milieu que des acteurs d’autres milieux complémentaires. Un certain nombre de projets récents (eEducation par exemple) ont imposé la présence de chercheurs dans des consortiums de développement de solutions nouvelles. Ils ont imposé au chercheur un déplacement dans la posture : être dedans et distant en même temps !!! Cette expérience vécue par plusieurs laboratoires d’éducation récemment a permis de voir combien le chemin à parcourir est compliqué, mais combien il est nécessaire.

A suivre et à débattre

BD

PS on dit dans certains lieux que l’auteur de ce blog n’est pas un « vrai » chercheur mais plutôt un passeur. Mais qu’est ce qu’un chercheur qui n’est pas un passeur ?

1 2 3 4 61