S’intéresser aux pratiques « ordinaires »

La succession de pratiques appelées innovantes, nouvelles, amène à penser que ces pratiques, lorsqu’elles rentrent dans « le rang médiatique de l’oubli », sont passées dans la vie courante des enseignants. La succession des enquêtes sur les pratiques du numérique dans l’enseignement montre que, dans ce domaine il n’en est rien. Les pratiques dites innovantes ne se généralisent que très peu, voire pas du tout. Les Freinet, Cousinet et autres Montessori ont eu beau nous montrer des chemins différents, ils sont toujours restés en marge de l’institution scolaire dans sa globalité. Or les pratiques ordinaires sont d’abord les pratiques largement majoritaires. Installées dans le paysage depuis longtemps, elles font figure d’évidence pour chacun.

Qu’est-ce donc qui résiste ? Désigner un coupable serait faire fausse route : ni les enseignants, ni l’institution, ni la société, ni les familles, n’ont de responsabilité spécifique. Avec le numérique et son développement dans la société, on peut se questionner, car le contexte est totalement différent d’autres situations antérieures. Ce qui change c’est que les acteurs de l’éducation, tous les acteurs, ont développé des pratiques ordinaires du numérique dans leur vie courante.
Qu’observons-nous ? C’est que les enseignants, en premier lieu, utilisent de plus en plus la vidéo projection en classe, surtout lorsque les installations sont fixes et dans toutes les salles, ce qui est de plus en plus souvent le cas dans le second degré et est en train d’advenir dans des écoles primaires de plus en plus nombreuses.
Que constate-t-on? Que les téléphones portables arrivent de plus en plus tôt dans les cartables des enfants (à partir du CM1 désormais semble-t-il). Que les tablettes qui sont de plus en plus souvent dans les foyers tendent à se multiplier à l’école primaire, même si c’est au prix de variations importantes et de démarches complexes.
Que voit-on ? De plus en plus d’enseignants utilisent et font utiliser le smartphone par les élèves pendant les cours. Mais peu d’établissement disposent pour l’instant de matériel individuel mis à disposition pour les élèves. Ils préfèrent utiliser le matériel disponible et fonctionnel ici et là, au moment où on en a besoin à portée de main.

Quelles pratiques, quels usages ? Mais de révolution pédagogique, point. Les pratiques ordinaires restent donc proches des prescriptions frileuses d’une institution qui semble échaudée, parfois, par la peur de l’initiative des équipes, préférant promouvoir des individualités remarquables tout en laissant de côté les pratiques ordinaires, comme si elles étaient rassurantes pour tous. A la recherche des acteurs de ces pratiques ordinaires, on s’aperçoit vite que chacun de nous en est porteur. Derrières les arbres de l’essai se cachent la forêt de la routine.

Et pourtant les changements se font, comme on l’observe au quotidien. Mais pas là où les discours médiatiques portent leur regard. Pas là où les vendeurs désignent ce qu’il faudrait faire de leurs appareillages. Elles se font dans la « zone proximale de développement » (Vygotsky) de chacun de nous. La construction de l’aisance pédagogique de l’enseignant ne se fait pas à coup d’injonctions de généralisation ou de médiatisation des bonnes pratiques. Elle se fait dans le sentiment d’assurance personnelle, de sentiment d’auto-efficacité (Bandura) d’estime de soi et de résilience (Cyrulnik). Elle se fait aussi dans la confiance réciproque de l’acte éducatif, confiance entre tous les acteurs de l’éducation (et pas, là encore, l’un ou l’autre).

En matière de numérique l’absence de cadre clair et durable a été depuis trente années préjudiciable. Cela a laissé le monde scolaire en marginalité d’un phénomène social et a encouragé les attitudes allant dans le sens de la défiance ou de l’attentisme. Les différentes politiques menées ont été toujours en deçà des discours qui ne se sont jamais traduites dans les faits à la hauteur de ce qui était annoncé. Ainsi, où sont passés les ordinateurs portables qu’un ministre voulait distribuer à tous les nouveaux enseignants en 1998. Où seront les 800 000 tablettes ou ordinateur portable qui devraient équiper chaque niveau du collège quand les orientations politiques changeront, comme on déjà pu le voir avec certaines collectivité territoriales…

En ne permettant pas aux pratiques ordinaires de s’implanter, chacun de nous est coupable à son niveau. En préférant le clinquant de l’innovation, on a, au contraire généré de la méfiance, du refus voir de l’incompréhension. Chacun pourra se dire qu’il n’y peut rien, mais cela ne fera que renforcer l’incompréhension. Au niveau de chaque établissement, il est important de permettre que les usages du numériques deviennent ordinaires. La banalité des usages du numérique eu  laboratoire que Jean Didier Vincent appelait de ses voeux dans une interview que nous avions faites à Hourtin en 2004 n’a pas eu d’écho. On pensera ce qu’on veut du B2i, mais il se basait justement sur la dimension ordinaire et tentait de les imposer dans le paysage. Combattu de l’intérieur, comme de l’extérieur, il n’a pas trouvé sa place et le simulacre de légalisation porté par le premier socle commun n’a servi à rien. Car en 2006, le B2i est entré dans la loi, mais pas dans les classes et les établissements, à hauteur de ses ambitions ordinaires.

Quand, en tant que chercheur, je m’intéresse à l’appropriation, j’observe aussi bien ce qui fonctionne que ce passage à l’ordinaire. Or ce passage est encore loin devant nous. Il ne suffit pas d’équipement, mais bien de véritable vision d’éducation à incarner dans des politiques qui s’inscrivent dans la durée et non pas dans l’effet d’annonce. Or les dernières nouvelles venues des politiques ne laissent pas envisager cette évolution.

A suivre et à débattre
BD
PS pour ceux (ou celui)qui pensent que je me répète, qu’ils me montrent leurs propres manières de faire….

Faut-il avoir peur des algorithmes ?

Plusieurs publications récentes et moins récentes nous parlent des algorithmes. De Dominique Cardon à Terra Nova, entre autres, les algorithmes sont désignés comme un objet bien difficile à décrypter, à comprendre voire à identifier, en particulier au travers des usages ordinaires et moins ordinaires que l’on peut faire de l’informatique. Questionner l’école aujourd’hui sur la place prise par les algorithmes aussi bien pour les questions d’apprentissage que pour celles du suivi, de l’orientation ou encore de l’organisation de l’emploi du temps, comme le propose le rapport évoqué ci-dessus semble important mais aussi très opportuniste. En posture critique avec le rapport de l’institut Montaigne lui aussi récent qui réclame un « New Deal Numérique », la note de Terra Nova pose de bonnes questions mais avance sur un terrain qu’il aurait été bon d’approfondir. Et en premier lieu, on a l’impression de découvrir les « algorithmes » et d’en faire un « bouc émissaire ».

Rappelons le pour les plus jeunes, les logiciels de conception d’emploi du temps, les logiciels de gestion de notes, sont les premières briques qui envahissent le scolaire dès le milieu des années 1980, après la comptabilité et l’administration. Rappelons aussi qu’il n’y a pas de programmation sans algorithme, explicite ou non. Lorsque nous programmions, dans les premiers temps de l’informatique scolaire, des logiciels pédagogiques, nos modestes algorithmes avaient déjà un impact réel sur l’usager. Pour le dire autrement : construire un programme informatique c’est imposer des choix à celui qui va l’utiliser, c’est lui imposer l’intention du programmeur, du concepteur de l’algorithme. Quand nous concevions nos premiers logiciels pour faire apprendre à nos élèves la grammaire, l’histoire ou les mathématiques, nous guidions nos élèves selon notre conception de l’apprentissage, très souvent behavioriste d’ailleurs et incarnée par des exerciseurs qui ont toujours droit de cité à ce jour et sont encore largement utilisés.

La différence entre la mise en oeuvre d’un algorithme et un humain qui agit ne réside pas dans l’anticipation, mais dans la capacité d’adaptation au cours de déroulement de l’action anticipée, envisagée (humain) ou programmée (informatique). Quand nous enseignons, nous concevons une progression et non une programmation et tout enseignant sait bien qu’une prédiction peut se transformer au contact de la réalité des élèves. Les spécialistes de la scénarisation (JP Pernin par exemple) ont montré la possibilité de modéliser la réalité d’un enseignement et de son implémentation numérique. Mais, dans le même temps, ils savent aussi que la réalité des humains n’est pas celle des machines binaires. L’adaptive learning, les learning analytics, le machine learning sont des expressions qui, à l’instar de l’intelligence artificielle, ont d’abord un impact sur l’imaginaire de chacun de nous.

Entre le programme que je conçois et celui que j’utilise il n’y a pas de différence fondamentale, ils sont basés sur les mêmes éléments de base. Entre la posture de concepteur et celui d’utilisateur, la différence est plus importante car effectivement je ne connais pas l’algorithme choisi par le concepteur. L’objectif de tous ceux qui demandent un enseignement de l’informatique est, entre autres de faire prendre conscience du « fait algorithmique », tout comme ceux qui portent l’Education aux médias veulent faire comprendre les « logiques médiatiques instrumentées », autrement dit ce qui est à la base du produit fini qu’est l’émission, le reportage etc… lui aussi fruit d’une intention appuyée sur l’utilisation de techniques (prises de vue, cadrage, montage etc…).

Revenons quelques instants sur les logiciels évoqués dans le monde scolaire par la note de Terra Nova. Pour m’y être intéressé de prêt dès leur apparition, j’ai pu observer, parfois même en dialoguant avec les concepteurs, qu’il y avait une dimension à ne pas négliger, celle du paramétrage. Entre la logique algorithmique et le paramétrage par l’utilisateur il y a un « jeu d’intention ». Moi concepteur, j’accepte ou non que l’usager puisse introduire son intention à ma place ou tout au moins partiellement. Ainsi le responsable des emplois du temps peut-il ou non mettre des priorités, des règles, ainsi les logiciels d’orientation étaient conçus pour qu’une commission puisse donner des « poids » (valeurs) différentes selon les données entrées, de même les logiciels de notes offrent-ils des possibilités plus ou moins grandes de choix par l’usager (coefficients par exemple). Il faut donc introduire dans cette dimension la part de l’usager dans l’intention. Le concepteur permet-il à l’usager de faire des choix ? L’usager préfère-t-il un produit tout fait ou de pouvoir définir lui-même ses choix ? Quand on regarde l’usage des moteurs de recherche par le grand public, on constate l’usage rare des fonctions avancées de ces recherches. Les concepteurs de programmes sont pris dans ce dilemme. Certains choix qu’ils font restreignent très fortement la marge de manœuvre des usagers (l’accès aux fichiers avec IOS pour les Ipad par exemple). Ces choix sont aussi des choix ergonomiques : évitons que les usagers ne s’embrouillent par trop de paramétrage, rendons l’utilisation simple et accessible à tous.

Nous touchons là au coeur de la question : rendre simple l’accès à des tâches complexes supposerait de cacher une partie des actions aux yeux de l’utilisateur. En d’autres termes pour « libérer » l’utilisateur et lui ouvrir des possibles, il faut « l’enfermer » en lui imposant des choix. Cette forme d’analyse est bien antérieure à l’informatique, elle est philosophique et éducative. Philosophique car elle renvoie à la question de la liberté et de la détermination des actions (cf. Les jeux sont faits de Jean Paul Sartre). Educative parce que les fondements de l’acte d’éducation sont la libération du joug de l’ignorance, même si c’est de manière mesurée, contrôlée et encadrée par des programmes.

Pour terminer ce billet, j’attire l’attention sur le risque de dérive qui consisterait à aller vers la théorie du complot : on nous cache surement quelque chose, la complexité et l’opacité des algorithmes en est la preuve. Si l’on ne peut qu’approuver l’obligation « légale » qui devrait imposer la transparence des algorithmes, on ne peut que s’interroger sur l’illusion d’une introduction sommaire de l’algorithmique comme objet à part, en soi. Certes il faut l’aborder en tant que tel, mais les algorithmes, sous des formes et des noms bien différents de ceux énoncés et permis par l’informatique, sont présent dans l’ensemble d’une société dans laquelle l’anticipation explicite et consciente de l’action est une nécessité fondamentale de l’humain (peut-être à la différence des animaux, mais seulement à partir d’un certain niveau de complication des tâches). Ce qui se cache derrière se débat c’est une question de psychosociologique : comment obtenir des autres qu’ils fassent des choses qu’ils ne veulent pas forcément réaliser ? Cette question n’est pas nouvelle, Stanley Milgram en avait fait son travail au début des années 1960.

Eduquer c’est libérer. Mais éduquer c’est aussi contraindre. C’est le processus de négociation des intentions qui est au coeur du développement de la personne dans les interactions avec son milieu. Dès lors que la contrainte est transférée aux machines, le risque pourrait être que l’on nous fasse croire qu’on n’y pourrait rien. Grandir c’est donc construire sur les contraintes, contre elles et avec elles. Si celles-ci deviennent uniquement machinique, il n’y a plus de négociation possible. C’est pourquoi ces différents ouvrages et écrits devraient rappeler l’urgence d’un travail sur les humanités et aussi sur l’humanisme dans une société qui se numérise de plus en plus.

A suivre et à débattre

BD

Rapport de l’institut Montaigne : http://www.institutmontaigne.org/fr/publications/le-numerique-pour-reussir-des-lecole-primaire
Note Terra Nova : http://tnova.fr/etudes/l-ecole-sous-algorithmes
Dominique Cardon (2015), A quoi rêvent les algorithmes, Nos vies à l’heure des big data, Coédition Seuil-La République des idée
Un billet précédent qui aborde des questions proches : http://www.brunodevauchelle.com/blog/?p=1838

Ne pas oublier que la question du TBI c’est pas nouveau !!!

Pour compléter notre précédent message voici quelques éléments pour aller plus loin :

NON, le TBI ne résoud pas la fracture numérique : 26 novembre 2008
http://www.brunodevauchelle.com/blog/?p=215

Crayons optiques, écrans tactiles, TBI, même débat ? 10 juin2009
http://www.brunodevauchelle.com/blog/?p=360

L’interactivité/interaction en classe avec le TBI ? 7 mai 2010
http://www.brunodevauchelle.com/blog/?p=658

L’intérêt du TBI, c’est le logiciel, pas le TBI ! 3 février 2011
http://www.brunodevauchelle.com/blog/?p=806

Après les TBI et les tablettes, les smartphones ? Quelle innovation à l’école !  le 5 juillet 2013
http://www.cafepedagogique.net/lexpresso/Pages/2013/07/05072013Article635086056713819210.aspx

Après les TBI, la fin des tablettes, le retour de la craie et des claviers ? 12 octobre 2014
http://www.brunodevauchelle.com/blog/?p=1653

Et en plus

Pour mémoire, il faut rappeler le lobbying des sociétés du secteur et rappeler aussi que les partenariats ne sont pas nouveaux (cf. les plus récents). On s’aperçoit que l’on est souvent mal entendu par les décideurs et que les mêmes manières de faire se reproduisent régulièrement. En voici la preuve :

On peut lire sur le Café Pédagogique en 2005 le passage suivant :
« TICE : Le ministère signe avec Promethean
Le ministère de l’éducation nationale et le constructeur de tableaux interactifs (TBI) Promethean signeront le 24 novembre un accord pour promouvoir les usages des TBI. Il vise à favoriser le partage d’expériences et la formation des enseignants et à proposer des « offres économiquement avantageuses ».

et en 2006 le texte suivant :
TICE : Le ministère sous-traite la formation des enseignants sur les TBI à une société privée
« GTCO CalComp fera tout son possible pour adapter au mieux l’offre de formation aux spécificités des circuits de formation initiale et continue du Ministère ». Le ministère de l’éducation nationale annonce la signature d’un partenariat avec GTCO CalComp, un constructeur de périphériques informatiques. L’accord prévoit que l’entreprise pourra former et accompagner les enseignants utilisant les tableaux interactifs. Elle pourra aussi « mener des expérimentations ».

On ne peut que rester dubitatif quand on relit tous ces textes…dont les enseignements n’ont pas été tirés… à ce jour

A suivre

 

Il y a si longtemps… le TBI…

La publication d’un travail de recherche sur le TBI en milieu scolaire constitue un apport intéressant au vu du nombre de produits de cette nature vendus en France et dans le monde (en particulier au Québec et en Grande Bretagne). Le travail publié sous la responsabilité de Thierry Karsenty – http://tbi.crifpe.ca/files/Rapport.pdf – et réalisé avec ses collaborateurs et étudiants est d’autant plus intéressant qu’il arrive peu de temps après la remise en cause, judiciaire, d’un marché qui visait à équiper tous les établissements du Québec en TBI.
Ce document qui se veut un travail scientifique rigoureux, offre un regard assez large sur cette question particulière de l’apport du TBI pour les apprentissages. Cependant, quelques éléments de ce rapport posent question. C’est pourquoi après en avoir rappelé les apports, nous essaierons d’en faire une critique constructive.

En premier lieu saluons l’effort méthodologique aussi bien pour sa transparence que pour sa critique. Même s’il n’y a pas eu d’observation directe en classe de situations pédagogiques incluant l’usage ou non du TBI, on peut retirer des indicateurs intéressants auprès des acteurs concernés sur les modes de mise en oeuvre. Les enquêtes et entretiens donnent une bonne vision du ressenti, du vécu, mais déclaratives elles reposent, comme habituellement en sciences humaines, sur la relecture personnelle de l’action professionnelle. Or cette relecture est d’abord une réécriture du vécu au travers du prisme de ce que l’on veut en montrer. C’est ce qui fait qu’il est parfois difficile de trouver matière à aller plus loin dans la précision des pratiques présentées. L’analyse de la méthodologie confirme ce problème tout en le minimisant par rapport.

Citons d’abord ce passage important de la conclusion :
« Et il ne faut pas oublier que les résultats de cette étude montrent d’abord que c’est la façon dont l’enseignant utilisera le TBI qui aura un impact positif ou non sur les élèves en salle de classe. Ainsi, le TBI est un outil qui revêt un potentiel important pour l’éducation, mais c’est réellement ses usages, tant par l’enseignant que par ses élèves – et non l’outil en soi – qui seront déterminants. »
Encore une fois, il faut rappeler ce que l’OCDE avait montré encore récemment sur le besoin de pertinence pédagogique, le fameux « alignement pédagogique » (Biggs 1999) qui est toujours requis, quelques soient les instruments. Certes ce n’est pas nouveau (les auteurs l’ont écrit précédemment à l’instar de nombreux autres chercheurs), mais concernant le TBI, cela prend une force d’autant plus grande que les propos que l’on peut qualifier « d’illusionnistes » sur cet objet ont été à l’origine de nombreuses décisions d’achat…

Deux indications importantes peuvent être relevées, parmi celles principalement portées par les chercheurs :
– d’une part l’usage essentiellement en vidéo projection du TBI, mettant de côté les vertus dites interactives vantées par les commerciaux. Cela confirme des études et observations empiriques faites depuis de nombreuses années (cf. entre autres, nos propres articles sur ce blog ou sur le site du café pédagogique – voir les liens en fin de ce billet). Cette confirmation de nos observations déjà anciennes, amène à poser deux questions : quelle plus-value apportée par la visualisation numérique au format tableau ? Quelle définition donner à la fameuse interactivité vantée dans la dénomination même du produit ?

– d’autre part l’écart important entre les élèves et les enseignants sur l’usage du TBI en classe. Cet écart, que l’on retrouve dans de nombreuses enquêtes croisées, montre bien que tant sur un plan des perceptions/représentations que sur un plan méthodologique, il faut être prudent sur les résultats des enquêtes. Certes le croisement avec des entretiens est un plus intéressant, mais son intérêt est limité car s’il reste sur du déclaratif. Il est surtout non corrélé avec les questionnaires (en d’autres termes, pourquoi ne pas interroger les élèves et les enseignants sur leurs réponses personnelles au questionnaire).  De toutes manières ce qui impressionne toujours, c’est que les élèves marquent toujours leur intérêt pour le numérique (motivation, visualisation) alors que la perception d’usage est beaucoup moins importante que ce que disent les enseignants.

Ce rapport, qui tente aussi de parler de l’impact du TBI sur la réussite scolaire, évoque en réalité la perception et la représentation de cet impact. En effet, il manque deux éléments de recherche qui pourtant auraient été un enrichissement sérieux du travail : l’observation directe des pratiques en classe et la connaissance des produits appelés TBI et leur évolution. En l’absence de ces deux dimensions, il est très difficile d’aller en profondeur dans l’analyse des problèmes rencontrés. Pour avoir nous-même effectué ce travail d’observation directe dans les classes et l’analyse fine des artefacts fournis (la recherche TED, à propos de tablettes numériques, du laboratoire Techne) nous avons perçu l’importance méthodologique de cet approfondissement. De plus, en tant que formateur, nous avons souvent évoqué avec les enseignants, devant les appareils, ce qui posait problème. Or ceci n’est pas du tout évoqué, alors que c’est un élément très important. Nous proposons de reprendre ces deux questions importantes pour nous :

1 – Qu’est-ce que les TBI, TNI, VNI etc… ?
Observant depuis 2007 le développement industriel des TBI et leur déploiement en éducation, nous percevons une évolution importante du concept de TBI. Deux dimensions doivent être prises en compte : la dimension matérielle, la dimension logicielle. Sur un plan matériel les premiers modèles imposaient un réglage fin du rapport entre la projection, le mouvement de l’utilisateur (via des « simili » crayons numériques), et l’ordinateur. Ces réglages imposent d’abord une maîtrise logicielle. Or ces logiciels sont souvent complexes et fragiles (problèmes de compatibilité). Comme, de plus les réglages changent selon différents facteurs (place de l’écran, place du projecteur etc…), ce type de matériel impose une préférence aux installations fixes et immuables. Les offres mobiles sont intéressantes, mais supposent une maîtrise fine du processus d’installation. Or les choses ont évolué depuis dix ans. On voit arriver depuis deux années (au moins) sur le marché des tableaux tactiles qui connectés à l’ordinateur (HDMI plus USB) donnent une base d’interactivité assurée, sans réglage nécessaire et surtout rendant le matériel indépendant du logiciel. Car les logiciels fournis posent problème de par leur complexité, leur lourdeur et la multiplication des fonctionnalités. Il aurait été intéressant d’analyser plus finement l’usage de ces logiciels, dans cette enquête, car ils n’apparaissent pas indépendamment du matériel.

2 – Les pratiques en classe
Dans le contexte de classe, l’usage des technologies est un perturbateur par rapport à des pratiques antérieures sans celles-ci. Cette perturbation n’est pas a priori positive ou négative, mais elle modifie la configuration antérieure. Or l’analyse des changements et modifications induits par l’arrivée d’un TBI doivent être analysées, en complément des déclarations déjà éclairantes (cf. les éléments du rapport). Plusieurs aspects peuvent être évoqués, parmi d’autres : le choix des supports visuels et les contraintes de préparation, la lisibilité de l’écran, compte tenu des ombres et autres mouvements, la réactivité du support, l’ordinateur associé au TBI (car ils peuvent être fixes ou mobiles) etc… Il faut aussi évoquer un point qui fait fortement problème : adéquation du TBI avec les applications matières (didactique) spécifiques. L’évolution actuelle qui permet l’utilisation du TBI sans logiciel intermédiaire, rend possible l’utilisation de ces applications spécifiques, sous réserve qu’elles permettent un pilotage écran.
Dans un contexte de classe il est intéressant d’analyser la variable « interactivité/interaction ». Autrement dit comment le TBI est mis au service de cette possibilité qu’il revendique. Entre faire venir un élève au tableau et faire travailler un groupe d’élève devant un grand écran interactif, il y a des possibilités très diverses et très fines. L’enseignant de classe maternelle qui amène les enfants devant l’écran en fin de journée pour relire ensemble les activités à partir de photos et autres traces, donne une place différente au TBI de l’enseignant qui affiche une carte dynamique avec laquelle il joue devant les élèves pour leur expliquer une évènement historique par exemple.

Enfin ce qui peut poser question dans ce document, c’est la liste des recommandations faites en page 33. Outre qu’elles sont discutables car elles considèrent le TBI comme un instrument efficace alors que la recherche menée le met en cause, elles laissent de côté la dimension pédagogique et didactique. Le pragmatisme est à la base du propos : ils sont là, alors il faut les utiliser. Car finalement, c’est bien le peu de contextualisation de l’usage et de son analyse qui fait défaut. L’étude reste en distance avec les pratiques quotidiennes et leurs spécificités. Elle reste aussi indifférente aux type de TBI avec là aussi les contraintes spécifiques. Et enfin elle n’aborde pas la question des « modes d’usage » au sein de la classe de manière avancée.

Au-delà de ces critiques, qui sont autant d’incitations à poursuivre ce travail, on ne peut que saluer ce travail qui apporte un regard complémentaire et sans complaisance sur ce phénomène que constitue le succès du TBI auprès des décideurs. On pourra évoquer dans un genre un peu différent l’opération Sankoré qui visait à mettre en place des TBI dans les écoles d’Afrique francophone sub-saharienne. En élargissant le débat on peut s’interroger sur le sens des équipements massifs en matière de technologies numériques qui ne prennent pas en compte les réalités du quotidien scolaire et de ses contraintes. On ajoutera alors aux conclusions de nos collègues Québécois qu’une technologie quelle qu’elle soit, ne peut être pertinente si sa justification ne repose que sur les représentations de quelques décideurs le plus souvent peu au fait des questions aussi bien techniques que pédagogiques. Bref aller dans la salle de classe… cela permet d’observer mieux, d’analyser mieux, et de prendre des décisions plus adaptées…

A suivre et à débattre

Bruno Devauchelle

Le philosophe au hasard des digressions, pour bien commencer 2016

Michel Serres, bien connu pour ses propos sur les technologies numériques n’oublie pas qu’il est aussi d’une part philosophe et d’autre part humain. Il est souvent convié pour prononcer des conférences en France et au delà, et malgré son âge et la fatigue de ces interventions, il n’en perd pas pour autant un propos coquin voire égrillard. En tout cas, son art pour raconter des histoires est remarquable, même si parfois des approximations peuvent être relevées.

Ceci dit, il est contesté, par exemple, pour plusieurs propos sur l’invention du terme « ordinateur » qu’il attribue à une discussion entre étudiants à l’ENS, tandis qu’une source « officielle » l’attribue à l’un de ces étudiants, mais alors devenu professeur à la Sorbonne, Jacques Perret, sur la base d’un courrier que celui-ci à envoyé à IBM en 1955. Évidemment sans preuve de cet échange à la cantine, difficile de le croire, en regard de ce courrier de J Perret à IBM… désormais bien connu de tous les spécialistes. Mais face au plaisir « gascon » de l’histoire le public cède aisément, parfois même au delà du raisonnable :

Ainsi les auditeurs des universités et instituts catholiques de Lyon et de Paris, en 2015, (Serres le coquin) n’ont pas du relever ces deux passages significatifs de cet aspect coquin du personnage. Bien qu’ayant acquiescé par les rires à ces passages, les personnes qui assistaient à ces conférences n’ont peut-être pas précisément perçu ces petites provocations qui font d’ailleurs souvent le sel de son art de raconter des histoires (Storytelling dirait-on maintenant, pour faire riche).

En guise d’amuse-bouche, en vue de préparer une année nouvelle qu’on souhaite bien meilleure que celle qui vient de s’écouler, je vous invite à cliquer sur le lien ci-dessus pour vous réjouir quelques secondes.

Chacun appréciera, en ces temps d’accord entre de grandes compagnies et le Ministère de l’Education, l’appréciation du philosophe et surtout son analyse des termes

Meilleurs voeux pour 2016

Bruno Devauchelle

 

A quand la fin du découpage disciplinaire ?

Pas vraiment nouveau mais structuré à partir du début du XXè siècle le découpage disciplinaire est une des questions les plus vives et finalement peu débattue comme le dit André Chervel dans  » Chervel André. L’histoire des disciplines scolaires. Réflexions sur un domaine de recherche. In: Histoire de l’éducation, n° 38, 1988. pp. 59-119.

L’arrivée de l’ordinateur et ensuite sa potentielle connexion à un réseau mondial, Internet, met en question le découpage disciplinaire. Certes les efforts ne manquent pas pour proposer d’aller au delà de ce traditionnel découpage : inter, pluri, trans disciplinarité peuplent les esprits beaucoup plus que les pratiques, même si les TPE, EPI, IDD, PPCP et autre histoire des arts tentent d’aller sur ce terrain et ont rencontré parfois la volonté des enseignants d’aller voir au delà de leur pré-carré disciplinaire.

Dans la vie quotidienne, personnelle, professionnelle, comme dans l’utilisation d’Internet, le découpage disciplinaire n’apparaît pas comme structurant a priori l’information à laquelle on accède. Par contre à l’école, l’apprentissage de ce découpage fait partie du métier d’élève, mais pour combien de temps encore ? Les schémas ci-dessous tentent de récapituler ce questionnement :

Analyse de l'effet du numérique sur les disciplines

Analyse de l’effet du numérique sur les disciplines

A lire, regarder et débattre

BD

 

Degré de Liberté et de conscience : le DLC des objets numériques

Quand on analyse l’histoire des objets produits dans le champ des technologies de l’information et de la communication, on peut identifier un cadre qui repose sur le degré de liberté et de conscience donné à l’utilisateur final. Pour le dire autrement quand un objet technique numérique est mis à disposition sur le « marché », le lien entre la ou les fonctions et l’usager est déterminé par la possibilité d’intervention de celui-ci. Lorsque je conduis une voiture, certaines fonctions me sont imposées, c’est à dire mise en fonction automatiquement, « à l’insu de mon plein gré ». Ainsi en est-il des assistances au freinage et autre régulation des injecteurs. Dans le même véhicule, d’autres fonctions peuvent être activées ou désactivées comme le régulateur de vitesse. Enfin l’usager peut proposer ses choix à des objets qui sont dans l’attente de la commande pour exécuter des tâches comme le GPS par exemple. Il est vrai que la marge de manœuvre de l’usager, dans ce dernier cas est plus ou moins restreinte, mais l’existence de menus de paramétrage laisse une place à des choix « personnalisés ».

La question du « Degré de Liberté et de Conscience » (DLC) est fondamentale pour plusieurs raisons. D’abord parce que le concepteur d’un objet technique peut être tenté d’imposer ses choix et donc d’assujettir l’usager à une forme d’action qu’il a préalablement déterminée. Ensuite parce que très souvent nous sommes tentés d’utiliser les objets techniques de notre environnement sans chercher à identifier les possibles au-delà de ce que nous pensons qu’ils sont censés faire. C’est à dire que nous n’utilisons pas le potentiel de choix qui est permis. Mais aussi, pour poursuivre parce que au fur et à mesure du développement de l’informatique, les concepteurs, aidés par les ergonomes, les graphistes et les spécialistes de l’interface homme machine, n’ont eu de cesse de « faciliter » la vie de l’usager en lui restreignant l’accès à des possibilités de modification, de programmation. Enfin parce que les objets qui autorisent des choix importants imposent des apprentissages coûteux en temps et en énergie cognitive.

L’arrivée de l’ordinateur individuel a ouvert un espace nouveau dans la relation entre concepteur et usager. Lorsqu’au début des années 1980 nous achetions nos premiers ordinateurs individuels (PET, ORIC, Commodore, Z81 de Sinclair etc…) nous découvrions un objet technique nouveau. Tout d’abord il était divisé en deux : d’un côté l’objet matériel, de l’autre l’objet virtuel. Ensuite nous découvrions le droit de définir ce que l’objet matériel pouvait produire. On pourrait oser l’analogie avec les jeux de construction pour enfants (type Lego par exemple) qui nous propose un ensemble d’objets (les briques, les pièces) non finalisées en amont par ce que leur assemblage permet de produire (le modèle). Avec l’informatique, la brique élémentaire que l’on manipule est extrêmement simple (des zéros et des uns), mais dès que l’on se penche de plus près sur ce qui est permis à l’utilisateur, on s’aperçoit qu’il y a déjà des contraintes liées à la conception des langages de pilotage (ceux qui ont fait de l’assembleur savent bien les possibilités offertes et les limites fixées dans la machine). La programmation en langages évolués (principalement le Basic à l’époque) a permis cependant de donner à l’utilisateur « un degré de liberté ».

L’évolution de l’informatique au cours des cinquante dernières années a confirmé une tendance à la convergence : rendre les objets faciles à utiliser. Dès les premières heures du Macintosh d’Apple, la guerre a fait rage : facile à utiliser et sans erreur (plantage, écran bleu contre bombe). Cette même société a fait tellement d’émules qu’aujourd’hui la norme d’usage est bien celle qui consiste à rendre l’usager capable d’utiliser immédiatement la machine pour assurer des fonctions complexes inaccessibles à lui jusqu’à présent. En cachant progressivement les couches basses de l’informatique, les professionnels ont ainsi pu envahir l’ensemble des sphères de la société tout en disparaissant de la surface des usages : on parle désormais de numérique… et plus d’informatique ou de TIC, sauf quand on veut revenir aux sources. Mais cette évolution pose problème en termes de DLC. D’ailleurs les tenants de l’enseignement du code se sont rendu compte de l’envahissement de l’évolution ergonomique et réclament désormais leur place au nom de cette DLC. N’est-il pas bien trop tard ?

La tendance ne semble pas aller dans un autre sens. La preuve en est l’émergence du Cloud (l’informatique en ligne, le nuage). De plus en plus d’applications sont en ligne. Votre matériel n’est plus qu’un intermédiaire ergonomique et ne vous permet plus d’accéder aux « sources ». L’essentiel est de se connecter, via une App ou un navigateur Internet et d’accéder à l’utilisation de la fonction. Du langage basic aux interfaces tactiles, nous passons du local au distant, sans nous rendre compte que c’est notre DLC qui est en cause. Big data, Machine Learning, adaptive learning, learning analytics etc… voilà les symboles de l’évolution du DLC. Avec les fonctions en ligne, l’usager perd toute possibilité de sortir du cadre. Aussi ne lui reste-t-il que les possibilités permises par ces objets. Avec le traitement de texte en ligne, je garde la main sur mes écrits. Avec le réseau social numérique, je garde la main sur mes relations. En d’autres termes, il ne reste à l’usager comme DLC, que la surface humanisée des machines. Cette impression « humaine » interroge : je suis libre de l’usage de ma parole, mais elle est « intermédiée » par les objets avec lesquels j’opère.

La très grande force des concepteurs de l’informatique et de son développement c’est de penser le rêve d’Alan Turing. C’est d’imaginer que pour y arriver il faut se faire oublier pour ne laisser que l’humain. La machine disparaissant, l’humain pourrait penser qu’elle n’existe plus (les fonctions numériques invisibles sont dans ce cas-là), et ce d’autant plus qu’il pourrait en être satisfait (le progrès bon pour l’humain). Or cette disparition se fait au prix fort : il faut connaître l’usager (captation d’informations à son insu) pour mieux se faire oublier (effet miroir) en lui proposant ce qu’il est au plus près d’attendre (cf. le requêtes sur un moteur de recherche ou encore l’anticipation des mots dans la frappe sur un clavier de smartphone). L’apparence de DLC est la partie émergée de l’Iceberg… on peut aisément deviner ce qui est en dessous…

En termes d’éducation, les jeunes, nés avec cet environnement, sont initialement tenté de la naturaliser. L’éducation, qui est fondamentalement centrée sur le DLC (la citoyenneté n’étant qu’un des leviers retenus et trop souvent présenté comme premier), doit donc permettre au jeune de « dénaturaliser » l’environnement. « Les collines ont été façonnes par l’homme ». Cet homme qui en, progressivement, organisant sa conquête de la terre, a construit ces objets serait bienvenu de ne pas oublier de transmettre à ses enfants qu’il tente d’enfouir ses intentions pour ne laisser passer que ses résultats. Le DLC est à ce prix : accepter de « dévoiler » pour « autoriser ».

A suivre et à débattre

BD

Créativité… où es-tu ? (de Frank Zappa à Isaac Asimov)

Le terme créativité, déjà évoqué précédemment, rejoint celui d’inventivité et celui d’innovation. Ce document sur Isaac Asimov : http://rue89.nouvelobs.com/2014/10/21/les-cinq-commandements-dissac-asimov-trouver-idee-geniale-255610 semble nous apporter des réponses concrètes. Plus largement le vent de la créativité semble se porter bien avec celui de la collaboration qui semble en être un élément clé (cf. I. Asimov) porté aussi par l’ère du temps. Mais la créativité ne va pas autant de soi comme le montre la réflexion d’un musicien célèbre :

Frank Zappa a été tout au long de sa vie un « créateur » ou au moins a tenté de l’être. De son cheminement, parfois difficile à suivre dans sa complexité, s’expriment certaines de ses idées qui méritent qu’on y réfléchisse. En voici trois :
La plus célèbre dont on peut entendre la source ici : https://www.youtube.com/watch?v=mOHCV-QO5HA

« Without deviation from the norm, progress is not possible. »

A propos de l’école, il n’est pas tendre et rejoint un courant de pensée que l’on retrouve aussi dans les mouvements qui ont fondé l’internet (Stewart Brand)

« Schools train you to be ignorant with style […] they prepare you to be a usable victim for a military industrial complex that needs manpower. As long as you’re just smart enough to do a job and just dumb enough to swallow what they feed you, you’re going to be alright […] So I believe that schools mechanically and very specifically try and breed out any hint of creative thought in the kids that are coming up.”  »

ou encore :

“Drop out of school before your mind rots from exposure to our mediocre educational system. Forget about the Senior Prom and go to the library and educate yourself if you’ve got any guts. Some of you like Pep rallies and plastic robots who tell you what to read.”

On retrouve ici un questionnement de fond : l’école n’est-elle pas un facteur de reproduction plutôt que de création ? Les moyens numériques qui se développent en éducation semblent porteur de cette vision qui serait qu’ils permettraient un « renouveau pédagogique » une créativité. Sir Ken Robinson a lui aussi démontré qu’il semble n’en être rien. Les enseignants innovants, voire créatifs, sont-ils réellement porteur de nouveautés ou au contraire « hérauts » instrumentalisés des pouvoirs qui ne savent comment s’en sortir avec cette école qu’ils ont sur les bras ?

Le développement d’Internet et des pratiques individuelles associées sont le terreau d’une transformation sociale essentielle. Chacun en est conscient dans le monde scolaire. Mais le fossé, plutôt que de s’élargir, se creuse. Autrement dit le monde scolaire n’est pas si éloigné que ça de la société numérique si l’on regarde la distance mais c’est dans la profondeur que l’écart est de plus en plus important. Autrement dit dans une pensée sur l’apprendre et le sens de l’apprendre dans notre société.
Frank Zappa en incitant à s’éduquer par soi-même lance un formidable message à la jeunesse. Pourrait-elle s’en emparer, formatée et encadrée qu’elle est par un monde adulte qui pense l’école comme ses souvenirs d’enfance et la jeunesse comme sa propre reproduction ? L’observation malheureusement nous conforte dans l’idée que les jeunes sont souvent le miroir déformant des adultes. Leurs comportements avec le numérique en est un bon exemple. Il suffit de regarder comment nous gérons chacun la saturation d’informations, de sources et de ressources ? La plupart d’entre nous le subissons, le regrettons parfois, mais en tout cas ne donnons pas de réponse adéquat en termes éducatif. On préfère les réponses techniques (un autre moteur de recherche, d’autres logiciels, libres, etc…). Mais nous n’osons pas nous attaquer à des piliers de notre société dont finalement la propriété et la destinée individuelle sont probablement devenues des points nodaux. Le monde scolaire ne ferait donc que reproduire cela. Les invitations à la créativité ne seraient que des illusions tant qu’elles ne peuvent s’inscrire dans une conception plus ouverte du faire société… Malheureusement, ces derniers temps, rien ne nous invite à aller dans ce sens…

A suivre et à débattre

BD

Chronique de Noël : si les machines savent, un jour, qui sera sur les bancs de l’école ?

Le retour au premier plan de « l’intelligence artificielle » est un signe d’une évolution significative aussi bien sur un plan technique que sur un plan philosophique et anthropologique. Pour le monde de l’éducation, cela n’est pas sans interroger sur le fond comme sur la forme l’apprendre de demain, compte tenu du contexte émergent lié à ce que l’on nomme, un peu abusivement « intelligence artificielle » ! Big data, adaptive learning, et maintenant machine learning, tout semble converger vers un basculement qui mérite qu’on y réfléchisse quelques instants.

Deux basculement antérieurs peuvent être évoqués : celui des années 40 et celui des années 1960. Dans les années 1940, les travaux d’Alan Turing révèlent au monde la puissance potentielle de l’informatique et la piste de l’intelligence artificielle. En fait son questionnement est celui du fonctionnement du cerveau et par là même celui de l’intelligence. Face à l’humain, le progrès des techniques, des sciences et des machines qui en découlent est fascinant. On comprend qu’une personnalité aussi forte que celle d’Alan Turing ait été « visiter » ces questions.
L’imaginaire des informaticiens a donc très tôt embarqué cette question. Dès lors, le deuxième basculement, celui du début des années 60, ne pouvait qu’advenir avec la montée en puissance de l’informatique et en particulier l’avènement de techniques nouvelles qui vont s’incarner dans ce que l’on appelle parfois le « cerveau de la machine », le microprocesseur. Ce basculement se produit autour de deux langages, LISP et Prolog, ainsi que d’un concept, celui de « système expert ». Les travaux de recherche relayés par les médias de l’époque vont tenter de montrer que l’on est passé du calcul à l’intelligence. L’émergence de solutions de reconnaissance vocale (qui se rappelle du Katalavox cher à Martine Kempf), ou de reconnaissance optique de caractère (OCR) et autres simulation d’actions humaines complexes a rapidement été confrontée aux limites de la machine et à la complexité de l’humain. Une vision mécaniste de l’homme venait d’être dénoncée…

Il faut rappeler que le terme « ordinateur » dont l’origine a été rappelé récemment par Michel Serres (cf. conférence sur l’innovation UCLy Lyon octobre 2015 https://www.youtube.com/watch?v=-eJvBk_57Tw), est assez révélateur de cet imaginaire quasi religieux. On peut rapprocher cette idée de reproduire le cerveau dans une machine, avec l’aide de Jacques Perriault (La logique de l’usage Flammarion 1989 – 2008), de l’idée de reproduire l’image et le son jusqu’à la perfection dans l’histoire des « machines à communiquer ». Reprenant la pensée de André Leroi-Gourhan, Jacques Perriault met en évidence, rappelant Gilbert Simondon, la proximité entre technique et religion, que l’idée fondamentale qui porte le progrès technique et scientifique c’est de produire « l’homme en dehors de l’homme ». Pour les croyants chrétiens, l’homme en dehors de l’homme ce serait Dieu (« qui a fait l’homme à son image »). Aussi la recherche de l’illusion parfaite (cf. Alan Turing) de l’humain dans la machine traverse bien l’histoire des technologies. C’est pourquoi on peut penser que le retour de « l’intelligence artificielle (Série d’article sur ce thème  publiés par le Monde http://abonnes.lemonde.fr/intelligence-artificielle/ à l’automne 2015) et l’émergence de notions conjointes est le signe de ce troisième basculement.

A l’instar du développement humain, de brusques sauts d’évolution, marquent le développement du progrès et des connaissances. Loin des « disruptions », terme qui conforte l’imaginaire qui porte la dimension d’innovation, nous sommes en présence, pour des raisons de convergences, d’une ré-apparition d’une idée qu’on croyait mise de côté tant que l’ordinateur serait binaire. La victoire de l’ordinateur contre le joueur d’échecs avait mis en évidence que la puissance du calcul ne ressemblait pas au fonctionnement humain, mais qu’elle permettait de le concurrencer. Or cela on le sait depuis longtemps pour ce qui est des tâches simples et répétitives que les humains ont longtemps accomplies et que les machines ont remplacées. En cherchant à remplacer l’humain dans ses activités par la machine, celle-ci devient-elle humaine ?

De l’enseignement assisté par ordinateur transformé désormais en adaptive learning, au machine learning, on pressent un basculement fort : ne pourrait-on mettre une machine à la place de l’enseignant et maintenant de l’élève ? Ainsi on saurait simuler l’enseignant et l’apprenant. C’est un des enjeux du machine learning dont le deep learning est une des spectaculaires réalisations. Il pourrait alors incarner le mythe du Golem traduit dans le film Frankenstein (James Whale 1931), en y voyant une machine s’affranchir de son concepteur de son créateur. Si la machine est capable d’apprendre, quel serait son enseignant ? Son concepteur, c’est à dire celui qui a conçu les algorithmes qui président à son fonctionnement ? Son utilisateur, c’est à dire celui qui met en place le contexte favorable à l’apprentissage de celle-ci ? Les deux probablement. Mais dans le contexte favorable à l’apprentissage, quid des interactions avec les humains, ou les autres machines ? On pressent un potentiel, mais aussi de nombreuses limites…

Il y a près de trente années, nous étions plusieurs à tenter de réfléchir à ce que l’intelligence artificielle d’alors (deuxième basculement) pourrait apporter au monde scolaire. L’arrivée de l’hypertexte, de l’hypermédia et la mise en réseau ont mis de côté ces réflexions, d’autant plus que les modélisations informatiques restaient difficiles à implémenter. Avec le renouveau de ces technologies et surtout la capacité de calcul des machines de chacun de nous, on peut penser que des auxiliaires de l’apprentissage (à l’instar du GPS pour l’orientation ou des algorithmes prédictifs pour la recherche d’information) vont apparaître. Bien plus que des machines learning, on pourrait voir apparaître des dispositifs d’augmentation de la capacité d’apprendre. Ces machines, capables d’apprendre, seraient aussi capables d’aider à apprendre en s’insérant, au plus proche de chacun dans le parcours d’appropriation des connaissances et de développement des compétences. C’est déjà un peu le cas avec la « mémoire externe », mais elle reste encore largement sous exploitée non dans ses capacités de stockage, mais surtout de réutilisation par chacun.
Nous avons atteint une saturation informationnelle qui devient un obstacle à l’apprentissage et à l’enseignement. Il serait intéressant que de nouveaux instruments issus de ces travaux sur l’apprentissage des machines, viennent, non pas faire concurrence à l’humain, mais bien plutôt l’aider à apprendre et à se développer. Il semble que pour l’instant on ne voit pas, dans le grand public, émerger de propositions des industriels et des marchands, sauf s’il s’agit pour eux de déclencher non pas des apprentissages de fond, mais des réflexes de formes, des réflexes de consommation… C’est peut-être de la recherche ou des expérimentateurs que ce genre de projet peut voir le jour. Car la rentabilité est bien incertaine…

A suivre et à débattre

BD

Après les classes inversées, les MOOCs, l’adaptive Learning ?

Et voici la nouveauté de cet automne : « l’adaptive Learning ».
Le vieux rêve de Skinner va-t-il se réaliser ? La machine à enseigner a-t-elle un avenir ? L’intelligence artificielle va-t-elle faire revivre l’adaptive Learning ?
A cette adresse, sur ce blog qui se nomme « les bons profs » (!) http://blog.lesbonsprofs.com/avez-vous-entendu-parler-de-adaptive-learning/ on peut lire ce billet qui nous présente cette approche. Dès à présent les médias s’en emparent et bientôt les échanges vont se propager sur cette pseudo nouveauté du monde de l’enseignement et des technologies. Dans cet article publié par Educpro : http://www.letudiant.fr/educpros/actualite/l-adaptive-learning-la-revolution-qui-vient.html, on y retrouve les ingrédients habituels de toute proposition techno pédagogique qui pourrait changer la face de l’enseignement secondaire et supérieur. Après les classes inversées et les MOOCs, voici donc le dernier avatar de la course à l’innovation pédagogique. Innovation et pas invention car l’adaptive Learning n’est pas une nouveauté loin de là.
On pourra lire aussi http://www.journaldunet.com/solutions/expert/62170/l-adaptive-learning-ou-le-big-data-au-service-de-l-apprenant.shtml ce texte de Anthony Hié(ICP Paris) dont j’ai extrait ce passage qui présente l’Adaptive Learning : « Les Big Data, masses de données disponibles collectées sur nos profils et nos habitudes de surf sur Internet, permettent de mieux cibler nos attentes et d’adapter le contenu d’un cours en fonction des spécificités de chaque étudiant, c’est l’Adaptive Learning. Grâce à des algorithmes de plus en plus complexes nous entrons dans une logique désormais possible de personnalisation avancée, déjà bien connue, et qui a fait ses preuves dans les stratégies marketing.
Mais il ne s’agit pas ici de vendre mais bien d’identifier de nouvelles compétences à acquérir en allant à l’essentiel tout en accélérant la capacité d’apprentissage de manière ciblée. Plus encore il s’agit aussi, grâce à l’analyse prédictive, de définir le meilleur parcours pédagogique possible pour un étudiant et ainsi de lui assurer la meilleure réussite professionnelle possible. Dans cet objectif, ce mode d’enseignement semble particulièrement efficace et permet d’ores et déjà de relever une meilleure motivation et implication de la part de l’apprenant. »

Loin d’être nouvelle (sauf pour ceux qui n’ont pas de mémoire ou qui ne prennent pas vraiment le soin de faire quelques recherches), cette idée d’une machine qui s’adapterait au profil de l’apprenant s’inscrit dans une longue histoire de la recherche sur le fonctionnement du cerveau de celui qui apprend et celle des automates. Relisons l’ouvrage d’Éric Bruillard sur « Les machines à enseigner » (dont la version en ligne est accessible ici : http://www.stef.ens-cachan.fr/version-francaise/membres/les-machines-a-enseigner-268671.kjsp?RH=1215529015990). Reprenons, pour ce qui est du profil, l’idée ancienne développée par René Le Senne à propos de la caractérologie et observons qu’à sa suite, nombre de travaux témoignent de cette recherche incessante de « catégoriser » les humains et ainsi que pouvoir leur donner ce dont ils ont besoin (l’histoire nous a montré que c’est sur cette base de la catégorisation que se sont déroulé les pires massacres). A la suite de cette idée de catégorisation, il y a les travaux menés sur les typologies d’apprenants ou les styles d’apprentissage qui inspirent aussi les démarches de l’enseignement adaptatif. Regardons aussi ce film qui parle des automates intelligents, Hugo Cabret de Martin Scorsese ou encore la machine à apprendre du film « les sous doués passent le bac » (Claude Zidi 1980).

Dans le domaine de l’enseignement appuyés sur les moyens numériques, c’est Marc Meurrens et son logiciel G (Système « G », http://www.meurrens.org/logo/#MM voir à la fin de cet article une évocation de ce logiciel) qui en 1990, dans les travées du centre européen pour l’éducation de la société IBM de la Hulpe en Belgique, avait présenté une idée de ce que pourrait être ce genre de logiciel. Déjà à l’époque l’intelligence artificielle était fortement valorisée avant une traversée du désert dont il semble qu’on la fasse ressortir en ce moment et dans le même contexte. On a surement oublié cette période foisonnante d’idées qui montrait le potentiel théorique des machines qui adaptent leurs réponses aux usagers. Jamais les chercheurs, les passionnés n’ont abandonné cette idée qui peut être inquiétante à bien des égards. C’est d’ailleurs ce que montre cet article : http://www.cea-ace.ca/fr/education-canada/article/neuromythes-et-enseignement qui évoque le neuromythe des styles d’apprentissage.

Imaginons ainsi qu’un jeune soit mis en présence d’un tel logiciel. Que se passe-t-il ? Bien plus que ce qu’Alan Turing pouvait envisager, à savoir l’impression d’avoir un humain alors que c’est une machine avec laquelle on interagit, un logiciel qui contraindrait implicitement l’usager à aller dans la direction d’apprentissage, l’objectif souhaité, en se basant sur les données collectées sur lui, à son insu, mais aussi à partir d’analyse typologiques transcrites dans des algorithmes. Le rêve (de tout enseignant ?) des apprenants qui atteindraient automatiquement les objectifs fixés deviendrait réalité ! Le jeune se verrait guidé, sans qu’il le sache et sur la base de son style d’apprenant et d’un certain nombre d’indicateurs enregistrés automatiquement, de page en page, d’activité en activité, jusqu’à ce qu’il ait atteint l’objectif.
Nous avions, il y a quelques années, imaginé des systèmes simples basés sur la navigation hypertextuelle orientée (comme le livre dont on est le héros) par des règles pour amener celui qui apprend à parcourir les informations que l’on veut garantir qu’il ait en fonction de ses besoins. Cette manière de faire, mécanique, pouvait tout à fait s’enrichir d’un moteur d’analyse complexe du profil qui aurait amélioré le parcours et son efficience. Les travaux de Françoise Demaizière et aussi de Colette Dubuisson ont mis il y a déjà longtemps à jour ces évolutions, leur intérêt et leurs limites. Il faut bien admettre ici, en suivant d’ailleurs la présentation faite sur le journal du Net ci-dessus, qu’on est davantage dans une approche marchande que d’une véritable question pédagogique et psychologique que le logiciel « artificiellement intelligent » aurait enfin résolu.

Nous sommes là en présence d’un phénomène qui mérite qu’on s’y attarde un peu. A nouveau, on tente de nous vendre de l’invention et on fit le buzz autour d’une expression. Ce qui est dommage c’est que comme pour les MOOCs ou les classes inversées, comme jadis l’EAO, d’une idée intéressante à creuser on tente d’en faire un objet marchand rentable à court terme. Dommage parce que l’idée que la puissance de l’ordinateur puisse aider à la guidance de l’apprendre est évidemment intéressante. Mais le passage d’une idée à sa traduction médiatique et commerciale ne peut faire l’économie d’une analyse à partir de regards autrement affutés aussi bien en psychologie qu’en anthropologie, qu’en philosophie, mais surtout en sciences de l’éducation. Le danger est que, comme pour les MOOCs, des décideurs naïfs et séduits s’engagent dans ce chemin sans discernement, sans analyse, simplement parce que le mot « disruption » a été inscrit au fronton d’un article vantant cette approche.

Pour terminer, il faut revenir au fond du problème : La machine à enseigner n’est pas la machine à apprendre ! Il est temps que l’on évite cette approche isomorphique. Depuis longtemps la question de l’intelligence artificielle pose celle de l’intelligence humaine mais ne la résout pas. Dans le domaine de l’enseignement l’effet séduction d’approches dites nouvelles marche bien comme on peut le lire au travers certains propos d’enseignants qui s’épuisent en allant d’innovation en innovation, à la recherche d’un Graal. Ils seront bien sûr les premiers à porter cette approche de « l’adaptive Learning » dès lors qu’ils y trouveront une justification à une nouvelle innovation dont la médiatisation leur assurera la reconnaissance. Les médias sauront soutenir, à l’instar de quelques décideurs ou politiques qui céderont à la facile séduction de la nouveauté. Souhaitons qu’une vigilance « éducative » réelle évite qu’on ne fasse d’un champ d’investigation qui n’est pas nouveau, mais ô combien intéressant, ne se transforme en mode temporaire, enterrant ainsi rapidement le mythe porteur de cette recherche de l’amélioration de l’apprendre, pour retomber à nouveau sur les bonnes vieilles méthodes pour enseigner… Car mécaniser l’enseignement est sous-jacente à cette approche et un modèle socio-économique et anthropologique y est associé qui ne peut que nous alerter… et nous rendre vigilants.

A suivre et à débattre

BD

Description Système G
http://www.collectionscanada.gc.ca/obj/s4/f2/dsk3/ftp04/mq21744.pdf
Un modèle de développement de logiciels-outils de support à l’enseignement
Par Bruno Dima, Université de Sherbrooke 1196

« Le Système GtS est une illustration de cette tendance  et proposait dès 1986 un système d’apprentissage orienté objet  et intelligemment assisté par ordinateur.
Ce système-auteur qui  abandonnait  l’idée d’un scénario prédéfini pour permettre un cheminement personnel de l’élève, comportait un système de dialogue en langage naturel et un modèle de l’élève (pour individualiser renseignement et le dialogue). Le domaine à enseigner et la modélisation de l’apprentissage étaient entrés  sous forme d’objets associés à une documentation de type hypertexte permettant ainsi une très grande souplesse de cheminement »