L'ECOLE S'INVENTE TOUS LES JOURS
Un (tout petit) peu de prospective.
« Alors que leurs prédécesseurs se réunissaient dans des classes ou des amphis homogènes culturellement, ils étudient au sein d’un collectif où se côtoient désormais plusieurs religions, langues, provenances et mœurs. Pour eux et leurs enseignants, le multiculturalisme est la règle… ». Voici en quelques lignes ce que serait l’enseignement pour « Petite Poucette », tel que nous le décrit Michel Serres. Il nous projette dans la révolution numérique qui plonge les enfants d’aujourd’hui dans le monde virtuel et planétaire où ils vivent déjà. Et d’après lui, ils n’ont déjà plus la même tête que nous : ils peuvent manipuler plusieurs informations à la fois, ils ne connaissent, ni n’intègrent, ni ne synthétisent comme nous sommes habitués. Par la toile ils accèdent à tout le savoir et ils ne parlent déjà plus la même langue que nous… Et voilà ces jeunes auxquels « nous prétendons dispenser de l’enseignement, au sein de cadres datant d’un âge qu’ils ne reconnaissent plus : bâtiments, cours de récréation, salles de classe, amphithéâtres, campus, bibliothèques, laboratoires, savoirs même… cadres datant d’un âge et adaptés à une ère où les hommes et le monde étaient ce qu’ils ne sont plus. »
Mais le savoir reste à transmettre !
Le nouveau monde dans lequel Michel Serres se projette va-t-il se passer du pédagogue ? De tout temps le savoir avait pour support le savant ou le « sachant » comme on dirait en « novlangue ». Au temps de la tradition orale, il était aède ou griot. Puis vint l’écriture pour le fixer sur les supports antiques : tablettes d’argile, rouleaux, parchemins. Des moines passaient leur vie à le copier pour le diffuser. A la Renaissance, l’imprimerie fait du livre le principal support de diffusion. On construit des bibliothèques pour le rassembler, à la Sorbonne et ailleurs. Même le moindre collège est conçu autour de ce centre vital : le CDI (Centre de Documentation et d’Information). Mais aujourd’hui, ces supports sont devenus obsolètes, c’est la toile qui est devenue le principal support de messages et d’information. Dans mon bureau, il y a une éternité que je n’ai pas ouvert mon « Grand Larousse encyclopédique » ni un volume de mon « encyclopedia universalis ». Démodés, poussiéreux, dépassés, ils sont devenus un décor d’érudit. Un simple décor. Ils ont été détrônés par « Google » ou ses équivalents. Il suffit de taper quelques lettres et la réponse jaillit, immédiate. Désormais, le savoir est partout, sur la toile, disponible. Il suffit de se baisser pour le ramasser. Encore faut-il se baisser ! Encore faut-il, surtout, qu’il soit vérifié ! Car en même temps, il faut bien l’admettre, l’ignorance progresse.
A qui le transmettre, s’interroge alors le philosophe ? A tous ! Désormais le savoir est accessible à tous ! Avec l’accès aux personnes, par le téléphone, en tous lieux, l’accès au savoir est ouvert : d’une certaine manière il est toujours et partout déjà transmis. Soit !
Mais si on voit bien ce que ce constat génère comme conséquences matérielles : plus besoin de lieux concentrés, plus d’enseignant énonçant le savoir à un groupe silencieux à l’écoute attentive, l’apprentissage interactif peut se faire entre des personnes dispersées dans l’espace planétaire dès lors qu’elles sont connectées. Ce n’est pas sans poser au moins deux problèmes : quoi mettre dans la tête, et à quelle(s) source(s) de savoir se référer ?
La tête bien faite.
Michel Serres utilise la métaphore de la légende de Saint-Denis pour illustrer le fait que nous avons dorénavant la tête à côté du corps, autrement dit un cerveau bis dans la main qui contient tout le savoir dont on peut avoir besoin. A-t-on pour autant de manière innée, le mode d’emploi pour l’utiliser ? Montaigne préconisa une tête bien faite plutôt qu’une tête bien pleine, parce qu’il prenait en compte le formidable progrès apporté par le stockage de la connaissance dans les livres. Inutile donc comme les anciens de se remplir la tête : la méthode devenait aussi importante que le contenu. N’oublions pas qu’il ajoutait : « qu’on y requiert les deux ! » Et cela nécessitait d’apprendre et d’apprendre à apprendre. Ce que curieusement, Michel Serres oublie.
La tête de nos enfants mute une nouvelle fois : ils ont les fonctions cognitives qui permettent d’assimiler le savoir ainsi distribué, puisque ces fonctions se transforment avec le support et par lui. La pédagogie change donc totalement avec les nouvelles technologies. Tout reste à inventer ! Mais… j’ajoute un « mais ». Je pense malgré tout qu’il y a un commencement nécessaire à la transformation de la tête bien faite en tête numérique, qui s’appelle « apprentissage de l’écriture » –peu importe laquelle, cryptage, encodage, - et de « la lecture ». Car sans ces deux apprentissages il n’y aura point de formation de l’esprit critique, absolument indispensable à l’utilisation et à l’interprétation de toute information si on veut qu’elle devienne « connaissance ». Sinon, le cerveau bis, dont on lui imposera le contenu, pensera à sa place. D’ailleurs si l’on en croit Michel Desmurget (« La fabrique du crétin digital »), le cerveau mutant que décrit Michel Serre n’existe pas, études scientifiques à l’appui.
La vérification du savoir.
Michel Serres nous dit : « N’ayant plus à travailler dur pour apprendre le savoir, puisque le voici, jeté là, devant elle, objectif, collecté, collectif, connecté, accessible à loisir, dix fois déjà revu et contrôlé … ». Objectif et contrôlé : peut-on en être certain ? Et par qui ? Peut-on faire confiance au collectif ? Chacun sait que tous les moteurs de recherche ne sont pas exempts d’erreurs, et même nombreuses. Wikipédia, déjà citée, cette encyclopédie collective est une collection d’articles souvent fort bien documentés, mais à l’initiative de contributeurs pas toujours complètement objectifs.
Allons plus loin.
Le monde est dominé aujourd’hui par un géant des données d’information : « Google ». Mais qui le contrôle ? Qui nous garantit le savoir qu’il dispense. Questions de béotien probablement, mais quand on voit tout ce qui circule sur internet, où le vrai côtoie très souvent le « fake », il convient d’être méfiant. Certes Petite Poucette ne lit ni ne désire plus « ouïr l’écrit dit » (l’expression est de Michel Serres : en gros, la transmission orale par le prof), parce que le savoir annoncé, tout le monde l’a déjà, et en entier, sous la main. Alors ce nouveau savoir qui ne sort plus du livre où il était stocké, quel est–il ? « C’est une offre sans demande » nous répond le philosophe. C’est la fin des experts et un retournement de la pédagogie. Petite Poucette cherche et trouve le savoir dans sa machine. Mais celle-ci ne fait que compiler le savoir sorti des livres dont on a bien voulu la nourrir et c’est elle qui choisit ce qu’elle va afficher (Gaspard Koenig, « la fin de l’individu »). Et alors comment Petite Poucette discernera-t-elle le bon savoir de l’obscurantisme qui sait lui aussi se glisser dans les algorithmes de la connaissance ? Car, comme nous le montre Gaspard Koenig, les banques de données ne sont rien d’autre que du savoir compilé. Alors, le savoir « discuté » sera-t-il capable de faire face ? D’autant plus que l’intelligence artificielle va aussi s’en mêler. Et quand la machine tombera en panne, quelle solution ?... Mon esprit cartésien me pousse à la méfiance.
La compétition avec l’Intelligence Artificielle.
Aujourd’hui, c’est l’Intelligence Artificielle qui mène la danse. Elle est capable de battre des champions du monde d’échec. Elle progresse à une vitesse exponentielle et elle s’auto-éduque autant qu’elle se programme nous prévient Laurent Alexandre (La guerre des intelligences – JC Lattès). En 2020, les ordinateurs traiteront 1 milliard de milliards d’opérations toutes les secondes, tandis que l’humanité produira 1 000 milliards de milliards de data chaque semaine, une masse de données et d’informations que le cerveau humain sera incapable de digérer sans le recours à l’Intelligence Artificielle dans tous les domaines de la vie humaine. Ce tsunami numérique, dont il est déjà impossible de se passer et qui va impacter tous les métiers, exigera de la part des humains une intelligence naturelle plus développée, au risque sinon que l’IA les dépasse. En effet, quelle va être la place de l’homme face à ce qu’on appelle l’Intelligence Artificielle faible, déjà opérationnelle, sans parler de l’Intelligence Artificielle forte dotée de conscience et d’émotions qui pourrait émerger plus tard, bien qu’on en soit encore très loin ?
Les algorithmes : des crétins performants.
Dans sa quête mondiale sur l’Intelligence Artificielle, Gaspard Koenig nous rassure tout en nous montrant les multiples biais dangereux qui peuvent conduire à la fin de l’individu. Du « Turc mécanique », ce joueur d’échec hongrois automatique du Baron Von Kempelen inventé en 1769, aux supercalculateurs de Google, l’IA, qui se résume en fait à la somme de nos connaissances compilées en informatique, est une illusion seulement capable de reproduire un résultat et non un processus. Mais c’est une illusion convaincante. Pour faire simple, la dernière génération d’algorithmes est capable de fouiller dans une masse de données, de manière plus ou moins autonome, pour en extraire des régularités et des prédictions. Mais sans données, pas d’IA, qu’elle soit « machine learning », « reinforcement learning » ou « deep learning ». Les technologies d’IA sont maintenant capables d’anticiper et d’orienter les comportements individuels grâce à la puissance de personnalisation et d’optimisation fournie par le traitement des « data ». La collecte de ces « data » est donc essentielle. Ce sont des milliers de personnes qui s’y emploient mais aussi chacun d’entre nous grâce à tous les « cookies » et « conditions d’utilisation » que nous téléchargeons quotidiennement. Pourtant, la « super intelligence » est un mythe, car le bon sens est la chose du monde la moins partagée par les robots. Aucun algorithme ne peut concevoir une interprétation globale du monde et des hommes qui le peuplent : comme l’affirmait Spinoza, « le cerveau et le corps sont dans le même bain et produisent l’esprit de manière conjointe », ce que Antonio Damasio, neuroscientifique de renommée mondiale, explique par « l’homéostasie » : on pense autant avec ses doigts de pieds qu’avec son cerveau ! Et aucune IA n’est capable d’imiter nos doigts de pied. Avec en plus nos « sentiments », au coeur du processus homéostatique, qui sont seuls à produire du sens. Sans corps, pas de sens commun, mais pas d’humour non plus. Cela n’empêche pas l’IA de menacer l’humain.
Le « nudge » : une nounou souterraine.
Commençons par le mot lui-même, qui, en anglais, signifie «coup de pouce». C’est en 2008 que la théorie du Nudge a été popularisée par deux américains : Richard Thaler, un économiste et théoricien de la finance comportementale et Cass Sunstein, professeur à l’Université de droit d’Harvard. Son principe est simple: influencer nos comportements dans notre propre intérêt. Elle part du principe que les individus ne sont pas des êtres rationnels et que leurs prises de décisions sont sous l’influence de l’environnement, des émotions et des instincts, les biais cognitifs. Ainsi, ce « coup de pouce » serait ce qu’il y a de plus efficace pour aider les individus à faire des choix : par exemple, une grande surface avait augmenté de 30% en 3 mois ses ventes de poissons frais en diffusant des bruits de mouettes et des odeurs de marée. Issu de la psychologie comportementale, le principe du « nudge » a été intégré dans les algorithmes. Pour aller à l’essentiel, l’idée qu’avance l'auteur, c’est que nous vivons dans un monde où nos libertés seraient de toute part menacées notamment par les Gafa, mais aussi par des entreprises, par des gourous et des partis politiques qui tentent de nous faire aller dans telle ou telle direction, non par une méthode autoritaire, mais en nous incitant doucement, par micro-messages publicitaires ou autres, à choisir telle option d’achat, de vote, de spectacle, etc… Influencer sans contraindre, et pour le bien. Autant de formes de soumission aux algorithmes. Avec le danger évident, celui d’agir pas seulement pour notre bien mais surtout pour la communauté, variable selon le développeur de l’appli. Derrière le « nudge », il y a toujours une forme d’allégeance à un communautarisme qui se profile, soit par utilitarisme (cas américain) soit par idéologie collectiviste (cas chinois). L’individu perd alors sa liberté de jugement. On imagine assez facilement ce que le « nudge » appliqué à des logiciels pédagogiques pourrait provoquer comme orientation des apprentissages…
Le libre arbitre en danger.
Les stratégies développées par les créateurs d’applications mettent en effet nos facultés de choix personnel « libre et par soi-même » à rude épreuve par le confort qu’elles nous apportent. Et les exemples dans notre vie quotidienne ne manquent pas : « Waze » qui nous guide en nous promettant le meilleur temps de parcours, c’est tellement plus facile que de déplier une carte routière ; nos messageries nous proposent des réponses toutes faites sans que nous ayons à faire l’effort de rédiger ou de chercher un mot plus précis… Des petits riens qui font de nous, petit à petit des zombies décérébrés : interrogez un chauffeur parisien d’Uber sur la ville qu’il traverse chaque jour, et vous serez surpris du vide ; et ne cherchez pas pourquoi vos enfants, sinon vous-mêmes, avez perdu votre vocabulaire et votre syntaxe ! A force d’économiser nos fonctions cérébrales, Gaspard Koenig explique que l’humain perd pour de bon l’habitude de prendre ses propres décisions et sa liberté de choisir. Les algorithmes agissent comme une drogue. Grâce aux délibérations « tellement logiques » servies sur un plateau, chacun acceptera d’être accompagné par une IA dans les choix les plus importants de son existence. C’est déjà ce qui se passe avec les sites de « rencontres ». C’est la fin de l’individu autonome et responsable par le triomphe du « bien-être » !
L’individu n’a pas dit son dernier mot.
On observe déjà les nombreuses transformations dans la société, générées par la fin du libre arbitre. Ce sont les ordinateurs qui échappent au monde financier, c’est l’art sans artiste, la science sans causalité, la théorie, fruit de la réflexion humaine rendue obsolète par les data, et sans libre arbitre, fini le marché : la prédiction de nos comportements suffit déjà à ajuster l’offre à la demande dans bien des cas. Pour échapper à tous ces dérèglements, c’est à l’individu de reprendre la main en commençant par ne plus fournir gratuitement ses données, en définissant ses propres normes pour les imposer aux algorithmes et tant pis si elles ne sont pas « optimales » pour le groupe. Chacun devrait pouvoir imposer son propre nudge, de manière consciente et volontaire. C’est le principe de la « Prime Directive », que Gaspard Koenig sort de la série Star Trek, pour en faire une règle supérieure d’ordre moral. Cela remettrait de l’humain dans l’IA et surtout lui redonnerait du sens.
L’Etat français à la manœuvre.
Notre pays présente des prédispositions pour exploiter le filon du « nudge » et utiliser les algorithmes à son profit. Il est centralisé et hypertechnocratisé, deux caractères facilitateurs. Le système fiscal mis en place avec le prélèvement à la source en est un bon exemple : le « nudge » ici consiste à soulager le contribuable de toutes les démarches déclaratives, il n’a plu qu’à payer, et encore, le prélèvement a lieu sans même son consentement. Une autre application est en train de se mettre en place : Bercy a glissé dans le projet de loi de finances une disposition qui lui donnerait le droit de collecter et d’exploiter, au moyen de traitements informatisés, les contenus librement accessibles publiés sur internet. Un « ciblage de la fraude et valorisations des requêtes », pour définir un traitement automatisé des données collectées consistant à appliquer des « méthodes statistiques innovantes ». En clair il s’agit de conjecturer qui va frauder dans le futur en fonction de données personnelles (vraies ou fausses) publiées par soi-même ou par des tiers… Le « data mining » est en plein dans le sujet puisqu’il est censé permettre de prédire les comportements et de prévenir le délit. Et on envisage maintenant d’utiliser la « reconnaissance faciale » pour la sécurité. Espérons qu’on ne suivra pas le modèle chinois. Big Brother est déjà là !
Il ne s’agit pas pour autant de devenir technophobe. Le particularisme de l’Europe, par rapport au reste du monde, c’est sa culture spécifique à l’origine de l’individu libre et responsable. L’Europe a tout son rôle à jouer pour proposer des régulations intelligentes conciliant prospérité et libertés. L’important est que, là aussi, les algorithmes n’enterrent pas nos « Lumières ». Comme le dit Gasparov dans le livre, à propos de « Deep blue » qui l'a battu aux échecs : « il n’est pas plus intelligent qu’un réveil-matin programmable ! »
Plus que jamais, l’éducation aura un rôle primordial.
Dans ce contexte, l’une des grandes questions qui sera au cœur des préoccupations sera celle de l’éducation : quelles compétences et quelles connaissances transmettre à nos enfants et petits-enfants pour qu’ils ne deviennent pas les esclaves de l’Intelligence Artificielle, des personnes ayant perdu leur libre-arbitre, et qui fera qu’ils ne seront pas facilement manipulables par les médias où le virtuel peut si facilement remplacer le réel, par le monde économique, toujours preneur de mains-d’œuvre dociles, sans parler du politique où le mensonge peut façonner l’opinion plus facilement qu’autrefois (cf. la campagne sur le Brexit au Royaume-Uni) ?
Déjà les métiers tels que la médecine, la radiologie et la chirurgie sont envahis par elle. Il n’y aura bientôt plus d’agences bancaires parce que la plupart des opérations sont traitées sans intervention humaine… L’avenir est donc dans les activités qui font appel à l’esprit d’entreprise dans les métiers de la robotique, les biotechnologies, les nanotechnologies. Il sera aussi dans toutes celles qui peuvent donner un sens à la vie : l’enseignement évidemment, la recherche bien sûr, mais aussi le droit, les loisirs, les services à la personne, la sécurité, et forcément la politique dont il vaudrait mieux qu’elle ne soit pas exercée par des robots !
Il est impératif que l’économie de la connaissance prenne rapidement en compte les personnes qui ont des capacités moyennes ou modestes, puisque dans le même temps l’Intelligence Artificielle va avancer de plus en plus vite. Celles que l’on commence à former seront encore sur le marché de l’emploi en 2070. Qu’en fera-t-on quand elles seront dépassées par les progrès de l’Intelligence Artificielle ? L’auteur de « La guerre des intelligences » préconise : l’école a un rôle à jouer, à condition que, lorsqu’on investit dans l’éducation, cela ne profite pas qu’aux élèves qui ont un QI élevé. En effet, partout dans le monde, l’éducation ne marche vraiment bien que sur ces derniers, toutes les études internationales le montrent. Cela passe par une modernisation des moyens et un nouveau type de recrutement des enseignants.
Investir dans la recherche pédagogique.
Il faut réfléchir à une pédagogie qui améliore les capacités des gens à QI modeste et qui leur permette d’apprendre : c’est le seul moyen d’éviter le pire scénario qui consisterait à avoir d’un côté l’élite et de l’autres les inutiles. Laurent Alexandre, déjà cité plus haut, stipule que nos cerveaux pourraient être modifiés par la science pour augmenter notre quotient intellectuel afin de résister à la concurrence de l’Intelligence Artificielle. Une montée en puissance radicale en utilisant tout le potentiel des nanotechnologies, biotechnologies, informatique et sciences cognitives. Il plaide encore pour une école « transhumaniste » qui trouvera normal de transformer le cerveau des élèves, pour favoriser une démocratisation de l’intelligence. Nombre d’intellectuels humanistes y verront une dérive qui rappelle le « Meilleur des Mondes » d’Aldous Huxley, mais l’essayiste a des arguments qu’il faut savoir entendre, sans qu’ils soient décisifs.
On a lancé la société de la connaissance, du big data, et l’industrialisation de l’Intelligence Artificielle sans se préoccuper de l’intelligence biologique. Laurent Alexandre dénonce, à juste titre des élites qui n’ont même pas commencé à réfléchir à l’avenir des gens moins doués, alors que les inégalités de quotient intellectuel sont les principales sources des inégalités sociales et économiques. Or le quotient intellectuel mesure notre capacité à résister à l’Intelligence Artificielle puisqu’il synthétise notre plasticité neuronale et donc notre adaptabilité intellectuelle. En ce sens, la prise en compte par l’école de cette nécessité évidente d’égalisation des chances, impose des investissements lourds dans la recherche pédagogique au moins autant que les géants du numérique américains et chinois investissent dans l’éducation des cerveaux de silicium.
Nous avons en France, une « mission sur l’intelligence artificielle » pour la développer dans notre pays et en Europe. Elle a défini six pistes de réflexion : politique industrielle, enjeu des données, impact sur l’emploi, écologie, éthique et recherche. Rien sur la formation et l’évolution de la pédagogie ! En retard sur le développement de l’Intelligence Artificielle, nous ne prenons pas en compte son impact sur l’humain. Peut-on se contenter d’une vision qui réduit l’Intelligence Artificielle à débarrasser l’humain de ce qui est répétitif pour se concentrer sur le stratégique et l’empathique qui font de nous des humains ? Voilà une vision un peu trop réduite du rôle de l’Intelligence Artificielle. Le débat est donc loin d’être clos.
Les écrans ne sont pas la solution.
L’ouvrage de Michel Desmurget qui a mis trois ans à rassembler la littérature scientifique concernant le sujet est sans appel. Dans « la fabrique du crétin numérique », il démontre avec une grande précision les dégâts provoqués par le temps passé de nos chères têtes blondes devant les écrans. Toutes les études montrent un affaissement majeur des compétences cognitives de ces jeunes, depuis le langage jusqu’aux capacités attentionnelles en passant par les savoirs culturels et fondamentaux les plus basiques. La numérisation de l’école ne fait qu’aggraver les choses, on le sait, entre autre, par les études PISA. Le miracle que décrit Michel Serres n‘a pas eu lieu : homo numericus n’est pas advenu. Ce prodige évolutif que d’aucuns nomment « millenial, digital native, e-generation,… » n’existe que dans la tête des propagandistes de la consommation d’écrans. L’enfant mutant du numérique, que son aptitude à taquiner le smartphone aurait transformé en omnipraticien des nouvelles technologies, qui grâce aux jeux vidéo aurait vu son cerveau prendre force et volume, cet enfant n’est qu’une légende. De même la performance des élèves chute d’autant plus que les investissements dans les technologies de l’information et de la communication (TICE) augmentent. Alors que nombre d’études ont démontré l’importance de la lecture dans les livres pour enrichir et développer le langage et son influence positive sur les résultats scolaires. L’enfant n’a besoin pour développer son verbe ni de vidéos ni d’applications mobiles, il faut qu’on lui parle, qu’on sollicite ses mots, qu’on l’encourage à nommer les objets. Il a besoin d’interaction humaine. Le cerveau humain s’avère, quel que soit son âge, bien moins sensible à une représentation vidéo qu’à une présence humaine effective. C’est pour cette raison que la puissance pédagogique d’un être de chair et d’os surpasse irrévocablement celle de la machine.
Donc, le professeur solidement formé reste la meilleure solution. Un écran ne peut pas sourire, accompagner, guider, stimuler, encourager, rassurer, émouvoir, faire preuve d’empathie … qui sont des éléments essentiels de la transmission et de l’envie d’apprendre.
Les écrans ont d’autres effets négatifs qu’il serait dangereux de sous-estimer : leur utilisation abusive affecte lourdement le sommeil, augmente fortement la sédentarité en diminuant d’autant le niveau d’activité physique, effets auxquels il faudrait ajouter les contenus « à risque » de tous ordres ( sexuels, tabagiques, alcooliques, alimentaires, violents …) qui saturent l’espace numérique. Maîtriser l’utilisation des écrans s’avère donc une nécessité si l’on veut préserver les performances scolaires, le développement intellectuel et la santé des enfants.
D’autres enjeux tout aussi cruciaux.
La France a aussi pris du retard dans toutes les problématiques d’accueil des enfants « différents » : tous les « dys.. », précoces, autistes. Ce sont des défis que les autres pays relèvent. Et dans le domaine de la pédagogie, voilà un des rares domaines où les outils numériques peuvent être d’une grande utilité pour faciliter l’insertion de ces enfants, le plus souvent possible, en milieu « ordinaire », c’est-à-dire les scolariser.
Ainsi, prenons le cas des enfants autistes. En France, 80% des enfants autistes ne sont pas scolarisés. Leur prise en charge devient indispensable, d’autant plus que la Haute Autorité de Santé estime à 1 nouveau-né sur 150 concerné par l’autisme, taux que les spécialistes estiment largement sous-estimé et plutôt à 1 sur 100. Ils seront donc de plus en plus nombreux. A la rentrée 2019, ce sont plus de 4 000 enfants de 3 ans qui n’ont pas pu intégrer l’école maternelle.
L’imagerie cérébrale montre que le cerveau des autistes fonctionne différemment de celui des « neurotypiques » (gens dits « normaux »). Ce ne sont pas les mêmes zones du cerveau qui s’activent chez les uns et chez les autres, ce qui suggère qu’aux différences constatées au niveau des processus cognitifs répondraient des connexions entre régions cérébrales elles-mêmes différentes. Un chercheur californien a établi que le développement important du cortex préfrontal, siège des fonctions cognitives supérieures, comme le langage et le raisonnement, résultait d’un nombre anormalement élevé de neurones dans cette région, de 67 % supérieure à celui des enfants non autistes. Ainsi, si les autistes ont tant de difficultés pour apprendre à parler, ce serait peut-être en raison d’un excès de neurones à la naissance. Ces observations ont permis dans d’autres pays de mettre en place des stratégies d’apprentissage adaptées. L’apport des neurosciences pourrait être décisif pour adapter les modèles d’enseignement. Il existe des méthodes qui sont mises en œuvre dans d’autres pays, qui fonctionnent et qui permettent de sortir la plupart des enfants autistes du milieu hospitalier. Ce sont soit des classes spécialisées, de moins de 12 élèves, soient des classes ordinaires avec accompagnant formé. Au Canada, on pratique « l’autorégulation ». Les cas d’autisme étant très variés, les enfants sont insérés dans des classes ordinaires et en cas de « crise » dirigés vers un « sas » médico-social associé à l’établissement. L’important étant d’assurer la prise en charge en continu de la maternelle à l’école élémentaire et au collège. Cela suppose de former les personnels à ce type d’encadrement. L’expérience démontre que tout le monde bénéficie de cette démarche : les autres élèves acquièrent une connaissance de ces enfants et s’habituent à eux, les accompagnants spécialisés profitent aussi aux élèves dits « normaux » mais en difficultés. Et les outils pédagogiques sont déjà familiers. Le problème des autistes étant souvent un défaut de verbalisation, l’i-pad permet, grâce à des logiciels de pictogrammes, de contourner ce défaut et de rétablir la communication. Il existe évidemment d’autres contraintes correspondant à la sensibilité particulière de ces enfants, comme privilégier le visuel, qui peuvent être gérées. Il ne s’agit pas ici d’entrer dans le détail. Le « plan autisme » du gouvernement vise en priorité la précocité du diagnostic, avant 2 ans, ce qui voudrait signifier une entrée en maternelle à 3 ans, en 2021. Restera à convaincre le ministère de l’Education nationale et à former les enseignants et les accompagnants, ce qui imposera un gros effort financier.
Pour faire court, je suis persuadé que les outils numériques, utilisés avec des programmes très précis et adaptés, associés à des stratégies pédagogiques spécialisées mises en œuvre par des enseignants dûment formés, permettraient de répondre aux cas des élèves précoces, si mal pris en compte dans les classes ordinaires, et de tous ceux qui présentent des troubles de dyslexie, dysphasie, dyspraxie… Toujours avec le même objectif : leur faire suivre autant que faire se peut une scolarité en milieu ordinaire. Espérons que comme d’habitude, nous ne prenions pas un train de retard. Car il faut compter avec les forces conservatrices du système que sont les syndicats de gauche comme le Snuipp-FSU, qui continueront de défendre l’indéfendable. Il serait temps que les sciences, et surtout les neurosciences, qui sont autrement plus fiables que la psycho-sociologie des pédagogistes, soient prises réellement en compte en ce qu’elles apportent des éléments de connaissance sur l’activité cérébrale. C’est ainsi que le professeur Dehaene, spécialiste de psychologie cognitive a démontré, imagerie cérébrale à l’appui, l’inefficacité de la méthode globale pure expérimentée dans les années 80. Et de fait, il estime que le « décodage » doit tenir une place importante en CP dans l’apprentissage de la lecture. De quoi faire se dresser tous les experts en « sciences de l’éducation » de la rue de Grenelle !
Le pédagogue a encore un rôle à jouer.
Je vois bien que lorsque mon imagination me projette dans un enseignement avec des élèves bardés d’outils électroniques, en adaptant mes recettes et un renversement des rôles - les élèves qui énoncent ce qu’ils ont trouvé et le prof qui écoute et fait le tri, réoriente ou valide- je ne suis qu’une relique du 20ème siècle qui ferait cours avec les schémas de « l’ancien monde ». Evidemment, les cours du 21ème siècle s’annoncent complètement différents et l’on peine à les imaginer à travers les évolutions qu’envisage Michel Serres, assez surréalistes d’ailleurs. Pourtant je reste persuadé que malgré tout, il faudra continuer d’apprendre à lire et à écrire parce que c’est par là que tout a commencé et continuera de commencer. Luc Ferry nous prévient : il ne croit pas au recours aux « sciences de l’éducation » ou « neurosciences », il doute, en effet, qu’une meilleure connaissance du fonctionnement du cerveau d’un élève par un enseignant rendra forcément ce dernier meilleur pédagogue, sinon comment expliquer que de merveilleux professeurs aient pu tout ignorer des neurosciences ! Il a en partie raison s’il veut dire par là que la relation pédagogique restera essentielle. Sauf que l’amélioration des facultés cognitives est possible et requiert des méthodes adaptées, utilisant tout le potentiel des sciences du cerveau. Une meilleure connaissance du fonctionnement de notre matière grise ne peut qu’aider le pédagogue à imaginer ses stratégies d’apprentissage, comme je l’ai fait en découvrant les travaux de La Garanderie.
Pédagogue ou « médiateur » ?
Il n’y aura peut-être plus de pédagogue dans un rôle tel qu’on le conçoit aujourd’hui encore, néanmoins je reste persuadé qu’un « médiateur » du savoir sera toujours indispensable, sous quelle forme et comment… cela reste à inventer. La solution pourrait être dans la recherche des complémentarités entre le cerveau humain et celui de silicium, grâce à une cartographie de l’intelligence artificielle qui permettrait d’en identifier les zones de compétences. Ainsi, il y aura des endroits où l’on va être moins bons que l’Intelligence Artificielle mais que l’on pourra reprendre par de la formation, par du travail de groupe, par de nouvelles approches intellectuelles… Une guerre de mouvement passionnante et du pain sur la planche pour les futurs pédagogues qui devront se remettre sans cesse en cause. Il reste que les livres de Laurent Alexandre, de Michel Serres, de Gaspard Koenig, de Michel Desmurget, soumettent à la réflexion de ceux qui ont en charge les destinées du système éducatif, des pistes de réflexions qui rendent leur lecture indispensable par nos intellectuels et nos politiques s’ils veulent appréhender les enjeux du monde qui vient, et qui est déjà là pour partie. Avec toutefois une constante : le geste d’enseigner, quel que soit le contexte, se situera toujours au-delà des réformes et des circulaires, car il est d’abord une relation qui se construit avec autrui, en l’occurrence entre le pédagogue et un élève ou un étudiant.