Dossier : Des jeux en classe, c'est sérieux ? (II) / 2. Des questions soulevées par les jeux sérieux dans l'éducation

Les jeux vidéo : du gâteau pour le cerveau

Elena Pasquinelli, fondation La main à la pâte, Institut d'étude de la cognition, ENS, Paris

Les jeux vidéo déclenchent une certaine panique devant le risque de dépendance, ou un enthousiasme croissant pour leurs vertus éducatives. Mobiliser une approche cognitiviste et évolutionniste permet de chercher à comprendre ce qui fait l'attrait et l'intérêt pédagogique de ces jeux.

Un regard sur le cerveau et les écrans

La propagation des jeux vidéo et, plus généralement, des écrans dans la société, s'accompagne de sentiments d'autant plus forts qu'ils sont opposés. D'un côté, une certaine panique liée à la possibilité que les écrans nous rendent dépendants ou violents ; de l'autre, l'enthousiasme croissant pour leurs vertus miraculeuses lorsqu'ils sont utilisés en tant que haltères pour le cerveau et pour apprendre sans s'en apercevoir, ou du moins en s'amusant. Ainsi, l'attitude envers les jeux vidéo - et les écrans - prend la forme d'un dualisme des extrêmes dont il paraît difficile, mais souhaitable, de sortir si l'on veut tirer parti de ces médias, destinés à se transformer et non à disparaître de la scène.

Il est utile de faire d'abord sortir de cette même scène deux préjugés concernant le fonctionnement du cerveau. Le premier consiste à imaginer le cerveau comme une masse infiniment malléable et plastique que les expériences - notamment celles avec les écrans - modifient à leur guise. Le second consiste à penser le cerveau comme un muscle - métaphore très présente dans l'image de l'entraînement cérébral. À force d'être exercées, des capacités comme l'attention et la mémoire, ou celle à suivre des tâches multiples simultanément, augmenteraient et s'étendraient à tout domaine. Jouer serait alors une espèce de gymnastique pour maintenir le cerveau en forme - autant que pour en atrophier les capacités non exercées. Ces préjugés reviennent régulièrement dans les discussions sur les effets des écrans, notamment sur leur capacité à transformer notre manière de penser, en bien ou en mal. Le mythe de la plasticité infinie se marie bien avec l'image des enfants de la "génération numérique" - née après les années 90 -, image d'une nouvelle espèce ayant un cerveau différent de celui de leurs parents et enseignants, savante et technologique, mais plus superficielle et violente. Ce qui entraîne donc des conséquences pratiques : comment pouvons-nous comprendre ces enfants, puisque les natifs numériques sont si différents de nous ? Pour se plier à cette transformation, ne doit-on pas simplement introduire dans l'éducation des technologies qui s'accordent avec ces "nouveaux" cerveaux ?

Il est ensuite utile de se tourner vers l'étude de la cognition humaine, dans une perspective "longue", évolutive. C'est en se référant à la nature humaine et à l'évolution de notre cerveau que nous pouvons arriver à mieux comprendre, à la fois ce qui rend les jeux vidéo si irrésistibles - si on se réfère aux études épidémiologiques, presque tous les adolescents jouent, mais aussi la plupart des adultes, qui ont aujourd'hui entre 25 et 40 ans - et comment on doit s'y prendre pour exploiter au mieux les potentialités de la technologie numérique, en prenant conscience des possibles dérives. Il faut pour cela rappeler que le cerveau humain, loin d'être une tabula rasa, vient au monde équipé de capacités et connaissances qui se sont révélées utiles pour garantir la survie de notre espèce et de ses gènes. Comment ces capacités et connaissances préparent-elles nos réactions et appréciation des nouvelles technologies ?

Préjugés

Les deux préjugés sont faux, mais seulement lorsqu'ils sont interprétés trop littéralement : le cerveau est réellement plastique et la pratique délibérée d'une capacité est la clé pour son amélioration. Les avancées récentes dans l'étude du cerveau ont mis en évidence l'existence de mécanismes responsables de sa modification durable en réponse à l'expérience. L'idée de plasticité date en réalité du début du siècle dernier, mais la recherche a connu une accélération importante lors des dernières décennies : nous savons maintenant que le cerveau est doué d'une plasticité fonctionnelle - qui permet aux connexions reliant ses briques de construction (neurones) de changer leur forme et de varier leur puissance suite à l'expérience -, mais aussi structurelle. On se doutait qu'il devait, de quelque manière que ce soit, enregistrer physiologiquement ce que l'observation du comportement nous met sous les yeux tous les jours : nous apprenons tout le temps. La notion de plasticité fonctionnelle semble être le meilleur candidat pour constituer le fondement biologique de l'apprentissage qui se continue toute la vie. On a découvert aussi que certaines régions du cerveau possèdent la capacité de se reconfigurer, en envahissant des régions voisines qui ont perdu leur connexion avec le monde - à cause de lésions de ces régions, par exemple, ou de la perte de membres du corps. Cette capacité n'est pas nécessairement positive, et elle se manifeste aussi en réponse à l'exercice intensif de certaines parties du corps ; ainsi, certains musiciens souffrent de paralysies des doigts parce que les cartes mentales qui représentent les doigts voisins se sont étendues jusqu'à occuper des parties de la carte cérébrale qui leur sont impropres. L'observation du cerveau de certains animaux comme les oiseaux, les rats, les poissons, mais aussi les primates et les humains, a montré que, dans certaines zones, de nouveaux neurones peuvent continuer à se former à l'âge adulte - contrairement aux descriptions traditionnelles du cerveau humain, qui aurait été doué de toutes ses briques déjà avant la naissance, et de toutes ses connexions entre les briques au plus tard à la fin de la puberté. De nouvelles connexions se forment, en outre, à la puberté, dans les zones les plus récentes - philogénétiquement, mais à l'évidence même ontogénétiquement - du cerveau - notamment le cortex frontal - pour subir un nouveau processus de sélection et stabilisation qui ressemble à celui des premiers dix-huit mois de vie.

Ces différents résultats ont changé l'image que les neurosciences nous renvoient du cerveau, et sont certainement en mesure de détruire le mythe selon lequel tout se joue, en termes d'apprentissage, avant une certaine époque de la vie - souvent fixée à trois ans, arbitrairement. Ils risquent toutefois d'être interprétés dans le sens que le cerveau modifierait sans cesse sa structure et son anatomie en réponse aux nouveaux apprentissages, alors qu'on ne connaît pas encore les causes et effets précis des reconfigurations des cartes cérébrales, ni le rôle de la naissance de nouveaux neurones à l'âge adulte - qui, de toute manière, a une portée incomparablement plus faible que lors de la formation des neurones avant la naissance. Si le cerveau était vraiment une masse "molle" sur laquelle l'expérience exerce constamment une modification radicale, capable de transformer notre nature - modalités d'apprendre, de penser -, les différences entre les êtres humains de cultures différentes seraient beaucoup plus importantes que ce qu'elles sont en réalité. Bien qu'on puisse apprendre toute la vie, la nature humaine pose les bases de notre manière d'apprendre et des mécanismes qui nous permettent de penser et ne changent pas avec l'expérience ou l'utilisation de technologies.

Le même réalisme doit s'appliquer au mythe du cerveau-muscle. L'observation des experts et du devenir expert a montré qu'une forme spéciale de pratique fait la différence entre le violoniste professionnel et l'amateur, le maître d'échecs et le débutant. Cette pratique, délibérée et non pas subie ou tout simplement répétée, se vaut en particulier d'une grande motivation qui permet à l'expert de : dédier temps et concentration à sa tâche ; tenir compte des observations d'un tuteur personnalisé pour réduire ses faiblesses ; s'entraîner avec plus d'insistance que le novice ; utiliser des stratégies pour mieux mémoriser et maîtriser son matériel ; organiser ses connaissances et les utiliser. Dix ans et dix mille heures sont normalement nécessaires avant de former un expert ; et, même dans ces conditions, l'expertise dans un domaine a tendance à rester "collée" aux contenus du domaine lui-même. Lorsque la mémoire du maître d'échecs se trouve confrontée à des tâches qui ne concernent pas le jeu d'échecs, ses prestations retombent au même niveau que celles de n'importe quel apprenti joueur. L'apprentissage est difficilement généralisable et transférable, contrairement à ce que sous-tend l'idée du cerveau-muscle. Le cerveau résiste donc en quelque sorte à la transformation radicale de ses capacités : nous apprenons toute la vie, nous ne changeons pas de nature.

Cela nous amène à un troisième préjugé ou mythe, cette fois d'ordre technologique : celui qui nous fait imaginer que le bain numérique dans lequel baigne la nouvelle génération constitue en soi une garantie d'alphabétisation numérique, ou de supériorité nu-mérique, par rapport aux générations précédentes. Or cela ne semble pas être le cas. Les natifs numériques ne sont pas nécessairement meilleurs dans la recherche sur Internet que leurs parents, ni dans la gestion effective de plusieurs tâches à la fois. Bien que tout utilisateur de technologies soit amené à pratiquer les deux, faire et savoir faire ne sont pas synonymes. S'il est vrai que les joueurs de jeux vidéo ont de meilleures performances dans des tâches d'attention, spatiales et visuelles - et s'il est possible que celles-ci aient été en partie entraînées par la pratique des jeux d'action -, il n'est pas démontré que cela change la manière d'apprendre, de comprendre ou de déployer des stratégies pour faire autre chose que jouer avec des jeux vidéo. Pour le moment, le seul vrai prédicteur de la capacité de comprendre - un texte écrit, par exemple - est la possession de connaissances spécialisées qui nous permettent - encore plus que la capacité de lecture - de relier chaque mot et chaque phrase à notre savoir préalable. Les jeux vidéo peuvent intervenir à ce niveau, comme toute autre source de connaissance factuelle peut le faire.

En conclusion, les technologies - telles que les jeux vidéo - peuvent être considérées comme ayant un impact sur notre cerveau à trois niveaux. Au sens trivial, la pratique des jeux vidéo et, en général, des écrans et des technologies transforme notre cerveau, nous permettant d'acquérir des compétences nouvelles. Dans un sens moins trivial, ils permettent d'acquérir des connaissances nouvelles qui augmentent notre capacité de comprendre et de penser. Enfin, au sens mythique, on peut dire que les écrans changent notre nature, car cette nature est conçue comme une masse molle et malléable.

Le cerveau et les écrans : une histoire ancienne

Dès la naissance, le bébé humain a la capacité de percevoir le monde. Il est sensible à ses régularités et répond de manière privilégiée au stimulus social par excellence : le visage d'un autre être humain. La passion pour les couleurs, le mouvement, le changement, nous est propre - tout en n'étant pas limitée à notre espèce. Il suffit de s'interroger sur ce qui peut attirer notre attention : qu'est-ce qui nous détourne d'une tâche ? Un bruit imprévu, un flash lumineux, tout événement surprenant. Imaginons que quelque chose bouge dans ces feuillages. En y regardant mieux, on aperçoit des taches noires sur un fond jaune qui se détachent du vert de la scène : est-ce un tigre ? Mieux vaut fuir que rester concentré à cueillir des fruits d'un rouge mûr. Ces capacités ont pu sauver la vie à nos ancêtres qui vivaient dans la forêt, en petits groupes, dépendants de la chasse et de la cueillette pour assurer leur vie. Si nous nous plaçons du point de vue de nos ancêtres chasseurs-cueilleurs - dont le cerveau ressemble bien au nôtre -, certains goûts et préférences apparaissent tout à fait naturels et justifiés.

Notre cerveau porte un intérêt particulier à la réalisation de tâches concrètes, à la poursuite d'un but. En présentant au joueur une ou plusieurs tâches et un but concret sur lequel concentrer les efforts, les jeux vidéo offrent au cerveau un bonbon auquel il peut difficilement résister. Bien sûr, il faut que le but soit atteignable, et atteint, pour que le cerveau l'enregistre en tant que récompense - produisant ainsi de la dopamine - et active le circuit cérébral correspondant. Le circuit de la récompense semble permettre à l'animal non seulement d'éprouver du plaisir, et donc de renforcer son apprentissage, mais aussi de motiver ses nouvelles recherches, par exemple de nourriture. Quand la récompense est certaine, mais son attribution aléatoire - je sais que je trouverai à manger si je continue à chercher dans cette direction, mais je ne sais pas quand -, l'animal cherche de manière continue et soutenue ; tout comme le joueur de machine à sous. C'est en quelque sorte un double bonbon à la dopamine : l'activation se déclenche quand l'animal anticipe sa récompense, puis lorsqu'il l'obtient réellement.

Mais le cerveau est aussi fait, on l'a vu, pour savoir se distraire de sa tâche, pour être attiré par ces spectacles de sons et lumières dont les jeux vidéo sont prodigues. Au bonbon s'ajoute une couche de sucre glace : ces jeux attirent notre attention parce qu'ils nous donnent un but, des problèmes concrets avec lesquels le cerveau se trouve à l'aise, mais aussi des stimuli visuels et sonores que nous sommes faits pour remarquer.

En considérant les jeux simulant des situations complexes, basés sur une narration, on entre dans un autre domaine de la cognition et on découvre un nouveau gâteau pour le cerveau. Dès le plus jeune âge, l'enfant observe le monde comme un tout petit scientifique et cherche à se l'expliquer pour y avoir prise. Il remarque des régularités ou y est naturellement sensible. Ses intuitions se développent ainsi sur les relations qui unissent un objet à un autre, qui relient un événement au suivant. La capacité à percevoir des corrélations causales est particulièrement développée chez l'humain, même trop, pourrait-on dire : nous avons tendance à voir des causes là où il n'y en a guère - comme lorsque la personne à laquelle nous sommes en train de penser nous téléphone ; ou quand un pauvre chat noir nous coupe la route, se rendant ainsi (faussement) coupable de mille accidents. Cette hypertrophie de la causalité explique maintes erreurs de notre raisonnement, où l'absence de réflexion rationnelle nous empêche de différencier corrélation - les deux se donnent ensemble - et causation - l'un cause l'autre. L'hypertrophie de la causalité contribue aussi à nourrir notre passion pour les mystères et les problèmes à résoudre : les jeux vidéo basés sur des quêtes en sont pleins. La science aussi.

Pourquoi donc préférer - c'est une assertion descriptive, non point prescriptive ou normative - les jeux vidéo à la science ? Nous en venons ici à une caractéristique de notre cerveau qui peut surprendre : le cerveau n'est pas fait pour penser. Lorsque nous apprenons à faire du vélo, il est important d'automatiser la tâche pour finalement se concentrer sur la meilleure manière de conduire en ville. Il en est de même pour l'apprentissage de la lecture, en tant que capacité de décrypter graphèmes et phonèmes. Une fois devenue automatique, cette tâche devient terriblement difficile à inhiber - essayez avec le mot "rouge" écrit en vert, le mot "bleu" écrit en rouge, le mot "vert" écrit en jaune : nommez la couleur de l'encre, ne lisez pas. Automatiser permet de faire sans penser. Le travail du scientifique impose un effort gymnastique : il faut sortir de ce qui nous vient facilement à l'esprit, se discipliner et savoir renoncer à son propre point de vue pour se plier aux faits. Il est donc souvent lourd cognitivement.

La fiction, tout au contraire, plie les faits à nos besoins et à nos intérêts : les romans contiennent des pages et des pages de simulations d'autres modes de vie, de situations que nous ne pouvons pas nous permettre de vivre sans prendre des risques. Nous éprouvons des émotions en lisant, nous avons de l'empathie pour les personnages, nous sommes spectateurs participatifs de la manière dont ils entrent en conflit, s'agressent, se font violence, résolvent leurs différends, "comme si c'était vrai", mais c'est faux. L'avantage est double : d'un côté, nous pouvons assister à des simulations de la réalité, et apprendre en lisant - ou regardant, ou jouant - l'effet que cela produit, les stratégies à mettre en place pour réagir, les conséquences possibles des actions ; d'un autre côté, nous savons que cela n'est pas en train d'arriver et nous pouvons nous permettre de ne pas nous laisser emporter par l'émotion, de ne pas fuir le danger ou éviter de prendre le risque. À l'intérêt suscité par des situations naturellement susceptibles d'attirer notre attention s'ajoute la valeur adaptative de la simulation en tant qu'entraînement avec filet. Une partie de notre cerveau réagit comme elle réagirait face à la même situation - nous pleurons pour le destin tragique d'Anna Karénine -, une autre apprécie l'histoire et bloque les réactions qui normalement s'y rattacheraient - nous n'appelons pas à l'aide pour la sauver du train. Dans ce contexte, la présence de violences dans les médias répondrait à un intérêt naturel pour la gestion des conflits ; intérêt qui remonte bien en arrière dans notre histoire, si nous considérons que même les primates ont développé des systèmes pour la résolution des conflits.

Savoir faire la paix est d'autant plus important lorsqu'il faut collaborer avec les autres. Il est donc naturel de s'intéresser aux actes de violence et à leurs conséquences, mais aussi de chercher à les simuler plus qu'à les expérimenter directement. En cela, jeux vidéo, littérature et cinéma activent les mêmes réactions dans notre cerveau.

Pourquoi entend-on tellement parler de dépendance aux jeux vidéo, mais jamais de "librolisme" ou dépendance aux livres ? Le fait est que le livre repose sur une acquisition relativement récente de la culture humaine : l'écriture. Bien qu'elle se fonde sur les bases naturelles de la vision, la lecture n'est pas tout à fait naturelle ; il faut aller à l'école pour apprendre à lire, alors que pour apprendre à voir, il suffit de ne pas être aveuglé. Même une fois automatisée, la lecture reste une tâche éloignée de celles pour lesquelles le cerveau s'est développé, à savoir agir, et donc percevoir. Les jeux vidéo narratifs et les simulations virtuelles répondent à l'intérêt que notre cerveau porte à tout autre type de fictions et de simulations, en l'enrobant de stimuli tout à fait naturels qui se basent sur le cercle de la perception et de l'action. Ainsi, le gâteau est presque complet.

Parmi les jeux vidéo les plus attirants se trouvent ceux qui se jouent en ligne, en groupe, ceux qui permettent dès lors d'échanger des objets virtuels. Ces jeux répondent à ce qui nous distingue le plus de nos cousins les primates, distinction qui ne réside pas dans nos capacités cognitives dites supérieures, mais dans celles des relations sociales - qui ont ensuite créé les conditions et les raisons pour le développement du langage et d'autres capacités cognitives supérieures. Cette capacité d'apprendre par les autres, cette volonté d'enseigner, de concerter nos efforts sur une même tâche partagée et donc de collaborer, d'interpréter les pensées d'autrui par des signes externes du visage ou du corps, par les actions, expressions, empathie, altruisme et partage, le sens de la justice, mais aussi la fidélité au groupe et le conformisme, l'exclusion des autres groupes, sont autant de traits propres à notre nature. Avant sa deuxième année de vie, l'enfant sait collaborer avec l'adulte à une tâche commune, prêtant attention à ses intentions communicatives, imitant le sens et non simplement l'aspect extérieur d'un geste. Il préfère collaborer avec quelqu'un qui a été gentil, qu'avec quelqu'un qui aurait été méchant. Peu de temps après, l'enfant préférera partager des sucreries avec l'expérimentateur ou des inconnus que de les garder pour lui seul. Mais le groupe a ses règles, même chez les adultes : une fois enfilé un maillot bleu, il est beaucoup plus naturel de partager ou de trouver plus intelligents des inconnus qui portent un maillot bleu que des inconnus qui en portent un rouge - comme cela a pu être testé chez l'adulte. Notre cerveau a un penchant pour le conformisme, parce qu'il est bâti pour faire partie d'un groupe de cerveaux. Tout cela est présent dans les jeux en ligne, de Farmville à World of Warcraft. C'est la cerise sur le gâteau.

Du gâteau pour le cerveau

Notre boîte crânienne contient en fait le cerveau d'un chasseur-cueilleur. C'est l'image que nous renvoie la psychologie évolutionniste, qui étudie la cognition humaine du point de vue de son évolution, grâce aux outils intellectuels de la sélection naturelle. Dans un sens, les jeux vidéo nous aident à sortir le chasseur-cueilleur de sa boîte et nous illuminent à propos de ses goûts et besoins. D'un autre côté, partir de cette image nous aide à supposer les fonctions et capacités que nos ancêtres ont pu développer sous la pression de leur environnement, et à mieux comprendre, sur cette base, certaines attitudes que nous avons face aux écrans. Nous avons, inscrit dans notre cerveau, le goût pour le sucre, les protéines et les lipides ; pour nos ancêtres, il était vital de savoir les reconnaître et se les approprier sous forme de nourriture, même si elle était souvent difficile à attraper. Aujourd'hui, nous avons le supermarché au coin de la rue qui aligne gâteaux sur gâteaux. Le monde a changé, le cerveau est pourtant resté le même. Cela nous renseigne finalement sur notre tendance à abuser des gâteaux...

Une approche cognitiviste et évolutionniste aide à comprendre en partie l'attrait pour les jeux vidéo : une somme de stimuli basés sur le cercle de la perception et de l'action qui attirent naturellement l'attention, des buts concrets et des problèmes à résoudre qui mènent à la récompense lors du succès, des simulations de la réalité matérielle et sociale, et la possibilité de s'engager dans des situations d'échange, de collaboration, de communication, dans un sentiment de conformité et d'appartenance au groupe. L'intérêt de cette approche est de permettre d'aller au-delà du dualisme de la panique et des enthousiasmes faciles, des atouts et des risques des jeux vidéo. Un jeu vidéo est une recette à plusieurs ingrédients, chacun capable de déclencher une réaction différente dans le cerveau. Mieux connaître ces ingrédients et comprendre leurs effets est indispensable afin d'envisager comment en tirer parti pour autre chose, au-delà de ce pour quoi ces jeux ont été conçus - déclencher des réactions dans notre cerveau et nous pousser à jouer -, par exemple pour leur prêter des objectifs pédagogiques.

Mais il ne faut pas oublier que presque chaque jeu vidéo est aussi une recette différente, et que notre cerveau ne se laisse pas toujours faire. The cake is a lie.

Références

  • British Library & University College London Information behavior of the researcher of the future, 2007.
  • PINKER S., Comprendre la nature humaine, Odile Jacob, Paris, 2005.
  • PINKER S., Comment fonctionne l'esprit humain, Odile Jacob, Paris, 2000.
Argos, n°50, page 32 (12/2012)
Argos - Les jeux vidéo : du gâteau pour le cerveau