L'HUMAIN COMME UN ORDINATEUR
- 1) M. Jean-François Richard : Article "Intelligence" de l'Encyclopedia Universalis
- 2) M. Alain Lieury: :"Méthodes pour la mémoire"( Edition Dunod 1996)
a) Chapitre "La Répétition" ( p.85 )
b) Chapitre "La Mémoire Sémantique" p 154 - 158A. Mémoire et intelligence artificielle
B. Qu'est-ce que comprendre?
A déjà été effleurée dans "Calcul humain, calcul mental et calculettes :Questions pédagogiques" l'influence de la "philosophie cybernétique" à la fois sur les SDE et sur les "sciences cognitives", il est temps de donner quelques exemples de fond ( il ne s'agit donc pas d'une étude même semi exhaustive ) de l'interpénétration profonde qui existe entre l'informatique, les sciences cognitives, la psychologie scientifique et, à un moindre degré ……….. l'idéologie mercantile.
Comme introduction à ce chapitre, il est assez intéressant
de citer celui dont l'inflation verbale est proportionnelle à la
frénésie spéculative qu'il inspire .
Bill Gates déclarait dans une interview exclusive(!!) à
"Ca m'intéresse":
"Nous travaillons sur une nouvelle théorie du calcul qui
nous permettrait de mettre le monde en équations".( c'est une
équipe de médaille Fields qui y travaille!!!)
1) A tout seigneur tout honneur: "L'Encyclopédia Universalis"
Article "Intelligence" de l'Encyclopédia Universalis par Jean-François RICHARD , Professeur de Psychologie à Paris VIII et auteur reconnu d'un traité de Psychologie en 3 tomes.
L'auteur décrit, sans tordre le nez , à coté des
anciennes approches de compréhension de l'intelligence humaine (
l'approche psychosomatique et l'approche piagétienne - 4
-), la problématique du "traitement de l'information" et il précise
sans honte :
"L'approche du traitement de l'information consiste à voir
dans les conduites intelligentes des opérations de traitement d'information
et à rechercher, pour une tâche donnée, un ensemble
d'opérations de traitement qui simulent le comportement des sujets
dans cette tâche. Généralement, on cherche à
définir un équivalent de ces opérations à partir
des manipulations d'informations que fait un ordinateur. Cela permet de
construire un programme qui réalise une simulation sur un ordinateur;
et l'on peut comparer les productions du programme avec le comportement
des sujets que l'on a observés. Si les sorties du programme sont
suffisamment proches des actions des sujets, on considère que les
mécanismes de traitement introduits dans le programme constituent
un modèle plausible des mécanismes de traitement de l'individu.
Cette approche conduit à une analyse beaucoup plus poussée
des opérations cognitives que dans la psychométrie ou la
perspective piagétienne ……… Actuellement, l'analyse des tests et
l'étude du développement de l'intelligence sont reprises
dans la perspective du traitement de l'information"
Cet article n'a pas provoqué de tollé général
– il n'a d'ailleurs pas été modifié par l'auteur,
qui est lui-même une référence, entre les deux dernières
éditions de l'E.U.- et il précise pourtant bien que la psychologie
scientifique limite sa compréhension des mécanismes humains
à ce qui est simulable par une "machine computante" et réductible
à un logiciel. Il est bien évident qu'une telle méthodologie
interdit de comprendre dans l'intelligence humaine ce qui n'est pas conforme
à "l'intelligence informatique" : inversement , les SDE , basées
globalement sur "les science cognitives" vont spontanément penser
l'être humain comme une "machine computante" et introduire et justifier
le passage des capacités intellectuelles dans les diverses machines
et réduire ainsi l'apprentissage au " donner du sens", le sens du
mot sens étant réduit à ce qui est informatisable.
Ceci est en soi une vision réductrice car il n'est pas possible
de donner du sens sans apprentissage mécanique, sans mémorisation
répétitive, et sans pratique des opérations : or les
critères donnés ici sont justement ceux que ne peut pas simuler
l'ordinateur .
Lorsqu'il sait faire une opération, l'ordinateur sait faire
toutes les opérations de la même classe, et n'a donc pas besoin
de répétitions graduées car l'ordinateur sait faire
la division de 456234 par 5172 s'il sait faire celle de 48 par 7- ce qui
n'est pas le cas des élèves réels, c'est à
dire non simulés -; de la même manière, sa mémorisation
est immédiate. Au contraire, la tentative de réaliser l'apprentissage
humain hors des conditions qui le permettent met l'élève
en permanence en difficulté sans lui permettre, justement, de "donner
du sens". Mais la vision "informatique / cybernétique" réduit
en elle-même le sens à une abstraction en le séparant
des modes d'apprentissages de ce sens - qui font intervenir des mécanismes
physiques et sociaux que l'ordinateur est bien incapable de simuler- et
en le réduisant à la seule chose que l'ordinateur sait faire
au mieux : gérer une collection plus ou moins organisée de
"signifiants" mais sans en arriver à une compréhension très
fine : il suffit de voir les exploits des logiciels de traduction, car
justement le passage d'une langue à l'autre suppose le "sens", c'est
à dire la compréhension de ce qui est dit, ce dont le computer
est bien évidemment incapable; et en n'oubliant pas, degré
supérieur, que la compréhension de ce qui est dit suppose
elle-même la compréhension de ce qui est caché par
ce qui est dit et qui peut être révélé par ce
qui est fait: en ce cas l'ordinateur est bien évidemment hors-couse
et ce ne sont pas les robots fonctionnaires drogués aux SDE qui
pourront expliquer que , lorsque les directives officielles demandent de
"donner du sens", elles proposent en fait une pratique qui l'interdit.
Mais tout le monde n'y perds pas puisque l'expérimentation même
des méthodes des SDE produit des difficultés scolaires qui
permettent à ces mêmes SDE de s'appliquer à nouveau
au nom des "dernières découvertes de la science". MicroSoft
produit des bugs dans la version x de Windows qui garantissent l'adoption
de la version x+1 qui a supprimé 20 000 bugs pour en créer
40 000 nouveaux : nous sommes proches de l'idéal commercial.
Une dernière remarque : les ordinateurs ne révisent pas
puisqu'ils n'en ont pas besoin. La notion de révision systématique
( qui avait succédé dans un certain sens aux "programmes
concentriques"et de périodes scolaires consacrées à
cette activité) a disparu des progressions: les élèves
ne révisent plus mais "réinvestissent leurs connaissances".
Ce petit "plus" ajouté formellement est censé signifier que
l'on ne répète plus bêtement, que l'on est toujours
en progrès ( comme les actions d'une entreprise qui réussit)
ce qui est logique puisqu'il s'agit d'investissement.C'est ce que l'on
appelle de la spéculation pédagogique : attention au krach,
c'est à dire à la rectification boursière.
|
|
|
|
|
|
|
|
|
2) M. Alain Lieury : "Méthodes pour la mémoire"( Edition Dunod 1996)
M. Alain Lieury est aussi un des auteurs de l'article de l'E.U. sur la mémoire.On pourrait reprocher aux articles de l'E.U. de ne pas être le dernier cri de la recherche en psychologie, ce ne peut être le cas du livre d'Alain Lieury dont nous tirons les extraits suivants:
a) Chapitre "La Répétition" ( p.85 )
"Une évidence à ne jamais oublier est que la mémoire est basée sur un fonctionnement biologique
[ Cette affirmation pose d'entrée un grand nombre de problèmes
a) Affirmer que "la mémoire est basée sur un fonctionnement biologique" est extrêmement réducteur en tant qu'évidence fondamentale: on pourrait dire avec plus de justesse que la mémoire est basée sur un fonctionnement social car toute activité humaine est sociale car l'être humain est justement un être social.
b) Lorsque l'on n'admets pas, comme fait fondamental, que l'être
humain est un être social, on en arrive toujours à construire
un modèle de l'être humain basé sur un modèle
biologique ou sur un modèle mécanique auquel on réduit
la compréhension de l'histoire humaine. Ceci n'est pas très
nouveau, le modèle mécanique a eu son heure de gloire avec
La Mettrie ( 6 ) mais se poursuit aujourd'hui avec
la modélisation de l'activité humaine basée sur le
mécanisme à la mode, c'est à dire l'ordinateur. D'un
autre coté, la réduction de l'activité humaine se
poursuit également en prenant un modèle biologique avec des
auteurs du type JP Changeux qui réduit l'homme à un "paquet
de neurones" ( Cf. François Lurçat 5
) . Et les modèles basés sur les "réseaux neuronaux"
ont le double avantage ( ? ) de réduire simultanément l'activité
humaine à un modèle biologique et mécaniste / informatique,
celui-ci permettant à son tour, comme le modèle induit la
notion de réseaux, de parler de la "mise en réseau" de la
connaissance, de vendre des ordinateurs en réseau, etc... Tout ceci
n'a bien sûr aucun sens et ne permets même pas de penser l'utilité
réelle des réseaux informatiques qui tient au caractère
social de l'activité humaine: or le caractère social de l'activité
humaine ne vient pas de ses réseaux de neurones car tous les êtres
vivants qui ont des réseaux de neurones n'ont pas justement une
activité sociale.
c) Il n'est pas possible, dans le cadre de ce texte, d'explorer même seulement les grands traits des aberrations auxquelles conduisent ce type de réduction. La réduction au mécanisme informatique sera démontée sous quelques aspects. Pour la réduction biologique, on peut prendre un exemple qui a l'avantage d'être déjà connu. On sait que le mécanisme de la vision humaine n'est pas un mécanisme continu mais se produit au rythme d'environ 20 images par secondes: peut-on déduire de ce fait biologique tout à fait avéré que la vision humaine n'est pas continue. Non et c'est justement tout le problème du placage du fonctionnement humain sur un processus biologique qui ne permet de ne rien déduire : la vision humaine est continue dans tous les cas mais on peut observer des phénomènes particuliers dans le cas de rapports arithmétique spécifiques entre la fréquence photographique de l'oeil et la fréquence soit de l'éclairage soit du phénomène périodique observé ( tout le monde a pu observé cela dans la les boites de nuit éclairés par des stroboscopes ou lorsque les diligences des Far-West ont des roues qui se mettent à tourner à l'envers). On peut objecter à mon exemple qu'il n'analyse qu'un aspect particulier du fonctionnement même strictement biologique de la vision: mais lorsque certains biologistes - fussent-ils Prix Nobel - tirent des propriétés des neurones des conclusions portant sur la pensée humaine en général , peuvent-ils affirmer qu'ils ont compris l'ensemble des processus biologiques correspondants - auxquels ne se réduit pas, de touts façons, cette pensée humaine -?. Or, dans le débat qui nous intéresse - la conception "scientifique" de l'intelligence et son "application" à la pédagogie -, le bon sens interdit de donner des recommandations mêmes partielles tirées d'observations tout aussi partielles sur une activité qui est une activité totale.
d) Dans tout le livre de M. Lieury, il n'est jamais question justement
du caractère social de la mémoire: si l'on s'en réfère
non pas au dernier cri de la recherche mais tout simplement au Que-Sais
Je? de J-C. Filloux "La mémoire" paru en 1962, celui-ci écrivait,
en citant des auteurs encore moins modernes:
" Le rôle de la société
. — Dans une étude (1), Elkine rapporte plusieurs expériences
faites sur les écoliers d'une même classe, et sur des écoliers
travaillant dans leur famille, il en résulterait que la mémoire
dans le groupe, est supérieure en facilité, ponctualité,
conservation. L'émulation, la suggestibilité et la contagion
psychique favoriseraient donc grandement le travail de mémorisation.
Ceci confirmerait les thèmes sociologiques que nous connaissons déjà, à savoir que l'homme a une mémoire parce qu'il est un être social ; et il faudrait rapprocher ces expériences du point de vue de Pierre Janet dans son livre sur L'évolution de la mémoire et la notion du temps. A ses yeux, le comportement de souvenir a son origine dans la « conduite du récit » , fait social par excellence. « Si l'homme, dit-il, fixe ses souvenirs, c'est pour faire le récit de ce qu'il a vu à ses semblables. » (2).
(1) De l'influence du groupe sur les fonctions de la mémoire
(Journal de Psychologie, 1924)
(2) Cf. dans cet ordre d'idées les études de Bartlett
sur les effets de l'auditoire sur la mémoration et la remémoration
in Remembering: a Study in Experimenal and Social Psychology. En particulier,
le « récit » dépend de la nature de l'auditoire
et des relations entre le narrateur et cet auditoire il est plus ou moins
élaboré, arrangé, etc. Ces études sont abondamment
citées dans Woodworth ( Psychologie expérimentale, t. T,
chap. III.)"]
dont
[ le "dont" traduit justement le fait que la compréhension de la répétition est liée à sa base biologique]
la répétition est le mécanisme fondamental.
Quelles que soient les méthodes ou stratégies utilisées
pour aider ou perfectionner, il faut répéter pour l'acquisition
parfaite, puis répéter de temps en temps (révision)
pour ne pas oublier.
La répétition paraît si simple que de nombreux
pédagogues ou formateurs la négligent ou même la déconseillent
après qu'elle ait été une base de l'enseignement (poèmes,
tables, départements...)
[ Donc l'auteur reconnaît que "scientifiquement", la répétition est fondamentale, que la tradition pédagogique l'avait toujours reconnu - nous ajouterons: sans attendre les "dernières découvertes de la science"- ; mais brutalement apparaît une coupure historique toute aussi fondamentale puisque "de nombreux pédagogues" - remarquez la précision du terme alors que le rejet des "automathismes" est le fait de tendances organisées, notamment à l'intérieur de l'organisme même, l'Éducation Nationale, dont M. Lieury est membre en tant que fonctionnaire- la déconseillent car "elle est trop simple": Stella Baruk, créatrice du concept "automathisme" n'a jamais dit qu'elle trouvait l'apprentissage par coeur "trop simple". M. Lieury seul le dit. Explication un peu courte lorsque l'on lit le livre de M. Lieury, qui a des connaissances historiques, mais ne les utilise plus lorsque l'on arrive à la période actuelle. Mais voyons la suite].
L'apprentissage “ par coeur ” est maintenant vu comme stupide et inutile. Cette idée repose sur l'observation que la répétition pouvait se dérouler sans compréhension (mémoire sémantique ).
[ Personne n'a jamais "observé" cela ; la formulation même de la phrase qui caractérise une "observation" par la caractéristique que " ça pouvait" n'a également aucun sens si ce n'est de noyer le poisson en tentant de faire oublier l'implication des sciences cognitives - y compris la "psychologie scientifique"- dans le fait que de "nombreux pédagogues et formateurs négligent la mémoire" . En effet, il est difficile d'appeler "observation" une activité qui aurait pu justement observé le contraire: la question réelle, à laquelle Alain Lieury ne réponds pas, si ce n'est par des pirouettes, est de savoir non seulement pourquoi "de nombreux pédagogues déconseillent la répétition", mais surtout pourquoi ce type de thèses est dominant. Or, c'est justement la réponse à cette question dont ont besoin les pédagogues " qui ne déconseillent pas la répétition" et qui sont contrés par leurs hiérarchie qui les traitent d'obsolètes et de réactionnaires. Ces pédagogues auraient-ils le tort d'avoir eu raison avant M. Lieury, en ne s'appuyant pas sur les dernières avancées scientifiques?]
En fait
[ Si l'on avait véritablement "observé", le mot de liaison ne serait pas "en fait", ce qui revient à dire que l'on n'a pas "observé" ]
les deux processus sont indépendants
[ Non, sauf cas pathologique, ils sont liés ]
et sont tous deux nécessaires l'apprentissage par cœur concerne la mémoire lexicale tandis que la compréhension concerne la mémoire sémantique. Dans tous les cas, la répétition est nécessaire."( Fin de la citation)
Si la "mémoire lexicale " est absolument séparée - je ne dis pas dans sa location corporelle, ce qui de toutes façons, reste à prouver, - de "la mémoire sémantique", il faudrait pouvoir exhiber des cas non pathologiques d'êtres humains
1) capables de comprendre et d'utiliser l'ensemble des connaissances
humaines sans utiliser de mots ( le mot "ensemble" est utilisé là
pour contrer la validité générale de conclusions tirées
d'expériences partielles ou, par exemple, l'on mesure la vitesse
de réaction du sujet pour tester sa compréhension)
2) capables de mémoriser sans rien comprendre: j'attends.
En fait, dans la suite de ce chapitre M. Lieury donne plutôt raison aux positions défendues dans ce texte mais d'un point de vue qui est celui de la "dernière découverte scientifique " qui permettrait de guider la pédagogie. Or, si l'on en juge par la suite des positions de M. Lieury, - que nous verrons ci dessous -, je préfère me passer de son soutien - au nom de la "science" - car si les prochaines découvertes scientifiques sont de la même eau que celles qui sont présentées, la pédagogie risque d'en prendre un sale coup supplémentaire. Il me semble toujours plus riche de consulter la richesse des anciennes pédagogies - que les dernières découvertes scientifiques ont mis à mal dans les 50 dernières années - : les SDE et la psychologie scientifique commenceront à présenter un intérêt quand elles seront capables de prouver pourquoi les anciennes pédagogies étaient efficientes et qu'elles démontreront leurs propres faiblesses au lieu d'affirmer que "certains ont pensé que" .
b) Chapitre "La Mémoire Sémantique" p 154 - 158
A. Mémoire et intelligence artificielle
" Dans les années 70, une découverte fondamentale va modifier en profondeur notre conception de la mémoire. Un informaticien, Ross Quillian se préoccupait de problèmes de traduction par ordinateur, domaine que l'on appelle maintenant " Intelligence artificielle " (1969). Une solution rapide
[ On apprend plusieurs choses :
1) l'origine de "l'intelligence artificielle " est "la traduction par ordinateur" : or
a) il est important de connaître le but visé pour comprendre l'activité
b) l'étiquette "intelligence" est beaucoup plus alléchante que l'étiquette "traduction". Si l'on résume l'histoire de la traduction automatique - Bar Hillel était déjà très pessimiste sur ses chances de réussite AVANT 1970, la référence en français la plus accessible étant : "La traduction automatique, 50 ans après"-, on peut admettre qu'il faut comprendre pour traduire. Comme l'ordinateur n'est pas capable de "comprendre" - sauf dans des domaines limités : les "systèmes experts", l'intelligence de ces systémes étant à l'intelligence ce que les experts humains sont à la compréhension des situations humaines -, la traduction automatique et l'intelligence artificielle se sont développées sur la base de la non-compréhension. Ceci a produit à son tour la théorisation de l'action basée sur la non-compréhension ( Voir les théories de la complexité)
c) On va voir que la rapidité est un facteur constant dans ce texte, ainsi que la simplicité:ceci est déjà un problème en soi car "Faire simple et rapide" est un impératif qui vise les résultats immédiats, et, pour tout dire, il s'agit d'un impératif de rentabilité. Hors de ce domaine, si l'on essaie de faire simple et rapide, on arrive rapidement au contraire de l'objectif fixé - à part si le critère de fond est l'obtention d'un résultat rapide!- , et cela vaut notamment pour la compréhension d'un problème, dans lequel la profondeur de la compréhension est rarement proportionnelle à la rapidité réactive ]
aurait été de lister, comme dans un dictionnaire, les mots d'une langue et leur traduction. Mais, bien vite, Quillian s'aperçut que ce n'était pas si simple. En effet, un même mot a souvent des sens différents selon ses contextes.
[ Subtil, ce Quillian car il construit son savoir comme une vraie victime des constructivistes, mais un peu inculte plus d'un demi-siècle après Ferdinand de Saussure]
Le mot feuille a un sens différent dans l'expression feuille
de papier ou feuille d'automne, le mot barrage a un sens différent
en géographie (barrage hydro-électrique) que le sens commun
(barrer la route), etc. Ross Quillian résolut ce premier problème
en édifiant un principe, la séparation de l'aspect morphologique
du mot, le lexical (du grec lego = dire, lire), de sa signification, la
sémantique du (du grec semio = signe). Il a donc stocké dans
l'ordinateur un lexique de mots, mais chaque mot est relié à
une autre mémoire qui contient les sens, la mémoire sémantique
(figure 16).
Comment représenter cette chose abstraite qu'est le sens
:
[ Attention, lorsque les pédagogues modernistes veulent "donner du sens"au nom des SDE, dans le meilleur des cas, voilà le sens du mot "sens" : on comprend dés lors pourquoi,ils n'ont rien contre l'informatique d'une part et d'autre part pourquoi pour eux le sens de l'opération est indépendant de la pratique de l'opération - ou que le sens du texte est indépendant de la lecture elle-même appelée déchiffrage. L'ordinateur n'a pas d'expérience et n'agit pas]
Quillian pensa que le sens était donné par deux caractéristiques. Tout d'abord, le sens d'un mot
[ Extrêmement important : il s'agit du sens d'un mot et il ne s'agit pas du sens d'un texte ou d'une action: or le but de ce type de recherche est, depuis qu'elles existent, est de mettre en place des logiciels de traduction automatique. La preuve pratique de la faiblesse de ces théories est le résultat auquel arrivent les les logiciels en question quand ils restent dans le domaine réduit qu'ils visent , résultat qui s'apparente justement au mot à mot, c'est à dire que le sens d'un texte est le sens obtenu par la juxtaposition des sens des mots de ce texte. Donc, si les thèses en question ne sont pas capables d'obtenir des résultats probants dans un domaine réduit, il vaudrait mieux s'abstenir de les appliquer à un domaine aussi large que la pédagogie ou l'on ne traite pas du sens d'un mot mais de celui d'une activité humaine; d'autre part, rien ne prouve que le sens d'un texte soit la juxtaposition du sens des mots qui le composent]
est donné par son appartenance catégorielle : comprendre ce qu'est un canari, c'est d'abord [ souligné par moi : d'abord ] savoir que c'est un oiseau, comprendre ce qu'est une tulipe, c'est savoir que c'est une fleur. La deuxième caractéristique de la compréhension d'un mot, c'est de décrire ses propriétés spécifiques.
[ Cette conception est une conception statique de la connaissance, ou toute la connaissance est déjà intégrée et étiquetée pour rentrer dans des cases préétablies - la pensée d'apothicaire ou l'armoire de la pharmacopée chinoise - : or,
1) la connaissance est en perpétuel mouvement : il serait intéressant d'appliquer ce genre d'idées au concept d'ornithorynque dont la découverte à posé de considérables problèmes au classement figé qui opposait les oiseaux et les mammifères. Cette bébête est elle un mammifère avec bec, dans une hiérarchie de " directories "où les mammifères n'ont pas de bec ou un oiseau avec des mamelles dans la hiérarchie de directories ou les oiseaux n'ont pas de mamelles? Que va dire Scandisk lorsqu'il va scanner la directory "Ornithorynque" ? Référence de fichiers croisés?. La réponse est entièrement hors de portée de la pensée de Quillian : pour savoir ce qu'est un ornithotinque, l'important n'est pas de savoir dans quelle hiérarchie le classer, c'est d'étudier la bestiole, sa reproduction, son mode de vie, etc.. On a là simultanément la limite des systémes-experts et de leur modèle humain qui interviennent à la télé pour débiter des connaissances partielles.
2) si l'on revient à la pédagogie, la difficulté
n'est pas de faire entrer une nouveauté pour l'élève
qui a déjà une connaissance structurée dans le domaine
concernant cette nouveauté mais la construction de cet ensemble
structuré. Je m'explique en reprenant l'exemple du canari. Les maths
modernes avaient résolu la question à la Quillian: on apprend
d'abord ce qu'est un oiseau ( la structure de base) et on rajoute les qualités
particulières du canari données comme exemple ( on définit
d'abord le quadrilatère et on en déduit le carré qui
est un quadrilatère particulier). C'est fini : le tour est joué.La
difficulté réelle est de faire émerger la notion d'oiseau,
comme résultat et pas "d'abord"- à partir d'un ensemble de
"connaissances " - je mets des guillemets car cet ensemble n'est pas purement
intellectuel-: cette difficulté s'apparente plus au classement de
l'ornithorynque dans une catégorie qui n'existait pas et est du
domaine dynamique de la connaissance. Le modèle ne peut pas en être
le modèle produit par Quillian mais, au mieux ou au pire, Quillian
lui même. Or il n'existe pas de simulation informatique - et il n'en
existera jamais - de la création d'outils et encore moins d'outils
de pensée car ceux-ci sont inséparables de l'activité
physique et sociale humaine ]
Chaque concept des mots contient donc en mémoire sémantique une liste de propriétés sémantiques, les traits sémantiques (que d'autres chercheurs appellent attributs, propriétés, etc.). Ainsi, classer le mot " feuille " dans le concept d'arbre permet de trouver sa signification pour sa traduction.
[ Je le disais bien : l'objectif, c'est la traduction. Si le but est,
en plus, de rentabiliser les connaissances pour produire des logiciels
, il serait plus simple de produire un logiciel de traduction de factures,
ce qui est tout à fait faisable sans faire des phrases pompeuses
sur la nature de la compréhension humaine, et qui peut très
bien se vendre.
Une remarque plus théorique sur le fait que "le sens est stocké
une fois pour toutes" et que le "sens est d'abord la référence
à une hiérarchie supérieure": nous sommes sur la fin
de vie du structuralisme en la personne des "universaux de langage" qui
auraient bien facilité la traduction s'ils avaient existés
car ils auraient permis de loger le sens hors de la gangue d'une langue
et de traduire ce sens dans les mots des différentes langues. Ceci
est envisageable dans une vision formelle des mathématiques comme
un "langage" ou le "sens du nombre" peut être séparé
de l'écriture dans les différentes bases, mais l'on arrive
très vite aux limites de l'arithmétique formelle et, si l'on
passe à la version informatisée, le sens est toujours logé
en dernière analyse en base 2, déterminé par le fonctionnement
physique de l'ordinateur]
Un peu plus tard, Ross Quillian se préoccupa de savoir si
son modèle correspondait à la véritable structure
de notre mémoire et il s'associa à Allan Colins, psychologue,
pour essayer de valider sur le plan psychologique son premier modèle.
Ce fut le départ d'un grand domaine de recherche commun à
la psychologie sous le nom de " mémoire sémantique " et à
l'informatique, dans le domaine de l' intelligence artificielle En effet,
l'intelligence artificielle a stimulé un grand champ de recherche
pour mettre en mémoire les connaissances humaines, les systèmes
experts dans un système expert, on souhaite stocker toutes les connaissances
d'un domaine spécialisé, par exemple, la médecine,
la géologie, la chimie, de façon à pouvoir interroger
ce système. Une meilleure appellation de ce domaine aurait été
" mémoire artificielle " si ce mot n'avait pas eu un autre " sens
" depuis l'Antiquité. Les deux domaines, avec les informaticiens
et les psychologues, se sont mutuellement stimulés et le duo Collins
et Quillian est un très bon exemple de cet interdisciplinarité.
[ Une jolie saga moderne : Habitent-ils dans la Silicon Valley? C'est
le dernier trait distinctif du succès lorsque l'on pratique déjà
"l'interdisciplinarité" ]
La théorie de Collins et Quillian (1969, 1970, etc.) repose donc sur trois grands principes (fig. 16).
Séparation lexique / mémoire sémantique
La mémoire sémantique n'est que conceptuelle, elle ne stocke que la signification, le sens des mots ; la morphologie des mots est stockée dans une autre mémoire, la mémoire lexicale. Ce principe permet une grande économie
[ Ca me fait une belle jambe: rien ne prouve que l'être humain fonctionne par "économie", à part le truisme libéral qui affirme "que l'on est soumis à l'économie" et qui soumet effectivement toutes les activités humaines à un critère de rentabilité ]
en traduction informatique
[ Ce n'est pas vraiment étonnant vu les remarquables résultats de cette "science " qui va se permettre de construire un modèle que nous devons appliquer en pédagogie]
car la signification d'un concept est stockée une fois pour toutes
[ Ca , c'est une différence avec la langue humaine
1) qui, en tant que langue humaine, ne stocke pas le sens une fois pour toutes puisque la langue évolue
2) qui évolue également en tant que langue parlé par un individu: l'apprentissage de la langue chez un individu particulier fait évoluer le stockage - et nous sommes d'autant plus dans cette situation dans les situations pédagogiques justement: or l'ordinateur n'a pas d'histoire]
et il suffit d'ajouter des lexiques pour chaque langue ; c'est sans doute le cas dans le bilinguisme humain.
[ Soyons précis: partant de la distinction réelle qui existe entre le sens et le signe- mais ça on le savait depuis l'existence des synonymes- la cybernétique les sépare puisqu'elle les stocke dans des espaces séparés – et là, rien ne prouve que l'être humain fonctionne de la même manière- ce qui permet à contrario de penser le sens hors du mot, c'est-à-dire qu'il peut exister une pensée quasiment divine qui existerait sans support matériel: "Au commencement était le Verbe?". Que les bilingues qui fonctionnent comme ça se lèvent! Ce ne sont pas les traducteurs multilingues qui travaillent dans les organismes internationaux! Outre le fait que les vrais bilingues -ceux qui ne traduisent pas mais sont les meilleurs traducteurs- affirment qu'ils pensent dans une langue, prenons un exemple ou le sens du mot dépend de la formation sociale - et donc de son histoire - , domaine dans lequel l'ordinateur ne peut pas simuler. le mot révolution vise en France un phénomène politique ( avec en mémoire 1789 ou 1793) tandis qu'il vise en Angleterre la révolution industrielle du XIXème siècle un sens. Ou va être le sens du mot révolution? ]
De nombreux résultats confirment qu'il en est ainsi dans notre mémoire. Le phénomène du "mot sur le bout de la langue" en est un très bon exemple nous cherchons un mot (mémoire lexicale) alors que nous pouvons décrire ce mot (le sens).
[Judicieuse remarque qui prouve que, dans le cas cité, la réalité décrite par le mot manquant est présente tandis que le mot est absent. Mais cela ne prouve en aucune manière
1) la justification de l"l'économie cognitive"
2) que "la signification d'un concept est stockée une fois pour toutes et qu'il suffit d'ajouter des lexiques pour chaque langue"]
Cette difficulté est permanente chez certains cas neurologiques
où le malade ne peut dire les mots des objets tout en étant
capable de les décrire, c'est l'aphasie nominale.
Comprendre n'est donc pas à opposer à apprendre,
[ OK, les SDE , les GTD et autres commissions "responsables" devraient faire un petit effort pour comprendre au moins ça, ce qui n'est pas opposé aux "algorithmes" , ne nécessite aucune intelligence humaine et doit donc être à leur portée]
car il faut bien un stockage de certains mécanismes pour comprendre. La compréhension n'est donc qu'un autre aspect de la mémoire, c'est le fonctionnement de la mémoire sémantique.
[ Attention : OK si l'on ne part pas de la perspective informatique
ou le stockage est plus facile à comprendre que la "compréhension",
surtout si le stockage est statique . Si l'on part de l'activité
humaine qui est dynamique, il est beaucoup plus vrai de dire que la mémoire
est un aspect de la compréhension]
Sur le plan neurologique, le lexical est programmé dans l'hémisphère
gauche (Lieury, 1990) tandis que le sémantique est largement représenté
dans les deux hémisphères. L'hémisphère droit
en particulier " comprendrait " essentiellement en terme de catégories
et il est probable que d'autres parties du cerveau " comprennent " en rattachant
le mot à l'image de l'objet (cas des mots concrets chien, bateau...).
La hiérarchie catégorielle: les arborescences de la connaissance
Les concepts de la mémoire sémantique sont classés de façon hiérarchique, les catégories étant emboîtées dans les catégories plus larges comme dans une arborescence Canari dans Oiseau, Oiseau dans Animal. Comprendre (= mémoire sémantique), c'est d'abord classer.
[C'est fondamental : comprendre, c'est classer! Etymologiquement déjà,
comprendre, c'est "mettre ensemble" tandis que classer, c'est séparer.
Une compréhension médiévale de la compréhension
qui s'accorde par contre très bien avec la dichotomie -séparation-
introduite par le structuralisme entre synchronie et diachronie. L'axe
synchronique interdit toute conception dynamique car la réalité
n'existe que dans son mouvement tandis que l'axe diachronique sépare
les phénomènes qui sont considérés comme autonomes;
le modèle réduit la réalité à un damier
de phénomènes dont on ne perçoit plus ni la dynamique
temporelle ni la dynamique structurelle, la compréhension de ces
deux dynamiques étant inséparables à moins de réduire
son étude
- à des objets qui n'évoluent pas, et, à part
Dieu qui est immortel...
- à des objets qui sont indépendants de toute autre réalité,
et, à part Dieu qui est le créateur ....]
La mémoire sémantique est donc représentée comme une arborescence avec des noeuds ou embranchements (les deux termes proviennent de l'analogie de l'arbre comme chez Pierre de la Ramée à l'époque de la Renaissance). A chaque noeud débutent des nouvelles catégories (en informatique, on parle de directories) .
[ Ce n'est pas moi qui assimile la mémoire humaine à la
mémoire informatique]
Économie cognitive et inférence
Le troisième principe de la théorie de Collins et Quillian
est un principe d'économie [Libérale? Mercantile ? De
bouts de ficelle?], . Outre la catégorie, le sens d'un concept
est donné par une liste de traits sémantiques. Par exemple,
pour tous les oiseaux, il faudrait affecter à la liste de traits
de chaque oiseau toutes les propriétés des oiseaux qu'il
vole, qu'il a des ailes, des plumes, un bec, etc. Pour l'informaticien
qui saisit dans l'ordinateur des listes pour un système-expert,
il serait pénible
[ Que peut-on inférer de ce que quelque chose serait "pénible" pour l'informaticien pour le fonctionnement de l'esprit humain: très souvent c'est l'informaticien qui est pénible, tout autant d'ailleurs que l'expert ou le sytème du même nom]
de faire ce même travail pour tous les oiseaux, le merle, le pigeon, le canari, le moineau, la mésange... De sorte que
[ Voyez le mot de liaison : "De sorte que". Cela signifie-t-il que la manière dont est défini "le sens du concept" est déterminé pour qu'il soit facile à saisir par un informaticien? Sans aller jusque là, il est très clair la conception du sens présentée ici est déterminée par le fait qu'il doit se limiter
- à ce qui est informatisable ce qui est bien le but recherché
- à une représentation informatique comme représentation du sens]
Collins et Quillian ont fait l'hypothèse que seuls les traits spécifiques étaient attachés à chaque concept
[ C'est bien , c'est "économique"- et c'est possible -mais qu'ils ne viennent pas nous emmerder].
Par exemple, pour canari, seules les propriétés qui lui sont spéciales sont données, qu'il est jaune, petit et qu'il chante. Les autres propriétés, à savoir qu'il a des ailes et un bec, sont déduites, inférées, du fait de son emboîtement dans la catégorie "oiseau " un canari est un oiseau donc il a des ailes (fig. 16). C'est le principe d'économie cognitive.
[A part que c'est un truisme, c'est à dire que l'on ne peut pas déduire le fait que les canaris sont jaunes du fait que les oiseux sont jaunes parce que, justement, ils ne le sont pas, on reconnaît aussi les bases des langages de programmation-objet : ça marche très bien sur les langages de programmation, ceux qui parlent au microprocesseur; ca va beaucoup moins bien pour les langues, celles qui servent aux êtres humains pour se comprendre et travailler ensemble]
Le mécanisme qui en découle est l'inférence (c'est le syllogisme d'Aristote, ou la logique de Descartes). Comprendre,
[ Comprendre, c'est agir. Ca va? Ca n'allait pas non plus très bien avec Descartes qui n'est pas à proprement parler un philosophe de l'action]
c'est donc à la fois récupérer des informations dans la mémoire sémantique (catégorie et traits) mais c'est aussi faire des inférences en " sautant " à divers noeuds. Les chercheurs de l'intelligence artificielle (Newell et Simon...) ont proposé une distinction très intéressante, la distinction entre une mémoire déclarative et une mémoire procédurale. La mémoire déclarative regroupe tous les " faits " directement stockés, par exemple " un canari est un oiseau ", " un oiseau a des plumes " tandis que la mémoire procédurale correspond à toutes les inférences qui peuvent être déduites, par exemple " un canari a des plumes ". La mémoire déclarative est un ensemble fini (même s'il est énorme) tandis que la mémoire procédurale est quasiment infinie par les inférences qui peuvent être générées.
[ On arrive presque à l'idée, qui n'est pas pour le moment informatisable,
- que la mémoire est globalement infinie - ce qui n'est pas le cas des directories-
- et que la disponibilité de la mémoire est liée à la compréhension et que la compréhension est liée au stockage: ceci enterre l'opposition entre "tête bien faite" et "tête bien pleine" que l'on utilise fréquemment en la sortant du contexte dans lequel elle a été écrite]
Ces recherches ont évidemment des implications extraordinaires
pour les méthodes de la mémoire qui rejoignent les préoccupations
des " mages " de la Renaissance. Il faudrait savoir quels sont les faits
déclaratifs d'un domaine de connaissance qui permettraient de faire
le maximum d'inférences utiles. Ce travail commence à être
fait pour les systèmes experts en informatique mais il est inexistant
en pédagogie. Il nécessiterait la collaboration des chercheurs
de la mémoire et des didacticiens spécialistes d'un domaine
de connaissance (l'Histoire, par exemple).
Pour essayer de démontrer si ces idées théoriques
ont quelque vraisemblance pour la mémoire humaine, Collins et Quillian
ont également été des précurseurs en rajeunissant
une vieille technique de la psychologie expérimentale, les temps
de réaction. Leur principe est de tester la vitesse de compréhension.
[ On part d'un principe qui est naturel pour la concurrence et l'émulation,
mais qui demande a être finement réexaminé pour l'intelligence
humaine ou il n'est pas du tout prouvé que la vitesse de compréhension
mesure le degré de compréhension: sur la liste maths était
récemment cité une expérience "prouvant" le contraire
: c'est à dire que la
bonne réponse est plus rapide
pour un individu qui ne connaissait pas le sujet sur lequel il répondait.
Il est certain que la rapidité de réaction est plus rapide
pour quelqu'un qui ne connait pas un sujet que pour celui qui le connaît
]
Différentes affirmations sont affichées sur l'écran d'un ordinateur, par exemple un canari est un oiseau ou un canari est un animal pour tester l'hypothèse de l'arborescence, et de phrases telles que un canari est jaune ou un canari a de la peau pour tester l'hypothèse de l'économie cognitive. On mélange autant de phrases vraies que de phrases fausses (un canari est un poisson) et le sujet doit appuyer le plus rapidement possible sur un bouton " oui " du clavier de l'ordinateur, ou un bouton "non ". A la suite de Collins et Quillian de nombreuses expériences ont été faites (Lieury, 1990) et c'est maintenant une technique très utilisée. L'hypothèse de hiérarchie catégorielle est généralement vérifiée car l'on trouve que les temps de compréhension sont rapides (environ 1 000 millisecondes) lorsque la catégorie est proche un canari est un oiseau et une augmentation jusqu'à 1 500 ms pour des catégories plus élevées dans l'arborescence (un oiseau est un animal). En revanche, on ne trouve pas toujours l'allongement de temps pour les propriétés, de sorte qu'on pense que notre mémoire sémantique ne recherche pas toujours une économie parfaite.
[Ah! Zut! "L'économie" terme
- qui est apparu plusieurs fois et qui a même eu droit au titre
de "principe d'économie cognitive"
– dont la pesanteur idéologique n'est pas neutre-
n'est pas obligatoirement pour l'esprit humain une priorité]
Pour les propriétés rares (un canari respire)
[ C'est une plaisanterie mais il n'est pas rare que les canaris respirent. Ceci pose cependant le problème de la définition de la "rareté" : en général, c'est à dire dans une conception abstraite et statistique, il est rare d'attacher la respiration au canari : tout dépend de l'activité et du but poursuivi par le sujet agissant, ce qui fait que la rareté doit être interprété en fonction l'activité humaine : les tests devant l'ordinateur quantifiant la "rareté du canari qui respire" n'ont de valeur que pour la population qui accepte de participer à ces tests et pendant qu'elle y participe. Si le canari sert de témoin pour la présence de gaz toxiques comme dans une BD de mon enfance, il est primordial de savoir qu'il respire en général et de savoir en particulier s'il continue à respirer]
le temps de compréhension est long ce qui suggère qu'il y a un mécanisme d'inférence (un canari est un oiseau —* un oiseau est un animal —* un animal respire —* donc un canari respire). Mais les propriétés fréquentes (exemple un canari a des plumes) semblent stockées plusieurs fois, en tout cas pour la plupart des oiseaux. Plus qu'une économie cognitive, il semble donc qu'il y ait abondance cognitive en mémoire sémantique.
[ On peut dire globalement
- que, lorsque l'on fait des économies sur la construction du sens, on construit sur du sable
- lorsque l'on emploie systématiquement un vocabulaire relevant
d'un domaine d'activités données, on finit par reproduire
les caractéristiques de ce domaine d'activité dans le domaine
que l'on étudie car il n' y a pas de séparation absolue entre
le sens et le mot
a) dans un but polémique par rapport à la conception de la compréhension ici présente, il serait intéressant d'analyser plus précisément les conséquences de l'emploi d'un vocabulaire utilisant et le mécanisme informatique et le modèle économiqueb) cette constatation ne se limite pas à la conception de la compréhension, mais est bien étudiée par François Lurçat, par exemple, pour l'influence de la conception mécaniste de la physique à la physique elle-même et à l'importation du "physicalisme" dans l'étude d'autres domaines de l'activité humaine et, notamment, dans les "sciences sociales"
c) le titre du chapitre "Qu'est-ce que comprendre?" semble un peu démesuré par rapport au contenu ]
|
|
|
|
|
|
|
|
|