Sunday 7 January 2018

5. Harnad, S. (1990) The Symbol Grounding Problem


Problèmes de l'IA symbolique

Harnad, S. (1993). L'ancrage des symboles dans le monde analogique à l'aide de réseaux neuronaux: un modèle hybrideLekton4(2), 12-18.



ou 

Harnad, S. (2003) The Symbol Grounding ProblemEncylopedia of Cognitive Science. Nature Publishing Group. Macmillan.   

ou

Harnad, S. (1990). The symbol grounding problemPhysica D: Nonlinear Phenomena, 42(1), 335-346.
ou

https://en.wikipedia.org/wiki/Symbol_grounding

The Symbol Grounding Problem is related to the problem of how words get their meanings, and of what meanings are. The problem of meaning is in turn related to the problem of consciousness, or how it is that mental states are meaningful.


----


SEMAINE 5 (première partie) 2018


SEMAINE 5 (deuxième partie) 2018






résumé langue anglaise:



Cours ISC1000 2017:




Cours ISC1000 2016 1:


Cours ISC1000 2016 2:



2015 Cours 1-ière partie (audio seule)


2015 Cours 2ième partie (vidéo)



24 comments:

  1. Etienne dit, donc je dis... donc je suis ? Sans savoir si le etienne est moi même ou le "monster teacher"

    Bref. L'ensemble des caratères sur une feuille de papier n'a pas de sens en soi. À lui seul, il n'a pas de référent. Il faut une cognition, un esprit, pour associer le sens des formes, des carractères à une dénotation. Il faut un intermédiaire entre la compréhension du référent dans la tête et le mot sur la feuille. John Searle, avec son argument de la chambre chinoise, montre que les symboles chinois ne sont pas "significatifs" lors d'une simple traduction. Il manque aux systèmes symboliques est cette capacité à ancrer les symboles, qui est une propriété dynamique. L'ancrage nécéciterait des capacités sensorimotrices (non symboliques) qui permettrait au système d’interagir avec son environnement de facon tout a fait naturelle. Ici, l'analogie s'applique a un système T3, ou un robot fait tout ce que nous faisons.

    À l'heure actuelle, les technologies permettent déja de passer les test T1 et T2 avec brio. Et nous savons intuitivement que ces orninateurs n'ont ni conscience, ni reel ressenti à notre égart. Etienne propose un "modèle hybride où collaborent des systèmes sensori-moteurs, des réseaux de neurones et des systèmes symboliques computationnels. Le modèle devrait être doté de systèmes sensori-moteurs analogues capable d’effectuer des transductions sensorielles." Par leur capacité d’apprentissage des invariants, un tel systeme permettrait de catégoriser et d’ainsi l’identifier une "signification(meaning?)" sur un symbole arbitraire , c’est-à-dire de l’ancrer.

    ReplyDelete
    Replies
    1. This comment has been removed by the author.

      Delete
    2. Bon après-midi Étienne,

      Le problème de l'ancrage des symboles considère effectivement la question suivante: comment des symboles comme les mots obtiennent leurs sens?

      Disons que j'essaie d'apprendre l'allemand. L'ancrage des symboles me permet d'utiliser des mots, déjà ''groundés'' dans leur invariance iconique et catégorique respective, pour comprendre le sens d'autres symboles arbitraires (d'autres mots).

      Par exemple, on m'informe que une fille = ein maddchen. Ce sont deux représentations symboliques arbritraires mais je peux grounder la représentation symbolique ein maddchen dans les mêmes invariances iconiques et catégoriques que la représentation symbolique une fille.

      De plus, il n'est pas clair qu'il faille absolument avoir une cognition (complète) ou un esprit pour avoir la capacité robotique sensorimotrice d'ancrer des symboles.

      Je répond à ton commentaire, cependant, surtout pour spécifier que les technologies actuelles sont à ma connaissance grandement insuffisantes pour réussir T2.

      Il faut garder à l'esprit que T2 n'est pas une illusion ou une imitation, mais bien une re-création de la capacité totale verbale, soit faire tout ce que peut faire quelqu'un de manière verbale, comme tenir une correspondance.

      Totale puisque la capacité du candidat doit fonctionner 100% du temps et être totalement indistinguables dans ses capacités et fonctions de celle d'un humain.

      Il n'existera pas de tel candidat avant plusieurs prix nobels; pire encore si, comme M. Harnad le propose, ce candidat devra nécéssairement avoir les capacités sensori-motrices T3 pour passer T2.

      Delete
    3. En tant qu'étudiant dans le domaine de l'apprentissage machine, je peux confirmer que même T2 (créer un système indifférenciable d'un humain pendant une conversation) est très, très loin d'être atteint. En fait, les meilleurs chatbots utilisent l'apprentissage profond et une quantité massives d'exemples de texte pour générer des phrases qui sont très plausibles statistiquement, mais on remarque vite qu'il n'y a guère de fil conducteur entre ces phrases

      Delete
  2. La transduction, jugée nécessaire à la genèse du sens par l’entremise de l’ancrage des symboles dans l’expérience, mène à s’intéresser au mécanisme de réception sensorielle. Est-ce un phénomène strictement passif ou actif? Le processus suggéré semble indiquer un état initial actif de discrimination et d’identification. Ces procédés seraient effectifs (dans leur rôle d’ancrage du symbole) grâce à la reconnaissance des catégories d’objets. Celles-ci, tributaires des réseaux neuronaux qui sont disposés à détecter des « invariants de la projection sensorielle analogique », soit des « patterns » identiques de l’effet de réponse neuronal à certains objets empirique (information sensorielle) du même type, permettraient de se faire joindre nos multiples projections sensorielles (équivalentes dans leurs invariants), sous un point d’intersection commun. En résulterait donc une reconnaissance, une identification et donc un ancrage symbolique

    Par ailleurs, il me semble également intéressant d’aborder la question en partant inversement de ‘haut en bas’ (si j’ai bien compris le sens de cette formule). Pensons simplement à Kant et aux catégories pures de l’entendement (Qualité, Quantité, Relation, Modalité). N’est-ce pas quelque chose de potentiellement capital dans le processus d’ancrage symbolique? Plus fondamentalement encore, si certaines intuitions sensibles pures (termes plutôt obscures, je l’admets, le frère cadet m’en excusera), telles que celles du temps et de l’espace sont innées et déterminantes à notre expérience ‘phénoménal’, nous trouvons déjà là des conditions probables et même nécessaires à l’émergence du processus de catégorisation. Ainsi, selon cette perspective, avant même d’appréhender activement le réel, celui-ci se présenterait à nous sous un type de configuration déterminée, intuitionnée. Je me demande donc : est-ce que la question d’une telle intuition ou innéisme est pertinente au problème de l’ancrage symbolique? Est-ce une hypothèse alternative faisant toujours concurrence?

    ReplyDelete
  3. Maintenant que nous savons que les théories du computationnalisme et du connexionnisme ne peuvent expliquer chacune en totalité le phénomène de la cognition puisque nous ne savons pas si leur modèle correspond à ce que l’esprit humain fait, nous pouvons nous intéresser à un problème lié à ces théories, soit le problème de l’ancrage des symboles. Que ce soit dans la computation ou dans les réseaux neuronaux, il est question de manipulation de symboles ayant une forme (le signifiant) et une interprétation sémantique (le signifié), mais le problème est que le lien entre le signifié le signifiant n’est pas ancré. Un symbole au sens inconnu est défini par un autre symbole au sens inconnu qui lui-même est défini par un symbole au sens inconnu, et ainsi de suite. Il est cependant possible de briser cette boucle en ancrant les symboles. D’abord, il faut procéder à une catégorisation des symboles, c’est-à-dire qu’il faut savoir comment faire la bonne chose avec la bonne sorte de chose. Cette première étape se fait gestuellement et par essais et erreurs, et une correction est apportée si nécessaire. Lorsqu’on arrive à faire le bon tri, on y attache le mot. La faculté linguistique permet de réaliser cette étape. Pour arriver à un ancrage des symboles final, on cherche à déterminer le plus petit ensemble de mots qui peut définir tous les autres mots. Cet ensemble, appelé ensemble minimal, ne correspond pas à un dictionnaire. Les mots qui le composent doivent donc être ancrés autrement que par définition (par catégorisation).

    ReplyDelete
    Replies
    1. "Que ce soit dans la computation ou dans les réseaux neuronaux, il est question de manipulation de symboles"

      Cela ne fait pas vraiment partie du contenu du cours, mais je voudrais préciser que réseaux de neurones artificiels sont tout à fait à l'opposé des systèmes symboliques, et donc du computationnalisme. Il n'est pas du tout question de manipuler des symboles lorsqu'on applique un réseau de neurones sur, par exemple, une image, pour en extraire une description ou un label. Au contraire, ces réseaux sont actuellement notre meilleure façon de réaliser l'ancrage des symboles en intelligence artificielle. Un modèle hybride pourrait par exemple utiliser un RNA pour ancrer un ensemble de symboles (c'est à dire les repérer dans le monde) pour ensuite utiliser des règles pour déterminer quoi faire. On parle ici de la fine pointe de la recherche en IA !

      Delete
  4. Lorsque l’on s’intéresse à la cognition, il est inévitable de parler de la langue. En effet, ces deux concepts sont étroitement liés. La langue consiste en un ensemble de mots avec lesquels il est possible d’émettre toutes les propositions (état d'affaire) possibles. Bien qu’aujourd’hui, la langue soit parlée, en ses débuts, beaucoup croient que ce n’était pas le cas. En fait, la plupart s’entendent pour dire que la langue serait l’évolution de gestes. Au départ, les humains communiquaient sans doute entre eux de manière iconique, c’est-à-dire en faisant des gestes qui représentaient clairement le référent. Par exemple, quelqu’un pourrait faire un triangle en haut de sa tête avec ses mains pour signifier un chapeau. Il s’agit de geste que tout le monde peut comprendre. Au fil du temps, il y aurait eu une transition. Ces gestes iconiques se seraient peu à peu transformés en symboles arbitraires, c’est-à-dire en symboles qui ne représentent plus le référent de manière évidente.
    Cette transition amène un nouveau problème : désormais, comment feront les gens pour apprendre le sens des symboles arbitraires, qui ne ressemblent plus du tout aux référents qu’ils désignent? Il s’agit là du problème de l’ancrage des symboles. Comment arrive-t-on à prendre un symbole abstrait et réussir à trouver le bon référent? C’est en raison du processus mental nécessaire pour passer de l’un à l’autre que la langue est liée à la cognition.

    ReplyDelete
  5. Grace aux lectures de cette semaine je vois maintenant pourquoi le TT 3 serait le niveau de test nécéssaire et suffisant: c'est que, selon Étienne, pour ancrer les symboles, il faut un système capable de percevoir, discriminer et d'identifier des "input". "La capacité de discrimination permet de juger si deux "inputs" sont différents et à quel degré. L'identification permet d'attribuer un nom à un "input", dire s'il fait partie d'une certaine catégorie." (S. Harnad, 1993) Pour cela, il nous faudrait un robot capable de percevoir les "inputs" avec sa structure physique sensorimotrice et de mécaniquement encoder des représentations analogues, c'est-à-dire des copies du "input" "projetés sur nos zones sensorielles", ou des une copie "filtrées préservant quelques traits" distinctifs qui permettent la catégorisation, grâce à la capacité d'identification. L'ancrage de symboles à partir de catégories sensorimotrices serait la prémisse d'un système de symboles plus abstraits et ainsi, d'une langue.

    ReplyDelete
    Replies
    1. Bonjour!

      En effet, déterminer comment encoder l'information provenant des senseurs de façon à permettre de les classer efficacement et de réagir correctement est en lui même un domaine de recherche en intelligence artificielle et en robotique.

      Il est intéressant de noter que, si l'on lit attentivement l'article original de Turing Computing Machinery & intelligence, que la raison qui le pousse à choisir le T2 est grandement basée sur sa peur que ses contemporains rejettent automatiquement la possibilité qu'une machine soit intelligente simplement en se basant sur son apparence. Il faudrait donc nécessairement la cacher derrière un système de chat. En tant qu'homosexuel à une époque où cela constituait encore un crime, ce n'est pas étonnant qu'il soit sensible à la puissance des préjugés et comment ils peuvent obscurcir notre jugement...

      Delete
  6. This comment has been removed by the author.

    ReplyDelete
  7. Pour embrasser la complexité du cerveau comme les sciences cognitives le font, il faut s’attarder à une dimension très importance de la matière : l’ancrage des symboles, leurs référents, et aussi la manière dont ils sont utilisés dans le langage et la communication.

    Searle a soulevé le problème de la compréhension du test T2 de Turing, dans le sens où même s’il y a une compréhension du mot, la machine n’y accorde pas de sens. En fait, sans le savoir, ce que Searle a réellement soulevé comme questionnement, c’est comment peut-on ancrer des symboles dans la computation afin de rendre une machine plus apte à compléter le test T2, et ce, avec la langage, l’outil dont il dispose pour communiquer. Ainsi, pour rendre la machine plus complexe dans sa communication, il faut savoir comment est-ce que la langue se communique? Par quel système, quel processus s’établit-elle? Harnad propose la catégorisation des symboles, pour identifier leur origine, leur utilisation, à quels mots ils correspondent; pour être plus spécifique, pour comprendre signification d’un mot au-delà de sa signification officielle. Élargissant ainsi le spectre des possibilités de réponse d’une machine, mais en lui donnant ainsi une complexité qui permet d’approfondir sa propre computation. Une réflexion (computation) plus dynamique, plus difficile, mais sans doute plus relative à celle de l’humain.

    ReplyDelete
    Replies
    1. Bonjour!

      Je ne suis pas convaincu que Searle avait comme objectif d'améliorer la computation, je crois plutôt qu'il était question de démontrer que les systèmes computationnels (formels, à base de règles) seraient fondamentalement incapables d'expliquer l'ensemble de la cognition humaine.

      Cependant, en parlant de l'idée selon laquelle il serait possible de construire un système qui mélange une module computationnel avec une partie non-computationnelle (dynamique, analogique) pour atteindre de meilleures performances, tu mets le doigt sur un domaine d'étude très récent et intéressant: les modèles hybrides en intelligence artificielle!

      "la catégorisation des symboles, pour identifier leur origine, leur utilisation, à quels mots ils correspondent; pour être plus spécifique, pour comprendre signification d’un mot au-delà de sa signification officielle"

      Quelques précisions en terminant: on ne parle pas de catégorisation des symboles, mais d'ancrage des symboles (à moins que tu sois sémiologue et t'intéresses aux symboles en tant qu'objets d'études en eux-mêmes!). Notre capacité à ancrer un symbole serait basée sur notre capacité à catégoriser (une fois qu'on catégorise, il suffit simplement d'attacher un mot à notre idée de la catégorie pour ancrer ce mot). De plus, il ne s'agit pas d'identifier à quel mot correspond un symbole comme tu écris (car un mot est bien sûr un type de symbole!)mais bien à quelle catégorie de "choses" correspond un mot. Il n'est pas question non plus d'explorer la signification "au dela de la signification officielle", mais bien d'expliquer toute la signification, celle officielle telle qu'acceptée par une communauté, ET aussi les petites différences de compréhension entre les individus.

      Delete
  8. Le concept de l'ancrage des symboles explique que les symboles du langage obtiennent leur sens par ancrage. Le symbole, en étant pairé avec un référant obtient un sens dans le monde réel. Une machine doté de cette capacité aurait une puissance bien plus grande qu'une machine seulement capable de manipuler les symboles abstraits du langage. Une telle machine aurait une capacité d'induction et de déduction par rapport au monde réel et pourrait donc interagir de manière plus "intelligente" avec le monde autour d'elle. Une question importante que vous posez dans votre article est la suivante: L'ancrage des symboles est-il suffisant pour faire naître le ressenti? Je n'ai bien entendu pas de réponse définitive à cette question, mais selon moi, cela est suffisant. En effet, être capable d'avoir du ressenti c'est être capable de se dire que cela "fait quelque chose" d'être dans un état particulier. Une machine dotée de la capacité d'ancrer les symboles aurait la capacité de comprendre le sens des symboles et ainsi ,selon moi, avoir la capacité de se sentir triste ou se sentir joyeux puisque cela fait référence à des symboles aussi abstrait que des émotions. Pour avoir la capacité de référer le symboles au monde réel, la machine aurait selon moi la capacité de vivre les états qui sont associés aux symboles, cela reste toutefois mon opinion personnelle et j'ai peu d'arguments pour le défendre.

    ReplyDelete
    Replies
    1. Bonjour!

      En effet Simon, lorsque l'on spécule sur le hard problem of consciousness comme tu le fais, il est pas mal impossible de fournir des arguments probants, car le problème des autres esprits se dresse comme obstacle infranchissable à l'observation du resssenti d'un autre être (même si l'on peut tout à fait observer un comportement qui covarie avec leur ressenti).

      Il ne faut toutefois pas s'empêcher d'examiner toutes les conséquences logiques d'une prise de position, c'est dailleurs selon moi l'apport majeur de la philosophie. Je pense que plusieurs personnes partagent ton opinion personnelle. Cependant jettes un coup d'oeil aux récents réseaux de neurones profonds qui catégorisent des images d'objets à travers plusieurs conditions d'éclairage, présentation, orientation, etc

      https://ujjwalkarn.me/2016/08/11/intuitive-explanation-convnets/

      Clairement, un tel système émet la bonne chose (une catégorie, un mot) face au bon type de chose (les images de cet objet). Serais-tu prêt à lui attribuer le ressenti? Je suis moi-même partagé à ce sujet...

      Delete
  9. Résumé du texte The Symbol Grounding Problem
    Les mots et leurs significations. Un référent est l’objet lui-même, qui est indépendant de comment on le nomme ou décrit. Les différents mots utilisés pour le nommer donneront des informations diverses sur le référent, et sur comment l’identifier. L’exemple classique de « Tony Blair », « le premier ministre actuel de UK » et « le conjoint de Cheri Blair », illustre comment un référent peut être nommé différemment, et apporter des informations différentes sur le référent.
    Comment connaissons-nous la signification des mots? On peut connaitre le référent d’un mot, en avoir fait l’expérience. Mais comment comprendre les mots qui permettent de comprendre quel est le référent. Notre cerveau sait comment, mais ne semble pas avoir pris la peine de l’exprimer à notre conscience.
    La signification d’un mot ne se situe pas dans les symboles utilisés pour écrire le mot, mais bien dans notre interprétation de ceux-ci. La signification est située dans notre tête, par des moyens encore non connus de la science cognitive.
    Les ordinateurs, eux, comment ils font pour comprendre? Est-ce grâce à un processus dynamique qui va chercher la signification dans les symboles, ou bien il s’agit d’un système dynamique, tel le cerveau. Une des approches sur le sujet vient de l’école de pensée du computationalisme, une approche qui ne nécessite plus d’introduction rendus à cette période de la session. L’ordinateur peut faire toute computation possible, et les computationalistes se disent que l’on va trouver comment fonctionne la cognition quand on aura trouvé le programme qui fonctionne de la même façon. Le test de Turing T2 permet de savoir si le programme correspond bien à la cognition.
    Searle est venu défaire cette vision avec son argument de la « Chambre chinoise », un argument que nous avons déjà décortiqué en classe. Ce que l’on tire de cet argument est que nous ne savons pas où se situe la compréhension lorsque la cognition est traitée comme la computation. Puisque Searle ne comprend pas le chinois même s’il avait toutes les règles pour répondre à l’autre dans cette langue, la signification est dite de ne pas être encrée dans les symboles eux-mêmes.
    Avec tout cela, on ne sait toujours pas comment fait le cerveau pour comprendre.
    Pour adresser cela, il faut comprendre le problème à encrer les symboles. Un symbole faisant partie d’un ensemble de symbole possède un sens qui lui est propre. Cependant, sa forme est choisie arbitrairement, sans nécessairement avoir de lien avec la signification du symbole. Par exemple, « 2 » en tant qu’ensemble de traits sur l’écran d’ordinateur ne représente pas la signification de 2. Pourtant nous le comprenons et pouvons le manipuler dans les équations mathématiques.
    La manipulation de symboles et basée sur la manipulation des formes des symboles, et non leur signification. Alors que le système de symbole a un sens dans notre tête, parce que nous le comprenons, et non sur la feuille, isolé.
    Un exemple de système de symbole et le langage; ou des ensembles de traits sur une page deviennent un récit dans notre tête. Une des propriété du cerveau est qu’il est capable de trouver un référent à ces ensembles de traits, ce qu’un ordinateur ne peut pas faire. Associer un référent nécessite d’être dynamique, de pouvoir vivre les choses. Cela implique que le fonctionnement de la cognition ne peut pas être indépendant de qui ou quoi l’applique. Les symboles doivent être directement liés à leur référent à l’intérieur du cerveau, et non seulement un lien extérieur observé.

    ReplyDelete
    Replies
    1. Bonjour!

      Je pense que as bien saisi le problème fondamental du computationnalisme qui n'explique pas le lien entre les symboles et le vrai monde extérieur. En plus de l'argument de Searle, je rajouterai qu'aucun ensemble de règles formelles ne peut promettre de capturer toutes les propriétés intéressantes et tous liens causaux entre tous les objets (et groupes d'objets!) dans le monde. Mais, nous, les humains, bien ancrés dans le monde sensoriel, pouvons simplement observer et tester les liens et propriétés des objets. En d'autre mots, il n'y a pas de meilleur modèle du monde que le monde lui même!

      "Une des propriété du cerveau est qu’il est capable de trouver un référent à ces ensembles de traits, ce qu’un ordinateur ne peut pas faire"

      Tu serais surprise...

      Finalement, une dernière note: le référent d'un symbole me semble être nécessairement une catégorie d'objets dans le monde, et non un "référent à l'intérieur du cerveau". Peut être parles-tu du mécanisme neuronal qui permet de catégoriser, et non le référent?

      Delete
  10. Je résumerais quelques parties de l’article «Symbol grounding problem» de Harnad,S. (1990)
    L’ancrage des symboles est le lien entre un objet et son référent. Le défi est de comprendre comment se crée une interprétation sémantique de ce mot ou de cet objet. Un système de symbole, comme le cognitivisme (computation=cognition), peut mener à un boucle redondante d’interprétation de symboles incohérents par d’autres symboles incohérents. L’expérience de la chambre de Searle est un bon exemple du problème de l’ancrage des symboles : une personne peut répondre à une autre personne en faisant des manipulations sur des symboles qu’elle ne comprend pas.
    Le sens des mots et des référents (ancrages des symboles) semble s’acquérir grâce à des représentations iconiques et des représentations catégorielles. Les représentations iconiques sont les parties des stimuli qui atteignent nos sens, des représentations subjectives d’objets réels qu’on se fait. Les représentations catégorielles sont des capteurs de traits constants et invariants des stimuli captés par nos sens. Elles sont acquises et innées. Ces deux types de représentations permettent de se faire un inventaire de symboles élémentaires, sur lequel sera effectué des manipulations symboliques lorsque nous tomberons sur de nouveaux objets ou stimuli.
    Les processus cognitifs humains comme la discrimination, la manipulation, l’identification, etc. permettraient de développer cet inventaire.
    Le connexionnisme, initialement critiqué comme étant une autre définition du computationnalisme ou comme étant une nouvelle forme d’apprentissage associatif, joue alors un rôle complémentaire, en permettant de modifier ces représentations selon les stimuli auxquels nous sommes exposés par expérience.
    L’exemple donné dans le texte sur les cryptologues permet de bien assimiler la théorie de l’ancrage des symboles. Ils ne pourraient pas déchiffrer des codes ou des symboles qu’ils n’ont jamais vue s’ils n’avaient pas a priori appris une langue et s’ils n’avaient pas un certain vécu permettant la compréhension de certaines situations (les représentations d’événements font partie des représentations catégorielles). Leur compréhension et leur interprétation de ces nouveaux symboles dépendra alors de leur langue et de leur expérience sensorielle.
    Dans le texte on mentionne aussi le traitement bottom-up (sériel?). Peut-on alors dire que la catégorisation est un raisonnement inductif, un raisonnement du plus particulier au général?
    James Najem

    ReplyDelete
    Replies
    1. "le cognitivisme (computation=computation)"

      Attention, le cognitivisme n'est pas le computationnalisme! le cognitivisme est simplement l'idée qu'il ne faut pas voir la psychologie humaine (et l'intelligence) comme une simple boîte noire entraînée par habitude et conditionnement, mais qu'il faut la voir comme un système construit par la coopération de plusieurs processus qu'il vaut la peine d'investiguer et d'expliquer.

      Excellent insight de ta part de reconnaître l'analogie entre ce que l'on nomme le bottom-up processing et le raisonnement inductif. la catégorisation est en effet un processus qui permet de traiter plusieurs objets particuliers comme étant un seul ensemble général

      Delete
    2. Merci! Je voulais écrire computationnalisme, je viens de me rendre compte de l'erreur. Computationnalisme, c'est que la cognition, c'est de la computation.

      Delete
  11. Je résumerai le contenu du texte.

    Un référent et sa signification ne sont pas la même chose. La signification inclue non-seulement le référent, mais aussi le moyen d'accéder à ce référent. Pour utiliser un exemple similaire à celui du texte, on pourrait dire que le référent de "Le Premier Ministre du Canada actuel" est Justin Trudeau, mais la signification de cette bribe de phrase inclue "Justin Trudeau", mais aussi la méthode pour déduire ce référent, soit trouver qui tient le titre de Premier Ministre actuellement au Canada.

    Il s'avère important de comprendre que les mots sur une feuille de papier ne possède guère de signification intrinsèque. Ce sont les processus internes de la conscience qui doivent être invoquer pour leur donner un sen. Nous pourrions ainsi nous interroger sur la nature des processus des processus d'un ordinateur au niveau du traitement du langage. Les processus sont -ils d'une nature dynamique comme ceux du cerveau humain ou sont-ils plutôt d'une nature plutôt statique comme les mots sur une page ?

    Maintenant est le moment de parler du Problème de l'Ancrage des symboles. Harnad (2003) définit (de manière quelque peu circulaire, je dois le dire) comme tout objet dans un système de symbole, ce dernier comporte des règles visant à guider leur manipulation selon leur forme arbitraire. Malgré le manque de lien iconique entre le symbole et sont référent, nous pouvons interpréter leur sémantique.

    Une aptitude qui fait défaut aux ordinateurs opérant de de manière dynamique est la capacité d'ancrer ces symboles à des référents à l'aide d'information sensorimotrice. La signification des symboles serait donc ancrer non seulement dans une aptitude à identifier les objets auxquelles ils réfèrent, mais aussi dans notre capacité d'agir face à eux.

    Cependant, il serait aussi possible que bien que l'ancrage représente une condition nécessaire pour la signification qu'il ne représente pas une condition suffisante pour celle-ci.

    ReplyDelete
  12. L’ancrage est apprendre un certain nombre de choses. Dans le contexte des symboles, le fait d’apprendre un certain nombre de symboles, ne nous permettrait pas nécessairement d’apprendre aussi leur sens. Ceci est le problème relié à l’ancrage des symboles, en fait l’intelligence artificielle pourrait manipuler toutes sortes de symboles, sans jamais y comprendre et percer le sens de ceux-ci. Les symboles sont dissociés du monde extérieur. Le sens des symboles serait plutôt interprétable par les chercheurs, théorie, utilisateur, mais pas l’ordinateur en question.

    Si on revient à l’article de Searle, il a découvert que même si un système n’est pas en mesure de définir le sens des symboles, il peut tout de même avoir un comportement tout à fait intelligent. Alors Searle aura ouvert la porte, qu’en effet l’intelligence artificielle démontre une quelconque intelligence en ce qui concerne sa manipulation de symboles, mais qu’elle ne détient pas une intelligence globale, puisque l’intelligence ne tourne pas seulement autour de ce système de symboles.

    Le sens des symboles selon Searle serait accessible si nous avons accès et utilisons d’autres expressions symboliques pour réellement définir le sens. Par contre, il serait impossible de faire cela à l’infini, il est donc important de tout de même trouver l’état qui unit tous ces sens pour être en mesure de bien comprendre leurs définitions.

    ReplyDelete
  13. La question de l’apprentissage en ce qui concerne les systèmes symboliques de l’intelligence artificielle est importante, puisqu’on doit se demander qu’est-ce que ces machines apprennent réellement. Nous savons qu’elles ont la capacité de résoudre des problèmes, de comprendre un langage naturel, le raisonnement logique et tout ce qui est relié à la planification. Mais lorsqu’on s’attarde à l'intelligence de ces machines, on pourrait la comparer à un dictionnaire puisqu’elle cherche le sens des mots, mais tout ce qu’elle trouve c’est des mots sans sens. Alors quelle est la réelle utilité de l’IA?

    Il m’apparaît intéressant de s’attarder à ce que les machines sont réellement en mesure de comprendre, comme par exemple leur compréhension de la représentation ainsi que des éléments associés. Est-ce qu’elles dépendent uniquement de ce que le programmeur leur programme ou bien elles peuvent décoder des choses qui vont plus loin que ce qui lui a été encodées? De plus, si la représentation de quelque chose est relié à l’action, alors puisque l'intelligence artificielle ne peut agir sur un environnement, peut-on conclure qu’elle n’est ou bien ne sera jamais en mesure de faire la représentation d'éléments?

    ReplyDelete
  14. À la lumière (ou obscurité) de ce texte, certains éléments sont pour moi encore flous, et certains autres, n'ont simplement aucune signification. J’imagine donc que je peux dire que l’ancrage des symboles, dans mon cas, a échoué au niveau de la catégorisation de certains concepts. Même après la recherche de certains mots dans le dictionnaire, je ne pouvais dire que je comprenais, car trop d’éléments manquent à ma compréhension. Mais étant donné que je suis un être extérieur à tout autre personne qui pourrait lire cette ciélographie, peut-être que je comprends et que je mens sur mon incompréhension. Comme Searle dans T3 et le dictionnaire chinois-chinois, ayant retenu arbitrairement de nombreux symboles chinois, on pourrait croire qu’il comprend le chinois, mais il est spécifié que non. Moi, dans ma lecture, je comprenais les symboles des lettres enlignées qui créaient des mots (en plus du fait que les accents étaient absents dans tout le texte donc, pour trouver le sens à certains moments j’ai eu besoin de faire l’action mental de déduire le sens des phrases) la catégorisation n’a pu implémentée. Je pourrais donc être un robot mal programmé qui fait une ciélographie.

    ReplyDelete

ISC1000-20, hiver 2018:  Catégorisation, communication et conscience Heure:  mardi 18h00-21:00 Salle du cours: PK-R250 (définitivement!!) E...