Sunday 7 January 2018

3a. Searle, John. R. (1980) Minds, brains, and programs

Searle, John. R. (1980) Minds, brains, and programsBehavioral and Brain Sciences 3 (3): 417-457 

This article can be viewed as an attempt to explore the consequences of two propositions. (1) Intentionality in human beings (and animals) is a product of causal features of the brain I assume this is an empirical fact about the actual causal relations between mental processes and brains It says simply that certain brain processes are sufficient for intentionality. (2) Instantiating a computer program is never by itself a sufficient condition of intentionality The main argument of this paper is directed at establishing this claim The form of the argument is to show how a human agent could instantiate the program and still not have the relevant intentionality. These two propositions have the following consequences (3) The explanation of how the brain produces intentionality cannot be that it does it by instantiating a computer program. This is a strict logical consequence of 1 and 2. (4) Any mechanism capable of producing intentionality must have causal powers equal to those of the brain. This is meant to be a trivial consequence of 1. (5) Any attempt literally to create intentionality artificially (strong AI) could not succeed just by designing programs but would have to duplicate the causal powers of the human brain. This follows from 2 and 4. 


SEMAINE 3 2018






see also:

Click here --> SEARLE VIDEO

7 comments:

  1. L’argument de la Pièce Chinoise de Searl est un argument abstrait qui nécéssite un peu d’effort imaginatif. Il faut d’abord se figurer qu’il existerait un algorithme (la manipulation de symboles suivant des règles) capable d’imiter de manière totalement indistinguable les capacités verbales d’un humain.

    Autrement dit, d’être capable d’agir tel un correspondant (penpal) avec qui l’on pourrait interagir par email ou lettres en français, de sorte qu’il nous fut impossible de douter que notre correspondant fut autre chose qu’un humain.

    Maintenant que l’on s’imagine qu’un tel algorithme puisse exister, il faut noter qu'un algorithme n’est rien de plus qu’une manipulation symbolique formelle (suivant des règles), malgré sa relative tout-puissance. Les humains sont tout-à-fait capables d’implémenter (exécuter) des algorithmes. De plus, il est bien évident que les ordinateurs soient capables d’implémenter avec grande vitesse des algorithmes pour lesquels il faudrait un temps incalculable à un humain.

    Faisons un autre effort imaginaire : imaginons un instant qu’un humain, surnommé affectueusement frère cadet, implémente l’algorithme du correspondant discuter plus haut. Imaginons aussi qu’il l’implémente avec tant d’efficacité et de rigueur qu’il soit impossible de distinguer sa performance de celle d’un ordinateur exécutant le même algorithme.

    Nous y sommes presque. Maintenant qu’il est aisé de s’imaginer qu’un programme informatique (algorithme) pouvant agir comme un correspondant indistinguable d’un correspondant humain en français existe, ce n’est pas exagéré de se figurer maintenant un algorithme à la fonction et capacité identique, mais en mandarin cette fois-ci.

    Cet algorithme correspondant en mandarin n’est encore une fois rien de plus qu’une manipulation formelle de symboles, de sorte qu’il soit possible pour frère cadet d’implémenter avec autant d’exactitude et d’efficacité ce nouvelle algorithme.

    Frère cadet, bien qu’implémentant parfaitement l’algorithme, ne comprend RIEN au mandarin. Par contre, pour tous ses correspondants d’origines chinoises, il n’y a aucun doute : leur correspondant écrit bien le mandarin et répond parfaitement, il comprend donc le mandarin.


    Voici le cœur de l’argument de Searle : les computations (soit les manipulations symboliques suivant les règles) seules ne peuvent expliquer toute l’étendue des capacités de la cognition humaine. Donc, ce que Searle appelle le Strong AI (computationalisme) est réfuté. L’exemple soigneusement décrit plus tôt va maintenant nous être utile pour comprendre pourquoi.

    Les capacités cognitives de frère cadet englobent tout ce qu’il est capable de faire. Essentiellement, lorsque frère cadet parle et utilise le français dans sa vie de tout les jours, il ne fait pas que manipuler des symboles suivant des règles formelles comme il le fait lorsqu'il se trouve dans la Pièce Chinoise.

    Autrement dit, quand il joue le software implémentant l'algorithme, il ne comprend pas le mandarain comme il comprend le français; il y a donc une différence fonctionnelle entre les capacités de frère cadet et du software même, et cette différence fonctionnelle ne trouve pas ses explications causales dans les computations.

    Encore une fois, le computationalisme est réfuté. Le problème facile ne sera donc pas entièrement résolu par la toute-puissante computation, ce qui est comme dire que la rétro-ingénieurie de la cognition humaine ne peut se réduire à la rétro-ingénieurie du bon software.

    ReplyDelete
  2. Comme nous en avons beaucoup parlé au dernier cours afin d'expliquer l'impact de l'argument de la pièce chinoise de Searle, je crois qu’il est important d’expliquer la hiérarchie des tests de Turing. Bien qu’il existe 5 niveaux, les 4 premiers sont ceux qui nous intéressent.

    Tout d’abord, je vais décrire le t1, avec un « t » minuscule, car ce n’est pas encore le niveau du test de Turing. On peut le comparer à un jouet. Ce jouet est capable d’imiter une ou des capacités isolées de l’humain. Par exemple, un jouet qui peut jouer aux échecs.

    Le T2 est plus avancé. Verbalement, il peut faire tout ce que l’on peut faire. Il peut donc résoudre des problèmes, réussir des tests écrits et parlés, etc. Si quelqu’un correspondait par courriel avec un T2, il ne se rendrait jamais compte qu’il ne parle pas avec un humain.

    Le T3 est encore plus avancé. Il peut faire tout ce qu’on peut faire, à la fois verbalement et physiquement, c’est-à-dire qu’il a les mêmes capacités langagières et motrices que nous. Il peut parler, voir, entendre, sentir, se déplacer, etc. Il s’agit d’un robot, ayant les mêmes fonctions que nous.

    Le T4 vient ajouter à cela que, en plus de pouvoir faire tout ce que le robot T3 fait, il serait également semblable à nous du point de vue cérébral. Il aurait un cerveau synthétique, avec des neurones, des synapses, etc. Il est donc semblable à nous à la fois fonctionnellement et structurellement. La seule différence entre T3 et T4 est le matériel.

    Cette échelle ne fait état que des capacités d’agir de l’humain, c’est-à-dire qu’elle décrit les différents tests du point de vue du problème facile, qui cherche à comprendre le comment et le pourquoi de la capacité de faire de l’humain. Toutefois, l’échelle peut également servir à discuter du problème difficile, qui cherche à comprendre le comment et le pourquoi du ressenti. En effet, plusieurs débattent pour savoir si le ressenti est présent chez le T2, le T3 ou le T4. Il n’y a pas de consensus pour l’instant.

    ReplyDelete
    Replies
    1. This comment has been removed by the author.

      Delete
    2. Bonjour bonjour =) Comme il est tard, je vais reprendre ton argument pour poursuivre le miens, le tient étant un excellent résumé.

      Searle va vouloir montrer que compitation =/= cognition et qu'en fait la façon de comprendre la cognition est en étudiant les neurosciences. Il met en avant une forme forte de la thèse computationnelle comme il l'appelle forte intelligence artificielle. C'est en fait le computationalisme et selon à la cognition computationalisme est juste le calcul et donc bien sûr le la mise en œuvre physique du matériel est sans rapport avec la physique de la dynamique de le matériel est sans importance le seul Ce qui est pertinent est quel programme qu'il met en œuvre et le Turing test est le test décisif de savoir si ou pas le calcul ont réussi à générer toute la cognition dans un tel façon que les gens ne peuvent même pas le distinguer pour la cognition réelle. Searle teste si t2 est passé par le calcul seul suffit pour toutes les théories. Cela signifie qu'il y a plus que là peut être plus d'une façon d'expliquer les données et dans le cas de l'ingénierie inverse comme dans la cognition, il peut y avoir plus d'une façon réussie de passer un Test de Turing. Searle teste l'une des façons que vous pourriez passer t2 dune manière purement computationnelle sans nécésairement en comprendre le sens. En autre, avec le test de la pièce chinoise.

      Delete
  3. J'aimerais revenir sur un point que vous avez abordé dans le dernier cours et que vous abordez dans votre article par rapport aux conclusions que tire Searle de sa situation fictive.

    Tout d'abord, l'exemple de la pièce chinoise permet de démontrer une faille importante dans le computationnalisme: La manipulation de symboles ne permet pas en elle seule la compréhension du sens de ces symboles. Cette découverte a été possible à l'aide du périscope de Searle. Par périscope, Searle entend que puisque la computation est indépendante du matériel, Searle lui-même peut devenir la machine de turing qui réalise le test de la pièce chinoise. En étant cette machine, Searle devrait pouvoir avoir accès en théorie aux états mentaux que cette machine aurait lors de la réalisation de cet algorithme. Searle démontre par la suite que s'il était dans une telle situation, l'application des règles sur des symboles chinois ne lui permettrait pas d'avoir une compréhension des symboles qu'il manipule. Selon lui, l'exemple de la pièce chinoise est en elle-seule suffisant pour démontrer que la cognition n'est pas du tout computation.

    Je trouve très intéressante votre réponse à cet effet. L'argument de la pièce chinoise permet de démontrer que la cognition n'est pas seulement la computation, mais ne permet pas de dire qu'il n'y a pas de computation dans la cognition. L'argument de la pièce chinoise permet de démontrer que la compréhension du sens des symboles ne relève pas de la computation, mais permet aussi de démontrer que certaines capacités du cerveau humain sont computationnelles. Il y aurait donc un autre processus plus complexe qui expliquerait d'expliquer le sens que nous attribuons aux opérations que nous effectuons.

    Cela permet donc de mettre le focus sur le cerveau humain. Ces propriétés semblent donc être uniques et permettre un processus de symbolisation qui ne relève pas de la computation.

    ReplyDelete
  4. Les sciences cognitives ne sont pas uniquement de la computation. C’est la conclusion que l’on tire après avoir compris ce que l’étude de Searle a apporté au monde.

    En fait, Searle a voulu réfuté le test de Turing en soulevant que ce dernier ne considère pas le fait qu’un humain ne connait pas tout, ne COMPREND pas tout. Ainsi, même si une machine peut avoir les mêmes capacités qu’un être humain, elle ne peut pas comprendre qu’elle ne comprend pas. De cette manière, Searle avance que pour avoir ce système de COMPRÉHENSION, la machine devrait être consciente. Par le fait même, le test de Turing ne devrait pas s’arrêter aux capacités cérébrales mais aussi à ses incapacités.

    L’exemple en question dans l’étude de Searle’s repose sur l’incapacité à un individu de parler chinois. En fait, si une machine ne peut pas réaliser une tâche, elle devrait être consciente qu’elle n’est pas en mesure de le faire. Cet exemple s’appelle le Chinese Room Argument (CRA). Cela dit, l’exemple de Searle ne contredit pas que les sciences cognitives ne soient pas de la computation comme le prouve le test de Turing, au contraire, de manière très indirecte, avec Searle on réalise que les sciences cognitives le sont mais elles sont aussi bien plus complexes. En fait, le spectre de la compréhension en fait partie et il présente un autre défi pour ce domaine des sciences.

    Les sciences cognitives c’est comprendre qu’il y a un mécanisme pour toutes tâches qui demandent réflexions (la capacité de penser), mais aussi de comprendre et de ne pas comprendre.

    ReplyDelete
  5. L’argument de la chambre chinoise de Searle a permis de prouver que la computation peut être exécutée correctement, sans pour autant qu’il y ait une compréhension des opérations effectuées. Il est donc impossible d’affirmer que la cognition n’est que de la computation puisque la compréhension fait partie des processus cognitifs.

    La définition de la computation discutée en classe devient donc contestable quant à un point en particulier. Il a été vu que la computation correspond à une manipulation de symboles suivant des règles préétablies et elle n’accorde de l’importance qu’à la forme de ces symboles, et non à leur sens. Bien qu’elle nécessite un matériel pour fonctionner, celui-ci peut varier (c’est selon cette propriété de la computation que Searle a pu devenir le matériel, et donc la machine, pour sa démonstration). Par contre, on dit que la computation est interprétable sémantiquement, c’est-à-dire qu’on peut en comprendre le sens. Cependant, par son argument, Searle a démontré qu’il arrivait à reproduire une machine de Turing passant son test, mais qu’il lui était impossible d’interpréter le sens des opérations qu’il effectuait. Alors soit ce n’était pas de la computation telle que définie qu’il réalisait, soit la définition même de la computation n’est pas exacte. On devrait plutôt la définir comme étant interprétable syntaxiquement, et non sémantiquement, puisque Searle pouvait ordonner les symboles correctement selon l’algorithme, c’est-à-dire selon la bonne syntaxe, mais ne comprenait pas leur sens.

    ReplyDelete

ISC1000-20, hiver 2018:  Catégorisation, communication et conscience Heure:  mardi 18h00-21:00 Salle du cours: PK-R250 (définitivement!!) E...