L’homme, la machine et les Zombies 2/2
Je vous conseille de lire la première partie du texte : L’homme, la machine et… les Zombies 1/2 à laquelle je ferai référence dans ce texte.
Sayonara de Hirata Oriza ou comment il faudra prévoir un jour des psychanalystes pour robots… ?
J’ai eu connaissance de cette courte pièce il y a quelque temps qui s’est jouée au théâtre de Genevilliers.
Oriza Hirata [11 - 12 octobre à 19h30] Sayonara (au revoir)
Il m’a semblé intéressant de prendre cette pièce comme en quelque sorte, « le pendant artistique » de ce que le reportage, auquel je faisais allusion dans la première partie du texte, montrait au sujet des robots dits thérapeutiques. Vous pouvez voir le reportage ici : http://www.dailymotion.com/video/xlaeno_les-robots-therapeutiques-1-3_tech
Cette pièce Sayonara met en scène deux personnages, dont l’un est « incarné » par F Geminoid, un androïde conçu par le laboratoire Ishiguro, à l’université d’Osaka.
C’est un court dialogue entre ces deux personnages où cet androïde « joue » un robot acheté par un père pour sa fille atteinte d’un mal incurable. Le robot est ainsi censé l’accompagner dans sa maladie, notamment en lui déclamant des poèmes. Même si le robot se défend de pouvoir répondre à certaines questions existentielles, ce qui m’a retenu dans le dialogue, c’est que c’est ce robot, au travers de poèmes, tente finalement de fournir à la jeune fille mourante des mots pour décrire ce qu’elle ressent à l’approche de sa mort, dans le but de tenter de la soulager.
Le « vrai » robot, F Geminoid, a donc été conçu par Hiroshi Ishiguro. Et c’est ce même laboratoire que Tisseron a visité en 2009 ; et dont il dit que la visite l’a bouleversé, toujours dans son article « De l’animal numérique au robot de compagnie : quel avenir pour l’intersubjectivité »[1]. D’où le lien entre les robots en forme de phoques appelés, Paro, et F Geminoid : un même créateur, Hiroshi Ishiguro.
Tisseron nous explique dans son article qu’Hiroshi Ishiguro conçoit ces androïdes, non comme des machines, ni même des animaux, mais comme des enfants. S’inscrivant d’une certaine manière dans la même lignée qu’Asimov qui expliquait dans la préface de son recueil Les Robots, qu’il en avait assez des histoires de robots qui, tels des Frankenstein, venaient détruire en retour leurs créateur, Ishiguro pense que les robots ne doivent pas apparaître comme potentiellement menaçants. D’où sa volonté de leur donner une apparence fragile, comme celle d’un jeune enfant, ou celle d’une jeune femme, telle que F Geminoid. « Bien sûr, sa force est très supérieure à celle d’un humain, mais son apparence doit évoquer l’innocence, la fragilité et surtout l’incomplétude. »[2] »
Tisseron nous parle également de la technique d’apprentissage qu’Ishiguro a implanté chez ses robots. Un apprentissage via le sourire de « la mère » en charge du robot. Car en effet Ishiguro a mis au point un système complètement inspiré des recherches sur les interactions précoces développementales (Si vous voulez en savoir plus : Etude sur le courant de recherche des interactions précoces – première partie et Etude sur le courant de recherche des interactions précoces – dernière partie ) qui passe par le sourire de la personne en charge du robot.
« […] Hiroshi Ishiguro a encore accompli un pas de plus, qui mobilise chez moi, je l’avoue, un mélange d’admiration et d’effroi. Il a eu l’idée que le propriétaire du robot éduque celui-ci… par son sourire. Bien évidemment, cette idée a dû lui être soufflée par quelques psychiatres. Les spécialistes de la petite enfance savent combien les émotions maternelles sont un repère essentiel dans la construction de la vision du monde et de lui-même par le bébé. Par exemple, il tente de marcher et tombe. Que fait-il en premier ? Essayer de se redresser ? Pas du tout : il cherche d’abord le visage de sa mère. Si celle-ci lui sourit, il se remet debout et recommence à marcher. Mais si celle-ci semble inquiète ou lui manifeste de la colère, le bébé s’immobilise et pleure. Dans le premier cas, il acquiert de la confiance en lui et dans son environnement et il se trouve gagnant à la fois du point de vue de ses apprentissages et de son estime de lui même. Dans le second cas, au contraire, il est insécurisé et risque d’inhiber ses capacités d’exploration. […] Hiroshi Ishiguro a […] décidé d’appeler la personne en charge de l’éducation du robot sa « mère ». »
Tisseron note donc combien l’empathie envers ce type de robots a des chances de se construire, et combien le sentiment d’attachement envers la machine sera ainsi sollicité. Ce lien d’attachement qui se mettra progressivement en place aura des conséquences encore difficiles à anticiper aujourd’hui. Et finalement, il ne peut que générer une espèce de fascination, et peut-être également de la peur. Un peu comme cette peur attachée aux jeux vidéo (ces fameux « mondes numériques » dont ‘on’ nous dit qu’ils proposent des espaces parfois plus intéressants que « la réalité »), ces êtres qui évolueront auprès de nous, qui nous seront entièrement dévolus, mais qui par contre ne seront pas nécessairement soumis comme les enfants réels à une loi obligeant à les éduquer ou à les socialiser (donc à les voir un jour partir et nous quitter), ne produiraient-ils pas le désir chez leurs propriétaires de se détacher progressivement des autres sujets humains qui les entourent pour préférer la compagnie de ces androïdes ?
« Serons-nous plus ou moins humains lorsque nous serons capables de développer de l’empathie pour une machine ? Assurément ni l’un ni l’autre, mais la tentation sera probablement moins grande de chercher à communiquer avec des humains différents de soi dans la mesure où chacun pourra s’entourer d’un ou de plusieurs robots correspondant parfaitement à ses attentes et à son système de valeurs… Il est bien évident qu’au passage, les fameuses « lois » imaginées par l’écrivain de science-fiction Asimov sont balayées. Le propriétaire de chaque robot pourra lui apprendre ce qui lui fait plaisir, que cela soit licite ou non. Mais n’est-ce pas déjà la même chose avec les enfants ? Bien sûr, mais les enfants n’ont pas que leurs parents pour les éduquer, et encore moins exclusivement leur mère ! L’autre parent peut corriger les effets nocifs ou antisociaux du parent privilégié, et l’école les modifie encore ensuite. Si le système développé aujourd’hui par Hiroshi Ishiguro devait être appliqué à large échelle, j’imagine qu’il faudrait prévoir un correctif : programmer les robots pour qu’ils s’autoconnectent régulièrement sur Internet de manière à entrer des données susceptibles de corriger une éventuelle éducation « maternelle » déviante ou pathologisante. Bref, une sorte d’école des robots parallèlement à leur éducation familiale ! »
Finalement, c’est notre rapport à la castration qui est encore une fois mobilisé avec ces robots-enfants potentiellement entièrement dévolus aux caprices et plaisirs de leur « parents »…
http://www.youtube.com/watch?v=9q4qwLknKag&feature=related
http://english.ntdtv.com/ntdtv_en/ns_asia/2010-11-14/620076791678.html
De l’amour primaire … avec les machines ?
D’où une réflexion annexe…
Peut-être que le primary love des Balint existe finalement… mais seulement dans l’ordre de ces relations homme-machine, où l’homme fait tout pour que la machine fonctionne, qui le lui rend bien. Ce serait une piste à creuser…
Je pense ainsi au chapitre « Objet et Sujet » du livre de Michael Balint Les voies de la régression (vous pouvez trouver la même réflexion également dans son livre le défaut fondamental »). Balint part en effet de la constatation que dans ce qu’on appelle la régression en psychanalyse, on peut mettre au jour un fantasme, celui « d’une harmonie primaire qui nous reviendrait de droit et qui aurait été détruite, soit par notre faute, soit du fait des machinations d’autrui, soit par la cruauté du destin. »[3]
La croyance en cet état où tous les désirs seraient satisfaits et qu’il n’y aurait plus de manque, qui se retrouve dans un certain nombre de religions par exemple, serait selon lui la visée ultime de toute aspiration humaine. Balint déduit également de l’expérience de la vie sexuelle, et de l’orgasme en particulier, qu’il existe bien un état où la satisfaction tirée de cette harmonie parfaite entre le sujet et son environnement et qu’il est quasiment atteint dans ces expériences.
Il reprend ce point à Sandor Ferenczi qui pense que l’orgasme est la situation parfaite de réciprocité, l’identité parfaite des intérêts entre les partenaires, et donc entre l’individu et son environnement. La théorie de l’amour primaire de Balint, lui permet de sortir selon lui, de l’aporie de la théorie du narcissisme primaire où le monde extérieur n’existerait pas. Elle lui permet donc de dire que le monde extérieur existe, mais qu’il y a surtout une harmonie primaire entre le sujet et le monde qui l’entoure. A partir de cette description de l’amour primaire, il va concevoir la notion d’objet primaire, qui sera dans le développement du sujet, le succédané de cette période bienheureuse, alimentant l’idée de l’existence d’un objet harmonieux et entièrement satisfaisant pour le sujet. Ce qui deviendra par la suite le prototype, le paradigme de toute relation d’objet. Paradigme que Lacan récusera en reprenant le thème lors de son séminaire de 1956-1957. Lire à ce propos mes notes sur ce séminaire par ici : Notes sur le Séminaire LA RELATION D’OBJET – Introduction (21/11/1956)
Il me semble que la construction du fantasme d’une symbiose avec la machine, dont le texte de Joseph Carl Robnett Licklider (dont j’ai parlé en première partie) est une étape importante, peut être proche de ce fantasme d’un « amour primaire », où les deux protagonistes seraient dans une harmonie parfaite.
On rejoint enfin par-là les réflexions de Tisseron autour de ce qu’il appelle « l’accordage multisensoriel précoce » d’où s’originerait notre désir d’immersion. Ce concept d’accordage provient des recherches en psychologie du développement sur les interactions précoces entre le bébé et ses parents. Il s’agit pour les deux protagonistes de ce dialogue, pour reprendre les termes de Tisseron : « d’éprouver le plaisir de l’interaction et de l’immersion dans une émotion partagée. »[4]
Ce concept d’accordage permet ainsi à Tisseron de placer comme source d’un certain nombre d’interactions que les adultes auront dans leur vie, et donc celles que peut chercher avoir un joueur avec sa machine, « le désir du bébé d’entrer en contact avec l’état mental de son interlocuteur. »[5] « La relation avec l’ordinateur renoue avec le plaisir partagé et gratuit des premiers accordages. »[6] En d’autres termes, la machine devient cet Autre censé s’accorder harmonieusement à tous mes désirs, comprenant ce que je désire, et me le livrant au moment où je le veux. On est proche, encore une fois, de ce qu’a décrit Freud à propos des premières expériences de satisfaction du bébé, et que Winnicott développera avec les phénomènes transitionnels.
Frédéric Kaplan et ses expériences de pensée appareillées
Pour finir, je voudrais faire quelques liens avec un chercheur en robotique qui se nomme Frédéric Kaplan. Car en lisant son article « Le corps comme variable expérimentale »[7], j’ai eu l’impression de retrouver l’hypothèse qui sous-tend globalement ce texte et qui relier les différents phénomènes cités, à savoir l’importance centrale du corps et les différentes figures de la subjectivation de celui-ci au sein même de nos relations avec les machines, notamment ce que j’essaierai de développer plus tard au sujet du « corps érotique », ce corps vécu par chaque sujet, construit dans la relation avec l’Autre.
Certes, ce que Kaplan étudie dans son article, ce sont des expériences avec des robots seuls. Mais il y montre l’importance du corps chez les robots eux-mêmes. Il m’a semblé donc tout à fait intéressant de souligner qu’un chercheur en « intelligence artificielle incarnée », puisse développer cette idée au travers même de ses recherches sur les robots, et ceci afin de résoudre des problèmes de robotique, mais aussi engager une réflexion plus générale.
De l’importance de l’incarnation… chez la machine elle-même
Car en effet, Kaplan se propose d’utiliser des robots pour étudier des questions qui dépassent le simple cadre de la robotique ou de l’intelligence artificielle. Il a pu étudier précédemment le développement d’une sorte de langage de communication chez les robots.
« Nous voudrions montrer que l’enjeu de ces expériences dépasse la simple communication scientifique, et que le travail de modélisation avec les robots permet de dégager des concepts nouveaux, difficilement approchables par d’autres méthodes. »[8]
Les origines de la robotique remontent finalement très loin dans l’histoire des hommes et de leur relation avec les machines qu’ils se construisent. Le 18ème siècle fut par exemple un siècle particulièrement important dans la construction d’automates par des ingénieurs, tels que l’horloger Pierre Jaquet-Droz et sa musicienne, ou encore Jacques de Vaucanson, avec son fameux canard capable de manger et de digérer, ou encore son joueur de flûte traversière pouvant exécuter différents airs de musique.
Mais avec l’arrivée des ordinateurs numériques, une nouvelle discipline naît autour de ce que l’on va nommer désormais l’Intelligence Artificielle. Cette discipline va ainsi radicaliser une perspective qui se dessinait autour des possibilités des automates. En effet, après le 18ème siècle, « les dispositifs mécaniques permettant la programmation se multiplient […]. Les procédés d’animation se développent sous la forme de modules toujours plus indépendants du corps mécanique de l’automate. »[9] Ainsi, le corps de l’automate que l’on appellera désormais, robot, progressivement ne va plus faire partie du domaine de l’IA, qui s’intéressera de son côté seulement aux algorithmes permettant de décrire, de programmer, les comportements des corps eux-mêmes, c’est-à-dire des robots.
Au fil des années, l’IA et la robotique vont de plus en plus diverger, comme deux disciplines bien différentes. D’un côté, nous aurons des recherches en robotique qui développeront des machines de plus en plus perfectionnées, dans des environnements industriels, en somme ce que Kaplan appelle « des corps sans intelligence », tandis que la majorité des chercheurs en IA tenteront de développer quant à eux, « des intelligences sans corps ».
En effet, « de nombreux chercheurs en intelligence artificielle en particulier ne considèrent plus l’incarnation comme une composante essentielle de leur recherche. Ils préfèrent concentrer leur effort sur la modélisation de comportements cognitifs humains complexes, ou encore élaborer des modèles de l’intelligence humaine adaptés au diagnostic médical, à la preuve de théorèmes mathématiques ou aux jeux de société. Ces algorithmes viennent soutenir une vision de l’intelligence humaine comme étant avant tout un système de manipulation de symboles (Haugeland, 1985). La psychologie cognitive s’empare de cette hypothèse soutenant que ce type de processus de traitement de l’information rend mieux compte des mécanismes de l’intelligence que ne font les théories comportementalistes très influentes outre-Atlantique. Les hypothèses cognitivistes et computationalistes, stipulant que la pensée est réductible à un ensemble de calculs symboliques, s’imposent (Fodor, 1987). Le corps, quant à lui, est oublié, irrémédiablement séparé des mécanismes de l’intelligence. »[10]
Le corps est ainsi progressivement oublié dans les conceptions issues de la psychologie cognitive qui s’inspirent elles-mêmes des apports de l’intelligence artificielle. Dans les recherches en intelligence artificielle, le problème de ce schisme va progressivement apparaître et devenir très gênant, lorsque les chercheurs vont tenter d’utiliser les robots, non plus dans des environnements parfaitement contrôlés et prédictibles, mais au sein d’environnements changeants. « Les algorithmes d’intelligence artificielle conçus pour manipuler des symboles définis a priori et non ambigus se révèlent fortement inadaptés à la complexité et l’imprévisibilité du monde réel. »[11]
Les problèmes comme celui de faire marcher un robot deviennent alors particulièrement difficiles à résoudre, car ils demandent de modéliser à la fois le corps du robot et l’environnement dans lequel il évolue. Or lorsque ce dernier est inconnu, comment faire…
Cette impasse donnera le jour à un nouveau courant, appelé l’Intelligence Artificielle incarnée (embodied artificial intelligence) à la fin des années 80, autour de chercheurs comme Rodney Brooks, Luc Steels et Rolf Pfeifer, qui mettent l’accent cette fois sur l’interaction directe du corps du robot avec l’environnement, comme c’était le cas avant l’avènement et la diffusion des ordinateurs numériques. Kaplan précise ainsi que les fameuses « tortues » cybernétiques de Grey Walter devinrent à nouveau des modèles dans les méthodes de conception et d’expérimentation de cette nouvelle approche.
La machine comme pôle opposé de l’homme ?
Rappelons que Lacan citait Grey Walter dans son séminaire en 1954 où la cybernétique tenait une grande place pour tenter d’approcher ce qu’était la parole et le langage.
On pourrait soutenir que Lacan usait ainsi de ce rapprochement avec la cybernétique de son époque, pour essayer de saisir, de penser par différence avec la machine, la frontière entre les relations que l’homme peut entretenir avec le langage et celles que les machines pourraient avoir elles-mêmes avec le langage et la parole.
Rappelons que pour le philosophe Pierre Cassou-Noguès c’est à partir de Descartes, et ensuite, de Turing, que l’imaginaire a changé autour de la conception que l’on peut avoir de la machine, précisément vis-à-vis de la parole, et des émotions. « […] le paradigme de la machine, pour Descartes et dans l’imaginaire classiques, est une horloge, c’est-à-dire un automate qui, une fois mis en branle, possède en lui-même le principe de son mouvement. En revanche, le modèle auquel nous pensons avec le robot est l’ordinateur, la machine à calculer. […] Le robot pour nous est d’abord un cerveau. […] Les machines classiques […] sont susceptibles de manifester toutes sortes d’émotions, la joie, la tristesse, la colère ou l’amour. C’est à cela qu’on les distingue des êtres humains : les robots, pour Descartes, ne peuvent pas user du langage humain. […] Les robots de la science-fiction sont alors à l’opposé des robots cartésiens. Nos robots imaginaires sont capables de parler et, du point de vue de la parole, rien ne les distingue d’un être humain. Mais ils ne peuvent pas exprimer d’émotion. »[12]
Dans son séminaire, Lacan pose ceci, que le seul désir possible d’une machine reste pour le moment, l’alimentation, sa survie en quelque sorte via son énergie :
« Je vous ai montré les conséquences de ce cercle quant au désir. Entendons-nous – quel pourrait être le désir d’une machine, sinon celui de repuiser aux sources d’énergie ? Une machine ne peut guère que se nourrir, et c’est bien ce que font les braves petites bêtes de Grey-Walter. Des machines qui se reproduiraient, on n’en a pas construites, et pas même conçues – le schéma de leur symbolique n’a même pas été établi. Le seul objet de désir que nous puissions supposer à une machine est donc sa source d’alimentation. »
Mais quand bien même cet état de fait, si chacune des machines est réglée sur le fonctionnement de l’autre en tant qu’elle ira chercher de l’énergie au même point que l’autre, autrement dit qu’elles aient toutes le même objet de désir, cela risque de produire des collisions entre elles. Et qu’ainsi, il faut supposer, comme chez l’homme, une instance régulatrice symbolique, qui est le langage.
« Eh bien, si chacune est fixée sur le point où l’autre va, il y aura nécessairement collision quelque part. C’est à ce point que nous étions parvenus. Supposons maintenant à nos machines quelque appareil d’enregistrement sonore, et supposons qu’une grande voix – nous pouvons bien penser que quelqu’un surveille leur fonctionnement, le législateur – intervient pour régler le ballet qui n’était jusqu’à présent qu’une ronde et pouvait aboutir à des résultats catastrophiques. Il s’agit d’introduire une régulation symbolique, dont la sous jacence mathématique inconsciente des échanges des structures élémentaires vous donne le schéma. La comparaison s’arrête là, car nous n’allons pas entifier le législateur – ce serait une idole de plus. »[13]
Je crois donc que c’est une démarche assez similaire que Lacan, dans ce séminaire sur le moi dans la théorie de Freud et dans la technique de la psychanalyse, et Kaplan proposent, à la différence importante que Kaplan propose de réaliser l’expérience concrètement, mais aussi que je suis à peu près certain qu’ils ne seraient pas d’accord sur les résultats.
Kaplan a en effet travaillé sur la construction d’une sorte de langage chez des robots. Les robots mis en œuvre étaient en mesure de se mettre progressivement d’accord sur certains mots désignant leurs activités. Mais je souhaitais ici faire surtout ressortir l’intérêt de la démarche que Kaplan poursuit dans un livre qui vient de sortir L’homme, l’animal et la machine, écrit avec le biologiste Georges Chapouthier.
« le corps comme variable expérimentale »
Mais retrouvons pour le moment son article « le corps comme variable expérimentale ». Après cette période où le corps fut oublié. Et alors que certains chercheurs en IA construisent des algorithmes toujours plus sophistiqués, capables de battre aux échecs certains champions, d’autres chercheurs construisent « des robots capables d’apprendre comme le font les jeunes enfants. L’idée n’est pas nouvelle, puisqu’elle était exprimée par Alan Turing dans ce qui a été un des articles fondateurs de l’intelligence artificielle (Turing, 1950), mais la perspective ‘sensori-motrice’ développée par l’intelligence incarnée lui donne une dimension inédite. »[14]
Au sein de cette branche de l’intelligence artificielle qui a fait rentrer le corps du robot dans son champ de recherche, Kaplan met en avant certaines recherches menées par des « chercheurs en robotique ‘développementale’ ou ‘épigénétique’ »[15] qui consistent à identifier « un processus indépendant de tout corps, de toute niche écologique et de toute tâche particulière. »[16] C’est une sorte d’algorithme qui pousse le robot à développer ses aptitudes, qui le « motive » à apprendre.
« En distinguant ainsi un processus d’incarnation général et des espaces corporels particuliers, les développements les plus récents de la robotique épigénétique conduisent à reconsidérer le corps sous un autre angle »[17]. Et c’est précisément là que l’article m’a semblé le plus intéressant dans les analogies possibles.
En effet, en s’apercevant de la nécessité de construire des robots dotés à la fois d’un algorithme général, une sorte de noyau stable toujours identique, et de ce que Kaplan appelle « des espaces corporels périphériques », ces chercheurs conçoivent des machines qui apprennent par exemple à marcher, sans que ces derniers ne soient conçus expressément pour apprendre à marcher.
Plus surprenant encore, ce type de robot apprend à marcher en fonction du corps dont il est doté. On pourrait dire qu’il explore tout d’abord les potentialités du corps dont il dispose, et cela au sein d’un terrain inconnu, via l’algorithme général qui a été conçu de telle façon qu’il calcule les situations dans lesquelles il peut effectuer les meilleures prédictions quant aux effets de certains mouvements réellement effectués (les signaux de sortie). Je ne m’étendrai pas sur la complexité d’un tel algorithme, mais il faut insister sur le fait que le robot n’était pas doté d’un algorithme ayant pour objectif d’apprendre à marcher, et que c’est finalement la morphologie du robot, en lien avec le terrain dans lequel il va évoluer, qui va constituer « la variable expérimentale » que l’on peut donc faire varier à l’envi pour en étudier les effets.
Au final, « Dans ce nouveau dualisme méthodologique, il s’agit de séparer une enveloppe corporelle potentiellement variable correspondant à un espace sensori-moteur donné et un noyau d’entraînement, ensemble de processus généraux et stables capables de contrôler n’importe quelle interface corporelle. En distinguant ainsi un processus d’incarnation général et des espaces corporels particuliers, les développements les plus récents de la robotique épigénétique conduisent à reconsidérer le corps sous un autre angle. »[18]
Je voudrais conclure ici sur l’analogie que j’aimerais faire entre ce type de recherche en robotique et ce que la psychanalyse peut avancer. D’une part, je trouve remarquable que la robotique et l’intelligence artificielle finissent par reconnaître cette place centrale à l’incarnation dans le développement d’une certaine intelligence aux robots, et d’autre part qu’ils fournissent dans une certaine mesure un cadre expérimentale à ce type d’étude. « Plus qu’une technologie des corps animés, la robotique apparaît alors comme science et pratique de l’incarnation. »[19]
Enfin, et c’est là que se trouve le lien avec nos Zombies et les « pré-conditions » dont j’ai parlé en première partie, il me semble que ce type de recherche rejoint ce qu’avance la psychanalyse, à savoir que le développement de l’intelligence, de nos capacités instrumentales, l’usage de la langue, sont en étroite liaison avec la manière dont nous habitons notre corps.
Et je laisse à ce chercheur en robotique le soin de conclure :
« En effet, qu’est-ce que le développement si ce n’est une séquence d’incarnations successives : non seulement un corps en perpétuel changement, mais aussi des espaces corporels qui se succèdent les uns aux autres ? Chaque nouvelle compétence acquise change l’espace à explorer. La marche en est à nouveau un exemple illustratif. Une fois maîtrisée, elle permet à l’enfant l’accès à un nouvel espace de recherche.
Penser le corps variable, c’est aussi penser une notion de corps étendu capable d’incorporer les objets qui l’entourent sous la forme d’agencements transitoires. Dans cette perspective, outils, instruments de musique et véhicules sont autant d’enveloppes corporelles à explorer, sans différence fondamentale avec leur pendant biologique (Clark, 2004).
Enfin, en pensant le corps variable, ne pourrait-on pas considérer le raisonnement symbolique et la pensée abstraite comme autant de formes d’extensions corporelles ? Si, comme le suggèrent Lakoff et Nunez, il y a une correspondance directe entre la manipulation sensori-motrice et les raisonnements mathématiques les plus abstraits (Lakoff, Nunez, 2001), nous pouvons naturellement considérer que même les processus mentaux les plus « intérieurs » peuvent être pertinemment interprétés comme des enveloppes corporelles à explorer. L’usage de la langue elle-même ne pourrait-il pas être interprété comme une incarnation corporelle particulière (Oudeyer, Kaplan, 2006) ? »[20]
[1] http://www.cairn.info/resume.php?ID_ARTICLE=RFP_751_0149
[2] http://www.cairn.info/resume.php?ID_ARTICLE=RFP_751_0149
[3]Michaël Balint, Les voies de la régression, Payot, p.80
[4]Serge Tisseron, « Le virtuel, une relation », in L’enfant au risque du virtuel, Dunod, p.105
[5]Serge Tisseron, « Le virtuel, une relation », in L’enfant au risque du virtuel, Dunod, p.106
[6]Serge Tisseron, « Le virtuel, une relation », in L’enfant au risque du virtuel, Dunod, p.106
[7] http://www.pyoudeyer.com/kaplan-oudeyer-revuephilo.pdf
[8]Frédéric Kaplan, Pierre-Yves Oudeyer, « Le corps comme variable expérimentale », in Revue philosophique de la France et de l’étranger, 2008, n°133, p. 288
[9]Frédéric Kaplan, Pierre-Yves Oudeyer, « Le corps comme variable expérimentale », in Revue philosophique de la France et de l’étranger, 2008, n°133, p. 289
[10]Frédéric Kaplan, Pierre-Yves Oudeyer, « Le corps comme variable expérimentale », in Revue philosophique de la France et de l’étranger, 2008, n°133, p. 289
[11]Frédéric Kaplan, Pierre-Yves Oudeyer, « Le corps comme variable expérimentale », in Revue philosophique de la France et de l’étranger, 2008, n°133, p. 290
[12] Pierre Cassou-Noguès, Une histoire de machines, de vampires et de fous, Vrin, p.162 et 163.
[13] Lacan, Le moi dans la théorie de Freud et dans la technique de la psychanalyse , Seuil, 1978, p. 81
[14]Frédéric Kaplan, Pierre-Yves Oudeyer, « Le corps comme variable expérimentale », in Revue philosophique de la France et de l’étranger, 2008, n°133, p. 292
[15]Frédéric Kaplan, Pierre-Yves Oudeyer, « Le corps comme variable expérimentale », in Revue philosophique de la France et de l’étranger, 2008, n°133, p. 292
[16]Frédéric Kaplan, Pierre-Yves Oudeyer, « Le corps comme variable expérimentale », in Revue philosophique de la France et de l’étranger, 2008, n°133, p. 293
[17]Frédéric Kaplan, Pierre-Yves Oudeyer, « Le corps comme variable expérimentale », in Revue philosophique de la France et de l’étranger, 2008, n°133, p. 293
[18]Frédéric Kaplan, Pierre-Yves Oudeyer, « Le corps comme variable expérimentale », in Revue philosophique de la France et de l’étranger, 2008, n°133, p. 293
[19]Frédéric Kaplan, Pierre-Yves Oudeyer, « Le corps comme variable expérimentale », in Revue philosophique de la France et de l’étranger, 2008, n°133, p. 296
[20]Frédéric Kaplan, Pierre-Yves Oudeyer, « Le corps comme variable expérimentale », in Revue philosophique de la France et de l’étranger, 2008, n°133, p. 296 et 297
mot(s)-clé(s) : Frédéric Kaplan, Hirata Oriza, Hiroshi Ishiguro, Pierre Cassou-Noguès, serge tisseron
You can leave a response, or trackback from your own site.
[...] L’homme, la machine et les Zombies 2/2 [...]
[...] n’est pas si certain la question reste ouverte. Dans son article « L’homme, la machine et les Zombies 2/2 », Vincent Le Corre cite Lacan à propos de la [...]
[...] top: "+=100" }, "slow"); //.effect("bounce", { times: 5}, 300); }, 1000); }); vincent-le-corre.fr – Today, 8:57 [...]