Le robot, espèce en voie d'évolution

Société Article
Au Gipsa-lab, le robot Nina apprend la communication verbale et co-verbale.
Au Gipsa-lab, le robot Nina apprend la communication verbale et co-verbale.
À Grenoble, informaticiens, linguistes, juristes, psychologues et autres scientifiques collaborent pour concevoir des robots sociaux qui viendront un jour seconder l’Homme dans son quotidien.
Pepper, Nao, Reeti… Ces noms ne vous disent rien ? Et pourtant, demain, ils vous tiendront peut-être compagnie à la maison. Après avoir conquis les environnements extrêmes dans l’espace et sous les mers, été utilisés pour la décontamination de sites industriels et de centrales nucléaires, s’être introduits dans les blocs opératoires, les robots s’invitent dans nos salons. À Grenoble, les chercheurs en robotique font gagner de l’autonomie à la machine pour la rendre "sociale", en développant ses capacités de décision, de mobilité, de perception et de communication. Damien Pellier est enseignant-chercheur à l’Université Grenoble Alpes (UGA), chargé de la plateforme cobotique au Laboratoire d’informatique de Grenoble (LIG). Contraction des termes "collaborative" et "robotique", cette branche de la technologie vise à produire des robots capables de travailler aux côtés de l’Homme pour alléger sa tâche sur la chaîne industrielle. "Tous les robots ne sont pas intelligents. Il y a ceux qui reproduisent une fonction, sans interaction avec l’Homme, et il y a les robots autonomes qui doivent prendre des décisions. Notre travail au LIG, c’est d’ajouter de l’intelligence aux robots dont les fonctions sont limitées", explique ce spécialiste de l’intelligence artificielle et de l’apprentissage automatique et robotique.

Au LIG, les chercheurs développent l’intelligence de Pepper (1er plan) et Baxter.
Au LIG, les chercheurs développent l’intelligence de Pepper (1er plan) et Baxter.

"Gimme that night fever…"

Le robot dont Damien Pellier développe l’intelligence s’appelle Baxter. Il a été conçu par la société Rethink Robotics pour effectuer des tâches de manutention.

Grand – il mesure 1m82 –, massif, avec de longs bras articulés, Baxter a un écran en guise de visage. Grâce à ses multiples capteurs, il s’adapte à son environnement, se redéploie de manière autonome en cas d’imprévu (matériel déplacé…) et détecte la présence humaine. "Baxter a un gros avantage : il n’est pas dangereux. Il s’arrête quand on s’approche de lui. On peut interagir avec lui et le manipuler directement. Si on appuie sur ses poignets, il devient mou. Notre challenge est de le programmer pour qu’un opérateur sans compétence informatique puisse lui apprendre une nouvelle tâche par manipulation directe." Une fois qu’on lui a montré une action à réaliser, Baxter apprend à la généraliser et à la répéter. Il est capable de soulever, déplacer et permuter des objets, et même, dans un registre moins industriel, de reproduire, sur "Night Fever" des Bee Gees, la chorégraphie de John Travolta dans "La Fièvre du samedi soir".

Comme dans "Avatar"

À quelques centaines de mètres du LIG, sur le domaine universitaire grenoblois, une équipe scientifique du Gipsa-lab s’est fixé pour mission de faire communiquer les robots à la manière des hommes. Gérard Bailly et Frédéric Elisei s’intéressent à l’interaction verbale et co-verbale avec le robot. "Nina est un robot iCub2.0 produit par l’Institut italien de technologie de Gênes. Il a été conçu pour correspondre à la morphologie d’un enfant de 4-5 ans et possède à l’origine 53 degrés de liberté. Nous en avons rajouté cinq", détaille Gérard Bailly. Le modèle original n’a ni lèvres, ni mâchoire. "Nina hoche la tête, fait des bruits de bouche et de respiration. Nous avons retravaillé sa tête de manière à ce qu’elle puisse parler : il y a quatre moteurs rien que pour les lèvres. Nous travaillons aussi sur l’audition et les paupières." Comment surmonter les contraintes physiques du robot et le doter de comportements sociaux qui faciliteront son interaction avec l’Homme, celle-ci passant aussi par les gestes, le regard et les expressions faciales ? Pour relever ce défi, le Gipsa-lab développe une plateforme de "téléopération immersive" dans le cadre du projet Sombrero, financé par l’Agence nationale de la recherche (ANR). Comme dans "Avatar", le film de James Cameron, où le héros téléopère une créature géante, ici, le chercheur s’incarne dans Nina, petit robot d’un mètre, en s’équipant d’un casque de réalité virtuelle. Grâce à des caméras intégrées aux yeux mobiles du robot et envoyées sur le casque, le pilote dispose du champ de vision du robot tout en contrôlant ses gestes.

Comment surmonter les contraintes physiques du robot et le doter de comportements sociaux qui faciliteront son interaction avec l’homme ?
"L’enjeu est de capturer l’ensemble des mouvements effectués par le pilote, comme par exemple le mouvement de ses yeux, et de les reporter sur Nina", explique le directeur de recherche CNRS. "Notre particularité dans le panorama français et international de la robotique, c’est que nous faisons de l’apprentissage de comportements interactifs par démonstration. Le pilote est un véritable tuteur qui démontre par l’exemple au robot des comportements sociaux adéquats." Grâce à cette somme d’expériences, Nina construit des modèles de comportements et s’autonomise. L’objectif du projet Sombrero est d’utiliser le robot dans le dépistage de la maladie d’Alzheimer. À l’image du Visiotest qui décèle les anomalies visuelles les plus fréquentes, Nina pourrait faire passer de manière systématique des tests neuropsychologiques standard à toute une classe d’âge – avec une attention constante et à un moindre coût –, sans mobiliser du personnel spécialisé qui pourrait ainsi se consacrer aux soins des personnes dépistées.

Coach et confident

Programmée pour des interactions courtes et répétitives dans un cadre professionnel, Nina se distingue des robots "compagnons" qui sont au coeur des travaux de Sylvie Pesty, enseignante-chercheuse UGA spécialisée en robotique sociale au LIG. Ces derniers ont vocation à accompagner les personnes dans leur quotidien, que ce soit à la maison ou au travail.

"Il faut développer des applications pour que les robots deviennent réellement utiles. Tant qu’ils ne sont pas utiles, ce n’est même pas la peine de chercher à leur mettre du social", note-t-elle. Dans le projet ANR lancé en 2012, "Mon petit monde de compagnons artificiels" (MoCA), Sylvie Pesty et son équipe ont identifié cinq situations où le robot pourrait accompagner un enfant d’une dizaine d’années restant seul à la maison. Il trouverait son utilité en endossant différents rôles allant du conseiller au confident en passant par le copain de jeu, le coach ou le professeur. Une expérimentation d’envergure a été réalisée à Brest avec le laboratoire LAB-STICC, partenaire du projet. Pendant une demi-heure, l’enfant restait seul dans un appartement équipé de robots et de personnages virtuels qui lui proposaient des activités : faire de la géométrie, jouer de la batterie, etc. "On a vu auprès des enfants et de leurs parents que l’utilité et l’acceptabilité du robot étaient proches. Mais une question demeure : au-delà de l’effet de nouveauté, sera-t-on capable de supporter le robot compagnon à long terme ?", se demande-t-elle, soulignant que, dans cette construction d’une société hybride, la relation entre l’Homme et la machine est "à inventer".

Révolution culturelle

Les chercheurs ont constaté que le robot active chez nous des comportements sociaux calqués sur les relations humaines. "Il a le pouvoir de déclencher en nous de l’empathie. L’objet-robot devient sujet. Nous parlons d’illusion empathique. Le robot social n’est pas une révolution technologique, c’est une révolution culturelle féroce !", estime Véronique Aubergé, chercheuse CNRS au LIG. Informaticienne et linguiste, elle est responsable du Living lab DOMUS, une plateforme expérimentale qui reconstitue un appartement pour observer comment les gens interagissent avec les nouvelles technologies. Dans ce cadre, Emox, un petit robot non humanoïde qui gère les commandes de la maison, est testé auprès des personnes âgées. "Il émet des petits bruits. Notre hypothèse est que ces bruits primitifs sont perçus comme altruistes. Ils peuvent créer un attachement et raviver chez les personnes âgées et isolées un désir de communiquer", explique-t-elle. Dans ce type de situations, la chercheuse ne doute pas de l’utilité du robot, mais elle insiste néanmoins sur la nécessité de cadrer les risques liés à ces nouvelles technologies dont on ignore les effets sur le long terme, avant de vouloir les rendre plus performantes. "Il faut travailler tranquillement, modestement, appliquer une méthodologie rigoureuse, observer, mesurer, mais aussi provoquer un débat public pour que les gens s’emparent de ces questions", estime-telle, fervente partisane d’une "science consciente".

Vallée de l’étrange

Pour optimiser les chances des robots de bien "s’intégrer" à l’usine, dans les hôpitaux, ou dans nos maisons, les programmateurs travaillent étroitement avec les sciences humaines et sociales. Michel Dubois, enseignant-chercheur UGA au Laboratoire interuniversitaire de psychologie (LIP), évalue les modèles que développent ses collègues du LIG et du Gipsa-lab. En utilisant plusieurs variables, il regarde quelles sont les ressources et les contraintes qui favoriseront l’acceptation ou le rejet de ces technologies. "Le grand changement avec les robots personnels, c’est qu’ils cohabitent avec nous, comme des agents semi-humanisés. Ils interagissent physiquement, ils se déplacent dans notre espace. Ils entrent en relation et en concurrence avec l’humain", analyse-t-il.

À charge pour les concepteurs de ne pas pousser trop loin leur humanisation, au risque de les perdre dans "la vallée de l’étrange". Cette notion inventée dans les années 1970 par le roboticien japonais Masahiro Mori désigne l’impression d’angoisse ressentie dès lors qu’un objet revêt une apparence trop anthropomorphique. "Au début, la vallée de l’étrange faisait référence à l’aspect physique, maintenant, elle porte plutôt sur l’autonomie, la prise de décision, l’intention." Aujourd’hui, les développeurs doivent trouver un juste milieu. "Trop soumis, le robot risque de lasser. Mais s’il a de l’intention, alors il faut que l’Homme soit capable de l’apprivoiser, de le contrôler", poursuit-il. "La grande peur, c’est que le robot nous déborde."


Responsabilité juridique

Sans forcément aller jusqu’à imaginer le pire, les chercheurs s’accordent pour dire que le robot intelligent va modifier notre positionnement face à l’objet. Son autonomisation et son déploiement parmi nous soulèvent des questions sociétales fondamentales. Outre le fait que ces machines collectent des données, ce qui interroge notamment sur les risques d’atteinte à la vie privée, les robots, à l’instar de la voiture autonome, appellent à une réflexion sur leur statut juridique.

"S’il y a dysfonctionnement, qui est responsable juridiquement ? Et sur quel code, sur quels principes juridiques, va-t-on s’appuyer pour définir cette responsabilité ?", se demande Anne-Marie Benoît, ingénieure de recherche CNRS et juriste au laboratoire Pacte. Un rapport du Parlement européen paru en mai 2016 recommande la création d’une personnalité juridique pour les robots afin que "les plus sophistiqués" puissent être considérés comme des "personnes électroniques".

Aujourd’hui, la conception des robots personnels n’est encore qu’à ses débuts, le dialogue Homme-machine est balbutiant, mais, on l’a vu par le passé avec l’informatique et les réseaux, la technologie peut aller très vite. Et Michel Dubois de conclure : "Le jour où Baxter sera capable d’apprendre par lui-même, par essai et par erreur, et d’emmagasiner de plus en plus de connaissances, on sera obligé d’admettre qu’il n’est plus simplement un programme. Cela va interroger la psychologie… Une somme d’expériences, de perceptions, suffisent-elles à créer une conscience ?"


Publié le14 novembre 2016
Mis à jour le28 novembre 2016