AfI/IAf #3: “Do AIs need a body?” / “Les IAs ont-elles besoin d’un corps ?”

In this third article in the Artifakal Intelligence / Intelligence Artifaussielle series, I’ll discuss a common question in sci-fi culture: “do AIs need a body?“. Are robots always shiny humanoid entities, or should we widen our search field and consider more of the tech marvels around us as robots?

This article is also available on Medium.

To learn more about this project, read the introductory article.

Robots? AIs? Cyborgs?

When we think of robots, most of the times we picture a humanoid metallic being that quacks around and jiggles a bit, completely devoted to obeying humans, or conversely bent on destroy the human race. They walk among us smoothly, often indistinguishable from real humans and equipped with a super-intelligence that perfectly matches or even surpasses our own. To put it simply, in fiction, robots are an ensemble of both AI and mechanics marvels neatly tied together.

Still, robots are and have been present in our everyday lives for a long time now. Even though we don’t yet have the androids described in Asimov’s or Philip K. Dick’s novels, we have to remember that there are many types and many shapes of robots. Myths like the ones depicting the Greek god Hephaestus, stories about the golem or Mary Shelley’s Frankenstein show an ongoing fascination for machines all throughout human history: we have long been talking of artificially built autonomous beings meant to help, defy or otherwise interact with us.

Numerous sci-fi movies and books question our relationship to robots and our own human identity. For example, The Bicentennial Man (the 1999 movie adaptation of Isaac Asimov’s novel) stars Robin Williams as a robot that discovers human emotions and creativity.

Robotics are a complex field with many subdomains. Establishing a clear distinction between robots, artificial intelligence software, androids or cyborgs can be tricky. Nowadays, engineers are inventing and using robots for all kinds of tasks: nanorobots for medical purposes, industry robots on assembly lines, rovers for underwater or spatial exploration… If we consider a somewhat “fuzzy” definition for what a robot is and call robot an artificial system designed to automate and achieve a specific task, then AI falls into that category.

Note: another important trend in robotics is the design of artificial limbs for handicapped people who have had an accident or who have a condition. If we go further, the whole transhumanist philosophy is focused on the notion that we aren’t the ultimate form of human evolution but that technology could enhance or bodies and our minds even more.

Overall, it seems worth discussing whether “robot” equals “body”: despite popular culture, we have conceived and built many forms of androids, computer systems and other pieces of software that could match the description.

When you don’t need a body

These past few years, plenty of incredible AI systems have been used in very concrete cases. I’ve already mentioned how it has served as a tool for trading, law enforcement, justice, healthcare or transports.

For example, self-driving cars are becoming more and more of a thing today. When you have a self-driving car, in a sense, the whole car is the “body” of the robot. But, in truth, all the system is an advanced microchip connected to a lot of sensors. You don’t need neither arms and legs nor a humanoid shape. For this type of system, you only need a “brain”.

It’s the same for computer viruses: they propagate through entire networks, they sort of mimic animal behavior and they can act quite similarly to real-life marabuntas, but they are only a bunch of lines of code that are eventually converted to electric signal through wires.

When a body is necessary

Boston Dynamics: the top-notch mechanics firm

Over the years, Boston Dynamics has become the world’s leader for robot-mechanics feats. Their various robots have achieved impressive results in terms of stability, stamina, speed and power. You might have already seen Atlas, the humanoid robot designed for lots of usages among which rescue missions; or BigDog, the quadruped machine meant to help soldiers carry heavy weights on the field; or Wildcat, the “fastest quadruped robot on Earth”.

Throughout their projects, the company has focused on improving robot’s moving abilities and other interaction capacities. However, there’s been some complaints about how “terrifying” their robots are. The fear mostly comes from the efficiency of the robots: given what they’re able to do, many people are scared that the “robots nightmare” is upon us. If you ever see the Wildcat run towards you, chances are you’ll feel like an uncontrollable wild animal is racing in your direction. If the Atlas is able to jump over obstacles, move big objects and rescue people faster than a fireman, perhaps we should be scared that it will take our jobs in the near future.

But this is not the only reason people are afraid of robots: while Boston Dynamics has decided to refuse any resemblance with actual animals or humans (their products actually are big shiny robots), others are living more on the edge and designing robots that are quite human-like. When it’s pushed to the extreme, we can be unsettled by this almost-but-not-exactly-human-like performance: it’s the well-known “uncanny valley”.

The “uncanny valley”

Even if the phrase was coined only in 1978, the idea was initially proposed by the Japanese robotics professor Masahiro Mori in 1970 and refers to the strange feeling we have when we’re faced with something that imperfectly resembles a human. You know this bizarre impression you have whenever you encounter a 3D video game character that is so life-like but moves a bit off? Or Hiroshi Ishiguro’s well-known “twin robot”? There’s a trend in robotics (especially among Asian robotics teams) to design robots that are as human-like as possible. Lately, the bot Erica has presented the news on TV and its “sister” Sophia has demonstrated some skills in the art of conversation… even though I think we’re still far from fooling anyone, it is indeed astonishing to see the progress that has been made in a few decades. The American TV host Jimmy Fallon even “met” with Sophia and tested its limits on his show (spoiler: we don’t have Terminators yet):

In 2017, Futurism wrote an article about 6 human-like robots: despite how impressive they are from a technological point of view, most of them inspire this itchy feeling when you see them talking and moving. It’s just about “this little something” that you can’t really put your finger on but that breaks the illusion.

And to be honest, this is mostly because we’re trying to make robots that look like us. So why is that? Why don’t we stick with the tin-canned version we’re finally getting a bit used to through sci-fi books and films?

Should you put a face on your bot?

One of the reasons is that, nowadays, there’s a lot of research in robotics for hosting and caring for the elderly or the disabled. There is currently a big issue of supply and demand in the healthcare domain, and that technology might help fill the gap. The problem is that, although it’s not always the case, the target audience is often quite reluctant to interact with a robot because they haven’t gotten used to this technology yet. For this specific purpose, a great deal of thought has to be put into the shape of robots so that the intended audience accepts it – while at the same time making it possible for the robots to achieve the tasks they have to do. Thanks to the latest discoveries in AI and mechanics, we can now program the aiding robot to assist in heavy weight lifting, to offer a medical diagnosis to patients or to analyze and react to specific feelings from the one they are caring for. But this is no good if this person refuses to come close to the robot because they’re scared of it! So how can we make it more reassuring? Because most of these bots would work alongside humans, they’d probably need to be humanoid – thus we need to beware of the uncanny valley. But in Japan, the public is growing more and more fond of the idea: if we make robots that are cute and relatable, with soothing or funny voices, then the kawaii vibe might convince people to accept these new caretakers as part of our lives. For example, Paro is a furry white seal-shaped robot meant to help people with dementia; and SoftBank’s famous “host robot” Pepper is also betting on cuteness to attract both children and adults.

Pepper was designed by SoftBank Robotics and exhibited for the first time in 2014. It is a humanoid robot that is 1.2 meters tall and that can recognize emotions to better interact with people.

For this last one and many other robots that live on the edge of the uncanny valley, the fact that the robot has a face is paramount. We as humans are great at spotting faces – and we use facial expressions to understand the feelings of the people we interact with. We rely on it to relate to the person we are discussing with. Emojis are sort of the extreme result of that: just by putting a few dots and lines in a circle, we sum up a whole state of mind. This is why in fiction, for example in children TV series, robots either have moving eyes, eyebrows and mouth, or a screen that displays a face. As a young audience, you need a clear display of emotions to follow the story and the interactions between the characters more easily.

Note : our natural ability to find faces in objects or clouds for example is a psychologial phenomenon called pareidolia.

When you design a robot to be comforting and reassuring, you need to be very careful that the face expresses enough emotion (so that the people interacting with it can relate) but that it’s “fake” enough for you to still perceive it as an artificial copy. Otherwise, you will just fall into the uncanny valley.

Can a voice be enough?

Be it through new tools, movies or games, we’ve seen plenty of examples where AIs didn’t need a body to exist. Sometimes, a specific voice is enough to personify a robot and make us relate to it.

Just a voice… and yet!

In 2001: Space Odyssey, the computer HAL has no face and still manages to be remembered. In the movie Her, Joachin Phoenix’s character falls in love with the AI he just acquired and that is but a voice in his house. In the video game Portal, your opponent is a robot called “Glados” that hardly ever appears on the screen but is however an ever present threat just by its relentless teasers.

In the real world, think of all the helping systems like Alexa, Cortona or Siri. All those “companions” are simple voices in a computer or a phone, yet we know their names and, slowly but surely, we’re getting ourselves used to asking those AIs for info as if they were real persons. The evolution of Siri’s voice these past few years is amazing — it really feels more and more “natural”.

The question is: how come the tech industry thinks we should relate with their robots when they are but an advanced search engine? Well, I think it’s mostly about making the product easier to sell because people recognize it and perceive it as a whole entity. When you buy a mixer or a toaster, you take a look at the specs of the ones on the left and on the right and you make your choice based on pure logic. You’re not going to feel bad for leaving the second one on the shelf.

Note : I discussed the distinction between choices based on personal convictions and feelings and choices based on mathematical calculation and the search for an optimal solution in more details in a recent article on the concept of agency.

What companies like Apple (Siri), Amazon (Alexa) or Microsoft (Cortona) have managed to do is convince you that you’re making a pact with the “entity” you’re buying, that you’re creating an actual relationship; and that’s because they’ve infused their products with what’s needed to make it relatable: a unique voice, tone, phrasing and vocabulary that are undeniably the ones of that AI and that AI only.

Note: it’s quite a leap, but to some extent we can see the idea of leitmotivs in music as another example of “binding a concept to a sound”. When Richard Wagner composed Siegfried’s theme for Der Ring des Nibelungen, he wanted us to think of a whole person whenever we heard a set of notes. Years later, when John Williams made the Imperial March theme for Star Wars, his goal was to bring about the full power and terror that comes with Darth Vador and his minions just with a bass line. This is proof that sounds and a small ensemble of notes can already convey complex notions if done right…

Do we need to choose a female or a male voice?

At the beginning of the movie Her, Phoenix’s character has to choose between a male and a female voice for his new OS. He quite instinctively chooses a woman. Why is that?

In lots of sci-fi media pieces, the voices you hear through the headphones are female. Spaceships have a female onboard computer, space stations’ broadcast is done by a woman robot… quite often this goes along with female robot hostesses walking about to help the heroes. On the other hand, whenever you have robot security guards, they have male voices. These examples show that even with soulless entities we reproduce the old clichés: women are amiable, sweet, kind; men are strong, imposing, violent.

Last year, Numerama published an article about the genderlessvoice project. Q is the first AI voice to neither be female nor male. The goal of the collective that created it was to get rid of the aforementioned biases that usually come with a clearly gendered voice, and also to avoid reinforcing the latent stereotypes. They established that frequencies between 145Hz and 175Hz were a perfect middle-ground for the human ear. Their website then offers the possibility to modulate this frequency to see the impact the voice has on us. Through Q, they wanted to push the boundaries and take into account the ever increasing number non-binary gender identities; they think that convincing the industry giants (Google, Amazon, Microsoft…) to include more possibilities in their AI voices will be a good way of matching the growing number of persons and personalities using them. This is a nice example of how new technologies can help us understand and flow with the societal changes.

Does limiting to a voice increase obedience?

At the other end of the spectrum, having a computer talk into your ear can be used as a mean of increasing your productivity, sometimes to an unbearable level. In a recent emission (in French), the Cash Investigation team showed how in the Lidl’s warehouses, employees are given a headset made to tell them what to do all day long. A robotic voice simply gives orders to the employee without interruption: pick up this package, bring it to this spot, lift this other box, move it somewhere else… What’s even creepier to me is the fact that is somewhat a “discussion”, in the sense that some tasks must be validated by the employee before she can move to the next one. You therefore hear dozens of people in the warehouse answering their earpiece every second with sentences of 3 words at most, all isolated and oblivious to the other humans in their vicinity.

I feel like this is a very horrific consequence of our system that always tries to make the best profit out of everything, no matter the (human) cost. But it does show how having just a well-chosen voice can impose obedience more easily. Because this voice is not as pleasing as Siri’s, you don’t feel any emotion towards the robot. And because you don’t have any visual cue to distract you, you actually have nothing to do but listen to it. Mix that with the fact that employees get a bonus when they achieve a lot of tasks in one day, blindly following the orders of the super-efficient robot quickly seems like the best solution.

To conclude

All the tales and legends we heard about those marvelous artificial beings are on their way to becoming real. In half a century, we have invented, designed and built amazing hardware and software. I think it’s interesting to see how, in robotics, there’s such a deep link between culture and science. Our hopes and fears are a mix of what we’re shown in films and what the tech giants like the GAFAM or the big robotics company exhibit around the world from conference to conference.

What robots do and will look like is hard to say because it may vary a lot: from “pure soul systems” that crawl in a network or control a house to quadruped machines that run on a battlefield, the word “robot” is too broad to simply designate the silver humanoid bots sci-fi authors imagined.

Still, all these cultural representations carry their load of clichés. I believe it is part of the duty of engineers to measure the ethical and moral implications of their creations. The Q project is proof that we don’t necessarily need to perpetuate stereotypes through new technology just to ease it out on the consumer. Rather technology should be an opportunity to embrace the changes of our society and go along with it.

Dans ce troisième article de la série Artifakal Intelligence / Intelligence Artifaussielle, je vais aborder une question classique dans la culture sci-fi : “les IAs ont-elles besoin d’un corps ?“. Les robots sont-ils toujours des entités humanoïdes brillantes, ou devrions-nous élargir notre champ de recherche et considérer plus de nos merveilles technologiques comme des robots ?

Robots ? IAs ? Cyborgs ?

Quand on pense à un robot, on se représente généralement un être métallique humanoïde qui cancane et tremble un peu, complètement dévoué aux humains, ou au contraire décidé à tous les détruire. Il marche parmi nous avec aisance, souvent impossible à distinguer des vrais humains et équipé d’une super-intelligence égale ou même supérieure à la nôtre. Basiquement, dans la fiction, les robots sont un ensemble à la fois de merveilles d’IA et de mécanique soigneusement associées.

Pourtant, les robots font et ont fait partie de nos vies depuis un certain temps maintenant. Même si nous n’avons pas encore d’androïdes comme ceux décrits dans les romans d’Asimov ou de Philip K. Dick, il ne faut pas oublier qu’il y a beaucoup de types et de formes de robots. Les mythes qui dépeignent le dieu grec Héphaïstos, les histoires liées au golem ou bien le Frankenstein de Mary Shelley montrent une fascination pour les machines tout au long de l’histoire de l’humanité : nous discutons depuis longtemps d’êtres construits artificiellement destinés à nous aider, nous défier ou interagir avec nous d’une façon ou d’une autre.

De nombreux films et livres de science-fiction interrogent notre relation aux robots et notre propre identité humaine. Par exemple, L’Homme Bicentennaire (l’adaptation du roman d’Isaac Asimov de 1999) nous présente Robin Williams en robot qui découvre les émotions humaines et la créativité.

La robotique est un champ complexe contenant beaucoup de sous-domaines. Etablir clairement une distinction entre les robots, les programmes d’IA, les androïdes ou les cyborgs peut être difficile. De nos jours, les ingénieurs inventent et utilisent des robots pour toutes sortes de tâches : des nanorobots en médecine, des robots industriels sur les chaînes de montage, des rovers pour l’exploration sous-marine ou spatiale… Si on prend une définition un peu “floue” de ce qu’est un robot et qu’on appelle robot un système artificiel conçu pour automatiser et réaliser une tâche spécifique, alors l’IA relève de cette catégorie.

Note : un autre courant important en robotique est la conception de membres artificiels pour des personnes handicapés suite à un accident ou une autre condition. En allant plus loin, toute la philosophie transhumaniste se concentre sur l’idée que nous ne sommes pas la forme évoluée de l’être humain mais que la technologie pourrait améliorer nos coprs et nos esprits encore plus.

Il semble donc intéressant de se demander si “robot” signifie forcément “corps” : contrairement à la culture populaire, nous avons conçu et construit de nombreuses formes d’androïdes, de systèmes informatiques et d’autres programmes qui pourraient correspondre à cette description.

Quand il n’y a pas besoin de corps

Ces dernières années, beaucoup de systèmes d’IA très impressionnants ont été utilisés pour des cas très concrets. J’ai déjà mentionné comment elle a servi d’outil pour le trading, le maintien de la loi, la justice, la santé ou les transports.

Par exemple, les voitures autonomes sont de plus en plus en vogue aujourd’hui. Pour une voiture autonome, en un sens, toute la voiture est le “corps” du robot. Mais, en réalité, le système est un circuit informatique avancé connecté à un grand nombre de capteurs. Il n’y a pas besoin de bras et de jambes ou d’une forme humanoïde. Pour ce genre de système, il suffit d’avoir un “cerveau”.

C’est la même chose pour les virus informatiques : ils se propagent à travers des réseaux entiers, ils imitent en quelque sorte des comportements d’animaux et peuvent agir comme des marabuntas, mais ce ne sont qu’un paquet de lignes de code finalement convertis en signal électrique à travers des câbles.

Quand un corps est nécessaire

Boston Dynamics : la firme de mécanique de pointe

Au fil des ans, Boston Dynamics est devenu le leader mondial pour ce qui est des exploits en mécanique robotique. Leurs divers robots ont obtenu des résultats incroyables en terme de stabilité, d’endurance, de vitesse et de puissance. Vous avez peut-être déjà vu Atlas, le robot humanoïde conçu pour de nombreux usages parmi lesquels des missions de sauvetage ; ou BigDog, la machine quadrupède destinée à aider les soldats à porter des charges lourdes sur le terrain ; ou Wildcat, le “robot quadrupède le plus rapide sur Terre”.

A travers leurs projets, l’entreprise s’est dédiée à améliorer les compétences de mobilité des robots et leurs autres capacités d’interaction. Il y a cependant eu des plaintes quant à la peur qu’inspirent ces robots. Cette peur vient surtout de l’efficacité de ces robots : au vu de ce qu’ils peuvent faire, beaucoup craignent que le “cauchemar des robots” soit déjà là. Si un jour vous voyiez le Wildcat courir vers vous, il y a tout à parier que vous auriez le sentiment qu’un animal sauvage et incontrôlable est en train de foncer sur vous. Si l’Atlas est capable de sauter au-dessus des obstacles, de déplacer de gros objets et de sauver des personnes en danger plus vite qu’un pompier, peut-être faut-il craindre qu’il le remplacera dans un futur proche.

Mais ce n’est pas la seule raison pour laquelle les gens ont peur des robots : bien que Boston Dynamics ait décidé d’éviter toute ressemblance de leurs robots avec de vrais animaux ou humains (leurs produits sont bien de gros robots argentés), d’autres sont plus sur le fil et conçoivent des robots qui ressemblent beaucoup aux humains. Lorsque l’on pousse cela à l’extrême, on peut être dérangé par ces résultats presque-mais-pas-tout-à-fait-ressemblants : c’est la fameuse “vallée de l’étrange”.

La “vallée de l’étrange”

Bien que l’expression n’ait été officialisée qu’en 1978, l’idée a été originellement proposée par le professeur de robotique japonais Masahiro Mori en 1970 ; elle fait référence à ce sentiment étrange que l’on a quand on est confronté à quelque chose qui ressemble imparfaitement à un humain. C’est cette impression bizarre que l’on a quand on rencontre un personnage de jeu vidéo en 3D qui est hyper réaliste mais qui bouge avec quelques défauts. Ou bien le fameux “jumeau robot” d’Hiroshi Ishiguro. Il y a une mode en robotique (en particulier parmi les équipes de robotique asiatiques) pour la conception de robots aussi ressemblants que possible à des humains. Dernièrement, le bot Erica a présenté le journal télévisé et sa “soeur” Sophia a montré des talents dans l’art de la conversation… Même si je pense que nous sommes encore loin de duper quelqu’un, il est en effet impressionnant de voir le progrès qui a été fait en seulement quelques décennies. L’animateur américain Jimmy Fallon a même “rencontré” Sophia et a testé ses limites dans son show (spoiler : nous n’avons pas encore de Terminators) :

En 2017, Futurism a écrit un article à propos de 6 robots ressemblants à des humains : bien qu’ils soient fascinants d’un point de vue technologique, la plupart d’entre eux causent ce sentiment gênant quand on les voit bouger et parler. Il s’agit juste “d’un petit quelque chose” sur lequel on ne peut pas vraiment mettre le doigt mais qui rompt l’illusion.

Et, à dire vrai, ceci est principalement dû au fait qu’on essaie de faire des robots à notre image. Alors pourquoi ? Pourquoi ne continuons-nous pas avec les “boîtes de conserve” auxquelles on finissait enfin par s’habituer avec les livres et les films de sci-fi ?

Faut-il mettre un visage sur un robot ?

Une des raisons possibles est qu’il y a en ce moment beaucoup de recherche en robotique pour l’accueil et la prise en charge des personnes âgées ou invalides. Il y a actuellement un important problème d’offre et de demande dans le domaine de la santé, et la technologie pourrait aider à réduire l’écart. Le hic est que, même si ce n’est pas toujours le cas, le public visé est souvent assez réticent à l’idée d’interagir avec un robot car il n’a pas encore pris l’habitude de cette technologie. Pour cet objectif spécifique, il faut penser très soigneusement la forme des robots pour que le public pour lesquels ils sont prévus les accepte – tout en faisant en sorte que les robots puissent accomplir les tâches demandées. Grâce aux dernières découvertes en IA et en mécanique, nous pouvons désormais programmer des robots qui aident au port de charges lourdes, qui offrent un diagnostic médical aux patients ou qui analysent et réagissent à des émotions spécifiques chez la personne dont ils prennent soin. Mais cela n’a pas grand intérêt si la personne refuse de s’approcher du robot car elle en a peur ! Alors, comment peut-on le rendre plus rassurant ? Etant donné que la plupart de ces bots devront travailler aux côtés des humains, ils seront probablement humanoïdes – nous devons donc nous méfier de la vallée de l’étrange. Mais au Japon, le public aime de plus en plus cette idée : si nous fabriquons des robots mignons à qui on peut s’attacher, avec des voix apaisantes ou drôles, alors la vibe kawaii pourrait convaincre les gens d’accepter ces nouveaux aide-soignants dans nos vies. Par exemple, Paro est un robot couvert de fourrure blanche en forme de phoque destiné à aider les personnes atteintes de démence ; et le fameux “robot hôte” Pepper de SoftBank joue aussi sur son côté mignon pour attirer à la fois les enfants et les adultes.

Pepper a été conçu par SoftBank Robotics et montré pour la première fois en 2014. C’est un robot humanoïde qui mesure 1.2 mètres et qui peut reconnaître les émotions pour mieux interagir avec nous.

Ce dernier robot comme beaucoup d’autres est à la frontière de la vallée de l’étrange, notamment car il possède un visage. Nous sommes, en tant qu’humains, très doués pour repérer les visages – et nous nous servons des expressions faciales pour comprendre les émotions des gens avec qui nous interagissons. Nous nous reposons sur ces expressions pour créer un lien avec notre interlocuteur. Les emojis sont en quelque sorte une conséquence ultime de cela : en dessinant juste quelques points et quelques lignes dans un cercle, nous résumons tout un état d’esprit. C’est pour cela que dans la fiction, par exemple dans les dessins animés pour enfants, les robots ont soit des yeux, des sourcils et une bouche mobiles, soit un écran qui affiche un visage. Un public jeune a besoin d’une expression claire des émotions pour suivre l’histoire et capter les interactions entre les personnages plus facilement.

Note : notre habileté naturelle à repérer des visages dans des objets ou des nuages par exemple est un phénomène psychologique appelé la paréidolie.

Quand on conçoit un robot pour être réconfortant et rassurant, il faut faire très attention à ce que ce visage exprime assez d’émotion (pour que les personnes qui interagissent avec se sentent concernées) mais que ce soit suffisamment “faux” pour qu’on perçoive quand même que c’est une copie artificielle. Autrement, on risque de retomber dans la vallée de l’étrange.

Est-ce qu’une voix peut être suffisante ?

Que ce soit avec des nouveaux outils, des films ou des jeux, nous avons vu de nombreux exemples d’IAs qui n’avaient pas besoin d’un corps pour exister. Parfois, une voix particulière suffit à personnifier un robot et à nous permettre de nous identifier.

Juste une voix… et pourtant !

Dans 2001: l’Odyssée de l’espace, l’ordinateur HAL n’a pas de visage et parvient néanmoins à marquer les esprits. Dans le film Her, le personnage de Joachin Phoenix tombe amoureux de l’IA qu’il vient d’acheter et qui n’est qu’une voix dans sa maison. Dans le jeu vidéo Portal, votre adversaire est un robot appelée “Glados” qui apparaît rarement à l’écran mais qui reste pourtant une menace omniprésente par ses moqueries incessantes.

Dans le monde réel, on peut penser aux systèmes d’assistance comme Alexa, Cortona ou Siri. Tous ces “compagnons” sont simplement des voix dans un ordinateur ou un téléphone, pourtant nous connaissons leurs noms et, lentement mais sûrement, nous nous habituons à demander à ces IAs des informations comme s’il s’agissait de vraies personnes. L’évolution de la voix de Siri (article en anglais) ces dernières années est fascinante – elle nous paraît réellement de plus en plus naturelle.

Nous pouvons nous demander : pourquoi l’industrie de la tech pense-t-elle que nous devons nous attacher à des robots qui ne sont que des moteurs de recherche avancés ? Je pense qu’il s’agit principalement de faciliter la commercialisation du produit car les gens le reconnaissent et le voient comme une entité complète. Quand on achète un mixer ou un grille-pain, on regarde les caractéristiques de ceux sur la gauche et sur la droite et on fait notre choix en se basant entièrement sur la logique. On ne se sent pas mal quand on laisse le deuxième sur l’étal.

Note : j’ai discuté plus en détail de cette distinction entre un choix basé sur de convictions et des sentiments personnels et un choix basé sur un calcul mathématique et la recherche d’une solution optimale dans un article récent sur le sentiment d’agentivité.

Ce que des entreprises comme Apple (Siri), Amazon (Alexa) ou Microsoft (Cortona) ont réussi à faire, c’est nous convaincre que nous faisons un pacte avec “l’entité” que nous achetons, que nous créons une vraie relation ; et cela vient du fait qu’ils ont mis dans leurs produits juste ce qu’il fallait pour que l’on puisse s’identifier : une voix, un ton, un phrase et un vocabulaire unique qui sont sans aucun doute ceux de cette IA et de cette IA seulement.

Note : c’est un peu éloigné mais dans une certaine mesure, on peut voir dans l’idée des leitmotivs en musique un autre exemple de “la mise en place d’un lien entre un concept et un son”. Quand Richard Wagner a composé le thème de Siegfried pour Der Ring des Nibelungen, il voulait que nous pensions à une personne en entendant un ensemble de notes. Des années plus tard, quand John Williams a imaginé le thème de la marche impériale pour Star Wars, son but était de susciter l’impression de pouvoir et de peur engendrés par Dark Vador et ses sbires seulement avec une ligne de basse. C’est la preuve que des sons et un petit groupe de notes peuvent déjà transmettre des notions complexes s’ils sont bien agencés…

Doit-on choisir une voix d’homme ou de femme ?

Au début du film Her, le personnage de Phoenix doit choisir entre une voix d’homme ou de femme pour son nouvel OS. Il choisit assez naturellement une voix féminine. Pourquoi donc ?

Dans beaucoup d’oeuvres de science-fiction, les voix que nous entendons dans les haut-parleurs sont celles de femmes. Les ordinateurs embarqués dans les vaisseaux spatiaux et les messages débités dans les stations spatiales ont des voix robotiques mais féminines… et cela s’accompagne souvent d’hôtesses robotiques qui sont là pour aider les héros. A l’inverse, dès qu’il y a des robots en charge de la sécurité, ils ont des voix d’hommes. Ces exemples montrent que même à travers des êtres sans âme nous reproduisons les vieux clichés : les femmes sont aimables, douces, gentilles ; les hommes sont forts, impressionnants, violents.

L’an dernier, Numerama a publié un article à propos du projet genderlessvoice (“voix neutre”). Q est la première voix d’IA à n’être ni féminine ni masculine. Le but du collectif qui l’a créée était de se débarrasser des biais mentionnés plus tôt qui viennent souvent avec l’utilisation d’une voix clairement genrée, et aussi d’éviter de renforcer les stéréotypes implicites. Ils ont trouvé que des fréquences entre 145Hz et 175Hz étaient un entre-deux parfait pour l’oreille humaine. Leur site propose de moduler la fréquence pour voir l’impact qu’à la voix sur nous. Avec Q, ils veulent repousser les limites et prendre en compte le nombre toujours plus important d’identités sexuelles ; ils pensent que persuader les géants de l’IA (Google, Amazon, Microsoft…) d’offrir plus d’alternatives dans les voix de leurs IAs serait un bon moyen de répondre au nombre croissant de personnes et de personnalités qui les utilisent. C’est un bel exemple de la façon dont les nouvelles technologies peuvent nous aider à comprendre et suivre les changements sociétaux.

Est-ce que limiter l’IA à une voix rend plus obéissant ?

A l’autre bout du spectre, on peut vous coller dans l’oreille un ordinateur qui vous parle sans cesse pour augmenter votre productivité, parfois à des niveaux insoutenables. Dans un épisode récent, l’équipe de Cash Investigation montrait comment dans les entrepôts de Lidl, les employés ont une oreillette qui leur donne des instructions toute la journée. Une voix de robot indique simplement quoi faire à l’employé sans interruption : ramasse ce paquet, amène-le ici, soulève cette autre boîte, pose-là ailleurs… Ce qui est encore plus inquiétant à mon avis est le fait que c’est en fait une étrange “discussion”, car certaines tâches doivent être validées par l’employé avant de pouvoir passer à la suivante. On entend donc des dizaines de personnes dans l’entrepôt répondre à leur oreillette chaque seconde par des phrases de quelques mots, tous isolés et aveugles aux gens à proximité.

J’ai l’impression que c’est une terrible conséquence de notre système qui cherche toujours à tirer le maximum de profit de tout, quel qu’en soit le prix (humain). Mais cela montre qu’en choisissant une voix adéquate, on peut contraindre plus facilement quelqu’un à obéir. Parce que la voix n’est pas aussi agréable que celle de Siri, on ne ressent aucune émotion pour ce robot. Et parce qu’on n’est pas distrait par un stimulus visuel, on se trouve en fait forcé à l’écouter. Quand on ajoute à cela que les employés reçoivent un bonus lorsqu’ils finissent un grand nombre de tâches dans la journée, alors suivre les ordres d’un robot très efficace sans réfléchir semble être la meilleure solution.

En conclusion

Tous les contes et légendes que nous entendions à propos d’être artificiels incroyables sont en train de devenir une réalité. En un demi-siècle, nous avons inventé, conçu et construit du matériel et des logiciels phénoménaux. Je trouve intéressant de voir à quel point, en robotique, il y a vraiment un lien profond entre la culture et la science. Nos espoirs et nos peurs sont un mélange de ce que nous voyons dans les films et de ce que les géants tech comme les GAFAM ou les grandes entreprises de robotique présentent à travers le monde dans des conférences.

Il est difficile de dire à quoi un robot ressemble ou ressemblera car cela varie beaucoup : entre les systèmes “entièrement virtuels” qui s’infiltrent dans les réseaux ou contrôlent des maisons et les machines quadrupèdes qui courent sur un champ de bataille, le mot de “robot” désigne juste trop de choses pour qu’on le limite aux bots humanoïdes argentés imaginés par les auteurs de science-fiction.

Et pourtant, toutes ces représentations culturelles s’accompagnent de leur lot de clichés. Je crois qu’il est aussi du devoir des ingénieurs de mesurer les implications éthiques et morales de leurs créations. Le projet Q est la preuve que nous ne sommes pas obligés de perpétuer les stéréotypes avec les nouvelles technologies simplement pour en faciliter l’accès au consommateur. Au contraire, la technologie peut être une opportunité pour accueillir et accepter les changements de nos sociétés.

  1. What Is Transhumanism?’s website:
  2. Boston Dynamics’ website:
  3. ParoRobots’ website:
  4. SoftBank’s Pepper’s dedicated page:
  5. genderlessvoice project’s website:
  6. Siri Team, “Deep Learning for Siri’s Voice: On-device Deep Mixture Density Networks for Hybrid Unit Selection Synthesis” (, Aug. 2017. [Online; last access 19-April-2021].
  7. Cash Investigation’s episode “Travail : ton univers impitoyable” (in French, Work: your relentless world):
  8. D. Muoio, “Google wants to distance itself from ‘terrifying’ humanoid robots” (, Mar. 2016. [Online; last access 20-April-2020].
  9. M. Tual, “Hiroshi Ishiguro, l’homme qui crée des robots à son image” (, Mar. 2016. [Online; last access 20-April-2020].
  10. B. Hue, “Erica, un robot humanoïde nouveau visage de l’information au Japon” (, Feb. 2018. [Online; last access 20-April-2020].
  11. V. Tangermann, “Six Life-Like Robots That Prove The Future of Human Evolution is Synthetic” (, Aug. 2017. [Online; last access 20-April-2020].
  12. M. Hay, “Why Robots Are the Future of Elder Care” (, June 2015. [Online; last access 20-April-2020].
  13. M. Turcan, “Voici à quoi ressemble une voix artificielle non genrée” (, Mar. 2019. [Online; last access 20-April-2020].
  14. I. Wikimedia Foundation, “Masahiro Mori (roboticist)” (, Feb. 2020. [Online; last access 20-April-2020].
  15. I. Wikimedia Foundation, “Sophia (robot)” (, Apr. 2020. [Online; last access 20-April-2020].
  16. I. Wikimedia Foundation, “Pareidolia” (, Mar. 2020. [Online; last access 20-April-2020].
  17. I. Wikimedia Foundation, “Leitmotif” (, Mar. 2020. [Online; last access 20-April-2020].

Leave a Reply

Your email address will not be published.