Une démonstration bluffante et de nombreuses questions… Mardi soir, à l'occasion de la conférence annuelle Google I/O, Sundar Pichai, le PDG du groupe, a présenté une nouvelle fonctionnalité de son assistant intelligent, Google Assistant. Ce dernier est désormais capable de passer des coups de fil tout seul pour, par exemple, prendre rendez-vous chez le coiffeur pour son utilisateur, lui réserver une table dans un restaurant ou vérifier qu'un commerce est ouvert. Mais si la prouesse technologique est indéniable, de nombreuses… voix s'élèvent pour dénoncer une technologie trop proche de l'homme.
Un robot au langage (trop) humain ?
Dans la démonstration diffusée devant les 7.000 personnes présentes au siège de l'entreprise, à Mountain View, en Californie, l'assistant a reproduit plusieurs tics des humains. Lorsque l'employée du salon de coiffure demande à la personne au bout du fil de patienter pour qu'elle regarde une date, sans se douter qu'elle a à faire à un robot, ce dernier lâche un petit "hum hum". De la même manière, Google Assistant semble savoir quand laisser des blancs ou faire des pauses dans ses phrases. "Le but de notre assistant, c'est de vous aider à accomplir vos tâches", a expliqué Sundar Pichai. À terme, Google Assistant pourrait même appeler les commerces les jours fériés pour connaître leurs horaires d'ouverture et les mettre à jour, ensuite, pour tous les utilisateurs dans les recherches Google.
Wahou, demandez à Google de vous prendre rendez-vous chez le coiffeur et il appellera lui-même ! #io18#Googlepic.twitter.com/4A1sSP6PiR
— Grégoire Martinez (@Gregoire_fr) 8 mai 2018
La firme se garde bien pour le moment de donner une date de sortie précise pour cette fonctionnalité, indiquant simplement qu'elle sera disponible "prochainement". Mais pourra-t-on, demain, être au téléphone avec un robot sans même le savoir ? La question est plus que dérangeante socialement. Sur Twitter, les internautes ont largement débattu de la question depuis la présentation, sans parvenir à tomber d'accord. Pourtant, pour Google, pas de doute : cette fonction va bien permettre de simplifier la vie de ses utilisateurs.
Google veut avertir les utilisateurs
En coulisses, les responsables qui travaillent sur le projet confirment que, si la fonction n'a pas de date de sortie exacte, c'est bien parce qu'il faut encore l'adapter socialement. "Nous sommes prêts techniquement, mais pas socialement", explique à Europe 1 un membre de l'équipe Assistant. Lors de sa mise en service, Google Duplex, du nom de cette fonctionnalité, ne sera d'ailleurs qu'une version de test et ne sera accessible qu'aux États-Unis.
Quant à savoir si les personnes au bout du fil doivent être prévenues qu'elles dialoguent avec un robot, la réponse de Google semble clair : oui. Il pourrait y avoir un message au début de la conversation du type "Vous êtes en communication avec l'assistant intelligent de Google", confie une source interne. Mais cela doit encore être affinée, précise-t-il. Par ailleurs, Google Assistant ne serait pas en mesure de contacter n'importe qui. Cette fonction doit permettre de faciliter la vie des utilisateurs en réservant pour eux dans des situations où on ne peut pas le faire habituellement. "Ma compréhension des choses, c'est que l'Assistant n'appellera que s'il ne peut pas réserver ou prendre rendez-vous sur Internet", indique une ingénieure de l'équipe Google Assistant.
Fixer des limites
Fallait-il, pour cela, rendre ces conversations aussi "humaines" ? L'inverse aurait été pénible pour les interlocuteurs, affirme-t-on chez Google. Mais cela nécessitera de fixer des règles précises pour éviter les débordements. "Il faudra la programmer pour qu'elle ait de l'empathie, qu'elle ne puisse pas faire de harcèlement par exemple", explique sur Europe 1 Alain Bensoussan, avocat spécialisé en droit des technologies avancées et de la protection des données personnelles. "Il faut construire des règles juridiques. On dispose d'un cadre légal qui permettra de le faire", poursuit-il. "Il faut réinventer une nouvelle façon de vivre avec les robots", conclut-il.