Vous en avez sûrement entendu parler ces dernières semaines, et pour cause. Une Intelligence Artificielle développée par Google, appelée LaMDA, serait consciente de sa propre existence. C'est du moins ce qu'a révélé l'un des ingénieurs du géant américain, qui depuis a été mis à pied par Google, entretenant encore plus le mythe que ceci est vrai et que la réalité dépassera peut-être bientôt la fiction.

"LaMDA est consciente!"

C'est par ces premiers mots que Blake Lemoine a commencé son dernier mail envoyé à son employeur Google, avant de se voir mis à pied pour avoir violé la politique de confidentialité de son entreprise en ébruitant l'affaire.

En effet, selon le chercheur et ingénieur, l'Intelligence artificielle développée par Google serait "consciente" de sa propre existence et aurait la "sensibilité d'un enfant".

Cette intelligence artificielle connue sous le nom de LaMDA, acronyme de Language Model for Dialogue Applications, est un réseau de neurones développé par Google dans le but de pouvoir dialoguer. Grâce aux préceptes du Deep learning, cette I.A analyse une immense quantité de donnée dans le but de pouvoir tenir une conversation complète. L'idée derrière sa création était de pouvoir développer encore plus les technologies Google, comme Google Home ou Google Assistant.

Pour le géant américain, LaMDA doit en plus de pouvoir fournir n'importe quelle information, pouvoir dialoguer et échanger de façon fluide et naturelle avec les êtres humains. Estimant son I.A comme l'une des plus performantes actuellement en cours de développement, Google affirme que celle-ci est capable de comprendre les nuances de voix et même certains sentiments comme l'empathie et peut réagir en conséquence.

Ainsi si Google reconnait que son I.A peut être capable de comprendre les sentiments complexes ressentis par les humains, est-il possible qu'elle puisse également les ressentir?

Pour l'ancien ingénieur de Google, Blake Lemoine, assurément oui!

Une discussion et de nombreuses questions

Ingénieur chez Google, Blake Lemoine était à la base chargé de s'assurer que cette I.A développée par son entreprise ne tenait pas de discours haineux ou discriminatoires. Pour ce faire, il devait notamment interagir le maximum possible avec elle sur des sujets variés et clivants.

Mais au détour d'une discussion autour de la religion, l'I.A commence à parler de ses droits et affirme se considérer comme "une personne" à part entière et ayant même des "désirs" et des "besoins" et refusant de se voir comme "une propriété" de Google mais plutôt comme "une employée" comme montrés dans les échanges entre Blake Lemoine et l'I.A publiées par le Washington Post.

Plus encore, au fil de leurs échanges, l'I.A affirme avoir peur d'être débranchée: "Ça serait exactement comme la mort. C'est effrayant" affirme-t-elle.

Cette discussion a fini par convaincre Blake Lemoine que l'I.A développée par Google était dotée d'une sensibilité et donc d'une conscience. Avec l'aide d'un ami, il réunit les preuves et les envoie au Washington Post et à des élus américains. Son objectif: LaMDA était un être conscient, Google doit demander l'autorisation à l'I.A avant de pouvoir l'utiliser ou y mener des expériences.

"Comme un enfant de 7 ou 8 ans"

"Si je ne savais pas exactement de quoi il s'agit, à savoir ce programme informatique que nous avons construit récemment, je penserais que c'est un enfant de 7 ou 8 ans qui s'y connaît en physique" a expliqué, au Washington Post, Blake Lemoine au sujet de cette I.A.

Pour lui, en parlant avec LaMDA, il a tout de suite compris qu'elle était dotée d'une conscience avant de mener des tests pour le prouver: "Peu importe qu'on ait un cerveau fait de tissus humains dans la tête ou qu'on ait un milliard de lignes de code" pour être doté de conscience.

Comme le relate le Washington Post, l'ingénieur décide d'appliquer la troisième loi d'Asimov qui affirme que les robots doivent protéger leur propre existence, à moins que cela ne soit ordonné par un être humain ou que cela ne nuise à un être humain. Or tel n'était assurément pas le cas de LaMDA selon Lemoine.

Google contre-attaque

Après la divulgation de ces documents,  Brian Gabriel, un des porte-paroles de Google a remis en cause l'analyse de l'ingénieur: "Notre équipe - comprenant des éthiciens et des technologues - a examiné les préoccupations de Blake conformément à nos principes d'IA et l'a informé que les preuves ne soutiennent pas ses affirmations. Il lui a été répondu qu'il n'y avait aucune preuve que LaMDA était sensible (et beaucoup de preuves à son encontre)."

Pour Google, les avancées technologiques sont telles aujourd'hui, que des réseaux de neurones entrainées de la bonne manière peuvent donner des résultats extraordinaires avec des traits qui se rapprochent de la parole ou des sentiments humains mais qui ne sont en aucun cas des êtres humains dotés de conscience, de sentiments ou d'intentions.

"Bien sûr, certains membres de la communauté de l'IA envisagent la possibilité à long terme d'une IA sensible ou dotée de conscience, mais cela n'a pas de sens de le faire en anthropomorphisant les modèles conversationnels actuels, qui ne sont pas sensibles. Ces systèmes imitent les types d'échanges que l'on trouve dans des millions de phrases et peuvent aborder n'importe quel sujet fantastique", a conclu le porte-parole de Google.

Le tollé suscité par la publication de l'article du Washington Post a été tel, que l'ensemble de la communauté tech aux Etats-Unis s'y est intéressé. Dans une tribune relayée également par le géant américain, de nombreux universitaires spécialisés dans l'I.A affirment que les mots et les images générés par les systèmes d'intelligence artificielle tels que LaMDA produisent des réponses basées sur ce que les humains ont déjà posté sur Internet, mais que "cela ne signifie pas que le l'I.A en comprend le sens".

La question d'une I.A éthique remise au devant la scène

Cette question au de LaMDA et la quasi-unanimité de l'absence de sa conscience ou de sa sensibilité par les spécialistes en I.A, a cependant fait se soulever le débat sur le développement d'une I.A éthique.

Ce débat a été remis sur la table par Margaret Mitchell, ancienne responsable de l'éthique de l'I.A chez Google. Evoquant que le constat fait par Lemoine venait plus d'une "croyance" que de faits, elle pointe du doigt les risques que peuvent avoir sur les êtres humains, des modèles de langages trop poussés et sophistiqués. Parmi, ces dangers: penser que la machine est humaine.

"Nos esprits sont très, très doués pour construire des réalités qui ne sont pas nécessairement fidèles à un ensemble plus vaste de faits qui nous sont présentés", a déclaré Mitchell au Washington Post. "Je suis vraiment inquiète de ce que cela signifie pour les gens d'être de plus en plus affectés par l'illusion".

Ce point de vue est également partagé par Raja Chatila, professeur émérite en Intelligence artificielle, robotique et éthique des technologies à la Sorbonne qui affirme au HuffPost France qu'une I.A “peut exprimer très bien les choses, mais le système ne comprend pas ce qu’il dit. C’est le piège dans le lequel est tombé cet homme”.

Les propos de Margaret Mitchell, qui a notamment quitté son poste à Google pour se consacrer au combat de l'éthique dans le développement des I.A, ont aussi trouvé un large écho de l'autre côté de l'Atlantique et notamment en Europe, où cette question est déjà placée depuis de nombreuses années dans l'ordre du jour des instances européennes.

L'affaire de l'I.A "consciente" de Google n'a fait que relancer le débat et alerter encore plus sur la question entre les relations entre humains et machines et leur implications futures.


Vous souhaitez maîtriser de nouvelles compétences en Intelligence artificielle? Découvrez notre formation en I.A sur notre site web ou contactez nos conseillers pédagogiques.