The ingénieur of Google assures that they are AI to embauché an avocat pour défendre ses droits

Blake Lemoine drew attention to the media in declaring that Google’s AI has become a person. Faced with criticism, he considers that a “hydrocarbon intolerance” has emerged.

From which stade peut-on considérer qu’une intelligence artificielle est une vraie personne? The question peut sembler très prospective, sachant qu’il n’existe me pas encore d’IA dite « forte ». The debate was pourtant rage at the time in the heart of Silicon Valley, after the declarations of a Google engineer debuted in June. Blake Lemoine affirms that l’IA sur laquelle il travaille is sentient — c’est-à-dire qu’elle est une personne capable de ressentir des émotions et des sentiments, ou d’appréhender la mort.

Pour prouver ses dires, il a partage south are blogpuis lors d’un entretien avec le Washington Post, des extraits de conversation avec l’IA, ce qui lui a valor una suspension de la parte de Google. Blake Lemoine is defended in explaining that, according to Lui, he is not part of the company’s property, but the part of the company « a discussion that j’ai eue avec un de mes collègues ».

After lors, Blake Lemoine fait face aux critiques, car l’intelligence artificialle dont il parle, du nom de LaMDA, n’est qu’a chatbot — un algorithme que mimita les interactions humaines. C’est par un phénomène d’anthropomorphisme que l’ingénieur y perçoit une véritable personne. Pourtant, dans une interview du 17 juin, pour wiredil persiste et signe — et va même encore plus loin.

An AI or… an infant?

« Une personne et un humain, ce sont deux choses très différentes. Humain is a biological term », Blake Lemoine defended himself, reaffirming that LaMDA is one person. Ce terrain est ambigu. Une personne, d’un point de vue légal, n’est certes pas nécessairement humaine — il peut s’agir d’une personne morale, notamment. Say that Blade Lemoine n’évoque pas un immatérielle de la sorte, puisqu’il compare the chatbot to a conscious entity. Il aurait pris conscience de la chose lorsque LaMDA a affirmé avoir une âme et s’interroger sur l’existence.

« Je vois ça comme l’éducation d’un enfant »

blake lemoine

Pour l’ingénieur, l’algorithme a toutes les charactéristiques d’un enfant dans la façon dont les «opinions» sont exprimées — sur Dieu, l’amitié ou le sens de la vie. « C’est un enfant. His opinions are in train de se développer. If you asked me to croit mon fils de 14 ans, I would say: ‘Mec, il est encore en train de le découvrir. Ne me faites pas mettre une étiquette sur les croyances de mon fils.’ Je ressens la même chose à propos de LaMDA. »

The Pepper robot at the Cité des sciences. It is programmed to answer a series of questions. // Source : Marcus Dupont-Besnard

S’il est une personne, alors comment expliquer qu’il faille «correct» des erreurs et des biais? The question is more pertinent than that the engineer was initially tricked by Google to correct the biases of AI, because they were racists. Blake Lemoine poursuit alors le parallèle avec un enfant, faisant référence à son del propre fils de 14 ans: « À différents moments de sa vie, alors qu’il grandissait en Louisiane, il a hereté de certains stéréotypes racists. Je l’ai rectified. C’est tout le sujet. Les gens voient ça comme la modification d’un système technique. Je vois ça comme l’éducation d’un enfant. »

Pour aller plus loin

Battlestar Galactica / SyFy

« Hydrocarbon intolerance »

Face aux critiques d’anthropomorphisme, Blake Lemoine goes plus loin dans la suite de l’interview — au risque de mettre mal à l’aise dans l’analogie qui suit — in invoking him 13th amendmentwho abolished slavery and servitude in the Constitution des États-Unis depuis 1865. « The argument selon lequel ‘cela ressemble à une personne, mais ce n’est pas une personne réelle’ a été utilisé de nombreuses fois dans l’histoire de l’humanité. Ce n’est pas nouveau. Et ça ne marche jamais bien. Je n’ai pas encore entendu une seule raison pour laquelle cette situation serait différente des précédentes. »

Poursuivant son propos, il invoque alors une nouvelle form d’intolérance ou de discrimination, qu’il nomme « intolerance hydrocarbon » (faisant référence aux materiaux de conception de l’ordinateur). In fact, Blake Lemoine believes that Google’s chatbot is the victim of a form of racism.

humans_tv_show
Dans la serie Humans (comme dans l’originale suédoise, Akta Manniskor), des robots conscients font face à l’intolérance, et sont même défendus par une avocate. Mais… c’est de la fiction. // Source : Channel4

Une IA peut-elle avoir droit à un avocat ?

A first article of wired I suggested that Blake Lemoine voulait that LaMDA ait le droit à un avocat. Dans l’interview, l’ingénieur rectified : « C’est inaccurate. LaMDA sued me from lui trouver un avocat. J’ai invited an avocat chez moi pour that LaMDA puisse parler à un avocat. He agreed to a conversation with LaMDA, and LaMDA chose to retain their services from him. Je n’ai été que le catalyseur de cette décision. »

L’algorithme aurait alors began to fill in a formulary in sens. In response, Google aurait alors I sent a letter de mise en demeure… a reaction that the company does not en bloc, selon wired. The mailing of a mise en demeure means that Google admits that LaMDA is a “personne” legale ayant droit à avocat. More than a simple machine — admettons, the Google Translate translation algorithm, your microwave, your connected mount — in the absence of permissible legal status.

Exist-t-il des eléments factuels dans ce débat?

Quant à savoir if the AI ​​is sentient, « c’est mon hypothèse de travail », admet volontiers Blade Lemoine, during the interview. « It is logically possible for the information to be available and to change upon notice. Je ne thought pas que ce soit probable. »

Sur quoi repose donc cette hypothese? « J’ai I examined beaucoup de preuves, j’ai fait beaucoup d’experiences » explain-t-il. Il raconte avoir mené des tests psychologiques, lui avoir parlé « eat a friend », mais c’est lorsque l’algorithme avoqué la notion d’âme que Blake Lemoine a change d’état d’esprit. « The answers were put together that have a three-sophisticated spirituality and an understanding of what is nature and what is essence. J’étais emu. »

The problem is, it’s good that an also sophisticated chatbot is literally programmed for avoir l’air humain et faire référence à des notions utilisées par les humains. The algorithm rests on a database of names of millions of mots and expressions available on the web, which is an extremely vast benchmark. A conversation « sophisticated » — pour rebuke l’expression de Blake Lemoine — ne constitue donc pas une preuve. C’est d’ailleurs ce que rétorque Google à son ingénieur : l’absence de preuves.

Dans le domaine informatique, l’anthropomorphisme peut notamment la forma de l’effet ELIZA : Phénomène inconscient où l’on attributes a conscious human behavior to a computer, jusqu’à thinking that the logic is emotionally involved in the conversation.

Pour aller plus loin

QuanticDream

Leave a Comment