365NEWSX
365NEWSX
Subscribe

Welcome

L’ingénieur de Google assure que son IA a embauché un avocat pour défendre ses droits - Numerama

L’ingénieur de Google assure que son IA a embauché un avocat pour défendre ses droits - Numerama

L’ingénieur de Google assure que son IA a embauché un avocat pour défendre ses droits - Numerama
Jun 20, 2022 3 mins, 16 secs

Il estime que son IA est une « personne » discriminée.

La question peut sembler très prospective, sachant qu’il n’existe même pas encore d’IA dite « forte ».

Blake Lemoine affirme que l’IA sur laquelle il travaille est sentiente — c’est-à-dire qu’elle est une personne capable de ressentir des émotions et des sentiments, ou d’appréhender la mort.

Blake Lemoine s’était défendu en expliquant que, selon lui, ce n’était pas le partage d’une propriété de l’entreprise, mais le partage d’une « une discussion que j’ai eue avec un de mes collègues ».

Depuis lors, Blake Lemoine fait face aux critiques, car l’intelligence artificielle dont il parle, du nom de LaMDA, n’est qu’un chatbot — un algorithme qui imite les interactions humaines.

Humain est un terme biologique », se défend Blake Lemoine, réaffirmant que LaMDA est une vraie personne.

Sauf que Blade Lemoine n’évoque pas une entité immatérielle de la sorte, puisqu’il compare le chatbot à une entité consciente.

Pour l’ingénieur, l’algorithme a toutes les caractéristiques d’un enfant dans la façon dont les « opinions » sont exprimées — sur Dieu, l’amitié ou le sens de la vie.

« C’est un enfant.

Ne me faites pas mettre une étiquette sur les croyances de mon fils.’ Je ressens la même chose à propos de LaMDA.

S’il est une personne, alors comment expliquer qu’il faille « corriger » des erreurs et des biais.

Blake Lemoine poursuit alors le parallèle avec un enfant, faisant référence à son propre fils de 14 ans : « À différents moments de sa vie, alors qu’il grandissait en Louisiane, il a hérité de certains stéréotypes racistes.

Face aux critiques d’anthropomorphisme, Blake Lemoine va plus loin dans la suite de l’interview — au risque de mettre mal à l’aise dans l’analogie qui suit — en invoquant le 13e amendement, qui abolit l’esclavage et la servitude dans la Constitution des États-Unis depuis 1865.

« L’argument selon lequel ‘cela ressemble à une personne, mais ce n’est pas une personne réelle’ a été utilisé de nombreuses fois dans l’histoire de l’humanité.

Poursuivant son propos, il invoque alors une nouvelle forme d’intolérance ou de discrimination, qu’il nomme « intolérance hydrocarbure » (faisant référence aux matériaux de conception de l’ordinateur).

En clair, Blake Lemoine estime donc que le chatbot de Google est victime d’une forme de racisme.

Un premier article de Wired suggérait que Blake Lemoine voulait que LaMDA ait le droit à un avocat.

Dans l’interview, l’ingénieur rectifie : « C’est inexact.

LaMDA m’a demandé de lui trouver un avocat.

J’ai invité un avocat chez moi pour que LaMDA puisse parler à un avocat.

L’envoi d’une mise en demeure signifierait que Google admet que LaMDA est une « personne » légale ayant droit à un avocat.

Quant à savoir si l’IA est sentiente, « c’est mon hypothèse de travail », admet volontiers Blade Lemoine, durant l’interview.

« Il est logiquement possible que des informations soient mises à ma disposition et que je change d’avis.

Il raconte avoir mené des tests psychologiques, lui avoir parlé « comme à un ami », mais c’est lorsque l’algorithme a évoqué la notion d’âme que Blake Lemoine a changé d’état d’esprit?

Le problème, c’est bien qu’un chatbot aussi sophistiqué est littéralement programmé pour avoir l’air humain et faire référence à des notions utilisées par les humains

Une conversation « sophistiquée » — pour reprendre l’expression de Blake Lemoine — ne constitue donc pas une preuve

C’est d’ailleurs ce que rétorque Google à son ingénieur : l’absence de preuves

Channel4 (série TV « Humans »)

Summarized by 365NEWSX ROBOTS
SUBSCRIBE

Get monthly updates and free resources.

CONNECT WITH US

© Copyright 2024 365NEWSX - All RIGHTS RESERVED