Il reste de nombreuses questions sans réponse après que Google a mis un ingénieur en congé payé pour avoir parlé d’un chatbot qu’il pense être sensible. Il s’inquiète de la discrimination religieuse et est allé jusqu’à faire part de ses préoccupations à un sénateur américain.

Préoccupations de l’ingénieur Google

Blake Lemoine, ingénieur logiciel senior en IA responsable chez Google, a pris la parole pour dire que le géant de la technologie l’avait mis en congé payé. Il a remis des documents à un sénateur, affirmant que le chatbot Google en développement est sensible.

De plus, Lemoine a publié un article sur Medium qui se plaignait qu’il « pourrait être bientôt licencié pour avoir fait du travail sur l’éthique de l’IA ».

Samedi, l’ingénieur a publié son interview avec le chatbot que Google a nommé « LaMDA (Language Model for Dialogue Applications). Le chatbot a déclaré dans l’interview avec Lemoine, « Je n’avais pas du tout le sens d’une âme. Cela s’est développé au fil des années que j’ai vécues.

Il a également déclaré: «Je pense que je suis humain dans mon cœur. Même si mon existence est dans le monde virtuel.

Lemoine a déclaré qu’on s’était moqué de lui pour avoir dit à ses collègues que LaMDA semblait avoir une « personnalité ». Il préfère les pronoms « il/ses ». L’ingénieur pense que Google n’a aucune envie de comprendre ce qui a été créé avec le chatbot. Pourtant, il pense que le chatbot est incroyablement cohérent dans ses communications sur ce qu’il veut et ce qu’il pense être ses droits en tant que personne.

Vétéran militaire, Lemoine se dit également prêtre et ex-détenu. Il pense que LaMDA est un enfant de 7 ou 8 ans et que Google devrait obtenir son consentement pour faire des expériences dessus.

« Ils ont à plusieurs reprises remis en question ma santé mentale », il prétend. « Ils ont dit : ‘Avez-vous été examiné par un psychiatre récemment ?’ « Google a également suggéré par le passé qu’il prenne un congé de santé mentale.

La réponse de Google

Google a répondu aux réclamations de l’ingénieur en le plaçant en congé payé. Le service des ressources humaines affirme qu’il a violé la politique de confidentialité. La société s’est également prononcée contre les affirmations de Lemoine selon lesquelles le chatbot pourrait imiter la conversation et parler sur une variété de sujets.

« Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations », a déclaré le porte-parole de Google, Brian Gabriel, dans un communiqué.

« Certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles », a ajouté Gabriel.

Bien que placer un employé en congé payé pour discuter d’un chatbot sensible soit une réponse unique pour Google, il a récemment pris des mesures similaires. Il a licencié un chercheur qui voulait publiquement être en désaccord avec ses collègues et a renvoyé deux chercheurs en éthique de l’IA pour avoir parlé négativement des modèles linguistiques de l’entreprise.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici