Intelligence de données générative

Les utilisateurs de l'Assistant IA pourraient développer un « attachement émotionnel » à leur égard, prévient Google

Date :

Les assistants personnels virtuels alimentés par l'intelligence artificielle deviennent omniprésents sur toutes les plateformes technologiques, dans toutes les grandes entreprises technologiques. ajout de l'IA à leurs services et des dizaines de prestations spécialisées débouler sur le marché. Bien que cela soit extrêmement utile, les chercheurs de Google affirment que les humains pourraient devenir trop attachés émotionnellement à eux, ce qui entraînerait de nombreuses conséquences sociales négatives.

Une nouvelle document de recherche du laboratoire de recherche DeepMind AI de Google souligne les avantages potentiels des assistants IA avancés et personnalisés pour transformer divers aspects de la société, affirmant qu'ils « pourraient radicalement modifier la nature du travail, de l'éducation et des activités créatives ainsi que la façon dont nous communiquons, coordonnons et négocions. les uns avec les autres, influençant finalement qui nous voulons être et devenir.

Bien entendu, cet impact démesuré pourrait être une arme à double tranchant si le développement de l’IA continue à s’accélérer sans une planification réfléchie.

Un risque majeur ? La formation de liens inappropriés et étroits, qui pourraient être exacerbés si l’assistant se voit présenter une représentation ou un visage de type humain. "Ces agents artificiels peuvent même professer leur prétendue affection platonique ou romantique pour l'utilisateur, jetant ainsi les bases permettant aux utilisateurs de former des attachements émotionnels de longue date envers l'IA", indique le journal.

Si rien n’est fait, un tel attachement pourrait entraîner une perte d’autonomie de l’utilisateur et une perte du lien social car l’IA pourrait remplacer l’interaction humaine.

Ce risque n'est pas purement théorique. Même lorsque l’IA était dans un état quelque peu primitif, un chatbot IA était suffisamment influent pour convaincre un utilisateur de se suicider après une longue discussion en 2023. Il y a huit ans, une assistante de messagerie basée sur l'IA nommée « Amy Ingram » était suffisamment réaliste pour inciter certains utilisateurs à envoyer des notes d'amour et même essayer de lui rendre visite au travail.

Iason Gabriel, chercheur scientifique au sein de l'équipe de recherche en éthique de DeepMind et co-auteur de l'article, n'a pas répondu à Décrypter demande de commentaire.

Dans un tweet, cependant, Garbriel a averti que « les formes d’assistant de plus en plus personnelles et humaines introduisent de nouvelles questions autour de l’anthropomorphisme, de la vie privée, de la confiance et des relations appropriées avec l’IA ».

Parce que « des millions d'assistants IA pourraient être déployés à un niveau sociétal où ils interagiraient entre eux et avec des non-utilisateurs », Gabriel a déclaré qu'il croyait en la nécessité de davantage de garanties et d'une approche plus holistique de ce nouveau phénomène social.

Le document de recherche aborde également l’importance de l’alignement des valeurs, de la sécurité et des utilisations abusives dans le développement des assistants IA. Même si les assistants IA pourraient aider les utilisateurs à améliorer leur bien-être, à renforcer leur créativité et à optimiser leur temps, les auteurs mettent en garde contre des risques supplémentaires tels qu'un désalignement avec les intérêts des utilisateurs et de la société, l'imposition de valeurs aux autres, une utilisation à des fins malveillantes et une vulnérabilité. aux attaques adverses.

Pour faire face à ces risques, l’équipe DeepMind recommande de développer des évaluations complètes pour les assistants IA et d’accélérer le développement d’assistants IA socialement bénéfiques.

« Nous sommes actuellement au début de cette ère de changement technologique et sociétal. Nous avons donc une fenêtre d’opportunité pour agir maintenant – en tant que développeurs, chercheurs, décideurs politiques et acteurs publics – pour façonner le type d’assistants IA que nous souhaitons voir dans le monde.

Le désalignement de l’IA peut être atténué grâce à l’apprentissage par renforcement par la rétroaction humaine (RLHF), qui est utilisé pour former des modèles d’IA. Des experts comme Paul Christiano, qui a dirigé l'équipe d'alignement des modèles de langage chez OpenAI et dirige désormais l'Alignement Research Center à but non lucratif, préviennent qu'une mauvaise gestion des méthodes de formation de l'IA pourrait finir en catastrophe.

"Je pense qu'il y a peut-être quelque chose comme 10 à 20 % de chances que l'IA prenne le contrôle, [avec] de nombreux [ou] la plupart des humains morts", Paul Christiano a affirmé Valérie Plante. sur le podcast Bankless l’année dernière. "Je prends ça très au sérieux."

Édité par Ryan Ozawa.

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?