Crédit : CC0 domaine public
L’intelligence artificielle est partout : elle conduit des voitures, diagnostique des maladies, prend des décisions en matière de crédit, classe les candidats à un emploi, identifie les visages et évalue les libérés conditionnels. Ces gros titres devraient suffire à vous convaincre que l’IA est loin d’être éthique. Cependant, des termes comme « IA éthique » prévalent aux côtés de termes tout aussi problématiques comme « IA digne de confiance ».
Pourquoi ces words sont-elles si épineuses ? Après tout, ce ne sont que des mots, à quel level peuvent-ils être dangereux ? Eh bien, les mots comptent, et si nous voulons parvenir à un avenir dans lequel l’IA mérite notre confiance, nous devons au moins nous mettre d’accord sur un vocabulaire commun.
Coprésidents du Conseil consultatif d’éthique de l’IA de l’Institut expérimental d’intelligence artificielle (EAI) : Kansu Kanka et Ricardo Baeza-Yates expliquent les différences entre ces termes et pourquoi ils sont importants.
Le problème de « l’IA digne de confiance »
Pour Ricardo Baeza-Yates, également directeur de recherche à l’EAI, tout se résume à une difference fondamentale entre les capacités humaines et les capacités informatiques. L’IA n’est pas humaine, nous devrions donc éviter des termes comme « IA digne de confiance » qui non seulement humanisent l’IA, mais suggèrent également un niveau de fiabilité qui n’existe tout simplement pas.
“Nous savons que l’IA ne fonctionne pas tout le temps, donc demander aux utilisateurs de lui faire confiance est trompeur”, explique Baeza-Yates. “Si quelqu’un, il y a 100 ans, avait voulu me vendre un billet d’avion en le qualifiant de “vol digne de confiance”, j’aurais été inquiet, automotive si quelque selected fonctionne, pourquoi devons-nous y ajouter “digne de confiance” ? C’est l. a. différence entre l’ingénierie et l. a. chimie.” ”
Kansu Kanka, responsable de l’éthique chez EAI, ajoute qu’une « IA digne de confiance » semble attirer l’consideration sur l’objectif ultime de créer l. a. confiance chez l’utilisateur. Ce faisant, il contourne le dur travail d’intégration de l’éthique dans le développement et le déploiement de systèmes d’IA, en faisant peser l. a. responsabilité sur l’utilisateur.
« L. a. confiance est en fait le résultat de ce que nous voulons faire », dit-elle. «Nous devrions nous concentrer sur le système lui-même et non sur le sentiment qu’il suscite finalement, nous l’espérons.»
Le problème de « l’IA éthique »
L’IA éthique est confrontée à un problème similaire automotive elle implique un sure degré d’motion morale. Les humains visent certains résultats moraux. Ils peuvent porter des jugements de valeur et réorienter leur comportement pour prendre en compte des objectifs qui ne peuvent être traduits dans le monde des algorithmes.
“L’IA peut avoir un résultat éthique ou contraire à l’éthique”, explique Kanso. “Cela peut impliquer des jugements de valeur, mais ce n’est pas un être ethical d’purpose. Ce n’est pas un agent ethical.”
L. a. moralité, en ce sens, est strictement le domaine des humains. Des défis surviennent lorsque les gens commencent à concevoir des systèmes dotés de capacités de prise de décision indépendantes, automotive ces systèmes sont aussi éthiques que l’purpose de ceux qui les ont créés.
« IA responsable »
Ricardo et Canso préfèrent le terme « IA responsable », tout en reconnaissant qu’il est également imparfait. « L. a. responsabilité est aussi un trait humain, mais l. a. loi a élargi le idea de responsabilité pour inclure les establishments, c’est pourquoi nous l’utilisons dans ce sens », explique Ricardo.
“D’une certaine manière, l’IA responsable est un raccourci pour le développement et l’utilisation responsables de l’IA, ou pour l’innovation responsable en matière d’IA”, ajoute Kanso. “L’expression est encore ouverte à l’interprétation selon laquelle l’IA elle-même assumera une certaine responsabilité, et ce n’est certainement pas ce que nous voulons dire. Nous essayons de souligner que l’IA responsable consiste à créer des buildings et des rôles pour développer l’IA de manière responsable, et que l. a. responsabilité incombera toujours.” avec ces buildings et les personnes qui conçoivent les systèmes.
Canso et Ricardo considèrent l’éthique de l’IA comme faisant partie d’une IA responsable. Dans ce sous-domaine, nous trouvons l’éternelle query morale : « Quelle est l. a. bonne selected à faire ? » Et dans l’espace plus vaste qui l’entoure, nous trouvons un espace d’innovation – un espace exploratoire interdisciplinaire pour les concepteurs, les développeurs, les investisseurs et les events prenantes qui (espérons-le) pointe finalement vers un noyau éthique.
“Nous, philosophes, collaborons avec les développeurs et les concepteurs pour trouver et atténuer les risques éthiques lors du développement de systèmes d’IA et de l. a. conception de produits d’IA”, explique Kanka.
Fourni par l’Université Northeastern
l. a. quotation: Quelle est l. a. différence entre l’éthique de l’IA, l’IA responsable et l’IA digne de confiance ? (14 novembre 2023) Récupéré le 14 novembre 2023 sur
Ce report est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.