Crédit : CC0 domaine public
L’ensemble complet, voire exhaustif, de lignes directrices pour l’IA, dévoilé par los angeles Maison Blanche dans un décret du 30 octobre 2023, montre que le gouvernement américain tente de faire face aux risques posés par l’IA.
En tant que chercheur en systèmes d’knowledge et en IA responsable, je pense que le décret représente une étape importante dans los angeles building d’une IA responsable et digne de confiance.
Cependant, il ne s’agit là que d’une étape qui laisse en suspens los angeles query d’une législation globale sur los angeles confidentialité des données. Sans ces lois, les gens courent davantage de risques que les systèmes d’IA révèlent des informations sensibles ou confidentielles.
Comprendre les risques de l’intelligence artificielle
L. a. technologie est généralement évaluée en termes de efficiency, de coût et de qualité, mais elle n’est souvent pas évaluée en termes d’équité, d’équité et de transparence. En réponse, les chercheurs et les praticiens de l’IA responsable ont appelé à :
Le Nationwide Institute of Requirements and Generation (NIST) a publié en janvier 2023 un cadre complet de gestion des risques liés à l’IA qui vise à résoudre bon nombre de ces problèmes. Le cadre sert de base à une grande partie du décret de l’management Biden. Le décret permet également au ministère du Trade, siège du NIST au sein du gouvernement fédéral, de jouer un rôle clé dans los angeles mise en œuvre des orientations proposées.
Les chercheurs en éthique de l’IA avertissent depuis longtemps qu’un examen plus approfondi des systèmes d’IA est nécessaire pour éviter de donner l’apparence d’un examen sans véritable responsabilité. Actuellement, une étude récente portant sur les divulgations publiques des entreprises a révélé que les affirmations concernant les pratiques éthiques de l’IA l’emportent sur les tasks réelles en matière d’éthique de l’IA. Un décret pourrait aider en identifiant les moyens de faire respecter los angeles responsabilité.
Une autre initiative importante identifiée dans le décret consiste à rechercher des vulnérabilités dans les modèles d’IA à grande échelle et à utilization général formés sur d’énormes quantités de données, tels que les modèles qui alimentent ChatGPT ou DALL-E d’OpenAI. Cela obligerait les entreprises construisant de grands systèmes d’IA susceptibles d’avoir un have an effect on sur los angeles sécurité nationale, los angeles santé publique ou l’économie à former une équipe rouge et à communiquer les résultats au gouvernement. L’équipe rouge utilise des méthodes manuelles ou automatisées pour tenter de forcer le modèle d’IA à produire des résultats préjudiciables – par exemple en faisant des déclarations offensantes ou dangereuses, comme donner des conseils sur los angeles façon de vendre des drogues.
Il est essential de rendre compte au gouvernement, automobile une étude récente a révélé que los angeles plupart des entreprises fabriquant des systèmes d’IA à grande échelle manquent de transparence en matière de transparence.
De même, le grand public risque d’être trompé par le contenu généré par l’IA. Pour résoudre ce problème, le décret ordonne au ministère du Trade d’élaborer des lignes directrices pour l’étiquetage du contenu généré par l’IA. Les agences fédérales seront tenues d’utiliser le filigrane IA – une technologie qui identifie le contenu généré par l’intelligence artificielle afin de réduire los angeles fraude et los angeles désinformation – bien que cela ne soit pas obligatoire pour le secteur privé.
Le décret reconnaît également que les systèmes d’IA peuvent présenter des risques inacceptables de préjudice aux droits civils et humains et au bien-être des individus : « Les systèmes d’IA déployés de manière irresponsable ont reproduit et intensifié les inégalités existantes et créé de nouveaux varieties de discrimination préjudiciable. » exacerbée en ligne. Et des dommages physiques.
Ce que le décret ne fait pas
L’un des défis majeurs auxquels est confrontée los angeles réglementation de l’IA est l’absence d’une législation fédérale complète sur los angeles coverage des données et de los angeles vie privée. Le décret appelle uniquement le Congrès à adopter une législation sur los angeles coverage de los angeles vie privée, mais ne fournit pas de cadre législatif. Il reste à voir remark les tribunaux interpréteront les orientations du décret à los angeles lumière des lois existantes sur los angeles vie privée des consommateurs et les droits aux données.
Sans des lois strictes sur los angeles confidentialité des données aux États-Unis comme dans d’autres can pay, le décret pourrait avoir peu d’have an effect on pour convaincre les entreprises d’IA de renforcer los angeles confidentialité des données. De manière générale, il est difficile de mesurer l’have an effect on des systèmes décisionnels d’IA sur los angeles confidentialité des données et les libertés.
Il convient également de noter que los angeles transparence algorithmique n’est pas une answer miracle. Par exemple, los angeles législation européenne relative au Règlement général sur los angeles coverage des données exige « des informations significatives sur los angeles logique impliquée » dans les décisions automatisées. Il s’agit du droit d’interpréter les critères utilisés par les algorithmes dans los angeles prise de décision. L. a. délégation traite los angeles prise de décision algorithmique comme un livre de recettes, ce qui signifie qu’elle assume que si les gens comprennent remark fonctionne los angeles prise de décision algorithmique, ils peuvent comprendre remark le système les affecte. Mais savoir remark fonctionne un système d’IA ne vous indique pas nécessairement pourquoi il a pris une décision particulière.
À mesure que los angeles prise de décision algorithmique se répand, le décret de los angeles Maison Blanche et le Sommet global sur los angeles sécurité de l’IA soulignent que les législateurs commencent à reconnaître l’significance de réglementer l’IA, même en l’absence d’une législation complète.
Advent à los angeles dialog
Cet article est republié à partir de The Dialog sous une licence Inventive Commons. Lisez l’article authentic.
los angeles quotation: Chercheur : le décret de l’management Biden aborde les risques liés à l’IA, mais le manque de lois sur los angeles confidentialité atteint ses limites (3 novembre 2023) Récupéré le 3 novembre 2023 sur
Ce report est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.