Crédit : ThisIsEngineering de Pexels
L’intelligence artificielle (IA) est un label qui peut couvrir un huge éventail d’activités liées aux machines effectuant des tâches avec ou sans intervention humaine. Notre compréhension des applied sciences d’IA dépend en grande partie de l’endroit où nous les rencontrons, des outils de reconnaissance faciale et chatbots aux logiciels de retouche photograph et aux voitures autonomes.
Si vous pensez à l’intelligence artificielle, vous pourriez penser aux entreprises technologiques, depuis les géants existants comme Google, Meta, Alibaba et Baidu, jusqu’aux nouveaux acteurs comme OpenAI, Anthropic et d’autres. Ce qui est moins évident, ce sont les gouvernements du monde entier, qui façonnent le paysage des règles selon lesquelles les systèmes d’IA fonctionneront.
Depuis 2016, les régions et will pay intéressés par cette technologie en Europe, en Asie-Pacifique et en Amérique du Nord ont établi des réglementations ciblant les applied sciences d’IA. (L’Australie est à l. a. traîne et étudie actuellement l. a. possibilité d’imposer de telles règles.)
Il existe actuellement plus de 1 600 politiques et stratégies en matière d’IA dans le monde. L’Union européenne, l. a. Chine, les États-Unis et le Royaume-Uni sont devenus des figures déterminantes dans le développement et l. a. gestion de l’intelligence artificielle dans le paysage mondial.
Intensifier l. a. réglementation sur l’IA
Les efforts visant à réglementer l’IA ont commencé à s’accélérer en avril 2021, lorsque l’Union européenne a proposé un premier cadre de réglementation appelé loi sur l’intelligence artificielle. Ces règles visent à définir les tasks des prestataires de services and products et des utilisateurs, en fonction des différents risques liés aux différentes applied sciences d’IA.
Alors que l. a. loi européenne sur l’IA était à l’étude, l. a. Chine a proposé sa propre réglementation sur l’IA. Dans les médias chinois, les décideurs politiques ont évoqué leur désir d’être les premiers à jouer un rôle de premier plan et d’assurer un management mondial en matière de développement et de gouvernance de l’IA.
Alors que l’Union européenne a adopté une approche globale, l. a. Chine a réglementé un à un certains sides spécifiques de l’IA. Ces recommandations vont des recommandations algorithmiques à l. a. technologie de synthèse profonde et à l’intelligence artificielle générative.
L’ensemble du cadre de gouvernance de l’IA en Chine sera constitué de ces politiques et d’autres à l’avenir. Le processus itératif permet aux régulateurs de renforcer leurs connaissances bureaucratiques et leurs capacités réglementaires, et laisse l. a. flexibilité nécessaire pour mettre en œuvre une nouvelle législation face aux risques émergents.
“Réveil”
L. a. réglementation chinoise sur l’IA a peut-être été un sign d’alarme pour les États-Unis. En avril, l’influent législateur Chuck Schumer a déclaré que son will pay “ne doit pas permettre à l. a. Chine de diriger l’innovation ou d’écrire les règles de l. a. direction” en matière d’intelligence artificielle.
Le 30 octobre 2023, l. a. Maison Blanche a publié un décret sur une IA sûre et digne de confiance. L’ordre tente d’aborder des questions plus larges d’égalité et de droits civils, tout en se concentrant également sur des programs spécifiques de l. a. technologie.
Outre les acteurs dominants, des will pay dont le secteur informatique est en croissance, notamment le Japon, Taiwan, le Brésil, l’Italie, le Sri Lanka et l’Inde, ont cherché à mettre en œuvre des stratégies défensives pour atténuer les risques potentiels associés à l’intégration généralisée de l’IA.
Les réglementations sur l’IA dans le monde reflètent une direction contre l’affect étrangère. Sur le plan géopolitique, les États-Unis sont en concurrence économique et militaire avec l. a. Chine. L’Union européenne met l’accessory sur l’établissement de sa souveraineté numérique et l. a. lutte pour l’indépendance vis-à-vis des États-Unis.
Au niveau native, ces réglementations peuvent être considérées comme favorisant les grandes entreprises technologiques établies par rapport aux concurrents émergents. En effet, se conformer à l. a. législation coûte souvent cher et nécessite des ressources qui peuvent manquer aux petites entreprises.
Alphabet, Meta et Tesla ont soutenu les appels à réglementer l’IA. Pendant ce temps, Google, propriété d’Alphabet, a rejoint Amazon pour investir des milliards dans Anthropic, son rival d’OpenAI, et l. a. société Tesla d’Elon Musk, xAI, vient de lancer son premier produit, un chatbot appelé Grok.
Imaginative and prescient partagée
L. a. loi de l’Union européenne sur l’IA, l. a. réglementation chinoise sur l’IA et le décret de l. a. Maison Blanche démontrent les intérêts partagés entre les will pay concernés. Ensemble, ils ont ouvert l. a. voie à l. a. Déclaration de Bletchley de l. a. semaine dernière, dans laquelle 28 will pay, dont les États-Unis, le Royaume-Uni, l. a. Chine, l’Australie et plusieurs membres de l’UE, se sont engagés à coopérer en matière de sécurité de l’IA.
Les will pay ou régions considèrent l’IA comme un contributeur à leur développement économique, à leur sécurité nationale et à leur management world. Malgré les risques reconnus, toutes les juridictions tentent de soutenir le développement et l’innovation de l’IA.
D’ici 2026, les dépenses mondiales consacrées aux systèmes axés sur l’IA pourraient dépasser 300 milliards de greenbacks, selon une estimation. D’ici 2032, selon un rapport de Bloomberg, le marché de l’IA générative pourrait à lui seul valoir 1 300 milliards de greenbacks.
Des chiffres comme ceux-ci, ainsi que les discussions sur les avantages perçus de l. a. section des entreprises technologiques, des gouvernements nationaux et des sociétés de conseil, ont tendance à dominer l. a. couverture médiatique de l’IA. Les voix evaluations sont souvent marginalisées.
Des intérêts concurrents
Au-delà des avantages économiques, les will pay se tournent également vers les systèmes d’IA pour les programs de défense, de cybersécurité et militaires.
Lors du Sommet sur l. a. sécurité de l’IA organisé au Royaume-Uni, les tensions internationales étaient évidentes. Bien que l. a. Chine ait accepté l. a. Déclaration de Bletchley publiée le premier jour du sommet, elle a été exclue des événements publics le deuxième jour.
Un level de discorde concerne le système de crédit social chinois, qui fonctionne avec peu de transparence. L. a. législation européenne en matière d’IA considère que les systèmes d’enregistrement social de ce sort créent des risques inacceptables.
Les États-Unis considèrent les investissements chinois dans l’intelligence artificielle comme une risk pour l. a. sécurité nationale et économique du will pay, notamment en ce qui concerne les cyberattaques et les campagnes de désinformation.
Ces tensions sont susceptibles d’entraver l. a. coopération mondiale sur des réglementations contraignantes en matière d’IA.
Limites des règles existantes
Les réglementations actuelles en matière d’IA présentent également des limites importantes. Par exemple, il n’existe pas d’ensemble clair et commun de définitions pour les différents varieties de applied sciences d’IA dans les réglementations actuelles des différentes juridictions.
Les définitions juridiques actuelles de l’IA ont tendance à être très larges, ce qui soulève des inquiétudes quant à leur caractère pratique. Ce huge champ d’software signifie que les réglementations couvrent un huge éventail de systèmes qui présentent des risques différents et peuvent mériter des traitements différents. De nombreux systèmes manquent de définitions claires du risque, de l. a. sécurité, de l. a. transparence, de l’équité et de l. a. non-discrimination, ce qui rend difficile l. a. garantie d’une conformité juridique précise.
Nous voyons également des juridictions locales lancer leurs propres réglementations dans des cadres nationaux. Cela pourrait répondre à ces préoccupations spécifiques et contribuer à équilibrer l. a. réglementation et le développement de l’IA.
L. a. Californie a présenté deux projets de loi visant à réglementer l’intelligence artificielle dans l’emploi. Shanghai a proposé un système pour classer, gérer et surveiller le développement de l’IA au niveau municipal.
Cependant, une définition trop étroite des applied sciences de l’IA, comme l’a fait l. a. Chine, présente le risque que les entreprises trouvent des moyens de contourner les règles.
Avance
Des recueils de « meilleures pratiques » pour l. a. gestion de l’IA émergent de juridictions locales, nationales et transnationales, sous l. a. surveillance de groupes tels que le Conseil consultatif des International locations Unies sur l’IA et le Nationwide Institute of Requirements and Generation des États-Unis. Les cadres de gouvernance de l’IA existants au Royaume-Uni, aux États-Unis, dans l’UE et, dans une mesure limitée, en Chine sont susceptibles d’être considérés comme des directives.
L. a. coopération mondiale sera fondée sur un consensus ethical et, plus necessary encore, sur les intérêts nationaux et géopolitiques.
Advent à l. a. dialog
Cet article est republié à partir de The Dialog sous une licence Inventive Commons. Lisez l’article authentic.
l. a. quotation: Qui écrira les règles de l’intelligence artificielle ? Remark les will pay s’efforcent de réglementer l’IA (8 novembre 2023) Récupéré le 8 novembre 2023 sur
Ce record est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.