L’intelligence artificielle s’inquiète lorsque les ordinateurs deviennent trop intelligents

Avant sa mort, le professeur Stephen Hawking a appelé le monde à éviter les risks de l’intelligence artificielle, avertissant qu’il s’agirait du pire événement de l’histoire de los angeles civilisation.

Depuis le tueur de Terminator à Hollywood jusqu’aux avertissements du génie Stephen Hawking ou des stars de los angeles Silicon Valley, les craintes se sont accrues selon lesquelles l’intelligence artificielle pourrait un jour détruire l’humanité.

Les géants de los angeles technologie se battent pour créer une intelligence artificielle plus intelligente que les humains, incitant le président américain Joe Biden à imposer des réglementations d’urgence et l’Union européenne cherchant à se mettre d’accord sur une législation clé d’ici los angeles fin de cette année.

Un sommet de deux jours qui débutera mercredi à Londres explorera les garanties réglementaires contre les risques liés à l’IA tels que ceux répertoriés ci-dessous.

Voleur d’emploi ?

Le succès de ChatGPT d’OpenAI a suscité un débat sur los angeles query de savoir si « l’IA générative » succesful de produire rapidement du texte, des photographs et de l’audio à partir de commandes simples dans le langage courant constitue une risk large pour les emplois occupés.

Les machines automatisées sont déjà utilisées pour effectuer des travaux dans les usines, les entrepôts et les champs.

Cependant, l’IA générative peut cibler des postes de path tels que les avocats, les médecins, les enseignants, les journalistes et même les programmeurs informatiques.

Un rapport du cupboard de conseil McKinsey estime que d’ici los angeles fin de cette décennie, jusqu’à 30 % des heures de travail aux États-Unis pourraient être automatisées, une tendance accélérée par l’intelligence artificielle générative.

Les partisans de cette technologie ont invoqué l’idée d’un revenu de base universel, où les machines génèrent de los angeles richesse qui serait partagée avec des personnes libérées du fardeau du travail.

Mais il est également imaginable pour les entreprises de bénéficier d’une efficacité accrue, laissant les chômeurs se débrouiller seuls.

imitatif?

Les artistes n’ont pas tardé à protester contre des programmes comme Dall-E, Midjourney et Strong Diffusion, capables de créer des photographs dans presque tous les types à los angeles demande.

Les programmeurs informatiques et les écrivains ont emboîté le pas, critiquant les créateurs de l’intelligence artificielle pour avoir « formé » des programmes dans leur travail, leur permettant de reproduire leurs méthodes ou leurs compétences sans autorisation ni repayment.

Les modèles d’IA sont enseignés à l’aide de grandes quantités d’informations et d’photographs trouvées sur Web.

“C’est pour cela que nous nous entraînons, et cela ne représente qu’une petite partie de los angeles manufacturing de masse de l’humanité”, a déclaré Sam Altman, co-fondateur d’OpenAI, lors d’une conférence en septembre.

“Je pense que ce sera un outil qui amplifiera les gens, et non les remplacera.”

Des outils de désinformation ?

Les fausses nouvelles et les deepfakes existent depuis des années, mais los angeles possibilité de les diffuser facilement grâce à l’IA générative fait craindre une tromperie généralisée en ligne.

Les élections risquent d’être remportées par ceux qui sont les plus aptes à diffuser de los angeles désinformation, affirme Gary Marcus, spécialiste des sciences cognitives et professional en intelligence artificielle.

« L. a. démocratie dépend de l’accès à l’knowledge nécessaire pour prendre les bonnes décisions », a déclaré Marcos.

« Si personne ne sait ce qui est vrai et ce qui est pretend, tout finira. »

arnaque?

L’IA générative permet aux fraudeurs de créer plus facilement des e-mails de phishing convaincants et peut-être d’en apprendre suffisamment sur les cibles pour personnaliser leurs tactiques.

L. a. technologie leur permet de copier un visage ou une voix, incitant ainsi les gens à se laisser prendre à une arnaque, en prétendant par exemple qu’un proche est en risk.

Le président américain Biden a qualifié d’« incroyable » los angeles capacité de l’intelligence artificielle à imiter los angeles voix des gens lorsqu’il a signé son dernier décret ciblant cette technologie.

Il existe même des modèles de langage spécialement formés pour produire de tels contenus malveillants.

Des modèles humains

Comme pour d’autres applied sciences potentiellement bénéfiques ou néfastes, le predominant risk réside dans les humains qui les utilisent.

Puisque l’IA est formée à partir des données que les humains mettent sur Web, elle peut refléter les préjugés, les préjugés et les injustices de los angeles société.

L’IA a également le potentiel de faciliter los angeles création d’armes biologiques ; Piratage de banques ou de réseaux électriques ; Gérer los angeles surveillance gouvernementale oppressive, et plus encore.

Suzerain de l’IA ?

Certains acteurs du secteur craignent que l’intelligence artificielle ne devienne si intelligente qu’elle puisse prendre le contrôle des humains.

“Il n’est pas difficile d’imaginer qu’à un second donné dans le futur, nos ordinateurs intelligents deviendront aussi intelligents, voire plus, que les humains”, a déclaré Ilya Sutskever, co-fondateur et scientifique en chef d’OpenAI, lors de los angeles récente conférence TED AI.

“L’have an effect on d’une telle intelligence artificielle sera vraiment énorme.”

OpenAI et ses concurrents affirment que l’objectif est que l’intelligence artificielle profite à l’humanité, en résolvant des problèmes longtemps insolubles tels que le changement climatique.

Pendant ce temps, les leaders de l’industrie de l’IA réclament une réglementation réfléchie pour prévenir des risques tels que l’extinction de l’humanité.

© 2023 Agence France-Presse

los angeles quotation: AI Worry As Computer systems Get Too Sensible (1er novembre 2023) Récupéré le 2 novembre 2023 sur

Ce report est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.