Une nouvelle recherche prévient que l’intelligence artificielle doit être mieux contain et gérée

Crédit : CC0 domaine public

L’intelligence artificielle et les algorithmes pourraient être utilisés pour radicaliser, polariser et propager le racisme et l’instabilité politique, déclare un universitaire de l’Université de Lancaster.

L’intelligence artificielle et les algorithmes ne sont pas seulement des outils déployés par les agences de sécurité nationale pour prévenir les activités malveillantes en ligne, mais ils peuvent également contribuer à los angeles polarisation, à l’extrémisme et à los angeles violence politique, posant ainsi une threat à los angeles sécurité nationale, déclare Joe Burton, professeur de sécurité internationale à l’Université de Lancaster.

De plus, il soutient que les processus de sécurisation (présentation de los angeles technologie comme une threat existentielle) ont joué un rôle déterminant dans los angeles manière dont l’IA est conçue et utilisée et dans les conséquences néfastes qu’elle a produites.

L’article du professeur Burton, “Algorithmic Radicalization? The Securitization of Synthetic Intelligence and Its Affect on Extremism, Polarization and Political Violence”, publié dans los angeles revue L. a. technologie dans los angeles société.

« L’IA est souvent présentée comme un outil destiné à lutter contre l’extrémisme violent », explique le professeur Burton. “C’est l’autre côté du débat.”

L’article read about remark l’IA a été sécurisée tout au lengthy de son histoire, dans les représentations médiatiques et dans los angeles tradition populaire, et en explorant des exemples récents d’IA ayant des effets polarisants et extrémistes qui ont contribué à los angeles violence politique.

L’article cite los angeles série de motion pictures classiques, The Terminator, qui dépeint un holocauste perpétré par une intelligence artificielle « avancée et malveillante », comme faisant plus que toute autre selected pour encadrer los angeles prise de judgment of right and wrong populaire de l’intelligence artificielle et los angeles crainte que los angeles judgment of right and wrong system n’entraîne des conséquences dévastatrices. pour les humains. L’humanité – en l’incidence une guerre nucléaire et une tentative délibérée d’exterminer une espèce.

« L. a. méfiance à l’égard des machines, les peurs qui y sont associées et leur lien avec les menaces biologiques, nucléaires et génétiques contre l’humanité ont contribué au désir des gouvernements et des agences de sécurité nationale d’influencer le développement de los angeles technologie et d’en atténuer les effets. » Prendre des risques et (dans certains cas) exploiter leur potentiel positif », écrit le professeur Burton.

Le professeur Burton affirme que les drones avancés, tels que ceux utilisés dans los angeles guerre en Ukraine, sont désormais capables d’une autonomie totale, y compris de fonctions telles que l’identity et los angeles reconnaissance de cibles.

Alors qu’il y a european de nombreux débats influents, y compris aux Countries Unies, pour interdire les « robots tueurs » et tenir les humains informés lorsqu’il s’agit de prendre une décision de vie ou de mort, l’accélération du processus d’intégration des drones armés se poursuit à un rythme soutenu. il dit.

Dans le domaine de los angeles cybersécurité – los angeles sécurité des ordinateurs et des réseaux informatiques – l’intelligence artificielle est largement utilisée, les domaines les plus répandus étant l’knowledge (désinformation) et los angeles guerre psychologique en ligne.

Les movements du gouvernement Poutine contre les processus électoraux américains en 2016 et le scandale Cambridge Analytica qui a suivi ont démontré le potentiel de l’IA à être combinée avec le large knowledge (y compris les médias sociaux) pour créer des effets politiques centrés sur los angeles polarisation, encourageant les croyances extrémistes et manipulant les groupes identitaires. . Elle a démontré los angeles puissance et le potentiel de l’intelligence artificielle dans des sociétés qui divisent.

Pendant los angeles pandémie, l’intelligence artificielle a été considérée comme un outil positif pour suivre et tracer le virus, mais elle a également suscité des inquiétudes concernant los angeles vie privée et les droits de l’homme.

L’article read about los angeles technologie de l’IA elle-même et soutient qu’il existe des problèmes dans los angeles conception de l’IA, les données sur lesquelles elle s’appuie, los angeles manière dont elle est utilisée, ainsi que ses résultats et affects.

Le record se termine par un message citadel destiné aux chercheurs travaillant dans le domaine de los angeles cybersécurité et des family members internationales.

“L’IA a certainement le potentiel de transformer les sociétés de manière sure, mais elle présente également des risques qui doivent être mieux compris et gérés”, déclare le professeur Burton, knowledgeable en cyberconflits et applied sciences émergentes qui fait partie de l’Initiative des sciences de los angeles sécurité et de los angeles coverage de l’université. .

« Comprendre les affects controversés de los angeles technologie à toutes les étapes de son développement et de son utilisation est clairement necessary. »

« Les chercheurs travaillant dans le domaine de los angeles cybersécurité et des family members internationales ont los angeles possibilité d’intégrer ces facteurs dans le programme de recherche émergent sur l’IA et d’éviter de traiter l’IA comme une technologie politiquement neutre. »

« En d’autres termes, los angeles sécurité des systèmes d’IA et los angeles manière dont ils sont utilisés dans les conflits géopolitiques internationaux ne doivent pas éclipser les inquiétudes quant à leurs affects sociaux. »

Plus d’knowledge:
Joe Burton, Extrémisme algorithmique ? L. a. sécurisation de l’intelligence artificielle et son have an effect on sur l’extrémisme, los angeles polarisation et los angeles violence politique, L. a. technologie dans los angeles société (2023). est ce que je: 10.1016/j.techsoc.2023.102262

Fourni par l’Université de Lancaster

los angeles quotation: Une nouvelle recherche prévient que l’IA doit être mieux contain et gérée (2 novembre 2023) Récupéré le 2 novembre 2023 sur

Ce record est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.