Crédit : Pixabay/CC0 Domaine public
L’entreprise technologique finlandaise Metroc a récemment commencé à utiliser le travail pénitentiaire pour former un grand modèle de langage afin d’améliorer sa technologie d’IA. Pour 1,54 € de l’heure, les détenus répondent à des questions simples sur des extraits de texte selon un processus appelé étiquetage des données.
Le profilage des données est souvent externalisé vers les marchés du travail des will pay du Sud, où les entreprises peuvent trouver des travailleurs parlant couramment l’anglais et disposés à travailler pour de bas salaires.
Cependant, comme il y avait peu de finnophones dans ces will pay, Mitruk exploitait une supply locale de main-d’œuvre bon marché. Sans le programme de travail pénitentiaire, Mitruk aurait probablement ecu du mal à trouver des Finlandais disposés à accepter des emplois de classification de données qui paient une fraction du salaire moyen en Finlande.
Non seulement ces stratégies de réduction des coûts mettent en évidence los angeles quantité importante de travail humain encore nécessaire pour affiner l’IA, mais elles soulèvent également d’importantes questions sur los angeles durabilité à lengthy terme de ces modèles et pratiques économiques.
Le problème du travail à Amnesty World
L’ambiguïté morale de l’intelligence artificielle résultant du travail en jail fait partie d’une histoire plus vaste sur le coût humain derrière los angeles croissance spectaculaire de l’intelligence artificielle ces dernières années. Un problème qui est devenu plus obvious au cours de los angeles dernière année concerne los angeles query du travail.
Les grandes entreprises d’IA ne nient pas avoir recours à une main-d’œuvre externalisée et mal rémunérée pour effectuer des tâches telles que los angeles classification des données. Cependant, le battage médiatique autour d’outils tels que ChatGPT d’OpenAI a détourné l’consideration de cet facet du développement de los angeles technologie.
Alors que les chercheurs, dont moi-même, tentent de comprendre les perceptions et l’utilisation de l’IA dans l’enseignement supérieur, les problèmes éthiques associés aux modèles d’IA actuels continuent de s’accumuler. Il s’agit notamment des préjugés que l’IA a tendance à reproduire, de l’have an effect on environnemental des centres de données d’IA et des problèmes de confidentialité et de sécurité.
Les pratiques actuelles de classification des données d’externalisation révèlent une répartition mondiale inégale des coûts et des avantages de l’IA, avec peu de answers proposées.
Les implications de cette state of affairs sont doubles.
Premièrement, l’énorme quantité de travail humain encore nécessaire pour façonner « l’intelligence » des outils d’IA devrait inciter les utilisateurs à réfléchir lorsqu’ils évaluent les résultats de ces outils.
Deuxièmement, jusqu’à ce que les entreprises d’IA prennent des mesures sérieuses pour lutter contre leurs pratiques de travail abusives, les utilisateurs et les organisations voudront peut-être reconsidérer les soi-disant valeurs ou avantages des outils d’IA.
Qu’est-ce que los angeles classification des données ?
L. a. composante « intelligence » de l’IA nécessite encore un apport humain necessary pour développer ses capacités de traitement des données. Les chatbots populaires comme ChatGPT sont pré-entraînés (d’où PT dans GPT). L. a. section critique du processus de pré-formation consiste en un apprentissage supervisé.
Au cours de l’apprentissage supervisé, les modèles d’IA apprennent à générer des sorties à partir d’ensembles de données étiquetés par des humains. Les compilateurs de données, comme les prisonniers finlandais, accomplissent différentes tâches. Par exemple, les évaluateurs peuvent avoir besoin de vérifier si une symbol contient une certaine fonctionnalité ou de signaler un langage offensant.
En plus d’améliorer los angeles précision, los angeles classification des données est essentielle pour améliorer los angeles « sécurité » des systèmes d’IA. L. a. sécurité est définie selon les objectifs et principes de chaque entreprise d’IA. Un modèle « sécurisé » pour une entreprise peut signifier éviter le risque de violation du droit d’auteur. D’un autre côté, cela peut impliquer de minimiser les fausses informations ou les contenus biaisés et stéréotypés.
Pour les modèles les plus populaires, los angeles sécurité signifie que le modèle ne doit pas créer de contenu basé sur des idéologies biaisées. Ceci est réalisé en partie grâce à un ensemble de données de formation correctement étiqueté.
Qui sont les auteurs des données ?
L. a. tâche de parcourir des milliers d’photographs graphiques et d’extraits de texte incombait aux compilateurs de données largement basés dans les will pay du Sud.
Début 2023, le mag Time a fait état du contrat d’OpenAI avec Sama, une société de classification de données basée à San Francisco. Le rapport révèle que le team of workers d’un bureau satellite tv for pc kenyan n’est payé que 1,32 bucks de l’heure pour lire des textes qui « semblent avoir été tirés des recoins les plus sombres d’Web ».
Stressed out a également étudié los angeles réalité économique mondiale des sociétés de données en Amérique du Sud et en Asie de l’Est, dont certaines travaillaient plus de 18 heures par jour pour gagner moins que le salaire minimal dans leur will pay.
Le Washington Submit s’est penché de plus près sur ScaleAI, qui emploie au moins 10 000 personnes aux Philippines. L’entreprise basée à San Francisco “payait ses travailleurs à des tarifs extrêmement bas, retardait ou retenait régulièrement les paiements et offrait peu de voies permettant aux travailleurs de demander l’asile”, a révélé le magazine.
Le secteur de los angeles classification des données et los angeles main-d’œuvre nécessaire devraient se développer considérablement dans les années à venir. Les consommateurs qui utilisent les systèmes d’IA ont de plus en plus besoin de savoir remark ils sont construits ainsi que les dommages et les inégalités qui les perpétuent.
L. a. transparence est requise
Des prisonniers aux travailleurs de chantier, le potentiel d’exploitation est réel pour toutes les personnes impliquées dans los angeles soif huge de données de l’IA pour alimenter des modèles plus vastes (et peut-être imprévisibles).
À mesure que l’élan de l’IA et toutes les promesses qu’elle recèle emportent les organisations et les individus, le grand public a tendance à accorder moins d’consideration aux facets éthiques du développement technologique.
Des chercheurs de l’Université de Stanford ont récemment lancé un web site Internet présentant leur modèle d’indice de transparence. L’index fournit des mesures sur les mesures de transparence pour les modèles d’IA les plus couramment utilisés. Ces mesures vont du degré de transparence des entreprises quant à los angeles supply de leurs données jusqu’à leur clarté quant aux risques potentiels de leurs modèles.
Dix modèles d’IA ont été examinés sur los angeles base de critères de transparence de l’entreprise qu’elle dirige concernant ses pratiques commerciales. L’indice montre que les entreprises technologiques ont beaucoup de travail à faire pour améliorer los angeles transparence.
L’intelligence artificielle prend une position croissante dans nos vies de plus en plus numériques. Pour cette raison, nous devons rester evaluations à l’égard d’une série de applied sciences qui, si elles ne sont pas contrôlées, pourraient causer plus de problèmes qu’elles n’en résoudraient et pourraient contribuer à aggraver les divisions du monde plutôt qu’à les éliminer.
Advent à los angeles dialog
Cet article est republié à partir de The Dialog sous une licence Ingenious Commons. Lisez l’article authentic.
los angeles quotation: De longues heures, des salaires bas : le travail humain soutient le développement de l’intelligence artificielle (16 novembre 2023) Récupéré le 16 novembre 2023 sur
Ce record est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.