Construction du modèle créé par l’équipe de recherche Professeur Park Sang-hyun DGIST. Crédit : équipe de recherche du professeur Park Sang-hyun à l. a. DGIST
L’équipe de recherche du professeur Sang-hyun Park, du département de génie robotique et mécatronique de l’Institut des sciences et applied sciences de Daegu Gyeongbuk (DGIST), a développé un nouveau modèle de traduction d’photographs qui peut réduire efficacement les biais dans les données.
Dans le processus de développement d’un modèle d’intelligence artificielle (IA) utilisant des photographs collectées à partir de diverses resources, contrairement à l’goal de l’utilisateur, des biais de données peuvent survenir en raison de divers facteurs. Le modèle développé peut supprimer les biais de données malgré l’absence d’informations sur ces facteurs, offrant ainsi des performances élevées pour l’analyse d’photographs. Cette resolution devrait faciliter les inventions dans les domaines de l. a. conduite autonome, de l. a. création de contenu et de l. a. médecine.
Les ensembles de données utilisés pour former des modèles d’apprentissage profond ont tendance à présenter des biais. Par exemple, lors de l. a. création d’un ensemble de données pour différencier l. a. pneumonie bactérienne de l. a. maladie à coronavirus 2019 (COVID-19), les prerequisites de collecte d’photographs peuvent différer en raison du risque d’an infection à coronavirus. Par conséquent, ces différences conduisent à des différences subtiles dans les photographs, ce qui amène les modèles d’apprentissage profond actuels à différencier les maladies en fonction de caractéristiques causées par des différences dans les protocoles d’photographs plutôt que de caractéristiques essentielles à l’identity opérationnelle de l. a. maladie.
Dans ce cas, ces modèles affichent des performances élevées sur l. a. base des données utilisées dans leur processus de formation. Cependant, ils affichent des performances limitées sur les données obtenues à différents endroits en raison de leur incapacité à généraliser efficacement, ce qui peut entraîner des problèmes de surajustement. En particulier, les ways actuelles d’apprentissage profond ont tendance à utiliser les différences tissulaires comme données intéressantes, ce qui peut conduire à des prédictions inexactes.
Pour relever ces défis, l’équipe de recherche du professeur Park a développé un modèle de traduction d’photographs succesful de générer un ensemble de données appliquant l. a. suppression du biais de texture et d’effectuer un processus d’apprentissage basé sur l’ensemble de données généré.
Les modèles de traduction d’photographs existants sont souvent limités par le problème des changements de texture conduisant à des changes involontaires du contenu, à mesure que les textures et le contenu s’entremêlent. Pour résoudre ce problème, l’équipe de recherche du professeur Park a développé un nouveau modèle qui utilise simultanément des fonctions d’erreur pour les textures et le contenu. L’ouvrage est publié dans l. a. revue Les réseaux de neurones.
Le nouveau modèle de traduction d’symbol proposé par cette équipe de recherche fonctionne en extrayant des informations sur le contenu de l’symbol d’entrée et des textures d’un domaine différent et en les combinant.
Pour préserver simultanément les informations non seulement sur le contenu des photographs d’entrée mais également sur l. a. texture du nouveau domaine, le modèle développé est entraîné en utilisant à l. a. fois des fonctions d’erreur pour l’autosimilarité spatiale et l. a. redondance de texture. Grâce à ces opérations, le modèle peut générer une symbol présentant différentes textures de domaine tout en préservant les informations sur le contenu de l’symbol d’entrée.
Étant donné que le modèle d’apprentissage en profondeur développé crée un ensemble de données qui applique l. a. suppression des biais de texture et utilise l’ensemble de données généré pour l. a. formation, il affiche de meilleures performances que les modèles existants.
Il a obtenu des performances supérieures par rapport aux ways existantes de débiaisation et de traduction d’photographs lorsqu’il a été testé sur des ensembles de données présentant des biais de texture, tels qu’un ensemble de données de classification pour distinguer les chiffres, un ensemble de données de classification pour distinguer les chiens et les chats avec des couleurs de poils différentes, et un ensemble de données de classification qui applique différentes protocoles d’imagerie pour différencier le COVID-19 de l. a. pneumonie bactérienne. De plus, il surpasse les méthodes existantes lorsqu’il est appliqué à des ensembles de données présentant des biais différents, tels que l’ensemble de données de classification pour l. a. discrimination numérique multi-étiquettes et celui pour l. a. reconnaissance d’photographs, d’photographs, d’animations et de graphiques.
De plus, l. a. method de traduction d’photographs proposée par l’équipe de recherche du professeur Park peut être appliquée au traitement d’photographs. L’équipe de recherche a constaté que l. a. méthode développée modifie uniquement l. a. texture de l’symbol tout en préservant son contenu unique. Ce résultat analytique a confirmé les performances supérieures de l. a. méthode développée par rapport aux méthodes de traitement d’photographs existantes.
De plus, cette resolution peut être utilisée efficacement dans d’autres environnements. L’équipe de recherche a comparé les performances de l. a. méthode développée avec celles des méthodes de traduction d’photographs existantes basées sur différents domaines, tels que les photographs médicales et les photographs autonomes. Sur l. a. base des résultats analytiques, l. a. méthode développée a montré de meilleures performances que les méthodes actuelles.
Le professeur Park a déclaré : « L. a. technologie développée dans cette recherche offre une amélioration significative des performances dans les scenarios où des ensembles de données inévitablement biaisés sont utilisés pour former des modèles d’apprentissage profond dans les domaines industriels et médicaux. »
“Cette resolution devrait apporter une contribution significative à l’amélioration de l. a. puissance des modèles d’IA utilisés commercialement ou distribués dans divers environnements à des fins commerciales”, a-t-il ajouté.
Plus d’knowledge:
Myeongkyun Kang et al., Traduction d’photographs préservant le contenu by the use of l. a. cooccurrence de texture et l’autosimilarité spatiale pour réduire le biais de texture et l’adaptation de domaine, Les réseaux de neurones (2023). est ce que je: 10.1016/j.neunet.2023.07.049
Fourni par l’Institut des sciences et applied sciences de Daegu Gyeongbuk
l. a. quotation: Une équipe de recherche développe un modèle d’IA pour éliminer efficacement les biais dans l’ensemble de données (31 octobre 2023) Récupéré le 1er novembre 2023 sur
Ce record est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.