Indexé dans
  • Ouvrir la porte J
  • Genamics JournalSeek
  • Clés académiques
  • JournalTOCs
  • Infrastructure nationale des connaissances en Chine (CNKI)
  • Répertoire des périodiques d'Ulrich
  • RechercheRef
  • Université Hamdard
  • EBSCO AZ
  • Répertoire d'indexation des résumés pour les revues
  • OCLC - WorldCat
  • Publions
  • Fondation genevoise pour la formation et la recherche médicales
  • Pub européen
  • Google Scholar
Partager cette page
Dépliant de journal
Flyer image

Abstrait

Classification des tumeurs bénignes et malignes à partir d'images échographiques mammaires basée sur un réseau neuronal convolutionnel

Telagarapu Prabhakar

La méthode la plus utilisée pour diagnostiquer le cancer du sein est l'imagerie par ultrasons mammaires (BUS), mais l'interprétation
variera en fonction de l'expérience du radiologue. De nos jours, des systèmes de CAO sont disponibles pour fournir des informations
sur la classification des images BUS. Cependant, la plupart des systèmes de CAO sont basés sur des fonctionnalités artisanales,
conçues pour classer les tumeurs. Par conséquent, la capacité de ces fonctionnalités déterminera la précision du système de CAO
utilisé pour classer les tumeurs comme bénignes et malignes. Grâce à l'utilisation de la
technologie des réseaux neuronaux convolutionnels (CNN), nous pouvons améliorer la classification des images BUS. Parce qu'elle fournit une nouvelle approche de classification
et des représentations d'images généralisables, nous pouvons ainsi obtenir la meilleure précision. Cependant, la base de données d'
images BUS étant de petite taille, elle peut être limitée en raison du fait que les CNN ne peuvent pas être formés à partir de zéro. Pour surmonter cet
inconvénient, nous examinons l'utilisation de l'approche d'apprentissage par transfert, pour permettre à l'approche CNN d'atteindre la meilleure précision
concernant la classification des images BUS. Les résultats finaux de la méthodologie VGG16_TL battent l'AlexNet_TL. Les
résultats finaux indiquent que VGG16_TL présente une précision, une sensibilité, une spécificité, une précision et des valeurs F1 de 88,23 %, 88,89 %, 88,89,
90 % et 88,2 % respectivement. Par conséquent, nous pouvons dire que la possibilité de modèles CNN pré-entraînés permet d'obtenir une bonne précision
dans la classification des images BUS.

Avertissement: Ce résumé a été traduit à l'aide d'outils d'intelligence artificielle et n'a pas encore été examiné ni vérifié