Indexé dans
  • Ouvrir la porte J
  • Genamics JournalSeek
  • Clés académiques
  • RechercheBible
  • Cosmos SI
  • Accès à la recherche mondiale en ligne sur l'agriculture (AGORA)
  • Bibliothèque des revues électroniques
  • RechercheRef
  • Répertoire d'indexation des revues de recherche (DRJI)
  • Université Hamdard
  • EBSCO AZ
  • OCLC - WorldCat
  • érudit
  • Catalogue en ligne SWB
  • Bibliothèque virtuelle de biologie (vifabio)
  • Publions
  • Fondation genevoise pour la formation et la recherche médicales
  • Pub européen
  • Google Scholar
Partager cette page
Dépliant de journal
Flyer image

Abstrait

Classification explicable des espèces d'arbres basée sur un réseau neuronal convolutionnel utilisant des images multispectrales provenant d'un véhicule aérien sans pilote

Ling-Wei Chen, Pin-Hui Lee, Yueh-Min Huang*

Nous cherchons à remédier aux pénuries de main-d'œuvre, en particulier au vieillissement de la main-d'œuvre des zones rurales et à faciliter ainsi la gestion agricole. Le mouvement et l'exploitation des équipements agricoles à Taiwan sont compliqués par le fait que de nombreuses cultures commerciales à Taiwan sont plantées sur des coteaux. Pour les cultures mixtes dans de telles zones agricoles en pente, l'identification des espèces d'arbres facilite la gestion agricole et réduit la main-d'œuvre nécessaire aux opérations agricoles. Les images optiques générales collectées par des caméras à lumière visible sont suffisantes pour l'enregistrement mais donnent des résultats sous-optimaux dans l'identification des espèces d'arbres. L'utilisation d'une caméra multispectrale permet d'identifier les plantes en fonction de leurs réponses spectrales. Nous présentons une méthode de classification des espèces d'arbres à l'aide de la lumière visible des drones et de l'imagerie multispectrale. Nous exploitons les différences de valeurs de réflectance spectrale entre les espèces d'arbres et utilisons des images de bande proche infrarouge pour améliorer les performances de classification du modèle. Les modèles neuronaux profonds basés sur CNN sont largement utilisés et donnent des précisions élevées, mais des résultats corrects à 100 % sont difficiles à obtenir et la complexité du modèle augmente généralement avec les performances. Cela conduit à une incertitude quant aux décisions finales du système. L'IA interprétable extrait les informations clés et les interprète pour permettre une meilleure compréhension des conclusions ou des actions du modèle. Nous utilisons la visualisation (quatre méthodes d'attribution au niveau des pixels et une méthode d'attribution au niveau des régions) pour interpréter le modèle post-hoc. L'IG flou pour l'attribution au niveau des pixels représente mieux les caractéristiques de texture, et l'attribution au niveau des régions représente les régions de vie plus efficacement que l'attribution au niveau des pixels, ce qui facilite la compréhension humaine.

Avertissement: Ce résumé a été traduit à l'aide d'outils d'intelligence artificielle et n'a pas encore été examiné ni vérifié