Segmentación en imagen de frutos de granado usando deep learning con aplicación en agricultura de precisión

  1. Giménez-Gallego, Jaime 1
  2. González-Teruel, Juan D. 1
  3. Toledo, Ana 1
  4. Jiménez Buendía, Manuel 1
  5. Soto-Valles, Fulgencio 1
  6. Torres-Sánchez, Roque 1
  1. 1 Universidad Politécnica de Cartagena
    info

    Universidad Politécnica de Cartagena

    Cartagena, España

    ROR https://ror.org/02k5kx966

Libro:
XLIII Jornadas de Automática: libro de actas: 7, 8 y 9 de septiembre de 2022, Logroño (La Rioja)
  1. Carlos Balaguer Bernaldo de Quirós (coord.)
  2. José Manuel Andújar Márquez (coord.)
  3. Ramon Costa Castelló (coord.)
  4. Carlos Ocampo Martínez (coord.)
  5. Jesús Fernández Lozano (coord.)
  6. Matilde Santos Peñas (coord.)
  7. José Enrique Simó Ten (coord.)
  8. Montserrat Gil Martínez (coord.)
  9. Jose Luis Calvo Rolle (coord.)
  10. Raúl Marín Prades (coord.)
  11. Eduardo Rocón de Lima (coord.)
  12. Elisabet Estévez Estévez (coord.)
  13. Pedro Jesús Cabrera Santana (coord.)
  14. David Muñoz de la Peña Sequedo (coord.)
  15. José Luis Guzmán Sánchez (coord.)
  16. José Luis Pitarch Pérez (coord.)
  17. Oscar Reinoso García (coord.)
  18. Oscar Déniz Suárez (coord.)
  19. Emilio Jiménez Macías (coord.)
  20. Vanesa Loureiro Vázquez (coord.)

Editorial: Servizo de Publicacións ; Universidade da Coruña

ISBN: 978-84-9749-841-8

Año de publicación: 2022

Páginas: 1001-1006

Congreso: Jornadas de Automática (43. 2022. Logroño)

Tipo: Aportación congreso

Resumen

En agricultura de precisión, para monitorizar el estado del cultivo mediante imagen de forma automática, son necesarias herramientas de procesamiento para poder extraer la información de interés. En este estudio se desarrolla un modelo de Deep Learning para segmentación de imagen con el objetivo de discriminar los frutos del granado. Se alcanzan unos resultados de Intersection over Union (IoU)=0,71 y mean Average Precision (mAP)=0,82. Posteriormente, se expone un algoritmo que permite estimar el tamaño del fruto en píxeles, con un error relativo medio del 5,4%.