Un enfoque para la detección de enfermedades de las plantas utilizando técnicas de aprendizaje profundo
DOI:
https://doi.org/10.15332/iteckne.v18i2.2615Palabras clave:
Detección de enfermedades de plantas, hojas de plantas, aprendizaje profundo, red neuronal convolucional, aprendizaje de transferencia, agriculturaResumen
La agricultura es la columna vertebral de la economía india. Los sistemas agrícolas convencionales ya no están siendo seguidos por nuestra generación, debido a la falta de conocimiento y experiencia. El avance de las tecnologías allana un camino que hace una transición de los métodos agrícolas tradicionales a la agricultura inteligente mediante la automatización de los procesos involucrados. Los desafíos que enfrenta la agricultura actual son el agotamiento de los nutrientes del suelo, las enfermedades causadas por plagas que conducen a una baja productividad, los problemas de riego, la erosión del suelo, la escasez de instalaciones de almacenamiento, la disponibilidad de semillas de calidad, la falta de transporte, la mala comercialización, etc. Entre todos estos desafíos en la agricultura, la predicción de enfermedades sigue siendo un tema importante que debe abordarse. La identificación de enfermedades basadas en la inspección visual es la forma tradicional de cultivo que necesita el conocimiento y la experiencia para manejarlas que obtiene un buen rendimiento. Automatizar el proceso de detección e identificación a través de la inspección visual (cognitiva) es la motivación detrás de este trabajo. Esto es posible gracias a la disponibilidad de imágenes de la planta o partes de plantas, ya que la mayoría de las enfermedades se reflejan en las hojas. Se propuso una arquitectura de red de aprendizaje profundo llamada Red de Detección de Enfermedades de las plantas por sus siglas en inglés (Plant Disease Detection Network PDDNet-cv) y un enfoque de aprendizaje por transferencia para identificar enfermedades en las plantas. Nuestro sistema propuesto se compara con VGG19, ResNet50, InceptionResNetV2, los métodos de vanguardia reportados en [9, 13, 5] y los resultados muestran que nuestro método está funcionando significativamente mejor que los sistemas existentes. Nuestra propuesta PDDNet-cv ha logrado una precisión de clasificación promedio del 99,09% en la detección de diferentes clases de enfermedades. La arquitectura no tan profunda propuesta, está funcionando bien en comparación con otras arquitecturas de aprendizaje profundo en términos de rendimiento y tiempo computacional.
Descargas
Citas
[2] Kamilaris, A., Prenafeta-Boldú, F., “A review of the use of convolutional neural networks in agriculture” The Journal of Agricultural Science, 156(3), 312–322 (2018). DOI: https://doi.org/10.1017/S0021859618000436
[3] Sankaran, S., Mishra, A., Ehsani, R., Davis, C., “A review of advanced techniques for detecting plant diseases”, Computers and Electronics in Agriculture, 72(1), 1–13 (2010). DOI: https://doi.org/10.1016/j.compag.2010.02.007
[4] Sharif, M., Khan, M.A., Iqbal, Z., Azam, M.F., Lali, M.I.U., Javed, M.Y., “Detection and classification of citrus diseases in agriculture based on optimized weighted segmentation and feature selection”, Computers and electronics in agriculture, 150, 220–234 (2018). DOI: https://doi.org/10.1016/j.compag.2018.04.023
[5] Wang, G., Sun, Y., Wang, J., “Automatic image-based plant disease severity estimation using deep learning”, Computational intelligence and neuroscience, 2017 (2017). DOI: https://doi.org/10.1155/2017/2917536
[6] Sladojevic, S., Arsenovic, M., Anderla, A., Culibrk, D., Stefanovic, D., “Deep-neural-networks-based recognition of plant diseases by leaf image classification”, Computational intelligence and neuroscience, 2016 (2016). DOI: https://doi.org/10.1155/2016/3289801
[7] Shin, H.C., Roth, H.R., Gao, M., Lu, L., Xu, Z., Nogues, I., Yao, J., Mollura, D., Summers, R.M., “Deep convolutional neural networks for computer-Aided detection, CNN architectures, dataset characteristics and transfer learning”, IEEE transactions on medical imaging, 35(5), 1285–1298 (2016). DOI: https://doi.org/10.1109/TMI.2016.2528162
[8] Mohanty, S.P., Hughes, D.P., Salath´e, M., “Using deep learning for image-based plant disease detection”, Frontiers in plant science, 7, 1419 (2016). DOI: https://doi.org/10.3389/fpls.2016.01419
[9] Fuentes, A., Yoon, S., Kim, S., Park, D.,” A robust deep-learning-based detector for real-time tomato plant diseases and pest recognition”, Sensors,17(9), 2022 (2017). DOI: https://doi.org/10.3390/s17092022
[10] Ferentinos, K.P., “Deep learning models for plant disease detection and diagnosis”, Computers and Electronics in Agriculture, 145, 311–318 (2018). DOI: https://doi.org/10.1016/j.compag.2018.01.009
[11] Tan, C., Sun, F., Kong, T., Zhang, W., Yang, C., Liu, C., “A survey on deep transfer learning”, In, International Conference on Artificial Neural Networks, pp. 270–279. Springer (2018). DOI: https://doi.org/10.1007/978-3-030-01424-7_27
[12] Kaya, A., Keceli, A.S., Catal, C., Yalic, H.Y., Temucin, H., Tekinerdogan, B., “Analysis of transfer learning for deep-neural-network-based plant classification models”, Computers and Electronics in Agriculture, 158, 20–29 (2019). DOI: https://doi.org/10.1016/j.compag.2019.01.041
[13] Simonyan, K., Zisserman, A., “Very deep convolutional networks for large-scale image recognition”, arXiv preprint arXiv, 1409.1556 (2014).
[14] He, K., Zhang, X., Ren, S., Sun, J., “Deep residual learning for image recognition”, In, Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 770–778 (2016).
[15] Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., Erhan, D., Vanhoucke, V., Rabinovich, A., “Going deeper with convolutions”, In, Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 1–9 (2015).
[16] Szegedy, C., Ioffe, S., Vanhoucke, V., Alemi, A.A., “Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning”, In, Thirty-First AAAI Conference on Artificial Intelligence, pp. 1–12 (2017).
[17] Denton, E.L., Zaremba, W., Bruna, J., LeCun, Y., Fergus, R., “Exploiting linear structure within convolutional networks for efficient evaluation” In, Advances in neural information processing systems, pp. 1269–1277 (2014).
[18] Ramcharan, A., Baranowski, K., McCloskey, P., Ahmed, B., Legg, J., Hughes, D.P., “Deep learning for image-based cassava disease detection”, Frontiers in plant science, 8, 1852 (2017). DOI: https://doi.org/10.3389/fpls.2017.01852
[19] Barbedo, J.G.A., “Plant disease identification from individual lesions and spots using deep learning”, Biosystems Engineering, 180, 96–107 (2019). Doi: https://doi.org/10.1016/j.biosystemseng.2019.02.002
[20] Barbedo, J.G.A., “Impact of dataset size and variety on the effectiveness of deep learning and transfer learning for plant disease classification”, Computers and Electronics in Agriculture, 153, 46–53 (2018). DOI: https://doi.org/10.1016/j.compag.2018.08.013
[21] Hughes, D., Salath´e, M., et al., “An open access repository of images on plant health to enable the development of mobile disease diagnostics”, arXiv preprint arXiv, 1511.08060 (2015).
[22] Santosh Adhikari Bikesh Shrestha, B.B., K.C., S.K., “Tomato plant diseases detection system using image processing”, In, Proceedings of KEC Conference, 2018, pp. 1–6 (2018).
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
La revista ITECKNE se encuentra registrada bajo una licencia de Creative Commons Reconocimiento-NoComercial 4.0 Internacional Por lo tanto, esta obra se puede reproducir, distribuir y comunicar públicamente, siempre que se reconozca el nombre de los autores y a la Universidad Santo Tomás. Se permite citar, adaptar, transformar, autoarchivar, republicar y crear a partir del material, siempre que se reconozca adecuadamente la autoría, se proporcione un enlace a la obra original y se indique si se han realizado cambios.
La Revista ITECKNE no retiene los derechos sobre las obras publicadas y los contenidos son responsabilidad exclusiva de los autores, quienes conservan sus derechos morales, intelectuales, de privacidad y publicidad. Sin embargo esta facultada para editar, publicar, reproducir y distribuir tanto en medios impresos como digitales, además de incluir el artículo en índices internacionales y/o bases de datos, de igual manera, se faculta a la editorial para utilizar las imágenes, tablas y/o cualquier material gráfico presentado en el artículo para el diseño de carátulas o posters de la misma revista.


