http://opendata.unex.es/recurso/ciencia-tecnologia/investigacion/tesis/Tesis/2021-14

El presente trabajo de tesis doctoral está centrado en la detección de granos de polen en imágenes palinológicas tomadas de muestras estándar utilizando técnicas de aprendizaje profundo. La localización y clasificación de granos de polen es una tarea manual, muy laboriosa, que llevan a cabo palinólogos experimentados para estimar las concentraciones de los tipos de polen atmosférico presentes en distintas áreas geográficas. Este proceso se realiza a partir de muestras obtenidas en captadores de partículas aerobiológicas que, tras un procesamiento, deben visualizarse con un microscopio óptico. La estimación de los distintos tipos de polen resulta de gran utilidad en varios campos de la ciencia como en alergología, agricultura, ciencias forenses o paleopalinología.Desde el año 2012 el campo de la inteligencia artificial ha experimentado un desarrollo muy importante en clasificación y detección de objetos en imágenes, gracias al exitoso desarrollo de técnicas basadas en redes neuronales convolucionales. Parte del éxito logrado se ha debido a la aparición en el mercado de unidades de procesamiento gráfico con grandes capacidades de cálculo paralelo, pero también resultó importante la recopilación de grandes conjuntos de imágenes clasificadas.Esta tesis doctoral tiene por objetivo principal evaluar la idoneidad de un método basado en redes neuronales convolucionales, que permita realizar la localización y detección de granos de varios tipos de polen de forma robusta. En primer lugar, dada la inexistencia de una base de datos adecuada, se ha construido una base de datos de muestras palinológicas multifocales. La base de datos ha sido etiquetada convenientemente para permitir la localización y clasificación de cada grano de polen en el plano de enfoque en el que se muestre con un borde más nítido. A partir de esta base de datos, hemos estudiado el rendimiento de dos modelos neuronales de detección recientes Faster R-CNN con FNP y RetinaNet en las vertientes de localización y detección de granos de polen. Para ello, hemos desarrollado una estrategia de localización multifocal usando los apilamientos de imágenes que proporciona nuestra base de datos. Esta estrategia trata de maximizar la tasa de éxito en detección en comparación con una estrategia de muestreo único. La aproximación utilizada es abordable gracias a los reducidos tiempos de procesamiento que presentan ambos modelos utilizando una GPU de bajo coste. Además, como parte del algoritmo de de localización multifocal hemos implementado una variante de la métrica de solapamiento estándar IoU que nos permite reducir los falsos positivos asociados a propuestas de pequeño tamaño que aparecen en el procesado del apilamiento. En términos de localización, hemos alcanzado una sensibildad del 98.70% y una precisión del 99.27%, y en detección ambos valores se sitúan en 97.57% y 98.59% respectivamente.Para poder comparar el funcionamiento de nuestra propuesta, hemos estudiado el rendimiento alcanzable tanto con técnicas clásicas de deteción de objetos como con a partir de una sola imagen por muestra. Como resultado de este estudio, hemos determinado que la aproximación multifocal incrementa en al menos un 2.43% la tasa de aciertos respecto de la aproximación monoimagen. Adicionalmente, estudiamos la precisión de los marcos generados por los modelos neuronales respecto de las marcas de referencia en términos de IoU, obteniendo un valor medio de 0.91, lo que nos indica una alta precisión.Como principal conclusión de este trabajo, podemos extraer que las técnicas de detección de objetos estudiadas suponen un primer paso confiable para desarrollar un sistema de detección semiautomático para uso en el laboratorio de palinología. Además, hemos comprobado que los modelos estándar preajustados para objetos macroscópicos pueden reentrenarse de extremo a extremo para identificar objetos microscópicos como son los granos de polen. Por otro lado, hemos probado que el uso de una estrategia multifocal mejora la localización de granos de polen. Y en tareas de conteo, el uso de granos de borde no definido puede mejorar el rendimiento en localización. Por último, hemos desarrollado una base de datos de muestras polínicas que permite llevar a cabo tareas de detección multienfoque que ponemos a disposición de la comunidad investigadora.Bibliografía:[1] P. C. Tzedakis, V. Andrieu, J.-L. De Beaulieu, S. Crowhurst, M. Follieri, H. Hooghiemstra, D. Magri, M Reille, L. Sadori, N.J. Shackleton, y T.A. Wijmstra. Comparison of terrestrial and marine records of changing climate of the last 500,000 years. Earth and Planetary Science Letters, 150(1):171–176, 1997. ISSN 0012-821X. doi: 10.1016/S0012-821X(97)00078-2.[2] D.C. Mildenhall, P.E.J. Wiltshire, y V.M. Bryant. Forensic palynology: Why do it and how it works. Forensic Science International, 163(3):163 – 172, 2006. ISSN 0379-0738. doi: 10.1016/j.forsciint.2006.07.012.[3] Carmen Galán, Luis Vázquez, Herminia Garcı́a-Mozo, y Eugenio Domı́nguez. Forecasting olive (olea europaea) crop yield based on pollen emission. Field Crops Research, 86(1):43 – 51, 2004. ISSN 0378-4290. doi: 10.1016/S0378-4290(03)00170-9.[4] Rafael Redondo, Gloria Bueno, François Chung, Rodrigo Nava, J. Vı́ctor Marcos, Gabriel Cristóbal, Tomás Rodrı́guez, Amelia Gonzalez-Porto, Cristina Pardo, Oscar Déniz, y B. Escalante-Ramı́rez. Pollen segmentation and feature evaluation for automatic classification in bright-field microscopy. Computers and Electronics in Agriculture, 110:56 – 69, 2015. ISSN 0168-1699. doi: 10.1016/j.compag.2014.09.020.[5] Werner Von Der Ohe, Livia Persano Oddo, Maria Lucia Piana, Monique Morlot y Peter Martin. Harmonized methods of melissopalynology. Apidologie, 35, 2004. doi: 10.1051/apido:2004050.[6] G. D’ Amato, L. Cecchi, S. Bonini, C. Nunes, I. Annesi-Maesano, H. Behrendt, G. Liccardi, T. Popov, y P. Van Cauwenberge. Allergenic pollen and pollen allergy in Europe. Allergy, 62(9):976–990, 2007. doi: 10.1111/j.1398-9995.2007.01393.x.[7] Yoshimasa Kawazoe, Kiminori Shimamoto, Ryohei Yamaguchi, Yukako Shintani-Domoto, Hiroshi Uozaki, Masashi Fukayama, y Kazuhiko Ohe. Faster R-CNN-Based glomerular detection in multistained human whole slide images. Journal ofImaging, 4(7), 2018. ISSN 2313-433X. doi: 10.3390/jimaging4070091.[8] Robert T. Krivacic, Andras Ladanyi, Douglas N. Curry, H. B. Hsieh, Peter Kuhn, Danielle E. Bergsrud, Jane F. Kepros, Todd Barbera, Michael Y. Ho, Lan Bo Chen, Richard A. Lerner, y Richard H. Bruce. A rare-cell detector for cancer. Proceedings of the National Academy of Sciences, 101(29):10501–10504, 2004. ISSN 0027-8424. doi: 10.1073/pnas.0404036101.[9] Rufeng Li, Yibei Wang, Hong Xu, Baowei Fei, y Binjie Qin. Micro-droplet detection method for measuring the concentration of alkaline phosphatase-labeled nanoparticles in fluorescence microscopy. Sensors, 17(11), 2017. ISSN 1424-8220. doi: 10.3390/s17112685.[10] Jason Yosinski, Jeff Clune, Yoshua Bengio, y Hod Lipson. How transferable are features in deep neural networks? En Proceedings of the 27th International Conference on Neural Information Processing Systems - Volume 2, NIPS’14, páginas3320–3328, Cambridge, MA, USA, 2014. MIT Press.[11] Ross Girshick, Jeff Donahue, Trevor Darrell, y Jitendra Malik. Rich feature hierarchies for accurate object detection and semantic segmentation. En Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition, páginas 580–587, Washington, DC, USA, 2014. IEEE Computer Society. ISBN 978-1-4799-5118-5. doi: 10.1109/CVPR.2014.81.[12] Ross Girshick. Fast R-CNN. En 2015 International Conference on Computer Vision (ICCV), páginas 1440–1448, Santiago, Chile, 2015. doi: 10.1109/ICCV.2015.169.[13] Shaoqing Ren, Kaiming He, Ross Girshick, y Jian Sun. Faster R-CNN: Towards real-time object detection with region proposal networks. En C. Cortes, N.D. Lawrence, D.D. Lee, M. Sugiyama, y R. Garnett, editores, Advances in Neural Information Processing Systems, volumen 28, 2015.[14] Wei Liu, Dragomir Anguelov, Dumitru Erhan, Christian Szegedy, Scott Reed, Cheng-Yang Fu, y Alexander C. Berg. Ssd: Single shot multibox detector. En Bastian Leibe, Jiri Matas, Nicu Sebe, y Max Welling, editores, Computer Vi-sion – ECCV 2016, páginas 21–37. Springer International Publishing, 2016. doi: 10.1007/978-3-319-46448-0 2.[15] Kaiming He, Georgia Gkioxari, Piotr Dollar, y Ross Girshick. Mask R-CNN. En 2017 IEEE International Conference on Computer Vision (ICCV), páginas 2961–2969, Venecia, Italia, 2017. doi: 10.1109/ICCV.2017.322.[16] T. Lin, P. Goyal, R. Girshick, K. He, y P. Dollár. Focal loss for dense object detection. En 2017 IEEE International Conference on Computer Vision (ICCV), páginas 2999–3007, Octubre 2017. doi: 10.1109/ICCV.2017.324.[17] J. Redmon, S. Divvala, R. Girshick, y A. Farhadi. You only look once: Unified, real-time object detection. En 2016 IEEE Conference on Computer Vision and Pattern Recognition, páginas 779–788, 2016. doi: 10.1109/CVPR.2016.91.[18] J. Redmon y A. Farhadi. Yolo9000: Better, faster, stronger. En 2017 IEEE Conference on Computer Vision and Pattern Recognition, páginas 6517–6525, Julio 2017. doi: 10.1109/CVPR.2017.690.[19] Joseph Redmon y Ali Farhadi. Yolov3: An incremental improvement. arXiv preprint arXiv:1804.02767, 2018.[20] J. M. Hirst. An automatic volumetric spore trap. Annals of Applied Biology, 39(2): 257 – 265, 1952. doi: 10.1111/j.1744-7348.1952.tb00904.x.[21] Vı́ctor Sevillano y José L. Aznarte. Improving classification of pollen grain images of the polen23e dataset through three different applications of deep learning convolutional neural networks. PLOS ONE, 13(9):1–18, Septiembre 2018. doi: 10.1371/journal.pone.0201807.[22] D. G. Arias, M. V. M. Cirne, J. E. Chire, y H. Pedrini. Classification of pollen grain images based on an ensemble of classifiers. En 2017 16th IEEE International Conference on Machine Learning and Applications (ICMLA), páginas 234–240, Diciembre 2017. doi: 10.1109/ICMLA.2017.0-153.[23] Amar Daood, Eraldo Ribeiro, y Mark Bush. Pollen grain recognition using deep learning. En George Bebis, Richard Boyle, Bahram Parvin, Darko Koracin, Fatih Porikli, Sandra Skaff, Alireza Entezari, Jianyuan Min, Daisuke Iwai, Amela Sadagic, Carlos Scheidegger, y Tobias Isenberg, editores, Advances in Visual Computing, páginas 321–330. Springer International Publishing, 2016. ISBN 978-3-319-50835-1. doi: 10.1007/978-3-319-50835-1 30.[24] Estela Dı́az-López, M. Rincón, J. Rojo, C. Vaquero, A. Rapp, S. Salmeron-Majadas, y R. Pérez-Badia. Localisation of pollen grains in digitised real daily airborne samples. En José Manuel Ferrández Vicente, José Ramón Álvarez-Sánchez, Félix de la Paz López, Fco. Javier Toledo-Moreo, y Hojjat Adeli, editores, Artificial Computation in Biology and Medicine, páginas 348–357. Springer International Publishing, 2015. ISBN 978-3-319-18914-7. doi: 10.1007/978-3-319-18914-7 37.[25] Sander Landsmeer, Emile Hendriks, Letty De Weger, Johan Reiber, y Berend Stoel. Detection of pollen grains in multifocal optical microscopy images of air samples. Microscopy research and technique, 72:424–30, Junio 2009. doi: 10.1002/jemt.20688.[26] R.S. Sabeenian, M.E. Paramasivam, y P.M. Dinesh. Identification and counting of fertile pollen grains using morphological operators, FSF and CGF. International Journal of Computer Applications, 42:36–40, Marzo 2012. doi: 10.5120/5787-8041.[27] N. R. Nguyen, M. Donalson-Matasci, y M. C. Shin. Improving pollen classification with less training effort. En 2013 IEEE Workshop on Applications of Computer Vision (WACV), páginas 421–426, Enero 2013. doi: 10.1109/WACV.2013.6475049.[28] Carmen Galán Soldevilla, Paloma Cariñanos González, Purificación Alcázar Teno, y Eugenio Domı́nguez Vilches. Manual de Calidad y Gestión de la Red Española de Aerobiologı́a. 2007.[29] A Duller, G Guller, I France, y H Lamb. A pollen image database for evaluation of automated identification systems. Quaternary Newsletter, páginas 4–9, 1999.[30] Ariadne Barbosa Gonçalves, Junior Silva Souza, Gercina Gonçalves da Silva, Marney Pascoli Cereda, Arnildo Pott, Marco Hiroshi Naka, y Hemerson Pistori. Feature extraction and machine learning for the classification of brazilian savannah pollen grains. PLOS ONE, 11(6):1–20, Junio 2016. doi: 10.1371/journal.pone.0157044.[31] Gilberto Astolfi, Ariadne Barbosa Gonçalves, Geazy Vilharva Menezes, Felipe Silveira Brito Borges, Angelica Christina Melo Nunes Astolfi, Edson Takashi Matsubara, Marco Alvarez, y Hemerson Pistori. POLLEN73S: An image dataset for pollen grains classification. Ecological Informatics, página 101165, 2020. ISSN 1574-9541. doi: 10.1016/j.ecoinf.2020.101165.[32] M. Ranzato, P.E. Taylor, J.M. House, R.C. Flagan, Y. LeCun, y P. Perona. Automatic recognition of biological particles in microscopic images. Pattern Recognition Letters, 28(1):31 – 39, 2007. ISSN 0167-8655. doi: 10.1016/j.patrec.2006.06.010.[33] D. G. Lowe. Object recognition from local scale-invariant features. En Proceedings of the Seventh IEEE International Conference on Computer Vision, volumen 2, páginas 1150–1157 vol.2, 1999. doi: 10.1109/ICCV.1999.790410.[34] Amar Daood, Eraldo Ribeiro, y Mark Bush. Sequential recognition of pollen grain z-stacks by combining CNN and RNN. En Proceedings of the Thirty-First International Florida Artificial Intelligence Research Society Conference, FLAIRS 2018, Melbourne, Florida, USA. May 21-23 2018., páginas 8–13, 2018.[35] Vı́ctor Sevillano, Katherine Holt, y José L. Aznarte. Precise automatic classification of 46 different pollen types with convolutional neural networks. PLOS ONE, 15(6): 1–15, Junio 2020. doi: 10.1371/journal.pone.0229751.[36] Olga Russakovsky, Jia Deng, Hao Su, Jonathan Krause, Sanjeev Satheesh, Sean Ma, Zhiheng Huang, Andrej Karpathy, Aditya Khosla, Michael Bernstein, Alexander C. Berg, y Li Fei-Fei. Imagenet large scale visual recognition challenge. International Journal of Computer Vision, 115(3):211–252, Diciembre 2015. ISSN 1573-1405. doi: 10.1007/s11263-015-0816-y.[37] R. A. Fisher. The use of multiple measurements in taxonomic problems. Annals of Eugenics, 7(2):179–188, 1936. doi: 10.1111/j.1469-1809.1936.tb02137.x.[38] Gunnar Erdtman. The acetolysis method, a revised description. Sven Bot Tidskr, 54:561–564, 1960.[39] K. Holt, G. Allen, R. Hodgson, S. Marsland, y J. Flenley. Progress towards an automated trainable pollen location and classifier system for use in the palynology laboratory. Review of Palaeobotany and Palynology, 167(34):175–183, 2011. ISSN 0034-6667. doi: 10.1016/j.revpalbo.2011.08.006.[40] G. Huang, Z. Liu, L. Van Der Maaten, y K. Q. Weinberger. Densely connected convolutional networks. En 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), páginas 2261–2269, 2017.[41] J. J. Koenderink y A. J. van Doorn. Representation of local geometry in the visual system. Biological Cybernetics, 55(6):367, 1987. doi: 10.1007/BF00318371.[42] C. Schmid y R. Mohr. Local grayvalue invariants for image retrieval. IEEE Transactions on Pattern Analysis and Machine Intelligence, 19(5):530–535, 1997.[43] C. Bishop. Neural Networks for Pattern Recognition. Oxford University Press, 1995.[44] Y. LeCun, L. Bottou, Y. Bengio, y P. Haffner. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11):2278–2324, Noviembre 1998. doi: 10.1109/5.726791.[45] P. LI, W. J. Treloar, J. R. Flenley, y L. Empson. Towards automation of palynology 2: the use of texture measures and neural network analysis for automated identification of optical images of pollen grains. Journal of Quaternary Science, 19 (8):755–762, 2004. doi: 10.1002/jqs.874.[46] Y. Yao y G. Doretto. Boosting for transfer learning with multiple sources. En 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, páginas 1855–1862, 2010. doi: 10.1109/CVPR.2010.5539857.[47] Carolyn Kimme, Dana Ballard, y Jack Sklansky. Finding circles by an array of accumulators. Commun. ACM, 18(2):120–122, Febrero 1975. ISSN 0001-0782. doi: 10.1145/360666.360677.[48] G. Bradski. The OpenCV Library. Dr. Dobb’s Journal of Software Tools, 2000.[49] Richard O. Duda y Peter E. Hart. Use of the hough transformation to detect lines and curves in pictures. Commun. ACM, 15(1):11–15, Enero 1972. ISSN 0001-0782. doi: 10.1145/361237.361242.[50] Gary Bradski y Adrian Kaehler. Learning OpenCV: Computer Vision with the OpenCV Library. O’Reilly Media, first edition, 2008. ISBN 978-0-596-51613-0.[51] Christopher M. Bishop. Pattern Recognition and Machine Learning. Springer, 2006. ISBN 0-38-731073-8.[52] David A. Forsyth y Jean Ponce. Computer Vision: A Modern Approach, 2nd edition. Pearson, 2012. ISBN 9780136085928.[53] David E. Rumelhart, Geoffrey E. Hinton, y Ronald J. Williams. Learning representations by back-propagating errors. Nature, 323:533–536, 1986.[54] Ian Goodfellow, Yoshua Bengio, y Aaron Courville. Deep Learning. MIT Press, 2016. URL deeplearningbook.org. Consultado 2020-10-20.[55] G. van Rossum. Python tutorial. Technical Report CS-R9526, Centrum voor Wiskunde en Informatica (CWI), Amsterdam, 1995.[56] The SciPy community. Numpy, 2020. URL numpy.org. Consultado 2020-10-20.[57] Martı́n Abadi, Ashish Agarwal, Paul Barham, Eugene Brevdo, Zhifeng Chen, Craig Citro, Greg S. Corrado, Andy Davis, Jeffrey Dean, Matthieu Devin, Sanjay Ghemawat, Ian Goodfellow, Andrew Harp, Geoffrey Irving, Michael Isard, Yangqing Jia, Rafal Jozefowicz, Lukasz Kaiser, Manjunath Kudlur, Josh Levenberg, Dandelion Mané, Rajat Monga, Sherry Moore, Derek Murray, Chris Olah, Mike Schuster, Jonathon Shlens, Benoit Steiner, Ilya Sutskever, Kunal Talwar, Paul Tucker, VincentVanhoucke, Vijay Vasudevan, Fernanda Viégas, Oriol Vinyals, Pete Warden, Martin Wattenberg, Martin Wicke, Yuan Yu, y Xiaoqiang Zheng. TensorFlow: Large-scale machine learning on heterogeneous systems, 2015. URL www.tensorflow.org. Con-sultado 2020-10-20.[58] R. Collobert, K. Kavukcuoglu, y C. Farabet. Torch7: A matlab-like environment for machine learning. En BigLearn, NIPS Workshop, 2011.[59] Yangqing Jia, Evan Shelhamer, Jeff Donahue, Sergey Karayev, Jonathan Long, Ross Girshick, Sergio Guadarrama, y Trevor Darrell. Caffe: Convolutional architecture for fast feature embedding. arXiv preprint arXiv:1408.5093, 2014.[60] François Chollet et al. Keras, 2015. URL keras.io. Consultado 2020-10-20.[61] NVIDIA, Péter Vingelmann, y Frank H.P. Fitzek. Cuda, release: 10.2.89, 2020. URL developer.nvidia.com/cuda-toolkit. Consultado 2020-10-20.[62] Khronos Group. Opencl (open computing language), 2020. URL www.khronos. org/opencl. Consultado 2020-10-20.[63] D. H. Hubel y T. N. Wiesel. Receptive fields and functional architecture of monkey striate cortex. The Journal of Physiology, 195(1):215–243, 1968. doi: 10.1113/jphysiol.1968.sp008455.[64] Kunihiko Fukushima. Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. Biological Cybernetics, volume = ”36”, number = ”4”, pages = ”193-202”, year = 1980, doi=10.1007/BF00344251.[65] Alex Krizhevsky, Ilya Sutskever, y Geoffrey E Hinton. Imagenet classification with deep convolutional neural networks. En F. Pereira, C. J. C. Burges, L. Bottou, y K. Q. Weinberger, editores, Advances in Neural Information Processing Systems 25, páginas 1097–1105. Curran Associates, Inc., 2012. doi: 10.1145/3065386.[66] Xavier Glorot, Antoine Bordes, y Yoshua Bengio. Deep sparse rectifier neural networks. volumen 15 of Proceedings of Machine Learning Research, páginas 315–323, Fort Lauderdale, FL, USA, Abril 2011. JMLR Workshop and Conference Procee-dings.[67] Trevor Hastie, Robert Tibshirani, y Jerome Friedman. The Elements of Statistical Learning. Data Mining, Inference, and Prediction, 2nd edition. Springer, 2009. ISBN 978-0-387-84858-7.[68] Geoffrey E. Hinton, Nitish Srivastava, Alex Krizhevsky, Ilya Sutskever, y Ruslan Salakhutdinov. Improving neural networks by preventing co-adaptation of feature detectors. arXiv preprint arXiv:1207.0580, 2012.[69] Karen Simonyan y Andrew Zisserman. Very deep convolutional networks for large-scale image recognition. En ICLR 2015 Conference Proceedings, San Diego, USA, 2015.[70] Y. Bengio, P. Simard, y P. Frasconi. Learning long-term dependencies with gradient descent is difficult. IEEE Transactions on Neural Networks, 5(2):157–166, 1994. doi: 10.1109/72.279181.[71] Xavier Glorot y Yoshua Bengio. Understanding the difficulty of training deep feed-forward neural networks. volumen 9 of Proceedings of Machine Learning Research,páginas 249–256, Chia Laguna Resort, Sardinia, Italy, Mayo 2010. JMLR Workshop and Conference Proceedings.[72] Kaiming He, Xiangyu Zhang, Shaoqing Ren, y Jian Sun. Deep residual learning for image recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), páginas 770–778, 2016. doi: 10.1109/CVPR.2016.90.[73] Chuanqi Tan, Fuchun Sun, Tao Kong, Wenchang Zhang, Chao Yang, y Chunfang Liu. A survey on deep transfer learning. En Věra Kůrková, Yannis Manolopoulos, Barbara Hammer, Lazaros Iliadis, y Ilias Maglogiannis, editores, Artificial NeuralNetworks and Machine Learning – ICANN 2018, páginas 270–279. Springer International Publishing, 2018. ISBN 978-3-030-01424-7.[74] N. Dalal y B. Triggs. Histograms of oriented gradients for human detection. En 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05), volumen 1, páginas 886–893 vol. 1, 2005. doi: 10.1109/CVPR.2005.177.[75] P. F. Felzenszwalb, R. B. Girshick, D. McAllester, y D. Ramanan. Object detection with discriminatively trained part-based models. IEEE Transactions on Pattern Analysis and Machine Intelligence, 32(9):1627–1645, 2010. doi: 10.1109/T-PAMI.2009.167.[76] J. R. R. Uijlings, K. E. A. van de Sande, T. Gevers, y A. W. M. Smeulders. Selective search for object recognition. International Journal of Computer Vision, 104(2): 154–171, Septiembre 2013. ISSN 1573-1405. doi: 10.1007/s11263-013-0620-5.[77] Pedro F. Felzenszwalb y Daniel P. Huttenlocher. Efficient graph-based image segmentation. International Journal of Computer Vision, 59(2):167–181, Septiembre 2004. ISSN 1573-1405. doi: 10.1023/B:VISI.0000022288.19776.77.[78] K. He, X. Zhang, S. Ren, y J. Sun. Spatial pyramid pooling in deep convolutional networks for visual recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 37(9):1904–1916, 2015. doi: 10.1109/TPAMI.2015.2389824.[79] C. Lawrence Zitnick y Piotr Dollár. Edge boxes: Locating object proposals from edges. En David Fleet, Tomas Pajdla, Bernt Schiele, y Tinne Tuytelaars, editores, Computer Vision – ECCV 2014, páginas 391–405. Springer International Publishing, 2014. ISBN 978-3-319-10602-1.[80] T. Lin, P. Dollar, R. Girshick, K. He, B. Hariharan, y S. Belongie. Feature pyramid networks for object detection. En 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), páginas 936–944, Los Alamitos, CA, USA, Julio 2017. IEEE Computer Society. doi: 10.1109/CVPR.2017.106.[81] JR Flenley. The problem of pollen recognition. Problems in Picture Interpretation, Clowes MB, Penny JP (eds). CSIRO: Canberra, páginas 141–145, 1968.[82] The Qt Company Ltd. Qt, a cross-platform software development framework, 2020. URL www.qt.io. Consultado 2020-10-20.[83] The PostgreSQL Global Development Group. PostgreSQL. URL www.postgresql. org. Consultado 2020-10-20.[84] Ross Girshick, Ilija Radosavovic, Georgia Gkioxari, Piotr Dollár, y Kaiming He. Detectron, 2018. URL github.com/facebookresearch/detectron. Consultado 2020-10-20.[85] Adam Paszke, Sam Gross, Soumith Chintala, Gregory Chanan, Edward Yang, Zachary DeVito, Zeming Lin, Alban Desmaison, Luca Antiga, y Adam Lerer. Automatic differentiation in pytorch. En NIPS-W, 2017.[86] NVIDIA Corporation. Nvidia jetson systems, 2019. URL www.nvidia.com/en-us/autonomous-machines/embedded-systems. Consultado 2020-10-20.[87] M. Everingham, L. Van Gool, C. K. I. Williams, J. Winn, y A. Zisserman. The pascal visual object classes (VOC) challenge. International Journal of Computer Vision, 88(2):303–338, Junio 2010.[88] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, y C. Lawrence Zitnick. Microsoft coco: Common objects in context. En David Fleet, Tomas Pajdla, Bernt Schiele, y Tinne Tuytelaars,editores, Computer Vision – ECCV 2014, páginas 740–755. Springer International Publishing, 2014. ISBN 978-3-319-10602-1.[89] Mark Everingham, S. M. Ali Eslami, Luc Van Gool, Christopher K. I. Williams, John Winn, y Andrew Zisserman. The pascal visual object classes challenge: A retrospective. International Journal of Computer Vision, 111(1):98–136, Enero 2015. ISSN 1573-1405. doi: 10.1007/s11263-014-0733-5.[90] Ross Girshick, Ilija Radosavovic, Georgia Gkioxari, Piotr Dollár, y Kaiming He. Detectron model zoo and baselines, 2018. URL github.com/facebookresearch/Detectron/blob/master/MODEL_ZOO.md. Consultado 2020-10-20.[91] R. Gallardo-Caballero, C.J. Garcı́a-Orellana, A. Garcı́a-Manso, H.M. González-Velasco, R. Tormo-Molina, y M. Macı́as-Macı́as. Precise pollen grain detection in bright field microscopy using deep learning techniques. Sensors, 19:3583.1 –3583.19, 2019. ISSN 1424-8220. doi: 10.3390/s19163583.[92] Ramón Gallardo-Caballero, Antonio Garcı́a-Manso, Carlos J. Garcı́a-Orellana, Horacio M. González-Velasco, Rafael Tormo-Molina, y Miguel and Macı́as-Macı́as. CAPIPollen DB1, 2019. URL capi.unex.es/pollendb1. Consultado 2020-10-20.

Literals

  • dcterms:creator
    • Gallardo Caballero, Ramón
  • ou:tribunal
    • Luna Valero, Francisco (Vocal)
    • Macías Macías, Miguel (Presidente)
    • Aznarte Mellado, Jose Luis (Secretario)
  • dcterms:director
    • Garcia Orellana, Carlos Javier (Director)
    • García Manso, Antonio (Codirector)
  • dcterms:title
    • Reconocimiento Y Clasificación Automatizada De Especies De Polen Alergénicas
  • dcterms:subject
    • Microscopios
    • Palinologia
    • Tratamiento Digital De Imagenes
    • Inteligencia Artificial
  • ou:programaDoctorado
    • Programa De Doctorado En Modelización Y Experimentación En Ciencia Y Tecnología Por La Universidad De Extremadura
  • dcterms:description
    • El presente trabajo de tesis doctoral está centrado en la detección de granos de polen en imágenes palinológicas tomadas de muestras estándar utilizando técnicas de aprendizaje profundo. La localización y clasificación de granos de polen es una tarea manual, muy laboriosa, que llevan a cabo palinólogos experimentados para estimar las concentraciones de los tipos de polen atmosférico presentes en distintas áreas geográficas. Este proceso se realiza a partir de muestras obtenidas en captadores de partículas aerobiológicas que, tras un procesamiento, deben visualizarse con un microscopio óptico. La estimación de los distintos tipos de polen resulta de gran utilidad en varios campos de la ciencia como en alergología, agricultura, ciencias forenses o paleopalinología.Desde el año 2012 el campo de la inteligencia artificial ha experimentado un desarrollo muy importante en clasificación y detección de objetos en imágenes, gracias al exitoso desarrollo de técnicas basadas en redes neuronales convolucionales. Parte del éxito logrado se ha debido a la aparición en el mercado de unidades de procesamiento gráfico con grandes capacidades de cálculo paralelo, pero también resultó importante la recopilación de grandes conjuntos de imágenes clasificadas.Esta tesis doctoral tiene por objetivo principal evaluar la idoneidad de un método basado en redes neuronales convolucionales, que permita realizar la localización y detección de granos de varios tipos de polen de forma robusta. En primer lugar, dada la inexistencia de una base de datos adecuada, se ha construido una base de datos de muestras palinológicas multifocales. La base de datos ha sido etiquetada convenientemente para permitir la localización y clasificación de cada grano de polen en el plano de enfoque en el que se muestre con un borde más nítido. A partir de esta base de datos, hemos estudiado el rendimiento de dos modelos neuronales de detección recientes Faster R-CNN con FNP y RetinaNet en las vertientes de localización y detección de granos de polen. Para ello, hemos desarrollado una estrategia de localización multifocal usando los apilamientos de imágenes que proporciona nuestra base de datos. Esta estrategia trata de maximizar la tasa de éxito en detección en comparación con una estrategia de muestreo único. La aproximación utilizada es abordable gracias a los reducidos tiempos de procesamiento que presentan ambos modelos utilizando una GPU de bajo coste. Además, como parte del algoritmo de de localización multifocal hemos implementado una variante de la métrica de solapamiento estándar IoU que nos permite reducir los falsos positivos asociados a propuestas de pequeño tamaño que aparecen en el procesado del apilamiento. En términos de localización, hemos alcanzado una sensibildad del 98.70% y una precisión del 99.27%, y en detección ambos valores se sitúan en 97.57% y 98.59% respectivamente.Para poder comparar el funcionamiento de nuestra propuesta, hemos estudiado el rendimiento alcanzable tanto con técnicas clásicas de deteción de objetos como con a partir de una sola imagen por muestra. Como resultado de este estudio, hemos determinado que la aproximación multifocal incrementa en al menos un 2.43% la tasa de aciertos respecto de la aproximación monoimagen. Adicionalmente, estudiamos la precisión de los marcos generados por los modelos neuronales respecto de las marcas de referencia en términos de IoU, obteniendo un valor medio de 0.91, lo que nos indica una alta precisión.Como principal conclusión de este trabajo, podemos extraer que las técnicas de detección de objetos estudiadas suponen un primer paso confiable para desarrollar un sistema de detección semiautomático para uso en el laboratorio de palinología. Además, hemos comprobado que los modelos estándar preajustados para objetos macroscópicos pueden reentrenarse de extremo a extremo para identificar objetos microscópicos como son los granos de polen. Por otro lado, hemos probado que el uso de una estrategia multifocal mejora la localización de granos de polen. Y en tareas de conteo, el uso de granos de borde no definido puede mejorar el rendimiento en localización. Por último, hemos desarrollado una base de datos de muestras polínicas que permite llevar a cabo tareas de detección multienfoque que ponemos a disposición de la comunidad investigadora.Bibliografía:[1] P. C. Tzedakis, V. Andrieu, J.-L. De Beaulieu, S. Crowhurst, M. Follieri, H. Hooghiemstra, D. Magri, M Reille, L. Sadori, N.J. Shackleton, y T.A. Wijmstra. Comparison of terrestrial and marine records of changing climate of the last 500,000 years. Earth and Planetary Science Letters, 150(1):171–176, 1997. ISSN 0012-821X. doi: 10.1016/S0012-821X(97)00078-2.[2] D.C. Mildenhall, P.E.J. Wiltshire, y V.M. Bryant. Forensic palynology: Why do it and how it works. Forensic Science International, 163(3):163 – 172, 2006. ISSN 0379-0738. doi: 10.1016/j.forsciint.2006.07.012.[3] Carmen Galán, Luis Vázquez, Herminia Garcı́a-Mozo, y Eugenio Domı́nguez. Forecasting olive (olea europaea) crop yield based on pollen emission. Field Crops Research, 86(1):43 – 51, 2004. ISSN 0378-4290. doi: 10.1016/S0378-4290(03)00170-9.[4] Rafael Redondo, Gloria Bueno, François Chung, Rodrigo Nava, J. Vı́ctor Marcos, Gabriel Cristóbal, Tomás Rodrı́guez, Amelia Gonzalez-Porto, Cristina Pardo, Oscar Déniz, y B. Escalante-Ramı́rez. Pollen segmentation and feature evaluation for automatic classification in bright-field microscopy. Computers and Electronics in Agriculture, 110:56 – 69, 2015. ISSN 0168-1699. doi: 10.1016/j.compag.2014.09.020.[5] Werner Von Der Ohe, Livia Persano Oddo, Maria Lucia Piana, Monique Morlot y Peter Martin. Harmonized methods of melissopalynology. Apidologie, 35, 2004. doi: 10.1051/apido:2004050.[6] G. D’ Amato, L. Cecchi, S. Bonini, C. Nunes, I. Annesi-Maesano, H. Behrendt, G. Liccardi, T. Popov, y P. Van Cauwenberge. Allergenic pollen and pollen allergy in Europe. Allergy, 62(9):976–990, 2007. doi: 10.1111/j.1398-9995.2007.01393.x.[7] Yoshimasa Kawazoe, Kiminori Shimamoto, Ryohei Yamaguchi, Yukako Shintani-Domoto, Hiroshi Uozaki, Masashi Fukayama, y Kazuhiko Ohe. Faster R-CNN-Based glomerular detection in multistained human whole slide images. Journal ofImaging, 4(7), 2018. ISSN 2313-433X. doi: 10.3390/jimaging4070091.[8] Robert T. Krivacic, Andras Ladanyi, Douglas N. Curry, H. B. Hsieh, Peter Kuhn, Danielle E. Bergsrud, Jane F. Kepros, Todd Barbera, Michael Y. Ho, Lan Bo Chen, Richard A. Lerner, y Richard H. Bruce. A rare-cell detector for cancer. Proceedings of the National Academy of Sciences, 101(29):10501–10504, 2004. ISSN 0027-8424. doi: 10.1073/pnas.0404036101.[9] Rufeng Li, Yibei Wang, Hong Xu, Baowei Fei, y Binjie Qin. Micro-droplet detection method for measuring the concentration of alkaline phosphatase-labeled nanoparticles in fluorescence microscopy. Sensors, 17(11), 2017. ISSN 1424-8220. doi: 10.3390/s17112685.[10] Jason Yosinski, Jeff Clune, Yoshua Bengio, y Hod Lipson. How transferable are features in deep neural networks? En Proceedings of the 27th International Conference on Neural Information Processing Systems - Volume 2, NIPS’14, páginas3320–3328, Cambridge, MA, USA, 2014. MIT Press.[11] Ross Girshick, Jeff Donahue, Trevor Darrell, y Jitendra Malik. Rich feature hierarchies for accurate object detection and semantic segmentation. En Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition, páginas 580–587, Washington, DC, USA, 2014. IEEE Computer Society. ISBN 978-1-4799-5118-5. doi: 10.1109/CVPR.2014.81.[12] Ross Girshick. Fast R-CNN. En 2015 International Conference on Computer Vision (ICCV), páginas 1440–1448, Santiago, Chile, 2015. doi: 10.1109/ICCV.2015.169.[13] Shaoqing Ren, Kaiming He, Ross Girshick, y Jian Sun. Faster R-CNN: Towards real-time object detection with region proposal networks. En C. Cortes, N.D. Lawrence, D.D. Lee, M. Sugiyama, y R. Garnett, editores, Advances in Neural Information Processing Systems, volumen 28, 2015.[14] Wei Liu, Dragomir Anguelov, Dumitru Erhan, Christian Szegedy, Scott Reed, Cheng-Yang Fu, y Alexander C. Berg. Ssd: Single shot multibox detector. En Bastian Leibe, Jiri Matas, Nicu Sebe, y Max Welling, editores, Computer Vi-sion – ECCV 2016, páginas 21–37. Springer International Publishing, 2016. doi: 10.1007/978-3-319-46448-0 2.[15] Kaiming He, Georgia Gkioxari, Piotr Dollar, y Ross Girshick. Mask R-CNN. En 2017 IEEE International Conference on Computer Vision (ICCV), páginas 2961–2969, Venecia, Italia, 2017. doi: 10.1109/ICCV.2017.322.[16] T. Lin, P. Goyal, R. Girshick, K. He, y P. Dollár. Focal loss for dense object detection. En 2017 IEEE International Conference on Computer Vision (ICCV), páginas 2999–3007, Octubre 2017. doi: 10.1109/ICCV.2017.324.[17] J. Redmon, S. Divvala, R. Girshick, y A. Farhadi. You only look once: Unified, real-time object detection. En 2016 IEEE Conference on Computer Vision and Pattern Recognition, páginas 779–788, 2016. doi: 10.1109/CVPR.2016.91.[18] J. Redmon y A. Farhadi. Yolo9000: Better, faster, stronger. En 2017 IEEE Conference on Computer Vision and Pattern Recognition, páginas 6517–6525, Julio 2017. doi: 10.1109/CVPR.2017.690.[19] Joseph Redmon y Ali Farhadi. Yolov3: An incremental improvement. arXiv preprint arXiv:1804.02767, 2018.[20] J. M. Hirst. An automatic volumetric spore trap. Annals of Applied Biology, 39(2): 257 – 265, 1952. doi: 10.1111/j.1744-7348.1952.tb00904.x.[21] Vı́ctor Sevillano y José L. Aznarte. Improving classification of pollen grain images of the polen23e dataset through three different applications of deep learning convolutional neural networks. PLOS ONE, 13(9):1–18, Septiembre 2018. doi: 10.1371/journal.pone.0201807.[22] D. G. Arias, M. V. M. Cirne, J. E. Chire, y H. Pedrini. Classification of pollen grain images based on an ensemble of classifiers. En 2017 16th IEEE International Conference on Machine Learning and Applications (ICMLA), páginas 234–240, Diciembre 2017. doi: 10.1109/ICMLA.2017.0-153.[23] Amar Daood, Eraldo Ribeiro, y Mark Bush. Pollen grain recognition using deep learning. En George Bebis, Richard Boyle, Bahram Parvin, Darko Koracin, Fatih Porikli, Sandra Skaff, Alireza Entezari, Jianyuan Min, Daisuke Iwai, Amela Sadagic, Carlos Scheidegger, y Tobias Isenberg, editores, Advances in Visual Computing, páginas 321–330. Springer International Publishing, 2016. ISBN 978-3-319-50835-1. doi: 10.1007/978-3-319-50835-1 30.[24] Estela Dı́az-López, M. Rincón, J. Rojo, C. Vaquero, A. Rapp, S. Salmeron-Majadas, y R. Pérez-Badia. Localisation of pollen grains in digitised real daily airborne samples. En José Manuel Ferrández Vicente, José Ramón Álvarez-Sánchez, Félix de la Paz López, Fco. Javier Toledo-Moreo, y Hojjat Adeli, editores, Artificial Computation in Biology and Medicine, páginas 348–357. Springer International Publishing, 2015. ISBN 978-3-319-18914-7. doi: 10.1007/978-3-319-18914-7 37.[25] Sander Landsmeer, Emile Hendriks, Letty De Weger, Johan Reiber, y Berend Stoel. Detection of pollen grains in multifocal optical microscopy images of air samples. Microscopy research and technique, 72:424–30, Junio 2009. doi: 10.1002/jemt.20688.[26] R.S. Sabeenian, M.E. Paramasivam, y P.M. Dinesh. Identification and counting of fertile pollen grains using morphological operators, FSF and CGF. International Journal of Computer Applications, 42:36–40, Marzo 2012. doi: 10.5120/5787-8041.[27] N. R. Nguyen, M. Donalson-Matasci, y M. C. Shin. Improving pollen classification with less training effort. En 2013 IEEE Workshop on Applications of Computer Vision (WACV), páginas 421–426, Enero 2013. doi: 10.1109/WACV.2013.6475049.[28] Carmen Galán Soldevilla, Paloma Cariñanos González, Purificación Alcázar Teno, y Eugenio Domı́nguez Vilches. Manual de Calidad y Gestión de la Red Española de Aerobiologı́a. 2007.[29] A Duller, G Guller, I France, y H Lamb. A pollen image database for evaluation of automated identification systems. Quaternary Newsletter, páginas 4–9, 1999.[30] Ariadne Barbosa Gonçalves, Junior Silva Souza, Gercina Gonçalves da Silva, Marney Pascoli Cereda, Arnildo Pott, Marco Hiroshi Naka, y Hemerson Pistori. Feature extraction and machine learning for the classification of brazilian savannah pollen grains. PLOS ONE, 11(6):1–20, Junio 2016. doi: 10.1371/journal.pone.0157044.[31] Gilberto Astolfi, Ariadne Barbosa Gonçalves, Geazy Vilharva Menezes, Felipe Silveira Brito Borges, Angelica Christina Melo Nunes Astolfi, Edson Takashi Matsubara, Marco Alvarez, y Hemerson Pistori. POLLEN73S: An image dataset for pollen grains classification. Ecological Informatics, página 101165, 2020. ISSN 1574-9541. doi: 10.1016/j.ecoinf.2020.101165.[32] M. Ranzato, P.E. Taylor, J.M. House, R.C. Flagan, Y. LeCun, y P. Perona. Automatic recognition of biological particles in microscopic images. Pattern Recognition Letters, 28(1):31 – 39, 2007. ISSN 0167-8655. doi: 10.1016/j.patrec.2006.06.010.[33] D. G. Lowe. Object recognition from local scale-invariant features. En Proceedings of the Seventh IEEE International Conference on Computer Vision, volumen 2, páginas 1150–1157 vol.2, 1999. doi: 10.1109/ICCV.1999.790410.[34] Amar Daood, Eraldo Ribeiro, y Mark Bush. Sequential recognition of pollen grain z-stacks by combining CNN and RNN. En Proceedings of the Thirty-First International Florida Artificial Intelligence Research Society Conference, FLAIRS 2018, Melbourne, Florida, USA. May 21-23 2018., páginas 8–13, 2018.[35] Vı́ctor Sevillano, Katherine Holt, y José L. Aznarte. Precise automatic classification of 46 different pollen types with convolutional neural networks. PLOS ONE, 15(6): 1–15, Junio 2020. doi: 10.1371/journal.pone.0229751.[36] Olga Russakovsky, Jia Deng, Hao Su, Jonathan Krause, Sanjeev Satheesh, Sean Ma, Zhiheng Huang, Andrej Karpathy, Aditya Khosla, Michael Bernstein, Alexander C. Berg, y Li Fei-Fei. Imagenet large scale visual recognition challenge. International Journal of Computer Vision, 115(3):211–252, Diciembre 2015. ISSN 1573-1405. doi: 10.1007/s11263-015-0816-y.[37] R. A. Fisher. The use of multiple measurements in taxonomic problems. Annals of Eugenics, 7(2):179–188, 1936. doi: 10.1111/j.1469-1809.1936.tb02137.x.[38] Gunnar Erdtman. The acetolysis method, a revised description. Sven Bot Tidskr, 54:561–564, 1960.[39] K. Holt, G. Allen, R. Hodgson, S. Marsland, y J. Flenley. Progress towards an automated trainable pollen location and classifier system for use in the palynology laboratory. Review of Palaeobotany and Palynology, 167(34):175–183, 2011. ISSN 0034-6667. doi: 10.1016/j.revpalbo.2011.08.006.[40] G. Huang, Z. Liu, L. Van Der Maaten, y K. Q. Weinberger. Densely connected convolutional networks. En 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), páginas 2261–2269, 2017.[41] J. J. Koenderink y A. J. van Doorn. Representation of local geometry in the visual system. Biological Cybernetics, 55(6):367, 1987. doi: 10.1007/BF00318371.[42] C. Schmid y R. Mohr. Local grayvalue invariants for image retrieval. IEEE Transactions on Pattern Analysis and Machine Intelligence, 19(5):530–535, 1997.[43] C. Bishop. Neural Networks for Pattern Recognition. Oxford University Press, 1995.[44] Y. LeCun, L. Bottou, Y. Bengio, y P. Haffner. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11):2278–2324, Noviembre 1998. doi: 10.1109/5.726791.[45] P. LI, W. J. Treloar, J. R. Flenley, y L. Empson. Towards automation of palynology 2: the use of texture measures and neural network analysis for automated identification of optical images of pollen grains. Journal of Quaternary Science, 19 (8):755–762, 2004. doi: 10.1002/jqs.874.[46] Y. Yao y G. Doretto. Boosting for transfer learning with multiple sources. En 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, páginas 1855–1862, 2010. doi: 10.1109/CVPR.2010.5539857.[47] Carolyn Kimme, Dana Ballard, y Jack Sklansky. Finding circles by an array of accumulators. Commun. ACM, 18(2):120–122, Febrero 1975. ISSN 0001-0782. doi: 10.1145/360666.360677.[48] G. Bradski. The OpenCV Library. Dr. Dobb’s Journal of Software Tools, 2000.[49] Richard O. Duda y Peter E. Hart. Use of the hough transformation to detect lines and curves in pictures. Commun. ACM, 15(1):11–15, Enero 1972. ISSN 0001-0782. doi: 10.1145/361237.361242.[50] Gary Bradski y Adrian Kaehler. Learning OpenCV: Computer Vision with the OpenCV Library. O’Reilly Media, first edition, 2008. ISBN 978-0-596-51613-0.[51] Christopher M. Bishop. Pattern Recognition and Machine Learning. Springer, 2006. ISBN 0-38-731073-8.[52] David A. Forsyth y Jean Ponce. Computer Vision: A Modern Approach, 2nd edition. Pearson, 2012. ISBN 9780136085928.[53] David E. Rumelhart, Geoffrey E. Hinton, y Ronald J. Williams. Learning representations by back-propagating errors. Nature, 323:533–536, 1986.[54] Ian Goodfellow, Yoshua Bengio, y Aaron Courville. Deep Learning. MIT Press, 2016. URL deeplearningbook.org. Consultado 2020-10-20.[55] G. van Rossum. Python tutorial. Technical Report CS-R9526, Centrum voor Wiskunde en Informatica (CWI), Amsterdam, 1995.[56] The SciPy community. Numpy, 2020. URL numpy.org. Consultado 2020-10-20.[57] Martı́n Abadi, Ashish Agarwal, Paul Barham, Eugene Brevdo, Zhifeng Chen, Craig Citro, Greg S. Corrado, Andy Davis, Jeffrey Dean, Matthieu Devin, Sanjay Ghemawat, Ian Goodfellow, Andrew Harp, Geoffrey Irving, Michael Isard, Yangqing Jia, Rafal Jozefowicz, Lukasz Kaiser, Manjunath Kudlur, Josh Levenberg, Dandelion Mané, Rajat Monga, Sherry Moore, Derek Murray, Chris Olah, Mike Schuster, Jonathon Shlens, Benoit Steiner, Ilya Sutskever, Kunal Talwar, Paul Tucker, VincentVanhoucke, Vijay Vasudevan, Fernanda Viégas, Oriol Vinyals, Pete Warden, Martin Wattenberg, Martin Wicke, Yuan Yu, y Xiaoqiang Zheng. TensorFlow: Large-scale machine learning on heterogeneous systems, 2015. URL www.tensorflow.org. Con-sultado 2020-10-20.[58] R. Collobert, K. Kavukcuoglu, y C. Farabet. Torch7: A matlab-like environment for machine learning. En BigLearn, NIPS Workshop, 2011.[59] Yangqing Jia, Evan Shelhamer, Jeff Donahue, Sergey Karayev, Jonathan Long, Ross Girshick, Sergio Guadarrama, y Trevor Darrell. Caffe: Convolutional architecture for fast feature embedding. arXiv preprint arXiv:1408.5093, 2014.[60] François Chollet et al. Keras, 2015. URL keras.io. Consultado 2020-10-20.[61] NVIDIA, Péter Vingelmann, y Frank H.P. Fitzek. Cuda, release: 10.2.89, 2020. URL developer.nvidia.com/cuda-toolkit. Consultado 2020-10-20.[62] Khronos Group. Opencl (open computing language), 2020. URL www.khronos. org/opencl. Consultado 2020-10-20.[63] D. H. Hubel y T. N. Wiesel. Receptive fields and functional architecture of monkey striate cortex. The Journal of Physiology, 195(1):215–243, 1968. doi: 10.1113/jphysiol.1968.sp008455.[64] Kunihiko Fukushima. Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. Biological Cybernetics, volume = ”36”, number = ”4”, pages = ”193-202”, year = 1980, doi=10.1007/BF00344251.[65] Alex Krizhevsky, Ilya Sutskever, y Geoffrey E Hinton. Imagenet classification with deep convolutional neural networks. En F. Pereira, C. J. C. Burges, L. Bottou, y K. Q. Weinberger, editores, Advances in Neural Information Processing Systems 25, páginas 1097–1105. Curran Associates, Inc., 2012. doi: 10.1145/3065386.[66] Xavier Glorot, Antoine Bordes, y Yoshua Bengio. Deep sparse rectifier neural networks. volumen 15 of Proceedings of Machine Learning Research, páginas 315–323, Fort Lauderdale, FL, USA, Abril 2011. JMLR Workshop and Conference Procee-dings.[67] Trevor Hastie, Robert Tibshirani, y Jerome Friedman. The Elements of Statistical Learning. Data Mining, Inference, and Prediction, 2nd edition. Springer, 2009. ISBN 978-0-387-84858-7.[68] Geoffrey E. Hinton, Nitish Srivastava, Alex Krizhevsky, Ilya Sutskever, y Ruslan Salakhutdinov. Improving neural networks by preventing co-adaptation of feature detectors. arXiv preprint arXiv:1207.0580, 2012.[69] Karen Simonyan y Andrew Zisserman. Very deep convolutional networks for large-scale image recognition. En ICLR 2015 Conference Proceedings, San Diego, USA, 2015.[70] Y. Bengio, P. Simard, y P. Frasconi. Learning long-term dependencies with gradient descent is difficult. IEEE Transactions on Neural Networks, 5(2):157–166, 1994. doi: 10.1109/72.279181.[71] Xavier Glorot y Yoshua Bengio. Understanding the difficulty of training deep feed-forward neural networks. volumen 9 of Proceedings of Machine Learning Research,páginas 249–256, Chia Laguna Resort, Sardinia, Italy, Mayo 2010. JMLR Workshop and Conference Proceedings.[72] Kaiming He, Xiangyu Zhang, Shaoqing Ren, y Jian Sun. Deep residual learning for image recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), páginas 770–778, 2016. doi: 10.1109/CVPR.2016.90.[73] Chuanqi Tan, Fuchun Sun, Tao Kong, Wenchang Zhang, Chao Yang, y Chunfang Liu. A survey on deep transfer learning. En Věra Kůrková, Yannis Manolopoulos, Barbara Hammer, Lazaros Iliadis, y Ilias Maglogiannis, editores, Artificial NeuralNetworks and Machine Learning – ICANN 2018, páginas 270–279. Springer International Publishing, 2018. ISBN 978-3-030-01424-7.[74] N. Dalal y B. Triggs. Histograms of oriented gradients for human detection. En 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05), volumen 1, páginas 886–893 vol. 1, 2005. doi: 10.1109/CVPR.2005.177.[75] P. F. Felzenszwalb, R. B. Girshick, D. McAllester, y D. Ramanan. Object detection with discriminatively trained part-based models. IEEE Transactions on Pattern Analysis and Machine Intelligence, 32(9):1627–1645, 2010. doi: 10.1109/T-PAMI.2009.167.[76] J. R. R. Uijlings, K. E. A. van de Sande, T. Gevers, y A. W. M. Smeulders. Selective search for object recognition. International Journal of Computer Vision, 104(2): 154–171, Septiembre 2013. ISSN 1573-1405. doi: 10.1007/s11263-013-0620-5.[77] Pedro F. Felzenszwalb y Daniel P. Huttenlocher. Efficient graph-based image segmentation. International Journal of Computer Vision, 59(2):167–181, Septiembre 2004. ISSN 1573-1405. doi: 10.1023/B:VISI.0000022288.19776.77.[78] K. He, X. Zhang, S. Ren, y J. Sun. Spatial pyramid pooling in deep convolutional networks for visual recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 37(9):1904–1916, 2015. doi: 10.1109/TPAMI.2015.2389824.[79] C. Lawrence Zitnick y Piotr Dollár. Edge boxes: Locating object proposals from edges. En David Fleet, Tomas Pajdla, Bernt Schiele, y Tinne Tuytelaars, editores, Computer Vision – ECCV 2014, páginas 391–405. Springer International Publishing, 2014. ISBN 978-3-319-10602-1.[80] T. Lin, P. Dollar, R. Girshick, K. He, B. Hariharan, y S. Belongie. Feature pyramid networks for object detection. En 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), páginas 936–944, Los Alamitos, CA, USA, Julio 2017. IEEE Computer Society. doi: 10.1109/CVPR.2017.106.[81] JR Flenley. The problem of pollen recognition. Problems in Picture Interpretation, Clowes MB, Penny JP (eds). CSIRO: Canberra, páginas 141–145, 1968.[82] The Qt Company Ltd. Qt, a cross-platform software development framework, 2020. URL www.qt.io. Consultado 2020-10-20.[83] The PostgreSQL Global Development Group. PostgreSQL. URL www.postgresql. org. Consultado 2020-10-20.[84] Ross Girshick, Ilija Radosavovic, Georgia Gkioxari, Piotr Dollár, y Kaiming He. Detectron, 2018. URL github.com/facebookresearch/detectron. Consultado 2020-10-20.[85] Adam Paszke, Sam Gross, Soumith Chintala, Gregory Chanan, Edward Yang, Zachary DeVito, Zeming Lin, Alban Desmaison, Luca Antiga, y Adam Lerer. Automatic differentiation in pytorch. En NIPS-W, 2017.[86] NVIDIA Corporation. Nvidia jetson systems, 2019. URL www.nvidia.com/en-us/autonomous-machines/embedded-systems. Consultado 2020-10-20.[87] M. Everingham, L. Van Gool, C. K. I. Williams, J. Winn, y A. Zisserman. The pascal visual object classes (VOC) challenge. International Journal of Computer Vision, 88(2):303–338, Junio 2010.[88] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, y C. Lawrence Zitnick. Microsoft coco: Common objects in context. En David Fleet, Tomas Pajdla, Bernt Schiele, y Tinne Tuytelaars,editores, Computer Vision – ECCV 2014, páginas 740–755. Springer International Publishing, 2014. ISBN 978-3-319-10602-1.[89] Mark Everingham, S. M. Ali Eslami, Luc Van Gool, Christopher K. I. Williams, John Winn, y Andrew Zisserman. The pascal visual object classes challenge: A retrospective. International Journal of Computer Vision, 111(1):98–136, Enero 2015. ISSN 1573-1405. doi: 10.1007/s11263-014-0733-5.[90] Ross Girshick, Ilija Radosavovic, Georgia Gkioxari, Piotr Dollár, y Kaiming He. Detectron model zoo and baselines, 2018. URL github.com/facebookresearch/Detectron/blob/master/MODEL_ZOO.md. Consultado 2020-10-20.[91] R. Gallardo-Caballero, C.J. Garcı́a-Orellana, A. Garcı́a-Manso, H.M. González-Velasco, R. Tormo-Molina, y M. Macı́as-Macı́as. Precise pollen grain detection in bright field microscopy using deep learning techniques. Sensors, 19:3583.1 –3583.19, 2019. ISSN 1424-8220. doi: 10.3390/s19163583.[92] Ramón Gallardo-Caballero, Antonio Garcı́a-Manso, Carlos J. Garcı́a-Orellana, Horacio M. González-Velasco, Rafael Tormo-Molina, y Miguel and Macı́as-Macı́as. CAPIPollen DB1, 2019. URL capi.unex.es/pollendb1. Consultado 2020-10-20.
  • dcterms:identifier
    • 2021-14
  • ou:tesisDehesa
  • vcard:url

Typed Literals

Recognized prefixes