Kitabı oku: «Innovando la educación en la tecnología», sayfa 13

Yazı tipi:

4.2 Clasificación de peces

Para la ejecución de los experimentos y pruebas relacionadas a la tarea de clasificación, se realizaron determinados pasos para lograr el entrenamiento exitoso en la nube de Google Colaboratory.

Siendo el objetivo subir las imágenes a la carpeta de trabajo en la nube de Colaboratory, primero se hicieron determinadas tareas de forma local. Las tareas realizadas se detallan en el siguiente orden:

1) Etiquetado de las imágenes para poder saber qué imagen corresponde a determinada especie. Esta tarea se realizó de forma manual.

2) Para las imágenes que contaban con el formato HEIC, se empleó un software de conversión de formato a JPEG.

3) División del conjunto de datos en una proporción de 80 % para entrenamiento y 20 % para validación.

4) Dadas las dimensiones originales de las imágenes: 4032 x 3024 píxeles, se redimensionaron las mismas con el objetivo de optimizar el tiempo del proceso de entrenamiento en la nube. Las nuevas dimensiones obtenidas fueron de 299 x 299 píxeles.

4.3 Entrenamiento de la red neuronal

Se realizaron numerosas iteraciones de entrenamiento caracterizadas por la variación de los parámetros de tamaño de lote, cantidad de épocas y el parámetro de guardado del modelo y sus pesos. El mejor resultado obtenido se dio en la iteración que presentó mejor convergencia en el tiempo de los valores de precisión y pérdida de entrenamiento y validación durante el proceso de entrenamiento. Los valores de los parámetros para la iteración mencionada son: tamaño de lote de 32, número de épocas 30 y ratio de aprendizaje de 0,001.

Los valores de precisión obtenidos durante esta fase son de 0,977 para el entrenamiento y 0,962 para la validación. Asimismo, los valores de pérdida y entrenamiento obtenidos son de 0,18, aproximadamente. Estos se pueden apreciar en la figura 6.


5. RESULTADOS

Los hallazgos de este trabajo de investigación se presentan en dos etapas de experimentación: detección y clasificación; y en dos fases, la fase de pruebas con imágenes impresas de los peces y las pruebas realizadas con peces reales.

En la primera fase se obtuvieron los siguientes resultados:

Respecto a la detección, se procedió a detectar un conjunto de imágenes que tenía las siguientes características: un total de veinte imágenes, siete imágenes por cada especie y seis imágenes sin un pez en la escena. Se obtuvo lo siguiente:

• Tras la implementación de background substraction, border detection y la conversión de la imagen a binaria (thresholding), el algoritmo detectó satisfactoriamente a los peces en la escena.

• Se detectó correctamente el 90 % de las imágenes.

• El recorte de la imagen, tras agregar ciertos valores de tolerancia (p. ej., si se detectó la cola de un pez de manera parcial, se recorta con un margen de tolerancia para evitar cortar la cola), funciona de la manera esperada.

Respecto a la clasificación, se definieron dos clases trabajadas, bonito y cojinova. La clase “no pez” no se incluyó, pues antes de la clasificación el sistema realizó la detección. Los ajustes en el conjunto de imágenes final con el que el modelo entrenó. Se trabajó con una cantidad homogénea y balanceada para cada clase. Esto significa que se entrenó al modelo durante 100 épocas, con ciento seis (106) imágenes por cada clase, se realizó la validación paralela con veintiocho (28) imágenes y se hicieron las pruebas finales con veinte (20) imágenes adicionales por clase. Se obtuvieron los siguientes resultados:

• Durante el entrenamiento, el modelo convergió, aproximadamente, en la época n.º 30.

• Los valores de precisión y pérdida no se vieron afectados de forma negativa, es decir, no decayeron por más que el modelo había conseguido valores ideales. Estos valores son de ≈ 0,1 para la función de pérdida y 0,97 para el valor de precisión.

• En la fase de pruebas, se clasificó correctamente al 80 % de las imágenes pertenecientes al conjunto designado para pruebas.

En la segunda fase, se realizaron pruebas con especímenes de peces reales. Las clases escogidas fueron cojinova y bonito. Se trabajó con un espécimen por cada clase indicada. Los resultados obtenidos son los siguientes: respecto a la detección, se detectaron correctamente todos los peces presentados al sistema; respecto a la clasificación, el sistema clasificó correctamente el 80 % de las veces; sin embargo, en el 20 % de las pruebas realizadas con la clase cojinova se obtuvieron falsos positivos.

5.1 Discusión de resultados

Respecto a la primera fase de pruebas, se concluye que los resultados obtenidos durante la detección fueron satisfactorios porque alcanzaron el 90 % de exactitud. La solución planteada para la detección de peces solo puede fallar si el pez tiene una forma distinta a la de un pez convencional o si el objeto a detectar no es un pez y tiene una forma similar a la de uno.

Respecto a los resultados de la tarea de clasificación, consideramos que son ideales. En términos de convergencia del modelo, se obtuvo convergencia en ≈ al 80 % del proceso de entrenamiento. Esto se da porque el conjunto de datos es pequeño y, por la propia estructura y diseño del modelo, se consiguen valores ideales de manera rápida. Asimismo, la convergencia no se vio afectada por la continuidad de entrenamiento, en el resto de épocas, razón por la cual se muestra que el modelo es consistente.

Respecto a la precisión del modelo, plasmándola en términos sencillos, de cada diez imágenes capturadas de especímenes, ocho son clasificadas de manera correcta. Esto implica que los resultados obtenidos presentan un nivel elevado de precisión. De igual forma, realizando un análisis del porqué no es efectivo en su totalidad, concluimos que la inclusión de un número mayor de muestras representativas en el proceso de entrenamiento contribuiría a lograr el objetivo esperado.

Finalmente, de la segunda fase de pruebas se concluye que, respecto a la detección, se logró la detección satisfactoria de todos los peces reales en condiciones ideales de luminosidad. En lo que concierne a la tarea de clasificación, como se comentó, los falsos positivos que se obtienen son consecuencia de la similitud morfológica que tienen las clases estudiadas. El equipo de trabajo concluye que para optimizar este resultado es ideal contar con un conjunto de datos más extenso para el entrenamiento, de tal manera que el modelo de clasificación pueda generalizar mejor las clases de pescados incluidas.

REFERENCIAS

Aghdam, O. A. (s. f.). Deep Learning Features for Fish Classification, 3-5.

Brown, M., y Lowe, D. G. (2002). Invariant Features from Interest Point Groups. British Machine Vision Conference. doi:10.1.1.1.8475

Calvo Dopico, D. (2015). Implantación de la trazabilidad y su relación con la calidad: marco conceptual y retos estratégicos. Aplicación al sector pesquero. Economía Agraria y Recursos Naturales, 15(1), 79-98. doi:10.7201/earn.2015.01.05.a

Caribbean Regional Fisheries Mechanism (CRFM). (2016). Manual de sistemas de trazabilidad del pescado y productos pesqueros. Instituto Interamericano de Cooperación para la Agricultura, CRFM Publicación Especial, (13).

Chen, G., Sun, P., y Shang, Y. (2017). Automatic fish classification system using deep learning. 2017 IEEE 29th International Conference on Tools with Artificial Intelligence (ICTAI), 24-29. doi:10.1109/ICTAI.2017.00016

Chincha, R., y Tian, Y. (2011, November). Finding objects for blind people based on SURF features. 2011 IEEE International Conference on Bioinformatics and Biomedicine Workshops (BIBMW). (526-527). IEEE.

Edelman, S., Intrator, N., y Poggio, T. (1997). Complex cells and object recognition. Computer Science.

FAO. (2018). El estado mundial de la pesca y la acuicultura 2018. Cumplir los objetivos de desarrollo sostenible. Roma. Licencia: CC BY-NC-SA 3.0 IGO

Fishing for a Future - Nature Works Everywhere. (s. f.). Recuperado de https://www.natureworkseverywhere.org/resources/fishing-for-a-future/

Fouad, M. M., Zawbaa, H. M., El-Bendary, N., y Hassanien, A. E. (2013). Automatic Nile Tilapia fish classification approach using machine learning techniques. 13th International Conference on Hybrid Intelligent Systems (HIS 2013), 173-178. doi:10.1109/HIS.2013.6920477

Frost, J., Geisler, T., y Mahajan, A. (s. f.). Monitoring illegal fishing through image classification.

Fukushima, K. (1980). Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. Biological Cybernetics, 36. Recuperado de https://www.rctn.org/bruno/public/papers/Fukushima1980.pdf

Harris, C., y Stephens, M. (1988). A combined corner and edge detector. Proceedings of the Alvey Vision Conference 1988. doi:10.5244/C.2.23

He, K., Gkioxari, G., Dollár, P., y Girshick, R. (2017). Mask R-CNN. 2017 IEEE International Conference on Computer Vision (ICCV), 2980-2988. doi:10.1109/ICCV.2017.322

He, K., Zhang, X., Ren, S., y Sun, J. (2015). Deep residual learning for image recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 770-778. doi:10.1109/CVPR.2016.90

Huang, G., Liu, Z., van der Maaten, L., y Weinberger, K. Q., (2017). Densely connected convolutional networks. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2261-2269. doi:10.1109/CVPR.2017.243

Josifovski, J. (s. f.). Object recognition sift vs convolutional neural networks. Recuperado de https://tams.informatik.uni-hamburg.de/lehre/2015ws/seminar/ir/pdf/slides/JosipJosifovskiObject_Recognition_SIFT_vs_Convolutional_Neural_Networks.pdf

Juan, L., y Gwun, O. (2009). A comparison of SIFT, PCA-SIFT and SURF. International Journal of Image Processing (IJIP), 3(4), 143-152.

Karami, E., Prasad, S., y Shehata, M. (2015). Image matching using SIFT, SURF, BRIEF and ORB: Performance comparison for distorted images. Newfoundland Electrical and Computer Engineering Conference.

Krizhevsky, A., Sutskever, I., y Hinton, G. E. (2012). ImageNet classification with deep convolutional neural networks. Advances In Neural Information Processing Systems, 1-9. doi/10.5555/2999134.2999257

Kruger, N., Janssen, P., Kalkan, S., Lappe, M., Leonardis, A., Piater, J., … Wiskott, L. (2013). Deep hierarchies in the primate visual cortex: What can we learn for computer vision? IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(8), 1847-1871. doi:10.1109/TPAMI.2012.272

LeCun, Y., Boser, B., Denker, J. S., Henderson, D., Howard, R. E., Hubbard, W., y Jackel, L. D. (1989). Backpropagation applied to handwritten zip code recognition. Neural Computation, 1(4), 541-551. doi:10.1162/neco.1989.1.4.541

Lowe, D. G. (1999). Object Recognition from Local Scale-Invariant F eatures (SIFT). International Conference on Computer Vision. doi:10.1109/ICCV.1999.790410

Lowe, D. G. (2004). Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision, 60(2), 91-110. doi:10.1023/B:VISI.0000029664.99615.94

Mahajan, A., y Perkins, A. Whale Detection and Identification from Aerial Photography.

Matai, J., Kastner, R., Cutter, G. R., y Demer, D. A. (2012). Automated techniques for detection and recognition of fishes using computer vision algorithms. NOAA Technical Memorandum, 35-37.

Meng, Y., y Tiddeman, B. (2006). Implementing the Scale Invariant Feature Transform (SIFT) Method. Citeseer.

Nadarajan, G., Chen-Burger, J., Fisher, R., y Spampinato, C. (2011). A flexible system for automated composition of intelligent video analysis. ISPA 2011-7th International Symposium on Image and Signal Processing and Analysis, 259-264

Piccardi, M. (2004). Background subtraction techniques: a review. 2004 IEEE International Conference on Systems, Man and Cybernetics. doi:10.1109/ICSMC.2004.1400815

Ren, S., He, K., Girshick, R., y Sun, J. (2016). Faster R-CNN: Towards real-time object detection with region proposal networks. 1-14. doi:10.1109/TPAMI.2016.2577031

Shujuan, S., Zhize, X., Xingang, W., Guan, H., Wenqi, W., y De, X. (2015, May). Real-time vehicle detection using Haar-SURF mixed features and gentle AdaBoost classifier. The 27th Chinese Control and Decision Conference (2015 CCDC), 1888-1894. IEEE.

Simonyan, K., y Zisserman, A. (2014). Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556.

Sobral, A., y Vacavant, A. (2014). A comprehensive review of background subtraction algorithms evaluated with synthetic and real videos. Computer Vision and Image Understanding, 122, 4-21. doi:10.1016/j.cviu.2013.12.005

Sociedad Nacional de Pesquería (2018). Exportaciones pesqueras. Recuperado de https://www.snp.org.pe/wp-content/uploads/2019/02/REPORTE-DE-LAS-EXPORT.-PESQUERAS-A%C3%91O-2018.pdf

Suleiman, A., Chen, Y. H., Emer, J., y Sze, V. (2017). Towards closing the energy gap between HOG and CNN features for embedded vision (invited paper). Proceedings - IEEE International Symposium on Circuits and Systems. doi:10.1109/ISCAS.2017.8050341

Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., Erhan, D., Vanhoucke, V., y Rabinovich, A. (2014). Going deeper with convolutions. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1-9. doi:10.1109/ CVPR.2015.7298594

Tareen, S. A., y Saleem, Z. (2018). A comparative analysis of SIFT, SURF, KAZE, AKAZE, ORB, and BRISK. 2018 International Conference on Computing, Mathematics and Engineering Technologies (ICoMET), 1-10. doi:10.1109/ICOMET.2018.8346440

Treiber, M. A. (2010). An introduction to object recognition: selected algorithms for a wide variety of applications. Springer Science & Business Media.

Vedaldi, A. (2006). An implementation of SIFT detector and descriptor. University of California at Los Angeles, 7.

Zeiler, M. D., y Fergus, R. (2014). LNCS 8689 - Visualizing and understanding convolutional networks. Computer Vision, ECCV 2014 - 13th European Conference, Proceedings. Recuperado de https://cs.nyu.edu/~fergus/papers/zeilerECCV2014.pdf

Sistema para incremento de vocabulario para la comprensión lectora en primaria con ayuda de realidad aumentada

Gianella Urday

gianellaurdayi@hotmail.com / Universidad de Lima, Perú

Recepción: 22-6-2019 / Aceptación: 8-8-2019

RESUMEN. El Perú presenta resultados insatisfactorios en evaluaciones internacionales y nacionales en el área de lectura. A medida que los grados avanzan, los porcentajes de satisfacción van disminuyendo. El problema radica en que los estudiantes no son capaces de comprender lo que están leyendo en su totalidad debido a que inician su vida académica con un bajo rendimiento. La presente investigación se enfoca en la baja comprensión lectora ocasionada por un vocabulario reducido para lo cual se desarrolló una aplicación en realidad aumentada (AR) para comprobar si esta tecnología aumenta el vocabulario y así mejorar la comprensión lectora. Los alumnos participantes fueron divididos en dos grupos, uno que no hace uso de la aplicación y otro que sí lo utiliza, de control y experimental, respectivamente. Ambos grupos realizaron una prueba basada en la Evaluación Censal de Estudiantes (ECE), evaluación nacional que da a conocer los niveles de aprendizaje en los que se encuentran los estudiantes peruanos, para posteriormente ser comparados. Los resultados mostraron una diferencia de 0,3, entre los puntajes promedios de ambos grupos, y de 0,8, en el grupo experimental. Se demuestra que el uso de la aplicación basada en realidad aumentada es útil para el aumento de vocabulario y, por lo tanto, beneficioso en el ámbito académico porque permite que los estudiantes realicen sus actividades de forma más dinámica y a la vez se concentran más, ayudándoles a entender los temas con mayor facilidad.

PALABRAS CLAVE: comprensión lectora, educación, realidad aumentada, vocabulario reducido

A System to Improve Vocabulary for Enhancing Reading Comprehension in Primary School With the Help of Augmented Reality

ABSTRACT. Peru has achieved unsatisfactory results in international and national reading assessments. The higher the school grade, the less the satisfaction percentages. The problem is that students are not able to fully understand what they are reading because they start their academic life with a low reading comprehension performance. This research focuses on the low reading comprehension caused by a poor vocabulary, to which end an augmented reality-based application was developed to check if this technology improves the vocabulary and hence the reading comprehension. The participating students were divided into two groups: one that did not use the application and the other one that used it―i.e., a control group and an experimental group, respectively. Both groups took a test based on the Student Census Assessment (ECE), a national assessment that discloses the learning levels in which Peruvian students are, and those tests were compared later. The results showed a difference of 0.3 between both groups’ average scores, and a difference of 0.8 in the experimental group. The research demonstrates that this augmented reality-based application is useful to improve the vocabulary and, therefore, is beneficial in the academic field, since it allows students to carry out activities more dynamically and at the same time concentrate more, helping them to understand the topics more easily.

KEYWORDS: reading comprehension, education, augmented reality, poor vocabulary

1. INTRODUCCIÓN

La evaluación internacional PISA tiene como objetivo evaluar los conocimientos y habilidades de los estudiantes de quince años entre los países participantes. Los resultados se categorizan en ocho niveles: debajo de nivel 1b, nivel 1b, nivel 1a, nivel 2, nivel 3, nivel 4, nivel 5 y nivel 6. PISA señala que el nivel 2 es el mínimo requerido para ser participantes de la sociedad actual (OECD, 2016, p. 5).

De acuerdo con la evaluación PISA 2015 en el área de lectura, los resultados de los estudiantes peruanos de quince años están por debajo de la media total con una puntuación de 398, siendo 535 la más alta y 347 la más baja, de Singapur y Líbano respectivamente. En el caso del Perú, solo un 82,4 % de la población de quince años está matriculada en secundaria, en donde los niveles de desempeño predominantes son el nivel 1a y el nivel 2 con 28,3 % y 27,3 % respectivamente (Minedu, 2016a).

Por otro lado, la Evaluación Censal de Estudiantes (ECE), realizada por el Ministerio de Educación del Perú, sirve para dar a conocer los niveles de aprendizaje de los alumnos tanto de escuelas públicas como privadas. De esta evaluación los datos relevantes para la investigación son los resultados en el área de lectura en los grados de segundo y cuarto de primaria, y segundo de secundaria. Los resultados se categorizan en cuatro niveles: previo al inicio (solo para cuarto de primaria y segundo de secundaria), en inicio, en proceso y satisfactorio (Minedu, 2016b, p. 3).

Los niveles 5 y 6 de la evaluación PISA equivalen al nivel de logro satisfactorio del ECE en donde los estudiantes han sido capaces de cumplir con las definiciones de competencia lectora de cada evaluación.

El problema radica en que los porcentajes de satisfacción del ECE van disminuyendo a medida que los grados avanzan. Pasa de un 46,4 % a un 31,4 % y de este a un 14,3 % en los grados de segundo y cuarto de primaria, y segundo de secundaria, respectivamente. Para ser considerado satisfactorio el nivel del estudiante, debe tener “la capacidad para comprender, utilizar, reflexionar e interesarse por los textos escritos, para alcanzar los propios objetivos, desarrollar el conocimiento y potencial personales, y participar en la sociedad” (UMC, 2016, p. 43).

Braslavsky (2005), Bravo, Villalón y Orellano (2005) definen a la lectura como una actividad que involucra procesos cognitivos y psicolingüísticos complejos, la decodificación y la compresión. Vallés Arándiga (2005) la define como la interpretación de la letra para darle un significado y a partir de ella se elabora una comprensión de texto (p. 49). Si el estudiante no es capaz de desarrollar la lectura, su crecimiento como persona, al igual que el desarrollo de aptitudes como el pensamiento crítico, la reflexión o la sensibilidad se verán afectados (Carvajal, 2015, p. 297).

Existe la inquietud de que los alumnos que empiezan con bajo rendimiento en el área de lectura lo seguirán teniendo a lo largo de su educación, sea colegio o universidad (Bravo et al., 2005). Además, por ser una actividad que se realiza más por imposición que por interés. La comprensión lectora es parte fundamental para una educación exitosa, ya que se hace uso de ella en diferentes materias. Por ejemplo: al resolver un problema matemático es indispensable comprender lo leído en el enunciado, también para realizar una mezcla de químicos deben leerse las instrucciones. Con el avance de los grados, la dificultad de los enunciados, las instrucciones, las preguntas va en aumento. Las personas que se mantienen con una baja comprensión lectora tienen un menor desarrollo de sus capacidades a comparación de las demás (Minedu, 2016b, p. 52).

Los conocimientos que se adquieren durante los años académicos permiten que la persona desarrolle las capacidades necesarias para el profesional que debe ser, pues una de las formas por las que se adquiere información es mediante la lectura. Lo importante de ella es comprender lo que uno está leyendo, para que así la persona forme sus propias ideas y opiniones.

Dentro de los factores que ocasionan la baja comprensión lectora está el vocabulario reducido. Para Defior (1996), el alumno va a tener la dificultad de entender lo que quiere transmitir el texto si es que no tiene claro lo que significa (p. 4). Como el alumno no reconoce la palabra, se entiende que no tiene información almacenada sobre ella, por lo cual al momento de leer no será capaz de relacionar su conocimiento previo con el nuevo que la lectura le brinda (p. 3).

Canet-Juric, Burin, Andrés y Urquijo (2013) presentan el perfil cognitivo de niños con rendimientos bajos en comprensión lectora: mayor dificultad para almacenar información durante períodos cortos de tiempo, dificultad de prestar atención, incapacidad de mantener la relación entre las oraciones que se van leyendo, bajo rendimiento en la habilidad de vocabulario y definición de palabras (p. 1003).

El principal objetivo de esta investigación es desarrollar una aplicación basada en realidad aumentada para el incremento del vocabulario que contribuya a la comprensión lectora.

Türler ve etiketler

Yaş sınırı:
0+
Hacim:
380 s. 135 illüstrasyon
ISBN:
9789972455315
Telif hakkı:
Bookwire
İndirme biçimi: