Propuestas Tecnológicas de Autocorrección de ejercicios de modelado 3D = Technological Proposals for self-assessment of 3D modelling exercises

Laura García Ruesgas, Francisco Valderrama Gual, Cristina Torrecillas, Amparo Verdú Vázquez


DOI: https://doi.org/10.20868/abe.2020.2.4463

Texto completo:

PDF

Resumen


En la actualidad, existen varios procedimientos contrastados y algunas otras propuestas [1]para realizar la autoevaluación de ejercicios o exámenes de materias que se evalúan mediante ejercicios numéricos. Se comparan los valores intermedios o finales y se asigna una calificación automática de autoevaluación. Este procedimiento clásico de corrección por parte del profesor se puede ampliar [2]. La evaluación automática de los ejercicios basados en textos resulta más complicada porque, aunque la apariencia de ciertas palabras clave o sus sinónimos podría ofrecer un posible acercamiento a la evaluación mecánica de esos ejercicios, la dificultad en la evaluación de éstos reside en la interpretación de su significado [3].

En el caso de los ejercicios gráficos en 2D, que son típicos del dibujo técnico, el problema es muy diferente, ya que no hay cadenas alfanuméricas para comparar. Las similitudes entre las imágenes y la comparación de entidades primitivas (objetos vectoriales) pueden ser posibles formas de evaluación [4]. El problema resulta más complicado cuando queremos evaluar mecánicamente los modelos 3D.
En este artículo se presenta una compilación de posibles procedimientos a utilizar en la generación de una herramienta de autoevaluación para ejercicios de modelización industrial de sólidos, es decir, de piezas mecánicas [5]. En estos casos, ciertos parámetros como los volúmenes, las superficies, los centros de gravedad o los momentos de inercia pueden ser una primera aproximación a sus correcciones [6]. Estas evaluaciones podrían continuar con el análisis de las operaciones constructivas que existen en la modelización del objeto, tales como piezas sólidas, vaciados, agujeros, roscados, etc., todas ellas incluidas en sus árboles de modelización o listas de operaciones. La generación de una utilidad que ayude a la corrección de los ejercicios de modelización 3D sería de gran interés, ya que aportaría eficacia y agilidad al proceso de evaluación, así como una mayor objetividad al utilizar un sistema informático que aísla los factores de similitud y aplica automáticamente reglas de evaluación mensurables.

Abstract

Nowadays, there are several contrasted procedures and other proposals [1] for the self-assessment of exercises or exams of subjects which are evaluated using numerical exercises. Intermediate or final values are compared, and an automatic qualification of self-assessment is assigned. It is possible to extend this classic correction procedure by the teacher [2]. The automatic assessment of exercises based on texts is more complicated because the appearance of certain keywords or their synonyms could offer a possible approach as a mechanical assessment of those exercises. However, the difficulty in the assessment of these exercises is the interpretation of their meaning [3].
In the case of 2D graphic exercises, which are typical of technical drawing, the problem is very different, since there are no alphanumeric chains to compare. Similarities between images and the comparison of primitive entities (vector objects) may be possible ways for evaluation [4]. The problem is more complicated when we want to evaluate 3D models mechanically.
This article presents a compilation of possible procedures to use in the generation of a self-assessment tool for industrial solid modelling exercises, that is, of mechanical parts [5]. In these cases, certain parameters such as volumes, surfaces, centres of gravity or moments of inertia can be a first approximation to their corrections [6]. These evaluations could continue with the analysis of the constructive operations that exist in the modelling of the object, such as solid parts, emptying, holes, threading, etc., all of them included in their modelling trees or lists of operations. The generation of a utility that helps in the correction of 3D modelling exercises would be of great interest, since it would bring effectiveness and agility to the evaluation process, as well as greater objectivity when using a computer system that isolates similarity factors and implements rules of measurable evaluation automatically.


Palabras clave


Metodologías de evaluación, estrategias de corrección, evaluación automática, modelización sólida; Evaluation methodologies, correction strategies, automatic assessment, solid modelling

Referencias


F. Salmerón Medina, F. Gómez Estern Aguilar, F. A. Valderrama Gual, and J. F. Carbonell Márquez, “Automatización de la generacion de enunciados y de la evaluación en asignaturas de CAD en grados de ingeniería,” 2017.

D. H. Baxter and M. J. Guerci, “Automating an introductory computer aided design course to improve student evaluation,” ASEE Annu. Conf. Proc., pp. 6503–6510, 2003.

A. Sanna, F. Lamberti, G. Paravati, and C. Demartini, “Automatic assessment of 3Dmodeling exams,” IEEE Trans. Learn. Technol., vol. 5, no. 1, pp. 2–10, 2012.

P. Fournier-Viger, R. Nkambou, and A. Mayers, “Evaluating Spatial Representations and Skills in a Simulator-Based Tutoring System,” IEEE Trans. Learn. Technol., vol. 1, no. 1, pp. 63–74, 2008.

R. E. Ferdig, “Assessing technologies for teaching and learning: Understanding the importance of technological pedagogical content knowledge,” Br. J. Educ. Technol., vol. 37, no. 5, pp. 749–760, Sep. 2006.

A. Tartaglia and E. Tresso, “An automatic evaluation system for technical education at the university level,” IEEE Trans. Educ., vol. 45, no. 3, pp. 268–275, Aug. 2002.

C. Sánchez, D. Muñoz de la Peña, and F. Gómez-Estern, “Generación automática de problemas de diseño de controladores para sistemas lineales autoevaluables con Doctus,” Rev. Iberoam. Automática e Informática Ind., vol. 17, no. 1, p. 1, 2020.

A. I. González-Tablas Ferreres, K. Wouters, B. Ramos Álvarez, and A. Ribagorda Garnacho, “EVAWEB: A web-based assessment system to learn X.509/PKIX-based digital signatures,” IEEE Trans. Educ., vol. 50, no. 2, pp. 112–117, May 2007.

R. C. E. Guzman, “Self-assessment in a feasible, adaptive web-based testing system - IEEE Journals & Magazine,” IEEE Transactions on Education, 2005. [Online]. Available: https://ieeexplore.ieee.org/abstract/document/1532378. [Accessed: 13-Mar-2020].

Gwo-Jen Hwang, “A test-sheet-generating algorithm for multiple assessment requirements - IEEE Journals & Magazine,” IEEE Transactions on Education, 2003. [Online]. Available: https://ieeexplore.ieee.org/abstract/document/1220732. [Accessed: 13-Mar-2020].

G. Conole and B. Warburton, “A review of computer-assisted assessment,” ALT-J, vol. 13, no. 1, pp. 17–31, Mar. 2005.

J. Whittington and K. J. Nankivell, “Teaching strategies and assessment measures for rapidly changing technology programs,” in ACM SIGGRAPH 2006 Educators Program, SIGGRAPH ’06, 2006, p. 45.

S. Isotani and L. de O. Brandão, “An algorithm for automatic checking of exercises in a dynamic geometry system: iGeom,” Comput. Educ., vol. 51, no. 3, pp. 1283–1303, Nov. 2008.

V. Petridis, S. Kazarlis, and V. George Kaburlasos, “ACES: An interactive software platform for self-instruction and self-evaluation in automatic control systems,” IEEE Trans. Educ., vol. 46, no. 1, pp. 102–110, Feb. 2003.

L. C. Jacobs and C. I. Chase, “Developing and Using Tests Effectively: A Guide for Faculty,” p. 123, 1992.

M. D. Koretsky, D. Amatore, C. Barnes, and S. Kimura, “Enhancement of student learning in experimental design using a virtual laboratory,” IEEE Trans. Educ., vol. 51, no. 1, pp. 76–85, Feb. 2008.

I. Gustavsson et al., “On objectives of instructional laboratories, individual assessment, and use of collaborative remote laboratories,” IEEE Trans. Learn. Technol., vol. 2, no. 4, pp. 263–274, Oct. 2009.

H. Jiang, L. Zhang, and W. Ye, “The automatic evaluation strategies and methods of multimedia work assignments,” in Proceedings - 2009 International Conference on Computational Intelligence and Software Engineering, CiSE 2009, 2009.

D. B.-P. of the 58^ Midyear and U. Annual 2003, “Evaluating an automatic grading system for an introductory computer aided design course,” ci.nii.ac.jp, no. Proceedings of the 58^ Annual Midyear Conference of the Engineering Design Graphics Division of the American Society for Engineering Education, Scottsdale, Arizona, pp. 39–44, 2003.

“Computer –Aided Marking System for Engineering Drawing - Learning & Technology Library (LearnTechLib),” Society for Information Technology & Teacher Education International Conference, 2004. [Online]. Available: https://www.learntechlib.org/p/14573/. [Accessed: 16-Mar-2020].


Enlaces refback

  • No hay ningún enlace refback.


Copyright (c) 2021 Autor / BY-NC-ND

Licencia de Creative Commons
Este obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.