Por favor, use este identificador para citar o enlazar este ítem: https://doi.org/10.6018/edumed.604091

Registro completo de metadatos
Campo DCValorLengua/Idioma
dc.contributor.authorCerame del Campo, Álvaro-
dc.contributor.authorJuaneda, Juan-
dc.contributor.authorEstrella Porter, Pablo-
dc.contributor.authorPuente, Lucía de la-
dc.contributor.authorNavarro, Joaquín-
dc.contributor.authorGarcía, Eva-
dc.contributor.authorSánchez, Domingo A.-
dc.contributor.authorCarrasco, Juan Pablo-
dc.date.accessioned2024-09-20T18:21:30Z-
dc.date.available2024-09-20T18:21:30Z-
dc.date.issued2024-
dc.identifier.citationRevista Española de Educación Médica. Vol. 5 Núm. 2 (2024)es
dc.identifier.issn2660-8529-
dc.identifier.urihttp://hdl.handle.net/10201/144121-
dc.description.abstractIntroducción: La inteligencia artificial (IA) está generando nuevas controversias, oportunidades y riesgos en la educación médica. Este estudio evalúa la capacidad de las versiones de inteligencia artificial (IA) ChatGPT-3 y GPT-4 para responder a las preguntas del examen de acceso a la formación médica especializada MIR en España, comparando el rendimiento entre las convocatorias de 2022 y 2023. Metodología: Se realizó un estudio descriptivo transversal, utilizando GPT-4 para responder a las210 preguntas del examen MIR 2023, comparando los resultados con los de ChatGPT-3 en el examen MIR 2022. Se utilizó análisis estadístico para determinar el porcentaje de acierto en función de la especialidad, tipo de pregunta y contenido de la misma. Resultados: GPT-4 consiguió 173 aciertos de un total de 210 preguntas, rendimiento superior al deChatGPT-3, que obtuvo 108 aciertos en el examen de la convocatoria anterior. Se observó una mejora notable en especialidades como Reumatología, Pediatría, Geriatría y Oncología, aunque algunos campos como Neumología y Oftalmología mostraron menos progreso o incluso resultados inferiores. Conclusión: GPT-4 demostró un mejor rendimiento en comparación con ChatGPT-3, indicando avances en el procesamiento y análisis de datos por parte de la IA, así como en su comprensión contextual y aplicación de conocimientos médicos. Sin embargo, se enfatiza la importancia de reconocer las limitaciones de la IA y la necesidad de un enfoque crítico en su uso en educación médicaes
dc.description.abstractrtificial intelligence (AI) is generating new controversies, opportunities andchallenges in medical education. This study evaluates the ability of artificial intelligence (AI)versions ChatGPT-3 and GPT-4 to answer MIR exam questions of the entrance exam in thespecialized training in Spain, comparing performance between the 2022 and 2023 exams.Methodology: A descriptive cross-sectional study was conducted, using GPT-4 to answer the 210questions of the MIR 2023 exam, comparing the results with those of ChatGPT-3 in the MIR 2022exam. Statistical analysis was used to determine the percentage of correct answers according tospeciality, type of question, and question content.Results: GPT-4 achieved 173 correct answers out of 210 questions, a higher performance thanChatGPT-3, which obtained 108 correct answers in the previous exam. A marked improvementwas observed in specialties such as Rheumatology, Paediatrics, Geriatrics and Oncology, althoughsome fields such as Pneumology and Ophthalmology showed less progress or even lower results.Conclusion: GPT-4 demonstrated better performance compared to ChatGPT-3, indicatingadvances in AI data processing and analysis, as well as in its contextual understanding andapplication of medical knowledge. However, the article emphasizes the importance of recognisingthe limitations of AI and the need for a critical approach in medical educationes
dc.formatapplication/pdfes
dc.format.extent10es
dc.languagespaes
dc.languageenges
dc.publisherUniversidad de Murcia. Servicio de publicacioneses
dc.relationSin financiación externa a la Universidades
dc.rightsinfo:eu-repo/semantics/openAccesses
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectInteligencia artificiales
dc.subjectMédicos residenteses
dc.subjectMIRes
dc.subjectEducación Médicaes
dc.subjectGPT4es
dc.subjectChatGPT-3es
dc.subjectResident physicianes
dc.subjectArtificial intelligencees
dc.subjectChatGPT-3es
dc.subjectGPT4es
dc.subjectMedical educationes
dc.subjectMIRes
dc.subject.otherCDU::6 - Ciencias aplicadas::61 - Medicinaes
dc.title¿Es capaz GPT-4 de aprobar el MIR 2023? Comparativa entreGPT-4 y ChatGPT-3 en los exámenes MIR 2022 y 2023es
dc.title.alternativeIs GPT-4 capable of passing MIR 2023? Comparisonbetween GPT-4 and ChatGPT-3 in the MIR 2022 and 2023examses
dc.typeinfo:eu-repo/semantics/articlees
dc.identifier.doihttps://doi.org/10.6018/edumed.604091-
Aparece en las colecciones:Vol. 5 Nº 2 (2024)

Ficheros en este ítem:
Fichero Descripción TamañoFormato 
ChatGPT4+en+MIR+23.pdfEspañol477,11 kBAdobe PDFVista previa
Visualizar/Abrir
ChatGPT4+en+MIR+23+English.pdfEnglish472,1 kBAdobe PDFVista previa
Visualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons