⚠️Riesgo: Falsos positivos en textos de hablantes no nativos o con variaciones
dialectales.
✅Práctica: Ajustar dinámicamente los umbrales de similitud y configurar perfiles
lingüísticos
por idioma o región.
⚠️Riesgo: Fragmentos legítimos (citas, fórmulas, frases hechas) marcados
incorrectamente como
“plagio”.
✅Práctica: Excluir automáticamente secciones citadas y referencias en la
comparación
algorítmica.
⚠️Riesgo: Almacenamiento indefinido de trabajos académicos y posible uso indebido
de datos.
✅Práctica: Implementar políticas claras de retención, dar opción de eliminación y
solicitar
consentimiento informado.
⚠️Riesgo: Usuarios desconocen los criterios y parámetros que usa el detector.
✅Práctica: Publicar versiones de los algoritmos, umbrales y corpus de referencia
en
formato
abierto (JSON‑LD), en otras palabras, no se trata de mantener el algoritmo como una "caja negra",
sino de
poner a disposición de todos la información necesaria para que se pueda entender, verificar y
auditar cómo y
por qué el algoritmo toma ciertas decisiones. Esto ayuda a que tanto expertos como el público en
general
puedan revisar y asegurarse de que el sistema opera de manera justa, sin errores ni sesgos injustos.
⚠️Riesgo: Decisiones automatizadas sin revisión ni apelación humana.
✅Práctica: Exigir siempre una segunda validación por parte de un profesor
documentada en
bitácora.
⚠️Riesgo: Estudiantes delegan todo el juicio crítico en la IA, perdiendo
habilidades de redacción y cita.
✅Práctica: Combinar el uso de detectores con talleres de formación en pensamiento
crítico y técnicas de citación.
⚠️Riesgo: Una alta dependencia de herramientas automáticas puede fomentar una
cultura
centrada en “no ser detectado” más que en aprender buenas prácticas de citación, convirtiendo el
proceso en un ejercicio de cumplimiento normativo eficiente pero vacío de sentido educativo.
✅Práctica: Integrar el detector como herramienta formativa, proporcionando
reportes
detallados de similitud acompañados de guías de mejora, y vinculándolo a actividades de
retroalimentación donde el estudiante revise y aprenda a citar correctamente antes de entregar la
versión final.
Descripción: Este proyecto analiza de manera descriptiva los desafíos éticos que surgen al usar herramientas de inteligencia artificial para detectar plagio en trabajos universitarios. Hemos recopilado 10 artículos científicos en una tabla de Excel, sistematizando temas como sesgos lingüísticos, privacidad de datos, transparencia y necesidad de supervisión humana.
📥 Descargar tabla de 10 artículos (Excel)Descripción: Este protocolo de investigación presenta un análisis integral de las implicaciones éticas derivadas del uso de herramientas automatizadas para detectar el plagio en entornos universitarios. Se examinan aspectos críticos como la equidad, los sesgos algorítmicos y la transparencia en los criterios de evaluación, a partir de una revisión bibliográfica y documental que sistematiza la evidencia disponible. El estudio busca no solo comprender los retos actuales en la implementación de estas tecnologías, sino también proponer lineamientos innovadores que fortalezcan la integridad académica y promuevan prácticas éticas responsables en la evaluación de trabajos universitarios.
Consulta el Doc. Completo de la propuesta de investigación: 📥 Descargar propuesta de investigación completo (PDF)
Clona nuestro repositorio para obtener todo el código fuente, estilos y documentos de apoyo:
🔗 github.com/brandonsh9/infograf-a-plagio-iaAutor: Brandon Sebastián Hurtado García (bhurtadog20a@udenar.edu.co)