https://doi.org/10.35381/r.k.v11i21.4997
Inteligencia artificial, prueba judicial y el impacto en el derecho de defensa en el Perú
Artificial intelligence, evidence in court and the impact on the right to a fair trial in Peru
Claudia Margot Dávila-Romero
Universidad Nacional Santiago Antúnez de Mayolo, Huaraz
Perú
https://orcid.org/0009-0003-5370-4896
Winy Paola Minaya-Villafuerte
Universidad Nacional Santiago Antúnez de Mayolo, Huaraz
Perú
https://orcid.org/0009-0009-1930-5975
Laura Rosa Nivin-Vargas
Universidad Nacional Santiago Antúnez de Mayolo, Huaraz
Perú
https://orcid.org/0000-0001-5169-3597
Alberto Martín Medina-Villacorta
Universidad Nacional Santiago Antúnez de Mayolo, Huaraz
Perú
https://orcid.org/0000-0001-8769-5877
Revisado: 10 de noviembre 2025
Aprobado: 15 de diciembre 2025
Publicado: 01 de enero 2026
RESUMEN
El objetivo general de la investigación fue analizar la inteligencia artificial, la prueba judicial y su impacto en el derecho de defensa en el Perú. La metodología se fundamentó en la indagación, recolección y análisis documental, sustentada en una exploración metódica de diversas fuentes, incluyendo artículos arbitrados y documentos institucionales, lo que permitió la identificación y descripción de los hallazgos obtenidos. Como instrumento central, se abarcó fuentes primarias (normas legales, jurisprudencia y doctrina judicial) y secundarias (artículos doctrinales y estudios comparados). Se recurrió, además, al método inductivo-deductivo. En conclusión, la inteligencia generativa implica riesgos en el campo probatorio. La inteligencia artificial generativa se está expandiendo por el mundo, facilita a cualquier usuario la creación de evidencias sintéticas (falsas imágenes, videos o audios). Aunque es novedoso en usos populares, esto representa un grave riesgo para los juicios porque dificulta su verificación inmediata y socava la confianza en el sistema probatorio.
Descriptores: Inteligencia artificial; derecho a la justicia; legislación. (Tesauro UNESCO).
ABSTRACT
The general objective of the research was to analyze
artificial intelligence, judicial evidence and its impact on the right of
defense in Peru. The methodology was based on research, collection and
documentary analysis, supported by a methodical exploration of various sources,
including peer-reviewed articles and institutional documents, which allowed the
identification and description of the findings obtained. As a central
instrument, primary sources (legal norms, jurisprudence and judicial doctrine)
and secondary sources (doctrinal articles and comparative studies) were
included. The inductive-deductive method was also used. In conclusion,
generative intelligence involves risks in the evidentiary field. Generative
artificial intelligence is expanding around the world, making it easier for any
user to create synthetic evidence (false images, videos or audios). Although
novel in popular use, this represents a serious risk for trials because it
makes it difficult to verify immediately and undermines confidence in the
evidentiary system.
Descriptors: Artificial intelligence; right to justice; legislation. (UNESCO Thesaurus).
INTRODUCCIÓN
La IA no se limita a ejecutar tareas mecánicas, sino que va más allá (Gonzales, 2025). Esta tecnología posibilita llevar a cabo un análisis bibliográfico de manera automatizada, mejorando la detección, el examen y la síntesis de grandes cantidades de información con más exactitud, rapidez y profundidad que los procedimientos convencionales. La aplicación libre de la IA tiene desventajas, a pesar de sus beneficios; en particular, la veracidad de los datos legales que muchas veces son falsos o inexistentes.
Por eso, Ramos Zaga (2026) y Heredia et al. (2025) sugieren que es necesario incluir una regulación ética y metodológica para el uso de la inteligencia artificial en la investigación jurídica, con el objetivo de mitigar los riesgos, fomentar un pensamiento crítico constante y mantener la objetividad del conocimiento generado. La UNESCO (2023) y la Unión Europea han destacado, en el ámbito internacional, que es necesaria la generación de marcos normativos ante el uso libre de la inteligencia artificial. La ética debe ser el eje transversal en la normativa, que debe definir los lineamientos básicos de uso, la supervisión, la transparencia y el control de procedimientos.
En este contexto, no solo se pretende que la inteligencia artificial sea eficiente en términos tecnológicos, sino también que su uso sea ético y no atente contra los derechos fundamentales. Las medidas coinciden en una idea fundamental: cuando la inteligencia artificial está involucrada en el centro del sistema de justicia, no es suficiente con que sea eficaz y ágil, sino que tiene que cumplir con estándares más estrictos de legalidad, control y consideración por los derechos esenciales.
En Perú, en años recientes se ha ido incorporando de manera gradual herramientas tecnológicas que emplean inteligencia artificial para mejorar la administración jurisdiccional. El asistente CURIA ha sido implementado por el Poder Judicial posibilitando una reducción de los casos pendientes, la aceleración en la publicación de resoluciones judiciales y un análisis más preciso de los archivos judiciales. Sin embargo, no se trata solo de mejorar la eficiencia de los procesos en la administración judicial; también es importante tomar en cuenta la protección legal de las partes involucradas para prevenir circunstancias de indefensión procesal o violación de derechos (Gómez Rodríguez, 2022).
Es apropiado determinar no solo el grado de confiabilidad de estas herramientas en términos técnicos para crear y detectar contenidos generados por la IA, sino también cuán robustas son las técnicas de verificación forense digital que posibilitan comprobar la autenticidad de documentos electrónicos, imágenes o audios. Estos factores cobran más importancia porque impactan el proceso judicial de manera directa, sobre todo en lo que respecta a la admisión y evaluación de las pruebas durante el procedimiento (Pinto Basto y de Azevedo Marques, 2009). Además, según la jurisprudencia, es necesario establecer reglas y medidas de protección durante los procesos cuando se utilizan decisiones automatizadas o pruebas producidas tecnológicamente, tal como se ha observado en Estados Unidos y otras naciones europeas.
Este proceso de modernización tiene ventajas, pero es importante recordar que el sistema de justicia debe anteponer la equidad y la justicia a la rapidez. Esto supone que los abogados defensores y los magistrados tienen la obligación de formarse continuamente en el manejo de instrumentos tecnológicos como la IA para prevenir fallos procesales que podrían afectar a las partes o una valoración adecuada de las pruebas.
En Perú, es crucial tratar los conceptos elementales relacionados con la protección del derecho a la defensa ante evidencias producidas por inteligencia artificial en los procedimientos judiciales, dado que el efecto de la IA supera el marco legal y se extiende a múltiples áreas de la sociedad. Particularmente, la IA generativa ha generado amenazas importantes para salvaguardar el derecho a la defensa porque tiene la capacidad de crear contenidos digitales que aparentan ser tan reales que confunden al receptor. Asimismo, son algoritmos que producen imágenes, sonidos, simulaciones de herramientas digitales y otros componentes que reflejan la realidad con alto nivel de realismo y persuasión (García Falconí y Barona Pazmiño, 2024).
En el ámbito judicial, la necesidad de tener reglas claras, actualizadas y bien formuladas se vuelve especialmente urgente, ya que las tecnologías actuales, en particular la inteligencia artificial generativa, pueden recrear voces, escenas o documentos con un grado de realismo y precisión que dificulta distinguir entre evidencia genuina y aquella producida por la IA. En este contexto, las pruebas digitales pueden ser producidas, manipuladas o falsificadas mediante instrumentos de inteligencia artificial de última generación, esta dimensión cobra una importancia legal particular. Esto se convierte en un elemento clave para garantizar la salvaguarda del equilibrio procesal y con el objetivo de evitar circunstancias de indefensión provocadas por el uso excesivo y poco ético de tecnologías como la IA.
Se plantea como objetivo general de la investigación analizar la inteligencia artificial, la prueba judicial y su impacto en el derecho de defensa en el Perú.
MÉTODO
La metodología del estudio se fundamentó en la indagación, recolección y análisis crítico documental y bibliográfico, sustentada en una exploración metódica, rigurosa y profunda de diversas fuentes, entre las que se incluyen artículos arbitrados y documentos institucionales, lo que permitió la identificación y descripción de los hallazgos obtenidos. Como técnica principal se empleó la revisión documental (Sánchez et al., 2021). Asimismo, se consideraron como fuentes de información tanto primarias (normas legales, jurisprudencia y doctrina judicial) como secundarias (artículos doctrinales y estudios comparados). De manera complementaria, se aplicó el método inductivo-deductivo, el cual parte del análisis de hechos particulares para la formulación de generalizaciones, así como de principios generales para la interpretación de casos específicos (Dávila, 2006).
RESULTADOS
Se presentan a continuación los resultados luego del método aplicado por los investigadores.
Panorama internacional sobre la regulación del uso de la IA en derechos humanos y sistemas judiciales
Las normativas internacionales que rigen la utilización de la inteligencia artificial subrayan el resguardo de los derechos humanos, como son la privacidad, la dignidad, la igualdad y el debido proceso. Esto resulta especialmente relevante cuando se involucra a la IA en los sistemas judiciales. Los documentos requieren que los algoritmos proporcionen explicaciones comprensibles para posibilitar cuestionamientos seguros y prevenir que las decisiones automatizadas infrinjan derechos esenciales.
La UNESCO publicó en diciembre de 2025 una guía concreta para la aplicación de IA en tribunales, subrayando quince principios, entre los que se encuentran la supervisión humana y la auditabilidad, con el fin de prevenir vacíos en derechos como el juicio justo y la igualdad ante la ley (Escudero, 2024).
El Consejo de Europa, en su investigación "Algoritmos y derechos humanos", advirtió desde el 2018 acerca de los peligros en campos como el debido proceso, la privacidad, la igualdad y el derecho a la defensa. El informe mencionado enfatizaba en que los algoritmos deben ser transparentes, que se necesita una responsabilidad real y protecciones que impidan que las decisiones automáticas no puedan ser puestas a prueba por un humano (Defensoría del Pueblo, 2024).
Se ha avanzado en regulaciones específicas sobre el uso de la IA en varios países, enfocándose en respetar los derechos humanos y aplicaciones judiciales (Tabla 1).
Tabla 1.
Normativa sobre el uso de la IA en varios países.
|
Unión Europea |
Estados Unidos California |
Perú |
Ley de
Inteligencia artificial de la UE. (Unión Europea, 2024)
|
Ley de Transparencia en la Inteligencia Artificial de
Frontera (Transparency in Frontier Artificial Intelligence Act), conocida
también como SB 53 (Ámbito Jurídico, 2025)
|
Ley que promueve el uso
de la inteligencia Artificial en favor
del desarrollo económico y
social del país (Ley N° 31814, 2023)
|
|
Primer marco regulador que garantiza el desarrollo y uso de la IA, dicha Ley clasifica el uso de la IA en tres niveles: riesgo inaceptable, alto riesgo y riesgo limitado; prohibiendo el uso en estado inaceptable y exigiendo controles estrictos para fomentar ética y la protección de derechos fundamentales de los ciudadanos europeos.
|
Es una ley de transparencia y seguridad de la IA, los desarrolladores elaboran e implementan protocolos para gestionar y mitigar el riesgo, publiquen informes de transparencia que revelen información sobre sus modelos fronterizos y establezcan informes regulares respecto a incidentes de seguridad, sistemas de gobernanza interna y protecciones para denunciantes. |
Tiene como finalidad impulsar el uso y desarrollo de la IA, de manera segura y responsable respetando los derechos humanos. Asimismo, se clasificaron los sistemas de la IA por riesgo: uso indebido, uso de riesgo alto y uso de riesgo aceptable. Se han establecido una serie de principios rectores complementarios a los mencionados en la Ley N° 31814, como, por ejemplo, la no discriminación, la privacidad de los datos personales, el respeto del derecho de autor, derechos conexos y la supervisión humana (Reglamento de La Ley N° 31814, 2023). |
Elaboración: Los autores.
Situación en el Perú: referencias constitucionales, leyes existentes y debilidades normativas
La Constitución Política de 1993 en Perú, no menciona de manera explícita la inteligencia artificial, dado que fue promulgada antes del auge de esta tecnología. No obstante, salvaguarda derechos conexos, por ejemplo, el derecho a la defensa, la fundamentación de las resoluciones y el acceso a la justicia, que están en el debido proceso y en la tutela judicial efectiva (artículo 139). Estos principios se aplican de manera indirecta a los casos de IA, garantizando que la presunción de inocencia (Diestra Jaramillo et al., 2026) y la igualdad de armas procesales no sean violadas. El Tribunal Constitucional ha interpretado estos artículos para demandar la independencia de los jueces y la salvaguarda contra las interferencias tecnológicas que reemplacen el juicio de las personas.
Perú es el primero en Latinoamérica con la Ley 31814 (2023) en cuanto a regulaciones específicas sobre IA. Esta ley fomenta su utilización ética para el progreso social y económico, incluyendo principios como la transparencia, el control humano y el respeto por los derechos esenciales. Su reglamento (Decreto Supremo 115-2025-PCM, de septiembre del 2025 y en vigor desde enero del 2026) categoriza los riesgos: prohíbe la vigilancia masiva o la predicción de delitos; exige el registro y análisis del impacto para riesgos altos (en salud, educación y justicia); y excluye la defensa/seguridad nacional, aunque con garantías de proporcionalidad. La Ley N° 29733 (2011), Ley de Protección de Datos Personales, que protege la privacidad en IA, es otra normativa adicional. Las pruebas generadas por inteligencia artificial suelen implicar una suposición de que son objetivas únicamente porque son tecnológicas.
Esta idea puede poner en riesgo la protección del derecho a defenderse y el principio de evaluación libre de las pruebas, ya que termina estableciendo un estándar probatorio más alto para cuestionar una prueba algorítmica que una tradicional, asumiendo erróneamente la infalibilidad de los sistemas informáticos (García Falconí y Barona Pazmiño, 2024).
El análisis revela además que la utilización de IA en la elaboración de pruebas afecta directamente a las contradicciones y a la oralidad durante las audiencias. Estas pruebas a menudo vienen con informes técnicos muy detallados que no siempre se pueden explicar de manera clara y sencilla en el debate oral (Heredia et al., 2025). Por lo tanto, la contradicción se ve reducida y el debate puede tornarse más formal que sustantivo, donde la defensa no logra contrarrestar realmente el fondo de la prueba, lo cual termina afectando el ejercicio completo del derecho a defenderse.
En algunas áreas no existen leyes específicas en relación con la IA, por lo que se deben aplicar ciertas regulaciones generales; entre ellas: el Código Procesal Penal Peruano (2004), que regula la admisión y valoración de pruebas digitales bajo cadena de custodia y principios de legalidad y contradicción; así como la Ley de Delitos Informáticos (Ley N° 30096, 2013), que sanciona las manipulaciones de las pruebas.
Esta situación compromete el derecho a la defensa al obstaculizar el ejercicio del interrogatorio. Además, la falta de estándares concretos para la evidencia de IA conlleva el peligro de sesgos o errores que no puedan ser detectados. Asimismo, la exclusión de defensa/seguridad nacional propicia la falta de transparencia y dificulta las auditorías (Geiregat, 2024). Perú, mientras el mundo se encamina hacia regulaciones más específicas, depende de leyes generales, lo que socava la confianza en la justicia digital y expone a la defensa ante la falta de transparencia técnica. Las sugerencias incluyen protocolos para la admisibilidad de pruebas de IA y el fortalecimiento del monitoreo humano (Roca y Rabanal, 2025).
Esto genera una tensión clara: por un lado, la expectativa de mejorar la eficacia de un sistema judicial que en ocasiones se retrasa demasiado; por el otro, el peligro real de que la falta de claridad técnica ponga a las partes, especialmente a la defensa, en una situación desprotegida, sin instrumentos concretos para impugnar o refutar los resultados de un algoritmo (elEconomista.es, 2025). En la práctica judicial peruana se evidencia una limitada integración del derecho comparado y de los estándares internacionales. Aunque entidades como el Consejo de Europa o el Tribunal Europeo de Derechos Humanos han desarrollado criterios valiosos sobre el uso de tecnologías algorítmicas en los tribunales, estos todavía no se aplican de forma sistemática en el país. Esta desconexión limita las oportunidades de fortalecer las protecciones procesales ante decisiones automáticas o pruebas tecnológicas (UNESCO, 2023).
En numerosas situaciones no está claro quién es el responsable del resultado; ¿quién creó el sistema?, ¿qué operador lo utilizó?, ¿qué entidad lo puso en marcha? ¿o qué profesional lo expuso en el juicio? La defensa tiene pocas posibilidades de impugnar de manera efectiva debido a la dispersión de responsabilidades, ya que no existe un sujeto específico al que se le pueda dirigir el cuestionamiento jurídico o técnico con precisión. La utilización de inteligencia artificial en la elaboración de pruebas genera una asimetría estructural en términos de información entre las partes. Mientras que algunos pueden comprender en profundidad el funcionamiento interno del sistema, otros solo ven el resultado final. Esta disparidad no se compensa automáticamente con los procedimientos procesales convencionales y produce una inequidad que afecta de manera directa la protección del derecho a la defensa, incluso cuando el contradictorio es respetado formalmente (Llamas et al., 2022).
La protección del derecho a la defensa adquiere un papel fundamental como instrumento para corregir potenciales violaciones que puedan surgir del empleo de la inteligencia artificial. Los hallazgos corroboran que este mecanismo no solo posibilita interrogar la validez formal de una prueba, sino también los procedimientos tecnológicos empleados para crearla, conseguirla y examinarla. Por lo tanto, se transforma en un instrumento fundamental para restablecer el equilibrio del proceso cuando las evidencias son inciertas (Gonzales, 2025).
Estos resultados preliminares confirman que, a medida que el resto del mundo progresa hacia regulaciones que priorizan la responsabilidad, la explicación y el control humano en la justicia digital, Perú aún debe abordar varios vacíos normativos significativos en términos de procedimientos y normativas. La diferencia no solo es técnica, también se trata de garantías, lo cual impacta directamente la confianza ciudadana en el sistema de justicia, en un tiempo en el que las evidencias pueden carecer de autenticidad verificable.
Las evidencias digitales, a diferencia de las pruebas físicas o los documentos convencionales, son susceptibles de ser modificadas, copiadas o incluso recreadas sin dejar huellas visibles, lo que permite la manipulación. Es difícil para la defensa impugnar de forma efectiva sin directrices técnicas específicas sobre cómo almacenarlas, localizarlas y verificarlas (Poder Judicial, 2025). La reproducibilidad de las pruebas algorítmicas es un obstáculo serio para el control judicial. A diferencia de una pericia clásica, en la que se pueden repetir los procedimientos bajo condiciones idénticas y se obtienen resultados análogos, numerosos sistemas de IA producen resultados variables en función de las entradas, el contexto o las modificaciones del modelo.
DISCUSIÓN
Las normas restrictivas ya se están aplicando en Europa y por las organizaciones multilaterales. La Unión Europea establece que un sistema de inteligencia artificial que aborde asuntos de justicia es considerado de alto riesgo. Esto implica que las evaluaciones de impacto se realicen con anterioridad, que la transparencia sea obligatoria, que haya un control humano efectivo en la toma de decisiones automatizadas y, lo más importante, que exista una posibilidad real para que los involucrados puedan cuestionar y explicar lo que el algoritmo produce. La UNESCO y el Consejo de Europa han afirmado repetidamente que la inteligencia artificial puede acabar debilitando derechos esenciales, como la presunción de inocencia o el debido proceso, si no hay transparencia ni control humano real. La defensa, especialmente la pública o la de recursos limitados, prácticamente no tiene capacidad técnica para refutar esos análisis (Aránguiz, 2022).
En otras palabras, es posible mejorar la eficiencia de los despachos judiciales, aunque esto implique dejar a una persona en una situación de indefensión material que será muy complicada de revertir. Y no se trata solo de un riesgo hipotético; en otros países ya se han reportado situaciones donde los videos deepfake han dificultado procesos judiciales y creado dudas razonables artificiales (Nivin et al., 2025; Valdez, 2025).
Es preciso poner en práctica mecanismos institucionales de capacitación especializada dirigidos a jueces, fiscales y defensores que laboran sin un mínimo de preparación en estos asuntos. Es necesario un programa de capacitación serio y duradero, ya que no se puede suponer que un abogado o un juez aprenda por sí mismo a identificar artefactos generativos en videos o a analizar informes forenses de inteligencia artificial. No es un requisito indispensable para que el sistema probatorio sea válido; es, en cambio, una necesidad apremiante para que la legitimidad del sistema judicial peruano se mantenga en los años venideros.
En este contexto, es importante comprender que la inteligencia artificial no tiene que estar en contra de la justicia; puede ser una poderosa colaboradora para descongestionar los tribunales, identificar patrones en grandes cantidades de datos y disminuir los errores humanos en labores repetitivas. Sin embargo, esto solo es viable bajo una regulación adecuada. En una nación donde la desconfianza hacia el sistema judicial ya es un problema estructural, sería un error que tendría un alto costo para la población. No debe ignorarse que esto no es solamente un tema normativo, conlleva una transformación cultural en la forma en que funciona la justicia.
Para promover reformas, no solo se necesita la participación del Poder Judicial, sino también de los colegios de abogados, el Congreso y el Ministerio de Justicia. Por ejemplo, un programa de formación continua para fiscales y jueces que sea obligatorio, debido a que la falta de conocimiento técnico no puede considerarse una justificación válida. Para ello, es necesario priorizar las garantías: el derecho a una explicación de cómo opera un algoritmo, la carga de prueba invertida para contenidos que despiertan sospechas y los fondos públicos destinados a peritajes que garanticen el equilibrio procesal.
CONCLUSIÓN
La inteligencia generativa implica riesgos en el campo probatorio. La inteligencia artificial generativa, que se está expandiendo por todo el mundo, facilita a cualquier usuario la creación de evidencias sintéticas (falsas imágenes, videos o audios). Aunque es novedoso en usos populares, esto representa un grave riesgo para los juicios porque dificulta su verificación inmediata y socava la confianza en el sistema probatorio, particularmente en lo que respecta al derecho a la defensa.
FINANCIAMIENTO
No monetario.
AGRADECIMIENTO
A la Universidad Nacional Santiago Antúnez de Mayolo, Huaraz, Perú, por motivar el desarrollo de la investigación.
REFERENCIAS CONSULTADAS
Ámbito Jurídico. (10 diciembre 2025). Ley de Transparencia en la Inteligencia Artificial de Frontera, conocida también como SB 53. https://n9.cl/v8u6a
Aránguiz Villagrán, M. (2022). Auditoría algorítmica para sistemas de toma o soporte de decisiones. https://doi.org/10.18235/0004154
Congreso de la República Perú. (2013). Ley de Delitos Informáticos. Ley Nº 30096. https://n9.cl/935l7
Congreso de la República. (1993). Constitución Política del Perú. Edición del Congreso de la República. https://n9.cl/fhmmd
Congreso de la República. (2004). Código procesal penal. Decreto Legislativo Nº 957. https://n9.cl/ofsirf
Congreso de la República. (2011). Ley N.° 29733.Ley de Protección de Datos Personales. https://n9.cl/6dopz
Congreso de la República. (5 de julio de 2023). Ley N.° 31814. Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país. https://n9.cl/qahu0
Dávila Newman, G. (2006). El razonamiento inductivo y deductivo dentro del proceso investigativo en ciencias experimentales y sociales. Laurus, 12(Ext),180-205. https://n9.cl/nx847
Defensoría del Pueblo. (2024). Reforma del Sistema de Justicia para Fortalecer la Institucionalidad Democrática. Del pueblo y para el pueblo. https://n9.cl/f27eh
Diestra Jaramillo, C., Julca Nivin, I., Solórzano Vidal, L., y Neire Robles, Y. (2026). Presunción de inocencia y estándares de prueba: análisis dogmático del Acuerdo Plenario No.02-2005/CJ-116 en Perú. Iustitia Socialis. Revista Arbitrada de Ciencias Jurídicas, 11(20), 58-83. https://n9.cl/e2tlf
El Congreso de la República. (2023). Ley nº 31813. El Peruano. https://n9.cl/u2q0s
El presidente drian afede la República. (2025). Código Procesal Civil peruano. Contiene la última modificación de la Ley 32377, publicada el 7 de junio de 2025. https://n9.cl/hnvrzf
elEconomista. (12 de noviembre de 2025). Es oficial: la IA ya multa en España, así te puede pasar en Madrid y Barcelona. https://n9.cl/4yxgb
Escudero, J. (2024). ¿Qué dice el Informe sobre IA generativa y propiedad intelectual tras cuya publicación el presidente Trump cesó a la directora de la Oficina de Propiedad Intelectual de EE. UU.? Instituto Autor. https://n9.cl/dl58a
García Falconí, R. J., y Barona Pazmiño, K. (2024). Inteligencia artificial y proceso penal. Revista San Gregorio, 1(58), 101-110. https://doi.org/10.36097/rsan.v1i58.2808
Geiregat, S. (2024). La prueba de originalidad en obras creadas en tiempos de I.A. generativa: el papel de las instrucciones (prompts) en el derecho de autor y el destino del autor de vieja escuela. Revista científica De Estudios Sociales, 3(5), 167-192. https://doi.org/10.62407/rces.v3i5.141
Gómez Rodríguez, J. (2022). Inteligencia artificial y neuroderechos. Retos y perspectivas. Cuestiones constitucionales, (46), 93-119. https://doi.org/10.22201/iij.24484881e.2022.46.17049
González Said de la Oliva, M. del P. (2025). Desafíos y beneficios del uso de inteligencia artificial en docentes de educación secundaria: Revisión sistemática. Revista Tribunal, 5(11), 226-239. https://doi.org/10.59659/revistatribunal.v5i11.153
Heredia Pérez, G., Chávez Aguilar, V., Torres Mendoza, L., y Díaz Calderón, R. (2026). La inteligencia artificial en la investigación científica: una revisión sistemática trienal. Revista InveCom, 6(3), e603010. https://doi.org/10.5281/zenodo.17238020
Llamas Covarrubias, J., Mendoza Enríquez, O., y Graff Guerrero, M. (2022). Enfoques regulatorios para la inteligencia artificial (IA). Revista chilena de derecho, 49(3), 31-62. https://dx.doi.org/10.7764/r.493.2
Nivin, L., López, R. y Julca, F. (2025). Violencia de género digital y medidas de protección en el Perú. (Forthcoming).
Pinto Basto, A., y de Azevedo Marques, J. (2009). Las órdenes de la Corte Interamericana de Derechos Humanos y el Poder Judicial de los Estados. Revista De La Facultad De Derecho Y Ciencias Políticas, 39(111), 227-252. https://n9.cl/k035pc
Poder Judicial del Perú. (2025). CSJ Ica promueve capacitación estratégica sobre inteligencia artificial y ciberdelitos. https://n9.cl/agu9fn
Presidencia del Consejo de Ministros. (9 de setiembre de 2025). Decreto Supremo N.° 115-2025-PCM. https://n9.cl/sxvku
Ramos Zaga, F. (2026). Dignidad humana y agencia en la era algorítmica: fundamentos para un marco jurídico de regulación de la inteligencia artificial. Revista Justicia & Derecho, 9(1), 1-22. https://doi.org/10.32457/rjyd.v9i1.3216
Roca Andagua, R, & Rabanal Oyarce, A. (2025). La tutela de derecho en la administración de justicia. Aula Virtual, 6(13), e492. https://doi.org/10.5281/zenodo.16635312
Sánchez Bracho, M., Fernández, M., y Díaz, J. (2021). Técnicas e instrumentos de recolección de información: análisis y procesamiento realizado por el investigador cualitativo. Revista Científica UISRAEL, 8(1), 107-121. https://doi.org/10.35290/rcui.v8n1.2021.400
UNESCO. (26 de julio de 2023). ¿Cómo determinar la admisibilidad de las pruebas generadas por IA en los tribunales? https://n9.cl/pfint
Unión Europea. (2024). La Ley de Inteligencia Artificial de la UE. https://n9.cl/29slm
Valdez Marrou, A. (2025). La prueba en el proceso penal ante las contradicciones jurisprudenciales: prueba ilícita, preclusión procesal y libertad probatoria. Revista Oficial Del Poder Judicial, 17(23), 419-460. https://doi.org/10.35292/ropj.v17i23.786
©2026 por los autores. Este artículo es de acceso abierto y distribuido según los términos y condiciones de la licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0) (https://creativecommons.org/licenses/by-nc-sa/4.0/)