Policies on the Use of Artificial Intelligence

 

  1. Objectives and Commitment

The journal Justicia y Derecho recognizes the value of artificial intelligence (AI) tools in research and editorial processes.

However, in line with international global standards and in accordance with the ethical principles of scientific publications (COPE, 2025), it is also committed to ensuring an ethical, responsible, and transparent use of these technologies. As SciELO points out, "Hiding the use and content of AI is an ethical misconduct that goes against the principles of transparency and honesty in research." (2013, n/p)

In that order, the journal, through its policy on artificial intelligence, establishes guidelines on the appropriate use of AI in the (A) production and (B) review of academic content.

 

  1. On the Ethical Use of IA and Its Declaration

This implies that authors who use AI in any part of their manuscript development process should explicitly declare its use[1] in the methodological or methods section of their texts or the relevant section and communicate it to the journal in a relevant and timely manner. Authors must explain clearly:

  • What AI tools did they use?
  • At what point in the research did they resort to AI tools?
  • How does the use of AI tools contribute to your research proposal?

In this way, the authors not only demonstrate ethical behavior in science but also contribute in a very important way to the promotion of transparency and the strengthening of ethics in scientific publications.

 

  1. Transparency and Accountability Considerations

The authors are responsible for the data and results generated with AI support.

Transparent conduct not only fosters confidence in the research process but also builds scientific knowledge.

  • By proactively contributing to the work of researchers who replicate methodological designs, among others.
  • By facilitating the evaluation of research products more effectively and efficiently.

 

  1. Prohibition of Authorship of IA

Maintaining the integrity of the scientific process is a milestone of the journal's editorial process. Therefore, any use of AI must be instrumental. As another tool, but without granting it recognition of authorship. In that order of things, the journal establishes that:

  • The journal does not accept AI as the author or co-author of any article. Any contribution made by IA should be indicated, and the specific tool used should be stated.
  • Authorship implies responsibilities that technologies cannot assume; therefore, authorship must be strictly and exclusively human.
  • The IA cannot appear as authors, co-authors, or as part of the bibliographic references of any article.

 

  1. On the Use of IA in the Review and Editing Process

5.1 Editorial Process

The journal Justicia y Derecho may use AI tools to assist editorial processes. That is (a) plagiarism detection, (b) metadata analysis, (c) language quality assessment, and (d) other relevant ones.

However, these tools do not replace the critical and professional judgment of human editors (editorial review) and peer reviewers (peer review).

 

5.2 Review of AI-Generated Content

Using the TURNITIN tool or others, editors have the power to verify that articles that include content partially generated by AI meet (a) the standards of academic integrity, (b) that such content is properly identified, and (c) therefore establish the ethical suitability and scientific (generative) value of the documentary proposals submitted for evaluation to the journal.

 

5.3 Use of AI tools in images, graphs, and figures and the generation of data

The use of generative AI for the creation or alteration of images is not allowed in scientific articles.

In the case of research whose design or methodology uses AI tools for (a) the creation or modification of figures, (b) graphics, (c) visual analysis, or (d) others that are declared and/or that the editors deem relevant, the authors should describe their process in detail in the methodological section or the relevant section.

In this sense, the journal seeks to ensure that any image or figure included (a) maintains authenticity and does not express a misleading manipulation, (b) does not alter the results of the research, (c) allows an accurate assessment and evaluation, and (d) other aspects that may be deemed relevant.

The generation of data for research development cannot be done through AI tools

Therefore, the journal establishes that (a) the collection of data and (b) its interpretation must be based on a rigorous application of techniques and instruments by the researchers and detailed in the relevant section.

 

  1. Transparency for Readers

6.1 Licenses and Copyrights

The journal Justicia y Derecho verifies, and the authors must provide relevant information that allows establishing that:

  • AI-generated or AI-assisted content does not infringe copyright.
  • The tools used do comply with the corresponding licensing policies.

 

  1. Editorial Responsibility of the Journal and the Authors for the Use of the IA

The magazine states that

  • Oversees that authors comply with these policies. Therefore, they may reject proposals that do not comply with the internationally accepted standards and guidelines herein.
  • Review the statements on the use of AI tools. The absence of such statements justifies questioning the scientific quality of the submitted proposals and, therefore, their rejection.
  • At any stage of the editorial process, you may request additional clarifications before
  • acceptance and publication of the article.

References

Consejo COPE. (2025). Posición COPE - Autoría e IA - inglés. Disponible en https://doi.org/10.24318/cCVRZBms

Elsevier. (2023). The use of AI and AI-assisted technologies in writing for Elsevier. Available at https://www.elsevier.com/about/policies/publishing-ethics-books/the-use-of-ai-and-ai-assisted-technologies-in-writing-for-elsevier

SCIELO (2023). Guía de uso de herramientas y recursos de inteligencia artificial en la comunicación de investigaciones en la Red SciELO. Disponible en https://wp.scielo.org/wp-content/uploads/Guia-de-uso-de-herramientas-y-recursos-de-IA-20230914.pdf

Taylor & Francis. (2023). Clarifying the responsible use of AI tools in academic content creation. Available at https://newsroom.taylorandfrancisgroup.com/taylor-francis-clarifies-the-responsible-use-of-ai-tools-in-academic-content-creation

 

[1] See Guide for the Use of Artificial Intelligence tools and resources in the communication of research in the SciELO Network. Available at https://wp.scielo.org/wp-content/uploads/Guia-de-uso-de-herramientas-y-recursos-de-IA-20230914.pdf

 

____________________________________________________________________________________________________________

Políticas sobre el uso de inteligencia artificial

 

  1. Objetivos y compromiso

La revista Justicia y Derecho reconoce el valor de las herramientas de inteligencia artificial (IA) en la investigación y en los procesos editoriales. 

Sin embargo, en línea con estándares internacionales globales y en concordancia con los principios éticos de las publicaciones científicas (COPE, 2025), también se compromete a garantizar un uso ético, responsable y transparente de estas tecnologías. Como señala SciELO, “ocultar el uso y contenido de IA es una falta ética que va en contra de los principios de transparencia y honestidad en la investigación”. (2013, s/p)

 

En ese orden, la revista, a través de su política sobre el uso de inteligencia artificial, establece las directrices sobre el uso adecuado de IA en (A) la producción y (B) la revisión de contenidos académicos.

 

  1. Sobre el uso ético de IA y su declaración

Lo anterior implica que los autores que empleen IA en alguna parte del proceso de desarrollo de su manuscrito deben declarar su uso de manera explícita[1]  en el apartado metodológico o de métodos de sus textos o en la sección que resulte pertinente y comunicarlo a la revista de manera pertinente y oportuna.

Resulta fundamental que los autores expliquen de forma clara:

(i) Qué herramientas de IA utilizaron.

(ii) En qué momento de la investigación recurrieron a herramientas de IA.

(iii) Cómo contribuyó a su propuesta investigativa el uso de herramientas de IA.

De esta forma, los autores manifiestan no solo un actuar ético en ciencia, sino que también contribuyen de manera sumamente importante con la promoción de la transparencia y el fortalecimiento de la ética en la publicación científica. 

 

  1. Considerandos de transparencia y responsabilidad

Los autores son responsables de los datos y resultados generados con apoyo de IA.

Una conducta transparente no solo fomenta la confianza en el proceso de investigación realizado, sino que permite construir saber científico. 

(i) Al contribuir proactivamente con la labor de aquellos investigadores e investigadoras que repliquen diseños metodológicos, entre otros. 

(ii) Al facilitar la evaluación de los productos de investigación de manera más efectiva y eficiente.

 

  1. Prohibición de autoría de IA

Mantener la integridad del proceso científico constituye un hito del proceso editorial de la revista Justicia y Derecho. Por lo tanto, cualquier uso de IA debe ser instrumental. Es decir, como una herramienta más, pero sin otorgarle reconocimiento de autoría. En ese orden de cosas, la revista establece que

1) La revista no acepta a la IA como autor o coautor de ningún artículo. Cualquier contribución realizada por IA debe ser claramente indicada, así como declarada la herramienta específica utilizada.

2) La autoría implica responsabilidades que las tecnologías no pueden asumir; por lo tanto, la autoría debe ser estricta y exclusivamente humana. 

3) La IA no puede figurar como autor, coautor, ni como parte de las referencias bibliográficas de ningún artículo. 

 

  1. Sobre el uso de IA en el proceso de revisión y edición

5.1 Proceso editorial

La revista puede utilizar herramientas de IA para asistir procesos editoriales. Esto es, (a) la detección de plagio, (b) el análisis de metadatos, (c) la evaluación de calidad del lenguaje, (d) otros relevantes. 

Sin embargo, estas herramientas no reemplazan el juicio crítico y profesional de los editores (editorial review) y revisores (peer review) humanos.

 

5.2 Revisión de contenidos generados por IA

A través del uso de la herramienta TURNITIN u otras, los editores tienen la facultad de verificar que los artículos que incluyen contenido generado parcialmente por IA cumplen con (a) los estándares de integridad académica, (b) que dicho contenido está debidamente identificado, y (c) por lo tanto establecer la idoneidad ética y el valor científico (generativo) de las propuestas documentales remitidas para evaluación a la revista.

 

5.3 Uso de herramientas de IA en imágenes, gráficos y figuras y la generación de datos

El uso de IA generativa para la creación o alteración de imágenes no está permitido en los artículos científicos. 

En el caso de investigaciones cuyo diseño o metodología utilicen herramientas de IA para (a) la creación o modificación de figuras, (b) gráficos, (c) análisis visuales, (d) otros que sean declarados y/o que los editores juzguen relevantes, los autores deberán describir detalladamente su proceso en la sección metodológica o la que resulte pertinente.

En ese sentido, la revista persigue garantizar que cualquier imagen o figura que se incluya (a) mantenga la autenticidad y no exprese una manipulación engañosa, (b) no altere los resultados de la investigación, (c) permita una labor de valoración y evaluación acertada, y (d) otros aspectos que pudiesen juzgarse relevantes.

La generación de datos para el desarrollo de las investigaciones no puede ser a través de herramientas de IA.

Por lo tanto, la revista Justicia y Derecho deja establecido de forma fehaciente que (a) el levantamiento de datos y (b) su interpretación debe ser a partir de una rigurosa aplicación de técnicas e instrumentos, por parte de los investigadores e investigadoras, y detallados en el apartado pertinente.

 

  1. Transparencia para los lectores

6.1 Licencias y derechos de autor

La revista verifica, y los autores deben proporcionar información relevante que permita establecer que

(a) Los contenidos generados o asistidos por IA no infringen derechos de autor.

(b) Las herramientas utilizadas sí cumplen con las políticas de licencias correspondientes. 

 

  1. Responsabilidad editorial de la revista y de los autores frente al uso de la IA

La revista Justicia y Derecho declara que:

(a) Supervisa que los autores cumplan con las presentes políticas.  Por lo tanto, pueden desestimar propuestas que no cumplan con los estándares y lineamientos aquí señalados internacionalmente aceptados. 

(b) Revisa las declaraciones sobre el uso de herramientas de IA. La ausencia de dichas declaraciones justifica que se ponga en duda la calidad científica de las propuestas remitidas y que, por lo tanto, estas sean desestimadas.

(c) En cualquier etapa del proceso editorial, puede solicitar aclaraciones adicionales antes de la aceptación y publicación del artículo.

 

Referencias

Consejo COPE. (2025). Posición COPE - Autoría e IA - inglés. Disponible en https://doi.org/10.24318/cCVRZBms

Elsevier. (2023). The use of AI and AI-assisted technologies in writing for Elsevier.  Disponible en https://www.elsevier.com/about/policies/publishing-ethics-books/the-use-of-ai-and-ai-assisted-technologies-in-writing-for-elsevier

SCIELO (2023). Guía de uso de herramientas y recursos de Inteligencia Artificial en la comunicación de investigaciones en la Red SciELO. Disponible en https://wp.scielo.org/wp-content/uploads/Guia-de-uso-de-herramientas-y-recursos-de-IA-20230914.pdf

Taylor & Francis. (2023). Clarifying the responsible use of AI tools in academic content creation.Disponible en https://newsroom.taylorandfrancisgroup.com/taylor-francis-clarifies-the-responsible-use-of-ai-tools-in-academic-content-creation

 

[1] Ver Guia para o uso de ferramentas e recursos de Inteligência Artificial na comunicação da pesquisa na Rede SciELO. Disponível em https://wp.scielo.org/wp-content/uploads/Guia-de-uso-de-werkzeuentas-y-recursos-de-IA-20230914.pdf