Política Editorial (IA)
Política Editorial sobre o Uso de Inteligência Artificial para a Revista do CEJUR/TJSC
1. Introdução
A Revista do CEJUR/TJSC reconhece o impacto transformador da Inteligência Artificial (IA) na pesquisa acadêmica, com seu potencial para otimizar processos e ampliar horizontes. No entanto, o uso responsável e transparente de IA é essencial para manter a ética e a integridade das publicações acadêmicas. Esta política visa orientar o uso ético e responsável de ferramentas de IA por autores, revisores e editores.
2. Princípios Gerais
O uso de IA deve ser sempre transparente e declarado. A responsabilidade final pelo conteúdo das pesquisas é dos autores humanos, não podendo ser atribuída a ferramentas de IA, que não podem assumir responsabilidades morais, legais ou autorais.
3. Diretrizes para Autores
-
Uso transparente de IA: Qualquer uso de IA para tradução, correção de linguagem ou busca de referências deve ser claramente informado na seção de metodologia ou em uma nota específica. O uso de IA para geração de conteúdo científico (hipóteses, análises, conclusões) é proibido.
-
Autoria: A IA não pode ser listada como coautora de artigos. O autor deve garantir que todas as ideias e resultados representem seu trabalho original. O uso de IA para fins de revisão ou assistência deve ser informado, mas não confere autoria à ferramenta.
-
Responsabilidade pelos resultados: Os autores são responsáveis pela precisão e integridade dos dados, inclusive os gerados ou analisados com o apoio de ferramentas de IA. O uso inadequado de IA para manipulação ou distorção de dados será considerado má conduta científica.
4. Diretrizes para Editores
-
Uso de IA no processo editorial: Ferramentas de IA podem ser usadas para tarefas administrativas, como detecção de plágio e verificação de formato. Contudo, decisões editoriais, como a aceitação ou rejeição de artigos, devem ser feitas por um editor humano.
-
Supervisão humana: A IA pode apoiar editores em tarefas como recomendação de revisores ou organização de manuscritos, mas a decisão final deve ser sempre de um humano.
-
Declaração de uso de IA pelos autores: Os editores devem garantir que os autores declarem qualquer uso de IA, em conformidade com esta política. A falta de declaração pode resultar na rejeição do manuscrito.
5. Diretrizes para Revisores
-
Uso de IA na revisão: Revisores não devem utilizar IA para formular suas avaliações ou emitir pareceres. Toda e qualquer assistência da IA deve ser declarada no formulário de revisão.
-
Avaliação crítica: Revisores devem assegurar que o uso de IA pelos autores foi corretamente declarado e verificar a integridade do conteúdo avaliado. Caso o uso inadequado de IA seja identificado, deve-se relatar à equipe editorial.
6. Segurança e Confidencialidade
- Proteção de dados: O uso de IA em processos de revisão e edição deve garantir a proteção dos dados confidenciais. Ferramentas que requerem upload de dados em plataformas online devem ser evitadas quando envolvem dados sensíveis.
7. Declaração de Uso de IA
Autores devem declarar explicitamente o uso de IA na elaboração de seus trabalhos, informando quais ferramentas foram usadas, para qual finalidade, e reconhecendo possíveis limitações das ferramentas empregadas. Detalhes extensos podem ser incluídos em um apêndice.
8. Conformidade com os ODS-ONU
A revista incentiva a submissão de artigos que utilizem IA para contribuir com os Objetivos de Desenvolvimento Sustentável (ODS) da ONU, desde que o uso seja realizado de forma responsável, promovendo equidade e transparência.
9. Disposições Finais
Esta política será revisada regularmente para garantir que se mantenha atualizada com as melhores práticas e o avanço da tecnologia de IA. O não cumprimento desta política pode resultar em rejeição, retratação ou ações disciplinares.
Referências
-
COPE - Committee on Publication Ethics. (2021). Artificial intelligence (AI) in decision making. Retrieved from https://publicationethics.org/cope-position-statements/ai-author.
-
SciELO. (2023). Guia de uso de ferramentas e recursos de Inteligência Artificial na comunicação de pesquisas na Rede SciELO. Retrieved from https://www.scielo.org.
-
Pigola, A., Scafuto, I. C., Costa, P. R. C., & Nassif, V. M. J. (2023). Inteligência Artificial na pesquisa acadêmica. International Journal of Innovation, 11(3), 01-09. https://doi.org/10.5585/2023.24508.
-
ACL 2023. (2023). ACL 2023 Policy on AI Writing Assistance. Retrieved from https://2023.aclweb.org/blog/ACL-2023-policy.
-
UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. Retrieved from https://unesdoc.unesco.org/ark:/48223/pf0000373434.
-
Taylor & Francis. (2023). Clarifying the Responsible Use of AI Tools in Academic Content Creation. Retrieved from https://newsroom.taylorandfrancisgroup.com/taylor-francis-clarifies-the-responsible-use-of-ai-tools-in-academic-content-creation.
-
Elsevier. (2023). The Use of AI and AI-assisted Writing Technologies in Scientific Writing: Frequently Asked Questions. Retrieved from https://www.elsevier.com/about/policies/publishing-ethics/the-use-of-ai-and-ai-assisted-writing-technologies-in-scientific-writing.