Dados é uma das principais e mais longevas publicações nas ciências sociais no Brasil. Criada em 1966, divulga trabalhos inéditos e inovadores, oriundos de pesquisa acadêmica, de autores brasileiros e estrangeiros. Editada pelo IESP-UERJ, é seu objetivo conciliar o rigor científico e a excelência acadêmica com ênfase no debate público a partir da análise de questões substantivas da sociedade e da política.
* Imagem gerada pelo Dall-e versão 3
[Este texto reflete a opinião de seus autores(as) e não é parte da política editorial de DADOS].
No final de 2023, fiz uma apresentação na reunião da Associação Brasileira de Editoras Universitárias (ABEU) a respeito de usos, cuidados e diretrizes de editores(as) com o emprego de generative artificial intelligence (GenAI, daqui em diante) ou inteligências artificiais generativas[1]. Para minha surpresa, são poucos os materiais disponíveis em português a respeito do assunto. Parece, inclusive, haver um vácuo regulatório de instituições de pesquisa tais como MEC, CAPES e CNPq. Assim, um ano após o lançamento do ChatGPT, professores(as), pesquisadores(as) e editores(as) parecem continuar a sua própria sorte.
Diante de tal cenário, elaborei este texto[2] que visa, rapidamente, apresentar alguns usos de GenIAs com os quais os editores e as editoras de revistas acadêmicas devem ter ciência e atenção. Além disso, busco apresentar algumas sugestões para os periódicos científicos brasileiros, baseadas nas principais normas e diretrizes internacionais[3] que fui capaz de mapear. Se necessário, em cada regra, acrescento algumas sugestões próprias, que parecem respeitar nossas especificidades, enquanto pesquisadores e pesquisadoras do Sul global.
Inicialmente, é preciso esclarecer do que estamos tratando. Ao contrário do que muitos imaginam, o campo de estudos da inteligência artificial é bem antigo, originado na década de 1950. Também não se trata de uma novidade em nossas realidades. Nossos celulares, as redes sociais digitais e uma outra miríade de dispositivos e aplicativos na era moderna já fazem uso de inteligência artificial há bastante tempo. Frequentemente, essa discussão estava sendo travada dentro da ideia dos algoritmos.
Logo, aqui estamos abordando os recentes modelos de inteligência artificial capazes de gerar resultados (outputs) de diferentes naturezas tais como texto, imagem, som e mesmo vídeo, comumente chamados de ‘modelos fundamentais’, LLMs (Large Language Models, Modelos grandes de Linguagem) ou GenAI.
Almeida, Mendonça e Filgueiras (2023) descrevem modelos de linguagem como sistemas projetados para compreender e interpretar a linguagem humana, fundamentando-se na previsão de palavras ou símbolos subsequentes em sentenças. Modelos generativos, dotados de regras e instruções, são empregados para aprender o uso habitual das palavras, permitindo a geração de novos textos que emulam a utilização linguística na realidade. Conforme exposto por Hacker, Engel e Mauer (2023), a geração de texto pelos modelos é baseada na probabilidade de uso de palavras por humanos, o que implica a ocorrência de variações e imprecisões nas respostas, conhecidas como “alucinações”. Alkaissi e McFarlane (2023) esclarecem que tais alucinações ocorrem quando os modelos selecionam probabilidades sintaticamente viáveis, mas factualmente incorretas.
O mesmo se repete para outros outputs como imagens e sons. Eles aprendem a identificar padrões nos dados por conta própria, sem precisar de orientação explícita sobre o que procurar e, uma vez que dominam esses padrões, os GenAIs podem gerar novos dados que se assemelham aos originais usados no treinamento. Estes modelos são treinados com uma imensa quantidade de parâmetros, requerendo um grande volume de dados e recursos computacionais significativos. A título de exemplo, nas artes isso tem gerado diversos protestos[4] e, inclusive, é um ponto central da recente greve de roteiristas e atores de Hollywood[5].
Ainda vale destacar que tais bases de treinamento, apesar de imensas, geralmente contêm distorções em seu interior, afinal a nossa realidade é enviesada, apresentando diversas formas de exclusão. Então, boa parte das bases de dados para treinamento de GenAIs, tenderá a ser negativamente enviesada contra minorias como mulheres, pessoas negras, LGBTQIAPN+ e habitantes de países do sul global[6].
Como já apresentamos em outro espaço, acreditamos que as GenAIs vão ter fortes impactos sobre todas as fases da pesquisa científica, incluindo busca e seleção de material acadêmico, leitura, escrita, programação, análise e apresentação dos dados e tradução (Sampaio et al., 2023). Portanto, todo o temor gerado pelos textos do ChatGPT e similares é apenas uma parte da capacidade dessas inteligências artificiais. Há duas preocupações principais[7] no mundo acadêmico em relação ao uso das GenAIs . A inicial está relacionada ao plágio e uso de conteúdos, notadamente textos, criados por esses modelos, portanto, estão diretamente relacionadas a questões éticas de tais usos e sobre questões de autoria e fontes. A segunda consiste nos possíveis impactos na integridade do fazer científico (Nature, 2023). Como a maior parte dos modelos são proprietários, seus algoritmos são verdadeiras caixas pretas, sob a desculpa de segredo industrial. Isso significa uma séria perda em termos de transparência e replicabilidade, pois não sabemos exatamente o que acontece dentro do modelo e não podemos replicar nos termos da ciência. E, diante da possibilidade de alucinações, desconexões, distorções e imprecisões, mesmo a validade de tal conteúdo pode ser questionada.
Da mesma forma, como as GenAIs já são capazes de fazer diversas tarefas, ficam as questões sobre as escolhas dos modelos. Por exemplo, as razões da máquina ter sugerido um texto em detrimento de outro ou a realização de um teste ou análise em vez de outro ou, ainda, de tal forma de visualizar o resultado. Portanto, pilares fundamentais da ciência contemporânea podem ser abalados pelo uso não ético e consciente de tais GenAIs
Com isso em mente, falemos agora dos usos recomendados ou não das GenAIs.
De partida já temos alguma controvérsia. Para certas associações ou editoras acadêmicas, as ferramentas de IA devem ser empregadas apenas para aperfeiçoamento de texto e melhoria da legibilidade, exigindo supervisão, revisão e edição humana. O mesmo vale para melhorias em línguas estrangeiras, como o inglês, desde que esse uso seja similar ao corretor do Word ou ao Grammarly (que inclusive usa inteligência artificial no seu sistema!), ou seja, que o uso seja limitado a aperfeiçoar o conteúdo original, sem gerar novas ideias. A IA não deve, em hipótese alguma, substituir tarefas essenciais de autoria, como produção de reflexões ou condução de pesquisas (Elsevier, 2023b).
Em outras visões (Boyd-Graber; Okazaki; Rogers, 2023), o uso de tais modelos generativos para agregar, resumir, expandir, parafrasear e questões mais básicas em termos do texto, é aceitável. Aqui, a grande preocupação é sempre se ater a possíveis distorções do modelo e a conferência sobre a inserção de algum erro ou inexatidão no conteúdo gerado. Em outras palavras, no atual momento, mesmo que o prompt de entrada seja apenas de revisar um trecho, ele poderá incluir informações novas ou mesmo retirar outras. Então, é muito importante que sempre haja humanos no processo (humans in the loop) e os autores estarem cientes de que vão assumir o conteúdo final integralmente (Sage, 2023), como veremos abaixo. Há algumas sugestões sobre a utilização em sessões mais padronizadas e rígidas, como métodos, e a descrição pura de resultados (Korinkek, 2023), além do uso para geração ou melhoria de título, resumo e palavras-chave, porém tal emprego está longe de ser um consenso. De todo modo, nunca se recomenda usar diretamente o output gerado pelas IAs (i.e. “copiar e colar”).
Opinião do pesquisador:
De fato, o mais útil seria reforçar as diretrizes da revista no que se refere à responsabilidade do autor e da autora sobre o texto enviado, indicando a necessidade de informar se utilizaram GenAIs com este fim. Além disso, cabe também incluir dicas de como usar tais ferramentas de modo ético, ao exemplo de evitar o uso direto dos outputs das GenAIs.
Surpreendentemente, parece que temos um forte consenso sobre a proibição de uso de imagens ou vídeos criados por inteligência artificial generativa (Elsevier, 2023b). Inclusive, alguns periódicos, como a Nature (2023), proibiram o uso de GenAIs para alterar imagens em manuscritos, exceto quando se trata de ajustes básicos de brilho, contraste ou balanço de cores. Nesta lógica, somente se permite o uso de imagens e vídeos gerados por GenAIs se tais materiais forem uma parte da pesquisa, seja no seu desenho ou métodos de pesquisa, como, por exemplo, quando se tratar de um experimento. Este uso deve ser descrito na seção de métodos, incluindo detalhes do modelo de GenAIs utilizado (nome, versão etc.), de modo que possibilite a reprodutibilidade da pesquisa.
Opinião do pesquisador:
Em minha visão, essa proibição completa do uso de imagens geradas por GenAIs está diretamente conectada aos protestos de artistas, roteiristas e atores nos Estados Unidos, já mencionados anteriormente. Ou seja, é uma precaução extra sobre quaisquer perigos de infração de direitos autorais.
Parece-me que no sul global essa questão não terá uma vigilância tão grande. Sugiro que os editores incluam diretrizes recomendando a não utilização de imagens geradas ou alteradas por GenAIs e que os autores devam tanto justificar seu uso na submissão do manuscrito, quanto também assinar um termo garantindo assumir eventuais ônus de sua utilização.
Apesar de não ser tema central dos debates, há indícios de que as principais editoras de periódicos científicos de alto impacto estão buscando nas GenAIs modos de acelerar o processo de revisão pelos pares (Levene, 2023). Aparentemente, todos os testes parecem ter sido internos e não há clareza sobre os modelos de IAs usados para esse fim. Algumas editoras afirmam não usar e recomendam que os próprios pareceristas não usem (Elsevier, 2023a). Enquanto a editora Frontiers é uma forte defensora do modelo e o usa para verificações iniciais dos manuscritos e distribuição de pareceres (Frontiers, 2020).
Lopezoza (2023) apresenta 10 propostas ousadas sobre como as GenAIs podem ser utilizadas no fluxo editorial desde o recebimento do artigo até sua divulgação, contribuindo para:
1. Verificar se o manuscrito recebido está alinhado com os principais temas da revista.
2. Assegurar que o manuscrito esteja de acordo com os padrões da revista.
3. Verificar se há plágio e identificar qualquer conteúdo potencial gerado por IA.
4. Identificar candidatos qualificados para revisar um manuscrito específico.
5. Elaborar um e-mail para os autores detalhando as propostas de melhoria sugeridas pelos avaliadores.
6. Editar o manuscrito final quanto a erros de gramática e ortografia.
7. Adaptar as citações para que correspondam ao estilo de citação da revista.
8. Projetar materiais visuais, como capas de edições e imagens.
9. Desenvolver uma campanha temática baseada no Twitter para um manuscrito específico.
10. Elaborar comunicados de imprensa abrangentes para um público mais amplo.
Em outro texto, Kankanhalli (2024) faz um resumo dos principais pontos nos quais tais sistemas de inteligência artificial generativa poderiam ajudar e apresenta um quadro, incluindo ferramentas que podem ser úteis em sua avaliação.
Tabela 1: Potencial de Automação por IA em Publicações Acadêmicas
Tarefa | Potencial de automação de IA | Exemplo de ferramenta de IA |
Verificação de formato: verificação de que o manuscrito segue a regra de formato de estrutura, estilos, referências e metadados da publicação | Alto | Penelope.ai |
Detecção de plágio: identificação da extensão e natureza da cópia de outras fontes sem atribuição de fonte | Baixo | iThenticate, ZeroGPT |
Qualidade da linguagem: avaliação da legibilidade, coesão e lógica apropriadas para o público | Médio | UNSILO |
Correspondência manuscrito-revisor: encontrar revisores adequados para um manuscrito usando o perfil do revisor | Alto | TPMS |
Escopo/relevância: avaliação da adequação ao escopo da publicação | Médio | UNSILO, GPT-4 |
Solidez/rigor: verificação de que a metodologia e análise do estudo são rigorosas e robustas | Médio-Baixo | Enago, StatCheck, StatReviewer |
Novidade: novidade ou desvio do corpo existente de conhecimento | Baixo | ReviewAdviser |
Significado: importância do fenômeno que o manuscrito está focando | Baixo | ReviewAdviser |
Escrita e apresentação: avaliação da clareza, precisão e eficácia da apresentação | Alto | Grammarly, Hemingway Editor |
Verificação de reprodutibilidade: codificação do autor e checagem de análise de dados | Alto | GPT-4 |
Fonte: Kankanhalli (2024, p. 79, grifos no original)
No atual momento, para além das preocupações mais óbvias de qualidade de tais sistemas, é preciso um cuidado extra com a segurança dos dados das revistas e dos autores. GenAIs como o ChatGPT usam o input dos usuários para seus próprios treinamentos. Toda vez que alguém interage com tais sistemas, está passando toda a informação da interação para o treinamento dos modelos. Isso é especialmente complexo quando se tratar de informações sensíveis. Na questão das revisões, estamos falando de dados geralmente inéditos e frutos de pesquisa científica. Para além disso, sempre há o perigo de vazamento de dados de toda a sorte[8].
Opinião do pesquisador:
Em minha opinião, considerando as questões locais, a maior parte das possibilidades não me parece confiáveis o suficiente o bastante que tal uso seja empregado em nossos periódicos. Talvez o uso mais seguro no curto prazo seria para o que Kankanhalli (2024) chama de pré-avaliação por pares (pre-peer review), que consiste em ações de checagem mais simples, como averiguar o formato, a possível existência de plágio e a qualidade da linguagem. A questão de segurança acima apontada permanece de qualquer forma. Talvez uma possibilidade seja verificar com a SciELO, ou entidade similar, se tal modelo não poderia ser desenvolvido, sendo que Fapesp – e outras agências de fomento ou o CNPq – poderiam abrir editais para este fim.
A geração de ideias é uma questão pouco coberta por essas diretrizes, mas com algumas menções em artigos. No geral, o uso de GenAIs para brainstorm de ideias, produção de perguntas, hipóteses de pesquisa, ou mesmo para testes de ideias parece ser algo razoavelmente aceito (Boyd-Graber; Okazaki; Rogers, 2023; Sage, 2023).
Opinião do pesquisador:
Em minha visão, deve-se considerar que GenAIs como Bard, Bing, ChatGPT, Claude, Perplexity e SciSpace ou possuem material acadêmico em suas bases de treinamento ou podem acessar bases científicas, tais como o Semantic Scholar, o que possibilita o mapeamento de grandes volumes de dados que auxiliam a obter insights sobre problemas de pesquisa. No entanto, nosso foco deve ser em evidenciar que mesmo bases científicas apresentam distorções (bias), como uma sobrerrepresentação de pesquisa anglo-saxã e europeia e de áreas de exatas e ciências da vida, podendo criar problemas de pesquisa inadequados, em contextos e realidades não condizentes com o Sul global, levando a definição de desenho, métodos e resultados distantes da nossa realidade.
Tendo abordado rapidamente a base de tais modelos de GenAIs e discutido um pouco sobre seus usos aceitáveis ou não, apresento algumas diretrizes retiradas das principais editoras e dos principais periódicos de alto impacto. Da mesma maneira, reservo-me à possibilidade de opinar o quanto essa regra se aplica ou não ao nosso contexto.
Autores e autoras que fizerem uso de inteligência artificial generativa devem descrever na coverletter e no manuscrito, como utilizaram a ferramenta, para garantir transparência e confiança (Cambridge, 2023; COPE, 2023; ICMJE, 2023; Oxford, 2023; Zielinski et al., 2023). Recomendo que seja criada uma condição na lista de obrigações que pesquisadoras e pesquisadores precisem marcar (indicando a conformidade com o item) no sistema de submissão (OJS, OneScholar, etc.) garantindo que não houve uso de IA ou que, caso tenha sido utilizada, seja justificado seu uso.
Na submissão, no manuscrito e na versão final, os autores devem fazer esforços para incrementar a transparência do uso de GenAIs e prover o máximo de detalhes que possibilitem algum nível de replicabilidade de sua aplicação. Isso significa incluir o máximo de especificações sobre o nome e versão da ferramenta de AI (que em certos casos, como do ChatGPT, inclui a data da versão do modelo), data e horário da consulta. Idealmente, os autores devem incluir os prompts usados na interação como anexos ao trabalho e os links do log (a conversa completa no chat) da interação com a IA[9].
Não há consenso sobre onde inserir isso nos manuscritos, havendo indicações para incorporar tanto no resumo e na introdução quanto na seção de métodos (i.e. o uso de ferramentas de AI para análises, geração de resultados ou escrita de códigos), ou, ainda, ao final do artigo, como detalharei abaixo.
Provavelmente o ponto mais consensual nas diretrizes é sobre o fato de que inteligências artificiais não podem ser consideradas autoras ou co-autoras de textos (Thorp, 2023; Stokel-Walker, 2023). Em resumo, a autoria requer a existência de uma pessoa legal e responsável (accountable) pelo conteúdo. Logo, IAs são incapazes de assumir responsabilidade moral ou legal pela originalidade, precisão e integridade do trabalho (Cambridge, 2023; COPE, 2023; Elsevier, 2023b; ICMJE, 2023; Oxford, 2023; Taylor & Francis, 2023; Wiley, 2023; Zielinski et al, 2023).
Da mesma forma, modelos, ferramentas, sistemas de IA e chatbots não devem ser creditados na seção de agradecimentos, pois são incapazes de consentir acerca do conteúdo. Em suma, devem ser tratados como ferramentas e não humanizados. Portanto, a versão final do texto é necessariamente uma tarefa humana.
Consequentemente, autores e autoras são responsáveis por todo o conteúdo submetido e especialmente aprovado para a publicação. Em outras palavras, isso significa que os autores garantem que o conteúdo está livre de enviesamento (para além daqueles já causados pelos recortes específicos que configuram a pesquisa em humanidades), plágio, fabricação ou falsificação, incluindo textos e imagens gerados pela IA (COPE, 2023; ICMJE, 2023; Oxford, 2023; Wiley, 2023; Zielinski et al, 2023).
Em especial, as recomendações da Sage (2023) parecem explicitar questões importantes. LLMs muitas vezes perpetuam bias e estereótipos por já existirem no material de treinamento, então é dever dos autores avaliar isso. Da mesma maneira, deve-se checar se os conteúdos gerados ou revisados por essas ferramentas estão livres de plágio, afinal elas podem reproduzir texto de outras fontes existentes em seu banco de dados.
Além disso, caso exista liberação de algum uso de GenAI dentro das regras do periódico, os autores e as autoras devem assumir total responsabilidade pela integridade do conteúdo gerado pela IA, incluindo a revisão e edição cuidadosas para evitar informações e citações incorretas, incompletas ou tendenciosas.
Para além do já descrito nas regras de transparência, sugiro a inclusão de uma declaração ao final do manuscrito (Elsevier, 2023b), imediatamente antes das referências, com o título ‘Declaração de IA e tecnologias assistidas por IA no processo de escrita’. Na declaração, os autores devem especificar a ferramenta utilizada, o motivo e a forma de aplicação.
Formato Sugerido para a Declaração:
“Durante a preparação deste trabalho, o(s) autor(es) utilizou(aram) [nome da ferramenta/modelo ou serviço] versão [número e/ou data] para [justificar o motivo]. Após o uso desta ferramenta/modelo/serviço, o(s) autor(es) revisou(aram) e editou(aram) o conteúdo em conformidade com o método científico e assume(m) total responsabilidade pelo conteúdo da publicação.”
Pesquisas indicam que detectores de IA tendem a apontar incorretamente os textos feitos por autores não-nativos em inglês como sendo gerados por IA (Liang et al., 2023). E, ao contrário de seus anúncios, NENHUM detector de IA é suficientemente confiável para ser usado irrestritamente. Apesar de vários detectores indicarem valores sobre a possibilidade de um conteúdo ser gerado por IA, esse valor tende a ser apenas um valor aproximado, exibindo grande margem de erro. Existem duas principais razões para isso. Não sabemos exatamente como esses modelos funcionam internamente (apenas questões gerais de seu funcionamento) e há, evidentemente, muito mais investimento na criação de novos e “melhores” modelos de geração do que para a detecção.
Para quem se interessar por esse caminho, Ernesto Spink (2023b) fez um interessante texto sobre a detecção de tais conteúdos, inclusive apontando elementos textuais que podem ser observados, a exemplo de padrões de resposta, consistência e contexto, erros gramaticais ou tipográficos. O pesquisador recomenda alguns detectores, apesar de também concluir que nenhum é 100% seguro para ser utilizado no momento.
Vale ressaltar que fazer uso do próprio modelo ou chatbot (e.g. ChatGPT, Bard, Bing, Claude) para detectar plágio ou presença de IA não tem QUALQUER segurança. Como tais modelos sempre respondem aos prompts gerados, eles poderão aleatoriamente dizer que foi um texto gerado por ele ou outra IA e isso se tratar apenas de uma alucinação.
A proibição dessas ferramentas não colocará o Brasil em posição de liderança em regulação ou no desenvolvimento de tecnologias baseadas em IA; entretanto não devemos apenas exportar as regras e regulações dos grandes periódicos e associações internacionais, pois temos problemas particulares do Sul global.
Há uma notória ausência de diretrizes por parte de instituições como MEC, CAPES, CNPq, SciELO[10] e outras agências regulatórias ou de financiamento. Talvez seja, inclusive, uma boa oportunidade para associações científicas buscarem discutir e elaborar regras próprias. Acredito que um primeiro passo importante seria realizar uma pesquisa nacional com pesquisadores, editores de periódicos e de editoras acadêmicas para identificar usos, necessidades, receios etc.
No Brasil, como já destacado em documento da ABC, já temos capacidade técnica e dados disponíveis. Apenas em termos acadêmicos, temos a base da SciELO, Lattes, Sucupira e o banco de teses e dissertações da Capes, entre tantos outros. Claramente, temos abundância de dados para treinamento de GenAIs acadêmicas, que poderão ser de grande valia para a nossa pesquisa científica e poderiam ser úteis para as necessidades de países fora do circuito da produção acadêmica mundial no Norte global.
*Esse texto foi totalmente escrito por um humano, mas foi revisado com ajuda do ChatGPT versão 4.0 de 21 de novembro de 2023) e do plugin para navegadores Text Cortex (versão não especificada).
[1] Uma tradução melhor de generative seria “geradora”, mas generativa não é um termo incorreto e acabou sendo apropriado pelo jornalismo e pelo público de forma geral.
[2] Aproveito para agradecer a Cristiane Sinimbu Sanchez pela revisão generosa deste texto.
[3] Editores e editoras devem especialmente acompanhar a discussão promovida pelo Committee on Publication Ethics (COPE), uma ONG sem fins lucrativos e que serve de referência para várias editoras e periódicos de alto impacto: https://publicationethics.org/resources/forum-discussions/artificial-intelligence-fake-paper. Acesso 09 dez. 2023.
[4] ALECRIM, Emerson. Artistas inundam ArtStation com protestos contra imagens geradas por IA. Tecnoblog, 2023. Disponível em: https://tecnoblog.net/noticias/2022/12/15/artistas-inundam-artstation-com-protestos-contra-imagens-geradas-por-ia/. Acesso 09 dez. 2023.
[5] PACETE, Luiz Gustavo. Entenda o impacto da IA na greve de roteiristas e atores de Hollywood. Forbes, 2023. Disponível em: https://forbes.com.br/forbes-tech/2023/07/entenda-o-impacto-da-ia-na-greve-de-roteiristas-e-atores-de-hollywood/. Acesso 09 dez. 2023.
[6] Esta interessante matéria mostra como imagens geradas por IAs reforçam estereótipos: TURK, Victoria. How AI reduces the world to stereotypes. Rest of World, 10 out. 2023. Disponível em: https://restofworld.org/2023/ai-image-stereotypes/. Acesso 09 dez. 2023.
[7] Outras duas importantes preocupações são: 1) O serviço de rotular códigos e resultados (incluindo os tóxicos) de IA são realizados por trabalhadores mal remunerados do sul global (https://gizmodo.uol.com.br/chatgpt-openai-usou-trabalhadores-quenianos-para-filtrar-conteudo-no-chatbot/) e 2) IAs de grande escala apresentam custos ambientais significativos, incluindo grande gasto de água para a manunteção de seus servidores (https://exame.com/inteligencia-artificial/inteligencia-artificial-e-nuvem-do-google-consomem-21-bilhoes-de-litros-de-agua-por-ano/). Os dois problemas principais referidos no texto são específicos da pesquisa acadêmica.
[8] Há versões empresariais pagas em colaboração com a Microsoft Azure que oferecem essa privacidade de não usar os dados para treinamento do GPT, apesar de se manterem os perigos de vazamento.
[9] Neste momento, várias ferramentas como Claude, Perplexity e o próprio ChatGPT permitem você criar um link que é compartilhável e pode ser usado como uma prática de transparência e replicabilidade da pesquisa.
[10] A SciELO oficialmente não lançou algum material sobre diretrizes do uso de IAs na publicação, porém seu blog tem publicado continuamente sobre o assunto (ver Spinak, 2023a, 2023b).
Rafael Cardoso Sampaio (rafael.sampaio@ufpr.br) – Professor do Departamento de Ciência Política da Universidade Federal do Paraná (UFPR).
BOYD-GRABER, Jordan; OKAZAKI, Naoaki; ROGERS, Anna. ACL 2023 policy on AI writing assistance, 2023. Disponível em: https://2023.aclweb.org/blog/ACL-2023-policy. Acesso em: 2 dez. 2023.
CAMBRIDGE. Research Publishing Ethics Guidelines for Journals. 2023. Disponível em: https://www.cambridge.org/core/services/authors/publishing-ethics/research-publishing-ethics-guidelines-for-journals/authorship-and-contributorship#ai-contributions-to-research-content. Acesso em: 2 dez. 2023.
COPE. Authorship and AI tools, 2023. Disponível em: https://publicationethics.org/cope-position-statements/ai-author. Acesso em: 2 dez. 2023.
ELSEVIER. The use of generative AI and AI-assisted technologies in the review process for Elsevier, 2023a. Disponível em: https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-the-review-process. Acesso em: 12 dez. 2023.
ELSEVIER. The use of generative AI and AI-assisted technologies in writing for Elsevier, 2023b. Disponível em: https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier. Acesso em: 12 dez. 2023.
FRONTIERS. Artificial Intelligence to Help Meet Global Demand for High-Quality, Objective Peer-Review in Publishing. Frontiers Science News, 2020. Disponível em: https://blog.frontiersin.org/2020/07/01/artificial-intelligence-to-help-meet-global-demand-for-high-quality-objective-peer-review-in-publishing/.
HACKER, P.; ENGEL, A.; MAUER, M. Regulating ChatGPT and other Large Generative AI Models. 2023 ACM Conference on Fairness, Accountability, and Transparency. Anais… In: FACCT ’23: THE 2023 ACM CONFERENCE ON FAIRNESS, ACCOUNTABILITY, AND TRANSPARENCY. Chicago IL USA: ACM, 12 jun. 2023. Disponível em: https://dl.acm.org/doi/10.1145/3593013.3594067. Acesso em: 2 dez. 2023.
ICMJE. Defining the Role of Authors and Contributors, 2023. Disponível em:
https://www.icmje.org/recommendations/browse/roles-and-responsibilities/defining-the-role-of-authors-and-contributors.html. Acesso em: 2 dez. 2023.
KANKANHALLI, Atreyi. Peer Review in the Age of Generative AI. Journal of the Association for Information Systems, v. 25, n. 1, p. 76-84, 2024.
KORINEK, A. Language models and cognitive automation for economic research. National Bureau of Economic Research, 2023.
LEVENE, Alysa. Artificial intelligence and authorship. 2023. Disponível em: https://publicationethics.org/news/artificial-intelligence-and-authorship. Acesso em: 2 dez. 2023.
LIANG, W., YUKSEKGONUL, M., MAO, Y., WU, E., ZOU, J. GPT Detectors Are Biased against Non-native English Writers. Patterns, v. 4, n. 7, 100779, 2023. https://doi.org/10.1016/j.patter.2023.100779
LOPEZOSA, Carlos. La inteligencia artificial en los procesos editoriales de las revistas académicas: propuestas prácticas. Infonomy, v. 1, n. 1, 2023.
NATURE. Why Nature will not allow the use of generative AI in images and videos. Nature, v. 618, 2023. Disponível em: https://doi.org/10.1038/d41586-023-01546-4. Acesso em: 2 dez. 2023.
NATURE. Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature, v. 613, n. 612, p. 10.1038, 2023.
OXFORD. Publication and authorship, 2023. Disponível em: https://researchsupport.admin.ox.ac.uk/governance/integrity/publication. Acesso em: 2 dez. 2023.
SAMPAIO, R. C.; NICOLÁS, M. A.; JUNQUILHO, T. A.; SILVA, L. R. L.; FREITAS, C. S.; TELLES, M.; TEIXEIRA, J. S. ChatGPT and other AIs will change all scientific research: initial reflections on uses and consequences. SciELO Preprints, 2023. DOI: 10.1590/SciELOPreprints.6686. Disponível em: https://preprints.scielo.org/index.php/scielo/preprint/view/6686. Acesso em: 8 dez. 2023.
SPINAK, Ernesto. Inteligência Artificial e a comunicação da pesquisa. Blog da SciELO. 2023a. Disponível em: https://blog.scielo.org/blog/2023/08/30/inteligencia-artificial-e-a-comunicacao-da-pesquisa/. Acesso em: 8 dez. 2023.
SPINAK, Ernesto. IA: Como detectar textos produzidos por chatbox e seus plágios. Blog da SciELO, 2023b. Disponível em: https://blog.scielo.org/blog/2023/11/17/ia-como-detectar-textos-produzidos-por-chatbox-e-seus-plagios/. Acesso em: 8 dez. 2023.
STOKEL-WALKER, C. ChatGPT Listed as Author on Research Papers: Many Scientists Disapprove. Nature [online]. 2023, vol. 613, no. 7945, pp. 620-62. Disponível em: https://www.nature.com/articles/d41586-023-00107-z. Acesso em: 8 dez. 2023.
THORP, H. Holden. ChatGPT is fun, but not an author. Science, v. 379, n. 6630, p. 313-313, 2023.
Taylor & Francis. Taylor & Francis Clarifies the Responsible use of AI Tools in Academic Content Creation, 2023. Disponível em: https://newsroom.taylorandfrancisgroup.com/taylor-francis-clarifies-the-responsible-use-of-ai-tools-in-academic-content-creation/. Acesso em: 8 dez. 2023.
WILEY, 2023. Authors and contributors. Best Practice Guidelines on
Research Integrity and Publishing Ethics. Disponível em: https://authorservices.wiley.com/ethics-guidelines/index.html. Acesso em: 8 dez. 2023.
ZIELINSKI, C.; WINKER, MA.; AGGARWAL, R.; FERRIS, LE.; HEINEMANN, M.; LAPEÑA, JF. PAI, SA.; ING, E.; CITROME, L.; ALAM, M.; VOIGHT, M.; HABIBZADEH, F.; for the WAME Board. Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications. WAME. May 31, 2023. Disponível em: https://wame.org/page3.php?id=106. Acesso em: 8 dez. 2023.
SAMPAIO, Rafael Cardoso. Recomendações iniciais para editores de periódicos científicos sobre o uso de Inteligência Artificial generativa. Blog DADOS, 2023 [published 07 Feb. 2023]. Available from: http://dados.iesp.uerj.br/recomendacoes-iniciais-para-editores-de-periodicos-cientificos-sobre-o-uso-de-inteligencia-artificial-generativa/
Tags:GenAIs, IA