Adv Simul (Lond). 2025 Abr 18;10(1):22. doi: 10.1186/s41077-025-00350-6.
RESUMO
As ferramentas de inteligência artificial generativa (IA) foram adotadas seletivamente pela comunidade acadêmica para ajudar os pesquisadores a completar tarefas de maneira mais eficiente. O lançamento abrangente da plataforma Chat Generative Pre-trained Transformer (ChatGPT) em 2022 tornou essas ferramentas mais acessíveis a estudiosos ao redor do mundo. Apesar de seu tremendo potencial, estudos descobriram que as ferramentas de IA generativa baseadas em modelos de linguagem grandes (LLM) têm problemas com plágio, alucinações de IA e referências imprecisas ou fabricadas. Isso levanta preocupações legítimas sobre a utilidade, precisão e integridade da IA ao ser usada para escrever manuscritos acadêmicos. Atualmente, há pouca orientação clara para os estudiosos de simulação de saúde delinearem as maneiras pelas quais a IA generativa poderia ser usada para apoiar legitimamente a produção de literatura acadêmica. Neste artigo, discutimos como as ferramentas de IA generativa, alimentadas por LLMs amplamente disponíveis (por exemplo, ChatGPT), podem ajudar no processo de escrita acadêmica. Primeiramente, exploramos como os editores acadêmicos estão posicionando o uso das ferramentas de IA generativa e depois descrevemos possíveis problemas ao usar essas ferramentas no processo de escrita acadêmica. Por fim, discutimos três categorias de maneiras específicas pelas quais as ferramentas de IA generativa podem ser usadas de maneira ética e oferecemos quatro princípios-chave que podem ajudar a orientar os pesquisadores a produzir resultados de pesquisa de alta qualidade com o mais alto grau de integridade acadêmica.
PMID:40251634 | DOI:10.1186/s41077-025-00350-6
Respostas