Научные исследователи отмечают, что использование искусственного интеллекта (ИИ), в частности чат-ботов, становится всё более распространённым в научной литературе, однако многие авторы не раскрывают эту информацию. В статьях можно найти явные признаки использования ИИ: подозрительные повторяющиеся фразы, которые указывают на работу с языковыми моделями. Некоторые исследователи, включая Алекса Глинна из Университета Луисвилля, выявили сотни случаев, когда использование ИИ не было обозначено, что ставит под угрозу научную добросовестность.
С 2023 года эксперты по проверке на плагиат начали фиксировать статьи с явными признаками скрытого использования ИИ. Например, в одной из статей, опубликованной в 2024 году, была обнаружена фраза «Я — языковая модель ИИ», что вызвало вопросы о процессе рецензирования и публикации. Глинн создал онлайн-трекер Academ-AI, где зафиксировал более 700 статей с признаками использования ИИ, среди которых 13% были опубликованы в крупных научных журналах.

Другой исследователь, Артур Стшелецкий из Экономического университета в Катовице, также собрал примеры нераскрытого использования ИИ в статьях, сосредоточив внимание на высококачественных журналах. Он выявил 64 статьи, опубликованные в журналах, которые относятся к верхнему квартилю в своей области.
Издательства, такие как Springer Nature и Taylor & Francis, ответили на запросы журналистов, отметив, что статьи находятся на рассмотрении. Политики по раскрытию использования ИИ варьируются: некоторые издательства требуют указания использования ИИ, в то время как другие не делают это обязательным. Например, Springer утверждает, что редактирование текста с помощью ИИ не требует пометки, если изменения касаются улучшения читабельности.
Глинн и другие исследователи подчеркивают необходимость большей прозрачности в использовании ИИ. Они считают, что простое указание на использование ИИ становится недостаточным, и авторы должны четко обозначать, как именно использовались инструменты ИИ, чтобы редакторы и читатели могли оценить достоверность работы. Часто статьи, в которых не раскрывается использование ИИ, не пересматриваются, что создает дополнительные риски.
Источник: https://www.nature.com/articles/d41586-025-01180-2