скусственный интеллект (ИИ), в особенности большие языковые модели (LLM), стремительно трансформирует научные исследования. От обзора литературы до анализа данных и подготовки рукописей — ИИ обещает повышение эффективности и новые формы научного понимания. Однако эти возможности сопровождаются серьёзными этическими вызовами. Современные исследования показывают, что многие из этих проблем обусловлены не только техническими ограничениями, но и институциональной неподготовленностью.
Одной из наиболее острых этических проблем в исследованиях с использованием ИИ является надёжность. LLM склонны к галлюцинациям, формированию связных, но фактически неверных или вымышленных утверждений, что подрывает научную достоверность, особенно в областях с низкой допустимостью ошибок, таких как медицина или государственная политика (Hua et al., 2024). Эти галлюцинации возникают вследствие вероятностной природы языковых моделей, предвзятых или устаревших обучающих данных, а также стратегий генерации, ориентированных на правдоподобие, а не на точность. С этим тесно связаны вопросы оригинальности и плагиата. Исследования показывают, что тексты, сгенерированные ИИ, часто представляют собой переработку уже существующих идей, а не создание подлинно новых вкладов, и в ряде случаев превышают допустимые пороги сходства, принятые в академической среде (Hua et al., 2024).
Дополнительные сложности для этичного использования создают проблемы предвзятости, конфиденциальности и ответственности. LLM нередко воспроизводят социальные стереотипы, заложенные в обучающих данных, включая гендерные, религиозные и профессиональные предубеждения (Le Jeune et al., 2025). Одновременно ИИ-системы могут непреднамеренно воспроизводить чувствительную персональную информацию, что создаёт риски нарушения конфиденциальности, особенно если исследователи вводят в систему закрытые или неопубликованные данные (Hua et al., 2024). Вопрос ответственности также становится размытым, когда решения или интерпретации частично делегируются непрозрачным алгоритмическим системам, что ставит под сомнение традиционные представления о научной ответственности.
Комитеты по этике исследований часто оказываются неготовыми к решению этих проблем. Обзорные и качественные исследования показывают, что таким комитетам не хватает технической экспертизы, стандартизированных инструментов оценки и чётких рекомендаций, адаптированных к исследованиям с применением ИИ (Bouhouita-Guermech et al., 2023). В результате внимание нередко сосредотачивается исключительно на вопросах защиты данных и информированного согласия, тогда как более глубокие проблемы, алгоритмическая предвзятость, валидность моделей и долгосрочные социальные последствия, остаются без должного рассмотрения. Этот нормативный разрыв приводит к непоследовательным решениям и оставляет исследователей без ясных этических ориентиров.
Хотя институциональные реформы крайне необходимы, у исследователей уже сейчас есть практические инструменты для снижения этических рисков. Одним из таких инструментов является инженерия запросов (prompt engineering), целенаправленное проектирование инструкций, задаваемых ИИ-системам. Эмпирические данные показывают, что расплывчатые запросы существенно повышают вероятность галлюцинаций, тогда как структурированные запросы, особенно с использованием пошагового рассуждения (chain-of-thought), способны значительно снизить количество фактических ошибок (Anh-Hoang et al., 2025). Чёткие инструкции, требующие от модели указывать степень неопределённости, объяснять ход рассуждений или воздерживаться от ответа при отсутствии информации, помогают приблизить результаты к академическим стандартам осторожности и прозрачности.
Однако инженерия запросов не является универсальным решением. Исследования показывают, что при отсутствии у модели базовых знаний более сложные запросы могут приводить к формированию ещё более уверенно звучащих ложных утверждений (Anh-Hoang et al., 2025). Следовательно, этичное использование ИИ требует от исследователей рассматривать получаемые результаты как предварительные и обязательно проверять утверждения по авторитетным источникам.
Помимо инженерии запросов, необходимы и другие взаимодополняющие меры. Во-первых, ИИ-грамотность должна стать ключевой исследовательской компетенцией. Понимание принципов работы моделей, их ограничений и механизмов формирования предвзятости является необходимым условием ответственного использования ИИ (Haber et al., 2025). Во-вторых, прозрачность и раскрытие информации должны стать стандартной практикой: исследователи должны чётко указывать, каким образом ИИ-инструменты использовались и на каких этапах исследования. В-третьих, институциональные решения, такие как разработка предметно-ориентированных моделей, использование генерации с привлечением внешних источников (retrieval-augmented generation) и мониторинг после внедрения, могут снизить риски, связанные с применением универсальных ИИ-систем (Hua et al., 2024).
В целом, этичное использование ИИ в научных исследованиях не может опираться исключительно на технические решения. Оно требует сочетания институциональной готовности, информированности исследователей и практических инструментов, таких как инженерия запросов, встроенных в культуру критического осмысления и ответственности.
Список литературы
Anh-Hoang, D., Tran, V., & Nguyen, L.-M. (2025). Survey and analysis of hallucinations in large language models: Attribution to prompting strategies or model behavior. Frontiers in Artificial Intelligence, 8, 1622292. https://doi.org/10.3389/frai.2025.16222921
Bouhouita-Guermech, S., Gogognon, P., & Bélisle-Pipon, J.-C. (2023). Specific challenges posed by artificial intelligence in research ethics. Frontiers in Artificial Intelligence, 6, 1149082. https://doi.org/10.3389/frai.2023.1149082
González-Esteban, E., & Calvo, P. (2022). Ethically governing artificial intelligence in the field of scientific research and innovation. Heliyon, 8(2), e08946. https://doi.org/10.1016/j.heliyon.2022.e08946
Haber, E., Jemielniak, D., Kurasiński, A., & Przegalińska, A. (2025). Using AI in academic writing and research: A complete guide to effective and ethical academic AI. Palgrave Macmillan. https://doi.org/10.1007/978-3-031-91705-9
Hua, S. Y., Jin, S. C., & Jiang, S. Y. (2024). The limitations and ethical considerations of ChatGPT. Data Intelligence, 6(1), 201–239. https://doi.org/10.1162/dint_a_00243
Le Jeune, P., Malézieux, B., Xiao, W., & Dora, M. (2025). Phare: A safety probe for large language models. arXiv. https://doi.org/10.48550/arXiv.2505.11365