Sun’iy intellekt (AI), ayniqsa katta til modellari (LLM), akademik tadqiqotlarni jadal ravishda qayta shakllantirmoqda. Adabiyotlar sintezidan tortib ma’lumotlar tahlili va qo’lyozma qoralashigacha bo’lgan jarayonlarda AI samaradorlik va yangi tushuncha shakllarini va’da qilmoqda. Shunga qaramay, bu va’da jiddiy axloqiy muammolar bilan birga keladi. Hozirgi tadqiqotlar shuni ko’rsatadiki, bu muammolarning aksariyati nafaqat texnik cheklovlardan, balki institutlarning tayyor emasligidan ham kelib chiqadi.

AI yordamida olib boriladigan tadqiqotlardagi eng dolzarb axloqiy muammolardan biri ishonchlilikdir. LLMlar gallyutsinatsiyalarga, ya’ni ravon, ammo faktik jihatdan noto’g’ri yoki uydirma natijalarga moyil bo’lib, bu ilmiy asoslilikka putur yetkazishi mumkin, ayniqsa tibbiyot yoki davlat siyosati kabi xatoga toqat qilmaydigan sohalarda (Hua va boshqalar, 2024). Ushbu gallyutsinatsiyalar til modellarining ehtimollik tabiatidan, xolis bo’lmagan yoki eskirgan o’quv ma’lumotlaridan va aniqlikdan ko’ra ishonchlilikni afzal ko’radigan dekodlash strategiyalaridan kelib chiqadi. Shunga yaqin muammolar originallik va plagiat bilan bog’liq. Tadqiqotlar shuni ko’rsatadiki, AI tomonidan yaratilgan matn ko’pincha chinakam yangi hissa qo’shish o’rniga mavjud g’oyalarni qayta birlashtiradi va ba’zida akademik kontekstlarda maqbul bo’lgan o’xshashlik chegaralaridan oshib ketadi (Hua va boshqalar, 2024).

Xolislik, maxfiylik va hisobdorlik AI dan axloqiy foydalanishni yanada murakkablashtiradi. LLMlar ko’pincha o’zlarining o’quv ma’lumotlariga kiritilgan ijtimoiy stereotiplarni, jumladan gender, diniy va professional xurofotlarni takrorlaydi (Le Jeune va boshqalar, 2025). Shu bilan birga, AI tizimlari tadqiqotchilar maxfiy yoki nashr etilmagan ma’lumotlarni kiritganda shaxsiy ma’lumotlarni bexosdan takrorlashi va maxfiylik xavfini keltirib chiqarishi mumkin (Hua va boshqalar, 2024). Qaror qabul qilish yoki talqin qilish vazifalari qisman shaffof bo’lmagan tizimlarga topshirilganda javobgarlik xiralashadi, bu esa an’anaviy ilmiy hisobdorlik tushunchalariga qiyinchilik tug’diradi.

Tadqiqot axloqi bo’yicha kengashlar (REB) ko’pincha bu muammolarni hal qilishga tayyor emas. Sifatli tadqiqotlar shuni ko’rsatadiki, REBlarda texnik tajriba, standartlashtirilgan baholash vositalari va AI tadqiqotlariga moslashtirilgan aniq ko’rsatmalar yetishmaydi (Bouhouita-Guermech va boshqalar, 2023). Natijada, qo’mitalar algoritmik tarafkashlik, modelning asosliligi va uzoq muddatli ijtimoiy ta’sirlar kabi chuqurroq muammolarni e’tibordan chetda qoldirib, asosan ma’lumotlar maxfiyligi va roziligiga e’tibor qaratadi. Ushbu tartibga solishning kechikishi qarama-qarshi qarorlarni keltirib chiqaradi va tadqiqotchilarni aniq axloqiy ko’rsatmalarsiz qoldiradi.

Boshqaruv islohoti muhim bo’lsa-da, tadqiqotchilar axloqiy xavflarni kamaytirishning bevosita va amaliy usulliga ham ega. Ko’rsatmalarni ongli ravishda loyihalash (ko’rsatma muhandisligi) kuchli yumshatish strategiyasi sifatida paydo bo’ldi. Empirik dalillar shuni ko’rsatadiki, noaniq ko’rsatmalar gallyutsinatsiya darajasini sezilarli darajada oshiradi, tuzilmaviy ko’rsatmalar esa, ayniqsa chain-of-thought (CoT) ko’rsatma berish, faktik xatolarni sezilarli darajada kamaytirishi mumkin (Anh-Hoang va boshqalar, 2025). Modellar noaniqlikni ko’rsatishi, fikrlash bosqichlarini tushuntirishi yoki ma’lumot yetishmaganda javobni kechiktirishni talab qiladigan aniq ko’rsatmalar natijalarni ilmiy ehtiyotkorlik va shaffoflik standartlariga moslashtirishga yordam beradi.

Biroq, ko’rsatma injeneriyasi barcha muammolarning yechimi emas. Tadqiqotlar shuni ko’rsatadiki, agar modelda asosiy bilimlar yetishmasa, murakkabroq ko’rsatmalar yanada ishonchli eshitiladigan yolg’onlarni keltirib chiqarishi mumkin (Anh-Hoang va boshqalar, 2025). Shuning uchun axloqiy foydalanish tadqiqotchilardan AI natijalariga vaqtinchalik deb qarashni va da’volarni nufuzli manbalar orqali tekshirishni talab qiladi.

Ko’rsatma injeneriyasidan tashqari, bir nechta qo’shimcha yechimlar kerak. Birinchidan, AI savodxonligi tadqiqotning asosiy kompetentsiyasiga aylanishi kerak. Modellar qanday ishlashini, qayerda xatolik berishini va tarafkashlikni qanday kodlashini tushunish mas’uliyatli foydalanish uchun juda muhimdir (Haber va boshqalar, 2025). Ikkinchidan, shaffoflik va oshkor qilish standart amaliyotga aylanishi kerak: tadqiqotchilar AI vositalaridan qanday foydalanilgani va tadqiqot jarayonining qaysi bosqichlarida qo’llanilganini aniq xabar qilishlari kerak. Uchinchidan, sohaga oid modellar, retrieval-augmented generation va joriy etilgandan keyingi monitoring kabi institutsional yechimlar umumiy maqsadli tizimlar bilan bog’liq xavflarni kamaytirishi mumkin (Hua va boshqalar, 2024).

Xulosa qilib aytganda, tadqiqotda AI dan axloqiy foydalanish faqat texnik tuzatishlarga tayanib qola olmaydi. Bu yaxshiroq tayyorlangan institutlar, xabardor tadqiqotchilar va tanqidiy fikrlash va mas’uliyat madaniyatiga kiritilgan ko’rsatma injeneriyasi kabi amaliy vositalar kombinatsiyasini talab qiladi.

References

Anh-Hoang, D., Tran, V., & Nguyen, L.-M. (2025). Survey and analysis of hallucinations in large language models: Attribution to ko’rsatma berish strategies or model behavior. Frontiers in Artificial Intelligence, 8, 1622292. https://doi.org/10.3389/frai.2025.16222921

Bouhouita-Guermech, S., Gogognon, P., & Bélisle-Pipon, J.-C. (2023). Specific challenges posed by artificial intelligence in research ethics. Frontiers in Artificial Intelligence, 6, 1149082. https://doi.org/10.3389/frai.2023.1149082

González-Esteban, E., & Calvo, P. (2022). Ethically governing artificial intelligence in the field of scientific research and innovation. Heliyon, 8(2), e08946. https://doi.org/10.1016/j.heliyon.2022.e08946

Haber, E., Jemielniak, D., Kurasiński, A., & Przegalińska, A. (2025). Using AI in academic writing and research: A complete guide to effective and ethical academic AI. Palgrave Macmillan. https://doi.org/10.1007/978-3-031-91705-9

Hua, S. Y., Jin, S. C., & Jiang, S. Y. (2024). The limitations and ethical considerations of ChatGPT. Data Intelligence, 6(1), 201-239. https://doi.org/10.1162/dint_a_00243

Le Jeune, P., Malézieux, B., Xiao, W., & Dora, M. (2025). Phare: A safety probe for large language models. arXiv. https://doi.org/10.48550/arXiv.2505.11365