Жасанды интеллект (ЖИ), әсіресе ірі тілдік модельдер (LLM), ғылыми зерттеулерді жылдам өзгертіп келеді. Әдебиеттерді шолу жасаудан бастап деректерді талдау мен қолжазба дайындауға дейін ЖИ тиімділік пен жаңа танымдық мүмкіндіктер ұсынады. Алайда бұл мүмкіндіктермен қатар елеулі этикалық мәселелер де қатар жүреді. Қазіргі зерттеулер көрсеткендей, бұл қиындықтардың көпшілігі тек техникалық шектеулерден ғана емес, сонымен қатар институционалдық дайындықтың жеткіліксіздігінен туындайды.
ЖИ көмегімен жүргізілетін зерттеулердегі ең өзекті этикалық мәселелердің бірі — сенімділік. Ірі тілдік модельдер «галлюцинацияға» бейім, яғни сырттай қисынды көрінетін, бірақ фактілік тұрғыдан қате немесе ойдан шығарылған жауаптар береді. Мұндай қателіктер әсіресе медицина немесе қоғамдық саясат сияқты қателікке төзімділігі төмен салаларда ғылыми негізділікке нұқсан келтіруі мүмкін (Hua et al., 2024). Бұл галлюцинациялар тілдік модельдердің ықтималдық табиғатынан, біржақты немесе ескірген оқу деректерінен және дәлдіктен гөрі ықтималдылықты таңдауға бейім декодтау стратегияларынан туындайды. Бұған тығыз байланысты тағы бір мәселе — түпнұсқалылық пен плагиат. Зерттеулер көрсеткендей, ЖИ жасаған мәтіндер көбіне шынайы жаңа идея ұсынудан гөрі бар ойларды қайта құрастырады, кейде академиялық ортада рұқсат етілген ұқсастық деңгейінен асып кетеді (Hua et al., 2024).
Біржақтылық, құпиялылық және жауапкершілік мәселелері этикалық қолдануды одан әрі күрделендіреді. Ірі тілдік модельдер оқу деректеріне сіңген әлеуметтік стереотиптерді, соның ішінде гендерлік, діни және кәсіби біржақтылықтарды жиі қайта өндіреді (Le Jeune et al., 2025). Сонымен қатар, зерттеушілер құпия немесе жарияланбаған деректерді енгізген жағдайда, ЖИ жүйелері сезімтал жеке ақпаратты байқаусызда қайта шығарып, құпиялылыққа қауіп төндіруі мүмкін (Hua et al., 2024). Ал шешім қабылдау немесе түсіндіру үдерістерінің бір бөлігі түсініксіз (opaque) жүйелерге жүктелгенде, жауапкершілік шекарасы бұлыңғырланып, дәстүрлі ғылыми жауапкершілік ұғымдарына сын туады.
Зерттеу этикасы жөніндегі комитеттер (REB) бұл мәселелерді шешуге жиі дайын емес. Шолу және сапалық зерттеулер олардың техникалық біліктілігінің, стандартталған бағалау құралдарының және ЖИ зерттеулеріне бейімделген нақты нұсқаулықтарының жетіспейтінін көрсетеді (Bouhouita-Guermech et al., 2023). Нәтижесінде комитеттер көбіне деректердің құпиялылығы мен келісім мәселелеріне ғана назар аударып, алгоритмдік біржақтылық, модельдердің валидтілігі және ұзақ мерзімді әлеуметтік салдар сияқты терең мәселелерді елемей қалдырады. Мұндай реттеушілік кешеуілдеу шешімдердің бірізді болмауына және зерттеушілер үшін айқын этикалық бағдардың жоқтығына әкеледі.
Басқару жүйесін реформалау маңызды болғанымен, зерттеушілердің этикалық тәуекелдерді азайтудың жедел әрі практикалық жолдары да бар. Солардың бірі — промпт-инжиниринг, яғни ЖИ жүйелеріне берілетін нұсқауларды саналы түрде құрастыру. Эмпирикалық деректер бұлдыр, нақты емес промпттар галлюцинация деңгейін едәуір арттыратынын, ал құрылымдалған промпттар, әсіресе ой қадамдарын талап ететін chain-of-thought (CoT) тәсілі, фактілік қателерді айтарлықтай азайта алатынын көрсетеді (Anh-Hoang et al., 2025). Белгісіздік туралы ескерту, пайымдау қадамдарын түсіндіру немесе ақпарат жетіспеген жағдайда жауап бермеу жөніндегі нақты нұсқаулар модель нәтижелерін академиялық сақтық пен ашықтық талаптарымен үйлестіруге көмектеседі.
Дегенмен, промпт-инжиниринг әмбебап шешім емес. Зерттеулер көрсеткендей, егер модельде қажетті базалық білім болмаса, күрделірек промпттар сенімді естілетін, бірақ жалған ақпаратты одан әрі күшейтуі мүмкін (Anh-Hoang et al., 2025). Сондықтан этикалық тұрғыдан дұрыс қолдану ЖИ нәтижелерін алдын ала болжамды, уақытша деп қабылдауды және барлық тұжырымдарды беделді дереккөздермен міндетті түрде тексеруді талап етеді.
Промпт-инжинирингтен бөлек, бірқатар қосымша шешімдер қажет. Біріншіден, ЖИ сауаттылығы зерттеушінің негізгі құзыреттерінің біріне айналуы тиіс. Модельдердің қалай жұмыс істейтінін, қай жерде қателесетінін және біржақтылықты қалай кодтайтынын түсіну, жауапты қолданудың алғышарты (Haber et al., 2025). Екіншіден, ашықтық пен жария ету стандартқа айналуы керек: зерттеушілер ЖИ құралдарының зерттеудің қай кезеңдерінде және қалай пайдаланылғанын нақты көрсетуі тиіс. Үшіншіден, салалық модельдер, дереккөздермен толықтырылған генерация (retrieval-augmented generation) және қолданудан кейінгі мониторинг сияқты институционалдық шешімдер жалпы мақсаттағы жүйелерге тән тәуекелдерді азайта алады (Hua et al., 2024).
Қорытындылай келе, зерттеуде ЖИ-ді этикалық тұрғыдан пайдалану тек техникалық түзетулерге сүйенбеуі керек. Ол жақсы дайындалған институттарды, хабардар зерттеушілерді және промпт-инжиниринг сияқты практикалық құралдарды сындарлы ойлау мен жауапкершілік мәдениетіне сүйене отырып, қолдануды талап етеді.
Дереккөздер тізімі
Anh-Hoang, D., Tran, V., & Nguyen, L.-M. (2025). Survey and analysis of hallucinations in large language models: Attribution to prompting strategies or model behavior. Frontiers in Artificial Intelligence, 8, 1622292. https://doi.org/10.3389/frai.2025.16222921
Bouhouita-Guermech, S., Gogognon, P., & Bélisle-Pipon, J.-C. (2023). Specific challenges posed by artificial intelligence in research ethics. Frontiers in Artificial Intelligence, 6, 1149082. https://doi.org/10.3389/frai.2023.1149082
González-Esteban, E., & Calvo, P. (2022). Ethically governing artificial intelligence in the field of scientific research and innovation. Heliyon, 8(2), e08946. https://doi.org/10.1016/j.heliyon.2022.e08946
Haber, E., Jemielniak, D., Kurasiński, A., & Przegalińska, A. (2025). Using AI in academic writing and research: A complete guide to effective and ethical academic AI. Palgrave Macmillan. https://doi.org/10.1007/978-3-031-91705-9
Hua, S. Y., Jin, S. C., & Jiang, S. Y. (2024). The limitations and ethical considerations of ChatGPT. Data Intelligence, 6(1), 201–239. https://doi.org/10.1162/dint_a_00243
Le Jeune, P., Malézieux, B., Xiao, W., & Dora, M. (2025). Phare: A safety probe for large language models. arXiv. https://doi.org/10.48550/arXiv.2505.11365