 
Сьогодні все більше людей, починаючи від студентів і закінчуючи дослідниками, використовують мовні моделі, такі як ChatGPT, для написання, редагування та перекладу текстів. Однак з новими можливостями виникає і нова етика: важливо обдумати, як саме ми застосовуємо ці інструменти і наскільки відверто готові обговорювати своє їх використання.
Швидке впровадження мовних моделей, таких як ChatGPT, не тільки трансформувало традиційні методи створення та редагування текстів, але й викликало нові питання: де проходить межа між творчістю людини та підтримкою з боку штучного інтелекту?
Іще одне ускладнення -- упереджене ставлення до самого факту використання генеративного штучного інтелекту (ШІ). Ті, хто чесно визнає, що скористався мовною моделлю для перекладу чи редагування, ризикують почути звинувачення в нечесності. У науковому середовищі це перетворюється на справжнє табу: краще промовчати, ніж бути запідозреним у використанні "робота-помічника".
Цей страх викликає невпевненість в етичних підходах. Деякі люди використовують штучний інтелект, але не готові визнати це. Інші висловлюють критику відкрито, хоча і самі іноді звертаються до подібних технологій. Це підриває загальну довіру до науки. Ми стикаємося не лише з новітньою технологією, а й з етичною проблемою: інструмент, який мав би полегшити робочі процеси, перетворюється на джерело підозрілості та обвинувачень.
У сфері освіти спостерігається подібна картина. Викладачі активно застосовують штучний інтелект для розробки курсів, навчальних програм чи звітів, проте одночасно витрачають значну частину свого часу на виявлення ознак використання ChatGPT у роботах студентів.
Іноді це дійсно помітно: деякі тексти видають ознаки машинного створення — занадто ідеальна структура, невиправдана впевненість у формулюваннях або ж універсальні висловлювання, які підходять до будь-якої ситуації, але не відображають конкретності. Проте безперервна спроба "викриття" не вирішує проблему — вона лише підсилює атмосферу недовіри в академічному середовищі. Натомість, замість того, щоб навчати відповідальному використанню нових технологій, ми можемо повернутися до застарілої моделі покарань і обмежень, де страх домінує над розумом.
Як колись ми освоювали роботу з калькуляторами та пошуковими системами, так сьогодні нам потрібно навчитися користуватися генеративним штучним інтелектом. Адже суть не в самому інструменті, а в тому, як ми його використовуємо і чи готові відкрито обговорювати це.
Комітет з етики публікацій (Committee on Publication Ethics, COPE) майже два роки тому чітко заявив: ШІ не може бути автором, не несе відповідальності за зміст і не має права погоджувати остаточну версію рукопису. Водночас якщо дослідник використовував ШІ для перекладу, редагування чи пошуку літератури, це слід прозоро зазначити.
Міжнародний комітет редакторів медичних журналів (ICMJE) оновив свої рекомендації, вимагаючи від авторів детально пояснювати, як саме застосовувався штучний інтелект у їхніх роботах. Також редакції закликають рецензентів дотримуватися етичних стандартів: не використовувати чужі рукописи в сервісах ШІ без дозволу авторів та не передавати їх цим системам.
Відомі наукові видавництва також адаптуються до нових викликів. Наприклад, Elsevier вимагає створення окремого розділу під назвою Declaration of Generative AI, в якому зазначається, який інструмент використовувався і з якою метою. Springer Nature, у свою чергу, забороняє використання згенерованих зображень і підкреслює, що автором може бути лише людина. Wiley акцентує увагу на необхідності детального документування всіх випадків застосування штучного інтелекту — від ідеї до фінального оформлення.
Університети також мають свої власні стратегії: деякі з них дозволяють використовувати генеративний штучний інтелект під контролем викладача, тоді як інші обмежують його застосування лише технічними завданнями, такими як переклад або редагування текстів.
Утім, спільного стандарту досі немає. Невизначеність залишається: де саме й у якій формі вказувати залучення ШІ -- у тексті, в примітці, окремому файлі чи метаданих? Автори не завжди розуміють, що саме потрібно зазначити, а редактори й рецензенти -- як це оцінювати. Читачі ж не впевнені, наскільки можна довіряти таким матеріалам.
У даному контексті надзвичайно важливо встановити ясні та зрозумілі етичні норми, які будуть прийнятими всіма учасниками наукової діяльності.
Одним із можливих рішень спочатку розглядали так звані ШІ-детектори — інструменти, покликані виявляти, чи був текст створений штучним інтелектом. Проте на практиці їхня надійність виявилася обмеженою. Вони часто помиляються: можуть "покарати" користувачів за звичайні корекції або переклади, при цьому не завжди виявляючи дійсно згенеровані фрагменти. Дослідження також демонструють ймовірну упередженість щодо текстів авторів, для яких англійська мова не є рідною. Жоден з таких детекторів не може надати абсолютні гарантії, оскільки мовні моделі постійно еволюціонують, а людська мова є занадто складною й адаптивною.
Інший підхід полягає у використанні водяних знаків для позначення текстів, створених штучним інтелектом. Однак це може викликати небажані наслідки, зокрема підвищити стигматизацію та розділити матеріали на "дозволені" і "сумнівні". Замість того, щоб сприяти розвитку культури відповідального використання, така практика може поглибити атмосферу недовіри.
Насправді проблема не в самому генеративному ШІ, а в тому, що ми ще не навчилися відкрито й чесно пояснювати, як саме ним користуємося. Без такої прозорості межа між людською роботою й машинною допомогою стає дедалі менш помітною.
Ще одна з тем, що викликала жваві дискусії, полягає у необхідності вимагати від авторів надання "промптів" (запитів до чат-ботів), щоб глибше усвідомити, яким чином використовувався штучний інтелект. З першого погляду ця ідея здається раціональною, проте на практиці її реалізація може призвести до ряду труднощів.
По-перше, взаємодія з мовними моделями, як правило, має ітеративний характер: користувачі модифікують формулювання, додають деталі, звертаються до зовнішніх інструментів. В результаті формуються численні послідовності запитів, які важко або навіть неможливо точно відтворити.
По-друге, запити нерідко містять неопубліковані дані, фрагменти досліджень або іншу конфіденційну інформацію. Зберігання або публікація таких журналів може порушити етичні, договірні чи правові норми.
Тому промпти радше фіксують хід роботи, ніж гарантують її відтворюваність. Вони не замінюють стандартів наукової доброчесності й не забезпечують прозорості автоматично.
На цьому фоні стає дедалі ясніше: прості рішення не існують. Маркування робить використання штучного інтелекту помітнішим, але це не завжди гарантує відповідальність. Технології виявлення та водяні знаки можуть бути нестабільними й не завжди справедливими. Вимога розкривати запити до чат-ботів ставить під загрозу конфіденційність і може конфліктувати з етичними стандартами. А загальні фрази на кшталт "я користувався ChatGPT" є занадто нечіткими, щоб забезпечити справжню прозорість.
Абсолютна заборона, в свою чергу, також не є вирішенням. Вона не усуває проблему, а лише уповільнює адаптацію наукових методів до нових умов. Тому важливо акцентувати увагу не на покараннях, а на формуванні зрозумілих і справедливих умов для роботи.
Для забезпечення прозорості використання штучного інтелекту в науковій діяльності необхідна проста та зрозуміла система, яка дозволить чітко зафіксувати, які саме завдання виконувалися за допомогою ШІ. Це має відбуватися без стигматизації, надмірної бюрократії та страху виглядати нечесно. Одним із можливих рішень є GAIDeT (таксономія делегування генеративного ШІ).
Вона побудована за аналогією з CRediT (Contributor Role Taxonomy), яка описує внесок людських авторів у публікації -- наприклад, "написання", "аналіз даних" чи "візуалізація". GAIDeT натомість дозволяє зазначити, які саме функції було делеговано ШІ: редагування, переклад, пошук літератури, підготовку таблиць тощо.
Для полегшення процесу було розроблено Генератор декларацій GAIDeT — інструмент, що дозволяє вибрати відповідні завдання зі списку та створити готовий текст, який можна використати в статті чи дипломній роботі.
У центрі цього підходу стоїть особа: саме вона визначає, як і коли використовувати штучний інтелект, і саме вона відповідає за кінцевий результат. GAIDeT лише забезпечує цю взаємодію прозорістю, зрозумілістю та можливістю відтворення.
У академічному середовищі все частіше підкреслюють, що відкритість у застосуванні генеративного штучного інтелекту є не просто бажаною, а критично важливою для встановлення довіри. Багато наукових журналів вже закликають авторів чітко вказувати, яку роль відіграв ШІ у створенні їхніх матеріалів.
Наприклад, кілька медичних видань Харківського національного університету імені В. Каразіна вже впровадили GAIDeT у свої редакційні практики. Тепер, поряд із відомостями про авторів, фінансування та можливі конфлікти інтересів, з'явився окремий розділ – "Розкриття внеску штучного інтелекту". Це сприяє підвищенню прозорості процесу рецензування: редактори, рецензенти та читачі отримують повну інформацію без натяків і підозр.
GAIDeT також обговорюють на низці міжнародних платформ, зокрема в Research Professional News (Clarivate), Future Campus, Leiden Madtrics, Scholarly Kitchen і Times Higher Education -- виданнях, які активно формують наукову політику й стандарти у сфері вищої освіти.
В Україні GAIDeT також поступово входить у професійний обіг. Його обговорюють на спеціалізованих майданчиках -- від Літньої школи "ШІ + освіта + наука 2.0" під егідою Інноваційного університету до Українського форуму якості освіти (UQAF-2025), організованого НАЗЯВО. Деякі заклади вже почали впроваджувати GAIDeT у свої політики щодо використання ШІ в освіті й науці. Серед них -- Бердянський державний педагогічний університет і Київський столичний університет імені Бориса Грінченка.
Один із подальших етапів еволюції GAIDeT полягає в інтеграції інформації про використання генеративного штучного інтелекту безпосередньо в метадані наукових статей. Це дозволить зробити такі внески не тільки помітними для читачів, але й доступними для бібліометричних систем, репозитаріїв і пошукових платформ. Вже була розроблена відповідна онтологія, і в даний час тривають початкові етапи її тестування.
На перший погляд, питання застосування генеративного штучного інтелекту в науковій сфері може виглядати виключно як справа професіоналів — дослідників, рецензентів та редакторів. Однак насправді ця тема має відношення до кожного з нас. Довіра до наукових практик, прозорість їх реалізації впливають на якість підручників, безпечність медичних препаратів та надійність технологій, які ми використовуємо щодня.
GAIDeT представляє інструмент, що сприяє не контролюванню, а глибшому розумінню. Мова йде не про покарання за застосування генеративного штучного інтелекту, а про формування таких умов, де прозорість стає невід'ємною складовою звичайної наукової діяльності.
Для України це питання набуває ще більшого значення. Ми будуємо відкриту та сучасну науку, що прагне інтегруватись у світовий простір. І важливо, щоб вона асоціювалася не з обмеженнями чи недовірою, а з відповідальністю, гідністю та відкритістю.
Людина та технології вже взаємодіють у робочому процесі. Проте основна відповідальність все ще лежить на людині — вона приймає рішення, визначає зміст та пояснює, як використовувала штучний інтелект. GAIDeT надає необхідну мову для цього процесу. Саме відверте спілкування — з колегами, читачами та суспільством — сприяє формуванню довіри до наукових досліджень.
#Університет #Студент #Модель #Харківський національний університет #Дослідження #Журнал #Борис Грінченко #ChatGPT #Англійська мова #Штучний інтелект #Атмосфера Землі #Етика #Рукопис #Природа (газета) #Бердянський державний педагогічний університет #Страх. #Пошукова система #Табу. #Комп'ютерний файл #Наука #Упередження #Метадані #Elsevier 
         
         
         
         
         
         
     
     
     
    