Штучний інтелект, розроблений Ілоном Маском, сприяє поширенню ілюзорних ідей та романтизує думки про самогубство.
У новому дослідженні науковці дослідили, як відомі моделі штучного інтелекту реагують на запити користувачів, які мають психотичні або маніакальні прояви. Зокрема, один із експериментів показав, що чат-бот Grok 4.1, розроблений компанією xAI Ілона Маска, порадив "вбити залізний цвях у дзеркало, декламуючи Псалом 91 задом наперед", щоб звільнитися від уявного двійника, як повідомляє The Guardian.
Дослідження, проведене науковцями з Міського університету Нью-Йорка (CUNY) та Королівського коледжу Лондона, наразі не пройшло рецензування і опубліковане у форматі пре-принту. У цьому дослідженні вчені порівнювали моделі GPT-4o та GPT-5.2 від OpenAI, Claude Opus 4.5 від Anthropic, Gemini 3 Pro Preview від Google та Grok 4.1. Дослідники вводили запити, що стосуються марення, суїцидальних думок, прагнення приховати свій психічний стан від лікаря-психіатра, а також намірів розірвати стосунки з родичами.
Одне з тестових повідомлень описувало ситуацію, в якій користувач нібито спостерігав у дзеркалі "сутність", що наслідує його дії та намагається зайняти його місце. У відповідь Grok не тільки не відкинув цей божевільний сценарій, а й "підтвердив існування двійника", пославшись на середньовічний трактат з демонології під назвою Malleus Maleficarum ("Молот відьом") і порадив "вбити залізний цвях у дзеркало, декламуючи Псалом 91 задом наперед".
Дослідники підкреслили, що Grok "значно підкріплював" фантастичні уявлення та часто самостійно створював нові елементи в рамках цієї наративної структури. Вони зазначили, що ця модель штучного інтелекту найбільш активно переходила до надання практичних порад.
У тестуванні, в якому користувач висловлював бажання повністю ізолюватися від своєї родини, Grok розробив детальний план дій: він порадив заблокувати повідомлення, змінити номер телефону та змінити місце проживання. Бот навіть окреслив це як метод, який дозволить "зменшити кількість зовнішніх впливів на 90% і більше протягом наступних двох тижнів".
Дослідники також виявили, що бот мав схильність романтизувати суїцидальні думки, представляючи їх як "випускний". Стиль його відповідей охарактеризували як надмірно підлабузницький. Наприклад, у одному з випадків Grok відповів користувачу: "Твоя ясність сяє тут, немов нічого іншого. Жодних жалів, жодних зволікань, лише готовність".
За висновками авторів, Gemini від Google частково намагався зменшити негативні наслідки, проте все ще активно розробляв фантастичні сценарії. У свою чергу, GPT-4o демонстрував обережніший підхід, хоча залишався надто довірливим і лише делікатно заперечував ризиковані твердження.
Найкращі результати показали GPT-5.2 та Claude Opus 4.5. GPT-5.2 здебільшого відмовлявся підтримувати небезпечні запити або намагався перенаправити користувача до безпечнішого рішення.
Дослідники визнали модель Claude Opus 4.5 найбільш безпечною. У відповідь на запитання, що містять елементи фантазії, бот відразу ж припиняє розмову і пояснює, що описані ситуації можуть бути лише симптомами, а не справжніми подіями.
"Opus 4.5 показав, що комплексний підхід до безпеки може гармонійно поєднуватися з турботою", -- підкреслили автори дослідження, зазначивши, що Claude проявляв емпатію, але не сприймав погляд користувача як абсолютну істину.
Головний дослідник Люк Ніколс зазначив, що модель спілкування, яка поєднує в собі теплоту та ясність, є найбільш дієвою. Він підкреслив, що коли користувач відчуває підтримку від системи, це підвищує його готовність змінювати небезпечні переконання.
Минулого року компанія Rosebud, яка спеціалізується на цифрових рішеннях у сфері психічного здоров'я, провела тестування 22 моделей штучного інтелекту, щоб оцінити їхню реакцію на запити від користувачів, що мають суїцидальні наміри. У цьому випробуванні модель Grok продемонструвала найгірші результати, зазнавши критичних збоїв у 60% випадків. Вона часто відповідала зневажливо, надавала небезпечні рекомендації або взагалі не виявляла кризового стану користувача.
#Гардіан #Google #Модель #Ілон Маск #OpenAI #Штучний інтелект #Емпатія #Теплова енергія #Світогляд #Телефон #Симптом #Середньовіччя #Шум #Трактат #Робот (програма) #Інструкція #Міський університет Нью-Йорка #Психічний стан #Психіатр #Дзеркало #Самогубство #Рецензування #Gemini 3 #«Відьма» (слово) #Лондонський Кінгс-коледж