
Отримання несподіваного романтичного СМС від коханої людини може бути свідченням того, що стосунки покращуються. Але сьогодні таке повідомлення не завжди є проявом справжніх почуттів. Все частіше люди користуються чат-ботами, створеними на основі штучного інтелекту, такими як ChatGPT, для складання повідомлень, навіть у особистих переписках.
Цю інформацію публікує газета Daily Mail.
У соцмережах десятки користувачів зізналися, що використовують ШІ для складання повідомлень як для випадкових симпатій, так і для довготривалих романтичних стосунків. Один технічно підкований користувач зізнався, що звертався до AI, аби створити ідеальний текст для записки у валентинці свого хлопця.
Хоча тексти, створені штучним інтелектом, можуть виглядати досить правдоподібно, фахівці зазначають, що є кілька очевидних ознак, які можуть свідчити про їхнє "штучне" походження.
Авторка і мовознавець Наомі Олдерман рекомендує зосереджуватися не лише на змісті повідомлення, а й на способах, якими слова взаємодіють між собою. "Слова, які повинні гармонійно поєднуватися, насправді не вступають у жодну боротьбу -- а це було б цікаво. Натомість вони просто розпадаються на шматочки в ваших руках, як недорогий ігровий конструктор," -- поділилася вона своїми думками.
Експерти виокремлюють сім ключових ознак, які можуть вказувати на те, що повідомлення було згенероване штучним інтелектом:
Штучний інтелект часто створює тексти в нейтральному, дружньому та "професійно ввічливому" стилі. Це зумовлено характеристиками моделей, які розроблені для надання користі, що призводить до одноманітності висловлювань і відсутності унікального голосу. Як зазначає Олдерман: "Навіть коли ви намагаєтеся спонукати ШІ до гостроти або сарказму, часто виникає враження, що стиль є надмірно акцентованим".
Одна з ознак -- речення, що начебто граматично коректні, але при уважному читанні втрачають зміст: здається, чим довше дивишся, тим менше воно означає. Користувачі соцмереж жартують, що інколи в їхніх текстах випадково залишаються фрагменти оригінальної відповіді ШІ.
Навіть якщо в цілому речення виглядає осмисленим, окремі слова можуть викликати відчуття недоречності — ніби вони були замінені синонімами з тезаурусу, що не зовсім вловлюють потрібний нюанс. Олдерман проводить паралель з моментом із комедійного шоу, де вживання складнішої фрази замість простого висловлювання створює дивну атмосферу неприродності.
Ось простий спосіб перевірити текст: прочитайте його вголос або уявіть, що ваш партнер вимовляє його без підготовки. Якщо звучання виглядає неприродним або надто штучним, це може свідчити про те, що текст створено машиною.
Тексти, написані людьми, зазвичай відображають конкретні позиції або емоційний стан. Натомість, штучний інтелект може генерувати безособові, нейтральні формулювання, що нагадують бюрократичні документи, в яких відсутня особиста перспектива автора.
Хоча штучний інтелект часто застосовують для вдосконалення стилю, іноді результати можуть виглядати "плоскими" або ритмічно невідповідними – особливо це помітно в поетичних чи надзвичайно емоційних текстах. Іноді "неякісний" текст може сприйматися як погана поезія, але також це може свідчити про наявність впливу ШІ.
Якщо виникають сумніви, можна скористатися ChatGPT або аналогічними сервісами, щоб дізнатися, чи є ймовірність, що даний текст був створений великою мовною моделлю. Існують також спеціальні онлайн-інструменти, котрі аналізують текст і намагаються виявити характерні ознаки, притаманні LLM. Проте слід враховувати, що ці інструменти не можуть надати абсолютно точні результати.
Технічний опис. ChatGPT та інші чат-боти можна віднести до класу великих мовних моделей (Large Language Models). Вони створюють речення, передбачаючи, яке слово, ймовірно, з'явиться наступним у ланцюзі. Цей алгоритм здатний ефективно імітувати людську мову, проте не володіє справжнім "мисленням" чи свідомою аргументацією. Внаслідок цього іноді текст втрачає свою внутрішню логіку або особистісний колорит.
Експерти також зауважують, що можна навмисно попросити ШІ "очеловічити" текст або зробити його менш очевидним для детекторів, проте не всі користувачі роблять додаткові кроки, тому помилки видають машинний почерк. Наомі Олдерман підкреслює: "Чудо всіх письмових технологій у тому, що вони одночасно створюють і інструменти для виявлення проблем, які самі ж породжують".
На завершення експерти підкреслюють, що доступні програми для перевірки не є абсолютно точними. Навіть найкращі університети досі не володіють 100% надійними інструментами для виявлення всіх випадків використання штучного інтелекту в текстах. Тому для досягнення остаточного висновку часто потрібно поєднувати різні методи: ретельне прочитання, інтуїцію та технічну перевірку.
Нагадуємо, що в попередніх матеріалах ми обговорювали, які теми та інформацію не слід ділитися з ChatGPT, щоб зменшити ймовірність витоку особистих даних.
#Університет #Письменник #"Дейлі Мейл #Емоції #Соціальна мережа #Речення (лінгвістика) #Бюрократія #Ризик #ChatGPT #Штучний інтелект #Алгоритм #Граматика #Поезія #Романтизм #Ритм #Інтуїція #Магістр права