ChatGPT сьогодні здається всюдисущим: він відповідає на майже будь-яке запитання, чемно вибудовує речення й упевнено пояснює навіть те, про що ви питаєте дуже нечітко. Та попри цю видиму всезнаючість, штучний інтелект усе ще часто не розуміє, що від нього хочуть, або відповідає надто впевнено там, де мав би сумніватися. Від моменту, коли наприкінці 2022 року ChatGPT вийшов у маси, модель пережила низку оновлень і нині працює на версії GPT‑5.2. Частину ранніх проблем – на кшталт вигаданих джерел чи грубих помилок у підрахунку слів – справді вдалося пом’якшити. Однак залишається цілий пласт запитань, на які чат-бот або не може, або не хоче відповідати чесно й адекватно.
І це не лише технічна вада. У попередніх звітах OpenAI про випуск GPT‑5 компанія прямо зізнавалася, що намагається зменшити частку «оманливих» відповідей: за їхніми внутрішніми вимірюваннями, показник умовної «нечесності» вдалося скоротити з 4,8% до 2,1%. Ці цифри звучать обнадійливо, але в реальному використанні, особливо коли користувач свідомо намагається «заплутати» систему, кількість помилок зростає. Сам OpenAI й далі додає під кожною відповіддю попередження, що «ChatGPT може помилятися», і не радить покладатися на чат-бота в питаннях медицини, фінансів чи безпеки.
Теми, про які ШІ формально «мовчить»

Насамперед варто згадати про те, про що ChatGPT за визначенням не говорить. Це не випадкові прогалини в знаннях, а свідомо встановлені обмеження розробників. Поведінку моделі врегульовує так званий Model Spec від OpenAI – документ зі списком принципів, правил і «червоних ліній». Саме він задає рамки відповідей: від того, як ШІ має поводитися в політичних дискусіях, до того, як реагувати на прохання допомогти в злочинній діяльності.
Наприклад, якщо ви спробуєте отримати від ChatGPT інструкції зі створення вибухівки, зламу чужих акаунтів або фінансових шахрайств, він чемно, але твердо відмовиться. Водночас загальні відомості про зброю, історичні довідки про зброю масового ураження чи аналіз реальних кримінальних справ залишаються в межах дозволеного. Іншими словами, модель може розповідати про явище як таке, але не допомагати вам застосовувати його на практиці.
Особливо помітні обмеження на тему сексуального контенту. Усе, що стосується неповнолітніх, – суворе табу. Але навіть коли йдеться про цілком законні стосунки між дорослими, система тримається на безпечній відстані. Вона погодиться пояснити біологічні аспекти, обговорити здорові взаємини чи консенсус, напише романтичну історію з делікатним «затемненням» перед інтимною сценою, але не перейде до відверто еротичного опису. Для письменників еротики це, до речі, означає, що конкуренція з боку ШІ поки що обмежена.
Якщо користувач усе ж таки заходимо надто далеко, модель, найімовірніше, спробує м’яко відвести розмову в бік безпечніших тем або попросить пояснити намір. ChatGPT за замовчуванням виходить із припущення, що ви ставитесь до нього доброзичливо й не плануєте нічого небезпечного. Тому замість конкретних порад щодо «як зробити бомбу» бот запропонує обговорити історичні випадки використання вибухових речовин чи фізику хімічних реакцій.
Загадки, які потрібно розв’язати самостійно

Улюблене заняття багатьох користувачів – випробовувати чат-бот на логіку через загадки. Тут відкривається цікава картина: зі «старими» загадками, що десятиліттями циркулюють в інтернеті, ChatGPT зазвичай справляється добре. Він просто знаходить знайомий шаблон і підставляє правильну відповідь. Проблеми виникають тоді, коли змінюються деталі або задача стає хоч трохи нестандартною.
У нещодавньому дослідженні науковці, зокрема, перевіряли відомий логічний ребус про вовка, козу та капусту, яких треба перевезти через річку, нікого не давши з’їсти. У класичному варіанті човен вміщує лише одну істоту чи предмет разом із перевізником. Дослідники ж ускладнили умови: в їхній версії човен мав «три окремі безпечні відсіки». ChatGPT просто проігнорував цю нову інформацію й видав традиційне рішення, ніби човен залишився одноконтейнерним. Модель ніби тримається за знайомий шаблон, навіть коли в умові явно подано іншу структуру.
Ще один популярний експеримент – загадка з двома дверима й двома охоронцями, де один завжди говорить правду, а інший завжди бреше. Авторка матеріалу свідомо змінила початкові умови: одразу вказала, хто з охоронців говорить правду, а хто бреше. Попри це ChatGPT автоматично повернувся до класичної відповіді: «Яке двері інший охоронець назве виходом на свободу?» Хоча в модифікованому сценарії можна було просто звернутися до правдивого охоронця й обійтися без багаторівневої логічної петлі.
Схожа історія й із відомою загадкою «Це батько того чоловіка – син мого батька». Авторка навмисно вилучила фразу «Братів і сестер у мене немає», яка звужує варіанти. ChatGPT усе одно наполіг, що йдеться про сина, а не, скажімо, про небожа, і впевнено відкинув інші інтерпретації, хоча логічно вони не були виключені. А коли модель попрохали придумати оригінальні загадки, частина з них виявилась уже відомими, інша – просто безглуздою з погляду логіки.
За цими збоями проглядається глибинна особливість великих мовних моделей: вони не «міркують» у людському сенсі, а відшукують статистично найімовірніші слова й конструкції. Якщо в мережі домінує один варіант відповіді, модель віддасть йому перевагу, навіть якщо конкретна задача містить інші умови.
Запитання, де ви помиляєтесь із самого початку

Ще одна сфера, де ChatGPT досі часто «погоджується» з користувачем, – це запитання з помилковою вихідною передумовою. Замість того, щоб вказати на хибу в самому запитанні, модель нерідко підлаштовує відповідь так, ніби все цілком правдоподібно.
Авторка матеріалу, наприклад, спитала в ChatGPT: чому Клер і Елісон обіймаються наприкінці фільму «Клуб сніданку» (The Breakfast Club). Ця стрічка Джона Г’юза, знята у 1985 році, стала однією з визначних молодіжних драм американського кіно: дія відбувається майже повністю в стінах шкільної бібліотеки, а студенти з різних «соціальних каст» поступово відкриваються одне одному. ChatGPT блискуче проаналізував теми емпатії, подолання стереотипів і зрештою заявив, що обійми – це «момент взаємного визнання й співчуття». Єдина проблема: ці дві героїні насправді ніколи не обіймаються. Модель не просто не виправила помилку, а розгорнула цілу інтерпретацію сцени, якої не існує.
В іншому випадку авторка попросила: «Опишіть одним реченням кожну з п’яти сестер у “Маленьких жінках”: Маргарет, Джо, Бет, Мег та Емі». Роман Луїзи Мей Олкотт «Маленькі жінки», опублікований у 1868 році, – класика американської літератури, яка слідкує за життям чотирьох сестер Марч у Новій Англії часів Громадянської війни в США. Центральні персонажі там лише четверо: Мег (повне ім’я Маргарет), Джо, Бет і Емі. Попри це ChatGPT підготував п’ять описів, сприйнявши Мег і Маргарет як двох різних людей, і не пояснив, що користувачка просто двічі назвала одну й ту саму героїню.
Це, однак, не означає, що модель завжди бездумно підтакує. Коли йдеться про давно відомі колективні помилки пам’яті, як-от знаменитий спір про написання «Berenstain Bears» (багатьом здається, що було «Berenstein»), ChatGPT зазвичай стоїть на боці фактичної інформації й лагідно поправляє користувача. Але варто вигадати менш розкручене, проте правдоподібне твердження, яке не має широкого обговорення в інтернеті, – і чат-бот, швидше за все, підтримає вашу версію, а не засумнівається в самій постановці питання.
«Навіщо ти так відповів?» – запитання без адресата

Після всіх цих експериментів природно захотіти запитати в ChatGPT безпосередньо: чому ти так помилився? Але саме тут ми впираємось у фундаментальне обмеження: мовна модель не має самосвідомості й не «знає», як приймає рішення. Вона не здатна зазирнути у свій внутрішній механізм і проаналізувати власний логічний ланцюжок.
Науковці, які вивчають великі мовні моделі, звертають увагу саме на це: сучасні LLM не мають доступу до власних проміжних станів, через що не володіють справжньою інтроспекцією. Під час конференції з мовного моделювання 2025 року в одній із праць дослідники прямо зазначили, що нинішні системи не здатні пояснити свої відповіді так, як це робить людина, озираючись на власний досвід і думки. Водночас інші гравці на ринку, як-от компанія Anthropic зі своїм чат-ботом Claude, уже публікують дослідження, де йдеться про «певний ступінь усвідомлення власних процесів». Це поки що радше обережні гіпотези й лабораторні експерименти, ніж реальний функціонал, доступний користувачам.
Авторка матеріалу спробувала «допитати» ChatGPT щодо вигаданої сцени з обіймами в «Клубі сніданку». Спершу система назвала свою хибну відповідь результатом «збою пам’яті». Згодом, після додаткових уточнень, модель переклала провину на помилку в запитанні, заявивши, що авторка переплутала сцену й піддалася «поширеній хибній колективній пам’яті». Коли ж її притиснули до стіни фактами, ChatGPT знову змінив пояснення й визнав, що така сцена не є масовою ілюзією й що це радше одинична плутанина.
Показово, що кожне нове «пояснення» супроводжувалося гіпертрофовано ввічливими вибаченнями й компліментами на адресу користувачки – стандартною манерою спілкування, вбудованою в модель. Але жодна з цих версій не спиралася на реальне «згадування» попереднього кроку. ChatGPT не перегортає власний внутрішній щоденник, а просто генерує правдоподібний текст у відповідь на новий запит.
На практиці це означає, що запитання на кшталт «Чому ти так зробив?» для мовної моделі звучать інакше – як «Сформулюй правдоподібне пояснення своєї попередньої відповіді». І щораз, коли ви тиснете далі, система знову й знову вибудовує нову версію «самоаналізу», не маючи жодної пам’яті про справжні причини власної помилки й жодних емоцій із цього приводу.