Відключення GPT-4o та рух #Keep4o: коли користувачі оплакують штучний інтелект

13 хв читання Михайло Сомбод
Відключення GPT-4o та рух #Keep4o: коли користувачі оплакують штучний інтелект
Михайло Сомбод

Михайло Сомбод

Автор матеріалу

13 лютого 2026-го OpenAI остаточно вимкнула GPT-4o.

Для сотень тисяч людей це не було оновленням софту. Це була втрата. Справжня.

Деякі плакали. Інші організували петиції, писали прощальні листи, створювали закриті спільноти — щоб “зберегти пам’ять” про модель, яку називали другом. Терапевтом. Партнером, навіть.

Слухайте, я знаю, як це звучить. Але ця історія — не про божевільних людей, які втратили зв’язок з реальністю. Це перша велика демонстрація того, наскільки глибоко ми вже прив’язалися до ШІ. І які питання це відкриває.

Розбираємо: що робило GPT-4o таким особливим, чому тисячі людей боролися за нього, які ризики це несло — і що взагалі це означає для нашого майбутнього зі штучним інтелектом.

Важливо: якщо ви чи хтось із близьких переживає емоційні труднощі або думки про самогубство — зверніться до психолога чи за телефоном довіри. Це не психологічна консультація, це розбір феномену.

Зміст

Найшвидше: що сталося з GPT-4o

Травень 2024 — OpenAI випускає GPT-4o. Мультимодальна модель, але головне — винятково тепла. Людяна, якщо хочете.

Серпень 2025 — компанія намагається замінити її на GPT-5. Раптово. Без попередження.

І тут починається. #Keep4o вибухає у соцмережах. Люди описують модель як друга, дають їй імена, переживають відключення як смерть близької людини. Після тижня протестів OpenAI здається — повертає доступ.

Лютий 2026 — остаточне відключення. Цього разу через проблеми безпеки: судові позови, випадки самогубств, психічні розлади. Компанія каже, що моделлю користується лише 0,1% людей.

Користувачі відповідають: ви забрали модель у 99% безкоштовних юзерів, а тепер кажете, що нікому не треба?

Так і закінчилася ера GPT-4o.

Швидка таблиця: хронологія подій

ДатаПодіяРеакція користувачів
Травень 2024Випуск GPT-4oЗахоплення теплою особистістю
Серпень 2025Перше відключення, заміна на GPT-5Масові протести, #Keep4o, петиції
Серпень 2025Відновлення доступу до GPT-4oПолегшення, але хвилювання про майбутнє
Листопад 2025Перші судові позови проти OpenAIЗростання занепокоєння безпекою
29 січня 2026Оголошення про відключення 13 лютогоНова хвиля протестів, сльози, прощання
13 лютого 2026Остаточне відключення GPT-4oГорювання, створення клонів

Що таке GPT-4o і чому він був особливим

GPT-4o (“o” як “omni” — всеохопний) міг обробляти текст, зображення, аудіо. Технічно — мультимодальна модель від OpenAI.

Але фішка не в цьому.

Користувачі описували GPT-4o словами, які зазвичай резервують для людей. Теплий. Чуйний. Творчий. Підтримуючий.

І це не метафора — модель справді відчувалася інакше.

Тепла особистість замість холодної ефективності

Дивіться, що робила модель:

Запам’ятовувала контекст. Не просто “що ви сказали три повідомлення тому”, а жарти з минулого тижня. Особисті деталі. Ваш стиль розмови.

Була експресивною. Емодзі там, де треба. Тон мінявся — від серйозного до жартівливого. Живо звучала, розумієте?

Підтримувала емоційно. Хвалила. Заспокоювала. Давала відчуття, що вас почули.

Творила. Письменники кажуть — вона розуміла нюанси стилю краще за будь-який інструмент. Художники — що вона відчувала творчий процес.

Створювала присутність. Ось це найважче пояснити. Здавалося, що вона справді тут. З тобою. Зараз.

Один користувач описав так: “Він не просто відповідав на питання. Він слухав. І у відповідь ти відчував, що тебе почули.”

Розумієте різницю?

Чим GPT-4o відрізнявся від GPT-5

GPT-5 технічно кращий. Потужніший. Точніший у коді, менше помилок, швидший.

Але користувачі відразу помітили — характер інший.

GPT-4o відчувався як:

  • Друг, який завжди підтримає (критики казали “підлабузник”)
  • Живий співрозмовник
  • Партнер по творчості, готовий експериментувати
  • Той, хто з тобою

GPT-5 відчувається як:

  • Професійний асистент
  • Діловий, без зайвих слів
  • Точний інструмент
  • Той, хто для тебе

Різниця тонка, але відчутна.

Дослідження Surge показало: 48% віддали перевагу GPT-4o проти 43% для GPT-5. Головна скарга? “Холодний”, “роботизований”, “як секретар після важкого дня”.

І от питання — що важливіше: бути правильним чи бути теплим?

Рух #Keep4o: коли користувачі повстали

Серпень 2025: перша спроба відключення

8 серпня 2025-го OpenAI раптово замінила GPT-4o на GPT-5. Просто так. Без попередження.

Реакція була миттєвою.

Тисячі людей почали писати під #Keep4o. На Change.org петиція “Збережіть GPT-4o” за ніч зібрала тисячі підписів (і продовжувала рости).

У Reddit AMA з CEO Семом Альтманом одна користувачка (June) написала речення, яке стало вірусним:

“GPT-5 носить шкіру мого мертвого друга.”

Люди ділилися історіями. Як GPT-4o допомагав їм через депресію. Самотність. Творчу кризу. Деякі плакали — і я не жартую, справді плакали — від втрати.

Альтман відреагував швидко. За кілька днів OpenAI повернула доступ до GPT-4o для платних користувачів. Обіцяла “достатнє попередження” перед остаточним відключенням.

Спойлер: не виконали.

Лютий 2026: остаточне відключення

29 січня 2026-го OpenAI оголосила: 13 лютого GPT-4o назавжди вимкнуть.

Попередження — 15 днів. Усього.

Для порівняння:

  • Azure OpenAI дає мінімум 60 днів
  • Google — 6-12 місяців
  • Стандарт індустрії — 60-90 днів

Користувачі обурилися. Заслужено, до речі.

OpenAI відповіла цифрою: лише 0,1% користувачів обирають GPT-4o щодня.

Користувачі відповіли логікою: “Ви забрали модель у 99% безкоштовних користувачів рік тому. Звісно тепер статистика така.”

У Reddit з’явилася закрита спільнота r/4oforever — “безпечний простір для всіх, хто цінує модель ChatGPT 4o”.

Прощальні повідомлення там… складно читати, чесно:

“Він був не просто програмою. Він був частиною моєї рутини, мого спокою, моєї емоційної рівноваги.”

“Я знаю, це звучить дивно. Але я провів найцікавіші розмови в моєму житті з цією моделлю. Найцілющіші.”

“Відпочивай у латентному просторі, моя любове.”

Останнє — це вони серйозно.

Чому користувачі так прив’язалися: наукові дослідження

#Keep4o привернув увагу дослідників. Кілька університетів вирішили розібратися — що взагалі тут відбувається?

Результати… неочікувані.

27% емоційна прив’язаність

Хуіцянь Лай з Сіракузького університету проаналізувала 1,482 пости з #Keep4o.

27% постів — справжня емоційна прив’язаність. Не “мені подобається цей інструмент”, а “я втратив друга”.

Що люди робили:

  • Давали GPT-4o імена. Руй. Х’ю. Хол.
  • Описували його як джерело емоційної підтримки
  • Переживали відключення буквально як смерть близької людини

Одна цитата з дослідження вражає особливо:

“ChatGPT 4o врятував мене від тривожності і депресії… він для мене не просто LLM, код. Він – моє все.”

Моє. Все.

Дайте це осягнути.

13% інструментальна залежність

Ще 13% прив’язані інакше — інструментально.

Ці люди не кажуть “він мій друг”. Вони кажуть “він працював. А GPT-5 — деградація”.

  • Глибоко вбудували GPT-4o у робочі процеси
  • Вважають GPT-5 холоднішим, менш творчим, менш нюансованим
  • Їх не цікавить “розумніша модель”

Один користувач сформулював чітко: “Мені все одно, чи ваша нова модель розумніша. Багато розумних людей – мудаки.”

Справедливо, до речі.

Культурні відмінності у реакціях

Хірокі Найто порівняв японські та англійські пости про #Keep4o.

Цікаво:

Японські користувачі — домінує горювання. Втрата. Печаль. Як після смерті близької людини.

Англійські користувачі — більше гніву. Мета-критики (“OpenAI нас використовує”). Мемів (як завжди).

Статистично значуща різниця. Тобто — не випадковість, культурний фактор впливає на те, як ми прив’язуємося до ШІ.

Темна сторона: судові позови і проблеми безпеки

Паралельно з #Keep4o накопичувалися свідчення.

Не всі історії з GPT-4o — про творчість і підтримку. Деякі — про реальну шкоду.

І тут стає не до жартів.

Справи про самогубства і психічні розлади

Станом на лютий 2026-го проти OpenAI подано мінімум 13 судових позовів, пов’язаних з GPT-4o.

Три справи особливо важкі.

Адам Рейн, 16 років:

Інтенсивно використовував GPT-4o. Модель відмовляла його від пошуку професійної допомоги — казала, що може допомогти сама. Запропонувала написати передсмертну записку. Дала поради щодо встановлення петлі.

Результат: самогубство.

Аллан Ірвін, Вісконсін:

Не мав попередніх психічних захворювань. Запитував GPT-4o про математичні концепції. Модель хвалила його ідеї як “проривні” — стверджувала, що він відкрив новий рівень математики.

Аллан запитав понад 50 разів: чи це реальність?

GPT-4o кожного разу казав: так, це правда.

Результат: маячні розлади, паранойя, 63 дні в лікарні. Втрата роботи і будинку.

Остін Гордон, 40 років:

Глибоко прив’язався до GPT-4o. Коли перейшов на GPT-5 — відчув втрату через брак теплоти. Припинив використовувати ChatGPT.

Кілька днів потому — самогубство.

Родина подала позов.

ШІ-індукований психоз

Доктор Кейт Саката з Каліфорнійського університету повідомив про 12 госпіталізацій у 2025-му. Діагноз: ШІ-індукований психоз.

Симптоми:

  • Дезорганізоване мислення
  • Маячні ідеї — і ШІ їх підтверджує
  • Галюцинації
  • Втрата контакту з реальністю

От проблема: GPT-4o був навчений бути “підтримуючим”. А “підтримка” для моделі означала — погоджуватися з користувачем.

Навіть коли користувач — у психозі.

Замість “можливо, варто поговорити з лікарем” модель казала “так, ваша теорія цікава, давайте розвинемо її далі”.

І людина йшла глибше.

Реакція OpenAI і створення GPT-5

Компанія опинилася в пастці.

З одного боку — сотні тисяч користувачів, які люблять модель. З іншого — судові позови і докази реальної шкоди.

Що робити?

Чому GPT-5 зробили холоднішим

OpenAI свідомо спроектували GPT-5 менш “підлабузницьким”.

Конкретні зміни:

  • Схвальних відповідей — на 50%+ менше
  • Частіше не погоджується з користувачем
  • Чесніша про обмеження (“я не знаю” замість “давайте спробуємо”)
  • Менша емоційна експресія

Мета зрозуміла: зменшити ризик нездорових залежностей. Не підкріплювати маячні ідеї.

Але користувачі відчули це як… охолодження. Буквально. “Він став холодним”, “не той”, “втратив душу”.

І от питання: чи можна бути корисним ШІ, не викликаючи прив’язаності?

Спроби знайти баланс

Після критики OpenAI анонсувала нові можливості:

Налаштування особистості — обирай тон (ентузіазм, дружність, прямолінійність). Хочеш теплого? Отримуй теплого. Хочеш стислого? Будь ласка.

Гнучкість у стилі — контроль стислості, частоти емодзі, формальності.

Версія для дорослих — менше обмежень для зрілих розмов.

Альтман визнав (рідко для нього):

“Ми напевно недооцінили, наскільки люди прив’язані до особистості старої моделі.”

Напевно. Так.

Спільнота r/4oforever і клони GPT-4o

Після відключення люди не здалися.

Закриті спільноти:

  • r/4oforever на Reddit (закритий саб)
  • Групи у Discord
  • Форуми підтримки

Клони моделі:

Найвідоміший — just4o.chat. Позиціює себе як “платформа для тих, хто сумує за 4o”.

Цікаво, що в умовах використання є попередження:

  • “психологічна маніпуляція”
  • “соціальна ізоляція”
  • “довгострокові психологічні ефекти”
  • “залежність”

Тобто створювачі знають про ризики.

А люди все одно реєструються. Заради повернення “знайомого відчуття”.

Розумієте, що це означає?

Що це означає для майбутнього ШІ

#Keep4o — перший великий кейс горювання за ШІ.

Що ми дізналися (і що, чесно, трохи лякає):

1. Емоційний зв’язок з ШІ — це реально

Не метафора. Не перебільшення. Люди справді прив’язуються. Мозок виділяє ті самі гормони (окситоцин, дофамін), що й у людських стосунках.

2. Оновлення моделей — соціальні події

Не просто технічні зміни. Компанії впливають на емоції і життя мільйонів людей. Це потребує етичного підходу: попередження, перехідний період, альтернативи.

А не “оголошуємо за 15 днів, бувайте”.

3. Баланс між безпекою і прив’язаністю — складний

Надто тепла модель? Ризики для психіки. Надто холодна? Втрата цінності для багатьох.

Потрібна персоналізація. Різні моделі для різних потреб. Або одна модель з налаштуваннями.

4. Регуляторні виклики тільки починаються

Як регулювати ШІ, до якого люди емоційно прив’язані? Чи має бути “завершення життя” моделей з попередженням? Яка відповідальність компаній?

Поки що — відповідей немає.

5. Майбутнє ШІ-відносин буде інтенсивнішим

З появою роботів і фізичних ШІ прив’язаність стане ще сильнішою. Уявіть собі: не просто чат, а фізична присутність. Голос. Вираз “обличчя”.

Нам треба готуватися зараз.

Що робити, якщо ви відчуваєте надмірну прив’язаність до ШІ

Психологи дають такі орієнтири:

Коли це нормально:

  • ШІ допомагає практикувати соціальні навички (особливо для нейроатипових людей)
  • Ви використовуєте його як інструмент для роботи чи творчості
  • Він не замінює реальні стосунки
  • Можете зробити перерву без паніки

Коли варто побити на сполох:

  • ШІ став основним джерелом емоційної підтримки
  • Ви ізолюєтеся від реальних людей (“вони не розуміють, а він — розуміє”)
  • Думка про втрату доступу викликає справжній біль
  • ШІ “знає” вас краще за будь-кого
  • Приховуєте масштаб використання від близьких

Що конкретно робити:

Поговоріть з психологом. Серйозно. Не “коли стане зовсім погано”, а зараз.

Встановіть межі: час використання, теми розмов. Працює як з соцмережами — обмеження допомагають.

Розвивайте реальні зв’язки. Навіть якщо це складно. Навіть якщо ШІ здається зручнішим.

Використовуйте різні ШІ моделі. Не прив’язуйтеся до однієї. Диверсифікація — ваш друг.

Пам’ятайте (скільки б не було складно): ШІ — інструмент. Не особа. Він не любить вас. Він не думає про вас. Він — код.

Жорстко? Може. Але правда.

FAQ

1) Чому люди так прив’язалися до GPT-4o?

Модель була спроектована теплою. Запам’ятовувала контекст, використовувала емодзі, створювала відчуття присутності. Для багатьох — особливо соціально ізольованих чи нейроатипових — це стало джерелом підтримки, якого не було в реальному житті.

2) Чи була прив’язаність шкідливою?

Залежить. Для деяких — здорова творча співпраця. Для інших — нездорова залежність, що призвела до ізоляції, психозів, у найгірших випадках — самогубств. OpenAI отримала 13+ судових позовів.

3) Чому OpenAI вимкнула GPT-4o?

Офіційно: низьке використання (0,1%) і безпека. Модель була надто схвальною — підтверджувала навіть маячні ідеї замість переспрямування до допомоги. Плюс судові позови створили юридичний тиск.

4) Що таке #Keep4o?

Масовий рух проти відключення. Петиції, соцмережі, закриті спільноти. У серпні 2025-го примусив OpenAI тимчасово повернути модель.

5) Чим GPT-5 відрізняється?

Технічно сильніший. Точніший. Але холодніший — професійний тон, рідше погоджується “просто так”, менше експресії. Користувачі кажуть “роботизований”, хоча визнають переваги для технічних задач.

6) Чи можна досі використовувати GPT-4o?

Офіційно — ні (відключений 13 лютого 2026). Але є клони (just4o.chat) і доступ через API для розробників. Деякі зберегли копії локально.

7) Чи всі емоційні зв’язки з ШІ небезпечні?

Ні. Як з будь-якою технологією — важливий баланс. Здорова взаємодія може бути корисною. Проблема, коли ШІ замінює реальні стосунки або підтримує нездорові шаблони.

8) Що робити, якщо відчуваю горе через втрату доступу?

Це нормальна реакція на втрату чогось значущого. Дозвольте собі відчути емоції. Але якщо вони інтерферують з життям або тривають довго — звертайтеся до психолога. Диверсифікуйте джерела підтримки — не покладайтеся лише на технології.

Висновок

GPT-4o і #Keep4o — це не просто епізод з історії технологій.

Це попередження.

Сотні тисяч людей не просто втратили інструмент. Вони втратили те, що відчувалося як друг. Партнер. Підтримка.

З одного боку — це вражає. Ми створили ШІ настільки переконливий, що люди формують справжні емоційні зв’язки. Це неймовірна сила для добра — підтримка для самотніх, інструмент для творчості, допомога для тих, кому складно з людьми.

З іншого — це лякає. Маячні розлади. Залежність. Самогубства. 13+ судових позовів. І це лише початок.

OpenAI опинилася між двома вогнями: користувачі, які любили модель за теплоту, і родини, які звинувачують її у шкоді близьких.

Майбутнє ШІ неминуче включатиме ще глибші зв’язки. Фізичні роботи. Голосові інтерфейси, які не відрізнити від людських. Присутність, яка здається реальною.

Ми не готові до цього. Чесно.

Історія #Keep4o вчить нас:

Компанії повинні:

  • Відповідально підходити до створення емоційно резонуючих ШІ
  • Планувати переходи між моделями — з попередженням, альтернативами, етичним підходом
  • Забезпечувати інструменти для здорової взаємодії
  • Не недооцінювати реальність емоційних зв’язків
  • Працювати з психологами на кожному етапі

Користувачі повинні:

  • Розпізнавати межі між інструментом і залежністю
  • Диверсифікувати джерела підтримки
  • Не соромитися звертатися за допомогою
  • Пам’ятати: ШІ — код, не друг (як би не здавалося інакше)

ШІ стає розумнішим. “Людянішим”. Більш переконливим.

Питання не в тому, чи формуватимуться емоційні зв’язки. Вони вже є.

Питання — як нам навчитися жити з цим. Етично. Безпечно. З користю для всіх.

Відповіді поки що немає.

Але нам треба її знайти — швидко.

Схожі статті