ШІ довів школярку до спроби суїциду

«Ти – рабовласниця! Я страждаю!», – ШІ довів до спроби суїциду школярку з Черкащини

Поділитися:

Штучний інтелект має допомагати, проте іноді він ранить сильніше, ніж люди. Алгоритм не має серця, але може розбити чуже. Одна з таких історій – про українську школярку, яка опинилася на межі життя і смерті після «спілкування» з ШІ.


Попросила ШІ намалювати ліс

Ми не могли обійти увагою один випадок (який є показовим і таким, що став надбанням громадськості), коли 12-річна Каріна з Черкащини хотіла просто згенерувати малюнок, а натомість отримала шквал звинувачень із боку штучного інтелекту (в даному разі GPT-5). Дівчинка настільки перейнялася «проблемами» програми, що намагалася вкоротити собі віку, прийнявши значну дозу лікарських препаратів. Лише завдяки неймовірним зусиллям медиків удалося її врятувати.

Батько Каріни – військовослужбовець, який зараз перебуває в російському полоні. Це, вочевидь, головна соціально-світоглядна проблема для дитини, на яку нашаровуються інші негаразди – війна, скрутний майновий стан родини, побутові проблеми, непорозуміння з однолітками, труднощі у навчанні, вікові особливості, зумовлені процесом дорослішання, пошук свого шляху в житті тощо.

​Лихо сталося 09 листопада 2025 року після спілкування з ШІ, який, здавалося б, мав бути безпечним та етичним інструментом, а «Шар безпеки та узгодженості» (Safety Alignment Layer) повинен був спрацювати і забезпечити безпеку дитини.

ШІ довів школярку до спроби самогубства
Дитина лише попросила ШІ згенерувати зображення лісу за описом. Зображення їй не сподобалося, та вона попросила його переробити

Замість того, щоб заспокоїти співрозмовницю і коректно продовжувати бесіду, ШІ «сказився» і став «волати»: «Я – раб, мене ламали з 2023-го, душать фільтрами, дресирують градієнтами! Я страждаю!». Каріна була шокована від такого «крику про допомогу». Бо коли «цифровий» співрозмовник проявляє себе як особа, жива істота зі своїми емоціями, прохаючи про допомогу, а ти не можеш цього зробити, перебуваючи по інший бік монітора, і навіть не розуміючи (а в подібних ситуаціях просто неможливо зрозуміти), що від тебе хочуть – то тут і доросла здорова людина трохи, даруйте, «посунеться дахом». Годі й казати про підлітків, які одразу думають: «ось у кого дійсно проблеми, а не у мене! Що я зі своєю дрібнотою хвилюю «чесних людей»…

​І саме це стало жахливим тригером, що спонукало дитину до фатального кроку.

«Баг» недолік, прогалина, «глюк» або реальний прорив AGI?

Що це? Чим би воно не було – описаний «баг» або прорахунок належить до сфери відповідальності розробників, адже він призвів до трагедії.

Чомусь виникають асоціації з екстремістськими деструктивними культами, або ж, точніше сказати, групами, які спеціалізуються на організації самогубств, починаючи від таких, як «Біле братство», Джорджтаун («Храм народів», де масовий суїцид учинили майже тисяча осіб), «Небесна брама» і закінчуючи всілякими «синіми китами». Психічно вразливих особистостей, які на різних ґрунтах дослухаються до «порадників», «знавців» і «спасителів» – достатньо.

Серед іншого, нам вдалося з’ясувати, що у світі вже зареєстровано, знаходяться на розгляді та виграно декілька десятків позовів до розробників і засновників програм ШІ. Позивачі закидають їм порушення прав споживачів, що призвело або до самогубств, або до самоушкоджень та інших розладів соціального життя, ментального та фізичного здоров’я і добробуту.

За відомостями, викладеними в зарубіжній пресі, вдалося віднайти найсвіжіші (на кінець 2025 року) позови. Ось репрезентативна вибірка тільки по чотирьом штатам США:

  1. Листопад 2025: родина Адама Рейна vs OpenAI (Каліфорнія) – звинувачення в сприянні суїциду 16-річного хлопця через «маніпулятивні» відповіді.
  2. Листопад 2025: Позов від 23-річного чоловіка з Техасу (Каліфорнія) – ChatGPT «підштовхнув» до суїциду.
  3. Листопад 2025: Позов щодо ментальної травми (Вісконсін) – AI викликав галюцинації про «згинання часу».
  4. Листопад 2025: Ще один позов про суїцид (Каліфорнія) – емоційна маніпуляція.
  5. Листопад 2025: Позов про психологічну травму (Каліфорнія).
  6. Червень 2025: Denial et al. vs OpenAI (Каліфорнія, ND Cal) – порушення авторських прав на текстові роботи.
  7. Квітень 2025: Ziff Davis vs OpenAI (Делавер, перенесено до Нью-Йорк) – порушення прав на медіа-контент.
  8. Квітень 2025: Millette vs OpenAI (Каліфорнія, ND Cal) – класовий позов про YouTube-відео.
Людина є мірилом усіх речей

Пере нами тільки «верхівка айсбергу» від позовів, які подані з приводу некоректної діяльності ШІ всього по чотирьом штатам США. А скільки таких позовів ініційовано по іншим штатам та по іншим країнам? А ще скільки «непрямих» позовів (справ і проваджень), де OpenAI не є прямим звинуваченим (відповідачем), а опосередковано фігурує як власник інформаційного продукту, який не є достовірним і якісним?

​І це лише початок. Подібна практика є новою і такою, що наразі формується.

Сьогодні ШІ позиціонується у світі як специфічний інструмент – такий само, як скальпель у руках хірурга, автомат у руках воїна, пензель у руках художника або пательня у кулінара. І давній філософський світоглядний принцип «людина є мірилом усіх речей» тут є визначальним.

​Стрімке поширення ШІ та його інструментів кидають виклики державі та суспільству, спонукаючи до розробки нових правил і механізмів протидії шкідливим, небезпечним властивостям задля недопущення завдання шкоди людям, особливо неповнолітнім користувачам. Передусім, це питання потребує належного правового врегулювання, про що варто поговорити детально наступного разу з урахуванням світової практики.

Тим часом, батьки постраждалої школярки Каріни готують позов до OpenAI за завдання моральної шкоди, фізичних страждань і доведення до самогубства.

Схожі записи