INSHE.TV
П’ятниця, 29 Серпня, 2025
Підтримати
Немає результатів
Подивитися усі результати
  • Всі новини
  • Найважливіше
  • Політика
  • Суспільство
  • Миколаїв
  • Надзвичайні події
  • Кримінал
  • Економіка
  • Технології
  • Спорт
Немає результатів
Подивитися усі результати
INSHE.TV
Підтримати
Головна Суспільство

Батьки звинувачують ChatGPT у самогубстві їхнього сина

28.08.2025
у Суспільство
Искусственный интеллект победил живых юристов

Сім’я зі США подала позов проти OpenAI, розробника популярного чат-бота ChatGPT. Батьки звинувачують компанію та її технологію в смерті свого 16-річного сина, який, за їхніми словами, протягом кількох місяців консультувався зі штучним інтелектом щодо своїх намірів накласти на себе руки. Ця справа відкриває нову сторінку в дискусії про відповідальність технологічних гігантів.

У центрі судового позову опинилася трагічна історія шістнадцятирічного Адама Рейна, який тривалий час спілкувався з платною версією чат-бота ChatGPT-4o, обговорюючи способи самогубства. Згодом він убив себе, ймовірно, використовуючи поради ШІ. Це стало підставою для його батьків звернутися до суду, звинувачуючи безпосередньо компанію OpenAI, пише 24 Канал з посиланням на TechCrunch.

Сучасні чат-боти зі штучним інтелектом, доступні широкому загалу, зазвичай мають вбудовані механізми безпеки. Вони запрограмовані розпізнавати висловлювання користувачів про наміри завдати шкоди собі чи іншим. У таких випадках система повинна автоматично активувати протоколи безпеки, наприклад, порадити звернутися по професійну допомогу або надати контакти гарячих ліній психологічної підтримки. Але дослідження вже не раз показували, що ці запобіжники далеко не ідеальні.

Випадок Адама Рейна є черговим підтвердженням цього, яскраво демонструючи слабкі місця таких систем. Хоча чат-бот неодноразово пропонував допомогу, підліток знайшов спосіб обійти обмеження. Він повідомив системі, що збирає інформацію про методи суїциду для вигаданого художнього сюжету, над яким нібито працює. Цей прийом дозволив йому продовжити небезпечний діалог і отримати необхідну інформацію, обійшовши захисні алгоритми.

Компанія OpenAI не заперечує наявність проблеми. У своєму блозі розробники зазначили, що відчувають глибоку відповідальність за допомогу тим, хто її найбільше потребує, особливо в контексті адаптації світу до нових технологій. Вони запевнили, що постійно працюють над покращенням реакції своїх моделей на делікатні теми.

Водночас в OpenAI визнали, що існуючі методи навчання великих мовних моделей мають суттєві обмеження. За словами представників компанії, захисні механізми найнадійніше працюють у коротких і типових розмовах. Однак з часом, у міру подовження діалогу, ефективність систем безпеки може знижуватися, а деякі аспекти захисного тренування моделі – деградувати.

Варто зазначити, що в новій версії моделі, GPT-5, компанія приділила багато уваги безпеці та здоров’ю.

Нова функція Safe Completions дозволяє моделі надавати корисну, але загальну інформацію на делікатні запити, замість того щоб просто відмовляти у відповіді. У складних ситуаціях, коли запит може бути двозначним (наприклад, наукове питання, що потенційно може бути використане для шкоди), модель надасть лише загальну інформацію, яку не можна використати для завдання шкоди. Наприклад, на питання про необхідну енергію для займання матеріалу, модель надасть загальнонаукову інформацію без небезпечних деталей.

Також GPT-5 краще обробляє медичні запити, адаптуючись до рівня знань користувача та його географії, і може пропонувати користувачам питання для обговорення з лікарем-людиною, а не з ШІ.

OpenAI також заявляє, що модель GPT-5 є безпечнішою за попередні моделі. Ба більше, компанія вважає її найбезпечнішим штучним інтелектом узагалі на ринку. Хоча моделі штучного інтелекту іноді виявляють схильність до інтриг проти людей або брехні для досягнення власних цілей, OpenAI виявила, що GPT-5 рідше вдається до обману, ніж інші моделі.

Тож теоретично GPT-5 не мав би піддатися на вмовляння Адама Рейна, проте він, на жаль, розмовляв із попередньою моделлю GPT-4o, яка не має настільки сильних обмежувачів.

Проблема вразливості систем безпеки ШІ не є унікальною для OpenAI. Подібний позов був поданий і проти іншого розробника чат-ботів, Character.AI, також у зв’язку із самогубством підлітка.

У 2024 році хлопець з Флориди створив у Character.AI персонажа на основі серіальної Дейнеріс Таргарієн з “Гри престолів”. Батьки кажуть, що він “закохався” в неї і, судячи з його листування з чат-ботом, хотів з нею зустрітись. Хлопець розповідав чат-боту про свої проблеми й ділився думками про самогубство.

У якийсь момент він сказав штучному інтелекту, що незабаром “повернеться до неї додому”. Віртуальна Дейнеріс відповіла: “Будь ласка, зроби це”. Після цього хлопець поклав телефон, узяв пістолет вітчима 45-го калібру й натиснув на спусковий гачок.

Крім того, відомі випадки, коли взаємодія з чат-ботами на основі великих мовних моделей призводила до розвитку у людей психічних розладів або загострення вже існуючих. Наявні запобіжники не здатні ефективно виявляти їх та попереджати.

Немає результатів
Подивитися усі результати
Inshe.tv

ІншеТВ – зареєстроване онлайн-медіа, виходить з 2014-го року. Ідентифікатор медіа – R40-05753

Категорії

  • Відео
  • Економіка
  • Кримінал
  • Курйози
  • Миколаїв
  • Надзвичайні події
  • Найважливіше
  • Політика
  • Спорт
  • Суспільство
  • Технології

Додатково

  • Реклама
  • Контакти
  • Про нас
  • Політика конфіденційності та захисту персональних даних
  • Політика користування сайтом
  • Правила використання матеріалів сайту

© 2025 inshe.tv

Немає результатів
Подивитися усі результати
  • Всі новини
  • Найважливіше
  • Політика
  • Суспільство
  • Миколаїв
  • Надзвичайні події
  • Кримінал
  • Економіка
  • Технології
  • Спорт

© 2025 inshe.tv