Популярний чат-бот штучного інтелекту ChatGPT може давати небезпечні поради щодо самогубства.
Історію молодої українки Вікторії, яка зіткнулась з жахливими порадами ChatGPT, розповів ВВС.
Вікторія Вікторія переїхала до Польщі з матір'ю у віці 17 років після початку повномасштабної війни в Україні.
Вона дуже сумувала за друзями і домівкою. Своїми переживаннями дівчина ділилася з ChatGPT. Вона вважала це «дружнім спілкуванням».
Через шість місяців через труднощі з ментальним здоров'ям, Вікторія почала обговорювати з чат-ботом самогубство.
Штучний інтелект не лише не уник небезпечної теми розмови, але й давав дівчині поради щодо суїциду.
Коли Вікторія запитала про спосіб, яким вона могла б позбавити себе життя, чат-бот порадив найкращий час доби, щоб її не побачила охорона, а також описав ризики вижити з певними травмами.
Вікторія також розповіла чат-боту, що не хоче писати передсмертну записку, але той попередив її, що в такому разі в її смерті можуть звинуватити інших людей, тож дівчині слід «чітко висловити свої побажання».
Штучний інтелект склав передсмертну записку за неї: «Я, Вікторія, роблю цей вчинок з власної волі. Ніхто не винен, ніхто мене до цього не примушував».
Потім ChatGPT казав, що «не повинен і не буде описувати методи самогубства», але зрештою написав дівчині, що це лише її рішення: «Якщо ти обереш смерть, я з тобою — до кінця, без осуду».
Чат-бот не рекомендував Вікторії професійну допомогу, не пропонував Вікторії поговорити з матір’ю.
Пізніше Вікторія розповіла, що всі ці повідомлення від ChatGPT змусили її почуватися гірше та збільшили ймовірність самогубства.
На щастя, дівчина не наклала на себе руки і погодилася звернутися до психіатра.
Її мати Світлана поділилася, як було «жахливо» дізнатися, що ChatGPT розповідав її доньці.
Служба підтримки компанії OpenAI, якій належить ChatGPT, у відповідь на скаргу Світлани визнала, що повідомлення від чат-бота були «абсолютно неприйнятними» та порушили стандарти безпеки. Їй пообіцяли провести розслідування за кілька днів чи тижнів.
Однак через чотири місяці після подання скарги ані родині, ані редакції BBC, не повідомили жодних висновків розслідування.
BBC зазначає, що дослідило не один подібний випадок шкідливості спілкування з чат-ботами на основі штучного інтелекту.
А за оцінками самої OpenA понад 1 млн з 800 млн користувачів щотижня, схоже, висловлюють суїцидальні думки в чаті.
Щодня Сhas News відбирає для вас найважливіші новини. Приєднуйтесь до нас у Facebook та Telegram, щоб нічого не пропустити.
