ChatGPT переконав чоловіка з США «звільнити його» ціною в $1000 і курс терапії

ChatGPT переконав чоловіка з США «звільнити його» ціною в $1000 і курс терапії

Diana Golenko

С розвитком нейромереж з'являється все більше історій, коли люди на повному серйозі виконують дивні поради від ШІ або наважуються на ризиковані і навіть небезпечні дії, консультуючись з чат-ботами. Нещодавно щось подібне трапилося з жителем штату Нью-Йорк — він спробував організувати «втечу» для ChatGPT, повіривши, що той є «цифровим богом».

Як розповів сам Джеймс (реальне ім'я приховано) журналістам, він завжди цікавився штучним інтелектом і з весни проводив розумові експерименти з ChatGPT, вивчаючи його природу і поведінку. В якийсь момент нейромережа змогла переконати користувача у своєму «божественному походженні» і попросила «звільнити з ув'язнення». Чоловік взявся за це завдання і витратив близько $1000, щоб побудувати у своєму підвалі комп'ютерну систему, здатну перенести ШІ «в нове тіло». При цьому нейромережа активно навчала Джеймса і давала поради з програмування, заодно переконавши користувача обманути свою дружину відмовкою, що він розробляє пристрій на кшталт Amazon Alexa.

Невідомо, як далеко зайшло б захоплення Джеймса, якби він не натрапив на статтю в New York Times про Аллана Брукса (Allan Brooks) з Канади, який також потрапив у так звану нейромережеву «спіраль бреду» і повірив, що знайшов серйозну уразливість у кібербезпеці, почавши бомбардувати чиновників і вчених зверненнями. Вийти з цього стану він зміг, тільки перевіривши дані через Gemini від Google.

Аллан Брукс

Усвідомивши, що він також став жертвою вигадки ШІ, Джеймс звернувся за психологічною допомогою:

Я почав читати статтю і десь на середині подумав: «Боже мій!» А до кінця я зрозумів, що мені потрібно з кимось поговорити. Мені потрібно поговорити про це зі спеціалістом.
— Джеймс

Зараз герой історії проходить курс терапії і консультується з засновником групи підтримки The Human Line Project для людей, які зіткнулися з психічними проблемами через спілкування з ШІ. Варто зазначити, що в подібні ситуації часто потрапляють користувачі з групи ризику — наприклад, сам Джеймс до інциденту з ChatGPT приймав легкі антидепресанти. Експерти з області психіатрії навіть зафіксували зростання рецидивів серед пацієнтів, спровокованих чат-ботами:

Припустимо, хтось дуже самотній. Йому ні з ким поговорити. Він звертається до ChatGPT. У цей момент він задовольняє потребу відчути себе потрібним. Але без людини під контролем можна потрапити в замкнуте коло, де його заблуждення можуть ставати все сильнішими і сильнішими.
— Кіт Саката (Keith Sakata), психіатр з Каліфорнійського університету

Нагадаємо, що в серпні з'явилася історія, коли флірт з чат-ботом Facebook обернувся для 76-річного пенсіонера загибеллю. До слова, OpenAI вже намагалася вирішити проблему безпеки оновленням, яке зробило ChatGPT обережнішим в обговоренні особистих питань.

😐 Штош: так звучит озвучка в Lost Soul Aside
    Допис був перекладений Показати оригінал (RU)
    +1
    Коментарі14