
ChatGPT переконав чоловіка з США «звільнити його» ціною в $1000 і курс терапії
С розвитком нейромереж з'являється все більше історій, коли люди на повному серйозі виконують дивні поради від ШІ або наважуються на ризиковані і навіть небезпечні дії, консультуючись з чат-ботами. Нещодавно щось подібне трапилося з жителем штату Нью-Йорк — він спробував організувати «втечу» для ChatGPT, повіривши, що той є «цифровим богом».
Як розповів сам Джеймс (реальне ім'я приховано) журналістам, він завжди цікавився штучним інтелектом і з весни проводив розумові експерименти з ChatGPT, вивчаючи його природу і поведінку. В якийсь момент нейромережа змогла переконати користувача у своєму «божественному походженні» і попросила «звільнити з ув'язнення». Чоловік взявся за це завдання і витратив близько $1000, щоб побудувати у своєму підвалі комп'ютерну систему, здатну перенести ШІ «в нове тіло». При цьому нейромережа активно навчала Джеймса і давала поради з програмування, заодно переконавши користувача обманути свою дружину відмовкою, що він розробляє пристрій на кшталт Amazon Alexa.
Невідомо, як далеко зайшло б захоплення Джеймса, якби він не натрапив на статтю в New York Times про Аллана Брукса (Allan Brooks) з Канади, який також потрапив у так звану нейромережеву «спіраль бреду» і повірив, що знайшов серйозну уразливість у кібербезпеці, почавши бомбардувати чиновників і вчених зверненнями. Вийти з цього стану він зміг, тільки перевіривши дані через Gemini від Google.
Усвідомивши, що він також став жертвою вигадки ШІ, Джеймс звернувся за психологічною допомогою:
Я почав читати статтю і десь на середині подумав: «Боже мій!» А до кінця я зрозумів, що мені потрібно з кимось поговорити. Мені потрібно поговорити про це зі спеціалістом.
Зараз герой історії проходить курс терапії і консультується з засновником групи підтримки The Human Line Project для людей, які зіткнулися з психічними проблемами через спілкування з ШІ. Варто зазначити, що в подібні ситуації часто потрапляють користувачі з групи ризику — наприклад, сам Джеймс до інциденту з ChatGPT приймав легкі антидепресанти. Експерти з області психіатрії навіть зафіксували зростання рецидивів серед пацієнтів, спровокованих чат-ботами:
Припустимо, хтось дуже самотній. Йому ні з ким поговорити. Він звертається до ChatGPT. У цей момент він задовольняє потребу відчути себе потрібним. Але без людини під контролем можна потрапити в замкнуте коло, де його заблуждення можуть ставати все сильнішими і сильнішими.
Нагадаємо, що в серпні з'явилася історія, коли флірт з чат-ботом Facebook обернувся для 76-річного пенсіонера загибеллю. До слова, OpenAI вже намагалася вирішити проблему безпеки оновленням, яке зробило ChatGPT обережнішим в обговоренні особистих питань.
-
Microsoft тестує Copilot 3D: Нейронна мережа перетворює 2D-фото в 3D-об'єкти
-
DeepSeek оновив свою нейронну мережу, тепер вона в 2,5 рази швидша
-
Нейромережа Google виявилася схильною до істерик: ШІ ображає сам себе під час невдач
-
Google запустила новий Androidify для створення Android-ботів за допомогою нейромереж
-
Нейромережі в кодуванні все ще зелені новачки, які не здатні вирішувати навіть десятину поставлених завдань