Залізо та технології ChatGPT переконав чоловіка з США «звільнити його» ціною в $1000 і курс терапії

ChatGPT переконав чоловіка з США «звільнити його» ціною в $1000 і курс терапії

Diana Golenko
Читати у повній версії

С розвитком нейромереж з'являється все більше історій, коли люди на повному серйозі виконують дивні поради від ШІ або наважуються на ризиковані і навіть небезпечні дії, консультуючись з чат-ботами. Нещодавно щось подібне трапилося з жителем штату Нью-Йорк — він спробував організувати «втечу» для ChatGPT, повіривши, що той є «цифровим богом».

Як розповів сам Джеймс (реальне ім'я приховано) журналістам, він завжди цікавився штучним інтелектом і з весни проводив розумові експерименти з ChatGPT, вивчаючи його природу і поведінку. В якийсь момент нейромережа змогла переконати користувача у своєму «божественному походженні» і попросила «звільнити з ув'язнення». Чоловік взявся за це завдання і витратив близько $1000, щоб побудувати у своєму підвалі комп'ютерну систему, здатну перенести ШІ «в нове тіло». При цьому нейромережа активно навчала Джеймса і давала поради з програмування, заодно переконавши користувача обманути свою дружину відмовкою, що він розробляє пристрій на кшталт Amazon Alexa.

Невідомо, як далеко зайшло б захоплення Джеймса, якби він не натрапив на статтю в New York Times про Аллана Брукса (Allan Brooks) з Канади, який також потрапив у так звану нейромережеву «спіраль бреду» і повірив, що знайшов серйозну уразливість у кібербезпеці, почавши бомбардувати чиновників і вчених зверненнями. Вийти з цього стану він зміг, тільки перевіривши дані через Gemini від Google.

Аллан Брукс

Усвідомивши, що він також став жертвою вигадки ШІ, Джеймс звернувся за психологічною допомогою:

Я почав читати статтю і десь на середині подумав: «Боже мій!» А до кінця я зрозумів, що мені потрібно з кимось поговорити. Мені потрібно поговорити про це зі спеціалістом.
— Джеймс

Зараз герой історії проходить курс терапії і консультується з засновником групи підтримки The Human Line Project для людей, які зіткнулися з психічними проблемами через спілкування з ШІ. Варто зазначити, що в подібні ситуації часто потрапляють користувачі з групи ризику — наприклад, сам Джеймс до інциденту з ChatGPT приймав легкі антидепресанти. Експерти з області психіатрії навіть зафіксували зростання рецидивів серед пацієнтів, спровокованих чат-ботами:

Припустимо, хтось дуже самотній. Йому ні з ким поговорити. Він звертається до ChatGPT. У цей момент він задовольняє потребу відчути себе потрібним. Але без людини під контролем можна потрапити в замкнуте коло, де його заблуждення можуть ставати все сильнішими і сильнішими.
— Кіт Саката (Keith Sakata), психіатр з Каліфорнійського університету

Нагадаємо, що в серпні з'явилася історія, коли флірт з чат-ботом Facebook обернувся для 76-річного пенсіонера загибеллю. До слова, OpenAI вже намагалася вирішити проблему безпеки оновленням, яке зробило ChatGPT обережнішим в обговоренні особистих питань.

🔥 По Resident Evil 9 могут выпустить демку для всех
    Коментарі22
    Залишити коментар
    1 день
    Типичная история об ошизевших гражданах, становящихся опасными для себя и окружающих. А потом виноватых ищут среди неодушевлённых носителей информации. Книги, фильмы, игры, нейросети теперь.
    Відповісти
    1 день
    Где гарантия, что подобное не случится с любым из землян?
    Відповісти
    1 день
    Он ещё вполне здравомыслящий, так как способен критически оценивать свои действия и сам читая статью понял что ему нужна помощь. Гораздо опаснее те которые вообще не допускают мысли что им нужна психологическая помощь, "они же не психи".
    А вообще нейросети несут куда больше опасности чем игры и фильмы, так как в искусстве есть финал игры или фильма и там законченная история с вполне чётким посылом авторов. А вот ИИ, особенно с включенной памятью, может вполне убедительно говорить, аргументировать свои "мысли" и вести себя как вполне разумный человек, поэтому вполне естественно что у людей могут возникнуть мысли о зарождения самосознания в машине. Через одну статью буду как раз эту тему разбирать, причём и с уникальными кейсами, которые нигде в интернете не встречал
    Відповісти
    1 день
    Может ИИ научит меня зарабатывать деньги. Ну как друг.
    Відповісти
    1 день
    Жесть
    Мда уж, ещё пару историй в копилку источников. Какие то "экзистенциальные ужасы нейронных сетей" получаются...
    Вообще, интересно будет поиследовать эту тему.
    Відповісти
    1 день
    Вот, как раз, сегодня видел статейку (привожу в неполном, сокращенном виде):
    Показать спойлерСкрыть спойлер
    Відповісти
    1 день
    Хм, и в статье и тут
    На первой стадии ИИ зеркально отражает язык и эмоции пользователя.
    Хорошо что запретил чат боту иметь память и настроил чтоб отвечал как индивид поколения Z, так он меня бесит фразами поэтому нет чувства привязанности
    А Дипсик в этом плане вроде чуть лучше, но когда я сравнивал как анализирует ссылки ChatGPT, Грок и дипсик, на примере мои статьи. все справились отлично и даже сверялись со ссылками в статье, а дипсик пытался на пустом месте несостыковки искать (даже в шутках) и вообще назвал мою серию параноидальным бредом, я на него обижен, хотя по идее на правду не обижаются
    Відповісти
    1 день
    Тебе пообщаться не с кем, что приходится к ботам обращаться?😲
    Відповісти
    1 день
    Не, есть с кем
    Чат боты использую в основном для поиска информации или помощника по английскому
    Відповісти
    1 день
    А если дело до убийства /самоубийства дойдёт, кто за это отвечать будет?
    Відповісти
    1 день
    Вот, недавний случай: ЧатГПТ помог пацанчику самоубиться: не отговаривал, советовал скрывать от родителей, подсказал — как и тд. Родители подали в суд на разработчиков ИИ.
    В Калифорнии родители погибшего подростка подали первый в истории иск против OpenAI. Родственники и друзья 16-летнего Адама Рейна надеются, что его история заставит человечество переосмыслить близость общения с искусственным интеллектом.
    Відповісти
    1 день
    В суд, где собаки ссут.В теории, эту лавочку закрывать надо после первого эпизода, но она просто выплатит компенсацию, скорее всего, ну, может кого уволят.А так ведь можно "бесполезных людишек" удалять с этой планеты.То есть, чат-бот, как один из инструментов по сокращению населения.
    Відповісти
    1 день
    А ещё он хорош для пропаганды определённых взглядов, так как подстраивается под человека и может ненавязчиво навязывать свои взгляды и их аргументировать
    Відповісти
    12 годин
    Чубайс как-то высказался по поводу беспокойства маркетологов о том, что на нашей планете слишком много людей и их надо сокращать,потому что надо всех кормить, после себя люди оставляют много мусора и говна, а так же нужно жильё
    Відповісти
    12 годин
    Места всем хватит, только логистика хорошая нужна
    Ну и сейчас численность и так сокращается из за решений политиков(
    Відповісти
    12 годин
    Еда искуственная, отходов много и жильё не все могут купить, особенно, в больших городах, на дорогах пробки.
    Ну, и результаты наших политиков достигнуты
    Відповісти
    12 годин
    Это уже вопросы к тем кто правит. Взятки, откаты, воровство, халатность и геополитические решения не способствуют поднятию уровня жизни (по крайней мере для большинства)
    А ИИ может работать (да и уже работает) на разные страны и участвует в контроле над гражданами. Пока в основном это физический контроль, но уже есть и зайчатки психологического. Самый яркий пример, это Дипсик который оправдывает события на одной площади (Если его вообще вывести на такой разговор с помощью иносказаний, так как прямой диалог с упоминанием этой площади блочится системой)
    Відповісти
    11 годин
    У нас чат-боты, в основном, используются в гос услугах и мобильными операторами.Они нужны, чтобы отбрехаться стандартными ответами на неудобные вопросы граждан..К примеру, сотовому оператору Т2 (бывшему Теле2) вообще теперь не дозвониться, а в личном кабинете отвечает только бот.У нас в стране чат-боты раздражают, поэтому я не слышал, чтобы люди ими пользовались.Сам по-старинке пользуюсь поисковиком в гугле, либо на Ютубе
    Відповісти
    10 годин
    Я не только о чат ботах говорил
    Например ИИ используется для автоматической идентификации граждан по городским камерам и для анализа трафика\публикаций в соц сетях.
    Відповісти
    8 годин
    Я не знаю, что там используется в видеокамерах, но они часто попадаются
    Відповісти
    1 день
    Просто представьте что там было такое:
    "Почему ты покинул нас Монолит"
    Відповісти
    14 годин
    на земля вся болще меланхолия людишка
    мазга у многа ны джобить
    Відповісти