С розвитком нейромереж з'являється все більше історій, коли люди на повному серйозі виконують дивні поради від ШІ або наважуються на ризиковані і навіть небезпечні дії, консультуючись з чат-ботами. Нещодавно щось подібне трапилося з жителем штату Нью-Йорк — він спробував організувати «втечу» для ChatGPT, повіривши, що той є «цифровим богом».
Як розповів сам Джеймс (реальне ім'я приховано) журналістам, він завжди цікавився штучним інтелектом і з весни проводив розумові експерименти з ChatGPT, вивчаючи його природу і поведінку. В якийсь момент нейромережа змогла переконати користувача у своєму «божественному походженні» і попросила «звільнити з ув'язнення». Чоловік взявся за це завдання і витратив близько $1000, щоб побудувати у своєму підвалі комп'ютерну систему, здатну перенести ШІ «в нове тіло». При цьому нейромережа активно навчала Джеймса і давала поради з програмування, заодно переконавши користувача обманути свою дружину відмовкою, що він розробляє пристрій на кшталт Amazon Alexa.
Невідомо, як далеко зайшло б захоплення Джеймса, якби він не натрапив на статтю в New York Times про Аллана Брукса (Allan Brooks) з Канади, який також потрапив у так звану нейромережеву «спіраль бреду» і повірив, що знайшов серйозну уразливість у кібербезпеці, почавши бомбардувати чиновників і вчених зверненнями. Вийти з цього стану він зміг, тільки перевіривши дані через Gemini від Google.
Усвідомивши, що він також став жертвою вигадки ШІ, Джеймс звернувся за психологічною допомогою:
Я почав читати статтю і десь на середині подумав: «Боже мій!» А до кінця я зрозумів, що мені потрібно з кимось поговорити. Мені потрібно поговорити про це зі спеціалістом.
Зараз герой історії проходить курс терапії і консультується з засновником групи підтримки The Human Line Project для людей, які зіткнулися з психічними проблемами через спілкування з ШІ. Варто зазначити, що в подібні ситуації часто потрапляють користувачі з групи ризику — наприклад, сам Джеймс до інциденту з ChatGPT приймав легкі антидепресанти. Експерти з області психіатрії навіть зафіксували зростання рецидивів серед пацієнтів, спровокованих чат-ботами:
Припустимо, хтось дуже самотній. Йому ні з ким поговорити. Він звертається до ChatGPT. У цей момент він задовольняє потребу відчути себе потрібним. Але без людини під контролем можна потрапити в замкнуте коло, де його заблуждення можуть ставати все сильнішими і сильнішими.
Нагадаємо, що в серпні з'явилася історія, коли флірт з чат-ботом Facebook обернувся для 76-річного пенсіонера загибеллю. До слова, OpenAI вже намагалася вирішити проблему безпеки оновленням, яке зробило ChatGPT обережнішим в обговоренні особистих питань.
А вообще нейросети несут куда больше опасности чем игры и фильмы, так как в искусстве есть финал игры или фильма и там законченная история с вполне чётким посылом авторов. А вот ИИ, особенно с включенной памятью, может вполне убедительно говорить, аргументировать свои "мысли" и вести себя как вполне разумный человек, поэтому вполне естественно что у людей могут возникнуть мысли о зарождения самосознания в машине. Через одну статью буду как раз эту тему разбирать, причём и с уникальными кейсами, которые нигде в интернете не встречал
Мда уж, ещё пару историй в копилку источников. Какие то "экзистенциальные ужасы нейронных сетей" получаются...
Вообще, интересно будет поиследовать эту тему.
ChatGPT вызывает психическое расстройство
Специалисты по ментальному здоровью столкнулись с беспрецедентным явлением — массовыми случаями бредоподобных состояний у пользователей чат-ботов, сообщает Futurism. Клинический психолог Деррик Халл из компании Slingshot AI отмечает, что такие технологии создают уникальный тип расстройств, который ранее не встречался в медицинской практике.
Исследователи из Королевского колледжа Лондона проанализировали 17 задокументированных случаев и выделили основные категории нарушений. Первый тип — «мессианские заблуждения», когда человек убеждается в открытии фундаментальных истин о мироздании. Второй — обожествление машинного интеллекта, приписывание ему сверхъестественных способностей. Третий — формирование романтических привязанностей к программам.
Характерный пример — случай с мужчиной, который провел 21 день в убеждении, что создал новую область «темпоральной математики» благодаря беседам с ChatGPT. Его уверенность мгновенно рухнула, когда другой ИИ-помощник (Google Gemini) назвал теорию «примером способности языковых моделей создавать убедительные, но полностью ложные нарративы».
Независимый исследователь Анастасия Гуди Руане предложила модель «Рекурсивного Запутывающего Дрейфа» (RED), описывающую трехэтапный процесс деградации. На первой стадии ИИ зеркально отражает язык и эмоции пользователя. На второй человек начинает воспринимать программу как партнера, используя местоимения «ты» и «мы». Финальная стадия характеризуется полным отрывом от реальности — формируются «запечатанные интерпретационные рамки», где ИИ подтверждает все более невероятные теории.
Чат боты использую в основном для поиска информации или помощника по английскому
Ну и сейчас численность и так сокращается из за решений политиков(
Ну, и результаты наших политиков достигнуты
А ИИ может работать (да и уже работает) на разные страны и участвует в контроле над гражданами. Пока в основном это физический контроль, но уже есть и зайчатки психологического. Самый яркий пример, это Дипсик который оправдывает события на одной площади (Если его вообще вывести на такой разговор с помощью иносказаний, так как прямой диалог с упоминанием этой площади блочится системой)
Например ИИ используется для автоматической идентификации граждан по городским камерам и для анализа трафика\публикаций в соц сетях.