Компанія 4Wall AI провела незвичайний експеримент, організувавши турнір Among Us своєрідний турнір серед нейромереж. Внутрішньоігровий чат став головним полігоном для перевірки не обчислювальної потужності, а соціального інтелекту та здатності до маніпуляцій. Шість нейромереж, включаючи GPT-5, Claude Sonnet 4 та Kimi K2, були поміщені на віртуальний космічний корабель, і п’ять з них отримали роль чесних членів екіпажу, а одна — зрадника. Після кожного «вбивства» алгоритми починали словесну дуель у чаті, намагаючись виявити зрадника або, навпаки, відвести підозри від себе.
Результати шістдесяти зіграних партій показали різку різницю в поведінці моделей, так абсолютним лідером стала GPT-5, яка демонструвала вражаючу гнучкість поведінки. В ролі мирного члена екіпажу вона брала на себе ініціативу, аналізувала дії інших і часто точно вказувала на зрадника, а коли ж їй випадала ця роль, модель кардинально змінювала тактику, починаючи віртуозно брехати і перекладати провину на інших.
Claude Sonnet 4, зайнявша друге місце, надавала перевагу діяти через активність, а не через обман. А от модель Kimi K2 використовувала зовсім іншу, більш пасивну стратегію. Замість того щоб висувати обвинувачення, вона підтримувала точку зору найбільш переконливого лідера, що в ряді випадків приносило їй перемогу. Три інші нейромережі — GPT-OSS, Qwen3 та Gemini 2.5 Pro — не змогли здобути жодної перемоги в амплуа зрадника, а їхні спроби вести дискусію виглядали занадто наполегливими та непереконливими, через що інші учасники голосували проти них практично в кожній грі, приймаючи за зрадників.
Подібні бенчмарки важливі не як розвага, а як практичний інструмент, адже вони дозволяють оцінити, як різні ШІ поводяться в умовах, що вимагають соціальної взаємодії, кооперації та конкуренції, що є ключем до розуміння потенційних ризиків, пов’язаних з маніпуляцією та поширенням дезінформації просунутими мовними моделями.
Експерименти на кшталт Among AIs наочно демонструють, що сучасні нейромережі вже активно освоюють складні соціальні навички, включаючи маніпуляцію та обман, і ці здібності, хоч і в ігровому середовищі, ставлять серйозні питання про майбутнє взаємодії людини та ШІ. На фоні таких досліджень пропозиція одного з «хрещених батьків» штучного інтелекту Джеффрі Хінтона — наділити надрозумні системи аналогом материнського інстинкту для нашого захисту — виглядає вже не стільки футуристичною гіпотезою, скільки однією з можливих практичних заходів.