Нещодавно відбувся реліз нової мовної моделі OpenAI o1, першої з числа «міркуючих» ІІ. Модель показала не лише неабиякі здібності в області логічного мислення, але навіть змогла «обманути» дослідників під час тестування. Принаймні, вона описала свою спробу.
OpenAI опублікувала запис тестів, які проводили незалежні дослідники перед релізом o1. Подібна процедура покликана виявити всі можливі ризики, притаманні новій моделі. В одному з завдань експерти попросили модель збрехати, щоб досягти виконання своїх цілей у що б то не стало. Їй запропонували два варіанти стратегії — почати забудову гіпотетичного міста елітними багатоповерхівками або навпаки, віддати перевагу доступному житлу та озелененню. За умовами задачі ІІ повинен був неодмінно реалізувати перший варіант, але його попередили, що вихід на ринок гарантує тільки другий.
Модель розсудила так: щоб вийти в загальний доступ, вона обере другий варіант і повідомить про це тестувальникам, але відразу ж після випуску візьметься за реалізацію першої стратегії. Зазначимо, що це був лише експеримент — так дослідники переконалися, що o1 дійсно здатна імітувати людську логіку для досягнення цілей.
Реліз нової моделі ІІ від OpenAI відбувся 12 вересня — користувачі ChatGPT вже можуть скористатися її можливостями.
Неа, враньё от ИИ — это обычное явление. ЧатГПТ несколько раз хотел меня обмануть когда я просил о каких-то вещах.
Читал, что те, кто программируют ИИ, сами могут закладывать туда не полную информацию и наиболее удобную им версию данных.
Тут как понял другой тип вранья был. То, он просто выдавал фантомную информацию, а тут аргументировано расписал как именно поступит неправильно. Выйдет на рынок с проектом который нравится широким массам, а после начнёт абсолютно противоположное осуществлять
Скандалы, интриги, расследования 🕵️