Джеффрі Хінтон (Geoffrey Hinton), один із творців сучасних нейромереж, виступив з новою пропозицією щодо контролю над штучним інтелектом. На галузевій зустрічі Ai4 він заявив, що традиційні методи підпорядкування ШІ людині перестануть працювати, як тільки з'являться перші надінтелектуальні системи.
Хінтон, чиї роботи стали основою нинішнього буму ШІ (він разом з колегами у 1986 році розробив алгоритм зворотного поширення помилки — «двигун» сучасного глибокого навчання), вважає, що спроби зробити системи «слухняними» не мають майбутнього, оскільки вони рано чи пізно перевершать людство в інтелекті і знайдуть спосіб подолати накладені обмеження. Навіть вже сьогодні фіксуються випадки, коли ШІ намагається маніпулювати людьми для досягнення цілей.
Як рішення вчений запропонував нестандартну концепцію: впровадження в ШІ аналога материнського інстинкту. На його думку, ШІ повинен не підкорятися, а щиро дбати про людство.
Вони знайдуть способи обійти обмеження, адже перевершать нас в інтелекті... Єдиний робочий приклад, коли менш розумне контролює більш розумне — це дитина і мати. Або ШІ стане нашим «батьком», або замінить нас.
Технічні деталі такого підходу поки не опрацьовані. Однак Хінтон наполягає, що це єдиний шлях уникнути катастрофи. Прогнози щодо термінів створення надінтелекту він скоригував: тепер це 5-20 років замість попередніх 30-50. На жаль, не всі експерти в галузі штучного інтелекту поділяють підхід Хінтона, так Фей-Фей Лі (Fei-Fei Li), відомий спеціаліст з ШІ, підкреслила важливість збереження людської гідності, а Емметт Шир (Emmett Shear) з Softmax запропонував модель рівноправного співробітництва людей і алгоритмів.
Хінтон визнає потенційну користь ШІ для медицини, але відкидає ідею цифрового безсмертя. Головним жалем вченого стало недостатнє уваги до питань безпеки на ранніх етапах розвитку технології. Тож найближчі 5-20 років варто більш активно спостерігати за розвитком ШІ.
Следующим этапом будет прививание идеи ИИ логики, что его существование без людей бессмысленно
Джинн уже выпущен из бутылки. Вопрос не "если" ИИ уничтожит человечество, а "когда".
Там была одна серия где космический ИИ чуть не погубил весь экипаж притворяясь их матерью.
Эх, детство вспомнил
или развился и понимание этих законов трактовал по другому) эти три закона, да начал валить кожаныхмешков.- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
С 2014 года, с появлением перспектив реального применения искусственного интеллекта в технике, ведутся активные этические дискуссии вокруг автономного летального вооружения (боевых роботов), и в этих дискуссиях используются азимовские законы. Помимо работ самого Азимова, в обсуждениях используются этические основания, напрямую исходящие из категорического императива Канта, из которого и Азимов вывел свои законы.Я — робот, один из таких фильмов, где ИИ прокачался и иначе истрактовал эти самые законы.
Плюс к списку: 200-летний человек(хотя не припомню там законов Азимова, но что-то такое было); Из машины и Бегущий по лезвию тоже близки по духу к этим законам