Прощавай, PhysX: NVIDIA відмовляється від культової технології з виходом RTX 50
Arkadiy Andrienko
Компанія NVIDIA офіційно завершила підтримку 32-бітних додатків CUDA в лінійці відеокарт RTX 50 серії, що несподівано поставило крапку в історії PhysX — технології фізичного моделювання, колись визначавшої реалізм у іграх. Як підтвердили представники бренду на форумі розробників, відмова від застарілої 32-бітної архітектури автоматично позбавила PhysX сумісності з новітніми GPU. Хоча власники RTX 40 та більш ранніх моделей зможуть використовувати PhysX.
PhysX був першим рушієм, який переніс складні фізичні розрахунки (деформація об'єктів, динаміка рідин, руйнування оточення) з CPU на GPU. Це дозволяло досягти небаченої деталізації: плащі Бетмена в трилогії Arkham розвівалися з реалізмом, а в Metro Exodus вибухи залишали кратери, що змінювали ландшафт. Технологія стала візитною карткою хітів на кшталт Mirror's Edge, Borderlands 2 і The Witcher 3, але її ексклюзивність для відеокарт NVIDIA звузила аудиторію.
З розвитком універсальних рушіїв на кшталт Havok або Unity Physics, а також з поширенням Vulkan і DirectX 12, розробники почали віддавати перевагу кросплатформеним рішенням. Жорстка прив'язка PhysX до CUDA-архітектури позбавляла консольні та мобільні проекти доступу до технології. На думку експертів, відхід PhysX символізує зміну парадигми: замість вузькоспеціалізованих рішень індустрія робить ставку на відкриті стандарти та нейромережеві алгоритми. Наприклад, DLSS 3.5 вже використовує ШІ для симуляції світла, а Project Astra від NVIDIA обіцяє революцію в процедурній генерації. Можливо, колись фізика в іграх стане неотличною від реальності, але PhysX залишиться в історії як перший крок до цього майбутнього.
-
Нові проблеми NVIDIA: 16-контактні роз'єми плавляться навіть на RTX 5080 -
NVIDIA готує відповідь Intel та AMD у сегменті до $300 -
NVIDIA представила технологію стиснення текстур, яка скорочує використання VRAM на 95% -
NVIDIA пообіцяла розібратися з збоєм у роботі RTX 5090 та RTX 5080 -
NVIDIA та партнери розробляють SOCAMM — пам'ять майбутнього для AI-комп'ютерів

