Budoucnost bez latence ve videohrách: Intel přináší technologii GFFE

Budoucnost bez latence ve videohrách: Intel přináší technologii GFFE

Společnost Intel prochází jedním z nejtěžších období ve své novodobé historii. Po kontroverzích, které vyvolaly neúspěchy jejích procesorů, technologická firma vidí, jak se AMD podařilo otočit karty na trhu, kterému dominuje s menší rezervou než před několika měsíci. Oznámení její nové řady grafických karet se však snaží tuto situaci zvrátit, a to hned ze dvou rozdílných hledisek: na jedné straně je to hledisko ekonomické, na straně druhé technologie, které její grafické procesory představí.


Výzkumníci společnosti Intel vyvinuli metodu generování snímků nazvanou G-buffer Free Frame Extrapolation (GFFE), která jako hlavní plusový bod nepřidává vstupní latenci ve videohrách. S nástrojem tohoto typu se nesetkáváme poprvé, neboť NVIDIA učinila totéž v roce 2022 s DLSS a AMD se svým FSR v roce 2023, ale tato sázka Intelu se snaží zlepšit výkon XeSS, jeho technologie je podobná předchozím dvěma zmíněným. A podle původního příběhu se zdá, že se jí to podařilo.

Související článek

Herní vývojář využívá pro svou práci AI. Nemohu si ji vynachválit, tvrdí
Herní vývojář využívá pro svou práci AI. Nemohu si ji vynachválit, tvrdí

Tvůrce karetní hry překvapuje na sociálních sítích svým zvláštním nadšením pro umělou inteligenci.

NVIDIA a AMD by mohly následovat její příklad

Současné metody drží snímky v paměti před vygenerováním nového, což prodlužuje dobu mezi akcí uživatele a zobrazením výsledku na obrazovce. GFFE však snímky ve frontě nedrží, protože k extrapolaci nového snímku využívá historii vykreslených snímků, což výrazně snižuje latenci. Výsledkem je, že algoritmus je schopen vygenerovat snímek v rozlišení 1080p za pouhých 6,6 milisekundy, čímž je konkurenceschopný v rychlosti ve srovnání s jinými technologiemi.

GFFE by navíc mohl být implementován přímo v ovladači GPU, aniž by musel být integrován do vykreslovacího jádra hry. Intel a Kalifornská univerzita tak vedou vývoj směrem k extrapolaci snímků, což je situace, kdy by se společnosti NVIDIA i AMD mohly snažit integrovat podobné technologie do svých nadcházejících verzí. Vzhledem k tomu, že se GPU blíží ke svým limitům hrubého výkonu, se tedy pozornost soustředí na neuronové sítě, které mají zlepšit škálovatelnost a generování snímků.

Zdroje článku:
pcgamer.com
cnbc.com

#