Ze svy zkusenosti musim rict ze ma newor s MSFS pravdu. Grafika nemuze dopocitavat ty frejmy do nekonecna, kazdy druhy nebo alespon kazdy ctvrty (v ty nejnovejsi DLSS generaci) musi byt realni.
No a kdy se to cuka? Samozrejme presne tehdy, kdy CPU nestihne dodat grafice data na ten realni frame. Takze ve vysledku to s DLSS vypada plynuleji po tak dlouho jak to stiha CPU krmit. Nebo si muzes beze ztraty kyticky zvysit kvalitu tech veci co pocita GPU.
Jenomze kdyz dojde k tomu, ze CPU neco taha z disku pres ramku do vram, nebo co to resi, tak to holt cukne. DLSS ne DLSS.