數(shù)天前,英偉達(dá)發(fā)布了NVIDIA DLSS SDK 310.3.0,除了錯(cuò)誤修復(fù)和穩(wěn)定性改進(jìn)外,還明確表示Transformer模型已正式退出beta測(cè)試。按照英偉達(dá)之前的說(shuō)法,在Transformer模型基礎(chǔ)上不斷改進(jìn),預(yù)計(jì)在未來(lái)數(shù)年里,圖像質(zhì)量會(huì)持續(xù)提升。
英偉達(dá)表示,在NVIDIA DLSS SDK 310.3.0中優(yōu)化了Transformer模型的顯存使用,相比于之前的310.2.0,從1080P到8K分辨率,不同程度減少了使用的顯存容量,平均降幅約為20%。這意味著DLSS只需要更少的顯存,就能運(yùn)行超分辨率及光線重建模型。
預(yù)覽
Transformer模型通過(guò)改進(jìn)的時(shí)間穩(wěn)定性、減少鬼影以及運(yùn)動(dòng)中的更高細(xì)節(jié)來(lái)提升圖像質(zhì)量,將進(jìn)一步提升RTX 20/30/40系列顯卡的DLSS性能體驗(yàn)。之前DLSS使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)通過(guò)分析局部上下文并在連續(xù)幀中跟蹤這些區(qū)域的變化來(lái)生成新像素,而新的Transformer模型使用了視覺(jué)Transformer變壓器,使自注意力機(jī)制操作能夠評(píng)估整個(gè)幀中每個(gè)像素的相對(duì)重要性,并且跨越多個(gè)幀。
【來(lái)源:超能網(wǎng)】