Sellepärast ongi igasugu AI upscalingu värgid BS. Nii DLSS kui FSR.
Puhas rasteri perf on ikka see, mis ruulib. Ning selle järgi võiks ka oma kaarte valida. Ning oma monitori resost sõltuvalt ning ka mängudest mida mängid.
Kui soovid koguaeg ainult AAA mänge max resol, ultra sätetel jooksutada siis ostadki ainult puhast highend kaarti.
Millepärast täpsemalt? Ning FSR ei ole AI upscaling.
Enamik tänapäeva mängudel on nii kräpp TAA, et DLSS quality suudab parema pildi joonistada, DLAA-st rääkimata.
Sellepärast ongi igasugu AI upscalingu värgid BS. Nii DLSS kui FSR.
Puhas rasteri perf on ikka see, mis ruulib. Ning selle järgi võiks ka oma kaarte valida. Ning oma monitori resost sõltuvalt ning ka mängudest mida mängid.
Kui soovid koguaeg ainult AAA mänge max resol, ultra sätetel jooksutada siis ostadki ainult puhast highend kaarti.
Millepärast täpsemalt? Ning FSR ei ole AI upscaling.
Enamik tänapäeva mängudel on nii kräpp TAA, et DLSS quality suudab parema pildi joonistada, DLAA-st rääkimata.
Sellepärast, et nendele ei saa kunagi kindel olla.
Ning ei hakanud eraldi välja tooma non AI ja AI, läksid ühte patta.
Miks mingeid TAA'sid üldse kasutada? Ma olen näinud, et selliseid asju tuleks kasutada mingite väga vanade mängudega, kus textuurid on mingi 720p tasemel.
Tänapäevaste UHD texture mappide puhul ma isegi ei saa aru, et mingeid jooni siluvaid asju vaja peale lülitada.
Ning vanade mängude puhul mind absoluutselt ei koti graafika, vaid ma otsin sisu. Ei eelda, et 5-10.a vanune mäng peab tänapäevast silmailu pakkuma. Content on olulisem.
Tänapäevaste AAA mängudes on juba tekstuurid enamikel 8K resole mõeldud, seega kui ma mängin neid oma 1080p või 1440p või 4K resol, siis peab hakkama pixel piipima, et mingit koledat joont leida, mis võik siledam olla.
Ning liikuva pildi puhul näeb seda veelgi vähem. Võibolla enamik siis teeb screenshotte mängimise ajal ja siis omaette mõmisevad... jaa siin tõesti on liiga sakiline äär, võiks olla üks sile joon...
Ning kui olen vaadanud neid HUB ülevaateid DLSS vs FSR, siis enamik võrdlusmomente mis välja toodud on 300X zoomiga, ning siis tõdevad et jah seal on FSR sitem.
Reaalselt keegi siit aru ka saaks, kas DLSS või FSR kui normaalselt mängite? Mina ei ole selline kotkasilm, et kui mängu tuhin on sees, siis mingit väga sisse zoomitud äärt kuskil märkaksin.
viimati muutis Viilutaja 07.07.2023 12:40:56, muudetud 1 kord
Kas mitte paremad tekstuurid ei vähenda ka karjuvat AA vajadust? Võibolla siis olen valesti aru saanud.
Mina ei ole ühelgi tänapäevasel mängul näinud mingit sakilist äärt, mis mulle silma oleks jäänud. Ning siis tõdenud, jaa siin peaks midagi kardinaalselt ette võtma.
Ainuke mäng kus olen neid märganud on CS:Go ja seal absoluutselt ei koti.
aa seondub servadega. tekstuurid on ikka hulknurkade endi peal.
täna on praktiliselt kõigil mängudel taa vaikimisi. _________________ - londiste
...aga mina ei saa kunagi suureks!
aa seondub servadega. tekstuurid on ikka hulknurkade endi peal.
täna on praktiliselt kõigil mängudel taa vaikimisi.
Jah, seda ikka tean, et AA on seotud servadega, kuid tänapäeval ei ole 3d mudelid enam mingid 8 nurksed polygonid vaid ikka objektil võib olla 100, kui mitte 1000 polygone, mis "ümardavad" ja mille peale siis tekstuur kantakse. Ääred endiselt on ofc olemas, kuid ma ei näe pointi vaielda selle üle, et milline tehnoloogia on parem, et siluda hullumeelest mingeid kaugel asuvaid ääri, mida siis suudad siis eritada kui sul on võrdlusmoment olemas ja 300x zoom peal.
Teine asi on visual artifakt, mida üks või teine tehnoloogia tekitab, kuid need on minumeelest rohkem fine tuunimine ja per case lahendatav peale mõningast mängu patchi.
Seega kui siin oli mingi mäng, kus oli ainult FSR toetatud. Kui Nvidia kaardi omanikuna tunned, et miks ainult see ja fuck AMD... või vastupidi, kui DLSS ja endam AMD kaart, siis kohe fuck Nvidia - siis probleem ikka pigem sinus endas ja mõttemaailmas.
Kõik ei pea olema alati Sinu meelejärgi.
Kui FSR on hästi implementeeritud, siis näedki erinevusi ainult selle 300x zoomiga kuvatõmmisel ja siis ka kui kõrval on võrdluspilt "perfektse" analoogiga. Ning kui tunned, et muidu mäng ei jookse sujuvalt, muuda graafika sätteid siis!
Ei sunni keegi sind mängima max detailidel oma päevi näinud mitu põlvkonda vana kaardiga
Siin need dlssi taga ajavad ja amd'd maapõhja kiruvad tegelased mängivadki 300x zoomiga, neid see mängusisu ei huvitagi. Peaasi, et dlss ja fg oleks olemas ning saaks õigustada oma ülehinnatud videokaardi ostu. Tunnevad end reedetuna kui peaksid fsr'i kasutama.
Viilutaja, ka polügonide hulk pigem ei aita aa osas. probleem ei ole detailsuses vaid selles, et servad on "karvased". kontrast erinevate polügonide vahel, mida kuidagi on vaja siluda.
absoluutselt on mõtet ja vajadust vaielda, milline tehnoloogia on parem. taa on üsna pask, ennekõike selle pärast, et see laseb ka kogu muu pildi uduseks.
aliasingu vastu aitab sisuliselt vaid suurem pikslitihedus ja/või ekraanist kaugemal istumine. näiteks mingi 2160p ja 28" peal võib-olla enam ei näe jah. _________________ - londiste
...aga mina ei saa kunagi suureks!
Sellepärast ongi igasugu AI upscalingu värgid BS. Nii DLSS kui FSR.
Puhas rasteri perf on ikka see, mis ruulib. Ning selle järgi võiks ka oma kaarte valida. Ning oma monitori resost sõltuvalt ning ka mängudest mida mängid.
Kui soovid koguaeg ainult AAA mänge max resol, ultra sätetel jooksutada siis ostadki ainult puhast highend kaarti.
Millepärast täpsemalt? Ning FSR ei ole AI upscaling.
Enamik tänapäeva mängudel on nii kräpp TAA, et DLSS quality suudab parema pildi joonistada, DLAA-st rääkimata.
Sellepärast, et nendele ei saa kunagi kindel olla.
Ning ei hakanud eraldi välja tooma non AI ja AI, läksid ühte patta.
Miks mingeid TAA'sid üldse kasutada? Ma olen näinud, et selliseid asju tuleks kasutada mingite väga vanade mängudega, kus textuurid on mingi 720p tasemel.
Tänapäevaste UHD texture mappide puhul ma isegi ei saa aru, et mingeid jooni siluvaid asju vaja peale lülitada.
Ning vanade mängude puhul mind absoluutselt ei koti graafika, vaid ma otsin sisu. Ei eelda, et 5-10.a vanune mäng peab tänapäevast silmailu pakkuma. Content on olulisem.
Tänapäevaste AAA mängudes on juba tekstuurid enamikel 8K resole mõeldud, seega kui ma mängin neid oma 1080p või 1440p või 4K resol, siis peab hakkama pixel piipima, et mingit koledat joont leida, mis võik siledam olla.
Ning liikuva pildi puhul näeb seda veelgi vähem. Võibolla enamik siis teeb screenshotte mängimise ajal ja siis omaette mõmisevad... jaa siin tõesti on liiga sakiline äär, võiks olla üks sile joon...
Ning kui olen vaadanud neid HUB ülevaateid DLSS vs FSR, siis enamik võrdlusmomente mis välja toodud on 300X zoomiga, ning siis tõdevad et jah seal on FSR sitem.
Reaalselt keegi siit aru ka saaks, kas DLSS või FSR kui normaalselt mängite? Mina ei ole selline kotkasilm, et kui mängu tuhin on sees, siis mingit väga sisse zoomitud äärt kuskil märkaksin.
TAA teeb kogu pildi uduseks, DLSS ja mõnes mängus ka FSR suudab parema pildi kuvada. Eriti naljakas, kui DLSS näeb 1440p internal resoga parem välja, kui native 4K+TAA.
Mingisugust anti aliasingu on ikka vaja ka 4K peal, mängisin hiljuti GTA IV mille PC versioonil pole mingit AA-d ning aliasing ikka häiris küll.
Seega kui siin oli mingi mäng, kus oli ainult FSR toetatud. Kui Nvidia kaardi omanikuna tunned, et miks ainult see ja fuck AMD... või vastupidi, kui DLSS ja endam AMD kaart, siis kohe fuck Nvidia - siis probleem ikka pigem sinus endas ja mõttemaailmas.
Ei tea, mina kui olin kunagi AMD omanik, siis minu jaoks oli alati nVidia see märg unenägu, ihaldasin alati omale tõelist jõudu ja kõige vingemaid tehnoloogiaid. Siis nüüd kui lõpuks suudan endale nVidiat lubada, siis ongi ainult fuck AMD.
FSR antud hetkel ei ole mitte kuidagi DLSS-iga võrreldav kvaliteedi poolest. See, et AMD seda kõigile üritab pakkuda on ilmselt kivi nende endi kapsaaeda.
Seega kui siin oli mingi mäng, kus oli ainult FSR toetatud. Kui Nvidia kaardi omanikuna tunned, et miks ainult see ja fuck AMD... või vastupidi, kui DLSS ja endam AMD kaart, siis kohe fuck Nvidia - siis probleem ikka pigem sinus endas ja mõttemaailmas.
Ei tea, mina kui olin kunagi AMD omanik, siis minu jaoks oli alati nVidia see märg unenägu, ihaldasin alati omale tõelist jõudu ja kõige vingemaid tehnoloogiaid. Siis nüüd kui lõpuks suudan endale nVidiat lubada, siis ongi ainult fuck AMD.
FSR antud hetkel ei ole mitte kuidagi DLSS-iga võrreldav kvaliteedi poolest. See, et AMD seda kõigile üritab pakkuda on ilmselt kivi nende endi kapsaaeda.
Ma suudan ka neid 1500-2000€ kaarte lubada, kuid mõistus tõrgub selle lollusega kaasa minemast, ning siis automaatselt oled ka ise osa sellest probleemist, miks need kaardid nii kallid on. Kui teed sellise kaardiga tööd, saan sellest aru. Mängimiseks... kui muid hobisid pole ja rahast kahju ka mitte, ning oled leppinud sellega et järgmise põlvkonna eest maksad siis veelgi rohkem - go for it!
Asi on minu jaoks mõtte laadis, ei pea omama alati kõige vingemat kaarti, et sellega siis foorumis eputada (paljud seda teevad).
Endal kastis Nvidia kaart ning kohe kindlasti ei mõtle fuck AMD... wtf? Milleks? Tundub täielik jaburdus.
@viilutaja. kogu liikuva pildi tulevik on AI upscaling. Ma ei nimetaks seda pahaks. Arvestades, et kogu liikuva pildi kujutamine on silma trikitamine, siis AI abil liikuva pildi parandamine on pigem liikuva pildi evulutsiooni loogiline samm. Lisa trikk kogu sellele trikkide jadale mida juba kasutatakse.
Veits teemas välja minna. Upscaling tehnoloogia tõeline potentsiaal on pigem tavalises tele ja video pildis. See on koht kus selle tehnoloogiaga saaks suuri summasid teenida. Kui keegi on jälginud Nvidia tegemisi (youtube ja vlc upscalingud), siis on üsna selge, et nad on kogu teema suuremalt ette võtnud.
This is not the first time NVIDIA has been stated to do this sort of thing. We do have evidence from multiple AIB partners who were stopped from offering top-grade custom designs for AMD GPUs & the same was true for Intel's Arc Alchemist. Intel's Alchemist received no proper support from any of the top three AIBs which include ASUS, MSI, and Gigabyte. The same is the case with AMD as the top SKUs from each brand don't feature a Radeon SKU. For ASUS, it's the ROG STRIX, for MSI, it's the SUPRIM X and for Gigabyte, it's the AORUS Xtreme.
Nvidia tundub mures olevat, kuna Intel on ikkagi palju suurem kui AMD ja kui nad oma keskklassi kaardi konkurentsi pakutavaks suudavad teha koos softiga, siis ei saa Nvidia enam oma röögatut hinnalipikut küsida. Eks näis aga gameritele on see hea, kui selline konkurents tuleb. _________________ Sõim ja räuskamine läheb SIIA
Kummaline, et Optimum Tech testis FE vs AIB (Paistis nagu ASUS TUF 7900XTX) aga ei öelnud seda videos otseselt välja. AIB mudelid võtavad alati rohkem voolu vs reference.
7900XTX reference on selgelt voolusäästlikum vs TUF mudel. Muidugi füüsika vastui ei saa - Nvidia kasutab 4nm monoliitset kivi samas kui AMD kasutab segu 5nm ja 6nm kividest. Oleks ka imelik kui Nvidia kasutaks seejuures tunduvalt rohkem voolu.
Meite maal seda hinnalangust veel näha ei ole mis puutub XTX. Aga nägin täna ka Tech YES City video kus ta analüüsis GPU hindu ja laiemalt majandust, mis on aluseks ees ootavale. Lühidalt madalama otsa kaartide hinnad enam eriti alla ei tule, kuna on niigi piiri peal marginaali osas. Küll aga ülemises otsas on palju õhku sees ning, et sügiseks peaks hinnad alla tulema veelgi. Saame näha. XTX 850.- hinnaga meil oleks juba täitsa mõeldav upgrade. _________________ Sõim ja räuskamine läheb SIIA
RDNA3's tundub ikka hulgem vigasid olema, mis jõudlust ja efektiivsust piiravad (AMD loomulikult mingi nimekirjaga välja tule vaid müüvad toodet sellisena nagu on).
Videos viidatud kõrge voolutatve madala koormuse all on üks nendest. Enda eelmine kaart, 6700XT, reageeris umbes samamoodi koormuse vähenemisel nagu viidatud videos RTX4080, samas oli voolutarbe muutus kohe märgata ka manuaalselt volti/taktsagedust piirates. 7900XT puhul tuleb taktsagedust ja/või kaadrisagedust ikka korralikult piirata enne kui arvestatavat voolutarbe vähenemist saab märgata.
Samuti paistab et pole ka neist dual issue shaderitest mingit kasu, peale selle, et saavad slaididele 2x suurema teraflopide numbri kirjutada.
Samuti paistab et pole ka neist dual issue shaderitest mingit kasu, peale selle, et saavad slaididele 2x suurema teraflopide numbri kirjutada.
nvidia pool tundusid dual-issue shaderid praktikas andvat efekti nii umbes 1/3 ulatuses. rdna3-l hetkel vähem aga seda järgmine põlvkond kõigi eelduste kohaselt toob umbes samale tasemele.
siinjuures, suure tflops numbri juures amd erinevalt nvidiast ei loe neid specis kahe shaderina. _________________ - londiste
...aga mina ei saa kunagi suureks!
Samuti paistab et pole ka neist dual issue shaderitest mingit kasu, peale selle, et saavad slaididele 2x suurema teraflopide numbri kirjutada.
nvidia pool tundusid dual-issue shaderid praktikas andvat efekti nii umbes 1/3 ulatuses. rdna3-l hetkel vähem aga seda järgmine põlvkond kõigi eelduste kohaselt toob umbes samale tasemele.
siinjuures, suure tflops numbri juures amd erinevalt nvidiast ei loe neid specis kahe shaderina.
Nvidial pole mingit dual issue shaderit. Ampere lisas INT tuumadele FP32 toe, ehk nt 3080 omab 8704 FP32 tuuma, millest pooled saavad ka INT instruktsioone jooksutada. Võrdluseks 2080Ti omab 4352 FP32 ja 4352 INT tuuma. Kaasaegne mäng jooksutab iga 100 FP32 instruktsiooni kohta umbes 35 INT operatsiooni, ehk umbes ~40% perf tõus ongi täiesti loogiline.
tehniliselt on sul vist isegi õigus, et nvidial ei olnud - või ei nimetatud - dual issue. aga mõte on ikkagi sama.
lisatakse samasse struktuuri lihtsalt topelt üksuseid. kumbki selle sammu juures ei tundunud oluliselt töö jagamist muutvat. nvidia lisas esiotsa turingus int üksuseid ainult põhjusel, et need on lihtsamad/väiksemad. amperes mindi juba ainult fp teed. fp üksused oskavad niikuinii ka int asju teha. amd tegi lihtsamalt, kohe 2x fp alusid.
töö jagamine ei käi per shader (või shader core või datapath või alu või kuidas iganes seda nimetada). gpudes on kogu töö jaotamine paralleelne ja käib mingi bloki kaupa.
nvidia puhul oli mu mälu järgi amperes see jagunemine 16 shaderi kaupa - sm jaotatud neljaks ja igas neist neljast saab pooled shaderid panna int tegema. _________________ - londiste
...aga mina ei saa kunagi suureks!
We have a large upgrade opportunity ahead of us. Just 47% of our installed base have upgraded to RTX and about 20% of the GPU with an RTX 3060 or higher performance.
Nvidia enda andmetest. Ainult 47% omab mingit RTX kaarti ja neist omakorda ainult 20% omab midagi võimsamat kui 3060. Seega <20% omab mingit mõistlikku RT võimekusega kaarti arvestades seda, et 3060 just mingi RT kunn ei ole.
We have a large upgrade opportunity ahead of us. Just 47% of our installed base have upgraded to RTX and about 20% of the GPU with an RTX 3060 or higher performance.
Nvidia enda andmetest. Ainult 47% omab mingit RTX kaarti ja neist omakorda ainult 20% omab midagi võimsamat kui 3060. Seega <20% omab mingit mõistlikku RT võimekusega kaarti arvestades seda, et 3060 just mingi RT kunn ei ole.
Ning hoopis teine teema on, kui palju nendest RTX kaardi omanikest reaalselt (rohkem kui kaks korda) ray tracingut või/ja DLSS-i kasutab. _________________ /digitaalselt allkirjastatud/
sa ei või postitada uusi teemasid siia foorumisse sa ei või vastata selle foorumi teemadele sa ei või muuta oma postitusi selles foorumis sa ei või kustutada oma postitusi selles foorumis sa ei või vastata küsitlustele selles foorumis sa ei saa lisada manuseid selles foorumis sa võid manuseid alla laadida selles foorumis
Hinnavaatlus ei vastuta foorumis tehtud postituste eest.