Ma ei teadnudi, et siin sellised väikesed punased koos on, kes kõiges seda püha võrdust taga ajavad.
Vähemalt ma pole suur roheline troll nagu sina
Scart kirjutas:
Kui ühel tootjal on teise ees eelis, kasutatakse neid eeliseid, mitte ei lülitata neid välja kuna kellegi feefee'd internetis haiget saavad.
Sa võtad seda ainult inimese perspektiivist kes kasutab seda isiklikus arvutis. Jah siis võib teha mida iganes.
Reviewerid ei saa sama teha, kuna see oleks tugevalt biased ja nad saaks põhjusega kriitikalaviini kaela kui nad nii testima hakkaksid.
Ma ei ole kedagi teist näinud kuskil nõudmas, et nii testitaks. Sellise "ettepaneku" saab esitada ainult troll või fanboy.
Scart, mida sa sogad? Sina ise ajad ju siin võrdsust taga ja nutad, et nvidiale tehti liiga... aga okei, krooniliseks kujunenud fänboyismi vastu ei saa ei ussi, ei püssirohi. Sa oled ravimatu. _________________ Lugupeetud AHV, enne kui vaidlema hakkad, mõtle hästi järgi, kas see ikka on tark mõte...
Sa võtad seda ainult inimese perspektiivist kes kasutab seda isiklikus arvutis. Jah siis võib teha mida iganes.
Reviewerid ei saa sama teha, kuna see oleks tugevalt biased ja nad saaks põhjusega kriitikalaviini kaela kui nad nii testima hakkaksid.
Ma ei ole kedagi teist näinud kuskil nõudmas, et nii testitaks. Sellise "ettepaneku" saab esitada ainult troll või fanboy.
Mida kuradit sa ajad?
Ülevaadete kirjutajad teadlikult ei kasuta ühe tootja poolt toodetesse pandud featuuri, sest ühe tootja progressiivsema toote demonstreerimine oleks "biased"? Mul on tunne, et sina ja su sõps Vondur eksisteerite mingit paralleeluniversumis.
Sa võtad seda ainult inimese perspektiivist kes kasutab seda isiklikus arvutis. Jah siis võib teha mida iganes.
Reviewerid ei saa sama teha, kuna see oleks tugevalt biased ja nad saaks põhjusega kriitikalaviini kaela kui nad nii testima hakkaksid.
Ma ei ole kedagi teist näinud kuskil nõudmas, et nii testitaks. Sellise "ettepaneku" saab esitada ainult troll või fanboy.
Mida kuradit sa ajad?
Ülevaadete kirjutajad teadlikult ei kasuta ühe tootja poolt toodetesse pandud featuuri, sest ühe tootja progressiivsema toote demonstreerimine oleks "biased"? Mul on tunne, et sina ja su sõps Vondur eksisteerite mingit paralleeluniversumis.
Saa nüüd aru! Kui kõik mängud toetaks day1 DLSS'i siis fine, olgu see peal. Aga ei ole ju. Et siis hakkame osasid mänge testima teistmoodi kui teisi?
Witcher toetab Nvidia hairworksi. Aga millegipärast kõik testid on tehtud see ilus featuur OFF'i pandud.
Kirjuta siis HUBi, et las lükkavad ka selle hairworksi igalpool sisse kus see võimalik. Nvidia featuur ju, peab sees olema
Saa nüüd aru! Kui kõik mängud toetaks day1 DLSS'i siis fine, olgu see peal. Aga ei ole ju. Et siis hakkame osasid mänge testima teistmoodi kui teisi?
Witcher toetab Nvidia hairworksi. Aga millegipärast kõik testid on tehtud see ilus featuur OFF'i pandud.
Kirjuta siis HUBi, et las lükkavad ka selle hairworksi igalpool sisse kus see võimalik. Nvidia featuur ju, peab sees olema
No aga milles küsimus. Erinevad mälude ja tuuma kellad ju ka mõjutavad jõudlust, ja kuna meie kohe kindlasti ei ole biased, hakkame testima kõiki kaarte 1 gigase tuumakiiruse ja 14GB mälukiiruse peal. Mitte mingit biast ole, kõik kaardid on alati täpselt sama kiired ja siis on ju kõik ometi aus!
Kogu selle DLSS teema ümber on rohkem kära, kui asi ise üldse väärt on.
Seni kuni native reso pildikvaliteet kaalub üle DLSS-ist saadava fps boosti, ei näe ma mitte mingisugust põhjust, miks ma peaks seda gimmick'it kasutama (mõni kindlasti hakkab nüüd näost roheliseks minema selle sõnakasutuse peale). Eriti pull on veel see, kui võrdlusteks kasutatakse pilte, aga mitte videot. DLSS-i puudused tulevad välja just liikuva pildi puhul.
Kogu selle DLSS teema ümber on rohkem kära, kui asi ise üldse väärt on.
Seni kuni native reso pildikvaliteet kaalub üle DLSS-ist saadava fps boosti, ei näe ma mitte mingisugust põhjust, miks ma peaks seda gimmick'it kasutama (mõni kindlasti hakkab nüüd näost roheliseks minema selle sõnakasutuse peale). Eriti pull on veel see, kui võrdlusteks kasutatakse pilte, aga mitte videot. DLSS-i puudused tulevad välja just liikuva pildi puhul.
Ajasid äkki ühe teise kolmetähelise fiitsuriga segi? DLSS omab temporal datat ja "teab", mis viisil pildil olev näidatu liigub. FSR seda ei tea. Mis selgelt väljendub kga iga järgneva versiooniga vähenevas ghostingus. Aga noh, kui ideaaljuhul parema kui native pildi puhul veel 40-50% jõudluselisa saamine on gimmick, siis mis ikka
tl;dw
allapoole fsr ultra qualityt kannatab fsr rohkem.
kui algne reso väiksem, siis fsr kannatab rohkem.
avengeris on taa kräpp oma ghostimisega, dlss nähtavasti kasutab oma aa-d ja seega väldib selles osas ghostimist.
necromundas on mingi lugu particle effektidega, kus dlss puhul on neid kõvasti rohkem, eeldatavasti mingi bug.
ta küll seda ei märganud või märkinud aga fsr shimmerib praktiliselt igas zoomitud näites päris tugevalt, osalt on näha ka zoomimata pildil.
nagu ikka, teravad ääred ja eriti võred või kitsad jooned on koht, kus upscale ja selle kvaliteet kõige lihtsamini silma hakkab.
võib-olla veidi maitse asi aga mulle nähtav sharpening ei meeldi. _________________ - londiste
...aga mina ei saa kunagi suureks!
Ülevaadete kirjutajad teadlikult ei kasuta ühe tootja poolt toodetesse pandud featuuri, sest ühe tootja progressiivsema toote demonstreerimine oleks "biased"?
Jah. Täpselt. Sellist küsimust ma eeldaks esimest kuud arvutimaailmas olevalt inimeselt kes veel asjadest täpselt aru ei saa. Mitte sinusuguselt kes eeldatavalt üle kümnendi on neid asju jälginud.
Scart kirjutas:
Erinevad mälude ja tuuma kellad ju ka mõjutavad jõudlust, ja kuna meie kohe kindlasti ei ole biased, hakkame testima kõiki kaarte 1 gigase tuumakiiruse ja 14GB mälukiiruse peal. Mitte mingit biast ole, kõik kaardid on alati täpselt sama kiired ja siis on ju kõik ometi aus!
See tuleneb rauast ja on tootja poolt seatud default. Keegi ei keela Nvidial teha 5Ghz kaarti mille mälud jooksevad 32Gbps. Kui selline kaart eksisteeriks AMD ~2,5Ghz ja 16Gbps vastu, siis nii seda ka testitaks mitte ei hakataks seda downclockima.
Taktsageduste ühtlustamist testititakse tavaliselt ainult IPC testimiseks, et näha palju tööd mingi raud suudab teha sama kella juures. Muidugi on asju mida reviewerid muuta ei saa nagu vahepuhvrite (L1, L2 jne) suurus jne.
Tarkvaralised featuurid on hoopis teine asi. Eriti kui need on toetatud ainult ühe tootja raual (ekslusiiiv) ja mõjutavad jõudlust. Selliseid asju ei hakata kunagi by default ssse lülitama. Isegi Nvidia ise eii lülita sul DLSS automaatselt sisse mängu käivitusel. See on ikkagi mängutootja rida juba mida tema graafikasätted teevad ja mida need sisse lülitavad. Hakata tegema erisusi a'la ühel lülitame sisse DLSS, teisel lohistame kontrollpaneelis OC slaiderid lõpuni vms, siis tuleks kokku paras segadus.
Isegi Nvidia ise eii lülita sul DLSS automaatselt sisse mängu käivitusel.
mängu seadeid muudad ikka sina või vaikimisi seaded paneb paika mängu tootja. kumbagiga neist ei tegele otseselt nvidia.
mis nvidia tegemistesse puutub, siis kui geforce experience kasutad, mis nvidia soovitatud seadeid mängudele peale saab panna (käsitsi või ka automaatselt) siis absoluutselt lülitatakse sisse ka dlss kui see võimalik/vajalik on. _________________ - londiste
...aga mina ei saa kunagi suureks!
londiste, No täpselt minu point. Nvidia pakub featuuri aga kui GFE välja arvata (mis nõuab kasutajapoolset sekkumist) ei lülitata seda vaikimisi sisse.
Sama lugu on ka teiste sätetega Nvidia kontrollpaneelis a'la Ultra Low Latency mode jms.
eks mängumootori eripärad. mitmed mängud, kus FPS on juba suhteliselt suur (F1 2021 1080p ultra enamik kõrgema otsa kaarte läheb üle julgelt 200fps), seal tundub nvidia draiveri overhead suht valuliselt mõjuvat.
edit: valesti lugesin, siiski reliisi draiver, mitte beta
viimati muutis High-Q 20.07.2021 21:43:17, muudetud 1 kord
Huvitav et mis põhjusel see perfivahe nii suur on. Ass Creed Valhalla puhul on AMD samamoodi täiesti kaugel nvidiast ees.
Ära ostetud AMD poolt? Samas see pole ainuke mäng millega praktiliselt kahekordne fps tõus on viimaste diveritega. Just 6800xt ja ilmselt 6900xt need said korraliku tõusu. _________________ Punktkeevitus patareidele/akudele. Akutrelli/laptopi/e-bike. PM
viimati muutis XeStAiSy 20.07.2021 22:05:46, muudetud 2 korda
Huvitav et mis põhjusel see perfivahe nii suur on. Ass Creed Valhalla puhul on AMD samamoodi täiesti kaugel nvidiast ees.
F1 DLSS implementatsioon kah kaasa ei aita. Ainult +45% perf ja sedagi performance režiimis. Kusjuures sätetest ei saa DLSS Quality peale lülitada. Suht kummaline.
Samas star citizen ennem oli 35-45fps nüüd aga saad juba üle 60ne samas kohas. Gen 12 tuleb nendeL alles oktoober detsember. Server meshing alles kevadel ilmselt. Kuigi muutust nägin just uute driveritega. Samas mängu tuli rohkem contenti. See ikkagi PTU põhjal. _________________ Punktkeevitus patareidele/akudele. Akutrelli/laptopi/e-bike. PM
Ei tea küll miks Nvidial nüüd nii kiire hakkas? . Loetud päevade jooksul kuulutati välja ARM tugi ja nüüd DLSS SDK samuti. Lisaks DLSS sharpening slaider kah veel.
Ei tea küll miks Nvidial nüüd nii kiire hakkas? . Loetud päevade jooksul kuulutati välja ARM tugi ja nüüd DLSS SDK samuti. Lisaks DLSS sharpening slaider kah veel.
Loomulikult ARMi tugi pandi sisse paari päevaga ja SDK pandi ka kokku ainult paari päevaga. Sinu arusaam tarkvaraarendusest on jätkuvalt tasemel
necromundas on mingi lugu particle effektidega, kus dlss puhul on neid kõvasti rohkem, eeldatavasti mingi bug.
internet räägib, et bug aga mitte upscaling lahenduste juures. taa-ga on particleid vähem näha.
heretic666 kirjutas:
Huvitav et mis põhjusel see perfivahe nii suur on. Ass Creed Valhalla puhul on AMD samamoodi täiesti kaugel nvidiast ees.
valhallaga peaks olema veidi teine lugu aga paljudel juhtudel paistab asi taanduvat fillrate peale. seda on rx6000 seerial (palju) rohkem kui rtx3000.
edit:
selles põlvkonnas on 6800xt vs 3080 vist suures pildis jõudluses see kõige ühtlasem võrdlusmoment.
6800xt game/boost clock on 2250mhz ja reviewd näitavad, et keskeltläbi seal see ka jookseb. selle juures on pixel fillrate 288gp/s ja texel fillrate 648gt/s.
3080 jookseb nagu ikka kõrgemal kui spec ja reaalne klokk mängudes on 1930-1950mhz, ütleme 1950mhz. selle juures on pixel fillrate 187gp/s ja texel fillrate 530gt/s
ehk siis 6800xt pixel fillrate on 54% suurem ja texel fillrate 22% suurem. _________________ - londiste
...aga mina ei saa kunagi suureks!
Ei tea küll miks Nvidial nüüd nii kiire hakkas? . Loetud päevade jooksul kuulutati välja ARM tugi ja nüüd DLSS SDK samuti. Lisaks DLSS sharpening slaider kah veel.
Loomulikult ARMi tugi pandi sisse paari päevaga ja SDK pandi ka kokku ainult paari päevaga. Sinu arusaam tarkvaraarendusest on jätkuvalt tasemel
Ja sinu arusaamine sarkamist on 5 aastase lapse tasemel. Selge see, et need protsessid algasid juba varem kui oli selge millist ohtu FSR endast kujutab. Nvidiale on alati meeldinud ennast pildil hoida aga ainult siis kui keegi konkureerib. Kui konkurents puudub, siis nad teevad hea meelega oma proprietary kraami kitsale platvormile. Ainult konkurents on see mis sunnib neid selliseid asju tegema.
sa ei või postitada uusi teemasid siia foorumisse sa ei või vastata selle foorumi teemadele sa ei või muuta oma postitusi selles foorumis sa ei või kustutada oma postitusi selles foorumis sa ei või vastata küsitlustele selles foorumis sa ei saa lisada manuseid selles foorumis sa võid manuseid alla laadida selles foorumis
Hinnavaatlus ei vastuta foorumis tehtud postituste eest.