Kaart 3080. 1440p resol vaadates 1080p 60fps YT videot läks voolu tarve kastil tavalise 110w asemel nii 420w peale ja mulle tundub ka, et pikemal vaatamisel selline voolutarbe erinevus ei õigusta saavutatud paranenud pilti. 1-4 mingit muutust nagu ei andnud. Samas vanu Format Factory programmiga upscaletud (640x480 pealt 720p peale, et Youtubes oleks parem) videosi vaadates on raske tajuda pildi kvaliteedi paranemist
Kõva avaldus ikka. Ju siis on mingi muu müstiline põhjus miks mängud kust see sitt välja roogitakse paremini jooksma hakkavad.
Justkui mingi bloated drm kood (ubisoftil oli mingi aeg isegi mitmekordne drm peal) ei mõjutaks midagi. Muidugi mõjutab. Lihtsalt mitte kõigil mängudel.
Täpselt samamoodi nagu kõigil mängudel ei ole shader compilation jama.
Nüüd tulevad jälle teatud isikud siia kirjutama, et mängud on kehvad ikkagi ja teema ammendub kuna you know nvidia.... _________________ Sõim ja räuskamine läheb SIIA
mängud on ikka kehvad, aga põhiotsus, miks 3070 tuli nagu tuli, oli chipide saadavus:
nvidia valis GDDR6 mäluchippide tootjaks ja partneriks Samsungi. Kaartide supply chain on juba sihuke, et sul on päriselt tootmiseks tegelikult vaja mitu kuud ette orgunnida kogu ahel, et planeerida OEM-ide tooteliine, sh chipid ette koguda. 3070 launchiti sügis 2020. Samsungil EI OLNUD veel 16Gbit kivisid saadaval, need tulid välja alles talv 2021 ja esimesed kaardid, mis neid kasutasid oli 3060d (aka 6x 16Gbit chipid). Kuna GPU disainitakse, siis otsustatakse ka mäluinterfacede arv, mis määrab mälusiini laiuse. kuna laiuseks sai 256bit ja ühe interface laius on 32bit, siis ongi võimalik paigaldada täpselt 8 kivi, ei ole võimalik võtta see number suvalisest pastakast. Heakene küll, äärmisel juhul oli võimalik ka teha 3090-t ja teha lisaloogika-lülitid ja teha kahepoolne kaart 16 kiviga. 3090 oli keda-kotib-see-hind kaart, seal keegi kopkaid ei lugenud. kahepoolne kaart on tunduvalt kallim ja ka mäluchipid ei olnud tol ajal soodsad, ehk launchiks olnuks kahepoolne 3070 julgelt 100USD kallim, mis kindlasti ei sobinud. sealt ka otsus 8GB. Ei olnud lihtsalt teist varianti. A4000 btw launchiti kevad 2021, ju siis olid selleks ajaks juba tihedad mäluchipid saadaval.
6800/6800XT mälu partner oli micron ja neil olid esimesena 16Gbit (2GB) olemas. tough luck muidugi.
3070ti on teine asi, see kaart tõesti ei täida ühtegi mõistlikku auku, peale rahakoti oma. ju siis GA104 vahvlid said küpsemaks ja oli lademetes vanu odavaid 8Gbit GDDR6X kivisid, et kiiresti krüptonäljastele penidele kont ette anda. niikuinii osteti kõik ära.
no ja tuleme tänapäeva juurde. odaval kaardil (või siis säästuklassi) ei saagi üle 8GB VRAM tänapäeval olla, sest mitte keegi ei tee tihedamaid kui 16Gbit mäluchippe ja max mis üldse 128bit siiniga ehitada, ongi 8GB (jällegi, välja arvatud kahepoolne või topeltkividega kaart).
põhiotsus, miks 3070 tuli nagu tuli, oli chipide saadavus: nvidia valis GDDR6 mäluchippide tootjaks ja partneriks Samsungi.
See on selgelt vale. 30 seeria mälukivide peamine tarnija oli siiski Micron oma GDDR6X variandiga.
High-Q kirjutas:
Samsungil EI OLNUD veel 16Gbit kivisid saadaval, need tulid välja alles talv 2021 ja esimesed kaardid, mis neid kasutasid oli 3060d (aka 6x 16Gbit chipid).
See on samuti vale. Samsung pakkus sellel hetkel juba 16Gbps ja 18Gbps 16Gb kive. Juba 2018 aastal tuli Titan RTX mis kasutas 24GB GDDR6 ja seal oli 12 kivi ühel poolel. Tõsi see oli tollal 14Gbps kiirusega.
tsitaat:
In January 2018, Samsung began mass production of 16 Gb (2 GB) GDDR6 chips, fabricated on a 10 nm class process and with a data rate of up to 18 Gbit/s per pin.
See millest sina räägid talv 2021 oli 16Gb GDDR6X kivid mis võimaldasid teha ühepoolse 3090Ti. Micronil tõesti 2020 ei olnud 16Gb GDDR6X kive veel. Samas see ei puutu teemasse, kuna 3070 kasutas tavalist G6 mitte G6X.
High-Q kirjutas:
Kuna GPU disainitakse, siis otsustatakse ka mäluinterfacede arv, mis määrab mälusiini laiuse. kuna laiuseks sai 256bit ja ühe interface laius on 32bit, siis ongi võimalik paigaldada täpselt 8 kivi, ei ole võimalik võtta see number suvalisest pastakast.
Võis kasutada 320bit nagu 3080. Võis kasutada 2GB kive. Nvidial oli valikuid. Tegelik põhjus oli forced obsolescence ja A seeria kaardid: https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units#RTX_Ax000_series
Kui Nvidia oleks RTX kaartidele andnud sama palju mälu kui A seeriale, siis poleks inimesed A seeriat ostnud. Ja vaadates A seeria mälumahte on need palju mõistlikumad: 6GB kõige alumises otsas ja edasi läheb juba 12-16-20-24-48 jne.
Eksisteerisid ka 16GB 3070 ja 20GB 3080. Esimest ei väljastatud kunagi aga mõned õnnelikud said 20GB 3080 omale siiski.
High-Q kirjutas:
no ja tuleme tänapäeva juurde. odaval kaardil (või siis säästuklassi) ei saagi üle 8GB VRAM tänapäeval olla, sest mitte keegi ei tee tihedamaid kui 16Gbit mäluchippe
Kas kuskil on reegel, et säästuklassi kaart PEAB olema 128bit? Jah 512bit on keerukas ja seda pole kaua kasutatud aga 256bit või isegi 320bit ei muuda kaarti märgatavalt kallimaks vs 128bit.
Ühtlasi GDDR7 võib muuta seda, et max kivi suurus on 2GB. Lisaks suurem läbilase.
High-Q kirjutas:
ja max mis üldse 128bit siiniga ehitada, ongi 8GB (jällegi, välja arvatud kahepoolne või topeltkividega kaart).
no ja tuleme tänapäeva juurde. odaval kaardil (või siis säästuklassi) ei saagi üle 8GB VRAM tänapäeval olla, sest mitte keegi ei tee tihedamaid kui 16Gbit mäluchippe ja max mis üldse 128bit siiniga ehitada, ongi 8GB (jällegi, välja arvatud kahepoolne või topeltkividega kaart).
12gb uued kaardid on alla 400 euro: https://www.hinnavaatlus.ee/2050428/sapphire-pulse-radeon-rx-6700-xt/
Kasutatud peaks leidma 300 euri ümber. Peaks ju küll hea hind olema?
Nvidia tõi 2016a 8gb mainstreami, mis oli VÄGA HEA. Nüüd 6 aastat hiljem võib rahulikult edasi liikuda
Ammu aeg juba. _________________ So, at the end of the day, after I have butchered all the nvidiots all around me, standing alone in a pool of blood surrounded by the corpses of my victims, a horrible truth reveals itself to me: I am an amd\ati fänboy...and I must do my dark masters bidding, for I am damned for all eternity...
sant, liigutaksegi ju edasi aga nagu näed siis osad tegelased võtavad eelmise generatsiooni midrange kaardi ja üritavad sellega 2 aastat hiljem väljatulnud mängu pea maksimum sätetel mängida ja kui ei jookse hästi siis rõõmsalt huilgavad, et nää - megafeil.
Auron, Kaugel sellest. 1080p low võib juba võtta 8GB kaardid hingeldama. 6GB on veel ääri-veeri kasutatav ja 4GB peal ei lähe mäng käimagi.
Muljed põhinevad viimasest Tech Yes videost:
Auron, Texture Quality on Shadow Q järel kõige kergem seade üldse. Abspluutne max 5FPS. Me räägime et RT sisselülitamine, mis võtab vähemalt 50%FPS ära on kõige vajalikum seadetest. Aga kui Texture Quality soovid max keerata, siis see on big NO bc rohelised prillid.
Ma ei mäleta ühtki mängu kus ma Texture Quality kallale oleks läinud. See jääb alati Ultra p3ale, isegi kui teised mediumi peale keerata, sest see ei maksa GPU jõudluse osas midagi.
Samuti on naljakas kuidas medium ja RT seees perfib 3070 6800XTst kehvemini.
Räägime asjast ikka õieti.
3070 ja kõik 8 GB VRAM-iga kaardid on täiesti toimivad ja töötavad ka edaspidi. Mõne mehe jutust võib siin välja lugeda, et 3070 peaks kohe minema viskama.
Jensenil on muidugi plaan juba olemas. DLSS 4.0-is paned menüüst medium tekstuurid ja need tehakse automaatselt 4k tekstuurideks.
Räägime asjast ikka õieti.
3070 ja kõik 8 GB VRAM-iga kaardid on täiesti toimivad ja töötavad ka edaspidi. Mõne mehe jutust võib siin välja lugeda, et 3070 peaks kohe minema viskama.
Jensenil on muidugi plaan juba olemas. DLSS 4.0-is paned menüüst medium tekstuurid ja need tehakse automaatselt 4k tekstuurideks.
See DLSS 4.0 tuleb ainult uuele RTX5000 seeriale Nagu ikka Nvidial kombeks-persse need vanad kliendid ja nende toetamine.
Praegu DLSS3.0 fragegenerationiga seda näha ju. Seda ka ei ole RTX3000 seerial.
Seega see ei paranda kuidagi praeguste Nvidia RTX 8GB kaartide omanike tuju.
Edit:
Nvidia puhul lihtsalt ei saa kindel olla, et juhuk kui tuleb mingi uuem featuur välja siis ei pruugi seda kasutada saada, ilma et peaks jälle raskelt teenitud raha raiskama uue kaardi näol!
Kui RTX3070 seeria puhul said veel mõistliku hinnaga x070 seeria kätte, siis uue seeria saad +300$ kallimalt.
Ning see ajalooline perf/raha suhe kaob ära, kus uue seeriaga said X070 segmendis 1-2 klassi kõrgema perfi. Nüüd saad kõrgema perfi kuid maksad täpselt samapalju protsentides otsa.
AMD ei ole siin ka puutumata oma RX7900XT'ga, mis peaks olema 599€ max, sest on tegelikult RX6800XT järglane.
viimati muutis Viilutaja 26.04.2023 16:30:40, muudetud 3 korda
Tegelikult seletas Nvidia ise ära miks nad ei saa FG-d vanematele põlkvkondadele teha. Kõlas üsna usutavalt.
Mälu järgi on DLSS 3 ja FG kood githubis lahti ja igaüks võib seda ise lähemalt uurida.
Loomulikult ootame me ära AMD poolse tõe kontrolli, aga kui nad ikka õigust räägivad ,siis on AMD-l jälle väga suured probleemid.
Tegelikult seletas Nvidia ise ära miks nad ei saa FG-d vanematele põlkvkondadele teha. Kõlas üsna usutavalt.
Mälu järgi on DLSS 3 ja FG kood githubis lahti ja igaüks võib seda ise lähemalt uurida.
Loomulikult ootame me ära AMD poolse tõe kontrolli, aga kui nad ikka õigust räägivad ,siis on AMD-l jälle väga suured probleemid.
võimatut ei ole midagi, loomulikult võib ka puhtalt shaderitel kõiki selliseid asju teha. küsimus on jõudluses, eriti mängimise seisukohast, kus räägime selleks saadaval olevast võrdlemisi väiksest hulgast millisekunditest. _________________ - londiste
...aga mina ei saa kunagi suureks!
Tegelikult seletas Nvidia ise ära miks nad ei saa FG-d vanematele põlkvkondadele teha.
Nad seletasid, et selle perf oleks kehvem vanematel RTX kaartidel, sest nagu londiste juba täpsustas omavad ka vanemad kaardid OFA rauda.
Muidugi mingeid numbreid või benchmarke/pilte Nvidia sellest ei jaganud mis probleemid vanematel kaartidel esineks. Seega see võib vabalt ka vale olla segmenteerimise ja uute müügi nimel nagu nt RTX Voice puhul oli.
GTX kaardid suudavad isegi shaderitel RT teha aga vähemalt seal saab igaüks ise veenduda, et see on aeglane, kuna Nvidia lubab seda.
SirAskAlot kirjutas:
Loomulikult ootame me ära AMD poolse tõe kontrolli, aga kui nad ikka õigust räägivad ,siis on AMD-l jälle väga suured probleemid.
Kui AMD'l pole OFA rauda, siis nad teevad seda kuidagi teisiti. Hetkel ei tea veel milline saab tagasiühilduvus ja perf/kvaliteet olema.
FSR suutsid küll päris vanadel kaartidel edukalt tööle panna. Nvidia nõuab selle jaoks Tensor tuumasid.
Mis teema nende nvidia 3..seeriate termopatjadega on? Mingi tüüpviga? Päris mitmetel kuulutustel olen märganud selle mainimist.
Mina valiks 6700XT. DLSS-st pole kasu kui tulevikus 8GB mälu väheks jääb.
Ja kui tingimata on DLSS vaja, siis 3060 12GB on mõistlikum ja odavam (kuigi aeglasem) variant.
Ma väga rumal selle koha pealt ja nüüd oleks huvitav teada, et kui FPS erinevus on seal pea 30 mõne mänguga siis kuidas 12gb parem oleks kui 8gb? Või mis eelise ta annaks.
DLSS teeb siis pildi ilusamaks? On see mingi featuur mida saab on/off panna või automaatselt rakendub ükskõik mis seadetes mäng on?
Ma väga rumal selle koha pealt ja nüüd oleks huvitav teada, et kui FPS erinevus on seal pea 30 mõne mänguga siis kuidas 12gb parem oleks kui 8gb? Või mis eelise ta annaks.
DLSS teeb siis pildi ilusamaks? On see mingi featuur mida saab on/off panna või automaatselt rakendub ükskõik mis seadetes mäng on?
12 GB annab eelise siis kui mäng on arendatud selliselt, et vajab rohkem mälu max seadetega. Siis jääb 3060 ti alla 6700XT-le. Aga ma valiks nende mängude järgi, mida praegu mängid.
DLSS renderdab madalama resoultsiooniga (rohkem FPSi), aga silub pixlid ära suurema reso jaoks nii et tihti pole aru saada, et madalam reso on baasiks. Selle jaoks peab mängul tugi olema ja eraldi sättima.
Kevvare, kui väga lihtsalt panna siis on tegu AI poolt tehtava AntiAliasinguga. efekt on kohati nagu SSAA lükkaks sisse, ainult kui SSAA ähendas FPS 30%, siis DLSS saab samapalju juurde. Mäng peab toetama kõige viimast ver. selleks(vanemad on oma vigadega).
Aga üldiselt jah tasub vaadata näiteks HUB videot 30/50 mänguga. Ja siis vaadata kas need mängud mida praegu mängid/mängiks on paremad VRAMmuga või DLSSga. Mul näiteks AMD mängud satuvad esikümnesse pidevalt. DLSS mänge ei mängigi, või on FPS nagunii piisav ilmagi @1440p.
Tekstuurid on need mis teravuse ja detailsuse annavad mängule, samas FPS ei mõju pea üldse. VRAM suurus olulisem. Kohati annab Tekstuuride ULTRA peale keeramine parema tulemuse kui muud vidinad, samas kui nüüd VRAM väheks jääb tekstuuride mällu talletamiseks, siis võib välja hõigatud DLSS powerist alles jääda 8FPS. Alati saab tekstuure alla ka keerata, aga mingi hetk tuleb Low piir ette ja mälu ikka vähe.
Isiklik maitseeelistus, ma korra juba ämbrisse astusin FuryX, õnneks enam seda probleemi pole siinpool rindejoont;)
Mängud mis dlss + rt näiteks kasu saavad- Spiderman
VRAM- Harry Potter
sa ei või postitada uusi teemasid siia foorumisse sa ei või vastata selle foorumi teemadele sa ei või muuta oma postitusi selles foorumis sa ei või kustutada oma postitusi selles foorumis sa ei või vastata küsitlustele selles foorumis sa ei saa lisada manuseid selles foorumis sa võid manuseid alla laadida selles foorumis
Hinnavaatlus ei vastuta foorumis tehtud postituste eest.