See oli veel parem. Aga neile neid kaarte toodetakse ja reklaamiga müüaksegi
See oli muidugi puhas reklaam jälle. _________________ Sõim ja räuskamine läheb SIIA
Eile vinguti , et liiga kallis.
Täna vingutakse , et liiga odav.
Ilmselt on mõned hiljutised 4090 ostjad Jenseni huumori tõttu eluaegsed Nvidia vihkajad.
AMD vs Nvidia.CES Esitlus
Nvidia tõmbas AMD-le esituse kvaliteediga vee peale.
Amd esitlust oli raske vaadata. Meenutas NLKP kongressi. 45 mimutit ülistavat kõnet. Parim, kiireim,kauneim,vägevaim mingite grafikute taustal (mida ma isiklikult ilma sõltuvate testijateta ei usu).
Nvidia kasutas seevastu kogu selle tohutu ekraani võimalused ära. Lisaks veel Jensen kes seletab raketiteadust nii , et iga juku saab sellest aru.
AMD-lt lisaks veel arusaamatu ja segadust tekitav GPU-de osa ja Lisa puudumine. Kindlasti tahtsid kõik kuulata kui hea mäng starfield oli. Nad leiavad aega CES-i pealeaval 2024a ühe kõige suurema faili promomiseks ja ei leia aega uute GPU-de jaoks.
Võiks oletada, et 5070 ajas nad tõsiselt paanikasse.Püüdes asju kuidagi parandada , tehti asja veel hullemaks.
Eks kuu teises pooles selgub kuidas 50xx testides tava olukorras käitub ja kunagi saab ka AMD GPU-de sõltumatuid teste näha.
Praegu on selline tunne, et AMD kaotas selle hooaja juba stardis. Esitluse taustal on küll inimestele raske seletada miks nad AMD-d eelistama peaks. Muidugi hind ja tegelik perf on olulised. Samuti uuendatud upscalerite kvaliteet ja AMD puhul ka kas nad suudavad FSR 4.0 kohe launchi ajal välja lasta.
btw need kes vinguvad 4090 perf uue DLSS-iga üle.Ma isegi ei alustaks selle teemaga. FSR4 on ka RDNA 4 locked ja AMD numbrid tulevad kindlasti FSR4-ga.
link
Järjekordne AMD maha magatud võimalus. PS5/Xboxi peal on unified mälu arhitektuur punasel tiimil juba täiesti olemas aga ML vankri ette pole suudetud seda rakendada.
Ma jällegi näen AMD'l tõusupotensiaali, sest terve eelmise aasta olid nad negatiivse tootlusega aktisa mõttes. Nvidia rallis, kuid Nvidia seina ennustati 150 peal, ning seal ta ongi pidama jäänud. Nvidia ise kommenteeris, et enam nii suuri AI müüke ei tule. Ehk ennustavad ise ka väiksemaid müügi nr'd.
AMD'l on potentsiaali tõusta uuesti üle 200.
Update:
Nvidia langes just -15% ja AMD "ainult" 5.6%, kuna Hiina AI DeepSeek tuli välja oma tehisaru mudeliga, mis pidi olema efektiivsem.
Kuna AMD'l ei ole munad ühes kotis nagu Nvidial, siis mõjutas ka vähem.
nVidia sai rohkem pihta, kuna uudis käib pmst nende H100 pihta, mis on selle uudise raames on vähem vajalikud ja saab ka odavama H800ga läbi nagu Deepseek seda tegi.
Saan aru et Deepseek-r1 on odavalt tehtud ja seda saab odavamalt müüa aga ma olen selle 32B versiooni paar nädalat oma koduarvutis jooksutanud. Testide järgi peaks pädev olema aga minu katsetuste põhjal on kõik lääne mudelid kamaluga erinevates asjades pädevamad. Isegi kui vastus on sarnane, võtab selleni jõudminse Deepseek-r1'l alati kauem aega. Peale hinna keele ja kommunismi kiitmise pole isiklikult veel leidnud ühtegi use case'i sellele.
Sisuliselt leitakse, et NVidia datacenteri 90+ marginaalide ajastu hakkab läbi saama, sest see superkasumlikkus on pannud väga paljud ettevõtted tööle, et leida alternatiivseid võimalusi, et osa sellest turust endale saada.
Kõik suuremad Nvidia kliendid arendavad oma kiipe, mis ei pea olema paremad kui Nvidia aga oleksid mõistliku perf/USD suhtega, alternatiivse riistvara arendus (Cerebras ja Groq), tarkvara arendamine väljaspool CUDA-t jne.
DeepSeeki on open source ja vähendab ca 45x riistvara vajadust ning ilmselt võetakse ka OpenAI, Google ja teiste AI mudelite arendajate poolt kasutusele. Kokkuvõttes tähendab see seda, et Nvidia väärtus ei pruugi aasta pärast nii kõrge olla kui täna.
PS.
Artiklis pannakse ka AMD-le puid alla nende Linuxi driverite osas .
Sisuliselt leitakse, et NVidia datacenteri 90+ marginaalide ajastu hakkab läbi saama, sest see superkasumlikkus on pannud väga paljud ettevõtted tööle, et leida alternatiivseid võimalusi, et osa sellest turust endale saada.
Kõik suuremad Nvidia kliendid arendavad oma kiipe, mis ei pea olema paremad kui Nvidia aga oleksid mõistliku perf/USD suhtega, alternatiivse riistvara arendus (Cerebras ja Groq), tarkvara arendamine väljaspool CUDA-t jne.
DeepSeeki on open source ja vähendab ca 45x riistvara vajadust ning ilmselt võetakse ka OpenAI, Google ja teiste AI mudelite arendajate poolt kasutusele. Kokkuvõttes tähendab see seda, et Nvidia väärtus ei pruugi aasta pärast nii kõrge olla kui täna.
PS.
Artiklis pannakse ka AMD-le puid alla nende Linuxi driverite osas .
Nii tõenäoliselt läheb jah. Nvidia aktsiaid mina veel ei tõtta ostma. Suurem langus on alles ees, ning tõenäoliselt nende RTX5000 seeria kukub ka näoli maha vs RTX4000 tulemused ja sealt hakkab langema.
Nvidia oli lihtsalt esimene, kes panustas AI peale suures mahus. Kuna summad, mis seal liikusid viimased aastad olid ulmelised, siis see panigi teisi liigutama. Nvidia panustas ka lisaks oma arenduse softi peale palju. See osa ning lisaks AMD kehv läpakate GPU osas konkurents nvidiaga on eelis siiski viimasel veel.
AMD kasuks räägib ka edasine leping SONY konsoolidele partnerina järgmise põlvkonna jaoks, mis pole kaugel ca 2 aastat. Ma pakun samuti, et sõltumata, mida Dedicated GPU osas AMD suudab teha, siis neil on üsna lai haare juba - serverid, AI, console, consumer CPU ja teised vähemal määral. Kui nad saavad läpakate ja PC GPU osas kuhugi paremasse seisu, siis on kasv isegi veelgi suurem potentsiaal.
Nvidia kallis hind võib neile väga raskeks minna õigustada seda.
Päris hea kokkuvõte. pikk aga võtab hästi kokku Nvidia ja AMD GPU olukorra. AMD osas lõpus nõustun ka enamuses, kui nad käkivad ära 9070 seeria ka nüüd, siis ei ole neil lootustki edaspidi ka heade toodetega enam kanda kinnitada. Pikk paus high-endis ja mid segment flop = kedagi ei koti kui nad poolmuidu ei hakka neid müüma.
Link _________________ Sõim ja räuskamine läheb SIIA
AMD is reportedly working on a GPU to beat the RTX 5090 at its own game
https://www.xda-developers.com/amd-gpu-to-beat-rtx-5090/ _________________ 17/1/2023, Scart: "Selle sajandi senise möödunud aja üks suuremaid skandaale on hetkel lahti rullumas..."
4/5/2023, Phil Spencer: "It’s just not true that if we go off and build great games, all of the sudden you’re going to see console shares shift in some dramatic way."
Jutt käib siis N48 kivist millel clamshell 32GB (ilmselt ECC) mälu. Selge Pro kaart mis hakkab maksma üle 2000€.
5090'ga pole siin midagi pistmist. Keegi kuskil ilmselt nägi, et 32GB SKU on planeerimisel ja eeldas automaatselt, et see tuleb gaming kaart.
Jutt käib siis N48 kivist millel clamshell 32GB (ilmselt ECC) mälu. Selge Pro kaart mis hakkab maksma üle 2000€.
5090'ga pole siin midagi pistmist. Keegi kuskil ilmselt nägi, et 32GB SKU on planeerimisel ja eeldas automaatselt, et see tuleb gaming kaart.
Päris palju on neid kes oma igapäevases PCs LLMe jooksutavad. AFAIK tuleb ilma ECCta consumer kaart , AMD kasutab GDDR6 võmalust oma 9070XT'd pimpida. Proffide maailmas teenitakse anyway raha >64GB HBM mäluga kaartidega.
heretic666 kirjutas:
Ta võib 128GB ka sinna peale laduda, ega see 5090st seetõttu paremaks tee.
Võrdses 32GB kastmes on tõesti 5090 igas jõudluse aspektis 9070XTs üle ja väga pika puuga aga kui 9070XT omaks 128GB GDDR6 mälu ja maksaks sama palju kui 5090, siis ta müüks >10x rohkem kui 5090 >80GB mäluga AI turu jaoks suunatud kaardid on rämedalt kallid (20-30k) aga ikka ostetakse neid ja päris mitme miljardi eest. 128GB kaart võimaldaks jooksutada kordades suuremaid ja nutikamaid valmis treenitud LLMe kui 32GB peal. Kui Graafika renderdamise vaatest on videokaartidel vaja päris palju jõudu iga kaadri renderdamiseks, siis valmis treenitud mudelite jooksutamine aka inferencing vajab ilgelt kärakat RAMi ja järgmisena peab sellel RAMi olema rämedalt suur läbilase. Tänapäevase GPU vaatest compute osa taha jõudlus ei jää, mälu suurus ja ribalaius on kaks peamist pudelikaela. Mälu suurus on kriitilise tähtsusega, sest see määrab ära paljude parameetritega (LLMi vaatest parameeter on nagu neuron inimese ajus) mudelit õnnestub jooksutada. Mida rohkem mälu, seda nutikam mudel ja seda laialdasemalt saab seda erinevate ülesannete jaoks kasutada. Näiteks minu arvutis jookseb tiguaeglaselt 70 miljardi parameetriga Meta Llama3.1 (nüüd on juba 3.3 ka väljas), sest ta tahab saada ca 42GB kiiret ehk videokaardi mälu. Need kellel see olemas on, saavad näiteks õpetadada täpselt sama mudelit oma keskkonnast põgenema teadustöö käigus.
Btw mudelite treenimine on natuke teine teema, seal on compute osa tähtsus suurem.
No hetkel on see 32GB gaming seerias olev kaart siiski ühe allika põhjal.
Nagu ma teises teemas ütlesin - usun siis kui näen, sest viimased 13 aastat pole midagi sellist kordagi tehtud.
Kommentaarid on üleliigsed. Soovitan vaadata, huumorit omajagu lisaks olulistele punktidele. Nagu ma vist nvidia teemas mainisin GPU turu olukord tavatarbija jaoks on F UP. Elame näeme varsti kas muutub või ei.
Link _________________ Sõim ja räuskamine läheb SIIA
sa ei või postitada uusi teemasid siia foorumisse sa ei või vastata selle foorumi teemadele sa ei või muuta oma postitusi selles foorumis sa ei või kustutada oma postitusi selles foorumis sa ei või vastata küsitlustele selles foorumis sa ei saa lisada manuseid selles foorumis sa võid manuseid alla laadida selles foorumis
Hinnavaatlus ei vastuta foorumis tehtud postituste eest.