praegune kellaaeg 19.06.2025 00:37:14
|
Hinnavaatlus
:: Foorum
:: Uudised
:: Ärifoorumid
:: HV F1 ennustusvõistlus
:: Pangalink
:: Telekavad
:: HV toote otsing
|
|
autor |
|
Dogbert
HV Guru

liitunud: 03.05.2004
|
02.12.2010 09:44:04
Linux softraid RAID1 vs RAID10 |
|
|
Rondi parameetrid:
CPU: AMD Duron 900Mhz
RAM: 640MB DDRAM
MB: DFI AD70-SC
Chipset: KT266A (VT8366-8233)
SATA kontroller: Promise Sata 300 TX4
SATA ketasteks on kaks Seagate ST3160815AS (160GB 7200rpm)
Süsteem töötab ajutiselt PATA ketta pealt (oli suurem riistvara avarii ja sai süsteem teise rondi peale tõstetud) ja tahan ta tagasi SATA ketastest RAID-i peale tõsta. Loomulikult on jutt softraidist.
Varemalt olid kettad jagatud traditsiooniliselt /, /boot, /usr, /home, /var ja /tmp (lisaks veel üks partitsioon suvaliseks hoidlaks) ja olid kõik mdadm-iga RAID1 massiivideks tehtud. Nüüd aga mõtlesin, et teeks mõnest partitsioonipaarist RAID10 - näiteks /home ja /var. Netist loetud artiklite ja üsna samalaadse raua peal tehtud testide järgi peaks nagu saama vähemalt lugemiskiiruse märgatavalt paremaks, aga kui ma siin nüüd ise igaks juhuks katsetasin - tegin mõlemale kettale täies ulatuses ühe suure partitsiooni ja tegin nad testimiseks vaheldumisi RAID1 ja RAID10 massiiviks, siis vähemalt sünteetilised testid nagu tiobench ja bonnie++ näitavad, et hoopis RAID1 on nobedam nii suurte failidega majandamisel kui juhuslike päringute tegemisel.
Siis lugesin, et RAID kiirus sõltub suurel määral "käntsaka" suurusest (chunk size) ja proovisin uuesti RAID10 massiivi chunk=256. Varemalt vaikimisi chunk oli kordades väiksem, aga lugesin jälle, et alates 2008 aasta ketastest on soovitatav chunk just 256 kuni 1MB. Nüüd näitas tiobench natuke paremat kiirust RAID10 puhul, kui see varemalt oli, aga sisuliselt mingit kiirusevõitu võrreldes RAID1-ga ei tule.
On see tingitud sellest, et RAID10 on tehtud ainult kahe ketta peale? Võin on ront ise nii nadi? Või testin ma kiirust valesti lihtsalt? Valede vahenditega? Bonnie++ ei olevat eriti nagu RAID testimiseks mõeldud, aga tiobench? Nüüd leidsin veel ühe vahendi - iozone. On mõtet veel testida, või loobun ja teen uuesti RAID1 massiivid?
Ma ei ole nagu siiani suutnud taibata, milles asi on, et RAID10 nii kehva on selle süsteemi peal ja palun targemate abi ja soovitusi. On mul midagi tegemata või kahe silma vahele jäänud?
Kui ma midagi olulist ja asjassepuutuvat unustasin nimetamata või märkimata, siis küsige.
tiobench tulemused:
RAID1
Spoiler 
No size specified, using 2000 MB
Unit information
================
File size = megabytes
Blk Size = bytes
Rate = megabytes per second
CPU% = percentage of CPU used during the test
Latency = milliseconds
Lat% = percent of requests that took longer than X seconds
CPU Eff = Rate divided by CPU% - throughput per cpu load
Sequential Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid1_tiotest 2000 4096 1 61.02 41.08% 0.313 1153.17 0.00000 0.00000 149
raid1_tiotest 2000 4096 2 77.44 107.5% 0.490 1238.79 0.00000 0.00000 72
raid1_tiotest 2000 4096 4 74.69 189.3% 0.979 1893.82 0.00000 0.00000 39
raid1_tiotest 2000 4096 8 71.08 328.7% 1.889 2990.05 0.00000 0.00000 22
raid1_tiotest 2000 8192 1 60.75 39.02% 0.635 1264.71 0.00000 0.00000 156
raid1_tiotest 2000 8192 2 77.09 99.88% 0.996 1436.89 0.00000 0.00000 77
raid1_tiotest 2000 8192 4 75.68 176.9% 1.914 1864.63 0.00000 0.00000 43
raid1_tiotest 2000 8192 8 72.61 305.1% 3.654 3170.66 0.00000 0.00000 24
Random Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid1_tiotest 2000 4096 1 0.59 1.857% 33.300 341.77 0.00000 0.00000 32
raid1_tiotest 2000 4096 2 1.16 7.151% 33.296 345.85 0.00000 0.00000 16
raid1_tiotest 2000 4096 4 1.20 16.64% 61.919 851.66 0.00000 0.00000 7
raid1_tiotest 2000 4096 8 1.22 34.36% 119.038 1891.35 0.00000 0.00000 4
raid1_tiotest 2000 8192 1 1.17 2.202% 33.298 336.12 0.00000 0.00000 53
raid1_tiotest 2000 8192 2 2.47 8.542% 31.218 343.76 0.00000 0.00000 29
raid1_tiotest 2000 8192 4 2.53 19.36% 57.322 685.23 0.00000 0.00000 13
raid1_tiotest 2000 8192 8 2.58 40.30% 109.941 1486.07 0.00000 0.00000 6
Sequential Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid1_tiotest 2000 4096 1 26.74 37.01% 0.677 6847.47 0.00059 0.00000 72
raid1_tiotest 2000 4096 2 26.70 76.77% 1.351 7326.15 0.00000 0.00000 35
raid1_tiotest 2000 4096 4 26.62 156.8% 2.712 10350.15 0.00156 0.00000 17
raid1_tiotest 2000 4096 8 26.39 310.7% 5.450 16559.02 0.00606 0.00000 8
raid1_tiotest 2000 8192 1 26.86 35.77% 1.364 2618.29 0.00000 0.00000 75
raid1_tiotest 2000 8192 2 26.76 72.32% 2.728 7184.30 0.00078 0.00000 37
raid1_tiotest 2000 8192 4 26.61 145.4% 5.472 10885.42 0.00351 0.00000 18
raid1_tiotest 2000 8192 8 26.45 285.5% 10.961 17751.34 0.01679 0.00000 9
Random Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid1_tiotest 2000 4096 1 1.31 3.265% 0.151 18.04 0.00000 0.00000 40
raid1_tiotest 2000 4096 2 1.25 6.198% 0.292 44.32 0.00000 0.00000 20
raid1_tiotest 2000 4096 4 1.25 12.56% 0.556 95.96 0.00000 0.00000 10
raid1_tiotest 2000 4096 8 1.24 22.57% 1.054 195.75 0.00000 0.00000 5
raid1_tiotest 2000 8192 1 2.58 4.214% 0.276 6.62 0.00000 0.00000 61
raid1_tiotest 2000 8192 2 2.44 8.238% 0.535 56.82 0.00000 0.00000 30
raid1_tiotest 2000 8192 4 2.40 15.60% 1.067 100.27 0.00000 0.00000 15
raid1_tiotest 2000 8192 8 2.41 27.99% 2.205 219.62 0.00000 0.00000 9
|
RAID10 (default chunk)
Spoiler 
No size specified, using 2000 MB
Unit information
================
File size = megabytes
Blk Size = bytes
Rate = megabytes per second
CPU% = percentage of CPU used during the test
Latency = milliseconds
Lat% = percent of requests that took longer than X seconds
CPU Eff = Rate divided by CPU% - throughput per cpu load
Sequential Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid1_tiotest 2000 4096 1 62.92 43.36% 0.303 1299.07 0.00000 0.00000 145
raid1_tiotest 2000 4096 2 69.63 96.85% 0.546 1442.43 0.00000 0.00000 72
raid1_tiotest 2000 4096 4 73.82 188.5% 0.988 1881.14 0.00000 0.00000 39
raid1_tiotest 2000 4096 8 70.52 326.1% 1.893 2934.56 0.00000 0.00000 22
raid1_tiotest 2000 8192 1 63.40 40.51% 0.608 1457.31 0.00000 0.00000 156
raid1_tiotest 2000 8192 2 71.94 93.96% 1.068 1406.43 0.00000 0.00000 77
raid1_tiotest 2000 8192 4 72.80 172.2% 2.004 1819.38 0.00000 0.00000 42
raid1_tiotest 2000 8192 8 70.34 304.8% 3.902 3212.17 0.00000 0.00000 23
Random Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid1_tiotest 2000 4096 1 0.61 1.871% 32.140 342.93 0.00000 0.00000 32
raid1_tiotest 2000 4096 2 1.19 7.421% 32.525 342.02 0.00000 0.00000 16
raid1_tiotest 2000 4096 4 1.19 16.35% 61.587 731.17 0.00000 0.00000 7
raid1_tiotest 2000 4096 8 1.21 33.77% 119.609 1832.68 0.00000 0.00000 4
raid1_tiotest 2000 8192 1 1.22 2.178% 32.023 332.79 0.00000 0.00000 56
raid1_tiotest 2000 8192 2 2.34 8.265% 32.985 338.04 0.00000 0.00000 28
raid1_tiotest 2000 8192 4 2.37 19.30% 61.930 670.60 0.00000 0.00000 12
raid1_tiotest 2000 8192 8 2.42 41.01% 120.784 1280.79 0.00000 0.00000 6
Sequential Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid1_tiotest 2000 4096 1 26.64 38.76% 0.679 7308.43 0.00040 0.00000 69
raid1_tiotest 2000 4096 2 26.64 78.45% 1.359 6527.76 0.00000 0.00000 34
raid1_tiotest 2000 4096 4 26.50 159.3% 2.731 9358.47 0.00020 0.00000 17
raid1_tiotest 2000 4096 8 26.30 316.8% 5.473 16850.67 0.00528 0.00000 8
raid1_tiotest 2000 8192 1 26.72 36.30% 1.371 4104.50 0.00000 0.00000 74
raid1_tiotest 2000 8192 2 26.70 75.04% 2.738 8208.34 0.00156 0.00000 36
raid1_tiotest 2000 8192 4 26.59 149.0% 5.468 8931.69 0.00039 0.00000 18
raid1_tiotest 2000 8192 8 26.37 291.0% 11.054 16638.88 0.01562 0.00000 9
Random Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid1_tiotest 2000 4096 1 1.32 3.354% 0.164 48.56 0.00000 0.00000 39
raid1_tiotest 2000 4096 2 1.26 6.243% 0.295 75.68 0.00000 0.00000 20
raid1_tiotest 2000 4096 4 1.26 12.33% 0.572 94.16 0.00000 0.00000 10
raid1_tiotest 2000 4096 8 1.25 23.21% 1.054 186.94 0.00000 0.00000 5
raid1_tiotest 2000 8192 1 2.48 3.888% 0.305 34.55 0.00000 0.00000 64
raid1_tiotest 2000 8192 2 2.36 7.309% 0.584 71.49 0.00000 0.00000 32
raid1_tiotest 2000 8192 4 2.43 16.19% 1.051 101.84 0.00000 0.00000 15
raid1_tiotest 2000 8192 8 2.43 30.74% 2.105 240.95 0.00000 0.00000 8
|
RAID10 chunk=256
Spoiler 
No size specified, using 2000 MB
Unit information
================
File size = megabytes
Blk Size = bytes
Rate = megabytes per second
CPU% = percentage of CPU used during the test
Latency = milliseconds
Lat% = percent of requests that took longer than X seconds
CPU Eff = Rate divided by CPU% - throughput per cpu load
Sequential Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid10_tiotest_chunk256 2000 4096 1 66.54 38.59% 0.230 884.52 0.00000 0.00000 172
raid10_tiotest_chunk256 2000 4096 2 77.95 92.47% 0.386 1112.02 0.00000 0.00000 84
raid10_tiotest_chunk256 2000 4096 4 76.70 165.4% 0.728 1849.55 0.00000 0.00000 46
raid10_tiotest_chunk256 2000 4096 8 73.80 283.1% 1.358 2134.11 0.00000 0.00000 26
raid10_tiotest_chunk256 2000 8192 1 66.45 35.64% 0.465 843.73 0.00000 0.00000 186
raid10_tiotest_chunk256 2000 8192 2 78.51 85.35% 0.780 1014.84 0.00000 0.00000 92
raid10_tiotest_chunk256 2000 8192 4 77.00 150.2% 1.428 1493.75 0.00000 0.00000 51
raid10_tiotest_chunk256 2000 8192 8 75.19 274.4% 2.751 2418.91 0.00000 0.00000 27
Random Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid10_tiotest_chunk256 2000 4096 1 0.60 1.941% 26.148 298.16 0.00000 0.00000 31
raid10_tiotest_chunk256 2000 4096 2 1.17 7.396% 26.254 287.71 0.00000 0.00000 16
raid10_tiotest_chunk256 2000 4096 4 1.19 16.78% 49.324 607.30 0.00000 0.00000 7
raid10_tiotest_chunk256 2000 4096 8 1.20 34.24% 97.615 1109.82 0.00000 0.00000 4
raid10_tiotest_chunk256 2000 8192 1 1.17 2.225% 26.630 282.20 0.00000 0.00000 53
raid10_tiotest_chunk256 2000 8192 2 2.25 8.548% 27.185 286.15 0.00000 0.00000 26
raid10_tiotest_chunk256 2000 8192 4 2.33 20.33% 50.889 859.91 0.00000 0.00000 11
raid10_tiotest_chunk256 2000 8192 8 2.37 42.37% 99.048 1387.01 0.00000 0.00000 6
Sequential Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid10_tiotest_chunk256 2000 4096 1 26.56 37.27% 0.543 7291.19 0.00078 0.00000 71
raid10_tiotest_chunk256 2000 4096 2 26.70 75.65% 1.081 4689.38 0.00000 0.00000 35
raid10_tiotest_chunk256 2000 4096 4 26.54 158.9% 2.168 7385.62 0.00059 0.00000 17
raid10_tiotest_chunk256 2000 4096 8 26.43 305.2% 4.379 12586.40 0.00450 0.00000 9
raid10_tiotest_chunk256 2000 8192 1 26.73 34.35% 1.096 3083.99 0.00000 0.00000 78
raid10_tiotest_chunk256 2000 8192 2 26.76 71.55% 2.190 5989.61 0.00000 0.00000 37
raid10_tiotest_chunk256 2000 8192 4 26.58 142.2% 4.389 8653.07 0.00234 0.00000 19
raid10_tiotest_chunk256 2000 8192 8 26.43 287.3% 8.815 13058.74 0.00547 0.00000 9
Random Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid10_tiotest_chunk256 2000 4096 1 1.30 3.139% 0.147 89.85 0.00000 0.00000 41
raid10_tiotest_chunk256 2000 4096 2 1.29 6.085% 0.232 36.12 0.00000 0.00000 21
raid10_tiotest_chunk256 2000 4096 4 1.27 12.69% 0.455 82.45 0.00000 0.00000 10
raid10_tiotest_chunk256 2000 4096 8 1.25 23.90% 0.786 159.40 0.00000 0.00000 5
raid10_tiotest_chunk256 2000 8192 1 2.59 4.509% 0.220 5.11 0.00000 0.00000 57
raid10_tiotest_chunk256 2000 8192 2 2.51 8.263% 0.432 61.00 0.00000 0.00000 30
raid10_tiotest_chunk256 2000 8192 4 2.44 15.82% 0.835 82.33 0.00000 0.00000 15
raid10_tiotest_chunk256 2000 8192 8 2.38 30.03% 1.633 170.43 0.00000 0.00000 8
|
Tänud ette, kes süveneda viitsivad!
ot: |
_______________________
Nii vaikseks kõik on jäänud...  |
_________________ Tee inimesele lõke ja tal on soe üheks päevaks, pista ta põlema ja tal on soe elu lõpuni. (Terry Pratchett)
e.k spikker: muhk on kumer, lohk on nõgus. |
|
Kommentaarid: 33 loe/lisa |
Kasutajad arvavad: |
   |
:: |
0 :: |
0 :: |
32 |
|
tagasi üles |
|
 |
raitl
HV veteran

liitunud: 20.01.2002
|
02.12.2010 11:22:22
|
|
|
Kui Sul oleks võimalus kasvõi testimiseks rakendada nelja ketast, oleksin isegi huvitatud tulemuste võrdlusest. Mina panustaksin hetkel sellele, et probleemi põhjus peitub RAID10 jaoks liigväikses ketaste arvus.
|
|
Kommentaarid: 166 loe/lisa |
Kasutajad arvavad: |
   |
:: |
1 :: |
0 :: |
147 |
|
tagasi üles |
|
 |
Dogbert
HV Guru

liitunud: 03.05.2004
|
02.12.2010 15:05:39
|
|
|
Hmm. Kolme kettaga ehk isegi saaks testida, aga mitte enne järgmist nädalat.
_________________ Tee inimesele lõke ja tal on soe üheks päevaks, pista ta põlema ja tal on soe elu lõpuni. (Terry Pratchett)
e.k spikker: muhk on kumer, lohk on nõgus. |
|
Kommentaarid: 33 loe/lisa |
Kasutajad arvavad: |
   |
:: |
0 :: |
0 :: |
32 |
|
tagasi üles |
|
 |
Ho Ho
HV Guru

liitunud: 16.02.2002
|
05.12.2010 19:35:01
|
|
|
Mis mõte on RAID10'l alla nelja füüsilise ketta puhul?
RAID'i tehes võiks arvestada ka sellega, et ketaste kiirus sõltub kui kaugel tsentrist on lugemispea. Kui RAIDi jupid tulevad ühel kettal algusest ja teisel lõpust siis hakkab see kompott tööle jämedalt aeglasema partitsiooni kiirusel.
_________________ Teach a man to reason and he'll think for a lifetime
Common sense - so rare that it's a damn superpower
Vaadates paljude inimeste sõnavõtte siin ja mujal jääb üle ainult klassikuid tsiteerida - "I weep for humanity" |
|
Kommentaarid: 106 loe/lisa |
Kasutajad arvavad: |
   |
:: |
0 :: |
1 :: |
86 |
|
tagasi üles |
|
 |
Dogbert
HV Guru

liitunud: 03.05.2004
|
05.12.2010 22:01:41
|
|
|
Mõte oligi nobedamas kiiruses. Kui seda ei ole võimalik saavutada, jääb ka RAID10 ära.
Mis puutub ketta kiirusesse ja partitsiooni kaugusesse ketta algusest, siis katsetasin seda identsetel ketastel, üle terve ketta ulatuvate identsete partitsioonidega, nii et jupid peaksid minema enam-vähem samasse kanti mõlema ketta peal ja sellest mingit kiiruse erinevust tekkida ei tohiks. Mõlema ketta kiirus üksikuna on ketta alguses maksimaalselt 75MB/s.
_________________ Tee inimesele lõke ja tal on soe üheks päevaks, pista ta põlema ja tal on soe elu lõpuni. (Terry Pratchett)
e.k spikker: muhk on kumer, lohk on nõgus. |
|
Kommentaarid: 33 loe/lisa |
Kasutajad arvavad: |
   |
:: |
0 :: |
0 :: |
32 |
|
tagasi üles |
|
 |
Andrus Luht
itimees.ee

liitunud: 11.06.2002
|
|
Kommentaarid: 377 loe/lisa |
Kasutajad arvavad: |
   |
:: |
5 :: |
1 :: |
318 |
|
tagasi üles |
|
 |
Dogbert
HV Guru

liitunud: 03.05.2004
|
09.12.2010 12:18:06
|
|
|
Andrus Luht kirjutas: |
Linux'i softraid'iga RAID1 ja RAID10 kiiruses saad vahet vaid siis kui masinas on reaalselt 4 ketast. Raid1 korral kasutatakse lugemiseks ainult ühte ketast (raid 10 korral siis kahte neljast) ning kirjutamisel on pigem raid10 aeglasem kui raid1. Seda, et raid10 korral ära kasutada nelja ketta eelist oskavad vaid high-end otsa riistvaralised raid kaardid. Siin foorumis pole ma mitte kunagi ühtegi sellist liikvel näinud btw.
 |
Suur tänu vastuse eest! Kohe selge pilt
_______________________________________
Oh jah, oleks ma RAID10 kirjeldust ise natuke tähelepanelikumalt lugenud, oleks selle muidugi ise ka ära jaganud, et 1. RAID10 puhul on kaks RAID1 massiivi ühendatud RAID0-i (ma arvasin millegipärast vastupidist) ja 2. Sel juhul kahest kettast koosnev RAID10 sisuliselt on sama mis RAID1
Tunnen ennast praegu totaalse idioodina...
__________________
Aga kui asja natuke edasi uurida, ei ole see lugu sugugi nii lihtne ja Linuxi MD RAID10 on sootuks kavalam elukas:
http://serverfault.com/questions/139022/explain-mds-raid10-f2
Selle järgi peaks ikkagi ka kahe kettaga MD RAID10 olema nobedam RAID1-st, kui kasutada vaikimisi kehtiva near layout-i asemel far layout-i. Minu viga oligi vaikimisi near layout-i kasutamine ja seetõttu jäi kasutamata stripe-mise võimalus, töötas sisuliselt ainult mirror ja seega oli ka kiirus sama mis RAID1 puhul.
Proovin kohe ära ka far layout-i kahe kettaga.
____________________________________________
8. dets
Tegin siis RAID10 far layout-iga massiivi samadest ketastest
mdadm -v --create /dev/md0 --assume-clean --chunk=256 --level=raid10 --raid-devices=2 --layout=f2 /dev/sda /dev/sdb |
Täpselt sama tiobench test, mis sai varemalt tehtud mirrori ja near layout RAID10-ga
tiobench --identifier xxxx --numruns 5 --dir /mnt/temp/test --block 4096 --block 8192 > tiotest_xxxx |
tehtud nüüd far layout RAID10-ga:
Spoiler 
No size specified, using 2000 MB
Unit information
================
File size = megabytes
Blk Size = bytes
Rate = megabytes per second
CPU% = percentage of CPU used during the test
Latency = milliseconds
Lat% = percent of requests that took longer than X seconds
CPU Eff = Rate divided by CPU% - throughput per cpu load
Sequential Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid10f2_ch256_tiotest 2000 4096 1 82.29 48.20% 0.229 1002.75 0.00000 0.00000 171
raid10f2_ch256_tiotest 2000 4096 2 71.88 81.49% 0.528 1442.01 0.00000 0.00000 88
raid10f2_ch256_tiotest 2000 4096 4 70.49 156.8% 1.073 2474.51 0.00000 0.00000 45
raid10f2_ch256_tiotest 2000 4096 8 68.70 308.7% 2.210 2576.55 0.00000 0.00000 22
raid10f2_ch256_tiotest 2000 8192 1 83.90 44.94% 0.457 943.77 0.00000 0.00000 187
raid10f2_ch256_tiotest 2000 8192 2 71.99 73.88% 1.055 1421.01 0.00000 0.00000 97
raid10f2_ch256_tiotest 2000 8192 4 70.30 145.5% 2.177 2592.93 0.00000 0.00000 48
raid10f2_ch256_tiotest 2000 8192 8 69.06 285.6% 4.432 3000.89 0.00000 0.00000 24
Random Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid10f2_ch256_tiotest 2000 4096 1 0.68 2.106% 28.883 370.48 0.00000 0.00000 32
raid10f2_ch256_tiotest 2000 4096 2 0.93 6.612% 41.282 416.57 0.00000 0.00000 14
raid10f2_ch256_tiotest 2000 4096 4 1.07 15.50% 70.631 695.38 0.00000 0.00000 7
raid10f2_ch256_tiotest 2000 4096 8 1.13 33.48% 132.460 1252.70 0.00000 0.00000 3
raid10f2_ch256_tiotest 2000 8192 1 1.19 2.460% 32.858 372.66 0.00000 0.00000 48
raid10f2_ch256_tiotest 2000 8192 2 1.68 7.337% 45.086 407.34 0.00000 0.00000 23
raid10f2_ch256_tiotest 2000 8192 4 1.98 18.33% 76.996 1015.03 0.00000 0.00000 11
raid10f2_ch256_tiotest 2000 8192 8 2.14 40.36% 140.532 1741.89 0.00000 0.00000 5
Sequential Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid10f2_ch256_tiotest 2000 4096 1 25.91 37.25% 0.700 7659.45 0.00078 0.00000 70
raid10f2_ch256_tiotest 2000 4096 2 25.60 75.07% 1.411 8474.22 0.00020 0.00000 34
raid10f2_ch256_tiotest 2000 4096 4 25.18 147.3% 2.862 9861.13 0.00118 0.00000 17
raid10f2_ch256_tiotest 2000 4096 8 24.64 296.8% 5.835 14668.65 0.00566 0.00000 8
raid10f2_ch256_tiotest 2000 8192 1 26.05 34.77% 1.401 5221.10 0.00000 0.00000 75
raid10f2_ch256_tiotest 2000 8192 2 25.66 70.29% 2.849 8015.07 0.00078 0.00000 37
raid10f2_ch256_tiotest 2000 8192 4 25.03 141.4% 5.824 10685.00 0.00234 0.00000 18
raid10f2_ch256_tiotest 2000 8192 8 24.69 275.3% 11.719 16357.29 0.00975 0.00000 9
Random Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid10f2_ch256_tiotest 2000 4096 1 1.24 2.351% 0.146 1.75 0.00000 0.00000 53
raid10f2_ch256_tiotest 2000 4096 2 1.15 4.226% 0.292 50.64 0.00000 0.00000 27
raid10f2_ch256_tiotest 2000 4096 4 1.10 7.889% 0.546 93.31 0.00000 0.00000 14
raid10f2_ch256_tiotest 2000 4096 8 1.07 15.22% 1.184 209.59 0.00000 0.00000 7
raid10f2_ch256_tiotest 2000 8192 1 2.35 3.349% 0.292 39.10 0.00000 0.00000 70
raid10f2_ch256_tiotest 2000 8192 2 2.17 6.074% 0.537 81.65 0.00000 0.00000 36
raid10f2_ch256_tiotest 2000 8192 4 2.12 11.45% 1.086 117.67 0.00000 0.00000 18
raid10f2_ch256_tiotest 2000 8192 8 2.06 21.10% 2.036 203.26 0.00000 0.00000 10 |
Ja siia lisan veel sama testi, mis on tehtud ühe kettaga, ilma RAID massiivita - võrdluseks üksiku ketta võimekusega
Spoiler 
No size specified, using 2000 MB
Unit information
================
File size = megabytes
Blk Size = bytes
Rate = megabytes per second
CPU% = percentage of CPU used during the test
Latency = milliseconds
Lat% = percent of requests that took longer than X seconds
CPU Eff = Rate divided by CPU% - throughput per cpu load
Sequential Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
noraid_tiotest 2000 4096 1 65.19 41.76% 0.293 1038.25 0.00000 0.00000 156
noraid_tiotest 2000 4096 2 54.63 63.57% 0.706 1343.71 0.00000 0.00000 86
noraid_tiotest 2000 4096 4 50.10 115.3% 1.531 2691.43 0.00000 0.00000 43
noraid_tiotest 2000 4096 8 43.52 199.8% 3.529 3970.26 0.00000 0.00000 22
noraid_tiotest 2000 8192 1 66.28 39.32% 0.583 999.09 0.00000 0.00000 169
noraid_tiotest 2000 8192 2 55.80 60.00% 1.388 1290.44 0.00000 0.00000 93
noraid_tiotest 2000 8192 4 52.72 112.3% 2.916 2278.82 0.00000 0.00000 47
noraid_tiotest 2000 8192 8 44.81 191.1% 6.872 3857.43 0.00000 0.00000 23
Random Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
noraid_tiotest 2000 4096 1 0.60 1.482% 32.357 240.00 0.00000 0.00000 41
noraid_tiotest 2000 4096 2 0.61 3.860% 63.552 575.43 0.00000 0.00000 16
noraid_tiotest 2000 4096 4 0.62 7.775% 124.378 867.39 0.00000 0.00000 8
noraid_tiotest 2000 4096 8 0.62 16.44% 245.868 1831.19 0.00000 0.00000 4
noraid_tiotest 2000 8192 1 1.20 1.676% 32.488 99.34 0.00000 0.00000 72
noraid_tiotest 2000 8192 2 1.21 4.543% 64.274 590.33 0.00000 0.00000 27
noraid_tiotest 2000 8192 4 1.23 9.229% 121.529 6538.55 0.10000 0.00000 13
noraid_tiotest 2000 8192 8 1.22 19.75% 252.046 1639.35 0.00000 0.00000 6
Sequential Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
noraid_tiotest 2000 4096 1 41.93 53.05% 0.428 1671.80 0.00000 0.00000 79
noraid_tiotest 2000 4096 2 40.73 102.9% 0.885 5387.82 0.00000 0.00000 40
noraid_tiotest 2000 4096 4 39.88 200.6% 1.805 7234.63 0.00000 0.00000 20
noraid_tiotest 2000 4096 8 37.76 379.0% 3.811 14043.65 0.00080 0.00000 10
noraid_tiotest 2000 8192 1 42.55 49.38% 0.858 1339.87 0.00000 0.00000 86
noraid_tiotest 2000 8192 2 40.50 94.79% 1.795 5614.93 0.00000 0.00000 43
noraid_tiotest 2000 8192 4 38.95 183.0% 3.725 8027.38 0.00039 0.00000 21
noraid_tiotest 2000 8192 8 37.38 357.8% 7.752 13120.97 0.00156 0.00000 10
Random Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
noraid_tiotest 2000 4096 1 1.27 1.095% 0.177 24.57 0.00000 0.00000 116
noraid_tiotest 2000 4096 2 1.20 2.147% 0.280 44.17 0.00000 0.00000 56
noraid_tiotest 2000 4096 4 1.18 4.327% 0.567 84.89 0.00000 0.00000 27
noraid_tiotest 2000 4096 8 1.22 10.19% 1.207 723.46 0.00000 0.00000 12
noraid_tiotest 2000 8192 1 2.46 1.807% 0.276 6.22 0.00000 0.00000 136
noraid_tiotest 2000 8192 2 2.36 3.730% 0.553 61.74 0.00000 0.00000 63
noraid_tiotest 2000 8192 4 2.37 7.911% 1.083 98.52 0.00000 0.00000 30
noraid_tiotest 2000 8192 8 2.37 16.38% 2.118 224.97 0.00000 0.00000 14
|
Ja et pilt oleks silme ees selgem, klopsisin tulemustest kokku mõned graafikud - tulemused on võetud RAID1 testist, RAID10 far layout testist ja üksiku ketta testist, kõigist ainult block size 4096 tulemustega:
Sequential read:
Spoiler 
Random read:
Spoiler 
Sequential write:
Spoiler 
Random write:
Spoiler 
Tulemustest on üsna selgelt näha, et järjestikuse lugemise puhul tuleb mängu RAID10 stripe efekt ning ühe lõimega testis (korraga ühe faili lugemine) annab see keskmiseks kiiruseks mitte ainult RAID1, vaid ka üksiku ketta kiirust ületava tulemuse; RAID1 kiirus omakorda jääb napilt alla üksiku ketta kiirusele.
Kahe ja enama lõimega testis (korraga kahe faili lugemine) ilmneb aga RAID1 eeliseks olev võimalus lugeda samaaegselt üht faili ühelt ja teist teiselt kettalt ja siin ületab ta ka RAID10-t, aga samuti ületavad mõlemad RAID kombinatsioonid üksiku ketta võimekust.
Mis puutub latentsusesse, siis ühe lõime puhul on kõik kolm varianti üsna lähedased, lõimede arvu suurenemisel erinevused aga suurenevad, kusjuures RAID1 ja 10 erinevus on triviaalne võrreldes üksiku kettaga - üksiku ketta latentsus on nelja lõime puhul kasvanud juba 2x suuremaks RAID1 latentsusest.
Juhusliku lugemise testis on erinevused üksiku ketta ja RAID massiivide vahel veelgi märgatavamad - üksiku ketta kahjuks.
Ühe lõime puhul on kõik tulemused väga lähedased nii kiiruse kui latentsuse osas. Kahe ja enama lõime puhul ilmneb selgelt RAID1 paralleelse lugemise eelis, kuid ka RAID10 jääb üksikust kettast nobedamaks. Latentsuse kasvu erinevus üksiku ketta ja RAID massiivide vahel näitab sama trendi, mis oli järjestikuse lugemise puhul.
Järjestikuse kirjutamise puhul jäävad mõlemad RAID massiivid üksikule kettale alla nii kiiruses kui latentsuse osas - mida oligi oodata.
Juhusliku kirjutamise puhul aga on RAID massiivide ja üksiku ketta kiiruste ja latentsuste erinevused piisavalt väikesed, et lugeda neid ebaoluliseks.
Seega on kiiruse eelis igal juhul selgelt RAID massiivide kasuks, kusjuures RAID1 on märgatavalt parem paljude väikeste failide samaaegsel lugemisel, RAID10 aga suurte failide ühekaupa lugemisel.
Nii et saab ka Linuxi softraid RAID10 stripe'mise ärakasutamisega hakkama - küll ehk mitte nii edukalt kui mõni high-end riistavaraline RAID kontroller, aga siiski.
Ja muide - ma tegin prooviks ka kolmel kettal asuvate partitsioonidega RAID10 testi - kaks ketast needsamad testitavad SATA kettad ja kolmas sama pata ketas, millelt süsteem praegu töötab (ja SATA ketastest märgatavalt aeglasem) - eraldasin selle ketta lõpust 2GB partitsiooni ja samuti tegin 2GB partitsioonid SATA ketaste lõppu. Esialgu testisin RAID1 massiivi SATA ketastest ja siis RAID10 far layout massiivi kõigist kolmest kettast. Kiiruste erinevused olid ühe threadi puhul veelgi suuremad - RAID10 peaaegu kaks korda kiirem RAID1-st - täiesti ilmselt kasutas Linuxi kernel stripe'mist kolme ketta vahel ja ma olen võrdlemisi kindel, et nelja kettaga on see veelgi paremini nähtav - ja täitsa ilma high-end riistvaralise kontrollerita. Kindlasti pole jõudlus sama mis sellise kontrolleriga oleks, aga ka seda ei saa väita, et Linux MD RAID10 eeliseid kasutada ei oskaks - oskab küll. Lisaks saaks nelja kettaga kasutada mõlemat layout-i korraga, nii et n2 f2 layout-i korral oleks massiivi päralt nii RAID1 mitme faili paralleelse lugemise kiiruse eelis kui RAID10 kiiruse eelis ühe faili lugemisel, viimane jääb küll tõenäoliselt samale tasemele mis kahe ketta puhul ja jääb kasutamata nelja ketta stripe. Teoreetiliselt.
Niisiis - kahe ketta RAID1 vs kolme ketta RAID10 testimise juurde tagasi.
Et RAID ketta partitsioonid olid vastavalt 2GB ja 3GB suurusega, siis tiobench-ile sai ette pandud failimahu piirang 500MB vaikimisi 2GB asemel, muus osas oli test sama.
2GB RAID1 massiiv sda ja sdb ketastel olevatest 2GB partitsioonidest:
(kuna partitsioonid asuvad ketaste kõige aeglasemas osas, siis on ka see RAID1 massiiv aeglasem varem tervet ketast hõlmanud partitsioonidega RAID1 keskmisest kiirusest)
Spoiler 
Unit information
================
File size = megabytes
Blk Size = bytes
Rate = megabytes per second
CPU% = percentage of CPU used during the test
Latency = milliseconds
Lat% = percent of requests that took longer than X seconds
CPU Eff = Rate divided by CPU% - throughput per cpu load
Sequential Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid1_2G_tiotest 500 4096 1 35.63 24.21% 0.541 440.80 0.00000 0.00000 147
raid1_2G_tiotest 500 4096 2 58.32 82.70% 0.647 526.22 0.00000 0.00000 71
raid1_2G_tiotest 500 4096 4 58.20 149.1% 1.216 1396.73 0.00000 0.00000 39
raid1_2G_tiotest 500 4096 8 57.39 275.8% 2.336 2145.84 0.00000 0.00000 21
raid1_2G_tiotest 500 8192 1 35.50 22.53% 1.092 362.49 0.00000 0.00000 158
raid1_2G_tiotest 500 8192 2 55.83 72.35% 1.360 484.56 0.00000 0.00000 77
raid1_2G_tiotest 500 8192 4 58.88 143.3% 2.450 1481.32 0.00000 0.00000 41
raid1_2G_tiotest 500 8192 8 57.45 250.4% 4.596 2093.01 0.00000 0.00000 23
Random Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid1_2G_tiotest 500 4096 1 1.03 2.135% 18.995 478.36 0.00000 0.00000 48
raid1_2G_tiotest 500 4096 2 1.85 7.422% 20.273 398.80 0.00000 0.00000 25
raid1_2G_tiotest 500 4096 4 1.76 15.22% 37.302 854.89 0.00000 0.00000 12
raid1_2G_tiotest 500 4096 8 2.02 31.19% 61.829 1914.38 0.00000 0.00000 6
raid1_2G_tiotest 500 8192 1 1.96 2.642% 19.889 856.50 0.00000 0.00000 74
raid1_2G_tiotest 500 8192 2 3.41 8.686% 22.069 1130.05 0.00000 0.00000 39
raid1_2G_tiotest 500 8192 4 3.52 18.09% 36.894 1719.89 0.00000 0.00000 19
raid1_2G_tiotest 500 8192 8 3.77 36.50% 65.222 1451.43 0.00000 0.00000 10
Sequential Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid1_2G_tiotest 500 4096 1 25.73 35.19% 0.591 1223.78 0.00000 0.00000 73
raid1_2G_tiotest 500 4096 2 25.20 68.89% 1.169 4942.64 0.00000 0.00000 37
raid1_2G_tiotest 500 4096 4 24.65 133.8% 2.355 7931.19 0.00078 0.00000 18
raid1_2G_tiotest 500 4096 8 24.37 268.7% 4.804 17952.29 0.01025 0.00000 9
raid1_2G_tiotest 500 8192 1 25.74 32.48% 1.193 1716.04 0.00000 0.00000 79
raid1_2G_tiotest 500 8192 2 25.33 64.36% 2.353 4002.35 0.00000 0.00000 39
raid1_2G_tiotest 500 8192 4 24.75 128.1% 4.644 9153.79 0.00312 0.00000 19
raid1_2G_tiotest 500 8192 8 24.27 252.2% 9.528 16137.13 0.03781 0.00000 10
Random Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid1_2G_tiotest 500 4096 1 1.58 3.654% 0.129 2.06 0.00000 0.00000 43
raid1_2G_tiotest 500 4096 2 1.52 6.695% 0.250 36.96 0.00000 0.00000 23
raid1_2G_tiotest 500 4096 4 1.51 13.70% 0.497 82.65 0.00000 0.00000 11
raid1_2G_tiotest 500 4096 8 1.47 26.24% 0.938 203.37 0.00000 0.00000 6
raid1_2G_tiotest 500 8192 1 3.02 4.776% 0.288 12.36 0.00000 0.00000 63
raid1_2G_tiotest 500 8192 2 2.88 8.905% 0.519 56.80 0.00000 0.00000 32
raid1_2G_tiotest 500 8192 4 2.83 17.16% 0.948 104.05 0.00000 0.00000 16
raid1_2G_tiotest 500 8192 8 2.78 32.74% 1.805 202.75 0.00000 0.00000 8
|
3GB RAID10 far layout massiiv sda, sdb ja hda ketastel olevatest 2GB partitsioonidest:
Spoiler 
Unit information
================
File size = megabytes
Blk Size = bytes
Rate = megabytes per second
CPU% = percentage of CPU used during the test
Latency = milliseconds
Lat% = percent of requests that took longer than X seconds
CPU Eff = Rate divided by CPU% - throughput per cpu load
Sequential Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid10_3disk_2Gpart_tiotest 500 4096 1 61.94 36.95% 0.305 681.15 0.00000 0.00000 168
raid10_3disk_2Gpart_tiotest 500 4096 2 56.65 65.44% 0.659 1217.58 0.00000 0.00000 87
raid10_3disk_2Gpart_tiotest 500 4096 4 55.57 121.9% 1.284 2468.07 0.00000 0.00000 46
raid10_3disk_2Gpart_tiotest 500 4096 8 52.61 225.7% 2.728 5803.32 0.00079 0.00000 23
raid10_3disk_2Gpart_tiotest 500 8192 1 54.08 29.30% 0.712 802.51 0.00000 0.00000 185
raid10_3disk_2Gpart_tiotest 500 8192 2 55.88 59.69% 1.351 1147.24 0.00000 0.00000 94
raid10_3disk_2Gpart_tiotest 500 8192 4 57.14 114.0% 2.508 2568.57 0.00000 0.00000 50
raid10_3disk_2Gpart_tiotest 500 8192 8 52.22 205.8% 5.483 5152.25 0.00000 0.00000 25
Random Reads
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid10_3disk_2Gpart_tiotest 500 4096 1 1.05 2.158% 18.652 944.06 0.00000 0.00000 48
raid10_3disk_2Gpart_tiotest 500 4096 2 2.00 7.636% 17.816 477.33 0.00000 0.00000 26
raid10_3disk_2Gpart_tiotest 500 4096 4 3.02 19.82% 21.596 804.31 0.00000 0.00000 15
raid10_3disk_2Gpart_tiotest 500 4096 8 3.54 44.60% 35.842 1600.69 0.00000 0.00000 8
raid10_3disk_2Gpart_tiotest 500 8192 1 2.21 3.063% 17.643 962.07 0.00000 0.00000 72
raid10_3disk_2Gpart_tiotest 500 8192 2 3.92 8.977% 17.839 1080.85 0.00000 0.00000 44
raid10_3disk_2Gpart_tiotest 500 8192 4 5.57 26.31% 24.876 1016.89 0.00000 0.00000 21
raid10_3disk_2Gpart_tiotest 500 8192 8 5.67 54.02% 46.662 1816.64 0.00000 0.00000 10
Sequential Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid10_3disk_2Gpart_tiotest 500 4096 1 19.28 25.34% 0.800 4334.92 0.00078 0.00000 76
raid10_3disk_2Gpart_tiotest 500 4096 2 19.57 53.18% 1.552 8897.36 0.00234 0.00000 37
raid10_3disk_2Gpart_tiotest 500 4096 4 19.13 104.7% 3.127 13410.93 0.01015 0.00000 18
raid10_3disk_2Gpart_tiotest 500 4096 8 18.81 211.9% 5.841 17290.10 0.02284 0.00000 9
raid10_3disk_2Gpart_tiotest 500 8192 1 20.55 25.19% 1.477 2178.75 0.00000 0.00000 82
raid10_3disk_2Gpart_tiotest 500 8192 2 18.83 48.28% 3.183 5547.83 0.00000 0.00000 39
raid10_3disk_2Gpart_tiotest 500 8192 4 19.16 98.27% 6.224 14207.14 0.01251 0.00000 19
raid10_3disk_2Gpart_tiotest 500 8192 8 18.70 195.8% 11.992 15225.10 0.05670 0.00000 10
Random Writes
File Blk Num Avg Maximum Lat% Lat% CPU
Identifier Size Size Thr Rate (CPU%) Latency Latency >2s >10s Eff
---------------------------- ------ ----- --- ------ ------ --------- ----------- -------- -------- -----
raid10_3disk_2Gpart_tiotest 500 4096 1 1.18 1.658% 0.155 7.62 0.00000 0.00000 71
raid10_3disk_2Gpart_tiotest 500 4096 2 1.38 3.593% 0.252 38.73 0.00000 0.00000 38
raid10_3disk_2Gpart_tiotest 500 4096 4 1.37 7.146% 0.490 87.80 0.00000 0.00000 19
raid10_3disk_2Gpart_tiotest 500 4096 8 1.30 13.00% 0.946 178.61 0.00000 0.00000 10
raid10_3disk_2Gpart_tiotest 500 8192 1 2.43 2.546% 0.279 14.18 0.00000 0.00000 96
raid10_3disk_2Gpart_tiotest 500 8192 2 2.51 4.441% 0.614 59.59 0.00000 0.00000 57
raid10_3disk_2Gpart_tiotest 500 8192 4 2.59 10.74% 0.932 96.61 0.00000 0.00000 24
raid10_3disk_2Gpart_tiotest 500 8192 8 2.35 19.29% 1.819 198.15 0.00000 0.00000 12
|
_________________ Tee inimesele lõke ja tal on soe üheks päevaks, pista ta põlema ja tal on soe elu lõpuni. (Terry Pratchett)
e.k spikker: muhk on kumer, lohk on nõgus.
viimati muutis Dogbert 10.12.2010 02:13:23, muudetud 1 kord |
|
Kommentaarid: 33 loe/lisa |
Kasutajad arvavad: |
   |
:: |
0 :: |
0 :: |
32 |
|
tagasi üles |
|
 |
raitl
HV veteran

liitunud: 20.01.2002
|
09.12.2010 14:29:41
|
|
|
Kiiduväärt töö tegid ära
|
|
Kommentaarid: 166 loe/lisa |
Kasutajad arvavad: |
   |
:: |
1 :: |
0 :: |
147 |
|
tagasi üles |
|
 |
incx
HV kasutaja

liitunud: 10.11.2001
|
12.12.2010 23:14:53
|
|
|
Shallallaa, mida kõike foorumites kohata võib. RAID10 kahel ja kolmel kettal, see jääb pikemaks ajaks veel meelde
RAID = Redundant Array of Independent (/Inexpensive) Disks. Kogu see RAIDikino on ikka mõeldud ühikketaste peal käitamiseks, mitte sama ketta partitsioonide peal katsetamiseks. Ei saavuta sellise "alla N ettenähtud ühikketta" naljaga ei ettenähtud redundancyt ega jõudlust. See on küll igat pidi tore, et softraid ja ka mitmed kontrollerid (tüüpiliselt küll pehmevaralised) partitsioonide peal tegutsemist lubavad, aga tegemist on ikka pikem selle mõttega, et saad RAID10-s nelja (või enama) ketta pealt erineva jõudlusega arraysid defineerida (nt üks ketaste algusesse, teine lõppu).
md "far" andmepaigutusprofiil võidab sul sellest, et tüüpiliselt on tänapäeva kõvaketaste sees N+1 füüsilist ketast koos iseseisvate lugemis-kirjutamispeadega. Seetõttu andmete lugemisel on statistiliselt tõenäoline, et järgmise andmebloki lugemiseks ei pea kettad täisringi maha tegema, vaid teine lugemispea "korjab" vajaliku bloki poole tee peal üles. Selle lugemiskiiruse võidu eest maksad sa aga kirjutamiskiiruse kaoga, sest igale ühikkettale tuleb rohkem datat maha saada.
Iseenesest huvitav eksperiment, eriti kodus rondi peal möllamiseks, aga jumala pärast ärgu keegi võtku siit lugedes pähe ideed sellist asja toodangukeskkonnas kasutada. Seal tuleb ikka viisakat RAIDi teha nii, et rahakott veritseb, s.t hardware kontroller, "lots of BBU-backed cache"(tm) ja niipalju kettaid kui rahakott vähegi vastu peab. Kui eriti vihane rahakotile olla, siis veel 15k RPM kettaid short-stokeda ja performancet ja redundancyt üpriski piisavalt ühe kasti raames.
_________________ I have never understood the female capacity to avoid a direct answer to any question.
-- Spock, "This Side of Paradise", stardate 3417.3 |
|
Kommentaarid: 20 loe/lisa |
Kasutajad arvavad: |
   |
:: |
0 :: |
0 :: |
20 |
|
tagasi üles |
|
 |
Dogbert
HV Guru

liitunud: 03.05.2004
|
13.12.2010 11:36:44
|
|
|
incx kirjutas: |
Shallallaa, mida kõike foorumites kohata võib. RAID10 kahel ja kolmel kettal, see jääb pikemaks ajaks veel meelde
RAID = Redundant Array of Independent (/Inexpensive) Disks. Kogu see RAIDikino on ikka mõeldud ühikketaste peal käitamiseks, mitte sama ketta partitsioonide peal katsetamiseks. Ei saavuta sellise "alla N ettenähtud ühikketta" naljaga ei ettenähtud redundancyt ega jõudlust. See on küll igat pidi tore, et softraid ja ka mitmed kontrollerid (tüüpiliselt küll pehmevaralised) partitsioonide peal tegutsemist lubavad, aga tegemist on ikka pikem selle mõttega, et saad RAID10-s nelja (või enama) ketta pealt erineva jõudlusega arraysid defineerida (nt üks ketaste algusesse, teine lõppu).
md "far" andmepaigutusprofiil võidab sul sellest, et tüüpiliselt on tänapäeva kõvaketaste sees N+1 füüsilist ketast koos iseseisvate lugemis-kirjutamispeadega. Seetõttu andmete lugemisel on statistiliselt tõenäoline, et järgmise andmebloki lugemiseks ei pea kettad täisringi maha tegema, vaid teine lugemispea "korjab" vajaliku bloki poole tee peal üles. Selle lugemiskiiruse võidu eest maksad sa aga kirjutamiskiiruse kaoga, sest igale ühikkettale tuleb rohkem datat maha saada.
Iseenesest huvitav eksperiment, eriti kodus rondi peal möllamiseks, aga jumala pärast ärgu keegi võtku siit lugedes pähe ideed sellist asja toodangukeskkonnas kasutada. Seal tuleb ikka viisakat RAIDi teha nii, et rahakott veritseb, s.t hardware kontroller, "lots of BBU-backed cache"(tm) ja niipalju kettaid kui rahakott vähegi vastu peab. Kui eriti vihane rahakotile olla, siis veel 15k RPM kettaid short-stokeda ja performancet ja redundancyt üpriski piisavalt ühe kasti raames. |
Ja kus ma ütlesin, et tegemist on ettevõttega või asutusega, kellel on majanduslikult võimalik või üldse mõttekas sellist rauda osta? Muidugi - rikaste ettevõtete itimeestel on lahe hirnuda, kuidas näiteks vaestes haridusasutustes kümneaastaste arvutite peal töötatakse ja jumal-teab-mis rontidest servereid ehitatakse, sest rahakott veritseb niigi kogu aeg. Ja polegi vajadust mingi sitase softraidi hingeeluga lähemalt tutvuda, kui high-end RAID kontroller serveris tiksub, eks ole.
Ja mis puutub sinu kommentaari MD RAID10 kohta:
Kas sa üldse vaatasid Linuxi MD RAID kirjeldust ja far andmepaigutuse skeemi? Sest sinu kommentaari lugedes sellist muljet küll ei jää. Linux MD RAID spetsifikatsioon lubabki RAID10 massiivi teha alates kahest kettast. Ma ei leiutanud seda ise, et sul oleks põhjust selle üle irvitada ja ma pole esimene ega viimane, kes seda rakendab ja põhjusega. Googelda ja sa leiad kümneid artikleid MD RAID10 kohta vähem kui neljal kettal, loe MD RAID spetsifikatsiooni ja kirjeldusi, mõtle selle üle põhjalikult järele ja siis tule irvitama.
Far paigutuse puhul lugemisel loetakse iga andmeblokk eraldi füüsiliselt kettalt (st stripe-na) - mis kuradi pärast ta teist blokki samalt kettalt otsima peaks? Kirjutamisel kirjutatakse blokid muidugi ketastele topelt või kahest enama ketta puhul selliselt, et ühe ketta kadumisel allesjäänud ketastelt kõik blokid leitavad oleks ja sellepärast kirjutamise kiirus kannatab, aga lugemisel töötab terviklik MD RAID10 far layout nagu RAID0 - iga blokk nopitakse iseseisvalt kettalt. Sinu stsenaarium läheb käiku alles siis, kui üks ketastest otsad annab - siis tuleb ühelt kettalt leida rohkem kui üks blokk ja lugemiskiirus kukub - tõenäoliselt kuhugi kirjutamiskiiruse tasemele. Süsteemis, kus lugemist on tunduvalt rohkem kui kirjutamist, annab MD RAID kasutamine seega positiivse tulemuse.
Ehk tsiteerides md man lehekülge:
tsitaat: |
When 'far' replicas are chosen, the multiple copies of a given chunk are laid out quite distant from each other. The first copy of all data blocks will be striped across the early part of all drives in RAID0 fashion, and then the next copy of all blocks will be striped across a later section of all drives, always ensuring that all copies of any given block are on different drives.
The 'far' arrangement can give sequential read performance equal to that of a RAID0 array, but at the cost of degraded write performance. |
ja kui seda illustreerida kahel ja kolme füüsilisel kettal paikneva MD RAID juhtumil, siis on pilt midagi sellist (ja selle võid leida Wikist):
2 drives 3 drives
-------- --------------
A1 A2 A1 A2 A3
A3 A4 A4 A5 A6
A5 A6 A7 A8 A9
.. .. .. .. ..
A2 A1 A3 A1 A2
A4 A3 A6 A4 A5
A6 A5 A9 A7 A8
.. .. .. .. ..
|
Seega miks peaks mõni ketas seda kaugemat koopiat lugema ronima, kui esimese koopia kõigist blokkidest saab kätte stripe-na? Nagu Wiki artikliski öeldakse, ei ole Linux MD RAID10 standardne RAID level.
Wikipedia: RAID: Non-standard levels kirjutas: |
Linux MD RAID10 (RAID 10) implements a general RAID driver that defaults to a standard RAID 1 with 2 drives, and a standard RAID 1+0 with four drives, but can have any number of drives, including odd numbers. MD RAID 10 can run striped and mirrored, even with only two drives with the f2 layout (mirroring with striped reads, giving the read performance of RAID 0; normal Linux software RAID 1 does not stripe reads, but can read in parallel). |
Nii et shallallaa, kui pead end vaese asutuse it-muredest nii kaugel olevaks oma asutuse kõrge rahakoti otsas ja oled vastutamas suurte potentsiaalsete rahaliste kahjude eest, kui miskit valesti peaks minema, siis on sinu seisukoht ja soovitused asja eest, aga see ei anna põhjust irvitamiseks nende üle, kelle käsutuses selliseid ressursse ei ole, eriti kui sa teemasse süvenema ei vaevugi.
Softraid on hädaabinõu, kui rahakott on ülikõhn - see oli teada juba enne sinu kommentaari ja peaks olema teada igaühele, kel sellega tegelemiseks põhjust on. Elementaarne.
Ja mul on väga hea meel, et sa seda nii lahedaks ja humoorikaks lugemiseks pidasid ja see kauaks meelde jääb. Naer on terviseks ja kahjurõõm olevat see kõige suurem rõõm. Cheers!
_________________ Tee inimesele lõke ja tal on soe üheks päevaks, pista ta põlema ja tal on soe elu lõpuni. (Terry Pratchett)
e.k spikker: muhk on kumer, lohk on nõgus. |
|
Kommentaarid: 33 loe/lisa |
Kasutajad arvavad: |
   |
:: |
0 :: |
0 :: |
32 |
|
tagasi üles |
|
 |
|
lisa lemmikuks |
|
|
sa ei või postitada uusi teemasid siia foorumisse sa ei või vastata selle foorumi teemadele sa ei või muuta oma postitusi selles foorumis sa ei või kustutada oma postitusi selles foorumis sa ei või vastata küsitlustele selles foorumis sa ei saa lisada manuseid selles foorumis sa võid manuseid alla laadida selles foorumis
|
|
Hinnavaatlus ei vastuta foorumis tehtud postituste eest.
|