5ちゃんねる ★スマホ版★ ■掲示板に戻る■ 全部 1- 最新50  

■ このスレッドは過去ログ倉庫に格納されています

RAID総合スレッド No.5

1 :login:Penguin:2009/09/16(水) 23:34:35 ID:JK/kMdkU
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/
スレ 4 http://pc11.2ch.net/test/read.cgi/linux/1208263754/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.com/ja-JP/_common/os_support/linux/

Linux EVMS 一般
ttp://evms.sourceforge.net/

Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。
... あと続けてくらさい。

2 :login:Penguin:2009/09/17(木) 00:31:57 ID:FGAuQfF7
2隷奴

3 :login:Penguin:2009/09/17(木) 10:24:21 ID:a38jzfUh
前スレ、どうなった?
1000行ってなかった気がするけど、落ちた?

4 :login:Penguin:2009/09/17(木) 12:13:32 ID:EBgro0cj
>>3
984でDATE落ちしてて誰もたてる様子がなかったので建てました

5 :login:Penguin:2009/09/17(木) 15:09:51 ID:ioZx6ZJ8
>>3
981以上で一定期間書き込みがないと落ちる。

6 :login:Penguin:2009/09/19(土) 00:47:59 ID:zqqctU3x
すみませんちょっと質問させてください。
stripe orderって論理的なslotナンバーみたいな認識で良いんでしょうか?
ググったんですが解説しているとこがなくて困ってます。
お願いします。

7 :login:Penguin:2009/09/19(土) 10:46:29 ID:GE78LuGJ
mdadmでRAID5のアレイにディスクを一本足そうとadd→growしたんだけど
うっかりパーティションを切り忘れてディスクデバイスそのものをaddしちゃったので
reshapeジョブをいったん止めたい。
しかしmdadmからあれこれ試したところ
何やっても「今やってるからちょっと待っとけ」みたいな表示。
でも素直に待ったら一日かかる。
諦めるしかないかなー?

8 :login:Penguin:2009/09/19(土) 12:52:38 ID:NZbmXcrB
バックアップも取らずにreshapeしたのなら諦めるしかないのでは?

9 :login:Penguin:2009/09/19(土) 13:40:53 ID:gNI7Yumi
質問です。

CentOS5.3のmdadmのRAID5で、Rebuild Statusが30%completeぐらいで0%に戻ります。
rebuildしている状態で、mountしようとすると、以下のような感じになります。
何か救済案はないでしょうか。

[root]# mount /data
mount: wrong fs type, bad option, bad superblock on /dev/md2,
missing codepage or other error
In some cases useful info is found in syslog - try
dmesg | tail or so

[root]# dmesg | tail
SCSI device sdk: 1953525168 512-byte hdwr sectors (1000205 MB)
sdk: Write Protect is off
sdk: Mode Sense: 00 3a 00 00
SCSI device sdk: drive cache: write back
md: syncing RAID array md2
md: minimum _guaranteed_ reconstruction speed: 1000 KB/sec/disc.
md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for reconstruction.
md: using 128k window, over a total of 976759936 blocks.
EXT3-fs error (device md2): ext3_check_descriptors: Block bitmap for group 3968 not in group (block 834142208)!
EXT3-fs: group descriptors corrupted!


10 :login:Penguin:2009/09/19(土) 16:04:25 ID:GE78LuGJ
>>8
いや、つまりムダな時間がかかるから止める方法ないかな?って話なんだけど
バックアップがあったらなんかいいことあったかね?
どうせ書き戻しやら何やらしなきゃならないからあまりメリットが思いつかないけど

11 :login:Penguin:2009/09/20(日) 00:28:14 ID:Br9GWSzG
>>7
sata/md/lvm/fs
なオレはパーティションなんぞ切らずにmdでRAID5 array組んでますよ

12 :login:Penguin:2009/09/20(日) 00:29:54 ID:Br9GWSzG
>>9
fs壊れてるよ、それ・・・

13 :7:2009/09/20(日) 16:32:20 ID:JfCgkafy
結局素直に時間で解決したw

>>11
俺も昔はそうしてたんだけど、
ある時、アレイの容量を増やそうと同容量のディスクを一本買ってきたら
元あったディスクと新規ディスクの総セクタ数がほんの少し違ってて
(つまり新ディスクの方が数セクタ少なくて)追加できず…ということがあった。
それ以来、総容量より僅かに小さいパーティションをきちんと切るようにしたよ。

14 :login:Penguin:2009/09/21(月) 14:16:08 ID:Ly9SE+U7
ん?
mdならパーティションなんぞ切らなくても
使用容量が指定できたと思うが

それに既にあるアレイに追加するなら
どう転んでも既に使われてる他のドライブと
同じ容量しか使われない

時間がどーとか悩むだけ無駄

15 :login:Penguin:2009/09/21(月) 14:22:07 ID:nwMOYBnG
>>13
嫌過ぎるな > わずかに足りない

LVMで500GBx3をLVMでまとめて
1.5TBのディスクのアレイに参加させようとしたらわずかに足りない・・
良く見たらfree PEがまだまずかに残っていた。lvextendで0になるまでぶちこんだらなんとかなった

16 :login:Penguin:2009/09/21(月) 14:39:49 ID:Ly9SE+U7
>>15
LVMでまとめたボリュームをRAIDに加えるって
なんでそんな危険なことを?
RAIDの意味を真っ向から否定するようなw

17 :login:Penguin:2009/09/21(月) 14:42:16 ID:nwMOYBnG
>>16
比較的最近1.5TBをメインのアレイに変えたので
これまでの500GBがいっぱい余っているため。貧乏性なので・・

18 :login:Penguin:2009/09/21(月) 14:44:27 ID:Ly9SE+U7
>>13
--size または -z

19 :login:Penguin:2009/09/21(月) 14:47:49 ID:Ly9SE+U7
>>17
「いっぱい余ってる」なら
LVMではなく
もう一個足してRAID5のボリュームにして
それをもう一段上のRAIDに参加させる
の方が正しいような気がする。

面倒くせーから
俺はやらんけどねw

20 :login:Penguin:2009/09/21(月) 14:54:51 ID:nwMOYBnG
>>19
正確には6個なので、それも考えたけど。

で、まあ
結局のところ止めました!w
リビルド開始までは確認したけど「遅ッ」
1.5TBなら 25MB/sくらいの速度なのだけど
LVMまぜたら 17MB/sくらいになって残り時間が「万分」という表示に

いや、それも正確にはLVMが悪いのかそれとも
今回初めてRAID6にしているため、RAID6はパリティ計算が小難しいから
遅いのかよくわかっていなかったりする

21 :login:Penguin:2009/09/21(月) 14:57:17 ID:0rI++oYo
バーカ

22 :login:Penguin:2009/09/24(木) 17:41:10 ID:QOatyG3l
http://pc12.2ch.net/test/read.cgi/software/1232865288/735
>>教えてください
>>質問なんですが外付けのHDDも暗号化できますか?
>>2テラのHDDを4台でハードウエアRAID 0構成したHDDを暗号化して使いたいのですが
>>問題有りませんか?

23 :login:Penguin:2009/09/25(金) 22:29:45 ID:OgNrc6NB
素直に1.5TBを購入し 500GBは500GBでアレイにした
RAID6って初めてだ。こんな感じ。やっとリビルド終わった記念。チラ裏スマソ。
$ cat /proc/mdstat
Personalities : [raid1] [raid5] [raid4] [raid6]
md2 : active raid6 sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0]
1953535744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]

md1 : active raid6 sdm1[5] sdl1[4] sdk1[3] sdj1[2] sdi1[1] sdh1[0]
5860543744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]

24 :login:Penguin:2009/09/27(日) 19:56:01 ID:OVR/+voC
電源とSATAホットスワップベイとマルチプライヤーだけのRMな箱売ってないかなー

25 :login:Penguin:2009/09/28(月) 10:39:20 ID:Lzc9hMsI
いろいろ調べてみたんだが、明確な内容がつかめないので質問します。(調べ方が足りなかったらすまん)

CentOSにて
/boot RAID1
swap
/ RAID1+0

として、InstallしたいのだがInstallerには、RAID0, 1, 5, 6 しかないのでInstallerから組むことはできないと思うが
Install後に何か手を加えてRAID10でパーティション構築して、/ として使用する方法はない?

26 :login:Penguin:2009/09/28(月) 11:40:16 ID:1pzidZ2O
FedoraだったらインストーラでRAID10できるんだけどなー

27 :login:Penguin:2009/09/28(月) 13:28:48 ID:C/Lh+sXP
>>25
インストール中にコマンド打って、あらかじめ好きなようにmdを作っておいて、
そこにインストールする、という手順じゃダメ?

28 :login:Penguin:2009/09/29(火) 17:04:26 ID:uKmkyA+r
>>25
一旦USBメモリとかにインストールして、カーネルを入れ替えてから、好きなような構成に設定したHDDにまるごとrsyncでコピる。

29 :login:Penguin:2009/10/04(日) 20:06:23 ID:QoLrolGm
>>24
裸族の雑居ビルじゃだめなんか

30 :login:Penguin:2009/10/13(火) 14:47:09 ID:IKMNvC1+
ざぞくのらっきょビル

31 :login:Penguin:2009/10/18(日) 20:32:48 ID:kyzATX8H
システム:md0(sda1 + sdb1のraid1) + データ:md1(sda3 + sdb3のraid1)
という構成でシステムを再インストールしたいのですがどうすればいいのでしょう?
  1.sdb1をfail&removeしてmd0から除く
  2.sdb1に新システムをインストール
  3.sdb1から起動し、元のmd0(sda1のみ)にシステムをコピー&grub設定
  4.sda1から起動し、sdbをadd
と思ったのですが…1の時点でコケました。

1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、
物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、
と、ワケワカランとなってしまいました。
# そもそもmd0のシステムを入れ替えてmd1って動くのでしょうか?

32 :login:Penguin:2009/10/18(日) 20:43:55 ID:/Yo7fcPn
> 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、
> 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、

BIOSでの起動ドライブの指定は意図した通りに設定してあんの?
至極まっとうな動作だと思うが
1枚だけで起動できなきゃなんの為のRAID1なんだ


33 :login:Penguin:2009/10/19(月) 10:35:44 ID:F1hFmcmu
何をしたいのかさっぱりわからん。

34 :login:Penguin:2009/10/19(月) 12:01:56 ID:5c6ufY3t
BIOSのHDD起動順序

35 :login:Penguin:2009/10/19(月) 12:23:40 ID:OwtH0QAV
つか
RAIDのレベルで二つに割ってる意味がサッパリ分からん。
ボリューム分けたいなら普通はLVMでやるもんだと思うが。
パフォーマンスが落ちるだけじゃねーの?

36 :login:Penguin:2009/10/19(月) 12:44:43 ID:Js6Cpgcr
LVM挟んだほうが明らかにオーバーヘッドが一枚多いだろw

37 :login:Penguin:2009/10/19(月) 16:32:02 ID:Sjy8xwGc
明らか
か?

38 :login:Penguin:2009/10/19(月) 21:48:33 ID:fwC9TQj2
実効"ほぼ"ゼロってのは叩きやすいからね
定量的に考えられない奴が引っかかるから扇動しやすい

39 :login:Penguin:2009/10/20(火) 11:23:21 ID:nQrL8SHf
パフォーマンスはともかく
ディスク故障->交換時にかかる手間暇に関しては
LVMで分けた方がずっと楽だな。

40 :login:Penguin:2009/12/14(月) 19:40:04 ID:RyeiL2Wz
LinuxMDでHDD4本でRAID1を2本ずつかけてるんだが、
複数のmdデバイスを同時にresyncかけるのはできるのかな?

OSインストール時に二個同時に走ってるのを/proc/mdstatで見たんだけど、
再起動すると一個ずつになってる、、

同時でやれば速く終わるはずなんだけど

41 :login:Penguin:2009/12/15(火) 11:32:32 ID:tx5kvce1
>>40
> 同時でやれば速く終わるはずなんだけど

むしろ遅くなりそうな気がするが。
同一のCPU、同一のコントローラで
二つの処理を同時に行わせるんだよな?

42 :login:Penguin:2009/12/15(火) 14:19:25 ID:CbO7zir3
>>41
そうなんだけども、CentOSインスコ時の裏ターミナルで見たら二本のRAIDペアが同時でMAX近いスピードが出てるんだよ。

resync終了前に再起動すると起動してからresyncが走るけど一本ずつresyncに。

同時並行でresyncできるかmd.txt見てもそんなパラメータないし謎、、

43 :login:Penguin:2009/12/15(火) 14:52:55 ID:kA6phnL8
ボリュームの初期化と
データが入ってるボリュームのresyncでは
話が全く違うように思える

44 :login:Penguin:2009/12/15(火) 16:18:22 ID:CbO7zir3
>>43
もち、買ってきたばっかのブランクHDDです

45 :login:Penguin:2009/12/15(火) 17:52:50 ID:DeZ5m+oO
単にrcスクリプトの問題じゃねえの

46 :login:Penguin:2009/12/16(水) 02:11:43 ID:5fywQ9w/
ひょっとしたらmdadmで作成した時だけは同時に走るのかもしれない…

で再起動してからは同期が終ってないから普通に順番に走ると。

客先とかで組むと最後まで完了しないと帰れないのでって事情ですw

47 :login:Penguin:2009/12/16(水) 11:50:39 ID:cGLo5n8p
そういう事情なら
前の日のうちにresync済ませておいたHDDを持ち込めば
再認識させるだけで即座に帰れるぞw

48 :login:Penguin:2009/12/23(水) 17:30:17 ID:zGW6BKPU
LVMもRAIDに加えられるようなのでちょっと悩み中

今、自宅ファイルサーバの構成が
500GB 2個
1TB 2個
1.5TB 1個
という構成
OSは80GBのHDDに入れている

容量が足りなくなったついでにRAID5を組もうと思い、
1.5TB 2個を追加しようと思っている

ここで、A案かB案か迷っている
A案 500GB+1TBで1.5TBのLVMを組んで 1.5TB 5個でRAID5を組む
B案 1.5TBをfdiskで500GBと1TBのパーティションで切って
500GB 5個と1TB 5個でそれぞれRAID5を組む

今後のディスク追加は1.5TB以上だと思うのでA案を考えているけど、
A案だと再構成に何日もかかるのかな?

49 :login:Penguin:2009/12/23(水) 18:40:50 ID:DJuG93Mm
どちらかといえばB案かな。大容量での再構成はできれば避けたい。
ただ、両方のボリュームへの同時アクセスでヘッドの取り合いになりそうではある。
このあたりはアクセスパターン次第かと。

もしAなら、LVMにしなくてもlinear arrayでつなげばいい気がしないでもない。
mdXもRAIDに参加できる

で、冗長性を保った状態で容量拡張をしたいならRAID1+LVMが一番楽。
大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら
一番小さいアレイからデータ掃き出して外す。
うちはこれで、1発250GBの時代から新陳代謝させて
今 1TB RAID1 x 3 + 500GB RAID1 x2 になってる。
このあたりは容量効率をとるかメンテナンス性を取るかの判断かな

50 :login:Penguin:2009/12/23(水) 23:29:29 ID:o+oOXBGn
3台のRAID5(md0)を4台構成に変更しようと思い、下のコマンドを実行していくと失敗する。
# mdadm /dev/md0 -a /dev/sdd1
mdadm: hot added /dev/sdd1
# mdadm -G /dev/md0 -n 4
mdadm: Cannot set device size/shape for /dev/md0: Invalid argument

ちなみに、md0はLVMに組み込まれています。

今までこのようなことをが起きた事はなかったのですが、どなたかご存知の方、教えていただけませんか?


51 :login:Penguin:2009/12/24(木) 00:01:18 ID:SIaUuIyu
>>49
> 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら
> 一番小さいアレイからデータ掃き出して外す。

参考までに教えて欲しいのだが、この掃き出しというのはpvmoveで
大きいアレイにデータを寄せて、resize2fsでfsを縮小、
vgreduceでLVをVGから外す、という流れでおk?

52 :login:Penguin:2009/12/24(木) 02:50:17 ID:NQCo/TNI
>>51
減らすときはfs-LV-VG-PVっていうレイヤの上から、増やすときはその逆。
なので手順はresizefs→lvreduce→vgreduce→pvremoveだし、
増やすときはpvcreate→vgextend→lvextend→resizefs

53 :login:Penguin:2009/12/24(木) 02:52:07 ID:NQCo/TNI
途中で送信してしまった。

(通常の構成なら)RAID(md)層はPVのさらに下に来る。
あとはLVMスレで頼む

54 :login:Penguin:2009/12/24(木) 12:29:30 ID:VyYXnLPe
>>52
lvreduceすると自動的にpvmoveされるっけ?

55 :login:Penguin:2009/12/24(木) 13:03:22 ID:VyYXnLPe
Linuxのmdで、ローカルにATAやSCSIのディスクがつながっていて
なんらかの冗長化をしたい、というシチュエーションに限定した話で
いいんですけども、
・ディスク全体でmdを構成して、md上にパーティションをつくる
・パーティション分けてから、パーティションごとにmdをつくる
利点欠点について説明する場面があるんだけど、何を言えばいいだろう。
その気になれば後でどうにでもなるからどっちでもいいや、
とつい思ってしまうんだけど……

話す相手は「コンピュータには慣れているけど(学問的な意味で)
サーバメンテ的なことには詳しくない人」です。

56 :login:Penguin:2009/12/24(木) 13:10:57 ID:wt0k8Pk+
つまり、お前もよく理解していないってこった。

57 :login:Penguin:2009/12/24(木) 21:07:27 ID:NQCo/TNI
LVMスレへの誘導をもろともしないバカなんだし、許してやれよ…

58 :login:Penguin:2009/12/25(金) 09:54:17 ID:Bu/8ScH4
>>50
> ちなみに、md0はLVMに組み込まれています。

答えが書いてあるんじゃないかって気がする。

59 :login:Penguin:2009/12/25(金) 09:56:03 ID:Bu/8ScH4
>>57
誤:もろともしない
正:ものともしない

60 :login:Penguin:2009/12/27(日) 22:44:10 ID:xPaTeqXA
>>52>>51への返答になってないことにも気づかず偉そうだな…… > /dev/null

61 :login:Penguin:2010/01/04(月) 22:46:36 ID:kJMQbgtx
ねぇ、LVMで足らない分をポチポチ足していったら
JBODみたいに1つでも壊れたらまずいHDDアレイにならない?

62 :login:Penguin:2010/01/18(月) 01:11:33 ID:FrA+yAqo
>>48ですが、A案で構成中に問題が
>>49さんを参考に500GB+1TBをlinear arrayでつないでみたのですが、
OS再起動するとRAID構成から外れてしまう

# mdadm --create /dev/md1 --level linear --raid-devices 2 /dev/sdf1 /dev/sdg1
# mdadm /dev/md0 --add /dev/md1
# mdadm --grow /dev/md0 -n 5

これで一旦はmd0に組み込まれるんだが、OS再起動すると/dev/md1が外れる
恐らくOS起動時、/dev/md0を構成するときに/dev/md1が構成されていないからだと思うんだが
/dev/md0を/dev/md9としてもダメだった

今度lvmからmd0への組みこみを試してみようと考えているが、
linear arrayでできる方法はないのだろうか?

63 :login:Penguin:2010/01/19(火) 20:18:03 ID:+d0hdVIw
initrd作り直したか?

64 :login:Penguin:2010/01/20(水) 18:35:12 ID:XwDp0ABh
ubuntu9.10からのpalimpsestディスクユーティリティつかったソフトウェアRAIDやってる人はいるかい?

65 :login:Penguin:2010/01/20(水) 19:29:48 ID:ndWbRgCE
まぁFedora11から入ってるから、いるんじゃね?


66 :login:Penguin:2010/01/21(木) 00:16:24 ID:VDTPOdY5
いやー自動マウントの設定がうまくいかなくてさー

67 :login:Penguin:2010/01/23(土) 03:37:11 ID:3Mk8FRSB
そこそこIOPSの高い数TBのストレージを作りたいんですが、
基本的にはディスク本数を増やすアプローチで良いのでしょうか?

68 :login:Penguin:2010/01/23(土) 10:49:58 ID:NzyUkd6I
数TB程度ならSSD並べるだけでいいだろ

69 :login:Penguin:2010/02/05(金) 18:22:40 ID:0skLHFUh
swapを冗長化するという話はほとんど聞きませんが、
swap域でディスクエラーが起きたらどうなるのでしょうか?
プロセスが突然死するのでしょうか?
暴走することもあるのでしょうか?

一般には、swapを冗長化するデメリットが
プロセスが突然死したりするかもしれない心配より
大きいと考えられているのでしょうか?

70 :69:2010/02/05(金) 18:25:40 ID:0skLHFUh
別の質問です。

sdaとsdbでraid1を組んだとき、
sdaがあるビットは1だと言い、sdbはそのビットは0だと言ったら
何が起こるのでしょうか?

71 :69:2010/02/05(金) 18:34:06 ID:0skLHFUh
>>70

これは間抜けな質問だったかもしれません。raid5などと混同していました。
無視してくださって結構です。

72 :login:Penguin:2010/02/05(金) 18:39:23 ID:hTXVw8Is
>>69
前半 YES。ただそれが問題になる場合は、スワップをしないように最大まで
メモリを載せる。スワップしたら負け。

73 :69:2010/02/05(金) 18:44:53 ID:0skLHFUh
>>72
早っ。

今までスワップは、とにかくするもんだと思っていましたが、吹っ切れました。


74 :login:Penguin:2010/02/05(金) 18:47:13 ID:VwALYjfj
>>69
実際にやってみた。
物理メモリにマッピングされているページを、わざとスワップアウトさせた状態で:
sudo /bin/sh -c 'cat /dev/zero >/dev/<swap>'

ええ、フリーズしました。
どうしたらよいでしょうか?電源ボタン長押しでいいですか?

75 :login:Penguin:2010/02/05(金) 19:19:11 ID:j8P2r62W
物理メモリの延長と考えればメモリの破損だからなあ
そりゃ止まるよね

76 :login:Penguin:2010/02/05(金) 19:25:12 ID:VwALYjfj
でもさ、ユーザ空間のプロセスなんてカーネルに管理されているんだから
強制的に終了させられることは珍しくないじゃん?
だからさーそういう例外を予測して、完全には無理だろうけど、
フェイルセーフな方向に失敗させるのがプログラマの仕事じゃないかな?

77 :login:Penguin:2010/02/05(金) 21:54:13 ID:/2F2WLUF
OSとアプリの責任分界をまるっきり無視だなw

78 :login:Penguin:2010/02/06(土) 02:29:34 ID:NYl8i1Ri
初心者なのでこのスレには不似合かもしれないんですけど
緊急事態なので教えてください

REID0を組んでるのですがマザーが逝ってしまったらしく
BIOSまで行き着かず電源が落ちてしまいます

なんとかHDのデータだけでも救出したいのですが
ほかのマザーでもREIDのHDは認識しますか?

可能でしたらその手順も教えていただけたら...

お願いいたします

79 :login:Penguin:2010/02/06(土) 07:27:04 ID:OzdAS2DW
ソフトRAIDなのかハードRAIDなのか。

ハードなら同じハードを揃える。
ソフトなら移し変えるだけ可じゃね?

もうちょっと環境詳しく。

80 :login:Penguin:2010/02/06(土) 09:53:58 ID:NYl8i1Ri
>79
ありがとうございます

DELL DIMENTION 9100のBTOのメーカー設定のソフトウェアREIDです

自分としては他のマザーで大丈夫なら
今時のマザーとCPUを購入して他のパーツを流用できれば理想なのですが

同じマザーでなければ無理なようでしたら
ヤフオクで純正のマザーを落とそうかと思ってます



81 :login:Penguin:2010/02/06(土) 14:55:17 ID:kWyCQKjd
WindowsXPモデルしか無いみたいだけどここはLinux板だよ。

82 :login:Penguin:2010/02/06(土) 15:04:03 ID:y6S0x+iZ
REID て。

83 :login:Penguin:2010/02/07(日) 04:45:16 ID:HVHbakeU
ローマ字入力してる人に多いタイプミスだから気にしない…
(わたしは親指シフトだから…笑)

84 :login:Penguin:2010/02/07(日) 05:10:36 ID:Is4alLXh
タイプミスだろうが何だろうが繰り返してる上に直す気がない時点でダメ認定済みなわけだが

85 :login:Penguin:2010/02/07(日) 06:19:54 ID:e3D699rK
RAID0でデータを救出って時点で頭おかしいね
RAID0はなくなってもいいデータを入れるものだろうに

86 :login:Penguin:2010/02/07(日) 07:13:30 ID:kPG49Q02
>RAID0でデータを救出って時点で頭おかしいね
ディスクが逝かれたってことじゃないみたいだし、
そこは別にいいだろ。


87 :login:Penguin:2010/02/13(土) 05:44:18 ID:nV0eWbuV
質問です

元々
本体:eSATAカード増設
外部ストレージ:PMP対応のeSATA接続の箱にHDD2本(sdc, sdd)でRAID0
OS:fedora 11

の構成のサーバにfedora12をクリーンインストールしました。


インストール後、sdc、sddとも見えてて、sdc1、sdd1の各パーティションも0xfdで見えてますが、
RAID0の状態では見えていない状況です

この状態でRAIDの組みなおしは可能でしょうか?

88 :login:Penguin:2010/02/13(土) 07:31:30 ID:0ecMg6dD
意味不明

89 :login:Penguin:2010/02/13(土) 09:03:14 ID:TRB1DKG4
たぶん,
sdaにFedora11入れてて,sdc,sdcをSoftRAIDしてたのが,
sdaをFedora12にしてSoftRAID設定が消えちゃったって
言ってるみたいだね〜

Fedoraに強い人!助けて〜(笑


90 :login:Penguin:2010/02/13(土) 13:22:54 ID:ZQ7DCUTq
>>87
まず確認してほしいけど、起動後に、
mdadm -A /dev/md0 /dev/sdc1 /dev/sdd1
とすると、RAID0のアレイは動くんだよね?

それで動かないようなら、dmraidが悪さをしている可能性がある
dmraid -r
としてみて、/dev/sdcや/dev/sddが出てくるようならそれに該当する

91 :login:Penguin:2010/02/13(土) 13:38:35 ID:0WzASaEG
ソフトウェアRAIDで、dmraid って、ググっても古い記事しか見つからないんだけど、今でも再構築周りの不安定さってあるんでしょうか。確実に再構築できることを求めるなら、やっぱり md で組むべき?


92 :login:Penguin:2010/02/13(土) 13:56:06 ID:ZQ7DCUTq
>>91
逆にdmraidを使いたい理由を教えてほしいんだけど
Windowsとかとアレイを共用してるとか?
それとも最近のマザーにはparity計算するハードとか載ってるのかな?

枯れてるという意味でも、柔軟性でもmdの方がいいと思うけどな
たとえば、マザーが壊れたとかした場合、dmraidだと移行が面倒
mdだとそんな制限ないし、スーパーブロックの構造もわかってるので、壊れても
なんとか修復できたりする


93 :login:Penguin:2010/02/13(土) 15:11:10 ID:nV0eWbuV
>>90
返信ありがとうございます。

fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが
/devを見たところsdc1、sdd1ともない状況でした

現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1
とやってみたところinvalid major number '8' とでてきて詰まってる状況です


ちなみにmdadm -A /dev/md5 /dev/sdc /dev/sddを実行した結果を貼り付けて見ます

[root@sv1 ~]# cat /proc/mdstat
Personalities : [raid1]
md5 : inactive sdc[1](S) sdd[0](S)
4514 blocks super external:imsm

94 :login:Penguin:2010/02/13(土) 15:49:26 ID:ZQ7DCUTq
>>93
>fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが
>/devを見たところsdc1、sdd1ともない状況でした

あり得ない。じゃあ、fdiskは何のファイルをオープンしてるんだよって話だ
実際そうなんだというなら、
strace fdisk /dev/sdc
の結果を張ってみてくれ

>現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1
>とやってみたところinvalid major number '8' とでてきて詰まってる状況です

その「XX」が合ってるかどうか気になるな
デバイスファイル作るなら /dev で
./MAKEDEV sdc
としてみたら?(余計なファイルもいっぱいできるけど)

まぁ、いずれにしても通常はudevが作るわけだし、mknodできないとすれば別の理由か
mount
の結果と
dmesg
の結果でも張ってみてくれよ(dmesgは長いからsdc、sddの認識部分だけでいいや)

95 :login:Penguin:2010/02/13(土) 15:54:37 ID:ZQ7DCUTq
>>94
自己レス
ちょっと勘違いしてた
状況を整理すると、/dev/sdcと/dev/sddは存在しているわけだな。んで、/dev/sdc1と/dev/sdd1がないと
パーティションテーブルが壊れているのか、非互換なのか…という感じですか
とりあえず
fdisk -l /dev/sdc
fdisk -l /dev/sdd
の結果と、dmesgのsdcとsddの認識部分のログが見たいですな


96 :login:Penguin:2010/02/13(土) 16:00:09 ID:nV0eWbuV
>>95
度々すみません

# fdisk -l /dev/sd[c,d]

ディスク /dev/sdc: 500.1 GB, 500106780160 バイト
ヘッド 255, セクタ 63, シリンダ 60801
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
Disk identifier: 0x00072abe

デバイス ブート 始点 終点 ブロック Id システム
/dev/sdc1 1 60801 488384001 fd Linux raid 自動検出

ディスク /dev/sdd: 500.1 GB, 500107862016 バイト
ヘッド 255, セクタ 63, シリンダ 60801
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
Disk identifier: 0x00095176

デバイス ブート 始点 終点 ブロック Id システム
/dev/sdd1 1 60801 488384001 fd Linux raid 自動検出

(続く)

97 :login:Penguin:2010/02/13(土) 16:05:59 ID:nV0eWbuV
(続き)
# dmesg | grep sd[c,d]
sd 6:0:0:0: [sdc] 976771055 512-byte logical blocks: (500 GB/465 GiB)
sd 6:0:0:0: [sdc] Write Protect is off
sd 6:0:0:0: [sdc] Mode Sense: 00 3a 00 00
sd 6:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdc:
sd 6:1:0:0: [sdd] 976773168 512-byte logical blocks: (500 GB/465 GiB)
sd 6:1:0:0: [sdd] Write Protect is off
sd 6:1:0:0: [sdd] Mode Sense: 00 3a 00 00
sd 6:1:0:0: [sdd] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdd: sdc1
sd 6:0:0:0: [sdc] Attached SCSI disk
sdd1
sd 6:1:0:0: [sdd] Attached SCSI disk


>その「XX」が合ってるかどうか気になるな
# ll /dev/sdc
brw-rw---- 1 root disk 8, 32 2010-02-13 15:31 /dev/sdc
となっていましたのでマイナー番号は33を指定してました

98 :login:Penguin:2010/02/13(土) 16:23:17 ID:ZQ7DCUTq
>>96
>>97
fdiskの結果もおかしくないし、デバイス認識にも問題ない
mknodのマイナー番号指定もおかしくない(33であってる)
だけど、/dev/sdc1の作成には失敗するし、そもそもudevでの自動認識もできないわけですか
どうにも謎ですな

PMPに接続しているHDDをマザー上のSATAポートに接続しなおしてテストしてみるというのはどうでしょう
ある程度問題の切り分けが可能かも。または、別のHDDを接続して、区画設定からやり直すとか

SELinuxが何かしてる?
restorecon -R /dev
してみるとか(これで解決するとも思えんが…)

99 :login:Penguin:2010/02/14(日) 20:11:05 ID:32z55fMa
>>92
いえ。dmraid の方が高速だって記事を見かけたことがあるもので(ソースは失念しました)、安定してるなら入れてみようと思っただけなんです。

100 :login:Penguin:2010/02/15(月) 08:42:59 ID:dKzXeQoa
>>99
どっちも似たような処理をするわけだし、dmraidの実装が極端に優れているとかでなければ、速度差はそれほど期待
できない気がするなぁ。ちょっとググってみたけど、明確な性能差があるという最近のベンチ結果は見当たらなかった
(あまりしつこくは検索してない)

もしも速度差があるとすれば、dmraidがやるべきことをやっていないとかじゃないの?
dmraidのソース見たけど、未実装な機能であるとか、「more sanity check」とかのコメントが結構あったよ

mdでは、最近、バリアの実装が全RAIDレベルで完了したみたいだし、安全性考えるならばmdでしょ
そもそもdmraidではRAID 4/5使うにはまだカーネルにパッチを当てないといかんし、RAID 6に至っては未サポート
その上、ハード依存性もあるとなっては、俺なら多少の速度差程度では使う気にならんなぁ

もちろん使ってみてベンチマークとか取って報告してくれると嬉しいが


101 :login:Penguin:2010/02/15(月) 18:31:35 ID:3eiOHoeN
質問があります.長文ですがよろしくお願いします.

現在Vine linux 4.2 でファイルサーバを構築しています.
mdadmにて1.5T3台でRaid5の状態から,もう一台追加で
1.5T4台にしようとしたのですが,

# mdadm --manage /dev/md1 --add /dev/sdb1
mdadm: added /dev/sdb1

の後に--growを行ったところ

# mdadm --grow /dev/md1 --raid-disks=4
mdadm: Need to backup 384K of critical section..

となりエラーになります.
簡単に調べたところ,海外のサイトで
カーネルが2.6.19以降でないとraid5のgrowができないとあったので
Vine4.2のカーネルが2.6.16なのが原因だと考えていますが
それであっているでしょうか?

また,カーネルが問題なら,Vine5は文字化けの問題その他で
アップグレードを躊躇しているので
これを機に他のディストリに移行しようかと思っています.
このときにRaidのデータを残したまま移行する方法はありますか?
もしあれば教えていただきたいです.



102 :login:Penguin:2010/02/15(月) 19:46:15 ID:dKzXeQoa
>>101
raid5のgrow対応は2.6.17からじゃなかったかな。いずれにしても2.6.16なら駄目かな

んで、これはエラーじゃなくて、正常時にも同様のメッセージが出るよ
>mdadm: Need to backup 384K of critical section..

>これを機に他のディストリに移行しようかと思っています.
>このときにRaidのデータを残したまま移行する方法はありますか?

基本的にどのディストリであっても、そのまま移行できます
でも何があるか分からないから、バックアップは取っておきましょう

103 :login:Penguin:2010/02/15(月) 20:10:52 ID:VLzsUrgl
>>101
Vine4.2で
1.5TB x 6 のRAID6
500GB x 6 のRAID6
やってますよ。
過去にはRAID5 500GB x 4 をGrowで 500GB x 6にしたり普通にやってました。
Linux ***** 2.6.16-76.40vl4 #1 SMP Sun Nov 9 04:43:51 JST 2008 i686 athlon i386 GNU/Linux
普通にできるからガンガレw貴重なVineの友w

104 :login:Penguin:2010/02/15(月) 20:16:50 ID:Qu2WEuRS
>>101
カーネルのバージョンに加えてmdadmのバージョンも問題(2.6以上じゃないとダメ)。

Debian etchはカーネルが2.6.18なんだけどmdadmが2.5.xだったのでRAID5のgrowができなかった記憶が。

105 :101:2010/02/15(月) 20:35:37 ID:3eiOHoeN
皆さん早速の返事ありがとうございます.
>>102
すいません,一行コピーできていませんでした.
エラーは3行目だと思います.

# mdadm --grow /dev/md1 --raid-disks=4
mdadm: Need to backup 384K of critical section..
mdadm: Cannot set device size/shape for /dev/md1: Invalid argument

です.早速カーネルをあげてみます.

>>103
あなたもVineですか.
Vineは最近話題に上ることが少なくなった気がしたので
仲間がいると分かってうれしいです.
私もできるならVineのままでいきたいのでもう少しがんばってみます

>>104
mdadmのバージョンは考えてもみませんでした.
確認したところ

mdadm - v2.5.5 - 23 October 2006

でしたので,こちらもバージョンアップします.

早くやりたいけど,まだ家に帰れない...

106 :103:2010/02/15(月) 21:04:45 ID:VLzsUrgl
>>105
過去の自分の作業ログを見たところ
500GBx4→500GBx6のときはraidtools、

1.5TBx4→1.5TBx6のときは
http://piro791.blog.so-net.ne.jp/2008-11-07
ここを参考にやってました。

がんばってください。
自分のmdadm も2.5.5でバージョン全く同じです。

107 :login:Penguin:2010/02/16(火) 12:07:46 ID:U/2RUOkN
でもVine 4.2なら直にメンテナンスされなくなるし、
いずれは5.xに行くか他のディストリに移る必要があるよ。
5.xへの移行はデフォルトの文字コードその他、
他のディストリに移行するのと大差ない面倒があるので俺は結局CentOSに移った。
RedHat系なら yum の使い方覚える必要がある程度で
Vineでのノウハウがそのまま使えるし大した問題はない。

確か俺もVineでは growがうまく行かなかった記憶がある。
その時は調べた結果「ああ、kernel が古いのか」で納得したと思う。
>>103 が「普通にできる」てのがちょいと信じ難いが…
>>103 の kernel はいくつなのかな?

ま、Vineにはつきもののこの手のトラブルが皆無になるし
将来のことを考えると結局は他所へ移った方が楽だと思う。
メジャーなディストリだとトラブル時にネット上での情報量が多いしね。

108 :login:Penguin:2010/02/18(木) 00:39:32 ID:WHcn7By1
>>100
あーソースまではチェックしてなかったです。
ううむ。未だにその状況だと実運用に使えるようになるのは当分先ですね。
今自宅にPCないので手軽にベンチがとれる環境を作れないんです。個人で借りてるサーバーに突っ込んでみようかと思っていたのですが、今回は見送ることにします。
ありがとうございました。


109 :login:Penguin:2010/02/22(月) 11:49:13 ID:/vv6ceYV
RAID1を構成するディスクを読んだら、それぞれ違う値を返した、
ということはあり得るのでしょうか?
このとき物理的なエラーは検知できなかったとします。

110 :109:2010/02/22(月) 11:54:40 ID:/vv6ceYV
>>70の質問をした者です。
結局同じ質問になっていたことに気付きました。
質問を変えます。
RAID1に'a'と書きこんだのに、続けて同じ場所を読んだら'b'となっていた。
このとき物理エラーは検出されなかった。ということはあり得るのでしょうか?

111 :login:Penguin:2010/02/22(月) 14:57:06 ID:mO3WnbsM
ハードもソフトも人間が作ったもんだから、
「ありえるか」って言えば、ありえるんじゃね?

ところで、mdadm --detail /dev/md0 の結果でさ、
Events って何なんだろうね。
manpage 見ても、よくわかんなかったよ。

Events : 0.40
Events : 0.70880
Events : 0.26
Events : 0.60

4 台とも RAID1 のサーバだけど、いろいろ違うもんだね。

112 :login:Penguin:2010/02/22(月) 18:04:22 ID:6N04FDxr
低熱高熱状態でのHDDに書き込んだデータの化けはありうるわけだし
だからRead After Writeを実装してるHDDもあるし
こんとき物理エラーは検出されん
つか出来ん

113 :109:2010/02/22(月) 18:30:32 ID:/vv6ceYV
>>111
質問が下手すぎました。
>>112
どんな強力なRAIDでも、物理エラーとして検出されないエラーを修復することは
できないのですね。そういうことを気に病むより、SMARTなどの対策を打ったほうが
いいと思うようになりました。

114 :login:Penguin:2010/02/27(土) 02:12:27 ID:qDAtQXVH
今HDDのヘッドが読み出すときのビット誤り率(BER)は10-9程度
最近はエラー訂正に頼る傾向があるから、リニアでは10-6程度と逆にエラー発生率は高くなってる
でも逆に符号訂正の技術が高くなっているから、実際に伝送路に乗る品質は10-15乗以上にもなる
この次元の値のエラー率になると、もはやメモリーやバスやCPU、強いてはRAIDカードのコントローラーに乗るノイズで発生するエラーの確率のほうが高い。
それでもハードディスクの誤りが怖いというのであれば、次世代の量子コンピューターの登場まで待つんですな。

115 :109:2010/02/27(土) 16:01:38 ID:+q4ml44K
>>114
ありがとうございます。勉強になりました。

116 :login:Penguin:2010/03/20(土) 18:21:41 ID:SpYbO4RY
WD20EARSでmd RAIDやってる人はいませんか?

RAIDパーティションを64セクタ目から作成して、mdのストライピングサイズを64KBで
作成したとします。

mdに加えたHDDのRAIDパーティションの先頭にはmdの情報が保存されていると思います。
mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。
実際に使える先頭セクタの場所が8の倍数でない場合は、WD20EARSをWinXPで使う場合と
同じようにパフォーマンスダウンするのではないかと思っています。

これってどう思いますか?
各HDDにおけるmdの情報が4096bytesの倍数であれば多分問題ないんだろうと思うんですけど。


117 :login:Penguin:2010/03/20(土) 18:24:30 ID:SpYbO4RY
5行目を訂正します。

誤:mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。
正:mkfsにとって実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。

言いたいことって、伝わりますか?
うまく言語化できない。


118 :login:Penguin:2010/03/20(土) 18:26:25 ID:aN8kdh7Y
ttp://lkml.indiana.edu/hypermail/linux/kernel/1003.1/03467.html
ttp://lwn.net/Articles/377895/

119 :login:Penguin:2010/03/20(土) 18:57:33 ID:SpYbO4RY
>>118
このリンクはLinuxにおける4096bytesセクタに対する考察なだけっぽい気がします。
うまく言いたい事を表現できない自分が悪いんですけどね。

たとえば1つのmdパーティションにmdの管理情報が4096bytes必要だとします。
それならば次のセクタから64KBでストライピングしても、別にセクタをまたがった
アクセスにならないので問題ないと思います。

もし管理情報が2048bytesだとしたら、セクタをちょうど二つに分けた形で
ストライピングされてしまうので、強烈なパフォーマンスダウンになると思います。

ここまで書いて、どう書けばいいのかわかりました。
RAIDパーティション当たりのmd管理情報って何KBなんでしょうか?

120 :login:Penguin:2010/03/20(土) 19:23:29 ID:TrISQUCw
一番の誤解はmdのスーパーブロックは末端に在るってことかな

121 :login:Penguin:2010/03/20(土) 19:31:49 ID:TrISQUCw
バージョン0.9/1.0の場合だこれ
1.1/1.2だと先頭だわ
詳細はmd(4)
mdadmは0.9がデフォルトだけども

122 :login:Penguin:2010/03/20(土) 20:28:44 ID:SpYbO4RY
>>120
で、すげえ!やったネ!って思ったけど
>>121
なんという改悪でしょう。
man見てみましたけど、私には分かりませんでした。

考えてみたら、mdの管理情報が問題ないとパスできたとしても
ext3の管理情報サイズまで考えないといけないですよね。
WD20EARS買うのをやめようかな〜。
安いから特攻しようかと思ったんですけど。

123 :login:Penguin:2010/03/21(日) 20:28:32 ID:SqWw8gw9
知っている人に質問。

3wareの7000とか9550のSATA RAIDボードに既存のデータが保存されたHDDをつなげるとき、UNITの構築しなくても /dev/sdc1 とかでマウントして利用できる?
Single DiskとしてUNIT構築を行おうとすると、既存のデータが破壊されますけどどうします?と聞いてくるんで。


124 :login:Penguin:2010/03/21(日) 20:43:39 ID:plED2x3n
>>123
3ware使ってないけど、大抵のRAIDカードは管理用の情報をHDDに書き込むから
単体HDDとして使う場合も中身は壊れるよ。

3ware使ってる人に聞きたいのならこっちのスレのほうがいいかも
RAIDカードあれこれ 39枚目
ttp://pc11.2ch.net/test/read.cgi/jisaku/1263703844/

125 :login:Penguin:2010/03/21(日) 20:57:25 ID:SqWw8gw9
>>124
ありがとう。了解した。

該当スレ誘導も感謝。

126 :login:Penguin:2010/03/22(月) 12:23:35 ID:E14pDNne
linuxのソフトウェアRAIDの話です。
mdadm.confを使わずにRAIDデバイスを起動した場合は、OSの停止前に明示的にmdadm -Sを
実行する必要がありますか?

127 :login:Penguin:2010/03/22(月) 18:10:59 ID:N0EEVYIK
>>126
終了動作でファイルシステムのメタデータ吐く、
そのあとmdのスーパーブロック書き出して同期を停めるでしょ。

128 :login:Penguin:2010/04/02(金) 08:14:21 ID:laU9d0eY
raid 1+0 と 6が使える環境で、おまいらはどっちを選択する?



129 :login:Penguin:2010/04/02(金) 09:19:25 ID:+pJGaIlA
おまえならどっちもいっしょ

130 :login:Penguin:2010/04/03(土) 23:13:51 ID:YO6iN+5f
自作板で聞こうかとも思ったのですが、こちらの方が経験者が多そうなので質問させてください。

会社でCentos 5.4、Raid1でファイルサーバー立てようと思うのですがお勧めのRAIDカード教えてもらえないでしょうか
ただし予算はHDも合わせて2万円以内です。
先日ソフマップで、1.5TBのHDが8千円くらい、1TBが7千円くらいで売ってたので
HD2基で14000円〜16000円くらい
そうするとRAIDカードの予算は4000円から6000円くらいしかありません
玄人志向のSAPARAID-PCIやSATARAIDが2000円前後なので、それにしようかとも思ったのですがCentosで使えるのかなあと

実はこれまで職場ではIOのNAS使ってたのですが、頻繁に壊れるので何度かLinuxでデータをサルベージしてました
RAID対応のNASに買い替えようとも思ったのですが、企業向けはコストかかるのでどうせならファイルサーバーに1本化しようかなと

これまでCentosをのせていたPCは、玄人志向のATA133RAID-PCIのカードを取り付けRAID1で使用していましたが
160GBしかHD乗せて無かったので業務で使うには容量が足りず、データの受け渡し用にだけ使っていました。

構成はサーバー用にDELLの5〜6年くらい前のPC (CPU PENTIUM4 2.4GHZ、メモリ768MB PCIバス)
クライアントPCのOSはWindows XP、7、2000、Mac OSX 、Mac OS9など20台ほど(使用する人間は10人程ですが)

本当なら業務で使用するのだから、もっと高価なシステムを組むべきなのは重々分かっているのですが
何せ零細企業な上、私の裁量で稟議が降りるのが以前は10万だったのが、2万に減ってしまって(涙
それとも、この程度のクライアント数ならソフトRAIDにすべきでしょうか
ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです)

私の知識不足と長文申し訳ないですが誰か答えてくださるか誘導してくださると助かります。
よろしくお願いいたします。

131 :login:Penguin:2010/04/04(日) 00:14:11 ID:N/Mg7OeJ
金が無いなら知恵を死ぬ気で付けるしかない。
(最低このスレ全部読むくらいはやるんだろ?)

ってことはさておき、md使ったソフトウェアraidで良い。
カードもRAIDなんちゃらなんて付いてなくてATAカードで十分。
玄人志向だと以下から適当にどうぞ。
http://www.kuroutoshikou.com/products/select/interfacefset.html



132 :login:Penguin:2010/04/04(日) 07:40:07 ID:5YeefPIg
「ちゃんとした」ハードウェアRAIDカードを買う予算(8〜10万程度)
がないならソフトウェアRAIDを選択すべきだろうね

> ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです)

実際に試してみりゃいいじゃん。
「これまでCentOSを載せていたPC」とやらがあるんだろ?

133 :130:2010/04/04(日) 08:28:25 ID:sEcjxQNn
>>131-132
ありがとうございます。
いろいろめんどくさい条件書いてすみませんでした。
ソフトウェアRAIDでいってみます。

134 :login:Penguin:2010/04/07(水) 14:09:14 ID:0r9wUKJP
ソフトウェアraidのほうが部品点数が少ない分、故障も少なく可用性が高くていいな。

135 :login:Penguin:2010/04/07(水) 18:03:44 ID:jIRW8AWX
前スレに出てたけど
HDDが一個故障したらOSごと落ちちゃうような
(RAIDの意味がない)トラブルが起こる可能性は
HW RAIDより高いけどなw

136 :login:Penguin:2010/04/07(水) 19:05:51 ID:N4cK5rbU
前スレのどこにそんな事例があったのかソースくらい欲しいものだな

137 :login:Penguin:2010/04/07(水) 19:11:34 ID:jIRW8AWX
>>431-441

138 :login:Penguin:2010/04/07(水) 19:26:00 ID:rX+zbI9D
そーだな。5000円のカードよりは10万円のカードの方がマシだな。

139 :login:Penguin:2010/04/08(木) 03:30:23 ID:Hw13iH1s
>>135
前スレのはIDEのドライバの出来に影響されるって話だね。
SATAでも、ポートを増やすのにクロシコのカードを何枚も使ってたら可用性が高いとは言え無いだろうねw

でも最近のHW RAIDカードはSAS用に傾いてるから、SATAのHDDとの互換性の問題が多いんだよね。
エンタープライズモデルのHDD以外のサポートを拒否してるarecaとかね。
俺はarecaも使っててHDD選びですごい苦労してるんで、
その点ソフトウエアRAIDだとHDDは何でも良いんで楽でいいよw

140 :login:Penguin:2010/04/08(木) 12:51:30 ID:fx0Q1ZmL
> 前スレのはIDEのドライバの出来に影響されるって話だね。

コントローラ次第、という話であって、ドライバの出来に限定した話ではないかと。
(ドライバも要素の一部ではあるが)

俺はSW RAIDの一番のメリットは可用性ではなく、
HW環境に依存しない、という点だと思ってる。
(経験上、停めずに使うという点ではむしろHW RAIDの方が有利)

HW RAIDの場合、万一コントローラが故障した場合、同じ機種を調達しないと
アレイの中身の読み書きができなくなってしまう。
(同じメーカーでも別機種だと大抵はアレイの完全互換を保証していない)
既に調達不能になっている場合はどーしようもない。
仮に予備が買ってあったとしても、一台故障したらもう「次」はない訳で。

SW RAIDなら、OSがLinuxである限り、HDDとして認識してくれりゃHWはなんでもOK。
取り敢えず適当なPCに取り付けてやれば、アレイの読み書きは可能になる。

非常時のことを考えると、この差は大きい。
ま〜結局は、運用コストの差、という話ではあるがw

141 :login:Penguin:2010/04/08(木) 19:15:49 ID:5/ctPl71
>>122
mdadmのmanページ、-eオプションのところにバージョン毎の違いが書いてある。
ストライピングに関する記憶は朧げだけど、メタデータはmdデバイスではなく、
コンポーネントデバイスに書き込まれるため、ストライピングの対象にならない。
はずなんだけど、自信がないな。
mdadmはdefault==0.90だけど、ディストロのパーティション管理では、
異なることがある。例えば、openSUSEはRAID1の場合は1.0だった。

142 :login:Penguin:2010/04/08(木) 20:27:51 ID:+Jfsgp79
だから並盛を安くするんじゃなくて、大盛りをもう少し安くて
特盛りをもっと安くすればいいんだよ。

どうせ客層なんて男ばっかりなんだから。

143 :login:Penguin:2010/04/08(木) 20:28:43 ID:+Jfsgp79
ごめんとしか言いようがない。

144 :login:Penguin:2010/04/08(木) 20:38:47 ID:P5Oyw2sf
男がみんな大食いだと思ったら間違いだ。

145 :login:Penguin:2010/04/12(月) 23:05:43 ID:AKilMbBg
>>142
よかったな
ttp://getnews.jp/archives/55557

146 :login:Penguin:2010/04/15(木) 20:38:03 ID:3rydDv6Y
>>130
亀レスで何だが、使用者が10人程度なら
可用性よりバックアップを優先すべきだと思うが

バックアップはしてるの?
サルベージしているなら怪しいと思ってるんだが。。。

147 :login:Penguin:2010/07/20(火) 11:37:42 ID:q/Lsg0js
raid1壊れますたorz

syslog↓になんかずらずら出てるんですが、意味わかりませんorz
http://loda.jp/vip2ch/?mode=edit&edit=432

半年ぐらいしか使ってないディスクなんですが物理的にイカレてしまったのでしょか?
Jul 20 10:35:11 orz kernel: [ 6174.320131] ata3.00: model number mismatch(略) あたりマトモでない気がしますが…
ディスクから異音とかはないです

よろしければアドバイスお願いします

148 :login:Penguin:2010/07/21(水) 20:36:37 ID:2+4uaJQ3
>>147
エラー出てるね
> ata3: SError: { 10B8B Dispar BadCRC LinkSeq TrStaTrns UnrecFIS }

下記サイトによれば、SATAケーブルor電源が怪しい

ttps://ata.wiki.kernel.org/index.php/Libata_error_messages#SATA_SError_expansion
>These bits are set by the SATA host interface in response to error conditions on the SATA link.
>Unless a drive hotplug or unplug operation occurred, it is generally not normal to see
>any of these bits set. If they are, it usually points strongly toward a hardware problem
>(often a bad SATA cable or a bad or inadequate power supply).

個人的には熱暴走とかもありうると思うけど


149 :login:Penguin:2010/07/21(水) 22:35:51 ID:AJuBZV4Q
>>147
こりゃ完全にケーブルだ。
もしSATAケーブルがノッチ無しなら、ケーブルの両端を洗濯バサミで一晩挟んどけ。
結構効く。

150 :login:Penguin:2010/07/21(水) 22:37:31 ID:At+yPwQO
こんなどうしようもない対策がなるほど効いてしまうだろうなぁと思える
SATAコネクタ仕様を考えた奴はケーブルで首吊って詩ねばいいのに

151 :login:Penguin:2010/07/22(木) 10:30:29 ID:ruiGCZGt
SATAケーブルで吊るなんて出来ないだろ…と, 思ってたら,
隣の国で, 携帯のケーブルで吊った還流スターが居るの思い出して
涙が出ちゃったじゃないかー!そんなこと言うなよ〜

後付けの抜け防止金具とゆーものが無かったっけ?

152 :login:Penguin:2010/07/22(木) 10:34:04 ID:jxrupwtP
>>149
「ラッチ」のことか?

153 :login:Penguin:2010/07/23(金) 15:40:37 ID:aflCmZfG
>>150
こんなんだしなあ
USBの方はケーブルにも認証試験を行うようになったのにな

http://pc.watch.impress.co.jp/docs/column/interface/20100722_382306.html
>この話は別に今に始まったわけではなく、Gen2の頃からこうした問題は出ていたが、SATA-IO自身はこれに関して特に動く予定は無いというか、
>たとえばコンプライアンステストを通った製品にロゴを付加するといったキャンペーンは(過去に販売したケーブルは使えない、と言っているのと同義語なので)
>むしろ相互運用性を損なう事になりかねないとしており、
>引き続きケーブルに関しては、ごちゃごちゃのままの環境が続くことになりそうである。

154 :login:Penguin:2010/07/23(金) 21:47:22 ID:czPuWn9X
>>148-153

みなさんアドバイスありがとうございます

SATAケーブルが怪しい件了解です

機械のフタ開けて
SATAケーブルのコネクタを確認してみることにします
今日はもうマンドクサwなので明日ぐらいにでも

ガシッとはめて直ったらいいなと期待しています
では〜

155 :login:Penguin:2010/07/23(金) 22:42:05 ID:MvgvZIr6
>>154
ガンバレ
syslogにハードディスクデバイス関連のタイムアウトが頻発したらケーブルを疑う癖をつけるんだ。
SATAケーブルとの約束だぞ。

156 :login:Penguin:2010/07/27(火) 20:40:58 ID:+DF9ERUV
お手数かけますが、教えてください。

Debianです。
現在、SATA HDD8台、ソフトRAID6で運用中,。
HDDはオンボ4ポート、PCI SATAカード4ポートです。

SATAカードをPCI-eのSAS6iRに交換して、8ポートともSATAカードから接続したいと思います。
最終的には、SAS6iRに8台接続してデータはそのままで元の状態に戻したいのです。
どういう手順で行えばいいのでしょうか?



157 :login:Penguin:2010/07/27(火) 20:49:11 ID:zh7Of8ZU
Debianもudevなんだからそのまま新カードに挿して
Grub入ってるのBIOSで一番にしとけばいんじゃねの?

158 :login:Penguin:2010/07/27(火) 23:29:08 ID:PZTE8ajp
>>156
ディスクが接続されてるコントローラを意識しなくてもokだと思うが。

俺の場合、

1.C3-800MHzのPCにPromise SATA300TX4にSATA HDD×3を接続し、RAID5アレイ構築
2.パリティ計算の余りの遅さに耐えかねて(CPUファンもぶっ壊れたし)GA-D510UDを導入
3.GA-D510UDのオンボードSATA(NM10統合ので2ポート, JMicronので2ポート)にHDDを4台接続
4.もう1台ディスクを足してオンライン領域拡張
5.オンボードSATAはホットスワップが効かないことが判明したのでPCIスロットにSATA300TX4を挿してHDDを繋ぎ替え

というステップを経て現在に至るが、繋ぎ替えてもすんなりアレイを認識してたぞ。

159 :login:Penguin:2010/07/27(火) 23:35:52 ID:CDEVG/fS
>>156
RAIDボードのBIOSからExpoprt JBODとかか?
PromiseだとJBOD利用でも必ずBIOSからUnitを作成しないとデバイスが認識しなかった。

160 :login:Penguin:2010/07/28(水) 00:58:03 ID:C+9PDLMA
Promiseは平然と「1台構成でもアレイ組まなきゃ見えませんから^^」とか言い出す基地害板だからな

161 :login:Penguin:2010/07/28(水) 09:01:33 ID:E6Ms9Bcd
HardRAIDカードって壊れたときの対処ってどーなんすか?

HDD2個でRAID1使ってた場合
復旧不可能?

162 :login:Penguin:2010/07/28(水) 11:42:36 ID:fYI1FyG/
何がどう壊れたかによって話が変わる
漠然と言われても

163 :login:Penguin:2010/07/28(水) 12:29:45 ID:esiaNd7h
>>160
HighPoint RocketRAID 2300とかは「1台でもアレイ組め」に加えて、
POSTの際に繋がってるディスクのデータを(アレイのメンバじゃなくても問答無用で)壊すけどな!

164 :login:Penguin:2010/07/28(水) 14:26:58 ID:lqUxMOoj
>>163
それ嘘だ。
イニシャライズせずにレガシーのまま使えばアレイ組まなくても使える。

165 :163:2010/07/28(水) 14:43:25 ID:esiaNd7h
>>164
1台でもアレイ組めは俺の記憶違いか。すまん。


166 :login:Penguin:2010/07/28(水) 17:14:44 ID:fXbebyC4
>>165
いやいや、結構はまりやすいよ。RAIDボードでのSingle DiskとJBODの設定は。
前者はハードディスクを消去するボードもあるし、後者もJBODでもUNITを作成しないとハードディスクを認識しない等。
俺もいろんなメーカーのRAIDボードメンテナンスしていたが今でもごちゃごちゃ。
一番楽なのはLinux SoftwareRAIDだな。

167 :156:2010/07/29(木) 19:45:06 ID:MQlBotXc
みなさんの言うとおり、SAS6iRを挿しそのままHDDをつなぎ替えて起動してみましたところ初めからHBAとなり、何もせずに移行できました。
ありがとうございました。


168 :156:2010/07/29(木) 22:21:04 ID:MQlBotXc
ベンチ計測してみた。
SAS6iR HDD8台(WD10EADS) ソフトウエアRAID6
hdparmでread測定したら、251MB/sだった。
たぶん遅い部類なんだろうな。

169 :login:Penguin:2010/07/29(木) 22:31:18 ID:hc5F77Bz
>>168
多分バス速度で頭打ち。

58 KB
■ このスレッドは過去ログ倉庫に格納されています

★スマホ版★ 掲示板に戻る 全部 前100 次100 最新50

read.cgi ver 05.04.00 2017/10/04 Walang Kapalit ★
FOX ★ DSO(Dynamic Shared Object)