OpenSolaris/Illumos (OpenIndiana, etc.) 5at UNIX
OpenSolaris/Illumos (OpenIndiana, etc.) 5 - 暇つぶし2ch750:名無しさん@お腹いっぱい。
11/11/27 10:48:39.54
>>748
それWrite Holeがおきるんじゃないか?

751:名無しさん@お腹いっぱい。
11/11/27 14:23:19.82
>>748
お前バカだろ

752:名無しさん@お腹いっぱい。
11/11/27 15:53:37.25
ハードウェアーRAID6のアレーの上に非RAIDのZFS
これが一番現状では一番ベスト

753:名無しさん@お腹いっぱい。
11/11/27 17:39:21.33
752氏の活躍を見守りたい

754:名無しさん@お腹いっぱい。
11/11/27 21:29:42.08
一番一番だけ読んだ

755:名無しさん@お腹いっぱい。
11/11/28 21:27:07.09
素敵な748の方法を見てふと思ったんだがw
IOps稼げないraidzの件、ブロックサイズの最小を512から64kくらいに引き上げたら
WriteHoleはあるがread時の分散は為される・・・ってことはある?
そこの部分は設定できんのかな。
IOps稼ぎつつ高可用性求めてraidz2とかにしたい場合、
トンデモなドライブ数が必要になってきてかなり残念な仕様だよね>zfs


756:名無しさん@お腹いっぱい。
11/11/28 21:49:18.94
高可用性を求めるなら冗長分の比率はそう下げられないのに何言ってんだ?

757:名無しさん@お腹いっぱい。
11/11/28 22:18:05.42
高可用性というのは貧民向けではないからな

758:名無しさん@お腹いっぱい。
11/11/28 22:35:11.42
中華陽性

759:名無しさん@お腹いっぱい。
11/11/28 22:44:24.71
>>756
言ってる意味が分からんw
冗長分の比率? 台数じゃなくて?
まさかraidz2よりmirror使えとか言うんじゃないだろうな

760:名無しさん@お腹いっぱい。
11/11/29 09:27:29.30
高可用性をある程度求めるなら、それに応じた冗長分も自ずと決まるということから
冗長の比率も可用性に応じた下限が存在するということ。

冗長化の仕組みとか意味とかを勉強するといい。

761:名無しさん@お腹いっぱい。
11/11/29 15:31:44.48
高可用性求めるならRAID6かRAIDZ2、ただしRAIDZ2はIO性能悪いのでRAIDZ2-0にする必要がある。
RAID6ならそこまでしなくてもIO性能高いのでドライブ数に見合った性能がほしければZFSは糞FSとしか言いようがない


762:名無しさん@お腹いっぱい。
11/11/29 19:41:06.14
RAID-4なWAFLが何か言いたそうです……

763:名無しさん@お腹いっぱい。
11/11/29 20:18:41.81
わっふるわっふる

764:名無しさん@お腹いっぱい。
11/11/29 22:00:52.50
RAID-Z3を忘れないでください…

765:名無しさん@お腹いっぱい。
11/11/30 12:26:38.84
HDD数増やせば増やすほど性能劣化するつーのは設計上の不備だよな
ハードウェアRAID6が最強ということになってしまうので今後のZFSに期待

766:名無しさん@お腹いっぱい。
11/11/30 13:04:51.45
RAIDって性能向上の為の技術じゃないんだけどな、本来は

767:やんやん ◆yanyan72E.
11/11/30 13:43:15.47
RAID-Z*の為のハードウェアアクセラレーターってないのかしら。

768:名無しさん@お腹いっぱい。
11/11/30 18:46:19.15
どうせ何やっても最終的にはバスで律速されて終わり

769:名無しさん@お腹いっぱい。
11/11/30 19:53:38.68
だれがシーケンシャルリードの話をしろと

770:名無しさん@お腹いっぱい。
11/11/30 20:43:27.27
HDDを増やせば増やすほど故障が怖くなるのがRAID5,6なんじゃなかったっけ
どうせ単アレイに突っ込むHDD数は一定以上にはできないし比較するような話でも無いと思うんだけどなぁ

771:名無しさん@お腹いっぱい。
11/11/30 22:37:00.16
>>770
RAID5はリビルド中の高負荷でHDDが死ぬケースが少なくない

772:名無しさん@お腹いっぱい。
11/11/30 22:46:19.15
770には縁のないIOPSのおはなしかとおもわれ
ていうか増やして怖くないRAIDレベルがあるとでも

773:名無しさん@お腹いっぱい。
11/11/30 23:03:00.95
RAID1?

774:名無しさん@お腹いっぱい。
11/12/02 05:06:45.46
(RAID10じゃなくて)RAID1なら増やせば増やすほど安心だな!って誰もやらんわw

>>765
>HDD数増やせば増やすほど性能劣化する
そうなん?

775:名無しさん@お腹いっぱい。
11/12/02 14:44:47.07
大雑把にいうと、hole作らないために、例えば4台構成で3KB書くとすると
raidz:disk1~3に1KB、disk4にパリティ書く
raid5:disk1に3KB書いてdisk2~3から64KB読んでdisk4に64KBパリティ書く
でraidzつえーなんだけど、3KB読むには
raidz:disk1~3から1KB読んでzfsチェックサム計算合ってたら完了
raid5:disk1から3KB読む
ということになるので、raidz構成ドライブのうち最も遅いドライブ速度に律速する。
主なるIO負荷であるところの細かいrandom readが同時に来る場合IO性能はraid5>>>raidzて感じ
zfsで速度要るなら2~3way mirrorをストライプするしかない。容量と両立は無理。

ということだと思うけど聞きかじっただけなのでえろいひとよろ。raid5もなんか違うかも

776:名無しさん@お腹いっぱい。
11/12/02 20:18:40.38
高田純次かとおもた。

777:名無しさん@お腹いっぱい。
11/12/02 21:05:46.70
>>775
えろいひとじゃないけど、raidzはその動作であってるかと。
x10 のraidz2 pool作って運用してるけど、読込が書かれてるように全ドライブからの
読込するのでかなり遅い。x5 raidz のStripeのがよかったなーと今更ながらに後悔中。
速度がそんなに必要なpoolではないので、まだよかったんですが。

778:名無しさん@お腹いっぱい。
11/12/02 22:56:54.58
>>777
我慢できないレベル?
CPUのスペック’とかメモリどれくらいつんでるの?

うちの会社で現在ファイルサーバにするマシンスペックと
構成を決めてるんだが・・・


779:名無しさん@お腹いっぱい。
11/12/02 23:24:17.29
>>775
blogが何言ってるかよくわかんないのでもう少し説明加えてください。特に前編

780:名無しさん@お腹いっぱい。
11/12/03 05:53:37.58
>>778
スペック書いちゃうと色々アレだけど、まぁいいやw

CPU Xeon3460
M/B X8SIA-F
MEM ECC Reg 8GB x4
Net e1000g x2
IB ConnectX x1
HBA LSI 9211-8i
SAS Expander Intelのヤツ
HDD Seagete ST32000542AS 2T x 10 RAIDZ2
HDD HGST HDS5C303(CoolSpin) 3T x 5 RAIDZ
ZIL + L2ARC PX-128M2P x 1
OS NexentaCore 3.1.1

基本的にうちは、普段はSRP、サーバ仮運用中でiSCSIでzvolを切り出しして使ってるので、
ブロック単位のI/Oが多いんだけど、10台の方のRAIDZ2をBlockSize 32kで作ってる。
で、こっちはReadは60MB/sくらい。5台の方もBlockSize 32kでReadは200MB/s超える位。
10台の方は、iostat -xtC 1とかで見てると、Readが120MB/sくらいなんだけど、
zpool iostat -v pool名で確認すると60MB/sくらいで読んでます。
zilとl2arcをちょっとRAID使ってパフォーマンスの底上げしようかと画策中ですわ。

781:名無しさん@お腹いっぱい。
11/12/03 16:30:25.95
>>778
どうしてもraidz使おうって計画なの? 用途にもよるだろうけど、
CPUなんてC2D世代でいいしメモリも8G位でいいと思うが、
HDDだけは沢山詰める筐体にしてmirror+stripeで使えばいいと思うよ
よほど容量重視でない限り大きな問題点が無い万能構成。
compress onでレイテンシ気になるならCPU、dedupするならメモリ、と
あとはオプション要素でボトルネックパーツが決まってくるよ

>>780
stor free版で限界容量かー、とおもったらcoreなのか。syspoolは?
あとその系のHDDってRAIDに挿して相性どう?
時々Solaris系ドライバの腐敗具合と相まって酷いことになるものがorz
BlockSizeを変えるとどう影響するのかよかったら解説よろ
zvolの場合ってまた違う話なんだっけ??


782:名無しさん@お腹いっぱい。
11/12/03 17:02:46.26
OI148
xeon5110+MEM 8GB
lsi 8 port sas hba
raidz2(WD1002FAEX 4台)+zil(intel SSD 40GB)+l2arc(intel SSD 120GB)

# bonnie++ -d /tank01/ -n 0 -b -u root
Version 1.03c ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
ss02 16G 58970 88 118604 37 83418 31 53780 99 246847 30 3432 9
ss02,16G,58970,88,118604,37,83418,31,53780,99,246847,30,3432.2,9,,,,,,,,,,,,,

783:780
11/12/03 18:23:07.53
>>781
色々テストして行ってたら結局mirror + stripeが良いわけがよくわかりましたよ。
後々の容量拡張とかも考えたら楽だし。
大容量のzfsのストレージがmirror+stripeなのがよくわかりまわしたわ。

syspoolは書き忘れですw 普通に2.5のHDDを使ってますね。
うちはHDDが原因でこけたことはないですね。
ちなみに、RAIDCardではなくSASのHBA(mpt_sas)ですわ。
OpenSolarisじゃないけど、検証でSolaris11の環境を別で作って色々試してる
んですが、そっちだとRAIDカードのドライバ(mr_sas)が原因で止まる止まる orz
あと、止まったのってzilとかl2arcのデバイスを追加・削除したときによく刺さりましたね。
この辺は元々動作中に頻繁に追加・削除なんてしないと思うので運用中には
問題になりにくいんですが、検証中に各デバイスの有り無しのパフォーマンスチェックして
たら結構止まりました。

上記のBlockSizeはzvolのvolblocksizeの間違いです。最初は小さくすればランダムのI/O
のパフォーマンスがあがるからいっかーと思ってデフォルトの8kで作ってたんですが、上記に書いてた
ような状態になりまして、32kで作り直した直後にSRP Initiatorが死んでチェックできてないんです orz
BlockSizeは小さくすればその分ランダムの性能が上がる予定だったんですが、raidzだと>>775氏が
書いてるような状態なのでそんなことは無く、バランスの良いvolblocksizeを探してる最中です。

784:名無しさん@お腹いっぱい。
11/12/03 20:29:48.51
>>783
syspoolはstorのインストーラが全領域mirrorで確保するので困ったなとw
RAIDカードはやっぱり運試しみたいになりますかーorz 何やってもダメなRoMBのラック鯖があったり。
でもwrite cache付いてる板はzfsでも速いんで。理屈上はSSDよりも。ZIL置けますです。

recordsizeとvolblocksize(blocksize)あたりの原理と影響度知りたいんですが>>755に反応無いみたいだし
アライメントの話ばっかhitするし。recordsizeいじってたらnfs遅くなったんでよく分からんです。
blocksize=512でraidzが1block毎に分散してdiskに書いているなら、rreadは高速化されるんじゃないのかとか、
いやせめてntfsやらの4k単位で増やした方がIO減るしdiskレイテンシがマシになるんじゃとか、そもそも
blocksize=32kだとしてraidz下のdiskには32k単位で書かれるのかどうかとか、ソース嫁的FAQがみあたらない状態
で、チューン諦めてmirror+stripeにしたのが>>775
尚、HDDを部分的に交換した場合、そのdiskのwriteが遅いとraidzやmirrorがwrite完了待ちするんで、
zfsもうちょっと賢くなって欲しい

785:名無しさん@お腹いっぱい。
11/12/04 01:24:13.12
>>784
syspoolの仕様はcoreでも一緒ですねw
RAIDカードは手元のLSI 9220とAdaptec ASR-6445で試してみましたけど、後者はドライバがない為論外、
LSIの方は負荷かけるとフリーズっていう状態で・・・。あとは借り物のカードが数枚あるんでそっちも試してみる
予定ですが。ARECAのカードがoi151だとサポートされてるので試してみたいものの、個人で検証してる関係
で費用が捻出できずw 10GbEオーバーのストレージとして使おうとすると、WriteCache付きのRAIDカード使っ
て、Poolもzilもl2arcもRAIDで作る方が速いんじゃないかと思ってます。

自分もrecordsizeとvolblocksize辺りの原理と影響度はよく理解できてないですね。Solaris11でrecordsize
の最大サイズが1MBまで上がってるのは、多台数での分散書込・読込のパフォーマンスアップの為ってどっかで
見たような(記憶違いならごめんなさい)。
recordsizeはあくまでその値をなるべく使うようにってものじゃないかと。
zfsの書込が可変長ストライプなんで、nfsとかだとファイル毎に変ってる気がします。
うちでzvolへのzilの書込を見てるとrecordsize 128kだと、128kでzilへは書込いってますね。
その後poolへ書き出ししてる際に個々のDiskへどの位のblocksizeで書込してるかはiostatである程度割り
出ししてます。zilへ書かれてる内容=実際に書込む内容って前提が付きますけど。
あと、うちが遅いのはシンプロビジョニングでzvol作ってるからってのもあるかもしれず。

HDDを部分的に交換は、pool,zil,l2arc全部で同様の状態なりますね。
安全側に振ってるんでそういう挙動になってるんだと思います。
とりあえず色々実験してて思ったのはボトルネックが素直に出るファイルシステムだなーと。
zfsの王道の設定以外を行うと賢くない部分がよくでてきますなw

786:名無しさん@お腹いっぱい。
11/12/04 17:41:56.71
>>785
おー、今度情報探してみます >>Solaris11でrecordsize UP
raidドライバはdiskが死んだときにarrayごと応答が無くなるものがあって憤死しました。adaptecだったか。事前検証しづらすぎ。
l2arcですがFIFOで消えてくのはちょっと・・・バックアップでfile総舐めしたら残念なことに。もう少し賢くならんものか。

うちもiostatあたりで検討付けてますがdtrace勉強しないと細かい部分は分からないなぁと。
nfsはそこかしこに高速化用cacheが有ってそれありきで動いてるんでネックが解析しづらいです。
シンプロはどうなんでしょうね。cowでsnapshotあったりするとIO的には大した増加は無さそうではあるけど


787:名無しさん@お腹いっぱい。
11/12/05 01:12:35.90
>>786
スナップショットを取ってsecondarycacheプロパティをいじれば良いんじゃ無いかな

788:名無しさん@お腹いっぱい。
11/12/05 02:02:08.62
>>787
あ、backup時に一時的にl2arcをoffにするって感じでしょうか?
snap作ってそのl2arc(+arc)をnoneにしてbackup用にreadさせればいいわけですね。
なるほど、そこまでアクティブに弄る方法は考えてませんでした。やってみます、ありがとうございます

789:名無しさん@お腹いっぱい。
11/12/05 16:02:20.44
しかもその方法ならl2arcが無効になるのはそのスナップショット経由のアクセスだけのはずだから
他のアクセスによるライブや他のスナップショットのl2arcへの影響に干渉しない、はず?

790:名無しさん@お腹いっぱい。
11/12/05 17:12:59.73
なんかすげえなZFS

791:名無しさん@お腹いっぱい。
11/12/06 21:44:27.81
久しぶりに覗いたらなんか伸びてる。

>>775
>ということになるので、raidz構成ドライブのうち最も遅いドライブ速度に律速する。
その例では確かにそうだとわかるんだが、実際にそんなもんなのか?
3KB「だけ」読むことなんて実際は無いわけで、ランダムにしろシーケンシャルにしろ
まとまったデータ読み出すときはRAID5もZも結局全部のHDDにアクセス(=遅いドライブ速度に律速)することになると思うんだが。

なんにせよZFSで速度稼ぎたいならzilとl2arcをSSDで盛り盛りするくらいしか思いつかんけど。

792:名無しさん@お腹いっぱい。
11/12/07 00:24:12.29
>>791
RAIDカードの制御にもよるだろうけど、
ストライプサイズ64k位で組んでる場合、
64k以下のファイルを連続で読み出すとき、
複数のHDDに分かれていれば、それぞれのHDDに
オーバーラップさせてで読み出しかけられるから、
やっぱ早いんじゃ無いか?遅い奴に足は引っ張られるが。
回転待ち分を結構隠蔽出来そうな気がする。

ZFSの場合は1つ読むにも全部のHDDから読み出さなきゃ
ならんと言うことなら、確実に差は出ると思うけど。

793:名無しさん@お腹いっぱい。
11/12/07 07:50:36.03
どんなときでも全部に読みに行くのが確定しているならそれはそれで扱いやすい
RAIDのストライプサイズはそのアレイへのアクセスときっちりかみ合ってないといけないし
パターンがばらけていると全体的に速度を出すのは難しい

794:名無しさん@お腹いっぱい。
11/12/07 12:44:07.12
どんなときでも全部に読みに行くならどのように扱うと高速化するわけ?
両側から読み出して合致確認する実装のRAID1、並に高速化しそうな要素が見当たらないんだけど。
raid5で全体的に速度を出すのは難しいがraidzならできる、というなら是非その手法を教えてくれ

795:名無しさん@お腹いっぱい。
11/12/07 13:49:05.43
そのまえに>>793のいったい何処に raidzを高速化できる と書いてあったのか教えてくれ
あれは使い道ごとにプロファイリングしていじり倒すよりリソース突っ込むだけの方が楽だって話をしただけだぞ
見たい物だけ見て言いたいことだけ言うのは君の勝手だが有りもしない物を有るように言われても困る

796:名無しさん@お腹いっぱい。
11/12/07 21:35:45.78
raidz
1. れいどぜっと
2. れいどじー
3. れいづ

797:名無しさん@お腹いっぱい。
11/12/07 21:36:49.77
見えないものが見えているんだろうねw

798:名無しさん@お腹いっぱい。
11/12/07 21:39:39.37
>>796
3.はないだろう

799:名無しさん@お腹いっぱい。
11/12/07 22:54:20.20
れいど乙

800:名無しさん@お腹いっぱい。
11/12/07 23:00:42.54
>>794はなんだかわからんが>>793がいう扱いやすいというのも意味が分からんがな。
zfsはブロックサイズ可変だからその理屈ではより一層速度を出すのが難しいことになっちまうよ

801:名無しさん@お腹いっぱい。
11/12/08 08:33:54.76
RAID-Zは可変ストライプ幅でデータブロックのサイズに応じて使用するディスクの本数を変更する。
すべてのドライブに必ずアクセスするという話のソースはどこだ?

802:名無しさん@お腹いっぱい。
11/12/08 12:31:21.01
かなり昔だけど、サンの日本法人の社員が、間違った解釈でZFSの概要をプレゼンした事があったよ。
ディスクの本数じゃなくて、全部のディスクに書きこむそのデータが増減するっていう解釈で。
たぶん、それソースにしてんじゃないのかな(もっとも、その元になった外人のプレゼンでは間違ってなかったんだけど…)。
あるいは、単に勘違いしてるだけなのかもしれないけど。

803:名無しさん@お腹いっぱい。
11/12/08 12:35:07.35
むしろどういうアルゴリズムで使用するディスク本数を変更するのかソースw

804:名無しさん@お腹いっぱい。
11/12/08 12:43:44.19
>>801
ブロックサイズが512~128kで可変であるからといってwrite hole回避できるわけじゃない
どう処理されてると思ってる?

805:名無しさん@お腹いっぱい。
11/12/08 13:13:00.60
ZFSにはWrite Hole問題は存在しないわけですが?馬鹿なの?

806:名無しさん@お腹いっぱい。
11/12/08 13:48:31.32
>>803
可変ストライプ幅に関してはZFS開発者がプレゼンだか講演だかで使った図付きのスライドがある。
たぶん>>802のプレゼンと同じ奴。

807:名無しさん@お腹いっぱい。
11/12/08 13:56:15.90
>>805
お前話について行ってないだろ・・・
write hole回避のためにzfsが取った手法を書いてみ?
結果として読み込み時どうなる?

808:名無しさん@お腹いっぱい。
11/12/08 14:18:45.67
>>804
話の流れをすっ飛ばしてるから何言っているのかさっぱり分からん。
書き込みホール問題の話なんかしてないぞ。大丈夫か?

809:名無しさん@お腹いっぱい。
11/12/08 14:30:37.22
>>801が言ってるのは(disk数-1)*512B未満の書き込み時に未使用のdiskにも書き込むかって話(たぶん)。重箱なんで伝わってないんだろ
~512B:1diskからのreadでおk
~1024B:2diskからのreadが必要(raid5より遅い)
~2048B:4diskからのreadが必要(raid5よりかなり遅い)
・・・
となるので、>>793-795 ?あたりの「どんなときでも全部に読みに行く」に例外があるぞ!と言いたいんだと思れ


810:名無しさん@お腹いっぱい。
11/12/09 08:58:16.04
>>802
よほどデータが小さいかディスク台数が多くない限りそうなるんじゃ?

811:名無しさん@お腹いっぱい。
11/12/13 03:14:19.23
sharesmb=onでWindows7に公開しているフォルダがあるんですが、
Windowsからファイルを作成した場合のデフォルトのパーミッションは
どこで制御されているのでしょうか?
ちなみにworkgroupでの運用です。

812:名無しさん@お腹いっぱい。
11/12/22 20:49:58.28
Solaris11のソースコードがリークしてたけど、クローズドな部分まで入ってたみたいだがどーなるんだろうな。
OpenIndianaのML見てると見ちゃ駄目って話になってるが(そりゃ当然だが)

813: 忍法帖【Lv=40,xxxPT】
11/12/22 22:55:02.47
SunでもできなかったメインラインのSolarisの完全ソースコード公開
流石Oracle
そこにシビれるあこがれるゥ
一足早いお年玉ってことで

814:名無しさん@お腹いっぱい。
11/12/22 22:55:39.63
「お母さーん」「見ちゃいけません!」

815:名無しさん@お腹いっぱい。
11/12/22 23:19:44.25
OIで使えてるSATA増設ボードって何がある?
OI_148で使えることになってるはずの88SE9130/88SE9128/88SE9125/88SE9120を
OI_151aは認識してくれないんだけど・・・
とりあえず2port有れば良いんだけど、やっぱSil系が無難なのかなぁ。


816:名無しさん@お腹いっぱい。
11/12/23 00:06:48.97
>>815
上げてる系は全部駄目だね。
うちでも88SE9128を試したけど駄目だった。Solaris11でも駄目。
JMicronをOIだとお勧めしたような。

817:名無しさん@お腹いっぱい。
11/12/23 23:57:07.38
SASのHBA刺すのが一番早い

818:名無しさん@お腹いっぱい。
11/12/26 18:21:29.32
と言われるは分かっていたし、他に方法も無いので、
サクッとLSI SAS9211-4i を仕入れてきた。
取りあえず、IRファームのまま使おう。
問題起こったら、ITに変えるっつー方向で。

819:名無しさん@お腹いっぱい。
11/12/26 23:12:55.28
Solaris系ってなんでユーザー名8文字以下(ほぼ)強制なの?
識別子としてそれ以上文字数必要なのかって話はともかく、個人名ベースのIDだと
普通に文字数足りないと思うんだけど、どういう運用が想定されてるんですか。

820:名無しさん@お腹いっぱい。
11/12/27 00:03:17.21
バイナリ互換を破りそうな変更には保守的だから

821: 忍法帖【Lv=40,xxxPT】
11/12/27 00:16:48.89
個人名ベースのIDとか要らんやん

822:名無しさん@お腹いっぱい。
11/12/27 06:58:21.53
yamanash
fukushim
kunitach
かっこいいじゃん

823:やんやん ◆yanyan72E.
11/12/27 07:17:45.30
8文字制限はSunOS時代から変わってないだけだと。
Linuxなんかではとっくにとっぱわられた制限だけれど。

824: 忍法帖【Lv=40,xxxPT】
11/12/27 08:46:12.75
くにたっは

825:名無しさん@お腹いっぱい。
11/12/27 09:18:11.45
>>823
変わってないじゃなくて「変えていない」
LinuxはABI軽視で変えまくってたからな

826:名無しさん@お腹いっぱい。
11/12/27 12:36:28.09
ところでzfsでcopies=2とか3とかした場合のread性能って改善される?
もちろん状況に依るだろうけどIOps稼げるなら1つの手だなと。

827:名無しさん@お腹いっぱい。
11/12/27 17:30:37.46
>>826
それはたしか部分損傷対策だからコピーが別ディスクに作られることは保証されてなかった気がする。

828:名無しさん@お腹いっぱい。
11/12/27 18:20:34.98
>>827
なるべく別ディスクに書こうとする、位?
複数コピーされたデータ(mirrorやcopies)のどれを読みに行くかはどうやって決めてるんだろう
copyされたデータに主と副があってエラー時のみ副を読むのかな
mirrorにするとIOps上がるよって言われてるけどどうやって分散させてるのかよく分からない

829:名無しさん@お腹いっぱい。
11/12/27 20:47:37.03
実は /etc/default/passwd の PASSLENGTH=6 とか
sendmail のアレとか NFS のソレとか、色々色々

830:名無しさん@お腹いっぱい。
11/12/27 21:47:08.75
akihabar
monzenna
kabutoch

もういいかw

831:名無しさん@お腹いっぱい。
11/12/27 22:06:17.11
>>828
ミラーアレイを複数ストライプする方が上がるって意味や無いか?
その場合はアレイの数だけ分散されるわけだからraidzより良いはず。
まあ、その代わりに冗長性は比べられんけど。

832:名無しさん@お腹いっぱい。
11/12/27 22:49:06.67
>>831
いや、mirrorでもIOpsは上がるって見たことあるんだけど、なんか読み違えてたかなぁ?
ストライプにすればとりあえず上がるのは確かだと思う。
ミラーでも一応両方のディスクからだいたい半々で読んでるみたいだから、1Diskの時の性能とはまた異なった結果になるだろうとは思うんだけど、
どういう方法で振り分けてるのかは分からないんで、例えば10台でミラーとか作った場合(作れる?) readが分散されるのかどうかは分からない。
10台に分散して読みに行くなら何となくIOps上がるような気はするけどうどうなんだろう?

833:名無しさん@お腹いっぱい。
11/12/28 09:56:27.71
SAS の HBA とかを使って、RAID-Z を組んだ場合って、
ディスクが故障したらケースのランプが点滅したりする?

MegaRAID 9260-4i のハードウェア RAID と 9211-4i
の RAID-Z で悩んでる。

834:名無しさん@お腹いっぱい。
12/01/07 11:53:45.73
diskアクセスが多いので、dtraceで
zfs_write,zfs_read,zfs_putpage,zfs_getpageをひっかけてみたら、
/usr/lib/**/*.soあたりを中心に大量にzfs_getpageが発生していて、
不定期に50MB/s程度のdiskreadを生じているようなのですが、
そもそもzfs_getpageってどういう意味の操作になるんでしょうか?
ARCなどのキャッシュに乗らないdiskアクセスというのが謎なのですが。

835:名無しさん@お腹いっぱい。
12/01/08 21:18:34.03
KVM+ZFSが使えるOSって、今のところSmartOSくらい?

836:名無しさん@お腹いっぱい。
12/01/08 23:37:08.04
ADSLモデムでインターネットに繋げるにはどうしたらいいでしょう?

837:名無しさん@お腹いっぱい。
12/01/08 23:50:49.95
>>836
電源を入れます。

838:名無しさん@お腹いっぱい。
12/01/10 21:37:02.39
>>836
深く考えすぎずに、ADSLモデムの下にルータを繋げてその下にマシンをつけれ


とマジレスしてみた

839:名無しさん@お腹いっぱい。
12/01/11 10:17:39.09
>>834
昔ソースを読んだ通りのままなら、zfs_getpageはmmapした領域への読み込みで
呼び出されるはず。
*.soの少なくともテキスト領域はmmapされるはずなので、そこをページフォルト経由で
読み込むときにgetpageが出ると思う。
zfs_getpageの場合はreadとは違ってARCには乗らずに、普通のFSでも使う方の
キャッシュに乗せるようにしてたはず。
read/write経由でのファイルアクセスとmmap経由での参照の一貫性を維持するために、
mmapされてるファイルについては特別扱いしてた気がする。

840:名無しさん@お腹いっぱい。
12/01/11 14:57:51.73
zpoolの領域を目一杯使ってしまって残り領域が0になってしまいました。
いらないファイルを削除して空き容量を増やしたいのですが、なぜかファ
イルを消してもすぐに復活してしまい消せません。

どうすればファイルを消すか、移動出来るでしょうか?snapshotは取って
いません。

841:名無しさん@お腹いっぱい。
12/01/11 20:41:24.63
復活するだと!?

842:名無しさん@お腹いっぱい。
12/01/11 20:51:24.57
ラピュタか

843:名無しさん@お腹いっぱい。
12/01/11 21:10:50.54
pfexec touch /barusu

844:名無しさん@お腹いっぱい。
12/01/12 06:18:00.95
>>840
復活すると言うよりは、単に削除に失敗してるだけ。削除って多分Windows
からsmb経由でやってるでしょ?

Snapshotを削除して空きを作る手段も取れないし、諦めるしかないよ。
データを一旦別のデバイスに逃がしてからpoolの削除→作成を行うしかない。
まあ、これを機会にバグ放置のzfsの使用を止めるべきだと思うがね。

845:名無しさん@お腹いっぱい。
12/01/12 10:24:57.04
oracleってさまざまな技術をダメにしてきたからな

846:名無しさん@お腹いっぱい。
12/01/12 10:55:32.63
>>845
ZFSがno spaceでファイル削除出来ないバグはoracleに買われる前から存在する
んですが?


847:名無しさん@お腹いっぱい。
12/01/15 12:52:45.18
>>840
いらないファイルをddで切り詰めれば消せるようになるらしいよ。試してみて。
URLリンク(www.surlyjake.com)

# df -h
Filesystem Size Used Avail Capacity Mounted on
themirror 39G 39G 0B 100% /home/jacob/themirror
# rm 3gfile
rm: 3gfile: No space left on device
# dd if=/dev/null of=3gfile
0+0 records in
0+0 records out
0 bytes transferred in 0.000046 secs (0 bytes/sec)
# rm 3gfile


848:名無しさん@お腹いっぱい。
12/01/17 12:49:45.65
>>839
ARCを通らないこともあるのか
超参考になった


849:名無しさん@お腹いっぱい。
12/01/21 10:07:35.05
URLリンク(wiki.openindiana.org)

850:名無しさん@お腹いっぱい。
12/01/23 23:34:26.69
素人のcrossbowに関する質問
1. etherstubってbridgeと何が違うの?
2. vnicをzoneにアサインして外部に出るときはvlanインターフェース経由にしたい。どうやったらいいかな?

851:名無しさん@お腹いっぱい。
12/01/26 19:32:03.67
2はvnicでvid指定すればいいことに気付いたけど、これvid変えるときはvnic作り直しか?

852:名無しさん@お腹いっぱい。
12/02/09 13:56:46.56
fdiskでsunディスクラベルを作成するってなんなんですか?
さくせいすると
fdisk -lってやると表示が前と変わってもどせませんでした
そのあとcfdiskをやったら元にもどりました
教えてください。

853:名無しさん@お腹いっぱい。
12/02/09 20:47:36.44
fdiskでSunディスクラベルを作成するということです。

854:名無しさん@お腹いっぱい。
12/02/09 21:15:07.31
すみませんが詳しい方のみ回答をお願いします

855:名無しさん@お腹いっぱい。
12/02/09 22:16:28.03
はい、次の方、どうぞ

856:名無しさん@お腹いっぱい。
12/02/10 06:41:55.97
次の者です。

fdiskでsunディスクラベルを作成するってなんなんですか?
さくせいすると
fdisk -lってやると表示が前と変わってもどせませんでした
そのあとcfdiskをやったら元にもどりました
教えてください。

857: 忍法帖【Lv=40,xxxPT】
12/02/10 08:53:47.10
fdiskでSunディスクラベルを作成するということです。

858:名無しさん@お腹いっぱい。
12/02/10 09:29:30.76
ラベルは今でも formatコマンドで書くんじゃないのか?

859:名無しさん@お腹いっぱい。
12/02/10 10:53:10.81
ラベルの低い質問だな

860:名無しさん@お腹いっぱい。
12/02/10 20:59:07.95
×ラベル
○レイボォ

英語は発音大事

861:名無しさん@お腹いっぱい。
12/02/11 08:22:42.77
ラベルはISOイメージと一緒にPDFで落とせるから、
無地のDISCに書いてからインクジェットプリンタで書き込むとキレイにできる

862:名無しさん@お腹いっぱい。
12/02/11 08:55:47.51
レヴォの低いレイボォの話題 … こうですかぁ?

863:名無しさん@お腹いっぱい。
12/02/11 19:02:54.16
OpenIndiana 151aを使用しています。

標準のリポジトリからSambaをインストールしてファイル共有をしたところ
WindowsXPやLinuxのSambaクライアントからは対象に対して正常にアクセスできています。
しかしWindows7(64bit)機からはOpenIndianaのホスト名こそ見えているものの
アクセスしようとすると「\\OpenIndiana にアクセスできません」とネットワークエラーに
なってしまいます。ホスト名の代わりにIPを直打ちしても同様です。

このWindows7からでも他のWindowsやLinuxのSamba Serverには正常に
アクセスできているので、OpenIndiana側に問題があるのではないかと思うのですが
何かわかりますでしょうか?



864:863
12/02/11 19:43:49.10
あっ、なんかいろいろ弄ってたらうまくいきました。
Windows7とか関係なしに、資格情報が誤って保持されていたようです。お騒がせしました。

865:名無しさん@お腹いっぱい。
12/02/12 22:10:21.18
OpenIndiana Build 151aで拍子抜けするくらいあっさりとKVMが動かせたんだけど
ネットワークの設定が標準だとNAT構成になってしまっています。
LinuxのTAPデバイスみたく、Solaris系でKVMゲストをブリッジ接続するにはどうすれば良いのでしょうか?

866:名無しさん@お腹いっぱい。
12/02/13 19:27:17.87
OpenIndiana ってほとんどパッケージのアップデートないけど、
セキュリティ気にする人は自前でビルドしてんの?

867:名無しさん@お腹いっぱい。
12/02/13 20:49:00.70
そんな当たり前のことを訊くとはw

868:名無しさん@お腹いっぱい。
12/02/14 15:35:29.85
URLリンク(wiki.openindiana.org)

869:名無しさん@お腹いっぱい。
12/02/15 04:12:58.34
SDカードに入れて使ってるんだけど、リーダー次第でパフォーマンスや起動確率が全然違うね。
高いのが速いとは限らないみたい。同じリーダーでもロットが違うと起動すらしなかったりとか。
LinuxやFreeBSDでも同じような現象はあるけど、傾向が違うようだ。

870:865
12/02/15 07:55:14.38
TUN/TAPデバイスをソースからコンパイルして、QEMU-KVMに認識させるところまでは出来たのですが
brctlプログラムが無いらしく、ゲストのネットワーク接続を確立するまでは出来ませんでした。
リポジトリにも登録されてなさそうなんですが、やはりbridge-utilsもソースからコンパイルするしかないでしょうか?

871:名無しさん@お腹いっぱい。
12/02/15 15:07:31.52
smartosは?

872:名無しさん@お腹いっぱい。
12/02/16 11:42:41.03
スレリンク(win板)
で、先頭HDDガー、ルートガー
って力説されているんですが、どういうことでしょうか?

単にルートが壊れたら大変という話?

873:名無しさん@お腹いっぱい。
12/02/16 11:45:47.03
そっちのスレで聞けばいいじゃない。

874:名無しさん@お腹いっぱい。
12/02/16 13:04:28.00
ミラーもRAID-Zも使わないでZFSを構成するのはわかっている人だけだからDEと比べてとかそんな話は無意味。

875:名無しさん@お腹いっぱい。
12/02/16 14:32:55.64
ちょっと試しただけでドヤ顔のシッタカバカはともかく
WHS使いたい連中にZFSを語る無意味さを知れと

876:名無しさん@お腹いっぱい。
12/02/20 20:39:34.91
151aのCOMSTARにIntel 82574LのiSCSIで繋げている人います?

148の頃は問題なかったんですが、151aにリプレース後久しぶりに試
してみたらおかしい。

POST時には接続の表示が出て、OI側のセッションは1になるんだけど
そのまま内蔵のWin7を起動すると、Win7側のステータスは再接続中、
OIではセッション数が0になります。Win7の新規インストールでも
インストール対象のディスク一覧には列挙されません。

NICの機能ではなく、Win7のiSCSIイニシエータを使うと何の問題もなく
接続できるので、OI側の設定に誤りはないと思うのですが。

877:名無しさん@お腹いっぱい。
12/02/26 09:48:34.82
oi、アップデートはまだか?

878:名無しさん@お腹いっぱい。
12/02/26 11:02:44.78
おいwww

879:名無しさん@お腹いっぱい。
12/02/26 15:42:33.40
/devやら/dev-ilやら、今度は/prestableとか、なんかリポジトリが迷走気味に見えなくもないなあ……
まあ、開発版の後追いするのでなけりゃ、大して困らんけども。

880:名無しさん@お腹いっぱい。
12/02/26 15:43:59.65
/devやら/dev-ilやら、今度は/prestableとか、なんかリポジトリが迷走気味に見えなくもないなあ……
まあ、開発版の後追いするのでなけりゃ、大して困らんけども。

881:名無しさん@お腹いっぱい。
12/02/26 15:58:33.54
/devやら/dev-ilやら、今度は/prestableとか、なんかリポジトリが迷走気味に見えなくもないなあ……
まあ、開発版の後追いするのでなけりゃ、大して困らんけども。

882:名無しさん@お腹いっぱい。
12/02/26 16:37:45.02
大切だから(ry

883:名無しさん@お腹いっぱい。
12/02/26 16:40:35.91
おおおおちつけ

884:名無しさん@お腹いっぱい。
12/02/27 06:34:38.93
/dev専なのだろう

885:名無しさん@お腹いっぱい。
12/03/04 20:19:35.48
KVMでデバイスパススルーができるかどうか試してみたいんだけど
OpenindianaでPCIデバイスの識別番号ってどうやって調べればいいの?


886:名無しさん@お腹いっぱい。
12/03/04 22:53:41.52
prtconfでは全部わからない?

887:名無しさん@お腹いっぱい。
12/03/05 00:15:28.80
>>886
pfexec scanpciで多分判明したんだけど、Linuxと同じように指定しても
KVMが受け付けてくれない。OIのKVMはデバイスパススルー未サポートなのかなぁ?

# pfexec scanpci
pci bus 0x0005 cardnum 0x00 function 0x00: vendor 0x1033 device 0x0194
NEC Corporation Device unknown

# qemu-kvm -name "HOGE" -drive file=/var/lib/libvirt/images/hoge.qcow,if=virtio -m 1024 -device pci-assign,host=05:00.0

qemu-kvm: -device pci-assign,host=05:00.0: Parameter 'driver' expects a driver name
Try with argument '?' for a list.

888:名無しさん@お腹いっぱい。
12/03/05 07:31:09.02
/opt/SUNWspro/bin/ccをインストールしようと
URLリンク(wiki.openindiana.org)
でsunstudio12u1-patched-ii-2010Feb-sol-{x86,sparc}.tar.gzwがいるとわかって、
リンクをたどるとオラクルのサイトへ飛びました。それからが迷宮で、download site
がわかりません。教えてくんでもうしわけないが、どうすりゃOpenIndianaのbuild環境
がえられますか。

889: 忍法帖【Lv=40,xxxPT】
12/03/05 11:49:55.71
URLリンク(www.oracle.com)

バージョン違いですがこれ使えませんか

890:888
12/03/06 07:50:17.40
 オラクルのダウンロードサイトから12.2または12,3を落として指示に
したがってインストールしてみましたが、
# pkg install solarisstudio-123 のところで、「制約を満たす解決は
みつかりませんでした。」で失敗しました。
 
 Solaris11のx86のpkgを選択したのが間違ったのかな。
このサイトのバイナリはSolaris11または10のバイナリなので、OIとは
互換性がないように思うのですが、根本が分かっていないので、。
OpenIndiana-discuss listがあり、そこでは12.2を使っているようにあり
ました。メーリングリスト参加してみます。
ご指導ありがとうございました。

891:名無しさん@お腹いっぱい。
12/03/06 19:49:43.43
SPARC版ってないの?

892:名無しさん@お腹いっぱい。
12/03/10 09:37:43.79
マシンが1台空いたので(AMD E-350)に、151aを入れてみた。
コンソールの表示が変だ。しょっちゅうカレントディレクトリの表示が
ずれて、或いは表示が重なってオカシクなる。

solaris系は、ちょっと古めのハードウェアが一番なのかな?
でもsolaris11は正常だったんで、次のバージョンで治るか

893:名無しさん@お腹いっぱい。
12/03/10 11:54:59.97
マシンを選ぶときは HCLの情報にしたがうか、そうでなければ自己責任で検証するか、
自分でドライバ等を開発するかってことでしょう。

HCLにあるハードウェアで不具合がでたなら報告しないと、誰か言わないと治らんと思う。
仕事で使うなら枯れたハードウェアか、実績のあるバージョンのSolarisを選ぶのもありかと。
余談だが SPARC系は提供ベンダーが限られてることもあってか比較的安定してる希ガス。

894: 忍法帖【Lv=40,xxxPT】
12/03/10 13:46:28.87
SolarisはWindowsを端末にしてリモートで使う用途でしかもう要らないわ
ネットワークだけちゃんと動いてくれればいい
コンソールがずれて困るってこともない

895:名無しさん@お腹いっぱい。
12/03/11 02:09:00.00
>>893, 894
とりあえず、動くか試してみたかったんだ。
デスクトップでちょこちょこ動かすのが新鮮で楽しいんだ。
この手のOSは、ほとんどコンソールでしか動かさないから。

896:名無しさん@お腹いっぱい。
12/03/14 23:19:14.72
>>880
>>890

手もとの環境:
$ uname -a
SunOS solaris-vmplayer 5.11 snv_151a i86pc i386 i86pc Solaris

ここにolracle/sun studioの最新版をいれようとして同じようにハマった。
どうもsolaris11`x86には pkgaddとかでは入らないらしい(という旨の
バグ報告とコメントもみつけた。)

なので、tarファイルを落としてインストールする方法しかないみたい。

展開しておいたところのbin がPATHに入るようにして
やれば使えるようです。

なお、solaris11のliveCDインストールでは
次の必須なパッケージのうち入らないものがあり(たとえばstdio.hがないので
気付いた。)次を参考。

上記のページ参考にしてパッケージをいれると使えるようになりました。

$ cc -V
cc: Sun C 5.12 SunOS_i386 2011/11/16

illumosと直接関係ないけど、solaris11でもパッケージインストールはできないので
なにか参考になれば。


897:896
12/03/17 02:35:35.17
>>上記のページ参考にしてパッケージをいれると使えるようになりました。

URLの行を入れ忘れた :-(

URLリンク(koberoi.com)



898:888
12/03/18 09:37:17.72
>>897


899:888
12/03/18 09:53:30.07
>>897
Solaris 11についてはご指摘のとおり12.3が使えるようですが、OpenIndianaは
不可ですね。別方をinfinibandのスレッドで教えていただいて、OpenIndianaに
sun studio 12.1を得ることができました。
素インストールではgcc,autoconf,automakeなどないので、すこし面倒に感じます。
開発環境をグループで一括導入できれば敷居は低くなると思うのです。
pkg install slim_install; svcadm enable gdm
な感じでできれば楽ですね。ないですかね。

900:名無しさん@お腹いっぱい。
12/03/18 16:32:03.56
個人でZFSファイルサーバとして使っている人いないのかね~
FreeBSDの方が気楽でいいのかなぁ

901:名無しさん@お腹いっぱい。
12/03/18 16:36:50.62
いるだろ

902:名無しさん@お腹いっぱい。
12/03/18 16:49:16.53
個人でOpenIndiana使っていると情報少なすぎるのが困るのよ
ZFSに障害起きたとき、復旧できるか心配というか、障害出てることすら見逃しそう。

903:名無しさん@お腹いっぱい。
12/03/19 03:04:03.47
個人でOpenIndianaでInfiniBandのストレージ作ってるけど、そんなに情報少ないかな?
国内で探すと殆ど無いけど、海外だと結構色々あると思うんだけど。

904:名無しさん@お腹いっぱい。
12/03/19 04:33:26.68
> 障害出てることすら見逃しそう。
zpool status を30分に1回自動実行し、前回との差が存在する時に、メール送るようにしてる。


905:名無しさん@お腹いっぱい。
12/03/19 04:43:31.29
smtp-nofityで障害時にメールを送ればいいんでないの?

906:名無しさん@お腹いっぱい。
12/03/19 20:30:55.16
>>900
自作板あたりでステマしようず
NexentaStorとかOI&napp-itならインスコも運用もとっつきやすいし
無数のパーツの組み合わせと圧倒的回数の試行錯誤がZFSを更なる高みへと・・・

907:名無しさん@お腹いっぱい。
12/03/20 17:50:31.41
FreeNASよりはNexentaの方が安定してると思うが、元がSolarisだけあってドライバ類が弱い。
サーバと付いてないPCで動かすならFreeNASの方がいいかもしれん。
ZFS周りの安定度や性能ならどう転んでもNexentaの方が上。
機能面ではいろいろ追加しまくってるFreeNASが上だがエラー通知程度ならNexentaにも当然付いてますよ。
OIは・・・・・FreeNASユーザにお勧めできるもんじゃないわなぁ

908:名無しさん@お腹いっぱい。
12/03/20 18:01:04.17
>>907
FreeNASのZFS、非力なPCで組むと大変な事になるからねぇ・・・。
AtomD525で、

CPUリソース喰いまくり -> メモリー喰いまくり -> カーネルパニックでZFSごと死亡

ってのを喰らった事がある@FreeNAS8.0

909:名無しさん@お腹いっぱい。
12/03/20 19:40:45.32
>>907
NexentaもFreeNASも両方使ってるけど、安定度はどっちも同じ。普通に使える。
別にNexentaが一際安定してるって事は無い。
ZFSの安定度もどっちも変わらんよ。個人や中小企業がちょっとしたファイル
サーバを立てたいっていう用途なら導入の手軽さ、安定性から言ってもFreeNAS
が有利だと思う。

逆に言えば、それ以上のことを求めるならNexentaが良いけど、Nexentaじゃな
きゃ駄目って言うような局面があんまり無い。

910:名無しさん@お腹いっぱい。
12/03/20 19:52:18.94
iSCSI のターゲットには出来ないんじゃなかったっけ?

911:名無しさん@お腹いっぱい。
12/03/20 22:21:07.85
>>910
FreeNASが?
FreeNAS(というかFreeBSD)は日本人の開発者が作ったiscsi targetが存在するよ。


912:名無しさん@お腹いっぱい。
12/03/20 22:49:19.60
net/istgt かな?
でも、普通に zfs set sharescsi=on 出来ないとねぇ
それも、カーネル側の都合とか言われるとさ

913:名無しさん@お腹いっぱい。
12/03/20 23:33:07.35
今時、sharescsi使ってるような奴いんの?w
普通はCOMSTARだろJK

914:名無しさん@お腹いっぱい。
12/03/24 16:44:35.13
ZFSなファイル鯖が欲しくてOpenIndianaで立ててみようと
USBメモリ(&CDR)用意して起動!

WARNING: No randomness provider enabled for /dev/random.
Use cryptoadm(1M) to enable a provider.

というエラーが起動直後出て進まず、あちこちググってみると
/dev/random や cryptoadm は暗号化や暗号鍵の関係と判明

「インストールでそんなの要求されるとはよく分からんが高度だな」
と思い、対策を調べてみると
URLリンク(www.illumos.org)
という感じらしく、うちのマザーではACPIまわりをあまり設定できず駄目でした

ハード対応状況やバグまわりの自己対策など、厳しい道のりだとは
思ってましたがこれほどとは

915:名無しさん@お腹いっぱい。
12/03/25 17:25:54.12
>>906
ステマの報告まだー?

916:名無しさん@お腹いっぱい。
12/03/27 19:28:41.75
>>900
ドライバに尽きるなぁ。
個人での鯖立てとなると構成がデスクトップPCに近くなるから
どうしてもLANとかHBA周りで動かない・遅いとか出がち。
OOBで動くような構成で組めばいいんだろうけど、やっぱ個人鯖だと旧PCの流用だったりするから
新規に動くパーツ買うのも気が引けるんだよね。
動いてしまえば(iSCSI使うなら)COMSTAR覚えるくらいで、あとはほとんどSolarisなのを意識せず使えるんだけどね。

917:名無しさん@お腹いっぱい。
12/03/28 01:47:26.57
ZFS鯖立てようかと思ってるんだがOpenIndianaとillumianとEONどれがいい?
napp-itから管理しようと思ってるんでX環境は無くてもいいんだけど
将来的にInfiniBandとか導入しようかと思ってるんでドライバ周り考えたら
OpenIndianaのがいいのかなー

918:名無しさん@お腹いっぱい。
12/03/28 01:50:11.61
どれがいい?って聞き方はなんか感じ悪いな
どれがオススメか聞きたい

919:名無しさん@お腹いっぱい。
12/03/29 00:13:21.65
>>917
InfiniBandでOpenSM動かすならOpenIndianaかな。
個人的な感想ってイメージだけど、OpenSM動かす予定ないなら、
・EON
USBメモリで運用可能。必要最低限のものしか入ってない
・illumian
Debianなれてる人ならすっげー楽

920:名無しさん@お腹いっぱい。
12/03/29 23:01:23.77
OpenIndianaのIPSで提供されてるものはillumianのaptでも提供されてるの?
illumosのuserland?にはOpenSMとかも含めようとしてるっぽいんから
どっちにもそのうち流れてくるって事でどっち選んでも問題無し?
OpenIndianaもillumianも開発者がかぶってるっぽいんだけど、この辺がよくわからないです。

921:名無しさん@お腹いっぱい。
12/04/01 16:52:50.28
>>919
ちょっとillumian試してみた。apt-cache search opensmでバイナリは
ないみたい。なのでOIと同様にbuildしないといかんのかな。

922:名無しさん@お腹いっぱい。
12/04/02 03:45:10.43
ぐぐった感じopen-fabricsにopensmが含まれてるけどまだバイナリはないのかな?
gitにパッチは上がってるっぽいが

923:名無しさん@お腹いっぱい。
12/04/05 23:55:27.49
eon-1.0b-151-32-cifs-min.isoをダウンロード/CD-Rに焼いて、
EONを8GB USBメモリにインストールしようとしてますが、
CDブートしてrootログオンした後、echo| formatとしてもHDDが見えてこないんですが、
対応していないハードウェアと考えた方がいいんでしょうか?
Solarisの作法がまだよく分かっていないところもあるので、こうやると見えるんじゃないとかありましたら
教えてください。
一応、URLリンク(sites.google.com)を参考にして、
"Testing the hardware compatibility (optional but recommended)"というところで引っかかってます。

924:名無しさん@お腹いっぱい。
12/04/06 15:10:28.20
毎度、再起動するとZFSの特定のディスクがUNAVAILでcannot openになってしまうのだけど
OFFLINE&ONLINEもしくはscrubを実行するとあっさり認識されてパリティーエラーも出ないってのはいったい何が原因なんだろ?

925:名無しさん@お腹いっぱい。
12/04/06 17:54:45.65
そりゃハードウェアの問題だろ

926:名無しさん@お腹いっぱい。
12/04/06 20:16:37.40
>>923
Solaris初心者だけど、oiやBSDでUSBメモリの相性があった
試しに違うUSBメモリ使ってみるとか、一旦HDDに入れて
USBメモリにDDしてみるとかどうだろう?

927:名無しさん@お腹いっぱい。
12/04/06 20:31:04.99
時々、スピンアップが遅いHDDってのが存在する
電源が貧弱だとスピンアップ出来なかったりもする

928:名無しさん@お腹いっぱい。
12/04/06 22:09:01.11
>>923>>924も独り言ならチラシの裏に書けばいいと思うよ
特に>>923みたく環境伏せたまま認識しないですとかひでえわw

929:名無しさん@お腹いっぱい。
12/04/08 04:16:19.86
>>928
oi151aのインストールCDで起動できてgpartdでHDDが認識されてました。
でも、USBメモリから起動したEONだと、hd、format -e何れもHDD見えず、
iostat -Eすると、

cmdk0: Soft Errors: 0 Hard Errors: 0 Transport Errors: 0
Model: WDC WD20EARX-22 Revision: Serial No:以下略

と出るので、HDDが中途半端(?)に認識されている様子です。
他のHDDは外してあります。
ちなみにPCは、HP ProLiant ML115 G1(dmesgによるとAthlon64 3500+)です。


930:名無しさん@お腹いっぱい。
12/04/08 16:16:30.93
ML110に比べてML115はトラブルが多いような気がする
G1て初代じゃないかw

そのoi151aと同じb151ベースなら認識しそうだけど
普通のISO焼いても駄目?

931:名無しさん@お腹いっぱい。
12/04/09 02:07:56.43
oi148の時、俺はUSBメモリからHDDにインストールしたかったのだが
USBへの書き込みが1回目は常に失敗するので、2回書き込まないとダメだった。
不安だから結局CDドライブつけてインストールした。

932:929
12/04/09 02:50:15.14
ML115の動作確認で入れたFreeNASがあんまりにも簡単で
このまま転んじゃいそう...
でも、oiのCIFSサービスよりも転送速度が遅い気がするんだよな

933:名無しさん@お腹いっぱい。
12/04/09 04:06:21.04
>>932
ちっと古いがベンチマーク比較
URLリンク(www.zfsbuild.com)

934:名無しさん@お腹いっぱい。
12/04/09 09:23:56.26
oi148はML150G3のオンボードLAN(BCM)を認識しなかったがoi151aは認識した。

935:929
12/04/09 23:51:22.44
oi151aのブータブルUSBメモリを作るにあたって、
dd for windows(www.si-linux.co.jp/wiki/silinux/index.php?DDforWindows)と
OpenSolaris LiveUSB creater(chonan.blog.pid0.org/2009/04/opensolaris-live-usb-creator-windowsnet.html)
で作ってたんだが、
ブータブルUSBイメージoi-dev-151a-x86.usbを、
dd for windowsで書き込むと起動できなくて、
OpenSolaris LiveUSB createrで書き込むと起動できるってのは、
HP ML115側の問題なのかな。
OpenSolaris LiveUSB createrで作れば問題無くUSBメモリブートできるのが分かったんで
あまり気にしていないんだが、
OsolLiveUSB.exeと、DDWin.exeでやってることって何が違うんだろうね。


936:名無しさん@お腹いっぱい。
12/04/10 02:07:52.95
思い込みで作業すんな ドキュメント読め
URLリンク(wiki.openindiana.org)

937:名無しさん@お腹いっぱい。
12/04/10 21:59:11.71
いいこというねぇ

938:名無しさん@お腹いっぱい。
12/04/15 16:38:42.89
SolarisでNTFSをマウントする方法を探していて、FSWfsmisc.tar.gzというものを用意すればいいらしいのですが、
このファイルはどこから落とせるんでしょうか

URLリンク(blogs.oracle.com)
URLリンク(blogs.oracle.com)
辺りを参考にしています

939:名無しさん@お腹いっぱい。
12/04/15 18:03:30.16
普通にググればいくらでも出てくるよ?

940:名無しさん@お腹いっぱい。
12/04/15 18:24:52.93
>>938
ASntfs-3g-2011.4.12 という手もある

941:名無しさん@お腹いっぱい。
12/04/17 22:53:50.53
ふと思うところがあって、zpool statusって打ってみたら、

pool: tank
state: DEGRADED
status: One or more devices could not be opened. Sufficient replicas exist for
the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
see: URLリンク(www.sun.com)
scan: none requested
config:

NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
c5t1d0p1 ONLINE 0 0 0
c6t0d0p1 UNAVAIL 0 0 0 cannot open

なんて出たので、
URLリンク(www.sun.com)
に飛んでみたら、oracleのログインページに飛んだんですけど、
これってどうすれば?
アカウントとって内容を読んでから対処したほうがいいですかね。
ちなみにOpenIndiana 151aです。

942:名無しさん@お腹いっぱい。
12/04/17 23:03:07.53
もちろん読んだ方が良いけど、そんなことしなくてもメッセージに書いてあるじゃん

943:名無しさん@お腹いっぱい。
12/04/17 23:46:56.55
>>941
URLリンク(www.illumos.org)

944:名無しさん@お腹いっぱい。
12/04/18 00:28:29.67
>>941
c6t0d0p1 UNAVAIL 0 0 0 cannot open


945:名無しさん@お腹いっぱい。
12/04/20 10:51:12.72
LiveCDから起動したらオンボbcm57781のドライバが無く、ネット不通
パッケージマネージャーで見ると57xxドライバは入っているようですが
これでは駄目な様子

broadcomのサイトにLinux用ドライバはあるのですが、
これをソースを修正&コンパイルすれば使えるようになるのでしょうか?

試しにUSBメモリで持ってきてmakeしましたが、ソース最初の
KVER = ($shell uname -r)
でこけました(Linuxのカーネルバージョン判別?)

946:名無しさん@お腹いっぱい。
12/04/20 11:20:40.18
バグで148から151にウプデートできねーw

947:名無しさん@お腹いっぱい。
12/04/20 13:40:14.16
/var/pkg/配下から57xxのmanifest開いてみたら2009年・・・
alias追記したらなんとかならないもんでしょうか?

948:名無しさん@お腹いっぱい。
12/04/20 15:50:39.04
犬ドライバのコンパイル・・・ひどい釣りネタだw

949:名無しさん@お腹いっぱい。
12/04/20 23:08:20.27
まぁ昔こんなのもあったけどね。
ライセンス的に微妙だったせいか、まもなく公開停止したけど。

Solaris Driver Porting Kit for Linux Drivers is Now Available
URLリンク(sun.systemnews.com)

950:名無しさん@お腹いっぱい。
12/04/21 03:02:04.94
主に安NIC対応でリリースしたヤツだっけ?

951:名無しさん@お腹いっぱい。
12/04/25 02:21:43.18
URLリンク(omnios.omniti.com)
OmniOSなるものが出てた

952:名無しさん@お腹いっぱい。
12/04/26 00:22:34.79
OmniOSの特徴って?

953: 忍法帖【Lv=40,xxxPT】
12/04/27 00:12:46.29
カーチャンOS

954:名無しさん@お腹いっぱい。
12/04/27 01:19:15.59
>>953
それはOmniじゃなくてオモニニダ

955:名無しさん@お腹いっぱい。
12/04/28 09:41:34.61
OmniOSのサイト見るとデータセンター向けのクラウドプラットホームって書いてるね

ZFSとCrossbowとZoneとDTraceが使えるwktk仕様かと

956:名無しさん@お腹いっぱい。
12/04/29 21:56:25.43
それって他のディストリビューションでも使えるだろ

957:941
12/04/30 13:08:12.27
報告が遅れましたが、>>941の件は解決しました。
マザボ側で使っていない(と思い込んでいた)SATAケーブルを一本抜いてたんですが、
それが今回UnavailになったHDDでした。
起動時にビープ音でも鳴らしてくれれば
直ぐに気づいたのになぁ、なんて思いましたがとりあえず原因がわかって治ったのでよしとします

958:名無しさん@お腹いっぱい。
12/05/02 02:51:30.79
oi_151a_prestable2なんか出てたんだね
URLリンク(wiki.openindiana.org)

959:名無しさん@お腹いっぱい。
12/05/03 03:17:52.23
>>951
>URLリンク(omnios.omniti.com)
>OmniOSなるものが出てた

これってillumos ベースに、ユーザランドを少し良いものにしたものみたいだ。

あまりillumosの記事みないけど、kvmも入っていて便利そうだが。


960:名無しさん@お腹いっぱい。
12/05/03 16:01:40.66
OpenIndiana 151aに3TBのHDD(c6t1d0)をSATA接続で取り付けて、formatコマンド->fdiskを実行したところ、

>format> fdisk
>No fdisk table exists. The default partition for the disk is:
>
> a 100% "SOLARIS System" partition
>
>Type "y" to accept the default partition, otherwise type "n" to edit the
> partition table.
>WARNING: Disk is larger than 2TB. Solaris partition will be limited to 2 TB.

これって、"n"押してからどうすればいいんでしょ?

961:名無しさん@お腹いっぱい。
12/05/03 16:13:04.96
>>960
ZFSにしようぜ そしたらfdiskいらない

962:名無しさん@お腹いっぱい。
12/05/03 16:25:09.48
>>961
ZFSにする下準備としてパーティション分けしてたんですけど、必要ないんですかね

963:名無しさん@お腹いっぱい。
12/05/03 16:54:30.25
>>962
そもそも「パーティション分け」が何を意味するかを理解しよう。

964:名無しさん@お腹いっぱい。
12/05/03 16:56:27.24
>>962
ディスク全体をZFSで使うなら必要ない
zpool create hogehoge c6t1d0
でGPT作ってくれる

965:名無しさん@お腹いっぱい。
12/05/03 17:09:10.93
>>964
zpool create hogehoge c6t1d0
したあと、format->fdiskでパーティション情報を見てみたんですが、
>format> fdisk
> Total disk size is 60800 cylinders
> Cylinder size is 96390 (512 byte) blocks
>
> Cylinders
> Partition Status Type Start End Length %
> ========= ====== ============ ===== === ====== ===
> 1 EFI 0 60799 60800 100
>
となってまして、"Type: EFI"らしいんですが、これがGPT全体という理解であってますか?

966:名無しさん@お腹いっぱい。
12/05/03 17:19:49.88
お前がその辺気にしても、どうせ理解できないんだから、気にするな

967:名無しさん@お腹いっぱい。
12/05/03 17:25:44.75
>>965
それでOKです
parted -l で見るといいかも

968:名無しさん@お腹いっぱい。
12/05/03 17:27:33.89
ディスク全体を使うのってほぼ同容量の別モデルをもってきたときに泣く
可能性を思うと躊躇してしまう

969:名無しさん@お腹いっぱい。
12/05/03 17:32:13.87
>>968
最近はどこも同じブロック数だし
ミラーやRAIDZにしなきゃ関係ないんじゃない?

970:965
12/05/03 22:25:19.45
結局c6t1d0を丸ごとpoolにして、
URLリンク(docs.oracle.com)
を参考にシャドウマイグレーションでファイルシステムの内容を移行しようとしたんですが、
もしかして、OpenIndianaではできない?

971:965
12/05/03 23:30:26.39
OpenIndianaでシャドウマイグレーションは無理そうですね。
ありがとうございました


最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch