[次世代] ZFS Part2 [ファイルシステム]at UNIX
[次世代] ZFS Part2 [ファイルシステム] - 暇つぶし2ch200:名無しさん@お腹いっぱい。
07/07/09 10:22:09
よくアクセスされるファイルのデータを先頭に置けばいいというわけでもない。
メタデータやそのファイルを収容するディレクトリのデータ・メタデータとの
相対位置も考える必要がある。

201:名無しさん@お腹いっぱい。
07/07/09 10:37:06
>>199
そう。
ちゃんとしたHDDベンチマークソフトは内周と外周分けて計るよ

202:名無しさん@お腹いっぱい。
07/07/09 14:58:09
>>197
さらっとCDの知識を混ぜるな危険

203:名無しさん@お腹いっぱい。
07/07/09 19:26:36
本気にする奴が出てくるだろ
ラックのネジ加工が物凄い事になるぞ

204:名無しさん@お腹いっぱい。
07/07/10 02:13:48
いつの間にここはネタスレになったんですか??


205:名無しさん@お腹いっぱい。
07/07/10 19:47:25
Windows系のチューニングでも、ブート時のファイルを
外周に配置するってのあるじゃない。外が速いのは、今の常識。

フロッピーは1周のセクタ数は、変えないフォーマットを使ってたから(別に独自にはできたけど)
HDDのフォーマットを気づいていない人はいるかもしれないけど。

206:名無しさん@お腹いっぱい。
07/07/10 21:06:38
シーケンシャルでは効果出そうだけど。
ランダムでは大差ないような

207:名無しさん@お腹いっぱい。
07/07/11 18:20:07
1980年代の議論だな。みんな FFS 以前のファイルシステムで十分、てことだwww
ZFS はネコに小判w

208:名無しさん@お腹いっぱい。
07/07/11 22:02:24
>>207 いや、ZFSの優れたところは、バカでも簡単に使えるって事だよ。
Snapshotもほぼ無限に使えるんで、バックアップの仕方の常識も変わる。
Snapshotのスケジューラとレプリケーション系のバックアッププログラムに
磨きをかけてくれればと思う。膨大な数のファイルシステムやSnpahotを
扱えるだけに、管理系がちょっと弱いと思う。

209:名無しさん@お腹いっぱい。
07/07/11 23:45:07
まあ、バカやネコには使わしてやってもいいが、内周や外周言うやつは使わんでいいww

210:名無しさん@お腹いっぱい。
07/07/12 09:36:46
wを多用する奴も使わなくていいよ

211:名無しさん@お腹いっぱい。
07/07/12 09:39:22
URLリンク(www) こうですか?わかりません><

212:名無しさん@お腹いっぱい。
07/07/12 10:05:35
0x77 だけは保存できんようにでもしたら? プンソなんだしwwwwwwwwwwww

213:名無しさん@お腹いっぱい。
07/07/12 20:05:01
>>208
>Snapshotもほぼ無限に使えるんで、バックアップの仕方の常識も変わる。
変わるって言うほど変わらないだろ。
だいたい馬鹿(と書いてマカと読む)でも使えるようにするにはまともなGUIクライアント作らないといけないしな。

214:名無しさん@お腹いっぱい。
07/07/12 22:57:20
>>208
スナップショットが取れるFSを以前から使っているけど、
バックアップの仕方の常識なんて全く変わらないよ。
どれだけスナップショットが取れようが、バックアップはバックアップ。
スナップショットはバックアップの代わりにはならないし、
バックアップはスナップショットと独立して完結しないと意味がない。

違いがあるとしたら、ライブではなくスナップショットをバックアップ元にできて、
バックアップ中のファイル更新の心配をしなくていいだけ。
でもそれって気の効いたバックアップシステム使ってるなら、
もともとユーザーが心配することじゃないし。

215:名無しさん@お腹いっぱい。
07/07/13 02:21:20
>>214 通常のスナップショットだと1時間単位の運用がせいぜい。世代も255位でしょう。
最近はDiskが安いから、5分単位で1年分のスナップショットを取るなんて芸当も可能に
なってきた。5分といわず、ほぼリアルタイムでデータが保持されて、巻き戻せると
いいと思った事無いの?

216:名無しさん@お腹いっぱい。
07/07/13 07:24:35
5分単位でなんてとったら復元時にゴミの山になるだろ・・・

217:名無しさん@お腹いっぱい。
07/07/13 08:02:57
216が言わんとしていることを誰か説明してくれ

218:名無しさん@お腹いっぱい。
07/07/13 08:14:11
>>215
スナップショットだけでは、ディスク装置が故障したらどうにもならない。


219:名無しさん@お腹いっぱい。
07/07/13 08:15:29
またハゲのプレゼン鵜呑みにしたお花畑なアホマカが沸いてるのか

220:名無しさん@お腹いっぱい。
07/07/13 09:41:56
メディアが物理的に分離してなきゃなんの意味もないよね...
まともなバックアップなんてやったことない人間としか思えない。
ハードディスク多数つないだってサージ一発で全滅ですぜ? 正気とは思えんねw

221:名無しさん@お腹いっぱい。
07/07/13 09:43:33
>>219
まったくだよな。ああいうこと平気で言うからあのハゲは信用できん。
頭はいいんだろうが。ユーザーのことなんかまったく考えてない。


222:名無しさん@お腹いっぱい。
07/07/13 09:50:17
intelをあれだけけなしてたのに、intelMacになったとたん
ころっと変わるんだから、推して知るべし

223:名無しさん@お腹いっぱい。
07/07/13 10:11:50
>>221
ハゲのプレゼンをZFSのスナップショット機能と勘違いしたバカがいただけで、
別にハゲが嘘言ってるわけじゃないぞ…。

>>222
実際、P4やPentium Dの頃のIntelはヒドかったが…。
ハゲがIntelに移るのを決めたのは、CDやC2Dの性能をひっそり教えてもらったから。
いい判断だった。

224:名無しさん@お腹いっぱい。
07/07/13 10:17:05
>ユーザーのことなんかまったく考えてない。
信者のことを考えに考え抜いた末の
「pdumpfsに超GUIラッパーをつけて今ならたったの$129!」
という発言なんだろw

225:名無しさん@お腹いっぱい。
07/07/13 10:40:36
ちなみに電源から来たサージってUPS超えて機器まで到達するもの?
小惑星がサーバ室直撃するより確率低いなら
テープバックアップやめちまおーかと思ってるんだけど。


226:名無しさん@お腹いっぱい。
07/07/13 10:50:44
小惑星がサーバ室直撃するよりは確率高いと思うよ。
UPSもいろいろあるからね。

227:名無しさん@お腹いっぱい。
07/07/13 10:56:09
で、意外と連休中に小惑星が直撃してたりするんだよね

228:名無しさん@お腹いっぱい。
07/07/13 11:37:43
>>225
UPSがいかれる可能性も考えといたほうがいい

229:名無しさん@お腹いっぱい。
07/07/13 11:51:08
隕石でなく小惑星(直径数百キロ)激突なら、地球全体クライシスだから
鯖とかもう余計な心配しなくて済むぞ。

参考資料
URLリンク(www.youtube.com)

230:名無しさん@お腹いっぱい。
07/07/13 12:16:59
小惑星はともかく火事とか考えるとデータを建物外に退避保存しておくしかないわけで
zfs(のsnapshot)とはまるきり関係なく必要になる話だな。


231:名無しさん@お腹いっぱい。
07/07/13 12:59:18
おいおい、UPS のサージ対策って.... よく資料あたった方がいいぞ。
気休めもはなはだしいんだけど。そんなことも知らないの?
Unix Magazine に落雷の話いくつか載っただろ??

232:名無しさん@お腹いっぱい。
07/07/13 13:01:57
ひょっとして、おまえら全員雷サージは導体部分しか伝わらないと
思ってんのか? めでた過ぎる...www

233:名無しさん@お腹いっぱい。
07/07/13 13:44:21
雷サージによる被害は建物の構造によっても左右される。
特にS,SRC造は被害が少ないかも。
逆にRC造は被害が広範囲に及ぶ。

おまえら少しは勉強しる。

234:名無しさん@お腹いっぱい。
07/07/13 14:23:23
URLリンク(ja.wikipedia.org)
そんな話書いてないぞ
誰か書き足してくれ


235:名無しさん@お腹いっぱい。
07/07/13 14:51:22
クソスレだな、ここ。読む価値なし

236:名無しさん@お腹いっぱい。
07/07/13 17:31:58
>>232
>思ってんのか? めでた過ぎる...www
問うた直後に勝手に結論付けてる奴も、めでたいよな

237:名無しさん@お腹いっぱい。
07/07/13 17:45:15
いやいや、ここでめでたいのは昇天したハードディスク目の前にして
途方にくれている未来のあなたなのだよwww

238:名無しさん@お腹いっぱい。
07/07/13 17:55:59
>>237
これも勝手に結論付けてない?

やっぱりめでたい?

239:名無しさん@お腹いっぱい。
07/07/13 18:01:38
www ←これ流行ってるの?

240:名無しさん@お腹いっぱい。
07/07/13 18:07:24
俺はWinnyでデータ分散させてるから
核戦争で地球全土で人類が滅亡しない限りはいつでもデータを取り出せるよ。

241:名無しさん@お腹いっぱい。
07/07/13 18:30:14
ZFSの書き込みって早いの?
最高どのくらいでるもん?

242:名無しさん@お腹いっぱい。
07/07/13 19:26:23
自分で試せばいいじゃん
肝はメモリ量な

243:名無しさん@お腹いっぱい。
07/07/13 19:38:47
>>241
前スレにbonnie++でのベンチ結果が載ってる。

基本的に大量のファイルやディレクトリを読込、作成、変更、削除しない限りは
どのFSでも速度は変わらない。HDDやRAIDの速度に比例する。

Maildirを使うようなサーバだと、FSで速度が変わってくるけど、
前スレの結果だと、ZFSは他のFSと同等かちょっと早いぐらいのパフォーマンスだった。

244:名無しさん@お腹いっぱい。
07/07/14 00:44:06
>>228
CVCF が原因といえば、こんなこともあったしなぁ・・・Yahoo が珍しく落ちた事件。
URLリンク(ir.bbtower.co.jp)
ここのデータセンタ使ってた他の客も落ちてて、がんばって fsck かなんかしたらしい。

245:名無しさん@お腹いっぱい。
07/07/14 03:40:32
>>239
一部のアホ儲が使っているだけです。流行っていません。

246:名無しさん@お腹いっぱい。
07/07/14 07:51:30
たとえばpdumpfsで一年分バックアップとって
その膨大なファイルの中からファイルを一つ検索すると言うことをやる場合
超高速に検索できるFSってある?
そういうのは今後も別途アプリレベルでインデックス作ってやるしかないのかね。

247:名無しさん@お腹いっぱい。
07/07/14 08:23:03
全文検索にFSは関係ない。

248:名無しさん@お腹いっぱい。
07/07/14 08:28:23
ああでもファイルの更新その他のイベントをuserlandで一括して受け取れるなら
インデクスの更新やウィルス監査に便利かも。ファイルシステムというよりOSの機能だけど。

249:名無しさん@お腹いっぱい。
07/07/14 09:35:18
ほのかな疑問
プール作った後にデバイス名が変わった場合でも追いかけてくれるのかな
もしくは別のデバイスとデバイス名が入れ替わった場合は壊れてると判断されるんだろうか
今度試してみよう

250:名無しさん@お腹いっぱい。
07/07/14 10:02:40
LinuxベースのNAS売ってるメーカはいっぱいあるのに
未だにSolaris+ZFSベースのNASがないのは何故なんだぜ?

251:名無しさん@お腹いっぱい。
07/07/14 10:03:37
>LinuxベースのNAS売ってるメーカはいっぱいあるのに
これってFS何使ってるの?
ext3とかだったら怖くて使えないな。

252:名無しさん@お腹いっぱい。
07/07/14 10:57:13
>>251
当然ext3

253:名無しさん@お腹いっぱい。
07/07/14 11:28:20
XFSもある

254:名無しさん@お腹いっぱい。
07/07/14 15:48:56
かといってWindows Storage Server搭載機は高いんだよなぁ……

255:名無しさん@お腹いっぱい。
07/07/14 16:27:13
>>254
論外。話にならん

256:名無しさん@お腹いっぱい。
07/07/14 16:34:56
x4500 買え。いま買えすぐ買え。じゃなきゃもうここへ来るな。

257:名無しさん@お腹いっぱい。
07/07/14 20:50:01
ext3が怖いとかNTFSが論外とかx4500とか謎すぎ
ファイルサーバー使ったことあるやつの発言とは思えんが
ってか、数十TBぐらいなら別になんでもいいか

258:名無しさん@お腹いっぱい。
07/07/14 22:13:29
お前はUPS無しでext3を使ったことがないからそんなことが言えるのだ。

259:名無しさん@お腹いっぱい。
07/07/14 22:27:29
ファイルシステムはなんでもいいから、UPSくらい買えよ。

260:名無しさん@お腹いっぱい。
07/07/14 23:07:55
ZFS使った事も無いくせに使えないとか。痛すぎる奴多すぎ。
シーケンシャルアクセスやバックアップデバイス用途(D2D)には最適なんだがな。
X4500だと、ソフトウェアRAID6+SATA Diskなのにも関わらずwriteで400MB/sの
性能を叩きだしていた。
インテリジェントな先読みのせいか、findで更新ファイル抽出すんのも異常に
速い。1000万ファイルの差分バックアップもあまり心配いらない感じだ。
# おれはsnapshot+send/recvで差分同期させているが

もちろん、ZFSにも向かない分野はある。OracleでHA構成みたいなやつだ。
VCSがZFSサポートしていないんだよな。SunClusterならZFSを共有Diskに
設定できるんだけどさ。

261:名無しさん@お腹いっぱい。
07/07/15 00:05:07
使えるか使えないかなんてことは、
1000台ぐらいHDD並べて最低一ヶ月は負荷テストやってから言ってくれ。
ファイルシステムの堅牢性以前にX4500なんてハードウェアの信頼性がどうなのよ。
そこで使ってるSATAはSAS並みの保証がある品物なのか?
FCや10Gのネットワーク接続の保証はあるのか?
故障したら原因まで調べてレポート出してくれるのか?
そのあたり専業ディスクアレイ屋並みにやってくれなきゃ、怖くて使えねえ。

262:名無しさん@お腹いっぱい。
07/07/15 00:09:07
買える立場になりそうもないやつに何言われたところでww

263:名無しさん@お腹いっぱい。
07/07/15 00:17:45
X4500個人で買うやついるの? 羨ましい。

264:名無しさん@お腹いっぱい。
07/07/15 00:22:38
私用ならいるわけない.

265:名無しさん@お腹いっぱい。
07/07/15 01:12:36
257はLinuxのfsスレにときどき湧いて出てくる、extをけなされると
技術が云々とわめくわりに、本人まるで技術的知識どころかそれ以前に
知能がまったくないキチガイさんでしょ。放置推奨。

266:名無しさん@お腹いっぱい。
07/07/15 01:19:03
おまえそこでいじめられたからって、ここで自己紹介しなくても。

267:名無しさん@お腹いっぱい。
07/07/15 01:20:52
いるわけないと断言するのは危険

268:名無しさん@お腹いっぱい。
07/07/15 01:48:31
Linux は ext3 どころかそれ以前に問題が山(以下略)

269:名無しさん@お腹いっぱい。
07/07/15 03:32:59
>>265
「いつもの人」が一人いるという妄想乙
by いつもの人

270:名無しさん@お腹いっぱい。
07/07/15 04:47:06
それでも世界のファイルサーバーのFSのシェアでext3が上位に来る現実

271:名無しさん@お腹いっぱい。
07/07/15 05:56:01
うちさえちゃんと動けばいいんで、シェアはどうでも

272:名無しさん@お腹いっぱい。
07/07/15 06:36:49
ちゃんと動くか動かないかなんてことは、
1000台ぐらいHDD並べて最低一ヶ月は負荷テストやってから言ってくれ。

273:名無しさん@お腹いっぱい。
07/07/15 09:44:22
>>272
発狂するのってどんな気分?

274:名無しさん@お腹いっぱい。
07/07/15 10:08:51
こんなので発狂とか言ってる馬鹿がいるがいるのか

275:名無しさん@お腹いっぱい。
07/07/15 10:13:39
ext3はシェアで上位だろうね
NTFSも上位だろうね
それが何か

276:名無しさん@お腹いっぱい。
07/07/15 13:10:16
1000台ではないけど、300台くらいのHDDをいくつかの構成で半年
くらい使っている。
いくつか小さなはあったけどトラブルちゃんと動いている。
これまでLinux+XFS/ReiserFSだったけど今後はZFSにしそう。



277:名無しさん@お腹いっぱい。
07/07/15 13:23:20
送信する前に読み直そうよ

278:名無しさん@お腹いっぱい。
07/07/15 15:13:22
260 >>261
>ファイルシステムの堅牢性以前にX4500なんてハードウェアの信頼性が
X4500をプライマリストレージとして使う事は、メーカだって推奨していない。
それなりの用途に使うって事だ。良くあるのはファイルサーバのレプリ
ケーション先やD2Dのバックアップストレージ。

>FCや10Gのネットワーク接続の保証はあるのか?
X4500になんでFCつなげるの?
それはともかくとして、X4500は単なるPCサーバ(X4100がベース)であり
10Gも普通に使える。InfinibandもLinuxでは使われているね(TSUBAME)

>故障したら原因まで調べてレポート出してくれるのか?
Sunがそれを行わないとでも?

>そのあたり専業ディスクアレイ屋並みにやってくれなきゃ、怖くて使えねえ。
X4500はサーバだからねぇ。でも、ストレージもやっているんで、対応は可能。
ちなみに、専業ディスクアレイ屋って何?
IBM、hp、日立、NEC、富士通、東芝はダメって事かな?
EMC、NetAppくらいしか認めないって意味?

279:名無しさん@お腹いっぱい。
07/07/15 15:23:26
>1000台ぐらいHDD並べて最低一ヶ月は負荷テスト
メーカーでは普通にやっているだろう。OEM/SIerレベルでは、ここまでは
やらんのではないか? 1000台の基準も良く分からん。
通常は、Diskシェルフ1-2本分(Disk 14-28本位)で動作検証・機能検証・
負荷試験だわな。それくらいなら、ZFSに限らず、新製品出るたびに
1ヶ月はやっているぞ。

280:名無しさん@お腹いっぱい。
07/07/15 15:38:52
Googleが採用しないようなFSは糞。これ定説。

281:名無しさん@お腹いっぱい。
07/07/15 17:59:49
>>279
やってるようでやってない。特に非国産メーカー。
しかもSunのIAじゃねえ。

282:名無しさん@お腹いっぱい。
07/07/15 20:25:05
>>281 出荷検査の事言っているの?
開発→リリースまでの間には入念な試験をしているよ?

283:名無しさん@お腹いっぱい。
07/07/17 11:42:58
>>280
まるで Google が採用する FS 全部知ってるようないい草だなwww
バカまるだしw

284:名無しさん@お腹いっぱい。
07/07/17 15:35:14
zpool iostat でどのくらいでます?

285:名無しさん@お腹いっぱい。
07/07/17 22:16:36
ext3の採用が多いって、当たり前じゃん。Linuxの標準ファイルシステムなんだから。
ext3が優れているから使うって言うメーカやユーザなんて皆無に近いだろう。
ちなみに、LinuxのソフトウェアRAID5の書き込み。どの位の性能?
VxVMやSVMなんかは、単体Diskの1/5以下。使い物にならなかった。
ZFSだとRAID6でも、Disk数によっては単体Diskの数倍の性能が出る。
意外と性能劣化少ないんだよな。何が違うんだろう。

286:名無しさん@お腹いっぱい。
07/07/17 23:29:00
いやいや、Linux の FS は性能よりはるか以前の(略)激ダメ(略)

287:名無しさん@お腹いっぱい。
07/07/17 23:41:33
板違いになるけど、LinuxはI/O回りのリファクタリングをするって話は出ているね。
まあ、たとえリファクタリングしたところで、いままでのLinuxのアレっぷりを
見せつけられていると、どうにも信用できないけど。

288:名無しさん@お腹いっぱい。
07/07/18 00:10:35
どうでもいいけど、このスレから出てこないでね。
他のスレや板に迷惑かけるのはやめてくれ。

289:名無しさん@お腹いっぱい。
07/07/18 00:24:55
>>287
オレが知ってる限りで既に 5回は根本的な見直しをかけてる。悪化してるだろ。
そういうのは大勢でやることじゃないんだよ。もう抜け出すことはないだろね。

290:名無しさん@お腹いっぱい。
07/07/18 01:19:00
>>287
5回の変更点を軽くまとめてくれないか?

291:名無しさん@お腹いっぱい。
07/07/18 09:04:01
2.0, 2.2, 2.4, 2.6 と、2.6 の途中。どれも根本的な見直し。
1.0 の時もそう言ってたかも。本質的にはなんも直っとらん。

292:名無しさん@お腹いっぱい。
07/07/18 09:17:34
コンポーネント単位で見直しはしてるんだけど、コンポーネント間のインタフェースが
ごちゃごちゃだったり、そもそもコンポーネント多すぎで見通しは悪いままなんだよね。


293:名無しさん@お腹いっぱい。
07/07/18 10:02:08
>>291
中身のない報告するなって言われなかったか?

294:名無しさん@お腹いっぱい。
07/07/18 10:21:23
リファクタリングでは仕組みは改善しないだろ。改善の準備にはなっても。

295:名無しさん@お腹いっぱい。
07/07/18 10:25:48
290=293=例の人

296:名無しさん@お腹いっぱい。
07/07/18 19:46:43
>>285
linuxのsoftware raid5、 玉10発で read=630,write=460くらい

297:名無しさん@お腹いっぱい。
07/07/18 22:18:19
単位がわからない。

298:名無しさん@お腹いっぱい。
07/07/19 00:05:52
bytes/century

299:名無しさん@お腹いっぱい。
07/07/19 00:37:49
gigabyko/chan

300:名無しさん@お腹いっぱい。
07/07/19 01:16:28
vmware上のsolaris10(x64)でzpool createしたプールをexportしてから
vmwareのfreebsd current(x64)にimportしようとしたんだが
zpool importしても候補にすら出てこない
これはvmwareだからなのかな
それともFreeBSD←→Solarisは元々できない?
試せる実機がないからわからん

301:名無しさん@お腹いっぱい。
07/07/19 19:57:39
今、手元の環境であいているパーティションが無いので試せないんで
誰かやったことある人がいたら教えて欲しいなぁ、と思うこと。

zfs creat e-V ほげほげ で、emulated volumeを使えますが
これって、実際の生のraw(?)デバイスに比べてどれくらいのオーバーヘッドがあるんでしょう?

302:名無しさん@お腹いっぱい。
07/07/21 22:54:39
>>285
おすすめベンチ教えろ。
もちlinuxでも動く香具師な。

303:名無しさん@お腹いっぱい。
07/07/21 22:59:01
>>302
bonnie++, iozone, dd

304:名無しさん@お腹いっぱい。
07/07/22 14:39:40
/bin/time dd if=/dev/zero of=/zone/hoge bs=1024 count=1000

で適当にサイズでかくしてやってくれw

305:名無しさん@お腹いっぱい。
07/07/23 02:15:14
>>304
bs=1だと劇遅だった


306:名無しさん@お腹いっぱい。
07/07/23 18:22:40
そらそうよ

307:名無しさん@お腹いっぱい。
07/07/25 08:25:06
>>306
UFSと比較して数倍遅い
なんで?

308:名無しさん@お腹いっぱい。
07/07/25 10:44:27
ブロックサイズが小さいと ZFSで得られる利点よりも
オーバーヘッドのほうが多いのかもね!

309:名無しさん@お腹いっぱい。
07/07/26 15:04:10
bs=1が速くて困ることはないが、現実にはそんなシチュエーションはないんだから
遅くても何のデメリットもないだろう、常識的に考えて。


310:名無しさん@お腹いっぱい。
07/07/27 21:33:09
スチュワーデスに欲情したのか。

311:名無しさん@お腹いっぱい。
07/08/13 02:37:59
ZILを別デバイス持つのを試してみたけど、あんまり効果が出ない。
どういう状況で差が出るんだろう。

312:名無しさん@お腹いっぱい。
07/08/26 01:12:39
FreeBSDにポーティングされたzfsって安定してんのかしら。

明日新しいマシンがくるんですけど新しいマシンでzfs使いたいんす。
が、今までLinuxしか使ったことが無いためにSolarisは不安で
FreeBSDならまだ敷居は低いかな、とヘタレな考えにとらわれてます。
実際にFreeBSDで使われてる方、使用感などいかがでしょうか。
LinuxのFUSE実装はまだ個人ユースでも実用的ではなさそうですし。。

313:名無しさん@お腹いっぱい。
07/08/26 01:28:42
「不安」の内容にもよるが、Solaris にすべきだろうな、たぶん。

314:312
07/08/26 01:50:39
>>313
ありがとうございます。
ファイルサーバを立ち上げるのですが、クライアントにMacがいるので
AFPで提供したいと思ってます。ファイル名に日本語が入るので
システム側のデフォルトの文字コ-ドとWindowsクライアントから見た場合の
文字コードの整合性をうまく保てるか、とか
メールサーバも移行するので今溜まってるスプールがうまく移行できるか、とかです。

やってみたら意外とすんなりうまくいったりするんですかね。。。
ついでに仮想化もやりたいです。

今ちょっと調べてたら Nexenta がかなりいい感じで心揺れてます。
zfsでインストール/ブートもできるようですし。

315:名無しさん@お腹いっぱい。
07/08/26 02:23:32
そんなにいっぺんに変えるの? 他人に使わせる環境を?

316:312
07/08/26 02:35:50
>>315
いえ、ほとんど自分でメールのみ数人で使ってるという
影響範囲のちっさいサーバです。
HDDがこの夏の暑さが原因かエラーを吐き出したので
この際マシンごと買い替えて、ついでに前から気になってたzfsを試したい、
という流れです。

317:名無しさん@お腹いっぱい。
07/08/26 22:35:27
>>312(>>314, >>316)
そんだけ大規模に変えるなら
Linux→FreeBSD も Linux→Solaris も移行の手間はたいして変わらんと思う。

で、zfsが主目的ならSolarisにした方がいいだろな。

なんにしろ今のマシンを延命させてからの方が。

#Solarisでのzfsについては、「zfsにしたから~」的なトラブルがないので
#つまらないと思います(苦笑
#ブートデバイスまでzfsにしたことはないので、その辺はわかりませんが。

318:312
07/08/28 00:37:25
>>317
返事が遅くなりました。すみません。

アドバイス含めいろいろ考えてSolarisに挑戦してみることにしました。
afpを提供するnetatalkも動きそうですし、文字コードの変換問題も
Linuxでの経験を生かしつつ試行錯誤してみようと思います。
URLリンク(www003.upp.so-net.ne.jp)

LinusはSunに対してzfsのGPL化をツンデレ風味の素直じゃない熱烈なラブコールを送っていますが
もし実現することになったらLinuxユーザはこぞって移行するんでしょうね。
自分は早漏なんで待てませんでしたがw

じゃあ新しいマシンも届いたんで早速試してみたいと思います。

319:名無しさん@お腹いっぱい。
07/08/28 01:39:24
俺のマシンスペックじゃSolarisは無理だろうな

320:名無しさん@お腹いっぱい。
07/08/28 09:35:18
>>319
kwsk

321:名無しさん@お腹いっぱい。
07/08/29 21:25:19
>>318
いや、むしろSolarisに使いやすいパッケージ管理システムが載るのを待っている。

322:名無しさん@お腹いっぱい。
07/08/29 22:36:05
>>321
結局、Solarisを捨てたくなる最大の理由ってそれなんだよなぁ。

323:321
07/08/29 23:55:48
なので
URLリンク(japan.internet.com)
これに期待している。

324:名無しさん@お腹いっぱい。
07/08/30 00:48:12
パッケージ管理システムとパッケージ配布システムを混同しているように思える…
rpmやdebとかが前者、up2dateやaptが後者。
で、配布システムはともかく、管理システムはそんなに使いにくいか?

325:名無しさん@お腹いっぱい。
07/08/30 01:24:23
スレ違いになるけど

>>324
ユーザーインターフェースがなぁ。

326:名無しさん@お腹いっぱい。
07/08/30 12:35:40
rpm/deb=pkg
aptないしyum=smpatch
synapticなど=アップデートマネージャ

アップデートがjarなんで時間がかかることがあるのが難点かなw
それにrpmはsolaris10で使えたはず(メインには出来ないけど)

327:名無しさん@お腹いっぱい。
07/08/31 00:50:36
>>325
dpkgやdselectしかなかった時代でさえDebianのパッケージングシステムは高く評価されていたわけで、
UIの使いやすさはまた別の尺度じゃないかなあ。

328:名無しさん@お腹いっぱい。
07/08/31 00:55:12
>>311
ZIL自体、O_DSYNCでopenしたりしないと書かれないし、
DBとかで使ったりしない限りほとんど効果は無いと思う。

あと、Bug Database見ると、Make ZIL use NVRAM when available.ってのがあるから、
たとえば、i-ramみたいなのを使うとか。

329:名無しさん@お腹いっぱい。
07/09/03 11:45:31
こんなの見つけた

ZFS, XFS, and EXT4 filesystems compared
URLリンク(tastic.brillig.org)

330:名無しさん@お腹いっぱい。
07/09/03 11:49:49
>>329
ZFS+postmarkは最適なベンチマークということが分かった。

331:名無しさん@お腹いっぱい。
07/09/06 10:00:23
NetApp sues Sun regarding ZFS
URLリンク(www.netapp.com)


332:名無しさん@お腹いっぱい。
07/09/06 11:50:53
URLリンク(blogs.netapp.com)

ホントはIP訴訟なんかやりたくないけど、Sunが先に仕掛けてきたんだよ~
ってな事が書いてあるな。


333:名無しさん@お腹いっぱい。
07/09/06 12:37:28
>>328 「NFS経由のtarの展開」とか速くなるかと思ってとりあえず
ramdiskadm で試してみたんだけどほとんど効果なかった。
そもそもそういう効果を期待しちゃいけなかったのかなあ。


334:名無しさん@お腹いっぱい。
07/09/06 15:56:59
余ってるHDDとPCでSolaris10u3を使用してZFSのプールを作って使っていたんですが
特定のファイルで突然I/Oエラーが発生したのでscrubをやってみたところCKSUMエラーが発生していました
修復は無理そうなのであきらめていますがSolaris自体にも慣れていないので
他に影響の出ているファイルがあるのかどうか?それをどう調べるのか?
ディスクを交換すべきかどうか
が、わかりません
そのあたりどうかご教示お願いします
zpool status -vの結果を貼ります

335:名無しさん@お腹いっぱい。
07/09/06 15:59:34
プール: share
状態: ONLINE
状態: 1 つまたは複数のデバイスでエラーが発生し、
データが壊れました。アプリケーションがこの影響を受ける可能性があります。
アクション: 復元できる場合は、問題の発生したファイルを復元します。復元できない場合は、バックアップから
プール全体を復元します。
次のサイトを参照してください: URLリンク(www.sun.com)
スクラブ: scrub completed: Thu Sep 6 12:47:04 2007
で 4 のエラー構成:

-----------------------------------------------
改行大杉で怒られたので省略、mirrorが複数ある構成です
-----------------------------------------------

errors: The following persistent errors have been detected:

DATASET OBJECT RANGE
5 53aa lvl=0 blkid=96
251 40 lvl=0 blkid=635
251 55 lvl=0 blkid=627

336:名無しさん@お腹いっぱい。
07/09/06 16:20:18
省略としたけどやっぱり必要ですよね
NAME STATE READ WRITE CKSUM
pool ONLINE 0 0 34
mirror ONLINE 0 0 0
c2d0p1 ONLINE 0 0 0
c3d0p1 ONLINE 0 0 0
mirror ONLINE 0 0 0
c4d0p1 ONLINE 0 0 0
c5d0p1 ONLINE 0 0 0
mirror ONLINE 0 0 0
c6t0d0p1 ONLINE 0 0 35
c6t1d0p1 ONLINE 0 0 31
mirror ONLINE 0 0 0
c6t2d0p1 ONLINE 0 0 21
c6t3d0p1 ONLINE 0 0 46
mirror ONLINE 0 0 2
c7t0d0p1 ONLINE 0 0 270
c7t1d0p1 ONLINE 0 0 233
mirror ONLINE 0 0 32
c7t2d0p1 ONLINE 0 0 448
c7t3d0p1 ONLINE 0 0 419
こんなんです

337:名無しさん@お腹いっぱい。
07/09/06 18:46:39
訴訟か

338:334
07/09/06 19:07:22
ほぼ自己解決
zdb poolでIDを確認してから
zdb -vvv [IDの一致したボリューム] [オブジェクト番号]
でぶっ壊れたファイルは確認できました
しかしこのchecksumエラーの多さは…メモリが腐ってる?

339:名無しさん@お腹いっぱい。
07/09/06 20:01:13
>>338
iscsi 経由の時にそういう、全デバイスにぱらぱらと出るチェック
サムエラーに遭遇したことがある(生10U3 の頃)。その時はzpoolが
デバイス名だかデバイスへのパスだかが変わったのをきっかけに出
だした。
ディスク入れかえたりした?


340:334
07/09/06 21:19:31
あー、入れ替えというか中身いじったときにケーブルつなぐ先がわかんなくなって
FAULTになっちまったんで一旦exportしてからimportならしました
known bugsですかね
いっそのことu4にしてしまった方が幸せになれるんだろうか

341:名無しさん@お腹いっぱい。
07/09/06 22:44:25
アップデートできるならそれが良いと思う。

342:名無しさん@お腹いっぱい。
07/09/06 23:41:35
>>332
ちなみにジョナさんのブログではこんな感じ。
URLリンク(blogs.sun.com)

343:名無しさん@お腹いっぱい。
07/09/06 23:45:11
ジョナさんw

344:名無しさん@お腹いっぱい。
07/09/07 00:10:56
>>342 ちょwww変なとこで切るなwww

345:名無しさん@お腹いっぱい。
07/09/07 01:24:09
>>338
Datasetが特定出来れば、objectID = iノード番号だから
findとかで探した方が早いかも。(メタデータじゃ無ければ)

あと、最近また変わってるかもしれないけど、OpenSolarisに入ってるヤツだと
メタデータじゃ無ければ、status -vでちゃんと壊れたファイルのパス出してくれる。

346:名無しさん@お腹いっぱい。
07/09/07 10:53:23
>>342
ジョナたん、タイトルからして「NetApp、ありがとう」っていってますねw

347:名無しさん@お腹いっぱい。
07/09/07 16:30:21
なるほど、NetApp がビビればビビるほど、それだけ ZFS のデキがいいってことになるわな。

348:名無しさん@お腹いっぱい。
07/09/07 18:31:09
日本語記事ktkr
URLリンク(www.computerworld.jp)

349:名無しさん@お腹いっぱい。
07/09/07 21:46:45
おいおい、「ネットアップ」なのかww? NetUp↑、って感じ?w

350:名無しさん@お腹いっぱい。
07/09/07 23:02:22
「ネットアップ」で全然違和感ないけど。

351:名無しさん@お腹いっぱい。
07/09/07 23:07:41
アップリケーションソフトウェア、とか言う?

352:名無しさん@お腹いっぱい。
07/09/07 23:33:23
だよなぁ。app/ というディレクトリーがあった場合、アプと読むなあ。
いっそネタップならゆるせるがww
アプライアンスだよね。略称的には。

353:名無しさん@お腹いっぱい。
07/09/07 23:41:01
「あぷる ipod」


354:名無しさん@お腹いっぱい。
07/09/07 23:41:43
appは普通にアップだろ……
アプなんて語呂が悪いし,英語圏ではなおさらだろう.

355:名無しさん@お腹いっぱい。
07/09/07 23:49:41
普通って言うほどそんなところで音節切れないと思うけど、
まあ、俺は「ネットアップ」派。

356:名無しさん@お腹いっぱい。
07/09/08 00:02:00
ネラッ ネラッ ネラッ ネラッ ば~には~


357:名無しさん@お腹いっぱい。
07/09/08 05:38:46
at att as ass al all … まあ、良いじゃないか

358:名無しさん@お腹いっぱい。
07/09/08 22:09:46
>>354
app を「アップ」なんて読む英語母国語人なんているのか? 想像つかんけど。

359:名無しさん@お腹いっぱい。
07/09/08 22:32:59
GoogleApps
何て読む?

360:名無しさん@お腹いっぱい。
07/09/08 22:34:28
読み方の話って何も得る物がないよな。

361:名無しさん@お腹いっぱい。
07/09/08 22:50:40
app = アプリ
cpp = クププ
ppp = ぷぷぷ

362:名無しさん@お腹いっぱい。
07/09/08 23:47:36
ggg = ギギギ

363:名無しさん@お腹いっぱい。
07/09/09 00:04:58
ガッちゃん乙!
パトカーは食べるなよ

364:名無しさん@お腹いっぱい。
07/09/09 04:27:17
Macの音声読み上げでは app は アップ っていってるぞ

365:名無しさん@お腹いっぱい。
07/09/09 08:58:36
>>364 それはappleを正しく読ませるためのやむをえない仕様

366:名無しさん@お腹いっぱい。
07/09/09 09:18:18
URLリンク(www.research.att.com)
apple=アープル
app=アップ

367:名無しさん@お腹いっぱい。
07/09/09 10:57:02
アポー

368:名無しさん@お腹いっぱい。
07/09/09 11:54:11
馬鹿=マカ
阿呆=アポー

369:名無しさん@お腹いっぱい。
07/09/09 20:25:30
>>352 358
NetApp(US)の人間がネットアップと呼んでいるのに?

370:名無しさん@お腹いっぱい。
07/09/09 22:50:47
ネタップ

371:名無しさん@お腹いっぱい。
07/09/09 23:09:45
もうどうでもいいよ。zfs の話じゃないし。

372:名無しさん@お腹いっぱい。
07/09/10 03:54:54
OSXにZFSのせる計画は頓挫したんだから
マカは巣に帰れと

373:名無しさん@お腹いっぱい。
07/09/10 04:12:43
ソース

374:名無しさん@お腹いっぱい。
07/09/10 09:25:15
落ち込む古都もるけれど、今日もクローソーは元気です。

375:名無しさん@お腹いっぱい。
07/09/10 09:28:27
>>372
まあもうすぐわかるさレオパル丼。

376:名無しさん@お腹いっぱい。
07/09/21 07:55:11
どんあげぇ~

377:名無しさん@お腹いっぱい。
07/09/21 14:59:51
ジャイアント馬場さんだったら!

apple = アポー!!

378:名無しさん@お腹いっぱい。
07/09/21 16:50:09
ZFSの勉強会あるよ
URLリンク(jla.linux.or.jp)

379:名無しさん@お腹いっぱい。
07/09/21 17:15:46
宣伝乙

380:名無しさん@お腹いっぱい。
07/09/21 17:35:33
FreeBSD でもちゃくちゃくと実用的になりつつあるのかなぁ。
だれか参加したら様子書いてちょ。

381:名無しさん@お腹いっぱい。
07/09/22 04:32:36
松井オデキは人類史上最低の屑

382:名無しさん@お腹いっぱい。
07/09/22 05:32:32
URLリンク(people.freebsd.org)
waroth

383:名無しさん@お腹いっぱい。
07/09/22 23:53:38
邪悪なペンギン博士

384:名無しさん@お腹いっぱい。
07/09/26 08:25:50
>>378
報告をおねがいします。

385:名無しさん@お腹いっぱい。
07/10/01 16:27:09
様子聞きたいねぇ。FreeBSD でどのくらい使えてるのか、特に。

386:名無しさん@お腹いっぱい。
07/10/05 11:00:34
FreeBSD ZFS
URLリンク(www.youtube.com)

387:名無しさん@お腹いっぱい。
07/10/05 11:03:16
>>386の高画質版が>>382のディレクトリに置いてある。

388:名無しさん@お腹いっぱい。
07/10/05 12:40:01
Apple「ZFS Developer Preview 1.1」を配布

389:名無しさん@お腹いっぱい。
07/10/10 01:20:44
面白いデモをやったみたいね

USBメモリ4本でRAID構成をデモ、OpenSolaris
URLリンク(www.atmarkit.co.jp)

390:名無しさん@お腹いっぱい。
07/10/10 01:22:59
ずーっと前にyoutubeに似たようなデモが上がってたような

391:名無しさん@お腹いっぱい。
07/10/10 02:39:24
OpenSolarisではデモになるほどのトピックなのですね。

392:名無しさん@お腹いっぱい
07/10/10 02:45:45
ZFSの動作デモだろ

393:名無しさん@お腹いっぱい。
07/10/10 03:01:49
ZFS以前には同様のことはできなかったの?

394:名無しさん@お腹いっぱい。
07/10/10 04:50:39
>>393
お前が足りない頭でSolarisを馬鹿にしようと必死なのは理解できた。

395:名無しさん@お腹いっぱい。
07/10/10 10:43:17
クスクス

396:名無しさん@お腹いっぱい。
07/10/10 10:52:16
>>389
わざわざ実演するってことは、SVMでは実現できていなかった機能ってことかな?
VxVMやHP-UXのLVMではあたり前の機能だけど。


397:名無しさん@お腹いっぱい。
07/10/10 11:46:52
FSのレイヤで実現というところがキモ?

398:名無しさん@お腹いっぱい。
07/10/10 12:14:18
>>396
USBメモリでお手軽にデモできるっていうのが売りなだけ

>>397
fsとLVMとが統合されているのは確かにZFSの売りではある

399:名無しさん@お腹いっぱい。
07/10/10 12:43:04
オープンソースカンファレンスみたいなイベントなら、USBメモリでやった方が
受けはいいだろうな。
ディスクアレイからSCAコネクタのディスクがっしゃんこするよりも。

400:名無しさん@お腹いっぱい。
07/10/10 13:28:05
>>396
> VxVMやHP-UXのLVMではあたり前の機能だけど。
へぇ~ぇ、VxVM や HP-UX の LVM にある機能なのにまるで話題に
ならなかったんだね、かわいそ~。
それとも、デキ悪いんじゃねーの?w

401:名無しさん@お腹いっぱい。
07/10/10 13:56:58
391=393=400ってなんでこんなに必死なんだ?

402:名無しさん@お腹いっぱい。
07/10/10 14:14:26
ちがうけどw

403:名無しさん@お腹いっぱい。
07/10/10 15:12:14
>>400
はぁ?
あまりにVMとして当たり前すぎる機能だからだろ。


404:名無しさん@お腹いっぱい。
07/10/10 15:36:12
*BSD系スレを荒らしていた基地外が湧いて出てきた雰囲気

405:名無しさん@お腹いっぱい。
07/10/10 16:14:05
>>389
まーえに、社員の誰かのblogに乗ってなかったっけ?

406:名無しさん@お腹いっぱい
07/10/10 18:36:08
ZFS自体絶賛拡張中だからな。どんどんやれること増えていきますよ状態。

407:名無しさん@お腹いっぱい。
07/10/10 20:38:26
>>403
ぷ。使ってもらえないね~、かわいそうだね~、なんで ZFS ばかり人気なんだろうね~wwww

408:名無しさん@お腹いっぱい。
07/10/10 21:15:20
ZFSは無償。にも関わらず、すごく高性能で高機能。
うちは、VCS+VxVM+VxFS+Oracleを良く使うが、VCSがZFS対応してくれるのなら、
今すぐにVxVM/FSを捨てるね。ZFSは本当に使いやすい。
NetAppの持つ機能の大半をZFSで実現出来るので、NetApp買えないような貧乏
ユーザ(オレ)にはうれしい。

409:名無しさん@お腹いっぱい。
07/10/10 21:21:45
kitty guy多いなw

410:名無しさん@お腹いっぱい。
07/10/10 21:24:14
一度使ってみると良いぞ。VxVM使うのばからしくなる

411:名無しさん@お腹いっぱい。
07/10/10 21:57:56
ZFSに次期搭載予定?のDelegated Administration機能って便利そうじゃね?
一般ユーザに、自分自身が使用しているZFSのSnapshot権限を渡すとかさ。

# zfs allow -s @set1 create,mount,snapshot,clone,promote sandbox
# zfs allow marks @set1 sandbox/marks
# zfs allow sandbox/marks
-------------------------------------------------------------
Local+Descendent permissions on (sandbox/marks)
user marks @set1
-------------------------------------------------------------
Permission sets on (sandbox)
@set1 clone,create,mount,promote,snapshot
Local+Descendent permissions on (sandbox)
group staff create,mount
-------------------------------------------------------------


412:名無しさん@お腹いっぱい。
07/10/10 22:16:21
>>407
発狂するのってどういう気分?

>>408
それ、コマンドレベルのACLで用が足りない?

413:名無しさん@お腹いっぱい。
07/10/10 22:20:38
>>412
>コマンドレベルのACL
えーっと。ファイルシステムを割り当てる意味が分かっていないんだね。
まずは実際に使ってみて、各機能の用途を想像する事からはじめてほしい。

414:名無しさん@お腹いっぱい。
07/10/10 22:53:58
linuxに実装してくれないと使うのめんどいお・・・

415:名無しさん@お腹いっぱい。
07/10/11 08:06:09
fuseはなんでだめなん?


416:名無しさん@お腹いっぱい。
07/10/11 10:27:53
>>412
うっ.... あんた、マジで言ってたの?



.....かわいそ~~。悲惨なライフなのね。


417:名無しさん@お腹いっぱい。
07/10/11 10:43:55
*BSD系スレ全般に基地外が出没しているみたいだけど、ここにも湧いているね

418:名無しさん@お腹いっぱい。
07/10/11 10:46:39
スルーできない低能が居るから付け上がる

419:名無しさん@お腹いっぱい。
07/10/11 11:02:27
いつもあたまから湯気出してるからハゲあがる。

420:名無しさん@お腹いっぱい。
07/10/11 13:50:56
>>417
ここって、*BSD系なのか?

421:名無しさん@お腹いっぱい。
07/10/11 14:14:38
*BSD系スレ全般に基地外が出没しているみたいだけど、(*BSD系スレではない)ここにも湧いているね

って意味だとわかりそうなものだ.

422:名無しさん@お腹いっぱい。
07/10/11 14:19:30
ここって(出没中のキティガイにとっては)*BSD系なのか(もしれんのでは)?

って意味だとわかりそうなものだ

423:名無しさん@お腹いっぱい。
07/10/11 14:45:23
わけわかんざき

424:名無しさん@お腹いっぱい。
07/10/11 17:58:30
>>421
UNIX板には基地外しかいません。

425:名無しさん@お腹いっぱい。
07/10/11 17:58:41
まあ、ZFS 以前のものはゴミだった、ってことでw

426:名無しさん@お腹いっぱい。
07/10/11 20:24:59
ゴミに失礼だぞ

427:名無しさん@お腹いっぱい。
07/10/11 20:38:15
別にZFSを宝石に喩えるのはいいが、
それ以外を貶めるのはよせ。

全然クールでもないし笑いにもならない。

428:名無しさん@お腹いっぱい。
07/10/11 21:32:27
いや、ZFS 人気やっかんで必死なやつをからかってるだけよw
マジあたまわるいしww

429:名無しさん@お腹いっぱい。
07/10/11 22:57:13
からかうのはリアルな場面だけにしてください。

430:名無しさん@お腹いっぱい。
07/10/11 23:01:53
以前、Sunの営業に聞いた話では、ZFSにQFS(クラスタファイルシステム)と
SAM-FS(HSM)の機能を追加する計画があると言う事だった。
だが、最近、SunはLustreを買った。ZFSのクラスタファイルシステム化を
忘れたりしないだろうな? 期待しているんだからさ。

431:名無しさん@お腹いっぱい。
07/10/12 02:31:10
>>389
デモとしても面白くない。既存LVMでできることそのままなんだから。
技術的にもZFSならではのファイルシステムレベルスナップショットを使ったデモをしたほうがずっといい。


432:名無しさん@お腹いっぱい。
07/10/12 09:56:59
まだ言うかwww おなじじゃねーてのww
もちろん全部 ZFS の発明だと言ってるわけじゃないんだけど。
それもわかんないのか?

433:名無しさん@お腹いっぱい。
07/10/12 11:02:08
自演してるのか?

434:名無しさん@お腹いっぱい。
07/10/12 11:16:27
マジあたまわるいんだな。それでよく LVM とか使えてるな?
あ、使えてないのか。だから ZFS のありがたみがわからない。そかそかwwwwww

435:名無しさん@お腹いっぱい。
07/10/12 16:28:42
このスレは低脳レスの練習場ですか?
いつの間にか草刈り場になっているし。

436:名無しさん@お腹いっぱい。
07/10/12 16:56:36
下手に刺激して住み憑かれるとウザイ。

437:名無しさん@お腹いっぱい。
07/10/12 19:05:16
>>435
模範的な低脳レスだな

438:名無しさん@お腹いっぱい。
07/10/12 19:21:14
ファイルシステムとLVMが一体化している事の意味(メリット)が
理解出来ない人が多いみたいだね。
例えば、RAIDを構成しているDiskの1本がこけたとする。
LVMや通常のハードウェアRAIDだと、Disk 1本分を丸々再生する事になる。
Disk 1本ならまだ良い方で、筐体間ミラーなどしていた日には、1TBの
フルコピーなんて言う考えたくもない事態がある。
ZFSでは、ファイルシステムとLVMが一体化しているので、リカバリは、
実際に使用しているデータブロックのみ。1TBのファイルシステムでも、
実使用量は半分以下なんて事は良くあるよね。その場合は、半分の
コピーで済む。

439:名無しさん@お腹いっぱい。
07/10/12 19:22:11
データのchecksumも嬉しい機能だよな。いつの間にかデータが化けていた
なんて言う事態が防げる。

440:名無しさん@お腹いっぱい。
07/10/12 19:38:10
オペレーションがものすごく簡単であると言うメリットも大きい。
おれのよーなバカでも気軽に使える。

441:名無しさん@お腹いっぱい。
07/10/12 22:25:46
バックアップが簡単ってだけでうらやましい

442:名無しさん@お腹いっぱい。
07/10/12 23:22:25
>>438
それってZFSの弱点でもないか?
20TBのストレージなら利点だが、200TBが必要になったらどうするんだ?

443:名無しさん@お腹いっぱい。
07/10/12 23:31:33
>>442
??? 意味分からん。

容量が足りなくなったら zpool add するだけでいいんじゃないの?

444:名無しさん@お腹いっぱい。
07/10/13 01:17:29
>>443
じゃあ200TBのストレージが必要になったってことで、
そのハードウェア構成を見積もってみてもらえる?

445:名無しさん@お腹いっぱい。
07/10/13 01:23:37
大丈夫か……?

446:名無しさん@お腹いっぱい。
07/10/13 01:44:43
>>442 何が弱点なの? 理解していないでしょ。
>>444 300GB×14のシェルフを並べていけばいいだけ。
信頼性重視ならSymmetrix DMZでも買えば。
その上から、ZFSでPool作成するだけだよ。

447:名無しさん@お腹いっぱい。
07/10/13 02:02:38
すまぬ。タイプミス。DMZ→DMX
EMC CX3-80なら353TB。DMX-4なら1054TB。
StorageTek6140でも56TB。
自由に選択してくれって感じ。

448:名無しさん@お腹いっぱい。
07/10/13 10:20:20
>>438
> 理解出来ない人が多いみたいだね。
いや。一人だけだろ。
しかもコイツは LVM もまともに使えてないわな。ただのユーザー。
ひょっとすると LVM さえ使ったことないかも。

449:名無しさん@お腹いっぱい。
07/10/13 10:50:13
IOマルチパスなんてのもSolaris10は標準で搭載してるんだな。
まあストレージを買えばついでにその手のソフトウェアも買うことになるから、余り使う機会はないのかもしれんけど、
わざわざその目的でVxVMを買う理由もなくなったな。
あとはRACのために共有ファイルシステムの機能をもってくれれば十分かな。


450:名無しさん@お腹いっぱい。
07/10/13 12:31:57
商用UNIXでRACだとRAWかASMの二者択一になりがち。使いにくい。
10gでSFRAC使っている奴も見た事無いし。
ZFSのクラスタファイルシステム化と、Oracleのサポート。頼みますよ、Sunさん。

451:名無しさん@お腹いっぱい。
07/10/13 13:02:43
NFSという手もあるがな。

452:名無しさん@お腹いっぱい。
07/10/13 14:10:37
DB Poolか。
でも、NetAppは高いからな

453:名無しさん@お腹いっぱい。
07/10/13 14:26:44
>408
> Disk 1本ならまだ良い方で、筐体間ミラーなどしていた日には、1TBの
> フルコピーなんて言う考えたくもない事態がある。

なんで筐体間ミラーだとフルコピーが発生するのか良くわからないんだけど。

454:名無しさん@お腹いっぱい。
07/10/13 16:55:57
二重障害でRAIDがまるごと壊れた場合だろ。

455:名無しさん@お腹いっぱい。
07/10/13 16:56:48
逆に、こうした障害が起きないのであれば、筐体間ミラーをする必要も
ないわけだが。

456:名無しさん@お腹いっぱい。
07/10/13 17:23:13
>>454
最初そう思ったんだけど、RAID が丸ごと壊れたら ZFS でも全コピーでしょ。

457:名無しさん@お腹いっぱい。
07/10/13 17:43:50
あぁ、その時使用していたブロックだけコピーされるのね。

458:名無しさん@お腹いっぱい。
07/10/13 18:57:16
>>408
常識的に考えてVCSがサポートするわけなかろうに

459:名無しさん@お腹いっぱい。
07/10/14 18:10:34
>>411
便利そう。
俺今までsetuid したプログラム使ってて気持ち悪かった。(mount
point のオーナとuid が同じかチェックして、zfs snapshot する)

460:名無しさん@お腹いっぱい。
07/10/14 21:48:54
>>458 対応すると入っているんだが、何時になる事やら
SunClusterに浮気しちゃうぞw

461:名無しさん@お腹いっぱい。
07/10/15 14:31:49
ZFS + Lustre ?

URLリンク(www.hpcwire.com)

462:名無しさん@お腹いっぱい。
07/10/15 14:38:42
まだお伽話のレベルですね

463:名無しさん@お腹いっぱい。
07/10/16 04:44:05
Linux初心者にオススメの無料OS、Ubuntu(ウブントゥ)。
ISOイメージをCDに焼くだけで起動ディスクの完成。
ディスクを入れたまま再起動すれば即(・∀・)ウブントゥ!!
既存の環境を汚さないLiveCDタイプで、安心して試せます。
気に入ったらHDDにインストールして常用も可能。

ダウンロード
URLリンク(www.ubuntulinux.jp)

世界で圧倒的人気のLinux、それがUbuntu。
URLリンク(google.com)

初心者超歓迎BBS
スレリンク(linux板)

★Ubuntu日本語サイト
URLリンク(www.ubuntulinux.jp)
★Ubuntu 7.04紹介記事
URLリンク(itpro.nikkeibp.co.jp)
URLリンク(itpro.nikkeibp.co.jp)
★Ubuntu 7.04インストールガイド
URLリンク(itpro.nikkeibp.co.jp)

3Dデスクトップ環境「Beryl」
Minimizing Effects URLリンク(www.youtube.com)
Desktop Cube URLリンク(www.youtube.com)
Rain Effects URLリンク(www.youtube.com)
Window Switching URLリンク(www.youtube.com)
Beryl + Wiiリモコン URLリンク(www.youtube.com)

464:名無しさん@お腹いっぱい。
07/10/16 13:02:18
アダルト広告みたい。
気持ち悪いユーザのいるディストロだな…

465:名無しさん@お腹いっぱい。
07/10/16 13:49:33
まさにネガティブキャンペーンだよな。

466:名無しさん@お腹いっぱい。
07/10/17 23:03:07
使うことが目的じゃなくって試す事が目的なのか?

467:名無しさん@お腹いっぱい。
07/10/19 18:38:37
>>ISOイメージをCDに焼くだけで起動ディスクの完成。
だからどうだっていうの? solarisのinstall cdは、20年前から
CDからOSがブートしてた。

468:名無しさん@お腹いっぱい。
07/10/19 18:40:42
>>467
劣化コピペ相手にマジレスすんなよ、恥ずかしい奴だな

469:名無しさん@お腹いっぱい。
07/10/19 18:50:36
宣伝コピペにマジレスとは恐れ入る

470:名無しさん@お腹いっぱい。
07/10/19 19:13:38
ゆとり

471:名無しさん@お腹いっぱい。
07/10/26 15:34:53
Leopard製品版では結局createは実装されていませんでした。報告まで。

472:名無しさん@お腹いっぱい。
07/10/26 17:01:43
つーことは既存fsのマウントだけか。
まあ無難なところだろうな。

473:名無しさん@お腹いっぱい。
07/10/26 18:27:59
サン、12件の特許侵害でNetAppを逆提訴
URLリンク(japan.cnet.com)

ブヒブヒ、zfsに噛みつきました。

474:名無しさん@お腹いっぱい。
07/10/27 19:00:34
Sun、NetAppの特許訴訟に反訴
URLリンク(www.itmedia.co.jp)

 米Sun Microsystemsが、米Network Appliance(NetApp)に起こされた特許訴訟に反訴した。
同社の法務部門責任者マイク・ディロン氏が10月25日、自身のブログで明らかにした。
 NetAppは9月に、Sunのファイルシステム「ZFS」に7件の特許を侵害されたとして訴訟を起こした。
Sunはこれに反訴し、ZFSはNetAppの特許を侵害していないと主張。さらにNetAppがSunの特許12件を
侵害していると申し立てている。
 Sunが侵害されたとしている特許には、同社がストレージ企業StorageTek買収で取得したものが
含まれる。同社はNetAppに対する差し止め命令と損害賠償を求めている。
 ディロン氏はブログで、NetAppから訴訟を起こす意向を一切知らされなかったことを指摘、
NetAppがZFSの採用を妨げようとしているのはビジネス上の理由からだとしている。
同氏は、SunがZFSを3年前に発表し、2005年11月にオープンソース化したことに触れ、
なぜNetAppは今になって訴訟を起こしたのだろうかと疑問を呈している。

475:名無しさん@お腹いっぱい。
07/10/29 01:51:10
そんだけ NetApp にとって ZFS が脅威だってことだな。

476:名無しさん@お腹いっぱい。
07/10/30 12:46:36
ガンダム00とか見たほうがいいよ
アメリカの汚いやり口を分かりやすく説明しているから

477:名無しさん@お腹いっぱい。
07/10/30 13:50:48
>>476
アニメじゃないと、理解できないんだろ?

478:名無しさん@お腹いっぱい。
07/10/30 15:10:42
ガイドラインまで立ってるw

479:名無しさん@お腹いっぱい。
07/11/04 02:45:49
URLリンク(blog.ninth-nine.com)

480:名無しさん@お腹いっぱい。
07/11/04 03:55:04
ZFS Beta Seed v1.1
URLリンク(connect.apple.com)

481:名無しさん@お腹いっぱい。
07/11/04 06:52:52
>>480
キタコレ。
readme読むと、いくつかの機能がまだ完成してないらしい。
GUIDパーティションで既存のFSとも共存させれるらしい。

今、余ってるディスクもMacもないから、テストできないなー。

482:480
07/11/04 16:02:51
>>481
試しにUSBメモリをZFSにして、それを抜き差ししたらカーネルパニックしたw
アンインストールの仕方がよく分からんので注意w

483:名無しさん@お腹いっぱい。
07/11/04 16:33:10
しかも、一度ZFSにして、カーネルパニックするとリカバリー中と出てフォーマットも含めすべての操作ができなくなる。
つか、そもそもZFS 1.1はLeopard beta 用


484:名無しさん@お腹いっぱい。
07/11/07 15:57:22
Mac+ZFS
URLリンク(blogs.sun.com)

485:名無しさん@お腹いっぱい。
07/11/08 00:33:07
>>479
ありがとう
週末にZFS on FreeBSDやる予定なのでたすかります



486:名無しさん@お腹いっぱい。
07/11/08 00:40:14
ついでに質問なんですが
diskのSATA write casheはonのままでもよいでしょうか?
softupdateみたいにoffだと性能がでなくて、しかたなくonがデフォルトとかの情報希望


487:名無しさん@お腹いっぱい。
07/11/15 01:05:53
やっと時間が取れてFreeBSD amd64で
zpool create tank /dev/ad6s2
したらSEGVになるんだが
gdbでぱっとみstrlen()でおちている。
何このクォリティ。
ホームを置こうと思ってたが、ちょとこわいね。


488:名無しさん@お腹いっぱい。
07/11/16 01:17:47
zpoolをつくりなおしてgdbでみたら
geom系の関数が工ラーになっていて、
それをassertでおとしていたというオチ。
NTFSのボリュームラベルが日本語だったので
gIabelが発狂したらしい。



489:名無しさん@お腹いっぱい。
07/11/16 08:15:01
まずは、ホームデイレクトリを移そうと
compression=9でコピーをはじめたら
カーネルスレッドが8本ほどアクティブになってシステムの反応が悪化。
giantlockをとられている感覚に近い。
そのうちkmemなんとかでパニックした。(loader.confで1Gまで上げてるのに)
compressionをはずしてやりなおしたら、うまくコピーがおわった。


490:名無しさん@お腹いっぱい。
07/11/16 09:24:51
>>486
zfsはライトキャッシュを活用するように作られてるよ。

>>487-489
内容のないグチ日記を書きたいだけならチラシの裏にしとけ。


491:名無しさん@お腹いっぱい。
07/11/16 10:32:00
批判的な記事はご遠慮ください。
(他と比較して結果の劣る)ベンチマークの公開はご遠慮ください。


492:名無しさん@お腹いっぱい。
07/11/16 11:45:41
書くなら詳しく書けって言ってんだ。
自分の環境で起こる問題はどこでも再現すると思ってるバカは扱いに困るな。

493:名無しさん@お腹いっぱい。
07/11/16 13:07:08
せっかくブログってもんがあるのにね

494:名無しさん@お腹いっぱい。
07/11/17 03:22:28
いいよ。遠慮せずどんどん書いてくれ。

495:名無しさん@お腹いっぱい。
07/11/17 03:42:34
>>488 は参考になったけど


496:名無しさん@お腹いっぱい。
07/11/21 08:31:32
WCはうまくつかっているということであんしんあんぜんってことですね。
今のところ安定して動いています。
zfs snapshotが一般ユーザで実行できるのと、.zfs/snapshot/~がマウントされっぱなしになるのが気になるところ。


497:名無しさん@お腹いっぱい。
07/11/23 21:55:49
ZFS最高!!


498:名無しさん@お腹いっぱい。
07/11/27 15:10:35
これがすごく楽しみ…… 妄想してたものが現実に
URLリンク(www.opensolaris.org)
URLリンク(jp.opensolaris.org)

499:名無しさん@お腹いっぱい。
07/11/27 21:00:20
>>498
おー。おもしろそう。
The content of the cache devices is considered volitile, as
is the case with other system caches.
ってあるけど(関係ないけどタイポ発見)、たとえばi-ramみたいな
ので作ってもいいのかな。


500:名無しさん@お腹いっぱい。
07/11/28 01:40:07
>>499
アリだと思うよ.volatile扱いでいいから相性も良いね.
個人的にはi-RAMはECC無いのが怖いしHypeDriveは高杉だしで,
ANS-9010に一縷の望みをかけてるのだけれど.
駄目ならFlashベースの奴だね……
あるいは電気代はアレだが余ったマシンをiSCSI targetにするとか.

501:名無しさん@お腹いっぱい。
07/12/01 11:48:14
>>438
おおお、たしかにそれいいな。
てかVFS層でそのあたり拾ってくれよ。
FSは好きなの選びたい。

502:名無しさん@お腹いっぱい。
07/12/01 12:05:51
そんなところに挟んだらキャッシュから読んだデータの整合性チェックができないんじゃないか?
キャッシュが腐ってることを検出したらストレージへ読みに行くらしいし。

503:502
07/12/01 12:19:19
すまん、501を498宛だと勘違いしてたよ。。。

504:名無しさん@お腹いっぱい。
07/12/16 15:53:44
ZFS on rootなFreeBSD環境をmicroSD上に構築してみる
URLリンク(bsdhouse.org)


505:名無しさん@お腹いっぱい。
08/01/03 18:56:08
複数ディスクをJBODで構築した場合、ディスクに一つ障害が出たらファイル全部喪失してしまうんでしょうか。



506:名無しさん@お腹いっぱい。
08/01/03 19:14:25
基本的にそういう理解でいい。
残りのディスクだけで完結しているファイルは、なんとかサルベージできるかも知れんけど。

ちなみに、スレ違いだな。


507:名無しさん@お腹いっぱい。
08/01/03 20:52:50
>>506
ZFSでも一人が死ぬとのプール全体が終わってしまうのですね。
ディスクの足し算引き算が容易にできるFSを探しててzfsはどうかと思った次第。

Windows Home Serverの方がイメージに近いので、そっちで検討してみます。


508:名無しさん@お腹いっぱい。
08/01/03 21:05:06
事前に抜く予定が分かっていてファイルの移動を
ボリュームマネージャにやらせるのは zfs でできるんじゃないっけ?

もしくは RAID5 構成で1本抜いて一本挿し直してみたいなことを想像してる?

509:名無しさん@お腹いっぱい。
08/01/03 21:18:56
>>508

作りたいのは自宅ファイルサーバ。
録画機能つきTV(REGZA)のデータandその他もろもろデータ置き場。

(1)とにかくでかい1ボリュームが欲しい。容量が足りなくなったらHDD足すだけでOK。(ZFS,WHS)
(2HDD故障でファイル消失しても泣かない。でも正常なディスクのファイルが読めなくなるはやだ。(WHS)
(3)なるべく低イニシャルコストで。(ZFS)

こんなところです。
(1)(2)はFuse使ってunionfsの亜種みたいなのを作って実現してみようかとも思ってます。


510:名無しさん@お腹いっぱい。
08/01/03 21:22:44
>>508
なので計画的にディスクを抜くというよりも障害時の影響範囲を最低限にしたいんです。
でも、RAID1,5,Zのようなディスクを余計に消費してまでの完全性はいらないんです。

511:名無しさん@お腹いっぱい。
08/01/05 12:59:08
>>508
ZFSはディスクを足すのは簡単だけど、減らすことはできないと思ってたけど。

>>509
ファイルシステム以下の層でやるより、ディレクトリ分類とシンボ
リックリンクで済ませた方が早くない?


512:名無しさん@お腹いっぱい。
08/01/08 14:24:39
>>511
> ZFSはディスクを足すのは簡単だけど、減らすことはできないと思ってたけど。
仕様的にはできるはずなのでは。「まだ実装されてない」って話だったが、
今の状況は知らんw

> ファイルシステム以下の層でやるより、ディレクトリ分類とシンボ
> リックリンクで済ませた方が早くない?
オレもそう思う。

513:名無しさん@お腹いっぱい。
08/01/08 16:41:45
それをファイル単位で自動的にやってくれるのがWHSのDEな.
DEはファイルシステムの層でやってるのではない.

514:名無しさん@お腹いっぱい。
08/01/08 18:30:45
UNIX 板なんだから謎の略語は展開してあげるのが親切かと。
Windows Home Server の Drive Extender だよね。

515:名無しさん@お腹いっぱい。
08/01/08 20:10:20
ZFSが/で使えないのは何がたりない?
早くUFSからオサラバしたいぜ


516:名無しさん@お腹いっぱい。
08/01/08 21:11:18
OpenSolarisやFreeBSDならできるよ

517:名無しさん@お腹いっぱい。
08/01/09 01:46:49
>>515
FreeBSDなら
URLリンク(wiki.freebsd.org)
とか
URLリンク(blog.ninth-nine.com)
とか >>504 とか

518:名無しさん@お腹いっぱい。
08/01/11 02:23:46
>>480-484
zfs-102A 来た
URLリンク(zfs.macosforge.org)

Bugs Fixed in this Rev:
5448925: sync ZFS with Solaris build 72
5405398: zfs needs kqueue(2) API support
5602507: Leopard9A581: Kernel trap at 0×4d351d9c, type 14=page fault, registers:
5592757: Kernel panic when writing to a zfs volume
5482932: Raidz parity rewrite issue
5641577: ZFS: panic: zap->zap_u.zap_fat.zap_phys->zap_magic == 0×2F52AB2ABULL failed
5621659: assertion failed in /Users/local/zfs-101-latest_fixes/zfs_kext/zfs/zfs_dir.c line 730: error == 0
5643944: ZFS get/set and mountpoints are misbehaving
5645880: Finder copy and “delete” broken in zfs-101 plus fixes..

519:名無しさん@お腹いっぱい。
08/01/12 00:39:11
>>518
記事出た。

128bit FS「ZFS」のMac OS X Leopard用最新ビルドが公開
URLリンク(journal.mycom.co.jp)

520:名無しさん@お腹いっぱい。
08/01/12 02:08:59
にしても、基本的にOS X 10.6まで待ちというのは長いな…

521:名無しさん@お腹いっぱい。
08/01/13 00:36:48
デカイファイルの削除時にカーネルパニックになる場合があるね。
基本的な動作は問題なさげ。
USBメモリー16本でRAIDZ組んでみた。ランダムアクセスで100MB前後出る。
が、速度の結果が不安定。zfs側で用意したキャッシュの分の速度も含まれてるのかも?

522:名無しさん@お腹いっぱい。
08/01/13 00:48:28
>>521
> USBメモリー16本でRAIDZ組んでみた
> が、速度の結果が不安定
どうやってつないだ? そもそもボトルネックってどこよ?

> zfs側で用意したキャッシュの分の速度も含まれて
普通にそうなるだろ?


523:521
08/01/13 12:49:43
>>522
試したのは、102aを10.5.1で。
USB4ポートに4ポートハブと、16ポートハブ(中身は多段ハブだった)で確認。
ボトルネックは主にハブだね。USBメモリーはPQI U339Proで、ファームを最新に書き換え済み。
単体での20MB弱のリードを確認してる。

キャッシュについては、確かにそうだ。
ベンチの結果、ランダムリードで5MB/secから100MB/secまである。
パリティの処理とのカブリか、ベンチに使ったソフト(Xbench)の出来の加減なのか…
現状、zfsのraidzの挙動に詳しいわけではないので、もちょっと色々試してみる予定。
どっちにしても実際に動かす分にはかなり快適。

524:名無しさん@お腹いっぱい。
08/01/13 13:07:52
>>521
それはデカイ問題じゃないのか

525:名無しさん@お腹いっぱい。
08/01/13 13:51:05
10.5.1てマコス?
そのUSBポートはひとつのICHに繋がっていて合計60MB/sの帯域しかない。
それを超えたらもちろんcacheの速度。


526:名無しさん@お腹いっぱい。
08/01/13 13:56:45
>>523
> USB4ポートに4ポートハブと、16ポートハブ(中身は多段ハブ…
USB2 って 480Mbps じゃなかったけ?
16 ポートって 4x4 の 2 段だろ? ここのトランザクション増えると
ここに足引っ張られるのみえみえじゃん?


527:521
08/01/13 20:27:39
お遊びにそんな怒らんでも。Leopardだね。>>519 のもの。
G5 Macだから、ボトルネックがチップセットにあるのか不明。
一応、ハブもダメだし、あっちこっちダメなのは認識してる。
でかいファイルでだめなのは再現性不明。7GB位のファイルで確認してたんだが…その後起きない。
次でたらバグ報告しようかと思ってるんだが。


528:名無しさん@お腹いっぱい。
08/01/14 00:48:28
>>527
G5だとEHCIは32bit/33MHz PCIの下だから帯域は4ポートとその他諸々全部ひっ
くるめてPCI1本分。実はIntelよりマシ。

529:名無しさん@お腹いっぱい。
08/01/16 02:14:29
なんでPCIの下のEHCIが、
ICH内蔵のEHCIよりマシなのか
ぜんぜん理解できない

530:名無しさん@お腹いっぱい。
08/01/16 10:20:31
俺も理解できない。
先にUSBの仕様上上限がネックになるのに何故PCIの話持ち出してるのか。

531:名無しさん@お腹いっぱい。
08/01/16 10:39:18
USB3.0 の話なのだよ

532:名無しさん@お腹いっぱい。
08/01/16 20:08:26
>>529
IntelのICH内蔵EHCIはUSBポート全部合わせて60MB/sの帯域しかない。
(EHCI2個を内蔵しているものはそれぞれが60MB/sの帯域を持つ)
PCI-USB bridgeならば少なくともこの制限はない、ということ。
逆にもっと酷いものが載っているかもしれないが。

>>530
USBメモリを16本挿して遊んでるので「USBの仕様上上限」とやらは問題にならない。
重要なのは経路の一番細い部分。すべてのUSBはひとつのEHCIを経由するわけだから、
ここの帯域が速度の上限となる。だからEHCIがどこに繋がっているかの話をした。

理解していただけたか。

533:名無しさん@お腹いっぱい。
08/01/16 21:49:55
なるほど。勉強になった。

534:名無しさん@お腹いっぱい。
08/01/16 23:35:12
>IntelのICH内蔵EHCIはUSBポート全部合わせて60MB/sの帯域しかない。
>PCI-USB bridgeならば少なくともこの制限はない、ということ。
そんなの始めて聞いたゼ。
前段の、1EHCI辺り60MB/sしか出ないのかがホントなのか、はおいといて、
もしそうだとしても、後段の「PCI-USB brigde」ってのは結局のところEHCIなわけだから、
1つしかなければ、そこも結局60MB/s以上出るはずがないという話になると思うけど?

535:名無しさん@お腹いっぱい。
08/01/17 01:20:54
なるほど、PCI-USB bridgeとやらが、何か*HCIとは違うすごい物という勘違いを
してるわけか。


536:名無しさん@お腹いっぱい。
08/01/17 01:49:42
>>534
Intel製のICH内蔵EHCIが60MB/sでFSBに繋がっているということが
他社製のEHCIの構造に何か影響を及ぼしていると言っているのか?
もしそうなら言ってくれ。君のことは早々に忘れることにする。
そうでなくても大概スレ違いなので次のレスで完結してくれるようお願いする。

>>535
君はもう少し誰かの役に立つことを書け。

537:名無しさん@お腹いっぱい。
08/01/17 08:18:30
何、Intel製のICH内蔵EHCIだけ(特に性能が悪くて、)
ICH内部バス(ふつうFSBとは言わない)からRootHubまで
60MB/s(480Mbps)しかないけど、
他のメーカ(NEC,VIA,SIS,AMDなど)のEHCIはそこは133MB/sの太さがある、と?

538:名無しさん@お腹いっぱい。
08/01/17 09:17:04
揚げてみる

539:名無しさん@お腹いっぱい。
08/01/17 10:01:43
負け惜しみはよくわかったからそろそろ他でやってくれないか。


540:名無しさん@お腹いっぱい。
08/01/17 10:27:27
zfs の話題マダーーー? チンチン

541:名無しさん@お腹いっぱい。
08/01/17 15:44:38
お互いほどほどにな。
元々の実験自体は中々面白いものだったし。

542:名無しさん@お腹いっぱい。
08/01/18 11:40:59
ZFSファイルシステムのバグでJoyent、長時間ダウンを余儀なくされる
URLリンク(jp.techcrunch.com)


543:名無しさん@お腹いっぱい。
08/01/18 12:45:11
>>542
それって、(リリース版Solarisでなく)OpenSolaris、それもsnv_43なんていう古いバージョンのを
使っててバグ踏んだだけじゃん。snv_60で9ヶ月ぐらい前にfixされてるバグだし。
URLリンク(discuss.joyent.com)
URLリンク(opensolaris.org)

544:名無しさん@お腹いっぱい。
08/01/18 14:33:35
Joyentとしては、とにかく他人のせいにしとかないとね。
あ、TechCrunchのfounderは記事に名前の出てるOmnidriveのinvestorでもあるのか。


545:名無しさん@お腹いっぱい。
08/01/18 16:21:01
つーか、このレベルの障害がこれだけ大きく出るってことは、逆に
それ以上のものはほぼ皆無ってことになるんじゃねーか? すげーじゃん。

546:名無しさん@お腹いっぱい。
08/01/20 04:37:45
ゆとり脳かよ

547:521
08/01/21 01:43:43
Leopard上でのzfsだけど、デバイスのエラーが起きたとき(orパリティからの復帰時)にカーネルパニックおきるや。
6本のUSBメモリーでraidz2にして、1~2本抜いてその分新しいのをプールに追加すればほら元通りってデモやろうとしてたけど、
なんどやってもその場でパニックまたはzpool statusを実行した途端パニック。レポート送信ポチッとな。

あと、16ポートハブは出来が悪い。たくさんデータ転送してたら突然の電源断。熱が多いようだし、そのせいかもしれないが。
Mac/Winの複数環境で試したが、相性ではなさそう。一部ポートだけ接続不良とかもランダムで起きてる気がする。
さらに、機能とは関係ないが、コネクタがいい加減についてるから、差したブツがランダムで斜めになってるし。
16ポートにUSBメモリー直接差したら、ガタツキまくりのぶつかりまくりの離れまくり。熱問題も含めて延長ケーブル経由にしてしまった。

…高い遊びの割に、結果がしょんぼり。USBメモリーは当初の予定通りデータ入稿用ストックに。
ハブは、Mac Book Airを買ったら使う、かなぁ?

548:名無しさん@お腹いっぱい。
08/01/21 02:30:08
ハブの電源容量は?16ポート全部使うとスペックオーバの場合もあるぞ。

549:名無しさん@お腹いっぱい。
08/01/21 07:57:17
>>547
乙でした。
職業ライターさんかな?
だとしたら、スレ違いだけどVT -d、IOV特集とかお願い。

550:名無しさん@お腹いっぱい。
08/02/03 14:00:28
USB端子の電力供給ってかなりショボイから、
6本同時接続自体が無謀な気もするんだが・・・

551:名無しさん@お腹いっぱい。
08/02/05 21:03:20
>>550
ハブをバスパワーにしなければ無問題ではないかと

552:名無しさん@お腹いっぱい。
08/02/05 21:13:34
WindowsでZFS使いたいなあ…

553:名無しさん@お腹いっぱい。
08/02/06 09:52:49
>>552
他人に頼るな。自分でなんとかしてみろ

554:名無しさん@お腹いっぱい。
08/02/06 10:00:37
C/C++は一応出来るけどWindowsのドライバなんて作ったことない…
まあ、6月ぐらいになったら暇になるから勉強のつもりで挑戦してみるか

555:名無しさん@お腹いっぱい。
08/02/06 10:50:44
MS-Windows がまともに稼働するだけの機能は全部もってるんだろ? ZFS。
ZFS オンリーな環境で MS-Windows がまともに動いたらちょっと爽快かもな。

556:名無しさん@お腹いっぱい。
08/02/06 12:58:56
>>555
いや機能だけでいうなら全然足りない。

557:名無しさん@お腹いっぱい。
08/02/06 13:34:23
そうか? 例えば?

558:名無しさん@お腹いっぱい。
08/02/06 19:26:05
このスレをNTFSで検索しれ

559:名無しさん@お腹いっぱい。
08/02/06 20:21:52
「俺の根拠はお前が探せ」

560:名無しさん@お腹いっぱい。
08/02/06 21:09:43
「半年ROMれ」

561:名無しさん@お腹いっぱい。
08/02/06 21:12:54
>>558
re-parse file は symbolic link、sparse file は hole。
multiple stream は extended attributes (fsattr)だろうな。
以上なら UFS にもあるぞ。
extended attributes は Solaris 9 以降だったと思うが。

暗号化が実装途上だというのはすでに言及されてるからいいとして、
トランザクションとか他の事項については中身を知らんから何とも。
556や558は知ってるならちゃんと説明してくれ。

562:名無しさん@お腹いっぱい。
08/02/06 21:46:10
Windowsが動作可能なFSって、動作するだけなら長いファイル名さえ使えれば
問題ないんでないの?
NTFSと同等の機能が必要かどうかは、OS上で何を動作させるか次第だと思うんだけど。

563:名無しさん@お腹いっぱい。
08/02/06 21:48:43
横槍だがリパースポイントは、
その機構を利用してジャンクションやシンボリックを実現しているだけで、
本質はもっと汎用的な動的再解析のための枠組み。
Windowsでは階層化ストレージのために使っていたりするが、
独自の再解析のアルゴリズムを追加してリパースさせることもできる。はず。
寡聞にして聞いたことがないが。

564:名無しさん@お腹いっぱい。
08/02/06 22:02:30
>>561
ZFS に sparse file(hole) ってあったっけ?
あと junction 相当の directory hardlink とかどうだっけ。

まあ機能制限ありなら FAT 上でだって XP は動くわけで、
そういうのでいいなら ZFS 上で Win 動かすのに問題はないんじゃない?

あと Win Server の Volume Shadow Copy って、これ snapshot 相当なの?
誰か使ったことある?

565:名無しさん@お腹いっぱい。
08/02/06 22:04:16
NTFSの最もよく使われているであろう暗号化機能が
無いというだけで十分ではないか。

566:名無しさん@お腹いっぱい。
08/02/06 22:06:06
最近のノートなビジネスクライアントでは必須だからな……

567:名無しさん@お腹いっぱい。
08/02/07 03:21:19
じゃあ暗号化を考えなきゃ、使える、と?

568:名無しさん@お腹いっぱい。
08/02/07 10:20:14
いや、暗号化なんてどうでもいいだろ。とりあえず大文字小文字の同一視と
ACL カバーしてりゃ問題なかろ。

569:名無しさん@お腹いっぱい。
08/02/07 22:22:54
URLリンク(d.hatena.ne.jp)
[質問] スライドでは、NTOSKRNL はデバイスドライバコードを一切含んでいないということだったが、では ntfs.sys や scsi.sys、disk.sys などのハードディスクを読み書きするデバイスドライバはどうやって読み込まれるのか?

NTOSKRNL を呼び出す PreLoader (恐らくブートセクタプログラムおよび ntldr のこと) に NTFS などのファイルシステムドライバが特別なコードとして組み込まれている。


[質問] では、サードパーティの開発者が例えば新しいファイルシステムを開発してそれ用のデバイスドライバを書いたとしても、そのファイルシステムのドライブ上に NT カーネルを置いてブートすることは不可能ということか?

現在のところ不可能である。

570:名無しさん@お腹いっぱい。
08/02/07 22:24:56
と言うような話を思い出したけど、よくよく話題を追うと機能として満たしてるかどうかだった悪寒

571:名無しさん@お腹いっぱい。
08/02/09 10:24:38
X4500に16TBのZFSファイルシステム作ってみた。
コマンド叩いて、すぐに完成。
Disk 46本全て使ったので、完了するまでに待たされるかと思ったよ。
やっぱり、いいな。ZFS。
でも、細かな所で機能やユーティリティが不足しているので、以下の機能を
早く正式に取り込んで欲しいな。
・send -r ZFSプールの中の全ファイルシステムを再帰的にsend
・snapshot/send/recvのスケジューリング機能
・scrubをバックグラウンドで定期的には知らせる機能

X4500はバックアップ用ストレージとして使っている。
1000T 1本にNFS writeして、50MB/sec位。
ストレージの性能はもうちょっと上なので、10Gの時の書き込み性能を
試してみたいな。だれか10GでNFSシーケンシャルwrite性能計った事無い?

572:名無しさん@お腹いっぱい。
08/02/09 17:17:30
nfsd にあたるリモートpoolを扱う機能が欲しいな。
バックアップが格段に楽になる。
経路の暗号化付きで。

573:名無しさん@お腹いっぱい。
08/02/10 13:10:05
ZFSは素晴らしいよな。近年まれに見る優れたファイルシステム。
周辺のかゆい所に手を入れて、早いところSVM/UFSやVxVM/VxFS捨てて欲しいわ。
夏あたりに出てくるというSolaris10+ZFSベースのNASにも期待。
ZFSはNetApp ONTAPの機能の大半をカバーしているからな。NetApp買わなくても
良くなるかもしれない。

574:名無しさん@お腹いっぱい。
08/02/10 14:39:54
>>571
zpool の RAID はどういう風に組みました?
6 本の RAID-Z を複数かな

575:名無しさん@お腹いっぱい。
08/02/10 14:57:39
9D+2PのRAID-Z2を4セット、1ファイルシステム

576:名無しさん@お腹いっぱい。
08/02/11 11:06:23
次のupdateで、OSブートに対応した版が出てくるんだろうか?
最近のSunサーバは、ハードウェアRAID搭載なので、SVMにお世話になる頻度は
減ったが。X4500みたいな未搭載機もあるしな。
あと、/ からZFSになっていると管理上楽

577:名無しさん@お腹いっぱい。
08/02/11 13:15:05
OSブート対応はブートROM側に変更が必要なのでは。

578:名無しさん@お腹いっぱい。
08/02/11 18:25:35
SPARCのこと?
OpenBootの変更が必要ない方法で進められてると思ったが。

579:名無しさん@お腹いっぱい。
08/02/11 19:19:51
OpenBootもUPFATE可能な作りだしな。

580:名無しさん@お腹いっぱい。
08/02/11 19:47:38
OpenBootに変更は必要ない。
Case Materials for PSARC 2006/525 new-boot sparc
URLリンク(www.opensolaris.org)
x86同様、多段階ブートになる。
早くにOBPから切り離されるため、場合によってはブートが速くなるらしい。

そもそもNVRAMに大きなコードが入るとは思えないわけだが。

581:名無しさん@お腹いっぱい。
08/02/11 21:56:03
やっぱり多段ブートなのかぁ。sector 1-15に収まり切るのかな。

582:名無しさん@お腹いっぱい。
08/02/11 22:13:52
>>576-581
既に Project Indianaの成果物は
URLリンク(www.opensolaris.org)
ZFSオンリーの構成でインストールされますよ。

583:名無しさん@お腹いっぱい。
08/02/11 22:15:23
ん。あ、早とちりか。SPARC版か・・・すまね。

584:名無しさん@お腹いっぱい。
08/02/12 01:17:46
このスレNTに詳しい奴もいるんだな

585:名無しさん@お腹いっぱい。
08/02/12 13:51:26
MS-Windows7 の標準ファイルシステム。

586:名無しさん@お腹いっぱい。
08/02/12 20:04:54
VCSがサポートしてくれれば、全面的にZFSに乗り換えるんだが。
ZFSサポートしているHAはSunClusterのみだからなぁ。
FirstWatchからずっとVERITASを支持してきた俺だが、
SunClusterを検討する時期に来ているんだろうか。

587:名無しさん@お腹いっぱい。
08/02/12 20:53:33
Cluster ableなZFSはまだかっ

588:名無しさん@お腹いっぱい。
08/02/16 17:57:28
SXDEのZFS新機能の説明を読んでみた。待望のsend -Rが。
階層的に作成したファイルシステムを一撃でバックアップ取れて、復元も可能。
URLリンク(docs.sun.com)

# zfs snapshot -r users@today
# zfs list
NAME USED AVAIL REFER MOUNTPOINT
users 187K 33.2G 22K /users
users@today 0 - 22K -
users/user1 18K 33.2G 18K /users/user1
users/user1@today 0 - 18K -
users/user2 18K 33.2G 18K /users/user2
users/user2@today 0 - 18K -
users/user3 18K 33.2G 18K /users/user3
users/user3@today 0 - 18K -
# zfs send -R users@today > /snaps/users-R
# zfs destroy -r users
# zfs receive -F -d users < /snaps/users-R
# zfs list
NAME USED AVAIL REFER MOUNTPOINT
users 196K 33.2G 22K /users
users@today 0 - 22K -
users/user1 18K 33.2G 18K /users/user1
users/user1@today 0 - 18K -
users/user2 18K 33.2G 18K /users/user2
users/user2@today 0 - 18K -
users/user3 18K 33.2G 18K /users/user3
users/user3@today 0 - 18K -

589:名無しさん@お腹いっぱい。
08/02/16 17:58:20
rshやsshと組み合わせて、リモートレプリケーションするのが
すごく楽になったぜ。

590:名無しさん@お腹いっぱい。
08/02/16 18:04:42
あと、cache deviceの機能。どの様な場面を想定しているのかな? SSD?

# zpool create pool mirror c0t2d0 c0t4d0 cache c0t0d0
# zpool status pool
pool: pool
state: ONLINE
scrub: none requested
config:

NAME STATE READ WRITE CKSUM
pool ONLINE 0 0 0
mirror ONLINE 0 0 0
c0t2d0 ONLINE 0 0 0
c0t4d0 ONLINE 0 0 0
cache
c0t0d0 ONLINE 0 0 0

errors: No known data errors

591:名無しさん@お腹いっぱい。
08/02/21 00:10:38
ZFSというのはRAID構成のまま増設が出来ちゃったりするの?
RAID 6+2+0相当で、そこまで出来るなら鯖管に真面目に検討させたいなぁ。

592:名無しさん@お腹いっぱい。
08/02/21 23:00:54
>RAID構成のまま増設が出来ちゃったり
ってどう言う意味?
あと、RAID6+2+0ってどんなメリットが? しかもRAID2 ??
と言うか、そんなの構成可能なHW RAIDやSW RAIDがあるわけ?

593:名無しさん@お腹いっぱい。
08/02/23 11:40:15
6+2+0 = 8

ナ ナンダッテー!!
 Ω ΩΩ

っていうw

594:名無しさん@お腹いっぱい。
08/02/23 13:18:26
なんだこいつ

595:名無しさん@お腹いっぱい。
08/02/23 13:59:04
ZFS じゃないけど敢えて言うなら
Infrant の ReadyNAS みたいなイメージなのかな?

596:名無しさん@お腹いっぱい。
08/02/23 20:34:15
ZFSはオンライン拡張可能だけど、1台だけDisk増設と言った使い方は
お薦めできない。RAID-Z 4+1分の容量を追加とか。そんな感じでやるべき。

597:名無しさん@お腹いっぱい。
08/03/27 09:27:16
自宅のファイルサーバとしてFreeBSD7.0-R + ZFS + samba3.0.28という
組み合わせで導入してみたけど、いまいち使い物にならない。

URLリンク(wiki.freebsd.org) にあるとおり、

vm.kmem_size="512M"
vm.kmem_size_max="512M"

としたけど、クライアントのVista SP1マシンから数GBのデータをコピー
しようとしたらkmem_map too smallで落ちる。設定を640MBまで増やして
みてもダメ。どこまで増やせば安定するのかな。

というかそもそもメインメモリ1GBじゃファイルサーバにZFS使うのには
ぜんぜん足りないのか。

598:名無しさん@お腹いっぱい。
08/03/27 09:51:12
kldstatでzfs.koが組み込まれてるのを確認してから、
sysctl -a | grep vfs.zfs.prefetch_disable
デフォルト値0を1に変えてみたらどうだろう。

他にも設定できる箇所は沢山あるけど、個人的には簡単に動く印象は無いな。


599:名無しさん@お腹いっぱい。
08/03/27 11:25:05
そうなのかぁ.

amd64でメモリ4GB オーバー当り前,とかが実質の前提なのかな?


600:598
08/03/27 11:52:53
簡単に動く印象は無いと書いたけど、
zfsをマウントしてFreeBSD使うだけなら、そう苦労は無いね。
他と絡めてなにかすると、簡単にボロが出る。といった方が正しかった。

細かい仕様まで追ってないので外してるかも知れないけど、
>>597のケースは、zfsがキャッシュ(即ちメモリ)を開放するタイミングの問題だと思う。
zfsに食わせるメモリを超えるサイズのファイル(zfsのパリティ込み)を他のシステム(ここではsamba)から渡すと、
最大でファイルサイズの倍以上メモリが必要だと思う。


601:名無しさん@お腹いっぱい。
08/03/27 12:31:52
512Mじゃ足りないのか。
安心して使えるメモリ量がわからないことには、ファイルサーバには使えないな。
本家であるSolarisのZFSも同じ挙動するのかなぁ。

602:名無しさん@お腹いっぱい。
08/03/27 13:22:26
どちらにせよ今のところFreeBSDではZFSでSambaはうまくいかないぽい。

URLリンク(unix.derkeiler.com)

自分の経験では、ZFSなSamba公開dirにWinXPからちょっと多目のファイル(1000個とか)
の入ったフォルダをコピーすると、コピー先でファイルの数がおかしくなったり
そのフォルダが1回で消せなくなったりした。

FreeBSDに加え、Solaris、LinuxのZFS-FUSE、3つともメモリ256MB割り当てのVMwareで試したが
Solaris、LinuxのZFS-FUSEは問題起きなかった。

603:名無しさん@お腹いっぱい。
08/03/27 13:28:29
>>597
i386の項目も見るんだ
options KVA_PAGES=512 としてから再コンパイルが必要。
vm.kmem_size は 1 GB にしないとダメとあるね。

604:597
08/03/27 13:52:14
とりあえず、vfs.zfs.prefetch_disable=1 してみたけど改善しませんでした。
カーネルの再構築は後で試してみます。

でもメインメモリ1GBしかないのにvm.kmem_sizeを1GBも取っちゃっても
大丈夫でしょうか。。。

でもそもそも598=600氏の指摘されている問題が本当だとすれば、CDの
isoイメージ1枚分の転送すら1GBじゃ足らないということになりますね。
たとえ8GB積んだとしてもDVDイメージが転送できない、と。

605:名無しさん@お腹いっぱい。
08/03/27 14:10:15
>>604
>でもメインメモリ1GBしかないのにvm.kmem_sizeを1GBも取っちゃっても
>大丈夫でしょうか。。。
もちろん大丈夫じゃないので、とりあえずメインメモリを増設しては。
4GBでも今二束三文でしょ。

>>600の話は初耳だけれど、とりあえずAMD64メモリ4GBで、
Samba経由での3GBのファイルのやり取りはできたよ。


606:名無しさん@お腹いっぱい。
08/03/27 14:53:46
>600
4.7GB のエロデータわんさかってのをゲシゲシしようとすると
どうなっちゃうの?

死ぬほど遅いとか? エラー? ぱにっく?

607:名無しさん@お腹いっぱい。
08/03/27 15:11:03
ヨメのマシンにデータが自動転送w

608:名無しさん@お腹いっぱい。
08/03/27 18:22:53
児童バックアップか、いいね!

609:名無しさん@お腹いっぱい。
08/03/27 18:26:05
差分バックアップのやりすぎで年子連続出産

610:名無しさん@お腹いっぱい。
08/03/29 13:54:59
Freebsd amd64で11G積んでるんだが
kmem_sizeを8Gとか1Gより大きくする方法をおしえてくれ


611:名無しさん@お腹いっぱい。
08/03/29 16:26:20
こっちくんな

612:名無しさん@お腹いっぱい。
08/03/30 02:04:53
あんたなんかだいっきらいなんだからね
でも、今回は特別におしえてあげてもよくってよ
ほんと、たったまたま気分がいいだけなんだから
いつもなら、こんな質問にわたしがこたえるわけないでしょ!



613:名無しさん@お腹いっぱい。
08/03/30 16:26:53
きめぇ

614:名無しさん@お腹いっぱい。
08/03/31 23:08:44
結局何も応えてないのかよww

615:名無しさん@お腹いっぱい。
08/03/31 23:16:36
>>610
kmem_size がでかくなると何か幸せなんですか?
kernel + user page table サイズが載ればええもんとちゃいますか?


616:名無しさん@お腹いっぱい。
08/04/06 10:20:44
やっぱりZFSはSolaris10だよね。BSDはいまいち安定していないのかな?

617:名無しさん@お腹いっぱい。
08/04/06 11:02:08
特定のファイルシステムが使いたいから、
それが安定しているOSを選ぶなんて、
そんな時代が来るとは思わなかった。

618:名無しさん@お腹いっぱい。
08/04/06 11:27:17
FreeBSDはgjounalがあるじゃない・・・
と思ったらここはZFSスレなのを忘れていた\(^o^)/

619:名無しさん@お腹いっぱい。
08/04/06 13:04:22
>>617
いや、それほど珍しくないとおもうよ

620:名無しさん@お腹いっぱい。
08/04/06 13:07:55
DBサーバとかなら普通だけど、家庭内サーバだからなあ

621:名無しさん@お腹いっぱい。
08/04/06 16:21:52
用途ごとにOSを選ぶのは、本来あるべき姿だと思う。
特定のOSが好きだから、そのOS上で要件を満足すべく頑張るのもいいことだけど。

622:名無しさん@お腹いっぱい。
08/04/06 16:23:01
WindowsとNTFSが神過ぎてOSを選ぶという行為そのものを忘れてしまったよ。

623:名無しさん@お腹いっぱい。
08/04/06 16:34:22
うんうん、よかったね

624:名無しさん@お腹いっぱい。
08/04/07 13:22:58
もうずっと忘れててもいいよ

625:名無しさん@お腹いっぱい。
08/04/07 22:42:39
>>615
kmem_sizeでデータキャッシュの量が決まっているような感触
たとえば2GBのファイルを2度readすると2度ともディスクアクセスに行く
ffsならそんなことはなくてtopでみているとinactiveが増えfreeが減る


626:名無しさん@お腹いっぱい。
08/04/08 00:25:24
kmem_sizeって(カーネル内の)mallocのための領域決める値でなかったっけ?
ページサイズ以上はどうせちゃんとページアラインされるんだろうけど、
mallocで得た領域をバッファに使ってるって……考えにくいけど……

627:名無しさん@お腹いっぱい。
08/04/08 00:37:18
>>610
過去レス読め。

628:名無しさん@お腹いっぱい。
08/04/08 02:07:07
topはこんな状況になっている
Mem: 611M Active, 154M Inact, 3293M Wired, 73M Cache, 214M Buf, 6788M Free

>>626
ARCというシーケンシャルアクセスにつよいキャッシュアルゴリズムをつかっているらしいので
ページの再利用を自分で管理したいってことじゃないかと想像
Solarisではどうなっているかしらん
>>627




629:名無しさん@お腹いっぱい。
08/04/08 17:34:02
Drobo って ZFS 採用臭するよね?

630:名無しさん@お腹いっぱい。
08/04/08 17:55:04
droboはWindowsHomeServerみたいな
既存のファイルシステムとリンクと振り分けアプリでしょ

631:名無しさん@お腹いっぱい。
08/04/08 22:43:53
一応Drobo販売関係者だけどZFSは使ってないよ。

632:名無しさん@お腹いっぱい。
08/04/09 11:08:00
dorobo非ジャーナリング型でも安全とか書いてあるけど
それ系の速度最優先のFSって何があるんだろ。
FAT32は単純な分軽そうではあるが。

633:名無しさん@お腹いっぱい。
08/04/09 11:20:33
他のスレでやれ

634:名無しさん@お腹いっぱい。
08/04/09 13:01:03
Drobo本体は物理ディスクをエミュレートしてるだけで、
内部にファイルシステムは持ってないでしょ。
DroboShareはLinuxなんじゃないかな。

635:名無しさん@お腹いっぱい。
08/04/09 14:28:27
>>628
そんなことして、mmap()とかどうしてるんだろ?とか思ってソース見てみた。
同じファイルにmmap()してる奴がいる場合とそうでない場合で、ちゃんと場合わけして
read/writeの処理してるっぽいwww

で、現状ではたしかにデータの領域はmalloc(9)で確保してるように見える。
vmstat -mだとsolarisの欄で見えることになるのかな。
バッファ以外にいろいろまざってそうだけど。


636:名無しさん@お腹いっぱい。
08/04/10 11:37:42
そう言えば、ZFSベースのNAS製品あったな。唯一?

コアマイクロのNetFiler ZFS
URLリンク(www.cmsinc.co.jp)

637:名無しさん@お腹いっぱい。
08/04/10 13:52:03
もうちょい安いレンジの製品もだれか作ってくらはい

638:名無しさん@お腹いっぱい。
08/04/11 01:55:59
こんな枯れてないFSにデータためて何がしたいのかと

639:名無しさん@お腹いっぱい。
08/04/11 03:20:31
>>638
FAT16にデータをためるのが好きそうだな

640:名無しさん@お腹いっぱい。
08/04/11 08:04:50
NetBSDへのZFS移植が使えるレベルなら...
あーでもメモリの要求が厳しそうだな

641:名無しさん@お腹いっぱい。
08/04/11 08:41:57
あのー... まだ話だけで影も形もないですが...
FreeBSD のこと?

642:名無しさん@お腹いっぱい。
08/04/11 08:42:36
>>638
枯れてないと思わないと精神が不安定になるんですか?ww

643:名無しさん@お腹いっぱい。
08/04/11 08:54:07
ZFSを使ったファイルサーバー作りたいんだけど
やっぱSolarisがいいかな。FreeBSDは過去に使ったことがあって親しんでるからいいかなと思ったけど。

644:名無しさん@お腹いっぱい。
08/04/11 09:58:58
>>643
ぜひFreeBSD+ZFSで人柱になってくれ。
それでダメならSolarisにすればいい。

645:名無しさん@お腹いっぱい。
08/04/11 10:05:48
>>641
URLリンク(www.olix0r.net)

646:名無しさん@お腹いっぱい。
08/04/11 12:09:25
おー! すげー。compat/opensolaris かよ、うーむ。
これ SoC のやつ? 影くらいはあったか。

647:名無しさん@お腹いっぱい。
08/04/11 12:39:41
基本的にFreeBSDの実装からひっぱってきて、それをNetBSD用に書き変えてる感じ?


648:名無しさん@お腹いっぱい。
08/04/14 22:08:46
SunからSolaris10+ZFSなNASが出ると言う噂があったが。
どうなったんだろう?

649:名無しさん@お腹いっぱい。
08/04/14 22:55:08
どこで聞いた噂なの?

650:名無しさん@お腹いっぱい。
08/04/14 22:58:40
age屋の脳内

651:名無しさん@お腹いっぱい。
08/04/15 00:01:13
OpenSolarisで使えるらしいCIFSのがのるとか、
というお告げが聞こえた(sambaでなく)。


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch