[次世代] ZFS [ファイルシステム]at UNIX
[次世代] ZFS [ファイルシステム] - 暇つぶし2ch1:名無しさん@お腹いっぱい。
06/05/03 13:41:10
[次世代] ZFS [ファイルシステム]
次世代ファイルシステムとしての期待が高いZFSにAppleが興味を示しました。
10.6か10.5で搭載されると見られるこのZFSについて語りましょう。

Solaris ZFS
URLリンク(www.sun.com)

OpenSolaris
URLリンク(www.opensolaris.org)

2:名無しさん@お腹いっぱい。
06/05/03 13:44:17
Mac板に建てようかと思ったけど、この板の方が詳しい人多そう。
というわけで、Solaris使いの人いろいろ教えてください。

参考
URLリンク(kikyou.info)

3:名無しさん@お腹いっぱい。
06/05/03 14:15:47
>>2 そのページにあがってるこれがわかりやすいね。すごいや。
URLリンク(www.opensolaris.org)

4:名無しさん@お腹いっぱい。
06/05/03 14:47:09
コマンドのとこちょっと訳してみた。

プールとファイルシステムを作成

・「tank」という名前のミラー設定のプールを作成
# zpool create tank mirror c0t0d0 c1t0d0

・/export/home へマウントするホームディレクトリーファイルシステムを作成
# zfs create tank/home
# zfs set mountpoint=/export/home tank/home

・数名のユーザーのホームディレクトリーを作成
注: 継承機能のため自動的に /export/home/{ahrens,bonwick,billm} にマウントされる
# zfs create tank/home/ahrens
# zfs create tank/home/bonwick
# zfs create tank/home/billm

・プールに容量追加
# zpool add tank mirror c2t0d0 c3t0d0

5:名無しさん@お腹いっぱい。
06/05/03 14:48:27
属性の設定

・全ホームディレクトリーを自動的に NFS エクスポート
# zfs set sharenfs=rw tank/home

・プール内の全てを圧縮設定
# zfs set compression=on tank

・Eric のクォータを 10g に制限
# zfs set quota=10g tank/home/eschrock

・Tabriz に 20g の予約を保証
# zfs set reservation=20g tank/home/tabriz

ZFS スナップショット

・Mark のホームディレクトリーのスナップショットを取る
# zfs snapshot tank/home/marks@tuesday

・以前のスナップショットにロールバックする
# zfs rollback tank/home/perrin@monday

・水曜日の版の foo.c をちょっと見る
$ cat ~maybee/.zfs/snapshot/wednsday/foo.c

6:名無しさん@お腹いっぱい。
06/05/03 14:49:58
ZFS バックアップ/リストア

・フルバックアップ実施
# zfs backup tank/fs@A > /backup/A

・差分バックアップ
# zfs backup -i tank/fs@A tank/fs@B > /backup/B-A

・遠隔複製: 1 分間分の差分を送出
# zfs backup -i tank/fs@11:31 tank/fs@11:32 | ssh host zfs restore -d /tank/fs

ZFS データ移行

・旧サーバーのプールをエクスポート
old# zpool export tank

・新サーバーへ物理的にディスクを移動し、プールをインポート
new# zpool import tank

7:名無しさん@お腹いっぱい。
06/05/03 15:49:15
能書きみてるとすごそうだが、パフォーマンスちゃんと出るんかこれ。

8:名無しさん@お腹いっぱい。
06/05/03 15:56:39
FreeBSDとかLinuxとかにも移植されて、標準のファイルシステムになったらうれしいな。

9:名無しさん@お腹いっぱい。
06/05/03 16:00:22
xfsみたいに異様にフォーマットに時間かかりそう…

10:名無しさん@お腹いっぱい。
06/05/03 16:06:40
ZFS + zsh + カワサキ Z1 + ゼットン。これ最強。ロート Zi: は未使用にて不明。

11:名無しさん@お腹いっぱい。
06/05/03 16:08:29
>>9
>>4 の通り、フォーマットという手順はないんじゃなかった?

12:名無しさん@お腹いっぱい。
06/05/03 16:28:33
遅そうだけど、どうだろね。書き込みに対して毎回チェックサム計算するみたいだし。
遅ければ適材適所で。
速度、安定性ともども文句なければ迷わず載り換えだろうな。

13:名無しさん@お腹いっぱい。
06/05/03 16:35:40
>>7,12 >>2 の記事引用。

> おおむね UFS より速いっぽいし、特定のデータアクセスパターンでは
> 4~6倍速いらしいです。逆に特定のデータアクセスパターンではUFSに比べて
> 数倍遅いですが、改善する余地があるとのこと。

あと、>>2 の記事の

> I/Oパイプラインによる並列処理

あたり読むと、特に SMP では速そうな感じ。今後の多コアなサーバー用途には
向いてそう。

14:名無しさん@お腹いっぱい。
06/05/03 16:39:55
>>13
いやつまりそれって「速い場合もあるし遅い場合もある」としか言ってないので
結局わかんねーじゃん。

15:名無しさん@お腹いっぱい。
06/05/03 16:47:48
『おおむね UFS より速いっぽい』w

16:名無しさん@お腹いっぱい。
06/05/03 17:01:36
UFSでさえモノにできてないMacが、ZFSを使いこなせるとは思えないけどな…

っつーか自分とこで開発しないで、目新しいそうな技術に注目して
「さすがはApple、目のつけ所がいいぜ」とか思わせようとする
乞食宣伝テクには、いつものことながら飽きれてしまう

17:名無しさん@お腹いっぱい。
06/05/03 17:16:02
つか、UFSより現状のHFS+の方が高性能だと思いますが…

18:名無しさん@お腹いっぱい。
06/05/03 17:23:37
>>16
私気がついただけで 2 ヵ所破綻してますが。
UFS 使いこなせてないなら、ZFS ポンと持ってきた方が楽やん。
よそから持ってくるより、自分とこで開発した方が「さすが Apple」に決まってるやん。
てことで、あんさんアホだっか? なんくせつけんなやボケ。

19:名無しさん@お腹いっぱい。
06/05/03 17:54:14
>>16
UFSよりZFSの方がリソースフォークの扱いとかでMacで使うのに楽だと聞いたよ。

20:名無しさん@お腹いっぱい。
06/05/03 18:58:09
いつのまにかベースがMach+FreeBSDじゃなくてOpenSolarisになってたら笑う。

21:名無しさん@お腹いっぱい。
06/05/03 19:05:57
>>20
でも将来的にそういうのも考えてmicrokernelにしてんじゃないの?
solarisは無いと思うけど、freebsdやめるってのはありえない話ではないと思う。

22:名無しさん@お腹いっぱい。
06/05/03 19:09:30
単純にBSDライセンスにあやかりたいからだろ?乞食なんだよ

23:名無しさん@お腹いっぱい。
06/05/03 20:27:50
DragonFlyはZFSを移植する方向にあるようです:
URLリンク(leaf.dragonflybsd.org)


24:名無しさん@お腹いっぱい。
06/05/03 20:54:57
ZFSってオープンソースなの?BSDと同じライセンスで使えるのかな。

25:名無しさん@お腹いっぱい。
06/05/03 21:16:26
↓のリンクでZFSのソース読んでみるとCDDLらしい
URLリンク(opensolaris.org)

ちなみにこっちがCDDLの日本語参考訳
URLリンク(opensource.jp)

BSDLと違って修正したソースコードは公開しなきゃならないけど
GPLみたいな感染性がないのがAppleにとって都合がいいんだろうね

26:名無しさん@お腹いっぱい。
06/05/03 21:20:00
URLリンク(www.opensolaris.org)
URLリンク(www.opensolaris.org)
URLリンク(cvs.opensolaris.org)

27:名無しさん@お腹いっぱい。
06/05/03 23:14:56
>>14
線形データアクセスの予測先読みをする機構があるから
通常のアクセスパターンだと速くなるみたいだよ。

28:名無しさん@お腹いっぱい。
06/05/03 23:18:20
>>27
そういうのってzfs以外のファイルシステムでも実装できるんじゃないの?

29:名無しさん@お腹いっぱい。
06/05/03 23:18:45
>>25
CDDLということは、Linuxにも移植できそうね。
ライセンス問題で採用しないディストリビューションもあるかもだけど。

ただLinuxにはZFSの機能の大半がすでにあるから、
Mac OS Xに移植するほどのメリットはなさそう。

実際にZFS使ってる人ってこの板にいるかな?
Solarisスレで声掛けたら捕まるかな?

30:名無しさん@お腹いっぱい。
06/05/03 23:27:41
>>28
そりゃ実装できるかどうかで言えばFAT16にだってできるだろうけど
そんな指摘には意味なくない? ZFSではそういうある程度
インテリジェントな機構を最初からFSレベルに統合してるのが
キモなわけでしょ。ジャーナリングにしてもRAIDにしてもそうなわけで。

31:名無しさん@お腹いっぱい。
06/05/03 23:40:19
>>29
あるにはあるけどな。
ファイルシステムの方は機能的には充実しているけど、実績がいまいちだし、
LVMやmdに至っては、どっちも本家筋に当たるHP-UXやSolarisの劣化コピーだしな。
そういう意味では、ZFSみたく一貫したものが欲しいところだな。


32:名無しさん@お腹いっぱい。
06/05/03 23:42:45
URLリンク(en.wikipedia.org)

LinuxにはReiser4があるからそれでいんでないの。

33:名無しさん@お腹いっぱい。
06/05/03 23:46:59
reiser4も問題があるというのはあっちのファイルシステムスレで出てる

34:名無しさん@お腹いっぱい。
06/05/04 02:34:19
ZFSが一つ心配なことが。
大きいファイルで一部だけを書き換える場合、
ZFSは別のブロックに一部データを書き込んでから、
ファイルシステムのツリーを変更するみたいだけど、
そんなことしてたら大きいファイルの場合、
ブロックがあちこちに点在(断片化)するんじゃないだろうか。

HFS+みたいに断片化してたら、
自動的に連続ブロックに移動させる機能でもあるのかな。

35:名無しさん@お腹いっぱい。
06/05/04 03:12:55
>>34
ワラ
君は…ちょっと知識が足りないかも…


36:名無しさん@お腹いっぱい。
06/05/04 03:16:00
>>34
CoW

37:名無しさん@お腹いっぱい。
06/05/04 03:34:03
プールってLVMとどこか違うの?
LVM+JFS2の方がよくね?

38:名無しさん@お腹いっぱい。
06/05/04 03:51:18
質問です。
>トランザクション的操作
>ディスク上のデータは必ず常に整合状態。fsck(1M)不要は当たり前、でjournaling filesystemではない
これって矛盾しているような気がするんですけれど・・・
トランザクション的操作=journaling
なんじゃないんですか?


39:名無しさん@お腹いっぱい。
06/05/04 03:51:33
>>35
うーん、そうなのかなー。
詳しく教えてくださ~い。

40:名無しさん@お腹いっぱい。
06/05/04 03:58:40
トランザクション的操作というのは、
下の引用の一番頭のポインタを書き換えるまでは、
ファイルツリーに一切変更がないから、
いつでも元に戻せる(ロールバック)できるような様を表してるんじゃないかと。

他のFSのジャーナリングは、変更ログをどんどん書き足していって、
フラッシュ時にツリーに変更ログを書き込むことで、
フラッシュ前にOSが落ちたりしても復旧できる仕組みなんじゃなかったっけ?

> 整合性の保持には「何か書き込みを行う場合は必ず元データを新しい場所にコピーしてから」
> (copy-on-write)で、1つ版のあがったファイルシステムのイメージを作成し、
> 古い版を指している一番頭のポインタを新しい版を指すように変更する
> (ここがアトミック)という方法を行っているようです

41:名無しさん@お腹いっぱい。
06/05/04 08:21:23
>>38
「的」ってのがアヤシイけど、
「トランザクション処理」ってのは、
複数の処理を一つのように処理すること。trans-action=処理をまたがって
FOLDOCだと See {atomic}と注釈。

Journalingはそれを実現するための技法。
更新記録を取りながら、更新を進めていく。


42:名無しさん@お腹いっぱい。
06/05/04 14:52:30
まあ、もうすぐ製品版の Solaris にものるから、使われるようになったらすぐわかるよ。
だけどさ、特定のデバイスドライバとかと違って汎用のファイルシステムで、
しかも UFS に代えてこれから主流として使おうってもんなんだから、
一応 Fire E25K とかのハイエンドで業務利用するのも視野に入ったレベルで
実装がすすめられてるわけで、とりあえず入れてみました、この先実用まで
たどりつけるかどうかわかりません、てないい加減なもんでは少なくともないわな。
Linux のガラクタファイルシステム群といっしょくたにすんなよな。

43:名無しさん@お腹いっぱい。
06/05/04 15:19:35
NetBackupなどのバックアップソフトも対応するまでにかなり時間がかかるだろうし。
本格的に普及するのは、あとバージョン二つぐらい上がらんとだめだろうな。
それまでSunが残ってるかどうか心配だがw


44:名無しさん@お腹いっぱい。
06/05/04 15:28:25
UFS使わなくなるとufsdumpの名前なりポジションが気になるな。

もちろんzfs snapshotなりなんなりでいいんだけど


45:名無しさん@お腹いっぱい。
06/05/04 15:31:00
ufsdump は UFS 用なんだから、UFS 使わなくなったらポジションはないだろ。
UFS なくなったりはしないと思うが。

46:名無しさん@お腹いっぱい。
06/05/04 15:38:41
ufsdump どころか、mount も vfstab も不要なんだろ?

47:名無しさん@お腹いっぱい。
06/05/04 15:43:00
VxFSに対するダンプコマンドもufsdumpだよ。


48:名無しさん@お腹いっぱい。
06/05/04 15:49:16
ん? ZFS も ufsdump コマンドでバックアップしたい、という話?
それは知らんが... そんな愛着あるわけ?w

49:名無しさん@お腹いっぱい。
06/05/04 17:35:35
>>47
カプセル化した場合でしょ。
VxFSネイティブはHP-UXならvxdumpがある
Solaris用にそれがにあるか知らんけど

50:名無しさん@お腹いっぱい。
06/05/04 21:31:08
LFSでは対抗できませんかそうですか。

51:名無しさん@お腹いっぱい。
06/05/04 22:49:09
FFS, FFFS, LFS と来て ZFS ならあなたのファイルシステム人生はカンペキです。
ZFS 移行後は LFS は Sprite で使ってあげてください。

52:名無しさん@お腹いっぱい。
06/05/05 00:28:19
もう半年くらい使ってるけど
リストアらくちんでイイね。

ファイルシステムもリストア掛けたらつくってくれるし。
俺のデスクトップ程度で使ってる程度じゃトラブルないし。

53:名無しさん@お腹いっぱい。
06/05/05 00:36:26
キタキタ
URLリンク(www.itmedia.co.jp)

54:名無しさん@お腹いっぱい。
06/05/05 00:49:35
>>52
使ってる人キタ━━━(゜∀゜)━━━!!!!
よかったらベンチマークとかしてみてくれませんか?

ディレクトリやファイルを10000個とか作ったり、
100KB程度のファイル1000個に書き込んだり、読み込んだり、
1GB程度のファイルを書き込んだり、読み込んだり。

誰かベンチマーク用のいいソフト知りませんかー?
もしくはベンチマーク用のスクリプト書いて~。

55:名無しさん@お腹いっぱい。
06/05/05 01:10:05
>>53
>UNIX File Systemsの代替として最適だとしている。

・・・・ん、あ、ufsかwww

56:名無しさん@お腹いっぱい。
06/05/05 03:11:50
>>25
>>29

ライセンス的には、GPLのLinuxカーネルにCDDLのZFSを
そのまま持ってくるのは難しい。
そのため、互換コードを作成するしかないみたい。
↓この辺りを読んでみるといいかも。
URLリンク(www.opensolaris.org)
URLリンク(www.gnu.org)
URLリンク(d.hatena.ne.jp)

ベンチマーク情報はこの辺りみたい
ZFS and RAID-Z benchmark results vs. ext3 and XFS with Linux SW RAID-5
URLリンク(www.opensolaris.org)

57:名無しさん@お腹いっぱい。
06/05/05 05:13:57
LeopardではZFS 128bit FileSystem採用が最大の話題だね

ZFSは最初からデータの書き込み中にOS落ちたりすることを前提に作ってるから、
ジャーナリングとかの中途半端な仕組みは要らない。
いつHDのケーブルを引っこ抜こうとも、ファイルシステムは正常な状態ってこと

つまりfsckみたいなエラーリカバリのphaseを作らなくても
次の稼働中に前回落ちたときのトランザクション分はロールバックされるわけだ
ロールバック対象前はファイルがファイルシステムによってロックされている

DB分かる人なら、トランザクションの考え方と同じだよ

クライアントで使うメリットを考えると、
これからのSATA/eSATAとかのホットプラグに対応したHDを使うにはうってつけ
ボリュームプールでパーティションの容量を好きなように変更できるのもいい
LinuxのLVMみたいな機構をファイルシステムレベルで実装したってことだね
ファイルシステムレベルでRAID機能持ってるのもいい
チェックサムでデータが壊れないってのもいい
暗号化でノートPC盗まれても安心だ

スナップショットはクライアント環境ではいらないと思う
主にDBサーバのバックアップとかに使う技術だから

58:名無しさん@お腹いっぱい。
06/05/05 05:24:00
URLリンク(en.wikipedia.org)

59:名無しさん@お腹いっぱい。
06/05/05 07:05:09
>>57
> ジャーナリングとかの中途半端な仕組みは要らない。
&
> DB分かる人なら、トランザクションの考え方と同じだよ



60:名無しさん@お腹いっぱい。
06/05/05 07:11:57
>>57
OpenBSDにはうってつけだな。

61:名無しさん@お腹いっぱい。
06/05/05 07:55:31
>>LeopardではZFS 128bit FileSystem採用が最大の話題だね

Leopardで採用するなんて誰か言ったか…?

62:名無しさん@お腹いっぱい。
06/05/05 09:17:51
>>57
コピペうぜえ

63:名無しさん@お腹いっぱい。
06/05/05 09:39:39
% time mkfile 10g tmp
0.03u 25.07s 7:09.92 5.8%

まぁそもそもうちはDISKがはやく無いからなぁ・・・
[ID 640982 kern.info] IDE device at targ 1, lun 0 lastlun 0x0
[ID 846691 kern.info] model ST380011A
[ID 479077 kern.info] ATA/ATAPI-6 supported, majver 0x7e minver 0x1b
[ID 228648 kern.info] ata_set_feature: (0x66,0x0) failed


64:名無しさん@お腹いっぱい。
06/05/05 10:17:38
スレリンク(win板:837番)
スレリンク(win板:611番)
スレリンク(unix板:57番)
スレリンク(pc板:349番)
スレリンク(pc板:522番)
スレリンク(win板:870番)

65:名無しさん@お腹いっぱい。
06/05/05 10:30:41
>>58
なんで、ZFS(16EiB)がUFS2(1YiB)に、
ボリュームサイズが負けてるのかと思ったら、
ZFS can store 16 Exabytes in each storage pool, file system, file, or file attribute.
これなのね。

66:名無しさん@お腹いっぱい。
06/05/05 11:33:11
もうLinux駄目駄目だな

67:名無しさん@お腹いっぱい。
06/05/05 12:05:04
LinuxよりMacOS Xの方がTCO安いからね

68:名無しさん@お腹いっぱい。
06/05/05 12:14:21
MacOS Xはハードが縛られるから、それさえなければいいと思う。
俺は、Solarisでいいや。

69:名無しさん@お腹いっぱい。
06/05/05 12:14:53
>>57
私の発言を集めて編集してあちこちに貼り付けるとは…。
ちょっと複雑な気分。

> DB分かる人なら、トランザクションの考え方と同じだよ

ここは誤解を招きやすいから元スレでもツッコミが入った。

> スナップショットはクライアント環境ではいらないと思う

ここは元スレで、クライアント環境でもウイルスとかに感染した場合に有効だって話が出た。

70:名無しさん@お腹いっぱい。
06/05/05 12:18:06
>>57
> LeopardではZFS 128bit FileSystem採用が最大の話題だね

Mac OS X 10.5(Leopard) には間に合わないと思う。
10.5って今年末~来年頭ぐらいのリリース予定だったはず。

71:名無しさん@お腹いっぱい。
06/05/05 12:34:50
そもそもUFSじゃまともに動くかんアプリ多いし。
Microsoft Office for Macもその一つ。

72:MACオタ>71 さん
06/05/05 14:09:19
>>71
  --------------------
  そもそもUFSじゃまともに動くかんアプリ多いし。
  --------------------
その理由の大半わ、「"case sensitive"じゃないことを前提にしている」ってだけでFSの仕様と関係無いす。

73:名無しさん@お腹いっぱい。
06/05/05 14:45:58
>>72
違うよ。
コテで無知晒すのって恥ずかしくない?

74:名無しさん@お腹いっぱい。
06/05/05 15:01:07
あちこちで恥さらしまくってるからいまさらって感じでしょ。> MACオタ
ここ数日だけでも、Intel次世代スレとかAMD次世代スレとか
CPUアーキスレとかで、あからさまな間違いを指摘されまくってるし。


75:名無しさん@お腹いっぱい。
06/05/05 15:04:59
そっか。
MacもSolarisと同じくエンディアンの問題があるんだな。
MacのHFS+やUFSがCPUのエンディアンによってフォーマットが変わるのかどうか知らんが。


76:MACオタ
06/05/05 15:21:38
>>73 さん
そうすか?多くのクロスプラットフォームアプリわ、もはやリソースフォークを持たないし特に問題が
おきる理由も無い筈すけど。。。

>>74 さん
あちこちで印象操作ご苦労様す。決して具体例わ指摘できないようすけど(笑)

>>75 さん
UFSわエンディアンでフォーマットに互換性が無くなるとのことす。
URLリンク(docs.sun.com)
  -------------------------
  PARC と x86 とでは UFS フォーマットが異なります。SPARC はリトルエンディアンによるビット
  コーディング、x86 はビッグエンディアンによるビットコーディングを採用しています。UFS 用に
  フォーマットされたメディアは、それらがフォーマットされたハードウェアプラットフォームに制限されます。
  -------------------------


77:名無しさん@お腹いっぱい。
06/05/05 15:39:14
変なのが湧いてきたな…

78:名無しさん@お腹いっぱい。
06/05/05 15:44:22
SolarisのUFSに互換性が無いのはしっとるがな。
MacのUFSの話だがな。


79:名無しさん@お腹いっぱい。
06/05/05 15:57:10
MACオタの間違いの具体例?
・CPUアーキスレ
 英文Webページの内容を誤読。ページに書いてあることを書いてないと勘違いして
 AMDを中傷。
  スレリンク(jisaku板:593-595番)
・AMD次世代スレ
 PC Watch の後藤氏の記事を誤読。
 記事に書いてないことを、書いてあると思い込み、後藤氏を馬鹿呼ばわり。
  スレリンク(jisaku板:118-130番)
・Intel次世代スレ
 数日の間に、山のような間違いを書いたので、いちいち指摘しきれんが、
 いくつかを挙げると、
 ・MPPマシンはメモリ共有アーキテクチャだと主張。
    スレリンク(jisaku板:664番)
    スレリンク(jisaku板:670番)
 ・MPP⊃HPCクラスタ という記述を MPP=クラスタ だと誤読。
    スレリンク(jisaku板:774番)
 ・調査会社のガートナーの名称をカートナーと勘違い。
    スレリンク(jisaku板:774番)
 ・SR8000を大規模SMPだと主張。
    スレリンク(jisaku板:787番)
・SMPクラスタと大規模SMPの区別をつけられないことを露呈。
    スレリンク(jisaku板:787番)

具体例を指摘できないと思ってるってことは、MACオタは、上のような
自分の間違いを、いまだに間違いじゃないと信じてるってことなのかな?

80:名無しさん@お腹いっぱい。
06/05/05 16:06:41
4.2BSD のもともとの ufs のコードは、エンディアン依存性のあるもの
だったが、そこから派生した各ベンダの実装が、エンディアン依存か
独立かは、それとは別の話だな。

NetBSDは options FFS_EI をつければ、どちらのエンディアンで書いた
ffs も読み書きできるし、MacOS X は、NetBSD から派生したコードも
含んでいるから、big endian で書かれたファイルシステムを、
little endianの Core Duo マシンで読み書きできても不思議はない。

MacOS X の話をしてるのに Sun のドキュメントを引用するのは的はずれ。
実際にどうなのかは知らんが。

81:73
06/05/05 16:07:20
DarwinのufsのばいとおーだーはFreeBSDと同じ。
xnu/bsd/ufs/ufs/ufs_byte_order.cが変換。
mount時のoptionで指定可能。MNT_REVEND。

続きはmac板のUNIXスレで。>>76の馬鹿も知りたければ来な。


82:MACオタ>79 さん
06/05/05 16:08:13
>>79
面倒なのでまとめると
・英文Webページの内容を誤読。 <- 私の書き込みに英文記事への引用わ無いす
・後藤氏の記事を誤読 <- 誤読かどうかわ当該スレッドを読んで貰うとして、元記事がそういう性質のモノ
・MPP云々<- 分類についてわTop500.orgサイトの記事を読んでDr. Dongarraに文句を言って欲しいす(笑)

83:MACオタ>73 さん
06/05/05 16:09:52
>>81
それってUFSでMS Officeが不具合を発生する原因なんすか(笑)

84:名無しさん@お腹いっぱい。
06/05/05 16:10:44
>>56
そこのベンチマーク、Createの結果はあっても他がないねー。
bonnie++がZFSでのReadとDeleteに対応してないとか?

NFS経由の結果はあるから、それを見る限りファイル操作は
ext3の半分ぐらいのパフォーマンスかな。
ただReadはむしろ早いから、ほとんどの用途では全体的に早くなりそう。
用途として向かないのはメールサーバぐらいかな?

あとZFS使ってる人いたら、暗号化した状態とかで、
ベンチマークしてみてもらえませんか?
URLリンク(www.coker.com.au)

85:名無しさん@お腹いっぱい。
06/05/05 16:14:13
Dr. Dongarra が、SR8000 を大規模SMPだなんて書いたことは一度も
ない筈だが、何言ってんだ、このバカは?

86:名無しさん@お腹いっぱい。
06/05/05 16:21:07
○関連スレ
/**ファイルシステム総合スレ その4**/
スレリンク(linux板)


○関連リンク
ファイルシステム比較
URLリンク(en.wikipedia.org)

ベンチマーク
URLリンク(www.opensolaris.org)

分かりやすいZFSの解説
URLリンク(kikyou.info)

87:名無しさん@お腹いっぱい。
06/05/05 16:33:04
マカは何処でもうざいな

88:MACオタ>85 さん
06/05/05 16:55:36
>>85
  --------------------
  SR8000 を大規模SMPだなんて書いたことは一度もない
  --------------------
SR8000わ90年代後半に開発され、日立のニュースリリースによると98年12月に初号機納入という代物す。
URLリンク(www.hitachi.co.jp)
同時期に開発されているPOWER3のSMP機ってのわ、16-wayでこんな筐体す。
URLリンク(www.univ-lille1.fr)

SR8000の9-way SMPが「大規模」じゃ無いってのわ、当時の常識から見てちと違うんじゃないすか?

89:MACオタ@補足
06/05/05 16:58:46
>>88
それから、
  ------------------------
  Dr. Dongarra が、SR8000 を大規模SMPだなんて書いたことは一度も
  ない筈だが、
  ------------------------
少なくとも、Top500の解説にあるように"Shared Memory MIMD"をMPPに分類するというのわ認めたと
思っておくす。
   ・MPPマシンはメモリ共有アーキテクチャだと主張。
で、これ間違いなんすか(笑)

90:名無しさん@お腹いっぱい。
06/05/05 17:01:20
GWだなぁ…

91:名無しさん@お腹いっぱい。
06/05/05 17:02:04
スレ違いだからほどほどに>MACオタ

HFS+でbonnie++のベンチマークしてみたけど、遅い遅いw
RAIDも使ってないし、G5 1.6GHzだし、しょうがないかな。

PowerMac G5 1.6GHz, Memory 1GB, HDD WD3200JD, Mac OS X 10.4.6, HFS+
Version 1.03, Size 300M, files 16
------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
26612 91 56964 33 54835 25 35490 92 477783 86 +++++ +++
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
/sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
3650 66 9645 90 3885 67 423 12 25087 80 191 7

92:名無しさん@お腹いっぱい。
06/05/05 17:03:10

  ┏┳┳┓     ハイ.     ┏┳┳┓
┏┫┃┃┃池沼と遊ぶのは ┃┃┃┣┓
┃┃┃┃┣┓  ここまで ┏┫┃┃┃┃
┃      ┃┃┏━━┓┃┃      ┃
┃ 池沼   ┣┫ . ・∀・ ┣┫. STOP!┃
┗━━┛┗┳━┳┛┗━━┛
            ┏┻┓┃
        ┏━┛  ┣┻┓
        ┗━━┫  ┗━┓
.             ┗━━┛


93:名無しさん@お腹いっぱい。
06/05/05 17:17:20
>>92
スマン、もうちょい遊ばして。(w

> 少なくとも、Top500の解説にあるように"Shared Memory MIMD"をMPPに分類するというのわ認めたと思っておくす。

馬鹿だねえ。まだ、それが誤読だと気づいてないのか?
Top500 の解説には、「MIMD マシンの一種として shared memory MIMDがある」
とは書いてあるが、「MPP は shared memory MIMD である」とは一言も書いてない。

MACオタは、そう書いてあると誤読して、Top500 の記述を引用したが、
じつはその引用部分には「MPP は shared memory システムではない」という
意味のことが書いてある。(w
そのことは Intel スレでさんざん陰に指摘されているのに、相変わらず
理解できてないようだな。(w

> ・MPPマシンはメモリ共有アーキテクチャだと主張。
> で、これ間違いなんすか(笑) もちろん間違い。
まだ気づいてなかったのは、はっきり言って、ちょっと驚いたよ。

> SR8000の9-way SMPが「大規模」じゃ無いってのわ、当時の常識から見てちと
> 違うんじゃないすか?

ハァ?
その何年も前に、10倍以上の規模を持つOrigin 2000 があったわ。
1997年ぐらいには、Sun あたりでも、64プロセッサの Enterprise 1000 を
出してる。
書けば書くほど、馬鹿がバレるんだから、いいかげんに黙れば?


94:名無しさん@お腹いっぱい。
06/05/05 17:29:01
>>91
メモリ1GBのマシンで Size 300M ではベンチマークにならんのでは?
最低でもメモリの倍くらい、できれば10倍くらいのサイズにしないと。

95:MACオタ>93 さん
06/05/05 17:51:16
>>93
  ----------------------
  じつはその引用部分には「MPP は shared memory システムではない」という
  意味のことが書いてある。(w
  ----------------------
間違いす。以上(笑) URLリンク(www.top500.org)

96:名無しさん@お腹いっぱい。
06/05/05 17:56:03
陰どころか陽に指摘されても、相変わらず自分の勘違いが認識できないのね。
というわけで、池沼とのお遊びは、これで終りにします。

97:MACオタ
06/05/05 18:09:57
>>96の粘着さんわ退場してくれたみたいすけど、そんなに自信があるなら該当個所を対訳でもすれば
良いかと思うす。私がやっても良いすけど、ここでやっちゃ迷惑そうなんで止めておくす。。。

98:名無しさん@お腹いっぱい。
06/05/05 18:17:34
読んでみたが、そのページの分類だと、ccNUMA も MPP の一種だと
いう風にもとれるね。MACオタの勘違いはそこから発してるのか?

しかし、ccNUMA は MPP に含まないと考えるのが普通だと思うよ。
たとえば、以下の SGI のページでも、ccNUMA は MPP-like な
スケーラビリティを達成できるのが利点である (すなわち ccNUMA
は MPP ではない) と書いてある。
URLリンク(techpubs.sgi.com)
2005年10月28日発行だから、十分新しい文書だが。

Top500 のそのページの記述は変だな。

99:名無しさん@お腹いっぱい。
06/05/05 18:20:14
> MACオタの勘違いはそこから発してるのか?

だからと言って、カートナーとかいう調査会社があると想像する
理由にはならんだろう。(w

100:名無しさん@お腹いっぱい。
06/05/05 18:26:02
>>94
上のベンチマークのページと引数合わせてみた。
大して結果は変わらないねー。

PowerMac G5 1.6GHz, Memory 1GB, HDD WD3200JD, Mac OS X 10.4.6, HFS+
bonnie++ -r 1024 -s 8g
Version 1.03, Size 8G, files 16
------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
26800 92 53541 32 24789 12 27211 73 51446 15 118.0 1
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
/sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
4132 77 8548 91 3723 67 429 13 26851 87 194 7

Xserve G5 x 2 Fedora 5でも今試してるけど、
なぜか10倍ぐらい時間掛かってる。
結果が出たら報告する。

101:名無しさん@お腹いっぱい。
06/05/05 18:38:28
bonnie++の結果を検索してみたけど、
どれもディスク速度が遅くて比較にならない。

URLリンク(yamk.net)
URLリンク(t.nomoto.org)
URLリンク(lists.debian.org)
URLリンク(www.ait.pref.akita.jp)

一つ言えるのはHFS+とかXFSとかののBツリー型はDeleteが遅いってことかな。

102:名無しさん@お腹いっぱい。
06/05/05 19:31:42
Xserve G5 x 2, Memory 2GB, HDD 不明250GB, Fedora Core 5, ext3
bonnie++ -r 1024 -s 8g
Version 1.03, Size 8G, files 16
------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
5051 99 42674 27 22711 9 5508 99 56594 8 135.5 1
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
/sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
15274 99 +++++ +++ 23921 99 14764 94 +++++ +++ 23868 99

ZFSの人、報告頼む。

103:63
06/05/05 19:39:33
Nevada snv_38 X86,64bit,AMD Athlon(tm) 64 Processor 3200+,ST380011A
Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
machine 2G 21737 25 25737 7 17059 3 47881 57 49757 3 216.4 0
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 19664 68 +++++ +++ +++++ +++ 28324 97 +++++ +++ +++++ +++
machine,2G,21737,25,25737,7,17059,3,47881,57,49757,3,216.4,0,16,19664,68,+++++,+++,+++++,+++,28324,97,+++++,+++,+++++,+++


こんなんでいいのかな。

104:63
06/05/05 19:44:20
10Gで再度。

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
machine 10G 20091 23 25023 6 16578 3 40543 49 45665 3 200.3 0
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 27625 92 +++++ +++ +++++ +++ 15546 57 +++++ +++ 23038 54
machine,10G,20091,23,25023,6,16578,3,40543,49,45665,3,200.3,0,16,27625,92,+++++,+++,+++++,+++,15546,57,+++++,+++,23038,54


105:名無しさん@お腹いっぱい。
06/05/05 19:53:41
> 大して結果は変わらないねー。

sequential output の rewrite (54.8MB/s vs 24.8MB/s)
sequential input の block (478MB/s vs 51.4MB/s)
random seek (86/sec vs 15/sec)
あたりはかなり違いが出てると思うよ。
478MB/s って値は、メモリキャッシュのせいだね。

106:名無しさん@お腹いっぱい。
06/05/05 20:14:03
やってみますた。
nv_b37, Blade 1000 750MHz, LSI logic SAS1068, T7K250 x3 台
# zpool iostat -v (default の stripe)
capacity operations bandwidth
pool used avail read write read write
---------- ----- ----- ----- ----- ----- -----
mypool 288K 696G 2 3 336K 441K
c2t0d0 220K 232G 0 1 112K 147K
c2t1d0 28K 232G 0 1 112K 147K
c2t2d0 39.5K 232G 0 1 112K 147K
---------- ----- ----- ----- ----- ----- -----

# ptime mkfile 10g testfile_10g
real 1:46.628
user 0.196
sys 41.708

bonnie++:
Version 1.03
------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
machine 8G 25108 98 63450 61 53474 62 23554 97 135876 86 840.4 8
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 6405 99 +++++ +++ 10016 99 6580 97 +++++ +++ 11205 99
machine,8G,25108,98,63450,61,53474,62,23554,97,135876,86,840.4,8,16,6405,99,+++++,+++,10016,99,6580,97,+++++,+++,11205,99



107:名無しさん@お腹いっぱい。
06/05/05 20:16:09
>>103-104
ありがとー。
Createの速度は十分速いけど、なぜかReadとDeleteの結果がないね~。
上のベンチマークのページにもないんだよねー。なんでだろ?

あと暗号化ってもう実装されてるのかなー?
Solaris 10 6/06のZFS 1.0で実装されてくるかな?

108:名無しさん@お腹いっぱい。
06/05/05 23:07:15
613 名前:login:Penguin [] :2006/05/05(金) 18:42:17 ID:ixPDtLg1
今ZFSスレでFSベンチマークやってるんだけど、GWで暇な人、一緒にやらない?
スレリンク(unix板)

bonnie++
URLリンク(www.coker.com.au)

Linux板に張り付けてくんじゃねえよ、ロリBSD野郎共

109:名無しさん@お腹いっぱい。
06/05/05 23:18:06
以外にスレが伸びてるな


と書くとスレが止まる法則

110:名無しさん@お腹いっぱい。
06/05/05 23:24:01
>>106
構成で誰だか分かってしまうw

111:名無しさん@お腹いっぱい。
06/05/05 23:34:09
>>108
残念、貼り付けた犯人はLinux&Mac使いでした。

>>109
使ってる人が増えないと、スレも伸びなさそう。
Solarisってシェア大きいのかな?

112:名無しさん@お腹いっぱい。
06/05/05 23:42:12
>>110

(*´д`*)

 ZFS on disk encryption support
 URLリンク(www.opensolaris.org)

 Source updated against onnv_39
 URLリンク(www.opensolaris.org)

--
I've put up the latest set of sources which are diffs against onnv_39.

URLリンク(opensolaris.org)

Note that these still don't do any crypto yet, I'm debugging a problem
in the ZIO pipeline with zfs_write_encrypt not getting called when I
expect it should.
--

113:名無しさん@お腹いっぱい。
06/05/06 00:00:24
>>72
有名人が間違いを広めないでください。
UFSで多くのアプリで互換性に問題が発生するのは、Cabon File Manegerに、使用できない関数が大量にあるためです。
これらのAPIは、UFSの能力不足が原因で未実装になっています。
大文字小文字問題は、修正の容易な軽微な問題です。

>>75
ファイルシステムのエンディアンの問題と言うのは、エンディアンの異なるマシンの間でドライブを繋ぎ変えた時に発生します。
特定アプリの互換性云々では無いので、心配不要です。

MACオタさんは、本職がハード屋さんなんじゃないかと想像。

114:名無しさん@お腹いっぱい。
06/05/06 00:09:34
>>113
つうことは、仮にZFSを導入したとしても、同じことが起きるんちゃうん?


115:MACオタ>113 さん
06/05/06 00:59:18
>>113
  ---------------------
  有名人が間違いを広めないでください。
  UFSで多くのアプリで互換性に問題が発生するのは、Cabon File Manegerに、使用できない関数が
  大量にあるためです。
  ---------------------
失礼したす。リソース関係だけかと思っていたすけど、File IDが使えないらしいのわMacintoshのソフトとして
わ大問題すね。

116:名無しさん@お腹いっぱい。
06/05/06 01:13:54
>>98
なにもよんでないけど
アーキテクチャの分類は
いろいろ直交したのがあるから。
SMPかつMPPなのはSUNがやっているようにweb serviceにフォーカスしてる。
ccNUMAのMPPはHPCより。



117:名無しさん@お腹いっぱい。
06/05/06 02:23:02
えー、HPCの世界では、MPPとccNUMAは完全に別物でしょう。
>>98 にある資料もそうだけど、
URLリンク(ece.uprm.edu)
とか
URLリンク(teamquest.se)
とか
URLリンク(www.gfdl.noaa.gov)
とか
URLリンク(liris.cnrs.fr)
とか、ググってでてくる資料も、MPP は shared nothing な
distributed memory system だと書いてあるものばかり。
それって、いったいどこの世界のHPC?

ビジネス寄りの web service の世界では、そもそもMPPなんて
言葉は聞いたことないなあ。実際、使われてないしね。
でっかいのは大規模SMPばかりでしょ。

> ccNUMAのMPPはHPCより。

ビジネスで使われてる大規模SMPシステムは全てccNUMAだよ。
そんなことも知らんの?

118:名無しさん@お腹いっぱい。
06/05/06 02:25:10
ここはZFSの中核スレッドだな

119:MACオタ>117 さん
06/05/06 02:39:38
>>117
だ・か・らMPPってのわ90年代のHPC業界の流行語に過ぎないす。

そして、top500の編者達わ、"the buzz-word MPP systems is fashonable here"と断じて、
(URLリンク(top500.org) 参照)より明確に
 ・Shared-memory SIMD
 ・Distributed-memory SIMD
 ・Shared-memory MIMD
 ・Distributed-memory MIMD
という分類を広めようとしてるんだと思うす。


120:名無しさん@お腹いっぱい。
06/05/06 02:50:20
> そして、top500の編者達わ、"the buzz-word MPP systems is fashonable here"と断じて、

この文章を google で検索 → 0件。
MACオタの脳内妄想ですな。

> (URLリンク(top500.org) 参照)より明確に

それって、URLに1996年って入ってることから見ても分かるように、
90年代のHPC業界の資料なんだけど。(w

ちなみに、もちろん2000年代になってもMPPという言葉は使われてます。
たとえば、これは小柳先生が半年前に書いた資料。
URLリンク(olab.is.s.u-tokyo.ac.jp)
HPC 業界にいる人間なら全員読んでるよ。
MACオタは読んだことなかっただろうけどさ。

121:名無しさん@お腹いっぱい。
06/05/06 02:53:25
てゆうか、>>98 にある SGI の資料 (2005年10月28日発行) でも
MPP って使ってるじゃん。MACオタって、6時間前のレスも忘れち
まうのか?

122:名無しさん@お腹いっぱい。
06/05/06 02:55:52
> この文章を google で検索 → 0件。
> MACオタの脳内妄想ですな。

おっと、
URLリンク(www.ime.st)
自体に書かれていたのか。
文章が MACオタの脳内妄想だというのは撤回する。
失礼した。

123:名無しさん@お腹いっぱい。
06/05/06 03:02:53
それはそれとして、

> そして、top500の編者達わ…という分類を広めようとしてるんだと思うす。

この想像自体は、やっぱりMACオタの脳内妄想ですな。
だって、top500 自体、いまだに
URLリンク(www.top500.org)
といったページで、Computer Architecture の項目の分類として
MPP って言葉を使ってるしね。

>>119がMACオタの妄想じゃないとすると、ここは
当然
・Shared-memory SIMD
・Distributed-memory SIMD
・Shared-memory MIMD
・Distributed-memory MIMD
でないといけない筈だよな。(w

124:名無しさん@お腹いっぱい。
06/05/06 03:43:58
たまにはZFSの話もしようぜ。

125:117
06/05/06 04:00:14
すまん。ちょっと訂正だけさせて。

> ビジネスで使われてる大規模SMPシステムは全てccNUMAだよ。

IBM pSeries 690 とか Sun Fire 15K とか SGI Altix は ccNUMA だけど、
富士通の PRIMEPOWER はクロスバーを使ってて UMA らしい。
HP Superdome もそうみたい。
というわけで「全て」というのは間違いだった。スマン。

126:117
06/05/06 04:17:31
と思ったら、HP SuperDome はセル内はクロスバーを通らなくて
速く、結局 ccNUMA だった。というわけで、大規模 SMP の中で
例外はPRIMEPOWER だけかも。

127:名無しさん@お腹いっぱい。
06/05/06 05:18:53
いいかげんスレ違いだから他でやってくれまいかね。

128:誘導
06/05/06 06:21:12
ということで、この続きはこちらでやりましょう。
スレリンク(unix板)

129:名無しさん@お腹いっぱい。
06/05/06 09:07:37
自レスに誘導とは…。
どこのスレの誤爆だろう。

130:名無しさん@お腹いっぱい。
06/05/06 10:41:52
ネタだろ?
すべったけど。

131:名無しさん@お腹いっぱい。
06/05/06 10:59:02
>>114
Appleの中の人の優先度の高い検討事項でしょうね。

132:MACオタ>131 さん
06/05/06 13:43:10
>>131
むしろHFS+同様の豊富なmegadataサポートという仕様に目をつけてZFS採用を検討しているように見えるすけど。。。

133:名無しさん@お腹いっぱい。
06/05/06 14:29:54
聞いた話だと、HFS+って9からXに移行したときにジャーナル機能をつけたってことらしいんだけど
ZFSを検討してるって事は、Apple的にはファイルシステムとして自信がないってことなのかな?
ext3がext2にジャーナルつけてもヘタレなままなのと同しで、HFS+も弱いんでしょうか?

基本的にAppleがZFSをメインに据えて、HFS+を廃止ない限りZFSにはならないと思う
両立路線で行くと、みんなHFS+しか使わないから、ZFS上でMac OS Xで使う上で問題が出る気がする
UFSのときと同じで一過性のもので終わるんじゃないですかね?

ZFS使ってXの機能をブラッシュアップする斬新な計画があるならいいけど
そうでなければ、話題性に利用して終わると思うな。Appleっていつでもそうだし

134:名無しさん@お腹いっぱい。
06/05/06 14:33:40
>>129-130
残念、貼り付けた犯人はLinux&Mac使いでした。

135:名無しさん@お腹いっぱい。
06/05/06 15:16:20
>>133
プリインストールとデフォルト導入時のファイルシステムを ZFS にするだけの
ことだと思うけど。UFS はそうしてもらえなかっただけでしょ。

136:名無しさん@お腹いっぱい。
06/05/06 15:18:04
>>132
だよね。どっかの記事にそう書いてあったと思うけど。
MacOS でのセマンティクス実現するのが楽だとかなんとか。
metadata ねw。

137:誘導
06/05/06 15:19:07
ということで、この続きはこちらでやりましょう。
スレリンク(unix板)

138:名無しさん@お腹いっぱい。
06/05/06 15:21:22
>>135
ZFSはデフォルトになるの?

139:名無しさん@お腹いっぱい。
06/05/06 15:43:00
痴漢冤罪詐欺師ベッキー(22)刑事告訴へ動き

痴漢は犯罪です。しかし、痴漢冤罪はそれ以上の犯罪です。
痴漢冤罪被害者は現在事実上社会復帰が不可能です。
痴漢冤罪加害者は人殺しと同罪です。
産廃未満は家事手伝いというニート職に甘んじていて下さい。

ν速+ スレリンク(newsplus板)
ソース URLリンク(www.naispo.net)

140:名無しさん@お腹いっぱい。
06/05/06 16:37:08
>>138
カーネルを Solaris に置き換えてしまうための地ならしかも知れんぞ。
今、サーバー機どうするか悩んでるはずだし。Mach がんばって改良するより
Solaris ぽんと持ってきた方が早あがりだし安い。

141:名無しさん@お腹いっぱい。
06/05/06 17:30:15
Solarisのカーネル見てみんな自分のやってることが馬鹿らしくなったんだな
サーバーOSはもうSolarisしかありえん。その他のデスクトップや組み込みなら
いろいろ努力する甲斐もあるだろうけどさ。

142:名無しさん@お腹いっぱい。
06/05/06 18:35:41
>>140-141
Solarisのkernelってそんなにいいの?
LinuxやFreeBSDのkernelなら雑誌とかで読んで、少しは知ってるけど。

先生、Solarisのkernelについて教えてください。

143:名無しさん@お腹いっぱい。
06/05/06 19:05:26
>>142
URLリンク(cvs.opensolaris.org)
275 行目からゴー。

144:名無しさん@お腹いっぱい。
06/05/06 19:07:40
>>141
もうちょっとウガッた見方すると、PowerPC でソデにされた IBM によっぽど
腹立てて、AIX への当てつけとかww

145:名無しさん@お腹いっぱい。
06/05/06 19:14:22
なぜファイルシステムのスレはどれもこれも知能が低いのだろう

146:名無しさん@お腹いっぱい。
06/05/06 19:19:03
>>145
へえ

147:MACオタ>141 さん
06/05/06 19:19:49
>>144
どっちかというとAppleに逃げられたために、貧乏オープンソースプログラマをこき使って、POWERへ
良質のオープンソースソフトを移植させて大儲け。。。って目論見が潰えてショックを受けてるのわ
IBMかと思うす。

148:名無しさん@お腹いっぱい。
06/05/06 20:00:19
MACオタが香ばしすぎる件

149:名無しさん@お腹いっぱい。
06/05/06 20:22:54
Mandatory Access Controlオタ
Solaris使いか

150:名無しさん@お腹いっぱい。
06/05/06 20:36:07
Solaris使いを馬鹿にするのかっ!

151:名無しさん@お腹いっぱい。
06/05/06 21:28:58
>>143
先生それは私には厳しすぎます。
もっと手取り足取り教えてください。

152:名無しさん@お腹いっぱい。
06/05/06 21:52:44
>> 貧乏オープンソースプログラマ
IBM自身やSGI, Intel, HP, Redhat, SuSEなどにいる連中は結構な高級取りだと
思うぞ。OSDLなんてのもあるか。

153:名無しさん@お腹いっぱい。
06/05/06 21:54:26
高給だったな。すまん。

154:名無しさん@お腹いっぱい。
06/05/06 21:55:37
SUNやIBMからみれば自分のサイトで公開したり
sourceforgeを間借りしてるなんて片隅の連中ですよ

でもやっぱり気持ちは同じだと思ってるワケです
いい仕事をサプライ(供給)できる側でありたい
ただ ただそれだけですヨ――

ギセイはあってあたり前 それをギセイと思わない心なんですヨ
世界中ドコに出しても恥ずかしくナイと思ってるんです

オープンソースという、一歩間違えると左寄りに誉め殺されかねない世界で
いいモノを供給できるサプライヤーでいたいんですヨ

ハッカーと呼ばれる人種はきっと皆同じですよ
ただ ただいいモノを与えたいだけなんです――

155:MACオタ>152 さん
06/05/06 22:19:53
>>152
ちと誤解があるみたいすけど、底辺のオープンソースプログラマがmac miniやiMac G5を買うことわ有るとしても
わざわざこれ買って開発に勤しんでくれるということわ、在り得ないかと思うす。
URLリンク(www-06.ibm.com)
これでもAppleに逃げられた後に慌ててリリースした最廉価版モデルという。。。

結局、お高くとまった高給取りのIBMの連中に、Jobsの語る「エコシステム」の意味わ理解されなかったという
ことかと。もはやIBMに残された市井のプログラマ向けの製品わLinux搭載のPS3のみってことになるすけど、
どうなることやら(笑)

156:名無しさん@お腹いっぱい。
06/05/06 22:28:51
にげたとかどうでもいい。
ここはZFSのスレだっつーに。



157:名無しさん@お腹いっぱい。
06/05/06 22:30:58
そもそもIBMってPowerなんかどうでもよくてEMT64で稼ぐ気満々じゃないの?

158:名無しさん@お腹いっぱい。
06/05/06 22:41:02
>>155
高い!Macがかなり安く感じられるす。
というかPPC970ってもう終了?

159:名無しさん@お腹いっぱい。
06/05/06 22:48:56
POWER5のシステムお客に納品いっぱいやってるけど・・・。
POWER5がいいのかAIXがいいのかっていうのはあるけど
安定してるし安物のPCサーバよりよっぽどいい。

俺はSolarisで納品しているときの方が楽しいが。


160:MACオタ>158 さん
06/05/06 23:01:52
>>158
バスライセンスをチップセットベンダに公開したりして、ハイエンドの組込用に売り込んでるす。
こういう採用実績もあるし。URLリンク(www.top500.org)
自社用でもブレードサーバーのプロセッサとしてロードマップに載せているす。

将来的にわPOWER6コア版の開発も予定していた筈なんすけど、Appleに逃げられて大口の開発
スポンサーを失ったんで、どうなるすかね。。。

161:名無しさん@お腹いっぱい。
06/05/06 23:09:41
すごい自作自演が見れた。

162:名無しさん@お腹いっぱい。
06/05/06 23:13:37
>>140-141
他スレ見てきたけど、Solarisってもう終焉?
売りにできるのはひょっとしてZFSぐらいなんじゃー…。
  |
  J

163:名無しさん@お腹いっぱい。
06/05/06 23:13:47
MACヲタ。
それじゃないが、俺んとこ、このまえ検証用に買ったぞ。開発だけが使うとでも思ってるのか…

164:名無しさん@お腹いっぱい。
06/05/06 23:20:54
>>163
そもそも、AIXがどういったことに使われてるのかすら、
MACオタは知らないのでは、、、。しかし、喋りは兎も角こんな痛々しい人だったっけ。

165:名無しさん@お腹いっぱい。
06/05/06 23:27:16
>どっちかというとAppleに逃げられたために、貧乏オープンソースプログラマをこき使って、POWERへ
>良質のオープンソースソフトを移植させて大儲け。。。って目論見が潰えてショックを受けてるのわ
>IBMかと思うす。
>ちと誤解があるみたいすけど、底辺のオープンソースプログラマがmac miniやiMac G5を買うことわ有るとしても
>わざわざこれ買って開発に勤しんでくれるということわ、在り得ないかと思うす。
アホじゃないのか?
AIXにゃオープンソースのアプリケーションなんて必要ないんだよ。
DB2とWebsphereとcatiaとチボリとsmitマンが走れば良いんだよ。

166:MACオタ>164-165 さん
06/05/06 23:34:41
>>164-165
Linux for zSeriesなんてご時世にPOWERと言えばAIXしか出て来ないすか。。。
URLリンク(www-06.ibm.com)
とりあえず、この辺読んでおかないと仮想化サーバーの時代を生き抜いていけないような
気がするすけど。
URLリンク(www-06.ibm.com)

167:名無しさん@お腹いっぱい。
06/05/06 23:46:02
>>155に対する反応への返答が>>166ってのは
いくらなんでも無いだろw

168:名無しさん@お腹いっぱい。
06/05/06 23:47:14
おまえOpenPOWERが売れなくて、ラインナップが消えていくの知らないのか?
すなわちPOWER=AIXってことなんだよ。


169:164
06/05/06 23:51:10
>>166
では言い換えて、
IBMが何処で使われているか知らないでしょ?
これで文句ないですか。MACオタさん?

170:名無しさん@お腹いっぱい。
06/05/06 23:54:53
zシリーズはPOWERじゃないしなw


171:名無しさん@お腹いっぱい。
06/05/07 00:00:49
そもそもなんであんな糞高いpseriesを買って、わざわざlinux動かさなきゃならんのだ?
gccじゃPOWERの性能引き出せないしな。x86で充分だっての。
コレくらいのお品になるとcatiaが動かしたいから、DB2が使いたいからという理由で買うんだっての。
目的がはっきりしてるの。

172:名無しさん@お腹いっぱい。
06/05/07 00:04:29
あのーzfsの話していいですか…?

173:名無しさん@お腹いっぱい。
06/05/07 00:08:29
キリも良いし、本題に戻りませう。

174:MACオタ
06/05/07 00:10:32
>>168 さん
プロセッサファミリとしてPOWER=PowerPCであることが判っているなら「POWER=AIXでない」
ということも理解いただけるかと思うす。
URLリンク(www-128.ibm.com)

>>169 さん
IBMのような巨大企業に対して、その質問が意味があるかどうかを考えて欲しいす。

>>171 さん
  --------------------------
  糞高いpseriesを買って、わざわざlinux動かさなきゃならんのだ?
  --------------------------
サーバー仮想化の使い道を考えれば判るかと思うすけど。


175:名無しさん@お腹いっぱい。
06/05/07 00:12:17
>>165
smitマンバロスwwwwwwwwwwwwwwwwwwwwwww

176:名無しさん@お腹いっぱい。
06/05/07 00:12:33
Solaris 10 6/06ってデリバリはいつくらい?
/もzfsっていうのは間に合わないかな。



177:名無しさん@お腹いっぱい。
06/05/07 00:16:50
IBMの営業にきいてみな。
OpenPowerっておすすめ?ってさ。
うちの担当の金融の営業は「自身が無いから現状AIXを選んでください」って
いってたぞ。


178:名無しさん@お腹いっぱい。
06/05/07 00:21:09
MACオタはアップルストアでぶるぶる震えながらmac miniを撫でまわすのが
関の山なんだから、エンタープライズの話なんか振っちゃダメ!


179:名無しさん@お腹いっぱい。
06/05/07 00:23:48
PowerPCじゃなくてPOWERの話をしているんでしょ?
そして現状POWERじゃAIXかi5/OSかlinuxのしか動かないでしょ?
で、IBMさんはlinux一押しだけれどさ、POWERでlinuxしか動かない
OpenPOWERは出してみたけれど不人気で退場なわけ。
AIXが動かない分安くなっているんだよ?なんで売れないの?
だから、POWERじゃlinuxやオープンソフトのアプリなんて必要ないわけ。(MACオタのネタフリの結論)
そもそもLinuxインスコしたPseriesで問題が出ると、赤帽かSUSEの技術者がやってくるんだぜ。
IBMは本腰じゃないのさ。
サーバ仮想化?
論理分割したPseriesがどれだけパフォーマンス出るか知ってる?
ありゃ、でかいSMPマシンとして使う物だ。
お前が出てくると話が飛ぶからMac板にこもってろ、な?

180:名無しさん@お腹いっぱい。
06/05/07 00:28:35
>>176
そりゃああた、06 年 6 月でしょ? あれ? 06 年の 6 番目だっけ?

181:名無しさん@お腹いっぱい。
06/05/07 00:30:04
>論理分割したPseriesがどれだけパフォーマンス出るか知ってる?

つまり、性能出ないって事?


182:名無しさん@お腹いっぱい。
06/05/07 00:31:38
>>180
いやー。あんまし月と実際に手元に届く時期が一致した記憶がないからw

でもホントに6月なら社内のsquidプロキシ程度から利用してみようかなって
思い中なのよ。



183:名無しさん@お腹いっぱい。
06/05/07 00:32:08
>>176
先日の話なら、なんか別個にもうひとつ ZFS じゃないパーティションが要って、
かなりイビツな実現だって書いてあったような。普通にやるにはブートローダが
ZFS 読めないとだめでしょ。

184:MACオタ
06/05/07 00:36:47
>>177-179 さん
私わPOWERアーキテクチャ(PPC ISAを持つプロセッサファミリ)のことを語っているので
あって製品名としてのPOWERサーバーのことで無いということわ、踏まえておいて欲しいす。

>>177 さん
  ------------------------
  「自身が無いから現状AIXを選んでください」
  ------------------------
だからPower Macのような一般向けPOWERアーキテクチャ機をばら撒いて、
linux on POWERの人柱を集めることが必要だったんだと思うす。そもそも金融向け
なんて「UNIXなんて。。。」と言われていたのすらそう、昔の話でわ無い筈す。

>>179 さん
前段わ上で回答済みかと思うので、ここだけ。
  ------------------------
  論理分割したPseriesがどれだけパフォーマンス出るか知ってる?
  ------------------------
POWER4->POWER5での性能向上わ知っている筈すけど、IBMのロードマップでわ
今後さらにオーバーヘッドを低減する技術が投入される予定す。

185:名無しさん@お腹いっぱい。
06/05/07 00:45:37
「ZFS」でググる(日本語)と1位は
URLリンク(filesys.ntt-it.co.jp)
ってのが悲しいな。
別にこれはこれで良い製品なんだろうけど。

186:名無しさん@お腹いっぱい。
06/05/07 00:46:00
そろそろzfsの話をしようぜ

187:名無しさん@お腹いっぱい。
06/05/07 00:47:55
>>179
POWERじゃZFS動かないよな。そろそろ空気読め。

188:名無しさん@お腹いっぱい。
06/05/07 00:49:29
URLリンク(filesys.ntt-it.co.jp)

へぇ、こんな製品があるんだと思って読んでいたら、「ZFSは、NTTアイティの登録商標です。」だと。
ypの再来か?

189:名無しさん@お腹いっぱい。
06/05/07 00:51:17
5月末に出して欲しいなあ。
6月頭にGW分の振り休がもらえるから、そこでインストール地獄にはまり込みたいなあw

190:名無しさん@お腹いっぱい。
06/05/07 00:52:14
>>188
UNIX商標の問題に近いかも。
日本だけやっぱり表記がちがったりしてねw


191:名無しさん@お腹いっぱい。
06/05/07 00:54:12
マランツよりは手強そうだなあ…

192:名無しさん@お腹いっぱい。
06/05/07 00:55:45
StarOfficeモナー

193:名無しさん@お腹いっぱい。
06/05/07 00:57:25
もう3文字の愛着の湧きそうな名前なんて諦めて
コードのMD5値あたりを製品名にしちゃおうか。

194:名無しさん@お腹いっぱい。
06/05/07 01:01:08
the Last Word FS ということで lwFS にします。

195:名無しさん@お腹いっぱい。
06/05/07 01:04:13
それか、Phile System で PHS ってのはどう?

196:名無しさん@お腹いっぱい。
06/05/07 01:05:24
>>188
分野がもろ被りだしなw

ZFSによるメリット
・糞高いVeritas製品とはサヨナラ
・SPARC版Solarisとx86版SolarisとでLANフリーバックアップ環境を簡単に構築できる


197:名無しさん@お腹いっぱい。
06/05/07 01:11:07
NTTアイティも可哀想だな、こりゃ。

198:名無しさん@お腹いっぱい。
06/05/07 01:11:31
ZappaaaaaaanFS

199:名無しさん@お腹いっぱい。
06/05/07 11:30:07
>>194 日本だけ「んFS」になったりして。


200:名無しさん@お腹いっぱい。
06/05/07 11:55:31
ンフォッ!

201:名無しさん@お腹いっぱい。
06/05/07 12:00:43
乙FS

202:名無しさん@お腹いっぱい。
06/05/07 12:46:51
痔FS

203:名無しさん@お腹いっぱい。
06/05/07 15:01:10
ようやくzfsに戻ったかと思ったら今度はNTTの子会社が商標持ってますよかorz
zをζと読み替えてみるとか@日本。


204:名無しさん@お腹いっぱい。
06/05/07 15:21:23
COW って、ファイル単位なのブロック単位なの?
たとえばログみたいに append ばっかりされるような状況として、
もしファイル単位だとファイルサイズ二乗オーダのスペースが必要
になりそうで嫌だし、そうでなくてブロック単位だと、読むときに
シークしまくりになりそうで嫌だなあ。
誰か詳しい人教えてください。


205:名無しさん@お腹いっぱい。
06/05/08 00:11:22
2FS


206:名無しさん@お腹いっぱい。
06/05/08 00:12:20
乙FS

207:名無しさん@お腹いっぱい。
06/05/08 00:14:20
FSz

208:名無しさん@お腹いっぱい。
06/05/08 00:17:42
FSSuite

209:名無しさん@お腹いっぱい。
06/05/08 00:47:02
Final Fat Fast FileSystem

210:名無しさん@お腹いっぱい。
06/05/08 01:04:55
いつの間にかネタスレになっててワロスw

211:名無しさん@お腹いっぱい。
06/05/08 01:38:07
2F5

212:名無しさん@お腹いっぱい。
06/05/08 01:52:29
乙牛5

213:名無しさん@お腹いっぱい。
06/05/08 01:53:55
乙キ5

214:名無しさん@お腹いっぱい。
06/05/08 01:58:55
>>204
たぶん、ブロック単位。

URLリンク(opensolaris.org)

215:名無しさん@お腹いっぱい。
06/05/08 02:17:52
なんかこのスレ盛り上がってますね

216:MACオタ>214 さん
06/05/08 02:32:28
>>214
11ページを見れば良いすか?

217:名無しさん@お腹いっぱい。
06/05/08 07:22:01
場違いなこと書いて、赤恥じかきまくってスレ荒らしまくったのに
よくもまあ顔出せるな。>>216
せめてコテ外せよ。

218:名無しさん@お腹いっぱい。
06/05/08 08:02:20
頭おかしいのをスルー出来て便利。> コテ

219:204
06/05/08 09:31:44
>>214
サンクス。そうみたいね。
>>204 に挙げたような状況だと可変ブロックサイズと相俟って
読む時くちゃくちゃになりそうだなあ。


220:名無しさん@お腹いっぱい。
06/05/08 13:18:07
6/06は/はzfs化が無理だとして・・・

SVMでRAID1を組んで運用してた方法は当面
zfsに置き換えられなくってそのままにしなきゃ
ならないってことだよね?
(Openbootの対応も待つ必要があるのかな)

DISK2発の場合、/はSMVでミラーにして残りをzfsでRAID1って
構成が現実的?



221:名無しさん@お腹いっぱい。
06/05/08 19:05:37
>>10
ワラタ。

222:名無しさん@お腹いっぱい。
06/05/08 20:48:28
内蔵ディスクだけならLVMでいいだろw


223:名無しさん@お腹いっぱい。
06/05/08 22:21:08
次世代ファイルシステム「ZFS」新版まもなくリリース - Mac OS Xにも移植?
URLリンク(journal.mycom.co.jp)

224:名無しさん@お腹いっぱい。
06/05/09 01:41:09
>216 Yes.

>219
COW のページと End-to-End Checksums のページを見ると、データを書き換えると
常に uberblock まで変更が伝播するようなので DB みたいに最初に領域を確保して
おいて中身を書き換えるような操作を行うアプリは既存の FS に比べてオーバーヘッ
ドが大きそう。

225:名無しさん@お腹いっぱい。
06/05/09 03:31:27
今ZFSスレでFSベンチマークやってるんだけど、GWで暇な人、一緒にやらない?
スレリンク(unix板)

bonnie++
URLリンク(www.coker.com.au)

226:名無しさん@お腹いっぱい。
06/05/09 03:36:50
>>225
これ最初に書いた本人だけど、あちこちに貼り付けすぎ…。
貼り付ける暇があったら、bonnie++結果をググって、そのURLを報告しる。

227:名無しさん@お腹いっぱい。
06/05/09 17:51:49
>>222
あんなのといっしょにしないでよね。

228:名無しさん@お腹いっぱい。
06/05/10 10:08:31
とりあえず、MACオタはUNIX板に出入り禁止。

229:名無しさん@お腹いっぱい。
06/05/10 10:43:47
反対。たたいてる方はただの言いがかりにしか見えん。
スレ違いな方向へ持って行ったのも彼じゃないし。オレは投稿歓迎する。

230:名無しさん@お腹いっぱい。
06/05/10 11:01:31
今北産業

231:名無しさん@お腹いっぱい。
06/05/10 16:43:11
> スレ違いな方向へ持って行ったのも彼じゃないし。

ハァ?
ZFSスレで、わざわざUFSに関する間違った推測を披露してたのは誰?
IBMが、POWERへオープンソースソフトを移植させて大儲けを企んで
いるという妄想を書いたのは誰?

232:名無しさん@お腹いっぱい。
06/05/10 16:54:11
すくなくとも、MACオタ氏の話はおもしろいよ。あんたのはただのイヤミと
あげ足とり。それ以前にどんな経緯があるのかは知らんが、見てて極めて不愉快。
気分わるいからどっか行ってくれ。

233:名無しさん@お腹いっぱい。
06/05/10 17:05:57
>>232
SFじゃないんだから、面白いウソなら許されるなんてありえん。

234:名無しさん@お腹いっぱい。
06/05/10 17:15:44
ホントであろうとスレ違いは許されない。

235:名無しさん@お腹いっぱい。
06/05/10 17:27:34
スレ違いを煽ると無駄にスレ消費しますやね
適当なところで火消ししておわりにしよーよ。

236:名無しさん@お腹いっぱい。
06/05/10 17:41:51
228 はもう来ないで欲しい

237:名無しさん@お腹いっぱい。
06/05/10 18:31:25
MACオタが現れる限り、アンチMACオタはいつでも現れるだろう。
自作板をみても分かる通り、MACオタが、嘘、スレ違い、見苦しい
言い逃れをやめるとは思えないからな。
228の同類が現れて欲しくないと思うなら、MACオタが2度とこの板に
書き込まないことを祈るしかない。

238:名無しさん@お腹いっぱい。
06/05/10 18:43:03
Macオタの執着癖は相当なものだから、追い出すのは不可能。オタ信者も同様
Macオタに犯された時点で釣堀として捉えるべき

SUNの成果物をあたかもAppleの技術のように浮かれるMac信者は末期癌的存在
こいつらが騒ぐだけでZFSの評価が2ランク下がる

239:名無しさん@お腹いっぱい。
06/05/10 18:48:09
人のフリして書くなよ見苦しい。

240:名無しさん@お腹いっぱい。
06/05/10 19:00:04
それだ。
MACオタ、こういう時だけコテハンやめるのな。
流れと、内容のあまりの頓珍漢ぶりからみて、>>116もMACオタっぽいね。

241:名無しさん@お腹いっぱい。
06/05/10 19:40:29
俺にはアンチMACオタが「一人で」騒いでいるように見える。

242:名無しさん@お腹いっぱい。
06/05/10 19:44:32
少なくとも俺以外に一人いるし、MACオタもいるので、最低三人はいるよ。

243:名無しさん@お腹いっぱい。
06/05/10 20:00:03
だって共有コテハンだし

244:名無しさん@お腹いっぱい。
06/05/10 21:11:32
俺にはこのスレはもう終わったように見える。

245:名無しさん@お腹いっぱい。
06/05/10 21:23:48
6/06 が届かないことには、なにもみんな話せないだろうなー。
ネットにある情報と、ソースコードだけで話せる話題は少ない。

実際に運用始めた人とか出てくれば、
安定性とかパフォーマンスとかいろいろ分かってくるかと。

246:名無しさん@お腹いっぱい。
06/05/10 23:24:24
nevadaで使えるじゃない。

247:名無しさん@お腹いっぱい。
06/05/11 16:45:19
ZFS て、いわゆる VFS レイヤ使って実装してあるんじゃないんだよね?
もっと下からやらないとあんないろいろ機能付けれないよね?

248:名無しさん@お腹いっぱい。
06/05/11 19:21:05
VFSの意味わかっていってる・・・わけないなw

249:名無しさん@お腹いっぱい。
06/05/11 23:45:08
VFSの意味をわかってらっしゃる>>248様の講義が始まります。
皆様お誘い合わせのうえ奮ってご参加ください。


250:名無しさん@お腹いっぱい。
06/05/12 01:26:52
つまんないやつ…

251:名無しさん@お腹いっぱい。
06/05/12 06:25:53
一瞬、stackable file systemのことかな、と思ったけど
solarisにはないんだっけ。


252:名無しさん@お腹いっぱい。
06/05/12 22:41:59
ZFSって今はどこまで実装されてるの?

253:名無しさん@お腹いっぱい。
06/05/13 16:08:11
6/06がないからテストできないよ~!とかわめくやつは
さっさとnevadaいんすとーるしてみやがってください。

254:名無しさん@お腹いっぱい。
06/05/13 18:13:50
                  ____
        |\       ,. ‐''":::::::::::::;::::`'-、      
        |ヘ|    /::::::::::::::;:/´ヾヘ;:::::::::ヽ    
        |ヘ|   /::::::::::((,/    `、::r、:::゙,      >>1
         | ̄|   ,'::::::::::::i゙  \   / i::::i       学習ルーム来いヤ!☆
ピュー     (∃⊂ヽ !::::::::::::|  ●    ● l::::|  / 〉    ブラッドパーチーだべ
──   └┘\ !::::::::::::!          !:::!/\/
        \/  \::::::::!"" ____  ""!::| \/
──   ヽ    |::::::|   l,   /   ノ::i  /
            `、   i:::::l、ヽ.,_ `''''"  _,..イ:::::i  /
───    ゙、  ヽ;i \ヽ,.l ̄_,l  |:::/ /
            ゙、     ヽ`、 | /  レ' /
───    ゙、 /     `ヽ''"  i.  /
             /   NEVADA |/
────  /              |

255:名無しさん@お腹いっぱい。
06/05/13 19:40:54
むー。MacOSX上のParallelsに入れようとしたけど
なんかインストーラ自体があがってこねーぜwwwww>>253
イメージのダウソで失敗してたのかなぁ・・・・?

256:名無しさん@お腹いっぱい。
06/05/19 08:41:00
|∀・)

257:名無しさん@お腹いっぱい。
06/05/22 18:35:00
hageてみる

258:名無しさん@お腹いっぱい。
06/05/22 18:37:18
ハゲんなボケが

259:名無しさん@お腹いっぱい。
06/05/24 11:43:25
build39楽しいよ。



260:名無しさん@お腹いっぱい。
06/05/24 15:31:24
>>259
build39とは?

261:名無しさん@お腹いっぱい。
06/05/24 15:48:49
39 回目の神経衰弱

262:名無しさん@お腹いっぱい。
06/05/26 05:21:03
ZGMF-X19A

263:名無しさん@お腹いっぱい。
06/05/26 21:14:10
>>262
GM乙。

264:名無しさん@お腹いっぱい。
06/06/01 00:33:32
ZFS 正式リリース月間到来

265:名無しさん@お腹いっぱい。
06/06/01 16:21:54
今月は Z 月間とします。なるべく製品名に Z のついた商品を使いましょう。政府広告。

266:名無しさん@お腹いっぱい。
06/06/02 07:09:33
ZFS filesytem for FUSE/Linux age

267:名無しさん@お腹いっぱい。
06/06/13 14:03:06
6 月もタケナワですが、06/06 はまだでしょうか?

268:名無しさん@お腹いっぱい。
06/06/13 15:14:15
きみは刻の涙をみる


269:名無しさん@お腹いっぱい。
06/06/13 15:58:47
きざみのなみだ? タマネギ??

270:名無しさん@お腹いっぱい。
06/06/13 16:20:50
ZZFSはまだでしょうか?

271:名無しさん@お腹いっぱい。
06/06/14 00:17:28
直リンすればダウンロードでk

272:名無しさん@お腹いっぱい。
06/06/21 20:27:41
ZFS化のためにテメェのHDDをもっかいフォーマットするに足る10の理由

ZFS: Ten reasons to reformat your hard drives
URLリンク(www.tech-recipes.com)

from : Digg
URLリンク(digg.com)

273:名無しさん@お腹いっぱい。
06/06/21 23:56:48
でも俺のマシンって/一本切りだから
ZFSにしちゃうとブートできなくなるんだよな

274:名無しさん@お腹いっぱい。
06/06/22 07:35:05
あー、nevadaのいくつか忘れたけど、
zfs /からブートできるようになったやつは、
6/06には入ってないんですよね。

275:名無しさん@お腹いっぱい。
06/06/22 17:28:03
あれは ZFS の他にパーティションも必要だし、かなり強引なやり方での実現で、
取り込まれてないでしょ?

276:名無しさん@お腹いっぱい。
06/06/22 22:54:59
6/06ダウンロードまだー?

277:名無しさん@お腹いっぱい。
06/06/23 00:25:29
6/06とは、2006年6月ではなく、2007年6月06日のことだったんだよ!

278:名無しさん@お腹いっぱい。
06/06/23 01:03:18
6月31日まであきらめてはいけない!


279:名無しさん@お腹いっぱい。
06/06/23 12:46:31
6/20のプレスリリースに
availability todayって書いてあるんだけど、
ダウンロードするところだと、まだcoming soonって書いてある。

280:名無しさん@お腹いっぱい。
06/06/23 13:36:42
June 26, 2006 って書いてあるね。

281:名無しさん@お腹いっぱい。
06/06/26 15:25:31
今日だな。米西部時間か?

282:名無しさん@お腹いっぱい。
06/06/27 01:09:53
6/06 出てる。けど、x86 だけ。SPARC 版はなぜかリンク切れ...

283:名無しさん@お腹いっぱい。
06/06/27 01:18:21
キターーーーーーーーーーーーーーーー

284:名無しさん@お腹いっぱい。
06/06/27 01:23:51
>>282
リンクの URL に '?' が足りんかった。ただいま SPARC 版ダウンロード中。
ウキキーw

285:名無しさん@お腹いっぱい。
06/06/27 12:37:06
やっとこのスレの出番がやってきました!
使ってみた方、感想とかよろです!

286:名無しさん@お腹いっぱい。
06/06/28 01:18:43
お前も使ってみろって > 285
おれはSUNWrealplayerというパッケージにびくーりしたよw

287:名無しさん@お腹いっぱい。
06/06/28 01:41:58
よしっ、じゃあ、これから先は一度 ZFS パーティションに保存したもの以外
投稿ダメ、ってことにしよう。

288:名無しさん@お腹いっぱい。
06/06/28 02:15:36
ZFS にインストールしたブラウザからのカキコはダメでつか?

289:名無しさん@お腹いっぱい。
06/06/28 12:40:52
URLリンク(sunos.saita.ma)

290:名無しさん@お腹いっぱい。
06/06/28 16:30:45
SPARC Solaris10 6/06いんすこしてraid-z領域作ってみた。
zpool iostat -vやらdf, du で見えるサイズってパリティの容量も
含めた形で表示されるのね。

ぱっと見で実際に使える空き容量が見えないのはちょっと不便かも

291:名無しさん@お腹いっぱい。
06/06/28 19:06:38
とりあえずbonnie++-1.03aでベンチってみたので結果貼り付け
へっぽこい環境なのは勘弁ね。

【試験環境】
SF V250 / 1GB Mem / SPARC IIIi 1GHz *1

【HDD】
5. c0t9d0 <SUN36G cyl 24620 alt 2 hd 27 sec 107>
/pci@1d,700000/scsi@4/sd@9,0
6. c0t10d0 <SEAGATE-ST336605LSUN36G-0238 cyl 24620 alt 2 hd 27 sec 107>
/pci@1d,700000/scsi@4/sd@a,0
7. c0t11d0 <SEAGATE-ST336605LSUN36G-0238 cyl 24620 alt 2 hd 27 sec 107>
/pci@1d,700000/scsi@4/sd@b,0


292:291
06/06/28 19:07:10
【RAID-Z 36G*3】
bash-3.00# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
------------- ----- ----- ----- ----- ----- -----
datapool 602K 101G 19 121 2.27M 13.7M
raidz 602K 101G 19 121 2.27M 13.7M
c0t9d0s0 - - 7 64 830K 6.84M
c0t10d0s0 - - 7 64 782K 6.84M
c0t11d0s0 - - 6 64 737K 6.84M
------------- ----- ----- ----- ----- ----- -----

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 24338 74 31799 25 26476 20 28239 78 97649 28 618.0 3
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 10486 98 84123 99 16544 99 7931 75 101819 98 15740 98
v250-sol10,2G,24338,74,31799,25,26476,20,28239,78,97649,28,618.0,3,16,10486,98,84123,99,16544,99,7931,75,101819,98,15740,98



293:291
06/06/28 19:08:34
【RAID-1 36G*2】
bash-3.00# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
------------- ----- ----- ----- ----- ----- -----
datapool 106K 33.7G 40 41 4.99M 4.71M
mirror 106K 33.7G 40 41 4.99M 4.71M
c0t10d0s0 - - 19 40 2.49M 4.71M
c0t11d0s0 - - 20 40 2.50M 4.71M
------------- ----- ----- ----- ----- ----- -----

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 25992 79 30635 24 23659 19 30088 84 62609 18 468.2 3
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 9828 99 85253 99 10933 67 9342 96 107981 99 17208 99
v250-sol10,2G,25992,79,30635,24,23659,19,30088,84,62609,18,468.2,3,16,9828,99,85253,99,10933,67,9342,96,107981,99,17208,99


294:291
06/06/28 19:09:48
【Strype? 36G*2】
bash-3.00# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
----------- ----- ----- ----- ----- ----- -----
datapool 81K 67.5G 0 0 662 9.00K
c0t10d0s0 36K 33.7G 0 0 331 4.46K
c0t11d0s0 45K 33.7G 0 0 331 4.54K
----------- ----- ----- ----- ----- ----- -----

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 29662 88 46206 35 37441 27 31343 86 106434 30 894.3 4
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 10342 99 84056 99 16615 99 8648 77 106625 99 16604 99
v250-sol10,2G,29662,88,46206,35,37441,27,31343,86,106434,30,894.3,4,16,10342,99,84056,99,16615,99,8648,77,106625,99,16604,99


295:291
06/06/28 19:10:28
【Single 36G*1】
bash-3.00# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
----------- ----- ----- ----- ----- ----- -----
datapool 51.5K 33.7G 0 8 17.1K 231K
c0t10d0s0 51.5K 33.7G 0 8 17.1K 231K
----------- ----- ----- ----- ----- ----- -----

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 21779 64 33060 26 23404 16 28566 79 54388 12 324.6 1
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 10479 99 84418 99 10719 68 10363 99 108279 99 16928 98
v250-sol10,2G,21779,64,33060,26,23404,16,28566,79,54388,12,324.6,1,16,10479,99,84418,99,10719,68,10363,99,108279,99,16928,98


296:291
06/06/28 19:12:51
【UFS 36G*1】
Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 33174 96 42439 30 14675 18 34016 98 67608 27 332.7 2
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 5342 48 161391 99 7310 53 8241 59 167950 97 4572 44
v250-sol10,2G,33174,96,42439,30,14675,18,34016,98,67608,27,332.7,2,16,5342,48,161391,99,7310,53,8241,59,167950,97,4572,44

SVMでMirrorした物との比較もしようかと思ったけど 同期とる時間が90minぐらい
かかるのでとりあえずパス。
あと、OSは書き忘れてたけど Solaris10 6/06でっす。

297:名無しさん@お腹いっぱい。
06/06/28 23:01:56
ZFSだけで、pathの負荷分散って出来る?


298:名無しさん@お腹いっぱい。
06/06/28 23:26:07
>297
無理じゃね?
SCSIならVxVM入れる、FCならSun TrafficManager or VxVMぐらいしか思いつかんわ

299:名無しさん@お腹いっぱい。
06/06/28 23:46:10
ストレージメーカのものを使うか、VxVMしかないのか。


300:名無しさん@お腹いっぱい。
06/06/29 01:58:50
>>291
乙~。

さすがに36GBだけあって、転送速度は遅いけど、
RAID-Zでちゃんと高速化されてるね。

しかしファイルの作成、読込、削除が速い!
読込だけはUFSに負けてるけど、それ以外は圧勝。
というか、LinuxとかMac OS Xと比べると桁が違うぐらい速い。
それだけSolarisが優秀ってことかな?

301:名無しさん@お腹いっぱい。
06/06/29 08:40:20
CPU に余力があれば compression=on で速くなるらしいね。
容量も節約できて一石二鳥。もっとも CPU が弱いと逆効果だろうけど。

302:名無しさん@お腹いっぱい。
06/06/29 11:49:32
圧縮環境もとりあえず上げときます。
【RAID-Z 36G*3 compression=on】
bash-3.00# zpool iostat -v datapool
         capacity   operations  bandwidth
pool      used avail  read write  read write
------------- ----- ----- ----- ----- ----- -----
datapool    155K  101G   39   44  180K  259K
 raidz     155K  101G   39   44  180K  259K
  c0t9d0s0    -   -   2   8 97.7K  135K
  c0t10d0s0   -   -   2   9 98.2K  134K
  c0t11d0s0   -   -   2   9 97.7K  134K
------------- ----- ----- ----- ----- ----- -----

bash-3.00# zfs get compression datapool
NAME       PROPERTY    VALUE           SOURCE
datapool     compression  on             local

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 18895 55 40130 31 31153 35 25064 77 78634 50 1867 68
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 9929 99 85010 99 15476 95 7420 74 98016 94 15434 95
v250-sol10,2G,18895,55,40130,31,31153,35,25064,77,78634,50,1867.4,68,16,9929,99,85010,99,15476,95,7420,74,98016,94,15434,95

やはしCPU負荷増えますね。 時間が取れればVxVM/VxFSとの比較も出来るけどスレ違いの上うざいかな?

303:名無しさん@お腹いっぱい。
06/06/29 12:05:10
>>302
いややって欲しい。
ZFSとの比較だし問題ないだろ。

304:名無しさん@お腹いっぱい。
06/06/29 12:22:37
ZFSの最大のライバルだからな。


305:名無しさん@お腹いっぱい。
06/06/29 21:53:26
compression=on で cat /dev/zero >file とかするとおもすれぇw
ファイルが超巨大化しても空き容量余裕タプーリ

306:名無しさん@お腹いっぱい。
06/06/29 22:03:30
その道はNTFSが何年も前に通った道だ

307:291
06/06/29 22:29:33
VxVM/VxFS環境でベンチってみました。
環境はH/Wは同じ VxVM4.1, VxFS4.1使用。RAID5(nlog=0),Mirrorは当然VMで作成。
それなりにブレがあるようなので本来ならそれぞれで複数回ベンチ走らせて
平均取るべきなんだろうけど面倒なんでそのあたりは勘弁。

しかしRAID5書き込みは滅茶苦茶遅いね。これはRAID-Zの圧勝。
まぁ実際S/W RAID5なんて組むことあまり無いと思うけど。
適当に結果をグラフ化してみますた。無駄に横長ですまんすorz
URLリンク(www.uploda.org)
URLリンク(www.uploda.org)

308:291
06/06/29 22:31:15
【VxVM/VxFS Stripe 36G*2】

bash-3.00# fstyp /dev/vx/rdsk/datadg/stripevol
vxfs

v stripevol  fsgen    ENABLED 142247936 -    ACTIVE  -    -
pl stripevol-01 stripevol  ENABLED 142247936 -    ACTIVE  -    -
sd datadg01-01 stripevol-01 ENABLED 71123968 0    -    -    -
sd datadg02-01 stripevol-01 ENABLED 71123968 0    -    -    -

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 31020 96 110525 82 22255 27 31383 98 107088 69 412.4  4
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 6855 69 83970 99 10977 83 9050 73 85056 97 9662 78
v250-sol10,2G,31020,96,110525,82,22255,27,31383,98,107088,69,412.4,4,16,6855,69,83970,99,10977,83,9050,73,85056,97,9662,78


309:291
06/06/29 22:32:07
【VxVM/VxFS RAID-5 36G*3】
bash-3.00# fstyp /dev/vx/rdsk/datadg/raid5vol
vxfs

v raid5vol   raid5    ENABLED 10485760 -    ACTIVE  -    -
pl raid5vol-01 raid5vol   ENABLED 10485760 -    ACTIVE  -    -
sd datadg03-01 raid5vol-01 ENABLED 5242880 0    -    -    -
sd datadg01-01 raid5vol-01 ENABLED 5242880 0    -    -    -
sd datadg02-01 raid5vol-01 ENABLED 5242880 0    -    -    -

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 8874 32 9219  8 4113  8 22913 77 62421 54 360.7  4
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 2766 37 81958 99 2686 39 3013 36 86437 98 2861 35
v250-sol10,2G,8874,32,9219,8,4113,8,22913,77,62421,54,360.7,4,16,2766,37,81958,99,2686,39,3013,36,86437,98,2861,35


310:291
06/06/29 22:33:47
【VxVM/VxFS mirror 36G*2】
bash-3.00# fstyp /dev/vx/rdsk/datadg/mirrorvol
vxfs

v mirrorvol  fsgen    ENABLED 10485760 -    ACTIVE  -    -
pl mirrorvol-01 mirrorvol  ENABLED 10485760 -    ACTIVE  -    -
sd datadg01-01 mirrorvol-01 ENABLED 10485760 0    -    -    -
pl mirrorvol-02 mirrorvol  ENABLED 10485760 -    ACTIVE  -    -
sd datadg02-01 mirrorvol-02 ENABLED 10485760 0    -    -    -

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 30864 97 42962 28 12566 14 28155 87 54015 31 522.5  4
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 5697 57 82645 99 8720 64 7607 62 84611 97 5635 47
v250-sol10,2G,30864,97,42962,28,12566,14,28155,87,54015,31,522.5,4,16,5697,57,82645,99,8720,64,7607,62,84611,97,5635,47


311:291
06/06/29 22:34:23
【VxVM/VxFS single 36G*1】
bash-3.00# fstyp /dev/vx/rdsk/datadg/singlevol
vxfs

v singlevol  fsgen    ENABLED 10485760 -    ACTIVE  -    -
pl singlevol-01 singlevol  ENABLED 10485760 -    ACTIVE  -    -
sd datadg01-01 singlevol-01 ENABLED 10485760 0    -    -    -

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 32082 96 45295 27 22303 23 25957 81 53405 31 297.7  3
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 6228 64 41023 49 9594 66 8583 65 89816 99 6406 51
v250-sol10,2G,32082,96,45295,27,22303,23,25957,81,53405,31,297.7,3,16,6228,64,41023,49,9594,66,8583,65,89816,99,6406,51


312:名無しさん@お腹いっぱい。
06/06/29 23:56:54
ufsならufsdumpでDDSにバクアプ。
zfsはzfsdumpってのがあるの?

313:名無しさん@お腹いっぱい。
06/06/30 00:45:47
   zfs snapshot filesystem@name|volume@name

     Creates a snapshot with the given name. See  the
     "Snapshots" section for details.


   zfs backup [-i snapshot] snapshot2

     Creates a backup of snapshot2. The backup is written to
     standard output, which can be redirected to a file or to
     a different machine. For example, using ssh(1). By
     default, a full backup is performed.

     -i snapshot   Perform an incremental  backup  from
             snapshot to snapshot2.

     The format of the backup archive is evolving. No back-
     wards compatibility is guaranteed. You may not be able
     to restore your backups on future versions of ZFS.

314:名無しさん@お腹いっぱい。
06/06/30 03:13:19
>>4,5,6 あたり。かなり楽ちんと思われ。

315:名無しさん@お腹いっぱい。
06/06/30 09:39:43
>>5のtypo発見
・水曜日の版の foo.c をちょっと見る
-$ cat ~maybee/.zfs/snapshot/wednsday/foo.c
+$ cat ~maybee/.zfs/snapshot/wednesday/foo.c


316:名無しさん@お腹いっぱい。
06/06/30 10:05:18
テープにバックアップして世代管理&シーケンシャルアクセスしたいっす!

317:名無しさん@お腹いっぱい。
06/06/30 13:24:31
ふっ。通はテープでランダムアクセスするんだよ。こんどやってみな。

318:名無しさん@お腹いっぱい。
06/06/30 14:33:56
ふっ。真の通は脳内に全部記憶してランダムアクセスするんだよ。こんどやってみな。

319:名無しさん@お腹いっぱい。
06/06/30 14:38:32
>>317
MZ-80BとかX1とかのシャープのパソコンを思い出すなぁ

320:名無しさん@お腹いっぱい。
06/06/30 14:53:36
それランダムアクセスじゃないし。ひょっとするとシーケンシャルアクセスにも
入れてもらえないんでは。

321:名無しさん@お腹いっぱい。
06/07/01 02:13:39
>>318
読むたびに値が変わるかCRCエラーです
漏れの脳内ダブルセクターとかのプロテクトが掛かっているもよう

322:名無しさん@お腹いっぱい。
06/07/01 02:37:08
>>318
俺の脳みそは大部分が/dev/nullにリンク貼られてるようです

323:名無しさん@お腹いっぱい。
06/07/01 02:43:03
>>321-322
脳みそとしては正常です。

324:名無しさん@お腹いっぱい。
06/07/01 05:19:23
脳みそびろーん
  ∩___∩     
   | ノ      ヽ/⌒) 
  /⌒) (゚)   (゚) | .|  
 / /  ( _●_) ミ/
.(  ヽ  |∪|  / 読むたびに化けるクマー
 \   ヽノ /     
  /      /  
 |   _つ  /     
 |  /UJ\ \   
 | /     )  )   
 ∪   ( \    
      \_)

325:名無しさん@お腹いっぱい。
06/07/01 14:46:51
/dev/zero に再リンクすれば安定する。

326:名無しさん@お腹いっぱい。
06/07/02 02:30:59
/dev/urandam


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch