07/11/16 09:24:51
>>486
zfsはライトキャッシュを活用するように作られてるよ。
>>487-489
内容のないグチ日記を書きたいだけならチラシの裏にしとけ。
491:名無しさん@お腹いっぱい。
07/11/16 10:32:00
批判的な記事はご遠慮ください。
(他と比較して結果の劣る)ベンチマークの公開はご遠慮ください。
492:名無しさん@お腹いっぱい。
07/11/16 11:45:41
書くなら詳しく書けって言ってんだ。
自分の環境で起こる問題はどこでも再現すると思ってるバカは扱いに困るな。
493:名無しさん@お腹いっぱい。
07/11/16 13:07:08
せっかくブログってもんがあるのにね
494:名無しさん@お腹いっぱい。
07/11/17 03:22:28
いいよ。遠慮せずどんどん書いてくれ。
495:名無しさん@お腹いっぱい。
07/11/17 03:42:34
>>488 は参考になったけど
496:名無しさん@お腹いっぱい。
07/11/21 08:31:32
WCはうまくつかっているということであんしんあんぜんってことですね。
今のところ安定して動いています。
zfs snapshotが一般ユーザで実行できるのと、.zfs/snapshot/~がマウントされっぱなしになるのが気になるところ。
497:名無しさん@お腹いっぱい。
07/11/23 21:55:49
ZFS最高!!
498:名無しさん@お腹いっぱい。
07/11/27 15:10:35
これがすごく楽しみ…… 妄想してたものが現実に
URLリンク(www.opensolaris.org)
URLリンク(jp.opensolaris.org)
499:名無しさん@お腹いっぱい。
07/11/27 21:00:20
>>498
おー。おもしろそう。
The content of the cache devices is considered volitile, as
is the case with other system caches.
ってあるけど(関係ないけどタイポ発見)、たとえばi-ramみたいな
ので作ってもいいのかな。
500:名無しさん@お腹いっぱい。
07/11/28 01:40:07
>>499
アリだと思うよ.volatile扱いでいいから相性も良いね.
個人的にはi-RAMはECC無いのが怖いしHypeDriveは高杉だしで,
ANS-9010に一縷の望みをかけてるのだけれど.
駄目ならFlashベースの奴だね……
あるいは電気代はアレだが余ったマシンをiSCSI targetにするとか.
501:名無しさん@お腹いっぱい。
07/12/01 11:48:14
>>438
おおお、たしかにそれいいな。
てかVFS層でそのあたり拾ってくれよ。
FSは好きなの選びたい。
502:名無しさん@お腹いっぱい。
07/12/01 12:05:51
そんなところに挟んだらキャッシュから読んだデータの整合性チェックができないんじゃないか?
キャッシュが腐ってることを検出したらストレージへ読みに行くらしいし。
503:502
07/12/01 12:19:19
すまん、501を498宛だと勘違いしてたよ。。。
504:名無しさん@お腹いっぱい。
07/12/16 15:53:44
ZFS on rootなFreeBSD環境をmicroSD上に構築してみる
URLリンク(bsdhouse.org)
505:名無しさん@お腹いっぱい。
08/01/03 18:56:08
複数ディスクをJBODで構築した場合、ディスクに一つ障害が出たらファイル全部喪失してしまうんでしょうか。
506:名無しさん@お腹いっぱい。
08/01/03 19:14:25
基本的にそういう理解でいい。
残りのディスクだけで完結しているファイルは、なんとかサルベージできるかも知れんけど。
ちなみに、スレ違いだな。
507:名無しさん@お腹いっぱい。
08/01/03 20:52:50
>>506
ZFSでも一人が死ぬとのプール全体が終わってしまうのですね。
ディスクの足し算引き算が容易にできるFSを探しててzfsはどうかと思った次第。
Windows Home Serverの方がイメージに近いので、そっちで検討してみます。
508:名無しさん@お腹いっぱい。
08/01/03 21:05:06
事前に抜く予定が分かっていてファイルの移動を
ボリュームマネージャにやらせるのは zfs でできるんじゃないっけ?
もしくは RAID5 構成で1本抜いて一本挿し直してみたいなことを想像してる?
509:名無しさん@お腹いっぱい。
08/01/03 21:18:56
>>508
作りたいのは自宅ファイルサーバ。
録画機能つきTV(REGZA)のデータandその他もろもろデータ置き場。
(1)とにかくでかい1ボリュームが欲しい。容量が足りなくなったらHDD足すだけでOK。(ZFS,WHS)
(2HDD故障でファイル消失しても泣かない。でも正常なディスクのファイルが読めなくなるはやだ。(WHS)
(3)なるべく低イニシャルコストで。(ZFS)
こんなところです。
(1)(2)はFuse使ってunionfsの亜種みたいなのを作って実現してみようかとも思ってます。
510:名無しさん@お腹いっぱい。
08/01/03 21:22:44
>>508
なので計画的にディスクを抜くというよりも障害時の影響範囲を最低限にしたいんです。
でも、RAID1,5,Zのようなディスクを余計に消費してまでの完全性はいらないんです。
511:名無しさん@お腹いっぱい。
08/01/05 12:59:08
>>508
ZFSはディスクを足すのは簡単だけど、減らすことはできないと思ってたけど。
>>509
ファイルシステム以下の層でやるより、ディレクトリ分類とシンボ
リックリンクで済ませた方が早くない?
512:名無しさん@お腹いっぱい。
08/01/08 14:24:39
>>511
> ZFSはディスクを足すのは簡単だけど、減らすことはできないと思ってたけど。
仕様的にはできるはずなのでは。「まだ実装されてない」って話だったが、
今の状況は知らんw
> ファイルシステム以下の層でやるより、ディレクトリ分類とシンボ
> リックリンクで済ませた方が早くない?
オレもそう思う。
513:名無しさん@お腹いっぱい。
08/01/08 16:41:45
それをファイル単位で自動的にやってくれるのがWHSのDEな.
DEはファイルシステムの層でやってるのではない.
514:名無しさん@お腹いっぱい。
08/01/08 18:30:45
UNIX 板なんだから謎の略語は展開してあげるのが親切かと。
Windows Home Server の Drive Extender だよね。
515:名無しさん@お腹いっぱい。
08/01/08 20:10:20
ZFSが/で使えないのは何がたりない?
早くUFSからオサラバしたいぜ
516:名無しさん@お腹いっぱい。
08/01/08 21:11:18
OpenSolarisやFreeBSDならできるよ
517:名無しさん@お腹いっぱい。
08/01/09 01:46:49
>>515
FreeBSDなら
URLリンク(wiki.freebsd.org)
とか
URLリンク(blog.ninth-nine.com)
とか >>504 とか
518:名無しさん@お腹いっぱい。
08/01/11 02:23:46
>>480-484
zfs-102A 来た
URLリンク(zfs.macosforge.org)
Bugs Fixed in this Rev:
5448925: sync ZFS with Solaris build 72
5405398: zfs needs kqueue(2) API support
5602507: Leopard9A581: Kernel trap at 0×4d351d9c, type 14=page fault, registers:
5592757: Kernel panic when writing to a zfs volume
5482932: Raidz parity rewrite issue
5641577: ZFS: panic: zap->zap_u.zap_fat.zap_phys->zap_magic == 0×2F52AB2ABULL failed
5621659: assertion failed in /Users/local/zfs-101-latest_fixes/zfs_kext/zfs/zfs_dir.c line 730: error == 0
5643944: ZFS get/set and mountpoints are misbehaving
5645880: Finder copy and “delete” broken in zfs-101 plus fixes..
519:名無しさん@お腹いっぱい。
08/01/12 00:39:11
>>518
記事出た。
128bit FS「ZFS」のMac OS X Leopard用最新ビルドが公開
URLリンク(journal.mycom.co.jp)
520:名無しさん@お腹いっぱい。
08/01/12 02:08:59
にしても、基本的にOS X 10.6まで待ちというのは長いな…
521:名無しさん@お腹いっぱい。
08/01/13 00:36:48
デカイファイルの削除時にカーネルパニックになる場合があるね。
基本的な動作は問題なさげ。
USBメモリー16本でRAIDZ組んでみた。ランダムアクセスで100MB前後出る。
が、速度の結果が不安定。zfs側で用意したキャッシュの分の速度も含まれてるのかも?
522:名無しさん@お腹いっぱい。
08/01/13 00:48:28
>>521
> USBメモリー16本でRAIDZ組んでみた
> が、速度の結果が不安定
どうやってつないだ? そもそもボトルネックってどこよ?
> zfs側で用意したキャッシュの分の速度も含まれて
普通にそうなるだろ?
523:521
08/01/13 12:49:43
>>522
試したのは、102aを10.5.1で。
USB4ポートに4ポートハブと、16ポートハブ(中身は多段ハブだった)で確認。
ボトルネックは主にハブだね。USBメモリーはPQI U339Proで、ファームを最新に書き換え済み。
単体での20MB弱のリードを確認してる。
キャッシュについては、確かにそうだ。
ベンチの結果、ランダムリードで5MB/secから100MB/secまである。
パリティの処理とのカブリか、ベンチに使ったソフト(Xbench)の出来の加減なのか…
現状、zfsのraidzの挙動に詳しいわけではないので、もちょっと色々試してみる予定。
どっちにしても実際に動かす分にはかなり快適。
524:名無しさん@お腹いっぱい。
08/01/13 13:07:52
>>521
それはデカイ問題じゃないのか
525:名無しさん@お腹いっぱい。
08/01/13 13:51:05
10.5.1てマコス?
そのUSBポートはひとつのICHに繋がっていて合計60MB/sの帯域しかない。
それを超えたらもちろんcacheの速度。
526:名無しさん@お腹いっぱい。
08/01/13 13:56:45
>>523
> USB4ポートに4ポートハブと、16ポートハブ(中身は多段ハブ…
USB2 って 480Mbps じゃなかったけ?
16 ポートって 4x4 の 2 段だろ? ここのトランザクション増えると
ここに足引っ張られるのみえみえじゃん?
527:521
08/01/13 20:27:39
お遊びにそんな怒らんでも。Leopardだね。>>519 のもの。
G5 Macだから、ボトルネックがチップセットにあるのか不明。
一応、ハブもダメだし、あっちこっちダメなのは認識してる。
でかいファイルでだめなのは再現性不明。7GB位のファイルで確認してたんだが…その後起きない。
次でたらバグ報告しようかと思ってるんだが。
528:名無しさん@お腹いっぱい。
08/01/14 00:48:28
>>527
G5だとEHCIは32bit/33MHz PCIの下だから帯域は4ポートとその他諸々全部ひっ
くるめてPCI1本分。実はIntelよりマシ。
529:名無しさん@お腹いっぱい。
08/01/16 02:14:29
なんでPCIの下のEHCIが、
ICH内蔵のEHCIよりマシなのか
ぜんぜん理解できない
530:名無しさん@お腹いっぱい。
08/01/16 10:20:31
俺も理解できない。
先にUSBの仕様上上限がネックになるのに何故PCIの話持ち出してるのか。
531:名無しさん@お腹いっぱい。
08/01/16 10:39:18
USB3.0 の話なのだよ
532:名無しさん@お腹いっぱい。
08/01/16 20:08:26
>>529
IntelのICH内蔵EHCIはUSBポート全部合わせて60MB/sの帯域しかない。
(EHCI2個を内蔵しているものはそれぞれが60MB/sの帯域を持つ)
PCI-USB bridgeならば少なくともこの制限はない、ということ。
逆にもっと酷いものが載っているかもしれないが。
>>530
USBメモリを16本挿して遊んでるので「USBの仕様上上限」とやらは問題にならない。
重要なのは経路の一番細い部分。すべてのUSBはひとつのEHCIを経由するわけだから、
ここの帯域が速度の上限となる。だからEHCIがどこに繋がっているかの話をした。
理解していただけたか。
533:名無しさん@お腹いっぱい。
08/01/16 21:49:55
なるほど。勉強になった。
534:名無しさん@お腹いっぱい。
08/01/16 23:35:12
>IntelのICH内蔵EHCIはUSBポート全部合わせて60MB/sの帯域しかない。
>PCI-USB bridgeならば少なくともこの制限はない、ということ。
そんなの始めて聞いたゼ。
前段の、1EHCI辺り60MB/sしか出ないのかがホントなのか、はおいといて、
もしそうだとしても、後段の「PCI-USB brigde」ってのは結局のところEHCIなわけだから、
1つしかなければ、そこも結局60MB/s以上出るはずがないという話になると思うけど?
535:名無しさん@お腹いっぱい。
08/01/17 01:20:54
なるほど、PCI-USB bridgeとやらが、何か*HCIとは違うすごい物という勘違いを
してるわけか。
536:名無しさん@お腹いっぱい。
08/01/17 01:49:42
>>534
Intel製のICH内蔵EHCIが60MB/sでFSBに繋がっているということが
他社製のEHCIの構造に何か影響を及ぼしていると言っているのか?
もしそうなら言ってくれ。君のことは早々に忘れることにする。
そうでなくても大概スレ違いなので次のレスで完結してくれるようお願いする。
>>535
君はもう少し誰かの役に立つことを書け。
537:名無しさん@お腹いっぱい。
08/01/17 08:18:30
何、Intel製のICH内蔵EHCIだけ(特に性能が悪くて、)
ICH内部バス(ふつうFSBとは言わない)からRootHubまで
60MB/s(480Mbps)しかないけど、
他のメーカ(NEC,VIA,SIS,AMDなど)のEHCIはそこは133MB/sの太さがある、と?
538:名無しさん@お腹いっぱい。
08/01/17 09:17:04
揚げてみる
539:名無しさん@お腹いっぱい。
08/01/17 10:01:43
負け惜しみはよくわかったからそろそろ他でやってくれないか。
540:名無しさん@お腹いっぱい。
08/01/17 10:27:27
zfs の話題マダーーー? チンチン
541:名無しさん@お腹いっぱい。
08/01/17 15:44:38
お互いほどほどにな。
元々の実験自体は中々面白いものだったし。
542:名無しさん@お腹いっぱい。
08/01/18 11:40:59
ZFSファイルシステムのバグでJoyent、長時間ダウンを余儀なくされる
URLリンク(jp.techcrunch.com)
543:名無しさん@お腹いっぱい。
08/01/18 12:45:11
>>542
それって、(リリース版Solarisでなく)OpenSolaris、それもsnv_43なんていう古いバージョンのを
使っててバグ踏んだだけじゃん。snv_60で9ヶ月ぐらい前にfixされてるバグだし。
URLリンク(discuss.joyent.com)
URLリンク(opensolaris.org)
544:名無しさん@お腹いっぱい。
08/01/18 14:33:35
Joyentとしては、とにかく他人のせいにしとかないとね。
あ、TechCrunchのfounderは記事に名前の出てるOmnidriveのinvestorでもあるのか。
545:名無しさん@お腹いっぱい。
08/01/18 16:21:01
つーか、このレベルの障害がこれだけ大きく出るってことは、逆に
それ以上のものはほぼ皆無ってことになるんじゃねーか? すげーじゃん。
546:名無しさん@お腹いっぱい。
08/01/20 04:37:45
ゆとり脳かよ
547:521
08/01/21 01:43:43
Leopard上でのzfsだけど、デバイスのエラーが起きたとき(orパリティからの復帰時)にカーネルパニックおきるや。
6本のUSBメモリーでraidz2にして、1~2本抜いてその分新しいのをプールに追加すればほら元通りってデモやろうとしてたけど、
なんどやってもその場でパニックまたはzpool statusを実行した途端パニック。レポート送信ポチッとな。
あと、16ポートハブは出来が悪い。たくさんデータ転送してたら突然の電源断。熱が多いようだし、そのせいかもしれないが。
Mac/Winの複数環境で試したが、相性ではなさそう。一部ポートだけ接続不良とかもランダムで起きてる気がする。
さらに、機能とは関係ないが、コネクタがいい加減についてるから、差したブツがランダムで斜めになってるし。
16ポートにUSBメモリー直接差したら、ガタツキまくりのぶつかりまくりの離れまくり。熱問題も含めて延長ケーブル経由にしてしまった。
…高い遊びの割に、結果がしょんぼり。USBメモリーは当初の予定通りデータ入稿用ストックに。
ハブは、Mac Book Airを買ったら使う、かなぁ?
548:名無しさん@お腹いっぱい。
08/01/21 02:30:08
ハブの電源容量は?16ポート全部使うとスペックオーバの場合もあるぞ。
549:名無しさん@お腹いっぱい。
08/01/21 07:57:17
>>547
乙でした。
職業ライターさんかな?
だとしたら、スレ違いだけどVT -d、IOV特集とかお願い。
550:名無しさん@お腹いっぱい。
08/02/03 14:00:28
USB端子の電力供給ってかなりショボイから、
6本同時接続自体が無謀な気もするんだが・・・
551:名無しさん@お腹いっぱい。
08/02/05 21:03:20
>>550
ハブをバスパワーにしなければ無問題ではないかと
552:名無しさん@お腹いっぱい。
08/02/05 21:13:34
WindowsでZFS使いたいなあ…
553:名無しさん@お腹いっぱい。
08/02/06 09:52:49
>>552
他人に頼るな。自分でなんとかしてみろ
554:名無しさん@お腹いっぱい。
08/02/06 10:00:37
C/C++は一応出来るけどWindowsのドライバなんて作ったことない…
まあ、6月ぐらいになったら暇になるから勉強のつもりで挑戦してみるか
555:名無しさん@お腹いっぱい。
08/02/06 10:50:44
MS-Windows がまともに稼働するだけの機能は全部もってるんだろ? ZFS。
ZFS オンリーな環境で MS-Windows がまともに動いたらちょっと爽快かもな。
556:名無しさん@お腹いっぱい。
08/02/06 12:58:56
>>555
いや機能だけでいうなら全然足りない。
557:名無しさん@お腹いっぱい。
08/02/06 13:34:23
そうか? 例えば?
558:名無しさん@お腹いっぱい。
08/02/06 19:26:05
このスレをNTFSで検索しれ
559:名無しさん@お腹いっぱい。
08/02/06 20:21:52
「俺の根拠はお前が探せ」
560:名無しさん@お腹いっぱい。
08/02/06 21:09:43
「半年ROMれ」
561:名無しさん@お腹いっぱい。
08/02/06 21:12:54
>>558
re-parse file は symbolic link、sparse file は hole。
multiple stream は extended attributes (fsattr)だろうな。
以上なら UFS にもあるぞ。
extended attributes は Solaris 9 以降だったと思うが。
暗号化が実装途上だというのはすでに言及されてるからいいとして、
トランザクションとか他の事項については中身を知らんから何とも。
556や558は知ってるならちゃんと説明してくれ。
562:名無しさん@お腹いっぱい。
08/02/06 21:46:10
Windowsが動作可能なFSって、動作するだけなら長いファイル名さえ使えれば
問題ないんでないの?
NTFSと同等の機能が必要かどうかは、OS上で何を動作させるか次第だと思うんだけど。
563:名無しさん@お腹いっぱい。
08/02/06 21:48:43
横槍だがリパースポイントは、
その機構を利用してジャンクションやシンボリックを実現しているだけで、
本質はもっと汎用的な動的再解析のための枠組み。
Windowsでは階層化ストレージのために使っていたりするが、
独自の再解析のアルゴリズムを追加してリパースさせることもできる。はず。
寡聞にして聞いたことがないが。
564:名無しさん@お腹いっぱい。
08/02/06 22:02:30
>>561
ZFS に sparse file(hole) ってあったっけ?
あと junction 相当の directory hardlink とかどうだっけ。
まあ機能制限ありなら FAT 上でだって XP は動くわけで、
そういうのでいいなら ZFS 上で Win 動かすのに問題はないんじゃない?
あと Win Server の Volume Shadow Copy って、これ snapshot 相当なの?
誰か使ったことある?
565:名無しさん@お腹いっぱい。
08/02/06 22:04:16
NTFSの最もよく使われているであろう暗号化機能が
無いというだけで十分ではないか。
566:名無しさん@お腹いっぱい。
08/02/06 22:06:06
最近のノートなビジネスクライアントでは必須だからな……
567:名無しさん@お腹いっぱい。
08/02/07 03:21:19
じゃあ暗号化を考えなきゃ、使える、と?
568:名無しさん@お腹いっぱい。
08/02/07 10:20:14
いや、暗号化なんてどうでもいいだろ。とりあえず大文字小文字の同一視と
ACL カバーしてりゃ問題なかろ。
569:名無しさん@お腹いっぱい。
08/02/07 22:22:54
URLリンク(d.hatena.ne.jp)
[質問] スライドでは、NTOSKRNL はデバイスドライバコードを一切含んでいないということだったが、では ntfs.sys や scsi.sys、disk.sys などのハードディスクを読み書きするデバイスドライバはどうやって読み込まれるのか?
NTOSKRNL を呼び出す PreLoader (恐らくブートセクタプログラムおよび ntldr のこと) に NTFS などのファイルシステムドライバが特別なコードとして組み込まれている。
[質問] では、サードパーティの開発者が例えば新しいファイルシステムを開発してそれ用のデバイスドライバを書いたとしても、そのファイルシステムのドライブ上に NT カーネルを置いてブートすることは不可能ということか?
現在のところ不可能である。
570:名無しさん@お腹いっぱい。
08/02/07 22:24:56
と言うような話を思い出したけど、よくよく話題を追うと機能として満たしてるかどうかだった悪寒
571:名無しさん@お腹いっぱい。
08/02/09 10:24:38
X4500に16TBのZFSファイルシステム作ってみた。
コマンド叩いて、すぐに完成。
Disk 46本全て使ったので、完了するまでに待たされるかと思ったよ。
やっぱり、いいな。ZFS。
でも、細かな所で機能やユーティリティが不足しているので、以下の機能を
早く正式に取り込んで欲しいな。
・send -r ZFSプールの中の全ファイルシステムを再帰的にsend
・snapshot/send/recvのスケジューリング機能
・scrubをバックグラウンドで定期的には知らせる機能
X4500はバックアップ用ストレージとして使っている。
1000T 1本にNFS writeして、50MB/sec位。
ストレージの性能はもうちょっと上なので、10Gの時の書き込み性能を
試してみたいな。だれか10GでNFSシーケンシャルwrite性能計った事無い?
572:名無しさん@お腹いっぱい。
08/02/09 17:17:30
nfsd にあたるリモートpoolを扱う機能が欲しいな。
バックアップが格段に楽になる。
経路の暗号化付きで。
573:名無しさん@お腹いっぱい。
08/02/10 13:10:05
ZFSは素晴らしいよな。近年まれに見る優れたファイルシステム。
周辺のかゆい所に手を入れて、早いところSVM/UFSやVxVM/VxFS捨てて欲しいわ。
夏あたりに出てくるというSolaris10+ZFSベースのNASにも期待。
ZFSはNetApp ONTAPの機能の大半をカバーしているからな。NetApp買わなくても
良くなるかもしれない。
574:名無しさん@お腹いっぱい。
08/02/10 14:39:54
>>571
zpool の RAID はどういう風に組みました?
6 本の RAID-Z を複数かな
575:名無しさん@お腹いっぱい。
08/02/10 14:57:39
9D+2PのRAID-Z2を4セット、1ファイルシステム
576:名無しさん@お腹いっぱい。
08/02/11 11:06:23
次のupdateで、OSブートに対応した版が出てくるんだろうか?
最近のSunサーバは、ハードウェアRAID搭載なので、SVMにお世話になる頻度は
減ったが。X4500みたいな未搭載機もあるしな。
あと、/ からZFSになっていると管理上楽
577:名無しさん@お腹いっぱい。
08/02/11 13:15:05
OSブート対応はブートROM側に変更が必要なのでは。
578:名無しさん@お腹いっぱい。
08/02/11 18:25:35
SPARCのこと?
OpenBootの変更が必要ない方法で進められてると思ったが。
579:名無しさん@お腹いっぱい。
08/02/11 19:19:51
OpenBootもUPFATE可能な作りだしな。
580:名無しさん@お腹いっぱい。
08/02/11 19:47:38
OpenBootに変更は必要ない。
Case Materials for PSARC 2006/525 new-boot sparc
URLリンク(www.opensolaris.org)
x86同様、多段階ブートになる。
早くにOBPから切り離されるため、場合によってはブートが速くなるらしい。
そもそもNVRAMに大きなコードが入るとは思えないわけだが。
581:名無しさん@お腹いっぱい。
08/02/11 21:56:03
やっぱり多段ブートなのかぁ。sector 1-15に収まり切るのかな。
582:名無しさん@お腹いっぱい。
08/02/11 22:13:52
>>576-581
既に Project Indianaの成果物は
URLリンク(www.opensolaris.org)
ZFSオンリーの構成でインストールされますよ。
583:名無しさん@お腹いっぱい。
08/02/11 22:15:23
ん。あ、早とちりか。SPARC版か・・・すまね。
584:名無しさん@お腹いっぱい。
08/02/12 01:17:46
このスレNTに詳しい奴もいるんだな
585:名無しさん@お腹いっぱい。
08/02/12 13:51:26
MS-Windows7 の標準ファイルシステム。
586:名無しさん@お腹いっぱい。
08/02/12 20:04:54
VCSがサポートしてくれれば、全面的にZFSに乗り換えるんだが。
ZFSサポートしているHAはSunClusterのみだからなぁ。
FirstWatchからずっとVERITASを支持してきた俺だが、
SunClusterを検討する時期に来ているんだろうか。
587:名無しさん@お腹いっぱい。
08/02/12 20:53:33
Cluster ableなZFSはまだかっ
588:名無しさん@お腹いっぱい。
08/02/16 17:57:28
SXDEのZFS新機能の説明を読んでみた。待望のsend -Rが。
階層的に作成したファイルシステムを一撃でバックアップ取れて、復元も可能。
URLリンク(docs.sun.com)
# zfs snapshot -r users@today
# zfs list
NAME USED AVAIL REFER MOUNTPOINT
users 187K 33.2G 22K /users
users@today 0 - 22K -
users/user1 18K 33.2G 18K /users/user1
users/user1@today 0 - 18K -
users/user2 18K 33.2G 18K /users/user2
users/user2@today 0 - 18K -
users/user3 18K 33.2G 18K /users/user3
users/user3@today 0 - 18K -
# zfs send -R users@today > /snaps/users-R
# zfs destroy -r users
# zfs receive -F -d users < /snaps/users-R
# zfs list
NAME USED AVAIL REFER MOUNTPOINT
users 196K 33.2G 22K /users
users@today 0 - 22K -
users/user1 18K 33.2G 18K /users/user1
users/user1@today 0 - 18K -
users/user2 18K 33.2G 18K /users/user2
users/user2@today 0 - 18K -
users/user3 18K 33.2G 18K /users/user3
users/user3@today 0 - 18K -
589:名無しさん@お腹いっぱい。
08/02/16 17:58:20
rshやsshと組み合わせて、リモートレプリケーションするのが
すごく楽になったぜ。
590:名無しさん@お腹いっぱい。
08/02/16 18:04:42
あと、cache deviceの機能。どの様な場面を想定しているのかな? SSD?
# zpool create pool mirror c0t2d0 c0t4d0 cache c0t0d0
# zpool status pool
pool: pool
state: ONLINE
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
pool ONLINE 0 0 0
mirror ONLINE 0 0 0
c0t2d0 ONLINE 0 0 0
c0t4d0 ONLINE 0 0 0
cache
c0t0d0 ONLINE 0 0 0
errors: No known data errors
591:名無しさん@お腹いっぱい。
08/02/21 00:10:38
ZFSというのはRAID構成のまま増設が出来ちゃったりするの?
RAID 6+2+0相当で、そこまで出来るなら鯖管に真面目に検討させたいなぁ。
592:名無しさん@お腹いっぱい。
08/02/21 23:00:54
>RAID構成のまま増設が出来ちゃったり
ってどう言う意味?
あと、RAID6+2+0ってどんなメリットが? しかもRAID2 ??
と言うか、そんなの構成可能なHW RAIDやSW RAIDがあるわけ?
593:名無しさん@お腹いっぱい。
08/02/23 11:40:15
6+2+0 = 8
ナ ナンダッテー!!
Ω ΩΩ
っていうw
594:名無しさん@お腹いっぱい。
08/02/23 13:18:26
なんだこいつ
595:名無しさん@お腹いっぱい。
08/02/23 13:59:04
ZFS じゃないけど敢えて言うなら
Infrant の ReadyNAS みたいなイメージなのかな?
596:名無しさん@お腹いっぱい。
08/02/23 20:34:15
ZFSはオンライン拡張可能だけど、1台だけDisk増設と言った使い方は
お薦めできない。RAID-Z 4+1分の容量を追加とか。そんな感じでやるべき。
597:名無しさん@お腹いっぱい。
08/03/27 09:27:16
自宅のファイルサーバとしてFreeBSD7.0-R + ZFS + samba3.0.28という
組み合わせで導入してみたけど、いまいち使い物にならない。
URLリンク(wiki.freebsd.org) にあるとおり、
vm.kmem_size="512M"
vm.kmem_size_max="512M"
としたけど、クライアントのVista SP1マシンから数GBのデータをコピー
しようとしたらkmem_map too smallで落ちる。設定を640MBまで増やして
みてもダメ。どこまで増やせば安定するのかな。
というかそもそもメインメモリ1GBじゃファイルサーバにZFS使うのには
ぜんぜん足りないのか。
598:名無しさん@お腹いっぱい。
08/03/27 09:51:12
kldstatでzfs.koが組み込まれてるのを確認してから、
sysctl -a | grep vfs.zfs.prefetch_disable
デフォルト値0を1に変えてみたらどうだろう。
他にも設定できる箇所は沢山あるけど、個人的には簡単に動く印象は無いな。
599:名無しさん@お腹いっぱい。
08/03/27 11:25:05
そうなのかぁ.
amd64でメモリ4GB オーバー当り前,とかが実質の前提なのかな?
600:598
08/03/27 11:52:53
簡単に動く印象は無いと書いたけど、
zfsをマウントしてFreeBSD使うだけなら、そう苦労は無いね。
他と絡めてなにかすると、簡単にボロが出る。といった方が正しかった。
細かい仕様まで追ってないので外してるかも知れないけど、
>>597のケースは、zfsがキャッシュ(即ちメモリ)を開放するタイミングの問題だと思う。
zfsに食わせるメモリを超えるサイズのファイル(zfsのパリティ込み)を他のシステム(ここではsamba)から渡すと、
最大でファイルサイズの倍以上メモリが必要だと思う。
601:名無しさん@お腹いっぱい。
08/03/27 12:31:52
512Mじゃ足りないのか。
安心して使えるメモリ量がわからないことには、ファイルサーバには使えないな。
本家であるSolarisのZFSも同じ挙動するのかなぁ。
602:名無しさん@お腹いっぱい。
08/03/27 13:22:26
どちらにせよ今のところFreeBSDではZFSでSambaはうまくいかないぽい。
URLリンク(unix.derkeiler.com)
自分の経験では、ZFSなSamba公開dirにWinXPからちょっと多目のファイル(1000個とか)
の入ったフォルダをコピーすると、コピー先でファイルの数がおかしくなったり
そのフォルダが1回で消せなくなったりした。
FreeBSDに加え、Solaris、LinuxのZFS-FUSE、3つともメモリ256MB割り当てのVMwareで試したが
Solaris、LinuxのZFS-FUSEは問題起きなかった。
603:名無しさん@お腹いっぱい。
08/03/27 13:28:29
>>597
i386の項目も見るんだ
options KVA_PAGES=512 としてから再コンパイルが必要。
vm.kmem_size は 1 GB にしないとダメとあるね。
604:597
08/03/27 13:52:14
とりあえず、vfs.zfs.prefetch_disable=1 してみたけど改善しませんでした。
カーネルの再構築は後で試してみます。
でもメインメモリ1GBしかないのにvm.kmem_sizeを1GBも取っちゃっても
大丈夫でしょうか。。。
でもそもそも598=600氏の指摘されている問題が本当だとすれば、CDの
isoイメージ1枚分の転送すら1GBじゃ足らないということになりますね。
たとえ8GB積んだとしてもDVDイメージが転送できない、と。
605:名無しさん@お腹いっぱい。
08/03/27 14:10:15
>>604
>でもメインメモリ1GBしかないのにvm.kmem_sizeを1GBも取っちゃっても
>大丈夫でしょうか。。。
もちろん大丈夫じゃないので、とりあえずメインメモリを増設しては。
4GBでも今二束三文でしょ。
>>600の話は初耳だけれど、とりあえずAMD64メモリ4GBで、
Samba経由での3GBのファイルのやり取りはできたよ。
606:名無しさん@お腹いっぱい。
08/03/27 14:53:46
>600
4.7GB のエロデータわんさかってのをゲシゲシしようとすると
どうなっちゃうの?
死ぬほど遅いとか? エラー? ぱにっく?
607:名無しさん@お腹いっぱい。
08/03/27 15:11:03
ヨメのマシンにデータが自動転送w
608:名無しさん@お腹いっぱい。
08/03/27 18:22:53
児童バックアップか、いいね!
609:名無しさん@お腹いっぱい。
08/03/27 18:26:05
差分バックアップのやりすぎで年子連続出産
610:名無しさん@お腹いっぱい。
08/03/29 13:54:59
Freebsd amd64で11G積んでるんだが
kmem_sizeを8Gとか1Gより大きくする方法をおしえてくれ
611:名無しさん@お腹いっぱい。
08/03/29 16:26:20
こっちくんな
612:名無しさん@お腹いっぱい。
08/03/30 02:04:53
あんたなんかだいっきらいなんだからね
でも、今回は特別におしえてあげてもよくってよ
ほんと、たったまたま気分がいいだけなんだから
いつもなら、こんな質問にわたしがこたえるわけないでしょ!
613:名無しさん@お腹いっぱい。
08/03/30 16:26:53
きめぇ
614:名無しさん@お腹いっぱい。
08/03/31 23:08:44
結局何も応えてないのかよww
615:名無しさん@お腹いっぱい。
08/03/31 23:16:36
>>610
kmem_size がでかくなると何か幸せなんですか?
kernel + user page table サイズが載ればええもんとちゃいますか?
616:名無しさん@お腹いっぱい。
08/04/06 10:20:44
やっぱりZFSはSolaris10だよね。BSDはいまいち安定していないのかな?
617:名無しさん@お腹いっぱい。
08/04/06 11:02:08
特定のファイルシステムが使いたいから、
それが安定しているOSを選ぶなんて、
そんな時代が来るとは思わなかった。
618:名無しさん@お腹いっぱい。
08/04/06 11:27:17
FreeBSDはgjounalがあるじゃない・・・
と思ったらここはZFSスレなのを忘れていた\(^o^)/
619:名無しさん@お腹いっぱい。
08/04/06 13:04:22
>>617
いや、それほど珍しくないとおもうよ
620:名無しさん@お腹いっぱい。
08/04/06 13:07:55
DBサーバとかなら普通だけど、家庭内サーバだからなあ
621:名無しさん@お腹いっぱい。
08/04/06 16:21:52
用途ごとにOSを選ぶのは、本来あるべき姿だと思う。
特定のOSが好きだから、そのOS上で要件を満足すべく頑張るのもいいことだけど。
622:名無しさん@お腹いっぱい。
08/04/06 16:23:01
WindowsとNTFSが神過ぎてOSを選ぶという行為そのものを忘れてしまったよ。
623:名無しさん@お腹いっぱい。
08/04/06 16:34:22
うんうん、よかったね
624:名無しさん@お腹いっぱい。
08/04/07 13:22:58
もうずっと忘れててもいいよ
625:名無しさん@お腹いっぱい。
08/04/07 22:42:39
>>615
kmem_sizeでデータキャッシュの量が決まっているような感触
たとえば2GBのファイルを2度readすると2度ともディスクアクセスに行く
ffsならそんなことはなくてtopでみているとinactiveが増えfreeが減る
626:名無しさん@お腹いっぱい。
08/04/08 00:25:24
kmem_sizeって(カーネル内の)mallocのための領域決める値でなかったっけ?
ページサイズ以上はどうせちゃんとページアラインされるんだろうけど、
mallocで得た領域をバッファに使ってるって……考えにくいけど……
627:名無しさん@お腹いっぱい。
08/04/08 00:37:18
>>610
過去レス読め。
628:名無しさん@お腹いっぱい。
08/04/08 02:07:07
topはこんな状況になっている
Mem: 611M Active, 154M Inact, 3293M Wired, 73M Cache, 214M Buf, 6788M Free
>>626
ARCというシーケンシャルアクセスにつよいキャッシュアルゴリズムをつかっているらしいので
ページの再利用を自分で管理したいってことじゃないかと想像
Solarisではどうなっているかしらん
>>627
?
629:名無しさん@お腹いっぱい。
08/04/08 17:34:02
Drobo って ZFS 採用臭するよね?
630:名無しさん@お腹いっぱい。
08/04/08 17:55:04
droboはWindowsHomeServerみたいな
既存のファイルシステムとリンクと振り分けアプリでしょ
631:名無しさん@お腹いっぱい。
08/04/08 22:43:53
一応Drobo販売関係者だけどZFSは使ってないよ。
632:名無しさん@お腹いっぱい。
08/04/09 11:08:00
dorobo非ジャーナリング型でも安全とか書いてあるけど
それ系の速度最優先のFSって何があるんだろ。
FAT32は単純な分軽そうではあるが。
633:名無しさん@お腹いっぱい。
08/04/09 11:20:33
他のスレでやれ
634:名無しさん@お腹いっぱい。
08/04/09 13:01:03
Drobo本体は物理ディスクをエミュレートしてるだけで、
内部にファイルシステムは持ってないでしょ。
DroboShareはLinuxなんじゃないかな。
635:名無しさん@お腹いっぱい。
08/04/09 14:28:27
>>628
そんなことして、mmap()とかどうしてるんだろ?とか思ってソース見てみた。
同じファイルにmmap()してる奴がいる場合とそうでない場合で、ちゃんと場合わけして
read/writeの処理してるっぽいwww
で、現状ではたしかにデータの領域はmalloc(9)で確保してるように見える。
vmstat -mだとsolarisの欄で見えることになるのかな。
バッファ以外にいろいろまざってそうだけど。
636:名無しさん@お腹いっぱい。
08/04/10 11:37:42
そう言えば、ZFSベースのNAS製品あったな。唯一?
コアマイクロのNetFiler ZFS
URLリンク(www.cmsinc.co.jp)
637:名無しさん@お腹いっぱい。
08/04/10 13:52:03
もうちょい安いレンジの製品もだれか作ってくらはい
638:名無しさん@お腹いっぱい。
08/04/11 01:55:59
こんな枯れてないFSにデータためて何がしたいのかと
639:名無しさん@お腹いっぱい。
08/04/11 03:20:31
>>638
FAT16にデータをためるのが好きそうだな
640:名無しさん@お腹いっぱい。
08/04/11 08:04:50
NetBSDへのZFS移植が使えるレベルなら...
あーでもメモリの要求が厳しそうだな
641:名無しさん@お腹いっぱい。
08/04/11 08:41:57
あのー... まだ話だけで影も形もないですが...
FreeBSD のこと?
642:名無しさん@お腹いっぱい。
08/04/11 08:42:36
>>638
枯れてないと思わないと精神が不安定になるんですか?ww
643:名無しさん@お腹いっぱい。
08/04/11 08:54:07
ZFSを使ったファイルサーバー作りたいんだけど
やっぱSolarisがいいかな。FreeBSDは過去に使ったことがあって親しんでるからいいかなと思ったけど。
644:名無しさん@お腹いっぱい。
08/04/11 09:58:58
>>643
ぜひFreeBSD+ZFSで人柱になってくれ。
それでダメならSolarisにすればいい。
645:名無しさん@お腹いっぱい。
08/04/11 10:05:48
>>641
つURLリンク(www.olix0r.net)
646:名無しさん@お腹いっぱい。
08/04/11 12:09:25
おー! すげー。compat/opensolaris かよ、うーむ。
これ SoC のやつ? 影くらいはあったか。
647:名無しさん@お腹いっぱい。
08/04/11 12:39:41
基本的にFreeBSDの実装からひっぱってきて、それをNetBSD用に書き変えてる感じ?
648:名無しさん@お腹いっぱい。
08/04/14 22:08:46
SunからSolaris10+ZFSなNASが出ると言う噂があったが。
どうなったんだろう?
649:名無しさん@お腹いっぱい。
08/04/14 22:55:08
どこで聞いた噂なの?
650:名無しさん@お腹いっぱい。
08/04/14 22:58:40
age屋の脳内
651:名無しさん@お腹いっぱい。
08/04/15 00:01:13
OpenSolarisで使えるらしいCIFSのがのるとか、
というお告げが聞こえた(sambaでなく)。
652:名無しさん@お腹いっぱい。
08/04/15 00:06:23
>>651
CIFSを普通にサポートするプロジェクトがあるよね。
653:名無しさん@お腹いっぱい。
08/04/15 09:38:22
>>648
X4500 のことなんじゃないの?
654:名無しさん@お腹いっぱい。
08/04/15 09:39:18
>>652
普通って、どういう意味の普通w?
655:名無しさん@お腹いっぱい。
08/04/15 22:16:07
>>648
Sun
>>652
SXDEにも載っていますね。使った事無いけど。
>>648
本当のNAS。
Procom性能出ないので、作り直します云々。
でも、NetAppと係争中だからリリース無理かも。
656:名無しさん@お腹いっぱい。
08/04/15 22:30:01
>>654
sambaみたいのじゃないてってことなんじゃないかな
657:名無しさん@お腹いっぱい。
08/04/16 09:32:46
つまり Samba のみ普通じゃないという意味? 悪意満載だなww
658:名無しさん@お腹いっぱい。
08/04/16 12:41:03
なにがそこまでsambaに対して過剰反応をさせるのかがわからない。
659:名無しさん@お腹いっぱい。
08/04/16 13:11:52
GPL信者とアンチの骨肉の争い
660:名無しさん@お腹いっぱい。
08/04/16 14:03:46
sambaは仕様が公開されてないプロトコルをパケットダンプして解析して作り込んだり
してる点で微妙に問題があるから、公開されてる仕様だけで普通に作ろうという
話なのでは?
661:名無しさん@お腹いっぱい。
08/04/16 14:17:18
ウソつけ。
662:名無しさん@お腹いっぱい。
08/04/16 14:39:06
BeleniX すげーじゃん。ZFS ルートで導入できるらしい。
663:名無しさん@お腹いっぱい。
08/04/16 15:00:14
>>660
> 公開されてる仕様だけで普通に作ろうという話なのでは?
ちゃんと動きません。特に認証。
664:名無しさん@お腹いっぱい。
08/04/16 15:13:25
>>663
Solaris同士でマウントできればよくて、Windowsとのことは知らね、とかw
665:名無しさん@お腹いっぱい。
08/04/16 15:34:48
Closedなら簡単。
非公開の部分は独自仕様にすればいいから。
666:名無しさん@お腹いっぱい。
08/04/16 20:59:36
Solaris CIFSサービス遅いよ
667:名無しさん@お腹いっぱい。
08/04/17 07:02:00
最近MSがCIFSの仕様をSambaに提供するとかなんとか言ってたよね
668:名無しさん@お腹いっぱい。
08/04/17 08:33:23
EU対策の単なる方便でしょ。
669:名無しさん@お腹いっぱい。
08/04/17 10:25:29
出てるよ。「読む気しない」という反応だけはどっかで見たww
あまりに複雑だと公開しても一緒だという格言誰か作ってくれwww
670:名無しさん@お腹いっぱい。
08/04/17 11:35:44
あまりに複雑過ぎる問題はいくら目の数があっても解決できない
671:名無しさん@お腹いっぱい。
08/04/17 13:35:55
失敗した設計を文書であがなおうとすると、膨大な量に膨れあがった挙句、結局失敗する
672:名無しさん@お腹いっぱい。
08/04/17 14:08:50
長文是糞
673:名無しさん@お腹いっぱい。
08/04/17 22:43:27
zshが最強のシェルであるように
zfsも最強のファイルシステムなんだよな?
674:名無しさん@お腹いっぱい。
08/04/17 22:51:35
そりゃそうだろ。zshの最強度くらいzfsは最強さ。
ところで、俺はbafsが欲しいんだが。
675:名無しさん@お腹いっぱい。
08/04/17 22:57:31
aafsでいいや
676:名無しさん@お腹いっぱい。
08/04/17 23:13:06
tcfs
677:名無しさん@お腹いっぱい。
08/04/17 23:23:56
なにそのヴァカFS…
678:名無しさん@お腹いっぱい。
08/04/18 21:05:56
bafsって、ext2でいいんじゃね?
679:名無しさん@お腹いっぱい。
08/04/18 21:08:18
誰かZFSをWindowsに移植してくれー
680:名無しさん@お腹いっぱい。
08/04/18 23:00:16
Vistaじゃ100%使えんから却下。
681:名無しさん@お腹いっぱい。
08/04/18 23:41:01
iSCSIでマウント汁
682:名無しさん@お腹いっぱい。
08/04/19 22:05:28
FreeBSD 7-stable の zfs に結構更新が入ったみたい…
別スレでは不安定説が出ていますが
683:名無しさん@お腹いっぱい。
08/04/21 15:29:26
一時的に大きな更新が入ったからね。
ただ直ぐに改善するよ。
684:名無しさん@お腹いっぱい。
08/04/21 19:47:40
>>682
もしかしてThe great CDDL file moveのことを言っているのなら
それはファイルが移動しただけ。
>>683
ZFSのコードは年末からほとんど触れられていない。
大きな更新はないし改善もしない。
RELENG_7ではcacheのデフォルトを減らすのとzil_commit()をまめにするようになっただけ。
それも3ヶ月前の話。
もしそれ以上のことを知っているのなら教えて欲しい。
685:名無しさん@お腹いっぱい。
08/04/23 04:40:09
FreeBSD で ZFS を iSCSI Target にしたいんだけど無理?
686:名無しさん@お腹いっぱい。
08/04/23 07:39:31
無理ではないが無謀
687:名無しさん@お腹いっぱい。
08/04/23 12:23:06
ただ頑張れ、と応援したい。
688:名無しさん@お腹いっぱい。
08/04/23 13:47:24
オレが iZFS 開発するからもう少し待て。
689:名無しさん@お腹いっぱい。
08/04/23 21:27:55
じゃあ待つ
690:名無しさん@お腹いっぱい。
08/04/25 20:22:30
URLリンク(wiki.freebsd.org)
メモリ1GBも何に使ってるんだ?
691:名無しさん@お腹いっぱい。
08/04/25 21:29:45
まあ1Gぐらいならいいか…という気分になっていることは確か
692:名無しさん@お腹いっぱい。
08/04/26 00:28:17
サーバ機の1GBはそれほど安くない。
マックス1GBというわけでもないようだし、
メモリ不足でpanicする危険があるようでは
どんなに便利でも使えないではないか。
なぜ使えるメモリの範囲内でやりくりせんのだ。
693:名無しさん@お腹いっぱい。
08/04/26 09:36:16
このレベルやってる人間がそんなことわからんわけないだろw
694:名無しさん@お腹いっぱい。
08/04/26 10:17:23
ZFS使うSolarisにそんな要件はないので、
FreeBSDの実装はまだVMとのインタラクションが不十分なのではなかろうか。
695:名無しさん@お腹いっぱい。
08/04/26 19:07:58
>>694
32bit CPUでsolarisを動かすと発生する。
これに対するsunの対応は「x64使え」なので、
32bit CPUでzfsを使うなら
FreeBSD独自になんとかしなければならない。
696:名無しさん@お腹いっぱい。
08/04/26 23:52:24
fsが管理するメモリなんてcacheが大半だから
足りなくなってもpanicする前にいくらでも逃げようがあるだろう。
と思う俺は素人?
64bit archとメモリ1GBが必要だというなら用意すればいいが、
過負荷時の生存性の低さも潜在してるように思うぞ。
697:名無しさん@お腹いっぱい。
08/04/27 00:05:53
URLリンク(kerneltrap.org)
> "I guess what makes me mad about ZFS is that it's all-or-nothing;
> either it works, or it crashes. It doesn't automatically recognize
> limits and make adjustments or sacrifices when it reaches those
> limits, it just crashes.
698:名無しさん@お腹いっぱい。
08/04/27 02:59:25
>>696
うん素人。オレも素人だけどそれだけは自信あるww
699:名無しさん@お腹いっぱい。
08/05/01 21:54:26
ReiserFSで有名な米国人プログラマー、殺人罪で有罪の評決
URLリンク(www.technobahn.com)
Reiser のスレないみたいだからここに投下しとくか…
700:名無しさん@お腹いっぱい。
08/05/01 21:57:17
ここにはdump/restoreもないfile systemに興味のある人は皆無ですので、
Linux板あたりへどうぞ。
701:名無しさん@お腹いっぱい。
08/05/02 01:01:17
そうそう、あちらさんのファイルシステムって、dump/restoreがないのが
普通ってのがびっくりするよね。
まあpaxとかrsyncががんばってくれればいいと言われれば、ああそうですかって感じだけど。
702:名無しさん@お腹いっぱい。
08/05/02 02:03:41
普通って、reiserだけじゃないの?
703:名無しさん@お腹いっぱい。
08/05/02 02:06:00
しかし、ZFSの対象としている大容量なファイルシステムで、dump/restoreを使うか?
というジレンマもあるがな。
704:名無しさん@お腹いっぱい。
08/05/02 10:12:15
HDDの容量が増えたのなら
HDDにdumpすればいいじゃない
705:名無しさん@お腹いっぱい。
08/05/02 12:03:14
JFSもext2もdumpなかったような
706:名無しさん@お腹いっぱい。
08/05/02 12:54:29
snapshotがないFSでdumpは不整合の元だしな
707:名無しさん@お腹いっぱい。
08/05/02 12:56:12
>>704
あほか。容量の問題じゃなくて所要時間の問題なんだよ。
708:名無しさん@お腹いっぱい。
08/05/02 13:29:16
所要時間が長いのは前提で
その環境で如何に完全なバックアップを成立させるかってことじゃないの?
ZFS は send/receive がその役を担ってるんだよね?
709:名無しさん@お腹いっぱい。
08/05/02 14:10:18
うむ。snapshotあるんだからbackup windowは0だ。
オンラインではbackupする余裕がないのなら、それは資源の問題だ。
710:名無しさん@お腹いっぱい。
08/05/02 14:16:55
そうだよ。
別にLinuxの擁護するつもりはないけど、
dumpって絶対必要なのか?って訊かれれば、No、てことになるわな。
711:名無しさん@お腹いっぱい。
08/05/02 14:26:06
>>707
いやいや。メディア単価の問題でしょ? 世代管理と物理的に別箇所での保管。
712:名無しさん@お腹いっぱい。
08/05/02 14:56:21
>>711
何の話をしているんだ?それがdumpそのものと関係あるか?
713:名無しさん@お腹いっぱい。
08/05/02 15:42:12
tarだのcpioだのpaxだのrsyncだので
バックアップをとった *つもり* になるのは
よくないことだとおもいます。
714:名無しさん@お腹いっぱい。
08/05/02 15:51:27
お前は何を言っているんだ
715:名無しさん@お腹いっぱい。
08/05/02 16:04:45
>>705
LinuxのJFSってdumpできないの?
AIXってmksysbとかbackupとかあったと思うけど
あれはいわゆるdumpとは性格が違うんだっけ?
716:名無しさん@お腹いっぱい。
08/05/02 16:08:38
>>715
それってオンラインでバックアップとれるんでしょ?
つうことは、dumpとは違うんじゃね?
同じようなHP-UXのIgniteもバックアップ部分に関してはtarだし。
717:名無しさん@お腹いっぱい。
08/05/02 16:19:21
tarとかその他って、ハードリンクがちゃんと復元できるかどうか、とても不安にならない?
今どきハードリンクなんて使わねえよなんていう人は氏んでください。
718:名無しさん@お腹いっぱい。
08/05/02 16:55:37
お前は何を言っているんだ
719:名無しさん@お腹いっぱい。
08/05/02 17:16:50
>>717
話飛びまくりだなwwwww
cp -r で不安だから tar 使う、とか昔は言ったもんだ遠い目。
それを言うならホールだろ。
720:名無しさん@お腹いっぱい。
08/05/02 17:19:53
tarじゃあリンク復元完全にいかないことあるんだけど、知らない?
721:名無しさん@お腹いっぱい。
08/05/02 17:20:28
どの tar?
722:名無しさん@お腹いっぱい。
08/05/02 17:36:54
聞いたことないな。
むしろ心配すべきはシンボリックリンクのほうかとw
これも変なオプション付けなきゃ(デフォルトのままで)問題ないし。
723:名無しさん@お腹いっぱい。
08/05/02 17:59:10
「tarで問題ない」というのは
「僕はtarで問題に遭遇するほど場数は踏んでません」という意味だから、
永遠に話は噛み合わないと思うな。
tarも最近の実装なら問題ないと思うよ。検証してないしする気もないけど。
でもdump(zfs send)が使える状況なら、正確さと速度の両面でdumpが勝るのだから、
tarを使う理由はないだろう。
724:名無しさん@お腹いっぱい。
08/05/02 18:10:28
dumpとzfs sendじゃ仕組みが全然違うだろ。
一緒にするなよw
725:名無しさん@お腹いっぱい。
08/05/02 19:14:37
SunOS 4 付属の tar と GNU tar のこと知ってるやつならそう書くだろし。
かじっただけのマタ聞きに認定します今日は終了--
726:名無しさん@お腹いっぱい。
08/05/02 19:22:43
そういや 386BSD の配布は cpio だった。...って脱線しすぎだなww
727:名無しさん@お腹いっぱい。
08/05/02 22:54:50
solaris10でzfsのパフォーマンスをあげたいんだけど
どこかいじれるばしょってありますか?
728:名無しさん@お腹いっぱい。
08/05/03 01:01:00
メモリ増設
729:名無しさん@お腹いっぱい。
08/05/03 01:47:07
plan9はhard linkなしだったな。
On the fly snapshotの実装が複雑になるから。
730:名無しさん@お腹いっぱい。
08/05/03 02:14:56
>>726
386BSDじゃなくってもcpioってふつうによく使うじゃん。
731:名無しさん@お腹いっぱい。
08/05/03 11:56:48
「cpio 良く使う」で出身文化圏がわかる… のは言い過ぎか
732:名無しさん@お腹いっぱい。
08/05/03 16:15:51
ほぼ確実に読めるって事でcpioフォーマットを使ってる事は結構あるん
じゃないのかな。
商用バックアップソリューションのNetVaultもcpioフォーマットって
書いてあったと思うし。
安心感はあるかもね。
733:名無しさん@お腹いっぱい。
08/05/03 19:06:01
cpioを毛嫌いすることもないよ
734:名無しさん@お腹いっぱい。
08/05/03 20:35:47
cpioが嫌われる原因は、tarほど他OSとの互換性が高くないことその一点だろうな。
システムのバックアップとかに使うなら、tarより適している。
735:名無しさん@お腹いっぱい。
08/05/03 21:56:33
cpioはoption名が覚えにくい。
Solarisのパッケージはcpio使ってたな。
736:名無しさん@お腹いっぱい。
08/05/03 23:38:31
>>727
今どういう問題があって、どのような環境で、どういう風にパフォーマンスアップしたいのかしら?
737:名無しさん@お腹いっぱい。
08/05/04 00:13:59
cpio は互換性高いだろ。オプションが覚えにくいのと SysV 方面というイメージが敬遠要因と思うけど。
ま、昔の話だな。
738:名無しさん@お腹いっぱい。
08/05/04 19:36:33
ところで
disk fullになったときにrmでファイルを消せなくなる(かもしれない)というのはFAQですが
そのときの対処方法は?
739:名無しさん@お腹いっぱい。
08/05/05 00:48:48
知らないなあ…
740:名無しさん@お腹いっぱい。
08/05/05 18:06:27
各自が注意してdisk fullにしなければいいだけの話だろう。
あたかもFSの欠陥みたいに大騒ぎしてる奴は一体何が目的なんだ。
741:名無しさん@お腹いっぱい。
08/05/05 18:12:52
なんだそれ
742:名無しさん@お腹いっぱい。
08/05/05 18:16:21
disk fullに注意するのはいいが、なった時にファイルを消さないのは不具合でないの?
743:名無しさん@お腹いっぱい。
08/05/05 19:09:57
>>738
truncate
744:743
08/05/05 19:35:48
発掘した
URLリンク(lists.freebsd.org)
745:名無しさん@お腹いっぱい。
08/05/06 10:48:33
クライアントのIPを指定してsharenfsってどうしたらいいのでしょうか?
746:名無しさん@お腹いっぱい。
08/05/06 18:29:55
ZFSと言うより、shareコマンドのオプションの問題。
747:名無しさん@お腹いっぱい。
08/05/07 01:20:30
>>745
ホスト名にする
or
/255.255.255.255 をつける
748:名無しさん@お腹いっぱい。
08/05/07 20:51:53
ZFS上でMySQL使ってる人っていないかな?
FreeBSD 7.0-RELEASE
MySQL 5.0.51a
で、試してるんだけど、INSERTが
ufs2の上に置いたときと比べて、8倍くらい遅いんだ。
recordsizeは、16kにしてみてる(´・ω・`)
749:名無しさん@お腹いっぱい。
08/05/07 23:28:19
大切な情報を忘れていました。
ディスク3本をraidzで組んでいます。
これから、raidzせずに変わるか試してみるよ!
750:名無しさん@お腹いっぱい。
08/05/08 00:22:01
RAIDの原理的に考えれば、
RDBから書き込むブロックサイズをRAIDのトータルブロックサイズ
にあわせないと、書き込みの度に読み出しが必要になって
遅くなるわな。
ディスク安いんだからRAID1がいいんじゃね。
751:名無しさん@お腹いっぱい。
08/05/08 00:46:50
RAID(のレイヤ)にブロックなんてあるの?
752:名無しさん@お腹いっぱい。
08/05/08 02:37:55
>>746
すみません、shareコマンドの無いFreeBSDユーザは /etc/exports
の形式をそのまま指定すれば良かったみたいです。
zfs set sharenfs='-maproot=root 192.168.0.1 192.168.0.10' tank/src
753:名無しさん@お腹いっぱい。
08/05/08 14:35:10
URLリンク(www.solarisinternals.com)
結論から言えば、database用途にはzfsは向かない。中でもRAID-Zは相性最悪。
754:名無しさん@お腹いっぱい。
08/05/08 16:00:27
容量拡張的には魅力あるんじゃない? 速度的にはともかくとしても。
ヘマしたら悲惨だとは思うがw
755:名無しさん@お腹いっぱい。
08/05/08 16:29:24
まあ、RAWつかえってことだわな。
756:名無しさん@お腹いっぱい。
08/05/08 16:49:31
追記型のPostgreSQLなら、zfsによるパフォーマンスの劣化は少ないかもね。
常にパフォーマンス優先というシチュエーションだけでもないので、
zfsが許容されるなら、recordsizeだけ気をつければいいのかも。
757:名無しさん@お腹いっぱい。
08/05/08 17:16:35
>>753
やっぱそうかw
まさしくRAID-Zで組んで何か遅いと思ったw
開発用DBの一つだから試験的に、と思ってたけどマシン性能に比べて遅いよなぁと思ってた・・・
758:名無しさん@お腹いっぱい。
08/05/08 17:44:57
>>753
DBの上にDB乗っけるようなものだからかなぁ
759:名無しさん@お腹いっぱい。
08/05/08 23:56:54
RDBMS用途では、ファイルシステム云々より、write cacheの有無が
性能を左右するんじゃないかな。
と言う事で、そこそこのwrite cache積んでいるハードウェアRAID上に
ZFS組めば、使えるのでは?
760:名無しさん@お腹いっぱい。
08/05/09 03:03:23
Oracleってzfsの上のソリューション紹介ってやってた記憶があるけど
おすすめってわけじゃないのかなぁ
761:名無しさん@お腹いっぱい。
08/05/09 09:05:35
>>759
正味 write back なとこに DB 置くの? チャレンジャーだな。
762:名無しさん@お腹いっぱい。
08/05/09 09:46:09
>>761
大型ストレージは例外なくWrite Backですw
763:名無しさん@お腹いっぱい。
08/05/09 09:59:13
ディスクキャッシュと言っても、大型ストレージのは普通SRAMだしね。
764:BBWC
08/05/09 13:36:25
えぇぇぇぇぇ~~~
765:名無しさん@お腹いっぱい。
08/05/09 15:38:43
ここに書いてある通りの展開でワラタ
URLリンク(blogs.sun.com)
> Once again, expensive hardware offers a solution: a RAID array can
> buffer partial-stripe writes in NVRAM while it's waiting for the
> disk reads to complete, so the read latency is hidden from the
> user. Of course, this only works until the NVRAM buffer fills up. No
> problem, your storage vendor says! Just shell out even more cash for
> more NVRAM. There's no problem your wallet can't solve.
766:名無しさん@お腹いっぱい。
08/05/10 22:42:48
>>761
外付けのハードウェアRAID装置にDBを格納していない
事の方が驚く。
多くの「重要な」DBはHAクラスタで組んでいると思う。
HAクラスタには共有Diskが必要であり、SAN接続の
ハードウェアRAID装置が主流だ。
こうしたハードウェアRAID装置にはwrite cacheが
ついていると思うんだが、わざわざ殺しているのかい?
767:名無しさん@お腹いっぱい。
08/05/11 01:14:01
>>766
うん。殺してますよ。もちろん。
768:名無しさん@お腹いっぱい。
08/05/11 01:28:27
>>767
HDD のライト・キャッシュは普通に殺すだろうけど、
RAID 装置のまでもか。
つか、バッテリ・バックアップがついてても、なのか?
769:名無しさん@お腹いっぱい。
08/05/11 01:34:37
バッテリつきならwrite (back) cache有効でも
目くじら立てることはないと思う。
770:769
08/05/11 01:37:22
>>769は >>768 への回答みたいになってるけど >>768 は見ずに書いてた。
ってか俺>>768~>>769は6分以上あるのに, その間何やってたんだろう。記憶がない…
誰か俺に不揮発性記憶をくれ。
771:名無しさん@お腹いっぱい。
08/05/11 01:40:33
バッテリ・バックアップのない RAID 装置なんかを
使ってる時点でダメだと思うんだが。w
772:名無しさん@お腹いっぱい。
08/05/11 01:47:20
・DACボードにバックアップバッテリー
・外付けUPS装置
以上2つがあってWriteBackにしてもいいと思う
まぁ、それでも飛ぶときはとぶがな
去年は1Tぐらい飛ぶのみてきたぜ!
俺は保守する人なのでまぁ別にいいんだけど
773:名無しさん@お腹いっぱい。
08/05/11 11:30:52
RAIDカードに信頼性がないんだよ。
一般論として、信頼性をあげるためにハードウェアレイヤを追加
しても、部品点数の増加(による信頼性低下)で大部分相殺されてしまう。
zfsのraid-zと同じ発想で、DBのRAIDによる冗長性確保は
特殊なハードウェアなしにRDBMS自身がやるのが一番望ましい。
774:名無しさん@お腹いっぱい。
08/05/11 11:37:08
RAIDカードて。
それは冗談で言ってるのか?
775:名無しさん@お腹いっぱい。
08/05/11 12:00:16
>>773
SAN 接続の RAID ストレージの話だと思ってみてたんだが
RAIDカードっているのか?
776:名無しさん@お腹いっぱい。
08/05/11 20:40:31
>>773
RAIDというとPromiseのゴミみたいなRAIDカードしか知らない人ですか
777:名無しさん@お腹いっぱい。
08/05/11 22:23:33
NetAppやEMCだってコントローラのトラブルで死ぬときは
死ぬけどな
778:名無しさん@お腹いっぱい
08/05/11 22:35:44
それよりはドライブ吹っ飛んで泣きを見るよりは救いようがあるし
確率も高いから、ということでみんな使ってるんだよな
779:名無しさん@お腹いっぱい。
08/05/13 15:18:11
MySQLって、ストレージエンジンを複数もてるから
ZFSに最適化されたストレージエンジンをSun作ってくれないかな?
そしたら、MySQL+Solarisが使いやすくなる。
780:名無しさん@お腹いっぱい。
08/05/13 15:29:14
当然しないとまずいわな
781:名無しさん@お腹いっぱい。
08/05/13 16:26:18
というか、まだしていないのが不思議だ。
782:名無しさん@お腹いっぱい。
08/05/13 16:56:19
下手に肩入れしすぎると、Oracleと仲が悪くなって困るんじゃね?
783:名無しさん@お腹いっぱい。
08/05/13 17:26:16
そんなのPostgreSQLに手を出す前から仲悪いでしょ。
Oracle 1強という状況はSun的にも嬉しくないはず。
784:名無しさん@お腹いっぱい。
08/05/14 01:40:27
Oracleは自前(笑)のLinuxも持ってるしな。
785:名無しさん@お腹いっぱい。
08/05/14 11:36:23
ClusterwareやASMとかも全く持っておせっかいだしな。
Linuxをメインターゲットにしちゃったせいで必要になったんだろうがw
786:名無しさん@お腹いっぱい。
08/05/14 13:47:18
あんだけハズレ製品連発してんのに儲かってんだよな。不思議でしょうがない。
なんで Oracle なんか買うの? 9割以上 PostgreSQL で十分だろ。
787:名無しさん@お腹いっぱい。
08/05/14 13:55:09
なんでSolarisなんか使うの?(ry
788:名無しさん@お腹いっぱい。
08/05/14 14:14:30
Solaris の代替はないよ。Oracle の代替はほんと特殊な場合除いてありまくり。不要。
789:名無しさん@お腹いっぱい。
08/05/14 14:43:28
Oracle+VERITAS決め打ちの案件があるから
790:名無しさん@お腹いっぱい。
08/05/14 15:41:24
>>789
確かにあるなぁ。
本当にOracleの必要があるのかって思う事もあるけど
Oracleばっかりだと運用も開発もOracle決めうちできて便利といえば便利
なのでまあいいけどね。
791:名無しさん@お腹いっぱい。
08/05/14 16:02:46
>>788
信者としての意見ありがとう。
792:名無しさん@お腹いっぱい。
08/05/14 16:19:40
よく、ネーミングポリシーでOracleに引きずられて
30文字未満というのがある。
いい加減、30byte制限なんとかして欲しい・・・・
余計な手間が増えるんだよ・・・・
あれ?ここOracleスレじゃなかったのか・・・
793:名無しさん@お腹いっぱい。
08/05/18 22:29:11
>>776
RAIDカード使うのはシステムDisk位だろ。
あまりにも予算が限られていたり、どうでも良い用途のサーバには
内蔵Disk 8本位搭載してRAID組んだりするけど。
普通は外付け使う罠。
>>786
開発者や運用側の要請でOracleになる。
DBにMySQLとかPostgreSQLとかSybaseとか、人が集まらん。
多くの技術者は保守的で、勉強する事を嫌がる。仕方ない罠。
794:名無しさん@お腹いっぱい。
08/05/18 23:55:30
>>793
まぁOracle使ってるからって勉強しなくっていいわけじゃないけどね。
バージョンが上がってもだいたい同じカンで使えるのがありがたいっていう部分はあるけど。
795:名無しさん@お腹いっぱい。
08/05/19 02:58:06
URLリンク(blogs.sun.com)
なんじゃこら
796:名無しさん@お腹いっぱい。
08/05/19 07:49:04
リーナスかわゆすなぁ
797:名無しさん@お腹いっぱい。
08/05/19 11:14:14
その気色の悪いしゃべり方をやめてくれ。
798:名無しさん@お腹いっぱい。
08/05/19 20:22:11
仮にしゃべり方に問題があるとしてもだ、
事の本質には何も影響がない。
799:名無しさん@お腹いっぱい。
08/05/19 20:30:19
Linux がダメ、ってことか?
800:名無しさん@お腹いっぱい。
08/05/20 19:52:00
ZFS載らないLinuxなどいらん。
801:名無しさん@お腹いっぱい。
08/05/20 20:43:51
つーか、ファイルシステム全滅って話がww
802:名無しさん@お腹いっぱい。
08/05/21 14:45:23
ストレージを使わなければどうということはない!
803:名無しさん@お腹いっぱい。
08/05/22 11:31:32
なるほど。じゃ、それで。w
804:名無しさん@お腹いっぱい。
08/05/22 11:34:51
全部メモリ空間にリニアにマッピングするんですね
わかります
805:名無しさん@お腹いっぱい。
08/05/24 02:15:35
500GB x8 のRAID-Z組んでsambaで共有したら死ぬほど遅くて泣いた;;
806:名無しさん@お腹いっぱい。
08/05/24 02:25:10
>>805
それはさすがにZFSの問題ではなかろう。
807:名無しさん@お腹いっぱい。
08/05/24 02:32:14
>>806
今切わけちゅ。
CPU利用率 問題なし
ネットワーク利用率問題なし
808:名無しさん@お腹いっぱい。
08/05/24 03:52:42
>>805
zfs set sharesmb=onとかは?
809:名無しさん@お腹いっぱい。
08/05/24 12:11:52
>>808
ほほー。そんなのあるんですね。
しかしながらやってみましたが、状況変わらずといった感じでした。
samba, sharesmb=onの両方で 何パターンか試してみたんですが、
100MB x 100 の転送 → 平均転送速度 30MB/sec
10MB x 1000 の転送 → 平均転送速度 10MB/sec
1MB x 10000 の転送 → 平均転送速度 0.8MB/sec
0.1MB x100000 の転送 → 平均転送速度 0.1MB/sec
どうもファイルが小さく、細かくなるほど遅くなるようです。
NAME STATE READ WRITE CKSUM
sharepool ONLINE 0 0 0
raidz1 ONLINE 0 0 0
c2t0d0 ONLINE 0 0 0
c2t1d0 ONLINE 0 0 0
c3t0d0 ONLINE 0 0 0
c3t1d0 ONLINE 0 0 0
c4t0d0 ONLINE 0 0 0
c4t1d0 ONLINE 0 0 0
シングルのufs領域をsambaで共有してためしたところ、
0.1MB x100000 の転送 → 平均転送速度 14MB/sec
でした。
うーむ。
810:名無しさん@お腹いっぱい。
08/05/24 13:33:09
CIFS servicesとsambaで同じようなパフォーマンスってことは
実はローカルアクセスでも同じなんじゃね?
811:名無しさん@お腹いっぱい。
08/05/24 13:59:08
ZFSでHDD3台のRAID-XでWebサーバー作る予定
しかも慣れてるからと言う理由でFreeBSD7
がんばります
812:名無しさん@お腹いっぱい。
08/05/24 15:01:54
RAID-XじゃなくてRAID-Zだった
先行き不安だ
813:名無しさん@お腹いっぱい。
08/05/24 19:52:14
>>809 興味深い実験だなあ。
その後何か分かったらまた報告よろ。
814:名無しさん@お腹いっぱい。
08/05/25 02:12:47
うーん、FreeBSD 7-STABLE amd64でメモリ4GBつんでるんだけど
1GBのファイルを
$ cat test > /dev/null
みたいにやると、UFS上だと2回目は1秒で終わるけど
ZFS上だと何回やってもHDDにアクセスして15秒ぐらいかかる
キャッシュしてくれないのかな
815:名無しさん@お腹いっぱい。
08/05/25 13:37:07
>>809
面白い結果ですねえ・・・・
ちなみにOSはSX[CD]Eですか?生Solaris?
小さいファイルほど遅いのはditto blockが効いてるからなのかな?
全然、関係ないですが、compression=onでアホみたいに速くなることがありますよ。
816:名無しさん@お腹いっぱい。
08/05/26 01:38:53
初歩的な話で申し訳ないが
solaris10でzpoolでcreateした場合そのままマウントされてファイルシステムとして使用できるけど
zfs create erocg/紐パンツ
zfs create erocg/縞々パンツ
zfs create erocg/純白パンツ
とzfsで分けたほうが、ファイル大量になってもフラグメンテーションおきにくかったり
アクセスが遅くなりにくいとか利点ってありますか?
817:名無しさん@お腹いっぱい。
08/05/26 01:51:48
>>816
紐パンツと、縞々パンツと、純白パンツと、黒レースのパンツで、
それぞれパラメタを変えられるというメリットはありますよ。
zfs get all プール名
で、どんなのが設定できるか見てみると良いですよ。
818:名無しさん@お腹いっぱい。
08/05/26 14:29:57
純白パンツだけcompression=onでアホみたいに速くなったりとか?
819:名無しさん@お腹いっぱい。
08/05/26 14:52:30
世界のZFSアツか
820:名無しさん@お腹いっぱい。
08/05/26 15:20:08
>>818
黒レース以外は圧縮率高そうだな。
俺は、バックアップ単位を分ける観点から、分けてるかな。タンスを・・・
い、いや、普通にファイルのバックアップです。
821:名無しさん@お腹いっぱい。
08/05/26 15:29:59
erocg/紐パンツ 内でのファイルの移動は大きさに関係なく一瞬で終わるけど
erocg/紐パンツ から erocg/純白パンツ への移動はコピーになっちゃうんだよね
どうせ場所は共有してるんだからなんとかならないのかな
822:名無しさん@お腹いっぱい。
08/05/26 15:41:35
>>821
それこそフラグメントのもとじゃないか
823:名無しさん@お腹いっぱい。
08/05/26 20:22:35
ZFSとはまったく関係ないのだが、
縞パンでかつ紐パンの場合はどちらに分類されるんだろう?
ハードリンクとかでどうにかするのか?
824:名無しさん@お腹いっぱい。
08/05/26 21:39:58
>>823
んーよくわからんな。
絵で頼む。
825:名無しさん@お腹いっぱい。
08/05/26 22:41:35
紐縞パン
826:名無しさん@お腹いっぱい。
08/05/26 23:57:14
紐パンスレからみつけてきました、こうですか?
わかりません><
URLリンク(mio.servequake.com)
827:名無しさん@お腹いっぱい。
08/05/27 02:46:49
zfs的にはですね。
zfs snapshot erocg/紐パン@今はらりと落ちる瞬間
zfs clone erocg/紐パン2
と、cloneできるわけです。
「紐パン@今はらりと落ちる瞬間」と、「紐パン2」には依存関係があるのですが、
このときの「紐パン2」がアクセスされて、どうなるか?
技術的に興味深いと思いませんか?
828:名無しさん@お腹いっぱい。
08/05/27 22:17:27
zfsは色々と便利なんだぜ
ある一定以上おおきくしたくないときなんかは
zfs set quota=72cm movie/chihaya
ってやればOKだ
829:名無しさん@お腹いっぱい。
08/05/27 23:09:55
>>828
こんなところで、B72を見るとは思わなかったw
830:名無しさん@お腹いっぱい。
08/05/27 23:58:38
zfsって/に使えないのか
831:名無しさん@お腹いっぱい。
08/05/28 00:20:25
>>830
SX[CD]Eでは、Nevada89からつかえるようになって、
OpenSolaris 2008.05でも使える。
SolarisではU6からではないかという話ですよ。
832:名無しさん@お腹いっぱい。
08/05/28 00:34:06
色々とありがとうございました。
とりあえず erocg/純白パンツ
zfs set compresson=on erocg/純白パンツ
とやって、80GBほどのPNG(ファイル数で6万ちょっと)をコピーしてみたところ
開き領域が18Gほど増えました!!
クライアントのwindowsからACD SEEで見ても圧縮を感じさせない速度・・逆に早くなってる?
で大変満足しております。
833:名無しさん@お腹いっぱい。
08/05/28 01:17:44
>>831
ありがとう!
834:名無しさん@お腹いっぱい。
08/05/28 01:18:04
URLリンク(blog.ninth-nine.com)
835:814
08/05/28 01:22:48
キャッシュするメモリの場所が違うんですね。
上のほうで既出でした。サーセン。
カーネルメモリを1.5GBまで大きくしました。
本当は3GBにしたかったんですが、出来ない模様。AMD64なのに。
スレリンク(unix板:886番)
4GBの目的はディスクキャッシュだったんで
ちょっと失望ですが、experimentalだと言ってるし、
イヤならおとなしくSolaris使えってことですね。
836:名無しさん@お腹いっぱい。
08/05/28 03:55:07
とりあえずマカは地獄へ堕ちろ
今日は最悪の日だ
837:名無しさん@お腹いっぱい。
08/05/30 01:27:02
>>832
compressionにはいろんなオプションがあるけど
デフォルトのが割とCPUパワーを喰わないので良いと思う。
一概には言えないけど、場合によってはIOwaitの長さによっては、
compressionの方が速いときもあるよ。
いまはコアが複数あったりしますしね。
>>833
いえいえ。
私もただのウォッチャーですから。
838:名無しさん@お腹いっぱい。
08/06/02 01:29:10
raidz 3台構成から4台構成に変える方法ってないですか?
839:名無しさん@お腹いっぱい。
08/06/02 16:15:03
>>835
いまは、CDブートのOpenSolarisがあるから、それでzpool importしてみて、
メリットが享受できるか試しにやってみるのもいいかもしれませんね。
あれ、CDブートのOpenSolarisって、LiveCDは64bitになったかなぁ(汗
840:名無しさん@お腹いっぱい。
08/06/02 17:02:02
>>838
バックアップ->再構築->リストア
841:名無しさん@お腹いっぱい。
08/06/02 23:34:30
年中無休発狂妄想爆裂憤死寸前粘着真性キチガイ包茎池沼病気猿男(狂猿)◆QfF6cO2gD6による気違いカキコの続き:
リナックスデスクトップ画像 Part19
スレリンク(linux板:163番)
163 名前:login:Penguin[sage] 投稿日:2008/06/02(月) 18:40:08 ID:NHwjZMfE
FreeBSDスレにいたキチガイじゃ!!
初心者もOK! FreeBSD質問スレッド その95
スレリンク(unix板:793番)
793 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2008/06/02(月) 18:41:54
このkitty guyは、ここより大人しいがLinux板にもいるぞw
アク禁にならないのが不思議w
795 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2008/06/02(月) 18:53:54
やはり本人だったかw
797 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2008/06/02(月) 18:55:10
特徴ありすぎて他板でもすぐにわかるな彼 かわいい
なんも知らないLinuxについて教えてのスレ
スレリンク(os板:67番)
67 名前:Be名無しさん[sage] 投稿日:2008/05/30(金) 18:29:07
某基地害猿みたいな奴はどこにでもいるんだな
--------------------------------------------------------------------------------------------
UNIX板のあちこちのスレッドを荒らしている凶悪メンヘラ・真性キチガイ猿粘着◆QfF6cO2gD6。
いつも荒らしを憎むようなレスをするが、実際に荒らしているのは自分。
気色の悪い年中無休発狂粘着真性キチガイ包茎池沼病気猿男(狂猿)◆QfF6cO2gD6があちこちのスレに
遂に理解できないような基地害カキコをし始めた!気持ちが悪い…。
842:名無しさん@お腹いっぱい。
08/06/05 20:31:46
SunのSSDはSolarisとZFS統合、2008年後半リリース
URLリンク(www.itmedia.co.jp)
SSDはI/Oスケジューリングとか最適化するといいかもね。
HDDはシークタイムを考慮して連続したデータを要求するようになってるだろうけど、
SSDは同時平均に要求を出した方がいいんじゃないだろうか?
843:名無しさん@お腹いっぱい。
08/06/08 01:58:48
38 名前:Socket774[] 投稿日:2008/05/27(火) 16:35:47 ID:lxql7ft1
知り合いに「女ヶ沢」(メガさわ)という人がいる。
その上を行く「ギガ沢」なんていないだろうか、いるわけないじゃん、
なんて冗談を言い合っていた相手が、寺沢くんだった
844:名無しさん@お腹いっぱい。
08/06/08 12:03:27
ギガさんはいるよ(字は良く知らないけどニホンジン)
845:名無しさん@お腹いっぱい。
08/06/09 12:06:41
つ儀賀
つ儀俄
つ儀我
つ儀峨
ギガ沢はいないようだ
846:名無しさん@お腹いっぱい。
08/06/09 13:04:40
ぜったさんはいねがぁ?
是田 とか(そうは読めないか…)
847:名無しさん@お腹いっぱい。
08/06/10 11:26:17
辺田さん...
848:名無しさん@お腹いっぱい。
08/06/10 16:46:21
最上位は茱萸さんで間違いなかろう
ゼタ→ヨタ→チシ→グミ
849:名無しさん@お腹いっぱい。
08/06/10 17:41:52
Mac OS X 10.6 Snow Leopard ServerでZFSサポートするみたい
850:名無しさん@お腹いっぱい。
08/06/10 18:35:37
>>849
いままでAppleはいっしょうけんめいSunのソースを読みながら移植作業をやってたんだね。
851:名無しさん@お腹いっぱい。
08/06/10 23:44:24
Appleの場合jobsが「やれ」って言うと3ヶ月もしないうちにマイクロ
カーネルのOSがモノリシックに書き換わっているって噂が...
852:名無しさん@お腹いっぱい。
08/06/11 01:31:28
Appleの開発陣は、それが可能なほど能力がある訳でもないし人もいないぞ
853:名無しさん@お腹いっぱい。
08/06/11 02:12:50
んだ。
ライブラリ群の保守とアプリ開発で手一杯だ。
854:名無しさん@お腹いっぱい。
08/06/11 03:11:11
>>849
果たしてZFSからのブートに対応するのかどうか。
Intel MacはBIOSじゃなく、EFI使ってるわけだから、
割と簡単に対応できるとは思うけど。
855:名無しさん@お腹いっぱい。
08/06/11 04:36:18
>>851
kernelは延々とMachベースのMKとBSDサーバやん。kernelをまったく新規に
開発するつもりなんてないし、その能力もない。
モノリシックにするのなら、新規に開発するよかLinuxなりSolarisの上に
CocoaだのCarbonだののAPI移植したほうがずっと早いだろうな。
856:名無しさん@お腹いっぱい。
08/06/11 07:17:10
というかDarwinはモノリシックカーネルですよ。
BSDサーバじゃなくて、カーネル埋め込みのBSD機能。
基本です。
英語版wikipediaは、hybrid kernelと称していますが、
BSD部分についてはモノリシック構造です。
Window Server等がサービスサーバになっている。
857:名無しさん@お腹いっぱい。
08/06/11 11:11:31
Solaris にすげかえたら ZFS がもれなく付いてきます。
858:名無しさん@お腹いっぱい。
08/06/11 12:55:17
DTraceも付いてくるな。
ついでだから、SolarisにCocoaを移植してくれたらもっと幸せ。
あれ?SolarisとMacOSXの違いが・・・
859:名無しさん@お腹いっぱい。
08/06/11 13:41:12
かつてはOPENstep for Solarisなんてあったしねぇ。
あのときはmachのイベント処理だっけ?(ダメだアルツすぎる)をエミュレートするのがついてたんだっけか?
860:名無しさん@お腹いっぱい。
08/06/11 13:52:34
いま(の Solaris10)でも動きそうな気がするが。だれか持ってないのか?w
861:名無しさん@お腹いっぱい。
08/06/11 13:53:31
ポートとメッセージです。
DarwinやMac OS Xのアプリは、
BSDインターフェースにはないポートやメッセージを直接使ってますが、
仮想記憶のフックは全く使っておらず、
サービスサーバでOSを実装しているとは言いがたい状態です。
だからZFSをモノリシックカーネルにポーティングする手間と変らないはずです。
Darwinへのポーティングは。
862:名無しさん@お腹いっぱい。
08/06/11 13:55:02
>>858
GNUstep は? ダメ?w
863:名無しさん@お腹いっぱい。
08/06/11 14:16:47
>>861
アプリが「仮想記憶のフック」を使っていないと
「サービスサーバでOSを実装している」ことにならない、さらに
「だからZFSをモノリシックカーネルにポーティングする手間と変らない」
????? まったく意味分らんww
864:名無しさん@お腹いっぱい。
08/06/11 14:17:20
>>850
SPARCで32bit用のバイナリで配布してたようなかすかな記憶(笑)
壊れるまでそのためだけにSS10を使ってたかもしれない(w
865:名無しさん@お腹いっぱい。
08/06/11 15:02:56
自分は理解できたが、マイクロカーネルなMachでのOS構成法を知ってないと
理解できないとは思う
866:名無しさん@お腹いっぱい。
08/06/11 17:40:22
よく知らんが、マイクロカーネルとBSDはきれいに分離されているが、プロセスとしては分離はされていないで
マイクロカーネルとBSD間が単純な関数呼び出しで速い、みたいなことじゃないの?
867:名無しさん@お腹いっぱい。
08/06/11 19:40:06
>>814
FreeBSD 7.0-RELEASE amd64で、メモリ8GB積んだヤツで試してみたよ。
FreeBSDのWikiの設定を適用した状態で、1GBのファイルをcatでnullに捨ててみたけれど、
こっちでは、2回目がちょっと短くなって、3回目で2秒前後にで、その後安定って感じでした。
868:名無しさん@お腹いっぱい。
08/06/11 19:44:09
話は変るが。
最近「縞パン」の出番が少なくて寂しいんだが・・・
869:名無しさん@お腹いっぱい。
08/06/11 21:15:36
>>865
いちおーオレも Mach の構造的な話はタネンバウム本とか Unix Magazine の
特集記事とかで知ってはいるんだけど。よかったらそういう相手想定で
10行くらいで説明してみてくんない?
870:名無しさん@お腹いっぱい。
08/06/13 16:57:52
ZFSってデータ化けしてても検出してくれて、mirrorかraidzなら自動修復までしてくれるじゃん。
エラー検出と修復って普通の(?)ハードウェアRAIDにも備わってる?
もしそういう製品が珍しいなら、知り合いにZFS奨めようかなと思って…。
俺自身はお金ないからハードウェアRAIDなんて使ったことないです。
871:名無しさん@お腹いっぱい。
08/06/13 19:36:55
「ちゃんとしたRAID」はバックグラウンドで
比較処理とかするけどチープなのはやってくれない
もっとも
> お金ない
ならば別に気にする必要もないがね…
872:名無しさん@お腹いっぱい。
08/06/13 19:44:15
>>870
ZFSみたいなのは世の中に無い。
理論的には、ハードやドライバのBugがあってもエラーを検知
出来るんだから。
まともなメーカのハードウェアRAID、例えば、EMC CX3なんかだと
Checksumでエラーは拾ってくれる。でも修復は出来ない。
また、Bugがあったりすれば、データ化けを検知する事は出来ない。
Checksum自体の大きさも全然違う。
8KByteと128KByteの差。
ファイルシステムの中にあるデータの信頼性が保証出来るのは
ZFSだけだよ。
873:名無しさん@お腹いっぱい。
08/06/13 19:56:08
ZFSがWindowsやLinuxで常用出来るようになるのはいつですか
874:名無しさん@お腹いっぱい。
08/06/13 19:59:52
Linuxなら再来年ぐらい?
Windowsには来ません
875:名無しさん@お腹いっぱい。
08/06/13 20:30:11
ZFS は POSIX になって ZFS 動かん OS は UNIX じゃなくなります。
876:名無しさん@お腹いっぱい。
08/06/13 22:07:43
>>873
LinuxだとFUSEとかで使わないとライセンスが問題って
今のところだっけ?
877:名無しさん@お腹いっぱい。
08/06/13 22:29:16
ZFSつかいたくなればライセンス変えるだろ
878:名無しさん@お腹いっぱい。
08/06/13 23:32:57
Solaris10をZFSで使ってて、そいつをAcronisTrueImageでイメージバックアップとか、
ディスクごとコピーとかってできる?
879:名無しさん@お腹いっぱい。
08/06/13 23:36:52
そんなことする意味ってあるか?
何のための設定よ
880:名無しさん@お腹いっぱい。
08/06/14 00:22:35
>878
できると思うけどやってみてw
881:名無しさん@お腹いっぱい。
08/06/14 00:37:31
>>878
出来る
いってみよ
882:名無しさん@お腹いっぱい。
08/06/14 07:09:30
RAID5なら修復はできるが、
ZFSの柔軟性にはかなわない。
883:名無しさん@お腹いっぱい。
08/06/14 08:51:27
最新のOpenSolarisでZFSのランダムI/O性能測った奴いる?
Oracleは遅いと聞いているけど、write cacheがあれば使える
と思うんだ。
Cache付きのHW RAIDの上で単純ストライプしたZFSとか。
一番良さそうなのは、1シェルフのHW RAID筐体を複数台
用意して、ZFSでストライプするとか。
884:名無しさん@お腹いっぱい。
08/06/14 09:49:26
>>883
>ストライプする
縞々ですね? わかります。
885:名無しさん@お腹いっぱい。
08/06/14 11:53:34
ataドライバが不調でdmaエラーが頻発してpanicしたら/var/log/messagesが読めなくなった。
3本でRAIDZしてたんだけどすべてでチェックサムエラー。
zpool status -vで壊れたファイルのパスがでるのはうれしいが
ドライバのバグに対してのFTはないね。
886:名無しさん@お腹いっぱい。
08/06/14 13:35:50
ドライバの違う2枚のHBAにまたがってミラー組むとより安全てわけか
887:名無しさん@お腹いっぱい。
08/06/14 13:58:48
さすが馬糞クオリティw
888:名無しさん@お腹いっぱい。
08/06/14 14:09:20
ソフトウェアであって、システムじゃないからね。そこんとこ理解して使わなきゃ。
システムが欲しいんならシステムになったもん買ってきなさい、ただそんだけのこと。
>>887
あわれなやつ。
889:814
08/06/14 15:00:19
FreeBSDの話題ですまんが、カーネルメモリを大きく出来るようになるパッチが!
URLリンク(lists.freebsd.org)
これCurrent用だけど、7-STABLEに適用して3.5GBまで大きくしました。
パッチが1箇所失敗するけどソース見比べれば簡単に適用できます。
ZFSには2.8GBぐらいまでしか使ってくれてないように見えますが、
まあ1.5GBからだいぶ進歩したのでうれしいです。
890:名無しさん@お腹いっぱい。
08/06/14 15:00:27
>>887
どうでもいい。キチガイ猿粘着ニート妄想猿(笑)はとっとと発狂してビルから飛び降りて自殺して死ね死ね死ね死ね死ね死ね、マジでとっとと発狂してビルから飛び降りて自殺して死ね死ね(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)wwwwwwwwwwwww
891:名無しさん@お腹いっぱい。
08/06/14 15:32:25
発狂乙
今のところZFSを気軽に試せる環境はOpenSolarisだけ?
892:名無しさん@お腹いっぱい。
08/06/14 15:57:34
>>891
何が発狂乙だwwww発狂しているのはお前じゃ気違い、とっとと今すぐに自殺して死ねやwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww
いつまでこういう真性のヤバイ発狂攪乱猿(笑)妄想攪乱発狂基地外ニート猿(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)(笑)が粘着しているんだよ、早く真性の粘着キチガイはとっとと自殺して死ねwwwwww
こういう救いようのない真性のキチガイはとっとと今すぐに、マジで自殺して死ね死ね死ね死ね(笑)(笑)(笑)(笑)(笑)wwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww
893:名無しさん@お腹いっぱい。
08/06/14 16:10:39
ID出せばいいのになぁ。
894:名無しさん@お腹いっぱい。
08/06/14 16:13:01
>>893
(゚Д゚)ハァ?どうでもいいんだよカス。今すぐにマジでとっとと早く死ね、こういう真性のヤバイ発狂攪乱猿(笑)妄想攪乱発狂基地外ニート猿(笑)(笑)は。
こういう真性のヤバイ発狂攪乱猿(笑)妄想攪乱発狂基地外ニート猿(笑)(笑)はとっとと発狂してビルから飛び降りて自殺して死ね死ね死ね死ね死ね死ね死ね死ね死ね死ね死ね死ね死ねwwwwwwwwwwwwwwwwwwwwwww
いつまで粘着してるんだよキチガイ猿粘着ニート妄想猿(笑)、今すぐに、 とっとと発狂してビルから飛び降りて自殺して死 ね よ wwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww
895:名無しさん@お腹いっぱい。
08/06/14 16:18:58
>>891
FreeBSDで気軽に試してます。
最近のマザーボードは標準でRAID使えたりするのが多いので
zfsを使う楽しみが半減させられます(笑)
896:名無しさん@お腹いっぱい。
08/06/14 16:19:12
楽しそうな基地外が沸いてますね。
もっとやってー。
897:名無しさん@お腹いっぱい。
08/06/14 16:22:48
>>896
全然楽しくねーよwwwwこれで楽しいとか思っているならお前が真性の基地外な証拠だ、とっとと今すぐに発狂して自殺して死ねwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww
とっとと発狂してビルから飛び降りて自殺して死ね、こういう真性のヤバイ発狂攪乱猿(笑)妄想攪乱発狂基地外ニート猿(笑)(笑)はwwww
いつまで粘着しているんだよ年中無休発狂粘着真性キチガイ包茎池沼病気猿男(狂猿)◆QfF6cO2gD6、とっとと発狂してビルから飛び降りて自殺して死ねよwwwwwwwwwwwwwww
こうやってきも行き違いかきこばっかりしている基地外なら今すぐにとっとと自殺してとっとと発狂してビルから飛び降りて自殺して死ね死ね死ね死ね死ね死ね死ねマジでとっとと死ね(笑)(笑)(笑)(笑)(笑)(笑)(笑)wwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww
898:名無しさん@お腹いっぱい。
08/06/14 16:23:09
>>896
どうでもいいんだよカス、今すぐにとっとと自殺して今すぐに死ねやwww
899:名無しさん@お腹いっぱい。
08/06/14 16:26:03
>>895
なるほど。FreeBSDでもZFSを試せるんですね。
興味があったので試してみることにします。
900:名無しさん@お腹いっぱい。
08/06/14 16:46:00
確かに標準でRAIDが付いてるのは多いけど、ソフトウェアRAIDだしなあ。
ソフトウェアのRAID5は危険らしいし。
901:名無しさん@お腹いっぱい。
08/06/14 17:46:53
>>899
メモリがたくさんいるらしいけど。
902:名無しさん@お腹いっぱい。
08/06/15 02:29:29
>>900
危険じゃないぞ。遅いけど。
903:名無しさん@お腹いっぱい。
08/06/17 23:39:30
久々にlinuxサーバたてる必要があったんだけど
コスト重視でIDEx3のソフトRAID5のファイルサーバ
最近zfsしか触ってなかったのでディスクのmdraidの構築が途中でいやになったorz
ユーザー納品なんでsolarisにしましょうとはいえんし
早いところlinuxみzfsつかえるようになってくれ
904:名無しさん@お腹いっぱい。
08/06/17 23:56:50
無理無理
905:名無しさん@お腹いっぱい。
08/06/18 00:02:54
ZFSをクリーンルーム方式でGPLで実装するのだ!
906:名無しさん@お腹いっぱい。
08/06/18 00:22:56
勝手にコードを盗んでGPLで配布すりゃOKだろ
文句言われたら別の名前で再実装
907:名無しさん@お腹いっぱい。
08/06/18 06:38:15
なんだいつもの方法か
908:名無しさん@お腹いっぱい。
08/06/18 09:25:11
>>903
ユーザー納品だからこそ Solaris にしましょう。
909:名無しさん@お腹いっぱい。
08/06/18 21:08:29
>>903
ソフトRAID5って死ぬほど遅くない?
SunのSVMやVERITASのVMは死ぬほど遅いんだな。
だからこそZFSのRAID-ZやZ2が光っているわけだが。
Linuxだとそこそこ使えるものなの?
910:名無しさん@お腹いっぱい。
08/06/18 22:40:34
いや、そんなに遅くはないぞ
くさっても最近のマシンでdualcoreとかだと全然へっちゃらだと思う
ファイルサーバなんで、smb以外仕事してないしね
911:名無しさん@お腹いっぱい。
08/06/19 01:22:09
使ったことないから知らないけど、さすがにTeraStationのウンコRAID5ほど遅くはないんだろうな
912:名無しさん@お腹いっぱい。
08/06/19 09:30:03
底辺の世界と比べる必要はないだろ
913:名無しさん@お腹いっぱい。
08/06/19 10:18:50
非常用電源のついてないNFSサーバは、
NFSの仕様上、遅くて当たり前。
914:名無しさん@お腹いっぱい。
08/06/19 11:11:48
それはまた別の話だな。同期動作だからこそ足周りの性能がモロに効いてくる。
この場合、RAIDコントローラーから先が「足周り」にあたるから。
そこが速けりゃ体感も速い。
そもそもキャッシュが効きにくい使い方だってあり得るし。
915:名無しさん@お腹いっぱい。
08/06/19 11:50:21
下のレイヤーが効いてくるのは、負荷が高い時。
不揮発メモリ+非常用電源+ロギングは、軽い時に劇速。
916:名無しさん@お腹いっぱい。
08/06/21 09:33:36
zfs create IO画像/パンツ
zfs set compress=on IO画像/パンツ
とやって、windowsで
IO画像をZドライブとしてマウント
IO画像/縞々フォルダーをIO画像/パンツに移動させると
よくエクスプローラが固まるんだけど
圧縮する場合は別のドライブになるようにふりわけたほうがいいんかな?
917:名無しさん@お腹いっぱい。
08/06/21 10:39:52
パンツが臭いからじゃないか?
918:名無しさん@お腹いっぱい。
08/06/21 13:48:44
縞々が無いからだと思います。
919:名無しさん@お腹いっぱい。
08/06/21 13:48:55
windowsでzfsが使えるようになったの?
920:名無しさん@お腹いっぱい。
08/06/21 14:33:15
Λ_Λ
◯( ´∀` )◯ 水色のしましま!
\ /
|⌒I、│
(_) ノ
∪
921:名無しさん@お腹いっぱい。
08/06/21 14:44:34
♂用か♀用かで価値がかなり変わります
922:名無しさん@お腹いっぱい。
08/06/23 07:41:55
>>916
その画像がないことには答えられないな。
923:名無しさん@お腹いっぱい。
08/06/23 08:02:41
_ lll _
(_ \__/_ )
\ /
/ \ ┌──────
◯( 、A , )◯ < 水色のしましま!
∨ ̄∨ └──────
924:名無しさん@お腹いっぱい。
08/06/24 17:27:43
いやぁー、腰が折れたねぇwwww