[次世代] ZFS [ファイルシステム]at UNIX
[次世代] ZFS [ファイルシステム] - 暇つぶし2ch262:名無しさん@お腹いっぱい。
06/05/26 05:21:03
ZGMF-X19A

263:名無しさん@お腹いっぱい。
06/05/26 21:14:10
>>262
GM乙。

264:名無しさん@お腹いっぱい。
06/06/01 00:33:32
ZFS 正式リリース月間到来

265:名無しさん@お腹いっぱい。
06/06/01 16:21:54
今月は Z 月間とします。なるべく製品名に Z のついた商品を使いましょう。政府広告。

266:名無しさん@お腹いっぱい。
06/06/02 07:09:33
ZFS filesytem for FUSE/Linux age

267:名無しさん@お腹いっぱい。
06/06/13 14:03:06
6 月もタケナワですが、06/06 はまだでしょうか?

268:名無しさん@お腹いっぱい。
06/06/13 15:14:15
きみは刻の涙をみる


269:名無しさん@お腹いっぱい。
06/06/13 15:58:47
きざみのなみだ? タマネギ??

270:名無しさん@お腹いっぱい。
06/06/13 16:20:50
ZZFSはまだでしょうか?

271:名無しさん@お腹いっぱい。
06/06/14 00:17:28
直リンすればダウンロードでk

272:名無しさん@お腹いっぱい。
06/06/21 20:27:41
ZFS化のためにテメェのHDDをもっかいフォーマットするに足る10の理由

ZFS: Ten reasons to reformat your hard drives
URLリンク(www.tech-recipes.com)

from : Digg
URLリンク(digg.com)

273:名無しさん@お腹いっぱい。
06/06/21 23:56:48
でも俺のマシンって/一本切りだから
ZFSにしちゃうとブートできなくなるんだよな

274:名無しさん@お腹いっぱい。
06/06/22 07:35:05
あー、nevadaのいくつか忘れたけど、
zfs /からブートできるようになったやつは、
6/06には入ってないんですよね。

275:名無しさん@お腹いっぱい。
06/06/22 17:28:03
あれは ZFS の他にパーティションも必要だし、かなり強引なやり方での実現で、
取り込まれてないでしょ?

276:名無しさん@お腹いっぱい。
06/06/22 22:54:59
6/06ダウンロードまだー?

277:名無しさん@お腹いっぱい。
06/06/23 00:25:29
6/06とは、2006年6月ではなく、2007年6月06日のことだったんだよ!

278:名無しさん@お腹いっぱい。
06/06/23 01:03:18
6月31日まであきらめてはいけない!


279:名無しさん@お腹いっぱい。
06/06/23 12:46:31
6/20のプレスリリースに
availability todayって書いてあるんだけど、
ダウンロードするところだと、まだcoming soonって書いてある。

280:名無しさん@お腹いっぱい。
06/06/23 13:36:42
June 26, 2006 って書いてあるね。

281:名無しさん@お腹いっぱい。
06/06/26 15:25:31
今日だな。米西部時間か?

282:名無しさん@お腹いっぱい。
06/06/27 01:09:53
6/06 出てる。けど、x86 だけ。SPARC 版はなぜかリンク切れ...

283:名無しさん@お腹いっぱい。
06/06/27 01:18:21
キターーーーーーーーーーーーーーーー

284:名無しさん@お腹いっぱい。
06/06/27 01:23:51
>>282
リンクの URL に '?' が足りんかった。ただいま SPARC 版ダウンロード中。
ウキキーw

285:名無しさん@お腹いっぱい。
06/06/27 12:37:06
やっとこのスレの出番がやってきました!
使ってみた方、感想とかよろです!

286:名無しさん@お腹いっぱい。
06/06/28 01:18:43
お前も使ってみろって > 285
おれはSUNWrealplayerというパッケージにびくーりしたよw

287:名無しさん@お腹いっぱい。
06/06/28 01:41:58
よしっ、じゃあ、これから先は一度 ZFS パーティションに保存したもの以外
投稿ダメ、ってことにしよう。

288:名無しさん@お腹いっぱい。
06/06/28 02:15:36
ZFS にインストールしたブラウザからのカキコはダメでつか?

289:名無しさん@お腹いっぱい。
06/06/28 12:40:52
URLリンク(sunos.saita.ma)

290:名無しさん@お腹いっぱい。
06/06/28 16:30:45
SPARC Solaris10 6/06いんすこしてraid-z領域作ってみた。
zpool iostat -vやらdf, du で見えるサイズってパリティの容量も
含めた形で表示されるのね。

ぱっと見で実際に使える空き容量が見えないのはちょっと不便かも

291:名無しさん@お腹いっぱい。
06/06/28 19:06:38
とりあえずbonnie++-1.03aでベンチってみたので結果貼り付け
へっぽこい環境なのは勘弁ね。

【試験環境】
SF V250 / 1GB Mem / SPARC IIIi 1GHz *1

【HDD】
5. c0t9d0 <SUN36G cyl 24620 alt 2 hd 27 sec 107>
/pci@1d,700000/scsi@4/sd@9,0
6. c0t10d0 <SEAGATE-ST336605LSUN36G-0238 cyl 24620 alt 2 hd 27 sec 107>
/pci@1d,700000/scsi@4/sd@a,0
7. c0t11d0 <SEAGATE-ST336605LSUN36G-0238 cyl 24620 alt 2 hd 27 sec 107>
/pci@1d,700000/scsi@4/sd@b,0


292:291
06/06/28 19:07:10
【RAID-Z 36G*3】
bash-3.00# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
------------- ----- ----- ----- ----- ----- -----
datapool 602K 101G 19 121 2.27M 13.7M
raidz 602K 101G 19 121 2.27M 13.7M
c0t9d0s0 - - 7 64 830K 6.84M
c0t10d0s0 - - 7 64 782K 6.84M
c0t11d0s0 - - 6 64 737K 6.84M
------------- ----- ----- ----- ----- ----- -----

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 24338 74 31799 25 26476 20 28239 78 97649 28 618.0 3
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 10486 98 84123 99 16544 99 7931 75 101819 98 15740 98
v250-sol10,2G,24338,74,31799,25,26476,20,28239,78,97649,28,618.0,3,16,10486,98,84123,99,16544,99,7931,75,101819,98,15740,98



293:291
06/06/28 19:08:34
【RAID-1 36G*2】
bash-3.00# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
------------- ----- ----- ----- ----- ----- -----
datapool 106K 33.7G 40 41 4.99M 4.71M
mirror 106K 33.7G 40 41 4.99M 4.71M
c0t10d0s0 - - 19 40 2.49M 4.71M
c0t11d0s0 - - 20 40 2.50M 4.71M
------------- ----- ----- ----- ----- ----- -----

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 25992 79 30635 24 23659 19 30088 84 62609 18 468.2 3
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 9828 99 85253 99 10933 67 9342 96 107981 99 17208 99
v250-sol10,2G,25992,79,30635,24,23659,19,30088,84,62609,18,468.2,3,16,9828,99,85253,99,10933,67,9342,96,107981,99,17208,99


294:291
06/06/28 19:09:48
【Strype? 36G*2】
bash-3.00# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
----------- ----- ----- ----- ----- ----- -----
datapool 81K 67.5G 0 0 662 9.00K
c0t10d0s0 36K 33.7G 0 0 331 4.46K
c0t11d0s0 45K 33.7G 0 0 331 4.54K
----------- ----- ----- ----- ----- ----- -----

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 29662 88 46206 35 37441 27 31343 86 106434 30 894.3 4
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 10342 99 84056 99 16615 99 8648 77 106625 99 16604 99
v250-sol10,2G,29662,88,46206,35,37441,27,31343,86,106434,30,894.3,4,16,10342,99,84056,99,16615,99,8648,77,106625,99,16604,99


295:291
06/06/28 19:10:28
【Single 36G*1】
bash-3.00# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
----------- ----- ----- ----- ----- ----- -----
datapool 51.5K 33.7G 0 8 17.1K 231K
c0t10d0s0 51.5K 33.7G 0 8 17.1K 231K
----------- ----- ----- ----- ----- ----- -----

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 21779 64 33060 26 23404 16 28566 79 54388 12 324.6 1
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 10479 99 84418 99 10719 68 10363 99 108279 99 16928 98
v250-sol10,2G,21779,64,33060,26,23404,16,28566,79,54388,12,324.6,1,16,10479,99,84418,99,10719,68,10363,99,108279,99,16928,98


296:291
06/06/28 19:12:51
【UFS 36G*1】
Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 33174 96 42439 30 14675 18 34016 98 67608 27 332.7 2
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 5342 48 161391 99 7310 53 8241 59 167950 97 4572 44
v250-sol10,2G,33174,96,42439,30,14675,18,34016,98,67608,27,332.7,2,16,5342,48,161391,99,7310,53,8241,59,167950,97,4572,44

SVMでMirrorした物との比較もしようかと思ったけど 同期とる時間が90minぐらい
かかるのでとりあえずパス。
あと、OSは書き忘れてたけど Solaris10 6/06でっす。

297:名無しさん@お腹いっぱい。
06/06/28 23:01:56
ZFSだけで、pathの負荷分散って出来る?


298:名無しさん@お腹いっぱい。
06/06/28 23:26:07
>297
無理じゃね?
SCSIならVxVM入れる、FCならSun TrafficManager or VxVMぐらいしか思いつかんわ

299:名無しさん@お腹いっぱい。
06/06/28 23:46:10
ストレージメーカのものを使うか、VxVMしかないのか。


300:名無しさん@お腹いっぱい。
06/06/29 01:58:50
>>291
乙~。

さすがに36GBだけあって、転送速度は遅いけど、
RAID-Zでちゃんと高速化されてるね。

しかしファイルの作成、読込、削除が速い!
読込だけはUFSに負けてるけど、それ以外は圧勝。
というか、LinuxとかMac OS Xと比べると桁が違うぐらい速い。
それだけSolarisが優秀ってことかな?

301:名無しさん@お腹いっぱい。
06/06/29 08:40:20
CPU に余力があれば compression=on で速くなるらしいね。
容量も節約できて一石二鳥。もっとも CPU が弱いと逆効果だろうけど。

302:名無しさん@お腹いっぱい。
06/06/29 11:49:32
圧縮環境もとりあえず上げときます。
【RAID-Z 36G*3 compression=on】
bash-3.00# zpool iostat -v datapool
         capacity   operations  bandwidth
pool      used avail  read write  read write
------------- ----- ----- ----- ----- ----- -----
datapool    155K  101G   39   44  180K  259K
 raidz     155K  101G   39   44  180K  259K
  c0t9d0s0    -   -   2   8 97.7K  135K
  c0t10d0s0   -   -   2   9 98.2K  134K
  c0t11d0s0   -   -   2   9 97.7K  134K
------------- ----- ----- ----- ----- ----- -----

bash-3.00# zfs get compression datapool
NAME       PROPERTY    VALUE           SOURCE
datapool     compression  on             local

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 18895 55 40130 31 31153 35 25064 77 78634 50 1867 68
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 9929 99 85010 99 15476 95 7420 74 98016 94 15434 95
v250-sol10,2G,18895,55,40130,31,31153,35,25064,77,78634,50,1867.4,68,16,9929,99,85010,99,15476,95,7420,74,98016,94,15434,95

やはしCPU負荷増えますね。 時間が取れればVxVM/VxFSとの比較も出来るけどスレ違いの上うざいかな?

303:名無しさん@お腹いっぱい。
06/06/29 12:05:10
>>302
いややって欲しい。
ZFSとの比較だし問題ないだろ。

304:名無しさん@お腹いっぱい。
06/06/29 12:22:37
ZFSの最大のライバルだからな。


305:名無しさん@お腹いっぱい。
06/06/29 21:53:26
compression=on で cat /dev/zero >file とかするとおもすれぇw
ファイルが超巨大化しても空き容量余裕タプーリ

306:名無しさん@お腹いっぱい。
06/06/29 22:03:30
その道はNTFSが何年も前に通った道だ

307:291
06/06/29 22:29:33
VxVM/VxFS環境でベンチってみました。
環境はH/Wは同じ VxVM4.1, VxFS4.1使用。RAID5(nlog=0),Mirrorは当然VMで作成。
それなりにブレがあるようなので本来ならそれぞれで複数回ベンチ走らせて
平均取るべきなんだろうけど面倒なんでそのあたりは勘弁。

しかしRAID5書き込みは滅茶苦茶遅いね。これはRAID-Zの圧勝。
まぁ実際S/W RAID5なんて組むことあまり無いと思うけど。
適当に結果をグラフ化してみますた。無駄に横長ですまんすorz
URLリンク(www.uploda.org)
URLリンク(www.uploda.org)

308:291
06/06/29 22:31:15
【VxVM/VxFS Stripe 36G*2】

bash-3.00# fstyp /dev/vx/rdsk/datadg/stripevol
vxfs

v stripevol  fsgen    ENABLED 142247936 -    ACTIVE  -    -
pl stripevol-01 stripevol  ENABLED 142247936 -    ACTIVE  -    -
sd datadg01-01 stripevol-01 ENABLED 71123968 0    -    -    -
sd datadg02-01 stripevol-01 ENABLED 71123968 0    -    -    -

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 31020 96 110525 82 22255 27 31383 98 107088 69 412.4  4
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 6855 69 83970 99 10977 83 9050 73 85056 97 9662 78
v250-sol10,2G,31020,96,110525,82,22255,27,31383,98,107088,69,412.4,4,16,6855,69,83970,99,10977,83,9050,73,85056,97,9662,78


309:291
06/06/29 22:32:07
【VxVM/VxFS RAID-5 36G*3】
bash-3.00# fstyp /dev/vx/rdsk/datadg/raid5vol
vxfs

v raid5vol   raid5    ENABLED 10485760 -    ACTIVE  -    -
pl raid5vol-01 raid5vol   ENABLED 10485760 -    ACTIVE  -    -
sd datadg03-01 raid5vol-01 ENABLED 5242880 0    -    -    -
sd datadg01-01 raid5vol-01 ENABLED 5242880 0    -    -    -
sd datadg02-01 raid5vol-01 ENABLED 5242880 0    -    -    -

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 8874 32 9219  8 4113  8 22913 77 62421 54 360.7  4
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 2766 37 81958 99 2686 39 3013 36 86437 98 2861 35
v250-sol10,2G,8874,32,9219,8,4113,8,22913,77,62421,54,360.7,4,16,2766,37,81958,99,2686,39,3013,36,86437,98,2861,35


310:291
06/06/29 22:33:47
【VxVM/VxFS mirror 36G*2】
bash-3.00# fstyp /dev/vx/rdsk/datadg/mirrorvol
vxfs

v mirrorvol  fsgen    ENABLED 10485760 -    ACTIVE  -    -
pl mirrorvol-01 mirrorvol  ENABLED 10485760 -    ACTIVE  -    -
sd datadg01-01 mirrorvol-01 ENABLED 10485760 0    -    -    -
pl mirrorvol-02 mirrorvol  ENABLED 10485760 -    ACTIVE  -    -
sd datadg02-01 mirrorvol-02 ENABLED 10485760 0    -    -    -

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 30864 97 42962 28 12566 14 28155 87 54015 31 522.5  4
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 5697 57 82645 99 8720 64 7607 62 84611 97 5635 47
v250-sol10,2G,30864,97,42962,28,12566,14,28155,87,54015,31,522.5,4,16,5697,57,82645,99,8720,64,7607,62,84611,97,5635,47


311:291
06/06/29 22:34:23
【VxVM/VxFS single 36G*1】
bash-3.00# fstyp /dev/vx/rdsk/datadg/singlevol
vxfs

v singlevol  fsgen    ENABLED 10485760 -    ACTIVE  -    -
pl singlevol-01 singlevol  ENABLED 10485760 -    ACTIVE  -    -
sd datadg01-01 singlevol-01 ENABLED 10485760 0    -    -    -

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 32082 96 45295 27 22303 23 25957 81 53405 31 297.7  3
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 6228 64 41023 49 9594 66 8583 65 89816 99 6406 51
v250-sol10,2G,32082,96,45295,27,22303,23,25957,81,53405,31,297.7,3,16,6228,64,41023,49,9594,66,8583,65,89816,99,6406,51


312:名無しさん@お腹いっぱい。
06/06/29 23:56:54
ufsならufsdumpでDDSにバクアプ。
zfsはzfsdumpってのがあるの?

313:名無しさん@お腹いっぱい。
06/06/30 00:45:47
   zfs snapshot filesystem@name|volume@name

     Creates a snapshot with the given name. See  the
     "Snapshots" section for details.


   zfs backup [-i snapshot] snapshot2

     Creates a backup of snapshot2. The backup is written to
     standard output, which can be redirected to a file or to
     a different machine. For example, using ssh(1). By
     default, a full backup is performed.

     -i snapshot   Perform an incremental  backup  from
             snapshot to snapshot2.

     The format of the backup archive is evolving. No back-
     wards compatibility is guaranteed. You may not be able
     to restore your backups on future versions of ZFS.

314:名無しさん@お腹いっぱい。
06/06/30 03:13:19
>>4,5,6 あたり。かなり楽ちんと思われ。

315:名無しさん@お腹いっぱい。
06/06/30 09:39:43
>>5のtypo発見
・水曜日の版の foo.c をちょっと見る
-$ cat ~maybee/.zfs/snapshot/wednsday/foo.c
+$ cat ~maybee/.zfs/snapshot/wednesday/foo.c


316:名無しさん@お腹いっぱい。
06/06/30 10:05:18
テープにバックアップして世代管理&シーケンシャルアクセスしたいっす!

317:名無しさん@お腹いっぱい。
06/06/30 13:24:31
ふっ。通はテープでランダムアクセスするんだよ。こんどやってみな。

318:名無しさん@お腹いっぱい。
06/06/30 14:33:56
ふっ。真の通は脳内に全部記憶してランダムアクセスするんだよ。こんどやってみな。

319:名無しさん@お腹いっぱい。
06/06/30 14:38:32
>>317
MZ-80BとかX1とかのシャープのパソコンを思い出すなぁ

320:名無しさん@お腹いっぱい。
06/06/30 14:53:36
それランダムアクセスじゃないし。ひょっとするとシーケンシャルアクセスにも
入れてもらえないんでは。

321:名無しさん@お腹いっぱい。
06/07/01 02:13:39
>>318
読むたびに値が変わるかCRCエラーです
漏れの脳内ダブルセクターとかのプロテクトが掛かっているもよう

322:名無しさん@お腹いっぱい。
06/07/01 02:37:08
>>318
俺の脳みそは大部分が/dev/nullにリンク貼られてるようです

323:名無しさん@お腹いっぱい。
06/07/01 02:43:03
>>321-322
脳みそとしては正常です。

324:名無しさん@お腹いっぱい。
06/07/01 05:19:23
脳みそびろーん
  ∩___∩     
   | ノ      ヽ/⌒) 
  /⌒) (゚)   (゚) | .|  
 / /  ( _●_) ミ/
.(  ヽ  |∪|  / 読むたびに化けるクマー
 \   ヽノ /     
  /      /  
 |   _つ  /     
 |  /UJ\ \   
 | /     )  )   
 ∪   ( \    
      \_)

325:名無しさん@お腹いっぱい。
06/07/01 14:46:51
/dev/zero に再リンクすれば安定する。

326:名無しさん@お腹いっぱい。
06/07/02 02:30:59
/dev/urandam

327:名無しさん@お腹いっぱい。
06/07/02 21:13:15
彼女を ZFS snapshot で管理したい
スレリンク(unix板)l50

328:名無しさん@お腹いっぱい。
06/07/13 06:24:11
ZFS の申し子のようなストレージ
URLリンク(www.sun.com)

329:名無しさん@お腹いっぱい。
06/07/13 23:14:22
価格はけっこう手ごろなのね

330:名無しさん@お腹いっぱい。
06/07/13 23:32:16
最近の HDD って、あんな方向で使っていいんだ!?

331:名無しさん@お腹いっぱい。
06/07/14 08:15:53
以前から、方向変えなければokじゃなかった?
最初から縦なら縦で使い続ける。

332:名無しさん@お腹いっぱい。
06/07/14 13:59:28
昔の HDD は回路基盤があるのを下面、コネクタがあるのを後面とすると
下面を下にして円盤は水平、左右の側面を下にして円盤は垂直の 2 種類
(左右側面を別々に考えれば 3 種類)の置き方しかダメだったよ。
マニュアルにそう書いてあった。けどその後上面を下にしたパソコンが
ちらほら出てきたから、最近はどうとでも置けるのかな。

333:名無しさん@お腹いっぱい。
06/07/14 14:12:34
ポータブルプレイヤの HDD なんか結構いろんな向きになりそうだが……

334:名無しさん@お腹いっぱい。
06/07/14 14:28:22
3.5inch HDD のポータブルプレーヤ使ってんの?

335:名無しさん@お腹いっぱい。
06/07/14 14:30:52
向きは構わんからしっかり固定しろ、ってHGSTの中の人が言ってた

336:名無しさん@お腹いっぱい。
06/07/14 14:41:49
ぶらんぶらん ブラ下げておくのは却下ってこと?

337:名無しさん@お腹いっぱい。
06/07/14 18:39:40
>>335
中に入ってる人の向きの問題なのか。いまじゃどっち向きでも耐えられるんだな。
NASA で訓練したのか?

338:名無しさん@お腹いっぱい。
06/07/14 21:32:25
48台というからAICの双子かと思ったけど結構違うようだ
URLリンク(www.aicipc.com)

339:名無しさん@お腹いっぱい。
06/07/17 23:55:49
さすがジョナサン!
これはSunのストレージサーバとしては初めて成功する予感。

340:名無しさん@お腹いっぱい。
06/07/18 00:22:31
え? ヨナタンの手柄ぁ? ほんとかぁ?

341:名無しさん@お腹いっぱい。
06/07/20 01:44:36
からあげだよもん

342:名無しさん@お腹いっぱい。
06/07/21 06:46:42
>>333 iPodはよく振ると曲順がシャッフルされるよ?

343:名無しさん@お腹いっぱい。
06/07/21 12:18:36
>>342
俺全曲ランダム再生とか良くやるからそれ欲しいな。

344:名無しさん@お腹いっぱい。
06/07/21 23:29:48
ZFS 安定してる? トラブル情報ない?

345:名無しさん@お腹いっぱい。
06/07/22 04:07:32
>344
お前みたいな他人任せな考え方がするやつがいること自体がトラブル。自分で試せ。

346:名無しさん@お腹いっぱい。
06/07/22 04:40:47
なにをトンチンカンなことを... 評論家気取りか?

347:名無しさん@お腹いっぱい。
06/07/22 11:47:40
No news is good news.

348:名無しさん@お腹いっぱい。
06/07/22 12:10:24
No gnus is bad news.

349:名無しさん@お腹いっぱい。
06/07/22 12:47:43
No ZFS is good news.

350:名無しさん@お腹いっぱい。
06/07/22 14:53:25
>>347
そうだな。流血先端にはだいぶ前から出てるが、悪い話は聞いたことがない。
よさそうだね。

351:名無しさん@お腹いっぱい。
06/07/24 03:51:18
実際にシステム組んで1ヶ月ぐらい運用してみないとわからないという意味で
評価結果が出てくるまでしばらく時間がかかると思うのだが。

ZFSを欲しがるユーザの納期が1週間とかってことはないと思うんだけど。


352:名無しさん@お腹いっぱい。
06/07/24 14:51:39
OpenSolaris(Solaris Express もか?)で ZFS 追加されてからだいぶ経つけど、
悪い話は聞いたことがないね。

353:名無しさん@お腹いっぱい。
06/07/24 15:15:33
まぁ、初期の ZFS ではパフォーマンスの問題があったりとか、あとは
普通の HDD じゃなくてリムーバブルメディア上に ZFS 領域を作成した場合
パニックすることがあるとかいう問題はあったみたいだけど、そのあたりも
軒並み fix されてるみたいだしね。

354:名無しさん@お腹いっぱい。
06/07/24 15:16:31
SunからThumperみたいにzfs前提といえるようなサーバが出ることを考えると
それほど問題があるとは思えないな。


355:名無しさん@お腹いっぱい。
06/07/24 16:15:07
よしっ! じゃ今後ファイルシステム作成するときは特別な理由がない限り ZFS 以外
使用禁止。既存ファイルシステムも可及的速やかに ZFS に移行すること。以上。

356:名無しさん@お腹いっぱい。
06/07/24 16:20:14
>>355
Solaris以外に移植してから言え。

357:名無しさん@お腹いっぱい。
06/07/24 16:34:16
>>356
言い出しっぺのh(ry

358:名無しさん@お腹いっぱい。
06/07/24 16:40:08
移植完了!!

359:名無しさん@お腹いっぱい。
06/07/24 17:08:40
NFSv4 とか ZFS とか、MS-Windows (NTFS) のファイル属性とか ACL とかに
ある程度配慮した作りになってるみたいだけど、ZFS を MS-Windows に実装して
使うとか、MS-Windows に NFSv4 クライアントを実装して ZFS をリモート利用するとか、
可能なんだろうか?

360:名無しさん@お腹いっぱい。
06/07/24 17:13:26
ZFS を smbd で Win からマウントするとかはやってる

361:名無しさん@お腹いっぱい。
06/07/24 18:07:56
>MS-Windows (NTFS) のファイル属性とか ACL とかに

例えば?
ACL は Posix じゃねーの?

362:名無しさん@お腹いっぱい。
06/07/24 19:20:55
NTFSのACLじゃないの?
sambaでZFS(とNFSv4)のACLはまだ扱えないと読んだことがあるけど、
どうなったんだろう。

363:名無しさん@お腹いっぱい。
06/07/24 22:36:02
samba で NFS を扱うとかワケワカメ

364:名無しさん@お腹いっぱい。
06/07/24 22:39:18
NFSゲートウェイ?

365:名無しさん@お腹いっぱい。
06/07/24 22:48:36
sambaというか、NFSv4とCIFSでのACLの相互運用性の話でしょ?

366:名無しさん@お腹いっぱい。
06/07/25 03:01:01
つーか、じかに MS-Windows に ZFS 積んで NTFS なしで完結できたりしたら
おもしろそうだけど。
それムリでも NFSv4 クライアント実装して、Samba なしでリモートの
ZFS 使うってのもできたらおもしろそう。
別に Samba きらいな訳じゃないけど、シンプルに構成できた方が
より発展の目があるかと。

367:名無しさん@お腹いっぱい。
06/07/25 05:57:05
winで動くnfs clientは既にいくつかあるだろ

368:名無しさん@お腹いっぱい。
06/07/25 10:43:31
だから v4 より前の NFS は MS-Windows から見たら不便で誰も使わないでしょ。
そこらへん NFSv4 や ZFS は考慮されてるのよ。
...って、そういう話の前提くらい汲んでくれよめんどくさい。

369:名無しさん@お腹いっぱい。
06/07/25 11:20:09
で、考慮ってどの辺が? って話題に戻る

370:名無しさん@お腹いっぱい。
06/07/25 12:04:53
URLリンク(docs.sun.com)
『Solaris ZFS 管理ガイド』
7. ACL による ZFS ファイルの保護
新しい Solaris ACL モデル

最近のバージョンの Solaris では、主に POSIX ドラフト ACL 仕様に基づく ACL 実装が
サポートされていました。POSIX ドラフトに基づく ACL は、UFS ファイルを
保護するために使用され、NFSv4 より前のバージョンの NFS によって変換されます。

NFSv4 を導入したことにより、NFSv4 が提供する UNIX クライアントとUNIX 以外の
クライアントとの間の相互運用性を、新しい ACL モデルを使って完全に
サポートできるようになりました。NFSv4 仕様で定義されている新しい ACL 実装は、
NT 方式の ACL を使用して、より豊かなセマンティクスを実現します。

新しい ACL モデルは、主に次の点が異なっています。

* NFSv4 仕様に基づいており、NT 方式の ACL に似ています。
* アクセス特権をより詳細に設定できます。詳細については、表 7-2 を参照してください。
* setfacl や getfacl コマンドではなく、chmod および ls コマンドを使用して設定および表示します。
* ディレクトリのアクセス特権をどのようにサブディレクトリに適用するかを指定するために、より多くの継承セマンティクスを利用できます。詳細については、「ACL 継承」を参照してください。


371:名無しさん@お腹いっぱい。
06/07/25 12:07:12
>>369
こんだけ手間かけさせたからには、なんかおもしろいこと言ってくれるんだよな?

372:名無しさん@お腹いっぱい。
06/07/31 21:44:01
なんとなくSolaris/x86 に書いて見たけど反応ないんでこっちにも書かせて。

OpenSolaris amd64 で LSI Logic の SAS な LSISAS1064/1068 の HBA 使ってる人います?
ドライバーは mpt になるかと思うんだけど。
LSISAS3401, 3080, 3442, 3800 あたり。
問題なく使えてるんなら HBA を購入したい。

373:名無しさん@お腹いっぱい。
06/08/05 16:11:49
URLリンク(www.opensolaris.org)
チュートリアルムービーみたいなやつ。結構おもしろい。

374:名無しさん@お腹いっぱい。
06/08/06 08:37:32
サルっぽい質問で申し訳ありませんが、
ZFSって desktop環境でも幸せになれるんでしょうか?
snapshotとかおもちろそうですが..


375:名無しさん@お腹いっぱい。
06/08/06 23:36:15
ルートパーティション ZFS にできるのは当分先っぽいから、
そこへ全部入れてるんなら意味ないかな。そうじゃないなら、意味あるんじゃね?

376:名無しさん@お腹いっぱい。
06/08/08 06:11:27
>>374
Appleは、幸せだ、と思っているみたい。
URLリンク(www.apple.com)

377:名無しさん@お腹いっぱい。
06/08/08 10:00:12
sambaと組み合わせて、volume shadow copyできるのだろうか?

378:名無しさん@お腹いっぱい。
06/08/08 11:04:04
>>376
Leopard には ZFS 入らんだろ?
「なくし物をなくす」... もうちょっと気の利いた訳はなかったんかいw
紛失物が完全に消え去るって意味かと思ったぜ。

379:名無しさん@お腹いっぱい。
06/08/08 11:48:31
>>378
でもスナップショット機能あるっぽいね。ZFS 入るんだろうか??

380:名無しさん@お腹いっぱい。
06/08/08 14:47:32
何でZFSとタイムマシーンがごっちゃになってるのか。
URLリンク(www.apple.com)
↑こっちのほうがちょっとだけ詳しい。
あとはジョブズの基調講演見るか。

どっちにしてもこのスレとLeopardは何も関係ない。


381:名無しさん@お腹いっぱい。
06/08/08 14:58:45
タイムマシーンて、要はゴミ箱のちょっと気のきいたやつ?
昔 POSTGRES にタイムトラベルって機能あったなw

どっちにしてもこのスレと POSTGRES は何も関係ない。

382:名無しさん@お腹いっぱい。
06/08/08 15:36:47
中の人からzfsのエンジニアにコンタクトがあったという話がなかった?それが憶測を呼んでいるのかな

383:名無しさん@お腹いっぱい。
06/08/08 15:42:41
それにしても毎回毎回金太郎アメのような演出とたいした内容でもないのにたらたらの自慢話。
イヤにならんのかね?
Mac 利用者だし、次も MacOS X の機材買うと思うけど、あれ見てるとイヤになる。

384:名無しさん@お腹いっぱい。
06/08/08 16:49:14
>>383
Leopardのアップデート内容がしょぼしょぼだから、演出と美麗字句が
完全に浮いちゃっているねぇ…

385:名無しさん@お腹いっぱい。
06/08/08 22:58:09
ZFSじゃなくてDTraceが移植されるみたいだが……まあ、スレ違いだわな。
URLリンク(blogs.sun.com)

386:名無しさん@お腹いっぱい。
06/08/08 23:11:21
URLリンク(filesys.ntt-it.co.jp)

387:名無しさん@お腹いっぱい。
06/08/08 23:37:23
>>385
FreeBSD にはもうのってんだよね? それならそう不思議でもない。

388:名無しさん@お腹いっぱい。
06/08/09 00:45:58
>>387
もう使える状態になってたっけ,アレ?
そのblogからだと、FreeBSDとは関係なくPortしたっぽい。

389:名無しさん@お腹いっぱい。
06/08/09 02:23:15
>>384
Tigerのときもかなり言われた。
Spotlightだけかよ,って。

390:名無しさん@お腹いっぱい。
06/08/09 03:43:25
>>386
おー、いいなぁーと思って価格を見たら、、、目を疑った。

391:名無しさん@お腹いっぱい。
06/08/09 05:20:34
>>389
結局、10.3以降のアップデートはIntel対応とか64bit周りとかがあるにせよ、
ユーザにとっては蛇足ばっかりってことになるのかな。って完全に板違い棚…

392:名無しさん@お腹いっぱい。
06/08/10 20:43:56
>>391
スナップショットをユーザ権限でとれないのは何で?


393:名無しさん@お腹いっぱい。
06/08/14 22:42:47
質問です。

Solaris10とZFSでファイルサーバを構築しようと考えます

/ファイルシステムは普通にメタでミラーして
データー領域をZFS RAIDZにしようと考えているのですが

マザーボードなどが逝ってしまい、OS自身の再セットアップが必要となったとき
前の環境で利用していたZFS RAIDZを認識させる事ができるのでしょうか?


394:名無しさん@お腹いっぱい。
06/08/15 15:23:22
                                r'゚'=、
                                / ̄`''''"'x、
                           ,-=''"`i, ,x'''''''v'" ̄`x,__,,,_
    ┏┓    ┏━┓       __,,/    i!        i, ̄\ ` 、      ┏━┓
┏━┛┗━┓┃┏┓┃   __x-='"   |   /ヽ      /・l, l,   \ .ヽ      ┃  ┃
┗━┓┏━┛┃┗┛┃┏ /(━━ 1  i・ ノ       く、ノ |━━i  i,━┓┃  ┃
┏━┛┗━┓┃┏┓┃┃ | i,       {,      ニ ,    .|     |  i,   ┃┃  ┃
┗━┓┏━┛┗┛┃┃┗ .l,  i,━━ }   人   ノヽ   |━━{  {━┛┗━┛
    ┃┃        ┃┃   },  '、       T`'''i,  `ー"  \__,/     .}  |    ┏━┓
    ┗┛        ┗┛   .} , .,'、       },  `ー--ー'''" /       }  i,    ┗━┛
                  | ,i_,iJ        `x,    _,,.x="       .|   }
                  `"            `ー'"          iiJi_,ノ

395:名無しさん@お腹いっぱい。
06/08/16 14:47:17
>>393
endianの違いまで考慮しているくらいだからたぶんokだと思うけど
やり方は知らない。
ぜひ試した結果を教えてください。


396:名無しさん@お腹いっぱい。
06/08/17 21:11:27
ZFS On-Disk Specificationをながめているのですが
トランザクションをどう実現しているかわかりません。
なにか参考になるドキュメントはありますか?


397:蕪木ら某 ◆Googl8RmwA
06/08/18 01:12:37
>>396
URLリンク(cvs.opensolaris.org)
(w

URLリンク(www.opensolaris.org)
......

398:名無しさん@お腹いっぱい。
06/08/22 21:40:22
URLリンク(docs.FreeBSD.org)
Porting ZFS file system to FreeBSD.


399:名無しさん@お腹いっぱい。
06/08/23 16:09:36
もうある程度動いてるのか? すげーな。

400:名無しさん@お腹いっぱい。
06/08/23 16:54:48
JFS とか XFS も FreeBSD 移植プロジェクト自体はあったんだが…

401:名無しさん@お腹いっぱい。
06/08/23 17:40:57
XFSならcurrentにあるよ。

402:名無しさん@お腹いっぱい。
06/08/23 17:54:33
へぇ~

XFS 使ってる人いるんでしょうか?

403:名無しさん@お腹いっぱい。
06/08/24 05:32:23
IRIXかLinuxならいるでしょう。

404:名無しさん@お腹いっぱい。
06/08/26 00:13:07
ZFS In Leopard
URLリンク(www.macrumors.com)

405:名無しさん@お腹いっぱい。
06/08/26 01:11:28
ヘッダファイルに定義があっただけだろ? ま、実装しかけてるのは確かかもね。

406:名無しさん@お腹いっぱい。
06/08/26 15:06:26
Leopardに間に合うか微妙。 Loepard Serverからかも。。
デフォルトのファイルシステムをHFS+からZFSにするには
色々と解決すべき問題があるし、実装してエンドユーザに
新しい体験させるには更に色々とね。

407:名無しさん@お腹いっぱい。
06/08/26 16:44:47
どうせなら、カーネルごと持ってけばいいのに。


408:名無しさん@お腹いっぱい。
06/08/26 23:09:48
俺もそう思う。

409:名無しさん@お腹いっぱい。
06/08/27 02:17:45
>>406
HFS+のジャーナリングの時みたいに、コマンドラインから叩けば使えるけど、
それを知らない人は使えませんよー。あと自己責任ですよーってやると思う。

410:名無しさん@お腹いっぱい。
06/08/27 22:18:04
>>407
やっぱ、Mach を苦労して改良した人たちが大勢いるだろうから難しいでしょ。
え? Solaris に Mach の IPC 付けるのはそんなに難しくない? それ大きい声で言っちゃダメでしょ..w

411:名無しさん@お腹いっぱい。
06/08/28 04:39:44
>>410
それはつまり、OpenSolarisの一派になると。
・・・・・ちょっと見てみたい・・・・

412:名無しさん@お腹いっぱい。
06/08/28 12:07:22
一応 PowerPCの上でもまだ動かないとだめなんじゃない?


413:名無しさん@お腹いっぱい。
06/08/28 12:48:11
動いてるって話だったと思うよ。OpenSolaris ね。ZFS まで動いてるのかは知らん。

414:名無しさん@お腹いっぱい。
06/08/28 18:16:31
URLリンク(mac.ascii24.com)
デベロッパーもイチ押しの目玉機能! とことん知りたい『Time Machine』

これを見る限り1日1回、前回の"バックアップ"時からの変更点を記録するとなっているから
pdumpfsに気の効いたUIをつければそれで十分なんじゃないか。

415:名無しさん@お腹いっぱい。
06/08/28 19:04:06
このへんはそれだけじゃ無理だろ。
> Finderだけでなく、アプリケーションでもTime Machineのバックアップは有効で
> す。例えば、『アドレスブック』では個人名を指定して、誤って消してしまった
> アドレスデータを復帰できます。
...
> 私たちはこのTime MachineのAPIを公開しているので、どのアプリケーションも
> Time Machine対応にすることが可能です。この点は開発者にとても評価されてい
> ます。

416:名無しさん@お腹いっぱい。
06/08/28 19:47:20
>>415
そのへんが「気の効いたUI」だ。

毎日のpdumpfsの後でlatestのlink countが1の部分だけDBに追加していけば
検索・checkoutが可能。1日1回のバックアップの時点に戻れるだけでいいなら
これで十分。ZFSを実装するより遥かに現実的じゃないか。


417:名無しさん@お腹いっぱい。
06/08/28 22:20:36
後代(けっこ近いかも)に禍根を残すイタい機能だったりしてw

418:名無しさん@お腹いっぱい。
06/08/28 23:03:08
消したはずのデータが嫁にタイムマッシーン!

419:名無しさん@お腹いっぱい。
06/08/29 01:16:21
これは未来にも行けますか?


420:名無しさん@お腹いっぱい。
06/08/29 14:55:16
行けます。お使いのシステムに /dev/random があることを確認して使って下さい。

421:名無しさん@お腹いっぱい。
06/08/31 13:12:12
すみません、ちょっとお伺いしたい事があるのですが、

1.家にある古いHDD、たとえば10GB1つ、30GB2つ、80GB2つ を
230GBのひとかたまりのボリュームとして使う

2.「ちょっと30GBを1個別PCで使おう」と思ったときに、
230GBを使い切っていなければ、何か操作をすれば
中のデータを保ったままボリュームを200GBに縮められ、30GBを1個はずせる

3.はずした30GBの用件が終わったら、後でボリュームに付け足して230GBに戻す

みたいな事をしたいと思っているんですが、ZFSでRAID-Zならこれが出来ますか?
自分でもZFSに限らず色々調べたのですが、特に2.が出来る方法がわかりませんでした。
ZFSのRAID-Zがこれが出来そうに見えたのですが、実際どうなのでしょうか。

422:名無しさん@お腹いっぱい。
06/09/02 04:00:04
>>421
調べ方が悪いね。

423:名無しさん@お腹いっぱい。
06/09/02 20:58:01
>>422
なんて感じの悪い人なんだ

424:名無しさん@お腹いっぱい。
06/09/03 01:34:52
「色々調べた」としか書かないような質問者の方が感じ悪い。

425:名無しさん@お腹いっぱい。
06/09/06 01:17:09
面倒だから教えない。

426:名無しさん@お腹いっぱい。
06/09/06 06:13:57
2.は今後実装予定だが今は未実装ということだった気がする。

427: ◆ZZZZZZZrFs
06/09/06 20:45:43
手段が目的になってる典型だな
230Gをパーティション分けした思えば良いじゃないか
従来のFS使って外したい30Gと10Gをswap用にしとけ
これなら30G外しっぱなしでも構わないぞと亀+テスト

428:名無しさん@お腹いっぱい。
06/09/06 22:02:31
・「zfs shrink」で検索するとそれらしきことが書いてある。
・LVMでは「なんかやばそうなディスクが使っているデータを他へ退
避させて外す」ってのはよくある。
というわけで、shrinkをサポートし、LVM的機能も持っているzfs
なら当然できるんじゃない?

5分くらい調べれば見つかるよ、きっと。がんばれ。


429:名無しさん@お腹いっぱい。
06/09/07 07:14:44
Sun の中の人のコメント

[zfs-discuss] Re: Shrinking a zpool?
URLリンク(mail.opensolaris.org)
A similar feature exists on VxVM to re-layout storage. It has a lot
of value in certain circumstances mostly revolving around migrating
from one storage solution to another.

However, that feature didn't arrive until years after the initial
product rollout. I think that having a stable product is more
important in the short term than having a product with every feature.

Once ZFS has been out (and on the system disk!) a year, the feature
should be in the product.

430:名無しさん@お腹いっぱい。
06/09/07 08:15:24
あんまり使わない機能だしな。


431:421
06/09/07 12:55:22
みなさんありがとうございます。

>>422,424
すみませんでした。調べるためのキーワードを良くわかっていなかったようです。

>>427
目的が「こまいディスクを1かたまりにしたい」という事なので・・・
いわゆるファイル置き場にするつもりです。

>>428
shrink とか LVM と言ったキーワードで調べたら確かに良くわかりました。
ありがとうございました。

>>429
なるほど。ありがとうございました。

とりあえずVMwareでLVMを練習してみます。
皆様重ねてお礼申し上げます。ありがとうございました。

432:名無しさん@お腹いっぱい。
06/09/08 04:58:49
あのー、何とかして同一ディスク上の
別パーティション(not スライス)をzpoolに組み込めないのかな・・・

433:名無しさん@お腹いっぱい。
06/09/08 09:17:31
>>432
x86? not スライスってことは、fdisk パーティションのこと?
もしそうなら、できない。
その fdisk パーティションも Solaris fdisk パーティションとしてがっちんこ(再インストール)して、適当にスライス切ってとかいうのはダメなの?
違う話ならすまん。

434:名無しさん@お腹いっぱい。
06/09/08 11:39:11
>>433
トンクス
やっぱり再インストールが要りますか・・・・
別デバイスとして見せる方法とかないもんかと思って・・・・
デュアルブートしてたマシンをSolaris一本化しようと思ったら
再インストールするかパーティション諦めるしかないのか。

435:名無しさん@お腹いっぱい。
06/09/08 13:06:17
俺がやった方法。
Solaris パーティションと別のパーティションは UNIX パーティション (ID = 99) として確保。
そしてその UNIX パーティションに対して zpool create をかける。
zpool が何かエラーっぽいメッセージ出したような記憶があるけど、
実際にはちゃんと pool が作られてて使える。

436:名無しさん@お腹いっぱい。
06/09/08 13:54:00
>>435
そのUNIXパーティションは、どういうデバイスパスになるんですか?

437:名無しさん@お腹いっぱい。
06/09/08 14:07:49
c0d0pn (n = パーティション番号)

もちろん、c0d0 の部分は環境によって違うかも。

438:名無しさん@お腹いっぱい。
06/09/08 14:34:15
ぬほっ
format の fdisk だとSolarisのパーティション以外が見えない?!
インストールするとき、CDドライブ借りてやったから今は別OS起動できないし・・・
今回は、何かSolaris内からパーティションテーブルのIDいじる上手い手が
見つかるまでZFS諦めます。(´・ω・`)ショボーン

439:名無しさん@お腹いっぱい。
06/09/08 14:42:21
>>438
>Solarisのパーティション以外が見えない?!

「見えない」ってより「存在しない(作られてない)」ってことではなくて?
ないなら作ればいいかと。

440:名無しさん@お腹いっぱい。
06/09/08 15:11:18
>>435
ウホっ、それいけるんだ。
その手を使えば、USB接続なハードディスクにNTFSとかと共存できるかな?
zpool import/export がいけると更にいいな・・・

441:名無しさん@お腹いっぱい。
06/10/13 22:55:52
ZFSの弱点も次のHWリリースで解消されそうだ。
ホットスペアとダブルパリティがアベイラブルになる。

442:名称未設定
06/10/17 21:02:43
つうかハードディスクの容量が伸びないんだけど。
エクサワロスまでいくんすか

443:名無しさん@お腹いっぱい。
06/10/18 00:29:28
>>442
すまんワロスってどういう単位?

444:名無しさん@お腹いっぱい。
06/10/20 23:54:25
ワロプの複数形。

445:名無しさん@お腹いっぱい。
06/10/27 16:02:35
URLリンク(docs.FreeBSD.org)
| Now I'm able to build FreeBSD's kernel and userland with both sources
| and objects placed on ZFS file system.
| I also tried to crash it with fsx, fsstress and postmark, but no luck,
| it works stable.


446:名無しさん@お腹いっぱい。
06/10/27 23:21:43
おー、なんか最近 FreeBSD 方面すげーな。SoC も結構結果よかったみたいだし。

447:名無しさん@お腹いっぱい。
06/11/03 01:02:34
Apple んとこちょっとだけ Leopard のことが載ってるけど、ZFS はないね。

448:名無しさん@お腹いっぱい。
06/11/03 08:09:54
Macはワンパーティション主義だから、
boot出来ないと、入れる意味が薄れちゃうしね。

それからHFS+上じゃないと、PEFバイナリが不安定なのをなんとかしないと。
MS OfficeとかまだLaunchCFMApp経由でしょ?

449:名無しさん@お腹いっぱい。
06/11/07 17:53:41
OS XはOS X ServerのbootパーティションはHFS+のみにするなど、
UFSのサポートを半分止めてしまったりする状態だからなぁ…

UFSですらこうなんだから、ZFSに至っては…

450:名無しさん@お腹いっぱい。
06/11/16 14:47:09
URLリンク(docs.FreeBSD.org)
ZFS patches for FreeBSD.

451:名無しさん@お腹いっぱい。
06/11/26 22:50:10
ZFSのRAID-Z。ディスクたくさん並べると結構早いよ。シーケンシャルのみだけど。

452:名無しさん@お腹いっぱい。
06/11/27 18:18:30
変なこと聞いているかもしれないけど、
ディスク2台でミラーリングじゃなくて
RAID-Zすることって可能性ですか?

453:名無しさん@お腹いっぱい。
06/11/27 21:07:13
マニュアルによると最小台数が2台となっているから動くんじゃないだろうか。

454:名無しさん@お腹いっぱい。
06/11/27 22:21:22
RAIDはあまりよく知らないんだけど、RAID-Zって
要はRAID-5類似の機能なんだよな…?
2台ですることに何かメリットはあるの?

455:名無しさん@お腹いっぱい。
06/11/27 22:27:36
2台の時はRAID-1相当とか。
2台の時の冗長性は気になるな・・・・

456:名無しさん@お腹いっぱい。
06/11/27 23:02:32
NetAppもシステム領域を2台でRAID4って構成取っているところも
少なくないので、不思議な構成ではないのだと思う。
ZFSの場合、普通にミラーも出来るので、あえてRAID-Zにする
理由は無いけど。
結局はミラーと同じ動きになるのだと思うけど、プログラム的に
どっちが早いのかだろうね。普通に考えるとミラーだが、意外と
RAID-Zの方が速い、、、なんて事はないんだろうな。

457:名無しさん@お腹いっぱい。
06/11/27 23:31:01
RAID-Zってディスクの動的追加ってできるのでしたっけ?
それができるのだったら2台でRAID-Zもおいしいかも…。

458:名無しさん@お腹いっぱい。
06/11/27 23:43:11
出来るよ。

459:名無しさん@お腹いっぱい。
06/11/27 23:53:40
RAID-Zは非常に頭の良い実装で、Disk追加するとこんな感じ。
[3台構成]
***
[4台構成(1台追加)]
***
****
つまり、増設後に新たに書き込まれた分だけ4台でストライプされる。
Disk 1台こけた場合のミラー再同期やRAID-Zのリコンストラクト処理も
全てのブロックに対して行うのではなく、実際に使われているデータ
ブロックのみが対象となる。
36GBのミラーを例にとる。SVMやVxVM、ハードRAIDでは36GBのフルコピー
となる。ZFSだと、36GBの内、使用量が10GBだとしたら、10GBのコピー
になる。ファイルシステムとボリュームマネージャが統合されると
こうした事が可能になるわけ。

460:名無しさん@お腹いっぱい。
06/11/28 00:09:05
>>459
>つまり、増設後に新たに書き込まれた分だけ4台でストライプされる。

それって、容量目一杯使っているとこにディスク増設しても
容量が増えないってこと?
理解が悪くてスマソ。

461:名無しさん@お腹いっぱい。
06/11/28 00:21:06
>>457

RAID-Z自体にディスク追加はできないんじゃね?

zpoolのmanには
The existing device cannot be part of a raidz configuration.
って書いてあるようだが。

462:名無しさん@お腹いっぱい。
06/11/28 00:22:36
>>461
間違えた。ごめん。

×zpoolのmanには
○zpoolのmanのzpool attachには

463:名無しさん@お腹いっぱい。
06/11/28 00:34:33
ZFSとNetAppでIsiron出番無し。

以上。

464:名無しさん@お腹いっぱい。
06/11/28 01:18:32
>>462 1台だけ追加するのは無理なのかもな。
URLリンク(solaris-user.com)

465:名無しさん@お腹いっぱい。
06/11/28 01:26:39
Isiron、ATAのみじゃん? FC無いの?

466:名無しさん@お腹いっぱい。
06/11/28 05:40:49
>>465 ない(確認済み)


467:名無しさん@お腹いっぱい。
06/11/28 06:06:55
そういえば1diskからArrayに足していけるのってX-RAIDぐらいか?

468:名無しさん@お腹いっぱい。
06/12/01 00:00:28
どなたかZFSを使ってる人にお願いです。
Postmarkというファイルシステムのベンチマークソフトがあるのですが、
どなたが実行して結果を貼り付けてもらえませんか?
URLリンク(www.tkl.iis.u-tokyo.ac.jp)

postmarkを立ち上げた後、以下を読み込ませて実行お願いします。
CPU、メモリ、HDD、OSなどの報告してもらえると助かります。

set size 500 15000
set number 10000
set subdirectories 1
set transactions 100000
set bias read 5
set bias create 5
run
quit

ちなみに他のFSでの結果が以下のスレにありますので、気になる方はどうぞ。

/**ファイルシステム総合スレ その6**/
スレリンク(linux板)

469:名無しさん@お腹いっぱい。
06/12/01 02:12:44
じ ぶ ん で や れ

470:名無しさん@お腹いっぱい。
06/12/01 02:33:46
>>468
やってやるよ。
だがその前にSolaris落としてインストールしなくちゃならんので待っててくれ。
ついでに空き容量も無ければ、すぐに使えるマシンもない。
今使ってるマシンのうちどれを利用するか検討してみる。


471:名無しさん@お腹いっぱい。
06/12/01 03:09:32
俺がもうやっちゃった

472:名無しさん@お腹いっぱい。
06/12/01 03:18:01
>>470
早速釣れたようだ
GJ!

473:名無しさん@お腹いっぱい。
06/12/01 10:37:29
ベンチしてくれた人ありです。
しかし恐ろしいほどの速度が出ちゃいましたね。
いったい原因は何なんでしょう・・・。

474:名無しさん@お腹いっぱい。
06/12/01 10:39:19
>>473
奥なんとかさん、出番ですよ。

475:名無しさん@お腹いっぱい。
06/12/01 10:46:46
ベンチソフトのバグだろ

476:名無しさん@お腹いっぱい。
06/12/01 11:39:45
ベンチソフトの作成元がNetAppというのがポイントじゃね?

477:名無しさん@お腹いっぱい。
06/12/01 12:15:34
敵のベンチマークソフトで良いスコアを出すぐらいの
目標はクリアしてしかるべきじゃね?

478:名無しさん@お腹いっぱい。
06/12/03 22:33:37
zfsがHA化できればいいのだが

479:名無しさん@お腹いっぱい。
06/12/03 23:22:08
11/06でSunClusterに対応すると聞いた。そうなればVCSも追随するのでは?

480:名無しさん@お腹いっぱい。
06/12/04 00:06:28
VCS使うなら、Vx~3点セットも買うし。


481:名無しさん@お腹いっぱい。
06/12/04 07:45:22
>>480 無くても困らない。

482:名無しさん@お腹いっぱい。
06/12/04 08:04:59
>>480
VM、FSともうひとつは何?

483:名無しさん@お腹いっぱい。
06/12/04 09:20:28
CFSオプション


484:名無しさん@お腹いっぱい。
06/12/04 20:57:32
ZFS RAID-Zに1台だけDisk追加が可能か試してみた。
結果は×。RAID-Zの容量拡張は最低でも3台必要。
zpool create mypool raidz c1t0d0 c1t1d0 c1t2d0
zpool add mypool raidz c2t0d0 c2t1d0 c2t2d0

485:名無しさん@お腹いっぱい。
06/12/05 00:45:15
>>484
thx。
了解しました。

486:名無しさん@お腹いっぱい。
06/12/05 19:48:54
ユーザ単位のクオータを考慮した場合、ZFSの流儀では1ユーザ1ファイルシステム
なんだろうな。通常?のUNIXクオータも載せて欲しいな。
ユーザ単位に固定容量のファイルシステムを割り当てられるのは便利だけど。
10000人いたら10000個のファイルシステムがdf -hやzfs listで並んでしまう。

zpool create mypool raidz c1t0d0 c1t1d0 c1t2d0
zfs create mypool/home
zfs create mypool/home/user1
zfs create mypool/home/user2
zfs set mountpoint=/export/home mypool/home
zfs set quota=2g mypool/home/user1
zfs set quota=2g mypool/home/user2

487:名無しさん@お腹いっぱい。
06/12/06 20:04:14
NetAppのFlexVolやTree Quotaは数に制限があったと思う。
その意味ではZFSのQuotaの方が優れているな。
スナップショットの管理とsend、recvの使い勝手についてはまだまだだけど。

488:名無しさん@お腹いっぱい。
06/12/06 20:31:01
バックアップ取らない運動のキーマンになりそうで素敵なRAIDですね
BD-ROM 1TBとかないのかなぁ

489:名無しさん@お腹いっぱい。
06/12/06 21:05:46
バックアップは普通に取れるよ? NFS V4のACL使わなければNetBackupでも行ける。
send使えば確実に取れるし。
sun1# zfs send pool/home@snapshot1 > /backup/home@snapshot1

ネットワーク上にもう1台、同容量のZFSファイルシステムを持つサーバを立てておけば、差分コピーによる
バックアップも可能です。SunFireX4500なら24TBで1000万位。

まずは1回目のスナップショットを取ってフルコピー。
sun1# zfs send pool/home@snapshot1|ssh sun2 zfs recv pool/home@snapshot1
次の日にスナップショット取って差分コピー。
sun1# zfs send -i pool/home@snapshot1 pool/home@snapshot2|ssh sun2 zfs recv pool/home@snapshot2

490:名無しさん@お腹いっぱい。
06/12/06 22:31:28
>>489
24TB・・・バックアップ込みでもうちの需要の6倍はありますねw
保守意識の低い会社に居るんでよだれの出るサーバです

491:名無しさん@お腹いっぱい。
06/12/06 23:06:13
ストレージやバックアップにお金出してくれない経営陣は少なくないよね。
ただ、最近、風潮が変わってきたかも。SOX法やらリスクマネジメントやらの
キーワードが世間で話題になっており、ともすると、アナリストから会社の
体制について問い合わせが来たりする。で、遅ればせながら経営陣からIS部門
に「うちはどうなっている」と。NetAppが売れてきているのもそのせいかな?
ZFSはNetAppを買えないサイトに、安く、同様の環境を作る事が出来る所が
メリットだと思う。機能的にはまだまだ粗いので運用的な工夫は必要だけど。

492:名無しさん@お腹いっぱい。
06/12/07 02:36:39
うわー、ここまであからさまなNetAppの宣伝は見たことねえwwwwwww

493:名無しさん@お腹いっぱい。
06/12/07 07:37:17
ZFSの宣伝では?

494:名無しさん@お腹いっぱい。
06/12/07 22:11:42
SunFireのファイルサーバの宣伝はいいけど、一般的な会社じゃオーバースペックだね

495:名無しさん@お腹いっぱい。
06/12/07 22:23:46
>>494 PCのDiskまできっちりバックアップとろうと思ったら、既存のファイル
サーバー分と加えて、計10TB位はすぐに行かないか?
メールアーカイブとか、ややこしい話もあるしな。

496:名無しさん@お腹いっぱい。
06/12/07 22:37:41
ZFS、Diskがたくさん無いと遊べないかと思うかもしれないけど。
ファイルでもPool作れるんで遊んでみましょう。
余っているパーティション使ってもいいし。

# mkdir /work
# mkfile 200m /work/file1
# mkfile 200m /work/file2
# mkfile 200m /work/file3
# zpool create rzpool raidz /work/file1 /work/file2 /work/file3

497:名無しさん@お腹いっぱい。
06/12/07 22:50:02
>>493
NetApp業者乙
売ってもいないのに宣伝ってありうるのか?

498:名無しさん@お腹いっぱい。
06/12/08 15:27:59
>>496
とりあえず、この遊び方は基本だね。
パーティション用意したりしなくていいのは結構助かる。

499:名無しさん@お腹いっぱい。
06/12/08 16:29:55
Solaris10 6/06以上のマシンを持っているやつはZFSで遊ぼう。
すぐさまmkfileしてzpoolだ!

500:名無しさん@お腹いっぱい。
06/12/09 00:31:01
GSP! GSP!

501:名無しさん@お腹いっぱい。
06/12/09 01:02:13
正式に搭載されてしばらく経つけど、不具合って一切聞こえてこないね。
ちょっとすごいんじゃない?

502:名無しさん@お腹いっぱい。
06/12/09 02:38:54
リリースが遅れて、Solaris(10)の商業的な価値を低下させたぐらいかな?

503:名無しさん@お腹いっぱい。
06/12/09 03:06:17
名前出てから実用になるまでをこんな短期間で達成したファイルシステムって
他にあるかよ? ちょっとすげーと思うけど。

504:名無しさん@お腹いっぱい。
06/12/09 03:24:51
これだけ画期的なファイルシステムは他にはないよ。UFSやJFS、XFS
EXT3、VxFSなんかとは次元が違う。

505:名無しさん@お腹いっぱい。
06/12/09 03:28:43
EXT4ってどうよ?

506:名無しさん@お腹いっぱい。
06/12/09 03:53:37
RAID1+0ボリュームの作成、ファイルシステム作成、マウント設定、マウント作業
が一行だけで済むファイルシステムは他にはない。誰でも使える。
zpool create -m /zfs mirpool mirror c1t0d0 c1t1d0 mirror c1t2d0 c1t3d0

507:名無しさん@お腹いっぱい。
06/12/09 09:09:36
>>505
問題外。

508:名無しさん@お腹いっぱい。
06/12/09 09:18:18
はやくOSXとLinuxで正式採用されないものか。

509:名無しさん@お腹いっぱい。
06/12/09 10:36:14
うさん臭いスレだな

510:名無しさん@お腹いっぱい。
06/12/09 12:59:41
Linux は... 誰に聞いても VFS がダメだっていうよ。VFS ダメだったら
何くっつけてもダメだわなw

511:名無しさん@お腹いっぱい。
06/12/09 20:37:55
RAIDとか簡単に作成できるのは分かったが
稼働中にHDD引っこ抜いてみたりとか
がりがり書いてるときにいきなり電源切ってみましたとか
そういうレポはないのか

512:名無しさん@お腹いっぱい。
06/12/10 03:51:51
>>511 全然問題ないよ。ZFSの良い所の一つとして、データの再同期が
実際に使用されているデータブロックのみに対して行われる事です。
1GBしか使っていなければ、1GBのみの同期で済むので、再同期の時間が
短くて済みます。
ちなみに現Versionではホットスペアはサポートされていないので注意。
11/06でサポートです。RAID6相当のRAID-Z2も同様。

513:名無しさん@お腹いっぱい。
06/12/10 11:10:30
すごいらしいことは、なんとなくわかった。
実運用でZFS使ってる人いる?


514:名無しさん@お腹いっぱい。
06/12/10 11:47:37
もうすぐ実運用

515:名無しさん@お腹いっぱい。
06/12/10 13:12:02
Solaris11からだろうな。


516:名無しさん@お腹いっぱい。
06/12/10 19:40:57
11/6で流行るんじゃね? なんて言ったってRAID6(相当)

517:名無しさん@お腹いっぱい。
06/12/10 21:19:15
RAID6をソフトウェアで処理するのは、相当重いだろ。


518:名無しさん@お腹いっぱい。
06/12/10 21:45:17
>>517 βで試験している限りでは性能はそれほど落ちない。

519:名無しさん@お腹いっぱい。
06/12/10 21:47:53
マルチコア、マルチCPUなら1コアまるっとパリティ演算だけやらせればXORチップより速い

520:名無しさん@お腹いっぱい。
06/12/10 21:49:52
>>518,519
性能より負荷を気にしているわけだがw


521:名無しさん@お腹いっぱい。
06/12/10 21:54:18
CPU負荷なんて最近のCPUなら気にするほどでは。

522:名無しさん@お腹いっぱい。
06/12/10 22:06:40
こうもマルチコアが一般化してくると、多少のCPU負荷でも無問題という気になってくる。

523:名無しさん@お腹いっぱい。
06/12/10 22:08:30
ていうかむしろCPUを使うアプリケーションを求めているのだろうな

524:名無しさん@お腹いっぱい。
06/12/10 22:14:25
ZFSはシーケンシャルread/writeはすごく速い。構成によってはハードRAIDよりも速い。
ハードウェアRAIDに劣るのはランダムwrite。ライトキャッシュが無いので
これは仕方ないよね。

525:名無しさん@お腹いっぱい。
06/12/10 22:34:21
>>520
何を気にしてんだか

526:名無しさん@お腹いっぱい。
06/12/10 23:20:54
今までのソフトウェアRAID5は書き込み性能があまりにも遅くて使い物に
ならなかった。が、ZFSは書き込み性能も良い。ソフトウェアRAID5で
はじめて使い物になるレベルのプロダクトである所がすごいでしょ。
金の無いサイトには朗報じゃないかと思うんだけど。
しかもスナップショットやクローンと言う便利機能が気軽に使える。
SolarisのUFSスナップショットなんかだと使用中に性能が落ちるん
だけど、こちらはそんな事無いからね。コマンドも1秒位で返るし。

527:名無しさん@お腹いっぱい。
06/12/11 00:13:19
oracleなんかでrawデバイスつかえますか?

528:名無しさん@お腹いっぱい。
06/12/11 00:53:47
ボリュームを作ればOK。でも、ファイルシステムでいいじゃん。ASM?
zfs create -V 5gb tank/vol

529:名無しさん@お腹いっぱい。
06/12/11 01:02:04
>>526
>今までのソフトウェアRAID5は書き込み性能があまりにも遅くて使い物に
>ならなかった。

RAIDframeはだめですかそうですか。

530:名無しさん@お腹いっぱい。
06/12/11 01:13:49
超うさん臭いスレだな

531:名無しさん@お腹いっぱい。
06/12/11 01:23:17
RAIDframeってRAID5でも速いの? SVMはVMは単体Diskの性能よりも
はるかに遅くなるんだよ。

532:名無しさん@お腹いっぱい。
06/12/11 08:39:59
FreeBSD:geom の graid3 とか gvinum な RAID5 とか

遅いと言われれば遅いか? 充分実用レベルとは思うがね

533:名無しさん@お腹いっぱい。
06/12/11 20:31:03
ZFSは数百MB/sec出るよ。

534:名無しさん@お腹いっぱい。
06/12/11 20:32:18
いやそうじゃなくて


535:名無しさん@お腹いっぱい。
06/12/11 20:47:41
単体ディスクだと30MB/sec位か。ソフトウェアRAID5でそれ位出れば
十分実用的と言えるが。

536:名無しさん@お腹いっぱい。
06/12/11 22:11:30
GTOコピペを思いだすスレだな

537:名無しさん@お腹いっぱい。
06/12/11 22:55:12
並列に read/write を発行しても性能が出るような作りになってるのかな?
まあ、random read/write の性能値から推測はできるんだろうけど、
どこまでちゃんと動くのか興味があるなあ。

並列アクセスするとダメダメになるのって、最近ありがちだし。


538:名無しさん@お腹いっぱい。
06/12/11 23:19:16
>>537 ランダムは性能出ないよ。HW RAIDと違ってwrite cacheが無いので

539:名無しさん@お腹いっぱい。
06/12/11 23:20:20
ファイルの生成と削除は速いんで、意外とメールスプールなんかも
ありかもしれない。NetAppのpostmarkでも良い値を出していたような。

540:名無しさん@お腹いっぱい。
06/12/12 21:05:17
11/06出たらしいぞ。みんなRAID-Z2使ってみよう

541:名無しさん@お腹いっぱい。
06/12/12 21:30:00
ババアはナチュラルに人種差別するからな。

542:名無しさん@お腹いっぱい。
06/12/13 00:40:31
まずはこれだけ覚えろ。/mypoolと言うファイルシステムがすぐに作成される。
RAID1  zpool create mypool mirror c1t0d0 c1t1d0
RAID1+0 zpool create mypool mirror c1t0d0 c1t1d0 mirror c1t2d0 c1t3d0
RAID-Z  zpool create mypool raidz c1t0d0 c1t1d0 c1t2d0 spare c1t3d0
RAID-Z2 zpool create mypool raidz2 c1t0d0 c1t1d0 c1t2d0 spare c1t3d0

543:名無しさん@お腹いっぱい。
06/12/13 02:49:01
RAIDZ2って、RAIDZと何が違うの?

544:名無しさん@お腹いっぱい。
06/12/13 07:38:05
>>543
ダブルパリティ

545:名無しさん@お腹いっぱい。
06/12/13 09:01:20
RAID-Z2 zpool create mypool raidz2 c1t0d0 c1t1d0 spare c1t2d0 c1t3d0
こうじゃねえの?


546:名無しさん@お腹いっぱい。
06/12/14 01:01:31
>>545 2台でRAID6組んでも意味無いじゃん。
と言いながら542は3台で組んでしまっている。意味無いね。
最低でも5台以上ないとな。3D+2P
4台ならRAID1+0の方がきれいだ。

547:名無しさん@お腹いっぱい。
06/12/17 09:32:45
Zettabyte sur Leopard
URLリンク(mac4ever.com)


OSX 10.5でのZFS正式対応が決まったようです。
次期標準フォーマットとはいわないまでも、
せめて起動ディスクに設定できるとうれしいんだけど
まだ無理かしらん。

548:名無しさん@お腹いっぱい。
06/12/17 13:37:31
>>547
OS XはUFSサポートの悪夢があるから、どうにも信用できないんだよなぁ

549:名無しさん@お腹いっぱい。
06/12/17 14:03:15
へぇ~。結構早いサポートだねぇ。もう安定稼働してるってことなんだろうなぁ。

550:名無しさん@お腹いっぱい。
06/12/18 09:38:43
549 のせいで信用が大幅ダウン

551:名無しさん@お腹いっぱい。
06/12/18 20:35:29
ZFSはUFSと違って、Mac独自のリソースフォークとか、
ファイルタイプ/クリエーターとかもFS内に格納できるんじゃないかなー。
となると、10.6ぐらいでZFSを標準フォーマットとして採用してくることもあり得る。

それにSunとAppleは仲が良い。

552:名無しさん@お腹いっぱい。
06/12/18 22:52:50
よっしゃ、じゃその勢いで Quartz と CoreAudio を Solaris に積んでくれたのむ。

553:名無しさん@お腹いっぱい。
06/12/18 23:03:14
10.5 からは、カーネルは Mach/Solaris、Unix コマンド群は FreeBSD/Solaris/GNU から
好きな組み合わせを選べます。

554:名無しさん@お腹いっぱい。
06/12/19 01:57:35
>>553
そいつはすごい!


555:名無しさん@お腹いっぱい。
06/12/19 05:11:34
えーっと、そいじゃ
カーネルはSolaris、コマンド群はSolarisでいっちょ頼むわ
・・・
・・・・・・
(ノ ゚Д゚)ノ ==== ┻━┻

( ・ω・)いや?
SolarisにあのGUIが付くと考えればオイシイか・・・

556:名無しさん@お腹いっぱい。
06/12/21 00:36:15
docs.sun.com。いつの間にか11/06の部分も翻訳されている。
さぁ、RAID-Z2を使ってみようかな

557:名無しさん@お腹いっぱい。
06/12/21 00:52:30
URLリンク(www.thinksecret.com)

558:名無しさん@お腹いっぱい。
06/12/21 01:04:27
ZFSのsnapshotコマンドで -r と言う再帰処理のオプションがついた。
全然意味無いじゃんと思っていたら、これって全てのスナップショットの
タイムスタンプが同じになるんだね。それは確かに便利。
TimeFinderなんかでも複数のBCV Volを同一のタイミングで切り離したり
同期させたりする事が出来るけど、同じ様な要件に対応できそうね。

559:名無しさん@お腹いっぱい。
06/12/23 07:05:18
ZFS on Mac OS X 10.5 - a closer Look
URLリンク(themachackers.com)

560:名無しさん@お腹いっぱい。
06/12/24 15:46:04
ZFSのchecksumって64bitだと思っていたんだけど、もしかして256bitがデフォルト?

561:名無しさん@お腹いっぱい。
07/01/02 05:59:34
散々ガイシュツな話題だがraidzにディスクが追加できたらなぁ
あとはshrinkか
個人で使ってる俺にはあると嬉しい機能なんだが優先度はかなり低そうだよね

562:名無しさん@お腹いっぱい。
07/01/05 21:00:23
バックアップ機能を強化して欲しい。NetAppで言う所のSnapVaultやSnapMirror機能

563:名無しさん@お腹いっぱい。
07/01/06 00:38:19
別のRAID/ZFS領域にスナップショットのフルバックアップと
スナップショット間の増分バックアップを保存するのとどう違うの?

564:名無しさん@お腹いっぱい。
07/01/06 00:52:55
NetAppは知らんけど、
一般的には、スナップショットとMirrorは意味が全く違うものだし。


565:名無しさん@お腹いっぱい。
07/01/06 03:07:05
うん、そうだよね。

566:名無しさん@お腹いっぱい。
07/01/06 10:45:32
LinuxのZFSが書き込みまでフルサポートしたな。パフォーマンスは悪そうだが。

567:名無しさん@お腹いっぱい。
07/01/06 18:25:24
環境によってはRAID-Z のパリティやチェックサムの計算がボトル
ネックになるように思うのですが、(Solaris x86の) ZFS ではこれ
らの計算にマルチコア(マルチCPU)を使うことができますか?

せめて zpool を複数作った場合は別のスレッドになってくれると
うれしいなあと思うのですが、試す環境がなくて…



568:名無しさん@お腹いっぱい。
07/01/07 12:25:10
>>566
これかな。
使えるようになるまで、まだしばらくかかりそうね。
URLリンク(www.wizy.org)
URLリンク(zfs-on-fuse.blogspot.com)

First alpha of ZFS on FUSE with write support
Ladies (?) and gentlemen, the first preview of ZFS on FUSE/Linux
with full write support is finally here!
You can consider it my (late) Christmas gift for the Linux community ;)
Don't forget this is an alpha-quality release. Testing has been very limited.
Performance sucks right now, but should improve before 0.4.0 final,
when a multi-threaded event loop and kernel caching support are working
(both of these should be easy to implement, FUSE provides the kernel caching).

569:名無しさん@お腹いっぱい。
07/01/07 13:05:44
FUSEかよ

570:名無しさん@お腹いっぱい。
07/01/07 17:25:56
なんかすべて台無しな予感

571:名無しさん@お腹いっぱい。
07/01/07 18:37:08
FUSE ってなに?

572:名無しさん@お腹いっぱい。
07/01/07 18:46:10
おままごと。


573:名無しさん@お腹いっぱい。
07/01/07 18:56:23
>>571
ググレカス
google://fuse linux


574:名無しさん@お腹いっぱい。
07/01/07 19:31:07
すっぱいぶどう

575:名無しさん@お腹いっぱい。
07/01/07 19:37:27
カスぐぐった
Filesystem in USErspace ってことか

576:名無しさん@お腹いっぱい。
07/01/08 00:06:25
電流増えるとプッチンて切れるあのフューズのことか? さもありなん。

577:名無しさん@お腹いっぱい。
07/01/08 03:44:03
ヒューズが切れるのに音なんかしないぜ。
ブレーカかなんかと勘違いしてるんじゃないの?

578:名無しさん@お腹いっぱい。
07/01/08 03:51:07
>>577
10km先で針の落ちる音が聞こえる耳なら聞こえるはずだ。
鼓膜破けそうだけどな。

579:名無しさん@お腹いっぱい。
07/01/08 04:14:05
プッチンを擬声語と捉えるか擬態語と捉えるかが問題であろう。

580:名無しさん@お腹いっぱい。
07/01/08 05:15:32
FUSEじゃまともなシロモノになるわけがないと思うのは偏見なんだろうか。

581:名無しさん@お腹いっぱい。
07/01/08 06:02:15
Google の SoC だったんね。
Proposal 読んだ感じだと、interoperability のことを第一に考えて
FUSE にしたっぽい。ガチで利用しようという気はなさげ。
MacOSX が ZFS 乗せてくれば、利用価値はそれなりにありそうだけど
(マルチブートマシンでOSX領域読みたいとか)。

FUSE for FreeBSD があるから FreeBSD でもすぐに動くようになるよ!
とか言われても、ハァって感じだがw

URLリンク(www.wizy.org)

582:名無しさん@お腹いっぱい。
07/01/08 07:31:08
fs周りではLinuxどころではなくボロクソに言われていたOS Xが、
一躍トップクラスに躍り出る可能性があるのか。

583:名無しさん@お腹いっぱい。
07/01/08 11:20:09
仕様が良くても実装がなあ。しょせんBSDだからなあ。

584:名無しさん@お腹いっぱい。
07/01/08 11:38:48
カーネルはともかく、ZFSの部分はパクリまくったんじゃないの?
CDDLはBSDとは矛盾しないんでしょ?


585:名無しさん@お腹いっぱい。
07/01/08 14:09:37
>>582
えっと、VFS がダメだからどんなファイルシステムのせてもダメと言われてるのは
Linux ですが。

586:名無しさん@お腹いっぱい。
07/01/08 15:38:35
Solarisに遥かに劣るBSDカーネルの上にZFS乗っけても、
信頼性や安定性は未知の領域じゃまいか。
駄目とか良いとかじゃなくて、出てみないと分からん。

587:名無しさん@お腹いっぱい。
07/01/08 17:13:31
犬糞はどっちにしろダメ確定。

588:名無しさん@お腹いっぱい。
07/01/08 17:20:40
>586

釣れますか?

589:名無しさん@お腹いっぱい。
07/01/08 17:32:15
>>585
OS Xのまったく使い物にならないUFSの腐れポートとか、
いまだにHFS+を使い続けていることとか知らないヤシ?

590:名無しさん@お腹いっぱい。
07/01/08 17:33:40
583=586かな

591:名無しさん@お腹いっぱい。
07/01/08 17:45:11
>>589
MacOSXのUFSはCarbon File Managerの機能が
一部欠落してるのがMacで使うには痛過ぎるだけじゃね?


592:名無しさん@お腹いっぱい。
07/01/08 18:00:53
同種サービスに対するOSごとの稼働率を比較した資料とかあるの?
そんなにBSDを否定するんだから、たぶんあるんだと思うので見てみたい

593:名無しさん@お腹いっぱい。
07/01/08 22:22:39
香具師は真面目に質問するとたぶん逃げるよ

594:名無しさん@お腹いっぱい。
07/01/08 22:24:26
冬休み終わったからもう来ないだろケケケケ

595:名無しさん@お腹いっぱい。
07/01/08 22:53:15
>>591
HFS+比だけど、速度もものすごく遅いよ。
あと、OS X serverではブートパーティションにUFSを指定できなくなっているし、
ファイルサーバのファイル置き場としてもUFSは使っちゃいけないとすら
言われている。アップル的にはもはやなかったことにしたいシロモノじゃないかな。

596:名無しさん@お腹いっぱい。
07/01/09 08:16:12
アップルは新しもの好きだから、もうFSに関しては
ZFSしか見てないだろうな。
UFSはBSD由来の名残りってだけじゃないか?

597:名無しさん@お腹いっぱい。
07/01/09 08:20:31
case insensitiveなHFS+前提で動いてるAPIとかアプリが多かったから
UFSにはトラブル多かったね。

後方互換性への配慮を最小限にしてレガシーをばっさばっさ切るのは
Appleみたいなところの役割だから、UFSをメンテナンスモードにして
ZFSに飛びつくなら、それはそれでよいことだ。

598:名無しさん@お腹いっぱい。
07/01/09 19:20:22
UFSって使われてないから切り捨てても
あんまし問題ないんじゃない?

というか、MacOSXのスレで話題に上るだろうがで、額寄せ合って
侃々諤々言い合った結果、その議論の参加者に結局UFSユーザは
いなかった・・・そんなオチが見える・・・

UFS→ZFSには問題あんまりないだろうし。

599:名無しさん@お腹いっぱい。
07/01/09 19:33:52
>>597
そんなんだったら、ZFSも普及しないなw


600:名無しさん@お腹いっぱい。
07/01/09 20:50:13
USB採用とかフロッピー廃止とか、まー結果的にトレンドの先鞭つけたと
言えなくもないものは、ハードウェア系にはそこそこある。USBの場合は
市場も開拓したし。

とはいえFSの場合、そーゆー効果はあんましないだろな。

601:名無しさん@お腹いっぱい。
07/01/09 21:48:15
あの頃はまったく流行るとは思わなかったUSBメモリが
まさかフロッピー、MO、ZIPと並み居る規格を葬りさるとは

602:名無しさん@お腹いっぱい。
07/01/10 00:45:54
MOとZIPはどっちにしろ普及しなかっただろ

603:名無しさん@お腹いっぱい。
07/01/10 00:49:37
NeXT 流れのいるここらでは MO は禁句ww

604:名無しさん@お腹いっぱい。
07/01/10 00:53:25
zipもっとった。しかも100M。

605:名無しさん@お腹いっぱい。
07/01/10 01:17:00
MOもZIPもそれなりに普及したかな

606:名無しさん@お腹いっぱい。
07/01/10 01:54:28
Zip出た時わざわざ香港に買いにいったがな

607:名無しさん@お腹いっぱい。
07/01/10 07:02:57
Zip持ってたなぁ。写真データを入れてた。
ドライブにメディア差し込んだ時の駆動音が好きだった。

608:名無しさん@お腹いっぱい。
07/01/10 10:43:17
俺もLS-120とかPDとか色々と消えたメディアを持っているな

609:名無しさん@お腹いっぱい。
07/01/10 10:46:12
>604
むしろ zip は 100M 以外知らないけどあったの?

610:名無しさん@お腹いっぱい。
07/01/10 11:34:32
>>609
250MB とか 750MB とか
URLリンク(www.iomega.com)

611:名無しさん@お腹いっぱい。
07/01/10 11:47:32
URLリンク(www.iomega.com)
750MB のドライブは 100MB のメディアは読めるだけで書けないらしい。
買わんわなぁそれだとw
ちなみにオレは 128MB の SCSI MO ドライブを 13 万円だかで買った覚えがあるw
3.5inch 勢もがんばって欲しいがね。12cm は胸ポケットに入らん。
ところで ZFS って DVD+-R, BD-R 等のジュークボックスでどんどんメディア追加とか
いう使い方できるんだろうか?(とむりやり ZFS に戻してみるw)

612:名無しさん@お腹いっぱい。
07/01/11 00:29:00
3つの raidz のストライプのzpool で、
ちょっと無茶をしていたら(後述)、1つのraidz のメンバのディス
クが別の raidz のスペアとして同期を初めちゃって一見うまいこ
と動くようになってしまった。でも明かにおかしいよなあ。
status の CKSUM は増えてるし。

どういう無茶をしたかというと
1) zpool replace 中に、replace元デバイスを使えなくした(iscsi だっ
たので iscsi サーバのサービスを止めた)
2) 1) の後に zpool コマンドは固まるようになったので reboot
3) halt まで進まずに固まったので、電源でリセット
そしたら、1) の replace元デバイスは zpool からは見えなくなっ
て、前述のような状況に。


613:名無しさん@お腹いっぱい。
07/01/11 13:06:31
むかし、MSXDOSとかであった仮想ドライブみたいに使えたら面白いなぁ
ファイルテーブルだけ、固定ディスクに入れて
データはリムーバブルメディア、
で、必要になったら「ドライブAにディスク358を入れてください」とか。

614:名無しさん@お腹いっぱい。
07/01/12 22:54:57
DVD-RAMのおかげで不要になった

615:名無しさん@お腹いっぱい。
07/01/12 23:57:53
DVD-RAM って、あの名前だけ DVD で実体は松下 PD の後継だったやつか?
あんなもん死んでも買わんと思ったがなw 5inch だしだせー

616:名無しさん@お腹いっぱい。
07/01/13 01:13:58
いまだに615みたいなのが湧いて出てくるのか

617:名無しさん@お腹いっぱい。
07/01/13 10:37:30
>>613氏のアイデアはplan 9の Pseudo-WORM File Systemを連想するなあ。
URLリンク(plan9.aichi-u.ac.jp)

と思って良く読んでみたら、dumpfsってのもZFSのスナップショット機能に
似てるような気がしてきた。

618:名無しさん@お腹いっぱい。
07/01/13 18:18:07
別にアイデアってほどのもんじゃねーだろ。
FDD のいっこしかついてない PC で MS-DOS でさえも B: って打ったら
「B ドライブにフロッピ入れろ」って出るぜ。
>>611 の最後ももちろん Plan9 の WORM ストレージ念頭。

619:名無しさん@お腹いっぱい。
07/01/13 19:39:09
「zfs の今後の計画リスト」みたいなのはどこかに公開されてるの?

具体的には zpool の shrink (というか Linux の vgreduce みたいなもの)
が予定されているのかを知りたいんだけど。




620:名無しさん@お腹いっぱい。
07/01/13 22:12:10
どんなに馬鹿にされようがFreeBSDでzfsを完全実装ってのはやり遂げて欲しい
社内サーバはActiveDirectoryとか使わないものに関してはひとつのOSに纏めたい

621:名無しさん@お腹いっぱい。
07/01/13 23:58:39
MS(X)-DOSの仮想ドライブとは違うだろう。
あれは個別のメディアを単一の物理ドライブで扱うためのもので、
論理的に1つであるはずのボリュームを
複数の物理メディア/物理ドライブに分割するのとは根本的に違う。

622:名無しさん@お腹いっぱい。
07/01/18 22:01:58
FreeBSD の FreeBSD Status Report Fourth Quarter 2006 によれば

* ACL以外の file system としての機能は一通り実装したよ
* stress test も全部 OK
* メモリリーク(?)が問題として残っているけど、
SUNの中の人も同じことに悩んでるって聞いた

ACLについては POSIX ACL より NTFS/NFSv4-type ACLs に
するかどうか判断しないといけないねー、だそうで。

623:名無しさん@お腹いっぱい。
07/01/19 01:20:59
>>622
stress testに関しては、かなりの高負荷らしいがな。

624:名無しさん@お腹いっぱい。
07/01/19 11:18:58
>>623


625:名無しさん@お腹いっぱい。
07/01/20 04:02:42
Solaris も好きだけど、FreeBSD やるね。
普段会社で使ってるのはみな FreeBSD。ZFS 楽しみ。

626:名無しさん@お腹いっぱい。
07/01/24 01:10:41
zfs set に -r オプションがないのはどうしてだろう。


627:名無しさん@お腹いっぱい。
07/01/25 23:41:50
>>626 つーか、sendに -r をつけて欲しい。
home directoryをZFSにした場合、quota使うには、1user 1zfsである必要がある。
となると、ユーザ数分だけsend/recvするのかと!

628:名無しさん@お腹いっぱい。
07/01/26 16:19:12
>>627 たしかにちょっと欲しいな。
せっかく snapshot には -r できたんだし。


629:名無しさん@お腹いっぱい。
07/01/26 16:24:25
プンソなんだからいつでもご自由に DIY!

630:名無しさん@お腹いっぱい。
07/02/12 03:04:46
MacOS X Leopard は 3 月下旬とかいう話が出てるな。ZFS 2 つめの商用リリース。
FreeBSD 方面具合はどうなんだ?

631:名無しさん@お腹いっぱい。
07/02/12 03:29:21
あれ,leopardに乗るの?
将来的に乗せたいってだけじゃなかったのか.

632:名無しさん@お腹いっぱい。
07/02/12 04:32:08
きっとベースが Solaris に変わってるに違いないww

633:名無しさん@お腹いっぱい。
07/02/12 06:08:49
へ?んなことライセンス的にできるの?
よく知らんが、LeopardにはDTraceも実装されるらしいし、、ひょっとしたら

634:名無しさん@お腹いっぱい。
07/02/12 09:44:01
なぜライセンスが気にかかるのかよくわからんが、冗談だよw

635:名無しさん@お腹いっぱい。
07/02/12 18:15:38
SolarisコンテナもMac OS Xに乗るかな。

636:名無しさん@お腹いっぱい。
07/02/12 23:47:55
zfs自体のライセンスはどうなってんの?

637:名無しさん@お腹いっぱい。
07/02/13 08:48:54
どうもなにも... OpenSolaris のライセンスだろ。どっか他から持ってきたもんなのか?
たとえ Sun の専有技術だとしても、金払ってライセンスしてもらうまでだろ?
何の心配してるのかぜんぜんわかんないんだけど..

638:名無しさん@お腹いっぱい。
07/02/13 19:05:28
まあもちつけ。
「どうなってんの?」という聞き方はそのものズバリと聞きたいことが
あるんだけど何らかの心理的障壁によりそれを表現していない聞き方だ。
しかも、本人に自覚が少ない。

>>636
実りのある質問のためには、自分の求めるものを
より具体的に示した方がよいですよ。
ライセンスについて心配事が曖昧であるならそれも含めて質問を。

ZFSの実装コードのライセンスと、ZFSの仕様自体の
ライセンスの心配をしているのだろうか?
SUNは、これまでの例に従えば、基本的に仕様はオープンにしてきているはず。
ZFSを誰かが再実装する分には、大丈夫そうな気がするな。
今も多くのプロジェクトが走っているみたいだし。
SUNの書いた、ZFSのコードを利用するとなると
利用はSolarisのコードライセンスに従うんではないかな?
その内容については詳しくない。誰かよろしく。

639:名無しさん@お腹いっぱい。
07/02/14 01:50:08
>>638
Solarisのライセンスに従ってどうすんだよorz
opensolaris.orgが公開しているソースはCDDLだから、これを使えばおk。

640:名無しさん@お腹いっぱい。
07/02/14 01:52:00
>>638

それじゃ公開できないような…。

641:名無しさん@お腹いっぱい。
07/02/14 02:07:34
公開できるとか、なんの話なんだよw?
Apple が ZFS のせるって言ってんだから、有料なら有料で金払ってるだろうし、
無料ならそのまま組込むだろうし、なんにひっかかってんのかぜんぜんわからん。
ソース公開要件のあるライセンスだと Darwin には取り込めないはず、とかの意味?

642:名無しさん@お腹いっぱい。
07/02/14 02:12:51
CDDLを守れば良いと使えると思うんだが、
CDDLって公開要件あるのか?

もしそうでもZFS以外にライセンス感染する
glueのコードだけ出せばいいんじゃね?

643:名無しさん@お腹いっぱい。
07/02/14 02:14:10
仕様はフリーで
実装されたコードはCDDLに従うってことでおk?
今はオプソ界と仲良くやってるけど悪意を持った場合に特許問題とか大丈夫?
いや、zfs実際すげえ面白そうだし使い始めたら依存しそうな気がして怖いw

644:名無しさん@お腹いっぱい。
07/02/14 02:15:38
実装されたコード < OpenSolarisの話ね。分かると思うけど。

645:641じゃないが
07/02/14 02:20:31
>>642
著作権者はどのようなライセンスを設定することもできるわけで、
一般の人にはCDDLを、特別な契約を結んだAppleには別ライセンスを
それぞれ適用するということもできなくはない。
こういうデュアルライセンスはCDDLをGPLに置き換えても成立しうる。

646:名無しさん@お腹いっぱい。
07/02/14 02:30:29
>>643
> 今はオプソ界と仲良くやってるけど悪意を持った場合に特許問題とか大丈夫?
あんた今の MacOS X は Apple がすべてイチから書き上げたとでも思ってるのかww?

647:名無しさん@お腹いっぱい。
07/02/14 08:43:10
特許と著作権を勘違いしないように。
特許問題については、イチから書いたどうかという点は特別な場合を除き意味がない。


648:名無しさん@お腹いっぱい。
07/02/14 11:25:37
>>645
一般的にはそうだが、Appleが別のライセンスで契約したかは
今後ZFSを含んだ Mac OS X がソース非公開で出荷された時に初めて分かる
と思うので現時点では不明だな。

一応CDDLのFAQとかは読んでみた。
ZFSのコードと改変部分を公開すれば製品に使ってもよいみたいだな。


649:名無しさん@お腹いっぱい。
07/02/14 15:56:12
>>643
どんなことも疑いだしたらきりがない。
こういう場合は、ライセンサーのこれまでの実績で判断するしかない。
nfs,staroffice,solaris,javaとオープンにしてきたSunを信用するかしないか、だ。

zfsがもし、MSの発表したものだったら、いくらオープンといわれても
オレは眉をべとべとにして見てしまうだろう
そういう類の話だな

650:名無しさん@お腹いっぱい。
07/02/14 17:59:20
>>646
逆。zfsをフリーなOSに持って行った場合の後のことが少し引っかかっただけ。
まあスレの流れ的にLeopardと思ったんだろうけどAppleは単に別のライセンスを受ければすむ話。

>>649
> nfs,staroffice,solaris,javaとオープンにしてきたSunを信用するかしないか、だ。
Sun としてはzfsの優位性が証明できれば市場を広げられるといったとこか。
意図がいまいち掴めなくて怖いのよ。

651:名無しさん@お腹いっぱい。
07/02/14 19:09:31
ライセンス議論ごっこいーかげんにしてほしいよトホホすぎる。 

652:名無しさん@お腹いっぱい
07/02/14 19:30:51
特許問題については「イチから書いたどうかという点はまったく意味がない」
と思うが、どうか?

653:名無しさん@お腹いっぱい。
07/02/14 21:06:18
>>648
Darwinはオープンソースだから、ライセンスは問題ないってことか。
AppleはFreeBSDの主な開発者だから、FreeBSD版ZFSを使うこともあり得るかも。

654:名無しさん@お腹いっぱい。
07/02/14 21:31:10
>AppleはFreeBSDの主な開発者だから、FreeBSD版ZFSを使うこともあり得るかも。??どこの宇宙の方ですか?

655:名無しさん@お腹いっぱい。
07/02/14 21:33:14
Apple信者は怖いなw

656:名無しさん@お腹いっぱい。
07/02/14 21:42:41
いつの間にかPortする側とされる側が逆転している…!
げに恐ろしきものは信者かな。

657:名無しさん@お腹いっぱい。
07/02/14 21:48:27
>>653
FreeBSD版って いつから、ZFSがオープンになってんねん

658:名無しさん@お腹いっぱい。
07/02/14 21:52:36
おまいら全員 OpenSolaris のソース全行音読してこい。

659:名無しさん@お腹いっぱい。
07/02/14 23:21:13
Mac信者は本当に頭が悪いからなぁ
スレリンク(mac板:64-番) とか。

660:名無しさん@お腹いっぱい。
07/02/14 23:23:26
>>658
声に出して読むプンソラ出してくれよw

661:名無しさん@お腹いっぱい。
07/02/14 23:26:19
まぁでもfreebsdの故みゅみればmac関係者がねぇ

662:名無しさん@お腹いっぱい。
07/02/14 23:58:38
おまえら釣れすぎだ

663:名無しさん@お腹いっぱい。
07/02/15 00:11:48
appleとopensourceの悲惨な歴史を見れば疑いたくもなるだろ。
正に盗人だからな。

664:名無しさん@お腹いっぱい。
07/02/15 00:12:42
>>659
お仕事ご苦労様です。

520 名前: 名称未設定 Mail: 投稿日: 2007/02/13(火) 22:53:27 ID: 2qfptv3r0
スレリンク(mac板:64-66番) によると
LVM,セキュアOS,Xenはマカにとって目糞鼻糞な技術だそうですね.

#セキュアOSやXenはともかく,LVMのスナップショットバックアップ(これはZFSでも可能)や
#ディスクの動的追加は一般ユーザにもうれしい機能だと思うんだけどなあ

521 名前: 名称未設定 Mail: sage 投稿日: 2007/02/13(火) 22:57:48 ID: xLobrGef0
何かよく知らんが、慣用句の使い方が間違っていることの方が気になる。

665:名無しさん@お腹いっぱい。
07/02/15 00:18:13
>>663
盗んでも知らん顔してる MS の方がマシかもしれない
少なくともコミュニティは掻き回さない

666:名無しさん@お腹いっぱい。
07/02/15 00:23:46
>>665
コミュニティかき回したってどの話のことだ?


667:名無しさん@お腹いっぱい。
07/02/15 00:28:55
最近ではkhtmlとかFreeBSDとかじゃないか?

668:名無しさん@お腹いっぱい。
07/02/15 00:33:09
KDE/KHTMLとWebCoreに関して揉めたときじゃね?
揉めたっつってもcnetがマッチポンプしたような気もするが。

スラッシュドット ジャパン | SafariとKHTML
URLリンク(slashdot.jp)

669:名無しさん@お腹いっぱい。
07/02/15 00:42:55
実際のとこ、FreeBSDの開発にどれくらいAppleが参加してるもんなの?
このスレにはFreeBSD開発者は少ない?

670:名無しさん@お腹いっぱい。
07/02/15 00:43:54
んで割とすっきり解決したらしい

アップル、新プロジェクトを立ち上げ--オープンソース開発者との関係修復へ - CNET Japan
URLリンク(japan.cnet.com)

671:名無しさん@お腹いっぱい。
07/02/15 00:45:36
Appleは前科が多すぎるからなぁ

672:名無しさん@お腹いっぱい。
07/02/15 00:55:24
>>669
> 実際のとこ、FreeBSDの開発にどれくらいAppleが参加してるもんなの?
> このスレにはFreeBSD開発者は少ない?

数は知らないけど、Michael Smithは前はFreeBSDの主力開発者のひとりで
今AppleでDarwinのカーネル書いてる

673:名無しさん@お腹いっぱい。
07/02/15 00:56:45
IBM なぜFreeBSDか - Japan
URLリンク(www-06.ibm.com)

OpenBSD/macppcはNetBSDコードに基づきますが、完全に機能する
ポートにするために、OpenBSDプロジェクトにより依存しています。
明白な理由から、FreeBSDプロジェクトはそっけない態度を取り続け、
IntelとAMDのサポートに専念していましたが、Mac OS XのOSS
カーネルであるDarwinがリリースされて以来、FreeBSDコードが
Macintoshアーキテクチャーで動くようになりました。このことは、
AppleがIntelサポートを発表した今日では、あまり関係がないように
思えるかもしれません。しかし、FreeBSDとDarwinの開発には重なり
合う部分がかなりあり、かなり多くのFreeBSD開発者がApple社員です。

674:名無しさん@お腹いっぱい。
07/02/15 01:13:42
PowerPC 依存、Macintosh のアーキ依存部分はかなりが NetBSD 由来のはず。
MacOS X の最初の頃の話だけど。
FreeBSD と NetBSD の開発メンバーで Apple へ行ったのはたくさんいる。

675:名無しさん@お腹いっぱい。
07/02/15 04:52:26
Zにしたらもう次がないのでいい名前じゃない。

676:名無しさん@お腹いっぱい。
07/02/15 05:59:32
>>675
んじゃZZや、V、G、W、Xなどなど…。と思ったら、vfs、gfs、xfsは既にあるなぁ。
wfsだとWindows FSっぽい。
ってことで、∀fsなんてどうよ。

677:名無しさん@お腹いっぱい。
07/02/15 10:50:17
>>676
その次はfsSEED(fs種)->fsSEED Destiny(fs種死)か。

678:名無しさん@お腹いっぱい。
07/02/15 12:30:09
FS91 とか

679:名無しさん@お腹いっぱい。
07/02/15 17:00:50
FFS(Fast File System)→FFFS(Fat Fast File System) の前例からして ZZFS だなw

680:名無しさん@お腹いっぱい。
07/02/15 17:04:06
次は、Σfsでお願いします

681:名無しさん@お腹いっぱい。
07/02/15 20:12:54
Appleは、gccにもフルタイムのコミッタを出してるな。
C++のプレコンパイルヘッダ周りとかを担当している。
他にもmDNSResponder(howl)とか、Linux/*BSDに還元されてる。


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch