連番のH画像を一気にダウンロードするat UNIX
連番のH画像を一気にダウンロードする - 暇つぶし2ch1:たのも~
01/01/10 15:02
最近、PGFをコレクション始めたのだが、httpで連番のファイルを一気にダウンロードする
ソフトやスクリプトがあれば教えてけれ。

2:名無しさん@お腹いっぱい。
01/01/10 15:11
古いがhttpdownとかで落とせば?(もっといいのがあるだろう)
連番はshスクリプトとかでファイル名生成プログラム作ればいいじゃん

関係ないがnvってゆーregetできるツールはどんなカンジ?

3:名無しさん@お腹いっぱい。
01/01/10 15:12
H画像じゃないけど、連番のファイルのダウンロードなら
perlでURLリスト作ってwget -i url.listでやってるが。

4:名無しさん@お腹いっぱい。
01/01/10 15:12
自分でつくれよ(w
おれはいっつもperlスクリプトでURLリストをつくって
wget に食わせます


5:4
01/01/10 15:13
3とかぶった(w


6:3
01/01/10 15:14
外出鬱氏。

7:3
01/01/10 15:17
みんな似たようなことやってるなー。

8:名無しさん@お腹いっぱい。
01/01/10 15:24
zshとwgetをあわせればURLリストはコマンドラインで簡単に
生成できる。

9:名無しさん@お腹いっぱい。
01/01/10 15:35
でも windows だと、この手のことするのにすんげー苦労しない?
波乗とか色々落して見たり。
#俺は teleport pro だったけど

10:名無しさん@お腹いっぱい。
01/01/10 15:57
zsh を使えば
% wget URLリンク(www.hoge.he.jp)
ってやるだけ

#zshに乗りかえろう

11:名無しさん@お腹いっぱい。
01/01/10 16:15
>>10
ほう。何か不思議。どうなってんの?

12:1
01/01/10 16:33
>3, 4様
当方、厨房ユーザーゆえ、後学のため、
そのPerlスクリプトの見本を教えてくだされ。


13:???????????????B
01/01/10 17:05
perl -e 'while ($i < 100) {printf("%s%03d%s", "URLリンク(www.hoge.he.jp) $i++, ".jpg\n");}'

まぁ、きれいじゃないが機能するよ。
んー、tcsh だけど移行しようかなぁ・・・。

14:???????????????B
01/01/10 17:07
>>10
それって 256文字 (だっけ?)の制限ないのー?
よく xargs つかうけど。

15:???????????????B
01/01/10 17:19
あ、言い忘れたけど、13 のあとに
| xargs wget
ってやってね。
んじゃ、なんどもごめん

16:1
01/01/10 17:42
>13さんとりいそぎ、さんくすです


17:名無しさん@お腹いっぱい。
01/01/10 17:53

FreeBSD なら jot,linux なら seq を使えば,連番を生成してく
れる。これを使って foreach ループを回せば,tcsh でも問題無し。


foreach i (`jot -w '%02d' 10 1`)
fetch URLリンク(eroero.com)
end

詳しくは man jot or info seq。


18:not 3,4
01/01/10 18:04
連番じゃない場合は
$file='hoge';
$cmd = 'wget';
open (_F,$file);
$proc = 0;
$max = 10;
while (<_F>)
{
if ($proc > $max)
{
wait;
$proc--;
}
unless (fork)
{
exec("$cmd $_ ");
}
else
{
$proc++;
}
}
while($proc--) {wait;}
close _F;

19:4
01/01/10 20:49
ほれ。>>1

#!/usr/local/bin/perl
#
# countupper mainly for URL generation:-)
#
$Help=<<'EOF';
countup: カウントアップするのだ! 000 001 002 ... バージョン

Usage: countup [end]
countup [start] [end]
countup [start] [end] [offset]
EOF

if ($#ARGV == 0) {
($start,$end,$offset)=(0,@ARGV,1);
} elsif ($#ARGV == 1) {
($start,$end,$offset)=(@ARGV,1);
} elsif ($#ARGV == 2) {
($start,$end,$offset)=(@ARGV);
} else {
print $Help and exit;
}
for ($i=$start;$i<=$end;$i+=$offset){
printf "%3.3d\n",$i;
}


あとは煮るなり焼くなりしてちょうだい。
countup という名前で保存して chmod 755 して
bash上から
for x in `countup 100 120 2`; do wget URLリンク(foo.com) done
とかね。

zshも便利そうだねぇ。


20:1
01/01/11 01:47
>17=18,4さんさん
ありがとうございました。いろいろ試してみたいと思います。

21:名無しさん@お腹いっぱい。
01/01/11 04:41
bash$ cat ~/script/fromto
#!/usr/bin/perl

if (@ARGV != 3) {
print STDERR "usage: fromto FORMAT FROM TO\n";
exit 1;
}

$fmt=$ARGV[0]."\n";
$from=$ARGV[1];
$to=$ARGV[2];
for ($i=$from;$i<=$to;$i++) {
printf $fmt, $i;
}
bash$ fromto "URLリンク(www.aaa.bbb) 1 50 >url
bash$ wget -i url


22:名無しさん@お腹いっぱい。
01/01/11 05:30
エロパワー恐るべし(藁

23:名無しさん@お腹いっぱい。
01/01/11 09:22
プログラミングの基本だよね, なんつーか.
プログラミング経験の無い人にはまず sh スクリプトから俺はすすめたいね.
毎日の作業と密着してて課題が思いつきやすいし.

エロくてもいい. たくましく育って欲しい



24:???????????????B
01/01/11 13:45
zshが入ってるのなら数列生成は楽だよ。

#!/usr/bin/zsh
url=$*
for val in {0..255}
do
wget ${url}${val}.jpg
done

25:名無しさん@お腹いっぱい。
01/01/11 13:49
>>24
ださ。>>10をみろよ。

26:24
01/01/11 13:54
>>25

ガーソ
外出出汁脳

27:名無しさん@お腹いっぱい。
01/01/11 14:17
そうだね、cui で使ってると、日常の作業でだるい所を
ちょっとシェルスクリプトくんでってできるからね・・・
windows の wsh って、その点でどうなのかな?
簡単に組めるのかな?

28:bash
01/01/11 14:23
i=1; while test $i -le 350; do printf "URLリンク(morning.excelland.com) $i; i=$(($i+1)); done > list
wget -i list

てのはダメ?

29:反則技
01/01/11 16:01
vectorでおとしてくる。
#windows用だったりして

30:名無しさん@お腹いっぱい。
01/01/11 16:12
>>27
慣れももちろんあるけど、まずCreateObject()してobject生成してから
このメソッド呼んで~あのメソッドに渡して~とかだから、shell script
ほど手軽な感じではないなぁ(少なくとも俺は)。

そもそも呼び出せるオブジェクト類のヘルプがどこにあるんだかわからん。

31:名無しさん@お腹いっぱい。
01/01/11 17:04
>>22
うーむ。科学の発展はエロと共にあるのです。
インターネットの普及もエロがあればこそっ!!

32:これはどうよ
01/01/11 21:07
1です。
13さんのパールスクリプトをお手本にして、徹夜で対話式連番作成パールスクリプトを作ってみました。
初めてのスクリプトです。お手柔らかにお願いします。

#!/usr/bin/perl
print "What is URL? (Default=URLリンク(www.hoge.ac.jp))
URLリンク(";)<) $host, $name, $i++, ".", $typ, "\n");
}
close(FILE);


33:名無しさん@お腹いっぱい。
01/01/12 01:15
>>32
ファイル名の数字が 1-52形式 ならいいが、01-52形式 だったら駄目だな。

34:うひひ
01/01/12 08:58
>>33
1-52とは裏本だね(うひひ
なぜすべての本が52P構成かアンダーグラウンドの割にすごい結束だ
任意の業界団体でもあるのではないかと知人の出版社社長にたずねたこ
とがある。
答えは8枚単位で原盤をおこすので8の倍数が一番無駄がないんですと
なら48?
表紙は紙質が変わるので別扱いだそうで48+4の52Pなんだそうです。

ちなみに広告や能書きのたぐいを一切載せずに表紙まで使って純粋な写真集
に仕上がっているアノ本は究極の本ではないだろうか


35:名無しさん@お腹いっぱい。
01/01/12 10:04
>>33
じゃあ、こうしよう。

print "What is first number? (default=1) ";
$i = <STDIN>;

if($i =~ /^0/){
$flag=1;
}

if ($i eq "\n") {
$i = 1;
} else {
chomp($i);}
print "What is last number? (default=52)" ;
$m = <STDIN>;
if ($m eq "\n") {
$m = 52;
} else {
chomp($m);}
open(FILE, ">list");
while ($i < $m+1) {

$num = $i;
if($flag){
$num =~ s/^(.)$/0$1/;
}

printf(FILE "%s%s%s%s%s%s%s", "URLリンク(",) $host, $name, $num, ".", $typ, "\n");

$i++;

}
close(FILE);

36:35
01/01/12 10:07
てゆーか
wgetだけで出来るだろ。

recursive指定してdepthを1にして、拡張子はjpgのみ。
多少ゴミも拾うかもしれんが、こっちの方が楽じゃない?

37:名無しさん@お腹いっぱい。
01/01/12 12:49
世の中 recursive ではできないこともあるのさ、ベイベー。


38:名無しさん@お腹いっぱい。
01/01/12 17:50
たとえば俺が自慰時に愛用している「桃色美少女ギャラリー」
URLリンク(www.jp-sex.com))は画像乱れ打ち系ソフト
では連続ゲットできないようちょっとした仕掛けがしてあって、こ
れは perl やら ruby やらでスパッと書いてやらねば駄目なのだ。

39:名無しさん@お腹いっぱい。
01/01/12 21:07
エロじゃないけど、日付が入ったファイル名の場合はどうしてる?
diary20010112.htmlみたいなのを根こそぎゲットするときとか。

40:名無しさん@お腹いっぱい。
01/01/13 00:35
>>38
そのスクリプトちょーだい (はーと

41:名無しさん@お腹いっぱい。
01/01/13 01:54
>>39

日付関係の便利なライブラリがある言語を使えばいいと思う
(RubyとかJavaとか)が、即席でCでジェネレータを書いてみた。
ただし仕様は限りなく手抜き。
日付フォーマット変えたいときはPRINTFMTをstrftime(3)で
指定可能な適当なものに変更してくれ。

#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <time.h>

#define PRINTFMT "%Y%m%d"

int gendate(const char *from, const char *to)
{
  const char *fmt = "%d%c%d%c%d";
  int i, y, m, d;
  char junk[2];
  struct tm local;
  time_t secs[2];
  char buff[24];
  const char *p;

  memset(&local, 0, sizeof(local));

  for (i = 0; i < 2; ++i) {
    p = i ? to : from;
    if (sscanf(p, fmt, &y, &junk[0], &m, &junk[1], &d) != 5) {
      fprintf(stderr, "Invalid date format: %s\n", p);
      return 2;
    }
    local.tm_year = y - 1900;  /* XXX */
    local.tm_mon = m - 1;
    local.tm_mday = d;
    secs[i] = mktime(&local);
    if (secs[i] == -1) {
      fprintf(stderr, "Can't handle date: %s\n", p);
      return 2;
    }
  }

  while (difftime(secs[0], secs[1]) <= 0) {
    strftime(buff, sizeof buff, PRINTFMT, localtime(&secs[0]));
    puts(buff);
    secs[0] += 60 * 60 * 24;
  }
  return 0;
}

int main(int argc, char **argv)
{
  if (argc < 3) {
    fprintf(stderr, "usage: %s from to\n", argv[0]);
    return 1;
  }
  return gendate(argv[1], argv[2]);
}



42:名無しさん@お腹いっぱい。
01/01/13 02:02
>>38
たしかに、しゃらくさい HTML をしてるね。

43:名無しさん@お腹いっぱい。
01/01/13 03:23
>>41
おおすごい。cで来ましたか。
なんか妙に有用なスレになってるな、ここ。(藁

44:名無しさん@お腹いっぱい。
01/01/13 14:04
名スレage

45:名無しさん@お腹いっぱい。
01/01/14 01:53
ところでPGFってよく聞くんですが、なんですか? URLとか教えてください。
って板違いか...

私は emacs 上で、M-% とか矩形カットアンドペースト(C-x r k、C-x r y)とか
使いまくってリストを作り、reget に喰わせてます。
スクリプトなりemacs上で、対話に答えるとリストのテキストを吐いてくれるような
物を作ったら便利だなと思っているんだけど、結局やっていない。

46:1
01/01/14 02:41
皆様のご協力により非常に便利なスクリプトを手にすることができ悦びの悲鳴を上げております。
スクリプトの勉強との両立ができてうれしい限りです。引き続き、
関係者・御賢者の方々には今後ともUNIXの「パーソナルユース」化
にご協力いただければと思います。
取り急ぎお礼まで。

>45
PGFについては下記URLをご覧ください。
URLリンク(members.tripod.com)

47:???????????????B
01/01/14 03:36
>>45
> emacs 上で、M-% とか矩形カットアンドペースト(C-x r k、C-x r y)

スレ違い失礼。C-w と ESC-w があるように、矩形領域を
kill ring に保存するだけ、のってないかなぁ。

# C-x r k して undo はちょっとヤダ。


48:名無しさん@お腹いっぱい。
01/01/14 04:15
>>47
register にコピーすればいいじゃん。
C-x r C-h してみればいろいろでてくるよ。
C-x r r とか C-x r s とか

49:名無しさん@お腹いっぱい。
01/01/14 09:39
>>38
これってリファラあたりをみてんのかな。
鬱陶しいね。

50:名無しさん@お腹いっぱい。
01/01/14 13:43
Referrer見てるだけならまだかわいいもんさ。
wgetだってReferrer設定できるし。
スポンサーをクリックして飛んだ先で画像URLが表示されるよーな
やつはかな~り鬱陶しい。


51:名無しさん@お腹いっぱい。
01/01/14 14:14
>>46
Linuxのねすけで見られないよ。
作った奴はマカーだね。

52:名無しさん@お腹いっぱい。
01/01/14 14:40
>51
それじゃこっちを見てくれ。

URLリンク(www.mainichi.co.jp)

流出しているらしい。

53:名無しさん@お腹いっぱい。
01/01/14 15:29
>>51
>作った奴はマカーだね。

FrontPage使ってるし、漢字コードはSJIS。
おもきしWinnerだ。ヴォケ。

54:名無しさん@お腹いっぱい。
01/01/14 22:59
Winner WInner WINner


55:>>51
01/01/15 01:22
おらのねすけではみれたぞ

56:名無しさん@お腹いっぱい。
01/01/15 01:39
wget でクッキー食べれますか?

57:>56
01/01/15 02:45
食えるわけねぇだろ。ハゲが。

58:名無しさん@お腹いっぱい。
01/01/15 03:17
>>56
食べれるよ。cookie なら。

>>57
お前ヴァカ (藁

59:58
01/01/15 03:19
ヲレがヴァカだ... w3m と wget をカンチガイ...
ウツダシノウ

>>57
ごめんちゃい

60:教えて君56
01/01/15 05:29
>>58
ありがとう。
で、どやって食べるんでしょうか?(^^;
infoをcookieでgrepしてもなんもでてこないし…

61:名無しさん
01/01/15 05:54
かわいいね。
残念ながら答えの方は俺も知らないんだけd。



62:名無しさん@お腹いっぱい。
01/01/15 09:30
Lynxなら喰えるよ。

63:名無しさん@お腹いっぱい。
01/01/22 06:23
age

64:名無しさん@お腹いっぱい。
01/01/22 07:03
wget ではスペースを含んだ URL や --user-agent を
どうやって指定するのでしょうか?
'や"で囲んでもできませんでした)

65:名無しさん@お腹いっぱい。
01/01/22 07:38
スペースのある url って存在するのかどうかはしらんが?
%20 ね。

66:名無しさん@お腹いっぱい。
01/01/22 15:41
mozilla06とかだとURL中の改行も送れる。

67:4きね8
01/01/23 23:30
K&R 改訂Cエログラミング

68:1
01/02/05 02:51
ようやく賢人の方のアドバイスで素晴らしいコレクションとなりつつあるが、
wgetが美人絵ファイルを取ってきてくれない場合があるのだけれど、どうした
ものだろう。

例えば、
URLリンク(www.sexa.com)

wgetに任せていると綺麗なおねえちゃんの写真じゃなくて、変なhtmlファイル
を取ってくる。。。。

どうか賢人の方々のアドバイスをお願いします。

69:名無しさん@お腹いっぱい。
01/02/05 03:46
>>1
ブラウザにそのアドレス打ち込んでも
画像表示されないぞ。
gtm や reget もどき使えよ。

70:?????????????¨???¢?????¢?B
01/02/05 03:56
.wgetrcに
header = Referer: URLリンク(www.sexa.com)
を書いとけばOKだ。

71:1
01/02/05 22:47
>70さん

ありがたいです。ようやく美女にgetするができました。

ところで、その呪文はどういう意味があるのですか?
後学のために教えてくれませんか。

>69
一旦、ここを経由してくれ。
URLリンク(www.sexa.com)

72:69
01/02/05 23:15
>>1
見れましたが、残念ながら私の好みではありませんでした。

Refer ってのはどこからのアクセスかチェックしている。
Refer以外からのアクセスを禁止している。
68や69で画像を直接見れなかったのが、正にそれです。
んでもって、オプションでReferを設定すると
見れるようになります。

通常Referが設定されているのは
アダルトページやWareズといったページです。
要するに直リンク禁止です。
わかりました?

73:1
01/02/05 23:28
>シックスナイン様

わかり易い解説、多謝です。

お礼代わりに、以下のURLを出発点にしてお好みのPGF美人を探りあててください。

URLリンク(www.am25.com)

74:名無しさん@お腹いっぱい。
01/02/06 00:55
getしたエロ画像を保存するのに最適と思われるディレクトリ名


75:名無しさん@お腹いっぱい。
01/02/06 01:14
xxx

76:名無しさん@お腹いっぱい。
01/02/06 07:19
collection
ero


77:名無しさん@お腹いっぱい。
01/02/06 11:33
誰か wget を flushget みたく
ファイルを分割して持ってくるようにした人いないですか?
あったらすっげぇよさそう。

78:名無しさん@お腹いっぱい。
01/02/06 23:53
>>74
...

79:名無しさん@お腹いっぱい。
01/02/07 04:18
>>74
/dev/rimage あたりかがみつかりにくくてよろしいかと。

80:名無しさん@お腹いっぱい。
01/02/07 04:46
ero.img

81:名無しさん@お腹いっぱい。
01/02/07 12:47
>>74
/mnt
普段はなんかマウントしとけ

82:名無しさん@お腹いっぱい。
01/02/07 13:24
>>81
賢い。

83:名無しさん@お腹いっぱい。
01/02/10 02:49
./.xxx

84:名無しさん@お腹いっぱい。
01/02/14 13:10
エロ画像閲覧に使えるソフトやスクリプトがあれば教えてくれ。
EEって、スライドショー機能は付いていなかったよね?

85:名無しさん@お腹いっぱい。
01/02/14 14:48
>>84
qiv はどうか
chbg を Window モードで動かすのもよいだろう

86:名無しさん@お腹いっぱい。
01/02/14 23:38
>>78
一瞬ゴルゴかと思った。
mkdirしてみてなるほど。

87:名無しさん@お腹いっぱい。
01/02/15 01:00
>>84
GQviewも試してみ。

88:名無しさん@お腹いっぱい
01/02/15 14:51
mkdir  <-- 全角スペースn個
ls しても出ん、正に透明、どうよ?

89:sage
01/02/15 19:40
>>88
$ls -F $B$5$l$k$H(B/($B%9%i%C%7%e(B)$B$,I=<($5$l$F$7$^$$$^$9!#(B
$B99$K%j%9%H$N@hF,$KI=<($5$l$k$N$G$P$l$P$l$G$9!#(B


90:名無しさん@お腹いっぱい。
01/02/15 21:21
肛門マーク * とか。

# mkdir \*


91:名無しさん@お腹いっぱい。
01/02/17 17:20
まずばれないよ
cd /usr/sbin
rm reboot
mkdir reboot
chmod 700 reboot

92:名無しさん@お腹いっぱい。
01/02/20 20:12
lajfoauf:wp

93:名無しさん
01/02/20 21:37
どんなセキュリティーねたよりも何よりも人を必死にさせるエロねたって一体・・・

94:PGFコンプリート記念age
01/02/27 02:42
2chの皆様のご協力により、標記のようにPGF全168シリーズを無事コンプリートすることができました。

ご協力頂いた無数の2chの賢者の方々に御礼申し上げます。

95:名無しさん@お腹いっぱい。
01/02/27 02:59
エロ画像のフルダウンロードですか。好きですね。

実は、自動backup機能がある、RAID5 NFSファイルサーバにエロ画像
1Gぐらいためてたんだが、ファイル消してもbackupフォルダに残って
るんだよ。backupはreadonlyで消したいんだが消せないんだ。管理者
に見つかったらどうするべ?



96:>94
01/02/27 14:48
アドレス教えて

97:名無しさん@お腹いっぱい。
01/02/27 16:41
>>95
管理者を抱きこむ
管理者を殺す
クラックする

…識者のレス待ちですかなぁ。

98:>96
01/02/27 16:51
私は下記URLのリンクなどをたどって、かき集めました。
URLリンク(www.jansweb.dk)
URLリンク(pgf.fucu.com)

このスレ立ち上げたのが1月10となっているから苦節50日ですかね。

99:名無しさん@お腹いっぱい。
01/02/27 17:07
Winで連番リスト作るのにエクセル使ってるよ。

100:96
01/02/27 18:38
>98
あり♪

>99
Winでいいならiriaが一発でやってくれる。
ワレザーが作った文化の恩恵にあずかれます。

101:99@お腹いっぱい。
01/02/28 11:30
>>100
Iriaで展開できない名前の時のみ使ってるですよ。

102:100
01/02/28 19:08
>101
そんなのあるの?

103:101
01/02/28 21:49
盂蘭盆サイトとか…、Iriaのお約束を知らない土人詩サイトとか…。

104:名無しさん@お腹いっぱい。
01/04/20 00:23
あげ

105:名無しさん@お腹いっぱい。
01/04/20 00:27
14歳です。長さ太さこの年齢でどうですか?評価お願いします。

URLリンク(216.101.214.102)




106:名無しさん@お腹いっぱい。
01/04/20 06:15
>>105
まあ普通ってとこだろう。
しかし毛がずいぶんとひ弱な感じだな。
つかお前のふとももには毛が生えてないのか?

107:名無しさん@お腹いっぱい。
01/04/20 16:09
gtmを使う私は軟弱もの。
toolメニューに連番機能があります。numeric downloadね。

URLリンク(gtm.sourceforge.net)

108:名無しさん@お腹いっぱい。
01/04/22 00:05
aria 使えば?

109:名無しさん@Emacs
01/04/22 23:06
wgetで
URLリンク(www.lares.dti.ne.jp)
このページうまく落とすことが出来ますか?
なぜかimage/comp_angle1.jpgからimage/comp_angle6.jpgがうまく落とせないのですけど・・・

110:名無しさん@お腹いっぱい。
01/04/22 23:58
>>109
# wget URLリンク(www.lares.dti.ne.jp)
--23:55:15-- URLリンク(www.lares.dti.ne.jp)
=> `comp_angle1.jpg'
www.lares.dti.ne.jp:80 に接続しています... 接続しました!
HTTP による接続要求を送信しました、応答を待っています... 200 OK
長さ: 18,463 [image/jpeg]

0K -> .......... ........ [100%]

23:55:19 (6.53 KB/s) - `comp_angle1.jpg' を保存しました [18463/18463]


111:名無しさん@Emacs
01/04/23 00:08
>>110
いやいや直接jpgをurlに指定するのでは無くたとえば
wget -r -l2 URLリンク(www.lares.dti.ne.jp)
とかでjpgファイルも一緒に落としてくれるとおもったんだけど・・・

112:名無しさん@お腹いっぱい。
01/04/23 20:01
覚書。
wget --header=REFERER: "URLリンク(www.hogehoge.com) URLリンク(www.hogehoge.com)
wget -r -A .jpg URLリンク(www.hugohugo.com)

113:名無しさん@Emacs
01/04/23 23:38
いやいや
wget -r -l1 URLリンク(www.lares.dti.ne.jp)
wget -r -l1 URLリンク(www.lares.dti.ne.jp)
この2つで
photoexpo99.htmlはjpgファイルを落としてくれるけど
comp_angle.htmlはjpgファイルを落としてくれないのです.--referer=設定してもだめ
<IMG SRC="...">のタグは落としてくれるけど<IMAGE SRC="...">のタグは落とせないのでしょうか?

もしかして私はとんでもない勘違いをしてる?

114:名無しさん@お腹いっぱい。
01/04/24 09:21
>>113
<IMAGE> ってなんだ?


115:名無しさん@お腹いっぱい。
01/04/24 10:07
IMGSRC はね、キャッスル.jp.FreeBSD.ORGがあるデザイン会社
ですね。おとしたらMLが配送されなくてこまります。

116:名無しさん@Emacs
01/04/24 17:10
結局html.cのhtmlfindurl()に{ "image", "src" }を追加する事により
解決した.

117:名無しさん@お腹いっぱい。
01/05/04 12:25
挙げ

118:なまえをいれてください
01/05/04 23:09
普通にcshで
wget http.../ecchi{0,1,2,3,4,5,6,7,8,9}{0,1,2,3,4,5,6,7,8,9}.jpg
でできるんだけど…。
うちのcshってふつうじゃないんだろか???
たまにはこんなこともする。
echo wget http.../ecchi{"{0,2,4,6,8}","{1,3,5,7,9}"}.jpg\ \& | csh
極悪?

119:もしもの為の名無しさん
01/05/07 10:38
【1】何分だいぶ昔に作ったものをまだ使っていて
可変数引数を使っていないあたりが当時の厨房ぶりの象徴ですが、
printf() の引数フォーマットをそのまま使えていろいろ使えます。それを
(1)例えば【2】みたいなんで落としてネスケで開いてページを編集→保存とか、
(2)同様に wget を使ったスクリプトを吐き出して勝手に落としてもらうか
と、そんな感じで私はやっておりますが。
※to ってコマンドが【1】をコンパイルしたもの。

【1】
#include <stdio.h>
#include <stdlib.h>
#include <string.h>

main(argc,argv)
int argc;
char *argv[];
{
int i,start,end,tmp,st;
char form[1024];

if(argc < 3){
printf("Usage: %s start end [\"format\"]\n",argv[0]);
exit(-1);
}

start = atoi(argv[1]);
end = atoi(argv[2]);
if(start < end)
st = 1;
else
st = -1;

if(argc > 3)
sprintf(form,"%s\n",argv[3]);
else
sprintf(form,"%sd\n","%");

for(i=start;i*st<=st*end;i+=st)
printf(form,i,i,i,i,i,i,i,i,i,i,i,i);

exit(0);
}

【2】
#!/bin/csh -f

foreach i (01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20 21 22)
to 1 50 '<img src="URLリンク(making001.japannudes.net)'"$i"'/%03d.jpg" width=64 heisht=48>'
end


120:名無しさん@お腹いっぱい。
01/05/07 15:24
なんだかんだで perl で oneliner 書いて | wget -i - な感じだ.



121:名無しさん@お腹いっぱい。
01/05/18 04:15
あげ

122:名無しさん@お腹いっぱい。
01/05/18 08:21
あるディレクトリから下にあるファイルのみとってくるなんてこと、できるのかな?
先輩方、よろしくお願いします。

123:名無しさん@お腹いっぱい。
01/05/18 10:45
>>122
フワナェ、簗ヒ。、筅、、惕、、惕「、�、ネサラ、、、゙、ケ、ャ。「サ荀ホ・ア。シ・ケ。」
FreeBSD、ホports、ホニテト�・ヌ・」・�・ッ・ネ・�ーハイシ、ャペ、キ、、サ、ホ、ソ、皃ヒ。「
alias wgetports 'wget --proxy=on --force-directories
--no-host-directories --directory-prefix=. --cut-dirs=4
--passive-ftp --recursive --level=1
fURLリンク(hogehoge)'
、�.cshrc、ヒス、、ニ、゙、ケ。」シツコン、マ1ケヤ、ヌ、ケ。」。ハコ�スュ、゙、キ、ソ。ヒ
、ウ、�、ヌ。「~/ports、ネ、ォ、ヌ。「wgetports shells/tcsh、ネ、ォ、キ、゙、ケ。」
、「、゙、熙ウ、ホ・ケ・�(。ヨ」ネイ霖�。ラ)、ネエリキク、ハ、、、ホ、ォ、ハ。ゥ

124:名無しさん@お腹いっぱい。
01/05/18 11:35
>>122
wgetで--no-parentを指定すれ。

125:名無しさん@お腹いっぱい。
01/05/19 15:08
象を一気にダウンロード

126:名無しさん@お腹いっぱい。
01/05/20 13:19
面倒くさいので
wget -r URLリンク(www.ero.com) なんですけど・・・
56kでも2,3時間ほっとけばそれなりおちてくるし

127:名無しさん@お腹いっぱい。
01/05/20 20:02
>>126
ちったー、設定しろ


128:名無しさん@お腹いっぱい。
01/05/26 05:10
age


129:名無しさん@お腹いっぱい。
01/06/15 16:24
最近、どうよ。

130:名無しさん@お腹いっぱい。
01/07/03 01:35
ICHでH画像全部消えた。
まあ、俺の心の中にバッファされてるが。

131:名無しさん@お腹いっぱい。
01/07/03 04:31
ageないの?

132:名無しさん@そうだドライブへ行こう
01/07/03 04:48
perl の magical increment をつかえ。

133:厨房
01/07/03 10:40
#!/bin/sh
b=10
c=1
d=Z

while test $b -lt 21
do
wget URLリンク(210.188.252.22)
pg
b=`expr $b + 1`
done
while test $c -lt 10
do
wget URLリンク(210.188.252.22)
jpg
c=`expr $c + 1`
done

134:名無しさん@お腹いっぱい。
01/07/05 13:55
つーか、特定のリンクサイトのリンク先の画像を一気に取って来る方法で、
かつ、余分な画像をはじく意味でも、サイズがある一定サイズ以上のもの
を取って来て、なおかつ、連番で保存ってどおよ。

135:名無しさん@お腹いっぱい。
01/07/06 21:31
wgetを使ってこのようにCGIでファイルがリンクされている場合はどうすればいいのでしょうか?
URLリンク(www.classicalarchives.com)

上のサイト、クラシックのMidiが作曲者ごとにたくさんあって好き。

136:名無しさん@お腹いっぱい。
01/07/07 19:28
なんかwget1.7ってmakeが失敗するんだけどなんでかな。
ていうかgnuのサイトからとってきたソース、gzipがエラー吐く・・・。
おとなしく1.6を使ってろ、ってことかな。

137:名無しさん@Emacs
01/07/08 00:49
wget1.7おれはmake出来たよ

でも-kオプションってうまく働いてない気がする.
ついでにSSLもうまくいかん.

138:名無しさん@お腹いっぱい。
01/07/10 00:48
とりあえずこの話題に関しては
まずこのサイトを見ないと始まらないと
思われ。
ツールもそろってるし
URLリンク(members.tripod.co.jp)

139:名無しさん@お腹いっぱい。
01/08/21 12:32
age

140:名無しさん@お腹いっぱい。
01/08/22 02:14
bashでときどき
for i in `seq -w 0 52`; do wget URLリンク(....) done
とか
while read i; do wget $i; done
とかやるね。後者はMozillaからURLコピーしまくる。

こういう感じの使い捨てスクリプト書いてたけど
あんまり使わなかった。標準入力からURLを入力するだけで
000~そのURLの番号まで全取得してくれるはずなんだけど。

#!/bin/bash
while read url; do
if [ -z "$url" ]; then next; fi
eval 'url=(' `echo $url|sed 's/\(.*\/[^0-9]*\)\([0-9]*\).jpg/\1 \2/'` ')'
for i in `seq -w 0 ${url[1]}`; do
wget ${url[0]}$i.jpg
done
done

GNU/Linuxシステムじゃないと動かんカモ。

141:名無しさん@お腹いっぱい。
01/08/22 12:34

集めたあとの整理はどうしてるよ?

wgetとかでとってくると
www9.smutserver.com/teen/sex1000/tgp/*.jpg
のようにディレクトリが深くていやーん。

どうでもいいけど。

142:名無しさん@お腹いっぱい。
01/08/23 04:24
$ find . -type f -name \*.jpg -exec mv {} . \;
$ rm -r */

とでもしてカレントディレクトリに移せば?

143:名無しさん@お腹いっぱい。
01/08/23 05:28
>>141
-nd つかえば?
-nHでも一つ減る。

144:名無しさん@お腹いっぱい。
01/08/23 10:01
ネタはくだらないくせに妙に為になるよ、このスレ(藁

145:名無しさん@お腹いっぱい。
01/08/23 13:45
>>141
俺は URL そのままにしてるよ。
利点は
* 連番系をあとで補間できる
* サイトを割り出せる
* 2ch で紹介しやすい :-)
* そもそもユニークなファイル名を付けるのが面倒

146:名無しさん@お腹いっぱい。
01/08/23 15:16
$ mkdir symlinks
$ find . -type f -name \*.jpg -exec ln -sf {} symlinks \;

これはどーだ?

147:sage
01/08/23 15:42
sage

148:名無しさん@お腹いっぱい。
01/08/23 16:33
おなにーするときはどうするんですか?

find . -name '*.jpg' | xargs xv -wait 2 -random

でいいですか? (藁

149:名無しさん@お腹いっぱい。
01/08/23 17:00
>>148
こーいうときに威力を発揮するのが仮想画面だったりするのよね.
1 画面に 5 ~ 6 枚, 数画面に渡り表示しておき, 画面切り替え.

1600x1200 いいぜ :D

# スレ的には失格なネタ

150:名無しさん@お腹いっぱい。
01/08/23 17:13
俺はGQviewがお気に入り。
サムネイル画像を表示させておき、
最後は全画面表示にして逝く
下品でスマソ

151:名無しさん@お腹いっぱい。
01/08/24 02:14
tarやzipを読めるviewerってない?
微妙にスレ違いだが、inode消費が気になる....

152:名無しさん@お腹いっぱい。
01/08/24 03:07
キーボードで楽に使える viewer ないかな。
ノートPCなのでほとんどキーボードでやってるんだが、
画像表示だけは GQview で仕方なくトラックボールを
しこしこやってる。

153:名無しさん@お腹いっぱい。
01/08/24 03:17
>>151
こんなのはいかが?
URLリンク(enfle.fennel.org)

154:名無しさん@お腹いっぱい。
01/08/24 03:53
>>153

Susie Plug-in にも対応してるんですね
(・∀・)イイ!

155:名無しさん@お腹いっぱい。
01/08/24 23:39
>>152
いまだに xv を愛用しています。快適。

156:名無しさん@お腹いっぱい。
01/08/25 00:14
>>141
> 集めたあとの整理はどうしてるよ?
種類ごとにディレクトリほって、symlink してる。
めんどうだけど。

画像見ながら分類したいな。
なんかいいツールない?
Nautilus か?

157:152
01/08/25 01:51
>>155
おーサンキュ。xv ってキーボードで操作できるんだ。
non-free だから今まで敬遠してたけど、使ってみよう。

158:名無しさん@お腹いっぱい。
01/08/25 02:24
>>157
最初はキーボードの操作を覚えるのがちょっと大変かもしれん。
最近は良い時代になって、FLMask パッチを使う必要がほとんどなくなった。

159:名無しさん@お腹いっぱい。
01/08/25 04:44
>>158
FLMaskパッチに感動したのも懐かしいなあ。
今はもう動画ばっかりだ。

関係ないけど「璃樹無」分割って単なるsplitだったんだね。
気づく前はこれだけのためにWIN立ち上げてたYO。

160:名無しさん@お腹いっぱい。
01/08/25 10:11
どこだったか忘れたけど、サムネール画像上のマウスの位置を送らないと見られないサイトがあって、
HTTPでPOSTリクエストしてデータを取得するPerlスクリプトを書いたこともあったなぁ。

今では、うちに背景画像配信サーバーが立っていたりする…

161:あぼーん
あぼーん
あぼーん

162:tori
01/08/25 12:02
internet -router - solaris (proxy でfire Wall) - クラスCの事業所セグメント
現在事業所の計算機をグローバルアドレスにするには、Router
使っています。このNATをルーターでは無く、Solaris で行うには
どうすればいいでしょうか?

163:名無しさん@お腹いっぱい。
01/08/25 12:07
>>162
H画像を落とすためにか?

164:名無しさん@お腹いっぱい。
01/08/25 13:00
>>161
そのページに14個のサンプルがあるけど、そのこと?
それなら、何も考えなくても、どんな方法でも簡単に落とせるように見えるけど。

165:名無しさん@Emacs
01/08/25 13:06
>>161
htmlからリンク先を抽出したいということですか?

166:名無しさん@お腹いっぱい。
01/08/25 13:13
q , ,
q /( )`
q \ \___ / |
q /- _ `-/ '
q (/\/ \ \ /\
q / / | ` \
q O O ) / |
q `-^--'`< '
q (_.) _ ) /
q `.___/` /
q `-----' /
q <----. __ / __ \
q <----|====O)))==) \) /====
q <----' `--' `.__,' \
q | |
q \ / /\
q ______( (_ / \______/
q ,' ,-----' |
q `--{__________)
q

167:名無しさん@お腹いっぱい。
01/08/25 13:14
.................,........,
................/(........)`
................\.\___.../.|
.............../-._..`-/..'
..............(/\/.\.\.../\
.............././...|.`....\
..............O.O...)./....|
..............`-^--'`<.....'
.............(_.).._..).../
...............`.___/`..../
................`-----'./
...<----......__./.__...\
...<----|====O)))==).\)./====
...<----'....`--'.`.__,'.\
................|........|
.................\......./......./\
............______(.(_../.\______/
.........,'..,-----'...|
.........`--{__________)

168:名無しさん@お腹いっぱい。
01/08/25 13:15
...................................................,........................,
................................................/(........................)`
................................................\...\___........./...|
............................................./-..._......`-/......'
..........................................(/\/...\...\........./\
........................................../.../.........|...`............\
..........................................O...O.........).../............|
..........................................`-^--'`<...............'
.......................................(_...)......_......)........./
.............................................`...___/`............/
................................................`-----'.../
.........<----..................__.../...__.........\
.........<----|====O)))==)...\).../====
.........<----'............`--'...`...__,'...\
................................................|........................|
...................................................\...................../...................../\
....................................______(...(_....../...\______/
...........................,'......,-----'.........|
...........................`--{__________)

169:名無しさん@お腹いっぱい。
01/08/25 14:32
モナーフォント無しで見られる親切設計だ。
NetBSD デーモンかな?

170:名無しさん@お腹いっぱい。
01/08/26 00:58
00000000000000000000000

171:161
01/08/26 01:07
>165
その通りです。
インターネットNinja(Window)らしき事を
Unix系OS上(特にperl)で実現したいのです。
可能でしょうか。


>162
あなた、
Solaris教えてスレッド 其の弐 (826)
の方へ書き込んだつもりでしょう。

私もその失敗、経験済みです。

172:名無しさん@お腹いっぱい。
01/08/26 01:14
>>171
Perlとかを使えば、HTMLファイルからURLを抽出するのは単なる文字列の抽出なので、
慣れれば簡単にできますよ。この機会に正規表現とか覚えるのもいいかも。

173:名無しさん@お腹いっぱい。
01/08/26 01:23
grep して sed >> list して (これを何回かやって) wget -i list

174:173
01/08/26 01:24
ガガーソ。こんな書き込みでスレをageてしまうなんて初めての経験だ…

175:普段は エロ系
01/08/26 01:32
凄い! 2ちゃん の危機で UNIX初めて覗いたけど なんか凄い
で PGF 一応全タイトルと WAVファイル持ってます
1さん
でも 簡単に 入手するより きっと 過程が楽しいのでしょうね
皆様 凄いわ!

176:名無しさん@お腹いっぱい。
01/08/26 01:44
過程なんか楽しくねーよ。

177:名無しさん@お腹いっぱい。
01/08/26 01:51
過程 "も" 楽しい。

178:普段は エロ系
01/08/26 01:53
あ そうなの(^^;;

179:名無しさん@お腹いっぱい。
01/08/26 29:00
「インターネットニンジャじや、一発じゃ。」
と無粋な流れを無視したコメントを残しておく。

(そして反発を買う。)  ワクワク・・・・うふ。





                                           ラブ。

180:では反発
01/08/26 31:00
sed で複数 html からリスト作って wget で取得の方が遥かに早いです

181:180
01/08/26 32:00
ていうか、書き込み時刻がめちゃくちゃだな

182:名無しさん@お腹いっぱい。
01/08/26 34:00
こここれは??

183:名無しさん@お腹いっぱい。
01/08/26 34:00
32:00って_________?

184:test
01/08/26 43:00
test

185:名無しさん@お腹いっぱい。
01/08/26 44:00
やっぱおかしいな

186:名無しさん@お腹いっぱい。
2001/08/26 06:02
だめ?

187:名無しさん@Emacs
01/08/26 09:17
test

188:名無しさん@Emacs
01/08/26 09:18
自治age

189:名無しさん@お腹いっぱい。
01/08/26 11:59
27 名前:名無しさん(新規) 投稿日:2001/08/26(日) 11:56 ID:9kvbOGiQ
  ◎
  ┣--┓
  |AGE|
  ┣--┛
  |
  |
 Λ|Λ
(・∀・)イイ!
(    )
|  つ |
(__)_)

190:名無しさん@Emacs
01/08/26 13:17
perlのモジュール使ってhtmlからリンク先を抽出するのは
どうやればいいんですか?

191:名無しさん@お腹いっぱい。
01/08/26 13:23
>>190
wgetでできるだろうがスカポンタン

192:名無しさん@お腹いっぱい。
01/08/26 13:28
やり方はいろいろあると思うが HTML::Parser モジュールを使うと
XML でいう SAX のような感じの処理で <A HREF="XXXXX">...</A>
の XXXXX の部分を抜きだせるはず

193:名無しさん@Emacs
01/08/26 13:33
>>191
wgetで出来るとは知りませんでした。調べてみます。
再帰転送のことではないですよね?

194:名無しさん@お腹いっぱい。
01/08/26 15:10
httpgetというスクリプトがあって、
それで再帰的にリンク先のファイルを取得できるみたいよ。
まあwgetでいいわけだけど。
参考にしてみれば?

195:名無しさん@Emacs
01/08/26 16:38
>>194
httpget取って来て見てみました。
確かにリンクを抜き出す関数がありました。感謝です。

196:
01/09/05 22:02 ssMW8tkM


197:名無しさん@お腹いっぱい。
01/09/06 07:42 t/5EHQk.
rtsp://hoge.hoge/stream.rm のストリーミングビデオを
ファイルに落とすのはどうすればいい?

198:名無しさん@お腹いっぱい。
01/09/06 12:12 RQop.hqE
>>197
http で落とせたような気がする

199:名無しさん@お腹いっぱい。
01/09/16 11:54
age

200:名無しさん@お腹いっぱい。
01/09/17 23:34
正直言って、zsh と wget で大抵の事は出来るような気がする。
今までそれ以上の手間が必要な連番ダウンロードには出会った事がない。

201:犬板
01/09/18 11:14
>>200

じゃぁここはどーやって落すの?
httpだとどっかあさってに吹っ飛ばされるのだが…

URLリンク(japanese.asian-house.com)

202:名無しさん@お腹いっぱい。
01/09/18 12:10
>201
あきらめる。
んで、他のトコから落とす。

203:名無しさん@お腹いっぱい。
01/09/18 18:19
>201 zsh -c 'wget --referer=URLリンク(japanese.asian-house.com) japanese.asian-house.com/ura/1999-10/1030_m[01-52].jpg'

204:名無しさん@お腹いっぱい。
01/09/18 18:20
間違えた。{01..52}ね。

205:名無しさん@Emacs
01/09/18 23:48
refferer

206:名無しさん@お腹いっぱい。
01/09/27 05:19
for i in `jot -s ' ' 30 1`; do i=`printf %03d $i`; for j in 1 2 3 4 5; do wget -nd -nH URLリンク(210.155.134.217) done ; done
ハァハァ

207:名無しさん@お腹いっぱい。
01/09/27 22:36
bash$ for n in `seq -f %02g 8 12`
bash$ do
bash$ echo ero$n.jpg
bash$ done

ero08.jpg
ero09.jpg
ero10.jpg
ero11.jpg
ero12.jpg

こんなんどう?

208:名無しさん@Emacs
01/10/04 01:10
>>207

140で既出

209:1
01/10/04 01:41
このところ忙しくて裏本リンクサイト見てなかったら数冊の新刊本がでてた。
一冊一冊取ってくるのは面倒なので、寝る前に一括して取ってくるスクリプトを
考えてます。とりあえずそれぞれの連番のリストファイルはlistとして作っておいて、各裏本用のフォルダーをxxx.dirにおいておくとして以下のようなスクリプ
トをつかってます。とりあえずうまくいってますが、サイトが変わるとrefererの
問題などが考えられると思います。皆様のお知恵を拝借したいと思います。

#!/bin/sh
for i in *.dir
do
cd /home/username/urabon/$i
cat list | xargs wget
done

210:名無しさん@お腹いっぱい。
01/10/04 18:04
>>209
フォルダーと言ってしまったな...

211:1
01/10/05 00:59
>>210
ばればれ? by Kyon2

212:名無しさん@お腹いっぱい。
01/10/05 01:21
$ lftp URLリンク(www.iy-n.org)
lftp> get *.jpg

ってのがまだないな。

213:(゚o゚)
01/10/05 01:59
このサイトはみなさんのインターネット環境の
スピードを計ってくれます。また、遅いと思う
人は設定を少し変えることによって無料で
スピードを早くすることができます。
お金を出す前に一度試してみては
いかがでしょうか。上がりの計測も可能です。

URLリンク(cym10262.omosiro.com)

214:名無しさん@お腹いっぱい。
01/10/05 22:28
>>209
>サイトが変わるとrefererの問題などが考えられると思います。

1さんお帰りなさい。

referer等の情報を保持したリストを読み込めるwrapperを書くのがいいのでは。
reget, getright, iria 等のリストが読み込めると嬉しいっす。

215:名無しさん@お腹いっぱい。
01/10/05 22:41
>>212
でlftpの威力をはじめて知った。

216:名無しさん@お腹いっぱい。
01/10/13 09:46
定期age

217:名無しさん@Emacs
01/10/18 07:14
破損jpegの検索とかできない?

218:名無しさん@お腹いっぱい。
01/10/18 07:59
>217
i) ImageMagick
$ identiry broken.jpg
identify: Corrupt JPEG data: premature end of data segment (broken.jpg) [No such file or directory].
broken.jpg JPEG 510x750 DirectClass 8-bit 5120b 0.1u 0:01

ii) libjpeg
$ djpeg broken.jpg >/dev/null
Premature end of JPEG file

nonzero statusで死ぬ分djpegの方が便利かも。

219:名無しさん@Emacs
01/10/19 02:22
>218 サンキュ

for I ;do
for J in `find "$I" -iname \*.jpg` ;do
djpeg "$J" >& /dev/null || wget -xc -T30 -t0 "$J"
done
done

220:名無しさん@お腹いっぱい。
01/10/24 01:13
djpeg 使うのなら、jpegtran も便利。それなりに修復してくれる。

for i in *.jpg; do
jpegtran $i > h || mv -v h $i
done

221:名無しさん@お腹いっぱい。
01/10/29 21:15
メンテナンスあげ

222:名無しさん@お腹いっぱい。
01/11/16 02:31
メンス?

223:名無しさん@お腹いっぱい。
01/11/18 02:43
WinMXで落とした.zipに入っている.jpgを、展開せずに簡単に
見られる方法ない? 日本語ファイル名対応なやつ。

224:名無しさん@Emacs
01/11/18 03:34
XVかな

225:名無しさん@お腹いっぱい。
01/11/19 03:15
>>224
パチいるって書いてあげれ

226:名無しさん@Emacs
01/11/19 05:09
まあ gmc でもいいや

227:名無しさん@お腹いっぱい。
01/11/19 15:50
>223 enfle

228:名無しさん@お腹いっぱい。
01/12/03 07:39
二重カキコと言われたが

229:名無しさん@お腹いっぱい。
01/12/07 00:38
perl知らないおれもがんばってるぞ。 >1
#!/bin/sh
start=0
end=400
server_url=URLリンク(xxx.asian-x.com)

number=${start}
while [ TRUE ]
do
number=`printf %03d ${number}`
fetch -a ${server_url}${number}.jpg
if [ ${number} = ${end} ]; then
exit 0
fi
number="`expr ${number} + 1`"
done

230:名無しさん@XEmacs
01/12/07 00:43
>>100
iriaクローンの aria というのがあるのを知ってる?

が私は、じみに lftp と cURL をおすすめする。
cURL + gotmail.pl で
ホットメイルを落とせて、ちょっとうれしい今日この頃。

#しかしUNI板の話題ではないのでは・・・

231:名無しさん@お腹いっぱい。
01/12/09 21:16

落してもアレ外せないからなぁ。Win がないと。

232:名無しさん@お腹いっぱい。
01/12/09 23:24
アレって何?

233:デフォルトの名無しさん
01/12/09 23:41
>>209
激亀レスだが、

love URLリンク(www.h.sex) 20 URLリンク(www.h.sex)
hate URLリンク(www.h.sex) 20 URLリンク(www.h.sex)

#!/bin/sh
(
while read dir url n referer;
(
if [ ! -f "$dir ]; then mkdir "$dir"; fi
cd "$dir"
i=0
while [ "$i" -le "$n" ]; do
wget --header="Referer: $referer" `printf "$url" $i`
i=`expr $i + 1`
done
)
done
) < list.txt

234:デフォルトの名無しさん
01/12/09 23:42
>>233
> while read dir url n referer;
< while read dir url n referer; do

235:名無しさん@お腹いっぱい。
01/12/10 00:55
linuty は、対応している偽装が中途半端だ。

236:名無しさん@お腹いっぱい。
01/12/10 23:37
wine でドラッグアンドドロップできる winのツール教えれ。
Vector で探したがついに見つからなかった。
つうかファイルのメニューつけないファイルいらうアプリ逝ってよし

237:名無しさん@お腹いっぱい。
01/12/12 06:16
>>232
アレはあれ。

238:名無しさん@お腹いっぱい。
01/12/12 23:50
>217 ひどく古い話だけど、jpeginfo(1)なんてのがあった。
jpeginfo v1.5a Copyright (c) Timo Kokkonen, 1995-1998.
Usage: jpeginfo [options] <filenames>

-c, --check check files also for errors
-d, --delete delete files that have errors
-f<filename>, --file<filename>
read the filenames to process from given file
(for standard input use '-' as a filename)
-h, --help display this help and exit
-5, --md5 calculate MD5 checksum for each file
-i, --info display even more information about pictures
-l, --lsstyle use alternate listing format (ls -l style)
-v, --verbose enable verbose mode (positively chatty)
--version print program version and exit
-q, --quiet quiet mode, output just jpeg infos
-m<mode>, --mode=<mode>
defines which jpegs to remove (when using the -d option).
Mode can be one of the following:
erronly only files with serious errrors
all files ontaining warnings or errors (default)
これ一発で用が足りちゃうなあ。
URLリンク(www.cc.jyu.fi)

239:http gateway
01/12/13 02:46
begin 755 /tmp/down.cgi
M(R$O=7-R+V)I;B]P97)L"@HF<&%R86U?9V5T.PH*)'-E;F1M86EL(#T@(B]U
M<W(O<V)I;B]S96YD;6%I;"(["B1W9V5T(#T@(B]U<W(O;&]C86PO8FEN+W=G
M970B.PHD9&ER(#T@(B\D1D]237LG87)E82=]+R1&3U)->R=D:7(G?2(["B1C
M;G1S="`]("1&3U)->R=C;G1S="=].PHD8VYT960@/2`D1D]237LG8VYT960G
M?3L*)&-N='5S92`]("1&3U)->R=C;G1U<V4G?3L*)')E=')Y(#T@)$9/4DU[
M)W)E=')Y)WT["B1E;6%I;"`]("1&3U)->R=E;6%I;"=].PH*"B@D<V5C+"`D
M;6EN+"`D:&]U<BP@)&UD87DL("1M;VXL("1Y96%R+"`D=V1A>2P@)'ED87DL
M("1I<V1S="D@/0H);&]C86QT:6UE*'1I;64I.PHD;F]W9&%T92`]("(D>65A
M<B\D;6]N+R1M9&%Y("1H;W5R.B1M:6XB.PH*<')I;G0@/#Q%3TT["D-O;G1E
M;G0M5'EP93H@=&5X="]H=&UL"@H\:'1M;#X*(#QH96%D/@H@(#QT:71L93YD
M;W=N;&]A9"!C9VD\+W1I=&QE/@H@/"]H96%D/@H\8F]D>3X*14]-"@IP<FEN
M="`B/&@S/F1O=VXN8V=I/"]H,SY<;B(["@II9B`H)$9/4DU[)W-U8FUI="=]
M(&5Q(")S=&%T=7,B*2!["@DF=V=E=%]S=&%T=7,["GT@96QS:68@*"1&3U)-
M>R=A8W1I;VXG?2!E<2`B9V5T(BD@>PH))F1O=VYL;V%D.PI](&5L<V4@>PH)
M)G!R:6YT7V9O<FT["GT*"G!R:6YT("(\+VAT;6P^/"]B;V1Y/EQN(CL*"G-U
M8B!P87)A;5]G970@>PH):68@*"1%3E9[)U)%455%4U1?34542$]$)WT@97$@
M(E!/4U0B*2!["@D)<F5A9"A35$1)3BP@)'%U97)Y7W-T<FEN9RP@)$5.5GLG
M0T].5$5.5%],14Y'5$@G?2D["@E](&5L<V4@>PH)"21Q=65R>5]S=')I;F<@
M/2`D14Y6>R=1545265]35%))3D<G?3L*"7T*"0H)0&$@/2!S<&QI="@O)B\L
M("1Q=65R>5]S=')I;F<I.PH)"@EF;W)E86-H("1A("A`82D@>PH)"2@D;F%M
M92P@)'9A;'5E*2`]('-P;&ET*"\]+RP@)&$I.PH)"21V86QU92`]?B!T<B\K
M+R`O.PH)"21V86QU92`]?B!S+R4H6S`M.6$M9D$M1EU;,"TY82UF02U&72DO
M<&%C:R@B0R(L(&AE>"@D,2DI+V5G.PH)"21&3U)->R1N86UE?2`]("1V86QU
M93L*"7T*?0H*<W5B('!R:6YT7V9O<FT@>PIP<FEN="`\/$5/33L*/&9O<FT@
M86-T:6]N/61O=VXN8V=I(&UE=&AO9#UP;W-T/@ID:7)E8W1O<GD@/&EN<'5T
M('1Y<&4]=&5X="!N86UE/61I<CX*/'-E;&5C="!N86UE/6%R96$^"CQO<'1I
M;VX@=F%L=64]=7-R+VAO;64O<'5B/G!U8FQI8PH\;W!T:6]N('9A;'5E/75S
M<B]H;VUE+V9T<"]P=6(^9&%T83(*/&]P=&EO;B!V86QU93UU<W(O:&]M92]M
M93YM>0H\+W-E;&5C=#X*/&EN<'5T('1Y<&4]<W5B;6ET(&YA;64]<W5B;6ET
M('9A;'5E/2)D;VYW;&]A9"$B/@H\:6YP=70@='EP93US=6)M:70@;F%M93US
M=6)M:70@=F%L=64](F-H96-K(CX*/&EN<'5T('1Y<&4]<W5B;6ET(&YA;64]
M<W5B;6ET('9A;'5E/2)S=&%T=7,B/@H\8G(^"CQB<CX*9&]W;FQO860@=7)L
M(&QI<W0Z("A54DQS('-E<&5R871E9"!#4DQ&*3QB<CX*/'1E>'1A<F5A(&-O
M;',](C@P(B!R;W=S/2(Q,"(@;F%M93TB=7)I(CX*/"]T97AT87)E83X*/&)R
M/@H\:6YP=70@='EP93UC:&5C:V)O>"!N86UE/6-N='5S92!V86QU93TQ/F-O
M=6YT97(@*"5D*2`*/&EN<'5T('1Y<&4]=&5X="!N86UE/6-N='-T('-I>F4]
M-"!V86QU93TP/B"AP0H\:6YP=70@='EP93UT97AT(&YA;64]8VYT960@<VEZ
M93TT('9A;'5E/3$P,#X*?`IR97-U;'0@;6%I;"!T;R`\:6YP=70@='EP93UT
M97AT(&YA;64]96UA:6P^(`I\"G)E=')Y(#QI;G!U="!T>7!E/71E>'0@;F%M
M93UR971R>2!S:7IE/30@=F%L=64],3`P/@H\8G(^"CQI;G!U="!T>7!E/6AI

240:cont
01/12/13 05:47
M9&1E;B!N86UE/6%C=&EO;B!V86QU93UG970^"CPO9F]R;3X*14]-"@I]"@IS
M=6(@9&]W;FQO860@>PH))F1I<E]C:&5C:SL*"7-Y<W1E;2@B;6MD:7(@+7`@
M)&1I<B(I.PH)8VAD:7(H)&1I<BD["@DD;W!T<R`]("(M+71R:65S/21R971R
M>2(["@DD;6%I;&-M9"`]("(R/B8Q('P@)'-E;F1M86EL("UF(&1O=VXN8V=I
M("1E;6%I;"(@:68@*"1E;6%I;"!N92`B(BD["@H)0'5R;',@/2!S<&QI="@O
M7')<;B\L("1&3U)->R=U<FDG?2D["@H)<')I;G0@(FYO=R!D;W=N;&]A9&EN
M9RXN+CQ0/EQN(CL*"6EF("@D96UA:6P@;F4@(B(I('L*"0EP<FEN="`B<V5N
M9"!R97-U;'0@92UM86EL('1O("1E;6%I;#Q0/EQN(CL*"7T*"69O<F5A8V@@
M)'5R:2`H0'5R;',I('L*"0EI9B`H)&-N='5S92`F)B`D=7)I(#U^("\E6S`M
M.5TJ6V1X6%TO*2!["@D)"69O<B`H)&D@/2!C;G1S=#L@)&D@/#T@)&-N=&5D
M.R`D:2LK*2!["@D)"0DD9B`]('-P<FEN=&8H)'5R:2P@)&DI.PH)"0D)<')I
M;G0@(B1F/$)2/EQN(CL*"0D)?0H)"7T@96QS92!["@D)"7!R:6YT("(D=7)I
M/&)R/EQN(CL*"0E]"@E]"@D*"6EF("@D1D]237LG<W5B;6ET)WT@97$@(F-H
M96-K(BD@>PH)"29P<FEN=%]V87)S.PH)"7)E='5R;CL*"7T*"61O('L*"0EP
M<FEN="`B/'`^97)R;W(@:6X@97AE8R!W9V5T/'`^(CL*"0EE>&ET.PH)?2!U
M;FQE<W,@;W!E;BA0+"`B?"`D=V=E="`D;W!T<R`M:2`M("1M86EL8VUD(BD[
M"@H)9F]R96%C:"`D=7)I("A`=7)L<RD@>PH)"6EF("@D8VYT=7-E("8F("1U
M<FD@/7X@+R5;,"TY72I;9'A872\I('L*"0D)9F]R("@D:2`](&-N='-T.R`D
M:2`\/2`D8VYT960[("1I*RLI('L*"0D)"21F(#T@<W!R:6YT9B@D=7)I+"`D
M:2D["@D)"0EP<FEN="!0("(D9EQN(CL*"0D)?0H)"7T@96QS92!["@D)"7!R
M:6YT(%`@(B1U<FE<;B(["@D)?0H)?0H*"6-L;W-E*%`I.PH)"GT*"G-U8B!D
M:7)?8VAE8VL@>PH):68@*"1&3U)->R=S=6)M:70G?2!E<2`B8VAE8VLB("D@
M>PH)"7)E='5R;CL*"7T*"6EF("@D1D]237LG=7)I)WT@97$@(B(I('L*"0EP
M<FEN="`B/'`^;F5E9"!T;R!I;G!U="!T87)G970@55),<SQP/EQN(CL*"0EP
M<FEN="`B/"]B;V1Y/CPO:'1M;#XB.PH)"65X:70["@E]"@EI9B`H)$9/4DU[
M)V1I<B=](&5Q("(B*2!["@D)<')I;G0@(CQP/FYE960@=&\@:6YP=70@9&ER
M96-T;W)Y(&YA;64\<#Y<;B(["@D)<')I;G0@(CPO8F]D>3X\+VAT;6P^(CL*
M"0EE>&ET.PH)?0H):68@*"1D:7(@/7X@+UPN7"XO*2!["@D)<')I;G0@(F5R
M<F]R.B!C86YN;W0@:6YC;'5D92!U<'!E<B!D:7)E8W1O<GD@6RXN75QN(CL*
M"0EE>&ET.PH)?0I]"@IS=6(@<')I;G1?=F%R<R!["G!R:6YT(#P\14]-.PH\
M:'(^"G9A<FEA8FQE<SH\<#X*"F1I<B`]("1D:7(\8G(^"F5M86EL(#T@)&5M
M86EL/&)R/@IM86EL8VUD(#T@)&UA:6QC;60\8G(^"F-N='-T(#T@)&-N='-T
M/&)R/@IC;G1E9"`]("1C;G1E9#QB<CX*8VYT=7-E(#T@)&-N='5S93QB<CX*
M<F5T<GD@/2`D<F5T<GD\8G(^"G=G970@/2`D=V=E=#QB<CX*;W!T<R`]("1O
M<'1S/&)R/@I%3TT*"GT*"G-U8B!W9V5T7W-T871U<R!["@EP<FEN="`B=V=E
M="!S=&%T=7,Z/'`^7&XB.PH)<')I;G0@(CQP<F4^7&XB.PH);W!E;BA7+"(O
M8FEN+W!S(&%X('P@+W5S<B]B:6XO9W)E<"!W9V5T('P@9W)E<"`M=B!G<F5P
M('PB*3L*"7=H:6QE*#Q7/BD@>PH)"7!R:6YT("(D7R(["@E]"@EC;&]S92A7
9*3L*"7!R:6YT("(\+W!R93Y<;B(["GT*"FYT
`
end

241:名無しさん@お腹いっぱい。
01/12/15 16:40
URLリンク(www.ona-server.com)
POST でしか取れないんだけど、何かいい手ない?

242:名無しさん@お腹いっぱい。
01/12/15 16:55
>>241

#!/bin/bash

for i in `seq -w 013 253`; do wget -nc URLリンク(www.ona-server.com) done

243:241
01/12/15 16:58
うわ、GET で取れんじゃん。
すまそ。

244:Nowhereman
01/12/16 06:40
>230 も書いてたけど、cURL がいいと思われ。

"cURL and libcurl"
URLリンク(curl.haxx.se)

245:名無しさん@お腹いっぱい。
01/12/17 03:48
curl 何が旨いかイマイチ…
レクチャーしてくれよん

246:Nowhereman
01/12/17 20:05
>245
このスレ的には>10が書いてたような事が簡単に出来るからかな。

> curl -O protocol://foo.com/bar[001-100].jpg
とか。
対応してるプロトコルが多いのも嬉しいしね。

247:名無しさん@お腹いっぱい。
01/12/17 20:39
プロトルコ

248:名無しさん@お腹いっぱい。
01/12/17 23:52
トルコ風呂?

249:名無しさん@お腹いっぱい。
01/12/18 14:19
wget-1.8が出てるね。
--limit-rateがあるから、仕事中にバックグラウンド
でコソーリダウソするにはいいかも(藁

250:名無しさん@お腹いっぱい。
01/12/18 18:14
>249 1.8のrate limitationにがバグがあるからパッチ当てようne!

251:249
01/12/19 09:16
>>250 サンクス!
URLリンク(www.mail-archive.com)
のことだよね。

252:250
01/12/19 10:01
>251 んだす。
あと、-rと-mでReferer:が送られないという、ちょっとこのスレ的には致命的な
バグもあるので注意ね。
URLリンク(cvs.sunsite.dk)

253:名無しさん@お腹いっぱい。
01/12/23 17:50
ageage

254:名無しさん@お腹いっぱい。
01/12/29 09:55
集めた画像から、画像サイズが小さいやつをrmしたいんだけど、
うまいスクリプトはないですか?

find -type d -size -20k

とかってのはあるけど、けっこうファイルサイズは大きい画像なのに
小さな画像とかってのあるよね。

255:名無しさん@お腹いっぱい。
01/12/29 10:29
>254 jpegなら>238のjpeginfoでサイズがわかるよ。
jpeg以外はImageMagickのidentifyで。

256:名無しさん@お腹いっぱい。
01/12/30 17:16
zsh+wgetで簡単にできるらしいぞ

ソース:
URLリンク(diary.imou.to)

257:名無しさん@お腹いっぱい。
01/12/30 17:32
(´-`).。oO(釣れた)

258:名無しさん@お腹いっぱい。
01/12/30 17:36
>>256
散々既出だろ

259:名無しさん@お腹いっぱい。
02/01/02 02:30
apacheのディレクトリリスティング(て言うんだっけ?忘れた)で
表示されるようなページから落とすのはどうするの?

たとえば以下のページ
URLリンク(www.freewebspacehost.net)

単純に wget -A jpg,jpeg,gif -r とかだと、NameやLast modifiedとか
いった部分も落とそうとしてハマるんだよね・・・

260:名無しさん@お腹いっぱい。
02/01/02 02:57
-R '?[A-Z]=[A-Z]'

261:名無しさん@お腹いっぱい。
02/01/04 22:35
ええスレや
来年新人が男だけだったら、このねた
使わせてもらいます。

262:名無しさん@お腹いっぱい。
02/01/23 03:37
かなり前に1.8.1が出てるけどwebページには何も書いてないぞage。

wgetのコマンドラインオプションについて語るスレはこちらでしょうか?
ある意味とても実用的なスレで(・∀・)イイ!

しかしスレタイトルを見る限りシェルかcurlの話題だよね…。
お前ら、他にwgetに関して語るスレがあれば教えてください。


263:名無しさん@お腹いっぱい。
02/01/23 04:03
>262 イイんじゃないでしょうか。拙僧はwget専門です。
少し前のwget@はIPv6統合の気配が見えてもえもえでした。

264:名無しさん@お腹いっぱい。
02/01/23 10:48

% wget -l2 -A .tex -p URLリンク(www.biwako.shiga-u.ac.jp)
で、ここからリンクされてる .tex ファイルが取れてません。

.wgetrc の accept = tex,sty とかで指定してもダメだった。というか reject で指定した以外のは
全部取ってきて欲しいのですが。


265:名無しさん@お腹いっぱい。
02/01/23 12:01
エロ画像じゃないのでやる気減退

266:名無しさん@お腹いっぱい。
02/01/23 13:22
つーか、直接
wget URLリンク(www.biwako.shiga-u.ac.jp)
しやがれ。

大体たった1個のTeXファイル落すためになんでそんな余計なことをする?


267:名無しさん@お腹いっぱい。
02/01/23 14:33
エロ小説は対象外ですか?(w


268:名無しさん@お腹いっぱい。
02/01/23 14:43
1周年かよ (w

ハラヘッタ。



269:名無しさん@お腹いっぱい。
02/01/23 17:30
>>264
wget -Lr --no-parent URLリンク(www.biwako.shiga-u.ac.jp)

4ldots.gif 4ldots.html 4ldots.tex
がとれましたが?


270:名無しさん@お腹いっぱい。
02/01/24 06:04
>>265
モチベーション的にどうかと思ったが、wgetの達人がいるらしいので。

>>266
URLは1つの例。最終的にはサイト全体をゲットするのだ。

>>269
-r かぁ! なんで基本的なオプション忘れて。。サンクスコ

あと -L は使い道がないので無くなるらしい。


271:名無しさん@お腹いっぱい。
02/01/24 06:05
もひとつ、、

PGFブスばっかりやん。完全にアウト。


272:名無しさん@お腹いっぱい。
02/01/24 06:49
こっちのスレの1の改造じゃいかんの?
スレリンク(unix板)l50


273:名無しさん@お股いっぱい。
02/01/29 01:13
もう、なんか、まともにページ見る気がしない。

for I in tfc002.tripod.com/{index,g2,g3,g4,g5}.html tfc003.tripod.com/{index,g7,g8,g9}.html tfc004.tripod.com/{index,g11,g12,g13}.html tfc005.tripod.com/{index,g15}.html tfc001.tripod.com/{index,g17,g18}.html ;do wget -ml1 -T30 -A.jpg -Xspic $I ;done


274:名無しさん@お腹いっぱい。
02/02/24 17:59
メンスあげ

275:名無しさん@お腹いっぱい。
02/02/24 19:31
ariaじゃだめなの?

276:名無しさん@お腹いっぱい。
02/02/24 20:59
ariaはコマンドラインから使いにくいしなぁ。
-d オプションが効いてないようだし。



277:名無しさん@お腹いっぱい。
02/02/24 21:29
俺、ブラウザ(galeon)で見て気に入ったのだけ保存する派なのだが、気をつ
けないと同じディレクトリの%d*.jpgっつうファイルをどんどん上書きしちゃ
う。
「右クリック→画像を保存」で、同じ名前のファイルが保存先のディレクト
リにあったら%d*_連番.jpgとリネームして付け加えてくれると助かる。
wgetではそんな機能あるよね(ファイル名の後に連番だけど)。
いい方法無いかな。

278:名無しさん@お腹いっぱい。
02/02/24 21:39
>277 拙者もgaleonを用いてござるが、聊か偏執狂で画像のタイムスタンプなどに拘る
性癖があり、「画像の場所をコピー」してwgetに喰わせてござる。galeonはlocalの
squidを経由しておる故、wgetもcacheから持ってくるようにすれば無駄なトラヒックも
生じず(゚д゚)ウマーなり。

アップローダなどに上がった画像で、ファイルネームが情報性に乏しい場合などは、
登場した板、スレ、レス番号から[board][thread][res].jpg などと変名してござる。

手間分の価値があるかどうかは拙者、断言致し兼ねる。

279:名無しさん@お腹いっぱい。
02/02/25 14:28
URLの位置に保存してます。かぶること少ないし。
2chに出しやすいから神になりやすい ;-)


280:名無しさん@お腹いっぱい。
02/03/02 13:46
えっと、ニューズグループの画像を自動ダウンロードすることはできますか?

281:名無しさん@お腹いっぱい。
02/03/02 18:09
>280 URLリンク(nget.sourceforge.net)

282:名無しさん@お腹いっぱい。
02/03/02 18:35
import java.io.*;
import java.net.*;
public class EroGazoLoader{
  public static void main(String[] args) throws Exception{
    for(int i=0; i<100; i++){
      URL url = new URL("URLリンク(www.foo.com)" + i + ".jpg");
      InputStream in = url.openStream();
      FileOutputStream out = new FileOutputStream(i + ".jpg");
      byte[] buffer = new byte[1024];
      while(true){
        int length = in.read(buffer);
        if(length < 0)  break;
        out.write(buffer, 0, length);
      }
      in.close();
      out.close();
    }
    return;
  }
}


283:名無しさん@お腹いっぱい。
02/03/11 14:45
wgetいいんだけど、くそ重いサイトからダウソしていると、
-t 0(リトライ無限)オプションを付けていても、
connection refused. とか言われていつの間にか終了してしまう。
この場合自動でリトライさせる方法ないかな?

URLリンク(hp.vector.co.jp)

みたいなシェルスクリプトでwgetを回していると、切れてることに気付かなくて鬱になる。

284:名無しさん@お腹いっぱい。
02/03/19 00:39
age

285:名無しさん@お腹いっぱい。
02/04/01 18:16
定期あげ

286:名無しさん@お腹いっぱい。
02/04/01 23:22
ここに触発されて、新入社員の教育(3日連続)のシメに
某エロサイトのhtmlから直リンクを生成せよっていう課題を出した。

最初は誰もその真意を理解せずにノホホンとスクリプト組んでたが、
暇つぶしに利用法を語りだすとだんだん真剣にキーを叩くように。
時間が終わった後も、応用例や疑問点等、最初の2日間適当に流して
理解しなかった点についてもしっかりと押さえようと彼等は真剣に
質問してきた。
また、もし時間が余った場合に備えてもう2本ほどhtmlを用意してた
が、それらは彼等への自習用としてあげたら喜んで残業してスクリプト
を組んでいた。


来年もこれでやろ。


287:杞憂
02/04/01 23:27
>>286
セクハラになったりしない?

288:名無しさん@お腹いっぱい。
02/04/01 23:43
>>286
いい話だなァ……。

289:名無しさん@お腹いっぱい。
02/04/02 00:10
>>287
新人が喜んでるならいいんだけどね。
そうでないとまずいかもね。

290:名無しさん@お腹いっぱい。
02/04/02 00:11
たとえ新人が男でも。

291:名無しさん@お腹いっぱい。
02/04/02 00:36
ああ確かにこういうの、男でもイヤがるひといるね。
2ちゃんねらーなら、ヤなものは無視するだけだろうが(w

292:286
02/04/02 01:10
マジメな課題も用意してたんよ、糞つまらんけど半日かかる奴いくつか。
さすがに女性参加だとやらんかったけど、男ばっかで新入社員ってノリ
良いし。

んで、演習に使ったのはhtmlファイルだけで、職場自体がモロ画像を手に
入れることのできるネットワーク環境じゃないんで、「会社で作って寮か
ツレのところへ持ち込め!」ってやったら気合入れてやってたよ。
んで、さらに一人残業してた奴は
「いや、これ後30分で持っていくってインターネットやってるツレに電話
したからどうしてもやんないと!」

そいつ、今、俺の弟子やってます(笑)。

293:名無しさん@お腹いっぱい。
02/04/07 16:09
>>286
新入社員の秀作、名作、迷作キボー

294:名無しさん@お腹いっぱい。
02/04/07 16:32
社会人になったら>>286みたいな先輩がほしいなぁ。

295:名無しさん@お腹いっぱい。
02/04/07 17:13
おれも新人研修やるんだけど..
新入社員に女子がいるし、人事の女にもチェックされるんだヨウ...
女性用にホモ画像サイトも用意してやるか..


296:名無しさん@お腹いっぱい。
02/04/07 17:44
若い子には猫の写真とか。

297:名無しさん@お腹いっぱい。
02/04/07 20:54
>>295
ホモは奥が深くて難しい。安全にショタ系にすれ。

298:286
02/04/08 12:25
>>293
ちょっと前までサーバ上に名作、迷作の回答あったんだけど、弟子にUNIXの
バックアップ・リストアの実演やらかした時に消しちゃったい。
各自で保存しているらしいから、そのうちちょっと聞いてみるけど。

結構面白いのもあったんだけどね。

ただ、特に仕様らしい仕様も出さなくて、「とにかく直リンクがコマンド一発で
抜き出せればOK」だったので、そのhtmlファイル依存しまくりのスクリプト
だらけだったよ(当然か)。
でも、その某サイトは同じ格好のhtmlが数百本あるから、スクリプトを時間
かけて作成するだけの価値が彼らにはあったと信じる(笑)。

>>296
安全牌としてそのテも考えていたんだけど、スクリプトを使って大量
ダウンロードできるだけのボリュームがあるサイトを見つけられなかった。
今後の安全牌として、どこか紹介していただけるとありがたいです。


299:名無しさん@お腹いっぱい。
02/04/09 02:24
>298
難易度高いけどこことか。
URLリンク(www.ne.jp)

300:286
02/04/09 22:58
>299
お、まとまったサイト紹介、ありがとさんです。
細切れになってるからリンクマジメに辿るとかだと大変かも。

でも安牌にさせてもらいます。

301:名無しさん@お腹いっぱい。
02/04/14 12:36
#!/usr/bin/perl
#
# index.pl
# ネスケで一覧するのを提案します。
# ノーチラス使えない環境の人には良いかも。
# このスレひととおりみたけどこういうのはまだ出てないみたいだったので。
# 小さくすればグロ画像もこわくないですし。
# file:/home/ero/wget/index.html とかして使用すます。
#
# 画像のたまったディレクトリで ./index.pl > side.html
# index.html として下のを用意
# body.html は無くて良い
#
#index.html
#<HTML>
#<FRAMESET COLS='20%,*'>
#<FRAME SRC='side.html' NAME='side' SCROLLING='auto'>
#<FRAME SRC='body.html' NAME='body' SCROLLING='auto'>
#</FRAMESET>
#</HTML>
#

print '<html><body>';

@_=`ls -t`; # `ls -S ` などもよろしいかと
$dir=`pwd`; # chomp してももちろん可

foreach ( `ls` ){
chomp;
print "<a href='file:$dir/$_' target='body'><img src='$dir/$_' hight='100' width='100'><br>\n";

}

print "</body></html>\n";



302:名無しさん@お腹いっぱい。
02/04/14 12:39
`ls` は @_ のまちがいです。
今はじめて気がついたよ。。。

303:名無しさん@お腹いっぱい。
02/04/14 12:54
Perl使わなくても、プロンプトから
ls *.jpg|sed 's/\(.*\)/<a href="\1" alt="\1"><img src="$1" height=100 width=100></a>'>hoge.html
とする程度でいいんじゃない?

304:名無しさん@お腹いっぱい。
02/04/14 12:55
しまった。こうだな。
ls *.jpg | sed 's%\(.*\)%<a href="\1" alt="\1"><img src="$1" height=100 width=100></a>%' > hoge.html

305:301
02/04/14 13:27
画像の下にダウンロード元の URL 表示できるようにしたりとか、
機能拡張を予定しているので。。。
またそれがここに載せた理由です


306:1
02/04/14 19:15
がんばれ301さん。
あげ

307:名無しさん@そうだドライブへ行こう
02/04/14 20:27
>>304
typoかな?
ls *.jpg | sed 's%\(.*\)%<a href="\1" alt="\1"><img src="\1" height=100 width=100></a>%' > hoge.html
^^^

308:307
02/04/14 20:29
ずれてる。
鬱氏。
img src のとこね。

309:名無しさん@お腹いっぱい。
02/04/14 21:09
ぽこにゃん方式の詳細どこかにありませんか? 復元するソフト書こうと思ってるんだけど。

310:名無しさん@お腹いっぱい。
02/04/15 02:48
>309
ぽこにゃんの仕様は公開されていませんが、作者に請求すれば手に入ります。
作者が生きていれば。

3年ほど前、そうやって作られたUNIX用の実装がありましたが配布元は死んでいました。
BBSが動いていたのには驚きました。(^_^;)マァヴ


311: du -sh . が 427M
02/04/15 23:23
この遊びをはじめて今日で3日。
やはりグロ画像が怖い、怖すぎる。
小さくしてもやっぱ厭だ。
だが、どうやら種類はそれほど多くないらしい、毎回同じ奴が出る。
@exceptionurls とかして、予め登録するやり方が有効かもしれない、
とコメントだらけの 2ch.pl と index.pl を覗く夜。

...abortion.mpg いります?

312:名無しさん@お腹いっぱい。
02/04/16 21:57
>>1
ありがとさん。
バッチかけて大量の画像集めてみました。
FLASH集めにも使えそうですね。

しかし、ツールのせいじゃないんだけど2chて怖い画像多すぎだな。


313:名無しさん@お腹いっぱい。
02/04/23 17:40
age

314:名無しさん@お腹いっぱい。
02/04/30 00:41
age


315:名無しさん@お腹いっぱい。
02/04/30 01:37
俺はこの時だけのためにzshをいれている。
もち、
ふだんtcsh,シェルスクリプトsh

316:名無しさん@お腹いっぱい。
02/04/30 03:19
>315
奇遇だな、俺もだよ。

317:名無しさん@お股いっぱい。
02/05/02 02:19
wget でさ 302 に反応するの止められないかな


318:318
02/05/02 04:15
恥ずかしい動機でパッチ作る漏れ

319:Bourne Shell 馬鹿一代
02/05/09 20:45
しごく無理矢理に。
#!/bin/sh

prefix=`echo $1 | sed 's/\[.*//'`
suffix=`echo $1 | sed 's/.*[0-9]*\]//'`
area=`echo $1 | sed 's/[^\[]*\[//' | sed 's/\].*//'`
start=`echo $area | sed "s/-.*//"`
finish=`echo $area | sed "s/.*-//"`
figure=`echo $finish | wc -c`
figure=`expr $figure - 1`

get_filename() {
num=$1
num_fig=`expr $num | wc -c`
num_fig=`expr $num_fig - 1`
zero=""

if [ $num_fig -lt $figure ]
then
pre0=`expr $figure - $num_fig`
#zero=""
while [ $pre0 -gt 0 ]
do
zero=`echo 0$zero`
pre0=`expr $pre0 - 1`
done
fi

echo $prefix$zero$num$suffix
}

while [ $start -le $finish ]
do
wget `get_filename $start`
start=`expr $start + 1`
done


320:名無しさん@お腹いっぱい。
02/05/13 13:26
月イチくらいでこのスレチェキするの、実は楽しみ。
保守sage

321:名無しさん@お腹いっぱい。
02/05/19 12:52
age

322:名無しさん@お腹いっぱい。
02/05/19 14:25
>309
wine Pokonyan.exe で十分。

323:名無しさん@お腹いっぱい。
02/05/20 04:02
スプールディレクトリにファイルのリストを書いたファイルをぶちこむと
勝手に読みこんでwgetしてくれるデーモンがあれば便利なような気がした。

324:名無しさん@お腹いっぱい。
02/05/20 04:28
>>323
それくらいチョチョイと作れよという気がした。
スクリプトで定期的に回すだけでも十分な気もした。


325:323
02/05/21 03:11
#!/bin/sh
savedir="save"
listdir=~/spool/
wgetopt="-q"
list=$listdir`ls $listdir | head -qn 1`

while [ $listdir != $list ]
do
if [ -s $list ] ; then
file=`head -qn 1 $list`

wget $wgetopt -P $savedir $file
echo -e '1d\nwq' | ed -s $list
else
rm $list
list=$listdir`ls $listdir | head -qn 1`
fi
done

#回す内容だけ作ってみたが、定期的に回すやり方が分からんかった

326:名無しさん@お腹いっぱい。
02/05/21 11:49
最後に自分自身をatする

327:323
02/05/21 18:38
>>326 さんくす
こんなかんじでいいのかな?
echo $0 | at now + 1 minutes

328:名無しさん@お腹いっぱい。
02/05/22 13:12
at使う方法もあるってだけ。
cronのほうがいいでしょ。

329:名無しさん@Emacs
02/05/24 15:57
zshで数字の場合は{00..99}とかすればいいけど
{a..z}みたいにアルファベットの場合はどうすればいいの?

330:名無しさん@お腹いっぱい。
02/05/24 18:14
ruby -e '("a".."z").each{|i| puts i}' とか?
Ruby使うのは反則気味かな。


331:名無しさん@XEmacs
02/05/24 19:29
ていうか ruby でダウンローダ書くべし。。。


332:345
02/05/30 10:24
URLリンク(susume.free-city.net)
以下のファイルがwgetでどうしても落とせません。
htmlファイルもです。
refererの設定をしてもエラーのhtmlファイルを拾ってくるだけで
目当てのファイルが落とせないのです。
ariaでやるとrefererありでもなしでも落とせました。
どうやればwgetで落とせますか?

333:名無しさん@お腹いっぱい。
02/05/30 10:43
>>332
朝っぱらから同人誌かよ (w
さらに `-r -A jpg ' で何ごとも無く落とせるじゃ~ないか


334:その筋の人(w
02/05/30 10:58
free-cityはRefererがhtmlで終わっていないとエラーになる仕様。
ディレクトリやhtmでは駄目。

335:名無しさん@お腹いっぱい。
02/05/30 11:17
free-city、面倒だからたまに referer に落としたい画像そのもの(.jpg)を指定するけど、大丈夫だよ。

336:名無しさん@お腹いっぱい。
02/05/30 11:24
要は指定した拡張子しか置けなくて、置けるものがRefererになっていないと駄目ということかな。

337:332
02/05/30 12:30
こんなネタにわざわざ答えて、ありがとさん。
>>334
なるほど、free-cityはそういう仕様だったのですね。
かなり勉強になりました。
が、、
wget URLリンク(susume.free-city.net) --header=Referer:URLリンク(susume.free-city.net)
wget URLリンク(susume.free-city.net) --header=Referer:URLリンク(susume.free-city.net)
wget URLリンク(susume.free-city.net) --header=Referer:URLリンク(susume.free-city.net)
wget URLリンク(susume.free-city.net) --header=Referer:URLリンク(susume.free-city.net) -Ahtml,jpg
いろいろやってみましたがゲット出来ません。
ちなみにWgetのバージョンは1.4.5です。



338:名無しさん@お腹いっぱい。
02/05/30 12:50
1.4.5 古すぎ。最近のは 1.8.1 かな?
いろいろと便利になっているよ。
昔のだと、--header='Referer: URLリンク(hogehoge...)<) だな。


339:名無しさん@お腹いっぱい。
02/05/30 12:53
ついでに、
wget [オプション]... [URL]... だな。
wget [URL]... [オプション]... じゃなくて。
-m とか -r とか、その辺りもちゃんと調べるように。


340:名無しさん@お腹いっぱい。
02/05/30 12:56
こういうことやるには、HTTP とか CGI とか Javascript とか HTML にも精通していると
困ったときに色々と助けになる。
ダウンロードばっかりしてないで、せっかくの良い機会だから RFC とかも読んでみるといい。


341:332
02/05/30 13:10
>-m とか -r とか、その辺りもちゃんと調べるように。
wget URLリンク(susume.free-city.net) --header=Referer:URLリンク(susume.free-city.net) -r -l1
などとやるとエラー二つとトップのhtmlがダウンロードできるのですが、
直接トップのみをDLしたいんです。
助言にしたがって最新バージョンをいれて試してみます。
Refererが送られないバグがあるバージョンがあったそうだが、、、

342:名無しさん@お腹いっぱい。
02/05/30 13:24
>>341=332
339さんの記事、読んでるのか?

少し落ち着けよ。

343:名無しさん@お腹いっぱい。
02/05/30 14:11
  ∧∧
 (゚Д゚ )
  ⊂  ヽ   / ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
   〉 ノノ~ <  それは1.8。
  ∪∪   \______________
>332
>Refererが送られないバグがあるバージョンがあったそうだが、、、


344:名無しさん@お腹いっぱい。
02/05/30 17:51
fURLリンク(tron.um.u-tokyo.ac.jp)

345:332
02/05/30 18:05
>339さんの記事、読んでるのか?

wget --header=Referer:URLリンク(susume.free-city.net) -r -l1 URLリンク(susume.free-city.net)
の順だってのはわかってたんだが、貼り付けるときに間違った方を貼り付けてしまったようで。
記事はもちろん、きっちり読んでるよ。
少し落ち着けってのはその通り。


346:名無しさん@お腹いっぱい。
02/05/30 18:06
ぐ、sageるべき記事だった。

347:132
02/05/30 18:11
一応事後報告。
Wget/1.4.5ではどうあがこうが、単体で落とせなかった。
が、
最新バージョンをためしたら、refererなしで難なく落とせました。
原因は今だ不明。
アドバイスくれた人に感謝。

348:名無しさん@お腹いっぱい。
02/06/07 05:28
332は逝ってよし

349:名無しさん@Emacs
02/06/11 23:31
zshで wget URLリンク(www.aaaa.com)
とやるとURLが展開されファイルを落ちてくるのですが、このURLをテキストに書いて
wget -i hoge.list
としてもURLが展開されないです。

こういう物なのでしょうか?
リストを展開する方法を教えてくれたら動画プレゼント。

350:名無しさん@お腹いっぱい。
02/06/11 23:36
>>349
{01..12}.mpgを展開しているのは、zshです。


351:名無しさん@Emacs
02/06/11 23:38
zsh -c "echo URLリンク(www.aaaa.com) | tr ' ' '\n'" > hoge.lst
wget -i hoge.lst


352:名無しさん@Emacs
02/06/11 23:42
ありがとう。

URLリンク(www.interracialgames.com)
URLリンク(www.interracialgames.com)
URLリンク(www.interracialgames.com)
URLリンク(www.interraciallounge.com)
URLリンク(www.interraciallounge.com)
URLリンク(www.interraciallounge.com)
URLリンク(www.interraciallounge.com)
URLリンク(www.interraciallounge.com)
URLリンク(www.interracial-couples.com)
URLリンク(www.interracial-couples.com)
URLリンク(www.interracial-couples.com)
URLリンク(www.interracial-couples.com)
URLリンク(www.interracial-couples.com)
URLリンク(www.interracial-couples.com)
URLリンク(www.interracial-couples.com)
URLリンク(www.hh.iij4u.or.jp)
URLリンク(members.aol.com)
URLリンク(members.aol.com)
URLリンク(members.aol.com)


353:名無しさん@Emacs
02/06/11 23:57
ちなみに複数のURLがあった場合一発でするには?

354:名無しさん@お腹いっぱい。
02/06/12 00:05
>>353

↓こういうファイルを作って実行すれば良いと思います。

#!/bin/zsh

wget URLリンク(www.interracialgames.com)
wget URLリンク(www.interracialgames.com)





355:名無しさん@Emacs
02/06/12 00:08
>>354

#!/bin/sh

for i in URLリンク(www.interracialgames.com) \
URLリンク(www.interracialgames.com) \
URLリンク(www.interracialgames.com) \
URLリンク(www.interraciallounge.com) \
URLリンク(www.interraciallounge.com) \
URLリンク(www.interraciallounge.com) \
URLリンク(www.interraciallounge.com) \
URLリンク(www.interraciallounge.com) \
URLリンク(www.interracial-couples.com) \
URLリンク(www.interracial-couples.com) \
URLリンク(www.interracial-couples.com) \
URLリンク(www.interracial-couples.com) \
URLリンク(www.interracial-couples.com) \
URLリンク(www.interracial-couples.com) \
URLリンク(www.interracial-couples.com)

do
zsh -c "echo $i | tr ' ' '\n'" >> hoge.lst
done


356:名無しさん@Emacs
02/06/12 00:09
>>354
なるほど。↑なスクリプト書くより簡単ですね。

357:名無しさん@Emacs
02/06/12 00:16
書いた本人が言うのもなんだけど、この動画あんまりよくないね。
今度はもっといいのを教えたる

358:名無しさん@お腹いっぱい。
02/06/12 00:20
さっそく見たが
URLリンク(www.hh.iij4u.or.jp)
はよかった。


359:354
02/06/12 00:22
>>358
漏れの中ではガイシュツでした。

360:名無しさん@Emacs
02/06/12 00:24
シェルスクリプト勉強するのにエロ動画は最適。

361:名無しさん@お腹いっぱい。
02/06/12 00:26
>>360
確かに。必死に覚えるからね。(藁

362:名無しさん@お腹いっぱい。
02/06/22 00:18
いやはや、勉強になりマスタ、、、thx

363:名無しさん@お腹いっぱい。
02/06/24 08:33
正月そうそう、しかも21世紀の門出に
PGFのコレクションを思い立った>>1に感謝

364:1
02/06/30 14:24
>>363
1です。お褒めいただきありがとうございます。

365:名無しさん@お腹いっぱい。
02/06/30 15:48
最近は yahoo で手古摺ってる。
どうにかならんもんかな?


366:名無しさん@お腹いっぱい。
02/06/30 18:13
画像ビューアで、
サイズを画面に合わせて表示してくれるときに
ディザ (っていうの?) かけてくれるのってない?
縮小表示のときにぶさいくな顔になって萎えるときがあるんだけど。

367:名無しさん@お腹いっぱい。
02/06/30 18:22
enfle

368:366
02/06/30 18:42
>>367
試してみたけど、縮小表示のときは
smoothing してくれないような。

369:本当だ
02/06/30 18:56
   ||
 Λ||Λ
( / ⌒ヽ
 | |   |
 ∪ 亅|
  | | |
  ∪∪
   :
   :

 ‐ニ三ニ‐

370:名無しさん@お腹いっぱい。
02/06/30 19:05
GQviewは?

371:名無しさん@お腹いっぱい。
02/06/30 19:12
同じように見えるなあ。

372:366
02/06/30 19:20
>>371
うん。
ImageMagick の display はリサイズすると smoothing してくれた。
でも「画面より大きい画像を縮小表示」機能が見つからない。
いちいち縮小率打ちこむのは緊急時には非現実的だ。

373:名無しさん@お腹いっぱい。
02/07/01 00:49
>>372
> 緊急時
ワラタ

ところで gqview は option で dithering の
具合を変えられるよ.

374:366
02/07/01 00:59
>>373
Image → Quality だね。
ヤター、ありがとう!
スライドショウのときは先読み (?) してくれるっぽいね。
画質優先にしてもあんまり遅くない。

よーし、今夜はがんばっちゃうぞー。

375:電波5号
02/07/01 15:32
細かいこと考えないで
wget URLリンク(hoge.jp)
とか
たまにするよ

それ以上はperl のワンライナーでだいたい事足りるような

376:名無しさん@Emacs
02/07/01 15:37
wget URLリンク(hoge.jp)

377:名無しさん@お腹いっぱい。
02/07/01 15:42
>>376
zsh なら、ね。

378:名無しさん@Emacs
02/07/01 19:59
昔、レイトレーシングのプログラム組んでて知ったけど
ディザリングとアンチエイリアスって考え方としては
別物なんだよね。

少ない色数で擬似的に多くの色を見せるのが
(黄色と赤色を交互に並べて橙色に見せたりするのが)
ディザで、

小さい物体を描く時にドット間に距離の差がでて
画像がガタガタに見える時に中間の色を混ぜて
なめらかにするのがアンチエイリアスなんだよな。

似てるといえば似ているかな

379:名無しさん@Emacs
02/07/01 20:29
神崎じゅりが今何やってるか知ってる人いない?
好きなんだけど…

380:名無しさん@お腹いっぱい。
02/07/02 04:22
ググルとか2ch検索とかの、UNIX板以外ルートでこのスレに来た奴が、
"hoge.jp"なる大御所エロサイトが本当にあると思ってブラウザに
URLリンク(hoge.jp)とか打ちこんでたりして。

とふと思ったが面白くも何とも無いな。

381:名無しさん@お腹いっぱい。
02/07/03 15:48
vmware→win→irvine

382:名無しさん@お腹いっぱい。
02/07/03 22:08
vmware→win→cygwin→wget

383:名無しさん@お腹いっぱい。
02/07/03 22:40
>311
>やはりグロ画像が怖い、怖すぎる。

1)いやな画像のcksum(1)やmd5(1)をリストに取っておいて、
2)落とした画像とコンペアして一致したらあぼーん

てなロジック追加すればいいんじゃないの?
cksumとか動作遅いけど、通信速度よりかは早いと思うからあんまし問題
にならんと思うけど。

384:名無しさん@お腹いっぱい。
02/07/04 12:29
グロはもう慣れた
エロ画像じゃなかったという落胆しかなくなった
でも最近初めて見るのだとちょっとうれしい

385:名無しさん@お腹いっぱい。
02/07/04 13:20
夢に出ないか?うなされないか?

386:名無しさん@お腹いっぱい。
02/07/04 18:21
>>378
ディザリングは高い解像度で擬似的に色数を増やす。
アンチエイリアスは多い色数で擬似的に解像度をあげる。


387:名無しさん@お腹いっぱい。
02/07/05 13:39
しかし、wgetの逆ってないもんかしらねぇ。wgetしたエロエロを一気にFreeHPに放り込むのに使いたい。

388:名無しさん@お腹いっぱい。
02/07/05 13:42
>>387
HTTP で送るの?

389:名無しさん@Emacs
02/07/05 14:49
PGFらしきの大量のリンクを発見したんだけど多すぎて挫折。

390:名無しさん@お腹いっぱい。
02/07/05 19:03
link のせてくれ!

391:名無しさん@Emacs
02/07/05 21:47
>389
linkのせてくれ!
まだコンプリートできないんだ…

あとPGFのオリジナルは画像が綺麗でサイズも大きいらしいね。
俺が持ってるのは再配布版ばかりで、画像がキチャナイ。

392:389
02/07/05 22:43
URLリンク(www.genie.x0.com)
URLリンク(www.genie.x0.com)
URLリンク(www.genie.x0.com)

なんか質が高くないようだけど。
海外Proxyが必要な所もあるけどページの上の説明の先に一覧がある。

393:名無しさん@お腹いっぱい。
02/07/05 23:31
>392
やったー

51番目、よっつめのリンクが質が良い。

394:名無しさん@お腹いっぱい。
02/07/06 18:39
逃げろーをハメた奴はすごく勇気あるな

395:名無しさん@お腹いっぱい。
02/07/09 00:11
403.phpがでけるのって何故?

396:395
02/07/09 03:05
おもいっきり既出のrefererですた
スレ汚しスマソ

397:383
02/07/12 00:02
とりあえず、俺もw3mをコアとしてcsh(苦笑)で直リンを2chの半角板から
吸い出す奴作ってみました。
(ソース?4行しかないしパイプつなぎまくりで恥ずいので非公開)

そいつでダウンロード始めたんだけど、グロ怖いし画面小さいしでNetBSD
上じゃあやってられないってんで、WinXPのエクスプローラの縮小表示で
見ながら、今作業中です。

グロ耐性無いんで、もっとも安全パイっぽかった半角2次元板でテスト(W
今のところ100ファイル程度だけど、グロはまだ無いなー。

398:383
02/07/13 23:53
さらに、過去落としたURLと入手したURLとを比較するCのコードも書き、
重複したダウンロードも避けるように環境もだんだんと整えつつあります。まだ4日目なんでいい加減ですが、だいたい半角2次元板で300~500枚程度
の新規画像の投稿があるみたいです。#想像以上の新規投稿枚数...よくネタが続くもんだ。

399:名無しさん@お腹いっぱい。
02/07/14 00:28
気分が悪いのでプレゼント

URLリンク(www.teeniegurls.com)
URLリンク(members.aol.com)
URLリンク(members.aol.com)


400:名無しさん@お腹いっぱい。
02/07/15 05:18
はー気分最悪。

URLリンク(members.aol.com)
URLリンク(members.aol.com)
URLリンク(members.aol.com)


401:名無しさん@お腹いっぱい。
02/07/19 06:36
FreeBSD厨房なヲレ

%jot -w "URLリンク({URL})" 99 | xargs -n1 fetch

ex.
URLリンク({URL})URLリンク({URL}) 取得

402:名無しさん@お腹いっぱい。
02/07/19 07:48
あまり関係ないかも知らんが、こう言うのを使ってキャッシュ内のファイルを・・・
って出来ればいいんだけどな。

URLリンク(kasumi.sakura.ne.jp)


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch