05/06/16 01:47:37
>>895
FreeBSD 4.7-RELEASE
GNU Wget 1.8.2
897:895
05/06/16 22:21:11
>>896
すまぬ,予想外れた.
Darwin Kernel Version 7.9.0 だと OS X 添付のwget (version失念) で --referer
オプションが働かなかった.
>>891 末尾の方法では html は落ちたが jpeg は 403.
出来心で GNU Wget 1.10 のソース落としてインスコしたところ
wget --referer=URLリンク(s1.artemisweb.jp)<)
で落とせた.たぶん参考にならないが一事例としてカキコ.
898:名無しさん@お腹いっぱい。
05/06/16 22:27:31
thx. とりあえずニューwgetで試してみることにしますわ。
899:名無しさん@お腹いっぱい。
05/06/22 10:07:33
% ls .thumbnails/normal | wc
3643 3643 134791
% du .thumbnails/normal
84000 .thumbnails/normal
('A`)
900:900
05/06/26 09:34:26
900
901:名無しさん@お腹いっぱい。
05/06/29 02:00:46
すみませんこのサイトの画像取れません…URLリンク(loface.com)
(サムネイルを拡大にするには、topページでクッキーを取得する。→URLリンク(loface.com))
自分は色々やりました。例えば
wget -r -A .jpg -nd URLリンク(loface.com)
こんな感じでやってみましたが、どうもダメ…
どうかご教授下さい。
902:名無しさん@お腹いっぱい。
05/06/29 02:21:00
お前は基本がわかってないから無理
903:名無しさん@お腹いっぱい。
05/06/29 02:59:38
>>901
ヒント: wget --header="Cookie: kokoni hairu mojiretu wo nanntoka shutoku shiro"
904:名無しさん@お腹いっぱい。
05/06/29 21:09:33
>>901
日本語も学びなおしたほうがよかろ
学問でも技芸でもなく、単なる方法を知りたいのなら
×教授ください
○教示ください
>>903
それはヒントどころか答えでは・・・w
905:名無しさん@お腹いっぱい。
05/06/29 23:51:29
空気を読んだ方がよかろ
単なる抜く画像を知りたいなら
×助教授ください
○女教授ください
906:名無しさん@お腹いっぱい。
05/06/30 07:07:50
10秒に1アクセスの制限もあるな。
907:名無しさん@お腹いっぱい。
05/06/30 09:58:10
>>901
初心者だけど過去ログを見ながら挑戦してみますた
curl -H "ここにくっきー文字列" -o kakyusei#1.jpg "URLリンク(loface.com)"
又は…
for num in `seq -f %03g 1 879`; do
wget --header="ここにくっきー文字列" --output-document=kakyusei${num}.jpg \
"URLリンク(loface.com)"
done
これで全部ぶっこぬけると思うヽ(´ー`)ノ
908:名無しさん@お腹いっぱい。
05/07/02 19:04:53
なんか最近は DCGA ってのばっかりでスルーばっかりだよ。
909:901
05/07/03 00:05:10
>>902
そんなorz
>>903
クッキー文字列のことですか?
>>904
っう…スミマセン
>>905
○女生徒ください
>>906
それどういう意味ですか?
>>907
うーん上手くいきません?何ででしょう
910:名無しさん@お腹いっぱい。
05/07/03 02:49:12
>>909
つ Firefox + Live HTTP headers
911:906
05/07/03 09:29:12
>>909
そのままの意味。連続アクセスするとjpegの代わりに「10秒まてこの早漏」と返してくる。
hint: wget --load-cookies=foo --save-cookies=foo --keep-session-cookies
912:901
05/07/03 15:47:34
お騒がせしてすみません、解決できました。
wget -r --header="cookie: Cookie: PHP_DAYCOUNT2=<省略>; lf=<省略>" URLリンク(loface.com)
で出来ました。今まで出来なかったのは『PHP_DAYCOUNT2』が抜けてただけみたいですorz
>>910さんが指摘した『Live HTTP headers』で気がつきました。
どうも有難うございました。
>>911
レスしてくれて有難うございます。
913:名無しさん@お腹いっぱい。
05/07/17 01:12:56
age
914:名無しさん@お腹いっぱい。
05/07/17 01:21:26
まだあったのな、このスレ。
915:名無しさん@お腹いっぱい。
05/07/17 01:39:56
UNIX板での良スレ
916:名無しさん@お腹いっぱい。
05/07/31 12:29:53
エロいおまいら 画像ビューワ のお勧め教えれ。
xv? gimageview? gqview? 他?
ディレクトリ一覧の時に、そのディレクトリの中の画像が
アイコン一覧みたいに見えるやつキボンヌ。
917:名無しさん@お腹いっぱい。
05/07/31 13:32:21
またこいつか。
918:名無しさん@お腹いっぱい。
05/07/31 14:37:59
>>916
explorer
919:名無しさん@お腹いっぱい。
05/07/31 15:06:24
>918
ports には見当たらないね。
ぐぐってもどれがどれやらワカラン。
>917
?
920:名無しさん@お腹いっぱい。
05/08/01 02:33:50
ネタにマジレスか
こりゃヒドイ
921:名無しさん@お腹いっぱい。
05/08/04 06:20:35
kuickshow つかってまつ
922:名無しさん@お腹いっぱい。
05/08/04 14:52:57
paint
923:名無しさん@お腹いっぱい。
05/08/13 11:44:34
>>919
C:\Windows\system32\explorer.exe
924:名無しさん@お腹いっぱい。
05/08/25 21:53:35
gthumbかな?
925:名無しさん@お腹いっぱい。
05/08/26 09:57:59
URLリンク(linux.bytesex.org)
926:名無しさん@お腹いっぱい。
05/09/02 22:15:47
例えば、リストの内容が
URLリンク(www.unko.jp)
URLリンク(www.manco.jp)
みたいなファイルがあったとしてこれを展開してwgetなりに渡すにはどんなスクリプト書きます?
自分が深く考えないで書いてみたのは
cat < list | sed 's/\(.*[^0-9]\)\[\([0-9].*\)-\([0-9].*\)\].*\.\([^.]*\)$/\1 \2 \3 \4/g' | awk '{printf("echo %s\{%s..%s\}.%s\n", $1, $2, $3, $4)}' | zsh -s | tr ' ' '\n'
で、最初のsedでアドレス、開始の番号、終わりの番号、拡張子を分けて、awkでzshのスクリプト書いて最期にtrで改行入れてるんだけど、どうかな?
添削よろしくです。
927:名無しさん@お腹いっぱい。
05/09/02 22:23:05
やりたいことがよくわからんが、
スカトロでホモって事はわかった。
928:名無しさん@お腹いっぱい。
05/09/02 22:40:51
>添削
読めない
929:名無しさん@お腹いっぱい。
05/09/03 00:47:22
zsh知らんけど、添削するなら
sed 's/¥[¥([0-9]*¥)-¥([0-9]*¥)¥]/{¥1..¥2}/g; s/^/echo /'
とか?
ただ自分なら、zsh使うくらいなら perlとかで、置き換えながらぐるぐる再帰使って回すかなぁ。
930:名無しさん@お腹いっぱい。
05/09/03 01:19:04
>>928
「てんさく」って読むんだYO!
931:名無しさん@お腹いっぱい。
05/09/03 01:24:12
>>929
アーナルほどsedで開始と終わりの番号を別のフィールドにわけないでzshの{..}の形にすればいいのか。。。
坂本文のたのしいUNIXで勉強したてなんでsedとawkくらいしか知らないのでできればperlで
書いていただけませんか?
932:名無しさん@お腹いっぱい。
05/09/03 02:07:02
URLリンク(www.zentastic.com)
URLリンク(www.zentastic.com)
933:名無しさん@お腹いっぱい。
05/09/03 04:01:09
wgetなりってことなので curl 使ってもいいんですよね
934:名無しさん@お腹いっぱい。
05/09/06 18:40:22
>931
雑だけど。
#!/usr/bin/perl -n
sub ren {
$_ = shift;
if (/¥[(¥d+)-(¥d+)¥]/) {
my ($a,$b,$fst) = ($`,$',$1);
foreach $i ($fst..$2) {
ren($a . sprintf("%0*d",length($fst),$i) . $b);
}
} else {
print;
}
}
ren($_);
935:名無しさん@お腹いっぱい。
05/09/06 19:31:13
Perlの場合、マジックインクリメントに頼れば
#!/usr/bin/perl -n
if (/^(.*)\[(\d+)-(\d+)\](.*)$/) {
for ($2..$3) { print "$1$_$4\n"; }
} else {
print;
}
でいい気がするけど
936:934
05/09/06 19:48:05
ついでにbash
shopt -s extglob
function ren {
case $1 in
*¥[+([0-9])-+([0-9])¥]*)
set -- $( echo "$1" | sed 's/¥[¥([0-9]*¥)-¥([0-9]*¥)¥]/ ¥1 ¥2 /' )
for i in $( jot -w"%0$(echo -n $2|wc -c|tr -d ' ')d" - $2 $3 1 )
do
ren $1$i$4
done
;;
*)
echo $1
;;
esac
}
while read s
do
ren $s
done
>935
Perlまかせにすると、[00-10]とかができなかった。
937:名無しさん@お腹いっぱい。
05/09/06 19:58:54
>>936
ちょっと試した感じだと、00みたいに偽値と判断されるやつがダメみたいね。
01-10とかだとオッケーなんだけど。
938:名無しさん@お腹いっぱい。
05/09/14 19:01:44
連番のH画像を諦める勇気ってのも僕には必要なんだ。
エロ画像
いくら取っても
無くならず
取るだけ取って
それでおしまい
お世話になりました。
939:名無しさん@お腹いっぱい。
05/09/14 20:28:42
今度は、ため込んだ画像を削除する勇気だな。
940:名無しさん@お腹いっぱい。
05/09/14 22:08:56
画像から動画へステップアップする勇気も必要だ。
941:名無しさん@お腹いっぱい。
05/09/15 09:12:22
取り敢えず200MくらいのHDDを6個くらい買ってくる勇気
942:名無しさん@お腹いっぱい。
05/09/15 16:43:35
200Gの間違いじゃないのか
943:名無しさん@お腹いっぱい。
05/09/15 19:47:59
200Gを6個買うのよりも200Mを6個買う方が勇気いると思う。
944:名無しさん@お腹いっぱい。
05/09/19 17:01:24
ワロタ
945:名無しさん@お腹いっぱい。
05/09/22 10:04:37
動画話に進出したついでに。
小さいスクリーンショットを一枚にまとめるのに
良いツールって何かありませんか?
散々既出の連番ゲットしたあとにちまちま
convert +append
convert -append
ってやってまつ。
こういうのってどうやってるんだろ:
URLリンク(www.aventertainments.com)
946:名無しさん@お腹いっぱい。
05/09/22 19:15:37
使ったこと無いけど、montageはどうかな?ImageMagic系。
URLリンク(www.cit.gu.edu.au)
947:名無しさん@お腹いっぱい。
05/10/15 14:53:52
アルテミスでGNU使ったら、串刺してたのに生IPごと弾かれたorz
948:名無しさん@お腹いっぱい。
05/10/15 15:10:03
↑今年最初に見た馬鹿
949:名無しさん@お腹いっぱい。
05/10/15 16:36:25
URLリンク(www.arutemisu.com)
950:名無しさん@お腹いっぱい。
05/11/04 18:45:08
このスレのまとめサイト作っていいですか?
951:名無しさん@お腹いっぱい。
05/11/04 19:25:36
よろしく
952:950
05/11/05 18:30:02
>>950
テキトーにつくってみました。
URLリンク(seizen.dyndns.org:8080)
ちなみにおいらはperl+sh派です。
953:名無しさん@お腹いっぱい。
05/11/06 00:52:21
だよもん..
954:名無しさん@お腹いっぱい。
05/11/06 02:08:37
このスレで
URLリンク(www.464.jp)
の連番ダウンロードできた人いる?
955:名無しさん@お腹いっぱい。
05/11/06 08:03:56
>954
さっき試してみたけどできたよ
しかしこれ画質悪いな
956:名無しさん@お腹いっぱい。
05/11/13 15:05:31
今このスレのノウハウを生かしてVOAのスクリプトとmp3をダウンロード中…。
957:名無しさん@お腹いっぱい。
05/11/14 19:37:17
voaって何かね
958:名無しさん@お腹いっぱい。
05/11/14 21:21:25
Vagina or Anus
959:名無しさん@お腹いっぱい。
05/11/16 22:48:44
>>957
Voice of America です。英語のニュース・サイトの過去ログがターゲットです。
mp3とスクリプトが揃っているので、これをローカル教材として加工しようと思いました。
で、一応落とせたんですが……
URLリンク(www.voanews.com)
こんな吐き気がするHTMLをどう加工しろと……orz
960:名無しさん@お腹いっぱい。
05/11/18 19:49:09
edなり perlなりで、ばっと<span class="articleheadline"~</P></span>あたり抜き出して、html2txtみたいな処理かけて、余計なの削るとか。
そういうことではない?
961:名無しさん@お腹いっぱい。
05/11/18 22:10:42
>>960
perl で $html =~ s!!!sig; を何度も繰り返すスクリプト書いて、なんとか読めるHTMLに加工しました。
今は mp3 を wget してます。
このサイト、mp3 は mp3 で命名規則皆無という腐りっぷりです。うへぇ。
ところで質問です。
ちょっと確認してみたところ GNU Wget 1.10.1 のデフォルトのリクエストは
GET /index.htm HTTP/1.0
User-Agent: Wget/1.10.1
Accept: */*
Host: localhost
Connection: Keep-Alive
という内容でした。で、プロトコルを HTTP/1.1 に切り替えるか、
または強制的に HTTP/1.1 と申請してリクエストすることはできますか?
962:名無しさん@お腹いっぱい。
05/11/18 23:45:53
curl使ってみるとか
963:名無しさん@お腹いっぱい。
05/11/19 05:30:52
>>961
どーせPerl使うんならHTML::TokeParserとかその辺のライブラリ使えばいいのに。
高速ではないけどそれなりに便利だよ。
964:名無しさん@お腹いっぱい。
05/11/28 22:50:25
次スレどうしますか?
965:名無しさん@お腹いっぱい。
05/11/29 09:40:42
次
ス
レ
頼
ま
な
い
966:名無しさん@お腹いっぱい。
05/11/29 16:31:03
頼みcom
967:名無しさん@お腹いっぱい。
05/11/29 18:27:16
>>977までは粘れると思われ。
968:名無しさん@お腹いっぱい。
05/11/29 22:52:17
>>980が立ててくれるってさ
969:名無しさん@お腹いっぱい。
05/11/30 15:53:56
>>980
今度のスレタイは↓こうしてくれ
「連番のH画像/動画を一気にダウンロードする」
970:名無しさん@お腹いっぱい。
05/11/30 17:39:06
これは言わない約束なのかもしれんが
「H」は外さないうわなにするやめろqあwせdrftgyふじこlp:[
971:名無しさん@お腹いっぱい。
05/11/30 18:26:42
じゃあ
連番のURIから一気にダウンロードする /2
でよろしかったでしょうか?
972:名無しさん@お腹いっぱい。
05/12/01 21:44:37
てか連番ている?
973:名無しさん@お腹いっぱい。
05/12/01 21:50:49
ネタ出つくしたみたいだし、
次スレなしでもいいかと。
974:名無しさん@お腹いっぱい。
05/12/03 16:03:25
最近動画落とすのにパスワードが必要だったりするので
自動化は無理そうだと思ったり思わなかったり
975:名無しさん@お腹いっぱい。
05/12/07 08:43:36
>>955詳 し く
976:名無しさん@お腹いっぱい。
05/12/13 14:55:32
次スレ
スレリンク(unix板)
977:FM
05/12/18 21:28:53
>>975
opera使えば右クリックが効くからURLがわかりますよ。
それで、
464.jpってURLリンク(comic110.464.jp)
以降がwgetですんなりDLできないのですがなんでかわかりますか?
URLリンク(comic104....)などは普通にできるけど、ドラゴンボールが取れない。
operaで直接url書けばみれるのですが,なんででしょうか?
あれ、この板ってもう別にうつってる?
978:名無しさん@お腹いっぱい。
05/12/19 01:02:57
>>952
ここまでスレが進んでるのにまとめにcurlが載ってないのは信じられない
979:名無しさん@お腹いっぱい。
05/12/21 03:21:09
>>977
レスありがとうございます
私はlunascapeというタブブラウザを使っていてそれで画像のurlを抜き取り
連続ダウンローダで連番のを落としてみたのですが見てみると画像情報がなくすべて見れないファイルでしたorz
jpegファイルなのに見れないんですよね。。
ちなみに私が試したのはドラ●もんでURLリンク(comic104)でしたができませんでした。。
噂によるとダウンロードできないようにしてるサーバーとかあるようです.....(´・ω・`)
980:名無しさん@お腹いっぱい。
05/12/21 09:33:01
どざ氏ね
981:名無しさん@お腹いっぱい。
05/12/21 15:31:35
>>979
やってみたけど、問題なくダインロード&表示できるよ。
>>979のスキルの問題
982:名無しさん@お腹いっぱい。
05/12/21 15:52:11
ダインロードってなんかかっこええな
983:名無しさん@お腹いっぱい。
05/12/22 01:54:40
スキルでなく、クンフーの問題
984:名無しさん@お腹いっぱい。
05/12/22 03:59:39
>>981
ホントですか・・・(゚Д゚)一体何が原因なんでしょうか・・・・
私もダウンロード自体はできてるのですがフォルダにダウンロードされた
画像ファイルを見てみると表示されませんorz ソフトやURLなどいろいろ確認しましたが。。orz
今は結局freemacroでダウソしてるんですが時間かかりまくりんぐ・・・orz
985:名無しさん@お腹いっぱい。
05/12/24 10:06:45
>>984
ヒント:連番ダウンローダはrefereを使ってくれない。
986:nyanko
05/12/24 12:10:46
>>985
wget でも普通に指定できるYO!
987:名無しさん@お腹いっぱい。
05/12/24 15:55:24
>>986
TU○ にもしかしている方?
>>984
なんか、ほんとにクンフーたりないねきみ。。。
988:名無しさん@お腹いっぱい。
05/12/24 16:45:08
ここがunix板だと気づいていないんじゃないのか。
989:名無しさん@お腹いっぱい。
05/12/24 17:20:08
来年の1月10日で5周年だな
990:名無しさん@お腹いっぱい。
05/12/24 19:12:34
今まで誰も出していないが,emacs 上でウェブブラウザ(w3m とか)を走らせて,
画像をダウソロードする手順をキーボードマクロで登録しておけば,
特に何も考えなくてもほとんどのサイトでダウソロードできます.
991:名無しさん@お腹いっぱい。
05/12/25 03:14:29
>>990
具体的に書かないのは宗教上の問題かなんか?
992:名無しさん@お腹いっぱい。
05/12/25 07:30:18
キーボードマクロの手順を具体的に書くの?w
993:名無しさん@お腹いっぱい。
05/12/25 13:32:48
インタラクティブってアホじゃありません?
994:名無しさん@お腹いっぱい。
05/12/26 03:13:07
おい、次スレが立ってるぞ
スレリンク(unix板)
995:名無しさん@お腹いっぱい。
05/12/26 10:26:56
(゚д゚)ウメー
996:名無しさん@お腹いっぱい。
05/12/26 10:28:39
(゚д゚)ウメー
997:名無しさん@お腹いっぱい。
05/12/26 10:30:27
(゚д゚)ウメー
998:名無しさん@お腹いっぱい。
05/12/26 11:00:26
まんこ
999:名無しさん@お腹いっぱい。
05/12/26 11:01:29
(゚д゚)ウメー
1000:名無しさん@お腹いっぱい。
05/12/26 11:02:34
(゚д゚)ウメー
1001:1001
Over 1000 Thread
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。