お勧めダウンロード(丸ごと取り込み)ソフト3at SOFTWARE
お勧めダウンロード(丸ごと取り込み)ソフト3 - 暇つぶし2ch159:名無しさん@お腹いっぱい。
07/08/06 18:25:43 UW4kC6EQ0
>>144
とりあえずこれでおねがい
URLリンク(kaela.jugem.jp)

>>145
方法を教えてください。

160:名無しさん@お腹いっぱい。
07/08/06 21:01:05 iz1Y6S0t0
>>159
>>82


161:名無しさん@お腹いっぱい。
07/08/06 22:09:06 UW4kC6EQ0
>>160
>>107と同じ


162:名無しさん@お腹いっぱい。
07/08/06 22:21:28 iz1Y6S0t0
>>161
>>108


163:名無しさん@お腹いっぱい。
07/08/07 20:40:19 zDYP6yL/0
巡集のHP消えた?

164:名無しさん@お腹いっぱい。
07/08/07 21:20:31 rmt4tXIP0
無くなってるね
移転の告知とかも見た覚えがないけど

165:名無しさん@お腹いっぱい。
07/08/07 22:53:48 8FY65nq50
株日記も消えてる・・・。
全然、金増えないから株辞める、といいつつ
何回も株再開して、いつまでも辞めないなぁと思ってたら・・・。

166:名無しさん@お腹いっぱい。
07/08/07 23:01:24 Rnkdrzsb0
うーん
これは本気で夜逃げでもしたかねえ
心配だ

167:名無しさん@お腹いっぱい。
07/08/15 21:42:41 xF/zK2Ra0
>>163
ヘルプのページのミラーってあるの?
親にあるHPの保存を頼まれて、初めてこのソフトを落としてみたらこの状態… orz

168:名無しさん@お腹いっぱい。
07/08/15 22:32:55 HzWu+63s0
巡集はヘルプがいらないくらい初期設定そのままでいけると思うけど
変更が必要な箇所はオプションの項目を見ればわかるはず

169:名無しさん@お腹いっぱい。
07/08/15 22:43:51 k3HM8b2B0
サイトのヘルプはver1.6までしかなかったような気がしたけど。
俺、最新版はヘルプ見ないで使ってたよ。

170:名無しさん@お腹いっぱい。
07/08/25 07:27:47 wJoGTH6/0
10日書き込み無し。
巡集も消えたまま。

171:名無しさん@お腹いっぱい。
07/08/25 14:25:43 3h2qNoKX0
まだだ・・・っ!まだ終わら(ry

172:名無しさん@お腹いっぱい。
07/08/27 01:53:20 YfjxAlx50
寿限無取り込みできないからなぁ巡集は。

173:名無しさん@お腹いっぱい。
07/08/27 07:47:02 pl/iWHG90
できると何度言えば

174:名無しさん@お腹いっぱい。
07/09/01 16:53:11 UEbpedFs0
jugemの取り込みを巡集初めてやったけど、とりあえず対象URL以下全て許可にしたら
これいらないだろうな、と思うファイルも山ほど落ちてきた
月別のアーカイブを指定するだけで十分だったか

175:名無しさん@お腹いっぱい。
07/09/15 17:34:27 shGMdTNK0
巡集みたいにJavascriptを辿ってくれるソフトはないものか

176:名無しさん@お腹いっぱい。
07/09/16 02:04:46 dftJqUuf0
>>175
_gu
Web Auto(シェアウェア)

177:名無しさん@お腹いっぱい。
07/09/17 11:06:49 wfwucYIg0
あるのか!サンクス

178:名無しさん@お腹いっぱい。
07/09/17 11:22:10 wfwucYIg0
よくみたら開発停止してるソフトじゃないか
要望を出せないなら意味がないorz
現役でがんばってるソフトはないものか

179:名無しさん@お腹いっぱい。
07/10/03 21:43:58 pWzSNQy50
具体的に
URLリンク(news.livedoor.com)
このページとそこから下の各画像ページを落としたいのですが、
可能なソフトはありますか?

180:名無しさん@お腹いっぱい。
07/10/06 10:56:58 2ZPpgW+10
このスレこんなに人がいないんだ・・・

181:名無しさん@お腹いっぱい。
07/10/06 16:02:36 BjxdSh550
しょこタン可愛いな。

182:名無しさん@お腹いっぱい。
07/10/08 20:24:11 LFWOR3Ya0
>>179
画像だけならこれとかでいけるけど
URLリンク(www.freewarefiles.com)

183:名無しさん@お腹いっぱい。
07/10/09 22:54:00 uQB0ZqdW0
Irvineでエロサイトの画像をぶっこ抜こうとしたらプロトコルエラーがでます。
サイトのIDやパスを入れて認証設定をしたのですが、どうもダメみたいです。
(設定がちゃんとできていないのかも)
何が原因なのでしょうか。
もし、これがクリアできたら画像をみんなにあげてもかまいません。
サイトはここです。
URLリンク(www.g-area.org)
よろしくお願いします。

184:名無しさん@お腹いっぱい。
07/10/10 08:28:33 7BTa/w3d0
>>183
ここはサイトを丸ごとダウンロードするソフトのスレッドです
画像だけぶっこぬきたい人はスレ違いです

Irvineのことは専用スレへ
スレリンク(win板)
Irvine以外のダウンローダーを探しているならこちらへ
スレリンク(software板)


185:名無しさん@お腹いっぱい。
07/10/18 23:24:07 7tXtR67v0
巡集は環境変数のUserAgentを自由に変えられるけど
これを今使ってるブラウザと同じにするにはどうすればいいですか
具体的に書くと
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CLR 1.1.4322)
にしたいんだけど、(当たり前だけど)巡集の選択肢にはないからコピペすると
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.0.3705; .NET CL
で途中でぶち切れてちゃうんです



186:名無しさん@お腹いっぱい。
07/10/18 23:36:32 HXM7GKrN0
default.iniにUAのリストがあるから、そこに自分で追記したらいいんじゃないかな
それでも無理なら、Proxomitron経由にしちゃうとか

187:185
07/10/19 09:27:44 io5KB4Vk0
できました!
試しに風呂敷確認君で巡集を使ってみたら
chk_proxy3.cgiに書いてあるUserAgentがブラウザと同じになってました
ありがとうございました>>186

188:185
07/10/19 09:29:49 io5KB4Vk0
どうでもいいことですがちょと訂正
○落ちてきたchk_proxy3.cgiというファイルに

189:名無しさん@お腹いっぱい。
07/10/25 08:06:59 X9NjLM0s0
URLリンク(fantasticland.web.infoseek.co.jp)

上記サイトを巡集1.7.1Aで初期設定保存したのですが
下のENTERと書いてあるリンクをクリックしても表示されません
取り込み設定がおかしいのでしょうか?

190:名無しさん@お腹いっぱい。
07/10/25 08:25:35 X9NjLM0s0
初期設定保存→初期設定で保存

191:名無しさん@お腹いっぱい。
07/10/25 20:52:21 MXXrESKM0
落とせないのはたぶん↓これのせい

>ver 1.57 (2004/10/27)
>* 巡回が禁止されているサイトは辿れない仕様に変更。

取得設定のHTMLのタグを読まないにチェックを入れればいいはず
ちなみに1.56なら拒否されてもデフォ設定で落とせる

192:名無しさん@お腹いっぱい。
07/10/25 22:22:35 X9NjLM0s0
>>191
ほんとだ、できました
どうもありがとうございます

193:名無しさん@お腹いっぱい。
07/11/20 19:31:24 UO8+XWOH0
ページURLと、階層を指定するだけで
ただ単純にページのデータを落としてくれるのは何になりますか
難しい設定をしないとまともに動いてくれないものばかりで困ってます


194:名無しさん@お腹いっぱい。
07/11/20 20:35:52 +BL7nhGN0
iriaかIrvine

195:名無しさん@お腹いっぱい。
07/11/21 18:58:15 TdDk4QuK0
すいません
不足してました
ページとしての体裁を保ってです

これまで何を使っても
ただ欲しいURLを入力しただけでも
繋がってるリンクどころかそのページだけすらも保存できないものばかりで・・・


196:名無しさん@お腹いっぱい。
07/11/21 19:52:04 yPEtRi6u0
FWがブロックしてんじゃないの?

197:名無しさん@お腹いっぱい。
07/12/06 21:50:51 R8U55YGP0
URLリンク(www.rolfinger.com)

みたいなflashバリバリのサイトを取り込みたいんだけど、何がいいかな
フラッシュがフラッシュじゃなくなっても構わないので

198:名無しさん@お腹いっぱい。
07/12/19 03:03:46 9yuHwmFr0
gethtml (コマンドラインの方)で
URLリンク(tv.yahoo.co.jp)
をDLするとなぜかちゃんとDLできない。
表がくずれる。右の方。ウチだけ?

199:名無しさん@お腹いっぱい。
07/12/19 08:26:38 rzYFr4Wu0
こちらはGUI版でオマケに7.12.0という古いバージョンなので
>>198とは関係ないかもしれないけど、参考程度に。

経験的にGetHTMLWはチャンクのデコード周りにバグがある。

チャンク転送の際のエンティティボディの終端記号である "0" + CRLF が
たまにファイル末尾にくっついていることがあるよ。(かなり異常)
その分途中のどこかが(時に数百バイトも)欠けちゃってたり。

HTMLファイル、殊にCGIで動的に生成されるようなHTMLページ
(これはHTTP/1.1では大抵"Transfer-Encoding: chunked"で送られてくる)は
GetHTML(W)では取得しないのが無難。俺の経験則。

200:名無しさん@お腹いっぱい。
07/12/19 08:36:06 rzYFr4Wu0
うはw

試しにGetHTMLW ver.7.12.0で>>198のページを取得してみたらこちらでも再現したw

HTTP/1.1クライアントを作るにしても、持続的接続ならともかく
チャンク形式への対応(必須)の実装は別段難しい部分じゃないんだけどね…。

201:名無しさん@お腹いっぱい。
07/12/19 11:15:42 9yuHwmFr0
すっごい詳しい説明をありがとう!
よそでも再現したってことである意味一安心^^
そんなデカいバグがあるなんて知らなかったよー

202:名無しさん@お腹いっぱい。
07/12/25 11:11:24 GbgG+v1L0
久しぶりに閉鎖するブログ保存するために巡集起動した
丸ごと落としたいサイトがなかなか出てこないというのもソフトの開発が停滞する一因かも

203:名無しさん@お腹いっぱい。
07/12/25 11:35:48 PwgleQS90
巡集に、Redirectするページにアクセスして1度No Responseになったら、
その後の読み込み全てがNo Responseになるバグがない?

URLリンク(www.stronger.jp)
ここのを全保存しようとすると、TrackbackのリンクでNo Responseが発生して、それ以降駄目になる

204:名無しさん@お腹いっぱい。
07/12/29 07:39:53 qxdx6dP80
83 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 17:13:54 ID:j/s/kjK00
サムネイルがたくさん並んでいるサイト上で、
サムネイルの先にある本画像だけをスマートにごっそり
ダウンロードできるツールを探しています。

このスレの達人たちなら、きっとなんらかの知恵を拝借できると
思い、おもいきって質問させていただきました。

どなたか良いアドバイスをお願いします。

84 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:38:58 ID:s6XkFniC0
ダウンローダー雨
URLリンク(downloader.sakura.ne.jp)

85 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2007/10/21(日) 23:46:23 ID:j/s/kjK00
>>84
おぉ、こういった便利なツールがあったんですね。
助かりました。本当にどうもありがとうございました

こうあるんだけどこれってサムネイルの並んだ場所で右クリ、一括保存てわけにはいかないのかな?
やっぱりいちいちURL作成しないと駄目ですか?

205:名無しさん@お腹いっぱい。
07/12/30 23:06:29 qlo4Nzf+0
はい

206:名無しさん@お腹いっぱい。
08/01/13 17:24:55 IiRpxgag0
雨のウィンドウにタブをドラッグすればページ内全取得できるよ
IE6ならアドレスバー右のアイコンドラッグでもいい

207:名無しさん@お腹いっぱい。
08/01/16 15:18:18 ZuxFg1x40
巡集の取得設定で「クエリー」というのはチェックを入れることにより
どのファイルがダウンロードされるのでしょうか?

クエリー
データベースからデータを取り出すためのフォーマット

と意味を調べたのですが、いまいちピンと来ません

208:名無しさん@お腹いっぱい。
08/01/16 16:23:20 OFGCoOwC0
&や=で区切られてるURLをDLするんじゃないかと


209:名無しさん@お腹いっぱい。
08/01/16 16:23:53 OFGCoOwC0
?とか

210:名無しさん@お腹いっぱい。
08/01/18 16:46:29 IYjarUeY0
HTTrack Website Copier を試しているんですが、URLに ~ が含まれると _ に変換されてしまい
データは取り込まれてもHTML内の記述は絶対URLになってしまうようです。
何か対応策はあるでしょうか?

211:名無しさん@お腹いっぱい。
08/01/18 17:33:47 A5toxlAf0
巡集でファイルのダウンロードにCGIが使われている場合、除外するURL *.cgi を消して、クエリにチェックを
入れる必要があるけど、そうすると不要な掲示板のデータまで取得して時間がかかる。

1. クエリにチェック、URLフィルタの許可する文字列に *dlcount.cgi* を追加、除外する文字列に *.cgi を追加
2. クエリにチェック、URLフィルタの除外する文字列に diary.cgi 等、掲示板のURLのCGIのみ追加

↑の2つの方法を試してみたけど、1だと必要なファイルがダウンロードされず、2だと掲示板も読み込んでしまう。
ファイルダウンロードだけ行って掲示板のデータは読まないようにするにはどうすれば良いのかな。

212:名無しさん@お腹いっぱい。
08/01/18 18:31:47 gw9zl8ah0
URLを晒せば誰かが解析してくれるよ

213:211
08/01/18 18:54:52 tCWJ6AtX0
トップ URLリンク(www.din.or.jp)
呼び出し URLリンク(miko3.jp)
CGI URLリンク(cgi.din.or.jp)

サイトメニューは画面下部。

1.「かすたま」の中のファイルも一緒にダウンロードしたい。
URLリンク(cgi.din.or.jp) 等で呼ばれるファイル

2.「日記」のデータは読み込みたくない。
URLリンク(cgi.din.or.jp)

と言う条件なんですが、巡集 1.7.1A でどういう設定にすれば良いでしょうか。

214:名無しさん@お腹いっぱい。
08/01/18 22:09:06 gYZKpt5G0
HTTrackは>210の問題さえなければかなり使えるソフトなのになぁ
海外では ~ ってあまり使われないのか

215:名無しさん@お腹いっぱい。
08/01/24 06:32:37 JD3lJ93I0
巡集作者復活マダ-? (・∀・ )っ/凵⌒☆チンチン

216:名無しさん@お腹いっぱい。
08/01/24 07:32:08 oN1Lok+h0
株にはまりすぎて開発してる暇がなくなったんじゃ

217:名無しさん@お腹いっぱい。
08/01/25 06:37:21 NApTe0zp0
ベクターの作者ページへのリンクが

218:名無しさん@お腹いっぱい。
08/01/25 07:44:23 Uo5ZCYg70
どうした?

219:名無しさん@お腹いっぱい。
08/01/25 17:45:12 pOdyTSFw0
URLリンク(bb.goo.ne.jp)

すみませんどこで聞いたらよいのかわからないので、ここで聞いてみます。
この動画をダウンロードするにはどうしたらよいですか?

220:名無しさん@お腹いっぱい。
08/01/25 22:06:45 VQ1m2IF90
>>219
例えば 英語 第1問 なら
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
を↓使ってダウンロードする
GetASFStream Part8
スレリンク(software板)

221:名無しさん@お腹いっぱい。
08/01/25 22:12:43 xmvyWrR/0
>>219
URLリンク(www.google.co.jp)


222:名無しさん@お腹いっぱい。
08/01/26 19:25:30 h3xkz2eJ0
巡集でinternet archiveを取り込むことができてる人いますか?
フィルタでURLの数字の個所とドメイン以下2箇所に*を設定し実行しているの
ですが2階層以上取り込めません。別の方も似たような質問している方
いましたが設定のコツがあればご教示いただきたく存じます。
何卒よろしくお願いします。

223:名無しさん@お腹いっぱい。
08/01/26 20:07:25 BB78zvk50
>2階層以上取り込めません

リンクが繋がってないだけじゃないのかねえ
設定はそのサイトの構成によって違うのでこうすればおkというのはない

224:名無しさん@お腹いっぱい。
08/01/26 20:50:47 h3xkz2eJ0
レスありがとうございます。
例えば下記の巡集のヘルプを取り込むためにはどのような設定をしますか?
このままURLタブに下記のアドレスを貼り付けると「何もダウンロードできません
でした」となるんですが。
URLリンク(web.archive.org)

225:名無しさん@お腹いっぱい。
08/01/26 22:17:45 Vw9+2j2y0
>>224
アーカイブされてなければ落とせるわけないっしょ?
そのページからリンクしてるアドレスをよく見てごらんよ
URLリンク(hp.vector.co.jp)ではじまるURLしかないじゃないw

226:名無しさん@お腹いっぱい。
08/01/26 22:20:24 Vw9+2j2y0
続き
URLリンク(web.archive.org)からはじまるアドレスでないと落とせないよ

227:名無しさん@お腹いっぱい。
08/01/26 23:17:56 Nych28nF0
219です。

mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv

このURLはどう見つければよいのですか?



228:名無しさん@お腹いっぱい。
08/01/26 23:34:13 Vw9+2j2y0
>>227
>>220に誘導されてるだろ
向こうのスレで聞いておいで

229:名無しさん@お腹いっぱい。
08/01/27 04:41:59 2s4iBkil0
gethtmlwはずいぶん昔に使ってたけど、今でも地味に更新してるのね

230:名無しさん@お腹いっぱい。
08/01/27 08:36:39 Xxz+W6Ae0
初心者にお勧めの物ってどれになりますか? 

weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。

231:名無しさん@お腹いっぱい。
08/01/27 10:02:21 2s4iBkil0
初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。

232:名無しさん@お腹いっぱい。
08/01/27 10:20:40 suXR9EeP0
準州の作者はいいセンスしてたよなあ
俺がロックフェラーならパトロンになってやるんだが

233:名無しさん@お腹いっぱい。
08/01/27 10:54:18 Xxz+W6Ae0
>>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?

234:名無しさん@お腹いっぱい。
08/01/27 11:58:42 2s4iBkil0
gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて
中身を「フィルタ」で検索してみるがよろし

235:名無しさん@お腹いっぱい。
08/01/27 12:50:55 Xxz+W6Ae0
>>234
gethtmlwの記述方法は見ました、2,3割程度しか理解してませんが
巡集における記述方法は別ですよね? 巡集における記述方法を教えてください。

236:名無しさん@お腹いっぱい。
08/01/27 13:39:28 s6MxY/jc0
>>225
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。

237:名無しさん@お腹いっぱい。
08/01/27 19:04:30 2s4iBkil0
>>235
ちょっと勘違いしてしまった。これは失礼。
巡集だと、そう難しいものでもないとは思うけども。
具体的にどういうフィルタをかけたいのか教えてくれれば説明しやすいかな。

238:名無しさん@お腹いっぱい。
08/01/30 01:36:11 NOmqzNMO0
巡集でarchiveを保存しようとするとエラーになるんだけど
これはどうしようもないの?
それとも他のならできる?

239:名無しさん@お腹いっぱい。
08/02/08 00:48:18 LyUhp1gB0
URLリンク(mayura.jp)
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?

240:名無しさん@お腹いっぱい。
08/02/11 20:21:44 dYHnvlVd0
ネトラン推奨
URLリンク(oshiete.new-akiba.com)

241:名無しさん@お腹いっぱい。
08/02/12 01:13:13 jIBSXkqy0
Super Capture ってなくなっちゃったんですか?

すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?

242:名無しさん@お腹いっぱい。
08/02/12 15:44:15 pEdZWnO30
>>241
ググレカレー。
落とせるところがちらほらあるジャマイカ。

243:名無しさん@お腹いっぱい。
08/02/12 21:02:05 Ftzz/E6Q0
URLリンク(www.gymfan.de)

↑このサイトなんですが、サイトそのものはURLリンク(www.gymfan.de)
というところにあって、ソースを見ると画像はURLリンク(www.gymfan-help.de)というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。

どうやればうまくできるか分かる人いませんか?

244:名無しさん@お腹いっぱい。
08/02/12 22:45:39 S2Vi01b30
取り込みソフトってそんなに便利なのかね。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。

245:名無しさん@お腹いっぱい。
08/02/12 23:31:39 v9bgFmos0
>>244
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。

>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
URLリンク(www.gymfan.de)の取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?

246:名無しさん@お腹いっぱい。
08/02/12 23:48:23 jIBSXkqy0
>>242
自分が欲しいのは↓ここで紹介されてるSuper Capture です。

Super Capture - ベクターソフトニュース
URLリンク(www.vector.co.jp)

イニシアという会社が作っていたのですが、会社のサイト(URLリンク(www.inisia.co.jp)
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。

Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。

Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
URLリンク(super-screen-capture.jp.brothersoft.com)


Super Captureがダウンロードできるところがあったら、教えてください。



247:名無しさん@お腹いっぱい。
08/02/13 01:43:15 95oy4e+k0
web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture


248:名無しさん@お腹いっぱい。
08/02/13 01:49:38 mFV8vQoX0
おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。
なんなら -screen くっつけて検索汁。

249:名無しさん@お腹いっぱい。
08/02/13 01:53:22 zIVsZC2A0
>>246
URLリンク(web.archive.org)

1分であったぞ

250:243
08/02/13 13:10:32 E8CaTYjJ0
>>245
サンキュ。設定いじったら巡集でできた。

251:名無しさん@お腹いっぱい。
08/03/02 15:32:26 SlT8oVxO0
 

252:名無しさん@お腹いっぱい。
08/03/02 22:55:44 XBPQmEY90
以下のフラッシュボタンのリンク先の音楽をダウンロードしたいのですが、
適当なソフトはあるでしょうか?
URLリンク(music.lionsgate.com)

253:名無しさん@お腹いっぱい。
08/03/04 23:58:34 8O1P5E4A0
irvineでも巡集でもURLを直接指定すればええやん

254:名無しさん@お腹いっぱい。
08/03/18 21:59:21 ZzxB85Z00
すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?

255:名無しさん@お腹いっぱい。
08/03/19 12:43:47 YKorTSpT0
>>254
んなわけない

256:名無しさん@お腹いっぱい。
08/03/20 01:58:21 m223Zsx40
ありがとうございます!

257:名無しさん@お腹いっぱい。
08/03/24 04:25:21 w4eXPHNQ0
サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな

258:名無しさん@お腹いっぱい。
08/04/11 08:00:28 JS6+SD8u0
そろそろ答えてください

259:名無しさん@お腹いっぱい。
08/04/13 20:04:32 oGL9AkZ60
まだだ、まだ答えんよ

260:名無しさん@お腹いっぱい。
08/04/14 19:23:15 v2R7+9CM0
雨は使ったことない(´・ω・`)

261:名無しさん@お腹いっぱい。
08/04/18 04:55:05 UhKCBHwm0
巡集の設定で聞きたいんですが

URLリンク(www.itmedia.co.jp)
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?

262:名無しさん@お腹いっぱい。
08/04/18 05:11:53 Ye4EJlp40
>>261
フィルタを使えばいけます

263:名無しさん@お腹いっぱい。
08/04/18 14:35:41 UhKCBHwm0
その設定をおねがいします><

264:名無しさん@お腹いっぱい。
08/04/22 07:20:07 ZhYRKd640
普通にダウンロ-ドした後htmlのソースとにらめっこすればよいのではなかろうか

265:名無しさん@お腹いっぱい。
08/04/26 12:43:45 bWElsVFw0
巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?

266:名無しさん@お腹いっぱい。
08/04/26 14:34:15 xuojH8LA0
ダイアログに出ているタイトル

267:名無しさん@お腹いっぱい。
08/05/05 18:11:02 t9WSIx9k0
2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?

268:名無しさん@お腹いっぱい。
08/05/05 18:11:26 t9WSIx9k0
2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?

269:名無しさん@お腹いっぱい。
08/05/05 18:19:45 cHvd4SHv0
あるわけねーだろ

270:名無しさん@お腹いっぱい。
08/05/05 18:23:28 Mg38eEgV0
メモ帳


271:名無しさん@お腹いっぱい。
08/05/05 18:34:59 t9WSIx9k0
そうですか・・・残念だぴょん・・・・・・

272:名無しさん@お腹いっぱい。
08/05/05 19:01:15 6J6AlWWJ0
>>268
2ch専ブラはログを常に保存しているが、これじゃダメなのか?

273:名無しさん@お腹いっぱい。
08/05/05 19:27:05 t9WSIx9k0
>>272
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです

274:名無しさん@お腹いっぱい。
08/05/05 19:29:51 GHBwk8a80
端的に言うと規制の対象になるよ
おそらく保存どころか読みさえできなくなると思う

275:名無しさん@お腹いっぱい。
08/05/05 19:36:07 Mg38eEgV0
>>273
設定でスレッドタイトル=ファイル名は可能


276:名無しさん@お腹いっぱい。
08/05/06 04:34:03 pWIAuxdS0
>>273
FirefoxだったらScrapBookをすすめるんだがな。

277:名無しさん@お腹いっぱい。
08/05/06 19:54:31 SBxlMPDL0
最近「丸ごと取り込み」したいソフトに特に会わないなあ
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない

278:名無しさん@お腹いっぱい。
08/05/10 04:00:05 g0wuH1J20
日本語でおk

279:名無しさん@お腹いっぱい。
08/05/11 17:13:40 5I6LyxnA0
website explorer使ってる人俺以外にもいるのかな

280:名無しさん@お腹いっぱい。
08/05/11 20:39:05 OLc5kE2C0
使ってるけど丸ごと取り込みには使わないな

281:名無しさん@お腹いっぱい。
08/05/12 10:37:10 9PCKZ1Jr0
Firefox使いの俺はFownThemAll!とScrapBookだ。

282:名無しさん@お腹いっぱい。
08/05/12 22:24:48 tJ0QtoQm0
お邪魔します。
URLリンク(de-lax.com)
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はURLリンク(de-lax.com)から。
無料かつ手軽で、すぐに登録解除できます)

283:名無しさん@お腹いっぱい。
08/05/12 23:42:25 zqRUnBa00
ダウンロードソフトはダウンロード板の管轄じゃないの?


284:名無しさん@お腹いっぱい。
08/05/13 02:25:08 ErVJOT7a0
こっちじゃね?
ダウンローダー総合スレ Part2
スレリンク(software板)

285:282
08/05/13 06:41:48 /touQVIB0
スレ違い失礼しました。
ご丁寧に教えていただきありがとうございました。

286:名無しさん@お腹いっぱい。
08/05/27 10:00:24 qJm5C59n0
gzipで送信されるページに対応した取り込みソフトはございませんか?

287:名無しさん@お腹いっぱい。
08/05/30 01:20:05 obDTDq910
最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね
こういうソフトもそろそろ時代遅れなのかしら…

288:名無しさん@お腹いっぱい。
08/06/03 01:59:41 V0GOfPnQ0
巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。

289:名無しさん@お腹いっぱい。
08/06/03 07:40:12 d5RR0Fde0
>>288
No ResponseになるURLをフィルタさせる

もしくはもう1個巡集を起動してダウンロード
エラーが出るたびに繰り返せば全て保存出来る
ような覚えがある

290:名無しさん@お腹いっぱい。
08/06/03 20:59:37 V0GOfPnQ0
>>289

こんな早くレスもらえると思ってませんでした。
巡集2個で回してみたところ、しばらくはダウンロードするんですが
やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を
繰り返さなければならなくなりました・・・

保存先のブログはシーサーです。

291:名無しさん@お腹いっぱい。
08/06/16 23:48:15 4NFpHfXZ0
あげ

292:名無しさん@お腹いっぱい。
08/06/17 07:58:10 iH/5XAaL0
なにか対象の指定の仕方に問題があるような気がする。

293:名無しさん@お腹いっぱい。
08/07/29 03:34:12 NXDRQEUV0
ページ上のボタンの名前を指定して特定のボタンだけクリックしたのと同じ
扱いでまとめてダウンロードできるソフトはありませんか?


294:名無しさん@お腹いっぱい。
08/08/14 12:22:21 z6Dy8mh40
weboxは、保存した元のサイトページが更新されると
なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています
更新されないように設定できる、HP取り込みソフトはありませんか?
フリーでもシェアでもかまいません。

295:名無しさん@お腹いっぱい。
08/08/22 18:44:21 jiDXkNV10
Vista で GetHTMLW を起動したら、CPU 食いまくって GUI 画面が出るところま
で来ないのですが、何かチェックすべきところはありますか?

UAC は切っていて、管理者として実行し、
Windows ファイアウォールで除外ソフトにしてもだめでした。


296:名無しさん@お腹いっぱい。
08/08/25 13:39:00 6nouZRD10
2chの女神板に貼り付いてるキモオタ共歓喜だな

>
> ありえな~ぃ! 女神板から画像・動画を自動でまるごとダウンロード
> URLリンク(www.savethevenus.com)
>


297:名無しさん@お腹いっぱい。
08/08/31 01:18:45 ISN52Ea80
女神板は2chじゃないから

298:名無しさん@お腹いっぱい。
08/09/10 10:20:54 TJ6Ap/Sl0
ここの移転先教えてくれ
URLリンク(sdn255.web.fc2.com)

299:HrSPwiYUsMDh
08/09/10 10:26:13 ddMYkNpg0
g7z0zX <a href="URLリンク(baqkzgurctep.com)">baqkzgurctep</a>, [url=URLリンク(knccjehvsqoe.com) [link=URLリンク(fyoddmbvukja.com) URLリンク(kfeaukherzmc.com)

300:名無しさん@お腹いっぱい。
08/09/10 10:53:49 TJ6Ap/Sl0
準州で取得したHTMLに元のページのタイトルを入れてダウンロードする方法も頼む。

301:名無しさん@お腹いっぱい。
08/09/10 11:19:00 iOGDU/hx0
他人にきちんと説明出来ないことと
自力で解決出来ないことはコインの両面である

302:名無しさん@お腹いっぱい。
08/09/10 12:06:11 TJ6Ap/Sl0
ちょw

たとえば、
ブログタイトルhogeというのがあって
hogeの9月8日の日記のタイトル名がhoge-hageだとしたら
現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの!

303:London
08/09/10 12:13:50 iwCGOnB80
wAetOc <a href="URLリンク(jphcmeellktk.com)">jphcmeellktk</a>, [url=URLリンク(auiaplkzgrwg.com) [link=URLリンク(unnngecegnmn.com) URLリンク(hxtuikvjgkcq.com)

304:名無しさん@お腹いっぱい。
08/09/10 12:18:18 Cga7s0C10
ファイル名を変えたらリンクが正しく動作しなくなるだろ…

305:名無しさん@お腹いっぱい。
08/09/10 16:40:55 aLDvX6Aj0
巡集の作者、もしかして株で死んじゃったとか・・・?

306:名無しさん@お腹いっぱい。
08/09/10 23:10:10 TJ6Ap/Sl0
不吉なこと言うなダニよ

ソース公開して欲しい

307:名無しさん@お腹いっぱい。
08/09/10 23:35:48 S8J67L6Y0
巡集
Teleport Pro(俺はUltra)
この2本立てで困ったことないな

後者に金を払う気があるかは本人次第

308:名無しさん@お腹いっぱい。
08/09/13 15:46:14 Dn+RZDfP0
ブログでぜったいありえない1990年代前の日記等を除外するにはどうすればいいですか?
白紙ページを延々とダウンロードするので鯖にも悪いし

309:名無しさん@お腹いっぱい。
08/09/14 20:11:32 ukWyxLCq0
禁止URLとかの機能使えばいいじゃん。

310:名無しさん@お腹いっぱい。
08/09/23 18:50:45 twI/75ox0
結構大きいサイトを巡集でダウンロードしたいけどうまくいかない。
料理レシピサイトを落としたいんだけど以前落とした時は
検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから
どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない?
ちなみにエキサイトのレシピサイトを落としたい。

311:名無しさん@お腹いっぱい。
08/09/24 01:46:37 hKMSKtdw0
>>273 ID:t9WSIx9k0
一、●持ちしか見れないある板のスレ全部を保存したい。
二、一で保存したものを再うpしたい。

一、か二かどっち?

二だとしたらやってはいけないようだ(ソースらしきもの)↓
URLリンク(jbbs.livedoor.jp)
>やめてくれっていわれたんで(^^;

↑ひろゆきに言われたのか運営の誰かに言われたのかは不明。



312:名無しさん@お腹いっぱい。
08/09/24 13:41:28 1PhPO/s90
>273
亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように
スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。

313:名無しさん@お腹いっぱい。
08/10/06 15:35:55 eO1CMKz50
こんなソフトありませんか?スレから来ました。

fc2などの画像サーバーが独立したWebサイトにも対応した
丸ごととりこみ保存するソフトを探しています。

現在は WeBoXをつかっているのですが、
fc2のブログなどでは、画像サーバーが別サーバーなので
同じブログ内でもリンク先画像などが取り込むことができません。
このような状況に対応できるダウンローダーはありませんでしょうか?

コマンドラインで使う類のソフトでもかまいません。

314:313
08/10/06 16:31:57 eO1CMKz50
Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net
URLリンク(www.oshiete-kun.net)

外部リンクを1リンクだけたどって保存できればよいのか?ということで、
こちらのソフトを使ってみているのですが、
下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。
困ってしまいました・・・。

could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
while executing
"file size $fileName"
(procedure "DownloadLinks" line 39)
invoked from within
"DownloadLinks $urlList $referer $level"
(procedure "Descargar::ControlDownloading" line 21)
invoked from within
"Descargar::ControlDownloading $requestedUrl 1"
(procedure "StartDownload" line 76)
invoked from within
"StartDownload $requestedUrl"
(procedure "AutomaticDownload" line 21)
invoked from within
"AutomaticDownload [mainWin::UrlListSelectedUrl]"
invoked from within
".extFrame.iconFrame.left.start invoke "
invoked from within
".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } "
(command bound to event)

315:313
08/10/06 18:17:34 eO1CMKz50
wgetで試行錯誤してみたらうまくいきました。

wgetで一旦htmlのみを取得し、
Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの)

urls = []
Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file|
  puts file
  urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq
end
puts urls.uniq

以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。
wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com URLリンク(hogehoge.blog45.fc2.com)

--convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、
あと、fc2は.htmlとなっていてもどうやら動的生成なようで
カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。
(一回やらかしました)

316:313
08/10/06 18:21:17 eO1CMKz50
wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・
この辺、Unix系の板で聞いてみます。

317:名無しさん@お腹いっぱい。
08/10/07 00:37:00 k78/uLlJ0
>>313
横レスすみません。レスとても参考になりました。
wgetをwinXPで使いたいのですが
DLできるところ教えてください。

318:313
08/10/07 05:40:38 hu35XLEh0
>>317
私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、
それでインストールしましたが、
ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。

Wget for Windows
URLリンク(gnuwin32.sourceforge.net)

wget(Windows版) - 俺の基地
URLリンク(yakinikunotare.boo.jp)

この辺ではないでしょうか?試してはないですが。
wgetはコマンドラインのツールなので注意です。
私はバッチファイルを書いて実行してます。

319:名無しさん@お腹いっぱい。
08/10/07 06:33:16 k78/uLlJ0
>>318
ありがとうございます!これでやってみます。

320:名無しさん@お腹いっぱい。
08/10/07 07:56:16 pjeOFoUzO
パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい

321:名無しさん@お腹いっぱい。
08/10/09 19:17:17 rJyyGwzD0
巡集ってDLしたファイルを消す方法って
フォルダ排除と設定ファイル排除しかない?

322:名無しさん@お腹いっぱい。
08/10/11 23:38:49 UlAef+iX0
>>320
パンドラHD導入してファイル落とせばHD仕様の動画はMP4だからそのままipod出来る。
ノーマルはFLVファイルだからエンコしてipodで見られる形式の動画に変換する。

323:名無しさん@お腹いっぱい。
08/10/14 05:43:24 CWdTo3bh0
URLリンク(users.ugent.be)

324:名無しさん@お腹いっぱい。
08/10/18 09:14:27 NA8ZY32U0
マグノリア、手軽にWebページをスクラップ「ホームページスクラップブック」
保存したWebページをPDF/JPEGファイルへ書き出す機能も

URLリンク(www.forest.impress.co.jp)


325:名無しさん@お腹いっぱい。
08/10/20 21:48:39 SV8NrUaK0
苦闘の末DLがうまくいったので記念カキコ。(無駄に長い
認証必要なサイトのDLのためにいろいろ試したので…。

1. Website Explorer
ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。
認証も手軽にできて、細かい設定無しにDLしやすかったのですが、
膨大なデータ(100000ファイル超)のサイトの場合、
解析時のキャッシュが増えるにつれて、かなり処理が重くなる。
負けずに数日動かしていたのですが、
私が馬鹿やってエラー落ちしたので別ソフトを探しました。

2. WinHTTrack
複数URL指定ができていい感じ?
いくつかのサイトを落とすときに利用して気に入った。
しかし、認証に弱い…。
認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。
どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、
charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。

326:名無しさん@お腹いっぱい。
08/10/20 21:49:38 SV8NrUaK0
3.WeBoX
DLを試しても一部のファイルしか落ちてこなくて使い物にならない。
恐らく、私が使い方を理解してないのが原因orz

4. Teleport Pro
レビューが少ないのは、日本語化されてないし、有料だからですかね…?
サイトの認証は簡単に成功しました。
DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、
ちょいちょい触ってるうちに理解しました。
結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。

どうでもいいですが、DLしたサイトは東進 過去問データベースです。

327:名無しさん@お腹いっぱい。
08/10/20 23:16:00 vXNKs2Pn0
報告どうも
よく分からないけど海外製のが一番うまくいったりする場合もあるのね

328:名無しさん@お腹いっぱい。
08/10/21 06:16:41 r9pcwQQ+0
追記
Teleport Proは65530ファイルでDLを打ち切る様子。

329:名無しさん@お腹いっぱい。
08/10/22 14:47:13 Uty5mEif0
FirefoxのScrapBookみたいに
すんなりスクラップできるソフトってありますか?
まるごとじゃなくてもいいんです・・・・

330:名無しさん@お腹いっぱい。
08/10/26 22:56:41 Z0qQpGL90
>>328
使えにゃい。

>>329 スレ違い 紙とか。

331:名無しさん@お腹いっぱい。
08/11/08 09:57:14 HMLV6FJZ0
サイトに入るときパス認証があってファイル毎DLページの前にDLKEY有るアップローダのファイルってDL出来るやつ有りますか?
パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで…
説明わかりにくくてすいません

332:名無しさん@お腹いっぱい。
08/11/09 05:43:33 r9fZofmi0
Firefoxのツールバー で使えて 埋め込み動画が落せるのって
ありませんか?

333:名無しさん@お腹いっぱい。
08/11/10 12:34:07 RJUgrUkx0
うん

334:名無しさん@お腹いっぱい。
08/11/12 09:40:33 199gHslN0
dlkey突破できる奴が有れば…


335:名無しさん@お腹いっぱい。
08/11/15 02:12:07 0sXE2VgW0
JustDiver 2.0

336:名無しさん@お腹いっぱい。
08/11/17 23:17:57 bYSAyiWi0
HTTrackを使っているんですが、FC2のサイトが保存出来ません。
2ヵ所ほど試したんですが、indexのhtmlファイルを1つ保存するだけで終了してしまいます。

デフォルトの状態で保存してみても、リンク全てを保存するを指定してみても駄目でした。
上手く保存する方法は無いでしょうか?

337:名無しさん@お腹いっぱい。
08/11/26 22:46:57 AvoPmSlt0
URLリンク(www.doblog.com)
ここのブログをコメントと画像を含めて
うまく保存する方法をよろしくお願いします orz

338:337
08/11/27 07:07:22 1gPOJKDS0
巡集にて下記ワイルドカード指定を行うことによって無限にダウンロードし続ける心配や
画像については何とかなったのではとおもいます。

URLリンク(www.doblog.com)
URLリンク(img.doblog.com)


残りはコメントです。 引き続きよろしくお願いします。 orz

339:名無しさん@お腹いっぱい。
08/11/27 10:21:47 o5f/E9xS0
「波乗野郎」が、立ち上げた途端に異常終了する。
何故だ。
今までは動いていたのに。
機械のOSは、XPホームエディション。

予備のWin2kの機械(ファイアウォールとかは同じソフト)でやってみると、
現在、普通に動作している。
XPでも、大昔の設定ファイルを使うと、ちゃんと起動するのだが。

沢山取得先を登録できて、毎週とか毎日とかの取得時間設定が出来て、
使い勝手が良いソフトなんで、捨てたくないんだよーん。

340:名無しさん@お腹いっぱい。
08/12/30 21:06:37 qDOzkieX0
もうこういうソフトは需要がないかねえ…

341:名無しさん@お腹いっぱい。
08/12/30 21:58:34 P2sFxOkY0
Wikiとかうまく保存が出来ないことが多いから使わなくなったよ。
ゲームの攻略Wikiとかを人がいない時間に保存して
混んでる時間は保存してる方を見たいんだけどな

342:名無しさん@お腹いっぱい。
08/12/30 21:59:18 qDOzkieX0
動的なWikiは根本的に保存に無理あるんじゃないかなあ
保存できるソフトを聞いたことがない

343:名無しさん@お腹いっぱい。
08/12/30 22:10:50 fX4eASw70
@wikiだったらhtmlだから追っかけることも可能ではあるのだろうけど、サイトごとDLは出来無くされてる見たいなんだよねえ
wikipediaなどはローカルで閲覧するにはデータベースその他を色々やらなきゃならないみたいだし、必要な記事は地道にブラウザ保存しかないかなあ

344:名無しさん@お腹いっぱい。
08/12/31 09:18:41 rscijB3A0
取り込みが出来ないから保存しなかったWikiが閉鎖した時は全俺が泣いた
特にゲーム攻略のWikiとかはよく消えてるから困る

345:名無しさん@お腹いっぱい。
09/01/02 01:44:45 OLqz4XAA0
FirefoxのScrapbookという拡張機能を使って、
ファイル一覧のページで一階層のみ保存、とか。

346:名無しさん@お腹いっぱい。
09/01/03 23:05:19 PUJY1CSF0
Gethtmlについての質問です。

オプションの -f とはどのような機能なのでしょうか?
説明書ファイル(gethtml.txt)には
"-f Filename" Filename of / terminated URL
と書いてあるのですが意味がよくわかりません。

DL先のフォルダ名を指定するオプションと勘違いして使ってみたのですが、
そうではないようです。変な設定をしてしまったのではないかと思うと心配です。

347:名無しさん@お腹いっぱい。
09/01/04 10:03:30 7KtylUIv0
>>346
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> URLリンク(www2s.biglobe.ne.jp)
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm

348:名無しさん@お腹いっぱい。
09/01/04 10:40:47 agtqcM4Z0
>>347
大変申し訳ありません!見逃していました。
重ねてありがとうございます。

349:名無しさん@お腹いっぱい。
09/01/04 11:31:36 1GxGvmcA0
>>331
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)

350:名無しさん@お腹いっぱい。
09/01/04 12:47:15 zOoDAii/0
アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?

351:名無しさん@お腹いっぱい。
09/01/04 20:29:51 thlvUT4J0
サイト一括取り込みソフトを探していて、こんなのを見つけたがどんなもんか。
英語だけれど、使いやすい。
PageNest URLリンク(pagenest.com)
WebStripper系譜のようだ。

352:名無しさん@お腹いっぱい。
09/01/06 19:35:25 HKJ+mumj0
ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?

353:名無しさん@お腹いっぱい。
09/01/06 23:49:18 HKJ+mumj0
どうやらWeBOXで出来ますね、すみませんでした

354:名無しさん@お腹いっぱい。
09/01/12 18:55:19 mtFSF/p40

以下の動的ページの取り込み方法(オフラインで見たい)がわかる方教えてください。
紹介されている一通りのダウンローダを試しましたが、うまくいきません。

URLリンク(www.gamebanshee.com)

うまく取れないところは、このページの左のリストにある
EquipmentとSpellsのコンテンツでクリックすると右側にサブカテゴリが現れます。
更にクリックすると、ページの中央部に一覧表示されます。
これらをクリックするとONLINEではポップアップ画面が現れ、正常に表示するのですが、
ダウンローダでダウンロード後、OFFLINEで見ようとすると、うまく見れません。

宜しくお願いします。

355:名無しさん@お腹いっぱい。
09/01/12 19:09:18 Ad7xK/MA0


356:名無しさん@お腹いっぱい。
09/01/14 04:56:44 XsghDILe0
基本的にHTMLをみて、ダウンローダーの特性を理解したら
なんとでもなるよ。
wgetなんかでもcssの中で@import とかは無視してくれちゃったり、
hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、
実際の本物のホスト名を含む絶対アドレスになったいたり
こういうのがあるとサイトが正常に表示できない。

だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば
よほどの動的サイトでない限りはまるごとダウンロードいける

357:名無しさん@お腹いっぱい。
09/01/15 04:50:49 14aIogQH0
どなたか巡集でshinobi.jpの広告削除設定を
ご存知の方どうかご指南下さい
色々設定してみたけど全然上手くいきません…

358:名無しさん@お腹いっぱい。
09/01/15 22:38:28 SkpOdVD30
>>356
ご回答ありがとうございます。

スタイルシートについて、いろいろと調べたのですが、

リンク元のウィンドウで
<a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">.......
で新しいウインドウに画像のURLを渡し、

新しいウィンドウで
theShot = location.search.substring(1, location.search.length);
document.write('<img src=' + theShot + '>')
のように画像のURLを変数(上記の場合、theShot)に代入しているため、
URLがHTMLのソースに直接現れないような構造になっています。

このような場合はフィルタではどうしようもないと思うのですが、
何か良い手段はあるのでしょうか?


359:名無しさん@お腹いっぱい。
09/01/22 10:04:12 72T0n0l+0
  ↑
あっ ↑ は、>>354からの書き込みです。

360:名無しさん@お腹いっぱい。
09/01/22 10:13:00 LOPrZeW60
まあこれで正確にHTMLが解析できれば誰も苦労しない罠
当然俺は分かりません

361:名無しさん@お腹いっぱい。
09/02/08 16:33:12 1ew7wZVH0
あああ

362:名無しさん@お腹いっぱい。
09/02/17 21:27:34 swvN60Nx0
サーバー上には置いてあるけどHP内のどこのページからもリンクされてないファイルも全部ダウンロードってできますか?

363:名無しさん@お腹いっぱい。
09/03/03 08:01:05 hIoIaLsc0
無理

364:名無しさん@お腹いっぱい。
09/03/04 02:02:52 iOzdqfhq0
巡集でwikiを丸ごと取れますか?なんだか非常に他のサイトと比べて時間がかかるので止めたのですが、wikiは取り込まない方が良いのですかね?

365:名無しさん@お腹いっぱい。
09/03/04 12:44:56 kOsE1mcy0
>>364
この世の全ての知識を手に入れようとゆうのかw
時間がかかって当然だろ、しかも正しい保障のない知識を

366:名無しさん@お腹いっぱい。
09/03/04 20:52:19 iOzdqfhq0
ああwikiっていってもWikipedia全てって訳じゃなくて○○ゲーム攻略とか○○の使い方みたいな1つのwikiの事だぜ

367:名無しさん@お腹いっぱい。
09/03/04 22:03:51 SjWqihRZ0
wikipediaはDLツール使うまでもなく、ローカル用のアーカイブが用意されているからね
ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?

368:名無しさん@お腹いっぱい。
09/03/05 08:05:04 5euH1yl80
例えばこういうサイトとかなんだけども
URLリンク(foobar2000.xrea.jp)

369:名無しさん@お腹いっぱい。
09/03/05 15:20:36 y2etLDHA0
管理側ですぐばれてアク禁

370:名無しさん@お腹いっぱい。
09/03/05 19:05:28 5euH1yl80
>>369
そうなのか、諦めるわ

371:名無しさん@お腹いっぱい。
09/03/05 22:13:12 QC0/AZnI0
この程度でなるわけねー

372:名無しさん@お腹いっぱい。
09/03/05 22:51:07 5euH1yl80
>>371
そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?

373:名無しさん@お腹いっぱい。
09/03/06 00:54:24 xnM4IX3Z0
firefoxのscrapbookでのんびりと保存するのがベターかな

374:名無しさん@お腹いっぱい。
09/03/06 14:01:59 i20Uaw0U0
>>295
半年以上前の投稿だが、俺も同じ現象になった。
んで解決方法がわかった。DEP のセーフリストに
GetHTMLW.exe を登録すれば、おk。

375:名無しさん@お腹いっぱい。
09/03/06 15:00:53 PmwxrF/V0
>>373
回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ

376:名無しさん@お腹いっぱい。
09/03/07 15:46:28 EX6aOmt+0
>>369-371
検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw

377:名無しさん@お腹いっぱい。
09/03/20 22:02:39 JSyDiuTFP
hosyu


最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch