05/10/22 11:26:38 OcCkgpeg0
>>330
サイトダウンローダーというとこにあるのはどっちもだめだったよ
332:名無しさん@お腹いっぱい。
05/10/22 13:41:54 Vf4hdVYP0
>>331
ダウンロードできることを確認した上で書き込んだんだけど、どうやらオミトロンのおかげだったみたい。
オミトロンなくてもIrvineで落とせたよ。
333:名無しさん@お腹いっぱい。
05/10/22 13:59:43 5+m87eIH0
あ、ほんとだ落とせた。㌧
334:名無しさん@お腹いっぱい。
05/10/29 15:37:04 QwR28EgB0
れf
335:名無しさん@お腹いっぱい。
05/10/29 21:17:46 3Yy7BGKV0
最近artemis系が落しにくいな
以前はGetHTMLWで楽だったけど、蹴られたりするし
336:名無しさん@お腹いっぱい。
05/11/04 18:30:55 bvOp2VIr0
巡集の新しい公式サイトできたね
過去のバージョンも置いてある。
ところで1.6のダウンロード中の待ち時間の"HTML"の部分が有効にならないけど
他の人はどうでしょう?
337:名無しさん@お腹いっぱい。
05/11/05 17:24:07 zm5LfLgy0
URLリンク(www.apple.cx)
ここのことね
338:名無しさん@お腹いっぱい。
05/11/06 10:37:43 8gmu901s0
すみません
URLリンク(moonbase.cool.ne.jp)
ここに貼り付けてある画像を丸ごと落とせますか?
GETHTMLWを使ってます
339:名無しさん@お腹いっぱい。
05/11/06 12:39:27 9SZNOXan0
はい
340:名無しさん@お腹いっぱい。
05/11/06 15:23:30 PC/t+neZ0
通報すのしう
341:名無しさん@お腹いっぱい。
05/11/07 07:24:12 ANCU1KqJ0
「WebCatcher」使っている人いる?
なかなか良さそうなんだけど…
URLリンク(www.inisia.co.jp)
342:名無しさん@お腹いっぱい。
05/11/07 07:27:48 54Ydj7Tm0
宣伝乙
343:名無しさん@お腹いっぱい。
05/11/07 08:37:57 Gqr/lgai0
シェアかあ
344:338
05/11/07 09:49:52 wXcxBK220
>>340
どうやればいいいんですか?
345:名無しさん@お腹いっぱい。
05/11/07 14:09:02 RLm6+2PU0
>>344
Proxomitron噛ませば出来るよ
使い方はTOKIX.NETとかで読んで
346:名無しさん@お腹いっぱい。
05/11/10 14:39:02 g70vMtwp0
GETHTML使ってるんですが、作者のうたい文句の「オフラインでも快適に閲覧できます」
ってのがまったく不明なのですが。
そもそも、保存されたindex.htmlを起動し表示されているリンクのURLが、オフラインのアドレスになってません。
URLリンク(www.geocities.jp)と、オンライン時とまったく同じなんですが^^:::
設定はなにもいじっておりません。
それとも、なにかいじらなければいけないのですが?「オフラインでも閲覧可能にする」等といったそれらしき設定項目もないのですが。
ちなみに、そのリンク先のは別フォルダにちゃんと保存されているようです。
これじゃ一つ一つ手動でページ保存した時とまったくかわらない。。。
347:名無しさん@お腹いっぱい。
05/11/10 15:24:08 g70vMtwp0
「オフラインでも快適に閲覧できます」
ウソつくんじゃねえよボケが。
こいつは他のソフトに乗り換えたほうが遥かに快適ということに気づいた。
348:名無しさん@お腹いっぱい。
05/11/10 16:40:27 9dKTdNzC0
たった一時間ですごいブチ切れっぷりだなw
349:名無しさん@お腹いっぱい。
05/11/10 18:00:58 l1BJ4ag20
>>346
説明書1ページくらい読めた子
350:名無しさん@お腹いっぱい。
05/11/10 18:19:07 cIFQ3pFa0
まあ理屈が難しいから346みたいな
おむつが少々弱いのには理解できなくてもしょうがないよ
351:名無しさん@お腹いっぱい。
05/11/10 18:56:41 XLAOGIUK0
毒盛少女のおかげでネットに初心者が流れ込んできてるのか?
352:名無しさん@お腹いっぱい。
05/11/12 21:10:37 HWaKaqFx0
毒盛少女vsめった刺し少年
少女=Alien
少年=Predator
でOK?
353:名無しさん@お腹いっぱい。
05/11/15 02:27:35 GjRZ3/1r0
>>347
利用方法を全く理解していないだけ。
付属のテキストぐらい読もうよ(;・∀・)
354:名無しさん@お腹いっぱい。
05/11/15 08:41:25 6pbaalIR0
初心者は巡集から始めて機能に物足りなさを感じたら
他のソフトに切り替えるか併用すればいいと思う。
355:名無しさん@お腹いっぱい。
05/11/23 19:52:33 OMpz30QW0
URL を指定してリンク先までダウンロードする時に、
階層指定できるソフトは多いですが、URL 指定できる
ソフトはありますか?
例えば、
URLリンク(www.aaaa.com)
をダウンロードするときに
URLリンク(www.aaaa.com)
と指定すると
URLリンク(www.aaaa.com)
や
URLリンク(www.aaaa.com)
はダウンロードしないようにできる事です。
ダウンロードNinja ではできるのですが。
356:名無しさん@お腹いっぱい。
05/11/23 20:08:04 +6ynzbS00
>>1
Operaでズレるんだが
Firefoxでスキマが開くし
357:名無しさん@お腹いっぱい。
05/11/23 21:23:32 N6tBPVcB0
ダウンロードNinjaでやればいいじゃない。
358:名無しさん@お腹いっぱい。
05/11/23 21:32:31 ZXjYsR7G0
だよね
359:名無しさん@お腹いっぱい。
05/11/23 21:41:05 vHhPke3H0
>>355は、新しいソフトを作ろうとしているんじゃないかな。
市販のソフトではできることをフリーソフトで作ればみんな喜んでくれるからね。
マーケティングというやつだ。
360:355
05/11/23 22:49:05 OMpz30QW0
>>359
おぉーネ申!
なければつくってやるか!という意気込みはありますが
時間がないので現実的にはむりぽ。
でもダウンロードNinjaのこの機能はえらく便利なんだけど
なんでフリーソフトで実装してないんだろう。
難しい実装ではないだろうに。
こういうソフトってどれも帯びに短したすきに長し
だよね。
361:名無しさん@お腹いっぱい。
05/11/24 00:30:18 8wrkQApC0
>難しい実装ではないだろうに。
根拠を詳しく。
つーか、あなたがフリーで作れ。
362:名無しさん@お腹いっぱい。
05/11/24 16:20:17 MP0UdbML0
DS Downloaderのフィルタ設定じゃダメなのか?
363:名無しさん@お腹いっぱい。
05/11/24 20:37:25 O4s6yMuP0
DS Downloader、いまいち使いにくいというか分かりにくい
364:名無しさん@お腹いっぱい。
05/11/25 10:46:11 rz+s8TXu0
いろいろ有料のダウンローダー使ってみたけど、
ダウンロードニンジャが一番かな、
フリーソフトはダウンロードされんファイルとか多くていらつく、
ただDLニンジャも最初はどこ扱えばいいかわからず迷った、
自分としてはタイマー機能が重視なのでそこから入れるといい、
365:名無しさん@お腹いっぱい。
05/11/25 10:50:33 pTq9eeQ60
Website Explorerの時代だろ
366:名無しさん@お腹いっぱい。
05/11/25 20:30:09 sGjGWx4R0
わざわざ金を払うならoffiline explorerだと思うが、最近のninjaはそんなに良いんだろうか。
367:名無しさん@お腹いっぱい。
05/11/27 10:50:43 i3RxpdYB0
inisiaって会社の「WebCatcher」はどうなんでしょ?
HPの説明見る限りでは良さそうなんだけど…
誰か使っている人います?
368:名無しさん@お腹いっぱい。
05/11/28 12:54:26 QlfzAiIU0
WebCatcherはHP丸ごと(サーバーにアップしてるホルダー構造のままに)取り込めますか?
369:名無しさん@お腹いっぱい。
05/11/30 19:18:47 7y4xVYEK0
どれもこれも使いにくい。
波乗野郎、シェアでもいいから
開発再開してくんないかな・・・
370:名無しさん@お腹いっぱい。
05/11/30 23:26:50 3fM2KTe70
369が頭悪いだけに1票
371:名無しさん@お腹いっぱい。
05/12/01 00:15:34 dhIss9eJ0
WinHTTrackって、人気無いのか?
もれはずっとこれなんだが。
マウスを重ねると画像が変わったりするページにも対応してたし。
372:名無しさん@お腹いっぱい。
05/12/01 01:21:40 Huz+ncZt0
gethtml.exe(コマンドライン版)で
gethmlw.cf(とgethtmlw.bm)使えるようにしてくれ。
たのむ。
373:名無しさん@お腹いっぱい。
05/12/05 02:19:42 +xdBD/RO0
巡集 ver 1.6.0A
>相対ディレクトリの判別に失敗するバグを修正
>URLフィルターに「一致したURLのみを許可」する機能を追加
こっそりバージョンうp
374:名無しさん@お腹いっぱい。
05/12/05 07:36:55 IbIVNwr70
巡集うpキタ━━(゚∀゚)━━ !!!
375:名無しさん@お腹いっぱい。
05/12/08 14:24:18 2BWYKPug0
この手のソフトは今まで色々試してみたがろくなものがない。
その中でも一番使えるのがEirgrabber。
古いアプリで開発も止まってるけど俺は未だに愛用している。
376:名無しさん@お腹いっぱい。
05/12/08 15:01:05 b+y5KgMN0
確かに他のジャンルのソフトと比べると、ある程度の満足度にどのソフトも達していない感じですね。
もう少しがんばってほしい。どのソフトも欠点があってその欠点がかなり痛いんですよね。
377:名無しさん@お腹いっぱい。
05/12/08 18:24:20 JbXDbfW/0
毎日必要なものでもないから、あんまり関心もたれにくいしね、このジャンル。
378:名無しさん@お腹いっぱい。
05/12/09 08:09:14 JPwkr3Pr0
インストールしてすぐ使えるソフトはどれですか?
GetHTMLをインスコしてヘルプを見たけど難しかった(´・ω・`)
379:名無しさん@お腹いっぱい。
05/12/09 11:18:48 GSnCkMp30
長く使ってるけどGETHTMLWがいいと思うよ。
自分なりの使い方を決めてしまえばあとは簡単。
それまでは悩む事うけあいだが。
380:名無しさん@お腹いっぱい。
05/12/10 00:15:31 o+vxZqtG0
GETHTMLW持ってますが、
一回使用するとソフトがハングして以後使用不能になるんですが・・・。
381:名無しさん@お腹いっぱい。
05/12/10 02:29:32 Re+CHPMd0
WebArchiveからうまく取り込めるソフトある?
382:名無しさん@お腹いっぱい。
05/12/10 09:01:36 n+dzpQjo0
>>380
俺の使っているバージョンもときどき落ちることがあるが実用上問題ない。
古いバージョンの方が安定しているのだが作法が悪いと指摘されてから
使用しないようにとの事なので使っていない。
もう更新はないみたいだな。作者のサイトも行方不明だし。
383:名無しさん@お腹いっぱい。
05/12/10 09:10:57 n+dzpQjo0
>>381
WebArchiveからGetHTMLWでも取り込めるが取り込んだページ上のリンクが
リンク切れになっているので当然リンクを追いかけることはできない。
GetHMTLWのProxyモードを替えながらリンク先を更にWebarchiveで再検索
して結果を見ながら手動で取得するようにしている。
Proxy1で結果を見てLocalモードでリロードすれば取得ダイアログが出るので
割と楽に操作できる。WebArchiveの一部をまるまる取り込むのは無理だろう。
それがやりたかったらWebArchiveに相談したほうがいい。
取得したページを解析する前に特定のスクリプトを実行できるようにできれば
いいのだがなぁ…。ソースの公開が無かったのが惜しまれる。
384:名無しさん@お腹いっぱい。
05/12/10 13:22:11 6fhZWmpN0
>>381
巡集でできる
URL指定にコツがいるけど1個1個手作業で落すよりマシ
385:名無しさん@お腹いっぱい。
05/12/10 13:25:06 6fhZWmpN0
>>382
GetHTMLW 7.14.1最終更新2005.9.4じゃ駄目なの?
URLリンク(www.vector.co.jp)
386:名無しさん@お腹いっぱい。
05/12/10 18:29:33 n+dzpQjo0
うちのは1.14.1TR5だった。
>>384
順集がどんなのか知らんけどGETHTMLWは
まんまコピーするのが特徴だからな。
例えばWebArchiveの検索結果をずらずらと出して
それを追いかける事ならGETHTMLWにもできるかもしれん。
俺はそう言う必要性を感じないが。
387:名無しさん@お腹いっぱい。
05/12/10 18:30:11 n+dzpQjo0
7.14.1TR5の間違い。
388:381
05/12/10 20:31:32 Re+CHPMd0
GetHTMLWにしろ巡集にしろちょっとした細工で可、ということか
ありがとう、自分なりにやってみるよ
389:369
05/12/11 19:40:34 S9Y9zkAE0
>>370
頭悪い人間でも使えるソフトが理想だと思うが。
ユーザーに慣れを要求するソフトなんか糞だよ、糞。
390:名無しさん@お腹いっぱい。
05/12/11 23:28:26 PhHshydK0
>>389
ふーん
もうPCやめたら?
頭使わないことだけやって生きて行け
391:名無しさん@お腹いっぱい。
05/12/12 19:11:38 0XlOktpD0
頭使うまでもないと思うが
ここまでの脳無しを初めてみたわ
392:名無しさん@お腹いっぱい。
05/12/12 22:57:50 7kuCIbj40
IEでできるだろ?
393:名無しさん@お腹いっぱい。
05/12/13 11:29:54 +Fh/h+tJ0
GetHTMLWて、XPに対応してないのね・・・
394:名無しさん@お腹いっぱい。
05/12/13 15:45:06 NirCsgWP0
そんな話訊いた事無いな。
395:名無しさん@お腹いっぱい。
05/12/13 18:03:02 WzS/YzRS0
IEが対応してれば使えるでしょ
396:名無しさん@お腹いっぱい。
05/12/13 19:35:12 NirCsgWP0
作者はもともとネスケユーザで開発が活発だった当時は
IEの事など殆どしらなかった。
397:名無しさん@お腹いっぱい。
05/12/15 12:26:50 mmYTo5aL0
>>389
同意
屑ソフトはヘルプ見ても意味わかんないね
人にものを伝えようって文章じゃない
要するに自己中なんだな
アフォなソフト作家のオナニーに
つき合わされている事に気付かない馬鹿→>>390-391
しかも得意になってるしw
中二病ってやつ?
398:名無しさん@お腹いっぱい。
05/12/15 13:04:11 rgT/274u0
フリーソフトにそんなことを期待してる時点で厨だとわかるなぁ。
399:名無しさん@お腹いっぱい。
05/12/15 13:50:41 sNHU9yoi0
そゆ時は損ないい方するんじゃなくて
思い切りよいしょすんだよ。
そうすると丁寧に教えてくれる。
単純なやつが多いから。
400:名無しさん@お腹いっぱい。
05/12/15 13:50:43 0c/r9C0D0
見事な高二病患者だね。
401:名無しさん@お腹いっぱい。
05/12/15 16:13:22 sNHU9yoi0
な、最初から下手に出ないと
こういう風に臍を曲げる人達なんだよ。
最初から仕切りなおしだな。
402:名無しさん@お腹いっぱい。
05/12/15 16:15:59 1mi/1bBk0
オーケー
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │○│●│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │●│○│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛
403:名無しさん@お腹いっぱい。
05/12/16 00:11:25 H5z8o2qK0
ふーん。
へー。
あそー。
404:名無しさん@お腹いっぱい。
05/12/16 06:37:37 4ihTwJ750
たとえ作者が無能でジブタレソフトでも、
自分の無能さをたなにあげ、「フリーソフトだから」の一言で誤魔化せちゃうんだよな。
これですべての無能作者が天才プログラマーの仲間入りです。
405:名無しさん@お腹いっぱい。
05/12/16 07:59:25 T0cHSJI80
と、フリーソフトのひとつも作れない無能がいっております。
406:名無しさん@お腹いっぱい。
05/12/16 10:12:38 4ihTwJ750
オマエモナ
407:名無しさん@お腹いっぱい。
05/12/16 10:25:35 jc+RprQL0
シェアウェアにすればいいのか?
何が言いたいの?アホですか?
ああ、アホなのか。
408:名無しさん@お腹いっぱい。
05/12/16 11:07:00 iY5N4nA90
文句垂れる前に手動で巡回せんかい!!
409:名無しさん@お腹いっぱい。
05/12/16 23:18:20 gKBKajfM0
ジブタレソフトって何?
URLリンク(www.google.co.jp)
410:名無しさん@お腹いっぱい。
05/12/17 01:44:47 9zEExVqZ0
じぶたれって出来が悪いって意味じゃなかったっけ。
411:名無しさん@お腹いっぱい。
05/12/17 01:57:19 pMt6ztzw0
URLリンク(www.google.co.jp)
ちょっと出てきた。
412:名無しさん@お腹いっぱい。
05/12/17 09:46:14 VPQAMEu80
GetLeftってどうじゃろ?今では手放せなくなってしまったんじゃが。
URLリンク(personal1.iddeo.es)
URLリンク(osksn2.hep.sci.osaka-u.ac.jp)
URLリンク(egotopia.boo.jp)
413:名無しさん@お腹いっぱい。
05/12/17 13:10:54 /rGyBh8C0
>>412
Javaだめじゃん
414:名無しさん@お腹いっぱい。
05/12/17 13:53:43 1+ZXnFgk0
GetHTMLWを使ってみたが
ヘルプ画面が出てこないのですが?
415:名無しさん@お腹いっぱい。
05/12/17 13:54:34 95qnknmv0
ですが?なに?
416:名無しさん@お腹いっぱい。
05/12/17 14:00:51 lYPHapNL0
Javaスクリプトはアンカータグを複雑にしたものくらいにしか思ってないんか?
おめでたすぎる。
417:名無しさん@お腹いっぱい。
05/12/17 18:27:22 FR3ekHK20
>>414
添付のマニュアルやユーザが作ったヘルプが開くようには出来たと思う。
ていうか何を開くか尋ねられるんじゃなかったっけ?
418:名無しさん@お腹いっぱい。
05/12/17 23:15:06 GJQsw7Nc0
>>412
紹介ではtclとあるけど
portingされてる色々
うちのは確かフロントエンドGUI+コアがcurlだったが
このcurl素でcurl.rc無視してデフォルトオプション指定の設定読まないから
リファラ追従捏造とか
書き出しとかUA作成とか
毎回手作業になるのがメンドサくなり
結局curlにもどっちゃった。
419:名無しさん@お腹いっぱい。
05/12/18 12:18:19 qbYwz+Ag0
offline explorer日本語文字化けするんだけども
日本語化パッチとかないのかな
420:名無しさん@お腹いっぱい。
05/12/18 22:38:26 xxTpwrZF0
俺の場合は
ホームページをダウンロードした後
HDDやCD-Rに記録しておくのだけど
どんなソフトが良いんでしょうか?
421:名無しさん@お腹いっぱい。
05/12/18 22:45:13 xxTpwrZF0
ついでに皆さんに聞きたいのですけど
ダウンロードソフトを使っているのは1種類だけですか?
それとも数種類に分けて使っているのですか?
422:名無しさん@お腹いっぱい。
05/12/18 22:58:26 AiVOM2Xm0
巡集だけ
423:名無しさん@お腹いっぱい。
05/12/18 23:37:26 4ffTuICq0
irvineだけ
424:名無しさん@お腹いっぱい。
05/12/19 00:00:10 xoQVbLsY0
ブルーレット奥田家
425:名無しさん@お腹いっぱい。
05/12/19 01:09:28 IW/1r9aT0
ブログは取り込みを妨害されるけど、Irvineならきちんと取り込めますか?
426:名無しさん@お腹いっぱい。
05/12/19 01:28:47 JX8S8/fU0
妨害...
427:名無しさん@お腹いっぱい。
05/12/19 13:05:31 6wmU7C0W0
webautoだけ
428:名無しさん@お腹いっぱい。
05/12/19 21:56:18 jsAXFo5t0
>>420だが
>>423
俺の場合はダウンローダーで
良いのかな?
429:名無しさん@お腹いっぱい。
05/12/19 23:01:48 jsAXFo5t0
1.HPをダウンロード、
その後更新があったら再びダウンロードする
2.HPをダウンロードした後、別枠で保存しておく
3.出来ればブラウザの設定は無用
これだったらどんなソフトがあるのでしょうか?
1と2だったらそれぞれ別のソフトになるんですよね?
教えてください
430:名無しさん@お腹いっぱい。
05/12/19 23:04:08 2WlF5r5c0
ビーズレコーダかなんかにしとけ
431:名無しさん@お腹いっぱい。
05/12/20 02:40:02 ezpRabyj0
wikiの丸ごと取り込みってできますか?
オンライン見れる時間があまりないのでオフラインで見たいんですけど。
432:名無しさん@お腹いっぱい。
05/12/20 08:39:57 WLjVIdxO0
できるけどかなり迷惑
433:名無しさん@お腹いっぱい。
05/12/20 09:20:50 59Urrleu0
見られて迷惑なら公開しなきゃいいのに
434:名無しさん@お腹いっぱい。
05/12/20 10:09:58 dGd8zpho0
だめだこりゃ
435:名無しさん@お腹いっぱい。
05/12/20 10:20:47 0AWJO7kW0
どういうこと?
確かに沢山の人がWikiペディアを丸ごと取り込んだら大変なことになりそうだけど、
小規模ならローカルにあった方が負荷軽減になるかもね。
436:名無しさん@お腹いっぱい。
05/12/20 13:34:56 WLjVIdxO0
その前に誰もWikipediaとは言って無いだろ?
仮におそらく強力なサーバを使っているだろうWinkipediaだとしても
それをローカルで使おうとして多くの人がWikipedia全体に集中
アクセスすれば相当な迷惑だろ?
結論
どこかに落ちてるかもしれないアーカイブを捜してダウンロードしとけ。
俺はそうした。
437:名無しさん@お腹いっぱい。
05/12/20 23:37:39 luVz6p4O0
多くの人がWikipedia全体に集中アクセスすれば相当な迷惑なら
パスワード制限かなんかかけて仲間内だけでひっそりやってればいいのに。
438:431
05/12/21 02:24:00 kdqv9Tfm0
ごめんなさい、えらい大事になってるんですけどテキストだけが読めればよかったんです。
439:名無しさん@お腹いっぱい。
05/12/21 08:41:24 cz3HnR280
てゆか、ダウンできなくする方法なんていくらでもあるんだから、そうすればいいだけじゃん
その知識がない人間がDLするのはおかしいとか、負担かけるなって騒ぐんだよな
馬鹿らしい
440:名無しさん@お腹いっぱい。
05/12/21 08:42:50 cz3HnR280
DLするのはおかしいとか→DLするなとか
441:名無しさん@お腹いっぱい。
05/12/21 09:20:24 liYX0CAO0
このスレにいる(この手のソフト使ってる)クセに迷惑もクソもないだろ。
集中アクセスされてるか否かなんて、見る側にとっちゃ知ったこっちゃないし、
そもそも知りたくてもわからないだから。
サイト運営者がイヤなら、迷惑だからやめてくれって意思表示(対策)をすりゃいいだけ。
周りがさわいでも説得力なし。
442:名無しさん@お腹いっぱい。
05/12/21 09:33:47 +hVyBhac0
それで散々迷惑かけられて作者に苦情が行ったりアクセス禁止されてのが現状だろ?
これでは一部をダウンロードしたいだけのユーザが困る。
(`・ω・´)9m 迷惑
443:名無しさん@お腹いっぱい。
05/12/21 11:11:14 pTcPyK/C0
CNNのビデオ↓をローカルに落としたいんだけど、無理かな?
CNN.com - Video
URLリンク(www.cnn.com)
444:名無しさん@お腹いっぱい。
05/12/21 13:38:25 KbKfmQut0
>>442
DLできないように対策すればいいだけなのに
なんでソフト制作者に文句をいうんだよ
445:名無しさん@お腹いっぱい。
05/12/21 14:18:40 2hN+VQLb0
>>443
そういう質問はダウンロードソフト板に専用スレがあるから、誘導しておく。
ストリーム再生のファイルの落とし方 第26章
スレリンク(download板)
(もしかするとログを読んだだけで解決できちゃうかも)
446:名無しさん@お腹いっぱい。
05/12/21 14:50:24 liYX0CAO0
なんでアクセス禁止まで話が飛ぶのかわけわからん。
UA判別して門前払いすりゃいいだけじゃねーの?
中にはセキュリティーがどうので、Win9xを門前払いするサイトもあるし
UA偽装してまでやるやつなんてオタク以外いないだろうし。
それが集中するなんて、まずありえん。
447:名無しさん@お腹いっぱい。
05/12/21 14:56:39 pTcPyK/C0
>>445
サンクス。
448:名無しさん@お腹いっぱい。
05/12/21 20:29:27 TYbTr32e0
ある有料サイトの動画をflashgetで落とそうとしても、どうしてもダメです。
flashgetIDとパスを入れても弾かれて、wmvファイルのアイコンだけ残ります。
馬鹿な質問ですが、どうすればよいでしょうか?
違うソフトを使ったほうがよければ教えてください。
ちなみにブラウザ(firefox)で、ファイルに保存、をすることはできます。
449:448
05/12/21 20:37:22 TYbTr32e0
すいません、、書き間違えました。。
ある有料サイトの動画をflashgetで落とそうとしても、どうしてもダメです。
flashgetに、IDとパスを入れても弾かれて、wmvファイルのアイコンだけ残ります。
最初にログインするとき、IDとパスだけでなく、アルファベットと数字の絵を見ながら
手入力しないとログインできないメンバーページになっています。
馬鹿な質問ですが、どうすればよいでしょうか?
違うソフトを使ったほうがよければ教えてください。
ちなみにブラウザ(firefox)で、ファイルに保存、をすることはできます。
450:名無しさん@お腹いっぱい。
05/12/21 22:13:52 EGg/Dm6t0
>>442
落ちてるお金を拾うなといってもあまり意味無いと思うよ
451:名無しさん@お腹いっぱい。
05/12/21 23:45:44 +hVyBhac0
>>444
そんなもん詳しくは作者に文句いうヤツに聴きやがれ。
まずお前のようなヤツが散々迷惑かけまくったから文句を言うんだろが?
しかもアクセス禁止にするとお前みたいなタコ野郎は
「××のホムペがダウンロードできないんでちゅけど?」
とかこのスレに書きやがるだろ?
くだらん事2度と書くんじゃ寝ぇよ。タコ。うんこ。
452:名無しさん@お腹いっぱい。
05/12/21 23:47:16 +hVyBhac0
>>450
お前もタコ野郎だな。WikiくらいRSSリーダでも使って
更新されたらそこだけ見に行けよ。タコ。
453:名無しさん@お腹いっぱい。
05/12/22 01:59:00 A9Vh2ShA0
>>448-449
とりあえず>>445に貼られてるスレ読んでみれ。
有料サイトのや認証物はサポート対象外だから質問は受け付けてくれなさそうだが、
ヒントくらいは見つかるはずだから。
454:名無しさん@お腹いっぱい。
05/12/22 09:20:21 zatbQdK00
>>ID:+hVyBhac0
>>寝ぇよ
顔真っ赤(;^ω^)
まあお前が無い知恵絞っていくら叫ぼうが喚こうが怒鳴ろうが無意味
おまえみたいな偽善者が、一番(`・ω・´)9m 迷惑
455:名無しさん@お腹いっぱい。
05/12/22 10:24:47 jLt6Dsj50
>>452
いやです
456:名無しさん@お腹いっぱい。
05/12/22 11:25:51 fj5uMpnl0
ID:+hVyBhac0はアク禁のやり方を知らない厨房
457:名無しさん@お腹いっぱい。
05/12/22 14:06:52 eo44YHUa0
あきれた奴等の巣窟になってきたな。
俺は別にWikiもサーバ運用もしていないから
お前等が何をやろうが直接迷惑はかからんが。
そもそもWikiの○どりの仕方がしりたいんだろ。
じゃぁ答えてやるよ。
教えてやんねぇ。
458:名無しさん@お腹いっぱい。
05/12/22 14:31:46 vqIMrkGM0
知らないくせにw
459:名無しさん@お腹いっぱい。
05/12/22 15:07:51 zatbQdK00
>>457
i::::::::/'" ̄ ̄ヾi
|:::::::| ,,,,,_ ,,,,,,|
|r-==( 。);( 。)
( ヽ :::__)..:: }
,____/ヽ ー== ; ほほう それでそれで?
r'"ヽ t、 \___ !
/ 、、i ヽ__,,/
/ ヽノ j , j |ヽ
|⌒`'、__ / / /r |
{  ̄''ー-、,,_,ヘ^ |
ゝ-,,,_____)--、j
/ \__ /
| "'ー‐‐---''
460:名無しさん@お腹いっぱい。
06/01/02 02:21:20 ZIjIAbB40
こういう質問は駄目なのかな?
画像だけを集めることが出来るソフトは無いでしょうか?
461:名無しさん@お腹いっぱい。
06/01/02 10:45:42 CBT9IDmq0
あるよ
462:名無しさん@お腹いっぱい。
06/01/02 16:25:15 6pqda2AV0
>>461
申し訳ありませんが
教えていただけるでしょうか?
例えば連番の画像を集めたりするソフトを探しています
463:名無しさん@お腹いっぱい。
06/01/02 16:47:45 pIiSHfy90
エスパー能力を駆使して何となく2つの可能性を抽出してみたが
どちらも糞質問だったので答えたくない。
464:名無しさん@お腹いっぱい。
06/01/03 01:18:44 N+6dDshb0
>>462
ダウンロードマネージャについて語り合うスレ
スレリンク(software板)
465:名無しさん@お腹いっぱい。
06/01/05 00:16:59 PVqYTSns0
>>464
有り難うございます
466:名無しさん@お腹いっぱい。
06/01/09 00:59:17 KoNjf4IC0
画像ちゃんねる、取り込みたいんだが、何使えばいいのかな
巡集使っても余計なHPばかり取り込む
467:名無しさん@お腹いっぱい。
06/01/09 08:59:51 y1zebm5/0
>>466
>>464
468:名無しさん@お腹いっぱい。
06/01/10 01:43:26 KjZCgE1S0
いや、画像だけほしいわけじゃないのよ
できればスレッドも落としたい
469:名無しさん@お腹いっぱい。
06/01/10 15:21:24 4lai+CJY0
できない
470:名無しさん@お腹いっぱい。
06/01/10 15:22:00 4lai+CJY0
つーか、アク禁されたくなければやめておけ、と。
471:名無しさん@お腹いっぱい。
06/01/17 18:41:17 ynzlYkVD0
>252 :名無しさん@お腹いっぱい。:2005/08/06(土) 01:02:50 ID:8LmqRlh00
>>246
>この方法は試したか?>>167
>ブラウザでDLしたいページを全て表示という手間はかかるが
>FLASHもjavaも落とせる。
>落としたページを閲覧する時はクイックサーバー機能を使えば
>FLASHからFLASHを呼び出すものも正常に再現できる。
252さんのやり方で、
URLリンク(www.geocities.jp)
をDLしようとしたのですが、
うまくいきません; ;
キャラクターに服を着せ替えようとしたら、右上に×印が出て
キャラクターがハゲになります・・・
このHPは絶対落とせないように何かHP側で対策されてるのかな: :
472:hage
06/01/22 02:25:58 /LJYy4gN0
URLリンク(www.mero-mero.net)
のJpegのみを「ダウンロードNinja3」で落としたい!!
多分99%不可能ですが...
逆に落とせるソフトが無いと思うけどd(^-^)!
473:hage
06/01/22 10:34:50 /LJYy4gN0
>>472
自己レスです。
意外に簡単に[Reget]が使えちゃった...
474:名無しさん@お腹いっぱい。
06/01/25 22:05:28 d8BKRdBZ0
https:なサイトを丸ごとDLできるソフトはありませんか?
巡集 GetHTMLW WeBOX は駄目でした。
475:名無しさん@お腹いっぱい。
06/01/25 22:42:07 fDWoJzdB0
>>474
URLリンク(www.vector.co.jp)
476:名無しさん@お腹いっぱい。
06/01/25 23:25:56 d8BKRdBZ0
>>475
ありがとうございます。
昔はあんなに使ったIrvineのリンクのインポート機能を忘れていました。
477:名無しさん@お腹いっぱい。
06/01/26 00:44:05 nQI5PCBv0
>>474
Scrapbookでも可。
478:名無しさん@お腹いっぱい。
06/01/28 03:52:38 ASZ9bNR50
ん
479:名無しさん@お腹いっぱい。
06/01/28 23:36:43 BmkSJEUR0
巡集の設定のacceptって、ここで設定した拡張子のファイルだけ落ちてくるってこと?
480:名無しさん@お腹いっぱい。
06/01/29 01:31:54 NYz296SW0
サイトを丸ごとダウンすることが目的の巡集で
一部の拡張子だけダウンしてどーするの?
481:名無しさん@お腹いっぱい。
06/02/02 21:12:55 Yd7hwCuJ0
Autogetで、robot.txtを無視するのにはどうしたらいいでしょうか
482:名無しさん@お腹いっぱい。
06/02/06 15:28:54 hASXEvIW0
動画ファイル(ストリーミング)を保存したいんだけどダウンロードNinja3
よりいいソフト知ってる人いますか?もしあったら教えて下さい、お願いします。
483:名無しさん@お腹いっぱい。
06/02/06 15:46:17 ySE8JEpV0
何故検索しない?
484:名無しさん@お腹いっぱい。
06/02/06 20:48:18 igPIRrIN0
>>482
URLリンク(www.internal.co.jp)
URLリンク(www.internal.co.jp)
485:名無しさん@お腹いっぱい。
06/02/07 17:17:12 BOVIJ3Ye0
>>484
高いのに使い勝手がイマイチでサポートも悪い。マニュアルも分り難い
フリーの方が速いので買って損した
486:名無しさん@お腹いっぱい。
06/02/11 08:12:17 Nw8HHa+o0
net transuportやFlashGetの
IEの右クリックのコマンドが、
アンインストールしても消えないのは何故?
これって消せないのかな?
いろいろいじっても消えんのだが
487:名無しさん@お腹いっぱい。
06/02/11 10:12:02 mifLgRHQ0
IE、OSの再起動しても残ってるならレジストリを直接弄るか
右クリックメニュー編集ツールを使うとか。
ContexterかIE MenuExtあたりで。
488:486
06/02/11 11:13:05 c6JMha8Y0
>>487
サンキュー!IE MenuExtで消せました。
Contexterのサイトは閉鎖してたね
489:名無しさん@お腹いっぱい。
06/02/12 04:03:47 l/NtuxGz0
>>10
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │●│ │○│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │●│●│★│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │●│○│●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │○│●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛
490:名無しさん@お腹いっぱい。
06/02/12 07:45:15 N+7ySOFj0
ダウンロードNinja3パッチこないかなぁ(´・ω・`)
491:名無しさん@お腹いっぱい。
06/02/16 14:10:57 qGG6WsNn0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │●│ │○│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │●│●│★│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │●│●│●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │●│●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │●│●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛
492:名無しさん@お腹いっぱい。
06/02/16 17:31:31 gq9hY5+m0
ダウンロードNinja使っている人。教えてください。
URLリンク(i-bbs.sijex.net)
や
URLリンク(i-bbs.sijex.net)
などの画像を落としたいのですが、
1、延々と終わらない(特に下)
2、1ページで終了しちゃう。
となります。
制限で"image.i-bbs.sijex.net/bbs/onsen/*"
でもうまくいきません。
どう設定するとうまくいくでしょうか?
493:名無しさん@お腹いっぱい。
06/02/16 18:46:26 RFc8+sNZ0
>>492
掲示板の宣伝か?
下の奴しか試してないが普通に取り込めるぞ???
494:名無しさん@お腹いっぱい。
06/02/16 22:45:59 0V2kWzW10
IrvineでDLするファイル名に、あらかじめ
冒頭に連番を振ったり、指定した文字列を追加した状態で保存することはできますか?
495:名無しさん@お腹いっぱい。
06/02/16 22:47:21 0V2kWzW10
たとえばimg20060216003[001-099].jpgをDLする場合、
冒頭に jokose_ を追加しておくとかです。
496:名無しさん@お腹いっぱい。
06/02/17 00:17:05 nzbq6QCa0
>>493
サムネールの画像と広告部分を除いた本編だけでいいのでやってるんですが
制限外になったりしてうまくいかないのです・・・
URLリンク(i-bbs.sijex.net)
結構ここの掲示板の=の後ろを変えるといろいろあって楽しいのですが、いまいちうまく取り込めず
右クリックして保存を繰り返す。。意味ない状態が続いてます、、、とほほ
497:名無しさん@お腹いっぱい。
06/02/17 00:54:57 w05vhJyW0
散々外出だけど、Proxomitronで画像のURLを直接得られるようにすればいい。
498:493
06/02/17 19:14:01 ys0LZ3sI0
>>496
宣伝じゃないとするとマニュアル持ってない割れ使いなのか?
人の良い俺が教えてやろうw
ダウンロードウィザード→アドバンストをクリック、
深さ→2、種類→JPEGのみ、サイズ→10KB~
これで本編だけの画像が取り込める。
(10KB以上のバナー画像も取り込まれるが削除すればいいだけの話)
これだと5ページめまでの本編画像しか取り込めないから、
10ページ、20ページをブラウザで表示して同じ方法を使えば全部取り込めるだろう。
こんな簡単な方法がわからないなんて、
どう考えてもマニュアル持ってない割れ使いとしか思えないんだがな。
俺は必ずしも割れ使いを非難したりはしないけど、
最低限自分だけで使い方をマスターするだけの努力をしろよな。
もし正規の購入者ならこんなことも分からないと恥ずかしいと思うぞ。
マニュアルみればすぐ理解できる事なんだから自分で解決する努力を汁。
499:名無しさん@お腹いっぱい。
06/02/17 23:38:21 nzbq6QCa0
>>498
ありがとう、やってみます。
バナーはやっぱり手動なんですね、、といっても制限かけても
わけのわからないところを持ってきちゃうからそれでいってみます。
割れ使いっていうのがわからないけど、コピーじゃないよ。
オンライン版(楽天で買った奴)
だからマニュアルなかった。
ありがとうございました。
500:名無しさん@お腹いっぱい。
06/02/18 00:33:22 Nw+5V7860
500
501:493
06/02/18 14:25:06 P/V6hoS10
>>499
失礼なこと言ってゴメン。
ダウンロードを始めたら本編画像だけ最後まで自動で取り込みたいのは判るけど、
深さを3にしたり場所を同一サーバーや同一ドメインに変えたりしてみても、
そこの掲示板は無理みたいだね。
ところでNinjaバーをIEのツールバーに組み込んで(表示させて)使ってる?
ダウンロードNinja2はIEに組み込むとセキュリティレベルを変更しても、
実際には変更されてなくて中レベルで固定されてるのに気付かずにいてえらい目にあったけど、
Ninja3では直ってるのかな?
502:名無しさん@お腹いっぱい。
06/02/19 14:52:12 CPNI860e0
Irvineなんですけど、
ダウンロード履歴を残さない設定はできるんですが、
キューフォルダ名や削除履歴などやたらといろんなファイルに履歴を残すんですが、
そういう記録を一切残さないようにはできないですか?
503:名無しさん@お腹いっぱい。
06/02/19 16:54:26 BuvxEdmy0
>>485
買おうとしていたのに・・・ダメなのか・・・
誰か使ってる人いないの~
504:名無しさん@お腹いっぱい。
06/02/19 19:38:45 8jy1ZyOF0
>>502
Irvine Part10
スレリンク(win板)
505:493
06/02/19 23:34:17 6xYXWB+I0
>>499
まだ見てるかどうかわからんが、ちょっとばかり時間をかけて詳しく調べてみたよ。
ダウンロードウィザード→アドバンスト→概要タブ
URL→ URLリンク(i-bbs.sijex.net)
深さ→3、種類→JPEGのみ、サイズ→6KB~
制限タブ→登録したURLを除外にチェック→URL登録→このディレクトリ以下をすべてにチェック
URLパターンに下のURL(バナー画像)3つを追加
ban-img.sijex.net/
affiliate.dtiserv.com/
rinrin.cc/
これで広告なしで本編画像のみ掲示板の画像全部を取り込める筈だ。
ここまでしなくても後から手動で広告を削除した方が早いような気もするが。
506:名無しさん@お腹いっぱい。
06/02/20 00:50:33 mZtqBav30
やさしい人だな
507:名無しさん@お腹いっぱい。
06/02/21 23:34:35 +J/lqP0k0
>>485
そうなんだー使いにくいの?フリーでなんかおすすめなソフト教えて下さい。!
ベクターサイトからいろいろフリーのソフト使ってみたんだけどどれもいまいちなんだー
508:名無しさん@お腹いっぱい。
06/02/21 23:45:03 MVsV/nxN0
ダウンロードNinja使っている方教えてください。
今まで主にエロ画像取り込みに使用していましたが、
突然、すべてのHPの画像取り込みができなくなりました。
ログを見てみると結果が11004:(サービスが見つかりません)と
なっています。 IE上で欲しい画像のサムネールをクリックして
その画像を表示した後に再度サムネール一覧ページに戻りNinjaで
ダウンロードさせてみたら、1回表示(ダウンロード)した画像のみ
取り込まれ、他の画像はやはりだめでした。
設定が悪いのでしょうか? とくに設定を触った記憶はありません。
509:名無しさん@お腹いっぱい。
06/02/22 08:19:33 akW7Qb2S0
>>508
製品版を使ってるならサポートへ連絡すれば
URLリンク(www.ifour.co.jp)
510:名無しさん@お腹いっぱい。
06/02/22 21:57:22 VbEivn1+0
>>509
そうします。
マニュアル捨てちゃったんだよね
511:名無しさん@お腹いっぱい。
06/02/23 00:58:30 15iXoUUf0
>>508
iniファイルだけコピーして再インストールしてみたら?
512:名無しさん@お腹いっぱい。
06/02/23 19:25:50 Ro24FZ+70
>>511
再インスコ済み。
だめでした。
513:名無しさん@お腹いっぱい。
06/02/25 12:27:26 uDlmPjVo0
gethtmlw ver7.13 をダウンロード出来るところを教えて下さいな。
514:名無しさん@お腹いっぱい。
06/02/25 22:45:00 Jdz2tXgY0
巡集ver 1.6.1Aひとつき以上前にきてますた
* 「HTMLのリンク先の書き換え」を仕様変更。
* 「%を変換しない」の設定が保存されていなかった問題を修正。
515:名無しさん@お腹いっぱい。
06/03/04 19:06:17 yp3mhcW00
丸ごと保存
webox 0.98M
WEB収集ブラウザ
巡集ver 1.6.1A
gethtmlw ver7.13
さてどうするかな・・
516:名無しさん@お腹いっぱい。
06/03/04 22:44:21 6Q0tomxd0
WeBOX+巡集がおすすめ
517:名無しさん@お腹いっぱい。
06/03/05 00:03:25 yp3mhcW00
webox 0.98M にしたけど整理しやすくていい
518:名無しさん@お腹いっぱい。
06/03/05 01:01:00 m+NfEGgp0
誰かドラマ「ガチバカ」のおとついやったやつとその先週のやつをうpしてください
519:名無しさん@お腹いっぱい。
06/03/05 02:25:50 TUl37VjI0
997 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:20:22 ID:TUl37VjI0
ume
998 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:21:10 ID:eXjuMz/V0
ume
999 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:21:28 ID:wAf218z40
ume
1000 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:21:33 ID:BuN/Pp330
∩___∩
| ノ ヽ/⌒) あばばばばばば
/⌒) (゚) (゚) | .|
/ / ( _●_) ミ/ ∩―-、
.( ヽ |∪| / / (゚) 、_ `ヽ
\ ヽノ / / ( ● (゚) |つ
/ / | /(入__ノ ミ あばばっあびゃばびゃばば
| / 、 (_/ ノ
| /\ \ \___ ノ゙ ─ー
| / ) ) \ _
∪ ( \ \ \
\_)
988までが俺ね。
この時間に1000横取りする暇人がいるとは思わなかった
ちょっとびっくりさすがソフト板だなw
520:名無しさん@お腹いっぱい。
06/03/05 20:54:48 kuuPzXCV0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │○│●│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │●│○│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛
↓
521:名無しさん@お腹いっぱい。
06/03/05 22:33:53 o/Ktu0s30
巡集はなぜか文字化けする
522:名無しさん@お腹いっぱい。
06/03/06 08:08:10 xX/GHnOX0
日本語サイトしか巡回してないせいかもしれないけど
一度も文字化けしたことはないな
523:名無しさん@お腹いっぱい。
06/03/06 10:06:02 Ha6oUKGG0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │○│●│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │●│○│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛
↓
524:名無しさん@お腹いっぱい。
06/03/06 14:02:09 f7X9Gq2H0
画像、画像って何の画像を落としてるんだ?
そんなに画像が必要なのか?
さっさと白状してしまうんだな。
楽になるぞ!
525:名無しさん@お腹いっぱい。
06/03/06 15:14:17 rq1yDq/J0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │●│ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │○│●│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │●│○│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛
俺の勝ち
526:名無しさん@お腹いっぱい。
06/03/06 18:39:06 sRwxm9Lm0
ダウンロードソフトの最高峰がさらに進化。回線高速機能搭載版もラインナップ!
『ダウンロードNinja 4 for Windows』『ダウンロードNinja 4 マッハ for Windows』...発売のお知らせ
URLリンク(www.ifour.co.jp)
>●IE以外のブラウザに対応
> とり貯めたデータ(画像、URLなど)からインターネットにアクセスする時、
>これまではMicrosoft Internet Explorerしか使用出来ませんでしたが、
>今回のバージョンアップによりIE以外のお気に入りのブラウザを指定することが可能となりました。
>いちいち普段使わないブラウザを開いて、直前にコピーしたURLを貼り付けて・・こんな面倒な手間のかかる作業が解消されます。
>※各ブラウザによっていくつかの制限があります。
・・・てあるけど、↓のコレは何よw
対応ブラウザ
Internet Explorer 6.x/5.5x/5.0x
Netscape Navigator 4.7x/4.6x/4.5x
Netscape Communicator 4.7x/4.6x/4.5x
527:名無しさん@お腹いっぱい。
06/03/09 23:02:26 CJF43XrH0
javascriptによるリンク先も保存できるソフト、ありますか?
weboxはできませんでした。
528:名無しさん@お腹いっぱい。
06/03/09 23:18:58 CysL2inK0
つ 巡集
529:名無しさん@お腹いっぱい。
06/03/12 18:39:09 +TzmRTTx0
毎回決まったサイトに動画をダウンロードしにいくのがめんどくさいので、
指定サイトからいくつかの規則にしたがって、必要なファイルだけ
ダウンロードするソフトがほしいんですが、ないですか?
なければどなたか作っていただけませんか?
自分で作るのまんどくせ。
というか技術力なさそうなので1年くらいかかりそ。
【ダウンロード条件の例】
①ファイル名の規則性に基づく(movie[0-9]+.zipとか)
②毎回動画をおいてるhtmlが違う場合でhtmlをおいてあるドメインがいつもいっしょの場合は
それを自動的にたどってダウンロードできる
などなど
530:名無しさん@お腹いっぱい。
06/03/12 18:40:08 +TzmRTTx0
>>529
作っていただける方がいらっしゃいましたら、
仕様のご提案をさせていただきます。
531:名無しさん@お腹いっぱい。
06/03/12 19:31:01 BIjZNavx0
>>529-530
◆こんなソフトウェアつくってください!~Part6~◆
スレリンク(software板)
製作依頼は上記スレでどうぞ。
532:名無しさん@お腹いっぱい。
06/03/12 23:08:09 PiQiW6Nk0
>>531
ありがとう。これから行ってきます
533:名無しさん@お腹いっぱい。
06/03/14 10:37:26 5bVRFzlh0
サバ落ち回避のために、1枚ずつHTMLにしてある画像をイリアみたいにまとめてダウンロードできる
フリーソフトないですか?
534:名無しさん@お腹いっぱい。
06/03/14 11:36:03 q2KI+mrR0
イリアでいいじゃん
535:名無しさん@お腹いっぱい。
06/03/14 11:45:09 4wZrZCnX0
>1枚ずつHTMLにしてある画像
ユトリマン丸出しだな。
536:名無しさん@お腹いっぱい。
06/03/14 21:02:38 GbnU6jh90
>>534
できれば苦労しないです。
537:名無しさん@お腹いっぱい。
06/03/15 18:34:34 PegQU67o0
誰かしらんとですか?
538:名無しさん@お腹いっぱい。
06/03/18 22:01:29 GcX+lPBs0
ふむ、これまでの俺の経験からすると、
一番確実に全部ダウンロードできるのが、GETHTMLW+巡集の組み合わせだな。
GETHTMLWはすばらしいソフトだが、JAVAスクリプト関係とかフラッシュ周りの追跡取得に弱い。
そこで巡集を使用し、巡集のプロキシにGETHTMLWを指定してやると、自動的にGETHTMLW側に
JAVAとかフラッシュを蓄える事ができ、しかもLOCALモードでも閲覧できるようになる。
ファイルが2重に出来ることになるので、巡集側のファイルは終わった後に消してOK。
まあ、巡集側でパス変換無効にして蓄えたファイルをGETHTMLWのフォルダにコピーしたのでも
似たようにできるけどね。上記のやり方は俺の趣味。
いかがかな?
539:名無しさん@お腹いっぱい。
06/03/18 22:40:45 H6+F+fuV0
ありがとうございました
540:名無しさん@お腹いっぱい。
06/03/19 00:41:19 rg2MNGxU0
ええ話や
541:名無しさん@お腹いっぱい。
06/03/21 19:42:57 1RJ/6erE0
GETHTMLWって7.14より7.13のほうがいいの?
542:名無しさん@お腹いっぱい。
06/03/22 14:05:34 COzmNFid0
分割DLついてるとかそんな違いだから
543:名無しさん@お腹いっぱい。
06/03/29 00:02:23 VgyOeFZJ0
てst
544:名無しさん@お腹いっぱい。
06/03/29 00:04:51 VgyOeFZJ0
てssy
545:名無しさん@お腹いっぱい。
06/03/29 00:07:45 pkpNhQ0J0
てs
546:名無しさん@お腹いっぱい。
06/03/30 19:46:25 Z65LfnHV0
ninja3の体験版つかってるんだけど、数時間の
ダウンロードとかするとやたらメモリ喰わない?
時間に比例してどんどんメモリ喰ってく。
この前メモリ使用量2GMB超えたとこでフリーズ・・・
547:名無しさん@お腹いっぱい。
06/03/31 00:00:09 fo/dVYvT0
それが、そのソフトに原因があると思ってるなら
大きな間違い
548:名無しさん@お腹いっぱい。
06/03/32 11:14:19 vUecKDGj0
右クリック禁止のサイトをダウンロードして右クリック可能にすることはできますか?
549:名無しさん@お腹いっぱい。
06/03/32 19:12:45 9cBOgu1+0
スレ違い
550:名無しさん@お腹いっぱい。
06/03/32 23:20:45 sRD/ACAn0
スレ違いだけど、右クリック禁止について質問するなんて
カワイイもんだw
551:名無しさん@お腹いっぱい。
06/04/08 04:55:49 hAsB5jcl0
Java、CGIまで落とせるのってないですか?
552:名無しさん@お腹いっぱい。
06/04/08 10:49:06 NdvpBHa40
困ったときは巡集
553:名無しさん@お腹いっぱい。
06/04/08 11:47:06 sGNgLdHp0
巡集ならJava、Flashまでは対応してる。
当たり前だけど、CGIは静的な結果しか保存できない。
554:名無しさん@お腹いっぱい。
06/04/08 18:14:10 l4QT8Kvs0
cgi 落とす・・・・
555:名無しさん@お腹いっぱい。
06/04/09 12:48:05 VchaA2+F0
>554
つ[F5アタック]
556:18ban
06/04/09 19:28:02 osngBrCz0
オハコ板を自動収集できるソフト、もしくはやり方を教えてくれ。
557:名無しさん@お腹いっぱい。
06/04/10 02:01:26 hGMMQeqP0
いやあだよ
558:名無しさん@お腹いっぱい。
06/04/10 12:22:02 hLSSFdIP0
gethtmlw 7.9.1って鮫島事件並の扱いなんだよね
それくらい危険なバージョン 以後非公開らしい
みんな公開するのを恐れてどこにも無い
559:名無しさん@お腹いっぱい。
06/04/10 12:22:57 hLSSFdIP0
思えば作者が消えたのも関係ありそうだな
560:名無しさん@お腹いっぱい。
06/04/11 03:07:48 NqsN4Igo0
>>558
んなわけが…
分割DLってだけでしょ
そんなのはソフト作れない9割以上の一般利用者の間だけの話。
561:名無しさん@お腹いっぱい。
06/04/11 09:16:22 dkInw5860
日本語でおk
562:名無しさん@お腹いっぱい。
06/04/11 10:43:30 gvI3eB4U0
>>558
鮫島事件って何ですか?
563:名無しさん@お腹いっぱい。
06/04/11 12:33:14 nxOzsNsW0
都市伝説
564:名無しさん@お腹いっぱい。
06/04/11 14:57:04 259t6R8D0
URLリンク(video.msn.com)
この動画を全て保存したいのですが、どんなソフトで可能でしょうか?
565:名無しさん@お腹いっぱい。
06/04/11 16:07:03 zGnFu0pK0
GetHTMLWのreadmeにVer.7.13から同時接続数を1に制限って書いてあるけど・・・
ってことは最強はVer.7.12ってことじゃまいか?
566:名無しさん@お腹いっぱい。
06/04/11 17:18:07 7hfB89FW0
多重DLでアク禁されてもいいならどーぞ
567:名無しさん@お腹いっぱい。
06/04/11 22:15:03 AuibSfRC0
かつてはその仕様のせいであちこちに迷惑かけた結果、はじくところが増えたんだよ
作者が長いこと放置していたし。
コレに限らず使い方次第では嫌われて当然なジャンルだから自覚してくれよ
568:名無しさん@お腹いっぱい。
06/04/11 23:05:19 FvXDGp/L0
URLリンク(music.j-total.net)←こういうサイトすべてダウンロードってできませんかね?
すべての歌手の譜面をダウンロードしたいんですが。
569:名無しさん@お腹いっぱい。
06/04/11 23:37:17 9zJxjO640
cgiだから無理
570:名無しさん@お腹いっぱい。
06/04/11 23:59:36 NqsN4Igo0
cgiに屈するなばか
571:名無しさん@お腹いっぱい。
06/04/12 10:35:26 dpcbxPWE0
Get web! with Image Browserってもうどこにも落とせるところない?
これ以上に使い勝手いい取り込みソフトなかったんだけどHDDと一緒に消えてしまった・・・
572:名無しさん@お腹いっぱい。
06/04/12 12:22:13 dpcbxPWE0
自己解決
URLリンク(web.archive.org)
てか直アド打っても落とせないのにwebarchive挟むと落とせるんだけどファイルまでバックアップするようになったのかここ…
573:名無しさん@お腹いっぱい。
06/04/12 12:30:14 lCZMs3TH0
は?
574:名無しさん@お腹いっぱい。
06/04/12 12:35:45 dpcbxPWE0
→ URLリンク(www.optpix.com)から ダウンロード
から落とせる・・・・んだがなんかファイル壊れてるな・・・
575:名無しさん@お腹いっぱい。
06/04/12 18:20:00 HPcmo7wS0
バイナリエディタでけつに0加える
576:名無しさん@お腹いっぱい。
06/04/12 18:55:58 vjF++Foe0
>>575
うお、マジthx!!
これでgethtmlw使わなくてすむ(ノД`゚・。
577:名無しさん@お腹いっぱい。
06/04/12 23:18:22 sCIe4qAx0
>>571
ぶっちゃけ、どう違うの?
578:名無しさん@お腹いっぱい。
06/04/13 00:35:37 nuQa6xIe0
GETHTMLWはJavaにもFlashにも対応してないから、
巡集の方が便利だと思うんだが、あえてGETHTMLWを使うメリットってあるの?
579:名無しさん@お腹いっぱい。
06/04/13 07:47:51 r8xDD0NA0
?
580:名無しさん@お腹いっぱい。
06/04/13 08:00:32 56ZLVIi80
巡集はまた更新が止まっちゃったね
581:名無しさん@お腹いっぱい。
06/04/13 11:42:41 pkiEVC+V0
というか、作者がどうなったかが心配になる
582:名無しさん@お腹いっぱい。
06/04/13 14:18:04 XpYA8ryZ0
>>577
使ってみれば解かる
583:名無しさん@お腹いっぱい。
06/04/13 20:55:31 G26hqSM40
波乗りおぼれすぎ
一回目と二回目では取得できるファイルとそうでないのがあるから困った
完全に取得できるソフトってないのかな
584:名無しさん@お腹いっぱい。
06/04/15 15:27:23 XHpUBv5Z0
WebReaperはどうかな?
くまかわ堂の日本語パッチを当てて使ってみたけど、
巡集に近い感じ。
IEのお気に入りを読み込むのが煩わしいけど。
585:名無しさん@お腹いっぱい。
06/04/15 16:32:01 O1SF+BR00
gethtmlw 7.9.1 って何ですか?幻のソフト?
その前にそんなのあるの?
586:名無しさん@お腹いっぱい。
06/04/15 16:38:41 iMp6kEEf0
WebReaperってuseragentはどうなってる?
巡集みたいに自由に設定できるの?
587:名無しさん@お腹いっぱい。
06/04/17 06:29:57 8nSr9SAm0
やっぱり保管サイトごと保存できるのが最強だよ。
HDにファイルだけ入れても何が何かわかんなくなるし
その機能に、差分取得機能。
あと、いろんなwebページに対応してるのが最強だな
588:名無しさん@お腹いっぱい。
06/04/17 17:25:17 ausgU4+i0
>>586
自由設定はできる模様。
(none)を選ぶと空欄になるので、
userAgent一覧からたとえば、
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0;)
を入力できる。
プリセットされているのは、次の項目。
"事前に定義されたブラウザ user-agent strings(&P)" Buttonで
(none)
WebReaper
Microsoft Internet Explorer
Netscape 4.5
Opera v3.5
ちなみに、入っているもは、「Microsoft Internet Explorer」を選ぶと、
Mozilla/4.0 (compatible; MSIE 6.0; Win32)
たしかIrvineと同じものなので、弾かれる所もあると思う。
Win2kSP4を使っているので上記で設定している。
なお詳細なログが出力されるので、取り込み失敗もわかりやすい。
589:名無しさん@お腹いっぱい。
06/04/17 22:48:39 byRupYbR0
>>588
詳細レス㌧
試してみるかな
590:名無しさん@お腹いっぱい。
06/04/18 21:07:19 colwsEdr0
blogを丸ごとゲットできるソフトってあります?
gethtml他色々試してみたのですがうまくいかないのです・・・。
591:名無しさん@お腹いっぱい。
06/04/18 21:15:42 YkmiwJ3t0
>>590
丸ごとが通常の閲覧と同じ意味をさすなら、cgiの取り込みを出来ますか?
と聞いているようなものなんだが。
592:名無しさん@お腹いっぱい。
06/04/18 21:39:28 colwsEdr0
>>591
すいません、ブログ内の画像やzip等のことです。
ブログにおける"そのページ内の"だけではなく"そのサイト全体にある"というような感じの。
593:名無しさん@お腹いっぱい。
06/04/19 03:56:53 vYNNZY310
僕たち純真無垢のageブラザーズ!
スレが盛り上がるようにageてあげるよ!
 ̄ ̄∨ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
∧_∧ ∧_∧ age
(・∀・∩)(∩・∀・) age
(つ 丿 ( ⊂) age
( ヽノ ヽ/ ) age
し(_) (_)J
594:名無しさん@お腹いっぱい。
06/04/19 07:47:24 15Ulvr7u0
>>591
cgiの取り込みって出きるの?
595:名無しさん@お腹いっぱい。
06/04/19 07:58:39 5EkfZIhn0
>>592
リンクが貼ってあれば、大抵のソフトなら取って来るはずだけど。
外部サーバのリンクを弾いてるだけじゃないの?
596:名無しさん@お腹いっぱい。
06/04/19 13:48:57 AOjTbGp70
ログインしなきゃ見れないサイト
巡集だとクッキー送って取得出来たけど
gethtmlだとクッキー送っても出来ない・・・。
ログインしてください の画面で止まってる。
597:名無しさん@お腹いっぱい。
06/04/19 19:35:00 kxNXyymu0
GIGAGETはどうですか?
598:名無しさん@お腹いっぱい。
06/04/19 21:45:19 adoUm4Fn0
アドウェア入りらしい
スレリンク(software板)
599:名無しさん@お腹いっぱい。
06/04/19 22:08:44 fPhCfjT+0
というか、丸ごと取り込みソフトとしてはスレ違いでは。
600:名無しさん@お腹いっぱい。
06/04/20 11:00:58 pWIZOtah0
>>592
WEBEX、NextHttp、Isabel、画浪(free)、MzGet、MIDown、
とかダウンロードツールの範囲だね。
Irvineが一番使いやすいと思うけど。NetTransportもね。
>>599氏の言うようスレ違いだと思う。
ダウンロードツールで目的の使いやすいものを選んでみたら?
601:名無しさん@お腹いっぱい。
06/04/21 15:05:34 R/SqYRIp0
GripIE
URLリンク(www.gripie.com)
FirefoxのDownThemAllのIE版
602:作者
06/04/22 14:12:21 ej/0ZIgw0
いやぁ 留置場にお世話になってました、でももう釈放されたんでこれからNewVerつくります。
603:名無しさん@お腹いっぱい。
06/04/22 14:57:38 0ZI/FZTa0
巡集が巡査にご厄介?
604:名無しさん@お腹いっぱい。
06/04/26 07:56:22 o8bSTe/60
数十万単位の画像がある大手サイトは自動でダウンロードできないところが多いな
605:名無しさん@お腹いっぱい。
06/04/26 09:13:17 TmlEQfko0
>>604
>>600
606:名無しさん@お腹いっぱい。
06/04/30 13:12:44 QK3Wf2y+0
WeBoXにエクセル、マウスの動作を記録するソフト等を組み合わせたらうまくとれるようになった。
エクセルの文字列操作が使える。これでURLのテキストを作ってWeBoXで読み込む。
マウスの動作を記録するソフトは遅いが、これなら手動でとれるものなら必ず取れる。
607:名無しさん@お腹いっぱい。
06/05/03 16:31:42 MQZcxWlv0
WebReaper使ってみたけど
日本語化した後、すべてのファイルで「開くの・失敗しました」って出て
まったくダウンロードの収集ができない(´・ω・`)
608:名無しさん@お腹いっぱい。
06/05/04 05:35:37 Q/91ZJyU0
テキストファイルに書かれているURLのリストを読み込んで
全てダウンロードしてくれるソフトってありますか?
あるいは、テキストファイルからリストを読み込んで
別々のFirefoxのタブで開けてくれるのでもいいです。
609:名無しさん@お腹いっぱい。
06/05/04 06:43:26 UpflJBuU0
>>607
>>588だけど、ユーザーエージェントは何を使っている?
自分は、Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0;)を
使っているけど。
試しに次のサイトを取り込んでみたけど、問題なく取り込めるよ。
取り込んだものは、ローカルファイルとして開く事ができる。
取り込み先は、C:\とは別ドライブのパーティションM:\
OutPost 2ch まとめサイト
URLリンク(www.geocities.jp)
でログは次のとおり。
「2006/05/04 6:20:36: ダウンロード完成
2006/05/04 6:20:36: 654は処理されて、4862進の168 htmlをリンクします。
9は失敗しました, 0は(変わりのない)でスキップされて、
12.2Mbは44sでダウンロードされました. データ転送速度: 283Kb/sec.」
ファイアーウォールでWebReaperを遮断していない?
ブラウザやダウンロードツールと一緒だよ。
もちろんユーザーエージェントの考え方も。
それから報告するときは取り込み先の、URLを書いてくれないと、
何故取り込めなかったか解らない。OSもね。
610:名無しさん@お腹いっぱい。
06/05/05 01:32:45 Pfsbr6+N0
>>608
GetHTMLW
一行目に[MultiURLSetting]と書いてある拡張子.musのテキストファイルが読み込める。
URL以外は認識しないのでコメント文も書ける。
関係ないけど、UWSCでの自動化は便利だよ。
611:名無しさん@お腹いっぱい。
06/05/05 02:36:46 /mWfEwO20
>>610
情報㌧!!
612:名無しさん@お腹いっぱい。
06/05/05 10:48:46 gcfReHxt0
ダウンローダー雨でも出来る
613:名無しさん@お腹いっぱい。
06/05/09 22:09:47 CRMbofru0
巡集ってファイル名の最後が7zで終わるファイルはダウンロード出来ない?
614:名無しさん@お腹いっぱい。
06/05/10 00:28:59 EKw6ZpzP0
URLフィルタの許可リストに*.7zを設定しても駄目なんですね。
なんでだろう。
615:名無しさん@お腹いっぱい。
06/05/10 00:41:28 DRFHjAvL0
なんかサンプルのURLある?
漏れも試す
616:614
06/05/10 01:21:27 EKw6ZpzP0
URLリンク(not.s53.xrea.com)
自分が試したのはここのファイル。
617:名無しさん@お腹いっぱい。
06/05/10 02:35:04 DRFHjAvL0
確かにリクエストさえ送れないね。なんででしょ。
618:名無しさん@お腹いっぱい。
06/05/10 08:05:19 C3VpD3a20
7-Zipって圧縮ファイルなのね。
はじめて知ったよ。
619:名無しさん@お腹いっぱい。
06/05/10 09:06:27 EXd/P5Hl0
準集、パスの途中で「.」が頭に付くディレクトリ名が入っていてもエラーを返すな・・・・
620:名無しさん@お腹いっぱい。
06/05/10 15:45:50 Hg4Dg4Ty0
先頭が数字だとダメなんかな。
変数も最初数字使えないし。
621:名無しさん@お腹いっぱい。
06/05/10 21:10:14 EXd/P5Hl0
>先頭が数字だとダメなんかな
駄目みたいだな。
どうやらファイルの拡張子の最初の一文字目が数字だとエラーになる模様。
既知の不具合?は他に
・ダウンロード中の待ち時間が有効にならない部分がある
・「javascript内のURL先は http:// のみ変換」で
ローカルに保存した際にリンク先が見られなくなってしまう事がある
・パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返す
といったところか。
622:名無しさん@お腹いっぱい。
06/05/12 17:07:14 CyaJVsOS0
GetHTMLW、URL残量50000とか出るorz
ネカフェから短時間で丸ごとダウンドローは辛い。。。
623:名無しさん@お腹いっぱい。
06/05/13 00:20:56 jdiEWgNW0
URLリンク(www.google.co.jp)
624:名無しさん@お腹いっぱい。
06/05/13 06:48:12 ybTFu6Xk0
URLリンク(www.vector.co.jp)
これ使ったことある人いますか?
625:名無しさん@お腹いっぱい。
06/05/13 20:37:03 ZOi5Wnm10
ブログなんかでよくある cat_1142593.html?p=2 や 2006-04.html_p=2 とかの
urlでもちゃんとオフライン(ローカル)で見られる取り込みソフトってありますか?
個々のブログの投稿記事自体は取り込めているんですけど、
URLリンク(blog.livedoor.jp) のような
最後に ?p=2 とついていると url自体はローカルパスに変換されているのですが
(file:///D:/Program%20Files/Downloader/巡集/junshu/blog.livedoor.jp/future5/archives/cat_1142586.html_p=2)
「サーバが見つかりません」となってページを表示できないんですよね。
webox、巡集とも駄目だったんで、困ってます。
これはサーバサイドにcgiなどのプログラムが動いているおかげで、
?などがつくurlが機能していて、そのためローカルにはそのようなプログラムがないため
表示できないということなのでしょうか?
これではローカルにお気に入りのブログを取り込んでも、まともに閲覧できないので
困ってます。
解決方法があれば教えてください。お願いします。
626:名無しさん@お腹いっぱい。
06/05/13 21:28:30 xXeGX2L00
Speeeed
627:名無しさん@お腹いっぱい。
06/05/21 02:44:50 b6NaPvt80
GetHTMLWのサイトとかBBSまだ有るの?
628:名無しさん@お腹いっぱい。
06/05/29 00:42:00 JUXlDIOb0
junshuでしかダウンロードできない画像ファイルがあるんですが
URL構造を再現しない方法はありますか?
もしくは他のツールで代用できませんでしょうか?
629:名無しさん@お腹いっぱい。
06/05/29 01:16:49 1H+fTScG0
そこは考え方を変えて、巡集でダウンロードしたあと
「複数のフォルダから下層にある画像ファイルを探索して、
抜き出して一つのフォルダ下に集めるプログラム」のようなものを
使ったり使わなかったりしながら整理するというのはどうだろうか
630:名無しさん@お腹いっぱい。
06/06/06 07:51:05 qkCzqdXk0
入力したURLのページがない場合、自動的にgoogleキャッシュ等から取得して上に表示されるキャッシュされた日付等を除去して保存できるソフトないでしょうか?
631:名無しさん@お腹いっぱい。
06/06/06 08:41:39 ksdWbR5q0
自分で作れば?
632:名無しさん@お腹いっぱい。
06/06/06 12:33:56 mNTKLJf30
Proxomitronでリダイレクトさせれば可能だな。
633:名無しさん@お腹いっぱい。
06/06/13 02:03:08 tJYFmeRW0
左にフレームがあるサイトとか
junshuでDLしようとすると、DL出来ず表示されなかったり
TOPに戻り、「左のフレームが表示されない場合は」のリンクがあるURLで
DL始めても、リンク先が「about:blank」ってなったりするのですが
フレームで区切ってある?サイトをDLするには、どうしたらいいでしょうか?
634:名無しさん@お腹いっぱい。
06/06/13 02:17:17 tJYFmeRW0
>>633
フレームサイトでもDL所もあります。
フレームのサイトで、フレームの部分だけDL出来ない所が多いんです。
635:名無しさん@お腹いっぱい。
06/06/13 02:32:45 VxBRFoPm0
URL
636:名無しさん@お腹いっぱい。
06/06/13 08:13:23 D+Qs/Pks0
>>634
DLできないサイトのほうが珍しいと思うが。
637:名無しさん@お腹いっぱい。
06/06/13 16:06:33 c33DC7pH0
フレームが通常index.htmlのはずだけど。
フレームの展開先のURLを指定してるとか?
638:名無しさん@お腹いっぱい。
06/06/13 18:40:44 338TCH+n0
URLを晒すと幸せになれるかもしんない。
639:名無しさん@お腹いっぱい。
06/06/18 13:04:12 wSTJWvth0
巡集で前回のままのフィルタで除外してしまったファイルを、
フィルタを外して再試行でダウンロードしようとしてもできなかった。
しょうがないのでいったん削除して、全てダウンロードし直しますた。
>>251>>253
過去ログをあさってたらこんなレスが。
この再試行不可なのは仕様なのかー。
640:名無しさん@お腹いっぱい。
06/06/19 08:01:49 dqgUGQtz0
641:名無しさん@お腹いっぱい。
06/06/22 09:20:23 uzO+jNTb0
642:名無しさん@お腹いっぱい。
06/06/23 21:24:02 cYsZ8A7S0
(´◕ω◕`)
643:名無しさん@お腹いっぱい。
06/06/24 02:27:59 qEZk/pQ+0
(´◕ω◕`)イイ!
644:名無しさん@お腹いっぱい。
06/06/26 08:06:18 wklS6px30
巡集のような、webサイトを保存するようなソフトが他にあれば教えてください。
645:名無しさん@お腹いっぱい。
06/06/26 09:18:17 arNW7AeZ0
>>644
このスレを全て読むと幸せになれますよ
646:644
06/06/27 08:37:13 rom9fVjk0
>>645
巡集くらい完璧にDLしてくれるソフトはありませんでした。
647:名無しさん@お腹いっぱい。
06/06/27 08:39:54 +5QX/POu0
幸せになったな
648:名無しさん@お腹いっぱい。
06/06/27 12:57:27 ubHJbSGC0
だったら巡集作者がバージョンアップするのを待てばいい
649:名無しさん@お腹いっぱい。
06/06/28 10:57:55 3IOsJQBi0
650:名無しさん@お腹いっぱい。
06/06/28 22:36:14 92cQ9ydu0
・GETHTMLWのユーザーエージェントを変更する
ユーザーエージェントによって拒否されることもあるので、それの回避法です。
バイナリエディタで「Pockey」と検索するとユーザーエージェントの文字列が出てくるので
それをお好みに書き換える。領域の長さの関係上、IE等の長いユーザーエージェントには
書き換えられない。OSのバージョンなどを削って適当に短くするかするか、
NetScape等の短いUAのものを使いましょう。
文字列の終端は 0D 0A 00 で終了させる。余ったところは0で埋める。
場所は、バージョン7.14.1だと0x63C00あたりです。
・巡集で、「巡回が拒否されました」というエラーが出るのを回避する
<META NAME=robots CONTENT="INDEX,NOFOLLOW"> などというタグがあるとそれを忠実に守って巡集が巡回を中止してしまいます。
これを回避するには、文字列を書き換えて強制的にタグにヒットしないようにします。
具体的には、バイナリエディタ等で「robots」を検索し、「robotX」などに書き換えます。
ver 1.6.1A だと、0x41C70あたりです。
この処置は非常に便利ですが、くれぐれも相手側のサーバーに負荷をかけ過ぎないように
注意してこれらのソフトを使用してください。
651:名無しさん@お腹いっぱい。
06/06/29 00:06:49 Sm203lko0
PangYa! Change Clothes Simulator
URLリンク(thunderbird.lar.jp)
このサイト保存する方法教えてください。
巡集じゃ、何もDL出来ませんでした。
652:名無しさん@お腹いっぱい。
06/06/29 00:49:08 magVV5uA0
Javascriptで暗号化されてるから無理だね。
GETHTMLWでプロキシモードにして、ブラウザで閲覧したページを保存していくのはどうだろうか?
653:名無しさん@お腹いっぱい。
06/06/29 01:56:34 Sm203lko0
>>652
出来ませんでした。
ゴミファイル?みたいなのが数個DL出来ただけ・・・。
暗号化されてるから無理なのでしょうか。
654:sage
06/06/29 07:13:52 magVV5uA0
プロキシモードで保存っていうのは、gethtmlwのマニュアルから引用すると
● 拡張 Proxy 機能(Proxy Mode 2)で、オンラインでのネットサーフィン時に
見たデータを全て保存できます。
・まるごと Get でなく、必要なものだけ取っておきたい、場合に便利
・もちろん、オフラインでの閲覧方法もオンライン時と同じ
というもの。
これでやってみた?
ただしいくつか問題があって、この方法でもJavaアプレット(Javaスクリプトではない)のように
ブラウザを介さないで通信するものの場合はうまく保存できない場合がある。(例:お絵かき掲示板のリプレイなど)
もうひとつは、GETHTMLWはURLにパラメーターが入ってると勝手に保存ファイル名を変えて、しかもリンクを書き換えないので
パラメーターが入ってるページを保存した場合、Explorer等からHTMLを開いてブラウザで見ることはできなくなる。
そういう場合はLocalModeで見るとうまくいく。
だからそういうパラメーター入りのページはgethtmlwのディレクトリごと保存してる。見るときはブラウザのプロキシを設定を変えないと
見れないのが面倒だが、この方法はページの再現度高い。
655:名無しさん@お腹いっぱい。
06/06/29 08:12:57 RD0dQ6vs0
>>650
巡集は取得設定で「HTMLのMETAタグを読まない」にチェックを入れると
全部取得できるんと違うの?
ところで「ファイルが更新されてるか確認」にチェックを入れないと
更新ファイルを取りに行かない仕様になったのはなぜでしょ。
1.5xまでは初期設定のままで更新ファイルも取ってきてくれたはず。
デフォでチェックのほうがいいとと思うんですけど。
656:名無しさん@お腹いっぱい。
06/06/29 10:40:16 Sm203lko0
>>654
ありがとうおございます。
やってみました。
駄目でしたね
657:654
06/06/29 18:31:15 magVV5uA0
とりあえず試してみたら取得できたっぽいけど・・・
まあ、もちろんProxy2モードで取得する場合、ブラウザで見たページしか保存されないけど。
どういう風にやって、どういう風に駄目なんですか?
658:名無しさん@お腹いっぱい。
06/06/30 02:24:21 XmRbNBQ00
あのね、ローカルモードで次々に取得ダイアログ出させるという方法もあるよ。
欲しいやつだけどんな風に飛ばされてるのか判るし。
GetHTMLWはURIのパースにちとバグがあってOperaみたいな標準に厳しい
ブラウザだと巧く使えないのが困る。
もうメンテされてないのかな?
659:名無しさん@お腹いっぱい。
06/06/30 05:12:26 Jk6AgcOW0
# GetHTMLW(標準取得)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Pockey-GetHTML/4.14.1 (Win32; GUI; ix86)
Accept: */*
Connection: keep-alive
# IE6 ⇒ GetHTMLW(Proxy Mode 2)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)
Accept: */*
Accept-Language: ja
Accept-Encoding: gzip, deflate
Connection: keep-alive
# GetHTMLW(標準取得)⇒ Proxomitronで補完
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)
Accept: */*
Accept-Language: ja
Accept-encoding: gzip, deflate
Connection: keep-alive
Referer: スレリンク(software板)
660:名無しさん@お腹いっぱい。
06/06/30 09:53:17 7cO984sA0
>>657-658
ありがとうございます。
なんとか取得できました。
が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
あまり実用的じゃないですね。
こーゆーサイトは、こーゆー手使うしかないのかな。
661:名無しさん@お腹いっぱい。
06/06/30 22:49:53 XmRbNBQ00
> が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
それができればその結果を見ながら取得条件をそれなりに作れないか?
あとは更新したときそれで回してやればいい。
662:名無しさん@お腹いっぱい。
06/07/02 02:29:45 isM9PPA70
巡集が久々の更新
ver 1.7 (2006/07/01)
* 認証パスが正確に保存されないバグを修正。
* BASIC認証時の処理を改善。
* 追加ダウンロード機能を追加。
- 追加URLタブに入力されたURLをすでにダウンロードされたファイルと同じ
フォルダ内に保存します。
* %を含むURLの判別処理を修正。
663:名無しさん@お腹いっぱい。
06/07/02 16:26:46 XcmbSRFm0
誰か準集の掲示板に
>>621の不具合報告してくれない?
どうも書き込めなくて_| ̄|○
664:名無しさん@お腹いっぱい。
06/07/03 13:17:44 r9jWzXf80
メールすればぁ?
665:名無しさん@お腹いっぱい。
06/07/03 18:21:20 JX+TxRmN0
>>663怠け者w
と
>>664イヤミw
666:名無しさん@お腹いっぱい。
06/07/03 18:21:58 7tfOkuGA0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │○│●│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │●│○│ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│ │ │ │ │ │ │ │ │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛
↓
667:名無しさん@お腹いっぱい。
06/07/03 23:55:40 hR8h/RGi0
ver 1.7.1 (2006/07/03)
* ファイルを指定してダウンロードを開始するとリンクを辿らないバグを修正。
* HTMLのダウンロード時の待ち時間が反映されないバグを修正。
* パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返すバグを修正。
* ファイルの拡張子の最初の一文字目が数字だとURLエラーになるバグを修正。
スパムフィルタに引っかかって掲示板に反映されなかったけど
作者さんには届いていたみたいで修正されていました。
例によって仕事が速いっ。
668:名無しさん@お腹いっぱい。
06/07/06 01:40:30 +r4X3LGm0
www.microsoft.com/japan/technet/security/bulletin/ms06-032.mspxなどの場合、
<META HTTP-EQUIV="Refresh" CONTENT="0.1; URL=【同URL】>で同一アドレスに
リフレッシュ後本体が落ちてくる。
GetHTMLWでは、「取得条件設定」→ [移動Pageの完全追跡] を黒チェックにしても
[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
URL毎の条件設定では正規表現が使えないし・・・
「Proxy Mode 2」 又は、同URLを再度取得実行すれば【有効】のままでも取得できるけど・・・
更新チェックしながら一気に取得する方法ありませんか?
669:名無しさん@お腹いっぱい。
06/07/07 21:41:11 UczzMvQa0
ダウンロード SPIDER
右クリ文字化けしてもたよ・・・・・
670:名無しさん@お腹いっぱい。
06/07/08 05:37:47 +tA7Wsvb0
> GETHTMLW
こんなクソソフトが何で取り込みツールの代表みたいにのさばってんだよ
671:名無しさん@お腹いっぱい。
06/07/08 06:33:28 sn8S3sd80
使い方判らない人登場。
672:名無しさん@お腹いっぱい。
06/07/08 08:45:36 VZy8auUo0
わろた
673:名無しさん@お腹いっぱい。
06/07/08 10:20:01 +tA7Wsvb0
バーカ
もっといいソフトがあるんだよw
ベクターにも載ってないようだが
つーか、ベクターでさえコイツが一番人気のソフトになってるみたいだなw
674:名無しさん@お腹いっぱい。
06/07/08 10:38:31 +tA7Wsvb0
まぁたぶん使用目的が偽装されてるからだろうな
675:名無しさん@お腹いっぱい。
06/07/08 12:01:03 UBvbKXaB0
わろた
676:名無しさん@お腹いっぱい。
06/07/08 13:39:28 okIMli3x0
>>673
kwsk
677:名無しさん@お腹いっぱい。
06/07/08 15:26:06 jF3Apejg0
だいたいな、ページ保存してパス設定してローカルでサイトを閲覧する工程を
自動でやるソフトが
導入の時点でこんな手間かけないと使えないこと自体がおかしいわけで
678:名無しさん@お腹いっぱい。
06/07/08 21:08:26 VpYiRS6G0
いいのって何なの?
679:名無しさん@お腹いっぱい。
06/07/09 02:26:38 MbLApNxB0
>>668自己レス。
1回でも取得すると、その後は連続取得可能に成る事が確認できた。
先ず1つのURLを取得する。
後、そのURLを含めて「複数URL指定取得」で一気に取得する。
これでバッチリOK。
ベタなやり方だけど、これしか無いような。
Proxomitronで弄りまくったけどダメだった。
が、ログをよく見てたら「Proxy Mode 2」はブラウザの挙動そのままだった。
・・・うっ 当たり前かorz
あと、>>668訂正。
>[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
[8:更新チェックを行う] を【無効】にしてもダメです。
ネットを切らないと再現しない事に気付かず早とちりしてしまいました。
680:名無しさん@お腹いっぱい。
06/07/09 13:31:01 v4TIo4jy0
GetHTMLWが難しいとか面倒とか行ってるやつはIE使っとけよ。
そもそもいちいち保存しなくてもお前の欲しいのは大抵
インターねっつにあるから心配するな。
681:名無しさん@お腹いっぱい。
06/07/09 20:13:43 IaGYU6z00
というより作者がへぼいだけだろw
682:名無しさん@お腹いっぱい。
06/07/10 12:09:39 vKtpvjKF0
初心者は馬鹿でも使える巡集を使っとけ
巡集で落ちないサイトは諦めろ
683:名無しさん@お腹いっぱい。
06/07/10 18:54:53 f2qghtk60
gethtmlwにあって巡集にないものとは?
684:名無しさん@お腹いっぱい。
06/07/11 01:03:35 jHSax2iS0
JavaScriptをダウンできないとか?
685:名無しさん@お腹いっぱい。
06/07/11 01:04:07 jHSax2iS0
ごめん間違ったよ
686:名無しさん@お腹いっぱい。
06/07/11 07:04:08 R0aWstP70
>>684-685
それ、逆だね。
JAVA FLASH
GETHTMLW × ×
巡集 ○ ○
687:名無しさん@お腹いっぱい。
06/07/11 07:13:28 HZp1e1RR0
gethtmlw糞じゃん
688:名無しさん@お腹いっぱい。
06/07/11 11:54:25 N0SA11Kz0
やはり俺が使ってる巡集は良ソフトだな
689:名無しさん@お腹いっぱい。
06/07/11 15:05:23 C3GAtwwn0
>>686
JAVAじゃなくてJavaScripだからな念のため
この二つは全然違うものだから
690:名無しさん@お腹いっぱい。
06/07/11 16:04:11 6ec6orra0
巡集でJavaScriptDL出来れば最強
GETHTMLWいらない。
691:名無しさん@お腹いっぱい。
06/07/11 19:42:13 c2z8nrEF0
結論は前スレで出たのに何でいまさらそんなこといってるの
692:名無しさん@お腹いっぱい。
06/07/11 21:37:36 FOCW558y0
昭和年月米潜水艦放魚雷本命中5本不発小破う幸運艦安川孝雄城本高輝読売孝子用紙梱包後昭和年月日北方海域米潜水艦雷撃受魚雷中沈没案現在駐輪場積極的
693:名無しさん@お腹いっぱい。
06/07/11 23:35:34 qMsR4eKh0
pixGet
直りんダウンローダー
Website Explorer
巡集
これだけ揃えてもまだちょっと
やはり巡集にjavascript対応すればなぁ
694:名無しさん@お腹いっぱい。
06/07/12 01:19:56 IOcgVf0g0
日本語でおk
695:名無しさん@お腹いっぱい。
06/07/12 09:12:12 p5txB6RR0
s = "URLリンク(";)
s = s + "abc.htm";
こんなスクリプトも書けるのにどうやってURLを見つけろというのか
696:名無しさん@お腹いっぱい。
06/07/12 09:32:30 NDj8wzrr0
バックグラウンドでGeckoやIEエンジンにHTMLを描画させて
そこからURLを抽出する方法があるかな
697:名無しさん@お腹いっぱい。
06/07/12 12:10:45 IOcgVf0g0
全てのスクリプトに対応するのは無理だとしても
よく使われてるやつくらいは普通にDLできるようにしてほしい
698:名無しさん@お腹いっぱい。
06/07/12 13:23:15 LYcXZJBt0
巡集 ver1.7.1 使ってます。
URLリンク(lushie.priston.s3p.net)
このサイト。
DLするURLをTOPにすると、なぜかうまくDL出来ないので
このサイトのどこか適当なURL(アカウント情報とか)でDLすると
うまくDL出来たのですが、コミュニケーションのBBSメニュー
URLリンク(lushie.priston.s3p.net)
ここまでは、DL出来るんです
その先の、掲示板がDL出来ません。
掲示板のURLは
URLリンク(lushie.priston.s3p.net)
こんな感じのです。
URLフィルタはチェック入れてません。
詳細設定は
取得するファイル類の上位階層、外部サーバの二つだけにチェックです。
他全部にチェック入れて試しましたが
余分な物までDLするだけで、この掲示板はDLされませんでした。
どうやれば掲示板までDL出来るようになりますか?
699:名無しさん@お腹いっぱい。
06/07/12 13:40:08 5yC8oRyc0
>>698
とりあえずBBSはログイン必須のようなので、ユーザー認証の設定が必要。
あとBBSのDLは普通に無理。
700:名無しさん@お腹いっぱい。
06/07/12 16:08:58 LYcXZJBt0
>>699
ありがとうございます。
BBSのDLは出来ない仕様だったんですね。
BBSもDL出来るようになるといいな。
701:名無しさん@お腹いっぱい。
06/07/12 16:17:16 LYcXZJBt0
某サイトを巡集で半日。
残りファイル数200万。
今もドンドン増え続けてる。
諦めるか。
702:名無しさん@お腹いっぱい。
06/07/12 16:21:17 5yC8oRyc0
>>700
BBSがDL出来ない理由。
BBSは書き込みデータをスクリプトでhtmlに変換して表示している。
スクリプトには表示条件を渡す必要がある。
表示ページだけの保存は出来るけれど、オフラインでオンラインと同じ閲覧は無理。
703:名無しさん@お腹いっぱい。
06/07/12 16:58:02 AvQQm1GN0
ローカルにサーバー立てて再現すれば…
まあ、あまり意味ないけど。
704:名無しさん@お腹いっぱい。
06/07/12 18:38:41 eG0zoUk50
>>701
そこまでして保存したいサイトが知りたい
705:名無しさん@お腹いっぱい。
06/07/12 20:53:46 LYcXZJBt0
300万超えちゃった。
いつになったら終わるんだろう。
706:名無しさん@お腹いっぱい。
06/07/12 20:54:57 LYcXZJBt0
>>702
ありがとう。
自分でhtmlで保存して、リンク書き換えて使います。
707:名無しさん@お腹いっぱい。
06/07/12 21:03:37 5yC8oRyc0
>>705
不要な外部サイトはフィルタリングしたら?
それとも1つのサイトだけで、そんなにファイルがあるの?
708:名無しさん@お腹いっぱい。
06/07/12 22:28:47 LYcXZJBt0
>>707
一つのサイト
残りファイル増えるばっかりだから、終了させた。
オンラインでいいや。
709:名無しさん@お腹いっぱい。
06/07/12 22:53:05 bVaCW9CI0
動的なページだと解析がうまく行かずにリンクが無限増殖するかもね。
同じページなのに「?」以降が微妙に違って別リンクと読んじゃうとか
710:名無しさん@お腹いっぱい。
06/07/13 07:26:36 0SzuAgk/0
>>697
> 全てのスクリプトに対応するのは無理だとしても
> よく使われてるやつくらいは普通にDLできるようにしてほしい
さっぱりわからん…。
711:名無しさん@お腹いっぱい。
06/07/13 08:06:48 oMRpENR90
>>697
してほしいならその「よくつかわれてるやつ」のパターンを作者に伝えるぐらいの努力はしないとな
712:名無しさん@お腹いっぱい。
06/07/13 10:38:21 kD1Dcb1X0
要望出しても対応してくれないことが多いよ
713:名無しさん@お腹いっぱい。
06/07/13 10:40:45 kD1Dcb1X0
Javascript使ってるサイトは少なくないんだから
DLできるようにしてほしいと思ってるやつは多いはずなんだけどねえ
714:名無しさん@お腹いっぱい。
06/07/13 18:44:10 M8TScjQx0
スクリプトってなんだよ
715:名無しさん@お腹いっぱい。
06/07/13 18:50:51 M8TScjQx0
>>693
これの中で一番使えるの何?
今は準集使ってるけど
716:名無しさん@お腹いっぱい。
06/07/13 20:52:34 0wv2DWcp0
>>715
どれが一番ではなくそれぞれ特化してるところを使ってるだけ
1個で全部やろうなんて考えない方がいいかと
あくまで画像HTML収集に使ってるものだけど他のファイルも収集できるかも?
私がわかっているのはこんなところ
よさげなDLツール集
URLリンク(www7.ocn.ne.jp)
Website Explorer
指定URLの外部以外のファイルを詳しく解析し丸ごとダウンロード
metaタグ(ロボット避け)で不能になる
直りんダウンローダー
URL指定Webページに直接リンクされたファイルを一括ダウンロード
他にも同じようのソフトあるけどこれが楽だから
(GetFiles・NextHttp・まいダウン・CompleteGetter)
DCさくらある人なら不要かとただIE使わなきゃいけないけど
pixGet
?img?で埋め込み画像・直リン画像・リンク先html→埋め込み画像など(拡張子指定でいろいろ)一括ダウンロード
他のIrvineなどのソフトのように驚異的なサーバー負担がないそうです
巡集
広告を取り除いてサイトを丸ごとダウンロード
metaタグ(ロボット避け)無効にできるなどなど
ある意味すれ違いな内容ですいません
717:名無しさん@お腹いっぱい。
06/07/13 22:22:50 M8TScjQx0
>>716
●⊂(゚∀゚ )ウンコセンキュゥー♪
718:名無しさん@お腹いっぱい。
06/07/14 18:53:48 MCyKxz4p0
>>668,679再自己レス www.microsoft.comの件。
スクリプト(UWSC)で完全自動化できました。
1.Proxy Modeに切り替えて小さなGIFをウインドウ非表示のIEで読み込む
2.IEを閉じ、Local Modeへ戻す
3.URLリストファイルをGetHTMLWに読み込ませて複数URL取得
4.完了
弄ってて気付いたんだけど「1」の応用。
Proxy Mode 2にしてIEを操作する・・・もちろんウインドウ非表示。
文を解釈するのは当然ながらIEなのでJavaScriptの問題が解決できるかも。
しかし複数のIEを同時に起動することになるのでメモリ消費が・・・
今の所必要性を感じないのでやる気は無いけど、そのうち(ry
あ、「拡張子/文字列フィルタ」「許容URLの設定」の他にgethtml.mcfの
設定も活用した方がいいですよね。あとはProxomitronも必須ですよ。
719:名無しさん@お腹いっぱい。
06/07/14 19:11:28 SZSAL1w00
GetHTMLWって難しいな
使いこなせればすごく便利そうなんだけど
720:名無しさん@お腹いっぱい。
06/07/15 02:53:07 hHqwiwZd0
慣れればなんともねぇよ。
721:名無しさん@お腹いっぱい。
06/07/15 11:32:58 qEvRUBYL0
さっきコミックをダウンロードして
早速DVDーRに落とそうとしたのですが容量が大きいんです。
それで圧縮したまま落としたんですが今度は
コミックの画像をめくろうとしてもめくれなくなりました。
(すべて展開したときはめくれました)
そこでDVD-Rにコミックを上手に落とすやり方を教えてください。
722:名無しさん@お腹いっぱい。
06/07/15 11:55:12 xOdIpxC00
>>719
巡集で十分だから
使いこなす必要ないけど。
723:名無しさん@お腹いっぱい。
06/07/15 13:37:18 Shf58z9z0
html取り込んだときの、ページに挿入された画像なんかのパスは
どうなるの?
紙っていうソフトは取り込んだページの入ったフォルダを
別のディレクトリに置くと画像を表示できないんだけど
>>716
のソフトだとどうなの?
724:名無しさん@お腹いっぱい。
06/07/15 15:57:26 7zWws+CR0
どのソフトでもファイルを移動したら画像は見れないと思うが
725:名無しさん@お腹いっぱい。
06/07/15 16:42:51 8ajsOzSX0
いや、保存したページの入ってるフォルダのディレクトリの位置を変更した場合
726:名無しさん@お腹いっぱい。
06/07/15 16:46:54 SuSc2z8C0
普通は相対パスで記述されるから関係ないが、
紙ってのは、絶対パスで記録されてるの?
727:名無しさん@お腹いっぱい。
06/07/15 16:54:06 8SM57SL40
いんや相対パスもおk
728:名無しさん@お腹いっぱい。
06/07/15 17:39:42 8ajsOzSX0
有料版のkamicopiだけじゃないか?
紙2001の場合フォルダ位置変更したら悲惨
紙のようにすばやく取り込めてフォルダ移動しても画像が表示できるソフト
ないもんかな
729:名無しさん@お腹いっぱい。
06/07/15 22:41:17 43PQJzAZ0
紙はスクラップソフトで、丸ごとDLがメインのソフトじゃないからなあ
スレ違いのような気がする
730:716
06/07/15 23:47:53 F7aEEzWq0
>>723
紙がどうかは知りませんが
meta入りでなければ
Website Explorer
meta入りなら巡集
どちらもフォルダを丸ごとダウンロードなので画像&htmlなども一緒にダウンロードし
パスを表示するように変えていた気がします
731:名無しさん@お腹いっぱい。
06/07/16 09:48:14 1ZAmFtGK0
>>730
サンクス
HPを丸ごと保存したい時は便利なんだけど
ちょこっと取り込みたい時に相対パスにしたい場合は
やはり有料版を使うしかないのかなぁ…
732:名無しさん@お腹いっぱい。
06/07/16 11:38:38 nPjx6XBw0
gethtmlw 7.9.1>>>>直りんダウンローダー>>巡集>>>>>>>>>>>>>>>>>>>>>>>>>>>>gethtmlw
733:名無しさん@お腹いっぱい。
06/07/17 23:55:13 ynpOyNfH0
>731
相対パスな気がするけど違った?
734:名無しさん@お腹いっぱい。
06/07/18 00:40:29 wueRf7jg0
>>733
ひそかに無料版は絶対パスなんですよ…
酪西さんもせめて絶対パスくらいは無料版に入れておいてほしい…
質問掲示板にタマだかポチだか変なのがいるし
735:名無しさん@お腹いっぱい。
06/07/18 12:00:49 bAxP/BsX0
巡集より優秀なのないの?
736:名無しさん@お腹いっぱい。
06/07/18 12:08:19 avwMWO5e0
シェアソフトならいくらでも
737:名無しさん@お腹いっぱい。
06/07/19 23:36:12 hKuheq9p0
巡集
最近よくエラーで終了する。
また、最初からやり直し・・・。
サイトのファイル数が多いとよくなる。
738:名無しさん@お腹いっぱい。
06/07/20 00:18:04 LxXNZBci0
ああああああああああ
GetHTMLWの使い方忘れてもうた
739:名無しさん@お腹いっぱい。
06/07/20 00:24:00 LxXNZBci0
だめだ。
チョット前に、やっとこさ使い方覚えたのに。
740:名無しさん@お腹いっぱい。
06/07/20 05:40:26 XOz33T4X0
ウェブサイトエクスプローラーで取り込んだら
ページ内のリンクのパスが元のままで
クリックしても取り込んだリンク先のページに飛ばないんだけど
ブログとか。
やっぱり準州のほうがいいのだろうか
何が原因なのか教えてくださいm( __ __ )m
741:名無しさん@お腹いっぱい。
06/07/20 09:03:11 mo1/yRgW0
巡集で落としてみればいいじゃん
742:名無しさん@お腹いっぱい。
06/07/20 09:24:54 Sg6gAdw70
>>741
これの簡単操作に慣れてるので…
743:名無しさん@お腹いっぱい。
06/07/21 07:15:24 5ZVcX/Xk0
URLリンク(www.moviecaster.net)
ここの動画をDLする方法教えてください。
ここの動画を自サイトに貼ってあるサイトがあるのですが
ここの動画のだけ、抜けてしまいます。
744:名無しさん@お腹いっぱい。
06/07/21 08:07:26 1Fmd0LJi0
スレ違い
他で聞け
745:743
06/07/22 10:09:03 qiY1LIfY0
なぜスレ違い?
巡集じゃ駄目だから聞いたのだけど。
746:名無しさん@お腹いっぱい。
06/07/22 10:38:31 gX4X7/d00
ここはサイトを丸ごとDLするスレで
動画をDLしたいならそういうスレがあるうだろうと
747:743
06/07/22 11:56:59 qiY1LIfY0
そのサイトに>>743の動画が埋め込まれていたのと
丸ごと取り込み が括弧なのと
他にスレが見当たらないので
ここで質問したのですが、スレ違いでしたか。
申し訳ないです。
スレ見つからないのですが、どこいけばいいですか?