お勧めダウンロード(丸ごと取り込み)ソフト2at SOFTWARE
お勧めダウンロード(丸ごと取り込み)ソフト2 - 暇つぶし2ch511:名無しさん@お腹いっぱい。
06/02/23 00:58:30 15iXoUUf0
>>508
iniファイルだけコピーして再インストールしてみたら?


512:名無しさん@お腹いっぱい。
06/02/23 19:25:50 Ro24FZ+70
>>511
再インスコ済み。
だめでした。


513:名無しさん@お腹いっぱい。
06/02/25 12:27:26 uDlmPjVo0
gethtmlw ver7.13 をダウンロード出来るところを教えて下さいな。

514:名無しさん@お腹いっぱい。
06/02/25 22:45:00 Jdz2tXgY0
巡集ver 1.6.1Aひとつき以上前にきてますた

* 「HTMLのリンク先の書き換え」を仕様変更。
* 「%を変換しない」の設定が保存されていなかった問題を修正。


515:名無しさん@お腹いっぱい。
06/03/04 19:06:17 yp3mhcW00
丸ごと保存

webox 0.98M
WEB収集ブラウザ
巡集ver 1.6.1A
gethtmlw ver7.13

さてどうするかな・・

516:名無しさん@お腹いっぱい。
06/03/04 22:44:21 6Q0tomxd0
WeBOX+巡集がおすすめ

517:名無しさん@お腹いっぱい。
06/03/05 00:03:25 yp3mhcW00
webox 0.98M にしたけど整理しやすくていい

518:名無しさん@お腹いっぱい。
06/03/05 01:01:00 m+NfEGgp0
誰かドラマ「ガチバカ」のおとついやったやつとその先週のやつをうpしてください

519:名無しさん@お腹いっぱい。
06/03/05 02:25:50 TUl37VjI0
997 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:20:22 ID:TUl37VjI0
ume

998 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:21:10 ID:eXjuMz/V0
ume

999 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:21:28 ID:wAf218z40
ume

1000 :名無しさん@お腹いっぱい。:2006/03/05(日) 02:21:33 ID:BuN/Pp330
   ∩___∩      
   | ノ      ヽ/⌒) あばばばばばば
  /⌒) (゚)   (゚) | .|  
 / /   ( _●_)  ミ/   ∩―-、
.(  ヽ  |∪|  /    / (゚) 、_ `ヽ
 \    ヽノ /      /  ( ●  (゚) |つ
  /      /      | /(入__ノ   ミ   あばばっあびゃばびゃばば
 |       /       、 (_/    ノ  
 |  /\ \       \___ ノ゙ ─ー
 | /    )  )       \       _     
 ∪    (  \        \     \
       \_)

988までが俺ね。
この時間に1000横取りする暇人がいるとは思わなかった
ちょっとびっくりさすがソフト板だなw


520:名無しさん@お腹いっぱい。
06/03/05 20:54:48 kuuPzXCV0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛


521:名無しさん@お腹いっぱい。
06/03/05 22:33:53 o/Ktu0s30
巡集はなぜか文字化けする

522:名無しさん@お腹いっぱい。
06/03/06 08:08:10 xX/GHnOX0
日本語サイトしか巡回してないせいかもしれないけど
一度も文字化けしたことはないな

523:名無しさん@お腹いっぱい。
06/03/06 10:06:02 Ha6oUKGG0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛



524:名無しさん@お腹いっぱい。
06/03/06 14:02:09 f7X9Gq2H0
画像、画像って何の画像を落としてるんだ?
そんなに画像が必要なのか?
さっさと白状してしまうんだな。
楽になるぞ!

525:名無しさん@お腹いっぱい。
06/03/06 15:14:17 rq1yDq/J0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │●│  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛
俺の勝ち

526:名無しさん@お腹いっぱい。
06/03/06 18:39:06 sRwxm9Lm0
ダウンロードソフトの最高峰がさらに進化。回線高速機能搭載版もラインナップ!
『ダウンロードNinja 4 for Windows』『ダウンロードNinja 4 マッハ for Windows』...発売のお知らせ
URLリンク(www.ifour.co.jp)

>●IE以外のブラウザに対応
> とり貯めたデータ(画像、URLなど)からインターネットにアクセスする時、
>これまではMicrosoft Internet Explorerしか使用出来ませんでしたが、
>今回のバージョンアップによりIE以外のお気に入りのブラウザを指定することが可能となりました。
>いちいち普段使わないブラウザを開いて、直前にコピーしたURLを貼り付けて・・こんな面倒な手間のかかる作業が解消されます。
>※各ブラウザによっていくつかの制限があります。

・・・てあるけど、↓のコレは何よw

対応ブラウザ
Internet Explorer 6.x/5.5x/5.0x
Netscape Navigator 4.7x/4.6x/4.5x
Netscape Communicator 4.7x/4.6x/4.5x

527:名無しさん@お腹いっぱい。
06/03/09 23:02:26 CJF43XrH0
javascriptによるリンク先も保存できるソフト、ありますか?
weboxはできませんでした。

528:名無しさん@お腹いっぱい。
06/03/09 23:18:58 CysL2inK0
つ 巡集

529:名無しさん@お腹いっぱい。
06/03/12 18:39:09 +TzmRTTx0
毎回決まったサイトに動画をダウンロードしにいくのがめんどくさいので、
指定サイトからいくつかの規則にしたがって、必要なファイルだけ
ダウンロードするソフトがほしいんですが、ないですか?
なければどなたか作っていただけませんか?
自分で作るのまんどくせ。
というか技術力なさそうなので1年くらいかかりそ。

【ダウンロード条件の例】
①ファイル名の規則性に基づく(movie[0-9]+.zipとか)
②毎回動画をおいてるhtmlが違う場合でhtmlをおいてあるドメインがいつもいっしょの場合は
 それを自動的にたどってダウンロードできる
などなど

530:名無しさん@お腹いっぱい。
06/03/12 18:40:08 +TzmRTTx0
>>529
作っていただける方がいらっしゃいましたら、
仕様のご提案をさせていただきます。

531:名無しさん@お腹いっぱい。
06/03/12 19:31:01 BIjZNavx0
>>529-530
◆こんなソフトウェアつくってください!~Part6~◆
スレリンク(software板)

製作依頼は上記スレでどうぞ。

532:名無しさん@お腹いっぱい。
06/03/12 23:08:09 PiQiW6Nk0
>>531
ありがとう。これから行ってきます

533:名無しさん@お腹いっぱい。
06/03/14 10:37:26 5bVRFzlh0
サバ落ち回避のために、1枚ずつHTMLにしてある画像をイリアみたいにまとめてダウンロードできる
フリーソフトないですか?

534:名無しさん@お腹いっぱい。
06/03/14 11:36:03 q2KI+mrR0
イリアでいいじゃん

535:名無しさん@お腹いっぱい。
06/03/14 11:45:09 4wZrZCnX0
>1枚ずつHTMLにしてある画像
ユトリマン丸出しだな。

536:名無しさん@お腹いっぱい。
06/03/14 21:02:38 GbnU6jh90
>>534
できれば苦労しないです。

537:名無しさん@お腹いっぱい。
06/03/15 18:34:34 PegQU67o0
誰かしらんとですか?

538:名無しさん@お腹いっぱい。
06/03/18 22:01:29 GcX+lPBs0
ふむ、これまでの俺の経験からすると、
一番確実に全部ダウンロードできるのが、GETHTMLW+巡集の組み合わせだな。
GETHTMLWはすばらしいソフトだが、JAVAスクリプト関係とかフラッシュ周りの追跡取得に弱い。

そこで巡集を使用し、巡集のプロキシにGETHTMLWを指定してやると、自動的にGETHTMLW側に
JAVAとかフラッシュを蓄える事ができ、しかもLOCALモードでも閲覧できるようになる。

ファイルが2重に出来ることになるので、巡集側のファイルは終わった後に消してOK。

まあ、巡集側でパス変換無効にして蓄えたファイルをGETHTMLWのフォルダにコピーしたのでも
似たようにできるけどね。上記のやり方は俺の趣味。

いかがかな?

539:名無しさん@お腹いっぱい。
06/03/18 22:40:45 H6+F+fuV0
ありがとうございました

540:名無しさん@お腹いっぱい。
06/03/19 00:41:19 rg2MNGxU0
ええ話や

541:名無しさん@お腹いっぱい。
06/03/21 19:42:57 1RJ/6erE0
GETHTMLWって7.14より7.13のほうがいいの?

542:名無しさん@お腹いっぱい。
06/03/22 14:05:34 COzmNFid0
分割DLついてるとかそんな違いだから

543:名無しさん@お腹いっぱい。
06/03/29 00:02:23 VgyOeFZJ0
てst

544:名無しさん@お腹いっぱい。
06/03/29 00:04:51 VgyOeFZJ0
てssy

545:名無しさん@お腹いっぱい。
06/03/29 00:07:45 pkpNhQ0J0
てs

546:名無しさん@お腹いっぱい。
06/03/30 19:46:25 Z65LfnHV0
ninja3の体験版つかってるんだけど、数時間の
ダウンロードとかするとやたらメモリ喰わない?
時間に比例してどんどんメモリ喰ってく。
この前メモリ使用量2GMB超えたとこでフリーズ・・・

547:名無しさん@お腹いっぱい。
06/03/31 00:00:09 fo/dVYvT0
それが、そのソフトに原因があると思ってるなら
大きな間違い

548:名無しさん@お腹いっぱい。
06/03/32 11:14:19 vUecKDGj0
右クリック禁止のサイトをダウンロードして右クリック可能にすることはできますか?

549:名無しさん@お腹いっぱい。
06/03/32 19:12:45 9cBOgu1+0
スレ違い

550:名無しさん@お腹いっぱい。
06/03/32 23:20:45 sRD/ACAn0
スレ違いだけど、右クリック禁止について質問するなんて
カワイイもんだw

551:名無しさん@お腹いっぱい。
06/04/08 04:55:49 hAsB5jcl0
Java、CGIまで落とせるのってないですか?

552:名無しさん@お腹いっぱい。
06/04/08 10:49:06 NdvpBHa40
困ったときは巡集

553:名無しさん@お腹いっぱい。
06/04/08 11:47:06 sGNgLdHp0
巡集ならJava、Flashまでは対応してる。
当たり前だけど、CGIは静的な結果しか保存できない。

554:名無しさん@お腹いっぱい。
06/04/08 18:14:10 l4QT8Kvs0
cgi 落とす・・・・

555:名無しさん@お腹いっぱい。
06/04/09 12:48:05 VchaA2+F0
>554
つ[F5アタック]

556:18ban
06/04/09 19:28:02 osngBrCz0
オハコ板を自動収集できるソフト、もしくはやり方を教えてくれ。

557:名無しさん@お腹いっぱい。
06/04/10 02:01:26 hGMMQeqP0
いやあだよ

558:名無しさん@お腹いっぱい。
06/04/10 12:22:02 hLSSFdIP0
gethtmlw 7.9.1って鮫島事件並の扱いなんだよね
それくらい危険なバージョン 以後非公開らしい
みんな公開するのを恐れてどこにも無い

559:名無しさん@お腹いっぱい。
06/04/10 12:22:57 hLSSFdIP0
思えば作者が消えたのも関係ありそうだな

560:名無しさん@お腹いっぱい。
06/04/11 03:07:48 NqsN4Igo0
>>558
んなわけが…

分割DLってだけでしょ

そんなのはソフト作れない9割以上の一般利用者の間だけの話。

561:名無しさん@お腹いっぱい。
06/04/11 09:16:22 dkInw5860
日本語でおk

562:名無しさん@お腹いっぱい。
06/04/11 10:43:30 gvI3eB4U0
>>558
鮫島事件って何ですか?

563:名無しさん@お腹いっぱい。
06/04/11 12:33:14 nxOzsNsW0
都市伝説

564:名無しさん@お腹いっぱい。
06/04/11 14:57:04 259t6R8D0
URLリンク(video.msn.com)

この動画を全て保存したいのですが、どんなソフトで可能でしょうか?

565:名無しさん@お腹いっぱい。
06/04/11 16:07:03 zGnFu0pK0
GetHTMLWのreadmeにVer.7.13から同時接続数を1に制限って書いてあるけど・・・
ってことは最強はVer.7.12ってことじゃまいか?

566:名無しさん@お腹いっぱい。
06/04/11 17:18:07 7hfB89FW0
多重DLでアク禁されてもいいならどーぞ

567:名無しさん@お腹いっぱい。
06/04/11 22:15:03 AuibSfRC0
かつてはその仕様のせいであちこちに迷惑かけた結果、はじくところが増えたんだよ
作者が長いこと放置していたし。

コレに限らず使い方次第では嫌われて当然なジャンルだから自覚してくれよ

568:名無しさん@お腹いっぱい。
06/04/11 23:05:19 FvXDGp/L0
URLリンク(music.j-total.net)←こういうサイトすべてダウンロードってできませんかね?
すべての歌手の譜面をダウンロードしたいんですが。

569:名無しさん@お腹いっぱい。
06/04/11 23:37:17 9zJxjO640
cgiだから無理

570:名無しさん@お腹いっぱい。
06/04/11 23:59:36 NqsN4Igo0
cgiに屈するなばか

571:名無しさん@お腹いっぱい。
06/04/12 10:35:26 dpcbxPWE0
Get web! with Image Browserってもうどこにも落とせるところない?
これ以上に使い勝手いい取り込みソフトなかったんだけどHDDと一緒に消えてしまった・・・

572:名無しさん@お腹いっぱい。
06/04/12 12:22:13 dpcbxPWE0
自己解決
URLリンク(web.archive.org)

てか直アド打っても落とせないのにwebarchive挟むと落とせるんだけどファイルまでバックアップするようになったのかここ…

573:名無しさん@お腹いっぱい。
06/04/12 12:30:14 lCZMs3TH0
は?

574:名無しさん@お腹いっぱい。
06/04/12 12:35:45 dpcbxPWE0
URLリンク(www.optpix.com)から ダウンロード
から落とせる・・・・んだがなんかファイル壊れてるな・・・

575:名無しさん@お腹いっぱい。
06/04/12 18:20:00 HPcmo7wS0
バイナリエディタでけつに0加える

576:名無しさん@お腹いっぱい。
06/04/12 18:55:58 vjF++Foe0
>>575
うお、マジthx!!
これでgethtmlw使わなくてすむ(ノД`゚・。

577:名無しさん@お腹いっぱい。
06/04/12 23:18:22 sCIe4qAx0
>>571
ぶっちゃけ、どう違うの?

578:名無しさん@お腹いっぱい。
06/04/13 00:35:37 nuQa6xIe0
GETHTMLWはJavaにもFlashにも対応してないから、
巡集の方が便利だと思うんだが、あえてGETHTMLWを使うメリットってあるの?

579:名無しさん@お腹いっぱい。
06/04/13 07:47:51 r8xDD0NA0
?

580:名無しさん@お腹いっぱい。
06/04/13 08:00:32 56ZLVIi80
巡集はまた更新が止まっちゃったね

581:名無しさん@お腹いっぱい。
06/04/13 11:42:41 pkiEVC+V0
というか、作者がどうなったかが心配になる

582:名無しさん@お腹いっぱい。
06/04/13 14:18:04 XpYA8ryZ0
>>577
使ってみれば解かる

583:名無しさん@お腹いっぱい。
06/04/13 20:55:31 G26hqSM40
波乗りおぼれすぎ
一回目と二回目では取得できるファイルとそうでないのがあるから困った
完全に取得できるソフトってないのかな

584:名無しさん@お腹いっぱい。
06/04/15 15:27:23 XHpUBv5Z0
WebReaperはどうかな?
くまかわ堂の日本語パッチを当てて使ってみたけど、
巡集に近い感じ。
IEのお気に入りを読み込むのが煩わしいけど。

585:名無しさん@お腹いっぱい。
06/04/15 16:32:01 O1SF+BR00
gethtmlw 7.9.1 って何ですか?幻のソフト?
その前にそんなのあるの?

586:名無しさん@お腹いっぱい。
06/04/15 16:38:41 iMp6kEEf0
WebReaperってuseragentはどうなってる?
巡集みたいに自由に設定できるの?

587:名無しさん@お腹いっぱい。
06/04/17 06:29:57 8nSr9SAm0

やっぱり保管サイトごと保存できるのが最強だよ。
HDにファイルだけ入れても何が何かわかんなくなるし

その機能に、差分取得機能。

あと、いろんなwebページに対応してるのが最強だな

588:名無しさん@お腹いっぱい。
06/04/17 17:25:17 ausgU4+i0
>>586
自由設定はできる模様。
(none)を選ぶと空欄になるので、
userAgent一覧からたとえば、
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0;)
を入力できる。

プリセットされているのは、次の項目。
"事前に定義されたブラウザ user-agent strings(&P)" Buttonで
(none)
WebReaper
Microsoft Internet Explorer
Netscape 4.5
Opera v3.5
ちなみに、入っているもは、「Microsoft Internet Explorer」を選ぶと、
Mozilla/4.0 (compatible; MSIE 6.0; Win32)
たしかIrvineと同じものなので、弾かれる所もあると思う。
Win2kSP4を使っているので上記で設定している。
なお詳細なログが出力されるので、取り込み失敗もわかりやすい。

589:名無しさん@お腹いっぱい。
06/04/17 22:48:39 byRupYbR0
>>588
詳細レス㌧
試してみるかな


590:名無しさん@お腹いっぱい。
06/04/18 21:07:19 colwsEdr0
blogを丸ごとゲットできるソフトってあります?
gethtml他色々試してみたのですがうまくいかないのです・・・。

591:名無しさん@お腹いっぱい。
06/04/18 21:15:42 YkmiwJ3t0
>>590
丸ごとが通常の閲覧と同じ意味をさすなら、cgiの取り込みを出来ますか?
と聞いているようなものなんだが。

592:名無しさん@お腹いっぱい。
06/04/18 21:39:28 colwsEdr0
>>591
すいません、ブログ内の画像やzip等のことです。
ブログにおける"そのページ内の"だけではなく"そのサイト全体にある"というような感じの。

593:名無しさん@お腹いっぱい。
06/04/19 03:56:53 vYNNZY310
僕たち純真無垢のageブラザーズ!
スレが盛り上がるようにageてあげるよ!
 ̄ ̄∨ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
  ∧_∧   ∧_∧    age
 (・∀・∩)(∩・∀・)    age
 (つ  丿 (   ⊂) age
  ( ヽノ   ヽ/  )   age
  し(_)   (_)J

594:名無しさん@お腹いっぱい。
06/04/19 07:47:24 15Ulvr7u0
>>591
cgiの取り込みって出きるの?

595:名無しさん@お腹いっぱい。
06/04/19 07:58:39 5EkfZIhn0
>>592
リンクが貼ってあれば、大抵のソフトなら取って来るはずだけど。
外部サーバのリンクを弾いてるだけじゃないの?

596:名無しさん@お腹いっぱい。
06/04/19 13:48:57 AOjTbGp70
ログインしなきゃ見れないサイト
巡集だとクッキー送って取得出来たけど
gethtmlだとクッキー送っても出来ない・・・。
ログインしてください の画面で止まってる。

597:名無しさん@お腹いっぱい。
06/04/19 19:35:00 kxNXyymu0
GIGAGETはどうですか?

598:名無しさん@お腹いっぱい。
06/04/19 21:45:19 adoUm4Fn0
アドウェア入りらしい
スレリンク(software板)

599:名無しさん@お腹いっぱい。
06/04/19 22:08:44 fPhCfjT+0
というか、丸ごと取り込みソフトとしてはスレ違いでは。

600:名無しさん@お腹いっぱい。
06/04/20 11:00:58 pWIZOtah0
>>592
WEBEX、NextHttp、Isabel、画浪(free)、MzGet、MIDown、
とかダウンロードツールの範囲だね。
Irvineが一番使いやすいと思うけど。NetTransportもね。
>>599氏の言うようスレ違いだと思う。
ダウンロードツールで目的の使いやすいものを選んでみたら?

601:名無しさん@お腹いっぱい。
06/04/21 15:05:34 R/SqYRIp0
GripIE
URLリンク(www.gripie.com)

FirefoxのDownThemAllのIE版

602:作者
06/04/22 14:12:21 ej/0ZIgw0
いやぁ 留置場にお世話になってました、でももう釈放されたんでこれからNewVerつくります。

603:名無しさん@お腹いっぱい。
06/04/22 14:57:38 0ZI/FZTa0
巡集が巡査にご厄介?

604:名無しさん@お腹いっぱい。
06/04/26 07:56:22 o8bSTe/60
数十万単位の画像がある大手サイトは自動でダウンロードできないところが多いな

605:名無しさん@お腹いっぱい。
06/04/26 09:13:17 TmlEQfko0
>>604
>>600


606:名無しさん@お腹いっぱい。
06/04/30 13:12:44 QK3Wf2y+0
WeBoXにエクセル、マウスの動作を記録するソフト等を組み合わせたらうまくとれるようになった。

エクセルの文字列操作が使える。これでURLのテキストを作ってWeBoXで読み込む。

マウスの動作を記録するソフトは遅いが、これなら手動でとれるものなら必ず取れる。


607:名無しさん@お腹いっぱい。
06/05/03 16:31:42 MQZcxWlv0
WebReaper使ってみたけど
日本語化した後、すべてのファイルで「開くの・失敗しました」って出て
まったくダウンロードの収集ができない(´・ω・`)

608:名無しさん@お腹いっぱい。
06/05/04 05:35:37 Q/91ZJyU0
テキストファイルに書かれているURLのリストを読み込んで
全てダウンロードしてくれるソフトってありますか?
あるいは、テキストファイルからリストを読み込んで
別々のFirefoxのタブで開けてくれるのでもいいです。

609:名無しさん@お腹いっぱい。
06/05/04 06:43:26 UpflJBuU0
>>607
>>588だけど、ユーザーエージェントは何を使っている?
自分は、Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0;)を
使っているけど。

試しに次のサイトを取り込んでみたけど、問題なく取り込めるよ。
取り込んだものは、ローカルファイルとして開く事ができる。
取り込み先は、C:\とは別ドライブのパーティションM:\
OutPost 2ch まとめサイト
URLリンク(www.geocities.jp)
でログは次のとおり。
「2006/05/04 6:20:36: ダウンロード完成
2006/05/04 6:20:36: 654は処理されて、4862進の168 htmlをリンクします。
9は失敗しました, 0は(変わりのない)でスキップされて、
12.2Mbは44sでダウンロードされました. データ転送速度: 283Kb/sec.」

ファイアーウォールでWebReaperを遮断していない?
ブラウザやダウンロードツールと一緒だよ。
もちろんユーザーエージェントの考え方も。
それから報告するときは取り込み先の、URLを書いてくれないと、
何故取り込めなかったか解らない。OSもね。

610:名無しさん@お腹いっぱい。
06/05/05 01:32:45 Pfsbr6+N0
>>608
GetHTMLW
一行目に[MultiURLSetting]と書いてある拡張子.musのテキストファイルが読み込める。
URL以外は認識しないのでコメント文も書ける。

関係ないけど、UWSCでの自動化は便利だよ。

611:名無しさん@お腹いっぱい。
06/05/05 02:36:46 /mWfEwO20
>>610
情報㌧!!

612:名無しさん@お腹いっぱい。
06/05/05 10:48:46 gcfReHxt0
ダウンローダー雨でも出来る

613:名無しさん@お腹いっぱい。
06/05/09 22:09:47 CRMbofru0
巡集ってファイル名の最後が7zで終わるファイルはダウンロード出来ない?

614:名無しさん@お腹いっぱい。
06/05/10 00:28:59 EKw6ZpzP0
URLフィルタの許可リストに*.7zを設定しても駄目なんですね。
なんでだろう。

615:名無しさん@お腹いっぱい。
06/05/10 00:41:28 DRFHjAvL0
なんかサンプルのURLある?
漏れも試す

616:614
06/05/10 01:21:27 EKw6ZpzP0
URLリンク(not.s53.xrea.com)
自分が試したのはここのファイル。

617:名無しさん@お腹いっぱい。
06/05/10 02:35:04 DRFHjAvL0
確かにリクエストさえ送れないね。なんででしょ。

618:名無しさん@お腹いっぱい。
06/05/10 08:05:19 C3VpD3a20
7-Zipって圧縮ファイルなのね。
はじめて知ったよ。

619:名無しさん@お腹いっぱい。
06/05/10 09:06:27 EXd/P5Hl0
準集、パスの途中で「.」が頭に付くディレクトリ名が入っていてもエラーを返すな・・・・

620:名無しさん@お腹いっぱい。
06/05/10 15:45:50 Hg4Dg4Ty0
先頭が数字だとダメなんかな。
変数も最初数字使えないし。

621:名無しさん@お腹いっぱい。
06/05/10 21:10:14 EXd/P5Hl0
>先頭が数字だとダメなんかな
駄目みたいだな。
どうやらファイルの拡張子の最初の一文字目が数字だとエラーになる模様。

既知の不具合?は他に
・ダウンロード中の待ち時間が有効にならない部分がある
・「javascript内のURL先は http:// のみ変換」で
 ローカルに保存した際にリンク先が見られなくなってしまう事がある
・パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返す

といったところか。

622:名無しさん@お腹いっぱい。
06/05/12 17:07:14 CyaJVsOS0
GetHTMLW、URL残量50000とか出るorz
ネカフェから短時間で丸ごとダウンドローは辛い。。。

623:名無しさん@お腹いっぱい。
06/05/13 00:20:56 jdiEWgNW0
URLリンク(www.google.co.jp)

624:名無しさん@お腹いっぱい。
06/05/13 06:48:12 ybTFu6Xk0
URLリンク(www.vector.co.jp)
これ使ったことある人いますか?

625:名無しさん@お腹いっぱい。
06/05/13 20:37:03 ZOi5Wnm10
ブログなんかでよくある cat_1142593.html?p=2 や 2006-04.html_p=2 とかの
urlでもちゃんとオフライン(ローカル)で見られる取り込みソフトってありますか?
個々のブログの投稿記事自体は取り込めているんですけど、
URLリンク(blog.livedoor.jp) のような
最後に ?p=2 とついていると url自体はローカルパスに変換されているのですが
(file:///D:/Program%20Files/Downloader/巡集/junshu/blog.livedoor.jp/future5/archives/cat_1142586.html_p=2)
「サーバが見つかりません」となってページを表示できないんですよね。
webox、巡集とも駄目だったんで、困ってます。

これはサーバサイドにcgiなどのプログラムが動いているおかげで、
?などがつくurlが機能していて、そのためローカルにはそのようなプログラムがないため
表示できないということなのでしょうか?

これではローカルにお気に入りのブログを取り込んでも、まともに閲覧できないので
困ってます。
解決方法があれば教えてください。お願いします。

626:名無しさん@お腹いっぱい。
06/05/13 21:28:30 xXeGX2L00
Speeeed

627:名無しさん@お腹いっぱい。
06/05/21 02:44:50 b6NaPvt80
GetHTMLWのサイトとかBBSまだ有るの?

628:名無しさん@お腹いっぱい。
06/05/29 00:42:00 JUXlDIOb0
junshuでしかダウンロードできない画像ファイルがあるんですが
URL構造を再現しない方法はありますか?

もしくは他のツールで代用できませんでしょうか?

629:名無しさん@お腹いっぱい。
06/05/29 01:16:49 1H+fTScG0
そこは考え方を変えて、巡集でダウンロードしたあと
「複数のフォルダから下層にある画像ファイルを探索して、
抜き出して一つのフォルダ下に集めるプログラム」のようなものを
使ったり使わなかったりしながら整理するというのはどうだろうか

630:名無しさん@お腹いっぱい。
06/06/06 07:51:05 qkCzqdXk0
入力したURLのページがない場合、自動的にgoogleキャッシュ等から取得して上に表示されるキャッシュされた日付等を除去して保存できるソフトないでしょうか?

631:名無しさん@お腹いっぱい。
06/06/06 08:41:39 ksdWbR5q0
自分で作れば?

632:名無しさん@お腹いっぱい。
06/06/06 12:33:56 mNTKLJf30
Proxomitronでリダイレクトさせれば可能だな。

633:名無しさん@お腹いっぱい。
06/06/13 02:03:08 tJYFmeRW0
左にフレームがあるサイトとか
junshuでDLしようとすると、DL出来ず表示されなかったり
TOPに戻り、「左のフレームが表示されない場合は」のリンクがあるURLで
DL始めても、リンク先が「about:blank」ってなったりするのですが
フレームで区切ってある?サイトをDLするには、どうしたらいいでしょうか?

634:名無しさん@お腹いっぱい。
06/06/13 02:17:17 tJYFmeRW0
>>633
フレームサイトでもDL所もあります。
フレームのサイトで、フレームの部分だけDL出来ない所が多いんです。

635:名無しさん@お腹いっぱい。
06/06/13 02:32:45 VxBRFoPm0
URL

636:名無しさん@お腹いっぱい。
06/06/13 08:13:23 D+Qs/Pks0
>>634
DLできないサイトのほうが珍しいと思うが。

637:名無しさん@お腹いっぱい。
06/06/13 16:06:33 c33DC7pH0
フレームが通常index.htmlのはずだけど。
フレームの展開先のURLを指定してるとか?

638:名無しさん@お腹いっぱい。
06/06/13 18:40:44 338TCH+n0
URLを晒すと幸せになれるかもしんない。

639:名無しさん@お腹いっぱい。
06/06/18 13:04:12 wSTJWvth0
巡集で前回のままのフィルタで除外してしまったファイルを、
フィルタを外して再試行でダウンロードしようとしてもできなかった。
しょうがないのでいったん削除して、全てダウンロードし直しますた。

>>251>>253
過去ログをあさってたらこんなレスが。
この再試行不可なのは仕様なのかー。

640:名無しさん@お腹いっぱい。
06/06/19 08:01:49 dqgUGQtz0



641:名無しさん@お腹いっぱい。
06/06/22 09:20:23 uzO+jNTb0



642:名無しさん@お腹いっぱい。
06/06/23 21:24:02 cYsZ8A7S0
(´◕ω◕`)

643:名無しさん@お腹いっぱい。
06/06/24 02:27:59 qEZk/pQ+0
(´◕ω◕`)イイ!

644:名無しさん@お腹いっぱい。
06/06/26 08:06:18 wklS6px30
巡集のような、webサイトを保存するようなソフトが他にあれば教えてください。

645:名無しさん@お腹いっぱい。
06/06/26 09:18:17 arNW7AeZ0
>>644
このスレを全て読むと幸せになれますよ

646:644
06/06/27 08:37:13 rom9fVjk0
>>645
巡集くらい完璧にDLしてくれるソフトはありませんでした。

647:名無しさん@お腹いっぱい。
06/06/27 08:39:54 +5QX/POu0
幸せになったな

648:名無しさん@お腹いっぱい。
06/06/27 12:57:27 ubHJbSGC0
だったら巡集作者がバージョンアップするのを待てばいい

649:名無しさん@お腹いっぱい。
06/06/28 10:57:55 3IOsJQBi0



650:名無しさん@お腹いっぱい。
06/06/28 22:36:14 92cQ9ydu0
・GETHTMLWのユーザーエージェントを変更する
ユーザーエージェントによって拒否されることもあるので、それの回避法です。
バイナリエディタで「Pockey」と検索するとユーザーエージェントの文字列が出てくるので
それをお好みに書き換える。領域の長さの関係上、IE等の長いユーザーエージェントには
書き換えられない。OSのバージョンなどを削って適当に短くするかするか、
NetScape等の短いUAのものを使いましょう。
文字列の終端は 0D 0A 00 で終了させる。余ったところは0で埋める。
場所は、バージョン7.14.1だと0x63C00あたりです。

・巡集で、「巡回が拒否されました」というエラーが出るのを回避する
<META NAME=robots CONTENT="INDEX,NOFOLLOW"> などというタグがあるとそれを忠実に守って巡集が巡回を中止してしまいます。
これを回避するには、文字列を書き換えて強制的にタグにヒットしないようにします。
具体的には、バイナリエディタ等で「robots」を検索し、「robotX」などに書き換えます。
ver 1.6.1A だと、0x41C70あたりです。

この処置は非常に便利ですが、くれぐれも相手側のサーバーに負荷をかけ過ぎないように
注意してこれらのソフトを使用してください。

651:名無しさん@お腹いっぱい。
06/06/29 00:06:49 Sm203lko0
PangYa! Change Clothes Simulator
URLリンク(thunderbird.lar.jp)

このサイト保存する方法教えてください。
巡集じゃ、何もDL出来ませんでした。

652:名無しさん@お腹いっぱい。
06/06/29 00:49:08 magVV5uA0
Javascriptで暗号化されてるから無理だね。
GETHTMLWでプロキシモードにして、ブラウザで閲覧したページを保存していくのはどうだろうか?


653:名無しさん@お腹いっぱい。
06/06/29 01:56:34 Sm203lko0
>>652
出来ませんでした。
ゴミファイル?みたいなのが数個DL出来ただけ・・・。
暗号化されてるから無理なのでしょうか。

654:sage
06/06/29 07:13:52 magVV5uA0
プロキシモードで保存っていうのは、gethtmlwのマニュアルから引用すると
● 拡張 Proxy 機能(Proxy Mode 2)で、オンラインでのネットサーフィン時に
見たデータを全て保存できます。
・まるごと Get でなく、必要なものだけ取っておきたい、場合に便利
・もちろん、オフラインでの閲覧方法もオンライン時と同じ
というもの。
これでやってみた?

ただしいくつか問題があって、この方法でもJavaアプレット(Javaスクリプトではない)のように
ブラウザを介さないで通信するものの場合はうまく保存できない場合がある。(例:お絵かき掲示板のリプレイなど)
もうひとつは、GETHTMLWはURLにパラメーターが入ってると勝手に保存ファイル名を変えて、しかもリンクを書き換えないので
パラメーターが入ってるページを保存した場合、Explorer等からHTMLを開いてブラウザで見ることはできなくなる。
そういう場合はLocalModeで見るとうまくいく。
だからそういうパラメーター入りのページはgethtmlwのディレクトリごと保存してる。見るときはブラウザのプロキシを設定を変えないと
見れないのが面倒だが、この方法はページの再現度高い。

655:名無しさん@お腹いっぱい。
06/06/29 08:12:57 RD0dQ6vs0
>>650
巡集は取得設定で「HTMLのMETAタグを読まない」にチェックを入れると
全部取得できるんと違うの?

ところで「ファイルが更新されてるか確認」にチェックを入れないと
更新ファイルを取りに行かない仕様になったのはなぜでしょ。
1.5xまでは初期設定のままで更新ファイルも取ってきてくれたはず。
デフォでチェックのほうがいいとと思うんですけど。


656:名無しさん@お腹いっぱい。
06/06/29 10:40:16 Sm203lko0
>>654
ありがとうおございます。
やってみました。
駄目でしたね

657:654
06/06/29 18:31:15 magVV5uA0
とりあえず試してみたら取得できたっぽいけど・・・
まあ、もちろんProxy2モードで取得する場合、ブラウザで見たページしか保存されないけど。
どういう風にやって、どういう風に駄目なんですか?

658:名無しさん@お腹いっぱい。
06/06/30 02:24:21 XmRbNBQ00
あのね、ローカルモードで次々に取得ダイアログ出させるという方法もあるよ。
欲しいやつだけどんな風に飛ばされてるのか判るし。
GetHTMLWはURIのパースにちとバグがあってOperaみたいな標準に厳しい
ブラウザだと巧く使えないのが困る。
もうメンテされてないのかな?

659:名無しさん@お腹いっぱい。
06/06/30 05:12:26 Jk6AgcOW0
# GetHTMLW(標準取得)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Pockey-GetHTML/4.14.1 (Win32; GUI; ix86)
Accept: */*
Connection: keep-alive

# IE6 ⇒ GetHTMLW(Proxy Mode 2)
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)
Accept: */*
Accept-Language: ja
Accept-Encoding: gzip, deflate
Connection: keep-alive

# GetHTMLW(標準取得)⇒ Proxomitronで補完
GET /test/read.cgi/software/1085915277/ HTTP/1.1
Host: pc7.2ch.net
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)
Accept: */*
Accept-Language: ja
Accept-encoding: gzip, deflate
Connection: keep-alive
Referer: スレリンク(software板)

660:名無しさん@お腹いっぱい。
06/06/30 09:53:17 7cO984sA0
>>657-658
ありがとうございます。
なんとか取得できました。
が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
あまり実用的じゃないですね。
こーゆーサイトは、こーゆー手使うしかないのかな。


661:名無しさん@お腹いっぱい。
06/06/30 22:49:53 XmRbNBQ00
> が、全てクリックしてブラウザで回らないと駄目なんですね・・・。
それができればその結果を見ながら取得条件をそれなりに作れないか?
あとは更新したときそれで回してやればいい。

662:名無しさん@お腹いっぱい。
06/07/02 02:29:45 isM9PPA70
巡集が久々の更新

ver 1.7 (2006/07/01)
* 認証パスが正確に保存されないバグを修正。
* BASIC認証時の処理を改善。
* 追加ダウンロード機能を追加。
 - 追加URLタブに入力されたURLをすでにダウンロードされたファイルと同じ
  フォルダ内に保存します。
* %を含むURLの判別処理を修正。

663:名無しさん@お腹いっぱい。
06/07/02 16:26:46 XcmbSRFm0
誰か準集の掲示板に
>>621の不具合報告してくれない?
どうも書き込めなくて_| ̄|○

664:名無しさん@お腹いっぱい。
06/07/03 13:17:44 r9jWzXf80
メールすればぁ?

665:名無しさん@お腹いっぱい。
06/07/03 18:21:20 JX+TxRmN0
>>663怠け者w

>>664イヤミw

666:名無しさん@お腹いっぱい。
06/07/03 18:21:58 7tfOkuGA0
┏━━━━━━━━━┓
┃┌─┬─┬─┬─┬─┬─┬─┬─┐┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │○│●│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │●│○│  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃├─┼─┼─┼─┼─┼─┼─┼─┤┃
┃│  │  │  │  │  │  │  │  │┃
┃└─┴─┴─┴─┴─┴─┴─┴─┘┃
┗━━━━━━━━━┛


667:名無しさん@お腹いっぱい。
06/07/03 23:55:40 hR8h/RGi0
ver 1.7.1 (2006/07/03)
* ファイルを指定してダウンロードを開始するとリンクを辿らないバグを修正。
* HTMLのダウンロード時の待ち時間が反映されないバグを修正。
* パスの途中で「.」が頭に付くディレクトリ名が入っているとエラーを返すバグを修正。
* ファイルの拡張子の最初の一文字目が数字だとURLエラーになるバグを修正。


スパムフィルタに引っかかって掲示板に反映されなかったけど
作者さんには届いていたみたいで修正されていました。
例によって仕事が速いっ。

668:名無しさん@お腹いっぱい。
06/07/06 01:40:30 +r4X3LGm0
www.microsoft.com/japan/technet/security/bulletin/ms06-032.mspxなどの場合、
<META HTTP-EQUIV="Refresh" CONTENT="0.1; URL=【同URL】>で同一アドレスに
リフレッシュ後本体が落ちてくる。

GetHTMLWでは、「取得条件設定」→ [移動Pageの完全追跡] を黒チェックにしても
[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
URL毎の条件設定では正規表現が使えないし・・・
「Proxy Mode 2」 又は、同URLを再度取得実行すれば【有効】のままでも取得できるけど・・・

更新チェックしながら一気に取得する方法ありませんか?

669:名無しさん@お腹いっぱい。
06/07/07 21:41:11 UczzMvQa0
ダウンロード SPIDER
右クリ文字化けしてもたよ・・・・・

670:名無しさん@お腹いっぱい。
06/07/08 05:37:47 +tA7Wsvb0
> GETHTMLW
こんなクソソフトが何で取り込みツールの代表みたいにのさばってんだよ


671:名無しさん@お腹いっぱい。
06/07/08 06:33:28 sn8S3sd80
使い方判らない人登場。

672:名無しさん@お腹いっぱい。
06/07/08 08:45:36 VZy8auUo0
わろた

673:名無しさん@お腹いっぱい。
06/07/08 10:20:01 +tA7Wsvb0
バーカ
もっといいソフトがあるんだよw

ベクターにも載ってないようだが
つーか、ベクターでさえコイツが一番人気のソフトになってるみたいだなw

674:名無しさん@お腹いっぱい。
06/07/08 10:38:31 +tA7Wsvb0
まぁたぶん使用目的が偽装されてるからだろうな


675:名無しさん@お腹いっぱい。
06/07/08 12:01:03 UBvbKXaB0
わろた

676:名無しさん@お腹いっぱい。
06/07/08 13:39:28 okIMli3x0
>>673
kwsk

677:名無しさん@お腹いっぱい。
06/07/08 15:26:06 jF3Apejg0
だいたいな、ページ保存してパス設定してローカルでサイトを閲覧する工程を
自動でやるソフトが
導入の時点でこんな手間かけないと使えないこと自体がおかしいわけで

678:名無しさん@お腹いっぱい。
06/07/08 21:08:26 VpYiRS6G0
いいのって何なの?

679:名無しさん@お腹いっぱい。
06/07/09 02:26:38 MbLApNxB0
>>668自己レス。
1回でも取得すると、その後は連続取得可能に成る事が確認できた。

先ず1つのURLを取得する。
後、そのURLを含めて「複数URL指定取得」で一気に取得する。
これでバッチリOK。

ベタなやり方だけど、これしか無いような。
Proxomitronで弄りまくったけどダメだった。
が、ログをよく見てたら「Proxy Mode 2」はブラウザの挙動そのままだった。
・・・うっ 当たり前かorz

あと、>>668訂正。
>[8:更新チェックを行う] を【無効】にしないとダメなので複数URL指定取得時に不便。
[8:更新チェックを行う] を【無効】にしてもダメです。
ネットを切らないと再現しない事に気付かず早とちりしてしまいました。

680:名無しさん@お腹いっぱい。
06/07/09 13:31:01 v4TIo4jy0
GetHTMLWが難しいとか面倒とか行ってるやつはIE使っとけよ。
そもそもいちいち保存しなくてもお前の欲しいのは大抵
インターねっつにあるから心配するな。

681:名無しさん@お腹いっぱい。
06/07/09 20:13:43 IaGYU6z00
というより作者がへぼいだけだろw

682:名無しさん@お腹いっぱい。
06/07/10 12:09:39 vKtpvjKF0
初心者は馬鹿でも使える巡集を使っとけ
巡集で落ちないサイトは諦めろ

683:名無しさん@お腹いっぱい。
06/07/10 18:54:53 f2qghtk60
gethtmlwにあって巡集にないものとは?

684:名無しさん@お腹いっぱい。
06/07/11 01:03:35 jHSax2iS0
JavaScriptをダウンできないとか?

685:名無しさん@お腹いっぱい。
06/07/11 01:04:07 jHSax2iS0
ごめん間違ったよ

686:名無しさん@お腹いっぱい。
06/07/11 07:04:08 R0aWstP70
>>684-685
それ、逆だね。
         JAVA FLASH
GETHTMLW   ×   ×
巡集        ○   ○



687:名無しさん@お腹いっぱい。
06/07/11 07:13:28 HZp1e1RR0
gethtmlw糞じゃん

688:名無しさん@お腹いっぱい。
06/07/11 11:54:25 N0SA11Kz0
やはり俺が使ってる巡集は良ソフトだな

689:名無しさん@お腹いっぱい。
06/07/11 15:05:23 C3GAtwwn0
>>686
JAVAじゃなくてJavaScripだからな念のため
この二つは全然違うものだから

690:名無しさん@お腹いっぱい。
06/07/11 16:04:11 6ec6orra0
巡集でJavaScriptDL出来れば最強
GETHTMLWいらない。

691:名無しさん@お腹いっぱい。
06/07/11 19:42:13 c2z8nrEF0
結論は前スレで出たのに何でいまさらそんなこといってるの

692:名無しさん@お腹いっぱい。
06/07/11 21:37:36 FOCW558y0
昭和年月米潜水艦放魚雷本命中5本不発小破う幸運艦安川孝雄城本高輝読売孝子用紙梱包後昭和年月日北方海域米潜水艦雷撃受魚雷中沈没案現在駐輪場積極的

693:名無しさん@お腹いっぱい。
06/07/11 23:35:34 qMsR4eKh0
pixGet
直りんダウンローダー
Website Explorer
巡集

これだけ揃えてもまだちょっと
やはり巡集にjavascript対応すればなぁ

694:名無しさん@お腹いっぱい。
06/07/12 01:19:56 IOcgVf0g0
日本語でおk

695:名無しさん@お腹いっぱい。
06/07/12 09:12:12 p5txB6RR0
s = "URLリンク(";)
s = s + "abc.htm";
こんなスクリプトも書けるのにどうやってURLを見つけろというのか

696:名無しさん@お腹いっぱい。
06/07/12 09:32:30 NDj8wzrr0
バックグラウンドでGeckoやIEエンジンにHTMLを描画させて
そこからURLを抽出する方法があるかな

697:名無しさん@お腹いっぱい。
06/07/12 12:10:45 IOcgVf0g0
全てのスクリプトに対応するのは無理だとしても
よく使われてるやつくらいは普通にDLできるようにしてほしい

698:名無しさん@お腹いっぱい。
06/07/12 13:23:15 LYcXZJBt0
巡集 ver1.7.1 使ってます。

URLリンク(lushie.priston.s3p.net)
このサイト。
DLするURLをTOPにすると、なぜかうまくDL出来ないので
このサイトのどこか適当なURL(アカウント情報とか)でDLすると
うまくDL出来たのですが、コミュニケーションのBBSメニュー
URLリンク(lushie.priston.s3p.net)
ここまでは、DL出来るんです
その先の、掲示板がDL出来ません。
掲示板のURLは
URLリンク(lushie.priston.s3p.net)
こんな感じのです。
URLフィルタはチェック入れてません。
詳細設定は
取得するファイル類の上位階層、外部サーバの二つだけにチェックです。
他全部にチェック入れて試しましたが
余分な物までDLするだけで、この掲示板はDLされませんでした。
どうやれば掲示板までDL出来るようになりますか?

699:名無しさん@お腹いっぱい。
06/07/12 13:40:08 5yC8oRyc0
>>698
とりあえずBBSはログイン必須のようなので、ユーザー認証の設定が必要。
あとBBSのDLは普通に無理。

700:名無しさん@お腹いっぱい。
06/07/12 16:08:58 LYcXZJBt0
>>699
ありがとうございます。
BBSのDLは出来ない仕様だったんですね。
BBSもDL出来るようになるといいな。

701:名無しさん@お腹いっぱい。
06/07/12 16:17:16 LYcXZJBt0
某サイトを巡集で半日。
残りファイル数200万。
今もドンドン増え続けてる。
諦めるか。

702:名無しさん@お腹いっぱい。
06/07/12 16:21:17 5yC8oRyc0
>>700
BBSがDL出来ない理由。
BBSは書き込みデータをスクリプトでhtmlに変換して表示している。
スクリプトには表示条件を渡す必要がある。
表示ページだけの保存は出来るけれど、オフラインでオンラインと同じ閲覧は無理。

703:名無しさん@お腹いっぱい。
06/07/12 16:58:02 AvQQm1GN0
ローカルにサーバー立てて再現すれば…
まあ、あまり意味ないけど。

704:名無しさん@お腹いっぱい。
06/07/12 18:38:41 eG0zoUk50
>>701
そこまでして保存したいサイトが知りたい

705:名無しさん@お腹いっぱい。
06/07/12 20:53:46 LYcXZJBt0
300万超えちゃった。

いつになったら終わるんだろう。

706:名無しさん@お腹いっぱい。
06/07/12 20:54:57 LYcXZJBt0
>>702
ありがとう。
自分でhtmlで保存して、リンク書き換えて使います。

707:名無しさん@お腹いっぱい。
06/07/12 21:03:37 5yC8oRyc0
>>705
不要な外部サイトはフィルタリングしたら?
それとも1つのサイトだけで、そんなにファイルがあるの?

708:名無しさん@お腹いっぱい。
06/07/12 22:28:47 LYcXZJBt0
>>707
一つのサイト
残りファイル増えるばっかりだから、終了させた。
オンラインでいいや。

709:名無しさん@お腹いっぱい。
06/07/12 22:53:05 bVaCW9CI0
動的なページだと解析がうまく行かずにリンクが無限増殖するかもね。
同じページなのに「?」以降が微妙に違って別リンクと読んじゃうとか

710:名無しさん@お腹いっぱい。
06/07/13 07:26:36 0SzuAgk/0
>>697
> 全てのスクリプトに対応するのは無理だとしても
> よく使われてるやつくらいは普通にDLできるようにしてほしい
さっぱりわからん…。

711:名無しさん@お腹いっぱい。
06/07/13 08:06:48 oMRpENR90
>>697
してほしいならその「よくつかわれてるやつ」のパターンを作者に伝えるぐらいの努力はしないとな


712:名無しさん@お腹いっぱい。
06/07/13 10:38:21 kD1Dcb1X0
要望出しても対応してくれないことが多いよ

713:名無しさん@お腹いっぱい。
06/07/13 10:40:45 kD1Dcb1X0
Javascript使ってるサイトは少なくないんだから
DLできるようにしてほしいと思ってるやつは多いはずなんだけどねえ

714:名無しさん@お腹いっぱい。
06/07/13 18:44:10 M8TScjQx0
スクリプトってなんだよ

715:名無しさん@お腹いっぱい。
06/07/13 18:50:51 M8TScjQx0
>>693
これの中で一番使えるの何?
今は準集使ってるけど

716:名無しさん@お腹いっぱい。
06/07/13 20:52:34 0wv2DWcp0
>>715
どれが一番ではなくそれぞれ特化してるところを使ってるだけ
1個で全部やろうなんて考えない方がいいかと
あくまで画像HTML収集に使ってるものだけど他のファイルも収集できるかも?
私がわかっているのはこんなところ

よさげなDLツール集
URLリンク(www7.ocn.ne.jp)

Website Explorer
指定URLの外部以外のファイルを詳しく解析し丸ごとダウンロード
metaタグ(ロボット避け)で不能になる

直りんダウンローダー
URL指定Webページに直接リンクされたファイルを一括ダウンロード
他にも同じようのソフトあるけどこれが楽だから
(GetFiles・NextHttp・まいダウン・CompleteGetter)
DCさくらある人なら不要かとただIE使わなきゃいけないけど

pixGet
?img?で埋め込み画像・直リン画像・リンク先html→埋め込み画像など(拡張子指定でいろいろ)一括ダウンロード
他のIrvineなどのソフトのように驚異的なサーバー負担がないそうです

巡集
広告を取り除いてサイトを丸ごとダウンロード
metaタグ(ロボット避け)無効にできるなどなど


ある意味すれ違いな内容ですいません


717:名無しさん@お腹いっぱい。
06/07/13 22:22:50 M8TScjQx0
>>716
●⊂(゚∀゚ )ウンコセンキュゥー♪

718:名無しさん@お腹いっぱい。
06/07/14 18:53:48 MCyKxz4p0
>>668,679再自己レス www.microsoft.comの件。
スクリプト(UWSC)で完全自動化できました。

 1.Proxy Modeに切り替えて小さなGIFをウインドウ非表示のIEで読み込む
 2.IEを閉じ、Local Modeへ戻す
 3.URLリストファイルをGetHTMLWに読み込ませて複数URL取得
 4.完了

弄ってて気付いたんだけど「1」の応用。
Proxy Mode 2にしてIEを操作する・・・もちろんウインドウ非表示。
文を解釈するのは当然ながらIEなのでJavaScriptの問題が解決できるかも。
しかし複数のIEを同時に起動することになるのでメモリ消費が・・・
今の所必要性を感じないのでやる気は無いけど、そのうち(ry

あ、「拡張子/文字列フィルタ」「許容URLの設定」の他にgethtml.mcfの
設定も活用した方がいいですよね。あとはProxomitronも必須ですよ。

719:名無しさん@お腹いっぱい。
06/07/14 19:11:28 SZSAL1w00
GetHTMLWって難しいな
使いこなせればすごく便利そうなんだけど

720:名無しさん@お腹いっぱい。
06/07/15 02:53:07 hHqwiwZd0
慣れればなんともねぇよ。

721:名無しさん@お腹いっぱい。
06/07/15 11:32:58 qEvRUBYL0
さっきコミックをダウンロードして
早速DVDーRに落とそうとしたのですが容量が大きいんです。
それで圧縮したまま落としたんですが今度は
コミックの画像をめくろうとしてもめくれなくなりました。
(すべて展開したときはめくれました)
そこでDVD-Rにコミックを上手に落とすやり方を教えてください。


722:名無しさん@お腹いっぱい。
06/07/15 11:55:12 xOdIpxC00
>>719
巡集で十分だから
使いこなす必要ないけど。

723:名無しさん@お腹いっぱい。
06/07/15 13:37:18 Shf58z9z0
html取り込んだときの、ページに挿入された画像なんかのパスは
どうなるの?

紙っていうソフトは取り込んだページの入ったフォルダを
別のディレクトリに置くと画像を表示できないんだけど

>>716
のソフトだとどうなの?

724:名無しさん@お腹いっぱい。
06/07/15 15:57:26 7zWws+CR0
どのソフトでもファイルを移動したら画像は見れないと思うが

725:名無しさん@お腹いっぱい。
06/07/15 16:42:51 8ajsOzSX0
いや、保存したページの入ってるフォルダのディレクトリの位置を変更した場合

726:名無しさん@お腹いっぱい。
06/07/15 16:46:54 SuSc2z8C0
普通は相対パスで記述されるから関係ないが、
紙ってのは、絶対パスで記録されてるの?

727:名無しさん@お腹いっぱい。
06/07/15 16:54:06 8SM57SL40
いんや相対パスもおk

728:名無しさん@お腹いっぱい。
06/07/15 17:39:42 8ajsOzSX0
有料版のkamicopiだけじゃないか?
紙2001の場合フォルダ位置変更したら悲惨

紙のようにすばやく取り込めてフォルダ移動しても画像が表示できるソフト
ないもんかな

729:名無しさん@お腹いっぱい。
06/07/15 22:41:17 43PQJzAZ0
紙はスクラップソフトで、丸ごとDLがメインのソフトじゃないからなあ
スレ違いのような気がする

730:716
06/07/15 23:47:53 F7aEEzWq0
>>723
紙がどうかは知りませんが
meta入りでなければ
Website Explorer
meta入りなら巡集

どちらもフォルダを丸ごとダウンロードなので画像&htmlなども一緒にダウンロードし
パスを表示するように変えていた気がします

731:名無しさん@お腹いっぱい。
06/07/16 09:48:14 1ZAmFtGK0
>>730
サンクス
HPを丸ごと保存したい時は便利なんだけど
ちょこっと取り込みたい時に相対パスにしたい場合は
やはり有料版を使うしかないのかなぁ…

732:名無しさん@お腹いっぱい。
06/07/16 11:38:38 nPjx6XBw0
gethtmlw 7.9.1>>>>直りんダウンローダー>>巡集>>>>>>>>>>>>>>>>>>>>>>>>>>>>gethtmlw

733:名無しさん@お腹いっぱい。
06/07/17 23:55:13 ynpOyNfH0

>731
相対パスな気がするけど違った?

734:名無しさん@お腹いっぱい。
06/07/18 00:40:29 wueRf7jg0
>>733
ひそかに無料版は絶対パスなんですよ…
酪西さんもせめて絶対パスくらいは無料版に入れておいてほしい…
質問掲示板にタマだかポチだか変なのがいるし

735:名無しさん@お腹いっぱい。
06/07/18 12:00:49 bAxP/BsX0
巡集より優秀なのないの?

736:名無しさん@お腹いっぱい。
06/07/18 12:08:19 avwMWO5e0
シェアソフトならいくらでも

737:名無しさん@お腹いっぱい。
06/07/19 23:36:12 hKuheq9p0
巡集
最近よくエラーで終了する。
また、最初からやり直し・・・。
サイトのファイル数が多いとよくなる。

738:名無しさん@お腹いっぱい。
06/07/20 00:18:04 LxXNZBci0
ああああああああああ
GetHTMLWの使い方忘れてもうた

739:名無しさん@お腹いっぱい。
06/07/20 00:24:00 LxXNZBci0
だめだ。
チョット前に、やっとこさ使い方覚えたのに。

740:名無しさん@お腹いっぱい。
06/07/20 05:40:26 XOz33T4X0
ウェブサイトエクスプローラーで取り込んだら
ページ内のリンクのパスが元のままで
クリックしても取り込んだリンク先のページに飛ばないんだけど

ブログとか。

やっぱり準州のほうがいいのだろうか

何が原因なのか教えてくださいm( __ __ )m

741:名無しさん@お腹いっぱい。
06/07/20 09:03:11 mo1/yRgW0
巡集で落としてみればいいじゃん

742:名無しさん@お腹いっぱい。
06/07/20 09:24:54 Sg6gAdw70
>>741
これの簡単操作に慣れてるので…

743:名無しさん@お腹いっぱい。
06/07/21 07:15:24 5ZVcX/Xk0
URLリンク(www.moviecaster.net)
ここの動画をDLする方法教えてください。

ここの動画を自サイトに貼ってあるサイトがあるのですが
ここの動画のだけ、抜けてしまいます。

744:名無しさん@お腹いっぱい。
06/07/21 08:07:26 1Fmd0LJi0
スレ違い
他で聞け

745:743
06/07/22 10:09:03 qiY1LIfY0
なぜスレ違い?

巡集じゃ駄目だから聞いたのだけど。

746:名無しさん@お腹いっぱい。
06/07/22 10:38:31 gX4X7/d00
ここはサイトを丸ごとDLするスレで
動画をDLしたいならそういうスレがあるうだろうと


747:743
06/07/22 11:56:59 qiY1LIfY0
そのサイトに>>743の動画が埋め込まれていたのと
丸ごと取り込み が括弧なのと
他にスレが見当たらないので
ここで質問したのですが、スレ違いでしたか。
申し訳ないです。
スレ見つからないのですが、どこいけばいいですか?

748:名無しさん@お腹いっぱい。
06/07/23 00:29:37 D2cdrWwl0
いまだにバージョン1.56の巡集を使ってる
最新バージョンはいろいろ機能が増えてるんだろうなあ
そろそろ切り替えようかな

749:名無しさん@お腹いっぱい。
06/07/23 02:16:31 I0SkJA950
使い分けすれば良いじゃん

750:名無しさん@お腹いっぱい。
06/07/23 08:33:05 6dax5LlF0
基本的にバグ修正だから、機能以前に新しいのにした方がいいよ。

751:名無しさん@お腹いっぱい。
06/07/23 09:35:19 HDARLGg50
wiki系DL出来るソフトってないですか?
巡集リンク辿ってくれないです。

752:名無しさん@お腹いっぱい。
06/07/23 09:48:31 LWSPeFzY0
>>749
使い分けする必要はないだろ?
最新版だけで充分

753:名無しさん@お腹いっぱい。
06/07/23 13:25:55 D1eTzzOP0
最新版はURLフィルタの登録が面倒なので1.55.5aと使い分けてるな。
UIも古いので慣れてるし。

754:名無しさん@お腹いっぱい。
06/07/23 15:53:32 bjHDzIQ30
オサーソだな

755:名無しさん@お腹いっぱい。
06/07/23 21:49:17 XuVdwTGj0
巡集1.56までは巡回禁止サイトでも落とせるんじゃなかった?
最新版でも落とせるの?

756:名無しさん@お腹いっぱい。
06/07/23 21:52:50 6dax5LlF0
> ver 1.57 (2004/10/27)
> * コマンドラインに -start と入れることで自動的にダウンロード開始。
> * 保存フォルダが参照されていないバグ修正。
> * 巡回が禁止されているサイトは辿れない仕様に変更。

巡回禁止サイトとか見ることないから、気にしてなかったが。

757:名無しさん@お腹いっぱい。
06/07/23 22:13:55 96xX6IgJ0
>>322によると巡回できそうだけど今のバージョンは無理なのかな?
あと>>650とか。


758:名無しさん@お腹いっぱい。
06/07/23 22:25:45 6dax5LlF0
METAタグを読まないで回避できるけど、
最近のサイトの作りだと無視したら弊害の方が大きそうだな。

>650の方法で、実行ファイルを弄ってやれば回避は出来た。

759:名無しさん@お腹いっぱい。
06/07/23 23:26:54 96xX6IgJ0
自分で書き換えするしかないのか。

760:名無しさん@お腹いっぱい。
06/07/23 23:56:23 9EfDbjx20
巡集作者の株式投資は順調なのか??

761:名無しさん@お腹いっぱい。
06/07/24 02:59:51 ODFw86KF0
書き換えなくても>>322で出来た。

762:名無しさん@お腹いっぱい。
06/07/24 03:11:07 ODFw86KF0
と思ったら途中で終了した。
出来てなかった。
残念。

書き換えてみた。
どうなるかな。

763:名無しさん@お腹いっぱい。
06/07/24 04:01:38 ODFw86KF0
結果同じ。

764:名無しさん@お腹いっぱい。
06/07/24 07:30:54 zZ/cf0g/0
あん?書き換えてもだめだったのか?

765:名無しさん@お腹いっぱい。
06/07/28 01:45:43 3BTczl/80
wiki系をDL出来るソフト教えてください。

766:名無しさん@お腹いっぱい。
06/07/29 10:54:34 wTKM0Z7g0
age

767:名無しさん@お腹いっぱい。
06/07/30 22:34:04 /iAGGsF40
HDDにどれだけ余裕があるんだ

768:名無しさん@お腹いっぱい。
06/07/31 06:45:10 Qh5TNdie0
インターネッツを使えばHDDはそんなに必要ありません。

769:名無しさん@お腹いっぱい。
06/08/01 00:04:10 SlGIcJRm0
インターネッツを一つください!

770:名無しさん@お腹いっぱい。
06/08/03 06:36:46 RjdRlgty0



771:名無しさん@お腹いっぱい。
06/08/04 17:18:46 WATol+TC0
gethtmlw 8.0

772:名無しさん@お腹いっぱい。
06/08/04 21:34:49 i4yt53ez0
>>771
うそつけ蛸

773:名無しさん@お腹いっぱい。
06/08/05 06:39:27 TO5G5TVH0



774:名無しさん@お腹いっぱい。
06/08/06 06:46:27 KP+Wbf4R0



775:名無しさん@お腹いっぱい。
06/08/06 22:08:30 60rmuwXp0
動画やネットラジオ保存ソフトのMPX2 Extreme Editionは使い勝手は
良いでしょうか?
保存の初心者なので市販ソフトのほうが無難だと思い、検索したらこの
ソフトしか見つけられなかったもので…。

宜しくお願いします。

776:名無しさん@お腹いっぱい。
06/08/06 23:49:40 oDHHiRG80
>>775

スレリンク(software板:743-746番)

777:名無しさん@お腹いっぱい。
06/08/12 10:17:02 aDABj0Tt0



778:名無しさん@お腹いっぱい。
06/08/14 10:05:49 XTehgQNA0
URLリンク(nirvana.s151.xrea.com)
このサイト、巡集で取得出来ないでしょうか?
.xreaがあるのが原因だと思い
広告削除設定無効にしてみましたが、駄目でした。
StirlingでrobotXにしても駄目でした。
1.56でも駄目でした。
URLフィルタは何も設定してません。

除外リンク-辿らなかったURLに
URLリンク(nirvana.s151.xrea.com)数字
が並んでます。

DL出来る方法があれば、教えてください。
よろしくお願いします。

779:名無しさん@お腹いっぱい。
06/08/14 10:58:28 gq5OngGZ0
とりあえずそのエラーを全部コピーして
ダウンロードリストに貼りつけたら行けたよ
全部落したわけじゃないけど

多分ローカルでのリンクが少しおかしくなるから
その辺はSpeeeedとかで上手くやればいいと主
「?」の位置が変なところにあるから解析に漏れてんのかな
よくわからん。

780:名無しさん@お腹いっぱい。
06/08/17 10:21:39 OWAii3rA0
>>538

のやり方教えて。

781:名無しさん@お腹いっぱい。
06/08/18 01:07:30 JQhDafy70
gethtmlw使ってますが、
URLリンク(www.planwell.com)
のサイトがうまく取り込めません。
cssの画像が取り込めてないようです。
どうやったら、とりこめるんでしょ

782:名無しさん@お腹いっぱい。
06/08/23 06:41:15 FWUQHZv/0
巡集だとふたばの画像が拾えない

783:名無しさん@お腹いっぱい。
06/08/24 09:56:05 QAgZj43b0
ふたばは専用のソフトがあったような

784:名無しさん@お腹いっぱい。
06/08/24 12:35:38 SlKi/ZY60
>>783
紹介きぼんぬ

785:名無しさん@お腹いっぱい。
06/08/24 13:59:14 QAgZj43b0
双助
やよネな

786:名無しさん@お腹いっぱい。
06/08/25 16:59:50 y/GD/V1c0
スレを読んで気になったので質問させてもらいます。

巡集1.71の取得設定欄のHTMLのMETAタグを読まないこと。
これにチェックするとMETAタグで巡回が禁止されているサイトを取り込むことができますが
METAタグを無視してDLする時やローカルでの閲覧に何か問題が起きることはありますか?
>>322>>758などに副作用や弊害があるかもしれないと書かれていて
それがどういうものなのかわからなくて、チェックしていいものか迷っています。
不具合がありそうな1.56を使うのも不安です。

URLリンク(www.sem-r.com)
URLリンク(www5.plala.or.jp)
ひっかかりそうなのはスタイルシートというやつことかなと思ったのですが
Webサイト製作の経験がないためよくわかりません。
できればどういう弊害があるのか教えてもらえないでしょうか。

787:名無しさん@お腹いっぱい。
06/08/27 22:54:37 /HV2MXu10
URLリンク(heika-love.cool.ne.jp)
ふたば専用ブラウザ「双助」専用スレ part3
URLリンク(www.2chan.net)

やよネな公式サイト
URLリンク(www1.ocn.ne.jp)

788:名無しさん@お腹いっぱい。
06/08/28 14:07:30 9PRpApm+0
掲示板の書き込みが消されたりする記録をのこしたいのですが

波乗り野郎

だと更新された(削除された)掲示板の情報が上書きされてしまいます
何かよいソフトはないでしょうか?

789:名無しさん@お腹いっぱい。
06/08/28 14:10:23 9PRpApm+0
掲示板の書き込みが削除されるログの記録を残したいのですが

波乗り野郎

だと更新された(削除された)掲示板の情報が上書きされてしまい
消えてしまいます。
何かよいソフトないでしょうか

790:名無しさん@お腹いっぱい。
06/08/29 19:03:24 zGeMnRIr0
ダウンロードした動画をメディアにコピーするにはどうしたらいいの?

791:名無しさん@お腹いっぱい。
06/08/30 07:56:37 /cNYJd5Z0
>>790
初心者板で聞きなさい

792:名無しさん@お腹いっぱい。
06/08/30 19:46:27 DURerKoS0
>>790
copy 動画 メディア [enter]

793:名無しさん@お腹いっぱい。
06/09/06 17:04:54 EelDBoKC0
海外のモデルの画像のページなんですが
flashを使用して作られているページを丸ごとダウンロードしたいんですが
おすすめソフトありますか?


794:名無しさん@お腹いっぱい。
06/09/06 18:30:00 uyqfiUko0
巡集

795:名無しさん@お腹いっぱい。
06/09/07 16:15:01 jc8i/ggF0
ベクターからDLしてるのに
IrvineにCnsMinがくっついてくるのはなぜー

796:名無しさん@お腹いっぱい。
06/09/09 01:48:49 4cug9ezl0
Irvineの作者がJWordと提携してるから

797:名無しさん@お腹いっぱい。
06/09/09 11:58:19 2cCsZj9l0
>>786がわかる人いませんか?

798:名無しさん@お腹いっぱい。
06/09/09 12:51:44 S9JR/hNz0
>>797
「METAタグ」で検索汁

799:名無しさん@お腹いっぱい。
06/09/09 13:21:44 2cCsZj9l0
ありがと
勉強してきます

800:名無しさん@お腹いっぱい。
06/09/10 10:59:25 AZjNt6d50
>>796
そうだったのか
今まで知らずに使ってたとは恐ろしす・・・

801:名無しさん@お腹いっぱい。
06/09/10 13:26:10 7oFMcAHG0
教えてください
ど素人な質問だと思いますが・・
動画のデモをダウンロードする時
メディアプレーヤーでダウンロード
する場合と、何も画面は変わらなくて
左下にダウンロード中と出る時があります。
後の場合の動画ををiriaやイメージダウン
ローダーで回収に行ってもオブジェクトが
移動しましたと出てうまくいきません・・・
巡集も試しましたが。
諦めるしかないのでしょうか。
よろしくお願いいたします


802:名無しさん@お腹いっぱい。
06/09/10 13:29:11 uJJpZWds0
URLださないと。

803:名無しさん@お腹いっぱい。
06/09/10 20:29:39 36AwB+xG0
Refererを設定すればいけるんじゃないの
と適当に答えてみる

804:名無しさん@お腹いっぱい。
06/09/13 02:59:30 wJvEZSj40
URLリンク(www.imagegarden.net)

ここのサイトの画像をまとめて落としたいんですけど何がいいでしょうか?
ちなみにダウンロードのソフト使ったことありません!!

805:名無しさん@お腹いっぱい。
06/09/13 03:36:31 Hdcrdpz20
level: ?精?
体力: 2515 / 2709
魅力: 2436 / 7582

エロ本屋行った方がいいと思う。

806:名無しさん@お腹いっぱい。
06/09/13 08:23:15 XLQYnqX20
>>804
スレリンク(software板)
できるかどうかわからんけど

807:名無しさん@お腹いっぱい。
06/09/13 12:43:40 wJvEZSj40
>>806
ありがとうございます。ですが、だめでした…orz

808:名無しさん@お腹いっぱい。
06/09/23 16:07:21 v9oHY50j0
他のアプリケーションによるダウンロードが始まると
自分が行っているダウンロードを一時停止して、
他のアプリケーションによるダウンロードが終わると
ダウンロードを再開するような機能を持つ
ダウンローダーはありませんか?

809:名無しさん@お腹いっぱい。
06/09/23 23:32:45 G4qzdWG10
ない

810:名無しさん@お腹いっぱい。
06/09/29 12:30:07 e0Al5cww0
ストリーミング配信って、落すたびに違うファイルになるの?
getasfstreamとnettransportdで同じ物落としたんだけど、
ファイルサイズとかデータが違っているんだけど。

聞いてみたら、どっちも一応流れる内容は同じっぽいけど。

811:名無しさん@お腹いっぱい。
06/09/29 12:36:48 8EQD7cx+0
>>810
スレ違い。

GASは独自にIndexを付加するので、他のDLソフトとは若干ファイルの中身が変わる。

812:名無しさん@お腹いっぱい。
06/09/29 13:06:32 e0Al5cww0
なるほど、そうなのか。
どもありがとです。

813:名無しさん@お腹いっぱい。
06/10/05 00:36:15 AcBVrZo80
画像のリンク先が別鯖になってるページを一括DLする方法を教えてください
今はそのページを表示し右クリックでIrvineにすべてのURLを送る方法でやってるんですが
画像が置かれてる鯖がばらばらでファイル名を連番でリスト化する事ができません
Gethtmlだと設定を甘くしないと落とせず、そのため無関係のファイルが1000以上もかかって
DLが止まらず強制終了する羽目になりました

814:名無しさん@お腹いっぱい。
06/10/05 03:42:41 AyCykCBW0
>>813
2:.(jpe?g|gif|png)
0:*

815:813
06/10/05 17:30:57 AcBVrZo80
>>814
出来ました。ありがとうございましたm(_ _)m

816:名無しさん@お腹いっぱい。
06/10/09 02:44:15 0hr+FYWF0
URLリンク(www.imagegarden.net)
ここの画像を全部落としたいんですが何を使えば一番よいですか。
今までDLツールはirvine使ってたんですが・・・。


817:名無しさん@お腹いっぱい。
06/10/09 10:09:30 YVk1nwxD0
>>816
ない

818:名無しさん@お腹いっぱい。
06/10/24 07:52:11 30KjC2v30
>>816
moeBBS

819:名無しさん@お腹いっぱい。
06/11/04 16:36:15 mL+rvDGK0
サイトを丸ごと取り込みたいのですが、フォルダに保存しておく方法が分かりません。
WEBOXの中に取り込むことは出来たのですが…。
圧縮でも何でも良いので保存する方法をご教授お願いします。ちなみに
何故か巡集は蹴られてしまったので…。

820:名無しさん@お腹いっぱい。
06/11/04 16:45:48 mL+rvDGK0
サイトを丸ごと取り込みたいのですが、フォルダに保存しておく方法が分かりません。
WEBOXの中に取り込むことは出来たのですが…。
圧縮でも何でも良いので保存する方法をご教授お願いします。ちなみに
何故か巡集は蹴られてしまったので…。

821:名無しさん@お腹いっぱい。
06/11/04 16:46:38 mL+rvDGK0
連続投稿すいませんorz

822:名無しさん@お腹いっぱい。
06/11/04 17:28:27 3vUQs0Vx0
ラピッドを落とせるダウンロードマネージャーは存在しますか。


823:名無しさん@お腹いっぱい。
06/11/05 00:02:59 QDCRsRBq0
専用スレあるよ

【サイト取り込み】WeBoX part5【ダウンロード】
スレリンク(software板)

824:名無しさん@お腹いっぱい。
06/11/19 12:39:07 il3hCipT0
DLorderってアプリ持ってる人いませんか?

ブラウザで表示された画像をD&Dで保存(ファイル名重複時にはリネーム)するアプリなんですけど。。。
作者HPは閉鎖されてしまっててどこにも残ってないのです・・・

825:名無しさん@お腹いっぱい。
06/11/19 12:55:04 IHPQ5hD70
ophcrackってファイルそのまんまんをCDに焼くだけにいいわけ?
誰か詳細知っているやついない?

826:名無しさん@お腹いっぱい。
06/11/19 16:23:25 6yDmKh4s0
>>825
誤爆か

827:名無しさん@お腹いっぱい。
06/11/20 13:53:18 2UIInUv/0
GetHTMLWで久しぶりに更新・ダウンロードすると
404になってたりする事が有る。これだとせっかく取得した
古いページがエラーページに上書きされるので困る。

こんなときに便利に使えるシンプル更新チェックソフトないですか?

GetHTMLWの右クリック→指定のアプリで開くから起動できるヤツで
コマンドラインで URL指定すると1レベルくらいのリンク更新日時と
簡単な内容だけをリストアップしてくれるような
サイズの小さいツール教えてください。

828:名無しさん@お腹いっぱい。
06/11/20 16:24:59 2LMkOGoa0
ここは更新チェックソフトを探すスレではない

829:名無しさん@お腹いっぱい。
06/11/20 21:52:37 2UIInUv/0
なんだこのやろう

830:名無しさん@お腹いっぱい。
06/11/20 21:56:13 64Z4n45l0
     ~~~~
  /        ヽ
 /   >~~~~~~~~/
 |  ∠  \  / |
| √  ⌒  <⌒ |   / ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄
 (6 ≡      \|   |  元気ですかー!
   ≡  ┌ __「|  <
   \   \_( |   |  1,2,3、ダー!
     \   ー |   |
      \___|   \_____________

831:名無しさん@お腹いっぱい。
06/11/21 00:01:19 gEhHqqxK0
ここは更新チェックソフトを探すスレではない

832:名無しさん@お腹いっぱい。
06/11/21 00:10:34 qe3Ting+0
googleのイメージ検索で出てきた画像を根こそぎ落とすダウンローダってない?
画像自動収集機なるものを使ってみたがうまくいかないので

833:名無しさん@お腹いっぱい。
06/11/21 00:56:07 Q/w/qXrp0
JSを使ってないほうのURLを指定すれば委員では?

834:名無しさん@お腹いっぱい。
06/11/22 20:57:14 Uobfwczv0
お邪魔します。
下記のサイトにある動画だけ落としたいのですが、(それが可能な)フリーソフトだと
どんなものがありますか。今、インストールしてあるダウンロードソフトはFlashGetなんですが、
使い方が悪いのか、落とすことができません。どなたかお分かりになる方、ご教示いただけると
ありがたいのですが・・・
よろしくお願いします。

URLリンク(users72.psychedance.com)

835:名無しさん@お腹いっぱい。
06/11/22 21:38:50 4TW9jZL+0
ソース見れば動画のアドレスはすぐわかったよ
URLリンク(users72.psychedance.com)
ってとこがあるから
URLリンク(users72.psychedance.com)
ってすればいい。後はお好みのダウンローダーで桶
ダウンローダー単体で解析は多分出来ないんじゃないかな~
フラッシュ関係はいろいろなパターンがあるからね
出来るのもあるかもしれないけど

で、やり方はいろいろあると思うけど
とりあえずリンクの右クリックから「リンク先を保存」とかして
それをメモ帳かなんかで開くというところから初めてはいかがか。
IEならリンクコピーしてview-source:**コピーしたURL**を
アドレスバーにいれてもいいか
こちらはProxomitronのフラッシュをリンクに変換するヤツでどうにかしてみたけど

むしろ「ダウンローダー総合スレ」的な話だな
スレリンク(software板)


836:名無しさん@お腹いっぱい。
06/11/23 08:07:36 0vnmkW920
>>835さま
親切かつ丁寧なレス、ありがとうございます。
教えていただいた通りの手順でソースを見たら、ありました・・・アドレス  初心者には、
かなり感激ものでした。今日は休みなので、ゆっくり楽しみながら落としてゆこうと
思っています。改めて、ありがとうございました  m(._.)m

837:名無しさん@お腹いっぱい。
06/11/28 02:25:35 pbrIyWeT0
巡集消えたーーー

838:名無しさん@お腹いっぱい。
06/11/28 10:03:24 xAncqFLL0
更新手続き忘れて消されちゃったとか?

839:名無しさん@お腹いっぱい。
06/11/28 21:00:22 tJI1N2Xs0
Wayback Machine

URLリンク(www.archive.org)  で

検索すると保存されてるかもよ。

840:名無しさん@お腹いっぱい。
06/11/28 21:33:58 UG43apkb0
そこは巡集でダウンしてあるからいいんだけど
サイトと作者さんに何かあったのか気になる

841:名無しさん@お腹いっぱい。
06/11/29 00:44:47 5cf9QNHD0
巡集一時消えてるのか
これがこのまま公開停止になっちゃったりすると大事だな
ちょっと心配だ

話しきり変えて、やっぱりここでは巡集の人気が高い?
上の方ではGETHTMLWの話がぽつぽつ出てきてたけど
俺の使ってるソフトは腕は確かだとは思うんだが知名度が無くてちょっと肩身が狭いよ。

842:名無しさん@お腹いっぱい。
06/11/29 01:01:29 zQwVT9rr0
自分が使いやすいと思うソフトならそれでいいじゃないか

巡集は初心者向けで設定が簡単なことと
javascriptに対応してるのが受けているんだと思うよ


843:名無しさん@お腹いっぱい。
06/11/29 13:13:25 KtzH0GGs0
何の目的で使ってるのかも定かでないので比較議論は隔靴掻痒

844:名無しさん@お腹いっぱい。
06/11/29 20:57:15 k76zH++W0
ヤフオクでオフィスソフトやデザインソフトの○○が無料!?っていうダウンロードソフトがあったんだがこれってなんていうソフト?
詳細希ボーン

845:名無しさん@お腹いっぱい。
06/11/29 21:32:40 0Z5462T70
WinnyかShareじゃないの

846:名無しさん@お腹いっぱい。
06/12/03 15:31:40 wQPPCqQZ0
cgiファイルそのまま落とせるソフトってない?
FTPのパス忘れちゃって

847:名無しさん@お腹いっぱい。
06/12/03 17:15:27 dW9lftAS0
原理的にない。


848:名無しさん@お腹いっぱい。
06/12/03 23:53:23 JSUX3K8E0
CLIのgethtml.exeを使っていて、
はじめに1プロセス起動して、urlを指定して取得させている。
このプロセスに後から取得urlを追加することは可能?

849:名無しさん@お腹いっぱい。
06/12/04 01:17:08 IhiZsqd50
無理だろ。残念ながら。

850:名無しさん@お腹いっぱい。
06/12/04 03:10:50 KPhz8vym0
ども。流石に無理っぽいな。ドキュメント読んでも触れていないし。

851:名無しさん@お腹いっぱい。
06/12/04 20:38:50 IhiZsqd50
ソースなり資料を公開してくれたら
俺が完全サーバ版作っても良かったんだが。
gethtmlももう古いよな。xml対応して欲しい。

852:名無しさん@お腹いっぱい。
06/12/04 22:06:05 KPhz8vym0
自分用WebArchive作れるダウンローダあればなー
NTFSとか先進的なファイルシステムならリンク張れるし。

853:名無しさん@お腹いっぱい。
06/12/05 00:02:20 aXo0xY+k0
gethtml.とか巡集とか俺の使ってない(知らない)ソフトの話が多いな
世界は広い

854:名無しさん@お腹いっぱい。
06/12/07 23:37:44 shhp34hA0
めっきり丸ごと取り込む(取り込める)サイトの数も減ったな
このジャンルも先細りかな

855:名無しさん@お腹いっぱい。
06/12/08 01:14:41 nAin7lhZ0
俺の保存サイトは増える一方ですが

856:名無しさん@お腹いっぱい。
06/12/08 02:59:14 6h62aRT60
> NTFSとか先進的なファイルシステムならリンク張れるし。
大昔のunixもリンク晴れますよ。


857:名無しさん@お腹いっぱい。
06/12/08 14:55:23 BCKj+N8k0
>>852
> 自分用WebArchive作(ry
機会あれば試してみたいが(入れて直ぐ消した)

Heritrix
>>839他、Web Archiveの中の人乙
なんだけど使ってる方いらっしゃいますか?

日本語不備なんですか。さいですかってのが
結構お約束なのか。これもそうだけど

rubyやperlの~みたく
マニュアル関連ドキュメントが展開されて
膨らんで100Mぐらい逝く気がして萎え('A`
と思って消したけど

使えば便利なんだろうか?


858:名無しさん@お腹いっぱい。
06/12/08 20:43:26 6h62aRT60

何の話しですか?

859:名無しさん@お腹いっぱい。
06/12/08 21:35:59 SC8+xXaU0
URLリンク(archive-crawler.sourceforge.net)
これだろ

860:名無しさん@お腹いっぱい。
06/12/08 22:55:13 BCKj+N8k0
>>859
ごめん。そう

ドキュメントはhtml(が多い)だからgzで圧縮して
読めるブラウザでならいいかなとか今更思惑も無いけど

本体は小さいみたいな例ね。20Mぐらいのドキュメントと1Mの...とか

Heritrixもjavaの本体は小さい気がする

関連付けとかペルプから動かないじゃんとか
あるけど100Mぐらいなら1/5ぐらいまで縮まれば、まぁいいのか

躊躇して消して後で思ったんだけどね。
だから使い込んでなかったりするんだけど

861:名無しさん@お腹いっぱい。
06/12/08 23:02:32 7eNq0iaX0
すごく難解な日本語です><

862:名無しさん@お腹いっぱい。
06/12/09 01:46:30 DPtW195K0
>>848->>851
・・・キューリスト作ればいいだけだと思うが

863:名無しさん@お腹いっぱい。
06/12/09 01:54:48 DwMKB9Px0
そりゃそうなんだが、機能としてあるならそっち使った方が怠惰じゃん。
倉ex使いだからちょっと脳を捻れば出来ると思う。まあ、いよいよ面倒くさくなったらな…

864:名無しさん@お腹いっぱい。
06/12/11 02:47:03 Bz14SF9T0
ずっとgethtml/gethtmlWに依存してきたのに更新されなくなったので困っている。
なんとかtext/html以外でもリンクを追いかけるようにできないものか?
以前作者の掲示板にmimeタイプに依存しないでもリンクを追えるようにしてくれと
書いたらあっさり蹴られたんだが、更新止まるならそん時強く押しておけば良かった。

865:名無しさん@お腹いっぱい。
06/12/11 02:51:16 W9dkYK6T0
Orbitって一通りできるし初心者には結構いいと思うんだけど

866:名無しさん@お腹いっぱい。
06/12/11 09:56:22 2GLhnQH+0
スレリンク(software板:329-330番)
なんか微妙

867:名無しさん@お腹いっぱい。
06/12/16 16:02:14 HidMI2kW0
age

868:名無しさん@お腹いっぱい。
06/12/24 16:53:21 NfqlQkiQ0
巡集サイト移転
URLリンク(sdn255.web.fc2.com)

869:名無しさん@お腹いっぱい。
06/12/24 17:51:00 /1ZCn6Ok0
じゃあ巡集が移転復活したところで自分が使っている(た)ソフトを適当に紹介

GetYou!
URLリンク(www.vector.co.jp)
Offline Explorer(30ドル、英語、買うまでお勧めできるかというとちょっと…)
URLリンク(www.metaproducts.com)
WinHTTrack(サイトは英語、中身は日本語)
URLリンク(www.httrack.com)
<解説ページ> URLリンク(hetoheto.hp.infoseek.co.jp)
Teleport Pro(39.95ドル)
URLリンク(tenmax.com)

よかったら試してみてください
でも細かい設定作って綿密にダウンロードする柄じゃないのでそういう人達に合うものかは
微妙かも

870:名無しさん@お腹いっぱい。
06/12/24 18:09:37 bmGD/nkV0
巡集復活しても作者たんが死にそうだなw

> 自分のフリーソフト「巡集」をヤフオクで売ります。
> ソースコードと著作権、誰か買って下さい。
> 一週間後くらいに出品します。

その前のブログはもっと悲惨だorz

871:名無しさん@お腹いっぱい。
06/12/24 18:15:32 NfqlQkiQ0
著作権売ったら不具合も修正できなくなったりしそうな・・・・

872:名無しさん@お腹いっぱい。
06/12/24 18:23:29 bmGD/nkV0
おお、↓が誰にも落札されないようにしてくれるらしい

873:名無しさん@お腹いっぱい。
06/12/24 18:26:06 v9kHirvb0
何はともあれ
復活おめ!

874:名無しさん@お腹いっぱい。
06/12/24 22:11:50 HVDe3lBO0
>>870
ネタだと思って見てみたらorz

漏れが1000円で落札出来たらみんなに公表しますw

875:名無しさん@お腹いっぱい。
06/12/24 23:58:06 HfBEvAYs0
スレ違いかもしらんけど

Warrick※Internet Archive、Google、Yahoo、MSNのキャッシュをローカルに保存
URLリンク(www.cs.odu.edu)
解説サイト
URLリンク(oss.moongift.jp)
URLリンク(grin.flagbind.jp)

876:名無しさん@お腹いっぱい。
06/12/25 00:00:34 pxMwWUry0
巡集の作者氏以前も体壊して死に掛けてたような

877:名無しさん@お腹いっぱい。
06/12/25 01:03:30 90/Ic9W80
そこに痺れる憧れるぅっ

878:名無しさん@お腹いっぱい。
06/12/27 11:33:22 grCXMXDJ0
ソース欲しいって人居るのかな・・・。
欲しいと思う人なら、自分で作っちゃいそうだけど。
寄付って形にした方が、金入りそうだけどなぁ。
精々数千円がいいとこでしょ?
他にもソフト作ってるんだし。
長い目で見れば、焦ってオクになんかださないで寄付にした方がいいよ。
巡集以外にも、多くのユーザーが使いそうなソフト作ったりさ。

879:名無しさん@お腹いっぱい。
06/12/27 15:12:34 6oxA0EN/0
オークションじゃ1人しか入金できない
そんなに値が付くような気もしないし寄付募った方がいいかもね

880:名無しさん@お腹いっぱい。
06/12/27 16:58:40 ERCDIIOS0
1000円までなら出す
そのかわりに巡回禁止サイト設定を解除してくれ

881:名無しさん@お腹いっぱい。
06/12/27 17:13:14 grCXMXDJ0
>>879
だよね。
中の人、このスレ見てんのかな。

882:名無しさん@お腹いっぱい。
06/12/29 15:36:15 yy4HNvzk0
巡集の中の人人生\(^o^)/オワタって感じだな
ソースあっても俺には何もいじれないんだけど額によってはお金出すかな…
いまだに巡集はどのバージョンのどこを書き換えたものが一番使い良いのか分からないや

>>869の紹介にあった中では
WinHTTrackとTeleport Proが高速に取得できるようで良かった

883:名無しさん@お腹いっぱい。
06/12/30 16:51:58 Wqfkhe350
取り込み系ソフトって、中の人が終了してしまうのがほとんどだなw

884:名無しさん@お腹いっぱい。
06/12/30 19:24:49 3mv1Id/U0
ウェブを取りこもうとしたものは
ウェブから取りこまれるってニーチェも言ってたな

885:名無しさん@お腹いっぱい。
06/12/30 19:40:15 yGU8cJvl0
次のサイトの大きな画像を全て取得したいのですが、

URLリンク(danbooru.donmai.us)
  │
  から
  ↓
URLリンク(danbooru.donmai.us)
  まで。


どんなソフトを使えば可能でしょうか?
Iria とか irvine 等がメジャーみたいなので
試したのですが、駄目でした・・・
サムネイルの小さい画像は取得出来るのですが・・・

886:名無しさん@お腹いっぱい。
06/12/30 20:03:58 3mv1Id/U0
Danbooru is down
Some maintenance stuff. Will probably be back in half an hour.

おまいが無茶するから…

887:名無しさん@お腹いっぱい。
06/12/30 21:47:04 fUMXHHnB0
>>885
ダウンローダー総合スレ
スレリンク(software板)

スレ違いだよ

888:名無しさん@お腹いっぱい。
06/12/30 22:12:46 yGU8cJvl0
>>887
有難う御座います。
そちらに移動します。

889:名無しさん@お腹いっぱい。
06/12/31 09:51:01 y08awjnd0
巡集、売るのはやっぱりやめます。

だってさ

890:名無しさん@お腹いっぱい。
06/12/31 23:53:35 EapSOkc70
よかった
イキロ

891:名無しさん@お腹いっぱい。
07/01/01 10:36:04 SjzHux7U0
7000円のしぇあうぇあにしまつ

892:名無しさん@お腹いっぱい。
07/01/01 10:38:49 Oxr7jMbG0
巡集の人、絵も描けるんだな。
なんか、絵の練習するとか言ってるし
同人でも始めるのか。

893:名無しさん@お腹いっぱい。
07/01/02 20:39:33 8hOr04KA0
駅前でやってるやつじゃあないだろうか

894:名無しさん@お腹いっぱい。
07/01/04 23:43:46 zTrw122r0
結局色々なものに手を出してみたけど
準集にかなうものはなかったという印象かなあ

>>869の下の2つもよかったけどお金を出してまで使うかといったらちょっと・・・
やはり多くのコンテンツを確実に取得できるのと接続数が1のために返って
ほかの作業に支障が出ないというのも思わぬ利点と見えるようになった。

>>869のソフトは基本的に大量の接続を張ってガーッっと根こそぎやるタイプで
速度的には確かに速いんだけどどうしても細かいところで落としやすい
両者のいいところ取りみたいなソフトは出ないものかなあ・・・できる人は自作してる?

895:名無しさん@お腹いっぱい。
07/01/05 02:44:32 LNm+TMFo0
>>883
貧弱環境のサイト管理者からグチグチネチネチ言われるらしいね。
「お前んとこのソフトのせいでうちの回線がどうのこうの」とか。んでVerUP意欲削がれてあぼんぬ。

今残っている丸ごと取り込みソフトの人、これから作ろうって人には、そういうのに負けずがんばってもらいたい。

896:名無しさん@お腹いっぱい。
07/01/05 12:10:41 Bp9GhSGT0
ますます叩かれる。

897:名無しさん@お腹いっぱい。
07/01/05 17:58:37 eW2sJd1f0
Website Explorer
このソフトかなりいいと思うよ。壁紙配布サイトで試してみたらローカルにサイトのコピーができた。

898:名無しさん@お腹いっぱい。
07/01/05 18:46:38 b0dpL2St0
UserAgentを変えられれば
どのソフト使ってるかなんてわからないんじゃ?

899:名無しさん@お腹いっぱい。
07/01/05 19:21:55 OKUeMA2H0
ヘッダーリクエストの中身である程度分かるかもね
ブラウザならいろいろやり取りするけど
ダウンローダーだと結構簡略化されてたりする

900:名無しさん@お腹いっぱい。
07/01/05 20:18:35 Bp9GhSGT0
> どのソフト使ってるかなんてわからないんじゃ?
ますます叩かれる。

901:名無しさん@お腹いっぱい。
07/01/07 09:21:59 xMV5rfYT0
UserAgent可変のソフトにした時点で金子氏同様悪意ありと認定されまつ

902:名無しさん@お腹いっぱい。
07/01/07 10:04:04 +vlO9k2D0
変えられるソフトのほうが多くないですか?

903:名無しさん@お腹いっぱい。
07/01/07 21:34:17 vM5clYoU0
ブログ1人分のをまとめて引っこ抜けるいいソフトはないかなあ
巡集なんかだとヤプログとか場所によっては全然うまくいかない

904:名無しさん@お腹いっぱい。
07/01/07 23:43:47 7K38GTA60
ヤプログは普通に落とせるんじゃないかな。
URLフィルタで「以下の文字列に一致するそのURLを許可」と
「以下の文字列に一致するURLを除外」を設定すれば
必要なものだけ落として余計なものは落とさないようにできるし。

905:名無しさん@お腹いっぱい。
07/01/08 20:40:45 yaKlAY/d0
うーんFlashが貼られてたりすると取りこぼしますねえ
サイトの構成も狂ってしまうし
巡集以外のソフトも上に紹介されているので試してみます
あとageてしまっててすいません

906:名無しさん@お腹いっぱい。
07/01/08 22:13:22 yaKlAY/d0
>>869のだとOffline Explorer以外の3つならデフォルトの設定でほぼ再現できるように取得できます
巡集は>>904さんの通りに従ってFlashは取得できたもののブログの真ん中になぜか空白ができてしまう…
もう少し設定勉強してみますね

907:名無しさん@お腹いっぱい。
07/01/09 17:59:44 0oZNROWM0
生きてた!
GetHTMLW 7.14.3 (December 24, 2006)

908:名無しさん@お腹いっぱい。
07/01/09 19:32:50 /t0O3Z9Y0
サイト運営者からしてみればこの手のソフト迷惑極まりないんだが

909:名無しさん@お腹いっぱい。
07/01/09 20:14:30 BhGQERh10
>>908
サイト構造そのままで固めたZipと、
サイトで使用しているエロ画像だけのZipを
トップからダウンロード可能にするんだ!

910:名無しさん@お腹いっぱい。
07/01/09 20:22:34 GG/vsAPS0
まあでもしゃかりきになって落とす気になるHPが減ったという事実…
HPを正確に取り込めるソフトより2chの過去ログ取れる●にお金を突っ込んだ方が割にあったりしてねw
●はそれ以外にも一定の効果もあるし。

911:名無しさん@お腹いっぱい。
07/01/09 21:12:35 sFB9+zVr0
>>908
有料鯖使ってるの?

912:名無しさん@お腹いっぱい。
07/01/09 21:13:57 /t0O3Z9Y0
自鯖

913:名無しさん@お腹いっぱい。
07/01/09 22:24:51 iGrGXHaQ0
>>907
何処?

914:名無しさん@お腹いっぱい。
07/01/09 22:38:28 /t0O3Z9Y0
面白いのみつけたからはっとく
URLリンク(72.14.235.104)

みき (ゲスト)

04年7月21日 水曜日,午後 10:03分
一番の目的は、最初から書いていると思うのですが、
ダウンローダで一括ダウンロードされることを防ぐことです。

ただ、私の少ない知識の中では、
ダウンローダで一括ダウンロードされることを防ぐ方法が思いつかなく、
しかも、ダウンローダからのアクセスを拒否する方法があるだなんて、
思ってもいなく、では、どうすればダウンロードする気をなくすことができるかと思ったときに、
オフライン閲覧を禁止することが一番なのではないかと思ったのです。
オフラインで閲覧できなければダウンロードする意味がなくなる、
ということになると思ったのですが、ここが矛盾しているのでしょうか?

こういう対策をしようと思った理由は、
一括ダウンロードをされて困っている事実があるから、ただそれだけです。
理由もなくオフラインでの閲覧を禁止したいと思うわけはないですよね?

yurakuさんは、一体何がおっしゃりたいのですか?
何故こんなトゲのある書き方をされるのか、私には理解できません。
結局100%防ぐ方法はないのですね?
でしたら、そんな方法はない、ということで結構です。
最適と思う方法を教えてもらうまでに、
こんなに不愉快な会話を交わすのかと思うとうんざりです。

色々と知恵を絞ってくださった、皆様、勝手で申し訳ありませんが、
この話はもう終わりにしてください。
もう少し自分で調べてみます。
色々とありがとうございました。

915:名無しさん@お腹いっぱい。
07/01/09 23:27:29 sFB9+zVr0
逆切れする様子が痛々しいなw

916:名無しさん@お腹いっぱい。
07/01/10 00:10:02 VrWzzJop0
「ありがとうございました」という文字を見ると
「どう見ても精~」が勝手に補完される説

917:名無しさん@お腹いっぱい。
07/01/10 00:38:45 m1vZCqlZ0
>>907
作者のウェブとか掲示板はどこよ。

918:名無しさん@お腹いっぱい。
07/01/10 01:41:11 OddyRCCB0
>>913,917
>>385

919:名無しさん@お腹いっぱい。
07/01/10 07:48:57 dQDczZ0p0
準州対策なら
javaスクリプトで動的にリンク先作るとか
いくらでも対処方法ある

920:名無しさん@お腹いっぱい。
07/01/10 09:13:57 38GhJqJY0
無理w

921:名無しさん@お腹いっぱい。
07/01/10 13:40:03 9VsjYOkP0
ajax/sjaxで取得するファイルをDL出来るのは
GetHTMLWの拡張 Proxy 機能(Proxy Mode 2)だけ?

922:名無しさん@お腹いっぱい。
07/01/10 14:52:59 gzPmulBN0
世界中に公開してるのにダウンロードされるのが厭って一体何故??

923:名無しさん@お腹いっぱい。
07/01/10 19:07:19 lIKLR+uj0
一気にがーっと持って行かれるのがサーバ資源に厳しいって事でしょ。
古いGetHTMLで4thread/Serverとかやっている香具師は猛省汁、ってことかと。

924:名無しさん@お腹いっぱい。
07/01/10 20:11:19 gzPmulBN0
>>923
>>909

925:名無しさん@お腹いっぱい。
07/01/10 20:25:45 7KmhOcX70
超亀だけども
METAタグで巡回拒否は
proxomitronでフィルター作ればいいんじゃまいか

926:名無しさん@お腹いっぱい。
07/01/10 23:33:25 i10ZCnRo0
このジャンル
海外にも結構色々なものがあるのね
どちらかというと多数のダウンロード一斉に始めるサーバには優しそうにないタイプ
しかも一部のソフトが99ドルとか400ドルとかめちゃめちゃ高かったりするw

927:名無しさん@お腹いっぱい。
07/01/11 00:53:02 JjKcF3aJ0
>>922何気に説得力あるな

928:名無しさん@お腹いっぱい。
07/01/11 02:43:08 WqkycWkF0
>>918
ベクタの書庫じゃなくて作者の釣ってんろだ。

929:名無しさん@お腹いっぱい。
07/01/11 11:08:28 Vc7Q3DS50
日本語でおk

930:名無しさん@お腹いっぱい。
07/01/11 13:33:20 U3g5ENCV0
>>928
作者のサイトは何処?

931:名無しさん@お腹いっぱい。
07/01/11 16:58:19 iihxYKY10
ない

932:名無しさん@お腹いっぱい。
07/01/11 19:10:48 cXws+0Gp0
readmeくらい読めよ。ひょっとしてなんのファイルか判ってない?

933:名無しさん@お腹いっぱい。
07/01/11 19:32:04 IEpO6+Fp0
この数日で色々な取り込みソフトを使った
昔は分からなかったGETHTMLWのUserAgentの書き換えも今になってようやく分かった

自分の操作が下手なだけかもしれないけど結局これ一つでどんなサイトも全てOKってソフトはなかった
性能がいいソフトをいくつか場合で使い分けるのが一番なのかな

最後に
実験台にして何度も何度も丸ごとダウンロードしてしまったサイトの中の方どうもすみませんでしたw

934:名無しさん@お腹いっぱい。
07/01/11 20:46:49 iihxYKY10
実験は嫌いなサイトでやってますw

935:名無しさん@お腹いっぱい。
07/01/11 20:56:00 IEpO6+Fp0
好きとか嫌いとかは微妙ですがお世話になったのは細かくダウンロードの結果に差が出るサイトですね
リンクが繋がるか繋がらないか、画像が取得できてもちゃんとgifが動くように取り込めているかなどです

936:名無しさん@お腹いっぱい。
07/01/12 00:43:06 lz0s1Q6R0
で、真におすすめのソフトは何か?謎は残されたばかり…
使い手のWebの知識にも寄るんでしょう
できれば初心者がデフォルトに近い設定でも確実にもりもり落とせるソフトを期待してたけど
そんな都合の良いものはものはなかったw
今でもHDDには6個ソフトが入っています
全てを使い切れるかはともかく

937:名無しさん@お腹いっぱい。
07/01/12 07:52:10 rkWpqW+30
「初心者」は巡集で落とせw
これで落とせないサイトは諦めろw

938:名無しさん@お腹いっぱい。
07/01/12 11:25:07 u28sfBGs0
おお、こんなスレあったのか。WEBOXだけかとおもってた。
>>897
俺も最初WEBEXがよさげと思ってたんだが、

URLリンク(cooly.h.fc2.com)

↑ここのトップ絵がなぜか保存できないんだよな。
ソース見る限り別にダウンロード対策なんてしてないように見えるんだが、
こんなシンプルなサイトも落とせないのはどうかと思って、いろいろ他のを探している所。


939:名無しさん@お腹いっぱい。
07/01/12 14:26:26 gQzTH2uW0
URLリンク(www.graceful-lament.com)

欲しい画集あったんでここから落としたいんだが
一枚一枚保存するのちょっと面倒っぽい

ツールで色々試してみたが使い方下手なのかサムネイルしか落ちね
なんか一気に落とすいい方法とかある?


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch