Proxomitron フィルター作成スレッド Part14at SOFTWARE
Proxomitron フィルター作成スレッド Part14 - 暇つぶし2ch1:名無しさん@お腹いっぱい。
12/01/17 20:41:21.52 5bYaTkqS0
Proxomitron等に関するWiki
URLリンク(abc.s65.xrea.com)

Proxomitron専用Uploader
URLリンク(www42.tok2.com)

Thinking Archive(仮)
URLリンク(vird2002.s8.xrea.com)

【前スレ】
Proxomitron フィルター作成スレッド Part13
スレリンク(software板)

---- 関連スレ ----
Proxomitron Part 30
スレリンク(win板)

■■■■Proxomitron入門スレッド■■■■6
スレリンク(pcqa板)

ニコニコ動画専用オミトロンソフト板 Part28
スレリンク(software板)

2:名無しさん@お腹いっぱい。
12/01/17 20:42:35.37 5bYaTkqS0
W3G - World Wide Web Guide
URLリンク(w3g.jp)
HTML5.JP - 次世代HTML標準 HTML5情報サイト
URLリンク(html5.jp)
正しい知識を得たい人の爲のCSS2リファレンス
URLリンク(hp.vector.co.jp)
JavaScript - MDC
URLリンク(developer.mozilla.org)

PRXFAQ
URLリンク(web.archive.org)

---- 情報表示用の特別なURL ----
ブロックリスト一覧
URLリンク(local.ptron)
履歴URL
URLリンク(local.ptron)

---- 環境変数のチェック ----
ENV Checker
URLリンク(www.cybersyndrome.net)
診断くん
URLリンク(taruo.net)

3:名無しさん@お腹いっぱい。
12/01/17 20:43:10.11 5bYaTkqS0
---- 文字列・文字コード等 ----
Proxomitron用 文字コード変換
URLリンク(vird2002.s8.xrea.com)
Proxomitron文字列変換 (Web版)
URLリンク(pseweb.half-moon.org)
JSで文字コード変換 (IE推奨)
URLリンク(web.archive.org)
文字コード表記変換アプリ  StrHex ver 1.0 (文字 <-> 文字コード の相互変換)
URLリンク(www.pleasuresky.co.jp)

---- 文字参照関係 ----
10進、16進文字コードin HTMLユニコード (IE用)
URLリンク(code.cside.com)
Wiki内の変換CGI
URLリンク(abc.s65.xrea.com)
HTMLで使える文字実体参照
URLリンク(www.ne.jp)

※ 文字参照が入っているフィルタをそのまま書き込むと文字参照が文字に戻ってしまいます
すべての & を &amp; に置換したものを書き込んで下さい。(&は半角文字)

---- その他 ----
Meta-X Extension :ブラウザをコマンド入力で操作するフィルタ(日本語)
URLリンク(www.geocities.co.jp)

4:名無しさん@お腹いっぱい。
12/01/17 20:43:49.42 5bYaTkqS0
---- 過去スレ ----
Proxomitron フィルタ作成スレッド
スレリンク(software板)
Proxomitron フィルター作成スレッド Part2
スレリンク(software板)
Proxomitron フィルター作成スレッド Part3
スレリンク(software板)
Proxomitron フィルター作成スレッド Part4
スレリンク(software板)
Proxomitron フィルター作成スレッド Part5
スレリンク(software板)
Proxomitron フィルター作成スレッド Part6
スレリンク(software板)
Proxomitron フィルター作成スレッド Part7
スレリンク(software板)
Proxomitron フィルター作成スレッド Part8
スレリンク(software板)
Proxomitron フィルター作成スレッド Part9
スレリンク(software板)
Proxomitron フィルター作成スレッド Part10
スレリンク(software板)
Proxomitron フィルター作成スレッド Part11
スレリンク(software板)
Proxomitron フィルター作成スレッド Part12
スレリンク(software板)
Proxomitron フィルター作成スレッド Part13
スレリンク(software板)

5:名無しさん@お腹いっぱい。
12/01/17 21:51:15.25 PcYXB5sm0
このスレや情報提供、各種フィルタ作者様に感謝を!

6:名無しさん@お腹いっぱい。
12/01/17 23:17:51.42 wCI/IfuUP
>>1

次立てる人へ
1の先頭に↓の追加を

Proxomitron-J
URLリンク(proxomitron.sakura.ne.jp)

日本語訳ヘルプ
URLリンク(proxomitron.sakura.ne.jp)

7: 忍法帖【Lv=2,xxxP】
12/01/22 12:59:53.29 VdQwR/cs0
復活ブラウザカキコ
あと>>1

8:名無しさん@お腹いっぱい。
12/01/24 16:26:46.96 Pl5Wo4p60
>>1
おつんつん

9:名無しさん@お腹いっぱい。
12/01/24 23:03:37.12 diHRF32a0
[HTTP headers]
In = FALSE
Out = TRUE
Key = "Referer: Hide where we've been pixort (Out)"
Match = "URLリンク(www.pixort.net)"


Pixort利用者向け応急処置フィルタ
Pixort自体が無くなってしまうかもしれないけど・・・

10:名無しさん@お腹いっぱい。
12/01/25 09:17:49.35 1vCuM+LvP
>>9
おつん
何で急に403にしたんだろうなぁpixiv

11:名無しさん@お腹いっぱい。
12/01/25 09:33:39.36 mQeO0yWM0
>>9
リファラkillしておけば全く関係ないというのはpixivも間抜けだな

しかし広告ブロックやWEBセキュリティーを強化したら
アフィブログも何の効果もなくなるし
WEBでのイメージ操作活動もテクノロジーを越えられないのかなあとは思う

12:名無しさん@お腹いっぱい。
12/01/25 12:08:54.16 Jlf/sNOl0
リアル広告代表の折込チラシは新聞自体より需要が高いくらいなんだから
根本の根本からやり方が間違ってるだけなんじゃね

13:名無しさん@お腹いっぱい。
12/01/25 18:42:39.17 fIIHnKb60
みなさんはどんなブラウザからオミトロンを使っていますか?
私はsleipnir166です

ニコ動やYoutubeなどはオミトロンなしのFirefoxです

14:名無しさん@お腹いっぱい。
12/01/25 19:14:04.68 +LU3KzOv0
firefox+オミトロン
いろいろ手を出したがやはりオミトロンが最強だわ
ニコなんかうざい広告とステマ臭いもの全部殺してメチャクチャ快適

15:名無しさん@お腹いっぱい。
12/01/25 19:49:46.82 BvS/Pwlg0
ステマ言いたいだけちゃうかと

16:名無しさん@お腹いっぱい。
12/01/25 21:14:57.79 Hdxl8Ci70
覚えた言葉はすぐ使いたいんだろうな

17:名無しさん@お腹いっぱい。
12/01/25 22:09:33.19 Zmt0i9j40
ステマ陣営がステマと言う言葉を陳腐化させる為に、わざとバカなカキコしてるという噂があるな

18:名無しさん@お腹いっぱい。
12/01/26 00:41:45.59 ZDvzkj4U0
>>10
人のサイトを利用してアフィで稼いでるpixortを狙い撃ちで排除
別にそれ以上でもそれ以下でもないだろ

俺はアフィ付きの2chまとめと同類のpixortを擁護はできん

19:名無しさん@お腹いっぱい。
12/01/26 10:06:38.64 8EwhK1HSP
そんな事どうでもいいよ
pixortという便利なサイトがなくなる方が大問題だわ

20:名無しさん@お腹いっぱい。
12/01/26 11:22:50.01 VPtojUwH0
リンク制限なんて卑屈なことしなくても自分ところの検索機能を強化すればいいだけの話なのにね
これだからPixiv運営はアレとか言われるんだろうな。まぁ実際アレなのが救いようのない話か

21:名無しさん@お腹いっぱい。
12/01/26 20:41:38.96 tjor0X530
ここはpixivスレではありませんよっと

22:9
12/01/29 10:27:36.10 PesnAjzv0
こう言っちゃなんだが広告を消しているProxomitron利用者が言うのもどうかと思うけどなw

23:名無しさん@お腹いっぱい。
12/01/30 18:43:30.07 v/Cn9vJE0
復帰上げ

24:名無しさん@お腹いっぱい。
12/02/01 05:09:29.53 GZ5zGVmC0
>>20
本家に人気順ソートがないってのは検索機能が弱いってより、そういう順序付けはしないって方針なだけだろ

25:名無しさん@お腹いっぱい。
12/02/01 17:38:29.57 opZS/RBH0
(糞の役にも立たない) ランキングはあるんで「順序付けはしない」ってわけではないんだよな
だからもし方針だとしたらはそれは「ユーザのニーズを無視する」っていう方針だね

26:名無しさん@お腹いっぱい。
12/02/01 21:06:56.75 VWRjlG9/0
>新機能リリースのお知らせ - 01月31日
>pixiv事務局です。
>本日pixiv( URLリンク(www.pixiv.net) )にて、pixivプレミアム会員向けに人気順検索機能をリリースしました。
>この機能では、イラスト/漫画作品をブックマーク数の多い順に検索することができます。

意訳「ソートしたいなら金よこせ」

27:名無しさん@お腹いっぱい。
12/02/01 21:13:22.77 KHI+nM3i0
いいかげんスレチに気づけ

28:名無しさん@お腹いっぱい。
12/02/01 23:50:41.50 dET1OsFU0
TINAMIとかがステマしてんじゃねえの?

29:名無しさん@お腹いっぱい。
12/02/02 00:58:54.31 bHzmEU1B0
pixivなんてもう要らねーじゃんwww

30:名無しさん@お腹いっぱい。
12/02/03 23:31:48.78 +wTXVn7i0
pixivって会員制なんでしょ?
ニコニコみたいに他所のスレでやってよ

31:名無しさん@お腹いっぱい。
12/02/04 03:36:49.04 yOv7HB9e0
オミトロン潰したいどこかの企業が便乗してるんだろ
広告収入はどこも重要だからな

32:名無しさん@お腹いっぱい。
12/02/04 08:14:04.55 X0Go65L00
そうかがんばれ

33:名無しさん@お腹いっぱい。
12/02/06 21:39:46.36 mxQ2J7Z+0
Proxomitronみたいなマイナーなソフトなんか相手するだけ労力のムダだろうて

34:名無しさん@お腹いっぱい。
12/02/06 21:53:08.31 fVXqHftp0
釣りでももう少しひねれ、ウスラw

35:名無しさん@お腹いっぱい。
12/02/07 07:29:58.06 ASyiq9Vb0
爆笑もんだなwww

36:名無しさん@お腹いっぱい。
12/02/07 18:05:54.80 d+deLrIa0
hostファイルみたいに
URLリンク(www.brothersoft.com)
接続拒否するにはどうすればいいの?

37:名無しさん@お腹いっぱい。
12/02/07 21:16:30.90 Cnv/LLxZ0
標準のURL-Killerとかか?

38:名無しさん@お腹いっぱい。
12/02/07 21:27:23.59 d+deLrIa0
URL Killfile.txtのThe WWW'sってところに
www.brothersoft.com/でおk?

39:名無しさん@お腹いっぱい。
12/02/07 22:07:23.54 FyeQzayn0
この程度ことを聞くより試した方が早いと思わないのが不思議でしかたがない

40:名無しさん@お腹いっぱい。
12/02/08 07:34:06.10 wcQXne5/0
2chがバイブルであり先生なんだろ

41:名無しさん@お腹いっぱい。
12/02/08 07:52:02.38 XeR672Ae0
なるほど、こういうレスしかできないのか
ねとうよは嫌われるわけだ^^

42:名無しさん@お腹いっぱい。
12/02/08 08:17:21.38 xF84l/pd0
どうした急に

43:名無しさん@お腹いっぱい。
12/02/08 13:08:17.50 R0FZp+L/0
WASAWASA

44:名無しさん@お腹いっぱい。
12/02/08 14:03:53.16 olvPEmVs0
>>41
_|_ _|_          ___   -―フ  _|_ _|_          ___   -―フ
ノ \   |  \ |    \     /    ∠   ノ \   |  \ |    \     /    ∠
  X    |  | |     |    /        )    X    |  | |     |    /        )
/ \  |  | \/       \    ○ノ  / \  |  | \/       \    ○ノ

45:名無しさん@お腹いっぱい。
12/02/09 15:48:18.29 goalzURa0
またpixivの話で悪いんだけど、仕様変更したらしくて
作品のタイトルとpixiv : img direct access [11/09/29]の
[FULL]と[MANGA]の部分が被る様になっちゃった

46:名無しさん@お腹いっぱい。
12/02/09 21:04:11.89 e1gdycqJ0
検索部分の変更に対応。ランキングは変更なし
[Patterns]
Name = "pixiv : img direct access [12/02/09]"
Active = TRUE
Multi = TRUE
URL = "$TYPE(htm)(www|embed).pixiv.net/"
Limit = 4096
Match = "$NEST(<a,\s$SET(#=<a )([^>]++)\#href=$AV((URLリンク(www.pixiv.net))(member_illust|index).php\?mode=[^&]+\&\9)"
"$SET(#=href="\1/\2_m.\3")"
"([^>]+>)\#"
"( (<div[^>]+>|<p>|) <img\s[^>]++(data-src|src)=$AV(\1/(mobile/|)([0-9]+)\2_([0-9]+ms|s|100|240mw).(jpg|jpeg|gif|png)\3(\?*|))[^>]+>)\#"
" (<br />\0|<label[^>]+>\0</label>|(</p>|) <h[1-2][^>]+>\0</h[1-2]>|([^<>]+{1,*})\0|\#) ,</a>)"
"$SET(#=</a>)"
"$SET(#=<div style="display:none;" class="full_manga"><div><a href="\1/\2.\3">[FULL]</a>"
"<a href="URLリンク(www.pixiv.net)">[MANGA]</a></div></div>)"
"((<br />|(^$TST(\0=?*)))([^<]+)\0(<br />|(^(^</li>)))"
"|<br />"
"|)"
"($TST(\0=?*)$SET(#=<div><a href="URLリンク(www.pixiv.net)">\0</a></div>)"
"|)"
"|"
"(^(^</body>))"
"$STOP()"
"(^$TST(in_script=1))"
"$SET(#=<style type="text/css">"
"*:hover > div.full_manga { display:block !important; }"
"div.full_manga {position:relative;}"
"div.full_manga > div {position:absolute; width:100%; bottom:0px;}"
"div.full_manga a {background: lightcyan;}"
"#page-ranking div.full_manga { margin-left: 125px; }"
"</style>)"
Replace = " \@"

47:名無しさん@お腹いっぱい。
12/02/09 23:08:04.14 goalzURa0
うほほっ!動作確認出来ました
ありがとうございます

48:名無しさん@お腹いっぱい。
12/02/10 01:31:30.16 N0L3qG500
[Patterns]
Name = "Google: Delete SearchNoise [2011/01/07]"
Active = TRUE
URL = "www.google.co(.jp|m)/(hws/|)search"
Bounds = "<li(\s[^>]+|)>?++(^(^<(/|)([ou]l|li)(\s[^>]+|)>))"
Limit = 4096
Match = "*<a\s[^>]++href=("|)"
"(/url\?([^>]++\&(amp;|)|)q="
"|/aclk\?([^>]++\&(amp;|)|)adurl="
"|)"
"http(s|)://"
"$LST(SearchSpam)"
"*</cite>*"


こいつが動かなくなってしまったので更新をお願いします・・・

49:名無しさん@お腹いっぱい。
12/02/10 13:13:00.42 Hf1amR/LP
cleanup search results 2に乗り換え

50:名無しさん@お腹いっぱい。
12/02/10 19:22:45.99 m5XUpUoB0
googleってhttpsにリダイレクトされない?
古いブラウザ使ってるからなのかな

51:名無しさん@お腹いっぱい。
12/02/11 01:31:17.29 iWRTlxjC0
>>49

[Patterns]
Name = "Google | cleanup search results 2 20110906"
Active = TRUE
Multi = TRUE
URL = "www.google.c(o.jp|m)/search\?$TYPE(htm)"
Limit = 2048
Match = "$KEYCHK(^16)$ADDLSTBOX(SearchSpam,URL(w/o http://))"
"$SET(0=<script>document.location="\u";</script>)"
"|"
"<li (class=$AV(g *)[^>]+> <div [^>]+> <span [^>]+> <h3 [^>]+>"
" <a href=$AV(http(s|)://("
"$LST(SearchSpam)$SET(0=<li style="opacity:0.3" )|"
"$LST(AdList)$SET(0=<li style="display:none" )"
")*))\9"
Replace = "\0\9"



こっちも動かないです

52:名無しさん@お腹いっぱい。
12/02/11 14:18:01.89 tk1cZM8GP
>>51
URLリンク(github.com)

[Patterns]
Name = "Google | cleanup search results 2 20111007"
Active = TRUE
Multi = TRUE
URL = "www.google.c(o.jp|m)/search\? $TYPE(htm)"
Limit = 2048
Match = "$KEYCHK(^16)$ADDLSTBOX(SearchSpam,URL(w/o http://))"
"$SET(0=<script>document.location="\u";</script>)"
"|"
"<li (class=$AV(g *)[^>]+> <div [^>]+> (<span [^>]+> |)<h3 [^>]+>"
" <a href=$AV(http(s|)://("
"$LST(SearchSpam)$SET(0=<li style="opacity: 0.3" )|"
"$LST(AdList)$SET(0=<li style="opacity: 0.3" )"
")*))\9"
Replace = "\0\9"

53:名無しさん@お腹いっぱい。
12/02/12 00:02:34.98 N1/dlNah0
ところで SearchSpam と AdList の使い分けがいまだにわからん
俺は見る必要のないゴミは全て AdList にぶち込み、跡形もなく削除している
「SEO はうざいが中身は読みたい」なんてサイトは見たことがない
というかそもそもうざいと感じる原因は「上位に来るくせに中身がゴミだから」なわけで

54:名無しさん@お腹いっぱい。
12/02/12 13:09:19.35 thI33q9q0
>>52
それも動かない

55:名無しさん@お腹いっぱい。
12/02/12 15:38:59.45 twJXMOL20
>>53
検索結果に出てこないようにするか
アクセスできないようにするかの違い

てかお前らまだGoogle使ってるのかよwww


56:名無しさん@お腹いっぱい。
12/02/12 16:41:56.47 BEfaqSvc0
youtube動画内広告は消せませんか?

57:名無しさん@お腹いっぱい。
12/02/12 21:25:13.08 fQvfDZD/0
>>55
google嫌だけど代替サイトでいいのがない

58:名無しさん@お腹いっぱい。
12/02/12 23:27:47.25 YLvcQqcoP
使い方がわからないものを無理に使う必要はないんじゃないでしょうか

59:名無しさん@お腹いっぱい。
12/02/13 01:18:11.26 X6IknOBY0
>>54
Operaだけど使えているよ、他のブラウザはしらね

60:名無しさん@お腹いっぱい。
12/02/13 15:41:45.29 pXfEKUTm0


61:名無しさん@お腹いっぱい。
12/02/14 22:41:31.97 rrgrref00
localhostと127.0.0.1がProxomitronを経由してくれません。
URLリンク(localhost)
URLリンク(127.0.0.1)

これは経由する。
URLリンク(PCNAME)
URLリンク(127.0.0.2)

これも!
URLリンク(PW-dbug)
URLリンク(PW-dbug)

hostsファイル弄っても変わらない。
WindowsファイアウォールOFFにしても同じ。

Win 7 Home x64 SP1

ご指導お願いします。

62:名無しさん@お腹いっぱい。
12/02/14 22:44:43.78 rrgrref00
>>52
www.google.co(.jp|m)
かと・・・。

63:名無しさん@お腹いっぱい。
12/02/14 22:58:24.35 qQ/t0tWd0
元々がミスを呼びやすい書き方なんやね

64:48
12/02/14 23:26:31.88 crrhuJt10
>>61
それブラウザ側設定の「ローカルアドレスにはプロキシサーバーを使用しない」にチェックが入ってる

65:名無しさん@お腹いっぱい。
12/02/14 23:26:45.23 AgoOnVIc0
>>61
ブラウザの串設定するところの近くにローカルアドレス云々とかないか?

66:名無しさん@お腹いっぱい。
12/02/14 23:27:37.52 AgoOnVIc0
被ったw

67:名無しさん@お腹いっぱい。
12/02/15 00:44:21.01 S1YodbpTP
>>62
あれーほんとですね!
いつからこんなんなってたんじゃろ。ありがとう!

68:名無しさん@お腹いっぱい。
12/02/15 02:05:00.74 rLQmyEJh0
そこを直しても>>52が動かない

69:名無しさん@お腹いっぱい。
12/02/15 03:16:03.61 3IFuuDvM0
coでとめてorする理由って何なんです? 違和感があるんですけど

70:名無しさん@お腹いっぱい。
12/02/15 03:45:07.22 fClXsNe+0
単にwww.google.(co.jp|com)よりも短くて済むからだろう
で、違和感あるならどうするのが良いと思うんだ?

71:名無しさん@お腹いっぱい。
12/02/15 04:12:44.93 /Fk6I2qS0
www.google.c(o.jp|m)
"("の位置がおかしい
www.google.co(.jp|m)
こうでしょ

72:名無しさん@お腹いっぱい。
12/02/15 08:40:58.42 OvWn9AHU0
(co.jp|com)の方がほんの少しだけマッチングが速い
って以前検証されてなかったっけ?

73:61
12/02/15 09:41:16.13 kWKKOsEx0
>>64-65
ありがとうございます。
でも、チェックOFFにしてあります。

引き続きよろしくお願いします。

74:名無しさん@お腹いっぱい。
12/02/15 10:37:40.41 v8Xzv8a20
>引き続きよろしくお願いします。

他人に投げっぱなしで自分でどうにかしようと頑張る気すらない
という感じで何気にムカツクわ

75:名無しさん@お腹いっぱい。
12/02/15 11:33:59.16 ZYacyiks0
>>73
IE9だよな?
「次で始まるアドレスにはプロキシを使用しない」に「<-loopback>」を記述
詳しくはここ URLリンク(blogs.msdn.com)
さくっとググってテストまでしてやったぞ感謝しろ

76:名無しさん@お腹いっぱい。
12/02/15 18:22:47.31 kWKKOsEx0
>>75
バッチリです!
Fiddlerではキャプチャできていたんで
Proxomitron側の仕様だと思い込んで
Proxomitron+キーワードでずっと検索してました。

ファイアウォールソフト替えてみたり(全然意味なかった)してもダメで
もう諦めようと思った所だったんで、
本当に助かりました。
これで先に進めます。
ありがとうございました。

因みに
WinHTTPの方は「<-loopback>」は未対応でした。


Proxomitron フィルター作成スレッド Part13
スレリンク(software板:812番)
↑この人も読んでると良いんだけど・・・。

77:名無しさん@お腹いっぱい。
12/02/16 18:21:30.45 cXWD7ePG0


78:名無しさん@お腹いっぱい。
12/02/16 21:51:10.59 oyOMOmIT0
Google cleanup search resultsの更新どなたかお願いします

79:名無しさん@お腹いっぱい。
12/02/19 20:59:13.48 bUIoCbPK0
[Patterns]
Name = "Google | Ajax killer test-20110528"
Active = TRUE
URL = "www.google.co(.jp|m)/(search\? $TYPE(htm)|extern_js/f/ $TYPE(js)(^$OHDR(Referer: *\&tbm=(isch|mbl)*)))"
Limit = 300
Match = "$TYPE(js)$STOP()\k|"
"(/extern_js/f/[^.]+.js)\#$SET(#=?prox-$DTM(tc))|"
"(<a [^>]++ class=$AV(gbmt|gbzt *) [^>]++)\# onclick=$AV(*)"
"|"
"(^$URL(*\&tbo=1*))$SET(#=<script>document.location="\u&tbo=1";</script>)$STOP()|"
"(^$URL(*\&prmdo=1*))$SET(#=<script>document.location="\u&prmdo=1";</script>)$STOP()|"
"$NEST(<a [^>]++ id=$AV(showmodes|tbpi),</a>)"
Replace = "\@"



こいつ入れているとgoogleの画像検索が1ページ目しか表示されないのは仕様?

80:名無しさん@お腹いっぱい。
12/02/19 23:10:47.48 DkEJi0Mu0
じゃあ仕様だろ

81:名無しさん@お腹いっぱい。
12/02/19 23:59:57.37 iuy8rO8P0
仕様らしいぞこのゴミが言うんだから間違いない

82:名無しさん@お腹いっぱい。
12/02/20 03:46:36.92 FWy2MAKn0
このくっさい下痢頭がいうなら間違いなさそうですね
ありがとうございました

83:名無しさん@お腹いっぱい。
12/02/20 07:43:56.71 Tmr/fTys0
どういたしまして

84:名無しさん@お腹いっぱい。
12/02/20 12:52:47.91 Quxzgesl0
下痢頭って何だw

85:名無しさん@お腹いっぱい。
12/02/20 17:53:05.11 uwZz9RcB0
バロスwww

86:名無しさん@お腹いっぱい。
12/02/21 00:31:39.30 +qniHNn90
そうか、じゃあ例外扱いでフィルタ修正するとするよ

87:名無しさん@お腹いっぱい。
12/02/21 01:34:34.20 VmCKHpVqP
まぁうちでは普通に2ページ目以降も表示されてますけども

88:名無しさん@お腹いっぱい。
12/02/21 08:48:12.10 0UKHDH7m0
googleはちょくちょく仕様変更が入るし
変更のタイミングも鯖毎に違ってたりするから
フィルターの保守が大変だよね

89:名無しさん@お腹いっぱい。
12/02/23 06:54:01.81 bcvmZYe/0
質問なんですが、現在のyoutubeのランキングのページなんですが
一部のユーザがアップした動画を非表示にしたいんです。
途中までは、なんとか書けたんですが・・・



90:89
12/02/23 06:58:36.52 bcvmZYe/0
Match = "<div(^(^\s[^>]++class=$AV(browse-item yt-tile-default )))"
Replace = "<div style="display: none""
これに、aaaさん(仮に)をヒットさせたいんです。
<a class="yt-user-name " href="/user/aaa">aaa</a>
ぜひ、教えてください。



91:名無しさん@お腹いっぱい。
12/02/23 12:47:06.16 SYZMQv1KP
ORを覚えて下さい。

92:名無しさん@お腹いっぱい。
12/02/23 14:09:38.52 RWWwEnja0
>>89
細かい部分で色々やり方($NESTか*かとか)はあるけど
それより該当箇所がでかいから先読みの方が他のフィルタとぶつかりにくくていいと思う

[Patterns]
Name = "YouTube Ranking: toggle NG user"
Active = TRUE
URL = "www.youtube.com/(topic/|(videos|recommended|autos|comedy|entertainment|film|gaming|howto|activism|people|pets|science|travel)(\?|(^?)))$TYPE(htm)"
Limit = 2048
Match = "(<div\s[^>]++class=$AV(browse-item\s*))\1(^(^"
"[^>]+>\s+$NEST(<a\s,</a>)\s+"
"$NEST(<div,*class=$AV(browse-item-content)*<a\s[^>]++href=$AV(/user/$LST(NG_Youtube))*,</div>)"
"))"
"$SET(0=\1 style="display:none")"
"|"
"<div(^(^\s[^>]++id=$AV(channel-tab-content-wrapper|browse-main-column)))"
"$SET(0="
"<style type="text/css">\r\n <!--\r\n input#toggleNGuser:not(:checked) + div .browse-collection .browse-item[style="display:none"]{display: block !important;}\r\n -->\r\n</style>\r\n"
"<input type="checkbox" id="toggleNGuser" style="margin:2px -10px -4px 0px;" checked />\r\n<div"
")"
Replace = "\0"

CSSで遊んでみた。(ieは9なら対応してたような気が)
黒いナビの左下あたりのチェックボックスを外すとトグルする
非対応ブラウザはMatchの6行目以降不要

93:89
12/02/23 15:29:18.94 zrn0Unvm0
>>91
>>92
レスどうもです。

>>92
あっという間にかけちゃうんですか?すごいですね。
NG_Youtube.txtにまでしていたたいて・・・

正規表現勉強しながら、有難く使わせて頂きます。

ありがとう御座います。

94:名無しさん@お腹いっぱい。
12/02/23 15:38:27.99 vaC5zpjS0
Googleの未対応UA用の検索結果が意外と改造しやすかった件について。
恒常的にUAを変更しておこうか数分迷った。

95:名無しさん@お腹いっぱい。
12/02/24 18:37:24.57 hHKDVHvKP
俺はGoogleだけUA変えてるわ

96:名無しさん@お腹いっぱい。
12/03/01 14:49:12.76 VyCfVtlt0


97:名無しさん@お腹いっぱい。
12/03/07 12:54:17.31 swqmJTzyP
Googleが強制的にhttpsへ飛ぶようになってる…。
なんとか解除できないんかこれ。設定が見当たらない。

98:名無しさん@お腹いっぱい。
12/03/07 13:30:42.27 3NovLONF0
>>97
これだったりして?

Google、「google.co.jp」の検索もログイン時はSSL暗号化をデフォルトに
URLリンク(internet.watch.impress.co.jp)

99:名無しさん@お腹いっぱい。
12/03/07 15:14:31.05 swqmJTzyP
>>98
うわーこれはあかんなー。ログオフ以外に回避策ないのか。
Google Reader使いだからログオフとかありえないんだ。
遂にSSLにもおみとろん通さなきゃいけなくなったか…。嫌だ…

100:名無しさん@お腹いっぱい。
12/03/07 15:51:47.98 UudCQBpe0
HTTPSよりHTTPの方がいいですー><
なんてこのスレでぐらいしか聞けないな

101:名無しさん@お腹いっぱい。
12/03/07 16:46:04.84 jUb7rOl80
httpsのがいいだろ

102:ミンナニハナイショダヨ
12/03/07 16:50:17.16 FvL0oSaW0
>>99
ログイン必須なサービス以外のURI宛にはCookie遮断するヘッダフィルタ書けばおk。

俺の場合は技術力無いので、ヘッダフィルタのURL欄に↓を指定してIN/OUTのCookie全遮断してる。
www.google.(com|co.jp)/(search|images|maps|imgres)

今のところこれで、検索&MAP&画像検索はログアウト、Reader&Gmailはログイン状態で
使えてる。

103:名無しさん@お腹いっぱい。
12/03/07 19:53:00.86 swqmJTzyP
>>102
おー、なるほど。かしこいなぁ。ありがとう!

>>100
そうでもないんじゃない?
たぶんリファラが上手く取れなくなるから業界には困る人もいるんじゃないのかな。

104:名無しさん@お腹いっぱい。
12/03/07 22:59:34.59 iDLnTtgs0
>>102
さんくす。
Set-Cookie:の方を今まで他で使っていたから、同様にやったんだが、動いてくれなかった。
Cookie:じゃないとダメなんだな。
違いがわからん。

105:名無しさん@お腹いっぱい。
12/03/07 23:30:11.39 JL43Mhls0
いつの間にか、googleで検索した時、前後に余計な物がつくようになってるんだけど
これって何とかならないのかな
例えば郵便番号で検索して
URLリンク(www.post.japanpost.jp) だと
URLリンク(www.google.co.jp)
検索結果からurlをコピーする時に面倒だなあ
javascriptのonにするとまた挙動が違うみたいだけど不便だ……

106:名無しさん@お腹いっぱい。
12/03/08 00:00:23.61 lyU8EqZ00
onmousedownを消せばいい

107:名無しさん@お腹いっぱい。
12/03/08 12:32:41.25 RU6nu/7a0
[Patterns]
Name = "Google Redirector Skipper"
Active = TRUE
URL = "www.google.co.jp/search\?"
Bounds = "<h3[^>]+><a\s*>"
Limit = 1024
Match = "(<h3[^>]+><a href=\")\0/url\?q=\1\&sa=U\&[^>]+>"
Replace = "\0$UESC(\1)">"

108:107
12/03/08 21:17:31.67 +/PetR800
ああ、あかんね。アンパサンドの文字参照そのまま投稿してもうたわ。


[Patterns]
Name = "Google Redirector Skipper"
Active = FALSE
URL = "www.google.co.jp/search\?"
Bounds = "<h3[^>]+><a\s*>"
Limit = 1024
Match = "(<h3[^>]+><a href=\")\0/url\?q=\1\&amp;sa=U\&amp;[^>]+>"
Replace = "\0$UESC(\1)">"

109:名無しさん@お腹いっぱい。
12/03/08 23:46:39.79 BdNXS7Xb0
Boundsはなんで残してるの?

110:名無しさん@お腹いっぱい。
12/03/09 03:21:47.97 oHzltSqv0
[Patterns]
Name = "Google : add link - 186 - Kaizou li ver [2011/04/24] "
Active = TRUE
Multi = TRUE
URL = "$TYPE(htm)[^.]+.google.co(.jp|m)/"
Limit = 32
Match = "</li> (^(^</ol> </div> <div id=$AV(gbg)>))"
"$URL(*[?&]q=([^&]+{1,*})\1)"
"$SET(2=</li><li class="gbt gbt_add_link">)"
"$STOP()"
Replace = "\2"
"<a class="gbzt" href="URLリンク(www.nicovideo.jp)">ニコ</a>\2"
"<a class="gbzt" href="URLリンク(www.youtube.com)">YT</a>\2"
"<a class="gbzt" href="URLリンク(ja.wikipedia.org)">Wiki</a>\2"
"<a class="gbzt" href="URLリンク(find.2ch.net)">2ch</a>\2"
"<a class="gbzt" href="URLリンク(search.yahoo.co.jp)">Yahoo</a>\2"
"</li>"
"<style type="text/css">.gbt_add_link a { padding:0 5px; }</style>"

うごかないすー

111:名無しさん@お腹いっぱい。
12/03/09 04:30:29.83 nIC/ZbQg0
</li> (^(^</ol> (</div> )+{1,2}<div id=$AV(gbg|gbq)>))

112:名無しさん@お腹いっぱい。
12/03/09 18:51:41.02 oHzltSqv0
ありがとうございまっす!

113:105
12/03/09 23:02:04.06 l/ndcCgZ0
>>106-108
ありがとうございます
なんとなく>>108のを使ったら解決しました
>>108のは名前からしててっきり
”数秒たってもリダイレクトされない場合は、ここをクリックしてください。”
のページを回避するための物かと思ってたんですがどうも違ったようで
作成依頼スレではないんでしょうが、これをありがたく使わせてもらいます

114:名無しさん@お腹いっぱい。
12/03/10 16:32:25.81 UiqOAbAZ0
age

115:名無しさん@お腹いっぱい。
12/03/10 18:56:35.41 2OFVx7At0
>>111
IEではおkなのですがfirefoxとchromeでは適用されません

116:名無しさん@お腹いっぱい。
12/03/10 19:45:39.08 NgN0Y9Bt0
>>115
ログインの有無じゃないの?>>102
Chrome / sleipnir2.99(IE9) / firefoxで問題ない

117:名無しさん@お腹いっぱい。
12/03/10 20:09:36.42 2OFVx7At0
うーむ
Chromeの拡張を全部切ってフィルタも>>110+111に>>102を入れてみたけどIE以外は変わらない
CookieもCacheも消してログアウトしてるんだけど

118:名無しさん@お腹いっぱい。
12/03/10 20:29:57.15 NgN0Y9Bt0
すまん、>>110を改変したやつを使っていたんだが、>>110を入れてみて原因がわかった。
Limitが少ない。64で大丈夫。
3/5にフィルタ修正>>111して、その時Limitを増やしたのを忘れてた。

フィルタが動かなかったらとりあえずLimitを増やしてみると良いよ

119:名無しさん@お腹いっぱい。
12/03/10 22:56:40.26 2OFVx7At0
>>118
できました!有り難うございます

120:名無しさん@お腹いっぱい。
12/03/11 22:22:09.56 WuK6lQlG0
yaplogやameblo.jpの上部に出る検索窓他の広告を消したいのだけどヘッダーをまるごと消すとデザインが崩れてしまう・・・
デザインが崩れずに消すいい方法はないかな?

例ページ
URLリンク(yaplog.jp)

121:名無しさん@お腹いっぱい。
12/03/11 22:31:20.56 kqYpQtM50
ただ非表示にしたいだけならスタイルシートでvisibleとかdisplayを指定してやればOK


122:名無しさん@お腹いっぱい。
12/03/11 22:41:25.85 v9/OaY540
普通に消せば崩れないと思うが。

123:名無しさん@お腹いっぱい。
12/03/12 01:44:09.64 5xJGVCkG0
例えば
<script type="text/javascript" src="URLリンク(static.yaplog.jp)" charset="shift_jis"></script>
を消すとサイドバーがページ下部にくっついてレイアウトが崩れてしまう・・・

124:名無しさん@お腹いっぱい。
12/03/12 09:46:32.78 FAIiw2RSP
ブラウザによるんじゃね
Chromeだと別に問題ないし
それか消し方が悪いか

書いたフィルタ貼ったほうがいいと思う

125:名無しさん@お腹いっぱい。
12/03/12 17:07:57.02 5xJGVCkG0
[Patterns]
Name = "yaplog AD killer"
Active = TRUE
URL = "yaplog.jp"
Limit = 2048
Match = "<script type="text/javascript" src="URLリンク(static.yaplog.jp)" charset="shift_jis"></script>"
Replace = "<!-- Target AD is killed>"


これでいい?(´・ω・`)

126:名無しさん@お腹いっぱい。
12/03/12 21:42:19.11 1ylRm19Q0
>>125
コメントが閉じてない。

127:名無しさん@お腹いっぱい。
12/03/12 22:23:41.40 FAIiw2RSP
だな
つかReplaceは空でいい

128:名無しさん@お腹いっぱい。
12/03/12 22:50:28.16 d7MLUq/L0
どう見ても2048もいらないが、まあそこはどうでもいいや

129:名無しさん@お腹いっぱい。
12/03/13 00:56:14.12 m92KCZa10
ありがとう。うまくいったよ。

130:名無しさん@お腹いっぱい。
12/03/17 00:19:09.40 uzNWMUm50


131:名無しさん@お腹いっぱい。
12/03/17 18:07:07.95 OYg0k3s+0
AdListにぶち込めば済む話なんじゃ・・・

132:名無しさん@お腹いっぱい。
12/03/18 17:01:33.72 /dUwj0n40
ついっぷるトレンドのリンク先にリダイレクトをかけたいのですがどう記述すればいいでしょうか

(例)
URLリンク(tr.twipple.jp)
このページを開いたら

URLリンク(twitpic.com)
読み込みをキャンセルしてこのページへ自動ジャンプさせたいのです

133:名無しさん@お腹いっぱい。
12/03/18 17:05:33.74 ev0Mh3n50
[Patterns]
Name = "New HTML filter"
Active = TRUE
Limit = 126
Match = "<a href="javascript:void\(0\);" onclick="tweettwipple\(this\);" class="tuIcon" rel="\0">"
Replace = "<a><meta http-equiv="Refresh" content="0;URL=\0">"


134:名無しさん@お腹いっぱい。
12/03/18 17:58:00.81 /dUwj0n40
ありがとうございます

[Patterns]
Name = "twipple trend auto redirect"
Active = TRUE
URL = "tr.twipple.jp/detail_gazou/"
Limit = 1000
Match = "<a href="javascript:void\(0\);" onclick="tweettwipple\(this\);" class="tuIcon" rel="\0">"
Replace = "<a><meta http-equiv="Refresh" content="0;URL=\0">/k"


どうせジャンプしてしまうので読み込みキャンセルを加えてみたのですが↓だと動かないのは何故でしょうか・・・

URLリンク(tr.twipple.jp)

135:名無しさん@お腹いっぱい。
12/03/18 18:13:21.43 ev0Mh3n50
うちでは動くからあんたの環境が問題だろう

136:名無しさん@お腹いっぱい。
12/03/18 18:34:32.01 /dUwj0n40
[Patterns]
Name = "twipple trend auto redirect"
Active = TRUE
URL = "tr.twipple.jp/detail_gazou/"
Limit = 1000
Match = "<a href="javascript:void\(0\);" onclick="tweettwipple\(this\);" class="tuIcon" rel="\0">"
Replace = "<a><meta http-equiv="Refresh" content="0;URL=\0">\k"

これで動きました
色々ありがとございます

137:名無しさん@お腹いっぱい。
12/03/19 08:21:32.36 hXwWAsyA0
最近この自動生成クソサイトがGoogleに引っかかりまくっててウゼェ
URLリンク(rv22.sakuraweb.com)

138:名無しさん@お腹いっぱい。
12/03/19 09:23:20.52 +5xscKOo0
で?

139:名無しさん@お腹いっぱい。
12/03/19 14:59:06.69 1WQ58Qz40
ど?

140:名無しさん@お腹いっぱい。
12/03/19 20:23:06.92 VX50S4GW0
ん?

141:名無しさん@お腹いっぱい。
12/03/19 20:46:45.41 VJ/3UWsT0
BB2Cからオミトロン経由で書きこむと
「ブラウザがヘンです」errorが出るのはどうして?
バイパスにしてもダメです。
直接だと書き込めます。
何か心当たりのある人いる?

142:名無しさん@お腹いっぱい。
12/03/19 20:58:22.07 HTvZYcwO0
まず質問するスレを間違えてる事に気付くべき

143:名無しさん@お腹いっぱい。
12/03/19 21:20:35.05 VJ/3UWsT0
残念

144:名無しさん@お腹いっぱい。
12/03/19 21:30:25.55 VJ/3UWsT0
というかフィルタ作ったら書き込めるようになったw
ってことはスレチじゃないんじゃね?

145:名無しさん@お腹いっぱい。
12/03/19 22:04:31.05 6XQsGS9w0
.js経由で呼び出されているhtmlにはProxomitron適用されないの?(´・ω・`)

146:名無しさん@お腹いっぱい。
12/03/19 22:26:01.85 CkCLf0hN0
されるだろ

147:名無しさん@お腹いっぱい。
12/03/21 08:11:50.85 ap1TQxlx0


148:名無しさん@お腹いっぱい。
12/03/21 19:26:41.90 IbzCO9MY0
>>145
もうちょっとHTTP勉強しようぜ

149:名無しさん@お腹いっぱい。
12/03/24 11:13:30.67 9ClcZc780
あげますよと

150:名無しさん@お腹いっぱい。
12/03/24 12:44:52.32 bhf5SuFT0
画像urlの中に含まれてしまうspanタグだけを取り除くフィルタをお願いします。

URLリンク(xxx.com) class=scolor>hunt</span>/1.jpg
URLリンク(xxx.com) class=scolor>hunt</span>/xxx.html
↓ ↓ ↓
URLリンク(xxx.com)
URLリンク(xxx.com) class=scolor>hunt</span>/xxx.html

151:名無しさん@お腹いっぱい。
12/03/25 00:14:54.34 dXVZm3Z40
Match (URLリンク(xxx.com))\1<span class=scolor>hunt</span>(/1.jpg)\2
Replace \1\2

152:名無しさん@お腹いっぱい。
12/03/25 00:39:29.64 Z3s85i2C0
横レスだけど勉強になった
Matchにも\1\2が入るんだな
普段、秀丸正規表現しか使っていないから気付かなかった

153:名無しさん@お腹いっぱい。
12/03/27 00:17:49.66 x6VEz8Zw0
AmazonがHTTPヘッダを返さないことがあって、IEがファイルの保存ダイアログを出しまくる
なんとかならんのか

154:名無しさん@お腹いっぱい。
12/03/27 12:30:09.28 up0obDYH0
>>153
別の問題があるのでは?

155:名無しさん@お腹いっぱい。
12/03/27 15:01:20.55 nvLBTtdP0
>>153
うちもfirefoxでそんな症状だったけど
ルータのファームウェア更新したら症状が出なくなった

156:名無しさん@お腹いっぱい。
12/03/31 11:22:56.40 9dbUpaoe0
Mozilla/5.0 (********) AppleWebKit/533.1 (KHTML, like Gecko) Version/4.0 Mobile Safari/533.1/*****/aaaaaa/bbbbbb/cccccc/version

このようなUser-Agentに含まれる「/aaaaaa/bbbbbb/cccccc/」といった固有文字列を
「/dddddd/eeeeee/ffffff/」に置き換えたいのですが

IN = TRUE
OUT = TRUE
Key = "User-Agent: UserAgent Replace"
Match = "/aaaaaa/bbbbbb/cccccc/"
Replace = "/dddddd/eeeeee/ffffff/"

としてみても置き換わりません。どのように記述すれば置き換えられるのでしょうか?

157:名無しさん@お腹いっぱい。
12/03/31 14:49:35.46 u52V3Tpb0
脊髄反射で答える前に彼が何をしようとしているのか考えてみることにした

158:名無しさん@お腹いっぱい。
12/03/31 15:13:46.21 h7yiGDwW0
始めてみるタイプ

159:名無しさん@お腹いっぱい。
12/04/01 00:53:38.99 Hb6nFhoH0
ヘッダフィルタはURLマッチと同じで前方一致でマッチングを試みるから。

それと、ヘッダフィルタはウェブページフィルタと違って
Replace欄には「マッチした部分をこう書き換える」という文字列だけではなくて
書き換え後の文字列全体を指定しておかないといけない。

君の書いたフィルタだと、たとえマッチしたところで、User-Agentヘッダフィールドは
「User-Agent: /dddddd/eeeeee/ffffff/」というものになってしまうよ。


Match = "\0/aaaaaa/bbbbbb/cccccc/\1"
Replace = "\0/dddddd/eeeeee/ffffff/\1"


あとUser-AgentでINをチェックするなんて意味ないよ。(していても、害はないけど)

160:156
12/04/01 02:05:34.76 oeQwgOsP0
>>159
ありがとうございます!出来ました!

>>157-158
スマホで使うサイトに会員登録が必要なサイトがあるんですが
/aaaaaa/bbbbbb/cccccc/の部分は各端末固有の文字列なので
それを会員登録していない端末でアクセスした場合、会員登録した端末の固有文字列に置換すれば
会員登録していない端末でも会員登録が必要なサイトが使用できる、という事です。

161:名無しさん@お腹いっぱい。
12/04/01 02:28:28.37 HUu1N9TF0
それは高木にバレたら潰されるね

162:名無しさん@お腹いっぱい。
12/04/01 18:31:18.45 lqAdiCVi0
閲覧するだけなら問題ないだろうけど、それでなんらかの利益を得られたらガチで訴訟まであるぞ
裁判官はその行為をハッキングだと信じるだろう

163:名無しさん@お腹いっぱい。
12/04/01 18:31:46.51 lqAdiCVi0
問題ないっていうか、ばれないという意味ね

164:名無しさん@お腹いっぱい。
12/04/01 18:38:15.25 fiSy41LH0
自分で勝手にするならまだしも、人に教えてもらってまでそんなことするとか
異常すぎる

165:名無しさん@お腹いっぱい。
12/04/01 21:21:50.80 MNUUUDH+0
IPアドレスでも判断するんじゃないの?
wi-fi でアクセスできない場合とかあるし。

166:名無しさん@お腹いっぱい。
12/04/01 22:28:14.17 O3fDErWB0
端末を複数持っていて
どっちみち会員登録されているのが自分の端末なのなら大丈夫なような気はするけど
(ただ、約款によるかも。アクセス権はユーザー毎ではなくて端末毎に発行しているとかね)
他の登録ユーザーの端末を偽装して、というのであれば、
端末固有の文字列が事実上のユーザーパスワードの役割を果たしているので
不正アクセス禁止法に抵触する可能性はあるね。

167:名無しさん@お腹いっぱい。
12/04/02 02:09:57.32 0otQ5EEt0
NicoVideo: header light 効いてないの俺だけ?
110707+応急処置でダメだった
別窓検索が便利なのに

168:名無しさん@お腹いっぱい。
12/04/03 19:37:50.81 xou9tnyQ0
 


169:名無しさん@お腹いっぱい。
12/04/03 22:04:04.99 Ut8Cx7qM0
[Patterns]
Name = "no ad script"
Active = TRUE
URL = "(^$KEYCHK(^C))$TYPE(htm)"
Bounds = "<script*</script>"
Limit = 4000
Match = "*ad(_|s)*"

このようなフィルタを書いてみたのですが

Fads

が含まれていても消えてしまい困っています

Match = "*(^F)ad(_|s)*"

だと逆に全てヒットしなくなってしまいます
どう記述すればいいでしょうか?

170:名無しさん@お腹いっぱい。
12/04/03 22:36:27.35 v8EMLmuo0
*[^F]ad(_|s)*
A(^~)はAの後に~が続かない場合にマッチする。前は見ない

171:名無しさん@お腹いっぱい。
12/04/04 01:01:30.33 6SHzKPXi0
ありがとうございました

172:169
12/04/07 01:39:18.31 CWn3hCAU0
追加質問させてください

Fads
head
を例外条件とする場合は
Match = "*[^(F|he)]ad(_|s)* "

でいいのでしょうか?
どうも上手く動いていないようなのですが・・・

173:名無しさん@お腹いっぱい。
12/04/07 01:50:07.22 n5JXFtcG0
[^(F|he)]

(F|he)の6文字以外の任意の1文字

174:名無しさん@お腹いっぱい。
12/04/07 03:06:21.47 fJZcRaNHP
Match = "((F|he|)?)++ad(_|s)*"

175:名無しさん@お腹いっぱい。
12/04/07 03:30:07.47 fJZcRaNHP
訂正 Match = "((F|he)+?)++ad(_|s)*"

176:名無しさん@お腹いっぱい。
12/04/07 03:57:24.45 m9PA7SqU0
個人的には
Bounds = "<script *(^(Fads|head))*</script>"
ってしちゃうかな
速度的には不利かも知れないけど

177:名無しさん@お腹いっぱい。
12/04/07 06:06:29.79 I75MEUnS0
tk誤爆大杉で実用は厳しいと思うよそれ>>169
どうせその内疲れてリスト作るだろうから最初からリストにしといた方がいいと思う
あるいは *["'.{$\s+_-]ad(s|)[0-9\s.;{+_-]* このくらいに制限しとくとか

178:名無しさん@お腹いっぱい。
12/04/07 07:49:34.84 cvDfDJ7C0
>>175
なるほど、最初見たとき間違いかと思ったけど、開始位置を固定すればこれでいいんだね
この ((~)?)++ ってパターンは応用範囲広いなあ

179:名無しさん@お腹いっぱい。
12/04/08 16:37:31.57 /4dhZ4Sx0
(゚~゚)?

180:名無しさん@お腹いっぱい。
12/04/14 22:00:10.43 j50UEd8Z0
今開いているページのURLが格納されている変数はないのでしょうか?

181:名無しさん@お腹いっぱい。
12/04/14 23:08:14.45 j50UEd8Z0
って\uでいいのか

182:名無しさん@お腹いっぱい。
12/04/16 01:30:59.58 bvKFTntl0
よく考えたらマスターユニットは脱力出来ないな
支援でファンネル使えないし

183:名無しさん@お腹いっぱい。
12/04/16 01:31:55.06 bvKFTntl0
誤爆

184:名無しさん@お腹いっぱい。
12/04/19 21:54:01.82 EEwMouO10
URLリンク(neverdying.deviantart.com)
このサイトの左側に表示されている「Gallery Folders」という縦長の欄を消したいのですがどうも上手くいきません

Name = "Gallery Folders remove in deviantART"
Active = TRUE
URL = "$TYPE(htm)"
Limit = 128
Match = "<div(^(^\s[^>]++class=$AV(gr)))"
Replace = "<div style='display: none'"

すみませんが教えてください。よろしくおねがいします

185:名無しさん@お腹いっぱい。
12/04/19 22:35:35.51 aiGQvF2d0
.gruze-sidebar {display:none;}?
消す場所が違う。
非表示似た要素の親で横幅指定されてる。
chromeの要素を検証とかでhtml構造見ると良いよ。

186:名無しさん@お腹いっぱい。
12/04/27 00:16:08.00 qfjDc8uM0
「<b>から</b>で囲まれた語句」に対し、「この語句」に、「この語句でgoogle検索した結果へのリンク」を挿入して手動で検索する手間を省きたいです。

<b>\0</b>でマッチさせればいいとしてRelpaceはどう書けば良いのでしょうか?

187:名無しさん@お腹いっぱい。
12/04/27 10:33:11.20 7EKQXv/aP
日本語でおk

<a href="URLリンク(www.google.co.jp)この語句">この語句でうんたらかんたら</a>
って書けばいいんじゃないの?
この語句ってなんだよ。どの語句だよ。\0か?マジで何言ってるかわからん。
あと日本語をReplaceに直接書いても通らないからちゃんとエンコードするか英語で書くようにアレして。

188:名無しさん@お腹いっぱい。
12/04/27 12:55:15.04 VmMTA1FY0
はてなとかのキーワードリンクみたいに該当語句にリンクを貼りたいものの
該当語句が日本語の場合にURLエンコードで躓いたか
もしくはRelpaceに「この語句でry」をそのまま日本語で書こうとしたとエスパー

189:名無しさん@お腹いっぱい。
12/04/28 02:03:50.32 wkBvN/iG0
age

190:名無しさん@お腹いっぱい。
12/04/28 18:38:39.59 NNwqj3bV0
「今開いてるページのURL」をRelpaceに含めたいんですが
そういうコマンドってないんですか?

191:名無しさん@お腹いっぱい。
12/04/28 18:41:19.94 rVqVJqJJ0
URLリンク(proxomitron.sakura.ne.jp)

192:名無しさん@お腹いっぱい。
12/04/28 23:46:29.89 6oHAc1/Z0
>>188
その通りです。

<b>この語句</b>

このようなページに対し、

Match
<b>\0</b>

Replace
<a href="URLリンク(www.google.co.jp)変換した\0">\0</a>

としたいのです。

193:名無しさん@お腹いっぱい。
12/04/29 01:36:35.89 dtJBE8+E0
文字コード変換したいなら自分で変換テーブル(つーかリスト)書くしかないね
俺なら文字コード指定付けてそのままサーチエンジンに渡すけどな
あ、$ESC()も忘れるなよ

194:190
12/04/29 12:06:27.43 TV2xj7Ie0
>>191
ありがとうございます。
コマンドじゃなくエスケープなんですね

195:名無しさん@お腹いっぱい。
12/04/29 20:29:25.54 Z8ugcHsN0
>>193
情報有り難うございます。

URLリンク(webos-goodies.jp)
ここを参考にして以下の記述で上手くいきました。


Match
<b>\0</b>
Replace
<a href="URLリンク(www.google.com)(\0)" target="_blank"><b>\0</b></a>


URL
www.google.com/search\?\&hl=ja\&ie=euc-jp\
Match
<h? class="r"><a href="\0>
Replace
<a><meta http-equiv="Refresh" content="0;URL=\0">\k



196:195
12/04/29 20:34:51.40 Z8ugcHsN0
本当はI'm feeling luckyも組み込みたかったのですが挫折したためフィルタを2つに分けました・・・

197:名無しさん@お腹いっぱい。
12/04/29 22:27:35.56 Z8ugcHsN0
検索精度が悪かったので少し修正

Match
<b>\0</b>
Replace
<a href="URLリンク(www.google.com)用語集サイトURL&q=$ESC(\0)" target="_blank"><b>\0</b></a>


URL
www.google.com/search\?\&hl=ja\&ie=euc-jp\&sitesearch=用語集サイトURL
Match
<h? class="r"><a href="\0>
Replace
<a><meta http-equiv="Refresh" content="0;URL=\0">\k

198:名無しさん@お腹いっぱい。
12/04/30 11:08:40.20 m+S09b0Y0
HTTP/1.0 304 Not Modified

200や304の値を編集して404にしたいのですが不可能でしょうか?
\kは使いません

199:名無しさん@お腹いっぱい。
12/04/30 19:25:43.59 E9FE4MMP0
$NEST((<form)\#,(\s[^>]++id=$AV(tsf)[^>]+>)\#(*(<input\s[^>]+>)\#$SET(\#=&#8194;))+*,</form>)

上記のフィルタで元のHTML(www.google.comの検索結果)に以下のようなinput要素が含まれているとマッチしません。
<input class="lst lst-tbb" value="GLib-CRITICAL **: g_variant_new_string: assertion `string != NULL' failed" title="検索" size="41" type="text" autocomplete="off" id="lst-ib" name="q" maxlength="2048"/>

NULLの後のシングルクォートを無くすとマッチするので原因は分かったのですが、なぜこうなるのかさっぱりです。
こうなる理由とこういう場合にどう対処するのが定石なのかご存知でした教えていただけませんか?

200:名無しさん@お腹いっぱい。
12/04/30 20:53:16.26 JDBTn4AJ0
マッチングコマンドやメタキャラクタの存在自体を質問したりする奴もそうなんだけどさ
ヘルプ>>6読めよ。全部書いてあるから

201:名無しさん@お腹いっぱい。
12/04/30 22:05:37.31 E9FE4MMP0
>200
一通り読んで見つけたのは「"のあとの'がネストに対応している」ですが、だからと言って<input\s[^>]+>というマッチには関係ないと思うのですが……。
他に該当箇所があって見落としてしまっているのでしょうか?

202:名無しさん@お腹いっぱい。
12/04/30 22:32:33.85 bg8UOweB0
<form id="tsf">
<input class="lst lst-tbb" value="GLib-CRITICAL **: g_variant_new_string: assertion `string != NULL' failed" title="検索" size="41" type="text" autocomplete="off" id="lst-ib" name="q" maxlength="2048"/>
</form>
を対象にテストするとしっかりマッチするんだけど?

1,NEST必要?formってネストしていいんだっけ?
2,</form>が\#に収められてない。
3,再現できない。リミットは?

203:名無しさん@お腹いっぱい。
12/05/01 02:00:33.13 7y6xromR0
俺もlimitが臭いと思うね

>>202
formはネストできないことになってるし、違反しているサイトもまずないが
単に対になるタグを探す方法としても$NESTはほぼ最速かつ簡潔な書き方ができるので、よく使われる

204:名無しさん@お腹いっぱい。
12/05/01 18:40:37.74 woOVog2W0
広告ブロックで
文字列指定でブロックできるフィルタってないですか?

例えばlistにplusone.jsとかga.jsと書いておけばブロックしてくれる感じです

205:名無しさん@お腹いっぱい。
12/05/01 18:49:45.88 T0PbaHHp0
自分で作れ
その方が手っ取り早い

206:名無しさん@お腹いっぱい。
12/05/01 18:51:13.98 7y6xromR0
ファイル名を指定したいなら、AdListにデフォで
# Specific pathname components (after the first "/")
こんなのがあると思うが

スクリプト内の文字列にマッチしたいならKill JavaScript Bannersあたりを改造すればいいが
ページフィルタで1文字進むごとにリストを引くのは非常に遅いので注意だ

207:204
12/05/01 23:32:55.13 woOVog2W0
ありがとうございます
参考になります

208:名無しさん@お腹いっぱい。
12/05/02 01:28:46.75 tF0DF1WA0
*[_"'.{$\s+-/]ad(s|)(^l)[_0-9\s.;{+-]*

これに

.adsl.ppp.infoweb.ne.jp

がマッチしてしまうのはなぜでしょうか・・・

209:名無しさん@お腹いっぱい。
12/05/02 01:55:21.09 l6k0wK4U0
[\s]
\とsにmatch

210:名無しさん@お腹いっぱい。
12/05/02 02:12:42.10 8MJ/wjy40
sとSにマッチ

~(^adsl)(ad|ads)~ みたいに書いた方が分かりやすいかもね。

211:名無しさん@お腹いっぱい。
12/05/02 03:19:24.52 AJhEZ54B0
(s|) の部分、最初にsの方が選ばれるけど後続パターンが失敗するから、結局空マッチの方が選ばれて
つまり ad だけが消費されて、その後ろは l じゃないから否定をすり抜けちゃうわけだ

否定マッチの位置を手前にずらす必要がある
ad(^sl)(s|) とかあるいは>>210みたいに

212:名無しさん@お腹いっぱい。
12/05/02 21:19:45.99 tF0DF1WA0
解説ありがとうございました

213:名無しさん@お腹いっぱい。
12/05/02 23:19:54.02 ueIL9J5/0
みんな広告除去ってどんなフィルタ使ってるの?
AD Killerに同梱のリストはほぼ使い物にならないものなのかなぁ
あれだけあるとどれが不要なのかわからん

214:名無しさん@お腹いっぱい。
12/05/03 02:31:47.86 xUwbtT0y0
「除去」といっても対象によって手段がいくつかある。
・リクエスト遮断。\kを使う。
・IP詐称。.hostsを使う。
・不可視化。CSSを使う。
.hostsはProxomitronと関係ない。CSSはProxomitronと連携可能。

215:名無しさん@お腹いっぱい。
12/05/03 07:19:32.85 M9xxiUTp0
完全に手製
誤爆上等だけど何が誤爆してるのかすぐわかるから問題ない

216:名無しさん@お腹いっぱい。
12/05/03 07:35:58.05 vo+Hf28d0
自分にとって便利なように凝れば凝るほど他人にオススメできる物じゃなくなるよな

217:名無しさん@お腹いっぱい。
12/05/03 07:44:10.11 o02FgzNI0
対象の仕様変更に弱くなるからな

218:名無しさん@お腹いっぱい。
12/05/03 07:54:22.85 a89Co9XpP
ブラウザで管理、編集ができたら最強なのに

219:名無しさん@お腹いっぱい。
12/05/03 08:03:59.56 1rW0C1pU0
ブラウザ側からはいじれないし覗けないってのが理想だろう

220:名無しさん@お腹いっぱい。
12/05/04 10:40:16.60 51Bbm1jC0
お手製が一番便利だけど、最近じゃJavascriptので記述してdocument.writeとか
もろもろで追加する感じのが多いからな。
全て殺すならいいんだけど、一部だけ殺したい場合とかもあるし、
殺さないといけない部分が一部で残りは動作必要な記述だったりとかもあるし。

.scriptタグの中を調べるように記述すると、googleとかみたいにやたらscriptタグの中身が多いサイトだと、
フリーズしたかのようにCPU使用率が暫く跳ね上がって読み込みが時間かかるようになるんだけど、
軽く書ける方法あるんだろうか。
今はホワイトリストで除外してるんだけど。

221:名無しさん@お腹いっぱい。
12/05/04 18:27:25.12 6ACCgJxL0
殺す殺さないの判定が、メソッドの引数でできるなら、メソッド自体を書き換えるスクリプトを挿入するフィルタ。
グローバルで定義するなら、1文書に1回の適用で済む。
ただし、IE9はグローバルでdocumentが定数だから、エラーになるかも試練、確認してないけど。
ローカルスコープでは問題ないらしいから、全ての "function\(\) \{" の直後に挿入するのも考えられるけど、それだとメリットはない。

222:名無しさん@お腹いっぱい。
12/05/06 22:20:21.65 xwa9QuFi0
proxomitronのリストで管理してるからそれだと無理そうかな。
そっちの方が軽さとか考えるといいけど、汎用性も持たせると難しそうだ。

223:名無しさん@お腹いっぱい。
12/05/07 23:02:49.71 /dsrFxpt0
[Patterns]
Name = "Google | Ajax killer test-20110528"
Active = TRUE
URL = "(^$KEYCHK(^C))www.google.co(.jp|m)/(search\? $TYPE(htm)|extern_js/f/ $TYPE(js)(^$OHDR(Referer: *\&tbm=(isch|mbl)*)))"
Limit = 300
Match = "$TYPE(js)$STOP()\k|"
"(/extern_js/f/[^.]+.js)\#$SET(#=?prox-$DTM(tc))|"
"(<a [^>]++ class=$AV(gbmt|gbzt *) [^>]++)\# onclick=$AV(*)"
"|"
"(^$URL(*\&tbo=1*))$SET(#=<script>document.location="\u&tbo=1";</script>)$STOP()|"
"(^$URL(*\&prmdo=1*))$SET(#=<script>document.location="\u&prmdo=1";</script>)$STOP()|"
"$NEST(<a [^>]++ id=$AV(showmodes|tbpi),</a>)"
Replace = "\@"


こいつが検索結果2ページ目以降では動かなくて困っています
対応版をどなたか作成して頂けないでしょうか?

224:名無しさん@お腹いっぱい。
12/05/09 15:31:34.70 c6WYdMmp0
あるサイトでadblockが入ってると警告が出て
無効にしてから出直して来いと出るサイトがあるのですが(言うとおり無効にしても見れないっていう・・・)
そういうのを回避できるフィルタお願いします

225:名無しさん@お腹いっぱい。
12/05/09 15:42:21.25 UzgW2PsZ0
どのサイト?URLぐらい晒しなさいよ
こういうのならある
URLリンク(shinshu.fm)

226:名無しさん@お腹いっぱい。
12/05/09 16:26:05.13 QdDznKqh0
そういうサイトってあちこちにあるもんなのか?
今まで1回しか見たこと無いからわざわざソース見るのも面倒なんで
そこだけ別のブラウザで見たが

227:名無しさん@お腹いっぱい。
12/05/09 16:30:58.26 c6WYdMmp0
サイト名はiLix.inで
urlはURLリンク(urlink.at)という形のとこです
いわゆるリンクプロテクションサイトです

226のお言うとおり今まではIEで凌いでたんですが
広告やらポップアップがひどくてかなりイライラさせられるんで・・・

228:名無しさん@お腹いっぱい。
12/05/09 16:48:19.80 c6WYdMmp0
ついクセでurl部分隠してしまった、ごめん
URLリンク(urlink.at)

229:名無しさん@お腹いっぱい。
12/05/09 18:48:51.14 WRRWgwW30
多分adsense2.jsを読み込んだか弾いたかで判断してるだけと思う
ソースしか見てないから試してないけど
Match = "<script\stype=$AV(text/javascript)>\s+var\ adblock\s+=\s+true\s+;\s+</script>"
Replace = "<script type="text/javascript">var adblock = false;</script>"
これじゃだめかな

230:名無しさん@お腹いっぱい。
12/05/09 19:44:52.96 c6WYdMmp0
>>229
ありがとう
でも変化なしです

231:名無しさん@お腹いっぱい。
12/05/09 19:49:57.47 WRRWgwW30
>>230
そうかー。だったら://188.143.233.13/adz/adsense2.jsを許可してもだめ?

232:名無しさん@お腹いっぱい。
12/05/09 20:07:30.17 5ZUqoOwD0
めんどくさいからその割り込み画面作ってるscriptを潰したほうが早い
document.write(gui);を消せば十分か、試してないけど

233:名無しさん@お腹いっぱい。
12/05/09 21:30:09.86 c6WYdMmp0
>>231
許可というのはbypassListへ188.143.233.13/adz/adsense2.jsを追加しろということですか?
もしそうなら試しましたが変化なしでした
>>232
フィルタ作成についての知識は皆無で
もう少し具体的に教えてもらえないですか
すいません・・・

234:223
12/05/10 20:53:48.44 ma9Z8AHt0
>>232のアドバイス通りに書くとこんな感じでいいのか?

[Patterns]
Name = "urlink.at"
Active = TRUE
URL = "urlink.at/"
Bounds = "<script type="text/javascript">*</script>"
Limit = 3000
Match = "*document.write\(gui\);*"

235:名無しさん@お腹いっぱい。
12/05/10 23:30:07.63 TvrmaVbF0
>>234
ありがとう
割り込み画面回避できました

236:223
12/05/11 02:25:48.55 PKmVbqP80
うまく動いて何より

237:名無しさん@お腹いっぱい。
12/05/12 19:17:42.14 Q1Ijauz00
置換後文字列の文字数って限界があるの?
置換後文字列を3500バイトぐらいのフィルタ作ったら末尾数バイトが消えるんだけど

238:名無しさん@お腹いっぱい。
12/05/12 21:37:47.93 Jz7lzIvB0
俺エスパーじゃないからなぁ

239:名無しさん@お腹いっぱい。
12/05/12 23:46:40.39 RHCDG1jx0
>>237
自分で遭遇したり確認したことはないけど、wikiによれば限界はあるようです。

240:名無しさん@お腹いっぱい。
12/05/17 11:00:14.22 2aNj0yiL0
URLリンク(blog.livedoor.jp)
みたいなyoutube動画が大量に埋め込んであるページを貧弱なPCで踏んじゃっても
大丈夫なフィルターはないでしょうか?chrome使いです。

241:名無しさん@お腹いっぱい。
12/05/17 12:38:45.87 NemCjse60
>>240
サムネイル付けてyoutube該当動画へのリンクにしてしまえば?

URL = "(^[^.]+.youtube.com/)"
Limit = 640
Match = "$NEST(<object,*\s(src|value)=$AV(URLリンク(www.youtube.com)([^?&]+)\1*)*,</object>)"
Replace = "<a href="URLリンク(www.youtube.com)" target="_blank">"
"<img src="URLリンク(i2.ytimg.com)" style="border:1px solid #333;"></a>"

242:名無しさん@お腹いっぱい。
12/05/17 13:05:30.79 8T2MBFdm0
>>241
これはいい
横からだけどいただいた

243:名無しさん@お腹いっぱい。
12/05/17 15:22:41.37 2aNj0yiL0
>>241
ありがとうございます。非常に快適ですw

244:名無しさん@お腹いっぱい。
12/05/18 20:37:53.68 o31yPinv0
URLリンク(tr.twipple.jp)

これのソースを見ても画像タイトル名がソースに記述されていないのですが
画像タイトルでフィルタリングするにはどうすればいいのでしょうか?

具体的にはハングル語が含まれる画像が不快なので消して非表示にしたいのですが

245:名無しさん@お腹いっぱい。
12/05/19 00:44:14.37 RyTqjblK0
復帰

246:名無しさん@お腹いっぱい。
12/05/19 07:50:15.05 OL7hxvO60
タイトルってimg要素のalt属性のこと?

247:名無しさん@お腹いっぱい。
12/05/19 13:45:54.29 4xkOzFND0
firefoxだが、ページのソースを見ると確かに無いのに画像付近を範囲選択して「選択した部分のソースを見る」で
見てみるとIMGタグもalt属性もしっかりある。javascriptで動的に追加されてるのかな?

248:名無しさん@お腹いっぱい。
12/05/19 14:16:28.38 R/H/IIt60
>>244
とりあえず、どこにタイトルなどのデータが記述されているかは
ログウィンドウでアクセスしているURLを見ていれば分かると思う。

249:名無しさん@お腹いっぱい。
12/05/19 18:21:06.10 yJfT3aaE0
httpのアクセス傍受してりゃどっかのファイルに記述されてる
あとはそこに手を加えるだけ

250:名無しさん@お腹いっぱい。
12/05/19 23:54:18.11 HA/Z9+7l0
ログを見てもどこにも記述されていないのですが・・・

251:名無しさん@お腹いっぱい。
12/05/20 00:03:07.23 OL7hxvO60
URLリンク(tr.twipple.jp)

252:名無しさん@お腹いっぱい。
12/05/20 00:37:23.99 /6CJP9T10
/data/url_ranking/image/recent.js
そろそろ解答

253:名無しさん@お腹いっぱい。
12/05/20 01:17:06.27 WbpFKQow0
[Patterns]
Name = "No Korean"
Active = TRUE
URL = "tr.twipple.jp/data/url_ranking/image/recent.js"
Bounds = "{"thumbnailUrl*},"
Limit = 1000
Match = "*([%e1][%84-%85][%80-%9f]|[%e1][%85-%86][%a0-%a2]|[%e1][%86-%87][%a8-%b9])*"

これで上手くいきました。

今度はこれを応用してメインページ側(URLリンク(twipple.jp))にも適用しようと調査しているのですが、
画像自体は
URLリンク(s1-04.twitpicproxy.com)数字.jpg?key=数字
に格納されているようなのですが本文を格納していると思われる.jsが存在していないようです

これはまた別の手法で文章表示させているのでしょうか?

254:名無しさん@お腹いっぱい。
12/05/21 11:44:48.88 MmOazDBH0
htmlの中で、上の方のJava Scriptの定義やらなんやらをバッサリ消して、
途中の部分だけ抜き出し、そこから先をまたバッサリ削る。と言う場合、
ウェブページフィルタ は、どのような構造の物になりますでしょうか?
単一フィルターでは無理で、それぞれに分けないといけませんか?

255:名無しさん@お腹いっぱい。
12/05/22 01:24:16.44 Gy02adZy0
はちまは前は見てたけど
もう見てないな

256:名無しさん@お腹いっぱい。
12/05/22 01:25:04.91 Gy02adZy0
誤爆

257:名無しさん@お腹いっぱい。
12/05/22 03:11:32.44 59XO9Iu7P
>>254
特定の部分だけを残して他を消す程度ならフィルタ1つでいけるんじゃないかな
どんなフィルタかは元のhtml次第だから具体例があった方がいい

258:254
12/05/22 17:19:22.93 FU/yoAxd0
>>257
ニュースサイトのニュースの部分です

ここ↓の、
URLリンク(mainichi.jp)

<div class="NewsBody clr">
から、
</div> <!-- NewsBody:END -->
以外の部分をバッサリと削りたいです。
<html>や、<head>は、後付けでも構いません。

よろしくお願いします。

259:名無しさん@お腹いっぱい。
12/05/22 18:28:48.15 PTP7qZGu0
$NEST(<script,</script>)
とか指定して必要ないやつを片っ端から消していけばいい

260:名無しさん@お腹いっぱい。
12/05/22 20:48:35.71 9JiTwaGJ0
>>258
何も考えずに作ればこれだな

Limit = 60000
Match = "(<body [^>]+>)\0*(<div class="NewsBody clr">)\1|(</div> <!-- NewsBody:END -->)\0*(</body> </html>)\1"
Replace = "\0 \1"


261:名無しさん@お腹いっぱい。
12/05/22 20:51:33.57 pi20hzK60
頭から普通にマッチして、ケツは\kで切るのが基本

>>259
その$NESTはまずいね
</script> は普通スクリプトの中には現れないが
<script は document.write("<script~") とかされることがよくあるので相方が見つからなくなる

262:名無しさん@お腹いっぱい。
12/05/22 21:30:45.79 3f+pRW8P0
昔のIEは、文字列で '<script ...' 食わせるとエラ~吐いたから、'<scr' + 'ipt ...' とかしてた筈だが、今は平気なのか?
JavaSは読み込んだその時点で実行だから、document.writeに渡した時点で、閉じタグを書き出さない限りコードは終わらないと思うが。

263:名無しさん@お腹いっぱい。
12/05/22 22:09:06.08 3f+pRW8P0
近くのサイトのソース見たら、'<script ...<\/script>' だった、なるほど。
>>262 はスルーしてくれ。

264:名無しさん@お腹いっぱい。
12/05/23 01:28:03.35 qSfUOUmg0
ちっとわかりにくい書き方だったね
"</scr" + "ipt>" みたいなのは、閉じタグの方にだけ行われることが多いっつーことね
なぜかというと、生の閉じタグが現れたらそこでスクリプトが終わっちゃうから
一方、開始タグには目だった害はないので、たいてい直書き

265:名無しさん@お腹いっぱい。
12/05/23 01:48:29.93 oT/GvnuB0
ちなみに>>261のパターンってどんなの?
いまいちテストで引っかかるパターンが作れない

266:名無しさん@お腹いっぱい。
12/05/23 02:19:38.60 49S/pk/F0
$NEST() はクオートの中は開始タグ・終了タグとして検査しないはずだから
document.write("<scirpt>");
document.write("</script>");
document.write("<scr"+"ipt>");
document.write("<"+"/script>");
とかは全部無視されると思われ。

267:名無しさん@お腹いっぱい。
12/05/23 10:23:38.65 M9UoTRzz0
ほんとだ、>>266全部大丈夫だった。

268:名無しさん@お腹いっぱい。
12/05/23 12:22:08.14 8mb6e0we0
>>266
おお、その挙動は知らなかった
しかしこういうケースでハマった経験が何度かあるのも事実なんだよね

多分、クォートを解釈する部分がいつもうまく動くとは限らないんじゃないかな
<script>/* I'm a comment */ document.write('<script></scr'+'ipt');</script>
こんな風にコメントの中にクォートの始まりのように見えるものがある場合とか

269:名無しさん@お腹いっぱい。
12/05/23 12:49:51.28 49S/pk/F0
>>268
じゃあ$NEST()使わずにフィルタ書いてればいいと思うよ。

270:名無しさん@お腹いっぱい。
12/05/23 15:34:33.10 WDLgiZY50
\"にも対応してるんだっけ?\\"があったらどうなるんだっけ、もう使ってないから忘れた。

271:254
12/05/24 00:30:05.47 6trnY91n0
>>260
ありがとうございました。
うまくいきました。

>>259 さんのは、そのままではだめだと言う事のようですが、
他の方々の御意見はちょっと難しくてわかりませんでした。

272:名無しさん@お腹いっぱい。
12/05/24 14:20:27.20 7R7vMDy40
>>241
URLリンク(netamesi.blog.fc2.com)
このページにも対応できないでしょうか?

273:名無しさん@お腹いっぱい。
12/05/24 14:43:43.24 IO55djKT0
Match = "$NEST(<object,*\s(src|value)=$AV(URLリンク(www.youtube.com)([^?&]+)\1*)*,</object>)"
"|<iframe\s[^>]++src=$AV(URLリンク(www.youtube.com)(embed|v)/([^?&]+)\1*)[^>]+>*</iframe>"

274:名無しさん@お腹いっぱい。
12/05/25 16:17:48.83 ryq2sdn50
ネットのチラシを集めたサイトがあって、このうちよく行く店だけを表示させたくてこういうフィルタを作ったんですが。

Name = "chirashi de setsuyaku"
Active = TRUE
URL = "$TYPE(htm)chirashi.valueinfosearch.net/area/kanagawa/fujisawa/"
Limit = 1024
Match = "((<tr><td class=$AV(name)*</tr>(<tr><td class=$AV(comment)>*</tr>)+{1,3}) && *("
"・・・ ここに消したい店の名前をUTF8エンコードして入れる ・・・"
")*)"
Replace = "\n"

name属性の tdタグに店名、それに続いて comment属性の tdタグにはチラシの詳細などが 1~3行あって一まとまりに
なってるんですが、一まとまりにしている単位が変(構造化されてない)だからCSS改変ではやりづらい。
ちなみに店舗の順番は固定ではなく、チラシが更新された店舗が上に来るフロート式です。
(続く)


275:名無しさん@お腹いっぱい。
12/05/25 16:19:04.82 ryq2sdn50
たとえば「相鉄ローゼン」のうち、湘南台店・みろく寺店 以外を消そうと考えて  ローゼン(^湘|み)  と書き、

Match = "((<tr><td class=$AV(name)*</tr>(<tr><td class=$AV(comment)>*</tr>)+{1,3}) && *("
"%e3%83%ad%e3%83%bc%e3%82%bc%e3%83%b3(^%e6%b9%98|%e3%81%bf)"
")*)"

これは意図通りに上手くいきました。

(続く)


276:名無しさん@お腹いっぱい。
12/05/25 16:21:43.89 ryq2sdn50
気を良くして次に店名か住所に「辻堂」が含まれるものを消そうとして
Match = "((<tr><td class=$AV(name)*</tr>(<tr><td class=$AV(comment)>*</tr>)+{1,3}) && *("
"%e8%be%bb%e5%a0%82"
")*)"
と書いたんだけど、こんな単純なものが何故かマッチしない・・・

また「ダイソー」が7店舗あるんですけど、このうち支店名が「藤」以外で始まる店を消そうとして  ダイソー (^藤)  と書き、
Match = "((<tr><td class=$AV(name)*</tr>(<tr><td class=$AV(comment)>*</tr>)+{1,3}) && *("
"%e3%83%80%e3%82%a4%e3%82%bd%e3%83%bc (^%e8%97%a4)"
")*)"

これも何故かマッチせず、すべてのダイソーの店が消えてしまいます。

ここ2日ほど見直してるんだけど、何が駄目なのか分からない・・・
分かる人いましたらお助け下さい。


277:名無しさん@お腹いっぱい。
12/05/25 17:34:55.87 wVjDuUXV0
なんか一生懸命だからエスパーしておく

例えば「消したい店の名前」にマッチさせたい場合
× %E6%B6%88%E3%81%97%E3%81%9F%E3%81%84%E5%BA%97
○ [%E6][%B6][%88][%E3][%81][%97][%E3][%81][%9F][%E3][%81][%84][%E5][%BA][%97]

多分相鉄ローゼンの場合はhrefの中身かなんかにマッチしただけかと

278:名無しさん@お腹いっぱい。
12/05/25 17:41:45.91 znBG7Bc60
>>274-276

ページのソース見ると
店名 → UTF-8 で記述されてる。
住所 → UTF-8 で記述されてる。
地図へのリンク(href="~") → UTF-8 の店名を URL エンコード(%xx 形式)して記述されてる。

%e8%be%bb%e5%a0%82 と書くと、URL エンコードされた部分にマッチするけど、UTF-8 にはマッチしない。

店名に「辻堂」が入ってるものは、地図へのリンクに URL エンコードされた %e8%be%bb%e5%a0%82 が
入っているからマッチして消せてる。

UTF-8 にマッチさせたいなら [%e8][%be][%bb][%e5][%a0][%82] と書けば、店名や住所の「辻堂」にマッチする。

ダイソーも地図へのリンクにマッチしてるんだけど、URL エンコードだとスペースは + に変換されるので
" (^%e8%97%a4)" だとマッチしない。除外指定がマッチしないから全部消えるという結果ね。

%e3%83%80%e3%82%a4%e3%82%bd%e3%83%bc(^\+%e8%97%a4)
として地図へのリンク(=URL エンコードされた店名)にマッチさせるか、

[%e3][%83][%80][%e3][%82][%a4][%e3][%82][%bd][%e3][%83][%bc] (^[%e8][%97][%a4])
として店名にマッチさせればいい。

279:274
12/05/26 14:16:17.57 UAoqUU+i0
>>277-278
単純なミスか勘違いだろうなと思ってはいたんですけど、やっぱりでしたね。恥ずかしい・・・

角カッコで括るのは以前書いたことがあるし、知ってたはずなのに失念してました。

長々と書いて済みませんでした。ありがとうございました。


280:名無しさん@お腹いっぱい。
12/05/29 22:03:45.65 ZFyWa3Bi0
ページ内の埋め込み動画の実態をリンク化するのってできます?

281:名無しさん@お腹いっぱい。
12/05/30 04:33:16.48 QvzbCydD0
できるかもしれないしできないかもしれない

282:名無しさん@お腹いっぱい。
12/06/01 10:59:26.24 eLpduaOY0
AdListでは、https:で始まるイメージ、
※例えばヤフーメールログイン時の広告(URLリンク(s.yimg.jp))
は、消せないのでしょうか?

283:名無しさん@お腹いっぱい。
12/06/03 18:18:30.64 j6oB+A/90
>>282
Proxomitronはデフォのままだとhttpsにはノータッチだよ


そしてどなたかGoogle | cleanup search resultsの更新をお願いします・・・

284:名無しさん@お腹いっぱい。
12/06/03 18:53:00.59 ehbNwIBh0
ADriveの認証ページをすっ飛ばすフィルタお願いします

285:名無しさん@お腹いっぱい。
12/06/04 00:38:06.15 zEqlcNRv0
>>282
広告があるページ(その例ならヤフーメールのログイン画面)がhttpなら
フィルタ内でhttp(s|)://$LST(AdList)*とかになってれば消せる
広告があるページがSSLならそのページ自体がバイパスされてる

286:282
12/06/05 00:41:02.61 cbXf4CL+0
>>285
ありがとう
非常にくっきり、スッキリ理解できました

287:名無しさん@お腹いっぱい。
12/06/06 17:59:47.19 nlics7TB0
Banner Blaster の最新版って、これ↓なんでしょうか?
誤爆が多いのですが、使わない方が無難?

[Patterns]
Name = "Banner Blaster (2003/05/24)"
Active = TRUE
Multi = TRUE
URL = "^www.nintendo.co.jp|www.amazon.com|www.amazon.co.jp|*.digikey.com"
Bounds = "<a\s[^>]++href=*</a>|<input*>|<ilayer*</ilayer>|<iframe*</iframe>|<object*</object>"
Limit = 900
Match = "(<(ilayer|iframe|object)*|\1<i(mg|mage|nput)*src=$AV(*)*>\3)"
"&(*(href|src)=$AV($LST(AdKeys)*)|"
"*URLリンク(*<i)(mg|mage|nput)\s(*>&&"
"(*width=[#460-480]&*height=[#55-60]*)))"
"&(*alt=$AV(\2)|$SET(2=Ad))"
Replace = "\1<font size=1 style="text-decoration:none; color=#AAAAAA;">"
"[ad]</font>\3"

288:名無しさん@お腹いっぱい。
12/06/06 18:40:18.44 w65hhA/J0
そりゃ誤爆するだろうな
俺はproxomitron使い始めてかなり早い段階でそのフィルタオフにしたと思う
で、hrefでAdList引くだけの簡単なフィルタを書いた (なぜかそういうものはプリセットにはなかった)

289:名無しさん@お腹いっぱい。
12/06/06 20:21:48.95 faD+Ecpm0
そのフィルタ晒せ

290:名無しさん@お腹いっぱい。
12/06/06 22:39:54.75 /Su+t21Q0
URL-KillerのリストにURLぶち込めばバナーも消えるし、間違えてクリックしても遮断するしで
Banner Blasterを使おうと思わなかった

291:名無しさん@お腹いっぱい。
12/06/10 01:34:51.64 lSUpJWoR0
質問です
FireFoxのAdblock Plusを使ってみたのですが
広告除去 & アフィカットがかなりの網羅率で驚きました

しかし、メインはAdblockを入れられないブラウザなので
Proxomitronを使って同等のことをしたいと考えています
Adblock Plus用リストをそのままProxomitronに使うことはできないのでしょうか?
よろしくお願いします。

292:名無しさん@お腹いっぱい。
12/06/10 04:58:21.62 VXNTPm8y0
無理
限界がある

293:名無しさん@お腹いっぱい。
12/06/10 08:50:19.53 MhgHFvsM0
そのままは無理だな

294:名無しさん@お腹いっぱい。
12/06/10 09:22:48.78 R+hWXe5i0
Proxomitronには通信切断されるバグがあるけどいいの?
広告カットする代わりに一部の画像が表示されない等の不具合が出るよ。

295:名無しさん@お腹いっぱい。
12/06/10 11:02:57.71 +e0dAz6G0
別に何とも
どうしても画像出ないと困る状況になったらバイパスすれば良いし、
そんな状況になった覚えも無い

296:名無しさん@お腹いっぱい。
12/06/10 13:06:06.49 i7OCtYWm0
バグでなく巻き添えカットじゃないのか。

297:名無しさん@お腹いっぱい。
12/06/10 14:35:28.67 R+hWXe5i0
>>295
バイパスしてるかどうかに関係なく出るよ。今まで使ってて気にならないなら大丈夫か。

298:名無しさん@お腹いっぱい。
12/06/10 14:39:34.78 USQjRlIU0
例えばどこで?どのような条件で?

299:名無しさん@お腹いっぱい。
12/06/10 14:41:10.73 USQjRlIU0
adblock plus のフィルタを使いたければ、自分で変換すればいいだろ
エディタやScript使え

300:名無しさん@お腹いっぱい。
12/06/10 14:47:55.02 R+hWXe5i0
>>298
wikiに載ってるけど偶発的に起きるバグみたいで条件とかない。
たまにしか出ないときもあれば頻繁に起きることもあるが、まったく出ないというときはない。

今まで使ってて気付かなかった人は単に本当に気付いてなかっただけで、バグは出ていたはず。

301:名無しさん@お腹いっぱい。
12/06/10 14:50:52.45 USQjRlIU0
消されても気づかない画像なら、消されても問題ないだろ

302:名無しさん@お腹いっぱい。
12/06/10 14:59:54.66 La3och1/0
>>300
wikiのどこに載ってるかわからんが、再現性がないんなら根拠なくProxomitronのせいだとは言えないだろ
画像が表示されないなら他の要素が表示されなくてもおかしくないし、ほんとにバグなの?

303:名無しさん@お腹いっぱい。
12/06/10 16:43:22.35 R+hWXe5i0
自分で調べろ禿げ

304:名無しさん@お腹いっぱい。
12/06/10 17:00:38.52 La3och1/0
真偽はともかくとして、根拠URL群のコピペすら出来ないような案件なら放置が最適解ぽいね

305:名無しさん@お腹いっぱい。
12/06/10 17:14:25.70 R+hWXe5i0
あのさー、人を疑うようなことを平気で書けるようなクズには用無いんだけど。
信用しまいが好きにすればいいよ。知ったこっちゃないから。

306:名無しさん@お腹いっぱい。
12/06/10 17:36:14.09 +e0dAz6G0
もう何年更新されてないソフトだと思ってんだか…
残ってるユーザーは既知の不具合はあっても修正されることは無いのを承知で使ってるんだから
バグあるからダメだ!とか今更騒がれても反応に困るわ
不具合を回避する方法論がどうこうとかだったらまだ話にも乗れるんだがな

あと>>297
めんどくさいから>>295ではバイパスって書いたけど
ブラウザ側でプロキシon/offしてるってことね

307:名無しさん@お腹いっぱい。
12/06/10 17:43:29.38 R+hWXe5i0
俺は「バグがあるからダメ」って書いたことになってるらしい。
これが被害妄想ってやつか。

308:名無しさん@お腹いっぱい。
12/06/10 17:48:54.18 USQjRlIU0
そもそも、ABP のリストを使いたいに対して、
バグあるけどいいの?不具合あるよ
と的外れの回答。何がしたいの?頭がオカシイ人かな?

309:名無しさん@お腹いっぱい。
12/06/10 17:52:55.68 FzQCB2Yy0
通信が聞かなくなるバグって初めて知ったんだけどどういう状況で再現するの?

310:名無しさん@お腹いっぱい。
12/06/10 17:54:04.78 La3och1/0
>>307
そういう話じゃなくて根拠を書けって話
ある程度の条件と環境や症状がわからないと書く意味ないでそ?

「全くいつの話かわからないけど、全く誰に起きるかわからないけど、全くよくわからない何かが起きます」
こんな事言っても価値がないのよ


311:名無しさん@お腹いっぱい。
12/06/10 17:56:34.01 FzQCB2Yy0
hostsファイル依存、セキュリティソフト、回線品質etcと
通信の不具合はいくつかの要素が関係するからオミトロンが原因だって即断できない

312:名無しさん@お腹いっぱい。
12/06/10 18:29:24.18 keqPKfp90
なんか久々に伸びていると思ったら

ABPのリスト使いたいんだけど→無理→唐突に通信できなくなるバグがあるけど良いの?
とか流れ意味不明過ぎてワロタw

313:名無しさん@お腹いっぱい。
12/06/10 19:11:53.03 R+hWXe5i0
俺はバグに気付かないで使い続けてるおまえらにワラタよ。

314:名無しさん@お腹いっぱい。
12/06/10 21:55:39.04 B5l0qNNA0
周知のバグすぎて突っ込み入れる気にすらならん
気になるならprivoxyでも使っとけ

315:名無しさん@お腹いっぱい。
12/06/10 22:17:25.77 zsf95f1i0
だな。

316:名無しさん@お腹いっぱい。
12/06/11 00:00:59.16 hHerU3p00
なんか急に顔真っ赤にしてネガキャン始めた輩がいると聞いて

317:名無しさん@お腹いっぱい。
12/06/11 04:36:22.84 vbvwI0HZ0
既知のバグを知らずに使ってる奴ってけっこういるんだな
そのネガキャンが無ければ知らずに使い続けてたろうから役に立ってるじゃん

318:名無しさん@お腹いっぱい。
12/06/11 07:11:08.97 mbi9iH/V0
自分の環境では発生しないバグで、他人がバグるってことだけ、その発生条件等は何も分からない
そんな情報は役にたたない

319:名無しさん@お腹いっぱい。
12/06/11 09:24:06.37 MBf23B4U0
発生しててもタイムアウトだと思ってるんだろう。

320:名無しさん@お腹いっぱい。
12/06/11 09:34:52.97 mbi9iH/V0
お前がそう思うんならそうなんだろう お前ん中ではな
ハイハイ役に立って良かったね

321:名無しさん@お腹いっぱい。
12/06/11 10:34:38.86 2gwXSF9d0
主張者は自分の環境で再現出来てるのだから役立ってるだろう
再現条件が不明なだけでそこまで叩くかね

322:名無しさん@お腹いっぱい。
12/06/11 11:33:04.08 Qd7Al+WK0
単に発言が馬鹿っぽいからそのまま馬鹿にされてるだけだと思う

323:名無しさん@お腹いっぱい。
12/06/11 12:00:58.95 1m7DoX5N0
そもそもフィルタースレでやる話じゃ無いよね。

324:名無しさん@お腹いっぱい。
12/06/11 12:08:27.76 MlUkExUU0
ID:mbi9iH/V0 ←この人かわいそう

325:名無しさん@お腹いっぱい。
12/06/11 14:58:01.10 4MGXX3UJ0
経験的には、接続先のホストによる、ってのが一番大きいかな。

このバグが出ない接続先は、いつどれだけ接続してもほとんど出ることがない。
逆に、出る接続先は、それはもうブツブツと切断される。
それがサムネイル画像の置いてあるサーバなんかだと、画像が抜けだらけになる。

Proxomitronを外す(バイパスでも駄目。完全に外す)と
この現象は全く起こらないので、Proxomitronの抱えるバグだと思って間違いないと思う。

この現象が起きている時にログウィンドウを見ると、
「+++GET ***+++」というリクエスト送信の直後に「+++CLOSE ***+++」が来ている。
データを全く受信していない。
それ以前に、本当にリクエストを送信しているのかどうかさえ怪しい。

便宜的に「切断」と書いたけど、どっちかっつーと「そもそも接続していない」って感じ。

326:名無しさん@お腹いっぱい。
12/06/11 15:07:51.63 4MGXX3UJ0
wikiの記述はここだね。
URLリンク(abc.s65.xrea.com)

327:名無しさん@お腹いっぱい。
12/06/11 16:56:42.04 GL322ROC0
そうそう、こうやって>>325みたいに順序だてて理由を説明すると
誰が見てもああこれはProxomitronのバグだろうなと納得してくれるわけだ
ID:R+hWXe5i0が馬鹿すぎてかなり無駄レスだらけになったなw

328:名無しさん@お腹いっぱい。
12/06/11 20:10:38.11 MlUkExUU0
>>325には環境すら書いてないけどそれで納得しちゃうんだ。
>>325の情報だけではブラウザ側のプロキシ処理のバグの可能性も排除出来ないよ?

329:名無しさん@お腹いっぱい。
12/06/11 20:58:43.55 RLP3E/O60
ID:MlUkExUU0=ID:R+hWXe5i0かw

悔しさのあまり昨日とは主張する立場が逆になってるのが笑えるw

330:名無しさん@お腹いっぱい。
12/06/11 21:33:06.88 VtWSwtdG0
更新停止から8年が経とうというのに、ここまで煽りあえるほど熱いユーザーが居るとは
なんて素晴らしいソフトなんだろうか
あらためて作者に感謝を

331:名無しさん@お腹いっぱい。
12/06/11 21:48:42.22 1m7DoX5N0
せめて煽り合うんならフィルタの話で盛り上がってくれれば良いんだが。。

332:名無しさん@お腹いっぱい。
12/06/11 21:49:25.80 bdQjxsJI0
>>328
読む人からすればちゃんとした理由が書かれてるのは納得しやすいと思うよ
根拠もなしに煽るよりはよっぽどいいんじゃないかと思う

333:名無しさん@お腹いっぱい。
12/06/11 23:14:57.62 MlUkExUU0
>>294が煽り?事実を書いてるだけなのに?

adblockの代わりをproxomitronでやるならproxomitronの不具合の影響を受けてしまうと
伝えたかったんだけど、これって煽りなの?

昨日は「バグあるからダメだ!」って言ったことになってるし、今日は煽ったことになってるし。
少し日本語の勉強をしたほうがいいんじゃないの?

少しじゃ足りそうもないけどなwwww(←これが煽りってもんでしょw)

334:名無しさん@お腹いっぱい。
12/06/11 23:44:04.29 bdQjxsJI0
昨日の本人なのかw
読み手のことを考えて書くようにするといいよ
何を伝えたいのかと、どうしてそう考えたのか根拠となること等、読む人が納得しやすいようにね

335:名無しさん@お腹いっぱい。
12/06/12 00:15:34.06 VadDXkfB0
やっぱ広告が許せないってやつらは神経質すぎるから煽られるとすぐ爆発するな
怖いわこのスレ

336:名無しさん@お腹いっぱい。
12/06/12 00:57:31.48 tfYittJV0
このスレでは人格攻撃なんて当たり前だぜぇ?ワイルドだろぅ?

337:名無しさん@お腹いっぱい。
12/06/12 02:01:41.13 GLxtiGP+0
教えてエロい人

google検索結果のリンク(リダイレクト)をやめて
直に飛びたいと思いながらここまで組んだのだけどやっぱりリダイレクトになる
wikiには&SET云々って書いてあったんだけどこれ以上はさっぱり分からないので誰か教えて下さい

[HTTP headers]
In = FALSE
Out = TRUE
Key = "Google Search Link Jump"
URL = "www.google.co.jp/"
Match = "http*htt\1&ei=*"
Replace = "$RDIR(htt$UESC(\1))"

338:名無しさん@お腹いっぱい。
12/06/12 02:15:49.15 kTWWmlLx0
URLリンク(www.google.co)(.jp|m)/url\?*\&url=(http[^&]+)\0 & $JUMP($UESC(\0))


339:名無しさん@お腹いっぱい。
12/06/12 04:04:26.94 gAaU2RAc0
> (←これが煽りってもんでしょw)
芝生やしただけで煽ってるつもりなあたりが恥ずかしい

>>337
>>105-108でもいいんじゃない?

340:名無しさん@お腹いっぱい。
12/06/12 04:44:09.44 kTWWmlLx0
どうしようもない馬鹿だと判明したのだから相手することないだろ

338に書いたけど、伝わってなさそうだから
[HTTP headers]
In = FALSE
Out = TRUE
Key = "URL: Google Search Link Jump (Out)"
Match = "URLリンク(www.google.co)(.jp|m)/url\?*\&url=(http[^&]+)\0"
Replace = "$JUMP($UESC(\0)) "

341:名無しさん@お腹いっぱい。
12/06/12 05:45:35.00 aHtj5MgD0
SSLでリダイレクトされたら意味ないし
webフィルタの方で直接跳ぶように直した方がいいと思う

342:名無しさん@お腹いっぱい。
12/06/12 06:30:23.80 VGq3QJoc0
そのクッションはgoogleにログ取られるのがキモイとかよりも
リンクが既読かどうかわからないという機能的な問題の方が大きいと思うので
俺もページ書き換える方に一票だな

343:名無しさん@お腹いっぱい。
12/06/12 07:06:11.10 WBZFCcQpP
>リンクが既読かどうかわからない
やっぱここだよね
リロードしただけでも分からなくなったりするし

344:名無しさん@お腹いっぱい。
12/06/12 11:24:36.07 kTWWmlLx0
いや覚えてるだろ。どうでもいいことだが
質問者のどこがマズイか教えるわけでもなく何様だよ

345:名無しさん@お腹いっぱい。
12/06/12 11:34:27.47 tfYittJV0
自分の読解力の無さを棚に上げて納得出来るようにとか言ってるのがワロタw

346:名無しさん@お腹いっぱい。
12/06/12 12:26:56.15 kTWWmlLx0
ちょっと試してみた
全履歴削除後、履歴は消さず、キャッシュは消す、Cookie許可せず
Firefox と Chrome は記憶してくれるな。Operaは再起動したらダメだったが
他のブラウザは試す気にもならない
リダイレクト先が https で ssleay32.dll と libeay32.dll がなくてもジャンプする

347:名無しさん@お腹いっぱい。
12/06/12 12:41:15.20 tfYittJV0
そんなゴミフィルタいりませーん

348:名無しさん@お腹いっぱい。
12/06/12 13:01:00.94 kTWWmlLx0
利用価値があるとすればヘッダフィルタの方が
速い、他のフィルタ, userscript に影響しない、
Ajax、非Ajaxを問わず使える、ブラウザを選ばない
それゆえ初心者でも簡単に手入れできる。要するに覚えれば、他の場面でも使えるだろ

349:名無しさん@お腹いっぱい。
12/06/12 13:05:37.18 tfYittJV0
>ブラウザを選ばない

>Operaは再起動したらダメだったが

ワロタw

350:名無しさん@お腹いっぱい。
12/06/12 13:19:07.59 GLxtiGP+0
ども、337です

>>340で希望通りの動作になりました
確かに既読にならないのは不便ちゃ不便ですが
>>105-108がうちの環境(IE9+Sleipnir1.66)だと機能しないし
当初の目的が達成できてるので問題無しです

ありがとうございますた

351:名無しさん@お腹いっぱい。
12/06/12 13:25:39.13 kTWWmlLx0
IEかIEコンポだと既読にならないのか
ちなみに、Operaで再起動すると既読か分からなくなるのは
webフィルタでやっても当然同じ結果になるからな

352:名無しさん@お腹いっぱい。
12/06/12 13:37:32.82 VKyzdxvC0
それOpera終了時に履歴を消す設定にしているだけだと思うけど

353:名無しさん@お腹いっぱい。
12/06/12 13:42:40.68 tfYittJV0
ワロタw

354:名無しさん@お腹いっぱい。
12/06/12 13:48:11.44 kTWWmlLx0
>>352
いや、履歴は削除してない。ディスクキャッシュを削除すると未読になってしまう(バグ)っぽい

URLリンク(twitter.com)
URLリンク(my.opera.com)

355:名無しさん@お腹いっぱい。
12/06/12 14:41:43.77 GLxtiGP+0
すいません
キャッシュ一旦削除してからだと既読になりますた

356:名無しさん@お腹いっぱい。
12/06/12 14:58:17.03 tfYittJV0
>>351
そういう話じゃなくて根拠を書けって話
ある程度の条件と環境や症状がわからないと書く意味ないでそ?

357:名無しさん@お腹いっぱい。
12/06/12 18:16:21.22 VL5l2zWu0
今日のNGID : tfYittJV0

358:名無しさん@お腹いっぱい。
12/06/12 21:53:41.33 tfYittJV0
ID:kTWWmlLx0 は一体いつ寝てるんだ?今?たまには部屋から出ろよw

359:名無しさん@お腹いっぱい。
12/06/12 23:55:23.28 xEB8r7iP0
こいつ明日も湧いてきそうだな

360:名無しさん@お腹いっぱい。
12/06/13 16:18:57.10 HngSNwT/0
1

361:名無しさん@お腹いっぱい。
12/06/15 19:11:57.64 Vmi4Z8EK0
googleの検索結果で
「リンクをJaneで開く」ってのが
使えなかったのですが
108さんのおかげで解決しました

ところで、昔ここで作っていただいた
「検索結果の2chリンクを赤くする」フィルタが
スクリプト「オフ」だと効かなくて困っています

解決法ありませんでしょうか?

362:名無しさん@お腹いっぱい。
12/06/18 14:22:08.20 Atxoawvq0
知らんけど、そのフィルターをここに貼れよ

363:名無しさん@お腹いっぱい。
12/06/18 17:35:11.85 SSf6lLD60
>>362
[Patterns]
Name = "Google Search Result : If URL of 2ch, it reddens."
Active = TRUE
URL = "www.google.co.jp"
Limit = 141
Match = "(<a href="URLリンク([^.]++.2ch.net))\0"
Replace = "\0 style="color : red;""

こちらのフィルタです
3年前に作ってくれた方
ありがとうございました

364:名無しさん@お腹いっぱい。
12/06/18 21:18:25.48 PjCCux8s0
>>363
個人情報とか気になる版
Match = "(<a\s[^>]++)\1href=$AV(/url\?(url|q)=(URLリンク([^))\2\&(amp;|)(sa|rct|ei|ved|usg)=*)"
Replace = "\1href="\2" style="color : red;""

慈愛の心でGoogleを包み込む版
Match = "(<a)\1(^(^\s[^>]++href=$AV(/url\?(url|q)=URLリンク([^))))"
Replace = "\1 style="color : red;""

365:名無しさん@お腹いっぱい。
12/06/18 21:40:04.82 SSf6lLD60
>>364
ありがとうございました
快適にネットができるようになりました

自分も、もう少し勉強します

366:名無しさん@お腹いっぱい。
12/06/19 11:37:14.77 QARV9c19P
どうやらGoogleの仕様変更が固定されたようなので、Google | Ajax killerのサポートを終了しました。
URLリンク(github.com)

ついでに、Google | cleanup search resultsをver.3へとメジャーアップデートしました。
URLリンク(github.com)
この版からは、未対応UA向けの簡易HTML版検索ページのみをサポートします。
何らかの手段でモダンブラウザ向け検索ページを使用している方には申し訳ありませんが、
私が使わない以上はサポートする気が全く起きないわけでして。
旧版のhistoryはgithubに残ってますので、そっちを使いたい人はforkするなりなんなり適当にアレしてください。

367:名無しさん@お腹いっぱい。
12/06/20 02:47:19.26 +zO+MTtk0
ありがてーありがてー


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch