01/05/07 22:38
doでとまるとは摩訶不思議。
その上の for あたりがおかしいのか、いったいどういう
ことなんだろう?
51:名無しさん@ディストリいっぱい
01/05/07 23:00
元々ある2chというフォルダと別に新しく2chというフォルダができてしまうのですが
これは一時的にファイルを保存するためのフォルダですか?
同じ名前のフォルダができるのでややこしいです・・・
do で止まっちゃう・・doしよー!!
52:名無しさん@お腹いっぱい。
01/05/07 23:01
for の構文って、これでいいんだっけ。
for i in `ls $datdir`
do j=`echo $i | sed -e 's/\.dat//'`
$dat2html $datdir/$i > $wgetdir/'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
done
といった感じで、do の後に1行に書かない?
どうだったかと思って試してみたら、行を分けても分けなくても、
どちらでも動きましたが。(^^;
53:名無しさん@ディストリいっぱい
01/05/07 23:01
ていうかまさか3回目やると3個できて4回やると4個とかにならないですよね?
ていうかやってみればいいのか。やってみます・・・
54:名無しさん@ディストリいっぱい
01/05/07 23:07
>>52
そういう構文になるんですね。止まった原因がなんとなくわかりました。
僕はここのカキコをコピペして秀丸に貼り付けてるんですけど各行の後ろに
一文字分空白が入ってしまうのでそれを全て削除してました。
do の後ろの空白も。たぶんそれが原因だったかもしれません・・
55:名無しさん@ディストリいっぱい
01/05/07 23:13
2ch.sh: line24: syntax error: unexpected end of file
今度は24行目で止まっちゃいました・・一難去ってまた一難。
ていうか html の書き出しをやってくれてないような気が・・んー。
3つ目の 2ch フォルダは生成されなかったです。あーよかった。
56:名無しさん@ディストリいっぱい
01/05/07 23:28
24行目で止まったのは終わったから止まったみたいでした・・すみません。僕はアホです・・
また明日続きをやってみようと思います。どうもありがとうございました。
お昼に盛り上げてスクリプト作ってくれた方々もありがとうごさいました。
では寝ます。おやすみなさい。
57:名無しさん@お腹いっぱい。
01/05/08 00:45
うまくいくといいな。
58:名無しさん@お腹いっぱい。
01/05/08 10:21
>>14 >>17 >>20
,まわりの修正きぼーん
59:,,,,,
01/05/08 10:36
,まわり,用,テスト,でーた,,,,, ,
60:名無しさん@お腹いっぱい。
01/05/08 11:32
ソースはEUCに変換してから使ってね
$cnt=1;
print '<HTML><HEAD>'."\r\n";
print '<META HTTP-EQUIV="Content-Type" CONTENT="text/html; CHARSET=EUC-JP">'."\n";
$fff=shift;
open(TH,"/usr/local/bin/nkf -e $fff |") || die "open error\n";
$_=<TH>;
chop $_;
@dat=split(',',$_);
print "<TITLE>".$dat[4]."</TITLE>\r\n";
print '</HEAD>'."\n";
print '<BODY TEXT="#000000" BGCOLOR="#FFFFFF" link="#0000FF" alink="#FF0000" vlink="#660099
">'."\r\n";
print $cnt.":".$dat[0]."(";
print $dat[1].") ";
print "date:".$dat[2]."<BR>\r\n";
print $dat[3]."<BR><BR><BR>\r\n";
$cnt++;
while(<TH>){
chop $_;
@dat=split(',',$_);
$dat[0]=~s/,/,/g;
$dat[1]=~s/,/,/g;
$dat[3]=~s/,/,/g;
print $cnt.":".$dat[0]."(";
print $dat[1].") ";
print "date:".$dat[2]."<BR>\r\n";
print $dat[3]."<BR><BR><BR>\r\n";
$cnt++;
}
print '</BODY></HTML>'."\r\n";
61:名無しさん@お腹いっぱい。
01/05/08 12:00
$dat[0]=~s/,/,/g; は
'@'+'`'を','に置換するが化けている
62:名無しさん@ディストリいっぱい
01/05/08 20:26
うにゃー。あいかわらずhtmlファイルが生成されないなあ。
でもdatファイルはダウンロードできたからdat2htmlだけ単独で実行すれば
変換されるのかなあ。よくわかんないです・・
unix板のファイルもいただいておこっと。参考にはなるだろうから。
63:名無しさん@ディストリいっぱい
01/05/08 20:38
あーーー!!あったー!!
/root/linux に入ってたーーー!!
すみません。あいかわらずマヌケで。しかしなんでこんなところに・・
ってことはindexも作成されてるのかなあ。どのディレクトリにあるんだろ・・(^^;;
64:名無しさん@ディストリいっぱい
01/05/08 20:48
と思ったらこれは昼間会社で集めて送ったファイルだった・・
もうダメ・・ネボけてるかも・・
65:名無しさん@お腹いっぱい。
01/05/08 21:01
まさにオープンソースだね!
Linuxの本来あるべき姿だよ♪
66:名無しさん@お腹いっぱい。
01/05/08 21:37
まずは、単独で dat2html の動作確認を。
dat2html.pl datファイルのファイル名 > 出力ファイル名
で、htmlファイルが出力されますか?
indexは、/home/2ch/namazu に生成されているはず。
67:名無しさん@ディストリいっぱい
01/05/08 21:40
せっかくみんなに作ってもらったんだから今週末には公開できるように頑張ります!!
68:名無しさん@ディストリいっぱい
01/05/08 21:42
>>66さん
あ、ありがとうございます。今から動作確認してみます。
69:名無しさん@ディストリいっぱい
01/05/08 21:52
>>66さん
ちゃんとファイルはできました。
だけど8.2kのdatファイルが422バイトになってたのでうまくは動作してないような
気がします。中身の真っ白だったし・・
70:名無しさん@お腹いっぱい。
01/05/09 07:21
うまくいくといいな♪
71:名無しさん@お腹いっぱい。
01/05/09 10:52
サーバが違うと区切り文字が違うので、それに対応
パラメタが区切り文字列、区切り文字列の置換文字列、datファイル名となります
Linux板なら /~/dat2html.pl "," "\xa1\xf7\xa1\xae" foo.dat
モナー、ラウンジなら /~/dat2html.pl '<>' "" bar.datと指定してください
$sep=shift;
$rep=shift;
print '<HTML><HEAD>'."\r\n";
print '<META HTTP-EQUIV="Content-Type" CONTENT="text/html; CHARSET=EUC-JP">'."\r\n";
$fff=shift;
open(TH,"/usr/local/bin/nkf -e $fff |") || die "open error\n";
$_=<TH>;
chop $_;
@dat=split($sep,$_);
$dat[0]=~s/$rep/,/g if("${rep}");
$dat[1]=~s/$rep/,/g if("${rep}");
$dat[3]=~s/$rep/,/g if("${rep}");
$dat[4]=~s/$rep/,/g if("${rep}");
print "<TITLE>".$dat[4]."</TITLE>\r\n";
print '</HEAD>'."\n";
print '<BODY TEXT="#000000" BGCOLOR="#FFFFFF" link="#0000FF" alink="#FF0000" vlink="#660099">'."\r\n"
;
print "1:".$dat[0]."(";
print $dat[1].") ";
print "date:".$dat[2]."<BR>\r\n";
print $dat[3]."<BR><BR><BR>\r\n";
$cnt=2;
while(<TH>){
chop $_;
@dat=split($sep,$_);
$dat[0]=~s/${rep}/,/g if("${rep}");
$dat[1]=~s/${rep}/,/g if("${rep}");
$dat[3]=~s/${rep}/,/g if("${rep}");
print $cnt.":".$dat[0]."(";
print $dat[1].") ";
print "date:".$dat[2]."<BR>\r\n";
print $dat[3]."<BR><BR><BR>\r\n";
$cnt++;
}
print '</BODY></HTML>'."\r\n";
exit;
72:クンクン(零式)
01/05/09 10:55
クーン
(どうしましょ)
73:名無しさん@お腹いっぱい。
01/05/09 15:44
せっかくならば、UNIX板と同時に検索できるインデックスを作るとかも
できますね。とりあえず、Linux板のみで成功するかどうかやって
みましょう。
任意の複数板のインデックス作成用スクリプトを作っておけば、他の
板でも使うかも。スクリプト自体は、サーバー名と板名を変数に
して、板一覧ファイルから while read server ita とかするだけ
なので、ちょこちょこっといじれば終わりそう。
74:名無しさん@お腹いっぱい。
01/05/09 15:48
頑張れーーー。。(@@;)
75:名無しさん@お腹いっぱい。
01/05/09 18:02
>>71
バグ見っけた
$dat[0]=~s/$rep/,/g は、
$dat[0]=~s/$rep/$sep/g だな、以下同文
76:71
01/05/09 18:14
>>75
ホントだわ
どもです
77:名無しさん@お腹いっぱい。
01/05/10 13:20
>>69 の問題は解決したのかな?
78:名無しさん@お腹いっぱい。
01/05/10 14:01
どうなの>>1
79:名無しさん@お腹いっぱい。
01/05/10 15:10
この死に体と化した板に、こんなスレは似つかわしく
ないな。即刻 UNIX 板に移動すべし。
80:名無しさん@お腹いっぱい。
01/05/10 15:25
>>79
そうか?
この混沌とした状況が好きだよ
このスレとか質問系のスレは余りあれないから皆判ってやっているんだと思う
81:名無しさん@お腹いっぱい。
01/05/10 15:53
>>1
もう少しだ頑張れ
つーことで最新版をまとめてみました(ちょい長)
>>48からの2ch.shのソースに>>71のdat2html.plI/F変更を加えたもの
#!/bin/sh
export dat2html=/usr/bin/dat2html.pl
export workdir=/home/2ch
export wgetdir=$workdir/wget
export datdir=$wgetdir/cocoa.2ch.net/linux/dat
export namazudir=$workdir/namazu
mkdir -p $wgetdir/cocoa.2ch.net/test
cd $wgetdir
wget -m -I linux/dat URLリンク(cocoa.2ch.net)
for i in `ls $datdir`
do
j=`echo $i | sed -e 's/\.dat//'`
$dat2html "," "\xa1\xf7\xa1\xae" $datdir/$i > $wgetdir/'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
done
rm -rf $wgetdir/linux/dat
wget -m -I linux/kako URLリンク(cocoa.2ch.net)
mkdir -p $namazudir
cd $namazudir
mknmz -eU $wgetdir/
>>71からのdat2html.plに>>75発見のバグ修正を入れたもの
#!/usr/bin/perl
$sep=shift;
$rep=shift;
print '<HTML><HEAD>'."\r\n";
print '<META HTTP-EQUIV="Content-Type" CONTENT="text/html; CHARSET=EUC-JP">'."\r\n";
$fff=shift;
open(TH,"/usr/local/bin/nkf -e $fff |") || die "open error\n";
$_=<TH>;
chop $_;
@dat=split($sep,$_);
$dat[0]=~s/${rep}/${sep}/g if("${rep}");
$dat[1]=~s/${rep}/${sep}/g if("${rep}");
$dat[3]=~s/${rep}/${sep}/g if("${rep}");
$dat[4]=~s/${rep}/${sep}/g if("${rep}");
print "<TITLE>".$dat[4]."</TITLE>\r\n";
print '</HEAD>'."\n";
print '<BODY TEXT="#000000" BGCOLOR="#FFFFFF" link="#0000FF" alink="#FF0000" vlink="#660099">'."\r\n"
;
print "1:".$dat[0]."(";
print $dat[1].") ";
print "date:".$dat[2]."<BR>\r\n";
print $dat[3]."<BR><BR><BR>\r\n";
$cnt=2;
while(<TH>){
chop $_;
@dat=split($sep,$_);
$dat[0]=~s/${rep}/${sep}/g if("${rep}");
$dat[1]=~s/${rep}/${sep}/g if("${rep}");
$dat[3]=~s/${rep}/${sep}/g if("${rep}");
print $cnt.":".$dat[0]."(";
print $dat[1].") ";
print "date:".$dat[2]."<BR>\r\n";
print $dat[3]."<BR><BR><BR>\r\n";
$cnt++;
}
print '</BODY></HTML>'."\r\n";
exit;
82:名無しさん@お腹いっぱい。
01/05/10 16:20
1は逃げたな、プレッシャーに耐え切れず。
最初は遊び半分からかい半分でスレ立てて、
出来もしないのに話を盛り立てて、
そんで放置されてたから「次どんなネタすれ立てて暇潰すかなー」
と思ってたところ、しばらく立ったら盛りあがってて、
「おほっ、こいつら馬鹿だなー」とニヤニヤしながら
相手してたら、だんだん自分のレベルを越えた話についていけなくて、
しまいには「頑張れー(@@;)」とか言われて、
だんだん良心も痛んできて、一瞬腕まくりして「やったるか」と
思ってディスプレイに向かってみた物の30分で挫折、
「ま、いいか」と気を取り直して他の板・スレで
いつものようにウケもしないネタ書き散らして満足して、
今もちょっとだけ気になってこのスレ見てるけど、
このレスを見て図星過ぎて怖くなって回線を切ろうとしてるな、
まあ待て、その手に握ったマウスをブラウザに映し出された
2ちゃんの書き込みフォームにうつしてみろ、
名前欄にはついさっきまで使ってた「クンクン(壱式)」というハンドルが
クッキーで入ってるな、そうだ、それを消して、
「名無しさん@ディストリ」いっぱい、もしくは「1」にして、そう、
それと、メール欄の「河内の物体X屋マンセー」なんだそりゃ、
それも消しなさい、バレちゃいますからね、そう、そうだ、
それじゃあその下の広いフォームにフォーカスをうつして、
よーし、その調子、それじゃあ「ネタスレでした、ごめんなさい」と打ってみよう、
ほら、焦らなくていいから、タイプミスしないようにな、ゆっくり、
そう、もうちょっと、あー、ほら、BSで消して、n,a,s,a,i、と、
よし、じゃあreturnして、あとは書き込むボタンをクリックだ、よし。
■■■■■■■■■■■■終了■■■■■■■■■■■■
83:名無しさん@お腹いっぱい。
01/05/10 16:55
ネタスレでした、ごめんなさい
84:名無しさん@お腹いっぱい。
01/05/10 17:14
>>83
偽装なら>>1がよく出没する20時前後にせんかいヴォケ
85:名無しさん@ディストリいっぱい
01/05/10 18:53
うわっ!!僕の出没時間がバレてる!!!笑
すみません。今からやります。少々しばらくずっと永遠にお待ちくださいませ。
86:名無しさん@お腹いっぱい。
01/05/10 18:57
>>1=85
>うわっ!!こいつらまだやってる!!!笑
>少々しばらくずっと永遠にお待ち下さいませ。ゴルァ
>だから待てっつってんだろ馬鹿ども。
>もーいーよ、やんねー。やってらんねー。ばーか。
>もーこねーよ。死ね糞ども。
ハァ?
87:名無しさん@ディストリいっぱい
01/05/10 19:11
>>81
まとめてくれてありがとうございます!!!うれしいです!!
88:名無しさん@ディストリいっぱい
01/05/10 20:49
ちょっとわかりずらくなってきたのでここに書いてみよ。
これは僕の環境での設定です。あまり見ないで・・・
#!/bin/sh
export dat2html=/usr/bin/dat2html.pl
export workdir=/home/httpd/html/
export datdir=/home/httpd/html/cocoa.2ch.net/linux/dat
export namazudir=/usr/share/namazu/index/linux/
mkdir -p cocoa.2ch.net/test
wget -m -I linux/dat URLリンク(cocoa.2ch.net)
for i in `ls $datdir`
do j=`echo $i | sed -e 's/\.dat//'`
$dat2html "," "\xa1\xf7\xa1\xae" $datdir/$i > /'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
done
wget -m -I linux/kako URLリンク(cocoa.2ch.net)
mkdir -p $namazudir
cd $namazudir
mknmz /home/httpd/html/cocoa.2ch.net/linux/test/
mknmz /home/httpd/html/cocoa.2ch.net/linux/kako/
89:名無しさん@ディストリいっぱい
01/05/10 20:54
ちょっと違ってた・・viで見るよりここで見るほうが見やすいや・・
これでいいはずだけどなあ・・どこか違ってます??
#!/bin/sh
export dat2html=/usr/bin/dat2html.pl
export workdir=/home/httpd/html/
export datdir=$workdir/cocoa.2ch.net/linux/dat
export namazudir=/usr/share/namazu/index/linux/
mkdir -p cocoa.2ch.net/linux/test
wget -m -I linux/dat URLリンク(cocoa.2ch.net)
for i in `ls $datdir`
do j=`echo $i | sed -e 's/\.dat//'`
$dat2html "," "\xa1\xf7\xa1\xae" $datdir/$i > /'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
done
wget -m -I linux/kako URLリンク(cocoa.2ch.net)
mkdir -p $namazudir
cd $namazudir
mknmz /home/httpd/html/cocoa.2ch.net/linux/test/
mknmz /home/httpd/html/cocoa.2ch.net/linux/kako/
90:名無しさん@ディストリいっぱい
01/05/10 21:05
こうだな。僕の知識ではこれ以上はムリ。笑
やっぱりdatからhtmlへのコンバートがうまくいかない・・なんでだろ・・
それさえクリアできればオッケーっぽいんだけどなあ。
2ch.shのほうはこれでいいだろうから明日dat2htmlのほうを見直してみよっと。
土曜日には完成して日曜日には公開したいなあ。
#!/bin/sh
export dat2html=/usr/bin/dat2html.pl
export workdir=/home/httpd/html/
export datdir=$workdir/cocoa.2ch.net/linux/dat
export namazudir=/usr/share/namazu/index/linux/
mkdir -p cocoa.2ch.net/linux/test
wget -m -I linux/dat URLリンク(cocoa.2ch.net)
for i in `ls $datdir`
do j=`echo $i | sed -e 's/\.dat//'`
$dat2html "," "\xa1\xf7\xa1\xae" $datdir/$i > /'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
done
wget -m -I linux/kako URLリンク(cocoa.2ch.net)
mkdir -p $namazudir
cd $namazudir
mknmz $workdir/cocoa.2ch.net/linux/test/
mknmz $workdir/cocoa.2ch.net/linux/kako/
91:名無しさん@ディストリいっぱい
01/05/10 21:22
過去ログが落ちてこないなあ・・いちおう過去ログ用のディレクトリ作ってみよっ。
ちょっとずつ前進。でも関係ないかも。
やっぱその前のdat2htmlのところで止まってるから過去ログの部分の処理が
されないのかなあ。んー・・・
#!/bin/sh
export dat2html=/usr/bin/dat2html.pl
export workdir=/home/httpd/html/
export datdir=$workdir/cocoa.2ch.net/linux/dat
export namazudir=/usr/share/namazu/index/linux/
mkdir -p cocoa.2ch.net/linux/test
wget -m -I linux/dat URLリンク(cocoa.2ch.net)
for i in `ls $datdir`
do j=`echo $i | sed -e 's/\.dat//'`
$dat2html "," "\xa1\xf7\xa1\xae" $datdir/$i > /'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
done
mkdir -p cocoa.2ch.net/linux/kako
wget -m -I linux/kako URLリンク(cocoa.2ch.net)
mkdir -p $namazudir
cd $namazudir
mknmz $workdir/cocoa.2ch.net/linux/test/
mknmz $workdir/cocoa.2ch.net/linux/kako/
92:名無しさん@ディストリいっぱい
01/05/10 21:41
こうしたほうがいいんだな。きっと。なんとなく。
#!/bin/sh
export dat2html=/usr/bin/dat2html.pl
export workdir=/home/httpd/html/
export datdir=$workdir/cocoa.2ch.net/linux/dat
export namazudir=/usr/share/namazu/index/linux/
mkdir -p cocoa.2ch.net/linux/test
wget -m -I linux/dat URLリンク(cocoa.2ch.net)
for i in `ls $datdir`
do j=`echo $i | sed -e 's/\.dat//'`
$dat2html "," "\xa1\xf7\xa1\xae" $datdir/$i > /'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
done
mkdir -p cocoa.2ch.net/linux/kako
wget -m -I linux/kako URLリンク(cocoa.2ch.net)
mkdir -p $namazudir
cd $namazudir
mknmz -eU $workdir/cocoa.2ch.net/linux/
93:名無しさん@ディストリいっぱい
01/05/10 21:51
ダメだ・・やっぱわかりやすくしておこ・・
#!/bin/sh
export dat2html=/usr/bin/dat2html.pl
export workdir=/home/httpd/html/
export datdir=$workdir/cocoa.2ch.net/linux/dat
export namazukakodir=/usr/share/namazu/index/linux/kako/
export namazutestdir=/usr/share/namazu/index/linux/test/
mkdir -p cocoa.2ch.net/linux/test
wget -m -I linux/dat URLリンク(cocoa.2ch.net)
for i in `ls $datdir`
do j=`echo $i | sed -e 's/\.dat//'`
$dat2html "," "\xa1\xf7\xa1\xae" $datdir/$i > /'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
done
mkdir -p cocoa.2ch.net/linux/kako
wget -m -I linux/kako URLリンク(cocoa.2ch.net)
mkdir -p $namazukakodir
cd $namazukakodir
mknmz $workdir/cocoa.2ch.net/linux/kako/
mkdir -p $namaztestudir
cd $namazutestdir
mknmz $workdir/cocoa.2ch.net/linux/test/
94:名無しさん@ディストリいっぱい
01/05/10 21:54
ていうか・・こんなとこをいじってる場合じゃないんだよなあ・・
dat2html!!!!!(;д;)
95:名無しさん@お腹いっぱい。
01/05/10 22:08
cd $wgetdir は、意図的に消したのですか?それ以外にも、
ディレクトリの関係がかなりめちゃくちゃになっています。
以下のようにしてください。
#!/bin/sh
export dat2html=/usr/bin/dat2html.pl
export workdir=/home/httpd/html
export wgetdir=$workdir/wget
export datdir=$wgetdir/cocoa.2ch.net/linux/dat
export namazudir=/usr/share/namazu/index/linux/
mkdir -p $wgetdir/cocoa.2ch.net/test
cd $wgetdir
wget -m -I linux/dat URLリンク(cocoa.2ch.net)
for i in `ls $datdir`
do
j=`echo $i | sed -e 's/\.dat//'`
$dat2html "," "\xa1\xf7\xa1\xae" $datdir/$i > $wgetdir/'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
done
rm -rf $wgetdir/linux/dat
wget -m -I linux/kako URLリンク(cocoa.2ch.net)
mkdir -p $namazudir
cd $namazudir
mknmz -eU $wgetdir/
96:名無しさん@ディストリいっぱい
01/05/10 22:26
>>95さん
あ、ありがとうございます。
どうもうまく動作しないので試行錯誤してました・・すみません・・ありがとうございます。
やっぱ2ch.shはこれでいいんですね・・もう一度戻してみてやってみます。
97:名無しさん@ディストリいっぱい
01/05/10 23:09
URLリンク(203.174.72.113)
↑こんな感じでいいかなあ。あ、とりあえずgooに置いてるだけだから動作しません。笑
98:名無しさん@お腹いっぱい。
01/05/10 23:22
>>97
いいね。
99:名無しさん@お腹いっぱい。
01/05/11 13:20
>>1,94
dat2htmlのテストしてみた
Linux環境が無いのでHP上のNetscape/LynxとWin上のIE/Netscapeで確認し、
下記環境で問題無く動作した
OS:HP-UX11.0(ワラ
sh:GNU bash, version 2.04.0(2)-release (hppa2.0w-hp-hpux11.00)
perl:perl version 5.005_02 と version 4.0.1.8
100:名無しさん@ディストリいっぱい
01/05/11 14:51
んー
1:()date:
としか表示されないです・・また僕だけですかー???(;д;)
処理してる時も「ヘッダが取得できませんでした」とかいっぱい言われるし・・
101:名無しさん@お腹いっぱい。
01/05/11 15:03
>>100
dat2htmlのnkfのパスが/usr/bin/nkfとかだとか?
102:名無しさん@ディストリいっぱい
01/05/11 15:53
>>101さん
・・・そうでした。今修正しました。すると今度は固まってしまいます・・(;д;)
103:名無しさん@お腹いっぱい。
01/05/11 16:43
>>102
2ch.shの
for i in `ls $datdir` を
for i in `ls $datdir/*.dat | egrep "[0-9]+\.dat"` で
やるとどうなる?
104:103
01/05/11 16:44
間違った
for i in `ls $datdir | egrep "[0-9]+\.dat"` でね
105:名無しさん@ディストリいっぱい
01/05/11 19:02
う・動いた!!!!
でも・・今は会社でテストしてるだけ・・・家に帰ったらまた動かないんだろうなあ・・はあ・・
106:名無しさん@ディストリいっぱい
01/05/11 19:03
あ、103さんありがとうございます。
家に帰ってやる時にはそれでやってみます。うおー早く帰りたいー。
107:名無しさん@お腹いっぱい。
01/05/11 19:08
>>1-106
>あ、103さんありがとうございます。
>でも、難しいのでやっぱりこの話は無かった事にして下さいー。(><)
ハァ?責任持ってやれよ馬鹿。
108:名無しさん@お腹いっぱい。
01/05/11 19:22
>>107 キチガイ?
1さんがんばってね。
109:名無しさん@お腹いっぱい。
01/05/12 03:07
あのさー、どっかに dat2html.rb があったよ。
今さらごめん。場所忘れたし。
110:名無しさん@お腹いっぱい。
01/05/12 09:39
rubyシネ
111:名無しさん@ディストリいっぱい
01/05/12 12:35
URLリンク(2ch.dyn.to)
↑なんとか無事生成されるようになりました。
でも検索するとファイルが開けない、と言われてしまいます。(><)
URLリンク(2ch.dyn.to)
とりあえず公開。土曜日だし。
112:名無しさん@お腹いっぱい。
01/05/12 12:49
おー。あと一歩だなー。
頑張れ壱。
113:Anonymous
01/05/12 13:13
>>1よ
今見たけど、いいところまで言っているな
がんばれ~
114:名無しさん@お腹いっぱい。
01/05/12 15:11
ageru
115:名無しさん@お腹いっぱい。
01/05/12 15:40
検索したら書式設定ファイルが開けないって出る。
.namazurc のことかな? というか本当にここまでやるとは思わなかったよ。(^^;
116:名無しさん@お腹いっぱい。
01/05/12 15:40
namazu のインデックスファイルは、
/usr/share/namazu/index/linux/
に生成されているんですよね。その中に、
NMZ.head.ja
NMZ.foot.ja
はありますか?また、namazu.cgi がインストール
されているディレクトリの .namazurc はどうなって
います?
INDEX /usr/share/namazu/index/linux/
REPLACE /home/httpd/html/wget/ http://
LANG ja
くらいで動くと思うんだけど、こんな感じになってますか?
区切りはTABです。
117:名無しさん@ディストリいっぱい
01/05/12 15:56
あ、しばらく見ないうちにいっぱい応援されてる。ありがとうございます。
>>116さん
/usr/share/namazu/index/linux/ の中にはちゃんと NMZ.head.ja と NMZ.foot.ja は
あります。その上の /usr/share/namazu/index/ に本来デェフォルトでいろいろそういった
ファイルがあったんだけど削除したんでそれが原因でしょうか・・
僕はてっきり以前作成したインデックスのカスかと思って削除してしまいました・・
でもこれは関係ないですよね?
ファイルは今のところこんな感じで設定してます。
URLリンク(2ch.dyn.to)
その他もろもろ
URLリンク(2ch.dyn.to)
118:名無しさん@お腹いっぱい。
01/05/12 15:58
いや、dbname のチェックボックスで linux を指定しているという
ことは、やがて unix のチェックボックスも作るわけだし、そう
なると .namazurc の書式も変わったんだっけな。
おそらく、イメージとしては
URLリンク(search.luky.org)
こんな感じの検索フォームで複数選択にするのでしょう。
この場合の .namazurc を調べなくては。
119:名無しさん@お腹いっぱい。
01/05/12 16:00
>壱
2chのLOGだけがこうなるの?
他のデーターでテストしたらどうよ?
120:名無しさん@お腹いっぱい。
01/05/12 16:02
##
## Template: Set the template directory containing
## NMZ.{head,foot,body,tips,result} files.
##
Template /usr/share/namazu/template
と設定されているので、/usr/share/namazu/template
の下に、もろもろの NMZ.head.ja 等が入っている
必要があります。このあたりはどうなってます?
121:名無しさん@ディストリいっぱい
01/05/12 16:21
お騒がせしました。いろいろご指導ありがとうごさいます。
/usr/share/namazu/index/ にあったファイルを元に戻したら動作しました。
細かいところでいろいろ問題があるようだけどご指摘いただければありがたく思いますので
これからもよろしくお願いします。
♪みんなで作ったみんなのための検索システム♪
122:名無しさん@お腹いっぱい。
01/05/12 16:28
やったね!
123:名無しさん@お腹いっぱい。
01/05/12 16:29
>壱
ある程度出来たなら設定ファイルを見えなくした方が良いんじゃない?
あとネットワーク板もキボソ・・
124:名無しさん@ディストリいっぱい
01/05/12 16:30
えっと今の細かな問題点として
1.UNIX板のログもLINUX板のログも /cocoa.2ch.net/test/ 以下に生成されるので
分けて検索することができない、ということでしょうか。
UNIX板のログは wget2 のようなディレクトリを作成してそのディレクトリ以下にファイルを
生成するようにして REPLACE /home/httpd/html/wget2/ http:// をもう一個指定するとか?
REPLACE を二つ指定することはできないのかな?んー。
125:名無しさん@お腹いっぱい。
01/05/12 16:36
>>1
とりあえずおめでとー
126:名無しさん@ディストリいっぱい
01/05/12 16:58
あれ?これ、よく見たら過去ログ分しか拾ってないや・・・
んーーーーちょっと休憩してきます・・
127:名無しさん@パソコンがいっぱい
01/05/12 20:18
今マンガ喫茶から動作確認してみたけどふむふむ。いい感じで動いてるかも。
ちょっとここで休憩して気分転換してからまた調整しよっと。
128:名無しさん@お腹いっぱい。
01/05/12 21:06
>>116
TAB くぎりの制限は 2.0.x でなくなったはず
本題と無関係なので sage
129:名無しさん@お腹いっぱい。
01/05/13 01:59
すばらしい!とりあえずおめでとう。
細かい調整については、のんびりやっていけばいいでしょう。
これからも、ぼちぼち応援していくよ。
130:名無しさん@ディストリいっぱい
01/05/13 02:12
>>129さん
応援ありがとうございます。今ちょっこちょこ調整してます。
>>124の件もなんとかなりました。
ただ過去ログしか拾ってくれない現状は変わりません・・・
html形式のファイルしか拾ってくれないのかなあ。
>>123さん
ネットワーク板追加しておきました。ただしこれも過去ログしか拾ってません。笑
131:名無しさん@お腹いっぱい。
01/05/13 02:14
パッケージ化きぼ~ん!
132:名無しさん@ディストリいっぱい
01/05/13 12:43
こうしないと拾ってくれないんだな。よしよし。着々と前進。
#!/bin/sh
export dat2html=/usr/bin/dat2html.pl
export workdir=/home/httpd/html
export wgetdir=$workdir/wgetlinux
export datdir=$wgetdir/cocoa.2ch.net/linux/dat
export namazudir=/usr/share/namazu/index/linux
export makenmz=$wgetdir/cocoa.2ch.net
mkdir -p $wgetdir/cocoa.2ch.net/test
cd $wgetdir
wget -m -I linux/dat URLリンク(cocoa.2ch.net)
for i in `ls $datdir | egrep "[0-9]+\.dat"`
do j=`echo $i | sed -e 's/\.dat//'`
$dat2html "," "\xa1\xf7\xa1\xae" $datdir/$i > $wgetdir/'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
done
rm -rf $wgetdir/linux/dat
wget -m -I linux/kako URLリンク(cocoa.2ch.net)
mkdir -p $namazudir
cd $namazudir
mknmz -a -U $makenmz/test $makenmz/linux/kako
133:名無しさん@ディストリいっぱい
01/05/13 12:55
あとは検索結果で
1:名無しさん@お腹いっぱい。() date:2001/03/04(日)
ってなる () date の部分が気になるぐらいかな。日付をうまく取得できてないのかなあ。
134:名無しさん@お腹いっぱい。
01/05/13 13:20
>>133
うまくいっている
()の中はメアドが入るんだよ
135:123
01/05/13 16:29
>壱
サンクス
あと、ガンバテネ
136:名無しさん@ディストリいっぱい
01/05/14 11:14
>>134さん >>135さん
ありがとうございます!これからも頑張ります!!
ここまで下がっちゃうと今さら上げるのが気が引ける。笑
ていうか特に問題点がないから上げる必要もないし。
それほど完成度が高いスクリプトということだーー!!!素晴らしい!!
137:名無しさん@お腹いっぱい。
01/05/14 12:46
優良スレage
138:名無しさん@お腹いっぱい。
01/05/14 22:36
それでは、落ち着いてきたので細かい点をいくつか。
あまり気にせずに、ひまなときにぼちぼちと修正してくださいませ。
1. 検索結果から、再び検索すると検索できない
これは、検索結果表示欄に Linux板 等のチェックボックスがないため。
対象インデックスのチェックボックス欄をそのまま載せるという方法も
ありますし、検索ボックスをなくしてしまうという方法もあると思います。
いずれにしても、NMZ.head.ja をいじるだけです。
2. インデックスの最終更新日が表示されません。表示する必要もないので、
1でいっしょになくしてしまってもいいと思います。
cron で 2ch.sh を動かしてますか?もしも、まだでしたら
そろそろ動かしてみてください。ネットワークの負荷を考えると、
そんなに頻繁に動かさなくてもいいとは思います。
139:名無しさん@お腹いっぱい。
01/05/14 22:37
みんなで色々試してみましょう。
URLリンク(2ch.dyn.to)
140:名無しさん@ディストリいっぱい
01/05/15 00:19
>>138さん
ご指摘ありがとうございます。今から修正してみます。
cronには昨日設定しました。
0 7 * * * /root/linux.sh
0 8 * * * /root/unix.sh
0 9 * * * /root/hack.sh
って感じにしておいてホントに動作するかどうか、朝起きて
パソコンの前でジーッと見てましたが動いている様子はなかったです・・・
裏で動いてるのかなあ・・でもルーターも動いてる様子はなかったし・・
とりあえずログを更新するのは一日一回にしようと思います。
深夜のlinux3時unix4時ネットワーク5時辺りで。
141:名無しさん@ディストリいっぱい
01/05/15 00:25
cronの件、自己解決しました・・すみません・・
142:名無しさん@お腹いっぱい。
01/05/15 00:26
>>140
ルートで実行はやめとけー
変なセキュリティホール作るだけぞな
143:名無しさん@ディストリいっぱい
01/05/15 00:55
>>142
あ、ありがとうございます。じゃあ今からこっそり移動しておきます。
144:名無しさん@お腹いっぱい。
01/05/15 10:57
過去ログがヒットするように検索すると表示が化けます(例 Slackware >>1
直し方わかんないけど、症状報告って事で
145:名無しさん@ディストリいっぱい
01/05/15 12:08
>>144さん
ですよね。自分のパソコンがおかしいのかと思ってたんですがやっぱみんなバケるんですね。あはは。
特に何も変更してないのになあ。昨日 NMZ.head.ja を編集した時に
余分なものまで削除しちゃったかな?んーマズイ。
146:名無しさん@お腹いっぱい。
01/05/15 14:00
>>1
文字コードを揃えればいいんじゃないかな
kako/を全てEUCにするか、dat2htmlの出力をSJISに変換すればいいと思われ
147:名無しさん@ディストリいっぱい
01/05/15 14:24
>>146さん
ありがとうごさいます。でも昨日まではちゃんと表示されてたんです。
だから僕が昨日いじってるうちにおかしくなったんだと思います。
すみません。みなさんの手をわずらわすほどのものではないと思います。たぶん。
心配していただいてありがとうございます。(ぺこぺこ)
148:login:Penguinさん
01/05/15 15:41
>>147
色々とやってみなければ、可能性な~んて解らんだろうから
どんどんやってみよう >>1
がんばれ~ >>1
149:名無しさん@ディストリいっぱい
01/05/15 22:47
NMZ.head.ja の<title>のところに全角文字を使用したのか原因でした。ふぅ。直った。
150:名無しさん@ディストリいっぱい
01/05/15 22:49
あ、決して<title>としたわけじゃないです。
<title>★2ちゃんねる検索★</title>としたわけです。これが原因でした。ふぅ。
151:名無しさん@お腹いっぱい。
01/05/16 02:11
どんどん完成度が高くなっていきますね。
対象板も増えて、嬉しい限り。
まさか、2ちゃんねるから情報を検索することになろうとは思わなかったが、
色々検索してみると、けっこう面白い。
いや、まじですばらしいっす。
152:名無しさん@お腹いっぱい。
01/05/16 02:12
MS DOS Version 5.00 (C)Copyright 1981-1991 Microsoft Corp Licensed Material - Property of Microsoft All rights reserved
153:名無しさん@お腹いっぱい。
01/05/16 02:57
>>1
感動した。
涙が止まらん。
ガムバレ。
154:名無しさん@ディストリいっぱい
01/05/16 14:43
応援ありがとうございます!!!頑張ります!!!
とりあえずここまで完成したら後は安泰だ~。
毎日毎日パソコンの前に続いたからなあ。やっとのんびりできるや。ふぅ。
155:名無しさん@お腹いっぱい。
01/05/17 00:24
応援アゲ
URLリンク(2ch.dyn.to)
156:login:Penguin
01/05/17 00:37
スゲー
クワー?
(訳:ウットコからリンクして良いきゃ?)
157:名無しさん@お腹いっぱい。
01/05/17 03:18
完成記念age
158:名無しさん@ディストリいっぱい
01/05/17 10:27
>>156 のクンクンさん
いいですよ。たぶん。たぶんですが。エロサイトとかじゃなければ。怖いサイトじゃなければ。
アングラサイトで「 ♪Linuxのハクり方♪ 」みたいなサイトでなければ。
「たぶん」なので後から「やっぱりダメー」というかもしれません。笑
159:名無しさん@お腹いっぱい。
01/05/17 12:24
>>158
公開した時点で、リンクされることは覚悟しとかないと。
そのうち google とかに捕まって、ガンガンアクセスが
来ると思うぞ。
160:名無しさん@ディストリいっぱい
01/05/17 12:38
>>159さん
そうですよね。
よく考えたらここに公開しているぐらいだから他で公開されても平気なような気がしてきました。
ここよりエロくて怖くてアングラで♪Linuxのハクり方♪のようなサイトはないですから。笑
っていうかクンクンさんのサイト・・気になる・・
見せてください!!!見たいです!気になります!!!>クンクンさん
161:名無しさん@ディストリいっぱい
01/05/17 13:02
ダメだ・・やっぱり過去ログ分が文字化けを起こしちゃうや・・
たまに大丈夫でたまに化けるってなんでだろ?悩むなあ・・
過去ログをEUCに変換するのは大変そうだからdat2htmlのほうを調整して
x-sjisで書き出したほうがいいのかな。
nkf -e のところを nkt -s にして CHARSET=EUC-JP を CHARSET=x-sjis に
しただけでいいのかなあ。こんな感じですか?
家に帰ったら一回試してみよっ。
#!/usr/bin/perl
$sep=shift;
$rep=shift;
print '<HTML><HEAD>'."\r\n";
print '<META HTTP-EQUIV="Content-Type" CONTENT="text/html; CHARSET=x-sjis">'."\r\n";
$fff=shift;
open(TH,"/usr/bin/nkf -s $fff |") || die "open error\n";
$_=<TH>;
chop $_;
@dat=split($sep,$_);
$dat[0]=~s/${rep}/${sep}/g if("${rep}");
$dat[1]=~s/${rep}/${sep}/g if("${rep}");
$dat[3]=~s/${rep}/${sep}/g if("${rep}");
$dat[4]=~s/${rep}/${sep}/g if("${rep}");
print "<TITLE>".$dat[4]."</TITLE>\r\n";
print '</HEAD>'."\n";
print '<BODY TEXT="#000000" BGCOLOR="#FFFFFF" link="#0000FF" alink="#FF0000" vlink="#660099">'."\r\n"
;
print "1:".$dat[0]."(";
print $dat[1].") ";
print "date:".$dat[2]."<BR>\r\n";
print $dat[3]."<BR><BR><BR>\r\n";
$cnt=2;
while(<TH>){
chop $_;
@dat=split($sep,$_);
$dat[0]=~s/${rep}/${sep}/g if("${rep}");
$dat[1]=~s/${rep}/${sep}/g if("${rep}");
$dat[3]=~s/${rep}/${sep}/g if("${rep}");
print $cnt.":".$dat[0]."(";
print $dat[1].") ";
print "date:".$dat[2]."<BR>\r\n";
print $dat[3]."<BR><BR><BR>\r\n";
$cnt++;
}
print '</BODY></HTML>'."\r\n";
exit;
162:名無しさん@お腹いっぱい。
01/05/17 13:13
このままじゃ活用されないな。
初めて来た人は気づかないだろーし
Linux自治スレで要望出す時に一緒に検索エンジンへのリンクを
書き込みフォームの↑にはってもらうとか
くだらねえ質問はスレに「まずはここで検索」とかリンクしてもらうとか
(新スレ立てる時)
163:名無しさん@お腹いっぱい。
01/05/17 13:49
>>161
nkfはそのままにしといて2ch.shの書き出しで変換した方がいいよ
$dat2html "," "\xa1\xf7\xa1\xae" $datdir/$i | /usr/bin/nkf -e> $wgetdir/'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
みたく。
SJISだと区切り文字の判定を混乱する可能性あり。
164:名無しさん@お腹いっぱい。
01/05/17 13:52
「データ更新時間は」部分が他の窓に隠れてて
Linux4時 Unix5時
だけ見て「どこかにそんなサイトが?」とか
思ってしまいました。ということで頑張れage
165:名無しさん@ディストリいっぱい
01/05/17 14:12
んーこの問題かなあ。だとしたら半角カナ使いまくりの2ちゃんねるじゃあ
回避策はないなあ・・
URLリンク(www.namazu.org)
というわけで今から半角カナの使用禁止!!ワラワラワララーーー
166:名無しさん@ディストリいっぱい
01/05/17 14:19
>>163さん
あ、ありがとうございます。家に帰ったら早速試してみます。
167:名無しさん@お腹いっぱい。
01/05/17 14:43
>>165
問題はnkfが文字コード系を誤解するってとこだと思われ
カナモジの禁止はなっとくいかん
168:名無しさん@ディストリいっぱい
01/05/17 14:48
>>167さん
そうですよね。ゴメンナサイ
169:167
01/05/17 14:57
こちらも失礼。
なんか手が無いか考えてみるよ
170:名無しさん@ディストリいっぱい
01/05/17 16:08
一応>>161の方法でうまくいったようなのでしばらくこのまま様子を見てみようと
思います。ありがとうございました。>>163さんの方法も後で試してみます。
あとは過去ログヒットした時にバナーの部分が説明文として表示されるのを
回避したいなあ。
171:Anonymous
01/05/17 23:16
>>162
「くだらねえ質問はここに書き込め! 1st」スレの1だが
もし次にヲレが新スレ 「くだらねえ質問はここに書き込め! 2nd」を立てるとしたら
書き込みフォームの注意書きの一環として使わせて貰いたいのじゃ
#前スレはヲレと違う人が立てたので今度は誰が立てるか解らんが
>>170 応援age URLリンク(2ch.dyn.to)
172:名無しさん@ディストリいっぱい
01/05/18 00:27
>>171さん
応援ありがとうございます。
ぜひ使ってください。それまでにはキチンと調整しておきます。頑張ります!!
URLリンク(2ch.dyn.to) ←自画自賛age
173:名無しさん@ディストリいっぱい
01/05/18 01:54
Linux板のトップにリンク貼ってもらうってことはできないの?
174:名無しさん@お腹いっぱい。
01/05/18 01:58
馬鹿にして見ていたが結構使えるじゃねぇかage
175:名無しさん@お腹いっぱい。
01/05/18 02:03
>>173
自治スレで要望出すみたいだからさ、
そん時に一緒に出せばいいじゃん
っていうか俺が自治スレの1だった、、、鬱
176:login:Penguin
01/05/18 03:12
>>158
>>156 はクンクンではなくてワシ(♂の原始人)だクワー
で、リンクしたいサイトは以下だクワー
皆で訪問してくれだグワー
URLリンク(www.hanajan.com)
177:名無しさん@ディストリいっぱい
01/05/18 11:28
昼に動作確認のために手動で2ch.shを実行するとどうってことが
ないのに深夜に自動的に実行した時には文字化けするのってなんでだろ?
ただの偶然かなあ。まあいいや。
>>176の師匠さん
クンクンさんではなかったのですね・・すみません。僕には違いが
わからなかったです・・
「河内の物体X屋」も「かわちのぶったいエックスや」と
読んでました。無知ですみません・・
至って普通のサイトですね。ぜひリンクしてください。お願いします。
178:名無しさん@ディストリいっぱい
01/05/18 14:50
会社でテスト用として動作させてるのも文字化けしてる・・
手動で実行すると文字化けしないのに・・なんでだろ・・悩みは深いです・・
まあどうせ毎日いじってるから手動でもたいしたことではないけど。笑
179:名無しさん@ディストリいっぱい
01/05/18 14:51
見てるとちゃんとやるけど見てないといいかげんな仕事をするのかなあ。
もしかしてパソコンって持ち主に似る???
180:名無しさん@お腹いっぱい。
01/05/18 18:06
見てないと... っつーことは、見てないときは cron かなんかでやってる?
ありがちなのが、cron では LANG 環境変数が指定されてなくって
非日本語 mode で動いてるようなケースだな。
181:名無しさん@ディストリいっぱい
01/05/18 23:05
>>180さん
ありがとうございます。早速2ch.shのほうに
LANG=ja
export LANG
set | grep LANG
を書き足してやってみます。
これさえ動作してくれればこれも完成だー
URLリンク(2ch.dyn.to)
182:login:Penguin
01/05/19 00:19
>>177
クワー
(訳:文字化けは発生していない・・・クワ)
クワー
(訳:でも、>>181 のような対策は必要だ・・・クワ)
183:login:Penguin
01/05/19 15:01
クワー
(訳:作った人・・・ありがとうだ)
パタパタ
(訳:それだけ。。。)
184:名無しさん@ディストリいっぱい
01/05/19 23:25
>>183の師匠さん
作ったのはこの板のみんなです。「みんな」の中にはもちろん師匠さんも入ってますよ。
こちらこそありがとうございます。
185:login:Penguin
01/05/20 00:17
そう書いてあったが・・・
ワシは「クワー」としか言っとらんじょ。。。
クワー
(ま・・・イイか)
186:login:Penguin
01/05/20 00:21
まぁ、2チャンネルのLinux板はマンセーだ・・・クワ
まぁ、ワシスレが無くなれば尚イイのだが・・・クワワー
187:名無しさん@ディストリいっぱい
01/05/20 00:30
昼頃からずっとルーターの動きが止まりません。アクセスがかなり増えてます。
なんでだ?誰かがどこか変なところにリンク張ったのかなあ?と不思議に思ってたら
テーブルにもメニューにも「2ch検索」という名前で出てました・・いつのまに・・びっくり・・
URLリンク(www.2ch.net)
URLリンク(www.2ch.net)
↑ここ(ツール類のとこに入ってます)
どうやらもう引けないところまできてしまったようです・・
こうなってしまったら責任持ってやらなきゃダメですね・・
Linux板の恥にならないように頑張ります。
188:名無しさん@お腹いっぱい。
01/05/20 07:04
URLリンク(www.digitalfactory.co.jp)
189:Anonymous
01/05/22 13:56
>>1 ガムバッテルナー
検索できる項目が増えたようだね
190:名無しさん@ディストリいっぱい
01/05/22 14:34
>>189さん
応援ありがとうございます!!!頑張ります!!
項目増やしたんですけどすごく時間がかかります。
板によってはindex作るのに12時間ぐらいかかります。
だからほとんど一日中CPUがフル稼働してます。そのうちに壊れるのは間違いないと思います・・
ちなみにlinux板は30分ぐらいで終わります。笑
なんでみんながあまりこういうサイトをやりたがらないかがわかりました。ふぅ。
191:名無しさん@お腹いっぱい。
01/05/22 21:10
ヨタヨタとでもとにかく走り始めるところが如何にもLinux。
良い感じですよ。ありがとう>1
192:名無しさん@お腹いっぱい。
01/05/22 21:12
ヨタヨタは>1だからだろ
linuxで括るな
193:名無しさん@お腹いっぱい。
01/05/23 00:54
>>27です。
この心配が、本当に心配になるところまで来るとは、たいしたものです。
とりあえず、元気に動いているようなので良かった。
194:名無しさん@お腹いっぱい。
01/05/23 09:19
>>192
確かにおまえはヨタヨタとでも走りそうにねぇな(藁
195:名無しさん@お腹いっぱい。
01/05/23 13:12
IBMマンセーってことで、
URLリンク(www.zdnet.co.jp)
にサーバを立ててみては、どうよ?>>1
どのくらい性能がでるかも見てみたいし
196:名無しさん@ディストリいっぱい
01/05/23 14:03
ホメられたりけなされたり、人生って楽しい♪
>>195さん
あ、そこをサブスペースとして確保しておくのもいいかもしんないですね。
使えるのかなあ。後でちょっと見てみます。辞書を片手に。笑
197:名無しさん@お腹いっぱい。
01/05/23 14:10
ん。これは大先生の検索とは何が違うの?
URLリンク(64.124.197.202)
198:名無しさん@ディストリいっぱい
01/05/23 14:44
>>197さん
違いはいっぱいあります。一番大きな違いは「Linux板が検索できるか否か」です。笑
199:名無しさん@ディストリいっぱい
01/05/23 14:53
あと違うところは向こうは「大先生」でこっち「よたよた」だってことです。
「よたよた検索」って名前に変えようかなあ。そっちのほうが目立つし。笑
200:名無しさん@お腹いっぱい。
01/05/23 15:09
なんか遅そうだなあ >よたよた検索
201:名無しさん@お腹いっぱい。
01/05/23 16:14
遅そうというよりなんか間違えて検索しそうだよ。「vine」で検索したら「パイン」とか出そう。
202:名無しさん@ディストリいっぱい
01/05/23 16:25
>>200さん
それは「もたもた」です・・・
>>201さん
そこまでは間違えません。「フェラチオ UNIX」が「フェニックス」にはなる可能性は否定できませんけど。
但し「フェラチオ」と「UNIX」を同時に検索する人はいないと思うので問題はないと思ってます。はい。
203:名無しさん@お腹いっぱい。
01/05/23 16:27
>>201
2ちゃんの検索として考えるなら、その処理であっている思われ
204:presto
01/05/25 06:08
司法試験板住民です。
このスレを少し参考にしました。ありがとう。ペコリ
サーバー立てる程でも無いので普通に過去ログ検索付け完成しました。
URLリンク(2ch.server.ne.jp)
205:名無しさん@お腹いっぱい。
01/05/25 09:48
Linux板が他板の参考にされるとは、世も末だな
誉めてんの!一応
206:名無しさん@ディストリいっぱい
01/05/25 15:41
え?freewebでnamazuを稼動させることできるの???
ていうか23日にスレを立ててもう完成したんですか・・はやー
207:名無しさん@お腹いっぱい。
01/05/25 16:28
>>206
PerlのNamazuだと思われ。
208:名無しさん@お腹いっぱい。
01/05/25 17:15
pNamazu
209:名無しさん@お腹いっぱい。
01/05/27 17:11
ここで、立ち上がったnamazuの検索項目に入ってない板を取り入れ
同じように公開を考えてはいるんですけど
いまいち上手く動いてくれないです。
wget+namazu を cronで動かし問題無く動いてますが、
ここで公開されたスクリプトの設置が上手くいってないようです。
どなたか、動かした人レスお願いします。(メールも返事が無かったので)
210:名無しさん@お腹いっぱい。
01/05/27 17:13
>>209
>メールも返事が無かったので
誰に?
211:名無しさん@お腹いっぱい。
01/05/27 17:17
>>210
URLリンク(2ch.dyn.to)
に出ていた「批判・要望はこちらへ」にです。
ひょっとしてこの検索システム担当者じゃないメールなのかな?
(調べてない)
212:名無しさん@お腹いっぱい。
01/05/27 17:18
批判要望じゃないと思われ
213:名無しさん@お腹いっぱい。
01/05/27 17:18
このスレで聞けよ
>>1も居るし
214:名無しさん@お腹いっぱい。
01/05/27 17:23
>>209
どの板?
>>71が書いているように板によって区切り文字が違うので、それ関係だと思われ
そこんとこ、どんな設定にした?
215:209
01/05/27 17:24
とりあえずもう一度見直してみよ。
216:名無しさん@お腹いっぱい。
01/05/27 17:25
namazuがうまく動かないのはWindowsのせいだろう
217:209
01/05/27 17:27
>>71
ここを読み飛ばしていたかも。
いろいろやってみよ。
218:209
01/05/27 17:28
>>216
OS はLinuxです。
219:名無しさん@お腹いっぱい。
01/05/27 17:34
Apache + mod_ruby は DB との連携に難がありましたが、
Ruby/ODBC・Ruby/DBI 等の出現により、徐々に改善の兆しが。
とはいえ似たようなものが乱立しているので、API の標準化は必須かな。
あと、ruby script も十分に速いんで、速度面で PHP にはそうは
劣らないです。
ちなみに、私は2のデザインとプログラムの一体化により、非常に
めんどくさい目にあっているので、>>11 さんのおっしゃることに同感。
sqwebmail の source みたいに、デザインテンプレートにマクロを埋め込む
形にして、source は別 file っていうのがよさげ。
220:209
01/05/27 18:28
>>11さんのようなスクリプトが出来ましたら
是非公開してください。
221:名無しさん@ディストリいっぱい
01/05/28 00:31
あ、ホントだ。メール来てました。ごめんなさい。>>209さん
全然誰からもメールが来ないから見る習慣がついてなかったです。笑
えっと >>11 さんのようなスクリプトというのが
URLリンク(2ch.dyn.to)
↑ここにある拡張子が sh のファイルです。
各板ごとに作ってるのでいっぱいあります。参考にしてください。
もしよくわからないようだったらどこの板か教えてくれたらその板用のを作ってあげます。
で、datファイルをhtmlに変換してくれるのが
URLリンク(2ch.dyn.to)
↑ここにあるdat2htmlです。
とりあえずこの二種類のファイルだけあれば動作はします。
わからないところがあったらこのスレに書き込んでいただければ誰か教えてくれると
思いますし僕もわかる範囲でお教えしますよ。
222:名無しさん@ディストリいっぱい
01/05/28 00:33
URLリンク(2ch.dyn.to)
↑ここにあるdat2html.plです。
の間違いでした。うー
223:名無しさん@ディストリいっぱい
01/05/28 01:06
今メールボックス見たらMAILER-DAEMONからウイルス付きのメールがいっぱい来てる・・ずずーん。
MAILER-DAEMONめ・・身内のくせして裏切りやがったなー。笑
っていうかMAILER-DAEMONからウイルスメールが来るってことは僕が発信してます???
from defalt * to linux@2ch.dyn.to だから僕が発信しているわけじゃないですよね?
でもなんでMAILER-DAEMONからになるんだろ??外部からpostfixを使われてるのかなあ・・ちょっと心配・・・
>From linux Sun May 27 21:01:43 2001
Return-Path: <>
Delivered-To: linux@2ch.dyn.to
Received: from default (xxxx.xxxxx.ne.jp [xxx.xxx.xxx.xx])
by 2ch.dyn.to (Postfix) with SMTP id D0E7946E9A
for <linux@2ch.dyn.to>; Sun, 27 May 2001 21:01:35 +0900 (JST)
MIME-Version: 1.0
Content-Type: multipart/mixed; boundary="--VEHUBSD6BK9YV41ERG1EN8P6FKLM7"
Message-Id: <20010527120135.D0E7946E9A@2ch.dyn.to>
Date: Sun, 27 May 2001 21:01:35 +0900 (JST)
From: MAILER-DAEMON
To: undisclosed-recipients:;
X-UIDL: R:>"!&Q`"!cU6!!5=_"!
224:名無しさん@お腹いっぱい。
01/05/28 01:14
>>223
"MAILER-DAEMON" は詐称と思われ。
xxxx.xxxxx.ne.jp のマシンが感染してるんでしょ。
ブラウザでメールアドレス見ただけで
ウイルス送りつけるようなのもあるしね。↓
URLリンク(www.ipa.go.jp)
225:名無しさん@ディストリいっぱい
01/05/28 01:21
>>224さん
あーよかったー。ちょっとドキドキしてたんですけど安心して寝れます。ふぅ。
ではおやすみなさい。
226:hanajan_特科連X
01/05/28 03:22
う~
(ペンギソのキグルミは質草にした・・・)
一応・・・デンナ
アチコチで宣伝したってるでぇ~~
そのハイブリスでっけどなぁ・・・_ケーッッ
ウットコもぎょうさんもうてまっせえ。。。
なぁ...ソチラも"hogehoge.ne.jp"でんなぁ。。。
ついでにIPもマルダシや・・・アホ_ナ_ヤッチャ
パンツ_マルミエ_ノ_コGAL_ミタイナ_モン_ヤ_ノウ_...
そんでや・・・
そんなメールやったら・・・
そのまま張り付けてもオッケイ・リョーカイでっせ。。。ナマズ_ノ_オニイチャン
227:名無しさん@お腹いっぱい。
01/05/28 07:48
[namazu-devle-ja]に変なメール届いてるよね?
気になって調べたんだけど、元記事はここみたい。
でもなんでnamazuが宛先になってたんだろ?
しかも、1月の投稿を今更・・・
URLリンク(www.makani.to)
228:名無しさん@ディストリいっぱい
01/05/28 10:36
>>226さん
クワー
(宣伝ありがとうございます)
クワー
(ペンギンの着ぐるみっていくらになったんですか?)
ケケケ
(パンツ丸出しのコギャルはうれしいけどウイルスメールはうれしくないよー)
ケケケ
(送信した人は悪意を持って送ってるわけじゃないだろうから伏せました)
ウニャー
(こんな感じでいいんですか???)
229:hanajan_特科連X
01/05/28 11:14
クワ~(語尾を下げる)
(訳:3000円だクワ)
クワ~
(訳:最初のはウレシかったクワ)
クワ~
(訳:相手が学生なら悪意は乏しいだろキャ)
パタパタ
(訳:よくできました)
ウー_ツウコウニン_ノ_シセン_ガ_イタイ_...
230:age
01/05/28 19:19
hogehoge
231:209
01/05/29 00:19
>>1さん+みなさんのおかげで、namazuテスト成功しました。
まだ、細かな所を詰めないといけないけど
何処の板をnamazu検索に取り入れようかなぁ。
使ってないマシンにLinux系を入れて公開しようと思ってるから
まだ、時間掛かりますが。
232:hanajan_特科連X
01/05/29 02:38
まぁ・・・
何時の間にかカテゴリちゅー・・・
あ,,,ちごた・・・
検索できる板増えてるのはeeこっちゃ。。。
233:hanajan_特科連X
01/05/29 04:04
まぁ・・・これでもageとこ
WIN厨房(恥ずかしいなぁ)にエサくれたる。。。ワ
234:209
01/05/29 07:42
カーネル 2.4.5 にするか、2.2.19 にするか・・・。
namazu検索公開マシンには、使ってないPentiumProデュアルマシンにしようと
思ってるけど 2.4.x系のカーネルの方がパフォーマンス良さそうだけど
頻繁にfixさそうだし大変かぁ。
235:名無しさん@お腹いっぱい。
01/05/29 17:27
>>hanajan_特科連X
頭弱そうだが
何も出来ね~人間のクセに能書きは一人前だ
ま、相手にしてもシャーナイか
236:login:Penguin
01/05/29 22:19
2ch.shの最後に
cd $namazudir
gcnmz $namazudir
rm -rf *.BAK
を追加してゴミ削除
237:hanajan_特科連X
01/05/29 22:34
>>235
まぁ・・・
相手したってもエエんやが・・・
自動的にできひんようになる。。。
しやから・・・
言うてることは全くの無駄やと思う。。。
ほんで・・・
人間と違ごて原始人や。。。
238:hanajan_特科連X
01/05/29 22:44
やっぱり・・・
SQLとか(ヲラクルはちゃうやろ)混ざってるんとちゃうか・・・
まぁ・・・
埋め込み型SQLちゅー手ぇもあるけど・・・なぁ。。。
M$星人にヴォロカス書いたけど・・・
基礎の知識とか,,,うー_ホンデヤナァ
IECとかANSIとかロゼッタネットとかの勉強してや。。。
上の方はやってると思うけど・・・
まぁ、無理すんなや。。。
239:hanajan_特科連X
01/05/29 22:46
まぁ・・・
ウェーブソフトウェアつーのんで・・・
Linuxらーがラッキーになるような絵は描けるでぇ。。。
で、実装するんはプログラマつー職種のやっちゃ。。。
240:login:Penguin
01/05/29 22:54
>>231
>>1と重ならないのを。きぼ~ん
無目的なLinux初心者より2ch検索が絶対に建設的
241:hanajan_特科連X
01/05/29 23:02
まぁ・・・
無目的なんは・・・
無目的でも・・・
後から目的になっていたコトもある。。。
要するに・・・
予定調和説や。。。_<<_ヤパン人は殆どがそーやろと思う
そーか・・・
生きることのみを目的とした社畜に甘んじているか・・・や。。。
たぶん・・・そや・・・と思う。。。_<<_アーア
242:231
01/05/29 23:17
>>240
もちろん、同じ板を検索対象としてもしょうがないので
限られたリソースの範囲で検索対象を広げられればと思ってやす。
外から見ると無目的かもしれないけど
自分的にはスキルアップの為の勉強かな。
今はコンパイラー&コンパイルオプションの実性能比較をやっているところで
後はカーネル2.4.x 2.2.x の比較その他・・・。
PGCC ”-O6 -march=pentiumpro”で2.4.xカーネルが通るか知らんけど
人柱になってやってみる予定。
243:hanajan_特科連X
01/05/31 16:33
まぁ・・・
"作成までの道のり"のリンクやけど・・・
"最新100レス"でエエんとちゃいまっか?
244:名無しさん@ディストリいっぱい
01/05/31 16:37
う・・・なんか難しい話になってる・・・逃
やっぱ全部読むには長すぎる状態になってきたので覚えてたら
あとで変更しておきます。忘れてたらそのままです。ごめんなさい。
245:login:Penguin
01/06/03 23:32
ここで作ってたのか。。。
ごくろうさまです。ありがたく使わせてもらってます。
246:login:ディストリいっぱい
01/06/03 23:39
>>245さん
いらっしゃいませー。他の板の人ですね。
みんなのための検索システムなのでじゃんじゃん使ってください。
久しぶりに上がったなあ・・もう上がることはないとあきらめてたのに。笑
247:231
01/06/06 23:54
ここで出ましたシェルスクリプトの
ファイル名を変換する部分に新規ファイル&更新ファイルのみの変換と言った処理を
追加したいのですが、どなたか助言お願いします。
mknmzで実際には更新されてないファイルまでインデックス書き直しをしてしまうので・・。
for i in `ls $データdir | egrep "[0-9]+\.dat"`
do j=`echo $i | sed -e 's/\.dat//'`
$dat2html '<>' "" $データdir/$i > $変換先dir/'xxx.2ch.net/test/read.cgi?bbs=xxxx&key='$j
done
248:名無しさん@ディストリいっぱい
01/06/07 18:25
シェルかぁ
249:login:Penguin
01/06/08 02:53
URLリンク(www.yomogi.sakura.ne.jp)
250:login:Penguin
01/06/08 09:29
ちょっと時間がないのでヒントだけ。
mknmz が更新されたファイルかどうかを判別する材料は、
ファイルサイズと timestamp です。生成した html を dat と同じ
timestamp にするのが良いのではないかと。
251:247
01/06/08 18:33
このスクリプトの処理を終えたファイルは
片っ端から新しく書き出されてしまいます。
>dat と同じtimestamp
ファイル書き出しの時に元のファイルのtimestampを使って・・・。
(シェルは勉強し始めたばかりだった)
252:Anonymous
01/06/09 18:49
かなり遅めな事後報告ですが
「くだらねえ質問はここに書き込め! 1st」はレスの数が1000近くなったので
新しく「くだらねえ質問はここに書き込め! 2nd」を立てた
>>171の通り、>>1の書き込みフォームで使わせていただきました。
>>1名無しさん@ディストリいっぱい殿に感謝じゃ
253:login:ディストリいっぱい
01/06/10 15:27
>>252さん
使っていただきありがとうございます。
使ってもらわないと作った意味がないですからどんどん使っちゃってください。
よろしくお願いします。ぺこぺこ
254:login:ディストリいっぱい
01/06/12 00:46
サイトに名前つけてみました。MOGURA。
もぐらのようにガサガサーとほじってほじって探し出すってことで。
255:247
01/06/15 00:18
>>251
touch -r にて解決。
if~then~fiでの作業合理化。
シェルは便利だ。
256:login:ディストリいっぱい
01/06/15 14:50
みんなにありがとうの気持ちをこめてプレゼントを用意させていただきました。
URLリンク(2ch.dyn.to)
商品を提供してくれたコレガダイレクトショップ様に大感謝です。
しかし・・応募してくれる人はいるのか・・・汗
当選確率が高いかも。笑
257:login:ディストリいっぱい
01/06/15 14:54
あ・・「コレガダイレクトショッピング」でした・・
さっき間違いを指摘されたばっかりなのにまた間違えちゃったや。笑
258:login:ディストリいっぱい
01/06/17 20:27
過去ログの検索結果のところに広告の文字が表示されるのを回避するために過去ログ分の
ファイルは6行目から31行目まで削除する処理を追加。
でも2重3重に行削除を行うのを防止するために毎回kakoディレクトリを削除
することになるのでサーバーの負担倍増。笑
testディレクトリも削除しないとゴミファイルが大量に溜まるようなので毎回削除。
これにより一層サーバーの負担増加。笑
作業不合理化・・・
#!/bin/sh
LANG=ja
export LANG
set | grep LANG
export dat2html=/usr/bin/dat2html.pl
export workdir=/home/httpd/html
export wgetdir=$workdir/wgetlinux
export datdir=$wgetdir/cocoa.2ch.net/linux/dat
export namazudir=/usr/share/namazu/index/linux
export makenmz=$wgetdir/cocoa.2ch.net
rm -rf $wgetdir/cocoa.2ch.net/test
mkdir -p $wgetdir/cocoa.2ch.net/test
cd $wgetdir
wget -m -I linux/dat URLリンク(cocoa.2ch.net)
for i in `ls $datdir | egrep "[0-9]+\.dat"`
do j=`echo $i | sed -e 's/\.dat//'`
$dat2html '<>' "" $datdir/$i > $wgetdir/'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
done
rm -rf $datdir
rm -rf $makenmz/linux/kako
wget -m -I linux/kako URLリンク(cocoa.2ch.net)
for k in `ls cocoa.2ch.net/linux/kako/*/* | egrep [0-9]+\.html`
do n=`echo $k | sed -e 's/\.html//'`
sed '6,31d' $k > $n
mv -f $n $k
done
mkdir -p $namazudir
cd $namazudir
mknmz -a -U $makenmz/test $makenmz/linux/kako
259:247
01/06/17 21:02
>>258
作業不合理化・・・これは...(笑
過去ログhtmlの広告部分を見てみると若干の広告行数の違いはあっても
「center」~「/center」タグで囲んでいるようだから
このタグの間をゴッソリ削除出来ると他の板でもそのまま使えそう。
シェル勉強中の身にてスクリプトが直ぐに出てこない。
ずっと解らない可能性も...(爆
260:login:ディストリいっぱい
01/06/18 13:14
>>259さん
「作業不合理化」のようで本当は合理化されてます。
testディレクトリはたまに削除しないと過去ログ倉庫行きになったファイルも
どんどんたまっていくんで結局は毎回削除して生成したほうがいいみたいです。
dat2htmlの処理自体はすぐに終わるんで。オススメ。
あ、その時にdatファイルのタイムスタンプを引き継げるんだったら引き継いだほうが
いいんでしょうけど。
過去ログのほうも元々タイムスタンプを取得することができてないため毎回更新されて
いるので削除したとしても同じことだし。
広告は過去ログファイルの6行目から31行目に入ります。これは各板共通のようなので
wget -m -I linux/kako URLリンク(cocoa.2ch.net)
のあとに
for k in `ls cocoa.2ch.net/linux/kako/*/* | egrep [0-9]+\.html`
do n=`echo $k | sed -e 's/\.html//'`
sed '6,31d' $k > $n
mv -f $n $k
done
を書き加えればどの板でも対応できそうです。
ただし >>258の rm -rf $datdir は余分な処理のようでした。
これは削除したほうがいいと思います。
これで合理化(どうにか)なるかな?なんちて。←極寒
261:247
01/06/19 00:47
>>260さんの
>testディレクトリはたまに削除しないと・・・
なるほど、この辺りも考えないとダメかぁ。
友人から検索対象にしてくれって言われてるPINK板は
過去ログ広告は、6-16行目までになってました。(検索対象になるかは未定)
egrep -nで広告部分の行数を拾っての処理も考えたけど
誤作動すると変な所を削除してしまうので、
結局、各板の広告行数を予めチェックして>>260さんのスクリプトで
処理するのが良さそうですね。
262:
01/06/20 07:36
263:login:Penguin
01/07/05 23:08
age
264:login:Penguin
01/07/10 03:07
ほげ
265:247
01/07/12 15:33
「MOGURA」検索、大分パワーアップしましたね。
そろそろ、検索サイトを公開しようかと思っていたけど
バッティングしないように収録した板がカブってます・・・。
とりあえずは早めに公開して後から考えるか。
266:login:Penguin
01/07/12 16:38
公開がとても楽しみです。応援しています。
267:247
01/07/13 00:19
>>266 どうもです。
「MOGURA」検索後(result)のレイアウトがいいですね。
この辺り参考にさせて頂きたいです。
後は見やすい配色を考えて..。(寝
268:login:ディストリいっぱい
01/07/13 01:49
>>265さん
ああぁ。すみません。
前に聞かれた時には全然増やす気はなかったんですけどこのあいだ大先生の検索が
使えなくなってたのでそのフォローのつもりで一気に検索対象板を増やしちゃいました。
>>267さん
ということはー。僕のところは見にくい配色だと言うことですね・・・へ・へこーん。
269:このスレ最初っから見てたけど
01/07/13 17:50
ひさしぶりに見たけどすげぇ
改めて使うと便利便利
運営ガンバレよ
270:247
01/07/13 17:54
>僕のところは見にくい配色
いや~ちゃいます...今テストしているページの配色が悪くて見づらいので
どうにかしようと考え中なところなんです。
wgetを使っていて、ファイル数が多い所からのダウンロードをすると
急に動作が遅くなり、通常ならメモリ消費がコンスタントに1MBぐらいのところ
20~30MBも食いバグかな?と思わせる動きをしますね。
バージョン1.6、1.7を試した限りでは同じ症状。
この時1つ1つのファイルサイズが小さくても関係ないので
メモリ回りのバグなのか・・・。
同じ相手サーバー内でもファイル数の少ないディレクトリなら全然問題無いので
通常利用には問題無いのだろうけど。
271:login:Penguin
01/07/16 15:42
age
272:login:Penguin
01/07/21 22:57
namazu ベースの2チャンネル検索サイト
試験的に公開します。
まだ、不都合があるかもしれないので気が付いたら指摘してください。
URLリンク(www12.tok2.com)
273:Anonymous
01/07/21 23:22
ふむ、とくとくか・・・
色分けによりわかりやすいサイトだね。
274:login:Penguin
01/07/21 23:30
心配だった配色が不評じゃなくてよかった...。
ページ構成がまだ、決まってないけどシンプルに
する予定です。
275:login:Penguin
01/07/21 23:34
綺麗でみやすい配色だと思います
276:login:Penguin
01/07/22 00:08
>>275 どうもです。
使いやすいサイト目指してやってみます。
277:login:Penguin
01/07/22 02:48
>>272
むぅ。うちの Netscape だと何も表示されん…
278:login:Penguin
01/07/22 02:54
>>272
俺もリロードすると何も表示されなくなる。。。
279:login:Penguin
01/07/22 02:55
>>272
UNIX?
280:272
01/07/22 08:04
>>279 UNIXです。
文字コードかも。今日夕方に取り組みます。
281:login:Penguin
01/07/22 09:04
文字コードだね。
<!--meta http-equiv="Content-Type" content="text/html; charset=euc"-->
コメントアウトしてちゃあ駄目だろ。。。
282:login:Penguin
01/07/22 11:43
>>272
100点を取る必要はないけど(ほとんど不可能)
htmlの間違い探しに使ってください。
URLリンク(validator.w3.org)
283:272
01/07/22 17:14
フリーのCGIが使える所は、どうも文字コードの問題が出ると何処かで見たので
今朝、x-sjis>euc>コメントアウトしてチェックしてみたけど・・・。
これから色々やってみます。
284:272
01/07/22 17:15
こんな書込みを上げてしまった。
285:272
01/07/22 19:54
ひとまず、使えるようになりました。
テスト公開中検索
URLリンク(www12.tok2.com)
入り口のindex.htmlは、定期的にPerlで書き出しているのと
フリーサーバーの場合はそれを、#includeして広告を入れている?ので
手探りで文字コード指定しました。(笑
フレームタグのサイズ指定が、ブラウザによって解釈が違ったりするので
これもまた、手探り状態で色々設定してどうにかまともになりました。
286:272
01/07/22 23:54
文字化け対策でこんなのもあったけど
URLリンク(www.yahoo.co.jp)
今のところ問題無さそうなのでひとまず現状維持。
287:272
01/07/26 00:16
以前にタイムスタンプ引継ぎの事を書いたので
>>258 にタイムスタンプの引継ぎを入れると・・
wget -m -I linux/dat URLリンク(cocoa.2ch.net)
for i in `ls $datdir | egrep "[0-9]+\.dat"`
do j=`echo $i | sed -e 's/\.dat//'`
$dat2html '<>' "" $datdir/$i > $wgetdir/'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j
touch -r $datdir/$i $wgetdir/'cocoa.2ch.net/test/read.cgi?bbs=linux&key='$j #タイムスタンプ引継ぎ
done
ディレクトリごと削除した時に効果あるかわかりませんがタイムスタンプが
以前にインデックスを作成した時と同じならmknmz 時にスキップしてくれるかも
しれません。
288:hanajan:特科連χ
01/07/30 17:59
DNSの故障だったのか。。。
一昨日に検索窓を付けたモノでして。。。
URLリンク(www.hanajan.com)
289:login:ディストリいっぱい
01/07/31 01:56
あははー。検索窓ついてるー。使ってくれてる人がいるとは思わなかったです。ありがとうございます。
しかし URLリンク(www.dyn.to) って結構ポロポロサバ落ちするんだなあ。金取ってるくせして。
こんなんだったら最初から無料の URLリンク(dyndns.org) にすればよかったなあ。
金取ってる分だけ安定してるかと思ったのに。今さら変えるの大変だしなあ。
はあああ。ストレスたまるー。
あまりにもストレスがたまるので他のところに変えてやるーって思って探してたら
最近新しいのできたんですね。→ URLリンク(ddo.jp) ←誰か使ったことある人います?
試しに取ってみたけどどうだろう。1ヶ月全くオチないようだったらこのまま使ってもいいかなあ。
URLリンク(2ch.ddo.jp)
でも年額6000円は高い。。。
290:hanajan:特科連χ
01/07/31 03:46
ウットコ・・・
月額6000円程度でし・・・
URLリンク(www.hanajan.com)
メインのWWWです。
そろそろ、フレーム付けっかな~。。。
291:login:ディストリいっぱい
01/07/31 12:12
うおっ。すごいもの見つけました。
昨日書いた URLリンク(ddo.jp) のサイトをうろうろチェックしてたら
URLリンク(ddo.jp)
↑「Linux@2ch掲示板」にリンクが張ってました!!!笑
そうだったんですね。僕たちの仲間だったんですね。水臭いではないですか。ddo.jpさん。
だったら推奨します。→ URLリンク(ddo.jp) ←素晴らしい
今のところ問題ないし、無料バージョンもあるし、ドメイン覚えやすいし。いいと思います。
Linux板住人価格として6000円を3000円にまけてくれるともっと素晴らしい。←ホメた目的はこれ
話変わりますけどこの板、最近書き込みがすごく減ってないですか? (@@;)
292:Anonymous
01/07/31 13:08
事後報告だが、検索窓を張った
URLリンク(www.geocities.co.jp)
ジャンルは2ちゃんねる@UNIX板/Linux板(藁
293:login:ディストリいっぱい
01/07/31 13:34
あのにまうすさんも使ってくれてるんですね。ありがとうございます。
アップローダーがあったんでエロエロ画像がアップされているのを期待して
見てみたんですが全然違いました。。がっかりです。。。
アップローダ=エロエロ画像 と考える僕が間違ってますかー?(ーー;)
294:login:Penguin
01/08/10 14:53
2.0.6 リリース age
295:login:Penguin
01/08/10 20:54
>>293
心配するな俺もそう思ったよ。
296:login:Penguin
01/08/10 21:43
v2.0.6 早速導入しました。
●毎日更新
URLリンク(203.141.142.84)
297:Anonymous ◆True/7Po
01/08/15 16:11
>>296
事後報告、くだしつスレにリンク張りました
URLリンク(cocoa.2ch.net)
298:296
01/08/15 22:08
リンク有難う御座います。
高レスポンスで返せるようチューニングに励みます。
299:login:Penguin
01/08/23 00:36
300:◆EMrmvKLI
01/08/23 05:31
(・∀・) 300!!
301:login:Penguin
01/08/25 18:10
久しぶりに2ch検索使ってみたらこの板で作ったなんてことは全部すっとんで
広告貼って小遣い稼ぎですか?
302:2ch検索の"管理"人かも
01/08/25 18:26
>>301
1円もお金なんか入ってきませんけど?
広告=管理人にお金が入る
と思ってはいけません。
広告を貼るから値引きをしてくれ、ということで広告が入ってます。
ちなみに前のコレガの時も広告を貼るから懸賞の商品を提供してくれ、
との条件でバナーを貼ってました。僕には何も入ってきてません。
URLリンク(2ch.dyn.to)
↑これね。
これらは、みんなに作ってもらったからみんなに対するお礼のつもりでやってます。
僕が金儲けして喜ぶような人間だと思ったんですかー?
303:余弦者
01/08/25 23:01
>>1と他の検索サイト管理人殿
現在閉鎖中の板は2度と戻ってこないかもしれないので、
現在のログを保存してあとで公開してもらえると非常に助かるのだが
304:2ch検索の管理人かも
01/08/25 23:57
>>303
ああぁ、、、僕はログは捨ててます、、、
でもって「かなりしばらくお待ちください。」のところは
今となってはdatファイルを取ることもできません、、、
ですから僕には何もできません、、、すみません、、、
みみずんさんのところがログをちゃんと保存してるからなんとか
してくれるかもしんないです。
↓ココです。
URLリンク(mimizun.mine.nu)
305:2ch検索の管理人かも
01/08/26 00:02
ちなみに他のところはと申しますと
URLリンク(203.141.142.84)
URLリンク(64.124.197.202)
こういう状態です、、、ああああ。
「壊滅状態」という言葉がぴったりの今日です、、、
306:login:Penguin
01/08/26 00:24
この手の検索システム構築には、マシンパワー&高速回線が必要だと思います。
データ取り込み時に圧迫される回線
インデックス書き出し時に消費されるCPUパワー
データ保存で必要なHDD領域
常時稼動によって掛かる電気代&騒音。
手間も掛かり決して楽なボランティアでは無いと思いますので
がんばってください。>各検索の管?理人
307:hanajan@零号 ◆abdWn..Q
01/08/26 21:05 lwjpwoTg
スレが見つかって、それを表示する場合、
"レス全部読む"ではなく"最新レス100"
のURLが指定できんかのぅ。。。
308:ディストリがいっぱい
01/08/26 21:38 iEaIYVak
>>306
お・応援ありがとうございます。が・頑張ります。
>>307
それ、いいですねえ。
ja.po かなんかをいじればできそうな気もします。
でも僕は ja.po というものがどこにあるのか知りません。ですから永遠に対応はできません。
さ・さようなら。。。ごめんなさい。。。
309:検索エンジン全開 "管理"人
01/08/27 21:30 06X1b0s6
人為的ミスでブレーカーを落としデータがクラッシュ、しばらく停止してましたがやっと復旧。
UPSは管理人の個人的財政難から今後も採用予定無し...
>>307 可能だと思いますが、検索キーワードでHitしたスレッド内を
ブラウザ検索で長い書込みの中から絞込みを想定しています。
現状でどうにか使って頂きたいと思います。
310:login:Penguin
01/09/05 01:36 9/sH.COA
このスレの連中はシェルスクリプトもロクに書けねーのかよ。
export var=valは許すとして、
for i in `ls $datdir|egrep "[0-9]\.dat"`なんて痛すぎ。
ディレクトリ空だったら死ぬだろ。
昔の話題ではあるが。
311:ディストリいっぱい
01/09/29 23:47 gAs/Bj.E
今日発売のあちゃら11月号の91ページに2ちゃんねる検索が掲載されてます。
暇な人は見てみて下さい。
今月の初めにライターさんから「掲載させてもらいます。」という話は聞いていたけど
どういうふうに取り上げるのかは聞いてなかったんで、どんなふうに載ってるんだろ?
と思って立ち読みしようと思って本屋に行ったら結構大きく紹介されてたので
買ってしました。永久保存版。。。
今度の目標は日経Linuxに掲載されることです。頑張ります。
312:login:Penguin
01/09/29 23:49 gAs/Bj.E
おめでとう。
313:login:Penguin
01/09/29 23:50 gAs/Bj.E
名スレの予感
314:ディストリいっぱい
01/09/29 23:51 gAs/Bj.E
ちなみに >>312 >>313 は自分で書き込みました。
誰も反応してくれないとさみしいんで。。。
315:login:Penguin
01/09/30 00:06 s8gsnkrQ
>>311
技術的なことはちんぷんかんぷんですが、
本当におめでとうございます。
316:ディストリいっぱい
01/09/30 00:14 2uU1/ecY
あ、本当に祝ってもらえた。うれしいです。ありがとうございます。
317:検索エンジン全開
01/10/05 00:07 OyHoZWHc
>>311 おめでとうございます。
まだ見てないから見てみよ。
318:うろんぐ
01/11/30 17:52 0UsyWI7S
Web ページで検索できるようにする前に、emacs から検索してみようと思って namazu.el を入れてみた。
でも、M-x namazu で検索文字列を入れてみると
Wrong type argument: stringp, nil
と表示されて検索できなかった。
コマンドラインから namazu で検索するとちゃんと検索できてるのになぁ。
何が悪いのでしょうか? emacs-lisp を勉強していない俺が悪いのでしょうか?
319:みみずん
01/11/30 20:32 8qsrn8Pr
最近、管理がめんどい。。。
過去ログ取得スクリプトにバグはあるしディスク障害もあるわで。
URLリンク(mimizun.mine.nu)
320:うろんぐ
01/12/01 08:49 U6ZUKGfm
>318
自己レス。
~/.namazurc でのデフォルトのインデックス指定が
Index ほげ
だったのが敗因でした。
INDEX ほげ
じゃないとだめなんですね。いや、 namazu はどっちでもいいんですが、 namazu.el で .namazurc を解析するところが INDEX しか見てくれないんですよね。それだけでした。スマソ。
321:login:Penguin
01/12/07 17:50 QGAXIRf/
Namazuはクズ検索エンジン
322:login:Penguin
01/12/07 20:45 +fpiRIvO
>321
何がおすすめ?
合計 20GB 程度の Web サイト内の全文検索をしたい。
323:login:Penguin
01/12/08 11:15 AvJQP9li
Mitake Search なりなんなりの売り物つかうのはどうよ。
>>321 は例の私怨厨か... まだいたんだな。
324:login:Penguin
01/12/13 11:18 ugaubRPB
>323
なるほど、と思っていろいろ商用のものを見てみたんですが、
きづいたこと。
Namazu をつかってて、致命的に困っていることが、無い。
というわけで Namazu を使いつづけることにしました。
Debian 用パッケージも用意されていることだし。
325:あのみみずん@ N72ch-01p57.ppp11.odn.ad.jp
01/12/16 09:46 dwyzpYXY
Namazu いいよね。便利だし、早いし。
まぁ検索精度は低く感じるけど無料だから文句ないし。
つか、index作るのに時間かかるね・・・メモリも食うし。
326:login:Penguin
01/12/18 00:35 xpsT3a/l
申し訳程度にrenice +20…
327:login:Penguin
02/01/26 16:50 7jfLsj9S
kakasi の辞書、mysql とかのデータベースに格納できるとありがたいんだけどなぁ。
328:login:Penguin
02/01/26 21:15 7jfLsj9S
DocuWorks 文書用のフィルタってどなたかしりませんか?
昨年10月ごろの ML で Fuji Xerox の開発部でも UNIX 用のフィルタの必要性は認識しているって言う話がでてたらしいんですが、その後まったく話を聞きません。
329:login:Penguin
02/01/26 21:30 UX7CiKAA
広報にたずねてみては?
個人でも邪険にされることはありませんよ
330:login:Penguin
02/01/26 22:35 cUpXDNAM
>>327
それ、ずーっと昔に試したことがあるけど、かなり遅いよ(汗
postgresでもmysqlでもoracleでもsybaseでも。
データ型のチェックとか格納のためのソートツリーの作成とか、
kakasiを使うにあたって不要な部分がボトルネックになる模様。
331:login:Penguin
02/01/27 00:49 rUkqU65a
>330
それって、kakasi のソースをいじってってことですか?
それとも毎回データベースから単語ファイルを作成して辞書ファイルを作成して…ってことですか?
もしかして前者の場合だったらパッチがあるとか…。
332:login:Penguin
02/01/27 05:51 rUkqU65a
>320
なんか久しぶりにこのスレ読んで、おもだしたので、BTS にあげときました。
333:login:Penguin
02/02/09 12:34 QOH+2g3Z
1からよんで感動した
334:login:Penguin
02/03/08 14:10 OE9ed93x
wvWare v0.5.x.tar.gz どっかに無いかな。
v0.6以降からおいらのスキルじゃWord文章をうまく検索できんようになってしまった。
335:login:Penguin
02/03/08 17:16 2E3LNJfK
>>334
CVS から最新のフィルタだけ持ってきたらどうですかね。
URLリンク(cvs.namazu.org)
336:login:Penguin
02/03/24 00:16 ECEITlSW
age
337:login:Penguin
02/05/01 23:10 vlGgka0t
338:名無しさん@ディストリいっぱい
02/05/04 01:19 sJTSZgK7
なんと早くも1周年。おめでたいです。
よく頑張りました。(自画自賛)
339:login:Penguin
02/05/04 01:28 rn7+GErz
>>338
コテハンはひさしぶりだな。
掲示板すごいことになってるね。
340:名無しさん@ディストリいっぱい
02/05/04 01:39 sJTSZgK7
すごいことになってるっていうから荒らしでも来てるのかと思って見に行っちゃいました、、
あの質問づくしのことですか?もう慣れました。メールでも「削除して下さい。」とか
「書き込みができないんですけどなんでですか?」ってメールがしょっちゅうきます。
わかる範囲で答えてますけど。
1年ってあっという間だなあとしみじみとした気分です。
341:login:Penguin
02/05/04 07:09 vsdupTed
アーリーらっぱ飲みしながら>1から読破。
知らずに使っていた2ch検索にこんな歴史があったなんてね。
342:あれれ?
02/05/04 07:12 vsdupTed
空欄にしたら「名前:login:Penguin」になってしまいました。
詐称ではありませぬ。
343:login:Penguin
02/05/04 08:44 rn7+GErz
>>342
それは「名無し」だ。
URLリンク(freezone.kakiko.com)
344:login:Penguin
02/07/19 22:06 SLbxrvZg
UNIX板から来ました。
"namazu.cgi"を間違って消してしまいました。今から使おうと思ったのに
redhat7.3のrpmから入れたやつです。ちなみにバージョンは
namazu-2.0.10-4
namazu-cgi-2.0.10-4
だれかアップしていただけると助かります。お願いします。
345:hh
02/07/19 23:15 6iM25OVn
URLリンク(freehome.kakiko.com)
346:login:Penguin
02/07/19 23:23 W906XYYp
これ?
URLリンク(2ken.net)
347:login:Penguin
02/07/20 01:05 RZHWY+0C
>>344
いったん rpm 消して入れ直せば?
348:login:Penguin
02/07/20 22:52 JNErfAQQ
大抵はつかえるだろう。
349:login:Penguin
02/07/26 10:44 5MbssHQh
にちゃんねる検索はいいと思うんだけど、
自宅でサーバー立ててる人とかってさー
namazu何に使ってんの?
なんかおもしろい使い方ってある?
350:名無しさん@Emacs
02/07/26 11:24 QxusWSJk
>>349
日記検索
351:login:Penguin
02/09/04 13:04 +A/E5ACP
感謝age
352:login:Penguin
02/09/04 14:15 RLmpKL5P
>>350
DBですれ。
353:login:Penguin
02/09/22 12:59 nEa4cqUa
つか/settei/がIndex表示になってないな。
shスクリプトとか欲しいのに。
354:login:Penguin
02/09/22 13:13 N4s7ITei
2ch.shだと思ってたが名前変更されてたんだな。俺もちょっと探したけど見つけた。
URLリンク(2ken.net)
これだろう。でもわざわざこれを取得しなくてもこのスレに書かれてるのと同じだと思うが。
但し、今はdatディレクトリが見れないからこれでは動作しないと思う。
あと3行目の set | grep LANG は不要だと思う。ここでgrepしてどうする・・
355:名無しさん@Emacs
02/10/03 02:45 tCrncUsf
/usr/lib/mozilla/searchplugin/Googlejapan.src に
ちょっと変えてこんなんを作ってみた。
# Mozilla/2chSearch plugin
<search
name="2ch search"
description="2ch search"
method="GET"
action="URLリンク(2ch.dyn.to)"
queryEncoding="2561"
queryCharset="Shift_JIS"
>
<input name="key" user>
<input name="whence" value="0">
<input name="lr" value="lang_ja">
<input name="dbname" value="all">
<input name="max" value="20">
<input name="sourceid" value="mozilla-search">
<interpret
charset = "Shift_JIS"
resultEncoding = "2561"
resultListStart="<!--a-->"
resultListEnd="<!--z-->"
resultItemStart="<!--m-->"
resultItemEnd="<!--n-->"
>
</search>
356:login:Penguin
02/11/01 10:53 SkScjhB+
インデックスから日本語を排除したいと思っています。
検索対象は日本語のテキストファイル(含む LaTeX ソース、メール、ニュース)なのですが、
検索後として日本語を指定することがほとんどありません。
そこでインデックスを作る際に日本語は省いてしまいたいと思っています。
mknmzrc はどのように設定するといいのでしょうか?
現在は kakasi, chasen 共に使用できるようになっています。
あと、メールやニュースの Message-ID, In-Reply-To, References: フィールド以下の
文字列に対しては、メッセージ ID そのままの状態でインデックスに含めたいのですが、
可能でしょうか?
つまり、検索文字列としてメッセージIDを指定したいことがあるということです。
357:356
02/11/01 11:31 SkScjhB+
nkf ~/Mail/ML/IETF/1 | chasen -j -F '%?U/%m/ / ' | jless
で望む結果が得られ多っぽいです。
chasen のマニュアルによると
%?U/STR1/STR2/
っての 『if unknown word, STR1, otherwise, STR2』 ってことなのですが、
UNKNOWN ってのは辞書に無いってことですよね?
てことは chasen の辞書に英単語が載っていたらだめなんだな。
358:356
02/11/01 11:32 SkScjhB+
nkf ってデフォルトで BASE64 のデコードしてくれるんですね。
メールの Subject: の日本語(BASE64エンコードされている) が、
デコードされててちょっと感動した。
359:独自フィルタを作りたい
02/11/02 12:11 0CRm6865
Namazu文書フィルタの作成方法
~ Namazu 2.0 用 ~
URLリンク(www.namazu.org)
ほかに参考になるサイトはありますでしょうか?
360:独自フィルタを作りたい
02/11/02 12:19 0CRm6865
特にフィールド検索に重点をおきたいと思っています。
実験結果のファイルがあって、それには実験の条件が書き込まれているので、
Word や Excel 文書の「文書のプロパティ」みたいな扱いができればと。
使用している OS は Debian GNU/Linux 3.0 (woody) です。
いくつかのフィルタを読んでみたところ、フィルタの側ではとにかく可能な限り、
フィールドの情報を抽出して返しているように思います。
フィールド名などもフィルタのほうで勝手にいくらでも作ることができるみたいです。
どのフィールドをインデックスに採用するかというのは、
フィルタから返された情報を見て mknmz が決定するのでしょうか?
361:独自フィルタを作りたい
02/11/02 12:25 0CRm6865
つまり、"+subject:linux" みたいな検索式の subject の部分に何を使えるかは、
誰がどうやっていつ指定しているか、ってことなんですが。
362:独自フィルタを作りたい
02/11/02 12:35 0CRm6865
REMAIN_HEADER vs SEARCH_FIELD
URLリンク(www.namazu.org)
全文検索 Namazu 講座
URLリンク(www.rfs.jp)
$REMAIN_HEADER
RFC 822 Header などのうち本文として検索出来るものを指定
$SEARCH_FIELD
フィールド検索(「+subject: 検索語」のような形式)に使える項目を指定する
$META_TAGS
検索対象にするMETAタグを指定
%FIELD_ALIASES
メール見出名の置換ルール
フィールド検索に関係しそうな mknmzrc の変数というと、これくらいでしょうか?
どのフィルタがどの設定項目を見ているのか、これからフィルタを読んでみます。
363:独自フィルタを作りたい
02/11/02 12:45 0CRm6865
フィルタ読んでみました。
$REMAIN_HEADER → mailnews.pl が見ている
$META_TAGS → html.pl が見ている
$SEARCH_FIELD と %FIELD_ALIASES は mknmz 本体だけが見ている?
(まぁ conf.pl でデフォルト値を設定しているのは別として)
うむ~ NMZ.field.* 出力している部分をよんでみまつ・・・
364:独自フィルタを作りたい
02/11/02 15:33 0CRm6865
1)フィルタからフィールドのデータが連想配列で返ってくる。
2)%FIELD_ALIASES を使ってフィールド名を変換
%FIELD_ALIASES は
キー = フィルタから返ってくるフィールド名
値 = インデックスに登録するときのフィールド名
3)フィールド名が SEARCH_FIELD にあるものは NMZ.field.<フィールド名> に出力
META_TAGS を使うようオプションで指定されていたときは
SEARCH_FIELD だけでなく META_TAGS にあるものも対象。
ってことか・・・・ちょっと気持ち悪いのは、なぜか mailnews.pl では
メールヘッダの Subject: の内容を 'title' フィールドとして返しておいて、
mknmz 本体でわざわざ 'title' -> 'subject' への別名置き換えをやってるところ。
だったらはじめから mailnews.pl で $fields->{'subject'} = $line とかすればいいのに。
365:独自フィルタを作りたい
02/11/02 15:35 0CRm6865
今朝になって突発的に独自フィルタ作りたくなって、
my とか local ってなに?
perl の名前空間ってどうなってんの?
@ とか % とか \ とか $ とかなに?
ってとこからはじめたんで、ちゃんとソース読めてないかもしれない・・・
366:login:Penguin
02/11/03 02:13 RjWYQ8zV
Windows の Outlook の *.msg ファイルがあるんですが、
これのフォーマット分かる方おられませんか?
フィルタかいてみようかとおもったんですが、
MH 形式とはちょっと違うみたいです。
いらないバイナリデータがあちこちにちりばめられていて。
確かにテキスト部分は一部読めるんですが。
367:login:Penguin
02/11/03 02:26 RjWYQ8zV
これを使えば何とかなりそうな気がしてきました。
Converter for Microsoft Outlook 2000 (TM) .msg files
URLリンク(www.brodo.de)
Matijs van Zuijlen has written a Perl scriptwhich does convert Microsoft Outlook .msg files to mbox format.
He found out that the file format is OLE-compatible.
This script uses many Perl modules to extract the information,
but you should be able to find all Perl Modules either in your favourite Linux distribution, or at CPAN.
You can find his program (License: GPL), as well as documentation,
at URLリンク(www.xs4all.nl) .
368:login:Penguin
02/12/04 15:44 t/qSISBU
まるちゃんage
369:1
02/12/04 16:27 fPwE/y/H
【まさかの】ひろゆきブチキレ【降臨】
とうとうキレさせてしまった過疎板の住人達。
あの一言さえなければこんなことにはならなかったのに。。。
目の前で忽然と消えていくスレ達。
一つのスレに集中(むしろ、おいやられていく)住民達。
ひろゆきVS住民
無論、俺は面白半分w
問題の発言
スレリンク(bobby板:119番)
問題のスレ
スレリンク(bobby板)