11/04/04 14:56:41.07
画像処理プログラミングについて質問、議論を行うスレッドです
・画像処理について素人同士で大激論
・初学者の質問に対してやさしく(的を外れた)解答を与える
・その道の玄人も大歓迎
前スレ
画像処理 その12
スレリンク(tech板)
2:デフォルトの名無しさん
11/04/04 20:59:31.81
保守
3:デフォルトの名無しさん
11/04/06 22:42:46.48
テンプレって無いんだっけ?
4:デフォルトの名無しさん
11/04/06 23:54:10.83
画像処理系のライブラリ
OpenCV URLリンク(sourceforge.net)
Gimp URLリンク(www.gimp.org)<)
Vips URLリンク(www.vips.ecs.soton.ac.uk)
VXL URLリンク(vxl.sourceforge.net)
CImg URLリンク(cimg.sourceforge.net)
Gegl URLリンク(www.gegl.org) URLリンク(pippin.gimp.org)
ImageMagick/GraphicsMagick URLリンク(imagemagick.org) URLリンク(www.graphicsmagick.org)
GIL URLリンク(opensource.adobe.com)
CxImage URLリンク(www.codeproject.com)
FreeImage URLリンク(freeimage.sourceforge.net)
ITK URLリンク(www.itk.org)<)
Imlib2 URLリンク(www.enlightenment.org)
MIST URLリンク(mist.suenaga.cse.nagoya-u.ac.jp)
5:デフォルトの名無しさん
11/04/18 20:01:34.33
前スレ、落ちてたのか
6:デフォルトの名無しさん
11/04/26 02:53:39.66
全くの初心者がどのサイトまたはどの書籍を参考にしたらいいか教えてください
forとかwhileとか配列とか簡単なCくらいなら使えるけどIplimageとか訳がわからないってレベル
7:デフォルトの名無しさん
11/04/26 12:03:54.62
何を知りたいか、もうちと詳しく言ってくれるとレスが付きやすいかも
8:デフォルトの名無しさん
11/04/26 23:16:05.13
>>6
Essential OpenCV Programming―with Visual C++2008
OpenCV初心者ならこの辺りが良いんじゃなかろうか
C++/CLIだから、.NETで扱えて比較的楽
そのままMFCに行くも良し、C#でラッパー使うも良し
C++/CLIは癖があるから、そのまま使い続けるのは危険だがwww
9:デフォルトの名無しさん
11/04/27 01:11:05.36
これしか薦めようがないな、うん
URLリンク(www.google.com)
10:デフォルトの名無しさん
11/04/27 19:43:11.15
>>6
構造体のポインタあたりまでCの学習をしてくるんだw
11:デフォルトの名無しさん
11/05/09 01:28:45.04
つまらないな
12:デフォルトの名無しさん
11/05/14 10:45:34.96
画像処理の勉強をしたいんだけど、どの位まで行けばプロ級なんすか?
私の当面の目標は、とりあえずライブラリを使って、色々な画像処理を覚えながら、
簡単なアプリ作って、色んなボタン押して画像処理できるようになって、、、
まずは半人前を目指す予定
13:デフォルトの名無しさん
11/05/14 14:44:39.36
画像処理関連アプリだとPhotoShopの○○機能みたいなの入れてって言われること多い
それを二つ返事で引き受けられないようだと素人
14:デフォルトの名無しさん
11/05/14 15:34:11.10
なるほど~その辺勉強してみますわ
15:デフォルトの名無しさん
11/05/14 16:57:59.55
OpenCVスレの方が適してるかもだけど
26日15時~17時に中部大の藤吉先生と広島大の栗田先生の講演が
Ustream配信されるよ
16:デフォルトの名無しさん
11/05/21 13:32:16.55
URLリンク(code.google.com)
また新しい画像形式が増えるのかしら
17:デフォルトの名無しさん
11/05/23 18:31:02.07
ブラインドデコンボリューションって方式が色々ありますが、
レントゲンのような透過画像の場合、どれが一番良いのでしょうか?
検索しても天体用とか色々あってちょっと混乱してます・・・。
ソースもあんまり無いですし。
matlabを使って見るのが一番早いんでしょうが持って無いので、すいませんがどんな助言でも構いませんのでお願いします。
18:デフォルトの名無しさん
11/05/24 22:56:32.87
画像処理技術の最新動向とかってどうやってチェックしてる?
19:デフォルトの名無しさん
11/05/25 09:44:06.92
このスレをウォッチ
20:デフォルトの名無しさん
11/05/26 22:32:39.59
とりあえずWebP Discussion Google Groupは
Google Readerに登録しておいた
21:デフォルトの名無しさん
11/05/28 15:30:12.08
NL-Means法のGa(差分2乗に対する距離ごとの重み)に使う
a(標準偏差)ってどのように決めているのでしょうか?
多くの論文内では,探索範囲や重み評価の窓幅,指数関数の
減衰を決めるhに対しては実験で使った値が公表されているのに
aについて述べられている論文が見つからなかったので質問させて頂きました.
22:デフォルトの名無しさん
11/05/29 23:09:54.01
このスレでいいかわからないんですけど、他に適切なスレが見つからなかったので質問させてください。
psdファイルの解像度(dpi)を取得する方法ないでしょうか。
600dpiのpsdのデータが大量にあるんですが、少しだけ72dpiのデータが混ざってしまっています。
これを検出するツールを作成したいのです。
ImageMagickで出来ると一番都合がいいんですが、調べた限りではImageMagickだと
dpiを変更することはできるけど、取得はできないようでした。
23:デフォルトの名無しさん
11/05/29 23:14:34.31
ImageMagickのソースを見たらどうでしょう。
24:デフォルトの名無しさん
11/05/30 00:49:02.12
普通にidentify -verboseで解像度も出るようだけど?
25:デフォルトの名無しさん
11/05/30 02:12:20.67
あら面白い
URLリンク(news.ycombinator.com)
26:デフォルトの名無しさん
11/05/30 02:13:16.32
joke板恒例学生証うp大会開催中@スレリンク(joke板)
現在の最高学歴=名古屋大学工学部
次点 =慶應大学薬学部
最下位 =駅弁大
※うp方法
①携帯で学生証?を撮影(個人情報は隠して、2chのIDを紙に記載し一緒に撮影してください)
②画像をURLリンク(upup.be)に送信
③画像のURLが記載された返信メールが来るのでそのURLをスレに記載
※真面目にやらんで画像をいじって加工OK!(joke板ですから)
27:デフォルトの名無しさん
11/05/30 12:17:31.42
PNG, JPEG, GIF, BMPがデコードできて
WindowsとLinuxで共通に使える軽い画像ライブラリを教えてください。
libpng, libjpegなどを個別に使ってましたが、さらにbmpとかに対応しないといけなくて
いい加減めんどくさくなりました。
28:デフォルトの名無しさん
11/05/30 12:23:47.54
つ[ImageMagick]
29:27
11/05/30 12:36:02.30
>>28
それ全然軽くないです。
30:デフォルトの名無しさん
11/05/30 12:42:31.11
軽いってどの程度よ
31:デフォルトの名無しさん
11/05/30 13:12:07.71
OpenCVで良くね?
32:デフォルトの名無しさん
11/05/30 21:18:05.77
OpenCV, CImg, ImageMagick, GraphicsMagick, DevIL, GIL, CxImage, Imlib2, FreeImage
個人的にはImageMagickが好き
33:デフォルトの名無しさん
11/05/30 21:31:39.99
そういえば昔DevILを使ったなぁ。結構よかった気がする。
34:デフォルトの名無しさん
11/05/30 23:15:15.50
>>24
ありがとうございます。
自分であれこれググった時にはそのパラメータにたどり着けませんでした。
で、試してみたのですが、解像度600dpiのファイルでちゃんと600x600が出てくる場合と、
なぜか30068x16になる場合があるようです。
画像そのものは問題なさそうなのですが、Photshopのバージョンによっては上手く解像度が取得できないんでしょうか・・・?
35:デフォルトの名無しさん
11/06/01 22:42:44.55
ドロップシャドウって検索したらペイント系ツールの使い方ばっか出てくる。
陰影効果作りたいだけなんだけど、プログラム作る側の観点で解説してるサイト知らない?
36:デフォルトの名無しさん
11/06/02 21:27:15.37
YUV420みたいにチャンネルごとにサイズが違う画像にアフィン変換かけたいんですけど、
1チャンネルずつ独立にかけるしかないんですかね
37:デフォルトの名無しさん
11/06/15 23:14:50.42
URLリンク(www.youtube.com)
これいいな
ネットがどんどん便利になっていく
38:デフォルトの名無しさん
11/06/16 21:25:56.84
需要あるのか...
39:デフォルトの名無しさん
11/06/16 21:37:07.23
>>38
URLリンク(b.hatena.ne.jp)
40:デフォルトの名無しさん
11/06/18 11:29:00.55
顔認識システムについて質問です。
同じ大きさの二つの写真を比べて、何%一致とかいいますよね?
この場合二つの写真を区画して、それぞれの同じ位置の場所の部分
を比べて一致したらx%分一致ってことですか?
似たような写真でも、違う写真ならば、全ての区分において一致しない
こともあるんじゃないですか?
ここら辺良く分からないので教えてください。またスレ違いなら関連
スレ教えてください。
物理板で聞いたのですが、ここが最適化と思いました。
41:デフォルトの名無しさん
11/06/18 12:28:23.04
ここは最適化じゃないよぉ。
42:デフォルトの名無しさん
11/06/18 12:30:45.35
このスレは最適化されています。
43:デフォルトの名無しさん
11/06/18 12:31:44.10
特徴ベクトルがどうたらこうたらで識別器がどうじゃこうじゃの識別率や誤識別率がうんぬんかんぬん
44:デフォルトの名無しさん
11/06/18 13:11:29.71
>>43
どういう判断で一致率を計算してるんでしょうか?
45:デフォルトの名無しさん
11/06/18 14:44:11.02
通りすがりの素人だけど、
■□■□
□■□■
■□■□
□■□■
↑と↓がどのくらい一致しているかを調べるとすると、、、
■□■□
□■□■
■□■□
□■□□
先ず横方向に■が何個あるか数えて、両方のビットマップで数が揃っている確率を調べる
次に縦方向に同じ事をして、斜め方向にも同じ事をする
みたいな話を聞いた様な聞いてない様な・・・
これが >>43 さんの書いてる特徴ベクトル?
46:デフォルトの名無しさん
11/06/18 16:51:59.19
画像パターンを特定する「特徴量」ってのがあって、この特徴量ってのにもさまざまな
計り方があって、それぞれ関数とか統計とか使ったりするわけだな。
よくあるのは、その「もの」の写真を何パターンかプログラムに処理させて、その「もの」
の特徴を学習させる(機械学習)ってのがあるな。
47:デフォルトの名無しさん
11/06/18 21:03:24.36
顔認識だったらまず顔を認識して、顔の特徴を抽出するから、写真の区画がどうとかは関係なくなる。
特徴点を3つ使うとすると、三次元の特徴ベクトルという事。
48:デフォルトの名無しさん
11/06/22 00:35:59.43
超高速に2値化画像をラベリングするのってどうしたらいいすか?
いろいろ論文や特許はでてるけど、これぞ1番、もしくは2番くらいの教えてください
49:デフォルトの名無しさん
11/06/22 00:56:49.39
opencvを使って、やりたいことはできるが、それだとアルゴリズムが理解できない。画像処理工学?的で処理をプログラムレベルまでおとして、説明してくれてるサイトしりませんか?特にrgb⇒yuv変換、2値化、blobなど
50:デフォルトの名無しさん
11/06/22 01:00:40.94
rgb->yuv ってこの計算式をそのままコードにするのじゃダメなの?
URLリンク(en.wikipedia.org)
51:デフォルトの名無しさん
11/06/22 11:41:41.87
最近は数学の勉強ばっかりで訳わからん
まー勉強するしか無いんだけどさ
って愚痴スマソ
52:デフォルトの名無しさん
11/06/22 19:59:32.53
>>48
高速ラベリングは過去スレにたくさんあるな
過去スレ見ると
鳥脇先生の2パスアルゴリズムや
image MLに流れていた1パスアルゴリズムが速いらしい
会社で使っているのは3パス以上のアルゴリズムだが
4096×4096でラベル数1000程度の画像で20ms(core i3)くらい
53:デフォルトの名無しさん
11/06/22 21:17:33.34
>>52
●持ってないんで過去ログみれない
鳥脇先生やimage MLで流れたという手法の文献ってわかりますか?
てか4Kで20msってバカ速じゃないですか。文献ありますか?それとも独自だから教えられない?
54:デフォルトの名無しさん
11/06/22 21:45:07.15
ここって医用画像やってる人多い⁈
55:デフォルトの名無しさん
11/06/22 22:10:05.71
少ない
56:デフォルトの名無しさん
11/06/23 00:55:40.36
いよぅ
57:デフォルトの名無しさん
11/06/23 02:44:01.94
鳥脇先生の名が挙がっていたから多いのかと思ったが違ったみたいね
58:デフォルトの名無しさん
11/06/23 09:15:58.26
>>53
image-ML
URLリンク(www.eml.hiroshima-u.ac.jp)
1998/08/17~1998/08/20の投稿
2パス
鳥脇純一郎: "画像理解のためのディジタル画像処理(II)", 昭晃堂 (1998),
C言語ソースは岡田稔@名古屋大学(当時)が作成
1パス
論文は1987 年 1 月の信学会の PRU (PRMU ではない :) 。題名等は不明
C言語ソースは高橋裕信@電総研(当時、電総研は今の産総研)によるもの
ソースはML過去ログがあればそれを見るか投稿者本人に問い合わせてくれ
59:デフォルトの名無しさん
11/06/23 11:19:36.31
>>17
レントゲン画像でブラインドデコンボリューションが有用な局面って
どんな状況を想定されてますか ? 散乱は被写体の内部構造に依存するとして
事前撮影した画像から状況を読み取ってモデルを変更するとかですか ?
60:デフォルトの名無しさん
11/06/23 11:22:06.50
測定計画は「最初が肝心」なので取得された画像を後からどうこうするより
透視像をリアルタイム解析してウェッジフィルタを自動挿入するほうが
被曝低減と画質改善を同時にできるから有用じゃないかとおもったり...
61:デフォルトの名無しさん
11/06/23 13:03:57.47
>>59
散乱を推定して修正することで、今まで見えなかった物が見えたりしないかなと思っています。
被爆を抑える為に、他の光を使用したり。
62:デフォルトの名無しさん
11/06/23 18:59:09.09
>>61
ちょっとググってみると20年以上前の放射線技術学会の発表記録で
SPECTの散乱線除去を検討したものがありました
盲点でしたけどSPECT関係は昔から理工学的な検討が尽くされているので
その方面のいろいろな論文は古くても参考になるかもしれません
実装するときの指標としては通常行われるグリッドを通した画像と
同じ程度に(散乱推定で)みえればいいのでは? と個人的にはおもったり。
63:デフォルトの名無しさん
11/06/24 14:43:56.35
どこかのページで、霧の中を車で走行しながら撮影した動画があったけど、
それを画像処理したら建物や電柱がはっきり見えていたのには驚いた
64:デフォルトの名無しさん
11/06/24 15:25:50.88
どのくらい?
65:デフォルトの名無しさん
11/06/24 15:31:10.10
霧で目の前や道路もほとんど見えない状態だったのに、
周りの建物や電柱が認識できるレベルにまで復元されていた
霧の中なんて散乱係数一定じゃないのに、どーやったらこんなの計算出来るのかと
前に適当にググって見つけたんだけど、今探しても見付からねぇ・・・
66:デフォルトの名無しさん
11/06/24 20:16:57.47
原発事故収拾部隊に召喚したい
67:デフォルトの名無しさん
11/06/25 00:10:18.68
20cm四方の段ボールの切れ端5×4の20個並ぶとして、それぞれに
直径3,4センチの真っ白の円をプリントし、カメラの画像でしるしを認識したい。
2値化する際にしきい値を動的に決めたいんですが、どんな決め方が適してると思いますか?
また、ラべリングの中に円形度を調べられるっぽいのを本で見たのですが、
実際にあったら、円形度で円を認識したいと思いますが有用だと思われますか?
68:デフォルトの名無しさん
11/06/27 09:20:41.53
輝度分布でヒストグラム作って、白部分とダンボール部分の差を閾値にすれば良いんじゃね?
円を認識出来るのは影次第だから、何とも言えないところがある
円用に照明環境も調整出来る施設なら良いけど、ただの施設にカメラ置くだけじゃ多分ダメぽ
69:デフォルトの名無しさん
11/06/27 09:33:58.44
>>67
適応的2値化 とかいうやつでどうか? だいたい↓のような感じだったかと思う.
画像がグレースケールだとして,
まずそれに適当なフィルタサイズでガウシアンフィルタでも掛けたぼかし画像を用意する.
フィルタサイズは画像次第だが,画像幅の1/3とか1/4とか1/10とか適当にやる.
で,ぼかし画像輝度値にこれまた適当な係数(0.0~1.0.例えば0.5とか)を掛けた結果を各画素位置での閾値とする.
やること簡単だし,ある程度は陰影に対処できる.
70:デフォルトの名無しさん
11/06/28 09:15:41.46
透視投影変換の原理が良くわかりません。
自分でもググってみたのですがイマイチピンとこなくて・・・orz
URLリンク(opencv.jp)
↑この下から2つなんですけど、入力4点と出力4点を指定して変換してるというのはわかるのですが、
GetPerspectiveTransform
WarpPerspective
の2つの関数の内部でどんな処理が行われているのか、教えていただけないでしょうか?
71:デフォルトの名無しさん
11/06/29 01:14:35.85
2つの関数のリファレンス見れば原理が書いてあんだろハゲ
72:デフォルトの名無しさん
11/06/29 10:24:24.57
ハ、ハゲてなんか、い、いねーぞ、な、な、なに言ってんだよ、ハハ
73:デフォルトの名無しさん
11/06/29 10:43:24.10
ズレてますよ
74:デフォルトの名無しさん
11/06/29 10:56:06.01
>70
とりあえず、ソースをあたってみた
opencv-1.0.0.tar.gz
cv/src/cvimgwarp.cpp:1471-1540
ノーテーションが若干違うが
URLリンク(okwave.jp)
の下側の解答と同じことをしている
75:デフォルトの名無しさん
11/06/29 23:07:03.39
>>70
3次元ベクトルと四元数、もしくは行列で行けるんじゃね。
そのサイトのピンクの四角形を四元数で行う場合。
1.元の四角形の4個の頂点座標を既に持っているものとする。
2.軸ベクトルを用意する。
(ピンクの四角でいうと、底辺の部分が軸になってる。底辺の2つの頂点同士を引き算することで得られる)
(軸の方向は、右から左だろうが左向から右だろうが角度のとり方が変わるだけでどっちでもいい)
3.回転対象のベクトルを作る
(ピンクの四角でいうと、上辺の頂点座標から底辺の頂点座標を引く事で得られる)
4.回転対象ベクトルと、軸ベクトルを四元数にかける
(そこで得られたベクトルで、底辺の頂点座標を移動した座標を作る)
以上で完了。
画像に適用する場合は、各頂点を、画像の各ピクセルに見立てればいい。
移動後のピクセル座標が重複した場合は平均化など別途ぼかしの技術を調べて調整する。
76:デフォルトの名無しさん
11/06/30 17:19:27.50
2次元画像の「拡大縮小だけ」してくれるライブラリないですか?
拡大縮小だけできれば十分な俺にはフルスペックの画像処理ライブラリは大きすぎる。
77:デフォルトの名無しさん
11/06/30 17:32:58.45
アホか
78:デフォルトの名無しさん
11/06/30 17:44:28.97
そのくらい自分で作れ
79:76
11/06/30 18:02:31.10
最低Bicubic法かできればLanczos法がいいです。
作れるぐらいなら聞きません。
80:デフォルトの名無しさん
11/06/30 18:07:47.34
人に聞けば答えを持ってきてくれると思ったら大間違いだ
81:デフォルトの名無しさん
11/06/30 18:11:54.31
拡大縮小なんて、ライブラリ以前に、素で用意されてるがな(´・ω・`)
82:76
11/06/30 18:24:10.83
そんなこと言わずに本当に困っているのでコピってくればすぐ使えるC++のLanczos法のソースを教えてください。
83:デフォルトの名無しさん
11/06/30 18:38:39.80
クグれガス
84:デフォルトの名無しさん
11/06/30 18:45:47.24
あなたのためだから
85:76
11/06/30 18:52:48.14
もう2時間はぐぐったけど見つからないの><
86:デフォルトの名無しさん
11/06/30 19:01:56.57
じゃあねえよ、シネ
87:デフォルトの名無しさん
11/06/30 19:15:44.87
Googleで見つからない時は、Yahoo!で探してみるといいよ。
88:デフォルトの名無しさん
11/06/30 19:23:13.59
// ̄~`i ゝ `l |
/ / ,______ ,_____ ________ | | ____ TM
| | ___ // ̄ヽヽ // ̄ヽヽ (( ̄)) | | // ̄_>>
\ヽ、 |l | | | | | | | | ``( (. .| | | | ~~
`、二===-' ` ===' ' ` ===' ' // ̄ヽヽ |__ゝ ヽ二=''
ヽヽ___// 日本
______________ __
|Lanczos C言語 .| |検索|←をクリック!!
 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄  ̄ ̄
◎ウェブ全体 〇日本語のページ
89:デフォルトの名無しさん
11/06/30 19:44:51.65
YES → 【見つかった?】 ─ YES → じゃあ聞くな死ね
/ \
【探した?】 NO → それより僕と踊りませんか?
\
NO → 死ね
90:デフォルトの名無しさん
11/07/01 00:27:31.76
課題か何かか?
自力でやれよ
91:67
11/07/01 06:00:00.97
自分なりに考えてキトラーのしきい値判別法にきめて、境界線追跡で円周長も求める、円形度みるようにしました。
これをペイントで作った理想画像で上手くいったので、実写でやりました。
甘くないんですね。
輝度しきい値が、78と低くく丸以外も検出しまくりです。ためしにしきい値高くしても上手くいきませんでした。影で黒にふられたマークもありました。
しきい値判別法考えなおします。
あと、なんちゃらフィルタにかけないと影の影響でちゃんですね。
92:デフォルトの名無しさん
11/07/01 09:20:11.70
>>67
>>68
予想通り
93:69
11/07/01 10:04:17.96
>>91
実際の画像がどんななのか不明だが
画像全体に対して単一の閾値を決めようとしているの?
撮影対象面に無視できないほどの明暗があるんだったら
単一閾値でうまくいかないのはやる前にわかりそうなものだが.
とりあえずいまやっている処理内容はそのままで
その画像から一部分だけ切り出してきた画像に
やってみたらどうなるかとかやってみたら?
94:デフォルトの名無しさん
11/07/01 11:18:51.85
>>91
まずは機械屋や電気屋に、出来る限り均等な条件で計測出来るように設計させろ
何も考えずに適当に作らせて「ライン作ったから後はよろ^^」で終わらせると、
設置する環境毎に調整しないといけなくなる上に、誤検出が多くて使い物にならなくなる
影ってのは環境次第では時間帯によっても変わるし、近くを人が通ったりするだけで影響受けたりするからなー
まー調整料取れるから、会社としては良いかもしれんが
最終的には画像処理次第だが、処理するレベルを下げる努力をしたほうが良い機械になるぞ
95:天使 ◆uL5esZLBSE
11/07/03 10:45:56.58
2011年、Ruby,Perl,PHP,Pythonって並べたときにさ
ここで、Ruby以外を選ぶ奴ってマジでなんなんだろうな
土方が何をほざいて
96:デフォルトの名無しさん
11/07/03 11:05:32.02
天使ちゃんマジ天使
PHPと同じところに並べてほしくないな
97:デフォルトの名無しさん
11/07/03 14:11:18.61
Rubyって糞遅いじゃん
98:デフォルトの名無しさん
11/07/04 10:16:36.70
>>95
>2011年、Ruby,Perl,PHP,Pythonって並べたときにさ
画像処理で、その辺のが並ぶことがあるのか疑問だが・・・
99:デフォルトの名無しさん
11/07/04 10:30:44.27
コピペマルチしまくってるクソコテだから反応するな
100:91
11/07/04 18:15:46.99
部分切り出して、やったら検出できました。なんで、部分画像分割とやらでいくつか領域わけてやります。
だけど、段ボール背景だと閾値がひくくなっちゃうんだけど、閾値が高めにでる閾値決定法ないすか。
現状、灰色の背景で検出できてるがフラッシュたいた画像は検出できんわ。
仕様うんねんは実現性検証だんかいなんでなんも決まってません。今はフラッシュたいたやつ検出できるまでいきたい…
101: 忍法帖【Lv=17,xxxPT】
11/07/04 19:03:42.55
×うんねん
○うんぬん
◎云々
102:デフォルトの名無しさん
11/07/04 19:06:56.45
,. -─- 、
/ ___丶
∠. /´ ,.- 、r‐、`|
l | | ー | lー | |
l. |@`ー' oー' l
(\ヽヽ ~~~~ゝ にんにん
\.ゞ,>nn‐r=<
( / `^^´`ヽハ)
/`! ー--=≦-‐1
103:デフォルトの名無しさん
11/07/04 21:34:25.05
YUV4:4:4の動画を読み込んで4:2:2に変換したいのですが、CbCrの出力
を水平1つ飛ばしにするだけでいいのでしょうか?
//PH,PWは縦と横のサイズ
/*読み込み*/
for(y=0;y<PH;y++){
for(x=0;x<PW;x++){
Y1[y][x]=(unsigned char) fgetc(fp_in1);
Cb1[y][x]=(unsigned char) fgetc(fp_in1);
Cr1[y][x]=(unsigned char) fgetc(fp_in1);
}
}
/*書き出し*/
for(y=0;y<PH;y++){
for(x=0;x<PW;x++){
fputc((unsigned char) Y1[y][x], fp_out);
}
}
for(y=0;y<PH;y++){
for(x=0;x<PW;x+=2){
fputc((unsigned char) Cb1[y][x], fp_out);
fputc((unsigned char) Cr1[y][x], fp_out);
}
}
104:デフォルトの名無しさん
11/07/04 21:52:35.01
おまえがいいとおもうならばそれでいい
105:デフォルトの名無しさん
11/07/05 09:34:47.49
>>100
実際に映るダンボールと白枠の画像が無いとわからんが、
俺はライン状を流れる物を検出してると思ってるから処理時間も考えるとy=ax+b程度の係数でダンボールと白枠を分離させろとしか言えん
あとはカラーにしてサブピクセルの比率から判別するとかな
フラッシュで真っ白になったら検出出来ないのは当たり前
もっと安定した光源使え
なんでそんな機械仕様なんだと上を問い詰めろ
106:デフォルトの名無しさん
11/07/05 12:40:46.17
フラッシュはちゃんとバウンスさせてる?
テカりやすいもの写すのに点光源とかダメだよ
107:デフォルトの名無しさん
11/07/05 12:41:37.13
いや逆に点光源のほうがうまく反射してステルスになるのか??
108:デフォルトの名無しさん
11/07/05 13:27:03.51
機械屋<フラッシュで強い光を当てれば、他の照明からの影の影響を受けなくなる
とか言ってるんだろうか
109:デフォルトの名無しさん
11/07/05 19:33:03.08
いや、助かりますわ。最近異業種から電気系に転職したんでなんの知識もないんす。
とりあえず、フラッシュたいたような画像の認識は常識的にないと。
ついでになんですが、カウントした値をLCDだか?別のディスプレイに表示させたいんですが、マイコンかCPUボード使った組み込みになるんですか?
110:デフォルトの名無しさん
11/07/05 21:10:39.68
PCからならUSB接続のサブモニタやデュアルディスプレイのグラボ、S端子接続のTVなどでも出せるし
キャラクタLCDなら秋月あたりにセットで売ってるんじゃない?
111:デフォルトの名無しさん
11/07/06 09:34:16.70
>フラッシュたいた画像
がありかなしかはどんな絵になってるのかわからないことには何とも言えん.
画像見せてもらえないなら適切なアドバイスをもらうのはなかなか難しいと思うよ.
あと,パターン検出方法にしても
撮影方法が固定
(姿勢や配置位置等は固定なのか,常に特定のカメラを使用するのか 等)
されているのならその状況に特化した工夫の余地もあるだろう.
例えば,↑の()内が全て固定だとすれば
画像のどこらへんにどの程度のサイズでパターンが存在するかまで
既知であるハズなので,その部分領域だけを相手にすればよく
パターン検出難易度はかなり下がるわけで
フラッシュたこうが,局所的な領域内での処理は十分可能かもしれないわけだし.
112:デフォルトの名無しさん
11/07/06 09:48:26.67
>>109
ダンボールのライン検出を作ってるのは想像出来るんだが、情報が少なすぎてこっちも妄想でアドバイスしてるだけだから盲信するなよ
フラッシュも撮像に適切な光であれば問題無いが、光量が安定しなかったりハレーションするようなのはNG
個人的には多灯LEDを常時点灯させてるのが安定してるかなと
カウントした値を適当なLCDとかに表示するのは、実際に作業する人間がどの位置でどのように判別するか次第
基本的には組み込み系キットを使うが、大きく表示したいのなら別PCってパターンもある
知識無いならPICとかの本を読むとか、Interfaceのバックナンバーに練習キット付いてるからそれ見て覚えれ
113:デフォルトの名無しさん
11/07/06 13:44:44.01
質問です。
ImageMagick(Windows版)についてです。
指定したフォントで斜体の文字列を描画したいのですが、
うまくいきません。できないのでしょうか。
convert -size 100x100 xc:none -fill #303030 -pointsize 20 -style italic -draw "text 0,50 Test" Test.png
このようにすると斜体の「Test」が描画されますが、
convert -size 100x100 xc:none -fill #303030 -pointsize 20 -font "C:\WINDOWS\Fonts\MSMINCHO.TTC" -style italic -draw "text 0,50 Test" Test.png
フォントを指定すると標準の文字が描画されてしまいます。
どのようにすればよいでしょうか。
114:デフォルトの名無しさん
11/07/08 11:11:09.50
>>63-65
URLリンク(ladon.ist.hokudai.ac.jp)
霧の中を運転している動画、やっと見付かった
影が見えているから、この程度なら何とかなるかな・・・?
115:76
11/07/08 11:31:47.02
Lanczosの拡大縮小実装した。
チンカスゴミ野郎どもが情報を出し渋るから苦労した。
本当に役に立たないカスニートどもが死ねばいいと思う。
116:デフォルトの名無しさん
11/07/08 11:59:31.56
Lanczosは当然3だろうな?
2で満足するなよ
117:デフォルトの名無しさん
11/07/08 20:26:59.28
やっぱここはレベル低いな。
Lanczos4で実装したに決まってるだろ。
118:76
11/07/09 00:30:49.38
そんなわけないだろ。バカか
ちゃんと引数で2か3を選べるようになっている。
一流のプログラマーならみなそうする。
119:デフォルトの名無しさん
11/07/09 01:32:43.56
よくやった テスト画像で精度を試してみろ
URLリンク(image-d.isp.jp)
120:デフォルトの名無しさん
11/07/09 09:29:54.92
1/2 x 1/2 に縮小
URLリンク(www.picamatic.com)
外周部がおかしいのと小さい円が多数出現しているがキニシナイ。
121:デフォルトの名無しさん
11/07/10 00:22:57.94
ふむ
外周の濃い部分は比較的正確だが
内側の灰色が薄い部分はニアレストネイバーに近い出力になってると思われる
122:デフォルトの名無しさん
11/07/11 09:14:05.48
>>119
てか、なんでペイント画面のキャプチャーなんだよw
軽い嫌がらせとしか思えんwww
123:デフォルトの名無しさん
11/07/12 11:59:43.20
物凄くくだらない質問でスマン
ピクセルの正しいスペルがpixelだと言うことを今初めて知ったんだが、
pixcelでもググると沢山出てくるのは何か違いがあるの?
みんな俺と同じように間違えているだけ?
124:デフォルトの名無しさん
11/07/12 12:50:14.93
そもそも造語なんじゃなかったっけ?
picture cell
みたいな
125:デフォルトの名無しさん
11/07/12 14:19:59.01
ピクセルは、一般的に picture element (picture=写真・画像の意、element=要素、PEL)からの造語、またはpicture cell (picture=写真・画像、cell=細胞・記憶素子)からの造語とされる。
URLリンク(ja.wikipedia.org)
後者の略し方を間違えて覚えてたのかなー。
何かの本でもPixcelって書いてたような気がする。
ありがとうございました。
126:デフォルトの名無しさん
11/07/12 16:19:06.32
>>74
返事が遅くなってすいません!
サイトを提示していただいたおかげで変換方法は理解できました。
自分でもopencvのソースをあたってみて確認もしました。
ありがとうございました!
ただ、そこから先に理解を深めようとすると躓いてしまいます・・・。
何故そのような式になるのかという原理を知りたいのですが、いろいろ書籍をあたってもピンとくる解説がありません。
透視変換は三次元から二次元に投影している、という曖昧な理解までは到達しました。
(x,y) = ( (A*X+B*Y+C)/(G*X+H*Y+1) , (D*X+E*Y+F)/(G*X+H*Y+1) )
という変換式にどうすれば辿りつけるのか・・・
図解や解説、サイト、または書籍など、なんでも構いませんので是非教えてください!
127:デフォルトの名無しさん
11/07/12 22:52:17.56
↓を読んで分からなければ諦めろ
URLリンク(www.mlab.ice.uec.ac.jp)
128:109
11/07/12 23:01:45.03
画像アップしました。画像に対してアドバイスお願いします。
URLリンク(freedeai.180r.com)
URLリンク(freedeai.180r.com)
ほんとはbmpファイルです。
4683の画像は、6個ちゃんと検出して、他は除外できてます。
ただ、タイルの部分が2値化したときに、円と同じ白になってしまってるの
で、ラべリングやら輪郭追跡の処理対象になっているので、処理に時間がか
かってます。タイル部分を2値化時点で黒にしたいです。現在は、円形度と
面積で判定して何とか検出してます。
4684は現状のアルゴリズムだと、検出できません。現在4分割してしきい値
を算出していますが、左上の領域のしきい値が低く出て、軒並み2値化時に
白くなってしまってます。円は5個しか検出できません。
理想は両方の課題が解決できればいいのですが・・
129:デフォルトの名無しさん
11/07/13 01:46:29.11
CPUの気持ちになって考えろ
130:デフォルトの名無しさん
11/07/13 04:34:33.76
>126
ちゃんと読んでないけど>127の射影変換(32-33)のところかな
誤字が多いことで有名な『詳解 画像処理プログラミング』p.232-234にちゃっかり載っていてわろた
131:デフォルトの名無しさん
11/07/13 05:18:03.43
>128
プログラムを書く前にGimpなりPhotoShopなりでシミュレートしたらどうだろうか
実際どういう処理順かしらないけど
原画像 -> (ノイズ除去) -> (コントラスト補正) -> 2値化 -> ラベリング -> 面積求めて円形度判定
2値化のところは、白丸(輝度が高い)であることがわかっているのなら画像内の最大輝度値から20, 30を引いたあたりを閾値にするとか
原画像 -> (ノイズ除去) -> (コントラスト補正) -> エッジ抽出 -> 2値化 -> ハフ変換
とか思ったのはここだけの話、とか言ってみるテスト
132:デフォルトの名無しさん
11/07/13 10:03:29.96
>>128
現状のアルゴリズムがわからんが
①最初にRGBの比率見て、差があるのは全部黒にする(タイルの部分が白になるのはこれで解決するはず)
②画面を細かく分割(16x16とか)してヒストグラム作ってから差を見て二値化
③画面を繋ぎ合せて円形のみ抽出
だけでいけそうな気がする
133:69
11/07/13 10:08:08.93
>>128
背景が固定で無い環境を考えているなら
全ての背景を除去できる2値化閾値を常に算出する処理パラメタなんて決められないだろうから
2値化でタイル部分を黒にしたい とか考えるだけ無駄だと思う.
(対話的にパラメタを調整していいのなら別だが)
あなたが画像を撮影する環境変動の範囲内で
検出対象たる白丸をその形で残せる閾値決定手法とその処理パラメタ
を用意できたら,後は以降の判別処理の精度を高める方に注力すべきと思う.
円の検出は>>131が言うように
2値画像をErosionした画像とDilationした画像の差分絶対値画像あたりをエッジ点として
ハフ変換でもいいかも?
134:デフォルトの名無しさん
11/07/13 10:10:46.14
あと,部分画像でやってみろと言ったのは何が起こっているかを
考察してみろというニュアンスが大きかったわけで
画像内での白丸の位置に対する前提知識とかを使わない状態で
単純に画像4分割とかしたら,
分割個所で閾値が不連続になることの副作用の方が悩ましい結果になりそう.
例えば>>69 に書いたような 閾値が滑らかに変化する方法を勧める.
提示画像の背景なら,タイル表面がざらついているから
良い閾値で2値化すると細かな白領域が無数に出る結果になると思うけど
(円の画像上面積に関する知識は使ってもいいみたいだから)
そんなのは輪郭追跡とかに入る前にモルフォロジ演算あたりでほとんどつぶせるはず.
135:デフォルトの名無しさん
11/07/13 18:26:19.40
ImageJの関数を解説しているサイトってありませんでしょうか?
本家サイトのは1行だけの説明になってない説明しか無いので、
URLリンク(rsbweb.nih.gov)
でソース見ながら解析してます。
ImageProcessorとImagePlusとFHTの違いとか、あんまり理解しないままやってますが。
てか、なんで画像フォーマットが複数あるんだろうと頭がパニクってます。
136:109
11/07/15 01:06:03.20
いろいろもらったけど、正直理解できない部分があるので・・・
停滞してます。
ぼかし画像輝度値に1未満の係数かけたらしきい値低くなっちゃうじゃんとか。
でもフィルタは陰影にはいいっぽいすね。
最大輝度値から固定値ひくのうまくいかないす。
そこで、グレースケールのヒストグラムの極大値が大体、2つか3つあるんだけど、
巷の算出法だと真ん中の山近辺がしきい値になってうまくいってない。
ヒストグラムのいくつかある極大値の濃度値がわかるアルゴリズムってあります?
一番濃度たかいのと2番目の真ん中くらいにしきい値おきたい。
あとハフ変換て声もあるけど、なんか処理が大変ぽいのとうまくいかない場合が
あるみたいなのでやめたんだけど、ラべリング、輪郭よりいいのかな。
分割も確かになめらかなのがいいっすね。でもそのときのアルゴリズムが今のところ理解できないっす。
あと、分割した領域にモノがなかった時の処理とかどうしようとか。
ぐぐってっるけど、どうにもすすんでない・・・
137:デフォルトの名無しさん
11/07/15 09:26:48.62
おそらく今>>109は
画像を複数の小領域に切り分けて
個々の領域毎にその領域内の画素群の画素値に基づいて閾値を求め,
その閾値はその領域内の全ての画素で共用される
という形を取ってるんだと思うけど,これを
ある画素に着目したときに,この画素を白とするか黒とするか
を決める閾値は
その画素を中心とした小領域内の画素群の画素値に基づいて求める
とすれば閾値は
(閾値計算方法としてぼかし画像を使う例を挙げたが
別に平均だろうが,領域内のヒストグラムを使おうが)
滑らかに変化するでしょ?という話だよ.
138:デフォルトの名無しさん
11/07/15 09:57:45.02
小領域の大きさは画像に合わせて決める必要があるだろうけど
後段の判定で白丸の面積の情報を使えるということはある程度
写る大きさは決まっているのだろうから,
複数の画像で試してよさそうなサイズに決めてしまえばいいかと.
(提示画像なら60~150pixel四方程度とか??)
領域内に白丸が無い場合 については
その中に偶然 丸くて,周囲より明るくて,白丸と同じくらいの 領域
が存在しているときしか問題にならないのでは?
(とは言え,背景が全く自由な場合だと
これが結構な頻度で起こるから困るんだけども)
領域サイズと白丸のサイズがだいだい決まってくれば
ヒストグラムから閾値決める方法としては
Pタイル法 とか使えたりしないかな?
139:デフォルトの名無しさん
11/07/15 10:16:19.71
>>136
基本、ヒストグラム等を滑らかにするのはガウシアンとか使うけど、
ぶっちゃけ山を取り出すだけなら前後で平均値を取るだけでいい
一発で滑らかにならなかったら、数回繰り返しても良いし
平均取る範囲は画素数(256諧調だとは思うが)やカメラの性能にもよるから自分で調節な
分割した領域で何も無かった場合、閾値で分けるか、黒にしちゃっても良い
円形抽出してるなら、円形の中に何があっても関係無いし
140:デフォルトの名無しさん
11/07/22 13:16:36.48
使用しているosはwindowsで
libpngを使って16bitグレースケール画像を作成すると
表示したときにヒストグラムがおかしくなり
表示が乱れる原因って分かりますか?
141:デフォルトの名無しさん
11/07/22 14:36:14.25
ライブラリの使い方が間違ってるんだろ
142: 忍法帖【Lv=31,xxxPT】
11/07/22 17:17:31.30
まさかと思うが、上下バイトが反転してたりして。
143:デフォルトの名無しさん
11/07/22 17:41:46.32
16bitグレースケールって地味に特殊な使い方だな
8bitなら大丈夫なのか?
144:デフォルトの名無しさん
11/07/22 19:59:17.14
>>141-143
画素値が最大255のデータを16bitグレースケールで保存した場合正常に表示されるのですが
ある程度高いと表示がおかしくなるみたいです
ライブラリについてそこまで詳しく調べたわけではないので調べなおしてみます
145:デフォルトの名無しさん
11/07/22 20:15:32.50
>142が的を射た悪寒。
146:デフォルトの名無しさん
11/07/22 20:26:02.59
>>145
エンディアンが違うという解釈でいいのでしょうか?
と思って調べていたらどうやら当たりっぽいです
ちょっと調べなおしてみます
ありがとうございました
147:デフォルトの名無しさん
11/07/24 12:48:34.94
めんどくさかったので
今までgimpで画像処理プログラムしてきたんですが
OpenCVに変えると劇的に速度が速くなったり
他にもいいことあるんですか?
148:デフォルトの名無しさん
11/07/24 13:16:18.89
いいこともあれば悪いこともある。それが人生というものぢゃ。
149:デフォルトの名無しさん
11/07/24 14:53:41.68
今日はついてないな
150:デフォルトの名無しさん
11/07/25 02:25:18.17
gimp便利なのに
あまり使ってるのみかけないのは
きっと他にもっといいソフトがあるのだと思ってた
しかしそれらしいものがない
schemeやpythonで画像処理スクリプト組めるのってPILぐらいしかみつからない
151:デフォルトの名無しさん
11/07/25 02:29:04.81
スクリプトで画像処理っていう需要がない
152:デフォルトの名無しさん
11/07/25 04:07:27.65
unix系でスクリプトとかだとImageMagick使うんじゃん?
153:デフォルトの名無しさん
11/07/25 04:17:39.11
フィルターなんかでバイト配列を対象とした処理を書く時はスクリプト言語のメリットは無さそう
遅くなるだけ?
154:デフォルトの名無しさん
11/07/25 18:29:48.61
思いついた処理をさくっと試してみる、とかならスクリプト言語もいいんじゃない?Cでゴリゴリ書くよりかなり楽できるし。
155:デフォルトの名無しさん
11/07/25 19:42:06.29
例えばどんな処理?
156:デフォルトの名無しさん
11/07/25 22:54:59.63
ppmで画像処理をする課題やってるんだけど、回転処理のとき角度270の時だけ左側に黒い線ができる・・・ヒントください・・・
157:デフォルトの名無しさん
11/07/25 23:11:59.23
黄金の獅子が目覚めし時、太陽のいかずちを月の水面に捧げよ。
158:デフォルトの名無しさん
11/07/26 00:13:12.03
>>156
これか?
スレリンク(tech板:159番)
めんどくさいからソースを(codepadかideoneに)貼れよ。
159:デフォルトの名無しさん
11/07/26 09:22:51.18
tanθ
160:デフォルトの名無しさん
11/07/26 09:25:34.99
普通に考えれば端数の処理が間違ってるんじゃね?としか言えんよな
161:デフォルトの名無しさん
11/07/26 09:28:20.44
面倒くさいから画像処理はimagemagickとかでやってるんだけど
どうしても自分で処理したいところが出てきてしまったのですが
今のトレンドってpnmじゃないんだよね?
どういう形式が一番おしゃれなの?
162:デフォルトの名無しさん
11/07/26 10:08:39.30
オシャレかどうかはその人のセンス次第
163:デフォルトの名無しさん
11/07/26 10:09:59.14
君のセンスを教えて
164:デフォルトの名無しさん
11/07/26 10:20:01.15
リュックにビームサーベル2本が常識だろ
165:デフォルトの名無しさん
11/07/26 10:49:14.53
ポスタードリームとかもう覚えてるのはおっさん認定だな
166:デフォルトの名無しさん
11/07/26 11:01:02.40
つまり>>165はおっさん
167: 忍法帖【Lv=32,xxxPT】
11/07/26 11:58:40.49
>>161
libpngでも使えば。リンクは面倒だけど、手っ取り早い。
私はImageMagickと連携させるならpnmで済ませてしまうけど。
168:デフォルトの名無しさん
11/07/26 19:50:27.50
最近、面倒くさがりが多いけど、全部同じ人かな?
ファイルの読み込みなんて一度コードを書いたら幾らでも使い回せるんだから、
心を決めて手を動かすだけだと思うんだが・・・
169:デフォルトの名無しさん
11/07/26 20:09:08.21
とか言いつつ俺も面倒くさいから Cocoa のライブラリで読み込んでるけど・・・
170:デフォルトの名無しさん
11/07/27 09:31:17.16
Bitmapで読み込んだ物をbyte配列やIplImageに変換してるけど、面倒くせぇ
特にグレースケールと24Bitと32Bitが混ざった時にはわけわからん
171:デフォルトの名無しさん
11/07/27 18:49:19.33
でかい画像でなけりゃ おなじ大きさの32BitColor のビットマップを別に作って
読み込んだ bmp をいきなり BitBlt byte配列化やIplImage変換の対象は↑側を使う
ってのはどうだい?
172:デフォルトの名無しさん
11/08/05 22:16:33.58
URLリンク(www.fujitv.co.jp)
スマートフォンの画面に何が写っているのか
解析出来る強者はいないか
173: 忍法帖【Lv=35,xxxPT】
11/08/06 08:43:25.94
見た感じ、FacebookのようなSNSっぽいね。
174:デフォルトの名無しさん
11/08/06 15:38:32.29
下側に霊が・・・
175:デフォルトの名無しさん
11/08/08 12:47:57.55
上側にカオナシが・・・
176:デフォルトの名無しさん
11/08/26 16:03:32.28
死ね
177:デフォルトの名無しさん
11/09/06 11:59:30.32
失礼します。
bitmapフォーマットについてですが、1Byte程度の任意の値を入れたいと思っています。
最初の14Byteのファイルヘッダの予約領域や、40Byteの情報領域の最後の「重要なパレットのインデックス」に、
任意の値を入れることで誤動作を起こすような画像ソフトってありますでしょうか?
自分で簡単に入れてみたところ、特に問題は無さそうだったので。(もちろん、今後追加されたらどうなるかわかりませんが)
もしくは、画素の(0,0)辺りを情報バイトとして使用したほうが無難でしょうか?
よろしくお願いします。
URLリンク(www.kk.iij4u.or.jp)
178:デフォルトの名無しさん
11/09/06 12:40:31.16
後ろに足せばいいじゃないか
179:デフォルトの名無しさん
11/09/06 16:48:25.77
任意の情報入れられる画像フォーマットあるだろーに
180: 忍法帖【Lv=40,xxxPT】
11/09/06 18:34:04.54
>>177
正しくそう言うデータを監視するツールなら昔作った。
181:デフォルトの名無しさん
11/09/14 01:27:56.60
画像処理の知識が乏しく困っています、教えてください。
リアルタイムで三次元のベクトル図を描画するために便利なライブラリはありますか?
182:デフォルトの名無しさん
11/09/14 01:31:39.78
opengl
183:デフォルトの名無しさん
11/09/24 15:25:19.45
画像処理の学習を始めるにあたりどちらをベースにするか迷っているのですが、
2次元に限定した場合OpenCVとOpneGLの違いって何でしょうか?
OpenGLの方が情報量も多く実績もあるのに
あえてOpenCVが選択されるのは何か理由があると思うのですがよくわかりません。
184:デフォルトの名無しさん
11/09/24 15:42:34.40
>>183
OpenCVが画像処理のためのライブラリです。
OpenGLは画像を表示するためのライブラリです。
185:デフォルトの名無しさん
11/09/24 15:47:59.21
OpenGLとOpenCVなんて
そもそも比較対象になるようなものじゃないだろ・・・
186:デフォルトの名無しさん
11/09/24 17:54:20.54
>>184
ありがとうございます。
OpenCVは撮影した画像を解析して条件に合致するところだけ加工するみたいな用途で、
OpenGLは複雑な図形を描画してそれをスムーズに回転させるみたいな用途
というという理解であってるでしょうか?
187:デフォルトの名無しさん
11/09/24 19:42:28.35
>>183
画像処理ってのは、画像に対して何らかのを処理する技術のことなんだ。
CGみたいに画像を生成するようなのとは、分野が違う。
188:デフォルトの名無しさん
11/09/24 19:58:23.63
>>186
画像データを解析したり加工したりするのがOpenCV
画像データをポリゴンにマッピングして表示するのがOpenGL
OpenCVで解析、加工したデータをOpenGLで表示するというのもありえます。
189:デフォルトの名無しさん
11/09/25 10:50:38.17
>>187-188
ありがとうございます。
納得しました。精進します。
190:デフォルトの名無しさん
11/10/05 08:02:05.31
モザイクのかかってない動画を機械学習させた本格的モザイク除去を考えた
191:デフォルトの名無しさん
11/10/05 12:40:28.06
>>190
超解像の研究でかなり前からあるし
特許なしオープンソースで作って公開してから報告しろ
192:デフォルトの名無しさん
11/10/07 14:07:13.55
まずはモザイクのかかってない動画を公開するんだ
193:デフォルトの名無しさん
11/10/24 15:18:37.42
画像のマッチング計算(?)の文献を見ているのですが…
2つの画像f,gをフーリエ変換した結果F,Gの相関を計算するとかいう話になっていて、
そのときの相関の式で G側が複素共役にされているのですが
何故共役にしなくてはならないのでしょうか?
ググってみたところ、複素関数で相関を計算するときは一方を共役にするらしい
ことはわかったのですがその理由がわかりません
あと、この相関を逆フーリエ変換して画像の世界(?)に戻したものは
どういった意味のものになるのでしょうか?
194:デフォルトの名無しさん
11/10/24 16:10:35.29
>>193
その文献が何かを示して質問すれば答えてくれる可能性が増えると思わんかね?
195:193
11/10/25 17:08:22.40
質問内容は
f→(DFT)→F, g→(DFT)→G
とフーリエ変換した先で相関(正しい呼び方は”相互パワースペクトル”??)を計算する際に,
FG ではなく FG* (*は共役) とするのは何故?
あと,この FG*をIDFTしたら結果は何?
といったものだったのですが,改めて>193を自身で読み返してみると
↑のような質問内容であることすら読み取れない状態になっていました…すみません.
ご指摘通り,今見ているものを示しておきます.
URLリンク(w2.gakkai-web.net)
(この文献では"正規化"ということで FG*/|FG*|になってますが)
196:デフォルトの名無しさん
11/10/25 18:15:37.31
いや、2つの画像の相関(ある意味畳み込み)はフーリエでは乗算になるわけで
_F_[] : フーリエ変換, sum(x) : サメーション,xは添字で-∞から∞, exp(x) : ネピア数のx乗, j : j^2 = -1
f : 信号, F : フーリエ変換後の信号, ~F : 共役
相関のフーリエ変換
_F_[sum(k_1)sum(k_2)f(k_1, k_2)g(n_1 + k_1, n_2 + k_2)]
= sum(n_1)sum(n_2){sum(k_1)sum(k_2)f(k_1, k_2)g(n_1 + k_1, n_2 + k_2)}exp(-j w_1 n_1)exp(-j w_2 n_2)
= sum(k_1)sum(k_2)f(k_1, k_2)exp(j w_1 k_1)exp(j w_2 k_2)
sum(n_1)sum(n_2)g(n_1 + k_1, n_2 + k_2)exp(-j w_1(n_1 + k_1))exp(-j w_2(n_2 + k_2))
ここで、k_1 = -l_1, k_2 = -l_2, n_1 + k_1 = m_1, n_2 + k_2 = m_2に置き換える
sum(-l_1)sum(-l_2)f(-l_1, -l_2)exp(-j (w_1 l_1 + w_2 l_2))
sum(m_1 - k_1)sum(m_2 - k_2)g(m_1, m_2)exp(-j (w_1 m_1 + w_2 m_2))
= sum(l_1)sum(l_2)f(-l_1, -l_2)exp(-j (w_1 l_1 + w_2 l_2))
sum(m_1)sum(m_2)g(m_1, m_2)exp(-j (w_1 m_1 + w_2 m_2))
= F(-w_1, -w_2) G(w_1, w_2)
= ~F(w_1, w_2) G(w_1, w_2) //
なんかだまされた感じ
197:デフォルトの名無しさん
11/10/25 18:59:41.71
画像間のズレ、傾き(出来ればゆがみも)を検出 or 除去してくれるような
ライブラリとかがあったら教えてください
除去まで行ってくれる場合には16bitカラーの入出力に対応していてくれると嬉しいです
デジカメで同じ被写体を複数枚撮った画像(若干のズレ、傾きが含まれる)を
自動で重ね合わせて処理したいです
よろしくお願いします
198:デフォルトの名無しさん
11/10/25 20:14:13.97
SIFTとかで位置合わせしたりする
199:デフォルトの名無しさん
11/10/25 21:19:48.68
>>196
そのままのライブラリは知らないけど
OpenCVで特徴点マッチングして射影変換すればできる
もっとよくしたいならopencv_stitchingを参考にしたらいい
200:デフォルトの名無しさん
11/10/26 11:42:25.20
16Bitカラーとはマニアックなw
24Bitに変換くらいは自分でやれば良いんちゃう?
201:197
11/10/26 20:47:55.88
レスありがとう
>>198-199
ググってみてSIFTのソースとか見てみましたが何をしているのか全く判らん・・
ImageMagickを使ったことがある程度の自分が手を出すのは無謀な処理なのか・・・il||li ○| ̄|_
>>200
判りにくくてすみません。16bit/colorでRGB合わせて48bitと言う意味です
202:デフォルトの名無しさん
11/10/27 09:19:38.47
1波長が16Bitってもっとマイナーだろwww
203:デフォルトの名無しさん
11/10/27 10:23:33.46
48bitカラーだと、HDMI1.3でも使うのか?
位置検出だったら8bitグレースケールでもそんなに変わらんから、減色して傾き角度や位置ズレを計算して
それを元画像に当てはめるだけで良いかと
204:デフォルトの名無しさん
11/10/29 17:04:04.05
画像から赤色と緑色のヒストグラムを生成し、それぞれの色を抽出するプログラムを作っています。
Opencv関数を使わずにBGR各々のヒストグラムを生成するにはどうすればよいでしょうか?
205:デフォルトの名無しさん
11/10/29 17:24:30.21
画像の各ピクセルにアクセスして数える。
206:デフォルトの名無しさん
11/10/29 17:29:42.46
>>204
自分で画像に画素単位でアクセスして集計すればよろしかろ。
207:197
11/10/29 18:52:00.89
レスありがとうございます
>>202-203
後段の編集に耐性を持たせるためにRGB 48bitで扱いたいです
位置・角度検出は>>203さんの指摘通り8bitの1チャンネルのみで十分だと思います
判らないなりに実験してみました
URLリンク(fox.jeez.jp)
dl pass:surf
extract pass:surf_mating
File list
DSC00212-H_s.png→画像1(Hチャンネル画像)
DSC00213-H_s.png→画像2(Hチャンネル画像)
test02.py→find_obj.pyを改造
DSC00212_s.xls→マッチング結果他
環境 Python2.6 x86+OpenCV2.3.1 x86
考え方が根本的に間違えている可能性もありますが・・・
位置ズレはともかく、傾いている角度の求め方がぴんと来ません
キーポイントのベクトルの角度?が使えるかなと思いましたが、ばらついて使えそうにないです
何か上手い方法があったら教えてください。よろしくお願いします
208:デフォルトの名無しさん
11/10/29 20:26:10.37
>>205-206
ありがとうございます
CvScalar s;
int i,j;
for (i=0; i<r_img->height; i++) {
for (j=0; j<r_img->width; j++) {
s= cvGet2D(img,i,j){
配列にアクセスするにはこれを使うんですよね?
色々考えていましたが、ここから赤色のみ抽出する方法が分かりません…
209:デフォルトの名無しさん
11/10/29 20:42:04.67
IplImageだったらimageDataから直接アクセスできるでしょ
210:デフォルトの名無しさん
11/10/29 21:45:28.75
>>208
画像がBGRなら
s.val[0] // Blue
s.val[1] // Green
s.val[2] // Red
211:デフォルトの名無しさん
11/10/30 03:05:07.96
シュレッダー文書、復元できたら380万円
URLリンク(www.yomiuri.co.jp)
212:デフォルトの名無しさん
11/10/30 09:40:02.45
shredded document reconstruction system
URLリンク(www.unshredder.com)
213:デフォルトの名無しさん
11/10/31 11:13:41.16
>>211
>参加資格は、18歳以上の米国永住の個人かチーム。
組み合わせを考えるだけだからそんなに難しいことじゃないと思うけど、この時点でやる気無くした
214:デフォルトの名無しさん
11/11/01 00:09:03.22
欠損してるし難しいだろ
215:デフォルトの名無しさん
11/11/01 11:27:01.55
どうせ実際にやってみると絶望することになる
216:デフォルトの名無しさん
11/11/01 20:13:55.72
印刷のカスレとか行の歪みとか
OCRだと文字種少ないほうが簡単だけど
この場合は逆に難しくなりそう
217:デフォルトの名無しさん
11/11/01 20:46:52.77
普通の文書で欠損あるとなると
218:デフォルトの名無しさん
11/11/01 20:53:36.93
PRMUのアルゴリズムコンテストのネタになりそうだな
219:デフォルトの名無しさん
11/11/01 21:35:14.72
>>218
PRMU アルゴリズムコンテスト 2007
220:デフォルトの名無しさん
11/11/02 12:29:50.96
jpegファイルの明るさ情報について教えてください。
プログラムでjpegファイルを読み込み、
画像の明るさの指数(指数はかってにつけてます。)を数値値化したいです。
jpegのフォーマット上、どのような判断を行えばよいのでしょうか?
221:デフォルトの名無しさん
11/11/02 12:32:24.99
勝手に付けるんだったら勝手に付ければ?
数値値化って何?
指数なんだけど数値じゃないの?
222:デフォルトの名無しさん
11/11/02 12:35:30.75
>>221
すみません、説明が悪かったです。
例えば、明るさの段階を0-255とします。
次に、読み込んだ画像の明るさのレベルを測定します。
測定の結果、jpegファイルの明るさ指数を0-255のどれかに割り当てたいです。
jpegファイルを読み込み、そのjpegファイルの明るさを判断するには、
jpegフォーマット上、どの辺りを探れば判断できるかな?と聞いた次第です。
223:デフォルトの名無しさん
11/11/02 12:35:52.47
>>220
画像フォーマットに囚われずに、画素値を抽出して数値化すればいいと思うよ。
224:デフォルトの名無しさん
11/11/02 12:54:21.23
jpegフォーマットのどこかに「この画像の明るさ」という属性値があるとでも思ってる?
それともjpeg関係なく、画像の明るさを判定したいわけ?
225:デフォルトの名無しさん
11/11/02 13:11:53.12
例えば、デジカメでRAW撮影したら、
YUV形式とかですよね。
100*100の画像があって、YUV形式ならば、画像の10箇所くらいの輝度を見れば、大体の明るさがわかると思います。
jepgではそのような明るさを見ることはできなくて、
例えば、yuvに変換して見るとかしか方法はないのでしょうか?
私がしたいのは、画像の明るさ判断は、jpegに対してのみです。
ちなみに、jpegは全然しらない素人です。
226:デフォルトの名無しさん
11/11/02 13:43:52.15
Windowsに標準でついてるペイントでも使って、
jpegをbitmapに変換したら解り易いと思うんだ
227:デフォルトの名無しさん
11/11/02 13:47:25.10
>>225
圧縮かかってるのにそのままピクセルを参照出来るわけないよ。
デコード必須。
228:デフォルトの名無しさん
11/11/02 14:14:38.29
せめて画像処理の本の一冊でも読んでからにしてもらいたい
229:デフォルトの名無しさん
11/11/03 16:57:27.99
CAPTCHA()
Text-based CAPTCHA Strengths and Weaknesses
URLリンク(elie.im)
Decaptcha Breaking 75% of eBay Audio CAPTCHAs
URLリンク(elie.im)
ついでにこいつも破ってくれ!
URLリンク(yuina.lovesickly.com)
230:デフォルトの名無しさん
11/11/03 22:19:22.32
>>229
4 * ( sin( 7 * 0 - PI() / 2 ) ) = -0.109648534
ってのは解るが、残りの左半分をどう片付けるべきか解からん。
aが集合でa0が集合の第一要素なんだろうな。
231:デフォルトの名無しさん
11/11/03 22:27:38.75
一体何と戦っているんだ
232:デフォルトの名無しさん
11/11/04 00:27:13.39
>230
偏微分してから0代入なんだけど
233:デフォルトの名無しさん
11/11/04 01:50:19.02
数式処理なんてコンピュータのほうが得意だし
チューリングテストになっていないだろ
234:デフォルトの名無しさん
11/11/04 07:09:50.29
ネタにマジレス
235:デフォルトの名無しさん
11/11/04 11:32:47.77
>>230
0
236:デフォルトの名無しさん
11/11/04 19:38:58.01
d/dx [ 4 sin( 7x - π/2 ) ] | x=0
= 28 cos( 7x - π/2 ) | x=0
= 28 cos( - π/2 )
= 0
間違ってないかな?
237:デフォルトの名無しさん
11/11/04 19:53:53.83
CAPTCHA終了のおしらせ
238:デフォルトの名無しさん
11/11/04 20:19:33.80
d/dx [ 4 sin( 7x - π/2 ) ] | x=0
= 4 d/dx [ - cos( 7x ) ] | x=0
= - 28 sin( 7x ) | x=0
= 0
239:デフォルトの名無しさん
11/11/04 20:30:03.48
数式のネタCAPTCHAを作った人はいろんな意味でセンスある
240:デフォルトの名無しさん
11/11/05 14:24:12.20
>>228
おすすめは?
241:デフォルトの名無しさん
11/11/05 16:44:58.57
新編 画像解析ハンドブック
242:デフォルトの名無しさん
11/11/05 17:01:19.60
相関関数について知ってる方いません?
いろいろな定義があってどれつかっていいかわからず、空間領域と周波数領域っていうのもようわからないです。
243:デフォルトの名無しさん
11/11/05 22:27:33.09
ppmのカラーフォーマットでP3形式(アスキー)と、P6形式(バイナリ)があるけど
これらの変換ってどうすれば良いですか?
244:デフォルトの名無しさん
11/11/05 23:24:14.62
// p3 -> p6
int val; fscanf(fp3, "%d", & val); fputc(val, fp6);
// p6 -> p3
int val = fgetc(fp6); fprintf("%d ", val);
245:デフォルトの名無しさん
11/11/05 23:50:18.59
>>238
この28ってどっから来たん?
4*7でどっからか7が来たんだと思うけど。
246:デフォルトの名無しさん
11/11/06 00:16:36.75
一体何と戦っているんだ
247:デフォルトの名無しさん
11/11/06 03:29:18.31
>245
高校数学やれよ
d/dx[sin(ax + b)] = acos(ax + b)
まぁ、>238はcos()の微分を間違えているんだけどね
248:デフォルトの名無しさん
11/11/06 04:00:37.46
この程度の数学の問題が解けない人間が画像処理のスレにいるはずがない
さては貴様、人間ではないな!
というわけ
249:デフォルトの名無しさん
11/11/06 09:04:35.09
>>246
好きになれない自分とだろ
250:デフォルトの名無しさん
11/11/07 17:58:40.15
>>247
指摘ありがとう
251:813・838@C言語なら俺に聞け(入門編)Part 91
11/11/08 08:34:31.87
誘導されてきました。
メディアンフィルタを作っているのですが
3要素に限定した場合、ソートするよりも速いアルゴリズムがあれば教えてください。
もしくは、3要素に限定した場合で最も速いソートアルゴリズムがあれば教えてください。
252:デフォルトの名無しさん
11/11/08 09:45:04.05
3要素でソートアルゴリズムなど使わないと思うが
RAMへのアクセスを少なくする方法がいいのか、計算量を少なくする方法がいいのか
そういう話?
253:デフォルトの名無しさん
11/11/08 09:46:09.51
>>251
それのどこが画像と関係するの?
それと、3要素の比較が本当にボトルネック? そういう場合はボトルネックが他にあることが多いと思う。
254:デフォルトの名無しさん
11/11/08 10:25:05.08
>>251
3要素って単純に3画素だよな?
それを比較するのにわざわざソートさせる必要なんてあるのか?
って話
255:名無し募集中。。。
11/11/08 12:16:36.94
3x3の9画素という意味ならソートは必要だよな
256:251
11/11/08 12:26:28.01
>>252, 254
比較回数や計算量が少なくなる方法を知りたいです。
それがソートアルゴリズムでも他の方法でもかまわないです。
>>253 横の3画素でメディアンをかけ、次に縦の3画素でメディアンをかけるというフィルタにしています。
画素を要素と書いてしまったのは、C言語スレで先に質問していたので
画像に限定することなく、単に中央値を求めるアルゴリズムとしたかったからです。
このスレに来るときに書き換えるべきでした。すいません。
最終的にハードウェアに落とすので、関数呼び出しやメモリのボトルネックは考えておらず
最初に書いたとおり、アルゴリズムが知りたいです。
257:デフォルトの名無しさん
11/11/08 12:42:22.96
3画素のうち、最大値を有する画素を1つ選ぶ(比較2回)
選ばれなかった2画素のうち、値の大きい方が中央値(比較1回)
比較計3回ってな方法で、どですか?ヽ(´ー`)ノ
258:デフォルトの名無しさん
11/11/08 13:45:21.48
>>256
よけいなお世話かもしれないけど
いわゆる3×3メディアンフィルタと結果が異なっているのは別にいいの?
259:251
11/11/08 14:49:12.62
>>255 >>258
3x3ではなく横3画素をかけてから縦3画素をかけるもので
3x3と結果が異なっていてもかまいません。
>>257
ありがとうございます。
この方法も実装してみようと思います。
260:デフォルトの名無しさん
11/11/08 15:20:00.22
URLリンク(www.ipsj.or.jp)
x86ならSSE2で最大値を一気に処理できるから違った処理のが速かったり
261:デフォルトの名無しさん
11/11/09 00:01:01.39
3要素の中央を見つけるだけならアルゴリズムとか凝った話しにならないような…
ハードに落とすなら、そっちでの最適化を考えた方がよくないか?
262:251
11/11/09 08:28:53.93
3回の比較が最低限度のようです。
ソートも3要素で3回の比較というのは、計算量のオーダーに合った値のようです。
比較がもっと少ない方法や、比較以外の方法がとか
中央値を求めるだけに特化した方法とか、ないようですね。
皆様おつきあいくださいありがとうございました。
>>257の方法を実装しようと思います。
263:デフォルトの名無しさん
11/11/09 12:14:08.69
おまいら小学生か
264:193
11/11/11 09:40:13.88
>196
提示いただいた数式を解読すべく
畳込みと相関は似てるけど違うものとかいうあたりから調べたりして
大変遅くなりましたが ありがとうございました.
で,よしじゃあ実際やってみるか,となったわけですが…
画像fの中からパターン画像gを探すような場合って
当然ながら画像サイズは f>g なわけですが,
それに反して
フーリエ変換して比較する2画像のサイズは同じじゃないとダメ(だと思う).
これってどうすれば??
fと同じサイズになるようにgに余白を(画素値0で?)追加した画像hを作って
fとhで計算すればいいのでしょうか?
でもそうすると,計算される相関の意味が
本来の "f vs g" ではなくて "f vs h" に変わってしまうような…
265:デフォルトの名無しさん
11/11/12 15:59:20.87
>>262
すれ立てるまでもないスレで、似たような話題があった。
そっちは、3頂点のソートだったが。
単に3点ソートという点で言えば、比較回数はそれ以上
上げられないが、要素の交換を最適化するとかいう方法もある。
例えば、要素交換はせず、テーブル参照で要素を入れ替えるとか。
// 入れ替え先の要素番号テーブル d[0] = s[ index[0] ]; とか書いて使う
static const int
Tri::index[][3] =
{
{ 0, 1, 2 },
{ 0, 2, 1 },
{ 2, 0, 1 },
{ 1, 2, 0 },
{ 1, 0, 2 },
{ 2, 1, 0 }
};
// Tri::indexの何番目を参照するか返す
template<class Type> int Tri::SortIndex( Type vertex0, Type vertex1, Type vertex2 )
{
int index = 0;
if( vertex0 > vertex1 ) index = 3;
if( vertex1 < vertex2 ) return index;
if( vertex0 < vertex2 ) return index + 1;
return index + 2;
}
266:デフォルトの名無しさん
11/11/12 16:01:20.35
間違えた
×: d[0] = s[ index[0] ];
○: d[0] = s[ Tri::index[index][0] ];
267:デフォルトの名無しさん
11/11/12 16:30:39.03
ハード化するんでしょ
データはバーストで取り出してるとして
3データなら一撃で結果でるんじゃね
268:デフォルトの名無しさん
11/11/19 16:26:01.28
RAWを現像するとき、メーカー純正ソフトやdcrawでは飽き足らないので
自作している人はいないか?
専用のスレもないみたいだよね。
自作しようとしても、意外と情報がないから分からない。
269:デフォルトの名無しさん
11/11/19 17:07:35.61
デジカメ板に無かったけ?
270:名無し募集中。。。
11/11/19 20:17:04.72
ここは画像加工という意味の画像処理スレじゃないけども
フィルターとか前処理的なものは十分含むと思うから
やりたい事を書けばいいと思うの
271:デフォルトの名無しさん
11/11/19 22:57:33.95
OpenCVにDNGの読み書き機能が入れば、RAW原像をやる人も増えそうだな。
272:デフォルトの名無しさん
11/11/21 15:29:53.08
本来の意味でのRAWデータだと、メーカー毎(下手すりゃ機器毎)にフォーマットが違うからなぁ
下手すると1色8Bitじゃなかったりするし、ヘッダも違うし
273:デフォルトの名無しさん
11/11/21 22:27:16.39
ヘッダがあるとか、どんなRAWデータだよ。
274:デフォルトの名無しさん
11/11/21 22:43:57.94
これも面白そうやね
URLリンク(ufraw.sourceforge.net)
275:デフォルトの名無しさん
11/11/21 23:50:33.06
ヘッダがないと、縦横の画素数やビット幅も分からないだろ~
276:デフォルトの名無しさん
11/11/21 23:52:51.14
DNG Converterというのがフリーで使えて
どんなカメラのRAWもDNGに変換できるからDNGを出発点にするのが良い
277:デフォルトの名無しさん
11/11/22 00:09:18.29
MATLABでDNGのBayer配列データを読み出す方法
URLリンク(blogs.mathworks.com)
やっている事はMATLABのTIFFの入出力関数を用いて読み出しているだけ。つまり、CからTIFFライブラリを使えばDNGは読み出せるということ。
278:デフォルトの名無しさん
11/11/22 01:19:23.61
ロジのWebカメラは、Rawモードがあるね。
279:デフォルトの名無しさん
11/11/22 03:30:21.42
>>275
デジカメのRAWモードとやらは知らんが、ファイル名にサイズを埋め込むRAWデータはあるね。
280:デフォルトの名無しさん
11/11/22 10:22:20.30
>>273
画素値だけで画像のサイズもbit数もわかるのは、エスパーか限られた条件で取られたRawデータだけだろ
281:デフォルトの名無しさん
11/11/22 23:36:24.72
DCRAWでRAWをTIFFに変換するのがもっとも楽だろ
dcraw -D -4 -j -t 0 -T
282:デフォルトの名無しさん
11/11/24 09:43:55.63
>>280
世の中には何も書かれていないデータがごろごろしているってことが理解できませんか?
で、仕様書見ると隅っこに小さく書かれているんだw
283:デフォルトの名無しさん
11/11/24 11:52:08.77
>>282
仕様書なんて出来てから送られてくるものですしw
FPGAの仕様が変わりましたー^^v
なんて言って、末尾に追記されることなんてよくあることですしw
284:デフォルトの名無しさん
11/11/26 18:12:22.77
rawつっても、画素値がRGBとかじゃなくてRAW(bayerとか)なのと、
ヘッダなしのデータと、(少なくとも)2種類あるってのをごっちゃにしてる人がいる気がする
285:デフォルトの名無しさん
11/11/26 20:06:43.98
クスクス
286:デフォルトの名無しさん
11/11/27 09:03:07.30
雲と蜘蛛、橋と箸の区別が困難な人たちの集まり
287:デフォルトの名無しさん
11/11/27 10:27:54.26
規格もなにもなくそのメーカー/ベンダーにとって必要な最小限の情報をヘッダにして,あるいはヘッダなしで
画像データをベタ書きしてるから raw なんだが
288:デフォルトの名無しさん
11/11/27 10:41:33.24
RAWをRGBに変換するCソースここに載せてくれ
289:デフォルトの名無しさん
11/11/27 10:56:57.55
クスクス
290:デフォルトの名無しさん
11/11/27 12:29:09.73
>>288
いいから>>287を100回読め
291:デフォルトの名無しさん
11/11/27 13:33:32.09
俺様RAWが多すぎ
RAWは、まだ調理してない生のままという意味で、
センサーハードウェアの出力がそのままなものはRAWであって
そうでなければRAWではない
292:デフォルトの名無しさん
11/11/27 13:37:22.77
ファイルに関するヘッダやメタデータがショボいファイルはDAT、BIN、HEXなど呼び方は多い
293:デフォルトの名無しさん
11/11/27 14:06:47.13
hexはbinaryじゃないだろ。
まぁ、binaryだったとしても驚かないが。
294:デフォルトの名無しさん
11/11/28 01:32:41.72
DOSつながりで3文字ってのは
もう限界だろよ
295:デフォルトの名無しさん
11/11/28 02:55:55.74
DOS繋がりっつーか、FATの制約だよ。
296:デフォルトの名無しさん
11/11/28 22:06:48.42
255階調のグレースケール画像をn階調画像に変換してpgm画像として出力するプログラム kai.c を作成しなさい。
出力画像の階調は、255階調を等間隔に区切って指定するようにしてください(n=2の場合は{0, 255}, n=3の場合は, {0,127,255})。
また,nの値は端末から入力するようにしてください。
という課題が出たのですがわかりません。
ヒントでもなんでもいいので教えてほしいです。
お願いします。
297:デフォルトの名無しさん
11/11/28 22:27:41.01
for(float i = 0; i <= 255; i += 255 / (n - 1))printf("%d ",(int)n);
てきとうだけど、こんなかんじ?
298:デフォルトの名無しさん
11/11/28 22:28:35.12
あ、まちがってる。まあいいや
299:デフォルトの名無しさん
11/11/28 23:12:42.11
int i,n;
scanf("%d",&n);
printf("P2\n#\n%d 1\n255\n",n);
for(i = 0; i < n; i++)printf("%d ",(int)((255.0/(n - 1)) * (float)i));
無駄がありそうだけど、自分のじゃないからいいや。
300:デフォルトの名無しさん
11/11/29 23:01:50.29
学生の課題にヒントは無しやろ
聞くなら友達に
301:デフォルトの名無しさん
11/11/30 00:12:10.23
最近売られているロジクールのウェブカメラを用いて
uvcdynctrlでRAWの取得に成功した人はいますか?
302:デフォルトの名無しさん
11/11/30 11:36:58.59
画像処理って傾向として整数演算と浮動小数点演算のどちらが多い?
303:デフォルトの名無しさん
11/11/30 12:41:44.05
>>302
テスト実装の段階では(解析の理論をそのまま素直に実装したような場合)
浮動小数点演算でやるけれど大抵の場合丁寧に見直すと整数演算で
処理できるし、そのように変換できる場合には整数演算の方が速い場合が
多いので本気実装では整数演算を多用するみたいな感じ。
FFTみたいにあんまり整数演算に置き換える余地がないようなものも
あるけどな。
304:デフォルトの名無しさん
11/11/30 13:38:21.07
どんな画像処理を行うかにもよるけど、人間の目で違いを出す程度なら整数レベルで十分だしな
画像解析とかになると、小数必要だけども
305:デフォルトの名無しさん
11/12/03 15:42:33.36
こんにちは
環境中に、ラインレーザを適当に照射します。
その様子を撮影した画像から、ラインレーザの形状のみを抽出するにはどうしたらよいでしょうか?
ソフト名とプログラムをお聞きできればうれしいです。
ちなみに、PCにはMATLABであればインストールされています。
よろしくおねがいします
306:片山博文MZ ◆0lBZNi.Q7evd
11/12/03 17:01:26.16
>>305
明るいところだけ抜き出せば?
307:デフォルトの名無しさん
11/12/03 19:08:08.95
>>306
それはどのソフトでどのような処理を行えばよいのでしょうか?
ペイントで抜き出せば?ということですか?
308:デフォルトの名無しさん
11/12/03 19:29:12.17
おおう・・・
309:デフォルトの名無しさん
11/12/03 19:49:41.80
ここはプログラム書くヒトの板
何かソフトウェアを探してるなら板違い
310:デフォルトの名無しさん
11/12/04 16:32:32.19
だな
311:デフォルトの名無しさん
11/12/10 00:32:28.75
画像処理でフーリエ変換じゃなくウェーブレットを使うメリットを教えてください!
静止画像にt軸を持つウェーブレットを適用する理由が分からんです・・・
312:デフォルトの名無しさん
11/12/10 01:12:12.66
URLリンク(www.pref.okayama.jp)
313:デフォルトの名無しさん
11/12/10 01:18:41.96
なるほど、フーリエだと元画像の位置情報が欠落していたけど
ウェーブレットだと位置情報の欠落が防げるってことでOKっすね?
314:デフォルトの名無しさん
11/12/10 17:37:56.33
>>313
元々モルレーが狙ってたのもそういう方向だな.
モルレーのはガウス窓フーリエだったから少し今言うウェーブレットとは違うけどね.
モルレーなんかのやり方はわりと泥臭い方法だったけど後になって色々
刺激を受けた人が整理してみたら1957ぐらいから研究されていた特異積分作用素
の話とくっついたりして実は数学的にも深い内容を持ってるなんて事になった.
315:デフォルトの名無しさん
11/12/14 07:04:28.60
画像処理を勉強している学生です。
ふと疑問に思ったことなのですが、SIFTでオリエンテーションを2つ持つキーポイントには、オリエンテーションごとに特徴を記述するとあるのですが、これは128次元の特徴量を2つ記述すると言うことでしょうか。
その場合キーポイントが128×2で256次元の特徴量を持つのでしょうか?
316:デフォルトの名無しさん
11/12/14 11:48:19.34
>>315
そんなことしたら他と比較できなくなるから
同じ位置とスケールから2つの特徴量を得るって意味じゃないかな
317:デフォルトの名無しさん
11/12/14 12:04:47.77
>>316
そうそう。128次元の特徴量を2個作るよ。
318:片山博文MZ ◆0lBZNi.Q7evd
11/12/15 11:07:53.10
画像をフーリエ変換すると何かいいことあるのでしょうか?
319:デフォルトの名無しさん
11/12/15 11:27:28.39
>>318
地デジみたことない?
320:片山博文MZ ◆0lBZNi.Q7evd
11/12/15 11:29:42.40
>>319 情報圧縮ですか? ふむふむ。
321:デフォルトの名無しさん
11/12/15 11:35:53.26
mp3圧縮みたいなことができる・・・んだろうな、多分
322:デフォルトの名無しさん
11/12/16 19:26:11.60
イラストと写真を判別するいい方法ないかな?
正規化したHSVヒストグラムのSVだけを見て
その両方が中程度に分布してたら写真と判定してみたんだが
厚塗りとか色彩豊かなイラスト、露光不足だったり間接照明な室内写真とかはそれぞれ誤判定した
Exif付いてるイラストがあるので、それでの判別は無しで
何か他の方法あれば頼む
323:デフォルトの名無しさん
11/12/16 20:27:52.33
イラストを撮影した写真はどうするんだ
324:デフォルトの名無しさん
11/12/16 20:32:02.05
てs
325:デフォルトの名無しさん
11/12/16 20:32:57.41
軽快なマンガミーヤクローン作るのに向いてる言語はなんですか?
326:デフォルトの名無しさん
11/12/16 20:37:41.26
スレ違いだボケクズ氏ね
確かにクローン欲しいよねえ
本当になんとからんものか
余計な機能とかいらないんだよね
327:デフォルトの名無しさん
11/12/16 20:39:45.97
>>322
画像全体でヒストグラム取って、SVそれぞれ独立して見てるだけ?
328:デフォルトの名無しさん
11/12/16 22:01:09.47
>>323
>>322の方法だとそういうのは8割くらいは写真になった
>>327
はい
色々種類ありすぎて、画素そのもので勝負するしか無いかなと思って
329:デフォルトの名無しさん
11/12/16 23:27:46.81
>>328
アニメの場合は、SVの分布が大きくなるの??小さくなるの?
330:デフォルトの名無しさん
11/12/16 23:43:46.61
>>322
イラストを撮影した写真は写真と判定するなら
固定パターンノイズを推定するのは?
331:デフォルトの名無しさん
11/12/17 11:13:54.31
というか説明からイラストを写真にとったものをどっちに扱いたいのかがわからない
332:デフォルトの名無しさん
11/12/17 13:57:40.84
いまんとこ、ちょっとヒューリスティック過ぎて・・・
URLリンク(nagamochi.info)
>>329
セル画は撮影してるから写真だろって引っ掛けは無しな
作品や場面によるけど大抵は、輝度が偏るのでVの分布が狭くなる感じ
>>330
なるほど、デジカメの特性を見るのか
メディアンフィルタ掛けた画像との残差を見てみる
>>331
普通の写真ですらまだ全然判別出来てないのに、なんでそこに固執するんだよ
正直それはどっちでもいいよ
でも例えば光沢紙にプリントしたものなら、人間なら光の反射とかから写真だと分かるよね
333:デフォルトの名無しさん
11/12/17 14:26:35.46
>>331
本質から離れたことにやたら固執する奴ってどこにでもいるな
334:デフォルトの名無しさん
11/12/17 15:13:07.51
サンプルワロリン
335:デフォルトの名無しさん
11/12/17 17:44:02.82
周波数分布も判定に使えそうだが、どうだろうか
336:デフォルトの名無しさん
11/12/18 00:44:25.09
オリジナル-メディアンフィルタの差分画像を、写真とアニメで比較してみたが、同じ色の領域で、写真だとノイズが乗ってるのが分かる。アニメだとほぼ差が0。
ただ、輪郭とか輝度変化が激しいところは、写真とアニメ両方で差があって、差の出方に違いがイマイチ見られないかな。
ここからどうやって固定パターンノイズと輪郭などの影響を分離するのかが分からん。
337:デフォルトの名無しさん
11/12/18 01:33:21.43
ブロックノイズ出やすいのもあるし輪郭周辺はマスクしちゃっていいと思う
ただ、輪郭抽出とノイズ推定って紙一重だよな・・・
>>335の言う2次元FFTを実装してみたが
見方が分からないので結果とにらめっこして学習中。日記ですまん
338:デフォルトの名無しさん
11/12/18 01:45:23.55
>>322
1,Googleの画像検索に画像を上げて、キーワードを探す。
2.キーワードをWikipediaで検索。
3.絵画や漫画系に飛んだらイラスト判定
339:デフォルトの名無しさん
11/12/18 02:12:36.38
ワロタw
google が API 作ってくれればいいんだよなあ。
340:デフォルトの名無しさん
11/12/18 11:01:42.83
>>336
オリジナルーメディアンってノイズ検出器であると同時にエッジ検出器でもあるからな
テクスチャに影響されずにノイズを検出しなきゃならん。
コンピュータビジョン最先端ガイド4に固定パターンノイズ推定について記述があったぞ。
1 Non-Localフィルタを使う
2 輝度変化がほぼ平面の部分で比較
3 周波数空間で処理
いろいろ手はあるようだが、どの程度の精度で推定できるのかは不明。
勘では2が実用性高そう。
341:デフォルトの名無しさん
11/12/18 15:11:20.94
HOG, SIFT, SURF, Ferns, etc. の特徴量計算を片っ端から試してみれば?
342:デフォルトの名無しさん
11/12/19 05:46:24.42
>>315 >>316
314です。レスありがとうございます。理解が深まりました。
343:デフォルトの名無しさん
11/12/19 05:48:25.98
>>316 >>317
スレ汚しすみません。安価がずれていました。315でした。
344:デフォルトの名無しさん
11/12/26 17:24:53.33
いえいえ
345:デフォルトの名無しさん
11/12/26 18:11:20.01
靖国神社に放火、神門の一部焼ける
26日未明、東京・千代田区の靖国神社で境内の神門に火がつけられる事件がありました。
事件の前にはインターネット上に犯行予告ともとれる書き込みがあり、警視庁で関連を調べています。
火はすぐに消し止められましたが、神門の扉の一部が焼けました。現場には灯油のようなものがまかれた跡があったほか、
まく際に使われたとみられるコップ2つが残されていたということです。
境内の防犯カメラには黒っぽい服装の男が火をつけているのが映っていたということで、警視庁は男の行方を追っています。
また、事件前にはインターネットのツイッター上に
「在日コリアンの苦しみを代弁したって、どうせ日本人の心には届かない。だったら靖国神社を放火してやろう」
などと犯行予告ともとれる書き込みがあり、警視庁は関連を調べています。
URLリンク(news.tbs.co.jp)
画像
URLリンク(livedoor.blogimg.jp)
346:デフォルトの名無しさん
12/01/04 23:36:11.44
Photoshop辺りでいうレイヤー処理までサポートしているライブラリってありますか。
Gimpは良さそうなんですが、できればライセンスが緩めので・・・。
347:デフォルトの名無しさん
12/01/05 10:39:06.57
レイヤーって単にアルファチャンネルのある複数の画像を持ってて
順番に重ねて表示しているだけじゃねーの
348:デフォルトの名無しさん
12/01/05 11:35:51.17
ラスタレイヤーだけならね。
ベクタレイヤーもあればエフェクトレイヤーもあると思うんだ。
349:デフォルトの名無しさん
12/01/05 15:32:22.10
それはレイヤーに重ねてるものがラスタ画像かベクタ画像かフィルタ操作かって話だろ
350:デフォルトの名無しさん
12/01/05 15:48:06.76
そうだね。順番に重ねて表示しているだけじゃないね。
351:デフォルトの名無しさん
12/01/05 17:13:15.90
順番に重ねて表示してるだけの予感
352:デフォルトの名無しさん
12/01/05 17:55:39.23
どう考えても順番に重ねてるだけだろwww
353:デフォルトの名無しさん
12/01/05 19:52:25.09
レイヤーフォルダやら下のレイヤーとグループ化で
その順番も単純じゃないんだけどな
354:デフォルトの名無しさん
12/01/05 21:23:55.67
その辺までやってくれる画像ライブラリはなさそうだな
355:デフォルトの名無しさん
12/01/05 21:44:02.92
レイヤーフォルダも通過とそれ以外では順番が変わる
356:デフォルトの名無しさん
12/01/05 22:32:30.82
うっせえな。
357:デフォルトの名無しさん
12/01/05 22:41:14.41
うっせえな、順番に重ねてるだけだろwww
358:デフォルトの名無しさん
12/01/05 22:57:08.25
2D+Zデプスマップから立体視用の左右の画を得たいのですが
上手い変換方法が思いつきません
何も考えずにずらしたら隙間が出来ちゃうし・・・
良さそうな方法があったら教えてください
最終的にはリアルタイムで処理したいので速度はそれなりに重視します
よろしくお願いします
359:デフォルトの名無しさん
12/01/06 09:50:35.62
「視差」でググると出てくるかな
URLリンク(eiga.com)
機械がKinectぽいし、この辺りが参考になるかも
URLリンク(opencv.jp)
360:デフォルトの名無しさん
12/01/06 22:26:16.57
Windowsで10bit出力ってどうやるの?
361:デフォルトの名無しさん
12/01/07 09:57:53.71
URLリンク(msdn.microsoft.com)
362:デフォルトの名無しさん
12/01/07 11:25:52.91
>>361
thx
363:358
12/01/10 00:01:06.61
>>359
レスありがとうございます
ディスプレイスメント・マッピングですか・・・Blenderでも使って実験するしかないか
HDMIのL+デプスマップはどうやって変換しているのかな・・・
>OpenCV
そのサンプルは左右の画からデプスマップを得るコードで
逆だと思うのですが・・・
364:デフォルトの名無しさん
12/01/11 10:08:09.27
jpeg画像からDCT係数を直接取り出したりってできるんでしょうか
365:デフォルトの名無しさん
12/01/11 10:42:25.64
>>364
単にjpegのデコードを途中で止めればいいだけだから、そういうコード書けばできるよ
そういうライブラリがあるかって話しなら聞いたことないなぁ・・・
366:デフォルトの名無しさん
12/01/11 21:55:00.04
>>364
計算すりゃいいだろ
367:デフォルトの名無しさん
12/01/11 22:34:50.81
DCT符号?jpegアナライザにその機能あるよ。
自分で調べてバイナリ抜き出してもいい。
368:デフォルトの名無しさん
12/01/11 23:11:59.93
うっせえな。
369:デフォルトの名無しさん
12/01/14 02:02:20.09
何かわからないことでも?
370:デフォルトの名無しさん
12/01/20 00:40:48.02
kernelマシンってパターン認識以外で使われてるみたことない
他に何か応用あっただろうか
371:デフォルトの名無しさん
12/01/20 09:40:59.52
SVMの応用なんて山ほどあるだろ
372:デフォルトの名無しさん
12/01/20 09:41:37.78
カーネルサンダースってケンタッキー以外で使われてるみたことない
他に何か応用あっただろうか
373:デフォルトの名無しさん
12/01/20 11:04:29.22
>>372
くそわろた
374:デフォルトの名無しさん
12/01/20 11:16:51.70
何が面白いんだ
375:デフォルトの名無しさん
12/01/20 12:10:58.55
ケンタッキー州どころか、日本にも進出しているよ。
376:デフォルトの名無しさん
12/01/20 13:48:20.12
>>372
軍事用途に応用できるんじゃないかな
もともと軍人だし
377:デフォルトの名無しさん
12/01/20 14:26:56.52
>>372
道頓堀で発掘されたな
大阪の神に応用されたらしい
378:デフォルトの名無しさん
12/01/20 17:40:18.53
呪物として利用された。
379:デフォルトの名無しさん
12/01/20 18:07:39.54
高速なDFTができたらしい。
URLリンク(arxiv.org)
380:デフォルトの名無しさん
12/01/20 18:11:02.93
元データに何らかの特性が必要らしい
疎(スパース)だとかなんだとか
381:デフォルトの名無しさん
12/01/20 19:39:49.17
>>380
残念、ありがとう。
382:デフォルトの名無しさん
12/01/20 20:09:04.57
質問です。
ハリスのコーナー検出についてわかりやすく紹介してるところありませんか。
Wikiとか見たんですが、もう少し図とかあるかんじで教えてもらえると嬉しいんですが。
383:デフォルトの名無しさん
12/01/20 22:09:00.18
これの/?cp=以下のハッシュ値みたいなものが何なのか分かりますか?
よさげな画像なのでとりあえず見るだけでもどうぞ
よかったら回答願います^^;
URLリンク(img.stardust-web.net)
384:デフォルトの名無しさん
12/01/21 12:10:20.49
画像処理と関係ないからどっかよそに行け
これからは気持ち悪い画像を貼らないように
ちなみにcpは564bit、pathは128bit。後者はMD5くせえな
385:デフォルトの名無しさん
12/01/21 13:17:50.29
2次元離散フーリエ変換したときに、DC成分を真ん中に持ってくるために
第1象限と第3象限、第2象限と第4象限を入れ替えますが、
データ数が奇数のときってどうやって入れ替えるんでしょうか?
386:デフォルトの名無しさん
12/01/21 13:20:54.10
【プログラミング部】 PHPが100倍速で動くようになったぞー
スレリンク(poverty板)
387:デフォルトの名無しさん
12/01/21 14:30:27.22
>>385
データ数が奇数という事は、奇数x奇数だな。寧ろ、判り易いじゃないか。
012
345
678
↓
567
801
234
偶数だとこんな感じ。
0123
4567
89ab
cdef
↓
6789
abcd
ef01
2345
388:デフォルトの名無しさん
12/01/21 14:33:27.52
いけね、それぞれ
867
201
534
と
ab89
efcd
2301
6745
だったw
389:デフォルトの名無しさん
12/01/21 15:34:31.76
>>388
ありがとございます
5x5ならどうなりますか?
0 1 2 3 4
5 6 7 8 9
a b c d e
f g h i j
k l m n o
390:389
12/01/21 15:37:55.80
i j f g h
n o k l m
3 4 0 1 2
8 9 5 6 7
d e a b c
であってます?
391:デフォルトの名無しさん
12/01/23 14:06:00.84
>>390
いんじゃね?
要は、元のパターンをタイリングしてパターン半分ずらした状態なんだから。
392:デフォルトの名無しさん
12/01/24 14:32:18.63
圧縮した状態でも、座標を指定すればその画素値を取得出来るようなフォーマットってあるのでしょうか?
あるとしたら圧縮率は悪くなのでしょうが。
メモリに出来るだけ溜めこんで、出来るだけ高速に画像処理をするという矛盾したことをやりたいと思っています。
64bitOSにしてメモリ大量に詰むのが一番でしょうが、もしもありましたらお願いします。
393:デフォルトの名無しさん
12/01/24 14:50:22.64
>>392
ないない。
あるとしたら、ってそれはもう非圧縮っていう。
なんかのライブラリ挟んでそういう風に見せることは出来るだろうけど
394:デフォルトの名無しさん
12/01/24 14:55:40.49
私はそんなフォーマットわからない。
けど、もし同じことをしようとしたら画像処理途中のグレイスケールや2値画像でメモリにおいとくかな。
どんな用途なんだろう
複数のハイスピードカメラで学習画像をマッチングさせるのかな
395:デフォルトの名無しさん
12/01/24 15:27:13.69
画像の特性にもよるかなぁ。
画像処理というよりバイナリのメモリ圧縮と探索の話になるが。
396:デフォルトの名無しさん
12/01/24 15:54:10.21
カラーなら色空間変換で茶を濁すとか (当然不可逆
R8G8B8(24bit) → Y8U4V4(16 bit) 等
397:デフォルトの名無しさん
12/01/24 15:58:46.16
>>392
そもそもそれは画像なの?
特徴点抽出した結果とか輪郭線抽出した結果とかなら、別な有効な手段もあるんだけど。
398:デフォルトの名無しさん
12/01/24 17:13:30.56
>>393
ですよねー。
>>394
せいぜい余分なデータを省くくらいですよね。
CoaXPressをフルに使った映像をリアルタイムで各種画像処理しながら動画保存するのですが
画像処理に同一動画の前の画像を利用する処理があるので、全部メモリに溜めこめないかなと。
399:デフォルトの名無しさん
12/01/25 20:36:24.25
>>398
アクセスパターン次第じゃね?
ランダムアクセスじゃなきゃフォーマット設計すればできそう。
400:デフォルトの名無しさん
12/01/26 15:05:55.69
JPEGは8x8で符号化してるから画素単位までとは行かなくても
その周辺を含む領域でなら復号出来るだろ
可逆にしたって、ブロック単位でやればいいだけじゃね
圧縮率は下がるだろうが
401:デフォルトの名無しさん
12/02/01 18:11:39.59
OpenCVなどで日本語文字列を描画するのに
なんかいいライブラリありませんか?
402:デフォルトの名無しさん
12/02/01 18:43:34.61
いくつもある画像変換ソフトって設定でサンプリング?1:1:1みたいのとかJPG圧縮率90%とか合わせても変換後のサイズが全然違うのなんで?
403:デフォルトの名無しさん
12/02/01 18:45:49.05
内部アルゴリズムの違いだろ
404:デフォルトの名無しさん
12/02/02 00:08:35.74
フィルタ処理とか特徴点検出とか諸々の画像処理の基本的なアルゴリズムはわかっているんだけど、
高速動作のための実践的な実装を学ぶのにいい本はない?
405:デフォルトの名無しさん
12/02/02 00:57:50.76
>>404
高速動作する実践的な実装のコードや
数値計算やHPCの本を読めばいいのでは
406:デフォルトの名無しさん
12/02/02 09:31:57.49
>>404
急がば回れ。
一般的な高速化のアルゴリズムやデータ構造(部分計算、DP、木など)や画像処理とは
直接の関係の無い分野のアルゴリズム(文字列処理や人工知能)に詳しくなっていると、
画像処理でもアイデアがいくらでも湧いてくる。
そのうち循環畳み込み演算を膨大な回数繰り返す処理をfft/ifftを使った処理と比較して
3桁高速化するなんてこともできるようになる。
407:デフォルトの名無しさん
12/02/02 13:55:04.41
私も406と同じ意見。
アルゴリズムをもっと勉強してブレイクスルーを考えるのがはやいと思う。
普通の高速化なんて目じゃないほどはやくなるよ。
普通の高速化ならopenMPとかソートアルゴリズムの本なんかがオススメかな。結局計算しなくていいとこをいかに早くみつけるかが肝
408:デフォルトの名無しさん
12/02/02 14:09:36.28
>>404
私偉そうに高速化どうこういってますが、最近SURF特徴点抽出方法覚えたてで高速化に苦戦してます。
2つの画像の128次元ユークリッドベクトルの距離が近いものを探す処理で全部の線を比較するダメダメ処理しかわかりません。
一緒にがんがりましょう
409:デフォルトの名無しさん
12/02/03 21:19:51.55
そんな簡単にブレークスルーできてたらノーベル賞取りまくりやわ。ええ加減にしとけよ
410:デフォルトの名無しさん
12/02/04 01:33:02.72
アルゴリズム自体は固定で実装上の細かい最適化テクニックってことなら
Intelが出してる最適化リファレンス・マニュアルだな。
411:デフォルトの名無しさん
12/02/04 02:22:36.88
SIFTなんてガウシアンの畳み込み何回もやるから凄い重いけど実装の工夫だけで超高速にできるもんなんだろうか
412:デフォルトの名無しさん
12/02/04 04:22:00.26
パワープレイになりますけれども
CUDAで超並列マルチスッドレとか
413:デフォルトの名無しさん
12/02/04 16:41:48.44
マシンパワーに頼った実装ってなんかつまらないな
414:デフォルトの名無しさん
12/02/04 20:06:53.47
マシンパワーを引き出すのも面白いぞ
415:デフォルトの名無しさん
12/02/04 21:37:39.20
だからって16bitCPUで32bit使ったり、32bitCPUで16bit扱うのはマヌケだろう?
グラフィック分野では、CPUやGPUの実装に合わせてゴリゴリ書いて
パフォーマンスを叩き出すのが昔からの慣例。
416:デフォルトの名無しさん
12/02/04 23:00:30.46
最適化ってその時々の中流機で速いことに意味があると思う
ハードを追加することが前提ならいくらでも金かけりゃいいってことになってつまらん
417:デフォルトの名無しさん
12/02/04 23:13:43.23
ハードを追加することでコンスタントに処理速度が上がってく段階になると、
さすがにプログラマとしてはつまらなくなると思う
でも、例えばシングルコアがマルチコアになったとか、
複数のマシンをLANで繋いで負荷を分散できるようになったとか、
GPUが計算に使えるようになったとか、
CPUがCellに変わったとか
そういう劇的な変化時におけるパワープレイは、それはそれで面白い
その環境に最適化する場合の考え方ががらっと変わるからな
パワープレイの方法を間違うと本来の力が全然が出せないし