ニューラルネットワークat TECH
ニューラルネットワーク - 暇つぶし2ch2:デフォルトの名無しさん
04/09/11 01:52:57
やだ

3:デフォルトの名無しさん
04/09/11 02:12:46
やだ

4:デフォルトの名無しさん
04/09/11 02:37:45
矢田亜希子かわいい

5:デフォルトの名無しさん
04/09/11 02:41:24
いいよって6が言ってたよ

6:デフォルトの名無しさん
04/09/11 02:43:30
そんなこと知らなくていいよ。


7:デフォルトの名無しさん
04/09/11 02:50:46
なつかしいな

>>1
卒業研究か?

8:デフォルトの名無しさん
04/09/11 09:27:24
板違い。シム板池

9:デフォルトの名無しさん
04/09/11 11:02:50
NNの実装に関する話だったら別に構わないと思うよ

10:デフォルトの名無しさん
04/09/11 15:12:19
ググれば本がいろいろ出てる
Cで実装したやつとか

11:デフォルトの名無しさん
04/09/11 17:30:39
>>1
夢を見すぎだよ。
人工知能の時代はもうおしまいなんだよ

12:デフォルトの名無しさん
04/09/11 17:45:06
ニューラルネットワーク=人工知能ではないと思うのだが。

13:デフォルトの名無しさん
04/09/11 17:47:23
そうだが。
ニューラルネットワークを現在の2進コンピュータ
だけで実現させようとは・・・・

14:デフォルトの名無しさん
04/09/11 17:48:27
シグモイド関数 g(x) = 1/(1-e^(-k*x)) を使って、
1層ニューラルネットワークのn次元縦ベクトル v=(v_1, ・・・, v_n)^T に対する出力f(v)は、

 f(v) = g(Σ[k=1, n]v_k*w_k)

こういうの?>>1

15:デフォルトの名無しさん
04/09/11 17:48:49
>>11
ばっかじゃないの。
歴史は「人工知能」と言われた技術が一般に膾炙されていく繰り返しなんだけど。
ニューラルネットも使いどころを辨えればちゃんと使えるし、使われてる。


16:デフォルトの名無しさん
04/09/11 17:51:05
>>15
辨えれば→弁えれば→わきまえれば
何かと思ったら「弁」の旧字体だった。

17:デフォルトの名無しさん
04/09/11 17:51:28
>>11
釣れた発言は禁止な。

18:デフォルトの名無しさん
04/09/11 17:52:55
>>14
f は一つのニューロンの出力だった。スマソ

19:デフォルトの名無しさん
04/09/11 18:16:27
>>15
使われてはいても当初の人間が想像していた物は実現できなかっただろう。
ばっかじゃないの

20:デフォルトの名無しさん
04/09/11 18:17:36
これは酷いバカがあらわれたな。

21:デフォルトの名無しさん
04/09/11 18:42:03
ホムンクルスでも作ってみるかぁ…

22:デフォルトの名無しさん
04/09/11 18:42:28
勇者募集中

23:デフォルトの名無しさん
04/09/11 19:30:14
>>22
DQ3の世界の勇者です。アレフガルドからこの世界に来ました。

24:デフォルトの名無しさん
04/09/11 19:36:27
DQ1の世界にお帰りください

25:デフォルトの名無しさん
04/09/11 19:41:22
興味ないんだったらスレ立てるなヴォケ>>1

26:デフォルトの名無しさん
04/09/11 21:01:16
>>19
アホだな。当初の人間が想像していた物って何か、わかってるの?
その期待がどうしてしぼんだか、その後どのようなブレークスルーが発見されて
次のブームが起きたか、言ってごらん。


27:デフォルトの名無しさん
04/09/11 21:03:16
あまり構ってやるなよ。

28: ◆HOTsoUpxjY
04/09/11 21:39:52
>>1
URLリンク(www.1101.com)


29:デフォルトの名無しさん
04/09/11 21:43:36
>>28
可愛いから買っちゃったよ。
子供向きで遊べるかな~って思ったけど、絵本ほどの価値もなかった。

30: ◆HOTsoUpxjY
04/09/11 21:52:35
>>14
シグモイド関数って谷底へ落ちるボールみたいに最適解を探して、
でも小さい谷に引っ掛かってローカルミニマムになっちゃうって、そこら辺の話で出てきたな

>>29
「がんばれ森川君」かな?やったことないから分からないけど…
ゲームなら、賛否が分かれるけどGPMとかEVA2とかがAIだね

31:デフォルトの名無しさん
04/09/11 21:55:51
>>30
リンク先みた?
マッチ箱の脳っていう本だよ

32: ◆HOTsoUpxjY
04/09/11 22:25:18
>>31
>子供向きで遊べるかな~ っていうから…ゲームの話かなと思った
入門書で実際にプログラムするのとは別って感じじゃない

33:デフォルトの名無しさん
04/09/11 23:20:34
>>30
完全な最適解を求めることは不可能か、計算量があまりにも大きすぎます。
関数の形が完全に分かればともかく、グラディエントしか分からない場合は
ローカルミニマムを求めるしかないです。

34:デフォルトの名無しさん
04/09/11 23:25:43
ポストペットでつかわれてるお


35:デフォルトの名無しさん
04/09/12 08:11:52
むりやり学習されるだけが脳じゃない

36:デフォルトの名無しさん
04/09/13 00:13:53
>>35
ニューラルネットワークだけで人間が望むような学習を自動的にさせることは出来ません。

37:35
04/09/13 01:01:03
出力を短時間で決定するためにBPなどを使うみたいですが
これは求める結果をあらかじめ固定しますよね
逆に結果によってどうさを切り替えるような構成って出来ないものでしょうか?
学識もない人間なので適当なことを言ってますが
人間の脳ってBPなんて機能はもってないですしね


38:36
04/09/13 01:18:15
結果に対して動作を切り替えるとは、例えばどのような場合ですか?

入力と出力の組が分かっているとき(例えば、ある画像パターンAが「1」を意味する場合)、
画像パターンAを入力すると「1」を出力するように学習させることは出来ます。
(これは個人的な憶測ですが)おそらく、人が普段「何となくそんな感じがする」というときは
BPによって(無意識のうちに)学習されているのかも知れません。
具体的に脳の学習のメカニズムがどうなっているのかまでは(勉強不足で)分かりません。

39:35
04/09/13 01:33:13
その場合ですと、初期状態でAが0を示すなら0がAであると
決めてしまえば学習する必要はないですし、類似のパターンについても
繰り返し入力することで0へかたよっていくような構成にしてしまう
この辺の処理も別のNNを組み合わせて自動化できると人間の脳に近い形だと思うんですが。
具体的にどうしたらいいかって聞かれても答えられませんが。。。

人間の脳は発火した細胞の結線は短いものがのびくっついてるものは
より強化される。
発火がないとじょじょに萎縮していく。
と認識してます。
間違ってたら誰か指摘して下さい。


40:36
04/09/13 01:55:58
>その場合ですと、初期状態でAが0を示すなら0がAであると
>決めてしまえば学習する必要はないですし、類似のパターンについても
>繰り返し入力することで0へかたよっていくような構成にしてしまう
Aが0と決めると言っても、Aは実際には無数にあるので(24*24の白黒2値画像だと 2^576 通り)、
それら全ての組み合わせをあらかじめ決めておくことは現実的ではありません。
それを近似的に解決する方法の一つがNN(ニューラルネットワーク)です。
初期状態では何が何を指すのかは未知なので、新たに学習させる必要があります。
NNは、類似のパターンについても繰り返し入力することで期待する分類を行ってくれるようになる方法の一つです。
但し、常にうまくいくとは限りません。

>この辺の処理も別のNNを組み合わせて自動化できると人間の脳に近い形だと思うんですが。
>具体的にどうしたらいいかって聞かれても答えられませんが。。。
NNは、A_1, A_2, ・・・・, A_n (n=10000くらい)の入力と出力の関係を学習させて、似たようなパターンが現れたら
(良い条件のもとで)期待する出力を返すものです。一つだけパターンを与えて、それに似たものを全て
的確に答えてくれる高度なものはNNでは出来ません。
人間は、実は非常に高度な分類を日常的にしているので、それが凄いことだと気づかないのです。

>人間の脳は発火した細胞の結線は短いものがのびくっついてるものは
>より強化される。
>発火がないとじょじょに萎縮していく。
>と認識してます。
>間違ってたら誰か指摘して下さい。
そんな感じでいいと思います。
コンピュータで実現するNNの場合は、学習結果の衰退が起こらないという点で実際の脳と違いますが・・・

41:35
04/09/13 02:31:54
現実的でないのはわかります。
今後の展望という意味で人間の脳に近づけることは非常に良い結果を
得られるんじゃないかと考えているんですが。

例えば脳は小脳と大脳があって小脳はほぼ変化しないそうです。
かってな考えですが小脳が大脳をコントロールする役割を果たしてるんじゃないかと
考えています。
前文で言ったNNで自動化するって部分がこれに相当するんじゃないかと思っています。
とりとめのない話ではありますが。。。


42:デフォルトの名無しさん
04/09/13 09:54:50
とりあえずこれでも読んでくれ。

脳とコンピュータはどう違うか
URLリンク(www.amazon.co.jp)

43: ◆HOTsoUpxjY
04/09/13 18:52:17
>>33
完全な最適解を求めるのは無理だし無意味だよね
Boltzmann machine でボールに勢い(温度)を持たせて
小さい谷なら越えちゃうというのは有効だね


44: ◆HOTsoUpxjY
04/09/13 18:56:30
ゲームの話になるけど、カルネージハートってのがあって、AIじゃないけど非常に面白かった
んで知ってる人にしか分からないけど、あのパネルをNNのノードに見立てたらどうかな
刺激が多いとパネルか、それを繋ぐラインが成長するとか…誰か作ってくんないかな

45:デフォルトの名無しさん
04/09/14 18:01:41
>>43
入力を表すベクトルを v、内部状態を表すベクトルを w、そのときの出力ベクトルを f(v)、望みの出力を f0 とするとき、
E =|f(v, w)-f0|^2 (|x|はユークリッドノルム)

w_0 を初期の内部状態として

w_(n+1) = w_n - δ*∂E/∂w

とするのが最急降下法による学習ですが、
w と同じ次元の乱数ベクトル r を使って

w_(n+1) = w_n - δ*∂E/∂w + r_n

とするのでしょうか?

46:デフォルトの名無しさん
04/09/15 07:48:33
Blondie24: Playing at the Edge of AI
URLリンク(www.amazon.com)

IBMのDeepBlueは人間が過去に蓄積したチェスの知識を強力なマシンで
ぶん回す力ずくの代物だったのに対し、この本では何の知識も無い
ニューラルネットがパソコン上で自身と対戦して学習するだけで
トップレベルのチェッカープレーヤに成長する過程を書いている。
どっちがAIの成果と言えるのか考えさせられる良書

47:デフォルトの名無しさん
04/09/15 21:28:41
でもニューラルネットでできるのは、それがチェッカーだからだけどな。

パソコン上で自分自身または他のプログラムと対戦させて強くする、というのは
囲碁なんかでもあるね。



48:デフォルトの名無しさん
04/09/15 23:13:54
ちなみに>>46のチェッカープログラムは自己学習したニューラル
ネットだけでトップレベルに達することを実証するため、定石や
結論の出ているデータをわざと使わないで作っている。
強さだけを論じるなら、数百年に渡る人間の知識再生型チェッカー
プログラムはさらに強い。

バックギャモンもニューラルネットプログラムが強いが、こちらは
知識再生型プログラムは激ヨワでお話しにならず、ニューラルネット
導入で初めてトッププレーヤの域に達した。

ニューラルネットが適するかはゲームの複雑さも影響するが、
ゲームの性格に因る所が大きい。囲碁も知識再生だけに頼ると
限界が近いタイプのゲームに思える。

49:デフォルトの名無しさん
05/01/16 17:38:50
3層ニューラルネットワークをC言語で作成しろって課題が出たんだが、
参考になりそうなサイト無い?

50:デフォルトの名無しさん
05/01/16 19:07:58
ニューラルネットワークなんて何層でも同じ様なコードだろ

51:デフォルトの名無しさん
05/02/20 17:18:40
>>49
今どきの学生はそのくらいの課題をウェブに頼ろうとするのか…。


52:デフォルトの名無しさん
05/03/01 00:02:51
Javaで階層型ニューラルネットワークのコードを書いてみたよ
興味があったら使ってみて、バグ探しとか、改良して

URLリンク(www.geocities.jp)

とりあえす、XORの入出力関係を学習するのを作ってある

53:デフォルトの名無しさん
05/08/10 23:35:32
ニューラルタシーロはいつできるようになるんですか?

54:なつかしい
05/08/12 01:19:42
うは、なつかしい。
ニューラルネットワークは、大学のゼミの卒論テーマだった。
いまから13年前だ。。。
そこで、文字認識をやらせるプログラムをC言語で組んだ。
いまのパソコン性能なら一瞬で終わる処理が、13時間とか
かかってたなー。
まあ、卒論発表近くで重大なバグを発見して、血の気が引いたけど。
>>49
こういうこともあるから、自分で一から作ってかないと、痛い目にあうよ。

あのころと理論変わってないのかな?3層のやつ?
理論の名称も浮かばないや。
卒業したてのころは、競馬予想をやるソフトを開発してやろうと
思ってたけど、仕事が楽しくて、そっちに気が回らなくなったよなw


55:デフォルトの名無しさん
05/08/15 18:26:22
>>35
人間のように、反抗してワザと駄目な値を模索したりとかなら面白いと思います。
なんらかの自律的動きをしてるようにうかがえる範囲で。

56:デフォルトの名無しさん
05/08/26 12:26:02
>30
>GPMとかEVA2とかがAIだね
殆どのゲームでAIって使ってんじゃないか?(程度の上下はあるが)
ガンパレとかはAIの程度の高さを売りにしてのかな?

57:デフォルトの名無しさん
05/08/26 12:44:35
ニューラルネットワークに「学習」させる方法は
バックプロパゲーションとかいろいろあると思うけど
実際の脳ではシナプスの重みの調整をどんな方法でやってるの?

おせぇてエロい人


58:デフォルトの名無しさん
05/08/26 13:36:36
>>57
興奮とか抑制とか




よくわかってないスマソ


59:デフォルトの名無しさん
05/08/26 15:15:05
ヘッブしゅん!

60:デフォルトの名無しさん
05/08/26 15:58:29
>>57
URLリンク(www.tmd.ac.jp)
結合を司る細胞の数、だと思う。たぶん。

61:デフォルトの名無しさん
05/08/26 16:26:36
>>60
その「細胞の数」がどういうときに調整されるのかが知りたいんだが。

どういうときにどう調整されれば「学習」できるのか。


62:デフォルトの名無しさん
05/08/26 18:09:52
電流の通る頻度だと思う

63:デフォルトの名無しさん
05/08/26 18:19:30
単純に電気の通る頻度なら、
少しでも電気の通りやすいところがあったら
そこに電気が通って、さらに通りやすくなって、
またそこに電気が通っての繰り返しになって
学習もなにもあったもんじゃないような希ガス。

いや、俺はニューラルネットワークは知らないんだが。


64:デフォルトの名無しさん
05/08/26 18:27:51
>>63
筋肉と同じで、使えば使うほど強くなると思うが、消費が激しいと老化が早くなるかもな。
筋肉は入れ替えが起こるが、神経はそうもいかんし。
接続強さの上限があって、あまりに激しく使用すると、その接続部分だけ疲弊するかもな。
それが、忘れる事だったり、柔軟性だったりするかもな。

65:デフォルトの名無しさん
05/08/26 18:50:31
>>63
通りやすくなれば通る頻度が上がるとは限らないわけで。

66:デフォルトの名無しさん
05/08/27 01:48:18
たぶんこんなん
URLリンク(homepage1.nifty.com)

67:デフォルトの名無しさん
05/09/04 09:07:12
  ∧_∧
`∧( ´∀`) age
( ⊂   ⊃
( つ ノ ノ
|(__)_)
(__)_)

68:デフォルトの名無しさん
05/09/04 10:29:41
柔軟性が接続部分の疲弊だったら、
数学なんていらないんじゃないのか。(この世に)



69:デフォルトの名無しさん
05/09/04 11:08:27
 |ヽ‐-へ
 i _゚Д゚」
 ゙´ノノ))))
 l ノ゚ヮ゚ノl
 ノ⊂)卯!つ
´((く/_||リ
   しソ

70:デフォルトの名無しさん
05/09/09 05:23:53
URLリンク(www.google.co.jp)

71:名無しさん@そうだ選挙に行こう
05/09/11 02:53:52
>>57
樹状突起のスパイン(棘)が増えたり減ったりするのがメインらしいが
樹状突起自体も増えたり減ったり
神経細胞自体も増えたり減ったり
する ベースにあるのは蛋白質の合成過程と言われている

72:名無しさん@そうだ選挙に行こう
05/09/11 03:35:51
レセプターのリン酸化非リン酸化とかいろいろ複雑だよねえ

73:名無しさん@そうだ選挙に行こう
05/09/11 07:51:29
>>71
記憶って作業が、そんな物理的な構造の変化によって行われるのなら
俺の記憶力が悪いのも頷ける。

74:名無しさん@そうだ選挙に行こう
05/09/11 11:59:16
ストレスが強いとマジで記憶の定着が悪くなる
長時間考えると覚えられる(40分程度は掛かるそうだ)

75:名無しさん@そうだ選挙に行こう
05/09/11 19:16:31
>>74
覚えた事をすぐに取り出せないのですが・・・
毎日会っているはずの人の名前がすぐに出てこなかったり。
覚えてはいるはずなんだけど。

76:デフォルトの名無しさん
05/09/12 06:34:05
それ、病院で診察受けた方がいいかもよ。


77:デフォルトの名無しさん
05/09/14 21:07:45
>>71
メインの現象で追加

スパインの増減もあるけど
イオンチャネルの数(チャネルのスパイン表面への運搬、挿入による)
チャネルのイオン透過性(チャネルのリン酸化による)
神経伝達物質の放出確率(シラネ)も増減します

>神経細胞自体も増えたり減ったり
発生過程では正解
ご存知のとおり、神経細胞は成熟した脳ではほとんど増えません

78:デフォルトの名無しさん
05/09/14 21:16:26
>>76
なんか診てもらっても凹むだけの気が。


79:71
05/09/16 00:20:04
>>77
それどの位の時間で発生してどの位維持されるの?
うん,学習の基本になる機構としてはアポトーシスが一番重要なんじゃ
ないかと最近考えてる.今のNNにはそれが抜けてるんだよね
さらに,大脳皮質は「野」が階層構造になってるけど物理的には一枚(大き
目のハンカチ程度)なわけで,これが階層構造を構成する仕組みも重要ではないかと

80:71
05/09/16 00:21:46
>>75
それ単なるストレス過多(まだ40歳前なら)
連書きスマソ

81:デフォルトの名無しさん
05/09/16 01:01:24
>>80
うぐ・・・そうなのか。確かにストレス溜まっているかも。
まだ31です。客先常駐なのに名前忘れるから困る。

82:デフォルトの名無しさん
05/09/16 14:47:57
>>81
ストレス過多もあるけど忙し過ぎるって可能性もある
前に書いたけど記憶の定着には40分~1時間程度掛かるから
その間に注意が他の事に逝ってしまったらきちんと定着されない
次の仕事との間にある程度間をおくのが有効かも知れない(試したことはない)


83:デフォルトの名無しさん
05/09/16 20:34:41
>>82
今まで働きづめだからな・・・俺に限らないだろうけど。
にしても教えてくれてありがと。ためになったよ。

84:デフォルトの名無しさん
05/09/23 01:14:53
age

85:デフォルトの名無しさん
05/10/24 00:53:24
階層型のNNの伝達関数にRBFを使った場合、
関数の中心,分散を意味する変数の修正は、
通常のBPと同様に、微分で計算するの?


86:デフォルトの名無しさん
05/10/26 21:58:15
3層バックプロパゲーションモデルって今でも定番なのね。
17年前にSun3でC言語とSunViewで組んだ記憶が・・・。

重み値を遡及して再計算したり、大変そうw
発火、教師データ、類似度、なんていう表記も使ってたっけ。
これに企業の財務諸表データを入れ、複数の重みセットを組み合わせると
面白そうだなと思っていた時期があった。

87:デフォルトの名無しさん
05/11/21 00:25:07
質問(?)します!
相互結合型ニューラルネットの代表的な例でいいですから、
アルゴリズムの名前を教えてください。

88:デフォルトの名無しさん
05/11/21 01:36:51
ホップフィールドとか
その一種のボルツマンマシンとか

89:デフォルトの名無しさん
05/12/08 00:35:56
3層バックプロパゲーションモデルの典型的なプログラムを掲載しているサイト教えてよん

90:デフォルトの名無しさん
05/12/22 17:42:15
age

91:デフォルトの名無しさん
05/12/23 00:42:35
SOMは相互結合型でOK?

92:デフォルトの名無しさん
06/03/04 19:51:58
20年くらい前に、家電でニューロブームがあったが、
どんな内容だったんだろう。

93:デフォルトの名無しさん
06/03/05 01:03:28
ファジィじゃなくて?

94:デフォルトの名無しさん
06/03/12 02:15:51
朧な記憶では,ニューロで学習したパラメタをハードコードしただけだったかと

95:デフォルトの名無しさん
06/03/17 13:00:21
単純なニューロでメンバーシップ関数を作って、ファジーチップに書き込んでいた
実際、最適値は、処理目的ごとに似たような結果になるので、ファジーで十分
家電の制御回路に、ニューロを組み込んで、「家電購入後、1ヶ月は、学習中です」
なんて、イヤ

96:http://www.vector.co.jp/soft/win95/util/se072729.html
06/03/18 22:20:05
TextSS のWindowsXP(Professional)64bit対応化おながいします

もしくは64bitにネイティブ対応したテキスト置換ソフトありますか?

そういや64bitにネイティブ対応している2chブラウザてありましたっけ?


97:デフォルトの名無しさん
06/03/18 22:23:39
マルチガッ!

98:デフォルトの名無しさん
06/04/23 09:15:29
sage

99:デフォルトの名無しさん
06/05/30 08:49:09
>95
あらかじめある程度学習させておけば良いんじゃないのか?

100:デフォルトの名無しさん
06/05/31 16:15:58
自己相関学習と相互相関学習ってなにさ?

101:デフォルトの名無しさん
06/06/07 01:23:23
C++を使った鉄棒ロボットシミュレータプログラムで
ロボットに鉄棒での倒立運動を学習させる、という研究に
ニューラルネットワークを応用したいのですが・・・

BP法など、本を読んでもよくわかりません。

そもそも、教師値というのは、正解データの事ですよね?
正解データが、欲しいデータが分かっているのにネットワークに学習させる、
というのがよく分かりません・・・。
BP法とは、どのような使い方をするのでしょうか。
具体的に知りたいです。

というか、
そもそも、この研究にニューラルネットを使うことが間違っているのでしょうか?

分かる範囲でいいので、何かアドバイスがあればお願いします。

102:デフォルトの名無しさん
06/06/07 02:45:14
>>101
> BP法とは、どのような使い方をするのでしょうか。

文字認識で、最初にそれぞれの文字教えといて、問題の図形がどの文字か判定させるとか。
そういう、分類する問題に強いと思った。

103:デフォルトの名無しさん
06/06/13 11:59:56
age

104:デフォルトの名無しさん
06/06/15 23:59:22
ニューラルネットワークを利用した卒論修論でおもしろい利用法ないですかね?

105:デフォルトの名無しさん
06/06/16 00:45:37
あっても2chにゃ書かねーわなw

106:デフォルトの名無しさん
06/06/16 00:56:35
>>102
まさに今日その講義を聴いたところだw
他にはなにも思いつかない

>>105
そりゃそうかw
NNがどういうことに利用できるか検討がつかないんです。
C++でNNだけ作るとしたら、スキルの差もあるでしょうが
何行ぐらいでできるものなんでしょうか?

107:デフォルトの名無しさん
06/06/18 20:20:03
あげ

108:デフォルトの名無しさん
06/06/18 20:27:54
お前らシミュレーション板がありますよ。
面白いネタが多いんだが、過疎なんだよな。あそこ。

109:デフォルトの名無しさん
06/06/18 21:20:03
おもしろいネタってどんなのがあるよ

110:デフォルトの名無しさん
06/06/18 21:35:31
いけばいいじゃん。知的好奇心をあおられると思うけど。


111:デフォルトの名無しさん
06/06/27 23:07:34
これね↓
スレリンク(sim板)l50

112:デフォルトの名無しさん
06/07/12 18:45:11
一つのニューロンへの入力は2通りしかだめですよね。
例えば3通りあったとして、それぞれ 0, 0.5, 1.0 としても 0.5 と 1.0 の意味が違うのに
単に大きさの違いとしか捉えきれないと言う事です。
では、一つのニューロンに3通り以上の入力を関連付けたい場合はどうすればいいのでしょうか?

ちなみに、ニューラルネットの事はあまり分かってないので、的外れのことを言っていたらすみません。

113:デフォルトの名無しさん
06/07/12 21:07:11
複数の入力に分ける

114:デフォルトの名無しさん
06/09/30 15:02:11
URLリンク(www.aso.ecei.tohoku.ac.jp)
そいやこんなもの見つけたんだがちゃんとコンパイルできる?

それとも俺がヘタレなだけなんだろうか?

115:デフォルトの名無しさん
06/09/30 15:15:19
いいえ

116:デフォルトの名無しさん
06/11/07 15:07:22
ニューラルネットワークの仕組みが分からないなら、まずファジー技術を
学べ。それが理解できるならニューラルネットの学習法則も理解できよう。
まあ、仕組みなど理解できなくても利用できるし、理解する必要など無いし
特徴だけしっていればという考えの奴がほとんどだとおもうがw

117:デフォルトの名無しさん
06/11/07 21:25:41
何だ藪から棒に

118:デフォルトの名無しさん
06/11/10 15:12:17
抽象化層の意味を理解せず、ニューラルネットワークの学習機能だけを
耳コピーしたような奴ばっかりだなw。
愚か

119:デフォルトの名無しさん
06/11/12 02:23:54
>>118
自分で考えず教科書の建前な所だけしか理解できない奴が増えているのは
事実だが、それは放置して具体的例で教えてやったらどうだ?

120:デフォルトの名無しさん
06/11/14 02:31:07
結局、新しいアルゴリズムは何もでない。

121:デフォルトの名無しさん
06/11/14 22:37:25
はい?

122:デフォルトの名無しさん
06/11/15 03:10:13
ニューラルネットワークとは信者が作った幻想にしかすぎない。
これは事実であって、どんなに力説しようが、絵に書いた餅。
研究対象として企業から支援してもらう為、あらゆる分野で
大騒ぎしている香具師が一部にいるだけなのをご存知じゃないだけ。

123:デフォルトの名無しさん
06/11/15 03:53:22
あ、そうなんだ。
研究室変えるわ。

124:デフォルトの名無しさん
06/11/15 04:17:42
>>101
教師あり学習・教師なし学習を調べろ。って6月か。




つうか、ニューラルネットって、能力の限界はとっくに明らかになってるだろ?
ニューロン自体に新しいモデルを入れないとだめじゃん?

ってBPとかフィードフォワード型だけだっけ?
甘利の本読まなきゃと思いつつ未だに読んでない。

125:デフォルトの名無しさん
06/11/15 23:30:22
ミンスキーの論文に書いてある。

126:デフォルトの名無しさん
06/11/18 01:43:11
ニューラルチップというのは過去に大手半導体メーカーが何度も試作したが
複雑さが増えれば指数的に組み合わせが無限に増える訳で音声認識が限界だと
ファイナルアンサー済み。

127:デフォルトの名無しさん
06/11/27 01:21:43
1つだけ言わせてくれ。今更ニューラルやってもデータ量の分布が激しいと
絶対使えないと思う。プログラム組んでみて解った。数式だけじゃ現実は
解決しないんだよ。こんなの採用するやつは何を考えているんだろう。

128:デフォルトの名無しさん
06/11/27 02:11:28
>>126
チップの方だって、ムーアの法則で指数関数的に性能向上してる訳だぜ?

129:デフォルトの名無しさん
06/11/27 05:16:57
>>127
1つのニューラルで全て解決しようとするからそうなる。

130:デフォルトの名無しさん
06/11/27 09:01:15
>>128
それも終わった、intelががんばったおかげだが

131:デフォルトの名無しさん
06/11/27 12:32:52
>>130
終わってないよ。intelのロードマップでは10年までに数百のコアを積んでくる。
それ以降も、予想が付かないほど進んでいくよ。

132:デフォルトの名無しさん
06/11/27 14:58:26
>>128では性能と言ってるけど元々ムーアの法則は集積度の話だから、
そういう意味では終わりつつあるといってもいいと思うよ。
集積度上げるのが厳しくなってきたから、コア増やして誤魔化してるに過ぎないし。

133:デフォルトの名無しさん
06/11/27 15:49:08
>>132
別に誤魔化している訳ではないだろ。
集積度を上げるコストやクロック数を上げるコストより、
コア増やす方がパフォーマンスがあがるということもある。
あと消費電力の問題もあるわけで。
P4系がなくなったのも、そういう理由だし。

134:デフォルトの名無しさん
06/11/27 15:58:27
三次元配線の検討もされているらしいし、集積度もやっぱり上がると思うぜ。

135:デフォルトの名無しさん
06/11/27 16:21:39
人間より強い商用バックギャモンプログラムSnowieは複数のニューラルネット
ワーク、TD学習の改良版を使ってる。開発経緯や機能はここから辿れる。
URLリンク(www.snowiegroup.com)
フリーソフトのgnubgは簡易化した構成だけど、こいつですら恐ろしく強い。

136:デフォルトの名無しさん
06/11/28 04:59:28
>>135
学習しない状態で強いわけないだろw
愚かw

137:デフォルトの名無しさん
06/11/28 05:01:53
>>128
それはチップの集積度の緩やかな増加状態。
ニューラルネットワークで膨らむのはビックバン的な指数増加。
比較にならん罠

138:デフォルトの名無しさん
06/11/29 16:12:14
>>137
ビックバン的は誇張もすぎないか?
ムーアの法則は緩やかな成長ですがニューラルネットワークだと次元が
増えるような組み合わせなので比較するのはニューラルネットワーク自体を
建前的にしか知らない奴だかなぁ。
根本的に逆誤差伝播則みたいなも定番だけを利用するアルゴリズムだけを
評価しているので単純モデルが引き起こす複雑さ回路にもろに出ている
訳で脳のニューロンはそんなに組み合わせがあるわけではなく
可能性がある組み合わせであって、実配線を伴うチップと比較できる
ような仕組みではないと思う。

139:デフォルトの名無しさん
06/11/29 16:14:18
>>138
もうちょっと落ち着いて書こう

140:デフォルトの名無しさん
06/11/29 21:59:38
カンチガイさんが多いスレですね。
なんか人工知能がもてはやされた時代を生きた40代後半のにおいがぷんぷんします。

おじさんたちの時代の人工知能と今の人工知能とでは言葉の意味が違うよ。

141:デフォルトの名無しさん
06/11/29 23:54:07
>>140
違わないよ

142:デフォルトの名無しさん
06/12/01 23:46:11
「人工知能」って、達成されると「こりゃただのプログラムで『人工知能』なんてモノじゃない」になるからなぁ。
嘗ては最適化コンパイラや、鉄道乗換え案内が「人工知能」だった。

143:デフォルトの名無しさん
06/12/02 00:24:40
まぁ、学習と記憶は別物で、
それはわかってるが、じゃあ何が違うのかってのは厳密に定義されてないからなぁ。
そういう意味で、技術革新によって、今ある人工知能はいずれ人口無能と呼ばれる。

144:デフォルトの名無しさん
06/12/03 08:17:26
うずらだって初期のころに登場すれば
「人工知能」だったろうしな。


145:デフォルトの名無しさん
06/12/05 13:59:50
>>143
>技術革新によって、
それは、勘違いだよ。
技術じゃなく、価値観の革命がなされないかぎり現状のまま。


146:デフォルトの名無しさん
07/01/16 11:33:54
(´^ื౪^ื)

147:デフォルトの名無しさん
07/01/28 00:00:56
>ニューラルネットワーク
これを理解できずに、仕組みだけを暗記して語る奴ておおいよな。
ネットワークは繋がりであって途中で基本的演算を組み合わせている
わけではない、さらに細かい原理があるように思い込みたいのはいいんだが
これ以上細かい原理は存在しない。
何故入力から計算せずに答えがでるのか?これが理解できない奴には
ニューラルネットワークの1%も理解できているとはいえない。
単に解説本を暗記しただけで中身を全く受け止めていないDQNそのもの。


148:デフォルトの名無しさん
07/01/28 01:51:18
なぜ答えが出るかって、分かるやつはその前に居ないだろ
なぜだかわからないが、答えが出るのがニューラルネットワーク

149:デフォルトの名無しさん
07/01/28 02:21:23
3層パーセプトロンやバックプロパゲーションだけじゃないんだけどねぇ

150:デフォルトの名無しさん
07/01/28 03:38:33
ホップフィールドだってある!...いや,すまん.

151:デフォルトの名無しさん
07/01/28 05:00:28
>>148
自然淘汰という理屈があるだろ、そのぐらい誰でも知っている。
因果関係が自然に答えを見つける仕組みだよ。

152:デフォルトの名無しさん
07/01/28 05:25:39
それは解答になっていない。
そんなものが答えであるとマジメに言う気ならどうかしてる。

153:デフォルトの名無しさん
07/01/28 19:12:42
>>148
ベイズ推論マシンと考えれば十分な理解だろ。

154:デフォルトの名無しさん
07/01/29 01:14:12
>>152
151の本意はわからないが。
ニューラルネットワークの講義とかうけてみたけど似たような説明を受けたよ
そもそも理解しようという態度が皆無なんじゃないかな

155:デフォルトの名無しさん
07/01/29 01:25:57
>>153
それじゃ現実の脳の動作は解明できない
双方向に結合したダイナミクスこそが命

156:デフォルトの名無しさん
07/01/29 02:58:54
現実の脳の解明がNNの理解に必要とでも? 別物。

157:デフォルトの名無しさん
07/01/29 09:05:40
あくまで脳の働きをまねただけだからな。
遺伝的アルゴリズムを理解するのに遺伝学は必要ないのと同じ。

158:デフォルトの名無しさん
07/01/29 19:42:19
>>156
実際の脳を解明するためのモデルというのもNNの役割の一つ
っつーか原点

159:デフォルトの名無しさん
07/01/30 12:36:12
>>152
キミは典型的な「おこちゃま」。ガキは大人の言うことを従っていればいい。


160:デフォルトの名無しさん
07/01/31 08:33:27
>>157
遺伝学を知ってる方がGAの理解や開発で助けになるし、
GAによって生物の遺伝の仕組みに対する研究も行なわれてる

161:デフォルトの名無しさん
07/01/31 11:57:20
単なる重み付き選択だろ。

162:デフォルトの名無しさん
07/02/01 22:57:19
>>161
単なるだが、画期的とも言うw
その仕組みを毛嫌いしているのが大量にいるのも事実。

163:デフォルトの名無しさん
07/02/09 04:17:56
ニューラルネットワークはネットワークによる情報処理を論理的にしか
解釈しないからこそ使えねーなんて考える香具師ばっかりになるんだろう。
単純な演算素子のような使い方ならいくらでも活用可能だろ。

この辺が何も進まないのは自動学習にこだわりすぎている点であって、
ファジィーのような使い方の応用をすればいいだけ。
単純モデルばかりで万能のように考えるのも的外れなんだよな。
半導体でFPGAとかをプログラムする前に完成しているように誤認する
奴とかは、途中に複雑な設計が必要なことを全く理解できていないよな。

164:デフォルトの名無しさん
07/02/10 01:53:10
>>161
ランダム(シミュレーション)はどう選択するかが全て
それで効率や結果が大きく変わってしまう
それを「単なる」というのは何も分かってない証拠
>>163 同意

165:デフォルトの名無しさん
07/02/13 13:56:53
四則演算専門のチップ上にニューラルを構成するのと
ニューラルチップ上に、四則演算をする為の命令を構築するのとでは
どっちが高速なの?


166:デフォルトの名無しさん
07/02/13 18:11:18
四則演算専門のチップ上に構成するニューラルネットワークによるだろ

167:デフォルトの名無しさん
07/02/13 21:33:24
>>165
やりたい事が書いてないのにどちらが高速かなんて分かるわけがない
それにニューラルチップと言っても色々あるし

168:デフォルトの名無しさん
07/02/13 21:38:03
そんないろいろあったか?

169:デフォルトの名無しさん
07/02/14 06:26:20
>>168
モデルをちょっと変形すれば、いくらでも。

170:デフォルトの名無しさん
07/02/16 06:45:27
ネットワークそのものが情報処理の座なのに、量子コンピュータとか
DNAコンピュータとか訳のわからんことをいうのが時々います。
こんなキチガイを無視するのは簡単だが、無知な奴はこれを信じてさらに
増殖してしまいます。どうにもならんのか。

171:デフォルトの名無しさん
07/02/16 23:16:32
無視すればすむ話なので、増殖したとしても何の問題もありません。

172:デフォルトの名無しさん
07/02/17 11:42:40
171は典型的な無視ができないDQN君?

173:デフォルトの名無しさん
07/02/18 01:54:49
172は典型的な無視ができない(ry

173は典型的n(ry


174:デフォルトの名無しさん
07/02/19 07:23:28
メタだな

175:デフォルトの名無しさん
07/02/25 09:36:10
ダメだな

176:デフォルトの名無しさん
07/03/19 12:49:06
>>170
たしかに量子コンピュータなど考慮するほど優れているものではないのは
間違いないが、今後も同じとは限らない。

177:デフォルトの名無しさん
07/03/21 06:14:40
良子は精子を象さんします、ぱふぱふ

178:デフォルトの名無しさん
07/03/26 09:50:32
>>176
日本語おk

量子コンピュータなど糞以下。現実がそれを証明している。

179:デフォルトの名無しさん
07/03/26 22:14:09
ここで聞いていいのか知らんけど、
だれかSVM(サポートベクターマシン)分かる人いない?

URLリンク(www.neuro.sfc.keio.ac.jp)
ここを見て実装しようとしてるんだが、正規化のやり方と意味が分からなくて。


180:デフォルトの名無しさん
07/03/27 00:02:32
とりあえず何も言わずに URLリンク(www.amazon.co.jp) でも読んでみたら?
訳書もあるし URLリンク(www.amazon.co.jp)

181:デフォルトの名無しさん
07/03/27 12:16:03
>>180
その本さ、凄く簡単そうに見えるんだけど
肝心の事が書かれて無いと言うか、詳細が無いので・・・
軽く読めるけど、全く為にならんし、実装しようと思ったら逆に凄い労力かかったよ・・・。

もっとマシな本ないんかなぁ・・・


182:180
07/03/27 12:45:38
>>181
え?そう? SMO や (dual objective などによる) 収束判定に関しても
詳説してあるし,自分は (SVM の最低限の実装なら) 特に問題なかったけど?

>実装しようと思ったら逆に凄い労力かかったよ・・・。
具体的にどこに労力がかかったのかkwsk

183:デフォルトの名無しさん
07/03/29 22:30:40
>>170
今の時間軸でしか考えられないダメプログラマが付いて行けなくなるからって、僻むのはおよしなさい。
君たちは短命ながらもよく動いてくれたよ^^

184:デフォルトの名無しさん
07/03/31 15:08:35
>>183
またおまえか

185:デフォルトの名無しさん
07/04/01 16:33:37
非ノイマン系はプログラムするという概念を持ち込んじゃダメ。
基本的にネットワークなんだから、プログラムなどの枠で縛ったら
何もできなくなる。

186:デフォルトの名無しさん
07/04/01 19:42:07
時間軸でしか考えられないプログラマか…
そういうプログラマが大半なんだがら、逆に言うと、量子コンピュータが普及しないって考え方も出来ると思うがな。
出来ないプログラマが死滅するより可能性は高そう

187:デフォルトの名無しさん
07/04/02 19:07:08
>>186
量子コンとかあれほど研究されているのにアルゴリズムが増えないのは
考え方に問題があるのではなく、単に使えない技術が誇張されすぎただけ。
世の中の技術は科学、つまり理屈で出来ている、仕組みという理屈が通じない
世界が普及するわけがない。

188:デフォルトの名無しさん
07/04/02 20:36:15
>考え方に問題があるのではなく、単に使えない技術が誇張されすぎただけ。
ソースor根拠希望

189:デフォルトの名無しさん
07/04/02 23:47:23
>>187じゃないが
>あれほど研究されているのにアルゴリズムが増えない
が根拠じゃないの?
量子ビットで解ける有意な問題がほとんど無いという。
ただ、現状の公開鍵暗号システムを崩壊させられるだけでも十分にインパクトはあると思うけど。

190:デフォルトの名無しさん
07/04/03 01:11:08
>現状の公開鍵暗号システムを崩壊
量子が突破するまえに従来技術で突破されるだろう。


191:デフォルトの名無しさん
07/04/03 04:22:01
どの暗号システムかによる。


192:デフォルトの名無しさん
07/04/03 21:48:33
>>190
素因数分解にしても離散対数問題にしても、解法が見つかるとはとても思えない。
ブルートフォースにしても、現状の1万倍速いCPUが出来ても
(相応に鍵長を増やすだけで)何の意味も無いことを考えると、
量子コンピュータや類似のアプローチ以外で突破は難しいと思う。

193:デフォルトの名無しさん
07/04/04 23:52:44
>>192
それは秀才がやれば難しいだろうけど、天才なら別の問題だろう。

194:デフォルトの名無しさん
07/04/11 18:48:55
>>192
フレーム問題の中でしか思考できない奴には難しいとしか思えないんだろう。
自分で思考の壁を作っているし。

195:デフォルトの名無しさん
07/04/14 23:47:22
ダメな奴は何をやってもだめ。

196:192
07/04/16 13:00:53
>>193-195
その通り過ぎて返す言葉も無い。
やっぱり壁作りすぎかなぁ。
最近、先行研究のサルベージ→問題点をぐちぐち→でも自分も解決できないループが...

197:デフォルトの名無しさん
07/04/18 09:47:36
>>196
ガンガレw

大体に天才と言われる香具師の発想は、誰が見てもコレはキチガイとしか
いえないという発想です。常識を超えるには非常識にならないとw

198:デフォルトの名無しさん
07/05/04 15:01:51
>>179-182
いまさらですが、リンクしておきます。

SupportVectorMachine(SVM)とその周辺
スレリンク(sim板)

199:デフォルトの名無しさん
07/05/11 17:36:34
このスレ面白いな。
いろんな分野の人間が話してて、レスもすごい玉石混交w。

200:デフォルトの名無しさん
07/05/28 06:20:20
>>196
先行研究者が行ったことを繰り返しても、同じ結果になるだけである。
ループから飛び出るには理屈を越えた視点から客観視するしかない。
これは知識そのものが敵=壁なのである。
絶対ありえない、そんなオカルトのような、という点から模索し
理に叶う部分を模索すれば、先駆者が見つけられなかったありえない部分を
模索することになる。

シャーロックホームズ言葉に以下のような発言があるらしい。
彼の言葉が理解できないようなら諦めてくれ。
>彼が言うには情報が多ければ多いほど本当に必要はその中に
>隠れてしまい自分の判断を鈍らせる。
>本当にいる情報をその中から得るにはまず自分の先入観に
>とらわれない思考方法が必要だと言っている。
>そして先入観こそが我々を間違った解へ導く最大の敵とも。
>先入観にとらわれず自分にどのような情報が必要なのかを
>把握しておかなければならない。
>それらの中から絶対にありえない情報資料を削除し残ったものが
>我々の求めている解なのだと。


201:デフォルトの名無しさん
07/06/19 19:00:06
Web上で実行する類似画像検索にニューラルを適用しようと思うんですけど、
既に先行研究があったりします?
あと、現実的な速度で出来るものなのでしょうか?
手書き文字の認識につかったりはしますけど・・・

202:デフォルトの名無しさん
07/06/22 19:52:49
たくさんあると思う
image retrieval/database と neural network で検索するといろいろある
例えば URLリンク(citeseer.ist.psu.edu) からたどれる

203:デフォルトの名無しさん
07/07/24 06:18:40
まぁ、googleの検索みたいに高速検索にはつかえたもんじゃねぇけどな。
精度を落としてでも、何か結果を出せて、google並みの速度を出すなら
画像を文字列の問題に落として、DPマッチングでもさせた方が良い

204:デフォルトの名無しさん
07/07/24 09:23:39
精度を落としたら意味無いじゃないか?
むしろGPGPUなんかでハードウェア・アクセラレーションする事を
前提にして今は基礎固めするのが研究としては真っ当だろう。

ニューラルネットを実用化する際に今の汎用CPUだけでやろうと
言うような不必要な制限を設ける理由が俺には良く分からんよ。

205:デフォルトの名無しさん
07/08/09 22:48:18
ニューラルネットは、機械語のようなものであって。それより高い次元で
構築できるようなエージェント搭載の高級記述言語みたいので設計する時代に
ならないと、単純モデルを繰り返しやっているだけのなるのではないか?
実際の脳は神経網が多層構造や複雑な回帰と相互依存の形が存在する。
それが沢山の神経網集団を繋ぎ、個々ではたいした動作はしないが
全体として複雑な機能を実現しているんだろ。
おまいらがやっているのは単純モデルの摸倣にしかすぎない。

206:デフォルトの名無しさん
07/08/09 23:18:48
で?

207:デフォルトの名無しさん
07/08/09 23:26:08
毎回、で?とか言うやつは学術系の板に来るなよなって思う。
VIPで理解しやすい話だけやってろ。

208:デフォルトの名無しさん
07/08/10 03:37:48
>>205
1つの神経細胞のモデルについてはMcCulloch-Pittsのモデルのような
粗い近似で良いのだろうか
…といったことを人工知能分野の先生に言われた

209:デフォルトの名無しさん
07/08/10 14:33:05
>208
マカロック・ピッツのモデルでダメだと言う根拠は見つかっていない。
非線形入出力を持ち学習能力のあるネットークであれば
細かい要素は関係ないと言う考え方が主流。

つまりネットワークの規模と構造、学習規則のみに
意味があると言う考え方だな。


210:デフォルトの名無しさん
07/08/12 13:32:09
>>209
脳の仕組みを研究すれば脳を摸倣できると思い込んでいる奴が多すぎるよな。

211:デフォルトの名無しさん
07/08/12 14:01:56
マーが言ったようにレベルが違うからねぇ

212:デフォルトの名無しさん
07/08/13 21:32:07
>>211
レベルではなく、次元だろ。

人工知能が云々デマカセな表現をしていたり、
脳の仕組みに注目しているマヌケ君は
異次元の概念も自分の支配化におきたいだけの希望的な思い込みにすぎない。

自己構築する情報処理を、仕組みという理屈で組み立てる情報処理で
置き換えることは考えるだけ無駄。
奴らは環境と情報処理装置の環境を無視して閉じた世界でしか
物事を計れない。
環境が大事だという基礎的なことすら受け入れようとしない。
環境に最適化して育つものと、管理する側で都合のいいものを作るもの
では考え方として次元が違うんだよな。


213:デフォルトの名無しさん
07/08/14 20:06:12
マーの「ビジョン」を読んでから家
次元という言葉を数学と無関係に使うような奴はここには要らん

214:デフォルトの名無しさん
07/08/22 20:24:38
>>213
日本語でおk

215:デフォルトの名無しさん
07/08/22 20:39:56
>>212
日本語でおk

216:デフォルトの名無しさん
07/08/28 16:32:05
>>214
ウリナラげ起源ニダ

217:デフォルトの名無しさん
07/08/29 21:19:48
URLリンク(www.isl.titech.ac.jp)
自己増殖型ニューラルネットワークっておまえらどう思う?


いろんな人に話を聞いてみると
・学習が大変
・収束が不安
・制御できない
っとか色々不便だっていう話を聞いたんだが、お前らの意見を聞かせてくれ。

218:デフォルトの名無しさん
07/08/29 23:39:03
そんなもん聞いてどうするんだ?

219:デフォルトの名無しさん
07/08/29 23:58:41
せっかくだからネタふってみた
ニューラルネットワークについて話すスレだからいーじゃん

220:デフォルトの名無しさん
07/08/30 13:03:04
ふむ,ネタと言うことなら
Numenta Releases Windows Version of NuPIC
URLリンク(www.numenta.com)
なんて話もあるな

221:デフォルトの名無しさん
07/08/31 01:38:02
>>217
ようわからん
何がふえたんだ?

222:デフォルトの名無しさん
07/09/01 23:49:56
自己増殖
ってくらいだから,ニューロンの数が自動的に増えるんじゃまいか

223:デフォルトの名無しさん
07/10/24 19:31:38
ニューロン欠落防止のため

保守

224:デフォルトの名無しさん
07/11/15 22:10:23
卒論でニューラルネットワークをしています。
誤差逆伝搬法で、対象データの予測をしており、精度を上げる研究をしてるんですが、
その環境が、
  入力数:15
  出力数:1
  教師データ数:32
なんです。
半年間やってみた結果、どう考えても「入力数に対してサンプル数が足りなさすぎる」という結論に至りました。
そのことを教授に伝えたのですが、できるはずの一点張り。
こちらが学生なので、そのデータで学会に論文を出していると自信満々に自慢する始末でした。
あまりにくやしいので、そのデータが間違ってることを証明してやるとタンカを切ったのですが、
なにぶん学習し始めて一年の学生では、どのように間違っていることを指摘すればいいのかわかりません。
現在論文を片っ端から読んでヒントを探しているのですが、
手がかりやヒントを知っておられる方いましたら、是非とも教えてください。
それと、私事をだらだら書いてすみませんが、どうかよろしくお願いします。

225:デフォルトの名無しさん
07/11/15 22:20:32
てことは単層パーセプトロン?
ソースとサンプルデータ晒してみ。

226:デフォルトの名無しさん
07/11/15 22:41:48
>>224
それ何の識別器?
15の特徴量はそれぞれ何?
現時点である程度識別する事はできてるの?
教授の「できるはず」って何をすれば何ができるはずっていう事?
精度を上げる事?だとしたら改良点は何?

227:デフォルトの名無しさん
07/11/15 22:54:57
サンプルデータは次のようになってます。一つの行が1セットで、最初の15が入力、最後の1つが出力(教師信号)です。
0.743,0.500,0.455,0.727,0.455,0.818,0.636,0.091,0.455,0.636,0.818,0.318,0.500,0.045,0.318,0.700
0.486,0.000,0.682,0.682,0.136,0.500,0.591,0.136,0.409,0.500,0.682,0.545,0.591,0.409,0.318,0.500
0.714,0.469,0.636,0.545,0.545,0.455,0.364,0.545,0.636,0.636,0.545,0.364,0.545,0.727,0.545,0.600
0.714,0.594,0.136,0.727,0.636,0.909,0.727,0.455,0.727,0.455,0.727,0.409,0.227,0.045,0.227,0.200
0.829,0.781,0.727,0.636,0.727,0.545,0.636,0.727,0.727,0.818,0.727,0.591,0.591,0.500,0.682,0.400
0.771,0.313,0.636,0.727,0.364,0.727,0.909,0.000,0.364,0.818,1.000,0.318,0.591,0.045,0.227,0.700
0.771,0.531,0.000,0.818,0.545,1.000,0.818,1.000,0.636,0.636,0.909,0.500,0.773,0.227,0.318,0.400
0.429,0.281,1.000,0.727,0.545,0.455,0.727,0.636,0.818,0.727,0.727,0.591,0.318,0.864,0.682,0.500
0.771,0.313,0.545,0.545,0.909,0.455,0.455,0.636,0.636,0.545,0.545,0.773,0.500,0.318,0.318,0.500
0.486,0.438,0.727,0.909,0.545,0.545,0.455,0.727,0.727,0.636,0.818,0.500,0.500,0.227,0.500,0.300
0.857,0.563,0.000,0.909,0.000,0.455,0.818,0.000,0.273,0.636,0.727,0.318,0.318,0.227,0.136,0.600
0.714,0.375,0.455,0.727,0.727,0.818,0.455,0.455,0.545,0.273,0.000,0.045,0.682,0.045,0.136,0.300
0.200,0.844,0.182,0.909,0.000,0.545,0.636,0.636,0.273,0.545,0.727,0.955,0.409,0.318,0.682,0.200
0.800,0.469,0.364,0.636,0.727,0.636,0.727,0.545,0.545,0.636,0.909,0.864,0.136,0.136,0.500,0.600
0.800,0.281,0.636,0.455,0.818,0.909,0.545,0.727,0.909,0.273,0.364,0.455,0.818,0.545,0.273,0.600
0.829,0.438,0.364,0.545,0.000,0.727,0.545,0.455,0.636,0.545,0.455,0.227,0.773,0.227,0.227,0.500
0.714,0.500,0.182,0.818,0.000,1.000,0.636,0.273,0.545,0.727,0.545,0.227,0.955,0.318,0.318,0.600
0.600,0.344,0.909,0.818,0.273,0.909,0.455,0.182,0.455,0.545,0.818,0.227,0.682,0.409,0.409,0.300
0.629,0.500,0.273,0.818,0.000,0.818,0.818,0.273,0.364,0.727,0.455,0.864,0.500,0.409,0.227,0.300

228:デフォルトの名無しさん
07/11/15 22:57:59
続き
0.657,0.500,0.818,0.727,0.455,0.636,0.182,0.182,0.091,0.455,0.636,0.682,0.409,0.136,0.682,0.200
0.829,0.813,0.091,0.636,0.000,0.545,0.455,0.636,0.545,0.545,0.727,0.773,0.591,0.773,0.591,0.500
0.629,0.391,0.818,0.818,0.273,0.727,0.727,0.364,0.364,0.455,0.545,0.773,0.591,0.318,0.682,0.500
0.800,0.094,0.909,0.636,1.000,0.636,0.727,0.545,0.182,0.455,0.455,0.227,0.682,0.591,0.227,0.400
0.629,0.391,0.818,0.727,0.727,0.909,0.909,0.545,0.727,0.455,0.818,0.409,0.864,0.591,0.318,0.300
0.857,0.656,0.727,0.545,0.636,0.455,0.364,0.818,0.636,0.273,0.636,0.773,0.500,0.318,0.409,0.500
0.829,0.438,0.455,0.545,0.818,0.727,0.364,0.636,0.545,0.727,0.545,0.318,0.864,0.227,0.591,0.000
0.657,0.594,0.727,0.455,0.545,0.818,0.636,0.727,0.636,0.636,0.727,0.591,0.682,0.682,0.682,0.400
0.914,0.438,0.364,0.364,0.273,0.727,0.818,0.455,0.455,0.455,0.545,0.318,0.591,0.227,0.227,0.500
0.829,0.656,0.636,0.636,0.455,1.000,0.545,0.364,0.545,0.636,0.818,0.409,0.591,0.045,0.227,0.500
0.314,0.281,0.091,0.727,0.364,0.909,0.545,0.364,0.364,0.545,0.636,0.500,0.773,0.045,0.227,0.500
0.686,0.219,0.455,0.455,0.727,0.591,0.500,0.227,0.591,0.591,0.591,0.455,0.727,0.182,0.364,0.000
0.629,0.281,0.636,1.000,0.909,0.455,0.818,0.182,0.455,0.364,0.727,0.227,0.500,0.045,0.318,0.300
以上です。
プログラムは、熊沢逸夫著「の学習とニューラルネットワーク」という本のバックプロバゲーション部分をJavaで書き直した物で、
普通のデータ(XORを試しました)であれば、正常に学習、予測することは確認しています。

229:デフォルトの名無しさん
07/11/15 23:07:30
ソースコードは?

230:デフォルトの名無しさん
07/11/15 23:10:56
>>226

> それ何の識別器?
> 15の特徴量はそれぞれ何?

入力は個人の性格や能力を15の分野に分け、0~1に正規化した物で、それを元にある問題の解答率を出力とします。
実験手順は、
・32個のサンプルデータのうち、24個を学習に使い、誤差逆伝搬法で学習する。
・十分に学習できたところで、残りの8個を推測する。
・残りの8個の真の値(教師信号)と、ネットワークで推測した出力の誤差で、ネットワークの正確さを評価する
といった感じです。

> 現時点である程度識別する事はできてるの?
できます。現在のところ、どんな初期値にしても推測がほぼ±0.2に収まります。またXORで正常にプログラムが働くことを確認しました。

> 教授の「できるはず」って何をすれば何ができるはずっていう事?
その教授曰く、自分のプログラム(MATLAB)ならできるとのこと。
曰わく、「そのプログラムは教授が長年蓄えた知識でさまざまな工夫がされている」らしく、
その技術はお前に教えたからできるはず、ということらしいです。
しかし、つっこんで聞いてみるとたくさんの学習をさせて、たまたま予測が良かったものをすべて足し併せて平均を取っているだけのようです。

> 精度を上げる事?だとしたら改良点は何?
推測値と真の値との差を0.1以内に納めろ、ということでした。
もっとも、7月にはすでにプログラムが完成しており、うまくいかないというと場当たり的なアドバイスをもらうだけでしたが。


個人的には、ニューラルネットワークはたまたま予測が上手く言った物を足し合わせてそれを解としてしまえるような、
適当な物ではなかったはずなのですが・・・。
教授曰わく統計的にはうまくいくらしいですが、本当にほかの現場でも同じような手が取られているのか疑問です。

231:デフォルトの名無しさん
07/11/15 23:20:27
>>229
汚いソースコードで恐縮ですが、うpしときました。
URLリンク(www.uploda.org)

中のframeworkパッケージがメインで、Tableを使ってプログラムします。
重ねてすみませんが、プログラム自体は特別な処理はしていません。

232:224
07/11/15 23:27:59
要約しますとこんな感じです。

・入力数15、出力数1、サンプルデータ32の成績推測で、予測が±0.1以内に収まらなければならない。
・自分で組んだ誤差逆伝搬法とURLリンク(www.geocities.jp)ここのBP法では±0.2が限界。
・教授は確率が良かったネットワークを足し合わせて平均してる。

どうしたいのか

・この研究の前提としてサンプルデータが少なすぎることを指摘したい
・もし上の主張が間違っているのであれば、正しいネットワークの学習法を知りたい(その場合は潔く頭を下げに行きます

233:224
07/11/15 23:45:05
こちらのほうにプログラム全体のソースコードをアップしときました。
URLリンク(sund1.sakura.ne.jp)
基本的なテストはJUnitで書いてますので、tpフォルダ内のプログラムを見ればどう使っているのかがわかると思います。

234:デフォルトの名無しさん
07/11/16 00:01:28
サンプルが少なすぎる事を証明したいならサンプルを増やして精度が上がることを示せばいいんじゃないの?
さらにサンプルを用意して比較するとか、
それが難しいなら教師信号を少ない数から学習させていって精度の向上具合をグラフにしてまだ上がりそうな事を示すとか。
まぁそもそも元のデータにノイズが入ってるとサンプルを増やしても精度は或る程度の誤差を持ったまま頭打ちになるけど。

235:224
07/11/16 00:09:15
> それが難しいなら教師信号を少ない数から学習させていって精度の向上具合をグラフにしてまだ上がりそうな事を示すとか。

それなら出来そうですが・・・、俺ならこのデータでも十分だ!、とか言いそうで怖い・・・。

> まぁそもそも元のデータにノイズが入ってるとサンプルを増やしても精度は或る程度の誤差を持ったまま頭打ちになるけど。

それは考えてませんでした。
サンプルデータの右端の列(出力の教師信号)を見てもらえばわかるんですが、
すべての値を0.1刻みに区切ってあるんです。つまり、サンプルデータ自体に±0.05の誤差を含むんでいます。
これで誤差を持ってることが証明できますね。ありがとうございます。

236:デフォルトの名無しさん
07/11/16 00:48:31
>それなら出来そうですが・・・、俺ならこのデータでも十分だ!、とか言いそうで怖い・・・。
SVMって聞いたことある?サポートベクターマシン。
少ない教師信号でも未知データに対する精度がBP法より高いと言われてるから、
それと同程度ならBP法でも十分な学習ができたと判断していいんじゃないかな。
SVMライブラリはググればいくつか見つかる。

237:224
07/11/16 00:59:29
>>236
名前は聞いたことがあるのですが、実際にやってみたことはありませんでした。
そのSVMとBP法の予測を比較してみようと思います。

238:デフォルトの名無しさん
07/11/19 10:47:51
というか、これ中間層の数いくつでやってるの?
中間層のユニット数増やせば、いくらでも誤差減らせると思うんだけど
今ためしに自分の書いたプログラムで中間層の数5でやってみたら1秒かからずにここまで誤差減らせたけど
0 0.682308 0.700000 16 0.576228 0.600000
1 0.484078 0.500000 17 0.310864 0.300000
2 0.620793 0.600000 18 0.305802 0.300000
3 0.213112 0.200000 19 0.196997 0.200000
4 0.417943 0.400000 20 0.496074 0.500000
5 0.713331 0.700000 21 0.537518 0.500000
6 0.400664 0.400000 22 0.377821 0.400000
7 0.492160 0.500000 23 0.333802 0.300000
8 0.531899 0.500000 24 0.491570 0.500000
9 0.280287 0.300000 25 -0.012757 0.000000
10 0.600956 0.600000 26 0.376582 0.400000
11 0.297781 0.300000 27 0.499210 0.500000
12 0.200848 0.200000 28 0.495079 0.500000
13 0.538449 0.600000 29 0.499226 0.500000
14 0.568660 0.600000 30 0.011226 0.000000
15 0.503874 0.500000 31 0.309703 0.300000

239:デフォルトの名無しさん
07/11/19 12:27:23
>>238
>・32個のサンプルデータのうち、24個を学習に使い、誤差逆伝搬法で学習する。
>・十分に学習できたところで、残りの8個を推測する。
>・残りの8個の真の値(教師信号)と、ネットワークで推測した出力の誤差で、ネットワークの正確さを評価する

240:デフォルトの名無しさん
07/11/19 12:47:56
全然読んでなかった
最初の24個を使って学習させて、残りの8個を推測させたら全くでたらめだった
0 0.173739 0.500000
1 0.736736 0.000000
2 0.313203 0.400000
3 0.843554 0.500000
4 0.302446 0.500000
5 0.441595 0.500000
6 0.831326 0.000000
7 0.853432 0.300000

241:224
07/11/19 17:49:57
>>240
わざわざ実行してもらってありがとうございます。

やはりここまででたらめな推測値が出るっていうのはサンプルに一貫性がないか、
データ数が全然足りないかのどちらか(もしくは両方)だと思うのですが、
この考えはあっているでしょうか?

242:デフォルトの名無しさん
07/11/19 18:36:22
さあどうなんだろう?
ただ同じ構造のネットワークで24件だけでなく32件全てに当てはまる
パラメータは確かにあるわけだから、どんな初期値で24件の学習だけからでも
残りの8件をうまく予測するパラメータに収束させる方法があるのかもしれない

SVMとかいうのはどうなんだろうか
やってみた?

243:224
07/11/19 20:35:45
>>242
いえ、現在はサンプル数を増やしたときに、精度が上がることを証明する実験と、
中間報告の書類を書くのに手がいっぱいで、教えてもらいながら申し訳ないことに、SVMまで手が回っていません。

244:224
07/11/20 14:50:43
あれから学習データを段階的に増やしていき、予測精度が上がるかを実験してみたのですが、
残念なことにほとんど上昇が見られませんでした。
こうなると、もはや汎化能力の限界が0.2であるとしか思えないのですが、それを肯定するような実験結果も出せていません。
とりあえず、今からSVMでどこまでやれるか試してみようと思います。

245:224
07/11/20 15:52:57
なんだかスレを占有してしまっているみたいですみません。

現在、サンプルデータ数と重みの数について調べていたところ、このような記述がありました。

> 3.4 まとめ
> (1)汎化能力をもつには、学習データ数と重みの数の比率は少なくとも10以上は必要である。

3章 学習データと入力表現
URLリンク(cae.co.jp)
の一番下

入力数15の場合、中間層ニューロン数が3でも、15 * 3 + 3 * 1 = 48の重みがあるので、
データ数:重みの数 = 32 : 48 となり、比率は1にも届きません。
やはりサンプル数が圧倒的に少ないと思うのですが、どうでしょうか。

246:224
07/11/20 22:29:16
>>224です。とりあえず納得できる理由が見つかったので、これで最後にしようと思います。

ネットワークの評価を調べてVC次元関連を見ていたところ、「次元の呪い」という事象があることを知りました。

次元の呪い - 朱鷺の杜Wiki
URLリンク(ibisforest.org)

入力数15というのが、ここのいう高次元に当てはまるかというのはわかりませんが、
中で説明されている、球面集中現象は、私が求めていたイメージとぴったりでした。
あとはこれを元に中間発表を仕上げようと思います。

混乱していたときに、方向性を示してくださった皆さんには感謝しても感謝しつくせません。
長々とつきあってくださったみなさん、どうもありがとうございました。

247:デフォルトの名無しさん
07/11/20 22:47:20
SVMはどうだった?
興味あるから最後と言わずもっと書いて欲しいな。

248:224
07/11/20 23:31:40
>>247
そういっていただけるのは非常にありがたいです。
それに、よく考えればここまでしていただいて、
ことの顛末(教授がどんなリアクションを取るか)を言わずに去るのは失礼というもんですね。

今さっきの言葉を翻すようですが、今週中に中間発表が終わりますので、
今週末ぐらいに中間発表の雰囲気と教授のリアクション、
それとできればSVMとの比較を短くまとめて上げさせてもらおうと思います。

249:デフォルトの名無しさん
07/11/21 02:39:53
ん、15次元で高次元てのはいくらなんでも無理がある気が。

250:デフォルトの名無しさん
07/11/21 12:35:25
>>249
そうかな?入力が10以上もあれば球面集中現象は起こりうると思うんだけど。

251:224
07/11/27 13:17:16
>>224です。先週末中に報告すると書いていたのですが、遅れてすみませんでした。

先週末に発表があったのですが、結果から書くと正しかったみたいです。
中間報告で主に、
・汎化能力を得るには最低でも数百が必要
・球面集中現象
・サンプルデータの誤差
などについて詳しく報告しました。
プレゼンが上手くなかったことと、ニューラルネットワークに明るい教授らが多くなかったこともあり、
特に質問はなかったのですが、「なぜいままで失敗に気づかなかったのか」という質問に対して、
「担当の教官が正しいと言い張っていた」と答えたところ、会場に笑いが広がりました(失笑ではなかった、と思います)
教授も同じ会場だったのですが、周りに混じって苦笑していました。

そのときに、ひとまず私の主張は認められたようで、それ以来教授との間は一応平静を保っています。

252:224
07/11/27 13:24:36
これでひとまず認められ、一矢報いることが出来たと思うので、私としてはこの件に納得できました。

今後は、大幅に遅れましたがニューラルネットワークの応用分野か、
もしくは今回の経験を元に、汎化能力を得るために必要な条件(サンプル数、最大誤差、重みの数など)を
研究しようと思います。
重ね重ね、力になってくださった皆さん、本当にありがとうございました。

蛇足ですが、SVMとの比較はまだ全く出来ていないので、実験できて次第こちらで報告させてもらおうと思います。

253:デフォルトの名無しさん
07/11/27 13:36:39
ぉっぉっ
SVMの報告も楽しみにしてる

254:デフォルトの名無しさん
07/12/02 20:23:34
今初めて読んだけど、頑張ったね (^^

SVMは分類器 (サンプルがどのカテゴリに入るのかを答える) なので、
回帰分析に使いたければ、SVR (Support Vector Regression) でぐぐるといいよ。

次元の呪いでサンプル数が足りない場合には、
主成分分析や因子分析 (どちらも似たようなもの) で、
次元数 (入力ユニット数) を減らせる「場合もある」よ。

SVRはBP法よりも難しいので、アルゴリズム自体を研究したいのでなければ、
ライブラリを使うといいかもね。



255:254
07/12/02 20:31:57
>>254>>224宛てでした。
言語はC++だけど、OnlineSVRというライブラリが公開されていたはず。
追加学習できるように改良されているのと、他のライブラリに依存していなくて読みやすいので、
私はJavaに移植して自分の研究で使っていました (他の部分が全部Javaなので) 。

ここまで書いて、見つけてきた。
URLリンク(eris.liralab.it)



256:224
07/12/02 20:59:30
>>255
ありがとうございます。冒頭の優しいお言葉に思わず目が潤んでしまいました。
実は先週からテスト期間に突入してまして、SVMについて調べられていなかったんですが、
SVRというものがあるんですね。ライブラリも公開されているようで、是非活用させていただきます。
言語は一応C++も使えるので、長期的に使う予定のない現状なら、そのままC++で実験しようかと思います。

257:デフォルトの名無しさん
07/12/30 02:05:23
あげ

258:デフォルトの名無しさん
07/12/30 16:07:56
ニューラルネットワークって人工知能のことだろ?
シリコンのCPUじゃ無理なんだよ
バイオコンピューターでも開発してくれ

259:デフォルトの名無しさん
07/12/30 16:13:59
aho

260:デフォルトの名無しさん
07/12/30 18:42:51
攻殻機動隊のタチコマは、ニューロチップなるものを使用してAIを実現してるらしい。
名前からすると、チップの構造自体が自己組織化する(物理)人工ニューラルネットワーク見たいなものか。

261:デフォルトの名無しさん
07/12/30 18:58:32
計算機でシミュレーションすればいいじゃん。

262:デフォルトの名無しさん
07/12/31 04:23:18
できるかどうかは別にして。実用的なニューラルネットワークのシステムを作る場合。
計算機のシミュレーションじゃ遅すぎて使い物にならないと思われ。

263:デフォルトの名無しさん
07/12/31 04:53:30
実際ニューラルネットワークってでこかで実用されてるの?
うちの教授が画像診断で実用化されて、優秀な結果を出してるとか力説してたけど。

264:デフォルトの名無しさん
07/12/31 10:12:10
実用例知ってんじゃん

265:デフォルトの名無しさん
07/12/31 10:22:47
早い遅い
どこら辺が基準


266:デフォルトの名無しさん
07/12/31 10:37:44
もう既に実用的に使えるなら、みんな知ってるだろ。
探さないと無いような物は、実際には使えなかったもの。
研究者は実用に使えると言う場合が多いが、製品にならないと実用とはいえない。

267:デフォルトの名無しさん
07/12/31 10:51:05
>>265
速い遅いと判断できる実用的なものは無いと思われ。
実用的なものが出来てから判断するもの。
遅いから実用にならないのかもしれんがなw

268:デフォルトの名無しさん
07/12/31 11:40:46
だいぶ前から家電なんかにも使われてると甘利先生が書いてた
話題にならなくなった時が実用化された時

269:デフォルトの名無しさん
07/12/31 11:49:00
それはファジーじゃないのか? ニューラルネットワークを使った製品の出して。

270:デフォルトの名無しさん
07/12/31 17:36:07
音声認識とか文字認識とか

271:デフォルトの名無しさん
07/12/31 20:32:04
音声認識とか文字認識とかをニューラルネットワークで作った家電品があるのか?

272:デフォルトの名無しさん
07/12/31 21:14:32
普通のロジックで作られた音声認識も文字認識も一般の製品で販売され、
プリンターやスキャナーには無料で添付され。そこかしこに溢れかえっている。
もし、ニューラルネットワークで作られた音声認識や文字認識が優秀なら、
それら製品と入れ替わっているはずだが、そうなっては居ない。
ここから言える結論は、
ニューラルネットワークのシステムはいまだ使い物にならない。(実用化されていない)

273:デフォルトの名無しさん
07/12/31 21:31:20
普通のロジック?????

274:デフォルトの名無しさん
07/12/31 21:40:42
まあ、プログラムと言い換えてくれ。

275:デフォルトの名無しさん
07/12/31 21:45:47
普通のロジックで作られた音声認識も文字認識も一般の製品で販売され、
→プログラムで作られた音声認識も文字認識も一般の製品で販売され、
????

276:デフォルトの名無しさん
07/12/31 21:53:05
>>275
もっと詳しく書かないと理解できないのか?

プログラムで作られた音声認識システムも文字認識システムは、一般の製品で販売されている。
この場合のプログラムとは、ニューラルネットワークの仕組みではなく、手続き型のプログラムを意味する。

これでも足りないか?

277:デフォルトの名無しさん
07/12/31 21:53:47
×プログラムで作られた音声認識システムも文字認識システムは、一般の製品で販売されている。
○プログラムで作られた音声認識システムや文字認識システムは、一般の製品で販売されている。


278:デフォルトの名無しさん
07/12/31 22:00:37
進化型計算もここでいいですか?

ちょっと齧ってみた素人なんですが、進化型計算で得られる結果は主にアルゴリズム(計算方法)という認識でよろしいでしょうか?

279:デフォルトの名無しさん
07/12/31 22:05:14
結果はアルゴリズムではない。

280:デフォルトの名無しさん
07/12/31 22:11:42
>>276
最初から手続き型と書けよw

281:デフォルトの名無しさん
07/12/31 22:14:05
279だが、もう少し詳しく。
一般に、進化型計算で得られる結果は、目的の値または目的を効率よく得られたパラメータの
値の事かな?
どちらにしてもアルゴリズムとは言えない。上記認識で有っているか?
有っていないなら、より詳しい説明を求む。

282:デフォルトの名無しさん
07/12/31 22:18:02
>>280
ニューラルネットワークのエミュレーションも手続き型の結果だからね。
その辺の混乱を、普通のロジック=ニューラルネットワークの仕組みではなく、手続き型のプログラムを意味する
のつもりで書いたのだが、短文で意味を伝えるのは難しいな。

283:デフォルトの名無しさん
07/12/31 22:45:01
>>281
278ds

進化型計算の結果は「進化した計算手法」だと思っている。
簡単な例だと、「1,2,3,4の4つの数値から四則演算を任意に行って10を作りなさい」という目的が設定された環境で
進化するエージェントは四則演算をパラメータとしてみてその組み合わせを目的に合うように最適化していく。

という感じで、その結果得られるのは「目的を満たすための手段=アルゴリズム」だと思っている。

284:268
07/12/31 23:09:44
KYずに遅レス
家電で実用化されてるのは,と言うより今実用化されてるNNはパターン認識系ではなく,BPNNの補間機能を利用したソフトな制御を行うタイプ.
だから分野はファジーと同じだが,一旦値が決まってしまえばファジーより簡単に(小さなコストで)実装できる.
他にはPOS,データマインニング,クレジットカードの悪用検出などで使われていると聞いている.

285:268
07/12/31 23:12:09
スマソ,上げちまった

286:デフォルトの名無しさん
07/12/31 23:29:45
進化型計算の目標に遺伝子のアルゴリズムが有ると思う。これは、自身のアルゴリズムを
自身で書き換えて進化してきた。しかし、現在の計算機での進化型計算は、自身で自身を
書き換えるまでに達していない。既に内包しているアルゴリズムを再発見して違う形のパラ
メーターとして最適化しているに過ぎない。これでは、プリグラムで定義された範囲内を超
える事は出来ない。これは、既に組み込まれた内容の範囲をパラメーターで指定している
に過ぎない。新たなアルゴリズムを導き出したと言えるのだろうか?

もしそれでいいのなら、コンパイラコンパイラに代表するプログラムジェネレーター総てが
進化型計算計算と大差が無い。
自身に内包するアルゴリズムを出したのでもいいなら、結果がアルゴリズムでいいだろう。
特にプログラムジェネレーターはアルゴリズムを実際に出している。
それに比べ、プログラムの動き方が変わったパラメーターが生成できたとして、
私はそれがアルゴリズムだとは言いたくない。

進化型計算が目指すものは、遺伝子と同じく自身を書き換え新たなアルゴリズムを
目つけることが必要ではないか、私はそう考えている。

287:デフォルトの名無しさん
07/12/31 23:39:57
286、言い回しの重なりと 計算計算の2重化、申し訳ない。
よろしければ、うまく汲み取って欲しい。

288:デフォルトの名無しさん
07/12/31 23:53:57
>POS,データマインニング,クレジットカードの悪用検出などで使われていると聞いている.
これに付いての知識が無いため、評価する事が出来ない。

私が参加した元々の命題。「早い遅い  どこら辺が基準」に対して。
基準とは、一般に広まった結果の最大公約数的なものが必要だと思っている。
したがって、極一部の例で速い遅いの判断は不可能であると指摘したい。

289:デフォルトの名無しさん
07/12/31 23:57:30
なんか細かい話はよくわからんが、例えばスパコンだって汎用的に使えるわけじゃないけど「速い」んだから
一般的にどうこうってのは、あんまり意味がない気がする。

290:デフォルトの名無しさん
07/12/31 23:59:51
スパコンには、一般的に評価できる計算プログラムが有りますよ。

291:デフォルトの名無しさん
08/01/01 00:02:05
その評価プログラムの結果なら正当な評価なの?

292:デフォルトの名無しさん
08/01/01 00:07:16
ランキングが世界的に認められてるから正当だと思われ。
ちなみに、君のPCでも実行できたはず。

293:デフォルトの名無しさん
08/01/01 00:09:26
意味が通じてないみたいだからいいや。お休み。

294:デフォルトの名無しさん
08/01/01 00:09:37
ニューラルネットは、それが間違いなく動作するのかどうかテストするのが難しいから、
市販品には採用されることはほとんどない。
しかし、最先端のロボットなどには積極的に使われているよ。

295:デフォルトの名無しさん
08/01/01 08:01:00
ニューラルネットって効率悪いよな

296:デフォルトの名無しさん
08/01/02 00:13:36
>間違いなく動作するのかどうかテストするのが難しいから
これは目的による.したがって,
>市販品には採用されることはほとんどない
これは誤り.学習させたNNの機能は簡単にテストできる.

297:デフォルトの名無しさん
08/01/02 00:17:49
>>296
不可能。
NNのテストはすべての取りうる値を入力しなければならないから。

298:デフォルトの名無しさん
08/01/02 00:19:34
>>296
テストのことを知らないnoobかもしくは
研究室から一歩も出たことないボンボンですか?

299:デフォルトの名無しさん
08/01/02 00:20:57
>NNのテストはすべての取りうる値を入力しなければならない
え?

300:296
08/01/03 09:49:19
あのな,離散値でしか使わないNN応用も一杯あるの
それに連続値でも「分解能」ってのがあるの
コンピュータを知らない純粋数学屋さん?

301:デフォルトの名無しさん
08/01/03 19:41:48
296の言いたいことは分かるけど、
網羅テストが簡単に出来るような問題は
NNに向いてないんじゃないかな?

で、組み合わせ爆発が起きるような問題に対しては
テンプレートデータを出来るだけ多く持ってきてテストするしかないから、
「テストが難しいから~」っていうのは結局どんな手法にも当てはまるんだよね。
結局、NNがそう言われるのは過程がブラックボックス的というか
人の直感から遠いから、気持ち悪いって事だと思う。

302:デフォルトの名無しさん
08/01/03 19:59:58
まぁ,テスト云々っていったら
「熟練工が作る鋳物は必ず成功しているか?一度ためしに使ってうまくいったから成功といえるのか?」
というもんだからな

303:デフォルトの名無しさん
08/01/07 21:18:23
>網羅テストが簡単に出来るような問題は NNに向いてないんじゃないかな?
実際にそういう応用が多いという事実が答えでしょう
これは俺の推測だが,実際の応用は組込みシステムでのデータ量や計算量の圧縮的な用途が多い様な気がする
普通のやり方でもできるけど表が大きくなるとか計算に時間が掛かるとか

304:デフォルトの名無しさん
08/01/07 21:33:50
>>303
確か前に計算したことがあるが、適切なアルゴリズムを用いればNNよりもあらゆる面で効率的に処理可能だったと思うぞ。

305:デフォルトの名無しさん
08/01/08 01:28:54
そりゃハードと問題(必要な機能)に依存するはず
常に成立するとは思えないし,少なくとも証明は不可能だろう
32 or 16 bit 程度の積和演算だけはやたら速いプロセッサもあるし

306:デフォルトの名無しさん
08/01/08 11:16:49
積和演算といえばDSPか

307:デフォルトの名無しさん
08/01/08 15:03:19
最近?はマルチメディアプロセッサなんてのもあるな

308:デフォルトの名無しさん
08/01/08 15:05:54
>>306
携帯v.sニューロというわけか

309:デフォルトの名無しさん
08/01/08 22:16:01
>>307
CELLでNNやると速いのか?

310:デフォルトの名無しさん
08/01/08 22:26:52
>>309
浮動小数点数演算に特化して、しかもマルチコアだから、
それように作ったプログラムなら普通の数十倍出るかもね。
ただし、計算順序を工夫したりする必要はあるだろうけど。

311:デフォルトの名無しさん
08/01/08 22:30:36
CELLクラスタに俺の脳を移植してよ

312:デフォルトの名無しさん
08/01/08 23:28:54
それはいい考えだな
まずはコンパクトな脳から試すのがいいね

313:デフォルトの名無しさん
08/01/08 23:32:15
さて、そろそろ論文締め切りが間近だが、
切羽詰った状況でなぜか部屋の掃除がしたくなるのは俺だけではないはずだ

314:デフォルトの名無しさん
08/01/08 23:42:55
俺も現在似たような状況だがドラクエIVのDS版を始めてしまった。

315:デフォルトの名無しさん
08/01/09 01:52:24
>>314
あ~そりゃもうやめられないな
お前、今回は落としたな

316:デフォルトの名無しさん
08/01/09 01:56:36
代わりに書いてやろうか

317:デフォルトの名無しさん
08/01/09 03:22:08
ニューラルネットで、論文生成するプログラム組んだらいいんじゃない?

318:デフォルトの名無しさん
08/01/09 08:12:51
>>317
お前マジ頭いいな。

319:デフォルトの名無しさん
08/01/09 10:59:54
>>317
論文の内容を悩むところだが、
ニューラルネットで論文生成するプログラム組む方法を論文にすればいいんじゃね?

320:デフォルトの名無しさん
08/01/09 11:08:35
>>319
NNじゃないが、そういうのは前に発表されてたな
URLリンク(pdos.csail.mit.edu)

321:デフォルトの名無しさん
08/01/17 07:21:32
生データから抽出すべき特徴量を決定する指針ってある?
あれば教えて欲しい

322:デフォルトの名無しさん
08/01/17 11:39:20
主成分分析

323:デフォルトの名無しさん
08/01/17 11:39:44
あ,判別分析の方がいいかも

324:デフォルトの名無しさん
08/01/17 12:54:47
なるほど
ググって調べてみる
サンクス

325:デフォルトの名無しさん
08/01/22 23:36:24
ニューラルネットワークで密や疎というのはどんな事を意味するんですか?

326:デフォルトの名無しさん
08/01/23 03:25:24
スパース表現のことか? それなら
「神経回路網モデルとコネクショニズム」甘利俊一 [補稿]黒崎政男
東京大学出版会 認知科学選書22 ISBN4-13-013072-2 1989年初版
の 5.4 スパース符号化による連想記憶
が参考になる.図書館で探して

327:デフォルトの名無しさん
08/01/23 07:27:44
それみたいです
本も調べてみます
ありがとうございます

328:デフォルトの名無しさん
08/01/23 20:51:28
本が見つからない場合に備えて簡単に書いておくと,
データをどの位粗く表現するかってことで(マンマや),
例えば0~15の整数を4bit(4本)の二進数で表現するのは(情報量的に)最も密な表現.
これに対し,入力の線を16本用意してそのどれかを1にするのはやや疎な表現.
100本位用意して適当な数本(一本もあり)を1にするのは疎な表現.
1000本だと凄く疎な表現(こういう区別そのものは厳密ではないし,決まっているわけでもない).
大切な事は,疎な表現を採用すると連想記憶のの記憶容量を増やすことができる点.
BP学習の場合は収束が速くなる(密な表現だと凄く収束し難いことは経験的に良く知られていた).

329:デフォルトの名無しさん
08/01/23 21:42:00
なるほど~
すごく分かりやすい
ありがとうございます

330:デフォルトの名無しさん
08/01/24 19:02:04
ニューラルネットワークでの株価予測について質問です
いくつかの論文で,予測株価と実際の株価の誤差を取るのではなく,方向一致率と呼ばれるもので判断しているんです
方向一致率は,上下変動が一致した回数を予測した回数で割ったものです
これって単純に誤差を取るよりもどんなメリットがあるのでしょうか?
ソースはあっても無くてもいいので,どなたか教えてください

331:デフォルトの名無しさん
08/01/24 19:26:55
>予測株価と実際の株価の誤差
は評価でき(るほど上手くいか)ないから代わりに使ってるんだと思われ

332:デフォルトの名無しさん
08/01/24 19:40:23
>>330
質問には答えられないのだが、参考までに
ニューラルネットを使った株価予測の論文を読んでみたいです。
よければ、ポインタを教えてください

333:デフォルトの名無しさん
08/01/24 22:46:48
>330
株を売り買いして利益を出すには株価そのものを予測する必要はなく
その時点から直近で上がるか下がるかだけ予測できれば良いから。

実用的に必要最小限の予測をしている(方が予測が当たりやすい)から
だと思われ。まあ、変動があまりに小幅なら売買手数料のために逆に
損する可能性もあるが。

334:デフォルトの名無しさん
08/01/25 16:14:45
GPUを使った実装というのに挑戦してみた。
オライリー本のAI入門に載ってる内容を弄っただけだし
CPU版の実装よりクソ重いしと散々だけど動いてくれて嬉しいぜ…。
チラ裏

335:デフォルトの名無しさん
08/01/28 09:11:15
ニューラルネットワーク
URLリンク(zoomtv.atspace.com)

336:デフォルトの名無しさん
08/01/28 10:38:40
上がるか下がるか当てるだけを評価するなら
ぶっちゃけ学習自体も regression じゃなくて classifier で良いような?

337:デフォルトの名無しさん
08/01/28 17:19:14
ところで、データの娘の名前が思い出せない。

338:デフォルトの名無しさん
08/01/29 01:01:48
>>334
へぇ、そんなのできるんだ。
昔ちょっとだけDirectXいじってたんだけど、どうやってしてるの?
最近のGPUだったらピクセルシェーダーとか使ってるのかな。
もしデバイスのIOを直接叩いてるんだったら、かなりのもんだね。

339:デフォルトの名無しさん
08/01/29 08:30:21
shaderだろJK

340:デフォルトの名無しさん
08/01/29 09:54:31
GPGPUだね

341:デフォルトの名無しさん
08/02/01 16:49:06
ニューラルネットワークのプログラムを組んでみたんですが、バグのせいかどんな入力に対しても同じ値しか返しません
原因としてどのようなことが考えられるか、教えていただけないでしょうか?


342:デフォルトの名無しさん
08/02/01 16:52:10
だったらソース晒しなよ

343:デフォルトの名無しさん
08/02/01 16:58:38
>>334
CPUより遅かったら意味ないじゃんw
でも、素子数が増加しても並列計算でスピード変わらん!とかあるのかな?

344:デフォルトの名無しさん
08/02/01 17:11:43
void back_propagation()
{
int i,j;
double dih[Hneuron],dho[Oneuron]; //誤差
double sum;

for(i=0; i<Oneuron; i++){
dho[i] = signal[i] - oout[i]; //出力層の誤差の計算(出力はシグモイド関数にかけてない)
}

for(i=0; i<Hneuron; i++){ //出力層の重み修正
for(j=0, sum=0; j<Oneuron; j++){
dwho[j][i] = ( Eta * dho[j] * hout[i] ) + ( Alpha * dwho[j][i] );
who[j][i] += dwho[j][i];
sum += ( dho[j] * who[j][i] );
}
dih[i] = hout[i] * ( 1 - hout[i] ) * sum; //中間層の学習信号
}

for(i=0; i<Oneuron; i++){ //出力のしきい値修正
dothreshold[i] = ( Eta * dho[i] ) + ( Alpha * dothreshold[i] );;
othreshold[i] += dothreshold[i];
}


345:デフォルトの名無しさん
08/02/01 17:12:35

for(i=0; i<Ineuron; i++){ //中間層の重み修正
for(j=0, sum=0; j<Hneuron; j++){
dwih[j][i] = ( Eta * dih[j] * iout[i] ) + ( Alpha * dwih[j][i] );
wih[j][i] += dwih[j][i];
sum += ( dih[j] * wih[j][i] );
}
}

for(i=0; i<Hneuron; i++){ //中間層のしきい値修正
dhthreshold[i] = ( Eta * dih[i] ) + ( Alpha * dhthreshold[i] );
hthreshold[i] += dhthreshold[i];
}
}

コンパイラはBCCを使ってます。


346:デフォルトの名無しさん
08/02/01 17:36:31
>>341
ソースまだ見てないけど、学習後の重みをファイル出力してみて、
全部0とかになってたら、BPの実装ミス。
そうでなかったら、全部同じ出力とかにはならないだろうから、
入出力間の伝搬のミスってことになる。

347:デフォルトの名無しさん
08/02/01 19:00:55
重みがそれっぽい感じになってて、出力も学習元のデータからして異常とは言えない数値になってます。

具体的には、
学習させた結果の重みを別のプログラムに読ませて、foward propagationだけを行って予測させる。
その予測された結果を入力の一部として使って、さらに次の予測をさせる
という風にしているのですが、最初の予測結果と2番目以降の予測結果が全く同じになります。


何回学習させても重みが変わらなかったり、1回目だけ変わってその後変わらなかったりするのでback propagationに問題があると思って途中の重みやその変化量を表示させているのですが、原因の見当がつかず困っています。




348:デフォルトの名無しさん
08/02/01 20:03:54
>dho[i] = signal[i] - oout[i]; //出力層の誤差の計算(出力はシグモイド関数にかけてない)
そもそもこれが許されてるのかどうか俺は知らんのだが、

>dih[i] = hout[i] * ( 1 - hout[i] ) * sum; //中間層の学習信号
シグモイド通してないなら x*(1-x) が出てくるのはおかしくね?

349:341
08/02/01 20:08:23
>>348
中間層の出力はシグモイド関数にかけてるのでそこはあってると思います

350:デフォルトの名無しさん
08/02/01 20:47:11
> dwho[j][i] = ( Eta * dho[j] * hout[i] ) + ( Alpha * dwho[j][i] );

dwho[j][i]決めんのにdwho[j][i]使ってるけどこれっていいのかな?
時系列扱わせているみたいだから、前時刻の修正量を重みAlpha反映させたりしてるの?

あと気になるのは、sumに足しこむのがwhoとかの修正前な気がする。
まあ、自分のコードと大分違うんでわからんけど。

多少面倒だが、いきなり目的のデータ使うんじゃなくて、
y = sin(x)のような既知の単純な学習データで検証するのも手かもしれない。


351:デフォルトの名無しさん
08/02/02 03:37:33
しきい値に関しては定数入力を用意して重みで実現する方が
プログラムがすっきりするし高速化し易いから定石なんだよね

この実装は普通のとかなり違うからコードだけじゃ分からないねぇ
元の式から書いた方がいいと思われ
元式の微分周りにはミスはない?

352:341
08/02/02 23:38:31
すいません。
BPではなく、最初に重みとしきい値を乱数生成する部分の範囲がおかしかったようです。
ご迷惑おかけしました。


353:デフォルトの名無しさん
08/02/02 23:40:38
>>323の判別分析をググってみたんだが
これでNNに入力する特徴量を選択をする場合、
あるデータに対して特徴量ごとに判定結果を算出して
その結果をもとに特徴量の有効性を計算するの?
それとももっと正確な指標が数値で出るの?

354:デフォルトの名無しさん
08/02/03 20:06:50
>生データから抽出すべき特徴量を決定する指針
の話だったから(分類用なら)判別分析で固有値が大きい方から順に
と思ったのだが.
学習済みの NN の隠れ層に形成された特徴の寄与率を評価するのは
また別の話になると思う
定番というのは知らない(あるのか?)が,
例えばあるニューロンを一個切り離して成績を比べるとか

355:デフォルトの名無しさん
08/02/07 14:49:34
今回の卒検でjooneとかいうjavaのニューラルネットワーク・ライブラリを使おうとしてたんだが、
正直失敗した。
がんばって英文を読んだにもかかわらず、使いにくい設計、やる気をそぐスペルミス(cycle->cicle)など、
三日がんばったんだが、結局自作のプログラムに戻した。
そしたらやろうとしてたことが十分ぐらいでできてまた泣いた。

もうこの際みんなでオープンソースのライブラリ作らない?

356:デフォルトの名無しさん
08/02/07 15:31:42
面白そうだとは思う。
しかし言いだしっぺが大まかな仕様や実装例を上げないとgdgdになる法則。

357:デフォルトの名無しさん
08/02/07 22:27:12
俺はニューラルネットに全然詳しくないのだが、
こういう分野の理論ってライブラリ化できるものなんでしょうか?

俺みたいな詳しくなくてもコンポーネント的に簡単に使えるようになると、
すごく面白そうな悪寒。

358:デフォルトの名無しさん
08/02/07 22:45:06
haskellのfgl使ってろや
ニューラルネットとか言っても所詮はグラフ

359:デフォルトの名無しさん
08/02/07 23:56:23
日本語でOK

360:デフォルトの名無しさん
08/02/08 00:02:15
まだ大学1年生でコンピュータサイエンスは素人同然なのですが、
ニューラルネットって重み付きグラフというものとは違うものなのですか?

361:デフォルトの名無しさん
08/02/08 01:01:53
>360
ただの情報(データ)表現の一種であるグラフ(重み付きでも)と
情報処理装置であるニューラルネットをどうやったら混同できるんだ?

362:デフォルトの名無しさん
08/02/08 01:09:37
時間という流れるものに犯されすぎ

363:デフォルトの名無しさん
08/02/08 01:21:11
え、ぜんぜん関係ないんですか?
ニューラルネットは重み付きグラフで表現できない??

364:デフォルトの名無しさん
08/02/08 03:58:44
接続関係だけ表現しても道路地図や路線地図と何も変わらん

365:デフォルトの名無しさん
08/02/08 04:26:00
簡約によって副作用が生じる場合と生じない場合で「表現すること」と「計算すること」の同値性が崩れる場合があって,
「表現するだけでは足りないのだよ・・・副作用は表現では現れない」という結論を導きたかった.
具体的に言うと「ニューラルネットワークは重み付グラフで表せますか?」は
「ニューラルネットワークは自身の重みを時間の推移に従って書き換えていく(副作用)があるので,あらわせない」だ.

で,簡約で副作用を容易に持ち込めるlispを使って例を挙げたかったがあきらめた(^p^

重み付き非決定性グラフとかあれば表現可能かも

366:デフォルトの名無しさん
08/02/08 04:33:17
>>365
別にそういうアルゴリズムは副作用なくても表現できるんじゃないの。

367:デフォルトの名無しさん
08/02/08 04:47:05
だって、NNの推移って、グラフからグラフへの関数を一定時間ごとに呼び出すだけでしょ?

368:デフォルトの名無しさん
08/02/08 05:00:35
どうやら「表現」に関して認識の差があるみたいだ

語彙が足らなくてうまく伝えられないから引っ込むぉ

369:デフォルトの名無しさん
08/02/08 10:16:18
ニューラルネットにとって時間の推移(時間発展)は
本質的だと思うけどな。
そういう意味で(副作用の無い)関数とは全く異なる。

そう言えば「副作用」って大抵、時間に関係してるな。
「時間」の推移による変化も完全に記述できる「述語論理」が
まだ発明されていないと言うのが大きいのかな?

370:デフォルトの名無しさん
08/02/08 10:33:04
>>369
たとえば、Haskellの場合はIOモナドに処理手順を閉じ込めてしまえば、main関数の終了時に順番に実行してくれる。
遅延評価だから、停止しない処理も記述可能。
1ms毎に関数を無限に適用し続けるといった処理も(言語仕様上では)副作用なしに記述可能。

371:デフォルトの名無しさん
08/02/08 10:55:17
>>369
たしかに、そうだな。
仕様記述言語のZという言語を研究で使ったことがあるが、たしかに時間に関する記述はできなかった。

372:デフォルトの名無しさん
08/02/08 11:15:48
>370
うん。
しかしHaskelの場合であっても時間による副作用を
全てI/O処理(言語仕様の外側)に閉じこめているだけであって、
時間発展(副作用)のある系の記述を無い系の記述に
全て変換してしまえるわけじゃないだろう?

373:デフォルトの名無しさん
08/02/08 11:27:57
>>370
時間見てワロタ
お前いつ寝てんの?w

374:デフォルトの名無しさん
08/02/08 12:17:46
結論として
「副作用の全く無い関数型言語のみで記述できるアルゴリズムでは
時間発展のある系の完全なコントロールはできない」のだと思う。
コントロールしようとするとどうしても
アルゴリズムの中のどこかで副作用を意識せざるを得ない。

375:デフォルトの名無しさん
08/02/08 12:58:42
>367の間違いはニューラルネットの重み付け更新
(NNの推移)はその出力に依存する事を忘れている事だと思う。
即ちNNの機能は処理の時間的順序関係に強く依存している。

376:デフォルトの名無しさん
08/02/08 14:24:56
昔々,Prolog で I/O もバックトラックしたら
という話を思い出した

377:デフォルトの名無しさん
08/02/08 16:48:58
ちょっと訂正
>375は「NNの推移はその入力に依存する」がより正しいな。
入力がすべて既知とするなら出力は先に計算できるわけだから。
提示される未知の入力に対して(その一部を)記憶し
適応するからこそ時間依存の(時間で発展する)系なわけだ。

378:デフォルトの名無しさん
08/02/08 17:58:01
もうひとつ結論
「記憶し、学習し、適応する」=「副作用」

379:デフォルトの名無しさん
08/02/08 20:05:32
結局、NNのデータ構造はグラフってことでOK?

380:デフォルトの名無しさん
08/02/08 20:35:19
>379
いき値固定でかつ各ニューロンの情報処理(計算)機能を
省略して表現するなら。
また静的な重み付きグラフならある時点での
(データ構造の)スナップショットと言う事になるな。

381:デフォルトの名無しさん
08/02/08 20:58:18
それNNじゃないしw

382:デフォルトの名無しさん
08/02/08 21:39:53
もちろん静的重み付きグラフはニューラルネットそのものではない。
ただし処理のアルゴリズムとは区分されたデータ構造では有りうる。
条件付きでだが。

383:360
08/02/08 21:47:24
ノードのラベルに閾値を割り当てればいいですか?

384:デフォルトの名無しさん
08/02/08 22:14:39
>383
純理論的にはそう思うけど。
ただBPとか実装しようと思うと他にもいろんな変数を使う必要が出てくると思う。
各ニューロン毎に保持したり、恒常的に保持する必要は無い変数だろうけど。

385:360
08/02/08 22:27:23
>>384
その点は問題ないと思いますよ。
ノードのラベルの型を代数的データ型にするか、ペアで表現すればよいと思います。

386:デフォルトの名無しさん
08/02/09 19:08:28
学習によって全体的な誤差を小さくしていくと、最大の誤差は逆に増えていくのですが
この問題を解決する手法って何かありませんか?


387:デフォルトの名無しさん
08/02/09 20:16:45
全体的な誤差って何? 最大の誤差って何?
解決って具体的にどういうこと?

388:デフォルトの名無しさん
08/02/10 14:44:32
総誤差関数の値が小さくなるように学習を続けると
特定の入力バターン(誤差が最大のもの)に対する誤差が
逆に大きくなると言う事でしょう。

その入力だけ元々パターンから外れている
(ノイズが乗っている)て事は無いのかな?

389:デフォルトの名無しさん
08/02/10 15:14:01
解決したいってのが,
それも含めてフィットさせたい
ってことなら考え直した方がいい

390:デフォルトの名無しさん
08/03/06 23:30:51
ちょっと前にGPU(GPGPU?)使ってNN動かしたって人がいたけど、
世間的にもそういう動きがあるみたいだね。

GPGPUのキラーアプリケーションは「グラフィックス」 - @IT
URLリンク(www.atmarkit.co.jp)

早めにフレームワークでも一つ作っておけば広く普及するかも。

391:デフォルトの名無しさん
08/03/08 20:36:24
ニューラルネットを使った株価予想って具体的にどうやってるんですか?

392:デフォルトの名無しさん
08/03/08 21:03:05
現在から過去何単位時間かの株価の推移の情報を入力し、次の単位時間での株価を出力

393:デフォルトの名無しさん
08/03/08 22:46:50
>392
なるほど、ありがとうございましたm(_ _)m


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch