09/04/17 21:48:15
一般的に人がプログラムするニューラルネットワークは学習するものであって、
思考するものではない。そのぐらいワカレ!!!
学習したことは、単に情報をコピーするのと同じ。
つまり学習のさせ方が重要であって、学習で何を与えるかが重要ってことだ。
その構築に意味があるわけでNNの仕組みには何も意味はない。
情報データベースの構築を学習によって行うのが今のNNであり、
それは自律思考するモデルではないのは明らかだろ。ワロス。
472:名無しさん@5周年
09/04/18 15:56:23
>>471
えー?学習とコピーっておなじなの?
ニューラルネットワークにおける学習って、結合加重と閾値の変更を指すはずだよね。
この結合加重と閾値の変更の仕方はネットワーク構造に依存する面があるんで
NNの仕組みそのものもとっても重要だよ。
NNの本分はある種のDB構築じゃなくて
同じ構造での違う論理回路の構築だとおもうよ
自律思考っていうのがなにを指してるかわからないけど
教師なしでの学習モデルっていみなら、NNでもできるとおもうよ
473:名無しさん@5周年
09/04/18 17:25:14
Nuwronオブジェクト
setShikiiti(x)メソッド
474:名無しさん@5周年
09/04/30 08:29:32
学習はコピーと言えばコピーだけど、汎化を目的にモデルによる表現に圧縮するんだよね。
まんまコピーするのが最近傍法だけどこれは次元が上がると汎化能力が急速に低下しちゃう。
これに対してニューラルネットは次元上がっても割りと性能が良かったりしたから、カーネル法とか混合分布が活発に研究されてきたわけです。
475:名無しさん@5周年
09/08/28 08:28:41
NN法は因子を人が与えて、重みを与えますが、因子を抽出することって可能でしょうか?
また『因子を抽出する』ってNN法の分野では何と呼ばれていますか?特徴量抽出?
476:名無しさん@5周年
09/08/29 19:39:25
単に変数を選択するのは線形回帰の変数選択(モデル選択)で、ニューラルネットはパラメトリックな基底関数を、学習後の基底関数の出力が予測に有効になるように学習します。
なので学習後の基底関数の出力は、予測に有効な変数(特徴量)になってます。理想的には。
特徴量抽出(変数選択)ではBoostingと呼ばれる手法も最近はよく使われてるようです。
477:名無しさん@5周年
09/09/01 08:33:41
なるほどフーリエ級数を使ったやり方なのですね。
ありがとうございました。人が因子を与えずに、勝手に因子を見つけてくれることはできないですか?
478:名無しさん@5周年
09/09/01 09:21:37
ある程度制限した枠の中でランダムに因子を作りながら、情報量規準やクロスバリデーションを用いて有効な因子を探索する研究もあります。
ただ、因子の作り方を決めると作り出される因子集合が定まるので、有効な因子を自動的に作り出すというのは作り出された因子集合から有効な因子を選択することと等価です。
非常に多くの因子の候補から有限の学習サンプルに対して有効に見える因子を選ぶ場合、たとえ情報量規準やクロスバリデーションを用いたとしても、学習サンプル上で「たまたま」うまくいく因子が選ばれる可能性が出てきてしまいます。
なので、どうしても統計というのはモデリング、すなわち想定する因子集合の制限というのが必要なんです。
先ほど述べた「ある程度制限した枠の中でランダムに因子を作りながら有効な因子を探索する手法」も、「制限した枠」というのが「因子をこういう風に作った集合の中によい因子があるだろう」というモデリングになっています。
479:名無しさん@5周年
09/09/02 17:57:11
形の輪郭を認識するには、2値化して形状データを、3層ニューラルネットに学習させればよいのは理解しています。
では、軍隊の配置のパターン(軍隊の種類は5種類とする)を理解するには何層必要なのでしょうか?
(5種類なので2値化できない場合)
480:名無しさん@5周年
09/09/03 00:09:19
5値化すればおk
481:名無しさん@5周年
09/09/03 08:48:53
三角形の図形を(回転や拡大縮小はすでに完了し終えて)認識したときに、その形から言葉『三角形』を出力する方法は可能でしょうか?
入力は画像なので複数ですが、出力は1つです。
482:名無しさん@5周年
09/09/03 22:59:47
>>481
出力が閾値超えたら発声ルーチン呼ぶのじゃだめなのか?
まさかNNで喋らすわけじゃないよな?
483:名無しさん@5周年
09/09/04 07:26:20
>>482
ありがとうございます。
複数の入力(図形)に対して、単数の出力(言葉)が可能なのかということと、
図形→言葉とまったく違うものを教師付き学習して『関連付ける』ことが可能なのかを知りたかったのです。
484:名無しさん@5周年
09/09/15 17:52:17
重回帰分析において、よくにた説明変数を使って分析すると多重共線性が発生しますが、
NNではよく似た入力信号を入れても不具合は発生しないのでしょうか?
485:名無しさん@5周年
09/09/16 08:24:40
線形回帰で多重共線性が問題になるのは、変数同士が似ているほど
一つのサンプルから得られる情報が少なくなるにも関わらず、
学習モデルは変数と同じ数のパラメータを持っているために、
学習サンプルが多くないとおかしな推定になってしまうことです。
同じ理屈はニューラルネットにおいても成り立ちます。
変数を選択せずにモデルの自由度を抑える方法として、
正則化と呼ばれる手法が線形回帰でもニューラルネットでも用いられます。
486:名無しさん@5周年
09/09/19 00:24:49
>>468 がんばれ!って続いてるかな?
487:名無しさん@5周年
09/09/19 01:55:07
ただはたしてANDやORを接続で実現するコネクショニズムが知能に繋がるんだろうか
甚だ疑問のような気もする
488:名無しさん@5周年
09/09/19 08:08:46
でもプリミティブな生物ってルールベースで動いてるように見えるよね。
ルールベースのオバケみたいのが知能、としたら知能につながりそうだけど、意識の有無となると似非科学まっしぐらですね。
489:名無しさん@5周年
09/09/19 08:42:05
意識は有り無しの二値ではなくて、どれくらい有るかの程度問題だと思う。
意識の上限はないけど、意識の最小単位はand一個と考えても構わないと思う。
一般的に、意識の定義が倫理・道徳・宗教的な思想に偏りすぎ。
健全なヒトの意識レベル以上を意識と定義するのは曖昧で傲慢すぎると思う。
では意識の下限はどこだよ?って話なんだが。
490:名無しさん@5周年
09/09/23 15:43:36
知能や心は、あくまでも第三者からみてのこと。
実は人間は単なる法則に基づいて動いているだけ。
その法則が環境によって学習され人によって個々にルールが若干違い、複雑なだけ。
491:名無しさん@5周年
09/09/23 18:21:15
問題になってるのはそんな誰でも知ってるような大づかみの話じゃなく
どうやってその個別の違いが出来るようなルール作りをしているかの
処理の流れでしょ