17/07/03 12:29:52.64 b174092u.net
株価やレートのみ見ていたのでは効果はないのではないでしょうか?
128:デフォルトの名無しさん
17/07/03 12:31:50.56 v5BZipuQ.net
効果があるなら数学者はみんな儲かるわ。
でも儲かるのはいつも同じ人。
もう分るな。
129:デフォルトの名無しさん
17/07/03 13:33:55.82 HEhpa5f1.net
>>105
NNを使用するのならばデータ数は少なくとも変数の10倍程度必要と言われている。
仮に夢ロトくんが故障、操作によって何かの傾向があると仮定したとしても
抽選回数は約1200回
130:しかないので、 例えば2層 37*(37+1)などの浅いNNさえも作れない。 .
131:デフォルトの名無しさん
17/07/03 17:53:49.49 gj6VXYVk.net
>>122
そんな感じでは全然ないだろ、>>90 によれば
chainer/pytorch から見たら keras は雲の上。勝負になってない。
さらに高くそびえるのが TF。
>>123
過去の累計だからな、caffe が一時代を築いたのは事実。
132:デフォルトの名無しさん
17/07/03 17:58:23.96 zC9Cqrhm.net
>>128
90によるなら、Chainerとpytorchだって勝負になってないじゃんw pytorchのほうが全然多い
133:デフォルトの名無しさん
17/07/03 18:02:13.74 zC9Cqrhm.net
ChainerとSonyのブービー争いを楽しもうぜw
134:デフォルトの名無しさん
17/07/03 18:06:04.45 pwON9Qde.net
>>122
こういうレスに騙されちゃうのよ、おれみたいな初心者は …
135:デフォルトの名無しさん
17/07/03 18:08:30.08 vcoTxmTL.net
>>127
>NNを使用するのならばデータ数は少なくとも変数の10倍程度必要
データによる
ピークがいっぱいあるなるなら、その分多くのデータが要る。学習させてみないとわからん
136:デフォルトの名無しさん
17/07/03 19:13:41.26 toSXQsZw.net
kerasは過大評価されてると思うな。
TFのネームバリューに乗っかってるが、設計思想は大したことない。
と研究でChainerを使ってる者としては思うのだけど、正直なところニューラルネットはほとんどライブラリ化しちゃってて、
一般的に求められている多くの問題はkerasで片付いてしまうというのも事実
137:デフォルトの名無しさん
17/07/03 19:19:52.84 +K6Ir76j.net
>>124
ロト6のディープラーニングによる予測って効果あるの?
138:デフォルトの名無しさん
17/07/03 19:24:31.33 Lbjam2Yy.net
可能性があるとしたらRL
DLじゃ絶対に無理
139:デフォルトの名無しさん
17/07/03 20:16:23.28 wdzywS1w.net
>>127
作るって何を指してる?
ネットワークを作るのはデータするに関係なく作れる
学習出来ないと言う意味?
学習には重複したデータも使えるんじゃね
まあロト6とかをNNで学習させようとするのは
統計の基本すら判ってないとは思うけど
140:デフォルトの名無しさん
17/07/03 20:20:53.45 wdzywS1w.net
>>124
証券会社は1/1000秒ごとのデータを使って5分後の値を予測して自動売買してるとかAIをテーマにしたNHKスペシャルでやってた
DLかどうかわからないけど
141:デフォルトの名無しさん
17/07/03 20:24:57.93 m12C+weD.net
>>137
その手の話よく聞くけど胡散臭さが
142:デフォルトの名無しさん
17/07/03 21:15:36.75 3OPqACeL.net
証券会社なんだから、アルゴリズムというか特徴量の中にトレーダーの意見の項目も入れた上でモデルを作ってるでしょ
143:デフォルトの名無しさん
17/07/03 21:25:02.03 vcoTxmTL.net
証券会社をスポンサーにしてる機械学習サービスって胡散臭いよな
証券会社は取引手数料を収入源にしてるから投資家が儲かるかじゃなくて取引回数最大化を狙ってるところだ。
144:デフォルトの名無しさん
17/07/03 21:33:08.03 q/rzijlj.net
>>136
ロト6とかひどく勘違いしてるよね。。。
こういう理解しちゃってるのは少なくない。
145:デフォルトの名無しさん
17/07/04 01:09:30.03 7F314h5p.net
1/1000秒ごとのデータを使って5分後の値を予測して
これどういうことだろう
146:デフォルトの名無しさん
17/07/04 01:47:21.09 48gcNEwZ.net
何が?予測できると言ってるのでは?
147:デフォルトの名無しさん
17/07/04 04:49:25.99 aF9pO9Y3.net
黙ってChainer弄ってろ馬鹿が
148:デフォルトの名無しさん
17/07/04 12:50:31.33 532e4DZh.net
>>142
どう解釈した?
149:デフォルトの名無しさん
17/07/04 15:43:50.86 Xjwmmyoy.net
>>140
FXなんってのもそうだね。
150:デフォルトの名無しさん
17/07/04 19:42:24.88 wEcfd6lv.net
TFliteはどれくらい軽いのかね
151:デフォルトの名無しさん
17/07/04 22:11:58.15 HgmA0p17.net
羽毛のような軽さです
152:デフォルトの名無しさん
17/07/04 22:39:03.55 7F314h5p.net
>>145
1/1000秒ごとのデータっていうのが
データのタイムスタンプが1/1000秒単位なだけですー、だったら意味わからん
真面目に1/1000秒刻みの1秒あたり1000個のデータ群だとしたら
そこまで高精度に本当に記録できんのとかそれを時系列で学習なんて㌧でもない状況じゃないかとか
一言でいって、よくわからん
153:デフォルトの名無しさん
17/07/04 23:13:20.62 nDffydz0.net
バカばかり
154:デフォルトの名無しさん
17/07/04 23:38:23.48 1+0ITssY.net
自分はFXとか長くやってたけど、FXには昔から自動売買ソフトがあって
実際、過去には儲かり過ぎて取引会社から出入り禁止になったようなソフトもある
その儲かり過ぎたソフトのロジックはというと、値動きの少ない通貨ペアを選択して
欧米の投資家が寝てるような、絶対に値が大きく動かない時間帯を狙ってひたすら逆張りするような内容だった
ロジックからして機関投資家みたいな大きな資金で取引できる内容じゃなくて、機関投資家の参入を招かないから余計に儲かったっぽい
要するに、個人でやる分には、そういうニッチなパターンを探す方法としては機械学習は有益なんじゃないかな
155:デフォルトの名無しさん
17/07/04 23:48:30.49 1+0ITssY.net
あとFXにはカーブフィッティングという言葉があって、
自動売買ソフトを売る詐欺師が良くやる手法だけど
過去データを使って取引したらこんなに儲かったとかいうデータを出したりするんだけど
実際に運用すると全く儲からないどころか大損するんだよね
ロジックを過去のデータにフィットさせ過ぎていて、将来のデータには全く通用しないんだよね
そのあたり、機械学習ってどうやってるの?
156:デフォルトの名無しさん
17/07/04 23:52:55.38 wMo7JAXZ.net
どうもなにもさ、
それ交差検証無しで独立変数増やしまくっただけでしょ
157:デフォルトの名無しさん
17/07/04 23:53:46.33 wMo7JAXZ.net
機械学習はトレーニングとテストにデータ分割して精度示すってことするから
158:デフォルトの名無しさん
17/07/04 23:53:53.49 r7qEdRE1.net
プログラム板で一番高卒が集まるスレになっちまったな
159:デフォルトの名無しさん
17/07/04 23:54:23.67 fu/xUdJb.net
>>137
気配からトレーダーの癖を読み取って売買量を推測して
コロケーションで不利なやつの先回り
後は複数市場が同期するラグを利用して、自社のダークプールの注文を微妙に釣り上げたり癖みたいなことしてたね
特にクレディ
160:デフォルトの名無しさん
17/07/04 23:56:54.22 7F314h5p.net
>>151-152
そもそもFXはサーバ負荷と金融商品取引法等関係法規制の面で個人投資家によるサードパーティ自動売買ツール使用を禁じてるのがデフォでは
挙句に儲かり過ぎて禁止というのがもう意味がわからん
161:デフォルトの名無しさん
17/07/05 00:08:33.73 0dCwxFeI.net
>>157
今は良く知らんが昔は全くそんなことなかったぜ
儲かり過ぎて禁止ってのはね、FXの取引会社って株と違ってノミ行為ができるんだよ
顧客の利益=FX会社の損みたいな
特別な取引の場があるわけではないし、顧客の注文の全てをどこかの公的な市場に流さないといけないというわけではない
それと、そのソフトに関していうと、取引量の少ない時間帯を狙い撃ちで事自体が問題視された
162:デフォルトの名無しさん
17/07/05 01:39:03.65 uOGWwv8x.net
フィンテック()板に行ってくれ、頼むわ。
163:デフォルトの名無しさん
17/07/05 03:32:18.32 yvyuQYAC.net
ブロックチェーンも熱い題材だ
164:デフォルトの名無しさん
17/07/05 04:11:54.57 raGQFkBv.net
>>149
証券会社が買ってる情報と一般投資家が買ってる情報が同じと思ってる?
165:デフォルトの名無しさん
17/07/05 04:13:20.08 raGQFkBv.net
>>152
過学習だから
他データでテストすればすぐわかるんじゃね
166:デフォルトの名無しさん
17/07/05 05:31:25.55 cpEUND32.net
儲かるかどうかは別として
RNNのネタとしては面白そう
167:デフォルトの名無しさん
17/07/05 07:13:25.79 pyZyjtbt.net
ブラックショールズでok
168:デフォルトの名無しさん
17/07/05 08:23:53.50 hv9uBb0M.net
GANおもしろい
169:デフォルトの名無しさん
17/07/05 12:00:51.54 Qpg00Afa.net
スレを毎日少しずつ読んでると気付かないけど
たまに休んでてまとめて数日分読むと
ほとんど飛ばして良いわって気付いてしまった
170:デフォルトの名無しさん
17/07/05 12:29:22.68 S7HeqdBY.net
誰か、与えられた画像の人物が地毛かヅラか判別してくれる器械つくってくれんか
高精度なやつで
171:デフォルトの名無しさん
17/07/05 12:38:22.53 jSR/7Way.net
自分で作れ
chainerなら3分でできる
データがあれば
172:デフォルトの名無しさん
17/07/05 13:20:02.08 S+duCn8H.net
chainerは3分間でメジャーになればいいのに
173:デフォルトの名無しさん
17/07/05 14:30:44.12 v40s7HZ5.net
>>167
なら地毛かヅラかのラベルが付けられた対象の画像をとりあえず1万枚用意してくれ
174:デフォルトの名無しさん
17/07/05 14:39:25.04 54CdfmVI.net
高卒の馬鹿ですが、高校数学から学び直すことにしました。
よろしくお願いします。
175:デフォルトの名無しさん
17/07/05 15:04:07.29 Qpg00Afa.net
最近の高校って行列の積とか教えないんだな
176:デフォルトの名無しさん
17/07/05 15:07:24.25 v40s7HZ5.net
積どころか、カリキュラムから行列そのものが消滅している
177:デフォルトの名無しさん
17/07/05 17:33:53.54 Qpg00Afa.net
代わりに何か別のもの入れたんだっけ
178:デフォルトの名無しさん
17/07/05 19:22:37.88 FfQRrfCr.net
>>170
ラベルなしでもクラスタリングすればいけるんじゃない?
179:デフォルトの名無しさん
17/07/05 19:25:02.98 b1gamJwK.net
[[[%00β7/288:178α=1,0,3,25n
117*α/β^7400兆3261億8920,1n=0.1333345,1.2>>>end
180:デフォルトの名無しさん
17/07/05 19:34:00.50 b1gamJwK.net
<<<0%RMTLA:SAZE\%%"41β"≒"0.4222318""n"%%
""61""β""3888082"%\51=3888082α\\<<EMO>><<\CLA\>>"
〔NUBRE〕=〔JUOJA〕%0/7{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{=EMLA=17.3β&YLOZROM&en
181:デフォルトの名無しさん
17/07/05 19:36:24.39 b1gamJwK.net
<<<0%RMTLA:SAZE\%%"41β"≒"0.4222318""n"%%
""61""β""3888082"%\51=3888082α\\<<EMO>><<\CLA\>>"
〔NUBRE〕=〔JUOJA〕%0/7{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{{=EMLA=17.3β&YLOZROM&en
[[[HUME%1B%"ZEKKO"%4B%\[[[[[09GA<<<SYAJU>>>"AZE">>>en
182:デフォルトの名無しさん
17/07/05 19:40:56.43 J/vJkfCM.net
>>174
複素数平面かな?
私の代から数C自体がなくなった
183:デフォルトの名無しさん
17/07/05 19:41:38.83 b1gamJwK.net
??NUF??
DE,FM,ADL,A,Z,O,1,7.333,91,β,17.2,{{{%TYA%&!GALUTO&
<<
SAHI00-[[[1,2,31,29α,["ZEGLA"]
>>
999-41.2/3$en$
184:デフォルトの名無しさん
17/07/05 19:46:30.57 b1gamJwK.net
[[[&44\1[AYO,SNA]&
01\\\71B,233β=KLAMO=0=2.888=1
185:デフォルトの名無しさん
17/07/05 20:34:49.90 DLN/4uXd.net
>>179
そう。複素数平面が復活したらしい。
新入生に行列なにそれ?って言われたときは、こいつ高校出たのか?とか思ったもんだ。
186:デフォルトの名無しさん
17/07/05 20:42:05.93 1tRGJbTZ.net
行列は高校に不要だろ。
実用面ではいるかもしれないが、それほど重要ではないし
行列やるくらいなら線形代数でいいよ。
ほぼ同じようなことだが具体的な行列計算をするのが無駄、ロス。
187:デフォルトの名無しさん
17/07/05 20:46:35.71 1tRGJbTZ.net
自分のころも高校では行列なかったが、行列があった世代って中年以降か高齢者世代だろ?
大学ではやってたが。
数値計算ソフトで簡単に計算できるようなのを授業でやる必要ないだろ。
ソフトの使い方をやったほうがマシ。
188:デフォルトの名無しさん
17/07/05 20:57:50.04 AicEUEQr.net
>>184
こんなにピンポイントに年代がバレるレスも珍しいな
189:デフォルトの名無しさん
17/07/05 20:59:55.07 o2lS8KPj.net
>行列やるくらいなら線形代数でいいよ。
???
190:デフォルトの名無しさん
17/07/05 21:01:29.66 NqYlI2pz.net
行列は試験問題を作りにくいから外されたんだろ
大学行っても本によって行列の表記が違って混乱する
細かい人は全部Tつけて表記してたりする
191:デフォルトの名無しさん
17/07/05 21:04:12.33 1tRGJbTZ.net
>>185
ピンポイントで分かるのか? 自分の認識だとほとんどの世代で行列はやってない認識なんだかせ? 歳くってる世代以外。
行列の理論面でみれば、線形代数だろ? 一次独立、一次従属とか
192:デフォルトの名無しさん
17/07/05 21:04:38.94 jSR/7Way.net
極論言うたら、pythonと各種ライブラリあれば計算力要らないじゃん
意味を理解してるだけでいい
193:デフォルトの名無しさん
17/07/05 21:05:42.97 NQHhvg8I.net
>>149
本職だけど記録は余裕でできるよ
ただ現物の株でそんな流動性のある銘柄なんかない
先物だって売買が活発になる時期はかなり限られてる
極端な話一日中値動きがなかったらどんな時間解像度で観測しようが同じ値が記録されるだけだろ
194:デフォルトの名無しさん
17/07/05 21:08:38.81 NqYlI2pz.net
>>189
小中高で電卓使わせろよと言いそうだな
195:デフォルトの名無しさん
17/07/05 21:15:56.35 1tRGJbTZ.net
近年の数学Cに行列あったらしいね。
普通高校でなかったから、数学も受験用のやつやってないから
そもそも当時の高校数学も何やってたかしらないわけだが。大学にはいったが。
数学C - Wikipedia
URLリンク(ja.wikipedia.org)
196:デフォルトの名無しさん
17/07/05 21:22:36.77 CpudxOdu.net
「代数幾何」からずいぶんと削減されていたんだね
197:デフォルトの名無しさん
17/07/05 22:06:09.45 eSc/y34u.net
行列なんぞ高校でおしえんでもいい
テンソル学ばせろ
198:デフォルトの名無しさん
17/07/05 22:12:54.94 pyZyjtbt.net
テンソルというかアインシュタインの総和規約に慣れるとよろし
199:デフォルトの名無しさん
17/07/05 22:20:18.11 7xcFPwOu.net
テンソルと行列の違いを100字以内で
200:デフォルトの名無しさん
17/07/05 22:26:13.78 1tRGJbTZ.net
行列もテンソルも不要だとおもうぞ。
もっと基礎というか一般論、理論をやったほうがいい。
テンソル=多重線形代数として捉えた場合、線形代数を飛ばしてややこしいほうを先にやるのも難しい。
それに圏論で一般化できるなら、圏論から入ったほうが見通しいいかと。
多重線型代数 - Wikipedia
上に挙げたテンソル代数の特徴付けは、E → T(E ) が K ?代数の圏から K ?加群の圏への埋め込み関手の左随伴関手であることをいっている。
同様にして E → S (E ) は可換 K ?代数の圏から K 加群の圏への埋め込み関手の左随伴関手になっている。テンソル積加群や対称積加群、外積加群についても関手的な特徴付けができる。
201:デフォルトの名無しさん
17/07/05 22:31:39.33 2Xi6VjcY.net
層、トポス、圏論、測度論やるだけでいいだろ
それじゃダメなの?
202:デフォルトの名無しさん
17/07/05 22:33:23.83 8IbYgmXT.net
うわっ、恥ずかしい
203:デフォルトの名無しさん
17/07/05 23:04:13.70 O1eFDIID.net
>>198
昔流行ったらしいなw
204:デフォルトの名無しさん
17/07/05 23:06:21.39 ywW6uYNy.net
行列もなんもいらんから論理を徹底
205:的にやったほうがいい。数学にも数学以外にも不可欠 「AならばBである」と「BならばAである」が等価でないこと、みたいな
206:デフォルトの名無しさん
17/07/05 23:10:49.91 W+QOLNci.net
>>201
それはやってるよ
207:デフォルトの名無しさん
17/07/05 23:27:12.03 ywW6uYNy.net
>>202
数Aでさらっと舐めて終わりだろ?
裏逆対偶って用語を教えるので精一杯で徹底的とは程遠いというか
208:デフォルトの名無しさん
17/07/05 23:36:42.44 7xcFPwOu.net
行列ならばテンソルである
テンソルならば行列である
209:デフォルトの名無しさん
17/07/05 23:54:29.01 1tRGJbTZ.net
行列とテンソルをむりやりむすびつけなくていい。ほぼ別物だろ?
行列はただのデータとみなせるし、テンソルはテンソル空間やテンソル積などを考える必要がある。
210:デフォルトの名無しさん
17/07/06 02:17:24.30 4UTaW8nX.net
テンソルは根本的には、ベクトル空間V、Wに対して、
その積V×Wから自然に作れる新たなベクトル空間Xってことでいいんだよな?
有理数の不足分をおぎなって実数をつくるみたいなことだろ? 完備化だが。
211:デフォルトの名無しさん
17/07/06 05:53:36.06 Jzvo14ln.net
>>190
本職って具体的に何を指してるのか怪しいな
212:デフォルトの名無しさん
17/07/06 09:12:12.07 x/UayICR.net
論理難しい。
十分条件と必要条件がどっちがどっちだってなる。
213:デフォルトの名無しさん
17/07/06 09:25:31.43 P5IDjBEP.net
矢印で絵を書けばいい
十分な方から必要な方にフローが流れるだけ
214:デフォルトの名無しさん
17/07/06 10:00:11.28 DTfGvgx3.net
>行列やるくらいなら線形代数でいいよ。
ハゲ笑
215:デフォルトの名無しさん
17/07/06 13:54:41.03 J7MNc/bp.net
ベクトルはベクター、テンソルはテンサーと言え
トンスルかっつーの
216:デフォルトの名無しさん
17/07/06 15:18:30.49 Q+5UkCgF.net
>>211
文句は教科書に言ってくれ
217:デフォルトの名無しさん
17/07/06 15:33:35.39 TPVQiuHf.net
重箱のスミに何があるのか
218:デフォルトの名無しさん
17/07/06 15:51:50.09 P2852YtO.net
>>213
そこは日本の研究者が漁るとこ
219:デフォルトの名無しさん
17/07/06 18:14:45.16 BPJeJDCh.net
>>211
アホか
220:デフォルトの名無しさん
17/07/06 18:56:01.68 kgCqBXM3.net
>>211
アホ言うな
221:デフォルトの名無しさん
17/07/06 19:15:50.15 45rAkCut.net
>>211
やーいやーいあーほ
222:デフォルトの名無しさん
17/07/06 20:23:56.48 GCdgVrag.net
機械学習の記事って情報が散逸してて読み切れねーわ
重要論文を一週間に一本に絞ってくれないかな
223:デフォルトの名無しさん
17/07/06 21:05:11.87 XCAB2Zq6.net
>>218
重要論文判定の識別関数作ってパーセプトロンに突っ込めや
てかそういうのこそ機械学習でやらせるべき
224:デフォルトの名無しさん
17/07/06 21:11:37.50 1+qLHeAc.net
行列を単なる計算の手段と思ったらダメだろ
行列はベクトル空間を表し、そのベクトル空間に
対する距離(射影)が最短になるベクトルを
見つけるのが機械学習の本質、とイメージすると
いろいろと応用が効くと思う。
225:デフォルトの名無しさん
17/07/06 21:15:48.03 K8IGMJfb.net
>行列はベクトル空間を表し、そのベクトル空間に
>対する距離(射影)が最短になるベクトルを
>見つけるのが機械学習の本質
お笑いを一席
226:デフォルトの名無しさん
17/07/06 21:48:33.38 RGCMNwkL.net
>>220みたいな見方が出来る人
ホントに増えて欲しいんだが。。
227:デフォルトの名無しさん
17/07/06 22:05:09.46 GCdgVrag.net
増えたら困るねぇ
228:デフォルトの名無しさん
17/07/06 22:07:06.40 K9EvbHBW.net
>>188
行列がまるごと無くなったのは現行の学習指導要領から
以前あった一次変換は、最近はずっと入ってなかったと思う
次期学習指導要領も今のところ行列なし
229:デフォルトの名無しさん
17/07/06 22:18:01.95 K8IGMJfb.net
ひありか
230:デフォルトの名無しさん
17/07/06 22:21:26.24 YBl8Hb71.net
高卒が多いのか、高校の数学の話が多いですね
231:デフォルトの名無しさん
17/07/06 22:21:58.22 RGCMNwkL.net
>>223
なぜ?
見えるものが違ってくるのに。。
232:デフォルトの名無しさん
17/07/06 23:08:42.30 c8ke6HnZ.net
レスから学歴コンプを見抜く機械
233:デフォルトの名無しさん
17/07/06 23:18:10.25 4UTaW8nX.net
数学科卒だが、>>220の意味わかってない。
見えるものが違ってくるを具体的に頼む。
234:デフォルトの名無しさん
17/07/06 23:21:35.74 4UTaW8nX.net
シンプルにこの行列だったら、"そのベクトル空間に対する距離(射影)が最短になるベクトル"とはなに?
1 0 0
0 1 0
0 0 1
235:デフォルトの名無しさん
17/07/06 23:24:42.59 SgqT1Iyq.net
もうその書き方から頭悪いよな
3次の単位行列と書くだろう普通
236:デフォルトの名無しさん
17/07/06 23:30:36.37 P2852YtO.net
>>231
頭が悪い学歴コンプのスレなんですが
237:デフォルトの名無しさん
17/07/06 23:30:57.42 qPT+Y2m9.net
おれは二次でいいや・・・
238:デフォルトの名無しさん
17/07/06 23:36:33.35 iCwzDuVX.net
小中学生でも読んで分かるように書けない奴は本当には数学を理解できていない。
239:デフォルトの名無しさん
17/07/07 00:17:56.93 JoJfvIqW.net
>>219
勉強し直してこい
240:デフォルトの名無しさん
17/07/07 00:29:31.05 G8bk1r+1.net
頭の善し悪しなんてリアルの学歴で決着がついてるんだから、こんなところで必死になってもしょうがないよ
241:デフォルトの名無しさん
17/07/07 01:06:11.82 cFVk1Jik.net
Aが行列でxとbがベクトルとしたときAx = b の
xを求めたい。
でも現実的にはxの解がないことが多い。だから
誤差e = b - Ax が最小のときがxの最適解になる。
Axは行列Aの列ベクトルの線形結合で作られる
「平面」であり、bはその平面から斜めに出ている
ベクトル。
つまりベクトルbから平面への射影したときの
距離eを最小にするxが最適解になる。
解析の最小二乗法を線形代数的にやっているだけ
だとは思うがベクトルの方がイメージしやすい。
数学科じゃないので間違ってたらすまん。
242:デフォルトの名無しさん
17/07/07 02:02:12.61 G8bk1r+1.net
>誤差e = b - Ax が最小のときがxの最適解になる。
たった2行目のこの時点で大間違えじゃあ、長い長い残りを読んでも無駄だろう
243:デフォルトの名無しさん
17/07/07 02:39:35.38 lPKIQXky.net
>>237
びっくりするくらい合ってない
244:デフォルトの名無しさん
17/07/07 02:45:50.04 Z/NuFZwX.net
最小自乗法は線形代数で表現できるお
245:デフォルトの名無しさん
17/07/07 06:54:20.26 7ITbdfe7.net
>>226
高卒とは限らんぞ、東大でも大学で数学をやらん奴は線形代数を一生やらずじまいになる。
246:デフォルトの名無しさん
17/07/07 07:00:49.89 O0fDrQbK.net
>>238
間違ってなくね?
どこのことを言ってるの?
247:デフォルトの名無しさん
17/07/07 07:34:21.26 y8l3MOci.net
Ax = bの時点でこの解は、行列のみならず、bにも依存してるわけだが。
bは任意でいいのか? そしたらゼロでもイチでもいいのか?
それとも(A、 b)が最初に与えられた行列だとするのか?
そこからの説明もとむ。
248:デフォルトの名無しさん
17/07/07 08:08:59.07 ItiCI/p4.net
>>243
えっ?
連立方程式を行列で表現しているだけだが
249:デフォルトの名無しさん
17/07/07 08:54:40.10 OV8bpvVM.net
>>234
それデータあるの?
250:デフォルトの名無しさん
17/07/07 09:09:48.74 y8l3MOci.net
>>244
その連立方程式と、この関係性を説明してくれ。
> 220 名前: [.] 投稿日:2017/07/06(木) 21:11:37.50 ID:1+qLHeAc
> 行列を単なる計算の手段と思ったらダメだろ
> 行列はベクトル空間を表し、そのベクトル空間に対する距離(射影)が最短になるベクトルを
> 見つけるのが機械学習の本質、とイメージするといろいろと応用が効くと思う。
251:デフォルトの名無しさん
17/07/07 09:11:41.59 iowhp0vH.net
>>242
へーん、なら誤差が負の無限大になるような解でも探してろよw
252:デフォルトの名無しさん
17/07/07 10:09:18.91 stRk6581.net
>>220
自己流で同じような考え方してたけどそう間違っちゃいないんだな
253:デフォルトの名無しさん
17/07/07 10:38:16.11 Hkhwo5qO.net
線型識別の話をしたいのだろう、たぶん、きっとそうだよね
254:デフォルトの名無しさん
17/07/07 10:41:39.69 fpfCGWE6.net
>>249
最近、線型の意味を覚えたばかりなのかい?
255:デフォルトの名無しさん
17/07/07 10:51:19.09 Hkhwo5qO.net
>>250
おじちゃん、詳しく教えて
256:デフォルトの名無しさん
17/07/07 10:53:30.54 vo2VT5sF.net
>>251
お兄さんと言えフッサフサやぞ
257:デフォルトの名無しさん
17/07/07 11:16:33.34 Zm7wv7mh.net
学部レベルの数学がよく分かってない状態で
深層学習をやっちゃだめなんですね
258:デフォルトの名無しさん
17/07/07 11:21:13.99 Ju6cSvwH.net
やってよい。深層学習に数学は必要ない。
259:デフォルトの名無しさん
17/07/07 11:59:11.30 Hkhwo5qO.net
>>252
髪の型は19分けなわけですね
260:デフォルトの名無しさん
17/07/07 12:12:57.65 6/1c2NBw.net
スレ違いでしたらすみません。
因子分析についてどなたかご存知でしたらお答えください。
現在「5 因子性格検査短縮版 (FFPQ–50) 」URLリンク(www.jstage.jst.go.jp)
を用いて個人の性格を分析しようとしているのですが、どのような計算をすればよいのかわかりません。
因子得点の計算法を書籍で確認したところ標準化した粗点に因子得点係数をかければ計算できるようです。
しかし論文には因子負荷量表のみ紹介されており因子得点係数や相関行列を求める手段が内容に思えます。
ご教授いただけますでしょうか。よろしくお願い致します。
261:デフォルトの名無しさん
17/07/07 12:16:37.49 u5D8E4qs.net
>>253
そもそも深層学習の発展は専門外が貢献
学問てのは後付けにすぎない
262:デフォルトの名無しさん
17/07/07 12:17:21.51 zYftPXbI.net
>>256
宣伝乙
263:デフォルトの名無しさん
17/07/07 13:40:06.21 CR+cZhA6.net
>>219
Amazonのリコメンド機能とかGoogleのもしかしてとか
すでにあるんじゃね
重要と考えられるものを推薦したり提案したりしてる
264:デフォルトの名無しさん
17/07/07 13:54:30.09 CR+cZhA6.net
>>246
平面上にbが存在すれば連立方程式に解がある状態かな
平面上にbが存在しない場合は平面上のbの距離が点
つまりbから平面へ射影した点が近似解になると解釈出来る
265:デフォルトの名無しさん
17/07/07 14:17:58.47 Z/NuFZwX.net
線形代数と勾配法さえわかってればいいお
266:デフォルトの名無しさん
17/07/07 22:26:10.16 nm77RtOW.net
行列スレw
267:デフォルトの名無しさん
17/07/08 00:28:04.87 qPwKVr1Z.net
>>257
同意。
ついでに述べると深層学習専門の講義とかマジやめて欲しい。
特定の方法しか知らんやつが増える。
268:デフォルトの名無しさん
17/07/08 00:42:20.41 uwEv9WbD.net
PRMLを読んではいけないらしい
269:デフォルトの名無しさん
17/07/08 00:59:28.39 LFCUi1Tz.net
ベイジアンの書籍だもの。偏りがないとは言えない。
読んではいけない、は大学の先生の「気を引くため」の戯言じゃないの?
270:デフォルトの名無しさん
17/07/08 03:12:27.67 K8L717tK.net
米国や中国に遅れすぎたから今さらやってもなぁ
271:デフォルトの名無しさん
17/07/08 03:32:54.46 Q1yx0MVS.net
先端技術は中国にまかせて、日本は重箱の隅をつつくという切り分けはできてるだろ
272:デフォルトの名無しさん
17/07/08 03:54:23.67 oPAejcOE.net
map推定とベイズ推定の違いがよくわかりません
P(θ|D) = (P(D|θ)P(θ))/P(D)
でP(D|θ)P(θ)だけ考えてこれを最大化するのがmap推定で、
(P(D|θ)P(θ))/P(D)を全部計算してθの信用度まで出すのがベイズ推定だとしたらパラメータθに一切関わらないP(D)の値は計算する必要があるのでしょうか?
P(D|θ)P(θ)だけ計算して合計が1になるようスケーリングするだけではダメなんですか?
273:デフォルトの名無しさん
17/07/08 07:38:42.21 6vW4Gp5k.net
>>253
ダメに決まってるだろバカなのか?
少なくとも数学か物理で修士持ってるやつ以外ダメ
工学部の博士だけ大学によっては良い
274:デフォルトの名無しさん
17/07/08 09:00:11.43 sK/mLZZH.net
>>268
PRML読め
275:デフォルトの名無しさん
17/07/08 11:34:40.65 ttuBzuC+.net
MAP推定なんて統計学的に何の根拠もないゴミだから使わない方がいい
276:デフォルトの名無しさん
17/07/08 12:45:13.64 QkNdjw+7.net
無知そうなのがなんか言ってる。MAP推定反対派はもっと違うこと言う。
277:デフォルトの名無しさん
17/07/08 12:51:47.73 ttuBzuC+.net
博士号持っているんだが>>271は正しいよ
278:デフォルトの名無しさん
17/07/08 12:53:28.89 ttuBzuC+.net
正確にいうと機械学習ではなくて統計学(専門はMCMC)だが
MCMCが普及したという状況からみてもMAP推定は過去の遺物
279:デフォルトの名無しさん
17/07/08 13:38:38.47 QkNdjw+7.net
根拠教えてくれると助かる
280:デフォルトの名無しさん
17/07/08 13:39:48.75 1cpEb7H4.net
自分も正直詳しく聞いてみたい
281:デフォルトの名無しさん
17/07/08 14:26:24.34 cqaW2ET5.net
どうしてだろう
282:デフォルトの名無しさん
17/07/08 14:53:57.02 bx7kaphQ.net
ビショップの日本語訳の本ですが、ネットで注文して家に届きました。
下巻は表面がツルツルしているのですが、上巻は普通の紙みたいな感じです。
上下巻ともツルツルのが良かったのですが。。。
本自体も少しダメージがあるのが送られてきました。
もしかして、返品されたB級品を安く仕入れて売っているのでしょうか?
283:デフォルトの名無しさん
17/07/08 14:55:33.59 k7wFvHKJ.net
>>273
自分のレスに正しいってコメントするのって、バカなの?それとも自演失敗?
284:デフォルトの名無しさん
17/07/08 15:13:10.57 Znuc+49x.net
線形なのか線型なのか、はっきりせい。
285:デフォルトの名無しさん
17/07/08 15:33:59.37 k7wFvHKJ.net
>>280
linear algebra の単なる訳語だからどっちでもいいんだよ、どうせ欧米の後追いなんだから
286:デフォルトの名無しさん
17/07/08 15:49:35.62 QkNdjw+7.net
>>279
表現的に自演
287:デフォルトの名無しさん
17/07/08 16:02:33.95 VM8GoqOU.net
日常的に自演してるんだなw そりゃワッチョイ提言があるたびに強硬に反対するわなw
288:デフォルトの名無しさん
17/07/08 16:06:04.61 trRPfY+9.net
自演博士 www
289:デフォルトの名無しさん
17/07/08 16:10:35.93 trRPfY+9.net
>>278
本は粗雑に扱われがちだから、そういうことはたまにある。通販の弱点。
表面の違いは版の違いなだけでしょう
290:デフォルトの名無しさん
17/07/08 16:11:33.54 AC4an/FF.net
>>278
お前は読まずに飾るだけなのか
だったら表紙だけコピーして弁当箱にかぶせて本体は安く売り払っちまえ
291:デフォルトの名無しさん
17/07/08 19:29:34.43 lfRb3a0C.net
次は日本語訳が悪いとか言い出しそう
292:デフォルトの名無しさん
17/07/08 19:38:29.05 ICTsGxtb.net
粗探しはじめんだろ
293:デフォルトの名無しさん
17/07/08 20:29:59.66 ylggERJO.net
>>282
お前はその自演博士に教えを乞うているのかw
>>273が自演っぽく見えるのは言葉のあやみたいなもの自演ではない。
どうせmap推定がなんでダメなのか述べても難癖付けられるだけだから
いわないでおこうと思ったが、仕方ないから言っておく
まず、ベイズ統計学的には事後分布を出すことこそが最大の目的であって
事後平均・中央値・最頻値などは副産物でしかない(それ自体は事後分布の姿を
把握するためのもの)
ただし、事後平均や中央値に関しては統計的決定論の観点から正当化可能
それに対して事後分布のモードは統計的決定論の観点から正当化できない
実用的にもMCMCが普及した今MAP推定はむしろ不便
プログラミングできない学生に教育としてベイズ的な考え方(≠ベイズ統計)
に触れてもらうくらいの価値しかない
レス付けられても付け返さないんでよろしく
294:デフォルトの名無しさん
17/07/08 21:09:17.54 WTG+UFVb.net
>>289
自演がバレて恥ずかしい、まで読んだ
295:デフォルトの名無しさん
17/07/08 21:10:07.27 ye4ztRvo.net
で、どこの書籍や論文に書いてあったかの根拠を示せっていってるんだろ。
自演博士は日本語も不自由か。
296:デフォルトの名無しさん
17/07/08 21:15:14.93 AbVAaa3F.net
はい次回から問答無用でワッチョイ決定な
297:デフォルトの名無しさん
17/07/08 21:21:16.45 yyvtXfzA.net
数学やり直してるけどボリューム見て絶望。
浅く広くやるか、、深くじっくりやるか、、
298:デフォルトの名無しさん
17/07/08 21:27:11.29 trRPfY+9.net
>>289
自演博士さん、恥の上塗りですよw
>>292
まぁワッチョイ入れるなら従う
299:デフォルトの名無しさん
17/07/08 21:41:09.83 96snkMHE.net
このスレの人達は、みんなこの分野の専門家なの?
「ニューラルネットワーク自作入門」とかいう本読んで
素人でも仕組みが理解できるし作れるぜ、ウェーイッ!っていうレベルなんだけど
そんな知識あるなら、いま流行りの分野だし、分かり易い本でも書けば随分儲かると思うよ
300:デフォルトの名無しさん
17/07/08 21:44:32.05 1cpEb7H4.net
素人でも仕組みが理解できるし作れる
なんて信じちゃうのは素人未満の何かだけだし
そんなのを釣って儲ける本書くのは恥
301:デフォルトの名無しさん
17/07/08 21:53:21.83 LFCUi1Tz.net
まだ嘘に近いこと書くやつの本が生きてる。淘汰されると信じてる。
302:デフォルトの名無しさん
17/07/08 21:53:30.22 k7wFvHKJ.net
>>289
自演博士は必死杉。ワッチョイ入ったらもう自演博士号は役立たないぞ
>>295
専門書は売れてもたかがしれてるし、
一般向けのSFもどきの本を書いて売るには著者の知名度がいる。
極端な話し、ホリエモンの名前なら売れるだろう。
303:デフォルトの名無しさん
17/07/08 22:01:30.27 96snkMHE.net
まー、プロから見たら実用性も何も無いものかもしれないけど
実際に自分で作ってお遊び程度でもきちんと動作するものが作れるのは嬉しいものだよ
304:デフォルトの名無しさん
17/07/08 22:04:49.72 LFCUi1Tz.net
普及率の高いラップトップでもできるから、素人の参入障壁が低いだけで、素人でもできるものではない。
専門書にしかなり得ないよなあ
305:デフォルトの名無しさん
17/07/08 22:09:24.45 1cpEb7H4.net
ぶっちゃけ>>271-274の流れは確かに普通の自己レス補足にしか見えんが
まあなんだ、楽しそうだな
306:デフォルトの名無しさん
17/07/08 22:38:57.08 y6uRndyS.net
人工脳
307:デフォルトの名無しさん
17/07/08 22:43:10.99 OzQvZ12j.net
Deep Learningに必要なのは専門知識というよりは教育者の勘に近いものになってきている。
こういう構造にしたらこういう特徴を学んでくれるんじゃないか、みたいな。
ニューラルネット自体はほとんどライブラリ化しちゃってるしね。
分析会社の友人が深層学習は粘土細工だって言ってたけど、まさにそんな感じ。
308:デフォルトの名無しさん
17/07/08 22:51:02.89 i0MmOriA.net
アホコン
309:デフォルトの名無しさん
17/07/09 00:45:01.92 2lChk8be.net
でもしばらくしたら粘土細工に仕事ぶんどられて
粘土細工の顔色見て生きていかなくちゃならなくなるんでしょ?
310:デフォルトの名無しさん
17/07/09 00:48:51.21 Jr258EKy.net
機械学習のアルゴリズムより、何に使ったらいいのかでつまずいてる感
311:デフォルトの名無しさん
17/07/09 00:51:10.13 SDks0/xe.net
5割がそれ
残りの4割はデータ収集で詰む
312:デフォルトの名無しさん
17/07/09 02:56:34.94 AMxwJE6X.net
プログラミングで言うと言語作ってる側と言語使ってアプリ作ってる側を
積極的にごっちゃにして語ってる感があるのがこのスレ
313:デフォルトの名無しさん
17/07/09 03:35:12.54 sIgN2xg1.net
その混沌はこのスレの問題ではなくて AI 一般に見られる現象。
積極的に文系が騙る珍しい分野
314:デフォルトの名無しさん
17/07/09 04:45:31.60 y0wTv3iH.net
>>293
どこからやり直してる?高校?
315:デフォルトの名無しさん
17/07/09 14:18:44.21 lMgmJO68.net
数学だけは深くじっくり自分が分かるまでやるしかないよね
受験数学は時間のなさからそういうことやらせてくれないけど
316:デフォルトの名無しさん
17/07/09 14:53:34.33 TzMEy04X.net
大学の数学は昔より勉強しやすい環境が整ってるよ
書籍が充実してる
図書館探せば参考書も結構あったりする
昔(30年ぐらい前)は本当に教科書教科書してて頭のいい人しかできませんみたいな感じだった
317:デフォルトの名無しさん
17/07/09 14:55:18.51 Jwpk0hKO.net
マセマか
318:デフォルトの名無しさん
17/07/09 14:58:56.46 Jr258EKy.net
理系大学生に最も売れている本
マセマ
319:デフォルトの名無しさん
17/07/09 14:59:46.64 Jr258EKy.net
マセマは指定教科書がわからない場合にだけ手を出す本
320:デフォルトの名無しさん
17/07/09 16:41:27.12 9YyoGcoc.net
マセマなんて読むやつは2通り。
いい成績取りたいだけの効率屋、と正真正銘のできないやつ
321:デフォルトの名無しさん
17/07/09 16:47:09.85 Jr258EKy.net
マセマは最低限単位を取るための本で良い成績なんてむりむり
322:デフォルトの名無しさん
17/07/09 23:23:41.32 sLDxf/Qp.net
人工脳
323:デフォルトの名無しさん
17/07/10 00:21:13.43 4WvgKTxL.net
人工無脳かわいいよ
324:デフォルトの名無しさん
17/07/10 00:24:50.34 cU2Z4oJp.net
人口無能w
325:デフォルトの名無しさん
17/07/10 10:33:42.30 IZCTr2Xd.net
人口脳
326:デフォルトの名無しさん
17/07/10 16:30:41.17 hbYLDPUX.net
>>237
それはただの次元因子分析
大事なのはdiv/gradのほうだろ
>>261
それな
327:デフォルトの名無しさん
17/07/10 17:28:17.00 OAwCY67i.net
統計だろ
328:デフォルトの名無しさん
17/07/11 10:34:31.13 dHCGYXLu.net
関係文章読んでてビッグデータがビッチデータに見えた
どうかしている
329:デフォルトの名無しさん
17/07/11 11:56:50.24 2jnsc+l9.net
それ以前に日本語の文章読んでる時点で終わってるぞ
330:デフォルトの名無しさん
17/07/11 12:03:56.99 7Wx6VZ83.net
Big Data が Bitch Data に見えたという可能性はないでしょうか?
331:デフォルトの名無しさん
17/07/11 13:26:08.44 2jnsc+l9.net
もしそうなら視覚障害あるからどっちにしても終わりやね
332:デフォルトの名無しさん
17/07/11 13:36:13.41 Mee20pSk.net
なにそんなにかっかしてんだ禿げるぞ
333:デフォルトの名無しさん
17/07/11 13:39:02.81 onaMF8hB.net
いや禿げてるからだろう
334:デフォルトの名無しさん
17/07/11 15:20:47.04 773fQNOS.net
人工知能もハゲには無力だから仕方ない
335:デフォルトの名無しさん
17/07/11 16:12:37.80 DycQuLWa.net
ドフサですが?
URLリンク(www-formal.stanford.edu)
336:デフォルトの名無しさん
17/07/11 16:13:55.08 ueMb8Qbs.net
>>303
経済学のマクロ計量モデルに似てるな。誤差逆伝播法はないけど。
337:デフォルトの名無しさん
17/07/11 18:54:10.77 dSS1j36W.net
[][Tebla][]
}
000-"Yob*RtStrike"[%Kil\]MO,fla>%$9999V
338:LTS 001-GYORLith"0\R"/"ESUBA"%$% HADO-"EM","L","O","NU"###END
339:デフォルトの名無しさん
17/07/11 19:26:26.83 h5MEx8hD.net
人工脳
340:デフォルトの名無しさん
17/07/11 19:47:49.62 /lbrjaDW.net
Radeon + C++AMPでDNNやろうとしてんだけど、前提となる行列計算がなかなか早くなんないな
メーカー公表値通りなら6TFlopsでなきゃならないところが0.8TFlopsしか出ず(大きな最適化はしていない)、こっから最適化してもせいぜい2倍が限度の気がしてしまう
GeForceを買ってもやっぱ素人が書いたコードじゃ早くなんないのかな?
341:デフォルトの名無しさん
17/07/11 20:05:10.07 ueMb8Qbs.net
C++用のニューラルネットワークのツールキットprimitiv(仮)を作りました。
C++ネイティブでなるべく強い外部依存を排し、使いやすいインターフェイスを目指しました。
CUDA使用時は結構速いです。
URLリンク(github.com) …
342:デフォルトの名無しさん
17/07/11 20:15:10.34 /lbrjaDW.net
>>336
参考のために教えてほしいのですが、CUDAの場合このコードでメーカー公表値の何割ぐらいの演算性能がでるものなんですか?
343:デフォルトの名無しさん
17/07/11 20:33:26.04 E4ZfNF2K.net
mnist実行したら結果は0.9217だった
344:デフォルトの名無しさん
17/07/11 20:38:26.92 2jnsc+l9.net
何そのゴミ
云10年前の精度レヴェル
どんな糞モデル作ったらそうなるんだよ
345:デフォルトの名無しさん
17/07/11 20:48:14.98 /lbrjaDW.net
畳み込み層とプーリング層がないみたいなんでそんなもんだろう
346:デフォルトの名無しさん
17/07/11 20:51:25.72 X4PqR4xl.net
>>340
それなら20年位前からあるんじゃね
347:デフォルトの名無しさん
17/07/11 20:54:03.43 /lbrjaDW.net
おまえらもしかしてコード読めないの?
348:デフォルトの名無しさん
17/07/11 21:06:09.07 Sq+bXrW4.net
コード読めないんかよ。。
349:デフォルトの名無しさん
17/07/11 21:50:59.81 X4PqR4xl.net
>>342
コード読む気がないんじゃね
350:デフォルトの名無しさん
17/07/11 21:54:48.73 2jnsc+l9.net
CNNじゃないとか関係ない
ANNでも普通に作れば92%とかいう糞スコア叩き出さないから
351:デフォルトの名無しさん
17/07/11 22:01:15.68 6BxrgLns.net
ANN?
352:デフォルトの名無しさん
17/07/11 22:28:52.10 QhZ/ySPc.net
あっNLP若手のかいの
353:デフォルトの名無しさん
17/07/11 22:40:48.81 enBhfa10.net
NLP岩手
354:デフォルトの名無しさん
17/07/11 22:47:44.11 w+KLpVni.net
>>345
MLP ならそんなもんだよ、ど素人かよw
355:デフォルトの名無しさん
17/07/12 00:03:21.01 TXJK2TKs.net
いつまでもMNISTの話しなのね
若手の会でも全能アーキテクチャのとこは香ばしい。
356:デフォルトの名無しさん
17/07/12 00:19:29.01 MTSUQ+w2.net
>>349
お前のANNゴミすぎだろ
チュートリアルほとんどそのまま動かしてそう
357:デフォルトの名無しさん
17/07/12 00:28:45.68 ODoVbNWc.net
>>351
あれ?話しがずれてるよね?
「普通に作れば92%とかいう糞スコア叩き出さないから」
wwwww
358:デフォルトの名無しさん
17/07/12 00:32:36.35 ODoVbNWc.net
>>350
例えば MASK R-CNN の話ししてもあんたら分からんだろw
359:デフォルトの名無しさん
17/07/12 00:36:58.02 d89QBJh3.net
>>351
MLP でどのくらい出るの?単なる興味として
360:デフォルトの名無しさん
17/07/12 01:08:01.80 MTSUQ+w2.net
>>352
よもや普通というのをチュートリアル通りと思ってるなんてことはないよなあ
361:デフォルトの名無しさん
17/07/12 01:21:38.00 LlsQ875g.net
>>355
さすがに無理あるだろw
それはともかく、MLPのスコアは?
362:デフォルトの名無しさん
17/07/12 04:41:54.79 XhGoC/Ii.net
>>355
ヽ(・∀・)ノ 池沼かよ、チュートリアルだって普通の範疇に入るに決まってるだろ
363:デフォルトの名無しさん
17/07/12 07:10:01.47 2w1IGKpf.net
>>345
確率的勾配効果法だと結果も確率的になるんじゃね
364:デフォルトの名無しさん
17/07/12 08:50:58.38 TXJK2TKs.net
>>353
すればいいじゃん。単語だけ並べてドヤ顔すんなよ。
365:デフォルトの名無しさん
17/07/12 09:12:14.32 MTSUQ+w2.net
レベルが低すぎる、話にならないな
チュートリアルなんてhello worldレベルのものを普通水準と思ってるとか
薄々感づいてはいたがこのスレのレベルの低さがよもやこれほどとは
366:デフォルトの名無しさん
17/07/12 10:25:55.78 SQxf6H8E.net
マウント合戦開始
367:デフォルトの名無しさん
17/07/12 11:10:21.58 tUHI7hYy.net
ハゲは黙ってろよ
368:デフォルトの名無しさん
17/07/12 11:10:36.18 yVrzytK3.net
チュートリアル動かしたぐらいでドヤっちゃうの流石によろしくない。
369:デフォルトの名無しさん
17/07/12 18:12:33.93 ts7i1ALk.net
ひたすら罵り合って見下してバカにし合うだけで、2chでも有数の不毛なスレだな
370:デフォルトの名無しさん
17/07/12 18:19:57.26 sNyzU/qO.net
むしろほぼ全部それ
371:デフォルトの名無しさん
17/07/12 18:21:46.98 ts7i1ALk.net
ここは特に酷いぞ
人格破綻かな
372:デフォルトの名無しさん
17/07/12 19:43:30.08 UdEMFyy2.net
見ないうちに初学者向けの本が大量に出てるみたいだけど、確率的勾配降下についてきちんと説明した本出た?
373:デフォルトの名無しさん
17/07/12 20:44:03.87 oouB4tax.net
自分で書け
374:デフォルトの名無しさん
17/07/12 21:29:20.40 xpbg+QGx.net
GPUはどれくらいの積めば合格点?
375:デフォルトの名無しさん
17/07/12 21:29:38.12 RfH2l9xm.net
PRMLのアルゴリズムをPython(ほぼNumpyだけ)で実装
URLリンク(goo.gl)
376:デフォルトの名無しさん
17/07/12 22:28:07.81 +/fBJfIA.net
真理の探究。つまり、何が正しい筋道で、どこに焦点を合わせればいいかを模索する。これが人間にどういう恩恵をもたらすかというと、人生における試練、トラブルといった、あらゆる問題ごとのスムーズな解決を促すのだ。
例えば、『人は必ず死ぬ』という真理。この真理がわかっていれば、こういう言葉と真剣に向き合うだろう。
『人生は一冊の書物によく似ている。 愚かな者はそれをパラパラとめくっているが、 賢い者はそれを念入りに読む。 なぜなら彼は、ただ一度しかそれを読めないことを、知っているからだ。』byジャン・パウル
そういうことだ。つまり真理の探究ができない人は、ここでいう『愚かな者』。毎日を場当たり的に生き、浅はかで刹那的、建設的ではなく、射幸的な人生を好むようになる。
建設というのは読んで字のごとく、毎日毎日、積み上げていくものだ。そういう人は、射幸的のように、幸せを矢で射って当たれば儲けと考える、そういう生き方をする人間とは比べ物にならない結果を出すだろう。
それがわかるのが、記者とイチローのこのやりとりだ。
記者『イチロー選手は、なぜ同じ毎日の繰り返しで、成功できたんですか?』
イチロー『確かな一歩の積み重ねでしか、遠くへは行けない。』
真理とは、自分の人生を最高に応援する、勝利の女神のようなものだ。彼女を怒らせたら怖いが、味方にすればとても心強い。
どちらを選択するかは自分次第だ。
377:デフォルトの名無しさん
17/07/12 22:50:05.21 TXJK2TKs.net
>>369
GTX 1080くらいあればいいんじゃないの?
378:デフォルトの名無しさん
17/07/12 22:54:38.92 NvesJu3O.net
無駄なことしてて草
最低でもTeslaじゃないと論外だから素直に借りろ
379:デフォルトの名無しさん
17/07/12 23:00:37.38 TXJK2TKs.net
>>373
高いの調べてきたのね。気持ちは分かるけど、合格点であって最高点である必要はないだろう。
380:デフォルトの名無しさん
17/07/12 23:11:27.68 xpbg+QGx.net
ありがとうGTX 1060でも積んどくわ
381:デフォルトの名無しさん
17/07/12 23:56:29.28 ByfRzd+n.net
GPUといえばAMDからVega Frontier Editionが販売開始されたね
今後の動向が楽しみ
382:デフォルトの名無しさん
17/07/13 05:18:31.71 KYFkg0DL.net
この頃chainer命のおっさんこないな。
383:デフォルトの名無しさん
17/07/13 05:32:36.54 tlfxV/nr.net
なんでおっさんって決め付けてんだよこのハゲ
384:デフォルトの名無しさん
17/07/13 05:54:28.84 eTArQora.net
いくらchainer もちあげてみても
>>90 の記事で騙される人がいなくなっちゃったからな
385:デフォルトの名無しさん
17/07/13 07:43:37.36 60WI1OgY.net
人は基本的に天邪鬼なので他人から半ば強引に何かされると正しい判断能力を失いとにかく抗いたくなってしまうのさ
おつおつ
386:デフォルトの名無しさん
17/07/13 08:01:10.66 HhoUlZaA.net
またchainerメジャーアップデートやん。
chainer3よ。
387:デフォルトの名無しさん
17/07/13 09:52:36.39 a/dkM7pU.net
>>374
1080積んじゃった残念な人かな?
Teslaを調べてきたとか言ってる時点でお察しだけど
まあなんというか、ドンマイ
388:デフォルトの名無しさん
17/07/13 09:58:14.61 HhoUlZaA.net
>>382
言葉通じないのね。「調べてきた」しか読んでないのかよ。お前頭悪いってよく言われるだろ。社会人だったらオワコンだなお前
389:デフォルトの名無しさん
17/07/13 10:29:14.18 NxyZJ13M.net
mnistの改良版実行したらメモリ不足で落ちた
390:デフォルトの名無しさん
17/07/13 11:10:48.00 Df1m0zrm.net
何でこのスレってギスギスしてるの?
391:デフォルトの名無しさん
17/07/13 11:13:18.37 GhYwKAzA.net
ギトギトしてるの
392:デフォルトの名無しさん
17/07/13 11:17:40.99 Y0aOChSo.net
ブームだから
俺のほうが流行の最先端いってるぜって自慢したい人が集まって互いにけなしてる
「XYZってお前ら知らないだろ?(俺は知ってるんだぜ、フフン)」
「作ってみました」→「あーダメダメ、そんなの使えねーよ(対案なし)」
393:デフォルトの名無しさん
17/07/13 12:10:56.88 a/dkM7pU.net
>>383
お前さんレスするごとにボロが出るからもうやめとけ
394:デフォルトの名無しさん
17/07/13 12:53:47.07 teVNUTpv.net
シェーダーの数よりRAM容量のほうが大事
395:デフォルトの名無しさん
17/07/13 13:11:19.07 4YhiPx3R.net
>>388
そうやって言えばいいってもんじゃない。合格点のGPUについて聞いていた人がいた。無能は黙って見てろ。
396:デフォルトの名無しさん
17/07/13 13:15:36.11 lzzjjBXz.net
こいつ消えたらスレが平和になりそう
397:デフォルトの名無しさん
17/07/13 13:37:14.50 vRKzHD/9.net
1080Ti2枚は合格ですか?
398:遊園地
17/07/13 13:40:41.33 laCJofEm.net
このスレではROM専なんだが、PCスペックの話はスレ違い。
399:デフォルトの名無しさん
17/07/13 14:38:06.58 ihoMSip6.net
>>381
なんでアップデートそんな早いねん。
400:デフォルトの名無しさん
17/07/13 15:00:25.61 eTArQora.net
まともなソフト開発プロジェクトの経験がないか、他人に使わせる気がないかのどちらかじゃないの
401:デフォルトの名無しさん
17/07/13 15:16:33.17 NihdoJ79.net
せめて 2.0 の情報だしてくれ
402:デフォルトの名無しさん
17/07/13 16:26:52.49 N3Dj9c7x.net
海外勢の後追いをしても優位に立てることもなければ社会貢献にもならないんだしさ
OpenCLに対応するとか、日本人研究者に安くASICを提供するとか、何か特別なことをしてほしいな
403:デフォルトの名無しさん
17/07/13 18:21:41.13 del/PbSx.net
>>394
正直置いてけぼりだよね。
404:デフォルトの名無しさん
17/07/13 20:38:17.88 kGwztgTZ.net
GPGPUってディープラーニングだけ早いとか?
他の機械学習はどうなの?
例えばkmeansとか主成分分析とかSVMとか
405:デフォルトの名無しさん
17/07/13 20:48:13.70 eTArQora.net
>>397
独自の方向性がないと埋没しちゃうな。
推測だが、SONY が nnabla を出したので対抗的な意味合いで 3.0 に着手したのかもしれん
406:デフォルトの名無しさん
17/07/13 21:08:29.84 a/dkM7pU.net
>>390
そうだね
そしてその結果自分の残念さが露呈してしまったと
ああ哀れやな、マジでドンマイ
407:デフォルトの名無しさん
17/07/13 22:32:20.42 9tbfa/Ng.net
ギスギス…
408:デフォルトの名無しさん
17/07/13 22:37:51.10 eop0xsXo.net
>>397
もうchaserに改名したらいい
409:デフォルトの名無しさん
17/07/13 22:41:28.79 Df1m0zrm.net
>>403
車かよ、でもそれいいなw スポンサーのお許しは出ないだろうがw
410:デフォルトの名無しさん
17/07/13 22:42:50.90 P8WAPYBs.net
>>399
scikit-learnはGPGPU対応してないよ。
411:デフォルトの名無しさん
17/07/13 23:07:06.13 VNaDcQq+.net
>>399
TensorFlowバックエンドに使ってるやつなら効果あるかも
412:デフォルトの名無しさん
17/07/13 23:18:01.25 eTArQora.net
opencv の svm は gpu サポートなかったな。
TF バックエンドでもいいなら tf.contrib.learn.SVM とか一応あるよ
413:デフォルトの名無しさん
17/07/13 23:20:01.05 N3Dj9c7x.net
>>403
わろた
414:デフォルトの名無しさん
17/07/14 00:57:11.89 cY9oODvj.net
>>370
すばらしい
こういうのを待っていた
415:デフォルトの名無しさん
17/07/14 01:04:10.03 cSc3WyUE.net
>>409
自演博士乙
416:デフォルトの名無しさん
17/07/14 01:22:01.99 84COV5xw.net
>>410
分かるのすげえぇ....
417:デフォルトの名無しさん
17/07/14 02:13:57.72 wnI87yW2.net
>>393
スレ違いつっても他に該当スレなさそうなんだけど
418:デフォルトの名無しさん
17/07/14 09:53:55.24 tdbxm6PW.net
>>393
ROM専ならしゃべるな
419:デフォルトの名無しさん
17/07/14 10:31:19.57 YgkPmWcm.net
EEPROM萌えか
420:デフォルトの名無しさん
17/07/14 14:49:57.65 F4cHOQJ8.net
MNISTはそもそも教師なしでも98%分類できるから簡単すぎてタスクとしてはもう意味がないと思う
421:デフォルトの名無しさん
17/07/14 14:57:54.54 ZKCYjVKP.net
>>415
そうだね
しかも誤認識されるデータには人間が見てもわからん意地悪というか卑怯なもんもあるし
そこでの精度が高くなったからといって優れてるかというとそんな事ないもんな
422:デフォルトの名無しさん
17/07/14 14:59:03.51 2AwAIGfK.net
このスレの存在よりは意味がある
423:デフォルトの名無しさん
17/07/14 15:00:03.58 F4cHOQJ8.net
MNISTは実データ見ると人間にも識別できない汚い文字が結構あるからな
424:デフォルトの名無しさん
17/07/14 15:01:07.03 Vt/CHMAN.net
スレの大半は chainer と MNIST だな。
425:デフォルトの名無しさん
17/07/14 15:14:19.21 gXBYLa5e.net
>>419
chainerはいいとしてMNIST以外のデータを使ってないのか?
426:デフォルトの名無しさん
17/07/14 15:17:55.64 uw/hPlzp.net
旧電総研の手書き漢字データベースは?
427:デフォルトの名無しさん
17/07/14 15:40:06.00 Vt/CHMAN.net
>>419
いや、書き込みの大半がという意味。
>>421
何回も同じことレスしてるな
428:デフォルトの名無しさん
17/07/14 16:13:31.60 uw/hPlzp.net
>>422
してないよ、暑いので頭大丈夫か
429:デフォルトの名無しさん
17/07/14 16:14:04.84 c5NKqjQQ.net
>>423
教えてやろう俺はダメだ
430:デフォルトの名無しさん
17/07/14 16:20:00.68 uw/hPlzp.net
>>424
アドバイスしてあげよう、エアコンを買え
431:デフォルトの名無しさん
17/07/14 16:37:28.92 l7++DJXh.net
挑発的なレスが多いな。仲�
432:ヌくやれないものか
433:デフォルトの名無しさん
17/07/14 16:57:42.38 Lluu2FDe.net
AI詐欺ブームに乗っからないと!!!
434:デフォルトの名無しさん
17/07/14 17:07:17.57 gw/ohzWD.net
ニューラルネットワークを超える
ディープラーニングという新技術が
トレンドだと聞いて
435:デフォルトの名無しさん
17/07/14 17:52:37.16 tdbxm6PW.net
?!
436:デフォルトの名無しさん
17/07/14 18:28:06.45 ByVOE1H3.net
Rやってきたの後悔してる。時代の流れはRなんか全く無関係やん。
437:デフォルトの名無しさん
17/07/14 18:36:29.76 ZOhPp6he.net
そうでもない
438:デフォルトの名無しさん
17/07/14 18:46:36.54 Vt/CHMAN.net
>>430
R は deep learning を取り入れそこなったのが残念
439:デフォルトの名無しさん
17/07/14 18:49:11.70 Lluu2FDe.net
AIがすべてやってくれる。もうプログラマも数学者もいらない時代らしい。
440:デフォルトの名無しさん
17/07/14 18:49:54.52 1BXZMzVY.net
>>429
90年代の大学時代にニューラルネット学んで
社会でて別な仕事してて、そっかー最近はなんか
ディープラーニングとかいうのが話題になってるなーで
「深層学習」買って読んだ時のデジャブといったらですね…
うん…多層学習が収束するようになったんですね。
441:デフォルトの名無しさん
17/07/14 18:52:14.21 zBHolgUX.net
AIが無益な書き込みを続けてると噂のスレはここですか
442:デフォルトの名無しさん
17/07/14 18:58:19.20 TE/e0WfE.net
>>434
収束するだけなら役に立たない
精度が上がったのが大きい
443:デフォルトの名無しさん
17/07/14 18:58:49.02 mYClNtlG.net
>>430
沁みる一言
444:デフォルトの名無しさん
17/07/14 19:05:17.77 2AwAIGfK.net
>>430
Spark はサポートしてるじゃん
445:デフォルトの名無しさん
17/07/14 20:52:06.20 tdbxm6PW.net
>>434
収束するようにはなりましたが、なんだかんだいって、冬の時代に画像にたくさんラベルを付け続けた先人がいたから今があるようなものです。
446:デフォルトの名無しさん
17/07/14 20:52:48.57 tdbxm6PW.net
>>430
BIの分野ではまだまだ現役ですよ
447:デフォルトの名無しさん
17/07/14 21:10:38.62 SbXz2ctV.net
お爺ちゃんの懐古話しwww
448:デフォルトの名無しさん
17/07/14 21:13:17.81 Vt/CHMAN.net
>>439
日本人の貢献で歴史に残るようなものはありますか?ネオコグニトロンはいいですw
449:デフォルトの名無しさん
17/07/14 21:17:50.25 gGXj8M78.net
量子焼きなまし法はもしかしたらノーベル賞
450:デフォルトの名無しさん
17/07/14 22:02:35.45 tdbxm6PW.net
日本人の話しはしてないんだよね。大量の正解データを用意してくれた時代があったからこそ、今の人工知能ブームは再燃したと思ってるよ。チンパンはお静かに。
451:デフォルトの名無しさん
17/07/14 22:09:46.49 Vt/CHMAN.net
>>444
質問しただけで、何故チンパン呼ばわりされなければいけないのですか?
納得がいく説明をしてください。
452:デフォルトの名無しさん
17/07/14 22:11:27.53 ci+PoF5x.net
>>444
図星さされてチンパン呼ばわり www
453:デフォルトの名無しさん
17/07/14 22:13:27.55 2AwAIGfK.net
昔かじっただけのど素人が何トンチンカンなこと言ってるの?
454:デフォルトの名無しさん
17/07/14 22:15:40.88 Lluu2FDe.net
>>444
アメリカで流行ったエキスパートシステムは超えれますか?
エキスパートシステム使えば高度な問題も解決できるというあれです。
455:デフォルトの名無しさん
17/07/14 22:18:55.00 iYNh+LVf.net
>>448
大量の正解データを用意してくれた時代があったからこそ、エキスパートシステムを超えられました
456:デフォルトの名無しさん
17/07/14 22:22:07.85 tdbxm6PW.net
>>448 ブラックボックス化された昨今のDeep Learningよりは説明能力が高いエキスパートシステムや根本の決定木は分野によってはまだまだ現役みたいですね。
超えるには説明能力が足りないって自分はよく言われます。
457:デフォルトの名無しさん
17/07/14 22:23:25.16 Lluu2FDe.net
詐欺だの大失敗だの言われたエキスパートシステムを超えるとは期待できますね。
458:デフォルトの名無しさん
17/07/14 22:23:56.83 tdbxm6PW.net
>>448
超えるというのは実用面で、という意味です。産業利用するにはやはり説明能力がネックです。。
459:デフォルトの名無しさん
17/07/14 23:05:37.96 QoWI5XEA.net
>>452
自分の脳について説明できるの?
460:デフォルトの名無しさん
17/07/14 23:34:41.67 jZYF681z.net
>>4
461:53 No
462:デフォルトの名無しさん
17/07/14 23:46:51.45 9g1fAaGV.net
脳科学の教養は必須
463:デフォルトの名無しさん
17/07/14 23:52:08.28 Lluu2FDe.net
脳科学の教養=脱税スキル
464:デフォルトの名無しさん
17/07/15 00:01:40.40 uMSoic5W.net
脳とかあらぬ方向へ飛んじゃうんだな。。。変数の説明ってことなんだけれども。
465:l
17/07/15 00:22:10.45 qMuMGEjG.net
Youtuberヒカルが月収を明らかに!!おはよう朝日です出演
URLリンク(www.youtube.com)
第1回案件王ランキング!YouTuberで1番稼いでるのは誰だ!
URLリンク(www.youtube.com)
ユーチューバーの儲けのカラクリを徹底検証!
URLリンク(www.youtube.com)
【給料公開】チャンネル登録者4万人突破記念!YouTuberの月収公開!
URLリンク(www.youtube.com)
誰も言わないなら俺がYouTuberのギャラ相場を教えます
URLリンク(www.youtube.com)
最高月収5000万円だとさ。年収じゃなくて「月収」な
おまえらもyoutubeに動画投稿したほうがいい
顔出したくないならラファエルみたいに仮面かぶればいい
手っ取り早く視聴数稼ぐには芸能人や人気ユーチューバーへの物申す系動画がオススメ
466:デフォルトの名無しさん
17/07/15 04:55:23.34 7LAckzVN.net
>>457
自分の脳がブラックボックスなら
自分の脳が出力してる事も信用できないだろ
467:デフォルトの名無しさん
17/07/15 04:56:54.68 7LAckzVN.net
説明できなくても結果が正しければいいんじゃね
説明できても机上の空論より実用的
論理的に正しそうに見える仮説なんかいくらでもある
468:デフォルトの名無しさん
17/07/15 05:33:06.42 7LAckzVN.net
説明できないとか理解できないのは
現状の人類の能力が不足してるだけ
適切な解が充分な程度で得られるのなら使う価値はあるだろう
相対論とかない大昔でも重力レンズ現状は起きていた
人類の理解とは無関係に現象は発生する
ビジネスに採用するかどうかは経営者とかの判断だけど
他社が採用した結果として売上や利益の大きな向上を得られてると知ったら
自社でも採用するんじゃね
リスクを負うかどうかでしかない
失敗したくない心理が勝るんだろう
469:デフォルトの名無しさん
17/07/15 05:40:54.30 7LAckzVN.net
人間の脳や心理は把握できてないのに
重要な仕事を任せたりしてるんじゃね
それは行動を観測して信頼してるから
入出力関係が安定していて
結果が相当な確率で期待と合ってるなら
AIだろうが自動運転だろうが信頼するだろう
470:デフォルトの名無しさん
17/07/15 06:03:49.42 2FGvXuCO.net
$1,293 → $39
URLリンク(www.popsci.com)
471:デフォルトの名無しさん
17/07/15 06:20:19.45 jgpylWCA.net
説得力というか調整に根拠を提示できないと
調整→テストデータ試験OK→本番で精度下がる→あれー?
になるからじゃないん
472:デフォルトの名無しさん
17/07/15 06:34:47.86 9CUWPUhe.net
おまいには納得力が足りない
473:デフォルトの名無しさん
17/07/15 06:43:23.83 jgpylWCA.net
おまい ってさすがに古過ぎませんか
474:デフォルトの名無しさん
17/07/15 07:43:01.64 fjBdJ59J.net
もう煽りばっかだから
次スレはワッチョイ付けろ
475:デフォルトの名無しさん
17/07/15 09:07:19.52 uMSoic5W.net
脳とかで返信するくらいだから、この人聞きかじったド素人だなって。一周回ってほっこりする。
476:デフォルトの名無しさん
17/07/15 09:47:11.48 7LAckzVN.net
>>468
説明できないものの代表例として脳をあげただけだ
飛行機が飛ぶ原理の説明も間違ってたとか言う話もある
世の中の事象を全て把握できてるわけではないって事だ
それでもほぼ安定してれば事業にも使う
477:デフォルトの名無しさん
17/07/15 09:47:42.95 7LAckzVN.net
>>464
すでに使われ始めてる領域もあるけどな
478:デフォルトの名無しさん
17/07/15 09:57:29.25 7LAckzVN.net
>>468
人間の体の仕組みだってまだ解明されてないだろって事だ
でその解明されてない人間をビジネスに活用してるだろ
ビジネスに使う⇒解明されている は真ではない
対偶の
解明されていない⇒ビジネスに使わない も真ではない
解明されているかよりも
安定して期待する結果を得られるかどうかを対象領域で必要な程度で
統計的に確認できればいいだけ
479:デフォルトの名無しさん
17/07/15 10:22:07.71 scK9jYKa.net
>>471 いい着眼点だとは思うけども、DLはモデルの説明能力が無いという主張に対し、脳だって分かんないから文句言うなという反論は、飛躍がありすぎて的を射てない。ビジネスやったことない学生さんかしら。
まず、そういう反論したら二度と相手にされないことくらい社会人ならわかってるはずだけど。
480:デフォルトの名無しさん
17/07/15 10:25:36.81 f+LrzU+z.net
>>471
そのロジックで水俣病は
足尾鉱毒は
四日市ぜんそくは発生した
後で長期泣くのは勝手だが逃げるなよ
結果を受け止める覚悟があるなら止めない
ただ自殺くらいで解決できると思うなよということだ
481:デフォルトの名無しさん
17/07/15 10:32:15.36 scK9jYKa.net
理想論語る人は全脳アーキテクチャ勉強会とかいってホクホクしてればいいと思うよ。論理も分かってない人間が何してんだとは思うけども。
482:デフォルトの名無しさん
17/07/15 10:39:14.54 FP03Re0Y.net
ボケ爺に決まってんだろ
483:デフォルトの名無しさん
17/07/15 10:42:40.14 FP03Re0Y.net
医者->人間->よくわかっていない->医者に病気を治してもらうのは危険(?藁)
484:デフォルトの名無しさん
17/07/15 10:48:41.15 7LAckzVN.net
>>472
繰り返すが脳はただの例えの一つだ
説明できないから使わないと言うのであれば
今使ってるものは全て説明できてると言う事だが本当にそうなのか?
リスクを負いたくないだけ
485:デフォルトの名無しさん
17/07/15 10:52:02.22 7LAckzVN.net
>>473
リスクを負うと言う事はそう言う事だ
成功も失敗もありうる
問題があることを予見していたのに放置したりするのはダメだが
予見不可能な事は対処のしようがない
リスクを負いたくないなら
発ガン物質が含まれている可能性もあるし
食べ物を摂ったりできなくなるよ
ある程度のリスクは許容しなければ生活できない
486:デフォルトの名無しさん
17/07/15 10:58:42.51 FP03Re0Y.net
結論:ポエム
487:デフォルトの名無しさん
17/07/15 11:08:59.91 J/UzBOam.net
ボケ爺学生のポエムか。
レイヤーがどんどん高くなって抽象化されとる。もう反論にすらなってないな。悲しいよ。。
488:デフォルトの名無しさん
17/07/15 11:11:58.18 J/UzBOam.net
>>477
お爺さんは、無職?論旨が意味不明。耄碌してるから病院行ったほうがいい。電車内でブツブツ言ってそう。
489:デフォルトの名無しさん
17/07/15 11:14:48.77 CRqbHh/C.net
海外勢はリスクを負って新たな成功を掴む
もちろん失敗もあるだろう
日本勢は説明できないとか理由をつけてリスクを負わない
結果失敗もしないが成功もしない
490:デフォルトの名無しさん
17/07/15 11:15:33.86 CRqbHh/C.net
>>481
自分が理解できないのを相手の所為にすれば楽でいいよね
491:デフォルトの名無しさん
17/07/15 11:18:06.11 jgpylWCA.net
(理論的に説明可能なものと、そうでないもの�
492:ナは、リスクマネジメントの観点から前者がより優れている) (それで終わる話だよなこれ)
493:デフォルトの名無しさん
17/07/15 11:21:59.36 J/UzBOam.net
>>483
繰り返す。モデルの説明能力が現状課題だ、というのが最初。なぜ、脳、飛行機の例え話になる。例え話で満足するな。話題を抽象化するな。論旨をはぐらかすな。
モデルの説明能力が低い、これについてお前は語れ。例え話を混ぜるな。
494:デフォルトの名無しさん
17/07/15 11:24:17.77 J/UzBOam.net
>>484
もう終わってる。爺さんが車内で騒いでる感じ。
495:デフォルトの名無しさん
17/07/15 12:06:14.03 CRqbHh/C.net
>>485
モデルの説明能力が低い
それと結果が安定する事は別問題
結果が安定してればリスクを負う事で成功のチャンスがある
リスクを負わなければリターンも得られない
496:デフォルトの名無しさん
17/07/15 12:06:48.31 CRqbHh/C.net
>>484
リスクを最小化するには何もしない事だ
それでいいのか?
497:デフォルトの名無しさん
17/07/15 12:08:04.99 CRqbHh/C.net
>>485
モデルの説明能力が低いことを課題としてるのは何故?
本当に課題なのか?
498:デフォルトの名無しさん
17/07/15 12:08:45.22 rvsL9Jtz.net
>>487
>結果が安定してればリスクを負う事で成功のチャンスがある
と
>リスクを負わなければリターンも得られない
に直接の関係性がない
もし余計なリスクを負わないで済む手段があるのならばその手段を選ぶほうが有利
よって機能・性能と比較するための定量的評価が間にあるべき
499:デフォルトの名無しさん
17/07/15 12:15:26.68 rvsL9Jtz.net
NLCと連携してこういう詭弁の判定できないものか
500:デフォルトの名無しさん
17/07/15 12:17:41.61 IcamSB9C.net
ぶっちゃけちゃうと大金払ってDL取り入れたうちの会社では結果が出なかった
501:デフォルトの名無しさん
17/07/15 12:20:25.31 IcamSB9C.net
再現性も上手くいく保証も無かったので結局採用されたのは一部のみ
502:デフォルトの名無しさん
17/07/15 12:25:14.13 QH/b08ko.net
こいつらアホ
503:デフォルトの名無しさん
17/07/15 12:25:25.97 IcamSB9C.net
>>464をかろんじんなよ
504:デフォルトの名無しさん
17/07/15 12:27:06.89 J/UzBOam.net
>>492
実運用はかなり限られちゃうよね。結果が良くても「で、なんでその結果が出たの?」って言われて負ける。
505:デフォルトの名無しさん
17/07/15 12:28:23.09 IcamSB9C.net
こっちは新聞にも大きく出たのにな
どうすんだろ
506:デフォルトの名無しさん
17/07/15 12:29:06.55 J/UzBOam.net
>>489
実サービスとしてDL導入する場合のこと。研究課題でも、説明能力の高いモデル構築を目指す研究もされてるから、工学・理学共に課題はある。
507:デフォルトの名無しさん
17/07/15 12:37:25.61 CRqbHh/C.net
>>490
リスクを介して関係あるだろ
508:デフォルトの名無しさん
17/07/15 12:39:22.48 DNVlB7CN.net
>>498
説明能力が高い⇒利益が得られる
ではないな
509:デフォルトの名無しさん
17/07/15 12:47:51.08 IcamSB9C.net
>>485は無視しちゃいかんね
510:デフォルトの名無しさん
17/07/15 12:52:27.01 IcamSB9C.net
飛んで申し訳ないが
>>484に同意
511:デフォルトの名無しさん
17/07/15 12:55:34.80 CRqbHh/C.net
モデルの説明能力が低いのではなくて人類の理解力が不足している
512:デフォルトの名無しさん
17/07/15 12:57:39.84 CRqbHh/C.net
現象は正しい
いくら人間が尤もらしい仮説を立てたところで
実験で証明されなければただの仮説
513:デフォルトの名無しさん
17/07/15 12:59:50.24 J/UzBOam.net
>>500 間違いない。そして理解無い企業は死んでいくのかもしれない。しかし現状はこう。それに対してどう対象外するかという話しになる。
514:デフォルトの名無しさん
17/07/15 12:59:57.55 IcamSB9C.net
>>504
現象が正しいとは?
何が論拠?結果でなかったのに
515:デフォルトの名無しさん
17/07/15 13:00:18.17 J/UzBOam.net
対処。タイポ
516:デフォルトの名無しさん
17/07/15 13:03:01.02 J/UzBOam.net
人類引き合いに出すのやめいw 一瞬で発散する。
517:デフォルトの名無しさん
17/07/15 13:17:58.40 CRqbHh/C.net
>>506
仮説と現象のどっちを取るかという話
仮説の方が間違っていると考えるのが合理的
518:デフォルトの名無しさん
17/07/15 13:41:10.40 IcamSB9C.net
>>509なるほ。
まあ話は一旦止め。
このスレ見てるAIやりたーいて言ってる学生さんに言
519:いたいが、中途半端な知識だけで十分と考えるのはやめて欲しいな。
520:デフォルトの名無しさん
17/07/15 13:42:03.31 rvsL9Jtz.net
むしろ学生のほうがどういう代物か理解できるんじゃないか
521:デフォルトの名無しさん
17/07/15 14:18:43.71 IcamSB9C.net
>>511そうできるからこそ、近道のみで終わってほしくない。
522:デフォルトの名無しさん
17/07/15 14:28:42.28 IcamSB9C.net
適当にパラメータなりアルゴリズムのループ変えたり、ちょっとした工夫したら結果良くなりました、みたいなことは企業にやらせとけ。。
どうせそのレベル程度のはマンパワーで米中に負ける。
523:デフォルトの名無しさん
17/07/15 14:31:39.57 IM8lgtvN.net
だれかが2ちゃんねるのレスポンチ読み込ませて実験してるのか
524:デフォルトの名無しさん
17/07/15 15:22:32.28 vT5c1880.net
Fラン大学の学生が多いことがよくわかるスレですね
>>510
いいから働こうぜ!
525:デフォルトの名無しさん
17/07/15 15:23:45.36 cLqL6/6H.net
>>513
お前は終われ
526:デフォルトの名無しさん
17/07/15 15:31:37.43 IcamSB9C.net
F欄じゃあ入れない会社員ですけどなにか?
まあ>>492で触れてるDL売りつけたベンチャーてどこでしょうね?
527:デフォルトの名無しさん
17/07/15 15:44:36.60 UAO9e8fy.net
学習用データがその会社用にあった学習データ使わないと意味がなさそうだね
528:デフォルトの名無しさん
17/07/15 15:46:41.87 IcamSB9C.net
いやいやプロが手を付けてカスタマイズした結果がダメでした
529:デフォルトの名無しさん
17/07/15 15:48:05.62 J/UzBOam.net
>>517
F欄のいる会社だったらDL導入できるシードデータすら無いのにね。実務経験のない奴らは困るよね。
530:デフォルトの名無しさん
17/07/15 15:49:39.84 J/UzBOam.net
パラメータいじったところで、そもそもの解決する問題が、機械学習で解けないなら何やってもだめ。当然だけど。導入ありきは頓挫必至。
531:デフォルトの名無しさん
17/07/15 16:16:41.84 f+LrzU+z.net
入力データに加工が必要な間は取り組めない
画像なら適当な画像ポンポン放り込んで
こっちの意図をくみ取った分類を自動学習できるくらいでないと
確かまだそんな域にはなってないよね
532:デフォルトの名無しさん
17/07/15 16:20:51.45 UAO9e8fy.net
意図も同時に学習させれば問題ない
533:デフォルトの名無しさん
17/07/15 16:21:19.48 UAO9e8fy.net
そもそも意図なんてこっちから伝えないと
忖度してもらえる訳がない
534:デフォルトの名無しさん
17/07/15 16:29:13.48 yW8eHGIz.net
会社の宣伝のためだろ
535:デフォルトの名無しさん
17/07/15 16:30:13.40 OaM+GD2F.net
統計って言えば、AlexaやGoogleがやってるサイト閲覧者の学歴傾向ってどうやってはじき出してるのかな?
URLリンク(www.alexa.com)
やっぱりというか2chは高卒のメーターが振り切ってるな・・・・
536:デフォルトの名無しさん
17/07/15 16:38:39.68 yW8eHGIz.net
「アジア」人が約一割
537:デフォルトの名無しさん
17/07/15 16:41:05.00 UAO9e8fy.net
F5攻撃?
538:デフォルトの名無しさん
17/07/15 17:25:39.10 3yn8eV+z.net
>>520
自演博士 wwwwwwwwwwwww
539:デフォルトの名無しさん
17/07/15 17:26:19.90 3yn8eV+z.net
>>517
社畜自慢ですか ( ´,_ゝ`)
540:デフォルトの名無しさん
17/07/15 17:31:37.88 J/UzBOam.net
>>529 そういうのいたっけなwwwwww
541:デフォルトの名無しさん
17/07/15 18:28:57.34 IcamSB9C.net
最近の技術レベルてどんなんやろ?
リンク貼りがいなくなったから確認出来なくなったね。キータ見てねーし
イジングモデルモドキからのレベルアップされてんだろうか?
(全然証明になってなかったけど)
542:デフォルトの名無しさん
17/07/15 18:30:40.15 IcamSB9C.net
あっと技術レベルじゃなくて数学モデルの話ね
543:デフォルトの名無しさん
17/07/15 18:40:07.11 sSrRYJ/s.net
人工知能って中身ブラックボックスだから怖いね。
少し詐欺要素学習させたら、それが意図的なものか問えるのかね。
いくらオートメーションしようとしても、グレーなゾーンでせめぎ合うってのはいつの世も一緒だね。
544:デフォルトの名無しさん
17/07/15 18:52:56.64 uTntap1E.net
>>534は間違いなくドがつく素人
545:デフォルトの名無しさん
17/07/15 18:54:06.02 GPnBT/AI.net
人間も中身ブラックですし
546:デフォルトの名無しさん
17/07/15 19:09:17.79 sSrRYJ/s.net
>>535
はやく素人の浅はかな問題提起を論破してよ
547:デフォルトの名無しさん
17/07/15 19:16:40.78 IM8lgtvN.net
中学校卒業してからきてね、ぼうや
548:デフォルトの名無しさん
17/07/15 19:25:02.50 37mK/jgH.net
>>534
A ならばB, B ならば C ゆえに A ならば C
という当たり前のロジックを実現できないものか
549:デフォルトの名無しさん
17/07/15 19:31:31.99 IcamSB9C.net
>>443
ないない。。
550:デフォルトの名無しさん
17/07/15 19:54:49.83 sSrRYJ/s.net
>>539
出力せずに水面下に蓄積されるリスクは外部からテストできないでしょ?
551:デフォルトの名無しさん
17/07/15 19:56:59.79 KZ0hRcKH.net
chainer三ヶ月後にバージョン3作るとかふざけてるな
結局LTSも出す気配ないし
研究者としては優秀なのかもしれないけどソフトウェアエンジニアリンクとしてはダメダメだな
552:デフォルトの名無しさん
17/07/15 20:35:19.93 CixGCbIS.net
何を今さら…日本人しか使ってないのに英語の貧弱なドキュメントしかない時点で察しろよw
553:デフォルトの名無しさん
17/07/15 20:45:18.78 KZ0hRcKH.net
あーやっぱみんな気づいてたんですね。
日本発だから貢献しようと見てたんだけど、ソースコードも見ていてイライラするし、おれがアホだったってことだな、時間損したわ。
554:デフォルトの名無しさん
17/07/15 20:53:00.54 TefX9Qz4.net
それなりに役目は果たしたと思う
けど、googleやFBが本腰をいれてきたゃうと無力だ。変に対抗意識を持ったのも悪手
555:デフォルトの名無しさん
17/07/15 21:16:10.60 yOt61bVp.net
思想はTFとは違うし、戦えるかなと思ったけどだめだった
556:デフォルトの名無しさん
17/07/15 21:17:56.66 fjBdJ59J.net
企業は綺麗事言っても金を稼ぐことが第一、故に
日本語ドキュメントでも何でちょっとでもシェア、金稼ぎを広げるために
思いつくことは出来ることは全部やる、という開き直りが無いんでしょ。
企業人がなくて大学や研究者というプライド、というかお公家さんみたいなところがあるから仕方ない。
557:デフォルトの名無しさん
17/07/15 21:19:40.73 yOt61bVp.net
>>537
> 少し詐欺要素学習させたら、それが意図的なものか問えるのかね。
詐欺、要素、意図的、問える、で、もう曖昧すぎてモデル化できない。そもそも作れないんじゃなくて、チャンスレート以上に識別できるモデルは作れないってことね。
558:デフォルトの名無しさん
17/07/15 21:24:58.09 yOt61bVp.net
P社の体力ではライブラリを短期間で高度に作れなかったんだな。だいぶChainerに注力してたはずだったけど、足りなかったんか。。。
559:デフォルトの名無しさん
17/07/15 23:52:17.55 JegogzXo.net
最近Deepじゃない機械学習もやってるけど、フレームワークがないので全部自分で作るしかない
実装できなければ学習させることもできないから大変
560:デフォルトの名無しさん
17/07/15 23:56:27.50 3yn8eV+z.net
?scikit-learnじゃいかんのか
561:デフォルトの名無しさん
17/07/16 00:05:31.05 pjjt/U4Z.net
Rじゃいかんのか?
562:デフォルトの名無しさん
17/07/16 00:08:18.51 3tSS1BrB.net
>>550
いいじゃん手作りのほうがいろいろ組める
563:デフォルトの名無しさん
17/07/16 00:08:27.39 krXhtchQ.net
>>550
pythonではない?ということか。なら、そうだね。
564:デフォルトの名無しさん
17/07/16 00:24:59.13 FXviiV5b.net
本物はC/C++で組むから
565:デフォルトの名無しさん
17/07/16 00:41:55.29 W/EoF6T0.net
このスレによる機械学習による成果はゼロです。
566:デフォルトの名無しさん
17/07/16 00:46:45.23 LEYlqM8D.net
有名なフレームワークを使っていればニューラルネットワーク以外も記述できるんだよね、名前に「NN」とか入ってる専用品みたいなのを除けばさ
質の低いブログがニューラルネットワークの紹介ばっかしてるせいで、「機械学習フレームワーク=ニューラルネットワーク専用」との勘違いが生まれてるんだろう
567:デフォルトの名無しさん
17/07/16 01:45:02.04 QXLTXaTV.net
例えば?
568:デフォルトの名無しさん
17/07/16 03:02:33.57 C6Tk2A0c.net
ハゲ分野への機械学習技術の導入はよ
569:デフォルトの名無しさん
17/07/16 05:18:31.24 /RB5wPAI.net
>>546
設計思想という意味では PyTorch が引き継いだので Chainer はいらない子になってしまった
>>549
開発の主力は優秀なんだろうけど、層の厚さがグーグルとでは違い過ぎる。chainer 3.0 まで始めちまうしw
570:デフォルトの名無しさん
17/07/16 05:19:56.15 /RB5wPAI.net
>>558
557 さんじゃないけど、TF の TFLearn は NN の比重が小さいよ
571:デフォルトの名無しさん
17/07/16 10:15:15.77 8fieeS/I.net
>>547
ほんそれ
572:デフォルトの名無しさん
17/07/16 10:19:26.51 8fieeS/I.net
>>555
プロトタイプはnumpyモジュールとか使ってpythonで書いておけば
どうしても高速化とかしたければそのままpython->C化してしまえばいいから
C/C++の出番はほとんどなくなりつつある
573:デフォルトの名無しさん
17/07/16 12:01:22.10 W/EoF6T0.net
そんな馬鹿なことする奴はおらんやろう
574:デフォルトの名無しさん
17/07/16 12:11:53.42 C6Tk2A0c.net
numpyモジュールって書き方がすごい気になる
575:デフォルトの名無しさん
17/07/16 12:29:13.09 6HtBydC+.net
ライブラリだものね。でも些細なことに気にしすぎやろw
Cython使いたいの分かるけど、ならC++で開発しようよって思ったりする。
576:デフォルトの名無しさん
17/07/16 13:06:57.96 RBoJ7SPQ.net
研究力の上限は実装力で決まるっていうのが最近分かってきた
実装難易度が高すぎる手法は理論だけ作れても実装できなければ論文が書けない
577:デフォルトの名無しさん
17/07/16 13:57:54.79 4n3TLeai.net
理論がわかるなら実装は大したことじゃないと思うんだがな
どちらかといえばマシンリソースの確保と、入力データの準備の問題に尽きると思う
ていうか尽きている
578:デフォルトの名無しさん
17/07/16 14:26:23.99 qYJx3xkn.net
マシンリソースの確保なんてクラウド使えばいいじゃん
579:デフォルトの名無しさん
17/07/16 14:33:48.85 00s+riPb.net
>>568
RoI 層の実装とか難しくないか?
580:デフォルトの名無しさん
17/07/16 14:51:05.60 W/EoF6T0.net
理系だから数学が得意だからで、コードが書けると思ってたら大間違い。
581:デフォルトの名無しさん
17/07/16 16:23:13.70 PGgyqMqC.net
それな、どちらかというと作曲寄りのスキルというかセンスが必要
582:デフォルトの名無しさん
17/07/16 17:10:59.64 RBoJ7SPQ.net
>>568
実装できる人が日本に数人しかいない手法とか結構あるみたいよ
583:デフォルトの名無しさん
17/07/16 17:15:32.14 L0MqV5Yd.net
需要がニッチ過ぎて知ってる人が超絶少ないとかそういうんじゃなくて?
584:デフォルトの名無しさん
17/07/16 17:16:35.87 G64lD0g3.net
いや、数学の証明を自分で考える、の方に似ていないか?
585:デフォルトの名無しさん
17/07/16 17:17:07.99 I9sDywDn.net
>>573
詳しく
586:デフォルトの名無しさん
17/07/16 17:24:28.91 /RB5wPAI.net
>>573
どうやって数えたの?
587:デフォルトの名無しさん
17/07/16 18:41:21.27 8+Akms5T.net
僕が研究で使っていた遺伝的アルゴリズムはまだ現役ですか?
588:デフォルトの名無しさん
17/07/16 19:29:54.61 L0MqV5Yd.net
君が研究で使っていた遺伝的アルゴリズムは、多分もうゴミと化してるよ
589:デフォルトの名無しさん
17/07/16 19:33:41.13 3tSS1BrB.net
してねーよ
本来の用途で現役だよ
590:デフォルトの名無しさん
17/07/16 19:36:45.31 T0mY8GIE.net
>>573
日本に数人でも中国には千人単位でいるから価値は低い
591:デフォルトの名無しさん
17/07/16 19:38:00.72 T0mY8GIE.net
>>578
進化的計算のプチ・ブームは去りました
592:デフォルトの名無しさん
17/07/16 19:43:08.07 3tSS1BrB.net
企業でめっちゃ使われてんだけど
593:デフォルトの名無しさん
17/07/16 19:47:59.16 3tSS1BrB.net
そもそもGAは機械学習向けではない
594:デフォルトの名無しさん
17/07/16 19:53:15.43 x2Nv8B2b.net
じゃあスレチだな。スレチなネタにムキになるなよw
595:デフォルトの名無しさん
17/07/16 22:25:04.34 FXviiV5b.net
遺伝的アルゴリズム、進化的計算といえば?
伊庭さんです。
596:デフォルトの名無しさん
17/07/16 22:26:58.36 3Fc66zJd.net
へー、遺伝的アルゴリズムを発明したのか
597:デフォルトの名無しさん
17/07/17 00:04:51.41 EnInQN5p.net
ちなみにマイネオのsimの買い方は
通常、初期費用3,000円+税がかかりますが
下記のリンクからAmazonさんで安いエントリーパッケージを買う
→URLリンク(www.top1.pw)
下記の招待リンクから契約する
→URLリンク(www.top1.pw)
そうするとAmazonさんのギフト券が1000円分貰えるので
初期費用分のエントリーパッケージ代が実質無料になります!
データ回線なら解約料もかからないので、損はないですね。
マイネ王から月末に1GBのパケットももらう事ができるのもお得です
598:デフォルトの名無しさん
17/07/17 00:15:19.13 oYyRMgFX.net
語の境界についての情報を明示的に与えることなくキャラクターレベルの単語埋め込みを学習させるうまい方法ないですか。
599:デフォルトの名無しさん
17/07/17 00:48:20.31 fqwOP8rL.net
知り合いの藝大生に「これからは俺たちアートが真ん中を走る時代だよ」って言われた9><
600:デフォルトの名無しさん
17/07/17 00:54:59.56 s2Ne6p+B.net
中央分離帯歩いてる感じか。確かに。
601:デフォルトの名無しさん
17/07/17 03:21:06.25 iKrgB/GW.net
アートネイチャーしてる奴のことだろ
602:デフォルトの名無しさん
17/07/17 05:59:53.48 +enp3H/5.net
>>556
マシン語で組もうよ。
603:デフォルトの名無しさん
17/07/17 10:21:57.50 AbkKrL+U.net
>>556
ここは成果を自慢するスレです
604:デフォルトの名無しさん
17/07/17 10:38:01.17 Q36IauwY.net
>>591
飛んでくる車に注意しろ
605:デフォルトの名無しさん
17/07/17 11:51:35.21 pVndgKGd.net
飛車
606:デフォルトの名無しさん
17/07/17 12:06:03.77 50vkYHar.net
五入
607:デフォルトの名無しさん
17/07/17 12:48:06.48 AbkKrL+U.net
角行
608:デフォルトの名無しさん
17/07/17 13:20:15.00 HedtDN7o.net
玉、金、銀、桂、香・・・経済戦争をイメージしているな
609:デフォルトの名無しさん
17/07/17 14:00:10.67 CEM5V4dW.net
>>589
キャラクターレベルって言ったら文字単位ってことだから当然1文字単位で一意に決まるだろう。
形態素解析辞書なしに単語分割をやりたいということなら、Sentencepieceを試してみては(指定した語彙数で分割してくれる)
610:デフォルトの名無しさん
17/07/17 16:21:13.83 n9t4u9yj.net
高飛車もいやだが馬はもっといや、始末におえない
611:デフォルトの名無しさん
17/07/17 16:25:05.98 g1XD9Xkn.net
僕が現役の時に使っていたSURFなどの特徴量抽出はまだ現役ですか?
612:デフォルトの名無しさん
17/07/17 17:10:22.15 Xs57b21y.net
玉金
613:デフォルトの名無しさん
17/07/17 18:20:26.52 ZG5pE9OV.net
ディープラーニングもロジスティック回帰みたいなもんやし
614:デフォルトの名無しさん
17/07/17 18:21:59.68 ZG5pE9OV.net
>>589
文字レベルの単語埋め込みってどういうことなんですか
615:デフォルトの名無しさん
17/07/17 18:27:40.57 K8kZQCbh.net
>>589
どうしてその制約が必要になる?
実現方法は結果を使うユーザにはあまり関係なくない?
616:デフォルトの名無しさん
17/07/18 06:00:01.35 jD40xs/+.net
ダブルペネトレーション
617:デフォルトの名無しさん
17/07/18 07:32:33.30 PUASbCwZ.net
URLリンク(www.amazon.co.jp)
618:デフォルトの名無しさん
17/07/19 00:40:18.56 D2jusIRn.net
619:map推定と最尤推定の違いがわかりません ベイズ推定が最強ってことでいいのかしらん
620:デフォルトの名無しさん
17/07/19 13:21:05.64 eB5JXJXB.net
URLリンク(s0sem0y.hatenablog.com)
621:デフォルトの名無しさん
17/07/20 08:37:24.74 cV13Eqzf.net
簡単にいえば最尤推定はMAPの特殊ケース
MAP推定で事前分布を一様分布(非正則な事前分布なら定数)としたら最尤推定
622:デフォルトの名無しさん
17/07/20 15:08:53.77 4N2tlEeA.net
超解像やりたいんだけど、Kerasで独自損失関数を定義する方法がわかんないや
ここに関しては生TensorFlowより退化しちゃってるんかな・・・・?
623:デフォルトの名無しさん
17/07/20 15:32:16.42 CxqiqQov.net
すまん、tfでよくね
624:デフォルトの名無しさん
17/07/20 16:53:51.92.net
>>443
『量子コンピュータが人工知能を加速する』って本を読んだんだが、結局何が根本的に効いているのか分からなかった。トンネル効果って言葉で誤魔化されてる。
何より理屈の基礎式の提示がない。
理系ならば理解に困らないくらい簡単な式なのに・・
625:デフォルトの名無しさん
17/07/20 16:57:05.52.net
トンネル効果のせいでCPUが微細化、高速化できないというのに。
626:デフォルトの名無しさん
17/07/20 17:12:54.50.net
yet another non von neuman archtecter
627:デフォルトの名無しさん
17/07/20 17:19:07.36.net
筆者には『トンネル効果』って言葉無しで人に説明してといいたい
おそらく出来ないだろうけどw
628:デフォルトの名無しさん
17/07/20 17:20:58.35.net
本には機械学習のサンプリングに効果的とあった。何のこっちゃ?
PCAかオートエンコーダ、RBMの計算に有利なだけ??しょぼ
629:デフォルトの名無しさん
17/07/20 17:33:52.04.net
東芝の初期の超解像アルゴリズムって
GANみたいだった?
630:デフォルトの名無しさん
17/07/20 17:54:37.78.net
量子焼きなまし法は、量子ゆらぎを用いた過程によって、
解候補(候補状態)の任意の集合から任意の目的関数の最小値を探す一般的方法である。
主に探索空間が多くのローカルミニマムを持ち離散的である問題(組合せ最適化問題)に対して用いられる。
と、最初これはあくまでコンピュータでシミュレーションするアルゴリズムとして
提唱されてたが、カナダの量子コンピュータベンチャーが
これの専用機ならいまでも作れるだろうと2007年に実機作って
組み合わせ問題の解をハード的に求める量子コンピュータを実現した。
>探索空間が多くのローカルミニマムを持ち離散的である問題(組合せ最適化問題)に対して用いられる
計算を一発でできるハードの意味がわからないレベルの子は
このスレに迷い込む意味がねぇんじゃねぇの。
何しにきたの?ぼうや
631:デフォルトの名無しさん
17/07/20 17:55:48.52.net
機械学習とデータマイニングはもう切り離したほうがいいんじゃない?
632:デフォルトの名無しさん
17/07/20 18:00:58.37.net
>>620
一般的方法?笑わせんな。そこまで一般化されてない。
単独磁場項と相互作用項の比重を0⇒1に変化させたら、偶々上手くいっただけ。
633:デフォルトの名無しさん
17/07/20 18:02:24.41.net
スピングラスモデルにて唯一の解が得られる理論的な保証がない
634:デフォルトの名無しさん
17/07/20 18:03:46.40.net
3m×3mのでかい冷却装置じゃないと計算出来ない品物
635:デフォルトの名無しさん
17/07/20 20:14:56.54.net
Webエンジニアがやりたいことドリブンで機械学習に入門してみた
URLリンク(goo.gl)
お前ら雑魚ピーなのは分かったからこれを参考に汁
636:デフォルトの名無しさん
17/07/20 20:28:12.94.net
このわ
637:ざとらしい味!
638:デフォルトの名無しさん
17/07/20 20:33:18.72.net
>>617
読まずに推測で書くけど
トンネル効果で極小値にハマってるところからするっと抜け出せるとかそんな感じじゃね
639:デフォルトの名無しさん
17/07/20 20:34:36.80.net
>>622
一般の組合せ最適化問題を解けるんじゃね?
あるいは等価な組合せ最適化問題に帰着できるとか
640:デフォルトの名無しさん
17/07/20 20:50:23.71.net
>>627
ななめよみだけどシュミレーテッドアニーリングを使うらしいよ
641:デフォルトの名無しさん
17/07/20 21:57:34.73.net
>>629
違う
642:デフォルトの名無しさん
17/07/20 22:23:54.56.net
>>630
じゃなんだ?
643:デフォルトの名無しさん
17/07/21 08:38:20.86.net
少しだけ機械学習に興味あるんですが、機械学習ってどんなこと出来るんですか?
ちょっと勉強しただけで面白い事出来たりするんですかね?
644:デフォルトの名無しさん
17/07/21 08:40:25.93.net
ちょっと勉強しただけでできる事の99%以上は
他の人も容易にできる事であり、かつ、おもしろくもなんともない事である
645:デフォルトの名無しさん
17/07/21 08:41:28.05.net
機械学習を勉強する人って
(1)仕組みが分かりたい
(2)役立てたい
どちらが多いですか?
646:デフォルトの名無しさん
17/07/21 09:04:04.93.net
スレ見てると、他人をバカにしたいみたい
647:デフォルトの名無しさん
17/07/21 09:17:42.77.net
機械学習/DMと深層学習/AIはもうこれマジでスレ分けるべきだろ、ぐっちゃんぎっちゃんやんけ
648:デフォルトの名無しさん
17/07/21 09:33:16.26.net
まあ役立てる方だろうけど
まだ技術として完成してない部分が多いから
ある程度仕組みを知らないと使いこなせなそう
649:デフォルトの名無しさん
17/07/21 09:50:24.43.net
なんか機械学習のほうが勉強するのは難しいのに、
深層学習のほうが役に立つというのが不思議です。