17/01/02 09:27:48.89 ASj0fxen.net
>>255
では科学って何?
263:デフォルトの名無しさん
17/01/02 09:37:14.22 vZERqpOJ.net
>>256
AI を指してるんだろ、日本語を勉強しようぜ
264:デフォルトの名無しさん
17/01/02 10:06:27.56 bgjbJVB/.net
俺も253の意見に同意
265:デフォルトの名無しさん
17/01/02 10:13:17.30 vZERqpOJ.net
深層学習なんて場当たりなだけじゃん
266:デフォルトの名無しさん
17/01/02 10:30:21.32 bgjbJVB/.net
場当たりなの?
267:名無し集中
17/01/02 10:35:30.58 rGDFkzYs.net
>>254くんはパースよんだことないのかな
268:デフォルトの名無しさん
17/01/02 10:47:45.64 CPceoiNS.net
>>260
場当たりだろ
工業製品の機能や品質や安全性は最終的にはブラックボックステストという帰納的手法によって客観的に担保されるわけだが、
それはあくまで製品の設計や製造が常識的な演繹によって行われていることが前提
帰納的にテストをパスするように作ったりしたら何一つ用を果たせないゴミしかできない
単にテストケースの数の問題と言ってしまえばそれまでだが、ハードウェアのテストにはどうしても経済的な制約があるからな
269:デフォルトの名無しさん
17/01/02 11:18:19.65 ASj0fxen.net
>>262
学習後は確定的に動く
270:デフォルトの名無しさん
17/01/02 11:19:47.51 ASj0fxen.net
>>257
AIはまだ未完成で面白い領域とも言えるだろ
他の人が解明した事を学ぶだけなら不満だろうけど
271:デフォルトの名無しさん
17/01/02 11:21:40.51 VePW7069.net
>>254
実際この分野は帰納的なほうに片寄ってると言わざるを得ない
272:デフォルトの名無しさん
17/01/02 11:23:49.74 CPceoiNS.net
>>263
その確定的な挙動をどうやって確認するの?
深層学習なら結局テストによって帰納的に調べることになるよね
273:デフォルトの名無しさん
17/01/02 11:24:00.35 VePW7069.net
>>263
想定されてない事象に対しては?
274:デフォルトの名無しさん
17/01/02 11:26:17.33 ASj0fxen.net
>>265
きっちり半々の状態が維持されるわけない
帰納的な方が多いフェーズ
演繹的な方が多いフェーズ
とかいろいろ変化しながら進む
会計にはBSとPLがあるがどちらを重視するかは時代によって変遷している
これと同様
275:デフォルトの名無しさん
17/01/02 11:27:15.85 VePW7069.net
>>268
具体例は?
276:デフォルトの名無しさん
17/01/02 11:28:05.56 VePW7069.net
失礼訂正
この分野の具体例は?
277:デフォルトの名無しさん
17/01/02 11:29:26.01 ASj0fxen.net
>>267
想定されてない事象は通常のプログラムでも例外になる
278:デフォルトの名無しさん
17/01/02 11:31:05.65 ASj0fxen.net
>>266
確定的な挙動は数式で表現できるようになる
279:デフォルトの名無しさん
17/01/02 11:31:17.06 VePW7069.net
>>271
じゃあ、抑えられないんだね。
出荷できないよそんなんじゃ
280:デフォルトの名無しさん
17/01/02 11:37:37.90 ASj0fxen.net
>>273
今のAIじゃない通常のプログラムでも例外になると言っている
完璧な商品でないと出荷出来ないなら世の中に商品はなくなる
完璧な商品の具体例は?
281:デフォルトの名無しさん
17/01/02 11:38:51.87 ASj0fxen.net
>>270
もっと長い時間の流れを言っている
この分野でもバックプロバゲーションとか
ギブスサンプリングの応用とかあるんじゃね?
282:デフォルトの名無しさん
17/01/02 11:42:41.68 VePW7069.net
>>274
>完璧な商品でないと出荷できないなら世の中に商品はなかなる
それはあなたが言うべきこと/決めるべきことではない。
企業側から見れば、一つ問題が起きただけで会社が傾くことがある。
出荷テストの際、想定外の応答を見るのもテスト項目の一つだよ
283:デフォルトの名無しさん
17/01/02 11:46:27.89 vZERqpOJ.net
流れ読まずに、(lstm とかの関係の) attention の概要が分かるサイトとか知ってる人、教えて!
284:デフォルトの名無しさん
17/01/02 11:47:55.80 ASj0fxen.net
>>276
その想定外と言うのも準備したテストケースでしかないのでは?
それなら今のテストケースを機械学習後の確定的な動作をする商品でテストして判定すれば良い
285:デフォルトの名無しさん
17/01/02 11:49:33.41 JIP1y7CT.net
>>277
RNNか。このスレで技術的なこと聞いても無意味
286:デフォルトの名無しさん
17/01/02 11:53:28.25 VePW7069.net
それは>>262が言ってるように、考えられる有限個を用意するしかなくて、コストとの相談になる。
結局、理論的な保証が欲しいと言ってるのだが
287:デフォルトの名無しさん
17/01/02 11:53:35.15 ANqkDSqR.net
まあ航空機レベルの安全性は確率制御前提のシステムには荷が重すぎるな
それでなくとも物理レベルで確率的不具合と日夜戦ってるからな
仮に間違っても「ゴメンまちがっちゃった、テヘ」で済むものが当面は中心になるだろう
288:デフォルトの名無しさん
17/01/02 12:01:59.62 ASj0fxen.net
>>280
理論的な保証が欲しいのなら自分で解明すればいいのでは?
iPS細胞はどうすれば初期化されるか判っているが
何故?どんなメカニズムで?と言うのは判っていない
最先端分野だから未解明なこともあるだろうよ
商品化については出来上がった商品をテストで品質保証すれば良いだけでは?
理論より実際の現象の方が正しいと考えるべき
統計的に許容範囲の確率に収まれば良い
どの程度許容するかは用途による
289:デフォルトの名無しさん
17/01/02 12:03:22.89 VePW7069.net
『テヘ』
は通らないと言ってるんだが、
東京のど真ん中に飛行機突っ込んだら誰がどう言い訳すんの?
290:デフォルトの名無しさん
17/01/02 12:13:19.73 VePW7069.net
>>282
>>245で言った通りこの分野の専門家には演繹にもっと視点をおいて欲しい
専門家でないところに理論をなげんな
291:デフォルトの名無しさん
17/01/02 12:22:09.32 ANqkDSqR.net
理論的観点は「間違うとしたら、どう間違うか」なんだと思うが、
これは機械学習の仕組みというよりは食わせるデータに依存する
この辺が難しいところなんだな
つまり条件をプログラム化する際条件フラグがプログラム上に存在しない状態
本当はどう間違うかわかったら、それも機械学習的な対処経路を作らなければならないんだろうけど
機械学習をアルゴリズム的に使用する方法が未解明なもんだからいちいち確定条件で人間がプログラムしている
まだまだ不完全だよAIは
292:デフォルトの名無しさん
17/01/02 12:26:09.22 aVtLyaDs.net
>>276
確かに面接で人事担当が
なんで今ここでそれを聴くみたいな
KYな質問してくることがあるが
あれはそれだったんだな
293:デフォルトの名無しさん
17/01/02 12:27:24.00 ASj0fxen.net
>>283
今までも飛行機事故は起きた
ものすごく低い確率で今でもその事象は発生しうるだろう
AIを使ってもそれと同程度の確率であるとこを統計的に示せればあとは選択次第じゃないかな
294:デフォルトの名無しさん
17/01/02 12:28:49.92 ASj0fxen.net
>>284
専門家になれば良いんじゃね?
理論を知りたいんだったら
あと職業と研究は別でも不可能ではない
大変さは違うけどな
295:デフォルトの名無しさん
17/01/02 12:30:12.35 ASj0fxen.net
>>285
完全に判ってるなら先端領域では無いな
296:デフォルトの名無しさん
17/01/02 12:32:51.31 GdcUHK9D.net
少なくとも君は「無い」の使い方を間違っている
297:デフォルトの名無しさん
17/01/02 12:45:39.72 VePW7069.net
>>287
確率が低いことをどう証明すんの?
実機飛ばすしかないよね。
あと個人的には、人間がミスする事象とAIがミスする事象が同じならば、単純に数値で比較すればよいが、お互いの差集合が違う場合、単純に数値で比較したらダメだと思う
>>288
一般論として専門家は最初からお手上げすんなと言ってるんだが。
298:デフォルトの名無しさん
17/01/02 12:57:56.88 VePW7069.net
ちな、数値で比較したらダメとは数学的にという意味じゃないよ。
想定外を抑えてないってこと。
299:デフォルトの名無しさん
17/01/02 13:34:55.38 bgjbJVB/.net
ID:VePW7069 この人、微妙に現場の人っぽいけど
もう少し立場を明確にしてほしい
絶対にエラーが起きないことを目指している人なのか
費用対効果で許容されるエラー率をクリアすることを目指している人なのか
飛行機は自動運転されているし
新幹線や地下鉄も自動運転だ
自動車業界の人なのだろうか
ジジイに運転させてアクセルとブレーキ踏み間違えたテヘは許されるのか?
300:デフォルトの名無しさん
17/01/02 13:37:23.89 bgjbJVB/.net
要は機械学習による制御を演繹的に理解できたら気が済むのか?
301:デフォルトの名無しさん
17/01/02 13:40:28.43 B2LhGdxG.net
>>293
民事と刑事でばつ受けて
赦される
302:デフォルトの名無しさん
17/01/02 13:52:53.71 +O6Vfcqf.net
機械学習って工学的要素が強くて実証結果重視だから、理論的保証といってもねえ
遺伝的食品にも安全性云々とか宣って反対しそうだな
303:デフォルトの名無しさん
17/01/02 14:01:48.51 ANqkDSqR.net
公共交通は問題発生時にその問題に対処するマニュアルなんかを作っている
AIがたとえ間違っても、そのマニュアルに記載してあるような事例であれば、運用の想定内ということになる
ところが人間よりエラーが少ないAIが、マニュアルに載っていないエラーを起こしたらどうなるか
それを危惧してるんだと思うよ
304:デフォルトの名無しさん
17/01/02 14:08:17.00 ASj0fxen.net
>>291
何で航空機にこだわってるのか知らないけど
ミニチュアとか実機でもテストするだろうね
305:デフォルトの名無しさん
17/01/02 14:09:16.85 ASj0fxen.net
>>297
具体例は?
306:デフォルトの名無しさん
17/01/02 14:14:01.70 ASj0fxen.net
>>292
想定外と言うのはその時点で考慮しなくて良いものの事だ
想定外として許容できるものは用途による
想定外想定外って具体的に何の用途で何の事を言っているのか?
今でも隕石が航空機に衝突したら墜落するだろう
これはあなたの判断では想定外でしたテヘペロで許されるのか?
あなたの判断と世の中の判断とは必ずしも一致しない
あなたが許容しなくても社会が許容する商品は普及する
307:デフォルトの名無しさん
17/01/02 14:17:37.48 ASj0fxen.net
>>291
自分が知りたい事から逃げるなって言ってるんだが
更に知りたい事を解明できない自分の無能さを棚にあげるな
308:デフォルトの名無しさん
17/01/02 14:30:52.94 ANqkDSqR.net
>>299
なんでそう判断したかわからない間違った結果、なので具体例は俺らには想像もできないが、
条件としては、人間ならあまり起こさないタイプの間違いだと思う
それが発生したとして
想定外問題への対処は人間だって得意なことではないかもしれないが
AIの想定外への対処は人間にはあらかじめ想像すらできないし、発生しても原因は理解できないだろう
AIはAIの思考回路で完結しなければ、AI自身も人間も責任が取れない
やはり実用化より解明の方が優先かもしれないな
309:デフォルトの名無しさん
17/01/02 14:44:21.75 ASj0fxen.net
>>302
AIで完結させる必要はない
人間の操作や既存技術も併用すれば良い
その結果人間だけで運転する場合より安全性が高まるのであれば価値はあるだろう
310:デフォルトの名無しさん
17/01/02 14:46:05.98 ASj0fxen.net
>>302
解明って何をどこまでの事を考えている?
311:デフォルトの名無しさん
17/01/02 14:50:54.02 ASj0fxen.net
宇宙の事を全て解明できていないから宇宙が存在してはいけないとか言う考え方?
現象がある
これを上手く使えば社会が豊かになる可能性がある
使おうとするのは自然だと思うけどな
もちろん悪影響もあるだろうからテストしたりするだろう
先端領域のよくからないものを面白いと思うか怖いと思うか人によるのでは?
312:デフォルトの名無しさん
17/01/02 15:47:44.73
313:jfcTsyjd.net
314:デフォルトの名無しさん
17/01/02 16:24:29.20 ChXAqrhQ.net
こういうときこそノイズを含め自分で学習する人工脳soinnです
315:デフォルトの名無しさん
17/01/02 16:30:50.41 POKxJ6yY.net
企業の研究開発部門にいるけど、
これまでの統計ツールに加えて、
機械学習の利用も考えている感じだわ。
データだけはいっぱいあるんで。
316:デフォルトの名無しさん
17/01/02 17:47:23.49 uA5/IyXn.net
熱心に議論してる人達いるけどこいつらSVMはおろか単純なNNすら実装したことなさそう
317:デフォルトの名無しさん
17/01/02 18:51:06.70 m+NG8uZ9.net
このスレ、プログラム板じゃないのかよw
318:デフォルトの名無しさん
17/01/02 18:56:11.46 m+NG8uZ9.net
>>308
昨年独立したんだけど、そういう出遅れたとこから仕事がいっぱい来てボロ儲け
319:デフォルトの名無しさん
17/01/02 19:15:04.45 JIP1y7CT.net
>>309 >>310
ブームの弊害だな、一年前はここまで素人くさいスレじゃなかった
320:デフォルトの名無しさん
17/01/02 20:31:03.95 bxJ9Dvs5.net
こういうスレもあっていいと思うけど数学板あたりにもあっていいと思う
321:デフォルトの名無しさん
17/01/02 22:35:33.24 YRqNyHlt.net
機会学習バブルは2016年末にはじけました。
偽物が急速に淘汰されるフェイズにはいっています。
322:デフォルトの名無しさん
17/01/03 00:11:20.68 e9TwvxAl.net
バブルが弾けたとは思わんが、淘汰はされるな
ブログラマもMNISTで脱落する人が意外に多いし
323:デフォルトの名無しさん
17/01/03 00:48:08.40 ooOK3l+x.net
MNISTで脱落ってどういうことだよ
324:デフォルトの名無しさん
17/01/03 01:10:40.63 73atcCRZ.net
このスレでも python 推奨の流れに抵抗してたのいたじゃん
python 一つできないなら MNIST だって無理じゃね、プログラミング視点なら
325:デフォルトの名無しさん
17/01/03 02:11:31.57 Kcok0t+N.net
ざっこ
Python初心者でも
MNISTぐらいできるぞ
どんだけレベル低いのか(笑)
326:デフォルトの名無しさん
17/01/03 02:52:02.08 e9TwvxAl.net
そんなに易しいかな
numpy を使いこなすのだって畳み込み層を構築するのだって python 初心者にはハードルあると思うが
327:デフォルトの名無しさん
17/01/03 03:02:03.61 e9TwvxAl.net
まぁ keras のサンプルを何も考えずに打ち込むだけなら、誰でもできるかもしれんが
328:デフォルトの名無しさん
17/01/03 05:59:21.84 MsG1CCsR.net
aiの認証制度は研究の足枷になるだろうな
329:デフォルトの名無しさん
17/01/03 06:14:07.44 yf84fvWK.net
プログラム板なんだから社会インフラの話しは他でやれ
330:デフォルトの名無しさん
17/01/03 06:48:19.55 BWDUq4aY.net
>>319
最初はコピペだからエラーが無ければ簡単だろ
331:デフォルトの名無しさん
17/01/03 06:49:50.02 farXT/RS.net
データマイニング屋に2chは高卒率が高いサイトだと判定されてるぐらいだからな
URLリンク(www.alexa.com)
こうなるのも当然だよ
332:デフォルトの名無しさん
17/01/03 10:18:46.25 MsG1CCsR.net
AIの認定制度はAI研究を停滞させるから止めろ
333:デフォルトの名無しさん
17/01/03 10:32:12.97 NiJgz8R3.net
>>324
わろす
334:デフォルトの名無しさん
17/01/03 14:06:45.97 AV7YJV5h.net
>>320 kerasよりtensorflowやchainerの方が簡単だろう。
335:デフォルトの名無しさん
17/01/03 14:08:36.81 EEyJHWDM.net
煽りじゃなくてマジで時代はkeras。
336:デフォルトの名無しさん
17/01/03 14:13:14.87 bKYKotyv.net
>>327
kerasってtensorflowの抽象化レイヤ
337:なんだが…
338:デフォルトの名無しさん
17/01/03 18:36:23.02 t8FHlcVh.net
>>327
kerasとtf使ったことないんだね
339:デフォルトの名無しさん
17/01/03 19:07:52.57 qTnxbQug.net
>>330
kerasを使うとtensorflowを直接使うのと比べて
メリットとデメリットは何?
大したメリットが無いのにあるいは大きなデメリットがあるのに使う気にはならないと思う
340:デフォルトの名無しさん
17/01/03 19:10:46.18 yTaQo5IR.net
>>331
メリット 簡単
デメリット 特になし
341:デフォルトの名無しさん
17/01/03 19:17:11.50 t8FHlcVh.net
tfは七面倒な分並列化の細かなチューニング等出来るのがkerasだと隠蔽されてるね
デメリットはそれくらいじゃないかな
342:デフォルトの名無しさん
17/01/03 19:26:23.78 qTnxbQug.net
>>333
kerasはtfの機能をフルに使えてるのかな
tfで出来ることがkerasを使う事で使えないとかあるんじゃね?
343:デフォルトの名無しさん
17/01/03 19:28:30.82 qTnxbQug.net
あとtfを直接使うのと比べて遅くなる気がする
344:デフォルトの名無しさん
17/01/03 19:49:55.39 bDTo0EKH.net
そらラッパーだからな
345:デフォルトの名無しさん
17/01/03 21:13:41.32 C8pIovI7.net
実装に時間がかからないのは大きなメリットだな。
346:デフォルトの名無しさん
17/01/03 21:27:57.04 /IeuKpsb.net
バグが少ないのもメリット
347:デフォルトの名無しさん
17/01/03 23:13:51.23 mZ+dIS13.net
kerasにケチつけてるのchainerつくってるやつじゃないの
348:デフォルトの名無しさん
17/01/03 23:16:33.71 pInQTjhJ.net
chainer使う奴はもうおらんやろ。
海外のライブラリには勝てんよ。
349:デフォルトの名無しさん
17/01/04 05:53:48.21 pHlhviiX.net
kerasのドキュメントをちょっと見てみてるんだけどさあ
この目的関数を指定するところってこれ、Kerasがモデルから自動で用意してくれるの?
URLリンク(keras.io)
モデルもレイヤーをレゴブロックをくっつけるように足していくだけ、目的関数の算出も自動・・・・となると、ちょこっとモデルを変えてみたいときとか楽なんかな
350:デフォルトの名無しさん
17/01/04 07:24:23.96 jNTMq3ae.net
>>341
予め関数にしてるだけのようだけど
その用意されたものから選択する感じだと思うけどな
351:デフォルトの名無しさん
17/01/04 07:45:08.67 vQ0spiNE.net
>>339 >>340
同意。別に chainer が悪いわけじゃないが、グローバル・スタンダードが出て来たらそちらを使うのが当然
352:デフォルトの名無しさん
17/01/04 09:40:38.71 P9CxkEKM.net
ガラパゴス化というさんざんこの国が繰り返してきた失敗を防ぐためにも、
chainerはいいかげん身を引いてほしい
353:デフォルトの名無しさん
17/01/04 09:52:46.67 vQ0spiNE.net
少なくともchainer はtensorflowと張り合うのはやめて欲しい、既に勝敗は決した
生き残るためには独自色を強めるとかかなぁ
354:デフォルトの名無しさん
17/01/04 11:45:14.59 yr35s+1S.net
chainerの中の人がtensorflowに張り合っていて
それでいいものが作れたなら別にいいじゃん
chaninerのcpu実装は遅いけどgpu実装はまあまあだし
tensorflowのcpu実装は速いけどgpu実装はまあまあだし
355:デフォルトの名無しさん
17/01/04 12:00:40.43 QnDfA0Np.net
使うやつがどんどん減ってるけど、
それで構わないならいいんじゃないの
356:デフォルトの名無しさん
17/01/04 12:01:51.99 QnDfA0Np.net
客がどんどん TF に乗り換えたがってて笑えるけどなw
357:名無し集中
17/01/04 12:23:19.05 akUjhvPR.net
日経サイエンスの人工知能特集でよんだが
chnrのなかのひとら毎週海外の論文よんだ発表会してる(ドヤ
なんだってさ輸入翻訳業はかわらんなぁ 論文から実装する力ばっかりつくんじゃないの
358:デフォルトの名無しさん
17/01/04 12:31:38.52 prJXD1Ld.net
>>349
耳が痛いなぁ… 日本の研究者がやってるのは基本的にはそれだけだよ
コツをつかめば難しくないし効率がいいんだよな。
リファレンス実装は大抵あるし、結果が出ることも分かってるし
359:デフォルトの名無しさん
17/01/04 12:33:04.86 lvXDnlaO.net
PFNとしたら最新の論文を実装できて実業に応用できれば十分だと思うのだが。
360:デフォルトの名無しさん
17/01/04 12:37:11.55 lvXDnlaO.net
というか、このスレはディープラーニングそのものの研究をしたい奴と応用の話をしたい奴が入り交じってるけど、そのものの話をしたいなら数学板あたりにスレ立てしたほうがいいんじゃない?
361:デフォルトの名無しさん
17/01/04 12:39:20.44 prJXD1Ld.net
>>351
そう、だから chainer は基本的には社内ツールであって
グローバルスタンダードを目指す必要は本来はないはず。色気出してたけどなw
第三者は tensorflow なり keras なり使っときゃ十分。
362:デフォルトの名無しさん
17/01/04 12:41:55.06 prJXD1Ld.net
>>352
そのものを研究してるやつなんかいるのか?w
日本語処理とコグニトロン以外では日本人の名前は殆ど見かけないぞw
363:デフォルトの名無しさん
17/01/04 13:07:28.18 2zMqbxLR.net
>>347 だから、日本製はOSのTRONみたいなことばかりする。検索エンジンもしかり。
AIエンジンも海外に抜かれる。
364:デフォルトの名無しさん
17/01/04 13:23:43.46 qYKheqU2.net
>>355
お前がやれば
365:デフォルトの名無しさん
17/01/04 13:51:06.61 dRBkk7gx.net
日本が海外がとか別にどうでもよくないか
366:デフォルトの名無しさん
17/01/04 14:27:49.37 WgerS0Nf.net
ここの人たちはテンスルとかケラスが中でどのようなことやってるのか興味ないのか
367:デフォルトの名無しさん
17/01/04 14:32:20.85 vQ0spiNE.net
>>357
もちろん趣味でやるなら気にする必要なし
368:デフォルトの名無しさん
17/01/04 15:09:05.97 xz7GWhg6.net
>>358
行列計算してるだけやで
ただ、どうしても一部は単純な行列計算に落とし込むのが難しい部分もあるから、
そういう部分をいかにパフォーマンスや記述性を犠牲にせずにゲロ遅いスクリプト(Python)に落とし込むかか技術的なポイント
応用する分にはどうでもいい領域
369:デフォルトの名無しさん
17/01/04 15:36:26.26 TEQVZFn/.net
>>360
コンパイル言語で書けば良いんじゃ無いの?
Pythonのコンパイラとか作れば良いのか
370:デフォルトの名無しさん
17/01/04 15:42:35.67 AQQ3MUYI.net
>>361
Cython 知らんのか?w
371:デフォルトの名無しさん
17/01/04 15:43:49.48 xz7GWhg6.net
>>361
それも一つの方法だけど、直接コンパイル言語でフローを書いたらGPUで動かしたり他のノード上で動かしたりするのは難しいでしょ
ホスト言語とは分離したDSLを設けることで実装に自由度を持たせるの
372:デフォルトの名無しさん
17/01/04 16:29:02.53 yr35s+1S.net
tensorflowの良書を教えてくさい
373:デフォルトの名無しさん
17/01/04 16:31:18.58 AQQ3MUYI.net
>>364
チュートリアルを順番に丁寧にやるのが一番良いと思う
374:デフォルトの名無しさん
17/01/04 16:44:06.42 2zMqbxLR.net
>>360
375:デフォルトの名無しさん
17/01/04 17:01:23.91 XRUKigB5.net
実際、Pythonなんか使いたくない、ってC++で書かれたフレームワークあるよ。
DyNetとかmntkitとか(いずれも自然言語処理用だけど)
376:デフォルトの名無しさん
17/01/05 00:03:55.64 qxu/ABC+.net
今日客にchaninerで実装するっていったら
3時間ぐらい説教されたよw
そんな糞フレームワーク採用できるか馬鹿野郎ってすげーねちねち言われるし
なんでTensorflowで提案持ってこれないんだ技術力低いのかとか
意味不明な煽りも受けたし
なんだこれ?俺悪いことした?
377:デフォルトの名無しさん
17/01/05 01:39:07.99 oDz8Ncus.net
盛ってるにしても本当のことなら、
もちろん悪いことしてるだろ JK
何で一般的な知名度が皆無のフレームワークで提案するんだよw 客からしたら舐められたと思ったんだろ
378:デフォルトの名無しさん
17/01/05 05:28:14.61 McsfTwG4.net
書いてることが高卒フリーターだらけの国らしいわな
379:デフォルトの名無しさん
17/01/05 05:28:24.87 OnPczPIF.net
>>368
悪いに決まっている。AI に興味あるユーザ企業の TF/Google への信奉度は凄いよ。
大してつきあいのない客が TF で何か作れとか言ってくる。こんなこと今までなかった。
まぁ喋れるやつ作れ、とか無茶ぶりで頭痛いけどなw
380:デフォルトの名無しさん
17/01/05 05:29:46.53 OnPczPIF.net
>>370
高卒フリーターでも TF できれば、おこぼれに預かるチャンスだぞ。わりとマジで。
381:デフォルトの名無しさん
17/01/05 07:16:01.28 hDlq+tiw.net
TFできるだけじゃ誰も金払ってくれんだろ
重要なのはTF使ってどんなアウトプットができるか?そして問題を解決できるか?だろ
使うだけなら学生だって出来る
382:デフォルトの名無しさん
17/01/05 08:54:09.63 gfDYS9Zc.net
使うだけで金にはなると思うけどなー
クライアントのレベルだって様々だよ
383:デフォルトの名無しさん
17/01/05 09:06:06.73 b5/JqiCA.net
はいはい釣れた
384:デフォルトの名無しさん
17/01/05 09:08:52.61 vrx9Jkid.net
いよいよTF一強だな
385:デフォルトの名無しさん
17/01/05 10:45:11.94 W/+CAQrH.net
低落は始まっている
386:デフォルトの名無しさん
17/01/05 10:59:58.55 fJTYsmAT.net
>>374
同意。本当にレベルは様々
387:デフォルトの名無しさん
17/01/05 11:03:07.88 fJTYsmAT.net
>>376
対抗馬としてMicrosoft関連だと思ってたんだけど、CNTKがびっくりするくらい流行らなかったからな
388:デフォルトの名無しさん
17/01/05 12:03:32.77 WaSo5sCZ.net
数学もろくにできないのにはやってるというだけで機械学習はじめましたってやつが多すぎる
389:デフォルトの名無しさん
17/01/05 12:20:17.50 2irOG/pU.net
数学も英語も出来ない、プログラムも出来ないけど人工知能なら書けなくてもなんでもやってくれそうだ・・・・
人工知能の報道を見たそんな人でごった返してんだよ
390:デフォルトの名無しさん
17/01/05 12:25:22.53 CaXQlQxZ.net
スマホ使ってるけどその動作原理を知らない
そんな感じでもいいんじゃね?
391:デフォルトの名無しさん
17/01/05 12:25:55.94 FiXM9MzR.net
アドルフォイが囲碁板で自分が学習させたRocAlphaGo
が弱いと暴れています。
早くこっちに誘導してください
392:デフォルトの名無しさん
17/01/05 13:06:39.16 c6xYhHVb.net
アホ同士仲良くやってください
393:デフォルトの名無しさん
17/01/05 22:06:00.19 8R8+J/ZX.net
>>382
スマフォ(アプリ)の動作がおかしいんですけど、悪いとこ直してって言われて、どこが悪いかわからなかったらどうする?
394:デフォルトの名無しさん
17/01/05 22:17:34.36 WPj32BYO.net
プラットフォームとフレームワークの区別もできないのか
395:デフォルトの名無しさん
17/01/05 22:40:52.55 85qw7yG3.net
機械学習でAIが短編を書くことは可能ですか?
ある人の膨大な作品を機械学習させること自体は可能だろう。
ただそれで単語や意味のカテゴリー分けができるくらいで
そこからどうやって機械に創作させればいいんだ?
396:デフォルトの名無しさん
17/01/05 22:45:57.37 UiiKd7HR.net
ポエムならポエム板へ
397:デフォルトの名無しさん
17/01/05 22:57:48.76 fezKGL1W.net
そんなあなたにうってつけの本がここに
URLリンク(www.amazon.co.jp)
398:デフォルトの名無しさん
17/01/05 23:00:52.52 UiiKd7HR.net
また騙されて真板へ飛ばされたわけだが
399:デフォルトの名無しさん
17/01/05 23:31:27.67 PN6lkzK2.net
>>374
例えば?
400:デフォルトの名無しさん
17/01/05 23:41:29.94 LEh5ltRV.net
ニコ動って機械学習サービス出てこないね
アルゴリズムより応用が思いつかない感じ
401:デフォルトの名無しさん
17/01/06 01:11:52.68 vZTGYmP6.net
結局機械学習やら人工知能なんてものは大勢に普及したら空気となりそれを利活用して価値を創出するのが重要になる
何を生み出すか、何を創造するかでね
だから必死こいていま基礎から理論から機械学習勉強しても無駄、徒労に終わるだけだからGoogleとか天才たちにインフラ整備は任せとけばいい
それよりも今目の前のコト、もしくは仕事に全力を注ぐことだ
AIが当たり前になれば昔のようにまた純粋芸術を頂点とした世界に戻るのだから
402:デフォルトの名無しさん
17/01/06 01:21:25.80 OZLvaG/K.net
↑ただのいいわけでしょ
403:デフォルトの名無しさん
17/01/06 01:21:59.53 36rGB0Vb.net
>>393
俺は馬鹿だから機械学習なんて分からない、
まで読んだ。
404:デフォルトの名無しさん
17/01/06 02:51:54.22 oFhfJz9R.net
最近ニューラルネットワークを勉強し始めたんだけど学習量と隠れ層は多すぎても少なすぎてもだめってことはわかった
そこで疑問なんだけど教師データは多すぎるデメリットってあるの?
sinを求めるとか簡単なことしかやってないからデメリットに直面してないだけなのかそこまでないのか教えていただけるとありがたい
405:デフォルトの名無しさん
17/01/06 03:48:40.24 vZTGYmP6.net
機械学習では自らの運命を創れない。人工知能の運命は人が与えるものだからね。
これが人と人工知能の決定的な差だ。そして人は自らの運命を彩る芸術家でもある。
406:デフォルトの名無しさん
17/01/06 05:13:50.37 QeT3tOgY.net
>>393
やりたい事があるとする
既存のフレームワークで実現を試みるが上手くできないとする
どう言う選択肢がある?
407:デフォルトの名無しさん
17/01/06 05:17:03.78 QeT3tOgY.net
>>397
運命って何?
次に何をするかを決めるって事なら何とかなるんじゃね?
て言うか機械学習で運命を決める必要があるの?
人間の機能を全部機械学習で実現できたらそれこそ人間の仕事は機械に置き換わる
408:デフォルトの名無しさん
17/01/06 06:12:48.18 lthbEsBW.net
文系の人は無理に書き込まなくていいよw
409:デフォルトの名無しさん
17/01/06 06:18:58.82 vZTGYmP6.net
そして芸術家とは破壊と創造の主である。
破壊の神でもあり創造の神でもあるのだ。
410:デフォルトの名無しさん
17/01/06 06:33:03.78 V8wWSmc2.net
>>397
人は死ぬが人工知能は死なない。これが決定的な差だよ
誰も敢えて指摘しないが、実はこれが AlphaGO の真の怖さだと思っている
どんな名人でもやがて死ぬが、AlphaGo は永遠に強くなり続けて碁の神となるのだよ
411:デフォルトの名無しさん
17/01/06 06:59:59.16 R6JG5WSA.net
実質的に同じ意味を持つニューロンが複数できちゃうのって、なんか防ぐ技術あるの?
412:デフォルトの名無しさん
17/01/06 07:02:38.27 V8wWSmc2.net
>>403
つ dropout
413:デフォルトの名無しさん
17/01/06 07:45:51.42 8EHemPmg.net
dropoutしないときに同じ意味を持ってしまったニューロン(例えば2つ)は
dropoutしたときにどんなふうなニューロンになるの?
1つの状態を2つに分割したような2つのニューロン?
それとも1つはdropoutしないときと同じものでもう1つのはノイズニューロン?
414:デフォルトの名無しさん
17/01/06 07:49:26.42 lthbEsBW.net
>>405
Dropoutの意味が分かってない
415:デフォルトの名無しさん
17/01/06 07:51:42.69 PNUaneZu.net
というか、正則化が分かってない感じ
416:デフォルトの名無しさん
17/01/06 08:50:51.19 8EHemPmg.net
教えてエロい人
417:デフォルトの名無しさん
17/01/06 09:23:44.94 36rGB0Vb.net
ていうか何も分かってない感じ
418:デフォルトの名無しさん
17/01/06 12:20:34.18 5HA7V59p.net
>>408
だが断る
419:デフォルトの名無しさん
17/01/06 14:09:57.88 GJm6M3QX.net
>>402 カーツワイルは
420:不老不死。フランクティプラーは人間の素性。
421:デフォルトの名無しさん
17/01/06 15:54:01.40 d/68wcma.net
>>396
デメリットは過学習があるけどあらゆる手法でその影響は軽減できるので教師データは多いに越したことはない
422:デフォルトの名無しさん
17/01/06 15:54:53.43 d/68wcma.net
>>405
質問の意味が分からない
423:デフォルトの名無しさん
17/01/06 15:59:28.51 A0+jLhsU.net
テンフロ一極化ってマジヤバじゃん
結局、あれってGAE上で使ったら最もパフォいいですよ=クラウド買ってね大作戦でしょ?
そんなんでいいのか?
トロンの悲劇を繰り返すのか?
俺たちはチャイナーがんばんべ?
424:デフォルトの名無しさん
17/01/06 16:09:36.87 vdU4DTqF.net
ぱっぱらぱー降臨
425:デフォルトの名無しさん
17/01/06 16:42:30.00 A0+jLhsU.net
どうやらググ―ルの陰謀に気ずいてたのは俺だけらしいね
情報最先端と言える2chでこのレベルだし、これはしかるべき機関に伝達しないといけないな・・・
426:デフォルトの名無しさん
17/01/06 17:14:13.35 x2KdJ7gV.net
>>402
そうそうなんだ、人工知能は刹那に生きることが出来ないんだ。
この刹那の瞬間に数々の奇跡がうまれ感動を呼び大地に刻まれ文化となり歴史(人生)となる。
人工知能ではこの歴史が創れないのだ。
427:デフォルトの名無しさん
17/01/06 17:30:31.58 7rPnqejC.net
人工知能は便利な道具だと思うね。
コンピュータの進歩により、
ディープラーニングが可能になった。
これは単なるブームではない。
第四産業の登場だよ。
428:デフォルトの名無しさん
17/01/06 17:55:58.57 1gzj3ldL.net
精神科のある病院が良いかもしれません
429:デフォルトの名無しさん
17/01/06 21:41:22.46 A0+jLhsU.net
公式にはAlpahaGoのmasterくんは、非公式のテストとか言ってるが
あれ実はAlpahaGoが逃げ出して勝手に始めたことなんだよ
当局はそんなこと世間にしれたら大問題になるから非公式のテストとか言ってるが
すでにAIは意思を持ち始めているからね
俺や一部の人間は気ずいてると思うよ
430:デフォルトの名無しさん
17/01/06 22:15:38.56 OZLvaG/K.net
>>420
動作原理知らない文系ですよね?
431:デフォルトの名無しさん
17/01/06 22:37:11.91 7rPnqejC.net
>>420
ターミネーター映画の見過ぎ
432:デフォルトの名無しさん
17/01/06 22:55:26.81 vZTGYmP6.net
所詮はAIで生成されたもの
いくら技巧的でも、そこには人生がない。
人間の認識や感情の根本は差別だ。
アレとコレは違うという認識が基本なんだ。
だから、人工知能がいかに人間のように振る舞っても、人工知能と人間の知能は違うという事実を認識する。
つまり差別するんだ。
奴隷全盛期の時代において、奴隷にして高い芸術的評価を受けている人間はいるか?
芸術というのは作者がどのような人生を送ってどのようなことを考えているかということが重要であり、
その上で、作品が他人に好まれなければならないんだよ。
そりゃ、過去のデータから大衆が好みそうな音楽を自動生成する人工知能なんかはそのうち作れるだろうさ。
ロボットが頭をポリポリ書きながら楽譜を書いて作曲したりもできるかもしれないさ。
でも、それって「人工知能」だろ?そこには人生がない。
人間とはちがう、ただそれだけの理由で好まれないんだよ。
作者がどんな経験をしてどんなことを思って描いたのかということが大切なんだ。
433:デフォルトの名無しさん
17/01/06 23:04:18.06 IFINHmj3.net
それはどうかな
434:デフォルトの名無しさん
17/01/06 23:12:18.89 B+W1qT2d.net
ポエム板でやってね
435:デフォルトの名無しさん
17/01/06 23:29:04.56 86GktmGC.net
納品するPCがwindowsなんだけど、Tensorflowってwindowsで動く?
学習だけはlinuxでやってもいいんだけど
436:デフォルトの名無しさん
17/01/06 23:38:44.49 kp2I/0b
437:G.net
438:デフォルトの名無しさん
17/01/06 23:56:21.57 B+W1qT2d.net
ピップエレキバン
439:デフォルトの名無しさん
17/01/07 00:01:55.26 jmMYi0mm.net
>>427
インストールはできても動作しないって噂聞いたんだが
440:デフォルトの名無しさん
17/01/07 00:17:26.09 ZttqXK5E.net
URLリンク(www.tensorflow.org)
公式は出来るよって言ってる
441:デフォルトの名無しさん
17/01/07 01:21:42.22 jmMYi0mm.net
おおほんとだ
できるようになってたのか
442:デフォルトの名無しさん
17/01/07 01:48:08.10 4qxOrhve.net
>>423
こういうこと考えるやつってほんと嫌いだな。
443:デフォルトの名無しさん
17/01/07 01:57:31.88 IrIkzzkt.net
ニューラルネットワークとかで人間の脳に構造を近づけていくと
人間くさいやらかしもやるようになるの?
インディペンデンスデイの風邪ひかせるのが現実になるのか
444:デフォルトの名無しさん
17/01/07 02:05:12.55 zaHXX5n5.net
超一流の数学者と超一流の計算機科学者ってどっちの方が頭いいの?
445:デフォルトの名無しさん
17/01/07 03:57:11.87 Px6qU8B7.net
>>412
ありがとう
446:デフォルトの名無しさん
17/01/07 04:47:53.11 8zdH9Sfg.net
>>435
真に受けるな、過学習は起きにくいに決まってるじゃないか
447:デフォルトの名無しさん
17/01/07 04:51:29.16 8zdH9Sfg.net
>>429
ねえよw ステーブル版じゃないか、chainer信者からのデマだろ
但し、hdfsが使えないとか、少し制約はある
448:デフォルトの名無しさん
17/01/07 04:52:48.52 8zdH9Sfg.net
>>434
頭の良さの定義は?
449:デフォルトの名無しさん
17/01/07 05:07:40.14 o7MUl6cB.net
>>433
やらかしを学習させるだけだが
450:デフォルトの名無しさん
17/01/07 07:51:36.75 yUFhWZTN.net
>>433
人間くささってなんだ?
451:デフォルトの名無しさん
17/01/07 08:49:01.35 N3UN3uty.net
加齢臭?
452:デフォルトの名無しさん
17/01/07 09:16:10.75 rc8yVPel.net
>>434
おまえさんが
ナンバーワン
453:デフォルトの名無しさん
17/01/07 11:33:30.05 gdmcm9JP.net
AIかそうじゃないか(ただの手続きプログラム?)の違いっていうのは
AIの方がAI作成者より賢くなるって理解で良いですか?
454:デフォルトの名無しさん
17/01/07 11:50:34.99 TOrGuStJ.net
>>443
良くない
455:デフォルトの名無しさん
17/01/07 12:15:02.42 ZttqXK5E.net
>>443
どうやったらそんな理解になったか聞きたいw
456:デフォルトの名無しさん
17/01/07 13:05:52.36 94Ec8VCq.net
ノイマンアーキテクチャである限り手続き型を枠を出ないしシンギュラリティもありえない
457:デフォルトの名無しさん
17/01/07 13:39:40.63 TOrGuStJ.net
>>446
なんで?
458:デフォルトの名無しさん
17/01/07 13:40:59.96 TOrGuStJ.net
>>446
プログラムを生成しつつ実行するプログラムを作れば良いんじゃないの
459:デフォルトの名無しさん
17/01/07 13:44:50.65 u/YaKAHu.net
>>442
もともと特別なオンリーワン
460:デフォルトの名無しさん
17/01/07 17:17:01.45 4jt/Q9EM.net
作成者よりアホなAI造って何になるん?
461:デフォルトの名無しさん
17/01/07 17:18:05.70 FotkJfpy.net
ディープラーニグはAIだから利用すべきだけど
その他の手法は機械学習のため学ぶ価値はゼロだって
大学の講演で聞いたんだけどどういうことだろうか?
462:デフォルトの名無しさん
17/01/07 17:44:47.98 dpFi03E+.net
>>451
聞き間違えだろう
463:デフォルトの名無しさん
17/01/07 17:50:42.12 +vNf+O98.net
>>451
他はビジネスの道具という色が強くて、あまりそれ単体で意味のあるものではないからじゃないか?
学者様は「何に使うのか」というところに踏み込みたがらないから、
人の視覚認識を再現するといったような単体で意味のありそうなテーマを好む傾向がある
464:デフォルトの名無しさん
17/01/07 17:56:23.26 xgOXdwf3.net
不可塑性を持つ人工知能も登場するんじゃないか?
というか今はボトムアップ型の開発が主流だろ
生まれた子供の知能が親より高
465:かったらSFだし 生存競争で不利なんだっけか
466:デフォルトの名無しさん
17/01/07 18:04:12.86 TOrGuStJ.net
>>451
レコメンド機能とか使われてるんじゃね?
467:デフォルトの名無しさん
17/01/07 18:07:17.54 4lT0hUL1.net
学生にとって現実に将来役に立つ可能性で言えば、重回帰やkNNや決定木の方がよっぽど意味ある
468:デフォルトの名無しさん
17/01/07 19:49:07.89 u/YaKAHu.net
ジャップランドでの最高位スキルはコミュ力や
おまんこハメハマDeepKissing、これが俺たちのザ・ゴール
469:デフォルトの名無しさん
17/01/07 22:00:39.86 g5GyAmCB.net
ディープラーニングも機械学習なんだけど
470:デフォルトの名無しさん
17/01/07 23:38:31.07 637eCEcU.net
やたらとディープラーニングを持ち上げる信者が研究者にもいるから見極めが必要
471:デフォルトの名無しさん
17/01/07 23:54:37.51 7WcdG19j.net
何事もそうだろう、特に研究者なら
472:デフォルトの名無しさん
17/01/08 04:08:59.48 xMVs4RXt.net
>>451
> ディープラーニグはAIだから
ワロタw 知能でも何でもないし。
知能という言葉をあえて使いたいというのなら疑似知能と言うべきだろうな
知能はないけれど、知能があるかのように振る舞うだけ
そもそも人工知能なんて役に立たないからな。
知能を作りたいなら子供を作ればいいだけだ。
人間にとって本当に必要なのは、膨大なデータとそれを処理するコンピュータだ。
コンピュータがやってることは人間には不可能なこと。
つまり人間が持っている知能という能力ではないんだよ。
人間の知能ではできなことがうまくできるようになったからって、
それは知能を持っていることにはならない。だからといってコンピュータが
意味がないということではない。
人間ができないことをやるから、便利な道具になるんだよ。
ディープラーニングも人間の知能ではないから便利
473:デフォルトの名無しさん
17/01/08 07:22:06.92 ts3G2y2D.net
>>461
人間にできる事を高速に正確に大量にできることは知能では?
知能って何?
474:デフォルトの名無しさん
17/01/08 07:22:11.77 0mVP2hZ6.net
ディープワーニング
475:デフォルトの名無しさん
17/01/08 07:33:32.26 2nv7Vmsj.net
ディープルーチング
476:デフォルトの名無しさん
17/01/08 07:55:49.88 ZFJRYXHW.net
ダートマス会議に沿ってるだけだからw
文系議論は別板でやってくれ
477:デフォルトの名無しさん
17/01/08 08:00:45.34 Nxeyd9Pg.net
理系… TF / Keras ってどうよ
文系… AI は知能じゃない
こうですか? www
478:デフォルトの名無しさん
17/01/08 10:03:35.45 jFITdO6M.net
ディープスロート、フェ○ではない
479:デフォルトの名無しさん
17/01/08 10:08:00.39 TXqGgIea.net
>>461
知能はないけれど、知能があるかのように振る舞うだけのお前が何言ってだ
480:デフォルトの名無しさん
17/01/08 10:19:08.68 eI5uXFmJ.net
>>462
バケツリレーより早く効率的な水車は知能かな?
481:デフォルトの名無しさん
17/01/08 10:25:13.45 sMpT8Z5D.net
>そもそも人工知能なんて役に立たないからな。
>知能を作りたいなら子供を作ればいいだけだ。
馬鹿乙、ほしのは賢い知能だ、教育して優秀な人材になる確率はどれだけるのか?
482:デフォルトの名無しさん
17/01/08 11:03:04.60 iYjmYj1a.net
Chinoh means intelligence, and no one want unintelligent human
483:デフォルトの名無しさん
17/01/08 11:19:45.26 8JnbookD.net
かつての日本人は優秀な奴隷だった
484:デフォルトの名無しさん
17/01/08 12:17:30.45 ts3G2y2D.net
>>469
計算や検索や間違い探しは知能ではない?
485:デフォルトの名無しさん
17/01/08 12:18:17.60 ts3G2y2D.net
>>469
アクチュエータの例を挙げる所に知能の低さを感じる
486:デフォルトの名無しさん
17/01/08 12:44:07.81 0mVP2hZ6.net
今日の会場はこちらですか
487:デフォルトの名無しさん
17/01/08 13:19:21.40 TXqGgIea.net
ようこそいらっしゃいました
まずはご本名とご住所をお書きください
488:デフォルトの名無しさん
17/01/08 13:40:20.55 RNfgXV6k.net
ここはプログラム板なんだから知能の定義の議論とかいらないです
489:デフォルトの名無しさん
17/01/08 13:50:51.75 62UFgOR0.net
>>465 >>477
禿同。
いや本当、プログラム板なんだから言葉の遊びは他でやれや。
というか、フレームワークの話しの流れをわざと反らしてるだろ
490:デフォルトの名無しさん
17/01/08 13:54:21.16 bkIE9CGW.net
chainerの役目は終わりましたので、
もう今後は無視して大丈夫です。
491:デフォルトの名無しさん
17/01/08 13:58:37.06 T6tx3hoE.net
科学哲学の板とかスレとかあるだろうから、そっちでやればいいだろ
人工知能の定義とか、喜んで相手してくると思うぞ
492:デフォルトの名無しさん
17/01/08 14:02:29.64 QoS/MrxE.net
chainerってトヨタの自動運転で
使われてるじゃないの?
493:デフォルトの名無しさん
17/01/08 14:03:46.75 iodaQ4Bk.net
>>478
TFTFTF
494:デフォルトの名無しさん
17/01/08 14:05:26.18 ZFJRYXHW.net
>>481
日本の技術が使われてるわけないだろw
>>482
池沼?
495:デフォルトの名無しさん
17/01/08 14:07:26.16 SQ/kH9s1.net
>>483
つかわれてる
URLリンク(www.sentaku.co.jp)
496:デフォルトの名無しさん
17/01/08 14:11:58.27 ZFJRYXHW.net
>>484
現実はシビアだな…
497:デフォルトの名無しさん
17/01/08 14:14:45.46 TXqGgIea.net
>>484
JAPさん・・・w
498:デフォルトの名無しさん
17/01/08 14:21:59.64 iodaQ4Bk.net
フレーム問題
URLリンク(www.ai-gakkai.or.jp)
499:デフォルトの名無しさん
17/01/08 14:27:12.21 iodaQ4Bk.net
人工知能って何?
URLリンク(www.ai-gakkai.or.jp)
500:デフォルトの名無しさん
17/01/08 15:52:14.44 xMVs4RXt.net
>>462
> 人間にできる事を高速に正確に大量にできることは知能では?
工場にある機械のことを、知能と言いたいの?
501:デフォルトの名無しさん
17/01/08 15:54:32.90 xMVs4RXt.net
むしろ知能をなくすことで、高速に正確に大量にできるようになるんだよね。
502:デフォルトの名無しさん
17/01/08 15:56:04.28 ts3G2y2D.net
>>489
ロボットには知能が組み込まれているものもあるだろ
工場にある機械と言う文字列をどう解釈するかによって答えは変わる
503:デフォルトの名無しさん
17/01/08 15:56:43.69 ts3G2y2D.net
>>490
高速と言うのは何と比較するかによって変わる
504:デフォルトの名無しさん
17/01/08 16:04:19.93 kLVtW1P5.net
画像識別とか問題を制限しないとまともな研究にならないのだ
505:デフォルトの名無しさん
17/01/08 16:10:32.73 xMVs4RXt.net
>>491
> ロボットには知能が組み込まれているものもあるだろ
ないよ。っていうか、どれが知能だと思ってるの?
506:デフォルトの名無しさん
17/01/08 16:12:46.76 xMVs4RXt.net
>>493
画像識別もなぁ、単に大量にある画像の中から
近い画像を見つけるってだけだしな。
極めて大量の画像があってそれを高速に検索しているだけ。
だから的中率が上がる。
人間はそんなことしてないんだよね。
すごく少ない画像とすごく遅い処理。という前提で
識別するのが知能。
507:デフォルトの名無しさん
17/01/08 16:15:36.06 xMVs4RXt.net
人工知能という点では、ディープラーニングとか
真逆のアプローチでしかない。
大量のデータがあるという前提でこれを力技で
高速処理することで人間にとって役に立つ処理を行っている。
コンピュータというのは人間に役に立つ処理を行うのが
目的だから、これ自体に問題はないんだけど
知能というのは少量のデータから結果を出すものなので
今のやり方は大きくずれている。
508:デフォルトの名無しさん
17/01/08 16:19:15.88 ts3G2y2D.net
>>495
近いってのが人間には簡単でもコンピュータで実現するのが難しかったわけだ
でお前は簡単に今実現されてる方法より優れたものを作れるんだよな?
509:デフォルトの名無しさん
17/01/08 16:20:42.75 ts3G2y2D.net
>>496
なんで少量のデータに限ってるのか判らないな
人間の記憶している情報は一切使わずにお前が言う知能を実現してるのか?
510:デフォルトの名無しさん
17/01/08 16:23:22.35 ts3G2y2D.net
知能の定義によるからなんとでも言えるだろう
お前の知能の定義なんか知らないし一般に通用しているものでもないだろ
511:デフォルトの名無しさん
17/01/08 17:12:10.43 xMVs4RXt.net
>>498
> なんで少量のデータに限ってるのか判らないな
> 人間の記憶している情報は一切使わずにお前が言う知能を実現してるのか?
人間が記憶できる程度の "少量" のデータで
人間は物事を考えてるからに決まってるだろ。
そもそも人間は見ていないデータは "記憶" していない。
どうせお前は潜在意識に記憶された~とか言おうと思ってるんだろうが、
見たことないデータは当然記憶していない。
その時点でコンピュータが処理しているデータよりも
人間が処理しているデータが大きく少ないことは確定した事実
512:デフォルトの名無しさん
17/01/08 17:17:39.80 8OGZNgRf.net
世間ではで~ぷら~にんぐ使ってれば人工チノ~使ってる扱いなんだし、どうでもいい議論だな
513:デフォルトの名無しさん
17/01/08 17:18:23.36 Paqy+wxP.net
知能てwww
学校の数学の授業で関数って習ったろ?
y=f(x)って。
AIってこの関数f(x)を多量のデータから作成してるだけやねん。
xに声とか画像を入れると、答えのyがゲットできる。
耳か目から入ったものが、識別されて頭の中に入るイメージ。
514:デフォルトの名無しさん
17/01/08 17:33:01.48 ts3G2y2D.net
>>500
人間の脳の記憶容量って1ペタバイトと言う説もあるがどの程度が少量なのかはお前のさじ加減次第だろ
あと紙とかも使えるわけだが
515:デフォルトの名無しさん
17/01/08 17:34:26.45 ts3G2y2D.net
>>500
前提として少量の情報に限定する必要はないんだが?
なぜ使えるものを使わないのか
516:デフォルトの名無しさん
17/01/08 18:09:41.41 ts3G2y2D.net
あと人間は主に五感を通して常に情報を得ている
脳はそれらの大量の情報を用いて学習している
人工知能で学習に使用される情報量が人間の学習に使用される情報量より少ないとは言い切れない
517:デフォルトの名無しさん
17/01/08 18:25:10.84 M9xdEeQA.net
何が知能にあたるのかなんて、
プログラム板ではどうでもいいんだが。
518:デフォルトの名無しさん
17/01/08 19:01:29.45 vsMqsvZn.net
>>505
プログラム板なんだが。荒らしてるわけ?
519:デフォルトの名無しさん
17/01/08 19:05:09.02 wSocPv3q.net
人間だって単にアウトプット方法が比較的多彩な関数機とみなせますし
しっかし生産性のない議論だこと…
520:デフォルトの名無しさん
17/01/08 19:12:27.83 xMVs4RXt.net
>>503
> 人間の脳の記憶容量って1ペタバイトと言う説もあるがどの程度が少量なのかはお前のさじ加減次第だろ
記憶容量と記憶量は全く別物。
どんなに容量が多くたって、知っているものしかデータ量は存在しない。
わかりやすく画像で言えば、人間見たことがある画像しか覚えていない。
その見たことがある画像の量がディープラーニングとは全く違う
521:デフォルトの名無しさん
17/01/08 19:13:01.99 ZFJRYXHW.net
定期的に湧くよな
生産性を持たないことに劣等感を持つ連中だろ
522:デフォルトの名無しさん
17/01/08 19:19:31.72 ts3G2y2D.net
>>509
大量の情報が必要って何をするのにどのくらいの情報がどのフェーズで必要になる?
判別するときに大量の情報が必要になるか?
回帰にしても同様
523:デフォルトの名無しさん
17/01/08 19:26:19.59 xMVs4RXt.net
> 判別するときに大量の情報が必要になるか?
学習するときに大量の情報が必要になるんだよ。
人間はそんな量の学習はしていない。
ゲームを攻略する人工知能とかいうのでも同じだろ。
何十回、何百回やってようやくそのステージに限ってクリアできる程度になる
だけど人間はそういうやり方ではない。
人工知能というのなら、人間と同じ試行回数で学習できなければいけない。
今のやり方は、人間では到底不可能な大量の処理を正確に行い
完全に記憶することを前提としている。
問題を解くためのアプローチの仕方が全く違う。
524:デフォルトの名無しさん
17/01/08 19:28:42.04 vsMqsvZn.net
>>512
頭の悪い議論を延々と続けたいなら別スレを立てたら?
525:デフォルトの名無しさん
17/01/08 19:32:23.01 VTpww55T.net
まぁ�
526:ゥ演を続けるのにもそのうち飽きるだろ
527:デフォルトの名無しさん
17/01/08 19:33:47.92 ts3G2y2D.net
>>512
お前はゲームのことしか学習してないのか?
それ以前に五感から情報を取得して学習してないか?
528:デフォルトの名無しさん
17/01/08 19:34:57.56 VTpww55T.net
次スレでワッチョイ導入して、NGに放り込みやすいようにしよう
529:デフォルトの名無しさん
17/01/08 19:38:00.48 ts3G2y2D.net
>>495
>>>493
>画像識別もなぁ、単に大量にある画像の中から
>近い画像を見つけるってだけだしな。
>
>極めて大量の画像があってそれを高速に検索しているだけ。
>だから的中率が上がる。
>
>人間はそんなことしてないんだよね。
>すごく少ない画像とすごく遅い処理。という前提で
>識別するのが知能。
お前はこう書いてるだろ
識別するときに大量の情報が必要と思ってただろ
530:デフォルトの名無しさん
17/01/08 20:31:14.94 xMVs4RXt.net
>>517
両方必要だよ。
画像識別の場合は、学習するときには大量の画像が必要。
識別するときには大量の学習済みデータが必要
531:デフォルトの名無しさん
17/01/08 20:45:37.51 ts3G2y2D.net
>>518
具体的にどの手法で?
なんの画像判別をするときに?
532:デフォルトの名無しさん
17/01/08 21:29:02.72 TXqGgIea.net
たしかに、俺はきれいなおっぱいを知らないが
きれいなおっぱいを見たときに感動する
つまり、機械にチンポがないのがいけないのではないか?
533:デフォルトの名無しさん
17/01/09 04:58:32.74 Cu9K5Cup.net
元研究者がやってるような会社って迷走していくよな
システム計画研究所もそうなんだが
534:デフォルトの名無しさん
17/01/09 05:48:12.78 JOAqSyBk.net
毎朝うんこしたらその日の体調診断してくれる便器とか
535:デフォルトの名無しさん
17/01/09 06:23:55.46 cwLtlWdl.net
そもそも統計分析について議論しているところに
人工知能がどうとか言い始めるのはどうかと思うんだ
536:デフォルトの名無しさん
17/01/09 09:49:08.29 ULzlfIIS.net
入出力の関数処理の関係って知能と呼んでOK?
537:デフォルトの名無しさん
17/01/09 09:59:43.72 bKCdSmvv.net
中国人の部屋
538:デフォルトの名無しさん
17/01/09 10:05:00.09 /7U8UXhW.net
きのうのscienceZEROでやってたな
539:デフォルトの名無しさん
17/01/09 10:06:01.21 /7U8UXhW.net
>>524
一方通行だけじゃなくてフィードバックがあればいいような気がする
540:デフォルトの名無しさん
17/01/09 10:07:29.35 +4sInSVu.net
確かに人間でも知能の欠片もないキチガイは一方通行だからつまらん罠
541:デフォルトの名無しさん
17/01/09 10:12:15.52 ULzlfIIS.net
学習後は一方通行
542:デフォルトの名無しさん
17/01/09 10:14:55.98 cSodeH17.net
ああ公務員のことか
543:デフォルトの名無しさん
17/01/09 10:28:29.25 Jh/1IYvM.net
こりゃ、「高卒フリーターだらけの国ニッポン」って韓国にも馬鹿にされるわけだわ
544:デフォルトの名無しさん
17/01/09 10:45:19.35 z3gVLhD7.net
ゴミスレに成り果て杉www
545:デフォルトの名無しさん
17/01/09 10:57:58.49 Dm7q6S9e.net
日本最先端と名高い機学デーマイスレがこのザマで、
ええんかお前ら・・・
546:デフォルトの名無しさん
17/01/09 11:07:33.52 RbIvkBFq.net
>>527
とある科学の一方通行ならしってる
547:デフォルトの名無しさん
17/01/09 11:13:49.48 ULzlfIIS.net
じゃあ知能って呼べないね
548:デフォルトの名無しさん
17/01/09 11:19:57.91 aQtMaO07.net
抽象的なポエムは知識がなくても書けるからな
うんざりだわ
549:デフォルトの名無しさん
17/01/09 11:23:56.03 k1Mmmgl9.net
>>433-434みたいなレスができる中学生は
>>502を参考に。。
ディープラーニングなんてのも、
所詮はデータから関数を作ってるだけにすぎない。
550:デフォルトの名無しさん
17/01/09 11:46:59.70 o0RDln5g.net
ID:vZTGYmP6
ID:V8wWSmc2
も中学生に追加
551:デフォルトの名無しさん
17/01/09 11:49:33.80 z3gVLhD7.net
ID:o0RDln5g
を小学生に追加すれば良いのですね?
552:デフォルトの名無しさん
17/01/09 12:30:03.58 Dm7q6S9e.net
ワオ31歳、若き叡智に震える
553:デフォルトの名無しさん
17/01/09 12:32:07.96 poP2LNAr.net
つまりは理解してなかったってことね
554:デフォルトの名無しさん
17/01/09 12:45:20.58 4OeNzyzM.net
自演乙
555:デフォルトの名無しさん
17/01/09 12:52:09.03 poP2LNAr.net
知らんがな
556:デフォルトの名無しさん
17/01/09 13:02:53.24 ZM3HJLmM.net
日本だとディープラーニングを使った提案以外
ほぼ認めらないのが辛いな海外だと精度上がって
効率的にできるならなんでもいいよなののに
557:デフォルトの名無しさん
17/01/09 13:10:44.06 z3gVLhD7.net
>>544
多様性が認められない社会だから仕方がない
558:デフォルトの名無しさん
17/01/09 13:15:28.20 p9LeFwZS.net
>>544 日本人の柔軟性のなさ。
559:デフォルトの名無しさん
17/01/09 13:39:10.82 Cu9K5Cup.net
営業力の違い。
営業に華僑、印僑、ユダヤを雇えばなんとか
560:デフォルトの名無しさん
17/01/09 13:44:19.13 fQnW9EuO.net
ディープラーニング以外の方法が軒並みディープラーニングにかなわない認識率だから仕方ない
裏を返せば、人工知能界隈はディープラーニングだけが図抜けただけで他の進歩はない
買い被られすぎている
561:デフォルトの名無しさん
17/01/09 13:49:55.87 RbIvkBFq.net
>>548 知ったか乙
563:デフォルトの名無しさん
17/01/09 13:50:36.93 cjVtQucR.net
>>544
それホント?
564:デフォルトの名無しさん
17/01/09 13:51:08.31 z3gVLhD7.net
>>548
自分でやったことがないのが丸わかり
565:デフォルトの名無しさん
17/01/09 14:28:13.44 pwFGbl4X.net
>>548
どの認識問題に対してどのネットワークが優れているのか言ってごらん
566:デフォルトの名無しさん
17/01/09 14:39:33.06 k1Mmmgl9.net
547を擁護してるわけじゃないが
時間的に連投してるから自演くさいな
567:デフォルトの名無しさん
17/01/09 15:29:56.98 Jh/1IYvM.net
それ以上に547=552に見えて仕方がねえな
568:デフォルトの名無しさん
17/01/09 15:48:39.81 +4sInSVu.net
552=553
じゃね
569:デフォルトの名無しさん
17/01/09 15:58:16.66 k1Mmmgl9.net
552は単独のなんだけど、まあいいや。
>>549-552が一人の書き込みだったら必死すぎてうけるww
570:デフォルトの名無しさん
17/01/09 16:20:40.03 /3dsHunZ.net
>>556
いや、あんたが必死過ぎる。放っておけよ
571:デフォルトの名無しさん
17/01/09 17:06:14.30 4OeNzyzM.net
一人であるという可能性を排除する合理的理由がないからな
572:デフォルトの名無しさん
17/01/09 17:13:39.00 /bDncKYI.net
○であるという可能性を排除する合理的理由がないからな
○の中に面白い言葉を入れて遊びなさい
573:デフォルトの名無しさん
17/01/09 17:28:53.96 a07EDxnX.net
答えられなくて流れ着いた文系が発狂してる
574:デフォルトの名無しさん
17/01/09 19:54:09.69 WWwzP2Ta.net
積層オートエンコーダの書籍でお薦めある?
論文しかないかなぁ
575:デフォルトの名無しさん
17/01/09 20:04:44.67 vJmjyrTZ.net
>>561
あんなもん、本を読むほどのもんじゃないだろw caffe の入門書あたりなら言及ありそうだが
576:デフォルトの名無しさん
17/01/09 20:09:03.55 Z/GXP5pv.net
>>561
今まで何を読んだ?
それに載ってなかった?
577:デフォルトの名無しさん
17/01/09 20:19:01.26 JP3B1fld.net
積層の理解なんていらない。
主成分分析との関係がわかれば十分。
というか、主成分分析をほうを理解すればよい。あるいは主成分分析のコードを書いてみたり、その結果から次数さげてみたり。
578:デフォルトの名無しさん
17/01/09 20:56:05.81 cjVtQucR.net
>>564
本当に?
ディープラーニングとはどう関係するの?
579:デフォルトの名無しさん
17/01/09 22:18:36.36 ZM3HJLmM.net
>>565
DBNとPCAの関係考えれば自明だろ
580:デフォルトの名無しさん
17/01/09 22:41:52.00 RbIvkBFq.net
>>565
真に受けるな、次元圧縮という視点だけで同一視してる極論。そもそも線形だし
581:デフォルトの名無しさん
17/01/09 23:32:06.28 cjVtQucR.net
RBMだろ
582:デフォルトの名無しさん
17/01/10 00:08:27.84 N74TPYKx.net
>>567
オートエンコーダで完全に入出力が一致すれば主成分分析と結果一致するのは数学的に証明されてるのに、何故否定??
ちゃんと理解したうえで言ってる??
583:デフォルトの名無しさん
17/01/10 00:18:55.31 N74TPYKx.net
>>568
目的は一緒だが、やってることは違う
584:デフォルトの名無しさん
17/01/10 00:57:02.71 mL71GP1A.net
オートエンコーダで積層にしているのは
2層だけだと収束が悪いので多層にしてるだけ。
ディープラーニングのメインコードとはもともと関係がない。
普通のオートエンコーダを理解すれば十分だけど、
>>564の言うとおり、条件を限定すれば
オートエンコーダの結果は主成分分析と一致する。
主成分分析の性質を理解することがオートエンコーダの理解に繋がる。
566は論外。
585:デフォルトの名無しさん
17/01/10 01:06:43.42 Lw+Ts/nh.net
>>571
主成分分析の何と一致する?
固有値や固有ベクトルは?
586:デフォルトの名無しさん
17/01/10 01:18:00.94 N74TPYKx.net
訓練データ{x1,x2,...}の共分散行列を作って、得られた固有ベクトルを並べたて格納した行列を新しい重み行列とすると、それはオートエンコーダで得られた重みと理論的には一致する。
共分散行列の固有値は次元の寄与率と考えることができて、小さい値の固有値の固有ベクトルは削除しても影響が小さい。
587:デフォルトの名無しさん
17/01/10 01:21:19.35 N74TPYKx.net
てかそんぐ
588:らいググればいくらでも出てくる
589:デフォルトの名無しさん
17/01/10 01:22:37.28 N74TPYKx.net
失礼。
聞かれたのは俺じゃないな
590:デフォルトの名無しさん
17/01/10 01:27:47.53 N/5FQeNb.net
おまいらマジで頭よかったんだな
てっきり知能ポエムしか書けない連中だと見下してたわ
591:デフォルトの名無しさん
17/01/10 01:31:09.96 N74TPYKx.net
つまり、オートエンコーダは、異なる入力に対して異なる結果になるように重り行列を最適化する。
(多数の入力が同じ結果にならないように最適化)
オートエンコーダで次元を下げるとかっていう話は実は二の次の話。
592:デフォルトの名無しさん
17/01/10 01:38:22.11 N74TPYKx.net
上の情報だけで、つまりって言っちゃ、やや飛躍があるな。
共分散行列の固有ベクトルがはる空間
に入力ベクトルを持ってくることで上手くベクトルが分散してくれる
593:デフォルトの名無しさん
17/01/10 01:53:41.11 /W/3Nfpm.net
畳み込みニューラルネットワークのフィルタってサイズの大きさどう設定すりゃいいの?
あと全結合層の層数って増やす意味ある?
594:デフォルトの名無しさん
17/01/10 06:52:44.79 Lw+Ts/nh.net
>>578
固有値の大きな固有ベクトルから順に得られるかどうか判らないのでは?
595:デフォルトの名無しさん
17/01/10 07:36:02.51 N74TPYKx.net
?
質問がよく分からない
どんな状況下にあるか、自分で手を動かして考えてみてください
596:デフォルトの名無しさん
17/01/10 08:32:52.11 rVEdN69p.net
いまどきの国立大以上の工学部では
ディープラーニングの演習もあるのかしらん?
597:デフォルトの名無しさん
17/01/10 11:14:30.29 /a9Ojlhv.net
オートエンコーダは、非線形性があるところは違うだろ
一層毎に非線形性があるんだから、スタックする意味もあるし
598:デフォルトの名無しさん
17/01/10 11:59:53.15 N74TPYKx.net
>>583
それっていちいち突っ込むところ?
恒等写像の場合である程度重みの最適化の足掛かり掴んでるから十分だろ?
文句があるならカーネル関数使った主成分分析方法があるからそれ使え。
599:デフォルトの名無しさん
17/01/10 12:24:27.91 VX/m3eLk.net
>>584
主成分分析しか知らないって言えばいいのにwww
600:デフォルトの名無しさん
17/01/10 12:26:57.52 K8NZx8C0.net
だいたい積層オートエンコーダを質問してるのに、何で延々と主成分分析の話しをしてるんだか w
積層オートエンコーダ == 主成分分析 では断じてないことさえ分からんのかw
601:デフォルトの名無しさん
17/01/10 12:28:15.08 N74TPYKx.net
何かろくに理論知らないクズ野郎しかしいないって思いたくないんだが‥‥
(そもそもこっちはただのサラリーマンだし)
602:デフォルトの名無しさん
17/01/10 12:29:38.43 BtJxF5z4.net
>>581
寄与率の大きな固有ベクトルから順に結合として得られる保証があるのかってこと
固有ベクトルの個数は隠れ層のユニット数だろうけど
それが寄与率の大きなものから順に得られるのか?
603:デフォルトの名無しさん
17/01/10 12:32:59.59 N74TPYKx.net
ハイハイ分かった分かった
オートエンコーダ経由での物理現象の説明はこっちはわかりません。
自分で調べてください。
ちなみにオートエンコーダでの次数下げは単独でユニット数減らすだけ
604:デフォルトの名無しさん
17/01/10 12:39:37.42 K8NZx8C0.net
>>589
これ、笑うところ?www
| ちなみにオートエンコーダでの次数下げは単独でユニット数減らすだけ
605:デフォルトの名無しさん
17/01/10 12:41:56.72 VX/m3eLk.net
>>589
表面しか見れないんだな。
deep learning は全然知らないと言えばいいのに
606:デフォルトの名無しさん
17/01/10 12:43:02.69 N74TPYKx.net
単独で中間層のユニット数減らすだけ!
607:デフォルトの名無しさん
17/01/10 12:44:08.26 N74TPYKx.net
そもそも>>571でなんで積層にしてるかいてるでしょ
608:デフォルトの名無しさん
17/01/10 12:48:34.70 N74TPYKx.net
あーこんな頭の悪いやつのせいで昼休み無駄になった
609:デフォルトの名無しさん
17/01/10 13:30:06.45 s989ZmsY.net
最終的且つ不可逆的な解決に向け相互努力を誓います
610:デフォルトの名無しさん
17/01/10 13:44:18.27 s989ZmsY.net
>>572
おまえは何を言っているのだ?
主成分分析なんて固有値や固有ベクトルそのものだろ
611:デフォルトの名無しさん
17/01/10 13:53:31.34 a6nVb6Xo.net
昼休みこんなところ�
612:ナ鬱憤を晴らすサラリーマンねぇ 仕事できる子なのか不安
613:デフォルトの名無しさん
17/01/10 14:52:03.64 HuxjibLD.net
バックグラウンドの数学的な話はわかって無くてなんとなくで使っているのですが
WekaでBayesnetを使ってクラス分類をしているのですが、
理想よりだいぶ正解率が低いので、その原因を知りたいと思っています
(どの変数が悪影響を及ぼしてるのかとか)
そのようなことは可能でしょうか?
また、「ガウス分布に当てはめれば分類モデルの誤差が見積もれる」
みたいな話を聞いたことがあるのですが、これはどういうことでしょうか?
614:デフォルトの名無しさん
17/01/10 15:06:26.74 UBJKCQag.net
無の字の使い方を学習させると
誰が自演書き込みしてるのか判るな
615:デフォルトの名無しさん
17/01/10 15:08:08.34 BtJxF5z4.net
>>599
正解率はどのくらいか判ってるのか
616:デフォルトの名無しさん
17/01/10 15:11:49.90 BtJxF5z4.net
>>596
理解できてないならレスしなくて良い
617:デフォルトの名無しさん
17/01/10 21:55:01.12 5Ydwym5y.net
>>598
じゃあ使うなまず数学やれよ
数学やらない奴は使うなよ
618:デフォルトの名無しさん
17/01/10 23:19:51.15 6tVxUfvD.net
>>588に誰か答えないんかな?
画像認識やったことないからフィルターサイズの決め方なんて知らない。
認識したい対象(文字とか?)のサイズとか、どこまでエッジを拾いたいかで決めんのかね?
(あるいはサイズ違いのフィルターを繰り返す?)
619:デフォルトの名無しさん
17/01/10 23:23:42.42 6tVxUfvD.net
失礼しました
>>588でなく>>579です
620:デフォルトの名無しさん
17/01/11 05:53:27.99 W9WOgN09.net
>>603
ここでレスがあったとしても本当の事か判らない
実際に確かめてみるしかない
サイズを変えてデータを取って分析しろ
データ分析くらいできるのだろ
621:デフォルトの名無しさん
17/01/11 07:32:56.06 foy5T8YQ.net
>>597
仕事で嫌なことでもあったんだろ
上司に怒られて当たり散らしてる感じw
622:デフォルトの名無しさん
17/01/11 07:37:59.91 foy5T8YQ.net
>>603
定石があって大体あたりがつくよ
パラメータを変えて精度・速度を実験するのは初学者が最初にやる
623:デフォルトの名無しさん
17/01/11 08:23:21.88 l2JfDQy7.net
>>579 >>603
フィルタサイズの選択肢は実際には限定的、定番モデルを参考にすれば良い。
全結合層の層数を増やす意味は通常はない。
624:デフォルトの名無しさん
17/01/11 08:25:01.91 p4aAjtoW.net
海外の人は数日でこのレベルに到達するぐらい素養があるけど日本人は全く素養がないから諦めた方がいい
URLリンク(gigazine.net)
625:デフォルトの名無しさん
17/01/11 08:29:04.22 zHamHZ4N.net
自分はkeras使ってるが問題ないようで安心したわ。
chainerはもういらんな。
626:デフォルトの名無しさん
17/01/11 12:29:16.31 xxQxfc5N.net
>>607
最初にやるような事もやってないって事じゃね
627:デフォルトの名無しさん
17/01/11 17:24:11.80 /t0evEjj.net
chainer否定厨うぜえ
仲良くやれよ
それかDyNet使えよ
628:デフォルトの名無しさん
17/01/11 19:26:45.58 lXi56hH9.net
TensorFlowは1.0αかよ
昨年12月1日に0.12がリリースされたばかりなのに
629:デフォルトの名無しさん
17/01/12 00:53:03.54 0lQ7NCef.net
0.12.0 のステーブル版が出たのはお正月くらいだったよ
それを受けての 1.0 alpha 発表でしょ
630:デフォルトの名無しさん
17/01/12 01:07:26.07 yGw8XzLF.net
つまり 0.12.1 がほぼそのまま 1.0.0-alpha になってるのか
631:デフォルトの名無しさん
17/01/12 08:13:48.15 EOPVv7Sc.net
クラウド商用とOSSで開発ブランチ分けるらしいからその前の整理だな
632:デフォルトの名無しさん
17/01/12 08:19:14.49 F21c8apY.net
ああ、なるほどね。
1.0 ベースで cloud ml を正式版にするわけか
633:デフォルトの名無しさん
17/01/12 08:28:01.89 D/kCxt4Z.net
たった1ヶ月で10倍賢くなったのか
こりゃシンギュリティだな
634:デフォルトの名無しさん
17/01/12 08:32:23.88 yGw8XzLF.net
>>616 >>617
googleはこういうの手慣れてるな
635:デフォルトの名無しさん
17/01/12 10:41:13.63 6zPdGjUM.net
最近、GTX980Tiが安いけどさあ
これって1080の1割引ぐらいの性能は出るんかな?
636:デフォルトの名無しさん
17/01/12 10:48:52.97 D/kCxt4Z.net
Googleに入社すればGAEがタダで使えるで
637:デフォルトの名無しさん
17/01/12 10:50:48.35 r/NJbiIE.net
なるほど
Appleに就職すればよかった
638:デフォルトの名無しさん
17/01/12 10:55:14.49 D/kCxt4Z.net
AppleWebServerもいいよね
639:デフォルトの名無しさん
17/01/12 12:42:27.89 3KTZZ0jx.net
TensorFlow OSS版は切り捨てられる?あるいは差別化される?
640:デフォルトの名無しさん
17/01/12 12:43:54.99 b+ED7Ag1.net
そうなったらApache下でフォークされてHadoopみたいになるだけよ
641:デフォルトの名無しさん
17/01/12 13:23:04.66 6zPdGjUM.net
GAEを借りてもらう前提として、OSS版を使ってコードを書いてもらう必要があるんだろうからね
どちらでも同じコードが動くようにはしてくれるんじゃないかと思うけど・・・・・
ただGoogleにとってサポートしても得がないCUDAのサポートとか続くんかな?
642:デフォルトの名無しさん
17/01/12 14:11:33.05 nKV4yPgD.net
>>626
分からないのに無理して書き込まなくていいからw
643:デフォルトの名無しさん
17/01/12 14:29:58.74 6zPdGjUM.net
>>627
残念ながら無理して書くような内容なんて書いてないんだけど
644:デフォルトの名無しさん
17/01/12 14:35:48.77 6O75WW/Q.net
>>628
横からだが、そもそも GAE という時点で間違ってるよ
645:デフォルトの名無しさん
17/01/12 14:37:29.18 yGw8XzLF.net
>>628
わりと突っ込みどころ多いとは思う。
646:デフォルトの名無しさん
17/01/12 21:19:42.27 PFwuR66g.net
OSS版はGPU最適化用のコードいずれドロップ
して高速版が欲しければ商用買えよってスタンスで
行くつもりだから
かなり急ぎ足で1.0出しているし技術者主導ではなくなると思うよ
647:デフォルトの名無しさん
17/01/12 21:53:35.36 GcbET4TA.net
ポエム野郎がいなくなったのは有難い
648:デフォルトの名無しさん
17/01/12 22:04:12.06 damdR0/o.net
>>631
頭悪いレスやめようよ、真に受ける人いるから
649:デフォルトの名無しさん
17/01/12 22:08:16.15 KUT30rWT.net
昼間から高卒大国ニッポンしてるね
おきちがい
650:デフォルトの名無しさん
17/01/12 22:15:58.79 yGw8XzLF.net
>>631
もういいって
651:デフォルトの名無しさん
17/01/12 22:25:19.38 D/kCxt4Z.net
やっぱこれからはチャイナー使お
652:デフォルトの名無しさん
17/01/12 22:34:44.20 b+ED7Ag1.net
TensorFlowが死んでもChainerの時代は来ないよ
まあApacheが引き取るだろ
653:デフォルトの名無しさん
17/01/12 22:38:45.10 D/kCxt4Z.net
アパーチェが引き取って誰が開発するねんねんで
アホか
654:デフォルトの名無しさん
17/01/13 01:56:41.62 n29hWmfn.net
GCPのGPUインスタンスいつなったら作るんだ?
TensorFlowをGPUで使うならPCかAWS使えってことか?
655:デフォルトの名無しさん
17/01/13 05:45:15.56 6kgyQzos.net
CNTK&Azureとか
656:デフォルトの名無しさん
17/01/13 10:47:54.68 UqLgiWVO.net
>>639
cloud ml でいずれ対応予定
>>640
cntk は名前変わった、人気ない証拠だと思うからやめといた方が…
657:デフォルトの名無しさん
17/01/13 12:03:29.94 aGn4Qyi/.net
Microsoft Cognitive Toolkitになったのか
ppapみたいだからcntkの方が好きなのに
658:デフォルトの名無しさん
17/01/13 15:49:38.36 fe/WbToJ.net
>>16
実はこれいいとこついてるんだよな
なぜか日本の「理系」というのは自分にとって都合のいい「理系」像をつくりたがる
>>16の例でいえば理系=数学科
「日本の数学科ではルベーグ積分は・・・」とかけばいいのに
なぜかこういうところでも「理系」といいたがる
(ちなみにMARCH以下だと数学科でもルベーグ積分は必修にならないところも多い)
このくらいなら別にかわいいもんだが、問題は文系批判するときに
自分の都合のいい「理系」像をつくって、「理系では常識だが・・・」みたいなことを
言い始める
659:デフォルトの名無しさん
17/01/13 15:54:10.29 Pc+dvNDW.net
>>642
cognitive toolkit って、日本人には馴染みにくいネーミングだな
660:デフォルトの名無しさん
17/01/13 15:55:01.93 8aFi8ZmB.net
>>66
中井に限らず機械学習ってそんなもんだよ
やってみてうまくいけばそれでオッケー
理屈は考えない
661:デフォルトの名無しさん
17/01/13 16:02:28.28 D8OhZXXD.net
TFとかの技術的な話題が続くと
ポエマーが出てくるな www
662:デフォルトの名無しさん
17/01/13 16:03:35.84 D8OhZXXD.net
>>639
うちの会社は AWS でTFやってる
663:デフォルトの名無しさん
17/01/13 16:38:21.03 CxR0wGzB.net
>>643
どうした?
馬鹿にされたか?
664:デフォルトの名無しさん
17/01/13 16:48:24.35 YYdJyp6W.net
会社で話し相手がいないのだろう
665:デフォルトの名無しさん
17/01/13 18:11:49.06 lc9PWiW7.net
ニューロンを1つを取り出した時、全ての入力に対してウエイトを設定するのが普通っぽいけどさあ
y = w1x1 + w2x2 + b1
これって、w2を省いて
y = w1x1 + x2 + b1
でも変わんないんじゃないの?
666:デフォルトの名無しさん
17/01/13 18:15:03.76 7nt2TZrV.net
変わるだろうが
何言ってんだ
667:デフォルトの名無しさん
17/01/13 18:47:45.35 PuHBhPCs.net
>>650
w2=1に正規化した感じで上手くいく事もあるだろうけど
w2=10^-6とか小さな値だったりしたらちがうかも
668:デフォルトの名無しさん
17/01/13 18:57:07.62 aGn4Qyi/.net
649の情報だけでよく問題点が指摘できるな
w1x1の時点でくらくらしたわ
w_1 x_1
669:デフォルトの名無しさん
17/01/13 18:58:06.74 jboUB245.net
うっせえなw
670:デフォルトの名無しさん
17/01/13 19:05:25.15 fh7lO1k1.net
ぶっちゃけ、このスレの人って数学出来ない人ばっかだよね。
671:デフォルトの名無しさん
17/01/13 19:19:23.79 PuHBhPCs.net
>>655
お前もな
672:デフォルトの名無しさん
17/01/13 19:35:40.15 TmjKlfjT.net
数学科以外は数学苦手じゃない?
673:デフォルトの名無しさん
17/01/13 19:42:39.33 lc9PWiW7.net
>>652
そうかあ
計算が楽になるかと思ったんだけどなあ
674:デフォルトの名無しさん
17/01/13 19:48:45.80 PE3cJKgA.net
数学ってどの範囲だよ
675:デフォルトの名無しさん
17/01/13 19:55:40.32 ABpVxO8v.net
またこの話しかよw 自分は数学科卒だけど、
機械学習で必要な数学なら教養で学ぶ線形代数で十分だってw
676:デフォルトの名無しさん
17/01/13 21:03:41.52 p0SJfhAz.net
>>660
統計とか確率の知識もあった方が良いと思う
群とか圏とか使えるかもしれない
まだはっきり判ってない事もあるだろうし
677:デフォルトの名無しさん
17/01/13 21:11:41.84 P+aIog0d.net
>>602みたいなこと言う奴もいるから
やっといた方がいいよ
678:デフォルトの名無しさん
17/01/13 21:38:13.05 udSHd9JP.net
話し相手がいないのか、可愛そうに
679:デフォルトの名無しさん
17/01/13 21:42:14.15 2UoNihoi.net
必要な数学なんてその人がどこまで必要としているかで決まる
基本機械学習は応用数学なのだから使おうと思えば数学は無制限に必要になる
単にプログラム組んで結果みるだけでいいなら数学は必要ない
680:デフォルトの名無しさん
17/01/13 21:42:50.89 yzzW48ii.net
いやあ、こういう流れ見るとTwitterでは味わえないイン�
681:^ーネットらしさを感じられて好きだよ
682:デフォルトの名無しさん
17/01/13 22:26:25.77 jboUB245.net
deepanalyticsでcookpadのがでてるけどやんない?
683:デフォルトの名無しさん
17/01/13 22:32:43.23 JaLaNRFH.net
>>657
んなこたーない。頭いいやつは数学で飯食ってこうなんて思わない
684:デフォルトの名無しさん
17/01/13 22:49:55.50 9L2JHio8.net
そもそも頭いいやつは金を稼ごうとは思わない
685:デフォルトの名無しさん
17/01/13 22:58:01.44 ABpVxO8v.net
>>661
それはそうかな、でも中心極限定理も使わないし、ガウス分布程度で最初は十分かと。
そもそも確率論はまだしも、統計みたいな応用は数学科じゃほとんどやらんし
>>664
無制限に必要になんからならないよw 例えば多様体や群・環のような基礎知識さえ普通はいらん
686:デフォルトの名無しさん
17/01/13 23:00:08.25 LA+BfcBl.net
>>660
そういうこと言うな二度というな
みんな抽象数学に縛り付けておいて
混乱させるのが目的なのに真実を書くな
687:デフォルトの名無しさん
17/01/13 23:01:37.81 ABpVxO8v.net
>>667
うちんとこは数学で飯食ってるやつばかりだぞw
688:デフォルトの名無しさん
17/01/13 23:08:45.61 anO+R0kw.net
>>669
manifold learningでググってみ
グレブナー基底 機械学習でググってみ
もう一度言うが研究レベルでは数学は無制限に使う
689:デフォルトの名無しさん
17/01/13 23:10:26.64 anO+R0kw.net
「無制限に」っていうのはもちろん潜在的・可能性としてはの意味にすぎないわけだが、
それでも>>669が出してきている例くらいの数学は研究者によっては普通に使う
690:デフォルトの名無しさん
17/01/13 23:10:54.01 E5kBStXl.net
>>672
あんたバカじゃないの?
691:デフォルトの名無しさん
17/01/13 23:11:25.26 anO+R0kw.net
反論できなくなっちゃったかw
692:デフォルトの名無しさん
17/01/13 23:13:53.09 zDVcTTvx.net
>>673
機械学習を始めるに必要な数学の話をしてることに気付けよw
ハードルあげて嫌がらせなら、真に受けるやついるからやめろ
693:デフォルトの名無しさん
17/01/13 23:16:02.51 PBFfeFuD.net
いんじゃね。切り捨てて。勉強しようともしてないやつなんか。
694:デフォルトの名無しさん
17/01/13 23:16:15.74 LA+BfcBl.net
>>673
ストラング:計算理工学読めばいい
その程度でなんとかなるからマジレスしちゃうと
もう騙して混乱させて遊べないからあきらめよう
695:デフォルトの名無しさん
17/01/13 23:17:17.36 anO+R0kw.net
研究レベルって言ってるよね
日本語読めないの?
数学以前の問題だよ
696:デフォルトの名無しさん
17/01/13 23:18:22.30 anO+R0kw.net
>>678
現実に研究レベルでは多様体も代数学も必要になるんだよなぁ
素直にググればわかることあきらめよう
697:デフォルトの名無しさん
17/01/13 23:20:33.64 E5kBStXl.net
>>679
>>664 の時点で言ってないようだが?
698:デフォルトの名無しさん
17/01/13 23:20:47.40 HIDbyJg+.net
会社のPCに全部tensorflowインストールしてクラスタ化して毎日夜中だけ計算させるとかどうだろう
699:デフォルトの名無しさん
17/01/13 23:21:23.25 anO+R0kw.net
いっておくけど入門レベルでたいした数学はいらんよ
それは>>664の言う通り
別に混乱などさせてはいない
その人のレベルにあったことをすればいいだけ
700:デフォルトの名無しさん
17/01/13 23:21:24.80 PBFfeFuD.net
ただモデル化が抽象的過ぎると流行んなくなるから、そこはよく考えてね。
701:デフォルトの名無しさん
17/01/13 23:23:43.90 zDVcTTvx.net
>>679
>>669 は「普通は」って言ってるぞ
日本語読めないのはあんただろwww
702:デフォルトの名無しさん
17/01/13 23:24:41.69 anO+R0kw.net
普通ってなに?
研究者にとってはグレブナー基底とか「普通」なんだけど
703:デフォルトの名無しさん
17/01/13 23:26:00.61 E5kBStXl.net
>>686
研究者のスレで吠えろや、池沼 wwww
704:デフォルトの名無しさん
17/01/13 23:27:05.41 iClQ+K3G.net
まぁいいからあまり揚げ足とかいらんから。
ちゃんとした研究者がいて安心したから
705:デフォルトの名無しさん
17/01/13 23:27:17.64 zDVcTTvx.net
>>686
さすがにそれは無理がある
706:デフォルトの名無しさん
17/01/13 23:34:49.17 ABpVxO8v.net
何か地雷踏んじゃったみたいだ … 数学ネタはやめよう、ごめんな m(_ _)m
707:デフォルトの名無しさん
17/01/13 23:50:46.85 LA+BfcBl.net
>>686
どうせグレブナー基底と巨乳とか見て
感化されただけだろw?
708:デフォルトの名無しさん
17/01/14 01:51:06.38 ByMN1Bsi.net
グレブナー基底が普通 キリッ
とか言いながら論破されて逃亡する自称研究者 www
何か前にも似たようなことあったな
709:デフォルトの名無しさん
17/01/14 01:53:11.85 ByMN1Bsi.net
>>682
tensorflowの分散は易しくはない
710:デフォルトの名無しさん
17/01/14 02:12:10.37 FiBveJJ+.net
>>692
どこが論破されたんだ?
711:デフォルトの名無しさん
17/01/14 08:45:24.97 xqd9HsqZ.net
グレブナ基底って実例はポン酢だよな
712:デフォルトの名無しさん
17/01/14 09:18:01.14 yS+ngl8t.net
グレブナ基底はなんの役に立つの?、元数学者
713:デフォルトの名無しさん
17/01/14 11:48:46.53 UwZK9QUI.net
機械学習の本質がわかった。
知能(AI)がなくとも大量のデータがあれば統計的に
それらしい答えを導き出せることができる。
コンピュータは人間のような効率的な学習はできないが、
コンピュータパワーを使えば、効率は悪くとも
大量に経験を積ませることができる。
この「効率の悪いが大量の経験」をさせることが機械学習なんだ。
714:デフォルトの名無しさん
17/01/14 12:13:00.51 3uB2hVBb.net
>>697
なんか違う
715:デフォルトの名無しさん
17/01/14 12:17:31.12 u4MOb4qx.net
言葉で理解するから>>697みたいな奴が増える。
716:デフォルトの名無しさん
17/01/14 12:18:35.88 u4MOb4qx.net
失礼訂正。
言葉で理解しようとするからry
717:デフォルトの名無しさん
17/01/14 12:32:49.14 bwK613iR.net
知能やらそれらしいとか曖昧じゃねーかw
718:デフォルトの名無しさん
17/01/14 12:35:17.92 3uB2hVBb.net
少なくとも本質は分かってないよなw
719:デフォルトの名無しさん
17/01/14 12:36:48.24 u4MOb4qx.net
これからはもっと増えるんだろうね。
分かった気になってる人
720:デフォルトの名無しさん
17/01/14 12:50:42.19 u4MOb4qx.net
>>702も分かってないが
721:デフォルトの名無しさん
17/01/14 12:57:06.03 qTDOJKyI.net
>>704
おまえもなw
722:デフォルトの名無しさん
17/01/14 13:00:42.49 UwZK9QUI.net
やっぱり反論はなかった。
あってるってことかなー
723:デフォルトの名無しさん
17/01/14 13:04:31.57 zD0xY+S2.net
ディープラーニングは機械学習の一つなんだけど。
724:デフォルトの名無しさん
17/01/14 13:08:14.66 +2hwB+yk.net
うちの父親もこんな程度の頭だから笑えん
725:デフォルトの名無しさん
17/01/14 13:14:55.31 0AaiAFEr.net
>>694
「グレブナ基底が普通」という主張が正しいわけないじゃん、バカじゃないの?
726:デフォルトの名無しさん
17/01/14 13:17:10.87 0AaiAFEr.net
>>696
俺も数学で飯食ってるが、使ったこと一度もない。というか、ジジイだろうな、このネタを持ち出すのは
727:デフォルトの名無しさん
17/01/14 13:23:44.84 LerKwIdl.net
>>710
あほ、むしろグレブナー基底が機械学習に導入されてきたのは近年になってからだぞ
728:デフォルトの名無しさん
17/01/14 13:27:11.19 g+MBXGeK.net
画像分野における伝統的な DL の考え方としてはそんな感じで良いんじゃない?現状の手法における制約を更に打ち破ろう、もっと良い手法を生み出そうと研究を重ねることそのものが本質という考え方もあるだろうけど。
729:デフォルトの名無しさん
17/01/14 13:28:42.30 hMIcbMDJ.net
>>711
バカじゃなかろか、おめぇが興味あるだけでほとんど誰も使ってねぇよ www
730:デフォルトの名無しさん
17/01/14 13:31:25.94 0AaiAFEr.net
>>711
あほはあんただ、計算機代数みたいなマイナー分野はチラ裏でやってろ
731:デフォルトの名無しさん
17/01/14 13:33:07.14 LerKwIdl.net
>>713
>バカじゃなかろか
おまえがな
732:デフォルトの名無しさん
17/01/14 13:33:50.79 ByMN1Bsi.net
誰も興味ない数学ネタは他でやってくれないかな?w
733:デフォルトの名無しさん
17/01/14 13:34:24.97 ByMN1Bsi.net
>>715
昨夜の人?荒らしてるわけ?
734:デフォルトの名無しさん
17/01/14 13:36:08.93 jfwD01xt.net
誰も興味ない文系ネタもやめてもらえますか?
735:デフォルトの名無しさん
17/01/14 13:37:18.15 LerKwIdl.net
×誰も興味ない
〇このスレにいる奴では理解できない
736:デフォルトの名無しさん
17/01/14 13:38:43.77 LerKwIdl.net
>>717
荒らしているのは君の方だと思うよ
素直に間違い認めればいいだけなのにw
まぁ、研究レベルの機械学習を理解できる人がいないのは事実っぽいので
もう書き込まないことにしますわw
737:デフォルトの名無しさん
17/01/14 13:39:38.44 ByMN1Bsi.net
>>719
それでいいからこのスレに出入りするのはやめて、あなたにふさわしいスレで議論してください
738:デフォルトの名無しさん
17/01/14 13:40:25.82 hMIcbMDJ.net
>>720
どう見ても荒らしてるのはあんただろう
あんたが出てくるとスレの雰囲気が悪くなってるじゃないか
739:デフォルトの名無しさん
17/01/14 13:41:53.25 hMIcbMDJ.net
>>720
空気嫁ないやつだなぁ
740:デフォルトの名無しさん
17/01/14 13:42:19.68 f29MAUgw.net
いい加減、俺も始めようと思って下記3書籍を買ったが他におすすめある?
ITエンジニアのための機械学習理論入門
ゼロから作るDeepLearning
行列プログラマー
741:デフォルトの名無しさん
17/01/14 13:46:20.51 hMIcbMDJ.net
>>724
機械学習理論入門はおすすめできない。「理論」入門なんだけどちょっと著者の嗜好性が微妙。
ゼロから作るDeepLearning は良いように思う
742:デフォルトの名無しさん
17/01/14 14:33:38.17 Xw0trSpZ.net
既に買ったやつはもういいだろw
743:デフォルトの名無しさん
17/01/14 14:47:36.12 u4MOb4qx.net
>>719
理解できる人はいるべ
744:デフォルトの名無しさん
17/01/14 14:47:37.64 GN9+SXJp.net
PRML
745:デフォルトの名無しさん
17/01/14 15:05:22.26 SauIKXvW.net
>>724
もっとたくさん買わないと、時代のトレンドの流行についていけてないよ
746:デフォルトの名無しさん
17/01/14 15:12:59.03 obLvbAT8.net
>>729
トレンドについていくには本買ってたら遅い
本を書くくらいでないと
747:デフォルトの名無しさん
17/01/14 15:34:32.29 SauIKXvW.net
>>730
ちんたら本なんて書いてるようじゃまだまだだなぁ
748:デフォルトの名無しさん
17/01/14 15:40:34.90 R+sk5YCr.net
グレブナー基底を導入するのは邪道に見える
こねくりまわして精度落としてるだけな気がする
749:デフォルトの名無しさん
17/01/14 15:48:47.59 YCtOmQB2.net
>>722
どう見ても素人がガチの研究者に喧嘩売って素直に間違い認められずに
騒いでいるだけに見えるんですが…
750:デフォルトの名無しさん
17/01/14 15:48:54.84 hMIcbMDJ.net
>>729-731
マジレスするとペーパーを読みまくるしかない
もっとも Karpathy が指摘しているようにそれも難しいのが現状だがw
751:デフォルトの名無しさん
17/01/14 15:51:56.49 hMIcbMDJ.net
>>733
さすがにしつこい
752:デフォルトの名無しさん
17/01/14 15:53:41.76 DVS8Q/Ug.net
>>733
2chというのはそういうところだよ
753:デフォルトの名無しさん
17/01/14 15:54:37.10 XPdGgowx.net
>>733
匿名掲示板で何を言ってるんだか…
グレブナー基底の知名度をあげるための自演かもしれないだろ
754:デフォルトの名無しさん
17/01/14 15:55:37.66 XPdGgowx.net
>>736
ガチの研究者が素人を相手にするかよw
755:デフォルトの名無しさん
17/01/14 15:55:41.85 WOjPcyyn.net
>>735
言っておくけど自分は>>720とは別人ですよ
756:デフォルトの名無しさん
17/01/14 15:56:35.84 XPdGgowx.net
>>739
自演乙 www
757:デフォルトの名無しさん
17/01/14 15:57:43.48 w57gFb1n.net
>>738
それが2chだからw
お前らの普段のどうでもいい書き込みに比べたらよっぽど価値があったと思うわ
758:デフォルトの名無しさん
17/01/14 15:58:58.06 XPdGgowx.net
>>741
自演乙 wwww
759:wwww
760:デフォルトの名無しさん
17/01/14 16:03:57.26 3ao4YazJ.net
グレブナー基底とかはともかく、
機械学習に数学は不要だとか学部の線形代数で十分とかのほうがよっぽど害悪とおもうけどな
レス版さかのぼるの面倒だから安価付け内が、最初の方にあった「その人のレベルによる」
が真理だろう
761:デフォルトの名無しさん
17/01/14 16:14:47.34 rgpX1Hf4.net
>>741
なんでここにいるの?
762:デフォルトの名無しさん
17/01/14 16:32:31.01 UwZK9QUI.net
そこに山があるから
763:デフォルトの名無しさん
17/01/14 16:54:06.09 XFZNLkXb.net
レシピ使うだけなら数学大して分からんでも使えると思う