17/05/16 14:55:26.50 8yNOYIeK.net
>>472
猿真似しか出来ないからだろう
後追いしては自分のほうが優れてるアピールを繰り返す
488:デフォルトの名無しさん
17/05/16 17:55:01.94 XNLotPyf.net
>>472
当初はそんなにフレームワークがなかったから
自分たちで作ったんだろう
ついでに公開した
で今に至る
489:デフォルトの名無しさん
17/05/16 18:29:53.24 suMAG0Vw.net
まぁかばうわけじゃないが、ろくにドキュメントがないのも社内ツールだったからだろう
490:デフォルトの名無しさん
17/05/16 18:40:00.08 q9mvRXGh.net
経緯はともかく、今となってはTFとkerasを使っておけば無問題。
chainer廚は無視すればいい
491:デフォルトの名無しさん
17/05/16 18:47:16.83 EKORopzC.net
Francoisは単に日本と日本人が嫌いなだけ
492:デフォルトの名無しさん
17/05/16 19:06:54.10 x37Q2sqJ.net
日本語ドキュメントを用意するくらいだから、嫌いなわけないだろw
493:デフォルトの名無しさん
17/05/16 19:57:40.36 EunStPdR.net
>>482
日本の文化好きだけどITギークの陰湿さ嫌いだって
いつも言ってるよ
494:デフォルトの名無しさん
17/05/16 20:08:37.10 VJojnLu2.net
>>483
日本人の陰湿さは世界中に嫌われてるから、それは仕方ない
495:デフォルトの名無しさん
17/05/16 20:15:58.45 StCx5Z7L.net
ちょーーーーん
496:デフォルトの名無しさん
17/05/17 00:42:11.85 TttXi9VQ.net
tensorflow+kerasは時代遅れ
これからはchainerやpytorchの時代
497:デフォルトの名無しさん
17/05/17 01:05:07.85 Y/S7PWla.net
>>486
現実は厳しいよ、まだ Beta の pytorch にまで chainer は抜かれちまった
URLリンク(trends.google.co.jp)
498:デフォルトの名無しさん
17/05/17 01:31:02.65 TttXi9VQ.net
fcholletのchainer批判にはだいぶ私怨が入ってると思うんだよな
beam2dとなんか確執があったんじゃなかったっけ
彼は「日本製クローン」を叩いているけど、difine by runの潮流はchainerからはじまったものであって、その時点で彼は歴史的経緯を無視しており彼のchainer批判に正当性はそんなにないよ
ところでfcholletにpytorchの躍進についてどう思ってるのか聞いてみたいな
あれはchainerからforkされたものだが
499:デフォルトの名無しさん
17/05/17 01:47:16.79 gkZfHcna.net
chainer廚のしつこさは異常だな…
500:デフォルトの名無しさん
17/05/17 03:19:22.50 aLL+xh3A.net
生物学の主流はビッグデータ、Pythonが必須スキルな時代に
URLリンク(blog.livedoor.jp)
501:デフォルトの名無しさん
17/05/17 05:50:36.56 8oGfsS6E.net
Francoisが陰湿でしつこい現実
502:デフォルトの名無しさん
17/05/17 10:36:43.15 xVsgBpZ9.net
URLリンク(imgur.com)
ナスダックがAI利用。
503:デフォルトの名無しさん
17/05/17 10:37:50.68 LWfqQQvr.net
chainerは日本の最先端技術集団が作ったものだし、特に海外と比較して遅れてるわけではない
nVidiaやIntelとも提携してるし伸びしろはまだ十分ある
別に好きなフレームワーク使えばいいと思うが
批判だけするならお前ら自分で作ってみろよ
単純な畳み込みすらCで書けないような雑魚は黙ってろ
504:デフォルトの名無しさん
17/05/17 10:45:46.06 47Qkgllx.net
レス飛び
505:デフォルトの名無しさん
17/05/17 10:52:42.42 N8y/Tjgd.net
ああ、なんかひっかかると思ってたけど言いたいこと言ってくれた感じする
506:デフォルトの名無しさん
17/05/17 11:13:04.80 njSBXLGQ.net
エア同感(自演)
507:デフォルトの名無しさん
17/05/17 11:34:39.67 SoERJYEc.net
watson conversation、なにこれwww
昔っぽいwww
508:デフォルトの名無しさん
17/05/17 11:42:59.36 bd4af/jy.net
で世界中で使われているのでしょうか?
自分らだけで凄い凄いって言っても駄目ですよ。
509:デフォルトの名無しさん
17/05/17 12:37:29.98 N8y/Tjgd.net
逆になんでそんなにChainerを憎んでるんだよ?
510:デフォルトの名無しさん
17/05/17 12:44:07.51 RzwbHd9d.net
こういう言い方が適当かわからないけど「PFNの自尊心の高さ」的なものが鼻につくんじゃない?
劣等感を刺激されるとかで。
511:デフォルトの名無しさん
17/05/17 12:46:41.37 aLL+xh3A.net
日本人ならチェイナー使えよ
512:デフォルトの名無しさん
17/05/17 12:51:15.18 m1xhRpHE.net
日本人なら日の丸の鉢巻を巻けよ
513:デフォルトの名無しさん
17/05/17 13:15:58.74 wNdwiZ8d.net
清水亮参戦w
kerasの作者François Cholletはもっと歴史を勉強すべき。国や民族単位で批判することの愚かさを知れ
URLリンク(d.hatena.ne.jp)
514:デフォルトの名無しさん
17/05/17 13:23:17.86 C3DidZq3.net
ここで清水の登場はさすがに草
515:デフォルトの名無しさん
17/05/17 14:20:43.03 zzU/r0XJ.net
いっちょ噛みのshi3zキターーーーー!www
516:デフォルトの名無しさん
17/05/17 15:29:38.15 KJW/bgSK.net
>>493 javaで書けてもcは勉強してない。
517:デフォルトの名無しさん
17/05/17 15:37:51.94 8aKTIela.net
>>503
相変わらず冗長な文だね
518:デフォルトの名無しさん
17/05/17 17:03:35.97 SoERJYEc.net
豚は電通大でしょ?
Fran?ois Chollettってどこ大?
519:デフォルトの名無しさん
17/05/17 22:37:12.11 Grca6p6T.net
Aさん: Googleでdeep learning担当
Bさん: 2chの機械学習スレで足の引っ張り合い
どちらが優秀でしょうか
520:デフォルトの名無しさん
17/05/17 22:41
521::25.70 ID:c7btZYE1.net
522:デフォルトの名無しさん
17/05/18 07:56:32.13 8QzVYPq+.net
>>508
学位ないんじゃなかったっけ?
523:デフォルトの名無しさん
17/05/18 09:21:59.01 Hoz0iZtn.net
学位無いのにGoogleに入れるなんて野良プログラマの希望じゃん
524:デフォルトの名無しさん
17/05/18 10:28:18.27 BU7EmfK5.net
清水の本はためになったけどな
525:デフォルトの名無しさん
17/05/18 11:46:27.52 JbnoaKwc.net
え・・・?
どこが??
526:デフォルトの名無しさん
17/05/18 14:02:02.13 Lwnl1day.net
>>512 イオヌッツは高卒でgoogleに招聘されたが固辞した。
527:デフォルトの名無しさん
17/05/18 20:59:18.41 D+6b6jaU.net
結局このスレってライブラリ関連でアフィが煽ってまとめてただけでしょ?
まぁ、素人が他に書ける内容ないかw
そもそもマトモに機械学習やってる奴いなそう
528:デフォルトの名無しさん
17/05/18 21:15:27.81 ygoyQFU3.net
清水の本くそやった
529:デフォルトの名無しさん
17/05/18 22:00:31.50 h6ZTv7Qk.net
せいぜいCでニューラルネット書いたことある程度のレベルの俺ですらこの中では上位な気がする
530:デフォルトの名無しさん
17/05/18 22:52:50.66 eHiZ5+Re.net
>>518
意外と誰も書いてない気がするんだけど、プーリング層の逆伝播ってどうやってんの?
531:デフォルトの名無しさん
17/05/18 23:19:18.50 4YzYjzm/.net
>>519
maxpoolingの場合は各windowについて最大値を取ったニューロンのindexを保持しておいて
そこにgradを足し込めば良い
532:デフォルトの名無しさん
17/05/18 23:34:48.44 BU7EmfK5.net
>>516
お前はどのくらい凄いんだよ?日本語下手だし学びなさそうだが
533:デフォルトの名無しさん
17/05/18 23:37:57.46 gekVxbq3.net
スレの住人だからお察し
534:デフォルトの名無しさん
17/05/19 01:05:28.79 7FyDjLQd.net
どっかのスレからコピペ
339 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2017/05/17(水) 23:43:05.73
Proactive protection against the WannaCry ransomware
URLリンク(weblog.av-comparatives.org)
Protected
Adaware, Avast, AVG, Avira, Bitdefender, BullGuard, CrowdStrike, Emsisoft, eScan, F-Secure, Kaspersky, Panda, Seqrite, Tencent, Symantec, TrendMicro, Vipre
Not protected
ESET, Fortinet, McAfee, MSE
WannaCryを防げなかったへぼソフトはこれだ
535:デフォルトの名無しさん
17/05/19 03:25:54.76 jEcMYi2n.net
fortieとmse、しょぼ
fortieってdellだっけ?
536:デフォルトの名無しさん
17/05/19 07:55:56.32 ReTeYfeC.net
chainerで世界を変えよう
537:デフォルトの名無しさん
17/05/19 08:14:36.14 /BgyAZw/.net
ツールじゃなくアルゴリズムの話をしよう
538:デフォルトの名無しさん
17/05/19 14:08:45.03 1Lt30pIa.net
で、君らはTFで何やったの?w
539:デフォルトの名無しさん
17/05/19 14:38:38.82 jQtxOo/D.net
Tfalでお湯を沸かす
540:デフォルトの名無しさん
17/05/19 14:48:22.70 6uwTeBIV.net
超点数無限大の白パズル的なものやらせて地図作ってるよ
なかなか100点満点ならんね
超点数が多すぎるんかな
ピースが6000万程あるんで手作業で確認したくないんだよなあ
541:デフォルトの名無しさん
17/05/19 22:56:59.11 rk1V0Eam.net
いろいろ調べたらKerasでええやんという結論に達した
542:デフォルトの名無しさん
17/05/20 08:06:19.07 L9ToBzVX.net
いろいろ調べたらchainerでええやんという結論に達した
543:デフォルトの名無しさん
17/05/20 08:09:41.97 B0JNC6Ui.net
いろいろ調べたらTensorflowでええやんという結論に達した
544:デフォルトの名無しさん
17/05/20 08:18:49.68 4ioWnA6F.net
俺は為替やら株価指数やらを掘りまくって、掘るのは無意味だと思って気づいて終わり
545:デフォルトの名無しさん
17/05/20 09:03:27.94 +4xv8lcZ.net
>>533
その後、有望な応用先や気づきは?
546:デフォルトの名無しさん
17/05/20 10:38:50.86 Wy0dXezh.net
>>478
当時から劣化版Theano以下で
PyCuda依存とかあり得ない仕様だったよ
URLリンク(twitter.com)
こんなツイートがあるけれど、普通は最初に触ってダメならその印象はずっと続くのに
なんでアルファ版の段階でリリースしたのか
それだけ自分たちのブランドに自信があるのだろうけれど
実際の実力と彼らの認識に乖離がある気がする
547:デフォルトの名無しさん
17/05/20 12:25:50.34 Wy0dXezh.net
ついでに書いとくけど
Numpyのしょーもないバグを「Numpyの闇」みたいにドヤ顔で論うのはどうかと思ったわ
小物感半端無いし、お前ら全部一から作ればいいのに何でやらないんですかね
548:デフォルトの名無しさん
17/05/20 13:01:16.07 L9ToBzVX.net
はいはい
自分でライブラリ書いてないのに上から目線でドヤ顔批判するのも小物感半端ない
お前が全部一から作ればいいのに何でやらないんですかね
549:デフォルトの名無しさん
17/05/20 13:02:00.68 ZHG0NHku.net
バグがあるなら開発者に報告すればいいじゃん
550:デフォルトの名無しさん
17/05/20 13:04:49.13 ZHG0NHku.net
NumPy Bug Reports
URLリンク(www.scipy.org)
551:デフォルトの名無しさん
17/05/20 13:20:12.30 Wy0dXezh.net
>>537
ソフトウェアに対して敬意とかが皆無で驚いたって話だよ
普通の神経の人間だったらわざわざ資料にして発表したりしないし
少なくても敬意があるなら「闇」なんて言葉は使わない
社内ならともかくこんな資料が表に出てきちゃう時点で色々と察するものがある
552:デフォルトの名無しさん
17/05/20 13:23:12.12 SQ1bJtqA.net
闇とか言ってる資料どれ?
553:デフォルトの名無しさん
17/05/20 14:47:17.01 UAzOyZzJ.net
>>541
URLリンク(twitter.com)
URLリンク(twitter.com)
このあたり?
554:デフォルトの名無しさん
17/05/20 16:30:33.79 mHLQFSsD.net
英語できないとどうしようもないな
日本の書籍もうんこみたいに高いし
英語できれば最新の書籍もニュースも動画も質がいいのが安く手に入るのに
555:デフォルトの名無しさん
17/05/20 17:43:28.89 QcvFLhGy.net
英語の書籍も高いよ
556:デフォルトの名無しさん
17/05/20 17:51:02.33 hyFMeBEq.net
>>542
気持ち悪いな確かに。
Chainarは、きっとバグひとつない素晴らしいライブラリなんだろうな。
557:デフォルトの名無しさん
17/05/20 17:53:38.19 +4xv8lcZ.net
>>543
英語はしんどいけど、気づいてるように得られるものは大きい。
技術書は慣れれば結構読めるようになるじゃないかな。
558:デフォルトの名無しさん
17/05/20 17:58:27.85 pQmUH9mY.net
Googleに訳してもらえ
559:デフォルトの名無しさん
17/05/20 19:03:07.84 qnSb0Kgg.net
すんません、ド素人なんですが、なんで入力データってCSVが多いんですか?
ビッグデータとかいってるくせに
560:デフォルトの名無しさん
17/05/20 19:06:02.05 YAniTqrY.net
嫌なら自分が使わなければ良いだけの話
561:デフォルトの名無しさん
17/05/20 19:17:46.26 bcgPDffL.net
>>548
ビッグデータだとcsvではいけないと言う理由がよくわからない
562:デフォルトの名無しさん
17/05/20 20:00:22.68 hyFMeBEq.net
ビックデータが csvでもいいんだけど。
563:デフォルトの名無しさん
17/05/21 16:53:03.98 A6L53/g3.net
>>540
そう思ってるのは君だけやで
564:デフォルトの名無しさん
17/05/21 17:48:36.15 j1bDj4qL.net
「周りの人が皆、理性を失って浮かれている時に冷静でいられるなら、すべてはあなたのものだ。」
565:デフォルトの名無しさん
17/05/21 17:51:48.82 cW9lpmtQ.net
すべて俺のもの
566:デフォルトの名無しさん
17/05/21 19:06:16.16 C+j5MFAL.net
>>552
世界中の人に確認したのか?
567:
17/05/21 19:13:43.61 pUWFtSb1.net
>>553
いい言葉だね,ジョージソロス?ジムロジャーズ?
568:デフォルトの名無しさん
17/05/22 09:29:52.79 MOVHYh6m.net
英語の書籍って、ある程度自分がわかる分野のなら読めるけどさあ
新規で勉強しようと思ってる分野のを読むには、かなり英語ができないときついぜ・・・・
569:デフォルトの名無しさん
17/05/22 15:41:48.24 5AHEHLAZ.net
自分にとって新規の分野だと日本語の専門書でもしんどいしね。
英語が出来るかはあまり関係ないな。
570:デフォルトの名無しさん
17/05/22 15:44:25.66 c7gr/Kmx.net
やっぱりラテン語だろ
571:デフォルトの名無しさん
17/05/22 16:49:02.45 c7gr/Kmx.net
PRML 2章 勉強になった
572:デフォルトの名無しさん
17/05/22 18:42:33.03 PW84rj1A.net
「代数幾何と学習理論(渡辺 澄夫)」を読んだ人いますか?読む価値ありますか?
代数幾何や学習理論に関連する数学的な概念を,できるだけ具体的に説明し,
代数幾何における基礎的な概念が,
超関数論と経験過程を通して学習システムの数理と緊密な繋がりをもつことを明らかにする.
らしいです。
573:デフォルトの名無しさん
17/05/22 20:21:12.48 evNLcAGh.net
いません
574:デフォルトの名無しさん
17/05/22 20:37:10.05 P3acu4rx.net
森北出版の「パソコンによるカルマン・ニューロコンピューティング」お勧め
嘘だけど
575:デフォルトの名無しさん
17/05/22 22:31:26.74 SQuwDAY1.net
>>561
機械学習に数学はいらないが、このスレのスローガンだぞ
読んだ奴なんているわけないし、読んで理解できる奴なんてもっといない
576:デフォルトの名無しさん
17/05/22 22:37:38.45 +XGvQS/0.net
>>564
>機械学習に数学はいらないが、このスレのスローガンだぞ
どうしてそういう流れになったの?
線形代数くらいは分かってないと、流石に厳しいと思うんだが…
577:デフォルトの名無しさん
17/05/22 22:48:19.73 paJAPpZD.net
そのうちパラメーター適当にいじれば
勝手にやってくれるすごいものがでてきそう
つまり数学なんていらない
578:デフォルトの名無しさん
17/05/22 23:32:59.86 v5ZQO30d.net
軍事利用や産業の国際競争を考えると、ライブラリ作れる人が少しは国内にいた方がいいんじゃないの。
579:デフォルトの名無しさん
17/05/23 00:45:25.19 W0NzQFoM.net
ここの住人がJubatusをどう思っているのか知りたいな
580:デフォルトの名無しさん
17/05/23 00:49:32.09 i21WqkfI.net
数学分かってなくてツールを使える奴はゴマンといる。
つまりそういうことだ。
581:デフォルトの名無しさん
17/05/23 01:04:13.06 ksVXUe+Q.net
応用した結果出たの?
582:デフォルトの名無しさん
17/05/23 02:00:16.49 PB8bi8sX.net
「人生というものは所詮どちらに転んでも大した違いはない。ならば闘って、自分の目指すこと、信じることを貫き通せばいいのだ。闘いであるからには、いつか必ず敗れるときが来る。その時は、自然に淘汰されるに任せよう」
583:デフォルトの名無しさん
17/05/23 06:16:16.24 4hseGGuS.net
イヤーン
584:デフォルトの名無しさん
17/05/23 10:36:24.47 6UVFZs8E.net
半分以上透明人間になりつつあるということか
585:デフォルトの名無しさん
17/05/23 11:38:02.31 3aYW6yAd.net
MicrosoftはChainer推しらしいな。だからってChainer連呼厨は調子に乗るなよ。
586:デフォルトの名無しさん
17/05/23 14:16:43.90 BTD2Lf69.net
>>574
Preferred Networksとマイクロソフト、ディープラーニングソリューション分野で戦略的協業
URLリンク(www.preferred-networks.jp)
URLリンク(trends.google.co.jp)
TensorFlowが圧倒的1位だけど2番手争いは混沌としているね。
587:デフォルトの名無しさん
17/05/23 17:18:39.01 YfrHPKtb.net
難しいのう
でも乗り越えれば参入障壁で守られる
588:デフォルトの名無しさん
17/05/23 18:34:16.90 +PAP7iSM.net
戦略的撤退に見えた
589:デフォルトの名無しさん
17/05/23 19:03:35.09 n9gq3uP1.net
日本人としてはChainerを推さざるをえない
特段TensorFlowが優れてるわけでもないわけで、ならこの分野での唯一の国産品を応援せずどうするの?って感じ
やっとろうぜ!
590:デフォルトの名無しさん
17/05/23 19:42:25.55 cX49iTKi.net
ほんとフレームワーク論争しかないな
実際にやってる奴おらんやろw
chainerマンセー
591:デフォルトの名無しさん
17/05/23 19:44:56.97 pzHKhZLX.net
Chainer言いたいだけちゃうんかと
592:デフォルトの名無しさん
17/05/23 20:07:06.80 uQsIVxQH.net
chainerか
593:デフォルトの名無しさん
17/05/23 20:18:49.05 cX49iTKi.net
次スレはchainerって入れといてくれ
糞スレすぎる
594:デフォルトの名無しさん
17/05/23 20:19:49.79 4hseGGuS.net
chanierヘイトは
kerasの奴だろ?
595:デフォルトの名無しさん
17/05/23 20:19:58.42 ns4joxA3.net
すまんが複数のフレームワーク使えない雑魚おる?
596:デフォルトの名無しさん
17/05/23 22:47:04.44 vOiLsvYy.net
Chainerで十分なんだがw
597:デフォルトの名無しさん
17/05/23 23:01:39.35 ns4joxA3.net
>>585
おまえChainerアンチだろw
598:デフォルトの名無しさん
17/05/24 00:08:32.99 2BgEGloQ.net
tensorflowだけで困らんだろ
わざわざ他のフレームワーク覚える暇あるならarxivウォッチしてるわ
599:デフォルトの名無しさん
17/05/24 02:25:58.99 Zksiy3yK.net
Chainerだけでも困らんよw
600:デフォルトの名無しさん
17/05/24 06:47:19.58 932hJR89.net
>>574
というか、TensorFlowはwindowsで使いにくい。
601:デフォルトの名無しさん
17/05/24 08:49:13.43 KuRm10fn.net
>>580
ちゃうなー
602:デフォルトの名無しさん
17/05/24 15:44:23.29 IgpnYvX1.net
そうだろ
603:デフォルトの名無しさん
17/05/24 15:49:31.56 MFE6TnE4.net
はいオッパイ
604:デフォルトの名無しさん
17/05/24 18:08:30.53 wYy3AtgI.net
ここまでkerasの作者
605:デフォルトの名無しさん
17/05/24 18:14:14.15 3ut2fZht.net
オケラ
606:デフォルトの名無しさん
17/05/24 18:44:13.68 Ab06+Uz2.net
>>460
国内でも新しいことをやる人は徹底無視されるよ
海外とか別の場所で評価されるようになってから
それまで無視していた人たちがいっせいにパクリはじめる
607:デフォルトの名無しさん
17/05/24 18:49:43.06 Ab06+Uz2.net
というわけで男なら黙ってChainer
608:デフォルトの名無しさん
17/05/24 18:52:39.45 Ab06+Uz2.net
ところでnVIDIAのフレームワークって非公開?
609:デフォルトの名無しさん
17/05/24 18:59:07.00 k8QAe1ee.net
DIGITSか?普通に使える
610:デフォルトの名無しさん
17/05/24 19:32:20.99 Ab06+Uz2.net
>>503
うん、前言撤回するわw
ここまで並べられるとすげえな
611:デフォルトの名無しさん
17/05/24 20:11:36.60 sxJN2wTI.net
DIGITSがあまりこのスレで触れられないのは問題あるから?
612:デフォルトの名無しさん
17/05/24 20:51:45.21 DK/VBL89.net
清水のツイッターマジギレしてるw
kerasもマジギレ中w
613:デフォルトの名無しさん
17/05/24 20:56:28.78 MYIIDec9.net
え、貼って貼って
614:デフォルトの名無しさん
17/05/24 20:56:54.05 Qm8ZwoxT.net
いらない
615:デフォルトの名無しさん
17/05/24 21:13:00.28 nN7mwWei.net
清水のやり方はどうかと思わなくもないが、Kerasの作者がそれ以上におかしい
去年の末にChainerで日本人を煽ってたぐらいだと笑いながら見ていられたが、
今回は全然笑えないこと言ってる
616:デフォルトの名無しさん
17/05/24 21:18:42.25 wYy3AtgI.net
暇なのかな
617:デフォルトの名無しさん
17/05/24 21:42:54.92 KrivTvxW.net
Kerasの作者François Cholletさん、もう一回歴史の勉強をしようか
URLリンク(d.hatena.ne.jp)
618:デフォルトの名無しさん
17/05/24 21:44:27.44 KrivTvxW.net
ツイッターの方が熱い
kerasが清水の人格否定はじめてるw
619:デフォルトの名無しさん
17/05/24 21:46:54.79 wYy3AtgI.net
清水はショレに勝る実績がない
620:デフォルトの名無しさん
17/05/24 22:12:04.06 90dyfKmT.net
誰が言ってるかではなく、内容をみてケチをつけましょう。
621:デフォルトの名無しさん
17/05/24 22:13:25.95 L2a9H96d.net
よそでやれ
622:デフォルトの名無しさん
17/05/24 22:47:03.66 kPTrX6IB.net
>>589
pipでwhlから入れられるから前よりマシ
623:デフォルトの名無しさん
17/05/25 04:46:58.24 NV9lQFMT.net
>>596
男は黙ってサッポロビールならぬ男は黙ってchainer
624:デフォルトの名無しさん
17/05/25 08:37:02.21 fvWMahu1.net
kerasの作者は
コンプレックスがあるんだろ
だから突っかかってくる
625:デフォルトの名無しさん
17/05/25 11:20:59.75 SGfVb0dJ.net
Chainer なら毛糸洗いに自信が持てます
626:デフォルトの名無しさん
17/05/25 11:22:23.83 q8tew0hv.net
煽りあう意味あるのこれ?
627:デフォルトの名無しさん
17/05/25 12:34:22.14 8xbmu3gD.net
で、chainerって何?
628:デフォルトの名無しさん
17/05/25 12:36:40.20 8xbmu3gD.net
ggrksという声が聞こえたのでググりました
ゴリ押されてるものは微妙なものだったりすることが多いので、自分でも少し調べてみます
629:デフォルトの名無しさん
17/05/25 18:46:04.99 2gg7jILK.net
高卒だしねぇ
630:デフォルトの名無しさん
17/05/25 21:22:53.98 3whttm4L.net
高卒おるってマジ?
631:デフォルトの名無しさん
17/05/25 21:33:07.69 z5xAPCMP.net
中卒50高卒40大卒9院卒1
632:デフォルトの名無しさん
17/05/25 22:16:18.86 2ujViubc.net
しーみーず
633:デフォルトの名無しさん
17/05/26 06:29:19.31 KMKQ3PNq.net
GTX1060で3GBと6GBあるけど
処理速度どれくらい違うのかね
メモリ重要らしいけど6GBにすると5000円も高くなる
634:デフォルトの名無しさん
17/05/26 06:31:50.86 1ffy07B0.net
処理内容しだいだろ。
最大3ギガ以内しか使用しないなら変化なしだし。
635:デフォルトの名無しさん
17/05/26 07:03:20.26 ZjPPmwLv.net
>>622
何回同じ話しをしてるんだ
636:デフォルトの名無しさん
17/05/26 08:39:28.09 Ha0o6vWq.net
俺のiPhoneメモリ128GBもあるわーとか言ってる人種かな?
637:デフォルトの名無しさん
17/05/26 10:33:45.82 fmMV0cwV.net
>>622
同じチップ名だけど同時に走るスレッド数も違う別モンだから6GB版を買ったほうが良いよ
638:デフォルトの名無しさん
17/05/26 16:16:11.94 dq5HZ8kv.net
>>620
幼稚園中退とかおるんか?
639:デフォルトの名無しさん
17/05/26 16:33:43.84 GQTsiFFs.net
>>620
俺様の分布予想
640:デフォルトの名無しさん
17/05/26 17:34:18.17 KMKQ3PNq.net
メモリが3分の2に減ったら処理速度50%くらい増えるみたいだな
ゲームじゃ大して変わらないのに3GBから6GBで7000円プラスは痛いなぁ
まあいいや3GB版買おう
641:デフォルトの名無しさん
17/05/27 01:22:26.85 ioHo4Mn6.net
TFはubuntuだとcpu版でも64bit必須?
642:デフォルトの名無しさん
17/05/27 02:52:41.60 V3ffhZkY.net
x 処理速度50%くらい増える
o 処理時間50%くらい増える
643:デフォルトの名無しさん
17/05/27 04:12:55.16 Bxt8SxjQ.net
禿がNVIDIAの株も買い占めに走っててこの分野の上流を日本企業が押さえ始めててワロタw
644:デフォルトの名無しさん
17/05/27 04:13:20.99 Bxt8SxjQ.net
フレームワークもChainerしかないやろもう
645:デフォルトの名無しさん
17/05/27 12:46:55.93 h0JsdT2O.net
ちぇちぇちぇちぇいなーwww
646:デフォルトの名無しさん
17/05/27 12:49:06.39 h0JsdT2O.net
>>632
日本の企業じゃない禿の会社ってのが残念
日本の企業はどうしたんだよほんとに…
頼むぜまじで
647:デフォルトの名無しさん
17/05/27 13:14:30.32 1SZv2zvV.net
ソフトバンクやるな
フレームワークも国産Chainerを我々ユーザーが使い後押しすべきではなかろうか
648:デフォルトの名無しさん
17/05/27 13:20:48.00 MaKPHJqa.net
買ってるの5%ぽっちだぞ
649:デフォルトの名無しさん
17/05/27 13:23:16.47 kaM5PDIL.net
禿の会社が日本企業だと思ってる日本人が多いよな
まじでこれからの日本が心配
650:デフォルトの名無しさん
17/05/27 14:33:30.32 d5VbA3PI.net
>>630
自己フォロー
バイナリーは64bitのみ、32bitはソースからインストール
651:デフォルトの名無しさん
17/05/28 13:25:40.64 7HBOL4aL.net
nvidiaがおかしくなったらGPU以外のハードに光が当たってくるな
でもAMDがあるか
652:デフォルトの名無しさん
17/05/28 23:10:41.06 Y/jTFKWE.net
LINEもNAVERの子会社だと言うことを知らない日本人が多すぎ
653:デフォルトの名無しさん
17/05/29 00:05:02.00 zhZytPvw.net
>>639
32bitiは複雑
654:デフォルトの名無しさん
17/05/29 01:30:32.09 FwNFPaHA.net
薄汚い仕組みを変えたかったら、正義感に縛られて動きを不自由にするな。
善も悪も全部取り込んでしなやかに動け。そうやって蓄えた力でいつか本物の悪を叩けばいい。
<そんなの屁理屈ですよ>
そうかもしれん。だが何もかも一気に変えることなどできやしないんだ。
目指す場所を見つけ傷付きながらでも進むしかない。
655:デフォルトの名無しさん
17/05/29 06:08:16.09 bvbQ042V.net
>>633
郵政民営化の小泉純一郎みたいなおっさんだな。
656:デフォルトの名無しさん
17/05/29 14:08:05.20 SjlSz+oM.net
>>643
JASRACとかNHKとかかな
657:デフォルトの名無しさん
17/05/29 16:16:53.04 VnLEVML2.net
>>642
x64にしてインストール完了。疲れた。
658:デフォルトの名無しさん
17/05/29 23:49:08.66 zK8tDu6T.net
書き込みを減らしてしまった
659:デフォルトの名無しさん
17/05/30 12:00:08.79 Y5HxMDsW.net
あの執着っぷりから判断すると
chainerヘイトレスはkerasの作者が書いた可能性が高いと思う
660:デフォルトの名無しさん
17/05/30 12:43:51.63 9pAG49er.net
オススメの分析手法盛りだくさんの本教えてや
661:デフォルトの名無しさん
17/05/30 13:15:26.13 Yg8WAfLK.net
chainerのチュートリアルがオススメ
662:デフォルトの名無しさん
17/05/30 16:04:35.48 6ZOvmgzP.net
>>650
ここで洗脳しても知れてるぞ。
663:デフォルトの名無しさん
17/05/30 16:46:48.84 GWA8zEep.net
chainer始めたら彼女ができました
664:デフォルトの名無しさん
17/05/30 17:27:23.31 ke1ab0AF.net
chainer始めたら宝くじ当たりました
665:デフォルトの名無しさん
17/05/30 17:28:25.66 8uTEYK+9.net
chainer始めたら毛が生えてきました
666:デフォルトの名無しさん
17/05/30 19:57:21.49 K5SbP4H/.net
岡ちゃんみたいに、腹が出た
667:デフォルトの名無しさん
17/05/31 00:17:31.25 NCK2jrBU.net
>>654
ちょっとそれくわしく
668:デフォルトの名無しさん
17/05/31 00:26:31.45 uGw1TdWN.net
>>656
お、Chainerで心臓に毛が生えた話聞きたい?
669:デフォルトの名無しさん
17/05/31 01:05:28.54 pEaTZtAB.net
>>657
いやいいや
670:デフォルトの名無しさん
17/05/31 01:28:33.02 gSI6MMK6.net
「私は持っているテクノロジーのすべて引き換えにしても、ソクラテスとの午後のひとときを選ぶね。」
671:デフォルトの名無しさん
17/05/31 05:57:48.66 DqATblpD.net
>>654
じゃソフトバンクがchainerを採用しなきゃ。
672:デフォルトの名無しさん
17/05/31 13:41:04.60 ELRe+MDx.net
深層学習による自然言語処理 (機械学習プロフェッショナルシリーズ)
の感想を求む。
673:デフォルトの名無しさん
17/05/31 13:52:34.74 kZVtv08a.net
基礎から解説してるからいいと思うぞ
まぁ、初心者が実装ができるまでのような本ではないけど
お前ら大好きchainrrの開発者が書いてるんだし買えば?
674:デフォルトの名無しさん
17/05/31 16:15:34.26 nyiBm3r5.net
>>649
URLリンク(www.amazon.co.jp)
675:デフォルトの名無しさん
17/05/31 16:41:58.20 mod7YtMD.net
読んだことない
676:デフォルトの名無しさん
17/05/31 20:43:07.12 e2xpaVnh.net
>>663
将棋の本だったら保木さんの本も面白かった。只の読み物だけれども、もともとは
化学屋のバックグラウンドを持ちながら、まったく何もないところからボナンザを生み出した
考え方は参考になった。h URLリンク(amzn.asia)
677:デフォルトの名無しさん
17/05/31 23:03:47.57 zg/wP+AK.net
>>665
ポナンザな
678:デフォルトの名無しさん
17/06/01 00:50:09.24 mVcFCi6e.net
>>666
ボナンザとポナンザの違いが判らないとは
679:デフォルトの名無しさん
17/06/01 01:50:37.89 bCav4Ek6.net
ロザンナ・ザンボン
680:デフォルトの名無しさん
17/06/01 05:35:40.33 DI99VZBk.net
じゃあおれはスザンヌで。
681:デフォルトの名無しさん
17/06/01 06:46:29.60 T8FkMXgH.net
>>667
簡単でいいので歴史を教えて頂けませんか?
682:デフォルトの名無しさん
17/06/01 09:01:50.82 mJLzyhAZ.net
俺コーラ!!!
683:デフォルトの名無しさん
17/06/01 09:56:27.54 Cqs3xZTM.net
>>670
bonanzaは保木氏が作成。
ponanzaは山本が保木氏の発表やコードを参考に作成。
名前が似ているのは元祖bonanzaを参考にした故のジョークのような名前付け。
684:デフォルトの名無しさん
17/06/01 11:41:53.14 o/dQD8LP.net
>>666-667
ポナンザ:将棋AI
ボナンザ:イタリア語
以外になにがあるの?
685:デフォルトの名無しさん
17/06/01 14:59:41.31 iPuWiRem.net
>>662
新納先生あたりが「chainerによる自然言語処理」のような本を書いてくれたらな。
686:デフォルトの名無しさん
17/06/01 18:48:17.63 B5VIFhfy.net
>>672
山本氏は保木氏の成果をどの程度参考にしたんだろう?
>>663のサンプル版を軽く目を通した限り、そういう記述が見つからなくて気になった。
687:デフォルトの名無しさん
17/06/01 23:35:51.04 UBVym4iY.net
月80hrが目安って凄いな。
友人の勤めてる某企業は月40hr超えが続いたら裁量強制解除だってよ。
688:デフォルトの名無しさん
17/06/01 23:36:34.79 UBVym4iY.net
すまん、誤爆したわ
689:デフォルトの名無しさん
17/06/04 15:07:21.45 CDVoEFk7.net
chainer
URLリンク(chainer.org)
690:デフォルトの名無しさん
17/06/04 17:17:33.06 mLhi0pMh.net
はい、お疲れ様でした
691:デフォルトの名無しさん
17/06/05 06:41:33.42 QjqPAsY2.net
>>679
俺もchainerのおっさん(やと思うんだが。)に洗脳されてしもたわ。
692:デフォルトの名無しさん
17/06/05 19:54:13.20 w4UxeJ6x.net
ビッグデータとか騒いで結局何の成果も出せなかった連中が今は機会学習に飛びついてるけど、結局何の成果も出してないよね。
次どうすんの?
693:デフォルトの名無しさん
17/06/05 20:12:59.57 ehKXoJ80.net
日本語を覚える方が先
694:デフォルトの名無しさん
17/06/05 20:30:08.51 aDASQlHl.net
>>681
やらないやつほど
したりがお
695:デフォルトの名無しさん
17/06/06 03:20:45.04 quEnvIl5.net
Metal for Machine Learning. ML。OpenCL のように、機械学習に使う命令。外部グラフィックス向けも。
開発者向けにUSB-C / Thunderbolt 3 接続、AMDグラフィックカード内蔵の外付けグラフィックボックスを提供。
WWDC2017より
アップルの本気キタコレ!
696:デフォルトの名無しさん
17/06/06 05:09:55.46 PApEiV6N.net
Radeonで機械学習はありえないなー
volta+cuda9で現行の9倍高速化されるのに
697:デフォルトの名無しさん
17/06/06 05:24:12.68 lruMdzD+.net
>>684
windowsはビルゲイズがAI反対だから本気にならない。
698:デフォルトの名無しさん
17/06/06 09:17:18.50 96BnNSJM.net
株価の動きを掘ってみようかと思ったけど
現実に儲けるにはニュース聞いて判断とか出来なきゃ無理かな…?
699:デフォルトの名無しさん
17/06/06 13:18:39.84 I6XF/x6Z.net
感情分析とかなんかそのへんいろいろつかってやってみれば
700:デフォルトの名無しさん
17/06/06 14:35:40.88 MkMa3+tG.net
その辺は有象無象の証券会社が組み込んでアルゴリズム取引しているだろ
701:デフォルトの名無しさん
17/06/06 22:23:18.71 rHG/3LCd.net
外付けGPUならゲフォも使えそうな気がするがどうだろ
MacBookproで機械学習にGPU使えるならWindows捨てるわ
702:デフォルトの名無しさん
17/06/06 23:51:08.65 E9icPaPI.net
外付けGPUケースとか技術的に成熟してないだろ
まだ時期尚早
703:デフォルトの名無しさん
17/06/07 01:16:16.97 AB9ZJrzc.net
FPGA外付けでなんとかならんものかのう
704:デフォルトの名無しさん
17/06/07 03:56:38.83 4dMjulLj.net
>>691
アップルが�
705:フ用したからすぐに成熟するよ
706:デフォルトの名無しさん
17/06/07 08:36:53.07 XkU4jG3W.net
そういや大学の研究員で機械学習やってる友人がchainerは2.系になって使いやすくなったって言うてたけど
このスレでは話題なしかw
俺含めてマジで口先だけの機械学習マンしかおらんねんなw
707:デフォルトの名無しさん
17/06/07 09:15:52.65 ih3pf7WH.net
Scikit-learnとtensorflowしか使ってないわ。
そもそも画像あまり使わないから、ディープラーニングの出番があまりない。
708:デフォルトの名無しさん
17/06/07 12:58:42.76 ueFrvXn+.net
>>694
chainer 2.0 で検索しても使用記が殆どまったく出てこないのですが何故?
709:デフォルトの名無しさん
17/06/07 22:25:02.17 Ty4gS2I+.net
使用記書くためにやってるようなにわかしか使ってないんじゃない?
使用用途は画像以外にもあるだろw
例えばその友人は音声やってる
710:デフォルトの名無しさん
17/06/07 22:44:34.00 pUzYP2s+.net
まずは日本語の勉強したら?w
711:デフォルトの名無しさん
17/06/07 22:52:04.10 fozuh9Ox.net
>>697
英語で書いてもいいんだよ?
712:デフォルトの名無しさん
17/06/08 05:32:51.34 7nKoS1C4.net
>>697
NLPはどうやって学習させたの?
713:デフォルトの名無しさん
17/06/08 10:31:04.91 R8++tLAO.net
>>699
あんまり煽んなよ?
英検3級の俺が火を吹くぞ?甘くみんなや
714:デフォルトの名無しさん
17/06/08 10:32:23.84 R8++tLAO.net
>>700
知らん、俺はなんちゃって機械学習マンやからなw
715:デフォルトの名無しさん
17/06/08 14:39:05.69 NnTJuSMU.net
日本の技術者はDNNやってる奴なんてほとんどいない
機械学習も認知はされてきたが、ExcelマンやSPSSマンが多いからな
技術後進国日本だから
716:デフォルトの名無しさん
17/06/08 14:59:27.39 oPuedIYN.net
ほんそれ
717:デフォルトの名無しさん
17/06/08 15:56:43.36 1gfxrGAY.net
自分のレベルが低いだけなのに、なぜか日本全体がそうであるかのようにいう。
よくいるよね、こういう奴。
718:デフォルトの名無しさん
17/06/08 16:19:25.67 6wZ5aesY.net
>>703
ここのchainer命のおっさんみたいにDNNでmnistいじってる人間は山ほどおる。
719:デフォルトの名無しさん
17/06/08 18:08:48.88 kAL4WeSO.net
逆伝播降下法について教えてほしんだけどさあ
あるニューロンに2つ以上の信号が逆伝播されてくるときって、単純にその信号を足しちゃって良いもんなの?
720:デフォルトの名無しさん
17/06/08 19:01:41.21 G4v6KPrQ.net
>>707
数式を見れ
その通りだからわかるだろ?
721:デフォルトの名無しさん
17/06/08 20:46:14.78 59NuhaW+.net
偉そうにw
722:デフォルトの名無しさん
17/06/08 20:50:59.02 Ie+JXWe+.net
えへん
723:デフォルトの名無しさん
17/06/08 21:22:54
724:.75 ID:dWf7F4Ta.net
725:デフォルトの名無しさん
17/06/08 21:53:13.04 6XcAC6yC.net
>>707
足しちゃっていいよ
726:デフォルトの名無しさん
17/06/08 23:03:58.36 kAL4WeSO.net
>>708
自明すぎることは書かないのか、色々見ても載ってなさそうだったよ
>>712
せんきゅー!足しちゃうぜ!
727:デフォルトの名無しさん
17/06/09 13:43:20.83 DSrLGhUd.net
清水がネットで袋叩きされてる
なんでも変なライターに噛み付かれたとか
清水より実績も実力もない馬鹿が叩いてて頭くるわ
文系って害悪だな
728:デフォルトの名無しさん
17/06/09 14:52:38.25 FN8zGhq/.net
chainerできない奴に人権はない
729:デフォルトの名無しさん
17/06/09 15:04:28.66 9MmjmiaM.net
過激chainer信者
730:デフォルトの名無しさん
17/06/09 16:27:41.64 PX5MZeqq.net
うん
731:デフォルトの名無しさん
17/06/09 16:43:09.72 dQJndTGp.net
連呼、chainerリアン、だったりして
732:デフォルトの名無しさん
17/06/09 18:41:50.44 FfMCBI1H.net
kerasの作者で確定
733:デフォルトの名無しさん
17/06/09 20:24:21.63 hjkAo8D/.net
>>715
そんな奴いないだろ
734:デフォルトの名無しさん
17/06/10 04:11:56.58 aCPEFL12.net
これから流行るのはマストドン×機械学習だ!
735:デフォルトの名無しさん
17/06/10 08:04:04.99 RyxmwN8/.net
チャイナ
736:デフォルトの名無しさん
17/06/10 17:31:27.80 +Q6T419w.net
>>714
清水はクズなので
737:デフォルトの名無しさん
17/06/10 17:40:40.70 +Q6T419w.net
>>714
ちなみの今回の件は清水が勝手に割り込んできて勝手に炎上してるだけ。
相手のライターさんは清水以上の有名人。
清水はもともとクズ扱いされていたけど、今回のダメージは酷いんじゃないかな。
738:デフォルトの名無しさん
17/06/10 17:50:01.42 n0C7kBwu.net
みんな暇もてあましてんなぁ
739:デフォルトの名無しさん
17/06/10 18:44:28.72 wL8YIIaF.net
chainer始めようと思うんだけど、公式以外に参考になるサイトない?
740:デフォルトの名無しさん
17/06/10 22:39:06.70 wL8YIIaF.net
いつもchainer連呼するのに、chainerの有益サイトくらい貼れや
教えてくださいお願いします
741:デフォルトの名無しさん
17/06/11 00:56:40.45 33AK9sIV.net
>>727
サンプルコードを読むのが一番早いと思うけど。
具体的にはどのへんについて知りたいの。
ニューラルネットそのもの?それともchainer独自の仕様とか?
742:デフォルトの名無しさん
17/06/11 16:12:47.72 4QA65TrY.net
chainerできるのは自分だけだという前提
743:デフォルトの名無しさん
17/06/11 17:17:46.93 Q5yKyADs.net
脳内chainer信者
744:デフォルトの名無しさん
17/06/11 17:42:40.91 UVXhqKIr.net
Chainer信者→毎日MNIST
745:デフォルトの名無しさん
17/06/11 18:55:12.85 7PvmoOJK.net
斎藤の本に、行列の積のことを行列の内積と書いてあるのですが、なぜですか?
NumPyのライブラリの関数名がdotだからですか?
746:デフォルトの名無しさん
17/06/11 19:37:47.47 Fx0RZqRZ.net
>>732
同じく不思議に思った
747:デフォルトの名無しさん
17/06/11 21:31:11.55 7PvmoOJK.net
ソフトマックス関数の出力の和は1であるから出力を確率と解釈できる。
みたいなことが書かれていることがありますが、
y_1, y_2, …, y_n が出力であるとき、
s = Σ y_i
z_1 := y_1 /s
z_2 := y_2 /s
…
z_n := y_n / s
を新たな出力とすれば、 z_i の和が1になるからいつでも確率として解釈可能です。
なぜ、出力を確率として解釈できるということをソフトマックス関数の特長である
かのような書き方をするのですか?
748:デフォルトの名無しさん
17/06/11 21:34:45.75 7PvmoOJK.net
分類問題では活性化関数にソフトマックス関数を使うとか誰が決めたんですか?
合理的な説明は可能ですか?
749:デフォルトの名無しさん
17/06/11 22:12:15.42 pPVT/Kwx.net
好きなの使えよ
750:デフォルトの名無しさん
17/06/11 22:20:07
751:.05 ID:7PvmoOJK.net
752:デフォルトの名無しさん
17/06/11 22:21:27.50 koOlr8gl.net
別にソフトマックス関数がmustと決まってる訳じゃない
結果的に上手くいってるからそれが流行ってるだけ。
753:デフォルトの名無しさん
17/06/11 22:25:18.87 koOlr8gl.net
統計力学のカロニカルアンサンブルのモデルを考えれば、同じ次元のパラメータを確率的に影響度を分類する手段として、ソフトマックス関数はありかなと思うけどね。
754:デフォルトの名無しさん
17/06/11 22:38:42.08 Y8lrc0jl.net
>>732
あれは普通に間違いだと思う
755:デフォルトの名無しさん
17/06/11 22:46:16.02 7PvmoOJK.net
>>738-740
ありがとうございます。
756:デフォルトの名無しさん
17/06/11 22:47:48.71 7PvmoOJK.net
>>737
matplotlibの場合は以下のコマンドをかけば Jupyter notebook 上に画像が表示されるようになります。
%matplotlib inline
PILの場合も同様のやり方はないでしょうか?
757:デフォルトの名無しさん
17/06/11 23:06:02.66 7PvmoOJK.net
>>737
強引なやり方として、
def img_show(img):
■■■■pil_img = Image.fromarray(np.uint8(img))
■■■■pil_img.show()
を以下のように変更して、 Jupyter notebook 上に画像を表示させています。
def img_show(img):
■■■■pil_img = Image.fromarray(np.uint8(img))
■■■■pil_img.save('temp.bmp')
■■■■img = imread('temp.bmp')
■■■■plt.imshow(img)
■■■■plt.gray()
■■■■plt.show()
758:デフォルトの名無しさん
17/06/11 23:46:24.97 EXopzZNl.net
カロニカルアンサンブルw
759:デフォルトの名無しさん
17/06/12 09:36:48.45 ebImylz6.net
>>711
思った人が作る世界
760:デフォルトの名無しさん
17/06/12 09:39:25.56 ebImylz6.net
chainer 2.0 って古い資産使えるん?
761:デフォルトの名無しさん
17/06/12 10:46:14.31 yuw+moiO.net
斎藤の本
p.94
def cross_entropy_error(y, t):
■■■■if y.ndim == 1:
■■■■■■■■t = t.reshape(1, t.size)
■■■■■■■■y = y.reshape(1, y.size)
■■■■batch_size = y.shape[0]
■■■■return -np.sum(np.log(y[np.arange(batch_size), t])) / batch_size
これ間違っていますね。
y.ndim == 1 のときに、
cross_entropy_error(np.array([0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1], 3)
みたいな使い方ができないはずです。
762:デフォルトの名無しさん
17/06/12 10:50:06.62 yuw+moiO.net
cross_entropy_error(np.array([0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1], np.array([3]))
とすればOKですが、不自然です。
(x_train, t_train), (x_test, t_test) = load_mnist(normalize = True, one_hot_label = False)
とすると、
t_train は、 [[3], [1], [4], [1], [5], …] ではなく、 [3, 1, 4, 1, 5, …] みたいなデータになるからです。
763:デフォルトの名無しさん
17/06/12 10:52:56.23 yuw+moiO.net
それと、p.91では、使っていた delta をp.94では忘れていますね。
764:デフォルトの名無しさん
17/06/12 13:56:09.59 BSCpnBT3.net
だいたいそのインデント代わりの四角なんやねん、クッソ見にくいわそれだけで氏ね
765:デフォルトの名無しさん
17/06/12 13:58:32.69 BSCpnBT3.net
つーかこういう系の書籍に誤植があるのなんて珍しくもなんともないだろ、いちいち騒ぐことじゃない
766:デフォルトの名無しさん
17/06/12 14:21:36.69 yuw+moiO.net
斎藤康毅のディープラーニングの本に意味が分からないコードがありました。
p.111
def f(W):
■■■■return net.loss(x, t)
net
767: は simpleNet というクラスのインスタンスです。 このコードがさっぱり分かりません。 W がなぜ引数にあるのでしょうか?
768:デフォルトの名無しさん
17/06/12 14:34:19.68 S3o3Jf5d.net
インデントの■はそのまま貼り付けると大変なことになるから俺はいいと思う
769:デフォルトの名無しさん
17/06/12 14:51:29.93 yuw+moiO.net
def softmax(x):
■■■■if x.ndim == 2:
■■■■■■■■x = x.T
■■■■■■■■x = x - np.max(x, axis=0)
■■■■■■■■y = np.exp(x) / np.sum(np.exp(x), axis=0)
■■■■■■■■return y.T
■■■■x = x - np.max(x) # オーバーフロー対策
■■■■return np.exp(x) / np.sum(np.exp(x))
def cross_entropy_error(y, t):
■■■■if y.ndim == 1:
■■■■■■■■t = t.reshape(1, t.size)
■■■■■■■■y = y.reshape(1, y.size)
■■■■■■■■
■■■■# 教師データがone-hot-vectorの場合、正解ラベルのインデックスに変換
■■■■if t.size == y.size:
■■■■■■■■t = t.argmax(axis=1)
■■■■■■■■■■■■
■■■■batch_size = y.shape[0]
■■■■return -np.sum(np.log(y[np.arange(batch_size), t])) / batch_size
770:デフォルトの名無しさん
17/06/12 14:52:31.32 yuw+moiO.net
def numerical_gradient(f, x):
■■■■h = 1e-4 # 0.0001
■■■■grad = np.zeros_like(x)
■■■■
■■■■it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
■■■■while not it.finished:
■■■■■■■■idx = it.multi_index
■■■■■■■■tmp_val = x[idx]
■■■■■■■■x[idx] = float(tmp_val) + h
■■■■■■■■fxh1 = f(x) # f(x+h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val - h
■■■■■■■■fxh2 = f(x) # f(x-h)
■■■■■■■■grad[idx] = (fxh1 - fxh2) / (2*h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val # 値を元に戻す
■■■■■■■■it.iternext()
■■■■■■■■
■■■■return grad
771:デフォルトの名無しさん
17/06/12 14:52:48.36 yuw+moiO.net
class simpleNet:
■■■■def __init__(self):
■■■■■■■■self.W = np.random.randn(2,3) #標準正規分布による 2x3 の行列
■■■■def predict(self, x):
■■■■■■■■return np.dot(x, self.W)
■■■■def loss(self, x, t):
■■■■■■■■z = self.predict(x)
■■■■■■■■y = softmax(z)
■■■■■■■■loss = cross_entropy_error(y, t)
■■■■■■■■return loss
772:デフォルトの名無しさん
17/06/12 14:54:09.40 yuw+moiO.net
x = np.array([0.6, 0.9])
t = np.array([0, 0, 1])
net = simpleNet()
f = lambda w: net.loss(x, t)
dW = numerical_gradient(f, net.W)
print(dW)
★★★★★★★★★★★★★
★↑の f が理解できません。★
★★★★★★★★★★★★★
773:デフォルトの名無しさん
17/06/12 14:57:27.95 yuw+moiO.net
まず、
仮引数の w が使われていません。
仮引数に渡していない、 net, x, t を使っているところもよくわかりません。
グローバル変数ということでしょうか?
その関数 f を numerical_gradient に渡しています。
774:デフォルトの名無しさん
17/06/12 15:03:35.02 yuw+moiO.net
スコープについて正確に理解していないからよく理解できないのかもしれません。
775:デフォルトの名無しさん
17/06/12 15:05:03.31 yuw+moiO.net
numerical_gradient 内のこれ↓ですが、 x はダミーの引数ですね。
fxh1 = f(x) # f(x+h)
776:デフォルトの名無しさん
17/06/12 15:07:56.32 yuw+moiO.net
グローバル変数の net というのは、関数の中で呼び出されている関数の中でも
使えるんですか?
777:デフォルトの名無しさん
17/06/12 15:09:49.85 yuw+moiO.net
あ、できますね↓
glvar = "abc"
def myfunc1():
■■■■myfunc2()
def myfunc2():
■■■■print(glvar)
myfunc1()
778:デフォルトの名無しさん
17/06/12 15:11:05.87 yuw+moiO.net
しかし、この斎藤っていう人、こんあひどいコードをよく恥ずかしげもなく公開できますね。
779:デフォルトの名無しさん
17/06/12 15:11:58.06 yuw+moiO.net
なんでこの斎藤っていう人の本は高評価なんですか?
こんなひどいコード見たことがないです。正直言って。
780:デフォルトの名無しさん
17/06/12 15:12:31.37 yuw+moiO.net
意図的に人を混乱に陥れようとしているかのようです。
781:デフォルトの名無しさん
17/06/12 15:22:22.17 yuw+moiO.net
def f(W):
■■■■return cross_entropy_error(softmax(np.dot(x, W)), t)
↑こう書けば、x, t がグローバル変数ですが、理解可能だったと思います。
782:デフォルトの名無しさん
17/06/12 15:37:37.83 yuw+moiO.net
もっと先でどうなっているのか知りませんけど、
コードの再利用を絶対しなければならないとかいう強迫観念があるかのようですね。
783:デフォルトの名無しさん
17/06/12 15:49:25.68 8oNahNJi.net
松坂君はアスペなのでスルー
784:デフォルトの名無しさん
17/06/12 16:20:19.77 aPAWwdD7.net
レス飛んで見えない…
785:デフォルトの名無しさん
17/06/12 18:38:50.85 yuw+moiO.net
def numerical_gradient(f, x):
■■■■h = 1e-4 # 0.0001
■■■■grad = np.zeros_like(x)
■■■■
■■■■it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
■■■■while not it.finished:
■■■■■■■■idx = it.multi_index
■■■■■■■■tmp_val = x[idx]
■■■■■■■■x[idx] = float(tmp_val) + h
■■■■■■■■fxh1 = f(x) # f(x+h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val - h
■■■■■■■■fxh2 = f(x) # f(x-h)
■■■■■■■■grad[idx] = (fxh1 - fxh2) / (2*h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val # 値を元に戻す
■■■■■■■■it.iternext()
■■■■■■■■
■■■■return grad
786: ◆QZaw55cn4c
17/06/12 18:56:22.69 3CfNjtZc.net
ideone にでも貼って
787:デフォルトの名無しさん
17/06/12 19:03:49.53 kXyAwoZw.net
日記帳かな?
788:デフォルトの名無しさん
17/06/12 20:14:17.83 NCHMgwiC.net
■の交差点に当たる部分が黒っぽく見えるヤツは脳に障害があるから気をつけろ
789:デフォルトの名無しさん
17/06/12 20:20:13.35 yuw+moiO.net
錯視が見えない人のほうがやばいのではないでしょうか?
↓新井仁之さん作の錯視です。
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
ーナワ夏ーナワ夏ーナワ夏ーナワ夏ーナワ夏
ーナワ夏ーナワ夏ーナワ夏ーナワ夏ーナワ夏
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
夏ワナー夏ワナー夏ワナー夏ワナー夏ワナー
790:デフォルトの名無しさん
17/06/12 20:49:15.33 UFnpQy8S.net
>>773
黄色に見えるんだが、まずい?
791:デフォルトの名無しさん
17/06/12 22:03:20.22 d5p6YbPE.net
ID:yuw+moiOは今日の一位
792:デフォルトの名無しさん
17/06/12 22:10:40.76 7Z19E2p7.net
ここまでスレを私物化するとは恐れ入った
793:デフォルトの名無しさん
17/06/13 00:04:52.44 Mtdqriu6.net
出版社に聞けば良い
794:デフォルトの名無しさん
17/06/13 01:30:08.30 DE8cfelx.net
ID:yuw+moiO
は問題点とその解決策を知っているのに
それをネタに以前から機械学習スレに寄生して自己アピールしている輩。
本の誤植をする暇あったら自分で話題を振った人工脳、囲碁ソフトを最後まで貫徹しろ
795:デフォルトの名無しさん
17/06/13 01:52:16.95 Qub3huW8.net
こいつ定期的に湧いては毎回捨て台詞残して去ってくガイジよな?
796:デフォルトの名無しさん
17/06/13 07:08:16.37 vTvJ85fe.net
そうそう、ここはお前の日記帳ちゃうからな定期
797:デフォルトの名無しさん
17/06/13 07:14:38.89 mB5PsSmf.net
ここはchainerをマンセーするとこみたい
798:デフォルトの名無しさん
17/06/13 08:50:19.28 2/vIeE6p.net
chainerのモデルをc言語に変換する機能を早く作ってくれ
799:デフォルトの名無しさん
17/06/13 16:46:55.59 C1RmxyOE.net
>>783
chainerのモデルを機械語にへんかんする機能を早く作ってくれ。
800:デフォルトの名無しさん
17/06/13 17:19:48.06 o8sz+Rrs.net
Cならtiny-dnnとか使ってみてはどうだろうか
801:デフォルトの名無しさん
17/06/14 22:18:18.87 FFtrTT0/.net
ニューラルネットの作図何使って書いてる?
いいのあったら教えてくれ
802:デフォルトの名無しさん
17/06/14 23:13:46.17 7OziKzZZ.net
作図ってなんやねん
ANNなんて作図もクソもないやろ
803:デフォルトの名無しさん
17/06/15 00:00:11.41 73QUpRhJ.net
>>786
ビジオ
804:デフォルトの名無しさん
17/06/15 01:36:53.25 oYl2jhaA.net
『入力⇒機械学習⇒出力』
って書けば十分
805:デフォルトの名無しさん
17/06/15 17:45:58.79 CH6c1rSc.net
正論
806:デフォルトの名無しさん
17/06/15 17:51:51.86 ePr3c3Am.net
異論
807:デフォルトの名無しさん
17/06/15 23:28:36.01 9syGziw3.net
定説です
808:デフォルトの名無しさん
17/06/15 23:40:54.67 ChQ2CBhk.net
風説
809:デフォルトの名無しさん
17/06/16 00:07:33.45 C40LWxzu.net
いちいちニューロンと結びつけて話す必要はない
810:デフォルトの名無しさん
17/06/16 06:02:19.10 InJ7BRbF.net
時系列データって深層強化学習で処理できんの?
811:デフォルトの名無しさん
17/06/16 13:37:27.48 YhgtDNjG.net
<<-C%%->>
OZHEZ-[[[\\%5%==GLAMB]]]
E=4.323111111111111111111111111111111121
0.4E5Z<<<OBROB%/++11/$end
812:デフォルトの名無しさん
17/06/16 16:26:19.45 I/6vJIh0.net
ICONIP
いきたいけど旅費がない
萌芽の発表は7月だし
813:デフォルトの名無しさん
17/06/16 16:33:36.33 KtCc4FWk.net
発表もしないのにいけるのか、ゆとり
814:デフォルトの名無しさん
17/06/16 16:48:21.80 ixzzoI9b.net
斎藤康毅のゼロから作るDeep Learningはどの本を元に書いたのでしょうか?
815:デフォルトの名無しさん
17/06/16 18:38:29.18 1eQLQexT.net
URLリンク(www2.nhk.or.jp)
今朝ポナンザの山本一成さんがNHKに出てた
816:デフォルトの名無しさん
17/06/16 18:41:12.93 1eQLQexT.net
↑上のリンクから再放送依頼できるけど
アーカイブに今晩バックナンバー載りそう
URLリンク(www.nhk.or.jp)
817:デフォルトの名無しさん
17/06/16 21:00:01.03 vkemD3MD.net
>>773
黒?白(灰色)の間違いじゃないの
818:デフォルトの名無しさん
17/06/16 23:30:43.54 GEzsUpdW.net
>>802
なるほど確かに脳に障害がありそうだ
819:デフォルトの名無しさん
17/06/17 07:16:47.10 /8BMQ3Rn.net
>>799
これだろ
URLリンク(nnadl-ja.github.io)
820:デフォルトの名無しさん
17/06/17 09:45:56.10 K9qvepHC.net
>>803
そうなの?正常な脳にはどう見えるのかな
821:デフォルトの名無しさん
17/06/17 13:16:08.56 n6TLE+k2.net
しっかし、アホみたいな本が増えたな。
ニューラルネットワーク=バックプロパゲーションで解かないとダメみたいなアホがホントに増えた
822:デフォルトの名無しさん
17/06/17 20:03:30.75 8t/ZpRhM.net
バックプロップ以外に実用性があるものってなに?
823:デフォルトの名無しさん
17/06/17 20:51:18.42 Xcjg2E/o.net
バックドロップかな。防犯に最適。
824:デフォルトの名無しさん
17/06/17 21:21:33.08 jNo4H0U+.net
まあANN入門するような人には分かりやすくていいんじゃない?
825:デフォルトの名無しさん
17/06/17 21:40:55.39 YTZvAUVb.net
人工勾配とか?
826:デフォルトの名無しさん
17/06/17 22:16:18.94 ncuWnJKs.net
ニューロファジーはオワコン?
827:デフォルトの名無しさん
17/06/17 22:18:41.30 Ya2yzLrD.net
ファジーは確率論そのものだからな
完全に吸収されハッテン的に解消された
828:デフォルトの名無しさん
17/06/17 22:28:09.02 d6cunnJW.net
誰もやってないのならやってみたら
829:デフォルトの名無しさん
17/06/18 13:35:07.62 1x/qQ/cP.net
kerasの日本語ドキュメントはバージョン1のまま
WARNING出て気付いた
keras使う人は最初から英語ドキュメント見て書いたほうが良い
830:デフォルトの名無しさん
17/06/18 13:49:36.29 JNJOh7ed.net
TF1.2になったけど直接upgradeできないのか
831:デフォルトの名無しさん
17/06/18 22:05:35.27 aNa0zBRT.net
誰も問題視してない気がするんだけど、ReLUレイヤーより前側にあるニューロンって一度変なところにハマったら永遠に学習されないこともあるんじゃないの?
これどうやって解決すりゃいいんだろ
832:デフォルトの名無しさん
17/06/18 22:53:32.63 RQgPmra0.net
初期値変更してやり直し
833:デフォルトの名無しさん
17/06/18 22:55:19.18 uGuVh2xb.net
アクティベーションしない層なんて作るなよアホかw
834:デフォルトの名無しさん
17/06/18 23:30:21.78 aNa0zBRT.net
>>817
やっぱりそうするのか・・・・
835:デフォルトの名無しさん
17/06/19 00:59:17.47 L7VCydWs.net
>>815
結局再インストール
836:デフォルトの名無しさん
17/06/19 01:45:23.93 60o+lpD5.net
>>815 >>820
直接 upgrade できるに決まってるだろ。他のフレームワークの信者かよw
837:デフォルトの名無しさん
17/06/19 05:20:41.61 HgBTAijm.net
lreluとか簡単じゃん
838:デフォルトの名無しさん
17/06/19 09:53:05.91 ch5emJ9A7
結果が全て。難しい事はオープンソースの人がやってくれる。
ボクらはついていけばよいだけ。できれは一行くらい…
839:デフォルトの名無しさん
17/06/19 09:45:48.84 JRZAs/i8.net
>>816
あなた基
840:本の基本ですよ
841:デフォルトの名無しさん
17/06/19 09:48:05.40 j8XPCuUX.net
>>816
Mac信者とかジョブズ信者は変なところにハマったら永遠に学習されないパティーン
842:デフォルトの名無しさん
17/06/19 12:00:30.55 0IiK5rsw.net
斎藤康毅著『ゼロから作るDeep Learning』
ですが、多変数関数の連鎖律の説明が全くないですね。
いいんですかね?
(5.13)の前ところで、多変数関数の連鎖律を説明する必要があるはずです。
843:デフォルトの名無しさん
17/06/19 12:21:01.89 JRZAs/i8.net
だれでも知ってるからな
844:デフォルトの名無しさん
17/06/19 12:29:48.52 0IiK5rsw.net
>>827
では、なぜ、1変数関数の微分の説明などを書いているのでしょうか?
1変数関数の微分など高校生なら誰でも知っています。
845:デフォルトの名無しさん
17/06/19 12:34:57.92 0IiK5rsw.net
>>827
では、なぜ行列の積の定義など書いているのでしょうか?
この本では、「内積」などと書いてあって、線形代数の本を1冊も読んだことがないことが明白になっていますが。
846:デフォルトの名無しさん
17/06/19 12:44:50.41 ys29Ylcz.net
書く人の自由。それだけ。
それでは次の話題どうぞ。
847:デフォルトの名無しさん
17/06/19 12:48:40.61 0IiK5rsw.net
斎藤さんが線形代数の本を読んだことがないことは、
p.149の(5.14)を見ても分かります。
Wの成分の添え字の付け方が標準的じゃないです。
848:デフォルトの名無しさん
17/06/19 15:05:28.75 O5LBcqZV.net
松坂君のアスペ日記
849:デフォルトの名無しさん
17/06/19 16:19:54.04 JOgg+pf9.net
>>ID:0IiK5rsw
正直それは本質的にどうでもいい指摘
もう少しメリットをよく考えて指摘してね
850:デフォルトの名無しさん
17/06/19 16:48:54.09 oa7fQHyl.net
くやしいのう
立ち読みでよく読まずにネットで本買うからだよ
851:デフォルトの名無しさん
17/06/19 16:51:26.18 oa7fQHyl.net
書評わろす
URLリンク(www.amazon.co.jp)
852:デフォルトの名無しさん
17/06/19 16:55:12.54 oa7fQHyl.net
白馬に乗った王子様ω
853:デフォルトの名無しさん
17/06/19 16:56:05.76 yxzxzB1Z.net
ハイヨーシルバー
854:デフォルトの名無しさん
17/06/19 18:41:55.35 oa7fQHyl.net
>もうおめーが執筆しろよ
ほんそれ
855:デフォルトの名無しさん
17/06/19 19:06:09.83 uUACxRGV.net
ID:0IiK5rsw
それでは各論まとめて
結論とうぞ
856:デフォルトの名無しさん
17/06/19 22:34:22.00 +3k0G+SI.net
何その本
外部のライブラリに頼らずpythonでゼロから作るとか
頭悪すぎだろワロタわ
857:デフォルトの名無しさん
17/06/19 22:59:49.58 yo8gS+8N.net
斉藤何某の本の荒さがして、彼をこき下ろせればうれしい松坂君(ID:0IiK5rsw)
858:デフォルトの名無しさん
17/06/19 23:33:42.41 LAADOK2/.net
質問ですが、機械学習にmathematicaは向いていますか?
859:デフォルトの名無しさん
17/06/20 01:17:23.06 KtZyi5C/.net
何をさせたいのかよく分からない。
新手のアスペルガーかな?
860:デフォルトの名無しさん
17/06/20 05:37:17.12 xv2Ykfsc.net
はい私はとても健康です
861:デフォルトの名無しさん
17/06/20 11:17:32.00 QVmphIOX.net
>>835
屑のようなレビュワーがいるなと思ったら、松坂君だったのね。
862:デフォルトの名無しさん
17/06/21 09:03:09.37 0b3SfvhC.net
機械学習は特別なモノだと思ってたけど、そうでも無かった。
サンプル値→アルゴ→探査→出力 から
サンプル値→学習アルゴ→探査→出力 に変わって程度?
コンピューターである程度予測できると言う事は、人間が数字に頼りすぎてる
だけなんじゃ ないかと思う。
863:デフォルトの名無しさん
17/06/21 10:33:14.30 O1N7/nyo.net
すまん、何言ってるのかわからない。
母国語でいいぞ。
864:デフォルトの名無しさん
17/06/21 11:23:59.74 fFU4iy0U.net
>>846
Speak your mother language.
865:デフォルトの名無しさん
17/06/21 11:29:53.79 0b3SfvhC.net
お前らは馬鹿
866:デフォルトの名無しさん
17/06/21 11:40:16.41 O1N7/nyo.net
母国語でいいんだよ?
867:デフォルトの名無しさん
17/06/21 12:23:46.42 evocEq9p.net
mnistの次は何やるの?
868:デフォルトの名無しさん
17/06/21 12:45:11.54 fFU4iy0U.net
GANやろうず
869:デフォルトの名無しさん
17/06/21 13:52:08
870:.69 ID:Anb+0xdx.net
871:デフォルトの名無しさん
17/06/21 16:35:06.36 thCTbbQz.net
母語w
872:デフォルトの名無しさん
17/06/21 19:53:56.52 hNpS/0g6.net
母ッ、ワロス
873:デフォルトの名無しさん
17/06/21 20:42:29.90 dkTV0bSC.net
>>846が何言ってるのか全く理解出来ない。
学習アルゴって具体的に何?
874:デフォルトの名無しさん
17/06/21 23:00:39.46 GTQODmz/.net
URLリンク(www.bing.com)
875:デフォルトの名無しさん
17/06/22 00:44:19.64 HpaUk2Go.net
学習用のデータから、自動でアルゴリズムを作ってるとか思ってる奴ら多そうだな
876:デフォルトの名無しさん
17/06/22 05:38:24.16 cbPCw405.net
それができれば理想だな。今も決定木は人が読める点で近いように思う。
877:デフォルトの名無しさん
17/06/22 06:26:26.24 XgOVggw3.net
ベンアフレックかっこいいよな
878:デフォルトの名無しさん
17/06/22 11:05:46.80 iOAfWW4P.net
AIで作曲できるらしいしアルゴリズムも組めるやろ(鼻ほじ)
こんなやつがわんさかいるんだろうな。
879:デフォルトの名無しさん
17/06/22 18:49:37.94 hJIf6HeF.net
高卒丸出しだな
880:デフォルトの名無しさん
17/06/22 18:53:17.89 WM8EAclq.net
>>846を誰か解読してくれ
881:デフォルトの名無しさん
17/06/22 22:57:28.57 lcsks2aB.net
AIで作曲ってやってみたいけど
ある程度規則を与えてその中でやらないと難しいのかな?
コード進行とか
882:デフォルトの名無しさん
17/06/23 00:53:42.92 e6RIa+74.net
コード進行は、普通に学習させれば学ぶはず。
883:デフォルトの名無しさん
17/06/23 02:17:20.39 TcGhgWTU.net
この先、機械学習は人工知能ではない、という説明が何度なされるのだろうか
884:デフォルトの名無しさん
17/06/23 07:01:25.85 itykqYHT.net
次々と定義を変えていくことに何の意味が
885:デフォルトの名無しさん
17/06/23 07:42:22.94 OLJ++o2k.net
機械学習は人工知能への有力視されているアプローチの一つだし細かいことは良いんじゃない?
886:デフォルトの名無しさん
17/06/23 07:54:10.18 ik2SDF3F.net
>>864
コード進行に規則なんてない
887:デフォルトの名無しさん
17/06/23 08:06:37.19 itykqYHT.net
作曲家のやつが自分の音楽理論のノート書いてるの見たことあるから規則性あるんじゃない?
888:デフォルトの名無しさん
17/06/23 08:22:55.28 mV7/Pm52.net
>>867
人工知能の定義ってもともとがあいまいだから時代によってどんどん変わってるよ
誰かが「これが人工知能だ」ってシステムをつくったら周りが否定から入る
2ちゃんねるのお前らみたいなもんだ
889:デフォルトの名無しさん
17/06/23 09:31:24.94 7CKItQkC.net
>>870
ポップスのコード進行なら規則性あるけどメロディーには少し規則性はあるけどほとんど無いと言ってもいい
コード進行の規則性はT(に属する和音一覧)→S(に属する和音一覧)→Dとか大雑把なものだよ
ドミナントモーションとか裏コードも絡むし、自分で作った方が早いレベル
890:デフォルトの名無しさん
17/06/23 09:33:46.36 tdHTYauf.net
Jazzの音楽学校へ行ってたけど、音楽理論には規則性がある。
ドレミファソラシドで、半音の所が、解決しやすい
ファ → ミ
シ → ド
G7 → Cmajor, Aminor へ解決しやすい。
G7には、ファ・シがあるし、Cmajor, Aminor には、ミ・ドがあるから
G7をドミナント、Cmajor, Aminor はトニックという。
Fmajor, Dminor は、サブドミナントという
こういう機能で、コード進行を作っていく
891:デフォルトの名無しさん
17/06/23 09:35:12.37 7CKItQkC.net
>>873
そんなぐらいの規則性自分で作った方が早い
四則演算レベル
892:デフォルトの名無しさん
17/06/23 09:37:36.43 TmFNLgcH.net
一般や啓蒙書、雇用煽りが共通認識するAIは、汎用AI。
認識、学習、改善、推論、生成、表現
幾つかの分野が合わさって実現される。
深層学習は、認識、学習、改善、推論あたりの技術。ただし、扱うデータで言えば、画像に強い。言語認識は、まだ高い壁があるから、キーワードの域に絞る設計に落としている。
定義のすり替えは、拡大解釈が著しい点に尽きる。
893:デフォルトの名無しさん
17/06/23 10:17:27.82 by8lql6y.net
それ何年前の話だよwお前周回遅れだぞ
894:デフォルトの名無しさん
17/06/23 10:38:14.39 mV7/Pm52.net
音楽は規則性があるともいえるしないともいえる
>>873
>音楽理論には規則性がある。
これは話が逆で規則性を集めたものが音楽理論
協和音が「安定していて快い」
不協和音が「不安定で不快」
半音の移行は「解決しやすい」
というのはすべて人間が聞いてそう感じるというだけ
人間が聞いて整理された音に聞こえるものを集めたのが音楽理論
2ちゃんで誰かが「音楽理論は作曲のテンプレ集」と言ってたな
別に既存の音楽理論から外れた曲を作ったらいけないというルールはない
むしろ外したうえで整理されたように聞こえる曲をつくるのが現代音楽
895:デフォルトの名無しさん
17/06/23 10:39:18.99 0OdP20aK.net
>>858
むしろ固定ロジックとFPGAの関係に近いよな
896:デフォルトの名無しさん
17/06/23 10:43:47.52 0OdP20aK.net
不協和音って気持ちイイ
897:デフォルトの名無しさん
17/06/23 10:44:17.03 mV7/Pm52.net
>>874
人工知能で作曲するというのは新しい規則が発見できるかということだと思う
人間の感覚に依存しているから、まあ無理だと思うけど
898:デフォルトの名無しさん
17/06/23 12:17:12.80 7CKItQkC.net
>>880
新しい規則って例えば?
不協和音を作るだけじゃないの?
現代クラシックなんて誰も聞かないけどね
899:デフォルトの名無しさん
17/06/23 12:31:04.12 mV7/Pm52.net
>>881
お前にレスするんじゃなかった
やっぱり音楽は規則性がある
音楽に規則性がないとか言ってる奴は頭がおかしい
900:デフォルトの名無しさん
17/06/23 12:38:40.45 7CKItQkC.net
>>882
早く例を出して
例えばドビュッシーの調性からずれた音楽とかそういうのが見つかるのか?
901:デフォルトの名無しさん
17/06/23 12:39:52.71 3I31uVaW.net
未知のものに例を出せとか
キチガイと言われても仕方のないレベル
902:デフォルトの名無しさん
17/06/23 12:41:56.56 mV7/Pm52.net
ID:7CKItQkC
ついに粘着が始まりましたw
903:デフォルトの名無しさん
17/06/23 12:42:36.51 +nBH4rc2.net
>>882
お前が言う規則性を持たない一連の音があったとして
それを音楽と呼ぶかどうか
人それぞれじゃね
904:デフォルトの名無しさん
17/06/23 13:39:18.23 8e+v7OlS.net
パーパッパラー
905:デフォルトの名無しさん
17/06/23 15:13:08.62 qrObfM+R.net
音楽とはなにか芸術とはなにかを自ら思考して成果物を出せる装置
906:デフォルトの名無しさん
17/06/23 16:46:45.37 iOaj9dbc.net
その前に完璧に採譜できるAIを作ろう
907:デフォルトの名無しさん
17/06/23 16:59:46.27 QgWrU2UU.net
興味ないから別スレ立ててやってくれ
908:デフォルトの名無しさん
17/06/23 19:21:16.94 vbPiU/7d.net
@@@^7&@@@
}
000-NIMA[%7/2ML%-&!29]~
909:デフォルトの名無しさん
17/06/23 19:49:07.54 Qvsd/3Uh.net
テレビとか新聞で人工知能を見て来た人は、将棋板やニュー速に行った方がいいんじゃない?
910:デフォルトの名無しさん
17/06/23 20:11:35.39 /u/zWQiC.net
ここでグダグタ言う
911:デフォルトの名無しさん
17/06/23 21:58:14.73 Byf7wydn.net
>>872
バッハの平均律ですでに尽きている気がする
912:デフォルトの名無しさん
17/06/23 22:43:45.39 N2TfUGFS.net
トッカータとフーガ
913:デフォルトの名無しさん
17/06/24 00:57:18.61 SL2Ld84l.net
馬鹿は無理して喋るなって�
914:カっちゃんが言ってた
915:デフォルトの名無しさん
17/06/24 01:20:34.33 V0wv3NBw.net
AI「理論なんて知るか、フィーリングだよ、フィーリング!」
916:デフォルトの名無しさん
17/06/24 01:28:04.59 jEvH/50K.net
フィーリングも何もパラメータの値弄ってるだけ
音楽やってる人だったら調律とか、ゲイン調整とかやんだろ?
それとやってること変わらん。
917:デフォルトの名無しさん
17/06/24 02:51:52.07 GbyumqqN.net
パラメータの変更の根拠はなんですか
918:デフォルトの名無しさん
17/06/24 03:22:00.72 qHJWcykF.net
菅野よう子がつくりそうな曲を学習させて
素人が作った適当な楽譜を入力して菅野よう子っぽく変えるとか
919:デフォルトの名無しさん
17/06/24 07:50:06.64 SFTuX/e+.net
菅野よう子が作った曲のコード進行を引用して
楽器も打ち込みから選べばいいだけ
920:デフォルトの名無しさん
17/06/24 10:51:25.62 GSstQX20.net
アニヲタが乱入してきたな
これは避難ですわ
921:デフォルトの名無しさん
17/06/24 11:31:33.59 jEvH/50K.net
>>899
いまいち噛み合ってないのかわかんないが、
予め元になる対象が合って、それに合うようにパラメータを変更する。
あるいはその対象がないなら、パラメータ変更後の結果を評価する基準設ける。
922:デフォルトの名無しさん
17/06/24 12:21:14.84 29Lhuze+.net
>>899
∇
923:デフォルトの名無しさん
17/06/24 12:34:36.62 kAjMZZam.net
嬲ら
924:デフォルトの名無しさん
17/06/24 12:48:42.75 jG1C/Elt.net
人工知能なんて簡単だな
なんてったって、人間の意識は全て無意識的自然発生的に起こったものを
受動的に受け取ってるだけだからな
で、あとは「自分の意思でやったことにするだめに」後付けでエピソード記憶
として残す部分を実装すればできあがりだ
925:デフォルトの名無しさん
17/06/24 12:51:00.56 jEvH/50K.net
??
またろくに理解してないへんなやつがあらわれた
926:デフォルトの名無しさん
17/06/24 12:58:18.64 jG1C/Elt.net
>>907
???
まさか人間の意識が能動的な存在だとでも?
自分の行動は全て自分の意思で決めていると本気で思ってる?
残念ながらそれは幻想なんだよ
927:デフォルトの名無しさん
17/06/24 13:03:44.19 jEvH/50K.net
ん?人間?
何言ってんの?文系の人?
そもそも一般人が人口知能って呼んでイメージするものは現状ないよ。
バリバリ数学の手法使って問題解いてるだけ。
928:デフォルトの名無しさん
17/06/24 13:07:51.47 jG1C/Elt.net
>>909
そうだね
機械学習で実現できてるのはニューラルネットワーク部分
でそれができれば実は人間の脳がやってる「意識」も実は実現できる
ってことを端的に言ってる
要はいわゆる「魂」のようなものはこの世に存在しないということ
929:デフォルトの名無しさん
17/06/24 13:17:10.66 jEvH/50K.net
あのね?
『NNが、上手くいってるのはニューロン/シナプスを模擬してるから』
とよく言われてるけど、そのモデルだから上手くいく理由は根拠が示されて無いよ。
あと、脳=NNと考えるのは議論が飛びすぎ
『魂』とかの発言ができるって頭がおかしいと思われるからやめたほうがよいぞ
930:デフォルトの名無しさん
17/06/24 13:31:45.40 jG1C/Elt.net
特に他人から変な奴だと思われないようにすることに興味はないので
人間の「意識」は、
入力に対して無意識的に機械的なネットワーク(NN)を通じて出力された結果を
受動的に受け取ってそれをあたかも「自分が自分の意思でやったこと」である
という記憶に残してることで実現されている
ってことを言いたかっただけです
端的に言って人間も単なる周囲から入力を受けてそれに応じた機械的な出力を
してる機械に過ぎないので、今盛り上がってる機械学習もそのうち人間と区別が
つかないAIになるんだろうなと
量子コンピューターでNNを
931:組めればほぼ脳と同じ処理能力を得るだろう
932:デフォルトの名無しさん
17/06/24 14:25:20.07 lQBfGSMr.net
感想だろそれ
933:デフォルトの名無しさん
17/06/24 14:39:47.07 jG1C/Elt.net
感想?
前半は実験事実です
後半は私の(脳内で勝手に発生したものを私自身が予想したと思っている)予測結果です
934:デフォルトの名無しさん
17/06/24 17:12:58.75 zaSoxKtm.net
>>912
人の脳は量子計算はやってないようだけど、どうして
>量子コンピューターでNNを組めればほぼ脳と同じ処理能力を得るだろう
といえるの?
935:デフォルトの名無しさん
17/06/24 17:34:22.08 jG1C/Elt.net
>>915
ある条件を与えて(入力)、その系のエネルギーが最も低くなる安定状態が解(出力)
となる仕組みが実際の脳のニューラルネットワークの実装に近い
クロック同期回路で構成される現行の逐次実行ベースのCPUではとてもじゃないけど
同じ処理速度は実現できない
量子コンピューター以外でNNを組むとしたら、代案として考えられるのは、
OPAMPをベースとした「アナログ」的に重み付けが可能なアナログ回路で
ニューラルネットワークの機能を模擬した実装であればあるいは脳みそに近い
実装が可能かもしれない
しかし問題は、人の脳のようにその回路(NN)を「高密度」に構成し、
かつそれを「動的に変更」できる仕組みを確保するのが現在のテクノロジーでは
難しい点である
以上のことより、量子コンピューター(量子ビット)でそれを実現する方法が、
現在の人類のテクノロジーレベルでは最も現実的な解だと思うから
936:デフォルトの名無しさん
17/06/24 17:35:29.13 jG1C/Elt.net
>>915
補足
>ある条件を与えて(入力)、その系のエネルギーが最も低くなる安定状態が解(出力)
>となる仕組み
は量子コンピューターの原理
937:デフォルトの名無しさん
17/06/24 17:39:12.67 dJ0LTss7.net
現状で人間の脳に一番近くて現実的な方法は何か、という問題は
ある手法が人間の脳と同じかきわめて近い処理内容・同程度の処理能力を実現しているか、という問題とは別物
このスレで話すことじゃないと思うが
938:デフォルトの名無しさん
17/06/24 17:42:38.27 jG1C/Elt.net
>>918
人間の脳の機能の本質は何か?がわかっていれば別の問題として切り離せるだろうね
939:デフォルトの名無しさん
17/06/24 18:27:23.35 DjLbjRo1.net
ここはプログラムスレなので、今、プログラムで実現可能な話題に絞って欲しい。
940:デフォルトの名無しさん
17/06/24 18:49:47.57 jEvH/50K.net
なんかもう酷いことになってる‥
議論点もなく、ただ一個人の掃き溜めになってる
繰り返しになるけど人間の脳=NNではない
NNはニューロンシナプスの数学のモデル化の一つとして提案された恣意的なものを使い続けてるにすぎないのに
941:デフォルトの名無しさん
17/06/24 19:00:30.20 jG1C/Elt.net
掃き溜め...
942:デフォルトの名無しさん
17/06/24 19:09:52.82 K9TyHaME.net
工学モデルだよアホ
943:デフォルトの名無しさん
17/06/25 00:03:07.08 fO84YXXM.net
現代音楽は不得意だろうが、人間も不得意
944:デフォルトの名無しさん
17/06/25 07:36:28.11 U3fD420s.net
>>924
やはり弱いAIだけしかできないか。
945:デフォルトの名無しさん
17/06/25 07:45:11.89 aB9vn0HB.net
ただの分類器に夢見ちゃうなんてどうかしてる
946:デフォルトの名無しさん
17/06/25 08:16:56.42 NO+bhPJd.net
>>926
脳みそもただの分類器だと認めると人間の価値が下がったように見えるからやなの?
947:デフォルトの名無しさん
17/06/25 08:26:30.84 BafXBGAg.net
人口知能は分度器みたいなものなのか
948:デフォルトの名無しさん
17/06/25 08:32:13.87 NO+bhPJd.net
分度器?
949:デフォルトの名無しさん
17/06/25 08:46:51.96 +KJZpxu/.net
弱いAIって何だよ、変な言葉使うな
950:デフォルトの名無しさん
17/06/25 08:47:33.84 Z1g1mbKc.net
分度器でも勾配測れるな
951:デフォルトの名無しさん
17/06/25 09:13:11.78 k4Cmp+Je.net
でも弱いなんたらって結構あるよな
収束性とかもそんなんないっけ
952:デフォルトの名無しさん
17/06/25 09:21:11.59 NO+bhPJd.net
弱い相互作用とか、
弱参照とか...
953:デフォルトの名無しさん
17/06/25 09:43:52.54 Z1g1mbKc.net
頭の弱いスレ民
954:デフォルトの名無しさん
17/06/25 09:46:35.04 NO+bhPJd.net
自分だけは頭が弱くないという前提
955:デフォルトの名無しさん
17/06/25 09:53:42.43 BafXBGAg.net
頭の弱いAI
956:デフォルトの名無しさん
17/06/25 10:41:29.70 VhAMMkc/.net
>>934 >>935 >>936
このハゲェーーーーーーー!!
ちーがーうーだーろぉおおーーーーーー!!!
957:デフォルトの名無しさん
17/06/25 11:56:19.82 g07w/bsr.net
そのネタでスレ消費してないで
もう人工脳と称して売っている会社があるから
もうそこで買ってこい。
958:デフォルトの名無しさん
17/06/25 11:58:08.71 NO+bhPJd.net
>>937
ハゲじゃないし少しは落ち着きなよ…
959:デフォルトの名無しさん
17/06/25 12:00:02.46 GlRpAYRq.net
クソインですね
おすすめします
960:デフォルトの名無しさん
17/06/25 12:01:48.89 u6NVJ74s.net
ハゲじゃないし(震え声)
961:デフォルトの名無しさん
17/06/25 14:22:43.98 exBOnPZ5.net
ハゲちゃいまんねんズラでんねん
962:デフォルトの名無しさん
17/06/25 14:34:37.70 Z1g1mbKc.net
/\_彡⌒ ミ__ これよりハゲに対する
\/(`・ω・´) /\ 誹謗中傷の監視を人工知能で行う
_|  ̄ ̄ ̄ ̄|\/_
/ |_____|/ ̄/
 ̄ ̄  ̄ ̄
963:デフォルトの名無しさん
17/06/25 14:47:12.03 fboMAvNK.net
悔しかったら機械学習でハゲをどうにかしてみせよ
964:デフォルトの名無しさん
17/06/25 14:55:15.57 olshpnxE.net
>>944
それな。深層学習が本当に凄いなら、ハゲを何とかして欲しいわな。
できないなら偉そうにするな、と
965:デフォルトの名無しさん
17/06/25 15:52:17.40 N5wcMY20.net
情け容赦のない中傷がハゲを襲う
966:デフォルトの名無しさん
17/06/25 16:04:40.67 BafXBGAg.net
ズラがどうかの推論ならできるだろ
967:デフォルトの名無しさん
17/06/25 16:26:30.03 0pkQNJmD.net
TFの計算グラフの解説あったら教えて
968:デフォルトの名無しさん
17/06/26 02:26:33.10 cBjgwNHP.net
これからは芸術スポーツの時代
969:デフォルトの名無しさん
17/06/26 03:56:00.22 IXT4wGHw.net
>>948
みんなchainerやってるからw
970:デフォルトの名無しさん
17/06/26 05:07:06.41 QZaAA0mw.net
>>939だけマジレスっぽい
971:デフォルトの名無しさん
17/06/26 07:23:36.15 x1DHTosu.net
>>951
そんなにハゲであってほしいの?
ハゲを愛してるの??
972:デフォルトの名無しさん
17/06/26 07:36:07.34 UgM1yMvp.net
ハゲでスレが伸びるのかw
まぁchainer使おうがtensorflow使おうが、ハゲ問題は解決しないからなw
973:デフォルトの名無しさん
17/06/26 07:46:27.59 b1vUzTCp.net
はたして、ほんとうにそうだろうか
げんいんきゅうめいにはやくだつのではないだろうか
974:デフォルトの名無しさん
17/06/26 11:22:56.25 LIsPEZAk.net
TFにkerasかぶせるみたいに
頭皮にヅラかぶせればいい
975:デフォルトの名無しさん
17/06/26 14:45:57.09 cBjgwNHP.net
しっかしハゲ問題って全然解決されないなあ
976:デフォルトの名無しさん
17/06/26 15:03:38.64 HQUxJcC4.net
STAP細胞はハゲの光りだったが
人口知能はハゲの前には無力
977:デフォルトの名無しさん
17/06/26 15:12:17.67 q302Q7Q1.net
ハゲ >>> 人工知能
978:デフォルトの名無しさん
17/06/26 15:27:52.04 H+izVTcm.net
intelハゲってる
979:デフォルトの名無しさん
17/06/26 18:31:37.54 dfW/hXaI.net
【乞食速報】イーサリアムバブル崩壊でRADEON RX570が今なら、320円!!急げ!!乗り遅れるな!! [無断転載禁止]2ch.net
URLリンク(matsuri.2ch.net)
980:デフォルトの名無しさん
17/06/26 19:11:38.35 YfvfGNbL.net
>>957 >>958 >>959 >>956 >>955
横浜国大、毛根を大量に培養成功 マウスで増毛実験成功
URLリンク(www.nikkei.com) … … …
URLリンク(twitter.com) …
981:デフォルトの名無しさん
17/06/26 19:47:47.14 HQUxJcC4.net
素朴な疑問だがマウスに髪の毛なんてあるのかw
982:デフォルトの名無しさん
17/06/26 20:37:03.62 iMKCKa0h.net
禿にかまうと伝染るぞ
983:デフォルトの名無しさん
17/06/26 20:54:21.11 C3/mpk0p.net
少し聞きたいことがあるんだけど
回帰分析の応用?で例えばだけど
4変数の入力で2変数の出力を予測したいタスクは何分析になるの?
984:デフォルトの名無しさん
17/06/27 00:41:25.21 PEMNvDJF.net
>>964
何をしたいのか上の文だけじゃわからないけど、4パラメータを2バラメータに変換したいならPCA(主成分分析)やって固有値大きい2つの固有ベクトルを選んで変換するだけ
985:デフォルトの名無しさん
17/06/27 00:43:26.49 5fkiI7k4.net
だけとか言うなよ相関や非線形性も見ないで…
986:デフォルトの名無しさん
17/06/27 00:44:37.26 PEMNvDJF.net
線形性みたいなら普通のPCA
非線形ならカーネル法使えばいいだけ。
987:デフォルトの名無しさん
17/06/27 00:45:38.89 5fkiI7k4.net
w
988:デフォルトの名無しさん
17/06/27 00:49:24.51 PEMNvDJF.net
そもそも何をしたいの?
『何分析になるの?』に回答しただけ
989:デフォルトの名無しさん
17/06/27 00:53:39.39 5fkiI7k4.net
「総計分析・機械学習は検索して見つけたサンプルコードを参考にしてライブラリを呼び出すだけ」
とか言ってくれよ
990:デフォルトの名無しさん
17/06/27 00:57:14.46 PEMNvDJF.net
PCAぐらいは検索掛けられば見つかる
991:デフォルトの名無しさん
17/06/27 01:04:14.74 5fkiI7k4.net
検索しなくても大学一年の線形台数で学ぶ
どういうときに有効で、逆にどういうときにダメなのかも含めてな…
それを知っていれば
>>964に
「…だけ」とか言うはずが無いと思うんだが
992:デフォルトの名無しさん
17/06/27 01:06:09.89 S1DxdjT9.net
じゃあ「…はげ」でいいよ
なにがしたいのか俺もよくわからん
993:デフォルトの名無しさん
17/06/27 01:06:22.68 5fkiI7k4.net
>>972 おっと誤字スマソ
×線形台数
○線形代数
いや別に
「~法は…だけ」とか思っていてもらっても、
オレは全然かまわないよ
994:デフォルトの名無しさん
17/06/27 01:10:23.98 S1DxdjT9.net
ついでに次スレ立ててきた
【統計分析】機械学習・データマイニング16
スレリンク(tech板)
テンプレはこれから書くhage
995:デフォルトの名無しさん
17/06/27 08:13:39.00 y9jWtNan.net
ソニーのやつすげーな
これは世界制覇できそう
996:デフォルトの名無しさん
17/06/27 08:33:20.97 zmiaRbVX.net
chainerなら既に世界制覇したがな
997:デフォルトの名無しさん
17/06/27 09:39:13.37 oKXF51Qc.net
>>965
めっちゃ適当だけど例えば
年齢、性別、国籍、宗教の4パラを入力として
身長と体重を予測したいとする時
身長と体重をそれぞれ別に重回帰分析してもいいんだけど
恐らく身長と体重に何らかの相関がありそうなので分離したくないなあ、と
そもそもこういう場合って普通に入力ノード4出力ノード2のNNに突っ込んで学習してもいい結果は得られないものなの?
998:デフォルトの名無しさん
17/06/27 10:35:24.43 dlGn5PaP.net
この分野進歩が早すぎて三年前の情報とか無価値になってたりする
999:デフォルトの名無しさん
17/06/27 11:19:54.98 2gw8gZhT.net
ソニーのPython2.7のみ対応でワロタ
クソゴミじゃねーか
1000:デフォルトの名無しさん
17/06/27 12:22:39.17 zmiaRbVX.net
ソニーのなんか誰が使うねん
1001:デフォルトの名無しさん
17/06/27 12:23:46.96 w7mU/X4Q.net
これで3.6対応で日本語ドキュメントあれば日本人は使ったと思うよ
2.7のみ英語のみだから誰も使わなそう
1002:デフォルトの名無しさん
17/06/27 12:26:45.46 2sX4cNxi.net
さすがに使わねぇよ、バカバカしい
1003:デフォルトの名無しさん
17/06/27 12:28:21.12 2sX4cNxi.net
chainer も pytorch に瞬殺されててワロタ
URLリンク(trends.google.co.jp)
1004:デフォルトの名無しさん
17/06/27 12:32:39.42 WxBQCClt.net
グーグルや facebookの実績が桁違いだから仕方がない
>>984
pytorchってまだベータなのにw
1005:デフォルトの名無しさん
17/06/27 13:49:03.43 a0rXMxxb.net
顔写真と似てる有名人を探すって言う
MSのcelebslike.me試してみたけど
サンプル画像すらあんまり似てない人ばかり選ばれるんだけど何で?
1006:デフォルトの名無しさん
17/06/27 14:52:22.33 FlR8TDh2.net
>>984
データを読めない奴発見
URLリンク(trends.google.co.jp)
1007:デフォルトの名無しさん
17/06/27 15:11:20.00 zmiaRbVX.net
>>987
かなり痛々しいな…
1008:デフォルトの名無しさん
17/06/27 15:14:09.49 L6Ojf6ZX.net
>>987
過去一年間の勾配だと惨敗してるじゃん。今後明らかに差をつけられるんじゃね?
1009:デフォルトの名無しさん
17/06/27 15:18:17.15 iPtNVYIJ.net
>>987
読めないのはあんただろ
トレンド予測だと抜き去られてるし、30日間で見ても負けている
1010:デフォルトの名無しさん
17/06/27 15:19:23.30 2sX4cNxi.net
>>987
現実見ろよ池沼 www
1011:デフォルトの名無しさん
17/06/27 15:21:38.46 2sX4cNxi.net
現実見れないなら、tensorflow とも比較してやるよ w
URLリンク(trends.google.co.jp)
1012:デフォルトの名無しさん
17/06/27 16:06:12.52 oKXF51Qc.net
誰か・・・>>978が分かる人、お頼みもうす
1013:デフォルトの名無しさん
17/06/27 16:46:16.17 UG1947Jf.net
chainerは純国産の技術なんだから少しは応援してやれよ…
1014:デフォルトの名無しさん
17/06/27 16:51:36.88 IbITrdTq.net
お前が寄付すれば
1015:デフォルトの名無しさん
17/06/27 18:38:09.65 LTFsjaCP.net
俺と俺の頭に寄付してくれよ…
1016:デフォルトの名無しさん
17/06/27 18:40:01.75 5NUjqPYf.net
URLリンク(www.oreilly.co.jp)
この本紹介してくれたひとありがとう
1017:デフォルトの名無しさん
17/06/27 19:32:46.87 FlR8TDh2.net
>>993
たぶんNNにいれても過学習になるだけかと
1018:デフォルトの名無しさん
17/06/27 20:07:07.33 0BylFmdx.net
>>996
つ 豆腐
1019:デフォルトの名無しさん
17/06/27 20:16:17.46 XvyWKqyl.net
>>996
ヅラは自前で買え
1020:デフォルトの名無しさん
17/06/27 20:39:05.04 LTFsjaCP.net
>>999-1000
俺の優秀な頭脳に寄付してくれよって意味なのになんで俺が禿げてる前提になってんの証拠あんのか
埋め
1021:デフォルトの名無しさん
17/06/27 20:57:06.92 UG1947Jf.net
>>1001
chainer作ったの?
1022:デフォルトの名無しさん
17/06/27 22:46:41.75 PEMNvDJF.net
1000な
1023:1001
Over 1000 Thread.net
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。
life time: 72日 1時間 43分 5秒
1024:過去ログ ★
[過去ログ]
■ このスレッドは過去ログ倉庫に格納されています