17/03/14 14:07:58.27 vKLzN6vV.net
>>921
pythonと、茶釜でできるれべる。
小一時間で、組めちゃう。
AIつかってない。
939:917
17/03/14 14:08:38.93 vKLzN6vV.net
そのくらいのレベル。
940:デフォルトの名無しさん
17/03/14 14:43:35.29 2WmCHvK3.net
やっぱそうだよな……
941:デフォルトの名無しさん
17/03/14 14:51:33.40 nuFO2yR5.net
よし俺が、専業で高給もらってやってるようなデータマイニングの作業を、学生アルバイトでもオペレーション出来る程度にする支援AIつくってやんよ 震えて待て
942:デフォルトの名無しさん
17/03/14 14:58:02.83 yFH00DEc.net
>>926
既に腐るほどあるわ
さすがにDLはそういうの向いてないからないけど
943:デフォルトの名無しさん
17/03/14 15:05:10.33 ZGNg30PT.net
>>926
臍が震えてる
944:デフォルトの名無しさん
17/03/14 15:18:23.46 ZGNg30PT.net
PRMLを1.2節まで読んだ。ふー。
945:デフォルトの名無しさん
17/03/14 16:00:38.71 vbV/Jpv3.net
>>921 >>923
ほんそれ
どこがAIだよって突っ込んだ
NHKはフェイクばっかり
946:デフォルトの名無しさん
17/03/14 16:35:55.58 nOK9Vuur.net
NHKといえばこの回帰直線
URLリンク(togetter.com)
947:デフォルトの名無しさん
17/03/14 16:39:59.01 ByBQbjDY.net
UST10yr利回り2.623%
948:デフォルトの名無しさん
17/03/14 18:00:06.73 vydhewJH.net
がんばるぜ
949:デフォルトの名無しさん
17/03/14 18:03:31.52 TKsX522Q.net
がんばれよ
950:デフォルトの名無しさん
17/03/14 19:18:21.99 YDlkPHlr.net
>>931
怪奇直線わろた
951:デフォルトの名無しさん
17/03/14 19:21:11.66 yMx05uaA.net
ウルトラQ
952:デフォルトの名無しさん
17/03/14 22:17:27.48 5YBEZvVg.net
ブームもそろそろ終わりかな
みんな飽きてきたろw
953:デフォルトの名無しさん
17/03/14 23:38:56.98 rU4aNWa3.net
防犯カメラの解析、自動車の運転支援、画像の分類といった実用的なのは生き残りそうだけどね。
954:デフォルトの名無しさん
17/03/15 00:05:32.20 H0oy71ZG.net
犯罪の予知だな、きりぃ
955:デフォルトの名無しさん
17/03/15 01:01:40.27 z+PvFklN.net
ディープラーニング以外は無駄だろ
956:デフォルトの名無しさん
17/03/15 07:34:02.20 xbnVT4mx.net
>>940
顔認識とかではディープラーニングじゃない方法を使ってるらしいけど
957:デフォルトの名無しさん
17/03/15 07:41:58.72 sovBr57c.net
DLはSVMの上位互換だから
これからSVMを勉強する必要は無い
という人がいるのだがそうなのが?
958:デフォルトの名無しさん
17/03/15 07:54:35.89 agUjb0Nj.net
ちがう
959:デフォルトの名無しさん
17/03/15 08:18:41.60 ZrSEU5Nr.net
>>942
ここで質問するより検索したほうがいいよ
deep learning svm comparison
とかで
960:デフォルトの名無しさん
17/03/15 09:57:19.03 hRu8oYsz.net
大学研究でデータ整理と数値計算のためにプログラム組むレベルなんだけど、人工知能ってどうな�
961:チてんの? 条件文を複雑に重ねてる感じ?
962:デフォルトの名無しさん
17/03/15 10:23:38.78 +1PS92H0.net
今日のAIは買い
インテル、自動運転を強化…モービルアイ買収へ
963:デフォルトの名無しさん
17/03/15 10:45:56.91 qyZe/tF+.net
SVMでもどっちでもいいけど、ディープだったらサンプルサイズは少なくとも5000は欲しいけど大丈夫?
964:デフォルトの名無しさん
17/03/15 10:46:39.69 qyZe/tF+.net
>>945
それ1980年とかの知識ベース系の話な
965:デフォルトの名無しさん
17/03/15 12:19:17.14 0iMjLk/g.net
>>945
それじゃ無理だということが分かって一昔前のAIブームが終わった
966:デフォルトの名無しさん
17/03/15 12:24:18.10 D4lD2LgX.net
こないだからずっと思ってたんだけど
ディープラーニングをディープて略されるのは
Mr.Childrenをミスターて略してるみたいに気持ち悪い
967:デフォルトの名無しさん
17/03/15 12:27:13.70 6UZSGeP0.net
じゃあディーラーって略すはw
968:デフォルトの名無しさん
17/03/15 12:31:24.51 D4lD2LgX.net
SVMて言ってるんだしDLでいいんでないの?
なんかダウンロードみたいだが
そもそもダウンロードをDLて略すのが間違ってると思うし
969:デフォルトの名無しさん
17/03/15 12:48:29.00 sBpGkGRF.net
>>950
そんなのいるのかよ(笑)
970:デフォルトの名無しさん
17/03/15 12:56:48.01 EEFqQF0a.net
略すな
辞書登録しろ
971:デフォルトの名無しさん
17/03/15 13:01:29.50 7YWEdixI.net
機械学習で造ったような関西弁
972:デフォルトの名無しさん
17/03/15 13:17:05.94 jOmRonVF.net
ML
973:デフォルトの名無しさん
17/03/15 13:18:17.03 MeFnWNe/.net
カーネルとディープ組み合わせて結果出してるやついる?
カーネル関数はガウスじゃなくてもっと軽いやつ選びたいんだけど基底関数からじゃないかな?
974:デフォルトの名無しさん
17/03/15 13:19:32.78 MeFnWNe/.net
最後訂正
基底関数の中からじゃあ都合のいいやつないかな?
975:デフォルトの名無しさん
17/03/15 13:32:36.17 jOmRonVF.net
KSB
976:デフォルトの名無しさん
17/03/15 14:31:13.76 KVIdBQgW.net
>>949
今はどんなイメージなん?
977:デフォルトの名無しさん
17/03/15 14:53:57.42 nVuVQrDL.net
いまはエキスパートシステムと呼ばれるものの研究が主流だよ(一度廃れてディープラーニングとして復活した
べんきょうがんばってね
978:デフォルトの名無しさん
17/03/15 15:19:34.46 jOmRonVF.net
IMF
979:デフォルトの名無しさん
17/03/15 15:27:25.96 NuNTQfyE.net
FRB
980:デフォルトの名無しさん
17/03/15 15:37:36.68 KVIdBQgW.net
>>961
分野じゃないけど興味あったんで頭だけ見てみます
981:デフォルトの名無しさん
17/03/15 17:04:25.20 krqrFtb8.net
Elastic Weight Consolidation(EWC)ってより上位の階層のためのLSTMみたいなこと??
982:デフォルトの名無しさん
17/03/15 17:19:02.23 Qr/xhsJt.net
>>960
最初凝り固まったデータ群という粘土を捏ね繰り回して広げるイメージ
上手く特徴別に別れるように広げることができれば分類が出来るし
粘土を継ぎ足して行けば少ないデータから大きな表現を出せたりもする
983:デフォルトの名無しさん
17/03/15 17:44:36.57 MfwcRQoI.net
PRML MAP推定が出てきたがはしょり感がはんぱでない
984:デフォルトの名無しさん
17/03/15 18:45:55.80 MeFnWNe/.net
>>957に誰か答えてよ
985:デフォルトの名無しさん
17/03/15 20:03:05.54 LU+w+iAT.net
ゲームプレイを学習しながらスキルを向上させる「DQN」やプロの囲碁棋士を打ち破る「AlphaGo」などの開発で知られる
GoogleのAI開発部門のDeepMindが、従来のニューラルネットワークが抱える欠点を解消するために、
データを記憶することで連続的に学習できるアルゴリズム「Elastic Weight Consolidation」を開発しました。
Overcoming catastrophic forgetting in neural networks
URLリンク(www.pnas.org)
Enabling Continual Learning in Neural Networks | DeepMind
URLリンク(deepmind.com)
ディープラーニングは言語の翻訳、画像分類、画像生成などさまざまなタスクを処理するための最も成功した機械学習技術として知られています。
しかし、ディープニューラルネットワークでは、大量のデータが一度に入力される場合にのみタスクを処理できるように設計されており、
ネットワークが特定のタスクを処理するときに、各種パラメーターは、そのタスクのために最適化されます。
このため、新しいタスクが導入されると、ニューラルネットワークがそれまでに獲得した知識は上書きされるという特徴があり、
これは「catastrophic forgetting(破滅的忘却、致命的な忘却)」と呼ばれ、ニューラルネットワークの限界の一つと考えられています。
ニューラルネットワークの構造上の限界に対して、人間の脳は段階的に学び、スキルを一つずつ身につけ、
新しい課題の解決のためにそれまでの知識を応用することができるという特長があります。
このような「過去のスキルを記憶して新しい課題の解決に応用できる」という人間やほ乳類が持つ学習の特長からインスピレーションを得たDeepMindは、
課題解決を記憶して後の課題解決に応用できるニューラルネットワークのアルゴリズム「Elastic Weight Consolidation(EWC)」を開発しました。
986:デフォルトの名無しさん
17/03/15 20:03:24.88 LU+w+iAT.net
EWCでは、タスクを解決するたびに、そのデータがどれくらい重要なのかをスコア化します。
そして、その重要度を示すスコアに比例して記憶が上書きから保護される仕組みが採用されています。
つまり、重要でないデータはこれまでのニューラルネットワークと同じように上書きすることで消去されますが、
重要なタスクではデータが保護されるため、以前、学習した内容を上書きしたり、大きな計算コストをあらためて割くことなく、
新しいタスクを学習できるとのこと。
DeepMindはEWCの有効性をテストするために、Atariのゲームを使って実験しています。
個々のゲームをスコアだけから学習することはそれ自体が難しい作業ですが、複数のゲームを連続して学習することは、
各ゲームごとに個別の戦略が求められるため、さらに難度は上がります。
EWCを使わない通常のニューラルネットワークでは、青色のグラフのように、一つのゲームが終わると致命的な忘却によって
データが上書きされスコアが上昇しないのに対して、EWCを有効化すると、簡単に忘れることなく、
次々とゲームが変わる中でも学習することができたとDeepMindは述べています。
URLリンク(i.gzn.jp) (グラフ)
現在のコンピューターはデータに応じた対応ができずリアルタイムで学習することはできませんが、
DeepMindによると今回の研究によって、ニューラルネットワークにおける致命的な忘却は回避できることが示されたとのこと。
この研究は、より柔軟に効率的に学習できるプログラム開発への第一歩を踏み出したことを象徴するものだとDeepMindは述べています。
URLリンク(gigazine.net)
987:デフォルトの名無しさん
17/03/15 20:48:18.21 jozrvDfJ.net
俺の人工知能
P(スパム投稿) = 1/(1+exp(-1*(-2+0.01*文字数)))
988:デフォルトの名無しさん
17/03/15 20:54:50.11 sovBr57c.net
はぇ
989:デフォルトの名無しさん
17/03/15 20:58:04.67 YWbWpAvC.net
titanxや1080tiで使えるらしいint8処理(new deep learning inferencing instruction)
って何か特別な命令や処理とか必要なのかね?
ググってもイマイチそれっぽい記事が見当たらない…
990:デフォルトの名無しさん
17/03/15 21:07:55.70 FmdlRk34.net
俺に1080tiくれたら教えてやる
991:デフォルトの名無しさん
17/03/15 21:12:08.99 XYUUle5Y.net
tfってgpuのメモリ溢れたらcpuからメモリ持ってくるように進化した?
992:デフォルトの名無しさん
17/03/15 21:51:03.63 jsXrAsHW.net
>>969-970
強調したい所を引用するならまだわかるが全文コピペは無意味だ。
重要な所を選べないならスレに書くのはタイトルとURLだけにしてくれ。
993:デフォルトの名無しさん
17/03/16 00:29:32.18 Ndm+AfAz.net
>>976
てめーが理解できないから無意味だ!
ということかw
994:デフォルトの名無しさん
17/03/16 01:19:38.87 sxYttCSG.net
ニューラルネットは巨大状態遷移図と等価である
大規模な場合でもそれで合ってます?
995:デフォルトの名無しさん
17/03/16 02:02:12.88 0YSV2r0V.net
>>970
chainerがパクってドヤ顔するんですね、わかります
996:デフォルトの名無しさん
17/03/16 02:12:12.19 V6xVvM1N.net
>>978
そりゃあ状態が遷移してるからそうとも言える
意味のない問だよ
997:デフォルトの名無しさん
17/03/16 04:32:29.31 MbhwpNFo.net
経済産業省、文部科学省などの官僚が国産という理由でChainer薦めて、日本の大学教授や大企業は国からの研究開発費、助成金の上積み狙い官僚の顔色を見ながらChainer使ってるんだろ?
Chainerって自動運転の研究と2次元の着色以外にどんな使われ方してる?
998:デフォルトの名無しさん
17/03/16 05:52:15.50 shl9YE6i.net
chainerで意識高い系を演出してる人ならqiitaで良く見かけるが
999:デフォルトの名無しさん
17/03/16 05:55:15.41 shl9YE6i.net
まぁchainer2.0に付き合う人は殆どいないだろ。
1000:デフォルトの名無しさん
17/03/16 06:09:58.04 Lpqc6nXV.net
>>978
チューリングマシンと等価であると言ってるのと同じことじゃないか?
1001:デフォルトの名無しさん
17/03/16 07:55:38.67 QkaCOTFE.net
PyTorchはChainerのパクリ偽造品。
コードを見比べたら誰でもわかる。
だれでもこれはミッキーマウスだとわかるようなの偽造ぶり。
1002:デフォルトの名無しさん
17/03/16 08:02:37.15 UnEyOCfT.net
>>985
そっくりな箇所のリンクを添えてGitHub issueを作ってみては?
1003:デフォルトの名無しさん
17/03/16 08:14:54.43 QkaCOTFE.net
偽造はちょっと言い過ぎたなと思い撤回する。
でもかなりインスパイアされていると思う。
1004:デフォルトの名無しさん
17/03/16 09:12:25.17 SfHiSEQl.net
データ
1005:デフォルトの名無しさん
17/03/16 09:18:33.78 kqX9kEKY.net
DT
1006:デフォルトの名無しさん
17/03/16 10:52:36.77 4aCZz2ad.net
勢い1位で草
ええのんか?
1007:デフォルトの名無しさん
17/03/16 11:31:43.29 jTHmyS9R.net
UME
1008:デフォルトの名無しさん
17/03/16 11:32:24.63 jTHmyS9R.net
UME
1009:デフォルトの名無しさん
17/03/16 11:33:50.69 jTHmyS9R.net
UME
1010:デフォルトの名無しさん
17/03/16 11:44:45.83 jqJvz2f2.net
次スレ立ててから埋めれ
1011:デフォルトの名無しさん
17/03/16 12:27:42.14 UcvFBRs7.net
ディープラーニングに出遅れた機械学習エンジニアと、Chainerでディープラーニングやってる奴がバカにされるスレ
1012:デフォルトの名無しさん
17/03/16 12:34:37.90 SfHiSEQl.net
うめ
1013:デフォルトの名無しさん
17/03/16 12:57:58.49 T5KkGpk5.net
スレ立てできなかった
1014:デフォルトの名無しさん
17/03/16 12:58:38.52 K72oCVCx.net
【統計分析】機械学習・データマイニング14
スレリンク(tech板)
1015:デフォルトの名無しさん
17/03/16 13:44:32.14 SfHiSEQl.net
これで
1016:デフォルトの名無しさん
17/03/16 13:45:19.04 SfHiSEQl.net
えんど
1017:過去ログ ★
[過去ログ]
■ このスレッドは過去ログ倉庫に格納されています