【統計分析】機械学習・データマイニング12at TECH
【統計分析】機械学習・データマイニング12 - 暇つぶし2ch2:デフォルトの名無しさん
17/01/21 23:27:22.65 nFM+9kDb.net
■過去スレ
【統計分析】機械学習・データマイニング【集合知】
スレリンク(tech板)
[統計分析]機械学習・データマイニング[集合知] 2
スレリンク(tech板)
【統計分析】機械学習・データマイニング3
スレリンク(tech板)
【統計分析】機械学習・データマイニング4
スレリンク(tech板)
【統計分析】機械学習・データマイニング5
スレリンク(tech板)
【統計分析】機械学習・データマイニング6
スレリンク(tech板)
【統計分析】機械学習・データマイニング7
スレリンク(tech板)
【統計分析】機械学習・データマイニング8
スレリンク(tech板)
【統計分析】機械学習・データマイニング9
スレリンク(tech板)
【統計分析】機械学習・データマイニング10
スレリンク(tech板)
【統計分析】機械学習・データマイニング11
スレリンク(tech板)

3:デフォルトの名無しさん
17/01/21 23:27:54.13 nFM+9kDb.net
■関連スレ
人工知能・機械学習のスレッド@数学板
スレリンク(math板)
パーセプトロン
スレリンク(informatics板)
人工知能ディープラーニング機械学習のための数学
スレリンク(tech板)
Deep learning
スレリンク(tech板)
ディープラーニング
スレリンク(tech板)
自然言語処理スレッド その4
スレリンク(tech板)
■人工知能考察スレ
(強いAI)技術的特異点/シンギュラリティ(知能増幅) 55
スレリンク(future板)
(AI)技術的特異点と政治・経済・社会等(BI) 9
スレリンク(future板)
(情報科学)技術的特異点と科学・技術等 1
スレリンク(future板)
人工知能
スレリンク(future板)
人工知能で自我・魂が作れるか
スレリンク(future板)
こころがあるロボットは作れるのか
スレリンク(robot板)

4:デフォルトの名無しさん
17/01/21 23:31:39.01 /qDbjX4N.net
いちもつ

5:デフォルトの名無しさん
17/01/22 01:14:50.72 Tpb271yH.net
>>1

6:デフォルトの名無しさん
17/01/22 06:39:18.21 RWAmR0t+.net
ニューラルネットワークで、入力Xa, Xbに対し、出力Xa/Xbを得たいんだけど・・・・これって何層あっても無理なん?

7:デフォルトの名無しさん
17/01/22 11:35:08.72 8WOfjBij.net
>>6
何がしたいのか意味分からん。

8:デフォルトの名無しさん
17/01/22 13:00:41.70 Av1vqeX7.net
わり算

9:デフォルトの名無しさん
17/01/22 14:40:04.03 hBhrTyQG.net
URLリンク(chrome.google.com)

10:デフォルトの名無しさん
17/01/22 15:47:19.22 rHRUxYGG.net
数学もできないゴミどもが頑張ってもたいしたことできないからさっさとあきらめた方がいい

11:デフォルトの名無しさん
17/01/22 16:42:41.46 RWAmR0t+.net
まあ出来るわけないんだろうけど、事前処理以外になんかいいごまかし方ってあるんかな?

12:デフォルトの名無しさん
17/01/22 17:06:49.02 PWHne4Ld.net
すまん、何がしたいのかわからない

13:デフォルトの名無しさん
17/01/22 17:15:37.92 Av1vqeX7.net
ガチで>>6が何したいのか分からない
ただのわり算??

14:デフォルトの名無しさん
17/01/22 17:26:27.84 eFGGwS3n.net
無能おじさんがまだいるのか
さっさと会社やめればいいのに

15:デフォルトの名無しさん
17/01/22 17:26:33.93 RWAmR0t+.net
そうそうタダの割り算だよ、まあ掛け算でも同じことになるんだろうけど
タダの掛け算・割り算をニューラルネットワークでやるのに、なんかいい方法ないかな?

16:デフォルトの名無しさん
17/01/22 17:34:37.87 JsbOZuSN.net
>>15
すまん、教えて。
何でニューラルネットワークを使うのか。

17:デフォルトの名無しさん
17/01/22 17:38:14.03 mfHdVUwH.net
backpropで学習するために割り算もまたニューラルネットで表現しないといけない、みたいなこと考えてる?

18:デフォルトの名無しさん
17/01/22 17:58:46.92 RWAmR0t+.net
>>17
いやそんなことはないよ
ただ事前に掛け算割り算が必要だと分かってればいいけど、人間が分かってないことも多いだろうからね
ニューラルネットワーク内で処理できたらそれに越したことはないじゃない

19:デフォルトの名無しさん
17/01/22 18:09:28.78 Av1vqeX7.net
>>18
計算コストの掛かる除算の処理そのものに、NNを使おうとしてる?
それとも除算処理を回避しようとしてる?

20:デフォルトの名無しさん
17/01/22 18:57:10.80 HEBNePx7.net
最大値で割って正規化してから学習させたらいけそうだけど

21:デフォルトの名無しさん
17/01/22 19:07:36.55 RWAmR0t+.net
>>19
前者だけど、すまんが後者の意味はよくわからないな

22:デフォルトの名無しさん
17/01/22 19:14:31.65 nc+R1v+H.net
NN中で除算が何回も発生してる時点でやる意味が分からない

23:デフォルトの名無しさん
17/01/22 19:28:34.31 /9tq73Mk.net
アホだからしょうがない

24:デフォルトの名無しさん
17/01/22 19:38:21.20 KRq782+q.net
加減乗除しかしてないのに

25:デフォルトの名無しさん
17/01/22 19:47:37.06 Ois2wUpA.net
>>15
出来たぞ
乱数で作った10個だけどな

26:デフォルトの名無しさん
17/01/22 20:00:06.11 aOvI5PKj.net
いやそりゃできるだろ… 意味があるかは別にして

27:デフォルトの名無しさん
17/01/22 20:04:44.73 0BXX/KGV.net
ネタなのかほんまもんのアホなのか分からん

28:デフォルトの名無しさん
17/01/22 20:05:14.45 Ois2wUpA.net
>>26
一般化は難しい気もするけどな
つまり割り算の概念みたいなのを学習するのは

29:デフォルトの名無しさん
17/01/22 20:08:52.06 dPHV2Nvz.net
割り算の概念を獲得することと、割り算が正確にできることに何か違いがあるのかね

30:デフォルトの名無しさん
17/01/22 20:09:11.46 fhSKILJz.net
>>21
後者は直接的な除算はしてないけど、数字の組み合わせとかを覚えさせて結果だけ出力させるみたいな方法があるかと思って上げた。

何故わざわざNNでやろうとしてる?
除算の時間短縮化?

31:デフォルトの名無しさん
17/01/22 20:11:32.90 Ois2wUpA.net
>>29
違うと思うけどな

32:デフォルトの名無しさん
17/01/22 20:13:40.06 fhSKILJz.net
>>14
またあんたか。
数学についてはあなた無能でしょ?

33:デフォルトの名無しさん
17/01/22 20:55:49.39 eFGGwS3n.net
会社で無視されてて役に立たない人は帰ってどうぞ

34:デフォルトの名無しさん
17/01/22 21:22:46.73 KSgRM1pG.net
>>15
ニューラルネットワークは普遍性定理によって任意の関数を表現できる
URLリンク(www.dartmouth.edu)
割り算の演算は思いつく方法として
1)2つの任意の数字をN桁の2進数の数字に置き換える(手動でNNを設定できる)
2)2進数における割り算の論理回路は存在するのでそれを元にNNに置き換える(凄く面倒くさい)
3)2進数で演算できたら10進数に置き換えるNNに代入して出力(これも手動でNNを設定できる)
かなり面倒だが手動で変数を設定して 1)→2)→3)とデータを流せば演算ができるが
変数が未設定のNNに対して誤差逆伝播法などを使って学習させたら
正確な変数を設定できるかどうかは分からん

35:デフォルトの名無しさん
17/01/22 21:24:04.47 RWAmR0t+.net
>>30
なるほど、その後者の方は流石に勘弁してほしいな
NNでやりたいのは、複雑なモデルを自分で考えるには限界があるだろうからで、除算が必要な場所には除算相当の機能を勝手に追加してくれたら便利だなと思ったのさ

36:デフォルトの名無しさん
17/01/22 21:31:53.09 /9tq73Mk.net
アホだな

37:デフォルトの名無しさん
17/01/22 21:34:19.42 /9tq73Mk.net
割り算が「複雑な演算」w

38:デフォルトの名無しさん
17/01/22 21:49:29.13 JayCli5D.net
せめてニューラルネットワークぐらい勉強して。

39:デフォルトの名無しさん
17/01/22 23:57:24.67 2nGClj4f.net
>>15 掛け算だけど極限操作を許容すればドンピシャで一発回答
Why does deep and cheap learning work so well?
URLリンク(arxiv.org)
p.4 Continuous input variables
ここでの記号でXa * Xbの例がイラスト付きで例に挙げられてる
論文中の記号でシグマと書いている関数を原点近傍でテイラー展開しているので
割り算にはそのままでは適用できないけど手がかりが掴めればと思う
論文の著者が直接くおーらで回答しているのは以前リンクを貼っといた

40:デフォルトの名無しさん
17/01/23 00:00:50.84 7ctOkYNZ.net
このスレで数学の話題はNG

41:デフォルトの名無しさん
17/01/23 00:01:59.89 K6jGUSR0.net
んなわけないし

42:デフォルトの名無しさん
17/01/23 00:07:12.19 pfMUDq/X.net
自称理論屋を呼び込むなということだろ、


43:もっとも無能社畜の憂さ晴らしだったのがバレたけど



44:デフォルトの名無しさん
17/01/23 00:20:50.57 Wm0VvywF.net
>>42
何言ってんの?
君はカルマンフィルタの実装化でもやってなさい。
すでにこっちはやったけどな。。

45:デフォルトの名無しさん
17/01/23 01:45:38.53 rEMAbNPj.net
>>39
うーん分からん
とりま英語の論文は貼るなや

46:デフォルトの名無しさん
17/01/23 01:46:45.95 7PIuB2+7.net
無能集団

47:デフォルトの名無しさん
17/01/23 05:01:16.79 HmW376R/.net
intで小数の割り算できない

48:デフォルトの名無しさん
17/01/23 15:14:23.38 IC/rKxoI.net
>>39
ありがとう!
時間かけて読んでくるよ

49:デフォルトの名無しさん
17/01/23 17:51:55.43 86G+eoCI.net
以下のコードを実行しましたが、
Irisのデータが取得できません。
なぜでしょうか?
Raschkaの本に載っているコードです。
import pandas as pd
df = pd.read_csv('URLリンク(archive.ics.uci.edu)', header=None)
df.tail()

50:デフォルトの名無しさん
17/01/23 18:12:01.06 iz5/M2l3.net
掛け算ができたら0.5掛ければ2で割るのと同じ結果を得られるんじゃね
Fig2に書いてある重みにしたらuvの積になるとかそんな感じだと思うが

51:デフォルトの名無しさん
17/01/23 18:15:36.97 iz5/M2l3.net
>>48
そのURLにブラウザでアクセスしたらダウンロード出来るの?

52:デフォルトの名無しさん
17/01/23 18:20:18.40 iz5/M2l3.net
>>48
ダウンロード出来た
てことはpandasをインストールしてないとかじゃね?

53:デフォルトの名無しさん
17/01/23 18:20:53.58 86G+eoCI.net
>>50
ありがとうございます。
ブラウザでアクセスすると csv ファイルのページが表示されます。
そして、それをダウンロードして、
df = pd.read_csv('iris.data', header=None)
とやるとちゃんと読み込めています。

54:デフォルトの名無しさん
17/01/23 18:22:48.96 86G+eoCI.net
書き忘れましたが、データを取得できないだけでなく、
Python自体が動作を停止します。

55:デフォルトの名無しさん
17/01/23 18:25:44.01 iz5/M2l3.net
>>53
エラーがでたりしてないの?
取り敢えず読み込めてるならいいんじゃね?

56:デフォルトの名無しさん
17/01/23 18:35:53.31 86G+eoCI.net
>>54
PythonによってデータをダウンロードしようとするとPythonの動作が停止してしまいます。
ブラウザを使ってデータをパソコンに保存して、それをPythonで >>52 のように読み込むと
ちゃんと読み込めます。
確かに、一応読み込めるのでとりあえずこのまま進むことにします。
ありがとうございました。

57:デフォルトの名無しさん
17/01/23 20:05:09.47 wXTkzaHc.net
Python自体が動作を停止します。 キリッ
wwwww

58:デフォルトの名無しさん
17/01/23 22:04:45.67 86G+eoCI.net
Raschkaの本を持っている人に質問です。
第2章の plot_decision_regions 関数で、
Z = classifier.predict(np.array([xx1.ravel(), xx2.ravel()]).T)
の辺りの処理は何をやっているのでしょうか?
意味が分かりません。

59:デフォルトの名無しさん
17/01/23 22:07:39.69 86G+eoCI.net
なんとなくは分かります。
おそらく直線で分けられた二つの領域を分けるためのような気はします。

60:デフォルトの名無しさん
17/01/23 22:21:49.25 Z+1qxvba.net
>>48-55
よく知らないけど、https は読み込めないとか?

61:デフォルトの名無しさん
17/01/23 22:39:53.25 86G+eoCI.net
>>59
なるほど。
でもRaschkaの本に書かれている通りなんです。
Raschkaが確かめもせずに書いたとも思えないですし。

62:デフォルトの名無しさん
17/01/23 22:41:16.47 86G+eoCI.net
Raschkaの本を持っている人に質問です。
第2章のパーセプトロンの学習アルゴリズムについてですが、
データに値が�


63:奄フデータが含まれている場合に重みの更新 方法がまずいように思いますが、どうでしょうか?



64:デフォルトの名無しさん
17/01/23 23:00:46.31 z8oniFRp.net
>>59
その本結構実装自体が間違っているから読んでも無駄
エッセンスだけ理解して自分で実装できないならやめた方がいい

65:デフォルトの名無しさん
17/01/23 23:17:28.77 /TRygv0x.net
ここでCMです
>>47 掛け算を数値計算と比較をした記事があったのを思い出した
Notes for "Why does deep and cheap learning work so well?" - GitHub
URLリンク(gist.github.com)
コードの方がわかりやすければこっちを先に読んだ方が良いかも

66:デフォルトの名無しさん
17/01/23 23:21:32.26 bmNiILIc.net
pandas 0.19.2のAPIReferenceではhttpsは含まれてないですね。
pandas.read_csv
The string could be a URL. Valid URL schemes include http, ftp, s3,
and file. For file URLs, a host is expected.
For instance, a local file could be file ://localhost/path/to/table.csv
URLリンク(pandas.pydata.org)

67:デフォルトの名無しさん
17/01/23 23:50:24.06 K6jGUSR0.net
紹介したいのだろうが、こんなん読む気がしない

68:デフォルトの名無しさん
17/01/24 01:18:54.35 hGsJD1f0.net
こういう情報提供の方がありがたいんだよなぁ…

69:デフォルトの名無しさん
17/01/24 02:32:21.44 sXvuiz35.net
そんなわけない自演おつ

70:デフォルトの名無しさん
17/01/24 07:58:42.29 FtPVVoGA.net
>>39
その論文と割り算に関係ないよね?

71:デフォルトの名無しさん
17/01/24 08:13:42.45 HkcW5uJV.net
>>39
>>63
いろんな論文を読んで勉強することはいいことだけど
ややこしい論文を読むと言う話では無くて、割り算をテイラーなど
何かの級数展開して積の数列にすればいいと助言するだけの話では?

72:デフォルトの名無しさん
17/01/24 09:00:15.43 bq02PTg/.net
アホの考え休むに似たり、相手すると損w

73:デフォルトの名無しさん
17/01/24 10:40:02.23 eMM39ka1.net
びっくりするよな、割り算てw
機械学習が解こうとする課題と、人工的で低レベル演算をあたかも同じカテゴリにあるかの如く認識してるとか

74:デフォルトの名無しさん
17/01/24 10:43:26.23 SBcKkTsW.net
だって同じじゃん

75:デフォルトの名無しさん
17/01/24 10:54:16.64 eNQkhgOl.net
(x1, y1, 1), (x2, y2, 1), …, (xi, yi, 1), …, (xn, yn, 1)
(u1, v1, -1), (u2, v2, -1), …, (ui, vi, -1), …, (um, vm, 1)
というデータが与えられているとする。
未来に与えられるデータ
(a1, b1, l1), (a2, b2, l2), …, (ai, bi, li), …
の li が 1 なのか -1 なのか予測したい。
この問題を機械学習で解決するのに、なぜ、α, β, γを適当に決めて、
α*ai + β*bi + γ > 0 ならば li = 1
α*ai + β*bi + γ < 0 ならば li = -1
と予測するというような方法をとることがあるのでしょうか?

xi, yi, ui, vi の分布が正規分布だと仮定して、
(x = ai のときの確率密度関数の値) * (y = bi のときの確率密度関数の値)

(u = ai のときの確率密度関数の値) * (v = bi のときの確率密度関数の値)
の大小を比較して、大きいほうのグループに属すると判定するというような
方法を誰でも最初に思いつくのではないかと思うのですが。

76:デフォルトの名無しさん
17/01/24 11:49:24.19 tlnOjDnm.net
>>73
分類が出来るから。
というか、変数全部正規分布する仮定置くのよキツいし、その方法でやる意味が分からん

77:デフォルトの名無しさん
17/01/24 11:50:12.83 ghuVG84o.net
どうしてそんなにつまらない例題ばかりを持ち出すんだろう

78:デフォルトの名無しさん
17/01/24 12:07:38.48 Z0M3CIeb.net
宿題か何かだろw

79:デフォルトの名無しさん
17/01/24 12:08:30.53 eNQkhgOl.net
なぜ直線で平面を分割するのですか?
不自然だと思います。

80:デフォルトの名無しさん
17/01/24 12:16:11.99 tlnOjDnm.net
>>77
カーネル関数使えば非線形分離出来るから

81:デフォルトの名無しさん
17/01/24 12:16:30.16 v/e9hwv7.net
二つの正規分布の分散が同じなら境界は直線になる。たしかに不自然な仮定だな

82:デフォルトの名無しさん
17/01/24 12:26:28.32 sXvuiz35.net
>>78
なんでいきなりカーネル使うことが前提になるww
以前からある手法で>>73みたいなことすんのは何故と聞いてるのに

83:デフォルトの名無しさん
17/01/24 12:46:42.71 2vJhPAHl.net
>>73
その比較する値が等しいときの点をつないだ線は直線になるんじゃね?

84:デフォルトの名無しさん
17/01/24 12:50:04.79 2vJhPAHl.net
x y u vの平均とか分散も判らないからサンプルから推定するしかないが本当の母平均や母分散とは誤差があるだろう

85:デフォルトの名無しさん
17/01/24 12:55:23.85 HkcW5uJV.net
関連性がよくわからん(紹介主も関連性をわかってない?)
ややこしい論文見るより
URLリンク(nnadl-ja.github.io)
ここみたらパーセプトロンが計算論的万能性があるのは分るでしょ。
あとは既存の論理計算と見比べてパーセプトロンを再構成したらいい

86:デフォルトの名無しさん
17/01/24 13:07:38.77 WftsLTyk.net
>>73
それ重回帰分析でしょ
機械学習じゃないよ

87:デフォルトの名無しさん
17/01/24 13:14:21.47 ZplzBBh2.net
パーセプトロンの学習層をどんどん多重にしていったら、どうなるかな?

88:デフォルトの名無しさん
17/01/24 13:28:21.55 uQjLcZ8g.net
線形カーネルだと何層重ねても単層と変わらないよ
と言いつつ線形関数の折り曲げ版であるReluがなぜ問題ないのかわからない

89:デフォルトの名無しさん
17/01/24 13:33:22.44 ghuVG84o.net
>>86
wwwwww

90:デフォルトの名無しさん
17/01/24 13:37:30.44 ZplzBBh2.net
カオス理論がやはり有効かな?

91:デフォルトの名無しさん
17/01/24 13:51:36.32 Z0M3CIeb.net
>>86
どんまい ( ^∀^)

92:デフォルトの名無しさん
17/01/24 15:30:20.60 sXvuiz35.net
>>73
予測可能かどうかは保証ないが評価関数を最小にする係数は存在するからそれはあり。
後半の確率密度関数なんちゃら~は絶対にしない。各事象が独立とは言えないからね。

93:デフォルトの名無しさん
17/01/24 15:59:12.55 euarAUCe.net
>>86
ReLUは出力0になる入力範囲があるから出力合成でどんな領域も近似できる。
活性化関数ReLUについてとReLU一族【追記あり】
URLリンク(qiita.com)

94:デフォルトの名無しさん
17/01/24 18:13:08.22 E+wgNc2t.net
【数学・統計モメン集まれ】 将棋・竜王戦。三浦九段出場見送りの判断は妥当との論説。 これがベイズの定理だ! [193727557]
スレリンク(poverty板)

95:デフォルトの名無しさん
17/01/24 18:34:09.28 eNQkhgOl.net
ADALINEでヘッセ行列を計算して最小値となる重みを求めないのはなぜですか?

96:デフォルトの名無しさん
17/01/24 18:51:10.93 eNQkhgOl.net
勾配降下法などという手法を使っています。

97:デフォルトの名無しさん
17/01/24 19:11:06.25 2vJhPAHl.net
>>93
自分でやればいいんじゃね?
なんでやらないの

98:デフォルトの名無しさん
17/01/24 19:43:44.98 FO2eZwrN.net
>>92
疑惑自体がなく完全な冤罪と結論が出て、三浦九段の名誉回復が懸念されている問題たぞ。
何がベイズの定理だ、良識はないのかな?

99:デフォルトの名無しさん
17/01/24 19:53:27.88 nzhz+kYn.net
このスレは数学できないやつらのたまり場だからベイズの定理とか言っても無駄

100:デフォルトの名無しさん
17/01/24 19:54:56.96 Z0M3CIeb.net
社会に出たこともない人が常駐してそうだからな、常識はずれなのもいるだろ

101:デフォルトの名無しさん
17/01/24 19:55:08.50 3CEKPf6Y.net
ベイズの定理が数学(剥笑)

102:デフォルトの名無しさん
17/01/24 19:55:47.21 FtPVVoGA.net
またいつかのアホガールか

103:デフォルトの名無しさん
17/01/24 19:57:03.42 Z0M3CIeb.net
>>97
そういうギャグはいいから。名誉毀損事案をスレに持ち込むべきじゃない

104:デフォルトの名無しさん
17/01/24 19:57:13.43 nzhz+kYn.net
>>99
このスレの連中にとってベイズの定理は高等数学だよw

105:デフォルトの名無しさん
17/01/24 20:09:22.15 eNQkhgOl.net
ベイズの定理ってなんで定理の名前がつくのか不思議なくらい自明な
つまらない命題ですよね。

106:デフォルトの名無しさん
17/01/24 20:19:02.70 FtPVVoGA.net
豚に真珠、という言葉を捧げよう

107:デフォルトの名無しさん
17/01/24 20:36:44.08 oXSH9k1/.net
ゼロから作るDeepLearning
あたらしい人工知能の教科書
この2冊がこのスレの必読書だな

108:デフォルトの名無しさん
17/01/24 20:49:19.13 FtPVVoGA.net
ディープラーニングならそれでいいけど
スレタイに従えばPRMLも、MurphyのMachine Learningも、DudaとHeartのパターン識別も入れたい

109:デフォルトの名無しさん
17/01/24 20:52:00.60 VuvAsGVQ.net
おもしろそうなサイトを見つけた。どうよ?
素人でもディープラーニングができる「NVIDIA DIGITS」で文字認識をやってみた
URLリンク(www.itmedia.co.jp)

110:デフォルトの名無しさん
17/01/24 20:52:05.26 eNQkhgOl.net
Murphyっていう人、実名でアマゾンにレビュー書いていますよね。
セジウィックのAlgorithmsがいままででベストのアルゴリズムの教科書だとか書いていました。

111:デフォルトの名無しさん
17/01/24 21:24:36.52 VuvAsGVQ.net
肝心の登録方法が書いてないからわからん。

112:デフォルトの名無しさん
17/01/24 21:38:34.92 gFS3er1f.net
>>102
おまえはアホ

113:デフォルトの名無しさん
17/01/24 21:51:03.15 3uHc3Gak.net
PRML未だに積んでるなあ…

114:デフォルトの名無しさん
17/01/24 22:09:03.75 eNQkhgOl.net
>>111
時代遅れになって近いうちに捨てられますよ。

115:デフォルトの名無しさん
17/01/24 22:18:08.75 jKsC+Om3.net
めぐるめぐる地球はめぐる俺様の周りで

116:デフォルトの名無しさん
17/01/24 22:48:46.54 eNQkhgOl.net
Raschkaっていう人なんか怪しい人ですね。
本当に「達人データサイエンティスト」なんですか?
特徴量のスケーリングを以下の式で行うとき、
x_i' := (x_i - μ) / σ
「データに標準正規分布の特性を与える」などと書いています。

117:デフォルトの名無しさん
17/01/24 23:03:16.77 jKsC+Om3.net
松坂君とは教科書をdisることが生きがいの厨房

118:デフォルトの名無しさん
17/01/24 23:08:31.27 jKsC+Om3.net
粗探しに生きがいを見つけるとういう性格障害w

119:デフォルトの名無しさん
17/01/24 23:14:47.47 ZrQ22rvh.net
機械学習の前に統計学勉強した方が良い連中ばかりだな

120:デフォルトの名無しさん
17/01/25 02:05:18.37 WZmJgpHk.net
さてそろそろ為替市場で実験してみるかな

121:デフォルトの名無しさん
17/01/25 02:08:16.48 CHhH83TC.net
単純に価格に辟易してるだけだろ
「これが最後の来日!」とか散々煽っといて隔年ごとに来ればそりゃ飽きられるし、いつも大して変わらないセトリじゃ客も馬鹿じゃないんだからうんざりする。

122:デフォルトの名無しさん
17/01/25 02:08:52.01 CHhH83TC.net
すまん誤爆ったw

123:デフォルトの名無しさん
17/01/25 02:48:48.14 DU5NE4Ls.net
>>103
本当にそう思っているのならお前には才能のかけらもない

124:デフォルトの名無しさん
17/01/25 03:48:53.58 tHr5vHqh.net
ベイズの定理は自明でつまらない(キリッ

125:デフォルトの名無しさん
17/01/25 05:27:01.57 xcuQ/RNW.net
コミュ力を学習させた方がいい奴ばかり

126:デフォルトの名無しさん
17/01/25 07:08:39.92 i1ntNm6T.net
117=123

127:デフォルトの名無しさん
17/01/25 10:54:09.57 SLV8VPLP.net
>>107
人生ダッシュボードに見えた

128:デフォルトの名無しさん
17/01/25 12:30:20.88 Gmiw7uUp.net
Raschkaっていう人なんなんですか?
↓の下線を引いた辺りが意味不明なんですが。
URLリンク(imgur.com)
何が言いたいんですか?
突然、確率がどうのこうの言い出して。

129:デフォルトの名無しさん
17/01/25 12:31:34.70 Gmiw7uUp.net
別に学者でもなんでもないそこらへんの大学院生が
たまたま本を書く機会が与えられたっていうだけなん
でしょうね。

130:デフォルトの名無しさん
17/01/25 12:52:43.93 ncsczmSY.net
>>127
なんで自演してるの?
ロジスティック回帰だから確率を考えてるんじゃね?

131:デフォルトの名無しさん
17/01/25 13:10:13.99 +ZDCoX8u.net
松坂君はスルーよろ

132:デフォルトの名無しさん
17/01/25 14:54:21.83 BgFJKaLD.net
>>112
ニューラルネットのせいでベイズがなかったことになりそう。大量データあるしベイズ使うメリットあるのかね?

133:デフォルトの名無しさん
17/01/25 16:35:34.65 pJ4wONqS.net
統計的機械学習はオワコン

134:デフォルトの名無しさん
17/01/25 16:51:07.07 BBvLOI2L.net
んなあこたない

135:デフォルトの名無しさん
17/01/25 17:30:54.68 N8rjFDkA.net
機械学習で解きたいタスクに生成モデルで立ち向かっていたのは自然現象の複雑なモデル化が困難だったからでしょ
ニューラルネットみたいな識別モデルで解けるんなら持ち込まない選択肢もあるかと

136:デフォルトの名無しさん
17/01/25 20:50:22.97 o52BqWk7.net
>>126
左辺を右辺で近似しようって言ってる

137:デフォルトの名無しさん
17/01/25 21:18:40.96 ovqDkz36.net
>>126
logit関数は0-1の値を実数に変換する
これを使って特徴量の線形結合と、その特徴量の時にクラス1になる確率を結びつけることができる

138:デフォルトの名無しさん
17/01/25 23:11:04.67 TtqfhPHr.net
荒らしでも相手したーいw

139:デフォルトの名無しさん
17/01/25 23:46:59.78 bbvOdbzr.net
最近の機械学習って全部ニューラルネットワークで出来てる?
RNNもDeepQNetworkもCNNも全部そうじゃない?
この分野どれもやってること同じじゃん

140:デフォルトの名無しさん
17/01/25 23:47:38.00 lP73vfRB.net
できてねえよ

141:デフォルトの名無しさん
17/01/25 23:48:57.26 nJO+CT7A.net
コホーネン。出来てる出来てる。

142:デフォルトの名無しさん
17/01/25 23:52:31.62 TtqfhPHr.net
連想記憶を思い出してあげてください

143:デフォルトの名無しさん
17/01/25 23:55:16.54 cwiVnd3U.net
最近といっているが

144:デフォルトの名無しさん
17/01/26 00:36:39.54 6c1mJ3TJ.net
お前が何をもって機械学習と呼んでるのかは知らんが
画像や音のような特定分野を除けば今も昔も大半は重回帰分析やコサイン類似度やkNNのような原始的な方法が一般的だろ

145:デフォルトの名無しさん
17/01/26 01:39:50.98 ork6Sebg.net
DQNの損失関数の一部に出てくるmaxQ(S',A')みたいな部分の計算ってどうやんの?
そもそもmaxQ(S,A)が求まるんならそもそもなんの苦労もしないような気もするし、きっとインチキするんだろうけどどうやんだ!?

146:デフォルトの名無しさん
17/01/26 01:54:01.83 QpF8cABc.net
wikipediaのQ学習のページ読めばわかる。適当な初期値からスタートして更新しまくれば正しい値に収束する

147:デフォルトの名無しさん
17/01/26 07:21:12.81 PobJ+xli.net
Google翻訳のアプリはすご


148:いな スマホカメラに写ってる文字が自動翻訳され、そのまま置き換わって写ってるんだぜ Deep learning 恐るべき



149:デフォルトの名無しさん
17/01/26 08:12:26.86 cQVLCdYv.net
>>119 いつまでもやつている閉店セール。

150:デフォルトの名無しさん
17/01/26 08:47:26.86 Iaibv4/w.net
>>143
最大を選らばないんじゃなかったかな
たぶん、Q値をすべて0から始めて、結果の評価をQ値に入れるのが味噌
その利得計算が目的合理なら、やればやるほど合理的な判断になる。

151:デフォルトの名無しさん
17/01/26 09:03:31.67 Iaibv4/w.net
>>145
グーグルのフィードバック関数とは、プレイヤーたるユーザ、ミリオネラのオーディエンス

152:デフォルトの名無しさん
17/01/26 10:13:37.91 /Sh2xNP8.net
Q(S,A)は、状態とアクションの結果だから、中身は単純にその2値から配列参照して、過去のQ値を返せばよい。
で、評価関数は、実証する、というか実験して、それをなんらかのスコア付けすればよい。
スコアをQ(S,A)のテーブルに入れる。
すると、二回目からは、最適解らしきものを選びやすくなる仕組み。

153:デフォルトの名無しさん
17/01/26 13:23:14.54 ihTmtnuj.net
>>145
今確認して見たらほんっとに凄くてワロタwww
もうこの分野はグーグル様の天下やな(´・ω・`)

154:デフォルトの名無しさん
17/01/26 13:55:27.17 PobJ+xli.net
スマートフォンアプリの『Google翻訳』がリアルタイム翻訳に対応し、カメラを向けるだけで英語から日本語、または日本語から英語に翻訳することが可能となった。
やりかたは簡単で、『Google翻訳』を起動しカメラアイコンをタップ、その後対応している言語ならリアルタイム翻訳が開始される。
目玉アイコンでインスタントのオン、オフが可能で、右下のアイコンで一時停止が可能。
ただ制度はまだまだで、認識レベルが低く、フォントによっては別の単語と認識してしまうことも多々あるようだ。
特に映画やゲームのパッケージは認識が困難で、もはやイラストレベルの文字は認識すらままならない。
有名な単語であれば、直訳でなくそのままカタカナにしてくれる。例えばSHARPは「細い」ではなく「シャープ」と翻訳され、VIERAも「ビエラ」となった。
身の回りにある物を日本語から英語、英語から日本語にすると実に面白いぞ。
今後の課題としては文字認識の精度の向上や、多言語への対応だろう。今までは写真を撮影し該当範囲をタップし翻訳結果を表示していたが、より翻訳が楽になった。
旅行先などで看板や案内に何が書いてあるのかを知りたいときアプリを起動すればリアルタイム翻訳翻訳してくれるので、重宝しそうだ。
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)

155:デフォルトの名無しさん
17/01/26 14:03:01.66 x0xurvAu.net
>>145
画像認識はすごいと思いましたが、肝心の翻訳がひどいですね。

156:デフォルトの名無しさん
17/01/26 14:06:22.64 x0xurvAu.net
高級なおもちゃの領域を脱していないですね。

157:デフォルトの名無しさん
17/01/26 14:13:07.10 NQNkNUym.net
記事URLだけ貼れば十分だろ何やってんだ

158:デフォルトの名無しさん
17/01/26 14:17:01.45 Utz0288y.net
URLリンク(youtu.be)

159:デフォルトの名無しさん
17/01/26 15:18:46.80 PPpJY7dM.net
スマホアプリ『Google翻訳』のリアルタイム翻訳が凄�


160:「と話題 身の回りの物を翻訳するとカオスに! [無断転載禁止]©2ch.net http://hayabusa8.2ch.net/test/read.cgi/news/1485367323/



161:デフォルトの名無しさん
17/01/26 18:20:04.23 UuR4Ke5v.net
グーグルに学ぶディープラーニング
URLリンク(www.amazon.co.jp)

162:デフォルトの名無しさん
17/01/26 18:24:33.36 uid4ELIL.net
>>90
ちょっと気になるんだけど、線形モデルも変数同士は独立の仮定置いてるからそこはええんちゃう?

163:デフォルトの名無しさん
17/01/26 18:26:11.83 uid4ELIL.net
あと、線形モデルがおかしいとはいうけど、モデルの複雑さとかとのトレードオフで最近傍法とかあるし、手法の一つだとしか言いようがないような

164:デフォルトの名無しさん
17/01/26 18:33:09.17 i995wneR.net
>>157
駄本の予感

165:デフォルトの名無しさん
17/01/26 18:51:42.71 x0xurvAu.net
Raschka の本ですが、 variance と bias が出てくるあたりから説明が意味不明になりますね。
ひどい本です。
ビショップの本のほうが分かりやすいですか?まともですか?

166:デフォルトの名無しさん
17/01/26 18:55:06.02 x0xurvAu.net
翻訳ソフトが使えるくらいの性能になるのはいつになるのでしょうか?

167:デフォルトの名無しさん
17/01/26 19:53:01.05 Dc5M15+T.net
>>161
お前の理解力が問題

168:デフォルトの名無しさん
17/01/26 19:58:50.22 Gxh/Vy2Z.net
馬鹿と鋏は使いよう、馬鹿には無理

169:デフォルトの名無しさん
17/01/26 20:45:18.21 x0xurvAu.net
Raschka の本はひどすぎるので、ましそうなビショップの本に乗り換えることにします。

170:デフォルトの名無しさん
17/01/26 22:01:42.22 LOfMPQzP.net
数学できないこのスレの奴らにビショップとか読めるわけないだろが

171:デフォルトの名無しさん
17/01/26 22:03:37.46 Ox4Khub+.net
馬鹿ほど自説に拘る

172:デフォルトの名無しさん
17/01/26 22:11:07.55 BRlKv5w/.net
久々に覗いてみたら粘着おじさんがまだいてワロタw
翻訳に興味あるなら、ウェアラブル翻訳デバイス ili(イリー)の発表会が1/31にありんす
こいつにはかなり期待している
URLリンク(iamili.com)

173:デフォルトの名無しさん
17/01/26 22:18:08.63 BRlKv5w/.net
あ、粘着おじはそろそろこのスレ卒業せいよ~

174:デフォルトの名無しさん
17/01/26 22:19:52.87 uid4ELIL.net
python機械学習プログラミングは理論分かってるの前提だから説明はかなり不十分
PRMLとは役割が全然違う

175:デフォルトの名無しさん
17/01/26 22:48:13.87 gfpPy35K.net
>>170
あの本は著者の講義の副読本だから
厳密なことは書いてない

176:デフォルトの名無しさん
17/01/27 01:18:06.74 sVTHVTwX.net
機械学習に数学はいらない

177:デフォルトの名無しさん
17/01/27 01:33:13.62 3pui5nOJ.net
実際そういう人は実務で機械学習やってる人の中にゴロゴロしてるだろうな

178:デフォルトの名無しさん
17/01/27 05:37:36.14 QjYJmuyM.net
数学で演繹的にアルゴリズムを構築できるの?
できないでしょ

179:デフォルトの名無しさん
17/01/27 05:41:52.26 QjYJmuyM.net
>>168
これNICTのエンジンで所?
ゴミっぽい

180:デフォルトの名無しさん
17/01/27 06:47:38.19 sOrVpnzk.net
>>174
ちゃんと演繹的に構築された機械学習アルゴリズムなんかいくらでもあるがな

181:デフォルトの名無しさん
17/01/27 07:16:24.11 H9uRlrvM.net
現状
人工知能(実際は無能)→目的の為にパターンを学習→有力な結果を表示
理想図
人工知能→目的の為にパターンを学習→有力な結果を表示→溜まった結果を踏まえて自身を書き直す
以下ループ

182:デフォルトの名無しさん
17/01/27 07:41:28.61 P3UmSpp+.net
>>177
学習自体が自分を書き直す事じゃね?
隠れ層の要素数を増減させるくらいはすぐ出来そう
その他のハイパーパラメータも変化させるのはできるだろうし

183:デフォルトの名無しさん
17/01/27 08:09:36.47 H9uRlrvM.net
>>178
学習自体はデータ量の増大(蓄積)だと思ってる。
(データ量と反応パターンが増える)
自身を書き直すとは、単純に書くと、
最初はネストしないif文とfor文連打から、ネストする
if文とfoo文にする(自身を書き直す)
これにより、既存データ量の減少(不要なデータの破棄)や
もっと、複雑になって行く。かんじ?
難しいな、
データ量の増大→評価されたデータから有力なデータを出力して、
評価上位結果だけが残る→低評価データの破棄(次の学習で学習しない様にする工夫が必要)
思ったより、説明するのが難しい。
分かり難いと思う。

184:デフォルトの名無しさん
17/01/27 08:23:25.27 IY0OOPBk.net
>>179
kNNでいうと、代表的な点の付近にある冗長な値や明らかな外れ値を優先的に削除していくとか?
うまいことバランスよく削除対象を選択できる評価関数さえあれば比較的簡単に継続的に運用できそうだけど、そういう研究あるのかな

185:デフォルトの名無しさん
17/01/27 08:38:25.95 H9uRlrvM.net
普通の評価関数(他人のだけど)
URLリンク(data.gunosy.io)
削除対象を選択は難しい。
有効な出力を残そうとして、評価項目の設定を変えて行くと、帰ってデータ量が多くなる。
5項目なら100,100.100,100,100次に100,100,100,100.99+(トータル値)
上記見たいに、精度を上げる段階で膨大に増えるかも知れない

186:デフォルトの名無しさん
17/01/27 12:57:23.69 P3UmSpp+.net
>>179
実現する手段が違うけど
外から見たら同じじゃね?
自動的に出力が改善されていくんだから

187:デフォルトの名無しさん
17/01/27 15:53:14.85 IlNtMqM2.net
そういう話だったら、強化学習でハイパーパラメーターを調整していく方法をGoogleはやってるみたいよ
計算資源がクソかかるみたいだけど

188:デフォルトの名無しさん
17/01/27 15:56:08.79 IlNtMqM2.net
googleのとは別だけどこんなんもあるね
URLリンク(techon.nikkeibp.co.jp)

189:デフォルトの名無しさん
17/01/27 21:10:35.78 Ftuc5Z8r.net
chainer最強だな
tensorflowでかなり時間がかかる処理を4時間で終わる神アップデート入ってる
もうtensorflowをオワコンだな

190:デフォルトの名無しさん
17/01/27 21:15:17.54 oKibH99X.net
すげーーーー。
tensorflow使うわ。

191:デフォルトの名無しさん
17/01/27 21:32:14.65 amAo/3dT.net
>>185
PFNの深層学習フレームワーク「Chainer」が大幅な高速化へ、分散処理に対応
URLリンク(itpro.nikkeibp.co.jp)
>PFNの西川社長はChainerの性能が高くなった理由について、
>「分散処理の仕組みとして『MPI』を採用し、
> ノード間通信では『InfiniBand』に最適化したため」と説明する。
Message Passing Interface
URLリンク(ja.wikipedia.org)
分散バージョンのChainerがAWSで効率的に動くなら当分はユーザーが増えるだろう。
でも他のフレームワークもMPIを採用できるからオワコンはない。

192:デフォルトの名無しさん
17/01/27 21:47:10.78 OMtiIkq3.net
分散処理なんてtensorflowに前からついてるじゃないか

193:デフォルトの名無しさん
17/01/27 22:26:20.65 sOrVpnzk.net
機械学習って比較的大きな粒度で並列化しやすいからそんなに厳密に同期しなくていいしデータもでかいから、
MPIなんかに拘るよりもっと緩い制御の方が向いてると思うけどね
いかにも学者崩れのオナニーって感じがする

194:デフォルトの名無しさん
17/01/27 22:51:50.76 K7nE30F2.net
tensorflowが遅いのは確か
つかリンク先に速度比較乗ってる

195:デフォルトの名無しさん
17/01/27 22:59:58.43 OMtiIkq3.net
じゃあすぐにtensorflowが高速化してしまうだろうな
引き続き頑張ってくれ

196:デフォルトの名無しさん
17/01/27 23:20:17.07 K7nE30F2.net
なんでそんな喧嘩腰なんだろう

197:デフォルトの名無しさん
17/01/28 00:05:01.04 e1/iMbc/.net
オッパイそれは宇宙の理

198:デフォルトの名無しさん
17/01/28 01:07:39.43 pTPUb4iL.net
今更 chainer なんか使うかよw

199:デフォルトの名無しさん
17/01/28 01:12:19.60 lAN98u4l.net
>>192
恣意的なデータセットによるいい加減な速度比較を信じる奴がいるからじゃないか?w

200:デフォルトの名無しさん
17/01/28 01:15:54.59 +BLLOypB.net
速度気になるならC++で書けばいい
高速な行列演算ライブラリもあるし最適化も優秀なコンパイラがいっぱいある

201:デフォルトの名無しさん
17/01/28 01:20:16.41 mVogE1ql.net
TF の後追いで playground やら分散やるのもいいけど、日本語ドキュメントを作ればいいのにな
どうせ日本人ユーザしかおらんのだから

202:デフォルトの名無しさん
17/01/28 02:09:27.10 BCr/Oho6.net
>>187
さくらインターネット、演算に特化した「高火力コンピューティング」への取り組みを開始
~Infiniband接続による大規模なGPUクラスタをPreferred Networks社と共同構築~
URLリンク(www.sakura.ad.jp)
『InfiniBand』に最適化ということはさくらのGPUクラスタでテストしたのだろう。
さくらのGPUクラスタでChainerの性能がTensorFlowの5倍以上なら
2017年は「さくらでChainer」が流行るかもしれない。

203:デフォルトの名無しさん
17/01/28 02:14:53.95 BCr/Oho6.net
>>195
Deep Learning framework速度比較
URLリンク(mscorpmedia.azureedge.net)
URLリンク(qiita-image-store.s3.amazonaws.com)
Distributed TensorFlowの話
URLリンク(qiita.com)
TensorFlowが遅い事は以前から指摘されていた。
そしてGoogle以外はGoogleのJupiterネットワークを使えない。

204:デフォルトの名無しさん
17/01/28 02:23:03.60 mVogE1ql.net
>>199
一年前の記事を持ってくるな wwwww

205:デフォルトの名無しさん
17/01/28 02:29:29.55 lAN98u4l.net
>>198
何だかなぁ。5倍以上というけど、Chainer 以外のフレームワークのコードが
32ノード/128GPU に最適化されているとはとても思えないんだが?
あと、さくらのクラスタは 32ノード/128GPU でお幾らなの?初期化コストも含めてな。現実的なの?
>>199
TensorFlow はマイナーバージョンアップ毎に高速化してるよ。

206:デフォルトの名無しさん
17/01/28 02:36:15.45 pTPUb4iL.net
chainerユーザが増えないのは速度の問題じゃないんだがな…

207:デフォルトの名無しさん
17/01/28 03:07:12.49 0PzyDmFt.net
ぶっちゃけフレームワーク戦争なんて大した学習コストも無いしどうでも良い
むしろユーザーとしては、競合が多い方が専制的にならないから嬉しい

208:デフォルトの名無しさん
17/01/28 03:07:37.27 e1/iMbc/.net
>>197
マジでこれなw足元をおざなりにする馬鹿って感じ

209:デフォルトの名無しさん
17/01/28 03:30:48.92 BCr/Oho6.net
>>201
さくらが大量演算向け「高火力」サーバ正式提供開始、時間課金も
URLリンク(ascii.jp)
>来年3月には現在の月額課金制に加えて時間課金制も提供開始する予定。
「さくらの専用サーバ 高火力シリーズ」の料金表
URLリンク(ascii.jp)
Quad GPUの1時間あたりの利用料金が267円だから、
32ノード/128GPUだと1時間あたりの利用料金は267 × 32 = 8224円だね。
時間課金の初期費用が明確になるのは今年3月かな。

210:デフォルトの名無しさん
17/01/28 05:06:27.19 4gnc6irW.net
え、735,000円じゃないの?
初期費用

211:デフォルトの名無しさん
17/01/28 06:15:45.16 IJ6CDSDI.net
>>199
フレームってなんの単位なの?

212:デフォルトの名無しさん
17/01/28 06:40:24.77 4gnc6irW.net
PFNとPFIって同じなの?

213:デフォルトの名無しさん
17/01/28 08:31:27.88 BCr/Oho6.net
GCPは8GPUまで分単位の課金で気軽に使えるようになるはずだけど、
それにしてもいつからGPUが利用可能になるのだろうか。
Graphics Processing Unit (GPU) | Google Cloud Platform
URLリンク(cloud.google.com)
クラウド GPU が 2017 年から利用可能に
URLリンク(cloudplatform-jp.googleblog.com)
>NVIDIA Tesla P100 および K80 GPU も提供します。
>仮想マシン(VM)インスタンスごとに最大 8 GPU のダイを接続できます。
>Google Cloud の VM と同様に、GPU の料金は分単位で課金され、

214:デフォルトの名無しさん
17/01/28 08:57:40.55 CMqXCA8h.net
>>197
>>204
母国語で読めるというのは高いアベレージなのにね。
それにユーザーのメモ帳のようなブログ記事に任せずに
公式本や資料を充実させればいいのに。
もしくは相手がやっていないJavaやC/C++版も充実させるとか。
あそこは初学者でも何でも積極的に広めようというより
いいのを作れば意識高い人が使って自然に広まるという考えなんだろうけど。
閉じた研究グループ活動ならともかく商売なのに下手なやり方よね。

215:デフォルトの名無しさん
17/01/28 09:04:24.28 bB5QxUSC.net
速度比較って意味あるのか?
コーディングのうまさに強烈に依存してるだけだろ

216:デフォルトの名無しさん
17/01/28 10:12:09.35 0PzyDmFt.net
chainerアンチくんそろそろ自演はやめよう

217:デフォルトの名無しさん
17/01/28 14:33:19.45 BCeOr5Jl.net
Wekaでクロスバリデーションを行う場合、
テストデータがどのように分割されたかと、
=== Predictions on test data ===
inst#,actual,predicted,error,prediction
の部分で元データの何行目がどれなのかを知る方法はありますか?

218:デフォルトの名無しさん
17/01/28 22:51:19.43 twSmrXR/.net
高いアベレージ

219:デフォルトの名無しさん
17/01/29 00:03:11.04 /6WgD/vk.net
chainerとか関係なくこういうの作れるのええな
URLリンク(togetter.com)

220:デフォルトの名無しさん
17/01/29 02:30:04.51 B6CaMCDG.net
せめてタイトルくらいかけよ
そんなのアフィリエイトの誘導にしか見えない

221:デフォルトの名無しさん
17/01/29 03:22:37.85 Fhhd3neK.net
>>215
技術だけを気にしていると理論系の記事しか読まなかったりするけど
機械学習の普及には一般受けする応用を考えるのも大事だね。
TensorFlowで実装して翻訳記事を書いた人までいて影響力が桁違いだ。
初心者がchainerで線画着色してみた。わりとできた。
URLリンク(qiita.com)
>>216
タイトルは書く方が親切だけど、
下記Webサービスの反響まとめだから見て損はない。
chainerで線画着色をwebサービスにして公開してみた
URLリンク(qiita.com)

222:デフォルトの名無しさん
17/01/29 05:08:02.08 /6WgD/vk.net
togetterのURL貼ってアフィとか言われたの初めてだわw
NAVERまとめかなんかと勘違いしとるんか?
>>216さんは親切なお人やね~

223:デフォルトの名無しさん
17/01/29 05:37:08.12 +BHcORgf.net
>>217
これ初心者(PFN所属)なんだよなw

224:デフォルトの名無しさん
17/01/29 06:38:32.99 Q7KrlIOA.net
>>212
chainer信者… www

225:デフォルトの名無しさん
17/01/29 06:46:58.42 RoGFabqg.net
>>210
禿同。

226:デフォルトの名無しさん
17/01/29 07:01:27.04 Q7KrlIOA.net
>>209
GCP でも使えるのか、Cloud ML だけだと思っていたわ。
これは楽しみだな、AWS は1時間単位だから嫌w
>>210
良いものを作れば自然に広まるという考えは企業初心者の陥る罠なんだよなぁ…
過去に同じ考えの会社が Microsoft に駆逐されまくったのを知らないわけじゃないと思うのだが。

227:デフォルトの名無しさん
17/01/29 07:07:59.64 Q7KrlIOA.net
>>211
前提条件を絞れば意味がないことはないだろうけど、
問題の質やコーディングの上手さに大きく影響を受けるのはその通り。
特に GPU 絡みの分散コードなんて TF で勉強した人もいるだろうけど、職人芸。

228:デフォルトの名無しさん
17/01/29 07:19:36.92 MoBdBOkH.net
ディープラーニングすごいっていってるやつは、ニューラル冬の時代を知らないのかな
ディープすごい!人工知能すごいって盛れるのはせいぜいあと三年だろ、
まーたそのあとは人工無能だって発覚していつものごとく終わりだよ
科学にもとづかない馬鹿みたいな前提でそれをもとにビジネス組み上げる馬鹿なんていねえよヴぁーか
数学と科学と統計学の区別もつかないスクリプトキディ様乙

229:デフォルトの名無しさん
17/01/29 07:43:20.48 wnIP30dh.net
人間様に扱えない判断基準で物事を裁く馬鹿はまずいねえんだよね
ディープに新規性はないし、ハードウェアが変わった、昔のポンコツ環境とは違うといくらいったところで、君の妄想を実現するのに何年かかるのか
いくらハードウェアが進歩したからといってあのニューロンモデルに、現実世界でおこる問題の(真なる)モデルをエミュレートさせようとしたときに発生するモデルの複雑性、計算能力の必要性
これを統御するすべがディープには存在しない、だから児戯に終わる
ディープには計算力必要、分散システムつかってからが本番とか言いだしてる時点で、モデルを救いようのないまでに複雑にしますって言ってるようなもんなのにそれも理解してないよね
挙げ句の果てにディープにパフォーマンスは重要じゃないとかコードの善し悪しの問題とか言いだしちゃうんだよね、意味がわからない
ただでさえディープの設計思想はくそなのに、その頼りないディープの設計思想からして、パフォーマンスは何よりも重要なことぐらいわかるだろ
この意見に反論する奴はまず機械学習やマイニングを理解していないのに、tfとかのライブラリをただ単に走らせて喜んでる、科学的素養のないキッズだよな
ディープは単なる投機対象にすぎないってことをまず理解してからライブラリ使おうね
あとコンピュータにできる限界も理解してからね

230:デフォルトの名無しさん
17/01/29 07:45:07.64 pWwOatcm.net
>>210
>母国語で読めるというのは高いアベレージなのにね。
高い平均・・・?

231:デフォルトの名無しさん
17/01/29 09:41:57.54 Fhhd3neK.net
>>210
母国語で読めるというのは大きなアドバンテージだね。
高火力コンピューティングでさくらを巻き込んだのだから
分散バージョンChainerの日本語ドキュメントを出して
高火力コンピューティングの営業に協力してもいいと思う。
>>224-225
ディープラーニングは万能ではないが有用だから普及する。
ム板住人にとってこの技術はとても役に立つ。
>>217がペイントソフトの標準機能になる未来はすぐそこだ。

232:デフォルトの名無しさん
17/01/29 11:39:08.60 UPfWW/c8.net
機械学習マンは統計学の用語をわざわざ格好いいものに置き換えているのは気のせいだろうか
回帰・分類 → 教師あり学習
説明変数 → 特徴量
応答変数 → ラベル

233:デフォルトの名無しさん
17/01/29 11:43:30.82 bGkeaMzi.net
統計と対応してないんだから当たり前。

234:デフォルトの名無しさん
17/01/29 11:47:43.17 JmcO/odY.net
>>228
それらの用語どころじゃないくらい多い。
カッコつけしいなんだわ

235:デフォルトの名無しさん
17/01/29 11:55:07.02 Urob8xZw.net
>>228
成立ちが違うんだから用語が違うのは当たり前だ
同じような概念が違う用語で表される事もあるだろう

236:デフォルトの名無しさん
17/01/29 12:07:34.99 /NIxq7a6.net
統計学ってうさん臭いあいまい過ぎる定義多いから
測度論の用語で統一して欲しい

237:デフォルトの名無しさん
17/01/29 12:11:16.01 Urob8xZw.net
>>232
自分でやってみよう

238:デフォルトの名無しさん
17/01/29 13:48:32.98 7+btt6kI.net
統計ぎょり機械学習のほうがよっぽど胡散臭いだろ…

239:デフォルトの名無しさん
17/01/29 14:22:07.78 dDPkJyTp.net
機械学習に数学はいらないからね
仕方ない

240:デフォルトの名無しさん
17/01/29 14:44:25.03 EQKp/5y7.net
>>232
例えば?

241:デフォルトの名無しさん
17/01/29 14:44:38.18 I5gnIMbX.net
>>219
なんだこいつPNFの人間だったのかw
ドッチラケだはw

242:デフォルトの名無しさん
17/01/29 15:50:11.01 Urob8xZw.net
>>235
使うための技術として数学が必要なものは流行らないんじゃね

243:デフォルトの名無しさん
17/01/29 15:52:09.99 tmPNbfWl.net
最近はTensorFlowばっか使ってるけど、よく考えたら数年前にWekaを使ってた頃としてることが何も変わってなかったでござる

244:デフォルトの名無しさん
17/01/29 16:03:23.35 JmcO/odY.net
この分野だけの用語が多い。
イメージでラベル化されると
人はそれ以上のことを考えなくなる
『特徴抽出』、『過学習』、『教師有り/無し学習』
>>235みたいなやつを量産させる

245:デフォルトの名無しさん
17/01/29 16:12:42.74 SmTDa/S0.net
>>228
その右の語を左よりカッコイイと思ってる時点でコンプレックス丸出し情け無い

246:デフォルトの名無しさん
17/01/29 16:54:59.68 dIgMNnA2.net
>>239
そうだよ、今回の大惨事ブームに乗った大企業様のただのゲームチェンジだから

247:デフォルトの名無しさん
17/01/29 17:08:09.33 VKGZhMkE.net
一部専門家しか使えなかった技術がある程度の頭があれば誰でもできるようになってしまった。
専門家は相当危機感持ってるよ。

248:デフォルトの名無しさん
17/01/29 17:35:57.25 9Kw4+t4B.net
脳内評論家

249:デフォルトの名無しさん
17/01/29 17:43:47.34 R9/nKqS/.net
同じ概念を学術分野が違えばまったく別の言葉で呼んでるのはよくあることだから

250:デフォルトの名無しさん
17/01/30 00:32:20.99 l67CaF8/.net
文系事務職から児の業界に転職して、Pythonデータサイエンスを終えて、パイソンでちょっとした何かを作れるようになったレベルなんですが
もっとレベル上げるにはどうすればいいですか?
統計にしても、数学にしてもチンプンカンプンなので、高校レベルから勉強し直してます

251:デフォルトの名無しさん
17/01/30 00:48:24.16 tWAIhpxB.net
ビジネス系なら普通に統計を勉強するのがいいと思うよ
ツールもPythonよりRやSPSSあたりを優先的に学んだ方がいい
機械学習に手を出すのは労多く実り少ないのでおすすめできない

252:デフォルトの名無しさん
17/01/30 01:13:08.50 4FvUirHY.net
数学できないこのスレの連中にきいても無駄

253:デフォルトの名無しさん
17/01/30 01:59:30.86 h/BDIaGY.net
文系かつビジネス系の人になんでRすすめるの?
Pythonでいいじゃない

254:デフォルトの名無しさん
17/01/30 03:41:19.89 On5YDKLg.net
>>246
データ分析職の新人で下記の本を終えたという事でいいのかな?
Pythonデータサイエンス -可視化、集計、統計分析、機械学習
URLリンク(www.amazon.co.jp)
Pythonで行くならJupiter notebookを武器にすればよい。
Python でデータサイエンス
URLリンク(pythondatascience.plavox.info)
IPythonデータサイエンスクックブック ―対話型コンピューティングと可視化のためのレシピ集
URLリンク(www.oreilly.co.jp)
IPythonデータサイエンスクックブック ―対話型コンピューティングと可視化のためのレシピ集
URLリンク(www.amazon.co.jp)
ところで「六本木で働くデータサイエンティストのブログ」は知っているよね?
データサイエンティストというかデータ分析職に就くための最低限のスキル要件とは
URLリンク(tjo.hatenablog.com)

255:デフォルトの名無しさん
17/01/30 03:50:53.78 On5YDKLg.net
× Jupiter Notebook
○ Jupyter Notebook

256:デフォルトの名無しさん
17/01/30 03:57:50.00 Jndv2t4J.net
機械学習に数学は不要だから文系にこそピッタリだと思うよ
統計は普通に数学使うからおすすめしない

257:デフォルトの名無しさん
17/01/30 05:06:05.81 EgTXqXG9.net
>>248
なんでこのスレ見てるの?

258:デフォルトの名無しさん
17/01/30 12:50:55.77 C+FwTjKN.net
>>158こんなレスあったのか
そんな仮定しない。
各パラメータが独立してるなら、個々で考えたらいいだけ。Excel処理で十分
各パラメータの相関関係を見たいから機械学習してるのに何のためにry

259:デフォルトの名無しさん
17/01/30 20:01:59.26 3e3wkvn4.net
それもそうだw

260:デフォルトの名無しさん
17/01/30 20:18:20.98 YD4jdzUM.net
>>254
説明変数の多重共線性のことじゃね

261:デフォルトの名無しさん
17/01/30 20:48:56.95 UgHR9LmJ.net
学習済みのオートエンコーダがあってテストしたい時、
特定次元のみ値が不明という場合は、その次元はどんな値にして入力すればよいでしょうか?

262:デフォルトの名無しさん
17/01/30 21:00:42.04 YD4jdzUM.net
>>257
乱数でもなんでも
そこから学習させればいいんじゃね
他の所は学習させなければ早いだろう

263:デフォルトの名無しさん
17/01/30 21:01:49.05 YD4jdzUM.net
>>257
勘違いしてた
テストしたい時か
バイナリだったら反転とかじゃねーの

264:デフォルトの名無しさん
17/01/30 22:06:13.87 UgHR9LmJ.net
>バイナリだったら反転
連続値です

265:デフォルトの名無しさん
17/01/30 22:10:23.20 f7p1Vz7u.net
>>246
児の業界ってなに?

266:デフォルトの名無しさん
17/01/30 22:37:14.20 FqtHhB2j.net
>>256
何を指摘して言ってるのかさっぱりなんですが‥‥
用語を使わずに説明してもらえますか?

267:デフォルトの名無しさん
17/01/30 22:43:18.40 7QLXVWYX.net
>>262
ごく簡単に言うと重回帰分析とかで説明変数同士に相関があると結果が正しくならないことがあること

268:デフォルトの名無しさん
17/01/30 22:46:00.40 7QLXVWYX.net
wikipediaとかでは、重回帰は説明変数の無相関を仮定してると書いてはあるけど、実際はどうなんだろう

269:デフォルトの名無しさん
17/01/30 22:47:56.19 FqtHhB2j.net
>>263
いや用語の説明じゃなくて文脈上何を指摘してるの??
>>73で当てはめて説明するとどういうこと?

270:デフォルトの名無しさん
17/01/30 22:48:00.40 7QLXVWYX.net
統計的学習の基礎みて探してるけど、相関が結果に悪影響を及ぼすとか、高い相関は良くないとは書いてあるけど、明示的に無相関は仮定してないように見える
詳しい人教えて

271:デフォルトの名無しさん
17/01/30 22:51:37.34 7QLXVWYX.net
>>265
俺は256じゃないけど、
73で確率密度関数の値同士をかけ算してるが、事象が独立でないこともあるから駄目だって指摘に対して、そもそも重回帰分析の場合でも説明変数同士は独立と仮定してるから、73の手法においても独立を仮定してもいいんじゃないって意味でしょ

272:デフォルトの名無しさん
17/01/30 23:02:18.14 FqtHhB2j.net
説明変数なんて


273:知らなかったけどwikiで調べたら、『説明変数同士が関連性の高いものを使うと係数が妙な値になることがあるので注意する必要がある』 って書いてある。 つまり独立じゃない場合があるからその仮定は気をつけてねってことでは?



274:デフォルトの名無しさん
17/01/30 23:33:21.95 4DZGSucb.net
このスレのレベルがここまで低いとは…
道理で「機械学習に数学はいらない」とかいいはじめるわけだ
結論だけ書いておくと説明変数同氏は相関していてもよい
multicolinearityというのは x_k = (x_{k 1}, ..., x_{k n})' と
したときにベクトル x_1, ..., x_k, ..., x_K が一時従属になることをいっている
この場合,、X' X が非正則になって逆行列が定義できずに例えば
最小二乗法も計算できない
統計的独立と一次独立の概念をごっちゃにしているからこういうことになる
ただし、相関係数の絶対値が1になると当然、一次従属になるので、
相関係数の値が非常に大きくなると実質的にmulticolinearityとなる

275:デフォルトの名無しさん
17/01/30 23:39:26.17 4DZGSucb.net
数学わからないこのスレの連中のためにより初等的な説明しておくと
y = a + b x_1 + c x_2 + epsilon (a, b, c はパラメータ)
として、multicolinearityというのはx_1 = k x_2 と両者の間に線形関係が
成立していると生じる。
なぜなら、このとき
y = a + b (k x_2) + c x_2 + epsilon
= a + (b k + c) x_2 + epsilon
となって、b, c が単独では識別できないから
x_1とx_2が線形の関係ではない(例えばx_1 = k x_2^2)みたいな
場合はx_1とx_2には相関はあるがさっきみたいな現象はおこらない

276:デフォルトの名無しさん
17/01/30 23:44:58.54 h4BAmtHI.net
何当たり前のことをドヤ顔で言ってるの

277:デフォルトの名無しさん
17/01/30 23:49:41.28 4DZGSucb.net
答え教えてもらった後ならなんとでもいえるわな
恥ずかしいやつ

278:デフォルトの名無しさん
17/01/31 00:04:50.06 oDkERMdj.net
へえ、つまりID:4DZGSucbは>>73の後半は有りと言ってるわけだ
ワラワラだね

279:デフォルトの名無しさん
17/01/31 00:05:56.87 oDkERMdj.net
レベル低いと言っておきながらww

280:デフォルトの名無しさん
17/01/31 00:20:20.73 h46DvQd2.net
ID:4DZGSucb
草生えるwwwwwwwwwwwwwwwwwwwwwwwwww

281:デフォルトの名無しさん
17/01/31 00:35:55.39 oDkERMdj.net
>>268で十分なのに
>>269-270で不要な説明始めたな。

282:デフォルトの名無しさん
17/01/31 01:17:28.09 N6k0ulX3.net
>>276 全く同意。

283:デフォルトの名無しさん
17/01/31 01:50:36.79 n31H1l85.net
>>269
ありがとう!
自分は学部生でまだまだレベル低くて申し訳ないが参考になります!

284:デフォルトの名無しさん
17/01/31 05:08:31.52 7lVbi0HF.net
>>260
自分が望む能力に応じたノイズを乗せればいいのでは?

285:デフォルトの名無しさん
17/01/31 20:53:20.84 JuPNoFZT.net
小高知宏の機械学習と深層学習に書かれているQ学習が分からないのですが。
迷路抜けを課題に選んでいますが、「迷路抜け知識」とは何でしょうか?
一度迷路のゴールに到達してしまえば学習も何もないですよね?
どういうことなのか分かりやすく説明をお願いします。

286:デフォルトの名無しさん
17/01/31 21:07:13.07 h46DvQd2.net
>>280
アホなの?本当にアホなの?
頭に脳みそ入ってるbot?

287:デフォルトの名無しさん
17/01/31 21:47:50.33 JuPNoFZT.net
Q学習って何ですか?

288:デフォルトの名無しさん
17/01/31 22:41:25.06 +Vts4fVJ.net
>>282
URLリンク(www.sist.ac.jp)
強化学習のひとつ
正解に至った場合、及びそれにいたる過程までの行動に対して報酬(スコアなど)を


289:逐次与えていく。 報酬を何度も与えた(学習させた)後、各状態において高いスコアの方向に行動を選ばせるようにすると その学習をさせたモノは最善の行動(最短のゴール)をするようになってくれる。 wikipediaでも概要が書いているでしょ。 小高知宏の本は買って読んだけど、そのサンプルコードは Q(s,a)という変数から素直にコード化しておらず、 例題に合わせて変に捻ったコードだからわかり難い、 というか他の章のサンプル例もあんまり良くない。



290:デフォルトの名無しさん
17/01/31 23:09:29.24 FyEWGqXh.net
説明長い。
この方法の一番大事な点は収束性について数学的な保証がついてること。

291:デフォルトの名無しさん
17/01/31 23:40:16.00 JuPNoFZT.net
>>283
ありがとうございます。
状態 s_t のときに、行動 a_t を起こすと、状態 s_(t+1) になるという
ルールはあらかじめ与えられているのでしょうか?

292:デフォルトの名無しさん
17/02/01 01:21:45.65 Q08T0ylq.net
上に進んだら上のマスに進むってルールはあらかじめ与えられているのでしょうか

293:デフォルトの名無しさん
17/02/01 11:11:23.91 vfxl2l7p.net
ブームは池沼も呼び込むな

294:デフォルトの名無しさん
17/02/01 12:26:29.12 NxlaBb9k.net
丁寧語のアホには本当に苛つかさせられるな

295:デフォルトの名無しさん
17/02/01 12:47:45.64 UKuyDP5N.net
URLリンク(ainow.ai)

296:デフォルトの名無しさん
17/02/01 12:50:10.76 BmnrBHXM.net
>>280
『分かりやすく説明お願いします』はかなり図々しい発言。

297:デフォルトの名無しさん
17/02/01 12:52:52.97 QU1UVS/Z.net
>>290
それは俺も思ったわ

298:デフォルトの名無しさん
17/02/01 13:00:21.02 BmnrBHXM.net
アルゴリズムは知恵袋にでも聞けばよろし。
興味も答えるメリットもなきゃ誰も答えない(この発言も優しい)

299:デフォルトの名無しさん
17/02/01 14:23:10.38 ghQ3I59v.net
>>289
>企業からは、AIに関わる事業の推進
そういう意図なら産総研を載せるべきだと思う。
人工知能研究センター
URLリンク(www.airc.aist.go.jp)
産総研人工知能セミナー
URLリンク(www.airc.aist.go.jp)

300:デフォルトの名無しさん
17/02/01 15:03:13.57 w668KZ70.net
Pythonでimport sklearnすれば機械学習できるし余裕っていう派に限って
機械学習は万能!しゅごい!とか言ってて迷惑
数学がわからないのに機械学習を使いこなせるわけないだろ

301:デフォルトの名無しさん
17/02/01 15:41:14.66 UKuyDP5N.net
>>293
書き漏れてしまったが無断でこういう一覧作ってるけどどうなんだ?
あと他に有力な研究者とかいないの?

302:デフォルトの名無しさん
17/02/01 18:16:22.74 ZDdrP06J.net
小高知宏の機械学習と深層学習に書かれているQ学習が分からないです。
前半のロボットを例にした説明は大体分かります。
ところが迷路を例にした例が分かりません。
分からないので、Cで書かれたプログラムを読んでみました。
S14という状態がゴールのようです。(S14に達すると報酬がもらえるため)
でも、迷路のプログラムの目的はゴールへ到達することです。
だとすれば、S14に達した時点で目的達成ということになるので
はないでしょうか?だから、学習した成果であるQ値のテーブルが
何の役に立つのか分かりません。1度ゴールにたどり着けばもう
用済みなのではないかと思ってしまいます。
それともう一つ分からないのは、
p.66の2式
qv = qvalue[s] + ALPHA * (1000 - qvalue[s]);
qv = qvalue[s] + ALPHA * (GAMMA * qmax - qvalue[s]);;
です。なぜこのような式で、 Q値を更新しているのでしょうか?

303:デフォルトの名無しさん
17/02/01 18:18:16.38 ZDdrP06J.net
>>283
をこれから読んでみようと思います。
他に分かりやすい説明があれば本などを教えてください。
ビショップの本には載っていないようですね。

304:デフォルトの名無しさん
17/02/01 18:20:14.37 ZDdrP06J.net
>>296
プログラムでは、ゴールである、S14に到達した後も、学習をつづけています。
それとS11に達したときにも報酬がもらえるようにする場合の実行結果も載っていますが、
これは何のために報酬を与えているのでしょうか?

305:デフォルトの名無しさん
17/02/01 18:20:57.93 ZDdrP06J.net
>>298
ゴールに到達した後も学習を続ける理由がさっぱり分かりません。

306:デフォルトの名無しさん
17/02/01 18:23:00.85 ZDdrP06J.net
とりあえず、よくわからないので、第3章を読むことにしましたが、
やはり気になります。

307:デフォルトの名無しさん
17/02/01 18:33:54.64 GM65x3HP.net
>>298
その本は読んでないけど
複数のルートがある場合より早くゴールに到達できる方が良いんじゃね

308:デフォルトの名無しさん
17/02/01 19:10:47.50 ZDdrP06J.net
>>301
ありがとうございました。
うーん。迷路の例はスタート地点を根とする木でゴールがある一つの葉なんですよね。
だから、ルートは一通りしかありません。
Q学習を説明する例として迷路抜けが適切なのかどうなのかといった問題も
あるのではないかと思いますがいかがでしょうか?

309:デフォルトの名無しさん
17/02/01 19:17:24.99 ZmlI1e/L.net
わからないから質問するのはまだ理解できるけど、わからないのに回答するのは有害すぎんじゃねえのか・・・・
早くゴールできたほうが良いとか、人間のただの希望にすぎねえじゃねえか・・・・

310:デフォルトの名無しさん
17/02/01 19:31:48.46 ghQ3I59v.net
>>295
公共機関である大学の研究室一覧に「無断で作ってる」は言いがかりだ。
一覧公開が駄目なら追加情報をこのスレに書くのも駄目だろう。

311:デフォルトの名無しさん
17/02/01 19:35:43.71 ghQ3I59v.net
>>247>>249
科学計算における均質化、あるいはなぜPythonが着実に他言語のシェアを奪っているか
URLリンク(chezou.hatenablog.com)
3年前の記事だが、その後さらにPython一人勝ちが進んだ。
Pythonに集中する方針でよいと思う。

312:デフォルトの名無しさん
17/02/01 23:56:46.18 BJ8iAj+1.net
いまどきビジネスマンにRおススメってのは無いわな

313:デフォルトの名無しさん
17/02/02 00:29:59.47 y6QWCKDD.net
jupyter使ってるけど、使い心地がデスクトップであるRstudioの方が好き

314:デフォルトの名無しさん
17/02/02 02:37:28.63 4EL6pZGW.net
jupyter notebookは気軽でいいよ。
URLリンク(www.websuppli.com)
この辺とか導入からいい感じまとまってるからためした方がいいね

315:デフォルトの名無しさん
17/02/02 09:25:36.20 Yy+UgsXH.net
Jupyter Notebookの導入は済んだかな?
では講義ノートをどうぞ。
Scipy Lecture Notes
URLリンク(www.turbare.net)

316:デフォルトの名無しさん
17/02/02 15:19:52.02 NEZPvzut.net
日本語でよろ

317:デフォルトの名無しさん
17/02/02 15:56:14.99 45SIz+8C.net
仕事でRでデータ分析してるけど、周りがどんどんpythonに移行してて悲しいのぅ…

318:デフォルトの名無しさん
17/02/02 17:17:36.02 Ka4YZTeu.net
RのライブラリってPythonから普通に呼び出せるからね
汎用性のあるPythonの方が便利

319:デフォルトの名無しさん
17/02/02 20:22:08.98 gyj9WxhF.net
生成モデルがよくわからん
わかりやすいサイトとかない?

320:デフォルトの名無しさん
17/02/02 21:49:41.40 g2lbvvmJ.net
URLリンク(monadfx.com)
こんな情報商材が

321:デフォルトの名無しさん
17/02/02 21:57:01.03 +6LgrXhB.net
>>313
おまえには無理そう
URLリンク(www.slideshare.net)
URLリンク(www.slideshare.net)

322:デフォルトの名無しさん
17/02/02 22:19:58.16 kID0DPI+.net
前も同じこと言った気がするけどslideで勉強する気にならないわ

323:デフォルトの名無しさん
17/02/02 22:32:10.80 +6LgrXhB.net
スルーすればやる気があれば自分で探せ、探せなければ勉強する資格はない

324:デフォルトの名無しさん
17/02/02 22:33:12.51 +6LgrXhB.net
高卒ならしょうがないけどw

325:デフォルトの名無しさん
17/02/02 22:44:26.54 l9Q1PWti.net
小高知宏の機械学習と深層学習を読んでいます。
今、第3章の遺伝的アルゴリズムによるナップサック問題のプログラムを読んでいます。
この手法は乱暴すぎないでしょうか?
第一、これでなぜうまくいくのかの説明は困難なのではないでしょうか?
実際、何の説明もありません。
そして、最適解の9割程度の解しか得られません。
乱暴であるうえに、優れた手法でもありません。
生物学から、染色体、染色体の交叉、突然変異などとキーワードをなんとなく
借りてきて、なんとなく本当に似ているのかどうかも分からずに真似事をやって
いるだけのように思います。ただの遊びの域を出ていないように思います。
結果もさんざんですね。
たとえば、突然変異に本当に意味はあるのでしょうか?
とにかくいい加減すぎます。

326:デフォルトの名無しさん
17/02/02 22:45:38.09 +6LgrXhB.net
>>316
>前も同じこと言った気がするけど
コテつけるなり分かるようにしろ

327:デフォルトの名無しさん
17/02/02 22:46:32.06 l9Q1PWti.net
ニューラルネットワークも最初は、生物学からニューロンなどのキーワードを
借りてきただけの単なる思いつきだったわけです。
たまたま、最近、計算機パワーに頼って、画像認識などの分野でいい結果を
出しただけではないでしょうか?
もっといい方法などいくらでもありそうな気がします。
とにかく発想がチープすぎます。

328:デフォルトの名無しさん
17/02/02 22:48:15.31 l9Q1PWti.net
飛行機を作るのに鳥をまねて作るような愚かさに通じるものがあります。
滑稽ですね。

329:デフォルトの名無しさん
17/02/02 22:49:14.35 +6LgrXhB.net
322 名前:デフォルトの名無しさん[] 投稿日:2017/02/02(木) 22:48:15.31 ID:l9Q1PWti
飛行機を作るのに鳥をまねて作るような愚かさに通じるものがあります。
滑稽ですね。

330:デフォルトの名無しさん
17/02/03 00:34:58.09 jr+wUUNq.net
滑稽爺はブログ開設して自説はそっちに書け
いつまでスレに居座るつもりよ?

331:デフォルトの名無しさん
17/02/03 00:36:43.76 +vUbiEsM.net
高卒様スレッドに逆戻りか

332:デフォルトの名無しさん
17/02/03 00:49:01.46 3jZyLbrP.net
>>319-322
機械学習の読書感想スレへどうぞ。
人工知能ディープラーニング機械学習のための数学
スレリンク(tech板)

333:デフォルトの名無しさん
17/02/03 01:19:39.56 HsEUssYK.net
もっといい方法がいくらでもあるならそれを使え
終了

334:デフォルトの名無しさん
17/02/03 03:36:24.39 3jZyLbrP.net
>>315-316
PFIセミナーの動画とブログもあるよ。
PFIセミナー2016/2/25:生成モデルのDeep Learning
URLリンク(www.youtube.com)
なんちゃって!DCGANでコンピュータがリアルな絵を描く
URLリンク(yasuke.hatenablog.com)

335:デフォルトの名無しさん
17/02/03 04:30:35.31 c/3M2MXW.net
謎解きゲームは人工知能ではクリアできない

336:デフォルトの名無しさん
17/02/03 09:53:16.74 2Od1s7uP.net
>>328
宣伝乙。そんなもんを見るくらいなら、スタンフォードとかの講義を見たほうがマシだわ

337:デフォルトの名無しさん
17/02/03 11:16:48.30 wI6cZkmH.net
今まで黙ってたけど小高知宏の本こそチープ
なんでこんな本を参考にしようとしたのか共感できない

338:デフォルトの名無しさん
17/02/03 12:15:34.18 3jZyLbrP.net
>>330
スタンフォードの機械学習コースを見るのは結構


339:だけど、 これは基礎知識を学ぶコースで深層生成モデルは範囲外だ。 Machine Learning https://www.coursera.org/learn/machine-learning 数学を避けてきた社会人プログラマが機械学習の勉強を始める際の最短経路 http://qiita.com/daxanya1/items/218f2e3b922142550ef9 >基本英語ですけど、このコースの動画に全て日本語字幕がついています



340:デフォルトの名無しさん
17/02/03 16:45:24.28 fuOx2c+7.net
Pythonにやられっぱなしだったけどデータサイエンス分野でのRubyの逆襲が始まった
URLリンク(www.s-itoc.jp)

341:デフォルトの名無しさん
17/02/03 17:55:54.58 CmWPA7NT.net
新聞にSOINN はプログラムするのではなく、データを与えることで自ら育つ人工知能です。
ノイズが混入したデータであっても、そのまま学習データとして活用できます。
と書いているのですが何故このスレで話題にならないのですか

342:デフォルトの名無しさん
17/02/03 18:15:23.63 WzhGWWCV.net
小高知宏の本を読み終わりました。
ひどい本ですね。
まずプログラムが下手。
プログラムがトリビアルすぎる。
スカスカの本ですね。

343:デフォルトの名無しさん
17/02/03 18:33:42.96 WzhGWWCV.net
{w_n} は正の実数からなる単調減少数列で、 w_n → 0 (n → ∞) をみたすとする。
{z_n} を複素数列とする。
S_n = z_1 + … + z_n とする。
{S_n} は有界であるとする。
(1)
Σ z_n*w_n は収束することを示せ。
(2)
T := Σ z_n*w_n
M := sup{ |S_n| | n ∈ {1, 2, …}}
とする。
|T| ≦ M * w_1
であることを示せ。

344:デフォルトの名無しさん
17/02/03 18:35:23.54 VobJ0y4v.net
松坂の馬鹿が誤爆

345:デフォルトの名無しさん
17/02/03 19:18:39.80 +vUbiEsM.net
誰も収束すると言ってないものを示せとか、もう高卒もびっくりの域に来てるな

346:デフォルトの名無しさん
17/02/03 22:00:56.06 jr+wUUNq.net
>>333
Rubyは無いよー
Webアプリでも他の言語にリプレースされつつあるよー

347:デフォルトの名無しさん
17/02/03 22:16:59.94 SQcrsSzl.net
>>333
数値計算系弱いんだからしゃしゃってくるなで国内外の意見は一致している
リスクの高い戒律が不可思議な宗教言語って認識で最近だと使われない

348:デフォルトの名無しさん
17/02/03 23:23:36.36 /IIXh36F.net
数理工学なんて専門家に任せようぜ

349:デフォルトの名無しさん
17/02/03 23:37:44.30 6hxC+npH.net
>>333
個人的にこれは嬉しい、機械学習はPython使ってるけどRubyラッパー出てくれたらそっち使うわ

350:デフォルトの名無しさん
17/02/04 09:34:45.08 8q1zjLyK.net
アクセスアップとお小遣い稼ぎの裏技
トラフィックエクスチェンジ
URLリンク(tra-chan.jugem.jp)

351:デフォルトの名無しさん
17/02/04 09:53:16.48 aVxGT+Bl.net
それって詐欺に近いのでは?

352:デフォルトの名無しさん
17/02/04 11:07:35.25 G5jYnWHR.net
>>344
マルチ商法と似た感じかもな

353:デフォルトの名無しさん
17/02/04 11:24:54.37 vecr3pus.net
>>334
パット見、インターフェースに課題があるからだろ。

354:デフォルトの名無しさん
17/02/04 11:35:01.71 RJ7Gigdl.net
ロジスティック回帰もAIなのね
病態悪化につながる患者行動をAIが予測
URLリンク(www.ntt.co.jp)

355:デフォルトの名無しさん
17/02/04 11:39:32.98 4LwgUKBb.net
現在はニューラルネットが飛び抜けてるから他の古典的なアルゴリズムじゃお話にならん

356:デフォルトの名無しさん
17/02/04 11:54:45.05 3hnc95W0.net
URLリンク(www.youtube.com)

357:デフォルトの名無しさん
17/02/04 12:17:47.38 mbPzGGcs.net
データセットが少ない場合はxgboostで多かったらニューラルネット使えばOK

358:デフォルトの名無しさん
17/02/04 12:22:57.39 RJ7Gigdl.net
発表者「この特徴量が効いてました」
聴衆「( ´_ゝ`)フーン」
オワリ

359:デフォルトの名無しさん
17/02/04 12:32:31.00 Lp8xjVA8.net
なんで俺の発表知ってんの?!

360:デフォルトの名無しさん
17/02/04 13:41:09.65 tjP1zdkj.net
病気だからどれが影響与えるか知ることは意味あるだろ

361:デフォルトの名無しさん
17/02/04 13:57:30.27 aVxGT+Bl.net
んなもん主成分分析で十分じゃね?

362:デフォルトの名無しさん
17/02/04 14:07:09.23 cCtqcbdk.net
>>347
受診中断っておい見出し詐欺じゃねーか

363:デフォルトの名無しさん
17/02/04 14:42:59.30 Ae9+iluB.net
>>354
自称理論屋のダメサラリーマンは仕事したら?

364:デフォルトの名無しさん
17/02/04 20:31:11.19 Ccv7kUBf.net
pix2pixで画像いぢりたいのですが、GPUってGTX1060の6GBで回せますか?
GTX1070にしといた方が無難でしょうか?
服を脱がすフィルター作りたいです

365:デフォルトの名無しさん
17/02/04 21:00:49.01 x08HX1ah.net
GTX1080の方がいい

366:デフォルトの名無しさん
17/02/04 22:17:39.93 2FmL4hI1.net
>>334
k-means clusteringの亜種に過ぎないから。
元々k-means clusteringで上手くいった事例に対して多少精度は上がるけど
逆にそうではない事例においては上手くはいかない、逆に精度が悪くなる。
それにマスコミは凄いと言っているけど具体的にアルゴリズムとか説明していないでしょ。

367:デフォルトの名無しさん
17/02/04 23:22:53.22 oyC8JJwB.net
AIAIって頭の悪いマスゴミが煽って、盛りまくった記事書いて、それを情弱が信じ込んで酷い状況だな
最近だとPFNのchainerのAI自動着色()とかどっかで見たパクリでドヤも出る始末、これからはAIの時代になるとか戯言ツイートやアフィカス記事が湧いてるし
大丈夫か日本人?
海外でもこういうのが大量発生してるんだろうか

368:デフォルトの名無しさん
17/02/04 23:35:45.67 RUgrdXcX.net
そんなに興奮しなくてよろしい

369:デフォルトの名無しさん
17/02/05 00:00:02.78 dIHobaUF.net
>>360
AIブームは景気の波のように何度も来ている。
「今のAIブームがシンギュラリティまで続く」という予想は
「ニューエコノミーで永遠の好景気が続く」ぐらい間違いだろう。
今のAIブームは高性能のパターン認識を実現だけで終わるかもしれない。
でもAIブームの繰り返しは景気変動ほどの実害はないよ。
演繹と組み合わせた抽象的思考が実現したら次のAIブームが始まる。

370:デフォルトの名無しさん
17/02/05 00:37:10.47 +9Zhktnd.net
論理と確率を混ぜた推論とか、人間みたいに柔軟にデータを融合させたり(言語モデルで分類した花と、画像モデルでの花をどう関連付けるとか)、統計モデル自体を切り替えたりするような、単一の学習機以外の話題をあまり聞かない・・・・

371:デフォルトの名無しさん
17/02/05 01:23:17.57 +PejzSCQ.net
完全な自然言語処理ができるかどうかまではたしかにわからないが
確実に頭打ちが来るとまで言えないだろう

372:デフォルトの名無しさん
17/02/05 06:08:03.94 dIHobaUF.net
>>334
人工知能SOINNの機械学習手法は学習速度を重視していて精度はDeep Leaningより劣る。
このスレは人工知能スレではなく機械学習スレだから人工知能SOINNは注目されにくい。
Qiitaの記事は人工知能SOINNと機械学習手法SOINNを区別していないが情報がまとまっている。
超高速オンライン転移学習
URLリンク(www.slideshare.net)
【 自律学習型人工知能 事例調査 】 東工大 長谷川研究室 発の「SOINN」(自己増殖型ニューラルネットワーク)がすごい
URLリンク(qiita.com)

373:デフォルトの名無しさん
17/02/05 06:09:50.75 dIHobaUF.net
>>359
新聞に載ったSOINNはオンライン教師なし学習手法ではなく学習型の汎用人工知能だそうだ。
汎用人工知能SOINNの目標はパターンベース人工知能なのだろう。
SOINN:Self-Organizing Incremental Neural Network
URLリンク(www.haselab.info)
>自己増殖型ニューラルネットワーク(SOINN)は,Growing Neural Gas(GNG)と
>自己組織化マップ (SOM) を拡張した,追加学習可能なオンライン教師なし学習手法です.
SOINNとは?
URLリンク(soinn.com)
>人工脳「SOINN」って何?
>人を含む動物は「脳」を持ち、運動や視覚、聴覚、記憶をはじめ、
>連想、発想、感情といった高度な知的活動まで、全て脳で行っています。
>同じように、「人工脳」は感情を除く多くの知的情報処理を担うことができる、
>学習型の汎用人工知能です。
「パターンベース人工知能」とはなにか?
URLリンク(www.slideshare.net)

374:デフォルトの名無しさん
17/02/05 07:15:07.17 D3Czko62.net
長谷川修って在日じゃない?

375:デフォルトの名無しさん
17/02/05 07:25:02.53 KCFRW6Ot.net
>>336 ワロタ 誤爆だよね
Abel's test - Wikipedia
URLリンク(en.wikipedia.org)
それはそれとして部分足し算の方法はとっても役に立つ奴だと思うので
real analysis - Prove if ... Mathematics Stack Exchange
URLリンク(math.stackexchange.com)
or
URLリンク(goo.gl)

376:デフォルトの名無しさん
17/02/05 12:24:23.72 5OlxdBIJ.net
>>334
はっきり言って実績が少なすぎる。
取り上げるほどのものではない。
既存の手法より優れているかどうかの理論的なあとづけがない、かつ、ほんの数人しか手を付けてなく実行例が少ない段階なのに勝手にマスコミが取り上げて騒いでるだけ。

377:デフォルトの名無しさん
17/02/05 13:02:22.57 4tZEJdYq.net
>>369
日本だと理論が優れているかではないんだよ
どれだけ政治力で採用できるかでしかない
セキュリティフォントもそういう仕組みでできているし

378:デフォルトの名無しさん
17/02/05 13:09:25.57 Ms5Wpsx7.net
ビックリするくらい人工知能に飽きてきてワロタw
なんか馬鹿らしくなってきたw普通に明日から仕事頑張りますwww
機械学習?要らねえっすわ(´・ω・`)

379:デフォルトの名無しさん
17/02/05 13:14:50.68 +MDXuZ60.net
人工知能に変わる言葉が必要だと思う
あきらかに知能じゃないし

380:デフォルトの名無しさん
17/02/05 13:44:42.82 iQ4qqO8F.net
>>360
PFN みたいに迷走してるとこを代表例にするなやw あそこはパクってドヤ顔するだけじゃんw

381:デフォルトの名無しさん
17/02/05 13:46:52.50 iQ4qqO8F.net
>>371
さよなら~ (^O^)///

382:デフォルトの名無しさん
17/02/05 13:48:50.10 iQ4qqO8F.net
>>372
良いとは思ってないが、ビッグデータよりマシじゃね。少なくとも客の引き合いは滅茶苦茶増えた

383:デフォルトの名無しさん
17/02/05 13:59:48.18 e8uN1lf2.net
機械学習は金がかかるのが弱点。
クラウド課金がきついんで、自前で Tesla を買うか思案中

384:デフォルトの名無しさん
17/02/05 14:08:18.79 iQ4qqO8F.net
K80 使ってるけど、すぐに物足りなくなるぞ

385:デフォルトの名無しさん
17/02/05 14:09:52.65 Ww22+xsq.net
顧客「なぜこのような結果になるのでしょうか?」
ベンダー「人工知能が計算した結果なのでわかりません」
顧客「(´・∀・`)ヘー」
オワリ

386:デフォルトの名無しさん
17/02/05 14:20:01.24 0spimbS2.net
>>378
言いたいことは分かるが、AIブームに乗り遅れないことが大切で早急な結果は求めない客もいる

387:デフォルトの名無しさん
17/02/05 14:56:34.91 jzd4lUd3.net
VRと同じ
使うこと自体が目的で、使う目的はどうでもいい

388:デフォルトの名無しさん
17/02/05 14:56:45.33 IfqxbMFN.net
>>369
マスコミは金払えば取り上げるから有効かどうかの指標にはならない

389:デフォルトの名無しさん
17/02/05 14:57:43.63 IfqxbMFN.net
>>376
その投資分を回収できるの?

390:デフォルトの名無しさん
17/02/05 14:59:06.62 0spimbS2.net
今のマスゴミなんて単なる広告媒体でしかないし、そもそも技術が分かるはずない

391:デフォルトの名無しさん
17/02/05 15:04:32.70 e8uN1lf2.net
>>382
それは何とも… ただ、高スペックな GPUなしでは実用的なモデルのトレーニングは無理なんで。

392:デフォルトの名無しさん
17/02/05 15:11:03.45 IfqxbMFN.net
>>384
トレーニング後の運用はCPUで足りるのかな?

393:デフォルトの名無しさん
17/02/05 15:16:37.85 e8uN1lf2.net
>>385
それはケースバイケースかと。
自分が扱ってる範囲内だと運用はCPUでもいける、もちろんGPU使えるならベターだが

394:デフォルトの名無しさん
17/02/05 15:43:24.77 CY/qlqbs.net
こんにちは
ディープラーニングで回帰問題(材料となるデータを入力してある値を予想するようなこと)をしたいのですが
応用例や実装が載っているサイトはないですか???

395:デフォルトの名無しさん
17/02/05 15:47:41.54 1jtkPm7i.net
>>372
AI

396:デフォルトの名無しさん
17/02/05 15:49:21.67 IfqxbMFN.net
>>387
なんでディープラーニング?
普通に重回帰分析とかでいいんじゃね?

397:デフォルトの名無しさん
17/02/05 16:02:49.97 CY/qlqbs.net
非常に言いにくいのですが,流行りのキーワードを取り入れたいということになります
結果は正直うまく行かなくてもいいので,とりあえず動くようなものを作りたいです

398:デフォルトの名無しさん
17/02/05 16:05:54.65 0spimbS2.net
>>390
それなら定番の deep learning フレームワークのチュートリアルを見れば回帰の例も出てるよ

399:デフォルトの名無しさん
17/02/05 16:44:33.90 CY/qlqbs.net
すみません
本格的に無知なので定番のやつと言われても分かりません
どのページあるのか教えていただけますか???

400:デフォルトの名無しさん
17/02/05 16:51:17.27 7JTQPqgT.net
マテリアルインフォマティクスか。
言葉だけは流行ってるな。

401:デフォルトの名無しさん
17/02/05 16:58:09.34 5OlxdBIJ.net
>>370
頭悪いな。
なんで事象が違うセキュリティフォントを例にあげるw
最初に実績がないって言った。
それが全て
数人がやってみて効果があるなら広まるさ。理論を上げたのはバックアップがあるならなおのこと広まりやすいって話だよ

402:デフォルトの名無しさん
17/02/05 17:00:01.31 5OlxdBIJ.net
>>392
『ゼロから始めるディープラーニング』買え。それですむ

403:デフォルトの名無しさん
17/02/05 17:06:34.86 RbGNMM7m.net
>>392
無理しなくていいよ

404:デフォルトの名無しさん
17/02/05 17:20:44.45 CY/qlqbs.net
『ゼロから作るDeep Learning』は評判もよさそうで気にはなっていました
しかし,サンプルを見たところ『誰のための本ではないか?』の節に「本書は,主に画像認識を主題にしています」とあったのでこれは役に立たないだろうと判断したのです
URLリンク(ima)


405:ges-na.ssl-images-amazon.com/images/I/81Ggww6cNRL.jpg



406:デフォルトの名無しさん
17/02/05 17:31:50.68 yBpmeKwE.net
>>395
行列の積を行列の内積と書いているのはなぜなのでしょうか?

407:デフォルトの名無しさん
17/02/05 17:39:47.44 RbGNMM7m.net
偏執者

408:デフォルトの名無しさん
17/02/05 18:52:58.21 jzd4lUd3.net
>>397
じゃあ買わなくていいよ

409:デフォルトの名無しさん
17/02/05 20:16:08.35 dIHobaUF.net
>>369 >>394
特許検索ページで「長谷川 修 東京工業大学」で検索したら21件ヒットする。
そのうち7件がSOINN関連特許でSOINNの基礎技術は特許で固められていた。
特許が絡むSOINNは今後も東工大とSOINN株式会社しか研究しないだろう。
一方でDeepLearningは大勢が研究して途方もない速さで進歩していく。
ソフトウェア特許は計算機科学にとって有害すぎると思う。
特許・実用新案、意匠、商標の簡易検索
URLリンク(www.j-platpat.inpit.go.jp)
特開2014-164396 (LBSOINN)
  【課題】学習結果について優れた安定性を有する。
特開2012-084117 (転移学習)
  【課題】オンラインかつ追加学習が可能な属性の学習及び転移を実現すること。
特開2011-086132 (連想記憶)
  【課題】連想記憶システムに要求される機能に関して、
  従来より優れた性能を持つ連想記憶装置を提供すること。
特開2008-305129 (推論)
  【課題】入力パターンを実数値ベクトルにより表現することができると共に、
  連言、選言、否定を含む任意のif-thenルールを
  自己増殖型ニューラルネットワークによって学習させることができる
  推論装置、推論方法、及びプログラムを提供することを目的とする。
特開2008-299644 (追加学習)
  【課題】ノードの数を事前に決定することなく、逐次的に入力される
  新たな連想対を既存の知識を壊すことなく追加学習することができる
  連想記憶装置、連想記憶方法、及びプログラムを提供すること。
特開2008-299640 (時系列学習)
  【課題】状態数及び各状態の出力分布を自動的に決定して、
  時系列データの頑健なモデル化をすることができるパターン認識装置、
  パターン認識方法、及びプログラムを提供すること。
特開2008-217246 (ESOINN)
  【課題】高密度の分布の重なりを持つクラスを分離できる情報処理装置、
  情報処理方法、及びプログラムを提供すること。

410:デフォルトの名無しさん
17/02/05 20:29:07.19 e8uN1lf2.net
soinn の専用スレでやってくださいな、自演臭や宣伝臭が酷いわ

411:デフォルトの名無しさん
17/02/05 20:30:05.17 jqkSsLKy.net
SONIN、しつこいわ

412:デフォルトの名無しさん
17/02/05 20:31:27.87 jqkSsLKy.net
>>392
いや、本の名前を言ったわけじゃないのだが…
tensorflow でも chainer でも好きなフレームワークのチュートリアルを見たら、という話し

413:デフォルトの名無しさん
17/02/05 21:10:50.67 dIHobaUF.net
>>402
機械学習実装時に回避が必要なソフトウェア特許がなぜ宣伝に見える?
>>401は自己増殖型ニューラルネットワークには地雷があるという話だよ。

414:デフォルトの名無しさん
17/02/05 21:20:33.42 A4u3TAD4.net
>>405
他にもAIに関する特許があるんじゃね?

415:デフォルトの名無しさん
17/02/05 21:31:45.54 Oin6oDw+.net
とりあえずSONINからいったん話題をずらして。
興味もないのにクローズアップされるとただただ不快だわ

416:デフォルトの名無しさん
17/02/05 22:15:11.89 4rlIAJol.net
今の特許庁は特許ゴロの標的になってるぐらい審査がザルだからな
特許も無効審判ができるし、既に出してれば絶対有効な訳でもない
裁判になっても100%勝てるソフトウェア特許なんてないでしょ
freeeの糞特許なんて笑うレベル

417:デフォルトの名無しさん
17/02/05 22:24:08.90 +9Zhktnd.net
ジャスラックの件といい、ITと機械学習を


418:駆使して知的財産保護の仕組みを作り直せばいいのに




次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch