【統計分析】機械学習・データマイニング20at TECH
【統計分析】機械学習・データマイニング20 - 暇つぶし2ch250:デフォルトの名無しさん
18/08/31 17:32:55.30 xOkTAq7n0.net
特徴量200だと相関関係にある特徴量同士や結果にまったく影響しない特徴量が多そうだな
そういうのを絞らないとメモリを食うだけで確実な結果が出ないと思う

251:デフォルトの名無しさん
18/08/31 20:20:22.26 1Ee7C22hF.net
>>225
装置の故障に関係のある特徴量を調べたいだけなら
ランダムフォレストではなく、もっと別の識別器を使った方がいいんじゃないか

252:デフォルトの名無しさん
18/08/31 20:35:34.13 1Ee7C22hF.net
ランダムフォレストは不純度の減少に関係ある特徴量を重要度でピックアップしてくれるだけだから
故障の原因を調べるなら、むしろ関係のない特徴量を削ったり、選択したりする方に
機械学習を使うべきだと思うんだ
ロジスティック回帰とか、KNNにSBSを適用するとか
いきなりランダムフォレストでがばっとやってるなら雑過ぎると思う
あと装置について何も知らないなら
分析結果を提出して仕事完了以外に何も出来ない気がするんだけど

253:デフォルトの名無しさん
18/09/02 16:06:18.87 qpc9/9Oc0.net
>>225 です
レスくれた人ほんとにありがとう
一応自分では>>240で出した結果から重要度が高いものに対して>>238を出すところまではやってみた
ただ特徴量の選択だったり、自分で特徴量を増やしたりする必要がある可能性があったけどその辺が不十分だから正常時と不良時の変化は捉えきれなかった
急ぎの案件では


254:ないから装置に詳しい人にもっと詳細に聞いてから見直してみる



255:デフォルトの名無しさん
18/09/02 16:10:25.31 qpc9/9Oc0.net
>>242
自分なりに考えて削ったところ残ったのは半分くらいだった…選定が不十分だとは思うけど…
>>241
そんな多いんだ…
まだ素人だからその規模扱った事ないけど、データ数が少ないと使い物にならないのかな
>>244
特徴量の選択に機械学習を使うのか…
やったことないし考えたこともなかった
ロジスティック回帰は確率的に予測するモデルだっけ
KNNにSBSとか全然知らないからもっと勉強しないと…
今更だけどレス遅くなってすいません
やっぱ知識的な勉強もしなきゃだし、もっとkaggleみたいなので色々経験踏んだ方が良いのかな…

256:デフォルトの名無しさん
18/09/02 16:13:35.40 fTJM2v21F.net
>>238
この図って下三角は無駄やね

257:デフォルトの名無しさん
18/09/02 18:09:35.27 Gf+N3VgJ0.net
特徴200の例1万で正解ラベル付き、それでなんらかの故障の原因を
少数の特徴から説明をする必要性があるなら
PCAかけてからSVMでいいんじゃね?
ラベルないなら、明らかに異常時の正解ラベルを少数でも集めてから
アノマリーディテクション
それ以外になにかやりようがあるような案件に思えない

258:デフォルトの名無しさん
18/09/02 22:15:22.45 aecTCx63F.net
ランダムフォレストって入門書で機械学習の勉強をしたら一番最後に習うジャンルじゃないか
理論的にはかなり難しい分類に入るはずなんだけど、最初にやったんかい
入門的な範囲に関していえば、NNなんかよりよほど複雑だよな

259:デフォルトの名無しさん
18/09/02 23:37:09.90 N8NA3iwF0.net
そうか?

260:デフォルトの名無しさん
18/09/03 06:46:02.23 U0kvs2wf0.net
決定木好き
boostingも好き

261:デフォルトの名無しさん
18/09/03 08:17:31.91 EloH5MrPM.net
自分も>>230の通り装置自体の理解が先だと思う
つーかkaggleしかやったことのない新卒を現場に出すと
大抵 >>225 みたいになるので笑える
225は素直だしやる気もありそうだから大成すんじゃない?

262:デフォルトの名無しさん
18/09/03 08:23:54.20 6BBBjiRUa.net
新人なんだったら上司としては笑ってる前にとっとと装置持ってくるか設置場所に連れて行って触らせろよ

263:デフォルトの名無しさん
18/09/03 15:29:21.33 wK4QWbzI0.net
割り振られた仕事が酷いだけな気がするんだけど
不良品検知なら機械学習は有用だけど、トラブルの原因の特定とか厳し過ぎるだろ
俺が同じ仕事を課されても出来ない自信がある
まだ今後の仕事に繋がるスキルなら学ぶ気にもなるけど
一回限りの仕事でこれだったら職場を変えたくなるなw

264:デフォルトの名無しさん
18/09/03 16:17:20.76 rtNqvOTp0.net
>>254
確かにw
トラブルの原因とか、装置メーカーの仕事だろw

265:デフォルトの名無しさん
18/09/03 16:19:13.14 9EJYXAO+0.net
作った人間呼ばないと分からないからね

266:デフォルトの名無しさん
18/09/03 17:45:38.06 wkT01G1zp.net
>>254
トラブルの原因特定が目的として
機械学習を手段として用いるのは何故?
そう言う指示なのかな

267:デフォルトの名無しさん
18/09/03 21:12:36.40 dnewFDCcr.net
機械学習でなんかやってくれ
Iotでなんかやってくれ
AIでなんかやってくれ

268:デフォルトの名無しさん
18/09/04 10:56:36.92 5dUU1YfQa.net
機械学習エンジニアとして数学を理解しておきたい!ベクトルや行列を扱う線形代数学を学び直すために
URLリンク(codezine.jp)

269:デフォルトの名無しさん
18/09/05 12:59:13.40 b1qw9eMxM.net
機械学習の勉強やめるわ
物体検出が目標だったけど難しそうだからやめる

270:デフォルトの名無しさん
18/09/05 14:05:00.69 QYJ58+nmM.net
素人がこの分野に来るな!
二度と戻ってくるな

271:デフォルトの名無しさん
18/09/05 14:29:43.54 b1qw9eMxM.net
>>261
お前は


272:物体検出できんの?



273:デフォルトの名無しさん
18/09/05 14:30:57.14 cIoMrnpd0.net
やめた人はバイバイ
さようなら

274:デフォルトの名無しさん
18/09/05 17:36:23.04 gDzPhGyvM.net
何気ない挨拶に隠れてるありがとう

275:デフォルトの名無しさん
18/09/05 19:44:56.33 5UFd+wbIa.net
courseraやってたらいきなり「カクテルパーティーは行ったことありますよね?」とかいわれた

276:デフォルトの名無しさん
18/09/05 20:10:38.61 zx26krSSM.net
コーセラの機械学習コースムズいね。副読本が欲しい

277:デフォルトの名無しさん
18/09/05 21:19:39.48 LgMQqqcwa.net
つ 2ch

278:デフォルトの名無しさん
18/09/05 22:15:23.53 wwN3L3jw0.net
>>264
馬渡

279:デフォルトの名無しさん
18/09/06 08:25:46.34 GEddJh7F0.net
ケーセラ、ケーセラ、なるようになるさ、ケーセラ、セラ♭

280:デフォルトの名無しさん
18/09/06 09:37:35.55 x1lI3fWk0.net
>>266
なんとか3週目まで終わったわ!
英語だとなんとなく理解がぼやけて苦労してる

281:デフォルトの名無しさん
18/09/06 11:38:29.38 7zkKFy0ua.net
courseraは動画は日本語字幕付いてるが問題やテキストは当然英語なので英語のリーディング能力によって速度が全然違ってくる

282:デフォルトの名無しさん
18/09/06 11:53:54.00 EvGxKfYgM.net
octaveがムツカシイぞ

283:デフォルトの名無しさん
18/09/06 12:48:10.39 ntAiYVJqM.net
ここの奴ってministの延長しかできないんでしょ
物体検出できる奴いないの?

284:デフォルトの名無しさん
18/09/06 12:48:43.28 ntAiYVJqM.net
スペルミスったわwwwwwwwwwwwww

285:デフォルトの名無しさん
18/09/06 12:55:47.21 EvGxKfYgM.net
数カ月待てばワイがなるやで

286:デフォルトの名無しさん
18/09/06 12:56:40.60 ntAiYVJqM.net
>>275
一ヶ月俺がやってmnist理解したから数ヶ月じゃ無理じゃね?

287:デフォルトの名無しさん
18/09/06 12:57:02.77 ntAiYVJqM.net
やっぱいけるかもな
効率よくやれば

288:デフォルトの名無しさん
18/09/06 13:23:00.99 hdmlXJ0Ba.net
高精度のモデル作るだけでお金もらえる仕事ないかな~

289:デフォルトの名無しさん
18/09/06 13:47:17.51 aZ3qvCMza.net
>>278
kaggle

290:デフォルトの名無しさん
18/09/06 16:12:49.44 eIqRmgxb0.net
kaggleの一番の問題点は、計算資源は自前調達なこと

291:デフォルトの名無しさん
18/09/06 16:49:43.44 hpVTS5J7M.net
普通のPCでカグりたい。svmもこれから勉強(汗

292:デフォルトの名無しさん
18/09/06 17:46:24.65 n8sIsSj/a.net
個人で10万円台のPCでkaggleコンペの賞金圏内って狙えるものなの?

293:デフォルトの名無しさん
18/09/06 18:22:05.64 hpVTS5J7M.net
仮想通貨の採掘みたいになってくるんか。

294:デフォルトの名無しさん
18/09/06 18:33:14.28 oTJZiE1f6.net
初めまして失礼します
最近tensorflowにて機械学習を始めました。参考にしている下記サイトのソースコードを読んでいるのですが
URLリンク(docs.fabo.io)
このサンプルコード中のどの変数に最終的なテストデータの実行結果が格納されているのでしょうか?
親切に [0,1,2,0,・・・,0,1]のように格納されているのか、はたまた評価関数がsoftmaxなのでargmaxを使って取得するのか・・・分かる方ご教授いただけるとありがたいです。

295:デフォルトの名無しさん
18/09/06 19:06:23.57 ft00C17ua.net
>>284
loss_test_ と acc_test_

296:デフォルトの名無しさん
18/09/06 19:34:02.13 WZQ2BMHpM.net
>>281
コホーネンこそ至高(嘘)

297:デフォルトの名無しさん
18/09/06 19:52:27.22 oTJZiE1f6.net
>>284 追記です
ソースコード中のtf.argmax(pred,1)に実行結果が格納されているのは分かったのですが、
これをどう取得すればいいのかがわかりません
print(pred)やprint(tf.argmax(pred,1))等をsess.close()(ソースコード内の最後の行)の前後に入れてみたりしましたが
Tensor("ArgMax_2:0", shape=(?,), dtype=int64)このような出力がされるだけでした

298:デフォルトの名無しさん
18/09/06 19:53:40.60 oTJZiE1f6.net
>>285
書き込んでいるうちに返答が・・・argmaxの方じゃないのか・・・試してみます

299:デフォルトの名無しさん
18/09/06 19:59:15.30 oTJZiE1f6.net
acc_test_は精度の%表示の方がでてきました。
取得したいのはモデル学習後にテストデータを通した際の出力結果で
文章が足りなかったみたいです、すみません
お分かりになればご教授ください

300:デフォルトの名無しさん
18/09/06 20:04:09.83 N8vSkMund.net
>>289
多分 tf の理解不足、テストデータを与えた出力は >>285 さんので合ってる

301:デフォルトの名無しさん
18/09/06 21:06:50.37 gGQNDXVXd.net
>>290
外出中につきID変わりまして失礼します
acc_test_をそのままprintするのではなく何かを追記すると出力層の結果もでるのでしょうか?

302:デフォルトの名無しさん
18/09/06 21:30:30.68 dF1C4l95d.net
eval()使わないとテンソルの内部は見られないねえ
print(pred.eval())
みたいに書くといいよ

303:デフォルトの名無しさん
18/09/06 21:30:42.99 8Gs/SO310.net
>>280
Google Colaboratoryだかって使えないの?

304:デフォルトの名無しさん
18/09/06 21:56:39.64 gGQNDXVXd.net
>>292
ありがとうございます
帰宅したら試してみます

305:デフォルトの名無しさん
18/09/06 23:13:24.87 42ButyNI0.net
教師なし学習の部分勉強し始めたけどこれまた難しい
主成分分析とかめっちゃややこしい…
詰まりすぎて参考書進まない

306:デフォルトの名無しさん
18/09/07 02:43:59.86 i5TKiFX30.net
mfccを特徴量にして深層学習をしようと思ったけどあまり学習しない・・・
たぶんmfccをそのまま使うと値の差が大きすぎるからだろうけどこういう場合の正規化って何が一般的なんだろう?

307:デフォルトの名無しさん
18/09/07 03:39:19.22 4D0gsWdJ0.net
音声処理は専門外だけど、
信号処理の一般論として多重に関数通すほど精度低下するからよくないぞ

308:デフォルトの名無しさん
18/09/07 22:28:06.25 xcgQ57X/a.net
Courseraのカーネル法の説明、あれで分かる奴おるんか?

309:デフォルトの名無しさん
18/09/07 23:54:38.38 AkwTHGBK0.net
コーセラ化粧品歌謡ベストテン

310:デフォルトの名無しさん
18/09/08 12:29:52.26 zjq/iq32d.net
カーネル法はカーネル法の項目で分けるべきだと思うんだけどな
応用先はサポートベクトルマシンだけでない。
主成分分析、巡回セールスマン問題など多種多様

311:デフォルトの名無しさん
18/09/08 13:55:28.59 dJjhtWR30.net
カーネル三打数

312:デフォルトの名無しさん
18/09/08 15:15:07.20 phMov0/0M.net
何週間かしたら追いつくからちょっと待っててね♡

313:デフォルトの名無しさん
18/09/08 22:11:42.69 Mc6Ny40VM.net
そんなあなたにRANSAC

314:デフォルトの名無しさん
18/09/09 08:25:27.74 Uy32x6ZT0.net
最初Octave覚えるのうぜえ、とか思ってたけど、
Octaveに慣れると、numpyの行列表現が面倒くさくてたまらなくなるね

315:デフォルトの名無しさん
18/09/09 09:02:42.81 eiptmUtyM.net
ex2のcost関数はiでforループ回してsumしてくしかないのかなあ。octaveなら全データまとめてベクトル演算出来ないかと期待してたんだけど

316:デフォルトの名無しさん
18/09/09 10:04:24.64 13i/0Tbj0.net
numrubyとかまだですか?

317:デフォルトの名無しさん
18/09/09 11:24:58.51 Uy32x6ZT0.net
>>305
forループなしで行けるよ

318:デフォルトの名無しさん
18/09/09 11:37:36.75 vA+7RJ4hd.net
AIってなんで言語の意味が理解出来ないの?

319:デフォルトの名無しさん
18/09/09 11:40:09.66 kzlGF2pOF.net
言語に意味が無いからかも知れないね

320:デフォルトの名無しさん
18/09/09 11:40:19.63 l6rR/pccM.net
>>308
プログラミング言語理解してるじゃん

321:デフォルトの名無しさん
18/09/09 13:02:46.43 qrt/xXSoM.net
>>307
どうしてもJの値が期待値の3倍になっちゃうので完全ベクトル化は諦めたよ

322:デフォルトの名無しさん
18/09/09 15:07:04.37 mmYNGw0Ja.net
courseraの2週目まで来てやっとプログラミング課題始めたけどこれ英語ダメダメな人には結構無駄に時間かかりそうだな
自分はある程度読めるからいいけど英語アレルギーの人には15ページの英文テキストとかハードル高すぎだろう

323:デフォルトの名無しさん
18/09/09 15:30:17.72 l6rR/pccM.net
突然の英語自慢

324:デフォルトの名無しさん
18/09/09 17:05:22.17 GZ1hf7rYa.net
あの程度の英文が読めるというだけのことが自慢と感じてしまう人って・・・

325:デフォルトの名無しさん
18/09/09 17:10:44.73 5zyWb3dg0.net
チラシは日記の裏に

326:デフォルトの名無しさん
18/09/09 17:11:54.64 l6rR/pccM.net
いや、大学で論文書いてるし講座受けたことないから知らん

327:デフォルトの名無しさん
18/09/09 17:20:40.89 UfwTkuaF0.net
会話が成立していない・・・

328:デフォルトの名無しさん
18/09/09 17:44:28.00 V1LakR3i0.net
まず自身が学習する知能すらないヤツラが
機械学習とかいってるのがな

329:デフォルトの名無しさん
18/09/09 17:53:25.90 0fxeknbWa.net
機械を使って能力を補完するのは
誰にでもありそうな要求じゃないのか

330:デフォルトの名無しさん
18/09/09 17:55:20.90 V1LakR3i0.net
機械学習という強化学習は体罰と同じだからな
つまり体罰は科学的に正しい

331:デフォルトの名無しさん
18/09/09 17:58:41.37 V1LakR3i0.net
マウスはサッカリンが大好き
エサ箱にサッカリンおくと
マウスはひたすらサッカリンをなめる
そんなマウスに
サッカリンなめると高圧電流を与える
それを繰り返す
するとな
マウスはサッカリンなめなくなる
しばっきんぐを伴う学習は
ものすごく適切な科学的教育メソッドといえる

332:デフォルトの名無しさん
18/09/09 18:04:27.61 xD81Fsxha.net
それは単純作業をひたすら行うだけのための教育には最適だろうが自分で考える高度な仕事をできるようになるための教育としては全く機能しない
餌食べると電流来るから餌食べない、ではなく電流を止めるかそんな実験してる者を殴りに行くことが本当は求められる

333:デフォルトの名無しさん
18/09/09 18:05:59.59 XkNFsZ520.net
>>320
本当に教育目的ならね
でも実際は自分の言うことを聞かないなどの感情任せで叩いたり
現実の教師には幼稚な人間が多いから体罰を許可するのは難しい
AIによる教育が普及したら体罰の導入もあるかもねw

334:デフォルトの名無しさん
18/09/09 18:19:48.08 V1LakR3i0.net
人間も刺激を受けて
微弱な電流の電気信号を脳に伝えて(コレが入力)
NNにちかいものを脳みそで構成しながら(コレが処理)
反応してるだけなのは(コレが出力)
ほぼ間違いないからな
キミラはその中でもかなりできそこないの肉塊なワケ
キミラはまずその自覚がないといけない

335:デフォルトの名無しさん
18/09/10 09:12:54.23 Wzurv1WZ0.net
何かに例える奴って本質の部分をずらして解釈させようとするから好きじゃない。

336:デフォルトの名無しさん
18/09/10 09:33:18.80 m4rWRRun0.net
DLは沈みかけた船である

337:デフォルトの名無しさん
18/09/10 09:40:32.89 50R16uEf0.net
>>326


338: 今勉強中なのに~



339:デフォルトの名無しさん
18/09/10 10:12:27.17 eJoeF+lzd.net
>>325
同意ですね。
特にこの分野はそうゆう説明をする人が多すぎる気がします。

340:デフォルトの名無しさん
18/09/10 11:29:39.10 E/R/CTAA0.net
ていうかわかってないんだよ
ワイアードの機械学習関係の記事もめちゃくちゃだし。記者も理解してない。

341:デフォルトの名無しさん
18/09/10 11:45:38.06 iZZh4uSH0.net
ただの多項式近似じゃだめなんですか

342:デフォルトの名無しさん
18/09/10 12:57:17.68 9PCR6mO1H.net
いい場合もある

343:デフォルトの名無しさん
18/09/10 14:59:32.62 /bmRPvCfp.net
>>324
化学物質とか細胞とかも関係している
どの程度の影響かは知らないけど

344:デフォルトの名無しさん
18/09/10 16:07:18.13 vhv/YhfM0.net
海外IT大手勤めかPFNか東大松尾研関連の人のTwitterやスライドは参考になる
あとarxivで論文読んでレビューしてる人達(一次)も参考になる
それに海外にさきがけて論文内容を実装してる人とそのgithub
QiitaでCNN,RNN,LSTM,GANなどのモデルの基礎を詳細に解説してる記事は初心者~中級者には参考になる
でも日本の情報は大体ここまでだね
日本で画期的なモデル作り出してsota達成してる人なんていないし
業務応用の事例は基本的に社外秘だから表に出てこない

345:デフォルトの名無しさん
18/09/10 19:24:21.95 ujR9/fQ2d.net
>>333
そもそも日本人が書いたもんとか読むだけ時間の無駄。元ネタ読むほうがわかりやすい

346:デフォルトの名無しさん
18/09/10 19:28:41.58 C7NXl1Sfd.net
海外論文のほとんどは、既存の方法のマイナーチェンジですね。
論文の数で劣っても焦るべきはそこではない

347:デフォルトの名無しさん
18/09/10 19:42:40.10 7yBcyw9Aa.net
マイナーチェンジでない新手法の開発数で比較した上でそれを言うならいいけどどうせそんなの調べてないんだろ

348:デフォルトの名無しさん
18/09/10 19:52:04.55 6ZeiSgzaa.net
日本なんか遅れまくってるんだから
先進国のペーパー読んだほうがそりゃマシだろw

349:デフォルトの名無しさん
18/09/10 20:20:02.48 EC/DTJGVM.net
まつおけんてそんなにいい?
御用達なだけじゃん

350:デフォルトの名無しさん
18/09/10 20:46:12.02 XzQQxj6r0.net
低学歴知恵遅れは
NNモデルは半世紀以上前からあるモデルの焼き直しなのすらわかってないからな
低学歴知恵遅れに限って基礎も分からずにムダにいきってるワケ

351:デフォルトの名無しさん
18/09/10 20:48:45.69 XzQQxj6r0.net
NNモデルなんかウンコみたいなエキスパートシステムがはやってた頃からすでに存在する
コレもきっとな同じ道を歩むことになる
予言するわ

352:デフォルトの名無しさん
18/09/10 20:57:12.65 MuwSsVH00.net
予言(笑)

353:デフォルトの名無しさん
18/09/10 21:02:22.48 XzQQxj6r0.net
エキスパートシステムみたいな山盛りのウンコができると
予言してるワケ

354:デフォルトの名無しさん
18/09/10 21:08:06.77 PkSNOikBM.net
20年前エキスパートシステムやってた大学の先生がAIメチャメチャdisってたな。講義で学生相手に悲観的なことばっか言ってな。今どうしてんだろ。ヒャッハー?

355:デフォルトの名無しさん
18/09/10 21:18:31.46 MuwSsVH00.net
物体認識も人工知能(NNでない奴)だったね

356:デフォルトの名無しさん
18/09/10 21:54:13.12 KNaZjqz80.net
>>336
比較した上で一点だそ

357:デフォルトの名無しさん
18/09/10 21:59:29.51 KNaZjqz80.net
まあ、一人でよいから飛び抜けた天才がいればよい話

358:デフォルトの名無しさん
18/09/11 00:27:02.76 NOGFJ9cK0.net
なんだ俺のことか…

359:デフォルトの名無しさん
18/09/11 01:13:57.47 CF7cPe


360:mC0.net



361:デフォルトの名無しさん
18/09/11 08:52:46.82 iNoPJA0t0.net
もう少しきれいな言葉で語りませんか?

362:デフォルトの名無しさん
18/09/11 10:11:02.09 fg41yUTF0.net
確かにお前ら中華スマホスレ以下

363:デフォルトの名無しさん
18/09/11 12:14:16.02 4gQtUupo0.net
割れ鍋に綴じ蓋

364:デフォルトの名無しさん
18/09/11 12:30:05.64 6r2pdA4Ca.net
技術記事自体で利益出そうと考えること自体が技術者としての本来の在り方から乖離してるけどね

365:デフォルトの名無しさん
18/09/11 12:34:15.31 7J4Wi8hoM.net
技術がカネにならない日本はおかしい。シリコンバレーの後追いしかしてないフリーライダー。

366:デフォルトの名無しさん
18/09/11 13:25:38.94 QkogAA+k0.net
技術がないだけの話

367:デフォルトの名無しさん
18/09/11 14:33:28.09 pwo3DQbpF.net
この本おすすめですか?
URLリンク(www.amazon.co.jp)

368:デフォルトの名無しさん
18/09/11 15:52:06.10 RLpo6MncM.net
いいえ

369:デフォルトの名無しさん
18/09/11 18:00:10.08 yZhXOY2F0.net
クラス分類できへんねやったら回帰分析しかないんですか?

370:デフォルトの名無しさん
18/09/11 23:32:24.35 i7axZbyN0.net
1層のNNは回帰分析と同じだからな

371:デフォルトの名無しさん
18/09/12 07:04:31.28 YcGHenXr0.net
人間の脳のように学習するって誇大広告じゃね?
中身はロジスティック回帰を何層もやってるだけじゃん

372:デフォルトの名無しさん
18/09/12 08:09:25.15 ViqDYntmp.net
>>359
そう思うなら一つのロジスティック回帰を再帰的に使って同じ結果を出せるか実験してみたらいいのでは?

373:デフォルトの名無しさん
18/09/12 08:13:40.79 whXEmiXCM.net
一つのロジスティック回帰では無理だろ
>>359 はそんな事言ってないし

374:デフォルトの名無しさん
18/09/12 12:09:21.11 O9T0GfKp0.net
人間の脳も所詮ロジスチック回帰ってこと。。。

375:デフォルトの名無しさん
18/09/12 16:05:15.80 qQh33xQPM.net
クラス外のデータの排除に効率的な方法は何ですか?
例えば、0~9の数字10クラスのネットワークに「b」の文字を入力する場合を考えた時に
理想的には全クラス10%くらいの確率ラベルを持ってくれたらいいのですが
恐らく結果は6が高確率で帰ってくる気がします。
適当に数字以外の文字を詰め込んで11個目のunknownクラスを作ることは効果があるのですか?

376:デフォルトの名無しさん
18/09/12 19:36:37.61 YQnfCYrX0.net
>>363
こっちが専門じゃないだけかもしれないけど、おそろしく何を言ってるのか分からない
deep learningのような分類器で、画像データを10のクラスに仕分けたいけど、
特定のクラスに偏りが生まれるからどうすれば良いかということか
一般論として、deep learningならば、ノイズを混ぜるのは場合によりけりだけど有効だろ
新しいクラスを作るのは、ちょっとわからんなあ

377:デフォルトの名無しさん
18/09/12 19:40:44.82 YQnfCYrX0.net
データを多く仕分けられるクラスに、データが仕分けられにくくなるように
損失関数に、データ量に比例して増えるペナルティーを追加すればいいんじゃないか

378:デフォルトの名無しさん
18/09/12 19:47:03.20 YQnfCYrX0.net
一回限りの分析なら、手入力で特定のクラスの損失関数に
手入力でペナルティーを追加して、そのクラスに分類されにくくするのも手だと思うんですよ?
そんなやり方でも、いちおう分析結果は平らにはなるよね。たぶん。わからんけど

379:デフォルトの名無しさん
18/09/12 19:54:51.80 qQh33xQPM.net
>>364
(自分なりに)もう少し分かりやすく書き下しますと、
この世のありとあらゆる果物が成ってる木があるとして、
この木の画像の中から、リンゴとミカンとブドウを見つけて自動収穫


380:したいタスクがあるとします。 リンゴとミカンとブドウの画像を学習させて分類器を作ったのですが、青リンゴやデコポンやマスカットが学習させた果物と誤認識されて収穫されてしまいます。 学習せた3つの果物以外は収穫したくないので、認識して欲しくないのですがどうすれば良いですか?ということです。 (分かりにくかったらすみません。)



381:デフォルトの名無しさん
18/09/12 20:00:27.22 VFbeL2mC0.net
わかりにくくなったよ

382:デフォルトの名無しさん
18/09/12 20:02:57.63 hCIGPJ5ma.net
>>363が言いたいのは数字画像を読み込んで数値を出力したい、ただし入力が数字でない画像だったら数字でないと出力させたいってことだろう

383:デフォルトの名無しさん
18/09/12 20:36:27.66 WakPudgX0.net
数字以外の画像を適当に[0.1..0.1]のベクトルになる教師データとして流し込めば
そういう分類器ができるんじゃないの

384:デフォルトの名無しさん
18/09/12 20:50:09.10 kc7HFSnfa.net
数字以外の想定し得るあらゆる文字のデータを学習させる必要があるから非現実的だろうね
数字にだけ共通する特徴があるなら最初に数字か数字でないかだけの分類をすればいいけどそんな特徴ないだろうし難しい

385:デフォルトの名無しさん
18/09/12 21:07:10.31 yfKtIfo20.net
認知機能が低いこのスレいるような低学歴知恵遅れが写真をみると
コレは心霊写真だという
コレは俗に言うシミュラクラ現象になる
ウンコAIに顔認識をさせると
コレと同じような現象が発生してもなにもおかしくない
コレは出力結果としてものすごいおかしいとはいえない
特徴どおりだからな

386:デフォルトの名無しさん
18/09/12 21:13:35.69 yfKtIfo20.net
文字だけの識別なら数量化I類で十分
数量化I類でもかなりの精度になる

387:デフォルトの名無しさん
18/09/12 23:04:27.74 agseH4x1F.net
ひとつの分類器でふたつのことを同時にやらなければいいんじゃね?
①一個の数字画像を、10個のクラスに仕分ける
②その画像が本当に仕分けられた数字と同じか否かを判定する
このふたつの段階に分けれて、別々の分類器を用意すれば、そんなに難しいことしなくても簡単に組めそう。
①のためのニュートラルネットワークの分類値と、②のためのクラスごとの分類器を10個用意する必要があるけど、
②の分類器はたぶん同じようなアルゴリズムで動くから書くの簡単だろ
ただの思いつきだけど、どうだ?

388:デフォルトの名無しさん
18/09/12 23:12:15.60 yfKtIfo20.net
ぜんぜんわかってないわ
特徴抽出をするのが先だからな
特徴抽出されたデータを学習させない限り
いつまでたっても学習効果なんかない

389:デフォルトの名無しさん
18/09/12 23:42:58.48 MXOsLPIga.net
>>363
まず数字かそれ以外かを分類してみるとか
で数字のものについて0-9のどのクラスに属するか判別する

390:デフォルトの名無しさん
18/09/13 00:17:45.77 pqzPAQ7ua.net
数字かそれ以外かで分類しようとしたら結局bは6と判定されるだろうけどね

391:デフォルトの名無しさん
18/09/13 00:18:27.43 pqzPAQ7ua.net
正確には、6と扱われることでbは数字に分類されるだろうけどね

392:363
18/09/13 02:39:06.40 r4+4vjzBM.net
>>369
これがほぼ正解に近いですが、>>371にある通りやはり難しいのですかね。
>>376
数字は例えだったので・・
より実際に近い例えですと、一般物体を「犬、桜、車」の3クラスで認識し、
猫や梅や船のような他の物体なら、3クラスのどれでもないと返して欲しい、というような感じです。
未知の入力の中から、学習させた特定の対象だけを認識することは難しいのでしょうか・・
未知の入力パターンをリジェクトしてくれるような仕組みがないものかなぁと思い質問しました。

393:デフォルトの名無しさん
18/09/13 07:39:33.36 qr0N7AS90.net
確率で判断してみるとか

394:デフォルトの名無しさん
18/09/13 08:04:53.73 iq9KCUrTp.net
>>379
それも対象となる幾つかとそれ以外に分類してみたらいいのでは?
それか6とbを判


395:別するような判別を後からかけるとか 人間の感覚だと6とbの判別は上側のコーナーの位置と左側の上の交点の位置関係を見ているように思う それを入力に追加するか学習で獲得させるか



396:デフォルトの名無しさん
18/09/13 08:07:38.47 iq9KCUrTp.net
>>377
それは教師信号とか学習方法とかでも違う結果になるんじゃないの?
厳しすぎて6を検出しなくなるかもしれないけど
それはそれで後から判別する用途に使えるかも知れない

397:デフォルトの名無しさん
18/09/13 08:10:20.78 iq9KCUrTp.net
>>361
一つとカウントするものの認識が違うようだ
ロジスティック回帰を特徴づけるパラメータを引数とする関数を一つと表現している
その関数を再起的に使うことを想定している

398:デフォルトの名無しさん
18/09/13 08:52:40.16 7kEehjxd0.net
>>379
犬とそれ以外の2値分類器、桜とそれ以外の2値分類器、車とそれ以外の2値分類器を作って、1番スコアが高いものを答えとする。もし3つのスコア全てが一定の閾値以下であれば該当なしとする。うまくやれば1つのNNでできるかな?

399:デフォルトの名無しさん
18/09/13 10:22:19.93 sZRV+2UZ0.net
>>379
未知と言っても実際はデータに偏りがあるから
その他クラスをつくって全部いれたら実用精度いくこともあるかも
ていうかこの程度のこと聞く前にやってみ

400:デフォルトの名無しさん
18/09/13 11:25:57.39 u4Gmb1plM.net
>>381
初めから6とbが似ているという情報があればそれでもいいのですが・・
どんなものが(特徴量レベルで)6に似ているか分からない時にどうしたらいいでしょうか。
上の例だと、例えばアマゾンの奥地に私達が名前も知らないような犬に似た動物(人が見たら似ているけど犬ではないときちんと判別はできる)がいたとして、それがたまたま入力された時にちゃんとリジェクト出来ればと思うのですが。
>>384
2値分類器にすれば学習データ以外に対するリジェクト率は高くなるのですか?
少し検討してみます。
>>385
はい、もちろんそのつもりではあります。
ただ、あわよくばその他クラスの入力として有効だと知られているデータセットとかないかなと思いまして。
もっと確立された方法があるかと思ったのですが、
意外とあまり一般的な話ではないのかも知れないですね。

401:デフォルトの名無しさん
18/09/13 11:28:11.38 u4Gmb1plM.net
>>386
訂正
×その他クラスの入力
○その他クラスの学習

402:デフォルトの名無しさん
18/09/13 12:02:33.48 LzYf4Nh90.net
シグモイド関数以外で判定すればいいんじゃね?具体的には知らんけど

403:デフォルトの名無しさん
18/09/13 13:46:19.92 qufj2uAPp.net
>>386
犬に似た動物か犬かは人間も見た目だけでは判別できないのでは?
DNAとかをみて分類するのであればそれを入力として判別するように学習するんだと思う
あくまでも既知の物に近い物の中でどれに近いかを判別するのだと思う
人間も例えば人の名前を聞いた時に
自分が知っている人の中から思い浮かべるはず
名前の文字列から同姓同名の知らない人かどうかは判別できない

404:デフォルトの名無しさん
18/09/13 13:52:05.24 qufj2uAPp.net
つまり似ているけど違うものを正しく判別出来ないときは
判別手法が適切でない可能性だけでなく
入力情報が不足している可能性も考える必要がある
当たり前のことだけど
逆に判別手法は同じでも入力情報を変える事で目的を達成できるかもしれない

405:デフォルトの名無しさん
18/09/13 13:52:25.76 xLrClwyc0.net
まず大前提として、バイアスが高いとかでなけりゃ
データ数が機械学習のすべて
DNNなら基本的にバイアスが高い状態は無視できるんだから
人が見て判別できる特徴を学習できるほどデータが足りないから誤判別するんだよ
そのデータ数を補い学習を促進させるのがGAN
アウーイモ MM1b-P3CUの問いに対する今最も適当な答えは、GANを組み込めって事だ
もう組み込んでるなら、CNNの前にatten


406:tionをぶっ込んで attention順のtimestepやpositionを特徴に付加した上でCNNで畳み込むモデルを作ったりしろ ここは先端研究分野だから論文読んで勉強して自分で試せとしか言えない



407:デフォルトの名無しさん
18/09/13 13:56:03.92 RXUDxgvEM.net
>>386
もしかして、教師あり機械学習において、訓練データとして正例だけで(負例は与えずに)判定器を作れるか、という話なのかな?
もしそうであるなら、教師あり学習では出来ないと思うけど。

408:デフォルトの名無しさん
18/09/13 14:02:20.97 qufj2uAPp.net
6とbの例だと
数字を入力する欄に書かれている場合は6の可能性が高い
前後が数字だったらとか文脈情報を付加する事で
正解率を上げることはできると思う
人間も無意識に探索空間を限定していると思うよ
6はアラビア数字空間で見たら6だけど
ローマ数字空間でみたら該当なしが正解

409:デフォルトの名無しさん
18/09/13 14:10:38.03 RXUDxgvEM.net
>>386
で、もし負例を集めるのが大変だという事であれば、学習済みの重みを使って転移学習できるかどうかを検討してみたらどうかな?画像系や言語系なら色々あると思うけど。

410:デフォルトの名無しさん
18/09/13 15:36:31.62 D83GKx+w0.net
NVIDIA、AI学習モデルの推論処理に特化した「Tesla T4」
~Pascal比で12倍の性能
URLリンク(pc.watch.impress.co.jp)
これって学習にも使えるの?
使えたとして個人で買える価格なのかな

411:デフォルトの名無しさん
18/09/13 15:51:01.39 JrlDULa9d.net
inferenceに特化してるとしか書いてないな
学習に使えたとしても大した性能でないんじゃないかな

412:デフォルトの名無しさん
18/09/13 15:56:28.84 TesJPJdy0.net
パスカル比w

413:デフォルトの名無しさん
18/09/13 18:28:06.03 6sxcIAQxM.net
あらいぐまパスカル

414:デフォルトの名無しさん
18/09/13 18:46:20.90 7wY9Zpwe0.net
GANで300x300ピクセル以上の自然なフルカラーRGBを24時間以内に生成するには、
幾らぐらいのGPUを買えば良いですか?

415:デフォルトの名無しさん
18/09/13 19:00:02.47 27QXB+7Da.net
300万円

416:デフォルトの名無しさん
18/09/13 19:03:22.94 l9KSlvFSF.net
>>398
書こうと思って思い留まった

417:デフォルトの名無しさん
18/09/13 19:26:37.35 NNMq2uMVa.net
アライグマ12匹ぶんの性能!

418:デフォルトの名無しさん
18/09/13 19:58:05.51 TJ1+MKoj0.net
>>395
Teslaって時点で、個人で買うものじゃないだろ

419:デフォルトの名無しさん
18/09/13 20:31:45.95 cCrIblsJd.net
>>395
FP16が速いようだけど、FP16で学習を安定化させるためには少し工夫が必要
できればおそらく学習も速くできる

420:デフォルトの名無しさん
18/09/13 20:41:17.04 mPOxglR5F.net
>>404
去年のGTC JAPAN の資料
URLリンク(www.nvidia.com)
論文も出てる

421:デフォルトの名無しさん
18/09/13 22:00:22.48 NBEHkjwvd.net
たぶんTITAN V買った方が幸せになれる
値段もそんなに変わらないだろうし

422:デフォルトの名無しさん
18/09/13 22:05:14.73 LzYf4Nh90.net
くそ~おまいらの会話が分からないぜ。プレモル読んでくるノシ

423:デフォルトの名無しさん
18/09/14 04:17:16.85 QQtWXLxFp.net
w>>407
そっちの方がわからんやんけ!w

424:デフォルトの名無しさん
18/09/14 10:52:49.98 6Ydm1GfUp.net
参考書見ながら勉強してて、教師あり学習はなんとなくイメージ湧くんだけど教師なし学習の部分に入ってから急に難しくて理解しにくい…
主成分分析とか特にややこしいんだけどこういう技術はやっぱり頻繁に使われるのかな?

425:デフォルトの名無しさん
18/09/14 10:59:03.56 36F6j8Uf0.net
やっぱり頻繁に使われる

426:デフォルトの名無しさん
18/09/14 12:40:46.79 2A0ReTqdd.net
めちゃ使う

427:デフォルトの名無しさん
18/09/14 12:41:56.63 2A0ReTqdd.net
一般企業で

428:デフォルトの名無しさん
18/09/14 14:37:37.68 tCA/H0VE0.net
PCAはできなきゃ可視化できねーから必須だろう

429:デフォルトの名無しさん
18/09/14 17:30:08.67 fNmUvAUj0.net
PCA会計はお手頃な価格

430:デフォルトの名無しさん
18/09/14 22:05:30.13 exBB8l6d0.net
低学歴超初心者のゴミの俺が機械学習の勉強して5ヶ月
今更だけど統計の知識って避けて通れない気がしてきた
ここの人達はそういう知識も持ってるのかな…
機械学習でいっぱいいっぱいだけどやれるか俺…

431:デフォルトの名無しさん
18/09/14 22:36:41.30 qzMJcDz/0.net
>>415
無理だ、諦めろ。

432:デフォルトの名無しさん
18/09/14 23:11:14.48 570jbDxz0.net
機械学習に統計学の知識なんて必要ないよ
統計学は応用数学として高度な数学を必要とするが
機械学習に数学はいらない

433:デフォルトの名無しさん
18/09/14 23:16:28.78 fXySkelb0.net
機械学習でビッグデータを扱うなら
最低でも正方行列でない行列を扱う対応分析や
疎な行列を計算機で扱うための知識が必要

434:デフォルトの名無しさん
18/09/14 23:25:54.63 Br25m2430.net
PCAは機械学習の基礎技術と考えてよい

435:デフォルトの名無しさん
18/09/14 23:29:42.46 Br25m2430.net
10~1000個ぐらいのパラメータを2~3軸ぐらいで見るためには必須です。

436:デフォルトの名無しさん
18/09/14 23:33:40.19 Rk7AJQeX0.net
方法の一つとしてはそうだけど、基礎技術って言われると、んー?って思う。基礎的な技術だけど。

437:デフォルトの名無しさん
18/09/15 00:34:19.96 ls8ZnII1p.net
>>409 です
PCAを使うのはあくまで可視化がメインなの?
特徴量抽出とかも書いてあってこんがらがってる
例えば20個の特徴量がある100点のデータがあって、それを2次元にしたい場合20個の特徴量からなる各データ(100点)から分散が大きい線?保持する
ってイメージなんだけど、2次元にした時点で色んなデータが削ぎ落とされて、20個の特徴量をぜんぶ引っくるめたデータの主成分だけが残って素の特徴量の概念は消えてると思うんだけどそこから特徴量を抽出って????ってなってる
日本語おかしくてごめん
自分の理解が完全に間違ってたり的外れな事言ってるのは十分理解してます…

438:デフォルトの名無しさん
18/09/15 00:47:14.50 i7Q4C164a.net
統計検定2級レベルぐらいは機械学習に限らず解析とかするのに使えるから勉強しておくといい

439:デフォルトの名無しさん
18/09/15 01:49:47.53 81XKWb5c0.net
情報系の学科でプログラムはそこそこ勉強してて
機械学習ライブラリを全く使ったことないんですがちょっと勉強したくて
機械学習入門ライブラリって何がおすすめですか
うまくいくかどうかは別にして
株とかFSみたいな時系列グラフの予測したり
将棋や囲碁みたいなゲームAIを作ってみたいです

440:デフォルトの名無しさん
18/09/15 01:59:22.37 yNUH5FEed.net
このスレは素人しかいないのかよw

441:デフォルトの名無しさん
18/09/15 02:40:30.25 1BKmfL0E0.net
>>421
それはなぜそう思う?
PCAの結果って、数学的にニューラルネットのオートエンコーダの結果と一致する。
機械学習の本にそう書いてあるだろ?

442:デフォルトの名無しさん
18/09/15 03:55:20.45 jdmxJboBa.net
ニューラルネットから入門すればPCA に言及してるとは限らんだろ。そんなことも分からんのかw

443:デフォルトの名無しさん
18/09/15 06:24:54.03 lguT9cyy0.net
測定を概論として知ってるといいよ
測定知らないと数理工学の理解が浅くなると思う

444:デフォルトの名無しさん
18/09/15 10:30:45.02 81XKWb5c0.net
測定ってはじめてきいたかも
回帰分析とか線形代数は最低限はわかると思います

445:デフォルトの名無しさん
18/09/15 12:29:12.79 oTIAmwpn0.net
>>428
測定ってmeasure(測度)のこと?

446:デフォルトの名無しさん
18/09/15 12:42:28.61 81XKWb5c0.net
たとえば時系列データの配列があったとして
なんてライブラリにどういう設定で実行すればいいかっていうのがわからない
どういうことをやるかっていうアルゴリズムの概論説明ばかりで
プログライミングの入門サイトみたいなのがあんまりなくて
何をインストールしてどうかけばいいかのプログラムサンプルを出してくれるサイトがあんまり見つからない

447:デフォルトの名無しさん
18/09/15 12:43:32.90 lguT9cyy0.net
計測工学、誤差論とかだよ

448:デフォルトの名無しさん
18/09/15 13:20:09.75 tpcXcC8D0.net
>>431
分類ならIrisとかベンチマークで使われるデータセットがあるので具体的な使い方も分かると思う。
君のやりたい事が何のアルゴリズムで実現できるかは、自分で概論一通り勉強しないと決まらないと思うのよね。

449:デフォルトの名無しさん
18/09/15 14:02:42.28 81XKWb5c0.net
>>433
ありがとうございます
irisていうの使ってみます
機械学習って行列から結果ベクトルを生成する関数をつくるもので
教師データとして入力出力ペアを与えたらそれに近い答えを出す関数が作られて
未知のデータを流し込んでもそれなりに答えが出るみたいなイメージだったから
ライブラリでやることってたいした違いはないのかと思ってた

450:CRFs
18/09/15 15:42:38.45 KIanXBkQ0.net
TensorFlow使ったほうがいい
くさるほどサンプルがある

451:デフォルトの名無しさん
18/09/15 15:47:56.06 KIanXBkQ0.net
CRFもTensorFlow使えばきっと余裕でできるハズ

452:デフォルトの名無しさん
18/09/15 16:08:00.97 81XKWb5c0.net
>>433
Iris 機械学習 で検索してブログ2,3よんでみたけど
これってあやめの画像を認識するだけにしか使えないの?
画像認識はいまのとこ興味なくて
時系列データ予測(株とかよりはシーズン途中でのペナントレースの優勝予測とか)
ゲームAIとか
ツイッター上で知識獲得や自動応答
とかそのへんをやってみたいんだけど
>>435,436
TensorFlowはきいたことあるかも
次はそれ調べてみます
ありがとうございます

453:デフォルトの名無しさん
18/09/15 16:10:06.41 +gRFgMvM0.net
自由度、将来性、普及率考えればtensorflow一択
日本語資料多めで取っつきやすいのはchainer
とりあえず動かしてみたいkeras
最近の論文の実装例多めでやや将来性ありpytorch

454:デフォルトの名無しさん
18/09/15 16:12:35.37 +gRFgMvM0.net
>>437
やりたいことが明確なのはいいけどそこからアーキテクチャを勉強せずに実装に移るのは無理がある

455:デフォルトの名無しさん
18/09/15 16:14:19.13 81XKWb5c0.net
>>439
そうなんですね
まずはプログラムを動かしてから
パラメータをかえていって使い方を覚えるみたいな感じで勉強してきたので…
とりあえず動かしてみたかったんですけど

456:デフォルトの名無しさん
18/09/15 16:54:50.74 tpcXcC8D0.net
決まったレスポンスが期待出来るWebやOSのAPI呼んで行く従来のプログラミングとは違いますな

457:デフォルトの名無しさん
18/09/15 16:57:36.10 VTJ0VoCAa.net
>>441
計算は確定的に同じ結果を得られるけど?

458:デフォルトの名無しさん
18/09/15 17:01:57.99 tpcXcC8D0.net
使うデータやモデル決めて実装するのも自分だもの。誰かが用意してくれた既存のAPI呼ぶプログラミングとは違うでしょ

459:デフォルトの名無しさん
18/09/15 17:10:33.80 VTJ0VoCAa.net
>>443
既存のクラスとかライブラリを一切使わないってこと?
コレクションとか配列とかもいちいち自分で管理するの?
もし仮にそうだとしたらそれを扱うような機能や関数を自分で作ってそれを利用するけどね
そこら辺は既存のライブラリ使っても結果への影響はほとんど変わらない

460:デフォルトの名無しさん
18/09/15 17:12:19.17 KIanXBkQ0.net
あいかわらず頭悪いは
モデルというのはドカタが使うモデルの話じゃないからな

461:デフォルトの名無しさん
18/09/15 17:13:35.25 KIanXBkQ0.net
ココが低学歴知恵遅れの限界
うんよくわかる


462:



463:デフォルトの名無しさん
18/09/15 17:16:25.26 VTJ0VoCAa.net
>>445
既存のAPIってなんのことを言ってる?
従来のプログラムがその既存のAPIを使うだけで完成するっていう認識は正しいの?

464:デフォルトの名無しさん
18/09/15 17:16:46.36 tpcXcC8D0.net
>>444
ライブラリを使っても自分の実装範囲が広いから、簡単なチュートリアル中々ないよね。って言いたかったんだ

465:デフォルトの名無しさん
18/09/15 17:19:28.82 tpcXcC8D0.net
これでも何か行ってくるようなら446の人におまかせするわ

466:デフォルトの名無しさん
18/09/15 17:27:07.77 VTJ0VoCAa.net
試行錯誤が必要って意味なら
そんなの当たり前の事じゃね
テレビのシステムとか
携帯電話の通信システムとか作るのに
試行錯誤が必要なかったとでも?
自動車や飛行機でも同様

467:デフォルトの名無しさん
18/09/15 17:30:38.30 KIanXBkQ0.net
数理モデルの話だからな
コーディングの話なんかココでは一切関係ない
まずやりたいことを
まずどういった数理モデルで実現するかという話になる
数理モデルでの実現方法をきめたら
次は、なにもわかってない低学歴底辺ドカタどもが作業するときに
どういった実装モデルにすれば一番コストを抑えることができるか
という話だからな
ぜんぜんかみあってないワケ
わかった?

468:デフォルトの名無しさん
18/09/15 17:37:18.38 KIanXBkQ0.net
で、TensorFlowはその数理モデルを
組み立てるためのライブラリが充実している
当然、数理モデルがわかってないと
そんなライブラリは使いこなすことはできない

469:デフォルトの名無しさん
18/09/15 17:45:46.95 VTJ0VoCAa.net
>>451
数理モデルの所が物理モデルだったりするけど
やってることは同じようなものだ
それは普通に行われて来たこと

470:デフォルトの名無しさん
18/09/15 17:52:05.55 VTJ0VoCAa.net
>>451
で結局何を言いたいかって事だけど
期待した結果を得られなくて大変だ
と言いたいの?
まぁガンバレ

471:デフォルトの名無しさん
18/09/15 17:53:12.18 KIanXBkQ0.net
物理はちゃんと現在もっとも有力な仮説があるからな
その仮説にあてこむだけですむ
検証可能で検証可されてるサイエンスの成果をそのままテクノロジーに反映する土台ができあがってる
そういった成果は、バカでもチョンでも利用することができる
AIにはそういうもんがない
形而上学の世界だからな
低学歴知恵遅れにはこの意味がわかることはないと思うわ
車程度ならニュートン力学で十分だしな

472:デフォルトの名無しさん
18/09/15 18:01:04.76 RyZhDvOSa.net
>>455
それが実現できないことに対する言分かな
他の組織で実現できたら
その時はどんな言分を考えるのかな
まぁ大変だろうけどガンバレ

473:デフォルトの名無しさん
18/09/15 18:03:52.60 tpcXcC8D0.net
tfってそういうものなのね

474:デフォルトの名無しさん
18/09/15 18:04:21.99 KIanXBkQ0.net
このスレの低学歴知恵遅れたちは
まず数学は文系であることを理解することが先

475:デフォルトの名無しさん
18/09/15 18:28:11.11 aDVtzTM20.net
数学、プログラミングは論理学なのか?
少なくとも数学はそうかもね。プログラミングはハードの知識も必要だから工学の要素があるけど

476:デフォルトの名無しさん
18/09/15 18:35:36.27 AVfR6YnTF.net
スレチ

477:デフォルトの名無しさん
18/09/15 18:56:43.43 81XKWb5c0.net
プログラム板なのにプログラムの話NGだったんですね
失礼しました

478:デフォルトの名無しさん
18/09/15 20:49:01.87 /sR8KW2Oa.net
捨て台詞を吐いて、その程度で諦めるていどのモノなのか?

479:デフォルトの名無しさん
18/09/15 21:41:23.44 81XKWb5c0.net
捨て台詞のつもりはないんですが…
自分のレスがきっかけでスレの流れがよくなかったのでやめたほうがいいのかなと思って
なんかすごく感じ悪く受け取られちゃってますね
ほんとに申し訳ないです
TensorFlowを教えてもらったので使い方ぐらいは自分で調べてみます
ほんとは使ってる人にききながらやったほうが絶対早いと思うんですが…

480:デフォルトの名無しさん
18/09/15 21:41:48.76 EPdHYaRJ0.net
あほでも使えるAIの学習済みライブラリが、すぐに出てくるかと思ってたけど、出ないな
実用に達していないレベルなら有るけど
URLリンク(dev.smt.do)


481:como.ne.jp/?p=docs.api.index



482:デフォルトの名無しさん
18/09/15 21:46:41.15 xey2DpHS0.net
>>463
TensorFlowのラッパーのKerasがやさしい。
サンプルは幾らでもある。
まずMNISTでもやってみなさい。

483:デフォルトの名無しさん
18/09/16 08:48:23.30 MIKVdUGB0.net
いい夢見ろよ(笑)

484:デフォルトの名無しさん
18/09/16 09:32:05.41 vTRQPpRB0.net
株の予想とかペナントレースの予想とか、AIの使いみちが全然わかってないなw

485:デフォルトの名無しさん
18/09/16 09:58:15.93 pVLTHjJp0.net
ユー、タイムマシン作っちゃいなよ

486:デフォルトの名無しさん
18/09/16 10:08:57.97 DPDUfIAP0.net
>>467
じゃあAIの使い道って何?

487:デフォルトの名無しさん
18/09/16 10:24:42.93 J7jkqE/NM.net
クラスタリングとか

488:デフォルトの名無しさん
18/09/16 10:31:26.53 yGlb1wug0.net
AIじゃなくて人間の知能だって未来の予測は難しいわw

489:デフォルトの名無しさん
18/09/16 11:27:04.34 pVLTHjJp0.net
夏休み終わったのに怒涛の教えて君爆誕

490:デフォルトの名無しさん
18/09/16 14:08:29.73 Xvs/hqWSM.net
その教えて君を追い払う役目の自称高学歴有識者のお前らのコメントも、いかにもブラックボックスから出た答えを鵜呑みにしてそうな抽象的なものばかり。
類は友を呼ぶ。

491:デフォルトの名無しさん
18/09/16 14:27:29.53 EtoE+Y4id.net
>>473
では正解サンプルとしてお手本を示してください。

492:デフォルトの名無しさん
18/09/16 18:04:12.36 xlirAkV8a.net
>>473
具体的なコメントまだぁ?

493:デフォルトの名無しさん
18/09/16 21:36:06.16 h2MQFGAYM.net
>>473
具体的で独自解釈な論文まだぁ

494:デフォルトの名無しさん
18/09/17 01:18:13.47 B9Ff9U8Oa.net
スロベニア製のオレンジ使ってる人いる?

495:デフォルトの名無しさん
18/09/17 13:40:23.85 wcqhWGbh0.net
今日は統計解析の勉強する

496:デフォルトの名無しさん
18/09/17 15:07:41.13 r0SMjS9V0.net
明日はどっちだ!

497:デフォルトの名無しさん
18/09/18 20:40:14.73 k7v+ymOu0.net
ubuntuにjupyterをインストールしようとしたけど、これもう無理だな
英語コミュニティでも、ちゃんとは内容を理解できないけど、みんなで無理だのなんだの言ってる感じ
pythonのパッケージを管理するためだけに
linuxについてをここ二週間ずっと勉強してきたのに初手でつまずいてしまった

498:デフォルトの名無しさん
18/09/18 20:42:18.85 k7v+ymOu0.net
あっ、condaを使ってしまえば話は別ね

499:デフォルトの名無しさん
18/09/18 20:49:20.88 S3XkALSh0.net
どういうこと?Jupyter Notebookがブラウザで立ち上がるだけじゃダメなの?

500:デフォルトの名無しさん
18/09/18 20:52:03.60 Jydth2ea0.net
時系列解析の自己回帰(AR)モデルについて教えてください
「AR(1) = Rt = μ + Φ1Rt-1 + εt」という式で
次数1の時「Rt: 今回の値」は「Rt-1: 1つ前の値」から推定される
という式ですが、この「1つ前の値」は実測値ですか?
それとも「Rt-2」を使って算出された予測値を説明変数と
するのでしょうか?
前者が正しいなら1つ前の実測値がないと予測できない事になりますが、
後者が正しいなら何時点か前の初期値1つだけで何時点も後の
値を予測可能だと思うんですが、どちらでしょうか?

501:デフォルトの名無しさん
18/09/18 21:40:22.66 5LJPbrObM.net
>>487
何を分析するかに依るけど
一般的には実測値だと思う

502:デフォルトの名無しさん
18/09/18 21:54:26.20 Jydth2ea0.net
>>484
ありがとう。株価だよ。
すげえ悩んでたから助かったよ。

503:デフォルトの名無しさん
18/09/18 21:56:59.45 Jydth2ea0.net
>>484
ごめん、正確には収益率。

504:デフォルトの名無しさん
18/09/18 21:58:14.97 3M7OTvKW0.net
>>482 せっかくのLINUX環境なのに、CLIで起動できない実行環境なんて悲しすぎる なんて思ったけど、jupyterlabなら簡単にインストールできた コレ、次世代すぎて使いこなせる気がしないけど 今ぱっと動かした感じだとpycharmの更に上を行くほど更に凄いな てか今年の春にjupyter notebookの使用方法をマスターしたのに もう上位互換が出るのかよ。やってらんねーよ



506:デフォルトの名無しさん
18/09/18 22:20:56.79 yX9O6HZv0.net
株価って機械学習で予測できるの?
こないだ質問したら人間ができないことはできないっていってなかった?

507:デフォルトの名無しさん
18/09/19 00:03:09.71 qfGEDKPk0.net
単純なデイトレゲームと仮定した場合
株:できる、しかし実際には法律でアウトになるのでできない
見せ板を多用した相場誘導や短時間での注文&キャンセル処理でAPIに負荷かけた時点で
法律的にアウト
仮想通貨:できる
株ではできない見せ板を多用した相場誘導が基本的に無制限で法律で取り締まられてもいない
取引所に負荷かけすぎて怒られたりBANされることは多々あり
具体的には、板を出しているのが人間かそうでないかを見分けることで
肉入りから証拠金を巻き上げるような動きが可能になる
長期的嫌気判断として見た場合
株:できる
実際に行われているのは上場企業の役員のTwitterチェックなど
マイナスやトラブルを引き起こすような発言があったとシステムが判断した場合
(要するに異常検知の一種で炎上を検知している)
AIによって一斉に売られたりする
よくマイナス異常検知のターゲットになってるのはイーロン・マスクと関連企業
マイナスの異常でなくプラスの異常検知でも同じ
ニュースに対する反応なども見る
仮想通貨:できる
しかも風説の流布の取り締まりなどが行われていない為やりたい放題できる
大手仮想通貨メディアを裏で操る人々は、この手の手法で荒稼ぎしているだろう
直近で言えば、ゴールドマン・サックスの仮想通貨トレードデスク開設中止報道etc...

まぁちょっと勉強すれば誰でも思いつくよな
仮想通貨はこんな各国の法整備状況で、ビットコインETF承認なんてされたらある意味祭り

508:デフォルトの名無しさん
18/09/19 00:12:36.78 2H97zkt+0.net
取引方法がはじめからわかってたら、高速なシステムトレードやるだけだろ。
株価じたいではなく、ニュースからデータ仕入れて、何に反応するかの部分のAI化ってことか。

509:デフォルトの名無しさん
18/09/19 07:51:57.58 Y3nn/dRn0.net
見せ板してる時点で、予想できてないじゃんw

510:デフォルトの名無しさん
18/09/19 08:01:29.20 K7UZA9LYa.net
予想の値を出すことは可能
だけどそれで目標の利益を得られるかは別じゃね?
一度上手く利益を得られたとしても
トータルでは違う結果になるかもしれない

511:デフォルトの名無しさん
18/09/19 11:10:21.21 412dQebS0.net
AI×株の話題は荒れるから、野菜の分類でもやってろ
URLリンク(tech.nikkeibp.co.jp)

512:デフォルトの名無しさん
18/09/19 11:32:57.12 lkpniOf60.net
ステマ

513:デフォルトの名無しさん
18/09/19 12:36:23.68 Y3nn/dRn0.net
判別難し過ぎワロタ
URLリンク(tech.nikkeibp.co.jp)

514:デフォルトの名無しさん
18/09/19 12:56:40.73 qfGEDKPk0.net
荒れるっていうか実際やってる人達が他のやつもみんなやりだすと稼げないからな
仮想通貨のデイトレゲーは大資本ないと厳しい(ただし、手数料フリーの取引所は例外)
深層異常検知の自動取引なんてすごいお手軽にリスクを最小化できる
まぁこの程度はネタバレにすらならん
大手はみんなやってることだろ

515:デフォルトの名無しさん
18/09/19 13:07:48.03 Y3nn/dRn0.net
震災後は地震になると猛烈に先物を売る地震アルゴとかあったけど、
全戦全敗で撤退した

516:デフォルトの名無しさん
18/09/19 13:36:19.39 0YSgxbfH0.net
>深層異常検知の自動取引なんてすごいお手軽にリスクを最小化できる
それってどうやって性能評価してんの?

517:デフォルトの名無しさん
18/09/19 14:27:41.75 cOJ83uNip.net
今日休みだから勉強してたけど5時間で参考書4ページくらいしか進んでない…
時間かけたからって理解したわけじゃないし…
ビニングとか交互作用とか多項式とか概要はまだしもなんでこれをやる必要があるのか全然分からん

518:デフォルトの名無しさん
18/09/19 17:46:00.61 kf9wev3s0.net
俺はもう一冊読破したよ
コツは実践しながら読むこと

519:デフォルトの名無しさん
18/09/19 18:05:00.19 vTJ3S9KO0.net
>>489
でも野村證券とか大手はAPIに負荷かけまくりじゃん?
おかしいよね?
見せ板も出しまくりだよね?

520:デフォルトの名無しさん
18/09/19 18:32:49.69 rc2jjf3P0.net
JUPYTERLAB、まじで統合開発環境になっていやがるな
機能が一気に増えたけど、余計なことまで出来るようになるのは吉か凶か
DSモドキ、機械学習エンジニア(笑)たちの御用達ツールって感じじゃなくなったな
本当にIDEだ。pythonを使って、チームで本格的な開発を行う人たちの強力なプラットホームだわ

521:デフォルトの名無しさん
18/09/19 19:09:37.45 uTNvKAU6a.net
jupyterlabはvim拡張がnotebookと比べて貧弱だったから使ってなかったけど今は進化したかな?

522:デフォルトの名無しさん
18/09/19 19:48:23.18 cOJ83uNip.net
>>500
一冊終えるのに何ヶ月もかかるわ
だからって完全に理解してるわけじゃないし時間かかった分どんどん忘れていくし…
実際コード書きながらやるんだけど参考書の説明が分からないと先に進めず考えこむんだけど分からなくても先にとりあえず進んだ方が良いのかなぁ

523:デフォルトの名無しさん
18/09/19 20:10:53.74 aiIpKBDGM.net
>>495
よーし、裏山に生えてたニラでも食うかー

524:デフォルトの名無しさん
18/09/19 21:33:48.11 kwGXfZ/C0.net
>>495
実物見りゃすぐ分かるよ

525:デフォルトの名無しさん
18/09/19 21:40:24.46 GiAtsVA80.net
>>504
いちいち立ち止まって考えるのも、無理やり先に進むのも、どっちも正解だろ
どういうやり方をしてもすぐに忘れるんだから
ただ、表面的な知識を忘れても、なにか身についているような状態にするのが理想なんじゃないかなとは思う
数学、統計学、機械学習の理論、情報科学の基本的な考え方
プログラマー的な物作りの直感や、WEB系なら文系的な能力などなど
そういうものが最も大切で、ライブラリやプログラムの文法、ツールの使い方なんかは
適当にそのつどそのつどで調べながら身につければOKなんじゃないか
最近、ツール関連は流行り廃りが激しいから、使い方をいっぱんに覚えるより
使い方がわからないツールを、英語ドキュメントを読みながら、なんとなく動かして
作業をちんたらちんたら進められる能力のほうが貴重な気がしてきた

526:デフォルトの名無しさん
18/09/19 23:21:12.82 Ev5NTVKN0.net
>>499
細かく読み進める前に、学ぶ意義付けを見直した方がいいんじゃないか。
入門書であれば章の始めなどに「何のためにこの章を学習するか」という意義付けが示されるはずだし、
示されないのであればあまり入門者向けの本ではないからもっと簡単な本から学んだ方がいい

527:デフォルトの名無しさん
18/09/20 10:23:59.56 gnTuzcyga.net
TF2、高レベルに進化するんだな
数年後にkeras消えてそう
URLリンク(www.hellocybernetics.tech)

528:デフォルトの名無しさん
18/09/20 11:30:12.09 M2lBgQHaa.net
>>509
tensorflowとpytorchか?新しいの出てくるのか?

529:デフォルトの名無しさん
18/09/20 12:23:04.74 o2DcsKoW0.net
開発元同じだから

530:デフォルトの名無しさん
18/09/20 12:23:46.76 zlEb4gGt0.net
覚えるの大変だから、これ以上新しいものは出さないでほしい

531:デフォルトの名無しさん
18/09/20 12:30:15.73 7WHuQIEOF.net
おまいの脳は退化してる

532:デフォルトの名無しさん
18/09/20 14:26:41.94 X9J+trAU0.net
脳が学習を拒否してるだけだろ

533:デフォルトの名無しさん
18/09/20 20:04:23.98 5NSt/ZF+0.net
その機械学習の勉強意味あるんですか?
何か後に繋がるの?って言われた
そんなこと俺が聞きてぇよ!
何も知らない分からないとこから始めて勉強方法だって手探りだしやってる内容があってるか分からんし内容だって難しいしイメージ湧かないしで本人が一番不安だわ(;ω;)
なんだよちくしょう…(;ω;)

534:デフォルトの名無しさん
18/09/20 21:53:45.68 lp9E2ptbd.net
>>515
向いてない、無理してやることない

535:デフォルトの名無しさん
18/09/20 23:50:09.61 sVm7S3su0.net
我々の代わりにニューロンが学習してくれるのさ

536:デフォルトの名無しさん
18/09/21 17:00:40.03 2t2lIB8da.net
>>509
消えるも何も TF に統合されて普通に使われてるんだが…

537:デフォルトの名無しさん
18/09/21 17:58:59.29 MMpIEkeV0.net
俺にも機械学習を学んだ後のゴールが見えない

538:デフォルトの名無しさん
18/09/21 18:09:41.64 KMw7nMvLa.net
目的がないのに無理して学んでもしょうがないんじゃない?
受託分析の会社に就職したいとかこういうプロダクト作りたいとか、何かしらゴールを設定しないと学んだ事も役に立たないと思う。

539:デフォルトの名無しさん
18/09/21 18:27:13.56 2t2lIB8da.net
同意。もう素人がちょっと勉強してどうにかなるレベルじゃないし

540:デフォルトの名無しさん
18/09/21 19:46:22.75 egkcJrwz0.net
仕事に付けばゴールが設定されるんでは

541:デフォルトの名無しさん
18/09/21 20:31:40.71 y+ZygFeU0.net
何となく流行ってるからオライリーのディープラーニング本買ったけど、
私立文系非職業プログラマが趣味で手を出せる感じじゃない?

542:デフォルトの名無しさん
18/09/21 20:34:15.20 Hsxyb3Kxd.net
趣味でやるならいいんじゃないの。ゆっくり基礎から楽しめばいい

543:デフォルトの名無しさん
18/09/21 20:36:04.02 LuvXm+Whp.net
deepで回帰やってる人ほとんど殆ど見ないし明らかに回帰問題な物もクラス分類に置き換えてやってるの見る限り回帰よりも分類の方がハードル低いんですかね

544:デフォルトの名無しさん
18/09/21 20:36:50.09 81NIT4ig0.net
当たり前だろ
計算コストも高い

545:デフォルトの名無しさん
18/09/21 22:11:23.45 MMpIEkeV0.net
>>523
いや、理論が分からないんじゃなくて、
膨大なデータと強力な計算装置がないと、たいした物は作れない。
つまり、個人がチマチマと何かを作る用途には向かない

546:デフォルトの名無しさん
18/09/22 00:13:45.94 ZacBjrxHa.net
個人でもアイデア次第で面白いもの作れると思うけどな。
計算資源は趣味でやるレベルならクラウドサービス借りればいいし、
画像分類系ならImageNetのファインチューニングである程度は精度上げられる。
ラーメン二郎識別の人も、ベースの画像は自作のクローラーで集めた3万枚くらいでデータ拡張やGANで増やして精度を上げたと聞く。
サービスとして提供するレベルを目指すなら企業の力がいるけど、それは機械学習に限ったことではないし、
個人で楽しむ環境は自力で十分に用意できると思う。

547:デフォルトの名無しさん
18/09/22 00:38:25.15 l1Z1a/8Ia.net
AzureとかGCPとか使いたいけど無料でやりたくてもカード登録必須で無料枠越えたら勝手に課金されるのが怖い
勝手に課金せず無料枠越えたら問答無用でストップしてくれればいいのに

548:デフォルトの名無しさん
18/09/22 00:40:04.67 K4iJB0qOa.net
教師なしでできる事やればいいのに
強化学習とかさ

549:デフォルトの名無しさん
18/09/22 00:50:07.29 uHslz/QL0.net
できるかよ
どれだけ借りるつもりだ

550:デフォルトの名無しさん
18/09/22 00:51:12.19 7+L6lvEZ0.net
>>529
GCPは無課金枠使い切ったらクレカ開始するまでワンステップあるよ。
使い切った時点でサービスが一度止まるはず

551:デフォルトの名無しさん
18/09/22 02:23:42.00 MAFBmZ+e0.net
ヒカキンの年収が10億超え!?明石家さんま・坂上忍も驚愕の総資産とは??
URLリンク(logtube.jp)
HIKAKIN(ヒカキン)の年収が14億円!?トップYouTuberになるまでの道のりは?
URLリンク(youtuberhyouron.com)
なぜか観てしまう!!サバイバル系youtuberまとめ
URLリンク(tokyohitori.hatenablog.com)
あのPewDiePieがついに、初心YouTuber向けに「視聴回数」「チャンネル登録者数」を増やすコツを公開!
URLリンク(naototube.com)
27歳で年収8億円 女性ユーチューバー「リリー・シン」の生き方
URLリンク(headlines.yahoo.co.jp)
1年で何十億円も稼ぐ高収入ユーチューバー世界ランキングトップ10
URLリンク(gigazine.net)
おもちゃのレビューで年間12億円! 今、話題のYouTuberは6歳の男の子
URLリンク(www.businessinsider.jp)
彼女はいかにして750万人のファンがいるYouTubeスターとなったのか?
URLリンク(www.businessinsider.jp)
1億円稼ぐ9歳のYouTuberがすごすぎる……アメリカで話題のEvanTubeHD
URLリンク(weekly.ascii.jp)
専業YouTuberがYouTubeでの稼ぎ方具体的に教えます。ネタ切れしない方法は〇〇するだけ。
URLリンク(www.youtube.com)
YouTubeで稼げるジャンルは〇〇動画です。YouTube講座
URLリンク(www.youtube.com)

552:デフォルトの名無しさん
18/09/22 10:37:32.71 IfrUT1bl0.net
GTX1080 一枚くらいなら個人買うけど、何すべえ

553:デフォルトの名無しさん
18/09/22 11:17:23.77 PGp2AKzL0.net
低学歴知恵遅れが独学で機械学習を学習しても
一向に学習効果があがらない
このスレみてればよくわかるだろ
それと同じだからな
まずバカは勉強のしかたや努力のしかたが分かってない
だからバカはバカのまま
さらにバカはバカの自覚がない
だからバカはバカのまま
もうカンペキなレス

554:デフォルトの名無しさん
18/09/22 11:25:37.78 K4iJB0qOa.net
流行りのディープラーニングやりたいのはわかるけどさ
データ集めるのもチューニングするのも難しいから、初心者が自前のデータでやるのは難しいと思うよ
まずはSVMとか決定木みたいな古典的な手法から入るべき
データが少なくてもそこそこ上手くいくから

555:デフォルトの名無しさん
18/09/22 11:26:26.13 K4iJB0qOa.net
ディープラーニングだけが機械学習じゃないよ

556:デフォルトの名無しさん
18/09/22 11:28:18.51 IfrUT1bl0.net
自分はそのつもりっす。方式による計算量の多寡の検討もつかないのでまずは一通り遊んでみる

557:デフォルトの名無しさん
18/09/22 13:26:53.70 fcKY0ssXa.net
このスレってnlp ネタ殆ど出ないよな。あんまやってる人いないのかな。
allennlp 使いたいけど評判どう? 知ってたら教えて

558:デフォルトの名無しさん
18/09/22 13:47:27.41 +pucmWord.net
>>539
このスレは超初心者救済スレだから。LSTMもattentionもまったく出てこないw
AllenNLPは良くできてるけど少しハードル高いかも、仕様の把握が面倒

559:デフォルトの名無しさん
18/09/22 13:48:31.14 xOVRbYWfF.net
nipless

560:デフォルトの名無しさん
18/09/22 13:51:54.80 IfrUT1bl0.net
ダジャレスレ

561:デフォルトの名無しさん
18/09/22 13:56:57.15 fcKY0ssXa.net
>>540
サンクス、そう言えば rnn の話し見ませんね。
やっぱドキュメント読まないとダメか… pytorchもわからんとダメ?

562:デフォルトの名無しさん
18/09/22 17:59:22.10 QjN0TaMB0.net
ここに書いても無駄だろうけど
Attentionした時間順を特徴に埋め込んでから
CNNでその時間を考慮しつつ、初期層含め各層の時間情報を参照しながら畳み込む
ってモデルさっさとでないかなぁ
sota必至だから早く論文出てほしい
脳はやってる
URLリンク(www.eurekalert.org)
でも既存の機械学習では、初期の特徴に時間を付与することはほとんどやってない
RNNやLSTMが上手くいってないのは、初期から時間情報を連続的に把握して時間変化率を学習できないからだよ
いくら微分しても変化率とっても、初期状態からの時間情報を連続的に把握できないから学習できてない
一方、音声を特徴とする場合、ほとんどシークタイムが特徴に自動的に含まれるから
処理はクソ重くなるけど、高品質な結果が得られる
人間に置き換えても一緒
感覚器官は注意と畳み込みを同時に行いながら、それらの順でシーケンスを伝えて
脳はこの順番を記憶している

563:デフォルトの名無しさん
18/09/22 18:13:18.49 tW/Yy4gZ0.net
機械学習もいいが、センサーにはかなわん
ブラックボックスの中のものを重さや振った時の音で予測する・・・なんて回りくどいぜ
X線撮影で確認しろ
未来予測ならワームホール望遠鏡だ!

564:デフォルトの名無しさん
18/09/22 19:40:46.36 fcKY0ssXa.net
長崎は勝たないと脱落するぞ

565:デフォルトの名無しさん
18/09/22 19:41:06.05 fcKY0ssXa.net
ごめん、誤爆 orz

566:デフォルトの名無しさん
18/09/22 21:29:54.41 2qFIpkAdd.net
>>543
ドキュメントをなぞるだけなら不要

567:デフォルトの名無しさん
18/09/22 22:34:55.25 z+m4dANi0.net
>>503
デフォルト設定は貧弱
カスタマイズありきで拡張性は高いんだけど、使いこなせないなら、旧版をずっと使い続けた方がよさそう
こんなツールの設定コマンドを覚える暇があったら他にやらなければならないこと五万とあるだろ
俺は覚えるつもりだけど・・・

568:デフォルトの名無しさん
18/09/23 12:44:56.23 bLvK9Iso0.net
俺みたいな雑魚はまずnumpyとpandasとmatplotlibを使いこなせるように頑張るとこからだな

569:デフォルトの名無しさん
18/09/23 15:05:02.43 /sY9qa+Ta.net
>>550
的を得てるけど、深層学習が目的なら keras のサンプルでも動かすとモチベーションが保ちやすい
>>54


570:8 了解。ボチボチ覚えるつもりではいます



571:デフォルトの名無しさん
18/09/24 02:46:29.51 igBDxXXr0.net
>>544
カプセルネットワークみたいにベクトルに拡張して空間情報とするのは?

572:デフォルトの名無しさん
18/09/24 04:22:26.78 6dcTB1Rg0.net
>>544
マルコフ連鎖をモデルの中に組み込めば良いんじゃ無い?
でも微分で消えてしまうのかな.

573:デフォルトの名無しさん
18/09/24 09:09:25.13 ekT6BbXIa.net
>>551
chainerのサンプルコードの方が楽。

574:デフォルトの名無しさん
18/09/24 12:16:47.58 lNNMZfDzd.net
>>554
まだ使ってる人いるのか

575:デフォルトの名無しさん
18/09/24 12:26:29.26 VhNQr7Aka.net
>>554
オワコンの名前をあげていちいち絡むな
URLリンク(trends.google.co.jp)

576:デフォルトの名無しさん
18/09/24 16:12:04.69 6L+7kJR10.net
>>552
カプセルネットワークの手法だと
各層で獲得した特徴同士の空間的相対位置は正確になるけれど
それでは汎用性がない
脳は空間的相対位置を崩す事もできる
これは記憶している各時間情報を参照して相対位置すら入れ替え可能だからできる
注目した部分の特徴だけを切り取って、別物として貼り付けるのではなく
一定の連続的時間情報部分を切り取って、その部分の特徴を別の連続した時間情報の一部分をキーとして
完全に連結させることができる
だから本当の汎用性を獲得するためには、時間情報の連続的把握が絶対に必要になる
>>553
マルコフ性はこの場合適さない
何故ならば、脳と同様の構造を獲得するためには
過去、現在、未来すべての情報を参照する必要性があるから

577:デフォルトの名無しさん
18/09/24 16:27:32.53 5edCpy4L0.net
過去・現在・未来の区別は単なる幻想にすぎない アインシュタイン

578:デフォルトの名無しさん
18/09/24 17:28:14.05 Kttr1loZF.net
そうやね

579:デフォルトの名無しさん
18/09/24 18:08:33.46 G1aPepRna.net
>>558
マルコフ連鎖的なレスやな

580:デフォルトの名無しさん
18/09/24 18:51:54.57 FnEn+Nhsa.net
>>557
解き方知ってるんじゃないの? 自分で論文を書いた方が早いのでは。

581:デフォルトの名無しさん
18/09/24 19:11:49.55 Kxio7RVg0.net
URLリンク(qph.fs.quoracdn.net)

582:デフォルトの名無しさん
18/09/24 21:11:14.88 gWQCW5YD0.net
隠れマルコフモデルを覚える前にマルコフモデルを覚えましょう。

583:デフォルトの名無しさん
18/09/24 21:12:22.33 gWQCW5YD0.net
ついでに言うとウィナー過程とマルチンゲールも知っとけ

584:デフォルトの名無しさん
18/09/24 21:12:23.12 Kxio7RVg0.net
じゃあ待ち行列の勉強から

585:デフォルトの名無しさん
18/09/24 21:42:12.44 lJZK7+QF0.net
連休に行楽地へ行って体験しよう

586:デフォルトの名無しさん
18/09/24 22:10:45.88 G1aPepRna.net
>>556
どっちも使った事なさそう

587:デフォルトの名無しさん
18/09/24 23:18:47.49 OwMqA+EG0.net
初歩的な質問なんだけど、tensorflowやkeras、pytorchの違いは文法的な作法だけ?
機械学習の本1冊目だけど実践しながら読み終えて完全に理解はしてないけど深層学習も興味あるしやってみたいなと思うんだけど、みんながフレームワーク選ぶ基準教えてほしい

588:デフォルトの名無しさん
18/09/25 00:45:33.33 G04XkrxS0.net
・define and runとdefine by run、まあこの違いはなくなりつつある
・分野によって使われやすいのが違う気がする、arXivみてそんな気がしてるだけで統計とかはないけど

589:デフォルトの名無しさん
18/09/25 01:01:38.10 Rmy45yvb0.net
>>561
論文を書くためには結果が必要だけど
この手法は脳の構造模倣だけに凄まじい量のデータが必要になるのは明白
つまり現実的には、この畳込み


590:モデルを適用したGANも組み込む必要があって 作業量的にも計算量的にも個人ではまず無理



591:デフォルトの名無しさん
18/09/25 03:35:03.53 LXnmrKE+0.net
割込も体験するべき

592:デフォルトの名無しさん
18/09/25 04:07:52.14 IDRi2Kjza.net
>>570
仮に他人の論文があっても実現はできないと言ってるように聞こえる。
個人でできる範囲で成果を取った方が有益かもね。

593:デフォルトの名無しさん
18/09/25 14:23:16.83 NL395plNa.net
回帰における学習でデータ正規化を行った上で得られたモデルを使う場合は学習時の正規化で使った平均・標準偏差を使って入力値を変換しなければいけないと思うんだけど、
scikit-learnの使い方紹介記事とか読むとtrain_test_splitで訓練・テストデータ分離して各々別々にfit_transformで正規化している記事が大半で訓練・テストデータが異なる値で正規化されてしまうことになる
これは訓練・テストデータが大量にあればどうせ平均・標準偏差は変わらないだろうというだけの認識でいいの?

594:573
18/09/25 17:49:12.68 kAi0n2pKa.net
ごめん、見た記事では多分最初だけfit_transformして次では単にtransformしてたっぽい
それなら何の問題もないな

595:デフォルトの名無しさん
18/09/25 18:05:19.79 MY+XQBfWa.net
>>570
相対性理論とか実証は別の人がやることだってあり得る
論文を出すのはできるんじゃね
それが認められるかどうかは内容次第だし
本当に有益ならリソースを持つ組織が実証するし
必要ならその組織に所属すればいいだけ

596:デフォルトの名無しさん
18/09/25 18:09:03.58 MY+XQBfWa.net
>>573
実際に応用として使用する時に上手く行くかどうかじゃね?
学習に使うサンプルが偏ってたらその値を使って正規化すると
実際に使うときに期待する結果にならないんじゃね?
期待する結果に有意差がなければどっちでも良いんじゃないの?

597:デフォルトの名無しさん
18/09/25 22:06:17.44 niBQlr5vp.net
最近回帰問題解くのがキツすぎて無理やり0~1に正規化して分類みたいにやるのがいい気がしてきた

598:デフォルトの名無しさん
18/09/25 22:39:44.81 u+oxJT9H0.net
>>577
層を厚くすればなんとかなるんじゃないの?

599:デフォルトの名無しさん
18/09/26 00:52:49.34 OKJKpWkba.net
そろそろ PyTorch が無視できなくなってきたな つ
URLリンク(www.kdnuggets.com)

600:デフォルトの名無しさん
18/09/26 08:37:33.11 SJU9UbCQM.net
画像データを分類して教師データを作ろうとしてるんだけど、荒くでいいから自動で分類してくれるソフトないかな。

601:デフォルトの名無しさん
18/09/26 10:44:59.92 3yW6iUgn0.net
SOM

602:デフォルトの名無しさん
18/09/26 11:01:18.29 UoU/Uwygp.net
>>578
わからないです
画像の生成モデルで出てきた問題みたいに支配的な領域に適合して細かい構造を予測できないので、分類にしてダイス係数を使おうかと考えていました

603:デフォルトの名無しさん
18/09/26 12:18:49.20 5WxjrnKia.net
>>580
自動分類できないから機械学習使おうとしてるのにその前に自動分類してくれとは

604:デフォルトの名無しさん
18/09/26 13:07:40.99 SJU9UbCQM.net
>>583
最終的には自分で見なきゃいけないのは承知してるんだけど、荒く自動分類した後に人が修正って考えてます。
何とか教師データの作成を楽したい。

605:デフォルトの名無しさん
18/09/26 13:09:08.33 SJU9UbCQM.net
>>581
ちょっと調べてみます。

606:デフォルトの名無しさん
18/09/26 14:20:02.13 iQ/1ta8NM.net
>>584
qtクラスタリングとかどうよ?

607:デフォルトの名無しさん
18/09/26 14:48:10.49 nIEdWeYp0.net
画像にキャプション付けてくれるサービス探したらありそうだけど

608:デフォルトの名無しさん
18/09/26 17:42:13.90


609:/NSmYwyE0.net



610:デフォルトの名無しさん
18/09/26 18:41:51.88 IVfMWxLtM.net
>>588
当欠だな

611:589
18/09/26 18:42:16.88 IVfMWxLtM.net
s/当欠/凍結/

612:デフォルトの名無しさん
18/09/26 23:13:11.78 Lv/+nPmY0.net
あの画像なら人間でも間違えるから仕方ない

613:デフォルトの名無しさん
18/09/26 23:34:16.52 KPLU+0tA0.net
SVCのモデルを作る時にMinMaxscalerでスケール変換して、GridSearchCVでインスタンス作って、それに対してスケール変換した訓練データを使って学習させるって事をやったんだけど、これはダメらしいんだけど前処理の前に交差検証しろっていうのがよく分からない。
交差検証の過程では分割されたデータの一部が訓練用、残りがテスト用になって、訓練用となった部分を用いてモデルを学習させて、テスト用はモデルに対しての評価に使われる。
ここまでは大体分かる
しかし実はスケール変換する際にテスト用となった部分に含まれてる情報を使ってしまってる。
このようなデータはモデルに対してまったく新しいデータとは本質的に異なる。
???訓練用の一部がテスト用になるから??

614:デフォルトの名無しさん
18/09/27 09:27:07.99 sw1sA5ZZ0.net
>>592
スケール変換の際にテストデータの情報を使ってしまったら、そのテストデータは「まったく新しいデータ」とは言えない。

615:デフォルトの名無しさん
18/09/27 11:10:18.48 TDX1lgSt0.net
qiitaは機械学習の良い記事があっても全然ランキング入らなくなったな
ニワカが飽きたのか

616:デフォルトの名無しさん
18/09/27 11:20:21.49 je3kizhWM.net
>>568
pythonはプログラム言語でtensorflowやkerasは効率よく機械学習するためのライブラリ。

617:デフォルトの名無しさん
18/09/27 12:14:59.19 PZBFougTa.net
>>594
それならいい記事見つけたらここにでもURL貼ってほしい
qiitaはタイムラインから良記事探すのが難しい

618:デフォルトの名無しさん
18/09/27 22:08:27.94 wuMHpvCna.net
>>594
飽きたというよりも具体的な恩恵が得られないからモチベーションが続かないのでしょう
趣味でやっている人たちばかりじゃないから

619:デフォルトの名無しさん
18/09/27 22:17:45.69 JFP1gXlP0.net
英語で検索した方が有用な情報多いよ

620:デフォルトの名無しさん
18/09/28 00:38:02.48 ofrlpy9E0.net
いいね!稼ぎじゃはてな民くらいしか喜ばないしねぇ

621:デフォルトの名無しさん
18/09/28 03:48:20.58 tygoHNB90.net
確かにQiitaは最近いいね減ったな

622:デフォルトの名無しさん
18/09/28 05:57:58.09 f7OuEx/00.net
aidemyとpyqどっちで勉強したらいいですか?

623:デフォルトの名無しさん
18/09/28 08:06:29.54 tNPqQxrGM.net
>>601
どっちもやる。
アイデミーから始めなよ。わかりやすいから。

624:デフォルトの名無しさん
18/09/28 11:08:53.98 Y0/Lv67w0.net
QiitaとHatenaは、インストール大先生の記事が多すぎて困るから検索結果から外してるわ

625:デフォルトの名無しさん
18/09/28 13:48:47.12 2IAcjEkAa.net
交差検証について検索してみるとその説明として、ある1つのモデルを考えた場合に、
元データをN分割してその内(N-1)個で学習して、残り1個でテストするのをNパターン繰り返すようなものと理解した。
しかし、CourseraのWeek6で説明してる交差検証は複数のモデルを思いついた場合の最良モデルを選択する手段と説明されており、
データをA,B,Cに3分割して、各モデルをAで学習、Bで評価して比較(このBをcross validation setと呼んでいる)、Bの評価で決定された最良モデルをCで最終評価するという内容になっている。
両者は別物のような気がするんだけど自分が理解しきれていないだけなのか?

626:デフォルトの名無しさん
18/09/28 13:54:00.86 gzs2bud+0.net
>>601
俺ならaidemyの無料部分だけ流し見してからPyQやる

627:デフォルトの名無しさん
18/09/28 13:56:04.74 SiTAO34aa.net
SQuA


628:D とかやってる人いる? 流行りの先端モデルとかご存知なら教えてください >>604 どっちも間違ってない。前者は本来の定義。後者は実践的。



629:デフォルトの名無しさん
18/09/29 02:24:39.57 yQMwJEzv0.net
キーエンスなんかは見込み客の連絡先を得るためにホワイトペーパー量産してるんだけどね

630:デフォルトの名無しさん
18/09/29 08:04:19.54 wDXsR2010.net
キーエンスw

631:デフォルトの名無しさん
18/09/29 08:26:36.08 yQMwJEzv0.net
あそこ営業に投資全振りだぞ

632:デフォルトの名無しさん
18/09/29 08:28:19.01 70xW0TAb0.net
誤爆?

633:デフォルトの名無しさん
18/09/29 14:07:15.40 yQMwJEzv0.net
qiitaのいいね稼ぎじゃ具体的な恩恵にならんから続かないって話

634:デフォルトの名無しさん
18/09/29 15:00:04.38 puJ5IR70a.net
キーエンスのホワイトペーパーは捨てアド偽名でダウンロードしてるわ

635:デフォルトの名無しさん
18/09/29 15:24:38.05 7SQdA+7Xd.net
tf 1.11 出たな、更新かけたわ。2.0 はまだなのか
>>611
それな。勤め先の意向で、個人名でひたすらいいね集めたけど、ひと~つも仕事に結び付かなかったw
むしろ教えてちゃんからのメールが山ほどきて仕事にならなくなったんで撤退したわ
>>606
一時期やってたけど、もう少し具体的に。どういうアプローチかわからんとアドバイスしにくい。


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch