【統計分析】機械学習・データマイニング20at TECH
【統計分析】機械学習・データマイニング20 - 暇つぶし2ch435:デフォルトの名無しさん
18/09/14 23:29:42.46 Br25m2430.net
10~1000個ぐらいのパラメータを2~3軸ぐらいで見るためには必須です。

436:デフォルトの名無しさん
18/09/14 23:33:40.19 Rk7AJQeX0.net
方法の一つとしてはそうだけど、基礎技術って言われると、んー?って思う。基礎的な技術だけど。

437:デフォルトの名無しさん
18/09/15 00:34:19.96 ls8ZnII1p.net
>>409 です
PCAを使うのはあくまで可視化がメインなの?
特徴量抽出とかも書いてあってこんがらがってる
例えば20個の特徴量がある100点のデータがあって、それを2次元にしたい場合20個の特徴量からなる各データ(100点)から分散が大きい線?保持する
ってイメージなんだけど、2次元にした時点で色んなデータが削ぎ落とされて、20個の特徴量をぜんぶ引っくるめたデータの主成分だけが残って素の特徴量の概念は消えてると思うんだけどそこから特徴量を抽出って????ってなってる
日本語おかしくてごめん
自分の理解が完全に間違ってたり的外れな事言ってるのは十分理解してます…

438:デフォルトの名無しさん
18/09/15 00:47:14.50 i7Q4C164a.net
統計検定2級レベルぐらいは機械学習に限らず解析とかするのに使えるから勉強しておくといい

439:デフォルトの名無しさん
18/09/15 01:49:47.53 81XKWb5c0.net
情報系の学科でプログラムはそこそこ勉強してて
機械学習ライブラリを全く使ったことないんですがちょっと勉強したくて
機械学習入門ライブラリって何がおすすめですか
うまくいくかどうかは別にして
株とかFSみたいな時系列グラフの予測したり
将棋や囲碁みたいなゲームAIを作ってみたいです

440:デフォルトの名無しさん
18/09/15 01:59:22.37 yNUH5FEed.net
このスレは素人しかいないのかよw

441:デフォルトの名無しさん
18/09/15 02:40:30.25 1BKmfL0E0.net
>>421
それはなぜそう思う?
PCAの結果って、数学的にニューラルネットのオートエンコーダの結果と一致する。
機械学習の本にそう書いてあるだろ?

442:デフォルトの名無しさん
18/09/15 03:55:20.45 jdmxJboBa.net
ニューラルネットから入門すればPCA に言及してるとは限らんだろ。そんなことも分からんのかw

443:デフォルトの名無しさん
18/09/15 06:24:54.03 lguT9cyy0.net
測定を概論として知ってるといいよ
測定知らないと数理工学の理解が浅くなると思う

444:デフォルトの名無しさん
18/09/15 10:30:45.02 81XKWb5c0.net
測定ってはじめてきいたかも
回帰分析とか線形代数は最低限はわかると思います

445:デフォルトの名無しさん
18/09/15 12:29:12.79 oTIAmwpn0.net
>>428
測定ってmeasure(測度)のこと?

446:デフォルトの名無しさん
18/09/15 12:42:28.61 81XKWb5c0.net
たとえば時系列データの配列があったとして
なんてライブラリにどういう設定で実行すればいいかっていうのがわからない
どういうことをやるかっていうアルゴリズムの概論説明ばかりで
プログライミングの入門サイトみたいなのがあんまりなくて
何をインストールしてどうかけばいいかのプログラムサンプルを出してくれるサイトがあんまり見つからない

447:デフォルトの名無しさん
18/09/15 12:43:32.90 lguT9cyy0.net
計測工学、誤差論とかだよ

448:デフォルトの名無しさん
18/09/15 13:20:09.75 tpcXcC8D0.net
>>431
分類ならIrisとかベンチマークで使われるデータセットがあるので具体的な使い方も分かると思う。
君のやりたい事が何のアルゴリズムで実現できるかは、自分で概論一通り勉強しないと決まらないと思うのよね。

449:デフォルトの名無しさん
18/09/15 14:02:42.28 81XKWb5c0.net
>>433
ありがとうございます
irisていうの使ってみます
機械学習って行列から結果ベクトルを生成する関数をつくるもので
教師データとして入力出力ペアを与えたらそれに近い答えを出す関数が作られて
未知のデータを流し込んでもそれなりに答えが出るみたいなイメージだったから
ライブラリでやることってたいした違いはないのかと思ってた

450:CRFs
18/09/15 15:42:38.45 KIanXBkQ0.net
TensorFlow使ったほうがいい
くさるほどサンプルがある

451:デフォルトの名無しさん
18/09/15 15:47:56.06 KIanXBkQ0.net
CRFもTensorFlow使えばきっと余裕でできるハズ

452:デフォルトの名無しさん
18/09/15 16:08:00.97 81XKWb5c0.net
>>433
Iris 機械学習 で検索してブログ2,3よんでみたけど
これってあやめの画像を認識するだけにしか使えないの?
画像認識はいまのとこ興味なくて
時系列データ予測(株とかよりはシーズン途中でのペナントレースの優勝予測とか)
ゲームAIとか
ツイッター上で知識獲得や自動応答
とかそのへんをやってみたいんだけど
>>435,436
TensorFlowはきいたことあるかも
次はそれ調べてみます
ありがとうございます

453:デフォルトの名無しさん
18/09/15 16:10:06.41 +gRFgMvM0.net
自由度、将来性、普及率考えればtensorflow一択
日本語資料多めで取っつきやすいのはchainer
とりあえず動かしてみたいkeras
最近の論文の実装例多めでやや将来性ありpytorch

454:デフォルトの名無しさん
18/09/15 16:12:35.37 +gRFgMvM0.net
>>437
やりたいことが明確なのはいいけどそこからアーキテクチャを勉強せずに実装に移るのは無理がある

455:デフォルトの名無しさん
18/09/15 16:14:19.13 81XKWb5c0.net
>>439
そうなんですね
まずはプログラムを動かしてから
パラメータをかえていって使い方を覚えるみたいな感じで勉強してきたので…
とりあえず動かしてみたかったんですけど

456:デフォルトの名無しさん
18/09/15 16:54:50.74 tpcXcC8D0.net
決まったレスポンスが期待出来るWebやOSのAPI呼んで行く従来のプログラミングとは違いますな

457:デフォルトの名無しさん
18/09/15 16:57:36.10 VTJ0VoCAa.net
>>441
計算は確定的に同じ結果を得られるけど?

458:デフォルトの名無しさん
18/09/15 17:01:57.99 tpcXcC8D0.net
使うデータやモデル決めて実装するのも自分だもの。誰かが用意してくれた既存のAPI呼ぶプログラミングとは違うでしょ

459:デフォルトの名無しさん
18/09/15 17:10:33.80 VTJ0VoCAa.net
>>443
既存のクラスとかライブラリを一切使わないってこと?
コレクションとか配列とかもいちいち自分で管理するの?
もし仮にそうだとしたらそれを扱うような機能や関数を自分で作ってそれを利用するけどね
そこら辺は既存のライブラリ使っても結果への影響はほとんど変わらない

460:デフォルトの名無しさん
18/09/15 17:12:19.17 KIanXBkQ0.net
あいかわらず頭悪いは
モデルというのはドカタが使うモデルの話じゃないからな

461:デフォルトの名無しさん
18/09/15 17:13:35.25 KIanXBkQ0.net
ココが低学歴知恵遅れの限界
うんよくわかる


462:



463:デフォルトの名無しさん
18/09/15 17:16:25.26 VTJ0VoCAa.net
>>445
既存のAPIってなんのことを言ってる?
従来のプログラムがその既存のAPIを使うだけで完成するっていう認識は正しいの?

464:デフォルトの名無しさん
18/09/15 17:16:46.36 tpcXcC8D0.net
>>444
ライブラリを使っても自分の実装範囲が広いから、簡単なチュートリアル中々ないよね。って言いたかったんだ

465:デフォルトの名無しさん
18/09/15 17:19:28.82 tpcXcC8D0.net
これでも何か行ってくるようなら446の人におまかせするわ

466:デフォルトの名無しさん
18/09/15 17:27:07.77 VTJ0VoCAa.net
試行錯誤が必要って意味なら
そんなの当たり前の事じゃね
テレビのシステムとか
携帯電話の通信システムとか作るのに
試行錯誤が必要なかったとでも?
自動車や飛行機でも同様

467:デフォルトの名無しさん
18/09/15 17:30:38.30 KIanXBkQ0.net
数理モデルの話だからな
コーディングの話なんかココでは一切関係ない
まずやりたいことを
まずどういった数理モデルで実現するかという話になる
数理モデルでの実現方法をきめたら
次は、なにもわかってない低学歴底辺ドカタどもが作業するときに
どういった実装モデルにすれば一番コストを抑えることができるか
という話だからな
ぜんぜんかみあってないワケ
わかった?

468:デフォルトの名無しさん
18/09/15 17:37:18.38 KIanXBkQ0.net
で、TensorFlowはその数理モデルを
組み立てるためのライブラリが充実している
当然、数理モデルがわかってないと
そんなライブラリは使いこなすことはできない

469:デフォルトの名無しさん
18/09/15 17:45:46.95 VTJ0VoCAa.net
>>451
数理モデルの所が物理モデルだったりするけど
やってることは同じようなものだ
それは普通に行われて来たこと

470:デフォルトの名無しさん
18/09/15 17:52:05.55 VTJ0VoCAa.net
>>451
で結局何を言いたいかって事だけど
期待した結果を得られなくて大変だ
と言いたいの?
まぁガンバレ

471:デフォルトの名無しさん
18/09/15 17:53:12.18 KIanXBkQ0.net
物理はちゃんと現在もっとも有力な仮説があるからな
その仮説にあてこむだけですむ
検証可能で検証可されてるサイエンスの成果をそのままテクノロジーに反映する土台ができあがってる
そういった成果は、バカでもチョンでも利用することができる
AIにはそういうもんがない
形而上学の世界だからな
低学歴知恵遅れにはこの意味がわかることはないと思うわ
車程度ならニュートン力学で十分だしな

472:デフォルトの名無しさん
18/09/15 18:01:04.76 RyZhDvOSa.net
>>455
それが実現できないことに対する言分かな
他の組織で実現できたら
その時はどんな言分を考えるのかな
まぁ大変だろうけどガンバレ

473:デフォルトの名無しさん
18/09/15 18:03:52.60 tpcXcC8D0.net
tfってそういうものなのね

474:デフォルトの名無しさん
18/09/15 18:04:21.99 KIanXBkQ0.net
このスレの低学歴知恵遅れたちは
まず数学は文系であることを理解することが先

475:デフォルトの名無しさん
18/09/15 18:28:11.11 aDVtzTM20.net
数学、プログラミングは論理学なのか?
少なくとも数学はそうかもね。プログラミングはハードの知識も必要だから工学の要素があるけど

476:デフォルトの名無しさん
18/09/15 18:35:36.27 AVfR6YnTF.net
スレチ

477:デフォルトの名無しさん
18/09/15 18:56:43.43 81XKWb5c0.net
プログラム板なのにプログラムの話NGだったんですね
失礼しました

478:デフォルトの名無しさん
18/09/15 20:49:01.87 /sR8KW2Oa.net
捨て台詞を吐いて、その程度で諦めるていどのモノなのか?

479:デフォルトの名無しさん
18/09/15 21:41:23.44 81XKWb5c0.net
捨て台詞のつもりはないんですが…
自分のレスがきっかけでスレの流れがよくなかったのでやめたほうがいいのかなと思って
なんかすごく感じ悪く受け取られちゃってますね
ほんとに申し訳ないです
TensorFlowを教えてもらったので使い方ぐらいは自分で調べてみます
ほんとは使ってる人にききながらやったほうが絶対早いと思うんですが…

480:デフォルトの名無しさん
18/09/15 21:41:48.76 EPdHYaRJ0.net
あほでも使えるAIの学習済みライブラリが、すぐに出てくるかと思ってたけど、出ないな
実用に達していないレベルなら有るけど
URLリンク(dev.smt.do)


481:como.ne.jp/?p=docs.api.index



482:デフォルトの名無しさん
18/09/15 21:46:41.15 xey2DpHS0.net
>>463
TensorFlowのラッパーのKerasがやさしい。
サンプルは幾らでもある。
まずMNISTでもやってみなさい。

483:デフォルトの名無しさん
18/09/16 08:48:23.30 MIKVdUGB0.net
いい夢見ろよ(笑)

484:デフォルトの名無しさん
18/09/16 09:32:05.41 vTRQPpRB0.net
株の予想とかペナントレースの予想とか、AIの使いみちが全然わかってないなw

485:デフォルトの名無しさん
18/09/16 09:58:15.93 pVLTHjJp0.net
ユー、タイムマシン作っちゃいなよ

486:デフォルトの名無しさん
18/09/16 10:08:57.97 DPDUfIAP0.net
>>467
じゃあAIの使い道って何?

487:デフォルトの名無しさん
18/09/16 10:24:42.93 J7jkqE/NM.net
クラスタリングとか

488:デフォルトの名無しさん
18/09/16 10:31:26.53 yGlb1wug0.net
AIじゃなくて人間の知能だって未来の予測は難しいわw

489:デフォルトの名無しさん
18/09/16 11:27:04.34 pVLTHjJp0.net
夏休み終わったのに怒涛の教えて君爆誕

490:デフォルトの名無しさん
18/09/16 14:08:29.73 Xvs/hqWSM.net
その教えて君を追い払う役目の自称高学歴有識者のお前らのコメントも、いかにもブラックボックスから出た答えを鵜呑みにしてそうな抽象的なものばかり。
類は友を呼ぶ。

491:デフォルトの名無しさん
18/09/16 14:27:29.53 EtoE+Y4id.net
>>473
では正解サンプルとしてお手本を示してください。

492:デフォルトの名無しさん
18/09/16 18:04:12.36 xlirAkV8a.net
>>473
具体的なコメントまだぁ?

493:デフォルトの名無しさん
18/09/16 21:36:06.16 h2MQFGAYM.net
>>473
具体的で独自解釈な論文まだぁ

494:デフォルトの名無しさん
18/09/17 01:18:13.47 B9Ff9U8Oa.net
スロベニア製のオレンジ使ってる人いる?

495:デフォルトの名無しさん
18/09/17 13:40:23.85 wcqhWGbh0.net
今日は統計解析の勉強する

496:デフォルトの名無しさん
18/09/17 15:07:41.13 r0SMjS9V0.net
明日はどっちだ!

497:デフォルトの名無しさん
18/09/18 20:40:14.73 k7v+ymOu0.net
ubuntuにjupyterをインストールしようとしたけど、これもう無理だな
英語コミュニティでも、ちゃんとは内容を理解できないけど、みんなで無理だのなんだの言ってる感じ
pythonのパッケージを管理するためだけに
linuxについてをここ二週間ずっと勉強してきたのに初手でつまずいてしまった

498:デフォルトの名無しさん
18/09/18 20:42:18.85 k7v+ymOu0.net
あっ、condaを使ってしまえば話は別ね

499:デフォルトの名無しさん
18/09/18 20:49:20.88 S3XkALSh0.net
どういうこと?Jupyter Notebookがブラウザで立ち上がるだけじゃダメなの?

500:デフォルトの名無しさん
18/09/18 20:52:03.60 Jydth2ea0.net
時系列解析の自己回帰(AR)モデルについて教えてください
「AR(1) = Rt = μ + Φ1Rt-1 + εt」という式で
次数1の時「Rt: 今回の値」は「Rt-1: 1つ前の値」から推定される
という式ですが、この「1つ前の値」は実測値ですか?
それとも「Rt-2」を使って算出された予測値を説明変数と
するのでしょうか?
前者が正しいなら1つ前の実測値がないと予測できない事になりますが、
後者が正しいなら何時点か前の初期値1つだけで何時点も後の
値を予測可能だと思うんですが、どちらでしょうか?

501:デフォルトの名無しさん
18/09/18 21:40:22.66 5LJPbrObM.net
>>487
何を分析するかに依るけど
一般的には実測値だと思う

502:デフォルトの名無しさん
18/09/18 21:54:26.20 Jydth2ea0.net
>>484
ありがとう。株価だよ。
すげえ悩んでたから助かったよ。

503:デフォルトの名無しさん
18/09/18 21:56:59.45 Jydth2ea0.net
>>484
ごめん、正確には収益率。

504:デフォルトの名無しさん
18/09/18 21:58:14.97 3M7OTvKW0.net
>>482 せっかくのLINUX環境なのに、CLIで起動できない実行環境なんて悲しすぎる なんて思ったけど、jupyterlabなら簡単にインストールできた コレ、次世代すぎて使いこなせる気がしないけど 今ぱっと動かした感じだとpycharmの更に上を行くほど更に凄いな てか今年の春にjupyter notebookの使用方法をマスターしたのに もう上位互換が出るのかよ。やってらんねーよ



506:デフォルトの名無しさん
18/09/18 22:20:56.79 yX9O6HZv0.net
株価って機械学習で予測できるの?
こないだ質問したら人間ができないことはできないっていってなかった?

507:デフォルトの名無しさん
18/09/19 00:03:09.71 qfGEDKPk0.net
単純なデイトレゲームと仮定した場合
株:できる、しかし実際には法律でアウトになるのでできない
見せ板を多用した相場誘導や短時間での注文&キャンセル処理でAPIに負荷かけた時点で
法律的にアウト
仮想通貨:できる
株ではできない見せ板を多用した相場誘導が基本的に無制限で法律で取り締まられてもいない
取引所に負荷かけすぎて怒られたりBANされることは多々あり
具体的には、板を出しているのが人間かそうでないかを見分けることで
肉入りから証拠金を巻き上げるような動きが可能になる
長期的嫌気判断として見た場合
株:できる
実際に行われているのは上場企業の役員のTwitterチェックなど
マイナスやトラブルを引き起こすような発言があったとシステムが判断した場合
(要するに異常検知の一種で炎上を検知している)
AIによって一斉に売られたりする
よくマイナス異常検知のターゲットになってるのはイーロン・マスクと関連企業
マイナスの異常でなくプラスの異常検知でも同じ
ニュースに対する反応なども見る
仮想通貨:できる
しかも風説の流布の取り締まりなどが行われていない為やりたい放題できる
大手仮想通貨メディアを裏で操る人々は、この手の手法で荒稼ぎしているだろう
直近で言えば、ゴールドマン・サックスの仮想通貨トレードデスク開設中止報道etc...

まぁちょっと勉強すれば誰でも思いつくよな
仮想通貨はこんな各国の法整備状況で、ビットコインETF承認なんてされたらある意味祭り

508:デフォルトの名無しさん
18/09/19 00:12:36.78 2H97zkt+0.net
取引方法がはじめからわかってたら、高速なシステムトレードやるだけだろ。
株価じたいではなく、ニュースからデータ仕入れて、何に反応するかの部分のAI化ってことか。

509:デフォルトの名無しさん
18/09/19 07:51:57.58 Y3nn/dRn0.net
見せ板してる時点で、予想できてないじゃんw

510:デフォルトの名無しさん
18/09/19 08:01:29.20 K7UZA9LYa.net
予想の値を出すことは可能
だけどそれで目標の利益を得られるかは別じゃね?
一度上手く利益を得られたとしても
トータルでは違う結果になるかもしれない

511:デフォルトの名無しさん
18/09/19 11:10:21.21 412dQebS0.net
AI×株の話題は荒れるから、野菜の分類でもやってろ
URLリンク(tech.nikkeibp.co.jp)

512:デフォルトの名無しさん
18/09/19 11:32:57.12 lkpniOf60.net
ステマ

513:デフォルトの名無しさん
18/09/19 12:36:23.68 Y3nn/dRn0.net
判別難し過ぎワロタ
URLリンク(tech.nikkeibp.co.jp)

514:デフォルトの名無しさん
18/09/19 12:56:40.73 qfGEDKPk0.net
荒れるっていうか実際やってる人達が他のやつもみんなやりだすと稼げないからな
仮想通貨のデイトレゲーは大資本ないと厳しい(ただし、手数料フリーの取引所は例外)
深層異常検知の自動取引なんてすごいお手軽にリスクを最小化できる
まぁこの程度はネタバレにすらならん
大手はみんなやってることだろ

515:デフォルトの名無しさん
18/09/19 13:07:48.03 Y3nn/dRn0.net
震災後は地震になると猛烈に先物を売る地震アルゴとかあったけど、
全戦全敗で撤退した

516:デフォルトの名無しさん
18/09/19 13:36:19.39 0YSgxbfH0.net
>深層異常検知の自動取引なんてすごいお手軽にリスクを最小化できる
それってどうやって性能評価してんの?

517:デフォルトの名無しさん
18/09/19 14:27:41.75 cOJ83uNip.net
今日休みだから勉強してたけど5時間で参考書4ページくらいしか進んでない…
時間かけたからって理解したわけじゃないし…
ビニングとか交互作用とか多項式とか概要はまだしもなんでこれをやる必要があるのか全然分からん

518:デフォルトの名無しさん
18/09/19 17:46:00.61 kf9wev3s0.net
俺はもう一冊読破したよ
コツは実践しながら読むこと

519:デフォルトの名無しさん
18/09/19 18:05:00.19 vTJ3S9KO0.net
>>489
でも野村證券とか大手はAPIに負荷かけまくりじゃん?
おかしいよね?
見せ板も出しまくりだよね?

520:デフォルトの名無しさん
18/09/19 18:32:49.69 rc2jjf3P0.net
JUPYTERLAB、まじで統合開発環境になっていやがるな
機能が一気に増えたけど、余計なことまで出来るようになるのは吉か凶か
DSモドキ、機械学習エンジニア(笑)たちの御用達ツールって感じじゃなくなったな
本当にIDEだ。pythonを使って、チームで本格的な開発を行う人たちの強力なプラットホームだわ

521:デフォルトの名無しさん
18/09/19 19:09:37.45 uTNvKAU6a.net
jupyterlabはvim拡張がnotebookと比べて貧弱だったから使ってなかったけど今は進化したかな?

522:デフォルトの名無しさん
18/09/19 19:48:23.18 cOJ83uNip.net
>>500
一冊終えるのに何ヶ月もかかるわ
だからって完全に理解してるわけじゃないし時間かかった分どんどん忘れていくし…
実際コード書きながらやるんだけど参考書の説明が分からないと先に進めず考えこむんだけど分からなくても先にとりあえず進んだ方が良いのかなぁ

523:デフォルトの名無しさん
18/09/19 20:10:53.74 aiIpKBDGM.net
>>495
よーし、裏山に生えてたニラでも食うかー

524:デフォルトの名無しさん
18/09/19 21:33:48.11 kwGXfZ/C0.net
>>495
実物見りゃすぐ分かるよ

525:デフォルトの名無しさん
18/09/19 21:40:24.46 GiAtsVA80.net
>>504
いちいち立ち止まって考えるのも、無理やり先に進むのも、どっちも正解だろ
どういうやり方をしてもすぐに忘れるんだから
ただ、表面的な知識を忘れても、なにか身についているような状態にするのが理想なんじゃないかなとは思う
数学、統計学、機械学習の理論、情報科学の基本的な考え方
プログラマー的な物作りの直感や、WEB系なら文系的な能力などなど
そういうものが最も大切で、ライブラリやプログラムの文法、ツールの使い方なんかは
適当にそのつどそのつどで調べながら身につければOKなんじゃないか
最近、ツール関連は流行り廃りが激しいから、使い方をいっぱんに覚えるより
使い方がわからないツールを、英語ドキュメントを読みながら、なんとなく動かして
作業をちんたらちんたら進められる能力のほうが貴重な気がしてきた

526:デフォルトの名無しさん
18/09/19 23:21:12.82 Ev5NTVKN0.net
>>499
細かく読み進める前に、学ぶ意義付けを見直した方がいいんじゃないか。
入門書であれば章の始めなどに「何のためにこの章を学習するか」という意義付けが示されるはずだし、
示されないのであればあまり入門者向けの本ではないからもっと簡単な本から学んだ方がいい

527:デフォルトの名無しさん
18/09/20 10:23:59.56 gnTuzcyga.net
TF2、高レベルに進化するんだな
数年後にkeras消えてそう
URLリンク(www.hellocybernetics.tech)

528:デフォルトの名無しさん
18/09/20 11:30:12.09 M2lBgQHaa.net
>>509
tensorflowとpytorchか?新しいの出てくるのか?

529:デフォルトの名無しさん
18/09/20 12:23:04.74 o2DcsKoW0.net
開発元同じだから

530:デフォルトの名無しさん
18/09/20 12:23:46.76 zlEb4gGt0.net
覚えるの大変だから、これ以上新しいものは出さないでほしい

531:デフォルトの名無しさん
18/09/20 12:30:15.73 7WHuQIEOF.net
おまいの脳は退化してる

532:デフォルトの名無しさん
18/09/20 14:26:41.94 X9J+trAU0.net
脳が学習を拒否してるだけだろ

533:デフォルトの名無しさん
18/09/20 20:04:23.98 5NSt/ZF+0.net
その機械学習の勉強意味あるんですか?
何か後に繋がるの?って言われた
そんなこと俺が聞きてぇよ!
何も知らない分からないとこから始めて勉強方法だって手探りだしやってる内容があってるか分からんし内容だって難しいしイメージ湧かないしで本人が一番不安だわ(;ω;)
なんだよちくしょう…(;ω;)

534:デフォルトの名無しさん
18/09/20 21:53:45.68 lp9E2ptbd.net
>>515
向いてない、無理してやることない

535:デフォルトの名無しさん
18/09/20 23:50:09.61 sVm7S3su0.net
我々の代わりにニューロンが学習してくれるのさ

536:デフォルトの名無しさん
18/09/21 17:00:40.03 2t2lIB8da.net
>>509
消えるも何も TF に統合されて普通に使われてるんだが…

537:デフォルトの名無しさん
18/09/21 17:58:59.29 MMpIEkeV0.net
俺にも機械学習を学んだ後のゴールが見えない

538:デフォルトの名無しさん
18/09/21 18:09:41.64 KMw7nMvLa.net
目的がないのに無理して学んでもしょうがないんじゃない?
受託分析の会社に就職したいとかこういうプロダクト作りたいとか、何かしらゴールを設定しないと学んだ事も役に立たないと思う。

539:デフォルトの名無しさん
18/09/21 18:27:13.56 2t2lIB8da.net
同意。もう素人がちょっと勉強してどうにかなるレベルじゃないし

540:デフォルトの名無しさん
18/09/21 19:46:22.75 egkcJrwz0.net
仕事に付けばゴールが設定されるんでは

541:デフォルトの名無しさん
18/09/21 20:31:40.71 y+ZygFeU0.net
何となく流行ってるからオライリーのディープラーニング本買ったけど、
私立文系非職業プログラマが趣味で手を出せる感じじゃない?

542:デフォルトの名無しさん
18/09/21 20:34:15.20 Hsxyb3Kxd.net
趣味でやるならいいんじゃないの。ゆっくり基礎から楽しめばいい

543:デフォルトの名無しさん
18/09/21 20:36:04.02 LuvXm+Whp.net
deepで回帰やってる人ほとんど殆ど見ないし明らかに回帰問題な物もクラス分類に置き換えてやってるの見る限り回帰よりも分類の方がハードル低いんですかね

544:デフォルトの名無しさん
18/09/21 20:36:50.09 81NIT4ig0.net
当たり前だろ
計算コストも高い

545:デフォルトの名無しさん
18/09/21 22:11:23.45 MMpIEkeV0.net
>>523
いや、理論が分からないんじゃなくて、
膨大なデータと強力な計算装置がないと、たいした物は作れない。
つまり、個人がチマチマと何かを作る用途には向かない

546:デフォルトの名無しさん
18/09/22 00:13:45.94 ZacBjrxHa.net
個人でもアイデア次第で面白いもの作れると思うけどな。
計算資源は趣味でやるレベルならクラウドサービス借りればいいし、
画像分類系ならImageNetのファインチューニングである程度は精度上げられる。
ラーメン二郎識別の人も、ベースの画像は自作のクローラーで集めた3万枚くらいでデータ拡張やGANで増やして精度を上げたと聞く。
サービスとして提供するレベルを目指すなら企業の力がいるけど、それは機械学習に限ったことではないし、
個人で楽しむ環境は自力で十分に用意できると思う。

547:デフォルトの名無しさん
18/09/22 00:38:25.15 l1Z1a/8Ia.net
AzureとかGCPとか使いたいけど無料でやりたくてもカード登録必須で無料枠越えたら勝手に課金されるのが怖い
勝手に課金せず無料枠越えたら問答無用でストップしてくれればいいのに

548:デフォルトの名無しさん
18/09/22 00:40:04.67 K4iJB0qOa.net
教師なしでできる事やればいいのに
強化学習とかさ

549:デフォルトの名無しさん
18/09/22 00:50:07.29 uHslz/QL0.net
できるかよ
どれだけ借りるつもりだ

550:デフォルトの名無しさん
18/09/22 00:51:12.19 7+L6lvEZ0.net
>>529
GCPは無課金枠使い切ったらクレカ開始するまでワンステップあるよ。
使い切った時点でサービスが一度止まるはず

551:デフォルトの名無しさん
18/09/22 02:23:42.00 MAFBmZ+e0.net
ヒカキンの年収が10億超え!?明石家さんま・坂上忍も驚愕の総資産とは??
URLリンク(logtube.jp)
HIKAKIN(ヒカキン)の年収が14億円!?トップYouTuberになるまでの道のりは?
URLリンク(youtuberhyouron.com)
なぜか観てしまう!!サバイバル系youtuberまとめ
URLリンク(tokyohitori.hatenablog.com)
あのPewDiePieがついに、初心YouTuber向けに「視聴回数」「チャンネル登録者数」を増やすコツを公開!
URLリンク(naototube.com)
27歳で年収8億円 女性ユーチューバー「リリー・シン」の生き方
URLリンク(headlines.yahoo.co.jp)
1年で何十億円も稼ぐ高収入ユーチューバー世界ランキングトップ10
URLリンク(gigazine.net)
おもちゃのレビューで年間12億円! 今、話題のYouTuberは6歳の男の子
URLリンク(www.businessinsider.jp)
彼女はいかにして750万人のファンがいるYouTubeスターとなったのか?
URLリンク(www.businessinsider.jp)
1億円稼ぐ9歳のYouTuberがすごすぎる……アメリカで話題のEvanTubeHD
URLリンク(weekly.ascii.jp)
専業YouTuberがYouTubeでの稼ぎ方具体的に教えます。ネタ切れしない方法は〇〇するだけ。
URLリンク(www.youtube.com)
YouTubeで稼げるジャンルは〇〇動画です。YouTube講座
URLリンク(www.youtube.com)

552:デフォルトの名無しさん
18/09/22 10:37:32.71 IfrUT1bl0.net
GTX1080 一枚くらいなら個人買うけど、何すべえ

553:デフォルトの名無しさん
18/09/22 11:17:23.77 PGp2AKzL0.net
低学歴知恵遅れが独学で機械学習を学習しても
一向に学習効果があがらない
このスレみてればよくわかるだろ
それと同じだからな
まずバカは勉強のしかたや努力のしかたが分かってない
だからバカはバカのまま
さらにバカはバカの自覚がない
だからバカはバカのまま
もうカンペキなレス

554:デフォルトの名無しさん
18/09/22 11:25:37.78 K4iJB0qOa.net
流行りのディープラーニングやりたいのはわかるけどさ
データ集めるのもチューニングするのも難しいから、初心者が自前のデータでやるのは難しいと思うよ
まずはSVMとか決定木みたいな古典的な手法から入るべき
データが少なくてもそこそこ上手くいくから

555:デフォルトの名無しさん
18/09/22 11:26:26.13 K4iJB0qOa.net
ディープラーニングだけが機械学習じゃないよ

556:デフォルトの名無しさん
18/09/22 11:28:18.51 IfrUT1bl0.net
自分はそのつもりっす。方式による計算量の多寡の検討もつかないのでまずは一通り遊んでみる

557:デフォルトの名無しさん
18/09/22 13:26:53.70 fcKY0ssXa.net
このスレってnlp ネタ殆ど出ないよな。あんまやってる人いないのかな。
allennlp 使いたいけど評判どう? 知ってたら教えて

558:デフォルトの名無しさん
18/09/22 13:47:27.41 +pucmWord.net
>>539
このスレは超初心者救済スレだから。LSTMもattentionもまったく出てこないw
AllenNLPは良くできてるけど少しハードル高いかも、仕様の把握が面倒

559:デフォルトの名無しさん
18/09/22 13:48:31.14 xOVRbYWfF.net
nipless

560:デフォルトの名無しさん
18/09/22 13:51:54.80 IfrUT1bl0.net
ダジャレスレ

561:デフォルトの名無しさん
18/09/22 13:56:57.15 fcKY0ssXa.net
>>540
サンクス、そう言えば rnn の話し見ませんね。
やっぱドキュメント読まないとダメか… pytorchもわからんとダメ?

562:デフォルトの名無しさん
18/09/22 17:59:22.10 QjN0TaMB0.net
ここに書いても無駄だろうけど
Attentionした時間順を特徴に埋め込んでから
CNNでその時間を考慮しつつ、初期層含め各層の時間情報を参照しながら畳み込む
ってモデルさっさとでないかなぁ
sota必至だから早く論文出てほしい
脳はやってる
URLリンク(www.eurekalert.org)
でも既存の機械学習では、初期の特徴に時間を付与することはほとんどやってない
RNNやLSTMが上手くいってないのは、初期から時間情報を連続的に把握して時間変化率を学習できないからだよ
いくら微分しても変化率とっても、初期状態からの時間情報を連続的に把握できないから学習できてない
一方、音声を特徴とする場合、ほとんどシークタイムが特徴に自動的に含まれるから
処理はクソ重くなるけど、高品質な結果が得られる
人間に置き換えても一緒
感覚器官は注意と畳み込みを同時に行いながら、それらの順でシーケンスを伝えて
脳はこの順番を記憶している

563:デフォルトの名無しさん
18/09/22 18:13:18.49 tW/Yy4gZ0.net
機械学習もいいが、センサーにはかなわん
ブラックボックスの中のものを重さや振った時の音で予測する・・・なんて回りくどいぜ
X線撮影で確認しろ
未来予測ならワームホール望遠鏡だ!

564:デフォルトの名無しさん
18/09/22 19:40:46.36 fcKY0ssXa.net
長崎は勝たないと脱落するぞ

565:デフォルトの名無しさん
18/09/22 19:41:06.05 fcKY0ssXa.net
ごめん、誤爆 orz

566:デフォルトの名無しさん
18/09/22 21:29:54.41 2qFIpkAdd.net
>>543
ドキュメントをなぞるだけなら不要

567:デフォルトの名無しさん
18/09/22 22:34:55.25 z+m4dANi0.net
>>503
デフォルト設定は貧弱
カスタマイズありきで拡張性は高いんだけど、使いこなせないなら、旧版をずっと使い続けた方がよさそう
こんなツールの設定コマンドを覚える暇があったら他にやらなければならないこと五万とあるだろ
俺は覚えるつもりだけど・・・

568:デフォルトの名無しさん
18/09/23 12:44:56.23 bLvK9Iso0.net
俺みたいな雑魚はまずnumpyとpandasとmatplotlibを使いこなせるように頑張るとこからだな

569:デフォルトの名無しさん
18/09/23 15:05:02.43 /sY9qa+Ta.net
>>550
的を得てるけど、深層学習が目的なら keras のサンプルでも動かすとモチベーションが保ちやすい
>>54


570:8 了解。ボチボチ覚えるつもりではいます



571:デフォルトの名無しさん
18/09/24 02:46:29.51 igBDxXXr0.net
>>544
カプセルネットワークみたいにベクトルに拡張して空間情報とするのは?

572:デフォルトの名無しさん
18/09/24 04:22:26.78 6dcTB1Rg0.net
>>544
マルコフ連鎖をモデルの中に組み込めば良いんじゃ無い?
でも微分で消えてしまうのかな.

573:デフォルトの名無しさん
18/09/24 09:09:25.13 ekT6BbXIa.net
>>551
chainerのサンプルコードの方が楽。

574:デフォルトの名無しさん
18/09/24 12:16:47.58 lNNMZfDzd.net
>>554
まだ使ってる人いるのか

575:デフォルトの名無しさん
18/09/24 12:26:29.26 VhNQr7Aka.net
>>554
オワコンの名前をあげていちいち絡むな
URLリンク(trends.google.co.jp)

576:デフォルトの名無しさん
18/09/24 16:12:04.69 6L+7kJR10.net
>>552
カプセルネットワークの手法だと
各層で獲得した特徴同士の空間的相対位置は正確になるけれど
それでは汎用性がない
脳は空間的相対位置を崩す事もできる
これは記憶している各時間情報を参照して相対位置すら入れ替え可能だからできる
注目した部分の特徴だけを切り取って、別物として貼り付けるのではなく
一定の連続的時間情報部分を切り取って、その部分の特徴を別の連続した時間情報の一部分をキーとして
完全に連結させることができる
だから本当の汎用性を獲得するためには、時間情報の連続的把握が絶対に必要になる
>>553
マルコフ性はこの場合適さない
何故ならば、脳と同様の構造を獲得するためには
過去、現在、未来すべての情報を参照する必要性があるから

577:デフォルトの名無しさん
18/09/24 16:27:32.53 5edCpy4L0.net
過去・現在・未来の区別は単なる幻想にすぎない アインシュタイン

578:デフォルトの名無しさん
18/09/24 17:28:14.05 Kttr1loZF.net
そうやね

579:デフォルトの名無しさん
18/09/24 18:08:33.46 G1aPepRna.net
>>558
マルコフ連鎖的なレスやな

580:デフォルトの名無しさん
18/09/24 18:51:54.57 FnEn+Nhsa.net
>>557
解き方知ってるんじゃないの? 自分で論文を書いた方が早いのでは。

581:デフォルトの名無しさん
18/09/24 19:11:49.55 Kxio7RVg0.net
URLリンク(qph.fs.quoracdn.net)

582:デフォルトの名無しさん
18/09/24 21:11:14.88 gWQCW5YD0.net
隠れマルコフモデルを覚える前にマルコフモデルを覚えましょう。

583:デフォルトの名無しさん
18/09/24 21:12:22.33 gWQCW5YD0.net
ついでに言うとウィナー過程とマルチンゲールも知っとけ

584:デフォルトの名無しさん
18/09/24 21:12:23.12 Kxio7RVg0.net
じゃあ待ち行列の勉強から

585:デフォルトの名無しさん
18/09/24 21:42:12.44 lJZK7+QF0.net
連休に行楽地へ行って体験しよう

586:デフォルトの名無しさん
18/09/24 22:10:45.88 G1aPepRna.net
>>556
どっちも使った事なさそう

587:デフォルトの名無しさん
18/09/24 23:18:47.49 OwMqA+EG0.net
初歩的な質問なんだけど、tensorflowやkeras、pytorchの違いは文法的な作法だけ?
機械学習の本1冊目だけど実践しながら読み終えて完全に理解はしてないけど深層学習も興味あるしやってみたいなと思うんだけど、みんながフレームワーク選ぶ基準教えてほしい

588:デフォルトの名無しさん
18/09/25 00:45:33.33 G04XkrxS0.net
・define and runとdefine by run、まあこの違いはなくなりつつある
・分野によって使われやすいのが違う気がする、arXivみてそんな気がしてるだけで統計とかはないけど

589:デフォルトの名無しさん
18/09/25 01:01:38.10 Rmy45yvb0.net
>>561
論文を書くためには結果が必要だけど
この手法は脳の構造模倣だけに凄まじい量のデータが必要になるのは明白
つまり現実的には、この畳込み


590:モデルを適用したGANも組み込む必要があって 作業量的にも計算量的にも個人ではまず無理



591:デフォルトの名無しさん
18/09/25 03:35:03.53 LXnmrKE+0.net
割込も体験するべき

592:デフォルトの名無しさん
18/09/25 04:07:52.14 IDRi2Kjza.net
>>570
仮に他人の論文があっても実現はできないと言ってるように聞こえる。
個人でできる範囲で成果を取った方が有益かもね。

593:デフォルトの名無しさん
18/09/25 14:23:16.83 NL395plNa.net
回帰における学習でデータ正規化を行った上で得られたモデルを使う場合は学習時の正規化で使った平均・標準偏差を使って入力値を変換しなければいけないと思うんだけど、
scikit-learnの使い方紹介記事とか読むとtrain_test_splitで訓練・テストデータ分離して各々別々にfit_transformで正規化している記事が大半で訓練・テストデータが異なる値で正規化されてしまうことになる
これは訓練・テストデータが大量にあればどうせ平均・標準偏差は変わらないだろうというだけの認識でいいの?

594:573
18/09/25 17:49:12.68 kAi0n2pKa.net
ごめん、見た記事では多分最初だけfit_transformして次では単にtransformしてたっぽい
それなら何の問題もないな

595:デフォルトの名無しさん
18/09/25 18:05:19.79 MY+XQBfWa.net
>>570
相対性理論とか実証は別の人がやることだってあり得る
論文を出すのはできるんじゃね
それが認められるかどうかは内容次第だし
本当に有益ならリソースを持つ組織が実証するし
必要ならその組織に所属すればいいだけ

596:デフォルトの名無しさん
18/09/25 18:09:03.58 MY+XQBfWa.net
>>573
実際に応用として使用する時に上手く行くかどうかじゃね?
学習に使うサンプルが偏ってたらその値を使って正規化すると
実際に使うときに期待する結果にならないんじゃね?
期待する結果に有意差がなければどっちでも良いんじゃないの?

597:デフォルトの名無しさん
18/09/25 22:06:17.44 niBQlr5vp.net
最近回帰問題解くのがキツすぎて無理やり0~1に正規化して分類みたいにやるのがいい気がしてきた

598:デフォルトの名無しさん
18/09/25 22:39:44.81 u+oxJT9H0.net
>>577
層を厚くすればなんとかなるんじゃないの?

599:デフォルトの名無しさん
18/09/26 00:52:49.34 OKJKpWkba.net
そろそろ PyTorch が無視できなくなってきたな つ
URLリンク(www.kdnuggets.com)

600:デフォルトの名無しさん
18/09/26 08:37:33.11 SJU9UbCQM.net
画像データを分類して教師データを作ろうとしてるんだけど、荒くでいいから自動で分類してくれるソフトないかな。

601:デフォルトの名無しさん
18/09/26 10:44:59.92 3yW6iUgn0.net
SOM

602:デフォルトの名無しさん
18/09/26 11:01:18.29 UoU/Uwygp.net
>>578
わからないです
画像の生成モデルで出てきた問題みたいに支配的な領域に適合して細かい構造を予測できないので、分類にしてダイス係数を使おうかと考えていました

603:デフォルトの名無しさん
18/09/26 12:18:49.20 5WxjrnKia.net
>>580
自動分類できないから機械学習使おうとしてるのにその前に自動分類してくれとは

604:デフォルトの名無しさん
18/09/26 13:07:40.99 SJU9UbCQM.net
>>583
最終的には自分で見なきゃいけないのは承知してるんだけど、荒く自動分類した後に人が修正って考えてます。
何とか教師データの作成を楽したい。

605:デフォルトの名無しさん
18/09/26 13:09:08.33 SJU9UbCQM.net
>>581
ちょっと調べてみます。

606:デフォルトの名無しさん
18/09/26 14:20:02.13 iQ/1ta8NM.net
>>584
qtクラスタリングとかどうよ?

607:デフォルトの名無しさん
18/09/26 14:48:10.49 nIEdWeYp0.net
画像にキャプション付けてくれるサービス探したらありそうだけど

608:デフォルトの名無しさん
18/09/26 17:42:13.90


609:/NSmYwyE0.net



610:デフォルトの名無しさん
18/09/26 18:41:51.88 IVfMWxLtM.net
>>588
当欠だな

611:589
18/09/26 18:42:16.88 IVfMWxLtM.net
s/当欠/凍結/

612:デフォルトの名無しさん
18/09/26 23:13:11.78 Lv/+nPmY0.net
あの画像なら人間でも間違えるから仕方ない

613:デフォルトの名無しさん
18/09/26 23:34:16.52 KPLU+0tA0.net
SVCのモデルを作る時にMinMaxscalerでスケール変換して、GridSearchCVでインスタンス作って、それに対してスケール変換した訓練データを使って学習させるって事をやったんだけど、これはダメらしいんだけど前処理の前に交差検証しろっていうのがよく分からない。
交差検証の過程では分割されたデータの一部が訓練用、残りがテスト用になって、訓練用となった部分を用いてモデルを学習させて、テスト用はモデルに対しての評価に使われる。
ここまでは大体分かる
しかし実はスケール変換する際にテスト用となった部分に含まれてる情報を使ってしまってる。
このようなデータはモデルに対してまったく新しいデータとは本質的に異なる。
???訓練用の一部がテスト用になるから??

614:デフォルトの名無しさん
18/09/27 09:27:07.99 sw1sA5ZZ0.net
>>592
スケール変換の際にテストデータの情報を使ってしまったら、そのテストデータは「まったく新しいデータ」とは言えない。

615:デフォルトの名無しさん
18/09/27 11:10:18.48 TDX1lgSt0.net
qiitaは機械学習の良い記事があっても全然ランキング入らなくなったな
ニワカが飽きたのか

616:デフォルトの名無しさん
18/09/27 11:20:21.49 je3kizhWM.net
>>568
pythonはプログラム言語でtensorflowやkerasは効率よく機械学習するためのライブラリ。

617:デフォルトの名無しさん
18/09/27 12:14:59.19 PZBFougTa.net
>>594
それならいい記事見つけたらここにでもURL貼ってほしい
qiitaはタイムラインから良記事探すのが難しい

618:デフォルトの名無しさん
18/09/27 22:08:27.94 wuMHpvCna.net
>>594
飽きたというよりも具体的な恩恵が得られないからモチベーションが続かないのでしょう
趣味でやっている人たちばかりじゃないから

619:デフォルトの名無しさん
18/09/27 22:17:45.69 JFP1gXlP0.net
英語で検索した方が有用な情報多いよ

620:デフォルトの名無しさん
18/09/28 00:38:02.48 ofrlpy9E0.net
いいね!稼ぎじゃはてな民くらいしか喜ばないしねぇ

621:デフォルトの名無しさん
18/09/28 03:48:20.58 tygoHNB90.net
確かにQiitaは最近いいね減ったな

622:デフォルトの名無しさん
18/09/28 05:57:58.09 f7OuEx/00.net
aidemyとpyqどっちで勉強したらいいですか?

623:デフォルトの名無しさん
18/09/28 08:06:29.54 tNPqQxrGM.net
>>601
どっちもやる。
アイデミーから始めなよ。わかりやすいから。

624:デフォルトの名無しさん
18/09/28 11:08:53.98 Y0/Lv67w0.net
QiitaとHatenaは、インストール大先生の記事が多すぎて困るから検索結果から外してるわ

625:デフォルトの名無しさん
18/09/28 13:48:47.12 2IAcjEkAa.net
交差検証について検索してみるとその説明として、ある1つのモデルを考えた場合に、
元データをN分割してその内(N-1)個で学習して、残り1個でテストするのをNパターン繰り返すようなものと理解した。
しかし、CourseraのWeek6で説明してる交差検証は複数のモデルを思いついた場合の最良モデルを選択する手段と説明されており、
データをA,B,Cに3分割して、各モデルをAで学習、Bで評価して比較(このBをcross validation setと呼んでいる)、Bの評価で決定された最良モデルをCで最終評価するという内容になっている。
両者は別物のような気がするんだけど自分が理解しきれていないだけなのか?

626:デフォルトの名無しさん
18/09/28 13:54:00.86 gzs2bud+0.net
>>601
俺ならaidemyの無料部分だけ流し見してからPyQやる

627:デフォルトの名無しさん
18/09/28 13:56:04.74 SiTAO34aa.net
SQuA


628:D とかやってる人いる? 流行りの先端モデルとかご存知なら教えてください >>604 どっちも間違ってない。前者は本来の定義。後者は実践的。



629:デフォルトの名無しさん
18/09/29 02:24:39.57 yQMwJEzv0.net
キーエンスなんかは見込み客の連絡先を得るためにホワイトペーパー量産してるんだけどね

630:デフォルトの名無しさん
18/09/29 08:04:19.54 wDXsR2010.net
キーエンスw

631:デフォルトの名無しさん
18/09/29 08:26:36.08 yQMwJEzv0.net
あそこ営業に投資全振りだぞ

632:デフォルトの名無しさん
18/09/29 08:28:19.01 70xW0TAb0.net
誤爆?

633:デフォルトの名無しさん
18/09/29 14:07:15.40 yQMwJEzv0.net
qiitaのいいね稼ぎじゃ具体的な恩恵にならんから続かないって話

634:デフォルトの名無しさん
18/09/29 15:00:04.38 puJ5IR70a.net
キーエンスのホワイトペーパーは捨てアド偽名でダウンロードしてるわ

635:デフォルトの名無しさん
18/09/29 15:24:38.05 7SQdA+7Xd.net
tf 1.11 出たな、更新かけたわ。2.0 はまだなのか
>>611
それな。勤め先の意向で、個人名でひたすらいいね集めたけど、ひと~つも仕事に結び付かなかったw
むしろ教えてちゃんからのメールが山ほどきて仕事にならなくなったんで撤退したわ
>>606
一時期やってたけど、もう少し具体的に。どういうアプローチかわからんとアドバイスしにくい。

636:デフォルトの名無しさん
18/09/29 17:38:55.50 ynHzs1ix0.net
機械学習のコンペばかりやっているが
いったい実務ではどのぐらいの精度ならOKにするのかとふと思った

637:デフォルトの名無しさん
18/09/29 20:16:28.30 e3HXgOr80.net
>>614
kaggleでメダル取れた?

638:デフォルトの名無しさん
18/09/29 21:12:49.04 a1dybsKxa.net
>>613
どもです。普通に DR とか使ってますがスコアが全然伸びません。
>>614
一般論としては仕事でやるならコストパフォーマンスが一番大事。

639:デフォルトの名無しさん
18/09/30 03:30:54.29 vyqR8BGx0.net
仕事では客が要求精度決めるから
それぞれだよ

640:デフォルトの名無しさん
18/09/30 04:27:12.57 vzbl47da0.net
協調フィルタリングって任意の精度に調整する事って出来るのかな
例えば,精度が高すぎると新しい商品に巡り会えないから,適度に偶奇性を取り入れたりすること
またそのレベルを調整できるモデルって可能?

641:デフォルトの名無しさん
18/09/30 05:52:32.17 qu8/Df54d.net
>>617
コスト度外視できんだろ、バカだな、なのか

642:デフォルトの名無しさん
18/09/30 05:53:02.84 qu8/Df54d.net
>>616
2はそれじゃ無理

643:デフォルトの名無しさん
18/09/30 05:55:15.11 vyqR8BGx0.net
>>619
できる見込み立たなかったら出来ないって言うよ

644:デフォルトの名無しさん
18/09/30 06:00:07.93 qu8/Df54d.net
>>621
そういうことじゃないよ、金の話しだよ。精度上げるのに必要な金を気前良く払う客なんて滅多にいない。

645:デフォルトの名無しさん
18/09/30 06:23:01.63 /+1iIgD2a.net
予算枠は先に決まってるからね。逆に決まってない場合はまずアポーンw
>>617
一般論として、とわざわざ書いたじゃんw
>>620
なるほど… そういうことですか、別のモデルを調べてみます。

646:デフォルトの名無しさん
18/09/30 09:48:36.88 ec4AtTFMa.net
コスパって比率だからな
いくら比率良くてもパフォーマンスの絶対値が小さければ意味ないぞ

647:デフォルトの名無しさん
18/10/01 18:25:21.59 LX/fpUaV0.net
人工知能の本買ってきた
これで二冊目
迷ったけど
ディープラーニングとPython,Tensorflowの本にした
それにしても人工知能の本たくさんあった
5種類ぐらい
最初に買った「ゼロからはじめる~」の本は10万部いったって
URLリンク(i.imgur.com)

648:デフォルトの名無しさん
18/10/02 10:08:44.43 +xKncks4F.net
本屋の棚は賑わってるが粗製乱造

649:デフォルトの名無しさん
18/10/02 14:00:24.78 2AKCrptK0.net
ネットに同等以上の記事はいくらでもあるけど
情報まとまってるし、時間ない初学者が買うのはあり
でも電子版じゃないとjupyterやcolabで手動かしながらやるのだるいから
実本はあまり勧めないな
つってもどんどん技術が陳腐化してくから、MLの基本とCNN,RNN,LSTM,GAN,Attentionの概要だけ身につけたら
あとはdeepmindのサイトと論文全部読んで
arxivでsota達成したのだけ数カ月分読むほうがトレンドを追いかけるには手っ取り早い
実装がメインなら論文追わずにKerasやっとけ
すごいのでたらそのうちKerasにも実装されるから
それ使えってのが俺の結論

650:デフォルトの名無しさん
18/10/02 14:42:01.10 NniAR04ea.net
NLP やるなら PyTorch がもう主流だけどな

651:デフォルトの名無しさん
18/10/02 15:23:49.58 vWOGvfhl0.net
みなさん、やっぱり、ハイスペックのゲーミングマシンで開発しているの?

652:デフォルトの名無しさん
18/10/02 15:43:52.26 yDKwoLm6F.net
うむ

653:デフォルトの名無しさん
18/10/02 17:16:03.25 87pQjPQD0.net
むう

654:デフォルトの名無しさん
18/10/02 17:56:36.01 0PhHaGOIa.net
クラウドでやるのと実機用意するのとどっちが安いか

655:デフォルトの名無しさん
18/10/02 18:13:26.05 cO79peqD0.net
データ量次第としか

656:デフォルトの名無しさん
18/10/02 18:41:23.89 2AKCrptK0.net
研究や学習用途ならもうcolabでいいんじゃねーの
TPUまで無料で使えるようになったから最強すぎるわ
ただ12時間超える学習なんかの場合は、途中で保存する処理を作るか
既にある処理を使う必要性がある、Kerasには既にある
tensorflowの低レベルでやる場合は自分で書く必要性あるのかな
Pytorchはまだ触り程度で詳しくないけど、kerasと同じようなライブラリあるならそれ使えばいい
業務やサービスの場合はどうせAWSかGCP,Azure借りるだろ

657:デフォルトの名無しさん
18/10/02 19:43:42.88 +CsxoQN10.net
学習中に不明な原因で接続が切れてた時の絶望感

658:デフォルトの名無しさん
18/10/02 20:06:47.65 Fw3dw3lVa.net
sotaという言葉を知らなかったので調べてみてstate of the artの略で直訳すると最先端とかそんな意味だから何となく言いたいことは分かったけど機械学習分野での定義に当たるものが全然見つからない
sota達成とか誰がどうやって決めてるの?

659:デフォルトの名無しさん
18/10/02 22:59:32.38 2AKCrptK0.net
>>636
sotaって論文で書いてる連中は
arxivなどのオープンアクセスな論文サイトに投稿されてるコンピューターサイエンスの論文で有用なのはほとんど全部読んでる
だからどれが最高水準かを知ってるから
その分野におけるsota近辺のモデルの論文の結果と比較してsota達成としている
っていうのが俺の認識
論文完璧に追ってる以外にもカンファレンスで情報収集してるってのもあるだろうけど
物理学なんかと違って、ML分野はオープンアクセスな論壇で発展してきたからこうなってるんだろうけど
その辺の事情を追えてない日本人には全くわからん状態なのも


660:仕方ない



661:デフォルトの名無しさん
18/10/03 00:45:53.65 +7Euz2g60.net
あぁカンファで同時にsota報告が上がってたんだな
そりゃカンファで採択されるかされないかと
オープンアクセスサイトでの論文公開タイミングは、ものによってはちげーから
いくら先端追ってる連中でも被るのは仕方ない
・GAN的な双方向マルチ学習(自然言語で言うなら敵対的逆翻訳のしあいっこ?)
・特徴に時間間隔とポジション付与
・Attentionの構造改善
この3つが大体の今のトレンドだろ
全部組み合わせたのも半年以内に出てくるだろうけど
結局の所、事象における連続した時間情報の把握と
その状態における時間変化率の学習が上手く出来てないから汎用AIにはなれんだろう
ちゃんとした学者にも俺と似たような事言ってる人いて
脳構造の模倣による時間情報の学習を、哲学的な部分からやろうって言ってる人いるけどどうなるかな

662:デフォルトの名無しさん
18/10/03 01:19:02.14 jfGK+xYpd.net
脳構造だからうまくいくわけではない。

663:デフォルトの名無しさん
18/10/03 01:29:53.26 dkrkSoVO0.net
神経構造なんかは既に解明されてるけど
そうなるとしか分かっていない回路形成の発生学とか
関与しているらしいけど何してるのかいまいち分かっていないグリア細胞とか
こっちの方がモデリングをする上で重要だと思うけどね
今のMLでは生物の機能の一部を模擬してるだけに過ぎない

664:デフォルトの名無しさん
18/10/03 05:14:23.46 qbq9gQbU0.net
脳の機能(笑)哲学(笑)

665:デフォルトの名無しさん
18/10/03 07:10:02.33 1cI2REY30.net
哲学の成功は論理学と実証主義で完成したと思うよ

666:デフォルトの名無しさん
18/10/03 12:26:33.96 +58IDnbyd.net
脳モデルはあくまでNN、DL起案者が何をモデルとして数学モデル化したかであり、NN、DLは脳モデルそのものではない。
また、そもそも脳モデルが最適なモデルかどうかはまだ証明が存在しない。
たまたまDLがよい結果出たからそう言われてるだけ。
脳モデルが最適かどうかという前提を何も示さずに、研究者のなかに、『脳の伝達には~があるから○○を追加したらこうなるはず』みたいな議論されているのを見ると、滑稽に思う。

667:デフォルトの名無しさん
18/10/03 12:28:55.71 sAnPmpeI0.net
なぜ最適を求める?

668:デフォルトの名無しさん
18/10/03 12:30:34.07 +58IDnbyd.net
よりよい結果が出たらそっちを採用するだけ。
それが脳モデルになるとは限らない

669:デフォルトの名無しさん
18/10/03 12:31:35.36 in1HBOwn0.net
>>643
ほんこれなんだよね
Andrew NgもDLを脳に結びつけて説明するのは、誤解が多いから止めたって言ってたわ

670:デフォルトの名無しさん
18/10/03 12:32:37.09 +58IDnbyd.net
世にこれだけディープラーニングが広まったのは、脳モデルの説明による功績が大きいけどな

671:デフォルトの名無しさん
18/10/03 12:35:57.50 d+kLgL6ia.net
人間の脳が超省エネで高速に学習して予測結果の出力できているのと比較すると現行モデルは脳と呼ぶにはには程遠いんだけど非理系メディアでは人間の脳を模倣しているなどと喧伝される

672:デフォルトの名無しさん
18/10/03 12:37:46.63 +58IDnbyd.net
世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。

673:デフォルトの名無しさん
18/10/03 13:20:41.80 +7Euz2g60.net
CSなんて結局は計算能力との兼ね合いだからな
仮に完全に脳構造を模倣したモデルを組み上げたとしても
それがクソ重くて現行の計算資源で回らなけりゃクソだとしか評価されん
かといって脳構造の模倣や考察を放棄するのは適切じゃない
世界モデルもこっちよりだし、強化学習をやるためには避けられないだろう
問題はRNN,LSTMでは事象における連続した時間情報をあまり学習できてないってことだな
TransformerとUTは時間間隔をと位置情報を特徴に埋め込む事で
マルチヘッドセルフattentionにそれらを処理させているが
おそらくは完璧を求めると
階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み
なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある
これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう
計算力はどうせなんとかなるだろうし
誰かが気づけば、あと10数年で汎用AI完成するんじゃね

674:デフォルトの名無しさん
18/10/03 13:29:51.05 +7Euz2g60.net
そもそも脳構造の哲学的推測における模倣はイメージじゃなくて
ただの論理的思考なんだけど
推測の過程において論理が飛躍しすぎてると
大抵の人は妄想だと判断して、考察を放棄する傾向があるからしょうがないわな
それが当たり前だもの

675:デフォルトの名無しさん
18/10/03 13:44:52.38 oOvr2XyQF.net
>>646 >>643
小脳とかをラッピングする形で大脳とかがあるように
NN を別の何かでラッピングするようなモデルがあっても
まだ全く脳のモデルですらない

676:デフォルトの名無しさん
18/10/03 14:55:39.60 in1HBOwn0.net
遺伝的アルゴリズムも名前が強そうだけど、中身はびっくりするレベルでしょぼいよね

677:デフォルトの名無しさん
18/10/03 15:06:45.43 6o3Z2FT6a.net
ニューラルネットワークなんて回帰を多層にしただけの超単純構造

678:デフォルトの名無しさん
18/10/03 15:13:09.66 sMpk7EKP0.net
>>653
はったり、生物の進化淘汰なんかどこにもない

679:デフォルトの名無しさん
18/10/03 17:49:41.29 +58IDnbyd.net
大事なことなので復唱します。
世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。
研究者の中には、脳モデルが最適かどうかという前提を何も示さずに、
『脳の伝達には~があるから○○を追加したらこうなるはず』
みたいな議論されている方々がおりますが、根拠が薄く滑稽に思います。

680:デフォルトの名無しさん
18/10/03 17:57:56.16 Oh5w9UQA0.net
>>653
AI関連の話題は、タイトルは大げさなんだけど内容はショボいよね。
俺は頑張りますよ!

681:デフォルトの名無しさん
18/10/03 18:01:02.58 3Ieh8Fw3a.net
最適かどうかは完成物があれば評価できるんだからいいでしょ
そもそも分からないから研究して新しいモデルを作るわけで
最初から何が最適か知っている人がいてそれを論理的に説明できるのならばとっくにそれがスタンダードになっているはずだがそうはなっていないんだから最適など誰も知らないと考えるのが自然

682:デフォルトの名無しさん
18/10/03 18:05:20.45 +58IDnbyd.net
つまりはまあ、最近の機械学習の論文なんて実績と経験則の積み上げ(帰納)によるものがほとんど。
より良きモデルからスタートしたモデルのアイデア(演繹)を求む

683:デフォルトの名無しさん
18/10/03 18:10:02.59 +58IDnbyd.net
アイデアと結果はあるのだかどうやって世に広めたらよい?

684:デフォルトの名無しさん
18/10/03 19:13:50.43 +7Euz2g60.net
結果あるなら論文書いてarxivに投稿すりゃいいじゃん
高校生ですらMLの論文書いて投稿してたの昨年話題になったろ

685:デフォルトの名無しさん
18/10/03 19:49:21.65 +58IDnbyd.net
とんくす

686:デフォルトの名無しさん
18/10/03 20:20:45.13 /V77wCG20.net
くず

687:デフォルトの名無しさん
18/10/03 20:46:41.49 YGFwuNMda.net
>>654
単純構造で目的を達成できるならそれでいいんじゃないの?
必要以上に複雑にして何かメリットあるの?

688:デフォルトの名無しさん
18/10/03 20:48:04.20 YGFwuNMda.net
>>656
既に実現されてるものを真似するのは方法の一つじゃない?
バイオミメティクスとか

689:デフォルトの名無しさん
18/10/03 20:49:11.35 YGFwuNMda.net
>>656
最適かどうかは評価尺度によるところもある
経済的になのか学習コスト的になのか結果の精度的になのかとか

690:デフォルトの名無しさん
18/10/03 20:50:21.87 YGFwuNMda.net
>>659
結果が全てじゃね?
モデルを頭で考えても実証しなければ役に立たない
数学とは違うんじゃね?

691:デフォルトの名無しさん
18/10/03 20:52:26.70 YGFwuNMda.net
>>660
それが何の役に立つのかとか
どんな課題を解決できるのかとか
あとは面白いかどうかとか
ARの技術もスノーとかに応用することで一般


692:の人は知らずに広まっている



693:デフォルトの名無しさん
18/10/03 21:20:45.12 nJKVxi/i0.net
>>665-668
だからそれは問題に対する帰納的なアプローチだってば。
マイナーチェンジでしかパワーアップ出来ない。

694:デフォルトの名無しさん
18/10/03 21:23:50.17 nJKVxi/i0.net
また一概には言えないかもしれないが、結果がローカルなものになりがち

695:デフォルトの名無しさん
18/10/03 21:59:40.34 +7Euz2g60.net
そもそも、ある程度iter重ねるか、少数サンプルで訓練した結果をプロットしつつ
新しいモデルを模索してくのが、今のMLにおける超大多数の手法であって
最初から論理的組み立て部分で有効性を実証してから研究始めるなんて手法は
明らかにメジャーではない
取り敢えず予測モデルで雑なコーディングして、訓練結果をプロットしてみてから
数理モデルの有効性に論理的説明をつけるって手法がメインなのは
有用な結果を残してる論文の内容からも分かる話
ほとんどだーれも論理的説明を完璧に付けてから研究開始なんざしてない
+58IDnbydの論理展開を適用すると、全員滑稽になっちまわないか?
そういう意味で、既に有効性の確認されている脳っていうクソ速いモデルを模倣するっていうのは
その時点である程度の論理的根拠を示しているとすら言える

696:デフォルトの名無しさん
18/10/03 22:50:21.46 nJKVxi/i0.net
>>671
別にメジャーじゃなくてよい

697:デフォルトの名無しさん
18/10/03 23:45:59.60 23QaCALXd.net
pytorchのdevcon見たけど、想像以上に大企業がサポートしてて驚いたわ

698:デフォルトの名無しさん
18/10/04 02:41:08.39 pZO9AOgra.net
見てみたけど、グローバルなAI 企業オールスターって感じか。
もっとも作ってるのが FBだから別に不思議でもないけど

699:デフォルトの名無しさん
18/10/04 08:08:02.24 WxW/ujNfa.net
>>669
帰納的なアプローチがなぜダメだと判断でしているのか判らない
帰納的に発見した原理を演繹的に適用すれば良いだけじゃね?

700:デフォルトの名無しさん
18/10/04 08:09:50.53 WxW/ujNfa.net
>>671
帰納的に探索する領域の問題でしかないだろ
演繹的に適用する原理に相当するものはどこから発見するのか

701:デフォルトの名無しさん
18/10/04 09:59:48.56 s8ye5l4L0.net
>>674
chainerは消えゆく運命だな

702:デフォルトの名無しさん
18/10/04 10:14:52.99 AR+RrRuFa.net
好きなんだがなあchainer

703:デフォルトの名無しさん
18/10/04 12:34:16.99 zfP46g3nC.net
Google Colaboratoryで
!apt -y install libcusparse8.0 libnvrtc8.0 libnvtoolsext1
ができなくなったのだがどうしたらいいのか

704:デフォルトの名無しさん
18/10/04 16:03:33.77 ux982JKKH.net
演繹厨うぜえ

705:デフォルトの名無しさん
18/10/04 16:06:35.89 U2kQDcc/D.net
>>677-678
tensorflow vs pytorch の構図が完全できちゃったんで他のフレームワークはどれも厳しいけど、
tf の独占を阻止できたのは良かったと思う。 tf が pytorch を滅茶意識してて笑えるw

706:デフォルトの名無しさん
18/10/04 21:40:33.09 OD7dB/YO0.net
vs?

707:デフォルトの名無しさん
18/10/04 22:39:26.90 ktsy0FKAM.net
visual studio

708:デフォルトの名無しさん
18/10/04 22:49:09.65 Y2bv5t2ed.net
>>678
良くも悪くも学生の趣味の域をこえてないのが残念。こえる気もないのかもしれんが

709:デフォルトの名無しさん
18/10/04 23:03:51.17 Y2bv5t2ed.net
>>681
2.0 はもろにそうだな

710:デフォルトの名無しさん
18/10/05 08:18:57.73 cSK7i/nT0.net
NVIDIA RTX 2080 Ti vs 2080 vs 1080 Ti vs Titan V, TensorFlow Performance with CUDA 10.0
URLリンク(www.pugetsystems.com)


711:-with-CUDA-10-0-1247/ 1080Tiと2080Ti比べるとFP32は1.35倍くらいでゲームのベンチ(レイトレコア・テンサーコア使わない場合)と同じ傾向でガッカリ FP16ならさすがに速いね https://i.imgur.com/Dq30VnF.jpg https://i.imgur.com/2TIiMYA.jpg



712:デフォルトの名無しさん
18/10/05 10:48:01.81 kmGDPqXya.net
>>684
マルチGPUの分散学習はChainerが速いらしいから頑張ってほしい

713:デフォルトの名無しさん
18/10/05 10:49:42.25 df1WW8w8d.net
頑張ります

714:デフォルトの名無しさん
18/10/05 14:37:40.34 gTNPCIlY0.net
えいえいおー!

715:デフォルトの名無しさん
18/10/06 11:03:04.25 BbA86mG7a.net
>>687
TPUも作れるといいね(棒)

716:デフォルトの名無しさん
18/10/06 11:16:45.87 KmIbUzui0.net
NHK教育を見て56088倍賢く三連休
スレリンク(liveetv板)

717:デフォルトの名無しさん
18/10/06 11:26:12.82 BbA86mG7a.net
>>686
もう CUDA 10.0 かよ…

718:デフォルトの名無しさん
18/10/06 15:40:12.76 638PEvttp.net
会社の技術発表で機械学習をやってみたいんだけど、
例えば、複数ユーザーのツイートを元に学習したアカウントで人間っぽく自動ツイートする、みたいなことって可能ですかね?
使用したことある言語はjavaくらいで、Pythonとかは始めてなんですけど

719:デフォルトの名無しさん
18/10/06 15:55:25.36 XsiX8sgh0.net
可能

720:デフォルトの名無しさん
18/10/06 16:33:50.86 638PEvttp.net
>>694
よっしゃ、ありがとうございます
1ヶ月あればなんとかなるかな、頑張ってみます

721:デフォルトの名無しさん
18/10/06 20:05:00.50 higGMxdEa.net
>>695
ところで業務にはどう役に立つのかね?
って言われそう

722:デフォルトの名無しさん
18/10/06 20:07:01.15 ID0TniNM0.net
日立なんかは一年目に技術発表会やると聞いた。上の人がどこの人か知らんけど

723:デフォルトの名無しさん
18/10/06 20:27:28.89 638PEvttp.net
>>696
自分が興味あることを発表する、みたいな場だから業務に役立つかどうかは大丈夫
ゲーム作ってきたやつもいたし

724:デフォルトの名無しさん
18/10/06 23:01:16.24 b45hR0RV0.net
>>698
著作権的にいいのかな?社内向けとはいえそれをツイートまでするのはアウトな気がする。
自分のアカウントを2つ作ってやるならいいだろうけど。

725:デフォルトの名無しさん
18/10/07 00:40:28.21 ZjjgaVC7d.net
日本の会社はぬるくて羨ましいなw

726:デフォルトの名無しさん
18/10/07 00:41:29.35 frJT0RqLa.net
Twitterはツイートした時点でその内容を誰がどう使ってもいいよ、っていう規約だったはずだから権利侵害とかの問題はないだろう

727:デフォルトの名無しさん
18/10/07 00:47:51.09 ocS+GJlU0.net
独学で機械学習やってるけど、おっさんの腐った脳味噌じゃもうダメだな
大学入り直すか

728:デフォルトの名無しさん
18/10/07 00:53:53.77 o9Iuox3HM.net
2chの方が著作権移動が厳しい

729:デフォルトの名無しさん
18/10/07 01:05:46.09 pVH0KbtN0.net
CS系の大学の講座取ってみたい

730:デフォルトの名無しさん
18/10/07 05:08:20.65 xO6NYQqFa.net
>>701
著作権で言えば
著作者人格権とか著作権に関する権利の一部は
日本の法律ではなくならないはず

731:デフォルトの名無しさん
18/10/07 08:15:30.42 aHxIGRZV0.net
そもそも、機械学習で生成されたデータが
元にしたデータの著作権侵害になるという法律屋の指摘に違和感を感じる

732:デフォルトの名無しさん
18/10/07 10:47:04.83 uEzOl35Aa.net
日本は法律面で先進国としては非常に珍しい機械学習パラダイスなんだぞ
進化する機械学習パラダイス ~改正著作権法が日本のAI開発をさらに加速する~
URLリンク(storialaw.jp)

733:デフォルトの名無しさん
18/10/07 11:49:44.59 KWtYBJ31r.net
個人情報保護とかで医療関連はデータ集めるのが大変だそうな

734:デフォルトの名無しさん
18/10/07 13:26:13.70 cOS3eGIea.net
その辺りは医療機関自体がデータサイエンティスト雇うか業務提携するしかないだろう

735:デフォルトの名無しさん
18/10/07 14:08:13.17 pVH0KbtN0.net
ワイのレントゲン写真使うなら肖像権高うつきまっせ

736:デフォルトの名無しさん
18/10/07 14:14:45.59 cOS3eGIea.net
>>707
つまりこういうことだな
現在:「学習用データ収集→諸々の処理→学習モデル作成」を個人や自社だけで完結させる場合は商用・非商用問わず著作権者の許可を取る必要なし
2019/1/1以降:収集した学習用データを他人・他社に公開・販売するのも著作権者の許可を取る必要なし
※もちろんデータ解析という本来の目的外に使用されることが明らかなら違法なので、漫画データの学習のためと謳って漫画スキャン画像を公開するとかはNG
ということで、明らかに悪用するような使い方でない限りデータ解析において著作権を気にする必要はない

737:デフォルトの名無しさん
18/10/07 14:39:39.25 oKeY0xEK0.net
日本の会社はそもそもデータが足りていないらしい
今まで何をやっていたのか
URLリンク(www.nikkei.com)

738:デフォルトの名無しさん
18/10/07 14:57:55.33 pk8THtng0.net
著作権先進国(笑)

739:デフォルトの名無しさん
18/10/07 17:38:31.02 QNVjJiYJ0.net
医療用プログラムは医療用機器つくってた会社しかつくれないように規制されてるから入れん
認可とるのも大金かかるし

740:デフォルトの名無しさん
18/10/07 20:31:31.21 JgS2v7in0.net
GANのdiscriminatorの次元減らしていくのに全結合無い方がいい理由ってなんで?

741:デフォルトの名無しさん
18/10/07 20:35:00.63 JgS2v7in0.net
DCGANの話です

742:デフォルトの名無しさん
18/10/07 20:45:05.75 RqIyj36Sa.net
>>708
個人情報を収集するときに
利用目的や利用の範囲とかを示して
合意して貰えばいいだけじゃね?
おと要求に応じて開示修正破棄できるようなシステムにしておく
ほかの個人情報でも同じ

743:デフォルトの名無しさん
18/10/07 21:24:55.65 mIq+f5AO0.net
URLリンク(arxiv.org)
> 3.2 Global Average Pooling
> ・・・
> However, the fully connected layers are prone to overfitting, thus hampering the generalization ability
> of the overall network. Dropout is proposed by Hinton et al. [5] as a regularizer which randomly
> sets half of the activations to the fully connected layers to zero during training. It has improved the
> generalization ability and largely prevents overfitting [4].
> In this paper, we propose another strategy called global average pooling to replace the traditional
> fully connected layers in CNN.

744:デフォルトの名無しさん
18/10/07 21:52:22.17 7A10mDJxa.net
>>718
全結合いれたら汎化性が落ちるから他の方法でってことか
ありがとう

745:デフォルトの名無しさん
18/10/08 11:31:11.61 +5qyKWRvF.net
そろそろ大目玉か
URLリンク(www.anaconda.com)

746:デフォルトの名無しさん
18/10/08 11:41:22.65 99LuQJTy0.net
なんと!あのアナ


747:コンダが! っていうほどのもんじゃないな



748:デフォルトの名無しさん
18/10/08 11:44:43.55 tjiQ7o9Aa.net
>>717
これから集める分ならそうだろうな
でも今まで蓄積してきたデータは?
契約上使っても問題ないデータが十分集まる頃にはとっくに置いてかれている

749:デフォルトの名無しさん
18/10/08 13:07:36.75 DvqFh1SLa.net
>>722
再確認すれば良い
利用規約の改定とか普通によくあることじゃね?

750:デフォルトの名無しさん
18/10/08 14:02:39.08 tjiQ7o9Aa.net
>>723
その再確認を既に退院した人含めて一人一人にするのは結構大変なのでは

751:デフォルトの名無しさん
18/10/08 14:31:20.58 4tTMXMXFM.net
arxivのML・DL論文読んでて、日本人の論文少ないよね

752:デフォルトの名無しさん
18/10/08 15:01:42.20 aB+juQlj0.net
意味不明な日本語を使う奴に言われてもw

753:デフォルトの名無しさん
18/10/08 21:08:44.54 ND0ntmkA0.net
英語でわざわざ論文書くのがめんどくさい

754:デフォルトの名無しさん
18/10/08 22:37:44.37 6UIbz9ua0.net
外人嫌いだし

755:デフォルトの名無しさん
18/10/09 08:09:06.14 CcNKGFP6a.net
>>724
新たに同等のデータを取るのに比べたら手軽じゃね?
現状の法律でも個人情報の開示や削除要請には応じる必要があるからその準備はできているはず

756:デフォルトの名無しさん
18/10/09 23:49:18.73 ++HOLxfb0.net
分類するときにA,B,C,その他みたいに分類できるアルゴってないですか?
学習してない似たやつをどや顔で間違えて分類するのでなんとかしたい

757:デフォルトの名無しさん
18/10/10 00:05:38.82 RHyHT8b9d.net
何回同じ話ししてるんだよw

758:デフォルトの名無しさん
18/10/10 00:28:20.33 egfM8dTJa.net
one vs allかone vs restで検索
もしこれで分類できないならそもそも使っている特徴量的にA,B,Cとその他が区別できていないのだろうから特徴量の選定からやり直す

759:デフォルトの名無しさん
18/10/10 00:36:06.65 FD95EKzWa.net
このネタ同じ人?

760:デフォルトの名無しさん
18/10/10 22:38:14.62 3fNWNg5+0.net
URLリンク(www.atmarkit.co.jp)

761:デフォルトの名無しさん
18/10/10 23:37:18.54 CBzJzHEZ0.net
文系PG抱えてる会社を食い物にしてる商売多すぎぃ

762:デフォルトの名無しさん
18/10/10 23:58:52.97 Z3r4I6WRd.net
>>735
文系PGを抱えてる会社を食い物にする商売ってどんなの?

763:デフォルトの名無しさん
18/10/11 00:28:18.10 DY6agtqn0.net
PGに文系もくそもねぇwww

764:デフォルトの名無しさん
18/10/11 12:18:02.31 vTh9hgF00.net
土方PGで大儲け(過去形)

765:デフォルトの名無しさん
18/10/11 13:19:56.51 WWqvoXS50.net
AI(人工知能)で既存のホワイトカラーの仕事がなくなっていく一方、
孫正義が言うように「AIのエンジニア」の需要は増加する。
そこで画像生成について学習してるんだが、
DCGANは知ってたけどCycleGANというものがあることを知った。
CycleGANはかなり面白そうだったので、
自前で人工知能作ろうと思う。
GTX1080で3時間学習させたCycleGANがあったんだが、
男性のトーク動画を女性に変換しててすごいと思った。
これから購入するパソコンのスペックはGTX1080以上あればいいかな?

766:デフォルトの名無しさん
18/10/11 14:28:42.63 jOTiaxUqd.net
URLリンク(www.atmarkit.co.jp)

767:デフォルトの名無しさん
18/10/11 14:31:15.98 jOTiaxUqd.net
アトラクター?
ポアンカレ断面の不動点でも求めてんのかね

768:デフォルトの名無しさん
18/10/11 15:17:36.46 ZiWr81AM0.net
孫正義(笑)、Nスペ見るの止めた

769:デフォルトの名無しさん
18/10/11 15:46:57.01 jc3fQN7m0.net
これからの時代、人とのコミュニケーションを鍛えた方が生�


770:ォ残れると思うよ



771:デフォルトの名無しさん
18/10/11 16:57:44.01 HpbFK8lR0.net
小学生並みの感想

772:デフォルトの名無しさん
18/10/11 20:26:53.34 CtLR6CRw0.net
メモリ8GBでやってたら訓練データメモリに載せるだけでPCカックカクでわろた
一応モデルとバッチはGPUのメモリが足りてるからいいけど訓練データ増えたらきついな

773:デフォルトの名無しさん
18/10/11 21:10:29.30 1ID+fdJTF.net
tensorflowなら訓練データをtfrecordにして非同期読み込みすることで解決できるけど

774:デフォルトの名無しさん
18/10/11 22:57:22.95 4qCh5/Foa.net
もちろんTFRecord にしてもいいけど、
クラウドでやれば最低でも50GB くらいはメモリついてるぞ

775:デフォルトの名無しさん
18/10/13 01:09:59.51 I1iISO8ka.net
訓練データ全部メモリに乗せてやるなんてMNISTくらいでは

776:デフォルトの名無しさん
18/10/13 02:24:00.24 jEm+mxu1d.net
前処理段階でメモリ食うことは良くある

777:デフォルトの名無しさん
18/10/13 07:45:13.94 43imppejM.net
GANを勉強してるんだけど識別者の方は基本的に偽物だと判別し続けるってことで合ってる?

778:デフォルトの名無しさん
18/10/13 10:31:45.96 I1iISO8ka.net
>>750
本物を本物と言えることも必要

779:デフォルトの名無しさん
18/10/13 11:04:08.69 43imppejM.net
>>751
じゃあどうやって識別者は学習していくの?
教師ありではないんだよね

780:デフォルトの名無しさん
18/10/13 12:02:40.35 I1iISO8ka.net
>>752
ジェネレータが生成したデータか本物のデータかってラベルはGANの枠組みとして付けられるよね
GAN自体は教師なしだけど、識別者はこのラベルを使って教師あり学習する

781:デフォルトの名無しさん
18/10/13 12:44:21.13 Ttma0+8g0.net
識別側の学習には教師ラベルを使ってるってこと?
識別の学習では普通の分類NNのように本物の画像と正解ラベルを使ってそれらが本物であることを学習させていくってことか
じゃあ生成側の学習はどういうしくみ?

782:デフォルトの名無しさん
18/10/13 12:46:04.58 Ttma0+8g0.net
>>753
安価つけ忘れた
ID変わったけど>>752です

783:デフォルトの名無しさん
18/10/13 12:50:36.89 i0XDn4SOr.net
>>754
識別側はデータが本物なら1、偽物なら0を出力するように学習するので、生成側は自分が出力した画像に対して識別側に1を出力させるように学習する

784:デフォルトの名無しさん
18/10/13 23:46:17.79 H2kFVs7yM.net
>>750
偽物だと判別し続けるモデルに何の価値がある?何にも判別してないではないか?
言ってておかしいと思わないのか?

785:デフォルトの名無しさん
18/10/14 00:18:48.06 /A1DvWgqM.net
GCPのAutoMLを利用しようと思ったんですけど、プロジェクトを選んでSET UP NOW押すとCustomer bucket missingって出てセットアップ完了しないのですが、今ってAutoML使えないんですか?

786:デフォルトの名無しさん
18/10/14 00:27:21.52 Zxcto2qXM.net
自己解決
自分で "プロジェクト名-vcm"のバケット作ったら行けました
何故自動で作ってくれないのか…

787:デフォルトの名無しさん
18/10/15 17:10:25.47 XOcEM3KAa.net
CNNの分類による検出器の作り方ですが、
例えばドラレコの映像から人を検出したいとして、
例えば映像を適当な矩形でラスターして人か否かの2出力CNNにかける場合、
学習時にネガティブとして与える映像はどうすればよいですか?
人以外のあらゆる一般物体を集めてきてネガティブにすれば効果が高いのでしょうか?

788:デフォルトの名無しさん
18/10/15 17:26:36.70 pLFxHPPwH.net
>>760
それだと分類じゃなくて
YoloとかSSDとか検出器使ったほうがよくない?

789:デフォルトの名無しさん
18/10/15 17:33:34.17 DA9AnZKj0.net
自動運転ってyoloとかでオブジェクトを単体で視認したあとってif文とかでやってるのそれとも論理


790:プログラミングとか?



791:デフォルトの名無しさん
18/10/15 17:55:37.84 slolOmKf0.net
強化学習

792:デフォルトの名無しさん
18/10/15 17:58:33.61 XOcEM3KAa.net
>>761
検出器を使っていない理由は画像全体にラベリングしたいからです。
それだとsegnetとかをファインチューニングしろ、と言われそうですが
ピクセル単位のラベル付けが困難なためです。
結局のところsegnetのようなものをCNN分類を矩形走査することで画像単位ラベルのデータセットのみで作ってみたいということです。

793:デフォルトの名無しさん
18/10/15 18:19:52.50 9QRJdq2GM.net
>763
あーそうだよね。その存在が脳からドロップアウトしてたわ、ありがとう

794:デフォルトの名無しさん
18/10/15 20:07:31.69 E7SbL8Og0.net
BERTの成功とその方向性から垣間見える
脳構造の模倣における連続的時間情報の把握の重要性
俺が>>650で指摘している状態
>おそらくは完璧を求めると
>階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み
>なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある
>これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう
これとBERTで使われている、transformerよりも更に多層化して各層の参照密度を増したAttentionとの間に
共通性を認識できる人がいれば、俺の言い分を理解してもらえるだろう

795:デフォルトの名無しさん
18/10/15 20:39:32.75 hN5zazbp0.net
深層学習の話ばっかりだなあ。

796:デフォルトの名無しさん
18/10/15 21:31:32.65 E6pr56BO0.net
 私たち日本人の、日本国憲法を改正しましょう。
総ム省の、『憲法改正國民投票法』、でググって
みてください。拡散も含め、お願い致します。

797:デフォルトの名無しさん
18/10/15 23:56:03.72 9aG3IWOmd.net
>>767
じゃあ違うネタ出してみるとか
確率モデルのpythonライブラリは何使うのが良いかしら

798:デフォルトの名無しさん
18/10/16 10:26:37.31 EErsLIkGH.net
>>764
画像全体にラベリングってマルチラベリングしたいってこと?
yoloもssdもラベル作成は矩形単位だよ

799:デフォルトの名無しさん
18/10/16 11:20:41.82 LVmCdvc6a.net
>>770
例えば、
2cm四方の正方形の画像があった場合
その正方形を1cmの正方形で4分割して
分割した4枚それぞれの正方形の画像が人か人でないか分類したい、
ということです。

800:デフォルトの名無しさん
18/10/16 11:48:54.78 EErsLIkGH.net
>>771
その分割から分類までやってくれるのが
まさにyoloとかssdなんだけど
だめなの?

801:デフォルトの名無しさん
18/10/16 15:38:43.59 QWtfESi60.net
そこんとこyoloしく

802:デフォルトの名無しさん
18/10/16 18:17:43.89 LVmCdvc6a.net
>>772
すいませんちょっと質問の仕方を変えさせていただきます。
入力画像に対して「犬」、「猫」、「それ以外」の3クラスで分類を行いたい場合、
「それ以外」のクラスとしてどのようなデータセットを与えるべきでしょうか?

803:デフォルトの名無しさん
18/10/16 18:25:20.10 YLHbxnbGF.net
one
near
threeee

804:デフォルトの名無しさん
18/10/16 18:49:53.13 UuSrgkCV0.net
与えないという手もあります

805:デフォルトの名無しさん
18/10/16 19:13:11.22 mtK6WYc4a.net
cifar-10やimagenetの犬猫以外のクラスを与えたら?

806:デフォルトの名無しさん
18/10/16 19:50:22.81 tz34EJAO0.net
この質問2ヶ月くらい続いてるやつではw

807:デフォルトの名無しさん
18/10/16 19:51:50.12 Mw6GhB3d0.net
>>774
>「それ以外」のクラスとして
2クラス分類で
犬  1 0
猫   0 1
それ以外 0 0
とする。やったことないけど。


808:デフォルトの名無しさん
18/10/16 20:00:36.33 REwKrz4C0.net
データセットって訓練データとテストデータに分けるんだな

809:デフォルトの名無しさん
18/10/16 20:00:36.96 BMUJGI05r.net
>>779
確率として解釈出来なくなるから
犬 100
猫 010
他 001
とすべき

810:デフォルトの名無しさん
18/10/16 20:07:12.15 Yv68lSL8a.net
>>777
与えた結果よい成果を生んだ参考文献か何かはありますでしょうか?
直感ですと特徴を捉えきれないと思うのですが上手く作用したりするのですかね。
>>779
そんなラベルの付け方もあるのですか??
出力層の正規化はどうやるのでしょうか?


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch