【統計分析】機械学習・データマイニング20at TECH
【統計分析】機械学習・データマイニング20 - 暇つぶし2ch650:デフォルトの名無しさん
18/10/02 14:42:01.10 NniAR04ea.net
NLP やるなら PyTorch がもう主流だけどな

651:デフォルトの名無しさん
18/10/02 15:23:49.58 vWOGvfhl0.net
みなさん、やっぱり、ハイスペックのゲーミングマシンで開発しているの?

652:デフォルトの名無しさん
18/10/02 15:43:52.26 yDKwoLm6F.net
うむ

653:デフォルトの名無しさん
18/10/02 17:16:03.25 87pQjPQD0.net
むう

654:デフォルトの名無しさん
18/10/02 17:56:36.01 0PhHaGOIa.net
クラウドでやるのと実機用意するのとどっちが安いか

655:デフォルトの名無しさん
18/10/02 18:13:26.05 cO79peqD0.net
データ量次第としか

656:デフォルトの名無しさん
18/10/02 18:41:23.89 2AKCrptK0.net
研究や学習用途ならもうcolabでいいんじゃねーの
TPUまで無料で使えるようになったから最強すぎるわ
ただ12時間超える学習なんかの場合は、途中で保存する処理を作るか
既にある処理を使う必要性がある、Kerasには既にある
tensorflowの低レベルでやる場合は自分で書く必要性あるのかな
Pytorchはまだ触り程度で詳しくないけど、kerasと同じようなライブラリあるならそれ使えばいい
業務やサービスの場合はどうせAWSかGCP,Azure借りるだろ

657:デフォルトの名無しさん
18/10/02 19:43:42.88 +CsxoQN10.net
学習中に不明な原因で接続が切れてた時の絶望感

658:デフォルトの名無しさん
18/10/02 20:06:47.65 Fw3dw3lVa.net
sotaという言葉を知らなかったので調べてみてstate of the artの略で直訳すると最先端とかそんな意味だから何となく言いたいことは分かったけど機械学習分野での定義に当たるものが全然見つからない
sota達成とか誰がどうやって決めてるの?

659:デフォルトの名無しさん
18/10/02 22:59:32.38 2AKCrptK0.net
>>636
sotaって論文で書いてる連中は
arxivなどのオープンアクセスな論文サイトに投稿されてるコンピューターサイエンスの論文で有用なのはほとんど全部読んでる
だからどれが最高水準かを知ってるから
その分野におけるsota近辺のモデルの論文の結果と比較してsota達成としている
っていうのが俺の認識
論文完璧に追ってる以外にもカンファレンスで情報収集してるってのもあるだろうけど
物理学なんかと違って、ML分野はオープンアクセスな論壇で発展してきたからこうなってるんだろうけど
その辺の事情を追えてない日本人には全くわからん状態なのも


660:仕方ない



661:デフォルトの名無しさん
18/10/03 00:45:53.65 +7Euz2g60.net
あぁカンファで同時にsota報告が上がってたんだな
そりゃカンファで採択されるかされないかと
オープンアクセスサイトでの論文公開タイミングは、ものによってはちげーから
いくら先端追ってる連中でも被るのは仕方ない
・GAN的な双方向マルチ学習(自然言語で言うなら敵対的逆翻訳のしあいっこ?)
・特徴に時間間隔とポジション付与
・Attentionの構造改善
この3つが大体の今のトレンドだろ
全部組み合わせたのも半年以内に出てくるだろうけど
結局の所、事象における連続した時間情報の把握と
その状態における時間変化率の学習が上手く出来てないから汎用AIにはなれんだろう
ちゃんとした学者にも俺と似たような事言ってる人いて
脳構造の模倣による時間情報の学習を、哲学的な部分からやろうって言ってる人いるけどどうなるかな

662:デフォルトの名無しさん
18/10/03 01:19:02.14 jfGK+xYpd.net
脳構造だからうまくいくわけではない。

663:デフォルトの名無しさん
18/10/03 01:29:53.26 dkrkSoVO0.net
神経構造なんかは既に解明されてるけど
そうなるとしか分かっていない回路形成の発生学とか
関与しているらしいけど何してるのかいまいち分かっていないグリア細胞とか
こっちの方がモデリングをする上で重要だと思うけどね
今のMLでは生物の機能の一部を模擬してるだけに過ぎない

664:デフォルトの名無しさん
18/10/03 05:14:23.46 qbq9gQbU0.net
脳の機能(笑)哲学(笑)

665:デフォルトの名無しさん
18/10/03 07:10:02.33 1cI2REY30.net
哲学の成功は論理学と実証主義で完成したと思うよ

666:デフォルトの名無しさん
18/10/03 12:26:33.96 +58IDnbyd.net
脳モデルはあくまでNN、DL起案者が何をモデルとして数学モデル化したかであり、NN、DLは脳モデルそのものではない。
また、そもそも脳モデルが最適なモデルかどうかはまだ証明が存在しない。
たまたまDLがよい結果出たからそう言われてるだけ。
脳モデルが最適かどうかという前提を何も示さずに、研究者のなかに、『脳の伝達には~があるから○○を追加したらこうなるはず』みたいな議論されているのを見ると、滑稽に思う。

667:デフォルトの名無しさん
18/10/03 12:28:55.71 sAnPmpeI0.net
なぜ最適を求める?

668:デフォルトの名無しさん
18/10/03 12:30:34.07 +58IDnbyd.net
よりよい結果が出たらそっちを採用するだけ。
それが脳モデルになるとは限らない

669:デフォルトの名無しさん
18/10/03 12:31:35.36 in1HBOwn0.net
>>643
ほんこれなんだよね
Andrew NgもDLを脳に結びつけて説明するのは、誤解が多いから止めたって言ってたわ

670:デフォルトの名無しさん
18/10/03 12:32:37.09 +58IDnbyd.net
世にこれだけディープラーニングが広まったのは、脳モデルの説明による功績が大きいけどな

671:デフォルトの名無しさん
18/10/03 12:35:57.50 d+kLgL6ia.net
人間の脳が超省エネで高速に学習して予測結果の出力できているのと比較すると現行モデルは脳と呼ぶにはには程遠いんだけど非理系メディアでは人間の脳を模倣しているなどと喧伝される

672:デフォルトの名無しさん
18/10/03 12:37:46.63 +58IDnbyd.net
世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。

673:デフォルトの名無しさん
18/10/03 13:20:41.80 +7Euz2g60.net
CSなんて結局は計算能力との兼ね合いだからな
仮に完全に脳構造を模倣したモデルを組み上げたとしても
それがクソ重くて現行の計算資源で回らなけりゃクソだとしか評価されん
かといって脳構造の模倣や考察を放棄するのは適切じゃない
世界モデルもこっちよりだし、強化学習をやるためには避けられないだろう
問題はRNN,LSTMでは事象における連続した時間情報をあまり学習できてないってことだな
TransformerとUTは時間間隔をと位置情報を特徴に埋め込む事で
マルチヘッドセルフattentionにそれらを処理させているが
おそらくは完璧を求めると
階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み
なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある
これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう
計算力はどうせなんとかなるだろうし
誰かが気づけば、あと10数年で汎用AI完成するんじゃね

674:デフォルトの名無しさん
18/10/03 13:29:51.05 +7Euz2g60.net
そもそも脳構造の哲学的推測における模倣はイメージじゃなくて
ただの論理的思考なんだけど
推測の過程において論理が飛躍しすぎてると
大抵の人は妄想だと判断して、考察を放棄する傾向があるからしょうがないわな
それが当たり前だもの

675:デフォルトの名無しさん
18/10/03 13:44:52.38 oOvr2XyQF.net
>>646 >>643
小脳とかをラッピングする形で大脳とかがあるように
NN を別の何かでラッピングするようなモデルがあっても
まだ全く脳のモデルですらない

676:デフォルトの名無しさん
18/10/03 14:55:39.60 in1HBOwn0.net
遺伝的アルゴリズムも名前が強そうだけど、中身はびっくりするレベルでしょぼいよね

677:デフォルトの名無しさん
18/10/03 15:06:45.43 6o3Z2FT6a.net
ニューラルネットワークなんて回帰を多層にしただけの超単純構造

678:デフォルトの名無しさん
18/10/03 15:13:09.66 sMpk7EKP0.net
>>653
はったり、生物の進化淘汰なんかどこにもない

679:デフォルトの名無しさん
18/10/03 17:49:41.29 +58IDnbyd.net
大事なことなので復唱します。
世に広めるにはイメージが大事です。
ただ研究者はイメージで研究してはダメです。
研究者の中には、脳モデルが最適かどうかという前提を何も示さずに、
『脳の伝達には~があるから○○を追加したらこうなるはず』
みたいな議論されている方々がおりますが、根拠が薄く滑稽に思います。

680:デフォルトの名無しさん
18/10/03 17:57:56.16 Oh5w9UQA0.net
>>653
AI関連の話題は、タイトルは大げさなんだけど内容はショボいよね。
俺は頑張りますよ!

681:デフォルトの名無しさん
18/10/03 18:01:02.58 3Ieh8Fw3a.net
最適かどうかは完成物があれば評価できるんだからいいでしょ
そもそも分からないから研究して新しいモデルを作るわけで
最初から何が最適か知っている人がいてそれを論理的に説明できるのならばとっくにそれがスタンダードになっているはずだがそうはなっていないんだから最適など誰も知らないと考えるのが自然

682:デフォルトの名無しさん
18/10/03 18:05:20.45 +58IDnbyd.net
つまりはまあ、最近の機械学習の論文なんて実績と経験則の積み上げ(帰納)によるものがほとんど。
より良きモデルからスタートしたモデルのアイデア(演繹)を求む

683:デフォルトの名無しさん
18/10/03 18:10:02.59 +58IDnbyd.net
アイデアと結果はあるのだかどうやって世に広めたらよい?

684:デフォルトの名無しさん
18/10/03 19:13:50.43 +7Euz2g60.net
結果あるなら論文書いてarxivに投稿すりゃいいじゃん
高校生ですらMLの論文書いて投稿してたの昨年話題になったろ

685:デフォルトの名無しさん
18/10/03 19:49:21.65 +58IDnbyd.net
とんくす

686:デフォルトの名無しさん
18/10/03 20:20:45.13 /V77wCG20.net
くず

687:デフォルトの名無しさん
18/10/03 20:46:41.49 YGFwuNMda.net
>>654
単純構造で目的を達成できるならそれでいいんじゃないの?
必要以上に複雑にして何かメリットあるの?

688:デフォルトの名無しさん
18/10/03 20:48:04.20 YGFwuNMda.net
>>656
既に実現されてるものを真似するのは方法の一つじゃない?
バイオミメティクスとか

689:デフォルトの名無しさん
18/10/03 20:49:11.35 YGFwuNMda.net
>>656
最適かどうかは評価尺度によるところもある
経済的になのか学習コスト的になのか結果の精度的になのかとか

690:デフォルトの名無しさん
18/10/03 20:50:21.87 YGFwuNMda.net
>>659
結果が全てじゃね?
モデルを頭で考えても実証しなければ役に立たない
数学とは違うんじゃね?

691:デフォルトの名無しさん
18/10/03 20:52:26.70 YGFwuNMda.net
>>660
それが何の役に立つのかとか
どんな課題を解決できるのかとか
あとは面白いかどうかとか
ARの技術もスノーとかに応用することで一般


692:の人は知らずに広まっている



693:デフォルトの名無しさん
18/10/03 21:20:45.12 nJKVxi/i0.net
>>665-668
だからそれは問題に対する帰納的なアプローチだってば。
マイナーチェンジでしかパワーアップ出来ない。

694:デフォルトの名無しさん
18/10/03 21:23:50.17 nJKVxi/i0.net
また一概には言えないかもしれないが、結果がローカルなものになりがち

695:デフォルトの名無しさん
18/10/03 21:59:40.34 +7Euz2g60.net
そもそも、ある程度iter重ねるか、少数サンプルで訓練した結果をプロットしつつ
新しいモデルを模索してくのが、今のMLにおける超大多数の手法であって
最初から論理的組み立て部分で有効性を実証してから研究始めるなんて手法は
明らかにメジャーではない
取り敢えず予測モデルで雑なコーディングして、訓練結果をプロットしてみてから
数理モデルの有効性に論理的説明をつけるって手法がメインなのは
有用な結果を残してる論文の内容からも分かる話
ほとんどだーれも論理的説明を完璧に付けてから研究開始なんざしてない
+58IDnbydの論理展開を適用すると、全員滑稽になっちまわないか?
そういう意味で、既に有効性の確認されている脳っていうクソ速いモデルを模倣するっていうのは
その時点である程度の論理的根拠を示しているとすら言える

696:デフォルトの名無しさん
18/10/03 22:50:21.46 nJKVxi/i0.net
>>671
別にメジャーじゃなくてよい

697:デフォルトの名無しさん
18/10/03 23:45:59.60 23QaCALXd.net
pytorchのdevcon見たけど、想像以上に大企業がサポートしてて驚いたわ

698:デフォルトの名無しさん
18/10/04 02:41:08.39 pZO9AOgra.net
見てみたけど、グローバルなAI 企業オールスターって感じか。
もっとも作ってるのが FBだから別に不思議でもないけど

699:デフォルトの名無しさん
18/10/04 08:08:02.24 WxW/ujNfa.net
>>669
帰納的なアプローチがなぜダメだと判断でしているのか判らない
帰納的に発見した原理を演繹的に適用すれば良いだけじゃね?

700:デフォルトの名無しさん
18/10/04 08:09:50.53 WxW/ujNfa.net
>>671
帰納的に探索する領域の問題でしかないだろ
演繹的に適用する原理に相当するものはどこから発見するのか

701:デフォルトの名無しさん
18/10/04 09:59:48.56 s8ye5l4L0.net
>>674
chainerは消えゆく運命だな

702:デフォルトの名無しさん
18/10/04 10:14:52.99 AR+RrRuFa.net
好きなんだがなあchainer

703:デフォルトの名無しさん
18/10/04 12:34:16.99 zfP46g3nC.net
Google Colaboratoryで
!apt -y install libcusparse8.0 libnvrtc8.0 libnvtoolsext1
ができなくなったのだがどうしたらいいのか

704:デフォルトの名無しさん
18/10/04 16:03:33.77 ux982JKKH.net
演繹厨うぜえ

705:デフォルトの名無しさん
18/10/04 16:06:35.89 U2kQDcc/D.net
>>677-678
tensorflow vs pytorch の構図が完全できちゃったんで他のフレームワークはどれも厳しいけど、
tf の独占を阻止できたのは良かったと思う。 tf が pytorch を滅茶意識してて笑えるw

706:デフォルトの名無しさん
18/10/04 21:40:33.09 OD7dB/YO0.net
vs?

707:デフォルトの名無しさん
18/10/04 22:39:26.90 ktsy0FKAM.net
visual studio

708:デフォルトの名無しさん
18/10/04 22:49:09.65 Y2bv5t2ed.net
>>678
良くも悪くも学生の趣味の域をこえてないのが残念。こえる気もないのかもしれんが

709:デフォルトの名無しさん
18/10/04 23:03:51.17 Y2bv5t2ed.net
>>681
2.0 はもろにそうだな

710:デフォルトの名無しさん
18/10/05 08:18:57.73 cSK7i/nT0.net
NVIDIA RTX 2080 Ti vs 2080 vs 1080 Ti vs Titan V, TensorFlow Performance with CUDA 10.0
URLリンク(www.pugetsystems.com)


711:-with-CUDA-10-0-1247/ 1080Tiと2080Ti比べるとFP32は1.35倍くらいでゲームのベンチ(レイトレコア・テンサーコア使わない場合)と同じ傾向でガッカリ FP16ならさすがに速いね https://i.imgur.com/Dq30VnF.jpg https://i.imgur.com/2TIiMYA.jpg



712:デフォルトの名無しさん
18/10/05 10:48:01.81 kmGDPqXya.net
>>684
マルチGPUの分散学習はChainerが速いらしいから頑張ってほしい

713:デフォルトの名無しさん
18/10/05 10:49:42.25 df1WW8w8d.net
頑張ります

714:デフォルトの名無しさん
18/10/05 14:37:40.34 gTNPCIlY0.net
えいえいおー!

715:デフォルトの名無しさん
18/10/06 11:03:04.25 BbA86mG7a.net
>>687
TPUも作れるといいね(棒)

716:デフォルトの名無しさん
18/10/06 11:16:45.87 KmIbUzui0.net
NHK教育を見て56088倍賢く三連休
スレリンク(liveetv板)

717:デフォルトの名無しさん
18/10/06 11:26:12.82 BbA86mG7a.net
>>686
もう CUDA 10.0 かよ…

718:デフォルトの名無しさん
18/10/06 15:40:12.76 638PEvttp.net
会社の技術発表で機械学習をやってみたいんだけど、
例えば、複数ユーザーのツイートを元に学習したアカウントで人間っぽく自動ツイートする、みたいなことって可能ですかね?
使用したことある言語はjavaくらいで、Pythonとかは始めてなんですけど

719:デフォルトの名無しさん
18/10/06 15:55:25.36 XsiX8sgh0.net
可能

720:デフォルトの名無しさん
18/10/06 16:33:50.86 638PEvttp.net
>>694
よっしゃ、ありがとうございます
1ヶ月あればなんとかなるかな、頑張ってみます

721:デフォルトの名無しさん
18/10/06 20:05:00.50 higGMxdEa.net
>>695
ところで業務にはどう役に立つのかね?
って言われそう

722:デフォルトの名無しさん
18/10/06 20:07:01.15 ID0TniNM0.net
日立なんかは一年目に技術発表会やると聞いた。上の人がどこの人か知らんけど

723:デフォルトの名無しさん
18/10/06 20:27:28.89 638PEvttp.net
>>696
自分が興味あることを発表する、みたいな場だから業務に役立つかどうかは大丈夫
ゲーム作ってきたやつもいたし

724:デフォルトの名無しさん
18/10/06 23:01:16.24 b45hR0RV0.net
>>698
著作権的にいいのかな?社内向けとはいえそれをツイートまでするのはアウトな気がする。
自分のアカウントを2つ作ってやるならいいだろうけど。

725:デフォルトの名無しさん
18/10/07 00:40:28.21 ZjjgaVC7d.net
日本の会社はぬるくて羨ましいなw

726:デフォルトの名無しさん
18/10/07 00:41:29.35 frJT0RqLa.net
Twitterはツイートした時点でその内容を誰がどう使ってもいいよ、っていう規約だったはずだから権利侵害とかの問題はないだろう

727:デフォルトの名無しさん
18/10/07 00:47:51.09 ocS+GJlU0.net
独学で機械学習やってるけど、おっさんの腐った脳味噌じゃもうダメだな
大学入り直すか

728:デフォルトの名無しさん
18/10/07 00:53:53.77 o9Iuox3HM.net
2chの方が著作権移動が厳しい

729:デフォルトの名無しさん
18/10/07 01:05:46.09 pVH0KbtN0.net
CS系の大学の講座取ってみたい

730:デフォルトの名無しさん
18/10/07 05:08:20.65 xO6NYQqFa.net
>>701
著作権で言えば
著作者人格権とか著作権に関する権利の一部は
日本の法律ではなくならないはず

731:デフォルトの名無しさん
18/10/07 08:15:30.42 aHxIGRZV0.net
そもそも、機械学習で生成されたデータが
元にしたデータの著作権侵害になるという法律屋の指摘に違和感を感じる

732:デフォルトの名無しさん
18/10/07 10:47:04.83 uEzOl35Aa.net
日本は法律面で先進国としては非常に珍しい機械学習パラダイスなんだぞ
進化する機械学習パラダイス ~改正著作権法が日本のAI開発をさらに加速する~
URLリンク(storialaw.jp)

733:デフォルトの名無しさん
18/10/07 11:49:44.59 KWtYBJ31r.net
個人情報保護とかで医療関連はデータ集めるのが大変だそうな

734:デフォルトの名無しさん
18/10/07 13:26:13.70 cOS3eGIea.net
その辺りは医療機関自体がデータサイエンティスト雇うか業務提携するしかないだろう

735:デフォルトの名無しさん
18/10/07 14:08:13.17 pVH0KbtN0.net
ワイのレントゲン写真使うなら肖像権高うつきまっせ

736:デフォルトの名無しさん
18/10/07 14:14:45.59 cOS3eGIea.net
>>707
つまりこういうことだな
現在:「学習用データ収集→諸々の処理→学習モデル作成」を個人や自社だけで完結させる場合は商用・非商用問わず著作権者の許可を取る必要なし
2019/1/1以降:収集した学習用データを他人・他社に公開・販売するのも著作権者の許可を取る必要なし
※もちろんデータ解析という本来の目的外に使用されることが明らかなら違法なので、漫画データの学習のためと謳って漫画スキャン画像を公開するとかはNG
ということで、明らかに悪用するような使い方でない限りデータ解析において著作権を気にする必要はない

737:デフォルトの名無しさん
18/10/07 14:39:39.25 oKeY0xEK0.net
日本の会社はそもそもデータが足りていないらしい
今まで何をやっていたのか
URLリンク(www.nikkei.com)

738:デフォルトの名無しさん
18/10/07 14:57:55.33 pk8THtng0.net
著作権先進国(笑)

739:デフォルトの名無しさん
18/10/07 17:38:31.02 QNVjJiYJ0.net
医療用プログラムは医療用機器つくってた会社しかつくれないように規制されてるから入れん
認可とるのも大金かかるし

740:デフォルトの名無しさん
18/10/07 20:31:31.21 JgS2v7in0.net
GANのdiscriminatorの次元減らしていくのに全結合無い方がいい理由ってなんで?

741:デフォルトの名無しさん
18/10/07 20:35:00.63 JgS2v7in0.net
DCGANの話です

742:デフォルトの名無しさん
18/10/07 20:45:05.75 RqIyj36Sa.net
>>708
個人情報を収集するときに
利用目的や利用の範囲とかを示して
合意して貰えばいいだけじゃね?
おと要求に応じて開示修正破棄できるようなシステムにしておく
ほかの個人情報でも同じ

743:デフォルトの名無しさん
18/10/07 21:24:55.65 mIq+f5AO0.net
URLリンク(arxiv.org)
> 3.2 Global Average Pooling
> ・・・
> However, the fully connected layers are prone to overfitting, thus hampering the generalization ability
> of the overall network. Dropout is proposed by Hinton et al. [5] as a regularizer which randomly
> sets half of the activations to the fully connected layers to zero during training. It has improved the
> generalization ability and largely prevents overfitting [4].
> In this paper, we propose another strategy called global average pooling to replace the traditional
> fully connected layers in CNN.

744:デフォルトの名無しさん
18/10/07 21:52:22.17 7A10mDJxa.net
>>718
全結合いれたら汎化性が落ちるから他の方法でってことか
ありがとう

745:デフォルトの名無しさん
18/10/08 11:31:11.61 +5qyKWRvF.net
そろそろ大目玉か
URLリンク(www.anaconda.com)

746:デフォルトの名無しさん
18/10/08 11:41:22.65 99LuQJTy0.net
なんと!あのアナ


747:コンダが! っていうほどのもんじゃないな



748:デフォルトの名無しさん
18/10/08 11:44:43.55 tjiQ7o9Aa.net
>>717
これから集める分ならそうだろうな
でも今まで蓄積してきたデータは?
契約上使っても問題ないデータが十分集まる頃にはとっくに置いてかれている

749:デフォルトの名無しさん
18/10/08 13:07:36.75 DvqFh1SLa.net
>>722
再確認すれば良い
利用規約の改定とか普通によくあることじゃね?

750:デフォルトの名無しさん
18/10/08 14:02:39.08 tjiQ7o9Aa.net
>>723
その再確認を既に退院した人含めて一人一人にするのは結構大変なのでは

751:デフォルトの名無しさん
18/10/08 14:31:20.58 4tTMXMXFM.net
arxivのML・DL論文読んでて、日本人の論文少ないよね

752:デフォルトの名無しさん
18/10/08 15:01:42.20 aB+juQlj0.net
意味不明な日本語を使う奴に言われてもw

753:デフォルトの名無しさん
18/10/08 21:08:44.54 ND0ntmkA0.net
英語でわざわざ論文書くのがめんどくさい

754:デフォルトの名無しさん
18/10/08 22:37:44.37 6UIbz9ua0.net
外人嫌いだし

755:デフォルトの名無しさん
18/10/09 08:09:06.14 CcNKGFP6a.net
>>724
新たに同等のデータを取るのに比べたら手軽じゃね?
現状の法律でも個人情報の開示や削除要請には応じる必要があるからその準備はできているはず

756:デフォルトの名無しさん
18/10/09 23:49:18.73 ++HOLxfb0.net
分類するときにA,B,C,その他みたいに分類できるアルゴってないですか?
学習してない似たやつをどや顔で間違えて分類するのでなんとかしたい

757:デフォルトの名無しさん
18/10/10 00:05:38.82 RHyHT8b9d.net
何回同じ話ししてるんだよw

758:デフォルトの名無しさん
18/10/10 00:28:20.33 egfM8dTJa.net
one vs allかone vs restで検索
もしこれで分類できないならそもそも使っている特徴量的にA,B,Cとその他が区別できていないのだろうから特徴量の選定からやり直す

759:デフォルトの名無しさん
18/10/10 00:36:06.65 FD95EKzWa.net
このネタ同じ人?

760:デフォルトの名無しさん
18/10/10 22:38:14.62 3fNWNg5+0.net
URLリンク(www.atmarkit.co.jp)

761:デフォルトの名無しさん
18/10/10 23:37:18.54 CBzJzHEZ0.net
文系PG抱えてる会社を食い物にしてる商売多すぎぃ

762:デフォルトの名無しさん
18/10/10 23:58:52.97 Z3r4I6WRd.net
>>735
文系PGを抱えてる会社を食い物にする商売ってどんなの?

763:デフォルトの名無しさん
18/10/11 00:28:18.10 DY6agtqn0.net
PGに文系もくそもねぇwww

764:デフォルトの名無しさん
18/10/11 12:18:02.31 vTh9hgF00.net
土方PGで大儲け(過去形)

765:デフォルトの名無しさん
18/10/11 13:19:56.51 WWqvoXS50.net
AI(人工知能)で既存のホワイトカラーの仕事がなくなっていく一方、
孫正義が言うように「AIのエンジニア」の需要は増加する。
そこで画像生成について学習してるんだが、
DCGANは知ってたけどCycleGANというものがあることを知った。
CycleGANはかなり面白そうだったので、
自前で人工知能作ろうと思う。
GTX1080で3時間学習させたCycleGANがあったんだが、
男性のトーク動画を女性に変換しててすごいと思った。
これから購入するパソコンのスペックはGTX1080以上あればいいかな?

766:デフォルトの名無しさん
18/10/11 14:28:42.63 jOTiaxUqd.net
URLリンク(www.atmarkit.co.jp)

767:デフォルトの名無しさん
18/10/11 14:31:15.98 jOTiaxUqd.net
アトラクター?
ポアンカレ断面の不動点でも求めてんのかね

768:デフォルトの名無しさん
18/10/11 15:17:36.46 ZiWr81AM0.net
孫正義(笑)、Nスペ見るの止めた

769:デフォルトの名無しさん
18/10/11 15:46:57.01 jc3fQN7m0.net
これからの時代、人とのコミュニケーションを鍛えた方が生�


770:ォ残れると思うよ



771:デフォルトの名無しさん
18/10/11 16:57:44.01 HpbFK8lR0.net
小学生並みの感想

772:デフォルトの名無しさん
18/10/11 20:26:53.34 CtLR6CRw0.net
メモリ8GBでやってたら訓練データメモリに載せるだけでPCカックカクでわろた
一応モデルとバッチはGPUのメモリが足りてるからいいけど訓練データ増えたらきついな

773:デフォルトの名無しさん
18/10/11 21:10:29.30 1ID+fdJTF.net
tensorflowなら訓練データをtfrecordにして非同期読み込みすることで解決できるけど

774:デフォルトの名無しさん
18/10/11 22:57:22.95 4qCh5/Foa.net
もちろんTFRecord にしてもいいけど、
クラウドでやれば最低でも50GB くらいはメモリついてるぞ

775:デフォルトの名無しさん
18/10/13 01:09:59.51 I1iISO8ka.net
訓練データ全部メモリに乗せてやるなんてMNISTくらいでは

776:デフォルトの名無しさん
18/10/13 02:24:00.24 jEm+mxu1d.net
前処理段階でメモリ食うことは良くある

777:デフォルトの名無しさん
18/10/13 07:45:13.94 43imppejM.net
GANを勉強してるんだけど識別者の方は基本的に偽物だと判別し続けるってことで合ってる?

778:デフォルトの名無しさん
18/10/13 10:31:45.96 I1iISO8ka.net
>>750
本物を本物と言えることも必要

779:デフォルトの名無しさん
18/10/13 11:04:08.69 43imppejM.net
>>751
じゃあどうやって識別者は学習していくの?
教師ありではないんだよね

780:デフォルトの名無しさん
18/10/13 12:02:40.35 I1iISO8ka.net
>>752
ジェネレータが生成したデータか本物のデータかってラベルはGANの枠組みとして付けられるよね
GAN自体は教師なしだけど、識別者はこのラベルを使って教師あり学習する

781:デフォルトの名無しさん
18/10/13 12:44:21.13 Ttma0+8g0.net
識別側の学習には教師ラベルを使ってるってこと?
識別の学習では普通の分類NNのように本物の画像と正解ラベルを使ってそれらが本物であることを学習させていくってことか
じゃあ生成側の学習はどういうしくみ?

782:デフォルトの名無しさん
18/10/13 12:46:04.58 Ttma0+8g0.net
>>753
安価つけ忘れた
ID変わったけど>>752です

783:デフォルトの名無しさん
18/10/13 12:50:36.89 i0XDn4SOr.net
>>754
識別側はデータが本物なら1、偽物なら0を出力するように学習するので、生成側は自分が出力した画像に対して識別側に1を出力させるように学習する

784:デフォルトの名無しさん
18/10/13 23:46:17.79 H2kFVs7yM.net
>>750
偽物だと判別し続けるモデルに何の価値がある?何にも判別してないではないか?
言ってておかしいと思わないのか?

785:デフォルトの名無しさん
18/10/14 00:18:48.06 /A1DvWgqM.net
GCPのAutoMLを利用しようと思ったんですけど、プロジェクトを選んでSET UP NOW押すとCustomer bucket missingって出てセットアップ完了しないのですが、今ってAutoML使えないんですか?

786:デフォルトの名無しさん
18/10/14 00:27:21.52 Zxcto2qXM.net
自己解決
自分で "プロジェクト名-vcm"のバケット作ったら行けました
何故自動で作ってくれないのか…

787:デフォルトの名無しさん
18/10/15 17:10:25.47 XOcEM3KAa.net
CNNの分類による検出器の作り方ですが、
例えばドラレコの映像から人を検出したいとして、
例えば映像を適当な矩形でラスターして人か否かの2出力CNNにかける場合、
学習時にネガティブとして与える映像はどうすればよいですか?
人以外のあらゆる一般物体を集めてきてネガティブにすれば効果が高いのでしょうか?

788:デフォルトの名無しさん
18/10/15 17:26:36.70 pLFxHPPwH.net
>>760
それだと分類じゃなくて
YoloとかSSDとか検出器使ったほうがよくない?

789:デフォルトの名無しさん
18/10/15 17:33:34.17 DA9AnZKj0.net
自動運転ってyoloとかでオブジェクトを単体で視認したあとってif文とかでやってるのそれとも論理


790:プログラミングとか?



791:デフォルトの名無しさん
18/10/15 17:55:37.84 slolOmKf0.net
強化学習

792:デフォルトの名無しさん
18/10/15 17:58:33.61 XOcEM3KAa.net
>>761
検出器を使っていない理由は画像全体にラベリングしたいからです。
それだとsegnetとかをファインチューニングしろ、と言われそうですが
ピクセル単位のラベル付けが困難なためです。
結局のところsegnetのようなものをCNN分類を矩形走査することで画像単位ラベルのデータセットのみで作ってみたいということです。

793:デフォルトの名無しさん
18/10/15 18:19:52.50 9QRJdq2GM.net
>763
あーそうだよね。その存在が脳からドロップアウトしてたわ、ありがとう

794:デフォルトの名無しさん
18/10/15 20:07:31.69 E7SbL8Og0.net
BERTの成功とその方向性から垣間見える
脳構造の模倣における連続的時間情報の把握の重要性
俺が>>650で指摘している状態
>おそらくは完璧を求めると
>階層的にAttentionによる時間情報とポジション付与をしつつ、それらを考慮したCNNで畳み込み
>なおかつそれらすべての層を参照しながら、動的に再帰的処理する必要性がある
>これにGAN的な世界モデルによる強化学習手法を取り入れれば汎用AIができるだろう
これとBERTで使われている、transformerよりも更に多層化して各層の参照密度を増したAttentionとの間に
共通性を認識できる人がいれば、俺の言い分を理解してもらえるだろう

795:デフォルトの名無しさん
18/10/15 20:39:32.75 hN5zazbp0.net
深層学習の話ばっかりだなあ。

796:デフォルトの名無しさん
18/10/15 21:31:32.65 E6pr56BO0.net
 私たち日本人の、日本国憲法を改正しましょう。
総ム省の、『憲法改正國民投票法』、でググって
みてください。拡散も含め、お願い致します。

797:デフォルトの名無しさん
18/10/15 23:56:03.72 9aG3IWOmd.net
>>767
じゃあ違うネタ出してみるとか
確率モデルのpythonライブラリは何使うのが良いかしら

798:デフォルトの名無しさん
18/10/16 10:26:37.31 EErsLIkGH.net
>>764
画像全体にラベリングってマルチラベリングしたいってこと?
yoloもssdもラベル作成は矩形単位だよ

799:デフォルトの名無しさん
18/10/16 11:20:41.82 LVmCdvc6a.net
>>770
例えば、
2cm四方の正方形の画像があった場合
その正方形を1cmの正方形で4分割して
分割した4枚それぞれの正方形の画像が人か人でないか分類したい、
ということです。

800:デフォルトの名無しさん
18/10/16 11:48:54.78 EErsLIkGH.net
>>771
その分割から分類までやってくれるのが
まさにyoloとかssdなんだけど
だめなの?

801:デフォルトの名無しさん
18/10/16 15:38:43.59 QWtfESi60.net
そこんとこyoloしく

802:デフォルトの名無しさん
18/10/16 18:17:43.89 LVmCdvc6a.net
>>772
すいませんちょっと質問の仕方を変えさせていただきます。
入力画像に対して「犬」、「猫」、「それ以外」の3クラスで分類を行いたい場合、
「それ以外」のクラスとしてどのようなデータセットを与えるべきでしょうか?

803:デフォルトの名無しさん
18/10/16 18:25:20.10 YLHbxnbGF.net
one
near
threeee

804:デフォルトの名無しさん
18/10/16 18:49:53.13 UuSrgkCV0.net
与えないという手もあります

805:デフォルトの名無しさん
18/10/16 19:13:11.22 mtK6WYc4a.net
cifar-10やimagenetの犬猫以外のクラスを与えたら?

806:デフォルトの名無しさん
18/10/16 19:50:22.81 tz34EJAO0.net
この質問2ヶ月くらい続いてるやつではw

807:デフォルトの名無しさん
18/10/16 19:51:50.12 Mw6GhB3d0.net
>>774
>「それ以外」のクラスとして
2クラス分類で
犬  1 0
猫   0 1
それ以外 0 0
とする。やったことないけど。


808:デフォルトの名無しさん
18/10/16 20:00:36.33 REwKrz4C0.net
データセットって訓練データとテストデータに分けるんだな

809:デフォルトの名無しさん
18/10/16 20:00:36.96 BMUJGI05r.net
>>779
確率として解釈出来なくなるから
犬 100
猫 010
他 001
とすべき

810:デフォルトの名無しさん
18/10/16 20:07:12.15 Yv68lSL8a.net
>>777
与えた結果よい成果を生んだ参考文献か何かはありますでしょうか?
直感ですと特徴を捉えきれないと思うのですが上手く作用したりするのですかね。
>>779
そんなラベルの付け方もあるのですか??
出力層の正規化はどうやるのでしょうか?

811:デフォルトの名無しさん
18/10/16 22:36:45.28 mtK6WYc4a.net
>>782
文献は知らないけど
スクラッチで学習するんじゃなくGoogLeNetとかをファインチューニングしたらどうかな

812:デフォルトの名無しさん
18/10/17 00:11:27.64 iaDlPipOa.net
>>778
同じ話しを延々とやってるわな、根本的に向いてないわ

813:デフォルトの名無しさん
18/10/17 01:24:59.40 7+LkzvLlD.net
ゴチャゴチャ言ってるけど、実験結果とか全然書かないんだもんw

814:デフォルトの名無しさん
18/10/17 09:22:23.63 /KG9iA6xH.net
>>774
yoloとかssdなら犬検出、猫検出
どちらも検出しないで3クラス分類できるよ
それ以外のデータセットなんていらない

815:デフォルトの名無しさん
18/10/17 18:06:30.59 c6ApCslj0.net
実験結果
CPU使用
MNISTでソフトマックス関数使ってやってみた結果
100エポック
92%
フィードフォワードネットワーク利用
300エポック
98%
MNISTぐらいならCPUでもそこまで時間かからないな
人工知能用にPC買う予定だけど
GPU使用が楽しみだ

816:デフォルトの名無しさん
18/10/17 20:25:47.05 aGL7TZ3Ma.net
>>786
分類やりたいだけなのにわざわざ検出アルゴリズム持ち出すのって大仰過ぎないか

817:デフォルトの名無しさん
18/10/17 20:58:04.44 luoOlS94a.net
普通のニューラルネットで猫なら[1,0]、犬なら[0,1]と出力するように学習させれはどちらの特徴も持たないものは[0,0]と出力されるはずだろう

818:デフォルトの名無しさん
18/10/17 21:23:30.00 ef/wXGoVr.net
最小二乗確率的分類器ってどうなん?

819:デフォルトの名無しさん
18/10/17 22:36:58.67 KdQY5VHb0.net
>>789
そうなるかな。どっちかを出力するんじゃない。。。

820:デフォルトの名無しさん
18/10/17 23:52:28.66 bpF2/qnc0.net
>>787
適当に3~4階層で作ったので
MNIST87%行ったから
DLチョロいじゃんとか思って
Karasの他のapplicationに手を出したら
学習終わるまで300時間とか言われて泣きが入って
RTX2080Ti買おうと思ったら高過ぎワロタ

821:デフォルトの名無しさん
18/10/18 18:22:42.59 10LrZVzjM.net
どうも・・・。俺です
AIを否定する記事見てムカついた
絶対に女を裸にするアプリ作ってやる
クソが

822:デフォルトの名無しさん
18/10/18 18:26:21.08 XeUf991ya.net
誰だよお前

823:デフォルトの名無しさん
18/10/18 18:29:04.82 WjJlstdVa.net
>>786
yoloから検出機能を取ったようなネットワークがあれば良いのですが・・
最悪全クラスに対して識別器を作ってもいいので、
犬の画像が入力された時だけ発火して1を返すようなネットワークでもいいのですがそんなのありませんかね?
>>789
多クラス分類のためソフトマックス正規化を使っているので0,0にはならないですね。
この例で言うと0.5,0.5になってくれると大万歳なのですが大体そうはなりません。
上の人が言ってるようにどっちか推して来やがります。
>>792
そこまで高いの買わなくても、
サブ機に1050Ti積んでますけど
inceptionv3の199層~のファインチューニングでも
32000枚を100エポック回して大体5時間で終わりますよ
低価格でいろいろ試すには悪くない性能だと思うので検討してみてはいかがでしょうか。

824:デフォルトの名無しさん
18/10/18 19:39:03.34 0jTuf2pp0.net
1000クラス分類のImageNet使えば云いだろ…
それこそkerasや


825:pytorchならなんの苦労もなく呼び出せるわ



826:デフォルトの名無しさん
18/10/18 21:08:27.70 3WNLz9C3a.net
>>795
ソフトマックスを使う限り、出力が[0.5, 0.5]というのは犬の確率と猫の確率が同程度であるという意味しか持たない
同程度に高いのかもしれないし同程度に低いのかもしれないわけだが、この両者は分離できなければならない
ということで出力層にソフトマックスは使わずに例えば単にシグモイドを使えば出力される2つの数はそれぞれ犬・猫の確率を独立に算出したものとなる
適当な閾値を決めて一方のみが大きければ犬or猫と判定、共にゼロ近くならどちらでもないと判定すればいい
それ以外の中途半端な出力が頻発するならそもそも犬猫の特徴を学習できていないので出力層を工夫したところで無駄であり、学習データを増やしたり出力層以前の層の構造を改良するしかない

827:デフォルトの名無しさん
18/10/18 22:55:11.05 E8jILIgaa.net
>>789
犬猫だけで分類学習したネットワークにそれ以外のデータを入力することがナンセンス
学習した分布から外れたデータだから出力がどうなるかは分からない
犬でも猫でもない画像だとしても高い確度でどちらかに分類され得る

828:デフォルトの名無しさん
18/10/19 01:42:27.71 heGbLBdq0.net
>>798
最近傍距離でやったらそうなるよね.
本当にナンセンスと言うことに同意.

829:デフォルトの名無しさん
18/10/19 01:51:18.44 heGbLBdq0.net
>>795
元々の目的が人か否かを検出したいんだよね?
yoloを使えば良いと思うけど,それを使いたくないなら
>>760 の通りの方法でも汎化性能は悪くなるはずだけど行けなくもない(実運用はやめてね)
人のように見えるオブジェクトを誤検出するだろうし,人のポスターを人と判断するだろうし
多クラス分類にして,より確率の高い分類器xを選ぶじゃ駄目なの?2値分類は汎化性能という意味では極端に弱いから自動運転に関しては辞めた方が良いと思うよ

830:デフォルトの名無しさん
18/10/19 01:55:24.05 heGbLBdq0.net
>>760
言い忘れたけど,人以外の物体が何を指すのかよく分からないけど
人が写って無い道路の画像で学習させるのが一般的だと思うよ.
それ以外の画像だと潜在空間における人とotherの距離が不明になるし辞めた方がいいよ

831:デフォルトの名無しさん
18/10/19 05:34:08.20 8J26xkWMa.net
もう完全に教えてちゃんスレになったなw 立ち寄る必要なさそうだ

832:デフォルトの名無しさん
18/10/19 05:50:40.44 rn6AXKJQd.net
課題をただで人に聞きまくって何とかしたいという日本人のテンプレ。わりと良くいる

833:デフォルトの名無しさん
18/10/19 06:33:27.67 heGbLBdq0.net
研究を議論したいなあ,だれかスレ作って

834:デフォルトの名無しさん
18/10/19 07:35:08.81 /W+GDYNa0.net
AIっていかに論文をたくさん読んで、どれだけパクるかの勝負じゃん

835:デフォルトの名無しさん
18/10/19 07:37:52.55 568QDdW/a.net
どんな分野でも基本は既存研究の発展で、ごく稀に全く新しい発明が登場するものだ

836:デフォルトの名無しさん
18/10/19 09:32:23.71 TrVy4dze0.net
研究と応用の距離が近いのね

837:デフォルトの名無しさん
18/10/19 13:50:41.29 R1ndva0Ba.net
>>797
なるほど、凄く答えに近いこと聞いた気がします。
アクティベートをシグモイドにするだけでその挙動が得られるのですか?
条件反射でソフトマックス使ってたので盲点でした。
少し試してみます。

838:デフォルトの名無しさん
18/10/19 13:56:34.41 R1ndva0Ba.net
>>798
なるほどそういうものなのですね。
しかし疑問なのが、どうして犬を検出する検出器は学習させることが出来るのに
犬の画像が入力された時だけ1を返すネットワークを学習させることができないかです。
明らかに後者の方が簡単なように思うのですが。。
お詳しそうなのでよければ教えていただけませんか?

839:デフォルトの名無しさん
18/10/19 14:


840:13:06.61 ID:LAG8930r0.net



841:デフォルトの名無しさん
18/10/19 14:15:57.11 gl4kTOSHd.net
>>809
機械学習の一般論として、なにかを判定するには教師データとして正例と負例をおなじ数だけ与えるのが基本でしょう
「googleが猫を検出するDNNを作った」事例がよく取り上げられるけど、あれだって大量の猫画像とそうでない画像を与えている

842:デフォルトの名無しさん
18/10/19 14:38:27.78 TrVy4dze0.net
>>810
そこまでは言ってない。
ダークマターの質量が判りました。ってのより基礎研究の利用が応用に近いなあと

843:デフォルトの名無しさん
18/10/19 15:33:05.18 pogP5zPXr.net
>>809
前者は1000クラスの分類器がベースになってる
日常的に身の回りにある物は大体この1000クラスに含まれるので犬を(も)検出できる
当然その1000クラス以外が入力された時にどうなるか保証はない
後者は犬以外のどんな画像が入力されても0を返すのが難しい
これは犬以外に対応する潜在空間が圧倒的に広いから
でもまあ実用的には1000クラス分類器の流用で十分な気もするな

844:デフォルトの名無しさん
18/10/19 15:55:18.03 7FKkwhq/0.net
>>805
> AIっていかに論文をたくさん読んで、どれだけパクるかの勝負じゃん
ということは、AIが何か知っているんか?
じゃ、AIとは何か言ってみ?

845:デフォルトの名無しさん
18/10/19 16:05:15.03 x0p9L0oV0.net
>>812
難しいことご存知でw

846:デフォルトの名無しさん
18/10/19 16:20:57.94 JhfkDMcM0.net
絵描き
「性的対象判定機にこの白黒の線画を判定させたらすごいスコアでた!」

847:デフォルトの名無しさん
18/10/19 16:54:39.13 R1ndva0Ba.net
>>813
なるほど。。
それなら素人考えですと、
imagenetの画像を犬とそれ以外の2クラスに分けて
2クラス分類で学習させたネットワークは
その検出器と比べて認識力ではほぼ等価と見なせますか?

848:デフォルトの名無しさん
18/10/19 16:59:37.79 R1ndva0Ba.net
>>811
なるほど。
ではそのように猫だけを検出するネットワークを作りたいとしたら、
ネガティブとしてどんな画像を与えるのですか?
上の方も言ってる通り潜在空間が広すぎると思うのですが、
例えばimagenetの猫以外の画像を全てネガティブとして1クラスに押し込んで特徴って捉えれるのですか?

849:デフォルトの名無しさん
18/10/19 17:18:26.23 pogP5zPXr.net
>>817
普通にそれをやると犬以外のデータが圧倒的に多いので多分上手くいかない
何も考えず全て犬以外に分類するだけで正解率99.9%を達成できるので、単純に分類誤差最小化で学習するとそうなる
学習済みネットワークの出力を加工するかファインチューニングするのがいいと思う

850:デフォルトの名無しさん
18/10/19 17:38:40.69 R1ndva0Ba.net
>>819
なるほど、、ためになります。
そういう実用的な事が書いてある書籍か何かありませんか?
ディープラーニングの本いろいろみて回ったのですが、
理論(数式)責めでドヤってる本か、
ネット見れば分かる程度の初歩的な実装方法書いたような本しかなくて困ってるのですが・・
欲しいのは数式でもチュートリアルでもなく実用性のあるものなのですが。
これ1冊あれば数式読まなくてもモデル選定からチューニングのコツまで分かるみたいな本ないですか?

851:デフォルトの名無しさん
18/10/19 17:55:39.31 pogP5zPXr.net
>>820
そんなうまい話ないぞ
学習したいデータや問題毎に色々な試行錯誤がある
仮に望むような本があって表面だけなぞったとしても同じ悩みにぶつかるよ

852:デフォルトの名無しさん
18/10/19 18:30:36.19 aSQ6R7eH0.net
今CycleGANの学習をCPUでやってる
何時間かかるんだろう・・・。

853:デフォルトの名無しさん
18/10/19 18:39:27.03 NZMDXKZv0.net
cycleganは夢が広がるほど万能感あるけど実際はなかなか上手く学習しない

854:デフォルトの名無しさん
18/10/19 20:03:10.47 aSQ6R7eH0.net
>>823
形状を変化させるのは苦手みたいだね
テクスチャ系なら上手くできる
それにしてもCPUで1時間半やったけど1エポックも進まないわ・・・

855:デフォルトの名無しさん
18/10/19 21:18:55.91 TlirwEgq0.net
>>818
そういうこと(猫画像とそれ以外画像とに分ける)で学習してる例が多いと思うけどね。ただ指摘があるように正例と負例の数は揃えないと。
あなたが実際にその分類器を使う段階になって、猫以外の画像としてどういうものが入力されるのか? それに近い分布のものを負例としなきゃ
「仕事ではじめる機械学習」あたり読んでみては(自分は読んでないけどw)

856:デフォルトの名無しさん
18/10/19 22:14:56.20 R1ndva0Ba.net
>>821
まあそうですよね。
でもいかんせん素人だと何をどう試行錯誤していいかすら分からないので
行き詰まった時に試してみるチェックリストみたいな感覚で使いたいのですが・・

857:デフォルトの名無しさん
18/10/19 22:16:47.09 R1ndva0Ba.net
>>825
ありがとうございます。
入力に近い分布のものなら1クラスにまとめて放り込んでも大丈夫なんですね。勉強になりました
本もチェックしてみます。

858:デフォルトの名無しさん
18/10/19 22:17:32.42 TrVy4dze0.net
誰かコンサルしてあげなきゃ。素人が機械学習使えないだけなのに機械学習自体が評価されなくなる未来が見える

859:デフォルトの名無しさん
18/10/19 23:05:52.00 dup5d98D0.net
URLリンク(towardsdatascience.com)
上記のリポジトリ
URLリンク(github.com)

860:デフォルトの名無しさん
18/10/19 23:52:54.51 heGbLBdq0.net
>>820
数式から逃げるな。
機械学習の数学程度でうろたえてるようじゃ人生きついぞ

861:デフォルトの名無しさん
18/10/20 00:58:23.13 2DsZDK0Sa.net
正例と負例の訓練データ数が全く桁違いの場合って割と多いと思うんだけど
例えば機械の故障判定とか製品の不良判定とか、正常データが大量にあって異常データは僅かになるのが典型的
その場合全て正常と判定するモデルの正解率は高くなるが、混同行列見たりF1値を評価指標にすればそんなのは非常に悪い学習結果と判断できるから排除できる

862:デフォルトの名無しさん
18/10/20 13:39:51.48 MvoUANTC0.net
Macbook ProのCore i7 CPUで半日やったが、
1エポックしか学習できなかったわ
Geoforce GTX 1080 Ti買うことにした
27万ぐらいするけどもっと安く買えねーかな

863:デフォルトの名無しさん
18/10/20 16:25:47.62 d68y9Vxsa.net
MacBookProなら一応グラフィックカード付いてるはずだけど呼び出せてなくない?
2016年モデルだけどついてるよ、スペックはお情け程度かもしれないけど

864:デフォルトの名無しさん
18/10/20 16:36:17.04 d68y9Vxsa.net
>>830
理解出来ない訳では無いですけど無駄手間じゃないですか?
ただツールとして使いたいだけで理論を開発しようって訳ではないので(そもそも数式には興味ない)、
数式見るのは研究者がやればいいと思うのですが。
ガウシアンぼかしの式すら知らない素人でもリファレンス見て試行錯誤で華麗にフォトショップ使いこなしますよね?
あんな感じに早くなればいいと思うこの頃です

865:デフォルトの名無しさん
18/10/20 16:48:12.80 n6bj2eyUM.net
proでもディスクリートGPUが載ってるかどうかはモデルによる。

866:デフォルトの名無しさん
18/10/20 16:55:13.15 jHhEz0TNM.net
>>834
それはない。数式読まずに避けてたら本質は理解できない

867:デフォルトの名無しさん
18/10/20 16:58:22.99 yNArAPz00.net



868:定のものを認識させて物理空間上の位置(座標)を出力値とする場合って SSDやYoloのような物体認識を使った方が早いかな? >>883 882が何のライブラリを使ってるか知らんけど、tensorflowのMac版はCPUしか対応してない



869:デフォルトの名無しさん
18/10/20 17:04:33.60 V8iNamHla.net
最先端の研究結果の数式が必ずしも理解できる必要はないが
機械学習の基礎になる線形回帰、ロジスティック回帰、ニューラルネットワークの全結合層の原理程度は分かっていなければ厳しい
これが理解できていなければ自分の手持ちデータで何かやろうにもどんな手法を使うべきか見当も付けられず、
名前を知ってるものを適当に使ってみて精度が良かった・悪かった、と錬金術的にやるしかなくなる

870:デフォルトの名無しさん
18/10/20 17:09:48.35 gp/trlhl0.net
機械学習ではな
自分よりお利口なもんはできない
まず自分がなんでバカで頭悪いかを考えたほうが有意義だからな
バカのくせになんで自分よりお利口なもんができると思うのか
そこが不思議でならない

871:デフォルトの名無しさん
18/10/20 17:17:07.08 gp/trlhl0.net
バカでなければ
どうやったら自分が効果的に学習できるか考えるからな
自分が効果的な学習ができないのに
計算機で効果的な学習とかまずムリ

872:デフォルトの名無しさん
18/10/20 17:42:16.87 aRbeGa2e0.net
以上、バカの主張でした

873:デフォルトの名無しさん
18/10/20 18:39:36.65 AUqXYm6Fa.net
>>834
フォトショップを知識がなくても使いこなせるのはアルゴリズムが成熟していて大半の処理は裏方で自動でこなしてくれてるから
機械学習では自動で問題毎に自動で最適な処理をできる技術がまだ確立されていないから、ツール的に軽く触っただけで良い結果を得るのは難しいよ

874:デフォルトの名無しさん
18/10/20 18:49:17.27 gp/trlhl0.net
知識って。。。
画像処理ソフトとか画像データのピクセル加工やってるだけやんけ
で、見た目がそうなってる
とりあえず見た目こんな感でいいや
コレを機械学習と同じと思ってる時点でもうね

875:デフォルトの名無しさん
18/10/20 20:39:27.85 k0LrzqP2a.net
>>836
本質を理解しようとはあまり思っていませんね。
とりあえずツールとしてラクチンに使えたらそれだけでよいので・・
>>837
そうだったんですね、自分winでブートしてるのでそれは知りませんでした。
>>838
そうなんですよ、そこなのです。
だから手持ちデータとやりたいこと等から使うべき手法やモデルを教えてくれる本とかがあればいいんですけどねえ

876:デフォルトの名無しさん
18/10/20 20:44:45.92 k0LrzqP2a.net
>>842
そうですよね。
だから最適な処理を見つけるためのバイブル的なものがあればなあと思っています。
>>843
本質的にはあまり変わらないと思うのですが。
上の人が言っている通り自動化する技術が確立されていないだけで、
学習自体はデータに対して同じ処理を繰り返してるだけですし、
フォトショップでいう見た目=テストaccなりlos、という感じで使えても悪くないと思いますし
最近でいうならそれこそGANなんて見た目だけの話なのでとりあえずこんな見た目でいいや、で解決すると思います。

877:デフォルトの名無しさん
18/10/20 21:05:27.07 xvv7H8Vz0.net
それはそうかもしれないがそうだとするとプログラム板の話題ではなくなるな

878:デフォルトの名無しさん
18/10/21 03:09:43.34 yA/rLZti0.net
まあ発展途上よな
実用も含めて

879:デフォルトの名無しさん
18/10/21 05:50:34.84 MsXt9/J70.net
>>845
>だから最適な処理を見つけるためのバイブル的なものがあればなあと思っています。
これは最先端の研究なので論文を読んでパラメータの設定はどうするとか学ぶ必要がある.
いくら機械学習の出版が早いとはいえ待ってたら2,3年は遅れた知識になる.
後結局手法はAutoMLとかで大体今でも自動化できてるんだけど,データから推定した結果の解釈とかの問題もあるし,
全部が全部バイブル通り行くとは行かないのが現実.「全てのモデルは間違ってる.完全なる解釈はない」というのが統計学の鉄則だよ

880:デフォルトの名無しさん
18/10/21 05:53:12.18 MsXt9/J70.net
赤池先生の経歴をと尊敬を持って機械学をやるべきだと僕は思ってる.
汎化誤差の最小化だけじゃあまりにもつまらないし.最近のAmazonの差別AIみたいなのができるのが落ち.
未来はどうなるか分からないけど数式から逃げることはできないと覚悟した方が良いと思う.

881:デフォルトの名無しさん
18/10/21 08:11:33.22 UfdBUaGe0.net
lossの定義の仕方さえ分かれば良いだけの話だろ
昔なんか自動微分を手前で実装してたんだぞ

882:デフォルトの名無しさん
18/10/21 08:40:17.71 Cf36qMnJM.net
>>833
俺のは2018モデルだけどNVIDIAだったかな?
あと
2080 Tiの方がコスパ高い
URLリンク(i.imgur.com)

883:デフォルトの名無しさん
18/10/21 08:54:49.06 Cf36qMnJM.net
あー最新版TensorflowではmacのGPUサポートしてないわ

884:デフォルトの名無しさん
18/10/21 09:46:27.36 IzQUIvSq0.net
>>849
AICはねw

885:デフォルトの名無しさん
18/10/21 10:11:18.91 MsXt9/J70.net
最近edX初めてめっちゃいいよな

886:デフォルトの名無しさん
18/10/21 10:24:19.90 Pb7O8TaX0.net
courseraの"How to Win a Data Science Competition: Learn from Top Kagglers"っての始めたけど、
これはムズいわ
まず、ロシア人が何を言ってるのか聞き取れない

887:デフォルトの名無しさん
18/10/21 10:38:57.18 MsXt9/J70.net
ロシア語はきついわ

888:デフォルトの名無しさん
18/10/21 11:29:45.72 sjXodBVwF.net
>全部が全部バイブル通り行くとは行かないのが現実.「全てのモデルは間違ってる.完全なる解釈はない」
ほんそれ

889:デフォルトの名無しさん
18/10/21 13:35:30.75 Ya81v9Q1a.net
>>848
最先端のネットワークはモチロンそうでいいと思うのですが、
DropoutやらReLUとか組み込んだCNNならもう流行りだして2,3年は経ってると思うので
それくらいの構造のCNNでimagenetのような分類タスクしようと思った時にモデル選定とかどうチューニングしたらいいとかある程度まとめてくれてるような書物があったらいいなと思いました。

890:デフォルトの名無しさん
18/10/21 14:04:50.88 MsXt9/J70.net
>>858
あるのでは

891:デフォルトの名無しさん
18/10/21 14:07:48.83 MsXt9/J70.net
最近の書籍だと直感ディープラーニングとか

892:デフォルトの名無しさん
18/10/21 16:57:03.15 SdRIg5RYa.net
あれこれ楽すること考える前にCourseraの有名な機械学習コースのシラバスの各項目をざっくりとでも他人に説明できないレベルならCourseraやるのが一番手っ取り早い

893:デフォルトの名無しさん
18/10/21 17:34:54.29 fxS7+DP10.net
Coursera教に入信すれば救われます

894:デフォルトの名無しさん
18/10/22 13:50:58.13 DttoQmKL0.net
なんかスレ面白くなくなったな

895:デフォルトの名無しさん
18/10/22 14:08:49.04 hF2/Is9u0.net
じゃ、chainerの話でもするか!
日本の会社なのに公式に日本語ドキュメントがないやん、とか

896:デフォルトの名無しさん
18/10/22 14:26:31.01 DttoQmKL0.net
>>864
世界を狙っとるんやない?

897:デフォルトの名無しさん
18/10/22 14:37:01.74 zvg+yeJrr.net
CEATECでPFNが出してた片付けロボットすごいよな

898:デフォルトの名無しさん
18/10/22 14:48:12.27 go7C76bPa.net
いい感じのクロスモーダルモデル考えたけど適用事例が思い付かない

899:デフォルトの名無しさん
18/10/22 19:35:15.84 M3H01wI/p.net
>>866
物体検出、物体判別、位置特定は他の所でも出来るんじゃね?
その正確さとかが実用になるかどうかだろうけど

900:デフォルトの名無しさん
18/10/22 19:59:52.03 8nbAtIu2a.net
>>868
それらを現実世界のロボットの動作に結びつけるのは難しい
あと口頭で指示も出せるらしい

901:デフォルトの名無しさん
18/10/22 22:45:23.68 IVZcl8cFa.net
PFNロボのアピールポイント:
・衣類の画像認識ができる(衣類、布は置き方によって形状が大きく変わるため難度が高かった)
・対象によって掴む位置、掴み方を変える(けん玉は棒の部分を掴むなど)
・日本語の命令に従い行動できる
・ラフな言い方、ジェスチャーを認識できる(指差しながら「あそこに片付けて」で認識できる)
・展示会の騒音、変化する照明環境で1日連続稼働できる

902:デフォルトの名無しさん
18/10/23 09:47:19.57 ruDoWt35p.net
どこもかしこも画像データを扱う事を前提として文章書いてるから嫌になってくる

903:デフォルトの名無しさん
18/10/23 10:02:16.82 2OPbXDwm0.net
二ーズは疑問だけど、頭の固い機械制御の業界には良い刺激

904:デフォルトの名無しさん
18/10/23 10:19:26.64 bd7/TlGt0.net
緩い機械制御(LOL)

905:デフォルトの名無しさん
18/10/23 10:59:29.01 2b6Tbph30.net
メリットが分かりやすい分野で教科書書いたら、参入者が増えるから先行者は嫌がるもの

906:デフォルトの名無しさん
18/10/23 12:17:00.88 MT32asC/a.net
先行者が新規参入嫌うって、オープンソース化で新規参入増やすことで急速に技術の新陳代謝促すことで発展しているIT業界を逆行しているようだ

907:デフォルトの名無しさん
18/10/23 14:24:49.91 pUmb/2Nb0.net
今んとこわかってるAIのメリットってなによ

908:デフォルトの名無しさん
18/10/23 14:36:44.37 xBougz0l0.net
マスゴミが商品の宣伝してくれる

909:デフォルトの名無しさん
18/10/23 14:47:39.15 cio3imcuM.net
>>876
人の作った定石を覆す一手が生まれる可能性がある

910:デフォルトの名無しさん
18/10/23 14:51:30.72 gBK/KF1nr.net
>>876
人にしか出来ないと思われていた高度な処理が可能になった

911:デフォルトの名無しさん
18/10/23 14:53:00.00 yFsvvFWj0.net
ゲームで定石以外の手を打つAIはいるけど
脳外科手術とかで定石以外の手をAIに指示されて
実際その通りに手術出来る医者っているのかな

912:デフォルトの名無しさん
18/10/23 15:04:50.59 bagxQGHJa.net
手術の機械学習って学習データどうするんだ?
医療では当面は診断用途だろう
怪しい所を自動ピックアップしてくれるから楽になる

913:デフォルトの名無しさん
18/10/23 19:11:15.08 BDP8ufz9a.net
全く同じ条件の学習が上手くいかなくなったんだけど原因は何が考えられますか
1回目やったときは70epochでvalのaccが.95くらいだったのに
2回目やったら1epochからずっとvalのaccが.65前後のままtrainのaccだけが上がり続けるから過学習してると思うんですけど
実行毎に過学習起きたり起きなかったりとかあり得ますか?

914:デフォルトの名無しさん
18/10/23 21:06:52.05 2b6Tbph30.net
重みの初期化はどうしてるの?

915:デフォルトの名無しさん
18/10/23 21:48:04.91 nb50ik1P0.net
みんなすげぇなぁ
機械学習の本まずは1冊やり終えたけどここで話されてる内容ほとんど分からん

916:デフォルトの名無しさん
18/10/23 22:19:45.80 BDP8ufz9a.net
>>883
inceptionv3のimagenetです

917:デフォルトの名無しさん
18/10/23 23:35:10.13 7LErHcLzp.net
データ分析の基礎的な部分をちゃんと身につけないとと思って統計の勉強始めた
学のある人なら当たり前に知ってる事なんだろうけど自分には知らない事ばかりで結構面白いって感じた
多分最初だからこう思うだけかもしれないけど

918:デフォルトの名無しさん
18/10/23 23:44:40.12 EZC/vVVWa.net
>>884
特にディープラーニング関連は本になる頃には陳腐化してるからなぁ
ある程度基礎を勉強したらネットで解説記事とかトップカンファレンスの速報まとめとか有名な論文(の解説)とかを読むと良いかも

919:デフォルトの名無しさん
18/10/24 05:47:43.50 kJsLSWt60.net
脳から就活生の傾向を調べるって怪しすぎてワロタ。

920:デフォルトの名無しさん
18/10/24 08:56:06.97 ljKXe/5ha.net
>>884
ここで話されてる内容はもうかなり古くて、だからレスする人も減ってる

921:デフォルトの名無しさん
18/10/24 14:10:20.50 wUNs4a59F.net
統計は高校で習ったから高卒「でも」充分理解できるもんだと思ってたが
最近の高卒は統計習ってないのもいるんだね

922:デフォルトの名無しさん
18/10/24 14:28:42.96 +JXZmafPr.net
>>890
統計っても機械学習だとロジスティック回帰とか主成分分析とかカーネル法あたりだろう
高校じゃまずやらない

923:デフォルトの名無しさん
18/10/24 16:06:02.78 anPZCCeda.net
kerasでGPUを使う時に
最初のプロパティみたいなので
totalが4GBあるのにfreeが3.2GBしかありません
4GB全部をkerasで使うためにはどうすればいいですか

924:デフォルトの名無しさん
18/10/24 20:34:04.80 GjsFXG0cp.net
>>892
>最初のプロパティみたいなの
これって何?

925:デフォルトの名無しさん
18/10/24 21:13:03.43 scNJP40R0.net
三宅陽一郎は日本のゲームAIの権威と言われてるそうですが本当なのでしょうか?

926:デフォルトの名無しさん
18/10/25 09:15:39.86 Kapp8Prd0.net
AIと相性の良い技術ってなに?

927:デフォルトの名無しさん
18/10/25 09:55:47.79 0TmPhp2B0.net
プログラム

928:デフォルトの名無しさん
18/10/25 10:44:00.40 bw1V0BXua.net
うんこ

929:デフォルトの名無しさん
18/10/25 15:07:49.79 qGEaBy7DM.net
>>895
画像診断。下手な医者より優秀だろう

930:
18/10/25 20:36:36.38 yGYVJ0zR0.net
>>895
超解像

931:デフォルトの名無しさん
18/10/26 00:03:05.76 HAARiEj70.net
クラスタリングって教師ラベルがあるデータに対しても行うことってあるの?
職場の人が教師ラベルあるデータに対してクラスタリングするって言ってたんだけどそれは分類とは違うのかな?と思って聞いてたんだけど自分は知識がないから知らないだけで主成分分析みたいに探索的に何か見つけるために使う事も出来るのかな?

932:デフォルトの名無しさん
18/10/26 00:03:51.15 7cGNdWT70.net
アホたちは
いまのいんちきNNモデルをAIと呼称してんのか

933:デフォルトの名無しさん
18/10/26 05:54:37.59 xXrtI3FC0.net
>>900
その場合クラスタリングとは呼ばないような

934:デフォルトの名無しさん
18/10/26 05:58:52.27 xXrtI3FC0.net
ラベルが既知なのにクラスタリングっていうのは、聞いたことないしやる意味もないのでは。だってデータの距離空間が定義されてるのにわざわざ別の部分集合に割り当てる意味が分からんな。
次元削減なら分かるけど、クラスタリングなんでしょ?

935:デフォルトの名無しさん
18/10/26 06:57:09.46 GCXjdrQrd.net
>>901
それな

936:デフォルトの名無しさん
18/10/26 08:07:55.75 eyOTXDKja.net
クラスタリングではなく分類の手法として教師あり学習ではk近傍法ならあるけど

937:デフォルトの名無しさん
18/10/26 10:06:27.81 8ANUhE7EM.net
NNの一番の問題点って計算量?理論的な保証?

938:デフォルトの名無しさん
18/10/26 10:38:04.98 XMhrCttAa.net
>>906
学習の時は計算量かかるけど使うときは大した事ない
理論保証とブラックボックスさだと思う

939:デフォルトの名無しさん
18/10/26 15:22:53.19 6HAQawqDM.net
>>905
すべてのラベルが既知ならそれはしなくない?
上の質問者の意図が全くわからん

940:デフォルトの名無しさん
18/10/26 15:26:11.38 6HAQawqDM.net
>>900
上の人が言うように、基本的にその場合クラスタリングとは呼ばない。クラスタリングは教師なしだから。
それで質問に答えるとしたらあるデータX(Xはベクトル)にラベルがあるとして、X以外のデータが入力されたときに例えばaとする。そのaとXとのユークリッド距離を測り(k近傍法)、どのx_iと近いのかを判定したりはする。

941:デフォルトの名無しさん
18/10/26 16:56:27.75 65losNFXM.net
URLリンク(teratail.com)
今CNNの学習をしていて、
このページの1つめの結果画像のような状態なのですが、
原因は何だと思いますか?

942:デフォルトの名無しさん
18/10/26 17:22:17.83 gM4hGWhWM.net
>>907
個性っぽくて面白いよな。

943:デフォルトの名無しさん
18/10/27 15:09:34.95 v0X4VL4w0.net
これって何か斬新なのか?
URLリンク(www.itmedia.co.jp)
GANとしては出来が悪いし、レンブラントのAI画のようなテーマも無いし

944:デフォルトの名無しさん
18/10/27 15:36:19.64 y1YlZFrSa.net
Jupyterってジュパイターと発音するんだな
pythonのpyなのは分かってたけどなぜかジュピターって読んでた

945:デフォルトの名無しさん
18/10/27 18:17:25.38 Rhmyt2K70.net
こういうのに最初に大金を出した人が美術史を作っていくのや

946:デフォルトの名無しさん
18/10/27 18:22:26.40 YLSwYbPjd.net
>>912
著作権とかどうなるんだろうな

947:デフォルトの名無しさん
18/10/27 20:53:05.83 +ZkL2hzfF.net
まあ、AIはお金になるという実績を作ってしまったな

948:デフォルトの名無しさん
18/10/27 21:33:01.74 uuDSt7d3M.net
>>910
わかる人おねがいします

949:デフォルトの名無しさん
18/10/27 21:41:30.48 0HglwheTa.net
>>917
一目瞭然じゃん、教えて欲しいのか、試してるつもりなのか。

950:デフォルトの名無しさん
18/10/28 10:52:14.40 ZEyjWc9P0.net
どうみても過学習だろ

951:デフォルトの名無しさん
18/10/28 11:39:15.80 EoM4jV8ha.net
>>913
わかる

952:デフォルトの名無しさん
18/10/28 11:41:19.59 EoM4jV8ha.net
>>910
そのページ内で結論出てるやん

953:デフォルトの名無しさん
18/10/28 21:57:26.97 U2zUowxY0.net
train か少ないとか、val と train の性質が違うとかもあり得るが

954:デフォルトの名無しさん
18/10/28 23:48:27.52 Got3VCGwM.net
>>919
これも過学習なのですか?
ページの人が答えてるように下にあるresnet34の結果が明らかに過学習なのは分かるのですが
こんなに振動する過学習もあるのですか?

955:デフォルトの名無しさん
18/10/28 23:50:29.50 Got3VCGwM.net
あと、accがほぼ100%近いのにlossが10もあるのが理解出来ないのですが
こんな状態あり得るのですか?

956:
18/10/29 00:14:41.57 MQrExvvX0.net
https://bit.ly/2ELs5Zp

957:デフォルトの名無しさん
18/10/29 06:28:46.79 kXYWj2tR0.net
>>795
>>792
>そこまで高いの買わなくても、
>サブ機に1050Ti積んでますけど
>inceptionv3の199層~のファインチューニングでも
>32000枚を100エポック回して大体5時間で終わりますよ
>低価格でいろいろ試すには悪くない性能だと思うので検討してみてはいかがでしょうか。
ありがとうごさいます
そこそこのグラボ買ってみます

958:デフォルトの名無しさん
18/10/29 08:06:16.95 62KNlyE40.net
↓これって日本版Kaggleみたいなもの?
URLリンク(signate.jp)

959:デフォルトの名無しさん
18/10/29 10:26:37.08 8gX7Io6i0.net
>>924
URLリンク(stackoverflow.com)


960:tion-performance-have-large-fluctuations-during-deep-cnn-trai 上記以外にも似たような話がいくつかあったけど明確な回答はないみたい データセットの側の問題ということのようだけど 単純にデータ数が少ないだけのような気もする



961:デフォルトの名無しさん
18/10/29 10:55:56.04 8gX7Io6i0.net
NNは最小限の構成から始めて
学習曲線を確認しながらレイヤー数を増やして複雑にしていくのが常道だから
まず3層ぐらいの単純な構成だとどうなるのか見るべきじゃないのかな
teratailの例を見れば少ないレイヤー数なら普通に過学習で見られる学習曲線なわけだし
いずれにせよどんなデータを使って何を分析しようとしているかもわからない
ネットワークの構成もわからないで学習曲線だけ出して的確な回答を期待する
というのも無理があるかと

962:デフォルトの名無しさん
18/10/29 11:31:50.05 VxCr7qKV0.net
あらかじめ結論を決めておくのは意味が無くね

963:デフォルトの名無しさん
18/10/29 11:38:09.69 tXMYusEla.net
でかいネットワークで学習するとむしろ汎化性能が上がるって説もあるよね

964:デフォルトの名無しさん
18/10/29 21:39:26.10 JGxixszg0.net
むしろ期待通りの結論に到達するように
学習させてるのがいまのウンコAIだからな

965:デフォルトの名無しさん
18/10/29 21:58:32.07 zEESrYYqa.net
むしろ期待通りになるように学習させないでどうするんだよw
間違った教科書で勉強したら間違った答えを出すだけ

966:デフォルトの名無しさん
18/10/29 22:12:20.15 JGxixszg0.net
つまりオマエが作ったAIは
オマエより賢くなることはない
アホのまま

967:デフォルトの名無しさん
18/10/29 22:18:10.77 FSHl5k4M0.net
教師あり学習なんだからそんなの当たり前やん何言ってんのこの人

968:デフォルトの名無しさん
18/10/30 00:39:20.03 NTdM/MUxa.net
作り手の想像を超えた知性が得られたとしてそのことを数値で評価することなど不可能なんだから、そもそも作成に成功したかどうかすら誰にも分からないわけで

969:デフォルトの名無しさん
18/10/30 02:23:18.40 82wxAJF9a.net
>>936
強化学習なんかだと、例えばゲームで人間の思いもよらない戦略を学習する事もあるし、スコアとかの客観的な評価軸もあるぞ

970:デフォルトの名無しさん
18/10/30 08:59:49.24 R0rHQSFYa.net
強化学習は報酬を与えるルールさえ決めれば後は膨大な計算コストがかかるだけで結果は決まっているわけだから作り手を超える賢さを得たと言って良いかどうかは微妙なところ

971:デフォルトの名無しさん
18/10/30 11:21:40.67 82wxAJF9a.net
賢さとは

972:デフォルトの名無しさん
18/10/30 12:07:17.38 BPezb0mna.net
賢さの定義などないけど>>934が賢さについて言ってたから使ってみただけ

973:デフォルトの名無しさん
18/10/30 13:55:45.69 jHKI7OLI0.net
この分野、売り逃げがしにくい。
それが良さでもあり悪さでもある

974:デフォルトの名無しさん
18/10/30 16:34:11.40 MWqKC0Xe0.net
本当に初心者ですけど質問です。
他クラス分類してて線形モデルを考えてるんだけどグリッドサーチしてCを出すプログラムを書いた。
そのプログラムを数回走らせると毎回違うCが出てくるんですがそう言うものですか?
ちなみにaccuracyはおんなじ値が何回も出てたまに低かったり高かったりします。

975:デフォルトの名無しさん
18/10/30 17:24:22.04 6RcW7/vQ0.net
Cとはw

976:デフォルトの名無しさん
18/10/30 17:27:41.62 MWqKC0Xe0.net
>>943
正則化パラメータです

977:デフォルトの名無しさん
18/10/30 17:48:49.55 6RcW7/vQ0.net
>>942
プログラムがどうなってるか分からないけど(毎回乱数で変わる値をしようしてるとかあったら)、普通は何度実行しても同じ結果正則化パラメータCを出力しなければいけないと思うよ。
プログラムを見て乱数で設定してるところがないかを確認してみては

978:デフォルトの名無しさん
18/10/30 18:06:39.94 MWqKC0Xe0.net
>>945
乱数シードは固定してないです
固定してなくても同じ値が出るってことですか?

979:デフォルトの名無しさん
18/10/30 18:18:52.14 6RcW7/vQ0.net
>>946
固定してなければ違う値が出ると思う。固定してればもちろん同じ値が出ないとおかしな話だとは思うけど。。。
(そういう乱数の次元の話じゃないかなと思ったので)

980:デフォルトの名無しさん
18/10/30 18:30:56.53 MWqKC0Xe0.net
>>947
研究で、もらったデータセットでやってるのでなんかおかしいのかなと思ってました。
irisのデータでも同じような挙動だったので関係なかったです。毎回違う値(振れ幅もバラバラ)なのは普通ということなのですね。

981:デフォルトの名無しさん
18/10/30 19:26:16.58 9tuKGKcX0.net
random_state=42で解決やな

982:デフォルトの名無しさん
18/10/30 22:43:15.66 GavdUYiJp.net
みんな普段勉強してる?
仕事外は一切やらない?

983:デフォルトの名無しさん
18/10/31 01:39:51.29 sES2GFEm0.net
機械学習知らん人に説明する度にAIって便利な言葉だと実感する
最適化じゃなくて学習とかクッソ曖昧な言葉で納得してくれて本当助かる

984:デフォルトの名無しさん
18/10/31 01:41:22.42 t08oq/or0.net
学習って用語廃止したほうがいいわ
kerasみたいにfitって言えよ

985:デフォルトの名無しさん
18/10/31 04:49:39.73 JXVBQ0WM0.net
>>951
「餌を与えると勝手に学習してくれる」っていうと素人にも分かりやすい

986:デフォルトの名無しさん
18/10/31 06:41:10.96 pccA+Jbua.net
>>951
本当に「最」適かどうかは判らないんじゃね?

987:デフォルトの名無しさん
18/10/31 10:06:16.97 TAKFrudE0.net
「AIが考える」って、使っていて違和感を感じる表現だけど
そう形容するのが適切なんだな

988:デフォルトの名無しさん
18/10/31 11:33:47.84 9AveOwUAM.net
適当な説明すると勝手に妄想を暴走させてしてしまう人もいる

989:デフォルトの名無しさん
18/10/31 11:35:46.20 DM2hlzCN0.net
椅子を学習したら切り株に座れる機能がある事も分かるAIはよはよ

990:デフォルトの名無しさん
18/10/31 15:05:10.91 AfZsWIp40.net
パブロフの犬w

991:デフォルトの名無しさん
18/10/31 16:12:18.23 9rURn1wWa.net
そんなの椅子の認識のさせ方次第でどうにでもなるだろ
背もたれのある普通の椅子しか学習させなければ切り株を椅子と認識できるわけないが座れそうなものを片っ端から学習させれば何とかなる

992:デフォルトの名無しさん
18/10/31 17:37:08.95 DIO1Zi0x0.net
ラベリングは誤魔化すために重要。
トヨタのTNGAとか便利便利

993:デフォルトの名無しさん
18/10/31 18:27:00.41 DM2hlzCN0.net
>>959
これはただの例で汎用的にやりたいんです。
シンギュラリティ!

994:デフォルトの名無しさん
18/10/31 18:38:23.95 PS6I4Eoja.net
切り株画像に「イス」ってラベル付けなくても
切り株に人が座ってるラベルなし画像から推測できるぐらいにはなって欲しいね

995:デフォルトの名無しさん
18/10/31 21:01:56.61 HmfWxI/4a.net
生まれて初めて切り株を見た人間でも、切り株に椅子としての機能を見出せるだろうけど、これは「座れそう」→「座れた!」という環境とのインタラクションがあるからなんだろうか
前にNHKの番組で東大の松尾先生が「体を持たない知能は存在するか?」的な事を言っていたな

996:デフォルトの名無しさん
18/10/31 21:15:33.30 N9TdgOC+0.net
兎が転げるかどうかを判定して下さい

997:デフォルトの名無しさん
18/10/31 22:09:58.39 2LY4gCsVM.net
>>961
だからほんなら汎用的なデータ食わせろって話ですわ
まさか学習データが画像しかないとか思ってるわけでもあるまい

998:デフォルトの名無しさん
18/10/31 22:18:31.69 P5/vr7Wfr.net
>>965
データがない未知の場面に出くわしても人間みたく持てる経験と知識を応用出来るかって話だろ
データさえあればって身も蓋もない話

999:デフォルトの名無しさん
18/10/31 22:21:11.84 DM2hlzCN0.net
>>965
そうなのね。
昨日辺りの日経新聞に書いてあったのよ。

1000:デフォルトの名無しさん
18/10/31 22:41:28.97 XzHEjZDYM.net
>>966
切り株に座れるか判定の可否を議論してる時にドラえもん作りたい話されても知らんがな

1001:デフォルトの名無しさん
18/10/31 23:07:24.47 P5/vr7Wfr.net
>>968
切り株はあくまでも一例だって>>961が言ってるやん

1002:デフォルトの名無しさん
18/11/01 05:25:09.80 KHSnGnhJ0.net
>>961
そしたら身体持たせて学習(実体験)積んで
痛い目に合わせないとダメやろ

1003:デフォルトの名無しさん
18/11/01 08:43:51.58 6C/JpYju0.net
なるほど

1004:デフォルトの名無しさん
18/11/01 10:47:02.18 z733lC2q0.net
産まれてすぐからちんちんあったけど生殖に使うものだって気付いたのは十年以上経ってからだしな

1005:デフォルトの名無しさん
18/11/01 11:00:15.65 HdmsTef60.net
>>969
意味を把握した思考もどきがやりたいなら
多分、言語処理のKingとQueenの話の方が例題として適切
切り株と椅子だと形状の特徴で学習してるだけぽい

1006:デフォルトの名無しさん
18/11/01 14:19:21.88 aGO292A70.net
猪が来たらどうする?

1007:デフォルトの名無しさん
18/11/01 15:02:24.07 TL6Ac/Cx0.net
質問です
評価基準をaccuracyでやってるんですが、交差検証するたびに60%~80%の幅で出ちゃうんですが、こういうときは例えば10回プログラム走らせて平均取るみたいな評価をすればいいですか?他に評価方法がありますか?

1008:デフォルトの名無しさん
18/11/01 15:04:59.66 K++eZGijM.net
>>969
別に例なら切り株でもベンチでも何でも同じやがな
欲しいと想定される機能を実現するため相応のデータ(センサ)と学習は必要やろが
生まれつき視覚以外の感覚がない人間が椅子ばっかり教えられて果たして切り株に座れると思うかどうかや
椅子の画像データ学習させるだけでドラえもん作りたいくらい頭クルクルパーなこと言ってるの理解してるんか

1009:デフォルトの名無しさん
18/11/01 15:14:35.11 K++eZGijM.net
>>975
学習終了後の評価でそんだけバラつきあるならちゃんと収束してるかとかデータ数大丈夫かとかいろいろ見直してみたらどうじゃろか

1010:デフォルトの名無しさん
18/11/01 15:42:41.91 TL6Ac/Cx0.net
>>977
データ数はどうにもならないんですよね。自分でも少ないってのは分かってるのですが。
収束してるかどうかってのは、線形svmでやってたので怪しいかもしれないです

1011:デフォルトの名無しさん
18/11/02 07:26:51.97 R64W7CuQ0.net
質問です
人工知能用のPCを買おうと思っているんですが、
Linuxがベストとして
クソOSと言われているUbuntuでいいんでしょうか?
Fedoraのほうが評判良いですが・・・?

1012:デフォルトの名無しさん
18/11/02 09:23:48.57 lRUrxC7ia.net
linuxはほとんど無料で手に入る

1013:デフォルトの名無しさん
18/11/02 09:42:29.33 7B/VUhwC0.net
両方試してみたらいいのでは
LTS版があって情報も多いUbuntuが無難な気はする。

1014:デフォルトの名無しさん
18/11/02 16:11:27.17 ggr9EF3w0.net
Fedraの方が糞

1015:デフォルトの名無しさん
18/11/02 17:00:09.45 kFSDuH24d.net
ど素人かよ…

1016:デフォルトの名無しさん
18/11/02 19:31:48.96 EV14OdoL0.net
んなもん買うよりawsかgcpで試してみたらいい。

1017:
18/11/02 19:36:26.30 o5NYXwZJ0.net
>>979
どのディストリでも大して違いはないと思いますが

1018:デフォルトの名無しさん
18/11/03 00:10:53.31 mBAfemi8a.net
>>979
無難なの選んどけばいいんでない
むしろ悩みどころはスペックとかどのライブラリ使うかとかでは

1019:デフォルトの名無しさん
18/11/03 01:59:27.38 sOGll4gf0.net
>>979です
皆さんご回答ありがとうございます
わかりました
とりあえずUbuntu使おうと思います
PCのスペックはだいたい決まっています
ライブラリは主にTensorFlowを使います

1020:デフォルトの名無しさん
18/11/03 07:19:41.13 HkPHzurE0.net
xeon phi はいいぞう

1021:デフォルトの名無しさん
18/11/03 14:53:35.78 Is/adptI0.net
URLリンク(blog.tinect.jp)

1022:デフォルトの名無しさん
18/11/03 19:11:44.45 fz7zsIZd0.net
安w
Xeon Phi? 7210 (64コア) \3,585,600

1023:デフォルトの名無しさん
18/11/04 00:03:11.36 EyE9WGn+0.net
>>984
> んなもん買うよりawsかgcpで試してみたらいい。
横からスマンけど、研究費が無尽蔵にあるならaws、gcp、またはazure
でもいいけどさ、俺のように金がなくなってすぐ頓挫となるぞ?
データ入れて回してたらすぐ100万使っちゃうから。
PC買ったほうが絶対にいい。


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch