【統計分析】機械学習・データマイニング26at TECH
【統計分析】機械学習・データマイニング26 - 暇つぶし2ch2:デフォルトの名無しさん
19/09/15 09:59:37.11 tu3q64lr0.net
O2

3:デフォルトの名無しさん
19/09/24 23:47:17.70 gKQtLd2vr.net
XGBoostが諸刃の剣になっちまった

4:デフォルトの名無しさん
19/09/25 00:19:36.48 BREdOFJe0.net
前スレ>>992
べイズ統計学ってなーに?
分かりやすく教えて!

5:デフォルトの名無しさん
19/09/25 07:14:40.74 tY/xHREXM.net
>>4
URLリンク(to-kei.net)
頻度論
パラメータが定数、データが変数(確率変数)
ベイズ統計
パラメータが変数(確率変数)、データが定数

6:デフォルトの名無しさん
19/09/25 08:15


7::33.35 ID:CV7fPBbD0.net



8:デフォルトの名無しさん
19/09/25 08:37:12.96 1+OtauDZM.net
須山がすっきりわかる本を出せばいいのに出さないのが悪い

9:デフォルトの名無しさん
19/09/25 09:16:10.18 78OcKefnr.net
>>5
最尤推定はベイズなの?

10:デフォルトの名無しさん
19/09/25 09:54:14.76 MmbVy9zrM.net
前処理→頻度統計(ここでの意味は、一昔前の統計学)
機械学習の理論→ベイズ統計
前処理がうまくなると、精度が上がるだけでなく、モデルの安定性が格段に増す
理論が分かると、個別の問題設定に対応した黒魔術が出来るようになる
結論、どっちも大切

11:デフォルトの名無しさん
19/09/25 10:52:23.26 tY/xHREXM.net
>>8
最尤推定推定は最尤推定、ベイズ推定とは別と理解している。
深層学習とかで使う、対数尤度の式を展開するときベイズから展開する時があるような?

12:デフォルトの名無しさん
19/09/25 13:19:04.63 OmIBYJEg0.net
>>6
最近始めたばかりのやつがどちらが役立つかなんてわかるわけねーだろ

13:デフォルトの名無しさん
19/09/25 13:30:28.23 PT03VQPIM.net
でも勉強を進める上でどっち先にやればつまらないかってのはあるんじゃない
理論よりならベイズ、実務よりなら頻度だろうな

14:デフォルトの名無しさん
19/09/25 14:09:59.84 1+OtauDZM.net
みんなはどうやって環境構築してるの
anacondaを使ってやるのがセオリー?

15:デフォルトの名無しさん
19/09/25 15:07:16.78 PT03VQPIM.net
anacondaは初心者のうちだけ使う
でも最近はAWSがサポートしてるからまた使いたくなってきたな

16:デフォルトの名無しさん
19/09/25 18:36:46.01 LyljOph0p.net
俺、初心者じゃないけどanaconda使うわ
anaconda使うことを否定する派は
1. 昔のトラブル多い時代から触っているヤツ
2. システム環境領域にインストールするヤツ
のどっちか
個人領域にインストールする分には全く問題ない

17:デフォルトの名無しさん
19/09/25 18:40:09.58 1+OtauDZM.net
環境構築は今アホみたいに簡単になってるのね
参入障壁下がったなー

18:デフォルトの名無しさん
19/09/25 19:38:21.27 PT03VQPIM.net
condaは数年前からあるよ

19:デフォルトの名無しさん
19/09/25 19:39:44.94 PT03VQPIM.net
数年どころじゃないな。でも日本で広く普及したのは2015年ぐらいからだと思う
その頃にはアプリをダウンロードして解凍すればハイって
状況が整ってた。書籍もいっぱい出てたし

20:デフォルトの名無しさん
19/09/25 21:30:03.73 P5XKQ29wa.net
うbyにもcondaがあればな
gemじゃだめだ

21:デフォルトの名無しさん
19/09/25 21:32:09.14 jOSWKpSY0.net
rubygem

22:デフォルトの名無しさん
19/09/25 22:49:49.65 J2adDr870.net
anacondaは今でもPATHの問題はある。
それでも他のpython管理でぐっちゃになるよりかは管理は楽だったりする。
それでも問題ならコンテナ使うなりVM使うのが正解。

23:デフォルトの名無しさん
19/09/25 23:40:30.85 PT03VQPIM.net
個人で使うならcondaでもいいけど、
linux環境ならVMでpipかコンテナ、windowsならコンテナを使うほうが主流だと思う
pythonのコミュと、condaのコミュが喧嘩したままなのがすべて悪い

24:デフォルトの名無しさん
19/09/26 07:08:44.02 GjmPRA6D0.net
>>pipかコンテナ
コンテナっていうのはanacondaとかvirtualenvのこと?

25:デフォルトの名無しさん
19/09/26 08:47:24.45 /HqP+5MIM.net
簡単だから
ついアナコンダ使って
インスコしてしまうw

26:デフォルトの名無しさん
19/09/26 09:10:37.91 qqF5D8YZM.net
重いコンダラ

27:デフォルトの名無しさん
19/09/26 15:00:47.07 nS47tYDvM.net
>>23
dockerを想定していた

28:デフォルトの名無しさん
19/09/26 17:08:15.06 qqF5D8YZM.net
dockerかーそっかー

29:デフォルトの名無しさん
19/09/26 19:20:37.52 J18tRDCpp.net
>>22
気持ちは分かるなぁ
Pythonコミュニティは無償で維持し続けているのに、単なるパッケージャのAnacondaが会社まで建てて儲けまくり
それでもmklを無償で使えたり、Nvidiaのドライバがすんなり入るのはAnacondaチームの政治力だと思うんだ

30:デフォルトの名無しさん
19/09/26 21:15:34.59 GjmPRA6D0.net
mklのインストールもすんなり行くけどね

31:デフォルトの名無しさん
19/09/26 23:00:37.89 nS47tYDvM.net
>>28
あの会社、そんなに影響力あるんだ

32:デフォルトの名無しさん
19/09/27 00:37:37.36 Rn9jKya4p.net
機械学習だけか分からんけど、英語論文に出てくるmotivationってどういう意味なの?直訳動機付けなんだけど…

33:デフォルトの名無しさん
19/09/27 05:01:55.83 WHTSWUXA0.net
機械学習に見切り付けるよ。サヨウナラ
客の懐事情が悪い。

34:デフォルトの名無しさん
19/09/27 06:28:45.14 GCYoetCo0.net
画像処理か。もうどこも導入が終わって下火だよなあ

35:デフォルトの名無しさん
19/09/27 08:02:21.46 FC76HeOJ0.net
へー

36:デフォルトの名無しさん
19/09/27 08:39:58.85 7AQBen6M0.net
今の日本は奴隷国家だから機械学習使うよりもたいていは
人間こき使った方が採算獲れるというね。。

37:デフォルトの名無しさん
19/09/27 09:00:45.67 vVIjh5fvM.net
画像処理は世界共通だからね。
ベトナムの企業に依頼すると
日本の10分の1で済んでしまう

38:デフォルトの名無しさん
19/09/27 14:41:02.85 wZU7EPf1M.net
dockerを使ったら
pipでもanacondaでもどちらでもよくね?

39:デフォルトの名無しさん
19/09/27 16:07:12.55 bGFj4S5H0.net
ちょっと酷いよね
URLリンク(toolmania.info)

40:デフォルトの名無しさん
19/09/27 16:24:04.32 2DQWdxIUM.net
画像処理は仕事がまだあるけど、需要と供給が拮抗しはじめて以前ほどボロくない
あとカメラ業界が儲からなくなって、若く優秀なエンジニアが画像処理に転職してくてるから、
全体のレベルは跳ね上がって別の意味でも辛い

41:デフォルトの名無しさん
19/09/27 17:04:54.88 wZU7EPf1M.net
cudnnて何でCUDA toolkitと一緒に入れてくれないんだろう
あと、なんて読むのだろう
クゥドゥン?

42:デフォルトの名無しさん
19/09/27 20:29:30.83 v6XbQiA90.net
画像系はとっくにコモディティ化したのかと
GCPは数十枚単位の画像で学習終了

43:デフォルトの名無しさん
19/09/27 23:53:42.50 WHTSWUXA0.net
>あとカメラ業界が儲からなくなって、若く優秀なエンジニアが画像処理に転職してくてるから、
カメラメーカーからソフト屋に転職してきてるのか・・・最悪だな

44:デフォルトの名無しさん
19/09/28 01:00:16.83 1q0wGLn+a.net
カメラ技術者をソフト会社がわざわざ雇う意味あるの?

45:デフォルトの名無しさん
19/09/28 01:39:26.59 ec95vgaT0.net
カメラのメーカーにもプログラマーはいる

46:デフォルトの名無しさん
19/09/28 06:53:25.01 ubKeWw8E0.net
カメラメーカーでCのコードを叩いてるエンジニアは、能力的には上の上でも給料的には並だったりするんだよね
BtBの画像処理は光学やカメラに対する知識の方が画像処理より重要だったりするんだけど、
奴らはそれを理解しているから機械学習を勉強して転職してくる
生粋のソフト屋より有能

47:デフォルトの名無しさん
19/09/28 06:58:42.45 gG4VWWHP0.net
妄想じゃん

48:デフォルトの名無しさん
19/09/28 06:59:47.47 ubKeWw8E0.net
プログラマーがカメラメーカーに就職してメカトロ勉強するのマジ辛いけど
向こうからこっちくるの超簡単じゃん。それでお給料がボンッ、ボンッと増えるんだから
侵略しにくるでしょ。俺達では太刀打ちできない

49:デフォルトの名無しさん
19/09/28 07:01:07.69 ubKeWw8E0.net
>>46
勉強会で知り合った人がカメラメーカーに務めていて、
彼から話を聞いた。マジ

50:デフォルトの名無しさん
19/09/28 07:01:35.44 ec95vgaT0.net
噂じゃねえか

51:デフォルトの名無しさん
19/09/28 08:03:18.08 eyOXXdxS0.net
そうだとは思うけれど絶対数がかなり少ないだろ

52:デフォルトの名無しさん
19/09/28 12:29:51.89 VkgXlNvUa.net
>>35
人間こき使ってコスパで負けるようになって機械学習を使う。

53:デフォルトの名無しさん
19/09/28 17:00:38.83 ATQt8OTo0.net
>>35
派遣社員っていう会社にとって都合のいい社員も存在するしな
誰があんなものを作ったのか中国やアメリカの派遣社員より相当緩い仕組みになっているし
漫画家とか技術者もそうだが中間で採取されて制作している人にはお金が行かないようになっている
全体的に上に行っても負担が増すぶん給料は上がらないんで上昇志向はどの国よりも低く
今の若い奴等は年金が支払われる前に痴呆症になってるんじゃないかっていうぐらいまで働かないといけないっていう

54:デフォルトの名無しさん
19/09/28 17:18:59.65 +uNdfll6a.net
そんなことは就職前から分かりきったことなんだから最初から搾取する側に入ればいいだけのこと
努力せず遊び呆けて働きだしてから「日本は搾取の構造だ!」と叫ぶ馬鹿が多すぎる

55:デフォルトの名無しさん
19/09/28 17:35:15.12 ATQt8OTo0.net
>>53
採取する側は叩けば埃の出るような犯罪者っぽいのがほとんど
競争社会を勝ち抜いて行った先にあるのがそれだろ
それに努力すれば金持ちになれるようなルールにはなっていない

56:デフォルトの名無しさん
19/09/28 17:46:59.71 uMRmbRaFM.net
そうそう
儲けたほうが勝ち!
楽しんだほうが勝ち!

57:デフォルトの名無しさん
19/09/28 17:51:02.93 +uNdfll6a.net
努力して上位大学を卒業するだけで割と簡単に搾取する側になれるルートが誰にも用意されているのに何を言っているのか

58:デフォルトの名無しさん
19/09/28 18:07:32.13 ATQt8OTo0.net
>>56
そう思ってるだけで実際は採取されてるんじゃないの?
上位大学ねー
競争意識を利用して国が一番採取する人材を作り出しているところだな

59:デフォルトの名無しさん
19/09/28 18:44:22.08 hL/dT4I4a.net
競争に買った側を犯罪者呼ばわりしたり、なんというか惨めな負け組が僻んでいるだけにしか見えない

60:デフォルトの名無しさん
19/09/28 19:17:43.06 ePVJ8sz30.net
ここに居るようなAIのプロなら全員自作投資AIで資産を数倍にできるし…

61:デフォルトの名無しさん
19/09/28 19:34:03.45 SjqW2YAt0.net
一万円を三万円にするのか

62:デフォルトの名無しさん
19/09/28 19:50:07.20 gG4VWWHP0.net
卑怯な手で勝つ奴がいるからだろ

63:デフォルトの名無しさん
19/09/28 20:29:02.97 eyOXXdxS0.net
>>53
こういう馬鹿がさらに搾取構造を強化してるわけだ。

64:デフォルトの名無しさん
19/09/28 20:57:19.58 y9sf8/a7a.net
自分が考え付かなかった=卑怯

65:デフォルトの名無しさん
19/09/28 20:58:01.59 ubKeWw8E0.net
>>50
しっかりした技術力を持ってるところなら大丈夫だろうな

66:デフォルトの名無しさん
19/09/28 21:04:22.30 hL/dT4I4a.net
「搾取する側は馬鹿だ!」と騒いだところで搾取される側は搾取され続けるんだがな

67:デフォルトの名無しさん
19/09/28 21:12:39.63 eyOXXdxS0.net
搾取側は騒がれるのを一番嫌がってるんだがな。
ワタミも騒がれなくなったら馬鹿が戻ってきやがったw
また地獄行きだよ。

68:デフォルトの名無しさん
19/09/28 23:13:39.09 DqaXwl5j0.net
採取する側に立ったとして人生の貴重な時間を若い頃から費やしている訳で
お金で幸せは買えないが、時間で幸せは買えるとか
時間を重視する派の方が金を重視する派より仕事の満足度も幸福度も高いとかっていう
統計的結果が出ている中、仕事に没頭してガッツリ税金を納めている訳だから
それはそれで代価を支払っている訳で
何もかも手にしている訳では無いわけだけど

69:デフォルトの名無しさん
19/09/28 23:31:21.95 uo4KGCJsa.net
むしろ日本では搾取される底辺達用のきつい仕事ほど給料少なくこき使われる傾向なので自由に使える時間もなくなる

70:デフォルトの名無しさん
19/09/28 23:38:21.63 DqaXwl5j0.net
>>68
そう思っている分野って意外に年取った奴も多く居たりしてないか?
若い奴しか居ない分野より本当に大変なのか?っていう

71:デフォルトの名無しさん
19/09/29 00:41:09.63 w1jKt74TM.net
プログラマーの仕事も激減するなって分かるな
AWSやGCPがいったい何人のプログラマーの仕事を奪ったか分からない奴は時代感覚がない

72:デフォルトの名無しさん
19/09/29 00:41:10.26 w1jKt74TM.net
プログラマーの仕事も激減するなって分かるな
AWSやGCPがいったい何人のプログラマーの仕事を奪ったか分からない奴は時代感覚がない

73:デフォルトの名無しさん
19/09/29 01:11:21.55 rU7Oj6HSa.net
RPAで事務職がほとんど減ってないじゃないか?

74:デフォルトの名無しさん
19/09/29 02:45:48.79 eYrcqGBM0.net
rpa以前から事務職なんてほぼ消えている

75:デフォルトの名無しさん
19/09/29 08:06:29.75 r79SZfxpa.net
>>73
公務員。

76:デフォルトの名無しさん
19/09/29 08:36:26.89 Ozq3jCTSa.net
>>73
富士通、間接部門5千人を営業・SE等に異動…大企業の間接部門 .
URLリンク(biz-journal.jp)

77:デフォルトの名無しさん
19/09/29 08:42:09.86 bEy1wMJX0.net
RPAってただリストラの口実に使ってるだけ。

78:デフォルトの名無しさん
19/09/29 10:32:16.40 T3oTPEq3M.net
>>70
AWSやGCPって便利だけど
使ってみたら料金の高さに唖然・呆然!
直ぐに解約した。
あの金額をプログラマに払えば
かなりプログラマは裕福になると思う。
社内にサーバー設置して
AWS風のクラウドを構成
すればいいだけ。
簡単だよ。

79:デフォルトの名無しさん
19/09/29 10:34:10.47 zYOYSMRY0.net
そう?
電源確保して
冗長構成して
マシンも定期的にリプレースして
のコストだと思うと妥当じゃない?

80:デフォルトの名無しさん
19/09/29 11:33:10.31 lvoGL4290.net
妥当だな。
てかプログラマの負担が減る方向に技術が進歩してるってのに
一向に幸せにならん社会システムの方が問題だろ。

81:デフォルトの名無しさん
19/09/29 13:11:38.23 zYOYSMRY0.net
それはマに限らないから・・・

82:デフォルトの名無しさん
19/09/29 13:19:58.43 Vo7qenMua.net
AmazonやGoogle並のセキュリティや安定稼働を社内の一部門で保証できる企業なんてほぼないんだから
今更社内に大型サーバー設置するなんて選択肢取るような企業があったら驚きだわ

83:デフォルトの名無しさん
19/09/29 13:23:03.81 NshXf8dJ0.net
海外でも変わった国として見られているからね
「日本は暴力・薬物事件も少なく殺人件数も低く就業率も高いがいまだに貧困率が高い」と海外で報じられる
URLリンク(gigazine.net)

84:デフォルトの名無しさん
19/09/29 13:32:48.88 o/oUThWCM.net
久しぶりに来たら頭悪そうなスレになってた

85:デフォルトの名無しさん
19/09/29 13:37:18.52 PCo7gGCmM.net
>>81
大型サーバーってなに?
何も知らん技術ないやつらが
AWSスゲーとか
いってんのは分かった

86:デフォルトの名無しさん
19/09/29 13:42:52.93 PCo7gGCmM.net
>>81
電源とかPCとかググってみろと
いっても理解できんだろ?
ま、50万くれたら
都内なら1日だけ時間作って
基本を教えにいってやりたい!
しかし今はアルバイトできないのよ
今の契約終わったら教えにいつてやる。
スパルタ教育だで。
殴ったりしないが馬鹿には容赦しない
罵声浴びせるから精神鍛えておけ!

87:デフォルトの名無しさん
19/09/29 13:42:58.24 Vo7qenMua.net
(笑)

88:デフォルトの名無しさん
19/09/29 14:32:31.08 XhdeSoMmd.net
全くの初心者が初めてディープラーニングを学ぶのに
お勧めの書籍を教えて下さい。
『ゼロから作るディープラーニング』でしょうか?

89:デフォルトの名無しさん
19/09/29 16:02:35.79 jzbsOTsxa.net
>>76
じゃ今まで社内失業者を飼っていただけの話だったのか?
富士通だけでなくNTT・NEC・東芝と併せて7万。
3メガバンで3万。3メガバンは10万やれるんだが金融庁がストップをかけたとか?
メガバンより酷いのが地銀以下、地銀以下の合併をやってリストラをやらんといかんのだが、
地銀以下の主導権争いによって全然進まない上に、せっかく当事者と金融庁まではまとまったのに公取委が独占禁止法を盾に待ったをかけたとか言う事例まで。

90:デフォルトの名無しさん
19/09/29 16:05:31.75 Dbf6PSmZ0.net
銀行の役目は終わってる、金の借りる企業がない

91:デフォルトの名無しさん
19/09/29 16:19:18.91 x0FBieicM.net
>>87
色々と読んだけど、それが一番オススメ。間違いない
1を読み終わったら、自然言語処理に興味がなくても2まで読むといいよ

92:デフォルトの名無しさん
19/09/29 16:24:05.36 x0FBieicM.net
データサイエンス系の機械学習エンジニアの要求スペックが高止まりして、
この業界に必要なスキルがだいたい明らかになったな
物凄く要約すると、
機械学習+自然言語処理or画像処理+クラウドアプリケーション開発
これをひとりでこなせる奴が、アメリカにはゴロゴロいる
日本はまだちょっとぬるいからスキル上げるなら今のうちだわ

93:デフォルトの名無しさん
19/09/29 16:25:34.32 x0FBieicM.net
ところでクラウド系の仕事は要件定義書を書くスキルがいらなくなるんじゃないかと
思ってるの俺だけ?
まあたぶんそうはならないんだろうけど、そういう感覚はあるよね

94:デフォルトの名無しさん
19/09/29 16:32:37.60 XhdeSoMmd.net
>>90
ありがとうございます。
ちなみに以下のサイトとどちらがお勧めですか?
どちらが良いか迷っています。
よろしくお願いします。
URLリンク(tutorials.chainer.org)

95:デフォルトの名無しさん
19/09/29 16:42:32.25 lvoGL4290.net
>>84
とりあえず同じ要件でNTTデータかアクセンチュアにでも頼んでみたら?
もっとバカみたいな見積出してくるからw

96:デフォルトの名無しさん
19/09/29 16:50:14.91 t4KppL3o0.net
>>91
機械学習+アプリケーション開発
AIをシステムとして展開する為には、このセットが重要だけど、後者は未だに軽視
分析は出来るけどシステム設計できない新卒を青田刈りするより
現役のSEに機械学習覚えさせたほうが使い勝手が良い

97:デフォルトの名無しさん
19/09/29 19:20:29.17 zYOYSMRY0.net
は?
何が言いたいの?

98:デフォルトの名無しさん
19/09/29 20:58:32.01 nT1w560I0.net
>>95
SI屋のSEがアプリケーション開発を重視してるとは思えないけどなぁ。
人海戦術でなんとか動くものをギリギリ作ってるだけでは重視と言えないだろ。

99:デフォルトの名無しさん
19/09/29 21:48:02.51 lvoGL4290.net
>>95
個人的な印象はどっちも大してコスト変わらんからどっちでもいい。
どっちも結局同じくらい苦労する。

100:デフォルトの名無しさん
19/09/29 22:08:25.81 Cx80w4FvM.net
意味もわからずAPI使うだけなら関係ないけど機械学習の理論を知識無しから学ぶのは社会人にはキツイ
大学で理論学んだ人間が社会人になってシステム開発も覚えた方がやりやすそう

101:デフォルトの名無しさん
19/09/29 23:58:26.18 YuhE+cap0.net
大学で機械学習の研究やってる人間がまったくコード書かないってことはありえないだろ
そういう人間にプロトタイピングやらせてSI屋がリファクタリングすりゃいいじゃん

102:デフォルトの名無しさん
19/09/30 00:22:31.70 8e9MDvd5M.net
大学で理論を学んだけどコード書けない奴は五万といる
そういう人はIT志望じゃないけど

103:デフォルトの名無しさん
19/09/30 01:24:18.06 IzG9ESU60.net
>>101
いいかげんなこと書くなよFラン

104:デフォルトの名無しさん
19/09/30 07:39:07.01 ZQ2jVHqFa.net
コード書ける書けないの基準による
実験データの処理のようなプログラムであれば誰でも書けるが
ソフト会社で求めるのは複数人開発を前提とした大規模プロダクトの開発のノウハウだがそっちの知識は皆無な人が大半

105:デフォルトの名無しさん
19/09/30 08:53:58.05 MFpp3sz0a.net
>>103
金にならないプログラマーってことですね。

106:デフォルトの名無しさん
19/09/30 09:31:29.28 8e9MDvd5M.net
bigqueryでデータ管理して、pythonで分析、ダッシュボードで可視化
という最小単位のシステムなら、ひとりで組めるしそういう知識もいらないけどね
スマホ連携やら組み込みやらでやることが増えると、
クラウドの外側で昔ながらのスキルが要求されるようになっていく

107:デフォルトの名無しさん
19/09/30 10:52:05.24 8e9MDvd5M.net
ローカルなシステム開発も中途半端なところは
技術をプログラミングの民主化や、フレームワークの進歩に吸収されていくから、
組み込みでシステム開発をやってるような、振り切ってるところ以外は
生き残れる確率が低いと思う

108:デフォルトの名無しさん
19/09/30 13:48:26.95 FnsAlH7P0.net
伊勢湾台風の被災映像、AIで初のカラー化 CBCが26日番組で公開
URLリンク(www.chunichi.co.jp)
白黒と大して変わらん希ガス

109:デフォルトの名無しさん
19/09/30 13:56:04.38 FnsAlH7P0.net
>>80
2013年度 NHK会長、副会長、経営委員長等の給料(年)
NHK会長 3800万円/手当込
副会長   3370万円/手当込
常務理事  3020万円/手当込
理事     2856万円/手当込
経営委員長(常勤)3792万円/手当込
NHK社員  1780万円/手当込

※総理大臣、国会議員の給料
総理大臣 2727万円
国会議員 1842万円
【予算規模の比較】
海上保安庁 2177億5345万7000円
警察庁 3420億8472万9000円
環境省 3459億4527万4000円
NHK 7547億7700万円

110:デフォルトの名無しさん
19/09/30 15:14:36.94 5Ydl8i+L0.net
AIで脱税、いや節税してるのかな?
【企業】純利益1兆円のソフトバンク「法人税ゼロ」を許していいのか
スレリンク(bizplus板)

111:デフォルトの名無しさん
19/09/30 15:17:21.06 RcGMqML5M.net
blocksはオワコンかしら?

112:デフォルトの名無しさん
19/09/30 20:55:03.50 m19D9tLr0.net
プロト書かせても汚過ぎたらリファクタリングはできんし、
リファクタリングする方もある程度の理屈はわかってないとできん。
tensorflow なんかとくにモジュールがぐっちゃになってて、
結局両方わかるやつがいないとどうにもならんということになる。

113:デフォルトの名無しさん
19/09/30 21:02:45.96 lchn4+U/M.net
個人的に前処理用の関数や、モデルおよびパラメーター調整用の関数
はコード汚くても全然いい

114:デフォルトの名無しさん
19/10/01 01:45:26.93 iqt4HZRA0.net
>AIで初のカラー化 
何年も前にモノクロ映画のカラー化ってやったじゃん
別にって感じだよ

115:デフォルトの名無しさん
19/10/01 03:55:33.18 yPgD2oOI0.net
全くの知識ゼロは何から勉強すればいいの

116:デフォルトの名無しさん
19/10/01 08:47:56.00 +UPFCPY9M.net
マジレスするとExcelの使い方から。
データ整理でよく使うんだよ。

117:デフォルトの名無しさん
19/10/01 11:08:22.62 gKinUVIwM.net
クレクレ君かよ

118:デフォルトの名無しさん
19/10/01 12:40:44.98 yogeS95od.net
>>113
伊勢湾台風の映像が初のカラー化ってことでしょ。

119:デフォルトの名無しさん
19/10/01 12:41:12.18 yogeS95od.net
>>114
ゼロから作るディープラーニング

120:デフォルトの名無しさん
19/10/01 16:32:31.25 IzwYx3El0.net
>>114
猿でも分かる真相学習

121:デフォルトの名無しさん
19/10/02 10:11:48.00 hWitUTMNd.net
>>119
そんな書籍あるの?

122:デフォルトの名無しさん
19/10/03 06:44:24.24 mNCtBXnn0.net
>>120
サルでもわかるディープラーニングでしょ。理論やプログラミングに触れないやつだよ

123:デフォルトの名無しさん
19/10/03 08:13:41.26 d+Cb0QN6a.net
機械学習概論~ディープラーニングGAN、本格的に学べる全20時間の大学講義が無償公開
URLリンク(www.atmarkit.co.jp)

124:デフォルトの名無しさん
19/10/04 19:27:29.82 HvucvIji0.net
>>122
ありがとう
わかりやすくおもしろい

125:デフォルトの名無しさん
19/10/05 10:12:00.74 g+cVNt8G0.net
画像を入力してキャッサバとマンジョカの違いを見分けられるかな

126:デフォルトの名無しさん
19/10/06 13:50:13.78 R4FTujg8r.net
>>124
キャッサバは芋でマンジュオカは粉
でいいのかな

127:デフォルトの名無しさん
19/10/06 14:04:07.98 3Bwj9Rk40.net
猫の種類を識別できてるからねえ

128:デフォルトの名無しさん
19/10/06 16:39:42.63 O2SqL9Wwa.net
砂糖と塩は?

129:デフォルトの名無しさん
19/10/06 16:45:43.54 xEniyG0f0.net
画像の分類に関しては人間の精度を超えたことになってるから人間ができるものはだいたい識別できるでしょ

130:デフォルトの名無しさん
19/10/06 17:14:50.01 pvG0vkV+F.net
片栗粉白玉粉8:2のとマンジョカとキャッサバとタピオカを全部一緒だと判定するかな

131:デフォルトの名無しさん
19/10/06 17:23:27.35 vW1W4Flv0.net
答え タピオカ

132:デフォルトの名無しさん
19/10/06 18:02:00.68 WtwvCzV0a.net
人間が見て判別できないぐらい酷似した見た目の画像を用意されても判別は難しいだろう
でも人間にもできないんだから仕方がない

133:デフォルトの名無しさん
19/10/06 18:37:58.28 7syR3WRm0.net
紫外線や赤外線、テラヘルツ波など人間の目が捉えていない領域を取得したデータで学習したら区別できるかもね

134:デフォルトの名無しさん
19/10/07 01:53:57.56 i7jiIDbz0.net
URLリンク(youtu.be)

135:デフォルトの名無しさん
19/10/07 01:55:32.75 i7jiIDbz0.net
>>132
そんな対象に複素ネットワークをうまく利用したいですね

136:デフォルトの名無しさん
19/10/07 07:22:36.56 R1WvvUd4r.net
>>132
このアイデアがあったのか。ありがとう

137:デフォルトの名無しさん
19/10/07 07:45:45.80 rds9MmBYa.net
>>132
ただの測定やん!
にならないくらい難しいものを判定しないとな

138:デフォルトの名無しさん
19/10/07 12:51:32.67 wQEZJZvJM.net
でも美人とブスは判別できないだろ?
教えてやらないと。
俺は教わらなくても、立つほうが美人だとわかるからな。
AIは、立つ部分がないから

139:デフォルトの名無しさん
19/10/07 13:15:17.48 R68jeLYK0.net
親子判別機作りたいんだけどどこかに教師データ無いかな?

140:デフォルトの名無しさん
19/10/07 13:39:13.16 nnDn0jE7F.net
色盲とか弱視のひとは
色を見分けられないんじゃなくて
特定の色には激しく反応出来るので
普通の人では観えないものが観えたりする

141:デフォルトの名無しさん
19/10/07 13:59:50.76 JTQO9o2aa.net
>>137
ネット上にたくさん画像がある方が美人なのかもしれない

142:デフォルトの名無しさん
19/10/07 14:05:01.74 jwAP9iy30.net
地味にブスの画像を集めるのって苦難の道だよな
ネット上にあるのは奇跡の一枚物ばかりだし

143:デフォルトの名無しさん
19/10/07 14:47:53.66 1thZo56ha.net
美醜判定の研究は心理物理実験で人が行って分けた画像に対して特徴を求めるのが一般的

144:デフォルトの名無しさん
19/10/07 15:39:41.65 i7jiIDbz0.net
URLリンク(youtu.be)

145:デフォルトの名無しさん
19/10/07 18:59:23.04 fNQWuTFbM.net
シンメトリー具合が客観的かと思われるけど
美醜は基準が変わるだろ

146:デフォルトの名無しさん
19/10/07 19:38:18.06 uR6CZd4Z0.net
顔データならリクルートとかめちゃくちゃ持ってそう

147:デフォルトの名無しさん
19/10/07 19:58:20.16 R68jeLYK0.net
リクルートは死ぬべき企業の一つ

148:デフォルトの名無しさん
19/10/07 20:53:26.67 rCvXE9Ys0.net
標準的な顔が美男美女だという研究結果が昔あったなあ

149:
19/10/07 20:58:00.90 T0peqJ1N0.net
>>147
標準的、というか個体差を集めてその中間を取ったという意味の平均顔でしたね

150:デフォルトの名無しさん
19/10/07 21:37:55.32 mqLxFODTM.net
Deeplooksとかあったな

151:デフォルトの名無しさん
19/10/07 22:27:15.98 XIT3E9Qaa.net
>>147
データの次元が増える程、外殻部の密度が高くなり中心部は疎になる
次元の呪いの現れ

152:デフォルトの名無しさん
19/10/07 22:54:06.69 WyRvg0cv0.net
>>150
その解釈があってるかどうか知らんけど面白いね

153:
19/10/07 23:20:52.55 T0peqJ1N0.net
>>150
ユークリッドノルムは高次元では無意味、という経験ならあります…

154:デフォルトの名無しさん
19/10/08 01:24:12.36 yvLQ2KO90.net
だからさ、立つ写真と縮んでしまう写真を
集めて学習させるのさ。

155:デフォルトの名無しさん
19/10/08 13:08:31.09 pQwzHIwwM.net
ヒューズの現象と次元の呪い


156:って違うの?



157:デフォルトの名無しさん
19/10/08 13:38:33.16 EX96gh2V0.net
黄金比が審美医療で使われてるから顔のパーツの比を計測すれば美醜の判別は数値的にできると思う
あとはエントロピーの低い顔は美人なはず
ダウン症などの奇形顔はエントロピー高いから

158:デフォルトの名無しさん
19/10/08 17:22:33.79 73qw8B0jr.net
>>155
何の、何に対するエントロピー?

159:デフォルトの名無しさん
19/10/08 21:40:37.04 kGAGzuS00.net
平均的な顔がいいっていうデマね。
実際は美人バッカ集めて平均取った方が圧倒的に良かったとかそういう結果。

160:デフォルトの名無しさん
19/10/09 04:18:18.15 +iZUlLJa0.net
そりゃーブサが平均に寄れば綺麗に見えるわ

161:デフォルトの名無しさん
19/10/09 12:43:17.12 DoX5+3oi0.net
機械学習やるなら、Cかjavaかpythonだよなあ
データサイエンティストおよびクラウド系のデータエンジニアならpython
大規模開発およびローカル系のデータエンジニアならjava
ローカル系および組み込みならC
javaの領域は今後すこしずつ縮小していく見通しだから、
新規で入るならpythonかCがオススメ

162:デフォルトの名無しさん
19/10/09 12:57:38.63 8Gadabtv0.net
>>159
出来合いのライブラリを使う話?
スクラッチでつくる暇人はいないか

163:デフォルトの名無しさん
19/10/09 16:41:52.12 IFGahd8r0.net
Geforce一択?

164:デフォルトの名無しさん
19/10/09 18:03:33.95 joEVXQiz0.net
巷で売れてるkaggle本買いました
これから勉強します

165:デフォルトの名無しさん
19/10/09 19:06:25.13 /Xo+Y8M3M.net
統計学の勉強を本気で始めたら
恐ろしく難しいということがわかってきた
どうしたらいい?

166:デフォルトの名無しさん
19/10/09 19:07:25.32 qJaHnW7l0.net
参考書を変える

167:デフォルトの名無しさん
19/10/09 19:11:04.90 fonAqmctr.net
>>161
amdも意外と使えるらしいけど、情報ないし疲れるよ。動かないとき常にうたがっちやうしね

168:デフォルトの名無しさん
19/10/09 19:19:32.23 4X2jyJQLM.net
古典統計学とベイズ統計学をちゃんと学びたい

169:
19/10/09 20:05:21.59 K/FCWkI00.net
>>166
統計論と確率論は違うものですか?

170:デフォルトの名無しさん
19/10/09 20:14:54.29 fTI0icewa.net
統計学の中で使われる道具の1つが確率論

171:デフォルトの名無しさん
19/10/09 20:23:04.27 ZvOECUeE0.net
>>161
まずはawsかgcpでやってみろ。
はじめからグラボなんか購入しても必ず後悔する。

172:デフォルトの名無しさん
19/10/09 21:11:35.20 MK+5GX/v0.net
古典統計とは集合論と位相空間論から測度論に発展して確率論との関係性のあたり?

173:デフォルトの名無しさん
19/10/09 22:40:50.59 +iZUlLJa0.net
わかんない

174:デフォルトの名無しさん
19/10/09 22:44:05.44 zMnGtdTv0.net
アホ

175:デフォルトの名無しさん
19/10/09 22:58:19.23 Qjd49VQKa.net
現実問題として、測度論まで必要になることはあるかなあ?
まずは連続量ではなくて離散量での理解が先かと思われる
それならそんなに難しくないでしょ

176:デフォルトの名無しさん
19/10/10 00:11:01.13 O5ET7Lyz0.net
規定関数の概念と関数のノルムさえ理解していればいらん。

177:デフォルトの名無しさん
19/10/10 00:11:57.40 O5ET7Lyz0.net
逆にそれがわかってない研究者はくそ

178:デフォルトの名無しさん
19/10/10 00:14:30.11 O5ET7Lyz0.net
それ=『規定関数の概念と関数のノルム』な。

179:デフォルトの名無しさん
19/10/10 00:17:00.40 O5ET7Lyz0.net
わら。×規定
自分がわかってませんでした。

180:デフォルトの名無しさん
19/10/10 02:31:31.78 eF+ihzDEM.net
グレブナー基底は重要だな

181:デフォルトの名無しさん
2019/10/


182:10(木) 06:52:08.55 ID:H/x/U9NKM.net



183:デフォルトの名無しさん
19/10/10 06:53:03.85 H/x/U9NKM.net
>>169
何故そこでcolabが出さない

184:デフォルトの名無しさん
19/10/10 10:19:46.41 xGOoNgUAa.net
統計学を理解できていないのに理解したと思い込んだ人はこういう頓珍漢なことを平気で言い出す
@Inetgate:
@usukutilife @u874072e 一般的な統計処理において、標本数が30を超える場合には正規分布を仮定できますが、
えん さんが調べた結果だと全然正規分布になってないので、食べログの数値操作疑惑、真っ黒じゃねーかと。
URLリンク(twitter.com)
(deleted an unsolicited ad)

185:デフォルトの名無しさん
19/10/10 10:23:07.08 H/x/U9NKM.net
母集団の分布が正規分布に従うと"仮定"すれば、間違ってない意見だな
仮定すれば

186:デフォルトの名無しさん
19/10/10 10:25:56.74 H/x/U9NKM.net
って、もとのグラフをみたらbin数がやばかった・・・

187:デフォルトの名無しさん
19/10/10 14:07:25.58 9SEfnsqfa.net
標本抽出の仕方がランダムサンプリングで
母集団が正規分布の時だけに成り立つことを言っているな

188:デフォルトの名無しさん
19/10/10 18:30:07.85 7gKn5Xz20.net
競馬あてて見たいんだけど特徴量として前5走を使いたいんだけどどんな実装にすればいいのかな
どなたかヒントいただけないでしょうか

189:デフォルトの名無しさん
19/10/10 18:50:01.66 i+8+28k+F.net
前走の結果より血統でやった方が良いって先輩は言ってた

190:デフォルトの名無しさん
19/10/10 18:56:00.12 cL0M7hVK0.net
入力で与えるのが出馬一覧とかで順番の意味を無くしたいならPointNetとかの構造を真似したりすればいいんじゃない

191:デフォルトの名無しさん
19/10/10 21:27:00.23 aZnaY5Is0.net
>>180
あれ、逆にわかりずらいと思うんだが。
環境設定がすげーわかりずれーわ。

192:デフォルトの名無しさん
19/10/10 23:11:06.33 bdrwblpoa.net
>>185
ググればソースコード付きでいろいろ出てくるが

193:デフォルトの名無しさん
19/10/11 08:18:38.76 mCGV3tUv0.net
>>184
中心極限定理の話しで
標本数を30にした平均値の分布は
元の分布に関係なく正規分布とみなせるって事だよな
食べログの分布もその分布から標本を30取り出して
平均値を求める操作を10000回繰り返して
平均値の分布を描くと正規分布に近くなるはず

194:デフォルトの名無しさん
19/10/11 11:53:47.65 BrwAZKhG0.net
>>186
血統も絡めてるよていだけど、前走も大事かなと思いまして。
>>187
前走ではAの馬に負けてるから今回も厳しそう、とかの特徴を抽出したいなと思いまして、順序はそれなりに大事なのかなと考えています。
>>189
巷にあるコードよりも、より順序を重視する方法が無いものかなと。
数値やカテゴリーなどの特徴ではなく、多次元特徴を一つの特徴量として扱うことができないかなという感じです。

195:デフォルトの名無しさん
19/10/11 11:58:01.09 hkXt1GtmF.net
重量ハンデは?

196:デフォルトの名無しさん
19/10/11 14:41:23.78 uWNk0GcMM.net
アルバイトでデータ解析やってる人間の意見としては、
とにかく役立ちそうな特徴量を選択せずにぶち込めるだけぶち込んで、
一度xgbかcgbを回してみればいいんじゃない
そうすれば重要な特徴量が何か抽出できるでしょ
話はそれからよ
勝ち馬をよく当てる人が何を大切にしているか調べることからはじめるべき

197:
19/10/12 10:11:52 UGc1lgsI0.net
馬を株の銘柄に置き換えてリターンとリスク(分散)を元に
共分散使って有効フロンティアの曲線を引いて
無差別曲線と接する部分の比を見てパーセンテージの高い順に馬を買うってのは?

198:デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
19/10/13 00:20:47 kaSZg9r20.net
>>184
すでに指摘されているが、母集団の分布は正規分布である必要はない

>>190
中心極限定理の話(前半の話)はそうだけども、後半の部分は何が言いたいのかよく分からない

食べログの評点は一人当たり整数値の1~5を付けられる(ある店舗における点数分布をAとする)
各店舗は添付ごとにN人の評価の平均を平均点として算出する(各店舗の平均点分布をBとし、これが話題となっている分布)

Aの採点を行うのが一般人であると仮定すると、各店舗は同一の母集団確率分布に従うものと仮定でき、各店舗の確率変数X1, X2, …, XNは同一の母集団確率分布からのランダムサンプルと考えられる
大数の法則により、標本平均(分布Bのこと)は母集団の平均に近づき正規分布になる

標本数30以上というのはNが30以上ということで、この部分は残念ながら自明ではない
ある焼肉屋の評価は67件から構成されているが、別の焼肉屋は2件となっている

つまり最大限「食べログ」を擁護するのであれば、標本数が30以上ではないため前提条件が間違っている、ということだろうか

199:デフォルトの名無しさん
19/10/13 00:57:27.47 0ePwtCDKa.net
各店の平均化する前の採点が同一母集団に従うという仮定に無理がありすぎる
例えばラーメン屋とスイーツ店の採点者が同じ傾向の採点するなんて仮定は不自然

200:デフォルトの名無しさん
19/10/13 00:59:42.54 kaSZg9r20.net
>>196
すまん、焼肉屋しか見てなかった
実にその通り

201:デフォルトの名無しさん
19/10/13 06:54:46.01 ObLeezZqa.net
>>159
Juliaでしょう。

202:デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.128.168])
19/10/13 06:56:55 ObLeezZqa.net
>>160
Flux

203:デフォルトの名無しさん
19/10/13 07:21:13.99 Fxu1r5BT0.net
>>195
大数の法則は標本数を増やすと標本平均が母平均に近づくということ
中心極限定理は平均値の分布に関する定理
食べログの評価の数が30になった時点で平均値を計算して
一度リセットするのを繰り返す
その平均値の分布は正規分布に近づく
今の評価の分布がその店に行く人の評価の分布を表している
のであれば今の評価分布から30標本を取って平均値を求める
操作を復元抽出で繰り返しても同じような結果になるだろう

204:デフォルトの名無しさん
19/10/13 07:23:54.12 Fxu1r5BT0.net
ある店の評価分布は標本数が多くなっても正規分布になるとは言えない
分散が広くなるのはその店のサービスや品質が安定していない事が原因になりうる
その店の特徴が分布に反映される
同様に店を評価する側の特徴も反映されるだろう

205:デフォルトの名無しさん
19/10/13 07:58:04.98 S6cUkNQoM.net
深層学習の凄いことのひとつは特徴量を人が設計する必要がない、と本とかに書いてありますが、どう理解すればいいのか分からず教えてください!
ここでいう深層学習とはニューラルネットのことですか?(線形回帰やSVMと違って説明変数を人間が決めてないから? )

206:デフォルトの名無しさん
19/10/13 08:07:52.14 A69S9ntC0.net
レビューを投稿する行動を取る時点で母集団にサンプルバイアス

207:デフォルトの名無しさん
19/10/13 08:55:43.76 kaSZg9r20.net
>>201
言ってることの一つ一つは正しいことは理解できるんだけど、何が言いたいのか理解できないんだ
食べログが評価を操作しているかどうか、は今説明してくれた事を駆使すれば判別できるんだろうか?
あるいは、Twitterの書き込みのおかしさ、は今説明してくれた事を駆使すれば、ココがおかしいと指摘されるんだろうか

208:
19/10/13 09:26:19 vNAU+AUMa.net
>>201
各店舗の分散は各店舗の分布には影響しても全店舗の平均値の分布には影響しないでしょ

209:デフォルトの名無しさん
19/10/13 10:08:21.52 uKg8mtfTa.net
中心極限定理はあくまで「同一の母集団から得た独立な確率変数であれば、十分な数の平均値を集めたものの分布が正規分布に近似できる」というもの
全店舗の採点者が同一の基準に従う採点を行うという前提が成り立たなければ成立しない定理

210:
19/10/13 10:56:42 kaSZg9r20.net
>>206
個々の採点者が同じ基準でないのに中心極限定理を持ち出しているのがおかしいと主張しているわけか、なるほど

同じ基準ではないにしろ、少し幅をつけてみよう
個々の採点者はある得点を中心に正規分布で配点する、もしくは一様分布で採点する、あるいは同じ点数しかつけないものとする

正規分布で採点する者は、正規分布の合成が正規分布になることから、平均値の分布もまた正規分布
一様分布で採点する者は、分布関数の底上げにはなるが平均値には影響を与えない
同じ点数しかつけない者も、平均値そのものをずらす事にはなるが正規分布の形は歪めない

つまるところ上記の前提が成り立つ場合には、平均値の分布は厳密に正規分布になる
毎回1点で、たまに4点をつけるような人が大量にいないと、この評点と言う平均値分布を正規分布から歪めるのは難しいように思う

211:デフォルトの名無しさん
19/10/13 12:13:54.05 pJwii1Hg0.net
>>202
多分、画像データを深層学習(ニューラルネット)で学習することを念頭に置いてる話だろう。
もっと広い文脈で使えるときもあるがたいていは画像でうまくいった話を誇張して言ってることが多い。

212:デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
19/10/13 12:41:16 Fxu1r5BT0.net
>>205
平均値についても同様の事が言える
仮に評価する側が同じだとしても
店舗の特徴によって分布の形は変わる
分布の形を見る事で店舗の特徴を把握してその店を利用するかどうかを事前に利用者が判断できるようにするサービス
が本来目標としたものかもしれない

分布を意図的に操作する事で金儲けに利用しようとした疑いが上がっているという問題だと思う

213:デフォルトの名無しさん
19/10/13 12:44:15.71 Fxu1r5BT0.net
>>207
評価尺度はただの順序尺度で間隔尺度ではないだろう

214:デフォルトの名無しさん
19/10/13 12:53:02.60 sm0sVhGqM.net
>>159
大規模ですけどC、C++、アセンブラです。
現在、全部で数百万ステップです

215:デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
19/10/13 13:19:59 kaSZg9r20.net
いかん、ラーメン屋の得点とスイーツ屋の得点を合わせて平均するとか謎なことをしていた
改めてデータに立ち戻ろう

3.6にピークがあるのは、とりあえず4に入れておこう層が2/3くらいいて、残りの1/3がとりあえず3に入れておこうということ4*2/3+3*1/3=11/3=3.67で説明できそうだ
逆に言えば、ここにピークが立つのは「とりあえず3か4に入れとけ層」が一定数いるということで、これは直感と合うのであまり怪しくはなさそうだ

次に3.8にギャップがある理由を考えてみる
元のデータを見た所、2つのガウス関数の和で表現できそうだ
一つは平均3.6で3σが0.3にあるピーク、もう一つは平均3.75で3σが0.05のピーク
こう仮定すると3.8にギャップができているのは、この2つ目のガウス関数の裾野に原因がある

この2つのガウス関数が意味するところは
ラーメン屋に通う「オヤジ層」とスイーツ屋に行く「レディー層」の違いを表すのか、
あるいは「関東に住んでいる層」と「関西に住んでいる層」を地域差表すのか、
はたまた疑惑の「操作されていない層」と「操作されている層」の人為操作の違いを表すのか

ラーメン屋だけの分布、特定地域だけの分布は作れそうだが、疑惑の操作に辿り着くのは難しそうだ

216:デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
19/10/13 13:25:37 Fxu1r5BT0.net
操作がなかったという帰無仮説を棄却できるかどうかじゃね?

217:デフォルトの名無しさん
19/10/13 13:39:33.29 kaSZg9r20.net
>>202
まぁ>>208でも言っているけど画像をCNNで処理することを汎用化して言ってる気はするなぁ
少し古いけど
URLリンク(deepage.net)
にある
CNNはこういった特徴を抽出するための検出器であるフィルタのパラメータを自動で学習していく
ということなんだろう
RNNでも同じ話はあるので画像だけってことはないけど、なんでもかんでも特徴量を自動抽出ってことではないよ

218:デフォルトの名無しさん
19/10/13 13:45:19.51 48i2xCpca.net
三層のニューラルネットワークでは xor を分離できないという問題は
さらに多層になったことで何で解消されたの?

219:デフォルトの名無しさん
19/10/13 14:17:08.81 25TC8kRG0.net
3.8を超えた評価を3.6に落としてるって仮定したらほぼ同じヒストグラムになる
URLリンク(i.imgur.com)
平均3.8標準偏差0.5で正規分布を生成して、3.8を超えた評価値を90%の確率で平均3.6標準偏差0.01の正規分布で取り直す操作をした(N=1000)
ただ同じだからと言って>>212のように元データの特徴量ごとの性質の違いを反映しているだけかもしれない

220:デフォルトの名無しさん
19/10/13 14:21:02.62 qY0pTgmia.net
>>213
操作がないという帰無仮説について仮説検定の方法で検証するには操作がない場合の点数の理想的な分布を知っていなければならない
その理想分布に基づいて実際の分布がどの程度ずれているのかを確認するのが仮説検定なのだから
しかしそんなもの知り得ないので検定のしようがない

221:デフォルトの名無しさん
19/10/13 14:23:09.86 llG9wcVha.net
>>215
出来ないのは2層
3層にすると一度高次元空間に写してからシンプルな境界で分離出来る

222:デフォルトの名無しさん
19/10/13 14:45:50.67 TJDkUn5hM.net
>>208
>>214
ありがとうございます。ほぼCNNのことと思って良さそうなんですね
CNNが凄い!っことを深層学習という言葉に拡大して凄い!って言ってるイメージですね

223:
19/10/13 15:01:05 kaSZg9r20.net
>> 215

細かいけど、まず層の数え方から
入力層は層に数えないので、ANDとORは1層で、XORは2層で表現できる

次にXORはなぜ2層で表現可能か
単純に、AND(正確にはNAND)とORの出力をANDで受ければXORが作れるから

ググったら以下のような図を見つけた
URLリンク(www.infiniteloop.co.jp)

>>218の回答はエレガントだけども、少し説明を加えると
(0, 0) → 0
(0, 1) → 1
(1, 0) → 1
(1, 1) → 0
を分ける直線は2次元平面内では書けないけど、3次元に拡張して
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
を分ける平面はa,b,c,dを適当に決めれば作れる(例えばa=d=0, b=c=1としてz=0.5の平面)

a,b,c,dを適当に決めて分離できるってそんなんアリかよ!?って最初は思うかもしれないけど
そんな純粋な気持ちは最初だけで、どうせa, b, c, dは見ないし分離できたら何でもOKになる

224:デフォルトの名無しさん
19/10/13 18:39:55.88 48i2xCpca.net
二層あれば大抵の関数は模倣できるのに
何でもっと多層が必要なの?

225:デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
19/10/13 18:43:34 Fxu1r5BT0.net
>>217
諦めたらそこで試合終了ですよ
目の前にヒントが転がっていても見えなくなる

226:デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
19/10/13 18:44:48 Fxu1r5BT0.net
>>218
線型結合してる層を増やすとなぜ高次元になるのかを直感的に判るように説明して

227:デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
19/10/13 19:30:49 llG9wcVha.net
>>221
層を増やす方が効率が高い

ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない

228:デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
19/10/13 19:32:44 llG9wcVha.net
>>223
一旦中間層のニューロン数だけの次元を持つ空間を経由できるから

229:デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
19/10/13 20:04:55 Fxu1r5BT0.net
>>225
線型結合して関数を通して
また線型結合して関数を通して
の繰り返しでなぜ高次元になるの?

関数によって非線形になるなら判るけど

230:デフォルトの名無しさん
19/10/13 20:33:11.99 llG9wcVha.net
>>226
非線形な活性化関数噛ませるでしょ普通
自然に高次元になるんじゃなくてそうなる様にしてるんだよ、ニューロン数は自由に決められるから

231:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
19/10/13 20:44:50 /3kPh57iM.net
ディープキスのほうがいい!
舌をからませるの
立つよね!

232:
19/10/13 20:48:48 P1vmVh210.net
>ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない
こんなことを示した論文などない。
よくこんなことをさも証明されたことの如く言えるな。

233:
19/10/13 21:28:26 kaSZg9r20.net
>>221
本質的な質問が来た
これについては俺も明確な答えは持ってないなぁ

直感的には、多層の方が中間層に保持できるパラメータ数が多く
そこには活性化関数を通した非線形の効果も含まれているので
ほどほどにノイズが消されていて抽象的な状態を保持できるから

と思うんだが、本当かどうかは分からない

234:デフォルトの名無しさん
19/10/13 21:37:08.64 llG9wcVha.net
>>229
Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014.
NIPSの論文だが
何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか

235:デフォルトの名無しさん
19/10/13 21:45:22.38 kaSZg9r20.net
>>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である

236:デフォルトの名無しさん
19/10/13 21:46:31.38 kaSZg9r20.net
>>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である

237:
19/10/13 22:05:13 48i2xCpca.net
五、六層でいいのかと思いきや
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?

238:デフォルトの名無しさん
19/10/13 22:18:18.69 /3kPh57iM.net
>>221
〉二層あれば大抵の関数は模倣できる
その『大抵』とは、どの程度�


239:ネんですか? それが示されてないのですから まったく意味をなさないですよね? >>230 その意味をなさない書き込みに、 本質的とかって、 レベル低すぎですね。



240:デフォルトの名無しさん
19/10/13 22:20:28.84 mSmeGM2p0.net
>>235
完全な関数の導入じゃなくて疑似的な関数が解ればいいから

241:
19/10/13 22:35:14 kaSZg9r20.net
>>235
あんたは性格悪いなぁ・・・
ニューラルネットワークの普遍性についての質問が本質的でないなら何が本質的なんだ?
知ってて聞いてるなら教えてやれよ

242:デフォルトの名無しさん
19/10/14 00:26:24.00 Xj3JYQcoa.net
専門的な知識はほとんどなく説明されても理解できる頭も持ってないけどマウントとりたいからとにかく突っかかる癖のある人が多すぎる

243:
19/10/14 00:50:17 yAy44Gfva.net
初等関数?
特殊関数?

244:デフォルトの名無しさん
19/10/14 07:16:20.36 KQ95R8h/0.net
>>232
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
変数増加→高次元
x^2など→非線形
とか?

245:デフォルトの名無しさん
19/10/14 12:29:28.91 utYACZDud.net
前に『ゼロから作るディープラーニング』買ったけど
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。

246:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
19/10/14 12:54:25 syyLl6c1M.net
>>241
ならば『excelでわかるディープラーニング超入門』がオススメ
続編もある

247:デフォルトの名無しさん
19/10/14 13:19:28.08 aq/jCORe0.net
>>241
あの本は線型代数と微積分の知識は必須だと思う

248:デフォルトの名無しさん
19/10/14 13:53:05.51 pO8Bz3ni0.net
機械学習に数学はいらないよ

249:デフォルトの名無しさん
19/10/14 14:01:22.69 htBbaZR2r.net
機械学習に数学はいらないよおじさん「機械学習に数学はいらないよ」

250:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
19/10/14 14:23:44 syyLl6c1M.net
ソフト使うだけなら数学いらんわね

251:
19/10/14 14:26:05 daX/fZMnF.net
適当にデータ放り込んで適当な手法を選択してなんとなく精度が良さそうなのを選ぶだけで成立する仕事なら数学など不要
普通の企業や研究室ではそんなものに金なんて出してくれないがな

252:デフォルトの名無しさん
19/10/14 14:31:10.41 JdA0BOgta.net
>>247
そういう仕事は既にAutoMLに取られつつあるね

253:デフォルトの名無しさん
19/10/14 14:31:49.76 XFqMr8NbM.net
というかこの世界ももう土方がいるのか

254:デフォルトの名無しさん
19/10/14 14:40:16.73 VuPQ6UMJ0.net
>>240
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので
言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している
もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては
(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)
となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる
(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り
それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない

255:デフォルトの名無しさん
19/10/14 14:42:39.82 syyLl6c1M.net
最初から土方しかいないから。
今もほとんど土方。
できる人は研究者か大学教員になってる。

256:デフォルトの名無しさん
19/10/14 14:47:46.87 daX/fZMnF.net
この分野はむしろ大学より民間の方がやりやすいから本来なら博士行くような人も修士までにしてとっとと成果出せる環境に移ろうとする人が多くなってきた印象

257:デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
19/10/14 15:08:32 utYACZDud.net
>>242
ありがとう。調べてみます。

258:
19/10/14 15:10:40 4WTqwCCG0.net
今ならまだ簡単にデータエンジニア目指せるけど、
早い者勝ちなのかな
すぐベテランにしか仕事がこなくなるよね

259:
19/10/14 15:13:07 4WTqwCCG0.net
>>241
あの本のレベルの数学が分からないと厳しい
数学が分からないと言いながらDSやってる人たちでも理解できる程度の内容

260:デフォルトの名無しさん
19/10/14 15:22:52.88 drx0D0Vb0.net
博士持ち or ベテラン < 精度の高い競馬予測モデル開発者
データを集めてくるところが始まるから、Kaggleより難易度高い

261:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
19/10/14 16:12:47 syyLl6c1M.net
博士号持ちといってもピンキリ

天才的な人もいるし、
とんでもない馬鹿もいる。

2、3枚の感想文のようなレポートで
博士号取れる院も
日本にある。
そこは博士号とりたい中国人ばかりが
留学生としてやってくる。
日本の恥!

262:デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
19/10/14 17:26:03 JdA0BOgta.net
>>257
例えばどこの院

263:デフォルトの名無しさん
19/10/14 18:51:16.60 /yNf4ic50.net
>>255
DSって何ですか?

264:デフォルトの名無しさん (エムゾネ FF43-1wBF [49.106.193.20])
19/10/14 18:55:58 ljIrzJ7BF.net
Deta
Saiensu

265:
19/10/14 19:22:19 lAL0R9ntM.net
サイエンティストな

266:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
19/10/14 20:18:41 DQ9Yh+dwM.net
>>258
知り合いが現在
そこの教員やってるので
大学名は書かないけど
博士論文は国会図書館に
全て収蔵されるので
みればすぐわかる。

ヒントとしては、
なんと中国語でレポート2枚ぐらいの
博士論文がある!
日本の恥!
抹殺したい!

267:デフォルトの名無しさん (ワッチョイ ab82-IE9o [113.20.238.175])
19/10/14 21:29:45 /yNf4ic50.net
ディープラーニング発明した人に
ノーベル賞やるべきだと思う。

268:
19/10/14 21:34:26 lAL0R9ntM.net
そんな人おらん
ローゼン・ブラッドからはじまって(もっと前から遡れる?
カナダ人のチームがドロップアウトを考えた時点で弾けたんだ

269:デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237])
19/10/14 21:35:46 lAL0R9ntM.net
メダル獲れなかったkaggle用のnoteをgithubに載せてしまった。はずかしー
これで就活だあ~。おーッ!

270:デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
19/10/14 23:09:10 JdA0BOgta.net
>>263
チューリング賞はとった

271:デフォルトの名無しさん
19/10/14 23:23:40.59 Dfy8oKXF0.net
チューリング賞は賞自体よりも取ってる人のがたいてい有名っていう。。

272:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
19/10/15 02:28:14 KLW/euVzM.net
甘利さんか?

273:デフォルトの名無しさん
19/10/15 06:10:05.34 I8iXAPqNM.net
競馬予想みたいにデータ収集含めて特定の領域に特化したモデル作れる人だけが勝つようになるかね、、、全く潰しのきかない職業になりそうですね。

274:デフォルトの名無しさん
19/10/15 06:37:37.44 7FHw0Vhl0.net
ゲームの自動生成やりたいから勉強してるけどそういう職業目指してない

275:デフォルトの名無しさん (アウアウカー Sa51-KA+R [182.251.40.158])
19/10/15 07:35:51 5lPGjOaaa.net
>>269
田倉寛史は失業するな。

276:デフォルトの名無しさん (ワントンキン MMa3-Hjv8 [153.154.213.244])
19/10/15 09:11:20 CGH1vHQcM.net
競馬って予想して勝てるゲームなの?

277:デフォルトの名無しさん
19/10/15 09:52:34.15 BuCrjnSD0.net
kerasしかわかんね

278:デフォルトの名無しさん
19/10/15 10:04:58.88 ST5HgM4Ya.net
統計学で競馬で食ってる人いる見たいよ
10年くらい前に聞いた話しだけど

279:デフォルトの名無しさん
19/10/15 10:08:19.91 CpmUKzMvM.net
統計学やらなくてもきちんと研究すれば勝てるらしいけど
才能の使い方としては空しいな

280:デフォルトの名無しさん
19/10/15 10:31:23.58 YjTx8zIDa.net
佐々木洋佑の予想。

281:
19/10/15 10:36:34 tidBIruUd.net
控除率25%の競馬で勝とうとするならもっと楽に勝てるとこに注力した方がましやろ

282:デフォルトの名無しさん
19/10/15 10:52:22.27 AlK2cYWx0.net
>>277
FXとか?

283:デフォルトの名無しさん
19/10/15 11:24:20.27 CpmUKzMvM.net
FXより競馬の方が百倍楽でしょ
勝つために必要なデータを取れればだけど

284:
19/10/15 12:32:17 2+ahF6drr.net
>>221
層が多いほうが表現力が高い
教師データ数に対して異常に多いパラメータは、なんで性能が伸びるかよく分からない。

パラメータの中にはあたりくじがあるのかもという、宝くじ仮設なるものがあるけれどどうなのでしょう?

285:デフォルトの名無しさん
19/10/15 13:03:36.76 uSQ3MvZ60.net
テーブルデータの解析って、nnをつかっても2層や3層だから、ぜんぜんdeepじゃないよね
営業の人はそれでもディープラーニングっていうんだろうなあ

286:デフォルトの名無しさん
19/10/15 13:13:25.51 KLW/euVzM.net
テーブルデータってなーに?

287:デフォルトの名無しさん
19/10/15 16:36:14.39 OfiTiE/Hr.net
>>221
深くする程損失関数が凸関数に近くなり最適解に辿り着きやすくなるかも知れないことが最近の理論研究で判明してきている

288:デフォルトの名無しさん
19/10/15 23:48:10.86 1HOx40aj0.net
層を増やすと普通にバックプロパゲーションだけでは上手く学習できないんじゃね
どうするんだっけ

289:デフォルトの名無しさん
19/10/16 07:22:30.93 399vjxSUM.net
甘利さんに聞く

290:デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
19/10/16 12:21:07 KK2SmrYwd.net
ドロップアウトって
実際に人間の脳でも行われているのでしょうか?

291:
19/10/16 12:33:04 ur38NdBia.net
インドのリキシャの話は知ってるか?
人間は一度認識すれば多少形は違ってもリキシャだとわかる
おそらく人間は逆で、学習したデータを柔軟に他の認識の補助とすることができる

292:
19/10/16 12:49:56 Bk7OFSs90.net
シミュラクラ現象のことか

293:
19/10/16 12:55:37 /VU6ev+W0.net
kerasで作ったモデルをtfjsで読み込んだんだが
訓練してたときのinputがnp.arrayみたいで
tfjsでpred出来なくて積んだんだが(´・ω・`)

numjsとnumpyって同値じゃないよね?(´・ω・`)

294:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.48])
19/10/16 13:17:05 YrOVtgjKM.net
>>287
当たり前のことすぎて
どう反応していいかわからんよ。
どういうレスが欲しかったの?

295:
19/10/16 15:01:44 ur38NdBia.net
>>290
は?誰?どゆこと?w

296:
19/10/16 18:21:05 aRt+pAGAp.net
>>286
どうだろうね
短期記憶が長期記憶に移るときに、移らなかった記憶はドロップアウトされたと考えられなくもないかなぁ

297:デフォルトの名無しさん (スフッ Sd43-v2l4 [49.104.18.87])
19/10/16 18:25:30 mV5OOZvVd.net
>>292
ドロップアウトは過学習を抑制するためにやるやつだし
記憶の結び付きとは違うだろ

298:
19/10/16 20:46:35 h/NO83zwa.net
>>286
可塑性を示すものは発見されてるけどシナプス伝達におけるフィードバック機構は見つかってない
神経回路で見ればフィードバックの投射は当たり前に存在するけどそれでは誤差伝播にはなり得ない

299:
19/10/16 20:46:41 wE+aWwg30.net
一度見た画像をぼんやりとしか覚えてない、という奴はドロップアウト臭い
だから>>292には個人的には賛成できるんだけど
ただ長期記憶が短期記憶うんぬんはリカレントNNを連想するから
このスレ的にはわかりにくいわ

300:
19/10/16 20:48:32 wE+aWwg30.net
>>294
これま?

301:デフォルトの名無しさん
19/10/16 21:07:54.87 dCHq3Ix40.net
>>295
>一度見た画像をぼんやりとしか覚えてない
そもそも観察メッシュが雑(現物→キャッシュ的なところ の時点で情報がだいぶ落ちてしまう)なヤツの場合・・・

302:
19/10/16 21:15:52 XUKusm2Pa.net
BPの話かと思ったらdropoutの方だったすまん
そっちに関連するものは知らん

303:デフォルトの名無しさん
19/10/17 08:31:12.53 O+QTTbhZr.net
>>283
KKT条件?

304:
19/10/17 15:21:49 lSerOx+kM.net
違うぞ

305:
19/10/17 15:30:38 IoilZ/4vr.net
mnistのデータをインストール出来なかったから
直接.npz型データを落としてきてこれを.kerasのdatasetsフォルダに入れたら
使えるようになった

こういうのは邪道なのか

306:デフォルトの名無しさん
19/10/18 20:19:51.03 ohB2HmeFH.net
きみたちSparkとかHadoopとか使ってるの?
深層学習の理論の話しは出るけども

307:デフォルトの名無しさん
19/10/18 22:12:26.25 +r0vv9/5M.net
Sparkは競争に負けたシステムだし、Hadoopはゴミ

308:デフォルトの名無しさん
19/10/18 22:12:50.99 +r0vv9/5M.net
>>301
たぶん正道

309:デフォルトの名無しさん
19/10/19 10:20:09.74 Xn59Im0u0.net
hadoopなんてまともに使おうとしたらgoogle並みの回線チューニングが必要なんでしょ?

310:デフォルトの名無しさん
19/10/19 11:27:09.87 O4F+zYXc0.net
ググってると、ときどき尾崎隆のブログが検索結果に出てくる。
みなさんもご存じ(?)の、
 「渋谷駅前で働くデータサイエンティストのブログ」というやつ。
名前を公開して堂々とブログを書いているのであるから、
間違いがあっても、実名でよく書いた!ほめてあげよう。
だって、5chなんて匿名だから批判とか妬みとか罵詈雑言ばかりだもんな。
尾崎は偉いと思う。実名で書いてるから。
ちょっと自信過剰すぎて、ブログの間違いを見つけるたびに
笑えるけどそれもまたいい!
尾崎はいいやつ!
これからもブログをどんどん書いてくれ!

311:デフォルトの名無しさん
19/10/19 12:29:08.69 RpavgoGg0.net
自信過剰

312:デフォルトの名無しさん
19/10/19 13:48:35.47 oy4za/qN0.net
馬鹿乙

313:デフォルトの名無しさん
19/10/19 14:19:40.09 O4F+zYXc0.net
>>302
> きみたちSparkとかHadoopとか使ってるの?
使っていない。
仕事でAzureとAWSを使っていて
もはやHadoopとか必要ねーじゃんとか思ってる
何か使う理由がある?

314:デフォルトの名無しさん
19/10/19 15:03:04.15 5Qr+gv3yF.net
オンプレ環境でリアルタイムのビックデータ解析やりたいシチュ
データ容量は1TB程度……あんまりないよね

315:デフォルトの名無しさん
19/10/19 16:11:23.85 6fznObHGa.net
使いまくるなら圧倒的にローカルで環境構築する方が安いし自由度高いからな
クラウドコンピューティング万能説を説いている人を見ると「それで十分な程度でしか使っていないんだな」という感想しかない

316:デフォルトの名無しさん
19/10/19 17:05:53.24 MiA7VA63M.net
安さは開発費込みで圧倒的ではないだろう
自由度は同意

317:デフォルトの名無しさん
19/10/19 17:42:12.86 3SA6UJOGH.net
よく知らんけど調達コスト高いのでは
特に期間

318:デフォルトの名無しさん
19/10/19 17:52:06.40 Xn59Im0u0.net
クラウド万能とは思わんが数百GB単位でボコボコ組むならまずクラウドで組んだ方がいいと思うがな。
自前のオンプレで組むならかなり正確な見積もりないと怖いわ。

319:デフォルトの名無しさん
19/10/19 19:39:02.78 TPhFrENC0.net
最近は大手メーカーがオンプレのGPU買うケースが増えてる
彼らはアンチクラウドだから絶対使わないし
データを外部に置くことを極端に嫌う

320:デフォルトの名無しさん
19/10/19 20:33:07.47 MiA7VA63M.net
あくまで自分の肌感覚だけど、最近そういう風潮もなくなってきたというか、
コストカットで見境がなくなってきた印象がある
日本は海外ほどクラウドの導入が進まないけど、そのうち一気にくるだろう

321:デフォルトの名無しさん
19/10/19 21:05:40.70 /qIJCw1Pr.net
kerasの経験ばかり増えたが、いきなり生のtensorflowのコードを見たりchainerを見せられたり
日々勉強だなあ
データセットもある日はnpzある日はpkl

322:デフォルトの名無しさん
19/10/20 00:03:48.28 tuWSj+Lu0.net
>>315
セキュリティが心配なんだろうと思う

323:デフォルトの名無しさん
19/10/20 00:44:54.23 Ff441XyXM.net
セキュリティというよりデータを抜かれるのが心配
特に画像処理

324:
19/10/20 01:42:29 nq7StZQCa.net
自然言語処理は近頃 word2vec 一択なの?

325:デフォルトの名無しさん (ワッチョイ f7ad-V+wO [124.144.197.178])
19/10/20 03:49:01 zXnrxtUW0.net
>>320
word2vec一択とはどゆ意味なのかわからんけど、
それだけでは人と会話できないじゃん?

326:デフォルトの名無しさん
19/10/20 03:50:55.76 zXnrxtUW0.net
うちではword2vecは使ってないよ

327:デフォルトの名無しさん (ワッチョイ 2fe6-hjwr [14.3.161.84])
19/10/20 06:36:34 RLBjETOG0.net
自然言語処理スレで聞け

328:デフォルトの名無しさん
19/10/20 06:51:17.93 tuWSj+Lu0.net
>>319
データを抜かれるのはセキュリティの脅威の一つ

329:
19/10/20 08:21:29 KT5ycvxT0.net
クラウド=情報漏洩の可能性が高いわけではなく、
社内のアナログ上司の承認が降りないんだろう

データセンターと国内の一般的な企業のセキュリティの堅牢性を比べたら前者が勝ち

330:
19/10/20 09:51:37 4HG1pc8w0.net
データ解析事業なんて当たればデカいけどリスクでかいし、
マイナス査定が通常の企業じゃ社員はやりたがらんだろうね。
クラウドにデータおきたがらないのなんてわかりやすい大企業病の例だわ。

331:デフォルトの名無しさん
19/10/20 10:15:03.52 WLZPVulDa.net
セキュリティ万全と言いながら音声認識の音声データを勝手に社員が聞いていたりという事例もあるわけで
物理的にデータが相手側に置かれる以上はいくらでもこっそり悪用できるし内部告発以外でそれに気付くことは不可能だからな
扱うデータの性質にもよるが大企業ならすぐ炎上し得るので慎重になるのは当然だろう

332:デフォルトの名無しさん
19/10/20 10:18:01.24 zXnrxtUW0.net
クラウドとローカルと、うまく使い分ければいいだけの話
言語論争と同じで、その仕事に適しているものを使うというだけの話

333:デフォルトの名無しさん
19/10/20 10:37:24.12 006B6SYsM.net
個人的に、ローカル側を勉強するコストは別のことに回したいかなあ…

334:デフォルトの名無しさん
19/10/20 10:41:10.83 006B6SYsM.net
中小でローカルサーバーを利用したがるのは、
社員たちのITに対する理解度が底辺で、データをネットに接続しただけで、
情報漏洩のリスクが発生するからだったり…
奴ら、機械学習用のPCにwinny入れちゃうとかデフォだから

335:デフォルトの名無しさん
19/10/20 10:43:19.71 4HG1pc8w0.net
ほとんどの場合、上の自己保身のために下にサーバーメンテのコストを押し付けてるだけだがな。
だから仕事がスケールしねーんだよ。

336:デフォルトの名無しさん
19/10/20 11:00:28.67 006B6SYsM.net
良く調べもしないで、"クラウドは怖いから駄目"とか言っちゃう上司か
でもいつかは海外の流れに追随するんじゃないの

337:デフォルトの名無しさん
19/10/20 11:15:24.44 NNpN8hAvH.net
このスレにデータ基盤エンジニアはさすがにいないか?
データ基盤回りの技術もなかなか難しいっすね
ご多分に漏れず技術の移り変わり早いし

338:デフォルトの名無しさん
19/10/20 12:45:28.09 zXnrxtUW0.net
データ基盤はNTTデータであっても
ぐちゃぐちゃになってますね。
データ分析が始まって、
何もわからないところから、
その時その時に良いと思う方法で
構築して結合するので、
現在は、もうそれはそれは恐ろしい
暗黒構造となってます。
資料を作るひまもなく付け加えるので、
資料無しのぐちゃぐちゃです。
終わってます。

339:デフォルトの名無しさん
19/10/20 12:57:25.45 pEDMITRJM.net
オートエンコーダについて質問です
計算の負荷を考えないことを前提の場合
層の深さは深いほど良い(もしくは損をすることはない)の理解であってますか?

340:デフォルトの名無しさん
19/10/20 13:00:42.05 xbXJ4T7Ga.net
>>335
深すぎるとoverfittingする可能性がある

341:デフォルトの名無しさん
19/10/20 13:03:01.09 zXnrxtUW0.net
>>335
いいえ、違います。
オートエンコーダを使って何をするのかにもよりますけど、
結局のところ次元圧縮を「適切に」やりたいわけです。
基本的には中間層から取り出した「圧縮」されたデータを
分析に利用するわけですから、
その分析として実現したいことによって、
「適切な意味が残存している」データを中間層から
取り出したいわけです。
よって適切な層の数はやりたいことによって変わります。
ただ、オートエンコーダの応用はいろいろ発展中ですので、
どういうことをやっているのか具体体に書いていただければ
よりよいアドバイスができると思います。

342:デフォルトの名無しさん
19/10/20 13:20:57.38 pEDMITRJM.net
>>336
返信ありがとうございます
オートエンコーダは入力と出力が同じだから過学習とかは考えなくてもいいと思ってたんですがそうでもないんですか?

343:デフォルトの名無しさん
19/10/20 13:25:54.53 zXnrxtUW0.net
> オートエンコーダは入力と出力が同じ
原始的なNNとして使ってるだけなんだな
しかし入力と出力が同じとはどういう意味なんだ?

344:デフォルトの名無しさん
19/10/20 13:52:06.21 xbXJ4T7Ga.net
>>338
教師データだけ丸暗記して、テストデータは復元出来なくなる

345:デフォルトの名無しさん
19/10/20 14:05:16.23 zXnrxtUW0.net
データサイエンティスト名乗るやつって
みんな馬鹿だと確信できたよ

346:デフォルトの名無しさん
19/10/20 14:06:19.35 pEDMITRJM.net
>>337
すみません。お返事もらってたのに見逃してました
本で理論を学んでいてオートエンコーダの層の深さは多い方がいいのか少ない方がいいのか書いていなかったので、知識浅いのに質問してみました…
適切な意味が残存するようにということで一歩ですが少し分かった気がします。具体例を色々見てみたいと思います
>>340
>>339
教師データ入れて教師データで評価するとか考えてしまって書き込んでしまったのですが、教師データとテストデータはありますよね、ありがとうございます

347:
19/10/20 15:07:27 RLBjETOG0.net
ディープラーニングが流行ってから
汎化性能ってあんまりうるさく言わなくなったよね

SVMあたりのころはやたら言及してたのに

348:デフォルトの名無しさん
19/10/20 16:55:57.67 5FKWmxq9d.net
DCGANによる画像生成について質問。
色んな文章の画像データを学習させたら
LSTMのように画像データとして、文章生成は可能ですか?
あと、4コマ漫画をDCGANで学習させて
意味のある4コマ漫画を生成することは可能ですか?

349:デフォルトの名無しさん
19/10/20 18:08:28.99 +KWnMamE0.net
>>344
どっちもはげしく調教師の腕前次第。
不可能ではないだろう。

350:
19/10/20 19:17:37 2v7IlCoiM.net
そもそもクラウドはテクニカルタームじゃなくて単なるマーケティング用語だったよな?
AIと同じく結局はビジネス界隈で流行れば官軍ってことか

351:
19/10/20 20:17:51 4HG1pc8w0.net
別に誰も勝者じゃないのに官軍とか馬鹿じゃね?

352:デフォルトの名無しさん
19/10/20 20:45:32.57 xbXJ4T7Ga.net
>>344
不可能とは言わないが、出来たらトップカンファレンス通るレベル

353:デフォルトの名無しさん (ワッチョイ f7ad-V+wO [124.144.197.178])
19/10/20 22:12:40 zXnrxtUW0.net
>>344
難しいとは思うがやってみたらいい。
なんでもチャンレンジしておくと、
どゆのが難しいのかわかってくる。
人にとって意味のあるものを生成するということが
どれほど困難かわかると思う。

不可能と思えることにチャレンジすることを
無駄と思うか、勉強と思うか、馬鹿にするか、
それは人それぞれ。

やらないでおいて、
「できやしないよ。」
「それ不可能だから」
「それ単なる判別だから」
なんて批判するのは簡単。どんな馬鹿でも低能でも言えること。

何を言われようとチャレンジするのがいいと思う。
あとあと財産になると思う。

354:デフォルトの名無しさん
19/10/20 22:39:19.56 4HG1pc8w0.net
URLリンク(github.com)
V100を八枚使って3日って世界だけど頑張って!
(ちなみにアマゾンだとこれで約20万円だけど。)

355:
19/10/21 00:10:30 0yo3KYqzM.net
>>347
勝てばという枕詞がつけばそのような含意になるが、この場合はそうではない
そもそも論ズレだよ

356:デフォルトの名無しさん
19/10/21 00:56:16.91 WYoX45rO0.net
で、クラウドって言葉がビジネス界隈で流行って何が官軍なん?

357:デフォルトの名無しさん
19/10/21 07:33:53.00 LkDkCGmw0.net
>>325
正規アクセス権限を持つ人の管理を自社でできない
正規アクセス権限を持つ人だからその気になればアクセスするのは容易

358:デフォルトの名無しさん
19/10/21 07:40:58.63 LkDkCGmw0.net
>>337
オートエンコーダによる次元削減と
主成分分析による次元削減とは
どんな関係?
条件が揃うと両者の結果は一致する?
どんな条件でとか判明している?

359:デフォルトの名無しさん (ワッチョイ 2fe6-sprL [14.3.161.84])
19/10/21 07:54:38 2zFZa7pr0.net
論文があったと思う

360:デフォルトの名無しさん (ワントンキン MM73-hjwr [210.132.8.232])
19/10/21 09:02:29 VyV3rznyM.net
オートエンコーダっていうけど
古くない?

361:デフォルトの名無しさん
19/10/21 09:07:45.09 HKPBZHRea.net
最近の手法でもネットワークの一部にオートエンコーダーが使われていたりはする

362:デフォルトの名無しさん
19/10/21 10:35:25.87 VyV3rznyM.net
どんな奴?
ビッグデータ言うけど
中身的にはknnになってそうで怖い
どの程度未知データに対応できるのか知りたいのに

363:デフォルトの名無しさん (アウアウエー Sa7a-S3Tg [111.239.68.186])
19/10/21 13:31:47 qqa/WroJa.net
主成分分析は軸を決めて絞っているイメージ
オートエンコーダはなんとなく絞っているイメージ

364:デフォルトの名無しさん
19/10/22 10:09:07.31 lFIH7itId.net
ディープラーニングで星空を学習させて、星空の画像を生成させようとしたら
ノイズのような糞画像が生成されたというツイートです。
URLリンク(mobile.twitter.com)
どうしてこうなったの?
原因を調べようにも、ブラックボックスでわからないのでしょうか?
(deleted an unsolicited ad)

365:デフォルトの名無しさん
19/10/22 14:58:07.65 NFYmLoNWa.net
学習できてない

366:デフォルトの名無しさん
19/10/22 16:15:33.91 hH4hu+Bb0.net
ganでやってんでしょ
足りてない

367:デフォルトの名無しさん
19/10/22 19:14:07.07 9wtq+mx60.net
ガーン

368:デフォルトの名無しさん
19/10/22 19:16:27.86 5RVdJ+a80.net
読み方はギャンらしい

369:デフォルトの名無しさん
19/10/23 07:33:38.47 kl84VSvUr.net
>>360
星空全体の学習(dcgan?)はむりでないなかあ なにの特徴量をとらえたら良いのか分からない
星、山一つづつを学習して 何らかの方法で合成するとか

370:デフォルトの名無しさん
19/10/23 10:28:52.26 /wjqUoilM.net
やってみた系
Qiitaにありそう
何でこういうツイートをどや顔でするんだろう
高度なことをしているアピール?
実際は無知を晒してるだけなのに。。。

371:デフォルトの名無しさん
19/10/24 10:02:19.99 apIKxFyCM.net
>>366
やってみた系やQiitaの記事書くよりもツイートする方が楽だからだろう

372:デフォルトの名無しさん
19/10/24 10:22:21.30 ABhN6CSmF.net
所詮はバカッター
失敗や無恥を曝す方がリツイートも良いねも増える世界
アフィ厨と一緒でフォロワー増やす目的
相手にするとつけあがる

373:デフォルトの名無しさん
19/10/24 10:42:24.24 TZ+cyP5wr.net
アノテーション1日3000個

374:デフォルトの名無しさん
19/10/24 15:39:10.85 h4TZRS470.net
IT系は客の懐具合で予算が決まる
衰退する業界を客にしてると共倒れだ

375:デフォルトの名無しさん
19/10/24 19:06:51.87 k0n7Q/rX0.net
時代は量子コンピュータだ(棒)

376:デフォルトの名無しさん
19/10/24 20:18:37.50 mJmionkaM.net
まだまだ先じゃないの

377:デフォルトの名無しさん
19/10/24 23:33:33.42 MvRnXylv0.net
[ビ+]【IT】量子超越「ライト兄弟の業績に匹敵」 Googleが会見
スレリンク(bbynews板)

378:デフォルトの名無しさん
19/10/25 11:19:29.75 qkKvohBNa.net
>>366
既存の事例や良書の下位互換でしかなくても記事にまとめることで理解が深まる
別に君に見せるために書いているわけではないので興味がないなら黙って閉じればよい
「何でツイートするの?」とか言ってるだけ時間と労力の無駄だろう

379:デフォルトの名無しさん
19/10/25 14:02:38.91 lQl0zV4qM.net
何で公開すんの?
見て欲しいからでしょ?
注目を浴びたいんでしょ?

380:デフォルトの名無しさん
19/10/25 15:03:44.46 qkKvohBNa.net
何で公開したら駄目なの?
見なければいいだけでしょ?
注目しなければいいだけでしょ?

381:デフォルトの名無しさん
19/10/25 15:36:22.58 DCbb0Eu2r.net
VOTTを使ったアノテーションで
ver1では動くがver2で全然動かないなあ
タグの設定ができない
Win上で作業
exeファイルでインストールしたが、ソースからやった方がいいのかな

382:デフォルトの名無しさん
19/10/25 20:13:24.49 zctARNqM0.net
                  ヽ人人人人人人人人人人人人人人人�


383:m          / ̄(S)~\  <                      >        / / ∧ ∧\ \<  嫌なら見るな! 嫌なら見るな! >        \ \( ゚Д,゚ ) / /<                      >          \⌒  ⌒ /  ノ Y´`Y´`Y´`Y´`Y´`Y´`Y´`Y´`Y´`Yヽ           )_人_ ノ             /    /       ∧_∧ ■□ (    ))      (   ; )■□  ̄ ̄ヽ    γ⌒   ⌒ヽ  ̄ ̄ノ  ノ  ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄|



384:デフォルトの名無しさん
19/10/25 20:29:51.32 E+67pbC4a.net
むしろ自分からわざわざ見に行って「俺の気に入らないものを書くな!」と騒いでるんだよなあ
嫌なら見るな、以外の何物でもない

385:デフォルトの名無しさん
19/10/25 22:09:09.25 I8iFw1TGa.net
ならnoindexしといて

386:デフォルトの名無しさん
19/10/25 23:30:25.15 zY1ZO0SR0.net
チラシの裏に書け

387:デフォルトの名無しさん
19/10/25 23:35:26.50 Pxjdzyta0.net
>>375
アドバイスももらえてるようだし公開したメリットを享受してるっぽいが
何が気に入らないのかわからない

388:デフォルトの名無しさん
19/10/25 23:44:56.12 6CYskVcia.net
そもそもTwitterは個人のつぶやきに過ぎないしブログは単なる日記だ
別に君に有用な情報を与えることを目的としていないのに何勝手に期待しちゃってるんだろう

389:デフォルトの名無しさん
19/10/26 00:17:17.07 D9LzSwkGM.net
>>378
AVの撮影現場に乱入して「僕、童貞ですから早く服を着てください///」って真っ赤になる感じ

390:デフォルトの名無しさん (ワッチョイ 53da-roNU [60.47.117.90])
19/10/26 08:46:36 NR6i9qZO0.net
ここは便所の壁

391:デフォルトの名無しさん
19/10/26 10:04:19.57 sMyP0ohJ0.net
YouTubeでpvだと思って見たら
素人のカラオケだったときの失望に似ている
上手いなら感心してみるけど
ド下手が上げてんじゃねえよ、と


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch