19/10/13 06:54:46.01 ObLeezZqa.net
>>159
Juliaでしょう。
202:デフォルトの名無しさん (アウアウウー Sac9-KA+R [106.161.128.168])
19/10/13 06:56:55 ObLeezZqa.net
>>160
Flux
203:デフォルトの名無しさん
19/10/13 07:21:13.99 Fxu1r5BT0.net
>>195
大数の法則は標本数を増やすと標本平均が母平均に近づくということ
中心極限定理は平均値の分布に関する定理
食べログの評価の数が30になった時点で平均値を計算して
一度リセットするのを繰り返す
その平均値の分布は正規分布に近づく
今の評価の分布がその店に行く人の評価の分布を表している
のであれば今の評価分布から30標本を取って平均値を求める
操作を復元抽出で繰り返しても同じような結果になるだろう
204:デフォルトの名無しさん
19/10/13 07:23:54.12 Fxu1r5BT0.net
ある店の評価分布は標本数が多くなっても正規分布になるとは言えない
分散が広くなるのはその店のサービスや品質が安定していない事が原因になりうる
その店の特徴が分布に反映される
同様に店を評価する側の特徴も反映されるだろう
205:デフォルトの名無しさん
19/10/13 07:58:04.98 S6cUkNQoM.net
深層学習の凄いことのひとつは特徴量を人が設計する必要がない、と本とかに書いてありますが、どう理解すればいいのか分からず教えてください!
ここでいう深層学習とはニューラルネットのことですか?(線形回帰やSVMと違って説明変数を人間が決めてないから? )
206:デフォルトの名無しさん
19/10/13 08:07:52.14 A69S9ntC0.net
レビューを投稿する行動を取る時点で母集団にサンプルバイアス
207:デフォルトの名無しさん
19/10/13 08:55:43.76 kaSZg9r20.net
>>201
言ってることの一つ一つは正しいことは理解できるんだけど、何が言いたいのか理解できないんだ
食べログが評価を操作しているかどうか、は今説明してくれた事を駆使すれば判別できるんだろうか?
あるいは、Twitterの書き込みのおかしさ、は今説明してくれた事を駆使すれば、ココがおかしいと指摘されるんだろうか
208:
19/10/13 09:26:19 vNAU+AUMa.net
>>201
各店舗の分散は各店舗の分布には影響しても全店舗の平均値の分布には影響しないでしょ
209:デフォルトの名無しさん
19/10/13 10:08:21.52 uKg8mtfTa.net
中心極限定理はあくまで「同一の母集団から得た独立な確率変数であれば、十分な数の平均値を集めたものの分布が正規分布に近似できる」というもの
全店舗の採点者が同一の基準に従う採点を行うという前提が成り立たなければ成立しない定理
210:
19/10/13 10:56:42 kaSZg9r20.net
>>206
個々の採点者が同じ基準でないのに中心極限定理を持ち出しているのがおかしいと主張しているわけか、なるほど
同じ基準ではないにしろ、少し幅をつけてみよう
個々の採点者はある得点を中心に正規分布で配点する、もしくは一様分布で採点する、あるいは同じ点数しかつけないものとする
正規分布で採点する者は、正規分布の合成が正規分布になることから、平均値の分布もまた正規分布
一様分布で採点する者は、分布関数の底上げにはなるが平均値には影響を与えない
同じ点数しかつけない者も、平均値そのものをずらす事にはなるが正規分布の形は歪めない
つまるところ上記の前提が成り立つ場合には、平均値の分布は厳密に正規分布になる
毎回1点で、たまに4点をつけるような人が大量にいないと、この評点と言う平均値分布を正規分布から歪めるのは難しいように思う
211:デフォルトの名無しさん
19/10/13 12:13:54.05 pJwii1Hg0.net
>>202
多分、画像データを深層学習(ニューラルネット)で学習することを念頭に置いてる話だろう。
もっと広い文脈で使えるときもあるがたいていは画像でうまくいった話を誇張して言ってることが多い。
212:デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
19/10/13 12:41:16 Fxu1r5BT0.net
>>205
平均値についても同様の事が言える
仮に評価する側が同じだとしても
店舗の特徴によって分布の形は変わる
分布の形を見る事で店舗の特徴を把握してその店を利用するかどうかを事前に利用者が判断できるようにするサービス
が本来目標としたものかもしれない
分布を意図的に操作する事で金儲けに利用しようとした疑いが上がっているという問題だと思う
213:デフォルトの名無しさん
19/10/13 12:44:15.71 Fxu1r5BT0.net
>>207
評価尺度はただの順序尺度で間隔尺度ではないだろう
214:デフォルトの名無しさん
19/10/13 12:53:02.60 sm0sVhGqM.net
>>159
大規模ですけどC、C++、アセンブラです。
現在、全部で数百万ステップです
215:デフォルトの名無しさん (ワッチョイ 653c-b92j [118.240.95.156])
19/10/13 13:19:59 kaSZg9r20.net
いかん、ラーメン屋の得点とスイーツ屋の得点を合わせて平均するとか謎なことをしていた
改めてデータに立ち戻ろう
3.6にピークがあるのは、とりあえず4に入れておこう層が2/3くらいいて、残りの1/3がとりあえず3に入れておこうということ4*2/3+3*1/3=11/3=3.67で説明できそうだ
逆に言えば、ここにピークが立つのは「とりあえず3か4に入れとけ層」が一定数いるということで、これは直感と合うのであまり怪しくはなさそうだ
次に3.8にギャップがある理由を考えてみる
元のデータを見た所、2つのガウス関数の和で表現できそうだ
一つは平均3.6で3σが0.3にあるピーク、もう一つは平均3.75で3σが0.05のピーク
こう仮定すると3.8にギャップができているのは、この2つ目のガウス関数の裾野に原因がある
この2つのガウス関数が意味するところは
ラーメン屋に通う「オヤジ層」とスイーツ屋に行く「レディー層」の違いを表すのか、
あるいは「関東に住んでいる層」と「関西に住んでいる層」を地域差表すのか、
はたまた疑惑の「操作されていない層」と「操作されている層」の人為操作の違いを表すのか
ラーメン屋だけの分布、特定地域だけの分布は作れそうだが、疑惑の操作に辿り着くのは難しそうだ
216:デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
19/10/13 13:25:37 Fxu1r5BT0.net
操作がなかったという帰無仮説を棄却できるかどうかじゃね?
217:デフォルトの名無しさん
19/10/13 13:39:33.29 kaSZg9r20.net
>>202
まぁ>>208でも言っているけど画像をCNNで処理することを汎用化して言ってる気はするなぁ
少し古いけど
URLリンク(deepage.net)
にある
CNNはこういった特徴を抽出するための検出器であるフィルタのパラメータを自動で学習していく
ということなんだろう
RNNでも同じ話はあるので画像だけってことはないけど、なんでもかんでも特徴量を自動抽出ってことではないよ
218:デフォルトの名無しさん
19/10/13 13:45:19.51 48i2xCpca.net
三層のニューラルネットワークでは xor を分離できないという問題は
さらに多層になったことで何で解消されたの?
219:デフォルトの名無しさん
19/10/13 14:17:08.81 25TC8kRG0.net
3.8を超えた評価を3.6に落としてるって仮定したらほぼ同じヒストグラムになる
URLリンク(i.imgur.com)
平均3.8標準偏差0.5で正規分布を生成して、3.8を超えた評価値を90%の確率で平均3.6標準偏差0.01の正規分布で取り直す操作をした(N=1000)
ただ同じだからと言って>>212のように元データの特徴量ごとの性質の違いを反映しているだけかもしれない
220:デフォルトの名無しさん
19/10/13 14:21:02.62 qY0pTgmia.net
>>213
操作がないという帰無仮説について仮説検定の方法で検証するには操作がない場合の点数の理想的な分布を知っていなければならない
その理想分布に基づいて実際の分布がどの程度ずれているのかを確認するのが仮説検定なのだから
しかしそんなもの知り得ないので検定のしようがない
221:デフォルトの名無しさん
19/10/13 14:23:09.86 llG9wcVha.net
>>215
出来ないのは2層
3層にすると一度高次元空間に写してからシンプルな境界で分離出来る
222:デフォルトの名無しさん
19/10/13 14:45:50.67 TJDkUn5hM.net
>>208
>>214
ありがとうございます。ほぼCNNのことと思って良さそうなんですね
CNNが凄い!っことを深層学習という言葉に拡大して凄い!って言ってるイメージですね
223:
19/10/13 15:01:05 kaSZg9r20.net
>> 215
細かいけど、まず層の数え方から
入力層は層に数えないので、ANDとORは1層で、XORは2層で表現できる
次にXORはなぜ2層で表現可能か
単純に、AND(正確にはNAND)とORの出力をANDで受ければXORが作れるから
ググったら以下のような図を見つけた
URLリンク(www.infiniteloop.co.jp)
>>218の回答はエレガントだけども、少し説明を加えると
(0, 0) → 0
(0, 1) → 1
(1, 0) → 1
(1, 1) → 0
を分ける直線は2次元平面内では書けないけど、3次元に拡張して
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
を分ける平面はa,b,c,dを適当に決めれば作れる(例えばa=d=0, b=c=1としてz=0.5の平面)
a,b,c,dを適当に決めて分離できるってそんなんアリかよ!?って最初は思うかもしれないけど
そんな純粋な気持ちは最初だけで、どうせa, b, c, dは見ないし分離できたら何でもOKになる
224:デフォルトの名無しさん
19/10/13 18:39:55.88 48i2xCpca.net
二層あれば大抵の関数は模倣できるのに
何でもっと多層が必要なの?
225:デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
19/10/13 18:43:34 Fxu1r5BT0.net
>>217
諦めたらそこで試合終了ですよ
目の前にヒントが転がっていても見えなくなる
226:デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
19/10/13 18:44:48 Fxu1r5BT0.net
>>218
線型結合してる層を増やすとなぜ高次元になるのかを直感的に判るように説明して
227:デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
19/10/13 19:30:49 llG9wcVha.net
>>221
層を増やす方が効率が高い
ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない
228:デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
19/10/13 19:32:44 llG9wcVha.net
>>223
一旦中間層のニューロン数だけの次元を持つ空間を経由できるから
229:デフォルトの名無しさん (ワッチョイ cb10-vzjJ [153.131.102.129])
19/10/13 20:04:55 Fxu1r5BT0.net
>>225
線型結合して関数を通して
また線型結合して関数を通して
の繰り返しでなぜ高次元になるの?
関数によって非線形になるなら判るけど
230:デフォルトの名無しさん
19/10/13 20:33:11.99 llG9wcVha.net
>>226
非線形な活性化関数噛ませるでしょ普通
自然に高次元になるんじゃなくてそうなる様にしてるんだよ、ニューロン数は自由に決められるから
231:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
19/10/13 20:44:50 /3kPh57iM.net
ディープキスのほうがいい!
舌をからませるの
立つよね!
232:
19/10/13 20:48:48 P1vmVh210.net
>ニューラルネットの近似能力は層を増やすと指数的に向上するが、中間層のニューロン数に対しては多項式的にしか上がらない
こんなことを示した論文などない。
よくこんなことをさも証明されたことの如く言えるな。
233:
19/10/13 21:28:26 kaSZg9r20.net
>>221
本質的な質問が来た
これについては俺も明確な答えは持ってないなぁ
直感的には、多層の方が中間層に保持できるパラメータ数が多く
そこには活性化関数を通した非線形の効果も含まれているので
ほどほどにノイズが消されていて抽象的な状態を保持できるから
と思うんだが、本当かどうかは分からない
234:デフォルトの名無しさん
19/10/13 21:37:08.64 llG9wcVha.net
>>229
Montufar, Guido F., et al. "On the number of linear regions of deep neural networks." Advances in neural information processing systems. 2014.
NIPSの論文だが
何を根拠に「こんなことを示した論文などない(キリッ」なんて言えたのか
235:デフォルトの名無しさん
19/10/13 21:45:22.38 kaSZg9r20.net
>>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
236:デフォルトの名無しさん
19/10/13 21:46:31.38 kaSZg9r20.net
>>226
ちょうどいいので>>220で示したXORを例に説明しよう
入力が2次元である(x1, x2)を拡張して3次元の(x1, x2, x3)にしようと思う
つまり
(0, 0, a) → 0
(0, 1, b) → 1
(1, 0, c) → 1
(1, 1, d) → 0
が出来て(a, b, c, d) = (0, 1, 1, 0)を設定できれば、平面z=0.5で2つの領域に分離できる
すなわちx3をx1, x2から作れれば良いので
a = w11・x1 + w12・x2
b = w21・x1 + w22・x2
c = w31・x1 + w32・x2
d = w41・x1 + w42・x2
として(w11, w12) = (1, 1), (w21, w22) = (1, 1), (w31, w32) = (1, 1), (w41, w42) = (1, -1)のような重みを設定する
a, b, c, dの式をよく見てみると、これは2個のニューロンを1層分増やした式そのものである
つまり層を1層増やすということは、次元を増やすことと同値である
237:
19/10/13 22:05:13 48i2xCpca.net
五、六層でいいのかと思いきや
ものすごく多層にするよねえ
うまくいくからという説明しかないのか?
238:デフォルトの名無しさん
19/10/13 22:18:18.69 /3kPh57iM.net
>>221
〉二層あれば大抵の関数は模倣できる
その『大抵』とは、どの程度�
239:ネんですか? それが示されてないのですから まったく意味をなさないですよね? >>230 その意味をなさない書き込みに、 本質的とかって、 レベル低すぎですね。
240:デフォルトの名無しさん
19/10/13 22:20:28.84 mSmeGM2p0.net
>>235
完全な関数の導入じゃなくて疑似的な関数が解ればいいから
241:
19/10/13 22:35:14 kaSZg9r20.net
>>235
あんたは性格悪いなぁ・・・
ニューラルネットワークの普遍性についての質問が本質的でないなら何が本質的なんだ?
知ってて聞いてるなら教えてやれよ
242:デフォルトの名無しさん
19/10/14 00:26:24.00 Xj3JYQcoa.net
専門的な知識はほとんどなく説明されても理解できる頭も持ってないけどマウントとりたいからとにかく突っかかる癖のある人が多すぎる
243:
19/10/14 00:50:17 yAy44Gfva.net
初等関数?
特殊関数?
244:デフォルトの名無しさん
19/10/14 07:16:20.36 KQ95R8h/0.net
>>232
それだと
x1, x2の入力を受けるニューロンと
それからx3を計算するニューロンを並列に並べたら良い
x1-x1\
x2-x2-out
\x3/
みたいに
次元を増やすの意味として変数増加とx^2などと混同しやすい
これらを区別する言い方は何?
変数増加→高次元
x^2など→非線形
とか?
245:デフォルトの名無しさん
19/10/14 12:29:28.91 utYACZDud.net
前に『ゼロから作るディープラーニング』買ったけど
これ3千円はする高額な本だけど、計算や式の意味がわからず挫折したなあ…。
やっぱノートに書いて解き方や意味を学習するしかないと思うねん。
246:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
19/10/14 12:54:25 syyLl6c1M.net
>>241
ならば『excelでわかるディープラーニング超入門』がオススメ
続編もある
247:デフォルトの名無しさん
19/10/14 13:19:28.08 aq/jCORe0.net
>>241
あの本は線型代数と微積分の知識は必須だと思う
248:デフォルトの名無しさん
19/10/14 13:53:05.51 pO8Bz3ni0.net
機械学習に数学はいらないよ
249:デフォルトの名無しさん
19/10/14 14:01:22.69 htBbaZR2r.net
機械学習に数学はいらないよおじさん「機械学習に数学はいらないよ」
250:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
19/10/14 14:23:44 syyLl6c1M.net
ソフト使うだけなら数学いらんわね
251:
19/10/14 14:26:05 daX/fZMnF.net
適当にデータ放り込んで適当な手法を選択してなんとなく精度が良さそうなのを選ぶだけで成立する仕事なら数学など不要
普通の企業や研究室ではそんなものに金なんて出してくれないがな
252:デフォルトの名無しさん
19/10/14 14:31:10.41 JdA0BOgta.net
>>247
そういう仕事は既にAutoMLに取られつつあるね
253:デフォルトの名無しさん
19/10/14 14:31:49.76 XFqMr8NbM.net
というかこの世界ももう土方がいるのか
254:デフォルトの名無しさん
19/10/14 14:40:16.73 VuPQ6UMJ0.net
>>240
並列に並べるために(x1, x2)からx3を作るための層が最低1つ必要なんだ
0か1かのような2値分類は、つまるところ出力層と全く同じ出力をする新しい次元を作って、その次元に直行する超平面で分類する作業なので
言い方は高次元や非線形で良いと思うけど、次元についてはニューロンの数が、非線形については活性化関数が深く関係している
もう少し詳しく説明しよう
より一般的な関数があったとして、入力が(x1, x2)のとき、最後の出力層への入力としては
(f1(x1, x2), f2(x1, x2), f3(x1, x2), …, fN(x1, x2)) … (1)
となっている
Nは最後の隠れ層のニューロンの数なので、次元と読んでいるのはニューロンの数だということが分かる
(1)を如何にして作るのかが重要になり、層を深くして(1)を作らなくても、ニューロン増やせばいいんじゃね?となる
隠れ層1層と出力層1層の2層あれば大抵の関数は模倣できると指摘している>>221はかなり鋭くて実にその通り
それでもなんで層を深くするのかというと>>224の効率が良いというのが一般な回答なんだが、Deep Learningを回している人なら実感があると思うけど、第一層のニューロンの数がある一定数ないと学習がうまくいかないことが往往にしてある
単に層を深くすればよいというのは明らかに直感と異なり、そうすると「どの層にどれだけのニューロンを配置すると良いか」という問題になり、これに対して自分なりの回答はまだ全然持っていない
255:デフォルトの名無しさん
19/10/14 14:42:39.82 syyLl6c1M.net
最初から土方しかいないから。
今もほとんど土方。
できる人は研究者か大学教員になってる。
256:デフォルトの名無しさん
19/10/14 14:47:46.87 daX/fZMnF.net
この分野はむしろ大学より民間の方がやりやすいから本来なら博士行くような人も修士までにしてとっとと成果出せる環境に移ろうとする人が多くなってきた印象
257:デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
19/10/14 15:08:32 utYACZDud.net
>>242
ありがとう。調べてみます。
258:
19/10/14 15:10:40 4WTqwCCG0.net
今ならまだ簡単にデータエンジニア目指せるけど、
早い者勝ちなのかな
すぐベテランにしか仕事がこなくなるよね
259:
19/10/14 15:13:07 4WTqwCCG0.net
>>241
あの本のレベルの数学が分からないと厳しい
数学が分からないと言いながらDSやってる人たちでも理解できる程度の内容
260:デフォルトの名無しさん
19/10/14 15:22:52.88 drx0D0Vb0.net
博士持ち or ベテラン < 精度の高い競馬予測モデル開発者
データを集めてくるところが始まるから、Kaggleより難易度高い
261:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.69])
19/10/14 16:12:47 syyLl6c1M.net
博士号持ちといってもピンキリ
天才的な人もいるし、
とんでもない馬鹿もいる。
2、3枚の感想文のようなレポートで
博士号取れる院も
日本にある。
そこは博士号とりたい中国人ばかりが
留学生としてやってくる。
日本の恥!
262:デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
19/10/14 17:26:03 JdA0BOgta.net
>>257
例えばどこの院
263:デフォルトの名無しさん
19/10/14 18:51:16.60 /yNf4ic50.net
>>255
DSって何ですか?
264:デフォルトの名無しさん (エムゾネ FF43-1wBF [49.106.193.20])
19/10/14 18:55:58 ljIrzJ7BF.net
Deta
Saiensu
265:
19/10/14 19:22:19 lAL0R9ntM.net
サイエンティストな
266:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
19/10/14 20:18:41 DQ9Yh+dwM.net
>>258
知り合いが現在
そこの教員やってるので
大学名は書かないけど
博士論文は国会図書館に
全て収蔵されるので
みればすぐわかる。
ヒントとしては、
なんと中国語でレポート2枚ぐらいの
博士論文がある!
日本の恥!
抹殺したい!
267:デフォルトの名無しさん (ワッチョイ ab82-IE9o [113.20.238.175])
19/10/14 21:29:45 /yNf4ic50.net
ディープラーニング発明した人に
ノーベル賞やるべきだと思う。
268:
19/10/14 21:34:26 lAL0R9ntM.net
そんな人おらん
ローゼン・ブラッドからはじまって(もっと前から遡れる?
カナダ人のチームがドロップアウトを考えた時点で弾けたんだ
269:デフォルトの名無しさん (アウアウクー MMe1-o74w [36.11.225.237])
19/10/14 21:35:46 lAL0R9ntM.net
メダル獲れなかったkaggle用のnoteをgithubに載せてしまった。はずかしー
これで就活だあ~。おーッ!
270:デフォルトの名無しさん (アウアウウー Sac9-B2ag [106.154.130.6])
19/10/14 23:09:10 JdA0BOgta.net
>>263
チューリング賞はとった
271:デフォルトの名無しさん
19/10/14 23:23:40.59 Dfy8oKXF0.net
チューリング賞は賞自体よりも取ってる人のがたいてい有名っていう。。
272:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.57])
19/10/15 02:28:14 KLW/euVzM.net
甘利さんか?
273:デフォルトの名無しさん
19/10/15 06:10:05.34 I8iXAPqNM.net
競馬予想みたいにデータ収集含めて特定の領域に特化したモデル作れる人だけが勝つようになるかね、、、全く潰しのきかない職業になりそうですね。
274:デフォルトの名無しさん
19/10/15 06:37:37.44 7FHw0Vhl0.net
ゲームの自動生成やりたいから勉強してるけどそういう職業目指してない
275:デフォルトの名無しさん (アウアウカー Sa51-KA+R [182.251.40.158])
19/10/15 07:35:51 5lPGjOaaa.net
>>269
田倉寛史は失業するな。
276:デフォルトの名無しさん (ワントンキン MMa3-Hjv8 [153.154.213.244])
19/10/15 09:11:20 CGH1vHQcM.net
競馬って予想して勝てるゲームなの?
277:デフォルトの名無しさん
19/10/15 09:52:34.15 BuCrjnSD0.net
kerasしかわかんね
278:デフォルトの名無しさん
19/10/15 10:04:58.88 ST5HgM4Ya.net
統計学で競馬で食ってる人いる見たいよ
10年くらい前に聞いた話しだけど
279:デフォルトの名無しさん
19/10/15 10:08:19.91 CpmUKzMvM.net
統計学やらなくてもきちんと研究すれば勝てるらしいけど
才能の使い方としては空しいな
280:デフォルトの名無しさん
19/10/15 10:31:23.58 YjTx8zIDa.net
佐々木洋佑の予想。
281:
19/10/15 10:36:34 tidBIruUd.net
控除率25%の競馬で勝とうとするならもっと楽に勝てるとこに注力した方がましやろ
282:デフォルトの名無しさん
19/10/15 10:52:22.27 AlK2cYWx0.net
>>277
FXとか?
283:デフォルトの名無しさん
19/10/15 11:24:20.27 CpmUKzMvM.net
FXより競馬の方が百倍楽でしょ
勝つために必要なデータを取れればだけど
284:
19/10/15 12:32:17 2+ahF6drr.net
>>221
層が多いほうが表現力が高い
教師データ数に対して異常に多いパラメータは、なんで性能が伸びるかよく分からない。
パラメータの中にはあたりくじがあるのかもという、宝くじ仮設なるものがあるけれどどうなのでしょう?
285:デフォルトの名無しさん
19/10/15 13:03:36.76 uSQ3MvZ60.net
テーブルデータの解析って、nnをつかっても2層や3層だから、ぜんぜんdeepじゃないよね
営業の人はそれでもディープラーニングっていうんだろうなあ
286:デフォルトの名無しさん
19/10/15 13:13:25.51 KLW/euVzM.net
テーブルデータってなーに?
287:デフォルトの名無しさん
19/10/15 16:36:14.39 OfiTiE/Hr.net
>>221
深くする程損失関数が凸関数に近くなり最適解に辿り着きやすくなるかも知れないことが最近の理論研究で判明してきている
288:デフォルトの名無しさん
19/10/15 23:48:10.86 1HOx40aj0.net
層を増やすと普通にバックプロパゲーションだけでは上手く学習できないんじゃね
どうするんだっけ
289:デフォルトの名無しさん
19/10/16 07:22:30.93 399vjxSUM.net
甘利さんに聞く
290:デフォルトの名無しさん (スププ Sd43-IE9o [49.96.34.97])
19/10/16 12:21:07 KK2SmrYwd.net
ドロップアウトって
実際に人間の脳でも行われているのでしょうか?
291:
19/10/16 12:33:04 ur38NdBia.net
インドのリキシャの話は知ってるか?
人間は一度認識すれば多少形は違ってもリキシャだとわかる
おそらく人間は逆で、学習したデータを柔軟に他の認識の補助とすることができる
292:
19/10/16 12:49:56 Bk7OFSs90.net
シミュラクラ現象のことか
293:
19/10/16 12:55:37 /VU6ev+W0.net
kerasで作ったモデルをtfjsで読み込んだんだが
訓練してたときのinputがnp.arrayみたいで
tfjsでpred出来なくて積んだんだが(´・ω・`)
numjsとnumpyって同値じゃないよね?(´・ω・`)
294:デフォルトの名無しさん (トンモー MM59-d/3+ [210.142.95.48])
19/10/16 13:17:05 YrOVtgjKM.net
>>287
当たり前のことすぎて
どう反応していいかわからんよ。
どういうレスが欲しかったの?
295:
19/10/16 15:01:44 ur38NdBia.net
>>290
は?誰?どゆこと?w
296:
19/10/16 18:21:05 aRt+pAGAp.net
>>286
どうだろうね
短期記憶が長期記憶に移るときに、移らなかった記憶はドロップアウトされたと考えられなくもないかなぁ
297:デフォルトの名無しさん (スフッ Sd43-v2l4 [49.104.18.87])
19/10/16 18:25:30 mV5OOZvVd.net
>>292
ドロップアウトは過学習を抑制するためにやるやつだし
記憶の結び付きとは違うだろ
298:
19/10/16 20:46:35 h/NO83zwa.net
>>286
可塑性を示すものは発見されてるけどシナプス伝達におけるフィードバック機構は見つかってない
神経回路で見ればフィードバックの投射は当たり前に存在するけどそれでは誤差伝播にはなり得ない
299:
19/10/16 20:46:41 wE+aWwg30.net
一度見た画像をぼんやりとしか覚えてない、という奴はドロップアウト臭い
だから>>292には個人的には賛成できるんだけど
ただ長期記憶が短期記憶うんぬんはリカレントNNを連想するから
このスレ的にはわかりにくいわ
300:
19/10/16 20:48:32 wE+aWwg30.net
>>294
これま?
301:デフォルトの名無しさん
19/10/16 21:07:54.87 dCHq3Ix40.net
>>295
>一度見た画像をぼんやりとしか覚えてない
そもそも観察メッシュが雑(現物→キャッシュ的なところ の時点で情報がだいぶ落ちてしまう)なヤツの場合・・・
302:
19/10/16 21:15:52 XUKusm2Pa.net
BPの話かと思ったらdropoutの方だったすまん
そっちに関連するものは知らん
303:デフォルトの名無しさん
19/10/17 08:31:12.53 O+QTTbhZr.net
>>283
KKT条件?
304:
19/10/17 15:21:49 lSerOx+kM.net
違うぞ
305:
19/10/17 15:30:38 IoilZ/4vr.net
mnistのデータをインストール出来なかったから
直接.npz型データを落としてきてこれを.kerasのdatasetsフォルダに入れたら
使えるようになった
こういうのは邪道なのか
306:デフォルトの名無しさん
19/10/18 20:19:51.03 ohB2HmeFH.net
きみたちSparkとかHadoopとか使ってるの?
深層学習の理論の話しは出るけども
307:デフォルトの名無しさん
19/10/18 22:12:26.25 +r0vv9/5M.net
Sparkは競争に負けたシステムだし、Hadoopはゴミ
308:デフォルトの名無しさん
19/10/18 22:12:50.99 +r0vv9/5M.net
>>301
たぶん正道
309:デフォルトの名無しさん
19/10/19 10:20:09.74 Xn59Im0u0.net
hadoopなんてまともに使おうとしたらgoogle並みの回線チューニングが必要なんでしょ?
310:デフォルトの名無しさん
19/10/19 11:27:09.87 O4F+zYXc0.net
ググってると、ときどき尾崎隆のブログが検索結果に出てくる。
みなさんもご存じ(?)の、
「渋谷駅前で働くデータサイエンティストのブログ」というやつ。
名前を公開して堂々とブログを書いているのであるから、
間違いがあっても、実名でよく書いた!ほめてあげよう。
だって、5chなんて匿名だから批判とか妬みとか罵詈雑言ばかりだもんな。
尾崎は偉いと思う。実名で書いてるから。
ちょっと自信過剰すぎて、ブログの間違いを見つけるたびに
笑えるけどそれもまたいい!
尾崎はいいやつ!
これからもブログをどんどん書いてくれ!
311:デフォルトの名無しさん
19/10/19 12:29:08.69 RpavgoGg0.net
自信過剰
312:デフォルトの名無しさん
19/10/19 13:48:35.47 oy4za/qN0.net
馬鹿乙
313:デフォルトの名無しさん
19/10/19 14:19:40.09 O4F+zYXc0.net
>>302
> きみたちSparkとかHadoopとか使ってるの?
使っていない。
仕事でAzureとAWSを使っていて
もはやHadoopとか必要ねーじゃんとか思ってる
何か使う理由がある?
314:デフォルトの名無しさん
19/10/19 15:03:04.15 5Qr+gv3yF.net
オンプレ環境でリアルタイムのビックデータ解析やりたいシチュ
データ容量は1TB程度……あんまりないよね
315:デフォルトの名無しさん
19/10/19 16:11:23.85 6fznObHGa.net
使いまくるなら圧倒的にローカルで環境構築する方が安いし自由度高いからな
クラウドコンピューティング万能説を説いている人を見ると「それで十分な程度でしか使っていないんだな」という感想しかない
316:デフォルトの名無しさん
19/10/19 17:05:53.24 MiA7VA63M.net
安さは開発費込みで圧倒的ではないだろう
自由度は同意
317:デフォルトの名無しさん
19/10/19 17:42:12.86 3SA6UJOGH.net
よく知らんけど調達コスト高いのでは
特に期間
318:デフォルトの名無しさん
19/10/19 17:52:06.40 Xn59Im0u0.net
クラウド万能とは思わんが数百GB単位でボコボコ組むならまずクラウドで組んだ方がいいと思うがな。
自前のオンプレで組むならかなり正確な見積もりないと怖いわ。
319:デフォルトの名無しさん
19/10/19 19:39:02.78 TPhFrENC0.net
最近は大手メーカーがオンプレのGPU買うケースが増えてる
彼らはアンチクラウドだから絶対使わないし
データを外部に置くことを極端に嫌う
320:デフォルトの名無しさん
19/10/19 20:33:07.47 MiA7VA63M.net
あくまで自分の肌感覚だけど、最近そういう風潮もなくなってきたというか、
コストカットで見境がなくなってきた印象がある
日本は海外ほどクラウドの導入が進まないけど、そのうち一気にくるだろう
321:デフォルトの名無しさん
19/10/19 21:05:40.70 /qIJCw1Pr.net
kerasの経験ばかり増えたが、いきなり生のtensorflowのコードを見たりchainerを見せられたり
日々勉強だなあ
データセットもある日はnpzある日はpkl
322:デフォルトの名無しさん
19/10/20 00:03:48.28 tuWSj+Lu0.net
>>315
セキュリティが心配なんだろうと思う
323:デフォルトの名無しさん
19/10/20 00:44:54.23 Ff441XyXM.net
セキュリティというよりデータを抜かれるのが心配
特に画像処理
324:
19/10/20 01:42:29 nq7StZQCa.net
自然言語処理は近頃 word2vec 一択なの?
325:デフォルトの名無しさん (ワッチョイ f7ad-V+wO [124.144.197.178])
19/10/20 03:49:01 zXnrxtUW0.net
>>320
word2vec一択とはどゆ意味なのかわからんけど、
それだけでは人と会話できないじゃん?
326:デフォルトの名無しさん
19/10/20 03:50:55.76 zXnrxtUW0.net
うちではword2vecは使ってないよ
327:デフォルトの名無しさん (ワッチョイ 2fe6-hjwr [14.3.161.84])
19/10/20 06:36:34 RLBjETOG0.net
自然言語処理スレで聞け
328:デフォルトの名無しさん
19/10/20 06:51:17.93 tuWSj+Lu0.net
>>319
データを抜かれるのはセキュリティの脅威の一つ
329:
19/10/20 08:21:29 KT5ycvxT0.net
クラウド=情報漏洩の可能性が高いわけではなく、
社内のアナログ上司の承認が降りないんだろう
データセンターと国内の一般的な企業のセキュリティの堅牢性を比べたら前者が勝ち
330:
19/10/20 09:51:37 4HG1pc8w0.net
データ解析事業なんて当たればデカいけどリスクでかいし、
マイナス査定が通常の企業じゃ社員はやりたがらんだろうね。
クラウドにデータおきたがらないのなんてわかりやすい大企業病の例だわ。
331:デフォルトの名無しさん
19/10/20 10:15:03.52 WLZPVulDa.net
セキュリティ万全と言いながら音声認識の音声データを勝手に社員が聞いていたりという事例もあるわけで
物理的にデータが相手側に置かれる以上はいくらでもこっそり悪用できるし内部告発以外でそれに気付くことは不可能だからな
扱うデータの性質にもよるが大企業ならすぐ炎上し得るので慎重になるのは当然だろう
332:デフォルトの名無しさん
19/10/20 10:18:01.24 zXnrxtUW0.net
クラウドとローカルと、うまく使い分ければいいだけの話
言語論争と同じで、その仕事に適しているものを使うというだけの話
333:デフォルトの名無しさん
19/10/20 10:37:24.12 006B6SYsM.net
個人的に、ローカル側を勉強するコストは別のことに回したいかなあ…
334:デフォルトの名無しさん
19/10/20 10:41:10.83 006B6SYsM.net
中小でローカルサーバーを利用したがるのは、
社員たちのITに対する理解度が底辺で、データをネットに接続しただけで、
情報漏洩のリスクが発生するからだったり…
奴ら、機械学習用のPCにwinny入れちゃうとかデフォだから
335:デフォルトの名無しさん
19/10/20 10:43:19.71 4HG1pc8w0.net
ほとんどの場合、上の自己保身のために下にサーバーメンテのコストを押し付けてるだけだがな。
だから仕事がスケールしねーんだよ。
336:デフォルトの名無しさん
19/10/20 11:00:28.67 006B6SYsM.net
良く調べもしないで、"クラウドは怖いから駄目"とか言っちゃう上司か
でもいつかは海外の流れに追随するんじゃないの
337:デフォルトの名無しさん
19/10/20 11:15:24.44 NNpN8hAvH.net
このスレにデータ基盤エンジニアはさすがにいないか?
データ基盤回りの技術もなかなか難しいっすね
ご多分に漏れず技術の移り変わり早いし
338:デフォルトの名無しさん
19/10/20 12:45:28.09 zXnrxtUW0.net
データ基盤はNTTデータであっても
ぐちゃぐちゃになってますね。
データ分析が始まって、
何もわからないところから、
その時その時に良いと思う方法で
構築して結合するので、
現在は、もうそれはそれは恐ろしい
暗黒構造となってます。
資料を作るひまもなく付け加えるので、
資料無しのぐちゃぐちゃです。
終わってます。
339:デフォルトの名無しさん
19/10/20 12:57:25.45 pEDMITRJM.net
オートエンコーダについて質問です
計算の負荷を考えないことを前提の場合
層の深さは深いほど良い(もしくは損をすることはない)の理解であってますか?
340:デフォルトの名無しさん
19/10/20 13:00:42.05 xbXJ4T7Ga.net
>>335
深すぎるとoverfittingする可能性がある
341:デフォルトの名無しさん
19/10/20 13:03:01.09 zXnrxtUW0.net
>>335
いいえ、違います。
オートエンコーダを使って何をするのかにもよりますけど、
結局のところ次元圧縮を「適切に」やりたいわけです。
基本的には中間層から取り出した「圧縮」されたデータを
分析に利用するわけですから、
その分析として実現したいことによって、
「適切な意味が残存している」データを中間層から
取り出したいわけです。
よって適切な層の数はやりたいことによって変わります。
ただ、オートエンコーダの応用はいろいろ発展中ですので、
どういうことをやっているのか具体体に書いていただければ
よりよいアドバイスができると思います。
342:デフォルトの名無しさん
19/10/20 13:20:57.38 pEDMITRJM.net
>>336
返信ありがとうございます
オートエンコーダは入力と出力が同じだから過学習とかは考えなくてもいいと思ってたんですがそうでもないんですか?
343:デフォルトの名無しさん
19/10/20 13:25:54.53 zXnrxtUW0.net
> オートエンコーダは入力と出力が同じ
原始的なNNとして使ってるだけなんだな
しかし入力と出力が同じとはどういう意味なんだ?
344:デフォルトの名無しさん
19/10/20 13:52:06.21 xbXJ4T7Ga.net
>>338
教師データだけ丸暗記して、テストデータは復元出来なくなる
345:デフォルトの名無しさん
19/10/20 14:05:16.23 zXnrxtUW0.net
データサイエンティスト名乗るやつって
みんな馬鹿だと確信できたよ
346:デフォルトの名無しさん
19/10/20 14:06:19.35 pEDMITRJM.net
>>337
すみません。お返事もらってたのに見逃してました
本で理論を学んでいてオートエンコーダの層の深さは多い方がいいのか少ない方がいいのか書いていなかったので、知識浅いのに質問してみました…
適切な意味が残存するようにということで一歩ですが少し分かった気がします。具体例を色々見てみたいと思います
>>340
>>339
教師データ入れて教師データで評価するとか考えてしまって書き込んでしまったのですが、教師データとテストデータはありますよね、ありがとうございます
347:
19/10/20 15:07:27 RLBjETOG0.net
ディープラーニングが流行ってから
汎化性能ってあんまりうるさく言わなくなったよね
SVMあたりのころはやたら言及してたのに
348:デフォルトの名無しさん
19/10/20 16:55:57.67 5FKWmxq9d.net
DCGANによる画像生成について質問。
色んな文章の画像データを学習させたら
LSTMのように画像データとして、文章生成は可能ですか?
あと、4コマ漫画をDCGANで学習させて
意味のある4コマ漫画を生成することは可能ですか?
349:デフォルトの名無しさん
19/10/20 18:08:28.99 +KWnMamE0.net
>>344
どっちもはげしく調教師の腕前次第。
不可能ではないだろう。
350:
19/10/20 19:17:37 2v7IlCoiM.net
そもそもクラウドはテクニカルタームじゃなくて単なるマーケティング用語だったよな?
AIと同じく結局はビジネス界隈で流行れば官軍ってことか
351:
19/10/20 20:17:51 4HG1pc8w0.net
別に誰も勝者じゃないのに官軍とか馬鹿じゃね?
352:デフォルトの名無しさん
19/10/20 20:45:32.57 xbXJ4T7Ga.net
>>344
不可能とは言わないが、出来たらトップカンファレンス通るレベル
353:デフォルトの名無しさん (ワッチョイ f7ad-V+wO [124.144.197.178])
19/10/20 22:12:40 zXnrxtUW0.net
>>344
難しいとは思うがやってみたらいい。
なんでもチャンレンジしておくと、
どゆのが難しいのかわかってくる。
人にとって意味のあるものを生成するということが
どれほど困難かわかると思う。
不可能と思えることにチャレンジすることを
無駄と思うか、勉強と思うか、馬鹿にするか、
それは人それぞれ。
やらないでおいて、
「できやしないよ。」
「それ不可能だから」
「それ単なる判別だから」
なんて批判するのは簡単。どんな馬鹿でも低能でも言えること。
何を言われようとチャレンジするのがいいと思う。
あとあと財産になると思う。
354:デフォルトの名無しさん
19/10/20 22:39:19.56 4HG1pc8w0.net
URLリンク(github.com)
V100を八枚使って3日って世界だけど頑張って!
(ちなみにアマゾンだとこれで約20万円だけど。)
355:
19/10/21 00:10:30 0yo3KYqzM.net
>>347
勝てばという枕詞がつけばそのような含意になるが、この場合はそうではない
そもそも論ズレだよ
356:デフォルトの名無しさん
19/10/21 00:56:16.91 WYoX45rO0.net
で、クラウドって言葉がビジネス界隈で流行って何が官軍なん?
357:デフォルトの名無しさん
19/10/21 07:33:53.00 LkDkCGmw0.net
>>325
正規アクセス権限を持つ人の管理を自社でできない
正規アクセス権限を持つ人だからその気になればアクセスするのは容易
358:デフォルトの名無しさん
19/10/21 07:40:58.63 LkDkCGmw0.net
>>337
オートエンコーダによる次元削減と
主成分分析による次元削減とは
どんな関係?
条件が揃うと両者の結果は一致する?
どんな条件でとか判明している?
359:デフォルトの名無しさん (ワッチョイ 2fe6-sprL [14.3.161.84])
19/10/21 07:54:38 2zFZa7pr0.net
論文があったと思う
360:デフォルトの名無しさん (ワントンキン MM73-hjwr [210.132.8.232])
19/10/21 09:02:29 VyV3rznyM.net
オートエンコーダっていうけど
古くない?
361:デフォルトの名無しさん
19/10/21 09:07:45.09 HKPBZHRea.net
最近の手法でもネットワークの一部にオートエンコーダーが使われていたりはする
362:デフォルトの名無しさん
19/10/21 10:35:25.87 VyV3rznyM.net
どんな奴?
ビッグデータ言うけど
中身的にはknnになってそうで怖い
どの程度未知データに対応できるのか知りたいのに
363:デフォルトの名無しさん (アウアウエー Sa7a-S3Tg [111.239.68.186])
19/10/21 13:31:47 qqa/WroJa.net
主成分分析は軸を決めて絞っているイメージ
オートエンコーダはなんとなく絞っているイメージ
364:デフォルトの名無しさん
19/10/22 10:09:07.31 lFIH7itId.net
ディープラーニングで星空を学習させて、星空の画像を生成させようとしたら
ノイズのような糞画像が生成されたというツイートです。
URLリンク(mobile.twitter.com)
どうしてこうなったの?
原因を調べようにも、ブラックボックスでわからないのでしょうか?
(deleted an unsolicited ad)
365:デフォルトの名無しさん
19/10/22 14:58:07.65 NFYmLoNWa.net
学習できてない
366:デフォルトの名無しさん
19/10/22 16:15:33.91 hH4hu+Bb0.net
ganでやってんでしょ
足りてない
367:デフォルトの名無しさん
19/10/22 19:14:07.07 9wtq+mx60.net
ガーン
368:デフォルトの名無しさん
19/10/22 19:16:27.86 5RVdJ+a80.net
読み方はギャンらしい
369:デフォルトの名無しさん
19/10/23 07:33:38.47 kl84VSvUr.net
>>360
星空全体の学習(dcgan?)はむりでないなかあ なにの特徴量をとらえたら良いのか分からない
星、山一つづつを学習して 何らかの方法で合成するとか
370:デフォルトの名無しさん
19/10/23 10:28:52.26 /wjqUoilM.net
やってみた系
Qiitaにありそう
何でこういうツイートをどや顔でするんだろう
高度なことをしているアピール?
実際は無知を晒してるだけなのに。。。
371:デフォルトの名無しさん
19/10/24 10:02:19.99 apIKxFyCM.net
>>366
やってみた系やQiitaの記事書くよりもツイートする方が楽だからだろう
372:デフォルトの名無しさん
19/10/24 10:22:21.30 ABhN6CSmF.net
所詮はバカッター
失敗や無恥を曝す方がリツイートも良いねも増える世界
アフィ厨と一緒でフォロワー増やす目的
相手にするとつけあがる
373:デフォルトの名無しさん
19/10/24 10:42:24.24 TZ+cyP5wr.net
アノテーション1日3000個
374:デフォルトの名無しさん
19/10/24 15:39:10.85 h4TZRS470.net
IT系は客の懐具合で予算が決まる
衰退する業界を客にしてると共倒れだ
375:デフォルトの名無しさん
19/10/24 19:06:51.87 k0n7Q/rX0.net
時代は量子コンピュータだ(棒)
376:デフォルトの名無しさん
19/10/24 20:18:37.50 mJmionkaM.net
まだまだ先じゃないの
377:デフォルトの名無しさん
19/10/24 23:33:33.42 MvRnXylv0.net
[ビ+]【IT】量子超越「ライト兄弟の業績に匹敵」 Googleが会見
スレリンク(bbynews板)
378:デフォルトの名無しさん
19/10/25 11:19:29.75 qkKvohBNa.net
>>366
既存の事例や良書の下位互換でしかなくても記事にまとめることで理解が深まる
別に君に見せるために書いているわけではないので興味がないなら黙って閉じればよい
「何でツイートするの?」とか言ってるだけ時間と労力の無駄だろう
379:デフォルトの名無しさん
19/10/25 14:02:38.91 lQl0zV4qM.net
何で公開すんの?
見て欲しいからでしょ?
注目を浴びたいんでしょ?
380:デフォルトの名無しさん
19/10/25 15:03:44.46 qkKvohBNa.net
何で公開したら駄目なの?
見なければいいだけでしょ?
注目しなければいいだけでしょ?
381:デフォルトの名無しさん
19/10/25 15:36:22.58 DCbb0Eu2r.net
VOTTを使ったアノテーションで
ver1では動くがver2で全然動かないなあ
タグの設定ができない
Win上で作業
exeファイルでインストールしたが、ソースからやった方がいいのかな
382:デフォルトの名無しさん
19/10/25 20:13:24.49 zctARNqM0.net
ヽ人人人人人人人人人人人人人人人�
383:m / ̄(S)~\ < > / / ∧ ∧\ \< 嫌なら見るな! 嫌なら見るな! > \ \( ゚Д,゚ ) / /< > \⌒ ⌒ / ノ Y´`Y´`Y´`Y´`Y´`Y´`Y´`Y´`Y´`Yヽ )_人_ ノ / / ∧_∧ ■□ ( )) ( ; )■□  ̄ ̄ヽ γ⌒ ⌒ヽ  ̄ ̄ノ ノ  ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄|
384:デフォルトの名無しさん
19/10/25 20:29:51.32 E+67pbC4a.net
むしろ自分からわざわざ見に行って「俺の気に入らないものを書くな!」と騒いでるんだよなあ
嫌なら見るな、以外の何物でもない
385:デフォルトの名無しさん
19/10/25 22:09:09.25 I8iFw1TGa.net
ならnoindexしといて
386:デフォルトの名無しさん
19/10/25 23:30:25.15 zY1ZO0SR0.net
チラシの裏に書け
387:デフォルトの名無しさん
19/10/25 23:35:26.50 Pxjdzyta0.net
>>375
アドバイスももらえてるようだし公開したメリットを享受してるっぽいが
何が気に入らないのかわからない
388:デフォルトの名無しさん
19/10/25 23:44:56.12 6CYskVcia.net
そもそもTwitterは個人のつぶやきに過ぎないしブログは単なる日記だ
別に君に有用な情報を与えることを目的としていないのに何勝手に期待しちゃってるんだろう
389:デフォルトの名無しさん
19/10/26 00:17:17.07 D9LzSwkGM.net
>>378
AVの撮影現場に乱入して「僕、童貞ですから早く服を着てください///」って真っ赤になる感じ
390:デフォルトの名無しさん (ワッチョイ 53da-roNU [60.47.117.90])
19/10/26 08:46:36 NR6i9qZO0.net
ここは便所の壁
391:デフォルトの名無しさん
19/10/26 10:04:19.57 sMyP0ohJ0.net
YouTubeでpvだと思って見たら
素人のカラオケだったときの失望に似ている
上手いなら感心してみるけど
ド下手が上げてんじゃねえよ、と
392:デフォルトの名無しさん
19/10/26 22:57:59.97 pDakV2RU0.net
tensorflowでmnistを99%くらい当てられるようになった程度だと
機械学習のお仕事の最底辺辺り?
仕事で機械学習ってどの程度の難易度か全然イメージつかない
393:デフォルトの名無しさん
19/10/26 23:06:22.63 uMeA1BUs0.net
ここは機械学習の最底辺どころか
知ったか素人のたまり場だから質問されたって答えられないよ
394:デフォルトの名無しさん
19/10/26 23:08:34.54 I3o5RH8v0.net
>>387
機械学習案件の未経験者の採用指標って、
マトモなところだと大学の学部と専攻、
SESのようなアホ営業が間に入る商流だとPythonの経験年数 みたいな感じ?
作業の大半は前処理とデータクレンジングだから後者でも間違いでは無いが
395:デフォルトの名無しさん
19/10/27 00:01:55.46 MrvuaP/Y0.net
>>387
mnistは簡単すぎてベンチマークにならない
その程度で十分なこともあるけど、データの素性を理解していないとどうしようもないこともある
396:デフォルトの名無しさん
19/10/27 00:08:01.21 N1OrUkzdr.net
>>387
tensorflowだと機械学習でなく深層学習だな
まあ自分でデータセット作ってそれから区別出来るように学習させました、というのが大事だな
397:デフォルトの名無しさん
19/10/27 03:00:05.93 yje76TNI0.net
>>387
未経験で機械学習の仕事掴みたいならkaggleで結果出してアピるのが早いんじゃないか
早いつっても一朝一夕じゃいかないけどな
色んな機械学習のタスク解いてみ
あと勉強して理解したことを客観的な指標とともにちゃんと表現するといい
398:デフォルトの名無しさん (アウアウウー Sa97-G9/M [106.154.130.173])
19/10/27 06:50:07 Qb9Ns76Ya.net
>>387
チュートリアル完了
399:デフォルトの名無しさん
19/10/27 10:23:08.48 Sdc+cFVla.net
mnistを高精度で当てるモデルができたとしてもネット上の他人の知識を寄せ集めただけで理屈はよく分かっていないのか、
何らかの根拠に基づくモデリングを行って精度が上がった(=高精度の理由を自分で数学的に説明できる)のかで全く異なる
前者であればそんな人間は山ほどいるので何の自慢にもならない
400:デフォルトの名無しさん
19/10/27 11:06:47.77 a+EgGKKD0.net
>>387
就職することを考えているなら知識の移り変わりが少なくて派遣が蔓延してなくて年寄りが居るところにした方がいいだろう
中国の殺し屋が下請けを雇って5次請けまで行って3000万の案件が末端で150万になり
「150万で殺しなくない」ってことで死んだフリした写真を送って終わらせようとしたニュースが出てて
それ日本のIT業界じゃねーか!突っ込まれてたけど
こんな構造が当たり前になっているところもちょっと
401:デフォルトの名無しさん
19/10/27 11:49:41.57 /g1/9V530.net
mnistはもうこれ以上あげても過学習でしかないだろう。
あれ、人間も判別不可な数字もまじっているし、
あえて業務で使うなら「判別不可」を割り当てるのが正しいデータが結構ある。
402:デフォルトの名無しさん
19/10/27 20:36:55.06 hG9pDBcOM.net
発注元の社内における地位によって、そこらへんの閾値の調整が違うんだよなあ
発注元が閾値に対して責任を負っている人だと、閾値を調整する機能を持たないシステムの方が好まれる
実務経験がある人にしかわからんだろうけど
403:デフォルトの名無しさん
19/10/27 21:53:53.97 qLlRYvp1M.net
将来この分野の仕事したかったら、ゼロからはじめるのフルスクラッチの内容理解するのって意味あるのかな
そんなことに時間使うならテンソルフローとか使ってモデルを多く作った方がためになるのか…
404:デフォルトの名無しさん
19/10/27 22:04:32.89 hG9pDBcOM.net
ゼロから作る方がためになる。あなたの年齢にもよるけど
kerasのいま使われている関数は、量子コンピュータですべて吹き飛ぶから
405:デフォルトの名無しさん
19/10/27 22:37:18.84 MrvuaP/Y0.net
>>399
適当なことは言わんほうがいい
406:デフォルトの名無しさん
19/10/27 22:44:11.08 i58DI1ra0.net
>>399
ゼロから読んだけれどもpythonが量子コンピュータを扱えなければ仕組みを解っていてもキツいっしょ
407:デフォルトの名無しさん
19/10/27 22:52:02.49 /g1/9V530.net
>>398
意味はあるがあれはソースコードがヘンテコな副作用を仮定したつくりになってて好きじゃない。
408:デフォルトの名無しさん
19/10/27 22:53:54.48 /g1/9V530.net
>>397
くだらん社内政治によってデバッグしずらくなるパターンだな。
あんまりそういうところから機械学習の仕事はしたくねーわ。
409:デフォルトの名無しさん
19/10/28 00:25:42.82 3pZ+EtQea.net
ゼロから始めるなんて集中すれば1週間かそこらで終わるんだからtensorflowもどっちもやればいい
所詮は超初心者向けの入門なんだから
410:デフォルトの名無しさん
19/10/28 02:12:02.65 pZrpoGAC0.net
逆に初心者向けでない機械学習を扱ってる本って何か知っていたら教えて欲しい
中級以上、実務レベルって言っても差し支えないやつ
わりと超初心者or初心者を対象にした本が多い気がする
本でなかったら、サイトとかでも
411:デフォルトの名無しさん (ワッチョイ 337c-uGyE [14.193.216.182])
19/10/28 04:23:48 IQZT4uzj0.net
DLフレームワーク操るのどこまで突き詰めりゃいんだろ
なんか水ものの知識に思えるんだよな
とはいえ定番は定着してきてるか
他に覚えなきゃいけないこともたくさんあるし
412:デフォルトの名無しさん (ワッチョイ bf94-CpIv [115.37.31.209])
19/10/28 06:09:29 GLbWfyQf0.net
PRML
413:デフォルトの名無しさん
19/10/28 14:24:55.48 y+5NzS6or.net
>>377
自己解決
タグを入力してからenterを押してタグ名確定
これだけw
414:デフォルトの名無しさん
19/10/28 14:40:54.62 /femDpxA0.net
>>400
いや、さすがに量子コンピューターうんぬんはもののたとえだけど
勾配ブースティングが出てきて業務が変わったように
ツールの知識は流行り廃りが激しいから、深いところで知識や技術を蓄えないと
エンジニアとして時代に押し流される
415:デフォルトの名無しさん
19/10/28 17:41:38.53 W1nk1vcAM.net
>>405
理論の中級レベル以上書籍ならPRMLとかカステラ本があるだろうけど、
実務に沿ったMLノウハウを凝縮した本ってまだ出版されてないんじゃないか
コードレベルのものならkaggle漁ればあるだろうけど
416:デフォルトの名無しさん
19/10/28 18:35:22.41 DGKmppp60.net
それこそレビュー論文でよくね
417:デフォルトの名無しさん
19/10/29 14:12:21.90 2H6Dj4B4a.net
>>405
機械学習に限らず中級以上の本、サイトは需要が少ないので発表されることが少ない。
あえて言えば、マニュアルが中級向け、論文が上級向け
ただし論文はうそも多い
418:デフォルトの名無しさん
19/10/29 16:21:48.30 kXn8AUyn0.net
うそ おおげさ まぎらわしい
論文撤回数ランキング上位10名のうち半分が日本人
419:デフォルトの名無しさん
19/10/29 18:36:46.47 KCHCOTCfM.net
実務をどれだけやったかじゃね?
420:デフォルトの名無しさん
19/10/29 21:20:41.60 DOUedQO9a.net
>>405
実務レベルの機械学習の知識なんて企業秘密だらけなので公開されるわけがない
421:デフォルトの名無しさん
19/10/29 22:14:12.17 32UpIEvm0.net
知識って言語モデルで良いの?
422:デフォルトの名無しさん
19/10/29 22:18:26.97 kXn8AUyn0.net
>>416
やること次第っそ
ひとくちに「ターゲットは言語だ!」といっても、
1バイト分かち書き文法カチカチの場合と
2バイト文法なにそれおいしいのカオスの場合では
必要な知識の量が全く違ってくる品・・・
423:デフォルトの名無しさん
19/10/29 22:18:44.23 dJZjQrr+0.net
さすがにそろそろ機械学習でなんとかするみたいな馬鹿案件はなくなってくるだろうな。
それくらい焼き畑したと思うよ。
424:デフォルトの名無しさん
19/10/30 13:37:41.45 ffNJYAeVp.net
そうだ!星空(ランダムドット)を学習させれば星空(ランダムドット)が生成されるんじゃないか!?
425:デフォルトの名無しさん
19/10/30 13:56:23.63 GWmaMiFl0.net
>>419
やめてさしあげろwwwww
426:デフォルトの名無しさん
19/10/30 17:13:08.55 3aN27z+Ma.net
>>404
chainerもpytorchもやれ。
427:デフォルトの名無しさん
19/10/30 17:26:33.89 DV87KhQta.net
ランダムドットを入力して星空に変換出来たら面白そうだなあ
428:デフォルトの名無しさん
19/10/30 18:57:53.97 OxfqAVssM.net
単一画像からのスタイルganみたいなやつが
まさにコピペ自動機だった
429:デフォルトの名無しさん
19/10/31 11:13:06.25 JglnROWD0.net
>>422
星空は、まったくランダムじゃなくて
けっこうな粗密のむらっけ&見た目の大小(明るいくらい)があるから、
テキトーに1dotの点々を何個かうってもらった画像を初期値として
そこから準備しておいた数式でごにょごにょーごにょーして
適度に粗密と大小をつけた星空ふいんきの画像を出す。
っていうのつくったら、
カネにはならんだろうが
やったったです!デモにはいいだろうな。
機械学習は、
全天サーベイの写真あたりをインプットにして、
「初期値からいいかんじにごにょってくれる数式」を製作するところに使ってくれ。
430:デフォルトの名無しさん
19/11/01 16:25:10.67 GsymoNAsM.net
却下
431:デフォルトの名無しさん
19/11/01 16:29:45.45 4VV6x0MuF.net
星団
星雲
天の川
あたりをだしたければ重力シミュレーションも必要
432:デフォルトの名無しさん
19/11/01 17:28:42.59 qSHo2rpn0.net
>>426
うーんどうだろう?
天の川を0から現在まで作るには、
「2400億粒くらいの星を撒いて重力シミュレーション」らしいけど
星空っぽい柄を生成しちゃるぞー
程度だったら
天の川銀河(銀河系)のざっくり図・・・星がある確率の地図を作っておいて
あとは地球のどこからみると、どっちがどんだけみえるー
くらいのデータがあれば
ええんでないのかなー
入力も、
dotをいくつか打ってもらうんじゃなくって
メルカトル図的な真っ黒四角の中に、
どこか1点でいいような。
季節とか時刻はめんどうだから春分の夜@ロンドン固定とかで。
星団・星雲はトッピング的なもんで、
肉眼でもわかるぞー!っていうのはマジ数少ないから、
「星空柄の壁紙つくっちゃる」くらいだったら
とりまホーチでおk。
どーしてものせたいのなら、確率地図に大小マゼラン雲くらいは書き足しておk。
433:デフォルトの名無しさん
19/11/04 09:14:43.57 cAnKAoHq0.net
カブリ数物宇宙研、宇宙の複雑な3次元シミュレーションをAI技術で効率化 日米加 共同研究
URLリンク(www.ipmu.jp)
>宇宙の構造形成過程を瞬時に模倣できる深層学習モデルの作成に成功
>宇宙の始まりの初期条件を復元することも不可能ではない
434:デフォルトの名無しさん
19/11/04 14:20:31.61 6UHCWlqh0.net
嘘臭い
435:デフォルトの名無しさん
19/11/04 17:51:30.22 WRpKwFsh0.net
この論文通ったのは奇跡だと思う
中身なさすぎ
436:デフォルトの名無しさん
19/11/04 18:20:52.91 PQlPE2ZKa.net
>>416
BART?
437:デフォルトの名無しさん
19/11/04 19:05:13.23 F/trr2gA0.net
修士論文で2次元アニメ画像の顔をたくさん読み込ませて
平均顔みたいなのをAIで自動生成するみたいな課題を割り振られたんですが
何から手を付けていいか分かりません
まず顔認識の場合ラスター画像そのままよりもベクター画像に変換したほうがよさそう
(とくにアニメ画像の場合髪色がまちまちぃだったりするので)
と思うんですが詳しい方いませんか?
その場合顔の画像を与えると境界情報をベクトル化して抽出してくれるようなライブラリってないでしょうか
髪型を特徴量として表すのはかなり難しいとおもってるので
まずは顔全体の外接円、あごからほおの輪郭、目の位置、鼻の位置 あたりをベクトル化して
大量画像をディープラーニングで流し込んで顔データを自動生成して
髪型だけは既存のものを適当にあてはめて可愛い画像ができました
あたりをおとしどころで論文にしようかなとおもってます
機械学習は大学の講義レベルの知識しかないので
それじゃあだめだろとか改良点とかあったら
みなさまのプロのご意見をおききしたいです
438:デフォルトの名無しさん
19/11/04 19:57:54.46 b7XfuRK5a.net
「平均顔みたいなの」というのがよく分からないが、あなたの考えるベクター画像に変換するメリットをもっとkwsk
439:デフォルトの名無しさん
19/11/04 20:10:24.80 l8jF+acj0.net
>>432
ラスタをベクタにしてやんよ!系ソフトは
それだけで高額販売されてるレベル
440:デフォルトの名無しさん
19/11/04 21:00:39.11 F/trr2gA0.net
>>433
かわいいとおもった画像の特徴を平均化すれば
万人受けするもっとかわいい画像が作れるんじゃないかっておもってますが
そこは別に商業じゃないので結果うまく行きましたでも修論レベルなら十分かなとおもってます
あとラスターだとかなり周辺広く見ないとどこの部分なのか認識するのが難しいから
特徴量が多くなりすぎてかなり深いニューラルネット組まないと
そもそも顔として認識するのが難しいんじゃないかっていう印象です
見当外れだったらすみません
>>434
そうなんですね
リアルの写真は難しそうですが
2次元アニメ画像ぐらいなら境界周出するのってそんな難しくないかなと
なんとなくおもってました
そこがすでにすでに難しいなら
大量の画像の顔部分だけ手動で輪郭や目とかをトレスして
そのペンのストロークを座標に記録してベクトル化するようなプログラムを作ってから
そのベクトルに対してディープラーニングを行ったほうが良さそうですね
アドバイスありがとうございます
441:デフォルトの名無しさん
19/11/04 21:34:46.65 l8jF+acj0.net
>>435うえはんぶん
('A`) おう べんきょうもっとがんばれよ
>まんなからへん
ラスタ画像っつか写真の顔認識は、ぐっぐるが結構昔から販売してるぞ。
それとはたぶん独立に、
近頃のプリクラマシンの
デブスだって日本人受けしやすくカワイい方へガツンと盛ってくれる補正技術はすごいから、
カワイイをきわめるつもりなら、
勉強する価値があるとおもう。
>したからにばんめ
二次元はいわゆる人外カラーの髪や瞳の色が壁になると思う
まぁがんがれ
>いちばんした
機械学習くんを調教できるほど手を動かすなら
努力したで賞で修士・・・でるのか・・・・・・?
理学じゃ努力しまくってても失敗データじゃ修士でないんだが。
442:デフォルトの名無しさん
19/11/05 02:25:13.35 WGM3y/GM0.net
>>436
販売なんですね
有名なんだったら普通に研究室で買ってそうなのできいてみます
>プリクラマシンの補正技術
調べてみます!
> 二次元はいわゆる人外カラーの髪や瞳の色が壁
そうなんですよね
3次元用の顔認識アルゴリズムをそのままラスター画像に適用して
うまく肌以外の色相自由度を認識してグループ化してくれるか分からないです
いろいろアドバイスありがとうございます!
443:デフォルトの名無しさん
19/11/05 06:41:44.76 KG
444:QwTe220.net
445:デフォルトの名無しさん
19/11/05 08:08:18.32 wNX9eMw00.net
修士なんて何やっても貰えるよ
お前大学院行ってないだろ
446:デフォルトの名無しさん (アウアウクー MM2b-6BDJ [36.11.224.202])
19/11/05 09:53:29 1ygLA3K6M.net
機械学習を就職に使うなら、修士論文がんばらないといいところ行けないぞ(哀しい目)
論文適当にすませてKaggleがんばってもいい気がするけど
447:デフォルトの名無しさん
19/11/05 12:17:34.32 GVd5q/rua.net
就活段階で修論の全体像なんて全然見えていないだろうからなんとなく立派そうなテーマとそれっぽく説明できる話術があればOK
448:デフォルトの名無しさん
19/11/05 12:41:52.10 fvi/VFnh0.net
修論レベルでちゃんとした成果を出すのは不可能に近い
何かをやったということにしかならない
研究で成果を出すことはものすごく大変
449:デフォルトの名無しさん
19/11/05 13:23:27.49 1ygLA3K6M.net
それで充分さ。立派だよ。まぶい
450:デフォルトの名無しさん
19/11/05 16:10:59.42 mbkTm92O0.net
>>432
宿題は宿題スレで
451:デフォルトの名無しさん
19/11/05 17:32:52.03 4ZvLZxny0.net
>>437
どこの研究室でもライセンス買っつるであろう、Officeみたいなものじゃない件。
しっかりパッケージされて売ってるわけではないぞw > 顔認識システム
>色相自由度を認識
人外カラーの髪や瞳だけじゃなく、
スキンカラー問題だの、
いわゆる色トレス線を境界だと誤認識するだの、ありそうだぞ。
インターネッツに、日本語で、
自分で顔写真を顔写真だと認識するプログラム組んだったw
↓
黄色人種以外に非対応な人種差別っぷりよ…(´・ω・`)
↓
改良したった!
っていう話をのっけてくれてるブログが転がってるはずだから
がんばってしらべろ。
二次元絵じゃないほうの、
リアル写真からの顔認識については、
おさえておくべき特徴点とか、
年齢・性別・人種を分類するためのポイントとかまでもう研究されてるから、
そっちをしっかり勉強してから、
二次元に挑んだ方がいいのかもわからん。
あー
続きは宿題スレを占拠されても困るんで
指導教員なり同様の課題をやってる先輩にききんしゃー
452:デフォルトの名無しさん
19/11/05 17:43:51.24 4ZvLZxny0.net
>>439
なにやってても押し出し(追い出し)てもらえるなんざ、
戦前から平成一杯くらいまで続いてた研究室(たぶん200人以上卒業生がいる)の中でも
1名しかいないレベルの
特大ハズレ大馬鹿うんこ野郎だけの特権だw
>>442
そんなに枯れちゃってるのこの業界?
おれは正直いって結構オワコンな分野の所属だったけど
学部で配属後最初の1か月分のデータでレター書いて、
学部の残りのデータあわせて1報書いて、
修士で全く違うジャンルだけどやっぱもう廃れてきてる分野に引っ越して
1から?勉強しなおしになったけど、
(こっちはハゲタカとまではいかないがまずまずのマニアック誌にしか載らなかったが)1報書けたぞ・・・
博士過程のことと、某大職員時代については・・・きくなよwwwだけど。。。
453:デフォルトの名無しさん
19/11/05 17:56:57.62 D3X6JyYoF.net
新規性はともかく有用性はなあ
大抵有用性はほとんどないに等しい
454:デフォルトの名無しさん
19/11/05 18:16:33.73 4ZvLZxny0.net
>>447
それは、いえてる。
455:デフォルトの名無しさん
19/11/05 19:16:48.26 4ZvLZxny0.net
>>438
今wikiで読んだったら
調教開始前の
生写真に求
456:められる要件がすっげ厳しいのなw
457:デフォルトの名無しさん
19/11/05 21:48:30.86 FS2CN9rWM.net
C言語で画像処理してる会社をクビになって
(その会社に入社する時に、面接官にいわれた方便程度の優しい嘘がささって
バタフライ効果で周りの人間にさっさと会社を辞めた方がいいと諭されまくった挙句、
心が棒人間になって仕事を続けられなくなった。人間関係の板挟みって複雑。。。)
Kaggleちょっとやって、メダル獲れなかったけどいい線いったから
元から行きたかった自然言語処理の方面へ応募してみようかな~みたいな感じでフラフラしてるんだが
自然言語処理に行きたい!とこっちがいくらいっても、逆求人で画像処理の奴ばっか来るのな。くるなー、くるなー!
やっぱ画像処理の方が簡単に就職できるのかな。それともOpenCVを独学でやっちまったからか
458:デフォルトの名無しさん
19/11/05 21:53:10.42 4ZvLZxny0.net
>>450
しぜんげんごが不自由ですな。
マ板向けだろその話題は。
459:デフォルトの名無しさん
19/11/05 21:53:50.28 FS2CN9rWM.net
>>451
板違い? すまん、感情のほとばしりがやばかったわ
460:デフォルトの名無しさん
19/11/05 22:16:09.83 S4fXfghv0.net
>>432
pcaとかautoencoderとか使えるかも
あとはパーツ毎に学習して
パーツ毎に生成したものを組み合わせるとか
パーツの位置、配置や大きさでも変わってくるだろう
可愛いキャラは目の位置が上下中央辺りとか
目の大きさが顔に占める割合が大きいとか
461:デフォルトの名無しさん
19/11/06 00:05:37.17 ggnsGnq2H.net
>>450
実績ない分野で中途って基本ないだろう
画像とNLP両方やってるとこに画像と抱き合わせでNLPやらせてくれって交渉したら
それでもやらせてくれる確証なんてないけど
462:デフォルトの名無しさん
19/11/06 00:32:15.90 YRVde36bM.net
>>454
だな。別にNLPに固執してるわけでもないんだがアプリでも作るわ
次は失敗しないように頑張ろう
463:デフォルトの名無しさん
19/11/06 10:20:15.66 q549CorC0.net
Google AutoMLをKaggleの350万人のデータサイエンティストに提供
URLリンク(cloud.google.com)
こうなってくるともうなんかつまんなくない?
464:デフォルトの名無しさん
19/11/06 10:43:11.86 dKEXVk/h0.net
仕事としてはシステム導入のノウハウが一番大事だから残るけど
機械学習の仕事は消えていく運命
465:デフォルトの名無しさん
19/11/06 12:10:55.21 WNCFxxLWa.net
>>456
AutoMLで自動化できてしまう程度のことに労力使わず人間でなければ(現段階では)できない高度なことに集中しろというだけのこと
むしろつまらない仕事を減らしてくれているんだから感謝しかない
466:デフォルトの名無しさん
19/11/06 13:59:14.13 Zqmg2IVoF.net
能力のめちゃくちゃ高いエンジニア以外は淘汰されていくんだな
クラスわけ問題を解いているだけの会社は危うそう
467:デフォルトの名無しさん
19/11/06 16:41:33.50 q549CorC0.net
次、どこに行こうかね。。。
468:デフォルトの名無しさん
19/11/07 18:39:39.86 KASF5ywG0.net
人間が現場作業をしつつアノテーションが同時に出来る(撮影しておいて、
右手を伸ばして目標物体を掴んだ時に左手で数値などを入れてラベリングする)機械を作れば
色んな作業がどんどん自動化されるのかなあ
469:デフォルトの名無しさん
19/11/07 19
470::19:45.16 ID:i5KqlsP00.net
471:デフォルトの名無しさん
19/11/07 23:42:34.21 TJTG2zyAM.net
そのうち撮影とアノテーションだけの会社ができるってみんな言ってる
誰も設立したがらないだけで
472:デフォルトの名無しさん
19/11/07 23:45:17.24 TJTG2zyAM.net
ネットで調べたらもうあった。時がたつのって早い…
473:デフォルトの名無しさん
19/11/08 00:48:20.76 WgiyDGhsa.net
「未経験の貴方もAI業界で大活躍!」とか言って募集してひたすらアノテーションさせるんだろうな
474:デフォルトの名無しさん
19/11/08 01:46:15.47 2zKKI3uDM.net
いや、もっと普通の人を集めるんじゃない?
「接客不要。デスクワーク。画像データのラベリング」みたいな求人
接客したくないフリーターが世の中いっぱいいるから人手に困ることはないと思う
475:デフォルトの名無しさん
19/11/08 07:13:35.28 LWIqGPHS0.net
>>466
クラウドソーシングじゃね
476:デフォルトの名無しさん
19/11/08 11:40:21.46 3E1/z7K0F.net
>>461-462
これは今後どうなるかな
URLリンク(www3.nhk.or.jp)
URLリンク(www.okinawatimes.co.jp)
477:デフォルトの名無しさん
19/11/08 12:20:26.44 xgevcE5G0.net
>>466
中国で貧民がそれやらされてるらしいな
478:デフォルトの名無しさん
19/11/08 16:58:00.80 HH11ynhJ0.net
>>468
撮影地点の座標と、三脚の高さがしっかりきっぱり分かってれば
写真は平面なんだから
自動で空と建物の境界を認識させて
外枠の3D座標起こすくらいは、
いまどきスッとできるんじゃね?
479:デフォルトの名無しさん
19/11/08 17:14:11.10 HpQs1W/gM.net
できるね
480:デフォルトの名無しさん
19/11/08 17:32:33.66 LJWzZTdr0.net
HoloGAN?
481:デフォルトの名無しさん
19/11/08 17:33:27.04 klpf5FSXa.net
古典的なエピポーラ幾何の問題に機械学習要素を入れる必要はない
482:デフォルトの名無しさん
19/11/08 17:56:01.28 HpQs1W/gM.net
金谷センセだな
483:デフォルトの名無しさん
19/11/08 19:07:52.56 CSR+2ZkJa.net
>>470
撮影地点の座標と三脚の高さがしっかりきっぱり分かってないからスッとできないんじゃね?
484:デフォルトの名無しさん
19/11/09 01:19:19.56 dqtY4XvXd.net
URLリンク(news.yahoo.co.jp)
485:デフォルトの名無しさん
19/11/09 03:14:02.31 ieexeq/b0.net
URLリンク(headlines.yahoo.co.jp)
486:デフォルトの名無しさん
19/11/09 07:23:02.53 R+fonfJU0.net
歩道を歩いてない奴が事故っただけじゃん
無罪
487:デフォルトの名無しさん
19/11/09 09:12:53.22 TBchCo8fa.net
素人でも予見できる例外を考慮してないとかカス設計だな
488:デフォルトの名無しさん
19/11/09 10:10:53.93 u5+ga7gca.net
>ウーバー車のAIは車道に歩行者がいることをそもそも想定していなかった
小学生が作ったのか?
489:というレベルだな
490:デフォルトの名無しさん
19/11/09 10:28:42.03 ZM4bFDeE0.net
AI技術者ってマジで急激に増えたな
それも大学で体系的に教育されてきたやつが。
まぁ三年もあれば修士くらい量産できるしな
491:デフォルトの名無しさん
19/11/09 12:40:04.35 ibGxAFOpd.net
>>478
普通なら車側が100%悪いと判決される
492:デフォルトの名無しさん
19/11/09 15:06:51.67 QVHxqxkCa.net
人が100%悪くても、それが理由でひいていいわけではない
飛び出してきたときは多少考慮されるようだが
それでも車が無罪にはならない
493:デフォルトの名無しさん
19/11/09 15:11:10.81 06f/2UDZ0.net
>>481
そして
かつてのバイオテクノロジーバブルと同じように
ピペド(ピペッティング奴隷)ならぬ
機械学習設置するだけの奴隷があふれかえるところまでがセット。
494:デフォルトの名無しさん
19/11/09 15:15:32.65 BmJjM1vIM.net
もうAI土方は居るんじゃね
495:デフォルトの名無しさん
19/11/09 15:25:20.12 06f/2UDZ0.net
AI土方→(たぶん)最低賃金は守られてるんだろう
AI奴隷→サビ残だらけで実質時給は違法なのが当たり前
496:デフォルトの名無しさん
19/11/09 16:06:33.78 ZM4bFDeE0.net
必要精度に到達できるかどうかのリスクを請負で抱え込んじゃってる会社もあるらしい。
開発のリスク背負うんだったら販売契約だろ
497:デフォルトの名無しさん
19/11/09 16:30:27.99 dihGWiYo0.net
>>487
その条件で請け負っている時点でAI技術なさげ
でも、客も解ってなさそうだから、過学習させたインチキ精度で逃げるか?
498:デフォルトの名無しさん
19/11/09 17:11:58.21 u+nAgAfJM.net
インチキ精度で逃げる。でもそういう仕事は黒か白かではないから、あながちインチキとも呼べない
たとえば、もともと人間がやっても精度が出ていなかった仕事で
建前上だけ検査しているという話にして、その仕事に関わっているひと皆がおかしいとは思ってるけど
仕事が回らないから誰も何もいわない~みたいな仕事が世の中にはいっぱいある
そういう仕事を機械に置き換えるような場合、名目上の目標の精度がでなくても
前の精度を実質上回っていれば迷わず開発するでしょ
発注元も、精度が目標を下回っていたところで、見て見ぬフリをする
499:デフォルトの名無しさん
19/11/09 17:21:43.78 u+nAgAfJM.net
後そういう会社はAI技術はなくても
ほかの技術をしっかりもってるからエンジニアとしてはむしろ一般より格上
500:デフォルトの名無しさん
19/11/09 18:37:54.55 PlRJlzfP0.net
>>487
自分のところの事業の成功率の予測モデルでも学習してろよと思うわなw
501:デフォルトの名無しさん
19/11/09 20:05:44.35 R+fonfJU0.net
>>476
AIは警告出してた
警告を無視した人間のせいじゃん
502:デフォルトの名無しさん
19/11/09 20:48:42.09 u+nAgAfJM.net
てか機械学習だけしかできない会社ってよほどでないとこれからは厳しいな
別のフィールドに専門を持つ会社の方が残りやすそう
503:デフォルトの名無しさん
19/11/09 21:12:41.54 PlRJlzfP0.net
>衝突0.2秒前になって減速が始まると同時に、ドライバーのバスケス氏に警報で危険を知らせる。
これで対応できるわけねーだろ。
504:デフォルトの名無しさん
19/11/09 21:31:22.85 u+nAgAfJM.net
今さら警報なんて鳴らさないでくれって感じだな
505:デフォルトの名無しさん
19/11/09 21:38:40.63 1ZolsRQG0.net
>>489
その場合は人件費より安く前と同程度の結果が出せれば依頼者側としては大きな問題ではないかもしれない
506:デフォルトの名無しさん
19/11/09 21:40:04.01 R+fonfJU0.net
飛び出しで急ブレーキなんて一瞬の判断だよ
0.2秒で判断できないならAI以下じゃん
507:デフォルトの名無しさん
19/11/09 21:40:09.82 1ZolsRQG0.net
>>491
データを得られないんじゃね?
508:デフォルトの名無しさん
19/11/09 21:41:20.60 1ZolsRQG0.net
>>493
AIは手段だよな
509:デフォルトの名無しさん
19/11/09 21:44:56.26 PlRJlzfP0.net
普通に運転してるならともかくとにかく乗せられていざという時なんとかしろって
できるわけねーだろ。
こんなもん責任かぶせるためだけに乗せてるだけってのがミエミエで気分悪くなるわ。
510:デフォルトの名無しさん
19/11/09 21:50:16.84 u+nAgAfJM.net
>>496
そそ。俺の前にいた会社なんて
C言語で画像処理やってたんだけど、電機や半導体などの簡単な仕事ばかり請け負って、その道の専門という体裁で仕事を集めてたんだ
全部なんでもやれますというより、これがうちの強味って売り出し方した方が強い
千葉はそういう会社がいっぱいある。中小企業が多いからじゃん
511:デフォルトの名無しさん
19/11/09 21:52:56.76 u+nAgAfJM.net
だから機械学習なのにプログラマーの人件費は超安い
まさしく土方
512:デフォルトの名無しさん
19/11/09 22:15:57.44 LDMrdFKy0.net
ある日はkeras
別の日にはchainer
そして頭大混乱
513:デフォルトの名無しさん
19/11/09 23:58:20.65 ieexeq/b0.net
>>492
???
日本の法律として100%車側のNGな案件。
AIが悪いとかではない。
514:デフォルトの名無しさん
19/11/10 00:02:08.22 j8ULpgDb0.net
まあ、前からこの話は問題になると予想された案件。
一度AI設計者の責任にはならないという法律はできたが、それを導入した設計者に責任があるかはまだ結論は出てない
515:デフォルトの名無しさん
19/11/10 00:10:11.95 j8ULpgDb0.net
機械学習はあくまで目的解決手段の一つに過ぎない。
最近、AI専門の学科が増加してるが、それをメインにしては飯食えなくなる気がする。
516:デフォルトの名無しさん
19/11/10 01:37:00.28 eARvZr/10.net
ついにバブルが完全に弾ける要素が出たなあ
まあこれから地に足ついた現実的な路線に戻るだろなあ
普通にまずは業務プロセスを改善するということに使って欲しい
それ以上のことはあまりにも現実的ではない
517:デフォルトの名無しさん
19/11/10 02:20:34.83 j8ULpgDb0.net
URLリンク(qiita.com)
518:デフォルトの名無しさん (ワッチョイ bfda-TAVf [223.217.165.240])
19/11/10 03:52:17 j8ULpgDb0.net
>>476への1つの打開策としてAI保険基金でも作るしかないかなー。
AI車が事故った場合、AI車の管理者が責任を有する。そのときのお金はAI保険に入っていれば保険やさんが出す。
そもそもの事故回避の問題点は消えないままだが。。
519:デフォルトの名無しさん
19/11/10 07:45:50.09 odpzTgCKM.net
つぎ量子コンピューターが出てくるとどうなるか分からないけど
520:デフォルトの名無しさん
19/11/10 08:55:44.53 vAvO6oJv0.net
>>476
自転車を押している人
を、危険なものと認識できなかったって事か
URLリンク(www.kunihikokaneko.com)
こんなもんの分類は出来るのに、夜中だったから無理だったって事かなあ
521:デフォルトの名無しさん
19/11/10 09:15:41.41 vAvO6oJv0.net
>>508
これ以外に、株やFXの相場のろうそくチャートから
次に上がるか下がるかを90%以上の確率で予測できた
なんてのもあるねえ
更にどこぞの高速コンピュータがそれを上回る精度で予測し
しかも1秒に100万回の売買可能!なんて言ってやがるw
実際には証券取引所の方で制限が掛かりそうだな
(0.01%の利益率しか無くても、取引手数料を考慮しないなら
1秒で1万倍以上に軽くなるわけだ(実際には大赤字))
522:デフォルトの名無しさん
19/11/10 09:59:21.42 rtaa2JF9a.net
>>509
保険料決めるには保険屋にソース�
523:Rードや学習に使ったデータなど、基本的にAIの全てを公開しなければならないな
524:デフォルトの名無しさん
19/11/10 10:20:19.78 +OI0AxiYa.net
>>509
事故は分からんが精度に対する保険はある
URLリンク(www.nikkei.com)
525:デフォルトの名無しさん
19/11/10 11:57:56.59 C4cvR5cE0.net
URLリンク(ja.m.wikipedia.org)
松尾豊の弟子かよ(笑)
526:デフォルトの名無しさん
19/11/10 12:23:39.77 i7RQ4O9k0.net
松尾研は変なやつが集まりすぎだよ
yentaでも松尾研のやつ見たぞ
527:デフォルトの名無しさん
19/11/10 13:11:20.89 /B2ESouKa.net
松尾先生で思い出したけど
「G検定を機械に解かせてみた」で合格したらそれは合格と認められるのかね?
528:デフォルトの名無しさん
19/11/10 13:37:21.47 uUiSn9Z5a.net
そもそもG検定なんて文章の読み取り能力を問うような国語の試験になってしまっているので
あんなの合格しても「素人でもわかるAI」系の本の内容を理解している程度の評価にしかならない
E資格ならまだマシだけどそれでも費用が高すぎるので、勤務先が全額出してくれるなら取ってもいいんじゃね?というレベル
529:デフォルトの名無しさん
19/11/10 13:46:32.18 j8ULpgDb0.net
松尾てだれだよ
530:デフォルトの名無しさん
19/11/10 14:35:24.56 eARvZr/10.net
松尾研出身の人でまともに論文とか出して人いる?
531:デフォルトの名無しさん
19/11/10 14:46:59.67 5evIiogq0.net
学習モデル考えたりしてバリバリの研究するより、松尾のような既存の技術を社会に導入する方法を提案する方が金になるだろうな
532:デフォルトの名無しさん
19/11/10 15:08:09.90 j8ULpgDb0.net
データなんちゃらりすとになりたいなんて言ってないで素朴に専門学科の勉強をしっかりやりましょう。機械学習はあくまで複数ある問題解決手段の一つに過ぎない。企業側はそのうち見切りつきますから。
533:デフォルトの名無しさん
19/11/10 15:49:21.14 iNYMutj60.net
>>511
静止しているから衝突しないとそのモデルは判断していたんじゃね?
本当は静止していなかったから認識ミス、識別ミスだな
ドライバーが動画を見ずに前を見ていたら停止できたと思う
ドライバーの契約がどうなっていたかわからないけど
事故を予防する役割もあったとしたらアメリカなら訴えるだろうな
あくまでも事後処理の役割しかなかったのかな
534:デフォルトの名無しさん
19/11/10 16:08:28.16 iNYMutj60.net
>>513
事故の確率とかがわかれば保険料率とか決められるんじゃないの?
病気とかその発生メカニズムとかを説明できなくても保険はあるし
535:デフォルトの名無しさん
19/11/10 16:31:30.69 j8ULpgDb0.net
死亡者を出すか出さないかは社会的に大きな差を持つ。
死亡者が出た以上、確率云々の話にならない可能性がある。
536:デフォルトの名無しさん
19/11/10 16:48:45.66 j8ULpgDb0.net
小さなお子さまを轢いてしまいました、なんて前例作ったら一気に手を引かなければならない状況になるでしょうね
537:デフォルトの名無しさん
19/11/10 17:14:27.32 iNYMutj60.net
>>525
人間が車を運転しても死亡事故は発生する
自動運転の方が死亡事故率が低い事が分かったら
自動車保険で自動運転の場合の保険料が安くなるだろう
社会的な影響は理解できる
だから実証実験のドライバーが動画を見ていて良かったのかが疑問
538:デフォルトの名無しさん
19/11/10 17:22:52.75 j8ULpgDb0.net
保険も思い付きで上げた事例。
実際にそれですむかは知らん
539:デフォルトの名無しさん
19/11/10 17:58:05.20 si2lOYY4a.net
自分が自動運転アルゴリズムの開発責任者なら何があっても全責任をユーザー(とユーザーが契約した保険会社)が負う条件でないと販売できないな
何故ならバグ皆無のプログラムなど存在しないのだからそれを了解した上で使えよとしか考えられない
で、そんな条件で自動運転車を使おうとする人がいるのかどうか
540:デフォルトの名無しさん
19/11/10 17:59:45.60 FBzaMbQQM.net
機械学習の仕事はなくならないどころか増えてるけどな
だから人が増えても単価落ちてない
541:デフォルトの名無しさん
19/11/10 19:30:46.14 FBzaMbQQM.net
でもJavaとCで不良品検査する単価の安い仕事はもうしたくないな
つらたん
542:デフォルトの名無しさん
19/11/10 19:44:33.69 zgABv+Qd0.net
>>530
具体的に何の産業での仕事よ
543:デフォルトの名無しさん
19/11/10 19:56:07.47 FBzaMbQQM.net
少なくとも、画像処理の仕事は増えてる
544:デフォルトの名無しさん
19/11/10 20:03:19.56 MbFf7EI60.net
まあテスラならテスラが全額賠償するんだろう。
日本じゃ無理だな。
545:デフォルトの名無しさん
19/11/10 20:09:35.21 zgABv+Qd0.net
>>533
それはただの要素技術でしょ
工場とかの不良検品?医療のサポート系?それとも色んな分野のpocが来てるだけ?
546:デフォルトの名無しさん
19/11/10 20:19:42.03 FBzaMbQQM.net
>>535
不良品検査で伸びてる。データ集めだるくて
今までシステムを導入してなかったところが、上にせつかれてようやく動きはじめた
547:デフォルトの名無しさん
19/11/10 20:26:29.68 zgABv+Qd0.net
やっぱりその辺だよなあ
ありがとう
548:デフォルトの名無しさん
19/11/10 21:41:34.53 Ni2n1I0Oa.net
荒稼ぎさせてもらったがそろそろ逃げる準備かな
そもそも機械学習なんて外注してる時点で終わっとるのよ
本当にビジネスに生かしたいなら
海外のIT企業の様に業務プロセスに入れなきゃ
活かせるわけないんだよね
549:デフォルトの名無しさん
19/11/10 22:52:41.28 FBzaMbQQM.net
pythonで組んだtensorflowのモデルをjavaで実装するだけという底辺の仕事もあるよ。そんで外向けにはDL4Jを使ってることになってる
最初Cが苦手でそんな仕事ばかりやらされたわ