【統計分析】機械学習・データマイニング11at TECH
【統計分析】機械学習・データマイニング11 - 暇つぶし2ch489:デフォルトの名無しさん
17/01/08 13:50:51.75 62UFgOR0.net
>>465 >>477
禿同。
いや本当、プログラム板なんだから言葉の遊びは他でやれや。
というか、フレームワークの話しの流れをわざと反らしてるだろ

490:デフォルトの名無しさん
17/01/08 13:54:21.16 bkIE9CGW.net
chainerの役目は終わりましたので、
もう今後は無視して大丈夫です。

491:デフォルトの名無しさん
17/01/08 13:58:37.06 T6tx3hoE.net
科学哲学の板とかスレとかあるだろうから、そっちでやればいいだろ
人工知能の定義とか、喜んで相手してくると思うぞ

492:デフォルトの名無しさん
17/01/08 14:02:29.64 QoS/MrxE.net
chainerってトヨタの自動運転で
使われてるじゃないの?

493:デフォルトの名無しさん
17/01/08 14:03:46.75 iodaQ4Bk.net
>>478
TFTFTF

494:デフォルトの名無しさん
17/01/08 14:05:26.18 ZFJRYXHW.net
>>481
日本の技術が使われてるわけないだろw
>>482
池沼?

495:デフォルトの名無しさん
17/01/08 14:07:26.16 SQ/kH9s1.net
>>483
つかわれてる
URLリンク(www.sentaku.co.jp)

496:デフォルトの名無しさん
17/01/08 14:11:58.27 ZFJRYXHW.net
>>484
現実はシビアだな…

497:デフォルトの名無しさん
17/01/08 14:14:45.46 TXqGgIea.net
>>484
JAPさん・・・w

498:デフォルトの名無しさん
17/01/08 14:21:59.64 iodaQ4Bk.net
フレーム問題
URLリンク(www.ai-gakkai.or.jp)

499:デフォルトの名無しさん
17/01/08 14:27:12.21 iodaQ4Bk.net
人工知能って何?
URLリンク(www.ai-gakkai.or.jp)

500:デフォルトの名無しさん
17/01/08 15:52:14.44 xMVs4RXt.net
>>462
> 人間にできる事を高速に正確に大量にできることは知能では?
工場にある機械のことを、知能と言いたいの?

501:デフォルトの名無しさん
17/01/08 15:54:32.90 xMVs4RXt.net
むしろ知能をなくすことで、高速に正確に大量にできるようになるんだよね。

502:デフォルトの名無しさん
17/01/08 15:56:04.28 ts3G2y2D.net
>>489
ロボットには知能が組み込まれているものもあるだろ
工場にある機械と言う文字列をどう解釈するかによって答えは変わる

503:デフォルトの名無しさん
17/01/08 15:56:43.69 ts3G2y2D.net
>>490
高速と言うのは何と比較するかによって変わる

504:デフォルトの名無しさん
17/01/08 16:04:19.93 kLVtW1P5.net
画像識別とか問題を制限しないとまともな研究にならないのだ

505:デフォルトの名無しさん
17/01/08 16:10:32.73 xMVs4RXt.net
>>491
> ロボットには知能が組み込まれているものもあるだろ
ないよ。っていうか、どれが知能だと思ってるの?

506:デフォルトの名無しさん
17/01/08 16:12:46.76 xMVs4RXt.net
>>493
画像識別もなぁ、単に大量にある画像の中から
近い画像を見つけるってだけだしな。
極めて大量の画像があってそれを高速に検索しているだけ。
だから的中率が上がる。
人間はそんなことしてないんだよね。
すごく少ない画像とすごく遅い処理。という前提で
識別するのが知能。

507:デフォルトの名無しさん
17/01/08 16:15:36.06 xMVs4RXt.net
人工知能という点では、ディープラーニングとか
真逆のアプローチでしかない。
大量のデータがあるという前提でこれを力技で
高速処理することで人間にとって役に立つ処理を行っている。
コンピュータというのは人間に役に立つ処理を行うのが
目的だから、これ自体に問題はないんだけど
知能というのは少量のデータから結果を出すものなので
今のやり方は大きくずれている。

508:デフォルトの名無しさん
17/01/08 16:19:15.88 ts3G2y2D.net
>>495
近いってのが人間には簡単でもコンピュータで実現するのが難しかったわけだ
でお前は簡単に今実現されてる方法より優れたものを作れるんだよな?

509:デフォルトの名無しさん
17/01/08 16:20:42.75 ts3G2y2D.net
>>496
なんで少量のデータに限ってるのか判らないな
人間の記憶している情報は一切使わずにお前が言う知能を実現してるのか?

510:デフォルトの名無しさん
17/01/08 16:23:22.35 ts3G2y2D.net
知能の定義によるからなんとでも言えるだろう
お前の知能の定義なんか知らないし一般に通用しているものでもないだろ

511:デフォルトの名無しさん
17/01/08 17:12:10.43 xMVs4RXt.net
>>498
> なんで少量のデータに限ってるのか判らないな
> 人間の記憶している情報は一切使わずにお前が言う知能を実現してるのか?
人間が記憶できる程度の "少量" のデータで
人間は物事を考えてるからに決まってるだろ。
そもそも人間は見ていないデータは "記憶" していない。
どうせお前は潜在意識に記憶された~とか言おうと思ってるんだろうが、
見たことないデータは当然記憶していない。
その時点でコンピュータが処理しているデータよりも
人間が処理しているデータが大きく少ないことは確定した事実

512:デフォルトの名無しさん
17/01/08 17:17:39.80 8OGZNgRf.net
世間ではで~ぷら~にんぐ使ってれば人工チノ~使ってる扱いなんだし、どうでもいい議論だな

513:デフォルトの名無しさん
17/01/08 17:18:23.36 Paqy+wxP.net
知能てwww
学校の数学の授業で関数って習ったろ?
y=f(x)って。
AIってこの関数f(x)を多量のデータから作成してるだけやねん。
xに声とか画像を入れると、答えのyがゲットできる。
耳か目から入ったものが、識別されて頭の中に入るイメージ。

514:デフォルトの名無しさん
17/01/08 17:33:01.48 ts3G2y2D.net
>>500
人間の脳の記憶容量って1ペタバイトと言う説もあるがどの程度が少量なのかはお前のさじ加減次第だろ
あと紙とかも使えるわけだが

515:デフォルトの名無しさん
17/01/08 17:34:26.45 ts3G2y2D.net
>>500
前提として少量の情報に限定する必要はないんだが?
なぜ使えるものを使わないのか

516:デフォルトの名無しさん
17/01/08 18:09:41.41 ts3G2y2D.net
あと人間は主に五感を通して常に情報を得ている
脳はそれらの大量の情報を用いて学習している
人工知能で学習に使用される情報量が人間の学習に使用される情報量より少ないとは言い切れない

517:デフォルトの名無しさん
17/01/08 18:25:10.84 M9xdEeQA.net
何が知能にあたるのかなんて、
プログラム板ではどうでもいいんだが。

518:デフォルトの名無しさん
17/01/08 19:01:29.45 vsMqsvZn.net
>>505
プログラム板なんだが。荒らしてるわけ?

519:デフォルトの名無しさん
17/01/08 19:05:09.02 wSocPv3q.net
人間だって単にアウトプット方法が比較的多彩な関数機とみなせますし
しっかし生産性のない議論だこと…

520:デフォルトの名無しさん
17/01/08 19:12:27.83 xMVs4RXt.net
>>503
> 人間の脳の記憶容量って1ペタバイトと言う説もあるがどの程度が少量なのかはお前のさじ加減次第だろ
記憶容量と記憶量は全く別物。
どんなに容量が多くたって、知っているものしかデータ量は存在しない。
わかりやすく画像で言えば、人間見たことがある画像しか覚えていない。
その見たことがある画像の量がディープラーニングとは全く違う

521:デフォルトの名無しさん
17/01/08 19:13:01.99 ZFJRYXHW.net
定期的に湧くよな
生産性を持たないことに劣等感を持つ連中だろ

522:デフォルトの名無しさん
17/01/08 19:19:31.72 ts3G2y2D.net
>>509
大量の情報が必要って何をするのにどのくらいの情報がどのフェーズで必要になる?
判別するときに大量の情報が必要になるか?
回帰にしても同様

523:デフォルトの名無しさん
17/01/08 19:26:19.59 xMVs4RXt.net
> 判別するときに大量の情報が必要になるか?
学習するときに大量の情報が必要になるんだよ。
人間はそんな量の学習はしていない。
ゲームを攻略する人工知能とかいうのでも同じだろ。
何十回、何百回やってようやくそのステージに限ってクリアできる程度になる
だけど人間はそういうやり方ではない。
人工知能というのなら、人間と同じ試行回数で学習できなければいけない。
今のやり方は、人間では到底不可能な大量の処理を正確に行い
完全に記憶することを前提としている。
問題を解くためのアプローチの仕方が全く違う。

524:デフォルトの名無しさん
17/01/08 19:28:42.04 vsMqsvZn.net
>>512
頭の悪い議論を延々と続けたいなら別スレを立てたら?

525:デフォルトの名無しさん
17/01/08 19:32:23.01 VTpww55T.net
まぁ�


526:ゥ演を続けるのにもそのうち飽きるだろ



527:デフォルトの名無しさん
17/01/08 19:33:47.92 ts3G2y2D.net
>>512
お前はゲームのことしか学習してないのか?
それ以前に五感から情報を取得して学習してないか?

528:デフォルトの名無しさん
17/01/08 19:34:57.56 VTpww55T.net
次スレでワッチョイ導入して、NGに放り込みやすいようにしよう

529:デフォルトの名無しさん
17/01/08 19:38:00.48 ts3G2y2D.net
>>495
>>493
>画像識別もなぁ、単に大量にある画像の中から
>近い画像を見つけるってだけだしな。

>極めて大量の画像があってそれを高速に検索しているだけ。
>だから的中率が上がる。

>人間はそんなことしてないんだよね。
>すごく少ない画像とすごく遅い処理。という前提で
>識別するのが知能。
お前はこう書いてるだろ
識別するときに大量の情報が必要と思ってただろ

530:デフォルトの名無しさん
17/01/08 20:31:14.94 xMVs4RXt.net
>>517
両方必要だよ。
画像識別の場合は、学習するときには大量の画像が必要。
識別するときには大量の学習済みデータが必要

531:デフォルトの名無しさん
17/01/08 20:45:37.51 ts3G2y2D.net
>>518
具体的にどの手法で?
なんの画像判別をするときに?

532:デフォルトの名無しさん
17/01/08 21:29:02.72 TXqGgIea.net
たしかに、俺はきれいなおっぱいを知らないが
きれいなおっぱいを見たときに感動する
つまり、機械にチンポがないのがいけないのではないか?

533:デフォルトの名無しさん
17/01/09 04:58:32.74 Cu9K5Cup.net
元研究者がやってるような会社って迷走していくよな
システム計画研究所もそうなんだが

534:デフォルトの名無しさん
17/01/09 05:48:12.78 JOAqSyBk.net
毎朝うんこしたらその日の体調診断してくれる便器とか

535:デフォルトの名無しさん
17/01/09 06:23:55.46 cwLtlWdl.net
そもそも統計分析について議論しているところに
人工知能がどうとか言い始めるのはどうかと思うんだ

536:デフォルトの名無しさん
17/01/09 09:49:08.29 ULzlfIIS.net
入出力の関数処理の関係って知能と呼んでOK?

537:デフォルトの名無しさん
17/01/09 09:59:43.72 bKCdSmvv.net
中国人の部屋

538:デフォルトの名無しさん
17/01/09 10:05:00.09 /7U8UXhW.net
きのうのscienceZEROでやってたな

539:デフォルトの名無しさん
17/01/09 10:06:01.21 /7U8UXhW.net
>>524
一方通行だけじゃなくてフィードバックがあればいいような気がする

540:デフォルトの名無しさん
17/01/09 10:07:29.35 +4sInSVu.net
確かに人間でも知能の欠片もないキチガイは一方通行だからつまらん罠

541:デフォルトの名無しさん
17/01/09 10:12:15.52 ULzlfIIS.net
学習後は一方通行

542:デフォルトの名無しさん
17/01/09 10:14:55.98 cSodeH17.net
ああ公務員のことか

543:デフォルトの名無しさん
17/01/09 10:28:29.25 Jh/1IYvM.net
こりゃ、「高卒フリーターだらけの国ニッポン」って韓国にも馬鹿にされるわけだわ

544:デフォルトの名無しさん
17/01/09 10:45:19.35 z3gVLhD7.net
ゴミスレに成り果て杉www

545:デフォルトの名無しさん
17/01/09 10:57:58.49 Dm7q6S9e.net
日本最先端と名高い機学デーマイスレがこのザマで、
ええんかお前ら・・・

546:デフォルトの名無しさん
17/01/09 11:07:33.52 RbIvkBFq.net
>>527
とある科学の一方通行ならしってる

547:デフォルトの名無しさん
17/01/09 11:13:49.48 ULzlfIIS.net
じゃあ知能って呼べないね

548:デフォルトの名無しさん
17/01/09 11:19:57.91 aQtMaO07.net
抽象的なポエムは知識がなくても書けるからな
うんざりだわ

549:デフォルトの名無しさん
17/01/09 11:23:56.03 k1Mmmgl9.net
>>433-434みたいなレスができる中学生は
>>502を参考に。。
ディープラーニングなんてのも、
所詮はデータから関数を作ってるだけにすぎない。

550:デフォルトの名無しさん
17/01/09 11:46:59.70 o0RDln5g.net
ID:vZTGYmP6
ID:V8wWSmc2
も中学生に追加

551:デフォルトの名無しさん
17/01/09 11:49:33.80 z3gVLhD7.net
ID:o0RDln5g
を小学生に追加すれば良いのですね?

552:デフォルトの名無しさん
17/01/09 12:30:03.58 Dm7q6S9e.net
ワオ31歳、若き叡智に震える

553:デフォルトの名無しさん
17/01/09 12:32:07.96 poP2LNAr.net
つまりは理解してなかったってことね

554:デフォルトの名無しさん
17/01/09 12:45:20.58 4OeNzyzM.net
自演乙

555:デフォルトの名無しさん
17/01/09 12:52:09.03 poP2LNAr.net
知らんがな

556:デフォルトの名無しさん
17/01/09 13:02:53.24 ZM3HJLmM.net
日本だとディープラーニングを使った提案以外
ほぼ認めらないのが辛いな海外だと精度上がって
効率的にできるならなんでもいいよなののに

557:デフォルトの名無しさん
17/01/09 13:10:44.06 z3gVLhD7.net
>>544
多様性が認められない社会だから仕方がない

558:デフォルトの名無しさん
17/01/09 13:15:28.20 p9LeFwZS.net
>>544 日本人の柔軟性のなさ。

559:デフォルトの名無しさん
17/01/09 13:39:10.82 Cu9K5Cup.net
営業力の違い。
営業に華僑、印僑、ユダヤを雇えばなんとか

560:デフォルトの名無しさん
17/01/09 13:44:19.13 fQnW9EuO.net
ディープラーニング以外の方法が軒並みディープラーニングにかなわない認識率だから仕方ない
裏を返せば、人工知能界隈はディープラーニングだけが図抜けただけで他の進歩はない
買い被られすぎている

561:デフォルトの名無しさん
17/01/09 13:49:55.87 RbIvkBFq.net
>>548 知ったか乙



563:デフォルトの名無しさん
17/01/09 13:50:36.93 cjVtQucR.net
>>544
それホント?

564:デフォルトの名無しさん
17/01/09 13:51:08.31 z3gVLhD7.net
>>548
自分でやったことがないのが丸わかり

565:デフォルトの名無しさん
17/01/09 14:28:13.44 pwFGbl4X.net
>>548
どの認識問題に対してどのネットワークが優れているのか言ってごらん

566:デフォルトの名無しさん
17/01/09 14:39:33.06 k1Mmmgl9.net
547を擁護してるわけじゃないが
時間的に連投してるから自演くさいな

567:デフォルトの名無しさん
17/01/09 15:29:56.98 Jh/1IYvM.net
それ以上に547=552に見えて仕方がねえな

568:デフォルトの名無しさん
17/01/09 15:48:39.81 +4sInSVu.net
552=553
じゃね

569:デフォルトの名無しさん
17/01/09 15:58:16.66 k1Mmmgl9.net
552は単独のなんだけど、まあいいや。
>>549-552が一人の書き込みだったら必死すぎてうけるww

570:デフォルトの名無しさん
17/01/09 16:20:40.03 /3dsHunZ.net
>>556
いや、あんたが必死過ぎる。放っておけよ

571:デフォルトの名無しさん
17/01/09 17:06:14.30 4OeNzyzM.net
一人であるという可能性を排除する合理的理由がないからな

572:デフォルトの名無しさん
17/01/09 17:13:39.00 /bDncKYI.net
○であるという可能性を排除する合理的理由がないからな
○の中に面白い言葉を入れて遊びなさい

573:デフォルトの名無しさん
17/01/09 17:28:53.96 a07EDxnX.net
答えられなくて流れ着いた文系が発狂してる

574:デフォルトの名無しさん
17/01/09 19:54:09.69 WWwzP2Ta.net
積層オートエンコーダの書籍でお薦めある?
論文しかないかなぁ

575:デフォルトの名無しさん
17/01/09 20:04:44.67 vJmjyrTZ.net
>>561
あんなもん、本を読むほどのもんじゃないだろw caffe の入門書あたりなら言及ありそうだが

576:デフォルトの名無しさん
17/01/09 20:09:03.55 Z/GXP5pv.net
>>561
今まで何を読んだ?
それに載ってなかった?

577:デフォルトの名無しさん
17/01/09 20:19:01.26 JP3B1fld.net
積層の理解なんていらない。
主成分分析との関係がわかれば十分。
というか、主成分分析をほうを理解すればよい。あるいは主成分分析のコードを書いてみたり、その結果から次数さげてみたり。

578:デフォルトの名無しさん
17/01/09 20:56:05.81 cjVtQucR.net
>>564
本当に?
ディープラーニングとはどう関係するの?

579:デフォルトの名無しさん
17/01/09 22:18:36.36 ZM3HJLmM.net
>>565
DBNとPCAの関係考えれば自明だろ

580:デフォルトの名無しさん
17/01/09 22:41:52.00 RbIvkBFq.net
>>565
真に受けるな、次元圧縮という視点だけで同一視してる極論。そもそも線形だし

581:デフォルトの名無しさん
17/01/09 23:32:06.28 cjVtQucR.net
RBMだろ

582:デフォルトの名無しさん
17/01/10 00:08:27.84 N74TPYKx.net
>>567
オートエンコーダで完全に入出力が一致すれば主成分分析と結果一致するのは数学的に証明されてるのに、何故否定??
ちゃんと理解したうえで言ってる??

583:デフォルトの名無しさん
17/01/10 00:18:55.31 N74TPYKx.net
>>568
目的は一緒だが、やってることは違う

584:デフォルトの名無しさん
17/01/10 00:57:02.71 mL71GP1A.net
オートエンコーダで積層にしているのは
2層だけだと収束が悪いので多層にしてるだけ。
ディープラーニングのメインコードとはもともと関係がない。
普通のオートエンコーダを理解すれば十分だけど、
>>564の言うとおり、条件を限定すれば
オートエンコーダの結果は主成分分析と一致する。
主成分分析の性質を理解することがオートエンコーダの理解に繋がる。
566は論外。

585:デフォルトの名無しさん
17/01/10 01:06:43.42 Lw+Ts/nh.net
>>571
主成分分析の何と一致する?
固有値や固有ベクトルは?

586:デフォルトの名無しさん
17/01/10 01:18:00.94 N74TPYKx.net
訓練データ{x1,x2,...}の共分散行列を作って、得られた固有ベクトルを並べたて格納した行列を新しい重み行列とすると、それはオートエンコーダで得られた重みと理論的には一致する。
共分散行列の固有値は次元の寄与率と考えることができて、小さい値の固有値の固有ベクトルは削除しても影響が小さい。

587:デフォルトの名無しさん
17/01/10 01:21:19.35 N74TPYKx.net
てかそんぐ


588:らいググればいくらでも出てくる



589:デフォルトの名無しさん
17/01/10 01:22:37.28 N74TPYKx.net
失礼。
聞かれたのは俺じゃないな

590:デフォルトの名無しさん
17/01/10 01:27:47.53 N/5FQeNb.net
おまいらマジで頭よかったんだな
てっきり知能ポエムしか書けない連中だと見下してたわ

591:デフォルトの名無しさん
17/01/10 01:31:09.96 N74TPYKx.net
つまり、オートエンコーダは、異なる入力に対して異なる結果になるように重り行列を最適化する。
(多数の入力が同じ結果にならないように最適化)
オートエンコーダで次元を下げるとかっていう話は実は二の次の話。

592:デフォルトの名無しさん
17/01/10 01:38:22.11 N74TPYKx.net
上の情報だけで、つまりって言っちゃ、やや飛躍があるな。
共分散行列の固有ベクトルがはる空間
に入力ベクトルを持ってくることで上手くベクトルが分散してくれる

593:デフォルトの名無しさん
17/01/10 01:53:41.11 /W/3Nfpm.net
畳み込みニューラルネットワークのフィルタってサイズの大きさどう設定すりゃいいの?
あと全結合層の層数って増やす意味ある?

594:デフォルトの名無しさん
17/01/10 06:52:44.79 Lw+Ts/nh.net
>>578
固有値の大きな固有ベクトルから順に得られるかどうか判らないのでは?

595:デフォルトの名無しさん
17/01/10 07:36:02.51 N74TPYKx.net

質問がよく分からない
どんな状況下にあるか、自分で手を動かして考えてみてください

596:デフォルトの名無しさん
17/01/10 08:32:52.11 rVEdN69p.net
いまどきの国立大以上の工学部では
ディープラーニングの演習もあるのかしらん?

597:デフォルトの名無しさん
17/01/10 11:14:30.29 /a9Ojlhv.net
オートエンコーダは、非線形性があるところは違うだろ
一層毎に非線形性があるんだから、スタックする意味もあるし

598:デフォルトの名無しさん
17/01/10 11:59:53.15 N74TPYKx.net
>>583
それっていちいち突っ込むところ?
恒等写像の場合である程度重みの最適化の足掛かり掴んでるから十分だろ?
文句があるならカーネル関数使った主成分分析方法があるからそれ使え。

599:デフォルトの名無しさん
17/01/10 12:24:27.91 VX/m3eLk.net
>>584
主成分分析しか知らないって言えばいいのにwww

600:デフォルトの名無しさん
17/01/10 12:26:57.52 K8NZx8C0.net
だいたい積層オートエンコーダを質問してるのに、何で延々と主成分分析の話しをしてるんだか w
積層オートエンコーダ == 主成分分析 では断じてないことさえ分からんのかw

601:デフォルトの名無しさん
17/01/10 12:28:15.08 N74TPYKx.net
何かろくに理論知らないクズ野郎しかしいないって思いたくないんだが‥‥
(そもそもこっちはただのサラリーマンだし)

602:デフォルトの名無しさん
17/01/10 12:29:38.43 BtJxF5z4.net
>>581
寄与率の大きな固有ベクトルから順に結合として得られる保証があるのかってこと
固有ベクトルの個数は隠れ層のユニット数だろうけど
それが寄与率の大きなものから順に得られるのか?

603:デフォルトの名無しさん
17/01/10 12:32:59.59 N74TPYKx.net
ハイハイ分かった分かった
オートエンコーダ経由での物理現象の説明はこっちはわかりません。
自分で調べてください。
ちなみにオートエンコーダでの次数下げは単独でユニット数減らすだけ

604:デフォルトの名無しさん
17/01/10 12:39:37.42 K8NZx8C0.net
>>589
これ、笑うところ?www
| ちなみにオートエンコーダでの次数下げは単独でユニット数減らすだけ

605:デフォルトの名無しさん
17/01/10 12:41:56.72 VX/m3eLk.net
>>589
表面しか見れないんだな。
deep learning は全然知らないと言えばいいのに

606:デフォルトの名無しさん
17/01/10 12:43:02.69 N74TPYKx.net
単独で中間層のユニット数減らすだけ!

607:デフォルトの名無しさん
17/01/10 12:44:08.26 N74TPYKx.net
そもそも>>571でなんで積層にしてるかいてるでしょ

608:デフォルトの名無しさん
17/01/10 12:48:34.70 N74TPYKx.net
あーこんな頭の悪いやつのせいで昼休み無駄になった

609:デフォルトの名無しさん
17/01/10 13:30:06.45 s989ZmsY.net
最終的且つ不可逆的な解決に向け相互努力を誓います

610:デフォルトの名無しさん
17/01/10 13:44:18.27 s989ZmsY.net
>>572
おまえは何を言っているのだ?
主成分分析なんて固有値や固有ベクトルそのものだろ

611:デフォルトの名無しさん
17/01/10 13:53:31.34 a6nVb6Xo.net
昼休みこんなところ�


612:ナ鬱憤を晴らすサラリーマンねぇ 仕事できる子なのか不安



613:デフォルトの名無しさん
17/01/10 14:52:03.64 HuxjibLD.net
バックグラウンドの数学的な話はわかって無くてなんとなくで使っているのですが
WekaでBayesnetを使ってクラス分類をしているのですが、
理想よりだいぶ正解率が低いので、その原因を知りたいと思っています
(どの変数が悪影響を及ぼしてるのかとか)
そのようなことは可能でしょうか?
また、「ガウス分布に当てはめれば分類モデルの誤差が見積もれる」
みたいな話を聞いたことがあるのですが、これはどういうことでしょうか?

614:デフォルトの名無しさん
17/01/10 15:06:26.74 UBJKCQag.net
無の字の使い方を学習させると
誰が自演書き込みしてるのか判るな

615:デフォルトの名無しさん
17/01/10 15:08:08.34 BtJxF5z4.net
>>599
正解率はどのくらいか判ってるのか

616:デフォルトの名無しさん
17/01/10 15:11:49.90 BtJxF5z4.net
>>596
理解できてないならレスしなくて良い

617:デフォルトの名無しさん
17/01/10 21:55:01.12 5Ydwym5y.net
>>598
じゃあ使うなまず数学やれよ
数学やらない奴は使うなよ

618:デフォルトの名無しさん
17/01/10 23:19:51.15 6tVxUfvD.net
>>588に誰か答えないんかな?
画像認識やったことないからフィルターサイズの決め方なんて知らない。
認識したい対象(文字とか?)のサイズとか、どこまでエッジを拾いたいかで決めんのかね?
(あるいはサイズ違いのフィルターを繰り返す?)

619:デフォルトの名無しさん
17/01/10 23:23:42.42 6tVxUfvD.net
失礼しました
>>588でなく>>579です

620:デフォルトの名無しさん
17/01/11 05:53:27.99 W9WOgN09.net
>>603
ここでレスがあったとしても本当の事か判らない
実際に確かめてみるしかない
サイズを変えてデータを取って分析しろ
データ分析くらいできるのだろ

621:デフォルトの名無しさん
17/01/11 07:32:56.06 foy5T8YQ.net
>>597
仕事で嫌なことでもあったんだろ
上司に怒られて当たり散らしてる感じw

622:デフォルトの名無しさん
17/01/11 07:37:59.91 foy5T8YQ.net
>>603
定石があって大体あたりがつくよ
パラメータを変えて精度・速度を実験するのは初学者が最初にやる

623:デフォルトの名無しさん
17/01/11 08:23:21.88 l2JfDQy7.net
>>579 >>603
フィルタサイズの選択肢は実際には限定的、定番モデルを参考にすれば良い。
全結合層の層数を増やす意味は通常はない。

624:デフォルトの名無しさん
17/01/11 08:25:01.91 p4aAjtoW.net
海外の人は数日でこのレベルに到達するぐらい素養があるけど日本人は全く素養がないから諦めた方がいい
URLリンク(gigazine.net)

625:デフォルトの名無しさん
17/01/11 08:29:04.22 zHamHZ4N.net
自分はkeras使ってるが問題ないようで安心したわ。
chainerはもういらんな。

626:デフォルトの名無しさん
17/01/11 12:29:16.31 xxQxfc5N.net
>>607
最初にやるような事もやってないって事じゃね

627:デフォルトの名無しさん
17/01/11 17:24:11.80 /t0evEjj.net
chainer否定厨うぜえ
仲良くやれよ
それかDyNet使えよ

628:デフォルトの名無しさん
17/01/11 19:26:45.58 lXi56hH9.net
TensorFlowは1.0αかよ
昨年12月1日に0.12がリリースされたばかりなのに

629:デフォルトの名無しさん
17/01/12 00:53:03.54 0lQ7NCef.net
0.12.0 のステーブル版が出たのはお正月くらいだったよ
それを受けての 1.0 alpha 発表でしょ

630:デフォルトの名無しさん
17/01/12 01:07:26.07 yGw8XzLF.net
つまり 0.12.1 がほぼそのまま 1.0.0-alpha になってるのか

631:デフォルトの名無しさん
17/01/12 08:13:48.15 EOPVv7Sc.net
クラウド商用とOSSで開発ブランチ分けるらしいからその前の整理だな

632:デフォルトの名無しさん
17/01/12 08:19:14.49 F21c8apY.net
ああ、なるほどね。
1.0 ベースで cloud ml を正式版にするわけか

633:デフォルトの名無しさん
17/01/12 08:28:01.89 D/kCxt4Z.net
たった1ヶ月で10倍賢くなったのか
こりゃシンギュリティだな

634:デフォルトの名無しさん
17/01/12 08:32:23.88 yGw8XzLF.net
>>616 >>617
googleはこういうの手慣れてるな

635:デフォルトの名無しさん
17/01/12 10:41:13.63 6zPdGjUM.net
最近、GTX980Tiが安いけどさあ
これって1080の1割引ぐらいの性能は出るんかな?

636:デフォルトの名無しさん
17/01/12 10:48:52.97 D/kCxt4Z.net
Googleに入社すればGAEがタダで使えるで

637:デフォルトの名無しさん
17/01/12 10:50:48.35 r/NJbiIE.net
なるほど
Appleに就職すればよかった

638:デフォルトの名無しさん
17/01/12 10:55:14.49 D/kCxt4Z.net
AppleWebServerもいいよね

639:デフォルトの名無しさん
17/01/12 12:42:27.89 3KTZZ0jx.net
TensorFlow OSS版は切り捨てられる?あるいは差別化される?

640:デフォルトの名無しさん
17/01/12 12:43:54.99 b+ED7Ag1.net
そうなったらApache下でフォークされてHadoopみたいになるだけよ

641:デフォルトの名無しさん
17/01/12 13:23:04.66 6zPdGjUM.net
GAEを借りてもらう前提として、OSS版を使ってコードを書いてもらう必要があるんだろうからね
どちらでも同じコードが動くようにはしてくれるんじゃないかと思うけど・・・・・
ただGoogleにとってサポートしても得がないCUDAのサポートとか続くんかな?

642:デフォルトの名無しさん
17/01/12 14:11:33.05 nKV4yPgD.net
>>626
分からないのに無理して書き込まなくていいからw

643:デフォルトの名無しさん
17/01/12 14:29:58.74 6zPdGjUM.net
>>627
残念ながら無理して書くような内容なんて書いてないんだけど

644:デフォルトの名無しさん
17/01/12 14:35:48.77 6O75WW/Q.net
>>628
横からだが、そもそも GAE という時点で間違ってるよ

645:デフォルトの名無しさん
17/01/12 14:37:29.18 yGw8XzLF.net
>>628
わりと突っ込みどころ多いとは思う。

646:デフォルトの名無しさん
17/01/12 21:19:42.27 PFwuR66g.net
OSS版はGPU最適化用のコードいずれドロップ
して高速版が欲しければ商用買えよってスタンスで
行くつもりだから
かなり急ぎ足で1.0出しているし技術者主導ではなくなると思うよ

647:デフォルトの名無しさん
17/01/12 21:53:35.36 GcbET4TA.net
ポエム野郎がいなくなったのは有難い

648:デフォルトの名無しさん
17/01/12 22:04:12.06 damdR0/o.net
>>631
頭悪いレスやめようよ、真に受ける人いるから

649:デフォルトの名無しさん
17/01/12 22:08:16.15 KUT30rWT.net
昼間から高卒大国ニッポンしてるね
おきちがい

650:デフォルトの名無しさん
17/01/12 22:15:58.79 yGw8XzLF.net
>>631
もういいって

651:デフォルトの名無しさん
17/01/12 22:25:19.38 D/kCxt4Z.net
やっぱこれからはチャイナー使お

652:デフォルトの名無しさん
17/01/12 22:34:44.20 b+ED7Ag1.net
TensorFlowが死んでもChainerの時代は来ないよ
まあApacheが引き取るだろ

653:デフォルトの名無しさん
17/01/12 22:38:45.10 D/kCxt4Z.net
アパーチェが引き取って誰が開発するねんねんで
アホか

654:デフォルトの名無しさん
17/01/13 01:56:41.62 n29hWmfn.net
GCPのGPUインスタンスいつなったら作るんだ?
TensorFlowをGPUで使うならPCかAWS使えってことか?

655:デフォルトの名無しさん
17/01/13 05:45:15.56 6kgyQzos.net
CNTK&Azureとか

656:デフォルトの名無しさん
17/01/13 10:47:54.68 UqLgiWVO.net
>>639
cloud ml でいずれ対応予定
>>640
cntk は名前変わった、人気ない証拠だと思うからやめといた方が…

657:デフォルトの名無しさん
17/01/13 12:03:29.94 aGn4Qyi/.net
Microsoft Cognitive Toolkitになったのか
ppapみたいだからcntkの方が好きなのに

658:デフォルトの名無しさん
17/01/13 15:49:38.36 fe/WbToJ.net
>>16
実はこれいいとこついてるんだよな
なぜか日本の「理系」というのは自分にとって都合のいい「理系」像をつくりたがる
>>16の例でいえば理系=数学科
「日本の数学科ではルベーグ積分は・・・」とかけばいいのに
なぜかこういうところでも「理系」といいたがる
(ちなみにMARCH以下だと数学科でもルベーグ積分は必修にならないところも多い)
このくらいなら別にかわいいもんだが、問題は文系批判するときに
自分の都合のいい「理系」像をつくって、「理系では常識だが・・・」みたいなことを
言い始める

659:デフォルトの名無しさん
17/01/13 15:54:10.29 Pc+dvNDW.net
>>642
cognitive toolkit って、日本人には馴染みにくいネーミングだな

660:デフォルトの名無しさん
17/01/13 15:55:01.93 8aFi8ZmB.net
>>66
中井に限らず機械学習ってそんなもんだよ
やってみてうまくいけばそれでオッケー
理屈は考えない

661:デフォルトの名無しさん
17/01/13 16:02:28.28 D8OhZXXD.net
TFとかの技術的な話題が続くと
ポエマーが出てくるな www

662:デフォルトの名無しさん
17/01/13 16:03:35.84 D8OhZXXD.net
>>639
うちの会社は AWS でTFやってる

663:デフォルトの名無しさん
17/01/13 16:38:21.03 CxR0wGzB.net
>>643
どうした?
馬鹿にされたか?

664:デフォルトの名無しさん
17/01/13 16:48:24.35 YYdJyp6W.net
会社で話し相手がいないのだろう

665:デフォルトの名無しさん
17/01/13 18:11:49.06 lc9PWiW7.net
ニューロンを1つを取り出した時、全ての入力に対してウエイトを設定するのが普通っぽいけどさあ
y = w1x1 + w2x2 + b1
これって、w2を省いて
y = w1x1 + x2 + b1
でも変わんないんじゃないの?

666:デフォルトの名無しさん
17/01/13 18:15:03.76 7nt2TZrV.net
変わるだろうが
何言ってんだ

667:デフォルトの名無しさん
17/01/13 18:47:45.35 PuHBhPCs.net
>>650
w2=1に正規化した感じで上手くいく事もあるだろうけど
w2=10^-6とか小さな値だったりしたらちがうかも

668:デフォルトの名無しさん
17/01/13 18:57:07.62 aGn4Qyi/.net
649の情報だけでよく問題点が指摘できるな
w1x1の時点でくらくらしたわ
w_1 x_1

669:デフォルトの名無しさん
17/01/13 18:58:06.74 jboUB245.net
うっせえなw

670:デフォルトの名無しさん
17/01/13 19:05:25.15 fh7lO1k1.net
ぶっちゃけ、このスレの人って数学出来ない人ばっかだよね。

671:デフォルトの名無しさん
17/01/13 19:19:23.79 PuHBhPCs.net
>>655
お前もな

672:デフォルトの名無しさん
17/01/13 19:35:40.15 TmjKlfjT.net
数学科以外は数学苦手じゃない?

673:デフォルトの名無しさん
17/01/13 19:42:39.33 lc9PWiW7.net
>>652
そうかあ
計算が楽になるかと思ったんだけどなあ

674:デフォルトの名無しさん
17/01/13 19:48:45.80 PE3cJKgA.net
数学ってどの範囲だよ

675:デフォルトの名無しさん
17/01/13 19:55:40.32 ABpVxO8v.net
またこの話しかよw 自分は数学科卒だけど、
機械学習で必要な数学なら教養で学ぶ線形代数で十分だってw

676:デフォルトの名無しさん
17/01/13 21:03:41.52 p0SJfhAz.net
>>660
統計とか確率の知識もあった方が良いと思う
群とか圏とか使えるかもしれない
まだはっきり判ってない事もあるだろうし

677:デフォルトの名無しさん
17/01/13 21:11:41.84 P+aIog0d.net
>>602みたいなこと言う奴もいるから
やっといた方がいいよ

678:デフォルトの名無しさん
17/01/13 21:38:13.05 udSHd9JP.net
話し相手がいないのか、可愛そうに

679:デフォルトの名無しさん
17/01/13 21:42:14.15 2UoNihoi.net
必要な数学なんてその人がどこまで必要としているかで決まる
基本機械学習は応用数学なのだから使おうと思えば数学は無制限に必要になる
単にプログラム組んで結果みるだけでいいなら数学は必要ない

680:デフォルトの名無しさん
17/01/13 21:42:50.89 yzzW48ii.net
いやあ、こういう流れ見るとTwitterでは味わえないイン�


681:^ーネットらしさを感じられて好きだよ



682:デフォルトの名無しさん
17/01/13 22:26:25.77 jboUB245.net
deepanalyticsでcookpadのがでてるけどやんない?

683:デフォルトの名無しさん
17/01/13 22:32:43.23 JaLaNRFH.net
>>657
んなこたーない。頭いいやつは数学で飯食ってこうなんて思わない

684:デフォルトの名無しさん
17/01/13 22:49:55.50 9L2JHio8.net
そもそも頭いいやつは金を稼ごうとは思わない

685:デフォルトの名無しさん
17/01/13 22:58:01.44 ABpVxO8v.net
>>661
それはそうかな、でも中心極限定理も使わないし、ガウス分布程度で最初は十分かと。
そもそも確率論はまだしも、統計みたいな応用は数学科じゃほとんどやらんし
>>664
無制限に必要になんからならないよw 例えば多様体や群・環のような基礎知識さえ普通はいらん

686:デフォルトの名無しさん
17/01/13 23:00:08.25 LA+BfcBl.net
>>660
そういうこと言うな二度というな
みんな抽象数学に縛り付けておいて
混乱させるのが目的なのに真実を書くな

687:デフォルトの名無しさん
17/01/13 23:01:37.81 ABpVxO8v.net
>>667
うちんとこは数学で飯食ってるやつばかりだぞw

688:デフォルトの名無しさん
17/01/13 23:08:45.61 anO+R0kw.net
>>669
manifold learningでググってみ
グレブナー基底 機械学習でググってみ
もう一度言うが研究レベルでは数学は無制限に使う

689:デフォルトの名無しさん
17/01/13 23:10:26.64 anO+R0kw.net
「無制限に」っていうのはもちろん潜在的・可能性としてはの意味にすぎないわけだが、
それでも>>669が出してきている例くらいの数学は研究者によっては普通に使う

690:デフォルトの名無しさん
17/01/13 23:10:54.01 E5kBStXl.net
>>672
あんたバカじゃないの?

691:デフォルトの名無しさん
17/01/13 23:11:25.26 anO+R0kw.net
反論できなくなっちゃったかw

692:デフォルトの名無しさん
17/01/13 23:13:53.09 zDVcTTvx.net
>>673
機械学習を始めるに必要な数学の話をしてることに気付けよw
ハードルあげて嫌がらせなら、真に受けるやついるからやめろ

693:デフォルトの名無しさん
17/01/13 23:16:02.51 PBFfeFuD.net
いんじゃね。切り捨てて。勉強しようともしてないやつなんか。

694:デフォルトの名無しさん
17/01/13 23:16:15.74 LA+BfcBl.net
>>673
ストラング:計算理工学読めばいい
その程度でなんとかなるからマジレスしちゃうと
もう騙して混乱させて遊べないからあきらめよう

695:デフォルトの名無しさん
17/01/13 23:17:17.36 anO+R0kw.net
研究レベルって言ってるよね
日本語読めないの?
数学以前の問題だよ

696:デフォルトの名無しさん
17/01/13 23:18:22.30 anO+R0kw.net
>>678
現実に研究レベルでは多様体も代数学も必要になるんだよなぁ
素直にググればわかることあきらめよう

697:デフォルトの名無しさん
17/01/13 23:20:33.64 E5kBStXl.net
>>679
>>664 の時点で言ってないようだが?

698:デフォルトの名無しさん
17/01/13 23:20:47.40 HIDbyJg+.net
会社のPCに全部tensorflowインストールしてクラスタ化して毎日夜中だけ計算させるとかどうだろう

699:デフォルトの名無しさん
17/01/13 23:21:23.25 anO+R0kw.net
いっておくけど入門レベルでたいした数学はいらんよ
それは>>664の言う通り
別に混乱などさせてはいない
その人のレベルにあったことをすればいいだけ

700:デフォルトの名無しさん
17/01/13 23:21:24.80 PBFfeFuD.net
ただモデル化が抽象的過ぎると流行んなくなるから、そこはよく考えてね。

701:デフォルトの名無しさん
17/01/13 23:23:43.90 zDVcTTvx.net
>>679
>>669 は「普通は」って言ってるぞ
日本語読めないのはあんただろwww

702:デフォルトの名無しさん
17/01/13 23:24:41.69 anO+R0kw.net
普通ってなに?
研究者にとってはグレブナー基底とか「普通」なんだけど

703:デフォルトの名無しさん
17/01/13 23:26:00.61 E5kBStXl.net
>>686
研究者のスレで吠えろや、池沼 wwww

704:デフォルトの名無しさん
17/01/13 23:27:05.41 iClQ+K3G.net
まぁいいからあまり揚げ足とかいらんから。
ちゃんとした研究者がいて安心したから

705:デフォルトの名無しさん
17/01/13 23:27:17.64 zDVcTTvx.net
>>686
さすがにそれは無理がある

706:デフォルトの名無しさん
17/01/13 23:34:49.17 ABpVxO8v.net
何か地雷踏んじゃったみたいだ … 数学ネタはやめよう、ごめんな m(_ _)m

707:デフォルトの名無しさん
17/01/13 23:50:46.85 LA+BfcBl.net
>>686
どうせグレブナー基底と巨乳とか見て
感化されただけだろw?

708:デフォルトの名無しさん
17/01/14 01:51:06.38 ByMN1Bsi.net
グレブナー基底が普通 キリッ
とか言いながら論破されて逃亡する自称研究者 www
何か前にも似たようなことあったな

709:デフォルトの名無しさん
17/01/14 01:53:11.85 ByMN1Bsi.net
>>682
tensorflowの分散は易しくはない

710:デフォルトの名無しさん
17/01/14 02:12:10.37 FiBveJJ+.net
>>692
どこが論破されたんだ?

711:デフォルトの名無しさん
17/01/14 08:45:24.97 xqd9HsqZ.net
グレブナ基底って実例はポン酢だよな

712:デフォルトの名無しさん
17/01/14 09:18:01.14 yS+ngl8t.net
グレブナ基底はなんの役に立つの?、元数学者

713:デフォルトの名無しさん
17/01/14 11:48:46.53 UwZK9QUI.net
機械学習の本質がわかった。
知能(AI)がなくとも大量のデータがあれば統計的に
それらしい答えを導き出せることができる。
コンピュータは人間のような効率的な学習はできないが、
コンピュータパワーを使えば、効率は悪くとも
大量に経験を積ませることができる。
この「効率の悪いが大量の経験」をさせることが機械学習なんだ。

714:デフォルトの名無しさん
17/01/14 12:13:00.51 3uB2hVBb.net
>>697
なんか違う

715:デフォルトの名無しさん
17/01/14 12:17:31.12 u4MOb4qx.net
言葉で理解するから>>697みたいな奴が増える。

716:デフォルトの名無しさん
17/01/14 12:18:35.88 u4MOb4qx.net
失礼訂正。
言葉で理解しようとするからry

717:デフォルトの名無しさん
17/01/14 12:32:49.14 bwK613iR.net
知能やらそれらしいとか曖昧じゃねーかw

718:デフォルトの名無しさん
17/01/14 12:35:17.92 3uB2hVBb.net
少なくとも本質は分かってないよなw

719:デフォルトの名無しさん
17/01/14 12:36:48.24 u4MOb4qx.net
これからはもっと増えるんだろうね。
分かった気になってる人

720:デフォルトの名無しさん
17/01/14 12:50:42.19 u4MOb4qx.net
>>702も分かってないが

721:デフォルトの名無しさん
17/01/14 12:57:06.03 qTDOJKyI.net
>>704
おまえもなw

722:デフォルトの名無しさん
17/01/14 13:00:42.49 UwZK9QUI.net
やっぱり反論はなかった。
あってるってことかなー

723:デフォルトの名無しさん
17/01/14 13:04:31.57 zD0xY+S2.net
ディープラーニングは機械学習の一つなんだけど。

724:デフォルトの名無しさん
17/01/14 13:08:14.66 +2hwB+yk.net
うちの父親もこんな程度の頭だから笑えん

725:デフォルトの名無しさん
17/01/14 13:14:55.31 0AaiAFEr.net
>>694
「グレブナ基底が普通」という主張が正しいわけないじゃん、バカじゃないの?

726:デフォルトの名無しさん
17/01/14 13:17:10.87 0AaiAFEr.net
>>696
俺も数学で飯食ってるが、使ったこと一度もない。というか、ジジイだろうな、このネタを持ち出すのは

727:デフォルトの名無しさん
17/01/14 13:23:44.84 LerKwIdl.net
>>710
あほ、むしろグレブナー基底が機械学習に導入されてきたのは近年になってからだぞ

728:デフォルトの名無しさん
17/01/14 13:27:11.19 g+MBXGeK.net
画像分野における伝統的な DL の考え方としてはそんな感じで良いんじゃない?現状の手法における制約を更に打ち破ろう、もっと良い手法を生み出そうと研究を重ねることそのものが本質という考え方もあるだろうけど。

729:デフォルトの名無しさん
17/01/14 13:28:42.30 hMIcbMDJ.net
>>711
バカじゃなかろか、おめぇが興味あるだけでほとんど誰も使ってねぇよ www

730:デフォルトの名無しさん
17/01/14 13:31:25.94 0AaiAFEr.net
>>711
あほはあんただ、計算機代数みたいなマイナー分野はチラ裏でやってろ

731:デフォルトの名無しさん
17/01/14 13:33:07.14 LerKwIdl.net
>>713
>バカじゃなかろか
おまえがな

732:デフォルトの名無しさん
17/01/14 13:33:50.79 ByMN1Bsi.net
誰も興味ない数学ネタは他でやってくれないかな?w

733:デフォルトの名無しさん
17/01/14 13:34:24.97 ByMN1Bsi.net
>>715
昨夜の人?荒らしてるわけ?

734:デフォルトの名無しさん
17/01/14 13:36:08.93 jfwD01xt.net
誰も興味ない文系ネタもやめてもらえますか?

735:デフォルトの名無しさん
17/01/14 13:37:18.15 LerKwIdl.net
×誰も興味ない
〇このスレにいる奴では理解できない

736:デフォルトの名無しさん
17/01/14 13:38:43.77 LerKwIdl.net
>>717
荒らしているのは君の方だと思うよ
素直に間違い認めればいいだけなのにw
まぁ、研究レベルの機械学習を理解できる人がいないのは事実っぽいので
もう書き込まないことにしますわw

737:デフォルトの名無しさん
17/01/14 13:39:38.44 ByMN1Bsi.net
>>719
それでいいからこのスレに出入りするのはやめて、あなたにふさわしいスレで議論してください

738:デフォルトの名無しさん
17/01/14 13:40:25.82 hMIcbMDJ.net
>>720
どう見ても荒らしてるのはあんただろう
あんたが出てくるとスレの雰囲気が悪くなってるじゃないか

739:デフォルトの名無しさん
17/01/14 13:41:53.25 hMIcbMDJ.net
>>720
空気嫁ないやつだなぁ

740:デフォルトの名無しさん
17/01/14 13:42:19.68 f29MAUgw.net
いい加減、俺も始めようと思って下記3書籍を買ったが他におすすめある?
ITエンジニアのための機械学習理論入門
ゼロから作るDeepLearning
行列プログラマー

741:デフォルトの名無しさん
17/01/14 13:46:20.51 hMIcbMDJ.net
>>724
機械学習理論入門はおすすめできない。「理論」入門なんだけどちょっと著者の嗜好性が微妙。
ゼロから作るDeepLearning は良いように思う

742:デフォルトの名無しさん
17/01/14 14:33:38.17 Xw0trSpZ.net
既に買ったやつはもういいだろw

743:デフォルトの名無しさん
17/01/14 14:47:36.12 u4MOb4qx.net
>>719
理解できる人はいるべ

744:デフォルトの名無しさん
17/01/14 14:47:37.64 GN9+SXJp.net
PRML

745:デフォルトの名無しさん
17/01/14 15:05:22.26 SauIKXvW.net
>>724
もっとたくさん買わないと、時代のトレンドの流行についていけてないよ

746:デフォルトの名無しさん
17/01/14 15:12:59.03 obLvbAT8.net
>>729
トレンドについていくには本買ってたら遅い
本を書くくらいでないと

747:デフォルトの名無しさん
17/01/14 15:34:32.29 SauIKXvW.net
>>730
ちんたら本なんて書いてるようじゃまだまだだなぁ

748:デフォルトの名無しさん
17/01/14 15:40:34.90 R+sk5YCr.net
グレブナー基底を導入するのは邪道に見える
こねくりまわして精度落としてるだけな気がする

749:デフォルトの名無しさん
17/01/14 15:48:47.59 YCtOmQB2.net
>>722
どう見ても素人がガチの研究者に喧嘩売って素直に間違い認められずに
騒いでいるだけに見えるんですが…

750:デフォルトの名無しさん
17/01/14 15:48:54.84 hMIcbMDJ.net
>>729-731
マジレスするとペーパーを読みまくるしかない
もっとも Karpathy が指摘しているようにそれも難しいのが現状だがw

751:デフォルトの名無しさん
17/01/14 15:51:56.49 hMIcbMDJ.net
>>733
さすがにしつこい

752:デフォルトの名無しさん
17/01/14 15:53:41.76 DVS8Q/Ug.net
>>733
2chというのはそういうところだよ

753:デフォルトの名無しさん
17/01/14 15:54:37.10 XPdGgowx.net
>>733
匿名掲示板で何を言ってるんだか…
グレブナー基底の知名度をあげるための自演かもしれないだろ

754:デフォルトの名無しさん
17/01/14 15:55:37.66 XPdGgowx.net
>>736
ガチの研究者が素人を相手にするかよw

755:デフォルトの名無しさん
17/01/14 15:55:41.85 WOjPcyyn.net
>>735
言っておくけど自分は>>720とは別人ですよ

756:デフォルトの名無しさん
17/01/14 15:56:35.84 XPdGgowx.net
>>739
自演乙 www

757:デフォルトの名無しさん
17/01/14 15:57:43.48 w57gFb1n.net
>>738
それが2chだからw
お前らの普段のどうでもいい書き込みに比べたらよっぽど価値があったと思うわ

758:デフォルトの名無しさん
17/01/14 15:58:58.06 XPdGgowx.net
>>741
自演乙 wwww


759:wwww



760:デフォルトの名無しさん
17/01/14 16:03:57.26 3ao4YazJ.net
グレブナー基底とかはともかく、
機械学習に数学は不要だとか学部の線形代数で十分とかのほうがよっぽど害悪とおもうけどな
レス版さかのぼるの面倒だから安価付け内が、最初の方にあった「その人のレベルによる」
が真理だろう

761:デフォルトの名無しさん
17/01/14 16:14:47.34 rgpX1Hf4.net
>>741
なんでここにいるの?

762:デフォルトの名無しさん
17/01/14 16:32:31.01 UwZK9QUI.net
そこに山があるから

763:デフォルトの名無しさん
17/01/14 16:54:06.09 XFZNLkXb.net
レシピ使うだけなら数学大して分からんでも使えると思う

764:デフォルトの名無しさん
17/01/14 17:03:41.89 +2hwB+yk.net
数学的なことって言ったらいかに早く計算できる損失関数を書くかぐらいで、他の高速化はワークフレームを作ってるエリート勢に任せるしか無いからな

765:デフォルトの名無しさん
17/01/14 17:17:40.14 g+MBXGeK.net
・研究者 (ML の理論やロジックを考える人、偶に高度なプログラマーも)
・プログラマー (理論検証の為のモジュールを作成して研究補佐したり、その結果をライブラリとして整備、メンテする人)
・プログラマー (ライブラリ等を使ってサービス、製品を作る人)
ごちゃ混ぜだから色々噛み合わないんじゃない?皆見てるところが違うと思う。

766:デフォルトの名無しさん
17/01/14 17:21:49.98 9GQo+kd9.net
>>748
研究者は学会、研究会で発表したり論文書く人だ

767:デフォルトの名無しさん
17/01/14 17:22:12.10 ZCmNSGPu.net
>>748
あとドメインエキスパートもいる
いわゆる企業のデータ分析担当

768:デフォルトの名無しさん
17/01/14 17:24:58.09 +2hwB+yk.net
そしてそれらの人数を遥かに超える、人工知能のニュースを見てきた高卒フリーター勢と・・・・

769:名無しさん
17/01/14 18:10:30.27 RbQHxeBo.net
無料誹謗中傷対策のブッダワークス
URLリンク(www.buddha-works.net)

770:デフォルトの名無しさん
17/01/14 18:39:05.66 UwZK9QUI.net
機械学習は研究ではなくなってしまったってことなんだよ。
もちろん一部の人はやるんだけど、
大抵の人は機械学習のサービスやシステムやライブラリを使うだけ
で、それでいいんだよね。3Dゲームとかも今や高度な数学など必要ない。
物理演算搭載のUnityでぱぱぱっと作れちゃう。
ゲームプログラマが使う物理演算と同じように
何かのプログラマが使う機械学習というものができてしまった。

771:デフォルトの名無しさん
17/01/14 18:59:44.58 W5OVGk82.net
うんまあ一々言われなくても板的に最初からそうだけどねw

772:デフォルトの名無しさん
17/01/14 19:19:07.40 nmNo08PI.net
ゼロから作る読み終えてある程度の知識はついた
次にオススメの本教えて

773:デフォルトの名無しさん
17/01/14 19:41:51.16 okNLMewx.net
すぐ使える人材はすぐに使えなくなる人材である

774:デフォルトの名無しさん
17/01/14 21:03:18.87 1ov7Jv1G.net
何に応用するか考えてるほうが金になる
ネットワーク構造の研究なんて他人に任せておけばいい

775:デフォルトの名無しさん
17/01/14 21:40:42.92 zLdTH/cz.net
>>757
金が目的なら株とかやった方が良いんじゃね?
上手くいけば何十億にもなる

776:デフォルトの名無しさん
17/01/14 21:50:17.34 okNLMewx.net
うまくいかなかったら大損こくだけなんですが

777:デフォルトの名無しさん
17/01/14 21:56:42.06 obLvbAT8.net
応用するのも実現するには金かかる
小規模なら大損なんてならない
現物ならその額以上にはならない

778:デフォルトの名無しさん
17/01/14 22:13:39.15 6iiH6slw.net
>>754
ほんとうにこれ

779:デフォルトの名無しさん
17/01/14 22:41:09.40 i5gFzqK4.net
いちいち蒸し返すな
しつこい連中だな

780:デフォルトの名無しさん
17/01/14 22:46:11.92 hAAO5l81.net
goto error:

781:デフォルトの名無しさん
17/01/14 23:31:04.35 u4MOb4qx.net
>>748がごちゃまぜのままでいい
ネタとしては見ておきたいかんね

782:デフォルトの名無しさん
17/01/15 00:28:10.61 PMeIKZfc.net
プログラム板なんだが。

783:デフォルトの名無しさん
17/01/15 00:38:34.37 0lXewQTe.net
何か定期的に理論畑のやつが現れては噛みついてくけど、スレ違いどころか板違いだわ
同じやつかもしれんが、認められないルサンチマンを晴らすのやめて欲しい

784:デフォルトの名無しさん
17/01/15 00:42:58.43 PMeIKZfc.net
>>757
そもそもネットワーク構造の研究で日本人の成果なんて昔のコグニトロンくらいしか見たことないわw

785:デフォルトの名無しさん
17/01/15 01:17:55.94 dN6f3Ya+.net
tensorflowの文法とかどこで勉強すりゃいいんだ?
英語読�


786:゙のだるすぎる



787:デフォルトの名無しさん
17/01/15 01:30:04.11 2UGMYedl.net
>>766
解釈間違えてんだもん

788:デフォルトの名無しさん
17/01/15 01:32:15.68 2UGMYedl.net
突っ込みたくなるわ
ついでにいうと理論屋兼現場の人間

789:デフォルトの名無しさん
17/01/15 03:29:42.00 OwubW5cu.net
英語読むのだるいならプログラミングに向いてないよ

790:デフォルトの名無しさん
17/01/15 07:41:51.92 NPiNeOGU.net
>>770
理論屋はどういうところが気になるの?

791:デフォルトの名無しさん
17/01/15 08:03:55.71 NPiNeOGU.net
>>767
いっぱいいるじゃん
上田 修功、麻生 英樹、杉山 将、 岡田 真人、櫻井 彰人、杉山 将

792:デフォルトの名無しさん
17/01/15 08:42:39.91 8DB47uCq.net
人工知能学会監修の
深層学習P14の\delta_{j}^{(n)}の式間違ってないか?

793:デフォルトの名無しさん
17/01/15 09:09:19.67 HLRRROfT.net
TensorFLowのPython API が異様に増えてねぇか?
メソッドが2~3千あるような気がするが

794:デフォルトの名無しさん
17/01/15 10:23:41.26 YbD9havS.net
>>770
凄いな、本当にしつこいんだな、
二度と書き込まないのじゃなかったのか?

795:デフォルトの名無しさん
17/01/15 10:26:26.78 PTTSCYnl.net
>>770
プログラム的に何が問題だったの?

796:デフォルトの名無しさん
17/01/15 10:28:48.79 PTTSCYnl.net
>>775
他言語で書かれた成果を移植してるみたいだから、それに伴って増えちゃう

797:デフォルトの名無しさん
17/01/15 10:36:39.46 J/Pf3wnA.net
>>770
理論屋兼現場?研究者という設定じゃなかったのか? www
現場仕事をしてるなら研究で飯を食ってるんじゃないじゃんw 嘘吐きやろうが
>>775
しかも API 名が微妙に変更されてるしな

798:デフォルトの名無しさん
17/01/15 10:42:05.40 YbD9havS.net
進化が激し過ぎるわな、そういう分野なのは分かってるが
chainer も凄く変わった感じがする

799:デフォルトの名無しさん
17/01/15 10:45:08.71 J/Pf3wnA.net
まぁだからこそ抽象化された keras でという話しになるわけだが

800:デフォルトの名無しさん
17/01/15 10:47:52.85 2UGMYedl.net
誰のこと言っての??俺は二度と書き込みしないなんて言ってないし

801:デフォルトの名無しさん
17/01/15 10:47:56.53 8DB47uCq.net
>>781
kerasがtensorflowの変化についていけないとtensorflowを使うメリットが減る

802:デフォルトの名無しさん
17/01/15 10:48:36.35 8DB47uCq.net
>>776
どれとどれが同一人物だと妄想しているのか

803:デフォルトの名無しさん
17/01/15 10:51:05.30 PTTSCYnl.net
>>782
>>784
自演乙です!

804:デフォルトの名無しさん
17/01/15 10:52:03.23 J/Pf3wnA.net
>>783
そこまで tensorflow を使い込んでるなら立派なものだが

805:デフォルトの名無しさん
17/01/15 10:53:06.33 2UGMYedl.net
数学ネタ出して別によくね
どうせ上で書いたオートエンコーダも変数減らすぐらいしか知らなかったんだろ?

806:デフォルトの名無しさん
17/01/15 10:56:39.44 2UGMYedl.net
プログラマーだけだとイメージが先行して間違えた解釈してることにも気づかないよね。。

807:デフォルトの名無しさん
17/01/15 11:00:13.09 PTTSCYnl.net
>>787
あれもあんたかwwww

808:デフォルトの名無しさん
17/01/15 11:02:23.56 YbD9havS.net
本当に同じ人だったのね (^_^;)

809:デフォルトの名無しさん
17/01/15 11:12:30.21 2UGMYedl.net
ついでいうとこっちは個人で勝手に現場でプログラム書いてたりして遊んでる。ただ、最近会社側が機械学習の企業とやり取りしだしてうざいって思ってんだけど、そこの理論の説明がちゃんと理解してんか怪し過ぎてイライラしてる。

810:デフォルトの名無しさん
17/01/15 11:15:43.52 J/Pf3wnA.net
>>791
つまり上で誰かが指摘していたように、仕事上のルサンチマンをスレにぶつけてるわけだな

811:デフォルトの名無しさん
17/01/15 11:16:51.16 bgCmDrZY.net
>>791
それでやたら攻撃的なのか

812:デフォルトの名無しさん
17/01/15 11:20:56.74 2UGMYedl.net
すまんね。
と�


813:閧えず吐き出してちょっとすっきりした。



814:デフォルトの名無しさん
17/01/15 11:31:00.65 NPiNeOGU.net
数学者は機械学習をやりません
やっているとのたまう人は落ちこぼれです
数学者は理論屋ではありません
別物です
理論屋は実験をしませんが人工的なデータでシミュレーションをします
現実のデータを扱っているのなら実験屋か工学者です
現実のデータを理論で実験している数学者なんていません
只のほら吹きか単なる馬鹿です

815:デフォルトの名無しさん
17/01/15 11:43:03.42 99VG1HXP.net
高卒大国ニッポンらしいスレですね
韓国じゃ考えられませんよ

816:デフォルトの名無しさん
17/01/15 11:43:15.20 kgw8mh2A.net
>>773
業績は?

817:デフォルトの名無しさん
17/01/15 11:45:21.03 NPiNeOGU.net
あるよ?

818:デフォルトの名無しさん
17/01/15 11:53:46.86 2UGMYedl.net
>>795
あれ?俺の存在否定されてる?
まあいいじゃん。たまにはそういう人いても。。
ホラ吹きでいいよ。俺間違えても責任取んないし(ワラワラ)

819:デフォルトの名無しさん
17/01/15 11:56:02.40 2UGMYedl.net
馬鹿でもいいよ

820:デフォルトの名無しさん
17/01/15 11:57:21.16 99VG1HXP.net
この人、ニコ生の高卒天才松永そっくりすぎて驚くね
興味があったらニコ生を見てみて

821:デフォルトの名無しさん
17/01/15 12:16:57.57 NPiNeOGU.net
デンソーあたりの制御屋かな?

822:デフォルトの名無しさん
17/01/15 12:18:56.40 PMXG8zDP.net
>>798
アホ?

823:デフォルトの名無しさん
17/01/15 12:32:41.76 NPiNeOGU.net
>>799
798の無能さが表れているレス
こんなんだから社外の機械学習の企業を使うことになった

824:お馬鹿
17/01/15 13:56:29.52 2UGMYedl.net
無能です

825:お馬鹿
17/01/15 15:32:06.46 2UGMYedl.net
あれ?応答がない

826:むのう
17/01/15 16:00:29.99 2UGMYedl.net
>>697
俺の考える機械学習の本質はこっち
>>502(当然おれが書いた)

827:むのう
17/01/15 16:02:06.77 2UGMYedl.net
あれ?何かズレてる忘れて

828:デフォルトの名無しさん
17/01/15 16:04:51.22 wEixuQp0.net
人型ロボット目指すならこの分野の研究するのはベクトルがずれてるンだろうな

829:デフォルトの名無しさん
17/01/15 16:14:32.39 NPiNeOGU.net
カルマンフィルタも機械学習

830:むのう
17/01/15 16:24:49.39 2UGMYedl.net
ええ??そうか?
評価関数が違うだけでカルマんフィルタなんて最適レギュレータと同類だろ。

831:むのう
17/01/15 16:28:56.50 2UGMYedl.net
失礼、応用の用途はカルマンフィルタのほうがはば広いね
ただ、システム同程みたいな従来からある手法を機械学習って呼びたくないな

832:デフォルトの名無しさん
17/01/15 16:34:57.44 NPiNeOGU.net
制御理論やってても理論屋じゃないしね

833:むのう
17/01/15 16:45:59.22 2UGMYedl.net
あん?
俺はもともと制御屋さんじゃないよ。
制御は授業で、カルマンフィルタは独学でやっただけ。

つまりあなたは俺を理論屋さんって言いたくないのね。
うーん、めんどくさいから一回切るべ

834:デフォルトの名無しさん
17/01/15 16:46:56.11 fvCl24Kv.net
どうせ重箱の隅の改良

835:デフォルトの名無しさん
17/01/15 17:52:14.41 Ml3VicRr.net
ダメサラリーマンの独り舞台

836:デフォルトの名無しさん
17/01/15 18:11:52.26 ZoBZjNyK.net
このスレ、もう実は終わってたんだな

837:デフォルトの名無しさん
17/01/15 18:34:22.85 mPtAA3FD.net
ディープラーニングでは不得意な分野があるけれど
それは解決する見込みが無いんだろうな

838:デフォルトの名無しさん
17/01/15 19:03:59.85 NPiNeOGU.net
自称理論屋は死んでどうぞ

839:デフォルトの名無しさん
17/01/15 19:13:39.54 mPtAA3FD.net
ディープラーニングが通用しない分野が
あるってことはよく知られていることだよ。

基本的にコンピュータが処理するのが得意な分野、
つまり大量のデータを正確に処理することであれば得意だけど、
逆に少量のデータから考えて答えを導き出すようなことは苦手

840:デフォルトの名無しさん
17/01/15 19:21:29.96 NPiNeOGU.net
ゴッホ的なタッチを模倣するのがあったけど
そもそものゴッホ的なもの、ビカソのキュビズム的なものに相当する画家の個性そのものも生成可能になると思う

841:デフォルトの名無しさん
17/01/15 19:21:38.90 NPiNeOGU.net
ゴッホ的なタッチを模倣するのがあったけど
そもそものゴッホ的なもの、ビカソのキュビズム的なものに相当する画家の個性そのものも生成可能になると思う

842:デフォルトの名無しさん
17/01/15 19:49:09.06 mPtAA3FD.net
あれ、個性を認識してるんじゃなくて
単に色と線が似ている部分を置き換えてるだけだよ。

まあこういった課題は、正解がないので
適当な回答であっても人間がそう思ってくれれば
よいので実は簡単だったりするw

人間と手話で会話できるゴリラっていたでしょ?
あれもゴリラが適当にやったことを人間がこうなんじゃいか?って
勝手に想像して認識しただけ。それと同じことが起きてる。

843:デフォルトの名無しさん
17/01/15 20:03:21.05 itmwtKVV.net
違います アイちゃん

844:デフォルトの名無しさん
17/01/15 20:22:51.86 8DB47uCq.net
>>823
簡単ならやって見せて欲しいものだ
〇〇なだけというなら君はネガティブな事を言ってるだけだし

845:デフォルトの名無しさん
17/01/15 20:27:19.85 Ml3VicRr.net
>>825 全然妄想じゃなかったようだぞ?
783 : デフォルトの名無しさん 2017/01/15(日) 10:48:36.35 ID:8DB47uCq
>>776
どれとどれが同一人物だと妄想しているのか

846:デフォルトの名無しさん
17/01/15 20:33:08.53 mPtAA3FD.net
>>825
簡単とは言ってないよ。人工知能とはほぼ無関係って話。
URLリンク(designcolor-web.com)

847:デフォルトの名無しさん
17/01/15 20:33:13.13 03tEOUy2.net
>>825
普通に簡単だろ… 実装コードは幾つも公開されてるぞ。

848:デフォルトの名無しさん
17/01/15 20:38:31.34 03tEOUy2.net
>>826
www

自称理論屋はあなたかもしれないw

849:デフォルトの名無しさん
17/01/15 20:39:56.11 8DB47uCq.net
>>826
後出しw

850:デフォルトの名無しさん
17/01/15 20:40:28.35 NPiNeOGU.net
ココね
奇跡の詩人状態なんじゃないか、っていう

少量のデータっていうけど、少量とは相対的なものだから
コンピュータの処理能力にとってみれば1000万枚の画像は少量だし処理可能なわけで
逆に人間に1000万枚の画像を与えたときにその分だけスケールして高精度になるかといわれればサちって頭打ちになるんじゃないかと

それにいずれ現在より少ないデータで同等のレベル以上に達するアルゴリズムが出てくるでしょう
KSVM以後のPassive Aggressive、Confidence Weighted Algorithm、Adaptive Regularization of Weight Vectorsみたいなふうに

851:デフォルトの名無しさん
17/01/15 20:41:08.38 8DB47uCq.net
>>827
>>823に簡単と書いてあるがw

852:デフォルトの名無しさん
17/01/15 20:42:09.42 8DB47uCq.net
>>828
それはパクリだ
簡単なら自分で一から作れるだろ

853:デフォルトの名無しさん
17/01/15 22:06:10.04 OwubW5cu.net
何もない状態からフルスクラッチできなきゃ難しいとでもいうのか

854:デフォルトの名無しさん
17/01/15 22:35:21.89 8DB47uCq.net
>>834
簡単→ゼロから自分で作れる
ゼロから自分で作れない→簡単ではない
ゼロから自分で作れないけど簡単なものって具体的に何?

855:デフォルトの名無しさん
17/01/16 07:07:01.90 WtkYzKjH.net
お前の服
お前の食ってる物
お前の住んでる家
簡単だろ?作れるのか?

856:デフォルトの名無しさん
17/01/16 07:34:27.42 T2GwwFFs.net
>>836
簡単じゃねーよ

857:デフォルトの名無しさん
17/01/16 07:52:43.37 3Uu7W/fv.net
子供

858:デフォルトの名無しさん
17/01/16 07:53:36.41 mJO9t+AP.net
TensorFlowのOSS化のニュースのソースはどこなの?

859:デフォルトの名無しさん
17/01/16 09:09:43.85 CEdX3mwi.net
ゼロから作る読んだらnumpyとか除いたライブラリなしでフルスクラッチ出来るようになった

860:デフォルトの名無しさん
17/01/16 10:30:12.26 CwAqvFXp.net
>>839
GGRKS

861:デフォルトの名無しさん
17/01/16 11:43:02.32 rlqB3u3U.net
何かもう飽きたよ
やれることが限定的だしデータだって定番ばかりだ

862:デフォルトの名無しさん
17/01/16 11:49:20.72 fw5peNoE.net
定番メニュー食い飽きた?
ならば新メニューを独自開発しよろよ

863:デフォルトの名無しさん
17/01/16 12:10:36.71 3Uu7W/fv.net
ビジネスの世界へ行けば面白いぞ
データ関係の分野で面白いのは結局それ使ってどう金を儲けるかだろ

864:デフォルトの名無しさん
17/01/16 12:15:43.06 AoxIxxAM.net
deep learning に持ち込めるだけのデータを持つのは難しいから
定番ネタばかりになるのは仕方ない

865:デフォルトの名無しさん
17/01/16 12:22:08.83 oQgpUiez.net
ビジネスだとデータなんか無限に湧いてくる

866:デフォルトの名無しさん
17/01/16 13:03:32.15 Db0Ey1E9.net
どうやって案件を取って金をぼったくるの?

867:デフォルトの名無しさん
17/01/16 14:13:51.01 /WVChNsa.net
時勢がら案件は簡単に取れる、ぼったくるかは貴方しだい

868:デフォルトの名無しさん
17/01/16 14:24:06.90 yJEqbzVk.net
>>783
KerasがTensorFlow本体に組み込まれるらしい
ハイレベルAPIとして

869:デフォルトの名無しさん
17/01/16 15:46:24.79 u2kLpW+V.net
誰でもディープラーニングが出来る時代になったのはいいけどね
頭の悪さが特徴抽出の出来の悪さに直結して、まともなものが出来ないでござる・・・・

870:デフォルトの名無しさん
17/01/16 15:50:56.08 jCRkFUA/.net
>>850
そんなに頭悪いの?他のことやれば

871:デフォルトの名無しさん
17/01/16 16:08:40.02 B5rWKi6Q.net
DQNの特徴を抽出して浮き彫りにするプログラム書いてよ

872:デフォルトの名無しさん
17/01/16 16:18:08.92 u2kLpW+V.net
そういやDQNってもともと高卒・専門卒以下の学歴を指す言葉だったのに世も変わったな

873:デフォルトの名無しさん
17/01/16 16:30:23.12 ufmMavWE.net
>>853
いつから学歴を示す言葉になったの?
無知すぎるからとりあえずwikipedia読んだあと半年romってろ

874:デフォルトの名無しさん
17/01/16 16:40:13.99 qGPkeFbt.net
3年じゃないのかw

875:デフォルトの名無しさん
17/01/16 16:49:35.19 h1Gia5xw.net
元々のDQNは、マミーってやつがFランの下の人間を指す語として定義した言葉だったんだよ
Wikipediaでも昔のバージョンを見るとその旨が書いてある
URLリンク(ja.wikipedia.org)

876:デフォルトの名無しさん
17/01/16 18:01:51.99 xePMEW+E.net
URLリンク(youtu.be)

877:デフォルトの名無しさん
17/01/16 18:42:35.41 xmT3FgHt.net
DQNはDeep Q Networkの略です

878:デフォルトの名無しさん
17/01/16 20:36:38.91 h1Gia5xw.net
ただこのスレの住人は高卒モン卒の方のDQNだらけ

879:デフォルトの名無しさん
17/01/16 20:44:04.59 msgU5aLq.net
Deep Queen Netwoek

880:デフォルトの名無しさん
17/01/16 20:57:20.41 Sf7E7n0Z.net
>>853
これは!
いやーきたね!!
逸材だぁ!!!

881:デフォルトの名無しさん
17/01/16 23:24:13.31 dJ0UlAFz.net
ベイズやSVMで20クラスほどのクラス分類をしているのですが、クロスバリデーションでは9割以上正解なのに
テストデータでは3割とかになってしまうのは、どういう原因が考えられるでしょうか?
3週データを取得して1週目と3週目を学習データに、2週目をテストデータとしているので
学習データのオーバーフィッティング?もなく学習データとテストデータの性質もバランスが取れているはずなのですが
それと、誤差要因を見出すには誤差項というのを検証するといいみたいなことを聞いたのですが、
ググると回帰分析の話が出てきますが、誤差項というのは連続性のないクラス分類でも検証できるものなのですか?

882:デフォルトの名無しさん
17/01/16 23:44:46.33 H9G+c2UE.net
>>862
1週目と3週目のデータで学習するとオーバフィッティングしないという理由が判りません

誤差って何と何の差ですか?

883:デフォルトの名無しさん
17/01/17 00:56:15.56 tsbi2MJl.net
>>863
音波とか電波とかを使った位置推定みたいなことをやってます

ああ、過学習っていうのは細かく切り分けすぎみたいなやつですか
日によって外的要因などで変化があることを考慮して、
1週目だけに特化しないようできるだけ多いパターンのデータをとれるように
2回とったわけです(この作業はなんて言うんでしょうか?)

部屋をマス目上に区切ってそれぞれの地点をクラスとして、
正解と分類結果の位置の平面距離を誤差として扱っています

884:デフォルトの名無しさん
17/01/17 01:40:17.43 fnrDgeqA.net
>どういう原因が考えられるか
そもそもちゃんと上手くいく補償は何もないはず

885:デフォルトの名無しさん
17/01/17 01:58:22.56 tsbi2MJl.net
>>865
クロスバリデーションではうまくいってるからむしろ逆に疑問なのです
こういうことは往々にして起こるものなんでしょうか?
自作アプリケーションではなくWeka3を使ってるので、
クロスバリデーション時のデータの分割がおかしいとかいうことはないはずです
もしやと思い一応データの順序をバラバラにして読み込ませてみましたが、変わらないですし

886:デフォルトの名無しさん
17/01/17 02:09:51.51 4Zn+ZHnq.net
>>866
別に珍しくも何ともない
だからレスの反応も鈍い

887:デフォルトの名無しさん
17/01/17 02:41:54.24 6FN76xWU.net
全てが上手くいけば苦労しないよ

888:デフォルトの名無しさん
17/01/17 06:25:04.80 Upzxz6/t.net
>>864
前処理を追加してみるとか
正規化とか標準化とか中心化とか

誤差の分散がクラス分けの分散より大きいから正しく分類されてないということは言えるだろう

889:デフォルトの名無しさん
17/01/17 06:59:26.60 oG+VNPPp.net
あなたのいうクロスバリデーションが1週目と3周目のデータを対象にしたってことならおかしくないんじゃないかと
n週目、に区切るのが気持ち悪い
データが週で偏ってるんでしょ
全体をシャッフルしてクロスバリデーションするならわかるけど

890:デフォルトの名無しさん
17/01/17 22:45:49.19 fnrDgeqA.net
>一応データの順序をバラバラにして読み込ませてみましたが、変わらないですし

どういうことをしたの?
順序って何の順序?

891:デフォルトの名無しさん
17/01/17 23:03:02.32 NwjbzAqk.net
>>849
うわぁえげつねぇ、ググったら本当みたいね。もう tensorflow 1強で勝負にならねぇな…

892:デフォルトの名無しさん
17/01/17 23:04:31.07 CnW57jrJ.net
ミゲルがtensorflowのC#ラッパー書いてたなw

893:デフォルトの名無しさん
17/01/17 23:13:45.71 50N4tk+s.net
C# ラッパーは windowsプログラマに需要ありそう

894:デフォルトの名無しさん
17/01/17 23:16:07.66 50N4tk+s.net
kerasかTFかで悩む必要なくなるな
あくまでTF内の話しになるわけだ

895:デフォルトの名無しさん
17/01/17 23:28:52.44 AgXo0Iqi.net
tensorflow 1強になりそうだな。

896:デフォルトの名無しさん
17/01/17 23:34:20.80 2pYNMMxB.net
競争の激しいところでは資本力が強いところが勝つ
それだけのこと

897:デフォルトの名無しさん
17/01/17 23:40:32.56 rIfocs2Z.net
AWSの機械学習系のサービスは何使ってるんだろう
AmazonはJava好きだからSparkかな

898:デフォルトの名無しさん
17/01/17 23:48:51.97 NwjbzAqk.net
EMR には Spark 入ってるけどな、あくまで Hadoop エコシステムの一つとして

899:デフォルトの名無しさん
17/01/17 23:50:47.76 NwjbzAqk.net
>>877
真理ではあるが、MS のフレームワークは成功しているとは言えないから
やはりこの分野でのグーグルのブランド力もあるかと

900:デフォルトの名無しさん
17/01/17 23:54:39.00 Yq4yq7rY.net
AWSはJavaかC++で独自に自作してそう
DBMSをいくつも独自に内製したりとか意味不明な技術力があるんだから機械学習くらい楽勝だろ

901:デフォルトの名無しさん
17/01/18 01:00:12.63 A2sif1c9.net
和製Chainerがどこまで食い下がれるか

902:デフォルトの名無しさん
17/01/18 01:01:26.05 pJi8eRzq.net
>>867-871
ありがとうご


903:ざいます そういうもんなんですかね 前処理・分散について調べてみます 順序というのは、極端な例ですが AAABBBCCCDDDEEE(「A」はAに分類されるべきデータを表す)という15個のデータがあった場合、 これをそのまま5-foldに突っ込んだらAAA~DDDで学習・EEEで検証みたいなことになったりしないかと思って (もちろんちゃんとしたソフトでそんなことはないと思いますが、念のため)手動で15個のデータをバラバラにしたということです



904:デフォルトの名無しさん
17/01/18 01:04:54.02 fOnydPHH.net
>>896の意見が一番需要なんだけど

905:デフォルトの名無しさん
17/01/18 01:05:21.33 fOnydPHH.net
>>870

906:デフォルトの名無しさん
17/01/18 01:07:42.22 IyurpQq3.net
>>882
自分はかなりchainerを使ってきたが、もう全然食い下がれてないと思う。仕様変更が目立って、他人に勧めにくいし。
というか、Kerasまで取り込むならもう比べるのは無理

907:デフォルトの名無しさん
17/01/18 01:15:48.89 DkwTo2ZZ.net
仕事ならtensorflowを使うのがいいし、そうでないなら好きなの使えばいい。ただ、比較対象になりがちだった kerasを本当に吸収するなら確かに勝負あったわな

908:デフォルトの名無しさん
17/01/18 01:19:44.53 n+xYo+s2.net
しょうがないよ、>>877 が言及しているように企業力が違い過ぎるわw
もともと chainer ユーザの大半は日本人だし。
まぁ食い下がる可能性があるとしたら chainer よりも MS の cognitive tool だろうけど

909:デフォルトの名無しさん
17/01/18 01:24:42.96 9fl7TnA/.net
これからDL始めようと思ってるんだけど黙ってKeras使っとけばええの?

910:デフォルトの名無しさん
17/01/18 01:32:26.30 n+xYo+s2.net
>>889
今のところ Keras を使っておくのがベストじゃないかな、バックエンドは TensorFlow にして。
(バックエンドは Theano と TensorFlow が選べる。)
ドキュメントがいまいちなんだけど、日本語の技術ブログでも Keras 使いが増えてるからググれば何とかなると思う

911:デフォルトの名無しさん
17/01/18 01:33:35.50 IyurpQq3.net
>>889
たぶん一番現実的。やっておいて損はない

912:デフォルトの名無しさん
17/01/18 04:07:21.46 A2sif1c9.net
>>890>>891
了解👌

913:デフォルトの名無しさん
17/01/18 07:58:42.28 618y5kdV.net
kerasのtheano対応が悪くなるとしたら
theano潰しかと

914:デフォルトの名無しさん
17/01/18 07:59:22.96 OKslPlHa.net
keras開発陣営は吸収で猛反発しているから果たしてまとまるか?

915:デフォルトの名無しさん
17/01/18 08:15:14.63 cw6vafSX.net
まあ分裂するだろうな
Googleの要員がみんな引き揚げて先細りだろう

916:デフォルトの名無しさん
17/01/18 08:19:13.69 g5oyubLe.net
TFが勝手にKerasをマージするんであって別にプロジェクトが統合されるわけじゃないでしょ
まあGoogleメンバーはKerasから引き揚げるだろうから結果は同じだけど

917:デフォルトの名無しさん
17/01/18 10:32:22.09 s704hw/z.net
よくChainerは日本語のリファレンスが充実してるとか言われるけど、そんなの一体どこにあるん?

918:デフォルトの名無しさん
17/01/18 10:41:29.81 DybqNz24.net
ぶっちゃけ、人工知能関係の人って数学出来ないよねw

マンフォードとか例外はあるけど。

919:デフォルトの名無しさん
17/01/18 11:44:32.15 618y5kdV.net
Good news, Tensorflow chooses Keras!
URLリンク(github.com)

920:デフォルトの名無しさん
17/01/18 20:39:45.91 /Pl9s4hM.net
日本語訳リファレンスが出てるのはkerasだけ

921:デフォルトの名無しさん
17/01/18 20:40:54.22 /Pl9s4hM.net
食い下がるとか発想が違うんだよな
googleは他社が追い上げてきたら常にちょっと上の技術を無料にして価値を暴落させる

922:デフォルトの名無しさん
17/01/18 23:14:12.6


923:7 ID:iMqn5lIO.net



924:デフォルトの名無しさん
17/01/18 23:19:41.02 iMqn5lIO.net
連レスすみません
外れ値なんだから除けとかクラス分類じゃなくて回帰にしろとか
そういうツッコミもあるかもしれませんが、ありえないかありえなくはないか、お願いします

925:デフォルトの名無しさん
17/01/18 23:19:49.31 cw6vafSX.net
決定木分析でしょ
精度はともかく結果が理解しやすいのでヒジネスだとよく用いられる手法

926:デフォルトの名無しさん
17/01/18 23:52:39.75 9rq3F1kV.net
他クラス分類では普通の方法
SVMとかで1対多を段階的にやる手法とかある
ただ年収だけがパラメータでそれを推定するのは無理でしょ

927:デフォルトの名無しさん
17/01/18 23:55:43.40 MamR9lTx.net
>>901
それは何か分かるわ。他社というか一般人がキャッチアップしてきたら少し上の技術をぶら下げてくる感じ。
で、たくさんの人が釣られる。tensorflowも仕様は膨れ上がってきたけど、出し惜しみしてる感じがする

928:デフォルトの名無しさん
17/01/19 00:07:58.44 6UZ++j4E.net
Google様が本気で作ったら俺たちじゃ使いこなせないよw

929:デフォルトの名無しさん
17/01/19 00:13:40.86 V9XgfpVr.net
決定木分析って日本のセキュリティ学会wで
最近でも根強く見かけるよく見るお笑い系分析だから使わない方がいいよ

930:デフォルトの名無しさん
17/01/19 00:14:10.34 HN6Cj9Z/.net
若くて功名心のある傭兵が先頭に突っ込んでいって討ち死にして
老兵は一歩後ろから労せずついていくだけ

931:デフォルトの名無しさん
17/01/19 00:17:42.53 9PXg/P1I.net
>>908
決定木はデータの可視化手法の一つでしょ
予測に使うもんじゃない

932:デフォルトの名無しさん
17/01/19 00:21:12.29 HN6Cj9Z/.net
chainerの功績としてはgoogleにtensorflowを出させたってことだよ

933:デフォルトの名無しさん
17/01/19 00:36:03.62 pyZayEkl.net
>>911
客観視すればそういうことかもしれないね

934:デフォルトの名無しさん
17/01/19 00:42:52.15 HN6Cj9Z/.net
これからもgoogleに技術情報を開示させるためにchainerは頑張って欲しい

935:デフォルトの名無しさん
17/01/19 00:47:04.94 V9XgfpVr.net
>>911
そんな功績ないだろ他にもたくさんいいものがあったけど
車開発自体頓挫して天才がうまくPJに集約できただけだろう

936:デフォルトの名無しさん
17/01/19 01:00:55.39 WuPj/L0n.net
このスレって理論とかシステム構築?とか専門の人が多いのかな
実作業でデータ使ってこういうビジネスやってるみたいな話が聞いてみたい

937:デフォルトの名無しさん
17/01/19 01:09:21.11 VzgWotqb.net
>>913
いや、google を突っつく役目はもう終わってるよw 差がつき過ぎて google の目に入らない
残念だが、今のままでは歴史的には埋没するだけ

>>915
機械学習は環境構築だけじゃ意味がないから、データももちろん取り扱って実作業してるよ
ただ自前でデータを保持している場合は多分あまりなくて、
お客さんのデータが多いから匿名掲示版で迂闊に話しができないだけ

938:デフォルトの名無しさん
17/01/19 01:13:07.04 HN6Cj9Z/.net
画像識別するソフトつくって納品してる
終わり

実際、客の予算が限られてるから儲けが変わらん。
今までは不可能だった商売考えないと儲けは増えない

939:デフォルトの名無しさん
17/01/19 05:14:09.24 v6eTmRvb.net
>>911
その因果関係は見かけだけでは?
本当のことはGoogleの中の人しか判らない

940:デフォルトの名無しさん
17/01/19 06:17:03.03 fHfcI6WA.net
そんなことを言い始めたら、google の中の人だって上層部の人しか分からんわw

941:デフォルトの名無しさん
17/01/19 06:19:17.48 v6eTmRvb.net
>>919
そうだな
だから単なる希望的憶測でしかないな

942:デフォルトの名無しさん
17/01/19 06:25:40.47 VzgWotqb.net
まぁ「google に出させた」は希望的というか、ひいき目過ぎるだろうな
そういうタイミングだったとしか言いようがない

943:デフォルトの名無しさん
17/01/19 06:42:23.05 bxUvDjd6.net
theanoがあっただろ。。。

944:デフォルトの名無しさん
17/01/19 06:44:18.61 fHfcI6WA.net
caffe があったろw

945:901
17/01/19 06:50:38.59 svwhoAa+.net
>>904>>905>>908>>910
ありがとうございます
私自身機械学習は初心者で説明も下手だったとは思いますが、
大学の先生にそんなのは意味不明でやる価値がない(意訳)と言われてしまったものですから…w
今まで機械学習をブラックボックスで使ってましたが、
決定木分析というのを含め、中身をちょっと勉強してみようと思います

946:デフォルトの名無しさん
17/01/19 08:00:28.54 df9Spehw.net
torch のこともたまには思い出してあげて下さい

947:デフォルトの名無しさん
17/01/19 09:26:25.00 9PXg/P1I.net
>>902みたいな問題をやるなら、結局のところ目的は推定じゃなくて知識発見だろ?
学習手法はブラックボックスでもいいけど、少なくとも結果として得られたモデルの意味を理解できないと何の意味もないと思うぞ
その意味では決定木も悪くないが統計解析から真面目にやった方がいい

948:デフォルトの名無しさん
17/01/19 21:25:50.12 V9XgfpVr.net
>>926
推定でいいじゃろ
アンサンブルでランダムフォレスト取って年収の説明変数部分に特化して他の学習スタッキングすれば分類できるべ?

949:デフォルトの名無しさん
17/01/19 21:26:41.24 HN6Cj9Z/.net
研究者 アルゴリズムの開発
技術者 学習
ユーザー 使うだけ

わりと住み分け出来てきたな

950:デフォルトの名無しさん
17/01/19 21:30:58.18 snyfPmTW.net
学習て何すんの?
何処までの範囲?

951:デフォルトの名無しさん
17/01/19 22:10:20.24 tB9y33ui.net
>>927
知識としてのモデル自体の価値を忘れてはいけない
目的変数を望ましい方へ変化させるためのアクションをとることを目的とする場合、
人間にとって意味が理解できるモデルであることはとても重要

952:デフォルトの名無しさん
17/01/19 22:12:29.94 Mbx/4N0r.net
>>929
指導要領参照

953:デフォルトの名無しさん
17/01/19 22:29:02.08 ri/oCnx2.net
実験データのスペクトル解析にも普通に機械学習が使われるようになってきたよ。
自分も実験、シミュレーション屋さんなんで、
アルゴリズムの開発はよろしく。

954:デフォルトの名無しさん
17/01/19 22:31:43.91 Mbx/4N0r.net
馬鹿乙

955:デフォルトの名無しさん
17/01/19 22:38:56.08 irXhj7sG.net
アルゴリズムて学習のアルゴリズムくらいじゃね
新しい構造を巧く学習するために色々考えられたんだろうし

956:デフォルトの名無しさん
17/01/19 22:51:52.71 hdy+4jyN.net
今実験屋さんと共同


957:研究しているとこ増えてきたしね。 natureなんかにも報告例あるし。



958:デフォルトの名無しさん
17/01/19 22:58:02.47 Mbx/4N0r.net
相手にされないのね

959:デフォルトの名無しさん
17/01/19 23:38:23.38 V9XgfpVr.net
実験屋は役に立たないってわかってきたから
最先端は抽象代数系の特異な純数学の人をだまして
連れてくるのが流行ってる

960:デフォルトの名無しさん
17/01/19 23:54:44.18 GXj94YsU.net
実験への適用はこれからって感じだけどな。
最近は実験で膨大なデータが取得されるから、
効率的な解析手法が求められてる。

961:デフォルトの名無しさん
17/01/20 00:21:20.80 9/re34ML.net
好みは人それぞれなんだから好きにすりゃいいじゃん
全員が全員同じセンスなんてあり得ないんだから
押し付けがましいのは良くないぞ

962:デフォルトの名無しさん
17/01/20 00:22:41.52 u6rFaF99.net
すまんな中途半端な誤爆した

963:デフォルトの名無しさん
17/01/20 21:27:29.67 qOWL1VY/.net
学習は既存のネットワークで十分な結果得られてるし
これからは特徴抽出の方が重要になってくるんじゃないの

964:デフォルトの名無しさん
17/01/20 22:34:01.83 K+Z7+eQr.net
やっぱ芸術だよな
芸術こそ人を幸せな気分にし感動させる

965:デフォルトの名無しさん
17/01/20 22:37:11.42 A0acoxAd.net
新スレ立ててそこでやれよ

966:デフォルトの名無しさん
17/01/20 22:41:28.61 A0acoxAd.net
>>942
誘導
URLリンク(mint.2ch.net)

967:デフォルトの名無しさん
17/01/21 09:59:21.26 tC93jdQ3.net
人生はできるかできないかじゃない
やるかやらないかだ

968:デフォルトの名無しさん
17/01/21 10:00:57.60 LFvCw0cQ.net
あんたなにやってんのよ、まじめに働いてよw

969:デフォルトの名無しさん
17/01/21 10:42:51.96 6/ot5eli.net
ところでセキュリティフォントにAI組み込むって話ってうま味ありそう?

970:デフォルトの名無しさん
17/01/21 11:10:41.77 Poucv/rB.net
優秀な詐欺営業がいて自治体とコネクションがあるなら

971:デフォルトの名無しさん
17/01/21 11:19:28.45 VaR4rSpq.net
yes we can

972:デフォルトの名無しさん
17/01/21 11:37:07.48 jSHUwZFF.net
失敗したPDFだとこんな風になるな
コピペすると文字化けするような

973:テンプレ 1/3
17/01/21 11:39:30.60 nFM+9kDb.net
mail: sageteoff
title: 【統計分析】機械学習・データマイニング12

機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ

■関連サイト
機械学習の「朱鷺の杜Wiki」
URLリンク(ibisforest.org)
DeepLearning研究 2016年のまとめ
URLリンク(qiita.com)

■前スレ
【統計分析】機械学習・データマイニング11
スレリンク(tech板)

974:テンプレ 2/3
17/01/21 11:40:02.25 nFM+9kDb.net
■過去スレ
【統計分析】機械学習・データマイニング【集合知】
スレリンク(tech板)
[統計分析]機械学習・データマイニング[集合知] 2
スレリンク(tech板)
【統計分析】機械学習・データマイニング3
スレリンク(tech板)
【統計分析】機械学習・データマイニング4
スレリンク(tech板)
【統計分析】機械学習・データマイニング5
スレリンク(tech板)
【統計分析】機械学習・データマイニング6
スレリンク(tech板)
【統計分析】機械学習・データマイニング7
スレリンク(tech板)
【統計分析】機械学習・データマイニング8
スレリンク(tech板)
【統計分析】機械学習・データマイニング9
スレリンク(tech板)
【統計分析】機械学習・データマイニング10
スレリンク(tech板)
【統計分析】機械学習・データマイニング11
スレリンク(tech板)

975:テンプレ 3/3
17/01/21 11:40:36.38 nFM+9kDb.net
■関連スレ
人工知能・機械学習のスレッド@数学板
スレリンク(math板)
パーセプトロン
スレリンク(informatics板)
人工知能ディープラーニング機械学習のための数学
スレリンク(tech板)
Deep learning
スレリンク(tech板)
ディープラーニング
スレリンク(tech板)
自然言語処理スレッド その4
スレリンク(tech板)

■人工知能考察スレ
(強いAI)技術的特異点/シンギュラリティ(知能増幅) 54
スレリンク(future板)
(AI)技術的特異点と政治・経済・社会等(BI) 9
スレリンク(future板)
(情報科学)技術的特異点と科学・技術等 1
スレリンク(future板)
人工知能
スレリンク(future板)
人工知能で自我・魂が作れるか
スレリンク(future板)
こころがあるロボットは作れるのか
スレリンク(robot板)

976:デフォルトの名無しさん
17/01/21 11:51:59.19 LFvCw0cQ.net
spam 1.0

977:デフォルトの名無しさん
17/01/21 12:27:32.25 L4FGtyIc.net
セキュリティフォントにはもうAI組み込まれてるのに?
流行りのAI詐欺で元武雄市長とともにやったるんかいw

978:デフォルトの名無しさん
17/01/21 12:49:07.64 jSHUwZFF.net
SFCじゃ無理だな

979:デフォルトの名無しさん
17/01/21 12:55:59.52 LFvCw0cQ.net
Wも無理

980:デフォルトの名無しさん
17/01/21 13:36:04.83 yR+dIRXC.net
【人工知能】AIが作成したAIプログラムの性能が人間が開発した製品を上回る…AIがAIをプログラムする時代が到来
URLリンク(dai) ly.2c h.n et/test/read.cgi/newsplus/1484899117/

981:デフォルトの名無しさん
17/01/21 13:52:35.29 VaR4rSpq.net
俺は技術的特異点は来ず、シグモイド関数になるとみている

982:デフォルトの名無しさん
17/01/21 14:40:03.58 LFvCw0cQ.net
Are you brain damaged?

983:デフォルトの名無しさん
17/01/21 15:22:09.53 +/5BUcoL.net
中学レベルの英語ができないとか、日本の将来は明るいな

984:デフォルトの名無しさん
17/01/21 15:53:33.38 mUblnKuo.net
>>942 ピカソのゲルニカや岡本太郎の爆発する藝術はどうなの?

985:デフォルトの名無しさん
17/01/21 16:29:19.91 qJj38k1e.net
my explorer has been getting explosion everyday

986:デフォルトの名無しさん
17/01/21 16:44:25.62 LFvCw0cQ.net
I recommend to you clean install.

987:デフォルトの名無しさん
17/01/21 16:52:50.93 f43Hfk5I.net
まだAIの英語力の方がマシみたいだな

988:デフォルトの名無しさん
17/01/21 17:03:55.21 pK1RKLHe.net
I recommend to you re-install cleanly up.

989:デフォルトの名無しさん
17/01/21 17:20:21.17 6/ot5eli.net
英語は小6ぐらいで問題ないぞ
なろうと思えば大統領にもなれるぞ

990:デフォルトの名無しさん
17/01/21 17:52:19.28 LFvCw0cQ.net
トランプの演説か、大統領の英語は分かりやすくしてる面もあるが

991:デフォルトの名無しさん
17/01/21 17:53:33.95 sMDuy5hJ.net
> 英語は小6ぐらいで問題ないぞ
それはどこの国でどういう環境で育った小6の話だ?

992:デフォルトの名無しさん
17/01/21 17:53:49.82 LFvCw0cQ.net
ドナルドダッグというアニメがあったな

993:デフォルトの名無しさん
17/01/21 17:59:10.13 sMDuy5hJ.net
ドナルドダックな

994:デフォルトの名無しさん
17/01/21 18:30:24.42 qJj38k1e.net
BIGガメラ

995:デフォルトの名無しさん
17/01/21 18:47:20.72 EklQ/C0C.net
>>897
公式は英語のみで日本語の解説はユーザーや開発者が勝手に使って
メモ帳のような内容をブログに掲載しているだけだね。
未だに日本語レファレンスが無いところをみると
chainer側としては目標は全世界がターゲットであって
日本にはこだわらない、日本語のアドバンテージなんて注目してなかっただろうし。

996:デフォルトの名無しさん
17/01/21 19:27:49.38 6wj0KFcw.net
結果論だけどその戦略が裏目に出たかな。
ほとんど日本人しか使ってないのにリファレンスは英語だけというマヌケな話しw
しかも英語が微妙に下手

997:デフォルトの名無しさん
17/01/21 19:38:39.05 +b15DBPX.net
日本だけで使われることは本意じゃないのだから別にいいんじゃね
ただ、日本語文書が豊富という煽りには最初、困惑したが

998:デフォルトの名無しさん
17/01/21 19:40:50.08 EIHcSVAK.net
戦略というより意識高い系のプライドだろ
それが滲み出てるから余計に敬遠された

999:デフォルトの名無しさん
17/01/21 19:43:45.68 6wj0KFcw.net
>>976
あぁ、確かにそれはあるかもね w

1000:デフォルトの名無しさん



1001:
>>958 意味がわからんニュース 記者自身がわかってない



1002:デフォルトの名無しさん
17/01/21 19:57:03.98 o/kJNhEY.net
専門外の英単語なんてチンプンカンプンなんだからみんなkeras使うよ
和訳マニュアルあるしね


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch