人工知能ディープラーニング機械学習のための数学at TECH
人工知能ディープラーニング機械学習のための数学 - 暇つぶし2ch714:デフォルトの名無しさん
18/07/16 11:50:10.35 1RDPQ2ba.net
>>690
そうですね、聞き方が間違っていました。
オブジェクト配列と変数配列の空間座標の写像変換アルゴリズムにおいて
ベクトル行列の微分積分がよく分からないので復習のための
参考書籍かページを紹介して頂けませんか?

715:デフォルトの名無しさん
18/07/16 12:14:37.34 1RDPQ2ba.net
>>682さんの
>高等数学をアプリ化するとプロ電卓しかないのか?
>アルゴリズム辞典みたいなのを探しているんだけど
に近いものを探しています。
例えば、ハイパボリックタンジェント関数の実装プログラムなど
検索しても以下のような説明書レベルしか分からないのです。
URLリンク(support.minitab.com)
用途
ハイパボリック関数は、電気輸送(ケーブルや導線の長さ、重量、応力を計算する)、上部構造(吊橋の弾性曲線とたわみを計算する)、
および航空宇宙(航空機の理想的な表面被膜を判断する)など、
工学技術の分野において多くの応用に役立っています。
統計では、逆ハイパボリックサインがJohnson変換で使用され、
正規分布に従うようにデータを変換します。
工程能力分析によっては、正規性を仮定する必要があります。

716:デフォルトの名無しさん
18/07/16 14:26:24.31 9aUIy4l0.net
えーと何か聞きたいのかマウントしたいのかどっち?

717:デフォルトの名無しさん
18/07/16 15:03:32.59 PLRcL5uS.net
>>692
双曲線関数と呼ばれている
URLリンク(ja.wikipedia.org)

718:デフォルトの名無しさん
18/07/16 15:06:28.19 OH0DCCOT.net
>>692
意味不明、頭悪すぎ、お前には無理

719:デフォルトの名無しさん
18/07/21 13:25:16.60 0jgxJn0i.net
人工知能なんて数学できなくても問題ないだろ

720:デフォルトの名無しさん
18/07/21 13:31:58.05 5j+gXKC+.net
DLできなくても問題ないだろ

721:デフォルトの名無しさん
18/07/21 15:44:58.70 4GfbIlHB.net
PG出来なくても問題ない

722:デフォルトの名無しさん
18/07/21 16:22:45.31 JzufiDOi.net
書評まだないね
URLリンク(www.amazon.co.jp)

723:デフォルトの名無しさん
18/07/21 23:57:57.78 OAaPo88n.net
URLリンク(www.amazon.co.jp)
URLリンク(www.saiensu.co.jp)
20日発売なのに新品はもう品切れ

724:デフォルトの名無しさん
18/07/28 12:38:17.57 kGN2HSKI.net
数式の縦ベクトルの解釈にいつも迷う。
縦ベクトルってnumpyで定義するとどうなるの?
np.array([1, 2, 3])なのか、
np.array([ [1], [2], [3] ])なのか
縦ベクトルnp.array([1, 2, 3]).T は元のベクトルと全く
同じになるっぽいね。

725:デフォルトの名無しさん
18/07/28 12:46:37.37 XViFlA6N.net
縦の物は横にしない

726:デフォルトの名無しさん
18/07/28 13:41:32.50 39ICzHjE.net
縦か横かは関係ないというか自分がどう見るかで変わる
それより大事なのは右から掛けるか左から掛けるか
shapeで自信がないひとは
適当な正方行列を掛けてみれば良い

727:デフォルトの名無しさん
18/07/28 13:43:51.13 39ICzHjE.net
>>701
君が期待してるのはこっちだろ
>>> np.array([[1, 2, 3]])
array([[1, 2, 3]])
>>> np.array([[1, 2, 3]]).T
array([[1],
[2],
[3]])

728:デフォルトの名無しさん
18/07/28 13:45:26.27 mGJgyyGV.net
お前らもうディープラーニングの気持ちわかるの?
こういうことしたいなーって思ったらホイホイとネットワーク組んでおし動いたってなるの?

729:デフォルトの名無しさん
18/07/28 14:20:12.16 kGN2HSKI.net
>>704
ああそういうことか、ありがとう。
Conv層の入力画像が3チャンネルの場合、
フィルタ行列は3チャンネル別々のものが生成されるの?
それとも同じフィルタ行列を3チャンネルにブロードキャスト
するの?

730:デフォルトの名無しさん
18/07/28 14:40:56.72 qPhlaL35.net
ここは2ちゃんねる

731:デフォルトの名無しさん
18/07/28 16:51:26.52 C5WYC0pi.net
NGID:qPhlaL35

732:デフォルトの名無しさん
18/07/28 17:00:27.28 s8FQvaoR.net
2ちゃんねるじゃねえし

733:デフォルトの名無しさん
18/07/29 08:00:53.23 IhU+hIo/.net
>>706
別々に生成される。
フィルタの結果は加算されて1チャンネルの画像になる。

734:デフォルトの名無しさん
18/07/29 13:27:59.42 96P4hEQ+.net
これっきり
これっきり
もぉ

735:デフォルトの名無しさん
18/08/03 14:17:02.83 6cBUjeBY.net
ニューラルネットの質問なんですがバイアスを入力1、重みbとして扱う時に
X=[x1,...,xn,1]
W=[[w11,...,w1k],...[wn1,...,wnk],
[b1,...,bk]]
Y=XW=(1,n+1)
になりますよね
隠れ層がある場合は重みWの最後の列を出力1になるようにしないといけないと思うのですが
W=[[w11,...,w1k,0],...[wn1,...,wnk,0],
[b1,...,bk,1]]
こうしてもいいのでしょうか

736:デフォルトの名無しさん
18/08/03 16:15:11.46 SxfGFWQF.net
いいよ

737:デフォルトの名無しさん
18/08/11 03:01:10.43 UlpI20Aa.net
KerasのEmbeddingレイヤーについて教えてほしいんだけどさ
URLリンク(keras.io)
>正の整数(インデックス)を固定次元の密ベクトルに変換します
の説明で、どういう計算をしたら
> 例)[[4], [20]] -> [[0.25, 0.1], [0.6, -0.2]]
になるん?

738:デフォルトの名無しさん
18/08/11 05:49:45.90 dGCQYNDS.net
>>714
ソースに計算方法書いてある。

739:デフォルトの名無しさん
18/08/11 18:58:02.34 Llo9t+It.net
いやしかし機械学習という神風でPythonがRubyを吹き飛ばしたよね
特にこれから始めようとする人で、Ruby選ぶ人って激減なんじゃないかと

740:
18/08/11 20:03:03.16 vW2Ha+vq.net
>>716
スレリンク(tech板:661番)
私は開始したところです

741:デフォルトの名無しさん
18/08/12 09:32:53.85 w9MmyMC1.net
>>716
pythonは遅いのでJuliaに変わって欲しい。

742:デフォルトの名無しさん
18/08/12 12:20:59.75 rtSL/abo.net
juliaは美


743:しくない



744:デフォルトの名無しさん
18/08/13 15:34:06.09 TK44Nf0Z.net
>>719
pythonは遅いからc++にしてくれ。

745:デフォルトの名無しさん
18/08/13 15:53:32.18 DfKQKyT+.net
フロント言語なんかお気楽さが命なんだから、CとかC++とかはありえねー。

746:デフォルトの名無しさん
18/08/13 16:07:01.48 obMX332h.net
C++は遅いからCにしてくれ。

747:デフォルトの名無しさん
18/08/17 19:58:27.13 L+Oghf1D.net
ディープラーニングで関数の先の予測はできますか?
例えばsin関数を学習する例で言えば
学習データとしてsin0~360の範囲で一度ずつ学習させますつまり、0という入力に対し0を返し,90に対し1を返すように学習させます。学習後入力データとして0~360の範囲外のデータを入力した場合どのような値が帰ってきますか?

748:デフォルトの名無しさん
18/08/17 21:02:42.34 40V7MZ0K.net
RNNでやってみろ

749:デフォルトの名無しさん
18/08/17 21:51:00.47 L+Oghf1D.net
>>724
試してみたけど無理っぽいです

750:デフォルトの名無しさん
18/08/18 11:14:12.66 TgZCKLMK.net
学習してラジアン入力の方が使いやすいとか指示してくれるAIの方がうれしい

751:デフォルトの名無しさん
18/08/18 12:03:29.25 XOnooV72.net
θ mod 360 を入力すればいいのでは

752:デフォルトの名無しさん
18/08/18 12:58:05.26 sJcYZydr.net
教師データの分布から外れた値を推定できないのは当然のこと

753:デフォルトの名無しさん
18/08/18 15:11:17.07 VPacy8Qu.net
これやるときに画像サイズが奇数だったらどうするんですか?
URLリンク(www.google.co.jp)
URLリンク(i.imgur.com)

754:デフォルトの名無しさん
18/08/18 15:13:20.87 ZTfsOHbf.net
端っこを捨てるか、端っこと同じデータを追加する

755:デフォルトの名無しさん
18/08/18 16:04:57.24 VPacy8Qu.net
ストライドを1にしたら、微小な位置に対する位置の頑健性が低くなりますよね?

756:デフォルトの名無しさん
18/08/18 16:06:50.91 VPacy8Qu.net
それと、結局>723の答えとしてはどうなりますか?

757:デフォルトの名無しさん
18/08/18 17:02:20.81 iT5nZqsR.net
プログラマーのなかには、解をひとつ見つけると、別の解の模索をしないまま、自分の知ってる1つの解だけが唯一の解だと断定したがる、頭のわるい人がいます。どうも彼らは、高校数学の知識が、まったく思考力に結びついてないらしいです。
そして、このような論理的思考力のひくい頭のわるいプログラマーにかぎって、「プログラマーには数学が重要だ! 数学教育は論理性を養う!」とか言ってたりしますので、とことん呆れます。

758:デフォルトの名無しさん
18/08/18 17:28:56.93 c7eNhY+n.net
ただ頭が悪いだけだろ

759:デフォルトの名無しさん
18/08/18 19:00:13.65 IyhzoKxX.net
>>733
ほんそれ+1

760:デフォルトの名無しさん
18/08/18 19:25:31.95 VeWEqIaW.net
関係ないよ、数学は数学、といってもたいした数学をやっていないんだろうけど(笑)

761:デフォルトの名無しさん
18/08/18 19:30:52.21 VeWEqIaW.net
狭い世界しか知らないのに微積分程度の知識で偉そうな顔をする、理解不能w

762:デフォルトの名無しさん
18/08/20 08:45:14.02 kpNK1Ja8.net
>>722
Cは遅いからアセンブラにしてくれ。

763:デフォルトの名無しさん
18/08/20 13:12:28.39 h5lNG6L+.net
アセンブラが速いのは昔の話

764:デフォルトの名無しさん
18/08/20 13:28:48.06 EpIzDeqq.net
今のアセンブラは遅いのか

765:デフォルトの名無しさん
18/08/20 13:46:43.73 FFhVJI7V.net
CPUが速い(笑)

766:デフォルトの名無しさん
18/08/20 14:11:56.42 M28ffXzp.net
courseraでMLの授業取ってるんだけど、
θ'X のoctave実装が、X * θ になってるんだけど、
どうして逆になってるの?'は転置です。
そのままθ' * X だとサイズエラーになります。

767:デフォルトの名無しさん
18/08/20 14:14:14.12 8


768:bqZlRts.net



769:デフォルトの名無しさん
18/08/20 14:22:58.02 Ylg8Xkap.net
サイズエラー当たり前

770:デフォルトの名無しさん
18/08/20 14:50:22.84 M28ffXzp.net
サイズを調べると、θ は 2 * 1 X は 97 * 2 でした。
Xはテストデータの行列のようです。
ちなみに最急降下法の実装です。
θ' * Xがエラーになるのは、分かるのですが、モデルではθ'Xでと書いてあって、混乱しています

771:デフォルトの名無しさん
18/08/20 14:55:15.55 H+/PCJgC.net
θ * X'

772:デフォルトの名無しさん
18/08/20 23:16:53.02 rhPo0SuQ.net
線形代数の勉強しろ

773:デフォルトの名無しさん
18/08/21 10:32:47.84 tkrZv4s7.net
OpenGLとDirectXでは順序が違うアレか

774:デフォルトの名無しさん
18/08/22 16:59:30.98 jh63+gzv.net
m×n行列とn×p行列の積がm×pになるくらい基礎中の基礎だろ

775:デフォルトの名無しさん
18/08/22 17:01:54.86 Q4k/bgn4.net
数学で良く使われる線形代数とMLのそれは違うからな

776:デフォルトの名無しさん
18/08/22 19:04:20.85 3fAu/IG4.net
>>750
違うの?

777:デフォルトの名無しさん
18/08/22 20:23:14.92 UCPmMQzw.net
一緒だよ

778:デフォルトの名無しさん
18/08/22 20:43:45.93 qbOJHKbO.net
>数学で良く使われる線形代数
お察しw

779:デフォルトの名無しさん
18/08/23 09:11:55.04 29gBK1aD.net
NHKω

780:デフォルトの名無しさん
18/08/23 15:06:06.83 Yll/HlKL.net
>>745
それ線形代数になれてないと、本当に最初混乱するけど
冷静にサイズチェックして行列の掛け算が実行可能なやり方にすればできる
一般化して簡単化してる講義ではnx1行列のθとXを想定してるから
スライドでもθ[θ1;θ2;θ3;....θi]、X[x1;x2;x3;....xi]って列ベクトル(orたまに行ベクトル)で表記してる
その場合、θ' has size 1 x n、X has size n x 1になって
θ' * Xで左からかける行列の列数と右の行数が一致してるから計算できる
要はθとXで内積取ればいいって考えれば,X has size m x 1、θ has size 1 x 1に
インターセプト項を加えて、Xがm x n行列、θがn x 1行列になった時
これらの行列の内積を取るには、(θ' * X') or X * θを計算すれば良いと分かるっていう
講義中の線形代数のチュートリアルでやってる簡単な話になる

781:デフォルトの名無しさん
18/08/23 15:14:07.22 Yll/HlKL.net
てか俺もまだMLやってる途中なんだけど
同じ教授のディープラーニングコースの方をやり終えた人いる?
いたらどの程度日本語字幕付いてるか教えてほしい
1週間の無料期間だとちょっとしか見れないだろうから
日本語字幕ありとなしじゃ倍以上理解に時間かかるわ…

782:デフォルトの名無しさん
18/08/23 15:41:42.39 nRYvmGHy.net
行列の内積や積の意味さっぱりわからずに単に数字の操作としてしかやってないからそんなつまんないところで躓くんだろうな
やっぱ線形代数の入門書ぐらいは読んどいた方がいい

783:デフォルトの名無しさん
18/08/23 15:45:33.72 9jntmGn7.net
■クソマウンティング警戒情報■
クラス1 大学の授業で線形代数をやっただけのおっさん
クラス2 大学には行かなかったが線形代数を独習したおっさん
このあたりが出没してるので気をつけましょう。

784:デフォルトの名無しさん
18/08/23 15:46:40.80 NPcuqlt3.net
AI関係はヤバいのがいるという噂は本当だった

785:デフォルトの名無しさん
18/08/23 15:57:35.51 dSKkSrpr.net
線形代数知らないと大損だよ!
人工知能
ディープラーニング
機械学習
だけじゃないよ!
プログラミングでかなり重要

786:デフォルトの名無しさん
18/08/23 15:58:56.38 0ACQCzra.net
そりゃ線形代数は大事�


787:セよ!!!



788:デフォルトの名無しさん
18/08/23 16:15:33.38 +UveuQfQ.net
>>758
ここは高卒率高い

789:デフォルトの名無しさん
18/08/23 20:57:35.73 n9wdMl+k.net
行列学ぶにはには画像処理がいいって、
それ一番言われてるから。
データサイエンスから派生してOPenCV
始めたけどかなり楽しいゾ。
数式見るだけより画像がどう変化するかを
確認するとアルゴリズムの意味や目的が
はっきりわかんだね。

790:デフォルトの名無しさん
18/08/23 21:42:01.92 hpTFsjjR.net
結局ライブラリ使ってるから数学関係ないよね

791:デフォルトの名無しさん
18/08/23 22:27:21.08 n9wdMl+k.net
ライブラリを使うには数学知識が必須
なんだよなぁ…
例えばnumpyを使うのに行列知識ゼロじゃ
使いこなせない。
逆にnumpyを使っているうちに行列への
理解が深まるってこともあるし。

792:デフォルトの名無しさん
18/08/24 01:04:01.12 1PBeUR3/.net
まあサラスの公式とかは覚える必要ないよね

793:デフォルトの名無しさん
18/08/24 03:41:37.45 6wpy6wRV.net
回答がつくか自信がないですがいくつか質問です
① 右上の▽E(w)の定義を教えてください
② なんで式の3行目のβにはtがくっついているのですか
URLリンク(i.imgur.com)

794:デフォルトの名無しさん
18/08/24 05:08:08.95 c+mh3mBZ.net
>>570
もちろんある程度大学の数学をやった上で言ってるんだと思うんだけど
ある程度やった上での発言だとしたら頭が悪いわ

795:デフォルトの名無しさん
18/08/24 05:59:54.55 /QW9Joy2.net
>>766
行列式の計算とかnumpyで楽チン。

796:デフォルトの名無しさん
18/08/24 06:29:31.37 dwzt+F5U.net
>>767
>① 右上の▽E(w)の定義を教えてください
損失関数Eの勾配
=δE/δw
>② なんで式の3行目のβにはtがくっついているのですか
学習の経過に従って、mとvの寄与度を調整して学習を安定させる

797:デフォルトの名無しさん
18/08/24 06:32:34.83 dwzt+F5U.net
∂E/∂w だった(偏微分記号)

798:デフォルトの名無しさん
18/08/24 06:56:46.17 dwzt+F5U.net
②の補足
学習の初期段階でtが小さい時にmとvを調整して学習を安定させる効果がある。
この式の分母はtが大きくなるとほぼ1になりほとんど変化しなくなる。

799:デフォルトの名無しさん
18/08/24 09:07:03.58 1nJvNU0i.net
>>767
BPから勉強しろ

800:デフォルトの名無しさん
18/08/24 12:44:28.77 TTydjelR.net
まさか今更微積や線形代数の復習する羽目になるとは

801:デフォルトの名無しさん
18/08/24 12:58:10.52 6wpy6wRV.net
>>767です
ありがとうございます、解決しました
tが0から始まるとすればbeta^0でそっから1引いたものが分母になるから分母0にならないですか?

802:デフォルトの名無しさん
18/08/24 13:09:28.12 KZ7MNsvQ.net
1から始めればよい

803:デフォルトの名無しさん
18/08/25 18:31:41.77 Dxvsv0A8.net
>>776
ありがとうございました!
下層からの誤差って具体的に何ですか?
URLリンク(i.imgur.com)
URLリンク(qiita.com)

804:デフォルトの名無しさん
18/08/25 22:43:44.04 xNcAdL4l.net
>>777
その畳み込みの次にある層からの誤差

805:デフォルトの名無しさん
18/08/26 00:28:46.57 ZbBrZXXn.net
誤差逆伝播法では誤差が下層から上層に伝えられていく。誤差が具体的に何かと聞かれても、正解値と推定値の差を順次上層に向かって伝えられていく値としか答えようがない。

806:デフォルトの名無しさん
18/08/26 00:35:44.23 czFWrRej.net
>>778
例えば畳み込み層の前がプーリング層だった場合具体的に何が誤差になりますか?

807:デフォルトの名無しさん
18/08/26 00:59:20.08 ZbBrZXXn.net
例えばMAXプーリング層では、下層から伝えられた誤差(偏微分値)を、順伝播時のMAXだったノードに伝えられる。MAX以外のノードには0が伝えられる。このようにそのノードの性質


808:によって何が伝えられるかは変わってくる。



809:デフォルトの名無しさん
18/08/26 02:15:36.01 czFWrRej.net
>>781
そのプーリング 層の前が全結合層だった場合その層での誤差は何になるのでしょう?全結合層での入力層と隠れ層の間の重みとかですか?

810:デフォルトの名無しさん
18/08/26 02:36:56.87 DVI2ghbE.net
東京大学理学部数学科に入って、数論幾何学を勉強したい。
でも脇見恐怖症だしなぁ・・・・・。

811:デフォルトの名無しさん
18/08/26 08:52:46.06 Eme/jpQ6.net
>>782
全結合部の出力層で誤差関数で誤差を求めて後は入力側に向かってその誤差を各ニューロン毎に重み掛け算して分配していく。
分配が終わったら誤差、学習率等を使って各重みを更新。間違ってたら指摘お願いします

812:デフォルトの名無しさん
18/08/26 09:59:18.87 1PWWH1+1.net
>>784
「重み掛け算」というのが違う。どのように分配していくかは、順伝播時ノードの処理によって変化する。足し算ノードなら何もかけずに逆伝播させるし、掛け算ノードであれば逆ノードの値を掛けて逆伝播させるし。

813:デフォルトの名無しさん
18/08/26 10:05:05.45 1PWWH1+1.net
上記についてはこのページが詳しいかな
URLリンク(qiita.com)

814:デフォルトの名無しさん
18/08/26 12:56:14.32 lds9ox+q.net
リアルプログラムでは学習した結果ってどうやって永続化してるの?
ファイルに書き出すの?

815:デフォルトの名無しさん
18/08/26 13:49:35.32 1PWWH1+1.net
パラメータをファイルやDBに書き出します。

816:デフォルトの名無しさん
18/08/26 13:55:39.86 u+wmgHES.net
基本的には各サンプルを通して損失関数を最小化するθ(重み)が学習成果なわけだから
そのθをファイルに保存する
途中からの場合θのファイルをロードする
モデルによって他にドロップアウトやRegularization値など自動で最適化してるハイパーパラメータがあればそれもファイルに保存する

817:デフォルトの名無しさん
18/08/26 20:58:22.32 czFWrRej.net
>>786
ありがとうございます!

818:デフォルトの名無しさん
18/08/26 23:47:20.20 lds9ox+q.net
>>788
>>789
サンクス

819:デフォルトの名無しさん
18/08/27 12:03:01.85 Q4eMB8Ps.net
起動に15時間
シャットダウンに7時間

820:デフォルトの名無しさん
18/09/01 12:14:47.04 wGe/Loro.net
CNNの畳み込み層でも活性化関数使うのが普通なんですか?
あと3次元フィルタを使ってますが、私のフィルタは2次元です。一度グレイスケールにしてからフィルタ適用しているので...この3次元フィルタを使うことの方が普通なのかな?
URLリンク(iup.2ch-library.com)
URLリンク(iup.2ch-library.com)
URLリンク(www.google.co.jp)
あと1層目でエッジ検出はわかるのですが、次の層でテクスチャ検出できるのが意味がわかりません、テクスチャって水玉模様とかそんなのですよね?
URLリンク(iup.2ch-library.com)
3次元フィルタを使うことに関しては特徴マップが何層もあるから?

821:デフォルトの名無しさん
18/09/01 23:34:32.22 gvHsCwll.net
全部チューニングの問題。その設定で精度のが上がれば、そのタスクにとっては「正しい」設定となる。

822:デフォルトの名無しさん
18/09/01 23:35:20.62 gvHsCwll.net
チューニングというより設計の問題かな。

823:デフォルトの名無しさん
18/09/02 18:18:25.17 Gf+N3VgJ.net
色々深層学習のライブラリ弄ってて、モデルそのものを弄りたくなってきて調べたけど
既存の深層学習のライブラリ全部、iter中に計算速度稼ぐことメインに考えてて
気軽に独自モデル試せるようなもんじゃないんだな
ライブラリ使って新しいモデル作ってる研究者は低レベルで殴り合ってるわけだ
ソース見てもモジュール化されすぎてて全部理解するのには相�


824:鮪條ヤかかる 独自にモデル作ってる人らには頭が下がるわ フルスクラッチでやったほうが実装そのものは相当楽だろ でも今どきフルスクラッチでDNNの新モデル作ったところで研究者には見向きもされないんだろうな



825:デフォルトの名無しさん
18/09/03 01:01:43.69 esF28k94.net
そうでもない
がんがれ

826:デフォルトの名無しさん
18/09/07 20:14:05.61 bOuttf63.net
URLリンク(mainichi.jp)

827:デフォルトの名無しさん
18/09/08 17:42:16.54 RrQSE86D.net
似非サイエンス0でやってた

828:デフォルトの名無しさん
18/10/06 11:09:34.88 KmIbUzui.net
NHK教育を見て56088倍賢く三連休
スレリンク(liveetv板)

829:デフォルトの名無しさん
18/10/08 11:30:39.16 +5qyKWRv.net
めも
URLリンク(www.anaconda.com)

830:デフォルトの名無しさん
18/10/08 13:54:24.56 Pg4k0kTf.net
memorandum

831:デフォルトの名無しさん
18/10/24 17:33:34.15 uzzb7okB.net
既存の数学的アプローチでは汎用人工知能は無理。
新しい数学を創造する必要がある。

832:デフォルトの名無しさん
18/10/24 19:03:25.41 +UZVhUuu.net
人間の脳の学習能率に対して、ディープラーニングでは人間ではあり得ない量のデータを力技で教え込んでいるという現状を考えれば既存理論では実現不可能なのは明白だな
根本的にやってることが違う

833:デフォルトの名無しさん
18/10/24 19:23:11.47 Tp5xd7NK.net
数学は万物を定量化して表すもの
数学に出来ないのはヒルベルトのように、解く方法が解らない問題と
世界の誰も未だに気づいていない問題

834:デフォルトの名無しさん
18/10/24 20:38:49.03 JHmeQiWz.net
NS方程式w

835:デフォルトの名無しさん
18/10/25 01:53:03.16 DXNVkP/m.net
そのうち人工知能の性能や危険性を監査する方法が必要になる
監査もAIにして相互に進化させる
人間のはるか上を行くAIになりそう

836:
18/10/25 08:07:04.46 yGYVJ0zR.net
>>807
>監査もAIにして相互に進化させる
こういう自己学習はすべてのAIにて有効とは限らない、と思いますが

837:デフォルトの名無しさん
18/10/25 11:25:06.41 5Cy/pQlU.net
単にラグランジュとか●次スプラインとかで全点通す多項式作るようにしてるんだろうけど
こういうのって機械学習でも同じパラメータが出現するのだろうか
URLリンク(pbs.twimg.com)
URLリンク(twitter.com)
URLリンク(twitter.com)
(そういう学習させればそうなるんだろう)
(deleted an unsolicited ad)

838:デフォルトの名無しさん
18/11/27 10:18:08.02 Rh+mKowB.net
NNのパラメータが十分多ければSGDでも多項式時間で最適解に収束する事が証明されたな
URLリンク(arxiv.org)

839:デフォルトの名無しさん
18/11/30 20:30:28.58 1rBmpsWQ.net
十分多ければwww

840:デフォルトの名無しさん
18/11/30 22:07:26.54 aXieu+F/.net
自然な仮定だろ?

841:デフォルトの名無しさん
18/12/01 12:32:12.07 ddsFX+Ib.net
ε-δ論法での「十分小さければ」みたいによくある表現だよね

842:デフォルトの名無しさん
2018/1


843:2/01(土) 14:53:57.91 ID:ESkZNxmJ.net



844:デフォルトの名無しさん
18/12/01 18:36:48.82 vZu4rQev.net
誤差曲面には極小値や鞍点が無数にあるにも関わらず、SGDで最適解に辿り着けてしまうのは自明では無い
経験的に知られていたが謎だった事が理論的に解明された事に価値がある
あと(指数ではなく)多項式時間と分かった事も大きいと思う

845:デフォルトの名無しさん
18/12/05 18:35:39.05 kX9gokKe.net
こっちだったか
URLリンク(www.itmedia.co.jp)

846:デフォルトの名無しさん
18/12/12 22:46:51.99 0lKVJ1Zp.net
初歩的なもので申し訳ありませんが
ゼロから作るDeep Learningの中の数式の変形で以下のような変形がありました。
どう変形したらこうなるのはわからないのですがどなたか教えていただけないでしょうか?
c exp(x) = exp(x + log c)

847:デフォルトの名無しさん
18/12/12 22:56:13.04 +Sf0mSLh.net
定義から追っていけばわかるだろ?
expてのはeを何回掛けたか
logはその逆
exp(log c) = cはcが特殊な値でない限り常になりたつ。
exp(a)exp(b)はeをa回掛けたものにさらにeをb回掛けることになる
これはexp(a+b)に等しい

848:デフォルトの名無しさん
18/12/12 23:11:36.04 0lKVJ1Zp.net
>>818
ありがとうございます。
言われてみればなんで気づかなかったんだろってレベルでした。

849:デフォルトの名無しさん
18/12/12 23:22:27.88 1Fc61En1.net
ln 左辺
 = ln (c * e^x)
 = ln c + ln e^x
 = ln c + x
ln 右辺
 = ln e^(x + ln c)
 = x + ln c
高校の算数で分かる

850:
18/12/13 00:31:25.96 mMIcaeGH.net
>>817
c = exp(log (c))
まずこれを理解して
c・exp(x) = exp(x)・exp(log(c))
= exp(x + log(c))

851:デフォルトの名無しさん
18/12/13 09:30:18.60 MB2eDcb0.net
>>817
exp(x + log c)=exp(x)*exp(logc) 指数法則:exp(x+y)=exp(x)exp(y)
=exp(x)*c expとlogは互いに逆関数なので順番に作用させると元に戻る:x=exp(logx)

852:デフォルトの名無しさん
18/12/13 12:19:59.72 zFPTCGev.net
c exp(x) = exp(x + log(c))
log(c exp(x)) = log(exp(x + log(c)))
log(c) + log(exp(x)) = log(exp(x + log(c)))
log(c) + x = x + log(c)

853:デフォルトの名無しさん
18/12/17 22:36:41.36 hRfkLohO.net
ゼロから作るDeep Learningの中のAffineレイヤの部分で
行列の積 
X・W
をXで微分したものが
Wの転置行列
になっており、
X・W
をWで微分したものが
Xの転置になっていますがこの辺の説明がないためなぜそうなるのかわかりませんでした。
この辺は数学のどの部分をやれば理解できますでしょうか?いい参考書があれば教えてほしいです。
後同じAffineレイヤのバッチ対応版で、バイアス部分がすべてのバッチ分の加算になっていますが
これってどう解釈すればいいのでしょうか?
いまいちなぜすべてを加算するのか理解できませんでした。

854:デフォルトの名無しさん
18/12/18 00:08:54.26 Eo+uoiII.net
線形代数

855:デフォルトの名無しさん
18/12/18 11:30:12.35 /M0/bFGF.net
物理

856:デフォルトの名無しさん
18/12/18 13:30:30.43 Y4LQpz29.net
魔法

857:デフォルトの名無しさん
18/12/18 13:50:22.43 DOEC5j1K.net
チート能力

858:デフォルトの名無しさん
18/12/18 14:11:41.15 lzU2ET1j.net
ggr能力

859:デフォルトの名無しさん
18/12/18 15:55:00.86 7JS3qwaJ.net
行列の積が分かれば微分するだけなのだがw

860:デフォルトの名無しさん
18/12/18 15:56:23.56 fQ2wN9mx.net
テンソルやろ

861:デフォルトの名無しさん
18/12/18 17:38:07.86 Mqjic+u0.net
アホやろ

862:デフォルトの名無しさん
18/12/18 17:39:32.22 owoWX2Rf.net
アホは読めないだろ

863:デフォルトの名無しさん
18/12/18 20:42:10.22 w60GoDW


864:R.net



865:デフォルトの名無しさん
18/12/19 19:39:29.81 hcWIkGDA.net
DeepLearningを試しにやってみたいけど
Chainerあたりが手軽なの?
ちなみに文系の馬鹿です。
回帰分析とSVMを
Pythonで試したことあります。

866:デフォルトの名無しさん
18/12/19 22:00:08.49 EddF3XVK.net
そんだけやってればこのスレのほとんどの人より先に行ってるぞ

867:デフォルトの名無しさん
18/12/20 11:07:48.66 j9ekUJ01.net
ほんとだもう姿が見えないw

868:デフォルトの名無しさん
18/12/23 20:43:59.69 AV3blzZs.net
ディープラーニングやろうとしたらこのくらいの性能のPCは必須?
URLリンク(masagutti.hatenablog.com)

869:デフォルトの名無しさん
18/12/24 11:08:35.14 VHPkyyz+.net
>>838
マジレスするとクラウドのがコスパいい
睡眠も妨げない

870:デフォルトの名無しさん
18/12/24 11:14:29.35 YXqLjtll.net
>>839
無料?

871:デフォルトの名無しさん
18/12/24 11:18:32.15 VHPkyyz+.net
>>840
無料がいいならGoogle Colaboratory行っとけ
速度はイマイチだがCPUだけよりはかなりマシ

872:デフォルトの名無しさん
18/12/24 11:18:38.69 vT24CsmW.net
PCだって無料じゃないんやで

873:デフォルトの名無しさん
18/12/30 18:20:09.19 BP599Ljk.net
アルファ碁ゼロってどっかで対戦できる?

874:デフォルトの名無しさん
18/12/30 20:45:03.59 PVnIIL/g.net
>>839
どのクラウドがいいの?

875:デフォルトの名無しさん
19/01/04 00:56:54.65 WfC+XEH3.net
>>844
用途による
一般用途はAmazon、サクラ、google、Azure等
あとはサービス連携
ワトソンとか使いたいならIBM Bluemix
TPUで爆速機械学習とかならGoogle Cloud Platform
個人的な意見で申し訳ないが
使いやすいのはamazon aws
価格が安いのはGoogle、IBM
サクラは官公庁とかで従量課金NGとかでも相談に乗ってくれる

876:デフォルトの名無しさん
19/01/04 11:37:58.62 7pi2aX1x.net
>>845
ありがとうございます。
取引先は機械学習するのにAzuzeにしたのですが
利用料金が予想以上に高いと言ってました。
いろいろ検討してみます。

877:デフォルトの名無しさん
19/01/04 11:49:22.59 vo1XafK4.net
値段はAwsでもそう変わらんちゃう
Googleはちょい安そう

878:デフォルトの名無しさん
19/01/04 17:09:49.70 ByJNYGiG.net
本業の問題解決にディープラーニングを利用するかディープラーニング自体を本業とするかでクラウド使うべきかは変わる
GPUぶん回すのは学習時ぐらいなので前者なら実際は学習以外の仕事が大半を占めるのでクラウドの方が安く、後者なら学習させまくるのだろうからハード買った方が安い

879:デフォルトの名無しさん
19/01/04 20:33:58.41 2CE/kmBd.net
>>848
何気に無視できないのはデータ量
訓練データや最終出力に大量のデータを保存する必要があるときはクラウドが高くつく
GPUのランニングコストはさほどでもない

880:デフォルトの名無しさん
19/01/05 20:59:49.07 DJKkY02/.net
さくらの高火力コンピューティングとかめちゃ高いよな。
あれ誰が使うんだろ?

881:デフォルトの名無しさん
19/01/06 08:27:02.11 sqll98Te.net
>>849
大量のデータって数量的には何TB?

882:デフォルトの名無しさん
19/01/06 19:18:45.26 r6TnJvb+.net
>>846
利用料金、これからの課題やで
機械学習はこれからビジネスの世界になる
機械学習で精度はあが


883:っても、その精度を出すためのコストが問題されるようになる 大半の用途ではコストがかさんで機械学習をする意味がない (コストにはデータを集めるためのコストも含含まれる) もう少ししたら、これが問題視されるようになる



884:デフォルトの名無しさん
19/01/06 19:56:09.20 /LWkk3mV.net
>>851
1TBのディスクはAmazon EBSの場合、帯域幅にもよるけど月当たり数千円から数万円。どのくらいを大容量というかは学習とのバランスによる。
GPUはEC2 P3でV100を使って一番安いオプションで24時間使い続けたとして月額25万くらい。実際にはこの1/3くらいだから月8万円としよう。
そうするとランニングコストのうち10%前後はストレージの容量に払うことになる。これを計算機コストに置き換えるとクラウドのストレージが如何に高いか分かる。
V100搭載の計算機は200万円くらい、かつ24時間回しっ放しだと電気代が月々数万円かかる。かりに1/3だとしても1~2万円くらいだろうか。
※このクラスだと納期に最低2週間、必要なら電源工事、さらには固定資産税が掛かるが今は置いておこう。
大雑把な計算だと、GPU計算機の購入費用はクラウド換算では2.5年間くらいに相当する。2.5年もすると計算機の大幅な性能向上も見込まれるので、クラウドの有用性が分かるだろう。
一方1TBのSSDが2万円切る中、同じ容量のストレージをクラウド上で保持しようと思うと、1~3ヶ月程度しか持たない。もちろんサービス用の高いストレージを使うのもありだが学習用途なのであまり意味がない。

885:デフォルトの名無しさん
19/01/06 19:56:29.21 huSbSCC8.net
だからGANsが流行ってるんだろ??

886:デフォルトの名無しさん
19/01/06 21:06:59.54 r6TnJvb+.net
>>853
コストは掛かるのはわかるが、それによって
なにが得られるかだよな
コストを掛けた以上の利益が得られなければやる意味がない
まあ今はまだ検証段階でそこまで考えられる所まで来てないんだろうけど
いいよな。結果が出なくても良い段階っていうのはw

887:デフォルトの名無しさん
19/01/06 21:07:13.61 sqll98Te.net
>>853
ストレージは利用者に提供した分は必ず確保して使えるようにするから占有だけど
GPUは隙間時間を別の人が使ったりできる点は違うんじゃね

888:デフォルトの名無しさん
19/01/26 14:56:07.98 yVAkGzul.net
不正統計ω

889:デフォルトの名無しさん
19/01/26 15:04:17.59 b14plJpJ.net
不正統計δ

890:デフォルトの名無しさん
19/01/27 16:49:33.49 jpJeg/KH.net
仕事で国の統計データ使うこと多いのに
マジで勘弁して欲しいぞ

891:デフォルトの名無しさん
19/01/27 17:23:27.82 G3HzVCxI.net
計算し直せばいいだけだろ。他責なんだから

892:デフォルトの名無しさん
19/01/27 17:55:29.03 jpJeg/KH.net
計算できるようにデータを
纏めるのが大変なんじゃ!

893:デフォルトの名無しさん
19/01/27 17:57:03.48 DIPYZuxb.net
この地域にはこういう属性の人が多いからこういう戦略で行こうとビジネスの意思決定に使ってた国のデータが嘘だった場合、
これからのことは正しいデータで計算し直せば済むが過去の莫大な機会損失も補償してくれなければ意味がない

894:デフォルトの名無しさん
19/01/27 18:26:06.36 G3HzVCxI.net
以後、気をつけるように

895:デフォルトの名無しさん
19/01/27 18:48:58.10 G3HzVCxI.net
国相手に損害賠償訴訟を起こす手もあるぞ

896:デフォルトの名無しさん
19/01/28 01:34:18.93 /GIsMIPT.net
ディープラーニング×暗号通貨
URLリンク(masagutti.hatenablog.com)

897:デフォルトの名無しさん
19/01/28 12:43:29.94 ji//xT0N.net
ほんとにまともなAIなら
学習の結果として
不正な統計データが入力�


898:ウれたら 受け付けずに突っ返す動作にするのが理想だな



899:デフォルトの名無しさん
19/01/28 15:04:36.07 P7GqkI/F.net
>>866
それは不正統計を判定するために学習させた場合であって普通は誰もそんなもの作らないから

900:デフォルトの名無しさん
19/01/28 15:12:52.73 DqvraBYP.net
危機管理だろ、データが不正の場合当社は責任をもちませんと契約書に入れておくとか

901:デフォルトの名無しさん
19/02/02 19:33:24.61 LdV/hXf4.net
V100搭載の計算マシンが2〜3ドル/hてのがクラウドの相場

902:デフォルトの名無しさん
19/02/18 22:53:58.26 j1D9Boia.net
安そうに見えて結構高いよね実は?
24時間回したら俺は生活できないorz

903:デフォルトの名無しさん
19/02/20 17:51:51.87 /eXmn/gb.net
クラウド企業は大儲け!
クラウド使う意味が分からん?

904:デフォルトの名無しさん
19/02/21 02:07:39.79 v648uLkH.net
ディープラーニングは最小二乗法」で物議
慶應義塾大学経済学部の小林慶一郎教授がAI技術について解説
URLリンク(www.itmedia.co.jp)
さすがにこれはあかん、引退推奨レベル

905:デフォルトの名無しさん
19/02/22 13:14:44.17 PtH+29Wq.net
だれを相手に書いてるかが問題で
「日経の経済教室」
なら
あっそう
でおわり

906:デフォルトの名無しさん
19/02/22 13:27:59.38 mJNXNf/+.net
でも出力と教師信号の差を小さくするっていう点では
最小二乗法と同じじゃね?
多層にする事でより精度よく
複雑な問題に対応可能になっているけど
もっとシンプルな構造で
同様の出力をできれば
学習の計算力も少なくて済む

907:デフォルトの名無しさん
19/02/22 13:46:43.30 1tWgvkMd.net
別に、理解している人からすれば
どうでもいい話しだよね。

908:デフォルトの名無しさん
19/02/22 15:06:08.21 9D6v3kso.net
別に最小二乗法である必要性はないし教師と予測の差を測る何かしらがあればいいだけなので全く本質的ではない

909:デフォルトの名無しさん
19/02/22 15:13:01.54 mJNXNf/+.net
>>876
短い言葉で判りやすく伝えるにはどういう表現がいい?

910:デフォルトの名無しさん
19/02/22 15:15:14.63 GY5Hgnhe.net
お前には無理

911:デフォルトの名無しさん
19/02/22 15:18:26.65 9C0ENtC1.net
深く考えてくれるAIなんです
だからディープなんです
な、なるほど!

912:デフォルトの名無しさん
19/02/22 16:49:59.36 27TGUzSj.net
ディープってのは単に中間層が複数あるということを言ってるだけだぞ

913:デフォルトの名無しさん
19/02/22 17:46:31.58 el9/87PC.net
>>874
ディープラーニングを一言で説明しろって言われて
A. 最小二乗法みたいなもの
B. ニューラルネットワークを沢山繋げたもの
のどっちの説明が適切かだな
実際はAの最適化の要素とBの深いネットワークの要素のどちらも重要だから、片方だけ説明すると片手落ちになって突っ込まれる

914:デフォルトの名無しさん
19/02/22 17:54:08.28 PtH+29Wq.net
小学生に説明するときと猿に説明するときで説明の仕方変えるだろ
臨機応変に出来ない方が馬鹿

915:デフォルトの名無しさん
19/02/22 18:02:57.51 9C0ENtC1.net
猿に教えてるところを録音されて晒し者にされたのが今回の事案。
「猿が相手だったので猿向けに説明してたんです」とは相手もいる以上言えんわなw

916:デフォルトの名無しさん
19/02/22 18:18:14.42 GY5Hgnhe.net
「片手落ち」は使ってはいけない表現じゃなかったか?

917:デフォルトの名無しさん
19/02/22 19:05:45.63 mJNXNf/+.net
>>881
ニューロンを沢山繋げたもの
って言われてそれで何ができるの?って思うけどな
炭素を沢山繋げたもの
って言われても価値があるものなのかわからない
炭なのかダイヤモンドなのか

918:デフォルトの名無しさん
19/02/22 19:08:13.79 mJNXNf/+.net
>>885
結局は聞く側が何を知りたいのかによる
それによってどんな観点で説明するか変わる

919:デフォルトの名無しさん
19/02/22 19:09:07.81 DNXK9Hwq.net
あしたはJDLA/Eか

920:デフォルトの名無しさん
19/02/22 19:58:44.79 KXSRl5z4.net
ディープラーニングが何者か一言で説明しろと言われて一言で説明したらそれじゃ分からんと言われ、厳密に説明しようとしたらそんな難しい話理解できないと言われ

921:デフォルトの名無しさん
19/02/22 21:05:11.06 GY5Hgnhe.net
聞く馬鹿に答える馬鹿

922:デフォルトの名無しさん
19/02/22 21:07:54.35 iIlfqM05.net
これは辞任しかないww

923:デフォルトの名無しさん
19/02/23 12:37:31.13 +DV3f+Dk.net
単純労働はもう人間がやる時代じゃなくなった
DLが判らない人は職を失います
DLが判る人は信用を失います

924:デフォルトの名無しさん
19/02/23 12:43:45.09 aRr2CtyI.net
データによって関数近似するだけですと答えりゃ良いんだよ。
deepが今までの機械学習と違うのは関数を表すパラメータが多いだけ。
(まあ多いからそれなりの学習法が必要になるってことではあるのだが。)

925:デフォルトの名無しさん
19/02/23 12:47:45.21 +DV3f+Dk.net
確かに「関数って何?」ってレベルの相手に「最小二乗法」とか言っても伝わらんよな

926:デフォルトの名無しさん
19/02/23 13:05:49.57 9M6azXgX.net
そもそも最小二乗法知らないレベルの人がディープラーニングの意味を知ったところでその知識に使い道などない

927:デフォルトの名無しさん
19/02/23 14:02:48.73 YsidP2kG.net
>>892
パラメーターの多さは本質的じゃない
他のモデルでも増やすだけならいくらでも増やせるし

928:デフォルトの名無しさん
19/02/23 14:27:17.84 aRr2CtyI.net
>>895
本質か本質でないかはわからんといったところだろ。
例えば混合ガウス分布のパラメータをdeep learning並にしてSGDで学習みたいなことを
実験した結果とかみたことないし、どれくらい差が出るのかは誰にもわからん。

929:デフォルトの名無しさん
19/02/23 16:02:59.35 lNz7SHfN.net
幅が効いてるのか深さが効いてるのか判らんぬ

930:デフォルトの名無しさん
19/02/23 16:11:49.78 lefeMdOl.net
入力データ入れたら、出力データを返す装置を作ってるだけ
それだけの話

931:デフォルトの名無しさん
19/02/23 16:13:33.97 lefeMdOl.net
AIとか言ってるからこじれてる

932:デフォルトの名無しさん
19/02/23 16:19:13.67 44PmOqBU.net
>>884
そうやな
ちゃんと片端って言わないとな

933:デフォルトの名無しさん
19/02/23 16:19:56.88 lefeMdOl.net
AIという名称を使ったおかげで
大きな予算が降りやすくなった

934:デフォルトの名無しさん
19/02/23 16:26:26.19 smDG7LGU.net
>>897
深さが効いている
NNの深さは表現力に対して指数的に効くが、幅は多項式的
だから「ディープ」ラーニングがここまで流行った

935:デフォルトの名無しさん
19/02/23 16:29:50.37 lNz7SHfN.net
>>902
なるほど
まつおっさんはそこを説明し忘れたと

936:デフォルトの名無しさん
19/02/23 17:13:34.69 qQy3QKMA.net
わざわざ"ディープ"ラーニングだと言ってるのに今更「深さが重要だよ」程度の説明までしてやらなきゃならないのか
無知というのは本当に面倒だな

937:デフォルトの名無しさん
19/02/23 17:48:49.92 lefeMdOl.net
>>902
深さはなぜ聞いてるんですか?
何に聞いてるんでしょうか?
まさか、非線形だからなんて答えないですよね?

938:デフォルトの名無しさん
19/02/23 18:09:54.05 2Bb0KoDB.net
自分で調べて理解する方が早いのをなぜわざわざ他人に聞くんだろう
自力でやるほどのことではないと言うならそんなことを知ったところで君の人生において使い道などないだろうに

939:デフォルトの名無しさん
19/02/23 18:42:59.52 hvNgcyAg.net
>>905
それはね、ふか~い意味がある
でいいんじゃないか?

940:デフォルトの名無しさん
19/02/23 18:53:50.90 smDG7LGU.net
>>905
同じ関数を同じ精度で近似したい時、幅を増やすよりも深くする方がニューロンが少なくて済む
理論的な所は論文がいくつもあるがフォロー出来てない

941:デフォルトの名無しさん
19/02/23 19:02:21.42 +IwGCrFN.net
>>904
理論上は古典的な三層のMLPで関数の任意精度近似が出来るのになぜ"ディープ"にする必要があるのか? とか少しNN齧れば誰でも思い至る疑問を感じず、「"ディープ"ラーニングと言う名前だから深さが重要」で思考停止している人間よりマシだな

942:デフォルトの名無しさん
19/02/23 19:08:30.62 C1vMZKUS.net
ゆうてもこのスレでディープラーニングのコード書いたことあるやつってほとんどいないよね?

943:デフォルトの名無しさん
19/02/23 19:39:07.90 47rng884.net
>>910
流石にいっぱいいるだろw

944:デフォルトの名無しさん
19/02/23 19:55:58.24 lefeMdOl.net
>>907
理論的な箇所?
わらわら‥
ほとんど結果論でしか語ってないような‥

945:デフォルトの名無しさん
19/02/23 19:59:15.04 lefeMdOl.net
間違えた
>>908>>907
ほとんど結果論でしか語ってない

946:デフォルトの名無しさん
19/02/23 20:03:30.10 lefeMdOl.net
>>908
いくつもあるか?本当に?
公理系からスタートしてる理論はほぼ皆無だよ

947:デフォルトの名無しさん
19/02/23 20:30:39.92 dhwbkJVr.net
>>914
理由として公理系から出発するレベルで厳密な証明を求めるならこんな所で聞かないで論文を読むべき
単にマウント取りたいだけならその限りではないが

948:デフォルトの名無しさん
19/02/23 20:57:11.51 +IwGCrFN.net
>>914
公理系の意味理解してるか?
標準的な数学の公理系に基づいているならわざわざそこから出発する意味はないよ
1+1の証明から始めてたらいつまで経っても目的の議論にたどり着けんやん

949:デフォルトの名無しさん
19/02/23 21:37:01.90 VH7qWM06.net
>>914
NNの公理って何?

950:デフォルトの名無しさん
19/02/23 22:03:16.80 C1vMZKUS.net
ZFC

951:デフォルトの名無しさん
19/02/23 22:04:39.07 JpeZVvP/.net
公理とかw
数学と工学の区別ついてない

952:デフォルトの名無しさん
19/02/23 23:37:24.82 3YtKndGk.net
鬼束ちひろを理解できるAI。
人間には無理。

953:デフォルトの名無しさん
19/02/24 00:36:01.42 xoljfRCp.net
始めの仮定の部分を示せばよいと言っている
その仮定が確からしいかどうか怪しいと言っている

954:デフォルトの名無しさん
19/02/24 01:02:08.29 VgTkVybx.net
怪しいと思うなら自分で正しいのか間違いなのか示せばいいのに

955:デフォルトの名無しさん
19/02/24 01:03:05.00 xoljfRCp.net
不十分です

956:デフォルトの名無しさん
19/02/24 03:00:13.95 NqeQYE6u.net
>>921
正しいか正しくないかは実験して確認するしかない
ヒッグス粒子にしろ相対論にしろ実験で確認できるまでは仮設
正しいかどうかに関係なく論理展開は可能
相対論で言えば光の速さが最速で一定というのは
実証されていない段階で論旨展開されて
時空間の相対性が導かれたと思う

957:デフォルトの名無しさん
19/02/24 03:16:20.34 xoljfRCp.net
結局>>912-913に落ち着いた(笑)

958:デフォルトの名無しさん
19/02/24 05:10:43.25 AXtZKrFv.net
「全」が最強ですか?

959:デフォルトの名無しさん
19/02/24 09:54:45.28 yqjhGBK+.net
>>909
少しNN齧れば誰でも思い至るようなありふれた疑問なら少し調べればいくらでも答えは見つかるだろうになぜ自ら調べないのか

960:デフォルトの名無しさん
19/02/24 10:56:47.83 qLJosHl4.net
調べても深さと幅の関係はそんな単純ではないという結論だがな。
深さをあげれば掛け算で表現ノードが増えるという理屈はあるがあれはあれで怪しいし。
とりあえず実験的には深さを増してった方が有効というのは正しそうだが。

961:デフォルトの名無しさん
19/02/24 11:46:14.25 0WG/AtDH.net
JDLA/E受けた人いる?

962:デフォルトの名無しさん
19/02/24 16:41:44.01 2fcQjxFq.net
>>907
不快な解答です

963:デフォルトの名無しさん
19/02/24 16:55:23.56 2fcQjxFq.net
>>924
>光の速さが最速で一定というのは
これどうやって実証されたの?

964:デフォルトの名無しさん
19/02/24 17:04:26.90 IFIZ4y1B.net
>>931
不快な質問です

965:デフォルトの名無しさん
19/02/24 17:09:07.22 jKObQ1kj.net
>>931
それが実証されたとは書いていない
導かれた予言が実証された

966:デフォルトの名無しさん
19/02/24 18:46:29.69 qLJosHl4.net
相対論の前から実際に検証されてたわけだが。
URLリンク(ja.wikipedia.org)
こういう蓋然性を元にして相対論は整備された訳で、机上の空論に基づいて論理展開している訳ではない。

967:デフォルトの名無しさん
19/02/24 18:59:25.12 xoljfRCp.net
証明はないよ
実証とも言えない

968:デフォルトの名無しさん
19/02/24 19:38:54.50 dH1jxY0q.net
そっか、光の速度は量れたが
測定手段としては一定という量り方はないんだな

969:デフォルトの名無しさん
19/02/24 21:13:32.58 hecgFBKK.net
不快な回答です

970:デフォルトの名無しさん
19/02/24 22:03:25.88 Oi5UqcHs.net
そいつがルパンです

971:デフォルトの名無しさん
19/02/25 10:57:08.92 Opp/wdL5.net
>>934
当時その実験やってる最中に偶然重力波が観測(というか観測じゃなくて到達と言うべきか)されてたら
歴史は変わっていただろうね

972:デフォルトの名無しさん
19/02/26 21:17:16.82 tR5x62Pi.net
>>939
一回観測されたくらいじゃ変わらねーよ。
このあとどんだけ実験されたと思ってんだ。

973:デフォルトの名無しさん
19/02/27 12:36:16.84 +TCpifLa.net
重力波なんて小さ過ぎて検出されないだけで
常に到達し続けていると言っても過言ではない

974:デフォルトの名無しさん
19/02/27 15:03:53.75 bMbuSEim.net
観測しない限りは存在しないのと同じだ

975:デフォルトの名無しさん
19/02/27 16:34:07.32 k4u8hb2s.net
観測されていないパンチラとかものすごい量になるんだろうなあ

976:デフォルトの名無しさん
19/02/27 20:50:52.19 R045imi1.net
せっかくパンチラしたのに見てももらえないとか可哀そう

977:デフォルトの名無しさん
19/02/27 22:13:35.66 OtL3sL+V.net
田代まさし  観測したとたん観測者の実在が消えた

978:デフォルトの名無しさん
19/02/28 08:12:43.34 zCgB15LN.net
観測の定義ってなんなんだろ

979:デフォルトの名無しさん
19/02/28 08:30:50.12 KCYW63t8.net
客観的に確認・追実験できる形で記録すること
要は論文を書くこと

980:デフォルトの名無しさん
19/02/28 10:39:45.48 VGCpzUD+.net
このスレは観測されています

981:デフォルトの名無しさん
19/02/28 11:14:13.22 01EONdyB.net
後から誰も何も確認できないなら観測していないのと同じだからね
「宇宙人見ました!写真も映像もないけどね」だと他人からすれば何の価値もない

982:デフォルトの名無しさん
19/02/28 11:53:17.30 yVNPvTLf.net
まあダークマターとか言われてるものも
パルサーのスピン軸がたまたま地球の方向を
一度も向かないだけのものが
ものすごい量あるんだろうなあ

983:デフォルトの名無しさん
19/02/28 12:56:20.11 +rccLB4x.net
>>950
何がどれだけあるかはっきり分かっていないので、
何かないと計算が合わないから何かあることにする
ここまでは分かるんだけど、
宇宙はダークマターで満ちている!←おかしくね?

984:デフォルトの名無しさん
19/02/28 13:03:52.47 yyOtWed3.net
そういう苦情はNHKに言おうぜ

985:デフォルトの名無しさん
19/02/28 14:00:57.01 KYbJVX3j.net
おかしいね、お前の頭が

986:デフォルトの名無しさん
19/02/28 20:02:44.99 mtH3V3ZR.net
おまいら
単なるデータへの
あてはめに
高尚なこと
求めすぎだと
思うぞ?
うまくあてはまった!
マンセー!
で、いいじゃん?

987:デフォルトの名無しさん
19/02/28 20:21:08.20 xdOF/Hzc.net
>>951
おかしいと考える人も普通にいるだろうね。
エーテルはな�


988:ゥったがヒッグス粒子はあった、 とされている。 結局一番観測結果を説明できるモデルは何かという話。



989:デフォルトの名無しさん
19/02/28 21:34:13.35 DbAr3TBt.net
フロギストン

990:デフォルトの名無しさん
19/02/28 21:35:37.61 yuKOQ1T9.net
縦読みじゃねーの?

991:デフォルトの名無しさん
19/02/28 21:52:28.50 +rccLB4x.net
>>955
理屈上これ以上物質はないはずだから残りはダークマター←わかる
どれだけ物質があるかわからないけど残りはダークマター←意味不明
ということを言いたいわけだが。

992:デフォルトの名無しさん
19/02/28 22:03:44.50 SSe6Zoqq.net
AIがない

993:デフォルトの名無しさん
19/02/28 22:40:10.15 fSWIW9GU.net
>>958
仮説にすぎないが、理由がわからないと仮設を認めないはギャップがあるが

994:デフォルトの名無しさん
19/02/28 23:52:17.35 +rccLB4x.net
>>960
× 認めない
〇 理解できない

995:デフォルトの名無しさん
19/03/01 03:13:44.82 o95EdK6R.net
>>951
お魚さんが
宇宙は水でで満ちている!←おかしくね?
というのと同じ

996:デフォルトの名無しさん
19/03/01 10:25:53.68 IX6wNu/y.net
>>961
理由が理解できなのか、勉強しろよ
シリーズ現代の天文学(全17巻)

997:デフォルトの名無しさん
19/03/01 13:02:14.00 ozM8zBQ9.net
魚でも地上(空中)の人間の顔とか識別してるし
虫が飛んで来たら水面より上にジャンプして虫捕まえる鯉とかいるし
961 は仮説以前の問題

998:デフォルトの名無しさん
19/03/01 14:02:47.97 /JrsUQub.net
何だか全部がファンタジー

999:デフォルトの名無しさん
19/03/01 19:59:30.11 zZVuhjrI.net
>>929
受けた。物体検出精度指標の計算問題とか出たねw
定義知らないと死亡。数学っていうか算数か。

1000:デフォルトの名無しさん
19/03/01 21:31:08.03 Y8fj+4tW.net
>>958
すまん、
上になぜ納得できないのか下はなぜ納得できるのかさっぱりわからん。
別にどっちもどっちにしか思えないんだけど。

1001:デフォルトの名無しさん
19/03/01 23:57:07.46 7Z9PQtlK.net
>>958
科学に対するスタンスの違いかと。
観測できないものに想いを巡らせたところでそれは想像でしかなく宗教みたいな水掛け論になって不毛。
あくまで現時点で観測できるものがすべてで、それで説明できない部分はXと置いてそれが何かを考えましょう、という発想なのかと。
公平な立場だとだと思うよ。

1002:デフォルトの名無しさん
19/03/02 00:00:17.81 +5R2WUKR.net
まだまだ分かんないことがたくさんあるよね、区別とか分類すらできないし、話がしやすいようにとりあえず一くくりにしてダークマターって名前つけとこうか、ぐらいの事だと思います。

1003:デフォルトの名無しさん
19/03/02 01:39:53.47 Qi2NIRZm.net
JDLA/Eって金かかるだけの取得価値あるんかな

1004:デフォルトの名無しさん
19/03/02 01:53:18.36 WE+y6WN7.net
>>967
下は「残り全部」とか言ってるけど、観測できないだけの物質があるかもしれないじゃん。

1005:デフォルトの名無しさん
19/03/02 08:57:53.40 bakyLAA5.net
>>971
それは上の言い方でも下の言い方でも生じる疑問では?

1006:デフォルトの名無しさん
19/03/02 10:11:28.63 fiwzYa51.net
ダーク股
なんか臭そう

1007:デフォルトの名無しさん
19/03/02 10:42:45.71 WE+y6WN7.net
>>972
上は、「ない」って言ってるじゃん

1008:デフォルトの名無しさん
19/03/02 11:36:13.20 +L4gK20K.net
統一理論ニダ

説明出来ないものがある

観測出来ないものが影響していることにしよう
↓←(この時点で既に観測出来ないのに「存在すること」が前提になっている)
補正したニダ

上手く行った

これって天動説だろ

1009:デフォルトの名無しさん
19/03/02 12:36:18.60 i53lBiQc.net
そろそろ気づけよ、馬鹿

1010:デフォルトの名無しさん
19/03/02 13:12:21.37 DCeemCxf.net
理論的には何かが存在するという前提を置かないと成立しないが今のところ観測していないものをダークマターと呼ぶだけ
理屈も何もないけど適当にダークマターとやらを登場させたわけではないわけで、指摘は的外れすぎる

1011:デフォルトの名無しさん
19/03/02 15:13:05.80 dBQH/Cna.net
>>970
たとえばAI系の知識が全くない人がAI系部署に配属されちゃったりした場合みたいな
- 本人に基本的な知識がない
- 関係者一同からも素人だと認識されてる
みたいな状況sだったら、講座も含めて資格取得に向けた行動aをとることに対する収益Eはたかいんじゃね?
みたいな行動価値関数 Q^π(s,a)だと思う。

1012:デフォルトの名無しさん
19/03/02 15:27:58.06 YyFRO3t1.net
>>970
とる事自体の価値は分からんが、漠然とAIの勉強するよりは資格という分かりやすい報酬に向かって進む方がメンタル的に良いと思う

1013:デフォルトの名無しさん
19/03/02 17:37:27.67 b3gGW1Qq.net
資格なんか下らんというひとの大半は資格に合格できない人

1014:デフォルトの名無しさん
19/03/02 17:41:24.93 moD+CRH3.net
>>970
企業が社内エンジニアの教育によく使ってる
個人で受ける人はE資格は今のところ少ないね
英語分かるならコーセラの無料コース+ディープラーニングコースなら同程度の内容だし

1015:デフォルトの名無しさん
19/03/02 17:57:48.91 DCeemCxf.net
資格取らなくてもいいけどその分野で普通に働いてる人が取れるレベルの資格が取れないのはヤバイ
取らないのか取れないのかの区別が大事

1016:デフォルトの名無しさん
19/03/02 21:51:38.20 W81kTJxo.net
データ分析して15年。
資格?はあ?って感じる。

1017:デフォルトの名無しさん
19/03/02 23:41:21.01 umeJeX9b.net
資格よりカグルで何位とかの方がアピールになると思う

1018:デフォルトの名無しさん
19/03/03 00:12:43.79 oVEKznCH.net
大企業とかでこの資格持ってる人は優先的に採用しますみたいなのが出てきたら機械学習の分野にだって資格は定着するよ

1019:デフォルトの名無しさん
19/03/03 01:19:08.01 wfftRGsB.net
大企業は、そういう資格を持ってる人を「使う」だけで
採用したいと思うかどうかは別の話だな。

1020:デフォルトの名無しさん
19/03/03 06:18:40.27 ChZC+e8W.net
>>980
そうでもない

1021:デフォルトの名無しさん
19/03/03 06:19:44.07 ChZC+e8W.net
>>982
本質は実務の方だよな

1022:デフォルトの名無しさん
19/03/03 06:21:24.19 ChZC+e8W.net
>>985
資格は定着しても(それも怪しいが)技術は定着しない
今の日本の凋落っぷり見れば判るだろ

1023:デフォルトの名無しさん
19/03/03 12:30:48.80 x8Qrwy2l.net
とりあえず老害にならないこと。
データ分析?15年?はぁ?
それが資格なんかよりもずっと重要。

1024:デフォルトの名無しさん
19/03/03 12:39:13.18 Oy6BIrlL.net
G資格なんかカンニングし放題なんだよな

1025:デフォルトの名無しさん
19/03/03 15:17:45.60 y0TSKvwt.net
巨人検定か、川上監督は何連覇したでしょうか?

1026:デフォルトの名無しさん
19/03/03 16:45:29.82 ObzEoum5.net
若い自惚れた馬鹿連中が
『私はデータサイエンティストです!』
とか言ってるんだ。
論文も書いたことないのにw
控えろよクズ!

1027:デフォルトの名無しさん
19/03/03 16:47:35.05 ObzEoum5.net
>>990
若害がひどい
ど素人の馬鹿のくせに
『私はデータサイエンティストです!』
とかw

1028:デフォルトの名無しさん
19/03/03 17:31:04.18 ewmKZfia.net
自称データサイエンティスト「ロジスティック回帰?何ですかそれ」

1029:デフォルトの名無しさん
19/03/03 17:55:15.29 E4UxtVYi.net
データマイニングと何が違うん?

1030:デフォルトの名無しさん
19/03/03 20:13:47.57 mCfJXRgA.net
データ山師

1031:デフォルトの名無しさん
19/03/04 04:15:30.30 DAN4+o0x.net
wikipediaで
機械学習
ディープラーニング
データマイニング
それぞれ同じ絵で説明されてたわω

1032:デフォルトの名無しさん
19/03/04 20:09:50.95 SGJ/lNia.net
ディープラーニングやってみてるけど、
こりゃ難しいわ。
さっぱり分からんので、
書店にいって分かりやすそうな本買ってきたw
アホな俺は涙目!

1033:デフォルトの名無しさん
19/03/04 20:18:47.22 AYtclDj4.net
>>999
マセマ の馬場先生に「ディープラーニングのための数学」でも書いてもらわんとな。
石村夫妻でも

1034:デフォルトの名無しさん
19/03/04 20:23:01.75 LITO+WrP.net
sm34712379

1035:1001
Over 1000 Thread.net
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 797日 8時間 13分 57秒

1036:過去ログ ★
[過去ログ]
■ このスレッドは過去ログ倉庫に格納されています


最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch