17/01/25 10:54:09.57 SLV8VPLP.net
>>107
人生ダッシュボードに見えた
128:デフォルトの名無しさん
17/01/25 12:30:20.88 Gmiw7uUp.net
Raschkaっていう人なんなんですか?
↓の下線を引いた辺りが意味不明なんですが。
URLリンク(imgur.com)
何が言いたいんですか?
突然、確率がどうのこうの言い出して。
129:デフォルトの名無しさん
17/01/25 12:31:34.70 Gmiw7uUp.net
別に学者でもなんでもないそこらへんの大学院生が
たまたま本を書く機会が与えられたっていうだけなん
でしょうね。
130:デフォルトの名無しさん
17/01/25 12:52:43.93 ncsczmSY.net
>>127
なんで自演してるの?
ロジスティック回帰だから確率を考えてるんじゃね?
131:デフォルトの名無しさん
17/01/25 13:10:13.99 +ZDCoX8u.net
松坂君はスルーよろ
132:デフォルトの名無しさん
17/01/25 14:54:21.83 BgFJKaLD.net
>>112
ニューラルネットのせいでベイズがなかったことになりそう。大量データあるしベイズ使うメリットあるのかね?
133:デフォルトの名無しさん
17/01/25 16:35:34.65 pJ4wONqS.net
統計的機械学習はオワコン
134:デフォルトの名無しさん
17/01/25 16:51:07.07 BBvLOI2L.net
んなあこたない
135:デフォルトの名無しさん
17/01/25 17:30:54.68 N8rjFDkA.net
機械学習で解きたいタスクに生成モデルで立ち向かっていたのは自然現象の複雑なモデル化が困難だったからでしょ
ニューラルネットみたいな識別モデルで解けるんなら持ち込まない選択肢もあるかと
136:デフォルトの名無しさん
17/01/25 20:50:22.97 o52BqWk7.net
>>126
左辺を右辺で近似しようって言ってる
137:デフォルトの名無しさん
17/01/25 21:18:40.96 ovqDkz36.net
>>126
logit関数は0-1の値を実数に変換する
これを使って特徴量の線形結合と、その特徴量の時にクラス1になる確率を結びつけることができる
138:デフォルトの名無しさん
17/01/25 23:11:04.67 TtqfhPHr.net
荒らしでも相手したーいw
139:デフォルトの名無しさん
17/01/25 23:46:59.78 bbvOdbzr.net
最近の機械学習って全部ニューラルネットワークで出来てる?
RNNもDeepQNetworkもCNNも全部そうじゃない?
この分野どれもやってること同じじゃん
140:デフォルトの名無しさん
17/01/25 23:47:38.00 lP73vfRB.net
できてねえよ
141:デフォルトの名無しさん
17/01/25 23:48:57.26 nJO+CT7A.net
コホーネン。出来てる出来てる。
142:デフォルトの名無しさん
17/01/25 23:52:31.62 TtqfhPHr.net
連想記憶を思い出してあげてください
143:デフォルトの名無しさん
17/01/25 23:55:16.54 cwiVnd3U.net
最近といっているが
144:デフォルトの名無しさん
17/01/26 00:36:39.54 6c1mJ3TJ.net
お前が何をもって機械学習と呼んでるのかは知らんが
画像や音のような特定分野を除けば今も昔も大半は重回帰分析やコサイン類似度やkNNのような原始的な方法が一般的だろ
145:デフォルトの名無しさん
17/01/26 01:39:50.98 ork6Sebg.net
DQNの損失関数の一部に出てくるmaxQ(S',A')みたいな部分の計算ってどうやんの?
そもそもmaxQ(S,A)が求まるんならそもそもなんの苦労もしないような気もするし、きっとインチキするんだろうけどどうやんだ!?
146:デフォルトの名無しさん
17/01/26 01:54:01.83 QpF8cABc.net
wikipediaのQ学習のページ読めばわかる。適当な初期値からスタートして更新しまくれば正しい値に収束する
147:デフォルトの名無しさん
17/01/26 07:21:12.81 PobJ+xli.net
Google翻訳のアプリはすご
148:いな スマホカメラに写ってる文字が自動翻訳され、そのまま置き換わって写ってるんだぜ Deep learning 恐るべき
149:デフォルトの名無しさん
17/01/26 08:12:26.86 cQVLCdYv.net
>>119 いつまでもやつている閉店セール。
150:デフォルトの名無しさん
17/01/26 08:47:26.86 Iaibv4/w.net
>>143
最大を選らばないんじゃなかったかな
たぶん、Q値をすべて0から始めて、結果の評価をQ値に入れるのが味噌
その利得計算が目的合理なら、やればやるほど合理的な判断になる。
151:デフォルトの名無しさん
17/01/26 09:03:31.67 Iaibv4/w.net
>>145
グーグルのフィードバック関数とは、プレイヤーたるユーザ、ミリオネラのオーディエンス
152:デフォルトの名無しさん
17/01/26 10:13:37.91 /Sh2xNP8.net
Q(S,A)は、状態とアクションの結果だから、中身は単純にその2値から配列参照して、過去のQ値を返せばよい。
で、評価関数は、実証する、というか実験して、それをなんらかのスコア付けすればよい。
スコアをQ(S,A)のテーブルに入れる。
すると、二回目からは、最適解らしきものを選びやすくなる仕組み。
153:デフォルトの名無しさん
17/01/26 13:23:14.54 ihTmtnuj.net
>>145
今確認して見たらほんっとに凄くてワロタwww
もうこの分野はグーグル様の天下やな(´・ω・`)
154:デフォルトの名無しさん
17/01/26 13:55:27.17 PobJ+xli.net
スマートフォンアプリの『Google翻訳』がリアルタイム翻訳に対応し、カメラを向けるだけで英語から日本語、または日本語から英語に翻訳することが可能となった。
やりかたは簡単で、『Google翻訳』を起動しカメラアイコンをタップ、その後対応している言語ならリアルタイム翻訳が開始される。
目玉アイコンでインスタントのオン、オフが可能で、右下のアイコンで一時停止が可能。
ただ制度はまだまだで、認識レベルが低く、フォントによっては別の単語と認識してしまうことも多々あるようだ。
特に映画やゲームのパッケージは認識が困難で、もはやイラストレベルの文字は認識すらままならない。
有名な単語であれば、直訳でなくそのままカタカナにしてくれる。例えばSHARPは「細い」ではなく「シャープ」と翻訳され、VIERAも「ビエラ」となった。
身の回りにある物を日本語から英語、英語から日本語にすると実に面白いぞ。
今後の課題としては文字認識の精度の向上や、多言語への対応だろう。今までは写真を撮影し該当範囲をタップし翻訳結果を表示していたが、より翻訳が楽になった。
旅行先などで看板や案内に何が書いてあるのかを知りたいときアプリを起動すればリアルタイム翻訳翻訳してくれるので、重宝しそうだ。
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
URLリンク(gogotsu.com)
155:デフォルトの名無しさん
17/01/26 14:03:01.66 x0xurvAu.net
>>145
画像認識はすごいと思いましたが、肝心の翻訳がひどいですね。
156:デフォルトの名無しさん
17/01/26 14:06:22.64 x0xurvAu.net
高級なおもちゃの領域を脱していないですね。
157:デフォルトの名無しさん
17/01/26 14:13:07.10 NQNkNUym.net
記事URLだけ貼れば十分だろ何やってんだ
158:デフォルトの名無しさん
17/01/26 14:17:01.45 Utz0288y.net
URLリンク(youtu.be)
159:デフォルトの名無しさん
17/01/26 15:18:46.80 PPpJY7dM.net
スマホアプリ『Google翻訳』のリアルタイム翻訳が凄�
160:「と話題 身の回りの物を翻訳するとカオスに! [無断転載禁止]©2ch.net http://hayabusa8.2ch.net/test/read.cgi/news/1485367323/
161:デフォルトの名無しさん
17/01/26 18:20:04.23 UuR4Ke5v.net
グーグルに学ぶディープラーニング
URLリンク(www.amazon.co.jp)
162:デフォルトの名無しさん
17/01/26 18:24:33.36 uid4ELIL.net
>>90
ちょっと気になるんだけど、線形モデルも変数同士は独立の仮定置いてるからそこはええんちゃう?
163:デフォルトの名無しさん
17/01/26 18:26:11.83 uid4ELIL.net
あと、線形モデルがおかしいとはいうけど、モデルの複雑さとかとのトレードオフで最近傍法とかあるし、手法の一つだとしか言いようがないような
164:デフォルトの名無しさん
17/01/26 18:33:09.17 i995wneR.net
>>157
駄本の予感
165:デフォルトの名無しさん
17/01/26 18:51:42.71 x0xurvAu.net
Raschka の本ですが、 variance と bias が出てくるあたりから説明が意味不明になりますね。
ひどい本です。
ビショップの本のほうが分かりやすいですか?まともですか?
166:デフォルトの名無しさん
17/01/26 18:55:06.02 x0xurvAu.net
翻訳ソフトが使えるくらいの性能になるのはいつになるのでしょうか?
167:デフォルトの名無しさん
17/01/26 19:53:01.05 Dc5M15+T.net
>>161
お前の理解力が問題
168:デフォルトの名無しさん
17/01/26 19:58:50.22 Gxh/Vy2Z.net
馬鹿と鋏は使いよう、馬鹿には無理
169:デフォルトの名無しさん
17/01/26 20:45:18.21 x0xurvAu.net
Raschka の本はひどすぎるので、ましそうなビショップの本に乗り換えることにします。
170:デフォルトの名無しさん
17/01/26 22:01:42.22 LOfMPQzP.net
数学できないこのスレの奴らにビショップとか読めるわけないだろが
171:デフォルトの名無しさん
17/01/26 22:03:37.46 Ox4Khub+.net
馬鹿ほど自説に拘る
172:デフォルトの名無しさん
17/01/26 22:11:07.55 BRlKv5w/.net
久々に覗いてみたら粘着おじさんがまだいてワロタw
翻訳に興味あるなら、ウェアラブル翻訳デバイス ili(イリー)の発表会が1/31にありんす
こいつにはかなり期待している
URLリンク(iamili.com)
173:デフォルトの名無しさん
17/01/26 22:18:08.63 BRlKv5w/.net
あ、粘着おじはそろそろこのスレ卒業せいよ~
174:デフォルトの名無しさん
17/01/26 22:19:52.87 uid4ELIL.net
python機械学習プログラミングは理論分かってるの前提だから説明はかなり不十分
PRMLとは役割が全然違う
175:デフォルトの名無しさん
17/01/26 22:48:13.87 gfpPy35K.net
>>170
あの本は著者の講義の副読本だから
厳密なことは書いてない
176:デフォルトの名無しさん
17/01/27 01:18:06.74 sVTHVTwX.net
機械学習に数学はいらない
177:デフォルトの名無しさん
17/01/27 01:33:13.62 3pui5nOJ.net
実際そういう人は実務で機械学習やってる人の中にゴロゴロしてるだろうな
178:デフォルトの名無しさん
17/01/27 05:37:36.14 QjYJmuyM.net
数学で演繹的にアルゴリズムを構築できるの?
できないでしょ
179:デフォルトの名無しさん
17/01/27 05:41:52.26 QjYJmuyM.net
>>168
これNICTのエンジンで所?
ゴミっぽい
180:デフォルトの名無しさん
17/01/27 06:47:38.19 sOrVpnzk.net
>>174
ちゃんと演繹的に構築された機械学習アルゴリズムなんかいくらでもあるがな
181:デフォルトの名無しさん
17/01/27 07:16:24.11 H9uRlrvM.net
現状
人工知能(実際は無能)→目的の為にパターンを学習→有力な結果を表示
理想図
人工知能→目的の為にパターンを学習→有力な結果を表示→溜まった結果を踏まえて自身を書き直す
以下ループ
182:デフォルトの名無しさん
17/01/27 07:41:28.61 P3UmSpp+.net
>>177
学習自体が自分を書き直す事じゃね?
隠れ層の要素数を増減させるくらいはすぐ出来そう
その他のハイパーパラメータも変化させるのはできるだろうし
183:デフォルトの名無しさん
17/01/27 08:09:36.47 H9uRlrvM.net
>>178
学習自体はデータ量の増大(蓄積)だと思ってる。
(データ量と反応パターンが増える)
自身を書き直すとは、単純に書くと、
最初はネストしないif文とfor文連打から、ネストする
if文とfoo文にする(自身を書き直す)
これにより、既存データ量の減少(不要なデータの破棄)や
もっと、複雑になって行く。かんじ?
難しいな、
データ量の増大→評価されたデータから有力なデータを出力して、
評価上位結果だけが残る→低評価データの破棄(次の学習で学習しない様にする工夫が必要)
思ったより、説明するのが難しい。
分かり難いと思う。
184:デフォルトの名無しさん
17/01/27 08:23:25.27 IY0OOPBk.net
>>179
kNNでいうと、代表的な点の付近にある冗長な値や明らかな外れ値を優先的に削除していくとか?
うまいことバランスよく削除対象を選択できる評価関数さえあれば比較的簡単に継続的に運用できそうだけど、そういう研究あるのかな
185:デフォルトの名無しさん
17/01/27 08:38:25.95 H9uRlrvM.net
普通の評価関数(他人のだけど)
URLリンク(data.gunosy.io)
削除対象を選択は難しい。
有効な出力を残そうとして、評価項目の設定を変えて行くと、帰ってデータ量が多くなる。
5項目なら100,100.100,100,100次に100,100,100,100.99+(トータル値)
上記見たいに、精度を上げる段階で膨大に増えるかも知れない
186:デフォルトの名無しさん
17/01/27 12:57:23.69 P3UmSpp+.net
>>179
実現する手段が違うけど
外から見たら同じじゃね?
自動的に出力が改善されていくんだから
187:デフォルトの名無しさん
17/01/27 15:53:14.85 IlNtMqM2.net
そういう話だったら、強化学習でハイパーパラメーターを調整していく方法をGoogleはやってるみたいよ
計算資源がクソかかるみたいだけど
188:デフォルトの名無しさん
17/01/27 15:56:08.79 IlNtMqM2.net
googleのとは別だけどこんなんもあるね
URLリンク(techon.nikkeibp.co.jp)
189:デフォルトの名無しさん
17/01/27 21:10:35.78 Ftuc5Z8r.net
chainer最強だな
tensorflowでかなり時間がかかる処理を4時間で終わる神アップデート入ってる
もうtensorflowをオワコンだな
190:デフォルトの名無しさん
17/01/27 21:15:17.54 oKibH99X.net
すげーーーー。
tensorflow使うわ。
191:デフォルトの名無しさん
17/01/27 21:32:14.65 amAo/3dT.net
>>185
PFNの深層学習フレームワーク「Chainer」が大幅な高速化へ、分散処理に対応
URLリンク(itpro.nikkeibp.co.jp)
>PFNの西川社長はChainerの性能が高くなった理由について、
>「分散処理の仕組みとして『MPI』を採用し、
> ノード間通信では『InfiniBand』に最適化したため」と説明する。
Message Passing Interface
URLリンク(ja.wikipedia.org)
分散バージョンのChainerがAWSで効率的に動くなら当分はユーザーが増えるだろう。
でも他のフレームワークもMPIを採用できるからオワコンはない。
192:デフォルトの名無しさん
17/01/27 21:47:10.78 OMtiIkq3.net
分散処理なんてtensorflowに前からついてるじゃないか
193:デフォルトの名無しさん
17/01/27 22:26:20.65 sOrVpnzk.net
機械学習って比較的大きな粒度で並列化しやすいからそんなに厳密に同期しなくていいしデータもでかいから、
MPIなんかに拘るよりもっと緩い制御の方が向いてると思うけどね
いかにも学者崩れのオナニーって感じがする
194:デフォルトの名無しさん
17/01/27 22:51:50.76 K7nE30F2.net
tensorflowが遅いのは確か
つかリンク先に速度比較乗ってる
195:デフォルトの名無しさん
17/01/27 22:59:58.43 OMtiIkq3.net
じゃあすぐにtensorflowが高速化してしまうだろうな
引き続き頑張ってくれ
196:デフォルトの名無しさん
17/01/27 23:20:17.07 K7nE30F2.net
なんでそんな喧嘩腰なんだろう
197:デフォルトの名無しさん
17/01/28 00:05:01.04 e1/iMbc/.net
オッパイそれは宇宙の理
198:デフォルトの名無しさん
17/01/28 01:07:39.43 pTPUb4iL.net
今更 chainer なんか使うかよw
199:デフォルトの名無しさん
17/01/28 01:12:19.60 lAN98u4l.net
>>192
恣意的なデータセットによるいい加減な速度比較を信じる奴がいるからじゃないか?w
200:デフォルトの名無しさん
17/01/28 01:15:54.59 +BLLOypB.net
速度気になるならC++で書けばいい
高速な行列演算ライブラリもあるし最適化も優秀なコンパイラがいっぱいある
201:デフォルトの名無しさん
17/01/28 01:20:16.41 mVogE1ql.net
TF の後追いで playground やら分散やるのもいいけど、日本語ドキュメントを作ればいいのにな
どうせ日本人ユーザしかおらんのだから
202:デフォルトの名無しさん
17/01/28 02:09:27.10 BCr/Oho6.net
>>187
さくらインターネット、演算に特化した「高火力コンピューティング」への取り組みを開始
~Infiniband接続による大規模なGPUクラスタをPreferred Networks社と共同構築~
URLリンク(www.sakura.ad.jp)
『InfiniBand』に最適化ということはさくらのGPUクラスタでテストしたのだろう。
さくらのGPUクラスタでChainerの性能がTensorFlowの5倍以上なら
2017年は「さくらでChainer」が流行るかもしれない。
203:デフォルトの名無しさん
17/01/28 02:14:53.95 BCr/Oho6.net
>>195
Deep Learning framework速度比較
URLリンク(mscorpmedia.azureedge.net)
URLリンク(qiita-image-store.s3.amazonaws.com)
Distributed TensorFlowの話
URLリンク(qiita.com)
TensorFlowが遅い事は以前から指摘されていた。
そしてGoogle以外はGoogleのJupiterネットワークを使えない。
204:デフォルトの名無しさん
17/01/28 02:23:03.60 mVogE1ql.net
>>199
一年前の記事を持ってくるな wwwww
205:デフォルトの名無しさん
17/01/28 02:29:29.55 lAN98u4l.net
>>198
何だかなぁ。5倍以上というけど、Chainer 以外のフレームワークのコードが
32ノード/128GPU に最適化されているとはとても思えないんだが?
あと、さくらのクラスタは 32ノード/128GPU でお幾らなの?初期化コストも含めてな。現実的なの?
>>199
TensorFlow はマイナーバージョンアップ毎に高速化してるよ。
206:デフォルトの名無しさん
17/01/28 02:36:15.45 pTPUb4iL.net
chainerユーザが増えないのは速度の問題じゃないんだがな…
207:デフォルトの名無しさん
17/01/28 03:07:12.49 0PzyDmFt.net
ぶっちゃけフレームワーク戦争なんて大した学習コストも無いしどうでも良い
むしろユーザーとしては、競合が多い方が専制的にならないから嬉しい
208:デフォルトの名無しさん
17/01/28 03:07:37.27 e1/iMbc/.net
>>197
マジでこれなw足元をおざなりにする馬鹿って感じ
209:デフォルトの名無しさん
17/01/28 03:30:48.92 BCr/Oho6.net
>>201
さくらが大量演算向け「高火力」サーバ正式提供開始、時間課金も
URLリンク(ascii.jp)
>来年3月には現在の月額課金制に加えて時間課金制も提供開始する予定。
「さくらの専用サーバ 高火力シリーズ」の料金表
URLリンク(ascii.jp)
Quad GPUの1時間あたりの利用料金が267円だから、
32ノード/128GPUだと1時間あたりの利用料金は267 × 32 = 8224円だね。
時間課金の初期費用が明確になるのは今年3月かな。
210:デフォルトの名無しさん
17/01/28 05:06:27.19 4gnc6irW.net
え、735,000円じゃないの?
初期費用
211:デフォルトの名無しさん
17/01/28 06:15:45.16 IJ6CDSDI.net
>>199
フレームってなんの単位なの?
212:デフォルトの名無しさん
17/01/28 06:40:24.77 4gnc6irW.net
PFNとPFIって同じなの?
213:デフォルトの名無しさん
17/01/28 08:31:27.88 BCr/Oho6.net
GCPは8GPUまで分単位の課金で気軽に使えるようになるはずだけど、
それにしてもいつからGPUが利用可能になるのだろうか。
Graphics Processing Unit (GPU) | Google Cloud Platform
URLリンク(cloud.google.com)
クラウド GPU が 2017 年から利用可能に
URLリンク(cloudplatform-jp.googleblog.com)
>NVIDIA Tesla P100 および K80 GPU も提供します。
>仮想マシン(VM)インスタンスごとに最大 8 GPU のダイを接続できます。
>Google Cloud の VM と同様に、GPU の料金は分単位で課金され、
214:デフォルトの名無しさん
17/01/28 08:57:40.55 CMqXCA8h.net
>>197
>>204
母国語で読めるというのは高いアベレージなのにね。
それにユーザーのメモ帳のようなブログ記事に任せずに
公式本や資料を充実させればいいのに。
もしくは相手がやっていないJavaやC/C++版も充実させるとか。
あそこは初学者でも何でも積極的に広めようというより
いいのを作れば意識高い人が使って自然に広まるという考えなんだろうけど。
閉じた研究グループ活動ならともかく商売なのに下手なやり方よね。
215:デフォルトの名無しさん
17/01/28 09:04:24.28 bB5QxUSC.net
速度比較って意味あるのか?
コーディングのうまさに強烈に依存してるだけだろ
216:デフォルトの名無しさん
17/01/28 10:12:09.35 0PzyDmFt.net
chainerアンチくんそろそろ自演はやめよう
217:デフォルトの名無しさん
17/01/28 14:33:19.45 BCeOr5Jl.net
Wekaでクロスバリデーションを行う場合、
テストデータがどのように分割されたかと、
=== Predictions on test data ===
inst#,actual,predicted,error,prediction
の部分で元データの何行目がどれなのかを知る方法はありますか?
218:デフォルトの名無しさん
17/01/28 22:51:19.43 twSmrXR/.net
高いアベレージ
219:デフォルトの名無しさん
17/01/29 00:03:11.04 /6WgD/vk.net
chainerとか関係なくこういうの作れるのええな
URLリンク(togetter.com)
220:デフォルトの名無しさん
17/01/29 02:30:04.51 B6CaMCDG.net
せめてタイトルくらいかけよ
そんなのアフィリエイトの誘導にしか見えない
221:デフォルトの名無しさん
17/01/29 03:22:37.85 Fhhd3neK.net
>>215
技術だけを気にしていると理論系の記事しか読まなかったりするけど
機械学習の普及には一般受けする応用を考えるのも大事だね。
TensorFlowで実装して翻訳記事を書いた人までいて影響力が桁違いだ。
初心者がchainerで線画着色してみた。わりとできた。
URLリンク(qiita.com)
>>216
タイトルは書く方が親切だけど、
下記Webサービスの反響まとめだから見て損はない。
chainerで線画着色をwebサービスにして公開してみた
URLリンク(qiita.com)
222:デフォルトの名無しさん
17/01/29 05:08:02.08 /6WgD/vk.net
togetterのURL貼ってアフィとか言われたの初めてだわw
NAVERまとめかなんかと勘違いしとるんか?
>>216さんは親切なお人やね~
223:デフォルトの名無しさん
17/01/29 05:37:08.12 +BHcORgf.net
>>217
これ初心者(PFN所属)なんだよなw
224:デフォルトの名無しさん
17/01/29 06:38:32.99 Q7KrlIOA.net
>>212
chainer信者… www
225:デフォルトの名無しさん
17/01/29 06:46:58.42 RoGFabqg.net
>>210
禿同。
226:デフォルトの名無しさん
17/01/29 07:01:27.04 Q7KrlIOA.net
>>209
GCP でも使えるのか、Cloud ML だけだと思っていたわ。
これは楽しみだな、AWS は1時間単位だから嫌w
>>210
良いものを作れば自然に広まるという考えは企業初心者の陥る罠なんだよなぁ…
過去に同じ考えの会社が Microsoft に駆逐されまくったのを知らないわけじゃないと思うのだが。
227:デフォルトの名無しさん
17/01/29 07:07:59.64 Q7KrlIOA.net
>>211
前提条件を絞れば意味がないことはないだろうけど、
問題の質やコーディングの上手さに大きく影響を受けるのはその通り。
特に GPU 絡みの分散コードなんて TF で勉強した人もいるだろうけど、職人芸。
228:デフォルトの名無しさん
17/01/29 07:19:36.92 MoBdBOkH.net
ディープラーニングすごいっていってるやつは、ニューラル冬の時代を知らないのかな
ディープすごい!人工知能すごいって盛れるのはせいぜいあと三年だろ、
まーたそのあとは人工無能だって発覚していつものごとく終わりだよ
科学にもとづかない馬鹿みたいな前提でそれをもとにビジネス組み上げる馬鹿なんていねえよヴぁーか
数学と科学と統計学の区別もつかないスクリプトキディ様乙
229:デフォルトの名無しさん
17/01/29 07:43:20.48 wnIP30dh.net
人間様に扱えない判断基準で物事を裁く馬鹿はまずいねえんだよね
ディープに新規性はないし、ハードウェアが変わった、昔のポンコツ環境とは違うといくらいったところで、君の妄想を実現するのに何年かかるのか
いくらハードウェアが進歩したからといってあのニューロンモデルに、現実世界でおこる問題の(真なる)モデルをエミュレートさせようとしたときに発生するモデルの複雑性、計算能力の必要性
これを統御するすべがディープには存在しない、だから児戯に終わる
ディープには計算力必要、分散システムつかってからが本番とか言いだしてる時点で、モデルを救いようのないまでに複雑にしますって言ってるようなもんなのにそれも理解してないよね
挙げ句の果てにディープにパフォーマンスは重要じゃないとかコードの善し悪しの問題とか言いだしちゃうんだよね、意味がわからない
ただでさえディープの設計思想はくそなのに、その頼りないディープの設計思想からして、パフォーマンスは何よりも重要なことぐらいわかるだろ
この意見に反論する奴はまず機械学習やマイニングを理解していないのに、tfとかのライブラリをただ単に走らせて喜んでる、科学的素養のないキッズだよな
ディープは単なる投機対象にすぎないってことをまず理解してからライブラリ使おうね
あとコンピュータにできる限界も理解してからね
230:デフォルトの名無しさん
17/01/29 07:45:07.64 pWwOatcm.net
>>210
>母国語で読めるというのは高いアベレージなのにね。
高い平均・・・?
231:デフォルトの名無しさん
17/01/29 09:41:57.54 Fhhd3neK.net
>>210
母国語で読めるというのは大きなアドバンテージだね。
高火力コンピューティングでさくらを巻き込んだのだから
分散バージョンChainerの日本語ドキュメントを出して
高火力コンピューティングの営業に協力してもいいと思う。
>>224-225
ディープラーニングは万能ではないが有用だから普及する。
ム板住人にとってこの技術はとても役に立つ。
>>217がペイントソフトの標準機能になる未来はすぐそこだ。
232:デフォルトの名無しさん
17/01/29 11:39:08.60 UPfWW/c8.net
機械学習マンは統計学の用語をわざわざ格好いいものに置き換えているのは気のせいだろうか
回帰・分類 → 教師あり学習
説明変数 → 特徴量
応答変数 → ラベル
233:デフォルトの名無しさん
17/01/29 11:43:30.82 bGkeaMzi.net
統計と対応してないんだから当たり前。
234:デフォルトの名無しさん
17/01/29 11:47:43.17 JmcO/odY.net
>>228
それらの用語どころじゃないくらい多い。
カッコつけしいなんだわ
235:デフォルトの名無しさん
17/01/29 11:55:07.02 Urob8xZw.net
>>228
成立ちが違うんだから用語が違うのは当たり前だ
同じような概念が違う用語で表される事もあるだろう
236:デフォルトの名無しさん
17/01/29 12:07:34.99 /NIxq7a6.net
統計学ってうさん臭いあいまい過ぎる定義多いから
測度論の用語で統一して欲しい
237:デフォルトの名無しさん
17/01/29 12:11:16.01 Urob8xZw.net
>>232
自分でやってみよう
238:デフォルトの名無しさん
17/01/29 13:48:32.98 7+btt6kI.net
統計ぎょり機械学習のほうがよっぽど胡散臭いだろ…
239:デフォルトの名無しさん
17/01/29 14:22:07.78 dDPkJyTp.net
機械学習に数学はいらないからね
仕方ない
240:デフォルトの名無しさん
17/01/29 14:44:25.03 EQKp/5y7.net
>>232
例えば?
241:デフォルトの名無しさん
17/01/29 14:44:38.18 I5gnIMbX.net
>>219
なんだこいつPNFの人間だったのかw
ドッチラケだはw
242:デフォルトの名無しさん
17/01/29 15:50:11.01 Urob8xZw.net
>>235
使うための技術として数学が必要なものは流行らないんじゃね
243:デフォルトの名無しさん
17/01/29 15:52:09.99 tmPNbfWl.net
最近はTensorFlowばっか使ってるけど、よく考えたら数年前にWekaを使ってた頃としてることが何も変わってなかったでござる
244:デフォルトの名無しさん
17/01/29 16:03:23.35 JmcO/odY.net
この分野だけの用語が多い。
イメージでラベル化されると
人はそれ以上のことを考えなくなる
『特徴抽出』、『過学習』、『教師有り/無し学習』
>>235みたいなやつを量産させる
245:デフォルトの名無しさん
17/01/29 16:12:42.74 SmTDa/S0.net
>>228
その右の語を左よりカッコイイと思ってる時点でコンプレックス丸出し情け無い
246:デフォルトの名無しさん
17/01/29 16:54:59.68 dIgMNnA2.net
>>239
そうだよ、今回の大惨事ブームに乗った大企業様のただのゲームチェンジだから
247:デフォルトの名無しさん
17/01/29 17:08:09.33 VKGZhMkE.net
一部専門家しか使えなかった技術がある程度の頭があれば誰でもできるようになってしまった。
専門家は相当危機感持ってるよ。
248:デフォルトの名無しさん
17/01/29 17:35:57.25 9Kw4+t4B.net
脳内評論家
249:デフォルトの名無しさん
17/01/29 17:43:47.34 R9/nKqS/.net
同じ概念を学術分野が違えばまったく別の言葉で呼んでるのはよくあることだから
250:デフォルトの名無しさん
17/01/30 00:32:20.99 l67CaF8/.net
文系事務職から児の業界に転職して、Pythonデータサイエンスを終えて、パイソンでちょっとした何かを作れるようになったレベルなんですが
もっとレベル上げるにはどうすればいいですか?
統計にしても、数学にしてもチンプンカンプンなので、高校レベルから勉強し直してます
251:デフォルトの名無しさん
17/01/30 00:48:24.16 tWAIhpxB.net
ビジネス系なら普通に統計を勉強するのがいいと思うよ
ツールもPythonよりRやSPSSあたりを優先的に学んだ方がいい
機械学習に手を出すのは労多く実り少ないのでおすすめできない
252:デフォルトの名無しさん
17/01/30 01:13:08.50 4FvUirHY.net
数学できないこのスレの連中にきいても無駄
253:デフォルトの名無しさん
17/01/30 01:59:30.86 h/BDIaGY.net
文系かつビジネス系の人になんでRすすめるの?
Pythonでいいじゃない
254:デフォルトの名無しさん
17/01/30 03:41:19.89 On5YDKLg.net
>>246
データ分析職の新人で下記の本を終えたという事でいいのかな?
Pythonデータサイエンス -可視化、集計、統計分析、機械学習
URLリンク(www.amazon.co.jp)
Pythonで行くならJupiter notebookを武器にすればよい。
Python でデータサイエンス
URLリンク(pythondatascience.plavox.info)
IPythonデータサイエンスクックブック ―対話型コンピューティングと可視化のためのレシピ集
URLリンク(www.oreilly.co.jp)
IPythonデータサイエンスクックブック ―対話型コンピューティングと可視化のためのレシピ集
URLリンク(www.amazon.co.jp)
ところで「六本木で働くデータサイエンティストのブログ」は知っているよね?
データサイエンティストというかデータ分析職に就くための最低限のスキル要件とは
URLリンク(tjo.hatenablog.com)
255:デフォルトの名無しさん
17/01/30 03:50:53.78 On5YDKLg.net
× Jupiter Notebook
○ Jupyter Notebook
256:デフォルトの名無しさん
17/01/30 03:57:50.00 Jndv2t4J.net
機械学習に数学は不要だから文系にこそピッタリだと思うよ
統計は普通に数学使うからおすすめしない
257:デフォルトの名無しさん
17/01/30 05:06:05.81 EgTXqXG9.net
>>248
なんでこのスレ見てるの?
258:デフォルトの名無しさん
17/01/30 12:50:55.77 C+FwTjKN.net
>>158こんなレスあったのか
そんな仮定しない。
各パラメータが独立してるなら、個々で考えたらいいだけ。Excel処理で十分
各パラメータの相関関係を見たいから機械学習してるのに何のためにry
259:デフォルトの名無しさん
17/01/30 20:01:59.26 3e3wkvn4.net
それもそうだw
260:デフォルトの名無しさん
17/01/30 20:18:20.98 YD4jdzUM.net
>>254
説明変数の多重共線性のことじゃね
261:デフォルトの名無しさん
17/01/30 20:48:56.95 UgHR9LmJ.net
学習済みのオートエンコーダがあってテストしたい時、
特定次元のみ値が不明という場合は、その次元はどんな値にして入力すればよいでしょうか?
262:デフォルトの名無しさん
17/01/30 21:00:42.04 YD4jdzUM.net
>>257
乱数でもなんでも
そこから学習させればいいんじゃね
他の所は学習させなければ早いだろう
263:デフォルトの名無しさん
17/01/30 21:01:49.05 YD4jdzUM.net
>>257
勘違いしてた
テストしたい時か
バイナリだったら反転とかじゃねーの
264:デフォルトの名無しさん
17/01/30 22:06:13.87 UgHR9LmJ.net
>バイナリだったら反転
連続値です
265:デフォルトの名無しさん
17/01/30 22:10:23.20 f7p1Vz7u.net
>>246
児の業界ってなに?
266:デフォルトの名無しさん
17/01/30 22:37:14.20 FqtHhB2j.net
>>256
何を指摘して言ってるのかさっぱりなんですが‥‥
用語を使わずに説明してもらえますか?
267:デフォルトの名無しさん
17/01/30 22:43:18.40 7QLXVWYX.net
>>262
ごく簡単に言うと重回帰分析とかで説明変数同士に相関があると結果が正しくならないことがあること
268:デフォルトの名無しさん
17/01/30 22:46:00.40 7QLXVWYX.net
wikipediaとかでは、重回帰は説明変数の無相関を仮定してると書いてはあるけど、実際はどうなんだろう
269:デフォルトの名無しさん
17/01/30 22:47:56.19 FqtHhB2j.net
>>263
いや用語の説明じゃなくて文脈上何を指摘してるの??
>>73で当てはめて説明するとどういうこと?
270:デフォルトの名無しさん
17/01/30 22:48:00.40 7QLXVWYX.net
統計的学習の基礎みて探してるけど、相関が結果に悪影響を及ぼすとか、高い相関は良くないとは書いてあるけど、明示的に無相関は仮定してないように見える
詳しい人教えて
271:デフォルトの名無しさん
17/01/30 22:51:37.34 7QLXVWYX.net
>>265
俺は256じゃないけど、
73で確率密度関数の値同士をかけ算してるが、事象が独立でないこともあるから駄目だって指摘に対して、そもそも重回帰分析の場合でも説明変数同士は独立と仮定してるから、73の手法においても独立を仮定してもいいんじゃないって意味でしょ
272:デフォルトの名無しさん
17/01/30 23:02:18.14 FqtHhB2j.net
説明変数なんて
273:知らなかったけどwikiで調べたら、『説明変数同士が関連性の高いものを使うと係数が妙な値になることがあるので注意する必要がある』 って書いてある。 つまり独立じゃない場合があるからその仮定は気をつけてねってことでは?
274:デフォルトの名無しさん
17/01/30 23:33:21.95 4DZGSucb.net
このスレのレベルがここまで低いとは…
道理で「機械学習に数学はいらない」とかいいはじめるわけだ
結論だけ書いておくと説明変数同氏は相関していてもよい
multicolinearityというのは x_k = (x_{k 1}, ..., x_{k n})' と
したときにベクトル x_1, ..., x_k, ..., x_K が一時従属になることをいっている
この場合,、X' X が非正則になって逆行列が定義できずに例えば
最小二乗法も計算できない
統計的独立と一次独立の概念をごっちゃにしているからこういうことになる
ただし、相関係数の絶対値が1になると当然、一次従属になるので、
相関係数の値が非常に大きくなると実質的にmulticolinearityとなる
275:デフォルトの名無しさん
17/01/30 23:39:26.17 4DZGSucb.net
数学わからないこのスレの連中のためにより初等的な説明しておくと
y = a + b x_1 + c x_2 + epsilon (a, b, c はパラメータ)
として、multicolinearityというのはx_1 = k x_2 と両者の間に線形関係が
成立していると生じる。
なぜなら、このとき
y = a + b (k x_2) + c x_2 + epsilon
= a + (b k + c) x_2 + epsilon
となって、b, c が単独では識別できないから
x_1とx_2が線形の関係ではない(例えばx_1 = k x_2^2)みたいな
場合はx_1とx_2には相関はあるがさっきみたいな現象はおこらない
276:デフォルトの名無しさん
17/01/30 23:44:58.54 h4BAmtHI.net
何当たり前のことをドヤ顔で言ってるの
277:デフォルトの名無しさん
17/01/30 23:49:41.28 4DZGSucb.net
答え教えてもらった後ならなんとでもいえるわな
恥ずかしいやつ
278:デフォルトの名無しさん
17/01/31 00:04:50.06 oDkERMdj.net
へえ、つまりID:4DZGSucbは>>73の後半は有りと言ってるわけだ
ワラワラだね
279:デフォルトの名無しさん
17/01/31 00:05:56.87 oDkERMdj.net
レベル低いと言っておきながらww
280:デフォルトの名無しさん
17/01/31 00:20:20.73 h46DvQd2.net
ID:4DZGSucb
草生えるwwwwwwwwwwwwwwwwwwwwwwwwww
281:デフォルトの名無しさん
17/01/31 00:35:55.39 oDkERMdj.net
>>268で十分なのに
>>269-270で不要な説明始めたな。
282:デフォルトの名無しさん
17/01/31 01:17:28.09 N6k0ulX3.net
>>276 全く同意。
283:デフォルトの名無しさん
17/01/31 01:50:36.79 n31H1l85.net
>>269
ありがとう!
自分は学部生でまだまだレベル低くて申し訳ないが参考になります!
284:デフォルトの名無しさん
17/01/31 05:08:31.52 7lVbi0HF.net
>>260
自分が望む能力に応じたノイズを乗せればいいのでは?
285:デフォルトの名無しさん
17/01/31 20:53:20.84 JuPNoFZT.net
小高知宏の機械学習と深層学習に書かれているQ学習が分からないのですが。
迷路抜けを課題に選んでいますが、「迷路抜け知識」とは何でしょうか?
一度迷路のゴールに到達してしまえば学習も何もないですよね?
どういうことなのか分かりやすく説明をお願いします。
286:デフォルトの名無しさん
17/01/31 21:07:13.07 h46DvQd2.net
>>280
アホなの?本当にアホなの?
頭に脳みそ入ってるbot?
287:デフォルトの名無しさん
17/01/31 21:47:50.33 JuPNoFZT.net
Q学習って何ですか?
288:デフォルトの名無しさん
17/01/31 22:41:25.06 +Vts4fVJ.net
>>282
URLリンク(www.sist.ac.jp)
強化学習のひとつ
正解に至った場合、及びそれにいたる過程までの行動に対して報酬(スコアなど)を
289:逐次与えていく。 報酬を何度も与えた(学習させた)後、各状態において高いスコアの方向に行動を選ばせるようにすると その学習をさせたモノは最善の行動(最短のゴール)をするようになってくれる。 wikipediaでも概要が書いているでしょ。 小高知宏の本は買って読んだけど、そのサンプルコードは Q(s,a)という変数から素直にコード化しておらず、 例題に合わせて変に捻ったコードだからわかり難い、 というか他の章のサンプル例もあんまり良くない。
290:デフォルトの名無しさん
17/01/31 23:09:29.24 FyEWGqXh.net
説明長い。
この方法の一番大事な点は収束性について数学的な保証がついてること。
291:デフォルトの名無しさん
17/01/31 23:40:16.00 JuPNoFZT.net
>>283
ありがとうございます。
状態 s_t のときに、行動 a_t を起こすと、状態 s_(t+1) になるという
ルールはあらかじめ与えられているのでしょうか?
292:デフォルトの名無しさん
17/02/01 01:21:45.65 Q08T0ylq.net
上に進んだら上のマスに進むってルールはあらかじめ与えられているのでしょうか
293:デフォルトの名無しさん
17/02/01 11:11:23.91 vfxl2l7p.net
ブームは池沼も呼び込むな
294:デフォルトの名無しさん
17/02/01 12:26:29.12 NxlaBb9k.net
丁寧語のアホには本当に苛つかさせられるな
295:デフォルトの名無しさん
17/02/01 12:47:45.64 UKuyDP5N.net
URLリンク(ainow.ai)
296:デフォルトの名無しさん
17/02/01 12:50:10.76 BmnrBHXM.net
>>280
『分かりやすく説明お願いします』はかなり図々しい発言。
297:デフォルトの名無しさん
17/02/01 12:52:52.97 QU1UVS/Z.net
>>290
それは俺も思ったわ
298:デフォルトの名無しさん
17/02/01 13:00:21.02 BmnrBHXM.net
アルゴリズムは知恵袋にでも聞けばよろし。
興味も答えるメリットもなきゃ誰も答えない(この発言も優しい)
299:デフォルトの名無しさん
17/02/01 14:23:10.38 ghQ3I59v.net
>>289
>企業からは、AIに関わる事業の推進
そういう意図なら産総研を載せるべきだと思う。
人工知能研究センター
URLリンク(www.airc.aist.go.jp)
産総研人工知能セミナー
URLリンク(www.airc.aist.go.jp)
300:デフォルトの名無しさん
17/02/01 15:03:13.57 w668KZ70.net
Pythonでimport sklearnすれば機械学習できるし余裕っていう派に限って
機械学習は万能!しゅごい!とか言ってて迷惑
数学がわからないのに機械学習を使いこなせるわけないだろ
301:デフォルトの名無しさん
17/02/01 15:41:14.66 UKuyDP5N.net
>>293
書き漏れてしまったが無断でこういう一覧作ってるけどどうなんだ?
あと他に有力な研究者とかいないの?
302:デフォルトの名無しさん
17/02/01 18:16:22.74 ZDdrP06J.net
小高知宏の機械学習と深層学習に書かれているQ学習が分からないです。
前半のロボットを例にした説明は大体分かります。
ところが迷路を例にした例が分かりません。
分からないので、Cで書かれたプログラムを読んでみました。
S14という状態がゴールのようです。(S14に達すると報酬がもらえるため)
でも、迷路のプログラムの目的はゴールへ到達することです。
だとすれば、S14に達した時点で目的達成ということになるので
はないでしょうか?だから、学習した成果であるQ値のテーブルが
何の役に立つのか分かりません。1度ゴールにたどり着けばもう
用済みなのではないかと思ってしまいます。
それともう一つ分からないのは、
p.66の2式
qv = qvalue[s] + ALPHA * (1000 - qvalue[s]);
qv = qvalue[s] + ALPHA * (GAMMA * qmax - qvalue[s]);;
です。なぜこのような式で、 Q値を更新しているのでしょうか?
303:デフォルトの名無しさん
17/02/01 18:18:16.38 ZDdrP06J.net
>>283
をこれから読んでみようと思います。
他に分かりやすい説明があれば本などを教えてください。
ビショップの本には載っていないようですね。
304:デフォルトの名無しさん
17/02/01 18:20:14.37 ZDdrP06J.net
>>296
プログラムでは、ゴールである、S14に到達した後も、学習をつづけています。
それとS11に達したときにも報酬がもらえるようにする場合の実行結果も載っていますが、
これは何のために報酬を与えているのでしょうか?
305:デフォルトの名無しさん
17/02/01 18:20:57.93 ZDdrP06J.net
>>298
ゴールに到達した後も学習を続ける理由がさっぱり分かりません。
306:デフォルトの名無しさん
17/02/01 18:23:00.85 ZDdrP06J.net
とりあえず、よくわからないので、第3章を読むことにしましたが、
やはり気になります。
307:デフォルトの名無しさん
17/02/01 18:33:54.64 GM65x3HP.net
>>298
その本は読んでないけど
複数のルートがある場合より早くゴールに到達できる方が良いんじゃね
308:デフォルトの名無しさん
17/02/01 19:10:47.50 ZDdrP06J.net
>>301
ありがとうございました。
うーん。迷路の例はスタート地点を根とする木でゴールがある一つの葉なんですよね。
だから、ルートは一通りしかありません。
Q学習を説明する例として迷路抜けが適切なのかどうなのかといった問題も
あるのではないかと思いますがいかがでしょうか?
309:デフォルトの名無しさん
17/02/01 19:17:24.99 ZmlI1e/L.net
わからないから質問するのはまだ理解できるけど、わからないのに回答するのは有害すぎんじゃねえのか・・・・
早くゴールできたほうが良いとか、人間のただの希望にすぎねえじゃねえか・・・・
310:デフォルトの名無しさん
17/02/01 19:31:48.46 ghQ3I59v.net
>>295
公共機関である大学の研究室一覧に「無断で作ってる」は言いがかりだ。
一覧公開が駄目なら追加情報をこのスレに書くのも駄目だろう。
311:デフォルトの名無しさん
17/02/01 19:35:43.71 ghQ3I59v.net
>>247>>249
科学計算における均質化、あるいはなぜPythonが着実に他言語のシェアを奪っているか
URLリンク(chezou.hatenablog.com)
3年前の記事だが、その後さらにPython一人勝ちが進んだ。
Pythonに集中する方針でよいと思う。
312:デフォルトの名無しさん
17/02/01 23:56:46.18 BJ8iAj+1.net
いまどきビジネスマンにRおススメってのは無いわな
313:デフォルトの名無しさん
17/02/02 00:29:59.47 y6QWCKDD.net
jupyter使ってるけど、使い心地がデスクトップであるRstudioの方が好き
314:デフォルトの名無しさん
17/02/02 02:37:28.63 4EL6pZGW.net
jupyter notebookは気軽でいいよ。
URLリンク(www.websuppli.com)
この辺とか導入からいい感じまとまってるからためした方がいいね
315:デフォルトの名無しさん
17/02/02 09:25:36.20 Yy+UgsXH.net
Jupyter Notebookの導入は済んだかな?
では講義ノートをどうぞ。
Scipy Lecture Notes
URLリンク(www.turbare.net)
316:デフォルトの名無しさん
17/02/02 15:19:52.02 NEZPvzut.net
日本語でよろ
317:デフォルトの名無しさん
17/02/02 15:56:14.99 45SIz+8C.net
仕事でRでデータ分析してるけど、周りがどんどんpythonに移行してて悲しいのぅ…
318:デフォルトの名無しさん
17/02/02 17:17:36.02 Ka4YZTeu.net
RのライブラリってPythonから普通に呼び出せるからね
汎用性のあるPythonの方が便利
319:デフォルトの名無しさん
17/02/02 20:22:08.98 gyj9WxhF.net
生成モデルがよくわからん
わかりやすいサイトとかない?
320:デフォルトの名無しさん
17/02/02 21:49:41.40 g2lbvvmJ.net
URLリンク(monadfx.com)
こんな情報商材が
321:デフォルトの名無しさん
17/02/02 21:57:01.03 +6LgrXhB.net
>>313
おまえには無理そう
URLリンク(www.slideshare.net)
URLリンク(www.slideshare.net)
322:デフォルトの名無しさん
17/02/02 22:19:58.16 kID0DPI+.net
前も同じこと言った気がするけどslideで勉強する気にならないわ
323:デフォルトの名無しさん
17/02/02 22:32:10.80 +6LgrXhB.net
スルーすればやる気があれば自分で探せ、探せなければ勉強する資格はない
324:デフォルトの名無しさん
17/02/02 22:33:12.51 +6LgrXhB.net
高卒ならしょうがないけどw
325:デフォルトの名無しさん
17/02/02 22:44:26.54 l9Q1PWti.net
小高知宏の機械学習と深層学習を読んでいます。
今、第3章の遺伝的アルゴリズムによるナップサック問題のプログラムを読んでいます。
この手法は乱暴すぎないでしょうか?
第一、これでなぜうまくいくのかの説明は困難なのではないでしょうか?
実際、何の説明もありません。
そして、最適解の9割程度の解しか得られません。
乱暴であるうえに、優れた手法でもありません。
生物学から、染色体、染色体の交叉、突然変異などとキーワードをなんとなく
借りてきて、なんとなく本当に似ているのかどうかも分からずに真似事をやって
いるだけのように思います。ただの遊びの域を出ていないように思います。
結果もさんざんですね。
たとえば、突然変異に本当に意味はあるのでしょうか?
とにかくいい加減すぎます。
326:デフォルトの名無しさん
17/02/02 22:45:38.09 +6LgrXhB.net
>>316
>前も同じこと言った気がするけど
コテつけるなり分かるようにしろ
327:デフォルトの名無しさん
17/02/02 22:46:32.06 l9Q1PWti.net
ニューラルネットワークも最初は、生物学からニューロンなどのキーワードを
借りてきただけの単なる思いつきだったわけです。
たまたま、最近、計算機パワーに頼って、画像認識などの分野でいい結果を
出しただけではないでしょうか?
もっといい方法などいくらでもありそうな気がします。
とにかく発想がチープすぎます。
328:デフォルトの名無しさん
17/02/02 22:48:15.31 l9Q1PWti.net
飛行機を作るのに鳥をまねて作るような愚かさに通じるものがあります。
滑稽ですね。
329:デフォルトの名無しさん
17/02/02 22:49:14.35 +6LgrXhB.net
322 名前:デフォルトの名無しさん[] 投稿日:2017/02/02(木) 22:48:15.31 ID:l9Q1PWti
飛行機を作るのに鳥をまねて作るような愚かさに通じるものがあります。
滑稽ですね。
330:デフォルトの名無しさん
17/02/03 00:34:58.09 jr+wUUNq.net
滑稽爺はブログ開設して自説はそっちに書け
いつまでスレに居座るつもりよ?
331:デフォルトの名無しさん
17/02/03 00:36:43.76 +vUbiEsM.net
高卒様スレッドに逆戻りか
332:デフォルトの名無しさん
17/02/03 00:49:01.46 3jZyLbrP.net
>>319-322
機械学習の読書感想スレへどうぞ。
人工知能ディープラーニング機械学習のための数学
スレリンク(tech板)
333:デフォルトの名無しさん
17/02/03 01:19:39.56 HsEUssYK.net
もっといい方法がいくらでもあるならそれを使え
終了
334:デフォルトの名無しさん
17/02/03 03:36:24.39 3jZyLbrP.net
>>315-316
PFIセミナーの動画とブログもあるよ。
PFIセミナー2016/2/25:生成モデルのDeep Learning
URLリンク(www.youtube.com)
なんちゃって!DCGANでコンピュータがリアルな絵を描く
URLリンク(yasuke.hatenablog.com)
335:デフォルトの名無しさん
17/02/03 04:30:35.31 c/3M2MXW.net
謎解きゲームは人工知能ではクリアできない
336:デフォルトの名無しさん
17/02/03 09:53:16.74 2Od1s7uP.net
>>328
宣伝乙。そんなもんを見るくらいなら、スタンフォードとかの講義を見たほうがマシだわ
337:デフォルトの名無しさん
17/02/03 11:16:48.30 wI6cZkmH.net
今まで黙ってたけど小高知宏の本こそチープ
なんでこんな本を参考にしようとしたのか共感できない
338:デフォルトの名無しさん
17/02/03 12:15:34.18 3jZyLbrP.net
>>330
スタンフォードの機械学習コースを見るのは結構
339:だけど、 これは基礎知識を学ぶコースで深層生成モデルは範囲外だ。 Machine Learning https://www.coursera.org/learn/machine-learning 数学を避けてきた社会人プログラマが機械学習の勉強を始める際の最短経路 http://qiita.com/daxanya1/items/218f2e3b922142550ef9 >基本英語ですけど、このコースの動画に全て日本語字幕がついています
340:デフォルトの名無しさん
17/02/03 16:45:24.28 fuOx2c+7.net
Pythonにやられっぱなしだったけどデータサイエンス分野でのRubyの逆襲が始まった
URLリンク(www.s-itoc.jp)
341:デフォルトの名無しさん
17/02/03 17:55:54.58 CmWPA7NT.net
新聞にSOINN はプログラムするのではなく、データを与えることで自ら育つ人工知能です。
ノイズが混入したデータであっても、そのまま学習データとして活用できます。
と書いているのですが何故このスレで話題にならないのですか
342:デフォルトの名無しさん
17/02/03 18:15:23.63 WzhGWWCV.net
小高知宏の本を読み終わりました。
ひどい本ですね。
まずプログラムが下手。
プログラムがトリビアルすぎる。
スカスカの本ですね。
343:デフォルトの名無しさん
17/02/03 18:33:42.96 WzhGWWCV.net
{w_n} は正の実数からなる単調減少数列で、 w_n → 0 (n → ∞) をみたすとする。
{z_n} を複素数列とする。
S_n = z_1 + … + z_n とする。
{S_n} は有界であるとする。
(1)
Σ z_n*w_n は収束することを示せ。
(2)
T := Σ z_n*w_n
M := sup{ |S_n| | n ∈ {1, 2, …}}
とする。
|T| ≦ M * w_1
であることを示せ。
344:デフォルトの名無しさん
17/02/03 18:35:23.54 VobJ0y4v.net
松坂の馬鹿が誤爆
345:デフォルトの名無しさん
17/02/03 19:18:39.80 +vUbiEsM.net
誰も収束すると言ってないものを示せとか、もう高卒もびっくりの域に来てるな
346:デフォルトの名無しさん
17/02/03 22:00:56.06 jr+wUUNq.net
>>333
Rubyは無いよー
Webアプリでも他の言語にリプレースされつつあるよー
347:デフォルトの名無しさん
17/02/03 22:16:59.94 SQcrsSzl.net
>>333
数値計算系弱いんだからしゃしゃってくるなで国内外の意見は一致している
リスクの高い戒律が不可思議な宗教言語って認識で最近だと使われない
348:デフォルトの名無しさん
17/02/03 23:23:36.36 /IIXh36F.net
数理工学なんて専門家に任せようぜ
349:デフォルトの名無しさん
17/02/03 23:37:44.30 6hxC+npH.net
>>333
個人的にこれは嬉しい、機械学習はPython使ってるけどRubyラッパー出てくれたらそっち使うわ
350:デフォルトの名無しさん
17/02/04 09:34:45.08 8q1zjLyK.net
アクセスアップとお小遣い稼ぎの裏技
トラフィックエクスチェンジ
URLリンク(tra-chan.jugem.jp)
351:デフォルトの名無しさん
17/02/04 09:53:16.48 aVxGT+Bl.net
それって詐欺に近いのでは?
352:デフォルトの名無しさん
17/02/04 11:07:35.25 G5jYnWHR.net
>>344
マルチ商法と似た感じかもな
353:デフォルトの名無しさん
17/02/04 11:24:54.37 vecr3pus.net
>>334
パット見、インターフェースに課題があるからだろ。
354:デフォルトの名無しさん
17/02/04 11:35:01.71 RJ7Gigdl.net
ロジスティック回帰もAIなのね
病態悪化につながる患者行動をAIが予測
URLリンク(www.ntt.co.jp)
355:デフォルトの名無しさん
17/02/04 11:39:32.98 4LwgUKBb.net
現在はニューラルネットが飛び抜けてるから他の古典的なアルゴリズムじゃお話にならん
356:デフォルトの名無しさん
17/02/04 11:54:45.05 3hnc95W0.net
URLリンク(www.youtube.com)
357:デフォルトの名無しさん
17/02/04 12:17:47.38 mbPzGGcs.net
データセットが少ない場合はxgboostで多かったらニューラルネット使えばOK
358:デフォルトの名無しさん
17/02/04 12:22:57.39 RJ7Gigdl.net
発表者「この特徴量が効いてました」
聴衆「( ´_ゝ`)フーン」
オワリ
359:デフォルトの名無しさん
17/02/04 12:32:31.00 Lp8xjVA8.net
なんで俺の発表知ってんの?!
360:デフォルトの名無しさん
17/02/04 13:41:09.65 tjP1zdkj.net
病気だからどれが影響与えるか知ることは意味あるだろ
361:デフォルトの名無しさん
17/02/04 13:57:30.27 aVxGT+Bl.net
んなもん主成分分析で十分じゃね?
362:デフォルトの名無しさん
17/02/04 14:07:09.23 cCtqcbdk.net
>>347
受診中断っておい見出し詐欺じゃねーか
363:デフォルトの名無しさん
17/02/04 14:42:59.30 Ae9+iluB.net
>>354
自称理論屋のダメサラリーマンは仕事したら?
364:デフォルトの名無しさん
17/02/04 20:31:11.19 Ccv7kUBf.net
pix2pixで画像いぢりたいのですが、GPUってGTX1060の6GBで回せますか?
GTX1070にしといた方が無難でしょうか?
服を脱がすフィルター作りたいです
365:デフォルトの名無しさん
17/02/04 21:00:49.01 x08HX1ah.net
GTX1080の方がいい
366:デフォルトの名無しさん
17/02/04 22:17:39.93 2FmL4hI1.net
>>334
k-means clusteringの亜種に過ぎないから。
元々k-means clusteringで上手くいった事例に対して多少精度は上がるけど
逆にそうではない事例においては上手くはいかない、逆に精度が悪くなる。
それにマスコミは凄いと言っているけど具体的にアルゴリズムとか説明していないでしょ。
367:デフォルトの名無しさん
17/02/04 23:22:53.22 oyC8JJwB.net
AIAIって頭の悪いマスゴミが煽って、盛りまくった記事書いて、それを情弱が信じ込んで酷い状況だな
最近だとPFNのchainerのAI自動着色()とかどっかで見たパクリでドヤも出る始末、これからはAIの時代になるとか戯言ツイートやアフィカス記事が湧いてるし
大丈夫か日本人?
海外でもこういうのが大量発生してるんだろうか
368:デフォルトの名無しさん
17/02/04 23:35:45.67 RUgrdXcX.net
そんなに興奮しなくてよろしい
369:デフォルトの名無しさん
17/02/05 00:00:02.78 dIHobaUF.net
>>360
AIブームは景気の波のように何度も来ている。
「今のAIブームがシンギュラリティまで続く」という予想は
「ニューエコノミーで永遠の好景気が続く」ぐらい間違いだろう。
今のAIブームは高性能のパターン認識を実現だけで終わるかもしれない。
でもAIブームの繰り返しは景気変動ほどの実害はないよ。
演繹と組み合わせた抽象的思考が実現したら次のAIブームが始まる。
370:デフォルトの名無しさん
17/02/05 00:37:10.47 +9Zhktnd.net
論理と確率を混ぜた推論とか、人間みたいに柔軟にデータを融合させたり(言語モデルで分類した花と、画像モデルでの花をどう関連付けるとか)、統計モデル自体を切り替えたりするような、単一の学習機以外の話題をあまり聞かない・・・・
371:デフォルトの名無しさん
17/02/05 01:23:17.57 +PejzSCQ.net
完全な自然言語処理ができるかどうかまではたしかにわからないが
確実に頭打ちが来るとまで言えないだろう
372:デフォルトの名無しさん
17/02/05 06:08:03.94 dIHobaUF.net
>>334
人工知能SOINNの機械学習手法は学習速度を重視していて精度はDeep Leaningより劣る。
このスレは人工知能スレではなく機械学習スレだから人工知能SOINNは注目されにくい。
Qiitaの記事は人工知能SOINNと機械学習手法SOINNを区別していないが情報がまとまっている。
超高速オンライン転移学習
URLリンク(www.slideshare.net)
【 自律学習型人工知能 事例調査 】 東工大 長谷川研究室 発の「SOINN」(自己増殖型ニューラルネットワーク)がすごい
URLリンク(qiita.com)
373:デフォルトの名無しさん
17/02/05 06:09:50.75 dIHobaUF.net
>>359
新聞に載ったSOINNはオンライン教師なし学習手法ではなく学習型の汎用人工知能だそうだ。
汎用人工知能SOINNの目標はパターンベース人工知能なのだろう。
SOINN:Self-Organizing Incremental Neural Network
URLリンク(www.haselab.info)
>自己増殖型ニューラルネットワーク(SOINN)は,Growing Neural Gas(GNG)と
>自己組織化マップ (SOM) を拡張した,追加学習可能なオンライン教師なし学習手法です.
SOINNとは?
URLリンク(soinn.com)
>人工脳「SOINN」って何?
>人を含む動物は「脳」を持ち、運動や視覚、聴覚、記憶をはじめ、
>連想、発想、感情といった高度な知的活動まで、全て脳で行っています。
>同じように、「人工脳」は感情を除く多くの知的情報処理を担うことができる、
>学習型の汎用人工知能です。
「パターンベース人工知能」とはなにか?
URLリンク(www.slideshare.net)
374:デフォルトの名無しさん
17/02/05 07:15:07.17 D3Czko62.net
長谷川修って在日じゃない?
375:デフォルトの名無しさん
17/02/05 07:25:02.53 KCFRW6Ot.net
>>336 ワロタ 誤爆だよね
Abel's test - Wikipedia
URLリンク(en.wikipedia.org)
それはそれとして部分足し算の方法はとっても役に立つ奴だと思うので
real analysis - Prove if ... Mathematics Stack Exchange
URLリンク(math.stackexchange.com)
or
URLリンク(goo.gl)
376:デフォルトの名無しさん
17/02/05 12:24:23.72 5OlxdBIJ.net
>>334
はっきり言って実績が少なすぎる。
取り上げるほどのものではない。
既存の手法より優れているかどうかの理論的なあとづけがない、かつ、ほんの数人しか手を付けてなく実行例が少ない段階なのに勝手にマスコミが取り上げて騒いでるだけ。
377:デフォルトの名無しさん
17/02/05 13:02:22.57 4tZEJdYq.net
>>369
日本だと理論が優れているかではないんだよ
どれだけ政治力で採用できるかでしかない
セキュリティフォントもそういう仕組みでできているし
378:デフォルトの名無しさん
17/02/05 13:09:25.57 Ms5Wpsx7.net
ビックリするくらい人工知能に飽きてきてワロタw
なんか馬鹿らしくなってきたw普通に明日から仕事頑張りますwww
機械学習?要らねえっすわ(´・ω・`)
379:デフォルトの名無しさん
17/02/05 13:14:50.68 +MDXuZ60.net
人工知能に変わる言葉が必要だと思う
あきらかに知能じゃないし
380:デフォルトの名無しさん
17/02/05 13:44:42.82 iQ4qqO8F.net
>>360
PFN みたいに迷走してるとこを代表例にするなやw あそこはパクってドヤ顔するだけじゃんw
381:デフォルトの名無しさん
17/02/05 13:46:52.50 iQ4qqO8F.net
>>371
さよなら~ (^O^)///
382:デフォルトの名無しさん
17/02/05 13:48:50.10 iQ4qqO8F.net
>>372
良いとは思ってないが、ビッグデータよりマシじゃね。少なくとも客の引き合いは滅茶苦茶増えた
383:デフォルトの名無しさん
17/02/05 13:59:48.18 e8uN1lf2.net
機械学習は金がかかるのが弱点。
クラウド課金がきついんで、自前で Tesla を買うか思案中
384:デフォルトの名無しさん
17/02/05 14:08:18.79 iQ4qqO8F.net
K80 使ってるけど、すぐに物足りなくなるぞ
385:デフォルトの名無しさん
17/02/05 14:09:52.65 Ww22+xsq.net
顧客「なぜこのような結果になるのでしょうか?」
ベンダー「人工知能が計算した結果なのでわかりません」
顧客「(´・∀・`)ヘー」
オワリ
386:デフォルトの名無しさん
17/02/05 14:20:01.24 0spimbS2.net
>>378
言いたいことは分かるが、AIブームに乗り遅れないことが大切で早急な結果は求めない客もいる
387:デフォルトの名無しさん
17/02/05 14:56:34.91 jzd4lUd3.net
VRと同じ
使うこと自体が目的で、使う目的はどうでもいい
388:デフォルトの名無しさん
17/02/05 14:56:45.33 IfqxbMFN.net
>>369
マスコミは金払えば取り上げるから有効かどうかの指標にはならない
389:デフォルトの名無しさん
17/02/05 14:57:43.63 IfqxbMFN.net
>>376
その投資分を回収できるの?
390:デフォルトの名無しさん
17/02/05 14:59:06.62 0spimbS2.net
今のマスゴミなんて単なる広告媒体でしかないし、そもそも技術が分かるはずない
391:デフォルトの名無しさん
17/02/05 15:04:32.70 e8uN1lf2.net
>>382
それは何とも… ただ、高スペックな GPUなしでは実用的なモデルのトレーニングは無理なんで。
392:デフォルトの名無しさん
17/02/05 15:11:03.45 IfqxbMFN.net
>>384
トレーニング後の運用はCPUで足りるのかな?
393:デフォルトの名無しさん
17/02/05 15:16:37.85 e8uN1lf2.net
>>385
それはケースバイケースかと。
自分が扱ってる範囲内だと運用はCPUでもいける、もちろんGPU使えるならベターだが
394:デフォルトの名無しさん
17/02/05 15:43:24.77 CY/qlqbs.net
こんにちは
ディープラーニングで回帰問題(材料となるデータを入力してある値を予想するようなこと)をしたいのですが
応用例や実装が載っているサイトはないですか???
395:デフォルトの名無しさん
17/02/05 15:47:41.54 1jtkPm7i.net
>>372
AI
396:デフォルトの名無しさん
17/02/05 15:49:21.67 IfqxbMFN.net
>>387
なんでディープラーニング?
普通に重回帰分析とかでいいんじゃね?
397:デフォルトの名無しさん
17/02/05 16:02:49.97 CY/qlqbs.net
非常に言いにくいのですが,流行りのキーワードを取り入れたいということになります
結果は正直うまく行かなくてもいいので,とりあえず動くようなものを作りたいです
398:デフォルトの名無しさん
17/02/05 16:05:54.65 0spimbS2.net
>>390
それなら定番の deep learning フレームワークのチュートリアルを見れば回帰の例も出てるよ
399:デフォルトの名無しさん
17/02/05 16:44:33.90 CY/qlqbs.net
すみません
本格的に無知なので定番のやつと言われても分かりません
どのページあるのか教えていただけますか???
400:デフォルトの名無しさん
17/02/05 16:51:17.27 7JTQPqgT.net
マテリアルインフォマティクスか。
言葉だけは流行ってるな。
401:デフォルトの名無しさん
17/02/05 16:58:09.34 5OlxdBIJ.net
>>370
頭悪いな。
なんで事象が違うセキュリティフォントを例にあげるw
最初に実績がないって言った。
それが全て
数人がやってみて効果があるなら広まるさ。理論を上げたのはバックアップがあるならなおのこと広まりやすいって話だよ
402:デフォルトの名無しさん
17/02/05 17:00:01.31 5OlxdBIJ.net
>>392
『ゼロから始めるディープラーニング』買え。それですむ
403:デフォルトの名無しさん
17/02/05 17:06:34.86 RbGNMM7m.net
>>392
無理しなくていいよ
404:デフォルトの名無しさん
17/02/05 17:20:44.45 CY/qlqbs.net
『ゼロから作るDeep Learning』は評判もよさそうで気にはなっていました
しかし,サンプルを見たところ『誰のための本ではないか?』の節に「本書は,主に画像認識を主題にしています」とあったのでこれは役に立たないだろうと判断したのです
URLリンク(ima)
405:ges-na.ssl-images-amazon.com/images/I/81Ggww6cNRL.jpg
406:デフォルトの名無しさん
17/02/05 17:31:50.68 yBpmeKwE.net
>>395
行列の積を行列の内積と書いているのはなぜなのでしょうか?
407:デフォルトの名無しさん
17/02/05 17:39:47.44 RbGNMM7m.net
偏執者
408:デフォルトの名無しさん
17/02/05 18:52:58.21 jzd4lUd3.net
>>397
じゃあ買わなくていいよ
409:デフォルトの名無しさん
17/02/05 20:16:08.35 dIHobaUF.net
>>369 >>394
特許検索ページで「長谷川 修 東京工業大学」で検索したら21件ヒットする。
そのうち7件がSOINN関連特許でSOINNの基礎技術は特許で固められていた。
特許が絡むSOINNは今後も東工大とSOINN株式会社しか研究しないだろう。
一方でDeepLearningは大勢が研究して途方もない速さで進歩していく。
ソフトウェア特許は計算機科学にとって有害すぎると思う。
特許・実用新案、意匠、商標の簡易検索
URLリンク(www.j-platpat.inpit.go.jp)
特開2014-164396 (LBSOINN)
【課題】学習結果について優れた安定性を有する。
特開2012-084117 (転移学習)
【課題】オンラインかつ追加学習が可能な属性の学習及び転移を実現すること。
特開2011-086132 (連想記憶)
【課題】連想記憶システムに要求される機能に関して、
従来より優れた性能を持つ連想記憶装置を提供すること。
特開2008-305129 (推論)
【課題】入力パターンを実数値ベクトルにより表現することができると共に、
連言、選言、否定を含む任意のif-thenルールを
自己増殖型ニューラルネットワークによって学習させることができる
推論装置、推論方法、及びプログラムを提供することを目的とする。
特開2008-299644 (追加学習)
【課題】ノードの数を事前に決定することなく、逐次的に入力される
新たな連想対を既存の知識を壊すことなく追加学習することができる
連想記憶装置、連想記憶方法、及びプログラムを提供すること。
特開2008-299640 (時系列学習)
【課題】状態数及び各状態の出力分布を自動的に決定して、
時系列データの頑健なモデル化をすることができるパターン認識装置、
パターン認識方法、及びプログラムを提供すること。
特開2008-217246 (ESOINN)
【課題】高密度の分布の重なりを持つクラスを分離できる情報処理装置、
情報処理方法、及びプログラムを提供すること。
410:デフォルトの名無しさん
17/02/05 20:29:07.19 e8uN1lf2.net
soinn の専用スレでやってくださいな、自演臭や宣伝臭が酷いわ
411:デフォルトの名無しさん
17/02/05 20:30:05.17 jqkSsLKy.net
SONIN、しつこいわ
412:デフォルトの名無しさん
17/02/05 20:31:27.87 jqkSsLKy.net
>>392
いや、本の名前を言ったわけじゃないのだが…
tensorflow でも chainer でも好きなフレームワークのチュートリアルを見たら、という話し
413:デフォルトの名無しさん
17/02/05 21:10:50.67 dIHobaUF.net
>>402
機械学習実装時に回避が必要なソフトウェア特許がなぜ宣伝に見える?
>>401は自己増殖型ニューラルネットワークには地雷があるという話だよ。
414:デフォルトの名無しさん
17/02/05 21:20:33.42 A4u3TAD4.net
>>405
他にもAIに関する特許があるんじゃね?
415:デフォルトの名無しさん
17/02/05 21:31:45.54 Oin6oDw+.net
とりあえずSONINからいったん話題をずらして。
興味もないのにクローズアップされるとただただ不快だわ
416:デフォルトの名無しさん
17/02/05 22:15:11.89 4rlIAJol.net
今の特許庁は特許ゴロの標的になってるぐらい審査がザルだからな
特許も無効審判ができるし、既に出してれば絶対有効な訳でもない
裁判になっても100%勝てるソフトウェア特許なんてないでしょ
freeeの糞特許なんて笑うレベル
417:デフォルトの名無しさん
17/02/05 22:24:08.90 +9Zhktnd.net
ジャスラックの件といい、ITと機械学習を
418:駆使して知的財産保護の仕組みを作り直せばいいのに
419:デフォルトの名無しさん
17/02/05 23:01:48.46 t4o4fake.net
すでに投資詐欺化が進んできてるよな
420:デフォルトの名無しさん
17/02/05 23:27:46.85 wsJHd5fy.net
そこでブロックチェーンだっちゃ(´・ω・`)
421:デフォルトの名無しさん
17/02/06 00:22:41.08 IEnwuIUq.net
プログラムに自動で売買させる仕組みを商品として売るのはどうかと思うな
422:デフォルトの名無しさん
17/02/06 01:29:36.76 zT6fFoQQ.net
>>397
>これは役に立たないと判断した
なんかもうね。頭が悪そう
423:デフォルトの名無しさん
17/02/06 01:49:24.29 xXqB25Ef.net
どうして何一つわからない人間が偉そうに判断できるのかっていうね
何でもそうだけどまず試してみて、そのうちで少しずつ、なんとなく覚えていくってプロセスというかスタンスというか
そういうのが欠けてるんじゃないかと
否定から入られるとイライラする
424:デフォルトの名無しさん
17/02/06 02:08:42.76 ZxuCCyJu.net
2chだと特にそういう人が多いように感じる
実際に話しても同じような感じなのだろうか…
425:デフォルトの名無しさん
17/02/06 04:27:07.05 Ql7kv0hV.net
どうせコピペしか出来ない高卒様が人工知能に興味を持ったんでしょ
そんなわけでそのものズバリのコードが載ってないと駄目な人なんだよ
426:デフォルトの名無しさん
17/02/06 07:30:28.02 WEnjlJK0.net
もう世間はお腹いっぱいで興味なくしつつあるようだw
427:デフォルトの名無しさん
17/02/06 08:10:49.83 b1xOPHK2.net
SOINNのヤツ、書き込みしても誰にも相手にされなかったから自演しちゃったかw
ID:CmWPA7NT
ID:dIHobaUF
428:デフォルトの名無しさん
17/02/06 10:41:02.27 JcpLqgVq.net
時系列データのコンテストってあんの?
429:デフォルトの名無しさん
17/02/06 11:43:32.75 CqODUp8S.net
>>418
ハズレ。
自分が興味ない話をする人は同一人物と考えるのは間違いだ。
SOINNはDeepLeaningスレなら範囲外だが機械学習スレなら範囲内だ。
オンライン学習を独自実装するならSOINNも調べることを勧める。
どのIDが同一人物か知りたければこのスレの書き込みの特徴を見てくれ。
他人のレスに食いついて複数URLを貼る奴がずっといるだろ。
430:デフォルトの名無しさん
17/02/06 11:46:12.73 CqODUp8S.net
>>419
去年こんなコンテストがあった。
CIF 2016
URLリンク(irafm.osu.cz)
Cognitive Toolkit Helps Win 2016 CIF International Time Series Competition
URLリンク(blogs.technet.microsoft.com)
431:デフォルトの名無しさん
17/02/06 11:47:25.62 KGE9Wt6X.net
>>419
kaggleとかにないの?
432:デフォルトの名無しさん
17/02/06 12:20:29.05 uiLR/Npi.net
>>419 あるよ
>>420
本当にしつこいな…
433:デフォルトの名無しさん
17/02/06 12:26:50.55 7u4shWnO.net
こんなスレでひたすらぶっこむしかないなんて、余程切羽詰まってるんだろうな
434:デフォルトの名無しさん
17/02/06 12:32:53.61 nJ/WruVK.net
リンクはる奴もいい加減
ほどほどにしてくれ
理由は>>407に同じ
435:デフォルトの名無しさん
17/02/06 12:35:40.58 fq9Ge55X.net
>>420
そういう問題じゃないことに
いい加減気づけよ
436:デフォルトの名無しさん
17/02/06 12:39:52.80 3xvcnO0B.net
>>422
kaggleは時系列だろうが何だろうがブースティング最強だからあんまり関係ないかと
437:デフォルトの名無しさん
17/02/06 12:48:49.27 nJ/WruVK.net
もっと客観的な理論がしっかりしていれば食いついてもいいが、他人が作ったご都合主義のルール押し付けられても魅力的に映らないな
438:デフォルトの名無しさん
17/02/06 14:43:10.13 CqODUp8S.net
>>428
アドホックな手法を嫌う所はム板の他のスレと感覚が違うね。
Chainer日本語ドキュメント不足を叩く人がたくさんいるのを見て
このスレもとうとう普通の開発者が主流になったと思っていたよ。
439:デフォルトの名無しさん
17/02/06 22:22:10.72 nJ/WruVK.net
知らんがな。
実績がないならとっとと失せな。
440:デフォルトの名無しさん
17/02/06 22:24:15.59 IEnwuIUq.net
chainerは機械学習スレ公認のライブラリだ
chainerを叩くやつは失せろ
441:デフォルトの名無しさん
17/02/06 22:28:20.51 OoHmL9ho.net
アホ同士仲良く
442:デフォルトの名無しさん
17/02/06 23:06:57.72 nJ/WruVK.net
くっだらないアルゴリズムで会社立ち上げたのはいいけど、すでに数年経ってるよね?何か社会にインパクト残せましたか?
なんかもうDLの登場で淘汰されそうに見えるんですけど大丈夫ですか?
443:デフォルトの名無しさん
17/02/06 23:08:00.10 UTIkwKgL.net
意味分からない。
最初からKeras使った方が良くない?
流石日本人。Chainer好きすぎでしょ。
444:デフォルトの名無しさん
17/02/06 23:24:10.75 avFoGmjR.net
>>433
PFN最大のメディア露出はpaintschainerだからな
初めの記事は初心者がわりとできたとか、qiitaで完全に煽ってたが
実はPFNで会社としてやってたっていうオチ、(会社ページもそれように準備してる
モデルはpix2pixの殆どパクリ、結果もお察しレベルという、情弱ホイホイにしかなってない
445:デフォルトの名無しさん
17/02/06 23:27:51.35 nJ/WruVK.net
会話が噛み合ってないんだが‥‥
446:デフォルトの名無しさん
17/02/06 23:59:08.97 CqODUp8S.net
>>435
pix2pixという先例をChainerで再現してみた、という事なのだろう。
できそうなことはだいたい出来る、「ある意味で汎用???」ニューラル・ネット、pix2pix登場
URLリンク(d.hatena.ne.jp)
pix2pix(GAN)を使ってモノクロのおそ松くんをカラー画像にしてみた
URLリンク(t-nkb.hatenablog.com)
447:デフォルトの名無しさん
17/02/07 03:23:49.94 zmRPeIX6.net
いやあ、いつ見てもここは有意義な議論で盛り上がっているなあ
448:デフォルトの名無しさん
17/02/07 06:38:28.43 AU8XaAK1.net
>>433
>なんかもうDLの登場で淘汰されそうに見えるんですけど大丈夫ですか?
他の機械学習アルゴリズムはDeepLearningに淘汰されるからもう不要だと考えている?
DeepLearningは学習時間が長いのでオンライン機械学習では他のアルゴリズムも使われる。
Chainerを開発したPFNもJubatusではDeepLeaningを使用していない。
『オンライン機械学習』は18ページ分だけがDeepLeaningで後は別のアルゴリズムの解説だ。
DeepLeaningが他のアルゴリズムを淘汰するのは学習が今より数桁速くなってからだろう。
Jubatus : オンライン機械学習向け分散処理フレームワーク
URLリンク(jubat.us)
>株式会社Preferred NetworksとNTTソフトウェアイノベーションセンタが共同開発
アルゴリズム - Jubatus
URLリンク(jubat.us)
>このページでは、各サーバで使用されているアルゴリズムの詳細について説明する。
オンライン機械学習(機械学習プロフェッショナルシリーズ第1期)発売のお知らせ
URLリンク(research.preferred.jp)
「オンライン機械学習」 サポートページ
URLリンク(sites.google.com)
目次でいうと「発展編 深層学習で使われるオンライン学習」だけがDeepLeaningの解説だ。
449:デフォルトの名無しさん
17/02/07 06:48:17.63 HFZQg08c.net
>>439
433の前半部分に答えないのはなぜですか?今の状況になっているのは何が原因ですか?
450:デフォルトの名無しさん
17/02/07 07:25:02.22 qML7uUEd.net
くだらない会社=SOINNのこと?
451:デフォルトの名無しさん
17/02/07 07:35:00.31 HFZQg08c.net
くっだらないと言ったのはアルゴリズムのほうだよ
452:デフォルトの名無しさん
17/02/07 07:39:35.16 AU8XaAK1.net
>>440
>答えないのはなぜですか?
うわー厚かましい。全部他人に調べさせるつもり?
453:デフォルトの名無しさん
17/02/07 07:42:08.34 HFZQg08c.net
別に調べなくていい。
知ってる範囲で実績なんか有りました?あるわけないと思ってるんですが
454:デフォルトの名無しさん
17/02/07 08:59:02.31 AU8XaAK1.net
>>444
どうして何も調べずにそこまで思い込めるの?
2015/04/02の記事ではスタッフ5名だが今は19名に増えているから仕事はあるのだろう。
名前が出ている所だとNTT Comが採用、セブン銀行が実験済、ソシオネクストが共同事業化を目指す。
12年もの研究成果を商品化した人工脳。人間が操作している動画を見せるだけで学習してしまう!
URLリンク(www.dreamgate.gr.jp)
>防災系の研究機関をはじめ、建設業、製造業、金融業、小売業、広告業などいった幅広い分野で、
>数十社が導入を決定もしくは検討している。
>スタッフ数:5名
クラウド上のAIでIoT関連ビッグデータを迅速に精製・分析する「CLARA with SOINN」(仮称)を開発
URLリンク(www.ntt.com)
AI(人工知能)が家計を分析し、節約できるポイントを教えてくれる「節約アシスト」機能を開発
URLリンク(www.ntt.com)
セブン銀行、ATM内紙幣の増減予測精度を向上のため、人工知能を活用する実験を開始
URLリンク(iotnews.jp)
SoCセンシング技術と人工知能の融合による事業化のトライアルを開始
URLリンク(www.socionext.com)
455:デフォルトの名無しさん
17/02/07 11:28:11.61 vUj4Lbh2.net
soinnとpfn の業者の競演!
でもみんなはtensorflowとkerasを使ってますw
456:デフォルトの名無しさん
17/02/07 11:30:24.24 E8I3FKSQ.net
SOINNはコテハンかなにかつけてくれないかな
457:デフォルトの名無しさん
17/02/07 11:42:18.10 n4qZx+3Y.net
会社としてどっちも上手くいってないのかな、と思わされる
廃れたり、流行ってもいないのに、匿名掲示板で執拗に業者の名前を出すのは違和感がある
>>447
同意。
458:デフォルトの名無しさん
17/02/07 11:49:41.93 dAZo4XH3.net
日本の島国根性丸出し、狭い日本だから業者の工作で何とかなると考える。
SOINNとやらは過去にさんざんスレを荒らしておきながら、今更何を言ってるんだ、という感じ。手段を選ばなくなってきたな
459:デフォルトの名無しさん
17/02/07 11:57:09.46 vUj4Lbh2.net
昔ruby が rorをきっかけに流行ったけど、あれは欧州発じゃなかったかな
日本ローカルで無理やり流行らせでも今どき意味ないんだよ
github のスター数とか見れば何が伸びているか一目瞭然だろうに
tensorflowは別格としても、chainerとか昨年殆ど増えてない。
逆にkeras の伸びは異常。もう勝負はついてる
460:デフォルトの名無しさん
17/02/07 12:01:11.19 DrDEvIw0.net
>>450
chainerとかtensorflowとかを使う人が増えると
それらを開発した会社はどんな金儲けができるの?
後に有償化とかサポート料とるとか?
コンサルみたいな事をやるとか?
コンサルは自前のライブラリじゃなくても良くね?
461:デフォルトの名無しさん
17/02/07 12:30:53.38 n4qZx+3Y.net
>>451
横からだが、会社の立ち位置で違うでしょ、グーグルはAI産業�
462:ナ世界支配したいだけかとw chainerは今となっては良くわからん 社内ツールではあるのだろうが
463:デフォルトの名無しさん
17/02/07 13:29:25.73 lLJHTjqa.net
>>451
PFN:我々のフレームワークはここまでできる、何か仕事くれ(社員50人日本ベンチャー
google:社内で使って十分儲かったし新規性ないから置いとくわ、良い改良や人材発掘、儲けネタがあったら買い取るから、お前らどんどん使えよ(社員5万超えで世界展開
開発研究分野は資本第一だからな
アリと巨人の戦いだよ、もうどうしようもない
464:デフォルトの名無しさん
17/02/07 13:47:32.36 SgEJ8zKd.net
>>451
453 さんの言う通りだと思う。憶測だがchainer は最初は有償化も考えてたかもな、今となっては無理だが
あと、コンサルやるなら今後はtensorflowやるしかない
>>453
pfn って50人もいるのかよwww スポンサーはいるにしても、そりゃ食わせるのマジで大変だわ。
google は tensorflow で出し惜しみしてるのが分かっちゃうのがな、仕方ないけど
465:デフォルトの名無しさん
17/02/07 15:05:15.66 AU8XaAK1.net
>>449
過去の経緯があることを教えてくれてありがとう。
過去スレを調べたらpart6からSOINNを連呼している人がいた。
part8の494がすでに適用限界を指摘しているのに無視している。
>>334は連呼している人だから回答したら自演認定されたんだね。
466:デフォルトの名無しさん
17/02/07 15:08:06.38 AU8XaAK1.net
>>454
XNOR-NetをFPGAに実装したら相当な速度向上を期待できる。
GoogleがTensorFlowで出し惜しみしてるからこそ
KerasとAPIコンパチなFPGA対応独自ライブラリに商機があると思う。
[Survey]XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks
URLリンク(qiita.com)
AWS で FPGA 利用可能インスタンスが登場
URLリンク(qiita.com)
467:デフォルトの名無しさん
17/02/07 15:10:58.13 fYirtQp+.net
アルゴリズムなんて研究者にまかせて、最新技術を何に使って売るか考えたほうが儲けにつながる
468:デフォルトの名無しさん
17/02/07 15:45:42.92 NN+t+4r8.net
儲かるならこんなとこに書かないで黙って儲かる作業をするだろうw
469:デフォルトの名無しさん
17/02/07 16:09:56.50 rbbJBTTu.net
儲かり過ぎて暇なんだろ
470:デフォルトの名無しさん
17/02/07 16:10:31.42 +BEvB8ce.net
part8の494コピペ↓
0494 デフォルトの名無しさん 2016/07/03 03:23:12
このスレでやたらSOINNを推す人がいるが、あれは単に
他のデータと類似度が低いデータを間引きする条件を付けた
クラスタリングに過ぎないぞ。
だから元々クラスタリングで上手くいった案件なら上手くいくが
そうじゃないと全然上手くいかない。
また、データを間引きする条件は二つの自由パラメーターに依存するが
その設定は試行錯誤するしか方法が無いし、しかも結果がかなり変化する。
考案者は深層学習に対抗して人工脳と言っているようだが
人工脳とはとても言えないし、それいぜんにデータマイニングとして
危なっかしくて使う気がしない
471:デフォルトの名無しさん
17/02/07 16:13:58.46 +BEvB8ce.net
アルゴリズムがクズ過ぎる
472:デフォルトの名無しさん
17/02/07 16:43:36.89 Q9b5inZU.net
>>460
クラスタリングなんて、なかなか上手くいかないだろう。アイリスみたいな教科書に載ってる例ならともかく
473:デフォルトの名無しさん
17/02/07 17:15:25.34 +BEvB8ce.net
出荷品の試験データで使ってるが、
階層的クラスタリング、k-means、主成分分析何れも同じ結果にはならないけどそこそこいい感じで分けてくれてる。
474:デフォルトの名無しさん
17/02/07 17:47:27.79 KdLqoFSe.net
そりゃー試験データが表してる現象が割と低次元に収まってるからでしょ
475:デフォルトの名無しさん
17/02/07 19:48:19.91 +BEvB8ce.net
勝手に決めつけんな30次元越えとるわ
476:デフォルトの名無しさん
17/02/07 19:52:43.52 +BEvB8ce.net
個人的には主成分分析で軸変換したした後に階層的クラスタリングで分けるとだいたいこちらが意図した区分になるから一番気に入ってる
477:デフォルトの名無しさん
17/02/07 19:57:47.47 +BEvB8ce.net
失礼。話がズレてるな。
478:デフォルトの名無しさん
17/02/07 20:04:47.96 KdLqoFSe.net
低いか否かは主観的な相対評価
個人的には100次元以下なら低次元だ
479:デフォルトの名無しさん
17/02/07 20:08:02.54 +BEvB8ce.net
>>468
ハイハイ。
ところであなたは上のよくわからん会社の推進者?違う?
480:デフォルトの名無しさん
17/02/07 20:31:17.96 tqKb1OHT.net
なんか沸点低いやつ多いな、ID真っ赤にして騒ぐなよ
481:デフォルトの名無しさん
17/02/07 20:51:34.18 Q9b5inZU.net
それだけ KUSOINN 業者に不愉快な思いをしてるということだろ
482:デフォルトの名無しさん
17/02/07 20:56:55.21 e1DCZVck.net
>>471
いや嫌いな人ってより、KUSOINN業者本人が暴れてるっぽいな
2ch好きなのかねKUSOINNは
483:デフォルトの名無しさん
17/02/07 21:23:13.67 KVZ8n1A+.net
機械学習スレではSOINNちゃんのマスコットデザインを募集しています
484:デフォルトの名無しさん
17/02/07 21:41:08.14 t6CxBdTu.net
いくら騒ごうが、NHKの教育番組でやってるニッポンすごい系の番組ぐらいしか取り上げてくれないだろう
485:デフォルトの名無しさん
17/02/07 22:23:19.22 Q9b5inZU.net
>>472
2chくらいしか暴れる場所がないんじゃないか。相手してもらえてるか微妙だがw
486:デフォルトの名無しさん
17/02/07 22:47:06.47 SDEt56nj.net
SOINNをまだNGにしてないの?
487:デフォルトの名無しさん
17/02/07 23:06:54.64 +BEvB8ce.net
KUSOINN(クソー員)
ナイスラベリングですね。
いやアルゴリズム見ちゃったけど、あまりに酷いなと思いました。こんなん世に出しちゃいけないと思た。
488:デフォルトの名無しさん
17/02/08 00:47:13.96 wU6xFcF1.net
ゼロから作るDeepLearningやってたらPython3やんけ
2しか入れとらんのに・・・
489:デフォルトの名無しさん
17/02/08 01:25:03.42 TSafXTM/.net
釣れますか?
490:デフォルトの名無しさん
17/02/08 02:53:35.09 ncnC+4k7.net
機械学習関係なくPython使うなら3系も入れとこうぜw
491:デフォルトの名無しさん
17/02/08 07:55:26.77 v3NHLy3A.net
いつもスルーしていたのに
ID:dIHobaUF
が食いついたので面倒くさくなったな。
話題ごとにいつも微妙な記事や論文をリンクする人なんだろうが
題名だけで判断するのじゃ無くて内容も自分で咀嚼してから紹介してくれよ。
荒らしと変わらん
492:デフォルトの名無しさん
17/02/08 10:38:00.66 FFpLNO8i.net
いやお前今回もスルーしろよ
何蒸し返してんだバカ
493:デフォルトの名無しさん
17/02/08 10:57:07.14 QqLFWIn7.net
ソインをNGにするだけだろ
494:デフォルトの名無しさん
17/02/08 15:09:08.16 DJGUrx55.net
>>481
同意
495:デフォルトの名無しさん
17/02/08 16:18:36.08 fGXhImwi.net
+1
496:デフォルトの名無しさん
17/02/08 17:07:00.72 xkJmpAz+.net
アホ++
497:デフォルトの名無しさん
17/02/08 17:10:23.19 v3NHLy3A.net
>>482
あんたもウルサイよバカ
あの件自体のみだったら本来スルーするつもりだったけど
いつもずれた論文を紹介する人の方が煩かった&炎上補助したので
敢えて書いたんだよ
498:デフォルトの名無しさん
17/02/08 17:14:19.24 m1AbiNSr.net
>>487
良く言うよ、最近ネチネチと繰り返し同じ
499:事を書いてるじゃんwww
500:デフォルトの名無しさん
17/02/08 19:47:38.69 R/FUqnhp.net
ロボット研究なんですが、機械学習ってこれから需要あると思いますか?
用途絞った汎用品ならライブラリ既にありますよね特に認識系
本職のデータサイエンティストが自作したのより、後に出た汎用オープンソースの方が精度高いとか普通みたいですし
組み込み系か、機械学習どっち担当するか選ばないといけないのですが
組み込みのが潰しが効きそうな気がしてます
501:デフォルトの名無しさん
17/02/08 20:22:02.10 foCnK0M2.net
>>489
URLリンク(gigazine.net)
こういうの?
組み込みはあんまり詳しくないけど、例えば、学習済みのニューラルネットワークを組み込み用に軽くするコンパイルとかあるらしいからそういうのもいいかもね
502:デフォルトの名無しさん
17/02/08 20:28:05.71 DJGUrx55.net
>>490中途半端で無責任なレスだな。どっちかを聞いてるのに。学生さんだろ?
組み込みをやったほうがいい。
俺なら両方、あるいは、食いっぱくれない片方やりながら興味ある残りをやる。
503:デフォルトの名無しさん
17/02/08 20:30:09.92 DJGUrx55.net
後者は余裕があるときに+アルファで
504:デフォルトの名無しさん
17/02/08 20:43:29.08 ExhN203R.net
>>491中途半端で無責任なレスだな。需要も聞いてるのに。学生さんだろ?
505:デフォルトの名無しさん
17/02/08 20:49:21.85 ZcmYVbFB.net
>>489
日本を正しく書くことが重要、ここで進路相談したいのならどうかしてるぞ
506:デフォルトの名無しさん
17/02/08 20:50:41.15 DJGUrx55.net
は?組み込みと答えたはずだが?
507:デフォルトの名無しさん
17/02/08 20:53:37.39 DJGUrx55.net
需要なんて圧倒的だろ?
機械学習なんて大手が試しにベンチャーに依頼してやってるだけ。
508:デフォルトの名無しさん
17/02/08 20:59:25.42 ncnC+4k7.net
ID:v3NHLy3A
ID:DJGUrx55
おまえらコテ付けてくんない?NG登録するから
509:デフォルトの名無しさん
17/02/08 21:00:19.13 LcA8vNTa.net
好きなものやれ
510:デフォルトの名無しさん
17/02/08 21:00:44.03 foCnK0M2.net
>>495
「ロボット」に関して「これからの需要」を聞いてるっぽいけど、>>491 はその答えになってないように見える >>496 もロボットの話じゃないっぽいし
511:489
17/02/08 21:32:16.71 R/FUqnhp.net
あー、なんか荒れるきっかけになってすいませんでした
卒研の作業分担で選べるんですが、言語や覚える内容も違うし、将来の就職的にどっちに力を入れるべきかの話でした
機械学習は注目集めてるから現場の方は特需になってるのか聞きたかったんですが、市場数的にはやっぱ組み込みですよね
機械学習の方が未開拓ぽくて面白そうではあるのですが
512:デフォルトの名無しさん
17/02/08 21:35:41.02 P1wk38X6.net
機械学習は後から独学でも勉強できるが、組み込みはどうなんでしょ。
513:デフォルトの名無しさん
17/02/08 21:39:51.26 A6kSQ0HR.net
ガイジが毎日のように騒いでるだけだから気にしなくていいよ
514:デフォルトの名無しさん
17/02/08 21:43:22.01 y03b+jpV.net
画像処理だとディープラーニングはもう成熟の域に達してるから
むしろ画像処理屋なのにディープラーニング知りませんだと死ぬと思う
515:デフォルトの名無しさん
17/02/08 22:06:46.41 4PTZ8pzf.net
そもそもの認識が間違ってる
機械学習で特徴抽出してその結果から汎用のライブラリを作る
オープンソースは置いといて一般的にどこかの研究結果をもとにして
組み込み向けに企業が製品を泥臭く作る
確かに製品のほうが精度高いだろう
研究は現場で使う用のライブラリは作ろうとも考えてないから
でもこれを読んでどっち側に行きたいと思うだろうか
516:デフォルトの名無しさん
17/02/08 22:08:20.28 4PTZ8pzf.net
スマホを作る側と使う側に差があるとは思わないか?
517:デフォルトの名無しさん
17/02/08 22:18:29.92 azePBHWn.net
機械学習に数学がいらないと思っている時点で、何言っても無駄
518:デフォルトの名無しさん
17/02/08 22:26:59.13 5qrRoQxh.net
NNに限って言えば、実際問題あんまり数学は必要ないよな
あえて言うなら損失関数から積算を減らすためにちょっと高校数学の域を出るテクニックが要るぐらいで、それもしないんだったら高校数学で十分だろう
519:デフォルトの名無しさん
17/02/08 22:29:09.54 4XEv32fU.net
そいつにはさわるな
520:デフォルトの名無しさん
17/02/08 22:37:20.78 U2uAyM9y.net
本職のデータサイエンティストってコンサルやで
成功するには情報科学以外のスキルのほうが重要
521:デフォルトの名無しさん
17/02/08 22:54:47.24 OXe05Gfs.net
企業では機械学習だけができる人間はいらない。
522:デフォルトの名無しさん
17/02/08 23:00:51.48 qO3OS2QJ.net
この国ではデータサイエンティストというのは暇を持て余した無能な社内SEの別名
有能な奴は現場で本業をバリバリやりながら片手間でデータ分析やって成果出してる
523:デフォルトの名無しさん
17/02/08 23:03:06.31 yMp58dr0.net
>>510に同意
就職考えるんなら機械学習はメインにしない方が良い
上で述べたとおり興味があるなら+αで
この+αが後々、役に立ったりする。
(そこに数学的な知見があるとあれこれ理論的に考えながらコード開拓できるかもって感じかな)
524:デフォルトの名無しさん
17/02/08 23:03:44.80 yMp58dr0.net
>>511
あれ?
俺のこと言ってる??
525:デフォルトの名無しさん
17/02/08 23:33:12.40 brof3Zxw.net
そもそもこのスレの住人の職業が怪しいわけだが
大体がIT土方かweb屋だろ、メーカーの人とかいなそう
526:デフォルトの名無しさん
17/02/08 23:37:47.99 yMp58dr0.net
機械設計のエンジニアはいるべ
527:デフォルトの名無しさん
17/02/08 23:51:19.73 y03b+jpV.net
異分野を専門にしてる技術者がツールとして機械学習を利用しているって状況が多いのかな。
それだと機械学習の専門家を一人雇うより、研究者に定期的に最新ニュース送ってもらうのが丁度いいのかもね
本の知識じゃ遅すぎるし
528:デフォルトの名無しさん
17/02/09 00:03:44.67 7FoBOchR.net
ニューラルネットって不可逆の圧縮技術であって機械学習はその中で操作する世界と錯覚してしまう。
射影の世界で操作しても次元に囚われる。
四則演算や確率で次元の壁を越えられるのかね?
529:デフォルトの名無しさん
17/02/09 00:04:26.34 sZ6wUYl0.net
機械学習マンが関数をこねくり回して数百円稼いでいる間に
ビジネスパーソンがExcel分析で売上を数百万円アップさせるのであった
530:デフォルトの名無しさん
17/02/09 00:22:23.15 LGPNDAdH.net
>>517
ブラックボックスな手法では次元の壁の前に稟議の壁を越えるのが困難
531:デフォルトの名無しさん
17/02/09 00:46:30.30 6HP+6G8P.net
ウチはEC業界やから何でもありやぞ
レコメンドとかディープを取り入れるようになったで
532:デフォルトの名無しさん
17/02/09 06:26:40.49 obWIFOc9.net
最近できたfaceappってアプリあれどういう方法使ってんだろうな
vae使ってるんだろうけどあんなに綺麗に再構成できる技術あるのかって感じだわ
533:デフォルトの名無しさん
17/02/09 07:15:24.09 VOHGzUqo.net
vaeじゃなくて3d facial model reconstructionしてからのmorphじゃない?