【統計分析】機械学習・データマイニング31at TECH
【統計分析】機械学習・データマイニング31 - 暇つぶし2ch2:デフォルトの名無しさん
21/09/26 09:20:28.39 V7NdMKNzM.net
>>1
ここ?
どっち?

3:デフォルトの名無しさん
21/09/26 10:01:30.08 pTpX2MLZ0.net
>>2
こっちはワッチョイあり
向こうは無しでしかもずっと前に建った重複スレ

4:デフォルトの名無しさん
21/09/26 11:00:49.36 B0LqO8a/M.net
>>3
じゃこっちが正統だね

5:デフォルトの名無しさん
21/09/29 12:31:10.47 SXvzkJ7tF.net
おまけ
URLリンク(tokyochallenge.odpt.org)

6:デフォルトの名無しさん
21/09/29 18:53:32.10 tt6NZIK/M.net
optiverのコンペ、全然歯が立たなかった...

7:デフォルトの名無しさん
21/09/29 18:55:13.15 LXQaHKgJ0.net
コンペって気軽にゲーム感覚で参加できるようなものですか?
プログラミングコンテストの問題を解くような気軽な感覚で参加できますか?

8:デフォルトの名無しさん
2021/09/30(�


9:リ) 12:56:57.06 ID:J+m5saJs0.net



10:デフォルトの名無しさん
21/09/30 20:11:55.48 raBTh0xcd.net
脳のように振る舞う”汎用人工知能”を実装するための開発方法論を東大が標準化へ WBAI
URLリンク(news.mynavi.jp)
資料
URLリンク(www.m.u-tokyo.ac.jp)
ついにAGI開発に繋がる設計方法論が

11:デフォルトの名無しさん
21/09/30 21:20:34.36 LzQNN1mS0.net
AGI開発 明らかになった3つの課題
①脳神経科学とソフトウェア開発の両方に精通した人材が少なく、その育成が困難
②脳全体をカバーする神経科学知見は膨大であり、個人の認知能力に頼って脳全体の機能を統合したソフトウェアを設計することには無理がある
③脳の認知機能をソフトウェアに適切に反映させるためには、参照する脳の記述粒度を適切に選択する必要がある

12:デフォルトの名無しさん
21/09/30 21:21:01.10 LzQNN1mS0.net
今回山川と高橋らは、脳型AGI開発を
"脳参照アーキテクチャ(BRA)を共同で描く設計作業"と、
"BRAに基づいてソフトウェアの実装と統合を行う開発作業"
に分けることによる「BRA駆動開発方法論」を提案
「BRA」は、脳型ソフトウェアの仕様情報として標準化されたデータ形式で、
主に解剖学的構造を記述した「脳情報フロー(BIF)」形式のデータと、それに付随する「仮説的コンポーネント図(HCD)」で構成されている
まず神経科学の論文やデータを収集、整理してBIFを作成。
BIFは、脳内におけるさまざまな粒度の「サーキット」をノードとし、それらの間の軸索投射にあたる「コネクション」をリンクとする有向グラフだ。
─必ずしも脳を深く理解していない開発者であっても、HCDを仕様として参照することで、脳型ソフトウェアの実装に携われるようになる。
─作成されたソフトウェアの生物学的妥当性は、その構造と動作がBRAと一致しているかどうかによって評価され、
BRA自体の信憑性は、神経科学的知見の裏付けによって評価される

13:デフォルトの名無しさん
21/09/30 21:32:53.29 J+m5saJs0.net
>>9
うわあ、使えなそう

14:デフォルトの名無しさん
21/10/01 07:15:56.12 GMCPKAppa.net
別に欲しいのは脳を再現したものではなく脳かそれ以上の思考力を持つプログラムなんだけどな

15:デフォルトの名無しさん
21/10/01 10:18:06.07 7Wb6ygxUa.net
脳自体の仕組み解明にも役立てようとしてるんじゃね?
仮説に沿って人工的に作ったものと脳の比較

16:デフォルトの名無しさん
21/10/01 11:45:32.50 aksIkISHd.net
個人の仮説思考をまだ検討段階で表に出してるあたり、結論ありきで発表するんだろうな。お話しにならんね

17:デフォルトの名無しさん
21/10/01 11:48:36.62 aksIkISHd.net
そもそも脳構造が機械学習と同値にあるとは物理的に証明されたんだっけ?
そもそも仮定を見誤ってる典型例かな。

18:デフォルトの名無しさん
21/10/01 14:24:46.22 QwS5H3vX0.net
脳のやり方を真似してシステムを作ってみるが
性能を上げるためにどんどん脳とは違う仕組みになってしまう
というのを繰り返しているような気がする

19:デフォルトの名無しさん
21/10/01 19:34:49.19 lQL5Va8g0.net
>>16
脳でもbackpropが行われているのではないかと言った論文が出ていたと思う

20:デフォルトの名無しさん
21/10/01 19:36:57.15 h6xqeRaI0.net
おれのかんがえたさいきょうの脳モデルって感じ

21:デフォルトの名無しさん
21/10/01 22:34:55.52 JvnZl78s0.net
論文の存在=真実ではない

22:デフォルトの名無しさん
21/10/02 10:59:47.97 GcYqz73Xa.net
こういう論文があるから正しいんだ、みたいなこと言ってくる人がたまにいるけど
論文を元に再現実験をあちこちで実施して検証するのが科学的プロセスだからね

23:デフォルトの名無しさん
21/10/02 11:08:59.79 uacjIgMDr.net
>>18 は「こういう論文がある」と言っただけで正しさには言及してないが

24:デフォルトの名無しさん
21/10/02 11:56:06.35 iTHBuWkj0.net
NNは人工ニューラルネット、工学モデル

25:デフォルトの名無しさん
21/10/02 13:21:22.44 y2EY2XxLM.net
在日朝鮮人

26:デフォルトの名無しさん
21/10/02 14:16:19.44 yFRwYWliF.net
>>13
それな
脳をコピー(劣化コピー)しても脳以上の性能は期待出来ないよな
せいぜい疲れずに死ぬまでこきつかえるかも知れないが
どうせ脳のコピーだからやっぱり寝ないといかんだろうし

27:デフォルトの名無しさん
21/10/02 17:25:35.47 wvwHlHyL0.net
完全に妄想だけど睡眠はパラメータの蒸留に相当してるのでは?

28:デフォルトの名無しさん
21/10/02 20:05:16.72 UdlqgpCg0.net
>>25
それでも、これまでに解決できなかった事ができるようになれば投資する価値はある

29:デフォルトの名無しさん
21/10/02 20:07:30.07 gCkVb6Wm0.net
脳のシステムをコピーして、ソフトウェアに出来たらそれだけでも結構すごいけどな
今はそれすらできない

30:デフォルトの名無しさん
21/10/02 20:07:43.97 UdlqgpCg0.net
睡眠中に短期記憶の領域から長期記憶の領域に移されるとか
アルツハイマーの原因タンパク質を排出するとか
言われている
睡眠中は無防備になるのにそれでも必要なんだから何らかの機能や役割があるんだろうな

31:デフォルトの名無しさん
21/10/02 23:19:18.80 zWqv5K6jM.net
クソチョンw

32:デフォルトの名無しさん
21/10/03 12:38:37.08 apv2HwoX0.net
人間の視聴覚に介入することすら未だままならないもんな

33:デフォルトの名無しさん
21/10/03 12:56:18.91 5gxQKpTk0.net
Googleがやっとショウジョウバエの半脳規模のコネクトーム解析に成功したところ
最高解像度のショウジョウバエの脳接続マップ、Googleが公開
URLリンク(www.gizmodo.jp)
ハエの脳神経回路の高解像度マップ、グーグル、HHMI研究者らが発表
URLリンク(www.technologyreview.jp)

34:デフォルトの名無しさん
21/10/03 12:57:43.81 5gxQKpTk0.net
>ショウジョウバエの脳のニューロン数は約10万であるのに対し、ヒトの脳には約860億個のニューロンがある
ショウジョウバエでも未だにこの程度なのに、ヒト脳の完全解析なんて無理よ
富岳も、全脳シミュレーションにはまだ計算能力が足りない

35:デフォルトの名無しさん
21/10/03 13:47:46.78 A/xg16NE0.net
よくわからが神経の接続は繋がったり消えたり強化されたりすrんだろ静的解析だけではわからないじゃね

36:デフォルトの名無しさん
21/10/03 14:51:30.08 BwHL/qdj0.net
>>34
すまないが確認してみるから
検体になってはくれまいか?

37:デフォルトの名無しさん
21/10/03 14:57:09.26 5gxQKpTk0.net
神経の成長は、19歳を超えるとほぼ固定される

38:デフォルトの名無しさん
21/10/03 15:50:11.96 A/xg16NE0.net
>>35
すまn、もうスカスカ

39:デフォルトの名無しさん
21/10/03 15:59:54.62 fd2z9Q2P0.net
アインシュタインの脳は世界中に散らばってたな

40:デフォルトの名無しさん
21/10/04 11:18:18.37 4SMJvp7PM.net
転移学習とファインチューニングって何が違うの?

41:デフォルトの名無しさん
21/10/04 12:00:10.56 uwgJa6dm0.net
ファインチューニング⊂転移学習

42:デフォルトの名無しさん
21/10/04 12:24:33.93 NQkhcE1O0.net
>>39
俺もそこはイマイチだったけど、目的が違うんだと理解してる
ファインチューニングは、その名の通り微調整
公開された学習済みモデルの、出力層付近の重みを自分の(または新たな)データセットで学習させて適応させるとかで、ファインチューニングの前後でモデル全体の目的は変わらない
転移学習は、モデルをそのまま別の目的へ使用すること
例えばよくある例だと画像認識モデルを特徴抽出器としてSVMに流し込んで、分類させるのに使うとか
転移学習の前後では全体の目的は変わる(例では画像認識→画像分類)

43:デフォルトの名無しさん
21/10/04 13:05:31.91 IrVwgMEy0.net
特定の層だけ学習済みの層を使うのも転移学習なんじゃね?
オートエンコーダ層だけ他のをそのまま使うとか

44:デフォルトの名無しさん
21/10/04 14:59:44.37 pDc4fD3+r.net
ファインチューニングだと層の数や各テンソルの成分数までいじる、って見たような
転移学習だと既にあるモデルに別の画像モデルを載せて学習させてた

45:デフォルトの名無しさん
21/10/05 14:43:18.00 qxXQzr/v0.net
>>41
プリトレインのパラメータはフリーズしてffを新たに訓練すること?

46:デフォルトの名無しさん
21/10/09 16:11:35.50 R9jtZdzp0.net
機械学習において概念の獲得というのは可能なのでしょうか?
例えば犬種を見分けるモデルを作成する中で大きさという概念を獲得させ、その結果を転用して大きさから車種を判別するといったことは可能でしょうか?

47:デフォルトの名無しさん
21/10/09 16:38:50.81 imDr+lCx0.net
できない

48:デフォルトの名無しさん
21/10/09 17:12:37.82 AqE3enYfa.net
どこかのパラメータが大きさを認識するかもしれないけどそれを全く別の種類のものに適用したければ
どのパラメータが大きさを認識するか調べて抽出して新たなモデルを人間が作成するしかない
大きさという概念をプログラムが知らない前提なんだから人間が調べて取り出す必要がある

49:デフォルトの名無しさん
21/10/09 17:55:12.92 R9jtZdzp0.net
>>47
やはり現状では人間の手が必要ですよね。
特定の概念に特化したモデルを予め作成し転用することは可能でしょうか?
例えば画像情報から大きさを判別するモデルを作成し、この大きさ判別モデルをモジュールとして別のモデルに組み込んで使うという形です。

50:デフォルトの名無しさん
21/10/11 02:41:21.29 W1oEq6hAd.net
概念って何?

51:デフォルトの名無しさん
21/10/11 02:42:37.37 W1oEq6hAd.net
定義を述べてください

52:デフォルトの名無しさん
21/10/11 11:48:03.15 5HHAjiD3M.net
人間の定義なんてものは主観的で
規則ベースの方式は所詮おれがかんがえたさいきょうのモデル、でしかなく
汎用性は無く例外に弱く使い物にならないのは散々見せられてきた

53:デフォルトの名無しさん
21/10/11 12:29:27.13 DIodBuTLr.net
その辺は言語モデルと画像認識と分類クラス名がリンクされたモデルというのを
作らないと難しいか

54:デフォルトの名無しさん
21/10/11 17:21:06.15 5HHAjiD3M.net
そのあたりをグチャッとやってるのがdall-e

55:デフォルトの名無しさん
21/10/11 23:03:29.37 iNvGL8qd0.net
>>53
記事を見つけて読んでみましたが面白いですね。
URLリンク(ainow.ai)
時間や場所の概念を獲得した(テキストに正しく反応できた)だとか、当初の目的以外の用途に使えたというのは実に興味深いです。
120億パラメータというのがこれまた凄まじいですが、特定の概念に関する部分だけ抽出出来たら宝探しみたいで楽しいでしょうね。

56:デフォルトの名無しさん
21/10/12 21:36:26.65 llg6th+00.net
入門書読んでる途中で練習がてらUCIからEnergy efficiencyってデータセットひっぱてきたんだけど
すごく素直なデータセットだな。欠損値ないし、ただ単に重回帰分析しただけで決定係数が0.9越えてた
ここまで素直だとなにか罠があるんじゃないかと不安になる。諸先輩方はどう思います?

57:デフォルトの名無しさん
21/10/12 21:55:01.31 G8QNgj6p0.net
>>55
過学習してるだけ

58:デフォルトの名無しさん
21/10/13 00:10:46.35 JsCrEKeM0.net
>>56
その可能性を考えて、訓練データとテストデータ両方の
決定係数を見てるんですけどそんな差がないんですよね。
データ分ける時にシード固定せずに40回ほど試したんですけど
決定係数の差は、大きくても0.043、もとのデータも768件あるんで
過学習なんでしょうか?

59:デフォルトの名無しさん
21/10/13 05:53:18.70 5xUxuv4Ba.net
>>57
ちゃんとクロスバリデーションすべきだなとか思ったけど

60:デフォルトの名無しさん
21/10/13 06:07:06.10 5xUxuv4Ba.net
ごめん途中で書き込んじゃった
自明な予測との比較はどうなんだろとか思ったけどよく読むと予測精度じゃなくて決定係数の話ですね。
決定係数って学習データへの当てはまりの指標じゃなかったかな。学習データの分散のどの程度を説明できてるかですね確か。
訓練とテストに分割する意味がよく分からないなと思いました。

61:デフォルトの名無しさん
21/10/13 21:21:29.85 NE9hYB7Y0.net
>>57
とりあえずテスト誤差と訓練誤差調べてみたら?

62:57
21/10/13 21:58:48.95 JsCrEKeM0.net
先輩方ありがとうございます。次にやることが見えてきました。
追伸、IP出るスレは苦手なのでこれにて失礼します。スレ汚し失礼しました。

63:デフォルトの名無しさん
21/10/14 01:06:13.63 YnY723dO0.net
>>61
IP出たらまずいことでもあるんか?

64:デフォルトの名無しさん
21/10/14 01:34:54.45 oiazgOwIa.net
>>61
勉強が足りてないですが自覚したなら努力を継続できるでしょう。
頑張って

65:デフォルトの名無しさん
21/10/15 11:35:14.97 n9WPu0Ca0.net
新しい資本主義会議メンバーに松尾豊さんが選ばれましたね。

66:デフォルトの名無しさん
21/10/15 11:41:30.88 n9WPu0Ca0.net
松尾豊さんのことをAIの第1人者と紹介していましたが、本当ですか?

67:デフォルトの名無しさん
21/10/15 12:41:50.92 RXO4bJUV0.net
最も〇〇なものの一つの表現と同程度に捉えておくと良いかと思います。
現在のAIブームの初期から積極的に活動されてたことは確かですし、語れる研究者は貴重な存在ですよね。

68:デフォルトの名無しさん
21/10/15 13:11:36.46 6tKAdTHp0.net
>>65
判断基準は論文を書いてるかどうか

69:デフォルトの名無しさん
21/10/15 14:44:03.12 n9WPu0Ca0.net
松尾豊さんは、論文を書いていますか?

70:デフォルトの名無しさん
21/10/15 15:26:26.65 3/epFyTw0.net
研究者として第一線で発表してるかといわれたら違う
ai研究の顔、広報としての役割が強い

71:デフォルトの名無しさん
21/10/15 16:16:51.08 /Buyr3BY0.net
書いてます

72:デフォルトの名無しさん
21/10/15 21:08:40.11 WRM45+d50.net
大学教授は学生に書かせて添削するのが仕事でしょ

73:デフォルトの名無しさん
21/10/15 21:11:12.81 3JPgOKCi0.net
どのくらいの頻度で書いているかとかその内容とかも考慮した方が良いような

74:デフォルトの名無しさん
21/10/15 21:12:21.67 3JPgOKCi0.net
物理学とか医学でノーベル賞取ってる人はいるけど
この分野でノーベル賞的なものを取れる人はいるのか?

75:デフォルトの名無しさん
21/10/15 21:20:11.26 cEFPPhAj0.net
は?

76:デフォルトの名無しさん
21/10/15 21:28:31.52 NWwEDSp30.net
>>73
日本語で書いてくれ

77:デフォルトの名無しさん
21/10/15 21:57:46.92 3JPgOKCi0.net
>>75
具体的にどこの意味が理解できない?

78:デフォルトの名無しさん
21/10/15 22:00:03.52 3JPgOKCi0.net
ノーベル賞を知らないとか?

79:デフォルトの名無しさん
21/10/15 22:01:26.83 6tKAdTHp0.net
最初に多層ニューラルネットワークを考えた人は正直ノーベル賞レベルだと思う
ようやく花ひらいたけど基本は当初と何も変わってないし

80:デフォルトの名無しさん
21/10/15 22:08:34.90 cEFPPhAj0.net
ノーベル何賞になるんだよ
新設しないと該当する賞がねーだろ

81:デフォルトの名無しさん
21/10/15 22:10:54.30 3JPgOKCi0.net
>>79
だからノーベル賞的なものと書いた
数学だとそれはフィールズ賞らしいけどな

82:デフォルトの名無しさん
21/10/15 22:13:46.30 LGAK96770.net
チューリング賞

83:デフォルトの名無しさん
21/10/15 22:17:19.03 6tKAdTHp0.net
ニューラルネットワークって物理の文脈で捉えることも可能だからゴリ押せば問題ない

84:デフォルトの名無しさん
21/10/15 22:20:07.48 3JPgOKCi0.net
シャノン賞ってのもあるらしい
URLリンク(www.tus.ac.jp)

85:デフォルトの名無しさん
21/10/15 22:25:50.03 3/epFyTw0.net
>>73
甘利センセあたり?

86:デフォルトの名無しさん
21/10/15 22:25:58.98 RXO4bJUV0.net
ノーベル賞の認知度の高さが一般人の科学への認識を歪めてる感はありますね。

87:デフォルトの名無しさん
21/10/16 10:54:08.18 eoOYY+/F0.net
>>85
科学とは何?

88:デフォルトの名無しさん
21/10/16 21:09:36.43 vis5a6TM0.net
数学以外の何か。

89:デフォルトの名無しさん
21/10/16 21:10:57.83 eoOYY+/F0.net
なんじゃい、そりゃw

90:デフォルトの名無しさん
21/10/17 02:04:54.29 dwWNcKeu0.net
Alpfafold2を話題にしないのはなぜ

91:デフォルトの名無しさん
21/10/17 13:38:23.60 MVxO4NJf0.net
良くわかんない

92:デフォルトの名無しさん
21/10/17 16:01:57.87 6H8VCRJG0.net
知らないから

93:デフォルトの名無しさん
21/10/17 17:37:38.26 kbVq19blM.net
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw

94:デフォルトの名無しさん
21/10/18 15:52:55.77 EmDGqAJL0.net
情報系じゃなくて実験系の出身だから論文読むのも大変だわ
機械学習が必要になってPytorchやTensorFlow使ってるんだけど、
自分がやってることと言えば論文軽く読んでGitHubからコード落として、ネットワークを目的に応じて修正し自分のデータに適用してるだけ
詳細なアルゴリズムはよく理解できてないことも多い
全く新しいモデルを提案する人達はすごいなと感じます

95:デフォルトの名無しさん
21/10/18 16:00:54.53 nRAR4WNG0.net
>>93
同分野でも原理か応用かでやってることは全く違いますからね。
原理を知っておいて損はありませんが、応用で一番大事なのは対象となる事象の理解なんて言われるくらいですし。
パソコンを使って何かを創る人とパソコンの仕組みを研究してる人って感じですね。
特定分野の一技術がこれだけ広く利用されている現状はなにげにすごいことです。

96:デフォルトの名無しさん
21/10/18 16:34:14.02 iaabsSMNM.net
K-meansするとき、標準化や正規化って必須なの?
特徴によってスケールが違うんだけど。。。

97:デフォルトの名無しさん
21/10/18 17:04:01.15 r9t2S6+pF.net
特徴によってスケールが違うから正規化するんだろ

98:デフォルトの名無しさん
21/10/18 17:08:36.65 gFAoZccR0.net
偏差5σにあうようにデータを修正するのかw

99:デフォルトの名無しさん
21/10/18 18:01:46.73 iaabsSMNM.net
データを歪めてるわけで良くないのかなって

100:デフォルトの名無しさん
21/10/18 18:32:58.29 nRAR4WNG0.net
>>98
データを歪めてるというよりも、異る値を公平に比較するために揃えてる感じですね。
正規化は単体のデータではなくデータの集合に対して行いますので、単体の値が変化しても集合内のデータ間の関係(例えば距離の比)は保たれます。
手法が見ているのがこの生の値なのか関係なのかが問題で、生の値をそのまま使う場面はかなり稀だと思います。

101:デフォルトの名無しさん
21/10/18 19:13:34.77 6OwI1/lnM.net
>>99
なるほど
サンクス

102:デフォルトの名無しさん
21/10/18 20:49:50.55 +g2qbZCh0.net
>>95
例えば身体測定のデータが身長km体重gで入ってたらどうなると思う?

103:デフォルトの名無しさん
21/10/18 21:09:15.04 q3S383yy0.net
どうなるの?

104:デフォルトの名無しさん
21/10/18 21:19:05.98 kGOStHwx0.net
NFTゲーム、ブロックチェーンゲームに今すぐ参入しなさい
これからこの市場は100倍になる
2年もしたら先行者利益が失われてブルーオーシャンからレッドオーシャンになるだろう

105:デフォルトの名無しさん
21/10/19 10:33:12.65 QjVXcNsI0.net
こんなとこで宣伝しなきゃならんほどアブナイのか...

106:デフォルトの名無しさん
21/10/21 19:37:27.13 tf/8/Cq00.net
機械学習やDeepLearningにおいて、線形代数ってどのレベルまで勉強したらいい?
行列の計算方法がわかるくらいじゃ不十分?

107:デフォルトの名無しさん
21/10/21 20:17:54.37 6kBcoHDzM.net
>>105
ベクトル値関数のベクトル、行列でのフレェシェ微分を計算できるぐらいは必要。

108:デフォルトの名無しさん
21/10/21 20:19:17.89 9Fk3uDYd0.net
>>105
要らない

109:デフォルトの名無しさん
21/10/21 21:07:59.43 glQ/3PQO0.net
ケイリー・ハミルトンくらいは理解しとけ

110:デフォルトの名無しさん
21/10/22 00:39:22.28 bIdSm1HRa.net
固有値固有ベクトル基底変換

111:デフォルトの名無しさん
21/10/22 00:52:21.99 nvi3nf2X0.net
テンソルの演算と多変数関数の連鎖率とミニバッチ勾配降下法だけで全て対応可能だよね
ややこしい微分方程式の解を求めるための重積分の計算とかとか
ラグランジュの未定乗数法もいらないから数学的には相当楽勝
おそらく機械学習の分野の中でも1番シンプル
この分野を難しく解説してる本もあるけど
想像以上にめちゃくちゃシンプルだよ
大学で物理や数学やってた人からするとめちゃ簡単に感じる
この簡単な仕組みで世界を変えたのは本当に凄いとしか言いようがない

112:デフォルトの名無しさん
21/10/22 05:42:14.16 oRncHvvV0.net
日本人のai本は必ず数式展開がある印象

113:デフォルトの名無しさん
21/10/25 09:59:55.92 Es9Xs3ydd.net
数学の行列もいじれない人は既存のソフトウェアで十分。

114:デフォルトの名無しさん
21/10/25 10:21:03.07 JcYDEjCXM.net
要らないよね

115:デフォルトの名無しさん
21/10/25 11:31:53.12 Es9Xs3ydd.net
人材としてね

116:デフォルトの名無しさん
21/10/25 16:40:33.32 r9nr43fs0.net
ツール化が進んだので結果的に数式はいらなくなっている
新しい分野に適応するのはほぼ不可能だろうな
先行事例があるものだけがうまく行く可能性がある
それでも条件が違うとうまく行かないだろうが

117:デフォルトの名無しさん
21/10/25 17:57:52.78 v1dvy9kxM.net
今のAIってかなり雑な処理してるように思えるんだけど
生体もそんな感じだから良いのだろうか
こんな雑にやってたらじきに頭打ち来るよね?
gpt3やらtransformerベースのcv見てるとそう思う

118:デフォルトの名無しさん
21/10/25 21:44:10.30 i1JdqDPjM.net
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw

119:デフォルトの名無しさん
21/10/26 18:45:50.36 CwYCZWUI0.net
クジラ飛行机の『PythonによるAI・機械学習・深層学習アプリのつくり方』という本を読んでいるのですが、はがきの郵便番号の枠の抽出処理が
原始的すぎるので驚いています。
抽出領域のサイズを大きすぎたり小さすぎたりしないようにしていたり、抽出した輪郭同士が近すぎるのは駄目とか細かなルールを
コーディングしています。
機械学習って、あまり楽しいもんじゃないですね。

120:デフォルトの名無しさん
21/10/26 18:47:04.79 VLpeRxZh0.net
>>118
それは例だろ。。。

121:デフォルトの名無しさん
21/10/26 18:47:18.21 CwYCZWUI0.net
本当に必要に迫られている人とか仕事でやっている人なら、一生懸命やるかもしれませんが、そうでない人のモチベーションってなんですか?
苦行でしかないような気がします。

122:デフォルトの名無しさん
21/10/26 18:59:31.24 VLpeRxZh0.net
>>120
そうなんだ。。。

123:デフォルトの名無しさん
21/10/26 19:03:21.27 am0io4VuM.net
それは機械学習ではなくて前処理だ
前処理は苦行であるが必要なのだ
ちなみ、本を読んでないからなんとも言えないところがあるけど、おそらくもっとスマートに抽出する方法はある。
機械学習のエキスパートだからといって
画像処理のエキスパートとは限らない
あとソフト屋さんはソフトでなんとか
しようとするけど、照明とかカメラとか
ハードを工夫することも大事

124:デフォルトの名無しさん
21/10/26 19:24:43.93 CwYCZWUI0.net
>>122
深層学習でも面倒な「前処理」をするんですか?

125:デフォルトの名無しさん
21/10/26 19:28:58.21 VLpeRxZh0.net
>>123
はい

126:デフォルトの名無しさん
21/10/26 21:06:37.66 SaTYusrr0.net
>>118
それは古い手法
今時の物体認識はそれを自動でやる

127:デフォルトの名無しさん
21/10/27 07:36:24.69 Zj1idbQoM.net
>>118
つ RCNN

128:デフォルトの名無しさん
21/10/27 09:19:29.32 SjrWgu8IM.net
クジラ某、とか良く分からん奴の本なんか当てにすんな

129:デフォルトの名無しさん
21/10/27 09:32:15.79 sx0a4lD1r.net
ひまわりやなでしこを開発した人か
マレーシアの東海岸に住んでるんだっけ

130:デフォルトの名無しさん
21/10/27 14:14:07.93 SL+cB4sA0.net
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
ゲリ便をじゅるじゅると
うまそうに食ってるw

131:デフォルトの名無しさん
21/10/27 14:38:54.35 bPtNWsqJM.net
ホテル、民泊などの料金はダイナミックプライシングになっていると聞きます。何ヶ月か前に予約すると安くて、当日はビジネスユースで高い?固定の価格の人もいる?
売上を最大化するプライシングを予測する場合、説明変数、目的変数はどのように設定するものでしょうか。
以前にsignateでコンペがあったのですが、目的変数が部屋の価格?になっていて予約日やその時点での空き部屋数などの考慮はしていなかったと思います。
これにちょっと違和感を感じていました。

132:デフォルトの名無しさん
21/10/27 17:52:27.56 XWcghAvc0.net
>>124-128
ありがとうございました。
>>127
OpenCVの使い方とかが分からなかったのですが、サンプルファイルを動かしてみるとこんなことができるんだというきっかけにはなる本だと思います。
自分のパソコンに保存してある数学の講義動画のmp4ファイルを使って、サンプルプログラムを動かしてみたら、動いている人物=講師が
緑色の枠線でときどき囲まれていて楽しかったです。

133:デフォルトの名無しさん
21/10/27 18:07:46.67 Zj1idbQoM.net
>>131
YOLOかVinoの領分だね

134:デフォルトの名無しさん
21/10/27 18:42:56.03 B2mKsDkoM.net
transformer系の論文、ネタ切れの感ない?
蒸留やモデル圧縮した話ばかりに思える

135:デフォルトの名無しさん
21/10/28 04:06:54.00 D6UBU40jd.net
URLリンク(youtu.be)
パランティア
大量の情報を瞬時に統合、分析できる高速データマイニングシステム
法人向け、製品の活用例:軍事

136:デフォルトの名無しさん
21/10/28 13:53:31.55 fckDLSZN0.net
URLリンク(codezine.jp)
エキスパートシステムの焼き直し?

137:デフォルトの名無しさん
21/10/28 14:25:26.01 /JQ+cDxR0.net
Windowsの「ペイント」で1桁の数字を手書きで書きました。(白い背景に黒い文字)
MNISTの数字のデータとフォーマットを合わせるために以下の処理をしました。
「9」を書いたファイル'my9.png'を読み込んで処理しています。
その後、TensorflowでMNISTデータをもとに学習したニューラルネットワークで、自分で書いた数字が
どの数字なのかpredictしようと思ったのですが、エラーが出てしまいました。
im = cv2.imread('my9.png')
im = cv2.cvtColor(im, cv2.COLOR_BGR2GRAY)
im = cv2.resize(im, (28,28))
im = 255 - im
plt.imshow(im)
plt.show()
im = im.astype('float32') / 255
どこがおかしいでしょうか?

138:デフォルトの名無しさん
21/10/28 15:10:41.68 /JQ+cDxR0.net
>>136
できました。

139:デフォルトの名無しさん
21/10/28 20:03:24.43 wfj4dZHQr.net
エラーが出た行とエラー内容も書かずに質問するのか

140:デフォルトの名無しさん
21/10/28 21:06:28.72 WwVFv2u/0.net
255-imがいらなかったんだろうなー

141:デフォルトの名無しさん
21/10/29 12:47:13.80 w1emczzyM.net
pyspark使ってる人いるかな?

142:デフォルトの名無しさん
21/10/29 17:28:34.23 r5VFCi870.net
説明変数だの目的変数だの日本語訳がわかりにくすぎませんか?

143:デフォルトの名無しさん
21/10/29 22:01:37.45 CLB0ll/O0.net
古文とか読む感じだな

144:デフォルトの名無しさん
21/10/29 22:07:23.57 fcpAiBWb0.net
えぇ...

145:デフォルトの名無しさん
21/10/29 22:31:48.18 eYBNQqdu0.net
false positive false negativeは毎回どっちやねんてなる

146:デフォルトの名無しさん
21/10/30 10:45:24.70 hp2FAMiS0.net
パーセプトロンで、重みを0で初期化してはいけない理由がわかりません。

147:デフォルトの名無しさん
21/10/30 13:21:19.95 Hk2+2XTH0.net
重みを0で初期化しても学習で重みが更新されていけば問題ないんじゃないですか?
誰かがそう言っていても実際に問題がなければ間違いだと判断していいと思います
例外的に問題が発生するかもしれないけど、その�


148:鼾№ヘその条件を明らかにしたらいいと思います



149:デフォルトの名無しさん
21/10/30 13:48:25.73 nyF2svEf0.net
うまくいかないから

150:デフォルトの名無しさん
21/10/30 20:46:11.12 atpkiie/M.net
NNが学習する仕組み書いてある本とかサイト読めばすぐ分かるのに

151:デフォルトの名無しさん
21/10/31 12:56:03.18 2f8vjVcU0.net
URLリンク(datascience.stackexchange.com)
0以上で1、それ以外は0 の関数だと学習が上手くいかないけど
他の関数なら学習できるだろうな

152:デフォルトの名無しさん
21/11/01 11:33:32.31 B0z8inSKM.net
俺今までPytorch使ってたんだけどKerasのほうがよっぽど使いやすいなこれ
こらゃ流行るわけだわ

153:デフォルトの名無しさん
21/11/01 12:36:19.97 ATG/Yu2VM.net
>>150
pytorchの方が好き

154:デフォルトの名無しさん
21/11/01 14:07:02.11 trzB+u+Td.net
自分はkerasからPytorchに変えたよ
論文の実装がPytorchだらけなんでコード読むのに必要になったからさ
今ではPytorch派ですw

155:デフォルトの名無しさん
21/11/01 15:29:34.12 Hw158eF4r.net
自由度をどのくらい求めるかだなあ

156:デフォルトの名無しさん
21/11/01 15:45:41.26 DBrffjYNM.net
Kerasは統計の人(非エンジニア)
PyTorchはプログラマの人
にそれぞれ使いやすいって印象

157:デフォルトの名無しさん
21/11/01 21:25:28.65 0FyuJ8GY0.net
pytorchがNCS対応してくれればなぁ

158:デフォルトの名無しさん
21/11/01 22:13:05.61 E7FpFiXyr.net
>>152
点群処理関連がほぼ PyTorch なんで入れたが、cuda のバージョン依存が厳しい~

159:デフォルトの名無しさん
21/11/01 23:09:34.80 2XCaWAv8M.net
>>154
画像系から画像以外に行こうとしたらデータ読み込み周りが分からなくなってPGだけど自信無くしたわw
df読み込むのKerasならすぐなのにPytorchはデータローダー噛まさないと行けない?から面倒くさい
ネットワーク構築以外にも学習にたどり着くまでの敷居が高い気がするわ

160:デフォルトの名無しさん
21/11/02 12:12:30.45 270XKUWB0.net
必要に迫られてどっちも何となく分かるようになった

161:デフォルトの名無しさん
21/11/03 00:13:01.77 rdMcbZKb0.net
異常検知の分野って特徴量の抽出だけにモデル(ResNetとかEfficientNet)を使う方法が最近覇権とってるけど、教師あり学習とかオートエンコーダーではもうかなわないのかな

162:デフォルトの名無しさん
21/11/03 23:59:24.80 UVAU/LXjd.net
どうすれば脳の仕組みを「理解」できるのか: 分かり方は一つじゃない 脳を解明する4つの方法
URLリンク(rmaruy.hat)<)○enablog.com/entry/2019/01/29/225106

163:デフォルトの名無しさん
21/11/04 00:22:07.32 GsNH+iC50.net
脳の仕組み=NNではない。

164:デフォルトの名無しさん
21/11/04 10:36:03.76 ZKwh1CRl0.net
ur


165:l貼れないのかここは



166:デフォルトの名無しさん
21/11/10 09:06:53.22 morNzhKwF.net
京都賞
記念講演
URLリンク(www.kyotoprize.org)
URLリンク(www.kyotoprize.org)

167:デフォルトの名無しさん
21/11/10 09:07:57.77 morNzhKwF.net
↑本日10時より生中継(無料)

168:デフォルトの名無しさん
21/11/10 10:13:40.74 Kvnp/rc60.net
納得の受賞に見える

169:デフォルトの名無しさん
21/11/10 10:25:44.24 qkGfzX2x0.net
オッズは?

170:デフォルトの名無しさん
21/11/13 00:02:57.52 M+9ufWQE0.net
Google騙る迷惑電話?ネット注意喚起も... 実は公式調査、同社が発表「営業時間の確認中」
URLリンク(www.j-cast.com)
>Googleアシスタントからの電話は会話型AIを採用している。
>ツイッターでは精度について、「AIなのか生身の人間なのか曖昧で、絶妙に違和感のある話し方」だと評する声も。
Google Duplexが日本でも稼働

171:デフォルトの名無しさん
21/11/13 00:41:05.53 M+9ufWQE0.net
「怪しさ満載なんだが、、、」
「怪しいおじさんの電話 詐欺かな」
「とにかく気持ち悪かった」
>この電話かかってきたけどマジで気持ち悪かった
>機械と人間の中間くらいの話し方で会話のテンポもおかしいし
URLリンク(www.youtube.com)
英語版はそこまで気持ち悪くない

172:デフォルトの名無しさん
21/11/17 11:54:16.63 oFIttF9FM.net
人間てnnでend2endのシステムを作っても自前ルールを後付けしてちょっとでも性能を上げようとしがち

173:デフォルトの名無しさん
21/11/17 13:44:51.06 j2TK+2FP0.net
だってちょっといじった感出したいしさ
Githubほぼそのままでいけましたなんてサボってたみたいじゃんw

174:デフォルトの名無しさん
21/11/17 17:07:09.83 hqqj20VZM.net
csc matrixをarray化するのに10.7TiBが必要でoomが出た
最初の数行だけでも展開できないものか

175:デフォルトの名無しさん
21/11/18 14:10:42.62 JBLaWByb0.net
sklearnって優秀だな
甘く見てた

176:デフォルトの名無しさん
21/11/18 15:20:39.00 95krJczYr.net
だがGPUを使えない欠点が

177:デフォルトの名無しさん
21/11/18 19:50:57.59 oXhIWNen0.net
【予測最前線】線状降水帯 カギは“水蒸気” 2時間前に降水帯の発生を診断
www.youtube.com/watch?v=8UnovsW6OP4
URLリンク(www.jma.go.jp)
今後、富岳スパコンの成果を応用し、LFMの物理過程記述式の改善、高解像度化を実施
LFMのアンサンブル評価システムも開発中 ※気象庁
理研AIPと協力し、人工知能を用いた統合ガイダンスを開発中 ※気象庁,理研
雲の発達過程、推移をAIに学習させ、パターンを抽出  ※WNI
URLリンク(i.imgur.com)

お前らが持ってる機械学習の技術を、天気予報にも使ってくれ

178:デフォルトの名無しさん
21/11/18 19:56:39.19 T6ZBs9Mv0.net
予報できても発生は防げないと
避難が必要になるし家屋とかの損害も防げないかもしれないな
避難には時間もかかるし
予防ができたらいいけどな
地震とか他の災害もだけど

179:デフォルトの名無しさん
21/11/18 20:23:45.02 zdru4Pai0.net
Kaggleに興味を持って入門書を見てみたら、まず最初にpandasでデータをうまく加工できないといけないということが分かりました。
pandasについての本を読んでいるのですが、ルールが独特すぎて苦行です。
みなさんはpandasをどうやって習得しましたか?

180:デフォルトの名無しさん
21/11/18 21:10:56.20 JBLaWByb0.net
都度調べてる

181:デフォルトの名無しさん
21/11/18 21:13:51.75 y9NwvV4d0.net
>>176
定番のこの本かな
『Pythonによるデータ分析入門 第2版』
ちなみに、どういうところが独特だと感じました?

182:デフォルトの名無しさん
21/11/18 22:28:48.35 2INYRpvr0.net
youtube のキノコードの動画を見れば?

183:デフォルトの名無しさん
21/11/19 07:38:44.82 3BGDdCT90.net
>>177-179
ありがとうございました。
>>178
その本です。
スライスとかブロードキャストが独特に感じます。
例で理解するというアプローチで、きちんとどういうルールなのか書き下してくれていないので、モヤモヤします。
もちろん、大体こうすればいいだろうというのは分かるんですが。

184:デフォルトの名無しさん
21/11/19 10:04:00.49 jTGRuViuM.net
>>180
リファレンス見れば良い

185:デフォルトの名無しさん
21/11/19 10:14:49.57 m/zGntzyM.net
>>180
スライスはPythonの機能だよ
そしてブロードキャストはNumPyにもあって、形状が違うテンソル同士でも変形せずに簡単な表記で表せると思って使うといい
どちらも配列を扱う上で便利な機能で、スライスとかは特にPythonで喜ばれる機能だと思うが、終わりの添字は含むのかとかは慣れるまでは大変かも

186:デフォルトの名無しさん
21/11/21 15:50:52.45 7NTTr3G20.net
ここ見てるとMatlab使用してる人がいないのですかね。
車両関係含め大手企業は基本matlabをベースに開発進めてるんですが。。

187:デフォルトの名無しさん
21/11/21 15:54:08.42 tfzFi4Pl0.net
何に使うかによると思うんですけど?
うちは大手メーカーだけど、そもそもMATLAB使ってない

188:デフォルトの名無しさん
21/11/21 16:23:19.77 SAxDQYkQ0.net
MATLABって20年くらい前のツールかと思ってた

189:デフォルトの名無しさん
21/11/21 16:23:28.30 hNzx/6hX0.net
>>183
まあ大企業は古い社風のとこ多いからね、、

190:デフォルトの名無しさん
21/11/21 16:40:01.54 62L0v6vRa.net
matlab独自の強みはRやPythonのライブラリに食われてきてるから使われるとしたらsimulinkとかメインじゃね

191:デフォルトの名無しさん
21/11/21 18:46:57.84 i8H91UbB0.net
matlabを使ったことがないのだけど、
PythonやRと比べて有利なところってどのくらいあるのですか?

192:デフォルトの名無しさん
21/11/21 19:02:51.70 WKFEKwAL0.net
Matlabって数値解析の権威が作った会社でしょ。
PythonやRと比べて、正確で速いの?

193:デフォルトの名無しさん
21/11/21 19:15:25.25 1abglX7Va.net
少なくともsimulinkの代替になるものは今のところ存在しないな
simulinkっぽいものならいくつかあるけど

194:デフォルトの名無しさん
21/11/21 22:19:42.05 EfkKXMObM.net
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
ゲリ便をじゅるじゅると
うまそうに食ってるw

195:デフォルトの名無しさん
21/11/21 22:40:10.25 7NTTr3G20.net
Pythonでmatlab/simulinkの代わりができるなんてとてもじゃないけど思わないけど。
>>186
古風とかそんなレベルじゃねーぞ

196:デフォルトの名無しさん
21/11/21 23:00:57.74 7NTTr3G20.net
あまりに世間を知らなすぎでは?

197:デフォルトの名無しさん
21/11/21 23:20:42.12 tfzFi4Pl0.net
分野によります
以上終わり!

198:デフォルトの名無しさん
21/11/21 23:27:29.12 7NTTr3G20.net
そもそも論、お金取って確実に保守してくれるソフトウェアを企業が使用するのは当たり前。
>>184
大手と言っても個人で使用してるような環境でしょ?

199:デフォルトの名無しさん
21/11/22 00:23:35.15 MZFPC


200:l/p0.net



201:デフォルトの名無しさん
21/11/22 00:24:07.33 N7DomBN8a.net
なんかのツールボックスに解析的に微分したりする機能があったような
Pythonにもあるかもしれないけどあれは便利だった

202:デフォルトの名無しさん
21/11/22 07:54:47.49 sf/6XMlW0.net
sympy

203:デフォルトの名無しさん
21/11/22 08:19:09.53 JKDmdtno0.net
>>197
Wolfram Language + Jupyter Notebookを使っている人いますか?
無料で使えますが。

204:デフォルトの名無しさん
21/11/22 11:38:03.78 k+UhQahhM.net
>>199
使ってますよ。簡単なことするだけなら、普通にMathematicaだよね。
Wolfram Langugaeに少し癖があるけど。

205:デフォルトの名無しさん
21/11/26 02:32:14.06 jrKtaB44a.net
autokerasのTimeseriesForecasterはkerasモデル保存/読込どうすればいいのでしょう?
ImageClassifierはAutoModelが使われているのでexport_model()によりkeras modelが取得できます
が、TimeseriesForecasterはAutoModelが使われていないのでできません
autokerasの外へはどうやってmodelをもっていけばいいのでしょう?

206:デフォルトの名無しさん
21/11/26 02:40:12.71 jrKtaB44a.net
すみません。automodel使われていてexportもできました
(やりたいことがエポックごとに呼ばれるcallbackの中でのexport_modelで、これができないだけでした。どうやればcallback中でできるのかまた悩んできます)

207:デフォルトの名無しさん
21/11/28 21:05:51.18 jvvYPFKj0.net
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
ゲリ便をじゅるじゅると
うまそうに食ってるw

208:デフォルトの名無しさん
21/11/29 16:05:20.45 oALfYxuSM.net
URLリンク(moultano.wordpress.com)
aiの創造性はここまで来た
ダリっぽい

209:デフォルトの名無しさん
21/11/29 16:25:40.49 49iqqEX00.net
ゼロから作るDeep Learningって写経する意味あるのかな?

210:デフォルトの名無しさん
21/11/29 17:17:10.78 JyJQI2pq0.net
>>204
ダリっぽいとか他に似てるなら創造的じゃないな

211:デフォルトの名無しさん
21/11/29 17:28:36.76 Wu2sfsS10.net
だりーな

212:デフォルトの名無しさん
21/11/29 17:52:03.85 D+IIZmyeH.net
>>205
人によるとしか
復習で読んでるなら不要では

213:デフォルトの名無しさん
21/11/29 19:53:37.63 UygRQ8FM0.net
>>205
無し

214:デフォルトの名無しさん
21/11/29 19:53:55.58 UygRQ8FM0.net
>>204
すげえ

215:デフォルトの名無しさん
21/11/29 20:03:20.61 rw4mU1bLa.net
>>205
写経するならフレームワーク編が良いよ
それまでのコードを全部見直して一番綺麗な形に纏めたのがフレームワーク編
ライブラリも実質chainerの再発明だし
パフォーマンス抜きにしたら実装面では一番よく出来てる

216:デフォルトの名無しさん
21/11/29 20:44:05.60 VfRsvGvv0.net
フレームワーク編は勉強になりました。
おかげでPytorchにもすんなり入れました。

217:デフォルトの名無しさん
21/11/29 21:27:03.51 UygRQ8FM0.net
読まなくてもpytorchなんて直ぐ使えるよ

218:デフォルトの名無しさん
21/11/30 13:14:20.13 rPvdixK50.net
sklearnってどうしてfitとtransformなんだろう

219:デフォルトの名無しさん
21/11/30 17:15:15.09 BeJPAIX2r.net
sklearnの論文読んでみたら?
設計思想が書かれてるかもね
URLリンク(www.jmlr.org)

220:デフォルトの名無しさん
21/11/30 21:37:36.91 qoP48xVD0.net
>>213
すごいね
最近の論文はPytorchで実装されてることが多いんで、kerasから乗り換えました
自分は論文のGitHubでの実装コード読み解くのに数日かかるよw

221:デフォルトの名無しさん
21/12/01 11:49:42.49 kM+Jjoc8M.net
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
朝鮮人はゲリ便をじゅるじゅると
うまそうに食うw

222:デフォルトの名無しさん
21/12/01 12:15:19.01 vfd5COSo0.net
ちゃんとしてんのな
賢い人たちが作ってそう

223:デフォルトの名無しさん
21/12/03 18:08:07.73 tf1jbXXy0.net
Deep Learningは非常に自然で原理を理解するのはそれほど難しくないと思います。
一方、色々とある機械学習の手法のほうが理解するのが難しいように思います。
あってますか?

224:デフォルトの名無しさん
21/12/03 18:48:18.08 PYIziROuH.net
変な書き込みやめて

225:デフォルトの名無しさん
21/12/03 18:53:15.73 +ecAl3MEa.net
Deep Learningも色々あるから、その色々を理解するのは面倒
いわゆる機械学習も原理だけなら理解するのは簡単

226:デフォルトの名無しさん
21/12/03 19:27:46.04 ryyjEUUJM.net
原理について3行で説明してください

227:デフォルトの名無しさん
21/12/03 19:35:54.87 raY/uoTOd.net
>>219
時々こんな感じの変な書き込みあるよね

228:デフォルトの名無しさん
21/12/03 19:38:49.60 5p0sqebB0.net
59.147.205.222 で検索するなよ、絶対にな

229:デフォルトの名無しさん
21/12/03 20:13:54.46 AhvPAkOi0.net
自然とは

230:デフォルトの名無しさん
21/12/03 20:21:20.00 H3PEvtzUd.net
〇〇県民は理解しやすいけど地球人には色々あって理解するのが難しいみたいな

231:デフォルトの名無しさん
21/12/03 20:23:40.02 kzOvZWag0.net
自然とか難しいとか主観的に語るのは科学的でない

232:デフォルトの名無しさん
21/12/03 20:29:42.74 3ner7aMO0.net
主観観測仮説を知らないのだろうか。

233:デフォルトの名無しさん
21/12/03 21:27:51.88 kzOvZWag0.net
無関係
別の板でやれ
それが観測者効果

234:デフォルトの名無しさん
21/12/03 22:40:50.91 Oj6t+xnM0.net
>>222
バックプロパゲーション
多層
パターン認識

235:デフォルトの名無しさん
21/12/03 23:10:02.90 lzHuWxU/0.net
>>222
超多次元ベクトル

236:デフォルトの名無しさん
21/12/07 12:51:14.51 zJGuK3/50.net
関数近似のフィッティング問題に多層ネットワーク使いました。
方法としては少しづつのサンプルに対して微係数計算して、少しづつ係数を更新します。
これだけ。
なぜうまくいくか、どういうデータが良いか、具体的なパラメータはどうするかってのは難しいが
原理だけならこれだけだわな。

237:デフォルトの名無しさん
21/12/07 13:16:34.86 +8JptylOa.net
曲線あてはめ ← はぁ…
機械学習 ← なんか凄そう

238:デフォルトの名無しさん
21/12/07 14:47:00.37 3Fb9ZRqsa.net
>>232
解釈性の問題なら賢い人が散々やって無理だから無理なんだと思うよ
一昔前はベイズで説明できるとか言ってる人がいたが
ベイズ完全にオワコンだし

239:デフォルトの名無しさん
21/12/07 18:26:50.54 2Ry187zya.net
解釈性からgradcam派生とかあるじゃん
それにベイズがオワコンとかkaggleしかやってない人かな?

240:デフォルトの名無しさん
21/12/07 19:03:42.76 KRSgdo5l0.net
>>232
それは原理ではなく単なる手順だ

241:デフォルトの名無しさん
21/12/07 19:29:25.93 Tq92gphF0.net
動作の原理、という意味なら手順と一緒の意味もありうるか

242:デフォルトの名無しさん
21/12/07 19:56:52.69 1b+mdTOcM.net
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
朝鮮人はゲリ便をじゅるじゅると
うまそうに食うw

243:デフォルトの名無しさん
21/12/07 20:11:19.00 yYsfMV6wa.net
原理って話なら誤差関数の期待値を最小にする関数を求めるというのが原理原則だぞ
これはビショップ本にもカステラ本にも書いてある
その手段として>>232のような関数近似のフィッティングを考えるわけ
こう考えると頭が整理できると思う

244:デフォルトの名無しさん
21/12/07 20:22:41.27 g74FV+wua.net
原理に基づいてそれをやるときに必要になるのが誤差関数や逆転伝播求める話。それはどちらかと言えば定理か?
この辺は国語の問題だなw

245:デフォルトの名無しさん
21/12/07 20:35:07.27 zJGuK3/50.net
確率解釈は後付けだろ。
どうしても連続値で取り扱わなきゃで無理くり理由付けしただけだわ。
それも理解してない奴が無理矢理ベイズ解釈取り入れて行き詰まるわけだ。
そんな理屈つけても性能とほぼ関連がないからね。

246:デフォルトの名無しさん
21/12/07 20:51:43.76 EZ68mIS/0.net
そこら辺がスッキリわかる良書が、高橋麻奈著やさしい機械学習。
乞うご期待。

247:デフォルトの名無しさん
21/12/08 07:06:54.46 XTo39aqn0.net
ニューラルネットワークの仕組みは
層構造に素子を並べたものでインパルス関数を線型結合し任意の関数を作れるから
任意の入出力関係を重みの変更で作れる
重みはデータから誤差を勾配降下で小さくすることで得られる

248:デフォルトの名無しさん
21/12/10 01:51:35.74 1XQlciewM.net
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
朝鮮人はゲリ便をじゅるじゅると
うまそうに食うw

249:デフォルトの名無しさん
21/12/10 17:27:11.79 KKnPndz70.net
テキストの識別問題だとbowとembeddingでそんなに差は出ないよね?

250:デフォルトの名無しさん
21/12/10 17:30:11.15 KKnPndz70.net
変な言い方になった
単語を素で扱うのと埋め込みして扱うのとではそんなに差は出ないよね?

251:デフォルトの名無しさん
21/12/10 19:56:33.27 MelBN57+0.net
特定単語の有無で識別出来る程度の問題なら変わらんと思う

252:デフォルトの名無しさん
21/12/13 17:58:38.68 G2im6pgFM.net
>>247
ありがとう

253:デフォルトの名無しさん
21/12/14 22:13:04.45 2CUt45mqa.net
>>246
常にやった方が良いと思う
埋め込みって何をやってるかって
要は次元削減なのよ
高次元から低次元への写像を作るのが重要なタスクの場合はやるべき
例えば推薦システムや自然言語処理などね

254:デフォルトの名無しさん
21/12/17 19:20:20.09 NHlD+DIVM.net
自然言語処理のフレームワークってTensorflowとPytorchとDezeroならどれが良い?

255:デフォルトの名無しさん
21/12/17 19:31:22.57 g/fCEX7wa.net
tensorflow
でも素のtensorflowを使うってならpytorch

256:デフォルトの名無しさん
21/12/17 20:04:44.82 0lIFtA0p0.net
どれでも良い

257:デフォルトの名無しさん
21/12/17 22:10:55.81 NHlD+DIVM.net
とりあえずtensorflowとDezeroを試そうかな?

258:デフォルトの名無しさん
21/12/18 12:43:09.46 LF15gYeT0.net
pandasの本を読んでいる。
早くkaggleをやれるようになりたい。

259:デフォルトの名無しさん
21/12/18 17:32:55.78 DXMCGSK80.net
まず参加しろよ

260:デフォルトの名無しさん
21/12/18 18:31:07.02 v/I1V1jna.net
>>250
使いやすさではpytorchだけど同じパラメータでも
収束の速度や精度に違いが出るから両方試すしかないんだよね
めんどくせぇわ

261:デフォルトの名無しさん
21/12/19 00:06:13.67 ZhiL7Huf0.net
結局論文のコードそのまま取ってくるとかだからtensorflowでもpytorchでもどっちでもええわ。
今時は可読性もそんな変わらんし。

262:デフォルトの名無しさん
21/12/19 08:16:24.75 9n6zD46jr.net
paper with codeだとpytorchのほうが多いな。

263:デフォルトの名無しさん
21/12/19 20:39:08.97 h8CLueC20.net
bertとdoc2vec等の埋め込みの違いってなあに?の

264:デフォルトの名無しさん
21/12/20 11:22:34.02 sxGOmJ2JM.net
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
朝鮮人はゲリ便をじゅるじゅると
うまそうに食うw

265:デフォルトの名無しさん
21/12/20 19:40:53.92 4LJymq/2a.net
>>259
埋め込みってのはワンホットベクトルの後ろに全結合層を入れることだよ
それらのモデルは全部そうなってるでしょ

266:デフォルトの名無しさん
21/12/21 16:16:11.47 yHWiVthKM.net
>>261
後続のタスクがうまくいくように調整したfc層の出力?

267:デフォルトの名無しさん
21/12/21 18:15:28.31 GA1ctgqsa.net
>>262
まあそんなイメージ
ワンホットベクトルを一旦全結合層を個別に通すことで
特徴量として学習がうまくいくようにしている
word2vecなどはそのおかげで単語の意味を学習することに成功した
これは他の分野にも応用できてどういうものを学習させるか?で特徴量を自動的に学習できることを示している
とんでもない発明だよ
計算量的にもワンホットベクトルとの積は対象の重みをインデックスとして取り出すってだけで良いのも味噌
テンソルの演算がいらないから高速

268:デフォルトの名無しさん
21/12/28 23:33:18.19 iOD2F3ep0.net
AIって名前だけで受注取れる時代は既に終ってる。
URLリンク(xtech.nikkei.com)
機械学習なんてタダのツールです。本職にはしないようにしましょう。

269:デフォルトの名無しさん
21/12/28 23:43:01.89 x0tKn+Lqa.net
そこってOCRだけの会社だろ。そりゃ仕方ない

270:デフォルトの名無しさん
21/12/28 23:47:24.59 QtV6tW+r0.net
>>264
精度が出ないシステムだった?

271:デフォルトの名無しさん
21/12/28 23:58:56.89 EVcQbSTb0.net
あの会社の事例でAI全体を語られても困るわ

272:デフォルトの名無しさん
21/12/29 02:45:19.55 o1Dc/C8Ma.net
sklearn動かしてるだけの技術者は既に淘汰され始めてるよ
それよりも基礎集計しっかりやって知見を得ることの方がただモデル作るだけよりも何倍も意義がある

273:デフォルトの名無しさん
21/12/29 07:48:20.39 M+73VAXV0.net
kerasやpytorchで何か検出しましただけの人も淘汰か

274:デフォルトの名無しさん
21/12/29 08:20:09.99 tAunICsO0.net
言うほど業務でkeras使うか?

275:デフォルトの名無しさん
21/12/29 10:59:29.75 TI972sRP0.net
ぶっちゃけそれを単に動かしてるだけの技術者っているの?
基本的に他の専門があって、データ解析のために必要に応じて機械学習を使ってる人が多いのでは?

276:デフォルトの名無しさん
21/12/29 15:24:18.72 YT6dcuk4a.net
技術者はただ単に動かしてるだけ(指示待ちプログラマ)
ほかに専門があって必要に応じて使うのは研究者かな(自分で動くプログラマ)
ま、言葉の定義なんてどうでもいいけど、どっちが多いかと言えば圧倒的に前者じゃないかな
AI系のいわゆるIT奴隷がほぼ全て含まれる

277:デフォルトの名無しさん
21/12/29 17:41:28.61 VRpK6mu50.net
仕事なら客がいるわけで
その客の問題解決になるように作ってるはず
研究者は成果がなんの役に立たなくてもいいのなら自分の興味だけで研究したらいいけど
そんな研究に金を出してくれる人はいるかわからない

278:デフォルトの名無しさん
21/12/29 19:11:11.48 M9fTqQ7fd.net
その客がツール使えば機械学習できるようになってきてるってことだね
社外に頼まなくても社内でできるようになりつつあるし

279:デフォルトの名無しさん
21/12/29 19:26:32.35 b+J8+RQRa.net
大企業なら統計学に詳しい人がいるだろうからね。
プログラマと協力すればある程度は何とかなりそう。

280:デフォルトの名無しさん
21/12/29 19:33:16.06 lHbl/F9K0.net
もう専門家はいらない

281:デフォルトの名無しさん
21/12/29 20:45:29.33 tAunICsO0.net
統計学ってカウントベースの統計学の方?これ利用価値あるの?

282:デフォルトの名無しさん
21/12/29 21:54:00.37 YT6dcuk4a.net
今の統計学は深層学習もやるぞ。AIしない統計学は10年以上に終わってる

283:デフォルトの名無しさん
21/12/29 22:39:30.12 VRpK6mu50.net
>>275
大企業ならグループ内に研究所があったりする

284:デフォルトの名無しさん
21/12/30 02:07:07.02 BQoxL2gv0.net
企業にとって大事なのは確実な課題解決の手法であって機械学習は課題解決手段の一つに過ぎない。
お金にならなかったら縁を切るだけ。
4~5年前あたりからAIは全ての課題を解決出来ると錯覚してる輩がいてホント困る。

285:デフォルトの名無しさん
21/12/30 07:18:27.49 pin0d4GXa.net
趣味とか小さな会社だったらそうなんだけどな
ある程度大きくなってくとAIでやれと言われたらAIでやらないといけない
それで解決できるかや客が満足するかは問題じゃないし「これはAIには向かないです」なんてひっかきまわすのは嫌われるし、そもそも仕様書作ってるとこに意見する経路がない

286:デフォルトの名無しさん
21/12/30 10:16:02.10 MqhAmZiY0.net
うちは大手メーカーだけど、AIでできることできないことの取捨選択が進んできたわ
数年前は何でもAIって雰囲気もあったけどね

287:デフォルトの名無しさん
21/12/30 18:57:57.40 wt8M+IJC0.net
AIは人間に出来ることはすべて出来るってだけで、人間に出来ないことはAIにもできないことが多いからね。

288:デフォルトの名無しさん
21/12/30 19:04:02.88 Yl3eYPmv0.net
>>283
人間にできることをAIで全てできる
なんてことはないだろう

289:デフォルトの名無しさん
21/12/30 19:05:58.97 wt8M+IJC0.net
そうなの?

290:デフォルトの名無しさん
21/12/30 19:07:43.18 UqQqnr5p0.net
構造的なものだけでしょ
うなじを直接見るとか

291:デフォルトの名無しさん
21/12/30 19:14:06.27 wt8M+IJC0.net
以前は創造することは出来ないと言われてたけど、今では絵を描いたり作曲したりクリエイティブな作業もできるようだけど。

292:デフォルトの名無しさん
21/12/30 19:38:32.71 5muAmiHz0.net
創造的、てなんだろうね

293:デフォルトの名無しさん
21/12/30 19:39:35.20 wt8M+IJC0.net
クリエイティブってことでは。

294:デフォルトの名無しさん
21/12/30 19:49:18.46 Oz5i9GO30.net
創造性をください

295:デフォルトの名無しさん
21/12/30 19:50:01.12 wt8M+IJC0.net
中東三大宗教において創造主とは神を意味するらしいので、創造するとその世界の神になるのでは?

296:デフォルトの名無しさん
21/12/30 22:50:11.24 V7YoSH4p0.net
人間も絵を描く技能は過去の作品の模倣から始まりますし、その意味では現在のAIは十分創造性を持っているのかもしれませんね。

297:デフォルトの名無しさん
21/12/30 23:13:16.48 xvd+YMWna.net
人間の感性にマッチするような独創的な絵をAIに生成させるのはムリだな
でもそれは今はムリってだけで来年、再来年にはどうなってるか分からない。限界はAIを作る人間側にあるんだよ

298:デフォルトの名無しさん
21/12/31 00:42:05.82 BI4nC6Xx0.net
AIの進歩によって人がドンドンいらなくなって行くのだけは確かだな
そして日本はこの分野において完全な負け組だということ
つまりこの分野が絡んで人を減らしたり、製品に付加価値を付けられたりすると
勝てないということだね

299:デフォルトの名無しさん
21/12/31 01:03:18.71 PQd8+26pa.net
少子高齢化で働き手が減ってるから人手がかからなくなるのは良いことでもあるような

300:デフォルトの名無しさん
21/12/31 01:58:39.97 2Zk/vij+0.net
弱った人間が死ななくなると感染症が広がりやすくなるのでは?
人類はそうやって自滅すると思います。

301:デフォルトの名無しさん
21/12/31 09:37:41.44 E9yqyPbz0.net
神なんておのれを助けるものをたすくだろ、役に立たねー

302:デフォルトの名無しさん
21/12/31 10:46:28.66 KszWFtWe0.net
どんどん違う仕事ができるだけだろ

303:デフォルトの名無しさん
21/12/31 12:16:18.20 259t7GYFd.net
そのとおり。
違う仕事をしましょう。

304:デフォルトの名無しさん
22/01/01 00:25:22.86 1WIbqf2m0.net
ドンドン違う仕事ができると言っても
日本は新しいことにチャレンジしない国だからね
世界で創業から100年以上経過した企業の41%が日本企業とか
200年以上経過した企業の65%が日本企業とか
会社の96.3%が同族企業とか
新興企業のほとんどが数年で消滅して大きくならないとか、、、
日本の体質を物語っている
失われた30年と言われているが
IT云々から始ってAI、仮想通貨と国と企業が自らの手で
新しい分野を殺してきたようなところがあるんで

305:デフォルトの名無しさん
22/01/01 01:16:42.43 52dzLbcp0.net
労働力を安く買い叩くことでAIに対抗しようとしてるという地獄が日本の現状

306:デフォルトの名無しさん
22/01/01 06:43:40.56 96//zQriM.net
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
朝鮮人はゲリ便をじゅるじゅると
うまそうに食うw

307:デフォルトの名無しさん
22/01/03 05:27:11.01 TNFQqmAj0.net
少なくとも今の学生は機械学習をメインにせず専門の知識習得に務めるべし。
例えばロボット関係やりたいのに制御工学飛ばして機械学習の上っ面だけ身につけてる輩は不要人材。

308:デフォルトの名無しさん
22/01/03 10:21:23.45 KhOM3dPTa.net
新たなアルゴリズムを考えたりできる研究者でもない限り、機械学習専門家と言いながら実態は既存のライブラリのうまい組み合わせ方を知っているちょっと頭のいい作業員でしかないからな
そんなものはライブラリや周辺のツールが便利になれば不要になる仕事

309:デフォルトの名無しさん
22/01/03 11:11:04.57 abZholhj0.net
自分の専門領域プラス機械学習は今後も大きな武器になるが機械学習だけはマジでやめとけ
そんな人材が求められていたのは数年前まで
最先端の深層学習研究者は別だけど、そんなことできるの極々一部の天才だけだ

310:デフォルトの名無しさん
22/01/03 14:36:57.71 TNFQqmAj0.net
あと機械学習の専門研究なんて、現在ただのラベリング合戦の研究だからな。
名前を付けた手法をいかに精度良く見せかけていかに周囲に素早く拡めるかの世界

311:デフォルトの名無しさん
22/01/03 14:42:30.59 AMytSBf5a.net
プログラミングやったことない&できない奴が始めるには最適な分野
hello worldレベルの知識ですらやってけるし、論文読むのに忌避感なけりゃ一か月でおまえらより上になれる

312:デフォルトの名無しさん
22/01/03 14:48:37.53 abZholhj0.net
その通り
だから機械学習だけしかやってない人は危機感を持とうね

313:デフォルトの名無しさん
22/01/03 15:20:09.07 i7XMMO+A0.net
英語やプログラミングも専門分野と合わさって初めて価値を発揮しますからね。
専門分野なしにとにかく流行りのツールを学びたいという人はいつの時代も見られるものです。

314:デフォルトの名無しさん
22/01/03 15:35:09.15 HP2wbCWEa.net
寝る間を惜しんで機械学習コンペに精を出す人もいるけどむしろコンペを開催する側の能力がなければ近い内に淘汰される側となる。
専門外の人に解かせて使い物になるモデルが出来上がるということは問題設定や事前に収集したデータが適切だったということであって、
そこまで準備する能力があればモデル生成作業はコンペ・外注・自動ツール等々、その時点で一番コスパがいい方法を選ぶだけ。

315:デフォルトの名無しさん
22/01/03 20:47:57.48 AMytSBf5a.net
プログラミング自体そのうち淘汰されるからな。やる意味ないぞw
でも今は意味なるんだよ。今がよけりゃそれでいい

316:デフォルトの名無しさん
22/01/03 22:27:45.53 nLr3i6Wg0.net
そりゃどんな仕事もそのうち淘汰されるわ。
だから働かないとかただの馬鹿だろ。

317:デフォルトの名無しさん
22/01/04 00:02:04.61 p1vKc/4fa.net
「そのうち」でひと括りにする方がよっぽど馬鹿かと
淘汰されるのに数十年かかるならほとんどの現役世代は気にしなくていいけど数年で淘汰される可能性がある技能をせっせと身につける必要はない

318:デフォルトの名無しさん
22/01/05 04:15:21.19 PGUo72aK0.net
なんつーか、、
AIって言葉が先行し過ぎ。
数学的にただの最適化問題で解ける問題をわざわざ機械学習(例えばNN)で解いて何をやってるんだろうと思ってしまうこと多々あり。
一応念のため言っておくが元々数学的な手法を機械学習やってるやつが種々の数学的な手法を勝手に『教師あり学習』『教師なし学習』『強化学習』に分類したのが始まり。
DLが出て加速的にこの分野人気が出たが元々の数学の背景は知っとけ。

319:デフォルトの名無しさん
22/01/05 07:14:44.64 PGUo72aK0.net
訂正
機械学習やってるやつが種々の数学的な手法を勝手に『教師あり学習』『教師なし学習』『強化学習』に分類したのが始まり。

320:デフォルトの名無しさん
22/01/05 07:37:22.29 Hu7GUsiR0.net
じゃあどの本を読めばいいの?

321:デフォルトの名無しさん
22/01/05 09:56:41.43 boZRblrC0.net
そのうちAIで一発充てて億万長者

322:デフォルトの名無しさん
22/01/05 10:10:11.14 MZdsrg4wa.net
>>315
勝手に分類したというソースとかあります?
最適化や統計学を参考に発展したのかなと言ったら激怒されたことがありまして。
でも、例えば最尤法なんてのはロナルドフィッシャーの前からあるわけで。

323:デフォルトの名無しさん
22/01/05 21:30:42.32 /CcLnr/X0.net
>>313
プログラミングがあと数年で淘汰されるとか本気で言ってるとしたら本当のバカだよ。

324:デフォルトの名無しさん
22/01/05 23:57:29.94 F3S7rWEZa.net
ここで言ってるのはプログラミングじゃなくて「既存の機械学習ライブラリにデータを突っ込んでいい感じのモデルを生成する作業」だぞ

325:デフォルトの名無しさん
22/01/06 08:28:37.04 u5MkFJx/r.net
>>320
昔よりどんどん設定が楽になってるからなあ
深層学習関連で厄介だったのって結局はデータセットをどんな形式(XMLかJSONか)
でしかもそれを各要素をどんな順番にしてどのディレクトリに置くかで動かないとか
あるいはオンプレミスならGPUドライバのインストールとか
そういうIT関連の初歩だけど躓きやすいところでうまく行かない人が多かっただけで、
そのお膳立てが出来てるならそんな難しい話ではないからなあ

326:デフォルトの名無しさん
22/01/06 11:27:51.20 xlF+IlBCd.net
>>318
その3つはここ最近できた分類。
2010年以前に初版の機械学習の本を参照のこと。その分類殆ど書いてない。
例えば『カーネル~』『パターン認識~』とかの本を読んみな。
>激怒された
どの分野の誰が激怒した?

327:デフォルトの名無しさん
22/01/06 12:57:18.54 xJhDjxiza.net
>>322
ありがとうございます。記述がないか見てみます。
> どの分野の誰が激怒した?
もう辞めた元同僚です。詳しくは知りませんが、建築系の分野で深層学習の応用をやっていたようです。

328:デフォルトの名無しさん
22/01/06 12:59:34.26 uGZ6S9x0M.net
>>322
dudaとhartの本1973に既にその分類あった気がする

329:デフォルトの名無しさん
22/01/06 13:53:25.23 Pj/tWPoWd.net
激怒したのがただのおっさんだった件について

330:デフォルトの名無しさん
22/01/06 14:05:13.26 LDLctEfP0.net
>>320
そんな輩は淘汰とかの前にそもそも成り立ってすらいないがな。

331:デフォルトの名無しさん
22/01/06 21:51:07.42 oLHV7XNga.net
1クラスSVMで正常データが原点から遠く、未学習データが原点付近に写像されるって説明よく見るけどどういう原理なの?

332:デフォルトの名無しさん
22/01/07 06:52:41.42 L0lrZIze0.net
どこの説明?

333:デフォルトの名無しさん
22/01/07 09:19:56.68 WRKzkFuxa.net
シューティングゲームやらせたら最初はスコアゼロ=原点近くだけど、そのうち点が入りだして原点から遠くなって
でもそれ以上点がとれなくなってくるとそこで収束する(何万点って決まったとこ以上遠くならなくなる)みたいなことかな

334:デフォルトの名無しさん
22/01/09 17:33:58.49 eb/UjTK60.net
専門分野がんばろ

335:デフォルトの名無しさん
22/01/10 12:26:00.91 +n2liWIE0.net
コロナ感染者数予測ですら当たり外れしか見えず外れただろ謝れとか言う阿保が多いから
機械学習でどんなに精緻にモデリングしても見合った成果が得られない気がする
線形回帰くらいじゃないと納得しないだろうな

336:デフォルトの名無しさん
22/01/10 13:32:36.73 Mq5wjuVba.net
阿保に評価されることを成果目標とするならどんなに頑張っても成果得られないだろうな
でもそんなとこを目標としてないからw

337:デフォルトの名無しさん
22/01/10 13:54:34.12 HJZ3/7EYF.net
非専門家に理解させるのが面倒だと思うなら機械学習だけやっていたのでは不十分で、機械学習の成果を利用したサービスを自分で立ち上げる必要がある
そのサービス自体に価値があれば中身の機械学習が一般人に理解不能なアルゴリズムであろうと外部の人には関係ない
DeepLとか中身がどうであろうと便利だから使われているが、もしDeepLのアルゴリズムだけ作ってそれを誰かに売りたいならその説明をして理解させなければ売れるわけがない

338:デフォルトの名無しさん
22/01/10 16:36:12.87 igH5zo3Pa.net
>>331
8割おじさんが最近出した本読んだんだが
モデルの説明がめちゃくちゃ多い
機械学習も取り入れてるみたいでちゃんとやる人がやれば予測できるんだなと思った
国民がバカすぎる

339:デフォルトの名無しさん
22/01/10 17:49:20.98 1+LBTjzR0.net
>>334 予測できるはずがない 統計学をちゃんとやっている人なら データが恣意的なので無理 とすぐに分かるはず



341:デフォルトの名無しさん
22/01/10 18:01:50.82 HlxyVgfXa.net
どこまで予測するかだよ
日々の新規感染者報告数を一人の単位できっちり当ててく予想なんてのはそりゃできるはずないが
元データが恣意的だったり正確じゃなくてもおおよそなら十分予測できる
過去の動きから実効再生産数は連休に跳ね上がってるから、連休後は増えるなんてのは馬鹿でも予想できるだろ
だから日付だけでなく休日情報をデータに含めとくとかそういうのの積み重ねだよ

342:デフォルトの名無しさん
22/01/10 18:07:25.70 71YPGGTY0.net
コロナの予測に必要なのは機械学習ではない

343:デフォルトの名無しさん
22/01/10 18:44:16.50 igH5zo3Pa.net
>>335
そりゃ予測なんだから当たり前でしょ
問題はそういうモデルを専門家が色々出すことで
政府や国民が判断できる環境を作ることだよ
現場ほとんどの専門家が何も出してない
Googleと8割おじさんくらいしか出してない

344:デフォルトの名無しさん
22/01/10 21:48:02.54 eDT1pyq70.net
今現在知りうる情報から少し先の状況を大まかに把握することは良くやる事だよな
スポーツなんかでもボールの動きの少し先を予測して動くし
対戦形式だと相手の少しの動き予備動作とか癖とかで予測したり
台風の進路予想とかも
経済活動や人間の活動や会社の業績予想、株価予想なんかもある
ウイルス感染も人間の活動とウイルスの特性とかで大まかに予測できるだろう

345:デフォルトの名無しさん
22/01/10 23:28:34.52 1+LBTjzR0.net
>>338
だから「できない」からやらないわけで
せめてランダムにPCR検査をやってくれたら
参考になったのに
今後もランダムサンプリングはやらないのだろうけど

346:デフォルトの名無しさん
22/01/11 00:38:34.33 U5N42xsja.net
ランダム検査って検査受けたくないと考える人も対象に選ばれれば検査しなければ無意味なわけで、
例えば受験生とかその家族が今検査して陽性なんて出たら困るから絶対検査など受けられない
他にも同様な事情で受けない人が出るので結局対象に偏りが生じるから本当のランダムにはならない

347:デフォルトの名無しさん
22/01/11 01:01:34.22 Vus+Hcqaa.net
ランダム検査したとして、その結果をどう活用するの?

348:デフォルトの名無しさん
22/01/11 01:18:47.71 4qGoqi+ca.net
ランダム検査すれば信頼性の高い市中感染率の推移データが得られる
そのデータをLSTMにぶち込めばっていう古典的な統計学に基づいた予測だろうな
いわゆる深層学習的な考え方じゃない

349:デフォルトの名無しさん
22/01/11 09:10:36.85 sw0izdDpa.net
>>343
それを市中感染の注意喚起に使うってこと?
新規陽性者数の報道だけでは足りないかな?
新規陽性者数って蔓延状況の関数とも考えられるよね。

350:デフォルトの名無しさん
22/01/11 12:30:42.01 4qGoqi+ca.net
何に使うかは別次元の話
新規陽性者報告数は蔓延状況の関数だけど、検査場が飽和したら数値が下側になるし、大規模無料検査が行われたら上側になる
真の感染者数を求めるには変数が多すぎる関数なんだよ
ランダム検査の方がそういう変数を少なくできる

351:デフォルトの名無しさん
22/01/11 12:50:53.52 cXz2aMN9a.net
>>345
ランダム検査の結果を何に活用するか知りたいのが最初の質問です。
新規陽性者数が注意を要する指標なのは同意で、陽性率を報道してるのもそのためかと。
ランダム検査は強制力を伴うので、それに見合った活用法があるのかなと思って。

352:デフォルトの名無しさん
22/01/11 13:15:48.20 4qGoqi+ca.net
検査せずに動き回ってる市中感染者数が見えてくる
例えば、そういう人たちと感染したらリスクある基礎疾患抱えてるような人が接触しないようにする
~ワクチンパスポートの基礎疾患バージョンみたいな新たな対策をする根拠(効果予測)となる
でも一番大きいのは疫学的な科学データの蓄積。今役に立たなくてもデータを集めること自体に価値がある
協力金として100万円差し上げますってすりゃいいだろ。「ハズレた!もっと大規模にランダム検査しろ」ってクレームしか起きないぞw

353:デフォルトの名無しさん
22/01/11 15:22:10.54 gisUZ/Sj0.net
科学データの蓄積
といっても株によって性質がかなり異なるみたいだから
意味があるかどうかは疑問
国が大好きな前例に基づいた対策には使えるけど
新例は前例とは違うのであまり意味がないかと

354:デフォルトの名無しさん
22/01/11 23:54:39.59 On+Ztxm90.net
未来はわからんから計測する必要ないとかどんだけ思考停止だよ。
言うほど増減のパターンなんてそんなにはないわ。

355:デフォルトの名無しさん
22/01/12 10:34:23.29 r0jF0Nl2d.net
何の話
いつから株の話?

356:デフォルトの名無しさん
22/01/12 10:46:58.74 BLJCWDpKa.net
株価とかじゃなくて変異株のことだろ
従来株の感染者数データからは、オミクロンのような変異株が流行したときの予測ができないってこと
逆に通常株としての予測値との差から変異株の実社会中での特性を見出すこともできるし
データはあればあるほどいいのにな。データを集めるコストに見合うかっていうとまた別問題だが

357:デフォルトの名無しさん
22/01/12 13:07:12.36 Q/IpVZ+x0.net
感染経路とか基本再生産数とかウイルスの特徴があるからそれらを参考にできると思うけどな
実行再生産数は色んな条件を統合した結果だと思う
ウイルスの特性とか人間側の感染対策とかワクチンの有効性とかワクチン接種率とか
オミクロン株は感染力はデルタ株より高いとわかれば
感染者数は増えると予想するのは自然だと思う
有効な感染対策が普及したらそれで変化するだろうし

358:デフォルトの名無しさん
22/01/15 21:05:54.36 Nh+HcuMrd.net
神経回路は潜在的な統計学者だった
─理研、脳神経が自由エネルギー原理に従っていることを明らかに
URLリンク(www.riken.jp)
>どのような神経回路も「自由エネルギー原理」と呼ばれる近年注目される脳理論に従っており、
潜在的に”統計学的な推論”を行っていることを数理解析により明らかに
>神経生理学的に妥当な「コスト関数」を逆算し、それが自由エネルギー原理のコスト関数と同一であることを数理的に解明

359:デフォルトの名無しさん
22/01/15 21:07:13.39 Nh+HcuMrd.net
自由エネルギー原理 とは

生物の知覚や学習、行動は自由エネルギーと呼ばれるコスト関数を最小化するようになっており、
その結果生物は外界に適応できる という理論
今回、
神経回路のコスト関数と、自由エネルギーは数式の構造が全く同じであることが判明
統計学者が行うように、観測データから背後の原因をベイズ推論することを自律的に行っており、
そうして外界を模倣することが”神経回路の普遍的な特性”であることを証明

360:デフォルトの名無しさん
22/01/15 21:48:06.91 jfiWoDR70.net
これ何も新しいこと説明していなくない?

361:デフォルトの名無しさん
22/01/15 22:01:11.99 Se72RKU9d.net
最適な未来予想の実現化をモニターする神経細胞の発見 ゼブラフィッシュ
URLリンク(www.riken.jp)
>最適な未来の予測(脳内モデル)と現実との予測誤差を脳内において表現する魚は、その予測誤差を最小化するように行動する、
すなわち見える景色が


362:いつも後方に移動するように休むことなく尻尾を振り続けることで、 素早く最も効率的な逃避行動を取ることができる



363:デフォルトの名無しさん
22/01/15 22:28:15.49 WGdw9iF50.net
エネルギーが最小になるように関数系が確定するのは何となくわかるが‥、、
ここは機械学習のスレです。
脳の話は他でやれ。

364:デフォルトの名無しさん
22/01/16 00:28:38.95 tGF8resU0.net
正規化されてない確率密度をエネルギーって言ってるだけだぞ。

365:デフォルトの名無しさん
22/01/16 02:32:25.93 0BwvrTRY0.net
それは失礼。より最悪やわ。
>>353-356誰も信じないから去れや。

366:デフォルトの名無しさん
22/01/16 09:43:00.35 OROfcgkB0.net
自由エネルギー原理てなに?

367:デフォルトの名無しさん
22/01/16 21:58:00.09 kwcp0Z900.net
自由エネルギー原理は、簡単にいうと「生物の知覚や学習、行動は自由エネルギーと呼ばれるコスト関数を最小化するように決まり、その結果生物は外界に適応できる」という理論です。
と下のサイトに書いてある
URLリンク(www.riken.jp)

368:デフォルトの名無しさん
22/01/16 22:15:42.15 T4qYoH6G0.net
経済学みたい

369:デフォルトの名無しさん
22/01/17 10:49:12.20 zjk81v8i0.net
ボルツマンマシンみたいなもの

370:デフォルトの名無しさん
22/01/20 15:25:19.44 dsetb5Ul0.net
お前らの誰かだろw
AI使いわいせつ動画を「モザイクなし」、ネット公開…男を著作権法違反で在宅起訴
URLリンク(www.yomiuri.co.jp)

371:デフォルトの名無しさん
22/01/21 03:11:23.15 A0wDd6Wv0.net
GANか

372:デフォルトの名無しさん
22/01/21 07:48:17.86 Gz0vCIiGa.net
Generative Asoko Networks

373:デフォルトの名無しさん
22/01/21 09:59:21.21 +mYnI3nw0.net
モザイク外してモロ映像ができてたんなら猥褻物陳列罪に問われそうなもんだが違うのか
公開するのにわざわざモザイクかけ直したってことはないよな?w
猥褻物とは認識できないほどクオリティ低かったか

374:デフォルトの名無しさん
22/01/21 10:28:32.81 r4Y+9SbuF.net
モザイク外したのではなくあくまで何らかの方法で生成した画像をモザイク部分に貼り付けただけだからな

375:デフォルトの名無しさん
22/01/21 11:10:51.29 a7B69/kD0.net
GANで顔のすげ替えみたいな昔のコラ画像はできるけど、やっぱ変な不自然さは残ってるね。微妙に視線がおかしかったり表情がほとんど変わらなかったりってなってる。
実用性はちと微妙

376:デフォルトの名無しさん
22/01/21 11:16:40.32 uBlVLxnd0.net
>>369
顔を変えるのはディープフェイクって言うので少し前に問題になってた
中国で作られてたと思う

377:デフォルトの名無しさん
22/01/21 14:40:28.34 y96NzjgJM.net
ディープフェイク出たときはこんなに簡単にうまく合成できるなんてと感心したっけ
陰影もそれなりについてるし

378:デフォルトの名無しさん
22/01/22 02:01:53.05 rtM4cQrL0.net
Kerasを使わない純粋なTensorflowを学ぶための参考書ってある?

379:デフォルトの名無しさん
22/01/22 03:47:59.38 yfbq4hUz0.net
>>372
公式ページで十分じゃないか?実際自分は自動微分付きCPU/GPU切り替え可能なテンソル計算ツールとして使ってるけど
公式ページと、謎のエラーはstackoverflowでこまってない。

380:デフォルトの名無しさん
22/01/22 16:18:55.66 5bKwicQg0.net
>>369
上手く出来てる奴は見分け付かないし、学習が足りんだけだと思う

381:デフォルトの名無しさん
22/01/22 19:30:35.71 60KCKgbr0.net
>>371
去年のSSIIでそれを見破る方法の
講演があったらしいが聞き逃した。orz
郡飛系のオブジェクト検出が一昨年。
これも聞き逃した。orz
※SSDとかYoloが苦手とする分野との事

382:デフォルトの名無しさん
22/01/23 00:56:32.18 YqyZ1Qs/0.net
眼を瞑っている学習データが少ないから
ディープフェイクは瞬きしないとか何とか

383:デフォルトの名無しさん
22/01/25 12:28:11.33 PE/3DhWgM.net
hnswて日本語で何て言うの?

384:デフォルトの名無しさん
22/01/25 16:10:19.93 PE/3DhWgM.net
URLリンク(ledge.ai)
この記事、間違ってる
修正すれば投稿していいと言われたのに、ゲブが修正せずに出せないんなら辞める、と啖呵を切ったら、ググルからじゃあどうぞと言われ、ググルから辞めることになった

385:デフォルトの名無しさん
22/01/31 00:22:16.22 4JdPr4k80.net
IIFES行ってるやついるか?

386:デフォルトの名無しさん
22/02/04 13:36:58.80 h5DsEeYg0.net
MoEてアンサンブルじゃないの?

387:デフォルトの名無しさん
22/02/13 01:04:28.48 IGUX1tkr0.net
Rの勉強初めて1ヶ月ですが楽しいです
仕事への活かし方を知りたいです

388:デフォルトの名無しさん
22/02/15 16:37:07.78 JLfyJXS3M.net
KL-divergenceってなんなの?

389:デフォルトの名無しさん
22/02/15 20:15:04.10 ZgEJA9aE0.net
>>382
URLリンク(ja.m.wikipedia.org)カルバック・ライブラー情報量
2つの分布が似ているかどうか
似ていると小さな値になる

390:デフォルトの名無しさん
22/02/15 20:28:22.06 JHJlgDKR0.net
分布のmetricだったのかthx

391:デフォルトの名無しさん
22/02/16 10:56:19.23 A7GVyGAt0.net
さすがにググレカス言いたくなるぞ

392:デフォルトの名無しさん
22/02/16 13:26:34.85 nSQkECn5M.net
Don't get on the chart

393:デフォルトの名無しさん
22/02/17 08:54:47.80 AsBd8CHT0.net
>>381
仕事で活かすならまずは社内のERPやCRMで得られるcsvファイルを加工する所から始めるといいと思う
時系列データの加工やtableの集約、簡単なクラスタ分析で傾向視覚化することに慣れて、そこから色々なライブラリの活用などを勉強して適用範囲を増やすといいのでは?
ネットにも色々と情報があるけど、個人的にはamazonのUse Rシリーズの本から興味のありそうな本を買って読んで使っている
当たり外れがあるけど、個人の趣味と仕事の実益を兼ねられるので悪くないと思っている
これで休日や移動時間の使い方もかなり変わったけど、コロナで余計な飲み会などがなくなってよかったかも

394:デフォルトの名無しさん
22/02/19 22:32:37.76 qf8G19DW0.net
>>387
ありがとうございます。
勉強するにはいい環境になりましたよね。
しかし、use R 高いですね!

395:デフォルトの名無しさん
22/02/20 18:59:22.79 JIYDVwQs0.net
転移学習てすごいとおもいました

396:デフォルトの名無しさん
22/02/20 19:20:15.07 9jCFrF3j0.net
>>388
確かに高いのでAmazonの関連書籍を探してみてもいいと思います
Packt社のRシリーズもコード付きで結構良かったと思います
日本語の書籍でも色々と出ていますね

397:デフォルトの名無しさん
22/02/21 00:01:27.48 BJPaf2drp.net
仮想通貨botterデビューしたいんだがどこから始めればいいのやら

398:デフォルトの名無しさん
22/02/21 00:01:49.58 BJPaf2drp.net
リッチマンさんの本も買って読んだんだが初心者には厳しい

399:デフォルトの名無しさん
22/02/21 04:18:03.59 qxYV5dXga.net
>>392
あれがわからないなら基礎が抜けてるから機械学習の勉強すべき
まず学習に使うアルゴリズムである勾配ブースティングを理解する(ぶっちゃけこれ以外は捨てて良い)
次に予測に使うための特徴量エンジニアリングの勉強
この2つをやればまずは基礎はクリアできるし
実際あの本でやってるのもこの2つを雑に説明しいるだけ
本質的な部分は全部隠されてるから自分でやるしかない

400:デフォルトの名無しさん
22/02/21 05:40:37.41 pVfu0NQOp.net
>>393
オススメの本かサイトありますか?

401:デフォルトの名無しさん
22/02/21 12:24:47.43 2NsewvNeM.net
リッチマンて誰?

402:デフォルトの名無しさん
22/02/21 13:26:31.45 UNQqZbc00.net
>>395
richmanbtc

403:デフォルトの名無しさん
22/02/21 16:51:47.61 nXH9Q7SEM.net
ファインチューニングも転移学習だよね?

404:デフォルトの名無しさん
22/02/21 19:19:44.00 qxYV5dXga.net
>>394
ないっす
とりあえずlightgbmを理解しな?
あの本でも使われてる
ほぼあらゆる回帰と分類はこのアルゴリズムによって精度が上がることがkaggleで実証されてる

405:デフォルトの名無しさん
22/02/25 21:52:09.08 jsx2tRykM.net
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な
ことはよーくわかったよ。
ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
クソチョンはウンコを食べる糞食人種w
クソチョンはゲリ便をじゅるじゅると
うまそうに食うw

406:デフォルトの名無しさん
22/02/26 17:09:49.03 Mo92dIkS0.net
100万クラスの物体認識てどう実装すればいいの?
mlpだけでメモリ不足になりそうなんだけど。。。

407:デフォルトの名無しさん
22/02/26 17:28:54.64 qwmlSYo70.net
そのくらいの多さだったら普通のクラシフィケーションはしない。
URLリンク(qiita.com)

408:デフォルトの名無しさん
22/02/26 17:40:32.48 ZKTTZM1Q0.net
>>400
Extreme classificationという研究分野があるけど、非実用的。
哺乳類>有袋類>カンガルー、的に段階的に認識する。

409:デフォルトの名無しさん
22/02/26 18:02:08.45 Mo92dIkS0.net
>>401
>>402
ありがとう!
調べてみるよ


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch