【統計分析】機械学習・データマイニング29at TECH
【統計分析】機械学習・データマイニング29 - 暇つぶし2ch700:デフォルトの名無しさん
20/11/25 21:25:57.99 O1ilEC9M0.net
andrew NG って何て読むの?
あんどりゅーング?

701:デフォルトの名無しさん
20/11/26 02:38:20.36 Mmt4YbmHd.net
>>679
アンデュリュー・ンー
広東語名:呉恩達(ンー・ヤンダーッ)

702:デフォルトの名無しさん
20/11/26 02:45:47.10 Wj01rjaZa.net
完全自動運転が達成されると
駐車料金というのは意味を失うな
必要になるまでその辺を周回しておいてもらえればいい
本当に必要がない期間は山奥のただみたいにところで
待機していればいいだけ
そのうちキャンピングカーかなんかに住んで
都心に出勤とかもあり得るぞ

703:デフォルトの名無しさん
20/11/26 03:26:38.93 zfE2uUJ10.net
>>680
ありがと😆💕✨

704:デフォルトの名無しさん
20/11/26 07:31:47.70 zyTAEVOK0.net
>>681
>キャンピングカーかなんかに住んで都心に出勤
お外国には、トレーラーハウス民なるものが既におってな

705:デフォルトの名無しさん
20/11/26 10:04:51.72 FO9R/r+V0.net
それならキャンピングカー内でテレワークしてるわ
その頃には会議システムもかなり洗練されてそうだし

706:デフォルトの名無しさん
20/11/26 23:01:45.25 eK3OO9Dp0.net
周回させてたらエネルギーが無駄になる
使わない時間は他の移動する人に貸すとかした方が良いような気がする

707:デフォルトの名無しさん
20/11/27 04:27:50.89 xDfe/kwS0.net
>>657
それも障害かもね
ただ、技術に遅れながらもいずれ法律はできると思うよ
自動車があまりなかった頃は、間違えて人を死なせたら、即、過失致死罪だった(旧過失論)。今はやるべきことをやっていたら(道交法を守ってたら)無罪。

708:デフォルトの名無しさん
20/11/27 21:13:49.40 w6B6rDs30.net
レベル5の自動運転は中国あたりが最初に始めそうとか言ってみるテスト

709:デフォルトの名無しさん
20/11/28 04:18:51.23 S+oyzKEU0.net
為替を機械学習のパターン認識で読み解くって現実的になんだろうか?

710:デフォルトの名無しさん
20/11/28 07:40:39.91 rBElMU7k0.net
勾配ブースティングで500個くらいの特徴量でやってみたけど、回帰予測は相当難しい。

711:デフォルトの名無しさん
20/11/28 07:41:21.44 rBElMU7k0.net
分類は罠があって、レンジが多いから正答率5割超えたりして勘違いする。

712:デフォルトの名無しさん
20/11/28 09:39:37.24 3tbNjNyE0.net
要するにちゃんと仮説検定しましょうってことだろ?
·回帰係数が0ではないかを検定する
·クロスバリデーション等で測った回収率の信頼区間をブートストラップ法で出す
前者はよく知られているが線形モデルなど限られたモデルでしか出来ないと思う
後者は俺以外でやっている人見たことないから合ってるはか知らん
いずれにしても検定や信頼区間を出すとき、普通はサンプルに独立同分布を仮定するから為替でこの手法が使えるか微妙だな
で、為替が予測出来るかどうかだが、株価予測は難しそうな事が数年前の雑誌のインタビュー記事に書いていたような気がするな
雑誌はニュートンだったような気がするが、新しい別冊ニュートンにもそこら辺の事が書いてそうだから読んでみたらどうだ?
株が無理なら為替も難しいだろ
個人的には株価の指標や為替なんかは難しいと思っているが、個別銘柄ならワンチャンあると思ってる
ただし、衛星画像とか使って駐車場監視したりすることになりそうだが
他レスにもある通り、金を稼ぎたいなら為替予測とかよりも周りの人が応援したくなるような人物になる方が簡単だと思う
それより未来のロボットの話がしたい

713:デフォルトの名無しさん
20/11/28 11:11:35.26 fPPxxv4k0.net
AIとか衰退するよ。
人間の手や目や感覚には敵わない!
さっさとプログラムやめなw

714:デフォルトの名無しさん
20/11/28 11:13:51.89 fPPxxv4k0.net
実質プログラムより
機械、電気専門の知識ある人が職にあふれてない。
それと同じ。

715:デフォルトの名無しさん
20/11/28 11:17:53.08 GJFumd+W0.net
もっと言って

716:デフォルトの名無しさん
20/11/28 11:28:01.40 VVEB45RjM.net
AIとプログラミングは似てるようで違うぞな。PGがみんなAIやってる訳じゃなくて、上のレイヤーみたいな感じ。
職を失うならまずAIの足元のIT系からだね

717:デフォルトの名無しさん
20/11/28 11:33:53.32 ezBOCWkZa.net
>>692
人類vs AIの世界観なのか…
如何にも「AIに仕事が奪われる!」を信じる単純作業者って感じ
AIより先にただの機械に奪われる心配した方が良い

718:デフォルトの名無しさん
20/11/28 12:40:18.23 5SI2XaNkH.net
コードも言語モデルで生成されるようになってきてるけどどこまで実用化されんだろ

719:デフォルトの名無しさん
20/11/28 13:01:08.28 8gxXoCLY0.net
AIは手段だからより良い代替手段に変わるだけ

720:デフォルトの名無しさん
20/11/28 13:20:45.49 7FjoUubxd.net
他に専門領域があって、それを活かすのに機械学習を使うって感じがいいよ
新しいアルゴリズム作って、一からスクラッチで組む人以外はね。

721:デフォルトの名無しさん
20/11/28 13:59:21.22 RzE2yYhG0.net
>>695
AIマンはいなくてもただちには困らないから、不況になったら先に切られると思うよ。
足元のIT系はシステム維持のために必要。

722:デフォルトの名無しさん
20/11/28 14:10:58.16 U4EL1tUy0.net
将来の人類の仕事が
AIのためにデータにアノテーション
するだけになってる可能性もある

723:デフォルトの名無しさん
20/11/28 14:31:58.20 VVEB45RjM.net
AIマンの首切り過ぎて、学習の調整が出来なくなるってあるあるになりそうだな

724:デフォルトの名無しさん
20/11/28 14:35:00.75 OrQvXWRha.net
>>691
為替の予測は無理だ
ランダムウォークだからな

725:デフォルトの名無しさん
20/11/28 21:04:53.26 5SI2XaNkH.net
>>700
AIがもっと普及したらAIもシステムの一部になるだろうけど、まだ少し先だろうね

726:デフォルトの名無しさん
20/11/28 21:30:03.46 F78FLJhN0.net
言語界隈の機械学習は詐欺師しかおらんだろ。
翻訳以外まともな成果はない。

727:デフォルトの名無しさん
20/11/29 13:44:02.47 QEnfVVzF0.net
>>705
スパムメールの判別とかは成果だろう
言語関係っていうのがどの範囲かで変わるけど

728:デフォルトの名無しさん
20/11/29 15:01:11.54 1Wj8sYs40.net
検索や推薦でも機械学習の成果は上がってるだろう?

729:デフォルトの名無しさん
20/11/29 15:12:04.25 K/45yHy90.net
詐欺ってどういうの?
URLリンク(self.software)
URLリンク(robomind.co.jp)

730:デフォルトの名無しさん
20/11/29 15:37:07.56 zIEaziiOF.net
>>706
あれ、言語分析というよりかは宛先だったり添付物のパターン分析だろ。
言語生成とかほんま詐欺レベルだわ。
あれでサービスレベルでチャットボット作れるとかに釣られたバカがどれだけ失敗してるかを
統計的に発表する方がよっぽど価値あるんじゃないか?

731:デフォルトの名無しさん
20/11/29 17:54:44.34 DetaCV8K0.net
AutoMLのZEROの方って開発者が人口少ないんだな

732:デフォルトの名無しさん
20/11/29 18:18:29.34 ywoXyXFi0.net
>>710
オイヨイヨーwww
機械翻訳でもしたのかw

733:デフォルトの名無しさん
20/11/29 20:30:59.92 QEnfVVzF0.net
>>709
単語とかを分析している
もう少しするとNTTが詐欺電話かどうか判別するサービスを始める
音声認識と機械学習の組み合わせ

734:デフォルトの名無しさん
20/11/29 21:10:17.90 tTYihsqx0.net
んなもん金の話し始めたらとりあえずアラート出すとかその程度にしかならんよw
まともに使えるまであと20年くらいかかるだろうし、それくらい不貞腐れず研究続ける気概がなきゃ無理だわ。

735:デフォルトの名無しさん
20/11/29 21:17:39.35 FQzRCdnt0.net
「金の話になったらアラート」でも目的は十分達成できると思うけど

736:デフォルトの名無しさん
20/11/29 21:59:17.16 BWyz86Bja.net
スパムメールって定型化しているから
学習以前の問題な気がする

737:デフォルトの名無しさん
20/11/29 22:58:05.90 tdhcJpb4M.net
スパムフィルタは20年以上前からあるぞ。

738:デフォルトの名無しさん
20/11/30 17:12:30.50 3zMsY+5NM.net
CoNLLって何て読むの?
こんる?

739:デフォルトの名無しさん
20/11/30 20:20:59.30 syrGV+XJ0.net
>>717
こぬる

740:デフォルトの名無しさん
20/11/30 20:22:20.33 syrGV+XJ0.net
>>713
20年もかからんじゃろJK

741:デフォルトの名無しさん
20/11/30 21:22:59.84 7RBrvl8X0.net
>>718
ありがと

742:デフォルトの名無しさん
20/12/01 12:11:16.12 lyH/PImN0.net
The SIGNLL Conference on Computational Natural Language Learning

743:デフォルトの名無しさん
20/12/02 14:53:29.44 0wpcerdMM.net
最近、日本人研究者が実装を公開してくれるようになったので
楽になった

744:デフォルトの名無しさん
20/12/02 16:33:14.57 tEaA3sXx0.net
kwsk

745:デフォルトの名無しさん
20/12/04 11:39:21.56 J43e5p8Nr.net
Python3.5終了か
来年には3.6も終わりなのかなあ
安定してて良かったけど、ここらで終わりか
3.7以降で色んなものを作り直さないとなあ

746:デフォルトの名無しさん
20/12/04 11:45:05.25 7Sa82tMP0.net
宝くじ仮説ってなあに?
知識蒸留が可能という主張の根拠 ってだけ?

747:デフォルトの名無しさん
20/12/04 12


748::35:02.30 ID:DJR+errf0.net



749:デフォルトの名無しさん
20/12/04 12:37:18.46 3ndxcvzea.net
>>725
URLリンク(twitter.com)
(deleted an unsolicited ad)

750:デフォルトの名無しさん
20/12/04 12:48:37.81 9zYIGyo10.net
機械学習マンって格好いい名前つけるの好きだよね

751:デフォルトの名無しさん
20/12/04 14:02:23.76 7Sa82tMP0.net
夢あるサイエンティストはみんなそうじゃない?(笑)

752:デフォルトの名無しさん
20/12/04 14:41:28.36 SZHiYYJnr.net
†次元の呪い†

753:デフォルトの名無しさん
20/12/04 15:06:54.45 PbCZfSmqa.net
英語の頭文字を格好良くするためによく分からない正式名称が出来上がっちゃうことはよくある

754:デフォルトの名無しさん
20/12/04 15:10:07.97 DJR+errf0.net
次はELが来る

755:デフォルトの名無しさん
20/12/04 17:02:50.45 ILawwEiJM.net
>>724
環境作り直すだけやん
副業で手伝うよ

756:デフォルトの名無しさん
20/12/04 21:47:56.72 FlqLHte20.net
>>21
ど定番だけど、ゼロから作るdeeplearning読むと良いよ

757:デフォルトの名無しさん
20/12/04 22:12:12.33 44WVE0fn0.net
ディープラーニング以外の機械学習の手法って勉強する意味ありますか?

758:デフォルトの名無しさん
20/12/04 22:16:19.43 JK1xaT4n0.net
あるよ

759:デフォルトの名無しさん
20/12/04 22:28:47.47 DO1guVvJd.net
>>735
あるよ
タスクによって機械学習の方が得意なものもあるからね

760:デフォルトの名無しさん
20/12/05 00:18:21.09 0d//vfaK0.net
あるけど現代技術では根拠を示すことはできない

761:デフォルトの名無しさん
20/12/05 01:42:16.66 nKex6N910.net
>>735
仕事だと
「なんでneural networkを使ったんですか? 他のモデルと比較しなかったんですか?」
っていう質問が飛んでくるよ

762:デフォルトの名無しさん
20/12/05 12:32:24.72 Na39OKS50.net
「慶應卒の学歴なんていらない」10代起業で成功する子の共通点
URLリンク(news.infoseek.co.jp)
学生起業家が開発、「人を軸に本を探すアプリ」とは?読書通じて「考える力」養って
URLリンク(newswitch.jp)
島田商高生がアプリ考案、発表 ICT起業家育成プログラム
URLリンク(www.at-s.com)
医師コンビが「治療用アプリ」で起業、禁煙に続き高血圧治療アプリを開発
URLリンク(diamond.jp)
好きが高じて“カレー起業”、キャッシュレス決済アプリ「TOKYO MIX CURRY」の挑戦
URLリンク(diamond.jp)
【アプリ開発で起業】必要な心得とマネタイズ方法のすべて
URLリンク(www.dreamgate.gr.jp)
起業で成功するキャリア形成の仕方とは? 元プロサッカー選手で起業家の鈴木啓祐氏に聞いた
URLリンク(sogyotecho.jp)
年収3,000万超え!?個人開発で儲かっている海外コミュニティサイト5選!
URLリンク(note.com)

763:デフォルトの名無しさん
20/12/05 12:32:48.78 Na39OKS50.net
大学生起業家が設立1年で20億円調達! 単発バイトアプリに外食企業など出資【タイミー】
URLリンク(foodfun.jp)
誰でもカンタンにオンラインサロン・情報配信ができ�


764:髟ヨ利アプリ【TOUKU(トーク)】が登場 https://prtimes.jp/main/html/rd/p/000000001.000061569.html ミャンマー発 AIダイニングアプリ「Yathar」をしかける日本人起業家 https://roboteer-tokyo.com/archives/14840 自分の視野は「世の中の0.001%」と自覚せよ。ビジネスチャンスを掴む4つの習慣 https://headlines.yahoo.co.jp/hl?a=20200511-00010001-srnijugo-life アプリの視聴率がわかる 高専卒起業家の独創力 https://www.nikkei.com/article/DGXMZO46695580Y9A620C1000000/ 1万人の若者を支援!インターンが日本を変えるかも!? glowshipの若き創業者・足立卓也氏インタビュー https://sogyotecho.jp/glowship-adachi-interview/ まだ22歳の学生社長が得た、23億円の「使い道」 あの橋本環奈をCMに使うバイトアプリの雄 https://toyokeizai.net/articles/-/319511



765:デフォルトの名無しさん
20/12/05 12:33:20.10 Na39OKS50.net
「ブラック企業社員」のお助けアプリが誕生 開発したのは22歳金髪大学生、開発のきっかけとは?
URLリンク(news.yahoo.co.jp)
レシート買い取りアプリONEの17歳起業家、サービス一時停止から「怒涛の3カ月」で気づいたこと
URLリンク(www.businessinsider.jp)
ビジネス版マッチングアプリ「yenta(イェンタ)」全国展開 開始!
URLリンク(prtimes.jp)
ギフティング「TANP」運営がGCPほかから5億円調達
1日1200件の「リアルギフト」送付も可能に、U25起業家の新たな挑戦
URLリンク(thebridge.jp)
人はこうすれば“ハマる”、源流はゲーマー視点の「幸せ」
URLリンク(project.nikkeibp.co.jp)
アプリ開発での起業は難しくない!成功するために覚えておくべきこと
URLリンク(www.biz.ne.jp)
【稼ぎ方が知りたい!】アプリの開発の収入って実際どれくらい?
URLリンク(itpropartners.com)
ネット関連事業で起業した成功例8選!ネットで成功するには○○が重要!?
URLリンク(www.official.or.jp)

766:デフォルトの名無しさん
20/12/05 17:08:44.89 kNJCAVo/a.net
起業しても失敗する確率の方が高いんじゃないかな

767:デフォルトの名無しさん
20/12/05 17:09:35.69 2CGyf7zj0.net
マルチコピペに反応しちゃだめだお

768:デフォルトの名無しさん
20/12/05 22:18:33.26 EDQnU4Qy0.net
>>743
日本はジジババ社会で新しいものに移行する気がないからな
これからは、、こうしなければならない、変更していかなければならないってことで
どんどん移行して行くのは海外の話しで
日本は多数派の高齢者が良ければそれでいいので
流行りものに手を出してもブームが過ぎれば価値が無いものになる可能性が高い
ITの仕事と言ってもクラウドワークスみたいな会社が仕事をバラバラに砕いて
駄菓子屋でお菓子を売るような値段で末端に売り場いて終わりそう
1/10の単価でやりますとか言って
そんなI


769:T土方になるぐらいならジジババに受け入れられているリアル土方になった方がいい 日本の場合は 若い子に勉強させ無駄に新しいことをさせようとするが 多数派はそれを受け入れないで現状維持に徹する



770:デフォルトの名無しさん
20/12/06 04:16:10.73 0QNPGss6r.net
y=α+βx+εの線形回帰で、最小二乗法で推定量αハットとβハットを求めて、それぞれの期待値を計算すると思いますが、どの確率分布で期待値をとるのでしょうか?

771:デフォルトの名無しさん
20/12/06 05:45:04.89 4FTkCBl+M.net
>>735
割り当ての実験が出来ない場合の因果推論ではパラメトリックモデルが主流

772:デフォルトの名無しさん
20/12/06 08:50:03.43 Xe0eSxQ/0.net
>>746
正規分布

773:デフォルトの名無しさん
20/12/06 08:51:54.49 3Mg1tJ4o0.net
ベルヌーイ分布

774:デフォルトの名無しさん
20/12/06 11:37:15.62 soxd67i8a.net
>>746
ベイズ推定でα・βに何か確率分布を仮定するならともかく、普通の線形回帰で最小二乗法でα・βを決めるという話なら
α・βは何か決まった値がありそれを探すだけなので確率変数ですらないのでそもそもα・βの期待値を計算することなどない
ベイズ的でない最小二乗法ではεだけが確率変数でそれを正規分布と仮定している

775:デフォルトの名無しさん
20/12/06 12:57:43.40 IFrNRKVs0.net
最小二乗法と最尤推定法
URLリンク(support.minitab.com)

776:デフォルトの名無しさん
20/12/06 15:10:59.18 5Q0wgkp20.net
>>750
理解してないんだったら書き込まない方がいい

777:デフォルトの名無しさん
20/12/06 15:20:36.42 u9kukm0H0.net
バックプロパゲーションについて質問です.
これは結局のところ,与えられた多変数関数のある点での偏導関数の値を求めるのに,素朴な方法よりも計算量が少なくて済む方法ということで間違っていないでしょうか?
日本語のディープラーニングの入門書を見ても,偏導関数の値のバックプロパゲーションによる計算方法だけ載っていて,計算量についての考察がないものばかりのような気がします.

778:デフォルトの名無しさん
20/12/06 15:24:12.01 IFrNRKVs0.net
750の表現も間違いではないように思うけどな
正規分布で最尤推定した時と結果が等しくなることもあると思う
確率変数ではないから信頼区間とか検定とかはできないんだろうし

779:デフォルトの名無しさん
20/12/06 15:27:36.98 IFrNRKVs0.net
>>753
誤差を逆伝搬する事で学習するというアルゴリズムだから偏微分はその過程で必要なだけで計算量を減らす目的ではないと思う
計算量は素子数とかデータ数とかによるのかな?

780:デフォルトの名無しさん
20/12/06 15:34:16.59 5Q0wgkp20.net
>>754
理解してないんだったら書き込まない方がいいよ

781:デフォルトの名無しさん
20/12/06 16:24:23.25 jgMLA0Dn0.net
滑らかな関数なら数値計算した方がいいに決まってるだろう、度勘違い

782:デフォルトの名無しさん
20/12/06 16:39:20.46 soxd67i8a.net
>>752
どこが間違っているのか分からんので教えて

783:デフォルトの名無しさん
20/12/06 19:00:06.21 IFrNRKVs0.net
微分するのは評価関数を最小化する、最適化するため
評価関数の値が小さくなる方向にに重みを更新する

784:デフォルトの名無しさん
20/12/06 20:28:21.98 8X+3nqvD0.net
>>753
素朴な方法って総当たり法のことかな?
バックプロパゲーションで学習ができることは理論的裏付けがなくて単なる経験則らしい
条件によって収束までのステップ数はえらく変わるし、そもそも収束する保証もないので
見積りもできないのだろう

785:デフォルトの名無しさん
20/12/06 20:35:30.68 19ceK5s6d.net
746です。
とりあえず�


786:ソ=0とした場合、 平均が(βx_1, ... , βx_n)、共分散行列が(σ^2)I_nとなる適当な確率分布でやれば全てうまくいきそうです。 ありがとうございました。



787:デフォルトの名無しさん
20/12/06 21:13:36.24 sTMJqw3/0.net
そんなもんでうまくいくわけないだろ

788:デフォルトの名無しさん
20/12/06 21:33:14.20 goV+sQHPr.net
>>762
仮説検定とかをするなら流石に正規分布まで仮定しないとうまくいかないですが、
βハットが最良線形不偏推定量であることやσ^2の推定までは全てうまくいってしまってます。
間違ってるんですかね?

789:デフォルトの名無しさん
20/12/06 21:37:03.88 +8xXEz990.net
推定量の次元がα、βの2次元なのに
>平均が(βx_1, ... , βx_n)、共分散行列が(σ^2)I_nとなる適当な確率分布でやれば全てうまくいきそうです。
とか言っている時点で間違っていると気づくべき

790:デフォルトの名無しさん
20/12/06 21:37:16.47 Xe0eSxQ/0.net
えー(笑)

791:デフォルトの名無しさん
20/12/06 21:41:38.03 IFrNRKVs0.net
回帰式はn個って事なのか?
α、βってスカラーじゃないのか
データ数はいくつあるのかな?

792:デフォルトの名無しさん
20/12/06 21:47:49.35 goV+sQHPr.net
>>764
推定量がyに関して2次以下ならこの仮定だけで計算できませんか?
>>766
nがサンプル数でβ∈Rを想定していますが、特に変更なくm変数でも議論できる気がしています。

793:デフォルトの名無しさん
20/12/06 21:53:18.02 IFrNRKVs0.net
平均が(βx_1,,,)って何?

794:デフォルトの名無しさん
20/12/06 21:55:08.75 +8xXEz990.net
>推定量がyに関して2次以下ならこの仮定だけで計算できませんか?
意味不明
>nがサンプル数でβ∈Rを想定していますが、特に変更なくm変数でも議論できる気がしています。
これも意味不明だが、回帰分析において推定したいパラメータの次元は
2でも一般のmでも(サンプルサイズを下回っている限りは)特に議論は変わらない

というか、こんなの学部生レベルのお話なんだからこんなところで聞かなくても
ググれば計算過程込みでいくらでも出てくるだろ…
答えだけ書けば(仮定にもよるが標準的な仮定の下では)
\hat{α}, \hat{β}は不偏推定量になる

795:デフォルトの名無しさん
20/12/06 21:58:03.70 goV+sQHPr.net
>>768
R^n上の確率分布pで、
平均μ=E_p[x]=(βかけるx_1,...,βかけるx_n)で、
分散共分散行列がn×n行列で対角線上にσ^2が並んだものを想定しています。
例えば正規分布などはこれに当てはまると思います。

796:デフォルトの名無しさん
20/12/06 22:01:55.24 u9kukm0H0.net
岡谷貴之の本のバックプロパゲーションの説明が一番わかり易いようです.

797:デフォルトの名無しさん
20/12/06 22:04:28.76 IFrNRKVs0.net
n次元ベクトルでデータ数はn?
データ足りないような
最小二乗法ならn次元ベクトルは確率変数じゃなくても良いんじゃないの?
回帰式がn個あるのと実質同じじゃないのかな?

798:デフォルトの名無しさん
20/12/06 22:10:30.75 goV+sQHPr.net
>>772
推定しようとしている傾きβはスカラーですよ?

799:デフォルトの名無しさん
20/12/06 22:18:21.61 qwI8u5MK0.net
>>770
何の平均が?
主語が足りない

800:デフォルトの名無しさん
20/12/06 22:23:26.26 jgMLA0Dn0.net
俺俺

801:デフォルトの名無しさん
20/12/06 22:28:19.17 goV+sQHPr.net
>>774
確率分布pの平均です。
μ=E_p[x]でちゃんと明示したつもりでした。

802:デフォルトの名無しさん
20/12/06 22:31:39.99 qwI8u5MK0.net
その確率分布pに従うのはなに?それを聞いてるんだが

803:デフォルトの名無しさん
20/12/06 22:32:43.51 E6YSEnmp0.net
例えば、株価予測にCNNを使う場合、畳み込みのカーネルはどんなの用意すればええんや?

804:デフォルトの名無しさん
20/12/06 22:32:59.63 qwI8u5MK0.net
ん?μ=E_p[x]ってことは説明変数の期待値がμだって言いたいの?

805:デフォルトの名無しさん
20/12/06 22:34:23.05 goV+sQHPr.net
>>777
(Y_1, ... , Y_n) ~ pです。

806:デフォルトの名無しさん
20/12/06 22:36:01.56 goV+sQHPr.net
>>779
あ、ごめんなさい。
E_p[y]ですね。ここでy=(y_1,...,y_n)∈R^nです。

807:デフォルトの名無しさん
20/12/06 22:41:05.48 qwI8u5MK0.net
yの平均値ならαを足さないとだめでしょ
それとも定数項なしのモデルでも考えたいの?

808:デフォルトの名無しさん
20/12/06 22:43:41.40 goV+sQHPr.net
>>782
簡単のために定数項なしのモデルで考えています。
761で言及したのでずっとそのつもりでした。

809:デフォルトの名無しさん
20/12/06 23:02:45.31 8X+3nqvD0.net
>>778
転移学習したいってこと?
別にカーネルも自分で学習させればいいと思うけど

810:デフォルトの名無しさん
20/12/07 12:44:07.26 n2wcT9Ah0.net
みなさん,ありがとうございました.
岡谷の本を見ていますが,やはり,バックプロパゲーションは偏導関数のある点での値をより速く求める方法にすぎないということのようですね.
そしてその偏導関数の値を勾配降下法で利用するということですね.
ディープラーニングというのは結局の所,あるタイプの最小化したい誤差関数を一つ定め,それを勾配降下法でできる限り小さくする手法ということのようですね.
最適化の一分野ということですね.

811:デフォルトの名無しさん
20/12/07 12:48:00.49 n2wcT9Ah0.net
パラメーターで変化する誤差関数のテストデータに対する値をパラメーターを変化させて,できる限り小さくするというだけのことのようですね.
夢も何もないただの最適化法の一分野ですね.

812:デフォルトの名無しさん
20/12/07 12:58:43.69 IRFWetkha.net
昔はそれが出来なかったんやで

813:デフォルトの名無しさん
20/12/07 13:21:17.07 hKQAJJ360.net
当たり前の事をw
最近はバックグラウンドまで教えないのかな

814:デフォルトの名無しさん
20/12/07 13:47:12.12 IRFWetkha.net
夢でもなんでもないことを組み合わせたら精度が人間並になる場合があり、こいつらの得意分野は任せちゃっていいかもな。って感じだっしょ

815:デフォルトの名無しさん
20/12/07 13:49:29.21 n2wcT9Ah0.net
URLリンク(www.youtube.com)
Strang教授のこのビデオ講義シリーズを見た人はいませんか?
なんか非常に簡単なことでつっかえて,結局何も示せずに,簡単だから自分でやってくださいとかいう場面が多すぎます.

816:デフォルトの名無しさん
20/12/07 13:53:25.11 BAhcRg/D0.net
ID:n2wcT9Ah0は馬鹿アスペという荒らしなのでスルーしてね

817:デフォルトの名無しさん
20/12/07 19:29:51.63 HAgX6+pQ0.net
最適化も局所最適解でしかないかもしれない
大極的な最適解かどうかは組合せ爆発して解けない事が多い

818:デフォルトの名無しさん
20/12/08 20:56:04.92 4EYeOh4b0.net
技術的にフルバッチで最適化できてたら汎化性能が出なかったわけで、deep learningが最適化というと
なんか違う気はする。

819:デフォルトの名無しさん
20/12/08 22:45:24.29 WiM29EDw0.net
それってノーフリーランチ定理と関係ある?

820:デフォルトの名無しさん
20/12/09 15:22:39.17 4uClczgm0.net
ノーブリーフは気持ちがいい

821:デフォルトの名無しさん
20/12/09 17:41:00.51 kJMhAlw60.net
「Waymo」の自動運転車に60回以上乗って分かったその安全性とは?
URLリンク(gigazine.net)
「Waymo」の完全自動運転は評価いいみたいだぞ

822:デフォルトの名無しさん
20/12/09 19:08:22.67 +JEohQBS0.net
>>793
評価関数を最適化するって事で
学習データに対して最適化すると
過学習して汎化性能が悪い事になる
学習データと運用データの差があるのが問題の1つ
実運用データを完全網羅して学習したら過学習にはならないんじゃないかと思う

823:デフォルトの名無しさん
20/12/09 19:12:58.69 O9/kA4vd0.net
>>796
慎重すぎるって批判されてるやん

824:デフォルトの名無しさん
20/12/09 19:19:54.28 kJMhAlw60.net
Ars Technicaはこの点について、「歩行者がいる場面では、Waymoは慎重すぎます。人間のドライバーであれば、
間違いなくもっと速く動けるでしょう。しかし、このことでWaymoを責めるのは困難です。人をはねる危険を冒すくらいなら、
多少待たされた方がはるかにマシですから」とコメントしました。
不満はあれど批判できないってところだろうな

825:デフォルトの名無しさん
20/12/09 20:15:28.61 EU/X14pa0.net
パナソニックがこんなのを始めるらしいが、人込みでは遠隔手動操作なんだな。。。
URLリンク(news.yahoo.co.jp)

826:デフォルトの名無しさん
20/12/09 21:13:02.28 O9/kA4vd0.net
まあこういう実証実験を積み重ねていけばいつかはものになるだろ

827:デフォルトの名無しさん
20/12/09 21:47:02.66 4uClczgm0.net
どこでもやってる

828:デフォルトの名無しさん
20/12/09 23:05:26.02 kJMhAlw60.net
日本は装置内のハードやソフトだけで成り立たせて製品単体として売るぐらいだろう
「危ないところは人が見てくださいね」っていう仕様で
IT云々と絡めたり、別のサービスと絡むようなことはないだろう
日本が出来るのは
製品単体をマニアック仕様にして高く売りつけることぐらいで
車内のカメラも踏まえ、、、いろんなデータをいち早く収集し
売上に繋げて行くんだろうな

829:デフォルトの名無しさん
20/12/10 11:21:32.39 +ZlzWDd90.net
Transformer-based Double-token Bidirectional Autoregressive Decodingin Neural Machine Translation
URLリンク(www.aclweb.org)
精度を上げるつもりでL2RとR2Lを組み込んだんだろうけど
精度を下げてて草
しょうもなくて「速度が~」に方針転換しててさらに草

830:デフォルトの名無しさん
20/12/10 16:34:54.00 7nBpTtaz0.net
茨木俊秀著『AI時代の離散数学』に以下の記述があります.
「ディープラーニングがいろいろな分野で成功を収めているのは,多層NNは,複雑でありながら柔軟な構造をもっているので,全体的な最適解でなくても,
品質の高い局所最適解が多数存在するため,最急降下法によってそれらへ至る経路を見出しやすいからではないかと考えられる.」
確かにそうなのではないかと思わざるを得ないのですが,「品質の高い局所最適解が多数存在する」ことについての研究はあるのでしょうか?

831:デフォルトの名無しさん
20/12/10 16:36:55.29 7nBpTtaz0.net
損失関数のグラフが一般にどういう形状をしているのかについての研究はないのでしょうか?

832:デフォルトの名無しさん
20/12/10 17:05:54.60 /Tdm9YCRa.net
一般にかあ。それは大変な研究になりそう

833:デフォルトの名無しさん
20/12/10 17:33:01.48 sa6E7lY5a.net
>>806
Visualizing the Loss Landscape of Neural Nets
URLリンク(arxiv.org)

834:デフォルトの名無しさん
20/12/10 19:01:42.77 +ZlzWDd90.net
問題やパラメータによって形状は変わるんじゃないの?
一般的な議論をするのって難しくない?

835:デフォルトの名無しさん
20/12/10 19:07:23.07 7nBpTtaz0.net
>>808
ありがとうございます.
>>809
たとえば,f(x) = a*x^2 + b*x + cという関数のグラフは(a≠0であれば)パラメータによらず放物線です.

836:デフォルトの名無しさん
20/12/10 19:11:38.70 7nBpTtaz0.net
ところで,ディープラーニングでは,ニューラルネットワークを使って,誤差関数を決めます.
誤差関数を全く別の考え方で決めてやるともっと性能の良い人工知能ができないかと考えて研究している人はいるのでしょうか?

837:デフォルトの名無しさん
20/12/10 19:17:10.67 /Tdm9YCRa.net
誤差関数ってネットワークそのもの?

838:デフォルトの名無しさん
20/12/10 19:19:51.95 +ZlzWDd90.net
>>811
調べてみたら?
いそうな気がする

839:デフォルトの名無しさん
20/12/10 19:34:03.65 qJWGxKCt0.net
目的関数が異なるモデル同士は性能を比較できないんじゃない?
目的関数の他に最適性の指標となる評価関数があるなら別だけど。

840:デフォルトの名無しさん
20/12/10 20:12:15.89 4I880zB/0.net
>>811
具体例を出せなくて申し訳ないが、誤差を補正して過学習を防ぐ正則化手法には
いろんな研究分野があるらしい
いま過学習に悩まされてて調べてみようかなと思ってたところ

841:デフォルトの名無しさん
20/12/10 20:53:11.62 7nBpTtaz0.net
>>812
どういうことでしょうか?
>>813-815
ありがとうございました.

岡谷貴之著『深層学習』を読んでいるのですが,確率的勾配降下法についての素朴な質問です.
Nは全訓練サンプルの数です.
E(w) = Σ_{n=1}^{N} E_n(w)
確率的勾配降下法では,極端な場合,サンプル1つだけを使ってパラメータの更新を行うと書いてあります.
たとえば,n=1のサンプルを使って,wを更新したとします.
このとき,E_1(w)の値は,(学習係数の値が十分小さければ,)少し小さくなりますが,他のnについてのE_n(w)の値は逆に増えてしまい,
トータルの誤差E(w)は増えてしまうということになる恐れはないのでしょうか?
岡谷の本にはそのことについて全く触れていません.

842:デフォルトの名無しさん
20/12/10 20:54:09.43 Zy+JpGE80.net
Courseraを勉強して自慢していた馬鹿アスペ

843:デフォルトの名無しさん
20/12/10 21:00:00.66 7nBpTtaz0.net
バッチ学習をした後で,テストデータに対して,誤差関数の値が本当に小さくなるのかというのと似たような問題かもしれませんね.

844:デフォルトの名無しさん
20/12/10 21:12:09.60 4I880zB/0.net
>>816
> トータルの誤差E(w)は増えてしまうということになる恐れはないのでしょうか?
普通にあるよ
増えたり減ったりしながら徐々に正解に近づいていくイメージ
振動するおかげで極小解から脱出できるチャンスが増える

845:デフォルトの名無しさん
20/12/10 21:15:25.35 7nBpTtaz0.net
>>819
確率的勾配降下法によって,極小値を与えるwにかならず近づいていくということは証明できるのでしょうか?
勾配降下法では,学習係数が十分小さければ,単調に誤差が減少していき,最終的に,極小値を与えるwに近づいていくことは自明ですが.

846:デフォルトの名無しさん
20/12/10 21:27:23.48 3MNDS+Jy0.net
>>814
最終的な性能は正解率とか指標があるでしょう

847:デフォルトの名無しさん
20/12/10 21:30:19.62 3MNDS+Jy0.net
>>811
教師信号、正解と出力の差、距離の計算方法を変えたら評価関数、誤差関数は違うものになるだろう
ただそれで学習時間や性能にどんな影響があるかは自分は判らない

848:デフォルトの名無しさん
20/12/10 21:40:43.82 4I880zB/0.net
>>820
確率的勾配降下でも、学習率εが十分に小さければ近づく、とされてるね
証明もされてるんだとは思うけど、どこ見ればいいとかは俺はわからない
ところで、欲しいのは極小解じゃなくて大域的最適解だよね?
極小値でよければ最急降下法が一番収束が速い
1サンプルずつ学習する確率的…は極小値にはまらない可能性は高いけど重すぎる
バランスを取ったのがバッチ学習

849:デフォルトの名無しさん
20/12/10 21:40:45.06 3MNDS+Jy0.net
>>816
自分で実験してみるのが1つの方法
初期化後に全データで評価値を計算して
簡単なNNを作ってデータ1つで重みを更新してから
全データで評価値を再計算する
多分増える事もあると思うけどデータを変えて重みを更新していく事で徐々に出力と正解の誤差が小さくなっていくと思う
同じ出力をする入力は同じニューロンが発火して
別の出力をする入力はそれと違うニューロンが発火するよつな感じに学習が進んでいくのかな

850:デフォルトの名無しさん
20/12/10 21:45:21.96 3MNDS+Jy0.net
>>820
勾配降下法は深層学習に限らず研究されているんじゃないかと思う
そっち方面で局所的最適値を得られる条件とか判ってるかもしれない
凸関数とかそんなのが条件になっていたりするかも

851:デフォルトの名無しさん
20/12/10 22:51:59.08 3MNDS+Jy0.net
思い出した
鞍点とかあるとそこで止まるとかあったような

852:デフォルトの名無しさん
20/12/10 23:37:19.21 feZOjJB+0.net
正しいけれど全く意味のない話というやつだな。

853:デフォルトの名無しさん
20/12/11 09:59:56.91 YXM/kAxOp.net
意味があるかは解釈によっても変わる
道具が同じでも上手く使える人とそうではない人がいる
既存の技術を上手く使って問題解決できた人もいるからな

854:デフォルトの名無しさん
20/12/11 10:40:32.12 Fdk3ZWWm0.net
馬鹿アスペの相手してる5902-LBAIだろ

855:デフォルトの名無しさん
20/12/11 11:31:24.82 SUhg1yPU0.net
みなさん,ありがとうございました.
いろいろな日本語のディープラーニングの本を見てみましたが,確率的勾配降下法がなぜうまくいのかについての説明は全くありませんでした.

856:デフォルトの名無しさん
20/12/11 11:34:06.26 SUhg1yPU0.net
まるで,うまくいくのが自明であるかのような扱いです.
確率的勾配降下法に限らず,この分野は常にこのような感じですよね.

857:デフォルトの名無しさん
20/12/11 12:05:23.95 Fdk3ZWWm0.net
1355-orE1は馬鹿アスペなのでスルーよろしく

858:デフォルトの名無しさん
20/12/11 12:12:51.28 vXWM25Of0.net
わかんないことがあれば自分で調べればいいのにね(笑)

859:デフォルトの名無しさん
20/12/11 12:31:18.86 Fdk3ZWWm0.net
馬鹿アスペは岡山県なんだ

860:デフォルトの名無しさん
20/12/11 12:57:31.82 P9V8rC1yr.net
>>830
この辺の理論が解明され始めたのは去年頃からだから、まだ本にはなってないよ
知りたければ論文読むかslideshareを探すといい

861:デフォルトの名無しさん
20/12/11 13:21:05.48 Wsx93R0l0.net
馬鹿と決めつけるより具体的に反論した方が生産的な気もする

862:デフォルトの名無しさん
20/12/11 14:21:14.42 keBMi+cGa.net
深層学習じゃない機械学習では誤差が小さくなる事とか条件とか証明されていると思うけどな
深層学習もそれからの類推か包含しているかじゃないか?

863:デフォルトの名無しさん
20/12/11 14:24:14.84 76SqqmH2a.net
>>831
発表されていないけど考えられる限りの
それ以外の方法を
多数の人が試していて
性能が出ないので発表されていないだけ
技術の分野ではよくあるんだよな
それを知らないと時間を大きく損する

864:デフォルトの名無しさん
20/12/11 14:59:05.47 Fdk3ZWWm0.net
荒らしに反論するのが生産的w、2ch素人かよ

865:デフォルトの名無しさん
20/12/11 15:07:06.98 XbH1RnBla.net
暇な数学者が冷やかしに来たようだ

866:デフォルトの名無しさん
20/12/11 15:58:16.06 Fdk3ZWWm0.net
数学者?何処にいるの?

867:デフォルトの名無しさん
20/12/11 16:05:14.18 XbH1RnBla.net
数学徒にしとく

868:デフォルトの名無しさん
20/12/11 16:18:38.39 Wsx93R0l0.net
荒らしってほどでもないような…
判らないのであれば、判らないと答えればいい。
それか参考になりそうな論文を紹介するとかね。

869:デフォルトの名無しさん
20/12/11 16:23:08.91 Fdk3ZWWm0.net
ぷ板にあげるよ、遊んであげてw

870:デフォルトの名無しさん
20/12/11 17:08:46.05 Fdk3ZWWm0.net
それから馬鹿アスぺはアルゴリズムの本を読んでいてプログラムの才能はないとぷ板の住人にで言われてる

871:デフォルトの名無しさん
20/12/11 20:04:32.76 BgeuQOWca.net
>>837
深層学習を従来の理論に当てはめると過学習しまくって使い物にならんはず
だが実際学習できて性能も良い
この差は既存の理論では最適化(勾配降下法)のダイナミクスが考慮されていないから
最適化までを考慮して統計理論に結びつける研究が近年進んでいる

872:デフォルトの名無しさん
20/12/11 20:20:07.66 5sai34i/0.net
最適化関連の過去の研究結果が何一つ活用できない?
数学的にある値、例えば誤差がある範囲に入る確率とか、の上限が示されていたりする事は活用できるだろう

873:デフォルトの名無しさん
20/12/11 20:21:49.67 5sai34i/0.net
他の機械学習に勾配降下と同等の操作をしていないと言うのは何故そう思う?

874:デフォルトの名無しさん
20/12/11 20:32:43.52 BgeuQOWca.net
していないなんて言ってないよ。考慮されていないと言っただけ
従来はそれで多いな問題はなかったが、深層学習ではパラメーター空間が広大になり最適化法それ自体の制約としての側面が目立つようになった

875:デフォルトの名無しさん
20/12/11 20:36:27.83 BgeuQOWca.net
URLリンク(ibis.t.u-tokyo.ac.jp)
最近の深層学習理論が纏め�


876:轤黷トいる 読むと良い



877:デフォルトの名無しさん
20/12/11 20:40:10.09 BgeuQOWca.net
URLリンク(ibis.t.u-tokyo.ac.jp)

878:デフォルトの名無しさん
20/12/11 20:46:05.84 OnRhFRT3M.net
> お前は毎朝起きるたびに俺に負けたことを思い出すよ^^
あー、ホンッとに思い出すなあ(笑)
キチガイの嘘つきの低レベルFランの、
朝鮮ゴキブリBot君は、
チョン独特の「なにもできないけど俺のほうがジャップより偉い!」的な ことはよーくわかったよ。 ホントなにもできない朝鮮ゴキブリBot君!
クソチョンw
Pythonさえろくにできないバカチョンのくせに
できるとほざくクソチョンw
日本で強姦と窃盗を繰り返す
犯罪者在日のクソチョンw

879:デフォルトの名無しさん
20/12/12 10:33:01.32 4+CF+8cud.net
>>850
とてもためになりました。ありがとう。

880:デフォルトの名無しさん
20/12/12 13:35:25.09 9H+yvdp50.net
偉い人(゚∀゚ 三 ゚∀゚)来てた
この資料いい

881:デフォルトの名無しさん
20/12/12 13:53:24.93 D9gFLJkJ0.net
850, 851のpdfを読むと
層の横幅Mが広い(素子数が多い)と大域的最適解を得られるっぽいけど
どのくらいの素子数なのか実現可能な数なのかはよくわからなかったな
その素子数を計算で求めることができるのかも
P20に初期化は1/Mって書いてあるけど、横幅Mを計算するλminが何か書いてないような
wの初期化するN(0,I)のIも何か判らない
NTKで調べたら出てくるのか?
逆温度βもどんな値になるのか、変化するのかも判らないな
非凸性→深層学習
その他→他の機械学習(ランダムフォレストとか)
が適しているって感じ?

882:デフォルトの名無しさん
20/12/12 13:53:44.49 qFkF8Df00.net
勾配降下法の意味は理解できましたが、使う意味がよく分からないです。
初めから勾配ベクトルが零ベクトルになるように偏微分の連立方程式解いて
その解を損失関数に代入したものの中から最小のものを選べば済むんじゃないですか?
そうすれば局所最適解に陥ることも避けられますし

883:デフォルトの名無しさん
20/12/12 14:05:36.18 9H+yvdp50.net
わかんない😭💦💦

884:デフォルトの名無しさん
20/12/12 14:07:28.60 lSvR9P/Gr.net
>>856
数千万次元の非線形連立方程式が解けるのならね

885:デフォルトの名無しさん
20/12/12 14:23:15.47 FBvDYARoM.net
高校生なのかな。。

886:デフォルトの名無しさん
20/12/12 15:03:16.60 uoFruwVO0.net
損失関数の導関数が4次方程式までなら頑張れば解析的に解ける希ガスとか言ってるテスト

887:デフォルトの名無しさん
20/12/12 15:52:55.84 qFkF8Df00.net
次元(変数の数?)が膨大な上に、偏微分で得られた導関数が5次以上になると
代数的に解くことができなくなるからってことなんですね
勉強になりました、ありがとうございます

888:デフォルトの名無しさん
20/12/12 16:15:01.19 cW0yBRdh0.net
意味がねーw

889:デフォルトの名無しさん
20/12/12 16:29:51.26 Qgp/l0qJ0.net
>>861
計算量の問題もあるが、それだけじゃないんだぜ
学習データだけで最適解を求めてしまうと過学習に陥りやすくなる
いろいろ制約つけて、学習を途中で止めた方が汎化性能が高くなる
アーリーストップとかで調べてみるといいよ

890:デフォルトの名無しさん
20/12/12 17:27:15.16 9H+yvdp50.net
解析的に求められないってことを知った上での発言かと思ってた

891:デフォルトの名無しさん
20/12/12 19:10:37.14 cvY7SZ8Va.net
極端な話n次元ならn次方程式を用意すれば
サンプルを完全にトレースできる
でもそれだと過学習
一つ別のデータに出会ったとたん破綻する

892:デフォルトの名無しさん
20/12/12 19:25:51.39 D9gFLJkJ0.net
非線形だから簡単じゃないんだろう
わざわざより高次元空間に写して線形判別しないと上手く�


893:「かない



894:デフォルトの名無しさん
20/12/12 19:30:18.23 D9gFLJkJ0.net
>>865
それは違う気がするな
重みやパラメータをデータから決めただけで
モデルの出力が学習に使用したデータから少しずれたら判別でしなくなるのとは違う
例えば2値判別する時に2点のデータからその中間で判別する境界線を学習したら
データの2点から少しズレても正しく判別できる

895:デフォルトの名無しさん
20/12/13 15:04:12.55 QUI91bME0.net
>>864
多分「解析的に求められない」の意味もわかってないと思われる。

896:デフォルトの名無しさん
20/12/13 17:00:04.31 tqYTVUHS0.net
>>867
同じグループに判別されるデータが飛び飛びではなくて連続しているという前提が成り立つ空間ではそうなるけど
少しズレたら別のグループに判別される様な空間では複雑な境界線になるだろうな

897:デフォルトの名無しさん
20/12/13 17:57:39.41 25RZkjwia.net
>>869
それを解消するために座標変換するんじゃないのか?

898:デフォルトの名無しさん
20/12/13 18:03:07.74 DA9wJKZga.net
その通り
飛び飛びかどうかなど自分で勝手に決めた空間での話に過ぎない

899:デフォルトの名無しさん
20/12/13 19:15:07.22 tqYTVUHS0.net
>>870
それは判っているけど
具体的にどんな変換をしたら良いかはどうやって見つける?

900:デフォルトの名無しさん
20/12/13 21:11:16.73 25RZkjwia.net
>>872
片っ端から試してみる

901:デフォルトの名無しさん
20/12/13 21:42:26.60 tqYTVUHS0.net
試したものより良いものがあるかもしれない
試したものが良くないものばかりの場合は幾ら試しても大して改善しない

902:デフォルトの名無しさん
20/12/13 21:52:06.68 PRaoFZ6s0.net


903:デフォルトの名無しさん
20/12/14 00:23:44.30 ZA1fGlD1a.net
>>874
そもそも真の分布などが分からないものを扱うために分析者の判断で何らかの近似をするのが機械学習を含む統計的分析なので「その方法よりいい方法があるかもしれない」は常に発生する問題

904:デフォルトの名無しさん
20/12/14 00:50:35.50 Uxl3N8rs0.net
>>876
必要な次元とか空間の特徴とか計算料を少なくする条件とか
判る事がゼロなのかどうかで違ってくるだろう

905:デフォルトの名無しさん
20/12/14 11:04:36.51 oqEGCmVFM.net
アルゴリズムにも人権を与えて
自動運転でミスったりしたら
減点すればいい
運転免許もアルゴリズムに与えて
失敗したアルゴリズムには免許与えない
アルゴリズムが得た給料を
損害時の補償に使う
人を殺したらそのアルゴリズムを死刑つまり廃止する

906:デフォルトの名無しさん
20/12/14 11:59:16.54 hG9yFSana.net
そして機械学習は禁止され、技術の発展は止まりましたとさ

907:デフォルトの名無しさん
20/12/14 12:02:43.92 hG9yFSana.net
問題が発生したとき思考停止で禁止にして表面的に解決した事にするのはよくないよ

908:デフォルトの名無しさん
20/12/14 12:05:47.51 UL+KPlxuM.net
タチコマみたいにクローン沢山作って同期させて、問題が起きたらその手前まで巻き戻せばいいんじゃね。知らんけど

909:デフォルトの名無しさん
20/12/14 14:16:48.97 mBCs7faG0.net
ぼーくらはみんなーいーきているー♪

910:デフォルトの名無しさん
20/12/14 14:45:36.70 oqEGCmVFM.net
富士通が次元の呪いを解決していたとは知らなかった(笑)

911:デフォルトの名無しさん
20/12/14 15:59:36.18 eKlmCy2P0.net
メビウスの帯

912:デフォルトの名無しさん
20/12/14 19:55:52.98 x73SwTqZ0.net
>>878
人と違ってアルゴリズムが厳密に同じか違うかは判定できなないだろ

913:デフォルトの名無しさん
20/12/14 20:26:26.89 Uxl3N8rs0.net
会社がそのアルゴリズムを採用する
会社は損失を負うリスクを回避するようになる
つまり良くないアルゴリズムは淘汰されていく

914:デフォルトの名無しさん
20/12/14 20:27:33.96 RKD6T7Qa0.net
初期値で大分変わるじゃん

915:デフォルトの名無しさん
20/12/14 20:41:14.50 x73SwTqZ0.net
企業はそのリスクを背負う気はないようだが?

916:デフォルトの名無しさん
20/12/14 21:07:07.90 RKD6T7Qa0.net
さあね
わからないだろ

917:デフォルトの名無しさん
20/12/14 23:00:30.31 zMVEQPEWH.net
これどう思う?
URLリンク(twitter.com)
AI研究者はひどい。
(deleted an unsolicited ad)

918:デフォルトの名無しさん
20/12/14 23:29:54.38 RKD6T7Qa0.net
最近解雇されたGoogle の AI 研究者はヒドイjsw
黒人で女だから差別されたって言えば最強、誰も何も言えなくなるのを利用した卑怯者
正義面して、ポリコレがいきすぎてる

919:デフォルトの名無しさん
20/12/15 06:12:32.08 Tkipkp+V0.net
奇怪学習

920:デフォルトの名無しさん
20/12/15 11:20:26.15 +XiYuWE0M.net
仲間内の揉め事って感じだよね。他の失業者も沢山いるんやが

921:デフォルトの名無しさん
20/12/15 19:44:22.58 DgOkpJ7c0.net
>>891
ハイハイ、逆張り俺すげー言いたいのはよくわかったよ。
こういう馬鹿がトランプ支持してんだろうね。

922:デフォルトの名無しさん
20/12/15 20:43:52.56 +7r3AYVf0.net
逆張りってどういうこと

923:デフォルトの名無しさん
20/12/15 21:00:46.70 cZJnynS70.net
敵対的生成ネットワークを実世界で
展開する俺すげー
かな?

924:デフォルトの名無しさん
20/12/15 22:32:21.93 EFJMX327a.net
敵対するだけして何も生成せん

925:デフォルトの名無しさん
20/12/15 22:54:29.21 DgOkpJ7c0.net
いや普通に差別されて訴えてるだけだろ。それを裏がある(ドヤ)とかやってるから馬鹿だと言ってる。

926:デフォルトの名無しさん
20/12/16 00:18:34.82 5+uASLd0a.net
URLリンク(ic4-a.wowma.net)

927:デフォルトの名無しさん
20/12/16 15:42:13.61 Y9gDOksI0.net
>>898
残念な人だなぁ

928:デフォルトの名無しさん
20/12/16 19:13:38.18 3ThseEil0.net
ネットで話題になるっていうことは
そういうことだろう
糞みたいな動画をいろんなSNSに貼りつけ
煽ったり叩いたり擁護する奴が現れ書き込みが増えて行き
同時期にスタートした同じテーマの質の良い動画をうpしている
youtuberより3桁、4桁上の視聴数を稼ぐことになっていた
人気の動画っていうのも
そういうことだろう
炎上してネットで話題になった案件でも
そこで何回も投稿している奴は数人しかいない

929:デフォルトの名無しさん
20/12/17 00:42:55.37 X4tT/GwL0.net
>>900
普通にピチャイが謝罪してるんだが。。やっぱトランプ脳やな。。
URLリンク(thebridge.jp)

930:デフォルトの名無しさん
20/12/17 18:33:27.73 t0+hLX1Aa.net
画像認識でロス0まで学習を行っても教師画像を数枚誤認識するんですけどなんでですか?

931:デフォルトの名無しさん
20/12/17 19:03:27.64 JXtU/ezP0.net
ロスを計算するときに前データを使っていないから?

932:デフォルトの名無しさん
20/12/17 19:04:04.34 JXtU/ezP0.net
前データ→全データに訂正

933:デフォルトの名無しさん
20/12/21 11:57:35.55 ti5XkJR+M.net
「AI」に納税の義務はあるのか? 「汎用人工知能」(AGI)が議論に一石
URLリンク(techtarget.itmedia.co.jp)

934:デフォルトの名無しさん
20/12/21 21:38:36.11 +SAQjiFw0.net
Appleも自分の所で車作ってるんだな
ウォルマートが2021年から完全無人の自動運転トラック配送をスタートするし
日本の自動車業界と配送業者の終焉も近そうだけど

935:デフォルトの名無しさん
20/12/21 21:52:09.49 mi7JHDt40.net
全ての国道を自動運転対応にする公共事業をやればいい

936:デフォルトの名無しさん
20/12/21 22:38:50.40 +SAQjiFw0.net
2021年9月にApple Carを発売する見込み、、、らしい
倒産寸前から時価総額1兆ドルになったアップルがここまで成長した理由に
ジョブズの改革を上げてたけど
損益計算書を持つ独立した事業単位を持つことを廃止したとか
マネジメントしかできない管理職を解雇し、企業が作る製品の「専門家」が管理職に投入されることになったとか
日本の技術系企業の創業者とか発明、開発した人が社長になる時代の方式に近そうだけど
組織がある程度の規模になった時にやってくる
「僕ちゃんが数値を良くしてあげますよ」的な怪しい奴等は
その場凌ぎの増強剤で逃げ切るばかりで
糞の役にも立たないってことをジョブズは見抜いていたな
上も下も中間も片っ端から首をはねたらしいからな
時計もパソコンもスマホも車もAppleの時代になるんだな

937:デフォルトの名無しさん
20/12/21 22:53:13.36 bkHld8Ff0.net
Windowsパソコンのほうがシェアは高いのに,コンピュータサイエンティストとかが講義で使っているパソコンがほぼ必ずと言っていいほど,Appleのパソコンなのはなぜでしょうか?

938:デフォルトの名無しさん
20/12/21 23:05:38.48 McahQZSYM.net
>>910
画面が綺麗なのと、ターミナルでシェルが使えるからじゃね。知らんけど

939:デフォルトの名無しさん
20/12/21 23:47:37.95 XP0/uvDJ0.net
Mac を使っている香具師は、情弱w
Linux を知らないから、BSD のMacを使う
プロは、Windows 10 Home 版でさえ、WSL2 で、Ubuntu 18.04 などの、Linuxを使う。
Windows10 Home用のDocker も入れる。
それには、Kubernetes も入っている
Linux, Docker, AWS が基幹技術。
それと、シェルスクリプト・Ruby が出来れば、環境構築できる
Docker Compose ? はあ?
もう、Kubernetesが入っているけどw
こういう話についていけない香具師が、Macを買うw
結局、いつまで経っても、Linux API を学ばないから、単なるプログラマーにしかならない

940:デフォルトの名無しさん
20/12/22 08:12:20.46 hq0fof4K0.net
Linux板でアンチLinuxやってるやつか。

941:デフォルトの名無しさん
20/12/22 09:11:01.85 3Pvjd8F+r.net
CUDAを使えるGPUが入っているPCはWindowsかLinuxだよなあ
MacだとAMDだけだから深層学習に限ればやりにくい

942:デフォルトの名無しさん
20/12/22 09:34:02.32 20HVZ6BN0.net
Macの新しいM1チップは2.6 TFLOPSでTensorFlowも使えるらしい。趣味程度なら使えるかな?
長時間学習するなら専用サーバーかクラウドだろうね。

943:デフォルトの名無しさん
20/12/22 10:02:16.62 ahMnlHSdM.net
たかがプラットフォームにどうして勝ち負けを挑む人が居るのか...

944:デフォルトの名無しさん
20/12/22 10:19:45.59 hq0fof4K0.net
ム板住人じゃないからだと思います。

945:デフォルトの名無しさん
20/12/22 11:38:02.54 ahMnlHSdM.net
実務で役立つ機械学習講座、らしいぞURLリンク(startlab.jp)

946:デフォルトの名無しさん
20/12/22 17:54:43.06 ahMnlHSdM.net
データセットに黒人が少ないから認識率が悪かった、という当たり前の事実を報告しただけでなんでai倫理の権威になれたのか、というと
報告者が黒人だったからなんだよな

947:デフォルトの名無しさん
20/12/22 19:06:33.51 Wy6Wx73da.net
仮想化したらwindowsでもlinuxとか使える

948:デフォルトの名無しさん
20/12/22 20:18:29.55 PFh/rGOza.net
>>919
当たり前である事と明白であることは違う
考えてみりゃ当たり前のことでも今まで注目されていなかった部分に光を当てるのは普通に価値があると思うが…

949:デフォルトの名無しさん
20/12/22 21:54:05.72 20HVZ6BN0.net
多項分布で昔からある問題な気がするけど…

950:デフォルトの名無しさん
20/12/22 22:21:47.64 ey2nZXP20.net
黒人がゴリラに誤認識されたからって
アルゴリズムが差別を助長してるわけでもない
ただデータセットが偏っていただけ
なのに差別だと騒ぐ
差別を探して差別を作り出してる

951:デフォルトの名無しさん
20/12/23 10:47:36.39 N7pBFvyuM.net
360度カメラで囲んで顔写真撮って、データセット作ってるらしいからそのうち直るんかね

952:デフォルトの名無しさん
20/12/23 11:58:53.12 ferfOnI80.net
360度取るってどういうことだろう

953:デフォルトの名無しさん
20/12/23 12:11:08.03 N7pBFvyuM.net
球状の部屋の壁面がカメラだらけだった

954:デフォルトの名無しさん
20/12/24 09:22:45.46 m3l7kE+M0.net
>>891
Googleはまだましだけど、ビックテックはポリコレの巣窟
それがイヤで転職してくるエンジニアも居るから、人材独占にならずに良いんだろうけど

955:デフォルトの名無しさん
20/12/24 17:27:48.54 d/eLw9o10.net
reluを発表した人って誰?

956:デフォルトの名無しさん
20/12/24 18:25:09.77 mtJMxFiEM.net
G検定の質問かな。。。

957:デフォルトの名無しさん
20/12/24 18:48:13.52 8ovCMeU20.net
そーゆうときはなんでもヒントンいうとけばええねん

958:デフォルトの名無しさん
20/12/24 21:59:16.60 uwItIY/n0.net
マカロビッツ

959:デフォルトの名無しさん
20/12/25 13:03:17.54 AbN0Rg6cM.net
もしかして諸説あるの?

960:デフォルトの名無しさん
20/12/25 21:36:42.23 6UL1AyDg0.net
DeepMind、ルールを教えなくても「パックマン」などでハイスコアを出せるAIシステム「MuZero」
URLリンク(www.itmedia.co.jp)

961:デフォルトの名無しさん
20/12/25 22:03:53.69 CdhZ17n+0.net
EM法とGPとMCMCとALSの違い教えてください

962:デフォルトの名無しさん
20/12/27 20:57:58.83 sH9shL9g0.net
ヒントンさんが成果出して当時の日本人研究者の人が全く成果出してないのはなぜなんだろう

963:デフォルトの名無しさん
20/12/27 22:08:34.70 9YeoYAZC0.net
日本の頭いい研究者って数式の展開は得意だけど独創性がないよね

964:デフォルトの名無しさん
20/12/28 02:45:12.16 rrvXNu2C0.net
当時ニューラルネットの研究者は
ローカルミニマムに陥る現象を論理的に解決できないって言って逃げたらしいけど
活性化関数やミニバッチやドロップアウトみたいな工夫だけで攻略できたのにな
まあそれでも十数年かかった訳だけど

965:デフォルトの名無しさん
20/12/28 02:56:37.56 a0rdQCw00.net
>>937
答えを知ってから色々言ってもなぁ
他の分野でも同じ
GAFAみたいにならなかったとか
まだ未解決の問題はあるからそれを解いたら良い

966:デフォルトの名無しさん
20/12/28 07:28:21.69 9k3STeuT0.net
ノードの 性質を理解したらああいう工夫はできたよね
上っ面でしか理解してないのかも
ヒントンはホント優れた研究者
ニューラルネットワークはブラックボックスだって言って説明責任を逃げてるけど本当は説明できるのかもね

967:デフォルトの名無しさん
20/12/28 08:08:43.03 c


968:0NQDGaN0.net



969:デフォルトの名無しさん
20/12/28 08:12:28.08 1wnarVmc0.net
実際の性能出すまでの準備は相当なもんだろ。
image net 作るだけでも大作業だっての。
SGDが奇跡的に汎化性能向上に寄与したのもやってみてなんぼの感覚があったからで理論的裏付けが何かあったわけでもない。
てか今もその研究は終わってない。

970:デフォルトの名無しさん
20/12/28 08:12:51.68 PO0U1a5ra.net
>>937
僕らがローカルミニマムに陥ってないと思えるのは
究極的には量子力学的な背景があるからなのかな
>>939
今は機能として自分たちの外に
見てるから説明が欲しいけど
人間と同じレベルのロボットが作れて
人間と見分けがつかなくなった時に、
それでもできる事に説明を求めるようになるのかな。
できない事に説明を求めるのは
なんとなく理解するけど。

971:デフォルトの名無しさん
20/12/28 10:08:57.82 2q4yKp7fr.net
アノテーションアプリのVottだが
半年前までは「10日くらいアセットにアクセスしないでいると読み込めなくなる」
って状態だったので
少なくとも近日中に再編集する必要のあるものは毎日開いて見るようにしていた
原因をWebで検索しても分からなかった
ところで今になって、最近開いてなかったものを読み込んでみたらちゃんと読み込めた
何か改善されたのかなあ
自分もNode.jsとelectronを勉強してVottのオレオレ版でも
作ろうと思ってたのだがw
bounding boxじゃなくて完全輪郭検出があるものも出てきたが
データセットのありかが全部中国だな

972:デフォルトの名無しさん
20/12/28 10:33:39.61 VBaYUn1Q0.net
ヒントン教

973:デフォルトの名無しさん
20/12/28 10:34:51.24 VBaYUn1Q0.net
コンピュターの処理能力があがったため、これは前回のNNブームでも同じ

974:デフォルトの名無しさん
20/12/28 13:07:32.68 Hm4faklxM.net
普段から、強力な計算機に触ってないと思いつかない。なんてありそう

975:デフォルトの名無しさん
20/12/28 14:27:21.03 NpM6F5+U0.net
なぜ伸びないのか、なぜ成長しないのか
それは金を掛けないからに決まっている
問題というか失敗というか
これからドンドン落ちてく要因となったのは
経営者とか政治家とか文系分野でTOPに居た
おっさん爺さん勢のせいだと言い切って間違いないだろう

976:デフォルトの名無しさん
20/12/28 16:15:05.05 FDm12T9+M.net
>>942
説明してほしくなるのは
人間のレベルがaiより低いからだと思う
将棋でも人間には意味不明でもよくよく調べたらその手に意味があったということがあるし

977:デフォルトの名無しさん
20/12/28 16:24:00.96 poDyQwaqa.net
政治家のせい経営者のせいとか文句言うだけ言って自身はそいつらより効果的な施策を実行するのかと思いきや何もしないのが一番無能

978:デフォルトの名無しさん
20/12/28 16:46:52.13 FB7zPy6/a.net
>>942
>>850, 851
のpdfにある方法で初期化するとその近くに大局的最小値があるとか書いてあったと思う
凸関数とかノード数無限大とか何かしら条件があったかもしれないけど

979:デフォルトの名無しさん
20/12/28 16:48:16.38 FB7zPy6/a.net
人間に任せるのだって人間の脳の処理は完全に解明されていないけど人間だからって理由で任せているけどね

980:デフォルトの名無しさん
20/12/28 18:05:42.03 1wnarVmc0.net
>>949
今の自民党は何もしないよりも酷いがな。

981:デフォルトの名無しさん
20/12/28 18:11:48.52 FDm12T9+M.net
>>951
ホントそれ!

982:デフォルトの名無しさん
20/12/28 18:15:49.06 VBaYUn1Q0.net
>>952
お前は投票に行ってるの?

983:デフォルトの名無しさん
20/12/29 00:19:51.47 +jeJmMuS0.net
>>954



984:�回当たり前のように行ってるがなんでそんな質問されるのか意味わからん。



985:デフォルトの名無しさん
20/12/29 01:15:16.95 cXtEgpHJ0.net
>>955
ミンス党に投票してんの?

986:デフォルトの名無しさん
20/12/29 01:33:58.76 +jeJmMuS0.net
そう。もしくは共産党。

987:デフォルトの名無しさん
20/12/29 09:37:37.52 Laqyoby50.net
>>948
人間の方が圧倒的にレベル高いだろ
割り当ての実験をしなくても因果が推論できるんだから
1000年後もAI は人間の足元にも及んでいないと思う

988:デフォルトの名無しさん
20/12/29 10:50:33.58 cXtEgpHJ0.net
>>957
共産党政権になったら幹部になれるの、それとも粛清される方?

989:デフォルトの名無しさん
20/12/29 10:56:48.59 KZ40JkhR0.net
>>958
相関だけで勝手に因果関係があると思い込んだりもするけどな

990:デフォルトの名無しさん
20/12/29 13:00:21.49 Laqyoby50.net
>>960
コミュ障の俺にレスしても会話盛り上がらんよ( ;´・ω・`)
>>831
「トピックモデルによる統計的潜在意味解析」の3章と付録A.7に確率的勾配降下法の導出と証明が載っている
その本によると収束の保証は優マルチンゲール収束定理とか言うのを使うらしい

991:デフォルトの名無しさん
20/12/30 11:55:20.78 aZKMHpWT0.net
samなんてものが出てきたのね

992:デフォルトの名無しさん
20/12/30 21:44:39.19 UcJhBP9/0.net
>>959
思考停止乙

993:デフォルトの名無しさん
20/12/30 21:45:55.21 bGUeeHBA0.net
>>963
じゃ、お花畑

994:デフォルトの名無しさん
20/12/30 22:35:54.66 olxuh5fb0.net
>>961
下の本の証明が気になって立ち読みしてみたけどさっぱりわからんかった
これ作者も理解してないと思う

995:デフォルトの名無しさん
20/12/30 23:27:58.21 UcJhBP9/0.net
いるんだよな。。既存権威マンセーしとけば問題ないと思ってる馬鹿

996:デフォルトの名無しさん
20/12/31 00:01:01.00 1R4A4jfU0.net
いるんだよね、理想を夢見る馬鹿

997:デフォルトの名無しさん
20/12/31 00:10:45.35 1R4A4jfU0.net
スターリンとか毛沢東が何をやったか知らないのw

998:デフォルトの名無しさん
20/12/31 01:36:44.69 RQX13kAN0.net
自然に優しいポル・ポトさんとか

999:デフォルトの名無しさん
20/12/31 03:57:09.00 yjU88aX9r.net
豚の臓物撒き散らしたりだとか

1000:デフォルトの名無しさん
20/12/31 08:15:08.79 qz50oshj0.net
五毛はこんなところにわいてくるのか
deepmindに日本人ていた?

1001:デフォルトの名無しさん
20/12/31 15:45:24.22 2PSJfs3yM.net
CNNで画像分類の研究してるのですが
最近の画像分類でデファクトスタンダードでよく使われてるネットワークってどんな奴があるんですかね?
自分はVGGとResNet18くらいしか使ったことがないんですが、これ結構ネットワーク古いので最新のを使うと精度が向上したりしますかね?

1002:デフォルトの名無しさん
20/12/31 16:32:51.90 qz50oshj0.net
しない

1003:デフォルトの名無しさん
20/12/31 16:47:03.58 Z0qCWxx20.net
おれくらいになるとyoloで自宅周りの不審者監視システム作っちゃうね

1004:デフォルトの名無しさん
20/12/31 17:06:24.28 RQX13kAN0.net
凄いなぁqiitaで是非公開してください。
おながいします

1005:デフォルトの名無しさん
20/12/31 18:09:03.50 iHpKHOex0.net
>>972
ぶっちゃけほとんど変わらんと思う
与えるデータが全て

1006:デフォルトの名無しさん
20/12/31 19:09:59.32 7TAzUNyr0.net
最新の奴ってだいたいシステムが巨大

1007:デフォルトの名無しさん
20/12/31 20:33:15.63 Q+IjXkEZ0.net
1つのシステムだけで結果を得なくてもいいんじゃね?
アンサンブルで目的をより良く達成できるならそれで良いと思う

1008:デフォルトの名無しさん
20/12/31 22:05:33.52 YBJ6moDvr.net
>>972
ResNeXt, EfficientNet

1009:デフォルトの名無しさん
21/01/01 00:01:1


1010:1.81 ID:lHW7Aey+0.net



1011:デフォルトの名無しさん
21/01/01 07:31:03.14 7JduV3AM0.net
今年こそ、数学を本格的に勉強する

1012:デフォルトの名無しさん
21/01/01 07:35:58.88 XAH5lCN+0.net
次スレは?

1013:デフォルトの名無しさん
21/01/01 09:09:58.97 a+OQlEaa0.net
>>982
しかたないな
いってくる

1014:デフォルトの名無しさん
21/01/01 09:11:28.52 a+OQlEaa0.net
たてれたあげ
【統計分析】機械学習・データマイニング30
スレリンク(tech板)

1015:デフォルトの名無しさん
21/01/01 09:16:38.96 3Cyk3fUO0.net
>>984

VOC2012の23番目のクラスになれますように

1016:デフォルトの名無しさん
21/01/01 19:13:45.54 XAH5lCN+0.net
中国「千人計画」に日本人研究者44人を 確認
辻井某もこれなの?

1017:デフォルトの名無しさん
21/01/02 11:45:41.35 QsP+Nlmq0.net
ゴミウリ新聞たまには良いことするな

1018:デフォルトの名無しさん
21/01/02 17:14:12.89 xQ0r9XW70.net
>>986
全員処刑でいいだろ
金に目が眩んだ小童の末路として相応しい

1019:デフォルトの名無しさん
21/01/03 10:07:28.11 gZkRI3Tza.net
別にどこの国のために働こうが他人がとやかく言うことではない
向こうの方が報酬や研究環境がいいのなら日本も報酬・研究環境の向上で対抗すればいいだけのこと

1020:デフォルトの名無しさん
21/01/03 10:50:00.50 79HNSnGB0.net
糞リベラル

1021:デフォルトの名無しさん
21/01/03 11:04:09.19 +623nbHXr.net
まあ実際研究者をヘッドハンティングしたい奴等からしたら日本の研究者はチョロいだろうな

1022:デフォルトの名無しさん
21/01/03 11:12:34.20 79HNSnGB0.net
頭が緩い、蛸壺主義

1023:デフォルトの名無しさん
21/01/03 11:41:35.24 fMJHYCWra.net
研究者の目的は研究であってお国への貢献ではないのだから出資元がどこの国だろうとよりよい研究環境が得られるならそっちに移るのは自然なことだろう
なぜそんなことに驚いているのか理解に苦しむ

1024:
21/01/03 11:47:05.26 kQWmTPdF0.net
>>993
そうそう、スポンサーされて悔しいのなら、自分がスポンサーになればいいと思いますね

1025:デフォルトの名無しさん
21/01/03 11:51:17.85 79HNSnGB0.net
売国奴

1026:デフォルトの名無しさん
21/01/03 11:53:03.03 79HNSnGB0.net
北朝鮮、パキスタン、イラン、ロシア、シナに雇われて嬉々として働く()

1027:デフォルトの名無しさん
21/01/03 12:03:03.47 +623nbHXr.net
何か嫌な思い出でも?

1028:デフォルトの名無しさん
21/01/03 15:09:32.82 4SOUuS1z0.net
科研費貰ってたら国のためだよね??(笑)

1029:デフォルトの名無しさん
21/01/03 15:14:23.77 xKt7ugmRM.net
科研費もらえる間はね

1030:デフォルトの名無しさん
21/01/03 15:17:53.55 79HNSnGB0.net
金を貰ってるだけだろ

1031:1001
Over 1000 Thread.net
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 136日 6時間 1分 10秒

1032:過去ログ ★
[過去ログ]
■ このスレッドは過去ログ倉庫に格納されています


最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch