22/09/22 08:50:49.94 eMKWIjs6.net
>965 山口青星 220921 0832 cGNU4WQM
| シンギュラリティ 既に起きた ( Google の中の人の偉業 ) ?
>※ 但し 単純に言えば日本には来ない ( おま国 )
| ↓
| LaMDA ベースボット ( 下記 Pathways 方式 ) = 超強力弱い AI ?
>LaMDA ベースボット ( 下記 AlphaStar 訓練方式 ) = 強さ不足な強い AI ( 弱い強い AI ) ?
|
| 汎用 ML/AI/AL 設計例 ( 実装案 , 汎用構造 ) # AlphaStar , HPK ( JO ) Y
| スレリンク(future板:61-77番)#1583435188/24 HannyouML/AI/AL SekkeiRei ( JissouAn , HannyouKouzou )
| URLリンク(wired.jp)
| >LaMDAはLLM(大規模言語モデル)ではありません *1
| >LaMDAには確かにLLMが搭載 。 ・カーツワイルの研究室で開発 「Meena」です
| >ただし コンポーネントのひとつに過ぎません
| >もうひとつは、DeepMind 「AlphaStar」という学習 ( 原文 : training ) アルゴリズム *2 。
| > AlphaStarをLLMの訓練に適応 。
> >非常にいい結果を生み始めた が、効率 悪 。
| > 、Pathways 導入し、効率 上 [グーグルはこの説明に異議 ]。
> > 彼らは 無責任 。LaMDAに、ほかのすべて を同時に接続 。
|>─ すべて ?
| >レモイン 、 すべてのAIシステム 。YouTube、Google検索、G ブックス、G マップなど 。
| >LaMDAはそれらのシステムのどれに対しても動的クエリーを作成し、即座にモデルを更新 。 ( 誤訳 ? : クエリを動的作成し、モデルをオンザフライ更新 URLリンク(tadaoyamaoka.hatenabl)○g.com/entry/2019/11/30/095943#訓練パイプライン )
|
| *1*2
>→ AlphaStar/UniversalTransformers の推論機構 = 非 ML 型ベース推論機構であると強調 ?
| → LaMDA ベースボットは動的状態を基盤 ( AlphaStar のカーネル ? VM ? ) としている ?
| → Pathways 方式時も AlphaStar 動的状態ベース ?
|
> >139
| 心底の感情やら一応の真心 ( ≠ 心 ) やらの為の準根源機構 ( → ALife ) を実装しない設計
| = 血も涙もない神判 ( 人類滅亡リーチ ? ) を推進傾向な設計
| ( 準根源的対処用プリミティブ例 : 有機分散 RT-VM / プロセッサ 等 )