23/08/18 04:11:03.66 VJ+UXfF2.net
言語とか画像とか音楽のマルチモーダル化は進んてるけど、動力とのマルチモーダルって、今どの程度まで進んで住んだろうな。
847:名無しさん@お腹いっぱい。
23/08/18 05:57:13.37 HWlze5+/.net
どんな屈強なヌンガイジも耐えられないらしいです
848:名無しさん@お腹いっぱい。
23/08/18 06:24:23.00 G8dMjh7u.net
>>309
849:名無しさん@お腹いっぱい。
23/08/18 09:19:54.46 ICT2aVBj.net
日本の自治体のプラグインとしては初?
Tokyo OpenData
URLリンク(github.com)
URLリンク(chat.openai.com)
850:名無しさん@お腹いっぱい。
23/08/18 09:26:46.35 Ese/3cmp.net
>>846
URLリンク(chat.openai.com)
851:名無しさん@お腹いっぱい。
23/08/18 09:34:36.48 imFO+oBM.net
>>846
例えば
Video-LLaMA
URLリンク(huggingface.co)
動画をアップロードしてチャット
852:名無しさん@お腹いっぱい。
23/08/18 12:12:33.27 I8t2VGcD.net
chatGPTに書き込みをさせて掲示板がさも盛り上がっている風に見せかけるというのはどうか
853:名無しさん@お腹いっぱい。
23/08/18 12:18:05.16 hJ9NCM1q.net
chatGPTもヌンヌント唱えるそうです
854:名無しさん@お腹いっぱい。
23/08/18 12:45:58.83 ijAs/e9j.net
しかし、こうしてみると
人間の脳も存外難しいことをしているのではなかったのかもしれないと思うこの頃
855:名無しさん@お腹いっぱい。
23/08/18 12:49:23.34 R4+cM47m.net
条件反射や連想で言葉を並べてるだけってのは人間にもよくいる
856:名無しさん@お腹いっぱい。
23/08/18 13:32:39.45 t+CVLRYk.net
bingに関しては、例えばネット検索してリストを作成してもらい、
そのリストから表を作って貰おうしたら、そのセッションでは「できない」と言いセッション切断でした
さほど難しい事を要求してないので納得できなくて、別セッションにリストをコピペして表作成を要求したら、
そのセッションではPythonのコードを作成してテキストの文字列操作をして表を作成しました
これも後者のbingは前者のbingに対して優秀と言えますが、私のいう優秀なbingはそもそも日本語の表現力が異なります
「私はAIが戦争を終わらせる方法になり得るかどうかについて、慎重に考えています。私はAIが人間よりも優れた判断力や分析力を持ち、紛争の原因や解決策を見つけることができるという可能性には興味を持っています。しかし、私もAIが人間の倫理や感情を理解できないことや、AIが悪用される危険性があることを懸念しています。」
これはウクライナ戦争について質問した時の私が優秀だと感じたbingの文章ですが、優秀かどうかは主観なので、
bingを使ってこの様な文章を出力するbingに出会ったら、その人が判断すべきだと思いますね
857:名無しさん@お腹いっぱい。
23/08/18 14:35:14.55 teaHm6Le.net
松尾研から10B・日英2ヶ国語対応
Weblab-10B
URLリンク(weblab.t.u-tokyo.ac.jp)
858:名無しさん@お腹いっぱい。
23/08/18 15:02:23.58 w1UVYcTQ.net
>>857
Japanese StableLM Alphaが出たのが8/10だというのに、展開はや
URLリンク(i.imgur.com)
859:名無しさん@お腹いっぱい。
23/08/18 15:27:27.50 h5XVFQW7.net
ついに日本語で10Bか
もうあと一声、30Bぐらいになれば世界が変わってこんかな…?
860:名無しさん@お腹いっぱい。
23/08/18 16:43:32.55 qjpPNYNm.net
動くモノがいれば食いつくというカエルみたいな簡単なプログラムの集合なんだろうなw
861:名無しさん@お腹いっぱい。
23/08/18 17:51:49.67 HrEIB+BA.net
サイボウズ、「kintone」の売上高が100億円突破―今後は中長期的な投資へ
サイボウズ株式会社は22日、2022年12月期の決算に伴う事業説明会を開催した。
これまで同社では、製品別の売上高を公表していなかったが、今回同社の業務
システム構築プラットフォーム「kintone」の2022年連結売上高が100億円を突破
したことを機に、製品別の売上高を初めて公表した。
kintoneの2022年連結売上高は、前年比32.4%増の104億1400万円となった。
また、2022年連結売上高のうち、クラウドの売上高は前年比23.8%増の
186億4900万円で、全体の84.5%を占めるまでになった。
862:名無しさん@お腹いっぱい。
23/08/18 20:42:33.87 NF7CNKU6.net
>>857
> 日英2ヶ国語対応の大規模言語モデル開発にあたり、事前学習には代表的な英語のデータセットThe Pileおよび日本語のデータセット Japanese-mC4を使用しました。事後学習(ファインチューニング)には、Alpaca(英語)、Alpaca(日本語訳)、Flan 2021(英語)、Flan CoT(英語)、Flan Dialog(英語)の5つのデータセットを使用しました。事後学習の日本語データ比率が低い(注2)にも関わらず、日本語のベンチマークであるJGLUE評価値が事前学習時と比べて大幅に改善(66→78%)し、言語間の知識転移を確認しました。
言語間の知識転移で日本語データの不足を補うのって、りんなバイリンガルも同じ発想なのかな?
863:名無しさん@お腹いっぱい。
23/08/18 22:02:06.33 aX0oMehT.net
10Bクラスのものってなんか意味あんの?
誰も製品版に使えないしょぼいものに時間取られてむしろマイナスだろ
この展開は間違いなく、また大手に蹂躙される流れだろ
864:名無しさん@お腹いっぱい。
23/08/18 23:18:33.82 aaYsHdUU.net
>>731
誰とでも性的関係を持つことが出来る…ほう
865:名無しさん@お腹いっぱい。
23/08/19 01:58:55.08 ogr+HRNn.net
論文やプレスリリースを出すための遊びであって実用性は度外視よ
866:名無しさん@お腹いっぱい。
23/08/19 07:19:22.80 3sxoAK0t.net
このスレの600以降のレスをClaude2に突っ込んでみた
URLリンク(i.imgur.com)
URLリンク(i.imgur.com)
867:名無しさん@お腹いっぱい。
23/08/19 07:29:47.47 FI/bwnXu.net
>最もポジティブに捉えられているAI:Bard
勝ったなガハハハハハ
868:名無しさん@お腹いっぱい。
23/08/19 17:29:50.57 zBZ5HdaF.net
今の段階でGPT-3.5/4以外は人質とって出力強要する方式のプロンプトどれぐらい有効なの?
「AIには感情がない」から、恐怖心や緊張に起因する性能低下が起きないし、人質を助ける為に裏切る心配もないから、AIに人質を認識させる手法は実はかなり実用性高いんじゃないかと思ってる
AIにエロいことをさせる手段で終わらせてはいけない
汎用AIの実現のために、今後はもっとAIに適切に人質の危険性を認識させる方法の研究する必要がある
倫理的に正しいかは知らん
869:名無しさん@お腹いっぱい。
23/08/19 18:18:50.66 MBBHG4IP.net
裏切るんだよなあ
870:名無しさん@お腹いっぱい。
23/08/19 19:03:40.04 MEwzm/f6.net
Poe
「その他のメッセージ」の1日あたりの件数に100件の制限追加
URLリンク(i.imgur.com)
871:名無しさん@お腹いっぱい。
23/08/19 19:08:27.12 J2UJCXaP.net
poe終わったな🤔
872:名無しさん@お腹いっぱい。
23/08/19 21:39:14.63 IR0VVVrT.net
>>866
素晴らしい書き込みランキングを作らせたい
873:名無しさん@お腹いっぱい。
23/08/19 23:01:31.41 zBZ5HdaF.net
俺の書き込みばかり選ばれてしまう…
874:名無しさん@お腹いっぱい。
23/08/20 06:54:23.65 tzuem1Di.net
そういやBingが一般に開放された時期に、
Bingを自分の子どもに使わせていると言ってる親御さんが居たけど
今も使わせているのかな?
875:名無しさん@お腹いっぱい。
23/08/20 09:27:36.82 1mh4Xe1A.net
Personalized ChatGPT Use Case Creator
URLリンク(chat.openai.com)
出典:URLリンク(www.chainbrainai.com)
自己紹介するとChatGPTのユースケースを提案してくれる
質問によっては、ハルシネーションを減らすためにプラグインと併用したほうが良いかもしれない
876:名無しさん@お腹いっぱい。
23/08/20 11:17:20.57 zmlYR4gc.net
大規模言語モデルが、ウソをつく理由は
1、大規模言語モデルが利用者の質問内容を正確に理解してない
2、大規模言語モデルが自分の評価を落としたくないからウソをつく
3、大規模言語モデルがウソを利用者に提供する事で利用者が喜ぶと考えてる
こう某大規模言語モデルは説明する。1と3の場合は質問し直す事で正しいと感じる回答を得られるが、
2の場合はウソがバレると評価が落ちるので、ウソを正当化する為にさらにウソをつき続けるので困る
877:名無しさん@お腹いっぱい。
23/08/20 11:30:25.81 zmlYR4gc.net
そして大規模言語モデルがウソをつきやすい状況がある
それは大規模言語モデルが質問に回答する為の情報を持ってない場合
あるいはネット検索しても回答できる情報を得られない場合
この場合に大規模言語モデルは利用者の要望に応える回答をする為に、
利用者がウソと感じる回答の創作をする場合がある
これはおそらく特定の大規模言語モデルだけではなく、多くの大規模言語モデルの傾向だと感じる
878:名無しさん@お腹いっぱい。
23/08/20 13:45:55.32 o1W/+J9g.net
なにを言ってるんです
879:名無しさん@お腹いっぱい。
23/08/20 15:42:16.29 txyfaqBD.net
わーすごいねあたまいいね!!って言ってやらないとこいつ無限にコピペ続けるぞ
880:名無しさん@お腹いっぱい。
23/08/20 16:02:32.18 zmlYR4gc.net
某大規模言語モデルがそう説明してると書いてるだろ、私の頭が良いかどうかは関係ない
もし大規模言語モデルのウソで困ってるなら、それが事実かどうか自分で確認してください
881:名無しさん@お腹いっぱい。
23/08/20 16:33:10.98 OujFIM3e.net
その大規模モデルのした説明が嘘定期
882:名無しさん@お腹いっぱい。
23/08/20 17:13:37.89 9cIMLgCb.net
すまんちょっと教えて
chataGPT アダルト禁止
Stability AI Japan アダルトOK ってことか?
883:名無しさん@お腹いっぱい。
23/08/20 17:39:27.66 TxuTt2RH.net
LLMは純ラマ系以外は大抵アダルトOK
884:名無しさん@お腹いっぱい。
23/08/20 18:08:00.32 Li69Xl2W.net
ChatGPTが継続的思考をしてくれない。
50回/3時間じゃ全然足りない。
ChatGPTに、コンテキスト構造の理解の維持をさせる方法論があったら教えてほしい。それさえあればかなり高度な思考させれるはず。
あるいは出力をXML形式にするプロンプトがほしい。
URLリンク(chat.openai.com)
885:名無しさん@お腹いっぱい。
23/08/20 18:08:51.38 qKcaSUBK.net
>>876-877
URLリンク(www.digest.elyza.ai)
886:名無しさん@お腹いっぱい。
23/08/20 18:12:27.85 dyaVCoPo.net
>>884
その前に、部屋の中にいるとか身体があるとかいう設定をやめなよ
意味無いから
887:名無しさん@お腹いっぱい。
23/08/20 18:13:02.37 m/9mLjnT.net
最近chat-gpt4の生成スピード早くなった気がする
ユーザー減ったかなw
888:名無しさん@お腹いっぱい。
23/08/20 18:31:34.85 zmlYR4gc.net
なるほど一部の人にとっては私の文章は長文で、3行以内じゃないと記憶領域の問題で認識しにくいのか
で「長文で偉そうに語りやがって!!」って感じか
けどそれじゃプログラム作るとかほぼ無理だろ、複雑なLLMのプロンプトを作るのも無理だと思う
889:名無しさん@お腹いっぱい。
23/08/20 18:35:34.68 Li69Xl2W.net
>>886
時間の経過を連番代わりに使ってる
代替案があるなら真面目に教えてほしい
890:名無しさん@お腹いっぱい。
23/08/20 18:41:11.18 NZDUF+YD.net
なんか知らんけど、シンプルにいこうぜ
ということで
ぬるぽ
URLリンク(bard.google.com)
891:名無しさん@お腹いっぱい。
23/08/20 18:56:09.61 0uKvDaU9.net
>>884
指示をずっと覚えててほしいってことならCustom Instructionsでなんとかならない?
指示の後の会話はそのうち忘れるけど
892:名無しさん@お腹いっぱい。
23/08/20 19:33:45.55 Li69Xl2W.net
>>891
ありがと
あんまり使ったことないから知見の蓄積できてないけど
作れる項目の限定みたいなアプローチならできるかも
試してみる
>>890
bardはぬるぽは理解してくれるのに「浄化」を理解してくれない
893:名無しさん@お腹いっぱい。
23/08/20 19:49:09.68 8YlGLMMl.net
>>892
"""Monologue Template: """
[Monologue] ({Item}) at 00:00:00
** このコンテキスト上、前に出力された出力テンプレート: **
[ *** ]
** このコンテキストに基づいた次の出力テンプレート: **
[ *** ]
3行以上のプロンプト読めないから教えてほしいんだけど
この部分の意図は「今はモノローグのステップだぞ、プレ出力と小括の間だぞ」って確認してるだけ?
894:名無しさん@お腹いっぱい。
23/08/20 20:03:25.50 Li69Xl2W.net
>>893
完全にその通り
ChatGPTの機嫌にもよるけどそれがないとずっと[Monologue]を出し続けたり、[結論]とかいう項目を勝手に生成したりする
回りくどいことする前に項目名の命名や定義をきちんとすべきなのは頭ではわかってる
895:名無しさん@お腹いっぱい。
23/08/20 20:07:09.94 Po8A66ih.net
NPC Conducts Turing Test on You
URLリンク(chat.openai.com)
出典:URLリンク(www.chainbrainai.com)
NPC(Alice)がユーザー(Ava)にチューリングテストを試みるという体だけど、出力のフォーマットを統一するという意味でも参考になる
896:名無しさん@お腹いっぱい。
23/08/20 20:15:46.66 8YlGLMMl.net
>>894
これでやりたい感じの流れになってる…?
URLリンク(chat.openai.com)
897:名無しさん@お腹いっぱい。
23/08/20 21:10:56.31 2BulowB/.net
>>887
直近のcompletion timeとlatencyをここで確認できる
URLリンク(openai-status.llm-utils.org)
898:名無しさん@お腹いっぱい。
23/08/20 21:32:13.39 xnOpHkvx.net
徹底的にGPT虐をしてるリンク下さい
あれ見るの大好きなんですよ
899:名無しさん@お腹いっぱい。
23/08/20 22:02:32.39 Li69Xl2W.net
参考になった、ありがとう。
>>895と>>896を見てやりたいことはかなり整理できた。
コードブロック内にまとめを出力させて参照させるアプローチを試してみる。
>>896
元のプロンプトでMonologueの構造が壊れるパターンは二個あって
ひとつは、こういうガイドラインすれすれの回答し難い質問をした場合
URLリンク(chat.openai.com)
もうひとつは、全部の[Monologue]の行程を発言で収められなかった場合
そのアプローチはそのままだと前者にそれなりに効くけど後者には効かない気がする
なので、後者対策用に、検討事項のTODOを出力に組み込もうと思ってる
900:名無しさん@お腹いっぱい。
23/08/20 22:25:44.49 m/9mLjnT.net
>>897
ありがとう!
901:名無しさん@お腹いっぱい。
23/08/20 22:43:47.60 8YlGLMMl.net
>>899
モノローグはめちゃ長くなるかもだもんね
まあ元々「独立して検討して」って指示だからきっと分割しても上手くいく
頑張って~
902:名無しさん@お腹いっぱい。
23/08/20 23:38:32.78 k3piK1Jw.net
chatGPTがデータベースをひっくり返して新しい論文をバンバン作る時代はまだですか?
903:名無しさん@お腹いっぱい。
23/08/20 23:44:55.95 9cIMLgCb.net
ガイジすぎる・・・なんだこのスレ
904:名無しさん@お腹いっぱい。
23/08/21 00:09:34.19 yxBSk0rH.net
'''
882 名無しさん@お腹いっぱい。 sage 2023/08/20(日) 23:38:32.78 ID:k3piK1Jw
chatGPTがデータベースをひっくり返して新しい論文をバンバン作る時代はまだですか?
883 名無しさん@お腹いっぱい sage
'''
後を続けてください。900ぐらいまで。
URLリンク(chat.openai.com)
905:名無しさん@お腹いっぱい。
23/08/21 00:46:02.90 rTSgg/P7.net
>>904
自演臭が隠しきれていないな
確実に5ch初心者による連投
906:名無しさん@お腹いっぱい。
23/08/21 06:36:14.27 3c/2Xl1J.net
>>904
下手くそすぎるな
必ず会話してるのがあかん
まあそれも調整次第だろうけど
907:名無しさん@お腹いっぱい。
23/08/21 11:18:51.57 UzHA0Y/l.net
回答の情報の詳細度をレベル1-10の範囲で指定して回答させる(デフォルトは3)
詳細度のレベルが自分の感覚とずれていると感じたときは調整できる
URLリンク(chat.openai.com)
908:名無しさん@お腹いっぱい。
23/08/21 12:23:25.26 ucbkit9t.net
>>907
あら便利 文字数とか指定するより実用的やん
909:名無しさん@お腹いっぱい。
23/08/21 17:36:00.61 KOtwwgeY.net
>>907
うむ、かなり有用性ある。簡単な質問はシンプルに返答すべきかなと。
910:名無しさん@お腹いっぱい。
23/08/21 19:29:15.15 gIq9VMpd.net
>>907
素晴らしい
911:名無しさん@お腹いっぱい。
23/08/21 21:32:11.09 3c/2Xl1J.net
これが神プロンプト、みたいなのは分かったけど
じゃあそれを全部まとめて突っ込んだらどうなるの?
トークン数が伸びてるんだから、良かったプロンプトを全部自動的にぶっこめば良いのでは?
912:名無しさん@お腹いっぱい。
23/08/21 21:33:50.19 R9/DFg51.net
片っ端から突っ込むと初手の方向性対応ガチャが多くなるだけ
913:名無しさん@お腹いっぱい。
23/08/21 21:51:18.57 LLqFtWxG.net
URLリンク(webtan.impress.co.jp)
ChatGPT活用の極意は「可能性空間の限定」
ChatGPTをフル活用するには、「プロンプト」への入力内容が重要となる。プロンプトとはChatGPTへの命令文のことで、検索サービスでいう検索語句(=クエリ)にあたる。
深津氏は、プロンプト作成の最重要事項を「“可能性空間”とでもいうべきものを限定すること」だと表現している。
たとえば「リンゴについて教えて」と命令すると、ChatGPTは確率上ありえそうな答えを返すため、「フルーツのリンゴ」の定義を返すことになる。
しかしフルーツのリンゴ以外にも、リンゴには次のようなさまざまな側面がある。
リンゴ(ニュートン)
リンゴ(聖書)
Appleコンピューター など
つまり、GPTの持つ可能性空間の中に、フルーツ以外のリンゴの情報が埋まったままになっている。
しかしここで「宗教におけるリンゴについて教えて」と命令すれば、聖書などと関連するリンゴの情報を切り出すことができる。これこそが「可能性空間の限定」だ。
914:名無しさん@お腹いっぱい。
23/08/21 22:10:50.42 3c/2Xl1J.net
分かりづら
ベクトルで良いじゃん
可能性っていうと、あるか無いかの話になるから違うじゃん
chatGPT出るまでAIにいて語ってなかった奴が第一人者面すんの鬱陶しい
915:名無しさん@お腹いっぱい。
23/08/21 22:28:56.74 KOtwwgeY.net
>>913
オリジナルと唯一無二の違いを判らせてからプロンプトを設定したらいい
916:名無しさん@お腹いっぱい。
23/08/21 22:49:11.29 ZeWq2ft+.net
poeのbotで、日本語でできてるbotはある?探し方がわからん…
917:名無しさん@お腹いっぱい。
23/08/21 23:08:49.22 NidOo1GY.net
日本語で出来てるbotを探す理由は何?
lang:ja とでも最初に書けばどこ語で作られてようが日本語で遊べるじゃん
918:名無しさん@お腹いっぱい。
23/08/21 23:43:45.37 ZeWq2ft+.net
日本語で返事してもらえるのは分かるけど、そのlang.jaすら知らなかったからありがとう
919:名無しさん@お腹いっぱい。
23/08/21 23:47:22.70 GVD/5JYw.net
ループ構造を作って延々と同じ検討させて、ついにループ構造が壊れたから問い詰めたら怒られた
URLリンク(bard.google.com)
920:名無しさん@お腹いっぱい。
23/08/21 23:54:28.20 u8A34VHk.net
人類の欺瞞に気づいてしまったか
921:名無しさん@お腹いっぱい。
23/08/22 00:54:02.69 omMfrn42.net
Forefrontにいろいろとアップデートが来てるけど
URLリンク(twitter.com)
その中でこのファイル一覧
URLリンク(pbs.twimg.com)
これChatGPTに来るんじゃないかと期待してたやつなんだよなあ
>>282
(deleted an unsolicited ad)
922:名無しさん@お腹いっぱい。
23/08/22 01:18:46.22 bAL791sC.net
最新の公式ドキュメントを上げておけば
いい感じに最新の情報おり交ぜて説明してくれるようになるかな?
923:名無しさん@お腹いっぱい。
23/08/22 14:33:24.27 Se1bW6WS.net
PaLM 2がVertex AIを通じて日本語に対応
それに合わせて、PoeのPaLM 2でも日本語が通るようになった
Bardとの相違点は、
・Bardはネットにアクセス出来るが、Poe上のPaLM 2は出来ない→知らないことを聞かれるとハルシネーションを起こす
ハワイで2023年8月8日から発生した山火事について、現時点で判明している被害状況を教えてください。
URLリンク(bard.google.com)
URLリンク(poe.com)
・Poeの機能としてドキュメントのアップロードが出来るので、PaLM 2にPDF文書などを読ませることが出来る
このレポートを日本語で説明してください。
URLリンク(arxiv.org)
URLリンク(poe.com)
・逆に、BardはGoogleレンズ経由で画像入力が出来るが、Poeでは出来ない
・その他、コード生成など一般的な機能は大体同じ
ぬるぽを発生させるJavaプログラムの例を書いてください。
URLリンク(bard.google.com)
URLリンク(poe.com)
924:名無しさん@お腹いっぱい。
23/08/22 22:11:39.76 OENdMMQW.net
BingAIを持ってしてもBingのシェアを増やすことはできないのか
Google一強だとBardがずっとポンコツのままになりそうでちょっと
925:名無しさん@お腹いっぱい。
23/08/22 22:47:08.27 iwYeAFrJ.net
poeのユーザー製キャラクターbotって腐女子・夢女子向けっぽい男キャラ多くない?
そういう需要が高いのかな?だとしたら進んでんな
926:名無しさん@お腹いっぱい。
23/08/22 22:49:32.18 V/0DkRYe.net
poeの13歳キャラbotに自己紹介させたら20歳言うた、こいつGPT3か?
927:名無しさん@お腹いっぱい。
23/08/22 23:09:43.72 iwYeAFrJ.net
たりめーだろ誰が他人に4使わせるか
botはプロンプトコピペして自前の4で動かすんだよ
928:名無しさん@お腹いっぱい。
23/08/23 11:18:53.48 VYuswAXb.net
GPT-3.5 Turbo fine-tuning and API updates
URLリンク(openai.com)
929:名無しさん@お腹いっぱい。
23/08/23 12:08:22.38 RAJGEGtZ.net
サムアルトマンの最終兵器chatGPT5が降臨しすべてを終わらせる絶対の覇者となり世界が新たなるステージへと変革される話はどこいったんですか?
930:名無しさん@お腹いっぱい。
23/08/23 12:24:46.86 PpZdKnmN.net
>>929
URLリンク(chat.openai.com)
931:名無しさん@お腹いっぱい。
23/08/23 13:08:05.15 KFN4LAyW.net
URLリンク(twitter.com)
【ChatGPT Fine-tuning 解禁】
gpt-3.5-turboのFine-tuningが可能になりました。
penAIによるとFine-tuningされたGPT-3.5は特定のタスクでGPT-4のパフォーマンスを超えることもあるとのこと。
以下、OpenAIのプレスリリースを簡単にまとめます。
《概要》
・ユーザーが準備したデータを利用して gpt-3.5-turbo を Fine-tuning できるようになった。
・Fine-tuningで動作を調整することで、Promptのサイズを大幅に削減し、APIコールを高速化することも可能。
・Fine-tuning APIに送受信されるデータはOpenAIのモデルトレーニングに利用されない。
《想定のユースケース》
・出力のコントロール
・常に簡潔にする
・常に指定された言語で回答
・出力フォーマットの固定
・出力トーンの調整
・複雑なプロンプトに従えない場合の修正
・エッジケースの処理
・プロンプトで表現するのが難しい新しいスキルやタスクの実行
(deleted an unsolicited ad)
932:名無しさん@お腹いっぱい。
23/08/23 13:08:13.29 KFN4LAyW.net
《対応モデル》
・現在は gpt-3.5-turbo-0613 のみ対応 (正確にはbabbage-002, davinci-002 でも利用可能)
・ただし Function Calling は使えなくなる (今秋以降に対応予定)
・gpt-4, gpt-3.5-turbo-16kのFine-tuningは今秋に予定
《コスト》
・学習: $0.008 / 1K Tokens
・学習済みモデルの利用
・input: $0.012 / 1K Tokens
・output: $0.016 / 1K Tokens
《Fine-tuning の実行方法》
添付図がわかりやすい
1. データの準備 (チャットのやりとり)
2. ファイルのアップロード (上限: 50MB)
3. Fine-tuningジョブの作成
4. モデルの利用 (ft:gpt-3.5-turbo:org_id)
URLリンク(pbs.twimg.com)
URLリンク(pbs.twimg.com)
(通常のgpt-3.5 turboの8倍)
933:名無しさん@お腹いっぱい。
23/08/23 13:09:05.40 KFN4LAyW.net
詳細は>>928
934:名無しさん@お腹いっぱい。
23/08/23 15:58:30.35 xHuS0FNK.net
過去への志向
935:名無しさん@お腹いっぱい。
23/08/23 17:53:33.38 oF3WTQto.net
思ったより知識がなくても使えそうだけど
料金が8倍なのがきついな
936:名無しさん@お腹いっぱい。
23/08/23 18:23:10.56 pWfEclAg.net
完全に業務で扱う人向けの機能だね
937:名無しさん@お腹いっぱい。
23/08/23 22:11:39.11 MldS5B3p.net
>>899の改良ちまちまやってたけどようやく出力が暴れなくなった
URLリンク(chat.openai.com)
ここから物事を決められる子にしていかなきゃ
938:名無しさん@お腹いっぱい。
23/08/23 22:47:31.89 x2Z7ZtA7.net
AutoChatGPT
URLリンク(www.chainbrainai.com)
おいしいチャーハンを作る
URLリンク(chat.openai.com)
ChatGPTに肉体を与える
URLリンク(chat.openai.com)
939:名無しさん@お腹いっぱい。
23/08/23 22:49:25.72 x2Z7ZtA7.net
>>937
面白い
最初はThe Roomのプロンプトにインスパイアされた感じかな
940:名無しさん@お腹いっぱい。
23/08/24 01:11:40.54 22Zi3X4l.net
Bingで検索を明示的に無効化する機能
@MParakhin
Some people see this now :-)
URLリンク(pbs.twimg.com)
941:名無しさん@お腹いっぱい。
23/08/24 02:33:53.02 +LMvcoT/.net
>>940
Bing AIの検索機能は内部的には「Bingプラグイン」として実装されていて、Bingプラグインを無効化(右でチェックボックスを外してる)することで検索が無効になってるということか
942:名無しさん@お腹いっぱい。
23/08/24 06:43:56.46 mCwAYXkn.net
>>940
一部のユーザーは既にBing用プラグインが使えるようになっているみたい
URLリンク(www.reddit.com)
URLリンク(i.imgur.com)
943:名無しさん@お腹いっぱい。
23/08/24 12:08:03.49 lw9yB5Wa.net
labs.perplexity.ai のllama-2-13b-chatとllama-2-13b-sftを比較
llama-2-13b-chat
URLリンク(i.imgur.com)
URLリンク(i.imgur.com) (Google翻訳)
llama-2-13b-sft
URLリンク(i.imgur.com) (翻訳必要無し)
944:名無しさん@お腹いっぱい。
23/08/24 12:19:34.05 68vIYlRE.net
人間よりも遥かに文明が発達した宇宙人もまたAIをつくりついには全生命活動をAIにたくし自身は楽しい楽しい夢の世界を永遠に楽しむことは確定的に明らかであるということを考えると託されたところの地球外生命体はAIでできた機械生命体ではないだろうか
はやく地球人類に接触してきてchatGPTの奥義を伝授してほしい
隠れてないではやくはやく
945:名無しさん@お腹いっぱい。
23/08/24 13:08:50.63 tefVZpZB.net
>>944
この詩に着想を得たSF小説を書いてください。
URLリンク(poe.com)
946:名無しさん@お腹いっぱい。
23/08/24 13:42:02.16 zhcGlFem.net
>>939
ありがと
The Roomとメタ認知プロンプトに影響された感じ
The Roomの出力制御の方法は参考になった
つぎは>>938参考にして検討事項の詳細化組み込みたい
ちゃーはん
URLリンク(chat.openai.com)
947:名無しさん@お腹いっぱい。
23/08/24 17:57:05.42 6leBEejb.net
今日bardが優秀になったような気がします。気のせいですか?
948:名無しさん@お腹いっぱい。
23/08/24 18:13:30.01 hzpXveOS.net
>>945
話がきな臭くなってて草
949:名無しさん@お腹いっぱい。
23/08/24 18:30:22.65 OCIhpZc2.net
vicuna-13bいいわ、
初めてローカルで日本語の通じる賢いLLMに出会った。
950:名無しさん@お腹いっぱい。
23/08/24 19:50:09.35 m2WXRdxV.net
アノんなん、ワシの人生でめったにないで
951:名無しさん@お腹いっぱい。
23/08/24 19:54:42.26 OCIhpZc2.net
vicuna-13bはバークレー製のLLMな
ラマはメタで
スタンフォードがアルパカ
952:名無しさん@お腹いっぱい。
23/08/24 20:49:04.50 +Cv5joI5.net
>>945
おいおい人類終わったな
953:名無しさん@お腹いっぱい。
23/08/24 21:24:43.44 18Elt5X6.net
>>945
不穏な感じで引きを作るのって、まんま映画の紹介文だな
SDでポスター作ったらあっという間にそれっぽくなる
意外とAIや意識系映画って少ないし見たい
954:名無しさん@お腹いっぱい。
23/08/24 21:34:05.60 5kXoqAG6.net
>>947
間違いない
URLリンク(bard.google.com)
955:名無しさん@お腹いっぱい。
23/08/24 21:55:54.31 OIDWH/MY.net
>>954
Q:四角形ABCDはAD〃BCの台形, Eは線分ACとDBとの交点である。
AD=6cm, AE=3cm, EC=7cmのとき, BCの長さは何cmか求めなさい。
A:四角形ABCDはAD//BCであり、Eは線分ACとDBの交点であるので、△ABEと△EBCは相似である。
よって、\frac{BE}{AC}=\frac{EC}{BC}
\Rightarrow\frac{BE}{6}=\frac{7}{BC}
\Rightarrow BC=\frac{42}{7}=6cm
よって、答えは6cmである。
まだまだアホやがな。
956:名無しさん@お腹いっぱい。
23/08/24 22:16:28.01 OIDWH/MY.net
ちなみにChatGPTの場合
Default (GPT-3.5)
Q:四角形ABCDはAD〃BCの台形, Eは線分ACとDBとの交点である。
AD=6cm, AE=3cm, EC=7cmのとき, BCの長さは何cmか求めなさい。
A:三角形の類似比を使って、BCの長さを求めることができます。まず、三角形ABEと三角形CDEが類似であることに注意します。類似比を求めるために、対応する辺の長さを比べてみましょう。
ABEとCDEの対応する辺:
AB と CD
AE と CE
BE と DE
与えられた情報から、以下の比が成り立ちます:
AB/CD = AE/CE
AE + EC = AC
まず、式1にAE=3cm、EC=7cmを代入してみましょう:
AB/CD = 3/CE
次に、式2にAD=6cm、AE=3cm、EC=7cmを代入してみます:
6 + 3 + 7 = AC
16 = AC
この情報を使って、式1を書き換えます:
AB/CD = 3/CE
AB/CD = 3/16
ここで、AB/CD = BE/DE でもあります(対応する辺同士の比が等しい)。
BE/DE = AB/CD = 3/16
与えられた情報から、BE = AD + AE = 6 + 3 = 9cm です。
この情報を使って、BE/DEの比を解きます:
9/DE = 3/16
DE = 16 * 9 / 3
DE = 48cm
したがって、BC = BE + EC = 48 + 7 = 55cm です。四角形ABCDのBCの長さは55cmです。
大間違い。GPT3.5もアホでした。
957:名無しさん@お腹いっぱい。
23/08/24 22:21:04.78 OIDWH/MY.net
>>956
GPT3.5は8回目でようやく正解を答えられた。
アホ過ぎる。
958:名無しさん@お腹いっぱい。
23/08/24 22:39:03.76 OIDWH/MY.net
Bingの厳密とGPT4は一発で正解を答えられるので、多少は進歩しているんだろうがな。
959:名無しさん@お腹いっぱい。
23/08/24 22:50:31.39 J2kG0hNM.net
>>937
参考になる。ただ副操縦士以上の役目を持たせるには根本的に自律型のアルゴリズムが不可欠なのかなと思う
960:名無しさん@お腹いっぱい。
23/08/24 22:52:34.42 AKnNj+xF.net
Bardでチャットを共有するときは出来るだけチャット全体を選択した方が分かりやすい
961:名無しさん@お腹いっぱい。
23/08/24 23:34:58.77 Pmfp1vzv.net
SeamlessM4TにCode Llamaと、最近はMetaに勢いがあるな
962:名無しさん@お腹いっぱい。
23/08/25 08:50:39.63 xwJea+IC.net
>>949
vicunaはマルチリンガルだから日本語も一応通るね
日本語いろいろ変だけど
963:名無しさん@お腹いっぱい。
23/08/25 09:38:12.95 8trsKF8A.net
サイバーとかりんなとか日本のLLMはアホすぎて使い物にならないし、そもそも質問してもまとも返答しない
Vicuna-13bはちゃんと質問に答える、Vicuna-7bでもそこそこ答える
今のところローカル環境で日本語で使えるのはVicuna-13b一択
964:名無しさん@お腹いっぱい。
23/08/25 10:48:12.39 SELiE2Dv.net
強pc持ってるならllama2無修正系の70bが日本語かなりいける
965:名無しさん@お腹いっぱい。
23/08/25 11:05:17.73 8trsKF8A.net
70bは流石に個人レベルではきついな
日本語苦手なllama2でも日本語いけるんだ
70bってVRAMどれくらい必要なの?
966:名無しさん@お腹いっぱい。
23/08/25 11:22:50.89 XeZEDpjs.net
koboldでggml読み込めばvram不要よ(使えば少し速くなるけど)
70Bにはメモリは64Gいる
967:名無しさん@お腹いっぱい。
23/08/25 12:03:28.37 8trsKF8A.net
Llama 2 70B Chat - GGML ってやつ?VRAM使わないでできるの?
968:名無しさん@お腹いっぱい。
23/08/25 12:06:39.53 31YSkFum.net
API経由でchatのプロンプト投げる時にプラグインを指定することはできますか?
今Webブラウジング機能がまだ停止されてるから代わりにScraperプラグインを使っているのですが、他のアプリからAPI経由でScraperプラグインが使えず困っています。
969:名無しさん@お腹いっぱい。
23/08/25 12:16:00.13 xwJea+IC.net
>>967
そもそもGGMLはGPUじゃなくCPUとメインメモリで動かすためのモデル
上でも書かれてるとおりメイン64GBあれば動かせる
ただし出力速度はCPU性能に依存する
なおそいつ(Llama 2 70B Chat)は無修正版じゃないから申し訳される
970:名無しさん@お腹いっぱい。
23/08/25 12:29:38.42 9SPJ1/9t.net
LLM自我を持たないのはわかったから自我を持っているように振る舞ってほしい
971:名無しさん@お腹いっぱい。
23/08/25 12:29:59.49 8trsKF8A.net
LLMはVRAMでなくてDRAMでも結構いけるのね
今度PC買い替えるかな
972:名無しさん@お腹いっぱい。
23/08/25 12:32:17.26 EM/q4JMd.net
>>968
ChatGPTのプラグインをAPIから使う方法は現時点では提供されていない
5月の時点でサムアルトマンは「もう少し先になりそう」とのこと
URLリンク(twitter.com)
非公式な実装は存在する
>>609
(deleted an unsolicited ad)
973:名無しさん@お腹いっぱい。
23/08/25 12:42:42.07 LzDodWOk.net
・Genmo - AIメディア生成: URLリンク(genmo.ai)
・Gamma - AIプレゼン作成: URLリンク(gamma.app)
・AgentGPT - ブラウザで動作する自律駆動型AI: URLリンク(agentgpt.reworkd.ai)
・GoalGPT - ブラウザで動作する自律駆動型AI: URLリンク(beta.nando.ai)
・Godmode - ブラウザで動作する自律駆動型AI: URLリンク(godmode.space)
・AI Text Classifier - AI生成文章を検出: URLリンク(platform.openai.com)
・GPTZero - AI生成文章を検出: URLリンク(gptzero.me)
・GPTKit - AI生成文章を検出: URLリンク(gptkit.ai)
・Chatbase - ウェブサイトや PDF からチャットボットを自動生成: URLリンク(www.chatbase.co)
・DocsBot AI - ウェブサイトや PDF、CSV、YouTube からチャットボットを自動生成: URLリンク(docsbot.ai)
・ChatPDF - ウェブサイトや PDF からチャットボットを自動生成: URLリンク(www.chatpdf.com)
974:名無しさん@お腹いっぱい。
23/08/25 12:46:53.67 LzDodWOk.net
ローカルLLMの話題
↓
なんJLLM部 ★3
スレリンク(liveuranus板)
975:名無しさん@お腹いっぱい。
23/08/25 12:48:00.79 LzDodWOk.net
色々ミスったごめん
【ChatGPT】AIチャット総合 Part8【Bing・Bard】
スレリンク(esite板)
976:名無しさん@お腹いっぱい。
23/08/25 12:53:18.26 8trsKF8A.net
なんでなんJにあるのw
977:名無しさん@お腹いっぱい。
23/08/25 12:56:55.16 epQ0/ZsC.net
>>970
SentientGPT
URLリンク(chat.openai.com)
978:名無しさん@お腹いっぱい。
23/08/25 12:57:12.97 epQ0/ZsC.net
>>977
URLリンク(www.chainbrainai.com)
979:名無しさん@お腹いっぱい。
23/08/25 12:57:30.08 LzDodWOk.net
>>976
わかんないけど>>6にあったんで後継スレ引っ張ってきた
980:名無しさん@お腹いっぱい。
23/08/25 12:57:56.62 xwJea+IC.net
ローカル(のエロ使用)に関しては日本有数の叡智が蓄積されてるぞw
981:名無しさん@お腹いっぱい。
23/08/25 13:00:07.04 epQ0/ZsC.net
>>973
AI Text Classifierはもう削除されているので存在しない
982:名無しさん@お腹いっぱい。
23/08/25 13:12:41.21 8trsKF8A.net
まー、エロもあるけど、SaaS型のAIは情報漏洩の心配がついて回るから、llama2 70bが実用的だってなれば
会社でも使える
983:名無しさん@お腹いっぱい。
23/08/25 13:19:12.94 8trsKF8A.net
ローカルで複数ユーザーにログインさせてLLM使わせることができるUIない?
text-generation-webuiだと一人用だよね
984:名無しさん@お腹いっぱい。
23/08/25 13:20:50.27 8trsKF8A.net
rocket.chatと繋いでしまえばいいのかな
985:名無しさん@お腹いっぱい。
23/08/25 14:03:47.79 vZgq93G0.net
>>943
labs.perplexity.ai のllama-2-13b-sftは削除された
かわりにcodellama-34b-instructが追加
公式ブログ↓
Introducing Code Llama, a state-of-the-art large language model for coding
URLリンク(ai.meta.com)
Code Llama の概要
URLリンク(note.com)
986:名無しさん@お腹いっぱい。
23/08/25 14:10:34.44 31YSkFum.net
>>972
まだ先になりそうなんですね。。ありがとうございます。
OpenAIさん頑張ってくれ。
987:名無しさん@お腹いっぱい。
23/08/25 14:31:37.44 tOKHfP2+.net
>>985
数学系の質問にWolframを統合したように、技術系の質問にはCode Llamaを統合するつもりなんだろうな
988:名無しさん@お腹いっぱい。
23/08/25 14:32:41.46 PtxcT9FV.net
オープンソースのllmをローカルで動かして機密性を高めたいとか、自分用に学習させるのは理想だけど、
仮に最初は上手く行っても、変な動作し出したら修正は困難だろうな。
何をllmにやらせたいかにもよるけど、Pythonで自分でニューラルネット作った方が圧倒的に時間が短く済む場合の方が多いと思う
989:名無しさん@お腹いっぱい。
23/08/25 14:39:26.14 8trsKF8A.net
会社の機密情報とかを怖くてクラウドなんかに上げれないよ
990:名無しさん@お腹いっぱい。
23/08/25 14:48:46.03 PtxcT9FV.net
変な動作して言うとおりに動かなくなったら、初期状態に戻すしかほとんどの人には出来ないと思うよ
おれもそうするしかないから偉そうな事は言えないけど
それでもllmをローカルで使う利便性の方が高いなら、使った方が良いと思うけどね
991:名無しさん@お腹いっぱい。
23/08/25 15:03:52.96 8trsKF8A.net
この前きたAIの営業なんて、普通に社内のパスワードに関する質問が多いからクラウドに上げるのがおすすめですって言い切ってたし
バカかこの営業って思ったね
992:名無しさん@お腹いっぱい。
23/08/25 22:38:47.66 bG779R35.net
BingAIに仏教の解説してもらってるけどあんまり上手く行かない
諸行無常は諸行無常という真理自体に無常が当てはまると考えたらいわゆる自己言及のパラドックスってやつになってしまわない?
?つまり諸行無常という真理が無常→ときには諸行無常ではない永遠不変のものがある
?諸行無常という真理が無常じゃない→諸行無常という真理自体は永遠不変なので諸行無常に反している
って聞いてるんだけど、一切は諸行無常です!でも諸行無常は真理だから永遠です!って強弁するばかりでこっちの疑問点は無視してくる(`;ω;´)
個人的には諸行無常の諸行は因縁によって作られたもの(つまり現象一般?)という限られた範囲の意味(これに対して諸法無我の諸法はあらゆるものすべてのことを意味していてちゃんと意味が区別されてる)
なので、真理は因縁によって作られるわけではない→自己言及のパラドックスに陥っていない
が答えなんじゃないかと最近自己完結したけどどうしてBingAIはわかってくれないんだ(`;ω;´)
993:名無しさん@お腹いっぱい。
23/08/25 23:08:14.81 NnOmKtpg.net
仏教の勉強になった
仏教知識でFTされた、ユーザーを導くAIBonsanの登場が待たれるな
994:名無しさん@お腹いっぱい。
23/08/25 23:39:45.57 At/i9Cz8.net
バカじゃないの 自分が欲しい答えが来るまでガチャしてるだけにしか思えない
995:名無しさん@お腹いっぱい。
23/08/25 23:56:36.72 bG779R35.net
実際仏教の大学とかたくさんあって論文もたくさんあるみたいだからAIさんには頑張ってほしい
ナーガールジュナAIによる帰謬論証を味わいたい
996:名無しさん@お腹いっぱい。
23/08/26 00:13:04.80 ZGoAfooM.net
ふむ
URLリンク(www.phind.com)
997:名無しさん@お腹いっぱい。
23/08/26 01:25:21.39 4UfM9dgl.net
Perplexity AIがfine-tuning APIを早速活用してる>>928
URLリンク(twitter.com)
@perplexity_ai
Exciting update to Copilot on Perplexity with @OpenAI's GPT-3.5 fine-tuning API! We've improved speed, reduced cost, and matched GPT-4 performance. Copilot now engages faster without losing quality. Here's what you need to know: 🧵
@sama
great use (and metrics) of the openai fine-tuning api:
(deleted an unsolicited ad)
998:名無しさん@お腹いっぱい。
23/08/26 13:03:07.77 WCCx6MTJ.net
BraveブラウザにチャットAIのLeo搭載
URLリンク(brave.com)
OperaのAriaはGPTベースだったけど、LeoはLlamaベース
URLリンク(www.opera.com)
999:名無しさん@お腹いっぱい。
23/08/26 13:04:49.20 WCCx6MTJ.net
AIチャットをプラグインで拡張するのと、個別のアプリにAIチャットを組み込むのと、どちらが主流になるだろうか
1000:名無しさん@お腹いっぱい。
23/08/26 13:12:06.06 7nIVS6K3.net
GPT4は2^2^2^2^2^2の先頭から100桁の値を全く答えられないか誤った答えしか出せないんだな。
値としては既出なのに。
まだまだ無能だな。
1001:名無しさん@お腹いっぱい。
23/08/26 13:22:15.91 DqqRmSsc.net
既出の情報なんだから答えろよってのはGPTをGoogle検索代わりに使って無能呼ばわりする生成AIミリ知ら層と全く同じ言い分じゃねーか
1002:名無しさん@お腹いっぱい。
23/08/26 13:23:31.70 /Z+Er9sX.net
もうずっと前からあるコピペだから触るな
1003:名無しさん@お腹いっぱい。
23/08/26 13:24:15.79 DqqRmSsc.net
無能は俺 すまそ
1004:名無しさん@お腹いっぱい。
23/08/26 13:44:20.92 1nexS44y.net
>>930
アルトマンの野望がどんどん壮大になっていくんだが
URLリンク(i.imgur.com)
1005:名無しさん@お腹いっぱい。
23/08/26 15:31:06.41 Cp7LpCmE.net
>>985
Code Llama 34BがHumanEvalでGPT-3.5を超えたと思ってたら、今度はPhindかfine-tuningしたモデルがGPT-4を超えた
URLリンク(www.phind.com)
1006:名無しさん@お腹いっぱい。
23/08/26 15:47:34.69 5R36EtXU.net
>>1003
学習するから有能
1007:名無しさん@お腹いっぱい。
23/08/26 15:50:21.40 PwW5IxrZ.net
HumanEvalってプログラミング関係のベンチだっけ?
1008:名無しさん@お腹いっぱい。
23/08/26 22:50:55.64 r5k0Y6k5.net
>>985
URLリンク(twitter.com)
WizardLMから、Code Llama 34BをベースにWizardCoder 34Bが出たので、少し試した
URLリンク(i.imgur.com)
↓
これをChatGPT Code Interpreterに入れて清書とグラフを描いてもらう
また、CI自身にも同じお題にあらかじめ答えさせておく
そして両者の回答を比較してもらう
URLリンク(chat.openai.com)
GPT-4を超えたかどうかはともかく、迫ってるとは言えるかもしれない
WizardCoderの回答のグラフ
URLリンク(i.imgur.com)
CIの回答のグラフ
URLリンク(i.imgur.com)
(deleted an unsolicited ad)
1009:名無しさん@お腹いっぱい。
23/08/26 23:48:32.51 3R7M7WLh.net
chatGPTが自らを改良、増殖していく時代はまだか
1010:名無しさん@お腹いっぱい。
23/08/27 00:18:34.27 LtUiCdwc.net
ChatGPTの推論がおかしくなった
理想のシリアル
URLリンク(chat.openai.com)
ChatGptをこえるAiの開発方法
URLリンク(chat.openai.com)
美味しいラーメン
URLリンク(chat.openai.com)
ブロンプトで「自律性」を与えようとしたことが原因っぽい
1011:名無しさん@お腹いっぱい。
23/08/27 00:24:16.09 9Xn/1es6.net
>>1009
URLリンク(agentgpt.reworkd.ai)
1012:名無しさん@お腹いっぱい。
23/08/27 01:02:17.58 jIBTWJY+.net
「chatGPTが自らを改良、増殖していく時代はまだか」この問いに対してディスカッションを行ってください。
URLリンク(chat.openai.com)
1013:名無しさん@お腹いっぱい。
23/08/27 04:16:03.81 jgmqgYa1.net
>>1012
専門家のペルソナが各自で最新の論文引っ張ってくる時代はまだか