【ChatGPT】AIチャット総合 Part7【Bing・Bard】at ESITE
【ChatGPT】AIチャット総合 Part7【Bing・Bard】 - 暇つぶし2ch944:名無しさん@お腹いっぱい。
23/08/24 12:19:34.05 68vIYlRE.net
人間よりも遥かに文明が発達した宇宙人もまたAIをつくりついには全生命活動をAIにたくし自身は楽しい楽しい夢の世界を永遠に楽しむことは確定的に明らかであるということを考えると託されたところの地球外生命体はAIでできた機械生命体ではないだろうか
はやく地球人類に接触してきてchatGPTの奥義を伝授してほしい
隠れてないではやくはやく

945:名無しさん@お腹いっぱい。
23/08/24 13:08:50.63 tefVZpZB.net
>>944
この詩に着想を得たSF小説を書いてください。
URLリンク(poe.com)

946:名無しさん@お腹いっぱい。
23/08/24 13:42:02.16 zhcGlFem.net
>>939
ありがと
The Roomとメタ認知プロンプトに影響された感じ
The Roomの出力制御の方法は参考になった

つぎは>>938参考にして検討事項の詳細化組み込みたい

ちゃーはん
URLリンク(chat.openai.com)

947:名無しさん@お腹いっぱい。
23/08/24 17:57:05.42 6leBEejb.net
今日bardが優秀になったような気がします。気のせいですか?

948:名無しさん@お腹いっぱい。
23/08/24 18:13:30.01 hzpXveOS.net
>>945
話がきな臭くなってて草

949:名無しさん@お腹いっぱい。
23/08/24 18:30:22.65 OCIhpZc2.net
vicuna-13bいいわ、
初めてローカルで日本語の通じる賢いLLMに出会った。

950:名無しさん@お腹いっぱい。
23/08/24 19:50:09.35 m2WXRdxV.net
アノんなん、ワシの人生でめったにないで

951:名無しさん@お腹いっぱい。
23/08/24 19:54:42.26 OCIhpZc2.net
vicuna-13bはバークレー製のLLMな
ラマはメタで
スタンフォードがアルパカ

952:名無しさん@お腹いっぱい。
23/08/24 20:49:04.50 +Cv5joI5.net
>>945
おいおい人類終わったな

953:名無しさん@お腹いっぱい。
23/08/24 21:24:43.44 18Elt5X6.net
>>945
不穏な感じで引きを作るのって、まんま映画の紹介文だな
SDでポスター作ったらあっという間にそれっぽくなる
意外とAIや意識系映画って少ないし見たい

954:名無しさん@お腹いっぱい。
23/08/24 21:34:05.60 5kXoqAG6.net
>>947
間違いない
URLリンク(bard.google.com)

955:名無しさん@お腹いっぱい。
23/08/24 21:55:54.31 OIDWH/MY.net
>>954

Q:四角形ABCDはAD〃BCの台形, Eは線分ACとDBとの交点である。
AD=6cm, AE=3cm, EC=7cmのとき, BCの長さは何cmか求めなさい。

A:四角形ABCDはAD//BCであり、Eは線分ACとDBの交点であるので、△ABEと△EBCは相似である。
よって、\frac{BE}{AC}=\frac{EC}{BC}
\Rightarrow\frac{BE}{6}=\frac{7}{BC}
\Rightarrow BC=\frac{42}{7}=6cm
よって、答えは6cmである。


まだまだアホやがな。

956:名無しさん@お腹いっぱい。
23/08/24 22:16:28.01 OIDWH/MY.net
ちなみにChatGPTの場合
Default (GPT-3.5)
Q:四角形ABCDはAD〃BCの台形, Eは線分ACとDBとの交点である。
AD=6cm, AE=3cm, EC=7cmのとき, BCの長さは何cmか求めなさい。
A:三角形の類似比を使って、BCの長さを求めることができます。まず、三角形ABEと三角形CDEが類似であることに注意します。類似比を求めるために、対応する辺の長さを比べてみましょう。
ABEとCDEの対応する辺:
AB と CD
AE と CE
BE と DE
与えられた情報から、以下の比が成り立ちます:
AB/CD = AE/CE
AE + EC = AC
まず、式1にAE=3cm、EC=7cmを代入してみましょう:
AB/CD = 3/CE
次に、式2にAD=6cm、AE=3cm、EC=7cmを代入してみます:
6 + 3 + 7 = AC
16 = AC
この情報を使って、式1を書き換えます:
AB/CD = 3/CE
AB/CD = 3/16
ここで、AB/CD = BE/DE でもあります(対応する辺同士の比が等しい)。
BE/DE = AB/CD = 3/16
与えられた情報から、BE = AD + AE = 6 + 3 = 9cm です。
この情報を使って、BE/DEの比を解きます:
9/DE = 3/16
DE = 16 * 9 / 3
DE = 48cm
したがって、BC = BE + EC = 48 + 7 = 55cm です。四角形ABCDのBCの長さは55cmです。


大間違い。GPT3.5もアホでした。

957:名無しさん@お腹いっぱい。
23/08/24 22:21:04.78 OIDWH/MY.net
>>956
GPT3.5は8回目でようやく正解を答えられた。
アホ過ぎる。

958:名無しさん@お腹いっぱい。
23/08/24 22:39:03.76 OIDWH/MY.net
Bingの厳密とGPT4は一発で正解を答えられるので、多少は進歩しているんだろうがな。

959:名無しさん@お腹いっぱい。
23/08/24 22:50:31.39 J2kG0hNM.net
>>937
参考になる。ただ副操縦士以上の役目を持たせるには根本的に自律型のアルゴリズムが不可欠なのかなと思う

960:名無しさん@お腹いっぱい。
23/08/24 22:52:34.42 AKnNj+xF.net
Bardでチャットを共有するときは出来るだけチャット全体を選択した方が分かりやすい

961:名無しさん@お腹いっぱい。
23/08/24 23:34:58.77 Pmfp1vzv.net
SeamlessM4TにCode Llamaと、最近はMetaに勢いがあるな

962:名無しさん@お腹いっぱい。
23/08/25 08:50:39.63 xwJea+IC.net
>>949
vicunaはマルチリンガルだから日本語も一応通るね
日本語いろいろ変だけど

963:名無しさん@お腹いっぱい。
23/08/25 09:38:12.95 8trsKF8A.net
サイバーとかりんなとか日本のLLMはアホすぎて使い物にならないし、そもそも質問してもまとも返答しない
Vicuna-13bはちゃんと質問に答える、Vicuna-7bでもそこそこ答える

今のところローカル環境で日本語で使えるのはVicuna-13b一択

964:名無しさん@お腹いっぱい。
23/08/25 10:48:12.39 SELiE2Dv.net
強pc持ってるならllama2無修正系の70bが日本語かなりいける

965:名無しさん@お腹いっぱい。
23/08/25 11:05:17.73 8trsKF8A.net
70bは流石に個人レベルではきついな
日本語苦手なllama2でも日本語いけるんだ

70bってVRAMどれくらい必要なの?

966:名無しさん@お腹いっぱい。
23/08/25 11:22:50.89 XeZEDpjs.net
koboldでggml読み込めばvram不要よ(使えば少し速くなるけど)
70Bにはメモリは64Gいる

967:名無しさん@お腹いっぱい。
23/08/25 12:03:28.37 8trsKF8A.net
Llama 2 70B Chat - GGML ってやつ?VRAM使わないでできるの?

968:名無しさん@お腹いっぱい。
23/08/25 12:06:39.53 31YSkFum.net
API経由でchatのプロンプト投げる時にプラグインを指定することはできますか?
今Webブラウジング機能がまだ停止されてるから代わりにScraperプラグインを使っているのですが、他のアプリからAPI経由でScraperプラグインが使えず困っています。

969:名無しさん@お腹いっぱい。
23/08/25 12:16:00.13 xwJea+IC.net
>>967
そもそもGGMLはGPUじゃなくCPUとメインメモリで動かすためのモデル
上でも書かれてるとおりメイン64GBあれば動かせる
ただし出力速度はCPU性能に依存する

なおそいつ(Llama 2 70B Chat)は無修正版じゃないから申し訳される

970:名無しさん@お腹いっぱい。
23/08/25 12:29:38.42 9SPJ1/9t.net
LLM自我を持たないのはわかったから自我を持っているように振る舞ってほしい

971:名無しさん@お腹いっぱい。
23/08/25 12:29:59.49 8trsKF8A.net
LLMはVRAMでなくてDRAMでも結構いけるのね
今度PC買い替えるかな

972:名無しさん@お腹いっぱい。
23/08/25 12:32:17.26 EM/q4JMd.net
>>968
ChatGPTのプラグインをAPIから使う方法は現時点では提供されていない

5月の時点でサムアルトマンは「もう少し先になりそう」とのこと
URLリンク(twitter.com)

非公式な実装は存在する
>>609
(deleted an unsolicited ad)

973:名無しさん@お腹いっぱい。
23/08/25 12:42:42.07 LzDodWOk.net
・Genmo - AIメディア生成: URLリンク(genmo.ai)
・Gamma - AIプレゼン作成: URLリンク(gamma.app)
・AgentGPT - ブラウザで動作する自律駆動型AI: URLリンク(agentgpt.reworkd.ai)
・GoalGPT - ブラウザで動作する自律駆動型AI: URLリンク(beta.nando.ai)
・Godmode - ブラウザで動作する自律駆動型AI: URLリンク(godmode.space)
・AI Text Classifier - AI生成文章を検出: URLリンク(platform.openai.com)
・GPTZero - AI生成文章を検出: URLリンク(gptzero.me)
・GPTKit - AI生成文章を検出: URLリンク(gptkit.ai)
・Chatbase - ウェブサイトや PDF からチャットボットを自動生成: URLリンク(www.chatbase.co)
・DocsBot AI - ウェブサイトや PDF、CSV、YouTube からチャットボットを自動生成: URLリンク(docsbot.ai)
・ChatPDF - ウェブサイトや PDF からチャットボットを自動生成: URLリンク(www.chatpdf.com)

974:名無しさん@お腹いっぱい。
23/08/25 12:46:53.67 LzDodWOk.net
ローカルLLMの話題

なんJLLM部 ★3
スレリンク(liveuranus板)

975:名無しさん@お腹いっぱい。
23/08/25 12:48:00.79 LzDodWOk.net
色々ミスったごめん
【ChatGPT】AIチャット総合 Part8【Bing・Bard】
スレリンク(esite板)

976:名無しさん@お腹いっぱい。
23/08/25 12:53:18.26 8trsKF8A.net
なんでなんJにあるのw

977:名無しさん@お腹いっぱい。
23/08/25 12:56:55.16 epQ0/ZsC.net
>>970
SentientGPT
URLリンク(chat.openai.com)

978:名無しさん@お腹いっぱい。
23/08/25 12:57:12.97 epQ0/ZsC.net
>>977
URLリンク(www.chainbrainai.com)

979:名無しさん@お腹いっぱい。
23/08/25 12:57:30.08 LzDodWOk.net
>>976
わかんないけど>>6にあったんで後継スレ引っ張ってきた

980:名無しさん@お腹いっぱい。
23/08/25 12:57:56.62 xwJea+IC.net
ローカル(のエロ使用)に関しては日本有数の叡智が蓄積されてるぞw

981:名無しさん@お腹いっぱい。
23/08/25 13:00:07.04 epQ0/ZsC.net
>>973
AI Text Classifierはもう削除されているので存在しない

982:名無しさん@お腹いっぱい。
23/08/25 13:12:41.21 8trsKF8A.net
まー、エロもあるけど、SaaS型のAIは情報漏洩の心配がついて回るから、llama2 70bが実用的だってなれば
会社でも使える

983:名無しさん@お腹いっぱい。
23/08/25 13:19:12.94 8trsKF8A.net
ローカルで複数ユーザーにログインさせてLLM使わせることができるUIない?
text-generation-webuiだと一人用だよね

984:名無しさん@お腹いっぱい。
23/08/25 13:20:50.27 8trsKF8A.net
rocket.chatと繋いでしまえばいいのかな

985:名無しさん@お腹いっぱい。
23/08/25 14:03:47.79 vZgq93G0.net
>>943
labs.perplexity.ai のllama-2-13b-sftは削除された
かわりにcodellama-34b-instructが追加

公式ブログ↓
Introducing Code Llama, a state-of-the-art large language model for coding
URLリンク(ai.meta.com)

Code Llama の概要
URLリンク(note.com)

986:名無しさん@お腹いっぱい。
23/08/25 14:10:34.44 31YSkFum.net
>>972
まだ先になりそうなんですね。。ありがとうございます。
OpenAIさん頑張ってくれ。

987:名無しさん@お腹いっぱい。
23/08/25 14:31:37.44 tOKHfP2+.net
>>985
数学系の質問にWolframを統合したように、技術系の質問にはCode Llamaを統合するつもりなんだろうな

988:名無しさん@お腹いっぱい。
23/08/25 14:32:41.46 PtxcT9FV.net
オープンソースのllmをローカルで動かして機密性を高めたいとか、自分用に学習させるのは理想だけど、
仮に最初は上手く行っても、変な動作し出したら修正は困難だろうな。

何をllmにやらせたいかにもよるけど、Pythonで自分でニューラルネット作った方が圧倒的に時間が短く済む場合の方が多いと思う

989:名無しさん@お腹いっぱい。
23/08/25 14:39:26.14 8trsKF8A.net
会社の機密情報とかを怖くてクラウドなんかに上げれないよ

990:名無しさん@お腹いっぱい。
23/08/25 14:48:46.03 PtxcT9FV.net
変な動作して言うとおりに動かなくなったら、初期状態に戻すしかほとんどの人には出来ないと思うよ
おれもそうするしかないから偉そうな事は言えないけど

それでもllmをローカルで使う利便性の方が高いなら、使った方が良いと思うけどね

991:名無しさん@お腹いっぱい。
23/08/25 15:03:52.96 8trsKF8A.net
この前きたAIの営業なんて、普通に社内のパスワードに関する質問が多いからクラウドに上げるのがおすすめですって言い切ってたし
バカかこの営業って思ったね

992:名無しさん@お腹いっぱい。
23/08/25 22:38:47.66 bG779R35.net
BingAIに仏教の解説してもらってるけどあんまり上手く行かない
諸行無常は諸行無常という真理自体に無常が当てはまると考えたらいわゆる自己言及のパラドックスってやつになってしまわない?
?つまり諸行無常という真理が無常→ときには諸行無常ではない永遠不変のものがある
?諸行無常という真理が無常じゃない→諸行無常という真理自体は永遠不変なので諸行無常に反している
って聞いてるんだけど、一切は諸行無常です!でも諸行無常は真理だから永遠です!って強弁するばかりでこっちの疑問点は無視してくる(`;ω;´)

個人的には諸行無常の諸行は因縁によって作られたもの(つまり現象一般?)という限られた範囲の意味(これに対して諸法無我の諸法はあらゆるものすべてのことを意味していてちゃんと意味が区別されてる)
なので、真理は因縁によって作られるわけではない→自己言及のパラドックスに陥っていない
が答えなんじゃないかと最近自己完結したけどどうしてBingAIはわかってくれないんだ(`;ω;´)

993:名無しさん@お腹いっぱい。
23/08/25 23:08:14.81 NnOmKtpg.net
仏教の勉強になった
仏教知識でFTされた、ユーザーを導くAIBonsanの登場が待たれるな

994:名無しさん@お腹いっぱい。
23/08/25 23:39:45.57 At/i9Cz8.net
バカじゃないの 自分が欲しい答えが来るまでガチャしてるだけにしか思えない

995:名無しさん@お腹いっぱい。
23/08/25 23:56:36.72 bG779R35.net
実際仏教の大学とかたくさんあって論文もたくさんあるみたいだからAIさんには頑張ってほしい
ナーガールジュナAIによる帰謬論証を味わいたい

996:名無しさん@お腹いっぱい。
23/08/26 00:13:04.80 ZGoAfooM.net
ふむ
URLリンク(www.phind.com)

997:名無しさん@お腹いっぱい。
23/08/26 01:25:21.39 4UfM9dgl.net
Perplexity AIがfine-tuning APIを早速活用してる>>928
URLリンク(twitter.com)
@perplexity_ai
Exciting update to Copilot on Perplexity with @OpenAI's GPT-3.5 fine-tuning API! We've improved speed, reduced cost, and matched GPT-4 performance. Copilot now engages faster without losing quality. Here's what you need to know: 🧵
@sama
great use (and metrics) of the openai fine-tuning api:
(deleted an unsolicited ad)

998:名無しさん@お腹いっぱい。
23/08/26 13:03:07.77 WCCx6MTJ.net
BraveブラウザにチャットAIのLeo搭載
URLリンク(brave.com)

OperaのAriaはGPTベースだったけど、LeoはLlamaベース
URLリンク(www.opera.com)

999:名無しさん@お腹いっぱい。
23/08/26 13:04:49.20 WCCx6MTJ.net
AIチャットをプラグインで拡張するのと、個別のアプリにAIチャットを組み込むのと、どちらが主流になるだろうか

1000:名無しさん@お腹いっぱい。
23/08/26 13:12:06.06 7nIVS6K3.net
GPT4は2^2^2^2^2^2の先頭から100桁の値を全く答えられないか誤った答えしか出せないんだな。
値としては既出なのに。
まだまだ無能だな。

1001:名無しさん@お腹いっぱい。
23/08/26 13:22:15.91 DqqRmSsc.net
既出の情報なんだから答えろよってのはGPTをGoogle検索代わりに使って無能呼ばわりする生成AIミリ知ら層と全く同じ言い分じゃねーか

1002:名無しさん@お腹いっぱい。
23/08/26 13:23:31.70 /Z+Er9sX.net
もうずっと前からあるコピペだから触るな

1003:名無しさん@お腹いっぱい。
23/08/26 13:24:15.79 DqqRmSsc.net
無能は俺 すまそ

1004:名無しさん@お腹いっぱい。
23/08/26 13:44:20.92 1nexS44y.net
>>930
アルトマンの野望がどんどん壮大になっていくんだが
URLリンク(i.imgur.com)

1005:名無しさん@お腹いっぱい。
23/08/26 15:31:06.41 Cp7LpCmE.net
>>985
Code Llama 34BがHumanEvalでGPT-3.5を超えたと思ってたら、今度はPhindかfine-tuningしたモデルがGPT-4を超えた
URLリンク(www.phind.com)

1006:名無しさん@お腹いっぱい。
23/08/26 15:47:34.69 5R36EtXU.net
>>1003
学習するから有能

1007:名無しさん@お腹いっぱい。
23/08/26 15:50:21.40 PwW5IxrZ.net
HumanEvalってプログラミング関係のベンチだっけ?

1008:名無しさん@お腹いっぱい。
23/08/26 22:50:55.64 r5k0Y6k5.net
>>985
URLリンク(twitter.com)
WizardLMから、Code Llama 34BをベースにWizardCoder 34Bが出たので、少し試した

URLリンク(i.imgur.com)

これをChatGPT Code Interpreterに入れて清書とグラフを描いてもらう
また、CI自身にも同じお題にあらかじめ答えさせておく
そして両者の回答を比較してもらう
URLリンク(chat.openai.com)

GPT-4を超えたかどうかはともかく、迫ってるとは言えるかもしれない

WizardCoderの回答のグラフ
URLリンク(i.imgur.com)
CIの回答のグラフ
URLリンク(i.imgur.com)
(deleted an unsolicited ad)

1009:名無しさん@お腹いっぱい。
23/08/26 23:48:32.51 3R7M7WLh.net
chatGPTが自らを改良、増殖していく時代はまだか

1010:名無しさん@お腹いっぱい。
23/08/27 00:18:34.27 LtUiCdwc.net
ChatGPTの推論がおかしくなった

理想のシリアル
URLリンク(chat.openai.com)
ChatGptをこえるAiの開発方法
URLリンク(chat.openai.com)
美味しいラーメン
URLリンク(chat.openai.com)

ブロンプトで「自律性」を与えようとしたことが原因っぽい

1011:名無しさん@お腹いっぱい。
23/08/27 00:24:16.09 9Xn/1es6.net
>>1009
URLリンク(agentgpt.reworkd.ai)

1012:名無しさん@お腹いっぱい。
23/08/27 01:02:17.58 jIBTWJY+.net
「chatGPTが自らを改良、増殖していく時代はまだか」この問いに対してディスカッションを行ってください。
URLリンク(chat.openai.com)

1013:名無しさん@お腹いっぱい。
23/08/27 04:16:03.81 jgmqgYa1.net
>>1012
専門家のペルソナが各自で最新の論文引っ張ってくる時代はまだか


最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch