25/03/17 14:59:56.80 KmBJ90Gv0.net
六角精児がデモビデオに出てんのかと思った
11:デフォルトの名無しさん
25/03/22 14:57:54.47 6aQClHdE0.net
blackwell使ってる人いる?
12:デフォルトの名無しさん
25/03/22 20:26:45.65 qMW9Vqll0.net
使ってない
13:デフォルトの名無しさん
25/03/22 20:43:01.48 IsXNXnFs0.net
使ってない
14:デフォルトの名無しさん
25/03/23 10:28:12.12 dSwW+8B50.net
じゃあオレも使ってない
15:デフォルトの名無しさん
25/03/23 11:37:35.16 GW78/WS30.net
じゃ、わいも
16:デフォルトの名無しさん
25/03/23 14:06:19.25 tlEq1tOJ0.net
日本に存在しないんでは?
17:デフォルトの名無しさん
25/03/28 10:26:58.92 BtAqS/+a0.net
ジブリスタイル、徐々に検閲され始めたな
他のスタイルでも生成してくれなくなった
18:デフォルトの名無しさん
25/03/31 11:50:37.36 CnW2HgM40.net
記号創発システム論?
既存の研究の焼き直しじゃねえか
こんなインチキに引っかかるのいるのか?
19:デフォルトの名無しさん
25/04/15 12:16:57.64 JThxt8Cp0.net
某陽一はあの芸風で定年までやるのか?😅
20:デフォルトの名無しさん
25/05/04 14:57:47.64 CAP7ZVel0.net
pfnetはちゃんと最新の研究を追え
ていうか論文だせ
qloraなんか今頃使って笑われてたぞ
21:デフォルトの名無しさん (ワッチョイ f690-vmo6 [2001:268:986f:3799:*])
25/05/07 15:48:30.76 FHwmgA+J0.net
初めから小型モデルを目指すのって元も限界あるよな?
蒸留したほうが精度良くない?
22:デフォルトの名無しさん
25/05/07 16:25:56.62 QRPBQasH0.net
ビジネスや研究として最初から小型モデルを目指すのと、その中で学習プロセスにおいて大規模モデルの構築と蒸留を経るのは別問題であり、何ら矛盾しない
最初から蒸留による小規模モデルの構築のみを目的としていて、大規模モデルの方は運用しないことがわかっているなら、
そうでない場合よりも最適なプロセスを構築できたり良好な結果が得られる可能性もあるだろう
23:デフォルトの名無しさん
25/05/07 16:37:36.13 FHwmgA+J0.net
最初から小型よりも
蒸留して小型のほうが精度は高いよ
24:デフォルトの名無しさん
25/05/07 19:27:23.13 FHwmgA+J0.net
端から低精度のモデルを作るつもり?
25:デフォルトの名無しさん
25/05/07 20:45:48.16 3Nv7PA1l0.net
教師モデルを成果物として使わないのなら、蒸留はパラメータ削減の手法として内部的に使用されるステップに過ぎない
26:デフォルトの名無しさん
25/05/08 07:46:11.89 gHGuwFTP0.net
商用として最初から小型を目指すのは間違い
27:デフォルトの名無しさん
25/05/26 20:23:42.72 V+9U6QCJ0.net
NICT産総研国語研が本気出せばすぐ追いつけると思ったけど全然ダメダメ期待外れだな
オープンソースのモデルを継続学習とかするだけでいいよもう😅
国立国会図書館のデータ使えば海外モデル4oとかr1に日本語ベースの評価なら勝てるだろ
28:デフォルトの名無しさん
25/05/27 08:38:43.88 c5IT7Uc90.net
3getロボだったよ
どんなスレでも3getするすごいやつだったよ
🌱
29:デフォルトの名無しさん
25/06/19 10:39:08.68 14iscHFL0.net
自分の死んだ妻を延々とAIで復活させてる記事載せてる人、そろそろやめてほしい
ていうかやっててもいいけどわざわざトピックとしてあげてこないどほしい
30:デフォルトの名無しさん
25/07/10 16:11:22.12 LLfVMqIy0.net
「AI教育は“脳が怠けて抜け出せなくなる”」 世界的権威「MIT」が発表した論文の驚くべき研究結果
新潮