さぼりながらですが
招待講演は NECのLLMなわけですが、
お金がかかる
GPUが熱を出す
ってなところからのお話。すでにChatGPTとかで basic なLLMはできてるんだから、それを
他の人も寄ってたかって作る
ってのは無駄なんじゃないかとは思うわけですけどね
でも、もちろん話は面白い
作用の限界
知識の限界
推論の限界
とかさ。LLMに対する熱は僕はさめましたが、作用の限界とかでも、まだまだいろいろあるらしい。
作用の限界はLLMのUIの工夫みたいな感じね。
知識の限界は、LLMの持つ知識量の限界。推論の限界は、その上で何回推論を行うかね。
Agdaとかいじっていると、推論の問題は単一化にあると思うわけだけど、それはまだ先の話かな。
No comments:
Post a Comment