当个不求甚解的「知道分子」,每天关注 AIGC 前沿新闻和范式迁移,看似厉害,但落到实战层面,才真的体现「Talk is cheap, show me the code」。
我今天想求教如何用代码 finetune 来喂给 LLM 大量数据,并据此仿写/扩写。
问了一圈各种社交网络,收到最多的是如下几类(没什么卵用的)答案:
- 「你别 finetune 啊,你对着 GUI 写 prompts 就行了。」 // 我一开始提问的限定条件就是要 finetune 啊,我要喂养的数据很多,prompts 那点 token 无法解决我的需求,也模仿不全我想要呈现的完整风格感觉。
- 「你去研究 GPT3.5 最新发布的 finetune、你去看看吴恩达联合发布的 finetune 教程,说不定有方法。」 // 我不但前几天就完整研究了一遍,我连 GPT2 和其它 LLM 的 finetune 都研究过了。
- 「我有个开发者、投资人、自媒体的 AIGC 群,你来我群里问问,说不定有解。」 // 这种群太多了啊喂,细问之下,该群里讨论过这个问题,请对方搜索聊天记录,结果是没有任何结果。
所以还是应了之前跟 @jianshuo 王建硕老板访谈里那句话 —— 「不要把研究 AI 新闻,当成是研究 AI」。
得,我自己继续想办法。