推荐阅读:《深入了解大语言模型运维 (LLMOps) [译]》
这篇文章 5 月份的,但并没有过时,对于大语言模型的运维(LLMOps)讲的非常系统。
随着大语言模型的普及,未来的 Ops 肯定离不开 LLMOps ,甚至于需要专门的团队做 LLMOps。
文章中把 LLMOps 分成了几个关键步骤:
第 1 步:选择基础模型
是商业模型还是开源模型,亦或是混合使用
第 2 步:适应下游任务
LLM 的生成结果不像传统的服务,它的结果是不确定的,怎么让 LLM 生成你期望的结果?要不要微调?要不要使用 RAG?
第 3 步:评估
如何评估性能?由于 LLM 生成结果的不确定性,每次微调或者调整 Prompt 后,性能的变化需要可以量化的评估。
这部分可以配合《用 RAGAs(检索增强生成评估)评估 RAG(检索增强型生成)应用 [译]》 https://t.co/FTz0R43FM0 这篇一起看
第 4 步:部署和监控
和传统运维一样,对于 LLM 的线上的部署和监控也是必不可少的,但是又不太一样,外部 API 需要监控 API 可用性,故障了还要考虑能切换到其他 API。
以上就是主要的几个步骤,可以帮助你系统的了解 LLMOps,但是文章都没有深入展开,最好是配合 OpenAI 官方的 《OpenAI 生产环境最佳实践官方指南 [译]》https://t.co/dSbwbjRzze 一起阅读。
LLMOps 还是个很新也是个很有前途的领域,我个人对这方面也不专业,如果你有相关经验欢迎分享,或者有好的文章视频也欢迎推荐。
原文:https://t.co/3NBvNXGMVr
翻译:https://t.co/Kh8bJ0i0wd
点击图片查看原图