《大规模语言模型:从理论到实践 ( 第2版 ) 》

《大规模语言模型:从理论到实践(第2版)》围绕大语言模型构建的四个阶段:预训练、指令微调、奖励建模和强化学习,详述各阶段所使用的算法、数据、难点及实践经验。在此基础上,进一步探讨了增强大语言模型能力、提升效率及如何将大语言模型落地应用的实践经验,涵盖多模态、智能体等热门方向,全面展现了大语言模型研究的最新进展。

书中提出低训练数据指令微调方法,通过缩小200倍数据规模实现高性能训练。探讨多模态融合架构时引入多层视觉特征融合策略,结合外部直接融合方法在基准测试中达49.88平均得分。集成智能体开发框架案例,如采用三阶段匿名评审机制与动态学习策略的协作系统。同时涵盖检索增强生成技术及LLaMA、DeepSpeed-Chat等实践范式,结合vLLM框架说明模型量化与推理优化方案,新增Mini-LLaVA轻量级模型架构层对齐方法。

《大规模语言模型:从理论到实践(第2版)》适合对深入研究大语言模型内在机制和实现方法感兴趣的读者阅读,也可作为高年级本科生和研究生自然语言处理课程中相关部分的补充教材。

VIP会员免费

已有0人支付

我们相聚,见证阅读的力量!
相聚书屋 » 《大规模语言模型:从理论到实践 ( 第2版 ) 》

发表回复