《大型语言模型的基础》
(P231页)
微盘地址(需审核,仅面向AI数字小巨人):
https://drive.weixin.qq.com/s?k=AA0AKAefAA0TBrvOI1
这是一本关于大型语言模型的书。正如标题所示,它主要关注基础概念,而不是全面涵盖所有尖端技术。本书分为四个主要章节,每个章节都探讨了一个关键领域:预训练、生成模型、提示技术和对齐方法。它面向自然语言处理和相关领域的大学生、专业人士和从业者,可以作为任何对大型语言模型感兴趣的人的参考。
大型语言模型 (LLM) 已成为将 AI 名称推向公共领域的发明。借助 ChatGPT 等 LLM 驱动的产品,人们比以往任何时候都更加依赖 AI。任何对使用自然语言生成式 AI 模型感兴趣的人都需要了解有关 LLM 的更多信息,Tong Xiao 和 Jingbo Zhu 撰写的《大型语言模型基础》通过以下主题介绍了这些主题:
如何预训练 LLM
如何缩放和微调生成模型
提示和情境学习的作用
与人类偏好保持一致的 LLM 技术
密钥架构
LLM 实施的工程挑战
鉴于 LLM 在您的 AI 职业生涯中的重要性,这本书是您不容错过的。
更多AI前沿资讯、工具、实战,关注数字力公开课:
官方网站:www.addloo.com
视频号:数字力公开课
抖音号:数字力公开课
小程序:数字力公开课