



 
本书共12章,围绕大语言模型基础理论、预训练、指令理解、模型增强和模型应用五个部分展开:第一部分介绍大语言模型的基础理论;第二部分介绍大语言模型的预训练,包括大语言模型预训练数据和分布式训练;第三部分介绍大语言模型如何理解并服从人类指令,包括有监督微调和强化学习;第四部分介绍大语言模型增强技术,包括多模态语言模型、大模型智能体和检索增强生成;第五部分介绍大模型应用,包括大模型效率优化、模型评估和应用开发。
作者简介:
张奇 复旦大学计算机科学技术学院教授、博士生导师。兼任上海市智能信息处理重点实验室副主任,中国中文信息学会理事、CCF大模型论坛常务委员、CIPS信息检索专委会常务委员、CIPS大模型专委会委员。多次担任ACL、EMNLP、COLING、全国信息检索大会等重要国际和国内会议的程序委员会主席、领域主席、讲习班主席等职务。近年来,承担了国家重点研发计划课题、国家自然科学基金、上海市科委等的多个项目,在国际重要学术期刊和会议上发表论文200余篇。获得WSDM 2014最佳论文提名奖、COLING 2018 领域主席推荐奖、NLPCC 2019杰出论文奖、COLING 2022杰出论文奖。获得上海市“晨光计划”人才计划、复旦大学“卓越2025”人才培育计划等支持,获得钱伟长中文信息处理科学技术一等奖、汉王青年创新一等奖、上海市科技进步二等奖、教育部科技进步二... 张奇 复旦大学计算机科学技术学院教授、博士生导师。兼任上海市智能信息处理重点实验室副主任,中国中文信息学会理事、CCF大模型论坛常务委员、CIPS信息检索专委会常务委员、CIPS大模型专委会委员。多次担任ACL、EMNLP、COLING、全国信息检索大会等重要国际和国内会议的程序委员会主席、领域主席、讲习班主席等职务。近年来,承担了国家重点研发计划课题、国家自然科学基金、上海市科委等的多个项目,在国际重要学术期刊和会议上发表论文200余篇。获得WSDM 2014最佳论文提名奖、COLING 2018 领域主席推荐奖、NLPCC 2019杰出论文奖、COLING 2022杰出论文奖。获得上海市“晨光计划”人才计划、复旦大学“卓越2025”人才培育计划等支持,获得钱伟长中文信息处理科学技术一等奖、汉王青年创新一等奖、上海市科技进步二等奖、教育部科技进步二等奖、IBM Faculty Award等奖项。 桂韬 复旦大学副研究员。研究领域为预训练模型、类人对齐和智能体交互。在国际重要学术期刊和会议上发表论文50余篇,主持国家自然科学基金、计算机学会和人工智能学会的多个人才项目。获得钱伟长中文信息处理科学技术一等奖、NeurIPS 2023大模型对齐 Track最佳论文奖,入选第七届“中国科协青年人才托举工程”、上海市启明星计划。 郑锐 博士毕业于复旦大学计算机科学技术学院,师从张奇教授。曾任字节跳动豆包大模型团队算法工程师,现就职于某前沿科技公司,研究方向为大模型对齐、复杂推理能力提升。获得NeurIPS Workshop on Instruction Following 2024最佳论文奖。MOSS-RLHF开源项目负责人,开源了RLHF代码库及技术文档,推动大模型对齐技术发展。在ICLR、ICML、NeurIPS、ACL等国际会议上发表多篇论文。 黄萱菁 复旦大学特聘教授、博士生导师。主要从事人工智能、自然语言处理和大语言模型研究。兼任中国计算机学会理事、自然语言处理专委会主任、中国中文信息学会理事、计算语言学学会亚太分会主席。在国际重要学术期刊和会议上发表论文200余篇,获优秀论文奖8项。获得钱伟长中文信息处理科学技术一等奖、上海市育才奖,以及人工智能全球女性学者、福布斯中国科技女性等多项荣誉。
目录:
第1章 绪论1
第2章 大语言模型基础13
第3章 大语言模型预训练数据52
第4章 分布式训练83
第5章 指令微调127
第6章 强化学习164
第7章 多模态大语言模型200
第8章 大模型智能体231
第9章 检索增强生成280
第10章 大语言模型效率优化330
第11章 大语言模型评估362
第12章 大语言模型应用开发401
点击下载