diff --git a/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-124076-270516.jpg b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-124076-270516.jpg new file mode 100644 index 0000000..066a891 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-124076-270516.jpg differ diff --git a/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-20096-279847.jpg b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-20096-279847.jpg new file mode 100644 index 0000000..7c7c460 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-20096-279847.jpg differ diff --git a/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-220157-552735.jpg b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-220157-552735.jpg new file mode 100644 index 0000000..287c6f6 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-220157-552735.jpg differ diff --git a/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-36114-765327.jpg b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-36114-765327.jpg new file mode 100644 index 0000000..c2927f4 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-36114-765327.jpg differ diff --git a/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-392521-261326.jpg b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-392521-261326.jpg new file mode 100644 index 0000000..6b9302f Binary files /dev/null and b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-392521-261326.jpg differ diff --git a/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-42284-124759.jpg b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-42284-124759.jpg new file mode 100644 index 0000000..fec5b77 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-42284-124759.jpg differ diff --git a/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-57107-679259.jpg b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-57107-679259.jpg new file mode 100644 index 0000000..9c0cddb Binary files /dev/null and b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-57107-679259.jpg differ diff --git a/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-618350-869132.jpg b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-618350-869132.jpg new file mode 100644 index 0000000..2e20c3c Binary files /dev/null and b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-618350-869132.jpg differ diff --git a/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-838373-426344.jpg b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-838373-426344.jpg new file mode 100644 index 0000000..8fe6254 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-838373-426344.jpg differ diff --git a/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-906937-836104.jpg b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-906937-836104.jpg new file mode 100644 index 0000000..b2ad3ca Binary files /dev/null and b/knowledge_base/samples/content/llm/img/分布式训练技术原理-幕布图片-906937-836104.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型应用技术原理-幕布图片-108319-429731.jpg b/knowledge_base/samples/content/llm/img/大模型应用技术原理-幕布图片-108319-429731.jpg new file mode 100644 index 0000000..246bbab Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型应用技术原理-幕布图片-108319-429731.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型应用技术原理-幕布图片-580318-260070.jpg b/knowledge_base/samples/content/llm/img/大模型应用技术原理-幕布图片-580318-260070.jpg new file mode 100644 index 0000000..fb9b36a Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型应用技术原理-幕布图片-580318-260070.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型应用技术原理-幕布图片-793118-735987.jpg b/knowledge_base/samples/content/llm/img/大模型应用技术原理-幕布图片-793118-735987.jpg new file mode 100644 index 0000000..4a9e505 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型应用技术原理-幕布图片-793118-735987.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型应用技术原理-幕布图片-918388-323086.jpg b/knowledge_base/samples/content/llm/img/大模型应用技术原理-幕布图片-918388-323086.jpg new file mode 100644 index 0000000..d4c7d9d Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型应用技术原理-幕布图片-918388-323086.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-19929-302935.jpg b/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-19929-302935.jpg new file mode 100644 index 0000000..3d0d0eb Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-19929-302935.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-299768-254064.jpg b/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-299768-254064.jpg new file mode 100644 index 0000000..096469a Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-299768-254064.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-454007-940199.jpg b/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-454007-940199.jpg new file mode 100644 index 0000000..13d85aa Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-454007-940199.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-628857-182232.jpg b/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-628857-182232.jpg new file mode 100644 index 0000000..548efc7 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-628857-182232.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-729151-372321.jpg b/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-729151-372321.jpg new file mode 100644 index 0000000..7a49477 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-729151-372321.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-81470-404273.jpg b/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-81470-404273.jpg new file mode 100644 index 0000000..8dfb2a6 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型技术栈-算法与原理-幕布图片-81470-404273.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-17565-176537.jpg b/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-17565-176537.jpg new file mode 100644 index 0000000..227de2c Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-17565-176537.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-349153-657791.jpg b/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-349153-657791.jpg new file mode 100644 index 0000000..300029a Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-349153-657791.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-350029-666381.jpg b/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-350029-666381.jpg new file mode 100644 index 0000000..09ef409 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-350029-666381.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-759487-923925.jpg b/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-759487-923925.jpg new file mode 100644 index 0000000..6cf0cd6 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-759487-923925.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-805089-731888.jpg b/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-805089-731888.jpg new file mode 100644 index 0000000..a4adfa1 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-805089-731888.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-95996-523276.jpg b/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-95996-523276.jpg new file mode 100644 index 0000000..a48089b Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型指令对齐训练原理-幕布图片-95996-523276.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-276446-401476.jpg b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-276446-401476.jpg new file mode 100644 index 0000000..2cb9631 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-276446-401476.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-380552-579242.jpg b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-380552-579242.jpg new file mode 100644 index 0000000..d993b1b Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-380552-579242.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-590671-36787.jpg b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-590671-36787.jpg new file mode 100644 index 0000000..cf6b095 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-590671-36787.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-699343-219844.jpg b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-699343-219844.jpg new file mode 100644 index 0000000..22a61cc Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-699343-219844.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-789705-122117.jpg b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-789705-122117.jpg new file mode 100644 index 0000000..7556834 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-789705-122117.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-923924-83386.jpg b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-923924-83386.jpg new file mode 100644 index 0000000..d516047 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-923924-83386.jpg differ diff --git a/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-930255-616209.jpg b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-930255-616209.jpg new file mode 100644 index 0000000..3c43116 Binary files /dev/null and b/knowledge_base/samples/content/llm/img/大模型推理优化策略-幕布图片-930255-616209.jpg differ diff --git a/knowledge_base/samples/content/llm/分布式训练技术原理.md b/knowledge_base/samples/content/llm/分布式训练技术原理.md new file mode 100644 index 0000000..9d31f94 --- /dev/null +++ b/knowledge_base/samples/content/llm/分布式训练技术原理.md @@ -0,0 +1,74 @@ +# 分布式训练技术原理 +- 数据并行 + - FSDP + - FSDP算法是由来自DeepSpeed的ZeroRedundancyOptimizer技术驱动的,但经过修改的设计和实现与PyTorch的其他组件保持一致。FSDP将模型实例分解为更小的单元,然后将每个单元内的所有参数扁平化和分片。分片参数在计算前按需通信和恢复,计算结束后立即丢弃。这种方法确保FSDP每次只需要实现一个单元的参数,这大大降低了峰值内存消耗。(数据并行+Parameter切分) + - DDP + - DistributedDataParallel (DDP), **在每个设备上维护一个模型副本,并通过向后传递的集体AllReduce操作同步梯度,从而确保在训练期间跨副本的模型一致性** 。为了加快训练速度, **DDP将梯度通信与向后计算重叠** ,促进在不同资源上并发执行工作负载。 + - ZeRO + - Model state + - Optimizer->ZeRO1 + - 将optimizer state分成若干份,每块GPU上各自维护一份 + - 每块GPU上存一份完整的参数W,做完一轮foward和backward后,各得一份梯度,对梯度做一次 **AllReduce(reduce-scatter + all-gather)** , **得到完整的梯度G,由于每块GPU上只保管部分optimizer states,因此只能将相应的W进行更新,对W做一次All-Gather** + - Gradient+Optimzer->ZeRO2 + - 每个GPU维护一块梯度 + - 每块GPU上存一份完整的参数W,做完一轮foward和backward后, **算得一份完整的梯度,对梯度做一次Reduce-Scatter,保证每个GPU上所维持的那块梯度是聚合梯度,每块GPU用自己对应的O和G去更新相应的W。更新完毕后,每块GPU维持了一块更新完毕的W。同理,对W做一次All-Gather,将别的GPU算好的W同步到自己这来** + - Parameter+Gradient+Optimizer->ZeRO3 + - 每个GPU维护一块模型状态 + - 每块GPU上只保存部分参数W,做forward时,对W做一次 **All-Gather** ,取回分布在别的GPU上的W,得到一份完整的W, **forward做完,立刻把不是自己维护的W抛弃,做backward时,对W做一次All-Gather,取回完整的W,backward做完,立刻把不是自己维护的W抛弃. 做完backward,算得一份完整的梯度G,对G做一次Reduce-Scatter,从别的GPU上聚合自己维护的那部分梯度,聚合操作结束后,立刻把不是自己维护的G抛弃。用自己维护的O和G,更新W。由于只维护部分W,因此无需再对W做任何AllReduce操作** + - Residual state + - activation->Partitioned Activation Checkpointing + - 每块GPU上只维护部分的activation,需要时再从别的地方聚合过来就行。需要注意的是,activation对显存的占用一般会远高于模型本身,通讯量也是巨大的 + - temporary buffer->Constant Size Buffer + - 提升带宽利用率。当GPU数量上升,GPU间的通讯次数也上升,每次的通讯量可能下降(但总通讯量不会变)。数据切片小了,就不能很好利用带宽了。所以这个buffer起到了积攒数据的作用:等数据积攒到一定大小,再进行通讯。 + - 使得存储大小可控。在每次通讯前,积攒的存储大小是常量,是已知可控的。更方便使用者对训练中的存储消耗和通讯时间进行预估 + - unusable fragment->Memory Defragmentation + - 对碎片化的存储空间进行重新整合,整出连续的存储空间。防止出现总存储足够,但连续存储不够而引起的存储请求fail + - offload + - ZeRO-Offload + - **forward和backward计算量高** ,因此和它们相关的部分,例如参数W(fp16),activation,就全放入GPU + - **update的部分计算量低** ,因此和它相关的部分,全部放入CPU中。例如W(fp32),optimizer states(fp32)和gradients(fp16)等 + - ZeRO-Offload 分为 Offload Strategy 和 Offload Schedule 两部分,前者解决如何在 GPU 和 CPU 间划分模型的问题,后者解决如何调度计算和通信的问题 + - ZeRO-Infinity + - 一是将offload和 ZeRO 的结合从 ZeRO-2 延伸到了 ZeRO-3,解决了模型参数受限于单张 GPU 内存的问题 + - 二是解决了 ZeRO-Offload 在训练 batch size 较小的时候效率较低的问题 + - 三是除 CPU 内存外,进一步尝试利用 NVMe 的空间 +- 模型并行 + - tensor-wise parallelism + - MLP切分 + - 对第一个线性层按列切分,对第二个线性层按行切分 + - ![图片](./img/分布式训练技术原理-幕布图片-36114-765327.jpg) + - ![图片](./img/分布式训练技术原理-幕布图片-392521-261326.jpg) + - ![图片](./img/分布式训练技术原理-幕布图片-57107-679259.jpg) + - self-attention切分 + - attention的多头计算天然适合tensor并行,因为每个头上都可以独立计算最后再将结果concat起来,从而 **可以把每个头的参数放到一块GPU上** + - 对线性层, **按照“行切割”** 。切割的方式和MLP层基本一致,其forward与backward原理也一致 + - 输入层Embedding切分 + - 对positional embedding来说,max_s本身不会太长,因此每个GPU上都拷贝一份,对显存的压力也不会太大 + - 将word embedding拆分到不同GPU上,每块GPU维护一分部词表。当输入X去GPU上查找时,能找到的词,就正常返回词向量,找到不到就把词向量中的全部全素都置0。按此方式查找完毕后,每块GPU上的数据做一次AllReduce,就能得到最终的输入。 + - ![图片](./img/分布式训练技术原理-幕布图片-220157-552735.jpg) + - 输出层Embedding切分 + - **输入层和输出层共用一个word embeding** + - **当模型的输入层到输入层都在一块GPU上时(即流水线并行深度=1),我们不必担心这点(实践中大部分用Megatron做并行的项目也是这么做的)。但若模型输入层和输出层在不同的GPU上时,我们就要保证在权重更新前,两块GPU上的word embedding梯度做了一次AllReduce** 。 + - ![图片](./img/分布式训练技术原理-幕布图片-42284-124759.jpg) + - cross-entroy + - ![图片](./img/分布式训练技术原理-幕布图片-124076-270516.jpg) + - ![图片](./img/分布式训练技术原理-幕布图片-838373-426344.jpg) + - [pipeline paralelism]("https://zhuanlan.zhihu.com/p/629637468") + - GPipe + - PipeDream + - 1F1B + - 每个 GPU 以交替的方式执行每个 micro batch 的正向和反向过程,以尽早释放其占用的显存,进而减少显存占用 + - ![图片](./img/分布式训练技术原理-幕布图片-20096-279847.jpg) + - 1F1B 并不能减少 bubble time, **为了进一步减少 bubble time,Megatron 又提出了 interleaved 1F1B 模式** 。也就是原本每个 GPU 负责连续 4 个层的计算,现在变成负责连续两个层的计算,只有原来的一半,从而 bubble time 也变成了原来的一半,即把一个设备上连续的层划分为若干不连续的层,负责的数量不变,但顺序变了。 + - ![图片](./img/分布式训练技术原理-幕布图片-618350-869132.jpg) + - DAPPLE + - ![图片](./img/分布式训练技术原理-幕布图片-906937-836104.jpg) + - layer-wise parallelism + - sequence parallelism + - Sequence 并行的好处在于不会增加通信量,并且可以大大减少显存占用 + - Layer-norm 和 Dropout 沿着序列的维度是独立的,因此可以按照 Sequence 维度进行拆分 + - 使用了 Sequence 并行之后,对于超大规模的模型而言,其实显存占用量还是很大的。因此,Megatron 又引入了激活重计算技术,找到一些计算量很少但显存占用很大的算子,比如 Attention 里的 Softmax、Dropout 等算子,对这些算子进行激活重计算就可以显著减少显存,并且计算开销增加不大 +- MoE + - 核心思想:将大模型拆分成多个小模型。每个样本只需要激活部分专家模型进行计算,从而大大节省计算资源。 **MoE 的基本思路是通过宽度换取深度,因为模型深度越深,计算层数越多,进而推理时间越长** + - Hard Gate MoE + - Sparse MoE \ No newline at end of file diff --git a/knowledge_base/samples/content/llm/大模型应用技术原理.md b/knowledge_base/samples/content/llm/大模型应用技术原理.md new file mode 100644 index 0000000..66fc253 --- /dev/null +++ b/knowledge_base/samples/content/llm/大模型应用技术原理.md @@ -0,0 +1,97 @@ +# 大模型应用技术原理 +- RAG + - 向量数据库 [对比]("https://www.jianshu.com/p/43cc19426113") + - 选型标准 + - 开源vs.闭源vs. 源码可见 + - 客户端/SDK语言 + - 托管方式 + - self-hosted/on-premise + - redis,pgvector,milvus + - managed/cloud-native + - zilliz,pinecone + - embeded+cloud-native + - chroma,lanceDB + - self-hosted+cloud-native + - vald,drant,weaviate,vspa,elasticsearch + - 索引方法 + - 算法 + - Flat + - Tree-based + - Annoy(Approximate Nearest Neighbors Oh Yeah) + - KD-Tree + - Trinary Projection Trees + - IVF + - IVF + - IVMF(Inverted Multi-index File) + - Graph-based + - HNSW + - NSG + - Vamana(DiskANN) + - ![图片](./img/大模型应用技术原理-幕布图片-793118-735987.jpg) + - ![图片](./img/大模型应用技术原理-幕布图片-580318-260070.jpg) + - Hashing-based + - LSH + - Spherical Hashing + - Spectral Hashing + - 量化 + - PQ(Product Quantization) + - PQ 将特征空间分解为多个低维子空间的笛卡尔乘积,然后单独地对每一个子空间进行量化 + - SQ(Scalar Quantization) + - SQ是将每一个维度量化成指定位数的一个数 + - 主流方案 + - professional + - weaviate + - 1. 文档丰富,容易上手 + - 2. 提供混合索引 + - 3. 支持自托管+云原生 + - 4.支持python,js,ts,go,java等客户端 + - 5. 支持HNSW,HNSW-PQ,DisANN等索引 + - chroma + - LanceDB + - pinecone + - 1. 完全云原生,非常容易上手 + - 2. 自建复合索引 + - faiss + - 1.来自 Meta AI(原 Facebook Research)的开源项目 + - 2.同时支持cpu和GPU两种设备 + - 3. 支持C++,python, go等客户端 + - 4. 支持常见的索引方式,如IVF,HNSW,支持PQ量化 + - 5. in-memory运行 + - 6. self-hosted + - milvus + - 1. 通过代理、负载均衡器、消息代理、Kafka和Kubernetes的组合实现了高度可扩展性,这使得整个系统变得非常复杂和资源密集 + - 2. 截至2023年,它是唯一一个提供可工作的DiskANN实现的主要供应商 + - 3. 支持在向量相似度检索过程中进行标量字段过滤,实现混合查询 + - 4. 采用 **存储与计算分离** 的架构设计 + - 5. 提供python,juava,go,node.js等语言SDK,也提供milvus lite等in-momery运行 + - 6. 提供了图形界面客户端 + - traiditional + - ES + - redis + - pgvector + - Embedding模型 + - bi-encoder + - cross-encoder + - 【可选】文本检索引擎 + - ElasticSearch + - OpenSearch + - 【可选】图数据库 + - 检索 + - 向量检索 + - 关键字检索 + - BM25 + - NL2Cypher + - NL2SQL + - RAG增强 + - Self-RAG + - 框架 + - 自反思检索增强生成(Self-RAG, Self-Reflective Retrieval-Augmented Generation)。这是一个新框架,它不仅可以根据需要自适应地检索段落(即:模型可以判断是否有必要进行检索增强),还引入了名为反思令牌(reflection tokens)的特殊令牌,使LM在推理阶段可控。 + - ![图片](./img/大模型应用技术原理-幕布图片-108319-429731.jpg) + - ![图片](./img/大模型应用技术原理-幕布图片-918388-323086.jpg) + - 训练 + - 首先,训练评论家,使用检索器检索到的段落以及反思令牌增强指令-输出数据,然后,使用标准的下一个 token 预测目标来训练生成器 LM,以学习生成 自然延续(continuations)以及特殊 tokens (用来检索或批评其自己的生成内容). + - 推理 + - 它可以适应性地使用检索令牌进行检索,因此模型可以自发判断是不是有必要进行检索。它引入了多种细粒度的批评令牌,这些令牌用于评估生成内容的各个方面的质量。在生成过程中,作者使用期望的批评令牌概率的线性插值进行segment级的beam search,以在每一个时间步骤中确定最佳的K个续写方案 +- Agent + - function call + - ToolFormer \ No newline at end of file diff --git a/knowledge_base/samples/content/llm/大模型技术栈-实战与应用.md b/knowledge_base/samples/content/llm/大模型技术栈-实战与应用.md new file mode 100644 index 0000000..cf3ac14 --- /dev/null +++ b/knowledge_base/samples/content/llm/大模型技术栈-实战与应用.md @@ -0,0 +1,44 @@ +# 大模型技术栈-实战与应用 +- 训练框架 + - deepspeed + - megatron-lm + - colossal-ai + - trlx +- 推理框架 + - triton + - vllm + - text-generation-inference + - lit-llama + - lightllm + - TensorRT-LLM(原FasterTransformer) + - fastllm + - inferllm + - llama-cpp + - openPPL-LLM +- 压缩框架 + - bitsandbytes + - auto-gptq + - deepspeed +- embedding框架 + - sentence-transformer + - FlagEmbedding +- 向量数据库 [向量数据库对比]("https://www.jianshu.com/p/43cc19426113") + - faiss + - pgvector + - milvus + - pinecone + - weaviate + - LanceDB + - Chroma +- 应用框架 + - Auto-GPT + - langchain + - llama-index + - quivr +- python前端 + - streamlit + - gradio +- python API工具 + - FastAPI+uvicorn + - flask + - Django \ No newline at end of file diff --git a/knowledge_base/samples/content/llm/大模型技术栈-算法与原理.md b/knowledge_base/samples/content/llm/大模型技术栈-算法与原理.md new file mode 100644 index 0000000..f28e21a --- /dev/null +++ b/knowledge_base/samples/content/llm/大模型技术栈-算法与原理.md @@ -0,0 +1,301 @@ +# 大模型技术栈-算法与原理 +- 1. tokenizer方法 + - word-level + - char-level + - subword-level + - BPE + - WordPiece + - UniLM + - SentencePiece + - ByteBPE +- 2. position encoding + - 绝对位置编码 + - ROPE + - AliBi + - 相对位置编码 + - Transformer-XL + - T5/TUPE + - DeBERTa + - 其他位置编码 +- 3. 注意力机制 + - 稀疏注意力 + - flash-attention + - +- 4. 分布式训练 + - 数据并行 + - FSDP + - DDP + - ZeRO + - Model state + - Optimizer->ZeRO1 + - 将optimizer state分成若干份,每块GPU上各自维护一份 + - 每块GPU上存一份完整的参数W,做完一轮foward和backward后,各得一份梯度,对梯度做一次 **AllReduce(reduce-scatter + all-gather)** , **得到完整的梯度G,由于每块GPU上只保管部分optimizer states,因此只能将相应的W进行更新,对W做一次All-Gather** + - Gradient+Optimzer->ZeRO2 + - 每个GPU维护一块梯度 + - 每块GPU上存一份完整的参数W,做完一轮foward和backward后, **算得一份完整的梯度,对梯度做一次Reduce-Scatter,保证每个GPU上所维持的那块梯度是聚合梯度,每块GPU用自己对应的O和G去更新相应的W。更新完毕后,每块GPU维持了一块更新完毕的W。同理,对W做一次All-Gather,将别的GPU算好的W同步到自己这来** + - Parameter+Gradient+Optimizer->ZeRO3 + - 每个GPU维护一块模型状态 + - 每块GPU上只保存部分参数W,做forward时,对W做一次 **All-Gather** ,取回分布在别的GPU上的W,得到一份完整的W, **forward做完,立刻把不是自己维护的W抛弃,做backward时,对W做一次All-Gather,取回完整的W,backward做完,立刻把不是自己维护的W抛弃. 做完backward,算得一份完整的梯度G,对G做一次Reduce-Scatter,从别的GPU上聚合自己维护的那部分梯度,聚合操作结束后,立刻把不是自己维护的G抛弃。用自己维护的O和G,更新W。由于只维护部分W,因此无需再对W做任何AllReduce操作** + - Residual state + - activation->Partitioned Activation Checkpointing + - 每块GPU上只维护部分的activation,需要时再从别的地方聚合过来就行。需要注意的是,activation对显存的占用一般会远高于模型本身,通讯量也是巨大的 + - temporary buffer->Constant Size Buffer + - 提升带宽利用率。当GPU数量上升,GPU间的通讯次数也上升,每次的通讯量可能下降(但总通讯量不会变)。数据切片小了,就不能很好利用带宽了。所以这个buffer起到了积攒数据的作用:等数据积攒到一定大小,再进行通讯。 + - 使得存储大小可控。在每次通讯前,积攒的存储大小是常量,是已知可控的。更方便使用者对训练中的存储消耗和通讯时间进行预估 + - unusable fragment->Memory Defragmentation + - 对碎片化的存储空间进行重新整合,整出连续的存储空间。防止出现总存储足够,但连续存储不够而引起的存储请求fail + - offload + - ZeRO-Offload + - **forward和backward计算量高** ,因此和它们相关的部分,例如参数W(fp16),activation,就全放入GPU + - **update的部分计算量低** ,因此和它相关的部分,全部放入CPU中。例如W(fp32),optimizer states(fp32)和gradients(fp16)等 + - ZeRO-Offload 分为 Offload Strategy 和 Offload Schedule 两部分,前者解决如何在 GPU 和 CPU 间划分模型的问题,后者解决如何调度计算和通信的问题 + - ZeRO-Infinity + - 一是将offload和 ZeRO 的结合从 ZeRO-2 延伸到了 ZeRO-3,解决了模型参数受限于单张 GPU 内存的问题 + - 二是解决了 ZeRO-Offload 在训练 batch size 较小的时候效率较低的问题 + - 三是除 CPU 内存外,进一步尝试利用 NVMe 的空间 + - 模型并行 + - tensor-wise parallelism + - Megatron-LM + - 流水线并行 + - GPipe + - PipeDream + - layer-wise parallelism + - sequence parallelism +- 5. PEFT + - Lora类 + - LoRA + - 用两个低秩矩阵替代待更新的权重矩阵的增量 + - QLoRA + - 4 bit NormalFloat(NF4) 量化和双量化 + - 引入了分页优化器,以防止梯度检查点期间的内存峰值 + - AdaLoRA + - 用奇异值分解P \ Gamma Q代替AB,根据loss梯度评估对角线上值进行重要性评分,根据评分动态分配参数预算给权重矩阵 + - AdaLoRA将关键的增量矩阵分配高秩以捕捉更精细和任务特定的信息,而将较不重要的矩阵的秩降低,以防止过拟合并节省计算预算。 + - 以奇异值分解的形式对增量更新进行参数化,并根据重要性指标裁剪掉不重要的奇异值,同时保留奇异向量。 + - 在训练损失中添加了额外的惩罚项,以规范奇异矩阵P和Q的正交性,从而避免SVD的大量计算并稳定训练 + - IA3 + - 通过学习向量来对激活层加权进行缩放 + - 学习到的向量被注入到attention和feedforward模块中 + - ReLoRA + - **ReLoRA在合并和重新启动期间可以对优化器进行部分重置** ,并在随后的预热中过程中将学习率设置为0。 **具体来说,作者提出了一种锯齿状学习率调度算法** + - 出发点:通过不断叠加LoRA训练过程来达到更好的训练效果, **首先需要对LoRA过程进行重新启动,想要对已经完成的LoRA过程重新启动并不容易,这需要对优化器进行精细的调整,如果调整不到位,会导致模型在重启后立即与之前的优化方向出现分歧** + - Prompt类 + - prompt tuning + - 在输入层加一个embedding层 + - P-tuning + - 在输入层加一个embedding和一个LSTM或MLP + - prefix tuning + - 在每一层加入一个embedding和一个MLP + - P-tuning v2 + - 在每一层都加一个embedding层 + - Adapter类 + - Adapter Tuning + - 针对每一个Transformer层,增加了两个Adapter结构(分别是多头注意力的投影之后和第二个feed-forward层之后) + - Adapter Fusion + - 在 Adapter 的基础上进行优化,通过将学习过程分为两阶段来提升下游任务表现 + - 知识提取阶段:在不同任务下引入各自的Adapter模块,用于学习特定任务的信息。 + - 知识组合阶段:将预训练模型参数与特定于任务的Adapter参数固定,引入新参数(AdapterFusion)来学习组合多个Adapter中的知识,以提高模型在目标任务中的表现 + - Adapter Drop + - 在不影响任务性能的情况下,对Adapter动态高效的移除,尽可能的减少模型的参数量,提高模型在反向传播(训练)和正向传播(推理)时的效率 + - 其他 + - BitFit + - 疏的微调方法,它训练时只更新bias的参数或者部分bias参数 + - 混合式 + - MAM Adapter + - 用 FFN 层的并行Adapter和软提示的组合 + - UniPELT + - 门控被实现为线性层,通过GP参数控制Prefix-tuning方法的开关,GL控制LoRA方法的开关,GA控制Adapter方法的开关 +- 6. 压缩 + - 剪枝 + - OBD(Optimal Brain Damage) + - 利用二阶导数信息度量模型参数的显著性,剪掉影响小的参数降低模型复杂度提高泛化能力 + - ![图片](./img/大模型技术栈-算法与原理-幕布图片-628857-182232.jpg) + - OBS(Optimal Brain Surgeon ) + - OBD粗暴的只考虑海森矩阵对角线元素。OBS考虑海森矩阵全局信息,由此也获得参数相互之间的影响。 + - OBC(OPTIMAL BRAIN COMPRESSION ) + - OBS对整个神经网络进行剪枝,OBC对神经网络模型分层剪枝或者量化 + - ExactOBS + - 参数更新和代价评估不需要使用整个海森矩阵,仅使用和剪枝参数所在行相关的 d_col\time d_col大小的海森矩阵。 + - 量化 ![图片](./img/大模型技术栈-算法与原理-幕布图片-454007-940199.jpg) + - GPTQ + - 1.是对OBC的改进 + - 2. 取消了贪心算法,采用固定位置优化 + - 3. 分组量化,并行加速 + - ![图片](./img/大模型技术栈-算法与原理-幕布图片-729151-372321.jpg) + - SpQR + - 核心思想:参数的对模型的重要程度,存在极强的不均衡性。1%的参数,可能主导的量化过程中损失的性能,假如我们在量化中保护这1%的参数,就能极大程度保护模型的性能不受影响 + - 2. 对于每一层,它使用一个小的输入数据集X,用来计算单个参数w_ij被量化前后造成的的误差s_ij. 有了s_ij之后再取top 1%的参数认为它们是重要参数进行保护。 + - 在挑选出参数之后,SqQR使用一个稀疏矩阵来单独保存这些参数,令这些重要参数的精度仍为fp16。 + - SqQR在实验中还观察到重要参数往往以行或者列聚集,因此提出使用更小的group_size比如8或16,而非GPTQ中常用的128 + - AWQ + - 1. AWS是在smoothquant的基础上提出来的 + - 2. AWQ针对channel维度来寻找重要参数,依据是输入X以及这个参数本身W的绝对大小 + - 3.方式是寻找一个缩放比例s,在参数量化之前W乘以这个比例,计算时输入X除以这个比例,以减小误差 + - 4. 把s分成两个值S_x和S_w相乘,我们需要W越大s越小,X越大,s越大 + - ![图片](./img/大模型技术栈-算法与原理-幕布图片-299768-254064.jpg) + - OBC(OPTIMAL BRAIN COMPRESSION ) + - ![图片](./img/大模型技术栈-算法与原理-幕布图片-19929-302935.jpg) + - SmoothQuant + - 1. 当模型规模更大时,单个token的值变化范围较大,难以量化,相比之下 weight 的变化范围较小,即 weight 较易量化,而 activation 较难量化 + - 2. SmoothQuant 核心思想是引入一个超参,减小激活值的变化范围,增大权重的变化范围,从而均衡两者的量化难度 + - 3. 得到smooth变换之后的 activation 和 weight 矩阵,可以再采用 per-token 或 per-tensor 的量化方式, + - ![图片](./img/大模型技术栈-算法与原理-幕布图片-81470-404273.jpg) + - LLM.int8 + - 采用混合精度分解的量化方法:将包含了Emergent Features的几个维度从矩阵中分离出来,对其做高精度的矩阵乘法;其余部分进行量化 + - ZeroQuant + - 1. 对权重使用分组量化,对激活使用token量化 + - 2. 开发了高度优化的推理后端,消除了量化/反量化运算符昂贵的计算成本,在现代GPU硬件上实现INT8 Tensor内核的延迟加速 + - 3. 提出了一种用于INT4/INT8混合精度量化的新的逐层知识蒸馏方法(LKD),其中神经网络通过蒸馏逐层量化,迭代最小,甚至不访问原始训练数据 + - 分类学 + - 对称量化vs非对称量化 + - 量化是否均衡,原点是否为0 + - 动态量化vs静态量化 + - 输入的缩放因子计算方法不同 + - 静态量化的模型在使用前有“calibrate”的过程(校准缩放因子),量化模型的缩放因子会根据输入数据的分布进行调整 + - Weights量化vsActivation量化 + - feature map(fm)就是每一层网络的输入tensor,featuremap量化就是我们常说的激活量化 + - per-token vs. per-layer/per-tensor vs. per channel vs. per group vs + - **per-token quantization** :激活每个token对应的tensor共享量化系数 + - **per-tensor quantization** : 对一整个tensor设置简单的量化集合 + - **per-channel quantization** : 对权重的每个输出通道设置一个量化集合,但实际中feature 还是整个 tensor 共用一个 scale 和 zeropoint,但每个 kernel 会单独统计一个 scale 和 zeropoint(注意是每个 kernel,而不是 kernel 的每个 channel) + - **group-wise quantization** : 把多个channel合在一起用一组量化系数 + - 蒸馏(layer reduction) +- 7. 推理 + - 7.1 吞吐量与显存优化 + - PagedAttention + - Qunatized KV Cache + - MQA/GQA + - FlashAttention + - 7.2 算子融合 + - 7.3 延迟优化 + - No Padding优化 + - 7.4 调度优化 + - Dynamic Batching + - Async Servering + - Inflight Batching + - 7.5 量化 + - 7.6 模型并行 + - tensor paralellism + - 7.7 请求优化 + - rpc + - grpc + - http +- 8. 应用 + - RAG + - Agent +- 9. embedding模型 + - 分类学 + - 对称vs. 非对称 vs. 混合 + - 对称 query:qestion, text:text + - sentence-T5 + - 非对称:query:text + - GTR + - 混合 + - Instructor + - 对比学习+对比学习 vs. 自编码+对比学习 + - 对比学习+对比学习 + - sentence-T5 + - GTR + - E5 + - 自编码+对比学习 + - bge + - retromae + - bert-based vs. GPT-based + - bert-based + - LLM-based + - PromptEOL+CSE+LLM + - Bert-CLS,Bert-mean + - 双向decoder-encoder的Transformer + - T5 series + - Sentence-T5 + - T5-encoder+mean pooling + - 无标注对比学习+有标注对比学习的两阶段训练 + - Jina + - 以T5为基本架构 + - 去重、语言过滤、一致性过来 + - **采用了并行化方法在多个数据集上进行训练** ,但设计了一个约束条件:每个训练批次(batch)仅包含来自单一数据集的样本 + - 三元组训练:enchor,entainment, contraversive + - GTR + - 与sentence-T5结构相同 + - 将finetune的数据集从NLI换成检索相关的,并且利用百度的rocketqa来获得hard negative + - 对比学习改成双向对比学习(每个batch里有两个对比学习损失,第一个损失是以query为中心去构建正负样本,第二个损失是以positive document为中心去构建正负样本) + - simcse + - 无监督Simcse + - 对于同一条语句,在训练中使用两次不同的dropout mask,把两次dropout后的句子对视为一组互为正例的样本对,即相似句子对 + - "不相似句子对"通过采样同一批(batch)内的其余句子即可 + - 有监督simcse + - 采用NLI有监督数据集做对比学习训练,NLI,即自然语言推理,其任务是判断两句话之间的关系,可能的关系有entailment (相近), contradiction (矛盾)或neutral (中立)。 + - entailment sentence pair作为正例, contradiction sentence pair作为hard negative样本 + - 衍生算法 + - Esimcse + - ESimCSE选择在句子中随机重复一些单词作为正样本,解决模型倾向于判断相同或相似长度的句子在表达上更相近的问题 + - 维护了一个队列,重用前面紧接的mini-batch的编码嵌入来扩展负对,并使用了动量编码器 + - CoSENT + - 在正负样本的基础上,基于circle loss进一步引入排序 + - SNCSE + - 针对模型「无法区分文本相似度和语义相似度,更偏向具有相似文本,而不考虑实际语义差异」的问题,提出了一种「显式添加否定词从而生成软负样本」结合「双向边际损失」的方案。 + - EASE + - 强调实体在句向量表征中的重要性。在数据层面,使用正、负实体代替正负样本。 + - CLAIF + - 针对训练过程中缺乏细粒度的监督信号, 即没有考虑到正样本对之间的相似性差异,引入来自LLM的AI反馈,构造具有不同相似度的样本对,并对这些样本对给出细粒度的相似度分数作为监督信号,帮助文本表示的学习。 + - Instructor + - 1. 以GTR为基底模型,经过进一步的“instruction tuning”得到 + - 2. 将模型输入改成Task Instuction+[X]([X]代表具体的文本输入) + - E5 + - E5提出了一个预训练数据过滤的方案consistency-based filter + - 以Bert为基座的embedding模型 + - 在模型输入侧加入了Prefix("query:"跟“paragraph:”),从而让模型知道文本的类型,跟Instructor的instruction类似 + - BGE + - 基于RetroMAE方案 + - BGE在finetune阶段针对检索任务需要加入特定的Prefix(只在query侧加"Represent this sentence for searching relevant passages:") + - RetroMAE + - 包括一个以Bert为基底的Encoder跟一个只有一层的Decoder + - Encoder端以30%的比例对原文本进行mask,最终得到最后一层[CLS]位置的向量表征作为句向量 + - Decoder端则以50%的比例对原文本进行mask,联合Encoder端的句向量,对原本进行重建 + - PromptBert + - 以Bert为基底,通过选择合适的prompt(“This sentence:"[X]" means [MASK] ”),然后以最后一层[MASK]位置的向量表征作为句向量,即便不经过额外的finetune也能取得令人惊艳的效果 + - PromptEOL+CLS+LLM + - 语言模型使用的是OPT跟LLaMA + - 构建了另一个新的prompt,"This sentence:”[X]” means in one word:",以下一个生成token的隐层状态作为text embedding + - 还引入了in-context learning,为每个语言模型找到了一个最佳的demonstration,从而指导语言模型生成更符合要求的text embedding + - 为了进一步提升性能,可以采用对比学习的方式作进一步的finetune +- 10. 上下文扩展 + - Alibi + - log(n)注意力缩放 + - window attention + - RoPE改进 + - Interpolation + - Position Interpolation + - 线性插值 + - Extrapolation + - NTK感知缩放RoPE + - dynamic缩放RoPE + - consistent of Dynamically Scaled RoPE + - 混合 + - Rectified RoPE + - **N** aive **B** ayes-based **C** ontext **E** xtension + - 只需要修改一下解码函数中的logits构建方式 + - 即插即用、模型无关、无须微调、线性效率、实现简单 + - NBCE的一大缺点是无序性,即无法识别Context的输入顺序,这在续写故事等场景可能表现欠佳 +- 11. Prompt Engineering + - **Chain of Thought** + - Let’s Think step by step + - **Self-Consistency** + - Few-shot + {question} 用几个相似的具有推导步骤的例子 + - **Auto-CoT** + - Few-shot + {question} +Chain of Thought相似的具有推导步骤的例子+{问题}+给出具体思考过程。 + - **Generation Knowledge** + - 以事实+知识的方式组织样例,再最后提问,要求给出解释和答案 + - **Automatic Prompt Engineer** + - Let's work this out in a step by step way to be sure we have the right answer + - **OPRO** + - “Take a deep breath and think step by step.” + - Optimization by PROmpting (OPRO)总体架构:最开始输入meta-prompt,这个初始的meta-prompt基本上只是对优化任务进行了描述(也会有few-shot example)。输入后LLM便会生成一个solution,这个solution由objective function评估并打分。(solution, score)组合成一对添加到meta-prompt中,如此完成一个循环。多次循环后取分数最高的solution作为优化结果。 + - meta-prompt分为两部分,问题描述和优化轨迹,问题描述就是用自然语言描述想要优化的问题,比如“generate a new instruction that achieves a higher accuracy”。而优化弹道(Optimization trajectory)则是指之前提到的(solution, score)对,即之前生成的解决方案和对应的分数,可以看作优化的“日志”。但是要注意这个弹道不是按 排的,而是按照打分升序排的。因为之前的研究也发现,越靠后的样例对输出的影响越大,所以把分数高的排在后面有利于LLM向其学习。 [时间顺序]("https://so.csdn.net/so/search?q=%E6%97%B6%E9%97%B4%E9%A1%BA%E5%BA%8F&spm=1001.2101.3001.7020") + - **Tree of Thought** + - f“给定当前的推理状态:‘{state_text}’,生成{k}条连贯的思想来实现推理过程:” + - f“鉴于当前的推理状态:‘{state_text}’,根据其实现 {initial_prompt} 的潜力悲观地将其值评估为 0 到 1 之间的浮点数” + - 利用树的遍历算法(BFS, DFS, MC,BF,A*),搜索最佳答案。 + - **Graph of Thought** + - 创新点是将大模型生成的信息建模为一个图,节点是 “LLM的思想“,边是这些思想的依赖关系。这种方法能够将任意 LLM 思想,组合,提取出这个网络的思想本质。 + - **出发点** :人类的思维在解决问题时,不是只会链式思维或者尝试不同的链(TOT),而是在脑中构建一个复杂的思维网络。人类在思考时会沿着一个链式的推理,回溯,再尝试一个新的方向,并把之前的链的优点保留,缺点剔除,与当前探索的链的方向结合生成一个新的解决方案 \ No newline at end of file diff --git a/knowledge_base/samples/content/llm/大模型指令对齐训练原理.md b/knowledge_base/samples/content/llm/大模型指令对齐训练原理.md new file mode 100644 index 0000000..bf7ef12 --- /dev/null +++ b/knowledge_base/samples/content/llm/大模型指令对齐训练原理.md @@ -0,0 +1,30 @@ +# 大模型指令对齐训练原理 +- RLHF + - SFT + - RM + - PPO +- AIHF-based + - RLAIF + - 核心在于通过AI 模型监督其他 AI 模型,即在SFT阶段,从初始模型中采样,然后生成自我批评和修正,然后根据修正后的反应微调原始模型。在 RL 阶段,从微调模型中采样,使用一个模型来评估生成的样本,并从这个 AI 偏好数据集训练一个偏好模型。然后使用偏好模型作为奖励信号对 RL 进行训练 + - ![图片](./img/大模型指令对齐训练原理-幕布图片-17565-176537.jpg) + - ![图片](./img/大模型指令对齐训练原理-幕布图片-95996-523276.jpg) + - ![图片](./img/大模型指令对齐训练原理-幕布图片-349153-657791.jpg) + - RRHF + - RRHF( **R** ank **R** esponse from **H** uman **F** eedback) 不需要强化学习,可以利用不同语言模型生成的回复,包括 ChatGPT、GPT-4 或当前的训练模型。RRHF通过对回复进行评分,并通过排名损失来使回复与人类偏好对齐。RRHF 通过通过排名损失使评分与人类的偏好(或者代理的奖励模型)对齐。RRHF 训练好的模型可以同时作为生成语言模型和奖励模型使用。 + - ![图片](./img/大模型指令对齐训练原理-幕布图片-805089-731888.jpg) +- SFT-only + - LIMA + - LIMA(Less Is More for Alignment) 即浅层对齐假说,即一 **个模型的知识和能力几乎完全是在预训练中学习的,而对齐则是教会它与用户交互时如何选择子分布** 。如果假说正确,对齐主要有关于学习方式,那么该假说的一个推论是,人们可以用相当少的样本充分调整预训练的语言模型。因此, **该工作假设,对齐可以是一个简单的过程,模型学习与用户互动的风格或格式,以揭示在预训练中已经获得的知识和能力。** + - LTD Instruction Tuning + - ![图片](./img/大模型指令对齐训练原理-幕布图片-759487-923925.jpg) +- Reward-only + - DPO + - DPO(Direct Preference Optimization) 提出了一种使用二进制交叉熵目标来精确优化LLM的方法,以替代基于 RL HF 的优化目标,从而大大简化偏好学习 pipeline。也就是说,完全可以直接优化语言模型以实现人类的偏好,而不需要明确的奖励模型或强化学习。 + - DPO 也依赖于理论上的偏好模型(如 Bradley-Terry 模型),以此衡量给定的奖励函数与经验偏好数据的吻合程度。然而,现有的方法使用偏好模型定义偏好损失来训练奖励模型,然后训练优化所学奖励模型的策略,而 DPO 使用变量的变化来直接定义偏好损失作为策略的一个函数。鉴于人类对模型响应的偏好数据集,DPO 因此可以使用一个简单的二进制交叉熵目标来优化策略,而不需要明确地学习奖励函数或在训练期间从策略中采样。 + - RAFT + - ![图片](./img/大模型指令对齐训练原理-幕布图片-350029-666381.jpg) +- 参考文献 + - [反思RLHF]("https://mp.weixin.qq.com/s/e3E_XsZTiNMNYqzzi6Pbjw") + - [RLHF笔记]("https://mathpretty.com/16017.html") + - [hf-blog]("https://huggingface.co/blog/zh/rlhf") + - ** [RLHF代码详解]("https://zhuanlan.zhihu.com/p/624589622") \ No newline at end of file diff --git a/knowledge_base/samples/content/llm/大模型推理优化策略.md b/knowledge_base/samples/content/llm/大模型推理优化策略.md new file mode 100644 index 0000000..6d925a9 --- /dev/null +++ b/knowledge_base/samples/content/llm/大模型推理优化策略.md @@ -0,0 +1,63 @@ +# 大模型推理优化策略 +- 7.1 显存优化 + - [PagedAttention]("https://zhuanlan.zhihu.com/p/638468472") + - KV cache,其具有以下特点:1. 显存占用大,14b级别的模型,每个token需要约0.7M-1M的显存;2. 动态变化:KV 缓存的大小取决于序列长度,这是高度可变和不可预测的。因此,这对有效管理 KV cache 挑战较大。该研究发现,由于碎片化和过度保留,现有系统浪费了 60% - 80% 的显存。 + - 为了解决这个问题,该研究引入了 PagedAttention,这是一种受操作系统中虚拟内存和分页经典思想启发的注意力算法。与传统的注意力算法不同,PagedAttention 允许在非连续的内存空间中存储连续的 key 和 value 。具体来说,PagedAttention 将每个序列的 KV cache 划分为块,每个块包含固定数量 token 的键和值。在注意力计算期间,PagedAttention 内核可以有效地识别和获取这些块。因为块在内存中不需要连续,因而可以用一种更加灵活的方式管理 key 和 value ,就像在操作系统的虚拟内存中一样:可以将块视为页面,将 token 视为字节,将序列视为进程。序列的连续逻辑块通过块表映射到非连续物理块中。物理块在生成新 token 时按需分配。在 PagedAttention 中,内存浪费只会发生在序列的最后一个块中。这使得在实践中可以实现接近最佳的内存使用,仅浪费不到 4%。 + - PagedAttention 还有另一个关键优势 —— 高效的内存共享。例如在并行采样中,多个输出序列是由同一个 prompt 生成的。在这种情况下,prompt 的计算和内存可以在输出序列中共享。PagedAttention 自然地通过其块表格来启动内存共享。与进程共享物理页面的方式类似,PagedAttention 中的不同序列可以通过将它们的逻辑块映射到同一个物理块的方式来共享块。为了确保安全共享,PagedAttention 会对物理块的引用计数进行跟踪,并实现写时复制(Copy-on-Write)机制。PageAttention 的内存共享大大减少了复杂采样算法的内存开销,例如并行采样和集束搜索的内存使用量降低了 55%。这可以转化为高达 2.2 倍的吞吐量提升。 + - continuous batching + - CUDA kernel优化 + - Qunatized KV Cache + - MQA/GQA + - 核心思想是检索kv-cache的数量,以少量kv-cache对应多个query ![图片](./img/大模型推理优化策略-幕布图片-699343-219844.jpg) + - ![图片](./img/大模型推理优化策略-幕布图片-930255-616209.jpg) + - [FlashAttention]("https://zhuanlan.zhihu.com/p/638468472") + - 解释1:记I为模型的计算强度I,单位FLOP/byte代表模型进行单位byte数据交互可实现的操作数,则I*带宽beta即模型的计算性能,单位为FLOP/s。令I_max=计算平台算力/计算平台带宽,当模型的计算强度I小于平台的理论计算强度I_max,模型的计算能力P即I*beta,当模型的计算强度大于I_max,则模型的计算性能P等于平台的算力。故若模型的计算强度小,则瓶颈在带宽,若模型的计算强度大,则瓶颈在算力。为提高计算性能,需提高计算强度,即每bytes数据交互的操作数。 + - 解释2:记N=每次操作要求的FLOP,单位FLOP/OP;pi=平台的算力,单位FLOP/s;beta=内存带宽,单位byte/s;P=实际实现计算速度,单位为FLOP/s;优化目标为O=P/N每秒钟实现的运算次数,单位为OP/s.由于N固定,故优化目标转而为P,P=min{beta_r*I_max=beta_r*pi/beta,pi},故优化目标转而为beta,即改变内存访问策略,实现beta最大化。 + - 注意力操作中,S和P的计算空间复杂度都是O(N^2),此外,scale,mask,softmax,dropout都是带宽约束操作。 ![图片](./img/大模型推理优化策略-幕布图片-380552-579242.jpg) + - ![图片](./img/大模型推理优化策略-幕布图片-789705-122117.jpg) + - 可以看出,O(N^2)空间复杂度的矩阵计算对HBM的读写是主要的内存瓶颈,因此主要优化点是:1. 在不访问整个输入的情况下计算softmax;2. 不为反向传播存储大的中间attention矩阵。FlashAttention提出两种方法来分步解决上述问题:tiling,recomputation.tiling - 注意力计算被重新构造,将输入分割成块,并通过在输入块上进行多次传递来递增地执行softmax操作。recomputation - 存储来自前向的 softmax 归一化因子,以便在反向中快速重新计算芯片上的 attention,这比从HBM读取中间矩阵的标准注意力方法更快。由于重新计算,这确实导致FLOPs增加,但是由于大量减少HBM访问,FlashAttention运行速度更快。该算法背后的主要思想是分割输入,将它们从慢速HBM加载到快速SRAM,然后计算这些块的 attention 输出。在将每个块的输出相加之前,将其按正确的归一化因子进行缩放,从而得到正确的结果。 + - ![图片](./img/大模型推理优化策略-幕布图片-590671-36787.jpg) + - ![图片](./img/大模型推理优化策略-幕布图片-276446-401476.jpg) + - 参考文献 + - [推理优化]("https://zhuanlan.zhihu.com/p/656485997") [推理优化]("https://zhuanlan.zhihu.com/p/656485997") +- 7.2 算子融合 +- 7.3 延迟优化 + - No Padding优化 +- 7.4 调度优化 + - Dynamic Batching + - 批次大小固定不变,无法随计算资源负载动态变化,导致 GPU 资源利用率低 + - 通过维护一个作业队列实现,在 batch 维度动态插入新序列 + - Async Servering + - Tokenize / Detokenize 过程在 CPU 上执行,期间 GPU 处于空闲状态 + - 多线程异步,流水线 overlap 实现降低时延 + - Inflight Batching/continuous batching + - 同批次序列推理时,存在“气泡”,导致 GPU 资源利用率低 + - 由 batch 粒度的调度细化为 step 级别的调度,在时间轴方向动态插入新序列 +- 7.5 量化 + - GPTQ + - AWQ + - SmoothQuant + - SpQR +- 7.6 模型并行 + - tensor paralellism加速+降显存 + - pipeline paralellism减少显存 +- 7.7 请求优化 + - [网络通信]("https://article.juejin.cn/post/7226374741064892453") + - rpc + - grpc + - http + - [响应模式]("https://blog.csdn.net/weixin_44999716/article/details/128436984") + - SSE + - 轮询 + - 长轮询comet + - WebSocket +- 7.8 采样/解码 + - speculative decoding + - ![图片](./img/大模型推理优化策略-幕布图片-923924-83386.jpg) + - Blockwise *Parallel* *Decoding* + - Medusa + - SOT - Parallel Decoding + - SpecInfer + - StreamingLLM +- 参考资料 + - [最佳实践]("https://mp.weixin.qq.com/s/nJLrE9Dzj1mmTeQDiqNdzA") \ No newline at end of file