| 资源分类 | 大数据/人工智能 |
| 资源存放 | 百度网盘 |
| 资源价格 | 限时5学分 |
| 加入VIP | 年VIP 298元,终身VIP 698元 |
| 在线充值 | 1元=1学分 |
1-大模型(LLMs)基础面.PDF
2-Layer normalization 篇.PDF
3-LLMs 激活函数篇.PDF
4-Attention 升级面.PDF
5-transformers 操作篇.PDF
6-LLMs 损失函数篇.PDF
7-相似度函数篇.PDF
8-大模型(LLMs)进阶面.PDF
9-大模型(LLMs)微调面.PDF
10-LLMs 训练经验帖.PDF
11-大模型(LLMs)langchAIn 面.PDF
12-多轮对话中让AI保持长期记忆的8种优化方式篇.PDF
13-基于langchAIn RAG问答应用实战.PDF
14-基于LLM+向量库的文档对话 经验面.PDF
15-大模型 RAG 经验面.PDF
16-LLM文档对话 —— PDF解析关键问题.PDF
17-大模型(LLMs)RAG 版面分析——表格识别方法篇.PDF
18-大模型(LLMs)RAG 版面分析——文本分块面.PDF
19-大模型外挂知识库优化——如何利用大模型辅助召回?.PDF
20-大模型外挂知识库优化——负样本样本挖掘篇.PDF
21-RAG(Retrieval-Augmented Generation)评测面.PDF
22-检索增强生成(RAG) 优化策略篇.PDF
23-大模型(LLMs)RAG —— 关键痛点及对应解决方案.PDF
24-大模型(LLMs)RAG 优化策略 —— RAG-Fusion篇.PDF
25-Graph RAG 面 — 一种 基于知识图谱的大模型检索增强实现策略.PDF
26-大模型(LLMs)参数高效微调(PEFT) 面.PDF
27-适配器微调(Adapter-tuning)篇.PDF
28-提示学习(Prompting)篇.PDF
29-LoRA 系列篇.PDF
30-如何使用 PEFT库 中 LoRA?.PDF
31-大模型(LLMs)推理面.PDF
32-大模型(LLMs)增量预训练篇.PDF
33-增量预训练(PretrAIn)样本拼接篇.PDF
34-基于lora的llama2二次预训练.PDF
35-大模型(LLMs)评测面.PDF
36-大模型(LLMs)强化学习面.PDF
37-大模型(LLMs)强化学习——RLHF及其变种面.PDF
38-大模型(LLMs)强化学习—— PPO 面.PDF
39-强化学习在自然语言处理下的应用篇.PDF
40-大模型(LLMs)训练集面.PDF
41-大模型(LLMs)LLM生成SFT数据方法面.PDF
42-大模型(LLMs)显存问题面.PDF
43-显存优化策略篇.PDF
一本书读懂AIGC:ChatGPT、AI绘画、智能文明与生产力变革_2023.PDF
从零开始大模型开发与微调基于PyTorch与ChatGLM.PDF
大模型应用开发极简入门:基于 GPT-4 和 ChatGPT_2024.PDF
大模型落地应用案例集.PDF
大规模语言模型:从理论到实践.PDF
