网盘截图:


├── 大模型微调实战
│   ├── 1
│   │   ├── Ch 5.4 PPO模型与数据的选择.ts
│   │   ├── Ch 3.2 llamafactory中如何使用和注册数据集.ts
│   │   ├── Ch 2.5 配置TensorBoard.ts
│   │   ├── Ch 4.4 Qlor微调实战与验证.ts
│   │   ├── Ch 1.1 通用模型发展与微调前景.ts
│   │   ├── Ch 4.1 win&Qlora&qwen2.5_Qlora能节约多少内存.ts
│   │   ├── Ch 2.3 LLama_factory 安装部署及验证.ts
│   │   ├── Ch 5.6 PPO源码解读.ts
│   │   ├── Ch 3.1 如何获取数据源及使用解析.ts
│   │   ├── Ch 5.3 各个模型PPO算法的协作关系.ts
│   │   ├── Ch 5.1PPO&llama3.2_什么是PPO算法.ts
│   │   ├── Ch 1.5 强化学习RHLF介绍.ts
│   │   ├── Ch 2.4 实战Qwen2.5微调.ts
│   │   ├── Ch 1.4 高效微调及范围.ts
│   │   ├── Ch 1.6 主流微调框架.ts
│   │   ├── Ch 4.3如何在windows配置环境.ts
│   │   ├── Ch 4.2 Qlora核心概念.ts
│   │   ├── Ch 3.3 模型微调及参数详解.ts
│   │   ├── Ch 1.2 微调与其他技术的区别和关联.ts
│   │   ├── Ch 5.5 PPO微调实操.ts
│   │   ├── Ch 3.4 数据验证&deepspeed微调.ts
│   │   ├── Ch 2.1 Lora原理详解.ts
│   │   ├── Ch 1.3 微调步骤及技术栈.ts
│   │   ├── Ch 2.2 LLama_factory 介绍.ts
│   │   ├── Ch 5.2 如何理解PPO.ts
│   ├── 其他
│   │   ├── LLama_Factory+LORA大模型微调.ts
│   │   ├── PPO微调Llama-3.2.ts
│   │   ├── LLama_factory&Lora微调Qwen2.5做NL2sql.ts
│   │   ├── window系统微调QLORA.ts
│   ├── 2
│   │   ├── Ch 6.1 RLHF&Qwen2.5,RLHF背景与意义.ts
│   │   ├── Ch 6.3 奖励模型原理.ts
│   │   ├── Ch 6.4 奖励模型训练流程.ts
│   │   ├── Ch 6.5 RLHF全流程微调.ts
│   │   ├── Ch 6.6 RLHF挑战与改进方向.ts
│   │   ├── Ch 6.2 RLHF流程拆解与核心.ts
├── DeepSeek-V3&R1
│   ├── 1
│   │   ├── 【DS-v3 API调用】4.DeepSeek v3模型参数详解.MP4
│   │   ├── 【DS-v3 API调用】1.DeepSeek v3模型性能介绍.MP4
│   │   ├── 【DS-v3 API调用】5.搭建DeepSeek v3多轮对话机器人.MP4
│   │   ├── 【DS-v3 API调用】8.DS-v3+Open WebUI搭建专属聊天机器人.MP4
│   │   ├── 【DS-v3 API调用】6.DS-V3 Function calling功能介绍.MP4
│   │   ├── 【DS-v3 API调用】2.DeepSeek v3开源情况介绍.MP4
│   │   ├── 【DS-v3 API调用】3.DeepSeek API-Key获取与模型调用方法详解.MP4
│   │   ├── 【DS-v3 API调用】7.DS-V3 完整Function calling执行流程.MP4
├── 大模型Agent开发实战
│   ├── 4
│   │   ├── Ch 11.2 LangGraph的短期记忆及Checkpointer(检查点).ts
│   │   ├── Ch 9.1 LangGraph代理架构及Router Agent介绍.ts
│   │   ├── Ch 10.3 LangGraph中如何使用流式输出.ts
│   │   ├── Ch 9.5 Tool Calling Agent的完整实现案例:实时搜索与数据库集成.ts
│   │   ├── Ch 10.2 案例实操:构建复杂工具应用的ReAct自治代理.ts
│   │   ├── Ch 10.4 LangGraph中的事件流.ts
│   │   ├── Ch 9.2 LangGraph中可应用的三种结构化输出方法.ts
│   │   ├── Ch 11.4 检查点的特定实现类型-SqliteSaver.ts
│   │   ├── Ch 11.5 长期记忆和Store(仓库).ts
│   │   ├── Ch 11.3 检查点的特定实现类型-MemorySaver.ts
│   │   ├── Ch 9.3 结合结构化输出构建Router Agent(数据库).ts
│   │   ├── Ch 11.1 Agent长短期记忆认知.ts
│   │   ├── Ch 10.1 LangGraph中ReAct的构建原理.ts
│   │   ├── Ch 9.4 Tool Calling Agent 中ToolNode的使用.ts
│   ├── 1
│   │   ├── Ch 1.1 大模型应用发展与Agent前沿技术趋势.ts
│   │   ├── Ch 2.6 加餐:OpenAI最新推出的结构化输出功能介绍.ts
│   │   ├── Ch 1.4 AI Agent 经典核心架构与 AgentExcuter.ts
│   │   ├── Ch 2.3 Funcation Calling 完整生命周期细节复现.ts
│   │   ├── Ch 2.5 Function Calling并行调用和多函数调用的应用方法.ts
│   │   ├── Ch 2.1 AI Agent与LLMs + RAG的本质区别.ts
│   │   ├── Ch 1.2 大模型应用的本地知识库问答核心技术-RAG.ts
│   │   ├── Ch 2.4 实现具备Funcation Calling的智能电商客服.ts
│   │   ├── Ch 1.3 AI Agent爆发的根本原因.ts
│   │   ├── Ch 2.2 AI Agent三种应用类型及Python实现可交互的聊天机器人.ts
│   ├── 5
│   │   ├── Ch 12.4 复杂代理架构中如何添加动态断点.ts
│   │   ├── Ch 13.2 Multi-Agent 架构分类及子图的通信模式 - 副本.ts
│   │   ├── Ch 13.1 Single-Agent 存在的局限.ts
│   │   ├── Ch 13.5 案例:基于网络架构实现智能BI数据分析多代理系统(下).ts
│   │   ├── Ch 12.5 案例:具备人机交互的完整Agent信息管理系统.ts
│   │   ├── Ch 14.4 案例:Multi-Agent实现混合多知识库检索.ts
│   │   ├── Ch 14.3 GraphRAG 基本介绍与核心架构.ts
│   │   ├── Ch 14.2 案例:基于 Supervisor 架构实现多代理系统.ts
│   │   ├── Ch 12.2 LangGraph中的HIL实现思路.ts
│   │   ├── Ch 12.3 标准图结构中如何添加断点.ts
│   │   ├── Ch 12.1 LangGraph知识点概述总结.ts
│   │   ├── Ch 13.4 案例:基于网络架构实现智能BI数据分析多代理系统(上).ts
│   │   ├── Ch 14.1 Supervisor 架构介绍与基本构建原理.ts
│   │   ├── Ch 13.3 父、子图状态中无共同键的通信方式.ts
│   ├── 3
│   │   ├── Ch 8.1 LangGraph中State的定义模式.ts
│   │   ├── Ch 8.2 使用字典类型定义状态的方法与优劣势.ts
│   │   ├── Ch 6.5 应用案例(1):异步构建Assistant对象的工程化代码.ts
│   │   ├── Ch 8.3 LangGraph状态管理中Reducer函数的使用.ts
│   │   ├── Ch 7.1 LangChain的AI Agent开发框架架构设计.ts
│   │   ├── Ch 7.4 LangGraph中如何接入大模型做问答流程.ts
│   │   ├── Ch 6.6 应用案例(2):集成外部函数方法及项目完整功能介绍.ts
│   │   ├── Ch 6.1 为什么企业级应用必须接入流式输出.ts
│   │   ├── Ch 8.5 LangSmith基本原理与使用入门.ts
│   │   ├── Ch 6.4 如何在 Assistant API 流式传输中接入外部函数.ts
│   │   ├── Ch 6.3 Assistant API 流式传输中的事件流原理细节.ts
│   │   ├── Ch 7.2 LangGraph 的底层构建原理.ts
│   │   ├── Ch 7.3 Langgraph底层源码解析.ts
│   │   ├── Ch 8.4 MessageGraph源码功能解析.ts
│   │   ├── Ch 6.2 Assistant API中流式输出的开启方法.ts
│   ├── 其他
│   │   ├── 【MateGenPro】Ch 1. MateGen Pro 项目整体架构介绍.ts
│   │   ├── 大模型应用发展及Agent前沿技术趋势.MP4
│   │   ├── 【MateGenPro】Ch 4. SQLAlchemy原理与项目接入.ts
│   │   ├── LangGraph 多代理与 GraphRAG 综合应用实战.ts
│   │   ├── 【MateGenPro】Ch 5. MateGen 数据库初始化逻辑.ts
│   │   ├── 【MateGenPro】Ch 2. 本地运行MateGen Pro项目流程.ts
│   │   ├── 项目开发实战一:从零搭建多功能智能体 MateGen Pro(第二部分).ts
│   │   ├── 【MateGenPro】Ch 8 会话管理模块表结构设计与代码讲解.ts
│   │   ├── 【MateGenPro】Ch 6 API_Key接口初始化与校验.ts
│   │   ├── 【MateGenPro】Ch 3. MateGen Pro 后端API核心模块设计.ts
│   │   ├── 【MateGenPro】Ch 7 缓存池与系统初始化逻辑.ts
│   ├── 2
│   │   ├── Ch 3.5 项目:基于ReAct Agent构建电商智能客服_batch.ts
│   │   ├── Ch 4.5 实现Run状态的轮询方法,并实现Assistant API完整链路.ts
│   │   ├── Ch 4.2 Assistant对象的创建方法.ts
│   │   ├── Ch 3.2 提示工程到代理工程的平滑过度.ts
│   │   ├── Ch 4.4 Run运行时的状态转移机制.ts
│   │   ├── Ch 4.1 Assistant API 框架的整体介绍.ts
│   │   ├── Ch 3.4 案例:从零复现ReAct Agent的完整流程.ts
│   │   ├── Ch 5.2 File Search内置工具说明及文件管理.ts
│   │   ├── Ch 5.4 在Assistant和Thread定义File Search工具的四种策略.ts
│   │   ├── Ch 3.1 Funcation Calling 与 AI Agent的本质区别.ts
│   │   ├── Ch 5.5 如何处理Assistant API输出响应中的注释.ts
│   │   ├── Ch 5.7 基于Funcation Calling实现本地代码解释器.ts
│   │   ├── Ch 5.3 基于 Assistant API 创建在线私有知识库.ts
│   │   ├── Ch 5.1 Assistant API 进阶应用方法介绍.ts
│   │   ├── Ch 5.6 Code Interpreter(代码解释器)的应用技巧.ts
│   │   ├── Ch 3.3 ReAct Agent框架的基础理论.ts
│   │   ├── Ch 4.3 Thread、Messges及Run应用方法.ts
├── 大模型与Agent开发实战课件
│   ├── 大模型微调-课件
│   │   ├── Ch 5. PPO微调LLama-3.2.ipynb
│   │   ├── Ch 3. LLama_factory&Lora微调Qwen2.5做NL2sql.ipynb
│   │   ├── Ch 6. RHLF微调Qwen2.5.ipynb
│   │   ├── Ch 2. LLama_Factory+LORA大模型微调.ipynb
│   │   ├── Ch 7. DPO微调Qwen2.5.ipynb
│   │   ├── Ch 8 PEFT&医疗领域模型微调实践.ipynb
│   │   ├── Ch 4. Window微调Qlora.ipynb
│   │   ├── CH 1 论文.zip
│   │   ├── Ch 1. 大模型微调.ipynb
│   ├── 在线大模型部署与调用-课件
│   │   ├── 【GLM 系列】
│   │   │   ├── 【GLM】part3_GLM_函数调用讲解与实战.ipynb
│   │   │   ├── 【GLM】part0_智谱清言GLM账号注册及APIKEY领取.md
│   │   │   ├── 【GLM】part1_GLM-4文本对话大模型API调用指南.ipynb
│   │   │   ├── 【GLM】part4_智谱CogVideoX 文生视频.ipynb
│   │   │   ├── 【GLM】part2_Streaming流式响应调用API全解.ipynb
│   │   ├── 【OpenAI GPT 4o 系列】
│   │   │   ├── 【GPT 4o】part1_文本生成API调用入门与精细化控制.ipynb
│   │   │   ├── 【GPT 4o】part8_微调实战进阶之tool use微调.zip
│   │   │   ├── 【GPT 4o】part7_微调实战初窥之写作风格.zip
│   │   │   ├── 【GPT 4o】part5_首token时延与提示缓存.ipynb
│   │   │   ├── 【GPT 4o】part3_tool_use工具调用与实战.ipynb
│   │   │   ├── 【GPT 4o】part2_文本生成API的多模态调用.zip
│   │   │   ├── 【GPT 4o】part6_Streaming流式响应调用API全解.ipynb
│   │   │   ├── 【GPT 4o】part4_生成结构化输出.ipynb
│   │   ├── 【提示工程】
│   │   │   ├── 使用 FastAPI 构建后端的 API 服务.pdf
│   │   │   ├── 【提示工程】part1_提示工程指南(上).md
│   │   │   ├── 【提示工程】part2_提示工程指南(下).ipynb
│   │   ├── 【OpenAI GPT o1 系列】
│   │   │   ├── 【GPT o1】part5_o1蒸馏4o-mini模型实战.zip
│   │   │   ├── 【GPT o1】part3_通过COT制作4o-mini版本的o1模型与其局限性.ipynb
│   │   │   ├── 【GPT o1】part4_使用o1模型生成诺贝尔奖得主的JSON格式数据分析.zip
│   │   │   ├── 【GPT o1】part2_o1的API调用与总结.ipynb
│   │   │   ├── 【GPT o1】part1_o1大模型与推理token简介.md
│   │   ├── 【Dspy】
│   │   │   ├── 【DSPy】part1_核心理念DSPy的核心理念(配置LM、签名、构建模块).ipynb
│   │   │   ├── 【DsPy】part4_推文生成与优化实战.ipynb
│   │   │   ├── 【DSPy】part2_DSPy的评估体系(Example数据、Metric度量指标、评估).ipynb
│   │   │   ├── 【DsPy】part3_实战优化_评估GSM8K数据集下模块的表现(优化篇).ipynb
│   │   ├── 【OpenAI 账号注册与环境配置】
│   │   │   ├── 【GPT】Part 4. 在Jupyter中首次调用OpenAI API.ipynb
│   │   │   ├── 【GPT】Part 1. OpenAI的账号注册速通.md
│   │   │   ├── 【GPT】Part 3. 开通虚拟信用卡与Plus会员订阅与API账户的充值与领取API_KEY.md
│   │   │   ├── 【GPT】Part 2. OpenAI官网及开发者平台使用指南.md
│   │   ├── 【Gemini 系列】
│   │   │   ├── 【Gemini】part2_ API文本生成调用入门到构建多轮对话机器人.ipynb
│   │   │   ├── 【Gemini】part3_API精细化控制生成参数与长文档实战与生成结构化.ipynb
│   │   │   ├── 【Gemini】part1_Gemini生态之最新模型、免费策略、注册指南、网页端微调实战一网打尽.md
│   │   │   ├── 【Gemini】part1_甄嬛Gemini微调语料500条.xlsx
│   │   ├── 【Claude 3.5 系列】
│   │   │   ├── 【Claude3.5】part4_prompt cache 提示缓存与streaming流式输出.ipynb
│   │   │   ├── 【Claude3.5】part1-Claude介绍及注册流程与API领取.pdf
│   │   │   ├── 【Claude3.5】part2-API从入门到精通.zip
│   │   │   ├── 【Claude3.5】part3_tool_use工具调用全流程与2参数详解.ipynb
│   ├── 开源大模型部署与调用-课件
│   │   ├── 01_ChatGLM3-6B
│   │   │   ├── 【ChatGLM3-6B】Part3.1_服务器场景下ChatGLM3-6B部署与多种启动方式.ipynb
│   │   │   ├── 【ChatGLM3-6B】Part6_LORA微调原理&实战.ipynb
│   │   │   ├── 【ChatGLM3-6B】Part1_Ubuntu双系统安装教程.ipynb
│   │   │   ├── 【ChatGLM3-6B】Part7_PEFT主流高效微调方法介绍&实战.ipynb
│   │   │   ├── 【ChatGLM3-6B】Part4_以ChatGLM3为例实现本地大模型更新.ipynb
│   │   │   ├── 【ChatGLM3-6B】Part5_单机多卡启动大模型办法.ipynb
│   │   │   ├── 【ChatGLM3-6B】Part2_Ubuntu环境ChatGLM3-6B安装办法.ipynb
│   │   │   ├── 【ChatGLM3-6B】Part8_Langchain体系详解与v0.3安装部署.ipynb
│   │   │   ├── 【ChatGLM3-6B】Part3.2_在AutoDL中快速部署ChatGLM3-6B模型.pdf
│   │   ├── 03_【Llama3.1】Llama 3.1介绍与部署流程.ipynb
│   │   ├── 09_【Marco-01】推理大模型参数介绍与本地部署.ipynb
│   │   ├── 12_【Llama.cpp】开源推理框架量化模型使用指南.ipynb
│   │   ├── 08_【Ollama】最新版本从入门到进阶攻略.ipynb
│   │   ├── 14_【Cursor】以调用QWQ推理大模型为例实现辅助编程.ipynb
│   │   ├── 13_【GLM4-Voice】语音模型参数介绍与部署.ipynb
│   │   ├── 11_【Qwen2VL】多模态视觉识别模型参数介绍与部署.ipynb
│   │   ├── 02_【GLM4-9B-Chat】GLM4-9b部署&vLLM推理.ipynb
│   │   ├── 05_【Qwen2.5】Qwen2.5介绍与部署流程.ipynb
│   │   ├── 10_【GLM-Edge-V】端侧多模态模型参数介绍与部署流程.ipynb
│   │   ├── 04_【Llama3.2】Llama3.2介绍与部署流程.ipynb
│   │   ├── 06_【Qwen2.5】Qwen2.5-Coder&Math介绍部署.ipynb
│   ├── Agent开发实战-课件
│   │   ├── 15_MicroSoft AutoGen 开发框架基础入门
│   │   │   ├── autogen.zip
│   │   │   ├── Ch 15_MicroSoft AutoGen 基础入门.ipynb
│   │   ├── 项目开发实战一:从零搭建多功能智能体 MateGen Pro(第一部分)
│   │   │   ├── 项目开发实战一:MateGen Pro.ipynb
│   │   │   ├── mategen_pro-main.zip
│   │   ├── 03_ReAct Agent 基础理论与项目实战
│   │   │   ├── ReAct_AI_Agent.zip
│   │   │   ├── 03_ReAct Agent 基础理论与项目实战.ipynb
│   │   ├── 14_LangGraph 多代理与 GraphRAG 综合应用实战
│   │   │   ├── company.txt
│   │   │   ├── Ch.14 LangGraph Supervisor 多代理架构与 GrapRAG 综合应用实战.ipynb
│   │   ├── 06_OpenAI Assistant API 高阶应用 - 流式输出_20241010_175342
│   │   │   ├── AssistantStreaming.zip
│   │   │   ├── 06_OpenAI Assistant API 高阶应用 - 流式输出.ipynb
│   │   ├── 01_大模型应用发展及Agent前沿技术趋势.ipynb
│   │   ├── 02_AI Agent应用类型及Function Calling开发实战.ipynb
│   │   ├── 04_OpenAI Assistant API 基本理论与入门实战.ipynb
│   │   ├── 05_OpenAI Assistant API 进阶应用.zip
│   │   ├── 12_LangGraph 中 Human-in-the-loop 应用实战.ipynb
│   │   ├── 10_LangGraph 实现自治循环代理(ReAct)及事件流的应用.ipynb
│   │   ├── 09_单代理架构在 LangGraph 中构建复杂图的应用.ipynb
│   │   ├── 16_MicroSoft AutoGen 代理对话与人机交互源码解析.ipynb
│   │   ├── 11_LangGrah 长短期记忆实现机制及检查点的使用.ipynb
│   │   ├── 07_LangGraph底层原理解析与基础应用入门.ipynb
│   │   ├── 08_LangGraph中State状态模式与LangSmith基础使用入门(1).ipynb
│   │   ├── 13_LangGraph Multi-Agent Systems 开发实战.ipynb
├── 在线大模型部署调用
│   ├── 1
│   │   ├── 【Claude】03_API_KEY领取及调用.ts
│   │   ├── 【Claude】07_tool use全流程讲解与wiki搜索实战.ts
│   │   ├── 【Claude】04_API必须参数揭秘,多轮对话机器人速成指南_x264.ts
│   │   ├── 【Claude】13_异步的API调用的讲解与实践.ts
│   │   ├── 【Claude】12_异步的使用原因与基本语法.ts
│   │   ├── 【Claude】01_了解Claude的所有特质.MP4
│   │   ├── 【Claude】11_stream流式概念与使用方法讲解.ts
│   │   ├── 【Claude】09_揭秘prompt Cache提示缓存:节省成本加快响应的绝技.ts
│   │   ├── 【Claude】10_stream函数及生成器本质讲解.ts
│   │   ├── 【Claude】06_API生成定制化与提示工程实战长文档.mp4
│   │   ├── 【Claude】08_tool_choice与定制Json输出及tool_use大实战.ts
│   │   ├── 【Claude】05_API多模态的最佳实践.ts
│   │   ├── 【Claude】02_Claude的注册流程.ts
│   ├── 7
│   │   ├── 【GLMAssistantAPI】05_复刻AssistantAPI.ts
│   │   ├── 【GLMAssistantAPI】02_多个assistant演示解析使用.ts
│   │   ├── 【GLMAssistantAPI】03_将智能体集成Agent类使用.ts
│   │   ├── 【GLMAssistantAPI】04_构建fastapi的Web项目.ts
│   │   ├── 【GLMAssistantAPI】01_调用assistantAPI流程与效果.ts
│   ├── 3
│   │   ├── 【GPT】02_OPEN AI官网及开发者平台使用指南.ts
│   │   ├── 【GPT】01_OPENAI的账号注册速通.ts
│   │   ├── 【GPT】04_API账户充值及领取API_KEY及首次调用API.ts
│   │   ├── 【GPT】03_虚拟信用卡开通与升级GPT_Plus会员.ts
│   ├── 5
│   │   ├── 【GPTo1】01_o1大模型原理介绍 从4o到o1实际上发生了什么.ts
│   │   ├── 【GPTo1】03_通过COT制作4o-mini版本的o1模型【实战】.ts
│   │   ├── 【GPTo1】05_用o1蒸馏模型实战(上).ts
│   │   ├── 【GPTo1】06_用o1蒸馏模型实战(下).ts
│   │   ├── 【GPTo1】04_2种加载模型o1没有的Json结构功能与【实战】.ts
│   │   ├── 【GPTo1】02_o1模型的API调用详解与总结.ts
│   ├── 6
│   │   ├── 【GLM】01_GLM大模型API调用介绍与领取APIKEY.ts
│   │   ├── 【GLM】12_GLM的AllTool模型API调用.mp4
│   │   ├── 【GLM】06_tooluse上-一次api调用的tooluse.ts
│   │   ├── 【GLM】11_tool_use和流式结合的API调用.mp4
│   │   ├── 【GLM】03_大模型API调用的消息和构建多轮对话机器人.ts
│   │   ├── 【GLM】10_GLM4V图像多模态模型.mp4
│   │   ├── 【GLM】08_tooluse接入维基百科搜索实战.ts
│   │   ├── 【GLM】13_构建在线GLM的微调.mp4
│   │   ├── 【GLM】05_GLM的stream流式响应讲解.ts
│   │   ├── 【GLM】04_十分钟速通GLM的可选参数.ts
│   │   ├── 【GLM】02_GLM模型API初次调用与响应解析.ts
│   │   ├── 【GLM】09_CogVideoX视频生成大模型.ts
│   │   ├── 【GLM】07_tooluse下-两次api调用的tooluse.ts
│   ├── 4
│   │   ├── 【GPT4o】08_tool use 维基百科实时写作助手【实战】.ts
│   │   ├── 【GPT4o】07_5步的 tool use完整的调用流程与汇总.ts
│   │   ├── 【GPT4o】16_tool_use微调(上)微调数据准备思路和微调准备.MP4
│   │   ├── 【GPT4o】12_Streaming流式响应详解.ts
│   │   ├── 【GPT4o】11_首token时延与提示缓存原理与最佳实践.ts
│   │   ├── 【GPT4o】01_4o文本生成API基本讲解与调用.ts
│   │   ├── 【GPT4o】14_风格微调(上)创建数据集与微调作业.ts
│   │   ├── 【GPT4o】13_函数调用中的Streaming流式响应.ts
│   │   ├── 【GPT4o】02_2个核心必需参数详解与对话消息本质剖析.ts
│   │   ├── 【GPT4o】09_并行的函数调用与实时股票价格、历史走势绘图与分析【实战】.ts
│   │   ├── 【GPT4o】06_3步的 tool use基础讲解与【实战】社交媒体情绪数据分析.ts
│   │   ├── 【GPT4o】15_风格微调(下)微调作业运行与应用评估.ts
│   │   ├── 【GPT4o】04_精细控制生成可选参数系列讲解.ts
│   │   ├── 【GPT4o】17_tool_use微调(下)制造微调数据微调并评估结果.MP4
│   │   ├── 【GPT4o】10_输出生成结构化的3种方式(JSON结构化).ts
│   │   ├── 【GPT4o】05_4o多模态图片的文本生成API调用详解.ts
│   │   ├── 【GPT4o】03_多轮对话历史及面向对象多轮对话机器人实战.ts
│   ├── 其他
│   │   ├── GLM Assistant API集成与FastAPI服务复刻实战指南.ts
│   │   ├── GLM 4 工具调用从入门到精通与CogVideoX 文本生成视频 API 全流程.ts
│   │   ├── GLM模型:流式处理的工具调用、多模态应用及模型微调实战指南.ts
│   │   ├── DSPy优化器优化LLM程序.ts
│   ├── 8
│   │   ├── 【加餐】02 Computer Use API 详解(2)对话函数上.MP4
│   │   ├── 【加餐】03 Computer Use API 详解(3)对话函数下.MP4
│   │   ├── 【加餐】07 Computer Use docker安装部署全流程.MP4
│   │   ├── 【加餐】08 Computer Use项目启动&实战案例.MP4
│   │   ├── 【加餐】04 Computer Use API 详解(4)多轮对话及tool use.MP4
│   │   ├── 【加餐】09 Computer Use源码详解.MP4
│   │   ├── 【加餐】05 Computer Use API 详解(5)全组件总结.MP4
│   │   ├── 【加餐】06 Computer use实战初窥.MP4
│   │   ├── 【加餐】01 Computer Use API 详解(1)准备工作.MP4
│   ├── 2
│   │   ├── 【Gemini】04_掌握原生generate_content函数多轮对话技巧.ts
│   │   ├── 【Gemini】08_API精细化控制生成之Temperature与Stop Sequen.ts
│   │   ├── 【Gemini】05_API内置简化多轮对话的start_chat函数与ChatSessi.ts
│   │   ├── 【Gemini】01_Gemini注册指南-最新模型免费API调用.ts
│   │   ├── 【Gemini】10_API精细化控制生成结构化与Json参数.ts
│   │   ├── 【Gemini】07_API精细化控制生成之generation_config与max_t.ts
│   │   ├── 【Gemini】06_API精细化控制生成之System Instruction.ts
│   │   ├── 【Gemini】02_生态体验攻略与微调实战.ts
│   │   ├── 【Gemini】03_解锁 Gemini API-开启文本生成之旅.ts
│   │   ├── 【Gemini】09_提示工程之长文档实战.ts
├── 开源大模型部署调用
│   ├── 6
│   │   ├── 【Qwen2.5Coder&Math】01_Coder介绍.ts
│   │   ├── 【Qwen2.5Coder&Math】02_Math介绍.ts
│   │   ├── 【Qwen2.5Coder&Math】09_线上部署推理Coder流程.ts
│   │   ├── 【Qwen2.5Coder&Math】07_vLLM推理Coder流程.ts
│   │   ├── 【Qwen2.5Coder&Math】03_Coder技术文章分析.ts
│   │   ├── 【Qwen2.5Coder&Math】04_Math技术文章分析.ts
│   │   ├── 【Qwen2.5Coder&Math】06_Coder本地部署推理流程.ts
│   │   ├── 【Qwen2.5Coder&Math】10_Math部署流程.ts
│   │   ├── 【Qwen2.5Coder&Math】08_Ollama推理Coder流程.ts
│   │   ├── 【Qwen2.5Coder&Math】05_Math线上体验.ts
│   ├── 7
│   │   ├── Glm-Edge-v-5B模型介绍与本地部署.ts
│   │   ├── 【Llama.cpp】以Qwen2VL为例实现GGUF模型量化与调用办法.ts
│   │   ├── Ollama最新版本保姆级指南.ts
│   │   ├── Ollama最新版本启动多模态模型Llama3.2Vision全流程[Linux环境].ts
│   │   ├── 【Cursor】调用QWQ实现辅助编程--调用本地模型全流程.ts
│   │   ├── 在Windows环境下使用Ollama启动多模态模型llama3.2Vision全流程.ts
│   │   ├── Qwen2VL多模态模型参数介绍&部署使用全流程.ts
│   │   ├── 【Cursor】在Windows环境下调用QWQ线上API实现辅助编程方法.ts
│   │   ├── Qwen2--5Coder本地部署使用全流程.ts
│   │   ├── Cursor&Coder高效低代码开发办法.ts
│   │   ├── Qwen2--5Coder:32B基本介绍和测试.ts
│   │   ├── 【Llama.cpp】以Qwen2.5为例实现量化模型启动与API调用.ts
│   │   ├── Marco-o1模型介绍与本地部署.ts
│   ├── 大模型微调实战
│   │   ├── 2
│   │   │   ├── Ch 6.6 RLHF挑战与改进方向.ts
│   │   │   ├── Ch 6.5 RLHF全流程微调.ts
│   │   │   ├── Ch 6.4 奖励模型训练流程.ts
│   │   │   ├── Ch 6.3 奖励模型原理.ts
│   │   │   ├── Ch 6.2 RLHF流程拆解与核心.ts
│   │   │   ├── Ch 6.1 RLHF&Qwen2.5,RLHF背景与意义.ts
│   │   ├── 1
│   │   │   ├── Ch 5.4 PPO模型与数据的选择.ts
│   │   │   ├── Ch 5.5 PPO微调实操.ts
│   │   │   ├── Ch 5.1PPO&llama3.2_什么是PPO算法.ts
│   │   │   ├── Ch 4.1 win&Qlora&qwen2.5_Qlora能节约多少内存.ts
│   │   │   ├── Ch 2.4 实战Qwen2.5微调.ts
│   │   │   ├── Ch 4.3如何在windows配置环境.ts
│   │   │   ├── Ch 2.3 LLama_factory 安装部署及验证.ts
│   │   │   ├── Ch 5.2 如何理解PPO.ts
│   │   │   ├── Ch 3.3 模型微调及参数详解.ts
│   │   │   ├── Ch 4.2 Qlora核心概念.ts
│   │   │   ├── Ch 1.1 通用模型发展与微调前景.ts
│   │   │   ├── Ch 1.4 高效微调及范围.ts
│   │   │   ├── Ch 1.6 主流微调框架.ts
│   │   │   ├── Ch 1.2 微调与其他技术的区别和关联.ts
│   │   │   ├── Ch 1.5 强化学习RHLF介绍.ts
│   │   │   ├── Ch 1.3 微调步骤及技术栈.ts
│   │   │   ├── Ch 2.2 LLama_factory 介绍.ts
│   │   │   ├── Ch 5.6 PPO源码解读.ts
│   │   │   ├── Ch 3.2 llamafactory中如何使用和注册数据集.ts
│   │   │   ├── Ch 3.4 数据验证&deepspeed微调.ts
│   │   │   ├── Ch 3.1 如何获取数据源及使用解析.ts
│   │   │   ├── Ch 2.1 Lora原理详解.ts
│   │   │   ├── Ch 4.4 Qlor微调实战与验证.ts
│   │   │   ├── Ch 2.5 配置TensorBoard.ts
│   │   │   ├── Ch 5.3 各个模型PPO算法的协作关系.ts
│   │   ├── 其他
│   │   │   ├── window系统微调QLORA.ts
│   │   │   ├── LLama_Factory+LORA大模型微调.ts
│   │   │   ├── LLama_factory&Lora微调Qwen2.5做NL2sql.ts
│   │   │   ├── PPO微调Llama-3.2.ts
│   ├── 3
│   │   ├── 【Llama3.2】03_Ollama在Linux和Windows部署方法.ts
│   │   ├── 【Llama3.1】04_官网以及Ollama部署流程.ts
│   │   ├── 【Llama3.1】05_ModelScope线上部署.ts
│   │   ├── 【Llama3.1】06_ModelScope本地部署.ts
│   │   ├── 【Llama3.1】01_Llama家族系列模型生态介绍.ts
│   │   ├── 【Llama3.2】02_官网下载流程.ts
│   │   ├── 【Llama3.1】07_LlamaFactory中文能力微调实例.ts
│   │   ├── 【Llama3.2】01_基本介绍与线上测试办法.ts
│   │   ├── 【Llama3.1】03_技术论文解读.ts
│   │   ├── 【Llama3.1】02_线上体验办法.ts
│   ├── 2
│   │   ├── 【GLM4-9B】02_安装部署流程展示.ts
│   │   ├── 【GLM4-9B】04_vLLM介绍和部署应用.ts
│   │   ├── 【GLM4-9B】03_多种启动方式流程展示.ts
│   │   ├── 【GLM4-9B】01_模型基本介绍.ts
│   │   ├── 【GLM4-9B】05_WSL部署流程.ts
│   ├── 4
│   │   ├── 【Qwen2.5】05_在Windows系统中使用Ollama框架部署流程.ts
│   │   ├── 【Qwen2.5】06_vLLM部署与调用流程.ts
│   │   ├── 【Qwen2.5】02_ModelScope本地化部署流程.ts
│   │   ├── 【Qwen2.5】03_ModelScope线上部署办法.ts
│   │   ├── 【Qwen2.5】04_Ollama框架部署流程.ts
│   │   ├── 【Qwen2.5】01_基本介绍与线上体验办法.ts
│   ├── 5
│   │   ├── 【GLM4-Voice】02_多模态与AGI技术展望.ts
│   │   ├── 【GLM4-Voice】04_线上部署流程.ts
│   │   ├── 【GLM4-Voice】05_开源大模型比拼-排行榜介绍.ts
│   │   ├── 【GLM4-Voice】01_模型基本介绍.ts
│   │   ├── 【GLM4-Voice】03_本地化部署流程.ts
│   ├── 1
│   │   ├── 【ChatGLM3-6B】12_PEFT高效微调原理浅析.ts
│   │   ├── 【ChatGLM3-6B】07_以ChatGLM3-6b为例的大模型更新办法.ts
│   │   ├── 【ChatGLM3-6B】14_LangChian体系详解.ts
│   │   ├── 【ChatGLM3-6B】09_LoRA原理浅析.ts
│   │   ├── 【ChatGLM3-6B】06_Git方法简洁下载ChatGLM3-6b.ts
│   │   ├── 【ChatGLM3-6B】10_LoRA微调实战训练.ts
│   │   ├── 【ChatGLM3-6B】15_LangChain0.3安装部署与调用方法.ts
│   │   ├── 【ChatGLM3-6B】11_DeepSpeed原理浅析.ts
│   │   ├── 【ChatGLM3-6B】04_ChatGLM3-6b的多种启动方法.ts
│   │   ├── 【ChatGLM3-6B】05_AutoDL快速部署ChatGLM3-6b办法.ts
│   │   ├── 【ChatGLM3-6B】08_单机多卡启动大模型办法.ts
│   │   ├── 【ChatGLM3-6B】02_Ubuntu环境下ChatGLM3-6b命令行安装办法.MP4
│   │   ├── 【ChatGLM3-6B】03_服务器环境下部署ChatGLM3-6b.ts
│   │   ├── 【ChatGLM3-6B】01_Ubuntu双系统安装.MP4
│   │   ├── 【ChatGLM3-6B】13_P-Tuning V2微调实战.ts
├── 企业级实战
│   ├── 1
│   │   ├── 【MateGenPro】Ch 4. SQLAlchemy原理与项目接入.ts
│   │   ├── 【MateGenPro】Ch 3. MateGen Pro 后端API核心模块设计.ts
│   │   ├── 【MateGenPro】Ch 1. MateGen Pro 项目整体架构介绍.ts
│   │   ├── 【MateGenPro】Ch 8 会话管理模块表结构设计与代码讲解.ts
│   │   ├── 【MateGenPro】Ch 5. MateGen 数据库初始化逻辑.ts
│   │   ├── 【MateGenPro】Ch 7 缓存池与系统初始化逻辑.ts
│   │   ├── 【MateGenPro】Ch 6 API_Key接口初始化与校验.ts
│   │   ├── 【MateGenPro】Ch 2. 本地运行MateGen Pro项目流程.ts
│   ├── 2
│   │   ├── 【AssistGen】 Ch 1.5 Deepseek v3 & R1 在线 API 调用.MP4
│   │   ├── 【AssistGen】 Ch 1.1 项目介绍与课程安排.MP4
│   │   ├── 【AssistGen】 Ch 1.6 AssistGen 项目结构与本地启动流程介绍.MP4
│   │   ├── 【AssistGen】 Ch 1.2 Ollama 本地部署 DeepSeek R1 模型.MP4
│   │   ├── 【AssistGen】 Ch 1.4 Ollama 兼容 OpenAI API 接口规范.MP4
│   │   ├── 【AssistGen】 Ch 1.3 Ollama REST API 核心接口:gener.MP4
├── 直播回放篇
│   ├── 直播回放
│   │   ├── 24
│   │   │   ├── Llama 3.1介绍与部署流程.ts
│   │   │   ├── LangGraph 实现自治循环代理(ReAct)及事件流的应用.ts
│   │   │   ├── LangGraph 长短期记忆实现机制及检查点的使用.ts
│   │   │   ├── Qwen2.5-Coder&Math介绍与部署.ts
│   │   │   ├── GLM-4-Video-9b 介绍与部署流程.ts
│   │   │   ├── LangGraph中State状态模式与LangSmith基础使用入门.ts
│   │   │   ├── Qwen2.5介绍与部署流程.ts
│   │   │   ├── LangGraph 中 Human-in-the-loop 应用实战.ts
│   │   │   ├── o1模型详解与模型蒸馏实战.ts
│   │   │   ├── Llama 3.1&2部署微调.ts
│   │   │   ├── OPENAI的Streaming流式响应与API微调双实战,Claude computer use接入自己的电脑.ts
│   │   │   ├── GPT4o的API基本调用、精细生成控制与多模态实操.ts
│   │   │   ├── GPT4o的函数调用实战与结构化生成回答与提示缓存原理.ts
│   │   ├── 25-1
│   │   │   ├── 《企业级 Agent 项目实战:智能客服》- AssistGen.ts
│   ├── 加餐-前沿技术追更
│   │   ├── 【加餐】01 Computer Use API 详解(1)准备工作.ts
│   │   ├── 【加餐】05 Computer Use API 详解(5)全组件总结.ts
│   │   ├── 【加餐】08 Computer Use项目启动&实战案例.ts
│   │   ├── 【加餐】07 Computer Use docker安装部署全流程.ts
│   │   ├── 【加餐】04 Computer Use API 详解(4)多轮对话及tool use.ts
│   │   ├── 【加餐】02 Computer Use API 详解(2)对话函数上.ts
│   │   ├── 【加餐】09 Computer Use源码详解.ts
│   │   ├── 【加餐】06 Computer use实战初窥.ts
│   │   ├── 【加餐】03 Computer Use API 详解(3)对话函数下.ts
├── RAG项目实战企业篇
│   ├── week_5_part_4_项目整体框架下实现基于Agent的问答流程代码实践.ts
│   ├── week_2_2_part_3_项目启动文件详细说明及流程复现.mp4
│   ├── week_5_part_1_大模型融入推荐系统一种思路_1.MP4
│   ├── week_2_1_part_1_本周开发任务说明.mp4
│   ├── week_3_2_part_2_RAG评估框架-TruLens实践.mp4
│   ├── week_3_1_part_2_结合Faiss向量数据的RAG Indexing构建流程.mp4
│   ├── week_3_1_part_4_yolox + orc 识别私有PDF语料的方案实践.mp4
│   ├── week_4_2_part_1_Serper API联网检索数据预处理过程拆解.mp4
│   ├── week_1_1_part_2_本地私有化部署glm4-9b-chat模型.mp4
│   ├── week_1_2_part_3_FastAPI项目介绍.mp4
│   ├── week_5_part_3_基于Langchain实现基于ReAct的代码实践及TOT提示.MP4
│   ├── week_2_2_part_1_通用问答流程整体流程介绍及参数说明.mp4
│   ├── week_4_1_part_4_自定义RAG评估Pipeline-评估指标及评估流程实现.mp4
│   ├── week_4_1_part_1_自定义RAG评估Pipeline-构建统一的数据集格式.mp4
│   ├── week_1_1_part_1_课程说明及大模型问答功能复现.mp4
│   ├── week_1_1_part_3_调用本地启动的glm4模型的方法.mp4
│   ├── week_4_1_part_2_自定义RAG评估Pipeline-构建统一的提示模板.mp4
│   ├── week_2_1_part_3_RAG集成历史对话信息及SqlalChemy持久化存储的使.mp4
│   ├── week_4_2_part_2_基于Serper实现系统架构下的联网实时检索功能.mp4
│   ├── week_2_1_part_2_Naive RAG介绍及借助LangChain实现RAG流.mp4
│   ├── week_5_part_2_大模型用于特征工程及实现推荐系统的整体逻辑代码.MP4
│   ├── week_3_1_part_1_企业级RAG的构建架构和思路.mp4
│   ├── week_1_2_part_1_GLM在线API调用方法.mp4
│   ├── week_3_2_part_1_本地RAG知识库问答功能链路详解与复现.mp4
│   ├── week_3_2_part_3_RAG评估框架-Ragas的使用及借助GLM4生成评估数据.mp4
│   ├── week_4_1_part_5_自定义RAG评估Pipeline-ReRanker原理及实.mp4
│   ├── week_2_2_part_2_FastChat项目说明及Python多进程.mp4
│   ├── week_5_part_5_Docker介绍及借助Docker打包部署完整项目的流程.mp4
│   ├── week_4_1_part_3_自定义RAG评估Pipeline-整体逻辑实现及细节说明.mp4
│   ├── week_1_2_part_2_Langchain应用框架整体介绍.mp4
│   ├── week_3_1_part_3_百万量级的wiki公有语料构建方法实践.mp4
├── 低代码开发实战Dify&Coze
│   ├── 1
│   │   ├── 【dify】Ch 1.4 dify&xinference打通融合.MP4
│   │   ├── 【dify】Ch 2.4 构建知识库.MP4
│   │   ├── 【dify】Ch 2.3 xinference细化安装.MP4
│   │   ├── 【dify】Ch 2.1服务器源码部署dify&RAG_基础环境准备.MP4
│   │   ├── 【dify】Ch 1.1 低代码平台介绍.MP4
│   │   ├── 【dify】Ch 2.5 构建简单RAG.MP4
│   │   ├── 【dify】Ch3.2 xinference+deepseek+dify全链路.MP4
│   │   ├── 【dify】Ch3.3 window环境全链路实战+API检验.MP4
│   │   ├── 【dify】Ch 1.2 Dify介绍与安装.MP4
│   │   ├── 【dify】Ch 2.2 源码安装dify.MP4
│   │   ├── 【dify】Ch 1.3 xinference介绍与安装.MP4
│   │   ├── 【dify】Ch3.1 window环境下ollama+deepseek+dify全链路.MP4
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。