AIGC大模型应用实践
发布日期:
2024/4/25 15:24:19
课程大纲
第一部分:生成式人工智能和大语言模型技术概览
一、AIGC的概念和技术体系
1.生成式人工智能(AIGC)体系概述
2.大语言模型技术(LLM)工作原理
3.LLM 生态体系
4.OpenAI 及其相关模型介绍
二、提示工程
1.什么是提示工程
2.构建提示的方法
3.优化提示技巧改善LLM输出质量
4.提示工程思维和提示工程最佳实践
三、实现AIGC开发环境
1.获取并使用LLM API Key
2.构建开发环境使用Python代码实现流式自动对话
3.快速创建Chat Bot,练习提示词
第二部分:使用 LangChain 开发AIGC应用
一、LangChain的基本概念和环境准备
1.大语言模型的概念
2.LangChain的概念和组件
3.安装LangChain环境
4.使用LangChain调用LLM API
二、模型的调用、提示工程和输出解析
1.模型I/O
2.提示工程
3.输出解析
三、Chain:串联不同的组件
1.Chain的概念
2.LLMChain
3.Sequential Chain
4.RouterChain
四、Memory:保存对话上下文
1.Memory 概述
2.ConversationChain
3.ConversationBufferMemory(缓冲记忆)
4.ConversationBufferWindowMemory
5.ConversationSummaryMemory
6.ConversationSummaryBufferMemory
五、Agent:代理
1.Agent概念和体系
2.React框架
3.结构化工具对话代理
4.自主询问搜索代理
5.计划与执行代理
六、LangChain高级应用
1.工具和工具箱
2.实现检索增强生成RAG
3.连接数据库
4.回调函数实现异步通信机制
5.CAMEL:实现角色扮演
6.实现自治代理
七、综合演练:构建客服Chatbot
1.技术架构
2.实现步骤
3.实现基本聊天
4.实现记忆功能
5.整合文档库具备检索机制
6.使用Gradio/StreamLit框架部署Chatbot
八、项目实战:开发知识库问答系统
1.项目需求
2.技术框架
3.核心实现机制
4.核心代码分析
5.功能实现
第三部分:实现自主可控的AIGC应用开发底座 (1D)
一、搭建API Gateway
1.AIGC 开发底座工具链介绍
2.LLM API 调用方法和策略综述
3.使用One-API项目部署API Geateway
4.管理API渠道和令牌
5.API 调用的监控以及用户管理
二、实现LLM模型本地运行
1.使用LM Studio实现开源大模型的本地运行
2.开源大语言模型和本地开发环境的对接
3.测试和评估LLaMa模型
4.测试和评估Mixtrel MoE模型
5.使用Phi 2实现本地平替Github Copilot解决方案
6.实现嵌入式模型的本地运行
三、构建低代码无代码AIGC应用开发平台
1.部署Flowise
2.快速实现基本会话机器人
3.实现整合Web浏览插件的会话机器人
4.实现领域知识库(Embedding & 向量检索引擎)
5.实现智能体
四、AIGC 应用的部署
1.应用容器化部署介绍
2.借助Vercel实现应用的PaaS化部署
3.部署ChatGPT Web
4.快速上线自定义LLM应用
课程周期
24课时(45分钟/课时)
无标题文档