课程概述
课程旨在深入介绍生成式人工智能(AIGC)和大语言模型(LLM)技术。
在这个课程中,我们首先将研究生成式人工智能(AIGC)和大语言模型(LLM)的概念和技术体系,探讨其工作原理,生态体系以及与 OpenAI的关系。接下来,我们将深入讨论"提示工程",介绍如何构建和优化提示以提高LLM的结果质量。在环境配置方面,我们将展示如何使用Python代码实现流式自动对话,并快速创建Chat Bot。
课程中,我们还将通过LangChain来开发AIGC应用,详细讲解其概念、模型调用、提示工程、输出解析。我们还会介绍如何在LangChain中使用链(Chain)、内存(Memory)和代理(Agent)。一起探索楼LangChain的高级应用,并在实际演练中构建一个客户服务型Chatbot。
最后,我们将搭建一个API网关,实现LLM模型的本地运行,并构建一个低代码/无代码的AIGC开发平台。课程最后将主要专注于应用部署,包含容器化部署和PaaS化部署,以便于快速上线自定义LLM应用。
课程对象
- AI技术爱好者:对人工智能特别是生成式AI感兴趣的个人。
- 数据科学家:需要使用LLM进行数据分析和模式识别的专业人士。
- 软件开发者:希望将AIGC集成到其应用程序中的软件开发者。
- 产品经理:负责设计和推出基于AIGC技术的产品的产品经理。
- 研究人员和学者:在学术研究中探索AIGC应用的研究人员。
- 企业决策者:寻求利用AIGC技术改进业务流程和提高效率的企业决策者。
- 技术创业者:正在寻找利用AIGC技术创造新业务机会的创业者。
课程目标
通过课程学习,学员将能够获得必要的知识和技能,以在各自的领域中有效利用AIGC技术,开发创新的应用程序,并推动人工智能技术的发展。
- 理解AIGC和LLM技术:使学员能够理解AIGC的概念、技术体系以及LLM的工作原理。
- 掌握提示工程:教授学员如何构建和优化提示,以改善LLM的输出质量。
- 开发环境搭建:指导学员如何获取和使用LLM API Key,以及如何使用Python代码实现流式自动对话。
- LangChain应用开发:深入学习LangChain的基本概念,掌握如何使用LangChain调用LLM API,以及如何串联不同的组件构建复杂的AIGC应用。
- 记忆与代理机制:了解如何在AIGC应用中保存对话上下文,以及如何使用代理机制进行结构化工具对话。
- 高级应用与工具箱:学习如何实现检索增强生成、连接数据库、异步通信机制,以及角色扮演等高级应用。
- 自主可控开发底座:教授学员如何搭建API Gateway,管理API渠道和令牌,以及如何实现LLM模型的本地运行。
- 低代码无代码平台构建:介绍如何部署低代码无代码AIGC应用开发平台,如Flowise,并实现基本会话机器人。
- 应用部署:了解应用容器化部署,以及如何借助云服务快速上线自定义LLM应用。
- 项目实战:通过构建客服Chatbot和知识库问答系统,让学员将所学知识应用于实际项目中。
课程收益
- 深入理解AIGC和LLM技术:掌握生成式人工智能和大语言模型的核心概念与技术体系。
- 提示工程技能提升:学习如何构建和优化提示,以提高大语言模型的输出质量。
- 实践环境配置能力:通过Python代码实现流式自动对话,快速创建Chat Bot。
- LangChain应用开发:深入了解LangChain的概念和应用,掌握模型调用和输出解析。
- 记忆与代理机制应用:在AIGC应用中保存对话上下文,使用代理机制进行结构化工具对话。
- 高级应用与工具箱运用:实现检索增强生成、连接数据库、异步通信机制等高级应用。
- 自主可控开发底座构建:搭建API Gateway,管理API渠道和令牌,实现LLM模型的本地运行。
- 低代码无代码平台构建技术:部署低代码无代码AIGC应用开发平台,实现基本会话机器人。
- 应用部署与快速上线:掌握应用容器化部署,借助云服务快速上线自定义LLM应用。
- 项目实战经验:通过构建客服Chatbot和知识库问答系统,将所学知识应用于实际项目。
课程时长4天
课程大纲
模块 | 章节 | 内容 |
1. 生成式人工智能和大语言模型技术概览 (1D) | AIGC的概念和技术体系 | • 生成式人工智能(AIGC)体系概述 • 大语言模型技术(LLM)工作原理 • LLM 生态体系 • OpenAI 及其相关模型介绍 |
提示工程 | • 什么是提示工程 • 构建提示的方法 • 优化提示技巧改善LLM输出质量 • 提示工程思维和提示工程最佳实践 |
实现AIGC开发环境 | • 获取并使用LLM API Key • 构建开发环境使用Python代码实现流式自动对话 • 快速创建Chat Bot,练习提示词 |
2. 使用 LangChain 开发AIGC应用 (2D) | LangChain的基本概念和环境准备 | • 大语言模型的概念 • LangChain的概念和组件 • 安装LangChain环境 • 使用LangChain调用LLM API |
模型的调用、提示工程和输出解析 | • 模型I/O • 提示工程 • 输出解析 |
Chain:串联不同的组件 | • Chain的概念 • LLMChain • Sequential Chain • RouterChain |
Memory:保存对话上下文 | • Memory 概述 • ConversationChain • ConversationBufferMemory(缓冲记忆) • ConversationBufferWindowMemory • ConversationSummaryMemory • ConversationSummaryBufferMemory |
Agent:代理 | • Agent概念和体系 • React框架 • 结构化工具对话代理 • 自主询问搜索代理 • 计划与执行代理 |
LangChain高级应用 | • 工具和工具箱 • 实现检索增强生成RAG • 连接数据库 • 回调函数实现异步通信机制 • CAMEL:实现角色扮演 • 实现自治代理 |
综合演练:构建客服Chatbot | • 技术架构 • 实现步骤 • 实现基本聊天 • 实现记忆功能 • 整合文档库具备检索机制 • 使用Gradio/StreamLit框架部署Chatbot |
项目实战:开发知识库问答系统 | • 项目需求 • 技术框架 • 核心实现机制 • 核心代码分析 • 功能实现 |
3. 实现自主可控的AIGC应用开发底座 (1D) | 搭建API Gateway | • AIGC 开发底座工具链介绍 • LLM API 调用方法和策略综述 • 使用One-API项目部署API Geateway • 管理API渠道和令牌 • API 调用的监控以及用户管理 |
实现LLM模型本地运行 | • 使用LM Studio实现开源大模型的本地运行 • 开源大语言模型和本地开发环境的对接 • 测试和评估LLaMa模型 • 测试和评估Mixtrel MoE模型 • 使用Phi 2实现本地平替Github Copilot解决方案 • 实现嵌入式模型的本地运行 |
构建低代码无代码AIGC应用开发平台 | • 部署Flowise • 快速实现基本会话机器人 • 实现整合Web浏览插件的会话机器人 • 实现领域知识库(Embedding & 向量检索引擎) • 实现智能体 |
AIGC 应用的部署 | • 应用容器化部署介绍 • 借助Vercel实现应用的PaaS化部署 • 部署ChatGPT Web • 快速上线自定义LLM应用 |
为什么选择艾威
深厚的行业经验:艾威自2003年成立以来,积累了丰富的培训经验和行业资源。
专业的师资团队:我们的讲师都是具有多年实战经验的行业专家和学者。
实战为主:本课程强调实战应用,帮助学员更好地将理论知识运用到实际工作中。
个性化的课程设置:我们根据市场需求和学员需求,设计了符合实际需要的课程内容和结构。
在这个技术日新月异的时代,掌握最新的知识和技能是每个专业人士的必备条件。选择艾威,让我们一起迎接技术的未来!
培训咨询