AI

共收录文章
二级分类

llm-universe-Task6 对案例学习和总结

Task 6 对案例学习总结 本次内容如下: 对两个精选案例进行学习 对之前的内容进行总结 对之前所做的东西进行优化 对案例学习 1.个人知识库助手 具体项目界面如下:

0
0
29

llm-universe-Task5系统评估和优化

Task 5 系统评估和优化 评估优化流程 在具体的大模型应用开发中,我们通过寻找并优化Bad Cases来提高系统性能。我们将每个Bad Case加入到验证集中,并在每次优化后重新验证所有案例,以确保系统不会在原有Good Case上失去能力或表现降级。当验证集较小时,我们可以通过人工评估系统输出

0
0
23

llm-universe-Task4 构建RAG应用

llm-universe-Task4 构建RAG应用 基于Datawhale的开源课程:地址 写在前面: 在跟着DW学习途中前几节都是用阿里云服务器,但是好像是服务器配置有点低,进行一系列操作后就会崩溃,但是最近事情,不能老是去调整,所以使用WSL2在本地进行操作

0
0
30

llm-universe-Task3 搭建和使用向量知识库

llm-universe-Task3 搭建知识库 使用智谱embeddingAPI  from zhipuai import ZhipuAI  def zhipu_embedding(text: str):  ​      api_key = api      client = ZhipuAI(ap

0
0
23

llm-universe-Task2 主流大模型SDK接入和prompt

Task 2 概念: Prompt Temperature token: Token 是模型用来表示自然语言文本的基本单位,可以直观的理解为“字”或“词” Prompt: 理论分析: prompt(提示)就是用户与大模型交互****输入的代称。即我们给大模型的输入称为 Promp

0
0
25

llm-universe Part one

llm-universe Part one 第一部分 大模型开发基本了解 **LLM --(**大语言模型,Large Language Model) 开发流程 LangChain

0
0
88

本地部署LLM

最近开源的llama模型非常火,BX同学在这里向大家演示一下,如何本地部署。* *本文章谨代表BX个人思考 Meta公司发布的新一代大语言模型, 本期介绍如何在本地,在自己电脑上利用CPU/GPU部署运行, 介绍: <

0
0
505

欢迎来到Bpple的站点,为您导航全站动态

64 文章数
20 分类数
44 评论数
15标签数
最近评论
bpple

bpple


一切顺利

fetain

fetain


good luck

bx

bx


good luck

热门文章

Emoji收集

2024-11-01

542
Hello Halo

2024-10-30

524
本地部署LLM

2024-08-22

505
Uptime Kuma

2024-11-29

499
229

访问统计