首页 > 编程语言 >SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景

SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景

时间:2024-08-02 17:50:05浏览次数:15  
标签:C# 模型 离线 学习 微课 var Ollama SemanticKernel

前言

上一篇文章介绍了使用SemanticKernel/C#的RAG简易实践,在上篇文章中我使用的是兼容OpenAI格式的在线API,但实际上会有很多本地离线的场景。今天跟大家介绍一下在SemanticKernel/C#中如何使用Ollama中的对话模型与嵌入模型用于本地离线场景。

开始实践

本文使用的对话模型是gemma2:2b,嵌入模型是all-minilm:latest,可以先在Ollama中下载好。

image-20240802155643905

2024年2月8号,Ollama中的兼容了OpenAI Chat Completions API,具体见https://ollama.com/blog/openai-compatibility。

因此在SemanticKernel/C#中使用Ollama中的对话模型就比较简单了。

var kernel = Kernel.CreateBuilder()
    .AddOpenAIChatCompletion(modelId: "gemma2:2b", apiKey: null, endpoint: new Uri("http://localhost:11434")).Build();

这样构建kernel即可。

简单尝试一下效果:

public async Task<string> Praise()
{
    var skPrompt = """                           
                  你是一个夸人的专家,回复一句话夸人。                         
                  你的回复应该是一句话,不要太长,也不要太短。                                                  
                  """;
    var result = await _kernel.InvokePromptAsync(skPrompt);
    var str = result.ToString();
    return str;
}

image-20240802161927375

就这样设置就成功在SemanticKernel中使用Ollama的对话模型了。

现在来看看嵌入模型,由于Ollama并没有兼容OpenAI的格式,所以直接用是不行的。

Ollama的格式是这样的:

image-20240802162315493

OpenAI的请求格式是这样的:

curl https://api.openai.com/v1/embeddings \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -d '{
    "input": "Your text string goes here",
    "model": "text-embedding-3-small"
  }'

OpenAI的返回格式是这样的:

{
  "object": "list",
  "data": [
    {
      "object": "embedding",
      "index": 0,
      "embedding": [
        -0.006929283495992422,
        -0.005336422007530928,
        ... (omitted for spacing)
        -4.547132266452536e-05,
        -0.024047505110502243
      ],
    }
  ],
  "model": "text-embedding-3-small",
  "usage": {
    "prompt_tokens": 5,
    "total_tokens": 5
  }
}

因此通过请求转发的方式是不行的。

之前也有人在ollama的issue提了这个问题:

image-20240802164433012

似乎也有准备实现嵌入接口的兼容:

image-20240802164711059

目前试了一下还没有兼容。

在SemanticKernel中需要自己实现一些接口来使用Ollama的嵌入模型,但是经过搜索,我发现已经有大佬做了这个事,github地址:https://github.com/BLaZeKiLL/Codeblaze.SemanticKernel。

使用方法见:https://github.com/BLaZeKiLL/Codeblaze.SemanticKernel/tree/main/dotnet/Codeblaze.SemanticKernel.Connectors.Ollama

大佬实现了ChatCompletion、EmbeddingGeneration与TextGenerationService,如果你只使用到EmbeddingGeneration可以看大佬的代码,在项目里自己添加一些类,来减少项目中的包。

这里为了方便,直接安装大佬的包:

image-20240802165405190

构建ISemanticTextMemory:

 public async Task<ISemanticTextMemory> GetTextMemory3()
 {
     var builder = new MemoryBuilder();
     var embeddingEndpoint = "http://localhost:11434";
     var cancellationTokenSource = new System.Threading.CancellationTokenSource();
     var cancellationToken = cancellationTokenSource.Token;
     builder.WithHttpClient(new HttpClient());
     builder.WithOllamaTextEmbeddingGeneration("all-minilm:latest", embeddingEndpoint);           
     IMemoryStore memoryStore = await SqliteMemoryStore.ConnectAsync("memstore.db");
     builder.WithMemoryStore(memoryStore);
     var textMemory = builder.Build();
     return textMemory;
 }

现在开始试试效果,基于昨天的分享做改进,今天上传一个txt文档。

一个私有文档如下所示,隐私信息已替换:

各位同学:
你好,为了帮助大家平安、顺利地度过美好的大学时光,学校专门引进“互联网+”高校安全教育服务平台,可通过手机端随时随地学习安全知识的网络微课程。大学生活多姿多彩,牢固掌握安全知识,全面提升安全技能和素质。请同学们务必在规定的学习时间完成该课程的学习与考试。
请按如下方式自主完成学习和考试:
1、手机端学习平台入口:请关注微信公众号“XX大学”或扫描下方二维码,进入后点击公众号菜单栏【学术导航】→【XX微课】,输入账号(学号)、密码(学号),点【登录】后即可绑定信息,进入学习平台。
2、网页端学习平台入口:打开浏览器,登录www.xxx.cn,成功进入平台后,即可进行安全知识的学习。
3、平台开放时间:2024年4月1日—2024年4月30日,必须完成所有的课程学习后才能进行考试,试题共计50道,满分为100分,80分合格,有3次考试机会,最终成绩取最优分值。
4、答疑qq群号:123123123。
学习平台登录流程
1.	手机端学习平台入口:
请扫描下方二维码,关注微信公众号“XX大学”;
公众号菜单栏【学术导航】→【XX微课】,选择学校名称,输入账号(学号)、密码(学号),点【登录】后即可绑定信息,进入学习平台;
遇到问题请点【在线课服】或【常见问题】,进行咨询(咨询时间:周一至周日8:30-17:00)。
2.	网页端学习平台入口:
打开浏览器,登录www.xxx.cn,成功进入平台后,即可进行安全知识的学习。
3.	安全微课学习、考试
1)	微课学习
	点击首页【学习任务中】的【2024年春季安全教育】,进入课程学习;
	展开微课列表,点击微课便可开始学习;
	大部分微课是点击继续学习,个别微课是向上或向左滑动学习;
	微课学习完成后会有“恭喜,您已完成本微课的学习”的提示,需点击【确定】,再点击【返回课程列表】,方可记录微课完成状态;
2)	结课考试
完成该项目的所有微课学习后,点击【考试安排】→【参加考试】即可参加结课考试。

上传文档:

image-20240802170116241

切割为三段:

image-20240802170255136

存入数据:

image-20240802170408646

回一个问题,比如“答疑qq群号是多少?”:

image-20240802170515662

虽然耗时有点久,大概几十秒,但是回答对了:

image-20240802171241525

image-20240802171302527

再尝试回答一个问题:

image-20240802171753214

回答效果不是很好,而且由于配置不行,本地跑也很慢,如果有条件可以换一个模型,如果没有条件并且不是一定要离线运行的话,可以接一个免费的api,在结合本地的嵌入模型。

换成在线api的Qwen/Qwen2-7B-Instruct,效果还不错:

image-20240802172218766

image-20240802172254618

总结

本次实践的主要收获是如何在SemanticKernel中使用Ollama中的对话模型与嵌入模型用于本地离线场景。在实践RAG的过程中,发现影响效果的最主要在两个地方。

第一个地方是切片大小的确定:

 var lines = TextChunker.SplitPlainTextLines(input, 20);
 var paragraphs = TextChunker.SplitPlainTextParagraphs(lines, 100);

第二个地方是要获取几条相关数据与相关度的设定:

var memoryResults = textMemory.SearchAsync(index, input, limit: 3, minRelevanceScore: 0.3);

相关度太高一条数据也找不到,太低又容易找到不相关的数据,需要通过实践,调整成一个能满足需求的设置。

参考

1、https://medium.com/@johnkane24/local-memory-c-semantic-kernel-ollama-and-sqlite-to-manage-chat-memories-locally-9b779fc56432

2、https://github.com/BLaZeKiLL/Codeblaze.SemanticKernel

标签:C#,模型,离线,学习,微课,var,Ollama,SemanticKernel
From: https://www.cnblogs.com/mingupupu/p/18339290

相关文章

  • [Spring]SpringMVC
    SpringMVC工作原理SpringMVC的核心组件有哪些?记住了下面这些组件,也就记住了SpringMVC的工作原理。DispatcherServlet:核心的中央处理器,负责接收请求、分发,并给予客户端响应。HandlerMapping:处理器映射器,根据URL去匹配查找能处理的Handler,并会将请求涉及到的拦截器......
  • 奥运会Ⅰ--Google大模型 - 效率的伟大胜利
    不惜一切代价正如我们多次提到的,LLM最看重的是规模。这是因为随着参数数量的增加,这些模型会开发出新功能。因此,这些模型的每一代新模型通常都比之前的模型大得多,其中GPT-4的大小是GPT-3的十倍,而据传GPT-5比GPT-4大30倍(如果我们使用微软首席技术官KevinScott对......
  • License的生成,安装,验证
    写这篇的原因:最近有个项目需要交付给第三方,要使用证书进行验证,不验证就不让他们用license的流程:生成:license许可证应包含必要的信息,如许可证ID、用户ID、产品ID、有效期、许可类型(如单用户、多用户、永久、试用等)。加密算法:使用非对称加密算法(如RSA)生成公钥和私钥。私钥用......
  • Win11不在C盘安装WSL2(Linux环境),安装Nvidia驱动和默认使用Win11的网络代理服务
    众所周知,WSL2为Windows用户提供了一个强大、高效且灵活的Linux环境,特别适合开发者使用。它结合了Windows和Linux的优点,为用户提供了更加全面和高效的工作环境。但缺点也很明显,那就是默认安装在本来空间就不富裕的C盘。本次我们在非C盘的盘符快速安装基于wsl2的linux开......
  • C#中常用集合类型
    在C#中,集合是用于存储和操作一组数据项的数据结构。这些集合通常位于 System.Collections 和 System.Collections.Generic 命名空间中。下面我将概述C#中几种常用的集合类型及其特点:1. System.Collections 命名空间中的集合这个命名空间中的集合类型不支持泛型,因此在......
  • Docker①_VMware下载和部署_Linux
    目录1.VMware下载和部署Linux虚拟机1.1VMWare正版安装部署1.2VMWare个人安装1.3网络类型设置为桥接模式1.3.1参考配置为桥接模式1.3.2三种模式区别1.3.3VMnet1和8的IP地址的主要用途1.4配置静态ip2.常见问题解决Xshell连接虚拟机(有前面部分步骤图)Centos7静......
  • 在windows上用docker编译ceph
    Why为什么要在windows上跑docker去编译ceph的代码?是松鼠哥吃太饱了吗?当然不是~在实际生产问题处理中,很多时候会遇到棘手的情况,需要快速修改并编译得到可用的二进制程序,例如上篇中,松鼠哥处理多个osd连续的down时,就需要导出其中的一些pg,但是pg的数据导出会因为其中的一些对......
  • 【GeoScene】一、创建、发布路网服务,并在代码中测试最短路径分析
    前言网上关于GeoScene及GeoSceneAPIforJavaScript的资料太少了,官方的技术支持又太慢了,最近把在项目中踩过的坑分享出来;**版本信息**GeoScenePro4.0GeoSceneEnterprise3.1GeoSceneAPIforJavaScript4.27.4一、创建网络分析图层1、在地理数据库中新建......
  • 输入“func start”命令时会找到并运行函数,但在命令 func azurepublish 时无法识别函
    本质上我有一个正在尝试部署到天蓝色的功能。当我输入“funcstart”时,该函数在本地运行,并且可以将发布请求发送给它。然而,当我尝试将函数部署到azure时,部署总是成功,但函数本身永远不会推送到azure。即远程构建成功![2024-07-26T15:17:11.932Z]同步触发器...函数位于:.........
  • Anylogic(1)——浅谈理解
    最近接触到了Anylogic,刚接触这个软件,感觉很迷惘,之前一直用python,看到一个接口说是这个软件可以有个库,直接写python也可以,好家伙,查了一个多周,一点也用不了。后来从官网上说(大致意思),因为python火,所以有这么一个接口库,同时开源了,因为开源了,所以不保证后续更新,也就是说不保证兼......