首页 > 其他分享 >AvaloniaChat:一个基于大语言模型用于翻译的简单应用

AvaloniaChat:一个基于大语言模型用于翻译的简单应用

时间:2024-08-16 14:26:29浏览次数:9  
标签:翻译 模型 Api AvaloniaChat Key 硅基

简介

一个使用大型语言模型进行翻译的简单应用。

A simple application using a large language model for translation.

使用指南

访问GitHub地址:https://github.com/Ming-jiayou/AvaloniaChat

注意到Releases这里:

image-20240816093724343

点击AvaloniaChat-v0.0.1-win-x64.zip就会在下载了:

image-20240816093952249

解压之后,打开文件夹,如下所示:

image-20240816094206770

现在只需简单编辑一下appsettings.json文件,该文件用于配置你所使用的大语言模型。

以硅基流动为例,也最推荐硅基流动,Qwen/Qwen2-7B-Instruct是免费的,并且推理速度很快。

注册硅基流动之后,创建一个Api Key,复制这个Api Key:

image-20240816094640258

打开appsettings.json文件,如果使用的是硅基流动,只需填入Api Key即可:

image-20240816094800525

现在配置就完成了,点击exe文件即可使用:

image-20240816094827621

问AI问题:

image-20240816095611412

个人的主要使用场景

在看英文文献的过程中,比较喜欢对照着翻译看,因此希望一边是英文一边是中文,虽然某些软件已经自带了翻译功能,但还是喜欢大语言模型的翻译,但每次都要将英文复制粘贴过去还要自己手动添加prompt,还无法对照着看,因此自己基于Avalonia与Semantic Kernel开发了这款解决自己这个需求的软件,开源出来每个人都可以免费使用,希望能帮助到有同样需求的人。

英译中:

image-20240816100534403

中译英:

image-20240816100742362

配置其他大语言模型

讯飞星火

以Spark Max为例,appsettings.json文件这样写:

{
  "OpenAI": {
    "Key": "your key",
    "Endpoint": "https://spark-api-open.xf-yun.com",
    "ChatModel": "generalv3.5"
  }
}

查看讯飞星火的Api Key:

image-20240816101735673

讯飞星火的key是这样的 APIKey:APISecret,需要写成6d3...:M...这样的形式:

image-20240816102020096

验证是否配置成功:

image-20240816102241575

零一万物

以yi-large为例:

{
  "OpenAI": {
    "Key": "your key",
    "Endpoint": "https://api.lingyiwanwu.com",
    "ChatModel": "yi-large"
  }
}

验证是否配置成功:

image-20240816102914568

最后

如果对你有所帮助,点个Star✨,就是最大的支持

标签:翻译,模型,Api,AvaloniaChat,Key,硅基
From: https://www.cnblogs.com/mingupupu/p/18362777

相关文章

  • NVIDIA CUDA 编程模型之Grid和Block
    NVIDIACUDA编程模型允许灵活地配置grid和block,使程序能够在不同规模和结构上运行。CUDA中的grid可以是1、2或3维的,block也可以是1、2或3维的。这意味着存在多种可能的组合,每种组合都会影响最终线程的编号计算。下表展示了所有可能的grid和block组合,并描述了......
  • 使用 Hugging Face Transformers 创建文本生成模型
    文本生成是自然语言处理中的一个重要任务,在聊天机器人、自动写作等领域有着广泛的应用。HuggingFaceTransformers是一个流行的Python库,它提供了大量预训练的模型以及API来实现各种自然语言处理任务。本文将详细介绍如何使用HuggingFaceTransformers库来创建一个简......
  • Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI
    Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程XorbitsInference(Xinference)是一个开源平台,用于简化各种AI模型的运行和集成。借助Xinference,您可以使用任何开源LLM、嵌入模型和多模态模型在云端或本地环境中运行推理,并......
  • 【MPC】模型预测控制 | 在车辆控制中的应用(二)目标函数构建
    写在前面:......
  • 网易codewave_3D模型嵌入展示
    网易codewave是一个企业级智能开发平台,可以帮助用户轻松实现“智能生成逻辑”+“可视化拖拽生成页面”的全栈低代码应用搭建。将多种3D模型格式无缝集成到网易codewave业务表单中,实现3D模型的在线预览。这意味着用户可以在不离开网易codewave平台的情况下,直接查看和操作3D模型......
  • VoxelNeXt 模型优化(实测提点)
     VoxelNeXt原理这里不多介绍,官方代码地址:https://github.com/dvlab-research/VoxelNeXt总结一下VoxelNeXt的特点:没有采用增大卷积核尺寸的方式来增大感受野,而是利用稀疏卷积做了两次下采样在做BEV处理时,pointpillar是batch_spatial_features.view(batch_size,self.num_......
  • 颠覆传统 北大新型MoM架构挑战Transformer模型,显著提升计算效率
    挑战传统的Transformer模型设计在深度学习和自然语言处理领域,Transformer模型已经成为一种标准的架构,广泛应用于各种任务中。传统的Transformer模型依赖于一个固定的、按深度排序的层次结构,每一层的输出都作为下一层的输入。这种设计虽然简单有效,但也存在参数冗余和计算效率低......
  • Datawhale AI 夏令营-天池Better Synth多模态大模型数据合成挑战赛-task2探索与进阶(
    在大数据、大模型时代,随着大模型发展,互联网数据渐尽且需大量处理标注,为新模型训练高效合成优质数据成为新兴问题。“天池BetterSynth-多模态大模型数据合成挑战赛”应运而生,旨在探究合成数据对多模态大模型训练的影响及高效合成方法策略,推动多模态大模型数据合成创新。比赛关......
  • 大模型的embedding详解
    **Embedding(嵌入)**是大语言模型和其他机器学习模型中的一种核心技术,它通过将离散的数据(如单词、句子、图像)转换为连续的向量表示,使得这些数据可以在高维空间中进行操作和分析。Embedding的本质是为模型提供一种能够捕捉数据之间语义或特征关系的紧凑数值表示。Embedding的基......
  • limu|P10-14|多层感知机、激活函数、模型选择、欠拟合、过拟合、权重衰减、dropout、
    从感知机到多层感知机:感知机:只能产生线性分割面,不能拟合XOR为突破线性模型的限制,可以通过在网络中加入一个/多个隐藏层,即多层感知机MLP。但是如果只是单纯添加隐藏层,还是等价于一个线性模型(仿射变换的仿射变换还是仿射变换),没有带来益处!此时,需要加入额外因素以激发多层架构的潜......