• 2024-05-15bert服务启动报错
    错误:(myenv)F:\作业\软件架构\机器学习\实验\实验26-2-使用bert构建词向量\chinese_bert_wwm_L-12_H-768_A-12>bert-serving-start-model_dir./publish/-num_worker=1usage:E:\soft\anoconda\envs\myenv\Scripts\bert-serving-start-model_dir./publish/-num_worker=1I:
  • 2024-05-15实验26 使用bert构件词向量错误解决方案
    已经有源码没有报错,按步骤准备在terminal启动bert-serving-server,输入命令之后报错显示没有这样的命令:原先是按照网上的教程用:pipinstallbert-serving-server#serverpipinstallbert-serving-client#client,independentof`bert-serving-server`这俩命令安装了服
  • 2024-05-01FastChat
    FastChathttps://github.com/lm-sys/FastChat为服务基于大模型的chat应用,FastChat提供框架。提供三个功能training,serving,andevaluating有评价功能、训练功能(finetuning)主要的还是serving能力,可以支持大模型的负载均衡 FastChatisanopenplatformfortrain
  • 2024-04-29vite 项目,背景图报错 The request url "xx/xx/xx.xx" is outside of Vite serving allow list.
    版本vite3.2.6vue3.2.37 背景本地启项目,项目中引用了自研组件库(没有安装,通过文件路径直接引用,便于调试项目和组件),两者文件夹是平级的组件库中背景图:background:100%/100%no-repeaturl('../assets/svg/xxx.svg'); 问题本地启动项目之后,背景图未正常展示浏览器控
  • 2024-03-08PaddleOCR 服务化部署(基于PaddleHub Serving)
    最近用到百度飞桨的PaddleOCR,研究了一下PaddleOCR的服务化部署,简单记录一些部署过程和碰到的问题。基础环境paddlepaddle2.5.2python3.7paddlehub2.1.0PaddleOCR2.6pip20#查看python版本python--version#查看pip版本pip--version#查看paddlepaddle版本
  • 2024-03-05AI时代:本地运行大模型vllm
    https://docs.vllm.ai/en/latest/index.html高吞吐量、高内存效率的LLMs推理和服务引擎(快速搭建本地大模型,且openAIAPI兼容)vLLMisafastandeasy-to-uselibraryforLLMinferenceandserving.vLLMisfastwith:State-of-the-artservingthroughputEfficientman
  • 2024-02-18tensorflow serving: REST request
    1.savetrainedmodel#inmodulefileoftfxcomponenttrainerdef_apply_preprocessing(raw_features,tft_layer):transformed_features=tft_layer(raw_features)if_LABEL_KEYinraw_features:transformed_label=transformed_features.pop(_
  • 2024-01-15OpenShift 中部署无服务器
    简介OpenShift4中通过名为“RedHatOpenShiftServerless”的Operator提供了基于Knative的Serverless(无服务器架构)的运行环境。OpenShift的无服务器组件主要涉及KnativeServing和KnativeEventing。KnativeServing是一个开源软件框架,用于构建和管理可扩展、容错和
  • 2024-01-02OpenShift Knative Serving 配置服务(1)
    自动缩放Knative提供了基于Kubernetes的自动缩放功能,根据指标(如CPU利用率、内存使用量等)自动调整Pod的副本数,以实现弹性和高可用性。Knative的KnativeServing的组件,用于管理应用程序的生命周期,在KnativeServing中,可以配置自动缩放规则,以指定应用程序的缩放行为。通过配置自动
  • 2023-12-29乒乓球比赛
    fromrandomimportrandom#打印程序介绍信息defprintIntro():print("这是单人赛模拟程序:")#获得程序运行参数defgetInputs():a=eval(input("请输入选手A的能力值(0-1):"))b=eval(input("请输入选手B的能力值(0-1):"))n=eval(input
  • 2023-12-28比赛模拟
    fromrandomimportrandom#打印程序介绍信息defprintIntro():print("22信计1班23号")print("这是单人赛模拟程序:")#获得程序运行参数defgetInputs():a=eval(input("请输入选手A的能力值(0-1):"))b=eval(input("请输入选手B的能力值(0-1):
  • 2023-12-28羽毛球比赛
    fromrandomimportrandomdefprintIntro():print("学号09,题目为模拟羽毛球")defgetInputs():a=eval(input("请输入选手A的能力值(0—1):"))b=eval(input("请输入选手B的能力值(0—1):"))returna,bdefsimNgames(n,probA,probB):winsA
  • 2023-11-13rancher2.7.5更新web证书方法
    1.dockerexec-itxxxx/bin/bash2.kubectl--insecure-skip-tls-verify-nkube-systemdeletesecretsk3s-serving kubectl--insecure-skip-tls-verifydeletesecretserving-cert-ncattle-system rm-f/var/lib/rancher/k3s/server/tls/dynamic-cert.json3.
  • 2023-10-17Go - Serving Through HTTPS
    Problem: YouwanttoserveyourwebapplicationthroughHTTPS.Solution: Usethehttp.ListenAndServeTLSfunctiontoserveyourwebapplicationthroughHTTPS. HTTPSisnothingmorethanlayeringHTTPontopoftheTransportSecurityLayer(TLS).Thenet
  • 2023-10-17Go - Serving Static Files
    Problem: Youwanttoservestaticfilessuchasimages,CSS,andJavaScriptfiles.Solution: Usethehttp.FileServerfunctiontoservestaticfiles. funcmain(){dir:=http.Dir("./static")fs:=http.FileS
  • 2023-10-08knative serving 流量管理
    创建客户端#kubectlrunclient--image=ikubernetes/admin-box-it--rm--restart=Never--command-nknative-demo--/bin/bashroot@client/#创建应用hello-world-v1.yamlapiVersion:serving.knative.dev/v1kind:Servicemetadata:name:helloworld-gonames
  • 2023-10-07knative serving 域名映射
    创建应用hello-world.yamlapiVersion:serving.knative.dev/v1kind:Servicemetadata:name:helloworld-gonamespace:knative-demospec:template:spec:containers:-image:ghcr.dockerproxy.com/knative/helloworld-go:latestenv
  • 2023-09-23运行 Knative Serving demo 应用
    创建ns#kubectlcreatensknative-demonamespace/knative-democreated创建应用hello-world.yamlapiVersion:serving.knative.dev/v1kind:Servicemetadata:name:helloworld-gonamespace:knative-demospec:template:spec:containers:
  • 2023-09-15Knative 基础
    Knative项目简介读音为“kay-nay-tiv”,由Google于2018年7月正式发布Kubernetes平台的原生扩展组件,让其能够轻松地部署、运行和管理Serverless类型的云原生应用由RedHat、Google和IBM等公司,以及各种初创公司组成的开源社区共同维护目标在于Serverless技术标准化Knative是什
  • 2023-09-14Knative Serving v1.11.0 部署
    先决条件如果集群中只有一个节点,则至少需要6个CPU、6GB内存和30GB磁盘存储。如果集群中有多个节点,则每个节点至少需要2个CPU、4GB内存和20GB磁盘存储。您有一个使用Kubernetesv1.24或更高版本的集群。部署KnativeServing流程1.部署Service自定义资源
  • 2023-07-25模型部署 — PaddleNLP 基于 Paddle Serving 快速使用(服务化部署 - Docker)— 图像识别 + 信息抽取(UIE-X)
    目录流程版本安装Docker安装PaddleNLP安装环境准备模型准备压缩模型下载模型模型部署环境配置启动服务测试--暂时还没通过重启图像识别+信息抽取(UIE-X),部署接口供别的应用调用最终在自己部署的环境中识别时报错,不知道是不是和GPU有关,还在尝试中流程在百度BMLCodeLab
  • 2023-07-11NLP | mC4数据集
    MC4是C4的子集,MC4是从公共CommonCrawl存储库中提取的约750GB英语文本的集合。CommonCrawl包含数十亿个从Internet抓取的网页。尽管C4数据集被明确设计为仅英语,但MC4覆盖了CommonCrawl迄今为止发布的108种语言,具有10000多个网页。有证据表明,语言模型会放大
  • 2023-06-23CV、NLP、语音识别深度学习模型部署(model serving)平台及项目整理分享
       什么是模型服务?    在部署ML模型时,数据科学家或工程师必须根据他们的应用场景做出选择。如果他们需要大量的预测,并且延迟不是问题,通常会选择批量处理,向模型提供大量数据并将预测结果写入表中。如果他们需要低延迟的预测,例如响应应用程序中的用户操作,最好的方式是将ML模
  • 2023-06-23PMML-ONNX-AI Serving等深度学习模型上线-部署实战经验分享
    AI的广泛应用是由AI在开源技术的进步推动的,利用功能强大的开源模型库,数据科学家们可以很容易的训练一个性能不错的模型。但是因为模型生产环境和开发环境的不同,涉及到不同角色人员:模型训练是数据科学家和数据分析师的工作,但是模型部署是开发和运维工程师的事情,导致模型上线部署
  • 2023-06-0912) Flyweight Pattern
    类别: StructuralPattern问题/动机: 假若绿色是相同部分,占用1M内存,如果提取出来,众对象共享其内容,只占1M内存,否则占10M,且随着对象增多,占用越来越多内存,无疑是浪费资源Aflyweightisanobjectthatminimizesmemoryusagebysharingasmuchdataaspossiblewithot