开源项目推荐
Cog
Cog 是将机器学习模型打包到容器的工具。可通过配置将机器学习模型所需的环境和依赖,自动打包到容器里方便部署,让你不再为编写 Docker 文件和 CUDA 而痛苦,还能自动启动 HTTP 接口服务方便调用。
KnowStreaming
KnowStreaming 是功能强大的 Kafka 集群监控和运维管理平台。
Opserver
Opserver 是一个采用 .Net 开发的轻量级监控系统,它可以监控包括服务器、日志、SQL Server 集群、Redis 在内的多种服务,支持修改 JSON 配置文件自定义仪表盘展示。
Litellm
Litellm 是简化大模型 API 调用的工具。该项目能够将各种 AI 大模型和服务的接口,统一转换成 OpenAI 的格式,简化了在不同 AI 服务/大模型切换和管理的工作。
文章推荐
使用 Docker 部署 ML 模型的分步指南
本文介绍了如何使用 Docker 部署机器学习模型,通过详细步骤指导,包括设置环境、构建模型、创建依赖文件、编写 Dockerfile、构建 Docker 镜像、运行容器以及将容器推送至 Docker Hub。使用 Docker 能确保模型在不同环境中运行的一致性和依赖关系的稳定性,使部署过程更加顺畅和可扩展,同时消除了复杂环境设置的需求。
优化 Uber 的持续部署:大型 Monorepos 中的微服务自动化
Uber 在其最近的文章中分享了如何优化大规模单一仓库(monorepo)中微服务的持续部署。面对由数千个服务构成的微服务架构,Uber 重新设计了其持续部署系统“Up CD”,以提高自动化和安全性。该系统与内部云平台及可观测性工具紧密集成,通过引入统一的提交流程和各阶段的安全检查,实现了部署的标准化和可重复性。
自推出以来,自动部署的服务比例从不到 10%提升至近 70%,且每千次代码更改导致的生产事故率降低了 50%以上。Up CD 的成功在于其用户友好的界面和对共享代码变化分阶段部署的策略,有效应对了单一仓库中的挑战,显著提升了部署的安全性、效率和透明度。
两次转型的故事:劳埃德银行和摩根大通英国分行如何推动银行业的变革
两家历史背景截然不同的英国银行——历史悠久的劳埃德银行(Lloyds)和云原生新秀 Chase UK,分享了它们推动数字化转型的工具、技术和理念。劳埃德银行作为拥有 259 年历史的机构,正转向云优先策略,面临复杂技术遗产的挑战,通过构建内部开发者门户(IDP)实现自服务和重用;而 Chase UK 自 2021 年成立起即采用云原生,迅速积累两百万客户,通过从工具中心向 SDLC 生态系统转变,在六周内成功迁移 500 多个微服务,展现了从工具到生态系统的未来趋势。
云原生动态
Argo Workflows 3.6 发布候选版本
Argo Workflows 3.6 版本作为候选发布版现已推出,此版本新增 53 项功能、237 项修复、164 次文档更新,并吸引了 130 位贡献者参与,其中 83 位为新晋贡献者。主要更新包括 Cron Workflows 的多重计划、停止策略及条件表达式,UI 界面的多项改进如显示完整工作流名称、时间显示切换、Markdown 支持等,以及度量指标、控制器、插件、存储、性能优化等多方面的增强。用户可通过 CLI 更新 Cron Workflows 等工作流模板,并享受更多便捷功能。
Kmesh v0.5 发布!进击的 Sidecarless 服务网格
Kmesh 项目组宣布 Kmesh v0.5.0 版本正式发布!
在 v0.5.0 版本中,我们实现了多项重大增强,具体包括:
- 引入了功能强大的命令行工具 kmeshctl,为用户提供了更便捷的操作体验。
- 实现了更全面的端到端测试覆盖,确保系统功能的稳定性和可靠性。
- 对底层 eBPF 信息的可视化进行了显著改进,提升了用户的监控与调试效率。
- 增强了可观测性,帮助用户更轻松地掌握系统运行状态。
- 提供了完整的重启支持,确保系统在意外中断后能够迅速恢复正常运行。
标签:Uber,2024.10,服务,14,部署,模型,Workflows,Docker From: https://www.cnblogs.com/kubesphere/p/18464292本文由博客一文多发平台 OpenWrite 发布!