- 2024-08-06使用Infinity部署Embedding和Reranking模型
使用Infinity部署Embedding和Reranking模型说明:首次发表日期:2024-08-06InfinityGithub仓库:https://github.com/michaelfeil/infinityInfinity官方文档:https://michaelfeil.github.io/infinity/下载权重pipinstall-U"huggingface_hub[cli]"exportHF_ENDPOINT=ht
- 2024-07-16三大知名向量化模型比较分析——m3e,bge,bce
先聊聊出处。M3E是MokaMassiveMixedEmbedding的缩写,Moka,此模型由MokaAI训练,开源和评测,训练脚本使用uniem,评测BenchMark使用MTEB-zhMassive,此模型通过千万级(2200w+)的中文句对数据集进行训练Mixed,此模型支持中英双语的同质文本相似度计算,异质文本检索等功
- 2024-07-03Bunny的PT+SFT训练
GitHub-BAAI-DCAI/Bunny:Afamilyoflightweightmultimodalmodels.Afamilyoflightweightmultimodalmodels..ContributetoBAAI-DCAI/BunnydevelopmentbycreatinganaccountonGitHub.https://github.com/BAAI-DCAI/Bunny1.环境安装condacreate-nbunnyp