现在做大模型,还有靠谱且免费的 API 接口吗?
靠谱的不免费,免费的不靠谱,鱼和熊掌不可兼得?
非也!
对于简单的指令而言,绝大部分免费的 LLM API 还是能打的,本文就给大家介绍几款,猴哥亲测好用的免费的 API 接口!
免费 LLM API 汇总(持续更新中)
大模型 | 免费版本 | 免费限制 | 备注 | API |
讯飞星火大模型 | spark-lite | Tokens:总量不限;QPS:2 | 链接 | |
百度千帆大模型 | ERNIE-Speed-128K | RPM=60,TPM=300000 | 链接 | |
ERNIE-Speed-8K/ ERNIE-Lite-8K/ERNIE-Tiny-8K |
RPM=300,TPM=300000 | |||
腾讯混元大模型 | hunyuan-lite | 限制并发数 5 | 链接 | |
智谱 AI 大模型 | glm-4-flash | 限制并发数 5 | 自带联网搜索,支持微调 | 链接 |
书生浦语大模型 | internlm2.5-latest | RPM=10, TPM=5000 | 需申请使用 | 链接 |
Llama Family |
Llama3-Chinese-8B-Instruct/ Atom-13B-Chat |
8-22 点:RPM=20; 22-次日 8 点:RPM=50 |
链接 | |
Groq | gemma-7b-it/llama-3.1-70b等 | RPM=30, RPD=14400 | 链接 | |
Google Gemini | gemini-1.5-flash/gemini-1.0-pro | RPM=15, TPM=100万, RPD=1500 | 链接 | |
gemini-1.5-pro | RPM=2, TPM=3.2万, RPD=50 | |||
text-embedding-004 | RPM=1500 | |||
硅基流动 | Qwen2-7B-Instruct等 | RPM=100,QPS=3 | 链接 |
标签:封装,模型,AI,免费,TPM,API,RPM,链接 From: https://www.cnblogs.com/dengcao/p/18458183
RPM:每分钟处理的请求数量;
TPM:每分钟处理的Token数量;
RPD:每天处理的请求数量;
QPS:每秒内处理的请求数量;
并发数:系统同时处理的请求数量。