网站首页
编程语言
数据库
系统相关
其他分享
编程问答
responseContext
2024-09-24
深入理解LLM的可观测性
特定的ChatLanguageModel和StreamingChatLanguageModel实现(请参见“可观测性”列)允许配置ChatModelListener,用于监听以下事件:对LLM的请求LLM的响应错误这些事件包含的属性包括OpenTelemetry生成AI语义约定中的描述,例如:请求:模型温度(Temperature)TopP最大