• 2024-09-24深入理解LLM的可观测性
    特定的ChatLanguageModel和StreamingChatLanguageModel实现(请参见“可观测性”列)允许配置ChatModelListener,用于监听以下事件:对LLM的请求LLM的响应错误这些事件包含的属性包括OpenTelemetry生成AI语义约定中的描述,例如:请求:模型温度(Temperature)TopP最大