workflow中LLM输出多个参数时怎么依次变量化

当前工作流中,LLM输出多个参数,但实际下一节点的输入只能将LLM text作为整个变量输入。参数模拟器还需要再调一次大模型耗时太长。除参数提取器还有什么更快的方法能拿到输出的多个参数吗?。目前暂时解决方法是基于Dify JSON响应标准格式,在LLM后加一个代码节点,用python解析。但每一个输出都需要单独写一个python去做解析,太复杂。

使用python进行解析是最快速的方法。。。。