LangChain的llm_cache是缓解(或者部分解决)这个问题一个方案。 1. llm_cache好处 & 有用场景1) 节约API Call,节约money2)加速,节约调用时间3)没有api key的情况下,能够运行起来 典型的场景就是有api-key的同学使用llm 设置使用llm_cache工具库:llm.pyfrom langchain.cache import SQLiteCachedef setup_langchain(llm_cache_path, debug
InMemoryCache()# 第一次没有使用缓存llm.predict("Tell me a joke")# 第二次使用了缓存llm.predict("Tell me a joke")使用起来很简单,只需要添加一行llm_cache
# 第一次没有使用缓存 llm.predict("Tell me a joke") # 第二次使用了缓存 llm.predict("Tell me a joke") 使用起来很简单,只需要添加一行llm_cache
─ vdb_entity.parquet │ ├── fact_embeddings │ │ └── vdb_fact.parquet │ └── graph.graphml ├── llm_cache