首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏范传康的专栏

    LangChain Tips: llm_cache

    LangChain的llm_cache是缓解(或者部分解决)这个问题一个方案。 1. llm_cache好处 & 有用场景1) 节约API Call,节约money2)加速,节约调用时间3)没有api key的情况下,能够运行起来 典型的场景就是有api-key的同学使用llm 设置使用llm_cache工具库:llm.pyfrom langchain.cache import SQLiteCachedef setup_langchain(llm_cache_path, debug

    5.5K62编辑于 2023-08-10
  • 来自专栏程序那些事

    langchain中的LLM模型使用介绍

    InMemoryCache()# 第一次没有使用缓存llm.predict("Tell me a joke")# 第二次使用了缓存llm.predict("Tell me a joke")使用起来很简单,只需要添加一行llm_cache

    1.2K20编辑于 2023-08-29
  • 来自专栏程序那些事

    langchain中的LLM模型使用介绍

    # 第一次没有使用缓存 llm.predict("Tell me a joke") # 第二次使用了缓存 llm.predict("Tell me a joke") 使用起来很简单,只需要添加一行llm_cache

    90830编辑于 2023-09-06
  • 来自专栏AgenticAI

    深入实战 HippoRAG2:高效索引、查询与 GraphRAG 对比解析

    ─ vdb_entity.parquet │ ├── fact_embeddings │ │ └── vdb_fact.parquet │ └── graph.graphml ├── llm_cache

    1.2K20编辑于 2025-03-18
领券