],BianQue-2[2],ChatMed-Consult[3],MedicalGPT[4] , ChatGLM-Med[5],Bentsao[7],DoctorGLM[6]),2 个中文通用模型(ChatGLM
ICL 就是给定一定样本,输入的样本越多,输出的效果越好,但是这个能力受限于模型的最大 token 长度,像是 ChatGLM-2,第一版本只有 2k 的输入长度,像是上面的这个示例,如果你的输入特别多的话
loader.load_data(pages=['Guardians of the Galaxy Vol. 3'], auto_suggest=False) 调用配置好的大语言模型,抽取数据到 NebulaGraph,支持 ChatGLM