首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏周拱壹卒

    Chat with LLMs

    /chat-llms -t 去掉模板文件 _template 后缀,配置多模型信息、对话内容,如有需要还可配置系统提示词。 /chat-llms 默认每个模型每个温度分别调用3次流式和非流式接口,调用结果默认生成到 ./result 路径下。 参数 $ . /chat-llms -h NAME: chat-llms - Chat with multi-LLMs at the same time. /chat-llms 未读取到系统提示词,请求中将不会添加。如需使用系统提示词,可通过 system_prompt.txt 文件设置。 /chat-llms -r 1 -o .

    25400编辑于 2025-03-10
  • 来自专栏vue学习

    11组件入门及写个首页头部组件

    来自官网 (2)关于组件的命名 组件的命名我在项目中统一用kebab-case (短横线)表示: ? 组件命名 (3)组件的复用 可以将组件进行任意次数的复用,举个栗子如下图,每次点击按钮,每个组件都会各自独自维护它的count;因为每用一次组件,就会有一个它的新实例被创建。 ? 组件复用 (4)其它 还有很多关于组件使用的很重要的内容,如组件之间数据的传递,组件的事件等等,我们后面在项目中具体用到了再穿插。 2、组件的运用-创建头部组件 (1)新建一个myHeader头部组件 ok,我们进入components文件夹里面新建一个myHeader.vue组件,有helloworld.vue的删掉或者直接改个名直接用都是可以的 (3)组件的复用 组件的复用就很简单了,写复制粘贴一下就行,记住,组件都是独立的。 ? 组件复用 ?

    1.1K20发布于 2018-09-04
  • 来自专栏大模型应用

    大模型应用:LangChain核心组件深度解析:llms与embeddings.3

    核心组件在LangChain中,两个核心组件llms和embeddings:LLMs:大语言模型,负责文本生成、对话等任务。Embeddings:将文本转换为向量表示,用于语义搜索、相似度计算等。 LLMs与Embeddings的区别:大语言模型(LLMs): 功能:文本生成、对话、推理输出:自然语言文本特点:生成式、创造性嵌入模型(Embeddings): 功能:文本向量化、语义理解输出:数值向量特点 11. Prompt构建:将相关文档和用户问题组合成一个提示(Prompt),以便输入给LLM。12. LLM生成:将构建好的提示输入给大语言模型(LLM),生成答案。13. 二、LLMs 组件详解1、LLMs介绍 在LangChain中,LLMs组件是核心之一,它是对各种大语言模型的抽象。通过LLMs组件,我们可以以统一的方式调用不同的模型。 六、总结 通过LangChain,我们可以方便地集成LLMs和Embeddings组件,构建强大的应用程序。

    33832编辑于 2026-01-31
  • 来自专栏与前端沾边

    react 学习(11)高阶组件

    react 中的高阶组件主要是对于 hooks 之前的类组件来说的,如果组件之中有复用的代码,需要重新创建一个父类,父类中存储公共代码,返回子类,同时把公用属性传到子类中的形式。 使用示例高阶组件就是一个函数,传给它一个组件,它返回一个新的组件const NewComponent = higherOrderComponent(OldComponent) 示例我们定义组件共用 show ,现有的复用方式大体有如下几种:代码直接 copy最 low 的方式高阶组件抽离公用逻辑,可以新的组件中处理拦截,操作生命周期,拓展导入组件的 props,逻辑复杂时不易维护类继承继承父类,不易拓展,且类组件的性能消耗比较大 ,因为类组件需要创建类组件的实例,而且不能销毁mixins不需要传递状态,操作方便;缺点数据来源不明确,容易被滥用hooks现在主流方式,数据来源追溯,逻辑分层清晰,易维护。 消耗小,执行完就会被销毁本节内容不是很多,小编也确实对高阶组件接触不多,如有错误欢迎指正!

    60010编辑于 2022-06-12
  • 来自专栏雪胖纸的玩蛇日常

    11.父组件向子组件传值

    组件向子组件传值 父组件Home.vue <template>

    {{msg}}

    <v-header :title="title" /Header.vue"; export default { name: 'home', data () { return { msg:'首页组件',

    {{msg}}

    {{title}}

    <button @click="run(data)">在子组件执行父组件传过来的方法 ', data:'父组件方法子组件参数' } }, methods:{ }, props:['title','run'], components:{ } 1.父组件在引用子组件的时候,绑定动态属性 ?  2.在子组件内通过props接收从父组件传过来的数据和方法 ?

    67010发布于 2019-10-14
  • 来自专栏CnPengDev

    小程序 | 11-组件

    创建自定义组件 自定义组件由 json、wxml、wxss、js 四个文件组成,我们通常是在根目录下创建一个文件夹——components,在该文件夹中存放我们自定义的公共组件。 自定义组件的步骤: 现在 json 文件中进行自定义组件声明——"component": true, 在 wxml 中编写自定义组件的模板内容 在 wxss 中编写自定义组件的样式 在 js 文件中定义数据和组件内部的相关逻辑 在使用方的 json 文件中引用自定义组件——"引用自定义组件时的标签名":"自定义组件的绝对路径或相对路径" 在使用方的 wxml 文件中,通过上一步定义的标签名引用自定义组件。 如果在 app.json 的 usingComponents 中声明了某个组件,那么所有页面和组件都可以直接使用该组件。 3. 组件和页面样式的细节 外部样式指引用组件的页面的样式。 3.1. 组件内样式对外部样式的影响 组件内的 class 样式仅对组件 wxml 内的节点生效,对于引用组件的 page 页面不会生效。 组件内不能使用 id 选择器、属性选择器、标签选择器 3.2.

    2.8K20发布于 2021-05-17
  • 来自专栏轻狸科技专栏

    宝塔面板安装SourceGuardian组件SG11组件

    在设置里的安装拓展选项  找到sg11   点击安装3. 安装完成后,记得重启下php服务如果是正常安装上恢复则无任何问题了,但是如果还是出现问题,就有可能是版本不可以!

    2.3K40编辑于 2022-11-09
  • 来自专栏每日一篇技术文章

    weex-11-组件slider的使用

    本节学习目标 熟练使用slider组件 下面的内容是你必须要掌握的 1.怎么让banner的宽度和屏幕的宽度相等 2.怎么让banner自动轮播和轮播间隔 3.如何添加指示器 4.如何设置指示器的颜色和大小 /src/sldier.vue' root.el = '#root' export default new Vue(root); 1.创建一个轮播组件,让其宽度和屏幕宽度相等 接下来,创建一个轮播图组件 background-color: green; } .image{ width:750px; height: 300px; } </style> 注意一点 1.如果你发现自己的图片显示不出来,有可能是你的图片组件没有设置宽和高 991B9A44-390E-4D41-9E9A-D71F57F84A06.png 一般banner轮播图都有像这样的指示器,下面教大家如何实现这样的效果,weex有个指示器组件<indicator></ indicator> 我们只需要将指示器组件放在<slider> 组件内部,注意一定是里面哦,不然没有效果的 <slider class="slider"> <image :src="src

    1.3K10发布于 2018-09-14
  • 来自专栏技术墨客

    React学习(11)—— 高阶应用:Web组件

    Web组件 从概念上说,React 和 Web组件 分别用于解决不同的问题。 对于开发人员来说将React用于Web组件、或将Web组件用于React、或2者皆有并非难事。

    ; } } Web组件常会暴露一些必要的API接口,例如一个 video Web组件可能会暴露  play() 和 pause() 方法。 如果引入第三方的Web组件,最好的解决方案使用一个React组件来包装引入的Web组件并最终作为一个React组件来使用。 由第三方Web组件触发的事件也许并不能通过React的渲染树传递,此时需要在组件中去手工的触发事件。 

    54820发布于 2018-08-15
  • 来自专栏机器学习AI算法工程

    开源大语言模型LLMs汇总

    论文及代码 代码:https://github.com/yanqiangmiffy/InstructGLM 11、FastChat 简介 FastChat is an open platform for

    2.9K10编辑于 2023-09-04
  • 来自专栏数据探险家专栏

    LangChain Java - a framework for developing applications with LLMs

    This is the Java language implementation of LangChain.Large language models (LLMs) are emerging as a But using these LLMs in isolation is often not enough to create a truly powerful app - the real power .build() .init();---The following test code can be used to view the QuickStart.java2.3 LLMs 2.5 Chains: Combine LLMs and prompts in multi-step workflowsUp until now, we’ve worked with the PromptTemplate a combination of them.A chain in LangChain is made up of links, which can be either primitives like LLMs

    1.5K30编辑于 2023-06-14
  • 来自专栏自然语言处理(NLP)论文速递

    剑桥 | 提出Hypernetwork,解耦LLMs分词器(Tokenizer),提高LLMs跨语言处理性能!

    大模型(LLM)主要依赖于分词器(Tokenizer )将文本转换为Tokens,目前主流开源大模型基本上都是基于英文数据集训练得到的,然而,此类模型当处理其它语言时效率会降低。为此,为了能够将原始 LM 分词器替换为任意分词器,而不会降低性能,本文作者定义了一个新挑战:零样本分词器迁移(ZeTT,Zero-Shot Tokenizer Transfer),训练了一个适配各种模型的超网络(Hypernetwork),解耦LLM分词器(Tokenizer),增强LLM跨语言处理性,实验表明:在跨语言和编码任务上可媲美原始模型。

    65010编辑于 2024-05-17
  • 来自专栏前端小菜鸡yym

    React--11: refs与事件处理非受控组件和受控组件

    非受控组件 页面所有输入类的DOM,现用现取就是非受控组件。 受控组件 受控组件就是把值都存在了状态当中,当我们使用值时去状态state中取。 首先,受控组件不能使用ref了。那我们想改变值怎么办呢?

    79210编辑于 2023-01-12
  • 来自专栏Creator星球游戏开发社区

    Cocos Creator基础教程(11)—可拖拽组件

    创建测试场景 在实现一个组件代码之前最好新建一个测试场景,组件代码在测试场景中通过了基本测试之后再放入正式环境使用。 而且在组件完成后,测试场景最好也不要丢弃了,等我们以后为组件升级或修改BUG时,可用于快速检验修改是否正确。 ? 初始化工程 2. 实现可拖拽组件 我们来看下组件代码非常简单,就算你不会编程,根着注释相信也能明白个大概: cc.Class({ extends: cc.Component, onLoad() { 将组件代码挂载到节点上,其它什么都不用做,运行起来看看效果: ? 3. 我给目标节点挂载了一个Layout组件,设置成GRID模式,实现自动网格排列,很像游戏中的物品包裹功能,这个组件真的是物超所值哦! 4.

    5.5K31发布于 2019-09-11
  • 来自专栏Reinvent Data Science

    LLMs 诸神之战:LangChain ,以【奥德赛】之名

    LLMs 变聪明的秘密——LangChain LLMs 优秀的对话能力已是共识,但其内存有限、容易“胡说八道”也是不争的事实。 LLMs 是根据权重生成答案的,因此无法验证信息的可靠性或提供信息来源。 那么,如何让 LLMs 好好地回答问题并总结数据?如何让 LLMs 提供答案来源? LangChain 是一个将不同计算方式、知识与 LLMs 相结合的框架,可进一步发挥 LLMs 的实际作用。 LLMs 一次只能处理一定数量的 token(约 4 个字符),这就意味着 LLMs 无法分析长篇文档或文档集。 在这一步中,可以使用原始的 LLMs 生成 embedding 向量,这样不仅操作方便,还能在检索过程中保留 LLMs 的“思维过程”。

    42520编辑于 2023-08-26
  • 来自专栏深度学习自然语言处理

    LLMs可以遵循简单的规则吗?

    论文:CAN LLMS FOLLOW SIMPLE RULES? 地址:https://arxiv.org/pdf/2311.04235.pdf git:https://github.com/normster/llm rules 摘要 为了解决LLMs的规则遵循问题, 要想使AI虚拟助手在安全地整合到社会中,就需要研究并改进LLMs对于规则遵循的能力。

    84010编辑于 2023-11-16
  • 来自专栏深度学习自然语言处理

    情感分析与LLMs角色扮演

    Why Two LLMs but Not One? Vanilla ICL Self-Negotiation Negotiation with two LLMs Dataset and methods 本文在六个数据集上进行实验,分别为:SST-2,Movie

    1.2K30编辑于 2023-11-09
  • 来自专栏AIGC 先锋科技

    推理加速策略对 LLMs 偏差的影响 !

    该数据集涵盖了约200个国家的11个统计数据。为了比较数值答案,作者计算模型答案与实际值之间的绝对相对误差,并针对所有问题求平均,以获得每个模型的单一分数。该分数位于[0,1]范围内。 KV缓存是快速LLM推理的关键组件,可以在GPU上占用大量空间。因此,缓存量化允许使用更大的KV缓存以实现更快地推理。作者使用4位(Liu等人,2023年)和8位(同上)量化。 剪枝**(Pruning)** 是一种去除模型权重子集的方法,以降低语言模型(LLMs)的高计算成本,同时力求保持性能。传统的剪枝方法需要重新训练(Cheng等人,2024)。 6 Conclusion & Future Work 在本研究中,作者研究了推理加速策略对大型语言模型(LLMs)偏置的影响。 The Impact of Inference Acceleration Strategies on Bias of LLMs.

    33510编辑于 2024-11-25
  • 来自专栏deepseek

    03 deep research: Challenges and Prospects of Advanced Reasoning LLMs

    Meta’s Toolformer taught LLMs to insert API calls in their text autonomously (Can language models make logic and math tasks, far beyond coding questions alone (At Which Training Stage Does Code Data Help LLMs (Leadership Perspectives: Use Cases and ROI of LLMs - AI Forward | Fiddler AI). Purely neural LLMs, even very large ones, still struggle with certain types of systematic reasoning and In the coming years, we might see “reasoning co-processors” attached to LLMs: differentiable modules

    46700编辑于 2025-03-20
  • 来自专栏Python进阶之路

    Nature Perspective | LLMs 作为角色扮演引擎

    本文提出了另一种方法,即使用角色扮演的概念,既能使用熟悉的术语,又能承认 LLMs 独特的非人类性质。 从根本上说,LLM 可以根据大量训练数据预测文本序列中的下一个单词。 要点总结: 本文讨论了如何通过使用角色扮演概念来更好地理解大语言模型(LLMs),同时承认其非人类性质。 对话系统中使用的大语言模型可以模仿人类对话,但需要引导以避免产生不良内容。 有了应用程序接口(APIs),就可以相对无限制地使用强大的 LLMs,这意味着对话智能体的可能性是巨大的。这既令人兴奋,又令人担忧。 因为 LLMs 的训练数据将包含这种熟悉的比喻的许多实例,所以这里的危险是生活会模仿艺术,毫不夸张地说。 如何才能降低这些风险?提出建议不属于本文的讨论范围。 我们的目的是找到一个有效的概念框架,用于思考和讨论 LLMs 和对话智能体。然而,不适当的拟人化肯定不利于关于人工智能的公共对话。

    75810编辑于 2023-12-28
  • 领券