首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏大数据生态

    Pipelines使用

    Pipelines使用在Kibana的Stack Management > Ingest Node Pipelines路径下可以● 查看管道列表并深入了解详细信息● 编辑或克隆现有管道● 删除管道1.

    55910编辑于 2023-11-28
  • 来自专栏WebJ2EE

    【GitLab CICD】:Pipelines

    Pipelines 概述 2. Pipelines 常用类型 3. Pipelines 常用配置 3.1. Git strategy 3.2. Pipelines 架构 4.1. Basic Pipelines 4.2. Directed Acyclic Graph Pipelines 4.3. Pipelines 常用类型 Pipelines can be configured in many different ways: Basic pipelines run everything in Multi-project pipelines combine pipelines for different projects together. Pipelines 常用配置 3.1.

    98030发布于 2021-01-18
  • 来自专栏Hank’s Blog

    Scrapy框架: pipelines.py设置

    保存数据到json文件 # -*- coding: utf-8 -*- # Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html from

    38810发布于 2020-09-17
  • 来自专栏翻译scikit-learn Cookbook

    Putting it all together with PipelinesPipelines将组合相应步骤

    Now that we've used Pipelines and data transformation techniques, we'll walk through a more complicated 现在让我们来使用Pipelines和数据转换技术,我们将通过一个更复杂的综合之前多个步骤的例子来学习。 missing values, it was only a quick taste; we'll chain together multiple preprocessing steps to show how Pipelines 在这部分,我们将展示更多Pipeline的能力,当我们之前用它来处理缺失值,只是浅尝辄止,我们将联系大量的预处理步骤来展示Pipelines如何省去额外的工作。 你可以想象这是一个需要被分为训练数据集和未处理的集合的工作流,Pipelines将使他变得简单,但是我们要先迈出第一步: Let's load the required libraries:让我们来载入需要的包

    48600发布于 2019-11-05
  • 来自专栏InvQ的专栏

    Stream operations and pipelines - intermediate operation

    Classes to support functional-style operations on streams of elements, such as map-reduce transformations on collections. For example:

    29820发布于 2021-06-24
  • 来自专栏数据派THU

    独家 | 使用ONNX搭建NLP Transformers pipelines

    我想帮助你使用ONNX与超强的Transformers pipelines获得尽可能好的结果。 查看这篇(https://towardsdatascience.com/nlp-transformers-pipelines-with-onnx-9b890d015723)很不错的伟大的文章,了解更多关于不同架构和推理配置的基准测试 原文标题: NLP Transformers pipelines with ONNX 原文链接: https://towardsdatascience.com/nlp-transformers-pipelines-with-onnx

    1.2K10编辑于 2022-10-09
  • 来自专栏大数据文摘

    使用ONNX搭建NLP Transformers pipelines

    我想帮助你使用ONNX与超强的Transformers pipelines获得尽可能好的结果。 查看这篇(https://towardsdatascience.com/nlp-transformers-pipelines-with-onnx-9b890d015723)很不错的伟大的文章,了解更多关于不同架构和推理配置的基准测试 原文标题: NLP Transformers pipelines with ONNX 原文链接: https://towardsdatascience.com/nlp-transformers-pipelines-with-onnx

    1.2K30编辑于 2022-10-11
  • 来自专栏python3

    Scrapy用pipelines把字典保

    import csv class MyProjectPipeline(object): # 保存为csv格式 def __init__(self): # 打开文件,指定方式为写,利用第3个参数把csv写数据时产生的空行消除 self.f = open("myproject.csv","a",newline="") # 设置文件第一行的字段名,注意要跟spider传过来的字典key名称相同 self.fieldnames = ["m_num","m_name","s_name

    48910发布于 2020-01-19
  • 来自专栏北山啦的博客

    Scrapy从入门到放弃4--管道pipelines使用

    Scrapy管道的使用 学习目标: 掌握 scrapy管道(pipelines.py)的使用 ---- 之前我们在scrapy入门使用一节中学习了管道的基本使用,接下来我们深入的学习scrapy管道的使用 管道文件的修改 继续完善wangyi爬虫,在pipelines.py代码中完善 import json from pymongo import MongoClient class WangyiFilePipeline ITEM_PIPELINES = { 'myspider.pipelines.ItcastFilePipeline': 400, # 400表示权重 'myspider.pipelines.ItcastMongoPipeline

    1K20编辑于 2022-11-27
  • 来自专栏翻译scikit-learn Cookbook

    使用Pipelines来整合多个数据预处理步骤

    Using Pipelines for multiple preprocessing steps Pipelines are (at least to me) something I don't think Pipelines是一个我认为使用不广泛,但是很有用的方法,他可以把很多步骤联系在一个项目里,使他能够简单的转换和更好的适应数据的整体结构,而不仅仅是一个步骤。 1.32240835]]) Great, now we can create a Pipeline.棒,现在我们可以创建一个Pipeline了: How to do it...怎么做 Without Pipelines method) 像之前提到的,几乎每个scikit-learn模型都有一个相似的接口,对于执行Pipelines最重要的函数是: 1、 fit 2、transform 3、fit_transform Pipelines ease a lot of the burden.

    2K10发布于 2019-10-30
  • 来自专栏SeanCheney的专栏

    《Learning Scrapy》(中文版)第9章 使用Pipelines

    为了是pipeline生效,我们要在settings.py中设置ITEM_PIPELINES,并启动ES_PIPELINE_URL设置: ITEM_PIPELINES = { 'properties.pipelines.tidyup.TidyUp 因为pipelines的平均时间从0.12变为0.15秒,平均延迟从0.78变为0.81秒。吞吐量仍保持每秒约25项。 笔记:用pipelines向数据库插入Items是个好方法吗?答案是否定的。 为了使pipeline生效,我们使前一个方法无效,并添加当前的到settings.py的ITEM_PIPELINES: ITEM_PIPELINES = { 'properties.pipelines.tidyup.TidyUp 要使用这个pipeline,我们需要把它添加到settings.py的ITEM_PIPELINES中。如下所示: ITEM_PIPELINES = { ... 我们可以让这个pipeline生效,通过将它添加到ITEM_PIPELINES: ITEM_PIPELINES = {...

    1.9K20发布于 2019-02-15
  • 来自专栏Rust语言学习交流

    【Rust日报】2023-08-05 优化 Rust 项目中的 CICD pipelines

    优化 Rust 项目中的 CI/CD pipelines StackOverflow 称,Rust 已经连续七年成为最受推崇的编程语言。但是它也因为编译时速度慢而臭名昭著。 文章链接,https://blog.logrocket.com/optimizing-ci-cd-pipelines-rust-projects/ CachewDB-用 Rust 实现的内存键值数据库

    35220编辑于 2023-09-26
  • 来自专栏Reinvent Data Science

    Zilliz Cloud Pipelines 惊喜上线

    Zilliz Cloud 正式上线 Pipelines! 我们为什么需要 Zilliz Cloud Pipelines? 现在,利用 Zilliz Cloud Pipelines 可以方便有效地解决这一问题! Zilliz Cloud Pipelines 的工作原理 Zilliz Cloud Pipelines 由 Ingestion pipeline、Search pipeline、Deletion pipeline Zilliz Pipelines demo 03.

    45510编辑于 2023-12-13
  • 来自专栏TeamsSix的网络空间安全专栏

    Python Scrapy 爬虫框架 | 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDB

    0x01 配置 pipelines.py 首先来到 pipelines.py 文件下,在这里写入连接操作数据库的一些功能。 collection = self.db[spider.name] collection.insert_one(dict(item)) return item 0x02 配置 settings.py ITEM_PIPELINES 是settings.py 文件自带的,把注释符号删掉就好 ITEM_PIPELINES = { 'teamssix.pipelines.TeamssixPipeline': 300, #优先级,1-

    1.2K20发布于 2019-12-31
  • 来自专栏ATYUN订阅号

    谷歌为企业开源Kubeflow Pipelines;提供训练部署AI模型一站式服务的AI Hub

    Google Cloud今天宣布推出Kubeflow Pipelines,以促进企业内部的协作,并进一步实现AI的访问民主化。Kubeflow Pipelines免费提供,并且是开源的。 Kubeflow Pipelines旨在解决这一问题,为更多的数据科学家和开发人员提供支持,帮助企业克服成为AI的公司中面临的障碍。 Sheth表示“他们可以交换新模型,保持Pipelines的其余部分,然后看’新模型是否有助于输出?’ 因此,它能够使快速实验以更好的方式实现,我们正在使用Pipelines,它可以开始涉及开发人员,它可以开始涉及业务分析师,它可以开始让最终用户参与,以便他们可以成为这个团队的一部分,可以构建一个Pipelines Kubeflow Pipelines:github.com/kubeflow/pipelines

    1.1K30发布于 2018-12-07
  • 来自专栏新码农博客

    Scrapy:多个spider时指定pipeline

    1、在 pipeline 里判断爬虫 settings.py ITEM_PIPELINES = { "xxxx.pipelines.MyPipeline": 300, } OneSpider.py = { "xxxx.pipelines.OneSpiderPipeline": 300, "xxxx.pipelines.TwoSpiderPipeline": 400, } OneSpider.py class OneSpider(scrapy.Spider): name = "one" custom_settings = { "ITEM_PIPELINES": { "xxxx.pipelines.OneSpiderPipeline": 300}, } TwoSpider.py class TwoSpider(scrapy.Spider): name = "two" custom_settings = { "ITEM_PIPELINES": {"xxxx.pipelines.TwoSpiderPipeline": 400},

    2.5K20发布于 2020-04-17
  • 来自专栏光城(guangcity)

    熬夜三晚之深度解析DuckDB MetaPipeline

    ; meta_pipeline.GetPipelines(pipelines_so_far, false); auto last_pipeline = pipelines_so_far.back().get pipelines[0] .... pipelines[s] ---> start ..... pipelines[m] ---> dependant pipelines[n-1] 结构为 : unordered_map<Pipeline *, vector<Pipeline *>> dependencies; 完成依赖关系后: pipelines[m] : [pipelines[s]. .....pipelines[m-1]] 由于这里的s = 0, m = 1,所以依赖关系就只有: pipelines[1] : [ pipelines[0] ] pipelines[1] 就是child_pipeline 数组,汇总得到打平后的pipelines

    2K30编辑于 2023-09-02
  • 来自专栏NewBeeNLP

    上线周期缩短上百倍!NLP流水线系统发布,10分钟搭建检索、问答等复杂系统

    同时,Pipelines中预置了前沿的预训练模型和算法,在研发效率、模型效果和性能方面提供多重保障。 本文将对Pipelines三大特色进行解读,全文约2.7k字,预计阅读时长1分半。 图2:Pipelines基础组件示例 Pipelines 除深度兼容 PaddleNLP中的模型外,还可兼容飞桨生态下任意模型、AI 开放平台算子、其它开源项目如 Elasticsearch 等作为基础组件 接下来,我们来看Pipelines中内置的各类SOTA模型。 02 飞桨SOTA模型,支持快速串联 Pipelines中集成PaddleNLP中丰富的预训练模型和领先技术。 该模型可以在Pipelines一键调用,大大降低问答系统模型建模成本。 图8:开发者作品 基于Pipelines的建筑设计规范检索系统——寻规 小编找PaddleNLP内部人士了解到,Pipelines下一步将向以下两个方向扩展,对学术研究和工业应用都非常友好。

    79530编辑于 2022-11-17
  • 来自专栏全栈工程师修炼之路

    云原生 | 下一代CI/CD工具,Tekton入门部署指南

    Tekton Chain : 为使用Tekton Pipelines建造的文物提供生成、存储和标记出处的工具。 mkdir -vp /storage/dev/webapp/tekton-pipelines/Tekton cd /storage/dev/webapp/tekton-pipelines/Tekton " | cut -f 1 -d "@" > TektonCD-Pipelines-image.txt grep "git-image" TektonCD-Pipelines.yaml | sed -e Step 3.部署 Tekton-Pipelines # 部署 Tekton-Pipelines kubectl apply -f TektonCD-Pipelines.yaml # 查看Pod状态( 默认创建 tekton-pipelines 与 tekton-pipelines-resolvers 两个名称空间 ) kubectl get pods --namespace tekton-pipelines

    9.4K32编辑于 2023-10-31
  • 来自专栏后端云

    Kubernetes原生CICD:Tekton hello-world

    /tekton-pipelines-controller-tenant-access created clusterrole.rbac.authorization.k8s.io/tekton-pipelines-webhook-cluster-access /tekton-pipelines-webhook created role.rbac.authorization.k8s.io/tekton-pipelines-leader-election created role.rbac.authorization.k8s.io/tekton-pipelines-info created serviceaccount/tekton-pipelines-controller /tekton-pipelines-webhook created rolebinding.rbac.authorization.k8s.io/tekton-pipelines-controller-leaderelection created deployment.apps/tekton-pipelines-webhook created service/tekton-pipelines-webhook created #首次安装

    66110编辑于 2022-06-09
领券