首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏ypw

    算法3-7:银行排队

    题意:就是多个窗口服务,每次来的人选择一个等待时间最短的窗口。问所有人的平均等待时间

    1.2K20发布于 2021-04-25
  • 来自专栏coding for love

    3-7 sourceMap的配置

    sourceMap,顾名思义,就是对源文件的映射。比如打包压缩后的代码对应源文件中的哪一行代码,这能够极大地方便开发者的调试。

    1.5K30发布于 2019-08-20
  • 来自专栏Java架构师必看

    数据运营平台-数据采集

    今天说一说数据运营平台-数据采集[通俗易懂],希望能够帮助大家进步!!! 目录 行为数据采集 业务数据采集与转换 第三方系统API对接 用户数据关联 人工数据采集 数据输出 ---- 行为数据采集 1.埋点采集 ①跨平台打通 确定性方法识别 利用用户帐号体系中,可以是系统生成的 业务数据采集与转换 大数据平台的数据来源广泛,根据来源,大致分为两类: 1)内部 a)手工填报 b)流+实时数据采集 c)批量 2)外部 a)文件导入 b)网络爬虫 c)对外接口服务 根据以上分类提供以下方案 数据采集系统体系结构如下图所示: Flume是一个分布式、高可靠和高可用的数据采集采集系统。可针对不同数据源、不同结构的海量数据进行高效收集、聚合和传输,具备良好的扩展性、伸缩性和容错性。 主要通过实现数据导入工具,来实现对人工处理数据的采集;比如定制好数据模板,当人工填写数据模板后,在数据工具中导入上传,再进入大数据平台的文件自动处理机制流程中。

    6K31编辑于 2022-07-06
  • 来自专栏python3

    3-7 run vs cmd vsent

    docker build -t xiaopeng163/centos-entrypoint-shell .

    41520发布于 2020-01-14
  • 来自专栏全栈程序员必看

    基于kettle的数据采集平台

    平台开发目的是设计一个通用的数据采集、解析、处理、装载、调度、监控的通用数据采集平台平台具有业务无关性,涉及到具体的业务数据处理时候需要特殊处理,动态加载到框架中,达到通用的目的。

    68820编辑于 2022-06-28
  • 来自专栏阿年的数据梦

    数仓日记 - 数据采集平台

    说明 二、采集平台准备 1. 框架版本选型 2. 集群部署规划 3. 数据流程图 三、用户行为数据采集模块 1. 环境准备 2. JDK安装 3. 采集通道启动/停止脚本 四、业务数据采集模块 1. MySQL安装 2. Sqoop安装 3. 业务数据生成 4. 业务数据导入HDFS • 项目经验 5. logcollector-1.0-SNAPSHOT.jar logcollector-1.0-SNAPSHOT-jar-with-dependencies.jar 二、采集平台准备 1. 数据流程图 三、用户行为数据采集模块 1. 采集通道启动/停止脚本 zookeeper集群启动脚本:zk.sh flume采集集群启动脚本:f1.sh Kafka集群启动脚本:kf.sh flume消费集群启动脚本:f2.sh #!

    3.2K20编辑于 2022-11-18
  • 来自专栏machh的专栏

    Windows平台音频采集技术介绍

    音频处理的相关技术: 采集麦克风输入 采集声卡输出 将音频数据送入声卡进行播放 对多路音频输入进行混音处理 在Windows操作系统上,音频处理技术主要是采用微软提供的相关API:Wave系列API函数 主要是用来实现对麦克风输入的采集(使用WaveIn系列API函数)和控制声音的播放(使用后WaveOut系列函数)。 支持XP及之后的Windows系统,支持麦克风输入的采集和控制声音的播放,不支持声卡的采集。 DirectSound 可实现多个声音的混合播放。 directx框架,directx 10之就没有了对directsound的支持,已经将directsound封装到directshow里面去了 支持XP及之后的Windows系统,支持麦克风,声卡的采集 下图为DeviceTopology API的作用范围 支持Vista及之后的Windows系统,支持麦克风,声卡输出的采集, 控制声音播放。

    2.1K10编辑于 2022-06-10
  • 来自专栏全栈程序员必看

    基于spark的数据采集平台

    数据采集平台管理端 https://github.com/zhaoyachao/zdh_web 数据采集平台服务 https://github.com/zhaoyachao/zdh_server web 端在线查看 http://zycblog.cn:8081/login 用户名:zyc 密码:123456 界面只是为了参考功能,底层的数据采集服务 需要自己下载zdh_server 部署,服务器资源有限 平台介绍 数据采集,处理,监控,调度,管理一体化平台具体介绍请看github连接中的readme 文档 # 数据采集,处理,监控,调度,管理一体化平台 # 提示 zdh 分2部分,前端配置 zdh_server 保持同步 大版本会同步兼容 如果zdh_web 选择版本1.0 ,zdh_server 使用1.x 都可兼容 # 特色 开箱即用 支持多数据源 高性能数据采集 单独的调度器,调度也可和三方调度器对接airflow,azkaban 二次开发 # 使用场景 + 数据采集(本地上传数据,hdfs,jdbc,http,cassandra

    96210编辑于 2022-06-28
  • 来自专栏程序猿的大杂烩

    大数据平台 - 数据采集及治理

    数据采集介绍 ETL基本上就是数据采集的代表,包括数据的提取(Extract)、转换(Transform)和加载(Load)。数据源是整个大数据平台的上游,数据采集是数据源与数仓之间的管道。 数据采集形式也需要更加复杂,多样,包括定时、实时、增量、全量等。常见的数据采集工具也多种多样,可以满足多种业务需求。 一个典型的数据加载架构: ? 常见的三个数据采集场景: 场景1:从支持FTP、SFTP、 HTTP等 协议的数据源获取数据 场景2:从业务数据库获取数据,数据采集录入后需支撑业务系统 场景3:数据源通过Kafka等消息队列,需要实时采集数据 数据采集系统需求: 数据源管理与状态监控 定时、实时、全量、增量等多模式的数据采集及任务监控 元数据管理、数据补采及数据归档 ---- 常用数据采集工具 Sqoop Sqoop是常用的关系数据库与HDFS 数据采集及处理流程中产生的元数据纳入数据治理平台,并建立血缘关系 提供数据管理的服务接口,数据模型变更及时通知上下游 ---- Apache Atlas数据治理 常见的数据治理工具: Apache Atlas

    4.2K11发布于 2020-11-16
  • 来自专栏Sun

    大数据平台之binlog采集方案

    1、背景 大数据平台采集功能是从外部数据源采集数据存储到hive,采集方式分为全量采集、增量采集,增量采集适用于数据规模较大情况,有很多使用场景,但是在增量采集时,平台只能感知数据新增、更新 大数据平台针对mysql的处理方案流程如图1所示。 select进行全量采集。 3、select采集 首次采集时没有binlog水位,会通过select进行全量采集。 因为漏数据是无法容忍的,因此平台选择1,为了避免重复的SQL操作,平台增加了约束:采集的mysql表需要包含主键或唯一键,这个约束正常情况下都是完全可以满足的。

    1.8K30发布于 2021-11-23
  • 来自专栏斑斓

    剖析大数据平台的数据采集

    数据采集的设计,几乎完全取决于数据源的特性,毕竟数据源是整个大数据平台蓄水的上游,数据采集不过是获取水源的管道罢了。 但是在大数据平台下,由于数据源具有更复杂的多样性,数据采集的形式也变得更加复杂而多样,当然,业务场景也可能变得迥然不同。下图展现了大数据平台比较典型的数据采集架构: ? 在这种场景下,数据采集就仅仅是一个简单的同步,无需执行转换。 场景2:数据源已经写入Kafka,需要实时采集数据。 为了更高效地完成数据采集,通常我们需要将整个流程切分成多个阶段,在细分的阶段中可以采用并行执行的方式。在这个过程中,可能牵涉到Job的创建、提交与分发,采集流程的规划,数据格式的转换等。 除此之外,在保证数据采集的高性能之外,还要考虑数据丢失的容错。

    1.8K40发布于 2018-03-07
  • 来自专栏全栈程序员必看

    大数据:数据采集平台之Fluentd

    大数据:数据采集平台之Fluentd ---- Apache Flume 详情请看文章:《大数据:数据采集平台之Apache Flume》 Fluentd 详情请看文章:《大数据:数据采集平台之 Fluentd》 Logstash 详情请看文章:《大数据:数据采集平台之Logstash》 Apache Chukwa 详情请看文章:《大数据:数据采集平台之Apache Chukwa 》 Scribe 详情请看文章:《大数据:数据采集平台之Scribe 》 Splunk Forwarder 详情请看文章:《大数据:数据采集平台之Splunk Forwarder》 Fluentd从各方面看都很像Flume,区别是使用Ruby开发,Footprint会小一些,但是也带来了跨平台的问题,并不能支持Windows平台

    75120编辑于 2022-08-14
  • 来自专栏刷题笔记

    3-7 表达式转换 (20 分)

    本文链接:https://blog.csdn.net/shiliang97/article/details/102484030 3-7 表达式转换 (20 分) 算术表达式有前缀表示法、中缀表示法和后缀表示法等形式

    95410发布于 2019-11-07
  • 来自专栏葡萄城控件技术团队

    实战分享 | 金融数据采集报送平台实践

    对企业数据系统来说,数据采集填报、报表设计、校验审核、汇总上报等功能是非常常见的需求,也是业务用户使用频率最高的功能模块。 本周我们有幸邀请到葡萄城的深度合作客户——杭州明佑电子有限公司(简称明佑电子)开发部经理 杨颖,从银行业背景和业务痛点出发,分享他们对于银行业数据采集报送领域的实践经验,分析、解决以上提到的痛点问题。 SpreadJS 实现在线导入Excel自定义报表 https://mp.weixin.qq.com/s/IbN6ljTBHGxcg-lfjt_yxw 【客户故事】希施玛数据科技 – 金融大数据处理实验实训教学平台

    1.1K40编辑于 2023-02-10
  • 来自专栏全栈程序员必看

    大数据:数据采集平台之Apache Flume

    大数据:数据采集平台之Apache Flume ---- Apache Flume 详情请看文章:《大数据:数据采集平台之Apache Flume》 Fluentd 详情请看文章:《大数据: 数据采集平台之Fluentd》 Logstash 详情请看文章:《大数据:数据采集平台之Logstash》 Apache Chukwa 详情请看文章:《大数据:数据采集平台之Apache Chukwa 》 Scribe 详情请看文章:《大数据:数据采集平台之Scribe 》 Splunk Forwarder 详情请看文章:《大数据:数据采集平台之Splunk Forwarder 》 ---- 官网: https://flume.apache.org/ Flume 是Apache旗下的一款开源、高可靠、高扩展、容易管理、支持客户扩展的数据采集系统。

    70420编辑于 2022-06-28
  • 来自专栏爬虫资料

    面向教育平台的分层内容采集思路

    更可行的方式是设计一个分层次的采集流程,逐级深入,既能减少资源浪费,又能适应平台的动态变化。 二、思路图谱下面用一张树状结构图来概括整个方案:教育平台内容分层采集方案│├── 网络接入│ ├── 使用代理服务│ ├── 用户模拟切换│ └── 请求频率控制│├── 抓取逻辑│ ├ ─ 增量更新机制│ └── 定期调度任务│└── 监控与优化 ├── 日志与监控 ├── 失败重试 └── 代理池健康度管理三、示例代码下面给出一个简化示例,展示如何代理服务分层采集教育类平台的目录和课程信息 分层采集思路:先拿到分类,再进入课程页面,最后细化到具体单元。可根据平台情况扩展到动态渲染场景。四、总结教育类平台的内容采集,必须考虑到层级化结构、频繁更新、多终端分布和访问限制。 采用分层次的采集思路,可以在保证效率的同时降低风险,并更好地适应教育平台未来的演进方向。这种方案不仅适合教育类平台,也能够迁移到资讯网站、视频平台、知识型社区等场景中。

    24710编辑于 2025-09-03
  • 来自专栏全栈程序员必看

    sdut 3-7 类的友元函数的应用

    3-7 类的友元函数的应用 Time Limit: 1000MS Memory limit: 65536K 题目描写叙述 通过本题目的练习能够掌握类的友元函数的定义和使用方法

    31020编辑于 2022-07-20
  • 来自专栏运维监控日志分析

    可视化日志采集分析平台建设方案

    网站用户行为分析,对Nginx 访问的 URL 、地区分布 、终端类型、延迟等参数进行采集分析展示。 所以决定使用ELK+Filebeat的架构进行平台搭建。 最终,采用Elasticsearch+ Logstash+ Kibana+ Filebeat+ Kafka+ Zookeeper+ Zabbix+ Grafana 的架构构建日志采集分析平台。 2.架构分析 第一层、数据采集层,数据缓存层 在业务应用服务器安装 filebeat 做日志采集,同时filebeat将采集的日志转送至kafka/zookeeper集群。 Grafana Grafana是一款用go语言开发的跨平台的开源度量分析和可视化工具,可以通过将采集的数据进行查询监控可视化的展示。

    5.4K44发布于 2020-05-15
  • 来自专栏chaplinthink的专栏

    大数据平台如何实现任务日志采集

    背景 平台任务主要分3种: flink实时任务, spark任务,还有java任务,spark、flink 我们是运行在yarn 上, 日常排错我们通过查看yarn logs来定位, 但是会对日志存储设置一定的保留时间 jar,排除其它日志框架引入 采集架构设计 通过log4j appender 将采集的日志发送到接收中心,这里注意搞个buffer,通过http批量发送到接收中心,日志太小过滤掉. 进行简单的清洗转换后将数据sink到es中 用户通过界面根据各种条件如applicationId、时间、不同角色节点筛选,搜索到对应日志 总结 本文主要介绍了下基于log4j 自定义appender,实现了大数据平台相关任务日志的采集 ,针对不同类型任务的处理,获取最终我们平台搜索需要的功能. 日志采集注意采集量过猛可能会将磁盘打满,需要有相应的降级或者预防措施,用户不会考虑太多关于平台相关的东西. 大数据平台技术目前各大公司很多技术架构都差不多,就看细节的处理了.

    68810编辑于 2021-12-30
  • 来自专栏全栈程序员必看

    大数据采集平台之ZDH_SERVER部署

    目录 项目源码 下载源码 打包 部署 运行 ---- 项目源码 数据采集平台管理端 https://github.com/zhaoyachao/zdh_web 数据采集平台服务 https://github.com /zhaoyachao/zdh_server web端在线查看 http://zycblog.cn:8081/login 用户名:zyc 密码:123456 界面只是为了参考功能,底层的数据采集服务 需要自己下载

    64620编辑于 2022-06-28
领券