首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏测试开发干货

    数据工厂平台11:首页收尾

    而不是说你吃了苦就一定能成为人上人,所以选对方法,选对路线很重要,基础技术也很重要。 所以我们先对这个扇形图进行大小和位置的调整。 经排查,是这个组件文件最底部的 js 引入 报错,所以删除掉这两行引入即可 现在报错问题解决了: 那么我们还剩最后一个 也就是最难的问题,即如何让数据生效? 说下我的思路,我们可以写个js函数,来从后端接收数据列表。比如我们这4个统计图,我们从后端拿到数据[85,29,59,13],然后通过计算,得出角度。 然后通过jq/js ,强行更改这个loading-的样式内容数据,即可达到效果。 (所以我说大家学好js,这是万能的,一般测开工程师,很少有人研究前端研究到这个地步,不过这也做出的平台效果也会完爆那些千篇一律的内部平台了。) 具体怎么实现,下节课分享。

    1K20编辑于 2022-05-19
  • 来自专栏hadoop学习笔记

    快DKH大数据基础数据平台的监控参数说明

    2018年国内大数据公司50强榜单排名已经公布了出来,快以黑马之姿闯入50强,并摘得多项桂冠。Hanlp自然语言处理技术也荣膺了“2018中国数据星技术”奖。对这份榜单感兴趣的可以找一下看看。 本篇承接上一篇《DKM平台监控参数说明》,继续就快的大数据一体化处理架构中的平台监控参数进行介绍和说明。 DKhadoop大数据处理平台架构的安装相关文章已经分享过,详细的内容可以找一下看看。 今天就把剩下的一些监控参数一起介绍完,关于快大数据处理平台监控参数的介绍就完整了。 kill的应用程序 图片6.png 监控 yarn资源管理中被杀死的应用程序数量 纵轴表示应用程序数量,单位个 横轴表示时间,单位分钟 2、Spark监控界面 注意:(spark 运行任务后才有监控数据 横轴表示时间,单位分钟 (4)Spark中任务数量 图片10.png 监控 Spark 集群中任务数量 纵轴表示内存容量,单位MB 横轴表示时间,单位分钟 (5)Spark中正在运行的任务数量 图片11

    1.5K20发布于 2018-08-15
  • 来自专栏技术杂记

    UnrealIRCd 基础11

    访问 下面是使用 IceChat9 访问的界面 下面是使用 mIRC7.4.3 访问的界面 ---- 命令汇总 wget https://www.unrealircd.org/unrealircd4/unrealircd-4.0.2.tar.gz gpg --keyserver keys.gnupg.net --recv-keys 0xA7A21B0A108FF4A9 wget https://www.unrealircd.org/unrealircd4/unrealircd-4.0.2.ta

    44020编辑于 2021-11-29
  • 来自专栏技术杂记

    RabbitMQ基础11

    [root@h102 rabbitmq]# 日志 =INFO REPORT==== 23-Oct-2015::17:11:19 === Resetting Rabbit forcefully

    30020编辑于 2022-05-04
  • 来自专栏技术杂记

    fio基础11

    rdma The RDMA I/O engine supports both RDMA memory semantics (RDMA_WRITE/RDMA_READ) and channel semantics (Send/Recv) for the InfiniBand, RoCE and iWARP protocols. falloc IO engine that does regular fallocate to simulate data transfer as fio ioengine. DDIR_READ does fallocate(,mode = keep_size,) DDIR_WRITE does fallocate(,mode = 0) DDIR_TRIM does fallocate(,mode = punch_hole) e4defrag IO engine that does regular EXT4_IOC_MOVE_EXT ioctls to simulate defragment activity in request to DDIR_WRITE event rbd IO engine supporting direct access to Ceph Rados Block Devices (RBD) via librbd without the need to use the kernel rbd driver. This ioengine defines engine specific options. gfapi Using Glusterfs libgfapi sync interface to direct access to Glusterfs volumes without options. gfapi_async Using Glusterfs libgfapi async interface to direct access to Glusterfs volumes without having to go through FUSE. This ioengine defines engine specific options. libhdfs Read and write through Hadoop (HDFS). The 'filename' option is used to specify host, port of the hdfs name-node to connect. This engine interprets offsets a little differently. In HDFS, files once created cannot be modified. So random writes are not possible. To imitate this, libhdfs engine expects bunch of small files to be created over HDFS, and engine will randomly pick a file out of those files based on the offset generated by fio backend. (see the example job file to create such files, use rw=write option). Please note, you might want to set necessary environment variables to work with hdfs/libhdfs properly. mtd Read, write and erase an MTD character device (e.g., /dev/mtd0). Discards are treated as erases. Depending on the underlying device type, the I/O may have to go in a certain pattern, e.g., on NAND, writing sequentially to erase blocks and discarding before overwriting. The w

    94240编辑于 2022-04-24
  • 来自专栏技术杂记

    Snort 基础11

    安装报错三 [root@h101 snort-2.9.7.6]# ./configure --enable-sourcefire checking for a BSD-compatible install... /usr/bin/install -c checking whether build environment is sane... yes checking for a thread-safe mkdir -p... /bin/mkdir -p checking for gawk... gawk

    42430编辑于 2022-05-03
  • 来自专栏技术杂记

    nginx基础11

    停止 nginx是通过给Nginx主进程发系统信号的方式来停止的 从容停止 [root@h102 logs]# ps faux | grep nginx root 11909 0.0 0

    34810编辑于 2022-05-12
  • 来自专栏技术杂记

    Logstash 基础11

    ES里也有了数据 [root@h102 etc]# curl -XGET 'localhost:9200/logstash-2016.12.23/_search? "_id" : "AVIRvXxq0svkz_zfzuOP", "_score" : 0.06365098, "_source":{"message":"Dec 23 12:11 postfix/smtpd[31499]: connect from unknown[95.75.93.154]\r","@version":"1","@timestamp":"2016-12-23T04:11 :43.000Z","host":"0:0:0:0:0:0:0:1","port":45093,"type":"syslog","syslog_timestamp":"Dec 23 12:11:43",

    26720编辑于 2022-02-10
  • 来自专栏技术杂记

    etcd 基础11

    条件删除 Compare-and-Delete(CAD) 就是判断删除 Note: CompareAndDelete 不能用于目录,如果测试用于目录,会获得 102 “Not a file” 的错误 Item Comment prevValue 比较当前的值 prevIndex 比较当前的modifiedIndex [root@docker ~]# curl http://127.0.0.1:2379/v2/keys/foo -XPUT -d value=one {"action":"set","node

    44020编辑于 2022-01-20
  • 来自专栏Lemon黄

    11 Docker 基础

    Docker 通过提供轻量级、可移植的容器化平台,彻底改变了我们构建、发布和运行应用程序的方式。下面,我们就来学习一下 Docker 中的一些基础知识及其它在 DevOps 中的重要性。 这就可以消除了“在我的机器上能正常运行”的问题,并未开发人员和运营团队之间的协作提供了一致的基础。 可扩展性和资源效率:Docker 的容器化方法实现了高效的资源利用和可扩展性。 这种可扩展性对于处理高流量负载、优化基础设施使用和实现成本效益至关重要。 快速部署:Docker 通过将应用程序及其依赖关系打包到一个容器中,简化了部署过程。 Docker 基础命令 1 docker run docker run命令用于启动一个新容器并通过命令行与之交互。

    30500编辑于 2023-12-05
  • 来自专栏最新最全的大数据技术体系

    11数据面试题复习

    1)从 high-level 的角度来看,两者并没有的差别。 spark调优比较复杂,但是大体可以分为三个方面来进行   1)平台层面的调优:防止不必要的jar包分发,提高数据的本地性,选择高效的存储格式如parquet   2)应用程序层面的调优:过滤操作符的优化降低过多小任务 11、Spark为什么要持久化,一般什么场景下要进行persist操作?   为什么要进行持久化?   不一定,当数据规模小,Hash shuffle快于Sorted Shuffle数据规模的时候;当数据量大,sorted Shuffle会比Hash shuffle快很多,因为数量大的有很多小文件,不均匀 等,并封装了底层通讯框架, 是Spark的基础。  

    92912编辑于 2021-12-06
  • 来自专栏技术杂记

    Codis 基础11

    发现此时,slave的同步关系已经自动建立好了 [root@h102 codis]# extern/redis-2.8.21/src/redis-cli -p 6390 info replication # Replication role:slave master_host:localhost master_port:6389 master_link_status:up master_last_io_seconds_ago:8 master_sync_in_progress:0 slave_repl_o

    33940编辑于 2022-03-22
  • 来自专栏Lemon黄

    11 Docker 基础

    Docker 通过提供轻量级、可移植的容器化平台,彻底改变了我们构建、发布和运行应用程序的方式。下面,我们就来学习一下 Docker 中的一些基础知识及其它在 DevOps 中的重要性。 这就可以消除了“在我的机器上能正常运行”的问题,并未开发人员和运营团队之间的协作提供了一致的基础。 可扩展性和资源效率:Docker 的容器化方法实现了高效的资源利用和可扩展性。 这种可扩展性对于处理高流量负载、优化基础设施使用和实现成本效益至关重要。 快速部署:Docker 通过将应用程序及其依赖关系打包到一个容器中,简化了部署过程。 Docker 基础命令 1 docker run docker run命令用于启动一个新容器并通过命令行与之交互。

    23010编辑于 2023-12-05
  • 来自专栏技术杂记

    memcached基础11

    stats slabs/sizes/resetstats slabsSTAT 1:chunk_size 96STAT 1:chunks_per_page 10922STAT 1:total_pages 1STAT 1:total_chunks 10922STAT 1:used_chunks 4STAT 1:free_chunks 10918STAT 1:free_chunks_end 0STAT 1:mem_requested 305STAT 1:get_hits 21STAT 1:cmd_set 19ST

    26910编辑于 2022-06-26
  • 来自专栏技术杂记

    SQLite 基础11

    table department department 11

    29230编辑于 2021-12-01
  • 来自专栏测试开发干货

    (简易)测试数据构造平台: 11 (菜单组件化)

    首先,我们要新建一个普通小组件,按照我们之前所学,应该放在cpmponents文件夹下,新建好后如图所示:

    37220编辑于 2022-07-07
  • 来自专栏数据结构与算法

    11:整数减法

    11:整数减法 查看 提交 统计 提问 总时间限制: 1000ms 内存限制: 65536kB描述 求两个大的正整数相减的差。 输入共2行,第1行是被减数a,第2行是减数b(a > b)。 char a[10001]; 6 char b[10001]; 7 int a1[10001]; 8 int b1[10001]; 9 int c[10001]; 10 int main() 11

    1.4K100发布于 2018-04-11
  • 来自专栏大数据开发

    数据平台搭建:大数据基础架构选型

    数据越来越受到重视的今天,企业级数据平台搭建,也成为更加普遍的需求。而要搭建起符合自身需求以及提供稳定支持的数据平台系统,基础架构的选型是非常重要的。今天我们就来聊聊大数据基础架构选型。 3.jpg 在企业数据团队当中,数据平台基础架构选型,通常由资深的开发工程师或者架构师来完成。这就要求相关人员,结合具体场景和需求,综合考虑成本、投入等因素,选择合适的技术架构。 这类数据架构,所能满足的数据分析需求依旧以BI场景为主。 流式架构 在传统大数据架构的基础上,流式架构数据全程以流的形式处理,在数据接入端将ETL替换为数据通道。 4.jpg 关于大数据平台搭建:大数据基础架构选型,以上就是今天的分享内容了。 大数据继续发展,企业对于数据平台搭建的需求,将越来越普遍,不管是基于原有的系统平台进行改造,还是搭建全新的平台架构,都需要更多专业人才的支持。

    1.6K31发布于 2020-10-21
  • 来自专栏莫浅子的学习笔记

    数据库-MySQL-基础11)-多表查询

    子查询外部的语句可以是INSERT  /  UPDATE / DELETE / SELECT的任何一个。

    84030编辑于 2022-11-18
  • 来自专栏全栈程序员必看

    淘宝双11数据分析(数据可视化)

    文章目录 前言 本篇环境 结果展示 项目结构 前言 这一篇是最终篇,也是展示数据分析之后的结果的一篇。 其他文章: 淘宝双11数据分析(环境篇) 淘宝双11数据分析(数据准备篇) 淘宝双11数据分析(Hive 分析篇-上) 淘宝双11数据分析(Hive 分析篇-下) 淘宝双11数据分析(Spark

    5.8K20编辑于 2022-09-14
领券