首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏后端技术

    系统设计与分析 作业9

    该用例完成用户订购酒店的整体过程。 用户可搜索酒店,得到搜索表单。再根据搜索表单选择满意的酒店和房间类型。 最后验证预定,完成整个过程。

    43240发布于 2019-05-25
  • 来自专栏CSDNToQQCode

    Spack作业分析

    分) 题目4(15分) 题目5(20分) 题目6(20分)  ---- 文件 给予4个文件【spack01.txt】【spack01.txt】【film_log1.csv】【move.csv】进行数据分析

    1.3K10编辑于 2022-11-30
  • 来自专栏腾讯云流计算 Oceanus

    Storm作业转化为Flink作业流程分析

    一、 Storm的topology作业可以转化为Flink Job放到Flink上运行,需要修改Storm作业的代码。 在FlinkToplogy中进行作业转化解析的主要流程如下: transloteToplogy.JPG 1. 首先获取Flink流式作业的执行环境,以及Storm作业中定义的Spout,Bolt组件集合;这些都是在FlinkTopology的构造方法中完成,代码如下: this.spouts = getPrivateField 根据以上操作就将Storm作业的spout组件转为成了Flink作业的DataStreamSource了,然后将转化出来的dataStream放入到availableInputs中;其中availableInputs ,则Storm作业中组件将全部转化为Flink的Transmation,放入到执行环境的transmations中,提交作业运行的时候,transmations转化StreamGraph,再转为JobGraph

    2.5K20发布于 2018-09-08
  • 来自专栏腾讯云大数据

    Flink 实践教程-入门(9):Jar 作业开发

    作者:腾讯云流计算 Oceanus 团队 流计算 Oceanus 简介 流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接 、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。 流计算 Oceanus 支持 Flink Jar 作业和 Flink SQL 作业,本文将向您详细介绍如何使用 Flink DataStream API 进行 Jar 作业开发,并在流计算 Oceanus 9092"; sinkProps.setProperty("bootstrap.servers", hosts); String outTopic = "flink-demo9" 创建作业 在流计算 Oceanus 控制台,点击左侧【作业管理】,点击左上角【新建】新建作业作业类型选择 Jar 作业,点击【开发调试】进入作业编辑页面。

    1.3K40编辑于 2021-12-06
  • 来自专栏git

    spark作业-源码分析

    两个打印语句: List(org.apache.spark.OneToOneDependency@63acf8f6) List(org.apache.spark.OneToOneDependency@d9a498 由上述分析可以知道,如果需要join的两个表,本身已经有分区器,且分区的数目相同,此时,相同的key在同一个分区内。就是窄依赖。

    44320编辑于 2021-12-28
  • 来自专栏python学习2020

    2019年学习Python-day9作业

    用Python实现简单的名片管理系统 主程序很好懂,最近几天实在是忙的头晕,作业都没空做了,代码按课件搬来的 # 1.程序启动,显示名片管理系统欢迎界面,并显示功能菜单 # ** ** ** ** *

    58350发布于 2019-12-03
  • 来自专栏python3

    python作业大纲分析

    2018-11-22 目前自学python这么久,零零散散的写了几次作业,下面是几个在完成过程中遇到困难较多的作业。 号为还款日,过期未还,按欠款总额 万分之5 每日计息     5、支持多账户登录,每个用户有单独信息     6、支持账户间转账,     7、记录每月日常消费流水     8、提供还款接口     9

    79620发布于 2020-01-20
  • 来自专栏腾讯云流计算 Oceanus

    Flink 实践教程:入门9-Jar 作业开发

    流计算 Oceanus 简介 流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台 流计算 Oceanus 支持 Flink Jar 作业和 Flink SQL 作业,本文将向您详细介绍如何使用 Flink DataStream API 进行 Jar 作业开发,并在流计算 Oceanus Flink 实践教程:入门9-Jar作业开发 前置准备 创建流计算 Oceanus 集群 在流计算 Oceanus 产品活动页面 1 元购买 Oceanus 集群。 9092"; sinkProps.setProperty("bootstrap.servers", hosts); String outTopic = "flink-demo9" 创建作业 在 Oceanus 控制台,点击左侧【作业管理】,点击左上角【新建】新建作业作业类型选择 Jar 作业,点击【开发调试】进入作业编辑页面。 【主程序包】选择刚刚上传的依赖,并选择最新版本。

    1.8K90编辑于 2021-12-21
  • 来自专栏后端技术

    系统设计与分析 作业4

    分析客户要完成退货业务,在淘宝网上需要实现哪些系统用例 3. 用例文本编写 在大作业基础上,分析三种用例文本的优点和缺点 摘要优缺点:摘要文本是简洁的一段式摘要,通常用于主成功场景。优点是易于编写。 非正式文本优缺点:非正式文本是用几个段落覆盖不同的场景,用几个段落覆盖不同场景,同样用于早期的需求分析过程,优点是比起摘要式用例文本要详细一些,覆盖的问题广泛一些,缺点是不够正式。

    50720发布于 2019-05-25
  • 来自专栏后端技术

    系统设计分析 作业6

    1、 领域建模 a. 阅读 Asg_RH 文档,按用例构建领域模型。 按 Task2 要求,请使用工具 UMLet,截图格式务必是 png 并控制尺寸 说明:请不要受 PCMEF 层次结构影响。你需要识别实体(E)和 中介实体(M,也称状态实体) 在单页面应用(如 vue)中,E 一般与数据库构建有关, M 一般与 store 模式 有关 在 java web 应用中,E 一般与数据库构建有关, M 一般与 session 有关 b. 数据库建模(E-R 模型) 按 Task 3 要求,给出系统的 E

    48430发布于 2019-05-25
  • 来自专栏后端技术

    系统设计与分析 作业3

    最后,分析调查结果,写成文档,发布到项目的github上 github 调研报告 2.

    67730发布于 2019-05-25
  • 来自专栏后端技术

    系统设计与分析 作业5

    作业总览 1、 领域建模 a. 阅读 Asg_RH 文档,按用例构建领域模型。

    51320发布于 2019-05-25
  • 来自专栏后端技术

    系统设计分析 作业7

    XX 建模练习 要求: 练习文档编写 选择一个你喜欢的 移动App 或 其中某业务 参考 Asg_RH 文档格式 编写软件描述 文档要包含一个业务的完整过程 建模要求包括(用例图、XX业务或用例的活动图、XX领域模型、XX对象的状态图、XX场景的系统顺序图与操作协议) 选择:知乎app 1.用例图 2.活动图 3.领域模型 4.状态图 5.系统顺序图

    39140发布于 2019-05-25
  • 来自专栏后端技术

    系统设计与分析 作业8

    1. 描述软件架构与框架之间的区别与联系 区别 软件架构是一个抽象的概念,高于实际代码,是诞于设计阶段的系统蓝图,描述部件的功能、部件与部件之间的协作,从而大致地描述出系统完整的运作流程。它并不是实际系统代码的一部分。 而框架是一个具体的概念,是实际代码的一部分。框架是针对系统设计的一个“半成品”软件,使用特定的语言和技术描述了架构中各部件功能的具体实现。 联系 软件架构是框架的“蓝图”,是理论指导,对于框架的实现具有指导作用。框架则体现了架构的设计核心。 2. 以你的项目为案例 绘制三层架构模型图,细致到

    48620发布于 2019-05-25
  • 来自专栏HansBug's Lab

    作业】HansBug的前三次OO作业分析与小结

    OO课程目前已经进行了三次的作业,容我在本文中做一点微小的工作。 第一次作业 第一次作业由于难度不大,所以笔者程序实际上写的也比较随意一些。 (点击就送指导书~) 类图 程序的大致结构如下: 代码分析 可以看出,整体的功能还是相对零散的,耦合状况也基本还可以。 代码分析 可以看到,这一次的耦合状况较上一次有好转(没有出现红色字)。然而依然存在部分方法复杂度略高的情况(比如入口点函数,依然是红字状态)。看来,功能还需要进一步拆散。 第三次作业 第三次作业是第二次作业的升级版,采用了相对智能的电梯调度措施,然后需求细节一样较为繁琐。 然而实际上,第三次作业仍然有着一些的缺陷: 和第二次作业一样功能不够分散 由于需求分析花了非常多的时间,导致这次作业起步时间很晚,很多架构实际上并不是很好的设计(笔者写程序的时候自己就已经在这么觉得,然而时间紧迫还是选择了优先完成任务

    82960发布于 2018-04-11
  • 来自专栏芋道源码1024

    分布式作业 Elastic-Job-Lite 源码分析 —— 作业配置

    Lite作业配置( LiteJobConfiguration ):必填。 作业事件总线( JobEventBus ):对作业事件异步监听。选填。 每次作业执行时间和间隔时间均较长的情况,建议监控作业运行时状态,可保证数据不会重复选取。 monitorPort:作业监控端口。默认为 -1,不开启作业监控端口。选填。 作业自定义参数,可通过传递该参数为作业调度的业务方法传参,用于实现带参数的作业 例:每次获取的数据量、作业实例从数据库读取的主键等 failover:是否开启作业执行失效转移。 开启表示如果作业在一次作业执行中途宕机,允许将该次未完成的作业在另一作业节点上补偿执行。默认为 false。选填。在《Elastic-Job-Lite 源码解析 —— 作业失效转移 》详细分享。 或者 当前作业配置允许替换注册中心作业配置( overwrite = true )时,持久化作业配置。

    1.5K50发布于 2018-09-30
  • 来自专栏智能大数据分析

    数据仓库作业六:第9章 分类规则挖掘

    9章 分类规则挖掘 第一题 1、设网球俱乐部有打球与气候条件的历史统计数据如下表1所示。 X_9 X9​ 晴 低 小 无 根据样本数据, P_Y=\frac{9}{14},P_N=\frac{5}{14} ,因此: H(D)=-\left(\frac{9}{14}\log_2\frac{9}{14}+\frac{5}{14 }{9}\ ,\ \ p(x_4|C_1)=\frac{|S_{14}|}{|C_1|}=\frac{5}{9} 因此, \begin{aligned}p(X|C_1)=\frac{6}{9}×\frac {1}{9}×\frac{4}{9}×\frac{5}{9}\approx0.0183\end{aligned} (3)计算 p(X|C_2) 由公式 \begin{aligned}p(X|C_2)

    29600编辑于 2025-01-22
  • 来自专栏芋道源码1024

    分布式作业 Elastic-Job-Lite 源码分析 —— 作业分片

    作业分片条件 当作业满足分片条件时,不会立即进行作业分片分配,而是设置需要重新进行分片的标记,等到作业分片获取时,判断有该标记后执行作业分配。 LeaderService#isLeaderUntilBlock() 方法在《Elastic-Job-Lite 源码分析 —— 主节点选举》「3. 选举主节点」有详细分享。 作业是否在运行中需要 LiteJobConfiguration.monitorExecution = true,《Elastic-Job-Lite 源码分析 —— 作业执行》「4.6 执行普通触发的作业 《Elastic-Job-Lite 源码分析 —— 作业分片策略》有详细分享。 获取作业分片上下文集合 在《Elastic-Job-Lite 源码分析 —— 作业执行的》「4.2 获取当前作业服务器的分片上下文」中,我们可以看到作业执行器( AbstractElasticJobExecutor

    66420发布于 2018-12-07
  • 来自专栏芋道源码1024

    分布式作业 Elastic-Job-Lite 源码分析 —— 作业数据存储

    LeaderNode 9. FailoverNode 10. GuaranteeNode 666. 彩蛋 ---- 1. 概述 本文主要分享 Elastic-Job-Lite 作业数据存储。 在《Elastic-Job-Lite 源码分析 —— 作业分片》详细解析。 《Elastic-Job-Lite 源码分析 —— 作业执行》的「4.6」执行普通触发的作业已经详细解析。 作业失效转移 作业失效转移数据节点在 FailoverNode,放在「9」FailoverNode 解析。 《Elastic-Job-Lite 源码分析 —— 作业失效转移》详细解析。

    56620发布于 2018-10-26
  • 来自专栏全栈程序员必看

    作业2 分析TGA文件「建议收藏」

    文件尾(TGA File Footer):由扩展区域偏移量、开发者目录偏移量和TGA文件扩展格式签名三部分组成,用于验证TGA文件扩展格式,并可以确定扩展区域和开发者字典的位置 三、TGA图片分析 该图片为原图 ,jpg格式 1、文件头分析 (1)第一个字节00:文件中没有图像信息字段 (2)第二个字节00:没有颜色表 (3)第三个字节02:图像类型为未压缩的真彩图像 (4)第四字节到第六字节均为 十进制为798 与原始jpg图像格式相符合 (8)第十七字节为18,每个像素占用的位数为24位 (9)第十八字节为20:转换为二进制:00100000。

    97210编辑于 2022-07-25
领券