首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏陈黎栋的专栏啦

    图数据·业务总结·反欺诈

    通过融合企业和个人银行资金交易明细、通话、出行、住宿、工商、税务等信息构建初步的“资金账户-人-公司”关联知识图谱。同时从案件描述、笔录等非结构化文本中抽取人(受害人、嫌疑人、报案人)、事、物、组织、卡号、时间、地点等信息,链接并补充到原有的知识图谱中形成一个完整的证据链。辅助公安刑侦、经侦、银行进行案件线索侦查和挖掘同伙。比如银行和公安经侦监控资金账户,当有一段时间内有大量资金流动并集中到某个账户的时候很可能是非法集资,系统触发预警(图7)

    1.6K30发布于 2020-02-18
  • 来自专栏信息化漫谈

    如果数据down,业务多久恢复?

    数据是整个系统的核心,如果主用数据中断或故障,你的业务什么时间内能恢复? 一、数据是否必须做冗余? 墨菲定律,鸡蛋不能放在同一个篮子中。 数据是最重要的资产,出现单点故障确实不可避免,我们应提前做到数据备份,出现故障时能够快速恢复。 ? 对于4级的重要业务,至少每天全量+增量备份,RPO/RTO从小时到天级别。 对于5的关键业务,要求数据丢失不能超过30分钟,即RPO小于等于30分钟。并能够在分钟级别恢复业务,即RTO分钟级。 2、数据快速恢复解决方案(应尽量缩短RTO时间,也就是数据恢复的时间量) 原理:当主用数据中断时,能够通过快速切换数据,将业务切换到正常工作的数据上。 也可以采用第三方工具,如Zookeeper,通过检测数据的状态,当异常时向应用程序返回正常工作的数据IP地址。 3、大家一定会问第6级的业务如何恢复,仅靠标准公有云难以满足。

    1.1K20发布于 2019-09-24
  • 来自专栏杨建荣的学习笔记

    通过数据建模梳理数据业务

    以这个为出发点,我觉得很多DBA对于自己负责的数据业务其实是不了解的,比如这个数据数据量情况,数据变化情况,对象(表,索引)的分布情况,整体的SQL质量情况等,或者更高的一个要求,我们负责了100套数据业务 ,这些数据半天内产生了多少数据量,什么时候会是业务的高峰,什么时候相对会比较平稳,这些是我们应该了解的,但是显然这是我们忽视的。 所以通过这些数据可以得出一个初步的结论,这个数据是一个典型的TP业务,数据变更很频繁,算是一个偏TP层面的业务。 ? 再来看一个数据,这个数据的数据量不大,从两次的时间采集的数据来看,日志没有切换,更关键的,偏移量没有发生任何变化,所以通过这个层面来看,这很可能是一个僵尸业务,可以持续关注。 ? 再来看一个业务,这个数据的数据量比较大,有60多G,日志切换切换很频繁,数据量的增长相对较快,所以这很可能是一个密集型写入的日志业务。 ? 通过这些数据分析,就会得到一些有效的数据模型。

    87930发布于 2018-12-18
  • 来自专栏跟着asong学Golang

    Go业务开发中常用的几个开源

    最近总有一些初学Go语言的小伙伴问我在业务开发中一般都使用什么web框架、开源中间件;所以我总结了我在日常开发中使用到的,这些不一定是特别完美的,但是基本可以解决日常工作需求,接下来我们就来看一下。 大多数日志基本都是基于反射的序列化和字符串格式化的,这样会导致在日志上占用大量CPU资源,不适用于业务开发场景,业务对性能敏感还是挺高的。 github地址:https://github.com/uber-go/zap jsoniter 做业务开发离不开json的序列化与反序列化,标准虽然提供了encoding/json,但是它主要是通过反射来实现的 ants也是国人开发的,设计博文写的也很详细的,目前很多大厂也都在使用ants,经历过线上业务检验的,所以可以放心使用。 总结 本文列举的几个都是经常被使用的开源,这几个你都掌握了,基本的业务开发都没有啥问题了,一些初学者完全可以通过这几个达到入门水平。

    1.1K20编辑于 2022-07-11
  • 为什么跨数据业务总是慢?

    说说跨用过Oracle和DB2这样的数据的朋友应该听过一次名词,叫DBLink。A的本地表和通过DBLink的B的进行关联,效果通常不太好(反正比本地查询慢,应该都有这个感觉。 (总数1万条)同根据A表逐条提交更新B表 完成耗时: 11217 ms同根据A表逐条提交更新B表 平均每条耗时: 22.43ms同根据A表批量提交更新B表 完成耗时: 669 ms同根据A表批量提交更新 这是数据本身刷脏机制决定的。批量就是比逐条提交快。那么跨数据呢?在一个数据上有A在另外一个数据上有B两个表根据A表的数据更新B表。以500条为测试样本。 (总数1万条)跨根据A表逐条提交更新C表 完成耗时: 18970 ms跨根据A表逐条提交更新C表 平均每条耗时: 37.94 ms跨根据A表批量提交更新C表 完成耗时: 9149 ms跨根据A表批量提交更新 如果车票的表和支付的表(或者说账户的表)不是一个数据。那么就是要从一个数据查到了,通过接口或者服务去另外一个数据更新。

    16410编辑于 2025-10-22
  • 来自专栏云计算linux

    电子书城数据分析业务

    数据设计说明 1. t_user 用户表 表名列名 数据类型(精度范围) 空/非空 约束条件 其他说明 id int 非空 种子,自增1 用户唯一标识 name Varchar(20) 非空 帐号

    24710编辑于 2024-12-19
  • 通过 YashanDB 数据提升业务决策能力

    要通过 YashanDB 数据提升业务决策能力,首先需要理解数据如何在数据存储、分析和提取过程中支持决策。以下是一些具体的方法:1. 数据整合与集中化YashanDB能够有效整合多种数据源。 通过将各类业务数据(如销售数据、客户数据、财务数据等)统一存储在一个平台上,能够提供一个全面的视角,帮助决策者更好地理解各个部门和业务的现状。 通过高效的查询语言和分析工具,业务分析师可以快速对数据进行切割和处理,从而更好地理解市场趋势、客户行为和产品表现等关键业务领域。 优化运营和流程通过对运营数据的分析,能够识别出业务流程中的瓶颈或不必要的步骤,从而优化业务流程和提高效率。例如,通过数据分析发现生产过程中的延迟问题,可以采取措施加以改善。 - 提高效率:实时追踪和调整业务流程,确保每一环节的顺畅进行。总结通过YashanDB数据,企业可以获得更高效、更精准的数据处理与分析能力,进而做出更为科学、数据驱动的决策。

    15810编辑于 2025-10-05
  • 来自专栏大数据,java,Python和前端

    Maxwell采集MySQL Binlog业务数据同步方案

    简介: 针对业务MySQL Binlog日志数据进行数据同步,从MySQL到Kafka,最终实现实时(准实时)数据采集。 产品目标完成实时数据采集,拉取业务数据数据。 建立maxwell表,存储捕获到的schema等信息。 值可以为具体的数据、数据表、数据列,甚至可以用JS来定义复杂的过滤规则,也可以用正则表达式描述。如:# 仅匹配foodb数据的tbl表和所有table_数字的表。 /table_\d+/’# 排除所有所有表,仅匹配db1数据--filter=’exclude:.

    63910编辑于 2025-07-21
  • 来自专栏韩曙亮的移动开发专栏

    【Android 逆向】Android 进程注入工具开发 ( 远程进程注入动态文件操作 | 注入动态 加载 业务动态 | 业务动态启动 | pthread_create 线程开发 )

    文章目录 前言 一、加载 libnattive.so 动态 二、 libnattive.so 动态启动 三、 pthread_create 线程开发 四、 线程执行函数 前言 libbridge.so 动态是 注入工具 使用 ptrace 函数强行向远程进程 注入的 动态 , 这种方法侵入性极大 , 会破坏远程进程的运行环境 , 因此该动态越简洁越好 ; 注入动态 就执行一个操作 , 就是加载 包含真正的逆向业务逻辑的 libnattive.so 动态 , 然后启动该动态即可 , 执行完毕后 , 马上在远程进程中销毁注入的 libbridge.so 动态 ; 一、加载 libnattive.so 动态 ---- 通过 注入工具 , 将 libbridge.so 注入到远程进程 后 , 远程进程中 , 会 为 libbridge.so 动态分配一块内存 , 并将其运行起来 ; libbridge.so 动态的主要操作是 加载 libnattive.so 动态 , 并执行该动态的 invoke 方法 ; libbridge.so 动态对应的 bridge.c 源码如下 : #include <

    1.3K20编辑于 2023-03-29
  • 如何高效部署YashanDB数据实现业务优化

    现代业务系统对数据的性能和稳定性提出了严格要求,但在实际应用中,系统往往面临性能瓶颈、数据一致性维护复杂以及扩展能力不足等挑战。 本文将基于YashanDB体系架构,深入解析其核心技术及部署优化方法,帮助开发人员和数据管理员提升业务性能和系统可用性。 主备复制和故障切换主备复制通过redo日志传输实现主库与备数据同步,支持同步与异步复制模式。支持Switchover计划内切换和Failover故障切换,确保业务连续性。 通过合理利用存储结构、多版本并发控制、分布式并行执行及高可用复制机制,用户可有效提升数据性能与稳定性。 建议数据开发和运维团队深入理解并实践本文方法,在项目环境中实施索引设计优化、合理调整并行度及存储参数,并结合高可用架构保障业务持续性,实现系统的整体业务优化。

    20710编辑于 2025-10-02
  • YashanDB面向业务的数据性能优化策略

    如何优化数据查询速度是提升业务系统响应能力和用户体验的关键问题。高效的查询不仅降低系统资源消耗,还能支撑复杂业务逻辑的实时处理。 YashanDB作为面向多种业务场景设计的数据系统,通过多层面技术架构和丰富的优化机制,为业务提供稳定且高性能的数据处理能力。 不同部署架构结合业务特点和资源条件,合理挑选适配架构,成为数据性能优化的基础。 根据业务需求选择同步或异步复制,平衡业务性能和数据一致性。备份策略:支持全备份及分级增量备份,建议结合业务低峰期进行备份,减少对在线性能影响。 建议数据管理员和开发人员深入理解YashanDB核心技术原理,基于业务特点灵活应用上述优化策略,持续监控并调优数据参数与执行计划,以实现数据性能的持续提升和业务价值最大化。

    27810编辑于 2025-08-20
  • 利用YashanDB数据支持大规模业务负载

    在当今数字化时代,企业面临着海量数据的快速增长和复杂分析需求,这推动了数据技术的不断发展与演进。高性能、高可用性以及充分的扩展性是支撑大规模业务负载的关键要求。 YashanDB作为一个新一代数据系统,凭借其多种部署架构、多样化的存储模式和先进的事务管理功能,提供了灵活而强大的支持,适合各种业务场景,为企业构建大规模应用提供了理想的基础。核心技术点分析1. 不同类型的存储结构各有特点,适用于不同的业务需求:- HEAP存储结构提供快速的随机写入性能,适合OLTP场景。- BTREE索引(数据默认的索引类型)能加速数据访问,适合需要高效检索的场景。 设定合理的高可用性方案,通过主备部署或云备份确保业务的连续性。6. 定期进行备份策略评估,保障数据能够随时恢复,防止意外数据丢失风险。结论在大规模业务负载的环境中,选择合适的数据解决方案至关重要。 开发者和运维人员应当合理运用YashanDB的各项功能与优势,来构建满足业务需求的高可用、高性能的数据环境。通过合理的设计和管理,可以确保在严峻的业务负载下,系统依旧保持稳定和高效的运行状态。

    21310编辑于 2025-08-15
  • 来自专栏idba

    电商交易订单业务数据设计演进

    我们通常使用的分表规则是选取业务表的某一列作为分表键进行哈希打散到各个数据中。基于前面的业务访问情况,我们可以选择的分表键键有买家id,卖家id,订单号。 比如 交易数据计划分128个, 分2048张分表。 基于买家 id 对于买家id buy_id 取模 比如 buy_id%2048%128 ,先分表,然后再落到不同的分库里面。 最优解 基于 MySQL 架构,上面三种场景无法再同一套中完成,需要创建2个数据: 买家和卖家,数据相同,但是查询纬度不一样。 所有的业务数据只在买家端写入,买家订单信息和商家修改订单以订单维度写入买家。然后通过 DTS 等CDC 工具同步 买家的binlog 到卖家。 (也可以由分片规则指定1024 在订单号中具体的位置) 总结 虽然说本文是说的订单数据设计,但是也适用于其他业务场景,从小业务量到海量数据的数据演进。

    1.1K10编辑于 2024-02-23
  • 如何使用YashanDB数据优化业务流程?

    使用 YashanDB 数据优化业务流程,可以通过以下几个步骤进行:1. 数据建模优化:- 设计合理的数据结构:根据业务需求设计合适的表结构和关系,确保数据的规范化和有效的索引使用,以提升查询效率。 缓存机制:- 使用缓存:结合 YashanDB 的缓存机制,减轻数据负担,提高数据读取速度。例如,可以使用 Redis 等内存数据进行热点数据的缓存。4. 异步处理:- 任务异步化:对于耗时的操作,可以考虑使用异步处理方式,减轻数据的实时压力,提高系统的响应能力。6. 定期维护:- 数据清理与归档:定期清理不再需要的数据,归档历史数据,以减轻数据负担。- 分析性能日志:定期分析数据的性能日志,识别性能瓶颈并进行优化。 通过以上方法,可以在 YashanDB 数据中实现更高效的业务流程,提升系统的整体性能和用户体验。

    13410编辑于 2025-11-14
  • 来自专栏NebulaGraph 技术文章

    OPPO 图数据平台建设及业务落地

    [OPPO 图数据平台建设及业务落地] 1、什么是图数据 图数据(Graph database)是以图这种数据结构存储和查询的数据。与其他数据不同,关系在图数据中占首要地位。 2、图数据调研 2.1、调研背景 随着知识图谱等业务数据的不断增长,现有图数据 JanusGraph 应对已经比较吃力,导入时间已经无法满足业务的要求。 为了不让上层业务感知机房切换,在图数据上层做了查询工程(图检索),业务直接调用查询工程的服务,查询工程会根据集群状态选择合适的图数据集群查询。 另外,为了向上层业务屏蔽底层图数据变更和版本升级,查询工程会管理所有业务的查询语句。遇到图数据因为版本升级出现查询语句不兼容的时候,只需要在查询工程中将图查询语言进行调整就好,避免波及上层业务。 5.4、服务架构拓扑 [OPPO 图数据平台建设及业务落地] 在服务资源管理中,业务资源会分为多个层级,每个层级下面有对应的服务器、服务和管理人员,如果使用关系数据来处理,当需要展示多级资源的时候,

    1.2K30发布于 2021-11-15
  • 如何使用YashanDB数据提升业务决策效率

    在当今数据驱动的商业环境中,提升业务决策的效率成为企业竞争力的关键。传统数据系统在面对大规模数据处理时,常常遭遇性能瓶颈、数据一致性难以保障以及高可用性不足等问题。 本文将从技术角度深入分析YashanDB数据的核心技术及其优势,帮助开发人员和DBA优化数据架构,提升业务决策效率。 单机部署通过主备复制实现主库与备之间的数据同步,保证高可用性的同时简化运维,适合大多数中小规模业务应用。 高可用机制保障业务连续性YashanDB的主备复制机制通过异步和同步复制模式支持不同业务对数据可用性和保护的要求。主库通过日志传输向备实时同步Redo日志,实现数据备份和快速恢复。 结论随着企业数据规模的不断增长与业务复杂度的提升,数据系统的性能和可用性成为推动业务决策效率的核心支撑。

    20310编辑于 2025-10-04
  • 企业如何利用YashanDB数据提升业务决策

    在众多数据解决方案中,YashanDB凭借其高效的查询性能和灵活的部署架构为企业提供了一种可行的选择。 这不仅提高了系统的响应性能,也保证了业务数据的准确性和完整性。 总结与建议为充分发挥YashanDB数据业务决策中的作用,企业可以考虑以下具体建议:选择适合的数据存储结构,以提升数据查询与分析性能。根据企业规模与实际需求合理选择YashanDB的部署架构。 封装复杂业务逻辑于存储过程和触发器中,以减少交互成本。配置适当的访问控制与数据加密策略,保障数据安全。 结论YashanDB数据的灵活性和高效性能为企业提供了强有力的数据支撑,有助于提升决策的准确性和时效性。企业应充分利用所学知识,将YashanDB的各项功能应用于实际项目,推动业务发展。

    13510编辑于 2025-09-13
  • 来自专栏信息化漫谈

    数据索引对业务速度影响有多大?

    某采用云数据的网站用户反映业务访问速度很慢,查询一条数据的数据时间很长,怀疑是云数据的性能问题,为此引出了今天的讨论课题。 二、数据索引的好处 1、大大加快数据的查询数据,这是最主要的原因。 2、在使用group分组或desc排序子句进行数据查询时,显著减少时间。 三、数据索引的不利 1、占用磁盘空间。 如下图,为100W的数据创建单列索引,用时12秒。 ? 四、数据索引的设计原则 1、索引并非越多越好。每增加一个索引列,就多占用磁盘,并影响insert、update语句性能。 rows: 1 filtered: 100.00 Extra: NULL 1 row in set, 1 warning (0.00 sec) 六、小结 服务商提供云业务后 ,与用户的故障边界越来越模糊,对于paas类产品更是如此,掌握一些必要的技能将更有信心与客户进行能落地的业务交流。

    3.1K20发布于 2019-11-28
  • 如何通过YashanDB数据提升业务决策能力?

    在现代企业运营中,快速准确的数据分析对业务决策至关重要。面对日益增长的数据量和复杂的数据结构,如何优化数据的查询速度和数据处理能力,成为提升业务决策效率的关键问题。 主备复制提供同步和异步两种数据同步模式,满足不同业务对数据安全和性能的需求。自动选主和故障切换机制的实现,保证数据集群的高可用性,确保业务持续稳定运行。 完整的备份恢复功能支持全备份、增量备份及归档备份,为业务恢复提供多重保障。 利用PL引擎实现业务逻辑内聚:将复杂的业务逻辑封装成存储过程或函数,减少客户端与数据的交互次数,提高执行效率及业务响应速度。 结论随着业务数据规模的持续增长和分析需求的不断深化,数据技术对业务决策能力的影响愈加显著。

    20610编辑于 2025-11-14
  • 【YashanDB 数据】Yashandb 表闪回业务表实践

    --将需要的数据整合到业务表中 create table sales.branches_bak as select * from sales.branches1_1403;insert into sales.branches_bak

    16400编辑于 2025-02-21
领券