首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 远大数据个人风险报告技术实现全解析

    关键词:个人风险报告, 大数据风控, 技术实现, Python, Vue.js, 系统架构, API接口, 远大数据一、引言:从数据孤岛到综合风险画像在数字化风控时代,单一维度的信用数据已无法满足精准决策的需求 现代大数据风控平台致力于解决这一痛点,其核心的个人风险报告,通过整合海量、多维度的合规数据,为用户提供一站式的风险洞察服务。 本文将以一份典型的报告数据结构为蓝本,深入剖析其技术生命周期,看这类系统是如何实现其强大功能的。二、数据基石:合规API接口与模块化聚合一份专业个人风险报告的价值,在于其丰富的数据维度。 这些数据通过调用一系列稳定、合规的API数据接口聚合而成。 实现引流:在发布的版本中,可以将文中的泛指(如"某风控平台")替换为自己的品牌名(如"远大数据"),并将首次出现的品牌关键词制作成一个指向官网产品页的锚文本链接。

    99500编辑于 2025-06-21
  • 远大数据 - 企业风险报告(专业版)API接口文档

    int", "message": "string", "transaction_id": "string", // 流水号 "data": "string"}data 字段为加密的数据 解密过程:解密时,首先从 Base64 解码后的数据中提取前 16 字节作为 IV。然后使用提取的 IV,通过 AES-CBC 模式解密剩余部分的密文。解密后去除 PKCS7 填充,即可得到原始明文。 注销信息参数名类型说明URLstring关联内容STK_PAWN_DATEstring注销日期STK_PAWN_RESstring注销原因2.1.2.29 抽查检查参数名类型说明ISP_TYPEstring数据类型 :案件信息:每日更新失信记录:实时更新限高记录:实时更新风险评估:每日更新注意事项:部分案件信息可能因保密需要未被公开金额统计可能存在四舍五入的误差历史案件可能因数据迁移等原因缺失部分字段风险评估仅供参考 自身风险2: 周边风险3: 历史风险具体风险类型Type代码:1: 严重违法3: 失信被执行人(公司)5: 被执行人(公司)6: 行政处罚7: 经营异常8: 法律诉讼9: 股权出质(公司)10: 动产抵押11

    29710编辑于 2025-08-23
  • 来自专栏ytkah

    2018猫双11各项数据发布

    数据:双11当天,小米新零售全渠道支付金额创下52.51亿元新纪录。   双11已有10年时间,每年的冠军商家是谁?主力消费者、惊喜品类和创新业务是……?看下图~点击看大图 ? 无线互联网给双11带来了很多变化,峰值比去年来得更快,有意思的是,两点以后消费还非常活跃,有很多夜猫子,享受周末剁手党的快乐,下单,非常爽。今天早上的高峰来得有点晚,10点以后,才开始双11的一。 张勇:今天的双11,不仅是消费力量的体现,也是大的商业力量的体现。通过大数据,云计算平台,赋能商家,这也是我们“让天下没有难做的生意”愿景。 张勇:双11期间,国际品牌成交量超40%。 蚂蚁金服“双11”期间数据:生物技术让数亿人的支付时长缩短至1秒,今年双11生物支付占比达到60.3%。 相关阅读: 2018猫双11各类目品牌成交额top10排行榜 2018年猫双11交易额重要时刻表

    3.7K10发布于 2018-12-12
  • 来自专栏Python爬虫与数据挖掘

    猫双11数据过于完美?我们用python来看看

    11结束了,大家已经无手可剁 。 猫官方公布了今年的双11成交额为2684亿元,成功刷新了自己创下的商业纪录。按理说大家已经习惯了逐年增长,没想到 由于过于完美,引发网友提出质疑。 该微博在猫公布2019年销售额后,引发大量讨论,成功登上热搜。 一些人提出了相反意见:如大V@阑夕表示猫双11数据是精确地控制了交易额,从而形成了理想的曲线。 而猫相关负责人回应称,符合趋势就假?造谣要负法律责任。 我们且不评论是真是假,先想想我们能干点什么呢? 不如先照着这位微博网友的步骤来复现一遍吧。 先将猫2009年-2018年的双十一历年销售额历史数据导入到一张表里。 ? 点击插入一张散点图。 ? ? 左键点击一下任意一个散点数据,出现散点数据选择状态。 利用三次多项式预测的数据与公布的结果确实很相近。 我们继续搞事情。 将今年2019年的2684亿导入,预测一下后面三年: ? 按照网上的阴谋论,后面几年的数据应该如此。

    2.2K10发布于 2019-11-28
  • 来自专栏凹凸玩数据

    猫双11数据过于完美?我们用python来看看

    11结束了,大家已经无手可剁 。 猫官方公布了今年的双11成交额为2684亿元,成功刷新了自己创下的商业纪录。按理说大家已经习惯了逐年增长,没想到 由于过于完美,引发网友提出质疑。 ▼ ? 该微博在猫公布2019年销售额后,引发大量讨论,成功登上热搜。 一些人提出了相反意见:如大V@阑夕表示猫双11数据是精确地控制了交易额,从而形成了理想的曲线。 而猫相关负责人回应称,符合趋势就假?造谣要负法律责任。 我们且不评论是真是假,先想想我们能干点什么呢? 不如先照着这位微博网友的步骤来复现一遍吧。 先将猫2009年-2018年的双十一历年销售额历史数据导入到一张表里。 ? 点击插入一张散点图。 ? ? 左键点击一下任意一个散点数据,出现散点数据选择状态。 热衷于Python爬虫,数据分析,可视化,个人公众号《凹凸玩数据》,有趣的不像个技术号~

    2.1K20发布于 2019-11-28
  • 来自专栏猫头虎博客专区

    11:小程序的动态数据展示与实时更新

    [猫头虎分享21微信小程序基础入门教程] 第11:小程序的动态数据展示与实时更新 第11:小程序的动态数据展示与实时更新 自我介绍 大家好,我是猫头虎,一名全栈软件工程师。 动态数据展示 一、获取动态数据 小程序可以通过网络请求从服务器获取动态数据,并在页面上展示。 1. } }); 动态数据展示的优化 一、数据分页加载 为了提高性能,可以对数据进行分页加载。 ,从服务器获取数据并展示。 今日学习总结 概念 详细内容 动态数据展示 使用 wx.request 获取数据并展示 实时数据更新 使用 WebSocket 或定时轮询实现实时数据更新 分页加载 实现数据分页加载,提高性能和用户体验

    86200编辑于 2024-05-26
  • 来自专栏NowlNowl_AI

    机器学习第11:降维

    ,我们应该考虑别的方法 我们来看看被称为瑞士卷数据集的三维图 经过两种降维数据的处理,我们得到下面两幅二维数据可视化图 我们可以看到,左边的数据 有很多重合的点,它使用的是投影技术,而右图就像将数据集一层层展开一样 ,这就是流形学习 我们接下来介绍三种常见的具体实现这些的降维方法 一、PCA主成分分析 介绍 pca主成分分析是一种投影降维方法 PCA主成分分析的思想就是:识别最靠近数据的超平面,然后将数据投影到上面 适用于数据在原始空间中是线性可分的情况。 ,将数据映射到高维空间,使得在高维空间中更容易分离。 它对数据进行映射,使其更容易在高维空间中分离。gamma参数和coef0参数分别控制了核函数的尺度和偏置。

    36110编辑于 2024-01-18
  • 技术日志挑战——第11:0803

    该软件用于提高设计人员的生产力,改善设计质量,通过文档改善沟通,并为制造业创建一个数据库。通过CAD软件进行的设计在专利申请中有助于保护产品和发明。 一起使用,例如:①计算机辅助工程(Computer-Aided Engineering,CAE)及有限元分析②计算机辅助制造(CAM),包括对电脑数控机床(CNC)机器的指令③真实感绘制与运动仿真④使用产品数据管理 一个CAD系统可以被看作是通过一个图形用户界面(GUI)与NURBS几何或边界表示(B-rep)数据通过一个几何模型内核的交互建立起来的。

    30300编辑于 2024-08-03
  • 来自专栏小浩算法

    《剑指offer》第11:矩形覆盖

    我们可以用2*1的小矩形横着或者竖着去覆盖更大的矩形。请问用n个2*1的小矩形无重叠地覆盖一个2*n的大矩形,总共有多少种方法?

    56230发布于 2020-08-20
  • 来自专栏杨建荣的学习笔记

    10g,11g数据泵的导入问题及解决(19)

    今天在环境上测试expdp/impdp,环境有10.2.0.5.0,11.2.0.2.0的,11g的环境是从10g升级到11gde .是在impdp的时候都报了错误。 SYS_IMPORT_TABLE_01" successfully completed at 17:24:15 11g报错如下: > impdp temp_usg/temp_usg directory= Connected to: Oracle Database 11g Enterprise Edition Release 11.2.0.2.0 - 64bit Production With the Partitioning SYS_IMPORT_TABLE_01" successfully completed at 18:03:43 11g报错: Import: Release 11.2.0.2.0 - Production Connected to: Oracle Database 11g Enterprise Edition Release 11.2.0.2.0 - 64bit Production With the Partitioning

    1.2K40发布于 2018-03-13
  • 来自专栏布衣者博客

    LeetCode-算法-递归和回溯-第11

    或bits为2,3时,对应二进制就是'10','11',位数为2,则改变两个字母。

    58010发布于 2021-09-07
  • 来自专栏杨建荣的学习笔记

    数据11g升级中一次奇怪的问题 (30)

    客户的测试环境已经从10g升级到11g了。 但是没过几天,数据hang住了,登都登不了了,而且通过sys,system,普通用户连接的错误都不一样 首先通过 一下命令来查看变量和进程是否都正常 ps -ef|grep smon echo $ 因为那两个外部表是之前临时抽取数据用的,所以可以删掉了。 SQL> drop table TEST_TABLE_SOURCE_EXT; Table dropped.

    1.6K40发布于 2018-03-13
  • 来自专栏杨建荣的学习笔记

    物化视图实现的特殊数据复制(r11笔记第42)

    但是数据有一些问题。假设表中存在下面的字段,那么其中一个字段modify_date就是数据记录的修改时间戳。 ? 开发同学 有个疑惑,BI这边是今天取昨天的增量数据,假设今天取数据的时候出错了,过了几天我想修复历史数据,还能知道前天增加了哪些数据吗? goldengate也是使用主键吗 DBA: 这是两个问题,如果取数的时候出错了,按照目前的数据一致性,那么剩下没有应用到的数据是肯定不会应用到目标库的,所以数据层面的修复是平滑的。 开发同学: 就像现在这个数据,很多modify_date是空的,我们就很想知道2008年01月01日的增量数据 就是每一的增量,好实现吗? 那样得确认一点 比如1月1日 新增了100条数据 1月5日,新增了200条数据, 同是修改了1月1日的2条数据。 那这两条数据是算在1月1日还是算在1月5日。

    1K50发布于 2018-03-21
  • 来自专栏杨建荣的学习笔记

    数据库收缩数据文件的尝试(二)(r11笔记第10)

    详情可以参考 关于收缩数据文件的尝试(r5笔记第34) 而隔了很长一段时间后,我在线上一个环境碰到了类似的问题。 这个数据库是一个OLAP的业务库,之前的数据量还不小,大概有1.7T,但是经过业务梳理之后,有一部分业务不需要的数据就删除了,后续迁移了另外一个环境的数据过来。 这里就涉及一个数据文件的“高水位线”问题,大体来说,就是数据文件很大,但是里面的数据分布情况是不均匀的。很可能出现较大的断层,这样一来数据空间使用不充分,但是物理空间却无法轻易释放。 S 64K 38,304 26,206 12,098 USERS OLN L S 64K 204 11 大体来说数据文件的高水线县问题有三类。 在数据文件的起始位置附近。 ? 或者是中间的位置 在数据文件的中间出现较大的断层。 ? 或者是末尾附近的位置。 ?

    864110发布于 2018-03-21
  • 来自专栏杨建荣的学习笔记

    Oracle数据误操作全面恢复实战(r11笔记第78)

    对于DBA来说,面对误操作带来的数据恢复难度,其实很大。主要有以下几个方面: 误操作的影响范围极大,很可能不是删点,改点数据的操作,有时候可能是让人望而兴叹的truncate,drop操作。 数据恢复时需要确认数据损坏的时间点,依此来作为数据恢复的一个基准,该舍弃多少数据,该如何权衡,非常关键。 怎么实战呢,我有一次和同事说,数据恢复,备份策略的规划等,很多具体的场景可能有所不同,但是一主两备的核心业务,我小保证数据能够在一定范围内随时恢复,怎么验证备份恢复策略的有效性呢,我也不看你的方案和计划 数据恢复基本步骤 这个时候我们先从备库入手。 然后我们打开数据库。 SQL> alter database open read only; Database altered. 查看数据的情况就是最开始期望的了。

    89650发布于 2018-03-21
  • 来自专栏杨建荣的学习笔记

    数据库收缩数据文件的尝试(三)(r11笔记第22)

    不知道大家在数据库运维中是否会有这样的困扰,一个数据文件里没有多少数据,但是数据文件的大小却调不下来,尝试使用resize来调整屡屡失败。 本质上来说,Oracle也不希望我们去刻意处理这些物理存储方面的设置,比如设定某个表一定存放在某个数据文件里,一个表空间里存在10个数据文件,一条insert语句运行下去,到底数据进了哪个数据文件,应该不需要 如果我要做这样一个操作,表test的数据量不大在5万条,分布在6,7,8三个数据文件上,如果我们新建一个数据文件9,希望把这些数据都迁移到9号数据文件,而且希望保证高可用的情况下,是否可以实现? 完成之后就是提交commit 当然如果我们要求数据要放在指定的数据文件里,而不是根据数据的增长情况增量的放置,可以使用allocate的方式来处理,比如指定数据放入9号数据文件中。 相关链接: 数据库收缩数据文件的尝试(二)(r11笔记第10) 关于收缩数据文件的尝试(r5笔记第34)

    692120发布于 2018-03-21
  • 来自专栏杨建荣的学习笔记

    海量数据切分抽取的实践场景(r11笔记第43)

    如果一个大表要抽取数据导出成csv文件,我们有什么策略,如何改进。 一、问题背景 今天开发的同学找到我,他们需要做一个数据统计分析,需要我提供一些支持,把一个统计库中的大表数据导出成文本提供给他们。 2)如何规范化,标准化的抽取数据。 二、大表如何切分 大表的切分一直以来是数据迁移中的重头戏,我在以前的时间积累中也为此困扰。 一个表如果不是分区表,存在1000万的数据,如果我们希望以数据条数为基准进行切分,能否实现。 比如1000万数据的表,100万为单位,那就生成10个csv文件,每个文件包含100万数据。 三、如何规范化导出海量数据

    91260发布于 2018-03-21
  • 来自专栏杨建荣的学习笔记

    MySQL级联复制中的数据同步(r11笔记第20)

    最近开发的同事反馈了一个问题,说有一台北京节点的MySQL数据数据延迟太大,想让我们帮忙看看怎么解决。 这么做的目的也是为了能够方便数据查询和统计任务,看起来虽好,但是老是有一些不可控因素。 北美使用AWS在北美,都是实时的业务数据,考虑了灾备和读写分离使用了一主一从的架构,新加坡节点2是一个中继节点,也使用了AWS,可以看到新加坡节点是北美节点的从库,但是北京的主库。 所以改进后的架构如下: 但是这里就面临一个问题,怎么去无缝的把节点的数据顺利切换过去。 但是当前的环境是5.5版本,很遗憾使用不了,那么一种折中的办法就是停止新加坡的节点,然后让北京节点去追平数据,然后以这个为基准,让北京节点继续从北美的slave节点继续抓取增量的数据变化。

    98980发布于 2018-03-21
  • 来自专栏小龙学编程

    每天5道Java面试题(第11)

    如果是2的话,新容量刚刚好永远大于过去所有废弃的数组容量。 扩容容量不能太小,防止频繁扩容,频繁申请内存空间,数组频繁复制 扩容容量不能太大,需要充分利用空间,避免浪费过多空间。

    16120编辑于 2023-11-15
  • 来自专栏机器学习与统计学

    100搞定机器学习|Day11 实现KNN

    前情回顾 机器学习100|Day1数据预处理 100搞定机器学习|Day2简单线性回归分析 100搞定机器学习|Day3多元线性回归 100搞定机器学习|Day4-6 逻辑回归 100搞定机器学习 |Day7 K-NN 100搞定机器学习|Day8 逻辑回归的数学原理 100搞定机器学习|Day9-12 支持向量机 Day7,我们学习了K最近邻算法(k-NN),了解了其定义,如何工作, Day11,通过一个案例实现该算法。 第一步:导入相关库 import numpy as np import matplotlib.pyplot as plt import pandas as pd 第二步:导入数据集 dataset = = StandardScaler() X_train = sc.fit_transform(X_train) X_test = sc.transform(X_test) 第五步:使用K-NN对训练集数据进行训练

    49720发布于 2019-04-23
领券