首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏SeanCheney的专栏

    Python数据科学分析速查表

    ---- 分享一组Python数据分析速查表(呆鸟翻译的)。

    70810发布于 2018-09-19
  • 来自专栏生信小驿站

    使用pandas构建简单直观的数据科学分析流程

    数据科学分析流程通常是一系列步骤:数据集必须经过清理、缩放和验证,然后才能准备好被强大的机器学习算法使用。当然,这些任务可以通过Pandas等包提供的许多函数/方法来完成,但更优雅的方法是使用管道。 在数据科学领域,具有管道特性的包的例子是R语言中的dplyr和Python中的Scikit learn。 我们将使用美国房价数据集。 假设机器学习团队和领域专家说,他们认为我们可以安全地忽略用于建模的平均面积房屋年龄数据。因此,我们将从数据集中删除此列。 在这里,我们应用Scikit学习包中的StandardScaler将数据标准化,转换后可以用于聚类或神经网络拟合。

    1.2K20发布于 2019-12-11
  • 来自专栏sktj

    Kubernetes(9:数据)

    作用是在Pod中共享数据 创建Pod,volumeMounts ? image.png emptyDir是Host上创建的临时目录,其优点是能够方便地为Pod中的容器提供共享存储,不需要额外的配置。

    41520发布于 2019-09-24
  • 来自专栏mysql

    hhdb数据库介绍(9-9)

    高可用服务读写分离计算节点支持读写分离功能,并且支持配置读写分离权重读写分离功能说明要使用读写分离功能,需在数据节点中配置主备存储节点。读写分离功能默认设置为关闭。 -- 不开启读写分离:0;可分离的读请求发往所有可用数据源:1;可分离的读请求发往可用备数据源:2;事务中发生写前的读请求发往可用备数据源:3--><property name="weightForSlaveRWSplit strategyForRWSplit参数为1时可设置主备存储节点的读比例,设置备存储节点读比例后<em>数据</em>节点下的所有备存储节点均分该比例的读任务。 strategyForRWSplit参数为2时<em>数据</em>节点上的所有可分离的读任务会自动均分至该<em>数据</em>节点下的所有备存储节点上,若无备存储节点则由主存储节点全部承担。 用户级别的读写分离可通过管理平台创建<em>数据</em>库用户页面添加用户或编辑用户开启用户级别的读写分离。

    23110编辑于 2024-11-29
  • 来自专栏技术集锦

    练习9数据计算

    题目 写一个简单的函数实现下面的功能:具有三个参数,完成对两个整型数据的加、减、乘、除四种操作,前两个为操作数,第三个参数为字符型的参数。 ; } 说明 注意switch-case语句中case处的数据类型,因为设定了变量c为char类型,所以需要使用 c = input.next().charAt(0) 语句接收用户键盘上的单个字符输入

    30720编辑于 2022-06-03
  • 来自专栏程序员的知识天地

    最简洁的Python时间序列可视化:数据科学分析价格趋势,预测价格,探索价格

    时间序列数据数据科学领域无处不在,在量化金融领域也十分常见,可以用于分析价格趋势,预测价格,探索价格行为等。 学会对时间序列数据进行可视化,能够帮助我们更加直观地探索时间序列数据,寻找其潜在的规律。 本文会利用Python中的matplotlib【1】库,并配合实例进行讲解。 【工具】Python 3 【数据】Tushare 【注】示例注重的是方法的讲解,请大家灵活掌握。 01 单个时间序列 首先,我们从tushare.pro获取指数日线行情数据,并查看数据类型。 04 多个时间序列 如果想要可视化多个时间序列数据,同样可以直接调用plot()方法。示例中我们从tushare.pro上面选取三只股票的日线行情数据进行分析。 调用.plot.area()方法可以生成时间序列数据的面积图,显示累计的总数。

    6.8K40发布于 2019-07-18
  • 来自专栏CSDN搜“看,未来”

    数据结构(9)-- 跳表

    文章目录 跳表 跳表的搜索 跳表的插入 抛硬币 跳表的删除 跳表的代码实现 跳表数据结构 初始化跳表 插入节点 删除节点 销毁跳表 为什么Redis要用跳表来实现有序集合? 跳表(skip list) 对应的是平衡树(AVL Tree),是一种 插入/删除/搜索 都是 O(log n) 的数据结构。它最大的优势是原理简单、容易实现、方便扩展、效率更高。 节点,发现17比其大,向后搜索,发现6后面的节点指向了Nil(第4层),那么搜索的层数降低1层, 从此节点的第3层开始搜索,发现下个节点是25,大于17,那么再降低一层,从2层开始搜索,发现第2层是9, 小于17,继续搜索,发现9节点的下一个数是17,搜索完成。 ---- 跳表的代码实现 跳表数据结构 如上图中的E节点,表示的是头节点,一般跳表的实现,最大有多少层(MAX_LEVEL)是确定的。所以e的个数是固定的。

    50830发布于 2021-09-18
  • 来自专栏全栈程序员必看

    Landsat 9 数据详细介绍

    目录 1.基本情况 2.Landsat9数据介绍 2.1 Landsat系列波段信息图谱 2.2 Landsat9基本信息 2.2.1 Quick Facts 2.2.2 LANDSAT9 波段信息 ,实际于于2021年9月27日发射,并已经开始采集第一批数据,2021年10月31日获取到遥感数据。 Landsat 9 的 OLI-2 和 TIRS-2 的 14 位数据将其增加到 16,384 个数据值。 然而,不同之处在于,Landsat 9 将下行链接 OLI-2 产生的所有 14 位数据,与从 Landsat 8 的 OLI 下行链接的 12 位数据相比,为其图像提供更大的位深度。 Landsat9数据目前成处于检查期,后期将于USGS网站免费共享。

    5.2K20编辑于 2022-09-15
  • 来自专栏机器学习/数据可视化

    数据平滑9大妙招

    今天给大家分享9大常见数据平滑方法:移动平均Moving Average指数平滑Exponential Smoothing低通滤波器多项式拟合贝塞尔曲线拟合局部加权散点平滑LoessKalman滤波小波变换 它对最近的数据点给予较高的权重,而对较早的数据点给予较低的权重。这使得EMA更适合用于追踪快速变化的数据。 指数平滑的主要特点包括:加权平滑:指数平滑使用指数权重来平滑数据。较新的数据点获得更高的权重,而较旧的数据点获得较低的权重。这意味着它对最近的数据更为敏感,从而更好地捕获了数据的最新趋势。 7, 8, 9])y = np.array([10, 8, 7, 6, 5, 4, 3, 2, 1])# 三阶多项式拟合degree = 3coefficients = np.polyfit(x, y 数据平滑:Savitzky-Golay滤波器旨在平滑数据,减小数据中的高频噪声和突发波动。它保留了数据中的趋势和主要特征,同时去除了噪声。

    6K44编辑于 2023-10-13
  • 来自专栏机器学习/数据可视化

    pandas系列9-数据规整

    层次化索引hierarchical indexing 数据分散在不同的文件或者数据库中 层次化索引在⼀个轴上拥有多个(两个以上)索引级别 低维度形式处理高维度数据 import numpy as np , 3, 3], [0, 1, 2, 0, 2, 0, 1, 1, 2]]) data['b'] 1 -0.731398 3 -0.707528 dtype: float64 # 部分索引选取数据子集 0.382131 2 -0.177199 d 2 -0.826364 3 -1.874992 dtype: float64 data.unstack() # 将层次化索引的数据变成 0.707528 c 1 -0.382131 2 -0.177199 d 2 -0.826364 3 -1.874992 dtype: float64 # 对于DF类型数据 pandas.merge:根据键将不同DF中的行连接起来,类似于数据库的join操作 pandas.concat:沿着轴将对象叠在一起 法combine_first可以将重复数据拼接在⼀起,⽤⼀个对象中的值填充另

    1K10发布于 2021-03-02
  • 来自专栏数据猿

    数据投融资周报(9月3日——99日 共14起)

    <数据猿导读> 上周大数据领域共发生14起投融资事件,其中包括6家中国企业、3家美国企业、1家以色列企业、2家英国企业、1家西班牙企业以及1家日本企业,涉及领域包括海洋大数据、人工智能、数据分析、车联网等多个领域 来源:数据猿 作者:abby 上周大数据领域共发生14起投融资事件,其中包括6家中国企业、3家美国企业、1家以色列企业、2家英国企业、1家西班牙企业以及1家日本企业,涉及领域包括海洋大数据、人工智能 、数据分析、车联网等多个领域。 更多【大数据投融资】热点,可加作者abby微信:wmh4178(请注明姓名、公司)进群交流 来源:数据

    55440发布于 2018-04-20
  • 来自专栏数据小魔方

    数据地图系列9|excel(VBA)数据地图!

    下面是VBA数据地图的详细制作步骤: 1、首先你需要一个纯色的矢量地图素材。 ? 这个问题早在数据地图的入门篇里已经解决了。 数据地图入门篇——素材获取! 3、输入数据: 关于作图的数据组织:这里需要三列数据,一列省份名称、一列指标值,一列颜色填充值(需要使用函数自动获取)。 ? 4、定义组距 ? 5、定义颜色填充范围 ? 将F9:G13单元格区域选中并定义名称为color_table ? 使用concatenate函数制作分段值范围。 将D9-D13区域的五个单元格分别命名为color1~color5。 然后将提前准备好的地图填充色复制进D9-D13单元格中。 7、在C4列中匹配B列指标值的颜色范围。(使用vlookup函数) ? 记得在地图做完之后一定要使用分档阀值区域作为图例引用在数据地图周围。选中D9:E13区域,点击照相机功能,然后在数据地图区域释放。 ? ? ? ?

    6.2K60发布于 2018-04-10
  • 来自专栏测试开发干货

    数据工厂平台9: 首页的数据关联

    本节课继续来搞定首页的这个统计图的具体数据关联。 这里我们先要去想,数据的来源,数据来源在哪?当然是以后的各个工具的使用次数了。那么这个使用次数我们记载到哪里呢? 所以我们决定,先把各种工具的使用次数放在一个专用的统计表中,这样我们首页去提取数据的速度会非常快,而且也便于之后这些统计数据另做他用等等。 我们先完成第一个箭头,在views.py中把数据数据库拿出来。 接下来是具体的数据了, 这种时刻我们需要细心的去研究这个第三方统计图的数据在哪生效的才能去想办法修改。 这里经过我的细心摸索,发现这个图预置的数据都放在这里: 没想到它会把数据写死在一个css文件,这是很出乎我意料的事情。

    54310编辑于 2022-05-19
  • 来自专栏数据科学(冷冻工厂)

    Python网络数据抓取(9):XPath

    因此,你可以自由地命名标签,而且 XML 现在通常用于在不同的网络服务之间传输数据,这是 XML 的一个主要应用场景。 如果用树状图来表示,我们可以看到:电影数据库是一个根标签,它下面可以挂载多部电影。每部电影作为一个节点,进一步包含了如标题、年份等信息。

    62610编辑于 2024-06-18
  • 来自专栏李维亮的博客

    PHPCMSV9数据结构

    _1 v9_comment_setting v9_comment_table v9_content_check 内容审核表 v9_copyfrom 来源表 v9_datacall 数据调用 v9_dbsource 数据源 v9_download v9_download_data v9_downservers 镜像服务器表 v9_favorite 用户收藏表 v9_formguide v9_formguide_fields v9_model_field 模型字段表 v9_module 模块表 v9_mood v9_news 文章主表 v9_news_data 文章从表 v9_page 单网页数据表 v9_pay_account 交易数据表 v9_pay_payment 支付模块表 v9_pay_spend 消费记录表 v9_picture 图片模型表 v9_picture_data 图片模型内容表 v9_position 推荐位表 v9_position_data 推荐位数据表 v9_poster 广告表 v9_poster_201010 v9_poster_space 广告位表 v9_queue 发布点同步队列 v9_release_point

    59720发布于 2021-07-09
  • 来自专栏后端技术

    Java(9):浅谈WebCollector的数据抓取

    前言 ---- 作为Java世界中小白的我(瑟瑟发抖的状态),在网络数据抓取这一块简直是一无所知.天无绝人之路,这时候我们老大向我推荐一个很好用的爬虫框架WebCollector,WebCollector WebCollector的特点 ---- 如果我们使用一个框架,那么我们最需要明白它的优势和缺点,这样我们才能更好的发挥它的作用.由于我对网络数据爬取这一块现在只了解到WebCollector框架,所以我就从网上找了一些关于 WebCollector与传统网络爬虫的区别 传统的网络爬虫倾向于整站下载,目的是将网站内容原样下载到本地,数据的最小单元是单个网页或文件。 一些程序员在单线程中通过迭代或递归的方法调用HttpClient和Jsoup进行数据采集,这样虽然也可以完成任务,但存在两个较大的问题: 单线程速度慢,多线程爬虫的速度远超单线程爬虫。 WebCollector能够处理的量级 WebCollector目前有单机版和Hadoop版(WebCollector-Hadoop),单机版能够处理千万级别的URL,对于大部分的精数据采集任务,这已经足够了

    1.6K30发布于 2019-05-25
  • 来自专栏信息技术智库

    9.MySQL数据查询SQL

    9.MySQL数据查询SQL 语法格式: select 字段列表|* from 表名 [where 搜索条件] [group by 分组字段 [having 分组条件]] [order by 排序字段  select count(*) from users; +----------+ | count(*) | +----------+ | 9 | +----------+ select count(id ) from users; +-----------+ | count(id) | +-----------+ | 9 | +-----------+ -- 上面的两个统计,分别使用了 count(*) 王五六 | 23 | 890 | NULL | NULL | NULL | +------+-----------+------+--------+-----------+------+------+ 9  rows in set (0.00 sec) -- 如果按照sex这一列进行统计,结果就是8个而不是9个,因为sex这一列中有NULL值存在 mysql> select count(sex) from 

    1.3K30编辑于 2022-07-29
  • 来自专栏互联网数据官iCDO

    Look-alike用户行为模拟建模背后的科学分析

    被吹嘘的Look-alike模型和基于行为特征的Look-alike 我之前曾在博客里为“大数据”大唱赞歌。我们曾经讨论过最优化算法和可以利用大数据来揭示的洞见。 唯一的改变是数据的体量和处理这些数据的速度。重要的是,不管你是在处理线性回归,神经网络学,或者什么完全不一样的东西,你都是在做同一件事情。 他们会设置一个数据阈值,比如说10%-15%的容差。他们中的一部分甚至会根据他们想要覆盖的用户数量凭空改变拟合。换句话说他们是在根据想要为你投放的广告数量来定义模型的。 ? 这个模型独立于数据深度就可以起效,我们关注单个的高提升度用户行为,而非试图在模型中找到具有全部特征的用户。 这个模型透明可见,不只是告诉你模型中的单个的行为组分,我们也为你提供工具方便你查阅。

    2.5K50发布于 2018-03-02
  • 来自专栏钱塘大数据

    【盘点】数据挖掘与数据建模的9条定律

    最简单的解释可以概括为“数据是困难的”,经常采用自动化减轻这个“问题”的数据获取、数据清理、数据转换等数据预处理各部分的工作量。 第一种方法是将数据转化为可以分析的完全格式化的数据,比如,大多数数据挖掘算法需要单一表格形式的数据,一个记录就是一个样例。 数据挖掘者都知道什么样的算法需要什么样的数据形式,因此可以将数据转化为一个合适的格式。 第二种方法是使得数据能够含有业务问题的更多的信息,例如,某些领域的一些数据挖掘问题,数据挖掘者可以通过业务知识和数据知识知道这些。 有五种因素说明试验对于寻找数据挖掘解决方案是必要的:   数据挖掘项目的业务目标定义了兴趣范围(定义域),数据挖掘目标反映了这一点;   与业务目标相关的数据及其相应的数据挖掘目标是在这个定义域上的数据挖掘过程产生的

    58470发布于 2018-03-02
  • 来自专栏莫浅子的学习笔记

    数据库-MySQL基础(9)-多表关系

    目录 概述 1、一对多 2、多对多 3、一对一 多表查询概述 多表查询分类 1、连接查询 2、子查询 ---- 概述 项目开发中,在进行数据库表结构关系设计时,会根据业务需求及业务模块之间的关系,分析设计表结构 杭州市第一小学','杭州市第一中学','杭州师范大学',3), (null,'本科','应用数学','阳泉第一小学','阳泉区第一中学','清华大学' ,4); ---- 多表查询概述 概述:指从多张表中查询数据  解决方案 select * from emp,dept where emp.dept_id = dept.id; ---- 多表查询分类 1、连接查询     内连接:相当于查询A、B交集的部分数据     外连接:左外连接:查询左表所有数据,以及俩张表交集部分的数据                    右外连接:查询右表所有数据,以及俩张表交集部分的数据    自连接:当前表与自身表的连接查询

    1.4K20编辑于 2022-11-18
领券