首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Hank’s Blog

    2-2 R语言基础 向量

    vector("character",length=10) > x1 <- 1:4 > x2 <- c(1,2,3,4) > x3 <- c(TRUE,10,"a") #如果给向量赋值时元素类型不一致,R就会强制转换

    73010发布于 2020-09-16
  • 来自专栏AI机器学习与深度学习算法

    学习分类 2-2 内积

    对于分类问题,我们不再像回归问题那样,找出直线的斜率和截距。为了方便理解,将拥有一个特征的回归问题所绘制的图示和拥有两个特征的分类问题绘制的图示进行对比。

    54410编辑于 2022-11-08
  • 来自专栏IT技术圈

    习题2-2 阶梯电价 (15分)

    为了提倡居民节约用电,某省电力公司执行“阶梯电价”,安装一户一表的居民用户电价分为两个“阶梯”:月用电量50千瓦时(含50千瓦时)以内的,电价为0.53元/千瓦时;超过50千瓦时的,超出部分的用电量,电价上调0.05元/千瓦时。请编写程序计算电费。

    3.2K10发布于 2021-04-01
  • 来自专栏python3

    Python-爬虫03:urllib.r

    浏览器 就是互联网世界上公认被允许的身份,如果我们希望我们的爬虫程序更像一个真实用户,那我们第一步就是需要伪装成一个被浏览器。

    85120发布于 2020-01-19
  • 来自专栏机器学习养成记

    R语言爬虫与文本分析

    之前用python做过简单的爬虫与分析,今天尝试一下用R完成相应的功能。首先用R爬取了《了不起的麦瑟尔夫人》豆瓣短评作为语料,然后进行了词云绘制、关键词提取的基本操作。 代码实现 R语言中,有两种进行数据获取的方式。一种是RCurl包+XML包,过程与python中的urllib与bs4相似,先读取网页代码再对html代码进行解析。 用wordcloud2绘制词云的方法在十九大讲话文本分析(R语言)中也有介绍,本次我们用自定义图片的方式设置词云形状,即设置figPath参数,注意,图片需要存放在wordcloud2中默认的文件夹下,

    2.3K140发布于 2018-04-10
  • 来自专栏coding for love

    2-2 什么是模块打包工具

    关于模块和模块化,百度百科有一段引用自《Java应用架构设计:模块化模式与OSGi》一书的解释非常好:

    93300发布于 2019-04-18
  • 来自专栏波波烤鸭

    2-2 SPU和SKU详解及MyBatisPlus自动生成

    2-2 SPU和SKU详解   商城系统中的商品信息肯定避免不了SPU和SKU这两个概念,本节就给大家详细介绍下这块的内容 1、掌握SKU和SPU关系 SPU = Standard Product Unit

    3K41发布于 2021-01-21
  • 来自专栏机器学习AI算法工程

    python爬虫+R数据可视化 实例

    Python 和 r语言这对黄金搭档,在数据获取,分析和可视化展示方面,各具特色,相互配合,当之无愧成为数据分析领域的两把利剑。 该项目分为两个模块: 1,数据准备阶段 采用python网络爬虫,实现所需数据的抓取; 2,数据处理和数据可视化,采用r语言作为分析工具并作可视化展示。 login_url = post_url 以下即可采用正则表达式,提取 今日发帖数,会员人数,在线人数 代码如下: #正则获取列表页 user_num,topic_num,online_num 这种广度搜索爬虫都会涉及到需要补全链接的坑 第二,数据处理和数据可视化 主要采用r语言读取数据,进行频数统计和图表展示 简单贴几段代码: 读取剪切板数据 并采用table()函数求频数 data3<-read.table("clipboard r语言版 ?

    1.9K40发布于 2018-03-14
  • 来自专栏mysql

    hhdb数据库介绍(2-2)

    HHDB Server在计算节点、数据节点、配置库等层次提供全面的高可用保障。提供完善的心跳检测、故障切换对存储节点同步追平判断、全局自增序列在故障时自动跳号、客户端连接Hold等机制,保障数据服务的可用性与数据的一致性。

    17210编辑于 2024-11-28
  • 来自专栏深度学习之tensorflow实战篇

    网页爬虫-R语言实现基本函数

    #*************网页爬虫-R语言实现,函数库文件*******# #****作者:H***************************************# #****版本:v0.1

    80140发布于 2019-02-14
  • 来自专栏菜鸟学数据分析之R语言

    R语言】文本挖掘| 网页爬虫新闻内容

    图4 网页爬虫结果

    2K10发布于 2021-01-28
  • 来自专栏深度学习之tensorflow实战篇

    网页爬虫-R语言实现基本函数

    #*************网页爬虫-R语言实现,函数库文件*******# #****作者:H***************************************# #****版本:v0.1

    94970发布于 2018-03-16
  • 来自专栏刷题笔记

    2-2 学生成绩链表处理 (20 分)

    本文链接:https://blog.csdn.net/shiliang97/article/details/101169860 2-2 学生成绩链表处理 (20 分) 本题要求实现两个函数,一个将输入的学生成绩组织成单向链表

    1.6K20发布于 2019-11-08
  • 来自专栏小徐学爬虫

    告别低效:构建健壮R爬虫的工程思维

    这些教训让我明白,熟练不等于精通,R爬虫的艺术不在于写出能跑的代码,而在于构建健壮、高效且礼貌的工程。今天,我想分享这些用教训换来的经验,希望你无需重蹈我的覆辙。 R语言爬虫老手,尤其是在从其他语言(如Python)转过来,或者习惯了小规模、一次性脚本的数据分析师,常常会陷入一些特定的思维定式和误区。这些误区会导致代码脆弱、效率低下,甚至引发法律风险。 以下是一些R语言爬虫老手都会犯的误区及其详细的解决方案:误区一:过度依赖 rvest + SelectorGadget 的“万能”组合表现: 认为所有网站都可以用 rvest::html_nodes() 根源: 低估了反爬虫机制的敏感性。默认的R User-Agent(例如 libcurl/... 或 r-curl/...)非常显眼。解决方案:模拟真实浏览器: 总是设置合理的HTTP请求头。 回顾这些坎坷,我的核心领悟是:强大的R爬虫绝非一堆函数调用,而是一个精心设计的系统。它需要我用侦探的眼光去发现隐藏API,用工程师的思维去处理错误与重试,用外交官的姿态去管理会话与延迟。

    22510编辑于 2025-09-08
  • 来自专栏R语言交流中心

    R语言网络爬虫之Pubmed API的使用

    今天我来给大家介绍一下Pubmed API是如何在R语言中运用自如的。 1. 我们需要安装R语言实现网络爬虫的两个关键包: XML,RCurl。 安装R包大家都熟悉了: install.packages('XML'); install.packages('RCurl'); 或者你如果觉得写代码麻烦,你也可以通过R语言菜单实现: ? 2. R包安装成功后,在进行网络爬虫时需要加载这两个包:XML,RCurl。 R代码: library(XML) library(RCurl) 完成R包的加载。 3. R语言调用Pubmed API代码实例(获取基因SI和cancer相关的文献): path='https://eutils.ncbi.nlm.nih.gov/entrez/eutils/esearch.fcgi

    7K40发布于 2019-07-31
  • 来自专栏机器学习AI算法工程

    R语言爬虫初尝试-基于RVEST包学习

    在学完coursera的getting and Cleaning data后,继续学习用R爬虫网络爬虫。主要用的还是Hadley Wickham开发的rvest包。 再次给这位矜矜业业开发各种好用的R包的大神奉上膝盖。。。 言归正传,拿了几个网页练手。 包括对拉勾网爬了一下虫,还尝试了对国外某黄页爬虫,对ebay用户评价爬虫分析其卖家卖的东西主要在哪个价格段(我查的那个卖家,卖8.99和39.99最多,鞋子类),做了一下文本挖掘,还有爬了一下股票数据, 不过这个研究让我深刻体会到了爬虫的有效性!好玩!实用! 受张丹老师的两条均线与R语言)鼓舞好大!我觉得学R嘛,用到实处才是重要的!玩爬虫玩的太开心都没跟JHU的课了。。。。 以后可以尝试按照自己和老爸的看股票习惯开发出类似的选股模型来~~

    1.9K30发布于 2018-03-12
  • 来自专栏小徐学爬虫

    R语言初学者爬虫简单模板

    习惯使用python做爬虫的,反过来使用R语言可能有点不太习惯,正常来说R语言好不好学完全取决于你的学习背景以及任务复杂情况。 对于入门学者来说,R语言使用rvest+httr组合,几行代码就能完成简单爬取(比Python的Scrapy简单得多),R语言数据处理优势明显,爬取后可直接用dplyr/tidyr清洗,小打小闹用R语言完全没问题 以下是一个适合初学者的R语言爬虫通用模板,使用rvest和httr包实现。 (Windows NT 10.0; Win64; x64; rv:107.0) Gecko/20100101 Firefox/107.0")​# ======================# 核心爬虫函数 ,常见的还是python爬虫,因为起特性可能经常遇到一些问题,例如:乱码问题、动态内容、登录验证、分页爬取,分别总结了对应的处理方法,如有更多问题可以留言咨询我。

    26610编辑于 2025-07-03
  • 来自专栏python3

    Python自动化开发学习2-2

    open()打开文件。windows系统默认的是gbk编码,如果不指定字符编码,就会使用系统默认的字符编码打开文件。比如这时python就会使用gbk编码去读utf-8文件,运行后会报错或者读到乱码。

    65330发布于 2020-01-10
  • 来自专栏悟道

    2-2 二分&前缀和模板

    二分模板 int mid=0; while(left<right){ mid=(left+right)/2; if(check(mid)<K) r=mid; else l=mid+1;

    33630发布于 2021-03-11
  • 来自专栏育种数据分析之放飞自我

    笔记 | GWAS 操作流程2-2:性别质控

    「上一步,去掉缺失信息后,现在有文件是过滤缺失后的文件:」 HapMap_3_r3_5.bed HapMap_3_r3_5.fam HapMap_3_r3_5.irem HapMap_3_r3_5. bim HapMap_3_r3_5.hh HapMap_3_r3_5.log 1. 检查性别冲突 plink --bfile HapMap_3_r3_5 --check-sex 结果文件:plink.sexcheck第一列为家系ID,第二列为个体ID,第三列为系谱中的性别,第四列为 「使用R语言作图:」 gender <- read.table("plink.sexcheck", header=T,as.is=T) pdf("Gender_check.pdf") hist(gender 使用remove去掉个体 plink --bfile HapMap_3_r3_5 --remove sex_discrepancy.txt --make-bed --out HapMap_3_r3_6

    1.5K31发布于 2020-05-18
领券