腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
网络
抓取
我正在准备一个Windows表单应用程序来
抓取
。我将从windows表单中输入一些表达式,并在google中自动搜索该表达式。
浏览 11
修改于2017-09-29
得票数 1
回答已采纳
3
回答
网络
抓取
?
我正在做以下网站上的一项
网络
抓取
作业: 每场比赛的得分以梅森的得分-对手得分的格式列在每行的右侧。通过使用SelectorGadget工具,我确定了刮取这些信息所需的CSS选择器,然后编写了代码来
抓取
这些信息。这个向量中有33条数据。我用分离()函数把梅森的分数和对手的分数分开。
浏览 0
修改于2019-01-14
得票数 1
回答已采纳
6
回答
网络
抓取
和
网络
抓取
有什么不同?
爬行和
网络
抓取
有区别吗? 如果有不同之处,为了收集一些
网络
数据来提供一个数据库,以便在定制的搜索引擎中使用,最好的方法是什么?
浏览 2
修改于2013-09-07
得票数 96
回答已采纳
1
回答
RSelenium
网络
抓取
我正在尝试
抓取
一个网站,但是javascript给我带来了问题。我使用RSelenium到达我想要的页面,给出html,我可以解析它并获得我想要的数据。然而,这是我似乎无法解决的中间步骤。
浏览 0
修改于2015-11-27
得票数 0
1
回答
BeautifulSoup
网络
抓取
我正在使用BeautifulSoup来刮一个网站。当它返回链接时,它以/watch/411012/1/test.html的形式出现--我如何使它能够返回呢?import urllib2soup = BeautifulSoup(resp, from_encoding=resp.info().getparam('charset')) for link in
浏览 4
修改于2016-03-30
得票数 1
回答已采纳
2
回答
网络
抓取
表
我一直在拉年度收入表,而我本应该每季度拉一次。有人能解释一下我做错了什么吗?(代码如下) url='https://www.macrotrends.net/stocks/charts/TSLA/tesla/revenue' for row in soup.fi
浏览 29
修改于2021-10-09
得票数 0
回答已采纳
1
回答
网络
抓取
-标题
我过去经常从网站上
抓取
标题,但这次我做不到,也不知道为什么。
浏览 0
修改于2021-10-04
得票数 1
1
回答
网络
抓取
输出[]
嘿,我只是想测试一下Python Webscraping,我不知道为什么它不能工作。作为输出,我变成了[],没有其他东西。有谁有主意吗?BEcause如果我到网站上搜索元素,我会找到它。 from bs4 import BeautifulSoupsoup = BeautifulSoup(html_text, "lxml") job = soup.find("div", clas
浏览 12
提问于2021-08-26
得票数 1
回答已采纳
1
回答
加快
网络
抓取
我有一个项目,我必须刮所有50个男女演员的收视率,这意味着我必须访问和刮约3500个网页。这比我预期的要长得多,我正在寻找一种加快速度的方法。我知道有像scrapy这样的框架,但我想在没有任何其他模块的情况下工作。是否有一种快速简单的方法来重写我的代码,或者这会花费太多的时间吗?我的代码如下: movie_name = [] movie_year = [] for movi
浏览 1
修改于2016-06-17
得票数 1
回答已采纳
1
回答
网络
抓取
协助
我是个完全的新手。没有计算机编程经验。因此,学习任何东西的机会成本--比如Scrapy --是非常高的,所以我不想花几个小时做死胡同的工作(前,我整天都在安装Scrapy,因为我是个白痴)。,我的主要技术问题是,可以像Scrapy这样的程序认识到,在一个术语(资产)旁边的一个数字( 100,000 )意味着慈善机构拥有10万美元的资产。或者至少把10万列在资产类别中?
浏览 0
提问于2014-06-08
得票数 0
回答已采纳
2
回答
网络
抓取
帮助
我必须从这个网页中提取一些信息。我知道有更简单的方法来获取这些信息,但这就是我的任务。到目前为止,我一直在尝试这样做: import pandas as pdfrom bs4 import BeautifulSoup page = requests.get(url) soup = BeautifulSoup(page.text, 'html.parser') 在这里,我尝试
浏览 44
修改于2019-10-11
得票数 1
回答已采纳
1
回答
Excel
网络
抓取
我在用Excel
抓取
网页时遇到了麻烦。我要这个网站的数据: charitynavigator.org我录制了一个宏,通过第一个链接( Aims项目)。然而,在
抓取
第一页之后,程序就无法进入下一个网页。
浏览 7
修改于2021-02-17
得票数 0
回答已采纳
1
回答
Python
网络
抓取
from lxml import htmltree = html.fromstring(page.content)print (text) “如果我们列出所有低于10的自然数,它们是3或5的倍数,我们得到3,5,6和9,这些倍
浏览 0
修改于2015-12-23
得票数 0
回答已采纳
1
回答
网络
抓取
BeautifulSoup
我有一个学校项目,我必须在比利时刮约88,000家公司。有些网站需要更长的时间才能在网站上找到一个词,所以我认为这只是一个更大的网站。然而,当我访问DHL ()的网站时,我的程序什么也不做。这是不可能的原因,还是一家公司可以禁用刮他们的网站?我不认为我的代码有什么问题,但我把它放在下面。这些可变网站只是一个数组,包含了所有公司的URL。url = "" counter += 1 tr
浏览 6
提问于2022-02-17
得票数 0
回答已采纳
2
回答
网络
抓取
视频
任何关于如何用BeautifulSoup和请求做视频
网络
抓取
的理解将不胜感激。 如果需要,这里有一些代码。很多教程都说要使用'a‘标签,但我没有收到任何'a’标签。
浏览 3
修改于2018-11-08
得票数 2
1
回答
网络
抓取
Yougov
我正在尝试使用软件包rvest和工具selectorgadget来擦拭yougov提供的最著名品牌的名称列表。该工具工作良好,但不幸的是,R只是刮前20个品牌名称,即使所有品牌都被选择小工具工具正确选择。# Packages library("dplyr") yougov <- read_html("https://today.yougov.com/ratings/consumer/fame/brands/all") yougov
浏览 5
提问于2022-10-25
得票数 -1
回答已采纳
5
回答
LinkedIn
网络
抓取
是否有人知道适用于LinkedIn站点当前格式的任何web
抓取
工具或技术,或者如何弯曲API以进行更灵活的分析?最好是基于R或
网络
,但肯定对其他方法开放。
浏览 0
修改于2015-11-19
得票数 11
回答已采纳
1
回答
网络
抓取
/爬行
我在试着爬。由于某种原因,当我拉出html时,它返回到一个不同的html,当我使用查看该html时,可以找到这个html。我使用了以下功能: dir.create(CreateDir) url = paste("https://www.nyse.com/bell/
浏览 3
提问于2015-09-06
得票数 0
3
回答
亚马逊
网络
抓取
我在
网络
抓取
方面是新手,但我不明白亚马逊是谁有措施避免刮价格,还是我做错了,因为我在尝试其他更简单的网页,我可以得到我想要的数据。
浏览 4
修改于2015-03-31
得票数 2
回答已采纳
3
回答
Python
网络
抓取
我试着用Python从网站上
抓取
数据。当我查看浏览器中的源代码时,我可以看到我正在寻找的所有东西。但是,当我用BeautifulSoup下载代码时,我只得到我想要的部分数据。
浏览 3
修改于2016-12-02
得票数 1
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券