腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
6
回答
用
python
创建与excel兼容的CSV文件?
我正在尝试使用
python
创建一个真正与Excel兼容的csv文件(我正在使用Excel2007,如果这有什么不同的话)。下面是我想要做的事情try: writer.writerows(data) fd.close() 这将创建
浏览 0
修改于2017-12-08
得票数 12
回答已采纳
1
回答
使用.htaccess向URL添加子目录
我正努力做到以下几点:重定向到这个网址:www.example.com/9440/wis/
9-3
/1998/0.这是我目前所拥有的,但它不起作用: RewriteRule ^/wis/
9-3
/1998/(.*)$ /9400/wis/
9-3
/1998/$1
浏览 0
修改于2019-03-06
得票数 1
回答已采纳
2
回答
f.write有问题吗?它只在文件中写入最后一行吗?
所以我必须创建一个4-1和
9-3
在每一行的文件。在那之后,我需要对每个数字做减法。我已经做了一些事情,但是只有第2行的结果。所以在izrazi.txt中是我的输入4-1和
9-3
,所以我在izlaz.txt中的输出必须是4-1 =3,在新行
9-3
=6 with open('izrazi.txt','w') as f:
浏览 0
修改于2021-11-20
得票数 0
1
回答
用算术表达式逐行读取文本文件,计算并在新的文本文件中写入结果。
文本文件如下所示:
9-3
4-1=3我被困在一开始read = handle.readlines
浏览 2
修改于2020-11-28
得票数 0
回答已采纳
1
回答
使用正则表达式替换长URL中的文本
这是我想要达到的目标: Before: example.com/[wildcard1]/
9-3
/[wildcard2]/ref/[wildcard3]/[wildcard4] After: example.com/[wildcard1]/wis/
9-3
/[wildcard2]/ref/[wildcard3]/[wildcard4]
浏览 11
提问于2019-04-02
得票数 0
3
回答
无法隔离字符串元素以转换和完成加法
我得到了一个example.txt文件,其中包含:
9-3
4-1=3但是在尝试转换时,我经常会遇到一个错误,我认为问题是-符号,它不会删除它,当我做f.readlines来得到它,就像列表中有['4-1\n', '
9-3
\n']。
浏览 6
修改于2020-11-14
得票数 0
1
回答
如果我为我的
python
脚本做了一个简单的gui,它会影响它的效率吗?
嗨,我想做一个网页
爬虫
,检查URL的数据,如果我做一个简单的Gui,使脚本更容易查找变量的数据,添加代码的gui会使我的网络
爬虫
效率降低吗? 我需要
爬虫
尽可能高效,能够尽可能快地处理数据。为这个
Python
脚本制作一个gui,会不会妨碍web
爬虫
的性能?
浏览 3
修改于2015-01-27
得票数 0
回答已采纳
1
回答
如何轻松地在远程github分支和本地分支/文件夹之间切换?
我用
Python
2.7编写了大量的Scrapy爬行器。我需要将它们全部转换为支持
Python
3,这种转换必须在1 go内完成。我只能在
Python
3
爬虫
做好部署准备之后才能开始使用。现在,由于“所有操作都必须保持活动状态”,我需要一个单独的
Python
3
爬虫
的远程分支。这个分支可以称为Remote-B。我手动创建了这个分支,所以整个存储库现在有两个分支: Master(Remote-A)和
Python
3
爬虫
(Remote-B),后者是主分支的一个
浏览 3
提问于2019-09-10
得票数 0
回答已采纳
3
回答
将数据从PHP脚本传递到
Python
Web Crawler
我有一个
python
爬虫
,每隔几分钟就抓取几个网页。我现在正在尝试实现一个可以通过web访问的用户界面,并显示
爬虫
获得的数据。我将使用php/html作为接口。无论如何,用户界面需要某种类型的按钮来触发
爬虫
程序立即抓取特定的网站(而不是等待下一次抓取迭代)。 现在,有没有一种方法可以将数据从php脚本发送到正在运行的
python
脚本?然后我在考虑使用一个共享文件,php在其中写入数据,
python
从中读取数据。但是,我需要一些方法来让
python
脚本知道,新数
浏览 1
提问于2011-03-31
得票数 1
2
回答
-操作符对学校作业文件的操作
我有两组数字4-1和
9-3
代码的文本文档,它们需要在相同的文本文档中读取和写入,并且需要小心换行符,然后需要计算它们并打印,而不用输入作为选项2 tnx的帮助。"r")print(f.readline())a = 4-1f.write(f"4-1 = {a}\n") f.write(f"
9-3</
浏览 5
修改于2021-12-08
得票数 -3
回答已采纳
1
回答
我怎么能强制停止我的
爬虫
得到一个特定的网址抓取最后一次?
我正在制作一个
爬虫
来找出最近添加的youtube视频,当我的
爬虫
到达旧视频(在前一个转弯中爬行)时,我想停止
爬虫
。我使用的不是scrapy和漂亮的汤,我使用的是
python
库。请给我推荐任何选项
浏览 9
提问于2017-06-27
得票数 0
3
回答
我怎样才能把这个语句从中缀写到后缀?
我该如何写下这条语句:..。从中缀到后缀?
浏览 0
修改于2009-11-10
得票数 1
1
回答
在ubuntu的后台运行时,
爬虫
停止。
我使用具有无限循环的
python
制作了一个简单的
爬虫
,所以它不能停止。随机延迟17 ~ 30,这个
爬虫
爬行相同的一个页面,并找到'href‘链接,定期更新,并存储到Mysql。因为我使用了Linux命令这个
爬虫
是在Ubuntu服务器背景下运行的。我想它已经运行了大约4个小时。但
爬虫
突然停止了。第二天我再试一次。
浏览 1
修改于2014-05-20
得票数 0
回答已采纳
1
回答
如何提取我的
爬虫
目前所站的网址?
我正在使用
python
中的scrapy框架制作一个web
爬虫
。其主要思想是,
爬虫
从页面中提取一些数据,如果数据符合某些条件,
爬虫
应该提取其当前所处的URL。是否有一些方法/函数可以获得当前的URL?
浏览 5
提问于2016-11-27
得票数 0
回答已采纳
1
回答
分布在不同地理位置的
爬虫
我需要创建一个
爬虫
与客户端在每个台式机和一个中央服务器,其中的数据是索引。有没有可能在Nutch中创建这样的
爬虫
?还有没有别的选择。基于
Python
的
爬虫
会更好。
浏览 2
提问于2011-07-04
得票数 0
回答已采纳
1
回答
Web Crawler的常用输出格式
爬虫
的常见输出格式是什么?它会是XML,JSON吗?或者它会根据
爬虫
的不同而不同,例如:
Python
,Java?
浏览 0
提问于2012-08-20
得票数 0
回答已采纳
2
回答
网络
爬虫
-忽略Robots.txt文件?
一些服务器具有robots.txt文件,以阻止web
爬虫
在其网站中爬行。有没有办法让网络
爬虫
忽略robots.txt文件?我正在为
python
使用Mechanize。
浏览 1
提问于2011-12-05
得票数 14
回答已采纳
2
回答
对于蟒蛇
爬虫
,我应该使用无限循环还是cron作业?
我用
python
编写了一个
爬虫
,它可以访问60多个网站,解析HTML,并将数据保存到数据库。哪一个更有效率?无限循环还是cron作业?
浏览 7
提问于2021-05-14
得票数 0
1
回答
将我的
Python
电子邮件爬行器转换为Web应用程序的框架
在
Python
方面经历了几年之后,我才知道它在web开发中的应用。我在
Python
中制作了一个电子邮件
爬虫
程序(基本上是一个使用其他几个功能的函数),它帮助我在generate实习的公司。我的老板问我是否可以让我的
python
电子邮件
爬虫
进入一个网络应用程序,这样其他员工就可以通过我来抓取电子邮件,这样我就可以在更重要的事情上工作。是否有一些web应用程序框架可以用来将我的
python
电子邮件
爬虫
程序转换成一个简单的公司专用web应用程序?制作网络应用程序所需的时间范围
浏览 5
提问于2015-07-08
得票数 0
回答已采纳
2
回答
列值读取为日期,而不是字符串- Pandas
我有一个excel文件,在列Model的那一行中有一个值"
9-3
“,它是一个字符串值。我仔细检查了excel文件,以使列数据类型为Plain string而不是Date。但是,当我使用read_excel并将其转换为数据框时,值显示为2017-09-03 00:00:00,而不是字符串"
9-3
“。
浏览 0
提问于2017-09-05
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券