首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么这个简单的网页爬虫会失败?

为什么这个简单的网页爬虫会失败?
EN

Stack Overflow用户
提问于 2020-09-04 06:59:45
回答 1查看 45关注 0票数 0

我正在用一个非常简单的代码片段测试HtmlAgilityPack,但是它仍然失败,我不明白为什么。

代码语言:javascript
复制
var html2 = @"http://www.monki.com/en_sek/newin/view-all-new.html";

            HtmlWeb web2 = new HtmlWeb();

            var htmldoc2 = web2.Load(html2);

            var node2 = htmldoc2.DocumentNode.SelectSingleNode("//head/title");

            Console.WriteLine("\n\n\n\n");

            Console.WriteLine("Node Name2: " + node2.Name + "\n" + node2.OuterHtml + "\n" + node2.InnerText);

当然,我已经检查了页面上的标题和标题,但是node2仍然是空的,我无法解释原因。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-09-04 07:16:38

看上去网页想要设置cookie。还请参见this answer with the same problem

代码语言:javascript
复制
var loader = new HtmlWeb{ UseCookies = true };
var doc = loader.Load(@"http://www.monki.com/en_sek/newin/view-all-new.html");

var node2 = doc.DocumentNode.SelectSingleNode("//head/title");
Console.WriteLine("\n\n\n\n");
Console.WriteLine("Node Name2: " + node2.Name + "\n" + node2.OuterHtml + "\n" + node2.InnerText);
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/63736315

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档