我的网站页面从机器人获得8到10倍的流量,而不是从真正的用户。我在日志里看到了将近90个不同的机器人。从定义上来说,它们都是“好机器人”。主要是搜索引擎爬行器、搜索引擎搜索引擎索引器(如ahrefs和数字广告网络)。我的问题是成本。我使用Google和Places,并在每个API调用中收取单位成本。我知道如何阻止机器人爬行页面,这对我来说是100%成功的,因为我能够阻止他们进行收费API调用。
我的问题是,拒绝bot查看API提供的内容对SEO的影响是什么?我是介绍文本餐厅的位置数据,从谷歌的地方和Yelp融合和显示的位置嵌入谷歌地图。
我正在考虑实施一种只允许选择搜索引擎机器人访问API的策略。我是否需要这样做,或者我可以只是提供一个通用的地图图像和虚拟餐厅的位置数据给机器人,而不需要SEO处罚?我显示了每一家餐厅的地址,城市,州,邮政编码和电话号码从谷歌地点或Yelp融合API页面。Yelp是免费的,但是如果我满足所有的bot请求,我就会超过他们的配额。
发布于 2019-04-27 10:45:30
是的,这将是一个正确的策略,只允许顶级搜索引擎机器人爬行和索引你的网页。
关于“通用地图图像和虚拟餐厅位置数据”的查询,我需要更多的输入。
你是说每个地点都有动态数据吗?
我建议有一个静态页面(与独特的网页网址),每个地点与相关的餐厅数据。
它可以通过:地点,类别和子类别,评级等进行隔离。
此外,您还可以根据用户操作触发API调用。
就像一个CTA按钮,如果可能的话,可以进行API调用
https://webmasters.stackexchange.com/questions/122506
复制相似问题