我的重写规则如下,但我不明白为什么我的第二条规则不起作用。当我禁用第一个,它将正常工作。如果两个规则的url完全相同,是否有限制?请注意,在我的第一个条件下,如果百度蜘蛛爬行我们的网站,我将尝试将请求映射到NuxtJS,否则只需在the根目录上提供静态HTML文件即可。
<?xml version="1.0" encoding="UTF-8"?>
<rules>
<clear />
<rule name="ReverseProxyInboundRule1" enabled="true" stopProcessing="false">
<match url="(.*)" />
<action type="Rewrite" url="http://localhost:3000/{R:1}" />
<conditions>
<add input="{HTTP_USER_AGENT}" pattern="^((?Baidu).)*$" />
</conditions>
</rule>
<rule name="StaticHTMLForBaiduCrawler" enabled="true" stopProcessing="false">
<match url="(.*)" />
<conditions>
<add input="{HTTP_USER_AGENT}" pattern="^((?!Baidu).)*$" />
</conditions>
<action type="Rewrite" url="{R:1}/index.html" />
</rule>
</rules>发布于 2020-07-24 05:00:51
没有这样的限制。
您的第一个模式在语法上无效,因此会发生错误。
表达式"^((?Baidu).)*$“的语法无效。
因为您不需要精确匹配,所以像Baidu这样的简单模式就能奏效。看看下面的规则,并注意negate="true"。
<rules>
<clear />
<rule name="ReverseProxyInboundRule1" enabled="true" stopProcessing="true">
<match url="(.*)" />
<action type="Rewrite" url="http://localhost:3000/{R:1}" />
<conditions>
<!-- if user agent contains Baidu -->
<add input="{HTTP_USER_AGENT}" pattern="Baidu" />
</conditions>
</rule>
<rule name="StaticHTMLForBaiduCrawler" enabled="true" stopProcessing="true">
<match url="(.*)" />
<conditions>
<!-- if user agent does not contain Baidu -->
<add input="{HTTP_USER_AGENT}" pattern="Baidu" negate="true" />
</conditions>
<action type="Rewrite" url="{R:1}/index.html" />
</rule>
</rules>https://stackoverflow.com/questions/63066802
复制相似问题