首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在bash中提取多个子字符串

在bash中提取多个子字符串
EN

Stack Overflow用户
提问于 2012-08-16 14:43:13
回答 1查看 1.8K关注 0票数 0

我有一个从wiki导出的页面,我希望使用bash查找该页面上的所有链接。该页面上的所有链接都在表单[wiki:<page_name>]中。我有一个剧本可以:

代码语言:javascript
复制
...
# First search for the links to the pages                                                                                                                                    
search=`grep '\[wiki:' pages/*`

# Check is our search turned up anything                                                                                                                                     
if [ -n "$search" ]; then
    # Now, we want to cut out the page name and find unique listings                                                                                                         
    uniquePages=`echo "$search" | cut -d'[' -f 2 | cut -d']' -f 1 | cut -d':' -f2 | cut -d' ' -f 1 | sort -u`
....

但是,当显示带有多个[wiki:文本的grep结果时,它只会提取最后一个结果,而不是任何其他文本。例如,如果$search是:

在启动配置之前,必须安装所有必需的库,以便由Cmake检测到。如果您错过了这一步,请参阅[wiki:CT/Checklist/Libraries "Libr“按t键,您可以切换到高级模式屏幕,并提供更多详细信息。这里有5页的wiki:CT/Checklist/Cmake/advanced_mode。要获得有关ea -‘’安装Cantera‘的信息:如果cantera没有正确安装,或者如果您没有来源于安装文件’~/ setup _cantera‘’,您应该收到以下消息。请参阅wiki:CT/FormulationCantera "Cantera installation“页面来解决此问题。如果您计划使用内置运输、热力学和化学,您可以将Cantera选项设置为OFF。

然后它只返回CT/FormulationCantera,它不给我任何其他的链接。我知道这是由于使用了cut,所以我需要替换$uniquepages行。

有人在巴什有什么建议吗?如果需要的话,它可以使用sed或perl,但是如果可能的话,我希望使用一个一行程序来提取一个页面名列表。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2012-08-16 14:47:40

代码语言:javascript
复制
egrep -o '\[wiki:[^]]*]' pages/* | sed 's/\[wiki://;s/]//' | sort -u

upd。在没有cut的情况下删除所有后置空间

代码语言:javascript
复制
egrep -o '\[wiki:[^]]*]' pages/* | sed 's/\[wiki://;s/]//;s/ .*//' | sort -u
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/11989716

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档