我正在寻找一个函数,可以用来获取精确或类似于CRAN包html网站的网站,例如:https://cran.r-project.org/web/packages/DBI/index.html,我可以使用
utils::packageDescription("DBI")在R中打印描述。我可以从这里开始处理字符串,并尝试将其格式化为html,但我知道在utils和其他包中有很多有用的技术助手,所以也许我可以利用一些东西将描述呈现为html?
下载和反向依赖部分在html输出中并不是必要的。
发布于 2016-01-27 14:05:02
请定义您希望或期望的标记。
CRANberries已经这样做了近十年--下面是“新”包的代码。我只需解析DESCRIPTION文件,然后循环遍历它,将字段设置为粗体,将值设置为普通文本。
writeNewBlogEntry <- function(curPkg, curVer, reposurl) {
blogpost <- file.path(blogInputDir, "new",
paste(curPkg, "_", curVer, ".txt", sep=""))
con <- file(blogpost, "wt")
cat("New package", curPkg, "with initial version", curVer,"\n\n", file=con)
dcf <- read.dcf( url(getDescriptionUrl(curPkg, reposurl)) )
for (i in 1:ncol(dcf)) {
cat("<strong>", colnames(dcf)[i], "</strong>: ",
htmlEscape(dcf[1,i]), "<br>\n", sep="", file=con)
}
closeBlogPost(con, reposurl, curPkg)
}这是旧代码,它位于我使用的特定(静态)文本到html/rss呈现器的上下文中。
https://stackoverflow.com/questions/35038988
复制相似问题