我有一个很大(~4 4GB)的Multimarkdown格式的文本文件,我想把它转换成HTML。
我试过了:
use strict;
use warnings;
use File::Map qw (map_file);
use Text::MultiMarkdown qw (markdown);
my $filename = shift // die;
map_file (my $text, $filename);
print markdown($text);但它仍然会阻塞内存。
发布于 2010-10-30 19:55:26
您需要以块的形式处理文件,确保块以可以忽略的空格结尾(这样就不会拆分列表和表等)。
提供有关文件结构和内容的更多信息,以帮助我们为您提供其他有用的指导。
发布于 2010-11-01 22:18:42
我注意到Discount设法容忍大约100MB。Pandoc似乎可以容忍大约20MB的内存。这两个都不能精确地管理MMD markdown扩展,但对于大多数扩展,它们都有自己的等价物。
这难道不是这个计划的主要问题吗:您将使用什么来读取html?Chrome设法打开100MB的文件,但却占用了大量的内存,例如进行搜索或向下移动光标。也许你需要一个像Sinan这样的计划,但是需要一个为每个块生成单独的html文件的计划,以指向下一个文件的超引用结束。
https://stackoverflow.com/questions/4058343
复制相似问题