谁能给我建议一下,在哪里我可以为BERT神经网络找到用于文本挖掘任务的R语言示例代码。我所能看到的只是蟒蛇的例子,我需要R。
发布于 2019-09-13 03:56:49
您可能对RBERT:https://github.com/jonathanbratt/RBERT的开放源码R包感兴趣
这是一项正在进行的工作,但目标是能够在R中直接使用伯特。
发布于 2021-06-27 16:34:20
在某种程度上,Python依赖似乎始终存在。我发现这个很好的例子可以通过网状结构来弥补这一鸿沟:
发布于 2022-03-06 11:33:27
对于一般用途的任务,我推荐RBERT
我在CRAN上开发了一个叫做transforEmotion的软件包
有一个格列奈特需要用Python来设置(最后包括如何在R中使用包的示例)
之后,其余的将在transformer_scores()函数中处理。
CRAN上的默认模型是Facebook的BART大。
我在GitHub上做了更多的工作
GitHub上的默认模型是交叉编码器的蒸馏塔 (比Facebook的BART大得多,精确性最小)。
transformer_scores()函数允许您实现任何拥抱面文本分类管道,只要有它的管道:https://huggingface.co/models?pipeline_标签=零射击-分类
https://datascience.stackexchange.com/questions/52000
复制相似问题