我在看这里是特征提取管道。
我初始化如下:
from transformers import pipeline
pipe = pipeline("feature-extraction")
features = pipe("test")我得到了一堆特征。默认情况下,这是使用什么模式?如何初始化该管道以使用特定的预培训模型?
len(features)
1
>>> features
[[[0.4122459590435028, 0.10175584256649017, 0.09342928230762482, -0.3119196593761444, -0.3226662278175354, -0.16414110362529755, 0.06356583535671234, -0.03167172893881798, -0.010002809576690197, -1.1153486967086792, -0.3304346203804016, 0.1727224737405777, -0.0904250368475914, -0.04243310168385506, -0.4745883047580719, 0.09118127077817917, 0.4240476191043854, 0.2237153798341751, 0.12108077108860016, -0.16883963346481323, 0.055300742387771606, -0.07225772738456726, 0.4521999955177307, -0.31655701994895935, 0.05917530879378319, -0.0343029648065567, 0.4157347083091736, 0.10791877657175064, -0
...etc而文件告诉我:
所有的模型都可以用于这条管道。请参阅所有模型的列表,包括huggingface.co/model上的社区贡献模型。
我不清楚在哪里初始化这个链接中的模型。API非常简洁。
发布于 2020-08-18 11:24:59
不幸的是,正如您正确地指出的,pipelines文档相当稀少。但是,源代码指定默认使用哪些模型,请参见这里。具体来说,模型是distilbert-base-cased。
有关使用模型的方法,请参见me 这里的相关答案。您可以简单地指定model和tokenizer参数如下:
from transformers import pipeline
# Question answering pipeline, specifying the checkpoint identifier
pipeline('feature-extraction', model='bert-base-cased', tokenizer='bert-base-cased')https://stackoverflow.com/questions/63461821
复制相似问题