腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(39)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
在训练自定义BERT模型时,create_
pretraining
_data.py正在向tf_examples.tfrecord写入0条记录
python create_
pretraining
_data.py --input_file=/content/drive/My Drive/internet_archive_scifi_v3.txt
浏览 33
修改于2020-09-16
得票数 0
2
回答
从python模块中的另一个文件夹导入一个模块函数
我目前正在构建一个具有如下体系结构的自定义模块:││ ├── metrics.py│ ├──
pretraining
.py└── training_step.py到目前为止,我尝试了经典:我得到以下
浏览 0
修改于2021-06-10
得票数 2
回答已采纳
1
回答
在终端中从Google Storage Bucket运行Python脚本
为了运行位于bert文件夹下的create_
pretraining
_data.py代码,我尝试了 python3 create_
pretraining
_data.py --input_file ...python3 gs://bucket-hosrevbert-1/bert/create_
pretraining
_data.py --input_file ...
浏览 22
提问于2021-05-07
得票数 0
1
回答
如何预测给定句子中的掩蔽词
FitBERT是一个有用的软件包,但我对BERT开发掩蔽单词预测有一点怀疑,如下所示:我使用谷歌的脚本(如create_
pretraining
_data.py,run_
pretraining
.py,extract_features.py
浏览 1
修改于2020-10-05
得票数 0
1
回答
我可以用标记化输入文件和高棉语的自定义词汇表文件从头开始对BERT模型进行预培训吗?
我想知道是否可以使用我自己的标记/分段文档(还有我自己的词汇表文件)作为create_
pretraining
_data.py脚本的输入文件(git源:)。Original:វា មាន មក ជាមួយ នូវ 我自己尝试了一些东西,并在运行create_
pretraining
_data.py和run_
pretraining
.py脚本之后获得了一些结果。下面是运行create_
pretraining
_data.py后的
浏览 2
提问于2019-11-27
得票数 2
2
回答
无法使$TPU_NAME环境变量正常工作
无法使BERT run_
pretraining
.py脚本在TPU上工作。不过,它在CPU上运行良好。我猜问题出在$TPU_NAME环境变量上。--input_file='gs://xxxxxxxxxx/*' \ --output_dir=/kaggle/working/model/ \
浏览 6
修改于2020-08-05
得票数 1
1
回答
如何格式化深度信念神经网络的训练/测试集
=True),theano.shared(numpy.asarray(train_set_x[0][1],dtype=theano.config.floatX),borrow=True)] 它产生了这个错误: Traceback/Users/spudzee1111/Desktop/Code/NNChatbot
浏览 0
修改于2015-07-30
得票数 4
1
回答
BERT从零开始使用tensorflow版本2.x进行预培训
我以前在run_
pretraining
.py () tensorflow version 1.15.5版本中使用了python脚本。我也使用谷歌云TPU。
浏览 5
提问于2022-07-25
得票数 2
回答已采纳
1
回答
如何使用我们的自定义数据进一步对bert模型进行预培训,并增加词汇量?
我使用create_
pretraining
_data.py从创建了输入数据。使用run_
pretraining
.py进行预训练,但面临不匹配错误: ValueError:变量的形状/嵌入/word_嵌入:0(35880,128)与检查点读取器的张量bert/embeddings
浏览 4
修改于2020-07-17
得票数 1
1
回答
如何从Tensorflow checkpoint (ckpt)文件中预测BERT-base中句子中的掩蔽词?
我使用create_
pretraining
_data.py创建数据,并使用官方BERT存储库(https://github.com/google-research/bert)中的run_
pretraining
.py
浏览 24
修改于2019-09-11
得票数 0
1
回答
卷积神经网络预训练的原因
(1) the resons for
pretraining
in CNN and (2) what are the problems/limitations with CNN?
浏览 8
提问于2014-10-17
得票数 0
1
回答
使用来自Google驱动器的文件时出现的google错误
app 'Colab Notebooks' lixo 'My Drive' pixellib yolov3 train_maskrcnn.load_pretrained_model("/mydrive/pixellib/
pretraining
.h5resnet101", num_cla
浏览 1
修改于2021-01-25
得票数 0
回答已采纳
1
回答
Aurelien Geron书中的预训练神经网络实例
X: mnist.test.images}) if not
pretraining
: # Now reuse the first
浏览 0
提问于2018-05-02
得票数 1
回答已采纳
1
回答
如何在tensorflow中对定制数据进行正式实现的预培训后保存BERT模型?
通过从bert的bert_base_uncased实现运行run_
pretraining
.py,我对自定义数据的模型进行了精调。并且像往常一样保存了多个model.ckpt文件。
浏览 13
修改于2022-01-10
得票数 0
1
回答
堆叠DenoisingAutoencoders的实现-为什么对dA层使用相同的输入?
在上的堆叠DenoisingAutoencoders教程中,
pretraining
_functions返回一个函数列表,这些函数表示每个dA层的训练函数。
浏览 1
修改于2014-07-07
得票数 1
1
回答
图形断开:无法获取张量张量的值(“input_2:0”,shape=(?,500,500,5,1) )
def make_fcn_resnet(input_shape, nb_labels, use_
pretraining
, freeze_base): input_tensor = Input(shape=input_shape) weights = 'imagenet' if use_
pretraining
else
浏览 2
修改于2018-09-19
得票数 1
1
回答
Huggingface Electra - Load模型训练google实现错误:'utf-8‘编解码器无法解码位置64中的字节0x80 :无效的起始字节
python run_
pretraining
.py --data-dir gc://bucket-electra/dataset/ --model-name greek_electra --hparams
浏览 52
提问于2021-05-28
得票数 1
回答已采纳
1
回答
实值输入深度信任网络的问题(RBM)
numhid=2000; numpen=1000; numpen2=500; numopen=30; %makeFaceData; fprintf(1,'
Pretraining
浏览 5
修改于2012-12-01
得票数 7
回答已采纳
1
回答
卷积神经网络中迁移学习的性能较差
, 0.0005*ones(1,25)]; %I set much higher training rate %for
pretraining
浏览 11
提问于2017-05-15
得票数 0
1
回答
如何在TF2.1中保存/加载用于微调/迁移学习的部分模型?
def __call__(self, inputs): bm = BaseModel() # the model for
pretraining
浏览 3
修改于2020-03-27
得票数 0
第 2 页
领券