New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
运行ner报错 No such layer: Transformer-12-FeedForward-Norm #72
Comments
最新的example需要最新的bert4keras配套,既然你直接在github上看最新的example,应当 pip install git+https://www.github.com/bojone/bert4keras.git 安装最新版的bert4keras |
首先感谢苏神回复! |
手动观察你安装的bert4keras的目录下的bert.py文件,第135行,看看是不是如github所示: github上的最新版,配合最新的example,我都测试过,不会有这种名字匹配错误的。 |
苏神,他可能使用了您那个bert +crf 的ner的例子 但是预训练采用的是albert,如果在这个例子里面切换成albert 除了把model='albert' 还需要做其他的设置吗 |
albert的话要改~ 下面这两行 output_layer = 'Transformer-%s-FeedForward-Norm' % bert_layers
output = model.get_layer(output_layer).output 改为 output_layer = 'Transformer-1-FeedForward-Norm'
output = model.get_layer(output_layer).get_output_at(bert_layers - 1) 这属于keras知识啦。 |
我在两个脚本那里注释了一下了。 |
谢谢苏神,我测试一下 |
苏神 albert 中的bert_layers是不是也得修改下呢 如果使用small_google这个 |
那这个你自己根据实际情况修改呀,我哪知道你用的albert有多少层。。。 |
感谢大家回复,我的问题确实是模型config跟bert不太一样导致的。 |
我刚也是用错bert版本了,报的一样的错,后来换了支持权重里面的roberta就好了,感谢大佬的提示换bert版本 |
运行示例task_sequence_labeling_ner_crf.py(数据是按注释下载解压的)时,报错:
, line 114, in
output = model.get_layer(output_layer).output
File "××××/site-packages/keras/engine/network.py", line 365, in get_layer
raise ValueError('No such layer: ' + name)
ValueError: No such layer: Transformer-12-FeedForward-Norm
试了普通roberta模型和追一科技自己的small模型都有这个问题。
The text was updated successfully, but these errors were encountered: