bert_language_understanding
                                
                                
                                
                                    bert_language_understanding copied to clipboard
                            
                            
                            
                        关于预训练模型设计
请问你是没有用bert 中的encoder -decoder 而是自己设计的CNN 卷积进行预训练和微调的吗?为什么呢,是因为原始的encoder- decoder 效果没有CNN 效果好吗