forgivedengkai

Results 7 comments of forgivedengkai

在serving-admin检查模型最后组件是否为 lr 或者 sbt ,若为其他组件则不能输出结果

serviceId 只在guest 存在 ,host端模型找不到一般需要确认几个问题, host有几个实例?是不是每个实例都已发布模型 ? serving-proxy 到serving-server 之间的配置是否正确 ,比如如果使用zookeeper ,zookeeper 地址是否正确?如果不使用zookeeper 各个组件地址是否配置正确 ?guest 发往host的路由配置是否正确,是不是有可能guest 发给了guest ?

批量预测一次预测量不建议太大,太大的可以拆分成多批进行 ,比如每个批次1000条以下,太大的数量计算时间已经完全超过了rpc的超时时间,如果要进行一次万以上记录的预测,是否可以考虑离线预测?

可以看下在线pipeline 的结构 ,最后的组件应该为LR 或者sbt ,若为其他组件,不会有结果

host 方fate-serving需要开发跟业务系统对接的adaptor,用于获取特征 , adaptor接口的输出就会进入host模型进行计算 。