机器学习PAI看是在那个阶段出现的pb限制问题,这种情况下原始的pb应该就超过的2GB?[阿里云机器学习PAI]

机器学习PAI看是在那个阶段出现的pb限制问题,新版本的bladedisc应该只有在tf圈图后导出子图编译时会使用pb,bladedisc编译完成后结果不会用pb来存储。这种情况下原始的pb应该就超过的2GB?(如果子图就超过了的话),一种可能的workaround方式时不freeze graph,这样const就不会被编译。另外老版本的bladedisc会使用pb来存储一部分编译后的结果,这个也会有可能超过2GB的限制,如果是这个问题,升级bladedisc应该可以解决。这个定位到是有一个input维度很大,超过了2g的限制,这个有好的处理方式吗?原生tf跑是没问题的

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
=====这是一个广告位,招租中,联系qq 78315851====