tongchenkeji 发表于:2023-2-10 9:24:310次点击 已关注取消关注 关注 私信 想请教一下,启动的flink on k8s , 报这个错, 加入那个hadoop-common[阿里云实时计算 Flink版] 暂停朗读为您朗读 想请教一下,启动的flink on k8s , 报这个错, 加入那个hadoop-common jar 还是不行 「点点赞赏,手留余香」 赞赏 还没有人赞赏,快来当第一个赞赏的人吧! 海报 实时计算Flink版# Kubernetes381# 实时计算 Flink版3179# 容器895# 容器服务Kubernetes版597# 流计算2236
游客jf4vaiexvjb4uAM 2023-11-27 18:24:20 1 因为版本问题,flink没有提供flink-shaded-hadoop-*的jar包,需要自己手动添加。 在flink lib中加入flink-shaded-hadoop-2-uber-2.8.3-10.0 jar包。
魏红斌AM 2023-11-27 18:24:20 2 因为版本问题,flink没有提供flink-shaded-hadoop-*的jar包,需要自己手动添加。 在flink lib中加入flink-shaded-hadoop-2-uber-2.8.3-10.0 jar包。
飘飘斯嘉丽AM 2023-11-27 18:24:20 3 可以在flink lib下添加flink-shaded-hadoop.jar试试 此答案来自钉钉群“【2】Apache Flink China 社区”
因为版本问题,flink没有提供flink-shaded-hadoop-*的jar包,需要自己手动添加。 在flink lib中加入flink-shaded-hadoop-2-uber-2.8.3-10.0 jar包。
因为版本问题,flink没有提供flink-shaded-hadoop-*的jar包,需要自己手动添加。 在flink lib中加入flink-shaded-hadoop-2-uber-2.8.3-10.0 jar包。
可以在flink lib下添加flink-shaded-hadoop.jar试试
此答案来自钉钉群“【2】Apache Flink China 社区”