手把手教你掌握SeaTunnel k8s运行Zeta引擎本地模式的技巧
转载自小虾米0.0
导读:随着Kubernetes的普及和发展,越来越多的企业和团队开始使用Kubernetes来管理和部署应用程序。然而,Kubernetes的默认工作方式可能不是最佳的选择,尤其是在需要更高效、更可靠的应用程序部署和管理能力时。因此,SeaTunnel提供了一种运行Zeta引擎(local-mode模式)的方法,可以让Kubernetes在本地运行Zeta引擎,实现更高效的应用程序部署和管理。在本文中,我们将探索SeaTunnel k8s运行zeta引擎(local-mode模式)的更多信息,了解如何更好地利用Zeta引擎的优势。
运行
- 将SeaTunnel上传至服务器上。我之前已经解压并执行过install-plugin.sh,这里为了方便,我直接用的执行过install-plugin.sh脚本之后的seatunnel做演示。
执行过install-plugin后的lib目录包含如下
tar -zxvf apache-seatunnel-2.3.3-bin.tar.gz sh apache-seatunnel-2.3.3/bin/install-plugin.sh tar -czvf apache-seatunnel-2.3.3-bin.tar.gz apache-seatunnel-2.3.3
- 构建SeaTunnel镜像。在安装seatunnel的同级文件夹下创建Dockerfile。配置如下,可自行选择版本
FROM openjdk:8 ENV SEATUNNEL_VERSION="2.3.3" COPY /apache-seatunnel-${SEATUNNEL_VERSION}-bin.tar.gz /opt/apache-seatunnel-${SEATUNNEL_VERSION}-bin.tar.gz WORKDIR /opt RUN tar -xzvf apache-seatunnel-${SEATUNNEL_VERSION}-bin.tar.gz RUN mv apache-seatunnel-${SEATUNNEL_VERSION} seatunnel RUN rm -f /opt/apache-seatunnel-${SEATUNNEL_VERSION}-bin.tar.gz WORKDIR /opt/seatunnel
执行命令
docker build -t seatunnel:2.3.3 -f Dockerfile.
- 查看镜像
docker images
如下所示镜像
- 将镜像load进k8s,这里用的minikube做演示
minikube image load seatunnel:2.3.3
minikube image ls
查看镜像
- 创建seatunnel.streaming.conf 如下所示
env { execution.parallelism = 1 job.mode = "STREAMING" checkpoint.interval = 2000 } source { FakeSource { result_table_name = "fake" row.num = 160000 schema = { fields { name = "string" age = "int" } } } } transform { } sink { Console {} }
- 创建configmap
kubectl create cm seatunnel-config \ --from-file=seatunnel.streaming.conf=seatunnel.streaming.conf
- 创建seatunnel.yaml如下示例
apiVersion: v1 kind: Pod metadata: name: seatunneltest spec: containers: - name: seatunnel image: seatunnel:2.3.3 command: ["/bin/sh","-c","/opt/seatunnel/bin/seatunnel.sh --config /data/seatunnel.streaming.conf -e local"] volumeMounts: - name: seatunnel-config mountPath: /data/seatunnel.streaming.conf subPath: seatunnel.streaming.conf volumes: - name: seatunnel-config configMap: name: seatunnel-config items: - key: seatunnel.streaming.conf path: seatunnel.streaming.conf ~
执行
kubectl apply -f seatunnel.yaml
查看pod结果如下
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
原文链接:https://blog.csdn.net/weixin_41854429/article/details/132619265
本文由 白鲸开源科技 提供发布支持!

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
开源日报 |大语言模型先知;全球AI发明专利,中国遥遥领先;iPhone能跑的ChatGPT级开源模型;三十年,互联网失去梦想?
欢迎阅读 OSCHINA 编辑部出品的开源日报,每天更新一期。 # 2024.4.23 今日要点 中国联通发布全球首个 Llama3 8B 中文版开源模型 中国联通 AI 创新中心发布业界第一个 Llama 3 中文指令微调模型,以 Meta Llama 3 为基础,增加中文数据进行训练,实现 Llama 3 模型高质量中文问答,模型上下文保持原生长度 8K,支持长度 64K 版本将于后续发布。 地址:UnicomLLM/Unichat-llama3-Chinese-8B “上网就能“生产能源”的浏览器,这你受得了吗? 搜索引擎公司 Ecosia为迎接世界地球日推出了同名浏览器 —— 基于 Chromium 创建、内置广告拦截器、优化运行速度,声称加载网页的速度 " 比大多数主流浏览器快三倍,此外还通过阻止跟踪器来保护用户的隐私。 不过,Ecosia 浏览器的主要卖点还是它的环保特性,其制造商表示会将从浏览器赚取的利润用于资助植树项目(它提供赞助商链接,可以购买各种品牌的产品,从而获得广告以外的现金流)。这一理念与十多年前推出的 Ecosia 搜索引擎相似。 Ecosia 投资建设了太...
- 下一篇
本地环境运行Llama 3大型模型:可行性与实践指南
简介: Llama 是由 Meta(前身为 Facebook)的人工智能研究团队开发并开源的大型语言模型(LLM),它对商业用途开放,对整个人工智能领域产生了深远的影响。继之前发布的、支持4096个上下文的Llama 2模型之后,Meta 进一步推出了性能更卓越的 Meta Llama 3系列语言模型,包括一个8B(80亿参数)模型和一个70B(700亿参数)模型。Llama 3 70B 的性能媲美 Gemini 1.5 Pro,全面超越 Claude 大杯,而 400B+ 的模型则有望与 Claude 超大杯和新版 GPT-4 Turbo 掰手腕 在各种测试基准中,Llama 3系列模型展现了其卓越的性能,它们在实用性和安全性评估方面与市场上其他流行的闭源模型相媲美,甚至在某些方面有所超越。Meta Llama 3系列的发布,不仅巩固了其在大型语言模型领域的竞争地位,而且为研究人员、开发者和企业提供了强大的工具,以推动语言理解和生成技术的进一步发展。 项目地址: https://github.com/meta-llama/llama3 llama2和llama3的差异 llama3和...
相关文章
文章评论
共有0条评论来说两句吧...