首页 文章 精选 留言 我的

精选列表

搜索[镜像无法拉取],共10000篇文章
优秀的个人博客,低调大师

🔥代码流程引擎 FlowLong 飞龙 1.1.18 发布

开源地址:https://gitee.com/aizuda/flowlong 开源地址:https://github.com/aizuda/flowlong 官网文档:https://flowlong.aizuda.com 支持全流程操作监听,仅 8 张表实现整个流程引擎(更符合中国人的思维模式设计),截至当前近 300 家企业自用登记接入使用。300 多家企业包括,国家计算中心,电信 等国企已上车,你还在等什么呢? Flowlong 1.1.18 主要更新内容 feat: 新增支持流程审批完成情况撤销 feat: 新增支持执行任务参数传递子流程 opt: 优化跳转触发器执行逻辑 opt: 优化支持拿回多分支任务情况 opt: 优化实例保存计算结束时间问题 opt: 优化唤醒逻辑根据模型重新创建任务 fixed: 修复跳转普通节点任务类型设置问题 fixed: 修复并行分支包容分支加签异常问题 fixed: 修复并行分支下的主干节点加签问题 fixed: 修复rejectJump重新审批回到上一个节点策略失效问题 可视化流程审批效果如下:

优秀的个人博客,低调大师

🔥代码流程引擎 FlowLong 飞龙 1.1.17 发布

开源地址:https://gitee.com/aizuda/flowlong 开源地址:https://github.com/aizuda/flowlong 官网文档:https://flowlong.aizuda.com 支持全流程操作监听,仅 8 张表实现整个流程引擎(更符合中国人的思维模式设计),截至当前近 300 家企业自用登记接入使用。300 多家企业包括,国家计算中心,电信 等国企已上车,你还在等什么呢? 开源登记使用名单如下,企业版用户暂不公开 https://gitee.com/aizuda/flowlong/issues/IB5K4V Flowlong 1.1.17 主要亮点 feat: 新增支持节点跳入跳出至触发器 feat: 新增支持嵌套条件路由前置加签 opt: 优化允许发起人撤回审批为草稿状态 opt: 优化增强拿回逻辑错误断言 opt: 优化调整通知查询任务逻辑条件 opt: 优化注释修改更新任务ID通知任务对象获取方式 fixed: 修复 issues/ICW7I7 会签参数历史任务传递 bug 开源版本具备企业版所有功能(除了可视化),企业版可视化部分界面展示如下:

优秀的个人博客,低调大师

🔥代码流程引擎 FlowLong 飞龙 1.1.16 发布

开源地址:https://gitee.com/aizuda/flowlong 开源地址:https://github.com/aizuda/flowlong 官网文档:https://flowlong.aizuda.com 支持全流程操作监听,仅 8 张表实现整个流程引擎(更符合中国人的思维模式设计),截至当前近 300 家企业自用登记接入使用。300 多家企业包括,国家计算中心,电信 等国企已上车,你还在等什么呢? 开源登记使用名单如下,企业版用户暂不公开 https://gitee.com/aizuda/flowlong/issues/IB5K4V Flowlong 1.1.16 主要亮点 feat: 新增支持最大任务提醒次数 feat: 新增任务参与者实体类转换为流程创建者方法 feat: 新增任务分配事件拆分为代理委派转办事件 feat: 新增模型判断检测指定成员审批(未配置处理人员)节点信息 opt: 执行任务支持归档参数至历史任务 opt: SQL脚本字段注释内容补充 fixed: 修复超时自动审批设置为自动结束时不触发事件问题 开源版本具备企业版所有功能(除了可视化),企业版可视化部分界面展示如下:

优秀的个人博客,低调大师

领域数据视图化和代码设计原理

前言 本文主要讨论了问卷业务抽象和数据视图化表达在问卷设计中的重要性。通过分析问卷领域特性和设计原理,提出了问题消解复杂性、题型物料化和渲染统一等设计框架,以实现高效、灵活的问卷平台。最终目的是为问卷设计、数据收集和分析提供有益的启示和指导,提高问卷调查的效率和准确性。 文内项目Github:XIAOJUSURVEY 作者:skique 发表于:前端早读课 背景 我们深知问卷调查在各个领域中的重要性以及传统问卷调查方法的局限性。因此,有必要开发一种高效、灵活的问卷平台,以满足不同用户的需求,并提高问卷调查的效率和准确性。 为了更好地满足调研需求,提高数据收集、分析和表达的效率,本文将从业务抽象、数据视图化表达等方面出发,分析问卷领域的特性,探讨设计一套满足问卷领域搭建方案的架构。我们希望通过本文的讨论,为问卷平台的设计与开发提供一些有益的启示和指导。 问卷业务抽象 这还要从问卷业务抽象开始说起,设计问卷的目的是为了回收数据,而回收数据则是为了提供数据支持进行分析。 问卷通常需要经历几个阶段,包括设计、发布、投放、回收和分析。为了更好地理解和处理问卷调查的相关业务,我们可以将问卷领域拆分为三个子领域,分别是问卷设计域、问卷回收域和问卷分析域。 问卷设计域负责创建问卷并发布问卷,回收域负责收集数据,分析域负责对收集到的数据进行统计分析和洞察。在整个过程中,数据的流动是核心,从设计到回收再到分析,数据始终贯穿其中,为用户提供重要的信息和决策依据。 业务视角到技术视角的映射,将主体聚焦到数据,设计域关注的是问卷的数据的 schema 设计,回收领域关注的是数据的采集,分析领域关注的是数据的分析: 抽象为三个方面: 1、数据的表达(模型设计) 问卷的模型设计涉及到定义问题、选项、逻辑关系等信息的结构和格式,以确保问卷的完整性和准确性。通过设计合适的数据模型,我们能够清晰地描述问卷的结构和逻辑,为后续的数据采集和分析提供基础。 2、数据的流动(服务插拔) 通过设计灵活的服务插拔机制,可以自定义引入敏感词过滤,问卷发布审批等安全插件,保证数据流动的安全合规性 3、数据的交互(界面设计) 解决数据到界面的最后一公里,界面设计是一个产品的载体,因为产品最终是面向用户角色,如何让用户体验更好、用户体验贯穿业务核心流程,提高创编收发过程的整体效率 综上所述,在问卷领域的整体业务抽象模型中,数据的交互是一个非常重要的方面,以下的讨论将聚焦在数据的交互上,即数据的视图化表达。 数据的交互 在数据流动图的基础上考虑以下两点: 1、谁操作数据的交互? 2、通过何种方式操作数据的交互? 数据的交互主要发生在设计域和回收域,面向调研者和调研对象分别引入搭建器和渲染器用于数据的交互。 对问卷进一步抽象,题型的目的是为了高效率的收集数据,也就是题型是数据的模具,题型和数据的关系,好比杯子和水,杯子设计出来是为了盛水。 所以问卷设计领域的搭建器是数据容器的工厂,题型是数据模具的表现形式,题型配置的是数据容器的约束方式,而问卷回收领域的渲染端的数据交互的核心是面向调研用户的的答题过程,才是真正盛满水的过程。 问卷领域特性 问卷结构解构 问卷的组成:是由控件到题型到表单到问卷,一层一层扩展而来,其中控件是区分题型的关键要素,也就是说什么类型的控件对应什么类型的题型,是一一对应的关系。 题型 = 标题 + 控件 表单 = n 个题型,n >= 1 问卷 = 欢迎语 + n 个表单 + 提交按钮,不考虑分页的情况,n = 1 问卷配置解构 按照作用方式分为两类: 1、定义界面显示,如显示序号、显示类型、显示分割线等、评分样式、引导提示文案 2、约束交互行为,如必填、输入限制、最多 / 最少选择、如必填、校验格式等等 按照作用范围分为五类: 1、作用在控件上,如输入限制,最多选择引导提示文案 2、作用在题型上,如显示序号、显示类型、显示分割线等 3、作用在表单上,如必填,最少选择、内容格式校验 4、作用在问卷上,如答题时长、答题次数等等 5、还有一类作用在数据适配上 静态的数据适配:在渲染器前进行的数据适配,如选项随机,选项分组等等 动态的数据适配:需要在答题过程中,根据用户选择的答案动态响应的配置,如标题 / 选项引用、跳转逻辑、显示逻辑等 问题是什么? 题目是问卷最核心和基础的组成部分,而复杂繁多的调研目的要求问卷内容高度灵活,这对题型的多样性和可用性提出了极高的要求。 分析实际使用,问卷搭建端和问卷渲染端既存在共通性也存在差异性,这在题型上呈现了类似于复杂笛卡尔积的结构。 如何在数据视图化设计中管理三维笛卡尔积的复杂性呢? 也许系统的混乱并非业务本身之复杂,而是我们并不擅长处理『简单』,如何 “化繁为简”? 将目标系统按某个原则进行切分,切分的原则,是要便于不同的角色进行并行工作。通过合理的分解和抽象,使那些系统不再那么难懂。 如何消解复杂性 题型物料化 为了保障预览实时性和渲染一致性,提升题型的多状态管理能力,并降低题型设计的复杂性和成本、提升题型扩展的灵活性,采用题型物料化的设计思路。 抽离题型控件沉淀物料层,物料分层化设计: 分类型抽离通用逻辑沉淀为基础物料,以降低具体业务逻辑对这些基础物料的依赖。 不同题型物料基于相应类型的基础物料进行扩展,实现特定业务逻辑以做到题型隔离。 渲染统一 题型物料沉淀后由统一的题型组件提供搭建端和渲染端的题型渲染,那么如何满足不同场景下的题型侧重点呢?比如搭建端关注题型编排能力,渲染端关注题型填写选中和校验方面。 搭建端通过组件切面设计:通过插槽机制,搭建端可自定义题型包裹组件以实现题型编排的辅助功能,避免侵入式对题型组件做出修改。 渲染端通过构建渲染环境提供 form 组件包裹题型组件,在组件内管理了所有的表单项,即 fields 管理。实现了 addField 和 removeField 的方法,用于增加 / 删除表单项校验,通过 provide 将整个组件实例提供给题型组件,使得题型组件的有表单规则校验的能力。 通过这种方式将题型的场景维度消解。 配置管理 在上述的物料化方案满足渲染统一后,怎么做配置管理呢? 搭建端引入设置器满足题型编排配置修改的能力。 渲染端引入题型 hooks 满足题型配置生效的能力,将各个题型配置解耦,抽象为相对集中的代码片段,Hooks 可以让我们组织更加内聚的逻辑单元。 设计框架 问卷物料设计 如图所示,问卷维护的物料类型可以分为三类: 1、Component 题型组件 = 标题 + 题型控件,响应分发到题的配置变化,完成数据采集能力。 2、Setter 设置器,提供对题型组件的配置进行更改的能力。 3、Hooks 题型 hooks,对应渲染端响应题型配置的代码片段 or 函数功能,举个例子,搭建端开启选项分组这一配置,渲染器需要响应这一配置,在渲染页面时运行对应的选项分组函数。 这三类物料之间是什么关系,通过什么关联起来? 题型描述协议,即定义题型描述的数据结构,采用配置化方案约束该题型 schema 结构,单个 schema 字段关联的设置器以及题型 hooks 函数。 搭建器设计 通过上面的问卷物料设计,我们维护一系列题型的物料集合,这些物料如何流入到搭建器?通过配置资源描述协议,这份协议规定了该搭建器加载哪些题型,可供组件面板选择。可用于题型画布搭建渲染。每个物料关联了设置器,加载并渲染设置器,设置器提供对题型配置修改和更新的能力。 渲染器设计 渲染器的核心是题型渲染和题型配置响应,问卷平台的题型可配置功能既然是对多个题型整体生效,是否我们可以引入渲染环境这个概念,渲染端题型功能交互依赖于渲染环境,渲染环境解析 schema,提供对题型整体关系的管理,实现如下功能: 统一的数据适配器,实现如题目序号、选项随机、默认选中第一项等功能 动态的视图数据处理,如标题引用、选项引用、显示逻辑、跳转逻辑等功能。基于交互变化动态加工数据 渲染器提供渲染环境,解析 schema, 将 schema 配置分发到渲染环境 (实现) or 分发到题,加载对应的题型和对应的题型 hooks,渲染答题页面。 写在最后 关于题型组件、设置器组件、题型 hooks 和题型描述协议以及资源描述协议的详细设计,后期会陆续推出相关文章更具体的论述,本文只做统领性的探讨,可通过github项目官方群一起交流讨论。 关于我们 感谢看到最后,我们是一个多元、包容的社区,我们已有非常多的小伙伴在共建,欢迎你的加入。 Github:XIAOJUSURVEY Star 开源不易,请star 一下 ❤️❤️❤️,你的支持是我们最大的动力。

优秀的个人博客,低调大师

依赖单机尝鲜 Nebula Exchange 的 SST 导入

本文尝试分享下以最小方式(单机、容器化 Spark、Hadoop、Nebula Graph),快速趟一下 Nebula Exchange 中 SST 写入方式的步骤。本文适用于 v2.5 以上版本的 Nebula- Exchange。 原文链接: 国外访问:https://siwei.io/nebula-exchange-sst-2.x/ 国内访问:https://cn.siwei.io/nebula-exchange-sst-2.x/ 什么是 Nebula Exchange? 之前我在 Nebula Data Import Options 之中介绍过,Nebula Exchange 是一个 Nebula Graph 社区开源的 Spark Applicaiton,它专门用来支持批量或者流式地把数据导入 Nebula Graph Database 之中。 Nebula Exchange 支持多种多样的数据源(从 Apache Parquet、ORC、JSON、CSV、HBase、Hive MaxCompute 到 Neo4j、MySQL、ClickHouse,再有 Kafka、Pulsar,更多的数据源也在不断增加之中)。 如上图所示,在 Exchange 内部,从除了不同 Reader 可以读取不同数据源之外,在数据经过 Processor 处理之后通过 Writer写入(sink) Nebula Graph 图数据库的时候,除了走正常的 ServerBaseWriter 的写入流程之外,它还可以绕过整个写入流程,利用 Spark 的计算能力并行生成底层 RocksDB 的 SST 文件,从而实现超高性能的数据导入,这个 SST 文件导入的场景就是本文带大家上手熟悉的部分。 详细信息请参阅:Nebula Graph 手册:什么是 Nebula Exchange Nebula Graph 官方博客也有更多 Nebula Exchange 的实践文章 步骤概观 实验环境 配置 Exchange 生成 SST 文件 写入 SST 文件到 Nebula Graph 实验环境准备 为了最小化使用 Nebula Exchange 的 SST 功能,我们需要: 搭建一个 Nebula Graph 集群,创建导入数据的 Schema,我们选择使用 Docker-Compose 方式、利用 Nebula-Up 快速部署,并简单修改其网络,以方便同样容器化的 Exchange 程序对其访问。 搭建容器化的 Spark 运行环境 搭建容器化的 HDFS 1. 搭建 Nebula Graph 集群 借助于 Nebula-Up 我们可以在 Linux 环境下一键部署一套 Nebula Graph 集群: curl -fsSL nebula-up.siwei.io/install.sh | bash 待部署成功之后,我们需要对环境做一些修改,这里我做的修改其实就是两点: 只保留一个 metaD 服务 起用 Docker 的外部网络 详细修改的部分参考附录一 应用 docker-compose 的修改: cd ~/.nebula-up/nebula-docker-compose vim docker-compose.yaml # 参考附录一 docker network create nebula-net # 需要创建外部网络 docker-compose up -d --remove-orphans 之后,我们来创建要测试的图空间,并创建图的 Schema,为此,我们可以利用 nebula-console ,同样,Nebula-Up 里自带了容器化的 nebula-console。 进入 Nebula-Console 所在的容器 ~/.nebula-up/console.sh / # 在 console 容器里发起链接到图数据库,其中 192.168.x.y 是我所在的 Linux VM 的第一个网卡地址,请换成您的 / # nebula-console -addr 192.168.x.y -port 9669 -user root -p password [INFO] connection pool is initialized successfully Welcome to Nebula Graph! 创建图空间(我们起名字叫 sst ),以及 schema create space sst(partition_num=5,replica_factor=1,vid_type=fixed_string(32)); :sleep 20 use sst create tag player(name string, age int); 示例输出 (root@nebula) [(none)]> create space sst(partition_num=5,replica_factor=1,vid_type=fixed_string(32)); Execution succeeded (time spent 1468/1918 us) (root@nebula) [(none)]> :sleep 20 (root@nebula) [(none)]> use sst Execution succeeded (time spent 1253/1566 us) Wed, 18 Aug 2021 08:18:13 UTC (root@nebula) [sst]> create tag player(name string, age int); Execution succeeded (time spent 1312/1735 us) Wed, 18 Aug 2021 08:18:23 UTC 2. 搭建容器化的 Spark 环境 利用 big data europe 做的工作,这个过程非常容易。 值得注意的是: 现在的 Nebula Exchange 对 Spark 的版本有要求,在现在的 2021 年 8 月,我是用了 spark-2.4.5-hadoop-2.7 的版本。 为了方便,我让 Spark 运行在 Nebula Graph 相同的机器上,并且指定了运行在同一个 Docker 网络下 docker run --name spark-master --network nebula-net \ -h spark-master -e ENABLE_INIT_DAEMON=false -d \ bde2020/spark-master:2.4.5-hadoop2.7 然后,我们就可以进入到环境中了: docker exec -it spark-master bash 进到 Spark 容器中之后,可以像这样安装 maven: export MAVEN_VERSION=3.5.4 export MAVEN_HOME=/usr/lib/mvn export PATH=$MAVEN_HOME/bin:$PATH wget http://archive.apache.org/dist/maven/maven-3/$MAVEN_VERSION/binaries/apache-maven-$MAVEN_VERSION-bin.tar.gz && \ tar -zxvf apache-maven-$MAVEN_VERSION-bin.tar.gz && \ rm apache-maven-$MAVEN_VERSION-bin.tar.gz && \ mv apache-maven-$MAVEN_VERSION /usr/lib/mvn 还可以这样在容器里下载 nebula-exchange 的 jar 包: cd ~ wget https://repo1.maven.org/maven2/com/vesoft/nebula-exchange/2.1.0/nebula-exchange-2.1.0.jar 3. 搭建容器化的 HDFS 同样借助 big-data-euroupe 的工作,这非常简单,不过我们要做一点修改,让它的 docker-compose.yml 文件里使用 nebula-net 这个之前创建的 Docker 网络。 详细修改的部分参考附录二 git clone https://github.com/big-data-europe/docker-hadoop.git cd docker-hadoop vim docker-compose.yml docker-compose up -d 配置 Exchange 这个配置主要填入的信息就是 Nebula Graph 集群本身和将要写入数据的 Space Name,以及数据源相关的配置(这里我们用 csv 作为例子),最后再配置输出(sink)为 sst Nebula Graph GraphD 地址 MetaD 地址 credential Space Name 数据源 source: csv path fields etc. ink: sst 详细的配置参考附录二 注意,这里 metaD 的地址可以这样获取,可以看到 0.0.0.0:49377->9559 表示 49377 是外部的地址。 $ docker ps | grep meta 887740c15750 vesoft/nebula-metad:v2.0.0 "./bin/nebula-metad …" 6 hours ago Up 6 hours (healthy) 9560/tcp, 0.0.0.0:49377->9559/tcp, :::49377->9559/tcp, 0.0.0.0:49376->19559/tcp, :::49376->19559/tcp, 0.0.0.0:49375->19560/tcp, :::49375->19560/tcp nebula-docker-compose_metad0_1 生成 SST 文件 1. 准备源文件、配置文件 docker cp exchange-sst.conf spark-master:/root/ docker cp player.csv spark-master:/root/ 其中 player.csv 的例子: 1100,Tim Duncan,42 1101,Tony Parker,36 1102,LaMarcus Aldridge,33 1103,Rudy Gay,32 1104,Marco Belinelli,32 1105,Danny Green,31 1106,Kyle Anderson,25 1107,Aron Baynes,32 1108,Boris Diaw,36 1109,Tiago Splitter,34 1110,Cory Joseph,27 1111,David West,38 2. 执行 exchange 程序 进入 spark-master 容器,提交执行 exchange 应用。 docker exec -it spark-master bash cd /root/ /spark/bin/spark-submit --master local \ --class com.vesoft.nebula.exchange.Exchange nebula-exchange-2.1.0.jar\ -c exchange-sst.conf 检查执行结果: spark-submit 输出: 21/08/17 03:37:43 INFO TaskSetManager: Finished task 31.0 in stage 2.0 (TID 33) in 1093 ms on localhost (executor driver) (32/32) 21/08/17 03:37:43 INFO TaskSchedulerImpl: Removed TaskSet 2.0, whose tasks have all completed, from pool 21/08/17 03:37:43 INFO DAGScheduler: ResultStage 2 (foreachPartition at VerticesProcessor.scala:179) finished in 22.336 s 21/08/17 03:37:43 INFO DAGScheduler: Job 1 finished: foreachPartition at VerticesProcessor.scala:179, took 22.500639 s 21/08/17 03:37:43 INFO Exchange$: SST-Import: failure.player: 0 21/08/17 03:37:43 WARN Exchange$: Edge is not defined 21/08/17 03:37:43 INFO SparkUI: Stopped Spark web UI at http://spark-master:4040 21/08/17 03:37:43 INFO MapOutputTrackerMasterEndpoint: MapOutputTrackerMasterEndpoint stopped! 验证 HDFS 上生成的 SST 文件: docker exec -it namenode /bin/bash root@2db58903fb53:/# hdfs dfs -ls /sst Found 10 items drwxr-xr-x - root supergroup 0 2021-08-17 03:37 /sst/1 drwxr-xr-x - root supergroup 0 2021-08-17 03:37 /sst/10 drwxr-xr-x - root supergroup 0 2021-08-17 03:37 /sst/2 drwxr-xr-x - root supergroup 0 2021-08-17 03:37 /sst/3 drwxr-xr-x - root supergroup 0 2021-08-17 03:37 /sst/4 drwxr-xr-x - root supergroup 0 2021-08-17 03:37 /sst/5 drwxr-xr-x - root supergroup 0 2021-08-17 03:37 /sst/6 drwxr-xr-x - root supergroup 0 2021-08-17 03:37 /sst/7 drwxr-xr-x - root supergroup 0 2021-08-17 03:37 /sst/8 drwxr-xr-x - root supergroup 0 2021-08-17 03:37 /sst/9 写入 SST 到 Nebula Graph 这里的操作实际上都是参考文档:SST 导入,得来。其中就是从 console 之中执行了两步操作: Download Ingest 其中 Download 实际上是触发 Nebula Graph 从服务端发起 HDFS Client 的 download,获取 HDFS 上的 SST 文件,然后放到 storageD 能访问的本地路径下,这里,需要我们在服务端部署 HDFS 的依赖。因为我们是最小实践,我就偷懒手动做了这个 Download 的操作。 1. 手动下载 这里边手动下载我们就要知道 Nebula Graph 服务端下载的路径,实际上是 /data/storage/nebula/<space_id>/download/,这里的 Space ID 需要手动获取一下: 这个例子里,我们的 Space Name 是 sst,而 Space ID 是 49。 (root@nebula) [sst]> DESC space sst +----+-------+------------------+----------------+---------+------------+--------------------+-------------+-----------+ | ID | Name | Partition Number | Replica Factor | Charset | Collate | Vid Type | Atomic Edge | Group | +----+-------+------------------+----------------+---------+------------+--------------------+-------------+-----------+ | 49 | "sst" | 10 | 1 | "utf8" | "utf8_bin" | "FIXED_STRING(32)" | "false" | "default" | +----+-------+------------------+----------------+---------+------------+--------------------+-------------+-----------+ 于是,下边的操作就是手动把 SST 文件从 HDFS 之中 get 下来,再拷贝到 storageD 之中。 docker exec -it namenode /bin/bash $ hdfs dfs -get /sst /sst exit docker cp namenode:/sst . docker exec -it nebula-docker-compose_storaged0_1 mkdir -p /data/storage/nebula/49/download/ docker exec -it nebula-docker-compose_storaged1_1 mkdir -p /data/storage/nebula/49/download/ docker exec -it nebula-docker-compose_storaged2_1 mkdir -p /data/storage/nebula/49/download/ docker cp sst nebula-docker-compose_storaged0_1:/data/storage/nebula/49/download/ docker cp sst nebula-docker-compose_storaged1_1:/data/storage/nebula/49/download/ docker cp sst nebula-docker-compose_storaged2_1:/data/storage/nebula/49/download/ 2. SST 文件导入 进入 Nebula-Console 所在的容器 ~/.nebula-up/console.sh / # 在 console 容器里发起链接到图数据库,其中 192.168.x.y 是我所在的 Linux VM 的第一个网卡地址,请换成您的 / # nebula-console -addr 192.168.x.y -port 9669 -user root -p password [INFO] connection pool is initialized successfully Welcome to Nebula Graph! 执行 INGEST 开始让 StorageD 读取 SST 文件 (root@nebula) [(none)]> use sst (root@nebula) [sst]> INGEST; 我们可以用如下方法实时查看 Nebula Graph 服务端的日志 tail -f ~/.nebula-up/nebula-docker-compose/logs/*/* 成功的 INGEST 日志: I0817 08:03:28.611877 169 EventListner.h:96] Ingest external SST file: column family default, the external file path /data/storage/nebula/49/download/8/8-6.sst, the internal file path /data/storage/nebula/49/data/000023.sst, the properties of the table: # data blocks=1; # entries=1; # deletions=0; # merge operands=0; # range deletions=0; raw key size=48; raw average key size=48.000000; raw value size=40; raw average value size=40.000000; data block size=75; index block size (user-key? 0, delta-value? 0)=66; filter block size=0; (estimated) table size=141; filter policy name=N/A; prefix extractor name=nullptr; column family ID=N/A; column family name=N/A; comparator name=leveldb.BytewiseComparator; merge operator name=nullptr; property collectors names=[]; SST file compression algo=Snappy; SST file compression options=window_bits=-14; level=32767; strategy=0; max_dict_bytes=0; zstd_max_train_bytes=0; enabled=0; ; creation time=0; time stamp of earliest key=0; file creation time=0; E0817 08:03:28.611912 169 StorageHttpIngestHandler.cpp:63] SSTFile ingest successfully 附录 附录一 docker-compose.yaml diff --git a/docker-compose.yaml b/docker-compose.yaml index 48854de..cfeaedb 100644 --- a/docker-compose.yaml +++ b/docker-compose.yaml @@ -6,11 +6,13 @@ services: USER: root TZ: "${TZ}" command: - - --meta_server_addrs=metad0:9559,metad1:9559,metad2:9559 + - --meta_server_addrs=metad0:9559 - --local_ip=metad0 - --ws_ip=metad0 - --port=9559 - --ws_http_port=19559 + - --ws_storage_http_port=19779 - --data_path=/data/meta - --log_dir=/logs - --v=0 @@ -34,81 +36,14 @@ services: cap_add: - SYS_PTRACE - metad1: - image: vesoft/nebula-metad:v2.0.0 - environment: - USER: root - TZ: "${TZ}" - command: - - --meta_server_addrs=metad0:9559,metad1:9559,metad2:9559 - - --local_ip=metad1 - - --ws_ip=metad1 - - --port=9559 - - --ws_http_port=19559 - - --data_path=/data/meta - - --log_dir=/logs - - --v=0 - - --minloglevel=0 - healthcheck: - test: ["CMD", "curl", "-sf", "http://metad1:19559/status"] - interval: 30s - timeout: 10s - retries: 3 - start_period: 20s - ports: - - 9559 - - 19559 - - 19560 - volumes: - - ./data/meta1:/data/meta - - ./logs/meta1:/logs - networks: - - nebula-net - restart: on-failure - cap_add: - - SYS_PTRACE - - metad2: - image: vesoft/nebula-metad:v2.0.0 - environment: - USER: root - TZ: "${TZ}" - command: - - --meta_server_addrs=metad0:9559,metad1:9559,metad2:9559 - - --local_ip=metad2 - - --ws_ip=metad2 - - --port=9559 - - --ws_http_port=19559 - - --data_path=/data/meta - - --log_dir=/logs - - --v=0 - - --minloglevel=0 - healthcheck: - test: ["CMD", "curl", "-sf", "http://metad2:19559/status"] - interval: 30s - timeout: 10s - retries: 3 - start_period: 20s - ports: - - 9559 - - 19559 - - 19560 - volumes: - - ./data/meta2:/data/meta - - ./logs/meta2:/logs - networks: - - nebula-net - restart: on-failure - cap_add: - - SYS_PTRACE - storaged0: image: vesoft/nebula-storaged:v2.0.0 environment: USER: root TZ: "${TZ}" command: - - --meta_server_addrs=metad0:9559,metad1:9559,metad2:9559 + - --meta_server_addrs=metad0:9559 - --local_ip=storaged0 - --ws_ip=storaged0 - --port=9779 @@ -119,8 +54,8 @@ services: - --minloglevel=0 depends_on: - metad0 - - metad1 - - metad2 healthcheck: test: ["CMD", "curl", "-sf", "http://storaged0:19779/status"] interval: 30s @@ -146,7 +81,7 @@ services: USER: root TZ: "${TZ}" command: - - --meta_server_addrs=metad0:9559,metad1:9559,metad2:9559 + - --meta_server_addrs=metad0:9559 - --local_ip=storaged1 - --ws_ip=storaged1 - --port=9779 @@ -157,8 +92,8 @@ services: - --minloglevel=0 depends_on: - metad0 - - metad1 - - metad2 healthcheck: test: ["CMD", "curl", "-sf", "http://storaged1:19779/status"] interval: 30s @@ -184,7 +119,7 @@ services: USER: root TZ: "${TZ}" command: - - --meta_server_addrs=metad0:9559,metad1:9559,metad2:9559 + - --meta_server_addrs=metad0:9559 - --local_ip=storaged2 - --ws_ip=storaged2 - --port=9779 @@ -195,8 +130,8 @@ services: - --minloglevel=0 depends_on: - metad0 - - metad1 - - metad2 healthcheck: test: ["CMD", "curl", "-sf", "http://storaged2:19779/status"] interval: 30s @@ -222,17 +157,19 @@ services: USER: root TZ: "${TZ}" command: - - --meta_server_addrs=metad0:9559,metad1:9559,metad2:9559 + - --meta_server_addrs=metad0:9559 - --port=9669 - --ws_ip=graphd - --ws_http_port=19669 + - --ws_meta_http_port=19559 - --log_dir=/logs - --v=0 - --minloglevel=0 depends_on: - metad0 - - metad1 - - metad2 healthcheck: test: ["CMD", "curl", "-sf", "http://graphd:19669/status"] interval: 30s @@ -257,17 +194,19 @@ services: USER: root TZ: "${TZ}" command: - - --meta_server_addrs=metad0:9559,metad1:9559,metad2:9559 + - --meta_server_addrs=metad0:9559 - --port=9669 - --ws_ip=graphd1 - --ws_http_port=19669 + - --ws_meta_http_port=19559 - --log_dir=/logs - --v=0 - --minloglevel=0 depends_on: - metad0 - - metad1 - - metad2 healthcheck: test: ["CMD", "curl", "-sf", "http://graphd1:19669/status"] interval: 30s @@ -292,17 +231,21 @@ services: USER: root TZ: "${TZ}" command: - - --meta_server_addrs=metad0:9559,metad1:9559,metad2:9559 + - --meta_server_addrs=metad0:9559 - --port=9669 - --ws_ip=graphd2 - --ws_http_port=19669 + - --ws_meta_http_port=19559 - --log_dir=/logs - --v=0 - --minloglevel=0 + - --storage_client_timeout_ms=60000 + - --local_config=true depends_on: - metad0 - - metad1 - - metad2 healthcheck: test: ["CMD", "curl", "-sf", "http://graphd2:19669/status"] interval: 30s @@ -323,3 +266,4 @@ services: networks: nebula-net: + external: true 附录二 https://github.com/big-data-europe/docker-hadoop 的 docker-compose.yml diff --git a/docker-compose.yml b/docker-compose.yml index ed40dc6..66ff1f4 100644 --- a/docker-compose.yml +++ b/docker-compose.yml @@ -14,6 +14,8 @@ services: - CLUSTER_NAME=test env_file: - ./hadoop.env + networks: + - nebula-net datanode: image: bde2020/hadoop-datanode:2.0.0-hadoop3.2.1-java8 @@ -25,6 +27,8 @@ services: SERVICE_PRECONDITION: "namenode:9870" env_file: - ./hadoop.env + networks: + - nebula-net resourcemanager: image: bde2020/hadoop-resourcemanager:2.0.0-hadoop3.2.1-java8 @@ -34,6 +38,8 @@ services: SERVICE_PRECONDITION: "namenode:9000 namenode:9870 datanode:9864" env_file: - ./hadoop.env + networks: + - nebula-net nodemanager1: image: bde2020/hadoop-nodemanager:2.0.0-hadoop3.2.1-java8 @@ -43,6 +49,8 @@ services: SERVICE_PRECONDITION: "namenode:9000 namenode:9870 datanode:9864 resourcemanager:8088" env_file: - ./hadoop.env + networks: + - nebula-net historyserver: image: bde2020/hadoop-historyserver:2.0.0-hadoop3.2.1-java8 @@ -54,8 +62,14 @@ services: - hadoop_historyserver:/hadoop/yarn/timeline env_file: - ./hadoop.env + networks: + - nebula-net volumes: hadoop_namenode: hadoop_datanode: hadoop_historyserver: + +networks: + nebula-net: + external: true 附录三 nebula-exchange-sst.conf { # Spark relation config spark: { app: { name: Nebula Exchange 2.1 } master:local driver: { cores: 1 maxResultSize: 1G } executor: { memory:1G } cores:{ max: 16 } } # Nebula Graph relation config nebula: { address:{ graph:["192.168.8.128:9669"] meta:["192.168.8.128:49377"] } user: root pswd: nebula space: sst # parameters for SST import, not required path:{ local:"/tmp" remote:"/sst" hdfs.namenode: "hdfs://192.168.8.128:9000" } # nebula client connection parameters connection { # socket connect & execute timeout, unit: millisecond timeout: 30000 } error: { # max number of failures, if the number of failures is bigger than max, then exit the application. max: 32 # failed import job will be recorded in output path output: /tmp/errors } # use google's RateLimiter to limit the requests send to NebulaGraph rate: { # the stable throughput of RateLimiter limit: 1024 # Acquires a permit from RateLimiter, unit: MILLISECONDS # if it can't be obtained within the specified timeout, then give up the request. timeout: 1000 } } # Processing tags # There are tag config examples for different dataSources. tags: [ # HDFS csv # Import mode is sst, just change type.sink to client if you want to use client import mode. { name: player type: { source: csv sink: sst } path: "file:///root/player.csv" # if your csv file has no header, then use _c0,_c1,_c2,.. to indicate fields fields: [_c1, _c2] nebula.fields: [name, age] vertex: { field:_c0 } separator: "," header: false batch: 256 partition: 32 } ] } 本文中如有任何错误或疏漏,欢迎去 GitHub:https://github.com/vesoft-inc/nebula issue 区向我们提 issue 或者前往官方论坛:https://discuss.nebula-graph.com.cn/ 的 建议反馈 分类下提建议 👏;交流图数据库技术?加入 Nebula 交流群请先填写下你的 Nebula 名片,Nebula 小助手会拉你进群~~

优秀的个人博客,低调大师

服务器框架 Serverless 发布 2.65.0 版本

Serverless发布了 2.65.0版本,该框架使用 AWS Lambda、Azure Functions、Google CloudFunctions 等技术,可以构建 Serverless 架构的 Web、移动和 IoT 应用。 特性 AWS Lambda: 为functions[].reservedConcurrency添加 CF 内在函数支持。(#10129) 允许使用lambdaHashingVersion: 20200924设置来维持当前默认的 Lambda 哈希版本模式。(#10173) AWS EventBridge:仍然可以对 EventBridge 资源使用基于自定义资源的部署方法。(#10133) AWS Local Invocation:支持 Python 十进制序列化。(#10178) Bug修复 AWS Deploy:修复对部署存储桶扩展的处理。 (#10137) AWS HTTP API:将最大超时时间识别为 30 秒,而不是 29 秒。(#10119) 命令行界面: 修复help命令的使用信息 。 (#10175) 修复未集成命令的帮助解析 。(#10128) 在验证错误时,自动识别可访问的配置部分。(#10134) 性能改进 CLI:集成 CLI 分流到包中(没有@serverless/components和@serverless/cli模块,除非使用它们的 CLI)(#10131) 。 维护改进 命令行界面: 改进日志的文件大小输出。 (#10169) 改进主要进度的消息。 (#10183) 遥测:添加projectId到有效载荷。 (#10180) AWS EventBridge:修复错误消息的拼写错误。 (#10165) 分离内部和插件输出部分。 (#10184) 模板 在aws-nodejs-typescript中单独打包 lambda 。(#10106) 升级azure-nodejs-typescript。(#10163) 更新公告:https://github.com/serverless/serverless/releases/tag/v2.65.0

优秀的个人博客,低调大师

Phalcon+Swoole 侵入解决方案 PhaService

Phalcon有着强大的性能同时又具备完整的MVC模式, Swoole也具备在Phalcon之外的其他能力,如果把两者无缝的结合, 一定是一个不错的案例. 所以本项目 同时支持 Nginx+Phalcon 与 Swoole+Phalcon, 如果使用Nginx做负载均衡,可以做到无缝衔接,有Nginx+php-fpm的稳定, 同时也能享受Swoole对于API的超高性能. 本案例可以作为系统服务使用, 也可以做Restful开发使用,作为Web使用更是毫无问题. 使用 wrk 做的的压测, 在MBP上的结果: wrk -c10000 -d10s --latency http://127.0.0.1:8080/testRunning 10s test @ http://127.0.0.1:8080/test 2 threads and 10000 connections Thread Stats Avg Stdev Max +/- Stdev Latency 38.66ms 50.01ms 266.35ms 81.83% Req/Sec 12.97k 1.54k 16.65k 88.17% Latency Distribution 50% 11.53ms 75% 68.33ms 90% 116.48ms 99% 183.72ms 242375 requests in 10.06s, 36.59MB read Requests/sec: 24104.01 Transfer/sec: 3.64MB 非常不错的结果. Installation ** Web服务兼容Nginx+PHP-FPM模式,可以参考Phalcon的Nginx配置. 依赖: Ubuntu 16.04LTS/18.04LTS PHP: 7.0+, 推荐 7.2或以上 Beantalkd 队列处理依赖 php扩展 Phalcon 3.x+ php扩展 Swoole 2.x+ php扩展 Redis php扩展 Pdo,Pdo MySQL ####初始化 composer install -o 开启 HttpServer 服务:建议使用Nginx做负载均衡,使PHP-FPM可以和Swoole的HttpServer同时提供服务. ./web_serve start 可以使用sys/systemd/StdWebServer.GenService.php可以生成systemd service文件, 根据提示安装成服务. cd sys/systemd/ php StdWebServer.GenService.php 开启 WebSocketServer 服务: ./web_socket_serve start 可以使用sys/systemd/StdWebSocketServer.GenService.php可以生成systemd service文件, 根据提示安装成服务. cd sys/systemd/ php StdWebSocketServer.GenService.php Configuration 环境配置 在项目的/目录下,建立空文件.development或.testing则指定里开发环境与测试环境, 没有文件为生产环境. 文件同时存在, 有限开启开发环境. #开发环境 rm .testing && touch .development #测试环境 rm .development && touch .testing #生产环境 rm .development .testing 数据库,Redis等配置: Web与Cli分开配置,配置文件位于: App部分:/app/config/config.php Cli部分:/cli/config/config.php Swoole Http Server 配置: 配置文件:/sys/config/std_web_server.php Swoole WebSocket Server 配置: 配置文件:/sys/config/std_web_socket_server.php Features Phalcon 完整支持 Http 服务器 WebSocket 服务器 多进程Task Worker 任务处理 Beantalk 队列 Systemd自启服务 Documents ###多进程Task任务处理 该服务会在任务处理完成后,持续拉起服务,所以可以实现类似php-fpm的特点, 任务处理指定次数后退出任务,服务会自动拉起服务. 具体可以参考/cli/tasks/MailSenderTask.php, 复写 RealWork 函数进行真实的任务处理即可, 调用方式: #查看帮助信息 ./run mailsender -h #参数 6 为开启6个子进程同时处理任务 ./run mailsender 6 本文来自云栖社区合作伙伴“开源中国” 本文作者:局长 原文链接

优秀的个人博客,低调大师

惧失败,Docker EE 帮助企业快速试错

本文首发自“Docker公司”公众号(ID:docker-cn)编译丨小东每周一、三、五 与您不见不散! 当您想要将公司进行抵押贷款时,您首先想到是有很多文书工作需要处理,而且整个过程会非常的漫长、繁琐。但是 Franklin American Mortgage Company 却想要这种突破传统模式。通过对创新、微服务和 Docker EE 等技术的投入,他们正在迅速创建一个平台,让技术核心帮助他们取得成功。 Franklin American 公司的 DevOps 负责人 Don Bauer 是该公司去年成立的一个创新型团队中的一员。Franklin American 公司正在做一件了不起的事情 —— 以 Docker EE 为基础一步步的对其业务进行变革。 Don Bauer 与 Franklin American 公司的创新部副总裁 Sharon Frazier 一同在 DockerCon 2018 大会上发表演讲。他们能够凭借四大支柱快速构建 DevOps 文化:即可视化、简单化、标准化和实验法。其中实验法是关键,它可以帮助他们无后顾之忧地进行快速试错。 DevOps 负责人 Don Bauer 表示:“Docker 让我们不惧失败,我们可以轻松、快速地对新事物进行测试,如果它适合我们,那我们就成功了。如果它不适合我们,那我们也无需为它浪费数周或数月的时间!。” 对于公司来说,创新不仅仅在于新技术的产生,更多的是为客户做一些新的、相关的事情。团队想要解决的第一个难题就是公司在定价方面的竞争地位。设置和锁定抵押贷款定价的“锁定引擎”是维持公司竞争力的关键。 Docker EE 让 Franklin American 公司在改革的进程中走得更快。 创新部副总裁 Sharon Frazier 表示“我认为我们迄今为止最大的成功就是我们能够在短短的一周内将一个想法从头到尾的实现。我们意识这是一个机会并且牢牢地抓住了这个机会。” 如今,公司拥有一个40个节点的集群以支持开发、测试、QA和生产环节,并且每个环节都有着各自独立的环境。它们运行着20个环境和超过300个由1,000个容器支持的服务。 更令人印象深刻的是,他们的动作非常快。正如 Don 和 Sharon 在他们的 DockerCon 演讲中所分享的那样,自2017年11月17日以来,Franklin American 公司的 DevOps 团队已经完成了超过10,000次的部署,平均每天部署200次,有时甚至更多。 正如 Sharon 在 DockerCon 上所说的那样,她自己正在美国企业内部进行“创业”,这无疑是全球最好的工作。与 Docker 合作,创新团队可以确保公司在未来的10年内保持相关性和竞争力。 想要了解关于 Franklin American 公司的更多信息,请从以下渠道观看他们的 DockerCon 2018 演讲视频: Docker官方微信公众号入口:http://t.cn/RrT7xxo

优秀的个人博客,低调大师

Skype再升级 同时25人通话压力

提到视频和语音通话软件,我们最先会想到腾讯的QQ和微信,但其实微软的Skype也是一款不错的软件。在自家平台升级之后,近日微软也为iOS和Android版的Skype进行了功能上的升级升级。 据悉,全新的Skype群组视频通话功能最多支持25人同时在线,通过与英特尔的合作,利用SILK Super Wide Band技术通过英特尔处理器在云端解码Azure编码,以达到同时处理器如此高要求的通话需求。 除了群视频功能之外,微软还提升了iOS和Android版的邀请聊天功能,用户可以要求任何好友进行群组通话,甚至包括视频功能。 本文转自d1net(转载)

资源下载

更多资源
优质分享App

优质分享App

近一个月的开发和优化,本站点的第一个app全新上线。该app采用极致压缩,本体才4.36MB。系统里面做了大量数据访问、缓存优化。方便用户在手机上查看文章。后续会推出HarmonyOS的适配版本。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

用户登录
用户注册