首页 文章 精选 留言 我的

精选列表

搜索[加密工具],共10000篇文章
优秀的个人博客,低调大师

Prettier 1.19 发布,前端代码格式化工具

Prettier 1.19已经发布,主要更新内容如下: CLI 修复 1.19.0版本中 --stdin回归 // Prettier stable $ echo "test" | prettier --stdin --parser babel [error] regeneratorRuntime is not defined // Prettier master $ echo "test" | prettier --stdin --parser babel test; TypeScript 修复联合类型格式化为箭头函数返回类型 // Input export const getVehicleDescriptor = async ( vehicleId: string, ): Promise<Collections.Parts.PrintedCircuitBoardAssembly['attributes'] | undefined> => {} // Prettier stable export const getVehicleDescriptor = async ( vehicleId: string ): Promise<| Collections.Parts.PrintedCircuitBoardAssembly["attributes"] | undefined> => {}; // Prettier master export const getVehicleDescriptor = async ( vehicleId: string ): Promise< Collections.Parts.PrintedCircuitBoardAssembly["attributes"] | undefined > => {}; 请见发布说明。

优秀的个人博客,低调大师

推荐一款数据同步工具:FlinkX

FlinkX 1 什么是FlinkX FlinkX是基于flink的分布式离线数据同步框架,实现了多种异构数据源之间高效的数据迁移。 不同的数据源头被抽象成不同的Reader插件,不同的数据目标被抽象成不同的Writer插件。理论上,FlinkX框架可以支持任意数据源类型的数据同步工作。作为一套生态系统,每接入一套新数据源该新加入的数据源即可实现和现有的数据源互通。 2 工作原理 在底层实现上,FlinkX依赖Flink,数据同步任务会被翻译成StreamGraph在Flink上执行,工作原理如下图: 3 快速起步 3.1 运行模式 单机模式:对应Flink集群的单机模式 standalone模式:对应Flink集群的分布式模式 yarn模式:对应Flink集群的yarn模式 3.2 执行环境 Java: JDK8及以上 Flink集群: 1.4及以上(单机模式不需要安装Flink集群) 操作系统:理论上不限,但是目前只编写了shell启动脚本,用户可以可以参考shell脚本编写适合特定操作系统的启动脚本。 3.3 打包 进入项目根目录,使用maven打包: mvn clean package -Dmaven.test.skip 打包结束后,项目根目录下会产生bin目录和plugins目录,其中bin目录包含FlinkX的启动脚本,plugins目录下存放编译好的数据同步插件包 3.4 启动 3.4.1 命令行参数选项 model 描述:执行模式,也就是flink集群的工作模式 local: 本地模式 standalone: 独立部署模式的flink集群 yarn: yarn模式的flink集群,需要提前在yarn上启动一个flink session,使用默认名称"Flink session cluster" 必选:否 默认值:local job 描述:数据同步任务描述文件的存放路径;该描述文件中使用json字符串存放任务信息。 必选:是 默认值:无 plugin 描述:插件根目录地址,也就是打包后产生的plugins目录。 必选:是 默认值:无 flinkconf 描述:flink配置文件所在的目录(单机模式下不需要),如/hadoop/flink-1.4.0/conf 必选:否 默认值:无 yarnconf 描述:Hadoop配置文件(包括hdfs和yarn)所在的目录(单机模式下不需要),如/hadoop/etc/hadoop 必选:否 默认值:无 3.4.2 启动数据同步任务 以本地模式启动数据同步任务 bin/flinkx -mode local -job /Users/softfly/company/flink-data-transfer/jobs/task_to_run.json -plugin /Users/softfly/company/flink-data-transfer/plugins -confProp "{"flink.checkpoint.interval":60000,"flink.checkpoint.stateBackend":"/flink_checkpoint/"}" -s /flink_checkpoint/0481473685a8e7d22e7bd079d6e5c08c/chk-* 以standalone模式启动数据同步任务 bin/flinkx -mode standalone -job /Users/softfly/company/flink-data-transfer/jobs/oracle_to_oracle.json -plugin /Users/softfly/company/flink-data-transfer/plugins -flinkconf /hadoop/flink-1.4.0/conf -confProp "{"flink.checkpoint.interval":60000,"flink.checkpoint.stateBackend":"/flink_checkpoint/"}" -s /flink_checkpoint/0481473685a8e7d22e7bd079d6e5c08c/chk-* 以yarn模式启动数据同步任务 bin/flinkx -mode yarn -job /Users/softfly/company/flinkx/jobs/mysql_to_mysql.json -plugin /opt/dtstack/flinkplugin/syncplugin -flinkconf /opt/dtstack/myconf/conf -yarnconf /opt/dtstack/myconf/hadoop -confProp "{"flink.checkpoint.interval":60000,"flink.checkpoint.stateBackend":"/flink_checkpoint/"}" -s /flink_checkpoint/0481473685a8e7d22e7bd079d6e5c08c/chk-* 4 数据同步任务模版 从最高空俯视,一个数据同步的构成很简单,如下: { "job": { "setting": {...}, "content": [...] } } 数据同步任务包括一个job元素,而这个元素包括setting和content两部分。 setting: 用于配置限速、错误控制和脏数据管理 content: 用于配置具体任务信息,包括从哪里来(Reader插件信息),到哪里去(Writer插件信息) 4.1 setting "setting": { "speed": {...}, "errorLimit": {...}, "dirty": {...} } setting包括speed、errorLimit和dirty三部分,分别描述限速、错误控制和脏数据管理的配置信息 4.1.1 speed "speed": { "channel": 3, "bytes": 0 } channel: 任务并发数 bytes: 每秒字节数,默认为 Long.MAX_VALUE 4.1.2 errorLimit "errorLimit": { "record": 10000, "percentage": 100 } record: 出错记录数超过record设置的条数时,任务标记为失败 percentage: 当出错记录数超过percentage百分数时,任务标记为失败 4.1.3 dirty "dirty": { "path": "/tmp", "hadoopConfig": { "fs.default.name": "hdfs://ns1", "dfs.nameservices": "ns1", "dfs.ha.namenodes.ns1": "nn1,nn2", "dfs.namenode.rpc-address.ns1.nn1": "node02:9000", "dfs.namenode.rpc-address.ns1.nn2": "node03:9000", "dfs.ha.automatic-failover.enabled": "true", "dfs.client.failover.proxy.provider.ns1": "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider", "fs.hdfs.impl.disable.cache": "true" } } path: 脏数据存放路径 hadoopConfig: 脏数据存放路径对应hdfs的配置信息(hdfs高可用配置) 4.1.4 restore "restore": { "isRestore": false, "restoreColumnName": "", "restoreColumnIndex": 0 } restore配置请参考断点续传 4.2 content "content": [ { "reader": { "name": "...", "parameter": { ... } }, "writer": { "name": "...", "parameter": { ... } } } ] reader: 用于读取数据的插件的信息 writer: 用于写入数据的插件的信息 reader和writer包括name和parameter,分别表示插件名称和插件参数 4.3 数据同步任务例子 详见flinkx-examples子工程 5. 数据同步插件 5.1 读取插件 关系数据库读取插件 分库分表读取插件 HDFS读取插件 HBase读取插件 Elasticsearch读取插件 Ftp读取插件 Odps读取插件 MongoDB读取插件 Stream读取插件 Carbondata读取插件 MySQL binlog读取插件 KafKa读取插件 5.2 写入插件 关系数据库写入插件 HDFS写入插件 HBase写入插件 Elasticsearch写入插件 Ftp写入插件 Odps写入插件 MongoDB写入插件 Redis写入插件 Stream写入插件 Carbondata写入插件 Kafka写入插件 Hive写入插件 断点续传和实时采集功能介绍 数据源开启Kerberos 统计指标说明

优秀的个人博客,低调大师

Traefik 1.7.17,Http 反向代理与负载均衡工具

Træfɪk 是一个新型的 http 反向代理、负载均衡软件,能轻易的部署微服务,它支持多种后端 (Docker, Swarm, Mesos/Marathon, Consul, Etcd, Zookeeper, BoltDB, Rest API, file...) ,可以对配置进行自动化、动态的管理。1.7.17版本发布,内容如下: 修复 bug: [logs,middleware]:当访问日志处理程序关闭时,避免关闭 stdout [middleware]:如果有需要的话,在 WriteHeader 中发送头部信息和代码 文档: [k8s]:添加注释说明客户端证书头部信息 [webui]:更新文档链接 更新Traefikimage 版本 发布说明: https://github.com/containous/traefik/releases/tag/v1.7.17

优秀的个人博客,低调大师

Guava 28.1 发布,Google 的 Java 核心工具

Guava 28.1 发布了,Guava 是 Google 的一个开源项目,包含许多 Google 核心Java 常用库,如:集合 [collections] 、缓存 [caching] 、原生类型支持 [primitives support] 、并发库 [concurrency libraries] 、通用注解 [common annotations] 、字符串处理 [string processing] 与 I/O 等。 更新内容如下: collect:新增RangeMap.merge,类似于Map.merge(687252d) collect:修复了ImmutableSet.Builder中的一个 bug,当从同一个构建器构建多个集合时,该 bug 可能导致无限循环(0007cb2) io:修复了 BaseEncoding.decodingStream(Reader)返回的 InputStream 在解码无效字符串时无法抛出 DecodingException 的问题 (ddd4a49) net:为 "image/heif" 和 "image/jp2" 添加了MediaType (508696a) net:为 HttpHeaders 添加了 Upgrade-Insecure-Requests 标头 (6a8b716) concurrent:修复了Futures.whenAllSucceed/whenAllComplete中潜在的内存泄漏问题(494834b) 更新说明及下载地址 Maven <dependency> <groupId>com.google.guava</groupId> <artifactId>guava</artifactId> <version>28.1-jre</version> <!-- or, for Android: --> <version>28.1-android</version> </dependency>

优秀的个人博客,低调大师

数据分析工具PANDAS技巧-如何过滤数据

在本文中,我们将介绍在Python中过滤pandas数据帧的各种方法。 数据过滤是最常见的数据操作操作之一。 它类似于SQL中的WHERE子句,或者必须在MS Excel中使用过滤器根据某些条件选择特定行。 就速度而言,python执行过滤和聚合更佳。 它有很棒的库:pandas。 Pandas是在numpy包之上构建的,它是用C语言编写的,这是一种低级语言。 因此,使用pandas包进行数据操作是处理大型数据集的快速而智能的方法。 数据过滤的示例 它是预测建模或任何报告项目的数据准备的最初步骤之一。 它也被称为“子集数据”。 请参阅下面的一些数据过滤示例。 选择在2019年1月1日之后开立帐户的所有活跃客户 提取过去6个月内进行超过3笔交易的所有客户的详细信息 获取在组织中工作超过3年且在过去两年中获得最高评级的员工的信息 分析投诉数据并确

资源下载

更多资源
Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

WebStorm

WebStorm

WebStorm 是jetbrains公司旗下一款JavaScript 开发工具。目前已经被广大中国JS开发者誉为“Web前端开发神器”、“最强大的HTML5编辑器”、“最智能的JavaScript IDE”等。与IntelliJ IDEA同源,继承了IntelliJ IDEA强大的JS部分的功能。

用户登录
用户注册