首页 文章 精选 留言 我的

精选列表

搜索[官方镜像],共10000篇文章
优秀的个人博客,低调大师

layui-vue 1.0.2 发布,入驻 layui 官方社区

项目介绍: layui - vue(谐音:类 UI) 是 一 套 Vue 3.0 的 桌 面 端 组 件 库。 更新内容: 1.0.2 [新增] button 组件 border-style 属性, 自定义边框样式。 [新增] carousel 组件 interval 属性, 用于控制轮播间隔。 [新增] config-provider 组件 dark-partial 属性, 夜间主题偏好配置。 [新增] carousel 组件 autoplay 属性, 开启自动轮播, 默认为 true。 [修复] page 组件 pages 属性为单数时, 页码计算错误。 [修复] panel 组件 background-color 为透明的问题。 [修复] tab 组件 layui-tab-head 默认存在背景色。 [修复] button-group 组件 first-child 样式。 [修复] dark 模式 step 组件线条不显示。 [修复] scroll 组件屏幕缩放时样式异常 1.0.1 [新增] select 组件 search 事件, 搜索回调。 [新增] select 组件 keyword 属性, 提供关键词检索。 [新增] upload 组件 cut cutOptions 属性, 支持上传裁剪。 [新增] timeline 组件 direction 属性, 支持垂直与水平布局。 [新增] dropdown 组件 open 与 hide 事件,于打开与关闭后的逻辑处理。 [新增] dropdown 组件 disabled 属性, 禁止下拉框展示。 [新增] date-picker 组件 disabled 属性, 禁止修改。 [修复] date-picker 组件右下角实时数据无法联动。 [修复] table 组件 datasource 属性丢失响应。 [修复] input 组件 readonly 属性不生效。 layui-vue 已投递至 layui 组织:前往 更多详情:http://www.layui-vue.com

优秀的个人博客,低调大师

Atom 1.60 发布,GitHub 官方文本编辑器

Atom 是由 GitHub 开发的开源文本编辑器,支持 macOS、Windows 和 Linux 操作系统,支持 Node.js 所写的插件,并内置由 Github 提供的 Git 版本控制系统。 Atom 基于使用 Chromium 和 Node.js 的跨平台应用框架 Electron(最初名为 Atom Shell),自 2014 年 5 月 6 日起,Atom 的核心程序、包管理器以及 Atom 桌面程序框架皆使用 MIT 许可协议发布。 Atom 1.60 正式发布,本次更新内容如下: 重要变化 atom/tabs#531 - 在鼠标任何点击下都可以激活窗格,而不仅仅是左键点击 #13414 - 为 Cinnamon 桌面环境添加上下文菜单(Linux) #19016 - 允许在复制和粘贴时转换行尾 Atom Core atom/atom#22769 - 在 TestPanelContainerItemElement 上使用自定义元素 atom/atom#22578 - 在 async isValidGitDirectory 中加入 await atom/atom#22781 - 删除冗余的 await atom/atom#22780 - 在窗格容器元素上使用自定义元素 atom/atom#22800 - 更新 tree-view 软件包至 v0.229.0 atom/atom#22814 - 更新 notifications 至 v0.72.1 atom/atom#22840 - 将 path-parse 从 1.0.6 升级到 1.0.7 atom/atom#17107 - 将参数转换为绝对路径 atom/atom#23001 - bootstrap: 在系统需求检查器中更新 Node 的需求为 10.12+。 atom/atom#22979 - bootstrap: 使用传统兼容的 catch 语法(支持旧版 Node)。 atom/atom#23031 - 记住最后打开的状态 atom/atom#23132 - 从 crashed 改为 render-process-gone …… notifications atom/notifications#204 - 迁移至 Github Actions tree-view atom/tree-view#1389 - 实现启动时隐藏树形面板的选项 atom/tree-view#1392 - 将元素附加到 jasmine DOM 上 language-css atom/language-css#169 - 添加通用系统字体系列 atom/language-css#129 - 支持媒体查询 "hover” atom/language-css#144 - 增加对 display: flow-root 的支持 atom/language-css#151 - 添加缺失的 scroll-snap-type 值 atom/language-css#143 - 增加 justify-self 和 justify-items 网格属性 atom/language-css#182 - 在 CSS 语法中加入 @-ms-viewport 和 @-o-viewport atom/language-css#173 - 更新 CSS 属性列表 …… 更多详情可查看:https://github.com/atom/atom/releases/tag/v1.60.0

优秀的个人博客,低调大师

Atom 1.59 发布,GitHub 官方文本编辑器

Atom 是由 GitHub 开发的开源文本编辑器,支持 macOS、Windows 和 Linux 操作系统,支持 Node.js 所写的插件,并内置由 Github 提供的 Git 版本控制系统。 Atom 基于使用 Chromium 和 Node.js 的跨平台应用框架 Electron(最初名为 Atom Shell),自 2014 年 5 月 6 日起,Atom 的核心程序、包管理器以及 Atom 桌面程序框架皆使用 MIT 许可协议发布。 Atom 1.59.0 正式发布,本次更新内容如下: 重要变化: #22697 - 修复了在 Ubuntu 上安装 Atom 依赖项的命令 #16206 - 为位于 atom-workspace 之外的编辑器启用默认的编辑器键盘映射 其他更新内容: atom/atom#22015 - 更新 Debian/Ubuntu 所需的依赖项 atom/atom#22463 - 将 atom-select-list 升级至 0.8.1 atom/atom#22448 - 更新 readme 安装库说明 atom/atom#22478 - 将 browserslist 从 4.16.3 升级到 4.16.6 atom/atom#22498 - 更新 atom.desktop.ini atom/atom#18321 - 实现基于 tree-sitter 的缩进逻辑 atom/atom#22250 - 从 Amazon S3 迁移到 Azure blob 存储 atom/atom#22543 - git-diff: 修复代码中的错别字 atom/atom#22575 - 将 normalize-url 从 4.5.0 升级到 4.5.1 atom/atom#22652 - 将 /script 中的 async 依赖项升级至 3.2.0 atom/atom#22688 - 将 color-string 从 1.5.4 升级到 1.5.5 atom/atom#22737 - 修复 tree-sitter-language-mode-spec.js 中的错字 atom/atom#22741 - 为了兼容 glibc,使用 Ubuntu 18.04 作为环境 atom/atom#22738 - Ubuntu 16.04 LTS 环境已被弃用,迁移到 ubuntu-latest 代替 atom/atom#22749 - 迁移样式元素至自定义元素 atom/atom#22755 - 在 workpace-element 上使用自定义元素 更多详情可查看:https://github.com/atom/atom/releases/tag/v1.59.0

优秀的个人博客,低调大师

Midway v2.14.0 发布,新增 passport/jwt 官方支持

正式发版节奏将于 12.12 之后回归。 Features 1、支持 passport 和 jwt 感谢社区 @Nawbc 提供 passport 和 jwt 组件。 身份验证是大多数 Web 应用程序的重要组成部分,Passport 也是现今 Node.js 中较为流行的鉴权验证库。 Passport 通过策略的可扩展插件进行身份验证请求,同时通过中间件的方式来接入全局或者特定的路由,这最大限度地提高了灵活性并允许开发人员做出应用程序级别的决策。 可以访问 https://midwayjs.org/docs/passport 来查看如何使用。 2、validate 增加自定义错误状态码 感谢社区 @ghostoy 提供该 PR。 现在你可以通过 @Validate 装饰器的参数来修改 http 返回的状态码。 同时在 v3 版本,我们提供了全局的错误码配置,校验失败,默认返回码将变为 422。 Bugfix 1、express 路由中间件作用域的问题 之前的版本,单个路由中间件配置后,整个 controller 下的路由都会被生效,新版本修复了该问题。 2、移除 redis 的 db/username/password 检查选项 和用户,ioredis作者核对之后,原有的 db/username/password 选项为可选参数,不应该提供必选校验,新版本中已移除。 3、修复 mongoose/typegoose 中无法使用异步配置覆盖的问题 原有的 mongoose 初始化服务生命周期过于提前,导致使用 onConfigLoad 的方式无法正确的覆盖配置,导致初始化错误的实例。 新版本调整了这一时机,使得异步配置覆盖正确。 感谢 @developeryvan 发现此问题并提供 3.x 的 PR。 4、修复多连接下 @EntityView 装饰器无法判断 connectionName 的问题 之前的版本,@EntityView 漏了多实例的支持,新版本补回。 5、修复在特定场景下的路由排序的问题 有用户提出,在某些路由下,排序出现了错误,新版本进行了修复处理。 '/detail/:id.html' '/:typeid/:area/' PS:Midway 3.x 已经发布到 beta.7,欢迎试用反馈。

优秀的个人博客,低调大师

Atom 1.58.0 发布,GitHub 官方文本编辑器

Atom 是由 GitHub 开发的开源文本编辑器,支持 macOS、Windows 和 Linux 操作系统,支持 Node.js 所写的插件,并内置由 Github 提供的 Git 版本控制系统。多数的延伸包皆为开放源代码许可,并由社区构建与维护。Atom 基于使用 Chromium 和 Node.js 的跨平台应用框架 Electron(最初名为 Atom Shell),并使用 CoffeeScript 和 Less 撰写。Atom 也可当作 IDE 使用。被开发者称为“21 世纪的高自定义性”文本编辑器(hackable text editor for the 21st Century)。自 2014 年 5 月 6 日起,Atom 的核心程序、包管理器以及 Atom 基于 Chromium 的桌面程序框架皆使用 MIT 许可协议发布。 Atom 1.58.0 正式发布,本次更新内容如下: 值得注意的变化: #22315- 更新至 macOS Big Sur 风格图标。 #22424- 修复在安全模式和开发模式下重新打开项目的问题。 #22123- 改进 Windows 应用程序图标的对比度。 atom/archive-view#73- 增加了折叠压缩文档目录的功能(zip、tar 等)。 atom/bracket-matcher#405- 处理括号内的多光标选择问题。 atom/find-and-replace#932- 增加 "在新标签页打开" 和 "在新窗口打开" 的右键菜单选项 更多详情可查看:https://github.com/atom/atom/releases/tag/v1.58.0

优秀的个人博客,低调大师

Hadoop 官方WordCount案例带你手把手的解析

2 --> 文章目录 1.需求 2.需求分析 3.项目结构图 4.项目依赖包 5.编写Mapper 6.编写Reducer 7.编写Driver 出现如下所示就欧克 ,接着看结果 1.需求 在给定的文本文件中统计输出每一个单词出现的总次数hello.txt hadoop hadoop ss ss cls cls jiao banzhang xue 2.需求分析 3.项目结构图 4.项目依赖包 <dependencies> <dependency> <groupId>junit</groupId> <artifactId>junit</artifactId> <version>RELEASE</version> </dependency> <dependency> <groupId>org.apache.logging.log4j</groupId> <artifactId>log4j-core</artifactId> <version>2.8.2</version> </dependency> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-common</artifactId> <version>2.7.2</version> </dependency> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-client</artifactId> <version>2.7.2</version> </dependency> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-hdfs</artifactId> <version>2.7.2</version> </dependency> <dependency> <groupId>junit</groupId> <artifactId>junit</artifactId> <version>RELEASE</version> <scope>compile</scope> </dependency> </dependencies> 5.编写Mapper package wordcount_hdfs; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Mapper; import java.io.IOException; public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable> { // 0. 将创建对象的操作提取成变量,防止在 map 方法重复创建 private Text text = new Text(); private IntWritable i = new IntWritable(1); @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { // 1. 将 Hadoop 内置的text 数据类型转换为string类型 // 方便操作 String string = value.toString(); // 2. 对字符串进行切分 String[] split = string.split(" "); // 3. 对字符串数组遍历,将单词映射成 (单词,1) for (String s : split) { text.set(s); context.write(text, i); } } } 6.编写Reducer package wordcount_hdfs; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Reducer; import java.io.IOException; public class WordCountReducer extends Reducer<Text, IntWritable,Text,IntWritable> { private IntWritable total = new IntWritable(); @Override protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { // 定义一个 sum,用来对每个键值对的 值 做 累加操作 int sum = 0; for (IntWritable value : values) { int i = value.get(); sum+=i; } total.set(sum); // 最后写出到文件 context.write(key, total); } } 7.编写Driver package wordcount_hdfs; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader; import org.apache.hadoop.mapreduce.lib.input.KeyValueTextInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import java.io.IOException; public class WordCountDriver { public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException { // 0 指定路径 这里路径有两种写法 : args = new String[]{"E:\\Hadoop\\src\\main\\resources\\input", "E:\\Hadoop\\src\\main\\resources\\ouput"}; //args = new String[]{"E:/Hadoop/src/main/resources/", "E:/Hadoop/src/main/resources/"}; // 1 获取配置信息configuration以及封装任务job Configuration configuration = new Configuration(); Job job = Job.getInstance(configuration); // 2 设置Driver加载路径 setJarByClass job.setJarByClass(WordCountDriver.class); // 3 设置map和reduce类 setMaper setReducer job.setMapperClass(WordCountMapper.class); job.setReducerClass(WordCountReducer.class); // 4 设置map输出 setmapoutputkey setmapoutputvalue job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(IntWritable.class); // 5 设置最终输出kv类型 (reducer的输出kv类型) setoutoutkey setoutputvalue job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); // 6 设置本地的输入和输出路径 fileinputformat.setinputpath FileInputFormat.setInputPaths(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); // 7 提交 boolean completion = job.waitForCompletion(true); System.exit(completion ? 0 : 1); } } 8.运行结果 出现如下所示就欧克 ,接着看结果 "D:\Program Files\Java\bin\java.exe" "-javaagent:D:\office\Program Files\IntelliJ2018.2.6\lib\idea_rt.jar=53527:D:\office\Program Files\IntelliJ2018.2.6\bin" -Dfile.encoding=UTF-8 -classpath "D:\Program Files\Java\jre\lib\charsets.jar;D:\Program Files\Java\jre\lib\deploy.jar;D:\Program Files\Java\jre\lib\ext\access-bridge-64.jar;D:\Program Files\Java\jre\lib\ext\cldrdata.jar;D:\Program Files\Java\jre\lib\ext\dnsns.jar;D:\Program Files\Java\jre\lib\ext\jaccess.jar;D:\Program Files\Java\jre\lib\ext\jfxrt.jar;D:\Program Files\Java\jre\lib\ext\localedata.jar;D:\Program Files\Java\jre\lib\ext\nashorn.jar;D:\Program Files\Java\jre\lib\ext\sunec.jar;D:\Program Files\Java\jre\lib\ext\sunjce_provider.jar;D:\Program Files\Java\jre\lib\ext\sunmscapi.jar;D:\Program Files\Java\jre\lib\ext\sunpkcs11.jar;D:\Program Files\Java\jre\lib\ext\zipfs.jar;D:\Program Files\Java\jre\lib\javaws.jar;D:\Program Files\Java\jre\lib\jce.jar;D:\Program Files\Java\jre\lib\jfr.jar;D:\Program Files\Java\jre\lib\jfxswt.jar;D:\Program Files\Java\jre\lib\jsse.jar;D:\Program Files\Java\jre\lib\management-agent.jar;D:\Program Files\Java\jre\lib\plugin.jar;D:\Program Files\Java\jre\lib\resources.jar;D:\Program Files\Java\jre\lib\rt.jar;E:\Hadoop\target\classes;C:\Users\Administrator\.m2\repository\junit\junit\4.13.1\junit-4.13.1.jar;C:\Users\Administrator\.m2\repository\org\hamcrest\hamcrest-core\1.3\hamcrest-core-1.3.jar;C:\Users\Administrator\.m2\repository\org\apache\logging\log4j\log4j-core\2.8.2\log4j-core-2.8.2.jar;C:\Users\Administrator\.m2\repository\org\apache\logging\log4j\log4j-api\2.8.2\log4j-api-2.8.2.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-common\2.7.2\hadoop-common-2.7.2.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-annotations\2.7.2\hadoop-annotations-2.7.2.jar;D:\Program Files\Java\lib\tools.jar;C:\Users\Administrator\.m2\repository\com\google\guava\guava\11.0.2\guava-11.0.2.jar;C:\Users\Administrator\.m2\repository\commons-cli\commons-cli\1.2\commons-cli-1.2.jar;C:\Users\Administrator\.m2\repository\org\apache\commons\commons-math3\3.1.1\commons-math3-3.1.1.jar;C:\Users\Administrator\.m2\repository\xmlenc\xmlenc\0.52\xmlenc-0.52.jar;C:\Users\Administrator\.m2\repository\commons-httpclient\commons-httpclient\3.1\commons-httpclient-3.1.jar;C:\Users\Administrator\.m2\repository\commons-codec\commons-codec\1.4\commons-codec-1.4.jar;C:\Users\Administrator\.m2\repository\commons-io\commons-io\2.4\commons-io-2.4.jar;C:\Users\Administrator\.m2\repository\commons-net\commons-net\3.1\commons-net-3.1.jar;C:\Users\Administrator\.m2\repository\commons-collections\commons-collections\3.2.2\commons-collections-3.2.2.jar;C:\Users\Administrator\.m2\repository\javax\servlet\servlet-api\2.5\servlet-api-2.5.jar;C:\Users\Administrator\.m2\repository\org\mortbay\jetty\jetty\6.1.26\jetty-6.1.26.jar;C:\Users\Administrator\.m2\repository\org\mortbay\jetty\jetty-util\6.1.26\jetty-util-6.1.26.jar;C:\Users\Administrator\.m2\repository\javax\servlet\jsp\jsp-api\2.1\jsp-api-2.1.jar;C:\Users\Administrator\.m2\repository\com\sun\jersey\jersey-core\1.9\jersey-core-1.9.jar;C:\Users\Administrator\.m2\repository\com\sun\jersey\jersey-json\1.9\jersey-json-1.9.jar;C:\Users\Administrator\.m2\repository\org\codehaus\jettison\jettison\1.1\jettison-1.1.jar;C:\Users\Administrator\.m2\repository\com\sun\xml\bind\jaxb-impl\2.2.3-1\jaxb-impl-2.2.3-1.jar;C:\Users\Administrator\.m2\repository\javax\xml\bind\jaxb-api\2.2.2\jaxb-api-2.2.2.jar;C:\Users\Administrator\.m2\repository\javax\xml\stream\stax-api\1.0-2\stax-api-1.0-2.jar;C:\Users\Administrator\.m2\repository\javax\activation\activation\1.1\activation-1.1.jar;C:\Users\Administrator\.m2\repository\org\codehaus\jackson\jackson-jaxrs\1.8.3\jackson-jaxrs-1.8.3.jar;C:\Users\Administrator\.m2\repository\org\codehaus\jackson\jackson-xc\1.8.3\jackson-xc-1.8.3.jar;C:\Users\Administrator\.m2\repository\com\sun\jersey\jersey-server\1.9\jersey-server-1.9.jar;C:\Users\Administrator\.m2\repository\asm\asm\3.1\asm-3.1.jar;C:\Users\Administrator\.m2\repository\commons-logging\commons-logging\1.1.3\commons-logging-1.1.3.jar;C:\Users\Administrator\.m2\repository\log4j\log4j\1.2.17\log4j-1.2.17.jar;C:\Users\Administrator\.m2\repository\net\java\dev\jets3t\jets3t\0.9.0\jets3t-0.9.0.jar;C:\Users\Administrator\.m2\repository\org\apache\httpcomponents\httpclient\4.1.2\httpclient-4.1.2.jar;C:\Users\Administrator\.m2\repository\org\apache\httpcomponents\httpcore\4.1.2\httpcore-4.1.2.jar;C:\Users\Administrator\.m2\repository\com\jamesmurty\utils\java-xmlbuilder\0.4\java-xmlbuilder-0.4.jar;C:\Users\Administrator\.m2\repository\commons-lang\commons-lang\2.6\commons-lang-2.6.jar;C:\Users\Administrator\.m2\repository\commons-configuration\commons-configuration\1.6\commons-configuration-1.6.jar;C:\Users\Administrator\.m2\repository\commons-digester\commons-digester\1.8\commons-digester-1.8.jar;C:\Users\Administrator\.m2\repository\commons-beanutils\commons-beanutils\1.7.0\commons-beanutils-1.7.0.jar;C:\Users\Administrator\.m2\repository\commons-beanutils\commons-beanutils-core\1.8.0\commons-beanutils-core-1.8.0.jar;C:\Users\Administrator\.m2\repository\org\slf4j\slf4j-api\1.7.10\slf4j-api-1.7.10.jar;C:\Users\Administrator\.m2\repository\org\slf4j\slf4j-log4j12\1.7.10\slf4j-log4j12-1.7.10.jar;C:\Users\Administrator\.m2\repository\org\codehaus\jackson\jackson-core-asl\1.9.13\jackson-core-asl-1.9.13.jar;C:\Users\Administrator\.m2\repository\org\codehaus\jackson\jackson-mapper-asl\1.9.13\jackson-mapper-asl-1.9.13.jar;C:\Users\Administrator\.m2\repository\org\apache\avro\avro\1.7.4\avro-1.7.4.jar;C:\Users\Administrator\.m2\repository\com\thoughtworks\paranamer\paranamer\2.3\paranamer-2.3.jar;C:\Users\Administrator\.m2\repository\org\xerial\snappy\snappy-java\1.0.4.1\snappy-java-1.0.4.1.jar;C:\Users\Administrator\.m2\repository\com\google\protobuf\protobuf-java\2.5.0\protobuf-java-2.5.0.jar;C:\Users\Administrator\.m2\repository\com\google\code\gson\gson\2.2.4\gson-2.2.4.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-auth\2.7.2\hadoop-auth-2.7.2.jar;C:\Users\Administrator\.m2\repository\org\apache\directory\server\apacheds-kerberos-codec\2.0.0-M15\apacheds-kerberos-codec-2.0.0-M15.jar;C:\Users\Administrator\.m2\repository\org\apache\directory\server\apacheds-i18n\2.0.0-M15\apacheds-i18n-2.0.0-M15.jar;C:\Users\Administrator\.m2\repository\org\apache\directory\api\api-asn1-api\1.0.0-M20\api-asn1-api-1.0.0-M20.jar;C:\Users\Administrator\.m2\repository\org\apache\directory\api\api-util\1.0.0-M20\api-util-1.0.0-M20.jar;C:\Users\Administrator\.m2\repository\org\apache\curator\curator-framework\2.7.1\curator-framework-2.7.1.jar;C:\Users\Administrator\.m2\repository\com\jcraft\jsch\0.1.42\jsch-0.1.42.jar;C:\Users\Administrator\.m2\repository\org\apache\curator\curator-client\2.7.1\curator-client-2.7.1.jar;C:\Users\Administrator\.m2\repository\org\apache\curator\curator-recipes\2.7.1\curator-recipes-2.7.1.jar;C:\Users\Administrator\.m2\repository\com\google\code\findbugs\jsr305\3.0.0\jsr305-3.0.0.jar;C:\Users\Administrator\.m2\repository\org\apache\htrace\htrace-core\3.1.0-incubating\htrace-core-3.1.0-incubating.jar;C:\Users\Administrator\.m2\repository\org\apache\zookeeper\zookeeper\3.4.6\zookeeper-3.4.6.jar;C:\Users\Administrator\.m2\repository\org\apache\commons\commons-compress\1.4.1\commons-compress-1.4.1.jar;C:\Users\Administrator\.m2\repository\org\tukaani\xz\1.0\xz-1.0.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-client\2.7.2\hadoop-client-2.7.2.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-mapreduce-client-app\2.7.2\hadoop-mapreduce-client-app-2.7.2.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-mapreduce-client-common\2.7.2\hadoop-mapreduce-client-common-2.7.2.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-yarn-client\2.7.2\hadoop-yarn-client-2.7.2.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-yarn-server-common\2.7.2\hadoop-yarn-server-common-2.7.2.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-mapreduce-client-shuffle\2.7.2\hadoop-mapreduce-client-shuffle-2.7.2.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-yarn-api\2.7.2\hadoop-yarn-api-2.7.2.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-mapreduce-client-core\2.7.2\hadoop-mapreduce-client-core-2.7.2.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-yarn-common\2.7.2\hadoop-yarn-common-2.7.2.jar;C:\Users\Administrator\.m2\repository\com\sun\jersey\jersey-client\1.9\jersey-client-1.9.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-mapreduce-client-jobclient\2.7.2\hadoop-mapreduce-client-jobclient-2.7.2.jar;C:\Users\Administrator\.m2\repository\org\apache\hadoop\hadoop-hdfs\2.7.2\hadoop-hdfs-2.7.2.jar;C:\Users\Administrator\.m2\repository\commons-daemon\commons-daemon\1.0.13\commons-daemon-1.0.13.jar;C:\Users\Administrator\.m2\repository\io\netty\netty\3.6.2.Final\netty-3.6.2.Final.jar;C:\Users\Administrator\.m2\repository\io\netty\netty-all\4.0.23.Final\netty-all-4.0.23.Final.jar;C:\Users\Administrator\.m2\repository\xerces\xercesImpl\2.9.1\xercesImpl-2.9.1.jar;C:\Users\Administrator\.m2\repository\xml-apis\xml-apis\1.3.04\xml-apis-1.3.04.jar;C:\Users\Administrator\.m2\repository\org\fusesource\leveldbjni\leveldbjni-all\1.8\leveldbjni-all-1.8.jar" KVText.KVTextDriver 2020-10-21 14:41:01,541 INFO [org.apache.hadoop.conf.Configuration.deprecation] - session.id is deprecated. Instead, use dfs.metrics.session-id 2020-10-21 14:41:01,551 INFO [org.apache.hadoop.metrics.jvm.JvmMetrics] - Initializing JVM Metrics with processName=JobTracker, sessionId= 2020-10-21 14:41:02,916 WARN [org.apache.hadoop.mapreduce.JobResourceUploader] - Hadoop command-line option parsing not performed. Implement the Tool interface and execute your application with ToolRunner to remedy this. 2020-10-21 14:41:02,936 WARN [org.apache.hadoop.mapreduce.JobResourceUploader] - No job jar file set. User classes may not be found. See Job or Job#setJar(String). 2020-10-21 14:41:03,236 INFO [org.apache.hadoop.mapreduce.lib.input.FileInputFormat] - Total input paths to process : 1 2020-10-21 14:41:03,256 INFO [org.apache.hadoop.mapreduce.JobSubmitter] - number of splits:1 2020-10-21 14:41:03,326 INFO [org.apache.hadoop.mapreduce.JobSubmitter] - Submitting tokens for job: job_local297471183_0001 2020-10-21 14:41:03,476 INFO [org.apache.hadoop.mapreduce.Job] - The url to track the job: http://localhost:8080/ 2020-10-21 14:41:03,476 INFO [org.apache.hadoop.mapreduce.Job] - Running job: job_local297471183_0001 2020-10-21 14:41:03,476 INFO [org.apache.hadoop.mapred.LocalJobRunner] - OutputCommitter set in config null 2020-10-21 14:41:03,486 INFO [org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter] - File Output Committer Algorithm version is 1 2020-10-21 14:41:03,486 INFO [org.apache.hadoop.mapred.LocalJobRunner] - OutputCommitter is org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter 2020-10-21 14:41:03,536 INFO [org.apache.hadoop.mapred.LocalJobRunner] - Waiting for map tasks 2020-10-21 14:41:03,536 INFO [org.apache.hadoop.mapred.LocalJobRunner] - Starting task: attempt_local297471183_0001_m_000000_0 2020-10-21 14:41:03,566 INFO [org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter] - File Output Committer Algorithm version is 1 2020-10-21 14:41:03,576 INFO [org.apache.hadoop.yarn.util.ProcfsBasedProcessTree] - ProcfsBasedProcessTree currently is supported only on Linux. 2020-10-21 14:41:03,616 INFO [org.apache.hadoop.mapred.Task] - Using ResourceCalculatorProcessTree : org.apache.hadoop.yarn.util.WindowsBasedProcessTree@6cec6fbe 2020-10-21 14:41:03,626 INFO [org.apache.hadoop.mapred.MapTask] - Processing split: file:/E:/Hadoop/src/main/resources/input/englishconment.txt:0+80 2020-10-21 14:41:03,666 INFO [org.apache.hadoop.mapred.MapTask] - (EQUATOR) 0 kvi 26214396(104857584) 2020-10-21 14:41:03,666 INFO [org.apache.hadoop.mapred.MapTask] - mapreduce.task.io.sort.mb: 100 2020-10-21 14:41:03,666 INFO [org.apache.hadoop.mapred.MapTask] - soft limit at 83886080 2020-10-21 14:41:03,666 INFO [org.apache.hadoop.mapred.MapTask] - bufstart = 0; bufvoid = 104857600 2020-10-21 14:41:03,666 INFO [org.apache.hadoop.mapred.MapTask] - kvstart = 26214396; length = 6553600 2020-10-21 14:41:03,666 INFO [org.apache.hadoop.mapred.MapTask] - Map output collector class = org.apache.hadoop.mapred.MapTask$MapOutputBuffer 2020-10-21 14:41:03,676 INFO [org.apache.hadoop.mapred.LocalJobRunner] - 2020-10-21 14:41:03,676 INFO [org.apache.hadoop.mapred.MapTask] - Starting flush of map output 2020-10-21 14:41:03,676 INFO [org.apache.hadoop.mapred.MapTask] - Spilling map output 2020-10-21 14:41:03,676 INFO [org.apache.hadoop.mapred.MapTask] - bufstart = 0; bufend = 48; bufvoid = 104857600 2020-10-21 14:41:03,676 INFO [org.apache.hadoop.mapred.MapTask] - kvstart = 26214396(104857584); kvend = 26214384(104857536); length = 13/6553600 2020-10-21 14:41:03,796 INFO [org.apache.hadoop.mapred.MapTask] - Finished spill 0 2020-10-21 14:41:03,806 INFO [org.apache.hadoop.mapred.Task] - Task:attempt_local297471183_0001_m_000000_0 is done. And is in the process of committing 2020-10-21 14:41:03,826 INFO [org.apache.hadoop.mapred.LocalJobRunner] - file:/E:/Hadoop/src/main/resources/input/englishconment.txt:0+80 2020-10-21 14:41:03,826 INFO [org.apache.hadoop.mapred.Task] - Task 'attempt_local297471183_0001_m_000000_0' done. 2020-10-21 14:41:03,826 INFO [org.apache.hadoop.mapred.LocalJobRunner] - Finishing task: attempt_local297471183_0001_m_000000_0 2020-10-21 14:41:03,826 INFO [org.apache.hadoop.mapred.LocalJobRunner] - map task executor complete. 2020-10-21 14:41:03,826 INFO [org.apache.hadoop.mapred.LocalJobRunner] - Waiting for reduce tasks 2020-10-21 14:41:03,826 INFO [org.apache.hadoop.mapred.LocalJobRunner] - Starting task: attempt_local297471183_0001_r_000000_0 2020-10-21 14:41:03,836 INFO [org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter] - File Output Committer Algorithm version is 1 2020-10-21 14:41:03,836 INFO [org.apache.hadoop.yarn.util.ProcfsBasedProcessTree] - ProcfsBasedProcessTree currently is supported only on Linux. 2020-10-21 14:41:04,115 INFO [org.apache.hadoop.mapred.Task] - Using ResourceCalculatorProcessTree : org.apache.hadoop.yarn.util.WindowsBasedProcessTree@2f6f6193 2020-10-21 14:41:04,115 INFO [org.apache.hadoop.mapred.ReduceTask] - Using ShuffleConsumerPlugin: org.apache.hadoop.mapreduce.task.reduce.Shuffle@15648f8c 2020-10-21 14:41:04,135 INFO [org.apache.hadoop.mapreduce.task.reduce.MergeManagerImpl] - MergerManager: memoryLimit=648858816, maxSingleShuffleLimit=162214704, mergeThreshold=428246848, ioSortFactor=10, memToMemMergeOutputsThreshold=10 2020-10-21 14:41:04,135 INFO [org.apache.hadoop.mapreduce.task.reduce.EventFetcher] - attempt_local297471183_0001_r_000000_0 Thread started: EventFetcher for fetching Map Completion Events 2020-10-21 14:41:04,165 INFO [org.apache.hadoop.mapreduce.task.reduce.LocalFetcher] - localfetcher#1 about to shuffle output of map attempt_local297471183_0001_m_000000_0 decomp: 58 len: 62 to MEMORY 2020-10-21 14:41:04,175 INFO [org.apache.hadoop.mapreduce.task.reduce.InMemoryMapOutput] - Read 58 bytes from map-output for attempt_local297471183_0001_m_000000_0 2020-10-21 14:41:04,175 INFO [org.apache.hadoop.mapreduce.task.reduce.MergeManagerImpl] - closeInMemoryFile -> map-output of size: 58, inMemoryMapOutputs.size() -> 1, commitMemory -> 0, usedMemory ->58 2020-10-21 14:41:04,175 INFO [org.apache.hadoop.mapreduce.task.reduce.EventFetcher] - EventFetcher is interrupted.. Returning 2020-10-21 14:41:04,175 INFO [org.apache.hadoop.mapred.LocalJobRunner] - 1 / 1 copied. 2020-10-21 14:41:04,175 INFO [org.apache.hadoop.mapreduce.task.reduce.MergeManagerImpl] - finalMerge called with 1 in-memory map-outputs and 0 on-disk map-outputs 2020-10-21 14:41:04,195 INFO [org.apache.hadoop.mapred.Merger] - Merging 1 sorted segments 2020-10-21 14:41:04,195 INFO [org.apache.hadoop.mapred.Merger] - Down to the last merge-pass, with 1 segments left of total size: 47 bytes 2020-10-21 14:41:04,205 INFO [org.apache.hadoop.mapreduce.task.reduce.MergeManagerImpl] - Merged 1 segments, 58 bytes to disk to satisfy reduce memory limit 2020-10-21 14:41:04,215 INFO [org.apache.hadoop.mapreduce.task.reduce.MergeManagerImpl] - Merging 1 files, 62 bytes from disk 2020-10-21 14:41:04,215 INFO [org.apache.hadoop.mapreduce.task.reduce.MergeManagerImpl] - Merging 0 segments, 0 bytes from memory into reduce 2020-10-21 14:41:04,215 INFO [org.apache.hadoop.mapred.Merger] - Merging 1 sorted segments 2020-10-21 14:41:04,215 INFO [org.apache.hadoop.mapred.Merger] - Down to the last merge-pass, with 1 segments left of total size: 47 bytes 2020-10-21 14:41:04,215 INFO [org.apache.hadoop.mapred.LocalJobRunner] - 1 / 1 copied. 2020-10-21 14:41:04,215 INFO [org.apache.hadoop.conf.Configuration.deprecation] - mapred.skip.on is deprecated. Instead, use mapreduce.job.skiprecords 2020-10-21 14:41:04,225 INFO [org.apache.hadoop.mapred.Task] - Task:attempt_local297471183_0001_r_000000_0 is done. And is in the process of committing 2020-10-21 14:41:04,225 INFO [org.apache.hadoop.mapred.LocalJobRunner] - 1 / 1 copied. 2020-10-21 14:41:04,225 INFO [org.apache.hadoop.mapred.Task] - Task attempt_local297471183_0001_r_000000_0 is allowed to commit now 2020-10-21 14:41:04,235 INFO [org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter] - Saved output of task 'attempt_local297471183_0001_r_000000_0' to file:/E:/Hadoop/src/main/resources/ouput/_temporary/0/task_local297471183_0001_r_000000 2020-10-21 14:41:04,235 INFO [org.apache.hadoop.mapred.LocalJobRunner] - reduce > reduce 2020-10-21 14:41:04,235 INFO [org.apache.hadoop.mapred.Task] - Task 'attempt_local297471183_0001_r_000000_0' done. 2020-10-21 14:41:04,235 INFO [org.apache.hadoop.mapred.LocalJobRunner] - Finishing task: attempt_local297471183_0001_r_000000_0 2020-10-21 14:41:04,235 INFO [org.apache.hadoop.mapred.LocalJobRunner] - reduce task executor complete. 2020-10-21 14:41:04,485 INFO [org.apache.hadoop.mapreduce.Job] - Job job_local297471183_0001 running in uber mode : false 2020-10-21 14:41:04,485 INFO [org.apache.hadoop.mapreduce.Job] - map 100% reduce 100% 2020-10-21 14:41:04,485 INFO [org.apache.hadoop.mapreduce.Job] - Job job_local297471183_0001 completed successfully 2020-10-21 14:41:04,515 INFO [org.apache.hadoop.mapreduce.Job] - Counters: 30 File System Counters FILE: Number of bytes read=672 FILE: Number of bytes written=583822 FILE: Number of read operations=0 FILE: Number of large read operations=0 FILE: Number of write operations=0 Map-Reduce Framework Map input records=4 Map output records=4 Map output bytes=48 Map output materialized bytes=62 Input split bytes=124 Combine input records=0 Combine output records=0 Reduce input groups=2 Reduce shuffle bytes=62 Reduce input records=4 Reduce output records=2 Spilled Records=8 Shuffled Maps =1 Failed Shuffles=0 Merged Map outputs=1 GC time elapsed (ms)=12 Total committed heap usage (bytes)=374865920 Shuffle Errors BAD_ID=0 CONNECTION=0 IO_ERROR=0 WRONG_LENGTH=0 WRONG_MAP=0 WRONG_REDUCE=0 File Input Format Counters Bytes Read=80 File Output Format Counters Bytes Written=32 Process finished with exit code 0

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

Sublime Text

Sublime Text

Sublime Text具有漂亮的用户界面和强大的功能,例如代码缩略图,Python的插件,代码段等。还可自定义键绑定,菜单和工具栏。Sublime Text 的主要功能包括:拼写检查,书签,完整的 Python API , Goto 功能,即时项目切换,多选择,多窗口等等。Sublime Text 是一个跨平台的编辑器,同时支持Windows、Linux、Mac OS X等操作系统。