首页 文章 精选 留言 我的

精选列表

搜索[搭建],共10000篇文章
优秀的个人博客,低调大师

最详细的JavaWeb开发基础之java环境搭建(Mac版)

阅读文本大概需要 5 分钟。 我之前分享过在 Windows 下面配置 Java 环境,这次给大家带来的是 Mac 下面安装配置 Java 环境。首先 Mac 系统已经带有默认的 Java,但是由于使用不方便,这里教大家一个比较方便的方法,并且管理方便。也方便我们后面配置 IDEA, Eclipse。 下面开始我们 Java 环境的安装配置。 1、打开 Java 官网 http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html 在这里你可以选择你要下载的 java 版本,这里我们以 java1.8 为例来讲解。在下载之前,我们需要先接受协议才能够去下载。 这里说明下,我为什么去选择 linux 版本的 JDK 去下载,而不是 Mac 版本的 JDK,这里主要是因为如果我们下载了 Mac 版本的 JDK 在安装的时候,我们是无法去选择安装目录的,也就是它默认安装之后,你还是要在接着去 Google Mac 下 JDK 默认的安装目录,这样岂不是多次一举。其次,因为 Mac 就是原生的 Unix 系统呀,更可以去选择对应的 Linux 版本,而且这样更便于我们去管理。通过上面的链接下载好之后,我们就可以在本地看到这个文件。 如果觉得上面的下载不够高大上,我们可以直接在命令中使用命令去下载,我们可以使用 wget 命令进行下载 JDK,下载地址如下: http://download.oracle.com/otn-pub/java/jdk/8u172-b11/a58eab1ec242421181065cdc37240b08/jdk-8u172-linux-x64.tar.gz 在命令行中执行如下,这样下载之后的结果跟我们上面都过浏览器下载是一样,喜欢哪一种就可以用哪一种方式去下载。 2、解压下载好的 JDK 文件 下载的文件是 tar.gz 格式的文件,这里我们可以通过 tar 命令进行解压,这个格式文件其实相当于 Windows 下面的 rar 文件,tar 可以对文件进行解压或者压缩,下载我们使用该命令进行解压下载好的 JDK 文件。这里我们先将下载好的 JDK 文件移动到我们的工具目录,方便我们下次使用和查找。上图我已经将 JDK 移动到 Tools 目录下面,所以这里就不需要在重新移动了,如果我们需要移动文件的话,可以通过 mv 命令进行移动。对文件进行解压。 解压完成之后,我们会得到如下的一个文件夹,我们可以进入该文件夹并查看下文件夹下的内容。 到这里我们的 java 安装算是完成一半了,其实说安装根本谈不上,我们之不过是下载了文件,并做了解压的工作。还剩下环境变量的设置,说到环境变量的设置,想必很多会认为一定很复杂,其实这是一种自我限制的思想,在 Mac 或者 Linux 系统下面进行环境变量设置其实很简单,下面你就会见到。 3、查看 JDK 的目录并配置环境变量 配置 java 环境变量之前,我们一定要知道我们的 java 根目录在哪里,在这里我们可以通过 pwd 命令,来查看我们当前 java 根目录是在那个目录下面。 这里我们就看到了我们的 java 所在的根目录了,这是我们将这个路径进行选择,其实相当于复制。下面就到我们最后的一步了进行配置环境变量,这里两行我们就可以搞定。相比于 Windows 下面要简单的多了。我们先回到当前用户的家目录,使用 cd 即可。然后编辑我们的 .bashrc 文件。加入以下两行即可。 至此,我们的 java 配置已经完成,接下来就是我们验证的时刻,在验证之前,我们还需要在执行一个命令,执行这个命令的原因是因为我们在刚才的文件中添加了两行命令,系统是否会自动生效的呢,答案是否定,所以这里我们需要手动去使我们刚才加入的那两行命令生效。 执行上面的命令之后,刚才加入的命令就生效了。下面我们来验证 java 是否配置成功,验证是否成功跟我们前面在 windows 下面的验证是一样的,输入 java -version 即可进行验证。 这样我们就完成了 java 的配置,接下来我们就可以在工具里面去配置使用了。 如果你有任何问题,都可以通过下面的方式,联系我。

优秀的个人博客,低调大师

最详细的JavaWeb开发基础之java环境搭建(Windows版)

阅读文本大概需要 3 分钟。 首先欢迎大家来学习JavaWeb,在这里会给你比较详细的教程,从最基本的开始,循序渐进的深入。会让初学者的你少踩很多坑(大实话),如果你已经掌握了JavaWeb开发的基础部分,请耐心等待后续的进阶阶段。 下面开始我们Java环境的安装配置。 1、打开Java官网 http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html,在这里你可以选择你要下载的java版本,这里我们以java1.8为例来讲解。在下载之前,我们需要先接受协议才能够去下载。 接受协议之后,我们可以根据自己电脑是32位系统还是64位系统选择对应的版本去下载。在电脑属性里面可以查看自己电脑是多少位。 这里我们选择64位的java版本去下载,也就是jdk-8u171-windows-x64.exe。下载完成之后会是exe文件。 我们双击进行安装,双击之后,我们会进入一个安装向导 点击下一步 这里显示安装的功能和安装目录,需要安装的功能我们不需要改变,使用默认就行了。但是这里的安装路径,建议大家去修改,因为默认是安装在C盘下面,并且安装的目录名称还包含空格。更重要的是,作为一个具有良好习惯的开发人员,我们经常需要很多开发软件,所以这时我们应该自己新建一个专门放开发工具的目录,以便我们自己很好的去管理。在这里我将安装目录放到我自己的工具文件夹下面,也就是D:\Tools\jdk1.8.0_171。接着我们点击下一步,进行安装,安装完成之后,可以看到如下的目录结构。 到这里我们的java安装就已经完成了,但是如果我们在命令行中去验证的话,会不成功。虽然目前的java安装会自动加入环境变量,但是在我们改变目录之后是不会自动加入的,所以这时需要我们自己手动去加。我们重新打开刚才查看系统位数的那个窗口。 点击高级系统设置 点击环境变量 点击新建一个系统变量 接下来,我们在path里面加入刚才新建的系统变量,这是因为系统在命令行中执行命令的时候是去path里面去找,所以我们将java可执行的bin目录加入到path。 要注意在已有的里面要加上;表示另一个。接着一直点击确定,直到退出环境变量窗口。到这里我们就完成了java环境的配置,接下来我们在命令行中进行验证。我们在键盘上windows键(就是4个方块的那个键)+R,或者点击左下角的程序按钮,找到运行,输入cmd,点击确定。 输入java验证的命令,回车 我们会得到如下结果。 到此,我们的java环境,就已经安装配置完成,后面我们就可以进行开发。祝贺你已经完成了第一步工作,可以给自己鼓励以下。 如果你有任何问题,都可以通过下面的方式,联系我。

优秀的个人博客,低调大师

【Elasticsearch全文搜索引擎实战】之集群搭建及配置

文中Elasticsearch版本为6.0.1 1. 环境配置 把环境配置放在第一节来讲,是因为很多人按官网的Getting Started安装运行会有各种错误。其实都是因为一些配置不正确引起的。 首先,Elasticsearch不能以root账号运行,所以我们需要单独建立用户授权运行。 对于非root账号Linux可以进行并发操作,但是文件、线程都有限制,所以,部署Elasticsearc的机器需要进行相应配置。 修改文件限制 # 修改系统文件 vi /etc/security/limits.conf # 增加的内容 * soft nofile 65536 * hard nofile 65536 * soft nproc 2048 * hard nproc 4096 调整进程数 # 修改系统文件 vi /etc/security/limits.d/90-nproc.conf # 调整成以下配置 * soft nproc 4096 root soft nproc unlimited 调整虚拟内存&最大并发连接 # 修改系统文件 vi /etc/sysctl.conf # 增加的内容 vm.max_map_count=655360 fs.file-max=655360 保存之后执行 sysctl -p 生效 创建Elasticsearch专用用户 useradd es 创建ELK相关目录并赋权 #创建Elasticsearch APP目录 mkdir /usr/elasticsearch #创建Elasticsearch日志目录 数据目录 mkdir var/lib/elasticsearch #创建Elasticsearch日志目录 mkdir var/logs/elasticsearch #更改目录Owner chown -R es:es /usr/elasticsearch chown -R es:es var/lib/elasticsearch chown -R es:es var/logs/elasticsearch 下载Elasticsearch包并解压 https://www.elastic.co/guide/en/elasticsearch/reference/current/zip-targz.html #打开文件夹 cd /home/download #下载 wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.0.1.tar.gz #解压 tar -zvxf elasticsearch-6.0.0.tar.gz 2. Elasticsearch 部署 本次一共要部署两个Elasticsearch节点,所有文中没有指定机器的操作都表示每个Elasticsearch机器都要执行该操作 移动Elasticsearch到统一目录 #移动目录 mv /home/download/elasticsearch-6.0.1 /usr/elasticsearch #赋权 chown -R elk:elk /usr/elasticsearch/ 开放端口(CentOS7+) # 增加端口 firewall-cmd --add-port=9200/tcp --permanent firewall-cmd --add-port=9300/tcp --permanent 重新加载防火墙规则(CentOS7+) firewall-cmd --reload 切换账号 #账号切换到 es su - es 2. Elasticsearch集群配置 修改配置 #打开目录 cd /usr/elasticsearch #修改配置 vi config/elasticsearch.yml 主节点配置(192.168.180.1) cluster.name: es node.name: node-1 path.data: /var/lib/elasticsearch path.logs: /var/logs/elasticsearch network.host: 192.168.180.1 http.port: 9200 node.master: true node.data: true discovery.zen.ping.unicast.hosts: ["192.168.180.1:9300","192.168.180.2:9300"] discovery.zen.minimum_master_nodes: 2 从节点配置(192.168.180.2) cluster.name: es node.name: node-2 path.data: /var/lib/elasticsearch path.logs: /var/logs/elasticsearch network.host: 192.168.180.2 http.port: 9200 node.master: false node.data: true discovery.zen.ping.unicast.hosts: ["192.168.1.31:9300","192.168.1.32:9300"] discovery.zen.minimum_master_nodes: 2 配置参数说明 参数 说明 cluster.name 集群名 node.name 节点名 path.data 数据保存目录 path.logs 日志保存目录 network.host 节点host/ip http.port HTTP访问端口 node.master 是否允许作为主节点 node.data 是否保存数据 discovery.zen.ping.unicast.hosts 集群中的主节点的初始列表,当节点(主节点或者数据节点)启动时使用这个列表进行探测 discovery.zen.minimum_master_nodes master选举最少的节点数,这个一定要设置为N/2+1,其中N是:N是具有master资格的节点的数量,而不是整个集群节点个数 3. 启动Elasticsearch 运行 #进入elasticsearch根目录 cd /usr/elasticsearch #启动 (-d 为后台运行) ./bin/elasticsearch -d 验证 访问http://192.168.180.1:9200/,可以看到如下内容则表示成功: { name: "node-1", cluster_name: "es", cluster_uuid: "Tum8l98uQfK0LdS-KnsWxg", version: { number: "6.0.1", build_hash: "601be4a", build_date: "2017-12-04T09:29:09.525Z", build_snapshot: false, lucene_version: "7.0.1", minimum_wire_compatibility_version: "5.6.0", minimum_index_compatibility_version: "5.0.0" }, tagline: "You Know, for Search" } 健康状态检查 访问http://192.168.180.1:9200/,status返回green则表示正常。 { cluster_name: "es", status: "green", timed_out: false, number_of_nodes: 2, number_of_data_nodes: 2, active_primary_shards: 16, active_shards: 32, relocating_shards: 0, initializing_shards: 0, unassigned_shards: 0, delayed_unassigned_shards: 0, number_of_pending_tasks: 0, number_of_in_flight_fetch: 0, task_max_waiting_in_queue_millis: 0, active_shards_percent_as_number: 100 } 4. Head插件 Elasticsearch head是一个用浏览器跟ES集群交互的插件,可以查看集群状态、集群的doc内容、执行搜索和普通的Rest请求等。 具体安装配置请参考另外一篇博文:http://www.cnblogs.com/mantoudev/p/8269345.html

优秀的个人博客,低调大师

API一键搭建智能时光相册,记录你的美

智能云相册是干什么用的? 智能云相册是阿里云专为影像类应用服务产品。是基于AliOS云相册成长起来的服务,根据历史数据经验,它可以支撑用户管理十亿级别的照片数量、PB级别的照片存储能力。相比之前的产品,智能云相册具有高集成能力,将照片的元数据存储在云端,并利用照片元数据为用户提取用户画像,用照片数据为用户创造价值。 除了提供影像文件存储、管理基础功能外,对影像内容进行分类打标、面孔识别等智能分析,并提供基于自然语言理解的智能搜索服务。 接下来我们举例来快速了解下智能云相册。 某公司租用写字楼里面的一个大房间,然后在大房间里面划分出独立的功能区(比如工位,会议室等),并将工位提供给员工。员工则可以在工位上放置其个人物品。 智能云相册服务就类似于例子中写字楼,购买了智能云相册服务的客户就类似于以上例子中的公司。 但今天我们不讲这个智能云相册是有那

优秀的个人博客,低调大师

大数据测试之hadoop单机环境搭建(超级详细版)

Hadoop的运行模式 单机模式是Hadoop的默认模式,在该模式下无需任何守护进程,所有程序都在单个JVM上运行,该模式主要用于开发和调试mapreduce的应用逻辑; 伪分布式模式下,Hadoop守护进程运行在一台机器上,模拟一个小规模的集群。该模式在单机模式的基础上增加了代码调试的功能,允许你检查NameNode,DataNode,Jobtracker,Tasktracker等模拟节点的运行情况; 单机模式和伪分布式模式均用于开发和调试的目的,真实Hadoop集群的运行采用的是完全分布式模式 单机模式安装步骤 一个干净的linux基础环境(重要,这个环境如果有问题后续就全是问题了) 为了方便大家我已经安装好了一个,大家只需下载导入到vm里即可使用。 下载地址:关注公众号【测试帮日记】对话框里回复“linux”或者加入QQ群522720170。 链接:https://pan.baidu.com/s/1qXRjaK8 密码:xjfk 关闭防火墙(适用于centos7,低版本不适用) 分别执行如下两条命令: systemctl stop firewalld.service systemctl disable firewalld.service 修改host name vi /etc/hosts 然后把自己虚机的名字追加到两行的末尾,如果用的是我们提供的虚机,名字就是linux,追加之后的效果如图 重启网络:/etc/rc.d/init.d/network restart 设置无密码登录(用于hadoop启动) cd ~ #进入当前用户的目录 mkdir -p /root/.ssh #我们用的root用户 cd ~/.ssh/ ssh-keygen -t rsa #如有提示,直接按回车 cat id_rsa.pub >> authorized_keys # 加入授权 安装jdk1.8并配置环境变量 tar解压 cp解压后的包到/usr/lib/java/(如果没有java目录就创建一下) vi /etc/profile,末尾添加如下内容: export JAVA_HOME=/usr/lib/java/jdk1.8.0_11 export JRE_HOME=/usr/lib/java/jdk1.8.0_11/jre export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH export CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib 执行source /etc/profile使得环境变量生效 验证是否成功,如下图 安装hadoop2.7.4 tar解压 cp解压后的包到/usr/lib/hadoop/(如果没有hadoop目录就创建一下) 设置hadoop-env.sh vi /usr/lib/hadoop/hadoop-2.7.4/etc/hadoop/hadoop-env.sh 找到# The java implementation to use.这句话,在下面添加如下内容: #export JAVA_HOME=${JAVA_HOME} export JAVA_HOME=/usr/lib/java/jdk1.8.0_11 export HADOOP_HOME=/usr/lib/hadoop/hadoop-2.7.4 export PATH=$PATH:/usr/lib/hadoop/hadoop-2.7.4/bin export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop 执行source /usr/lib/hadoop/hadoop-2.7.4/etc/hadoop/hadoop-env.sh,使得环境变量生效 验证是否成功,如下图 配置相关的xml文件 vi /usr/lib/hadoop/hadoop-2.7.4/etc/hadoop/core-site.xml(hadoop全局配置) 内容如下: <configuration> <!--指定namenode的地址--> <property> <name>fs.defaultFS</name> <value>hdfs://127.0.0.1:9000</value> </property> </configuration> vi /usr/lib/hadoop/hadoop-2.7.4/etc/hadoop/hdfs-site.xml(hdfs配置) 内容如下: <configuration> <!--指定hdfs保存数据的副本数量--> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> cd /usr/lib/hadoop/hadoop-2.7.4/etc/hadoop cp mapred-site.xml.template mapred-site.xml vi mapred-site.xml(MapReduce的配置) 内容如下: <configuration> <!--告诉hadoop以后MapReduce运行在YARN上--> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> vi yarn-site.xml(yarn配置) 内容如下: <configuration> <!-- Site specific YARN configuration properties --> <!--nomenodeManager获取数据的方式是shuffle--> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration> 格式化hdfs文件系统 初次运行hadoop时一定要有该操作,命令如下: /usr/lib/hadoop/hadoop-2.7.4/bin/hadoop namenode -format 执行期间可能需要确认是否继续,如果有,就输入y回车即可 当你看到如下的内容时证明成功了 如果看到的是exiting with status 1,那么请运行如下命令,之后在进行hdfs的格式化 mkdir -pv /tmp/hadoop-root/dfs/name 启动hadoop(hdfs和yarn) sh /usr/lib/hadoop/hadoop-2.7.4/sbin/start-all.sh sh /usr/lib/hadoop/hadoop-2.7.4/sbin/stop-all.sh #停止 如果没有报错说明就成功了 使用jps命令查看进程,如果出现下面的内容就说明确定以及肯定成功啦 PS:如果修改了上面的xml文件需要重启服务哦 使用web查看Hadoop运行状态 http://你的服务器ip地址:50070/ 使用web查看集群状态 http://你的服务器IP地址:8088 可能会遇到的问题 如果你多次进行了hdfs的格式化操作,可能会无法启动datanode,原因是id不一致,一般的解决方法为将namenode clusterID和datanode clusterID改成一样的就行了。修改的文件为/tmp/hadoop-root/dfs/下的name or data文件下的VERSION里的内容 本文转自 小强测试帮 51CTO博客,原文链接:http://blog.51cto.com/xqtesting/2066724,如需转载请自行联系原作者

优秀的个人博客,低调大师

docker学习笔记(二)——本地私有仓库Registry的搭建与验证

Registry的部署 获取registry镜像 1 #dockerpullregistry:2.1.1 启动registry容器 1 2 3 4 5 6 7 8 9 #dockerrun-d-v/opt/registry:/var/lib/registry-p5000:5000--restart=always--nameregistryregistry:2.1.1 查看进程 #dockerps CONTAINERIDIMAGECOMMANDCREATEDSTATUSPORTSNAMES ac291ed888feregistry:2.1.1 "/bin/registry/et..." 27minutesagoUp27minutes0.0.0.0:5000->5000 /tcp registry 验证服务是否正常 #curlhttp://127.0.0.1:5000/v2/ {} 上传镜像 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 查看本地已有镜像 #dockerimages REPOSITORYTAGIMAGEIDCREATEDSIZE nginxv2570d531c994a4hoursago107MB nginxlatestb8efb18f159b3weeksago107MB centos6.80cd976dc0a9811monthsago195MB registry2.1.152bb991b482e22monthsago220MB 创建dockertag镜像 #dockertagnginx:v2127.0.0.1:5000/nginx:v2 即用ningx:v2创建127.0.0.1:5000 /nginx :v2的镜像 #dockerimages REPOSITORYTAGIMAGEIDCREATEDSIZE 127.0.0.1:5000 /nginx v2570d531c994a4hoursago107MB nginxv2570d531c994a4hoursago107MB nginxlatestb8efb18f159b3weeksago107MB centos6.80cd976dc0a9811monthsago195MB registry2.1.152bb991b482e22monthsago220MB push镜像到本地仓库 #dockerpush127.0.0.1:5000/nginx:v2 Thepushreferstoarepository[127.0.0.1:5000 /nginx ] 04a8761254c7:Pushed af5bd3938f60:Pushed 29f11c413898:Pushed eb78099fbf7f:Pushed v2:digest:sha256:9586184eb142f8c66decfd4fd7b3a2b54abfcb0f0a25541e69ba3725c61ba8b3size:8522 查看是否已经上传 #curlhttp://192.168.12.109:5000/v2/_catalog { "repositories" :[ "nginx" ]} 下载镜像 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 先删除已经有的镜像 [root@DockServeropt] #dockerimages REPOSITORYTAGIMAGEIDCREATEDSIZE 127.0.0.1:5000 /nginx v2570d531c994a4hoursago107MB nginxv2570d531c994a4hoursago107MB nginxlatestb8efb18f159b3weeksago107MB centos6.80cd976dc0a9811monthsago195MB registry2.1.152bb991b482e22monthsago220MB [root@DockServeropt] #dockerrmi-f570d531c994a Untagged:127.0.0.1:5000 /nginx :v2 Untagged:127.0.0.1:5000 /nginx @sha256:9586184eb142f8c66decfd4fd7b3a2b54abfcb0f0a25541e69ba3725c61ba8b3 Untagged:nginx:v2 Deleted:sha256:570d531c994a495b7cba536ac12f9d640141cbbaecd9ae8a114816681a8ca750 Deleted:sha256:f4a3f9102faadf3e941a05724ffe69e3aa3dc1fee5de3762c374ee337a27d60b [root@DockServeropt] #dockerimages REPOSITORYTAGIMAGEIDCREATEDSIZE nginxlatestb8efb18f159b3weeksago107MB centos6.80cd976dc0a9811monthsago195MB registry2.1.152bb991b482e22monthsago220MB 确定已经删除后,我们下载 [root@DockServeropt] #dockerpull127.0.0.1:5000/nginx:v2 v2:Pullingfromnginx 94ed0c431eb5:Alreadyexists 9406c100a1c3:Alreadyexists aa74daafd50c:Alreadyexists 79afb5d63c06:Pullcomplete Digest:sha256:9586184eb142f8c66decfd4fd7b3a2b54abfcb0f0a25541e69ba3725c61ba8b3 Status:Downloadednewerimage for 127.0.0.1:5000 /nginx :v2 [root@DockServeropt] #dockerimages REPOSITORYTAGIMAGEIDCREATEDSIZE 127.0.0.1:5000 /nginx v2d296335af0a94hoursago107MB nginxlatestb8efb18f159b3weeksago107MB centos6.80cd976dc0a9811monthsago195MB registry2.1.152bb991b482e22monthsago220MB 可以看到已经本地仓库 可以成功上传 下载镜像了 本文转自 jackjiaxiong 51CTO博客,原文链接:http://blog.51cto.com/xiangcun168/1957392

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

用户登录
用户注册