hadoop平台部署_hdfshivehadoop关系

hadoop平台部署_hdfshivehadoop关系一、安装JDK8 【温馨提示】这里使用jdk8,这里不要用其他jdk了,可能会出现一些其他问题的,我用jdk11有些包就找不到,好像jdk9都不行 1)JDK下载地址 http://www.oracl

大数据Hadoop之——部署hadoop+hive环境(window10)

目录
  • 一、安装JDK8
    • 1)JDK下载地址
    • 2)设置环境变量
    • 3)验证
  • 二、Hadoop安装(window10环境)
    • 1)下载Hadoop3.1.3
    • 2)Hadoop配置环境变量
    • 3)在hadoop解压目录下创建相关目录
    • 4)修改Hadoop配置文件
      • 1、core-site.xml文件:添加以下配置
      • 2、hdfs-site.xml文件:添加以下配置,路径改成自己的安装路径
      • 3、mapred-site.xml文件:添加以下配置
      • 4、yarn-site.xml文件:添加以下配置
    • 5)格式化节点
    • 6)替换文件
      • 1、替换bin目录下文件(winutils)
      • 2、按照路径找到图中该文件
    • 7)运行
    • 8)验证
  • 三、Hive安装(window10环境)
    • 1)下载Hive
    • 2)Hive配置环境变量
    • 3)新建本地目录(后面配置文件会用到)
    • 4)在hadoop上创建hdfs目录(后面配置文件会用到)
    • 5)安装mysql8.x
      • 1、下载mysql
      • 2、配置mysql环境变量
      • 3、初始化mysql
      • 4、安装mysql服务
      • 6、通过命令启动服务
      • 7、通过mysql客户端登录验证并修改root密码
      • 8、重置mysql root密码(命令行都要以管理员运行 )
    • 6)修改Hive 配置文件
      • 1、hive-site.xml 文件:配置文件内容如下
      • 2、hive-env.sh 文件:配置文件内容如下
    • 7)替换bin目录
    • 8)下载mysql-connector-java-*.jar
    • 9)创建Hive 初始化依赖的数据库hive,注意编码格式:latin1
    • 10)Hive 初始化数据
    • 11)启动Hive 服务
      • 1、首先启动Hadoop
      • 2、再启动Hive 服务
      • 3、验证
    • 12)配置beeline
      • 1、添加beeline配置
      • 2、启动hiveserver2
      • 2、beeline客户端登录

一、安装JDK8

【温馨提示】这里使用jdk8,这里不要用其他jdk了,可能会出现一些其他问题的,我用jdk11有些包就找不到,好像jdk9都不行

1)JDK下载地址

http://www.oracle.com/technetwork/java/javase/downloads/index.html
hadoop平台部署_hdfshivehadoop关系

按正常下载是需要先登录的,这里提供一个不用登录下载的方法
hadoop平台部署_hdfshivehadoop关系

连接如下:https://www.oracle.com/webapps/redirect/signon?nexturl=https://download.oracle.com/otn/java/jdk/8u321-b07/df5ad55fdd604472a86a45a217032c7d/jdk-8u321-windows-x64.exe

其实只要后半部分,再把标红的otn换成otn-pub就可以直接下载了

https://download.oracle.com/otn-pub/java/jdk/8u321-b07/df5ad55fdd604472a86a45a217032c7d/jdk-8u321-windows-x64.exe

下载完后就是傻瓜式安装了

2)设置环境变量

hadoop平台部署_hdfshivehadoop关系

3)验证

$ java -version

hadoop平台部署_hdfshivehadoop关系

二、Hadoop安装(window10环境)

1)下载Hadoop3.1.3

官网下载:https://hadoop.apache.org/release/3.1.3.html
下载各种版本地址入口:https://hadoop.apache.org/release.html
hadoop平台部署_hdfshivehadoop关系

下载地址:https://archive.apache.org/dist/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz

2)Hadoop配置环境变量

  • HADOOP_HOME

hadoop平台部署_hdfshivehadoop关系
hadoop平台部署_hdfshivehadoop关系

验证

$ hadoop --version

hadoop平台部署_hdfshivehadoop关系

3)在hadoop解压目录下创建相关目录

  • 创建datatmp目录

hadoop平台部署_hdfshivehadoop关系

  • 然后在data文件夹下面再创建namenodedatanode目录

hadoop平台部署_hdfshivehadoop关系

4)修改Hadoop配置文件

配置文件目录:$HADOOP_HOMEetchadoop

1、core-site.xml文件:添加以下配置

<configuration>
	<property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>  
</configuration>

2、hdfs-site.xml文件:添加以下配置,路径改成自己的安装路径

<configuration>
	<property>
		<name>dfs.replication</name>
		<value>1</value>
	</property>
	<property>
		<name>dfs.namenode.name.dir</name>    
		<value>/D:/software/window-hadoop-hive/hadoop/hadoop-3.1.3/data/namenode</value>    
	</property>
	<property>
		<name>dfs.datanode.data.dir</name>    
		<value>/D:/software/window-hadoop-hive/hadoop/hadoop-3.1.3/data/datanode</value>  
	</property>
</configuration>

3、mapred-site.xml文件:添加以下配置

<configuration>
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
</configuration>

4、yarn-site.xml文件:添加以下配置

<configuration>

<!-- Site specific YARN configuration properties -->

	<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
	</property>
	<property>
		<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
		<value>org.apache.hadoop.mapred.ShuffleHandler</value>
	</property>
	<property>
		<name>yarn.nodemanager.resource.memory-mb</name>
		<value>1024</value>
	</property>
	<property>
		<name>yarn.nodemanager.resource.cpu-vcores</name>
		<value>1</value>
	</property>

</configuration>

5)格式化节点

$ hdfs namenode -format

6)替换文件

1、替换bin目录下文件(winutils)

打开winutils文件,把里面的bin文件复制到hadoop的安装路径,替换掉原来的bin文件

下载:apache-hadoop-3.1.0-winutils
也可以去GitHub上下载其它对应版本

hadoop平台部署_hdfshivehadoop关系
hadoop平台部署_hdfshivehadoop关系

当然如果自己有时间也有兴趣的话,可以自己去编译

2、按照路径找到图中该文件

hadoop平台部署_hdfshivehadoop关系

把它复制到上一级目录,即
hadoop平台部署_hdfshivehadoop关系

7)运行

【温馨提示】回到hadoop安装bin目录下,右击以管理员的身份运行start-all.cmd文件,要不然会报权限问题

hadoop平台部署_hdfshivehadoop关系

出现下面四个窗口就是 成功了,注意每个窗口标题的后面的名称,比如yarn nodemanager,如果没有出现则是失败

hadoop平台部署_hdfshivehadoop关系

8)验证

hdfs web 地址:http://localhost:9870/

hadoop平台部署_hdfshivehadoop关系

yarn web 地址:http://localhost:8088/

hadoop平台部署_hdfshivehadoop关系

到此为止window版本的hadoop就安装成功了

三、Hive安装(window10环境)

1)下载Hive

各版本下载地址:http://archive.apache.org/dist/hive

这选择最新版本
hadoop平台部署_hdfshivehadoop关系

hive 3.1.2版本下载地址:http://archive.apache.org/dist/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz

2)Hive配置环境变量

hadoop平台部署_hdfshivehadoop关系

3)新建本地目录(后面配置文件会用到)

hadoop平台部署_hdfshivehadoop关系

4)在hadoop上创建hdfs目录(后面配置文件会用到)

$ hadoop fs  -mkdir       /tmp
$ hadoop fs  -mkdir       /user/
$ hadoop fs  -mkdir       /user/hive/
$ hadoop fs  -mkdir       /user/hive/warehouse 
$ hadoop fs  -chmod g+w   /tmp
$ hadoop fs  -chmod g+w   /user/hive/warehouse

hadoop平台部署_hdfshivehadoop关系
hadoop平台部署_hdfshivehadoop关系

5)安装mysql8.x

1、下载mysql

官网下载:https://dev.mysql.com/downloads/mysql/

hadoop平台部署_hdfshivehadoop关系
hadoop平台部署_hdfshivehadoop关系

2、配置mysql环境变量

hadoop平台部署_hdfshivehadoop关系

3、初始化mysql

【温馨提示】右键以管理员身份运行cmd,否则在安装时会报权限的错,会导致安装失败的情况。

hadoop平台部署_hdfshivehadoop关系

hadoop平台部署_hdfshivehadoop关系

# 切换到mysql bin目录下执行
# cd D:softwarewindow-hadoop-hivemysqlmysql-8.0.28-winx64in
# d:
$ mysqld --initialize --console

hadoop平台部署_hdfshivehadoop关系

4、安装mysql服务

$ mysqld --install mysql

hadoop平台部署_hdfshivehadoop关系

6、通过命令启动服务

$ net start mysql

hadoop平台部署_hdfshivehadoop关系

7、通过mysql客户端登录验证并修改root密码

$ mysql -uroot -p
#输入上面初始化的密码

8、重置mysql root密码(命令行都要以管理员运行 )

  1. 停止mysql服务
$ net stop mysql
  1. 启动MySQL服务的时候跳过权限表认证
$ mysqld --console --skip-grant-tables --shared-memory
  1. 在新开的命令行中执行mysql

【温馨提示】由于上面的命令行被mysql的服务给占用,我们得重新开启一个新的命令行

$ mysql
  1. 将root用户的密码清空
$ update user set authentication_string = ""  where user="root" ;    
  1. quit 退出,然后在之前的命令行将我们开启的mysql服务停止掉(Ctrl+C或者关闭命令行),然后执行net start mysql 重新启动mysql服务
$ net  start mysql
  1. 在我们之后开启的命令行中输入mysql -uroot -p 然后按enter键,输入密码继续按enter键(这里密码已经被清空)
$ mysql -uroot -p
  1. 修改密码
ALTER USER "root"@"localhost" IDENTIFIED BY "123456";
FLUSH PRIVILEGES;

hadoop平台部署_hdfshivehadoop关系

【问题】如果mysql工具出现错误:

Authentication plugin "caching_sha2_password" cannot be loaded

【原因】

很多用户在使用Navicat Premium 12连接MySQL数据库时会出现Authentication plugin “caching_sha2_password” cannot be loaded的错误。

出现这个原因是mysql8 之前的版本中加密规则是mysql_native_password,而在mysql8之后,加密规则是caching_sha2_password, 解决问题方法有两种,一种是升级navicat驱动,一种是把mysql用户登录密码加密规则还原成mysql_native_password.

【解决】

# 管理员权限运行命令
ALTER USER "root"@"localhost" IDENTIFIED BY "123456";

ALTER USER "root"@"localhost" IDENTIFIED WITH mysql_native_password BY "123456";

FLUSH PRIVILEGES;
  1. 退出后,使用新密码登录
$ mysql -uroot -p

hadoop平台部署_hdfshivehadoop关系

6)修改Hive 配置文件

配置文件目录D:softwarewindow-hadoop-hivehiveapache-hive-3.1.2-binconf有4个默认的配置文件模板拷贝成新的文件名

hive-default.xml.template —–> hive-site.xml
hive-env.sh.template —–> hive-env.sh
hive-exec-log4j.properties.template —–> hive-exec-log4j2.properties
hive-log4j.properties.template —–> hive-log4j2.properties

1、hive-site.xml 文件:配置文件内容如下

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!--
   Licensed to the Apache Software Foundation (ASF) under one or more
   contributor license agreements.  See the NOTICE file distributed with
   this work for additional information regarding copyright ownership.
   The ASF licenses this file to You under the Apache License, Version 2.0
   (the "License"); you may not use this file except in compliance with
   the License.  You may obtain a copy of the License at

       http://www.apache.org/licenses/LICENSE-2.0

   Unless required by applicable law or agreed to in writing, software
   distributed under the License is distributed on an "AS IS" BASIS,
   WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
   See the License for the specific language governing permissions and
   limitations under the License.
--><configuration>

<!--hive的临时数据目录,指定的位置在hdfs上的目录-->
	<property>
		<name>hive.metastore.warehouse.dir</name>
		<value>/user/hive/warehouse</value>
		<description>location of default database for the warehouse</description>
	</property>
 
<!--hive的临时数据目录,指定的位置在hdfs上的目录-->
	<property>
		<name>hive.exec.scratchdir</name>
		<value>/tmp/hive</value>
		<description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/&lt;username&gt; is created, with ${hive.scratch.dir.permission}.</description>
	</property>
 
<!-- scratchdir 本地目录 -->
	<property>
		<name>hive.exec.local.scratchdir</name>
		<value>D:/software/window-hadoop-hive/hive/apache-hive-3.1.2-bin/my_hive/scratch_dir</value>
		<description>Local scratch space for Hive jobs</description>
	</property>
 
<!-- resources_dir 本地目录 -->
	<property>
		<name>hive.downloaded.resources.dir</name>
		<value>D:/software/window-hadoop-hive/hive/apache-hive-3.1.2-bin/my_hive/resources_dir/${hive.session.id}_resources</value>
		<description>Temporary local directory for added resources in the remote file system.</description>
	</property>
 
<!-- querylog 本地目录 -->
	<property>
		<name>hive.querylog.location</name>
		<value>D:/software/window-hadoop-hive/hive/apache-hive-3.1.2-bin/my_hive/querylog_dir</value>
		<description>Location of Hive run time structured log file</description>
	</property>
 
<!-- operation_logs 本地目录 -->
	<property>
		<name>hive.server2.logging.operation.log.location</name>
		<value>D:/software/window-hadoop-hive/hive/apache-hive-3.1.2-bin/my_hive/operation_logs_dir</value>
		<description>Top level directory where operation logs are stored if logging functionality is enabled</description>
	</property>
 
<!-- 数据库连接地址配置 -->
	<property>
		<name>javax.jdo.option.ConnectionURL</name>
		<value>jdbc:mysql://localhost:3306/hive?serverTimezone=UTC&amp;useSSL=false&amp;allowPublicKeyRetrieval=true</value>
		<description>
		JDBC connect string for a JDBC metastore.
		</description>
	</property>
 
<!-- 数据库驱动配置 -->
	<property>
		<name>javax.jdo.option.ConnectionDriverName</name>
		<value>com.mysql.cj.jdbc.Driver</value>
		<description>Driver class name for a JDBC metastore</description>
	</property>
 
<!-- 数据库用户名 -->
	<property>
		<name>javax.jdo.option.ConnectionUserName</name>
		<value>root</value>
		<description>Username to use against metastore database</description>
	</property>
 
<!-- 数据库访问密码 -->
	<property>
		<name>javax.jdo.option.ConnectionPassword</name>
		<value>123456</value>
		<description>password to use against metastore database</description>
	</property>
 
<!-- 解决 Caused by: MetaException(message:Version information not found in metastore. ) -->
	<property>
		<name>hive.metastore.schema.verification</name>
		<value>false</value>
		<description>
		Enforce metastore schema version consistency.
		True: Verify that version information stored in is compatible with one from Hive jars. Also disable automatic
		schema migration attempt. Users are required to manually migrate schema after Hive upgrade which ensures
		proper metastore schema migration. (Default)
		False: Warn if the version information stored in metastore doesn"t match with one from in Hive jars.
		</description>
	</property>

<!-- 自动创建全部 -->
<!-- hive Required table missing : "DBS" in Catalog""Schema" 错误 -->
	<property>
		<name>datanucleus.schema.autoCreateAll</name>
		<value>true</value>
		<description>Auto creates necessary schema on a startup if one doesn"t exist. Set this to false, after creating it once.To enable auto create also set hive.metastore.schema.verification=false. Auto creation is not recommended for production use cases, run schematool command instead.</description>
	</property>
</configuration>

2、hive-env.sh 文件:配置文件内容如下

# Set HADOOP_HOME to point to a specific hadoop install directory
export HADOOP_HOME=D:softwarewindow-hadoop-hivehadoophadoop-3.1.3
 
# Hive Configuration Directory can be controlled by:
export HIVE_CONF_DIR=D:softwarewindow-hadoop-hivehiveapache-hive-3.1.2-binconf
 
# Folder containing extra libraries required for hive compilation/execution can be controlled by:
export HIVE_AUX_JARS_PATH=D:softwarewindow-hadoop-hivehiveapache-hive-3.1.2-binlib

7)替换bin目录

【温馨提示】2.2.0版本之后就不提供cmd相关文件了,所以得去下载apache-hive-2.2.0-src.tar.gz,把这个版本里的bin目录文件替换到hive安装bin目录下。

下载:apache-hive-2.2.0-src.tar.gz

8)下载mysql-connector-java-*.jar

这里将mysql-connector-java-*.jar拷贝到安装目录lib下

下载地址:https://repo1.maven.org/maven2/mysql/mysql-connector-java/8.0.28/mysql-connector-java-8.0.28.jar

hadoop平台部署_hdfshivehadoop关系

9)创建Hive 初始化依赖的数据库hive,注意编码格式:latin1

hadoop平台部署_hdfshivehadoop关系

10)Hive 初始化数据

$ hive --service schematool -dbType mysql -initSchema

hadoop平台部署_hdfshivehadoop关系
hadoop平台部署_hdfshivehadoop关系

11)启动Hive 服务

1、首先启动Hadoop

执行指令:stall-all.cmd,上面其实已经验证过了,启动是没问题的

hadoop平台部署_hdfshivehadoop关系

2、再启动Hive 服务

$ hive --service metastore

hadoop平台部署_hdfshivehadoop关系

3、验证

另起一个cmd窗口验证

$ hive
create databases test;
show databases;

12)配置beeline

1、添加beeline配置

【温馨提示】hive命令会慢慢不再使用了,以后就用beeline,如果对hive不了解的,可以看我之前的文章:大数据Hadoop之——数据仓库Hive

在Hive服务安装目录的%HIVE_HOME%confhive-site.xml配置文件中添加以下配置:

<!-- host -->
<property>
	<name>hive.server2.thrift.bind.host</name>
	<value>localhost</value>
	<description>Bind host on which to run the HiveServer2 Thrift service.</description>
</property>

<!-- hs2端口 默认是10000,为了区别,我这里不使用默认端口-->
<property>
	<name>hive.server2.thrift.port</name>
	<value>10001</value>
</property>

在Hadoop服务安装目录的%HADOOP_HOME%etchadoopcore-site.xml配置文件中添加以下配置:

<property>
	<name>hadoop.proxyuser.29209.hosts</name>
	<value>*</value>
</property>
<property>
	<name>hadoop.proxyuser.29209.groups</name>
	<value>*</value>
</property>

【注意】hadoop.proxyuser.29209.hosts和hadoop.proxyuser.29209.hosts,其中29209是连接beeline的用户,将29209替换成自己的用户名即可,其实这里的用户就是我本机的用户,也是上面创建文件夹的用户,这个用户是什么不重要,它就是个超级代理。

hadoop平台部署_hdfshivehadoop关系

2、启动hiveserver2

启动hiveserver2 之前必须重启hive服务

$ hive --service metastore
$ hive --service hiveserver2

【问题】java.lang.NoClassDefFoundError: org/apache/tez/dag/api/SessionNotRunning
【解决】在hive 配置文件hive-site.xml添加如下配置:

<property>
	<name>hive.server2.active.passive.ha.enable</name>
	<value>true</value>
	<description>Whether HiveServer2 Active/Passive High Availability be enabled when Hive Interactive sessions are enabled.This will also require hive.server2.support.dynamic.service.discovery to be enabled.</description>
</property>

重启hiveserver2

$ hive --service metastore
$ hive --service hiveserver2

hadoop平台部署_hdfshivehadoop关系

HiveServer2 web:http://localhost:10002/

hadoop平台部署_hdfshivehadoop关系

2、beeline客户端登录

$ beeline

【问题一】Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hive/jdbc/JdbcUriParseException
【解决】Hadoop缺少hive-jdbc-***.jar,将Hive安装目录下的lib文件夹中的hive-jdbc-3.1.2.jar包复制到Hadoop安装目录sharehadoopcommonlib

hadoop平台部署_hdfshivehadoop关系


【问题二】Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hive/conf/HiveConf
【解决】Hive安装目录下,将hive-common-3.1.2.jar复制到Hadoop安装目录的sharehadoopcommonlib

hadoop平台部署_hdfshivehadoop关系


$ beeline
!connect jdbc:hive2://localhost:10001
29209
# 下面这句跟上面等价,都可以登录
$ %HIVE_HOME%ineeline.cmd -u jdbc:hive2://localhost:10001 -n 29209

【问题三】Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hive/service/cli/HiveSQLException
【解决】把Hive安装目录下,将hive-service-3.1.2.jar复制到Hadoop安装目录的sharehadoopcommonlib下。

再重启登录

$ hive --service metastore
$ hive --service hiveserver2
$ %HIVE_HOME%ineeline.cmd -u jdbc:hive2://localhost:10001 -n 29209

hadoop平台部署_hdfshivehadoop关系

正常登录,一切OK,更多关于大数据的知识,请耐心等待~

原文地址:https://www.cnblogs.com/liugp/archive/2022/05/08/16244600.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/5294.html

(0)
上一篇 2023-05-15
下一篇 2023-05-15

相关推荐

  • Python函数对象无属性错误解决方法

    Python函数对象无属性错误解决方法在Python中,函数也是对象,可以有自己的属性和方法。但是有时候我们会遇到这样的错误:’function’ object has no attribute ‘xxx’,即函数对象没有某个属性。

    2023-12-18
    119
  • HDFS 常用操作命令

    HDFS 常用操作命令HDFS 文件操作命令 注,其实常用命令不用网上搜,和linux下的命令很类似,触类旁通,直接在linux 上 hadoop fs 看一下就行了,不需要刻意去记 我把 linux 上的 help 列举

    2023-03-18
    153
  • mongodb命令行操作_DOS命令

    mongodb命令行操作_DOS命令客户端工具Studio3T 一. 概述 &下载 studio3t是mongodb优秀的客户端工具。 可以更方便的操作mongodb 命令 官方地址 : https://studio3t.com/ 当…

    2023-03-11
    151
  • Python装饰器:优雅地实现逻辑复用

    Python装饰器:优雅地实现逻辑复用在Python中,函数是一等公民,可以作为参数传递给其他函数,也可以作为返回值。装饰器是Python语言提供的一项强大的语法特性,它可以优雅地实现逻辑复用。装饰器可以在不修改原函数的情况下,增加新的功能或修改原函数的行为,这为我们的代码编写提供了更加灵活和简洁的方式。

    2024-03-20
    82
  • MongoDB 聚合分类「建议收藏」

    MongoDB 聚合分类「建议收藏」增加一个集合用于储存股票交易记录 db.transactions.insert([ { symbol: “600519”, qty: 100, price: 567.4, currency: “CN…

    2023-02-14
    160
  • 腾讯云TDSQL基本原理-读写分离

    腾讯云TDSQL基本原理-读写分离当处理大数据量读请求的压力大、要求高时,可以通过读写分离功能将读的压力分布到各个从节点上。 TDSQL MySQL版 默认支持读写分离功能,架构中的每个从机都能支持只读能力,如果配置有多个从机,将由网

    2023-04-20
    163
  • Oracle 11g 数据库的部署[通俗易懂]

    Oracle 11g 数据库的部署[通俗易懂]新手入门之Oracle 11g部署 Oracle Database,又名Oracle RDBMS,或简称Oracle。是甲骨文公司的一款关系数据库管理系统。它是在数据库领域一直处于领先地位的产品。可…

    2023-03-20
    145
  • Redis | 第7章 Redis 服务器《Redis设计与实现》[亲测有效]

    Redis | 第7章 Redis 服务器《Redis设计与实现》[亲测有效](第7章 Redis 服务器) 前言 参考资料:《Redis设计与实现 第二版》; 第二部分为单机数据库的实现,主要由以下模块组成:数据库、持久化、事件、客户端与服务器; 本篇将介绍 Redis 的服

    2023-04-30
    146

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注