热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

大数据Hadoop之——Kafka鉴权认证(Kafkakerberos认证+kafka账号密码认证+CDHKerberos认证)

目录一、Kerberos概述与安装二、KafkaKerberos认证1)创建用户和生成用户keytab2)Kerberos相关配置3)Kafka服务端配置1、修改server.pr

目录
  • 一、Kerberos概述与安装
  • 二、Kafka Kerberos认证
    • 1)创建用户和生成用户keytab
    • 2)Kerberos 相关配置
    • 3)Kafka 服务端配置
      • 1、修改server.properties
      • 2、修改kafka-server-start.sh
    • 4)Kafka 客户端配置
      • 1、配置client.properties
      • 2、配置kafka-client-jaas.conf
      • 3、配置kafka-topics.sh等操作文件
    • 5)将配置文件copy到其它机器上
    • 6)测试验证
      • 1、查看topic 列表
      • 2、创建topic
      • 3、查看topic详情
      • 4、删除topic
      • 4、生产/消费
      • 5、查看消费组积压
  • 四、Kafka 用户密码认证(SASL/PLAIN )
    • 1)Kafka 服务端配置
      • 1、配置jaas
      • 2、配置服务启动参数(kafka-server-start.sh)
      • 3、配置服务启动文件(server.properties)
    • 2)Kafka 客户端配置
      • 1、创建客户端认证配置文件
      • 2、在配置文件中添加属性
      • 3、配置kafka-topics.sh等操作文件
    • 3)测试验证
      • 1、查看topic列表
      • 2、创建topic
      • 3、查看topic详情
      • 4、删除topic
      • 4、生产/消费
      • 5、查看消费组积压
  • 五、CDH 启用Kerberos认证
    • 1)安装Kerberos
    • 2)为CM创建管理员主体/实例
    • 3)在CM上开启Kerberos认证
    • 3)简单使用
      • 1、在Kerberos数据库中创建用户主体/实例
      • 2、进行用户认证访问HDFS


一、Kerberos概述与安装

Kerberos概述与安装可以参考我之前的文章:Kerberos认证原理与环境部署


二、Kafka Kerberos认证

Kafka安装可以参考我以前的文章:

大数据Hadoop之——Kafka 图形化工具 EFAK(EFAK环境部署)

分布式开源协调服务——Zookeeper

Kafka Kerberos认证官方文档:https://kafka.apache.org/31/documentation.html#security_sasl

Kafka 是服务,所以这里使用的是服务principal,不清楚的小伙伴可以看我上面的文章。格式如下:

Service/Hostname@REALM

【温馨提示】SASL:简单验证和安全层 (Simple Authentication and Security Layer,)



1)创建用户和生成用户keytab

在安装 Kerberos 的机器上进入 kadmin(Kerberos 服务端上使用 kadmin.local,安装了 Kerberos Client 的机器上可以使用 kadmin),然后执行如下命令分别创建服务端和客户端的 keytab:

# 创建服务端的keytab,在不同的机器上使用不同主机名对应的keytab文件,格式:principal/hostname@realm
# 【温馨提示】kafka-server要与下面的sasl.kerberos.service.name一致。
$ kadmin.local -q "add_principal -randkey kafka-server/hadoop-node1@HADOOP.COM"
# 创建客户端的keytab(hadoop-node2)
$ kadmin.local -q "add_principal -randkey kafka-server/hadoop-node2@HADOOP.COM"
# 创建客户端的keytab(hadoop-node3)
$ kadmin.local -q "add_principal -randkey kafka-server/hadoop-node3@HADOOP.COM"
# 创建客户端用户
$ kadmin.local -q "add_principal -randkey kafka-client@HADOOP.COM"
# 导出keytab文件,注意这里只能是kafka-server.keytab名字,换成其它名字会报错。这里为了区分,先起另外的名字,在其它节点的时候修改回kafka-server.keytab
$ kadmin.local -q "xst -k /root/kafka-server.keytab kafka-server/hadoop-node1@HADOOP.COM"
$ kadmin.local -q "xst -k /root/kafka-server-node2.keytab kafka-server/hadoop-node2@HADOOP.COM"
$ kadmin.local -q "xst -k /root/kafka-server-node3.keytab kafka-server/hadoop-node3@HADOOP.COM"
$ kadmin.local -q "xst -k /root/kafka-client.keytab kafka-client@HADOOP.COM"
# 验证
$ kinit -kt /root/kafka-server.keytab kafka-server/hadoop-node1
$ kinit -kt /root/kafka-server-node2.keytab kafka-server/hadoop-node2
$ kinit -kt /root/kafka-server-node3.keytab kafka-server/hadoop-node3
$ kinit -kt /root/kafka-client.keytab kafka-client


2)Kerberos 相关配置

拷贝 krb5.confkafka.keytab 文件都放到 Kafka 的 $KAFKA_HOME/config/kerberos 目录下(kerberos 目录需新建)。

$ mkdir $KAFKA_HOME/config/kerberos
$ cp /root/kafka*.keytab $KAFKA_HOME/config/kerberos/
# 将krd5.conf也复制到$KAFKA_HOME/config/kerberos目录下
$ cp /etc/krb5.conf $KAFKA_HOME/config/kerberos/

3)Kafka 服务端配置


1、修改server.properties

复制 $KAFKA_HOME/config/server.properties(复制动作能帮助我们在 认证/非认证 模式自由切换)重命名为 $KAFKA_HOME/config/server-sasl.properties

$ scp $KAFKA_HOME/config/server.properties $KAFKA_HOME/config/server-sasl.properties

增加或修复如下配置:

# 【温馨提示】其中sasl.kerberos.service.name要和principal的名称相同
listeners=SASL_PLAINTEXT://0.0.0.0:19092
advertised.listeners=SASL_PLAINTEXT://hadoop-node1:19092
security.inter.broker.protocol=SASL_PLAINTEXT
sasl.mechanism.inter.broker.protocol=GSSAPI
sasl.enabled.mechanisms=GSSAPI
sasl.kerberos.service.name=kafka-server

新建 kafka-server-jaas.conf 文件,该文件也放到 Kafka 的 $KAFKA_HOME/config/kerberos/ 目录下:

$ cat > $KAFKA_HOME/config/kerberos/kafka-server-jaas.conf <KafkaServer {
com.sun.security.auth.module.Krb5LoginModule required
useKeyTab=true
//不同的主机,需修改成不同的keytab文件
keyTab="/opt/bigdata/hadoop/server/kafka_2.13-3.1.1/config/kerberos/kafka-server.keytab"
storeKey=true
useTicketCache=false
//不同的主机,需修改为本机的主机名
principal="kafka-server/hadoop-node1@HADOOP.COM";
};
//Zookeeper client authentication,配置跟KafkaServer 一样,如果zookeeper开启了kerberos认证,就得加这段配置,我这没开,所以先注释了
//Client {
// com.sun.security.auth.module.Krb5LoginModule required
// useKeyTab=true
// 不同的主机,需修改成不同的keytab文件
// keyTab="/opt/bigdata/hadoop/server/kafka_2.13-3.1.1/config/kerberos/kafka-server.keytab"
// storeKey=true
// useTicketCache=false
// 不同的主机,需修改为本机的主机名
// principal="kafka-server/hadoop-node1@HADOOP.COM";
//};
EOF

2、修改kafka-server-start.sh

复制 bin/kafka-server-start.sh 脚本重命名为 bin/kafka-server-start-sasl.sh

$ cp $KAFKA_HOME/bin/kafka-server-start.sh $KAFKA_HOME/bin/kafka-server-start-sasl.sh

在倒数第二行增加如下配置(bin/kafka-server-start-sasl.sh):

export KAFKA_OPTS="-Dzookeeper.sasl.client=false -Dzookeeper.sasl.client.username=zk-server -Djava.security.krb5.cOnf=/opt/bigdata/hadoop/server/kafka_2.13-3.1.1/config/kerberos/krb5.conf -Djava.security.auth.login.cOnfig=/opt/bigdata/hadoop/server/kafka_2.13-3.1.1/config/kerberos/kafka-server-jaas.conf"

【温馨提示】如果 Zookeeper 开启 Kerberos 认证,则这里 zookeeper.sasl.client 就得设为 true。



4)Kafka 客户端配置


1、配置client.properties


该配置主要为了使用 bin/kafka-topics.sh、bin/kafka-console-consumer.sh、kafka-console-producer.sh 等命令。


新建 client.properties 文件,该文件也放到 Kafka 的 $KAFKA_HOME/config/kerberos 目录下:

$ cat > $KAFKA_HOME/config/kerberos/client.properties <security.protocol=SASL_PLAINTEXT
sasl.mechanism=GSSAPI
sasl.kerberos.service.name=kafka-server
EOF

2、配置kafka-client-jaas.conf

新建 kafka-client-jaas.conf 文件,该文件也放到 Kafka 的 config/kerberos 目录下:

$ cat > $KAFKA_HOME/config/kerberos/kafka-client-jaas.conf <KafkaClient {
com.sun.security.auth.module.Krb5LoginModule required
useKeyTab=true
keyTab="/opt/bigdata/hadoop/server/kafka_2.13-3.1.1/config/kerberos/kafka-client.keytab"
storeKey=true
useTicketCache=false
principal="kafka-client@HADOOP.COM";
};
EOF

3、配置kafka-topics.sh等操作文件

复制 bin/kafka-topics.shbin/kafka-console-producer.shbin/kafka-console-consumer.sh 脚本,分别重命名为 bin/kafka-topics-sasl.shbin/kafka-console-producer-sasl.shbin/kafka-console-consumer-sasl.sh

$ cp $KAFKA_HOME/bin/kafka-topics.sh $KAFKA_HOME/bin/kafka-topics-sasl.sh
$ cp $KAFKA_HOME/bin/kafka-console-producer.sh $KAFKA_HOME/bin/kafka-console-producer-sasl.sh
$ cp $KAFKA_HOME/bin/kafka-console-consumer.sh $KAFKA_HOME/bin/kafka-console-consumer-sasl.sh
$ cp $KAFKA_HOME/bin/kafka-consumer-groups.sh $KAFKA_HOME/bin/kafka-consumer-groups-sasl.sh

在倒数第二行增加如下配置(bin/kafka-xxx.sh):

export KAFKA_OPTS="-Djava.security.krb5.cOnf=/opt/bigdata/hadoop/server/kafka_2.13-3.1.1/config/kerberos/krb5.conf -Djava.security.auth.login.cOnfig=/opt/bigdata/hadoop/server/kafka_2.13-3.1.1/config/kerberos/kafka-client-jaas.conf"

【温馨提示】上面创建了两个keytab文件,但是权限都是一样,都可以操作所有,所以在企业生成环境中,可以考虑把客户端的用户权限控制一下。



5)将配置文件copy到其它机器上

# kafka kerberos配置
$ scp -r $KAFKA_HOME/config/kerberos hadoop-node2:$KAFKA_HOME/config/
$ scp -r $KAFKA_HOME/config/kerberos hadoop-node3:$KAFKA_HOME/config/
# kafka server启动脚本
$ scp $KAFKA_HOME/bin/kafka-server-start-sasl.sh hadoop-node2:$KAFKA_HOME/bin/
$ scp $KAFKA_HOME/bin/kafka-server-start-sasl.sh hadoop-node3:$KAFKA_HOME/bin/
# 【温馨提示】注意修改broker.id、advertised.listeners
# kafka server 配置
$ scp $KAFKA_HOME/config/server-sasl.properties hadoop-node2:$KAFKA_HOME/config/
$ scp $KAFKA_HOME/config/server-sasl.properties hadoop-node3:$KAFKA_HOME/config/
# topic操作
$ scp $KAFKA_HOME/bin/kafka-topics-sasl.sh hadoop-node2:$KAFKA_HOME/bin/
$ scp $KAFKA_HOME/bin/kafka-topics-sasl.sh hadoop-node3:$KAFKA_HOME/bin/
# 生产者
$ scp $KAFKA_HOME/bin/kafka-console-producer-sasl.sh hadoop-node2:$KAFKA_HOME/bin/
$ scp $KAFKA_HOME/bin/kafka-console-producer-sasl.sh hadoop-node3:$KAFKA_HOME/bin/
# 消费者
$ scp $KAFKA_HOME/bin/kafka-console-consumer-sasl.sh hadoop-node2:$KAFKA_HOME/bin/
$ scp $KAFKA_HOME/bin/kafka-console-consumer-sasl.sh hadoop-node3:$KAFKA_HOME/bin/
# 消费组
$ scp $KAFKA_HOME/bin/kafka-consumer-groups-sasl.sh hadoop-node2:$KAFKA_HOME/bin/
$ scp $KAFKA_HOME/bin/kafka-consumer-groups-sasl.sh hadoop-node3:$KAFKA_HOME/bin/

6)测试验证


1、查看topic 列表

运行 bin/kafka-server-start-sasl.sh 启动 Kafka 集群:

$ ./bin/kafka-server-start-sasl.sh config/server-sasl.properties
# 还是跟之前的一样查询,会发现已经不能查询了
$ ./bin/kafka-topics-sasl.sh --list --bootstrap-server hadoop-node1:19092

服务端报的错误

客户端报的错误

正确访问方式

$ cd $KAFKA_HOME
$ ./bin/kafka-topics-sasl.sh --list --bootstrap-server hadoop-node1:19092 --command-config config/kerberos/client.properties

上面是只启动了一台机器,现在验证ok了,就可以把三台kafka的机器都启动,要不然下面的实验会失败,因为之前kafka配置的就是集群模式。如果只启动一台,会报如下错误:


replication factor: 3 larger than available brokers: 1


【问题提示】需要修改



  • 需要注意的是得把kafka-server-node2.keytabkafka-server-node3.keytab修改回kafka-server.keytab

  • 还得把kafka-server-jaas.conf里面的主机名改成本机主机名

  • 修改config/server-sasl.properties文件里的broker.idadvertised.listeners

# hadoop-ndoe2
$ cd $KAFKA_HOME
$ mv config/kerberos/kafka-server-node2.keytab config/kerberos/kafka-server.keytab
$ vi config/kerberos/kafka-server-jaas.conf
$ vi config/server-sasl.properties
$ ./bin/kafka-server-start-sasl.sh -daemon config/server-sasl.properties
# hadoop-ndoe2
$ cd $KAFKA_HOME
$ mv config/kerberos/kafka-server-node3.keytab config/kerberos/kafka-server.keytab
$ vi config/kerberos/kafka-server-jaas.conf
$ vi config/server-sasl.properties
$ ./bin/kafka-server-start-sasl.sh -daemon config/server-sasl.properties

2、创建topic

$ cd $KAFKA_HOME
$ ./bin/kafka-topics-sasl.sh --create --topic test-sasl --bootstrap-server hadoop-node1:19092 --partitions 3 --replication-factor 3 --config retention.ms=259200000 --command-config config/kerberos/client.properties

3、查看topic详情

$ cd $KAFKA_HOME
$ ./bin/kafka-topics-sasl.sh --bootstrap-server hadoop-node1:19092 --describe --topic test-sasl --command-config config/kerberos/client.properties

4、删除topic

$ cd $KAFKA_HOME
$ ./bin/kafka-topics-sasl.sh --delete --topic test-sasl --bootstrap-server hadoop-node1:19092 --command-config config/kerberos/client.properties

4、生产/消费

运行 kafka-console-producer-sasl.sh 生产消息:

$ cd $KAFKA_HOME
$ ./bin/kafka-console-producer-sasl.sh --bootstrap-server hadoop-node1:19092 --topic test-sasl --producer.config config/kerberos/client.properties
{"id":"1","name":"n1","age":"20"}
{"id":"2","name":"n2","age":"21"}
{"id":"3","name":"n3","age":"22"}

运行 bin/kafka-console-consumer-sasl.sh 消费消息:

$ cd $KAFKA_HOME
$ ./bin/kafka-console-consumer-sasl.sh --bootstrap-server hadoop-node1:19092 --topic test-sasl --from-beginning --consumer.config config/kerberos/client.properties
#消费组
$ ./bin/kafka-console-consumer-sasl.sh --bootstrap-server hadoop-node1:19092 --topic test-sasl --from-beginning --group test-sasl --consumer.config config/kerberos/client.properties

5、查看消费组积压

$ cd $KAFKA_HOME
$ ./bin/kafka-consumer-groups-sasl.sh --bootstrap-server hadoop-node1:19092 --describe --group test-sasl --command-config config/kerberos/client.properties

四、Kafka 用户密码认证(SASL/PLAIN )


SASL/PLAIN 是一种简单的用户名/密码认证机制,通常与 TLS 一起用于加密以实现安全认证。Kafka 支持 SASL/PLAIN 的默认实现,可以按照此处所述进行扩展以供生产使用。



1)Kafka 服务端配置


1、配置jaas

在每个 Kafka 代理的配置目录中添加一个经过适当修改的 JAAS 文件,类似于下面的文件,我们将其命名为 kafka_server_jaas.conf 以用于本示例:

$ mkdir $KAFKA_HOME/config/userpwd
$ cat >$KAFKA_HOME/config/userpwd/kafka_server_jaas.conf <KafkaServer {
org.apache.kafka.common.security.plain.PlainLoginModule required
username="admin"
password="adminpasswd"
user_admin="adminpasswd"
user_kafka="123456"
user_producer="producerpwd"
user_cOnsumer="consumerpwd";
};
EOF


  • 该文件中username和password是定义zookeeper集群节点之间认证的用户名和密码

  • user_开头配置的用户kafka和密码kafka是提供给外部应用连接zookeeper使用的,后面kafka使用此用户连接zookeeper。上面配置的user_kafka="123456",用户为kafka,密码为123456

  • username为admin的用户,和user为admin的用户,密码要保持一致,否则会认证失败

上述配置中,创建了三个用户,分别为adminproducerconsumer(创建多少个用户,可根据业务需要配置,用户名和密码可自定义设置)


2、配置服务启动参数(kafka-server-start.sh)

$ cd $KAFKA_HOME
$ cp $KAFKA_HOME/bin/kafka-server-start.sh $KAFKA_HOME/bin/kafka-server-start-pwd.sh
$ vi $KAFKA_HOME/bin/kafka-server-start-pwd.sh

在倒数第二行增加如下配置(bin/kafka-server-start-pwd.sh):

export KAFKA_OPTS="-Dzookeeper.sasl.client=false -Dzookeeper.sasl.client.username=zk-server -Djava.security.auth.login.cOnfig=/opt/bigdata/hadoop/server/kafka_2.13-3.1.1/config/userpwd/kafka_server_jaas.conf"

3、配置服务启动文件(server.properties)

$ cp $KAFKA_HOME/config/server.properties $KAFKA_HOME/config/server-pwd.properties

添加或修改如下配置:

listeners=SASL_PLAINTEXT://0.0.0.0:19092
# 不同的机器修改成对应的主机名
advertised.listeners=SASL_PLAINTEXT://hadoop-node1:19092
security.inter.broker.protocol=SASL_PLAINTEXT
sasl.mechanism.inter.broker.protocol=PLAIN
sasl.enabled.mechanisms=PLAIN
authorizer.class.name=kafka.security.authorizer.AclAuthorizer
allow.everyone.if.no.acl.found=true

2)Kafka 客户端配置


1、创建客户端认证配置文件

$ cat >$KAFKA_HOME/config/userpwd/kafka_client_jaas.conf <KafkaClient {
org.apache.kafka.common.security.plain.PlainLoginModule required
username="kafka"
password="123456";
};
EOF

2、在配置文件中添加属性

client.propertiesproducer.propertiesconsumer.properties 中为每个客户端配置 JAAS 配置属性。



  • 新增client.properties

$ cat >$KAFKA_HOME/config/userpwd/client.properties <security.protocol=SASL_PLAINTEXT
sasl.mechanism=PLAIN
EOF


  • 配置producer.properties

$ cp $KAFKA_HOME/config/producer.properties $KAFKA_HOME/config/producer-pwd.properties
# 在文件末尾添加
security.protocol=SASL_SSL
sasl.mechanism=PLAIN


  • 配置consumer.properties

$ cp $KAFKA_HOME/config/consumer.properties $KAFKA_HOME/config/consumer-pwd.properties
# 在文件末尾添加
security.protocol=SASL_PLAINTEXT
sasl.mechanism=PLAIN

3、配置kafka-topics.sh等操作文件

$ cp $KAFKA_HOME/bin/kafka-topics.sh $KAFKA_HOME/bin/kafka-topics-pwd.sh
$ cp $KAFKA_HOME/bin/kafka-console-producer.sh $KAFKA_HOME/bin/kafka-console-producer-pwd.sh
$ cp $KAFKA_HOME/bin/kafka-console-consumer.sh $KAFKA_HOME/bin/kafka-console-consumer-pwd.sh
$ cp $KAFKA_HOME/bin/kafka-consumer-groups.sh $KAFKA_HOME/bin/kafka-consumer-groups-pwd.sh

在倒数第二行增加如下配置(bin/kafka-xxx.sh):

export KAFKA_OPTS="-Djava.security.auth.login.cOnfig=/opt/bigdata/hadoop/server/kafka_2.13-3.1.1/config/userpwd/kafka_client_jaas.conf"

3)测试验证

启动服务

$ cd $KAFKA_HOME
$ ./bin/kafka-server-start-pwd.sh config/server-pwd.properties

1、查看topic列表

$ cd $KAFKA_HOME
$ ./bin/kafka-topics-pwd.sh --list --bootstrap-server hadoop-node1:19092 --command-config config/userpwd/client.properties

上面已经在单机上验证是没问题了,现在就启动三台机器在验证

# 首先将修改的文件copy到另外两台机器上
# kafka 账号密码认证配置
scp -r $KAFKA_HOME/config/userpwd hadoop-node2:$KAFKA_HOME/config/
scp -r $KAFKA_HOME/config/userpwd hadoop-node3:$KAFKA_HOME/config/
# kafka server启动脚本
scp $KAFKA_HOME/bin/kafka-server-start-pwd.sh hadoop-node2:$KAFKA_HOME/bin/
scp $KAFKA_HOME/bin/kafka-server-start-pwd.sh hadoop-node3:$KAFKA_HOME/bin/
# 【温馨提示】注意修改broker.id、advertised.listeners
# kafka server 配置
scp $KAFKA_HOME/config/server-pwd.properties hadoop-node2:$KAFKA_HOME/config/
scp $KAFKA_HOME/config/server-pwd.properties hadoop-node3:$KAFKA_HOME/config/
# topic
scp $KAFKA_HOME/bin/kafka-topics-pwd.sh hadoop-node2:$KAFKA_HOME/bin/
scp $KAFKA_HOME/bin/kafka-topics-pwd.sh hadoop-node3:$KAFKA_HOME/bin/
# 生成者
scp $KAFKA_HOME/bin/kafka-console-producer-pwd.sh hadoop-node2:$KAFKA_HOME/bin/
scp $KAFKA_HOME/bin/kafka-console-producer-pwd.sh hadoop-node3:$KAFKA_HOME/bin/
# 消费者
scp $KAFKA_HOME/bin/kafka-console-consumer-pwd.sh hadoop-node2:$KAFKA_HOME/bin/
scp $KAFKA_HOME/bin/kafka-console-consumer-pwd.sh hadoop-node3:$KAFKA_HOME/bin/
# 消费组
scp $KAFKA_HOME/bin/kafka-consumer-groups-pwd.sh hadoop-node2:$KAFKA_HOME/bin/
scp $KAFKA_HOME/bin/kafka-consumer-groups-pwd.sh hadoop-node3:$KAFKA_HOME/bin/

启动服务

$ cd $KAFKA_HOME
$ ./bin/kafka-server-start-pwd.sh -daemon config/server-pwd.properties

2、创建topic

$ cd $KAFKA_HOME
$ ./bin/kafka-topics-pwd.sh --create --topic test-pwd --bootstrap-server hadoop-node1:19092 --partitions 3 --replication-factor 3 --config retention.ms=259200000 --command-config config/userpwd/client.properties

3、查看topic详情

$ cd $KAFKA_HOME
$ ./bin/kafka-topics-pwd.sh --bootstrap-server hadoop-node1:19092 --describe --topic test-pwd --command-config config/userpwd/client.properties

4、删除topic

$ cd $KAFKA_HOME
$ ./bin/kafka-topics-pwd.sh --delete --topic test-pwd --bootstrap-server hadoop-node1:19092 --command-config config/userpwd/client.properties

4、生产/消费

运行 kafka-console-producer-sasl.sh 生产消息:

$ cd $KAFKA_HOME
$ ./bin/kafka-console-producer-pwd.sh --bootstrap-server hadoop-node1:19092 --topic test-pwd --producer.config config/userpwd/client.properties
{"id":"1","name":"n1","age":"20"}
{"id":"2","name":"n2","age":"21"}
{"id":"3","name":"n3","age":"22"}

运行 bin/kafka-console-consumer-sasl.sh 消费消息:

$ cd $KAFKA_HOME
$ ./bin/kafka-console-consumer-pwd.sh --bootstrap-server hadoop-node1:19092 --topic test-pwd --from-beginning --consumer.config config/userpwd/client.properties
#消费组
$ ./bin/kafka-console-consumer-pwd.sh --bootstrap-server hadoop-node1:19092 --topic test-pwd --from-beginning --group test-sasl --consumer.config config/userpwd/client.properties

5、查看消费组积压

$ cd $KAFKA_HOME
$ ./bin/kafka-consumer-groups-pwd.sh --bootstrap-server hadoop-node1:19092 --describe --group test-pwd --command-config config/userpwd/client.properties

五、CDH 启用Kerberos认证

CDH的安装可以参考我之前的文章:大数据Hadoop之——Cloudera Hadoop(CM 6.3.1+CDH 6.3.2环境部署)


1)安装Kerberos

Kerberos详解安装讲解可以参考我之前的文章:Kerberos认证原理与环境部署


2)为CM创建管理员主体/实例

$ kadmin.local -q "add_principal cloudera-scm/admin"
输入密码:123456

3)在CM上开启Kerberos认证

全选

通过CM管理krb5.conf,这里我已经提前配置好了,所以不选了。直接下一步继续

配置CM的kerberos管理用户(cloudera-scm/admin),上面创建的

自动导入导入 KDC Account Manager 凭据 ,直接下一步继续

已经装好了kerberos客户端,直接下一步继续即可

自动停止集群为每个组件创建一个kerberos认证用户,然后再自动启动每个组件,等待一段时间即可

完成kerberos安装与配置

查看CM自动创建的kerberos用户

$ kadmin.local -q "listprincs"


3)简单使用

用户访问服务认证


开启Kerberos安全认证之后,日常的访问服务(例如访问HDFS,消费Kafka topic等)都需要先进行安全认证



1、在Kerberos数据库中创建用户主体/实例

$ kadmin.local -q "addprinc hive/hive@HADOOP.COM"
输入密码:123456
再确认密码:123456

2、进行用户认证访问HDFS

# 清理当前用户
$ kdestroy
$ hadoop fs -ls /
# 发现如果没登录,就访问不了了

登录

# 生成ketab文件,一般常用keytab文件去做认证
$ kadmin.local -q "xst -k /root/hive.keytab hive/hive@HADOOP.COM"
$ kinit -kt /root/hive.keytab hive/hive
$ klist
$ hadoop fs -ls /

访问其它组件也类似,这里就不再演示了,感兴趣的小伙伴可以去练习验证一下,本章也到这先结束了,有疑问的小伙伴,欢迎给我留言哦,后续会分享更多关于大数据的文章,请小伙伴耐心等待~



推荐阅读
  • 我们在之前的文章中已经初步介绍了Cloudera。hadoop基础----hadoop实战(零)-----hadoop的平台版本选择从版本选择这篇文章中我们了解到除了hadoop官方版本外很多 ... [详细]
  • 什么是大数据lambda架构
    一、什么是Lambda架构Lambda架构由Storm的作者[NathanMarz]提出,根据维基百科的定义,Lambda架构的设计是为了在处理大规模数 ... [详细]
  • Hadoop源码解析1Hadoop工程包架构解析
    1 Hadoop中各工程包依赖简述   Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。   GoogleCluster:ht ... [详细]
  • 我正在使用sql-serverkafka-connect和debezium监视sqlserver数据库,但是当我发布并运行我的wo ... [详细]
  • python zookeeeper 学习和操作
    1.zookeeeper介绍ZooKeeper是一个为分布式应用所设计的分布的、开源的协调服务,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,简化分布式应用协调及其管理的 ... [详细]
  • Zookeeper为分布式环境提供灵活的协调基础架构。ZooKeeper框架支持许多当今最好的工业应用程序。我们将在本章中讨论ZooKeeper的一些最显着的应用。雅虎ZooKee ... [详细]
  • Java开发实战讲解!字节跳动三场技术面+HR面
    二、回顾整理阿里面试题基本就这样了,还有一些零星的问题想不起来了,答案也整理出来了。自我介绍JVM如何加载一个类的过程,双亲委派模型中有 ... [详细]
  • 2021最新总结网易/腾讯/CVTE/字节面经分享(附答案解析)
    本文分享作者在2021年面试网易、腾讯、CVTE和字节等大型互联网企业的经历和问题,包括稳定性设计、数据库优化、分布式锁的设计等内容。同时提供了大厂最新面试真题笔记,并附带答案解析。 ... [详细]
  • 本文总结了初学者在使用dubbo设计架构过程中遇到的问题,并提供了相应的解决方法。问题包括传输字节流限制、分布式事务、序列化、多点部署、zk端口冲突、服务失败请求3次机制以及启动时检查。通过解决这些问题,初学者能够更好地理解和应用dubbo设计架构。 ... [详细]
  • Kylin 单节点安装
    软件环境Hadoop:2.7,3.1(sincev2.5)Hive:0.13-1.2.1HBase:1.1,2.0(sincev2.5)Spark(optional)2.3.0K ... [详细]
  •        在搭建Hadoop环境之前,请先阅读如下博文,把搭建Hadoop环境之前的准备工作做好,博文如下:       1、CentOS6.7下安装JDK,地址:http:b ... [详细]
  • 既然HDFS是存取数据的分布式文件系统,那么对HDFS的操作,就是文件系统的基本操作,比如文件的创建、修改、删除、修改权限等,文件夹的创建、删除、重命名等。对HDFS的操作命令类似于Linux的she ... [详细]
  • 本文_大数据之非常详细Sqoop安装和基本操作
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了大数据之非常详细Sqoop安装和基本操作相关的知识,希望对你有一定的参考价值。大数据大数据之 ... [详细]
  • Zookeeper 总结与面试题汇总
    Zookeeper总结与面试题汇总,Go语言社区,Golang程序员人脉社 ... [详细]
  • Hadoop之Yarn
    目录1Hadoop1.x和Hadoop2.x架构区别2Yarn概述3Yarn基本架构4Yarn工作机制5作业提交全过程6资源调度器7任务的推测执行1Hadoop1.x和Hadoo ... [详细]
author-avatar
Huiying_Liu
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有