作者:爱情只有确定键没有取消键_874 | 来源:互联网 | 2023-07-25 11:41
Hadoop集群安全Hadoop自带两种安全机制:Simple机制、Kerberos机制1、Simple机制:Simple机制是JAAS协议与delegationtoken结合的一
Hadoop集群安全
Hadoop自带两种安全机制:Simple机制、Kerberos机制
1、Simple机制:
Simple机制是JAAS协议与delegation token结合的一种机制,JAAS(Java Authentication and Authorization Service)java认证与授权服务;
(1)用户提交作业时,JobTracker端要进行身份核实,先是验证到底是不是这个人,即通过检查执行当前代码的人与JobConf中的user.name中的用户是否一致;
(2)然后检查ACL(Access Control List)配置文件(由管理员配置)看你是否有提交作业的权限。一旦你通过验证,会获取HDFS或者mapreduce授予的delegation token(访问不同模块有不同的delegation token),之后的任何操作,比如访问文件,均要检查该token是否存在,且使用者跟之前注册使用该token的人是否一致。
2、Kerberos机制:
Kerberos机制是基于认证服务器的一种方式;
Princal(安全个体):被认证的个体,有一个名字和口令;
KDC(key distribution center):是一个网络服务,提供ticket和临时会话密钥;
Ticket:一个记录,客户用它来向服务器证明自己的身份,包括客户标识、会话密钥、时间戳;
AS(Authentication Server):认证服务器;
TSG(Ticket Granting Server):许可认证服务器;
(1)Client将之前获得TGT和要请求的服务信息(服务名等)发送给KDC,
KDC中的Ticket Granting Service将为Client和Service之间生成一个Session Key用于Service对Client的身份鉴别。
然后KDC将这个Session Key和用户名,用户地址(IP),服务名,有效期, 时间戳一起包装成一个Ticket(这些信息最终用于Service对Client的身份鉴别)发送给Service,
不过Kerberos协议并没有直接将Ticket发送给Service,而是通过Client转发给Service,所以有了第二步。
(2)此时KDC将刚才的Ticket转发给Client。
由于这个Ticket是要给Service的,不能让Client看到,所以KDC用协议开始前KDC与Service之间的密钥将Ticket加密后再发送给Client。
同时为了让Client和Service之间共享那个密钥(KDC在第一步为它们创建的Session Key),
KDC用Client与它之间的密钥将Session Key加密随加密的Ticket一起返回给Client。
(3)为了完成Ticket的传递,Client将刚才收到的Ticket转发到Service。
由于Client不知道KDC与Service之间的密钥,所以它无法算改Ticket中的信息。
同时Client将收到的Session Key解密出来,然后将自己的用户名,用户地址(IP)打包成Authenticator用Session Key加密也发送给Service。
(4)Service 收到Ticket后利用它与KDC之间的密钥将Ticket中的信息解密出来,从而获得Session Key和用户名,用户地址(IP),服务名,有效期。
然后再用Session Key将Authenticator解密从而获得用户名,用户地址(IP)将其与之前Ticket中解密出来的用户名,用户地址(IP)做比较从而验证Client的身份。
(5)如果Service有返回结果,将其返回给Client。
Hadoop集群内部使用Kerberos进行认证
好处:
可靠:Hadoop本身并没有认证功能和创建用户组功能,使用依靠外围的认证系统;
高效:Kerberos使用对称钥匙操作,比SSL的公共密钥快;
操作简单:用户可以方便进行操作,不需要很复杂的指令。比如废除一个用户只需要从Kerbores的KDC数据库中删除即可。
HDFS安全
1、Client获取namenode初始访问认证(使用kerberos)后,会获取一个delegation token,这个token可以作为接下来访问HDFS或提交作业的凭证;
2、同样为了读取某个文件,Client首先要与namenode交互,获取对应block的block access token,
然后到相应的datanode上读取各个block ,
而datanode在初始启动向namenode注册时候,已经提前获取了这些token,
当client要从TaskTracker上读取block时,首先验证token,通过才允许读取。
MapReduce安全
1、所有关于作业的提交或者作业运行状态的追踪均是采用带有Kerberos认证的RPC实现的。
授权用户提交作业时,JobTracker会为之生成一个delegation token,该token将被作为job的一部分存储到HDFS上并通过RPC分发给各个TaskTracker,一旦job运行结束,该token失效。
2、用户提交作业的每个task均是以用户身份启动的,这样一个用户的task便不可以向TaskTracker或者其他用户的task发送操作系统信号,给其他用户造成干扰。这要求为每个用户在所有的TaskTracker上建一个账号;
3、当一个map task运行结束时,它要将计算结果告诉管理它的TaskTracker,之后每个reduce task会通过HTTP向该TaskTracker请求自己要处理的那块数据,Hadoop应该确保其他用户不可以获取map task的中间结果,
其执行过程是:reduce task对“请求URL”和“当前时间”计算HMAC-SHA1值,并将该值作为请求的一部分发动给TaskTracker,TaskTracker收到后会验证该值的正确性。
FROM:http://blog.csdn.net/scgaliguodong123_/article/details/46523569