Kerberos认证原理与环境部署

一、概述

Kerberos是为TCP/IP网络系统设计的可信的第三方认证协议,用于身份认证。网络上的Keberos服务基于DES对称加密算法,但也可以用其他算法替代。因此,Keberos是一个在许多系统中获得广泛应用的认证协议。Keberos最初是美国麻省理工学院(MIT)为Athena项目开发的。

官网:https://www.kerberos.org/
官方文档:http://web.mit.edu/kerberos/krb5-current/doc/

1)应用场景

Kerberos采用客户端/服务器(CS)结构与DES加密技术,并且能够进行相互认证,即客户端和服务器端均可对对方进行身份认证,是一种应用对称密钥体制进行密钥管理的系统。可以用于防止窃听、防止replay攻击、保护数据完整性等场合。

2)功能特性

  1. 安全性

Kerberos提供双向认证,不仅Server可以对Client 进行认证,Client也能对Server进行认证。Server对Client认证成功之后,通过返回Client发送的时间戳,向Client提供验证自己身份的手段。

  1. 可靠性

认证服务是其他服务的基础,服务认证过程有助于提升整个系统的可用性和高可靠性。

  1. 可扩展性

KDC(秘钥分配中心)是秘钥体系的重要部分,旨在减少密钥体制所固有的交换密钥时所面临的风险。用户可以根据需要扩展多个KDC。

  1. 开放性

Kerberos已经成为计算机领域一个被广泛接受的标准,所以使用Kerberos可以轻松实现不同平台之间的互操作。

二、Kerberos中的核心概念

Kerberos中有以下一些概念需要了解:

1)用户principal

用户principal的形式:

Name[/Instance]@REALM

其中Instance是可选 的,通常用于更好地限定用户的类型。比如,一个管理员用户通常会有admin instance,即Name/admin@REALM

下面是指代用户的 一些principal的例子:

pippo@EXAMPLE.COM 
admin/admin@EXAMPLE.COM
cnicetoupp/admin@EXAMPLE.COM

2)服务principal

用户principal的形式:

Service/Hostname@REALM

下面是指代服务principal的例子:

imap/hadoop-node1@EXAMPLE.COM

host/hadoop-node1@EXAMPLE.COM

afs/hadoop-node1@EXAMPLE.COM

3)Ticket

Ticket分两种:

三、Kerberos架构与工作原理

Kerberos认证原理与环境部署

Kerberos认证原理与环境部署

Kerberos认证时序图:

Kerberos认证原理与环境部署

四、Kerberos安装

官方文档:https://kerberos.org/dist/index.html

【温馨提示】这里主机名和域名都在配置/etc/hosts

192.168.0.113 hadoop-node1 server.kerberos.com
192.168.0.114 hadoop-node2 client1.kerberos.com
192.168.0.115 hadoop-node3 client2.kerberos.com

主机名


IP

角色

hadoop-node1

server.kerberos.com

192.168.0.113

KDC(Kerberos Server、kadmin)

hadoop-node2

client1.kerberos.com

192.168.0.114

Kerberos Client

hadoop-node3

client1.kerberos.com

192.168.0.115

Kerberos Client

1)Kerberos Server 安装

hadoop-node1节点上执行如下命令安装Kerberos Server

1、yum安装

$ yum install krb5-server  krb5-workstation krb5-libs

2、配置 krb5.conf

【温馨提示】/etc/krb5.conf : 客户端根据该文件中的信息取访问KDC

# To opt out of the system crypto-policies configuration of krb5, remove the
# symlink at /etc/krb5.conf.d/crypto-policies which will not be recreated.
includedir /etc/krb5.conf.d/

#Kerberos守护进程的日志记录方式。换句话说,表示 server 端的日志的打印位置。
[logging]
 #默认的krb5libs.log日志文件存放路径
 default = FILE:/var/log/krb5libs.log
 #默认的krb5kdc.log日志文件存放路径
 kdc = FILE:/var/log/krb5kdc.log
 #默认的kadmind.log日志文件存放路径
 admin_server = FILE:/var/log/kadmind.log

#Kerberos使用的默认值,当进行身份验证而未指定Kerberos域时,则使用default_realm参数指定的Kerberos域。即每种连接的默认配置,需要注意以下几个关键的配置:
[libdefaults]
 #DNS查找域名,我们可以理解为DNS的正向解析,该功能我没有去验证过,默认禁用。(我猜测该功能和domain_realm配置有关)
 dns_lookup_realm = false
 # 凭证生效的时限,设置为24h。
 ticket_lifetime = 24h
 # 凭证最长可以被延期的时限,一般为7天。当凭证过期之后,对安全认证的服务的后续访问则会失败。
 renew_lifetime = 7d
 # 如果此参数被设置为true,则可以转发票据,这意味着如果具有TGT的用户登陆到远程系统,则KDC可以颁发新的TGT,而不需要用户再次进行身份验证。
 forwardable = true
 # 我理解是和dns_lookup_realm相反,即反向解析技术,该功能我也没有去验证过,默认禁用即可。
 rdns = false
 # 在KDC中配置pkinit的位置,该参数的具体功能我没有做进一步验证。
 pkinit_anchors = /etc/pki/tls/certs/ca-bundle.crt
 #设置 Kerberos 应用程序的默认领域。如果您有多个领域,只需向 [realms] 节添加其他的语句。其中默认EXAMPLE.COM可以为任意名字,推荐为大写,这里我改成了HADOOP.COM。必须跟要配置的realm的名称一致。
 default_realm = HADOOP.COM
 # 顾名思义,默认的缓存名称,不推荐使用该参数。
 # default_ccache_name = KEYRING:persistent:%{uid}

[realms]
 HADOOP.COM = {
  # kdc服务器地址。格式  [主机名或域名]:端口, 默认端口是88,默认端口可不写
  kdc = server.kerberos.com:88
  #  # admin服务地址 格式 [主机名或域名]:端口, 默认端口749,默认端口可不写
  admin_server = server.kerberos.com:749
  # 代表默认的域名,设置Server主机所对应的域名
  default_domain = kerberos.com
 }
 
#指定DNS域名和Kerberos域名之间映射关系。指定服务器的FQDN,对应的domain_realm值决定了主机所属的域。
[domain_realm]
 .kerberos.com = HADOOP.COM
  kerberos.com = HADOOP.COM

#kdc的配置信息。即指定kdc.conf的位置。
[kdc]
 # kdc的配置文件路径,默认没有配置,如果是默认路径,可以不写
 profile = /var/kerberos/krb5kdc/kdc.conf

3、配置 kdc.conf

【温馨提示】/var/kerberos/krb5kdc/kdc.conf:kdc的专属配置,可以根据自己的需求修改下kdc数据库的存放目录。

[kdcdefaults]
 #指定KDC的默认端口
 kdc_ports = 88
 # 指定KDC的TCP协议默认端口。
 kdc_tcp_ports = 88

[realms]
 #该部分列出每个领域的配置。
 HADOOP.COM = {
  #和 supported_enctypes 默认使用 aes256-cts。由于,JAVA 使用 aes256-cts 验证方式需要安装额外的 jar 包(后面再做说明)。推荐不使用,并且删除 aes256-cts。(建议注释掉,默认也是注释掉的)
  #master_key_type = aes256-cts
  #标注了 admin 的用户权限的文件,若文件不存在,需要用户自己创建。即该参数允许为具有对Kerberos数据库的管理访问权限的UPN指定ACL。
  acl_file = /var/kerberos/krb5kdc/kadm5.acl
   #该参数指向包含潜在可猜测或可破解密码的文件。
  dict_file = /usr/share/dict/words
  #KDC 进行校验的 keytab。
  admin_keytab = /var/kerberos/krb5kdc/kadm5.keytab
  # ticket 的默认生命周期为24h
  max_file = 24h
  # #该参数指定在多长时间内可重获取票据,默认为0
  max_renewable_life = 7d
  #指定此KDC支持的各种加密类型。
  supported_enctypes = aes256-cts:normal aes128-cts:normal des3-hmac-sha1:normal arcfour-hmac:normal camellia256-cts:normal camellia128-cts:normal des-hmac-sha1:normal des-cbc-md5:normal des-cbc-crc:normal
 }

4、配置 kadm5.acl

【温馨提示】/var/kerberos/krb5kdc/kadm5.acl:权限相关配置

其中前一个号是通配符,表示像名为“abc/admin”或“xxx/admin”的人都可以使用此工具(远程或本地)管理kerberos数据库,后一个跟权限有关,*表示所有权限。HADOOP.COM是上面配置的realm。

*/admin@HADOOP.COM     *

Kerberos kadmind 使用该文件来管理对 Kerberos 数据库的访问权限。对于影响 principa 的操作,ACL 文件还控制哪些 principa 可以对哪些其他 principa 进行操作。文件格式如下:

principal  permissions  [target_principal  [restrictions] ]

相关参数说明:

【示例】
kadm5.acl 文件中的以下项授予 HADOOP.COM 领域中包含 admin 实例的任何主体对 Kerberos 数据库的所有权限:

*/admin@HADOOP.COM     *

kadm5.acl 文件中的以下项授予 test@EXAMPLE.COM 主体添加、列出和查询包含 root 实例的任何主体的权限。

test@EXAMPLE.COM ali */root@EXAMPLE.COM

kadm5.acl 文件中的以下项不授予 test@EXAMPLE.COM 主体添加、列出和查询包含 root 实例的任何主体的权限。

test@EXAMPLE.COM ALI */root@EXAMPLE.COM

详细说明可参考官网文档:https://web.mit.edu/kerberos/krb5-latest/doc/admin/conf_files/kadm5_acl.html

5、初始化KDC数据库

$ kdb5_util create -r HADOOP.COM -s
$ ll -a /var/kerberos/krb5kdc/
Kerberos认证原理与环境部署

kerberos数据库创建完之后,默认会创建以下5个文件(kdc.conf、kadm5.acl除外的其他几个),Kerberos 数据库的目录为:/var/kerberos/krb5kdc,如果需要重建数据库,可删除这五个文件重新执行上面的命令创建。

$ rm /var/kerberos/krb5kdc/.k5.HADOOP.COM /var/kerberos/krb5kdc/principal* -f

6、启停 Kerberos 服务

启动:

$ systemctl start krb5kdc kadmin
# 查看服务状态
$ systemctl status krb5kdc kadmin

停止:

$ systemctl stop krb5kdc kadmin

7、kadmin.local

Kerberos 服务机器上可以使用 kadmin.local 来执行各种管理的操作。进入 kadmin.local,不需要输入密码:

$ kadmin.local

常用操作:

操作

描述

示例

add_principal, addprinc, ank

增加 principal

add_principal -randkey test@HADOOP.COM

cpw

修改密码

cpw test@HADOOP.COM

delete_principal, delprinc

删除 principal

delete_principal test@HADOOP.COM

modify_principal, modprinc

修改 principal

modify_principal test@HADOOP.COM

rename_principal, renprinc

重命名 principal

rename_principal test@HADOOP.COM test2@ABC.COM

get_principal, getprinc

获取 principal

get_principal test@HADOOP.COM

list_principals, listprincs, get_principals, getprincs

显示所有 principal

listprincs

ktadd, xst

导出条目到 keytab

xst -k /root/test.keytab test@HADOOP.COM

?

查看帮助

?

Kerberos认证原理与环境部署

【温馨提示】-randkey是密码是随机的,-nokey密码不随机【默认】,得手动输入密码。

【示例】

addprinc -randkey hdfs/admin

addprinc -pw 123456 hdfs/admin
addprinc hdfs/admin
输入密码:123456

2)Kerberos Client 安装

在hadoop-node2和hadoop-node3节点上安装client

$ yum install krb5-devel krb5-workstation -y

配置 krb5.conf

【温馨提示】/etc/krb5.conf : 客户端根据该文件中的信息取访问KDC

# To opt out of the system crypto-policies configuration of krb5, remove the
# symlink at /etc/krb5.conf.d/crypto-policies which will not be recreated.
includedir /etc/krb5.conf.d/

#Kerberos守护进程的日志记录方式。换句话说,表示 server 端的日志的打印位置。
[logging]
 #默认的krb5libs.log日志文件存放路径
 default = FILE:/var/log/krb5libs.log
 #默认的krb5kdc.log日志文件存放路径
 kdc = FILE:/var/log/krb5kdc.log
 #默认的kadmind.log日志文件存放路径
 admin_server = FILE:/var/log/kadmind.log

#Kerberos使用的默认值,当进行身份验证而未指定Kerberos域时,则使用default_realm参数指定的Kerberos域。即每种连接的默认配置,需要注意以下几个关键的配置:
[libdefaults]
 #DNS查找域名,我们可以理解为DNS的正向解析,该功能我没有去验证过,默认禁用。(我猜测该功能和domain_realm配置有关)
 dns_lookup_realm = false
 # 凭证生效的时限,设置为24h。
 ticket_lifetime = 24h
 # 凭证最长可以被延期的时限,一般为7天。当凭证过期之后,对安全认证的服务的后续访问则会失败。
 renew_lifetime = 7d
 # 如果此参数被设置为true,则可以转发票据,这意味着如果具有TGT的用户登陆到远程系统,则KDC可以颁发新的TGT,而不需要用户再次进行身份验证。
 forwardable = true
 # 我理解是和dns_lookup_realm相反,即反向解析技术,该功能我也没有去验证过,默认禁用即可。
 rdns = false
 # 在KDC中配置pkinit的位置,该参数的具体功能我没有做进一步验证。
 pkinit_anchors = /etc/pki/tls/certs/ca-bundle.crt
 #设置 Kerberos 应用程序的默认领域。如果您有多个领域,只需向 [realms] 节添加其他的语句。其中默认EXAMPLE.COM可以为任意名字,推荐为大写,这里我改成了HADOOP.COM。必须跟要配置的realm的名称一致。
 default_realm = HADOOP.COM
 # 顾名思义,默认的缓存名称,不推荐使用该参数。
 default_ccache_name = KEYRING:persistent:%{uid}

[realms]
 HADOOP.COM = {
  # kdc服务器地址。格式  [主机名或域名]:端口, 默认端口是88,默认端口可不写
  kdc = server.kerberos.com:88
  #  # admin服务地址 格式 [主机名或域名]:端口, 默认端口749,默认端口可不写
  admin_server = server.kerberos.com:749
  # 代表默认的域名,设置Server主机所对应的域名
  default_domain = kerberos.com
 }
 
#指定DNS域名和Kerberos域名之间映射关系。指定服务器的FQDN,对应的domain_realm值决定了主机所属的域。
[domain_realm]
 .kerberos.com = HADOOP.COM
  kerberos.com = HADOOP.COM

测试验证连接server

# 默认用户是root/admin@HADOOP.COM,发现在数据库里没有这个用户,可以先在server端创建该用户:add_principal root/admin@HADOOP.COM

$ kadmin
输入密码:123456
Kerberos认证原理与环境部署

指定用户

$ kadmin -p test@HADOOP.COM
Kerberos认证原理与环境部署

3)基本命令操作

1、kadmin(数据库管理)

Kerberos 客户端机器上可以使用 kadmin 来执行各种管理的操作,服务端可以使用kadminkadmin.local命令。需先在 Kerbers Server 上创建登录的 principal,默认为 {当前用户}/admin@realm。

管理KDC数据库有两种方式:

创建用户,注意自己设置的密码

# 交互式
$ kadmin.local

add_principal root/admin

# 非交互式
$ kadmin.local -q "add_principal root/admin"

2、kinit(在客户端认证用户)

$ kinit root/admin@HADOOP.COM
# 查看当前的认证用户
$ klist
Kerberos认证原理与环境部署

3、导出keytab认证文件

使用xst命令或者ktadd命令:

# 非交互式
$ kadmin.local -q "ktadd -norandkey -k /root/root.keytab root/admin"

# 交互式
$ kadmin.local

ktadd -norandkey -k /root/root.keytab root/admin
或xst -k /root/v.keytab root/admin
或xst -norandkey -k /root/root.keytab root/admin

其中 /root/root.keytab为自己指定的路径与文件名,以.keytab结尾;root/admin为之前创建的凭证用户

Kerberos认证原理与环境部署

查看密钥文件

$ klist -kt /root/root.keytab

4、kdestroy(删除当前的认证缓存)

$ kdestroy

5、用户认证(登录)

基于密码认证

$ klist
$ kinit root/admin
输入密码:123456

$ klist

基于密钥认证(keytab)

# 删除当前用户认证
$ kdestroy

# 拿到上面生成的keytab文件
$ klist
$ kinit -kt /root/root.keytab root/admin
$ klist
Kerberos认证原理与环境部署

常见的基础操作就到这里了,更多操作命令,可以查看官方文档和查看帮助。后续会分享kerberos认证实战文章,请小伙伴耐心等待~

展开阅读全文

页面更新:2024-03-06

标签:密钥   端口   客户端   主体   原理   权限   参数   操作   环境   域名   文件   用户

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top