遲來的乾貨 | Kafka許可權管理實戰
今年有很多小夥伴在公眾號或者微信留言問能不能整一篇有關Kafka許可權管理的文章,迫於工作關係,這個需求一直拖後。後來知道我的好友兼Kafka高玩 —— 【一歲小寶 】他一直在弄這一塊的東西,所以我就厚著face皮去催他整一篇,也就是你們接下來看到的內容。本文原文地址:。
有關Kafka許可權管理的資料可謂是少之又少,當你遇到這塊內容的時候,如果靠自己摸索的話會耗費很長的時間。如果現在還沒有接觸到這一塊,也建議收藏本文,以備不時之需。
本片篇幅很大,在編輯本文的時候,右下角字數統計18000字(算上了英文字元,tx的字數統計有點怪異),建議先馬後看。
一、概述
1、Kafka的許可權分類
1)、身份認證(Authentication):對client 與伺服器的連線進行身份認證,brokers和zookeeper之間的連線進行Authentication(producer 和 consumer)、其他 brokers、tools與 brokers 之間連線的認證。
2)、許可權控制(Authorization):實現對於訊息級別的許可權控制,clients的讀寫操作進行Authorization:(生產/消費/group)資料許可權。
2、實現方式
自0.9.0.0版本開始Kafka社群新增了許多功能用於提高Kafka群集的安全性,Kafka提供SSL或者SASL兩種安全策略。SSL方式主要是透過CA令牌實現,此文主要介紹SASL方式。
1)SASL驗證:
驗證方式 | Kafka版本 | 特點 |
---|---|---|
SASL/PLAIN | 0.10.0.0 | 不能動態增加使用者 |
SASL/SCRAM | 0.10.2.0 | 可以動態增加使用者 |
SASL/Kerberos | 0.9.0.0 | 需要獨立部署驗證服務 |
SASL/OAUTHBEARER | 2.0.0 | 需自己實現介面實現token的建立和驗證,需要額外Oauth服務 |
2)SSL加密: 使用SSL加密在代理和客戶端之間,代理之間或代理和工具之間傳輸的資料。
二、使用SASL進行身份驗證
1、SASL/PLAIN驗證
1.1 版本
相關包 | 版本 | 下載地址 |
---|---|---|
Kafka | 0.11.0.0 | |
Zookeeper | 3.4.8 |
1.2 Zookeeper配置
1)修改zoo.cfg增加兩行配置:
authProvider.1=org.apache.zookeeper.server.auth.SASLAuthenticationProvider
requireClientAuthScheme=sasl
2)配置JAAS檔案:
Server {
org.apache.kafka.common.security.plain.PlainLoginModule required
username="admin"
password="admin-sec"
};
說明:定義了需要連結到Zookeeper伺服器的使用者名稱和密碼
3)加入需要的包:
kafka-clients-0.10.0.1.jar
lz4-1.3.0.jar
slf4j-api-1.7.21.jar
slf4j-log4j12-1.7.21.jar
snappy-java-1.1.2.6.jar
如果沒有引入對應的kafka包,啟動kafka時會報找不到org.apache.kafka.common.security.plain.PlainLoginModule包的錯誤。
Zookeeper引入載入包需改Zookeeper指令碼zkEnv.sh,在最後加入:
for i in "$ZOOBINDIR"/../for_sasl/*.jar; do
CLASSPATH="$i:$CLASSPATH"
done
SERVER_JVMFLAGS=" -Djava.security.auth.login.config=$ZOOCFGDIR/zk_server_jaas.conf "
將for_sasl目錄下的所有jar檔案追加到CLASSPATH變數,再設定一個JVM引數給SERVER_JVMFLAGS變數,這兩個變數都會在Zookeeper啟動時傳給JVM。
4)啟動Zookeeper
bin/zkServer.sh start
1.3 Kafka服務端配置
1)kafka增加認證資訊:
建立JAAS檔案:
KafkaServer {
org.apache.kafka.common.security.plain.PlainLoginModule required
username="admin"
password="admin-sec"
user_admin="admin-sec"
user_producer="prod-sec"
user_consumer="cons-sec";
};
user_XXX 為自定義的使用者,所有可以使用的使用者必須在此定義,不能再之後新增。
producer用於開放生產許可權。
consumer用於開放消費許可權。
JAAS檔案定義了連結Kafka Broker時所需要的使用者名稱密碼及broker各個節點之間相互通訊的使用者名稱密碼:
username/ password:broker之間通訊使用的使用者名稱密碼。
user_admin/user_producer/user_consumer:客戶端(管理員、生產者、消費者)連結broker時所使用到的使用者名稱密碼。
2)配置server.properties
listeners=SASL_PLAINTEXT://主機名稱:9092
security.inter.broker.protocol=SASL_PLAINTEXT
sasl.enabled.mechanisms=PLAIN
sasl.mechanism.inter.broker.protocol=PLAIN
authorizer.class.name=kafka.security.auth.SimpleAclAuthorizer
allow.everyone.if.no.acl.found=true //當沒有找到ACL配置時,允許所有的訪問操作。
3)修改啟動指令碼
exec $base_dir/kafka-run-class.sh
$EXTRA_ARGS -Djava.security.auth.login.config
=/home/qa/Downloads/kafka_2.12-0.11.0.1/config/kafka_server_jaas.conf kafka.Kafka "$@"
1.4 Kafka客戶端端配置
1)建立JAAS檔案:消費者:kafka_client_consumer_jaas.conf
KafkaClient {
org.apache.kafka.common.security.plain.PlainLoginModule required
username="consumer"
password="cons-sec";
};
生產者:kafka_client_producer_jaas.conf
KafkaClient {
org.apache.kafka.common.security.plain.PlainLoginModule required
username="producer"
password="prod-sec";
};
2)修改客戶端配置資訊:分別在producer.properties和consumer.properties新增認證機制
security.protocol=SASL_PLAINTEXT
sasl.mechanism=PLAIN
consumer.properties中額外加入分組配置
group.id=test-group
3)修改客戶端指令碼指定JAAS檔案載入:
export KAFKA_HEAP_OPTS="-Xmx512M -Djava.security.auth.login.config=/home/kafka_client_jaas.conf"
1.5 授權
此時已經完成了基本的配置,但是如果測試可以發現無論是生產還是消費,都不被允許。最後一步,我們需要為設定的賬號授權。
1)建立主題:
bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 4 --topic test
2)增加生產許可權:
./kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer
--authorizer-properties zookeeper.connect=localhost:2181
--add --allow-principal User:producer --operation Write --topic test
3)配置消費許可權:
bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer
--authorizer-properties zookeeper.connect=localhost:2181 --add
--allow-principal User:consumer --operation Read --topic test
4)配置消費分組許可權:
bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer
--authorizer-properties zookeeper.connect=localhost:2181 --add
--allow-principal User:consumer --operation Read --group test-group
5)生產資料:
./kafka-console-producer-acl.sh --broker-list 127.0.0.1:9092 --topic test
6)消費資料:
bin/kafka-console-consumer-acl.sh --bootstrap-server 127.0.0.1:9092
--topic test --from-beginning --consumer.config ./config/consumer.properties
我們可以檢視配置的許可權資訊:
bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer
--authorizer-properties zookeeper.connect=localhost:2181 --list
Current ACLs for resource Topic:test: User:producer has Allow permission for operations: Write from hosts: * User:consumer has Allow permission for operations: Read from hosts: * Current ACLs for resource Group:test-group: User:consumer has Allow permission for operations: Read from hosts: *
1.6 JAVA客戶端
在消費者/生產者初始化屬性中引入JAAS檔案:
static{
System.setProperty("java.security.auth.login.config","D://demoPeoject//JpaTest//src//main//resources//kafka_client_scram_consumer_jaas.conf");
}
properties.put("security.protocol", "SASL_PLAINTEXT");
properties.put("sasl.mechanism", "SCRAM-SHA-256");
2、SASL/SCRAM驗證
上一節,我們透過配置SASL/PLAIN驗證,實現了對Kafka的許可權控制。但SASL/PLAIN驗證有一個問題:只能在JAAS檔案KafkaServer中配置使用者,一但Kafka啟動,無法動態新增使用者。
SASL/SCRAM驗證可以動態新增使用者並分配許可權。
2.1 版本
同上文
2.2 啟動Zookeeper和Kafka
此方法是把憑證(credential)儲存在Zookeeper,可以使用kafka-configs.sh在Zookeeper中建立憑據。對於每個SCRAM機制,必須新增具有機制名稱的配置來建立憑證,在啟動Kafka broker之前建立代理間通訊的憑據。
所以第一步,在沒有設定任何許可權的配置下啟動Kafka和Zookeeper。
2.3 建立SCRAM證照
1)建立broker建通訊使用者:admin(在使用sasl之前必須先建立,否則啟動報錯)
bin/kafka-configs.sh --zookeeper 127.0.0.1:2181 --alter
--add-config 'SCRAM-SHA-256=[password=admin-sec],
SCRAM-SHA-512=[password=admin-sec]' --entity-type users --entity-name admin
2)建立生產使用者:producer
bin/kafka-configs.sh --zookeeper 127.0.0.1:2181 --alter
--add-config 'SCRAM-SHA-256=[iterations=8192,password=prod-sec],
SCRAM-SHA-512=[password=prod-sec]' --entity-type users --entity-name producer
3)建立消費使用者:consumer
bin/kafka-configs.sh --zookeeper 127.0.0.1:2181 --alter
--add-config 'SCRAM-SHA-256=[iterations=8192,password=cons-sec],
SCRAM-SHA-512=[password=cons-sec]' --entity-type users --entity-name consumer
SCRAM-SHA-256/SCRAM-SHA-512是對密碼加密的演算法,二者有其一即可。
2.4 檢視SCRAM證照
bin/kafka-configs.sh --zookeeper localhost:2181 --describe --entity-type users --entity-name consumer
bin/kafka-configs.sh --zookeeper localhost:2181 --describe --entity-type users --entity-name producer
2.5 刪除SCRAM證照
bin/kafka-configs.sh --zookeeper localhost:2181 --alter --delete-config 'SCRAM-SHA-512'
--delete-config 'SCRAM-SHA-256' --entity-type users --entity-name producer
2.6 服務端配置
在使用者證照建立完畢之後開始Kafka服務端的配置:
1)建立JAAS檔案:
KafkaServer {
org.apache.kafka.common.security.scram.ScramLoginModule required
username="admin"
password="admin-sec";
};
2)將JAAS配置檔案位置作為JVM引數傳遞給每個Kafka Broker
exec $base_dir/kafka-run-class.sh
$EXTRA_ARGS -Djava.security.auth.login.config
=/home/qa/Downloads/kafka_2.12-0.11.0.1/config/kafka_server_jaas.conf kafka.Kafka "$@"
3)配置server.properties:
認證配置
listeners=SASL_PLAINTEXT://主機名稱:9092
security.inter.broker.protocol=SASL_PLAINTEXT
sasl.mechanism.inter.broker.protocol=SCRAM-SHA-256
sasl.enabled.mechanisms=SCRAM-SHA-256
ACL配置
allow.everyone.if.no.acl.found=false
super.users=User:admin
authorizer.class.name=kafka.security.auth.SimpleAclAuthorizer
可以根據自己的需求選擇SASL_SSL或SASL_PLAINTEXT, PLAINTEXT為不加密明文傳輸,效能好與SSL
4)重啟Kafka和Zookeeper
2.7 客戶端配置
1)為我們建立的三個使用者分別建立三個JAAS檔案:
KafkaClient {
org.apache.kafka.common.security.scram.ScramLoginModule required
username="admin"
password="admin-sec";
};
KafkaClient {
org.apache.kafka.common.security.scram.ScramLoginModule required
username="consumer"
password="cons-sec";
};
KafkaClient {
org.apache.kafka.common.security.scram.ScramLoginModule required
username="producer"
password="prod-sec";
};
2)修改啟動指令碼引入JAAS檔案:
以生產者為例:
exec $(dirname $0)/kafka-run-class.sh
-Djava.security.auth.login.config=/home/qa/Downloads/kafka_2.12-0.11.0.1/config/kafka_client_scram_producer_jaas.conf
3)ACL許可權配置:此時如果我們生產資料則會發生如下錯誤:
上文2.3節中我們建立了三個使用者,但是還未對其賦予操作許可權,接下來我們為其增加許可權。
生產者:
bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer
--authorizer-properties zookeeper.connect=localhost:2181 --add
--allow-principal User:producer --operation Write --topic test --allow-host 192.168.2.*
消費者:
bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer
--authorizer-properties zookeeper.connect=localhost:2181 --add
--allow-principal User:consumer--operation Read --topic test --allow-host 192.168.2.*
為生產者增加分組許可權:
bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer
--authorizer-properties zookeeper.connect=localhost:2181 --add
--allow-principal User:producer --operation Read --group test-group --allow-host 192.168.2.*
分配許可權之後就可以進行生產,消費操作了。(其他顆粒度的許可權設定請參考官方文件)
4)檢視許可權
bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer
--authorizer-properties zookeeper.connect=localhost:2181 --list
2.8 小結
SASL/SCRAM驗證方法可以在Kafka服務啟動之後,動態的新增使用者分並配許可權,在業務變動頻繁,開發人員多的情況下比SASL/PLAIN方法更加靈活。
3. SASL/OAUTHBEARER
SASL/OAUTHBEARER驗證是Kafka2.0版中新增的驗證方式:
KIP-255 adds a framework for authenticating to Kafka brokers using OAuth2 bearer tokens. The SASL/ OAuthBurer implementation is customizable using callbacks for token retrieval and validation.
KIP-255增加了一個使用OAuth2承載令牌對KafkaBroker進行認證的框架。SASL/OAuthBurer實現可使用回撥進行令牌檢索和驗證。
3.1 Oauth2.0驗證
OAuth(開放授權)是一個開放標準,允許使用者授權第三方移動應用訪問他們儲存在另外的服務提供者上的資訊,而不需要將使用者名稱和密碼提供給第三方移動應用或分享他們資料的所有內容,OAuth2.0是OAuth協議的延續版本。
Oauth2.0的工作流程如下圖:
(A)使用者開啟客戶端以後,客戶端要求使用者給予授權。
(B)使用者同意給予客戶端授權。
(C)客戶端使用上一步獲得的授權,向認證伺服器申請令牌。
(D)認證伺服器對客戶端進行認證以後,確認無誤,同意發放令牌。
(E)客戶端使用令牌,向資源伺服器申請獲取資源。
(F)資源伺服器確認令牌無誤,同意向客戶端開放資源。
3.2 JWT規範
Oauth2.0返回驗證令牌使用了JWT格式:JSON Web Token(縮寫 JWT)是目前最流行的跨域認證解決方案,JWT 的原理是,伺服器認證以後,生成一個 JSON 物件,發回給使用者。
JWT由三個部分組成,分別是:
Header(頭部)
Claims(載荷)
Signature(簽名)
1)載荷
{
"sub": "1",
"iss": ",
"iat": 1451888119,
"exp": 1454516119,
"jti": "37c107e4609ddbcc9c096ea5ee76c667"
"nbf": 1451888119
}
sub:該JWT所面向的使用者 iss:該JWT的簽發者 iat(issued at):在什麼時候簽發的token exp(expires):token什麼時候過期 nbf(not before):token在此時間之前不能被接收處理 jti:JWT ID為web token提供唯一標識
2)頭部
{
"typ": "JWT",
"alg": "HS256"
}
typ:指明資料格式 alg:指明加密演算法
3)簽名 以上兩個部分base64編碼之後連結成一個字串,用HS256演算法進行加密。在加密的時候,我們還需要提供一個金鑰(secret):
HMACSHA256(
base64UrlEncode(header) + "." +
base64UrlEncode(payload),
secret
)
算出簽名以後,把 Header、Payload、Signature 三個部分用"點"(.)分割拼成一個字串,就是最後的結果。
完整JWT = 載荷 . 頭部 . 簽名
3.3 版本
相關包 | 版本 | 下載地址 |
---|---|---|
Kafka | 2.12-2.2.0 | |
Zookeeper | 3.4.8 |
Kafka2.0以上版本才支援此種驗證
3.4 預設驗證方式(非安全驗證)
1)服務端配置:
(A)建立用於broker端通訊的JAAS檔案:
KafkaServer {
org.apache.kafka.common.security.oauthbearer.OAuthBearerLoginModule Required
unsecuredLoginStringClaim_sub="thePrincipalName"
unsecuredLoginListClaim_scope=",KAFKA_BROKER,LOGIN_TO_KAFKA"
unsecuredValidatorRequiredScope="LOGIN_TO_KAFKA"
unsecuredValidatorAllowableClockSkewMs="3000";
};
引數說明:
選項 | 說明 |
---|---|
unsecuredValidatorPrincipalClaimName="value" | 預設為“sub”,如果需要修改在此定義 |
unsecuredValidatorScopeClaimName="value" | 數值型別 |
unsecuredValidatorRequiredScope="value" | scope範圍值,可配置字串或者List |
unsecuredValidatorAllowableClockSkewMs="value" | 允許的時間偏差。單位:秒,預設0 |
舉例:
KafkaServer {
org.apache.kafka.common.security.oauthbearer.OAuthBearerLoginModule required
unsecuredLoginStringClaim_sub="admin";
};
admin使用者作為sub的主題使用者用於kafka的broker之間通訊。
(B)在啟動jvm引數中加入該檔案:
-Djava.security.auth.login.config=/etc/kafka/kafka_server_jaas.conf
(C)配置server.properties
listeners=SASL_SSL://host.name:port (or SASL_PLAINTEXT if non-production)
security.inter.broker.protocol=SASL_SSL (or SASL_PLAINTEXT if non-production)
sasl.mechanism.inter.broker.protocol=OAUTHBEARER
sasl.enabled.mechanisms=OAUTHBEARER
2)客戶端配置:
(A)配置producer.properties/consumer.properties
security.protocol=SASL_SSL (or SASL_PLAINTEXT if non-production)
sasl.mechanism=OAUTHBEARER
(B)建立客戶端通訊的JAAS檔案(或配置檔案中增加配置項):
sasl.jaas.config=org.apache.kafka.common.security.oauthbearer.OAuthBearerLoginModule required
unsecuredLoginStringClaim_sub="alice";
JAAS檔案樣本:
KafkaClient {
org.apache.kafka.common.security.oauthbearer.OAuthBearerLoginModule Required
unsecuredLoginStringClaim_sub="thePrincipalName"
unsecuredLoginListClaim_scope="|scopeValue1|scopeValue2"
unsecuredLoginLifetimeSeconds="60";
};
引數說明:
選項 | 說明 |
---|---|
unsecuredLoginStringClaim_<claimname>="value" | 建立一個值為“value”的claim(不能為iat/exp) |
unsecuredLoginNumberClaim_<claimname>="value" | 數值型別 |
unsecuredLoginListClaim_<claimname>="value" | List型別 |
unsecuredLoginPrincipalClaimName | 預設為“sub”,如果需要修改在此定義 |
unsecuredLoginLifetimeSeconds | 超時時間單位:秒,預設3600 |
unsecuredLoginScopeClaimName | 預設為“scope”,如果需要修改在此定義 |
優先順序:配置檔案 > JAAS檔案
(C)驗證過程:
在3.4中我們列出了Kafka提供的一套非安全的驗證用於非正式環境,透過建立和驗證JWT實現驗證。只要配置對應JAAS檔案即可,本節我們來看一下驗證原理。
透過閱讀官方文件瞭解到Kafka提供了一個介面,透過實現介面,建立OAuthBearer token和驗證OAuthBearer token。
此類一共有兩個方法,檢視此介面的繼承關係:
透過名字不難猜到這兩個就是Kafka提供的預設的非安全的驗證類
OAuthBearerUnsecuredValidatorCallbackHandler
OAuthBearerUnsecuredLoginCallbackHandler
先看OAuthBearerUnsecuredLoginCallbackHandler的configure方法:在saslMechanism是OAUTHBEARER並且jaasConfigEntries存在的情況下為moduleOptions賦值。moduleOptions儲存的是JAAS裡面的各種配置項。
handleCallback方法:取出配置的選項值,並組成claimsJson和headerJson,封裝成OAuthBearerUnsecuredJws物件,把值賦給OAuthBearerTokenCallback。
接下來看OAuthBearerUnsecuredValidatorCallbackHandler:
在handleCallback裡對callback裡面的值進行校驗,如果校驗透過則返回OAuthBearerUnsecuredJws,驗證成功,否則丟擲異常。
3.5 安全驗證
Kafka官方文件中說明:
Production use cases will require writing an implementation of org.apache.kafka.common.security.auth.AuthenticateCallbackHandler that can handle an instance of org.apache.kafka.common.security.oauthbearer.OAuthBearerTokenCallback and declaring it via either the sasl.login.callback.handler.class configuration option for a non-broker client or via the listener.name.sasl_ssl.oauthbearer.sasl.login.callback.handler.class configuration option for brokers (when SASL/OAUTHBEARER is the inter-broker protocol). Production use cases will also require writing an implementation of org.apache.kafka.common.security.auth.AuthenticateCallbackHandler that can handle an instance of org.apache.kafka.common.security.oauthbearer.OAuthBearerValidatorCallback and declaring it via the listener.name.sasl_ssl.oauthbearer.sasl.server.callback.handler.class broker configuration option.
分別需要編寫兩個實現類處理OAuthBearerTokenCallback並分別在:
listener.name.sasl_ssl.oauthbearer.sasl.server.callback.handler.class
listener.name.sasl_ssl.oauthbearer.sasl.login.callback.handler.class或者sasl.login.callback.handler.class
3.6 配置
上一節我們討論了Kafka預設提供的兩個實現類,分別實現了AuthenticateCallbackHandler介面,並驗證了基於JWT格式的token。受此啟發我們可以編寫自己的實現類。
1)服務端配置
(A)建立JAAS檔案:
KafkaServer {
org.apache.kafka.common.security.oauthbearer.OAuthBearerLoginModule required
LoginStringClaim_sub="admin";
};
(B)在啟動jvm引數中加入該檔案:
-Djava.security.auth.login.config=/etc/kafka/kafka_server_jaas.conf
(C)配置server.properties:
listeners=SASL_SSL://host.name:port (or SASL_PLAINTEXT if non-production)
security.inter.broker.protocol=SASL_SSL (or SASL_PLAINTEXT if non-production)
sasl.mechanism.inter.broker.protocol=OAUTHBEARER
sasl.enabled.mechanisms=OAUTHBEARER
2)實現介面:此處只給出思路,具體驗證過程根據業務需求定製,我們定義兩個類:
Oauth2AuthenticateLoginCallbackHandler
Oauth2AuthenticateValidatorCallbackHandler
public class Oauth2AuthenticateValidatorCallbackHandler implements AuthenticateCallbackHandler {
... 此處省略無關程式碼...
@Override
public void handle(Callback[] callbacks) throws IOException, UnsupportedCallbackException {
if (!isConfigured())
throw new IllegalStateException("Callback handler not configured");
for (Callback callback : callbacks) {
if (callback instanceof OAuthBearerValidatorCallback)
try {
OAuthBearerValidatorCallback validationCallback = (OAuthBearerValidatorCallback) callback;
handleCallback(validationCallback);
} catch (KafkaException e) {
throw new IOException(e.getMessage(), e);
}
else
throw new UnsupportedCallbackException(callback);
}
}
private void handleCallback(OAuthBearerValidatorCallback callback) {
String accessToken = callback.tokenValue();
if (accessToken == null)
throw new IllegalArgumentException("Callback missing required token value");
log.info("Trying to introspect Token!");
OauthBearerTokenJwt token = OauthHttpClient.introspectBearer(accessToken);
log.info("Trying to introspected");
// Implement Check Expire Token..
long now = time.milliseconds();
if (now > token.expirationTime()) {
OAuthBearerValidationResult.newFailure("Expired Token, needs refresh!");
}
log.info("Validated! token..");
callback.token(token);
}
}
public class Oauth2AuthenticateLoginCallbackHandler implements AuthenticateCallbackHandler {
... 此處省略無關程式碼...
@Override
public void handle(Callback[] callbacks) throws IOException, UnsupportedCallbackException {
if (!isConfigured())
throw new IllegalStateException("Callback handler not configured");
for (Callback callback : callbacks) {
if (callback instanceof OAuthBearerTokenCallback)
try {
handleCallback((OAuthBearerTokenCallback) callback);
} catch (KafkaException e) {
throw new IOException(e.getMessage(), e);
}
else
throw new UnsupportedCallbackException(callback);
}
}
private void handleCallback(OAuthBearerTokenCallback callback) {
if (callback.token() != null)
throw new IllegalArgumentException("Callback had a toke" +
"n already");
log.info("Try to acquire token!");
OauthBearerTokenJwt token = OauthHttpClient.login(null);
log.info("Retrieved token..");
if (token == null) {
throw new IllegalArgumentException("Null token returned from server");
}
callback.token(token);
}
}
OauthBearerTokenJwt token = OauthHttpClient.login(null);
OauthBearerTokenJwt token = OauthHttpClient.introspectBearer(accessToken);
區別在於這兩個方法:
login方法主要是客戶端用自己的資訊(可是是使用者名稱/密碼或者token)建立http或者https請求去Oauth伺服器申請token,並封裝OauthBearerTokenJwt返回。
introspectBearer方法利用自己的accessToken去Oauth伺服器做驗證(查詢資料庫,驗證失效時間等等),驗證成功後同樣返回OauthBearerTokenJwt。
本人用springboot搭建一個簡易的後端用來模擬Oauth服務。
小結
本節介紹了自Kafka2.0版本新增的SASL/OAUTHBEARER驗證以及相關Oauth和JWT技術。分別介紹了Kafka預設的非安全驗證方法和正式環境的驗證實現方法。
SASL/OAUTHBEARER可以加密傳輸驗證資訊,自定義實現類處理建立/驗證token。在此過程中可以對接資料庫,便於持久化使用者許可權資訊。
尚未解決的問題:許可權細粒度不知如何控制,對生產資料,消費資料,分組資訊的控制暫時沒有找到方法。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69940568/viewspace-2653946/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- MySQL許可權管理實戰MySql
- SpringSecurity許可權管理系統實戰—九、資料許可權的配置SpringGse
- 乾貨分享 GBase 8s使用者與許可權管理揭祕
- Linux-許可權管理(ACL許可權)Linux
- django開發之許可權管理(一)——許可權管理詳解(許可權管理原理以及方案)、不使用許可權框架的原始授權方式詳解Django框架
- PostgreSQL:許可權管理SQL
- Mysql——許可權管理MySql
- Mysql 許可權管理MySql
- oracle 許可權管理Oracle
- 4、許可權管理
- sql許可權管理SQL
- 許可權管理策略
- MySQL許可權管理MySql
- Django實戰1-許可權管理功能實現-04:系統入口Django
- 基於RBAC實現許可權管理
- spring aop實現許可權管理Spring
- Linux 許可權管理之目錄許可權限制Linux
- SpringSecurity許可權管理系統實戰—四、整合SpringSecurity(上)SpringGse
- SpringSecurity許可權管理系統實戰—五、整合SpringSecurity(下)SpringGse
- SpringSecurity許可權管理系統實戰—六、SpringSecurity整合JWTSpringGseJWT
- 關於許可權管理的實用指令碼指令碼
- Unlimited Tablespace 許可權 及 “延遲段”特性MIT
- 如何用 Vue 實現前端許可權控制(路由許可權 + 檢視許可權 + 請求許可權)Vue前端路由
- Security 10:許可權管理
- SQL Server 許可權管理SQLServer
- 許可權管理[Linux]Linux
- MongoDB 3.0.8 許可權管理MongoDB
- Oracle的物件許可權、角色許可權、系統許可權Oracle物件
- Django實戰1-許可權管理功能實現-02:專案設定Django
- 【許可權管理】Oracle中檢視、回收使用者許可權Oracle
- 資料庫的許可權管理資料庫
- fastadmin的許可權管理authAST
- Linux 中的許可權管理Linux
- Linux 下許可權的管理Linux
- 常見的許可權管理命令
- 使用動態路由實現許可權管理路由
- 淺談許可權管理的設計與實現
- vue+elementUI實現許可權的部門管理VueUI