Soul網關源碼分析-3期(吐血分析)



分析選擇器 - 一個讓人感動的算法


首先分別啓動 soul-adminsoul-bootstrap , 再啓動兩個相同的test服務組建集羣 soul-test-http.

轉到後臺管理頁的 Divide 插件頁, 已經註冊了的選擇器 http 中, 可以看到兩個服務路徑的配置:

在這裏插入圖片描述

前置工作準備就緒, 在 DividePlugin 插件這打個斷點, 看看 selector 的此時內容:

SelectorData(id=1349650852775989248, pluginId=5, pluginName=divide, name=/http, matchMode=0, type=1, sort=1, enabled=true, loged=true, continued=true, handle=[{"upstreamHost":"localhost","protocol":"http://","upstreamUrl":"192.168.31.233:8187","weight":"99"},{"upstreamHost":"localhost","protocol":"http://","upstreamUrl":"192.168.31.233:8188","weight":"1"}], conditionList=[ConditionData(paramType=uri, operator=match, paramName=/, paramValue=/http/**)])

重點的是 handle 屬性, 存放兩個真實路徑信息, 以及權重 weight .


DividePlugindoExecute() 中, 沒有直接使用這個 Selector 的內容, 而是直接在緩存查詢其id的對應信息:

final List<DivideUpstream> upstreamList = UpstreamCacheManager.getInstance().findUpstreamListBySelectorId(selector.getId());

對於檢索到的 DivideUpstream 集合, 有包含權重、路徑等信息, 並經過負載均衡工具類, 選擇出一個服務:

DivideUpstream divideUpstream = LoadBalanceUtils.selector(upstreamList, ruleHandle.getLoadBalance(), ip);

繼續追溯 LoadBalanceUtils 這部分:

public static DivideUpstream selector(final List<DivideUpstream> upstreamList, final String algorithm, final String ip) {
   
       
  // 通過 algorithm, 確定返回的LoadBalance的子類
  LoadBalance loadBalance = ExtensionLoader.getExtensionLoader(LoadBalance.class).getJoin(algorithm);
  // 調用LoadBalance的select(), 從服務集羣中選擇一個節點
  return loadBalance.select(upstreamList, ip);
}

這裏就有疑問了, algorithm 是由上面 ruleHandle.getLoadBalance() 的信息得來, 而 ruleHandle 應該是規則配置, 仔細看了後臺管理頁面, 選擇器中並沒有規則配置, 規則配置被劃分在更加細粒度的路徑上了.

在這裏插入圖片描述

到這基本明白選擇器的玩法了, 集羣間的機器, 只有權重分數不同, 具體落實到不同路徑上, 可以分配不同的規則.

負載規則總共有三種, hash (哈希)、random (隨機)、roundRobin (輪詢). 到這又有疑問了, 後面兩個我大致能猜測到怎樣與權重相作用, 使得實際比率與權重分比相匹配, 但哈希怎麼去分呢? 看看 HashLoadBalance 代碼吧:

public DivideUpstream doSelect(final List<DivideUpstream> upstreamList, final String ip) {
   
       
  final ConcurrentSkipListMap<Long, DivideUpstream> treeMap = new ConcurrentSkipListMap<>();
  for (DivideUpstream address : upstreamList) {
   
       
    // 每個節點*VIRTUAL_NODE_NUM(默認5), 使hash更加均勻
    for (int i = 0; i < VIRTUAL_NODE_NUM; i++) {
   
       
      long addressHash = hash("SOUL-" + address.getUpstreamUrl() + "-HASH-" + i);
      treeMap.put(addressHash, address);
    }
  }
  // 從當前ip得到一個hash值, 並比對treemap(有序), 找到大於此hash值的位置
  long hash = hash(String.valueOf(ip));
  SortedMap<Long, DivideUpstream> lastRing = treeMap.tailMap(hash);
  // 只要服務節點不增減, 同一個ip得到的節點就可以保持不變
  if (!lastRing.isEmpty()) {
   
       
    return lastRing.get(lastRing.firstKey());
  }
  return treeMap.firstEntry().getValue();
}

並沒有使用到 weight 屬性, 可以看到, 當選用 hash 策略時, 權重就失去了其作用. 每個機器都有同等機率, 在某個ip下被訪問到.


看下另一個負載均衡規則, RandomLoadBalance 是怎麼實現權重的:

public DivideUpstream doSelect(final List<DivideUpstream> upstreamList, final String ip) {
   
        
  // 總個數
  int length = upstreamList.size();
  // 總權重
  int totalWeight = 0;
  // 權重是否都一樣
  boolean sameWeight = true;
  for (int i = 0; i < length; i++) {
   
        
    int weight = upstreamList.get(i).getWeight();
    // 累計總權重
    totalWeight += weight;
    if (sameWeight && i > 0
        && weight != upstreamList.get(i - 1).getWeight()) {
   
        
      // 計算所有權重是否一樣
      sameWeight = false;
    }
  }
  if (totalWeight > 0 && !sameWeight) {
   
        
    // 如果權重不相同且權重大於0則按總權重數隨機
    int offset = RANDOM.nextInt(totalWeight);
    // 並確定隨機值落在哪個片斷上
    for (DivideUpstream divideUpstream : upstreamList) {
   
        
      offset -= divideUpstream.getWeight();
      if (offset < 0) {
   
        
        return divideUpstream;
      }
    }
  }
  // 如果權重相同或權重爲0則均等隨機
  return upstreamList.get(RANDOM.nextInt(length));
}

PS: 這些註釋是官方自帶的…

這裏可以通過註釋很明白的得知, 當使用 random 規則時, 所有節點權重分累加並隨機得到數字, 看具體是落在那個節點的權重片段上; 如果分數0或者相同則很直接的隨機集羣長度即可.


最後看下 `RoundRobinLoadBalance` 的實現:
public DivideUpstream doSelect(final List<DivideUpstream> upstreamList, final String ip) {
   
         
  String key = upstreamList.get(0).getUpstreamUrl();
  ConcurrentMap<String, WeightedRoundRobin> map = methodWeightMap.get(key);
  if (map == null) {
   
         
    methodWeightMap.putIfAbsent(key, new ConcurrentHashMap<>(16));
    map = methodWeightMap.get(key);
  }
  int totalWeight = 0;
  long maxCurrent = Long.MIN_VALUE;
  long now = System.currentTimeMillis();
  DivideUpstream selectedInvoker = null;
  WeightedRoundRobin selectedWRR = null;
  for (DivideUpstream upstream : upstreamList) {
   
         
    String rKey = upstream.getUpstreamUrl();
    // 取出節點在緩存中的信息
    WeightedRoundRobin weightedRoundRobin = map.get(rKey);
    int weight = upstream.getWeight();
    if (weightedRoundRobin == null) {
   
         
      weightedRoundRobin = new WeightedRoundRobin();
      weightedRoundRobin.setWeight(weight);
      map.putIfAbsent(rKey, weightedRoundRobin);
    }
    if (weight != weightedRoundRobin.getWeight()) {
   
         
      weightedRoundRobin.setWeight(weight);
    }
    // 這裏是第一個關鍵: 緩存中的分數增加當前節點權重分
    long cur = weightedRoundRobin.increaseCurrent();
    weightedRoundRobin.setLastUpdate(now);
    // 選擇緩存分值高的節點
    if (cur > maxCurrent) {
   
         
      maxCurrent = cur;
      selectedInvoker = upstream;
      selectedWRR = weightedRoundRobin;
    }
    totalWeight += weight;
  }
  if (!updateLock.get() && upstreamList.size() != map.size() && updateLock.compareAndSet(false, true)) {
   
         
    try {
   
         
      ConcurrentMap<String, WeightedRoundRobin> newMap = new ConcurrentHashMap<>(map);
      newMap.entrySet().removeIf(item -> now - item.getValue().getLastUpdate() > recyclePeriod);
      methodWeightMap.put(key, newMap);
    } finally {
   
         
      updateLock.set(false);
    }
  }
  if (selectedInvoker != null) {
   
         
    // 這裏是第二個關鍵: 緩存中的分數, 減少總節點權重分
    selectedWRR.sel(totalWeight);
    return selectedInvoker;
  }
  return upstreamList.get(0);
}

這個算法有點複雜, 我解釋下核心計算權重的方面:

  • 兩個分值分別爲2、100的節點進入, 緩存中保留它們各自, 分值從0開始
  • 經過for循環後, 兩個節點在緩存中的分值會以自身爲基數增加, 假設後面步驟不進行, 則緩存第一次爲2、100, 第二次爲4、200, 依次類推.
  • 關鍵的第三步, 選出節點緩存中分值最高的, 進行"處罰"措施, 減少所有節點的累計分值, 即102.

根據這個算法的步驟, 一直沒有被選中的節點, 作爲"成長獎勵", 會持續以自身爲基數自增; 而被選中的節點, 作爲"懲罰", 會減少其他節點的權重分之和.

可以預見, 權重分小的節點, 要自增到很久之後, 纔會等來自身被選中的一刻, 然而那一刻它被懲罰的力度會非常大, 導致它一朝回到解放前, 又要開始漫長的積蓄力量. 而權重分大的節點, 每次被選上的懲罰力度很小, 即使多次後分數太低沒被選上, 他的獎勵分數(自身)也特別高, 一次增加就遠遠超越其他節點.

(就彷彿看到了一個沒有天賦但一直努力的平凡人, 然而上天彷彿給他開了玩笑, 每到一定時間, 必然降下天罰, 更可悲的是, 千百次的努力也抵不過一次懲罰, 一切又是歸0… 周而往復, 這個平凡的人, 依舊還會用千百次追逐換一次短暫的露頭, 可惡, 我被一個算法感動到了!)




分析 Dubbo 服務 - 中道崩殂…


啓動 soul-test-alibaba-dubbo-service 項目註冊Dubbo服務. 注意要在後臺管理的插件管理中, 將Dubbo插件開啓, 並運行 Zookeeper 服務.

啓動後老習慣, 看看打印的日誌裏能撈出什麼信息:

2021-01-17 00:08:06.702  INFO 2244 --- [pool-1-thread-1] a.d.AlibabaDubboServiceBeanPostProcessor : dubbo client register success :{} {"appName":"dubbo","contextPath":"/dubbo","path":"/dubbo/saveComplexBeanTestAndName","pathDesc":"","rpcType":"dubbo","serviceName":"org.dromara.soul.test.dubbo.api.service.DubboMultiParamService","methodName":"saveComplexBeanTestAndName","ruleName":"/dubbo/saveComplexBeanTestAndName","parameterTypes":"org.dromara.soul.test.dubbo.api.entity.ComplexBeanTest,java.lang.String","rpcExt":"{\"timeout\":10000}","enabled":true}

首先看到啓動過程中陸陸續續的打出這類日誌, 表示註冊了相關Dubbo服務, 這裏有資源名、類名方法名等信息, 關鍵類 AlibabaDubboServiceBeanPostProcessor 中追溯下, 發現還是與http服務的註冊基本一樣, 老一套也恰恰說明, soul 將dubbo服務與http服務定義了同樣的元數據, 設計很好的體現. 之後可以看看元數據這方面的設計.

其他信息就沒什麼有價值的了, 都是Dubbo包打出來的.




分析同步配置 - Dubbo服務調不成功?!


在調用網關轉發 Dubbo 服務期間發生了意外, 沒有成功調取, 於是在插件祖宗類 SoulPlugin 上斷點, 看下都進了哪些插件. 發現除了 WebClientPluginWebClientResponsePlugin, 其他都走了一遍. Web的不走是正確的, 本身是Dubbo服務, 但是, 最關鍵的是沒有看到 DubboPlugin .

於是繼續追溯, 檢查 SoulWebHandler 中獲取到的 plugins 列表, 發現還是那9個, 並沒有Dubbo插件, 繼續探索!

發現 soul-bootstrap 在啓動時的配置 SoulConfiguration , 有獲取:

@Bean("webHandler")
public SoulWebHandler soulWebHandler(final ObjectProvider<List<SoulPlugin>> plugins) {
   
           
  List<SoulPlugin> pluginList = plugins.getIfAvailable(Collections::emptyList);
  final List<SoulPlugin> soulPlugins = pluginList.stream()
    .sorted(Comparator.comparingInt(SoulPlugin::getOrder)).collect(Collectors.toList());
  soulPlugins.forEach(soulPlugin -> log.info("loader plugin:[{}] [{}]", soulPlugin.named(), soulPlugin.getClass().getName()));
  return new SoulWebHandler(soulPlugins);
}

嘗試重啓網關並斷點, 仍然只有9個插件, 疑惑十足. 這時想起, 分析源碼第0期, 有在 soul-bootstrap 啓動日誌中, 看到和 soul-admin 建立 WebSocket 的相關類 WebsocketSyncDataService, 當時還記了一筆日後要分析它的同步配置, 沒想到來的這麼快…


跟蹤 WebsocketSyncDataService 的構造器, 找到監聽類 SoulWebsocketClient :

@Override
public void onMessage(final String result) {
   
            
  handleResult(result);
}

private void handleResult(final String result) {
   
            
  WebsocketData websocketData = GsonUtils.getInstance().fromJson(result, WebsocketData.class);
  ConfigGroupEnum groupEnum = ConfigGroupEnum.acquireByName(websocketData.getGroupType());
  String eventType = websocketData.getEventType();
  String json = GsonUtils.getInstance().toJson(websocketData.getData());
  websocketDataHandler.executor(groupEnum, json, eventType);
}

這個 handleResult() 方法處斷點, 並在 管理後臺 手動點下同步配置, 這裏看到傳入更新插件的json:

{
   
            
    "groupType": "PLUGIN",
    "eventType": "REFRESH",
    "data": [
        {
   
            
            "id": "1",
            "name": "sign",
            "role": 0,
            "enabled": false
        },
        {
   
            
            "id": "2",
            "name": "waf",
            "config": "{\"model\":\"black\"}",
            "role": 0,
            "enabled": false
        },
        {
   
            
            "id": "3",
            "name": "rewrite",
            "role": 0,
            "enabled": false
        },
        {
   
            
            "id": "4",
            "name": "rate_limiter",
            "config": "{\"master\":\"mymaster\",\"mode\":\"Standalone\",\"url\":\"192.168.1.1:6379\",\"password\":\"abc\"}",
            "role": 0,
            "enabled": false
        },
        {
   
            
            "id": "5",
            "name": "divide",
            "role": 0,
            "enabled": true
        },
        {
   
            
            "id": "6",
            "name": "dubbo",
            "config": "{\"register\":\"zookeeper://localhost:2181\"}",
            "role": 0,
            "enabled": true
        },
        {
   
            
            "id": "7",
            "name": "monitor",
            "config": "{\"metricsName\":\"prometheus\",\"host\":\"localhost\",\"port\":\"9190\",\"async\":\"true\"}",
            "role": 0,
            "enabled": false
        },
        {
   
            
            "id": "8",
            "name": "springCloud",
            "role": 0,
            "enabled": false
        },
        {
   
            
            "id": "9",
            "name": "hystrix",
            "role": 0,
            "enabled": false
        }
    ]
}

可以看到, soul-admin 傳來的配置信息都是正確的, 繼續追溯 handleResult , 找到 WebsocketDataHandler 的抽象類 AbstractDataHandler:

public void handle(final String json, final String eventType) {
   
            
  List<T> dataList = convert(json);
  if (CollectionUtils.isNotEmpty(dataList)) {
   
            
    DataEventTypeEnum eventTypeEnum = DataEventTypeEnum.acquireByName(eventType);
    switch (eventTypeEnum) {
   
            
      case REFRESH:
      case MYSELF:
        doRefresh(dataList);
        break;
      case UPDATE:
      case CREATE:
        doUpdate(dataList);
        break;
      case DELETE:
        doDelete(dataList);
        break;
      default:
        break;
    }
  }
}

這裏就是網關的同步刷新機制核心處了, 根據debug找到 doRefresh , 找到插件相關的更新類 PluginDataHandler :

protected void doRefresh(final List<PluginData> dataList) {
   
            
  // 類似清理緩存, 先跳過不管, 關注更新方法
  pluginDataSubscriber.refreshPluginDataSelf(dataList);
  // 追溯這個方法
  dataList.forEach(pluginDataSubscriber::onSubscribe);
}

追溯到 CommonPluginDataSubscriber 類:

public void onSubscribe(final PluginData pluginData) {
   
             
  BaseDataCache.getInstance().cachePluginData(pluginData);
  Optional.ofNullable(handlerMap.get(pluginData.getName())).ifPresent(handler -> handler.handlerPlugin(pluginData));
}

這裏的第二句, 看的出從map匹配對應的handler實現, 不爲空則執行. 查看 PluginDataHandler 的實現, 包含有 AlibabaDubboPluginDataHandler 這個看上去和 Dubbo相關的數據更新類, 但爲什麼插件沒出來呢?

debug到 handlerMap 的數據後, 終於發現問題所在! 這裏的內容, 僅包含之前見到的幾個插件, 根本沒有 Dubbo插件的名稱, 看來問題就出在這裏了.

追溯 handlerMap 的來源, 又回到一切配置的源頭 SoulConfiguration 類, 這裏的 pluginDataSubscriber 方法, 注入了 handlerMap 的所有信息:

@Bean
public PluginDataSubscriber pluginDataSubscriber(final ObjectProvider<List<PluginDataHandler>> pluginDataHandlerList) {
   
             
  return new CommonPluginDataSubscriber(pluginDataHandlerList.getIfAvailable(Collections::emptyList));
}

這是spring bean , 自然是啓動時加載的數據, 那麼這些可讀取的插件信息, 就肯定來自與配置文件.


又是漫長的時間過去, 最終檢查到 soul-bootstrappom.xml 這裏, 看到 alibaba-dubbo 這裏的屏蔽狀態, 我立刻相通了…

<dependency>
  <groupId>org.dromara</groupId>
  <artifactId>soul-spring-boot-starter-plugin-alibaba-dubbo</artifactId>
  <version>${project.version}</version>
</dependency>

解開真相, 找到 soul-spring-boot-starter-plugin-alibaba-dubbo 項目的 AlibabaDubboPluginConfiguration 類, 這裏就有我苦苦找尋的 Dubbo插件數據更新處理類:

@Bean
public PluginDataHandler alibabaDubboPluginDataHandler() {
   
              
  return new AlibabaDubboPluginDataHandler();
}

soul-bootstrap 網關的pom中alibaba-dubbo啓用並重啓項目, 它在 CommonPluginDataSubscriber 裏靜靜躺着:

在這裏插入圖片描述

嘗試 http調用網關dubbo服務, 測試通過! 太辛苦了!




分析請求類型解析


嘗試調用dubbo的時候又發生了個小插曲, 調用沒有走通在 DividePlugin 這裏被喫掉了, 沒有走到 DubboPlugin 處. 折騰了一會後 (重啓等) 再次調用又好了, 在這裏分析下原因:

首先 DividePlugin 插件在 DubboPlugin 插件前, 如果走入 DividePlugin 且沒匹配到規則, 會直接 return 掉, 在 AbstractSoulPluginexecute() 這裏:

public Mono<Void> execute(final ServerWebExchange exchange, final SoulPluginChain chain) {
   
                
  String pluginName = named();
  final PluginData pluginData = BaseDataCache.getInstance().obtainPluginData(pluginName);
  if (pluginData != null && pluginData.getEnabled()) {
   
                
    final Collection<SelectorData> selectors = BaseDataCache.getInstance().obtainSelectorData(pluginName);
    if (CollectionUtils.isEmpty(selectors)) {
   
                
      return CheckUtils.checkSelector(pluginName, exchange, chain);
    }
    final SelectorData selectorData = matchSelector(exchange, selectors);
    // 規則未匹配到, 進入這裏
    if (Objects.isNull(selectorData)) {
   
                
      if (PluginEnum.WAF.getName().equals(pluginName)) {
   
                
        return doExecute(exchange, chain, null, null);
      }
      return CheckUtils.checkSelector(pluginName, exchange, chain);
    }
    ...
  }
  return chain.execute(exchange);
}

CheckUtils 類這裏, 會打印規則未匹配的日誌, 並return:

public static Mono<Void> checkRule(final String pluginName, final ServerWebExchange exchange, final SoulPluginChain chain) {
   
                
  if (PluginEnum.DIVIDE.getName().equals(pluginName)
      || PluginEnum.DUBBO.getName().equals(pluginName)
      || PluginEnum.SPRING_CLOUD.getName().equals(pluginName)) {
   
                
    LOGGER.error("can not match rule data :{}", pluginName);
    Object error = SoulResultWarp.error(SoulResultEnum.RULE_NOT_FIND.getCode(), SoulResultEnum.RULE_NOT_FIND.getMsg(), null);
    return WebFluxResultUtils.result(exchange, error);
  }
  return chain.execute(exchange);
}

所以, 如果關於 Dubbo 服務的調用, 只要走入 DividePlugin 肯定就出不去了, 正常的情況是怎樣呢? 會跳過 DividePlugin 直接下一個的, 具體看 SoulWebHandler 這:

public Mono<Void> execute(final ServerWebExchange exchange) {
   
                 
  return Mono.defer(() -> {
   
                 
    if (this.index < plugins.size()) {
   
                 
      SoulPlugin plugin = plugins.get(this.index++);
      // 如果是dubbo調用, 輪到DividePlugin時會跳過的
      Boolean skip = plugin.skip(exchange);
      if (skip) {
   
                 
        return this.execute(exchange);
      } else {
   
                 
        return plugin.execute(exchange, this);
      }
    } else {
   
                 
      return Mono.empty();
    }
  });
}

繼續追蹤 DividePluginskip() 方法:

public Boolean skip(final ServerWebExchange exchange) {
   
                 
  final SoulContext soulContext = exchange.getAttribute(Constants.CONTEXT);
  // 檢查調用類型是否是 http
  return !Objects.equals(Objects.requireNonNull(soulContext).getRpcType(), RpcTypeEnum.HTTP.getName());
}

這裏得到的 RPCType 正常是 dubbo , 說明剛剛的調用時返回的上下文中 soulContext 信息有誤.

查看下 rpcType 屬性被誰引用, 看到 DefaultSoulContextBuilder 類有 set() 過, debug追溯, 發現每次請求, 都會進入這裏的 build() 去注入相關信息給上下文:

public SoulContext build(final ServerWebExchange exchange) {
   
                 
  final ServerHttpRequest request = exchange.getRequest();
  String path = request.getURI().getPath();
  // 這裏是關鍵, 通過鏈接解析元數據, 得到rpcType類型
  MetaData metaData = MetaDataCache.getInstance().obtain(path);
  if (Objects.nonNull(metaData) && metaData.getEnabled()) {
   
                 
    exchange.getAttributes().put(Constants.META_DATA, metaData);
  }
  return transform(request, metaData);
}

private SoulContext transform(final ServerHttpRequest request, final MetaData metaData) {
   
                 
  final String appKey = request.getHeaders().getFirst(Constants.APP_KEY);
  final String sign = request.getHeaders().getFirst(Constants.SIGN);
  final String timestamp = request.getHeaders().getFirst(Constants.TIMESTAMP);
  SoulContext soulContext = new SoulContext();
  String path = request.getURI().getPath();
  soulContext.setPath(path);
  if (Objects.nonNull(metaData) && metaData.getEnabled()) {
   
                 
    if (RpcTypeEnum.SPRING_CLOUD.getName().equals(metaData.getRpcType())) {
   
                 
      setSoulContextByHttp(soulContext, path);
      // 這裏將元數據的rpctype注入到上下文中
      soulContext.setRpcType(metaData.getRpcType());
    } else {
   
                 
      setSoulContextByDubbo(soulContext, metaData);
    }
  } else {
   
                 
    setSoulContextByHttp(soulContext, path);
    soulContext.setRpcType(RpcTypeEnum.HTTP.getName());
  }
  soulContext.setAppKey(appKey);
  soulContext.setSign(sign);
  soulContext.setTimestamp(timestamp);
  soulContext.setStartDateTime(LocalDateTime.now());
  Optional.ofNullable(request.getMethod()).ifPresent(httpMethod -> soulContext.setHttpMethod(httpMethod.name()));
  return soulContext;
}

繼續追蹤解析類 MetaDataCache:

public MetaData obtain(final String path) {
   
                 
  MetaData metaData = META_DATA_MAP.get(path);
  if (Objects.isNull(metaData)) {
   
                 
    String key = META_DATA_MAP.keySet().stream().filter(k -> PathMatchUtils.match(k, path)).findFirst().orElse("");
    return META_DATA_MAP.get(key);
  }
  return metaData;
}

其中的 PathMatchUtils 會去匹配並輸出類型, 不繼續跟蹤了, 明日嘗試下看還能否復現問題…











發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章