原创 Dubbo基礎(五)- Consumer的初始化過程A:配置讀取及獲取代理

前面花了三篇文章一起深入源碼,分析了 Dubbo 服務提供者是如何 暴露服務的: 配置讀取過程refresh過程 外部化配置初始化過程 服務暴露詳解 Dubbo 是如何暴露一個服務呢?相信你讀完上面三篇就懂了。 示例 本篇主要

原创 Dubbo進階(七)- Dubbo 中默認的 Adaptive類生成過程及例子

上一篇文章重點分析了 SPI 加載過程,但是中途遺漏了一個點,當 SPI 相關類中,沒有 @Adaptive 註解怎麼辦? 本文主要分析這一過程。 這一過程代碼組要在 ExtensionLoader 的 getAdaptiveEx

原创 Dubbo基礎(四)- Provider的初始化過程C:服務暴露詳解

前兩篇詳細講解了 服務初始化過程的一些細節,分別是: 外部化配置初始化過程 配置初始化順序 多個配置,先後優先級問題 本篇文章則着重分析服務服務暴露 doExport 在檢查完配置之後,就會進入 doExport,當然會判定是

原创 Dubbo基礎(三)- Provider的初始化過程B:外部化配置初始化過程

Provider初始化是一個較爲複雜,但是邏輯清晰的一段代碼。 上一篇文章細緻的分析了 refresh過程,refresh 是AbstractConfig的方法,即所有 它的子類,即所有 Config配置,都可以用到的方法。 主要

原创 Class.isPrimitive 用法解析 及變種

概述 此方法主要是用來檢測是否爲Java中8種基本類型boolean、char、byte、short、int、long、float、double、void 例子 public class TestPrimitive { p

原创 Dubbo基礎(二)- Provider的初始化過程A:配置讀取過程refresh過程

在上一篇文章中,主要用了 dubbo-samples的一個簡單例子,來跑通了Dubbo例子,那麼這一篇文章中,將以上一篇文章爲基礎,研究下Dubbo Provider是如何跑起來的。 ServiceConfig 以下思路是先從設置

原创 Dubbo基礎(一)- 第一個例子 HelloDubbo

今天開始,一起研究Dubbo,從最基本的Hello World開始,經過源碼一步步學習架構。 Dubbo Dubbo 是一款高性能Java RPC 框架,由阿里巴巴捐給Apache ,經過長時間孵化,Dubbo正式畢業。稱爲Apa

原创 讀書計劃

計劃從2019年4月中旬開始: 億級流量網站架構核心技術 時間:2019年3月到4月初 作者:張開濤 讀完了張開濤所著的《億級流量網站架構核心技術》,從裏面學到了對架構構建,優化的一些思路,還有許多的業界成熟的解決大流量的方法。

原创 解決svn清理失敗,路徑顯示亂碼問題

如果遇到這種問題,如下圖: 解決方法可以更改svn的內置數據庫記錄,解決方法如下: 下載sqlite.exe 將解壓後的SQLite.exe放到svn/.svn/下面 使用SQLite.exe連接wc.db,然後就可以執行sql

原创 ZooKeeper學習(一)- ZooKeeper僞集羣搭建

所謂僞集羣,就是所有集羣都在一個機器上,但還是以集羣的特性對外gong服務。 下面以3個機器爲例子簡單記錄下搭建過程。 下載ZooKeeper:http://www.apache.org/dist/zookeeper/ 使用tar命

原创 跟A君學大數據(四)-用MapReduce實現表關聯

前言 前面使用MapReduce,可以進行單詞計數,單詞去重,數字排序等,那麼結合到數據庫應用, 如何實現表關聯呢? MapReduce更像算法題,怎麼通過Map和Reduce這兩個步驟來實現關聯,得到所需數據呢? 例如有一張表,裏面

原创 跟A君學大數據(三)--利用MapReduce對多文件數據進行排序

先來一個小插曲 MapReduce Job中的全局數據 在MapReduce中如何保存全局數據呢?可以考慮以下幾種方式 讀寫HDFS文件,即將變量存在一個地方 配置Job屬性,即將變量寫道配置(Configuration)中 使用D

原创 跟A君學大數據(二)-手把手運行Hadoop的WordCount程序

前一篇文章介紹了Hadoop的安裝以及簡單配置,博主以僞分佈式的方式安裝,即單機安裝極有master也有cluster。 本篇文章將展示如何運行經典的WordCount程序。 源代碼 首先例子源代碼如下: package com.an

原创 跟A君學大數據(一)-Hadoop安裝及配置

在前一章已經學習了Hadoop的基本結構,本章內容包括Hadoop的安裝以及Hello World。 安裝 博主電腦環境是Ubuntu 16.04 LTS 下載 首先,從Hadoop官網下載https://hadoop.apache.

原创 Hadoop項目簡介

首先看一張圖: Common,是爲Hadoop其他子項目提供的常用工具,主要包括FileSystem、RPC和串行化庫。爲廉價硬件上搭建雲環境提供基本服務,並且會爲該平臺的軟件開發提供所需API Avro:Avro是用於數據序列化