原创 Zookeeper客戶端基本操作java實現——創建連接、創建節點、添加修改節點內容、獲取子節點、獲取節點數據、刪除節點

一、引入Zookeeper包,添加pom依賴 <dependency> <groupId>org.apache.zookeeper</groupId> <artifactId>zookeeper</artifact

原创 Easyui前端知識點收集

1、數據加載中····效果實現: //彈出加載層 function load() { $("<div class=\"datagrid-mask\"></div>").css({ display: "bloc

原创 Java單例模式的實現

1、懶漢式,線程安全 public class Singleton { private static Singleton instance; public Singleton() { // TODO Auto-generated

原创 Kafka監控——獲取Partition的LogSize、Lag、BrokerId

一、引入kafka Pom依賴 <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka_2.10</artifactId> <

原创 Linux常用命令收集

1.查看某個端口號佔用情況 netstat -nltp |grep 端口號 2.遠程複製一個文件到另一臺虛擬機上 scp -r 文件路徑/文件名  

原创 Eclipse中使用javap命令打出字節碼虛指令

1、Eclipse中Run->External Tools->External Tools Configurations,打開看到如下界面: 2、右鍵點擊Program->new,然後出現界面: 3、然後配置Location、Work

原创 Spring MVC 系列(三)——Spring MVC 參數傳遞與表單交互

MVC模式的特點就在於將頁面、業務邏輯、實體分層管理,那三層之間如何進行數據傳輸,Spring MVC與其他web 框架相比,有何獨到之處。 在MVC框架模式中,大部分的參數傳遞都是通過發送request請求到controller控制器

原创 Java maven項目整合Redis

1、爲什麼要使用Redis? Redis是一個key-value存儲系統。主要用於解決分佈式系統中的多臺主從機之間的數據同步和共享問題。 2、Redis有哪些特點? 1)、redis的數據完全存儲在內存中,使用磁盤只用於持久性,所以red

原创 Flume之監控

Flume作爲一個日誌收集工具,在數據採集方面,展現出了非常強大的能力。它的SOURCE、SINK、CHANNEL三大組件這種模式,來完成數據的接收、緩存、發送這個過程,擁有非常完美的契合度。不過這裏,我們要說的不是Flume有多好或者

原创 構建maven web項目常見問題解決

1. The superclass “javax.servlet.http.HttpServlet” was not found on the Java Build Path 解決方法: 1)、首先右鍵出現錯誤的文件夾,然後B

原创 Spring事務管理題綱式小結

1、Spring事務管理分類: a、編程式事務管理:通過編程的方式來提交事務、回滾事務,這種方式比較靈活,可以更細的管理事務,缺點是在業務邏輯的代碼中會參雜事務管理的代碼,感覺會比較亂; b、申明式事務管理:在aop的基礎上面通過配置文件

原创 ie中顯示$未定義

今天在用jQuery實現web上面的一個刪除功能的時候,發現通過chrome刪除完全正常,但是在eclipse的內置瀏覽器中卻不能刪除,感覺有些莫名其妙,找了半天原因。 後面發現: 1、eclipse中的內置瀏覽器實際上調用的

原创 【轉載】虛擬機網絡連接NAT模式,本地用Xshell連接

本人轉載自:虛擬機網絡連接NAT模式,本地用Xshell連接 當虛擬機centos6網絡連接使用NAT模式時,因爲共用宿主機ip所以當使用Xshell時直接填寫虛擬機的ip地址和22端口是無法連接虛擬機的。 這樣就需要配置端口映射關係!

原创 深入理解JVM(3)——7種垃圾收集器

文章轉載來源:深入理解JVM(3)——7種垃圾收集器 如果說收集算法是內存回收的方法論,那麼垃圾收集器就是內存回收的具體實現。Java虛擬機規範中對垃圾收集器應該如何實現並沒有任何規定,因此不同的廠商、版本的虛擬機所提供的垃圾收集器都可能

原创 一個sql解決表中重複數據問題

場景:某個線上數據庫表中,存在重複數據,我們要保證數據的準確性,一方面要保證數據不遺漏,另一方面要保證數據不重複,因此可能會去給這張表添加聯合唯一索引,但是發現表中已經有很多重複數據,因此需要根據多個條件去刪除重複數據,相同數據只留一