原创 數組與arrayList相互轉換

string[] 和 arraylist互轉及問題解決 1,String 數組轉成 list<String> String[] s={"1","2","3","5","6"}; List<String> listA = Arr

原创 剖析 Elasticsearch 集羣系列第二篇 分佈式的三個 C、translog 和 Lucene 段

最近在學習ES,發現《剖析 Elasticsearch 集羣系列》文章寫得挺好,轉載過來記錄下。 原文:https://www.infoq.cn/article/anatomy-of-an-elasticsearch-cluster-pa

原创 圖解LinkedHashMap

  LinkedHashMap,總的來說,LinkedHashMap底層是使用HashMap+LinkedList實現的。用HashMap維護數據,用LinkedList來維護數據插入的順序。   一、特點總結: 1、LinkedHas

原创 Window.clearTimeout() 方法取消由 setTimeout() 方法設置的 timeout

clearTimeout()方法的參數必須是由setTimeout()返回的ID值。例子: <!DOCTYPE html> <html> <head> <meta charset="utf-8"> <title>菜鳥教程(runoob

原创 CronTrigger

CronTrigger CronTriggers往往比SimpleTrigger更有用,如果您需要基於日曆的概念,而非SimpleTrigger完全指定的時間間隔,復發的發射工作的時間表。 CronTrigger,你可以指定觸發的時間

原创 js post傳遞中文參數到java後臺出現亂碼

項目中遇到傳遞中文參數的問題,這個問題可以利用編碼、解碼解決。 方案:兩次編碼,一次解碼。 編碼: var params = encodeURI(encodeURI("中文")); 把中文編碼成由英文數字以及支付組成的一串code. j

原创 剖析 Elasticsearch 集羣系列 第一篇 Elasticsearch 的存儲模型和讀寫操作

最近在學習ES,發現《剖析 Elasticsearch 集羣系列》文章寫得挺好,轉載過來記錄下。 原文:https://www.infoq.cn/article/analysis-of-elasticsearch-cluster-part

原创 剖析 Elasticsearch 集羣系列第三篇 近實時搜索、深層分頁問題和搜索相關性權衡之道

最近在學習ES,發現《剖析 Elasticsearch 集羣系列》文章寫得挺好,轉載過來記錄下。 原文:https://www.infoq.cn/article/anatomy-of-an-elasticsearch-cluster-pa

原创 java配合js在前臺獲取jsessionid

瀏覽器與服務器之間的每一個回話都有一個session,session id 是位置標誌,在java環境中,這個session的 id 就叫做jsessionid。 可以直接中session中獲取,比如String jsessionid =

原创 linux內存中buffer和 cached的比較

經常遇到一些剛接觸Linux的新手會問內存佔用怎麼那麼多? 在Linux中經常發現空閒內存很少,似乎所有的內存都被系統佔用了,表面感覺是內存不夠用了,其實不然。這是Linux內存管理的一個優秀特性,在這方面,區別於Windows的內存

原创 SpringMVC表單防止重複提交

利用SpringMVC的註解加攔截器完成。實現如下: 1、首先創建註解token: @Target(ElementType.METHOD) @Retention(RetentionPolicy.RUNTIME) public @in

原创 虛擬內存

什麼是虛擬內存   虛擬內存是用硬盤空間做內存來彌補計算機RAM空間的缺乏。當實際RAM滿時(實際上,在RAM滿之前),虛擬內存就在硬盤上創建了。當物理內存用完後,虛擬內存管理器選擇最近沒有用過的,低優先級的內存部分寫到交換文件上。這個過

原创 jmeter https證書處理

原文鏈接:https://blog.csdn.net/supersilly/article/details/83509031 jmete 壓測中,難免有https,這些需要證書。 本文章 主要介

原创 Spark 的架構原理

本文旨在記錄自己所學的大數據知識。本文素材來源於李智慧老師的《從0開始學大數據》,李老師講的大數據課程既有教相關知識的,也有教我們如何學習,如何思考的,講的非常好。   Spark 也遵循移動計算比移動數據更划算這一大數據計算基本原則  

原创 二 spark產生背景

大數據處理,一開始只有MapReduce。 但hadoop MapReduce對迭代式計算、交互式計算支持不友好。 但是有迭代式計算和交互式計算的需求,spark是基於這兩個需求開發出來的。 spark完美支持:迭代式計算、交互式計算。