原创 VMware 虛擬機與宿主機在同一網段配置

配置步驟     1.網絡適配器選擇         右鍵 虛擬機名稱------設置------網絡適配器 選擇橋接模式         其實設置到此,虛擬機已與宿主機在同一網段,局域網內其他主機可訪問,後面的設置是爲了保證宿主機重啓

原创 出現ORA-00600: 內部錯誤代碼, 參數: [19004], [], [], [], [], [], [], [], [], [], [], []

查找了兩篇博客,測試了第一篇,有用! --------------------------------------------------博客一-----------------------------------------------

原创 Centos 7內配置windows 虛擬機

宿主服務信息   操作系統:CentOS7   交互界面:無   虛擬機信息   操作系統:windows server 2008 配置步驟         1.安裝交互界面                  a.使用root用戶登錄  

原创 scrapy爬蟲——給女朋友的天氣預報(簡單模板版)

郵箱設置 在使用Python自動發送郵件之前,需要對我們的QQ郵箱進行簡單的配置,過程如下: 1.首先登陸QQ郵箱,選擇“賬戶”如下圖所示: 2.在賬戶頁面往下拉,看到“POP3/SMTP”設置,點擊開啓按鈕,如下圖所示: 3.彈出如

原创 SSH遠程連接基於用戶名密碼與基於密鑰驗證

什麼是SSH?        SSH是專門爲了遠程登錄會話和其他網絡服務提供的安全性協議,使用SSH協議可以有效的防止遠程連接會話的時候出現信息泄密,在數據傳輸的時候SSH會先對聯機的數據包通過加密技術進行加密處理,加密後在進行數據的傳輸

原创 Centos 防火牆設置

1、查看firewall服務狀態 systemctl status firewalld 2、查看firewall的狀態 firewall-cmd --state 3、開啓、重啓、關閉、firewalld.service服務 # 開啓

原创 Spider開發流程

實現一個Spider子類的過程很像是完成一系列填空題,Scrapy框架提出以下問題讓用戶在Spider子類中作答: ● 爬蟲從哪個或哪些頁面開始爬取? ● 對於一個已下載的頁面,提取其中的哪些數據? ● 爬取完當前頁面後,接下來爬取哪個或

原创 MongoDB 日誌切割三種方式

MongoDB 日誌切割 ​ MongoDB 默認是不會進行切割日誌的,除非我們配置了 logRotate = rename,並且重啓 MongoDB 服務,纔會進行切割日誌的,那麼爲了避免實際中我們一個日誌文件過大,我們需要對日誌進行切

原创 MongoDB常見問題——索引

如何創建索引? 要在集合上創建索引,請使用 db.collection.createIndex()方法。創建索引是一種管理性操作。通常,應用程序不應該定期的調用db.collection.createIndex()。 注意: 索引構建會影

原创 mongodb常見問題——併發

MongoDB允許多個客戶端讀取和寫入相同的數據。爲了確保一致性,它使用鎖定和其他併發控制措施來防止多個客戶端同時修改同一條數據。總之,這些機制保證對單個文檔的所有寫入完全或根本不發生,並且客戶端永遠不會看到數據的不一致視圖。 Mongo

原创 mongodb用戶管理(4.2)

身份驗證 身份驗證是驗證試圖連接數據庫的客戶機的身份的過程。MongoDB提供各種方法來驗證客戶機的身份。基於挑戰的默認策略包括: SCRAM-SHA-1: 該身份驗證機制使用簡單的基於文本的用戶名和密碼,通過傳輸層安全(transpor

原创 mongodb恢復到指定時間點

主要步驟: 添加延時節點(已有忽略) 清洗oplog集合的數據,導出主節點 oplog 集合(local庫oplog.rs) 備份延時節點 將延時節點恢復到另一個副本集中 重放oplog 注意:oplog.rs集合需要容延時節點所延遲的操

原创 WiredTiger存儲引擎

什麼是存儲引擎? 存儲引擎是數據庫的一部分,負責管理如何在內存和磁盤上存儲數據。許多數據庫支持多個存儲引擎,其中不同的引擎對特定工作負載的性能會更好。例如,一個存儲引擎可能爲讀取繁重的工作負載提供更好的性能,另一個可能支持更高的寫入操作吞

原创 linux IO調度算法

IO調度器的總體目標是希望讓磁頭能夠總是往一個方向移動,移動到底了再往反方向走,這恰恰就是現實生活中的電梯模型,所以IO調度器也被叫做電梯. (elevator)而相應的算法也就被叫做電梯算法.而Linux中IO調度的電梯算法有好幾種,一

原创 Scrapy Request和Response對象

Request對象 Request對象用來描述一個HTTP請求,下面是其構造器方法的參數列表: Request(url[, callback, method='GET', headers, body, cookies, meta,enc