原创 編寫WinSock代碼時不推薦使用inet_addr函數的原因

編寫WinSock代碼時,相信大家一般都會使用inet_addr函數來將點分十進制字符串轉換爲sin_addr.S_un.S_addr,如下 SOCKADDR_IN sockaddr; sockaddr.sin_addr.S_

原创 關於SetTimer函數的總結

關於SetTimer函數的總結 在使用 SOUI 編寫Windows程序時,似乎曾經看到過 SOUI 中限制了 SetTimer 函數能啓動的定時器的個數,於是今天就去 MSDN 看了下Windows本身是否也限制了單個程序能啓動

原创 優化C++ utf8,gbk,unicode編碼間的轉換函數

好久沒寫博客了,不是太忙,是太懶了。。。 最近都在重構公司項目上的代碼,然後就發現有部分函數的運行方式可以優化。這些函數的運行的運行方式都是先new出一堆內存,使用,最後delete掉。我就想,可不可以通過靜態局部變量來重複使用已經new

原创 使用vcpkg快速安裝/MT版本的google breakpad的過程總結

關於google breakpad請查看:https://www.cnblogs.com/cswuyg/p/3286244.html、https://www.cnblogs.com/lancidie/p/3145504.html、http

原创 關於RegisterWaitForSingleObject函數的使用總結

在尋找前一篇文章中google breakpad的用法時,看到了關於windows函數RegisterWaitForSingleObject的用法,感覺還不錯,而且在百度上面直接搜索RegisterWaitForSingleObject,

原创 libuv在windows的簡單使用

libuv的官網:http://libuv.org/。 關於libuv的介紹網上都有,大家可以去搜一下。 而如何在windows上安裝libuv,我這邊是使用vcpkg安裝的,學習的時候極力推薦使用這種方式安裝,關於vcpkg的使用可以參

原创 關於WM_COPYDATA的使用總結

windows進程間通信的方法有很多,詳細請查看:https://www.cnblogs.com/findumars/p/6329593.html。 本人最近在項目中使用了WM_COPYDATA來作爲進程間通信的方式,於是就有了這篇總結博

原创 如何通過改寫進程地址空間的數據來達到插入彙編的功能

今天在找如何在Windows上編譯breakpad的答案時,看到了這個博客:https://www.cnblogs.com/cswuyg/p/3207576.html。在這個博客的代碼中學到了點東西,現在就來記錄一下。  talk is

原创 《Git 教程》-- 廖雪峯 筆記

設置用戶名和郵箱 git config --global user.name "Your Name" git config --global user.email "[email protected]" 注意:git conf

原创 如何計算結構體對象的大小

如何計算結構體對象的大小 今天在處理結構體對象的時候,發現自己一直以爲的結構體對象的內存對齊只會在最後對齊是錯誤的理解,於是在知乎中看了這篇回答後,把這種錯誤理解糾正了過來,現在就來寫個博客記錄一下。 在C/C++中,結構體對象的

原创 關於C++使用位域進行數據排序的總結

今天看了《編程珠璣》第二版的第一章,感覺使用位域進行數據排序挺有意思的,於是用C++寫了一下簡單的位域排序,現在來寫寫總結。 首先這篇文章的主題是簡單的位域排序,也就是說需要滿足以下的條件: 1.需要排序的數據集中不存在重複的數據; 2.

原创 關於Windows的CONDITION_VARIABLE和C++11的condition_variable編寫代碼對比

Windows的CONDITION_VARIABLE使用CRITICAL_SECTION時,代碼如下 #include <Windows.h> #include <iostream> #include <thread> #include

原创 關於Windows程序崩潰(Crash)以及生成dump文件的探究

文章目錄關於Windows程序崩潰(Crash)以及生成dump文件的探究什麼是崩潰(Crash),崩潰(Crash)的現象崩潰(Crash)的原因是什麼如何消除崩潰時出現的異常信息對話框如何捕獲崩潰(Crash)時的異常,生成d

原创 C++使用libcurl寫一個簡單的爬蟲

前幾天學習了libcurl的應用(注:libcurl的主頁:https://curl.haxx.se/libcurl/),然後我就想,能不能用libcurl來實現一個簡單的爬蟲程序呢?爬蟲的話感覺流程就是訪問網頁得到網頁的源代碼,在網頁的

原创 關於“程序閃退,沒有生成DUMP文件”的一點總結

今早一回到公司,測試的同事就反映,昨晚程序運行一段時間後閃退了。。。。閃退???額,好吧,幸好我有加寫DUMP的代碼,示例如下: LONG WINAPI UnhandledExceptionFunction(_EXCEPTION_POI