原创 獲取速賣通的管產品搜索關鍵詞!!

就是獲取這個關鍵詞!! 首先我們要查看相關的鏈接比如: 到這裏我們已經看到了鏈接 請求參數 和 返回內容 開始寫代碼 # 首先我們先構建一下需要的參數 根據我的觀察 參數的主要變化 在 "t" "sign" 和 "data"中的nk

原创 模仿實現百度搜索黑洞動畫效果

<!DOCTYPE html> <html> <head> <meta charset="utf-8" /> <title>誅邪退避 百事無忌!!</title> <meta na

原创 Amazon 登陸 metadata1 形成的主要混淆的js

# -*- coding:utf-8 -*- import time import ctypes import base64 import execjs import random def lsubid(): haha = '''f

原创 pyqt5+python3 簡單的下載器

PyQt5 我也是剛剛接觸所以博客中又錯誤的話,還請諒解!>_<! 話不多說直接擼碼! # -*- coding:utf-8 -*- import requests import sys from PyQt5.QtWidgets imp

原创 djnago + apache 部署 從 http 強跳 https

個人練手項目 >_< 簡單的網站開發 首先當您寫好您的django 項目 買好你的服務器 買好你的域名(這裏的域名要進行備案.) 1.準備工作 服務器 windows server 2012 r2(雖然我知道用win的服務器很low,但是

原创 win10 下 python 連接 sqlserver 數據!!(不是用pymssql)!!

 話不多說 nice!! # -*- coding:utf-8 -*- import time import pyodbc import threading import queue ''' 鏈接數據庫的庫有 pymssql pyod

原创 實現簡單的 協程異步併發池

特別感謝 (白旭東兄) 代碼如下: 自我學習 # -*- coding:utf-8 -*- ''' 進行asyncio 學習 ''' import aiohttp import asyncio from threading import

原创 django+echarts數據可視化(NBA球隊數據可視化02)!

來寫我們的爬蟲 >_< (我可能是條鹹魚了吧!) 爬蟲十分簡單也沒有爬取得網站也沒有什麼反爬整體還是很方便得 # -*- coding:utf-8 -*- import requests import random from bs4 i

原创 django 運行 python manager.py runserver 報 UnicodeDecodeError: 'utf-8' codec can't decode .....

>>python manager.py runserver ...... ...... hostname, aliases, ipaddrs = gethostbyaddr(name) UnicodeDecodeError: 'utf-

原创 aiohttp_requests庫的學習 json(content_type='??')

from aiohttp_requests import requests async def req(URL): headers = {"Accept": 'text/html,application/xhtml+xml,a

原创 django+echarts數據可視化(NBA球隊數據可視化01)!

1.項目準備 python3.68,django(2.0.8),pymssql(2.1.4) 2.項目操作 利用爬蟲爬取DNA 數據實現 數據可視化 3.項目建設 我是在pycharm 進行的 項目創建 # 在虛擬環境的cmd輸入窗口:

原创 假裝寫一個簡單的下載器(pyqt5學習) 有毒.....!

PyQt5 我也是剛剛接觸所以博客中又錯誤的話,還請諒解!>_<! 話不多說直接擼碼! # -*- coding:utf-8 -*- import requests import sys from PyQt5.QtWidgets imp

原创 2019農曆年立下的flag

時間2/10 現在立下flag 立下flag 可能有些遲啦,畢竟2019年到現在已經過去了2個多月,雖然如此但是還是要寫下這個博客! 先在這裏祝福自己在這一年個升職加薪,工作順利,闔家歡樂! 在這一年裏 1.首先完成自己的小項目 搞一個自

原创 PyCharm寫你的scrapy項目(準備部署OoO!!)

scrapy項目的部署 scrapy部署首先要用到scrapyd和scrapyd-client https://github.com/scrapy/scrapyd   https://github.com/scrapy/scrapyd-c

原创 PyCharm寫繼續寫你的scrapy項目(*-*!! 假裝面無表情)

完善你的scrapy項目 前一段時間那個爬蟲導致服務器崩壞的新聞大家都看了吧!做正規爬蟲和諧網絡環境! 我們今天完善一下我的爬蟲 寫一下請求頭中間鍵和代理ip中間鍵! 這兩個的中間鍵的內容相似!直接上碼!(在你的Middlewares.p