【Python】爬取**查公司電話以及地址信息

碼字不易,喜歡請點贊!!!

背景:其實兩年前就爬了##查的很多信息,包括電話、地址等基本信息之外,還有公司的股東、專利以及對外投資等信息,但是當時的電腦沒備份,代碼都沒了。這次山東的某個教育機構有償找我幫爬##查公司電話以及地址信息,所以就重新爬了一下##查。

準備:selenium+PhatomJS或者selenium+Firefox
我這裏直接用的後者selenium+Firefox

思路爬取這部分信息的話,代碼其實不難,主要包括模擬登陸、獲得頁面網址以及抓取頁面信息。

模擬登陸
網址:https://www.tianyancha.com/login
頁面如下:
在這裏插入圖片描述使用selenium模擬登陸代碼:

time.sleep(random.random()+1)
browser.get(loginURL)
time.sleep(random.random()+random.randint(2,3))
browser.find_element_by_css_selector('div.title:nth-child(2)').click()
time.sleep(random.uniform(0.5,1))
phone = browser.find_element_by_css_selector('div.modulein:nth-child(2) > div:nth-child(2) > input:nth-child(1)')
phone.send_keys(zhangHao)
time.sleep(random.uniform(0.4,0.9))
password = browser.find_element_by_css_selector('.input-pwd')
password.send_keys(miMa)
click = browser.find_element_by_css_selector('div.modulein:nth-child(2) > div:nth-child(5)')
click.click()
time.sleep(random.uniform(0.5,1)+10)

登錄之後頁面:
在這裏插入圖片描述關鍵詞對應的頁面網址:https://www.tianyancha.com/search?key= + key
這裏以“滴滴”爲例:https://www.tianyancha.com/search?key=滴滴
頁面內容如下:
在這裏插入圖片描述獲取公司頁面網址
解析滴滴關鍵詞頁面HTML,獲得每個公司對應得URL。
注意:非會員只能查看前五頁的公司信息
代碼:

#獲取頁面數
try:
    pages = soup.find('ul',class_='pagination').find_all('li')[-2].getText().replace('...','')
except:
    pages = 1
finally:
    print('pages:',pages)

def getUid(soup):
    urls = []
    divs = soup.find('div',class_='result-list sv-search-container').find_all('div',class_='search-item sv-search-company')                                                                             
    for div in divs:
        urls.append(div.find('div',class_='header').find('a')['href'])
    return urls

#非會員只能爬前五頁
if(int(pages)>5):
    pages = 5

urls = []
for i in range(1,pages+1):
    url = 'https://www.tianyancha.com/search/p' + str(i) + '?key=' + key
    browser.get(url)
    time.sleep(random.uniform(0.6,1)+2)
    soup = BeautifulSoup(browser.page_source,'lxml')
    urls.extend(getUid(soup))

獲得企業信息
最後根據企業網頁HTML內容,解析獲取需要的信息,看頁面可以發現這裏需要的電話和地址都在最上面就有。
在這裏插入圖片描述獲取這部分內容代碼:

#這裏爲了避免意外每次將結果直接寫入Excel文件
try:
    for url in urls:
        path = r'C:\Users\liuliang_i\Desktop\tianYanCha.xlsx'
        try:
            df1 = pd.read_excel(path)
        except:
            df1 = pd.DataFrame(columns=['Company','Phone','Address','Url'])
        browser.get(url)
        time.sleep(random.uniform(0.4,0.8)+1)
        soup = BeautifulSoup(browser.page_source,'lxml')
        company = soup.find('div',class_='header').find('h1',class_='name').getText()
        phone = soup.find('div',class_='in-block sup-ie-company-header-child-1').find_all('span')[1].getText()
        address = soup.find('div',class_='auto-folder').find('div').getText()
        df1.loc[df1.shape[0],'Company'] = company
        df1.loc[df1.shape[0]-1,'Phone'] = phone
        df1.loc[df1.shape[0]-1,'Address'] = address
        df1.loc[df1.shape[0]-1,'Url'] = url
        df1.to_excel(path,index=0)
except :
    pass

最終結果如下所示:
在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章