原创 node.js入門筆記(1) 1.概述 2.安裝 3. 第一個Hello World程序

觀看老馬nodejs系列視頻教程筆記 1.概述 1.1 node是什麼 Node.js 是一個基於Chrome V8 引擎的 JavaScript 運行環境。Node.js 使用了一個事件驅動、非阻塞式 I/O 的模型,使其輕量又高效

原创 better-scroll滾動無效 幾種原因

better-scroll滾動無效 幾種原因

原创 node.js入門筆記(1)

觀看老馬nodejs系列視頻教程筆記 1.概述 1.1 node是什麼 Node.js 是一個基於Chrome V8 引擎的 JavaScript 運行環境。Node.js 使用了一個事件驅動、非阻塞式 I/O 的模型,使其輕量又高效

原创 華爲成渝地區2020屆實習生面試日記

4月3日進行筆試,機考,三道編程題。記得只做出了其中的一道題目。本以爲沒有面試的機會了,沒想到4月11日的時候收到面試通知,還是聽竊喜的,後來瞭解到,很多人一道題都沒有做出來,都收到面試通知了,看來本次筆試應該沒有刷人。 華爲實習的面試需要

原创 數據結構之堆棧(stack)

棧簡介 棧(Stack)是一種插入刪除操作都只能在一個位置上進行,這個位- 置位於表的末端,叫做棧頂(Top); 對棧的基本操作有push和pop,表示進棧和出棧.也就相當於插入和刪除操作; 棧結構又叫做LIFO(後進先出)表.歸根結底是

原创 用python導出百度雲盤的文件目錄(含.exe程序)

1. 緣起 上週男票說自己在整理網盤資料的時候,發現資料太多,整理起來很麻煩,問我能不能幫他寫個程序把網盤裏的文件目錄全部導出來存爲Excel文件,這樣就能夠知道網盤裏的全部目錄結構了。 於是,作爲一個傲嬌的程序媛,怎麼能夠放棄在自己帥氣男

原创 0.01的差距

前兩天和男票暢聊生活感悟和學習心得的時候,男票突然問了我一個問題:1的365次方等於多少,這很簡單呀,我隨口就說出了答案,不就是1嘛,他接着問:1.01的365次方和0.99的365次方呢?哦豁,這就把我難住啦,心裏嘀咕着我又不是數學天才,

原创 《十小時入門大數據》學習筆記之Hadoop分佈式集羣環境搭建

Hadoop分佈式集羣環境 hadoop000:192.168.111.185 hadoop001:192.168.111.186 hadoop002:192.168.111.187 1、機器準備 1)安裝虛擬機: 使用的是CentOS

原创 《十小時入門大數據》學習筆記之Hadoop核心組件MapReduce

目錄 MapReduce概述 MapReduce編程模型 2.1 案例分析:WordCount => 詞頻統計 2.2 執行步驟 MapReduce架構 3.1 MapReduce1.x的架構 3.2 MapReduce2.x架

原创 Ubuntu 16.04安裝IDEA和maven

目標: 安裝IDEA和 Maven 前提:已經安裝好JDK 1. 準備 1). 下載IEDA 到官網下載 ideaIU-2017.3.6.tar.gz,這裏選擇的是Ultimate版的IDEA。 Community: 社區版,免費,但

原创 《十小時入門大數據》學習筆記之Hadoop核心組件YARN

目錄 1.YARN 產生背景 2.YARN概述 3.YARN架構(面試考點,務必要了解整個架構) 4.YARN執行流程(面試考點,務必要了解整個執行流程) 5.YARN環境搭建 6.提交作業到YARN上執行 1、YARN 產生背景 在H

原创 《十小時入門大數據》學習筆記之HDFS

筆記目錄 HDFS概述及設計目標 HDFS架構 HDFS副本機制 HDFS環境搭建 HDFS shell Java API 操作HDFS HDFS 文件讀寫流程 HDFS優缺點 1. HDFS概述及設計目

原创 《十小時入門大數據》學習筆記之初識Hadoop

筆記內容概括 Hadoop概述 1.1 Hadoop名字的由來 1.2 Hadoop介紹 1.3 Hadoop能做什麼 Hadoop核心組件 2.1 HDFS(分佈式文件系統) 2.2 YARN(資源調度系統) 2.3 MapRed

原创 《十小時入門大數據》學習筆記之大數據概述

一、大數據與機器學習的關係 大數據技術是機器學習、深度學習和人工智能的基礎,現有的機器學習和人工智能的發展都離不開大數據。 就像吳恩達老師曾經把大數據比喻爲火箭的燃料,把神經網絡比喻爲火箭的引擎,沒有大數據這個燃料,其他的一切都是空

原创 在Ubuntu下安裝和搭建Hadoop環境(僞分佈式環境)

最近在學習Hadoop,原本是在win10系統下裝個虛擬機,在虛擬機上裝的是CentOS操作系統,在該虛擬機上搭建好Hadoop環境之後,在學習WordCount的案例時,發現系統太慢了,還老是卡機,最後果斷放棄使用虛擬機,轉而使用Ubun