電腦識別指令和代碼的原理

電腦識別指令和代碼的原理

一.前言

電腦代bai碼,就du是讓電腦執行的命令。可以讓電腦執行相應zhi的命令。就電腦本身底層代碼所言就dao是0和1,或者說二進制碼、十六進制等等。還有彙編、C、C++、java等等高級語言代碼。就網絡而言有:html、asp、jsp、cgi、php網絡語言代碼等等。

關鍵是約定一套信號協議。電腦
CPU 只按傳入的二進制代碼執行指令,商家約定好了一套指令體系,不管什麼編程語言都通過某種方式把代碼編譯爲
CPU 能懂的二進制指令指揮
CPU 工作。協議跟人與人的交流一樣,是有規矩的。

再舉個例子,發出一串指令,如果是以
1開頭,則表示做什麼,比如做加法,那麼後面接着會發過來兩個數,CPU
做加法後把結果存入特定的寄存器,程序會有後續指令去這個寄存器提取結果,放入指定的內存中,CPU
按照這樣的約定解析傳入的一連串二進制數據,並一一執行。

CPU 能直接做什麼,根據這套指令體系來看,是不能直接做的,程序員負責編寫完整解決方案讓
CPU 能做出來,這就叫編程,整個指令序列叫程序。

CPU 不知道不管你什麼語言代碼,那是給人閱讀的,不是給計算機閱讀的,計算機只懂編譯過的二進制指令,還必須是按照商家設計好的指令體系編制的指令序列纔行。沒有什麼編程語言一定是高大上的,它好不好用在於編譯器或解釋器把這些人類代碼翻譯爲機器碼有多高明。

守恆律在這方面仍然起作用,你寫的高級語言代碼越少,翻譯給機器執行的指令實際上越多。C
語言入門最基礎的 hello world 程序,不要以爲寫的很短就很得意,這程序編譯後的二進制機器碼有 5K,printf() 函數的源代碼有多長,可以自己去看看,但實際上你輸出一個字符串用不着完整的
printf() 功能,這函數其實一個低效的解釋型程序。

總的來說,CPU不是認識代碼,而是記住代碼,數據總線送過來一個指令,是什麼如何執行,已經固化在CPU裏了,如何執行和固化?是通過複雜的組合,以門,非門,與非門這三種複雜的組合,實現了複雜的邏輯關係。

有幾個概念,語言bai、指令。這裏說的語言是指計算機zhi語言,例如C語言、daoC++語言等而不是人類語言,漢語、英語等。人們使用這些語言表達自己需要完成的一系列功能,就形成程序,而這個程序就是用這種語言寫的文字。語言是通過編譯器將其轉換成處理器指令。就像人類的翻譯。語言和指令存在着某種等價關係。就是說給定一個特定語言寫的程序,編譯器都將其轉換對應的處理器指令序列。而處理器指令本質上數學上的一組0和1。而0和1的問題就數字電路的問題了。

二.CPU硬件基礎和軟件邏輯過程

首先要開始這個話題要先說一下半導體。啥叫半導體?

半導體其實就是介於導體和絕緣體中間的一種東西,比如二極管。
在這裏插入圖片描述
電流可以從A端流向C端,但反過來則不行。你可以把它理解成一種防止電流逆流的東西。

當C端10V,A端0V,二極管可以視爲斷開。

當C端0V,A端10V,二極管可以視爲導線,結果就是A端的電流源源不斷的流向C端,導致最後的結果就是A端=C端=10V

等等,不是說好的C端0V,A端10V麼?咋就變成結果是A端=C端=10V了?

可以把這個理解成初始狀態,當最後穩定下來之後就會變成A端=C端=10V。

利用半導體,可以製作一些有趣的電路,比如【與門】

在這裏插入圖片描述

此時A端B端只要有一個是0V,那Y端就會和0V地方直接導通,導致Y端也變成0V。只有AB兩端都是10V,Y和AB之間纔沒有電流流動,Y端也纔是10V。把這個裝置成爲【與門】,把有電壓的地方計爲1,0電壓的地方計爲0。至於具體幾V電壓,那不重要。也就是AB必須同時輸入1,輸出端Y纔是1;AB有一個是0,輸出端Y就是0。其他還有【或門】【非門】和【異或門】,跟這個都差不多,或門就是輸入有一個是1輸出就是1,輸入00則輸入0。非門也好理解,就是輸入1輸出0,輸入0輸出1。異或門難理解一些,不過也就那麼回事,輸入01或者10則輸出1,輸入00或者11則輸出0。(即輸入兩個一樣的值則輸出0,輸入兩個不一樣的值則輸出1)。這幾種門都可以用二極管做出來,具體怎麼做就不演示了,有興趣的童鞋可以自己試試。每次都畫二極管也是個麻煩,就把門電路簡化成下面幾個符號。
在這裏插入圖片描述
然後就可以用門電路來做CPU了。當然做CPU還是挺難的,先從簡單的開始:加法器。加法器顧名思義,就是一種用來算加法的電路,最簡單的就是下面這種。
在這裏插入圖片描述
AB只能輸入0或者1,也就是這個加法器能算0+0,1+0或者1+1。輸出端S是結果,而C則代表是不是發生進位了,二進制1+1=10嘛。這個時候C=1,S=0費了大半天的力氣,算個1+1是不是特別有成就感?那再進一步算個1+2吧(二進制01+10),然後就發現了一個新的問題:第二位需要處理第一位有可能進位的問題,所以還得設計一個全加法器。
在這裏插入圖片描述
每次都這麼畫實在太麻煩了,簡化一下
在這裏插入圖片描述
也就是有3個輸入2個輸出,分別輸入要相加的兩個數和上一位的進位,然後輸入結果和是否進位。然後把這個全加法器串起來
在這裏插入圖片描述
就有了一個4位加法器,可以計算4位數的加法也就是15+15,已經達到了幼兒園中班水平,是不是特別給力?做完加法器再做個乘法器吧,當然乘任意10進制數是有點麻煩的,先做個乘2的吧。乘2就很簡單了,對於一個2進制數數在後面加個0就算是乘2了比如:

5=101(2)

10=1010(2)

所以只要把輸入都往前移動一位,再在最低位上補個零就算是乘2了。具體邏輯電路圖我就不畫,你們知道咋回事就行了。那乘3呢?簡單,先位移一次(乘2)再加一次。乘5呢?先位移兩次(乘4)再加一次。所以一般簡單的CPU是沒有乘法的,而乘法則是通過位移和加算的組合來通過軟件來實現的。這說的有點遠了,還是繼續做CPU吧。現在假設你有8位加法器了,也有一個位移1位的模塊了。串起來你就能算了!

(A+B)X2

激動人心,已經差不多到了準小學生水平。那我要是想算呢?

AX2+B

簡單,你把加法器模塊和位移模塊的接線改一下就行了,改成輸入A先過位移模塊,再進加法器就可以了。啥????你說啥???你的意思是我改個程序還得重新接線?所以你以爲呢?編程就是把線來回插。
在這裏插入圖片描述
早期的計算機就是這樣編程的,幾分鐘就算完了但插線好幾天。而且插線是個細緻且需要耐心的工作,所以那個時候的程序員都是清一色的漂亮女孩子,穿制服的那種,就像照片上這樣。是不是有種生不逢時的感覺?雖然和美女作伴是個快樂的事,但插線也是個累死人的工作。所以需要改進一下,讓CPU可以根據指令來相加或者乘2。這裏再引入兩個模塊,一個叫flip-flop,簡稱FF,中文好像叫觸發器。
在這裏插入圖片描述
這個模塊的作用是存儲1bit數據。比如上面這個RS型的FF,R是Reset,輸入1則清零。S是Set,輸入1則保存1。RS都輸入0的時候,會一直輸出剛纔保存的內容。用FF來保存計算的中間數據(也可以是中間狀態或者別的什麼),1bit肯定是不夠的,不過可以並聯嘛,用4個或者8個來保存4位或者8位數據。這種稱之爲寄存器(Register)。另外一個叫MUX,中文叫選擇器。
在這裏插入圖片描述
這個就簡單了,sel輸入0則輸出i0的數據,i0是什麼就輸出什麼,01皆可。同理sel如果輸入1則輸出i1的數據。當然選擇器可以做的很長,比如這種四進一出的具體原理不細說了,其實看看邏輯圖琢磨一下就懂了,知道有這個東西就行了。有這個東西就可以給加法器和乘2模塊(位移)設計一個激活針腳。這個激活針腳輸入1則激活這個模塊,輸入0則不激活。這樣就可以控制數據是流入加法器還是位移模塊了。於是給CPU先設計8個輸入針腳,4位指令,4位數據。再設計3個指令:

0100,數據讀入寄存器0001,數據與寄存器相加,結果保存到寄存器0010,寄存器數據向左位移一位(乘2)

爲什麼這麼設計呢,剛纔也說了,可以爲每個模塊設計一個激活針腳。然後可以分別用指令輸入的第二第三第四個針腳連接寄存器,加法器和位移器的激活針腳。這樣輸入0100這個指令的時候,寄存器輸入被激活,其他模塊都是0沒有激活,數據就存入寄存器了。同理,如果輸入0001這個指令,則加法器開始工作,就可以執行相加這個操作了。這裏就可以簡單回答這個問題的第一個小問題了:那cpu 是爲什麼能看懂這些二級制的數呢?爲什麼CPU能看懂,因爲CPU裏面的線就是這麼接的唄。你輸入一個二進制數,就像開關一樣激活CPU裏面若干個指定的模塊以及改變這些模塊的連同方式,最終得出結果。幾個可能會被問道的問題Q:CPU裏面可能有成千上萬個小模塊,一個32位/64位的指令能控制那麼多嗎?A:舉例子的CPU裏面只有3個模塊,就直接接了。真正的CPU裏會有一個解碼器(decoder),把指令翻譯成需要的形式。Q:你舉例子的簡單CPU,如果我輸入指令0011會怎麼樣?A:當然是同時激活了加法器和位移器從而產生不可預料的後果,簡單的說因爲你使用了沒有設計的指令,所以後果自負唄。(在真正的CPU上這麼幹大概率就是崩潰唄,當然肯定會有各種保護性的設計,死也就死當前進程)細心的小夥伴可能發現一個問題:你設計的指令

【0001,數據與寄存器相加,結果保存到寄存器】

這個一步做不出來吧?畢竟還有一個回寫的過程,實際上確實是這樣。設計的簡易CPU執行一個指令差不多得三步,讀取指令,執行指令,寫寄存器。經典的RISC設計則是分5步:讀取指令(IF),解碼指令(ID),執行指令(EX),內存操作(MEM),寫寄存器(WB)。平常用的x86的CPU有的指令可能要分將近20個步驟。你可以理解有這麼一個開關,啪的按一下,CPU就走一步,你按的越快CPU就走的越快。咦?聽說你有個想法?少年,你這個想法很危險啊,姑且不說你有沒有麒麟臂,能不能按那麼快(現代的CPU也就2GHz多,大概也就一秒按個20億下左右吧)就算你能按那麼快,雖然速度是上去了,但功耗會大大增加,發熱上升穩定性下降。江湖上確實有這種玩法,名曰超頻,不過新手不推薦你嘗試哈。那CPU怎麼知道自己走到哪一步了呢?前面不是介紹了FF麼,這個不光可以用來存中間數據,也可以用來存中間狀態,也就是走到哪了。具體的設計涉及到FSM(finite-state
machine),也就是有限狀態機理論,以及怎麼用FF實裝。這個也是很重要的一塊,考試必考哈,只不過跟題目關係不大,這裏就不展開講了。再繼續剛纔的講,現在有3個指令了。來試試算個(1+4)X2+3吧。

0100 0001 ;寄存器存入10001 0100 ;寄存器的數字加40010 0000 ;乘20001 0011 ;再加三
在這裏插入圖片描述
現在用的是4位的,如果換成8位的CPU完全可以吊打低年級小學生了!實際上用程序控制CPU是個挺高級的想法,再此之前計算機(器)的CPU都是單獨設計的。1969年一家日本公司BUSICOM想搞程控的計算器,而負責設計CPU的美國公司也覺得每次都重新設計CPU是個挺傻X的事,於是雙方一拍即合,於1970年推出一種劃時代的產品,世界上第一款微處理器4004。這個架構改變了世界,那家負責設計CPU的美國公司也一步一步成爲了業界巨頭,它叫Intel。把剛纔的程序整理一下,

01000001000101000010000000010011

沒辦法機器語言就是這麼反人類。這種只有01組成的語言被稱之爲機器語言(機器碼),是CPU唯一可以理解的語言。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章