编程语言是怎样被硬件识别和执行的?

如题所述

计算机能直接识别的只有010101 这样的机器语言,你编写的程序,编译器会翻译成机器语言的。
在机器语言中,指令被写成计算机能够直接理解的被称之为比特的1和0的序列。机器语言中的一条指令通常告诉计算机4件事情:(1)到计算机主存储器(随机访问存储器)的哪个位置去找一或两个数字或者简单的数据段;(2)要执行的一个简单操作,例如将两个数字加起来;(3)将这个简单操作的结果存放在主存储器的什么位置;以及(4)到哪里找要执行的下一条指令。虽然所有的可执行程序最终都是以机器语言的形式被计算机读取,但是它们并非都是用机器语言编写的。直接用机器语言编程极端困难,因为指令是1和0的序列。机器语言中的一条典型的指令可能是10010 1100 1011,意思是将存储寄存器A的内容加到存储寄存器B的内容中。
温馨提示:答案为网友推荐,仅供参考
第1个回答  推荐于2016-01-07
一、识别
计算机只能识别“0”和“1”两个数(或两个状态),为了使计算机能处理复杂多样的信息,就必须把这些信息转换为用“0”和“1”表示的代码( 用“0”和“1”表示的代码称为二进制编码,为了编程的方便,人们常用的编码方式有十进制、十六进制、BCD码、ASCII码等,通过译码器译成二进制码)。在计算机中,编码的最小单位为比特( bit ),1 比特就是一位二进制数码( 一个0或一个1 )。8位连续的二进制数码组成 1 个字节( Byte,1 字节 = 8 bit )。二进制码也称为机器语言。
二、执行
二进制码通过逻辑门电路,触发电路转换为高、低电平输出,进而驱动外围硬件电路,实现相应的功能。本回答被提问者和网友采纳
相似回答