一、计算机的诞生与发展,及其特点
1、诞生:1946年,美国为计算弹道轨迹而研制成功了世界第一台计算机。其英文缩写名为ENIAC。
2、冯·诺依曼,“现代电子计算机之父”,其计算机的基本原理是“程序存储”。
2、发展:
阶段 时间 逻辑器件 应用范围
第一代 1946——1958 真空电子管 科学计算、军事研究
第二代 1959——1964 晶体管 数据处理、事物处理
第三代 1965——1970 集成电路 包括工业控制的各个领域
第四代 1971—— 大规模集成电路 应用到了各个领域
3、计算机的作用
数值计算:弹道轨迹、天气预报、高能物理等等
信息管理:企业管理、物资管理、电算化等
过程控制:工业自动化控制,卫星飞行方向控制
辅助工程:CAD、CAM、CAT、CAI等
4、计算机的特点
计算机的运算速度快、计算精度高、存储功能强、具有逻辑判断能力和自动运行能力。
二、与计算机相差的常用英文及其中文对照
CAD——计算机辅助设计
CAI——计算机辅助教育
CAM——计算机辅助制造
CAT——计算机辅助翻译
CIMS——计算机集成制造系统
三、数制与编码
四种进制数表示方式对照表。
四种进制用什么字母表示。“H”表示“十六进制”; “D”表示“十进制”; “O”表示“八进制”; “B”表示“二进制”。如:(1101)B 、(71)D 、(27)O、(4F)H 。
十进制(D)012345678910111213141516…二进制(B)0110111001011101111000100110101011110011011110111110000…八进制(0)01234567101112131415161720十六进制(H)0123456789ABCDEF10…
其它进制转为十进制
二进制转十进制:
(1011)2=1×23+0×22+1×21+1×20
十六进制转十进制:
(B56E)16=B×163+5×162+6×161+E×160
=11×163+5×162+6×161+14×160
十进制(整数)转为二进制
十进制数除以二,取得其余数,第一次的余数当个位数,第二次余数当十位数,其余依此类推,直到商为“0”。
四、字符编码
在计算机中,所有的数据在存储和运算时都要使用二进制数表示。
(一)ASCII码编码
ASCII码是英文信息处理的标准编码。标准的ASCII码由7位二进制数表示字符一个字符,128种组合。
ASCII码表
ASCII码表中有如下规律:
字符的ASCII码值大小规律是:
控制字符 < 标点符号。
数字 < 英文字母符号。
大写英文字母 < 小写英文字母。
大写英文字母的ASCII码值按A-Z的顺序递增1。小写英文字母的ASCII码值按a-z的顺序递增1。
(二)《信息交换用汉字编码字符集——基本集》国标码,即GB2312-80编码,是中国的中文常用汉字编码集:共对6763个汉字和682个图形字符进行了编码。
汉字国标码用两个字节表示,每个字节用七位码(高位为0),即用双字节来表示一个汉字。
字符集中收录了一级汉字3755个(最常用汉字,用汉语拼音排序),二级汉字3008个(次常用汉字,用偏旁部首排序)。
(三)汉字在计算机中的处理过程
输入码、区位码、国标码与机内码
键盘是当前微机的主要输入设备,输入码就是使用英文键盘输入汉字时的编码。目前,按输入码编码的主要依据,大体可分为区位码、音码、形码、音形码四类,如“保”?字,用全拼,输入码为码为“BAO”,用区位码,输入码为“1703”,用五笔字型则为“WKS”。
计算机只识别由0、1组成的代码,ASCII码是英文信息处理的标准编码,我国国家标准局于1981年5月颁布了《信息交换用汉字编码字符集——基本集》,代号为GB2312-80,共对6763个汉字和682个图形字符进行了编码,其编码原则为:汉字用两个字节表示,每个字节用七位码(高位为0),国家标准将汉字和图形符号排列在一个94行94列的二维代码表中,每两个字节分别用两位十进制编码,前字节的编码称为区码,后字节的编码称为位码,此即区位码,如“保”字在二维代码表中处于17区第3位,区位码即为“1703 ”。
国标码并不等于区位码,它是由区位码稍作转换得到,其转换方法为:先将十进制区码和位码转换为十六进制的区码和位码,这样就得了一个