人类台电子计算机的诞生,ENIAC1946年2月14日,世界上台通用电子数字计算机“埃尼阿克”(ENIAC)宣告研制成功。“埃尼阿克”的成功,是计算机发展史上的一座纪念碑,是人类在发展计算技术历程 [2] 中,到达的一个新的起点。“埃尼阿克”计算机的初设计方案,是由36岁的美国工程师莫奇利于1943年提出的,计算机的主要任务是分析炮弹轨道。美国军械部拨款支持研制工作,并建立一个专门研究小组,由莫奇利负责。总工程师由年仅24岁的埃克特担任,组员格尔斯坦是位数学家,另外还有逻辑学家勃克斯。“埃尼阿克”共使用了18000个电子管,另加1500个继电器以及其它器件,其总体积约90立方米,重达30吨,占地170平方米,需要用一间30多米长的大房间才能存放,是个地地道道的庞然大物,和房子差不多。
根据体系结构不同,服务器可以分成两大重要的类别:IA架构服务器和RISC架构服务器。
这种分类标准的主要依据是两种服务器采用的处理器体系结构不同。RISC架构服务器采用的CPU是所谓的精简指令集的处理器,精简指令集CPU的主要特点是采用定长指令,使用流水线执行指令,这样一个指令的处理可以分成几个阶段,处理器设置不同的处理单元执行指令的不同阶段,比如指令处理如果分成三个阶段,当第N条指令处在第三个处理阶段时,第N+1条指令将处在第二个处理阶段,第N+2条指令将处在个处理阶段。这种指令的流水线处理方式使得CPU有并行处理指令的能力,这使处理器能够在单位时间内处理更多的指令。IA架构的服务器采用的是CISC体系结构,即复杂指令集体系结构,这种体系结构的特点是指令较长,指令的功能较强,单个指令可执行的功能较多,这样我们可以通过增加运算单元,使一个指令所执行的功能能够同时并行执行来提高运算能力。长时间以来两种体系结构一直在相互竞争中成长,都取得了快速的发展。IA架构的服务器采用了开放体系结构,因而有了大量的硬件和软件的支持者,在近年有了长足的发展。
可用性
对于一台服务器而言,一个非常重要的方面就是它的“可用性”,即所选服务器能满足长期稳定工作的要求,不能经常出问题。其实就等同于Sun所提出的可靠性(Reliability)。
因为服务器所面对的是整个网络的用户,而不是单个用户,在大中型企业中,通常要求服务器是永不中断的。在一些特殊应用领域,即使没有用户使用,有些服务器也得不间断地工作,因为它必须持续地为用户提供连接服务,而不管是在上班,还是下班,也不管是工作日,还是休息、节假日。这就是要求服务器必须具备的稳定性的根本原因。
一般来说专门的服务器都要7X24小时不间断地工作,特别像一些大型的网络服务器,如大公司所用服务器、网站服务器,以及提供公众服务iqdeWEB服务器等更是如此。对于这些服务器来说,也许真正工作开机的次数只有一次,那就是它刚买回安装配置好后投入正式使用的那一次,此后,它不间断地工作,一直到彻底报废。如果动不动就出毛病,则网络不可能保持长久正常运作。为了确保服务器具有高得“可用性”,除了要求各配件质量过关外,还可采取必要的技术和配置措施,如硬件冗余、在线诊断等。
服务器系统漏洞过多
计算机网络本身具有开放自由的特性,这种属性既存在技术性优势,在某种程度上也会对计算机系统的造成威胁。一旦系统中出现很难修复的程序漏洞,某些不法人员很可能借助漏洞对缓冲区进行信息查找,然后攻击计算机系统,这样一来,不但用户信息面临泄露的风险,计算机运行系统也会遭到损坏。