:. História e Evolução dos Computadores

Hoje em dia, quando ouvimos falar em processadores de 1 GHz dá até sono, de tão comuns que eles já se tornaram. Pouca gente já ouviu falar no 8088, que foi o processador usado no PC XT, a quase 20 anos atrás, e muito menos no Intel 4004, o primeiro microprocessador, lançado em 71.

Nas próximas páginas falarei sobre os processadores e computadores que fizeram parte da história, começando não apartir da década de 70 ou 80, mas no século XIX. Sim, na época dos nossos bisavós os computadores já existiam, apesar de extremamente rudimentares. Eram os computadores mecânicos, que realizavam cálculos através de um sistema de engrenagens, acionado por uma manivela ou outro sistema mecânico qualquer. Este tipo de sistema, comum na forma de caixas registradoras era bastante utilizado naquela época.

No final do século XIX surgiu o relê, um dispositivo eletromecânico, formado por um magneto móvel, que se deslocava unindo dois contatos metálicos. O Relê foi muito usado no sistema telefônico, aliás algumas centrais analógicas ainda utilizam estes dispositivos até hoje. Os relês podem ser considerados uma espécie de antepassados dos transístores. Suas limitações eram o fato de serem relativamente caros, grandes demais e ao mesmo tempo muito lentos: um relê demora mais de um milésimo de segundo para fechar um circuito.

Também no final do século XIX, surgiram as primeiras válvulas. As válvulas foram usadas para criar os primeiros computadores eletrônicos, na década de 40.

As válvulas tem seu funcionamento baseado no fluxo de elétrons no vácuo. Tudo começou numa certa tarde quando Thomas Edison, inventor da lâmpada elétrica estava brincando com a sua invenção. Ele percebeu que ao ligar a lâmpada ao polo positivo de uma bateria e uma placa metálica ao polo negativo, era possível medir uma certa corrente fluindo do filamento da lâmpada à chapa metálica, mesmo que os dois estivessem isolados. Havia sido descoberto o efeito termoiônico, o princípio de funcionamento das válvulas.

As válvulas já eram bem mais rápidas que os relês, atingiam frequências de alguns Megahertz, o problema é que esquentavam demais, consumiam muita eletricidade e se queimavam com facilidade. Era fácil usar válvulas em rádios, que usavam poucas, mas construir um computador, que usava milhares delas era extremamente complicado, e caro.

Apesar de tudo isso, os primeiros computadores começaram a surgir durante a década de 40, naturalmente com propósitos militares. Os principais usos eram a codificação e decodificação de mensagens e cálculos de artilharia.

Sem dúvida, o computador mais famoso daquela época foi o ENIAC (Electronic Numerical Integrator Analyzer and Computer), construído em 1945. O ENIAC era composto por nada menos do que 17,468 válvulas, ocupando um galpão imenso. Porém, apesar do tamanho, o poder de processamento do ENIAC é ridículo para os padrões atuais, suficiente para processar apenas 5.000 adições, 357 multiplicações e 38 divisões por segundo, bem menos até do que uma calculadora de bolso atual, das mais simples.

A idéia era construir um computador para realizar vários tipos de cálculos de artilharia para ajudar as tropas aliadas durante a segunda Guerra mundial. Porém, o ENIAC acabou sendo terminado exatos 3 meses depois do final da Guerra e acabou sendo usado durante a guerra fria, contribuindo por exemplo no projeto da bomba de Hidrogênio.


Parte do galpão que abrigava o ENIAC




Se você acha que programar em C ou em Assembly é complicado, imagine como era a vida dos programadores daquela época. A programação do ENIAC era feita através de 6.000 chaves manuais. A cada novo cálculo, era preciso reprogramar várias destas chaves. Isso sem falar no resultado, que era dado de forma binária através de um conjunto de luzes. Não é à toa que a maior parte dos programadores da época eram mulheres, só mesmo elas para ter a paciência necessária para programar e reprogramar esse emaranhado de chaves várias vezes ao dia.

Abaixo está a foto de uma válvula muito usada na década de 40:



Vendo essa foto é fácil imaginar por que as válvulas eram tão problemáticas e caras: elas eram simplesmente complexas demais.

Mesmo assim, na época a maior parte da indústria continuou trabalhando no aperfeiçoamento das válvulas, obtendo modelos menores e mais confiáveis. Porém, vários pesquisadores, começaram a procurar alternativas menos problemáticas.

Várias destas pesquisas tinha como objetivo a pesquisa de novos materiais, tanto condutores, quanto isolantes. Os pesquisadores começaram então a descobrir que alguns materiais não se enquadravam nem em um grupo nem no outro, pois de acordo com a circunstância, podiam atuar tanto quando isolantes quanto como condutores, formando uma espécie de grupo intermediário que foi logo apelidado de grupo dos semicondutores.

Haviam encontrado a chave para desenvolver o transístor. O primeiro projeto surgiu em 16 de Dezembro de 47, onde era usado um pequeno bloco de germânio (que na época era junto com o silício o semicondutor mais pesquisado) e três filamentos de ouro. Um filamento era o polo positivo, o outro o polo negativo, enquanto o terceiro tinha a função de controle. Tendo apenas uma carga elétrica no polo positivo, nada acontecia, o germânio atuava como um isolante, bloqueando a corrente. Porém, quando uma certa tensão elétrica era aplicada usando o filamento de controle, uma fenômeno acontecia e a carga elétrica passava a fluir para o polo negativo. Haviam criado um dispositivo que substituía a válvula, sem possuir partes móveis, gastando uma fração da eletricidade gasta por uma e, ao mesmo tempo, muito mais rápido.


O primeiro projeto de transístor





Este primeiro transístor era relativamente grande, mas não demorou muito para que este modelo inicial fosse aperfeiçoado. Durante a década de 50, o transístor foi gradualmente dominando a indústria, substituindo rapidamente as problemáticas válvulas. Os modelos foram diminuindo de tamanho, caindo de preço e tornando-se mais rápidos. Alguns transístores da época podiam operar a até 100 MHz. Claro que esta era a freqüência que podia ser alcançada por um transístor sozinho, nos computadores da época, a freqüência de operação era muito menor, já que em cada ciclo de processamento o sinal precisa passar por vários transístores.

Mas, o grande salto foi a substituição do germânio pelo silício. Isto permitiu miniaturizar ainda mais os transístores e baixar seu custo de produção. Os primeiros transístores de junção comerciais foram produzidos partir de 1960 pela Crystalonics.

A idéia do uso do silício para construir transístores é que adicionando certas substâncias em pequenas quantidades é possível alterar as propriedades elétricas do silício. As primeiras experiências usavam fósforo e boro, que transformavam o silício em condutor por cargas negativas ou condutor por cargas positivas, dependendo de qual dos dois materiais fosse usado. Estas substâncias adicionadas ao silício são chamadas de impurezas, e o silício “contaminado” por elas é chamado de silício dopado.

O funcionamento e um transístor é bastante simples, quase elementar. É como naquele velho ditado “as melhores invenções são as mais simples”. As válvulas eram muito mais complexas que os transístores e mesmo assim foram rapidamente substituídas por eles.

Um transístor é composto basicamente de três filamentos, chamados de base, emissor e coletor. O emissor é o polo positivo, o coletor o polo negativo, enquanto a base é quem controla o estado do transístor, que como vimos, pode estar ligado ou desligado. Veja como estes três componentes são agrupados num transístor moderno:




Quando o transístor está desligado, não existe carga elétrica na base, por isso, não existe corrente elétrica entre o emissor e o coletor. Quanto é aplicada uma certa tensão na base, o circuito é fechado e é estabelecida a corrente entre o emissor e o receptor.

Outro grande salto veio quando os fabricantes deram-se conta que era possível construir vários transístores sobre o mesmo waffer de silício. Havia surgido então o circuito integrado, vários transístores dentro do mesmo encapsulamento. Não demorou muito para surgirem os primeiros microchips.
:. Como são fabricados os processadores

Até mudarem o mundo como o conhecemos, os chips passaram por um longo processo evolutivo. Tudo começou com as válvulas, que evoluíram para os transístores, considerados a maior invenção do século.

Fora o preço, os primeiros transístores não foram lá nenhuma revolução sobre as antigas válvulas, tanto que elas sobreviveram durante vários anos depois que os transístores começaram a ser produzidos em escala comercial.

O grande salto veio quando descobriu-se que era possível construir vários transístores sobre o mesmo waffer de silício. Isso permitiu diminuir de forma gritante o custo e tamanho dos computadores. Entramos então na era do microchip.

O primeiro microchip comercial foi lançado pela Intel em 1971 e chamava-se 4004. Como o nome sugere, ela era um processador de apenas 4 bits que era composto por pouco mais de 2000 transístores. Veja uma foto dele abaixo:


Cortesia da Intel Corp.



De lá pra cá, foi um longo caminho. Enormes investimentos foram feitos e muitos dos maiores gênios do planeta trabalharam em busca de soluções para questões cada vez mais complexas. Veremos agora como os computadores evoluíram, das válvulas ao Athlon e Pentium 4.

:. Os transístores

Cada transístor funciona como uma espécie de interruptor, que pode estar ligado ou desligado, como uma torneira que pode estar aberta ou fechada, ou mesmo como uma válvula. A diferença é que o transístor não tem partes móveis como uma torneira e é muito menor, mais barato, mais durável e muito mais rápido que uma válvula.

A mudança de estado de um transístor é feito através de uma corrente elétrica. Esta mudança de estado por sua vez pode comandar a mudança de estado de vários outros transístores ligados ao primeiro, permitindo processador dados. Num transístor esta mudança de estado pode ser feita bilhões de vezes por segundo, porém, a cada mudança de estado é gerada uma certa quantidade de calor e é consumida uma certa quantidade de eletricidade. É por isso que quanto mais rápidos tornam-se os processadores, mais eles se aquecem e mais energia consomem.

Um 386 por exemplo consumia pouco mais de 1 Watt de energia e podia funcionar sem nenhum tipo de resfriamento. Um 486DX-4 100 consumia cerca de 5 Watts e precisava de um cooler simples, enquanto Athlon chega a consumir 80 Watts de energia e precisa de no mínimo um bom cooler para funcionar bem. Em compensação o 386 operava a 30 ou 40 MHz enquanto o Athlon opera a até 1.5 GHz.


:. Como são fabricados os processadores

Chegamos à idéia central deste capitulo que é mostrar como os processadores são fabricados. As ilustrações são cortesia da Intel Corp.

O componente básico para qualquer chip é o waffer de silício que é obtido através da fusão do silício junto com alguns produtos químicos que permitirão sua dopagem posteriormente. Inicialmente são produzidos cilindros, com de 20 a 30 centímetros de diâmetro, que posteriormente são cortados em fatias bastante finas.


Waffer de silício



Estas “fatias” por sua vez são polidas, obtendo os waffers de silício. A qualidade do waffer determinará o tipo de chip que poderá ser construído com base nele. Para construir um CI com meia dúzia de transístores, pode ser usado um waffer de baixa qualidade, que pode ser comprado a preço de banana de milhares de companhias diferentes. Entretanto, para produzir um processador moderno, é preciso de um waffer de altíssima qualidade, que são extremamente caros, pois poucas companhias tem tecnologia para produzi-los.

Cada waffer é usado para produzir vários processadores, que no final da produção são separados e encapsulados individualmente. Não seria possível mostrar todos os processos usados na fabricação de um processador, mas para lhe dar uma boa idéia de como eles são produzidos, vou mostrar passo a passo a construção de um único transístor. Imagine que o mesmo projeto será repetido alguns milhões de vezes, formando um processador funcional.

Tudo começa com o waffer de silício em seu estado original:



A primeira etapa do processo é oxidar a parte superior do waffer, transformando-a em dióxido de silício. Isto é obtido expondo o waffer a gases corrosivos e altas temperaturas. A fina camada de dióxido de silício que se forma é que será usada como base para a construção do transístor.



Em seguida é aplicada uma camada bastante fina de um material fotosensível sobre a camada de dióxido de silício.


Usando uma máscara especial, é jogada luz ultravioleta apenas em algumas áreas da superfície. Esta máscara tem uma padrão diferente para cada área do processador, de acordo com o desenho que se pretende obter. A técnica usada aqui é chamada de litografia óptica.




A camada fotosensível é originalmente sólida, mas ao ser atingida pela luz ultravioleta transforma-se numa substância gelatinosa, que pode ser facilmente removida.

Depois de remover as partes moles da camada fotosensível, temos algumas áreas do dióxido de silício expostas, e outras que continuam cobertas pelo que restou da camada:




O waffer é banhado com um produto especial que remove as partes do dióxido de silício que não estão protegidas pela camada fotosensível. O restante continua intacto.

Finalmente, é removida a parte que restou da camada fotosensível. Note que como temos substâncias diferentes é possível remover uma camada de cada vez, ora o dióxido de silício, ora a própria camada fotosensível. Com isto é possível “desenhar” as estruturas necessárias para formar os transístores. Temos aqui pronta a primeira camada. Cada transístor é formado para várias camadas, dependendo do projeto do processador. Neste exemplo, temos um transístor simples, de apenas quatro camadas, mas os processadores atuais utilizam um numero muito maior de camadas, mais de vinte em alguns casos, dependendo da densidade que o fabricante pretende alcançar.

Começa então a construção da segunda camada do transístor. Inicialmente o waffer passa novamente pelo processo de oxidação inicial, sendo coberto por uma nova camada (desta vez bem mais fina) de dióxido de silício. Note que apesar da nova camada de dióxido, o desenho conseguido anteriormente é mantido.

Em seguida é aplicada sobre a estrutura uma camada de cristal de silício. Sobre esta é aplicada uma nova camada de material fotosensível.


Novamente, o waffer passa pelo processo de litografia, desta vez utilizando uma máscara diferente.

Novamente, a parte da camada fotosensível que foi exposta à luz é removida, deixando expostas partes das camadas de cristal de silício e dióxido de silício, que são removidas em seguida.


Como na etapa anterior, o que restou da camada fotosensível é removida. Terminamos a construção da segunda camada do transístor.


Chegamos a uma das principais etapas do processo de fabricação, que é a aplicação das impurezas, que transformarão partes do waffer de silício num material condutor. Estas impurezas também são chamadas de íons. Note que os íons aderem apenas à camada de silício que foi exposta no processo anterior e não nas camadas de dióxido de silício ou na camada de cristal de silício.


É adicionada então uma terceira camada, composta de um tipo diferente de cristal de silício e novamente é aplicada a camada fotosensível sobre tudo.


O waffer passa novamente pelo processo de litografia, usando mais uma vez uma máscara diferente.


As partes do material fotosensível expostas à luz são removidas, expondo partes das camadas inferiores, que são removidas em seguida.


Temos agora pronta a terceira camada do transístor. Veja que a estrutura do transístor já está quase pronta, faltando apenas os três filamentos condutores.


Uma finíssima camada de metal é aplicada sobre a estrutura anterior. Nos processadores atuais, que são produzidos através de uma técnica de produção de 0.13 mícron, esta camada metálica tem o equivalente a apenas 6 átomos de espessura.


O processo de aplicação da camada fotosensível, de litografia e de remoção das camadas é aplicado mais uma vez, com o objetivo de remover as partes indesejadas da camada de metal. Finalmente temos o transístor pronto.


Cada processador é constituído por vários milhões de transístores. Um Pentium II possui pouco mais de 9 milhões de transístores. Um Pentium III Coppermine já possui 22 milhões. Um Athlon Thunderbird possui 35 milhões de transístores, enquanto um Pentium 4 possui incríveis 42 milhões. Graças ao nível de miniaturização que temos atualmente, estas quantidades fabulosas de transístores ocupam uma área muito pequena. Um Athlon Thunderbird por exemplo mede apenas 112 milímetros quadrados. Com isto, um único waffer de silício é suficiente para produzir vários processadores, que são separados no final do processo de fabricação.


Finalmente, os processadores são encapsulados numa estrutura de silício, que os protege e facilita o manuseio e instalação. O formato do encapsulamento varia de processador para processador, na foto abaixo temos um Athlon Thunderbird. Note que a parte central é a própria parte inferior do waffer de silício, exposta para melhorar a dissipação de calor. Não é preciso dizer que qualquer dano neste parte será suficiente para inutilizar o processador.

 

:. O surgimento dos computadores pessoais

Até aqui, falei sobre os supercomputadores e sobre a evolução dos processadores, que evoluíram das válvulas para o transístor e depois para o circuito integrado. No restante deste capítulo, falarei sobre os primeiros computadores pessoais, que começaram a fazer sua história apartir da década de 70. Tempos difíceis aqueles :-)

Como disse a pouco, o primeiro microchip, o 4004, foi lançado pela Intel em 71. Era um projeto bastante rudimentar, que processava apenas 4 bits por vez e operava a apenas 1 MHz. Na verdade, o 4004 era tão lento que demorava 10 ciclos para processar cada instrução, ou seja, ele processava apenas 100.000 instruções por segundo. Hoje em dia esses números perecem piada, mas na época era a última palavra em tecnologia. O 4004 foi usado em vários modelos de calculadoras.


Intel 4004


Pouco tempo depois, a Intel lançou um novo processador, que fez sucesso durante muitos anos, o 8080. Este já era um processador de 8 bits, e operava a incríveis 2 MHz: “Ele é capaz de endereçar até 64 KB de memória e é rápido, muito rápido!” como dito num anúncio publicitário do Altair 8800, que é considerado por muitos o primeiro computador pessoal da história. Você já deve ter ouvido falar dele.

O Altair era baseado no 8080 da Intel e vinha com apenas 256 bytes de memória, realmente bem pouco. Estava disponível também uma placa de expansão para 4 KB.

No modelo básico, o Altair custava apenas 439 dólares na forma de Kit, isso em 1975, em valores de hoje isso equivale a quase 4.000 dólares, parece bastante, mas na época esse valor foi considerado uma pechincha, tanto que foram vendidas 4.000 unidades em 3 meses, depois de uma matéria da revista Popular Eletronics. Esse “modelo básico” consistia nas placas, luzes, chips, gabinete, chaves e a fonte de alimentação, junto claro com um manual que ensinava como montar o aparelho. Existia a opção de compra-lo já montado, mas custava 182 dólares a mais.

Pouco tempo depois, começaram a surgir vários acessórios para o Altair: um teclado que substituía o conjunto de chaves que serviam para programar o aparelho, um terminal de vídeo (bem melhor que ver os resultados na forma de luzes :-), um drive de disquetes (naquela época ainda se usavam disquetes de 8 polegadas), placas de expansão de memória e até uma impressora, para quem tivesse muito dinheiro, claro. Até mesmo Bill Gates ajudou, desenvolvendo uma versão do Basic para o Altair, imortalizado na foto abaixo:


Altair 8800


O Altair era realmente um sistema muito simples, que não tinha muita aplicação prática, mas serviu para demonstrar a grande paixão que a informática podia exercer e que, ao contrário do que diziam muitos analistas da época, existia sim um grande mercado para computadores pessoais.

A Apple foi fundada em 1976, depois que o projeto do Apple I foi recusado pela Atari e pela HP. Uma frase de Steve Jobs descreve bem a história: “Então fomos à Atari e dissemos “Ei, nós desenvolvemos essa coisa incrível, pode ser construído com alguns dos seus componentes, o que acham de nos financiar?” Podemos até mesmo dar a vocês, nós só queremos ter a oportunidade de desenvolvê-lo, paguem-nos um salário e podemos trabalhar para vocês. Eles disseram não, fomos então à Hewlett-Packard e eles disseram “Nós não precisamos de vocês, vocês ainda nem terminaram a faculdade ainda”.

O Apple I não foi lá um grande sucesso de vendas, vendeu pouco mais de 200 unidades, mas abriu caminho para o lançamento de versões mais poderosas.

Ele usava um processador da Motorola, o 6502, que operava a apenas 1 MHz. Em termos de poder de processamento ele perdia para o i8080, mas tinha algumas vantagens a nível de flexibilidade. O Apple I vinha com 4 KB de memória e saídas para teclado, terminal de vídeo e para uma unidade de fita. Existia também um conector reservado para expansões futuras.

Naquela época, as fitas K7 eram o meio mais usado para guardar dados e programas. Os disquetes já existiam, mas eram muito caros. O grande problema das fitas K7 era a lentidão, tanto para ler quanto para gravar e a baixíssima confiabilidade. Isso fora o fato das fitas se desgastarem com o tempo... realmente eram tempos difíceis.

Este primeiro modelo foi logo aperfeiçoado, surgindo então o Apple II. Este sim fez um certo sucesso, apesar do preço salgado para a época, US$ 1298, que equivalem a quase 9.000 dólares em valores corrigidos.

O Apple II vinha com 4 KB de memória, como o primeiro modelo, a novidade foi uma ROM de 12 KB, que armazenava uma versão da Basic. A memória RAM podia ser expandida até 52 KB, pois o processador Motorola 6502 era capaz de endereçar apenas 64 KB de memória, e 12 KB já correspondiam à ROM embutida. Um dos “macetes” naquela época era uma placa de expansão, fabricada pela Microsoft (eles de novo? :-), que permitia desabilitar a ROM e usar 64 KB completos de memória.

O Apple II já era bem mais parecido com um computador atual, já vinha com teclado e usava uma televisão como monitor. O aparelho já vinha com uma unidade de fita K7, mas era possível adquirir separadamente uma unidade de disquetes.

Uma variação do Apple II, o Apple IIc, lançado em 79, é considerado por muitos o primeiro computador portátil da história, pois tinha até um monitor de LCD como opcional.

Em 1979 surgiu um outro modelo interessante, desta vez da Sinclair, o ZX-80. Este não era tão poderoso quanto o Apple II, mas tinha a vantagem de custar apenas 99 dólares (pouco mais de 400 em valores corrigidos) Foi provavelmente o primeiro computador popular da história. O processador era um Z80, da Zilog, que operava a apenas 1 MHz. A memória RAM também era algo minúsculo, apenas 1 KB, combinados com 4 KB de memória ROM que armazenavam o Basic, usado pelo aparelho. Como em qualquer sistema popular da época, os programas eram armazenados em fitas K7.

Considerando preço, o Z80 foi uma máquina surpreendente, mas claro, tinha pesadas limitações, mesmo se comparado com outras máquinas da época. Apesar dele já vir com uma saída de vídeo, a resolução gráfica era de apenas 64x48, mesmo em modo monocromático, já que o adaptador de vídeo tinha apenas 386 bytes de memória. Existia também um modo texto, com 32 x 24 caracteres.

Outro que não poderia deixar de ser citado é o Atari 800. Sim, apesar de ser mais vendido como um video-game, o Atari 800 também podia ser usado com um computador relativamente poderoso, chegou a ser usado em algumas universidades. Ele foi o antecessor do Atari 2600, conhecido por aqui.

Ele vinha de fábrica com 16 KB de memória RAM, que podiam ser expandidos para até 48 KB, com mais 10 KB de memória ROM. O sistema operacional era o Atari-OS, uma versão do Basic.

Originalmente, o sistema vinha apenas com a entrada para os cartuchos, com o sistema operacional ou jogos, mas era possível adquirir separadamente uma unidade de disquetes e um teclado, que o transformavam num computador completo. Não existiram muitos programas para o Atari, o foco foram sempre os jogos, o principal uso do Atari como computador era de poder programas em Basic, por isso seu uso em escolas.


:. A década de 80

Como profetizado por Gordon Moore, os processadores vem dobrando de desempenho a cada 18 meses desde o início da década de 70. Uma década é uma verdadeira eternidade dentro do mercado de informática, o suficiente para revoluções acontecerem e serem esquecidas.

Depois dos dinossauros da década de 70, os computadores pessoais finalmente começaram a atingir um nível de desenvolvimento suficiente para permitir o uso de aplicativos sérios. Surgiram então os primeiros aplicativos de processamento de texto, planilhas, e até mesmo programas de editoração e desenho.

O primeiro PC foi lançado pela IBM em 1981 e tinha uma configuração bastante modesta, com apenas 64 KB de memória, dois drives de disquetes de 5¼, um monitor MDA somente texto (existia a opção de comprar um monitor CGA) e sem disco rígido. O preço também era salgado, 4000 dólares da época.

Esta configuração era suficiente para rodar o DOS 1.0 e a maioria da programas da época, que por serem muito pequenos, cabiam em apelas um disquete e ocupavam pouca memória RAM. Mas, uma vantagem que existe desde este primeiro PC é a arquitetura aberta, que permite que vários fabricantes lancem acessórios e placas de expansão para ele. Foi questão de meses para que começassem a ser vendidos discos rígidos, placas de expansão de memória, placas de vídeo, etc. de vários fabricantes.

A Apple havia lançado o Apple III poucos meses antes do PC. Os dois equipamentos bateram de frente, pois disputavam o mesmo mercado e Apple III acabou levando a pior, apesar da sua configuração não ficar devendo à do PC e o preço dos dois ser quase o mesmo. O Apple III vinha com 128 ou 256 KB de memória, dependendo da versão, um processador Synertek 6502A de 2 MHz e drive de disquetes de 5¼. O grande pecado foi o uso de um barramento de expansão proprietário, o que limitou as possibilidades de upgrade aos acessórios oferecidos pela própria Apple, uma característica que acabou sendo a grande responsável pela supremacia do PC.

Em 1983 a Apple apareceu com uma grande novidade, o Lisa. Em sua configuração original, o Lisa vinha equipado com um processador Motorola 68000 de 5 MHz, 1 MB de memória RAM, dois drives de disquete de 5.25” de 871 KB, HD de 5 MB e um monitor de 12 polegadas, com resolução de 720 x 360. Era uma configuração muito melhor do que os PCs da época, sem falar que o Lisa já usava uma interface gráfica bastante elaborada e já contava com uma suíte de aplicativos de escritório à lá Office. O problema era o preço, 10.000 dólares. Isso em valores da época, em valores corrigidos seria quase o dobro.


Apple Lisa


O Lisa era muito caro, por isso novamente não fez muito sucesso, mas o projeto serviu de base para o Macintosh lançado em 1984. Este sim fez um grande sucesso, chegando a ameaçar o império dos PCs. A configuração era compatível com os PCs da época, com um processador de 8 MHz, 128 KB de memória e um monitor de 9 polegadas. A grande arma do Macintosh era o MacOS 1.0, um sistema inovador de vários pontos de vista.

Ao contrário do MS-DOS ele já utiliza interface gráfica e mouse, o que o tornava muito mais fácil de ser operado. O MacOS continuou evoluindo e incorporando novos recursos, mas sempre mantendo a mesma idéia de interface “user friendly”. Por sinal, já estamos na décima versão do MacOS, o MacOS X. Atualmente, é possível rodar as versões antigas do MacOS mesmo num PC, usando emuladores como o vMac (http://leb.net/vmac/) e o SoftMac (http://www.emulators.com/).



MacOS 1.0


Em 1984 já existia também a primeira versão do Windows, que era uma opção para os usuários de PCs interessados em rodar uma interface gráfica.

O Windows 1.0 rodava sobre o MS-DOS e podia executar tanto aplicativos for Windows quanto os programas para MS-DOS. O problema era a memória.

Os PCs da época vinham com quantidades muito pequenas de memória RAM e na época ainda não existia a possibilidade de usar memória virtual (que viria a ser suportada apenas apartir do 386).

Para rodar o Windows, era preciso primeiro carregar o MS-DOS. Os dois juntos já consumiam praticamente toda a memória de um PC básico da época. Mesmo nos PCs mais parrudos não era possível rodar muitos aplicativos ao mesmo tempo, novamente por falta de memória.

Como os aplicativos for Windows eram muito raros na época, poucos usuários viram necessidade de utilizar o Windows para rodar os mesmos aplicativos que rodavam (com muito mais memória disponível...) no MS-DOS. Sem contar que a versão inicial do Windows era bastante lenta e tinha vários bugs.

O Windows começou a fazer algum sucesso na versão 2.1, quando os PCS 286 com 1 MB ou mais de memória já eram comuns. Com uma configuração mais poderosa, mais memória RAM e mais aplicativos, finalmente começava a fazer sentido rodar o Windows. O sistema ainda tinha vários bugs e travava com frequência, mas alguns usuários começaram a migrar para ele.



Windows 2.0


O Windows emplacou mesmo apartir da versão 3.1, que muitos de nós chegou a utilizar. O Windows 3.1 era relativamente leve, mesmo para os PCs da época e já suportava o uso de memória virtual, que permitia abrir vários programas, mesmo que a memória RAM se esgotasse. Já existiam também vários aplicativos for Windows e os usuários tinham a opção de voltar para o MS-DOS quando desejassem.

Foi nesta época que os PCs começaram a recuperar o terreno perdido para os Macintoshs da Apple. Convenhamos, o Windows 3.1 travava com muita frequência, mas tinha muitos aplicativos e os PCs eram mais baratos que os Macs.

Na época começaram a surgir os primeiros concorrentes para o Windows, como o OS/2 da IBM.

Desde o início da era PC, a Microsoft e a IBM vinham trabalhando juntas no desenvolvimento do MS-DOS e outros programas para a plataforma PC. Mas, em 1990 a IBM e a Microsoft se desentenderam e cada uma ficou com uma parte do trabalho feito, com o qual tentaram tomar a liderança do mercado de sistemas operacionais.

Alguns brincam que a IBM ficou com a parte que funciona e a Microsoft com o resto, mas a verdade é que apesar do OS/2 da IBM ser tecnicamente muito superior ao Windows 95 da Microsoft, foi o sistema das janelas quem levou a melhor, pois era mais fácil de usar e contava com a familiaridade dos usuários com o Windows 3.1.

O OS/2 ainda é utilizado por alguns entusiastas e existem até mesmo movimentos para continuar o desenvolvimento do sistema, mas faltam programas e drivers.

Um sistema muito mais bem sucedido, que começou a ser desenvolvido no início da década de 90 é o Linux, que todos já conhecemos. O Linux tem a vantagem de ser um sistema aberto, que atualmente conta com a colaboração de centenas de milhares de desenvolvedores voluntários espalhados pelo globo, além do apoio de empresas de peso, como a IBM. Mas, no começo o sistema era muito mais complicado que as distribuições atuais e não contava com as interfaces gráficas exuberantes que temos hoje em dia.

O desenvolvimento do Linux foi gradual, até que houve a explosão do acesso à Internet em 95, quando o sistema começou a ser usado em um número cada vez maior de servidores Web, pois era estável e gratuíto. Hoje o IIS da Microsoft consegue brigar de igual para igual (pelo menos em número de usuários), mas no início Linux era sinónimo de servidor Web.

A Microsoft continuou melhorando seu sistema. Foram lançados o Windows 95, depois o 98 e finalmente ME, com todos os problemas que conhecemos mas com a boa e velha interface fácil de usar e uma grande safra de aplicativos que garantiram a popularização destes sistemas.

Paralelamente, a Microsoft desenvolvia uma família de sistemas Windows destinadas a servidores, o Windows NT, que chegou até a versão 4, antes de ser transformado no Windows 2000.

Atualmente, as duas famílias Windows fundiram-se no Windows XP, um sistema destinada tanto ao uso doméstico quanto em estações de trabalho e servidores, e que pode ser considerado um sistema estável (ao contrário do Windows 98 e ME) pois é baseado no Windows 2000.

Enquanto isso, o Linux continua avançando. Por enquanto o sistema é usado apenas em 2% dos micros de mesa (fora usuários casuais e os que mantém Windows e Linux em dual-boot), mas tem a chance de crescer bastante no futuro, como a ajuda de aplicativos com o Gimp e o StarOffice, que substituem o Photoshop e o Office, mas isso tudo já é uma outra história :-)

:. Os supercomputadores

Na década de 40, todos os computadores do mundo eram gigantescos e caros, custando vários milhões de dólares, mas agregando tudo o que havia mais avançado em termos de conhecimento humano. Pois bem, vendo de hoje, pode parecer ridículo que qualquer calculadora de mão de 3 reas possa ter um poder de processamento superior ao de um Eniac, que só de manutenção custava quase 200.000 dólares por dia, mas os supercomputadores continuam existindo, tão grandes e caros quanto um Eniac, porém incomparavelmente mais rápidos do que os micros de mesa, como o que você está usando neste exato momento.

Este trecho final é dedicado a eles, os mastodontes que estão por trás de muitos dos avanços da humanidade, que apesar de estarem escondidos em grandes salas refrigeradas são alvo de grande curiosidade.


A demanda

Apesar de mesmo um "PC de baixo custo" atualmente possuir um poder de processamento superior ao de um supercomputador que a 15 anos atrás custava 5 milhões de dólares, a demanda por sistemas casa vez mais rápidos continua.

As aplicações são várias, englobando principalmente pesquisas científicas, aplicações militares diversas, e vários tipos de aplicativos financeiros e relacionados à Internet, aplicativos que envolvem uma quantidade absurda de processamento, e claro, envolvem instituições que podem pagar muito mais do que 5 ou 10 mil dólares por um computador o mais rápido possível. Existindo demanda... aparecem os fornecedores.


As soluções

Atualmente, todos os supercomputadores são construídos com base em praticamente os mesmos componentes que temos em micros de mesa, memória, HDs, e processadores, Intel, IBM e em alguns casos também chips Athlon. A diferença é que vários processadores, HDs e módulos de memória são combinados para criar um sistema incrivelmente rápido.

Ao invés de usar apenas um disco rígido IDE, como num micro de mesa, um supercomputador utiliza um array de centenas de HDs, sistemas semelhantes ao RAID, mas numa escala maior, que permitem gravar dados de forma fragmentada em vários discos e ler os pedaços simultaneamente apartir de vários HDs, obtendo taxas de transferência muito altas. A capacidade total de armazenamento de um supercomputador já é medida na casa dos Terabytes, o IBM ASCI White, que é considerado o supercomputador mais poderoso atualmente (final de 2001) tem 160 Terabytes de armazenamento em disco.

Processadores e memória RAM geralmente são agrupados em nós, cada nó engloba de um a quatro processadores e uma certa quantidade de memória RAM e cache. Isso garante que os processadores tenham um acesso à memória tão rápido quanto um PC de mesa. Os nós por sua vez são interligados através de algum tipo de barramento ultra-rápido, o que os torna partes do mesmo sistema de processamento. Como neurônios interligados para formar um cérebro. Um nó sozinho não tem uma capacidade de processamento tão surpreendente assim, mas ao interligar algumas centenas, ou milhares de nós a coisa muda de figura.

Os processadores mais utilizados atualmente são processadores Pentium III ou chips IBM Power 3, (produzidos especialmente para esta tarefa), entre algumas outras opções. Os processadores Athlon não são os preferidos da indústria neste segmento, pois apresentam uma dissipação de calor bem mais alta que os chips Intel e IBM, o que torna-se um problema grave ao usar vários chips dentro do mesmo gabinete. Se num micro doméstico já é preciso um bom cooler e uma boa ventilação do gabinete para usar apenas um chip Athlon, imagine o problemão que é juntar 200 ou 500 destes chips.

Algumas empresas vem cogitando o uso de chips Crusoé, o que faz sentido, já que apesar do baixo desempenho, estes chips consomem pouca eletricidade e geram pouco calor, um Crusoé sozinho tem um desempenho muito abaixo do de um Pentium III, mas se for possível usar mais chips Crusoé na mesma máquina, a maior quantidade pode compensar o menor desempenho por cabeça.


Modelos

Como disse a pouco, o supercomputador mais poderoso da atualidade é o IBM ASCI White. Ele possui nada menos que 8192 processadores IBM Power 3 de 375 MHz com filamentos de cobre. A baixa freqüência de operação dos processadores é justificada pela necessidade de uma estabilidade irretocável e baixa dissipação de calor. O supercomputador tem um poder de processamento estimado em 12.3 teraflops, uma potência mais de mil vezes superior à de qualquer PC topo de linha atual. Completando, temos 6 Terabytes de memória RAM e um total de 160 Terabytes de armazenamento em disco. Em compensação o sistema é simplesmente gigantesco, ocupando uma área equivalente à de duas quadras de basquete.

Outro sistema bastante poderoso é o ASCI Blue-Pacific, formado por 1296 nós, de 4 processadores cada, totalizando 5856 processadores PowerPC604e de 332 MHz em paralelo. 423 dos nós tem 2.5 GB de memória RAM cada, e os demais tem 1.5 GB cada, totalizando 2.6 Terabytes no total.

A capacidade de armazenamento em disco fica em 62.3 Terabytes. A velocidade total de acesso a disco chega a 10.5 GB/s, quase mil vezes o que temos num micro de mesa. Esse aparato todo é dividido em 162 gabinetes ligados entre sí, que também ocupam a área de duas quadras de basquete.

Sistemas como estes são extremamente poderosos, o problema é que são incrivelmente caros, custando dezenas de milhões de dólares. Tanto o ASCI White, quanto o ASCI Blue-Pacific são únicos e existem no mundo apenas mais alguns poucos supercomputadores com uma potência próxima à mostrada por eles.

Uma opção mais barata para uma companhia que precisa de um supercomputador, mas não tem tanto dinheiro assim disponível é usar um sistema de processamento distribuído, ou cluster. Um cluster formado por vários PCs comuns ligados em rede. Em muitos casos sequer é preciso que os PCs tenham uma configuração idêntica, e a conexão pode ser feita através de uma rede Ethernet 10/100, ou mesmo através da Internet.

O exemplo mais famoso de processamento distribuído foi o projeto Seti@Home, onde cada voluntário instalava um pequeno programa que utilizava os ciclos de processamento ociosos da máquina para processar as informações relacionadas ao projeto. Os pacotes de dados de 300 KB cada chegavam pela Internet e demoravam várias horas para serem processados. Isso permitiu que mais de 2 milhões de pessoas, muitas com conexão via modem participassem do projeto. O sistema montado pela Seti@Home é considerado por muitos o supercomputador mais poderoso do mundo.

Este tipo de sistema pode ser construído usando por exemplo a rede interna de uma empresa. Rodando o software adequado, todos os micros podem fazer parte do sistema, alcançando juntos um poder de processamento equivalente ao de um supercomputador. O mais interessante é que estes PCs poderiam ser usados normalmente pelos funcionários, já que o programa rodaria utilizando apenas os ciclos ociosos do processador.

A tecnologia de cluster mais usada atualmente são clusters Beowulf, formados por vários computadores interligados em rede. Não é necessário nenhum hardware sofisticado, um grupo de PCs de configuração mediana ligados através de uma rede Ethernet de 100 megabits já são o suficiente para montar um cluster beowulf capaz de rivalizar com muitos supercomputadores em poder de processamento. A idéia é criar um sistema de baixo custo, que possa ser utilizado por universidades e pesquisadores com poucos recursos.

O primeiro cluster beowulf foi criado em 1994 na CESDIS, uma subsidiária da NASA e era formado por 16 PCs 486 DX-100 ligados em rede. Para manter a independência do sistema e baixar os custos, os desenvolvedores optaram por utilizar o Linux.

Estes clusters não servem para processar dados em tempo real (um game qualquer por exemplo), mas apenas para processar grandes quantidades de dados, que podem ser quebrados em pequenas partes e divididos entre os vários computadores. Uma área onde são populares é na aplicação de efeitos especiais e renderização de imagens para filmes de cinema. Há inclusive casos de filmes como Shrek e Final Fantasy que foram feitos inteiramente em clusters beowulf.


A história

Os primeiros supercomputadores começaram a surgir na década de 60, alias uma década de muitos avanços, já que no final da década de 50 foi feita a transição das válvulas para os transístores. Cada transístor era centenas de vezes menor que uma válvula, era muito mais durável e tinha a vantagem de gerar pouco calor.

Todos os computadores da década de 60 já utilizavam transístores, o que permitiu o desenvolvimento dos primeiros minicomputadores. Naquela época, minicomputador era qualquer coisa do tamanho de um armário, com uma capacidade de processamento inferior ao de uma agenda eletrônica atual, e das mais baratinhas.

Os computadores de grande porte, porém, continuaram a ser desenvolvidos, passando a ser chamados de supercomputadores. O primeiro supercomputador para fins comerciais foi o CDC 6600, que foi seguido pelos IBM 360/95 e 370/195.

Na década de 70 surgiu uma nova revolução, os microchips, formados por alguns milhares de transístores. Um microchip sozinho oferecia uma capacidade de processamento equivalente à de um minicomputador, mas em compensação era escandalosamente menor e mais barato. Surgiram então os primeiros microcomputadores.

Os supercomputadores da década de 70 já eram centenas de vezes mais poderosos do que os produzidos uma década antes, os principais modelos foram o CDC 7600, o BSP, produzido pela Burroughs e o ASC da Texas Instruments.

Estes sistemas atingiram a marca de 100 megaflops, ou seja, 100 milhões de cálculos de ponto flutuante por segundo. Esta é a mesma capacidade de processamento de um Pentium 60, a diferença é que o Pentium surgiu quase 20 anos mais tarde.

No final da década de 70 sugiram os supercomputadores Cray, produzidos pela Seymour. O primeiro da linha, chamado de Cray 1 processava 100 megaflops, porém o Cray-XMP atingiu a incrível marca de 1 Gigaflop, no início da década de 80. Esta é uma capacidade de processamento próxima à de um Pentium II 350.

Os supercomputadores desta época foram usados principalmente na corrida espacial, aliás eles foram os principais responsáveis pelo sucesso do programa espacial Americano sobre o Russo. Uma viagem espacial demanda um número absurdo de cálculos. Os Americanos tinham computadores melhores que os Russos, o que antecipava seus lançamentos.

Artigo extraído de http://www.guiadohardware.net