Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

História do computador, Esquemas de Análise Estrutural

Trabalho história do computador criação

Tipologia: Esquemas

2021

Compartilhado em 02/10/2021

fechado-fechado
fechado-fechado 🇧🇷

2 documentos

1 / 32

Toggle sidebar

Esta página não é visível na pré-visualização

Não perca as partes importantes!

bg1
Faculdade de Tecnologia de Rio Preto
1. Trabalho#1:Histórico Computadores
Aluno: Natacha do Rosário Moraes Carvalho–RA:
Turma: Tarde
Disciplina: Arquitetura e Organização de Computadores
Curso: Laboratório Hardware
Professor: Me José A. A. Viana
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e
pf1f
pf20

Pré-visualização parcial do texto

Baixe História do computador e outras Esquemas em PDF para Análise Estrutural, somente na Docsity!

Faculdade de Tecnologia de Rio Preto

  1. Trabalho #1: Histórico Computadores Aluno: Natacha do Rosário Moraes Carvalho – RA: Turma: Tarde Disciplina: Arquitetura e Organização de Computadores Curso: Laboratório Hardware Professor: Me José A. A. Viana

São José do Rio Preto, 26 de setembro de 2021.

    1. Trabalho #1: Histórico Computadores............................................................................... Sumário
    1. Geração mecânica (século XIX).........................................................................................
    1. Geração Eletrônica – Válvula (década 40).........................................................................
    1. Geração Eletrônica – Transistor (década 50).....................................................................
    1. Geração Eletrônica – Circuito integrado (década 60)......................................................
    1. Geração Eletrônica – Família PC (Personal Computer) (década 80)...............................
    1. Geração Eletrônica - Mobile (a partir 2007)....................................................................
  • REFERÊNCIAS BIBLIOGRÁFICAS.................................................................................

Essa primeira geração de computadores passa ainda por invenções como o Harvard Mark I, em 1944, usado pelos nazistas na Segunda Guerra Mundial. Além do SSEC, lançado em 1948 pela IBM, capaz de calcular a posição da Lua utilizando sequência seletiva eletrônica

  • a máquina ficou famosa por ter sido usada para traçar a rota da missão Apollo 11, em

Anos 1950 – Transistores Univ ac 1101, modelo de sucesso com transistores, ocupava sala (Foto: Reprodução/Creative Commons) A "Segunda Geração" dos computadores surgiu na década de 1950 e teve como marca a chegada dos transistores. Com a nova tecnologia, finalmente o computador idealizado por Alan Turing poderia ser construído e comercializado – o destaque foi o Univac 1101, um equipamento de 12 metros de comprimento e 6,1 metros de largura que usava 2.700 tubos a vácuo para seus circuitos lógicos. A máquina, considerada avançada na época, apresentava 38 instruções e uma espécie de memória equivalente a 48 bits. Mais tarde, depois do lançamento de uma série de computadores eletrônicos nos Estados Unidos, Inglaterra e Japão, a IBM lança a primeira série de mainframes transistorizados da companhia: IBM Strech.

Anos 1960 – Microprocessadores Do tamanho de frigobar, DEC PDP-8 fez sucesso nos anos 1960 (Foto: Reprodução/Creative Commons) Algo como a “Era de Ouro” dos computadores, a década de 1960 trouxe para o mercado os primeiros microprocessadores. A lista começa com o DEC PDP-1, precursor da "Terceira Geração", e passa pelo CDC 6600, o mais rápido da época e três vezes mais veloz do que o Strech, da IBM – ele conseguia realizar mais de 3 milhões de instruções por segundo. Foi em 1965 que o computador finalmente saiu das grandes salas e se tornou portátil. O primeiro microcomputador vendido com sucesso no mercado foi o DEC PDP-8, um computador de 12 bits cujas dimensões se assemelhavam ao de um frigobar de hoje. A fabricante Digital Equipment Corporation – daí a sigla DEC – vendeu mais de 50 mil unidades naquele ano. Anos 1970 – Microcomputadores Graças ao pioneirismo do DEC PDP-8, a "Quarta Geração" de computadores, nos anos 1970, é conhecida pela avalanche de microcomputadores pessoais, começando pelo Kenback 1, anunciado na revista Sicentific American em 1971 e que custava US$ 7 mil.

Anos 1990 – Computadores pessoais i Mac inovou não só na tecnologia, mas também no design (Foto: Reprodução/Creative Commons) Foi na década de 1990 que os computadores pessoais se tornaram produto de massa. A Intel entrava no mercado com seu processador Pentium, em 1993, seguido pelo Pentium II, em 1997. A AMD também lançou seu primeiro Athlon no mercado em 1998, que rodava a incríveis 750 MHz. A década também é conhecida pelos consoles de games com microprocessadores, como o Playstation, lançado pela Sony em 1995. No fim da década, a Apple apresentou seu primeiro iMac, computador que unia todos os componentes ao monitor, resultando em um produto extremamente compacto para a época – foi o primeiro All-in-One.

  1. Geração Eletrônica – Válvula (década 40) Revolução do Computador Os primeiros computadores da década de 1940 possuíam somente dois níveis de linguagem de programação: o nível da linguagem de máquina, no qual toda a programação era feita, e o nível da lógica digital, onde os programas eram efetivamente executados. Com Wilkes,

em 1951, surgiu a ideía de se projetar um computador a três níveis, a fim de se simplificar o hardware. Esta máquina tinha um programa denominado interpretador armazenado permanentemente, cuja função era executar os programas em linguagem de máquina. O hardware assim poderia ser simplificado: teria apenas que executar um pequeno conjunto de micro instruções armazenadas, ao invés de todo o programa em linguagem de máquina, o que exigia menos circuitos eletrônicos. A partir daí começam a evoluir as linguagens e as arquiteturas das máquinas, impulsionadas, principalmente, pelo aparecimento de um novo conceito na História da Computação: os Sistemas Operacionais. Da segunda geração de computadores aos dias de hoje A segunda geração (1956 - 1963) foi impulsionada pela invenção do transistor (1948) e em 1956 já se produziam computadores com esta tecnologia. Apareceram também os modernos dispositivos, tais como as impressoras, as fitas magnéticas, os discos para armazenamento, etc. Os computadores passaram a ter um desenvolvimento rápido, impulsionados principalmente por dois fatores essenciais: os sistemas operacionais e as linguagens de programação. Os circuitos integrados propiciaram um novo avanço e com eles surgiram os computadores de terceira geração (1964 - 1970). As tecnologias LSI, VLSI e ULSI abrigam milhões de componentes eletrônicos em um pequeno espaço ou chip, iniciando a quarta geração, que vem até os dias de hoje. Os atuais avanços em pesquisa e o projeto de novas tecnologias para os computadores estão possibilitando o surgimento da quinta geração. Dois avanços que configuram um divisor de águas são o processamento paralelo, que quebrou o paradigma de von Neumann, e a tecnologia dos supercondutores. Arquiteturas de computadores e sistemas operacionais O termo arquitetura de computador vem da possibilidade de se visualizar uma máquina como um conjunto hierárquico de níveis que permite entender como os computadores estão organizados. Os primeiros computadores digitais por exemplo somente possuíam dois níveis. O primeiro é chamado o nível da lógica digital, formado no início por válvulas e depois por transistores, circuitos integrados, etc. O segundo é chamado de nível 1, também chamado de nível de micro programa, que é o nível da linguagem da máquina, onde toda a programação era feita, através de zeros e uns, e que posteriormente seria o responsável por interpretar as instruções do nível 2. Com Maurice Wilkes em 1951 surgiu outro nível, onde as instruções eram escritas de um modo mais conveniente para o entendimento humano: a técnica consistia em substituir cada instrução desse novo nível por um conjunto de instruções do nível anterior (nível da máquina) ou examinar uma instrução de cada vez e executar a sequência de instruções equivalentes do nível da máquina. Denominam-se estes procedimentos por tradução e interpretação. Isto simplificou o hardware que agora somente tinha um conjunto mínimo de instruções e, portanto, menos circuitos eram necessários. A partir daí a evolução do hardware avança juntamente com as novas descobertas científicas: quase na mesma época do aparecimento dos transistores, por exemplo, surgiu o conceito de barramento de dados, que acelerou a velocidade dos computadores. Ao mesmo tempo apareceram os grandes sistemas operacionais, (simplificadamente, um conjunto de programas mantidos no computador durante todo o tempo, liberando o programador de

apareceram as arquiteturas RISC (Reduced Instruction Set Code), com a promessa de ganho de desempenho pela eliminação do conceito de micro programa. De qualquer maneira estas máquinas ainda são máquinas de von Neumann tradicionais, com todas as suas limitações, a maior delas a velocidade dos circuitos que não pode crescer indefinidamente. As tentativas de quebrar o gargalo de von Neumann e o início da descentralização dos sistemas, com o surgimento das arquiteturas de rede que possibilitaram a universalização do uso da tecnologia da Computação, fizeram emergir e desenvolver as arquiteturas paralelas de hardware. A idéia de incluir paralelismo nos computadores é tão antiga quanto os próprios computadores. Trabalhos desenvolvidos por von Neumann na década de 1940 já discutiam a possibilidade de algoritmos paralelos para a solução de equações diferenciais. O sistema Model V, desenvolvido entre 1944 e 1947 por G. R. Stibitz e S. B. Willians nos laboratórios da Bell Telephone é um exemplo típico de máquina paralela. Constituído por dois processadores e de três posições de entrada e saída, esse multiprocessador primitivo tanto era capaz de executar dois programas distintos como era possível que os dois processadores ficassem alocados para um mesmo programa. Posteriormente foi desenvolvido o Illiac IV, na década de 1960, constituído por 64 processadores. Como foi citado, a partir da década de 1970 começaram a ser produzidos supercomputadores baseados em arquiteturas paralelas. Juntamente com as arquiteturas evoluiram os sistemas operacionais e a evolução das linhas de processadores de uma empresa como a Intel servem para refletir a evolução da indústria dos computadores em um determinado período. Como destaque podem-se citar o MS- DOS, o OS/2 e o UNIX. Especialmente este último, que surgiu como fruto dos trabalhos de um engenheiro da Bell Labs, Ken Thompson, foi popularizado nos meios universitários que usavam computadores PDP-11/45, durante a década de 1970. A palavra UNIX espalhou-se rapidamente por todo o mundo e no início de 1980 este sistema operacional estava disponível em mais máquinas do que qualquer outro sistema operacional da época, continuando hoje ainda a ser amplamente utilizado. A mais nova arquitetura, que determinou a mais recente evolução da Computação foi o resultado da rápida convergência das tecnologias de comunicações de dados, telecomunicações e a própria informática. É a Internet, ou modelo computacional baseado em uma rede, que teve sua origem nos anos da década de 1970, como um esforço do Departamento de Defesa dos EUA para conectar a sua rede experimental, chamada ARPAnet, a várias outras redes de rádio e satélites. Espalhou-se logo em seguida nos meios acadêmicos e está bastante popularizado

  1. Geração Eletrônica – Transistor (década 50) Na década de 50, a válvula sai de cena e o transistor assume seu posto Se na primeira geração dos computadores as válvulas faziam a diferença, na segunda geração a grande vedete foram os transistores. O primeiro deles havia sido inventado em
  1. Mas foi a partir do desenvolvimento da pecinha pelo Bell Laboratories, já em 1952, que a coisa pegou. Entre as vantagens sobre as velhas válvulas, os transistores eram mais confiáveis e velozes, tinham aquecimento mínimo e pequeno consumo de energia. Ainda em 1952, John Mauchly e Presper Eckert, os inventores do Eniac, abriram uma firma na Filadélfia e criaram o Univac (Computador Automático Universal), destinado ao uso comercial. Tratava-se de uma máquina eletrônica de programa armazenado que recebia instruções de uma fita magnética de alta velocidade. Até então, os computadores usavam cartões perfurados. Também em 1952, Grace Hopper criou o primeiro compilador, marcando seu papel na história como uma pioneira no processamento de dados. Em 1953, surgiu uma memória magnética menor e bem mais veloz. Criada por Jay Forrester, ela vinha substituir as memórias que usavam válvulas eletrônicas. Ainda naquele ano, a IBM marcou seu lugar de destaque nessa evolução ao lançar seu primeiro computador digital, o IBM-701. Aposentadoria O Eniac serviu ao Exército americano até 1955, quando foi desativado no dia 2 de outubro, ganhando o merecido descanso no Museu do Computador da Universidade da Pensilvânia. Mas a aposentadoria só aconteceu depois de seu sucessor, o Computador Eletrônico de Variáveis Discretas (Edvac), sair do papel, em 1951. O novo computador foi desenvolvido a partir dos relatórios do matemático de origem húngara John Von Neumann, um dos consultores do projeto Manhattan, que fez a primeira bomba atômica. Entre os grandes avanços em relação ao Eniac, o Edvac podia codificar informações em forma binária, em vez da decimal, reduzindo consideravelmente o número de válvulas. Além disso, ao contrário do antecessor, a nova vedete da história da computação tinha uma memória capaz de armazenar programas. Videogame Outros dinossauros da primeira geração dos computadores foram o Edsac (Calculadora Automática com Armazenamento por Retardo Eletrônico), concluído em 1949 pelo cientista inglês Maurice Wilkes; e o LEO, de 1951, que foi o pioneiro entre os computadores comerciais e deu origem aos call centers. O Edsac serviu também para abrigar uma versão eletrônica do jogo-da-velha, em 1952. As cruzes e círculos eram transmitidas do computador para um monitor de tubo conectado a ele. Essa iniciativa é considerada por muitos historiadores da informática como o primeiro videogame de que se tem registro.

[Imagem: Texas Instruments]

  1. Geração Eletrônica – Família PC (Personal Computer) (década 80) A década de 80 Como profetizado por Gordon Moore, os processadores vêm, em média, dobrando de desempenho a cada 18 meses desde o início da década de 70. Uma década é uma verdadeira eternidade dentro do mercado de informática, o suficiente para revoluções acontecerem e serem esquecidas. Depois dos dinossauros da primeira metade da década de 70, os computadores pessoais finalmente começaram a atingir um nível de desenvolvimento suficiente para permitir o uso de aplicativos sérios. Surgiram então os primeiros aplicativos de processamento de texto, planilhas, e até mesmo programas de editoração e desenho. Depois dos Apple I e Apple II, ZX80, Ataris e outros computadores de 8 bits, chegamos finalmente à era PC. A IBM de 1980 era uma gigantesca empresa, especializada em mainframes e terminais burros. Entretanto, percebendo a crescente demanda por computadores pessoais, decidiram criar um pequeno grupo (que originalmente possuía apenas 12 desenvolvedores) para desenvolver um computador pessoal de baixo custo.

O PC era considerado um projeto menor dentro da IBM, apenas uma experiência para testar a demanda do mercado. O projeto chegou a ser marginalizado dentro da empresa, pois muitos executivos acreditavam que o IBM PC poderia concorrer com outros produtos do portfólio da IBM. Depois de quase um ano de desenvolvimento, o primeiro PC foi lançado em 12 de agosto de 1981. O PC original Para cortar custos e acelerar o desenvolvimento, a equipe decidiu que usaria apenas componentes-padrão, que pudessem ser encontrados facilmente no mercado. O processador escolhido foi o Intel 8088, uma versão econômica do processador 8086, que havia sido lançado pela Intel em 1978. Quando a IBM estava desenvolvendo seu computador pessoal, chegou a ser cogitado o uso do 8086, mas acabou sendo escolhido o 8088 devido ao seu baixo custo. Tanto o 8086 quanto o 8088 são processadores de 16 bits, considerados bastante avançados para a época. Um processador de 16 bits é capaz de endereçar mais memória (até 64 KB de memória de cada vez) e processar instruções muito mais complexas que os processadores de 8 bits usados até então.

Seagate ST-225, de 20 MB Ao usar um PC sem HD, o sistema operacional e todos os programas eram carregados a partir de disquetes de 5¼. Inicialmente eram usados disquetes de 180 KB, mas eles foram logo substituídos por disquetes de 360 KB (onde eram usadas as duas faces do disco) e, alguns anos mais tarde, por disquetes de “alta densidade”, com 1.2 MB. Os disquetes de de 3.5″, com 1.44 MB, que usamos hoje em dia passaram a ser usados nos PCs apenas em 1987, com o lançamento do IBM PS/2. Existiu ainda um padrão de disquetes de 2.8 MB, lançado nos anos 90, que acabou não pegando. Disquetes de 5¼

O PC era mono-tarefa, de forma que para carregar outro programa, você precisava primeiro encerrar o primeiro e trocar o disquete dentro do drive. O segundo drive de disquetes era um item extremamente popular (e necessário), pois os disquetes de 5¼ eram extremamente frágeis e a mídia se degradava com o tempo, de forma que você precisava copiar os discos frequentemente. Conforme foram sendo lançados PCs com mais memória RAM, surgiu o “macete” de criar um ramdisk (um pedaço da memória RAM usado como se fosse um HD) e usá-lo para copiar disquetes sem precisar de um segundo drive :). Também era comum aparecerem versões “capadas” dos principais programas, com componentes e bibliotecas desativados ou removidos, de forma a rodar nos PCs com menos memória RAM. Naquela época, ainda não existia memória swap, de forma que se o PC não tivesse memória suficiente, os programas simplesmente não rodavam. O sistema operacional usado no PC original era o MS-DOS 1.0 (na época ainda chamado de PC-DOS), que foi desenvolvido às pressas pela Microsoft com base num sistema operacional mais simples, chamado QDOS, comprado da Seattle Computers, uma pequena empresa desenvolvedora de sistemas. Na verdade, a Microsoft foi a segunda opção da IBM, depois de ter sua proposta de licença recusada pela Digital Research, que desenvolvia versões do seu CP/M para várias arquiteturas diferentes. Na época, a IBM acreditava que ganharia dinheiro vendendo as máquinas e não vendendo sistemas operacionais e softwares, o que era considerado um negócio menor, dado de bandeja para a Microsoft. Com o passar do tempo, os executivos da IBM se arrependeram amargamente da decisão, pois a concorrência entre os diversos fabricantes derrubou os preços e as margens de lucro dos PCs, enquanto a Microsoft conseguiu atingir um quase monopólio do sistema operacional para eles e, sem concorrentes de peso, passou a trabalhar com margens de lucro cada vez maiores. Um fabricante de memórias, como a Micron, trabalha normalmente com margens de lucro abaixo de 1%. Conseguem ganhar dinheiro apenas por venderem quantidades muito grandes. Um integrador como a Dell trabalha com margens de 3 a 5% (e leva prejuízo às vezes, nas unidades que ficam muito tempo em estoque ou não vendem), enquanto a Microsoft (mesmo com toda a pirataria) trabalha com margens superiores a 80% vendendo o Windows e Office, um negócio da China. Hoje em dia, a IBM sequer fabrica PCs. Mesmo os famosos notebooks IBM Thinkpad são agora fabricados e vendidos pela Lenovo, uma empresa Chinesa que comprou os direitos sobre a marca em 2000. Voltando à história, dois anos depois foi lançado o PC XT, que apesar de continuar usando o 8088 de 4.77 MHz, vinha bem mais incrementado, com 256 KB de RAM, disco rígido de 10 MB, monitor CGA e o MS-DOS 2.0. O XT se tornou um computador bastante popular e chegou a ser fabricado no Brasil, durante a reserva de mercado. Enquanto os americanos já usavam muitos 386, os clones tupiniquins do XT eram a última palavra em tecnologia aqui no Brasil…

O processador 286 trouxe vários avanços sobre o 8088. Ele utilizava palavras binárias de 16 bits, tanto interna quanto externamente, o que permitia o uso de periféricos de 16 bits, muito mais avançados do que os usados no PC original e no XT. O custo dos periféricos desta vez não chegou a ser um grande obstáculo, pois enquanto o PC AT estava sendo desenvolvido, eles já podiam ser encontrados com preços mais acessíveis. Para manter compatibilidade com os periféricos de 8 bits usados no PC original e no XT, a IBM desenvolveu os slots ISA de 16 bits, que permitem usar tantas placas de 8 bits, quanto de 16 bits. As placas de 8 bits são menores e usam apenas a primeira série de pinos do slot, enquanto as placas de 16 bits usam o slot completo. Devido à sua popularidade, o barramento ISA continuou sendo usado por muito tempo. Em 2004 (20 anos depois do lançamento do PC AT) ainda era possível encontrar algumas placas-mãe novas com slots ISA, embora atualmente eles estejam extintos. Slots ISA, em uma placa-mãe de 386 O principal avanço trazido pelo 286 são seus dois modos de operação, batizados de “Modo Real” e “Modo Protegido”. No modo real, o 286 se comporta exatamente como um 8086 (apesar de mais rápido), oferecendo total compatibilidade com os programas anteriores, escritos para rodarem no 8088. Já no modo protegido, ele manifesta todo o seu potencial, incorporando funções mais avançadas, como a capacidade de acessar até 16 MB de memória RAM (apesar de ser um processador de 16 bits, o 286 usa um sistema de endereçamento de memória de 24 bits), multitarefa, memória virtual em disco e proteção de memória. Assim que ligado, o processador opera em modo real e, com uma instrução especial, passa para o modo protegido. O problema é que, trabalhando em modo protegido, o 286 deixava de ser compatível com os programas escritos para o modo real, inclusive com o próprio MS-DOS. Para piorar, o 286 não possuía nenhuma instrução que fizesse o processador voltar ao modo real, o que era possível apenas resetando o micro. Isso significa que um programa escrito para rodar em modo protegido, não poderia usar nenhuma das rotinas de acesso a dispositivos do MS-DOS, tornando inacessíveis o disco rígido, placa de vídeo, drive de disquetes memória, etc., a menos que fossem desenvolvidas e incorporadas ao programa todas as rotinas de acesso a dispositivos necessárias.

Isso era completamente inviável para os desenvolvedores, pois, para projetar um simples jogo, seria praticamente preciso desenvolver todo um novo sistema operacional. Além disso, o programa desenvolvido rodaria apenas em micros equipados com processadores 286, que ainda eram minoria na época, tendo um público-alvo muito menor. De fato, apenas algumas versões do UNIX e uma versão do OS/2 foram desenvolvidas para utilizar o modo protegido do 286. Basicamente, os micros baseados no 286 eram usados para rodar aplicativos de modo real, que também podiam ser executados em um XT, aproveitando apenas a maior velocidade do 286. Devido às várias mudanças na arquitetura, destacando o acesso mais rápido à memória e as alterações no conjunto de instruções do processador, que permitiam realizar muitas operações de maneira mais rápida e eficiente, um 286 consegue ser quase 4 vezes mais rápido que um 8088 do mesmo clock. Em outubro de 1985 a Intel lançou o 386, que marcou o início dos tempos modernos. Ele trouxe vários recursos novos. Para começar, o 386 trabalha tanto interna quanto externamente com palavras de 32 bits e é capaz de acessar a memória usando um barramento de 32 bits, permitindo uma transferência de dados duas vezes maior. Como o 386 pode trabalhar com palavras binárias de 32 bits, é possível acessar até 4 GB de memória (2 elevados a 32ª potência), mesmo sem usar a segmentação de endereços, como no 8088. Assim como o 286, o 386 continua possuindo os dois modos de operação. A diferença é que no 386 é possível alternar entre o modo real e o modo protegido livremente. Os programas que rodavam sobre DOS podiam chavear o processador para o modo protegido, para se beneficiarem de suas vantagens e voltarem ao modo real sempre que precisavam usar alguma sub-rotina do DOS, de maneira transparente ao usuário. Nesse caso, era usado um programa de DPMI (“DOS Protected Mode Interface”, ou “interface DOS de modo protegido”) para fazer o chaveamento entre os dois modos. Toda vez que o programa precisava usar alguma sub-rotina do DOS, ele passava o comando ao chaveador e ficava esperando. O chaveador, por sua vez, colocava o processador em modo real, executava o comando, chaveava o processador para o modo protegido e entregava o resultado ao aplicativo, que continuava trabalhando como se nada tivesse acontecido. Um bom exemplo de programa de DPMI é o DOS4GW, que é usado por muitos jogos antigos que rodam sobre o MS-DOS, como o DOOM, Sim City 2000 e vários emuladores de videogames. O esquema de chaveamento também era utilizado pelo Windows 3.x, que incluía todas as rotinas necessárias, dispensando qualquer programa de DPMI. O Windows 95/98 também pode chavear para o modo real caso precise carregar algum driver de dispositivo de modo real. No Windows XP os programas DOS passaram a ser executados dentro de um emulador (ao invés de nativamente), o que reduziu a compatibilidade do sistema com os aplicativos MS-DOS. Ter um processador 386 é o requisito mínimo para rodar qualquer sistema operacional moderno. Com um 386, memória RAM e espaço em disco suficiente, você pode rodar o Windows 95 e aplicativos, embora bem lentamente devido à pouca potência do processador. Você pode também instalar distribuições Linux antigas e (usando algum