sexta-feira, 17 de agosto de 2012

Partes de um Computador

Se você usa um computador desktop, já deve saber que não existe uma parte única chamada "computador". Um computador é, na verdade, um sistema de muitas partes funcionando em conjunto. As partes físicas, que você pode ver e tocar, são denominadas coletivamente hardware. O software, por outro lado, se refere às instruções (ou programas) que dizem ao hardware o que fazer.


A ilustração abaixo mostra os dispositivos de hardware mais comuns em um sistema de computador desktop. Seu sistema pode ter uma aparência um pouco diferente, mas provavelmente possui a maioria destas peças. Um computador laptop possui peças semelhantes, mas as combina em um único pacote do tamanho de um caderno.
Imagem de um sistema de computador desktopSistema de computador desktop


Vamos dar uma olhada em cada uma destas peças.

Unidade de sistema

A unidade de sistema é o núcleo de um sistema de computador. Normalmente, é uma caixa retangular colocada sobre a mesa ou embaixo dela. Dentro dessa caixa estão os componentes eletrônicos que processam as informações. O mais importante desses componentes é a CPU (unidade de processamento central) ou microprocessador, que atua como o "cérebro" do computador. Outro componente é a memória RAM, que armazena temporariamente informações utilizadas pela CPU enquanto o computador está ligado. As informações gravadas na RAM são apagadas quando o computador é desligado.

Quase todas as outras partes do computador se conectam à unidade de sistema por meio de cabos. Os cabos são conectados a portas (aberturas) específicas, geralmente na parte traseira da unidade de sistema. O hardware que não faz parte da unidade de sistema é chamado dispositivo periférico ou simplesmente dispositivo.
Imagem de uma unidade de sistemaUnidade de sistema
Início da página
Armazenamento

O computador possui uma ou mais unidades de disco, ou seja, dispositivos que armazenam informações em um disco de plástico ou de metal. O disco preserva as informações mesmo quando o computador está desligado.
Unidade de disco rígido

A unidade de disco rígido do computador armazena informações em um disco rígido, que é um prato rígido ou pilha de pratos com uma superfície magnética. Como os discos rígidos podem reter uma grande quantidade de informações, normalmente eles funcionam como principal meio de armazenamento do computador, guardando praticamente todos os programas e arquivos. Em geral, a unidade de disco rígido fica localizada dentro da unidade de sistema.
Imagem de uma unidade de disco rígidoUnidade de disco rígido
Unidades de CD e DVD

Hoje em dia, quase todos os computadores vêm equipados com uma unidade de CD ou DVD, geralmente localizada na frente da unidade de sistema. As unidades de CD usam lasers para ler (recuperar) dados de um CD, e muitas também podem gravar dados em CDs. Se você tiver uma unidade de disco gravável, poderá armazenar cópias de seus arquivos em CDs vazios. A unidade de CD também serve para tocar CDs de música no computador.
Imagem de um CDCD

As unidades de DVD fazem o mesmo que as unidades de CD e também lêem DVDs. Se você tiver uma unidade de DVD, poderá ver filmes no computador. Muitas unidades de DVD podem gravar dados em DVDs vazios.

Se você tiver uma unidade de CD ou DVD gravável, faça backup (copie) periodicamente de seus arquivos importantes em CDs ou DVDs. Dessa forma, caso venha a ocorrer alguma falha no disco rígido, você não perderá os dados.

Mouse

Mouse é um pequeno dispositivo usado para apontar e selecionar itens na tela do computador. Embora existam mouses de várias formas, o modelo mais comum se assemelha a um rato (como diz o nome em inglês). Ele é pequeno e alongado, sendo conectado à unidade de sistema por um cabo comprido que faz lembrar uma cauda. Alguns mouses mais novos são sem fio.
Imagem de um mouse de computadorMouse

O mouse geralmente possui dois botões: um botão principal (normalmente o da esquerda) e um botão secundário. Muitos mouses também têm uma roda entre os dois botões, que permite percorrer as telas de informações.
Imagem de ponteiros do mouse

À medida que você move o mouse com a mão, um ponteiro na tela se move na mesma direção. (A aparência do ponteiro pode mudar dependendo da sua posição na tela.) Quando quiser selecionar um item, aponte para ele e clique no botão principal, ou seja, pressione-o e solte-o. Apontar e clicar com o mouse é a principal maneira de interagir com o computador. Para obter mais informações, consulte Usando o mouse.

Teclado

A finalidade principal do teclado é digitar texto no computador. Ele possui teclas para letras e números, exatamente como em uma máquina de escrever. A diferença está nas teclas especiais:

    As teclas de função, localizadas na linha superior, executam funções diferentes dependendo de onde são usadas.

    O teclado numérico, localizado à direita na maioria dos teclados, permite inserir números rapidamente.

    As teclas de navegação, como as teclas de seta, permitem mover sua posição dentro de documentos ou páginas da Web.


Você também pode usar o teclado para executar muitas das mesmas tarefas que executa com um mouse. Para obter mais informações, consulte Usando o teclado.

Monitor

O monitor exibe informações em forma visual, usando texto e elementos gráficos. A parte do monitor que exibe as informações é chamada tela. Como a tela de uma televisão, a tela de um computador pode mostrar imagens paradas ou em movimento.

Existem dois tipos básicos de monitores: CRT (tubo de raios catódicos) e LCD (vídeo de cristal líquido). Ambos produzem imagens nítidas, mas os monitores LCD levam vantagem por serem mais finos e mais leves. Os monitores CRT, porém, costumam ter preço mais acessível.
Imagem de monitores LCD e CRTMonitor LCD (à esquerda); monitor CRT (à direita)

Impressora

Uma impressora transfere dados de um computador para o papel. Você não precisa de impressora para usar o computador, mas, se tiver uma, poderá imprimir emails, cartões, convites, anúncios e outros materiais. Muitas pessoas também preferem imprimir suas fotos em casa.

Os dois principais tipos de impressora são a jato de tinta e a laser. As impressoras a jato de tinta são as mais populares para uso doméstico. Elas podem imprimir em preto e branco ou em cores e produzem fotos de alta qualidade quando usadas com papel especial. As impressoras a laser são mais rápidas e mais adequadas para uso intenso.
Imagem de impressoras a jato de tinta e a laserImpressora a jato de tinta (à esquerda); impressora a laser (à direita)

Alto-falantes

Os alto-falantes são usados para tocar som. Podem vir embutidos na unidade de sistema ou ser conectados com cabos. São eles que permitem ouvir música e efeitos de som no computador.
Imagem de alto-falantes de computadorAlto-falantes do computador

Modem

Para conectar o computador à Internet, você precisa de um modem, um dispositivo que envia e recebe informações do computador por linha telefônica ou cabo de alta velocidade. Às vezes, os modems vêm embutidos na unidade de sistema, mas os de alta velocidade normalmente são componentes separados.

quarta-feira, 15 de agosto de 2012

História dos Processadores - Parte 2

As CPUs 80386 e 80486, lançadas entre o meio e o fim da década de 80, trabalhavam com clocks que iam de 33 MHz a 100 MHz, respectivamente. O 80386 permitiu que vários programas utilizassem o processador de forma cooperativa, através do escalonamento de tarefas. Já o 80486 foi o primeiro a usar o mecanismo de pipeline, permitindo que mais de uma instrução fossem executadas ao mesmo tempo.


Para o 80486, existiram diversas versões, sendo que cada uma delas possuía pequenas diferenças entre si. O 486DX, por exemplo, era o top de linha da época e também a primeira CPU a ter coprocessador matemático. Já o 486SX era uma versão de baixo custo do 486DX, porém, sem esse coprocessador, o que resultava em um desempenho menor.
A guerra entre Intel e AMD

As séries de processadores Intel e AMD marcaram época no mundo da informática, através de suas diferentes versões. O primeiro Pentium (Intel), lançado em 1993, apresentava várias melhorias sobre o 80486, principalmente por uso da superescalabilidade, ou seja, a replicação de hardware para que mais instruções fossem executadas ao mesmo tempo. Seu clock inicial era de 100 MHz, o qual chegou a atingir 200 MHz com o passar do tempo de desenvolvimento.

Em 1995, a Intel lançava o Pentium Pro, sexta geração de chips x86 e que possuía uma série de melhoramentos em relação ao seu antecessor. Essa seria a base para os futuros lançamentos: Pentium II, Pentium III e Pentium M.

Paralelamente, a AMD começava a ganhar mercado com modelos similares, principalmente como o AMD K5, forte concorrente do Pentium original. Dois anos depois, o Pentium II foi lançado, atingindo o clock de 450 MHz.

Nessa mesma época, a AMD desenvolveu CPUs que batiam de frente com a Intel, como o AMD K6. Por esse motivo, ambas as empresas travaram uma espécie de “corrida”, competindo para ver quem conseguia o maior desempenho e valor de clock.
A lei de Moore

Em 1965, Gordon Moore, um dos fundadores da Intel, afirmou que o número de transistores em um chip dobraria, sem custo adicional, a cada 18 meses. Tal afirmação ficou conhecida como a Lei de Moore, a qual foi válida durante anos, principalmente no final da década de 90.

Sempre que uma empresa lançava um modelo de processador, o concorrente a superava meses depois. Isso ficou muito evidente nos anos de 1999 e 2000, quando o Pentium III e o AMD Atlhon (K7) estavam guerreando pelo maior clock. Por um período de tempo, a AMD liderou a disputa, pois o Atlhon, que trabalhava com frequências maiores do que 1 GHz, superou o Pentium III.

A reviravolta da Intel veio com o lançamento do Pentium 4, em 2001, que trabalhava com até  2 GHz e levou a empresa de volta ao topo do mercado. As versões de baixo custo dessas CPUs, Celeron (Intel) e Duron (AMD), também disputavam fortemente o lugar mais alto no ranking do processador “B” mais vendido.
Multicore: o fim da lei de Moore

Conforme a tecnologia dos processadores foi progredindo, o tamanho de seus transistores foi diminuindo de forma significativa. Contudo, após o lançamento do Pentium 4, eles já estavam tão pequenos (0,13 micrômetros) e numerosos (120 milhões) que se tornou muito difícil aumentar o clock por limitações físicas, principalmente pelo superaquecimento gerado.

A principal solução para esse problema veio com o uso de mais de um núcleo ao mesmo tempo, através da tecnologia multicore. Assim, cada núcleo não precisa trabalhar numa frequência tão alta. Se o esquema de escalonamento de tarefas funcionasse de maneira eficiente, seria possível trabalhar com quase o dobro do clock. Um processador dual-core de 1,5 GHz, por exemplo, poderia ter um desempenho semelhante a uma CPU de núcleo único de 3 GHz.

Um componente chamado de escalonador determina em qual dos núcleos uma tarefa deve ser executada. Mas como o escalonador demora certo tempo para fazer essa decisão, na prática fica quase impossível atingir o dobro exato de desempenho. Portanto, com o advento do processador multicore, a lei de Moore tornou-se inválida, visto que já não era mais possível aumentar a frequência do processador como antes.
Anos 2000: a era de 64 bits

No começo dessa década, ficou claro que o uso de 32 bits não seria mais eficiente, visto que, no máximo, apenas 4 GB de memória RAM poderiam ser endereçados nessa plataforma. Logo, a solução mais natural foi o desenvolvimento de novas arquiteturas que passassem a trabalhar com 64 bits ao invés de 32.


Tanto a AMD quanto a Intel trabalhavam em seus próprios projetos de CPUs de 64 bits, mas quem venceu a disputa foi mesmo a AMD, com o x86-64, que mais tarde foi renomeado para AMD64. Isso aconteceu, principalmente, pelo fato de a AMD ter evoluído diretamente o x86-32, enquanto que a Intel tentou criar algo novo, do zero.

Visto esse acontecimento, as empresas em questão criaram um acordo no uso dessas arquiteturas, no qual a AMD licenciou para a Intel o uso do x86-64. Por outro lado, a Intel também tornou legal o uso da arquitetura x86-32 pela AMD. Logo, todos os modelos de processadores 64 bits comerciais atuais rodam sobre o x86-64. O AMD Athlon 64 foi um dos maiores representantes dessa arquitetura.
Blackfin

Ainda em 2000, uma nova arquitetura de processadores foi lançada pela empresa Analog Devices. A Blackfin, como foi batizada, é uma família de microprocessadores de 16 e 32 bits que possuía, como diferencial, um processador de sinal digital (DSP) embutido, usado para processar áudio e vídeo.

Aliado a outras características de design, esse processador permite um consumo menor de energia aliado ao alto desempenho. O uCLinux é um dos sistemas operacionais que suporta esse tipo de CPU.
Pentium 4 e Pentium D

Em 2002, a Intel lançou o Pentium 4, processador que podia alcançar clocks muito altos, chegando até a 3,8 GHz em condições especiais. Os últimos modelos dessa linha também incluíam a tecnologia Hyperthreading (HT), funcionalidade que fazia um processador físico trabalhar como se fossem duas CPUs lógicas.

Posteriormente, o Pentium 4 foi substituído pelo Pentium D, duas linhas de processadores dual-core de 64 bits. Mais tarde, foi lançado o Pentium Extreme Edition, que possuía desempenho um pouco melhor do que o Pentium D, além de tecnologias extras que o tornavam mais apto para tarefas pesadas. Esse modelo também fazia uso da tecnologia HT, podendo simular a existência de até quatro núcleos.

Outra novidade da Intel foi o Pentium M, uma versão de baixo consumo do Pentium Pro desenvolvido para dispositivos móveis. Esse processador foi lançado em 2003. Em 2005, a AMD apresentou ao mundo o seu primeiro processador dual-core, o Athlon 64 X2.
Intel Core

Em 2006, a Intel inicia a sua linha Core, para consumidores que precisam de mais poder de processamento. Faz parte dessa linha o modelo Core 2 Duo, que demonstra uma capacidade incrível se comparado com os dual-core anteriores da empresa. Na mesma época, foi lançada a versão Pentium Dual Core, que apesar de trazer uma boa relação custo-benefício, se mostra inferior ao Core 2 Duo.

Outro grande lançamento feito pela Intel foi o Core 2 Quad, processadores com quatro núcleos e que, apesar de demonstrarem alto desempenho, acabam perdendo em algumas tarefas para o Core 2 Duo. Uma versão posterior, nomeada Core 2 Extreme Quad Core, também foi lançada, proporcionando mais velocidade de clock, que pode chegar até 3,2 GHz.

Em 2010, a Intel anunciou os modelos Core i3, i5 e i7. Quem ainda não conhece pode conferir o artigo publicado pelo Tecmundo sobre as diferenças entre esses três modelos.


Além disso,a empresa também lançou uma segunda geração desses processadores, que vem sendo muito bem aceita pelos consumidores. Essa nova leva possui mudanças na memória cache, melhorias no modo Turbo Boost e aperfeiçoamentos na própria arquitetura. Porém, o que chama a atenção é a presença de um chip gráfico acoplado com o processador principal (APU). Confira as diferenças entre as duas gerações no artigo de Fábio Jordão.

A empresa também vem trabalhando em uma nova microarquitetura de processadores, a Ivy Bridge, que deve possuir suporte para PCI Express 3.0, DirectX 11 e OpenCL 1.1. A empresa espera obter um aumento de até 30% de desempenho no processamento gráfico se comparado com o chipset Sandy Bridge, presente nos processadores i5 e i7.
As últimas novidades da AMD

Quando o assunto é AMD, a história possui algumas diferenças. Depois dos processadores dual-core, a linha Athlon II apresentou processadores de três (X3) e quatro núcleos (x4), todos com versões econômicas, ou seja, com menor desempenho e mais baratos.

Um dos últimos grandes lançamentos da AMD foi o Athlon Neo, chip desenvolvido para notebooks ultrafinos e que precisam de uma duração maior da bateria. Outra linha apresentada pela fabricante foi a dos processadores Sempron, uma versão simplificada do Athlon, com apenas um núcleo e voltada para consumidores menos exigentes.


Quem não dispensa um bom jogo ou precisa de processamento de alto desempenho pode contar com os processadores Phenom, que foram lançados para competirem de igual para igual com as CPUs da Intel. Esses modelos também receberam versão de três (X3) e quatro (X4) núcleos. A segunda geração dessa linha, Phenom II, conta também com processadores dual-core de 3 e 3,1 GHz.

A surpresa mesmo fica por conta dos processadores Phenom II X4, de quatro núcleos e alto desempenho, com modelos de até 3,4 GHz. Além desses, servidores ou estações de trabalho que exigem uma carga maior de processamento também podem se beneficiar dos processadores Opteron, que podem operar com até seis núcleos.

A AMD também lançou uma linha de CPUs para notebooks que, apesar de ser dual-core, possui um consumo eficiente de energia, poupando assim a carga da bateria dos portáteis. Mas o que vem ganhando espaço é mesmo a Fusion, linha de APUs (Unidade de Processamento Acelerada) da AMD. Com a junção de CPU e GPU em um único chip, é possível obter melhor desempenho a um custo reduzido. Leia mais sobre o Fusion aqui mesmo, no Tecmundo.
...

Com tantos modelos de processadores disponíveis, pode ter ficado confuso saber quais modelos ainda são vendidos e o que comprar na hora de fazer um upgrade. Mas não se preocupe: aqui você encontra artigos que podem ajudá-lo a decidir qual é o processador ideal para você, seja Intel ou AMD.

domingo, 12 de agosto de 2012

História dos Processadores - Parte 1

O processador, também conhecido como CPU, é peça fundamental dos computadores. E não estamos falando apenas dos famosos PCs. Celulares, video games, smartphones, tablets: todos esses dispositivos precisam de processadores para funcionar. Esse componente tão vital é responsável por carregar e realizar as operações aritméticas e lógicas de que os programas de computador fazem uso. Portanto, nada funciona sem a famosa CPU.

Levou décadas para que chegássemos aos modelos atuais de processadores. Na verdade, demoramos alguns anos para chegar também à ideia que temos hoje de como uma CPU funciona. Antes, os softwares não eram compatíveis com todos os modelos de computador, já que eles eram desenvolvidos especificamente para cada máquina.

Isso estava relacionado ao fato de que cada computador era como uma plataforma diferente. Muitas vezes, existia incompatibilidade até mesmo entre modelos de um mesmo fabricante. Por incrível que pareça, isso não chegava a ser uma barreira preocupante, visto que a produção de software ainda não era alta e não existiam muitos programas disponíveis.
Precursores da CPU moderna: anos 40, 50 e 60

Os primeiros computadores, anteriores à década de 50, possuíam um diferencial considerável, se comparados com as máquinas de hoje: eles não eram capazes de armazenar programas. Alguns deles, como o ENIAC, que teve seu desenvolvimento iniciado em 1943, tinham inicialmente o plano de armazenamento de softwares em seu interior. Mas, para agilizar o lançamento da máquina, essa ideia acabou ficando para trás.

Dessa forma, o ENIAC tinha que ser modificado fisicamente cada vez que uma tarefa diferente fosse executada. Cabos deveriam ser reposicionados, chaves ligadas ou desligadas e um novo programa ser carregado. Era dessa forma que o processamento em si era realizado.

EDVAC instalado no Laboratório de Pesquisas Balísticas dos EUA

Em 1945, a ideia de uma unidade central de processamento capaz de executar diversas tarefas foi publicada por John Von Neumann. Chamado de EDVAC, o projeto desse computador foi finalizado em 1949. Essa é a origem dos primeiros modelos “primitivos” de processadores da forma como os conhecemos. Além disso, o EDVAC e outros computadores, como o Mark I, da Universidade de Harvard, marcam o início da era dos computadores modernos, capazes de armazenar programas.

Durante a década de 50, a organização interna dos computadores começou a ser repensada. Esse foi o momento em que os processadores começaram a ganhar funcionalidades básicas, como registradores de índices, operandos imediatos e detecção de operadores inválidos.

No início da década de 60, a IBM desenvolveu uma nova abordagem: planejou uma família de computadores que poderiam executar o mesmo software, com poder de processamento e preços diferentes. Com isso, os programas não seriam mais dependentes de máquina, mas compatíveis entre todos esses modelos.

Para colocar isso em prática, a IBM acabou criando um computador virtual conhecido como System/360, ou simplesmente S/360.  Podemos pensar nesse sistema como um conjunto de instruções e capacidades que todos os computadores da família S/360 teriam em comum.
Processadores Modernos

Nos modelos apresentados acima, os processadores ainda não eram compostos por uma unidade central, mas por módulos interconectados entre si.  Foi só no início da década de 70 que surgiram as CPUs desenvolvidas totalmente em circuitos integrados e em um único chip de silício.
Geração Pré-x86

O Intel 4004 foi o primeiro microprocessador a ser lançado, em 1971. Sendo desenvolvido para o uso em calculadoras, essa CPU operava com o clock máximo de 740 KHz e podia calcular até 92 mil instruções por segundo, ou seja, cada instrução gastava cerca de 11 microssegundos.

Com o sucesso do 4004, a Intel desenvolveu o processador 8008, em 1972. Esse era uma CPU de 8 bits, com barramento externo de 14 bits e capaz de endereçar 16 KB de memória. Seu clock trabalhava na frequência máxima de 0,8 MHz.

Esse modelo foi substituído, em 1974, pelo Intel 8080, que apesar de ainda ser um processador de 8 bits, podia executar, com algumas limitações, operações de 16 bits. O 8080 foi desenvolvido, originalmente, para controlar mísseis guiados. Tinha clock limite de 2 MHz, um valor muito alto para a época, era capaz de realizar centenas de milhares de operações por segundo e de endereçar até 64 KB de memória.
A família x86 de 16 bits

A arquitetura x86, lançada em meados da década de 70, ainda serve como base para boa parte dos computadores atuais. O primeiro processador que aproveitou todo o seu potencial foi o Intel 8086, de 1978. Pela primeira vez, a velocidade do clock alcançava 5 MHz, utilizando instruções reais de 16 bits. O nome "x86" veio do fato de que o nome dos processadores que vieram depois do Intel 8086 também terminavam em "86".

Ainda no mesmo ano, foi lançado o 8088, sucessor que possuía barramento externo de 8 bits, porém, com registradores de 16 bits e faixa de endereçamento de 1 MB, como no 8086. Esse foi o chip utilizado no IBM PC original.

Nos anos seguintes, a Intel desenvolveu os modelos 80186 e 80188, criados para serem usados com sistemas embarcados.  Em 1982, a capacidade de processamento chegou ao patamar de 6 e 8 MHz, com o Intel 80286. Posteriormente, as empresas AMD e Harris Corporation conseguiram romper essa barreira, chegando a 25 MHz.
Entram as CPUs de 32 bits (x86-32)

Como o nome sugere, a x86-32 é arquitetura x86 de 32 bits, utilizada até hoje em muitos computadores. Grosso modo, podemos dizer que, com exceção de processadores de 64 bits e aqueles de arquitetura ARM, todos os outros existentes ainda hoje são herdeiros das características dessa geração.
Os famosos 386 e 486.

Continua...

sexta-feira, 10 de agosto de 2012

História da Informática - Os sistemas Operacionais...

Os PCs da época vinham com quantidades muito pequenas de memória RAM e na época ainda não existia a possibilidade de usar memória virtual (que viria a ser suportada apenas a partir do 386). Para rodar o Windows, era preciso primeiro carregar o MS-DOS. Os dois juntos já consumiam praticamente toda a memória de um PC básico da época. Mesmo nos PCs mais parrudos não era possível rodar muitos aplicativos ao mesmo tempo, novamente por falta de memória.

Como os aplicativos Windows eram muito raros na época, poucos usuários viram necessidade de utilizar o Windows para rodar os mesmos aplicativos que rodavam (com muito mais memória disponível...) no MS-DOS. Sem contar que a versão inicial do Windows era bastante lenta e tinha muitos bugs.

O Windows começou a fazer algum sucesso na versão 2.1, quando os micros 286 com 1 MB ou mais de memória já eram comuns. Com uma configuração mais poderosa, mais memória RAM e mais aplicativos, finalmente começava a fazer sentido rodar o Windows. O sistema ainda tinha muitos problemas e travava com frequência, mas alguns usuários começaram a migrar para ele. O Windows 2.1 ganhou também uma versão destinada a PCs com processadores 386, com suporte à proteção de memória e o uso do modo virtual 8086 para rodar aplicativos do MS-DOS.

Por estranho que possa parecer, o Windows 3.11 era ainda um sistema de 16 bits, que funcionava mais como uma interface gráfica para o MS-DOS do que como um sistema operacional propriamente dito. Ao ligar o PC, o MS-DOS era carregado e você precisava digitar "win" no prompt para carregar o Windows. Naturalmente, era possível configurar o PC para carregar o Windows por default, adicionando o comando no arquivo autoexec.bat, mas muitos (possivelmente a maioria) preferiam chamá-lo manualmente, para ter como arrumar as coisas pelo DOS caso o Windows passasse a travar durante o carregamento.

Em agosto 1995 foi lançado o Windows 95, que marcou a transição da plataforma para os 32 bits. Além de todas as melhorias na interface e da nova API, o Windows 95 trouxe duas mudanças importantes, que eram o suporte a multitarefa preemptiva e proteção de memória.

O Windows 3.11 usava um tipo primitivo de multitarefa, batizado de multitarefa cooperativa. Nele, não é usada proteção de memória, não existe multitarefa real e todos os aplicativos possuem acesso completo a todos os recursos do sistema. A ideia é que cada aplicativo usasse o processador por um certo tempo, passasse para outro programa e esperasse novamente chegar sua vez para executar mais um punhado de operações.

Esse sistema anárquico dava margem para todo o tipo de problemas, já que os aplicativos podiam monopolizar os recursos do processador e travar completamente o sistema em caso de problemas. Outro grande problema era que sem a proteção de memória, os aplicativos podiam invadir áreas de memória ocupados por outros, causando um GPF ("General Protection Falt"), o erro geral que gerava a famosa tela azul do Windows.

A proteção de memória consiste em isolar as áreas de memória utilizadas pelos aplicativos, impedindo que eles acessem áreas de memória usadas por outros. Além da questão da estabilidade, esta é também uma função básica de segurança, já que impede que aplicativos maliciosos tenham acesso fácil aos dados manipulados pelos demais aplicativos.
Windows 95 e o OS/2

Embora fosse suportada desde o 386, a proteção de memória passou a ser suportada apenas a partir do Windows 95, que introduziu também a já comentada multitarefa preemptiva, isolando as áreas de memória ocupadas pelos aplicativos e gerenciando o uso de recursos do sistema.

O grande problema era que embora fosse um sistema de 32 bits, o Windows 95 ainda conservava muitos componentes de 16 bits e mantinha compatibilidade com os aplicativos de 16 bits do Windows 3.11. Enquanto eram usados apenas aplicativos de 32 bits, as coisas funcionavam relativamente bem, mas sempre que um aplicativo de 16 bits era executado, o sistema voltava a utilizar a multitarefa cooperativa, o que dava margem aos mesmos problemas.

Na época, o Windows enfrentava a concorrência do OS/2 da IBM, que fulgurava como uma opção de sistema mais robusto, destinado sobretudo ao público corporativo.

O OS/2 surgiu de uma parceria entre a IBM e a Microsoft para o desenvolvimento de um novo sistema operacional para a plataforma PC, capaz de suceder o MS-DOS (e também as primeiras versões do Windows, que rodavam sobre ele). Inicialmente, o OS/2 foi desenvolvido para aproveitar os recursos introduzidos pelo 286 (novas instruções, suporte a 16 MB de memória, etc.) mas ele foi logo reescrito como um sistema operacional de 32 bits, capaz de aproveitar todos os recursos do 386 em diante.

Entretanto, o sucesso do Windows 3.x fez com que a Microsoft mudasse de ideia, passando a enxergar o Windows (e não o OS/2) como o futuro da plataforma PC. As tensões foram aumentando, até que em 1991 a parceria foi rompida, o que levou a Microsoft e a IBM a se tornarem concorrentes. A IBM continuou investindo no desenvolvimento do OS/2, enquanto a Microsoft usou o código desenvolvido para iniciar o desenvolvimento do Windows NT, que passou a desenvolver paralelamente ao Windows 95.

OS/2 Warp 3

Embora o OS/2 fosse tecnicamente muito superior ao Windows 95, foi a Microsoft quem acabou levando a melhor, pois o Windows 95 era mais fácil de usar e contava com a familiaridade dos usuários com o Windows 3.11, enquanto a IBM derrapava numa combinação de falta de investimento, falta de apoio aos desenvolvedores e falta de marketing.

Graças aos termos do acordo anterior, a IBM foi capaz de incluir suporte aos aplicativos Windows no OS/2. Entretanto, o tiro acabou saindo pela culatra, pois desestimulou ainda mais o desenvolvimento de aplicativos nativos para o OS/2, fazendo com que ele acabasse concorrendo com o Windows em seu próprio território. Rodar aplicativos do Windows dentro do OS/2 era mais problemático e o desempenho era inferior, fazendo com que mais e mais usuários preferissem usar o Windows diretamente.

Embora esteja oficialmente morto, o OS/2 ainda é utilizado por algumas empresas e alguns grupos de entusiastas. Em 2005 a Serenity comprou os direitos sobre o sistema, dando origem ao eComStation, um sistema comercial disponível no http://www.ecomstation.com/.

De volta à história do Windows, com o lançamento do NT a Microsoft passou a manter duas árvores de desenvolvimento separadas, uma dela com o Windows 95, destinada ao mercado de consumo e a outra com o Windows NT, destinado ao público corporativo.

A árvore do Windows 95 deu origem ao Windows 98, 98 SE e ME, que apesar dos avanços em relação à API e aos aplicativos, conservaram os problemas fundamentais do Windows 95 em relação à estabilidade. Outro grande problema é que estas versões do Windows foram desenvolvidas sem um modelo de segurança, em uma época em que os arquivos eram trocados através de disquetes e as máquinas eram acessadas apenas localmente. Isso permitiu que o sistema fosse fácil de usar e rodasse com um bom desempenho nas máquinas da época, mas começou a se tornar um pesado fardo conforme o acesso à web se popularizava e o sistema passava a ser alvo de todo tipo de ataques.

A árvore do Windows NT, por outro lado, teve muito mais sucesso em criar um sistema operacional moderno, bem mais estável e com uma fundação bem mais sólida do ponto de vista da segurança. O Windows NT 4 deu origem ao Windows 2000, que por sua vez foi usado como fundação para o Windows XP e o Windows 2003 Server, dando início à linhagem atual, com o Vista (que devido a uma combinação de fatores acabou compartilhando da má fama do Windows ME), o Windows 7 e o Windows 2008 Server.

A Apple, por sua vez, passou por duas grandes revoluções. A primeira foi a migração do MacOS antigo para o OS X, que por baixo da interface polida, é um sistema Unix, derivado do BSD. A segunda aconteceu em 2005, quando a Apple anunciou a migração de toda a sua linha de desktops e notebooks para processadores Intel, o que permitiu que se beneficiassem da redução de custo nos processadores e outros componentes para micros PCs, mas ao mesmo tempo conservassem o principal diferencial da plataforma, que é o software.

Do ponto de vista do hardware, os Macs atuais não são muito diferentes dos PCs: você pode inclusive rodar Windows e Linux através do Boot Camp. Entretanto, só os Macs são capazes de rodar o Mac OS X, devido ao uso do EFI (que substitui o BIOS como sistema de bootstrap) e ao uso de um chip TPM.

terça-feira, 7 de agosto de 2012

Introdução a Informatica - Parte 2 - Internet

Desenvolvimento da Internet

Foi somente no ano de 1990 que a Internet começou a alcançar a população em geral. Neste ano, o engenheiro inglês Tim Bernes-Lee desenvolveu a World Wide Web, possibilitando a utilização de uma interface gráfica e a criação de sites mais dinâmicos e visualmente interessantes. A partir deste momento, a Internet cresceu em ritmo acelerado. Muitos dizem, que foi a maior criação tecnológica, depois da televisão na década de 1950.

A década de 1990 tornou-se a era de expansão da Internet. Para facilitar a navegação pela Internet, surgiram vários navegadores (browsers) como, por exemplo, o Internet Explorer da Microsoft e o Netscape Navigator.O surgimento acelerado de provedores de acesso e portais de serviços on line contribuíram para este crescimento. A Internet passou a ser utilizada por vários segmentos sociais. Os estudantes passaram a buscas informações para pesquisas escolares, enquanto jovens utilizavam para a pura diversão em sites de games. As salas de chat tornaram-se pontos de encontro para um bate-papo virtual a qualquer momento. Desempregados iniciaram a busca de empregos através de sites de agências de empregos ou enviando currículos por e-mail. As empresas descobriram na Internet um excelente caminho para melhorar seus lucros e as vendas on line dispararam, transformando a Internet em verdadeiros shopping centers virtuais.

Nos dias atuais, é impossível pensar no mundo sem a Internet. Ela tomou parte dos lares de pessoas do mundo todo. Estar conectado a rede mundial passou a ser uma necessidade de extrema importância. A Internet também está presente nas escolas, faculdades, empresas e diversos locais, possibilitando acesso as informações e notícias do mundo em apenas um click.

A febre das redes sociais

A partir de 2006, começou uma nova era na Internet com o avanço das redes sociais. Pioneiro, o Orkut ganhou a preferência dos brasileiros. Nos anos seguintes surgiram outras redes sociais como, por exemplo, o Facebook e o Twitter.

Os sites de compras coletivas

A partir de 2010, um novo serviço virou febre no mundo da Internet. Conhecidos como sites de compras coletivas, eles fazem a intermediação entre consumidores e empresas. Estes sites conseguem negociar descontos para a venda de grande quantidade de produtos e serviços. Os consumidores compram cupons com 50% de desconto ou até mais. Os sites que mais se destacam neste segmento são: Peixe Urbano e Groupon.

Voce sabia?

- Os browsers (navegadores de Internet) mais usados na atualidade são:

- Internet Explorer
- Firefox
- Google Chrome

quarta-feira, 1 de agosto de 2012

Introdução e História - Parte 1

Visto que a informática é uma das áreas que mais importância ganhou na sociedade moderna, no nosso dia a dia, é relevante ser traçado o seu percurso histórico, visto que é relevante muitas vezes até mesmo para trabalhos realizados por estudantes, ao longo do seu percurso académico. As Tecnologias de Informação e Comunicação (TIC) são a base de qualquer empresa/negócio ou até mesmo do saber base social de cada um de nós, enquanto membros ativos da sociedade.

O primeiro computador, o ENIAC (Eletronic Numeric Integrator And Calculator) anunciado a 1946, era uma máquina gigantesca que ocupava um espaço tremendo de 62 metros quadrados, pesando cerca de 27 toneladas, constituído por motores e válvulas, sendo utilizado para realizar os cálculos matemáticos a serem utilizados no funcionamento da bomba de hidrogénio.
Dez anos depois surge no Instituto de Tecnologia de Massachusetts (MIT), o primeiro computador que utilizava agora, transístores como ferramenta na manipulação da informação computada.

Cronologia da Informática

Em 1963 é patenteado o rato e no ano seguinte, um pesquisador norte-americano projetou e criou a primeira rede de computadores interligada por fios.

Cinco anos depois a IBM desenvolveu o Ramac 305, utilizando discos de memória de 5 megabits.

Em 1975 foi desenvolvida a linguagem Basic, a primeira linguagem para microcomputadores. Ainda no mesmo ano, Bill Gates e Paul Allen fundaram a Microsoft. No ano seguinte, Steve Wozniak e Steve Jobs criam a Apple Computer Company.

Em 1981 a IBM lançou o PC 5150. A partir dai estava lançada a “guerra” entre as empresas e foi sempre uma disputa a ver quem fazia melhores descobertas a nível de informática.

Em 1985 a Microsoft lançou o Windows e o Word 1.0.

Em 1989 Tim Berners-Lee criou a World Wide Web que originou a Internet. Em 1991 é lançado o sistema operacional Linux.
Foi a redução de tamanho e o aumento na velocidade e capacidade de processamento, a maior prova da evolução extremamente rápida das capacidades tecnológicas e científicas da Humanidade, uma vez que este “salto“, desde o ENIAC ao primeiro PC, deu-se apenas, em 30 anos.

O Windows 95, foi visto quase como que o primeiro sistema operativo que era intuitivo e de fácil utilização, pelo grande público. Até então, o computador não era algo que fosse propriamente para o orçamento e/ou entendimento das massas. Este tipo de sistema operativo veio a preencher a lacuna entre o consumidor em geral e o mundo das novas tecnologias, contribuindo para que o PC (Personal Computer) se tornasse apenas mais um eletrodoméstico, cada vez mais pequeno e avançado.

Atualmente, o PC é como que um ser de rápida evolução, isto é visível na sua portabilidade/ tamanho e na complexidade de operações que consegue executar, tanto a nível de arquitetura de hardware (parte física do computador), como processadores mais velozes, maior capacidade de RAM, a arquitetura do Serial BUS e métodos de arrefecimento mais eficientes e avançados, como a Hidro-refrigeração, que consiste na utilização de água como método de arrefecimento.

Em termos de software, é de notar e referenciar uma também rápida evolução,no que diz respeito às operações que hoje nos é possível realizar no PC de nossa casa, desde estudos astronómicos, a criação de elementos gráficos e composição de vídeo e até mesmo, o desfrutar de experiências lúdicas, nomeadamente, jogos de computador, que conseguem criar realidades alternativas de alto detalhe, sendo algo que já todos tomámos quase como um bem essencial ou apenas mais um acessório em nossas casas ou escritórios.
Com esta evolução, surgiu também toda uma nova forma de linguagem cibernauta que tem transparecido para o nosso quotidiano. Uma linguagem composta por abreviaturas, terminologias e estrangeirismos, na sua maioria ‘emprestados’ da Língua Inglesa. Isto deveu-se, principalmente, à abertura das vias de comunicação internacionais, que só foram possíveis, com o uso da Internet como um meio de uso comunicacional diário.


Enquanto utilizador de um computador pessoal e da Internet, já me vi sujeito a muitos prós e contras da Web, como a via de comunicação que é. Esta, foi criada inicialmente como um projeto governamental nos Estados Unidos da América, para servir propósitos militares, tornou-se rapidamente um fenómeno mundial, que inicialmente servia para tornar possível a transferência de dados entre países e continentes de forma rápida e sem custos. No entanto, agora tornou-se também uma nova forma de realizar a divulgação e marketing de novos produtos, bem como a venda dos mesmos, o que deu origem ao e-commerce, o que efetivamente, torna o nosso quotidiano muito mais facilitado, possibilitando a compra de bilhetes para eventos socioculturais por via eletrónica, entre outros.
Estas novas possibilidades, que surgiram com a Internet, trouxeram, consequentemente, perigos para as crianças e adolescentes a nível mundial, nomeadamente, os perigos associados às redes sociais e chats, como regularmente são mostrados pela comunicação social, relativamente a raptos e casos de pedofilia, facilitados pelo acesso à Internet, dessas mesmas crianças e adolescentes.

De referir, por fim, os perigos que surgiram com o aparecimento do movimento Hacker no final dos anos 80 e teve o seu pico nos anos 90, vindo a colocar em jogo, questões como a liberdade e privacidade, do cada vez mais crescente número de internautas, devido à aparente facilidade com que se podia aceder, de forma ilegal, a informação restrita e confidencial dos mesmos, muitas vezes recorrendo à publicidade enganosa, como forma de lançar os seus spam’s, bots e trojans (vírus informáticos), para recolher informações relativas aos utilizadores infetados.

A Internet veio mandar abaixo as fronteiras físicas entre os diversos países, Línguas, culturas e comunidades. Considero que esta, tal como muitas outras evoluções que se deram na História Humana, traz consigo as vantagens acima referidas, mas também desvantagens, na medida em que a referida nova linguagem cibernauta, facilmente entra em choque com a linguagem e formas de comunicação a utilizar no nosso dia a dia, criando por vezes, barreiras na forma de expressão escrita e oral de algumas pessoas. Ao ouvirmos expressões como, Blog, Chat, MSN, Facebook e E-mail, apercebemo-nos automaticamente que há que alterar todo um método de pensamento pois existe um outro mundo (mundo digital) a fundir-se, constantemente com o nosso, e que a realidade que se vivia há uns anos atrás ficou para trás.