quarta-feira, 2 de abril de 2014

5ª Geração

5ª Geração - Computador Pessoal (1980 - atualmente)

A partir dos anos 80 os CIs (circuitos integrados) foram ficando cada vez menores e mais complexos chegando a bilhões de componentes em uma unica pastilha de silício, possibilitando a criação de computadores menores, com maior desempenho maior capacidade de armazenamento e maior capacidade de processamento. O marco nesta evolução dos computadores como o conhecemos hoje, é dada também a invenção dos sistemas operacionais, Unix Vs 7(1983), MAC OS(1984), Windows(1985), Linux(1991), conferindo maior flexibilidade na sua utilização.

Por conta disso tudo, os computadores começaram a se tornar mais baratos, mais "amigáveis" e mais "úteis" às pessoas comuns. Por isso, sobretudo a partir da década de 80, os computadores começaram a se popularizar, e hoje são realidade para milhões de pessoas no mundo inteiro.

Também iniciou-se por parte dos governos principalmente dos EUA e Japão, um esforço gigantesco e altos investimentos em projetos de super-computadores. Computadores com características computacionais de alta performasse e inteligencia artificial.

IBM Personal Computer modelo 5150
O 5150 é comumente apontado como o primeiro PC da história, mas não foi bem assim - em 1977 a Apple já tinha lançado o Apple II, por exemplo. Mas o aparelho da IBM teve uma importância muito maior para o mercado do que os outros computadores disponíveis naquela época.

O 5150 foi o primeiro computador desenvolvido com peças de diversas empresas, e não somente da IBM. Isso possibilitou que a pesquisa e produção dos componentes internos fossem de responsabilidade de outras companhias, o que ajudou a expandir a indústria e criou um novo modelo de fabricação dos computadores, usado até hoje.

Além disso, o 5150 acompanhava um sistema operacional desenvolvido por uma pequena empresa pouco conhecida na época. O PC-DOS foi criado em parceria com a Microsoft, e foi o começo do domínio da empresa nos sistemas, consolidado anos depois com a chegada do Windows.

IBM Personal Computer modelo 5150

Apple Lisa
Considerado revolucionário para a época, a Apple lançava no ano de 1983, o computador Lisa. O equipamento custava exorbitantes US$ 9.995, usava um microprocessador Motorola 68000 a 5 MHz, tinha 1 MB de RAM, memória virtual, um disco rígido externo de 5 MB e dois leitores de disquetes 5,25" de 871 KB. Por conta de seu preço e da sua configuração, considerada uma "extravagância" para a época, o computador foi um fracasso comercial. Contudo, por ironia do destino, colecionadores, atualmente, estão dispostos a pagar milhares de euros por esta relíquia.

O nome do computador foi uma homenagem à filha de Steve Jobs, fato que ele só admitiu décadas depois, ao seu biógrafo. Na época, foi inventado o acrônimo Local Integrated Software Architecture para justificar o nome.

Apple Lisa

A Expansão da Internet
Foi somente no ano de 1990 que a Internet começou a alcançar a população em geral. Neste ano, o engenheiro inglês Tim Bernes-Lee desenvolveu a World Wide Web, possibilitando a utilização de uma interface gráfica e a criação de sites mais dinâmicos e visualmente interessantes. A partir deste momento, a Internet cresceu em ritmo acelerado. Muitos dizem, que foi a maior criação tecnológica, depois da televisão na década de 1950.

A década de 1990 tornou-se a era de expansão da Internet. Para facilitar a navegação pela Internet, surgiram vários navegadores (browsers) como, por exemplo, o Internet Explorer da Microsoft e o Netscape Navigator. O surgimento acelerado de provedores de acesso e portais de serviços online contribuíram para este crescimento. A Internet passou a ser utilizada por vários segmentos sociais. Os estudantes passaram a buscas informações para pesquisas escolares, enquanto jovens utilizavam para a pura diversão em sites de games. As salas de chat tornaram-se pontos de encontro para um bate-papo virtual a qualquer momento. Desempregados iniciaram a busca de empregos através de sites de agências de empregos ou enviando currículos por e-mail. As empresas descobriram na Internet um excelente caminho para melhorar seus lucros e as vendas on line dispararam, transformando a Internet em verdadeiros shopping centers virtuais.

Nos dias atuais, é impossível pensar no mundo sem a Internet. Ela tomou parte dos lares de pessoas do mundo todo. Estar conectado a rede mundial passou a ser uma necessidade de extrema importância. A Internet também está presente nas escolas, faculdades, empresas e diversos locais, possibilitando acesso as informações e notícias do mundo em apenas um click.

Inteligência Artificial
Inteligência Artificial (IA) é um ramo da ciência da computação que se propõe a elaborar dispositivos que simulem a capacidade humana de raciocinar, perceber, tomar decisões e resolver problemas, enfim, a capacidade de ser inteligente.

Existente há décadas, esta área da ciência é grandemente impulsionada com o rápido desenvolvimento da informática e da computação, permitindo que novos elementos sejam rapidamente agregados à IA.

História
Iniciada dos anos 1940, a pesquisa em torno desta incipiente ciência eram desenvolvidas apenas para procurar encontrar novas funcionalidades para o computador, ainda em projeto. Com o advento da Segunda Guerra Mundial, surgiu também a necessidade de desenvolver a tecnologia para impulsionar a indústria bélica.

Com o passar do tempo, surgem várias linhas de estudo da IA, uma delas é a biológica, que estuda o desenvolvimento de conceitos que pretendiam imitar as redes neurais humanas. Na verdade, é nos anos 60 em que esta ciência recebe a alcunha de Inteligência Artificial e os pesquisadores da linha biológica acreditavam ser possível máquinas realizarem tarefas humanas complexas, como raciocinar.

Inteligência Artificial depois de um período negro, os estudos sobre redes neurais volta à tona nos anos 1980, mas é nos anos de 1990 que ela tem um grande impulso, consolidando-a verdadeiramente como a base dos estudos da IA.

Robô e Humano

IA na vida real
Hoje em dia, são várias as aplicações na vida real da Inteligência Artificial: jogos, programas de computador, aplicativos de segurança para sistemas informacionais, robótica (robôs auxiliares), dispositivos para reconhecimentos de escrita a mão e reconhecimento de voz, programas de diagnósticos médicos e muito mais.

Como pode ser notado, a Inteligência Artificial é um tema complexo e bastante controverso. São diversos os pontos a favor e contra e cada lado tem razão em suas afirmações. Cabe a nós esperar que, independente dos rumos que os estudos sobre IA tomem, eles sejam guiados pela ética e pelo bom senso.

4ª Geração

4ª Geração: Microprocessador (1971-1980)

A quarta geração da informática (1971-1980) é marcada pelos primeiros microprocessadores, pelo surgimentos de novas linguagens de programação e no modo de armazenamento através de disquetes.

Microprocessador
Os microprocessadores são os componentes responsáveis pela execução das instruções em um sistema eletrônico em geral (em particular, estamos discutindo aqui os microprocessadores que estão nos computadores. São justamente os microprocessadores, escolhidos entre os disponíveis no mercado, determinam a capacidade de processamento do computador e também o conjunto primário de instruções que ele compreende. O sistema operacional (no nosso caso, o sistema operacional mais comumente encontrado é o Windows, em suas várias versões – Windows 98, Windows 2000, Windows XP, Windows Vista) é construído sobre este conjunto de instruções disponíveis. Em outras palavras, é o Sistema Operacional que permite que enviemos comandos para a CPU do computador realizar. Vale lembrar que, embora o microprocessador seja o cérebro do computador, é preciso mais do que ele para interagir com o usuário.

O primeiro microprocessador foi o Intel 4004, lançado em 1971. O i4004 não era muito poderoso, já que ele só podia somar e subtrair 4 bits por vez. Mesmo assim, era incrível ver tudo isso em um único chip naquela época. Antes do 4004, os engenheiros construíram computadores com vários chips (transistores ligados um a um). O 4004 foi utilizado em uma das primeiras calculadoras eletrônicas portáteis.

Intel 4004

O primeiro microprocessador utilizado em um computador pessoal foi o Intel 8080. Ele era um computador de 8 bits completo dentro de um chip e foi lançado em 1974; mas o primeiro microprocessador que se tornou realmente popular foi o Intel 8088, lançado em 1979 e incorporado a um PC IBM - que apareceu em 1982. Se você está familiarizado com a história e o mercado de PCs, vai se lembrar da evolução dos processadores. O 8088 evoluiu para o 80286, depois para o 80386, 80486, Pentium, Pentium II, Pentium III e Pentium 4, Celeron, Xeon, Itanium, Core, Core Duo, Quad... Todos estes microprocessadores foram produzidos pela Intel e são melhorias do design básico do 8088. Isso falando só de Intel. Seu principal concorrente, a AMD, evoluiu paralelamente, com o 286A, o 386, 486, 586, K5, K6-3, Athlon, Duron, Sempron, Athlon MX, AMD64, Phenom e Turion.

A tabela a seguir vai ajudar você a entender a diferença entre os processadores que a Intel lançou no últimos anos


Nome

Data

Transistores

Mícrons

Velocidade do clock

Largura de dados
MIPS
8080
1974
6.000
6
2 MHz
8 bits
0,64
8088
1979
29.000
3
5 MHz
16 bits
8 bits
0,33
80286
1982
134.000
1,5
6 MHz
16 bits
1
80386
1985
275.000
1,5
16 MHz
32 bits
5
80486
1989
1.200.000
1
25 MHz
32 bits
20
Pentium
1993
3.100.000
0,8
60 MHz
32 bits
64 bits
100
Pentium II
1997
7.500.000
0,35
233 MHz
32 bits
64 bits
300
Pentium III
1999
9.500.000
0,25
450 MHz
32 bits
64 bits
510
Pentium 4
2000
42.000.000
0,18
1,5 GHz
32 bits
64 bits
1,700
Pentium 4 "Prescott"
2004
125.000.000
0,09
3,6 GHz
32 bits
64 bits
7,000
Pentium D
2005
230.000.000
90nm
2,8 GHz
3,2 GHz
32 bits

Core2
2006
152.000.000
65nm
1,33
2,33 GHz
32 bits
26,000
Core 2 Duo
2007
820.000.000
45nm
3 GHz
64 bits
53,000
Core i7
2008
731.000.000
45nm
2,66 GHz
3,2 GHz
64 bits
76,000


Disquete
O drive de disquete, ou drive de disco flexível, foi inventado na IBM por Alan Shugart, na década de 70. Os extintos disquetes, criados nos anos 70, em suas primeiras versões mediam 8 polegadas e disponibilizavam apenas 80Kb de espaço para armazenamento; pouco depois surgiu o modelo de 5,25 polegadas. Em meados dos anos 90, popularizou-se a versão mais compacta, com 3,5 polegadas e uma “impressionante” capacidade para armazenar até 1,44 Mb.


3ª Geração

3ª Geração: Circuito Integrado (1964-1971)


A terceira geração inicia-se com a introdução do circuitos integrados (transistores, resistores, diodos e outras variações de componentes eletrônicos miniaturizados e montados sobre um único chip) aos computadores. Após o surgimento desses circuitos, no final da década de 50, eles foram aprimorando-se até chegar ao estágio de adaptação aos computadores. Os custo de produção de um computador começavam a cair, atingindo uma faixa de mercado que abrangia empresas de médio porte, centros de pesquisa e universidades menores. 

Esteve presente na terceira geração outros fatores como  expansão da capacidade de memória, a criação do Unix e do IBM/360, os avanços nos periféricos de entrada e de saída do computador (teclado, terminal de vídeo, disco magnético), a multiprogramação, entres outros.


Circuitos Integrados
Jack Kilby desenvolve no laboratório da Texas Instruments, Inc., um pequeno dispositivo de cristal denominado CI (Circuito Integrado) que reunia componentes como transistores, resistores e capacitores. Os CIs, muito menores que os transistores se mostraram muito eficientes, mais baratos, com baixo consumo de energia, processamento mais rápidos e dissipavam menos calor, uma larga vantagem sobre os componeres discretos, por tal feito Kilby recebeu no ano de 2000 o premio Nobel de Física.

Com o surgimento dos CIs inicia-se uma nova tendência na organização dos computadores, placas de circuitos passaram a ser desenhadas para receber tais componentes também conhecidos como chips, possibilitando uma redução drástica nas dimensões e peso dos equipamentos e aumentando a sua capacidade de processamento.


CI de um processador atual



Primeiro CI desenvolvido por Jack Kilby no Laboratorio da Texas instrument, Inc.


IBM/360
Em 1964, a IBM lança o IBM/360, cuja série marcou uma nova tendência na construção de computadores com o uso de CI (circuito integrado), ou pastilhas, que ficaram conhecidas como Chips. Esses chips incorporavam, numa única peça de dimensões reduzidas, várias dezenas de transistores já interligados, formando circuitos eletrônicos complexos. 

Tinha uma capacidade memória base de 32K bytes. A memória era construída com toros de ferrite (óxido de ferro). É o primeiro computador IBM que podia ser comandado a partir da digitação de caracteres numa máquina de escrever (Selectric typewriter console), visível na fotografia. A grande inovação em periféricos era a possibilidade de se lhe conectarem unidades de disco magnético.

IBM/360


UNIX
A década de 1960 não foi marcante apenas por lutas populares que sacudiram o mundo, mas também para o mundo dos computadores, mais especificamente dos sistemas operacionais (SO). É nos anos 60 que surge o embrião do Unix, o pai de praticamente todos os SOs existentes hoje em dia.

Unix é um sistema operacional criado por Kenneth Thompson após um projeto de sistema operacional não ter dado certo. O Unix foi o primeiro sistema a introduzir conceitos muito importantes para SOs como suporte a multiusuários, multitarefas e portabilidade.

Além disso, o Unix suporta tanto alterações por linhas de comando, que dão mais flexibilidade e precisão ao usuário, quanto definições via interface gráfica, uma opção normalmente mais prática e menos trabalhosa do que a anterior.

Sua história remonta aos anos de 1960, quando Thompson, Dennis Ritchie e outros desenvolvedores se juntaram para desenvolver o sistema operacional Multics nos Laboratórios Bell da AT&T. A ideia era criar um sistema capaz de comportar centenas de usuários, mas diferenças entre os grandes grupos envolvidos na pesquisa (AT&T, General Eletronic e Instituto de Tecnologia de Massachusetts) levaram o Multics ao fracasso. Contudo, em 1969, Thompson começou a reescrever o sistema com pretensões não tão grandes, e aí surge o Unics.

O passo seguinte foi um retoque no nome e ele passa a se chamar Unix. Em 1973, com ajuda de Dennis Ritchie, a linguagem empregada no sistema passa a ser a C, algo apontado como um dos principais fatores de sucesso do sistema. Atualmente, uma série de SOs são baseados no Unix, entre eles, nomes consagrados como Gnu/Linux, Mac OS X, Solaris e BSD.

2ª Geração

2ª Geração: Substituição da válvula pelo transistor (1952 - 1964)


                                          

Em 1953 surgiu um novo componente que apresentava inúmeras vantagens em relação às antigas válvulas: ele tinha características como menor aquecimento, maior poder de cálculo e confiabilidade e um consumo de energia bem menor – com o adicional de que não necessitava de tempo para aquecer. A Bell Laboratories inventava o transistor. Os cálculos passaram a ser medidos de segundos para microssegundos. 

Esta segunda geração não é marcada tão somente pelo uso dos transistor como seu principal componente, mas também pelo aumento da complexidade e o uso de linguagens de programação (As linguagens utilizadas para esses computadores eram normalmente a FORTRAN, COBOL ou ALGOL) e softwares de sistema, além do surgimento dos primeiros sistemas operacionais,  os dispositivos de E/S (entrada/saída): cartões perfurados e fitas magnéticas aplicadas principalmente nos campos científico, militar, administrativo e gerencial


Transistor
Devido aos problemas que as válvulas causavam, por causa do seu tamanho, consumo elevado de energia, elas foram substituídas por transistores, se tornou o responsável pela amplificação de sinal, além de servir como um controlador que interrompe ou libera a passagem de corrente elétrica.

Todo transistor possui três terminais, que são as “perninhas”. Um dos terminais recebe a tensão elétrica e o outro envia o sinal amplificado. O terminal do meio é o responsável pelo controle desse processo, pois a corrente elétrica entra e sai pelos outros dois terminais somente quando é aplicada tensão elétrica ao terminal do meio.

Portanto, quando é aplicada uma tensão ao terminal do meio em um transistor, ele permite que a corrente elétrica circule pelos outros dois terminais. A quantidade de tensão aplicada ao terminal do meio (ou terminal de controle) determinará qual será a intensidade da corrente que sairá pelo terminal de saída.

Quando os inventores perceberam que poderiam utilizar os transistores em cascata, ou seja, uns controlando outros, estava dado o início aos primórdios da computação moderna. Começou então a revolução que, na década de 1960, fez com que os computadores começassem a ter seu tamanho reduzido, possibilitando que diversos cientistas tivessem ideias de como isso poderia ser usado para levar os computadores às casas das pessoas.

Os maiores beneficiados com a invenção dos transistores foram os processadores, que hoje contam com bilhões de transistores ligados entre si, formando circuitos capazes de fazer cálculos simples ou extremamente complexos, como a posição do mouse na tela até o volume de partículas de fumaça em um jogo.

As Primeiras Linguagens de Programação:



Assembly
Criada na década de 50, o Assembly foi uma das primeiras linguagens de programação a aparecer. Ela usa uma sintaxe complicada e "exageradamente" difícil, isto porque, antes da década de 50 os programadores de máquinas tinham que escrever instruções em código binário, qualquer coisa como: 11010110011010111010110101... Para escrever uma instrução. Na verdade, o Assembly foi criado para facilitar o uso dessa tarefa, mas é considerado uma linguagem de baixo nível, pois tudo o que o processador interpreta tem que ser descrito pelo programador. Assim o código acima seria "add EAX" em Assembly. Bastava apenas, depois de estar concluída a escrita do código, rodar o compilador e tínhamos o programa.


Vantagens: programas extremamente rápidos e pequenos.
Desvantagens: tempo de desenvolvimento lento e sujeito a erros; código preso a uma arquitetura


Fortran
Esta linguagem Fortran (Formula Translator) é uma linguagem de Alto nível, que foi criada partindo do problema e da dificuldade apresentadas pelo Assembly. Apareceu também na década de 50 e foi considerada uma das melhores linguagens da época. Aqui temos várias funções e instruções pré-definidas que nos permite poupar tempo na datilografia de instruções base do processador, ao contrário da linguagem Assembly.

Cobol
Foi uma linguagem usada para a criação e estruturação de bancos de dados financeiros nos anos 60 que ainda hoje é usada por este tipo de serviços. Comparada com  a  Assembly, esta linguagem é bem amigável e bastante acessível e atualmente serve para várias tarefas.

Principais Computadores:

UNIVAC (1952)
John Mauchly e Presper Eckert abrem sua própria empresa na Filadéfia a Remington Rand e criaram o UNIVAC (Universal Automatic Computer), um computador destinado ao uso comercial. Era uma máquina eletrônica de programa armazenado que recebia instruções de uma fita magnética de alta velocidade ao invés dos cartões perfurados. O UNIVAC foi utilizado para prever os resultados da eleição presidencial que ocorreria na quele ano.





IBM 650 (1953)
A IBM anuncia o IBM 650, o primeiro computador a ser produzido em massa. Até o ano de 1962  foram produzidos 2000 unidades e o suporte a ele foi encerrado em 1969.
 




TRADIC (1955)
Em 1955, JH Felker da Bell Laboratories lança o primeiro computador totalmente transistorizado para a Força Aérea Americana, o TRADIC (TRAnsistor DIgital Computer), este possuía cerca de 800 transistores, o que permitia trabalhar com menos de 100 watts de consumo de energia