Computação: de gigantes a minúsculos

06:32 4 Comments

Há mais de 7 mil anos surge a computação. Não, a informação não esta errada. Ao contrário do que muitos pensam a computação não surgiu nas ultimas décadas. Ela vem evoluindo ao longo dos séculos, embora tenha acelerado a partir da década de 70, com o advento dos microprocessadores e computadores pessoais, essa historia surgiu mesmo com os povos mesopotâmicos e um instrumento chamado: Ábaco.




Ábaco         
                       
Ábaco- imagem do google

Com o advento da agricultura e do comércio das pequenas comunidades, por volta de 2400 a.c., surgiu no homem a necessidade de somar e subtrair uma quantidade maior de números,  por isso instrumentos de extensão de suas capacidades matemáticas e lógicas fizeram-se necessárias. O primeiro deles, o Ábaco, consiste em pedrinhas em varetas paralelas, bastante útil na soma e subtração. O Ábaco ainda é muito visto em escolas e usado para introduzir crianças no ensino da matemática.
Muito após do aparecimento do Ábaco, no século XVI, Jonh Napier descobriu os logaritmos e inventou os ossos de Napier, que eram tabelas de multiplicação gravadas em bastão, mas a primeira maquina para calculo mesmo foi idealizada por Bleise Pascal e mais tarde melhorada por  Gottfried Wilhelm, que adicionou a multiplicação e divisão. Em 1820, Thomas de Colmar resolveu os erros dos inventos anteriores e apresentou a  Arithmomet, sendo enfim a primeira calculadora comercializada com sucesso.


Cartões perfurados
Observando a repetição que faziam as pessoas ao desenhar tecidos para o corte em uma indústria da época, 1801, o costureiro Joseph Marie Jacquard desenvolveu o Tear programável, que usava cartões perfurados com o desenho desejado fazendo com que a máquina aplicasse no tecido. Essa lógica foi usada por Charles Babbage para desenvolver uma maquina de calcular.
Considerado o avô da computação, Babbage desenvolveu a máquina analítica, engenho que possuía características do computador moderno, mas nunca saiu do papel. O grande diferencial era a capacidade de ser programável. A parte dos programas ficou com a primeira programadora da historia, Ada Lovelace, ela escreveu séries de instruções para o cálculo analítico e criou os conceitos de loop e do salto condicional.

Charles Babbage- imagem do Google


O conceito de cartões perfurados foi utilizado também por Hermann Hollerith. Em 1880, um senso demorava 7 anos para ficar pronto, Hollerith reduziu para 2 anos e meio utilizando a lógica de cartões perfurados. Nas máquinas as informações sobre os indivíduos eram armazenadas por meio de perfurações em locais específicos do cartão. A idéia deu tão certo que ele abriu sua própria empresa para produzir as máquinas. Anos depois, em 1924, essa companhia veio a se chamar International Business Machines, ou IBM, como é hoje conhecida.


Os primeiros computadores

Imagem do google

Na primeira metade do século XX, começaram a aparecer as primeiras máquinas que usavam componentes eletrônicos e usavam a arquitetura binária de Boole. A exemplo temos o Mark 1 e o Colossus.
A segunda guerra mundial foi decisiva para incentivar o desenvolvimento de computadores, graças ao grande poder que tinham de descriptografar códigos inimigos e modernizar as armas. Com o interesse americano foi desenvolvido o ENIAC, primeiro a usar a arquitetura de Von Neumann que consistia em fazer da maquina um “cérebro eletrônico”, ou seja, gravar informações em uma memória. Em seguida surgiu à figura de Alan Turing, pai do computador moderno, responsável por formalizar o conceito de algoritmo e computação com a máquina de Turing.
O conceito de Ciência da Computação se fez presente depois que o computador já era uma realidade que só evoluía.  Embora até 1970, ainda reinasse os mainframes, grandes maquinas em salas refrigeradas e privilegio de poucas instituições.

O Ápice


Imagem do google

Mas a partir da década de 70, começaram a aparecer as primeiras idéias de computadores pessoais. Diminuíram o tamanho das maquinas e os preços, o processamento ficou mais rápido e eficiente alocados em microprocessadores. Os processos passaram a ganhar importância, tornando o software tão importante quanto o hardware.
Foi nessa época que apareceu Steve Jobs e Steve Wozniak, fundaram a Apple e colocaram no mercado o Apple I, primeiro computador pessoal.


Nesses últimos 40 anos a capacidade de computação manual aumentou 8 mil vezes. Fala-se em quinta geração, que foi posta em marcha pelos japoneses e se caracteriza pelo desenvolvimento de computadores inteligentes, com sistemas lógicos de simulação de processos que tem lugar no intelecto humano.  



Referências:


[3] http://www.ime.usp.br/~is/infousp/imre/imre.htm

Unknown

Some say he’s half man half fish, others say he’s more of a seventy/thirty split. Either way he’s a fishy bastard. Google

4 comentários:

  1. Muito bom ter falado sobre a evolução dos computadores mostrando até as "máquinas" mais primitivas. Ajuda a desmistificar um pouco a ideia de que a ciência é feita por gênios que tem insights e, de uma hora pra outra, descobrem ou inventam coisas incríveis.. Como o texto destaca, Turing não foi o único responsável por trazer o que hoje conhecemos como computadores, muito menos Jobs (que nem programar sabia pfff), mas sim várias pessoas que criaram novos conceitos e incrementaram o trabalho de seus antecessores.

    ResponderExcluir
    Respostas
    1. Isso, todo o trabalho de desenvolvimento computacional tem um crescimento linear, composto de vários nomes desconhecidos. Realmente alguns levam mais créditos que outros, na minha teoria se trata da visão empreendedora de ver algo promissor e apostar seu nome nisso.

      Excluir
  2. Graças aos esforços dos matemáticos, físicos, engenheiros, programadores e uma porrada de profissões é que a computação conseguiu chegar ao ápice tecnológico.

    ResponderExcluir
  3. Bet At Home Casino no deposit bonus 카지노사이트 카지노사이트 クイーンカジノ クイーンカジノ 9555Turning Stone Golf Package - Vie Casino

    ResponderExcluir