Logo
Informatyka
 Current page : Początek      Historia komputera


HISTORIA KOMPUTERA



Historia komputera jest nierozerwalnie związana z pojęciem "informatyka" (informatyka jest nauką o pobieraniu, przechowywaniu, przesyłaniu i przetwarzaniu informacji przy użyciu automatycznych środków pomocniczych, którymi są zazwyczaj komputery). Jeden z działów tej nauki zajmuje się komputerami.

Najważniejsze fakty:
Widoczny rozwój informatyki nastąpił w ciągu ostatnich kilkudziesięciu powojennych lat. Jednakże już 4000 lat przed naszą erą posługiwał się prostymi "urządzeniami", które umożliwiały pobieranie, przechowywanie i przetwarzanie informacji. Jednym z nich było sumeryjskie liczydło w postaci glinianej tabliczki z przesuwanymi kamykami, które ułatwiało czynności liczenia.


Udoskonaleniem tabliczki Sumerów był ok. 3000 lat przed naszą erą chiński abakus - drewniana tabliczka z kościanymi gałkami uwzględniająca rząd jedności i dziesiątek przypominająca dzisiejsze liczydło z prętami (liczydło to wynaleziono w Babilonie).

Abacus
Pomimo, że liczydło i abakus są bardzo pożytecznymi urządzeniami, ich użycie wymaga od człowieka wykonywania w pamięci operacji dziesiątkowania, czyli liczenia z przekroczeniem progu, a to może być przyczyną błędów.


Z tym problemem poradził sobie francuski uczony Blaise Pascal, który w latach 1642 - 1643 zbudował sumator arytmetyczny - prawdziwą maszynę liczącą, która samodzielnie wykonywała operację dziesiątkowania, czyli przeniesienia do wyższego rzędu. Użytkowanie jej było jednak niewygodne, gdyż człowiek sam musiał przesuwać zębate kółka o odpowiednią ilość zębów.
W roku 1666 w Anglii wynaleziono kalkulator który dodawał i odejmował.
W 1801 roku Joseph Marie Jacquard wynajduje maszynę tkacką, sterowaną kartami perforowanymi. Natomiast w 1910 roku James Powers, inżynier zatrudniony w U.S. Census Bureau, projektuje kartę perforowaną nowego typu, z okrągłymi dziurkami i 90 kolumnami.

karta perforowana
Pionier informatyki Charles Babbage - angielski matematyk w 1833 roku tworzy maszynę, która miała zapamiętywać dane i dokonywać obliczeń końcowych jednak budowa tej maszyny nie została nigdy zakończona. W 1858 roku przeprowadzono linię telegraficzną przez Ocean Atlantycki.
Następnie wprowadzono taśmę papierową w rolkach, która miała służyć do zapisywania i odczytywania danych.

Następnym krokiem w rozwoju maszyn liczących była maszyna licząco-analityczna, której pierwszym konstruktorem był Herman Hollerith w 1890 roku. Jej zastosowanie pozwoliło na ośmiokrotne przyspieszenie prac obliczeniowych związanych np. z opracowaniem wyników spisu powszechnego w USA w latach 1889 - 1890.

H. Hollerith
W 1886 roku Herman Hollerith zorganizował przedsiębiorstwo Tabulating Machine Company (TMC), z którego w połączeniu z firmami Computing Scale Corporation i International Time Recording Company (ITR) w 1911 roku powstaje Computing Tabulating-Recording Company (CTR). W 1924 roku zmienia nazwę na International Business Machines Corporation (IBM).
W 1906roku Lee De Forest wynajduje w USA lampę elektronową (triodę).
W 1907 roku powstaje British Tabulating Machine Company (BTM), korzystająca z maszyn i patentów Hermana Holleritha. W ponad pół wieku później na bazie tej firmy powstanie International Computers Ltd (ICL).

W 1915 roku Edward Hebern wynajduje maszynę szyfrującą. Można ją uznać za protoplastę słynnej Enigmy (maszyny szyfrującej), którą w roku 1918 opatentował niemiecki wynalazca Arthur Scherbius. Planowanymi użytkownikami tej maszyny miały być głównie korporacje, wielkie firmy chcące chronić swoja korespondencje, poczty, a także inne instytucje państwowe.

W roku 1938 Niemiec Konrad Zuse w warunkach domowych skonstruował pierwszą maszynę liczącą Z1, która później stała się podstawą działania komputerów elektronicznych.

K. Zuse


Komputer Z1 w pokoju gościnnym rodziców Konrada Zuse w 1936 Z1 w całej okazałości
W 1939 roku w Kalifornii powstaje firma Hewlett-Packard jako spółka panów Williama Hewletta i Davida Packarda. O kolejności nazwisk w nazwie zadecydował rzut monetą.
W 1939 roku przez Johna Atanasoffa i jego studenta Clifforda Berry'ego kosztem 650 USD zostaje skonstruowana maszyna do rozwiązywania układów równań algebraicznych liniowych, uważana za pierwszy działający prototyp specjalizowanego komputera - z uwagi na zastosowanie przez konstruktorów lamp elektronowych. Maszyna - wielkości sporego biurka - pracowała bardzo wolno i wymagała stałego nadzoru człowieka-operatora, ale i tak była około 1000 razy szybsza od stosowanych wówczas urządzeń mechanicznych. Zawierała 270 lamp, z czego ok. 210 działało na rzecz jednostki centralnej, 30 służyło obsłudze czytnika i perforatora kart, pozostałe odgrywały rolę pomocniczą.
W 1941 roku Konrad Zuse wykonuje Z3, pierwszy w pełni działający, nie elektroniczny komputer - programowy kalkulator.

Z3
W 1942 roku dwaj uczeni amerykańscy wynaleźli urządzenie, które miało dużo cech komputera.
W 1943 roku uczeni angielscy skonstruowali elektroniczny komputer, który miał łamać kody szyfrowe używane przez Niemców.

Pierwsza automatyczna maszyna licząca MARK I (największy w historii kalkulator elektromechaniczny) została zbudowana w 1944 r. przez zespół konstruktorów firmy IBM, kierowany przez Howarda Aikena (wówczas studenta).


H. Aiken
Była ona udoskonaloną wersją maszyny Babbage'a. Komputer ten miał 16 m długości, 2,5 m wysokości i ważył ponad 5 ton. Cała maszyna składała się z 760 tysięcy części (w tym ponad 800 km przewodów z trzema milionami połączeń) i musiało ją obsługiwać 10 ludzi.

MARK I (z lewej) MARK I (z prawej)

ENIAC

W 1947 roku uczeni amerykańscy wynaleźli tranzystor. Powstają pierwsze magnetyczne nośniki danych. Są to sporej wielkości bębny magnetyczne.

W 1948 roku stworzono między innymi architekturę komputerów stosowaną praktycznie do dnia dzisiejszego. Polega ona na umieszczaniu danych i programów w jednej pamięci.
Dzięki teorii Johna von Neumanna udało się odejść od sztywnych metod programowania sprzętowego - przełączania ręcznego (kablowego) i zastąpienie ich programowaniem wewnętrznym - umieszczenie w pamięci maszyny programu sterującego przetwarzaniem. Maszyny takie zbudowano w Anglii i USA w latach 1949-1950.

Pierwszymi komputerami skonstruowanymi w oparciu o teorię von Neumanna była angielska maszyna EDSAC - Electronic Delay Storage Automatic Computer(uruchomiona w 1949 r.) oraz amerykańska EDVAC - Electronic Discrete Variable Computer (zbudowana w 1952 r.) używana wyłącznie do celów naukowych i wojskowych.

EDSAC I (1948 r.) EDSAC II (1959 - 1960 r.)

EDVAC (zajmował ponad 111 metrów kwadratowych powierzchni, zawierała ok. 6000 lamp i 12000 diod)
W 1951 roku też w Ameryce stworzono komputer, który wykorzystany był do spisu ludności. Pierwszą maszyną do przetwarzania danych "cywilnych" był amerykański komputer UNIVAC. Miał on jednakże wady - duże rozmiary, bardzo skomplikowany w obsłudze, częste awarie i niewielka prędkość obliczeń.
Komputery zaczęto produkować seryjnie. Pierwsze komputery nie wyglądały tak jak dzisiejsze. Były to maszyny zajmujące kilka pokoi. Dostęp do nich mieli tylko nieliczni, wtajemniczeni specjaliści, ubrani w specjalne kombinezony. Praca na takim komputerze wyglądał następująco: najpierw napisano program na zwykłej kartce, potem na kratkowanym formularzu, później maszynistka przepisywała na specjalne karty lub taśmy.

W roku 1954 wynaleziono drukarkę, w 1956 r. opracowano twardy dysk, w 1958 r. wynaleziono modemy i laser.

W 1955 roku J. H. Felker skonstruował komputer 2 generacji TRADIC.

W roku 1960 powstaje język programowania i pierwszy komputer wyposażony w monitor i klawiaturę.

W roku 1962 skonstruowano komputer 3 generacji.

W 1965 roku zbudowano pierwszy minikomputer. Kosztował on 18 tysięcy dolarów.

W 1969 roku w USA skonstruowano mikroprocesor, czyli układ scalony, co miało ogromny wpływ na zmniejszenie rozmiarów komputera i umożliwiło produkcję tych urządzeń na użytek domowy. Postępujący proces miniaturyzacji układów scalonych doprowadził na początku lat siedemdziesiątych do powstania mikroprocesorów, zawierających w jednym układzie scalonym procesor wraz z układem sterującym jego pracą.

Wraz z pojawieniem się mikroprocesorów powstała nowa klasa komputerów - mikrokomputery, czyli komputery, w których mikroprocesor stanowi podstawowy element licząco - sterujący. Takie mikrokomputery były produkowane i tanio sprzedawane. Wadą ich były jednakże niewielkie możliwości obliczeniowe. Mimo to po ich ulepszeniu mają one obecne zastosowanie - kasa sklepowa, czytnik w bibliotece itp. Mają możliwość przetwarzania, przechowują dużą ilość informacji, są niezawodne, łatwe w obsłudze i tanie.

W 1975 roku przedstawiono po raz pierwszy drukarkę laserową. W tym samym roku Bill Gates i Pul Allen zakładają firmę Microsoft. Firma która dzisiaj jest największą na świecie. Fortuna jej właściciela Gatesa szacowana jest na 51 miliardów dolarów.
W 88 na 100 komputerów używanych w warunkach domowych jest zainstalowany system operacyjny Microsoftu. (MS-DOS albo Windows).

Na początku lat osiemdziesiątych powstają takie produkty jak AMIGA, KOOMODORE, ATARI. Są to komputery służące do domowych zastosowań, głównie do gier, ze względu na bardzo dobrą grafikę i dźwięk.
Ogromny i bardzo szybki rozwój techniki komputerowej spowodował, że w 1981 roku odbyła się premiera pierwszego komputera osobistego.
Mało kto wówczas przypuszczał, że był to początek przewrotu we wszystkich dziedzinach życia. Choć od tego czasu minęły zaledwie 25 lata, pecety są już wszędzie. Na świecie sprzedaje się dziś więcej komputerów niż telewizorów.
Bardzo duży wzrost świadomości technicznej doprowadził do tego, że oprócz bardzo dobrych komputerów osobistych (do użytku domowego), posiadamy superkomputery mogące wykonywać kilka czy kilkanaście bilionów operacji na sekundę. Również w Polsce powstają takie komputery.

W sierpniu 2003 roku w Gdańskim Centrum Informatycznym rozpoczyna się budowa polskiego superkomputera. Koszt budowy szacuje się na 4 miliony złotych.
W listopadzie tego roku zostaje uruchomiony zostaje superkomputer, który może wykonać ponad bilion operacji na sekundę. Jego wydajność powoduje, że zaliczany on jest do jednego ze stu najlepszych komputerów na świecie. Mimo, że wydawałoby się że osiągnięto już prawie wszystko w dziedzinie informatyki nadal trwają intensywne badania i próby stworzenia coraz nowszych i coraz szybszych komputerów.


Mało kto jest zorientowany siedząc dziś przy swoim notebooku, że jego prototyp pochodzący z 1975 roku ważył aż 25 kilogramów i kosztował prawie dwadzieścia tysięcy dolarów.
Według dzisiejszych standardów był kolosem, wtedy jednak gdy komputery zajmowały całe pokoje wydawał się maleńki. Po pewnych modyfikacjach udało się zmniejszyć jego wagę w 1983 roku do 12 - 15 kilogramów ale ekran jego monitora mógł jednocześnie wyświetlić tylko cztery linie tekstu.


Mało też kto wie używając podczas gry myszki, że ponad 30 lat temu (w 1968 roku) konstruktor zajmujący się techniką komputerową zaprezentował urządzenie, którego na początku nikt nie chciał mieć. Nazwał je wskaźnikiem pozycji x-y do systemów ekranowych. Ponieważ urządzenie było małą kanciastą skrzynką ze sterczącym ze środka kablem nazwano je myszą. I tak zostało do dzisiaj.
Na początku komputerami zajmowały się osoby, które potrafiły pisać programy mysz im nie była potrzebna. Dopiero po 15 latach w roku 1983 mysz została dołączona jako wyposażenie komputerów, które służyły do gier.


B&B&B&B Index