Krótki plan wydarzeń powstania komputer ;)) Czekam do 21 30 Daje najjj :):)
patuchaa12
Historia komputera jest nierozerwalnie związana z pojęciem "informatyka" (informatyka jest nauką o pobieraniu, przechowywaniu, przesyłaniu i przetwarzaniu informacji przy użyciu automatycznych środków pomocniczych, którymi są zazwyczaj komputery). Jeden z działów tej nauki zajmuje się komputerami.
Widoczny rozwój informatyki nastąpił w ciągu ostatnich kilkudziesięciu powojennych lat. Jednakże już 4000 lat przed naszą erą posługiwał się prostymi "urządzeniami", które umożliwiały pobieranie, przechowywanie i przetwarzanie informacji. Jednym z nich było sumeryjskie liczydło w postaci glinianej tabliczki z przesuwanymi kamykami, które ułatwiało czynności liczenia.
Udoskonaleniem tabliczki Sumerów był ok. 3000 lat przed naszą erą chiński abakus - drewniana tabliczka z kościanymi gałkami uwzględniająca rząd jedności i dziesiątek przypominająca dzisiejsze liczydło z prętami (liczydło to wynaleziono w Babilonie).
Pomimo, że liczydło i abakus są bardzo pożytecznymi urządzeniami, ich użycie wymaga od człowieka wykonywania w pamięci operacji dziesiątkowania, czyli liczenia z przekroczeniem progu, a to może być przyczyną błędów.
Z tym problemem poradził sobie francuski uczony Blaise Pascal, który w latach 1642 - 1643 zbudował sumator arytmetyczny - prawdziwą maszynę liczącą, która samodzielnie wykonywała operację dziesiątkowania, czyli przeniesienia do wyższego rzędu. Użytkowanie jej było jednak niewygodne, gdyż człowiek sam musiał przesuwać zębate kółka o odpowiednią ilość zębów. W roku 1666 w Anglii wynaleziono kalkulator który dodawał i odejmował.
W 1801 roku Joseph Marie Jacquard wynajduje maszynę tkacką, sterowaną kartami perforowanymi. Natomiast w 1910 roku James Powers, inżynier zatrudniony w U.S. Census Bureau, projektuje kartę perforowaną nowego typu, z okrągłymi dziurkami i 90 kolumnami.
Pionier informatyki Charles Babbage - angielski matematyk w 1833 roku tworzy maszynę, która miała zapamiętywać dane i dokonywać obliczeń końcowych jednak budowa tej maszyny nie została nigdy zakończona. W 1858 roku przeprowadzono linię telegraficzną przez Ocean Atlantycki. Następnie wprowadzono taśmę papierową w rolkach, która miała służyć do zapisywania i odczytywania danych.
Następnym krokiem w rozwoju maszyn liczących była maszyna licząco-analityczna, której pierwszym konstruktorem był Herman Hollerith w 1890 roku. Jej zastosowanie pozwoliło na ośmiokrotne przyspieszenie prac obliczeniowych związanych np. z opracowaniem wyników spisu powszechnego w USA w latach 1889 - 1890.
W 1886 roku Herman Hollerith zorganizował przedsiębiorstwo Tabulating Machine Company (TMC), z którego w połączeniu z firmami Computing Scale Corporation i International Time Recording Company (ITR) w 1911 roku powstaje Computing Tabulating-Recording Company (CTR). W 1924 roku zmienia nazwę na International Business Machines Corporation (IBM). W 1906roku Lee De Forest wynajduje w USA lampę elektronową (triodę). W 1907 roku powstaje British Tabulating Machine Company (BTM), korzystająca z maszyn i patentów Hermana Holleritha. W ponad pół wieku później na bazie tej firmy powstanie International Computers Ltd (ICL).
W 1915 roku Edward Hebern wynajduje maszynę szyfrującą. Można ją uznać za protoplastę słynnej Enigmy (maszyny szyfrującej), którą w roku 1918 opatentował niemiecki wynalazca Arthur Scherbius. Planowanymi użytkownikami tej maszyny miały być głównie korporacje, wielkie firmy chcące chronić swoja korespondencje, poczty, a także inne instytucje państwowe.
W roku 1938 Niemiec Konrad Zuse w warunkach domowych skonstruował pierwszą maszynę liczącą Z1, która później stała się podstawą działania komputerów elektronicznych.
W 1939 roku w Kalifornii powstaje firma Hewlett-Packard jako spółka panów Williama Hewletta i Davida Packarda. O kolejności nazwisk w nazwie zadecydował rzut monetą.
W 1939 roku przez Johna Atanasoffa i jego studenta Clifforda Berry'ego kosztem 650 USD zostaje skonstruowana maszyna do rozwiązywania układów równań algebraicznych liniowych, uważana za pierwszy działający prototyp specjalizowanego komputera - z uwagi na zastosowanie przez konstruktorów lamp elektronowych. Maszyna - wielkości sporego biurka - pracowała bardzo wolno i wymagała stałego nadzoru człowieka-operatora, ale i tak była około 1000 razy szybsza od stosowanych wówczas urządzeń mechanicznych. Zawierała 270 lamp, z czego ok. 210 działało na rzecz jednostki centralnej, 30 służyło obsłudze czytnika i perforatora kart, pozostałe odgrywały rolę pomocniczą. W 1941 roku Konrad Zuse wykonuje Z3, pierwszy w pełni działający, nie elektroniczny komputer - programowy kalkulator.
W 1942 roku dwaj uczeni amerykańscy wynaleźli urządzenie, które miało dużo cech komputera. W 1943 roku uczeni angielscy skonstruowali elektroniczny komputer, który miał łamać kody szyfrowe używane przez Niemców. Pierwsza automatyczna maszyna licząca MARK I (największy w historii kalkulator elektromechaniczny) została zbudowana w 1944 r. przez zespół konstruktorów firmy IBM, kierowany przez Howarda Aikena (wówczas studenta).
Była ona udoskonaloną wersją maszyny Babbage'a. Komputer ten miał 16 m długości, 2,5 m wysokości i ważył ponad 5 ton. Cała maszyna składała się z 760 tysięcy części (w tym ponad 800 km przewodów z trzema milionami połączeń) i musiało ją obsługiwać 10 ludzi.
MARK I pomimo niewielkiej prędkości obliczeń i częstych awarii mógł zastąpić pracę 100 rachmistrzów. Udoskonalenie tego komputera zmierzało do zmniejszania jego rozmiarów oraz usunięcia elementów mechanicznych. Pierwszym komputerem, w konstrukcji którego użyto wyłącznie elementów elektronicznych (lamp elektronowych) był ENIAC - Electronic Numerator, Integrator, Analyser and Komputer - zbudowany w USA w lutym 1946 r. Była to maszyna pierwszej generacji. Nie był on jednakże doskonały, gdyż nie udało się zmniejszyć jego rozmiarów ani też wyeliminować ręcznego programowania. Maszyna ta, zajmowała powierzchnię 150 metrów kwadratowych (jest to powierzchnia sali gimnastycznej).
W 1947 roku uczeni amerykańscy wynaleźli tranzystor. Powstają pierwsze magnetyczne nośniki danych. Są to sporej wielkości bębny magnetyczne. W 1948 roku stworzono między innymi architekturę komputerów stosowaną praktycznie do dnia dzisiejszego. Polega ona na umieszczaniu danych i programów w jednej pamięci. Dzięki teorii Johna von Neumanna udało się odejść od sztywnych metod programowania sprzętowego - przełączania ręcznego (kablowego) i zastąpienie ich programowaniem wewnętrznym - umieszczenie w pamięci maszyny programu sterującego przetwarzaniem. Maszyny takie zbudowano w Anglii i USA w latach 1949-1950.
Pierwszymi komputerami skonstruowanymi w oparciu o teorię von Neumanna była angielska maszyna EDSAC - Electronic Delay Storage Automatic Computer(uruchomiona w 1949 r.) oraz amerykańska EDVAC - Electronic Discrete Variable Computer (zbudowana w 1952 r.) używana wyłącznie do celów naukowych i wojskowych.
W 1951 roku też w Ameryce stworzono komputer, który wykorzystany był do spisu ludności. Pierwszą maszyną do przetwarzania danych "cywilnych" był amerykański komputer UNIVAC. Miał on jednakże wady - duże rozmiary, bardzo skomplikowany w obsłudze, częste awarie i niewielka prędkość obliczeń. Komputery zaczęto produkować seryjnie. Pierwsze komputery nie wyglądały tak jak dzisiejsze. Były to maszyny zajmujące kilka pokoi. Dostęp do nich mieli tylko nieliczni, wtajemniczeni specjaliści, ubrani w specjalne kombinezony. Praca na takim komputerze wyglądał następująco: najpierw napisano program na zwykłej kartce, potem na kratkowanym formularzu, później maszynistka przepisywała na specjalne karty lub taśmy.
W roku 1954 wynaleziono drukarkę, w 1956 r. opracowano twardy dysk, w 1958 r. wynaleziono modemy i laser.
W 1955 roku J. H. Felker skonstruował komputer 2 generacji TRADIC.
W roku 1960 powstaje język programowania i pierwszy komputer wyposażony w monitor i klawiaturę.
W roku 1962 skonstruowano komputer 3 generacji.
W 1965 roku zbudowano pierwszy minikomputer. Kosztował on 18 tysięcy dolarów.
W 1969 roku w USA skonstruowano mikroprocesor, czyli układ scalony, co miało ogromny wpływ na zmniejszenie rozmiarów komputera i umożliwiło produkcję tych urządzeń na użytek domowy. Postępujący proces miniaturyzacji układów scalonych doprowadził na początku lat siedemdziesiątych do powstania mikroprocesorów, zawierających w jednym układzie scalonym procesor wraz z układem sterującym jego pracą.
Wraz z pojawieniem się mikroprocesorów powstała nowa klasa komputerów - mikrokomputery, czyli komputery, w których mikroprocesor stanowi podstawowy element licząco - sterujący. Takie mikrokomputery były produkowane i tanio sprzedawane. Wadą ich były jednakże niewielkie możliwości obliczeniowe. Mimo to po ich ulepszeniu mają one obecne zastosowanie - kasa sklepowa, czytnik w bibliotece itp. Mają możliwość przetwarzania, przechowują dużą ilość informacji, są niezawodne, łatwe w obsłudze i tanie.
W 1975 roku przedstawiono po raz pierwszy drukarkę laserową. W tym samym roku Bill Gates i Pul Allen zakładają firmę Microsoft. Firma która dzisiaj jest największą na świecie. Fortuna jej właściciela Gatesa szacowana jest na 51 miliardów dolarów. W 88 na 100 komputerów używanych w warunkach domowych jest zainstalowany system operacyjny Microsoftu. (MS-DOS albo Windows).
Na początku lat osiemdziesiątych powstają takie produkty jak AMIGA, KOOMODORE, ATARI. Są to komputery służące do domowych zastosowań, głównie do gier, ze względu na bardzo dobrą grafikę i dźwięk. Ogromny i bardzo szybki rozwój techniki komputerowej spowodował, że w 1981 roku odbyła się premiera pierwszego komputera osobistego. Mało kto wówczas przypuszczał, że był to początek przewrotu we wszystkich dziedzinach życia. Choć od tego czasu minęły zaledwie 25 lata, pecety są już wszędzie. Na świecie sprzedaje się dziś więcej komputerów niż telewizorów. Bardzo duży wzrost świadomości technicznej doprowadził do tego, że oprócz bardzo dobrych komputerów osobistych (do użytku domowego), posiadamy superkomputery mogące wykonywać kilka czy kilkanaście bilionów operacji na sekundę. Również w Polsce powstają takie komputery.
W sierpniu 2003 roku w Gdańskim Centrum Informatycznym rozpoczyna się budowa polskiego superkomputera. Koszt budowy szacuje się na 4 miliony złotych. W listopadzie 2003 roku zostaje uruchomiony zostaje superkomputer, który może wykonać ponad bilion operacji na sekundę. Jego wydajność powoduje, że zaliczany on jest do jednego ze stu najlepszych komputerów na świecie. Mimo, że wydawałoby się że osiągnięto już prawie wszystko w dziedzinie informatyki nadal trwają intensywne badania i próby stworzenia coraz nowszych i coraz szybszych komputerów.
Bardzo szczegółowo , od początku do końca powsatania komputera + obrazki związane z powstaniem komputera. Liczę na naj. ; )
1.sumeryjskie liczydło
2.abakus
3.sumator arytmetyczny
4.maszyna licząco-analityczna
5.maszyna szyfrująca
6.Z1
7.MARK I
8.ENIAC
9.EDSAC
10.EDVAC
11.UNIVAC
12.pierwszy minikomputer
13.pierwszy komputer osobisty
14.prototyp notebooka
15.mysz
Widoczny rozwój informatyki nastąpił w ciągu ostatnich kilkudziesięciu powojennych lat. Jednakże już 4000 lat przed naszą erą posługiwał się prostymi "urządzeniami", które umożliwiały pobieranie, przechowywanie i przetwarzanie informacji. Jednym z nich było sumeryjskie liczydło w postaci glinianej tabliczki z przesuwanymi kamykami, które ułatwiało czynności liczenia.
Udoskonaleniem tabliczki Sumerów był ok. 3000 lat przed naszą erą chiński abakus - drewniana tabliczka z kościanymi gałkami uwzględniająca rząd jedności i dziesiątek przypominająca dzisiejsze liczydło z prętami (liczydło to wynaleziono w Babilonie).
Pomimo, że liczydło i abakus są bardzo pożytecznymi urządzeniami, ich użycie wymaga od człowieka wykonywania w pamięci operacji dziesiątkowania, czyli liczenia z przekroczeniem progu, a to może być przyczyną błędów.
Z tym problemem poradził sobie francuski uczony Blaise Pascal, który w latach 1642 - 1643 zbudował sumator arytmetyczny - prawdziwą maszynę liczącą, która samodzielnie wykonywała operację dziesiątkowania, czyli przeniesienia do wyższego rzędu. Użytkowanie jej było jednak niewygodne, gdyż człowiek sam musiał przesuwać zębate kółka o odpowiednią ilość zębów.
W roku 1666 w Anglii wynaleziono kalkulator który dodawał i odejmował.
W 1801 roku Joseph Marie Jacquard wynajduje maszynę tkacką, sterowaną kartami perforowanymi. Natomiast w 1910 roku James Powers, inżynier zatrudniony w U.S. Census Bureau, projektuje kartę perforowaną nowego typu, z okrągłymi dziurkami i 90 kolumnami.
Pionier informatyki Charles Babbage - angielski matematyk w 1833 roku tworzy maszynę, która miała zapamiętywać dane i dokonywać obliczeń końcowych jednak budowa tej maszyny nie została nigdy zakończona. W 1858 roku przeprowadzono linię telegraficzną przez Ocean Atlantycki. Następnie wprowadzono taśmę papierową w rolkach, która miała służyć do zapisywania i odczytywania danych.
Następnym krokiem w rozwoju maszyn liczących była maszyna licząco-analityczna, której pierwszym konstruktorem był Herman Hollerith w 1890 roku. Jej zastosowanie pozwoliło na ośmiokrotne przyspieszenie prac obliczeniowych związanych np. z opracowaniem wyników spisu powszechnego w USA w latach 1889 - 1890.
W 1886 roku Herman Hollerith zorganizował przedsiębiorstwo Tabulating Machine Company (TMC), z którego w połączeniu z firmami Computing Scale Corporation i International Time Recording Company (ITR) w 1911 roku powstaje Computing Tabulating-Recording Company (CTR). W 1924 roku zmienia nazwę na International Business Machines Corporation (IBM).
W 1906roku Lee De Forest wynajduje w USA lampę elektronową (triodę). W 1907 roku powstaje British Tabulating Machine Company (BTM), korzystająca z maszyn i patentów Hermana Holleritha. W ponad pół wieku później na bazie tej firmy powstanie International Computers Ltd (ICL).
W 1915 roku Edward Hebern wynajduje maszynę szyfrującą. Można ją uznać za protoplastę słynnej Enigmy (maszyny szyfrującej), którą w roku 1918 opatentował niemiecki wynalazca Arthur Scherbius. Planowanymi użytkownikami tej maszyny miały być głównie korporacje, wielkie firmy chcące chronić swoja korespondencje, poczty, a także inne instytucje państwowe.
W roku 1938 Niemiec Konrad Zuse w warunkach domowych skonstruował pierwszą maszynę liczącą Z1, która później stała się podstawą działania komputerów elektronicznych.
W 1939 roku w Kalifornii powstaje firma Hewlett-Packard jako spółka panów Williama Hewletta i Davida Packarda. O kolejności nazwisk w nazwie zadecydował rzut monetą.
W 1939 roku przez Johna Atanasoffa i jego studenta Clifforda Berry'ego kosztem 650 USD zostaje skonstruowana maszyna do rozwiązywania układów równań algebraicznych liniowych, uważana za pierwszy działający prototyp specjalizowanego komputera - z uwagi na zastosowanie przez konstruktorów lamp elektronowych. Maszyna - wielkości sporego biurka - pracowała bardzo wolno i wymagała stałego nadzoru człowieka-operatora, ale i tak była około 1000 razy szybsza od stosowanych wówczas urządzeń mechanicznych. Zawierała 270 lamp, z czego ok. 210 działało na rzecz jednostki centralnej, 30 służyło obsłudze czytnika i perforatora kart, pozostałe odgrywały rolę pomocniczą. W 1941 roku Konrad Zuse wykonuje Z3, pierwszy w pełni działający, nie elektroniczny komputer - programowy kalkulator.
W 1942 roku dwaj uczeni amerykańscy wynaleźli urządzenie, które miało dużo cech komputera.
W 1943 roku uczeni angielscy skonstruowali elektroniczny komputer, który miał łamać kody szyfrowe używane przez Niemców. Pierwsza automatyczna maszyna licząca MARK I (największy w historii kalkulator elektromechaniczny) została zbudowana w 1944 r. przez zespół konstruktorów firmy IBM, kierowany przez Howarda Aikena (wówczas studenta).
Była ona udoskonaloną wersją maszyny Babbage'a. Komputer ten miał 16 m długości, 2,5 m wysokości i ważył ponad 5 ton. Cała maszyna składała się z 760 tysięcy części (w tym ponad 800 km przewodów z trzema milionami połączeń) i musiało ją obsługiwać 10 ludzi.
MARK I pomimo niewielkiej prędkości obliczeń i częstych awarii mógł zastąpić pracę 100 rachmistrzów. Udoskonalenie tego komputera zmierzało do zmniejszania jego rozmiarów oraz usunięcia elementów mechanicznych.
Pierwszym komputerem, w konstrukcji którego użyto wyłącznie elementów elektronicznych (lamp elektronowych) był ENIAC - Electronic Numerator, Integrator, Analyser and Komputer - zbudowany w USA w lutym 1946 r. Była to maszyna pierwszej generacji. Nie był on jednakże doskonały, gdyż nie udało się zmniejszyć jego rozmiarów ani też wyeliminować ręcznego programowania. Maszyna ta, zajmowała powierzchnię 150 metrów kwadratowych (jest to powierzchnia sali gimnastycznej).
W 1947 roku uczeni amerykańscy wynaleźli tranzystor. Powstają pierwsze magnetyczne nośniki danych. Są to sporej wielkości bębny magnetyczne. W 1948 roku stworzono między innymi architekturę komputerów stosowaną praktycznie do dnia dzisiejszego. Polega ona na umieszczaniu danych i programów w jednej pamięci. Dzięki teorii Johna von Neumanna udało się odejść od sztywnych metod programowania sprzętowego - przełączania ręcznego (kablowego) i zastąpienie ich programowaniem wewnętrznym - umieszczenie w pamięci maszyny programu sterującego przetwarzaniem. Maszyny takie zbudowano w Anglii i USA w latach 1949-1950.
Pierwszymi komputerami skonstruowanymi w oparciu o teorię von Neumanna była angielska maszyna EDSAC - Electronic Delay Storage Automatic Computer(uruchomiona w 1949 r.) oraz amerykańska EDVAC - Electronic Discrete Variable Computer (zbudowana w 1952 r.) używana wyłącznie do celów naukowych i wojskowych.
W 1951 roku też w Ameryce stworzono komputer, który wykorzystany był do spisu ludności. Pierwszą maszyną do przetwarzania danych "cywilnych" był amerykański komputer UNIVAC. Miał on jednakże wady - duże rozmiary, bardzo skomplikowany w obsłudze, częste awarie i niewielka prędkość obliczeń. Komputery zaczęto produkować seryjnie. Pierwsze komputery nie wyglądały tak jak dzisiejsze. Były to maszyny zajmujące kilka pokoi. Dostęp do nich mieli tylko nieliczni, wtajemniczeni specjaliści, ubrani w specjalne kombinezony. Praca na takim komputerze wyglądał następująco: najpierw napisano program na zwykłej kartce, potem na kratkowanym formularzu, później maszynistka przepisywała na specjalne karty lub taśmy.
W roku 1954 wynaleziono drukarkę, w 1956 r. opracowano twardy dysk, w 1958 r. wynaleziono modemy i laser.
W 1955 roku J. H. Felker skonstruował komputer 2 generacji TRADIC.
W roku 1960 powstaje język programowania i pierwszy komputer wyposażony w monitor i klawiaturę.
W roku 1962 skonstruowano komputer 3 generacji.
W 1965 roku zbudowano pierwszy minikomputer. Kosztował on 18 tysięcy dolarów.
W 1969 roku w USA skonstruowano mikroprocesor, czyli układ scalony, co miało ogromny wpływ na zmniejszenie rozmiarów komputera i umożliwiło produkcję tych urządzeń na użytek domowy. Postępujący proces miniaturyzacji układów scalonych doprowadził na początku lat siedemdziesiątych do powstania mikroprocesorów, zawierających w jednym układzie scalonym procesor wraz z układem sterującym jego pracą.
Wraz z pojawieniem się mikroprocesorów powstała nowa klasa komputerów - mikrokomputery, czyli komputery, w których mikroprocesor stanowi podstawowy element licząco - sterujący. Takie mikrokomputery były produkowane i tanio sprzedawane. Wadą ich były jednakże niewielkie możliwości obliczeniowe. Mimo to po ich ulepszeniu mają one obecne zastosowanie - kasa sklepowa, czytnik w bibliotece itp. Mają możliwość przetwarzania, przechowują dużą ilość informacji, są niezawodne, łatwe w obsłudze i tanie.
W 1975 roku przedstawiono po raz pierwszy drukarkę laserową. W tym samym roku Bill Gates i Pul Allen zakładają firmę Microsoft. Firma która dzisiaj jest największą na świecie. Fortuna jej właściciela Gatesa szacowana jest na 51 miliardów dolarów. W 88 na 100 komputerów używanych w warunkach domowych jest zainstalowany system operacyjny Microsoftu. (MS-DOS albo Windows).
Na początku lat osiemdziesiątych powstają takie produkty jak AMIGA, KOOMODORE, ATARI. Są to komputery służące do domowych zastosowań, głównie do gier, ze względu na bardzo dobrą grafikę i dźwięk. Ogromny i bardzo szybki rozwój techniki komputerowej spowodował, że w 1981 roku odbyła się premiera pierwszego komputera osobistego.
Mało kto wówczas przypuszczał, że był to początek przewrotu we wszystkich dziedzinach życia. Choć od tego czasu minęły zaledwie 25 lata, pecety są już wszędzie. Na świecie sprzedaje się dziś więcej komputerów niż telewizorów. Bardzo duży wzrost świadomości technicznej doprowadził do tego, że oprócz bardzo dobrych komputerów osobistych (do użytku domowego), posiadamy superkomputery mogące wykonywać kilka czy kilkanaście bilionów operacji na sekundę. Również w Polsce powstają takie komputery.
W sierpniu 2003 roku w Gdańskim Centrum Informatycznym rozpoczyna się budowa polskiego superkomputera. Koszt budowy szacuje się na 4 miliony złotych.
W listopadzie 2003 roku zostaje uruchomiony zostaje superkomputer, który może wykonać ponad bilion operacji na sekundę. Jego wydajność powoduje, że zaliczany on jest do jednego ze stu najlepszych komputerów na świecie. Mimo, że wydawałoby się że osiągnięto już prawie wszystko w dziedzinie informatyki nadal trwają intensywne badania i próby stworzenia coraz nowszych i coraz szybszych komputerów.
Bardzo szczegółowo , od początku do końca powsatania komputera + obrazki związane z powstaniem komputera. Liczę na naj. ; )