1. Historia Komputera. Omówienie budowy komputera i nowoczesna peryferii
Wymagania :
referat stworzyc na podstawie informacji wyszukanych w sieci oraz skryptu
- redakcja tekstów (conajmniej 3 strony)
- ilustracje
-formatowanie tekstu stylami
- prezentacja lub dokumend word
" Life is not a problem to be solved but a reality to be experienced! "
© Copyright 2013 - 2024 KUDO.TIPS - All rights reserved.
Historia komputera - Chronologicznie
Historia komputera sięga wbrew pozorom czasów najdawniejszych i nie zaczyna się jak to część osób myśli na komputerze ATARI 800 XL. W poniższym artykule staramy się przedstawić Państwu chronologicznie najważniejsze wydarzenia z historii informatyki.
4000-1200 p.n.e. - Sumerowie zaczynają zapisywać transakcje handlowe na glinianych tabliczkach.
3000 p.n.e. - Powstaje pierwsze liczydło w Babilonii.
250-230 p.n.e. - Metodą sita Eratostenesa udaje się ustalić liczby pierwsze. Metoda poszukiwania liczb pierwszych polega na usuwaniu z ciągu liczb naturalnych liczb będących iloczynami liczb naturalnych.
876 n.e. - Pierwsze, zarejestrowane w Indiach, użycie symbolu 0.
1620 - Edmund Gunter z Anglii wynajduje suwak logarytmiczny, który stanie się protoplastą kalkulatora elektrycznego.
1642-1643 - Blaise Pascal konstruuje arytmometr - mechaniczną maszynę, która potrafi dodawać liczby. Formułuje też prawa podzielności liczb całkowitych wykorzystujące sumowanie cyfr. Opracowywuje metodę wyznaczania współczynników dwumianu dowolnego stopnia (trójkąt Pascala).
1666 - Samuel Morland konstruuje w Anglii mechaniczny kalkulator, który potrafi dodawać i odejmować.
1670 - Gottfried Wilhelm Leibniz, niemiecki filozof i matematyk formułuje idee rachunku całkowego.
1674 - Gottfried Wilhelm Leibniz, twórca rachunku różniczkowego i całkowego, skonstruował czterodziałaniowy arytmometr z mechanizmem kół osadzonych na osi obracanej za pomocą korbki. Konstrukcja ta stała się prawzorem wielu poźniejszych urządzeń
1679 - Gottfried Wilhelm Leibniz wprowadził arytmetykę binarną (dwójkową). W arytmetyce tej każda liczba mogła być przedstawiona przy użyciu jedynie dwóch symboli.
1694 - Gotffried Leibniz konstruuje pierwszą maszynę liczącą używającą zerojedynkowego zapisu liczb.
1812 - Robotnik Ned Ludd zachęca innych robotników, by zniszczyli maszyny zastępujące człowieka, gdyż obawia się utraty pracy. Terminu "Luddite" używano później na określenie oponentów technologii.
1820 - Joseph-Marie Jacquard skonstruował krosno sterowane za pomocą kart perforowanych, Charles Thomas de Colmar (1785-1870) stworzył pierwszy masowo produkowany arytmometr.
1833 - Charles Babbage, matematyk angielski nazywany pionierem informatyki, projektuje pierwszą maszynę analityczną, działającą na zasadzie zbliżonej do zasady działania komputerów cyfrowych, nazwaną "młynem arytmetycznym". Maszyna ta miała wykonywać podstawowe działania matematyczne, zapamiętywać dane wejściowe, pośrednie oraz wyniki obliczeń końcowych. Wprowadzanie i wyprowadzanie danych miało przebiegać na kartach dziurkowanych. Projekt nie został zrealizowany z powodu istniejącego wówczas niskiego poziomu techniki. W 1991 w Science Museum w Londynie wykonano wg oryginalnych planów fragment (arytmometr) Drugiej Maszyny Różnicowej, udowadniając poprawność konstrukcji.
1844 - Samuel Morse przesyła informację za pomocą telegrafu z Waszyngtonu do Baltimore.
1854 - George Boole publikuje uwagi na temat symboli logicznych, które sto lat później staną się podstawą działania komputerów.
1857 - Sir Charles Wheatstone wprowadza taśmę papierową w rolkach, która może służyć do zapisywania i odczytywania danych.
1858 - Linia telegraficzna przeprowadzona zostaje przez Ocean Atlantycki.
1876 - Aleksander Graham Bell w wieku dwudziestu siedmiu lat opatentowuje wynalazek telefonu.
1884 - Pierwsza linia telefoniczna połączyła Boston z Nowym Jorkiem.
1886 - William Burroughs skonstruował mechaniczną maszynę sumującą, która jako pierwsze tego typu urządzenie odniosła sukces rynkowy.
1890 - Herman Hollerith projektuje maszynę analityczną wykorzystującą karty dziurkowane, co pozwala amerykańskim instytucjom zajmującym się spisami ludności zredukować czas obliczania danych z dziesięciu lat do dwu i pół roku.
1892 - W La Porte w stanie Indiana uruchomiono pierwszą automatyczną centralę telefoniczną.
1893 - Opracowany zostaje pierwszy czterodziałaniowy kalkulator.
1895 - Guglielmo Marconi transmituje pierwsze sygnały radiowe.
1896 - Herman Hollerith zakłada firmę Tabulating Machine Company, która, łącząc się następnie z dwiema innymi, będzie znana jako IBM.
1897 - Karl Braun wynajduje lampę katodową.
1900 - Kryształek, Amerykanin Reginald Fessenden jako pierwszy przesłał głos drogą radiową.
1901 - Marconi nadał pierwsze sygnały radiowe poprzez Ocean Atlantycki.
1904 - John Ambrose Fleming, elektrotechnik i radiotechnik angielski wynajduje diodę.
1907 - Charles Krumm przedstawił prototyp dalekopisu.
1911 - Heike Kamerlingh - Onnes, fizyk holenderski, odkrywa zjawisko nadprzewodnictwa.
1918 - Dwóch wynalazców buduje maszynę liczącą wykorzystującą liczby w postaci zerojedynkowej.
1919 - Eccles i Jordan, Amerykańscy fizycy wymyślają przekaźnik.
1920-1921 - Czechosłowacki pisarz - Karel Capek używa słowa "robot".
1924 - T.J. Watson zmienia nazwę firmy Tabulating Machine Company na IBM.
1927 - Twarz Herberta Hoovera pokazuje się podczas pierwszej, czarnobiałej transmisji telewizyjnej w USA.
1929 - Powstają pierwsze kolorowe telewizory.
1936 - Angielski matematyk Alan Turing wystąpił z tezą, że wszystkie rozwiązywalne problemy mogą być rozwiązywane metodą algorytmiczną. Jego prace wywarły niezaprzeczalny wpływ na późniejszy rozwój komputerów.
1937 - Inżynier George Stibitz z Bell Telephone Laboratories w New Jersey zbudował pierwszą binarną maszynę sumującą nazwaną Model K. Do jej skonstruowania użył przekaźników telefonicznych.
1937 - John Vincent Attanasoff rozpoczyna prace nad pierwszym elektronicznym komputerem cyfrowym, jednak nie występuje o patent. Prawie dziesięć lat później komputer ENIAC zostanie zbudowany na podstawie jego pionierskich dokonań. George Stibitz tworzy w Laboratoriach Bella pierwszy cyfrowy obwód. Alan Turing tworzy maszynę Turinga z nieskończenie długą taśmą (twór czysto teoretyczny), która realizuje zadania logiczne.
1938 - Niemiec Konrad Zuse w warunkach domowych skonstruował Z1, pierwszą binarną maszynę liczącą. W późniejszym okresie logika binarna stała się podstawą działania komputerów elektronicznych.
1938 - William Hewlett i David Packard zakładają firmę Hewlett-Packard w garażu w Palo Alto, w Kaliforni.
1939 - Georges Stibitz i Samuel Williams budują Complex Number Computer, który zawiera czterysta przekaźników telefonicznych i jest podłączony do trzech dalekopisów, prekursorów nowoczesnych terminali.
1941 - Konrad Zuse, anglik, wykonuje Z3, pierwszy w pełni programowalny kalkulator.
1942 - John Atanasoff i Clifford Berry ukończyli budowę jednej z pierwszych elektronicznych maszyn liczących nazwanej ABC (Atanasoff-Berry Calculator). W roku 1973 sąd amerykański uznał, że ich maszyna miała wystarczająco dużo cech komputera, aby unieważnić patenty jakimi objęty był ENIAC, uważany powszechnie za pierwszy elektroniczny komputer.
1943 - 31 maja w Moore School of Electrical Engineering w Filadelfi powstaje ENIAC (Electronic Numerical Interpreter And Calculator), konstruowany przez J.P. Eckerta i J.W. Mauchly'ego na Uniwersytecie Pensylwanii, dla potrzeb obliczeń balistycznych Marynarki Wojennej USA. W Bletchley Park w Anglii skonstruowano elektroniczny komputer o nazwie Colossus, który miał ułatwić łamanie szyfrów wojennych. Fakt ten utrzymywano w tajemnicy przez następne 32 lata.
1944 - Inżynierowie z Harvardu budują komputer Mark I, ale wkrótce ulega on uszkodzeniu. Amerykanie John Von Neumann i Oscar Morgenstern opracowali teorię gier.
1945 - J. Presper Eckert i John Mauchly budują komputer EDVAC (Electronic Discrete Variable Automatic Computer).
1946 (14 lutego) - USA po trzech latach pracy na Uniwersytecie Pensylwania J.P. Eckert i J.W. Mauchly uruchamiaja pierwszą maszynę liczacą wykorzystującą lampy elektronowe - była to pierwsza maszyna pierwszej generacji. Jest to słynny ENIAC, Elektroniczny, Numeryczny, Integrator, Analizator i Komputer. zajmujący powierzchnie 15x10m, pobierąjacy energię 174 kW. W jego niezwykle pradożernym wnętrzu kryje się 17468 lamp elektronowych, 1500 przekaźników, 70 000 oporników i 10 000 kondensatorów. Liczby przedstawione były w kodzie dziesiętnym, do 10 cyfr. Szybkość pracy była już znacznie większa od maszyn zerowej generacji - przy częstotliwości zegarowej 100 kHz czas dodawania wynosił 0,2 ms, mnożenie trwało 2,8 ms. ENIAC nie mógł zbyt długo pracować bez przerwy - przeszkoda była bardzo duża moc potrzebna na ogrzanie lamp. Okazało się jednak, że niezawodność tego energochłonnego kolosa była niezła - na tydzień wymieniano 2-3 lampy! W ENIACu nie zastosowano żadnych nowych metod obliczeniowych, działania wykonywane były równolegle, na cyfrach dziesiętnych.
1947 - 23 grudnia pracownicy Bell Telephone Laboratories, William Bradford Shockley, J. Bardeenem i W.H. Brattainem tworzą tranzystor, za co otrzymują Nagrodę Nobla w 1956 r. Powstają pierwsze magnetyczne nośniki danych. Są to sporej wielkości bębny magnetyczne.
1948 - Ten rok obfitował w wiele komputerowych nowości. John von Neumann proponuje architekturę komputerów stosowana praktycznie do dnia dzisiejszego. Polega ona na umieszczeniu programu i danych w jednej pamięci jako identycznie reprezentowanych struktur. Na rynek komputerowy wchodzi IBM z maszyną SSEC(12 500 lamp), a nieco póżniej Model 604 (1 400 lamp). Richard Hamming opracowywuje sposób wykrywania błędów w programach.
1949 - Short Order Code, wymyślony przez Johna Mauchly, jest pierwszym językiem programowania wysokiego poziomu.
1951 - John Mauchly i John Eckert budują UNIVAC I, pierwszy komercyjny komputer, zainstalowany w amerykańskiej instytucji zajmującej się spisami ludności. Grace Murray Hopper wynajduje translator AO, zamieniający kod programu w kod binarny (ASM -> OBJ). (5 600 lamp), pierwszy komputer produkowany seryjnie. W marcu powstaje komputer Univac I, który wykorzystywany jest do obliczeń podczas spisiu ludności.
1952 - Wbrew panującym opiniom UNIVAC I przewiduje w wyborach prezydenckich przygniatające zwycięstwo prezydenta Dwighta Eisenhowera nad Adlaiem Stevensonem.
1953 - IBM produkuje komputer o nazwie 650, pierwszy wytwarzany masowo. Do czasu wycofania z rynku w 1969 roku sprzedano 1,5 tysiąca sztuk. W 1953 r Powstaje pamięć oparta na rdzeniach ferrytowych, IBM opracował pierwszy komputer "dla ludzi" - IBM 701. To nie oznaczało, że tak jak to jest teraz, można było samemu siąść i uruchomić go. Była to (były) maszyny zajmujące kilka pokoi, z własnym źródłem zasilania, klimatyzacją. Do tych pokoi wchodzili jedynie wtajemniczeni ubrani w białe kitle, czapeczki i specjalne buty, a "zwykły" użytkownik pokornie stał pod drzwiami. Czasami po kilka dni. Programowanie takich mastodontów polegało na: napisaniu programu najpierw na zwykłej kartce a potem na specjalnie kratkowanym formularzu; oddaniu go pani maszynistce, która przepisywała go na specjalne karty perforowane lub na taśmę perforowaną (karty perforowane wynaleziono już w 1890 roku przy okazji spisu powszechnego w USA); plik takich kart perforowanych mógł liczyć sobie nawet ponad tysiąc sztuk; można sobie wyobrazić rozpacz operatora po upuszczeniu go na podłogę; operator maszyny wkładał kartki do maszyny, ta obrabiała program i biedny użytkownik mógł (np. po dwu dniach) dowiedzieć się, że opuścił przecinek lub pani maszynistka zamiast średnika postawiła dwukropek; użytkownik robił poprawkę, oddawał maszynistce i .... aż do skutku. O sposobie działania komputerów czyli o Systemie Operacyjnym wiedzieli tylko wtajemniczeni i zazdrośnie strzegli tajemnicy. Koszty takiej komputeryzacji były wysokie, nawet gdy wykonywano działania rutynowe, "pompując dane" do gotowych programów np. finansowych. Innym istotnym elementem był fakt, że komputery były zgrupowane w ośrodkach obliczeniowych (po polsku ZETO). Dając do opracowania np. wyniki finansowe - klient był narażony na potencjalną możliwość ujawnienia ich konkurencji. Szybkie dokonanie zmian w programach lub działania (gry) symulacyjne, były wręcz niemożliwe. Kolejki do pracujących całą dobę maszyn były często kilkudniowe a czas niewielu programistów był cenny. Tak więc wówczas - prawie do połowy lat 70 - komputery były nieprzyjazne i denerwujące dla osób spoza kręgu kapłanów i ministrantów sztuki komputerowej. Były jednak coraz szerzej stosowane, pomimo niewygód i ceny (!!), bowiem nie chodziły na urlop, nie piły kawy a przede wszystkim - finanase! - myliły się zdecydowanie rzadziej niż ludzie - zwłaszcza w żmudnych dodawankach ekonomicznych i przy powtarzających się obliczeniach. Raz opracowany i przetestowany program w zasadzie był bezbłędny - o ile nie dokonywano zmian i w sieci był prąd.
1954 - Powstaje pierwsza drukarka, Uniprinter, opracowana przez Earla Mastersona. Drukuje 600 lini na minutę. Texas Instruments przedstawia tranzystor krzemowy, który jest tańszy w produkcji od germanowego. John Backus z IBM wymyśla język programowania Fortran (formula translator), przeznaczony do obliczeń matematycznych.
1955 - Narinder Kapany wynajduje włókno optyczne. Linie lotnicze American Arlines instalują utworzoną przez IBM pierwszą dużą sieć baz danych, łączącą 1,2 tysiąca dalekopisów. Bell Telephone Labs produkuje pierwszy komputer oparty na tranzystorach.
1956 - IBM opracowuje pierwszy twardy dysk, nazywany RAMAC. Programiści IBM tworzą język programowania FORTRAN. MANIAC I jest pierwszym komputerowym programem, który pokonał człowieka w grze w szachy. Powstaje IBM 305
1958 - Bell Telephone prezentuje pierwsze modemy. Naukowcy z Laboratorium Bella wynajdują laser. J.Kolby opracowuje dla Texas Instruments pierwszy układ scalony.
1959 - Korzystając z liczydeł, chiński profesor Lee Kaichen wykonuje obliczenia szybciej od komputera w Seattle, Nowym Yorku i Taipei. Grace Murray Hopper i Charles Phillips tworzą COBOL. John McCarthy i Marvin Minsky zakładają Laboratorium Sztucznej Inteligencji (Artificial Intelligence Lab) na MIT. Xerox wprowadza na rynek pierwszą komercyjną kopiarkę.
1960 - Powstaje język programowania Algol 60. W listopadzie firma DEC(Digital Equipment Corporation) przedstawia PDP-1, pierwszy komputer wyposażony w monitor i klawiaturę.
1961 - John Kelly w Labratoriach Bella programuje komputer, by "zaśpiewał" piosenkę "Daisy Bell (Bicyccle Bulit for Two)". Texas Instruments produkuje na potrzeby armii pierwszy komputer oparty na układach scalonych z pamięcią półprzewodnikową. Fernando Corbato z Uniwersytetu MIT wykorzystuje podział czasu procesora umożliwiając pracę na nim jednocześnie kilku użytkownikom.
1962 - 10 lipca wystrzelony zostaje satelita telekomunikacyjny Telstar, który umożliwia przekazy telewizyjne poprzez Atlantyk. Na Uniwersytecie Stanford and Purdue powstaje specjalizacja - informatyka. Opracowana zostaje pierwsza gra video.
1963 - Douglas Engelbart opracowuje mysz w Stanford Research Institute. Dwadzieścia lat później Macintosh będzie ją wykorzystywał jako standardowy komponent. Rozpoczęto seryjne wytwarzanie komputera Odra 1003. Powstaje program Eliza, który wykazuje pewne przejawy inteligencji. Potrafi prowadzić proste rozmowy z człowiekiem. Na uniwersytecie Kalifornijskim rozpoczynają się prace nad logiką rozmytą (fuzzy logic), która ma pomóc w stworzeniu komputera myślącego. Zatwierdzony zostaje 7-bitowy kod ASCII.
1964 - Firma Zenith tworzy pierwszy komercyjny produkt wykorzystujący układ scalony - przyrząd pomagający słyszeć. American Standard Association decyduje, że kod ASCII będzie standardem transferu danych. Gordon Moore sugeruje, że poziom integracji systemów komputerowych (wydajności procesorów) podwaja się corocznie. Dzisiaj stwierdzenie to znane jest jako prawo Moora.
1965 - Digital Equipment Corporation buduje pierwszy minikomputer, który kosztuje 18 000 dolarów. Zostaje stworzony uproszczony język programowania BASIC, który stanie się standardowym językiem programowania PC.
1966 - świętowano pierwszą setkę maszyn cyfrowych z wrocławskiej fabryki.
1967 - Texas Instruments produkuje na potrzeby armii pierwszy komputer oparty na układach scalonych z pamięcią półprzewodnikową. Ole-Johan Dahl i Kristen Nygaard z Norwegian Computing Centre opracowują język Simula, który jest pierwszym obiektowo zorientowanym językiem programowania.
1968 - Po raz pierwszy komputer (HAL 9000) bierze udział w filmie. Jest to 2001: Odyseja kosmiczna Stanleya Kubricka. "Śpiewa" piosenkę "Daisy Bell (Bicyccle Bulit for Two)", którą komputer Johna Kelly "zaśpiewał" siedem lat wcześniej. D.Engelbart prezentuje NLS używający jako użądzenie wskazujące mysz. Edsger Dijkstra przekonuje, że instrukcja GOTO może być szkodliwa i nie powinno się jej stosować. 18 lipca Robert Noyce, Andy Grove i Gordon Moore zakładają firmę Intel. Jako standard przyjmuje się zapis daty w postaci sześciu cyfr (YYMMDD - rok - miesiąc - dzień) przy wymianie informacji. Cóż, był to ewidentny błąd, który spowodował po latach powstanie problemu roku 2000. Firma Rand przedstawiła dla ARPA projekt zdecentralizowania sieci informatycznych.
1969 - Ustalony zostaje standard RS-232-C umożliwiający wymianę danych pomiędzy komputerami i urządzeniami zewnętrznymi. Departament Obrony USA zleca utworzenie sieci Arpanet, która połączyła uniwersytety UCLA, UC w Santa Barbara, SRI i University of Utah.
1970 - SRI International opracowuje pierwszego robota ze sztuczną inteligencją do nawigacji. Dennis Ritchie i Kenneth Thomson opracowują system operacyjny Unix w firmie Bell Labs.
1971 - Niklaus Wirth opracowuje język programowania Pascal. Ted Hoff, S. Mazor i F. Fagin opracowują 4-bitowy, pierwszy mikroprocesor Intel 4004 (108 Khz). Jego cena wynosiła 200 USD. Wykonywał 60 tys. operacji na sekundę. Składał się z 2300 tranzystorów. Ray Tomlinson z firmy Bolt Beranek and and Newman wysyła pierwszy e- mail.
1972 - Dennis Ritchie opracowuje język programowania C w firmie Bell Labs. Powstaje procesor Intel 8008 (200 Khz), pierwszy 8 bitowy układ, zastąpiony niebawem przez Intel 8080. Powstaje dyskietka 5 1/2 cala. Język Smalltalk opracowany zostaje w Xerox PARC?s Learning Research Group. Jego autorem jest Alan Kay. Alain Colmerauer z University of Marseille opracowuje język programowania Prolog. Steve Wozniak buduje "blue box" - generator częstotliwości 2600 hz, który oszukuje miejskie aparaty telefoniczne. Dzięki temu może rozmawiać za darmo z całym światem.
1973 - Naukowcy z Xerox PARC opracowują eksperymentalny komputer PC. Używa on myszy, sieci Ethernet i GUI. Alan Kay opracowywuje własną wersję domowego komputera PC. Bazuje on na języku Smalltalk, używa ikon i grafiki. Gary Kildall pisze prosty system operacyjny w języku PL/M. Nazywa go CP/M (Control Program/Monitor). Rozpoczynają się prace nad protokołem TCP (Transmission Control Protocol) w laboratorium Stanford University. Prace nadzoruje Vinton Cerf. Scelbi Computer Consulting Company oferuje pierwszy zestaw komputerowy do samodzielnego złożenia, oparty o procesor Intel 8008. Cena zestawu z 1 kB pamięci wynosi 565 USD, dodatkowe 15 KB kosztuje 2760 USD! Powstają procesory w dużej skali integracji. W 1 cm kwadratowym mieści się 10 tys. komponentów (m.in. tranzystorów). Protokół Ethernet i FTP
1974 - W kwietniu powstaje 8 bitowy procesor 8080 (2 Mhz). Składa się z 6 tys. tranzystorów. W artykule na łamach Radio Electronics ukazuje się opis, w jaki sposób zbudować własny komputer - Mark-8. Charles Simonyi z Xexoc PARC pisze pierwszą aplikację WYSIWYG, która nazywa się Bravo. Protokół TCP
1975 - IBM przedstawia drukarkę laserową. Powstaje pierwszy PC - Altair 8800. W kwietniu Bill Gates i Paul Allen zakładają firmę Micro-Soft. Potem nazwa została zamieniona na "Microsoft", oraz opracowują BASIC dla ALTAIR 8800 We wrześniu wychodzi pierwszy numer magazynu Byte.
1976 - IBM opracowuje drukarkę atramentową. (lipiec) - Steve Jobs i Steve Wozniak budują komputer Apple I. Gary Kildall pisze system operacyjny CP/M działający na 8-bitowych komputerach z procesorem Intel 8080. W marcu Intel przedstawia procesor 8085 (5-MHz), w którym znajduje się 6,5 tys. tranzystorów. W kwietniu Steve Jobs i Steve Wozniak zakładają firmę Apple Computer. W lipcu Zilog wypuszcza 8-bitowy procesor Z80 (2,5 MHz).
1977 - W kwietniu Commodore Business Machines prezentuje komputer PET 2001 z procesorem 6502, 4KB RAM, 14KB ROM, klawiatura, monitorem i magnetofonem. W sierpniu firma Radio Shack, oddział firmy Tandy wypuszcza mikrokomputer TRS-80 z procesorem Z80, 4KB RAM, 4KB ROM, klawiaturą, czarnobiałym monitorem i magnetofonem jako pamięcią zewnętrzną. Język Fortran, standard ASCII, Apple II (kwiecień)
1978 - Powstaje Wordstar, pierwszy procesor tekstu opracowany na komputery działające pod systemem operacyjnym CP/M, potem także pod DOSem. W czerwcu Intel przedstawia pierwszy 16-bitowy procesor - 8086 (4,77 Mhz). Składał się z 29 tys. tranzystorów, oraz zewnętrznie okrojony do 8 bitót 8088 Apple wypuszcza stacje dysków do Apple II Ron Rivest, Adi Shamir i Leonard Adelman opracowują standard szyfrowania danych RSA z kluczem publicznym. W grudniu firma Atari wypuściła komputery Atari 400 i 800 z procesorem 6502.
1979 - 11 maja Don Bricklin i Bob Franston piszą pierwszy arkusz kalkulacyjny VisiCalc, dzięki niemu wzrasta zainteresowanie komputerami. We wrześniu Motorola przedstawia procesor 68000, który składał się z 68 tys. tranzystorów (stąd jego nazwa). Basic dla 8086
1980 - Urodził się autor tej strony. APPLE tworzy APPLE III; Na rynek wchodzi firma ATARI z modelami 400 i 800 ze specjalizowanym ukladem dzwiękowym POKEY oraz nowoczesną 256 kolorową grafiką, dysk twardy Seagate. Powstaje język programowania Ada. Wayne Ratliff pisze dBase II, pierwszą wersję bazy danych na komputery PC. IBM wybiera PC-DOS Microsoftu, jako swój system operacyjny stosowany w komputerach PC. W lutym Sinclair Research przedstawia komputer ZX80, wykorzystujący 8-bitowy procesor NEC 3,25 Mhz i mający 1 Mb RAM oraz 4KB ROM. W czerwcu Seagate Technologies prezentuje dysk Winchester 5,25 cala. Używa on czterech talerzy i ma 5 MB pojemności. Kosztuje 600 USD.
1981 - Jest to rok prawdziwej rewolucji: SIR CLIVE SINCLAIR wypuszcza ZX81 natomiast IBM prezentuje pierwszy komputer z serii IBM PC z systemem MS DOS 1.0; COMMODORE wprowadza model VIC-20; w Wielkiej Brytani powstaje BBC MICRO przewyższający szybkością pracy najnowsze IBM PC. IBM zastosował prosty chwyt - opublikował dokumentację komputera PC. Stworzyło to natychmiast szereg standardów i spowodowało "klonowanie" komputera. System operacyjny napisany został przez Microsoft, dzięki temu Micresoft stał się potęgą softwar'u.
1982 - APPLE konstruuje prototyp MACINTOSHA dla którego MICROSOFT tworzy system graficzny; pojawia się SIRIUS 1 - pierwszy poważny konkurent IBM PC oraz DEC RAINBOW; SINCLAIR wypuszcza ZX SPECTRUM który szybko zdobywa sobie ogromną popularność jako komputer domowy, arkysz kalkulacyjny Multiplan, Columbia Data Products produkuje pierwsze "klony" komputerów IBM PC. Niedługo potem Compaq również zaczyna produkować takie komputery. John Warnock opracowuje w firmie Adobe język PostScript. W marcu Intel prezentuje 16-bitowy procesor 80286 (6 Mhz). Zawiera on 134 tys. tranzystorów.
1983 - APPLE sprzedaje pierwszy komputer z graficznym interfejsem użytkownika (GUI) APPLE LISA; COMMODORE prezentuje C-64 przeznacony do domowych zastosowań ,głównie do gier ze względu na bardzo dobrą grafikę i dźwięk, arkusz Lotus 1-2-3, edytor MS Word 1.0,(listopad) premiera Windows 1.0. W maju Microsoft przedstawia pierwszą mysz nazwaną "The Microsoft Mouse", kosztuje ona 200 USD.
1984 - Apple wprowadza na rynek komputery Macintosh. Budowane są modemy o prędkości 2400 baudów. Hewlett-Packard reklamuje pierwszą osobistą drukarką laserową LaserJet, a pisarz William Gibson tworzy termin "cyberprzestrzeń". SINCLAIR wypuszcza model QL; ZX SPECTRUM i C-64 przybywa konkurent AMSTRAD CPC-464, drukarka HP LaserJet, karta graficzna EGA, MS/PC-DOS 3.0 Powstaje interface MIDI (Musical Instrument Digital Interface) standard służący do wymiany informacji pomiędzy komputerami i urządzeniami muzycznymi. Sony przedstawia CD-ROM.
1985 - Zostaje założona America Online. Microsoft tworzy system Windows 1.0 dla IBM PC. Bill Gates z Microstoftu i John Sculley z Apple podpisują tajne uzgodnienie, dające Microsoftowi prawo do wykorzystywania elementów graficznego interfejsu użytkownika w swoim oprogramowaniu, potwierdzając jednocześnie, że system Mac OS stanowił inspirację przy tworzeniu systemu Windows. W Stanach Zjednoczonych pojawia się Nintendo. ATARI wypuszcza model 520ST; COMMODORE wychodzi z zastępcą popularnego C-64 - modelem C-128, oraz z niezwykle zaawansowanym graficznie modelem AMIGA 1000 będącym poważnym konkurentem ATARI ST oraz IBM PC; AMSTRAD pokazuje maszyny CPC 664 oraz CPC 6128; MICROSOFT wypuszcza pracujący na PC system MS WINDOWS 1,0(listopad), (marzec) język PostScript, Page Maker 1.0, Apple LaserWritter z PostScriptem, (pażdziernik) procesor 386 DX, Nowel NetWare
1986 - Microsof wchodzi na giełdę. National Science Foundation zgadza się na utworzenie szkieletu Internetu. Pojawia się pierwszy komputer przenośny z ekranem ciekłokrystalicznym; ATARI wypuszcza model 1040ST a APPLE model MAC PLUS w którym po raz pierwszy zastosowano interfejs SCSI, SGML (Standarized Generalized Markup Langue) standardem ISO, IBM PS/2, karta VGA
1987 - SINCLAIR prezentuje pierwszego palmtopa CAMBRIDGE COMPUTER Z88; APPLE wprowadza modele MAC SE oraz MAC II przeznaczone do celów DTP; pojawia się AMIGA 2000; ATARI wypuszcza MEGA ST i 65XE; pojawia się nowy superkomputer ACORN ARCHIMEDES oparty na procesorze RISC, Poltype - polskie systemy składu na PC/XT (maj), Excel dla Windows (pażdziernik) Windows 2.03 (listopad)
1988 - Microsoft prezentuje system Windows 2.03, którego okna przypominają okna Maca. Sześć lat później w sprawie kosztującej około 10 milionów dolarów sąd rozstrzyga na korzyść Microsoftu. Steve Jobs prezentuje NeXT. W Internecie pojawia się samoreplikujący się program-wirus, Internet Worm. Steve Jobs prezentuje superkomputer NeXT; AMSTRAD wychodzi z modelem AMSTRAD 2000 z kartą graficzną PARADISE VGA; pojawia się ATARI ABAQ z 24-bitową grafiką; INTEL zaczyna sprzedaż taniego 80386SX(czerwiec), OS/2 1.1 (pażdziernik), opracowanie złącza EISA
1989 - Motorola wypuszcza procesor 68040 skladający sie z 1,2 miliona tranzystorów. Tim Berners Lee tworzy Sieć - World Wide Web. Xerox wytacza sprawę Apple'owi o kradzież projektu graficznego interfejsu dla komputerów Lisa i Macintosh. Po sprzedaży około 60 tysięcy komputerów Lisa Apple zaprzestaje produkcji i pali pozostałe egzemplarze w Utah. W Japonii pojawia się telewizja HDTV. APPLE wprowadza nowe modele: MACINTOSH IIC i SE/30 oparte na procesorze MOTOROLA 68030 oraz laptopa APPLE PORTOABLE ; pojawia się nowy układ 80486 DX(czerwiec); ATARI wprowadza rewelacyjnego palmtopa PORTFOLIO, Corel Draw 1.0 (wrzesień), Auto CAD 9 po polsku (listopad)
1990 - IBM wypuszcza tanią stacje roboczą RS/6000; COMMODORE prezentuje komputer AMIGA 3000; APPLE wypuszcza na rynek model MAC IIFX; pojawiają się pierwsze karty PCMCIA, Windows 3.0 (maj), karta graficzna XGA Intel wprowadza procesor i486. U.S. Federal Trad Commission rozpoczyna śledztwo w sprawie Microsoftu. Wartość sprzedaż produktów Microsoftu sięga miliarda dolarów. Windows pojawia się w wersji 3.0.
1991 - Powstaje przenośny APPLE POWERBOOK; INTEL sprzedaje tani procesor 486SX, Visual Basic (maj)
1992 - Procesor 486 DX2 (marzec), Procesor MIPS 4000 (marzec), Powstanie specyfikacji HTML (kwiecień), Windows 3.1, Tim Berners-Lee opracowuje standard HTTP co powoduje narodziny WWW; ATARI wypuszcza doskonałego FALCON'a; COMMODORE w odpowiedzi prezentuje bardzo popularne do dzisiejszego dnia modele AMIGA 1200 oraz AMIGA 4000; APPLE wprowadza wydajne komputery z serii QUADRA; INTEL INTELOWI przybywa konkurencja w postaci firm AMD i CYRIX
1993 - Wprowadzone zostają komputery PDA typu handheld. Itel wprowadza procesor Pentium. Mark Andreessen i Eric Bina projektują Mosaic, pierwszą graficzną przeglądarkę internetową. Zaprezentowany zostaje komputer Apple Newton. Procesor Alpha (styczeń), Procesor 486 DX4 (luty), polski Windows 3.0 (marzec) procesor PowerPC (kwiecień), Windows NT (maj), MOSAIC - poprzednik Netscape Navigator-a (czerwiec), Windows 3.11 for Workgrups (pażdziernik). Pojawia się długo oczekiwany PENTIUM oraz wersja alfa WINDOWS 95
1994 - W Stanach Zjednoczonych dostępny jest już system nawigacji satelitarnej GPS. Intel sprzedaje 2 miliony wadliwych procesorów Pentium. Iomega prezentuje napęd Zip, a Marc Andreessen pomaga założyć firmę Netscape. ustawa o prawach autorskich (luty). W Londynie otwarto Cyberię, pierwszą kawiarnię, w której oprócz kawy oferowano również dostęp do Internetu.
1995 - Delphi (kwiecień), Netscape Navigator (maj), język Java (czerwiec), Windows 95 (sierpień) procesor Pentium Pro (listopad) Pojawiają się monitory z płaskim ekranem. Microsoft prezentuje system Windows 95. Pixar Animation Studios i Disney prezentują wytworzony przez komputer pełnoekranowy film - "Toy Story". Microsoft wprowadza pakiet Office 95. Następuje standaryzacja technologii DVD. Jeffrey Bezos zakłada firmę Amazon.com, a Netscape wchodzi na giełdę.
1996 - procesorHP PA-RISC 8000 (czerwiec), DVD-ROM (lipiec), Windows 95 OEM SR2 (sierpień), Windows NT 4.0 Server i Workstation (wrzesień), procesor Pentium MMX (pażdziernik). Powstają pierwsze naprawdę konkurencyjne dla PENTIUM procesory CYRIX MII oraz AMD K6. Urządzenia zewnętrzne pozwalają surfować w Internecie przy wykorzystaniu telewizora. Debiutuje Palm Pilot.
1997 - Windows NT 4.0 Workstation po polsku (styczeń), Windows Ce dla palmtopów (luty) Pentium II (maj), AutoCAD 14 (maj), IBM DEEP BLUE wygrywa w szachy z Gari Kasparowem (maj), Delphi 3 (czerwiec). Wychodzi PENTIUM II W Stanach Zjednoczonych dostępne są już pierwsze odtwarzacze DVD.
1998 - Powstaje tania alternatywa PENTIUM II CELERON; pojawiają się konkurencyjne AMD K6-2 oraz AMD K6-III 3DNow! Firma Diamond Multimedia wprowadza pierwszy odtwarzacz MP3. Raport Starra zostaje opublikowany w Internecie w ciągu kilku godzin. Grupa hackerów Hacking for Girls włamuje się do sieci "New York Timesa" i blokuje ją na dziewięć godzin. Apple wprowadza komputery w cukierkowych kolorach - iMac. Coraz powszechniejszy staje się handel w Internecie. Zakupów dokonuje około 30 milionów użytkowników. Clarion i Microsoft prezentują Auto PC. Niebotycznie wzrastają ceny akcji serwisów Yahoo i Infoseek. Rozegrano pierwszy turniej ligi zawodowych graczy komputerowych.
1999 - Kolejny krok w dążeniu do maksymalnej wydajności to INTEL PENTIUM III i AMD ATHLON. Nadchodzą czasy Linuksa. AOL przejmuje Netscape'a. Microsoft zatrudnia 27 320 pracowników i osiąga zysk 14,48 miliarda dolarów. Na skutek awarii handel elektroniczny (E-Trade) zostaje wstrzymany na trzy dni z rzędu.
2000 - układ AMD K6-III; kolejny krok w dążeniu do maksymalnej wydajności to INTEL PENTIUM III i AMD ATHLON. Nadchodzą czasy Linuksa. AOL przejmuje Netscape'a. Microsoft zatrudnia 27 320 pracowników i osiąga zysk 14,48 miliarda dolarów. Na skutek awarii handel elektroniczny (E-Trade) zostaje wstrzymany na trzy dni z rzędu, Pojawia się VOODOO 3, TNT 2, GeForce 256 i VOODOO 5 5500, Windows 2000 (kontynuator lini NT flagowy system Microsoftu, Windows ME - ostatni system z linii Windows oparty na Jądrze Dosowym.
2001 - GeForce 3, Pentium III w technologii 0.13 mikrona, od 1.26 GHz. Pentium 4 powyżej 2 GHz i 400MHz FSB + i850 chipset Celerony i Athlony AMD powyżej 1 GHz, Nagrywarki DVD-ROM i DVD-RW pojawiają się na rynku.
2002 - Pentium 4 powyżej 3 GHz i 800MHz FSB Technologia 0.09 microna, notebooki z P4 powyżej 2GHz
2003 - Pentium Centrino do notebooków, szybkie procesory oszczędzające energię, z bezprzewodową łącznością w standardzie WiFi (811b), 64-bitowe procesory AMD Opteron, oraz Itanium-2 Intela do serwerów, oraz AMD Athlon64 FX and Intel's Pentium 4 Extreme Edition do PC, Pojedyncze dyski większe od 200 GB
2004 - Standard kina domowego WMV Microsoft, wymaga 3GHz, 512 MB RAM i ekranu 1920 x 1440, 64-bitowe procesory AMD i Intela do PC, Technologia 90 nanometrów w procesorach Intela 4 E i AMD.
raczej nie oto ci chodziło ale ok
Odkąd pamięć sięga ludzie próbowali automatyzować liczenie. Zatem początki informatyki teoretycznej sięgają powstania pierwszych algorytmów (czyli procedur przetwarzania informacji), zaś informatyki praktycznej powstania pierwszych urządzeń wspomagających obliczenia. Już 3000 lat p.n.e. ludy sumeryjskie wykorzystywały do obliczeń gliniane tabliczki z wyżłobionymi rowkami do których wkładano kamyki, a około 2600 p.n.e. Chińczycy skonstruowali abakus, czyli drewnianą tabliczkę podzieloną na kolumny.
Pierwszy znany algorytm wymyślił wielki grecki matematyk i filozof Euklides. Chodzi o algorytm znajdowania największego wspólnego dzielnika dwóch liczb naturalnych, znany nam doskonale z lekcji matematyki. Samo słowo algorytm pochodzi od nazwiska matematyka arabskiego, który żył wieleset lat później. Muhammad ibn Musa al-Chorezmi, stworzył kilka dzieł matematycznych, w których opisał dużą ilość reguł (dodawania, odejmowania, mnożenia i dzielenia liczb dziesiętnych).
Na początku XVII wieku John Neper (1550-1617) opublikował dzieło o algorytmach i opisał przyrząd wspomagający mnożenie za pomocą algorytmów. Przyrząd ten zwany był sztabkami Nepera. Idea działania była prosta, acz rewolucyjna. Mnożenie sprowadzono do serii dodawań. Pomysł ten jest wykorzystywany jest zresztą w dzisiejszych komputerach.
Za twórcę pierwszej mechanicznej maszyny liczącej uznaje się Wilhelma Schickarda (1592-1635).
W 1642 roku Blaise Pascal (1623-1662), buduje sumator arytmetyczny. Pascal zbudował około 50 egzemplarzy tego typu maszyn. Za ich pomocą liczono głównie pieniądze, odległości i powierzchnie. Z punktu widzenia techniki były to jeśli nie pierwsze komputery to pierwsze maszyny liczące czyli kalkulatory.
Kolejny milowy krok wykonał wielki matematyk Gottfried Wilhelm Leibniz (1646-1716), który opracował podstawysystemu dwójkowego. System ten jest obecnie podstawowym systemem do reprezentacji informacji w komputerach.
Na początku XIX wieku angielski matematyk Charles Babbage (1791-1871) konstruuje tak zwaną maszynę różnicową, do rozwiązywania określonych równań matematycznych. Babbage jest obecnie uważamy za najwybitniejszego twórcę maszyn liczących, żyjącego w epoce przedkomputerowej. Kolejnym jego dziełem jest model i próba realizacji maszyny analitycznej.
Maszyna ta składała się z magazynu (odpowiednik pamięci), młyna (odpowiednik procesora) i mechanizmu sterującego (jednostka sterująca). Pamięć służyła do przechowywania danych i wyników operacji. Młyn wykonywał proste operacje arytmetyczne. Działaniem całego urządzenia kierował programowany mechanizm sterujący. Programowania miało odbywać się za pomocą kart perforowanych. Tego typu katy używane były do sterowania krosen. Niestety nigdy nie skonstruowano kompletnej i działającej maszyny analitycznej. Jednak dzięki dokładnym opisom Ada Augusta hrabina Lovelace, opracowała pierwsze programy dla tej maszyny, stając się dzięki temu pierwszą programistką na świecie. Jej imieniem nazwano jeden z najbardziej uniwersalnych i zaawansowanych języków programowania czyli język ADA.