Różne fakty zwiazane z historią komputera, wolałabym na dzisiaj, bo włąśnie robie prezentacje.
i jeśli da rade to poprosze również linki do zródeł, i zdjęć jak znajdziecie ciekawe
" Life is not a problem to be solved but a reality to be experienced! "
© Copyright 2013 - 2024 KUDO.TIPS - All rights reserved.
Komputer, którego znaczenie przeszło najśmielsze oczekiwania, jest podstawowym narzędziem bez którego nie wyobrażamy sobie współcześnie funkcjonującego przedsiębiorstwa, szkoły, systemu łączności. Ludzie ciągle starają ułatwić sobie życie i udoskonalają swoje wynalazki, dopisując kolejne karty w dziejach techniki.
Pierwszym wynalazkiem ułatwiającym wykonywanie prostych obliczeń było wynalezienie liczydeł przez ludy sumeryjskie ok. 3000 lat p.n.e. Była to gliniana tabliczka z wyżłobionymi rowkami, w których umieszczano kamienie. 2600 lat p.n.e. Tabliczka Sumerów została udoskonalona przez Chińczyków. Wykonano ją z drewna i podzielono na kolumny. Każda kolumna oznaczała jedną pozycję cyfrową: pierwsza jednostki, druga setki, trzecia tysiące itd.
Kolejny ważny krok w automatyzacji obliczeń nastąpił dopiero w pierwszej połowie XVII wieku, kiedy to w 1623 roku niemiecki uczony profesor Wilhelm Schickard (1592-1635) zaprojektował maszynę liczącą. Maszyna ta mogła dodawać i odejmować liczby sześciocyfrowe w dziesiętnym układzie liczenia. Za pomocą tej maszyny można było również wykonywać mnożenie i dzielenie.
W 1642 roku zaledwie dziewiętnastoletni wówczas Blaise Pascal (1623-62) wynalazł maszynę arytmetyczną o podobnych możliwościach obliczeniowych. Pascal zbudował maszynę aby pomóc swojemu ojcu, który był poborcą podatkowym. Maszynę wyprodukowano w 50 egzemplarzach.
W 1673 roku Gottfried Wilhelm Leibnitz (1646-1716), wybitny niemiecki filozof, polityk, konstruktor i matematyk (twórca rachunku różniczkowego i całkowego), skonstruował kolejną w dziejach ludzkości maszynę arytmetyczną, tak doskonałą, że po jej prezentacji w Londynie członkowie Royal Society jednomyślnie przyjęli Leibnitza do swojego grona. Leibnitz odkrył na nowo pochodzący ze starożytnych Chin system dwójkowy (zwany także binarnym) do zapisu liczb.
W historii maszyn liczących swoją kartę ma również Polak Abraham Stern (1769-1842), z zawodu zegarmistrz, wykonał serię maszyn, które poza czterema podstawowymi działaniami, wyciągały także pierwiastki kwadratowe. Maszyny te jednak posiadały zbyt delikatną budowę i nie znalazły praktycznego zastosowania.
Pierwszą maszynę liczącą sterowaną programowo wymyślił w 1833 r. Anglik Charles Babbage (1791-1871). Jego wynalazek mógł sumować liczby i drukować wyniki, obliczenia wykonywał metodą różnicową. Maszyna była jednak tak skomplikowana, że nigdy nie zdołano jej ukończyć. Zmontowaną część maszyny można oglądać w Muzeum Nauk w Londynie.
W 1835 roku Augusta Ada Byron (później Lovelace) (1815-1852), córka romantycznego poety Lorda Byrona, jako asystentka Charles'a Babbege'a, przetłumaczyła instrukcję posługiwania się maszyną oraz dodała własne komentarze umożliwiające jej zaprogramowanie. Komentarze te okazały się bardziej znaczące niż sama instrukcja, dlatego też Adę uznaje się za pierwszego w świecie programistę. Jej imieniem nazwano jeden z języków programowania.
Następnym krokiem była elektryczna maszyna analityczno-licząca skonstruowana w 1888 roku, a wyprodukowana na zlecenie rządu Stanów Zjednoczonych, służyła do opracowania wyników spisu powszechnego w 1890 roku. Jej konstruktorem był Herman Hollerith, pracownik amerykańskiego biura statystycznego. Jego maszyna zawierała karty perforowane, zaś sam sposób ich odczytywania był bardzo mozolnym przedsięwzięciem. Mimo zastosowania dość dziwnej jak na nasze czasy techniki urządzenie odniosło sukces. To właśnie Hollerith ustalił standardowy format karty perforowanej. Zdecydował on, że karta wykorzystywana w jego maszynie będzie miała wielkość ówczesnego banknotu jednodolarowego. Takie rozmiary kart perforowanych zachowały się do dziś. Zadowolony z sukcesu Hollerith założył w 1896 r. przedsiębiorstwo Tabulating Machine Company, z którego w 1924 r. powstał koncern IBM.
W roku 1937 prace rozpoczął zespół konstruktorów wyłoniony z pracowników firmy IBM i kierowany przez Hovarda Aikena. Wynikiem prac zespołu było zbudowanie pierwszego urządzenia elektromechanicznego o nazwie MARK-I. Projektanci z zespołu Aikena w dużym stopniu korzystali z pomysłów Babbage'a. MARK-I była potężną machiną (długość 17 m, wysokość 3 m). To ówczesne cudo myśli ludzkiej składało się z 760 tys. części, a jego obsługą zajmowało się dziesięciu ludzi.
W roku 1937 23-letni absolwent matematyki z Cambridge Alan M. Turing (1912-1954) opublikował artykuł na temat obliczalności w matematyce. Turing usiłował odpowiedzieć na pytanie "co można obliczyć?". Jego prace powstały na gruncie badania podstaw matematyki, a stały się podstawowymi pracami dla mającej narodzić się informatyki. Prace Turinga ukierunkowały wysiłki inżynierów. Od tego momentu wiadomo było jak powinien wyglądać komputer, co musi mieć i jak powinien liczyć.
W roku 1938 dwudziestoparoletni inżynier budownictwa Konrad Zuse, skonstruował pierwszą mechaniczną, pracującą w systemie dwójkowym maszynę liczącą Z1, a w 1941 Zuse uruchomił w Niemczech pierwszą maszynę Z3 sterowaną programem. Zawierała 2000 przekaźników, operowała na liczbach binarnych i wykonywała obliczenia zmiennoprzecinkowe. Maszyna posiadała niewiarygodną jak na ówczesne czasy pamięć: 64 komórki pamięci po 22 bity każda. Zamiast kół zębatych Zuse użył przełączników elektromechanicznych. Maszyna Z3 wykorzystywana była do obliczeń aerodynamicznych. Została całkowicie zniszczona podczas bombardowania w 1945 roku.
Pierwszy elektroniczny komputer, znany pod nazwą ENIAC (ang. Electronic Numerical Indicator And Calculator), skonstruował w latach 1942-46 zespół ludzi pod kierownictwem Johna H. Mauchly'ego i J. Prespera Eckerta na Uniwersytecie w Pensylwanii w USA. Maszyna ważyła 30 ton, zajmowała 72 m2, składała się z 18000 lamp elektronowych, 6000 komutatorów, 10000 kondensatorów, 50000 oporników i 1500 przekaźników. Wykonanie podstawowych działań zajmowało ułamki sekund (dodawania zmiennopozycyjne 0.0002 sek., a mnożenie 0.0028 sek.), pamięć mogła pomieścić 20 liczb. Mimo, iż ulegał on częstym uszkodzeniom (średnio każdą lampę należało wymieniać co dwa dni) służył dobrze użytkownikom do października 1955 roku. Jednym z mniej chlubnych zadań maszyny było wykorzystanie jej w amerykańskim programie nuklearnym, który doprowadził do zrzucenia bomb atomowych na Hiroszimę i Nagasaki.
W roku 1946 John von Neuman (1903-1957), genialny amerykański uczony węgierskiego pochodzenia (przede wszystkim matematyk, ale także chemik, fizjolog, biolog, fizyk i filozof) określił zasady, według których powinno się konstruować komputery. Zasady te wytyczyły nowy kierunek w historii komputerów i są stosowane do dnia dzisiejszego. Zasady von Neumana można zawrzeć w trzech punktach:
instrukcje i dane mają być identycznie reprezentowane w maszynie; program i dane muszą mieścić się w tej samej wewnętrznej pamięci (operacyjnej) komputera; dzięki jednakowej reprezentacji danych i instrukcji maszyna powinna móc wykonywać operacje na instrukcjach i całym programie.Taką architekturę komputera nazywano sterowaną programem. Wobec tak sformułowanej definicji komputera ENIAC i wszystkie poprzedzające go maszyny nie były komputerami.
Kolejnym projektem po ENIAC-u był komputer EDVAC (Electronic Discrete Variable Automatic Computer) skonstruowany na przełomie 1949-50 w Cambridge przez zespół von Neumana. EDVAC był pierwszą maszyną wewnętrznie programowalną, tj. spełniającą zasady programowalnej pamięci.
W 1951 roku zaprojektowano komputer pierwszej generacji - UNIVAC I (ang. UNIVersal Automatic Computer). Był pierwszym komputerem stosowanym do celów "cywilnych". Jeden z jego pierwszych egzemplarzy umieszczono w amerykańskim Biurze Spisów. Przewidziano dzięki niemu m.in. zwycięstwo D. Eisenhowera w wyborach prezydenckich w 1952 r.
W 1947 roku trzech naukowców William Shockley, Walter Brattain i John Bardeen z Bell Telephone Laboratories zaprezentowało pierwszy tranzystor, który wyparł pochłaniające energię lampy. Był to impuls, który zapoczątkował wyścig miniaturyzacji i oszczędności energii. Dzięki zastosowaniu tranzystorów powstawały konstrukcje znacznie tańsze, mniejsze, a jednocześnie szybsze. Pierwsze komercyjne egzemplarze pojawiły się w 1952. Odkrywcy tranzystora w 1956 roku zostali uhonorowani Nagrodą Nobla w dziedzinie fizyki.
Pierwszym seryjnie produkowanym komputerem był IBM 701. Maszynę tą skonstruował zespół z International Business Machines w roku 1952.
W 1957 roku opracowano pierwszy język programowania wysokiego poziomu Fortran (nazwa od FORmula TRANslator), opracowany został specjalnie dla maszyn IBM. Język ten do dziś pełni ważną rolę, zwłaszcza dla obliczeń inżynierskich.
Pierwszy układ scalony wykonał Jack Kilby z firmy Texas Instruments w 1958 roku. Układ ten zawierał pięć elementów elektronicznych.
W 1971r. firma Intel wyprodukowała pierwszy mikroprocesor - Intel 4004, 4 bitowy, wykonany w technologii 10 mikronów, zawierający 2300 tranzystorów, taktowany był zegarem 108 kHz i mógł wykonać 60 tysięcy instrukcji w ciągu jednej sekundy (0,06 MIPS)
Komputery z lat siedemdziesiątych były całkowicie zbudowane z układów scalonych. Ich pamięć stanowiły rdzenie ferrytowe. Maszyny posiadały system operacyjny umożliwiający jednoczesną realizację kilku zadań różnych użytkowników, często posiadały kilka kompilatorów języków programowania wyższego rzędu. Pamięci zewnętrzne tamtych komputerów to przede wszystkim wielkie jak szafy napędy taśmowe z półcalową taśmą magnetyczną oraz wielotalerzowe pamięci dyskowe, również wielkości sporego mebla. Podstawowym nośnikiem zewnętrznym jest tasiemka papierowa kodowana w kodzie 7-bitowym (EBCDID) oraz karta 80-kolumnowa, pochodząca jeszcze z czasów mechanicznych tabulatorów Holleritha.
Pierwszym komputerem osobistym przeznaczonym do użytku domowego (z kolorowym monitorem) był komputer Apple II (w sprzedaży od 1977r.). Został zaprojektowany przez założycieli firmy Apple Computer. Byli to Steven Jobs i Stephen G. Wozniak.
W 1981r. firma IBM wprowadziła na rynek komputer IBM PC, który wkrótce stał się standardem przemysłowym na świecie. Firma IBM udostępniła dokumentację do swojego produktu i wkrótce wiele firm podjęło produkcję komputerów określanych jako kompatybilne ze standardem IBM PC.
Polskie komputeryPierwszą polską maszyną liczącą był analogowy Analizator Równań Różniczkowych, zbudowany w 1954 roku przez prof. Leona Łukaszewicza. Maszyna zawierała ok. czterysta lamp elektronowych. Natomiast pierwsza polska maszyna cyfrowa XYZ-1 powstała cztery lata później w Zespole Aparatów Matematycznych Instytutu Matematyki w Warszawie, również pod kierunkiem prof. Leona Łukaszewicza. Architektura XYZ-1 była uproszczeniem komputera IBM 701. Maszyna ta potrafiła w ciągu jednej sekundy dodać ok. 1000 liczb, a pomnożyć ok. 350. W 1962 roku maszyna ta została udoskonalona i wyprodukowana pod nazwą ZAM-2 w około 12 egzemplarzach. Następcą tego komputera był ZAM-41 - komputer zbudowany z tranzystorów. Ta maszyna, mająca parametry porównywalne z najlepszymi maszynami świata, z powodzeniem była wykorzystywana do obliczeń naukowych i konstruktorskich. Maszynę tę można obejrzeć w Muzeum Techniki w Warszawie. Na początku lat 70. Zakłady Elwro we Wrocławiu zaczęły produkować komputery ODRA.
Pisałem to sam i trochę mnie boli ręka i mam nadzieję ,że to to...