otwarty
Zamknąć

Kiedy wynaleziono pierwszy komputer? Kto wynalazł komputer? Kto w 1941 roku stworzył pierwszy komputer

Współczesne dzieci i studenci nie wyobrażają sobie życia bez technologii komputerowej: asystenci elektroniczni natychmiast znajdą niezbędne informacje do eseju lub pracy semestralnej, pomogą Ci się zrelaksować i dobrze bawić grając w nową grę oraz natychmiast połączyć Cię z przyjaciółmi z dowolnego miejsca na świecie.


Ale jeszcze 15-20 lat temu komputery były używane głównie przez profesjonalistów do wykonywania różnych obliczeń, a komputery pół wieku temu zajmowały całe ogromne hale. Czy wiesz, kto wynalazł pierwszy komputer i w którym roku to się stało? Odpowiedź na to pytanie nie jest tak prosta, jak się wydaje na pierwszy rzut oka.

Komputery XVII wieku

Słowo "komputer" nie jest bynajmniej wynalazkiem obecnej epoki. Pierwsze „komputery” pojawiły się na początku XVII wieku – jednak w tamtych czasach wcale nie nazywano tego komputerami. W Anglii słowo to oznaczało ludzi, którzy umieli dobrze liczyć i za opłatą wykonywali dla każdego skomplikowane obliczenia. Przecież w dokładnym tłumaczeniu z angielskiego "wyliczyć, określić, skalkulować" oznacza "liczyć" , A "komputer" odpowiednio - "kalkulator" .

Ale już wtedy wiele osób dobrze znających matematykę urzekło marzenie o stworzeniu specjalnego urządzenia, które mogłoby wykonywać różne obliczenia, oszczędzając czas projektantów, księgowych i innych specjalistów, których obowiązki obejmowały pracę z liczbami. Pierwszą tego typu próbą, która utrwaliła się w historii, była „Pascalina” – urządzenie mechaniczne wynalezione przez słynnego francuskiego fizyka i matematyka Blaise’a Pascala.

Naukowiec stworzył kilkanaście maszyn liczących, a najnowsze modele mogły obsługiwać liczby 8-cyfrowe, co na tamte czasy było więcej niż wystarczające.

Babbage i jego kalkulator

Najczęściej mówiąc o pierwszym komputerze, ludzie pamiętają komputer Anglika Charlesa Babbage'a. Już w 1822 roku opracował i opublikował koncepcję swojego kalkulatora, a jego maszyna potrafiła nie tylko wykonywać prymitywne operacje arytmetyczne, ale samodzielnie wykonywać całe bloki kolejnych obliczeń, tj. był programowalny.

W 1837 roku Babbage skonstruował pierwszą maszynę do obliczeń według uproszczonego schematu: wykonała kilka kolejnych operacji i wydrukowała wyniki na kartce papieru, co samo w sobie było w tamtych czasach niesamowitą ciekawostką.


Po osiągnięciu pierwszych sukcesów Babbage zaczął budować pełnoprawny komputer. Według jego projektu składał się on z urządzenia licząco-logiczno-arytmetycznego, bloku do przechowywania wyników pośrednich i urządzenia sterującego. Najbardziej zaskakujące jest to, że wszystkie te jednostki musiały działać wyłącznie na zasadzie mechanicznej, ponieważ nie istniały jeszcze elementy elektryczne, a tym bardziej elektroniczne.

Niestety Babbage nie miał wystarczających środków na dokończenie swojego kalkulatora i wkrótce naukowiec zachorował i zmarł, pozostawiając pracę niedokończoną. Jednak dokonane przez niego odkrycia teoretyczne pomogły kolejnym pokoleniom naukowców w stworzeniu prawdziwego komputera.

Turing i Zuse - kto jest właścicielem palmy?

W XX wieku zadanie stworzenia komputera stało się więcej niż pilne: industrializacja, która postępowała na całym świecie, wymagała wykonywania wielu skomplikowanych obliczeń w różnych obszarach gospodarki. W Wielkiej Brytanii już w 1936 roku powstał komputer, który stał się prototypem wszystkich kolejnych generacji komputerów. Jej twórcą był matematyk Alan Turing, który jednocześnie położył podwaliny informatyki i programowania, stając się założycielem całego drzewa informatyki. Komputer Turinga nazwano ACE (Automatic Computing Engine).

Niemal równocześnie, w latach 1936-38, niemiecki wynalazca Konrad Zuse stworzył urządzenie o podobnej konstrukcji i zasadach w nim zawartych. Jego komputer, który stosował kodowanie binarne, nazywał się Z3, a kilka lat wcześniej zmontowano nieco prostsze Z1 i Z2. Podobnie jak maszyna Turinga, aparat Zuse był w zasadzie elektromechaniczny. Obydwa pojazdy były następnie aktywnie wykorzystywane do obliczeń wojskowych: jak pamiętamy, do Europy zbliżała się wówczas największa wojna w historii ludzkości.

Trzeba powiedzieć, że Turinga w znacznie większym stopniu niż Zuse można uznać za autora pierwszego komputera. Był genialnym teoretykiem i opracował stworzenie komputerów, które zostały wdrożone w przyszłości. Jego pomysły dotyczące przechowywania programów komputerowych w pamięci maszyny, kodera mowy głosowej i innych utalentowanych rozwiązań zostały następnie wcielone w nowoczesne komputery.

Amerykański ENIAC

Komputer działający na podzespołach elektronicznych powstał w USA w 1946 roku. To się nazywało ENIAKElektroniczny integrator numeryczny i komputer , pracował na elektronicznych lampach próżniowych i ważył prawie 50 ton.


Do jego stworzenia użyto 18 000 lamp, a zużycie energii osiągnęło 140 kW. Twórcami ENIACA byli J.P. Eckerta i J. Mauchly’ego. W swojej architekturze i funkcjach stał się pierwszym komputerem we współczesnym znaczeniu tego słowa.

Kiedy pojawiły się pierwsze komputery? Odpowiedź na to pytanie nie jest łatwa, gdyż nie ma jednej prawidłowej klasyfikacji komputerów elektronicznych, a także sformułowań tego, co można do nich zaliczyć, a czego nie.

Pierwsza wzmianka

Słowo „komputer” zostało po raz pierwszy udokumentowane w 1613 roku i oznaczało osobę wykonującą obliczenia. Ale w XIX wieku ludzie zdali sobie sprawę, że maszyna nigdy nie męczy się pracą i może wykonywać pracę znacznie szybciej i dokładniej.

Do obliczenia ery maszyn liczących najczęściej przyjmuje się rok 1822. Pierwszy komputer został wynaleziony przez angielskiego matematyka Charlesa Babbage’a. Stworzył koncepcję i rozpoczął produkcję silnika różnicowego, który jest uważany za pierwsze automatyczne urządzenie liczące. Potrafiła policzyć wiele zestawów liczb i wydrukować wyniki. Niestety, z powodu problemów finansowych Babbage'owi nigdy nie udało się ukończyć pełnej wersji.

Matematyk nie poddał się jednak i w 1837 roku wprowadził pierwszy komputer mechaniczny, zwany silnikiem analitycznym. Był to pierwszy komputer ogólnego przeznaczenia. W tym samym czasie rozpoczęła się jego współpraca z Adą Lovelace. Tłumaczyła i uzupełniała jego dzieła, a także stworzyła pierwsze programy dla jego wynalazku.

Silnik Analityczny składał się z następujących części: jednostki arytmetyczno-logicznej, zintegrowanej jednostki pamięci oraz urządzenia monitorującego przepływ danych. Ze względu na trudności finansowe nie została ona również ukończona za życia naukowca. Ale projekty i projekty Babbage'a pomogły innym naukowcom, którzy stworzyli pierwsze komputery.

Prawie 100 lat później

Co dziwne, w ciągu stulecia komputery nie poczyniły prawie żadnych postępów w rozwoju. W latach 1936-1938 niemiecki naukowiec Konrad Zuse stworzył Z1, pierwszy elektromechaniczny programowalny komputer binarny. Następnie w 1936 roku Alan Turing zbudował maszynę Turinga.

Stało się to podstawą dalszych teorii na temat komputerów. Maszyna emulowała działania osoby wykonującej listę logicznych instrukcji i drukowała wynik pracy na papierowej taśmie. Maszyny Zuse i Turinga to pierwsze komputery we współczesnym znaczeniu, bez których komputery, do których jesteśmy dziś przyzwyczajeni, nie pojawiłyby się.

Wszystko na przód

II wojna światowa wpłynęła także na rozwój komputerów. W grudniu 1943 roku firma Tommy Flowers Company wprowadziła tajną maszynę o nazwie Kollos, która pomogła brytyjskim agentom złamać niemieckie kody wiadomości. Był to pierwszy w pełni elektryczny programowalny komputer. Opinia publiczna dowiedziała się o jego istnieniu dopiero w latach 70-tych. Od tego czasu komputery wzbudziły zainteresowanie nie tylko naukowców, ale także ministerstw obrony narodowej, które aktywnie wspierały i finansowały ich rozwój.

Trwa debata na temat tego, który komputer cyfrowy należy uznać za pierwszy. W latach 1937-1942 profesor Uniwersytetu Iowa John Vincent Atanasoff i doktorant Cliff Berry opracowali swój komputer ABC. A w latach 1943-1946 J. Presper Eckert i D. Mauchly, naukowcy z Uniwersytetu w Pensylwanii, zbudowali najpotężniejszy ENIAC o wadze 50 ton. W ten sposób Atanasov i Berry stworzyli swoją maszynę wcześniej, ale ponieważ nigdy nie była ona w pełni funkcjonalna, tytuł „pierwszego komputera” często trafia do ENIAC.

Pierwsze komercyjne próbki

Komputery, ze względu na ich ogromne wymiary i złożoność konstrukcyjną, były dostępne jedynie dla wydziałów wojskowych i dużych uniwersytetów, które samodzielnie je montowały. Ale już w 1942 r. K. Zuse rozpoczął pracę nad czwartą wersją swojego pomysłu - Z4, a w lipcu 1950 r. sprzedał ją szwedzkiemu matematykowi Eduardowi Stiefelowi.

A pierwszymi komputerami, które zaczęto produkować masowo, były modele o lakonicznej nazwie 701, wyprodukowane przez IBM 7 kwietnia 1953 roku. Łącznie sprzedano ich 19 701 sztuk. Oczywiście nadal były to maszyny przeznaczone wyłącznie dla dużych instytucji. Aby stały się naprawdę powszechne, potrzebowały jeszcze kilku istotnych ulepszeń.

Tak więc w 1955 r., 8 marca, uruchomiono „Trąbę powietrzną” - komputer, który pierwotnie powstał podczas II wojny światowej jako symulator dla pilotów, ale do czasu jego stworzenia przybył na czas na początek Zimna wojna. Następnie stał się podstawą do opracowania SAGE, podsystemu obrony powietrznej zaprojektowanego do automatycznego namierzania samolotów przechwytujących. Kluczowymi cechami Whirlwinda była obecność 512 bajtów pamięci RAM i wyświetlanie informacji graficznych na ekranie w czasie rzeczywistym.

Technologia dla mas

Komputer TX-O, wprowadzony na rynek w 1956 roku na MIT, był pierwszym, w którym zastosowano tranzystory. Umożliwiło to znaczne zmniejszenie kosztów i wymiarów sprzętu.

Zespół naukowców, który opracował TX-O, opuścił instytut, założył Digital Equipment Corporation i wprowadził komputer PDP-1 w 1960 roku, zapoczątkowując erę minikomputerów. Nie były większe niż jedno pomieszczenie czy nawet garderoba i były przeznaczone dla szerszego grona klientów.

Otóż ​​pierwsze komputery stacjonarne zaczęły być produkowane przez firmę Hewlett Packard w 1968 roku.

Dziś nie sposób sobie wyobrazić codziennego życia bez komputera, spełnia on wiele niezbędnych człowiekowi funkcji, takich jak: wyszukiwanie informacji, obliczanie czegoś, tworzenie różnego rodzaju programów itp.

Początkowo komputer był maszyną liczącą, która także musiała badać i przechowywać informacje, jednocześnie wydając polecenia innym mechanizmom. W tłumaczeniu z języka angielskiego słowo „komputer” oznacza obliczanie; pierwsze znaczenie tego słowa nadało nazwę osobie zajmującej się skomplikowanymi obliczeniami.

Pierwszy komputer

Pierwszy komputer został stworzony w USA przez Howarda Aixna w 1941 roku. Firma IBM zlecił Howardowi stworzenie modelu komputerowego opartego na pomysłach Charlesa Babbage'a. 7 sierpnia 1944 roku po raz pierwszy uruchomiono komputer, który otrzymał nazwę „Mark 1”.

„Marek 1” składał się ze szkła i stali, korpus miał około 7 metrów długości, wysokość 2,5 metra, a waga przekraczała 5 ton. Pierwszy komputer miał 765 tysięcy mechanizmów i przełączniki, 800 kilometrów drutu.

Aby wprowadzić informacje, specjalny perforowana taśma wykonane z papieru.

Tak wygładzono „Mark 1”:

Drugą wersją pierwszego komputera na świecie był „ENIAC”. Twórcą tego urządzenia jest John Mauchley. Komputer stworzony w 1942 roku nikogo nie zainteresował, ale w 1943 roku wojsko amerykańskie sfinansowało ten projekt i przekazało mu imię „ENIAC”. Urządzenie tego typu wyglądało tak: ważyło 27 ton, pamięć wynosiła 4 kilobajty, znajdowało się w nim 18 000 lamp i innych części, jego powierzchnia wynosiła 135 metrów kwadratowych, a wokół niego znajdowała się duża liczba przewodów. Maszyna ta nie posiadała dysku twardego, dlatego była regularnie uruchamiana ponownie, programowana ręcznie i wymagała aktualizacji przełączników. „ENIAC” często zawodził i przegrzewał się.

Tak wyglądał ENIAC:

Cyfrowe urządzenie obliczeniowe Atanasov-Berry zostało zaprojektowane w 1939 roku, wówczas mechanizm tworzono tylko dla obliczenia równań liniowych. W 1942 roku maszyna została po raz pierwszy przetestowana i działała pomyślnie. Deweloper musiał przestać działać z powodu poboru do wojska. Autor nalegał, aby komputer nazywał się „ABC”.

Mechanizm działał w oparciu o arytmetykę binarną, metodą rozwiązania była metoda Gaussa. Wewnętrzna pamięć zapisane współczynniki równań, wyniki były na kartach dziurkowanych.

„ABC” miało 30 identycznych mechanizmów arytmetycznych, każdy z szeregiem połączonych ze sobą lamp próżniowych. Każdy mechanizm miał trzy wejścia i dwa wyjścia. Urządzenie zmieniało numery za pomocą obracającego się bębna i tutaj podłączano styki. Do odwracalnego działania maszyna zrobiła wszystko na odwrót.

Ta wersja komputera założycielskiego była bliższy do nowoczesnych komputerów PC. Urządzenie Atanasova-Berry'ego mogło również obliczać arytmetykę binarną i przerzutniki, z tą tylko różnicą, że mechanizm ten nie miał specjalnego programu do przechowywania.

Urządzenie Johna Atanasova i Clifforda Berry'ego początkowo nie było popularne, niewiele osób wiedziało o stworzeniu tego mechanizmu. Dlatego zdobył mistrzostwo„ENIAK”. Po przestudiowaniu urządzenia ENIAC Atanasow był coraz bardziej przekonany, że wiele jego pomysłów zostało zapożyczonych od tej firmy. Autor postanowił bronić swoich praw już w latach 60. XX wieku. Po rozstrzygnięciu sprawy przed sądem w 1973 roku ustalono, że podstawowym „komputerem” jest ABC.

Pierwsze komputery w Rosji

Za pierwszy komputer w ZSRR uważa się MESM (Small Electronic Computing Machine). Twórcą tego komputera jest Siergiej Aleksiejewicz Lebiediew. Prace nad MESM rozpoczęły się późnym latem 1948 roku. W 1951 roku maszyna została przetestowana i następnie rozpoczęła prace nad udoskonaleniem różnych gałęzi przemysłu.

Maszyna była binarnym systemem liczącym ze stałym punktem przed najbardziej znaczącą cyfrą, pamięć systemu składała się z komórek wyzwalających przeznaczonych na 31 liczb i 63 rozkazy, mogła wykonywać 3 tysiące operacji na minutę, w środku znajdowało się 6 tysięcy lamp elektronicznych. łącznie objętość mechanizmu wynosiła 60 metrów kwadratowych, moc 25 kW.

„Wiosna” (komputer elektroniczny), produkcja rozpoczęła się w 1959 roku, twórca tej maszyny uznał V.S. Paulina. W 1978 roku nazwę samochodu zmieniono na Instytut Badawczy Kvant. Został po raz pierwszy przetestowany i zaczął działać w 1951 roku. Mechanizm miał dwa procesory, mógł wykonać 300 tysięcy operacji na minutę, miał 80 tysięcy tranzystorów, 200 diod.

Historia komputerów

Pierwsza generacja można uznać za komputery stworzone przy użyciu lamp próżniowych (1946-1956). Podstawowym był Mark 1, wydany przez IBM w 1952 roku. Niektóre z pierwszych komputerów powstały w USA do celów wojskowych. Początkowy mechanizm radziecki został wynaleziony w 1951 roku przez Lebiediewa pod nazwą MESM.

Drugie pokolenie(1956-1964) nastąpiło wraz z wynalezieniem tranzystora w 1948 r. Nowoczesną organizację komputerów zaproponował i wdrożył John Von Neumann, po czym podobne urządzenia zapełniły cały świat. Dopiero później, nieco później, zdecydowano się na wymianę lamp elektrycznych na tranzystory. Rozpoczęło się korzystanie z systemów operacyjnych. Również w 1959 roku IBM wypuścił swój mechanizm oparty na tranzystorach.

Trzecia generacja(1964-1970) charakteryzuje się zastąpieniem tranzystorów mikroukładami integracyjnymi. Kreacja była zbliżona do dzisiejszego komputera PC układ scalony Marchian Edward Hoffa z Intela. Kiedy pojawił się pierwszy mikroprocesor wzrosła moc komputera, zmniejszyła się objętość mechanizmów, zajmują mniej miejsca, w jednym systemie powstaje kilka programów.

Czwarta generacja odnosi się do chwili obecnej. Pierwszy komputer Apple został stworzony w 1976 roku przez Steve'a Woźniaka i Steve'a Jobsa, co wymagało ręcznego kodowania. Pierwszy komputer w historii, który wyglądem przypominał dzisiejszy pecet, składał się z klawiatury i ekranu, jego objętość była stosunkowo niewielka. Po wprowadzeniu jakichkolwiek danych, informacja natychmiast pojawiała się na ekranie.

Komputery czwartej generacji wyglądają jak wieloprocesorowe, małe serwery, które mogą wykonywać 500 milionów operacji na minutę, a programy mogą działać na wielu urządzeniach.

Pierwsze gry na komputerze

Przełomowa gra komputerowa powstała w 1940 roku. „Nimatron” to pierwszy elektroniczny automat do gier sztafetowych. Maszynę stworzył Edward Condon. Gra przeznaczona jest dla dwóch graczy, z których jeden jest systemem, trzeba zgasić lampy, wygrywa ten, który zgaśnie ostatni.

Gra Nimatron

Druga gra z rzędu, „Rocket Simulator”, była kineskop, który jest najbliższy obecnym grom. Gra została stworzona w 1947 roku przez Thomasa Goldsmitha i Astle Raya Manna. Pomysł jest taki, że trzeba trafić w cel, aby „pocisk” eksplodował.

Jak działa komputer, klasyfikacja komputerów

Pierwszy komputer zawierał: mikroprocesor, urządzenie wejściowe, urządzenie pamięci o dostępie swobodnym, urządzenie pamięci tylko do odczytu i urządzenie wyjściowe.

Pierwsze komputery były używane jako Urządzenie pamięci oraz do obliczania różnego rodzaju obliczeń. Początkowo mechanizm ten interesował się niewiele osób, gdyż uznawano go za bardzo drogi: zużywał dużo energii, zajmował czasami dużo miejsca, a do obsługi maszyny wymagało więcej niż jednej, a nawet kilkunastu osób.

Klasyfikacja według celu:

Komputery typu mainframe– służą do rozwiązywania problemów związanych z produkcją, a czasami są wykorzystywane do celów wojskowych.

Małe maszyny elektroniczne– opierające się na rozwiązywaniu różnorodnych problemów lokalnych, najczęściej stosowane na uczelniach.

Mikrokomputery– używany od lat 90-tych, do celów naukowych, studyjnych i życia codziennego.

Komputery osobiste Przeznaczony do użytku codziennego, do pracy, dostępu do Internetu i innych funkcji.

W rzeczywistości komputer można klasyfikować bardziej elastycznie według innych parametrów lub typów. Podana przez nas klasyfikacja jest tylko jedną z możliwych. Na zdjęciu widać bardziej rozwiniętą wersję klasyfikacji.

Jednym z pierwszych urządzeń (V-IV wieki p.n.e.), od którego można uznać, że rozpoczęła się historia rozwoju komputerów, była specjalna tablica, zwana później „liczą”. Obliczenia na nim przeprowadzono poprzez przesuwanie kości lub kamieni we wnękach desek wykonanych z brązu, kamienia, kości słoniowej i tym podobnych. W Grecji liczydło istniało już w V wieku. Pne Japończycy nazywali go „serobayan”, Chińczycy nazywali go „suanpan”. Na starożytnej Rusi do liczenia używano urządzenia przypominającego liczydło – „liczenia desek”. W XVII wieku urządzenie to przybrało formę zwykłego rosyjskiego liczydła.

Liczydło (V-IV wiek p.n.e.)

Francuski matematyk i filozof Blaise Pascal stworzył pierwszą maszynę w 1642 roku, która na cześć swojego twórcy otrzymała nazwę Pascalina. Urządzenie mechaniczne w postaci skrzynki z wieloma zębatkami oprócz tego wykonywało także odejmowanie. Dane wprowadzano do maszyny poprzez obracanie pokręteł odpowiadających cyfrom od 0 do 9. Odpowiedź pojawiała się na górze metalowej obudowy.


Pascalina

W 1673 roku Gottfried Wilhelm Leibniz stworzył mechaniczne urządzenie liczące (kalkulator Leibniza - kalkulator Leibniza), które po raz pierwszy nie tylko dodawało i odejmowało, ale także mnożyło, dzieliło i obliczało pierwiastek kwadratowy. Następnie koło Leibniza stało się prototypem przyrządów do obliczania masy – maszyn sumujących.


Model kalkulatora kroków Leibniza

Angielski matematyk Charles Babbage opracował urządzenie, które nie tylko wykonywało operacje arytmetyczne, ale także natychmiast drukowało wyniki. W 1832 roku z dwóch tysięcy mosiężnych części zbudowano dziesięciokrotnie mniejszy model, który ważył trzy tony, ale potrafił wykonywać operacje arytmetyczne z dokładnością do szóstego miejsca po przecinku i obliczać pochodne drugiego rzędu. Komputer ten stał się prototypem prawdziwych komputerów, nazwano go maszyną różnicową.

Maszyna różnicowa

Urządzenie sumujące z ciągłą transmisją dziesiątek stworzył rosyjski matematyk i mechanik Pafnuty Lwowicz Czebyszew. Urządzenie to umożliwia automatyzację wszystkich operacji arytmetycznych. W 1881 roku powstała przystawka do maszyny sumującej służącej do mnożenia i dzielenia. Zasada ciągłego przesyłania dziesiątek jest szeroko stosowana w różnych licznikach i komputerach.


Aparat sumujący Czebyszewa

Zautomatyzowane przetwarzanie danych pojawiło się pod koniec ubiegłego wieku w USA. Herman Hollerith stworzył urządzenie – Tabulator Hollerith – w którym informacje wydrukowane na kartach dziurkowanych były odszyfrowywane za pomocą prądu elektrycznego.

Tabulator Holleritha

W 1936 roku młody naukowiec z Cambridge, Alan Turing, wymyślił maszynę liczącą, która istniała tylko na papierze. Jego „inteligentna maszyna” działała według określonego algorytmu. W zależności od algorytmu wyimaginowaną maszynę można wykorzystać do różnych celów. Jednak w tamtym czasie były to rozważania czysto teoretyczne i schematy, które posłużyły za prototyp programowalnego komputera, jako urządzenia obliczeniowego przetwarzającego dane zgodnie z określoną sekwencją poleceń.

Rewolucje informacyjne w historii

W historii rozwoju cywilizacji miało miejsce kilka rewolucji informacyjnych – przemian społecznych public relations na skutek zmian w obszarze przetwarzania, przechowywania i przekazywania informacji.

Pierwszy Rewolucja wiąże się z wynalezieniem pisma, co doprowadziło do gigantycznego skoku jakościowego i ilościowego w cywilizacji. Istnieje możliwość przekazywania wiedzy z pokolenia na pokolenie.

Drugi(połowa XVI w.) rewolucję spowodował wynalezienie druku, który radykalnie zmienił społeczeństwo przemysłowe, kulturę i organizację działalności.

Trzeci(koniec XIX w.) rewolucja wraz z odkryciami w dziedzinie elektryczności, dzięki której pojawił się telegraf, telefon, radio i urządzenia umożliwiające szybkie przesyłanie i gromadzenie informacji w dowolnej objętości.

Czwarty(od lat siedemdziesiątych XX wieku) rewolucja związana jest z wynalezieniem technologii mikroprocesorowej i pojawieniem się komputera osobistego. Komputery i systemy transmisji danych (komunikacji informacyjnej) tworzone są przy użyciu mikroprocesorów i układów scalonych.

Okres ten charakteryzuje się trzema podstawowymi innowacjami:

  • przejście z mechanicznych i elektrycznych środków konwersji informacji na elektroniczne;
  • miniaturyzacja wszystkich komponentów, urządzeń, instrumentów, maszyn;
  • tworzenie urządzeń i procesów sterowanych programowo.

Historia rozwoju technologii komputerowej

Potrzeba przechowywania, przetwarzania i przesyłania informacji pojawiła się u człowieka znacznie wcześniej niż powstanie aparatu telegraficznego, pierwszej centrali telefonicznej i komputera elektronicznego (komputera). W rzeczywistości całe doświadczenie, cała wiedza zgromadzona przez ludzkość w taki czy inny sposób przyczyniła się do pojawienia się technologii komputerowej. Historia powstania komputerów - ogólna nazwa maszyn elektronicznych do wykonywania obliczeń - zaczyna się daleko w przeszłości i wiąże się z rozwojem niemal wszystkich aspektów życia i działalności człowieka. Odkąd istnieje cywilizacja ludzka, od dawna stosowana jest pewna automatyzacja obliczeń.

Historia rozwoju technologii komputerowej sięga około pięćdziesięciu lat. W tym czasie zmieniło się kilka generacji komputerów. Każda kolejna generacja wyróżniała się nowymi elementami (lampy elektronowe, tranzystory, układy scalone), których technologia produkcji była zasadniczo inna. Obecnie istnieje ogólnie przyjęta klasyfikacja generacji komputerów:

  • Pierwsza generacja (1946 - początek lat 50-tych). Podstawą elementu są lampy elektronowe. Komputery wyróżniały się dużymi wymiarami, dużym zużyciem energii, małą szybkością, niską niezawodnością i programowaniem w kodach.
  • Drugie pokolenie (koniec lat 50. – początek 60.). Podstawa elementu - półprzewodnik. Prawie wszystkie parametry techniczne uległy poprawie w porównaniu do komputerów poprzedniej generacji. Do programowania wykorzystywane są języki algorytmiczne.
  • Trzecia generacja (koniec lat 60. – koniec lat 70.). Baza elementowa - układy scalone, montaż wielowarstwowych obwodów drukowanych. Gwałtowne zmniejszenie rozmiaru komputerów, zwiększenie ich niezawodności, zwiększenie produktywności. Dostęp ze zdalnych terminali.
  • Czwarta generacja (od połowy lat 70. do końca lat 80.). Podstawą elementów są mikroprocesory, duże układy scalone. Poprawiono parametry techniczne. Masowa produkcja komputerów osobistych. Kierunki rozwoju: potężne wieloprocesorowe systemy obliczeniowe o dużej wydajności, tworzenie tanich mikrokomputerów.
  • Piąte pokolenie (od połowy lat 80-tych). Rozpoczął się rozwój inteligentnych komputerów, ale nie zakończył się on jeszcze sukcesem. Wprowadzenie do wszystkich dziedzin sieci komputerowych i ich integracji, wykorzystanie rozproszonego przetwarzania danych, powszechne wykorzystanie komputerowych technologii informatycznych.

Wraz ze zmianą generacji komputerów zmieniał się także charakter ich wykorzystania. Jeśli początkowo były tworzone i wykorzystywane głównie do rozwiązywania problemów obliczeniowych, to później zakres ich zastosowania rozszerzył się. Obejmuje to przetwarzanie informacji, automatyzację kontroli produkcji, procesów technologicznych i naukowych i wiele więcej.

Zasady działania komputerów Konrad Zuse

Pomysł możliwości zbudowania automatycznego aparatu liczącego przyszedł do głowy niemieckiemu inżynierowi Konradowi Zuse i w 1934 roku Zuse sformułował podstawowe zasady, na jakich powinny działać przyszłe komputery:

  • binarny system liczbowy;
  • korzystanie z urządzeń działających na zasadzie „tak/nie” (logiczne 1/0);
  • w pełni zautomatyzowany proces komputerowy;
  • oprogramowanie sterujące procesem obliczeniowym;
  • obsługa arytmetyki zmiennoprzecinkowej;
  • przy użyciu pamięci o dużej pojemności.

Zuse jako pierwszy na świecie ustalił, że przetwarzanie danych rozpoczyna się od bitu (bit nazwał „statusem tak/nie”, a formuły algebry binarnej – zdaniami warunkowymi), jako pierwszy wprowadził termin „słowo maszynowe” ( Word), jako pierwszy połączył działanie kalkulatorów arytmetycznych i logicznych, zauważając, że „podstawową operacją komputera jest sprawdzanie równości dwóch liczb binarnych. Wynikiem będzie również liczba binarna z dwiema wartościami (równą, nierówną).”

Pierwsza generacja - komputery z lampami próżniowymi

Colossus I to pierwszy komputer lampowy, stworzony przez Brytyjczyków w 1943 roku w celu rozszyfrowania niemieckich szyfrów wojskowych; składał się z 1800 lamp próżniowych – urządzeń do przechowywania informacji – i był jednym z pierwszych programowalnych elektronicznych komputerów cyfrowych.

ENIAC - został stworzony do obliczania tablic balistycznych artylerii; komputer ten ważył 30 ton, zajmował powierzchnię 1000 stóp kwadratowych i zużywał 130–140 kW energii elektrycznej. Komputer zawierał 17 468 lamp próżniowych szesnastu typów, 7200 diod kryształowych i 4100 elementów magnetycznych, które umieszczono w szafach o łącznej objętości około 100 m3. ENIAC miał wydajność 5000 operacji na sekundę. Całkowity koszt maszyny wyniósł 750 000 dolarów, zużycie energii elektrycznej wyniosło 174 kW, a całkowita zajmowana powierzchnia 300 m2.


ENIAC - urządzenie do obliczania tablic balistycznych artylerii

Kolejnym przedstawicielem komputerów I generacji, na który warto zwrócić uwagę, jest EDVAC (Electronic Discrete Variable Computer). EDVAC jest interesujący, ponieważ próbował elektronicznie nagrywać programy w tak zwanych „ultradźwiękowych liniach opóźniających” przy użyciu lamp rtęciowych. W 126 takich liniach można było zapisać 1024 linie czterocyfrowych liczb binarnych. To było „szybkie” wspomnienie. Jako pamięć „wolna” miała zapisywać cyfry i polecenia na drucie magnetycznym, jednak metoda ta okazała się zawodna i konieczny był powrót do taśm dalekopisowych. EDVAC był szybszy niż jego poprzednik, dodając 1 µs i dzieląc w 3 µs. Zawierało zaledwie 3,5 tys. lamp elektronicznych i zajmowało 13 m 2 powierzchni.

UNIVAC (Uniwersalny Komputer Automatyczny) był urządzeniem elektronicznym, w którym przechowywane były programy, które wprowadzano tam nie z kart dziurkowanych, lecz za pomocą taśmy magnetycznej; zapewniło to dużą prędkość odczytu i zapisu informacji, a co za tym idzie, wyższą wydajność maszyny jako całości. Jedna taśma może zawierać milion znaków zapisanych w formie binarnej. Taśmy mogły przechowywać zarówno programy, jak i dane pośrednie.


Przedstawiciele komputerów pierwszej generacji: 1) Elektroniczny komputer o zmiennej dyskretnej; 2) Uniwersalny komputer automatyczny

Druga generacja to komputer z tranzystorami.

Tranzystory zastąpiły lampy próżniowe na początku lat 60-tych. Tranzystory (które działają jak przełączniki elektryczne) zużywają mniej energii i wytwarzają mniej ciepła i zajmują mniej miejsca. Połączenie kilku obwodów tranzystorowych na jednej płytce tworzy układ scalony (chip, dosłownie płytka). Tranzystory to liczniki liczb binarnych. Części te rejestrują dwa stany - obecność prądu i brak prądu, i w ten sposób przetwarzają prezentowane im informacje w dokładnie tej formie binarnej.

W 1953 roku William Shockley wynalazł tranzystor złączowy p-n. Tranzystor zastępuje lampę próżniową, a jednocześnie pracuje z większą prędkością, wytwarza bardzo mało ciepła i prawie nie zużywa prądu. Równolegle z procesem wymiany lamp elektronicznych na tranzystory udoskonalono metody przechowywania informacji: jako urządzenia pamięci zaczęto stosować rdzenie magnetyczne i bębny magnetyczne, a już w latach 60. powszechne stało się przechowywanie informacji na dyskach.

Jeden z pierwszych komputerów tranzystorowych, Atlas Guidance Computer, został wystrzelony w 1957 roku i służył do sterowania wystrzeleniem rakiety Atlas.

Stworzony w 1957 roku RAMAC był niedrogim komputerem z modułową pamięcią zewnętrzną, będącą kombinacją rdzenia magnetycznego i pamięci o dostępie swobodnym bębna. I choć komputer ten nie był jeszcze całkowicie tranzystorowy, wyróżniał się wysoką wydajnością i łatwością konserwacji i cieszył się dużym zainteresowaniem na rynku automatyki biurowej. Dlatego dla klientów korporacyjnych pilnie wypuszczono „duży” RAMAC (IBM-305); aby pomieścić 5 MB danych, system RAMAC potrzebował 50 dysków o średnicy 24 cali. Stworzony na bazie tego modelu system informatyczny bezbłędnie przetwarzał tablice zapytań w 10 językach.

W 1959 roku IBM stworzył swój pierwszy, całkowicie tranzystorowy, duży komputer typu mainframe, model 7090, zdolny wykonać 229 000 operacji na sekundę — prawdziwy tranzystorowy komputer typu mainframe. W 1964 roku amerykańskie linie lotnicze SABRE, bazujące na dwóch komputerach mainframe 7090, po raz pierwszy zastosowały zautomatyzowany system sprzedaży i rezerwacji biletów lotniczych w 65 miastach na całym świecie.

W 1960 roku firma DEC wprowadziła na rynek pierwszy na świecie minikomputer, PDP-1 (Programmed Data Processor), komputer z monitorem i klawiaturą, który stał się jednym z najbardziej zauważalnych zjawisk na rynku. Komputer ten był w stanie wykonać 100 000 operacji na sekundę. Sama maszyna zajmowała tylko 1,5 m 2 na podłodze. PDP-1 stał się w rzeczywistości pierwszą na świecie platformą do gier dzięki studentowi MIT Steve'owi Russellowi, który napisał dla niego zabawkę komputerową Star War!


Przedstawiciele drugiej generacji komputerów: 1) RAMAC; 2) PDP-1

W 1968 roku firma Digital uruchomiła pierwszą seryjną produkcję minikomputerów - był to PDP-8: ich cena wynosiła około 10 000 dolarów, a model był wielkości lodówki. Ten konkretny model PDP-8 mógł kupić laboratoria, uniwersytety i małe firmy.

Komputery domowe tamtych czasów można scharakteryzować następująco: pod względem rozwiązań architektonicznych, obwodów i funkcjonalności odpowiadały swoim czasom, ale ich możliwości były ograniczone ze względu na niedoskonałość bazy produkcyjnej i elementarnej. Największą popularnością cieszyły się maszyny z serii BESM. Produkcja seryjna, dość nieznaczna, rozpoczęła się wraz z wypuszczeniem komputera Ural-2 (1958), BESM-2, Mińsk-1 i Ural-3 (wszystkie - 1959). W 1960 roku do produkcji weszły serie M-20 i Ural-4. Maksymalna wydajność na koniec 1960 r. wynosiła „M-20” (4500 lamp, 35 tysięcy diod półprzewodnikowych, pamięć z 4096 ogniwami) - 20 tysięcy operacji na sekundę. Pierwsze komputery oparte na elementach półprzewodnikowych („Razdan-2”, „Mińsk-2”, „M-220” i „Dniepr”) znajdowały się jeszcze w fazie rozwoju.

Trzecia generacja - małe komputery oparte na układach scalonych

W latach 50. i 60. montaż sprzętu elektronicznego był pracochłonnym procesem, który był spowalniany przez rosnącą złożoność obwodów elektronicznych. Na przykład komputer typu CD1604 (1960, Control Data Corp.) zawierał około 100 tysięcy diod i 25 tysięcy tranzystorów.

W 1959 roku Amerykanie Jack St. Clair Kilby (Texas Instruments) i Robert N. Noyce (Fairchild Semiconductor) niezależnie wynaleźli układ scalony (IC) – zbiór tysięcy tranzystorów umieszczonych na pojedynczym chipie krzemowym wewnątrz mikroukładu.

Produkcja komputerów wykorzystujących układy scalone (nazwano je później mikroukładami) była znacznie tańsza niż przy użyciu tranzystorów. Dzięki temu wiele organizacji mogło zakupić i użytkować takie maszyny. A to z kolei doprowadziło do wzrostu zapotrzebowania na komputery ogólnego przeznaczenia, przeznaczone do rozwiązywania różnych problemów. W ciągu tych lat produkcja komputerów nabrała skali przemysłowej.

W tym samym czasie pojawiła się pamięć półprzewodnikowa, która do dziś jest stosowana w komputerach osobistych.


Przedstawiciel trzeciej generacji komputerów - ES-1022

Czwarta generacja - komputery osobiste oparte na procesorach

Prekursorami IBM PC były Apple II, Radio Shack TRS-80, Atari 400 i 800, Commodore 64 i Commodore PET.

Narodziny komputerów osobistych (PC) słusznie kojarzą się z procesorami Intel. Korporacja powstała w połowie czerwca 1968 roku. Od tego czasu Intel wyrósł na największego na świecie producenta mikroprocesorów, zatrudniającego ponad 64 tysiące pracowników. Celem Intela było stworzenie pamięci półprzewodnikowej i aby przetrwać, firma zaczęła przyjmować zamówienia od stron trzecich na rozwój urządzeń półprzewodnikowych.

W 1971 roku Intel otrzymał zamówienie na opracowanie zestawu 12 chipów do programowalnych mikrokalkulatorów, ale inżynierowie Intela uznali stworzenie 12 wyspecjalizowanych chipów za kłopotliwe i nieefektywne. Problem zmniejszenia zasięgu mikroukładów rozwiązano tworząc „parę” pamięci półprzewodnikowej i elementu wykonawczego zdolnego do działania według zapisanych w niej poleceń. Był to przełom w filozofii informatyki: uniwersalna jednostka logiczna w postaci 4-bitowej jednostki centralnej, i4004, zwanej później pierwszym mikroprocesorem. Był to zestaw 4 chipów, w tym jeden chip sterowany poleceniami przechowywanymi w wewnętrznej pamięci półprzewodnika.

W ramach rozwoju komercyjnego mikrokomputer (jak wówczas nazywano chip) pojawił się na rynku 11 listopada 1971 roku pod nazwą 4004: 4 bit, zawierający 2300 tranzystorów, taktowany częstotliwością 60 kHz, kosztował 200 dolarów.W 1972 roku Intel wypuścił ośmiobitowy mikroprocesor 8008, a w 1974 r. - jego udoskonalona wersja Intel-8080, która pod koniec lat 70. stała się standardem w branży mikrokomputerów. Już w 1973 roku we Francji pojawił się pierwszy komputer oparty na procesorze 8080, Micral. Z różnych powodów procesor ten nie odniósł sukcesu w Ameryce (w Związku Radzieckim był przez długi czas kopiowany i produkowany pod nazwą 580VM80). W tym samym czasie grupa inżynierów opuściła Intela i założyła firmę Zilog. Jej najbardziej znanym produktem jest Z80, który ma rozszerzony zestaw instrukcji 8080 i który zapewnił jej komercyjny sukces w sprzęcie gospodarstwa domowego, radzi sobie z pojedynczym napięciem zasilania 5 V. W szczególności na jego podstawie stworzono komputer ZX-Spectrum (czasami nazywany imieniem jego twórcy - Sinclaira), który praktycznie stał się prototypem domowego komputera PC z połowy lat 80-tych. W 1981 roku Intel wypuścił 16-bitowe procesory 8086 i 8088 - analogi 8086, z wyjątkiem zewnętrznej 8-bitowej magistrali danych (wówczas wszystkie urządzenia peryferyjne były jeszcze 8-bitowe).

Konkurent Intela, komputer Apple II wyróżniał się tym, że nie był urządzeniem w pełni gotowym i pozostawiał pewną swobodę w zakresie modyfikacji bezpośrednio przez użytkownika - istniała możliwość montażu dodatkowych kart interfejsów, kart pamięci itp. właśnie ta cecha, którą później zaczęto nazywać „otwartą architekturą”, stała się jego główną zaletą. Do sukcesu Apple II przyczyniły się jeszcze dwie innowacje opracowane w 1978 roku. Niedrogi dyskietek i pierwszy komercyjny program obliczeniowy, arkusz kalkulacyjny VisiCalc.

Komputer Altair-8800, zbudowany na procesorze Intel-8080, był bardzo popularny w latach 70-tych. Choć możliwości Altaira były dość ograniczone – RAM wynosił zaledwie 4 KB, brakowało klawiatury i ekranu, jego pojawienie się przyjęto z wielkim entuzjazmem. Wprowadzono ją na rynek w 1975 roku i już w pierwszych miesiącach sprzedano kilka tysięcy kompletów maszyny.


Przedstawiciele komputerów IV generacji: a) Micral; b) Jabłko II

Komputer ten, opracowany przez MITS, był sprzedawany drogą pocztową jako zestaw części do samodzielnego montażu. Cały zestaw montażowy kosztował 397 dolarów, a sam procesor Intela za 360 dolarów.

Upowszechnienie się komputerów PC pod koniec lat 70. doprowadziło do nieznacznego spadku zapotrzebowania na duże komputery i minikomputery - w 1979 r. IBM wypuścił komputer IBM PC oparty na procesorze 8088. Oprogramowanie istniejące na początku lat 80. skupiało się na przetwarzaniu tekstu i proste stoły elektroniczne, a sam pomysł, że „mikrokomputer” może stać się znanym i niezbędnym urządzeniem w pracy i w domu, wydawał się niesamowity.

12 sierpnia 1981 roku IBM wprowadził na rynek komputer osobisty (PC), który w połączeniu z oprogramowaniem firmy Microsoft stał się standardem dla całej floty komputerów PC współczesnego świata. Cena modelu IBM PC z wyświetlaczem monochromatycznym wynosiła około 3000 dolarów, a z wyświetlaczem kolorowym – 6000 dolarów. Konfiguracja IBM PC: procesor Intel 8088 o częstotliwości 4,77 MHz i 29 tys. tranzystorów, 64 KB pamięci RAM, 1 stacja dyskietek o pojemności 160 KB i wbudowany głośnik. W tym czasie uruchamianie i praca z aplikacjami była naprawdę uciążliwa: z powodu braku dysku twardego trzeba było ciągle zmieniać dyskietki, nie było „myszy”, nie było graficznego interfejsu użytkownika okna, nie było dokładnej zgodności między obrazem na ekranie i wynik końcowy (WYSIWYG ). Grafika kolorowa była niezwykle prymitywna, nie było mowy o animacji trójwymiarowej czy obróbce zdjęć, ale historia rozwoju komputerów osobistych rozpoczęła się od tego modelu.

W 1984 roku IBM wprowadził dwa kolejne nowe produkty. Najpierw wypuszczono model dla użytkowników domowych, nazwany PCjr, oparty na procesorze 8088, który został wyposażony w być może pierwszą bezprzewodową klawiaturę, jednak model ten nie odniósł sukcesu na rynku.

Drugą nowością jest IBM PC AT. Najważniejsza cecha: przejście na mikroprocesory wyższego poziomu (80286 z koprocesorem cyfrowym 80287) przy zachowaniu kompatybilności z poprzednimi modelami. Komputer ten na wiele lat okazał się wyznacznikiem standardów pod wieloma względami: jako pierwszy wprowadził 16-bitową magistralę rozszerzeń (która pozostaje standardem do dziś) oraz karty graficzne EGA o rozdzielczości 640x350 i 16-bitowa głębia kolorów.

W 1984 roku wypuszczono pierwsze komputery Macintosh z interfejsem graficznym, myszą i wieloma innymi atrybutami interfejsu użytkownika, które są niezbędne w nowoczesnych komputerach stacjonarnych. Nowy interfejs nie pozostawił użytkowników obojętnym, jednak rewolucyjny komputer nie był kompatybilny z wcześniejszymi programami lub komponentami sprzętowymi. A w ówczesnych korporacjach WordPerfect i Lotus 1-2-3 stały się już normalnymi narzędziami pracy. Użytkownicy przyzwyczaili się już i dostosowali do interfejsu znakowego DOS. Z ich punktu widzenia Macintosh wyglądał nawet niepoważnie.

Piąta generacja komputerów (od 1985 r. do chwili obecnej)

Cechy charakterystyczne generacji V:

  1. Nowe technologie produkcji.
  2. Odrzucenie tradycyjnych języków programowania takich jak Cobol i Fortran na rzecz języków o zwiększonych możliwościach manipulacji symbolami i elementami programowania logicznego (Prolog i Lisp).
  3. Nacisk na nowe architektury (np. architektura przepływu danych).
  4. Nowe, przyjazne dla użytkownika metody wprowadzania/wyprowadzania danych (np. rozpoznawanie mowy i obrazu, synteza mowy, przetwarzanie komunikatów w języku naturalnym)
  5. Sztuczna inteligencja (czyli automatyzacja procesów rozwiązywania problemów, wyciągania wniosków, manipulowania wiedzą)

To właśnie na przełomie lat 80. i 90. powstał sojusz Windows-Intel. Kiedy Intel wypuścił na rynek mikroprocesor 486 na początku 1989 roku, producenci komputerów nie czekali, aż IBM lub Compaq wyjdą na prowadzenie. Rozpoczął się wyścig, do którego zgłosiło się kilkadziesiąt firm. Ale wszystkie nowe komputery były do ​​siebie niezwykle podobne - łączyła je kompatybilność z systemem Windows i procesorami Intel.

W 1989 roku wypuszczono procesor i486. Miał wbudowany koprocesor matematyczny, potok i wbudowaną pamięć podręczną L1.

Kierunki rozwoju komputerów

Neurokomputery można zaliczyć do szóstej generacji komputerów. Pomimo tego, że rzeczywiste wykorzystanie sieci neuronowych rozpoczęło się stosunkowo niedawno, neuroinformatyka jako dziedzina naukowa wkracza obecnie w siódmą dekadę, a pierwszy neurokomputer powstał w 1958 roku. Twórcą samochodu był Frank Rosenblatt, który nadał swojemu pomysłowi imię Mark I.

Teoria sieci neuronowych została po raz pierwszy zarysowana w pracy McCullocha i Pittsa w 1943 r.: za pomocą prostej sieci neuronowej można zrealizować dowolną funkcję arytmetyczną lub logiczną. Zainteresowanie neuroinformatyką wzrosło ponownie na początku lat 80. XX wieku i zostało podsycone nowymi pracami z perceptronami wielowarstwowymi i obliczeniami równoległymi.

Neurokomputery to komputery osobiste składające się z wielu prostych elementów obliczeniowych, zwanych neuronami, pracujących równolegle. Neurony tworzą tak zwane sieci neuronowe. Wysoką wydajność neurokomputerów osiąga się właśnie dzięki ogromnej liczbie neuronów. Neurokomputery zbudowane są na zasadzie biologicznej: układ nerwowy człowieka składa się z pojedynczych komórek - neuronów, których liczba w mózgu sięga 10 12, mimo że czas reakcji neuronu wynosi 3 ms. Każdy neuron pełni dość proste funkcje, ale ponieważ jest połączony średnio z 1–10 tysiącami innych neuronów, taka grupa skutecznie zapewnia funkcjonowanie ludzkiego mózgu.

Przedstawiciel VI generacji komputerów – Mark I

W komputerach optoelektronicznych nośnikiem informacji jest strumień świetlny. Sygnały elektryczne są konwertowane na optyczny i odwrotnie. Promieniowanie optyczne jako nośnik informacji ma szereg potencjalnych zalet w porównaniu z sygnałami elektrycznymi:

  • Przepływy światła, w przeciwieństwie do przepływów elektrycznych, mogą się ze sobą przecinać;
  • Strumienie światła można lokalizować w kierunku poprzecznym wymiarów nanometrowych i przepuszczać przez wolną przestrzeń;
  • Interakcja strumieni świetlnych z mediami nieliniowymi jest rozproszona po całym środowisku, co daje nowy stopień swobody w organizowaniu komunikacji i tworzeniu architektur równoległych.

Obecnie trwają prace nad stworzeniem komputerów składających się wyłącznie z urządzeń do optycznego przetwarzania informacji. Dziś ten kierunek jest najciekawszy.

Komputer optyczny charakteryzuje się niespotykaną dotąd wydajnością i zupełnie inną architekturą niż komputer elektroniczny: w 1 cyklu zegara trwającym mniej niż 1 nanosekundę (odpowiada to częstotliwości zegara większej niż 1000 MHz) komputer optyczny jest w stanie przetworzyć tablicę danych o długości około 1 nanosekundy. megabajt lub więcej. Do chwili obecnej zostały już stworzone i zoptymalizowane poszczególne podzespoły komputerów optycznych.

Komputer optyczny wielkości laptopa może dać użytkownikowi możliwość umieszczenia w nim niemal wszystkich informacji o świecie, a komputer będzie w stanie rozwiązać problemy o dowolnej złożoności.

Komputery biologiczne to zwykłe komputery PC, oparte wyłącznie na przetwarzaniu DNA. Prawdziwie demonstracyjnych prac w tej dziedzinie jest tak mało, że nie ma potrzeby mówić o znaczących wynikach.

Komputery molekularne to komputery PC, których zasada działania opiera się na wykorzystaniu zmian właściwości cząsteczek podczas procesu fotosyntezy. W procesie fotosyntezy cząsteczka przyjmuje różne stany, dlatego też każdemu stanowi można przypisać jedynie określone wartości logiczne, czyli „0” lub „1”. Korzystając z określonych cząsteczek, naukowcy ustalili, że ich fotocykl składa się tylko z dwóch stanów, które można „przełączyć” poprzez zmianę równowagi kwasowo-zasadowej środowiska. To ostatnie można bardzo łatwo wykonać za pomocą sygnału elektrycznego. Nowoczesne technologie umożliwiają już tworzenie całych łańcuchów cząsteczek zorganizowanych w ten sposób. Jest zatem bardzo prawdopodobne, że komputery molekularne czekają na nas „tuż za rogiem”.

Historia rozwoju komputerów jeszcze się nie skończyła, oprócz ulepszania starych, opracowywane są zupełnie nowe technologie. Przykładem tego są komputery kwantowe – urządzenia działające w oparciu o mechanikę kwantową. Pełnowymiarowy komputer kwantowy jest urządzeniem hipotetycznym, którego możliwość zbudowania wiąże się z poważnym rozwojem teorii kwantowej w zakresie wielu cząstek i skomplikowanymi eksperymentami; praca ta leży w czołówce współczesnej fizyki. Eksperymentalne komputery kwantowe już istnieją; elementy komputerów kwantowych można wykorzystać do zwiększenia wydajności obliczeń na istniejącym oprzyrządowaniu.

Dziś trudno sobie wyobrazić, aby chociaż w jednym domu nie było komputera lub laptopa. , że w ogóle przestali pamiętać, a nawet nie wiedzieli, gdzie zaczęła się historia tych urządzeń. Aby dowiedzieć się, kto wynalazł pierwszy komputer, musisz wyjaśnić, o jakim urządzeniu mówimy. Przecież za komputer uważano także proste maszyny liczące, a wynalezienie elektronicznej wersji tego urządzenia nastąpiło nieco później. Spróbujmy dowiedzieć się, kto wynalazł pierwszy komputer i kiedy to się stało?

Kto stworzył pierwszy komputer: pierwsze maszyny liczące starożytności

Jeśli oprzemy się na faktach historycznych, możemy powiedzieć, że pierwsze urządzenie komputerowe istniało trzy tysiące lat przed naszą erą. Mędrcy starożytnego Babilonu wymyślili pewne urządzenie komputerowe, które było dość pojemne i bardzo niewygodne w użyciu. Potem zainteresowali się tą problematyką w okresie średniowiecza, jednak nikt nie był w stanie w pełni zrealizować ich pomysłów. Stało się tak, ponieważ ludzie żyjący w tych czasach zachowywali się w następujący sposób:

  • bali się wszystkiego, co nowe i nieznane, a pomysły naukowców wydawały im się czymś zabawnym, a nawet przerażającym;
  • wierzyli, że to nie mogło się wydarzyć naprawdę i że te maszyny zagrażają ich rodzinie;
  • nie chcieli wspierać utalentowanych wynalazców tylko dlatego, że musieliby poświęcić swoje oszczędności, aby wcielić pomysł naukowca w życie.

DO potem wymyślił pierwszy komputer: język Pascal

Czas mijał, zmieniały się pokolenia, a wraz z nimi nowy światopogląd.

W w połowie XVII wieku Pascal wynalazł pierwszy komputer- komputer cyfrowy i tu postęp chwilowo się zatrzymał. Tradycyjnie uważa się, że wymyślony przez niego system binarny położył podwaliny pod programowanie i stał się pionierem technologii. Jednak nie jest to do końca prawdą.

Po wysiłkach Pascala wszyscy na chwilę zapomnieli o technologii komputerowej. Ale już w XX wieku temat ten ponownie zainteresował naukowców i włożono ogromne wysiłki, aby zapewnić rozpoczęcie postępu w dziedzinie wysokich technologii.

Kto stworzyłpierwszy komputer?

Kwestia stworzenia „sztucznej inteligencji” stała się w Europie pilna. Tematem tym szczególnie interesowali się wojskowi. Już w 1941 roku pojawił się próbny zaprogramowany komputer Z1. Następnie pojawiła się wygodniejsza modyfikacja - Z3. Stały się prototypami nowoczesnej technologii. Najnowszy model został zmontowany przez firmę Condor Zuse. W 1942 roku słynny amerykański fizyk John Atanasov i jego młody student Clifford Berry rozpoczęli instalację pierwszego na świecie komputera elektronicznego. Nazywał się wówczas ENIAK.

Doskonale zmontowali pierwszy komputer elektroniczny, ale kto wymyślił pierwszy komputer, a raczej jego faktyczny projekt?

Twórca pomysłu i wynalazca pierwszego na świecie komputera elektronicznego został słynnym amerykańskim inżynierem i fizykiem Johnem Mauchlym. To jedyna poprawna odpowiedź na pytanie, kto wynalazł pierwszy komputer elektroniczny. Ale ludzie nie mogli korzystać z tego urządzenia przez długi czas, ponieważ:

  • pierwszy komputer elektroniczny był ogromny, a jego prawidłowe umiejscowienie wymagało przestrzeni równej powierzchni trzech mieszkań;
  • praca z takim gigantem była niewygodna i bardzo trudna;
  • waga urządzenia wynosiła 28 ton, czyli tysiące razy więcej niż waga nowoczesnego komputera;
  • Produkcja takich urządzeń technicznych była bardzo nieopłacalna, co zmusiło ich do całkowitego porzucenia.

Ale nauka nie stoi w miejscu, a postęp idzie do przodu, a teraz pojawił się pierwszy komputer osobisty.

Wynalezienie komputera osobistego to wydarzenie, które zmieniło świat

Po udanej próbie stworzenia komputera elektronicznego inni naukowcy postanowili powtórzyć, a nawet przewyższyć sukces swojego kolegi Johna Mauchly'ego i pracowali nad wynalezieniem komputera osobistego. Takie komputery osobiste jeszcze do niedawna były w domach każdego człowieka, pojawiły się w 1970 roku. A wszystko zaczęło się od prostych komputerów.

Do urządzenia dodano nowe funkcje, które następnie zaczęto wykorzystywać w rozwoju laptopów, tabletów, telefonów komórkowych i smartfonów. I tak minęło niecałe sto lat, odkąd z pierwszego komputera elektronicznego wyłonił się cały przemysł techniczny.

Era komputerów rozpoczęła się od jednego bardzo prostego, ale interesującego wynalazku. I chociaż większość ludzkości nie jest już zainteresowana tym, kto wynalazł pierwszy komputer i jak się pojawił, ludzie zajmujący się produkcją tego rodzaju nowoczesnych technologii zawsze będą pamiętać imię Johna Moccleya. To właśnie ta osoba dała dobry impuls, zebrała w zespół utalentowane osoby i sprawiła, że ​​uwierzyły w swój projekt. Kto wie, gdyby nie jego wynalazki, być może wszystkie pomysły pozostałyby na poziomie prostych, niezrealizowanych planów. Dzięki temu wynalazkowi świat stał się prostszy i...

Pierwszy komputer: wideo