Definicja słowa komputer
Krótka historia PC-ta
Kalendarium
Budowa komputerów klasy IBM
Konfiguracje i ceny komputerów
 


Definicja słowa "komputer"

KOMPUTER[ang.] - elektroniczna maszyna cyfrowa, urządzenie elektron. służące do automatycznego przetwarzania informacji (danych) przedstawionych cyfrowo (tzn. za pomocą odpowiednio zakodowanych liczb). Istotną cechą odróżniającą komputer od innych urządzeń jest jego programowalność, tzn. wykonywanie konkretnych zadań (np. obliczeń) jest związane z wykonywaniem zapisanych w pamięci komputera programów. Pojęcie komputer obejmuje obecnie zarówno komputery zaprogramowane na stałe, używane jako automaty sterujące, np. w urządzeniach gospodarstwa domowego, jak i komputery uniwersalne, dające się dowolnie zaprogramować. Tradycyjnie przyjął się podział komputerów na: superkomputery, duże komputery (ang. mainframe), minikomputery i mikrokomputery; podział ten opiera się przede wszystkim na odmiennych sposobach konstruowania komputerów i biorących się stąd różnicach w ich wydajności (mocy obliczeniowej) i sposobie użytkowania: superkomputery są stosowane do szybkich obliczeń nauk., produkcji grafiki film. itp. (np. CRAY), duże komputery są gł. przeznaczone do zastosowań bankowych, finansowych i adm. na szczeblu dużego przedsiębiorstwa (np. IBM 9000/ES), minikomputery obsługują małe instytucje lub grupy użytkowników (np. VAX), mikrokomputery są zwykle przeznaczone do obsługi pojedynczego użytkownika (np. IBM PS/2, MacIntosh). Budowa. Główne części składowe komputera stanowią: procesor (obecnie w postaci układu scalonego, czyli mikroprocesor), pamięć operacyjna oraz urządzenia peryferyjne (zewnętrzne). Zadaniem procesora, zw. też czasem jednostką centralną, jest wykonywanie rozkazów i sterowanie pracą pozostałych bloków funkcjonalnych komputera; na procesor składają się gł.: układ sterowania, jednostka arytm.-log., zw. arytmometrem, oraz zespół rejestrów: rejestr rozkazów, licznik rozkazów, akumulatory i in.; procesor wykonuje kolejne cykle rozkazowe pobierając rozkazy i dane bezpośrednio z pamięci operacyjnej, składającej się z ponumerowanych (adres) komórek (przechowujących słowa bitowe). Urządzenia peryferyjne, dołączone do komputera najczęściej za pośrednictwem układów wejścia wyjścia, służą do komunikacji komputera ze światem zewn. (z użytkownikiem), np. klawiatura, monitor ekranowy, drukarka, mysz, joystick, pióro świetlne, skaner, ploter; do urządzeń peryferyjnych zalicza się też pamięci zewn., np. dyski magnetyczne i optyczne. Urządzenia peryferyjne w obecnie używanych komputerach pracują z reguły jako autonomiczne jednostki współbieżnie z procesorem. Zasada działania. Informacja w komputerze jest przedstawiona w postaci ciągu elementów ze zbioru dwuelementowego; elementy te są nazywane bitami i oznaczane symbolami 0 i 1; fizycznie są reprezentowane przez 2 różne stany elektrycznych lub magnetycznych układów komputera. Ciągi bitów o określonej długości, będącej zwykle wielokrotnością 8 (bajt), są zapisywane w komórkach pamięci bądź rejestrach komputera; ciąg taki jest zw. słowem maszynowym, a jego interpretację w danej chwili określa rodzaj wykonywanego na nim działania, np. gdy jest to działanie arytmetyczne, słowo jest traktowane jako zapis liczby (w określony dla danego komputera sposób; arytmetyka komputera); gdy jest to działanie log. słowo jest zapisem wartości log. itd. Każdy komputer ma ustalony zestaw działań, zw. listą rozkazów, z których są budowane programy. Rozkaz ma postać słowa maszynowego, składającego się z części operacyjnej (będącej zakodowanym działaniem) i części adresowej (informacja, na której to działanie ma być wykonane, lub jej adres, tzn. numer komórki pamięci zawierającej tę informację). W chwili gdy słowo znajduje się w rejestrze rozkazów, jest interpretowane jako rozkaz. Na wykonanie rozkazu składa się wiele operacji wykonywanych przez różne podzespoły komputera Operacje te tworzą tzw. cykl rozkazu jedną z nich jest wskazanie słowa, które w następnym cyklu będzie wprowadzone do rejestru rozkazów jako następny wykonywany rozkaz. Przejście do następnego cyklu następuje zaraz po zakończeniu aktualnie realizowanego w ten sposób przebiega samoczynne wykonanie sekwencji rozkazów, wymagające tylko zapoczątkowania (wprowadzenia do rejestru rozkazów pierwszego rozkazu). Program w języku wewnętrznym komputera to zatem zbiór słów, z którego wybiera on i wykonuje sekwencję rozkazów w opisany wyżej sposób (dla użytkownika program to zapis pewnego algorytmu). Opisana powyżej zasada wewnętrznego sterowania pochodzi od J. von Neumanna (1950). Oprogramowanie stanowi zespół programów wykonywanych przez komputer; określane często terminem ang. software, w połączeniu ze sprzętem komputerowym (elektron. i mech. części komputera), zw. dla przeciwieństwa hardware, tworzy system komputerowy. Do oprogramowania podstawowego zalicza się programy niezbędne do efektywnej eksploatacji komputera (ułatwiające użytkownikowi wykonywanie innych programów), zw. systemami operacyjnymi. Programy uruchamiane na danym komputerze pod danym systemem operacyjnym nazywa się programami użytkowymi bądź aplikacjami. Wśród nich specjalną rolę pełnią kompilatory, tłumaczące algorytmy zapisane w danym języku programowania na programy wykonywane przez komputer (ciągi bitów); są to programy używane gł. przez programistów. Do powszechnie używanych programów użytkowych należą: edytory tekstu, arkusze obliczeniowe, bazy danych, a także różne rodzaje gier komputerowych. Do bardziej wyspecjalizowanych należą programy do tworzenia grafiki (grafika komputerowa), a także wspomagające inżynierów i projektantów (CAD). Liczba programów wspomagających najróżniejsze rodzaje działalności ludzkiej stale rośnie, przy czym ich cena (zwł. oprogramowania tworzonego na specjalne zamówienie użytkownika) często znacznie przewyższa cenę samego sprzętu komputerowego. Rys historyczny. Do XVII w. jedynymi przyrządami ułatwiającymi liczenie były różnego rodzaju liczydła. Znaczny postęp nastąpił po odkryciu logarytmów (pałeczki Nepera, suwak logarytmiczny). W tym okresie powstały też pierwsze maszyny liczące (W. Schickard, B. Pascal, S. Morland, G.W. Leibniz), wykonujące mechanicznie operacje dodawania i odejmowania, a niektóre także mnożenia i dzielenia. Prawdziwych początków informatyki można się jednak doszukiwać dopiero w XIX w., gdy Ch. Babbage stworzył koncepcję automatycznej i uniwersalnej maszyny liczącej (projekt maszyny analitycznej, po częściowo skonstruowanej maszynie różnicowej), odpowiadającej w swej strukturze współczesnemu komputerowi: z pamięcią (magazynem) i jednostką liczącą (młynem), sterowaną programem zapisanym na kartach dziurkowanych; ok. 1800 takie karty zostały użyte przez J.M. Jacquarda do sterowania krosnem tkackim, a ok. 1890 przez H. Holleritha do automatyzacji prac przy spisie powszechnym w Stanach Zjednoczonych. Idee Babbage'a zostały zrealizowane dopiero przez matematyka amer. H. Aikena, który 1944 zbudował z przekaźników elektromechanicznych maszynę liczącą, znaną pod nazwą ASCC (ang. Automatic Sequence Controlled Calculator) lub MARK I i którą można uznać za pierwszy komputer. Era współczesnych komputerów rozpoczęła się w momencie zastosowania w nich elementów elektron. umożliwiających znaczne przyspieszenie wykonywanych działań; pierwszą całkowicie elektron. (zawierała 18 tys. lamp elektronowych) maszyną cyfrową był ENIAC (ang. Electronic Numerical Integrator And Calculator), zbud. 1946 przez amer. uczonych J. Mauchly'ego i J.P. Eckerta; ENIAC był ponad 1000 razy szybszy od MARKA I. W dalszym rozwoju komputerów rozróżnia się kilka etapów, zw. generacjami komputera: I. 1946 59, kiedy podstawowymi elementami komputera były lampy elektronowe, II. 1959 65 tranzystory, III. 1965 75 układy scalone, IV. od 1975 układy scalone wielkiej skali integracji (VLSI). Pierwszym uruchomionym w Polsce komputer był XYZ, wykonany techniką lampową, pod kierunkiem L. Łukaszewicza (1958).



Do góry
Index