UTK sciaga, Zarządzanie PWR, I stopień, I semestr, UTK

[ Pobierz całość w formacie PDF ]
Komputer
– maszyna (urządzenie) licząca, służąca do
przetwarzania wszelkich informacji, które da się zapisać
w formie ciągu cyfr (dyskretnej) albo sygnału ciągłego
Sygnał analogowy
– sygnał, który w danym przedziale
swojej zmienności może przyjmować nieskończoną
liczbę wartości. Sygnał analogowy jest sygnałem
ciągłym.
Sygnał cyfrowy
(dyskretny) – sygnał, który w danym
przedziale swej zmienności przyjmuje skończona liczbę
wartości.
historia komputerów (slajdy)
Abakus
pierwsze mechaniczne liczydła starożytne –
początek informatyki
Prawo Moore’a
- Podwojenie wydajności układów
scalonych odbywa się średnio co 18-24 miesięcy
System pozycyjny
– wartość cyfry zależy od jej pozycji
w liczbie. Liczby przedstawiane są jako łańcuchy cyfr
(ai)
TECHNIKA ANALOGOWA
– dziedzina elektroniki
zajmująca się wytwarzaniem, przetwarzaniem i
przesyłaniem sygnałów analogowych (ciągłych).
Ogólnie sygnał analogowy
– sygnał, w którym wartość
sygnału wyjściowego jest proporcjonalna do wartości
sygnału wejściowego.
Podstawowe funkcje realizowane przez układy
analogowe to:
- wzmacnianie sygnałów
- generowanie różnych przebiegów
- porównywanie sygnałów
- regulacja wartości sygnałów (np. stabilizacja napięcia)
Najczęściej stosowane układy analogowe to:
- wzmacniacze operacyjne
- komparatory (układy porównujące napięcia)
- stabilizatory
- przetworniki C/A i A/C
Kwantyzacja
– zamiana otrzymanych wartości
dyskretnych badanego sygnału na system binarny
Kwantyzacja
– konwersja poziomu analogowego na
najbliższy skwantowany poziom. (1111 – poziom
najwyższy, 0000 – poziom najniższy)
Ts – czas próbkowania
(zależy od częstotliwości
sygnału podlegającego konwersji)
Podsumowanie:
- pamięć jest adresowana sekwencyjnie
- pamięć komputera jest pamięcią jednowymiarową
(komórka pamięci ma adres wyrażony liczbą)
- w pamięci przechowywane są instrukcje (program)
oraz dane (nierozróżnialne)
- instrukcje wykonywane są sekwencyjnie wg wzoru:
pobranie instrukcji z pamięci (zapisanie do rejestru)
zdekodowanie instrukcji (określenie rodzaju
wykonywanej instrukcji)
pobranie operandów, (danych) z pamięci realizacja
instrukcji
zapamiętanie wyniku operacji w pamięci
Zasada Nyquista
- szybkość (częstotliwość
próbkowania) musi być przynajmniej dwa razy większa
od najwyższej częstotliwości próbkowanego sygnału.
Przykłady:
- sygnał telefoniczny - max. częstotliwość 4kHz –
próbkowanie 8kHz (125 ms)
- wieża Hi-Fi – max. częstotliwość 20kHz –
próbkowanie 40 kHz (25 ms)
- sygnał video – max. częstotliwość 6MHz –
próbkowanie 12MHz (83,3 ns)
Przetwarzanie informacji można zrealizować dwojako:
- przy pomocy specjalizowanego systemu cyfrowego,
- przy pomocy systemu mikroprocesorowego.
Podstawowe założenie architektury von Neumanna
to:
rozdział pamięci i procesora.
Architektura von Neumanna to tzw
model
„referencyjny”
, lub architektura
sekwencyjna.
Konsekwencje:
- efekt „wąskiego gardła” (bottleneck) – niska prędkość
transferu informacji między procesorem a pamięcią
(procesor musi „czekać” na dane),
- źle funkcjonujący program może zniszczyć samego
siebie, inny program lub system operacyjny.
Specjalizowany układ cyfrowy
– zestaw różnych
układów cyfrowych, które mogą realizować tylko
określony sposób przetwarzania informacji (np. tylko
dodawanie, sortowanie itd.)
System mikroprocesorowy
– system uniwersalny bo
system przetwarzania informacji (danych) jest zmienny.
Informacja wejściowa
– postać zrozumiała dla
komputera (binarna)
Informacja wyjściowa
– postać zrozumiała dla odbiorcy
(np. tekst, rysunek)
6.1 Model komputera von Neumanna
Trzy pojęcia przy opisie komputera:
- realizacja,
- architektura,
- implementacja (organizacja).
Realizacja
– określa z czego komputer jest zbudowany
(elektronika) np. rezystory, kondensatory, tranzystory,
moce wydzielane itd.
Aby złagodzić efekt „wąskiego gardła” stosuje się m.in.
nymi:
- pamięć cache między procesorem a pamięcią
operacyjną
- stosowanie tzw „branch prediction” algorytmów
Obliczenia równoległe
– jednoczesne wykonywanie tego
samego zadania przez dwa lub więcej procesorów w celu
szybszego otrzymania wyników
* Zastosowanie w pojedynczym komputerze wielu
procesorów (komputer równoległy)
* Rozproszone systemy komputerowe (architektury
wielomaszynowe – sieci komputerowe)
operacyjny
– wzmacniacz o b. dużym wzmocnieniu
(>1000V/V), bezpośrednich sprzężeniach, przeznaczony
do pracy z zewnętrznym sprzężeniem zwrotnym.
(
sprzężenie zwrotne
w niezwykle istotny sposób wpływa
na parametry wzmacniacza)
wpływ wielkości sprzężenia zwrotnego na
charakterystykę wzmacniacza - gdy R / wzmocnienie /
częstotliwość maksymalna \
Komparator napięcia
– układ porównujący napięcie wejściowe z napięciem
odniesienia.
– układ przetwarzający sygnał analogowy na cyfrowy.
Stabilizator napięcia
- układ utrzymujący stałą wartość
napięcia niezależnie od wahań napięcia wejściowego i
prądu obciążenia.
Podstawowe cechy charakterystyczne sygnału
analogowego:
- niemożliwość przechowywania różnych typów danych
na jednym rodzaju nośnika
- duża wrażliwość układów analogowych na rozrzut
parametrów elementów
- „odszumienie” sygnału analogowego bardzo trudne
- konwersja sygnału analogowego wymaga zastosowania
dodatkowych urządzeń (konwersja sprzętowa).
wzmacniacz
Podział z punktu widzenia połączeń między procesorami
oraz procesorami i pamięcią:
1.
SIMD
(Single Instruction/Multiple Data) – wszystkie
procesory jednocześnie wykonują te same instrukcje.
2.
MIMD
(Multiple Instruckion/Multiple Data) –
procesory realizują różne instrukcje
Architektura
– określa zachowanie się (efekty działania)
komputera z punktu widzenia użytkownika.
* Architektura definiuje język maszynowy
* Komputery o tej samej architekturze są kompatybilne
(ten sam język maszynowy)
Implementacja
(organizacja) – opisuje współdziałanie
bloków funkcjonalnych komputera oraz sposób
przechowywania i przepływu informacji w strukturze
komputera (schemat str. 57)
Model von Neumanna komputera
– uniwersalny model
struktury komputera (str. 58)
Podział z punktu widzenia dostępu procesorów do
pamięci:
1.
Shared memory
– cała pamięć dostępna jest dla
każdego procesora (SMP - Symmetric multiprocessing) –
układy z pamięcią współdzieloną (każdy procesor ma
jednakowy dostęp do pamięci.
2.
Distributed memory
– każdy procesor ma dostęp
tylko do fragmentu pamięci procesory są bardziej lub
mniej uprzywilejowane.
Procesor
– wykonuje elementarne operacje arytmetyczno
- logiczne (lista rozkazów)
- układ sterowania – koordynuje wszystkie operacje
komputera (np. pobiera dane z pamięci.
- arytmometr – realizuje elementarne operacje logiczne i
arytmetyczne, współpracuje z rejestrami
- rejestry – pamięć podręczna procesora. Przechowują
tymczasowe wyniki obliczeń (rejestr danych), ich
miejsca w pamięci operacyjnej (rejestry adresowe) i.t.d
Pobranie danych + operacje elementarne = cykl pracy
procesora
Z punktu widzenia liczby procesorów
1.
MMP
(massivelly parallel processor) – architektura
wieloprocesorowa (nawet do kilku tysięcy procesorów),
każdy procesor ma własna pamięć i własną kopię
systemu operacyjnego. Układy połączone są ze sobą
szybkimi łączami.
Układem cyfrowym
nazywamy układ elektroniczny,
który służy do przetwarzania sygnałów cyfrowych
(nieciągłych)
Układy cyfrowe
- działają zwykle dwustanowo (jest
napięcie na wyjściu lub go nie ma)
* Stany te odpowiadają dwu wartościom logicznym 1 lub
0
Dwie logiki:
dodatnia :
1 (stan wysoki UH) odpowiada istnieniu napięcia na
wyjściu
0 (stan niski UL) brak napięcia na wyjściu
ujemna :
1 brak napięcia
0 obecność napięcia
Zalety techniki cyfrowej:
- odporność na zakłócenia i szumy
- łatwe przetwarzanie (korekcja błędów)
_możliwość zapisu danych różnych typów na jednym
nośniku (np. tekst i grafika na dyskietce
_układy cyfrowe są mało wrażliwe na rozrzut
parametrów elementów
_łatwa konwersja sygnału (programowa)
Główna zaleta systemu binarnego
– jednoznaczność
sygnału (jest lub go nie ma)
System dziesiętny
– wymaga 10 różnych poziomów
sygnału (napięć lub prądów)
Przetwornik A/C
(ADC – Analog Digital Converter)
przetwarza sygnał Analogowy na sygnał Cyfrowy
Dwa etapy konwersji:
- próbkowanie
- kwantyzacja
Próbkowanie
– badanie wartości sygnału co pewien
określony czas
Podsumowanie:
problem ze skalowalnością (komputer z n-procesorami
powinien wykonać zadanie n razy szybciej niż komputer
z jednym procesorem) Zadanie musi być podzielone na
osobne wątki (odpowiednie oprogramowanie)- mała
szybkość transmisji danych między CPU’s a pamięcią
(szczególnie w SMP) – pomaga NUMP (Non-uniform
Memory Access) - ASMP (Asymmetric multiprocessing)
– procesory przeznaczone do wykonywania specjalnych
zadań (np. grafika 3D –rzadko stosowane)
Pamięć
– przechowuje wprowadzoną informację
(operacja zapisu), udostępnia ją na zewnątrz (operacja
odczytu). W pamięci musi być umieszczony program.
Dwa rodzaje pamięci:
- stała
ROM
(zapisana konfiguracja komputera BIOS)
- operacyjna
RAM
(zapisany system operacyjny,
program, itd.)
Układy we/wy
– zapewniają komunikację komputera ze
światem zewnętrznym (klawiatura, drukarka, monitor)
Magistrale
(szyny) – zespół łączy elektronicznych i
układów logicznych zapewniających wymianę
(transmisję) informacji między urządzeniami systemu
komputerowego.
Systematyka magistral:
A. Podział ogólny
1. Wewnętrzne (OPB – On-chip Peripherial Bus (linia
łącząca moduły wewnątrz układu scalonego)
2. Zewnętrzne (łączy różne moduły wewnątrz
komputera)
Modularna budowa komputera:
- standaryzacja elementów w oparciu o publicznie
dostępne specyfikacje,
- otwarta architektura urządzeń wejścia/wyjścia –
możliwość rozbudowy zestawu i dostosowania do
posiadanego oprogramowania
Płyta główna
- tablica obwodów drukowanych łączących wszystkie
elementy komputera wraz ze sterującymi układami
elektronicznymi i standardowymi gniazdami I/O
- ciągła wymiana informacji między elementami
umieszczonymi na płycie głównej
- płyta główna stanowi również miejsce, do którego
dołączane są urządzenia zewnętrzne
B. Z punktu widzenia funkcji w komputerze
1.
Magistrala adresowa
(przesyła adresy komórek w
których znajdują się kody danych, i rozkazów lub
identyfikatory urządzeń zewnętrznych)
2.
Magistrala sterująca
(przesyła sygnał sterujący
określający rodzaj wykonywanej operacji)
3.
Magistrala danych
(wymiana informacji miedzy
procesorem a pamięcią lub urządzeniami zewnętrznymi)
Najpowszechniej stosowany układ to
Najważniejsze urządzenia montowane na płycie głównej:
- procesor
- chipset
- magistrale - gniazda rozszerzeń
* pamięć główna (RAM i ROM)
* karta graficzna
* karta sieciowa
* modem
* karta dźwiękowa
- porty we/wy
INTEL – plany:
- Rok 2006 – Technologia 65nm (UV)
- Rok 2008 – Technologia 45nm (koniec technologii
optycznej UV)
- Rok 2010 – Technologia 32nm (technologia Extreme
UltraViolet (13,5nm); koszt urządzenia ok.. 50mln$;
potrzeba 10 maszyn; technologia próżniowa)
- Układy wielordzeniowe (optymalizacja do wybranych
zadań)
Cechy charakterystyczne komputerów drugiej generacji:
- użycie elementów półprzewodnikowych
- budowa w technice dyskretnej (z pojedynczych
elementów)
- niewielkie rozmiary (w stosunku do lamp
elektronowych)
- niewielka pobierana moc
- bardzo wrażliwe na temp.pracy (praca w
pomieszczeniach klimatyzowanych)
- duża niezawodność
- pojawienie się języków programowania wysokiego
poziomu (COBOL, Fortran)
- pamięć magnetyczna (zewnętrzna IBM1401/1402)
Procesor
Podstawowe zadania procesora:
- wykonywanie obliczeń
- przesyłanie danych
Najważniejsze parametry procesora:
1. częstotliwość zegara (taktowania)
2. długość słowa w bitach
3. wielkość pamięci cache (L1 i L2)
4. rodzaj podstawki (gniazda)
5. częstotliwość szyny FSB (magistrala łącząca procesor
z płytą główną)
6. technologia wykonania
Z technologicznego punktu widzenia procesor to układ
scalony VLSI zbudowany z b. dużej liczby tranzystorów (
Pentium IV ma 125 mln. tranzystorów, Core 2 Dou 291
mln. tranzystorów , pow. 143Mm2)
AMD - plany
- Rok 2006 – technologia 65nm (procesor
dwurdzeniowy)
- Ponad 2006r. – pamięci i procesory 45nm (litografia
immersyjna)
- Okres ok. 10 lat – struktury<30nm (litografia
nanowytłaczalna)
Komputery trzeciej generacji:
Komputery zbudowane na bazie układów scalonych
małej i średniej skali integracji
1. SSI (small scale integration) - zawierający do 100
tranzystorów
Układ scalony
– (ang. intergrated circuit, chip) (potocznie
kość), zminiaturyzowany układ elektroniczny
zawierający w swym wnętrzu od kilku do setek milionów
podstawowych elementów elektronicznych, takich jak
tranzystory, diody, rezystory, kondensatory.
2. MSI (medium ...) - układ zawiera do 100 – 1000
tranzystorów,
3. LSI (large ...) - od 1000 do 10000 tranzystorów,
4. VLSI (very large ...) - ponad 10 000 tranzystorów).
Cechy charakterystyczne komputerów trzeciej generacji:
- zbudowane z układów scalonych
- bardzo wysoki stopień niezawodności
- o wiele mniejsze rozmiary niż komputery drugiej
generacji
- powstanie pierwszych systemów operacyjnych
- powstanie pierwszych systemów wielodostępnych
- moc obliczeniowa ok. 5106 rozkazów/sek
- najbardziej znane to IBM 3600 i Odra 1305 (Elwro –
Wrocław)
Tendencje rozwojowe:
1. 100 W/cm2 graniczna gęstość mocy
- efekt miniaturyzacji
- efekt wzrostu częstotliwości taktowania procesorów
2. Nowe zadanie to zmniejszenie zapotrzebowania
chipów na prąd
3. Wzrost znaczenia przetwarzania równoległego
4. Układy wielordzeniowe (tymczasowość)
5. Materiały hybrydowe
6. Magnetyzm, spin, nanorurki
Ad.1
Częstotliwość taktowania
– liczba operacji/sek.
wykonana przez procesor. najnowsze procesory ok. 3GHz
Nanorurki
są strukturami o średnicy wewnętrznej
wynoszącej od ułamka do kilkuset nanometrów, oraz
długości rzędu nawet kilku tysięcy nanometrów
Nanorurkę można sobie wyobrazić jako jedną warstwę
grafitu zwiniętą w rulon.
Ad.2
Długość słowa
(w bitach) przetwarzana przez
procesor.
>>Każda liczba w komputerze przedstawiona jest jako
ciąg zer i jedynek np. 510 to 1012 (słowo 3-bitowe)
Max liczba 3-bitowa to 111 czyli 7.
Jak prowadzić obliczenia na liczbach >7 np. 13?
a) zastosować dwa słowa 3-bitowe
b) zastosować jedno słowo 6 -bitowe
W wypadku a wykonanie większej liczby rozkazów niż w
b (dłuższy czas operacji).
W wypadku b bardziej skomplikowany procesor
(cena!)<<
Aby w pełni wykorzystać długość słowa maszynowego
musi być odpowiednie oprogramowanie (system +
aplikacje)
Generacje rozwojowe techniki komputerowej:
1.Generacja zerowa – wszystkie maszyny liczące
zbudowane do 1944r.
2. Generacja pierwsza – okres 1945 do 1956r.
3. Generacja druga – okres 1957 do 1963r.
4. Generacja trzecia – okres 1964 do 1977r.
5. Generacja czwarta – okres 1978 do 1989r.
6. Generacja piąta – począwszy od 1990
7. Generacja szósta – trudno określić daty jeszcze
używane komputery generacji piątej
Komputery czwartej generacji:
- komputery zbudowane na układach scalonych dużej i
wielkiej skali integracji
- powstanie pierwszych mikroprocesorów
Procesor
– uniwersalny układ przetwarzający informację
(urządzenie cyfrowe sekwencyjne potrafiące pobierać
dane z pamięci, interpretować je i wykonywać jako
rozkazy. Wykonuje on bardzo szybko ciąg prostych
operacji (rozkazów) wybranych ze zbioru operacji
podstawowych określonych zazwyczaj przez producenta
procesora jako lista rozkazów procesora). Ciąg rozkazów
realizujących konkretne zadanie - program
Ad.3
Pamięć cache
– tzw. pamięć wspomagająca
(buforowa) służy do tymczasowego przechowywania
informacji.
[odczyt z pamięci ~> kopia do cache
powtórny odczyt najpierw z cache (b. szybko)]
Dwa rodzaje pamięci cache:
- pamięć wewnętrzna L1 (level 1)
- pamięć zewnętrzna L2 (level 2)
- możliwość dołączenia L 3
Pamięć cache –> pamięć bardzo szybka (np. RAM 60ns,
cache <10ns)
Generacja zerowa:
rok 2600 p.n.e abakus – liczydło (dodawanie,
odejmowanie, mnożenie)
rok 1623 zegar liczący (pierwsza w historii maszyna
licząca – Wilheim Schickard z Tybingii)
rok 1944 – maszyna matematyczna na 600 przekaźnikach
(Konrad Züsse)
rok 1945 – MARK I (ASCC – Automated Sequence
Controlled Computer); maszyna posiadała pamięć danych
i urządzenia we/wy
generacja zerowa – urządzenia i kalkulatory zbudowane
do 1944r. Urządzenia mechaniczne bądź
elektromechaniczne zbudowane na bazie przekaźników
Jednym z twórców idei mikroprocesora był Ted Hoff z
firmy Intel. Wpadł on na pomysł by zamiast projektować
12 niezależnych układów scalonych do kalkulatorów
zaprojektować jeden, który będzie w stanie pełnić funkcje
wszystkich ich razem wziętych i będzie pracować w taki
sposób jak procesor w komputerze. W firmie Intel
wyprodukowano pierwszy komercyjny mikroprocesor o
nazwie 4004 - zawierał on 2300 tranzystorów. Pierwszym
na świecie procesorem był jednak ściśle tajny "chip" F14
CADC używany w samolocie Grumman F-14 Tomcat.
Ad.4
Gniazdo procesora
– interfejs między procesorem
a płytą główną determinuje rodzaj procesora. typ gniazda
musi być zgodny z danym procesorem
- Slot
- Socket
[Obecnie stosowane podstawki to Socket 775 (Pentium
IV), Socket 939 (AMD) oraz Socket AM2 (dla
dwurdzeniowych procesorów)]
Generacja pierwsza:
rok 1945 ENIAC – pierwsza elektroniczna maszyna
zbudowana na lampach elektronowych
Budowa – 18800 lamp, 1500 przekaźników, 50000
oporników, 30 ton, moc 150 kW (ok. 100 odkurzaczy),
chłodzenie 2 silniki 24KM (maluch)
ENIAC:
- pomieszczenie 12 x 6 m
- 42 czarne szafy (3m x 60cm x 30cm)
- każda szafa wyposażona w termostat (max. temp. pracy
480C
- średni bezawaryjny czas pracy ok. 30 minut
- dane zapisane na kartach perforowanych – czytnik kart i
dziurkarka kart
- praca w systemie dziesiętnym
- operacje na 10 cyfrowych (dodatnie i ujemne)
- szybkość pracy ok. 5000 dodawań/sek.
Zastosowania wojskowe – obliczanie torów pocisków
artyleryjskich. Obliczanie 1 toru ok. 15-20 minut.
Obliczenie 1 tablicy balistycznej (uwzględniono m.
innymi wilgotność powietrza, skład chemiczny,
temperaturę i.t.p) trwało ok. 6-12 tygodni, potrzeba kilka
tysięcy tablic.
2 październik 1945r. godz. 2345 – koniec służby ENIAC
- powstają pierwsze kalkulatory, komputery osobiste,
notesy elektroniczne
- pierwszy mikrokomputer APPLE (Steve Woźniak i
Steve Jobs); posiadał klawiaturę a wyniki wyświetlane
były na ekranie TV
- najbardziej znane komputery to CRAY, VAX, IBM 300
- powstają pierwsze procesory tekstów i arkusze
kalkulacyjne (1978r.)
- wstępna wersja systemu operacyjnego MS Windows
(1982r.)
- powstają procesory 32 bitowe (1985r.)
- liczba komputerów na świecie przekracza 100 mln.
Ad.5
FSB
(Front Side Bus) – magistrala łącząca
procesor z płytą główną (dokładnie z kontrolerem
pamięci).
Częstotliwość taktowania FSB to 66 MHz., 100 MHz.,
133 MHz., 166 MHz., 200MHz. itd.. W najnowszym
procesorze Intel Core 2 Duo stosuje się 1066 MHz, a
mówi się o 1333 MHz.
Częstotliwość zegara procesora jest wielokrotnością
częstotliwości szyny FSB (np. współczynniki mnożenia
1,5; 2; 2,5;3). W niektórych modelach można ustawiać
ręcznie (zworki na płycie głównej) lub jest blokowane .
Gdy fFSB /> to szybkość przesyłu informacji />
np. fFSB = 66MHz to 8 bajtów (64 bitów) przesłane jest
z szybkością 8*66MHz = 528 MB/sek
Komputery piątej generacji:
- komputery budowane z układów scalonych wielkiej
integracji
- systemy wieloprocesorowe
- elementy sztucznej inteligencji (wykonywanie
czynności właściwych człowiekowi – komponowanie
muzyki, tłumaczenie tekstu itd.)
- moc obliczeniowa na poziomie ok. 1012 rozkazów/sek.
Generacja druga:
rok 1945 komputer TRADIC (TRansistorized Airborne
DIgital Computer)
pierwszy komputer zbudowany na elementach
półprzewodnikowych (diodach, tranzystorach)
Komputery szóstej generacji:
- nowe architektury komputerów
- komputery kwantowe (5 atomów działających razem
jako procesor i pamięć)
- neurokomputery
- biokomputery
- komp. zbudowane z wykorzystaniem łańcuchów DNA
[ Pobierz całość w formacie PDF ]

  • zanotowane.pl
  • doc.pisz.pl
  • pdf.pisz.pl
  • emaginacja.xlx.pl
  •