informatyka łazarski.doc

(303 KB) Pobierz
1

1.      Podstawowe pojęcia

·       Komputer - urządzenie elektroniczne przetwarzające dane według instrukcji zawartych w programach

·       Informatyka - wiedza o komputerach obejmująca:

-        zasady budowy (hardware)

-        zasady działania

-        sposoby wytwarzania

-        oprogramowanie (software)

-        obszary zastosowań

2.      Rozwój techniki komputerowej

·       1830 r. Charles Babbege - projekt komputera (1 dod. – 27 tys. obr.)

·       1941 r. Konrad Zuse - pierwszy komputer!

·       1944 r. Uniwersytet Harvard - komputer Mark I (3 dod./sek)

·       1947 r. William B. Shockley - wynalazek tranzystora!!!

·       1955 r. Bell Laboratory - komputer Tradic (1300 dod/sek)

·       1958 r. Jack Kilby z Texas Instr. - pierwszy układ scalony!

·       firmy IBM, DEC - pierwsze minikomputery (160 000 dod./sek)

·       1969 r. Ted Hoff z firmy Intel - pierwszy mikroprocesor!

·       1974 r. Les Solman prototyp mikrokomputera - ALTAIR

·       1977 r. Stephen Wozniak i Steven Jobs - pierwszy mikrokomputer - Apple

·       1981 r. IBM/Microsoft - pierwszy Personal Computer

Rozwój układów scalonych

·       SSI (Small Scale Integration) - lata 50-te ~100 tranzystorów

·       MSI (Middle Scale Integration) - lata 60-te ~1000 tranzystorów

·       LSI (Large Scale Integration) - lata 70-te ~10 000 tranzystorów

·       VLSI (Very Large Scale Integration) - lata 80-te ~100 000 tranzystorów

·       obecnie dziesiątki milionów tranzystorów

3.      Zastosowanie komputerów

·       obliczenia numeryczne

·       przetwarzanie danych:

·       wspomaganie funkcjonowania przedsiębiorstw

·       bazy danych

·       przesyłanie informacji

·       sterowanie procesów

·       wspomaganie pracy twórczej

·       modele symulacyjne

4.      Programowanie

Program to ciąg instrukcji (poleceń, rozkazów) do wykonania przez procesor dla rozwiązania określonego zadania przy ustalonych danych.

·    program źródłowy - tekst napisany przez programistę według opracowanego algorytmu (schematu działań)
w wybranym języku programowania, np. C++, C#, Java, Object Pascal, Ruby, Python

·    program wykonywalny - przetłumaczony przez kompilator do postaci binarnej (dwójkowej)
i zapisany w pliku *.exe /.com do wykonania przez procesor

5.      Zapis komputerowy

jest oparty na binarnym systemie zapisu liczb ze względu na to, że:

·       do zapisu dwóch cyfr - bitów (binary digit): 1 i 0 wystarczą dwa fizycznie rozróżnialne stany

·       binarna arytmetyka jest niezwykle prosta

·    łatwa realizacja układów elektronicznych – proste, miniaturowe, tanie, odporne na zakłócenia,
łatwe w obsłudze


Systemy zapisu liczb

·       System dziesiętny zapisu liczby, np.               107 = 1 · 10+  0 · 10+  7 · 100

·       System dwójkowy (binarny) zapisu liczby, np.               107 " 1101011

              = 1·26               + 1·25               + 0·24               + 1·23               + 0·2              + 1·21               + 1·20
              = 1·64              + 1·32              + 0·16              + 1· 8              + 0· 4               + 1··2               +  1·1

Najmniejsza jednostka zapisu informacji: bit (b)

Podstawowa jednostka zapisu informacji: bajt (B) - ciąg 8 bitów

Podstawowa jednostka transmisji informacji: słowo (word) – krotność bajta

Jednostki określające wielkość pamięci komputerowych:

1 KB = 210 B = 1024 B

1 MB = 220 B = 1024 KB

1 GB = 230 B = 1024 MB
1 TB = 240 B = 1024 GB

Kodowanie liczb – zamiana zapisu dziesiętnego liczb na binarny

·       liczby całkowite nieujemne

- jedno-bajtowe:              0 . . 255              (00000000 ..11111111)

- dwu-bajtowe:              0 . . 65 535

·       liczby całkowite ze znakiem

- jedno-bajtowe:              -128 . . +127              (10000000 ..01111111)

- dwu-bajtowe:              -32 768 . . +32 767

- cztero-bajtowe:               -2 147 483 648 . . +2 147 483 647

·       liczby rzeczywiste – notacja zmiennoprzecinkowa   L= m·pw (zapis mantysy i wykładnika potęgi)

              np. 231,5=0,2315*103              0,00456=0,456*10-2

-  cztero- lub sześcio-bajtowe:              0 i ±1,4*10-45  . .  ±3,4*10+38               (mantysa 7 lub 11 cyfr)

- ośmio-bajtowe:               0 i ±4,9*10-324 . .  ±1,8*10+308              (mantysa 15 cyfr)

Kodowanie znaków (podwójne)

1.    ponumerowanie wszystkich znaków, czyli przypisanie każdemu znakowi liczby całkowitej

2.    kodowanie binarne dziesiętnego numeru znaku

Najpopularniejsze standardy kodowania:

·       ...

Zgłoś jeśli naruszono regulamin