podst. inform. 30.09.06r..doc

(45 KB) Pobierz
PODSTAWY INFORMATYKI

30.09.2006

Dr J.Deniszczyk

PODSTAWY INFORMATYKI

 

Starsza definicja informatyki:

Informatyka zajmuje się przetwarzaniem informacji, ich przechowywaniem, przekazywaniem, interpretowaniem. Wyróżnia się w niej dwa działy: dotyczący sprzętu i  oprogramowania. Jest to nauka ścisła.

 

Nowsza definicja:

Informatyka to systematyczne badanie procesów algorytmicznych, które charakteryzują i przetwarzają informacje.

Podstawowym pytaniem informatyki jest: co możemy korzystniej i efektywniej zaprogramować.

 

ALGORYTM- sposób rozwiązania zadania w skończonej liczbie kroków wraz z kolejnością ich wykonywania.

 

PROGRAM- algorytm zapisany w języku programowania.

 

Wynik początkowy               0

Składnik początkowy              1

 

1= 0+1                                                                      = 0

2= 1+1                                                                      0= 1

3= 1+2                                                                      = + 0

6= 3+3                                                                      0= 2

10= 6+4                                                        = +0

15= 10+5                                                        0= 3

                                                                      = +0 …………

 

N= 5

I= 1

W= 0

------------ > jeżeli I ≤N

Wn= W+I                           

} NIEà W

I= I+1

 

 

 

Tworzenie sieci działań

START

I≤N

 

     ↓              NIE







N= 5              TAK                            WYNIK

     ↓             

I= 1

     ↓              0



W= 0

     ↓

W= W+I

     ↓

…………

 

Program: PASCAL ( Delphi)

 

War

Begin

Read (N);

I= 1;

W= 0;

Repeat

W: = W+I

I:= I+1

Until I>N

Write (W)

End

 

CZYM ZAJMUJE SIĘ INFORMATYKA ??

 

ALGORYTMIKA- fundament informatyki, wiedza o sposobach rozwiązywania zagadnień czyli konstruowanie algorytmów

 

ZADANIE ALGORYTMOWE- zadanie dla którego znamy sposób rozwiązania

 

ALGORYTMY EFEKTYWNE- czyli takie które dają rozwiązanie przed końcem świata

 

ZŁOŻONOŚĆ OBLICZANIA ALGORYTMÓW- ocena ile trzeba będzie wykonać obliczeń

 

TESTOWANIE I DOWODZENIE- poprawność algorytmów

 

ALGORYTMY HEURYSTYCZNE-  metody bez gwarancji na znalezienie rozwiązania ( sztuczna inteligencja)

 

TEORIA JĘZYKÓW PROGRAMOWANIA- specyfikacje, procesory automaty skończone (automaty Turinga)

 

ORGAZNIZACJA I ARCHITEKTURY-  systemów komputerowych, operacyjnych i sieci komputerowych, teorie baz danych

 

ZASTOSOWANIE KOMPUTERÓW

 

 

NAUKI KOMPUTEROWE- JAK TO DZIAŁA ?? TECHNOLOGIA INFORMACYJNA

 

1673   maszyna podarowana przez Piotra Wielkiego cesarzowi Chin, system binarny

1889   patent na maszynę tabulującą

1936   teoretyczny model komputera

1943   zerowa generacja MARK 1, przekaźnik bez pamięci RAM

1945   uniwersalna konstrukcja, program i dane w RAM

1946  pierwsza generacja EWIAC, 18000 lamp elektronicznych, 5000operacji dod/s; 300-500 operacji mnoż/s; 30 ton, 7x13m; 180kW

1957   druga generacja, tranzystory

1964   trzecia generacja, obwody scalone IBM 360; BASIC

1971   czwarta generacja procesor VLSI, INTEL 4004

1981   komputer osobisty IBM PC

 

 

KOMPUTER- ZŁOŻENIA FUNKCJONOWANIA JOHN VON NEUMAN 1944

Komputer powinien być wyposażony w magazyn do przechowywania danych ( pamięć); dane w pamięci są zakodowane w postaci ciągu zer i jedynek; wszystkie działania arytmetyczne, logiczne i inne są wykonywane przez arytmometr; komputer musi mieć możliwość komunikowania się czyli pobierania danych i wprowadzania wyników; komputer w czasie swej pracy realizuje algorytm <program> zapisany przez człowieka

 

 



DANE                                                                      PAMIĘĆ



                                                                                                                              WYNIKI

 



PROGRAMY                                                        ARYTROMETR

 

 

 

PIĄTA GENERACJA- sztuczna inteligencja, sieci neuronowe

 

SZÓSTA GENERACJA- nowe architektury, obliczanie przy pomocy DNA, komputery optyczne, kwantowe

 

INFORMACJA

DANE: KONKRETNA REPREZENTACJA INFORMACJI -ważna dla interpretacji danych.

 

TYPY DANYCH:

Dane typu logicznego: tak/nie

Dane alfanumeryczne: alfabet + liczby

Dane numeryczne

Dane graficzne

Złożone dane alfanumeryczne o ustalonej strukturze

Dane muzyczne

 

BITY I BAJTY

 

BIT- jednostka dwójkowa

 

Ciąg bitów wystarczy żeby przekazać dowolną wiadomość. Bramki tranzystorów przyjmują tylko 2 stany, przewodzą lub nie, są binarne.

 

Bit 0,1

 

BAJTY- sekwencja bitów

1

2

3

4

5

6

7

8

 

 

 

 

 

 

 

 

 

 

0

0

0

0

0

0

0

0

1

1

1

1

1

1

1

1

              256 możliwości bajtów
 

 

 

KODOWANIE

Rozszerzony standard ASCII: 8 bitów

256 znaków ASCII ( 1-31 znaki specjalne; 48-57 cyfry; 65-90 duże litery alfabetu; 97-122 małe litery alfabetu; kody pozostałe, inne znaki)

 

Różne rozszerzenia DOS: Code Page, czyli strona kodowa852 zwana LAtiu 2 , Windows 30/95 CP- 1250, Central European enconding.

 

Oficjalny standard ISO-8859-2 nieco odmiennie stosowany przez zwolenników walki z Microsoftem i komplikowania sobie życia.

 

Od 1992 standard UNCICODE 2 bajty/ znak. W jednym pliku można zapisać 256-65536 znaków w tym około 3000 znaków definiowanych przez użytkownika. UNICODE jest używany w systemach operacyjnych WINDOWS NT. - Novell Netware Windows 96 i nowszych wersjach 95 pakietach biurowych od MS Office 97.

Widać to po wielkości plików.

 

 

RODZAJE KOMPUTERÓW

Komputery:

- sterujące

- domowe

- osobiste

- przenośne

- notebooki

- PDA

- kieszonkowe

- stacje robocze

- minikomputery

- superkomputery

 

ZASOBY KOMPUTEROWE- ELEMETNY KOMPUTERA

Elementy komputera, którymi można dysponować jako odrębnymi np. procesor, obszary pamięci, dyski, drukarki

 

SYSTEM KOMPUTEROWY- zorganizowany układ 2 wzajemnie powiązanych elementów:

sprzętu i oprogramowania.

 

BUDOWA KOMPUTERA:

...

Zgłoś jeśli naruszono regulamin