jk-prawda-falsz.pdf

(318 KB) Pobierz
jk-prawda-fałsz
Maszynopis artykułu Relacja „prawda - fałsz” w ilo ś ciowej i jako ś ciowej teorii
informacji . [w:] The Peculiarity of Man vol. 6. Wyd. WZiA Akademii
Świętokrzyskiej w Kielcach, Warszawa-Kielce 2001, s. 349-386.
Józef Kossecki
Akademia Świętokrzyska
"The Pecularity of Man" vol. 6,
Warszawa-Kielce 2001
s. 349-386
RELACJA "PRAWDA - FAŁSZ"
W ILO Ś CIOWEJ I JAKO Ś CIOWEJ TEORII INFORMACJI
1. Relacja "prawda - fałsz" w ilo ś ciowej teorii informacji
W 1948 roku opublikowana została praca C. E. Shannona A Mathematical
Theory of Communication 1 , która zapoczątkowała burzliwy rozwój ilo ś ciowej
teorii informacji .
Pod względem sposobu traktowania samego terminu informacja w
literaturze z zakresu ilościowej teorii informacji moŜna wyróŜnić trzy grupy
publikacji.
### Jedną z nich stanowią publikacje, w których ilość informacji jest
nazywana po prostu informacj ą, (...).
Inną grupę stanowią publikacje, których autorzy uŜywają wyrazu
informacja bez Ŝadnych wyjaśnień, w takich wyraŜeniach jak np. przenoszenie
informacji , przekazywanie informacji za pomoc ą j ę zyka , informacja zawarta w
zbiorze symboli itp. jak gdyby zakładając, Ŝe chodzi o pojęcie nie budzące
wątpliwości.
I wreszcie są publikacje, których autorzy starają się jakoś wyjaśnić
czytelnikom, co ich zdaniem naleŜy uwaŜać za informacj ę. W skrajnych
przypadkach jedni ograniczają się do paru zdań objaśniających informacj ę za
pomocą innych, o równie nieokreślonym znaczeniu, wyrazów jak np.
wiadomo ść, tre ść itp., inni przeprowadzają rozległe dyskusje nad rozmaitymi
aspektami informacji, analizują trudności sformułowania ścisłej definicji,
porównują poglądy róŜnych autorów, aby w końcu przedstawić sprawę jako
otwartą i pozostawić czytelnikom wyrobienie sobie poglądu w gąszczu
niejasności i kontrowersji ### 2 .
1 C. E. Shannon, A Mathematical Theory of Communication , "Bell System Techn. J.", vol. 27, No. 3-4, 1948.
2 M. Mazur, Jako ś ciowa teoria informacji , Warszawa 1970, s. 18-19.
### Shannon, zdając sobie być moŜe sprawę z mogącego wprowadzić w
błąd sensu słowa informacja , nadał swej pracy tytuł Matematyczna teoria
telekomunikacji ### 3 .
### Czynniki semantyczne mogą powodować, Ŝe ten sam zbiór słów mieć
będzie róŜne znaczenie dla róŜnych słuchaczy. Shannon (1948) skomentował to
następująco: Semantyczna strona telekomunikacji jest bez znaczenia dla
problemów technicznych ### 4 .
Podsumowując powyŜsze rozwaŜania moŜna stwierdzić, Ŝe ilościowa
teoria informacji, nie podaje definicji informacji traktując ją jak pojęcie
pierwotne (choć w reguły nie stwierdza się tego explicite w publikacjach z tej
dziedziny). Analogicznie traktuje to pojęcie warto ś ciowa teoria informacji ,
której początek dał J. Marshak 5 .
W tej sytuacji prawdziwo ść systemu twierdzeń ilościowej teorii
informacji oznacza - podobnie jak w innych dziedzinach matematyki - ich
wewnętrzną niesprzeczność, fałszywo ść zaś to nic innego jak sprzeczność
odnośnych twierdzeń.
2. Ogólna jako ś ciowa teoria informacji
Marian Mazur zainteresował się odpowiedzią na pytania: czym w istocie
jest informacja? jakie są jej rodzaje? na czym polegają procesy informowania?
Dla rozwiązania tego zakresu zagadnień stworzył on dziedzinę nauki, którą
nazwał jako ś ciow ą teori ą informacji 6 .
M. Mazur zdefiniował informacj ę jako transformację jednego
komunikatu asocjacji informacyjnej w drugi komunikat tej asocjacji 7 . Przy czym
przez transformacj ę rozumiemy proces, jakiemu naleŜy poddać jeden z
komunikatów asocjacji, aby otrzymać drugi komunikat tej asocjacji 8 . Procesy
zaś podzielił na robocze , polegające na zmianach energomaterialnych oraz
sterownicze - polegające na zmianach strukturalnych, w których istotne jest
występowanie róŜnic między określonymi stanami fizycznymi 9 .
PowyŜsze pojęcie informacji dotyczy tylko procesów fizykalnych, nie ma
zaś zastosowania do procesów abstrakcyjnych, których badaniem zajmuje się
np. ogólna teoria systemów złoŜonych 10 . Powstała więc konieczność stworzenia
3 M. Abramson, Teoria informacji i kodowania , Warszawa 1969, s. 11.
4 TamŜe, s. 12.
5 J. Marshak, Elements for Theory of Teams Management Science , No 1, 1955.
6 Por. M. Mazur, Jako ś ciowa teoria informacji , wyd. cyt.
7 Por. tamŜe, s. 70.
8 Por. tamŜe, s. 42.
9 Por. tamŜe, s. 34.
10 Por. N. P. Busolenko, W. W. Kałasznikow, I. N. Kowalenko, Teoria systemów zło Ŝ onych , Warszawa 1979.
2
ogólnej jako ś ciowej teorii informacji , której pojęcia mogą być stosowane
zarówno do analizy energomaterialnych jak i abstrakcyjnych obiektów i
procesów.
Ogólna jako ś ciowa teoria informacji jest zbudowana na trzech
poj ę ciach pierwotnych :
1. obiekt elementarny ,
2. zbiór ,
3. relacja 11 .
### Obiektów elementarnych nie dzielimy na mniejsze części. Przy
rozwiązywaniu konkretnego problemu określamy co będziemy traktować jako
obiekty elementarne, jakie zbiory tych obiektów i jakie relacje między nimi
będziemy badać. Np. w fizyce cząstek elementarnych jako obiekty elementarne
traktujemy właśnie te cząstki, badając ich zbiory i fizykalne relacje między
nimi; w demografii jako obiekty elementarne traktujemy ludzi, badając ich
zbiory oraz ilościowe relacje między nimi ### 12 . Obiekty opisujemy poprzez
pewne cechy , które one posiadają (np. słowa - znaczenie, obiekty których
badaniem zajmuje się matematyka - wielkość, obiekty fizykalne - połoŜenie w
czasoprzestrzeni i energomaterię), oraz zaliczamy je do pewnych zbiorów
(przynaleŜność obiektu elementarnego e do zbioru E oznaczamy e E
RELACJE
Informacje
Kody
Podstawowym rodzajem relacji jest relacja równo ś ci , którą oznaczamy
znakiem "=", oznacza ona, Ŝe pewna cecha dowolnego obiektu jest taka sama
jak takaŜ cecha innego obiektu.
JeŜeli dany obiekt X jest opisany przez n cech, które oznaczamy kolejno
x x
, ,..., , zaś inny obiekt Y jest opisany przez n cech y y
x n
1
, ,..., , wówczas
y n
mówimy, Ŝe są to te same obiekty gdy (
x y
=
1
) (
Ç
x
2
= Ç Ç
2
) ... (
x
n
=
y
n
)
, co
11 Por. J. Kossecki, Metacybernetyczna teoria poznania , "Miscellanea Philosophica", Rok 2, No 3, 5/1998,
s.196.
12 TamŜe.
13 J. Kossecki, Metacybernetyka i jej rola w nowoczesnej nauce , ### PHAENOMENA ### , WSP Kielce 1995,
s. 59-62.
3
Î ).
### Relacje między elementami tego samego zbioru nazywamy
informacjami . Relacje między elementami róŜnych zbiorów nazywamy
kodami . JeŜeli np. mamy jeden zbiór X odległości między róŜnymi
miejscowościami w terenie oraz drugi zbiór Y odpowiadających im odległości
na mapie, wówczas stosunki tych odległości będą informacjami, zaś skala mapy
będzie kodem ### 13 .
PowyŜszy ogólny podział relacji przedstawia następujący schemat:
1
y
1
7078731.001.png
zapisujemy krótko X Y
º
i mówimy, Ŝe obiekt X jest toŜsamy z obiektem Y , zaś
" nazywamy relacją to Ŝ samo ś ci . W szczególnym przypadku, gdy
obiekty X i Y są opisane tylko przez jedną cechę, wówczas relacja równości jest
identyczna z relacją toŜsamości.
Przykładem moŜe być ustalanie toŜsamości człowieka poprzez
sprawdzanie jego moŜliwie wszystkich (przynajmniej najwaŜniejszych) cech.
Klasyfikację poszczególnych zasadniczych działów nauki moŜna
przeprowadzić w zaleŜności od tego jakie cechy obiektów i jakie relacje między
nimi one badają. Obiektami badanymi przez logik ę są słowa , którym
przypisujemy znaczenia , relacje między nimi opisujemy przez funktory
zdaniowe . Zbiory słów połączonych funktorami zdaniowymi - to zdania . Istotą
logiki jest ustalanie czy dane zdanie naleŜy do zbioru zda ń prawdziwych , czy do
zbioru zda ń fałszywych . Gdy obiektom przypisujemy taką cechę jak wielko ść i
oprócz relacji równości i toŜsamości wprowadzamy relacje: większości > oraz
mniejszości <., wówczas badaniem takich obiektów i relacji zajmuje się
matematyka . Gdy ponadto obiektom przypiszemy połoŜenie w
czasoprzestrzeni - czyli współrzędne x, y, z, t oraz energomaterię, wówczas
badaniem takich obiektów i relacji między nimi zajmuje się fizyka i
cybernetyka , które róŜnią się między sobą tym, Ŝe fizyka bada zaleŜności
stanów następnych od poprzednich (tradycyjne związki przyczynowe),
cybernetyka zaś zaleŜność stanów poprzednich od następnych - czyli celów,
które są stanami przyszłymi (cybernetyczne związki przyczynowe) 14 .
"Zbiór obiektów elementarnych i relacji między nimi nazywamy
obiektem zło Ŝ onym czyli systemem lub układem .
Zbiór relacji między elementami systemu określamy mianem jego
struktury .
Wszystko co nie naleŜy do danego systemu określamy jako jego
otoczenie .
JeŜeli system składa się z części, które same są systemami, wówczas te
części określamy jako podsystemy , całość zaś nazywamy nadsystemem . Zbiór
relacji między podsystemami to struktura nadsystemu . (...)" 15 .
### Elementy zbioru, między którymi występują relacje-informacje
nazywamy komunikatami .
Rozpatrzmy dwa zbiory: zbiór X zawierający elementy (obiekty
elementarne) x x
º
, ,..., .
ZałóŜmy, Ŝe między elementami zbioru X zachodzą następujące relacje:
1
, ,..., , oraz zbiór Y zawierający elementy y y
x n
1
2
y n
2 pozwala mówić o energomaterii zamiast osobno o masie i energii.
Natomiast według wielkiej teorii względności miarą wielkości masy jest krzywizna czasoprzestrzeni z nią
związana, a wobec tego moŜna w ramach fizyki mówić o geometrii czasoprzestrzeni przypisując obiektom, które
ona bada, trzy współrzędne przestrzenne x, y, z oraz współrzędną czasową t .
15 J. Kossecki, Cybernetyczna analiza systemów i procesów społecznych , Kielce 1996, s. 11.
= ×
4
relację "
2
14 Por. tamŜe.
Znany wzór Einsteina E m c
(1)...
x
2
=
x
I x
12
( );...;
1
x
n
=
x n n
I
-
1
,
(
x
n
-
1
)
Analogicznie między elementami zbioru Y zachodzą relacje następujące:
(2)...
y
2
=
y
I y
( );...;
1
y
n
=
y n n
I
-
1
,
(
y
n
-
1
)
Ponadto załóŜmy, Ŝe między elementami zbioru X a elementami zbioru Y
zachodzą następujące relacje:
(3)...
y
1
=
xy
K x
11
( );...;
1
y
n
=
xy
K x
nn
( )
n
to informacje
zawarte między elementami zbioru X (relacje między elementami zbioru X),
natomiast y
I
12
,...,
x n n
I
-
1
to informacje zawarte między elementami zbioru Y
(relacje między elementami zbioru Y). Z kolei xy
I
12
,...,
y n n
-
1
,
K
11 ,...,
xy
K
nn
to kody między
zbiorami X i Y (relacje między elementami zbiorów X i Y).
ORYGINAŁY KODY OBRAZY
K 11
xy
x
y 1
1
x
I 12
y
I 12
xy
K 22
x
y 2
x n
xy
K nn
y n
5
12
Relacje opisane wzorami (1), (2), (3) przedstawione są schematycznie na
rysunku 1.
Zgodnie z podanymi wyŜej definicjami x
,
I
2
7078731.002.png 7078731.003.png 7078731.004.png
Zgłoś jeśli naruszono regulamin