definición y significado de Informacja | sensagent.com


   Publicitad E▼


 » 
alemán árabe búlgaro checo chino coreano croata danés eslovaco esloveno español estonio farsi finlandés francés griego hebreo hindù húngaro indonesio inglés islandés italiano japonés letón lituano malgache neerlandés noruego polaco portugués rumano ruso serbio sueco tailandès turco vietnamita
alemán árabe búlgaro checo chino coreano croata danés eslovaco esloveno español estonio farsi finlandés francés griego hebreo hindù húngaro indonesio inglés islandés italiano japonés letón lituano malgache neerlandés noruego polaco portugués rumano ruso serbio sueco tailandès turco vietnamita

Definición y significado de Informacja

Definición

definición de Informacja (Wikipedia)

   Publicidad ▼

Frases

Diccionario analógico

   Publicidad ▼

Wikipedia

Informacja

Z Wikipedia

Skocz do: nawigacji, szukaj

Informacja (łac. informatio – przedstawienie, wizerunek; informare – kształtować, przedstawiać) - termin interdyscyplinarny, definiowany różnie w różnych dziedzinach nauki; najogólniej - właściwość pewnych obiektów[1], relacja między elementami zbiorów pewnych obiektów, której istotą jest zmniejszanie niepewności (nieokreśloności)[2].

Można wyróżnić dwa podstawowe punkty widzenia informacji[3]:

1. obiektywny - informacja oznacza pewną właściwość fizyczną lub strukturalną obiektów (układów, systemów), przy czym jest kwestią dyskusyjną[4] czy wszelkich obiektów, czy jedynie systemów samoregulujących się (w tym organizmów żywych),
2. subiektywny - informacja istnieje jedynie względem pewnego podmiotu, najczęściej rozumianego jako umysł, gdyż jedynie umysł jest w stanie nadać elementom rzeczywistości znaczenie (sens) i wykorzystać je do własnych celów.

Wyróżnia się trzy, powiązane ze sobą, koncepcje (teorie) informacji[1][2], związane z jej aspektami semiotycznymi[5]:

1. statystyczno - syntaktyczną z probabilistycznym i składniowym,
2. semantyczną ze znaczeniowym,
3. pragmatyczną z wartościowym (cennościowym) - w odniesieniu do problemu podejmowania decyzji przez jej odbiorcę związanych z jego celem.

Spis treści

Informacja obiektywna

W cybernetyce i teorii informacji najbardziej ogólnie: każde rozpoznanie stanu układu, odróżnialnego od innego stanu tego układu (stanu wyróżnionego)[6]; wyróżnienie pewnego stanu wyróżnionego (odróżnialnego) z repertuaru (zbioru stanów wyróżnionych)[7]. "...w pojęciu informacji istotne jest nie samo zaistniałe zjawisko, lecz jego stosunek do zbioru zdarzeń, które mogły były zaistnieć"[8].

Można odróżnić[9]:

1. informację swobodną, kiedy możliwosci (stany, zdarzenia) uważamy za abstrakcyjne i nie przypisujemy im żadnego znaczenia fizycznego,
2. informację związaną, kiedy możliwosci (stany, zdarzenia) mogą być interpretowane jako mikrostany (lub zbiory mikrostanów[10]) pewnego układu fizycznego.

Informacja zawarta w stanach układu kwantowego to informacja kwantowa.

Bardziej szczegółowo można rozpatrywać informację:

1. w odniesieniu do procesu komunikowania się (systemu przekazywania informacji, toru sterowniczego),
2. w odniesieniu do budowy układu.

Informacja w odniesieniu do procesu komunikowania się

Informacja jest to wyróżnienie przez pewien układ informacyjny (odbiorcę), ze swojego repertuaru, pewnego stanu wyróżnionego (przez odróżnienie go od innego stanu wyróżnionego), odbijające wyróżnienie stanu wyróżnionego układu informacyjnego będącego nadawcą[6] (Definicja 1).

O informacji mozna tu mówić jedynie w odniesieniu do układu, który jest zdolny ją odebrać (odbić wyróżnienie stanu wyróżnionego nadawcy), i tylko w takim zakresie, w jakim jest zdolny. Różne układy informacyjne mogą odbijać (rozpoznawać) różne stany wyróżnione z różnych repertuarów.

W tym znaczeniu informacja ma charakter relatywny i jest nazywana informacją względną.

"...informacja (...) jest różnorodnością, jaką jeden obiekt zawiera o innym obiekcie, jest wzajemną i względną różnorodnością. (...) informację można określić jako odbitą różnorodność, jako różnorodność, którą obiekt odbijający zawiera o obiekcie odbijanym..."[11].

Według Mariana Mazura:

Informacja jest to transformacja poprzeczna komunikatów w torze sterowniczym tj. zmiana pewnego stanu wyróżnionego w pewnym punkcie toru sterowniczego (systemu przekazywania informacji) na inny stan wyróżniony w tym samym punkcie; przyporządkowanie sobie tych stanów (relacja między nimi)[12][13][14] (Definicja 2).

Przykład 1.: Na początku toru sterowniczego mogą zachodzić stany wyłącznika: wyłączony, włączony; w miejscu pośrednim toru stany napięcia: zerowe, niezerowe; na końcu toru stany żarówki: nieświecąca, świecąca. Informacjami są transformacje: wyłącznik wyłączony - wyłącznik włączony, napięcie zerowe - napięcie niezerowe, żarówka nieświecąca - żarówka świecąca. Natomiast transformacje: wyłącznik wyłączony - napięcie zerowe - żarówka nieświecąca i wyłącznik włączony - napięcie niezerowe - żarówka świecąca są transformacjami wzdłużnymi komunikatów w torze sterowniczym tj. zmianami stanów wyróżnionych w pewnym punkcie toru (systemu przekazywania informacji) na stany wyróżnione w innym punkcie toru (przyporządkowaniami sobie tych stanów, relacjami między nimi) i nazywane są kodami.

Przykład 2.: Informacja o odległości "w terenie" to relacja między długością danego odcinka, a długością odcinka wzorcowego (jednostki miary) np. 3 km : 1 km = 3. Informacja ta może być zakodowana na mapie, jako relacja między długością odcinka na mapie, a długością odcinka wzorcowego mapy np. 3 cm : 1 cm = 3. Kodem jest tu relacja między długością odcinka wzorcowego mapy, a długością odcinka wzorcowego "w terenie" - skala (podziałka) mapy np. 1 cm : 1 km = 1:100000.

Wyróżnienie przez układ (nadawcę lub odbiorcę) pewnego swojego stanu wyróżnionego (odróżnienie go od innego stanu wyróżnionego), o którym mowa w definicji pierwszej, skutkuje właśnie ustanowieniem relacji między tymi stanami, o której mowa w definicji drugiej.

Ujmowana ilościowo informacja (ilość informacji) o stanach wyróżnionych (możliwościach, zdarzeniach, wartościach zmiennej losowej, przewidywanych wynikach doświadczenia, strukturze układu modelowanego, treści komunikatu nadanego) β zawarta w stanach wyróżnionych (możliwościach, zdarzeniach, wartościach zmiennej losowej, otrzymanych wynikach doświadczenia, strukturze modelu, treści komunikatu odebranego) α, to usunięta przez α część nieokreśloności (entropii informacyjnej) β[15].

To, ile informacji zawierają komunikaty, zależy od stanu niewiedzy odbiorcy, co do nadawcy. Im większą zmianę w nieokreśloności (niewiedzy) odbiorcy, co do nadawcy, wywołuje komunikat odebrany, tym dostarcza (zawiera) więcej informacji[5].

Informacja w odniesieniu do budowy układu

Informacja jest to stopień uporządkowania (lub zorganizowania) układu[6] (Definicja 3).

W tym znaczeniu informacja dotyczy struktury układu i jest nazywana informacją strukturalną.

Według Mariana Mazura:

Informacja to struktura (układ relacji wiążących elementy układu)[16] (Definicja 4).

Ujmowana ilościowo taka informacja to różnica między entropią (odpowiednio termodynamiczną lub strukturalną) układu maksymalną, a entropią (odpowiednio termodynamiczną lub strukturalną) układu daną, czyli negentropia (termodynamiczna lub strukturalna) układu[17].

Informację strukturalną (strukturę) niekiedy uważa się[18][19] za jeden z trzech składników każdego układu (czyli pośrednio całej rzeczywistości). Każda rzecz, proces czy zjawisko może być bowiem rozpatrywane w wymiarze materialnym (czyli pewnej liczby cząstek), tzw. "energetycznym" (czyli ruchu fizycznego, którego miarą jest energia) i strukturalnym (informacyjnym).

Miary ilości informacji

Ilościowym aspektem informacji zajmuje się statystyczno - syntaktyczna teoria informacji Hartleya i Shannona. Miary ilości informacji są w niej oparte o prawdopodobieństwo zajścia zdarzenia. Jako miarę ilości informacji przyjmuje się wielkość niepewności, która została usunięta w wyniku zajścia zdarzenia (otrzymania komunikatu)[20]. Zdarzenia (komunikaty) mniej prawdopodobne dają więcej informacji. To podejście pomija znaczenie (semantykę), jakie niesie komunikat, a skupia się jedynie na jego składni (syntaktyce).

1. Ilość informacji otrzymanej przy zajściu zdarzenia xi (entropia tego zdarzenia, entropia indywidualna) to (Hartley 1928):

I_i = h_i = \log_r \frac{1}{p_i} = - \log_r {p_i}
gdzie:
Ii - ilość informacji otrzymanej przy zajściu zdarzenia xi,
pi - prawdopodobieństwo zajścia zdarzenia xi,
r - podstawa logarytmu.

W teorii informacji najczęściej stosuje się logarytm o podstawie r = 2, wówczas jednostką informacji jest bit (szanon[21]). Przy r = e jednostką jest nat (nit), natomiast przy r = 10 - dit (hartley).

2. Przeciętna ilość informacji przypadająca na zajście zdarzenia z pewnego zbioru n zdarzeń (entropia bezwarunkowa tego zbioru, entropia przeciętna) jest średnią arytmetyczną ważoną ilości informacji otrzymywanej przy zajściu poszczególnych zdarzeń, gdzie wagami są prawdopodobieństwa tych zdarzeń[22] (Shannon 1948):

H(X)=\sum_{i=1}^np_i\log_r \frac{1}{p_i}= - \sum_{i=1}^np_i\log_r {p_i}\,\!
gdzie:
H(X) - entropia bezwarunkowa zbioru X,
n - liczba zdarzeń w zbiorze,
pi - prawdopodobieństwo zajścia zdarzenia xi.

3. Ilość informacji o zdarzeniach ze zbioru X (wartościach zmiennej losowej X), np komunikatach nadanych (stanach źródła informacji), zawarta w zdarzeniach ze zbioru Y (wartościach zmiennej losowej Y), np komunikatach odebranych (stanach odbiorcy), tzw. informacja wzajemna, równa jest różnicy pomiędzy entropią bezwarunkową zbioru X (entropią źródła), a entropią zbioru X, jaka pozostaje po odebraniu komunikatu ze zbioru Y (entropią warunkową X pod warunkiem Y)[23]:

I(X;Y) = H(X) - H(X|Y) \,
gdzie:
I(X;Y) - informacja wzajemna Y o X,
H(X) - entropia bezwarunkowa zbioru X,
H(X|Y) - entropia warunkowa X pod warunkiem Y.

Gdy odebrany komunikat zmniejsza nieokreśloność X do zera (H(X|Y) = 0 \,), ilość przekazanej informacji jest równa entropii źródła I(X;Y) = H(X) \,. Także I(X;X) = H(X) \, (zawartość informacji w źródle, w zmiennej losowej, samoinformacja), gdyż H(X|X) = 0 \,.

Przenoszenie i przetwarzanie informacji

Informacja może być przenoszona w czasie i przestrzeni[5]. Przenoszenie w czasie nazywamy magazynowaniem lub zapamiętywaniem, przenoszenie w przestrzeni - przekazem lub komunikowaniem. Przenoszenie informacji odbywa się za pośrednictwem obiektów fizycznych i zjawisk fizycznych zwanych nośnikami informacji. Magazynowanie związane jest najczęściej ze stanami wyróżnionymi obiektu fizycznego - podłoża zapisu, a przekaz ze stanami wyróżnionymi zjawiska fizycznego - sygnałami.

Problemami przetwarzania informacji zajmuje się informatyka.

Informacja subiektywna

Znaczenie informacji - koncepcja semantyczna

Wartość informacji - koncepcja pragmatyczna

Kognitywistyka

W tej perspektywie, informacja jest indywidualną lub grupową interpretacją otrzymanego ciągu sygnałów (np. dźwiękowych czy optycznych) i musi zawsze opisywać stan jakiejś dziedziny.

Podejście kognitywistyczno-systemowe w meta-teorii TOGA[24] daje nam ścisłe definicje rozróżniające dane, informacje, wiedzę i preferencje jako podstawowe funkcjonalne elementy procesów myślowych naturalnych i sztucznych (zobacz też: Sztuczna inteligencja).W tej systemowej interpretacji, informacja jest przetwarzana przez naszą wiedzę i w wyniku daje inną informację lub nową wiedzę. W zależności od tzw. indywidualnego systemu konceptualizacji, ten sam ciąg sygnałów/znaków (danych) może być źródłem różnych informacji dla różnych osób lub robotów.

Jeśli grupa ludzi lub społeczeństwo ma w pewnej dziedzinie ten sam system konceptualizacyjny (np. teorie, zbiory poglądów, definicje), to te same sygnały komunikacyjne odbierają w ten sam sposób, to znaczy dostarczają im one tą samą informację do przetwarzania.

Jeżeli danymi nazywamy wszystko to co jest przetwarzalne (Gadomski), to informacja jest danymi, ale nie każde dane są informacją, np. "gołe" liczby są zawsze danymi, ale jeśli nadamy im znaczenie w określonej dziedzinie, to są też informacją, np. (5) i (5 stopni Celsjusza za naszym oknem).

Podejście kognitywistyczne jest też bliskie rozumieniu informacji w języku naturalnym i jakie jest przyjęte w zarządzaniu wiedzą.

Inne interpretacje

Informacja i wiedza są obecnie uważane za nowy towar na rynku, podobny do dóbr materialnych czy energii. Ze względu na ten fakt, Internet i inne zalewające ludzi potoki informacji, obecne społeczeństwo globalne nazywane jest społeczeństwem informacyjnym (Information Society).

Pojęcie informacji stosuje również ekonomia informacji. Jednym z nurtów w tej dziedzinie jest analiza zachowania graczy na rynku z uwzględnieniem posiadanych przez nich informacji na temat oferowanych dóbr i innych cech rynku. Szczególnie, gdy rozkład informacji wśród graczy jest asymetryczny.

Zobacz też

Zobacz w Wikicytatach kolekcję cytatów
związanych z informacją


Przypisy

  1. 1,0 1,1 Klemens Szaniawski hasło Informacja w: Filozofia a nauka 1987 s. 244
  2. 2,0 2,1 Grzegorz Lissowski hasło Informacja w: Wielka Encyklopedia Powszechna 2002 s. 126
  3. Paweł Przybyłowicz Wstęp do teorii informacji i kodowania
  4. Edward Kowalczyk O istocie informacji 1981 s. 18
  5. 5,0 5,1 5,2 Stefan Mynarski Elementy teorii systemów i cybernetyki 1979 s. 141
  6. 6,0 6,1 6,2 Krzysztof Boruń hasło Informacja w: Mały słownik cybernetyczny (pod red. M. Kempisty) 1973 s. 155
  7. Marian Mazur Cybernetyczna teoria układów samodzielnych 1966 s. 35
  8. Wiktor Głuszkow Wstęp do cybernetyki 1967 za: J. L. Kulikowski Informacja i świat w którym żyjemy 1978 s. 43
  9. Léon Brillouin Nauka a teoria informacji 1969 s. 202 - 203
  10. R. Bujakiewicz-Korońska O przemianach energii i informacji w strukturach dyssypatywnych 2000 s. 77
  11. A. D. Ursuł Informacija, 1971 za: J. L. Kulikowski Informacja i świat w którym żyjemy 1978 s. 44
  12. Marian Mazur Cybernetyczna teoria układów samodzielnych 1966 s. 35 - 37
  13. Marian Mazur Jakościowa teoria informacji 1970 s. 70 - 71
  14. Marian Mazur Cybernetyka i charakter 1976 s. 120 - 121
  15. A. M. Jagłom, I. M. Jagłom Prawdopodobieństwo i informacja 1963 s. 91
  16. Marian Mazur Cybernetyczna teoria układów samodzielnych 1966 s. 48 - 49
  17. R. Bujakiewicz-Korońska O przemianach energii i informacji w strukturach dyssypatywnych 2000 s. 79
  18. Marian Mazur Cybernetyczna teoria układów samodzielnych 1966 s. 49
  19. Stefan Mynarski Elementy teorii systemów i cybernetyki 1979 s. 140
  20. Stefan Mynarski Elementy teorii systemów i cybernetyki 1979 s. 155
  21. szanon - Encyklopedia PWN
  22. Stefan Mynarski Elementy teorii systemów i cybernetyki 1979 s. 156
  23. Stefan Mynarski Elementy teorii systemów i cybernetyki 1979 s. 159
  24. Zobacz: Meta-teoria TOGA (Top-down Object-based Goal-oriented Approach), Adam Maria Gadomski, 1993 (ang.) TOGA Meta-Theory - Real-World Computational Philosophy & Goal-oriented Reasoning Framework and computational unified problem-solving methodology, (ang.) Information Preferences Knowledge Paradigm: Meta-Ontology for Knowledge Engineering & Management, TOGA standards, i (pl) HID - ENEA: Grupa Badan Kognitywistycznych Wysokiej Intelligencji i processow Decyzyjnych

 

todas las traducciones de Informacja


Contenido de sensagent

  • definiciones
  • sinónimos
  • antónimos
  • enciclopedia

 

4816 visitantes en línea

computado en 0,031s