Az információ latin eredetű szó, amely értesülést, hírt, üzenetet, tájékoztatást jelent. Egyben az informatika alapfogalma. Számos jelentése, kifejtése ismert, különböző tudományágak különböző módon közelítik meg, írják le. Egyértelműen elfogadott definíciója nem ismert.
Általánosságban információnak azt az adatot, hírt tekintjük, amely számunkra releváns és ismerethiányt csökkent. Egyik legleegyszerűsítettebb megfogalmazás szerint az információ nem más, mint a valóság (vagy egy részének) visszatükröződése.[1] Tudományos értelmezését az információelmélet fogalmazza meg.
Története
A középkorban az arisztotelészi érzékelés-elmélettel szemben (mely mintegy radarként képzelte pl. a szemet) az az elképzelés alakult ki, hogy a tárgyakról érkező valami az érzékszervet befolyásolja, formáját megváltoztatja, tehát informálja. A misztikus teológia szerint a lélek felemelkedve Isten közelébe, Isten nyomot hagy rajta, átformálja, informálja.
Az információ, mint tudományos fogalom az ipari forradalom idején jelent meg fokozatosan. A fogalom átvételében Rudolf Clausius 1865-ben készült dolgozatát tekinthetjük fordulópontnak. Később – ezt a dolgozatot felhasználva – továbbfejlesztette Ludwig Boltzmann (1894). Szerinte az entrópia azért jelentkezik, mert a zárt rendszerbe nem juthat további anyag, energia és információ.
Minden tudományos területen igyekeznek megfogalmazni az információ definícióját. A 20. században kialakult és folyamatosan fejlődő információs társadalom pedig, ha lehet, még több lehetséges szempontot hozott magával. A meghatározások között vannak átfedések, de a téma folyamatos kutatását végző tudományágaknak sem sikerült egységes definíciót alkotniuk.
Köznyelvi értelemben: Hétköznapi életben az információt általában tájékoztatás, felvilágosítás és értesítés jelentésben használjuk. Irodalmi művekben megtalálható az informál kifejezés is.[2]
Kommunikációelméletben: Az információ kölcsönösen egymásra ható objektumok kommunikációjának objektív tartalma, amely ezen objektumok állapotának megváltozásában nyilvánul meg.
Hírközlésben: Az információt egy adótól, egy dolog állapotáról vagy egy jelenség lefolyásáról, valamilyen sajátos statisztikai szerkezettel rendelkező jelkészletből összeállított, időben és/vagy térben elrendezett jelek sorozatával továbbít a vevő felé, amely ezt értelmezi. Az információ mindaz, ami kódolható és továbbítható egy arra alkalmas csatornán.
Matematikában: Az információ számmal mérhető, mint egy adott elem halmazból történő kiválasztásához szükséges eldöntendő (igen/nem) kérdések maximális száma.
Ismeretelméletben: Az információ olyan tapasztalat vagy ismeret, amely valaki tudásának és ismereteinek rendezettségét megváltoztatja vagy alapvetően befolyásolja. Előfordulhat hogy időlegesen a bizonytalanságot növeli.
Társadalomtudományban: Az információ a társadalom szellemi kommunikációs rendszerében keletkezett és továbbított hasznos vagy annak minősülő ismeretközlés. Össztársadalmi jelenség, a világ globális problémáinak egyike, hasonlóan az energiához, a környezetvédelemhez.
Közgazdaságban: Az információ egy olyan szolgáltatás és egyben piaci termék, amely az árucserével ellentétben az átadást követően is mindkét félnél megmarad. A termékek előállítása során a felhasznált anyag és a befektetett munka mellett az elkészítéshez alkalmazott információ is értéket képvisel.
Biológiában: Az élő szervezeteknél a negatív visszacsatolás révén szerzett információk biztosítják a rendszer stabilitását. Információs gépekként működve képesek fenntartani egy termodinamikailag nagyon valószínűtlen, magas információtartalommal rendelkező rendszert. Az élőlényekben a DNS-ben hordozott genetikai információ szolgálja a faj fennmaradását.
Fizikában: Minden rendezett struktúra információt hordoz magában, ahol a rend és az információ szoros kapcsolatban áll egymással. A fizikában az energiát munkavégző képességként definiálják, az információ pedig a rendezőképesség. Az információ mérése az entrópia mérésén alapszik.
Filozófiában: Az információnak akkora jelentősége van, mint az anyagnak és az energiának. A rendszerek, amelyek a világot alkotják, az információs kapcsolatok segítségével szerveződnek egésszé. Fontos különbség viszont, hogy az információra nem érvényes az anyagra és energiára vonatkozó megmaradási tétel, velük ellentétben az információ megsemmisíthető és létrehozható.
Főbb tulajdonságai
Az információ önmagában értéket képvisel, ez lehet társadalmi, tudományos, termelési – gazdasági vagy akár hatalmi érték. Az információval képesek vagyunk egy meglévő értéket növelni, így értéknövelő. Mivel értéket képvisel, így profitot, illetve extraprofitot is termelhet. Jellemző tulajdonsága még a mennyisége, minősége, felhasználhatósága, hozzáférhetősége, érthetősége, védelme.[forrás?]
Mennyisége
Az információ mennyisége az idővel exponenciálisan nő, ugyanis az információ felhasználásakor nem semmisül meg, többszörösen újrafelhasználható. Ugyanakkor az is igaz, hogy az információ megsemmisíthető, hiszen csak az információt reprezentáló adatokat, jeleket kell törölni.
Minősége
Az információ minősége alapvetően a feldolgozás és a tömörítés szintjétől, valamint az információtárolás minőségétől függ. Ide tartozik, hogy az információ mennyire megbízható, pontos, illetve mennyire időszerű.
Az entrópia a fizikában és az informatikában egyaránt használatos fogalom. Az entrópiát – mint a káoszt előidéző erőt – negatív információnak tekintjük, egyúttal a rendszeren belüli információ hiányát is jelenti.[j 1][3]
Az információmennyiség mértékegysége a bit[j 2] – nem tévesztendő össze a adatmennyiség mértékegységével, amely szintén bit.
Ha egy eldöntendő kérdésre egyforma valószínűséggel adhatók különböző válaszok, akkor az e kérdésre adott bármely válasz pontosan 1 bit információt hordoz.
1 bit információhoz 10−23 J/K entrópiacsökkenés szükséges.[3]
Egy hír esetén, amely egy N elemű jelkészletből – legyen ez pl. az ABC – M darab jelet használ és a jeleket véletlenszerűen választjuk ki, a hír információtartalma:
A valóságban ezek a feltételek csak ritkán teljesülnek. A feltételek teljesülésére kitűnő példa a lottóhúzás.
ahol a jelkészletből felhasznált jelek száma, a jelkészletből 1 jel kiválasztásának valószínűsége.
Ha a különböző jelek kiválasztásának valószínűségei nem azonosak, a Shannon-féle entrópiát kell használni.
Tételezzük fel, hogy egy elemű jelhalmaz (például egy független komplett üzenetekből álló készlet) elemei rendre valószínűséggel fordulnak elő, ekkor az egyedi információmennyiségek, azaz várható értéke definíció szerint:
ahol összegezni kell -től -ig. a Shannon-féle entrópia, ezt tekintjük az üzenet információjának. A képlet formailag hasonló a statisztikus fizika entrópia képletéhez.[4]
Jegyzetek
↑Dr. Munk Sándor. Katonai informatika a XXI. század elején. Zrínyi Kiadó, 9. o. (2007). ISBN 978-963-327-419-4
↑Móricz Zsigmond: Rokonok. (Hozzáférés: 2021. október 22.) „...a Holub és Társa céget informálhassa.”
↑ abHaig Zsolt, Várhegyi István. Hadviselés az információs hadszíntéren. Zrínyi Kiadó, 47–48. o. (2005). ISBN 963-327-391-9
↑Neumann János javasolta Shannonnak, hogy a fizikában használatos fogalmat használják fel az informatikában, mivel hasonló jelenséget kell leírni.
↑John W. Tukey a kettes alapú logaritmusból kiindulva nevezte el. - Haig Zsolt, Várhegyi István. Hadviselés az információs hadszíntéren. Zrínyi Kiadó, 17. o. (2005). ISBN 963-327-391-9
Koltay Tibor. Virtuális, elektronikus, digitális - Elméleti ismeretek a 21. század könyvtárához.. Budapest: Typotex Kft. (2007)
Komenczi Bertalan: Információ, ember és társadalom. Az információtól az információs társadalomig; EKF Líceum, Eger, 2009 (Médiainformatikai kiadványok)
Az információ mikrotörténetéhez; szerk. Gulyás László Szabolcs; Gondolat, Bp., 2015 (Információtörténelem)
Haig Zsolt: Információ, társadalom, biztonság; Nemzeti Közszolgálati Egyetem, Bp., 2015