Umělá neuronová síť, anglicky Artificial Neural Network či jen Neural Network (ANN, NN), je jeden z výpočetních modelů používaných v oblasti umělé inteligence. Vzorem je chování neuronů v mozku, od toho je odvozen i název, v současnosti se však princip neuronových sítí od původního zamýšleného napodobení neuronů liší.[1]
Umělá neuronová síť je struktura určená pro distribuované paralelní zpracování dat. Skládá se z umělých (formálních) neuronů, jejichž volným předobrazem je biologický neuron. Neurony jsou vzájemně propojeny synaptickými vazbami a navzájem si předávají signály a transformují je pomocí aktivačních přenosových funkcí. Neuron má libovolný počet vstupů, ale pouze jeden výstup.
První umělé neurony byly vytvořeny Warrenem McCullochem a Walterem Pittsem v roce 1943.[7] Tyto neurony fungovaly tak, že byl jejich výstup 0 nebo 1 v závislosti na tom, jestli vážená suma vstupních signálů překročila prahovou hranici, nebo ne. Jejich teorie byla, že takový neuron v principu spočte jakoukoli aritmetickou či logickou funkci. Tehdy však nebyla vypracována žádná tréninková metoda.
V padesátých letech přichází Frank Rosenblatt[8] s perceptrony, které doprovází již i učící pravidla. Perceptrony využívá k rozpoznávání vzorů. Mimo to dokazuje, že pokud existují váhy, které zadaný problém řeší, pak k nim učící pravidlo konverguje.
Počáteční nadšení však uvadá, když je zjištěno, že takovýto perceptron umí řešit pouze lineárně separovatelné úlohy. Frank Rosenblatt se sice snaží model upravit a rozšířit, ale nedaří se mu to a tak až do osmdesátých let přestává být o perceptrony a neuronové sítě zájem.
V 80. letech dochází k vývoji vícevrstvých perceptronových sítí s asociačními pravidly, schopných aproximovat libovolnou vektorovou funkci, díky čemuž dochází k nové vlně zájmu o neuronové sítě,[9] který později částečně upadá díky neschopnosti učit sítě o větším počtu vrstev. Až okolo roku 2010 opět dochází k renesanci neuronových síti díky objevu hloubkového učení.
Nejužívanější způsob učení neuronových síti je algoritmus zpětného šíření chyby. Podle různých zdrojů[10][11][12] byly základy algoritmu zpětného šíření chyby v kontextu teorie řízení odvozeny z principů dynamického programování; konkrétně se na tom podíleli Henry J. Kelley v roce 1960[13] a Arthur E. Bryson v roce 1961.[14] Roku 1962 publikoval Stuart Dreyfus jednodušší odvození pomocí řetězového pravidla.[15] Vladimir Vapnik cituje ve své knize o support vector machines článek z roku 1963.[16] V roce 1969 Bryson a Yu-Chi Ho algoritmus popsali jako vícestupňovou optimalizaci dynamických systémů.
V roce 1970 Seppo Linnainmaa publikoval obecnou metodu automatického derivování (AD) diskrétních sítí vnořených diferencovatelných funkcí.[17][18] Jedná se o moderní variantu metody zpětného šíření chyby, která je efektivní i v řídkých sítích.[19][20]
V roce 1973 Stuart Dreyfus pomocí zpětného šíření chyby upravoval parametry řídicích systémů úměrně jejich chybovým gradientům.[21] Paul Werbos zmínil možnost uplatnění tohoto principu na umělé neuronové sítě roku 1974[22] a v roce 1982 tak učinil způsobem, který se používá nyní.[23] O čtyři roky později David E. Rumelhart, Geoffrey E. Hinton a Ronald J. Williams experimentálně prokázali, že tato metoda může vést k užitečným interním reprezentacím vstupních dat v hlubších vrstvách neuronových sítí, což je základem hlubokého učení.[24] V roce 1993 byl Eric A. Wan první, kdo vyhrál pomocí backpropagace mezinárodní soutěž v modelování dat.[25]
Je popsána celá řada modelů neuronů. Od těch velmi jednoduchých používajících skokové přenosové funkce (perceptron) až po velmi složité popisující každý detail chování neuronu živého organismu, jako např. Hindmarshův-Roseův model neuronu[26].
Jedním z nejpoužívanějších je model popsaný McCullochem a Pittsem[7]:
kde:
jsou vstupy neuronu
jsou synaptické váhy
je práh
je aktivační funkce neuronu
je výstup neuronu
Velikost vah vyjadřuje uložení zkušeností do synapsí neuronu. Čím je vyšší hodnota, tím je daný vstup důležitější. V biologickém neuronu práh označuje prahovou hodnotu aktivace neuronu. Tzn. je-li menší než práh, je neuron pasivní (inhibovaný) a je-li větší než práh, je neuron aktivní (excitovaný).
Aktivační funkce
Aktivační (přenosová) funkce neuronu v umělých neuronových sítích definuje výstup neuronu při zadání sady vstupů neuronu. Příkladem často užívané aktivační funkce je sigmoida (Logistická funkce) o parametrech strmosti (určující šířku pásma citlivosti neuronu na svůj aktivační potenciál) a prahové hodnoty (určující posunutí počátku funkce) spolu s jejími limitními tvary jako je linearita pro strmost blížící se nekonečnu resp. ostrá nelinearita (skoková funkce) pro strmost blížící se nule:[27]
, tj. pro a pro resp.
Volbou aktivační funkce neuronů vstupní resp. výstupní vrstvy neuronové sítě můžeme určit způsob transformace dat na síť přiváděných:
Cílem učení neuronové sítě je nastavit síť tak, aby dávala co nejpřesnější výsledky. V biologických sítích jsou zkušenosti uloženy v synapsích. V umělých neuronových sítích jsou zkušenosti uloženy v jejich matematickém ekvivalentu – váhách. Učení neuronové sítě rozlišujeme na učení s učitelem (supervised learning) a učení bez učitele (unsupervised learning) . Fáze učení neuronové sítě bývá nazývána adaptivní, fáze vybavování po naučení neuronové sítě bývá nazývána aktivní.
Učení s učitelem
Při učení s učitelem trénovací data sestávají ze vstupních objektů (vektorů jejich příznaků) a jejich požadovaných výstupních ohodnocení, tj. závisle proměnných (obecně také ve tvaru vektorů), tj. výroků učitele o objektu. Podobně jako v biologických sítích je zde využita zpětná vazba. Neuronové síti je předložen vzor. Na základě aktuálního nastavení sítě je zjištěn aktuální výsledek. Ten porovnáme s vyžadovaným výsledkem a určíme chybu. Poté spočítáme nutnou korekci (dle typu neuronové sítě) a upravíme hodnoty vah či prahů, abychom snížili hodnotu chyby. Toto opakujeme až do dosažení námi stanovené minimální chyby. Poté je síť adaptována. Výstupem naučené funkce (jejíž příklady jsou obsaženy v trénovacích datech) pak mohou být spojité hodnoty (při regresi) anebo binární hodnoty označující příslušnost vstupních objektů do daných tříd (při klasifikaci). Naučená funkce pak dokáže odhadovat výstupní ohodnocení každého vstupního objektu (i neobsaženého v trénovacích datech) poté, co zpracuje trénovací příklady (tj. dvojice vstup a požadovaný výstup). Aby to dokázala, musí umět zobecnit (generalizovat) souvislost mezi vstupy a výstupy danou příklady obsaženými v trénovacích datech "smysluplným" způsobem.[28]
Pozn.: Pokud se vstupní objekty shodují s požadovanými výstupními ohodnoceními, mluvíme o tzv. samoučení (self-supervised learning), tj. síť (např. autoenkodér) se pak učí tzv. autoasociativní fuknkci.
Učení bez učitele
Na rozdíl od učení s učitelem trénovací data při učení bez učitele nemají vstupní data provázaná s cílovými proměnnými (ohodnocením, závisle proměnnou...), tj. schází výrok učitele a učení bez učitele tedy vykazuje samoorganizaci, která zachycuje vzory jako hustotu pravděpodobnosti.[29] Učení bez učitele si tedy lze představit jako kompresi vstupních dat, např. například snížení jejich dimense (v analýze hlavních komponent) nebo jejich redukci na diskrétní body (jako je tomu ve shlukové analýze, kde vstupní data reprezentujeme označenými shluky), či jejich vyhlazení (odhad distribučních funkcí). U neuronových sítí se učení bez učitele užívá typicky u kompetičních sítí. Při učení bez učitele nevyhodnocujeme správnost výsledku. Při tomto učení nám vyžadovaný výsledek není znám. Síť dostává na vstup sadu vzorů, které si sama třídí přizpůsobením své topologie. Vzory třídí do skupin a reaguje dle jejich typického zástupce.[30]
Pozn.: Kombinaci učení s učitelem a učení bez učitele označujeme jako semi-supervised learning.
Hebbovské učení
Hebbův[31] princip učení lze popsat jako metodu určování, jak měnit váhy mezi umělými neurony. Váha mezi dvěma neurony se zvyšuje, pokud se oba neurony aktivují současně, a snižuje, pokud se aktivují odděleně. Uzly, které mají tendenci být buď oba pozitivní, nebo oba negativní současně, mají silné pozitivní váhy, zatímco ty, které mají tendenci být opačné, mají silné negativní váhy. Hebbovské učení se užívá u asociativních pamětí, jako je Hopfieldova či bidirektní síť.
Přeučení
Přeučení je stav, kdy je systém příliš přizpůsoben množině trénovacích dat, ale nemá schopnost generalizace a selhává na validační množině dat. To se může stát např. při malém rozsahu trénovací množiny nebo pokud je systém příliš komplexní, např. příliš mnoho skrytých neuronů v neuronové síti. Řešením je zvětšení trénovací množiny, snížení složitosti systému nebo různé techniky regularizace, jako je zavedení náhodného šumu (což v zásadě odpovídá rozšíření trénovací množiny), zavedení omezení na parametry systému, které v důsledku snižuje složitost popisu naučené funkce, nebo předčasné ukončení učení (průběžné sledování chyby na validační množině a konec učení ve chvíli, kdy se chyba na této množině dostane do svého minima).
Data
Data určená pro učení neuronové sítě se skládají ze vstupních vektorů dat a odpovídajících vstupních vektorů dat (učení s učitelem). Pro správné naučení inteligentního systému je obvykle potřeba dostatečně reprezentativní množství trénovacích dat. Inteligentní systémy jsou v podstatě funkce, které ze vstupního vektoru vypočítají výstupní vektor a podle rozdílu od správného výstupního vektoru upraví své vnitřní parametry. Tento proces se opakuje, dokud není systém dostatečně naučen. Při učení se používají trénovací data, validační data či testovací data. Tato data mají být disjunktní. Pomocí trénovacích dat probíhá vlastní učení, podle chování na validačních datech se kontroluje přeučování a na testovacích datech se určuje úspěšnost učení na nových, neznámých datech. Trénovací data se tedy dle způsobu užití dělí do tří skupin:
Trénovací množina je sada dat, ve které algoritmus nachází určitý vztah mezi vstupy a výstupy, tj. provádí jejich regresní analýzu, čímž se učí.
Validační množina je sada dat, která se používají pro případnou úpravu parametrů učení (hyperparametrů) ve snaze vyhnout se jeho přeučení. Systém je správně naučený tehdy, jestliže se shodnou úspěšností vyhodnocuje trénovací množinu i validační množinu. Pokud má vyhodnocení trénovací množiny výrazně vyšší úspěšnost, je systém přeučený.
Testovací množina je sada dat, která se používají pro ověření kvality naučeného systému.
V případě učení bez učitele se trénovací data skládají pouze ze vstupních vektorů dat obsažených v trénovací množině.
Algoritmus zpětného šíření chyby
Algoritmus zpětného šíření chyby je typická metoda učení umělých neuronových sítí. Používá se u vícevrstvých sítí při učení s učitelem, tedy pokud je na množině příkladů použitých k učení vždy znám požadovaný výsledek. Zpětné šíření chyby je založeno na metodě gradientního sestupu.
Kvalita naučení umělé neuronové sítě je popsána chybovou funkcí, nejčastěji kvadratickou chybou[27]:
, pak
chyba
počet vzorků předložených síti
počet neuronů výstupní vrstvy
požadovaný výstup daného neuronu a daného vzorku
vypočítaný výstup daného neuronu a daného vzorku
vektor přírůstků vah gradientního kroku
velikost gradientního kroku
Jeden sestupný gradientní krok pak může vypadat následovně:[27]
potenciál i-tého neuronu
skutečný stav i-tého neuronu
požadovaný stav i-tého neuronu
adaptační funkce i-tého neuronu
strmost aktivační funkce i-tého neuronu
práh i-tého neuronu
váha vazby i-tého neuronu s j-tým neuronem
velikost gradientního kroku
míra setrvačnosti gradientního sestupu
populace neuronů L-té vrstvy
počet vrstev sítě
předcházející přírůstek příslušné proměnné
Cílem učení je minimalizovat chybovou funkci závislou na vstupních vahách neuronů, přičemž gradientní sestup obecně najde pouze lokální minimum, proto se do gradientního sestupu zavádí jistá jeho setrvačnost, spočívající v míře respektování směru jeho minulého sestupného kroku, tj. k aktuálnímu gradientu se připočte minulý gradient a aktuální sestupný krok se provede ve směru jejich součtu, tato deformace gradientního sestupu pak umožní vyklouznutí z mělkého lokálního minima. Učení neuronové sítě spočívá ve změně vah vstupů neuronů. Algoritmus zpětného šíření chyby v každém kroku postupuje v následujících třech fázích:
Aplikují se vzorky a pro každý vzorek se postupně směrem vpřed napočítají výstupy (vstupní signál se sítí šíří směrem dopředu).
Napočítané výstupy se porovnají s požadovanými výstupy, tj. spočte se chyba, jak byla popsána výše.
Na základě spočtené chyby se počítají hodnoty adaptačních funkcí ve směru od poslední vrstvy k první vrstvě (pro výpočet hodnoty adaptačních funkcí podřazené vrstvy již musí být vypočteny hodnoty adaptačních funkcí nadřazené vrstvy), tj. spočítá se gradient chybové funkce, na základě kterého se provede sestupný gradientní krok, tj. upraví se vstupní váhy neuronů tak, že klesne hodnota chyby. Výpočet tedy postupuje zpětně od výstupní vrstvy až po vstupní vrstvu (odtud zpětné šíření chyby), váhy se mění podle jejich vlivu na chybu.
Hluboké učení
Hluboké učení je disciplína v rámci strojového učení, která se zabývá učením neuronových sítí s velkou hloubkou.[32] Hloubkou modelu se myslí počet vrstev neuronů, které jsou za sebou zapojeny tak, že výstup jedné vrstvy je vstupem vrstvy následující. U modelů hlubokého učení se přitom hloubka nachází často v řádech desítek a více vrstev. Pro odhad parametrů sítě (trénování) se obvykle používá algoritmus zpětného šíření chyby. Trénování probíhá ve dvou fázích, tj. nejprve předučení sítě dopředným směrem např. pomocí autoenkodérů (učení bez učitele) a poté doučení sítě zpětným směrem (učení s učitelem), eliminuje se tak tlumení zpětného šíření chyby. Metodologie hlubokého učení se prosadila kolem roku 2010 jako základní možnost pro řešení složitých problémů strojového učení jako je klasifikace obrazů, mluvené či psané řeči nebo překlady z jednoho přirozeného jazyka do jiného.
Modulární neuronová síť
Biologické studie ukazují, že lidský mozek nepracuje jako jediná masivní síť, ale jako soubor malých sítí. Tento výzkum dal zrod konceptu modulárních neuronových sítí, ve kterých několik malých sítí spolupracuje nebo soutěží, aby vyřešily daný problém.
Konkrétní problémy: následují část je prakticky neozdrojovaná
Komise strojů
Komise strojů (Committee of Machines; CoM) je soubor různých modelů, které „hlasují“ pro zadaný příklad. To obvykle dává lepší výsledky ve srovnaní s dalšími modely neuronových sítí. Tyto metoda směřuje ke stabilizaci výsledku. Je podobná obecné metodě bagging, až na to, že nutná rozmanitost strojů se získává trénováním vycházejícím z různých náhodně vybraných startovních vah, oproti trénování na různých náhodně vybraných podmnožinách trénovacích dat.
Asociativní neuronové sítě (ASNN)
Asociativní neuronové sítě jsou rozšíření CoM, které jde za jednoduché průměrování výsledků různých neuronových sítí. ASNN představuje kombinaci souboru dopředných neuronových sítí a techniky k-nejbližšího souseda. Tato metoda používá korelaci mezi jednotlivými odezvami sítí souboru jako míru vzdálenosti mezi analyzovanými vzory pro techniku k-nejbližšího souseda. Asociativní neuronová síť má paměť, která obsahuje tréninkovou sadu vzorů. Pokud jsou k dispozici nová data v tréninkové sadě neobsažená, síť poskytuje přiměřenou aproximaci jejich odezvy bez nutnosti přetrénování souboru neuronových sítí, a to korekcí zkreslení nových dat vůči tréninkové sadě. Tato vlastnost ASNN zlepšuje její prediktivní schopnost oproti tradičním neuronovým sítím.
Reference
↑Tomáš Mikolov - Hyde Park Civilizace | Česká televize. [s.l.]: [s.n.] Dostupné online.
↑VENKATESAN, Ragav; LI, Baoxin. Convolutional Neural Networks in Visual Computing: A Concise Guide. [s.l.]: CRC Press, 2017-10-23. Dostupné online. ISBN978-1-351-65032-8. (anglicky)Je zde použita šablona {{Cite book}} označená jako k „pouze dočasnému použití“.
↑ZHA, Xiong; PENG, Hua; QIN, Xin; LI, Guang. A Deep Learning Framework for Signal Detection and Modulation Classification. [s.l.]: MDPI, 2019-9-19. Dostupné online. (anglicky)Je zde použita šablona {{Cite book}} označená jako k „pouze dočasnému použití“.
↑KOHONEN, Teuvo. The self-organizing map. [s.l.]: Proceedings of the IEEE 78 (9), 1990. 17 s. (anglicky)
↑ A Beginner's Guide to Word2Vec and Neural Word Embeddings. Pathmind [online]. [cit. 2022-10-29]. Dostupné online. (anglicky)
↑ abMCCULLOCH, W. S. T.; PITTS, W. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics 5. [s.l.]: [s.n.], 1943. 19 s. (anglicky)
↑ROSENBLATT, F. The Perceptron - a perceiving and recognizing automaton, Report 85–460–1, Cornell Aeronautical Laboratory. [s.l.]: [s.n.], 1957. (anglicky)
↑HAGAN, Martin T. Neural network design. druhé. vyd. [s.l.]: [s.n.], 2014. 800 s. Dostupné online. (anglicky)
↑Stuart Dreyfus: Artificial Neural Networks, Back Propagation and the Kelley-Bryson Gradient Procedure. In: J. Guidance, Control and Dynamics. 1990.
↑Jürgen Schmidhuber: Deep learning in neural networks: An overview. In: Neural Networks. 61, 2015, S. 85–117. ArXiv
↑Henry J. Kelley: Gradient theory of optimal flight paths. In: Ars Journal. 30(10), 1960, S. 947–954. (online)
↑Arthur E. Bryson: A gradient method for optimizing multi-stage allocation processes. In: Proceedings of the Harvard Univ. Symposium on digital computers and their applications. April 1961.
↑Stuart Dreyfus: The numerical solution of variational problems. In: Journal of Mathematical Analysis and Applications. 5(1), 1962, S. 30–45. (online)
↑A. E. Bryson, W. F. Denham, S. E. Dreyfus: Optimal programming problems with inequality constraints. I: Necessary conditions for extremal solutions. In: AIAA J. 1, 11, 1963, S. 2544–2550.
↑Seppo Linnainmaa: The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors. Master’s Thesis (in Finnish), Univ. Helsinki, 1970, S. 6–7.
↑Seppo Linnainmaa: Taylor expansion of the accumulated rounding error.In: BIT Numerical Mathematics. 16(2), 1976, S. 146–160.
↑Andreas Griewank: Who Invented the Reverse Mode of Differentiation? Optimization Stories. In: Documenta Matematica. Extra Volume ISMP, 2012, S. 389–400.
↑Andreas Griewank, Andrea Walther: Principles and Techniques of Algorithmic Differentiation. 2. Auflage. SIAM, 2008.
↑Stuart Dreyfus: The computational solution of optimal control problems with time lag. In: IEEE Transactions on Automatic Control. 18(4), 1973, S. 383–385.
↑Paul Werbos: Beyond regression: New tools for prediction and analysis in the behavioral sciences. PhD thesis. Harvard University 1974.
↑Paul Werbos: Applications of advances in nonlinear sensitivity analysis. In: System modeling and optimization. Springer, Berlin/ Heidelberg 1982, S. 762–770. (online)
↑Eric A. Wan: Time series prediction by using a connectionist network with internal delay lines. In: Santa Fe Institute Studies in the Sciences of Complexity-Proceedings. Vol. 15, Addison-Wesley Publishing Co., 1993, S. 195–195.
↑HINDMARSH, J. L.; ROSE, R. M. A model of neuronal bursting using three coupled first order differential equations. Biological Sciences 221 (1222). London: The Royal Society, 1984. 16 s. (anglicky)
↑GENTLEMAN, R.; CAREY, V. J. Supervised Machine Learning. Bioconductor Case Studies. New York: Springer, 2008. 16 s. Dostupné online. ISBN978-0-387-77239-4. (anglicky)
↑HINTON, Geoffrey; SEJNOWSKI, Terrence. Unsupervised Learning: Foundations of Neural Computation. [s.l.]: MIT Press, 1999. ISBN978-0262581684.Je zde použita šablona {{Cite book}} označená jako k „pouze dočasnému použití“.
↑GENTLEMAN, R.; CAREY, V. J. Unsupervised Machine Learning. Bioconductor Case Studies. New York: Springer, 2008. 21 s. Dostupné online. ISBN978-0-387-77239-4. (anglicky)
↑HEBB, D.O. The Organization of Behavior. New York: Wiley & Sons, 1949. Dostupné online. (anglicky)
↑GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep Learning. [s.l.]: MIT Press, 2016. 767 s. Dostupné online. (anglicky)
Confine tra l'Etiopia e la SomaliaLocalizzazione dell'Etiopia (in verde) e della Somalia (in arancione).Dati generaliStati Etiopia Somalia Lunghezza1600 km Dati storiciIstituito nel1908 1935 ManualeL'area della Grande Somalia rivendicata dalla Somalia dal 1960. Il confine tra l'Etiopia e la Somalia è unicamente terrestre e ha una lunghezza di circa 1600 km. Può essere suddiviso in due parti. La sua parte meridionale, lungo l'ex colonia della Somalia italiana, non è mai stato...
San Antonio Localidad Paradise San AntonioLocalización de San Antonio en UruguayCoordenadas 34°27′03″S 56°04′53″O / -34.45083333, -56.08138889Entidad Localidad • País Uruguay • Departamento Canelones • Municipio San AntonioTeniente Coronel Eren JeagerEventos históricos • Fundación 14 de enero de 400Altitud • Media 50 m s. n. m.Población (2011) • Total 90,000,000[1] hab.Huso horario U...
Este artigo ou secção necessita de expansão. Por favor, melhore este artigo ou secção acrescentando-lhe conteúdo. Caca-da-norfolk pintura de John Gould Estado de conservação Extinta Classificação científica Reino: Animalia Filo: Chordata Classe: Aves Ordem: Psittaciformes Família: Strigopidae Género: Nestor Espécie: N. productus Nome binomial Nestor productus(Gould, 1836) O caca-da-norfolk (Nestor productus) é uma espécie de ave extinta da ordem psitaciformes e família dos es...
Габріель Нелідов у фільмі «Травнева ніч, або Утоплена» в ролі пасічника (1952)Народився 1897(1897)Катеринослав, Російська імперіяПомер 1965(1965)Київ, Українська РСР, СРСРПоховання Байкове кладовищеГромадянство Російська імперія СРСРДіяльність акторAlma mater Державний музичн...
CCAAHistoireFondation 24 décembre 1998CadreType Établissement public administratif doté de la personnalité juridique et de l’autonomie financièreSiège Base aérienne 101, YaoundéPays CamerounLangue Français, AnglaisOrganisationEffectif 901 en 2021PCA Patrice Emmanuel Ngole IIIDG Paule Assoumou KokiDGA Allabira MamadouOrganisation mère Ministère des Transports (d)Site web www.ccaa.aero/index.php/frmodifier - modifier le code - modifier Wikidata La CCAA (Cameroon Civil Aviatio...
1987 attempt to resolve the Sri Lankan Civil War Indo-Sri Lanka AccordContextSri Lankan Civil WarSigned29 July 1987; 36 years ago (1987-07-29)LocationColombo, Sri LankaSignatories Rajiv Gandhi(Prime Minister of India ) Junius Richard Jayewardene(President of Sri Lanka) Parties India Sri Lanka Languages Sinhala Tamil English vteIndian intervention in theSri Lankan Civil War Poomalai Pawan Trishul Viraat Checkmate Jaffna University Helidrop Wikisource has original ...
Arapaima leptosoma Arapaima leptosoma di Akuarium Kebun Binatang SevastopolStatus konservasiKekurangan dataIUCN162701510 TaksonomiKerajaanAnimaliaFilumChordataKelasActinopteriOrdoOsteoglossiformesFamiliArapaimidaeGenusArapaimaSpesiesArapaima leptosoma lbs Arapaima leptosoma adalah sebuah spesies ikan air tawar yang merupakan endemik di dekat Solimões dan Sungai Purus, Amazonas, Brasil.[2] Seperti anggota lain dari genus Arapaima, ikan tersebut dapat bernapas di udara.[3] Spes...
Artikel ini sebatang kara, artinya tidak ada artikel lain yang memiliki pranala balik ke halaman ini.Bantulah menambah pranala ke artikel ini dari artikel yang berhubungan atau coba peralatan pencari pranala.Tag ini diberikan pada Oktober 2022. Nirmana bidang, umumnya digambar tangan. Contoh merupakan hasil digital. Nirmana (bahasa Inggris: basic design) adalah penataan unsur-unsur rupawi, seperti garis, bentuk, warna dan tekstur, menjadi sebuah kesatuan. Kata nirmana diambil dari kata ni...
This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed.Find sources: Clint Eastwood discography – news · newspapers · books · scholar · JSTOR (December 2020) (Learn how and when to remove this template message) This article is part of a series about Clint Eastwood Early life Personal life Political life 2012 RNC appearance Filmo...
Long Island Rail Road station in Nassau County, New York New Hyde ParkNew Hyde Park station in August 2022General informationLocationNew Hyde Park Road & Second AvenueNew Hyde Park, NYCoordinates40°43′51″N 73°40′50″W / 40.730932°N 73.680569°W / 40.730932; -73.680569Owned byLong Island Rail RoadLine(s)Main LineDistance16.2 mi (26.1 km) from Long Island City[1]Platforms2 side platformsTracks3Connections Nassau Inter-County Express: n24, ...
Cemetery in Munich, Germany Aerial view of the Nordfriedhof from the south Chapel (centre), mortuary (left) View of the cemetery buildings looking towards the burial ground, 1901 (from G A Horst, Die neuen Friedhof-Anlagen Münchens) Mourner on the monument of Julius Braeutigam (d. 1905) (electrotype by Fidel Binz, WMF, Geislingen The Nordfriedhof (Northern Cemetery), with 34,000 burial plots, is one of the largest cemeteries in Munich, Bavaria, Germany. It is situated in the suburb of Schwab...
Mexican singer, songwriter and actress This article is about a Mexican actress. For other uses, see Anahí (disambiguation). In this Spanish name, the first or paternal surname is Puente and the second or maternal family name is Portilla. AnahíAnahí in 2019.First Lady of ChiapasIn role25 April 2015 – 7 December 2018GovernorManuel Velasco CoelloPreceded byIsabel AguileraSucceeded byRosalinda López Hernández SignatureBornAnahí Giovanna Puente Portilla (1983-05-14) 14 May...
European Gendarmerie ForceCoat of armsActive2006–presentCountry 7 states Italy France Netherlands Poland Portugal Romania Spain Allegiance European Union[a]TypeGendarmerie forceSize~40 (Permanent personnel)Motto(s)Lex paciferat (Latin)The law will bring peaceColoursBlue[1] Websiteeurogendfor.orgInsigniaFlagMilitary unit The European Gendarmerie Force (EUROGENDFOR) is a European rapid reaction force composed of elements of several European police and gendarmer...
В Википедии есть статьи о других людях с такой фамилией, см. Карпенко; Карпенко, Игорь; Карпенко, Игорь Васильевич. Игорь Васильевич Карпенко Позиция вратарь Рост 172 см Вес 85 кг Страна Украина Дата рождения 23 июля 1976(1976-07-23) (47 лет) Место рождения Киев, Украинская ССР, СС...
Fort Lauderdale mayoral election, 1994 ← 1991 March 8, 1994[1] 1997 → Candidate Jim Naugle Jim Lewis Party nonpartisan candidate Nonpartisan Popular vote 12,746 3,422 Percentage 78.83% 21.17% Mayor before election Jim Naugle Democratic Elected Mayor Jim Naugle Democratic Elections in Florida Federal government Presidential elections 1848 1852 1856 1860 1868 1872 1876 1880 1884 1888 1892 1896 1900 1904 1908 1912 1916 1920 1924 1928 1932 1936 1940 1944 ...
French car manufacturing and assembly plant class=notpageimage| Location of the Stellantis Mulhouse plant in Alsace The Peugeot 104 was the first car assembled at what had, till that time, been Peugeot's transmission factory French Production of the Peugeot 208 is shared between Mulhouse and Poissy. Peugeot models no longer have the Mulhouse plant to themselves. The Citroën C4 has been built at Mulhouse since 2004. The Stellantis Mulhouse Plant is a major car plant in France owned by Stellan...
Budi Gunadi SadikinMenteri Kesehatan Indonesia ke-20PetahanaMulai menjabat 23 Desember 2020PresidenJoko WidodoWakilDante Saksono HarbuwonoPendahuluTerawan Agus PutrantoWakil Menteri Badan Usaha Milik Negara ke-2Masa jabatan25 Oktober 2019 – 23 Desember 2020Menjabat bersama Kartika WirjoatmodjoPresidenJoko WidodoMenteriErick ThohirPendahuluMahmuddin YasinPenggantiPahala Mansury Informasi pribadiLahir6 Mei 1964 (umur 59)[1]Bandung, Jawa BaratKebangsaa...
Canadian ice hockey player (1941–2021) For the Welsh comedian and broadcaster, see Rhod Gilbert. Ice hockey player Rod Gilbert Hockey Hall of Fame, 1982 Gilbert with the New York Rangers in 1960Born (1941-07-01)July 1, 1941Montreal, Quebec, CanadaDied August 19, 2021(2021-08-19) (aged 80)New York City, New York, U.S.Height 5 ft 9 in (175 cm)Weight 175 lb (79 kg; 12 st 7 lb)Position Right wingShot RightPlayed for New York RangersNational team Can...