Velký jazykový model (anglickylarge language model – zkráceně LLM) je počítačový model jazyka založený na neuronové síti s mnoha parametry (typicky miliardami vah nebo více), trénované na velkém množství textu pomocí samoučení (self-supervised learning) nebo částečného učení s učitelem (semi-supervised learning).[1] Velké jazykové modely se objevily kolem roku 2018 a používají se jako základní modely pro širokou škálu úkolů. To posunulo těžiště výzkumu zpracování přirozeného jazyka od předchozího paradigmatu vytváření specializovaných a na učení s učitelem založených modelů pro konkrétní úkoly. Jazykové modely začaly být v roce 2023 multimodální, tedy zvládaly přijmout různorodé vstupy jako prompty, kromě textů i obrázky, audio či video. Stejně tak zvládnou i různorodý výstup.[2]
Watson od IBM,[7] který v srpnu 2023 implementoval Llama 2[8]
Využití
Ačkoli termín velký jazykový model nemá žádnou formální definici, často označuje modely hlubokého učení s počtem parametrů v řádu miliard nebo více. LLM jsou modely pro všeobecné použití, které vynikají v široké škále úkolů, na rozdíl od modelů pro jeden konkrétní úkol (jako je analýza sentimentu, rozpoznávání pojmenovaných entit nebo matematické uvažování). Dovednost, s jakou LLM plní úkoly, a rozsah úkolů, které jsou schopné řešit, je především funkcí množství zdrojů (dat, počtu parametrů, výpočetního výkonu), které jsou jejich tvorbě věnovány; nejsou tedy založeny na průlomových změnách designu neuronových sítí oproti stavu vědy před rokem 2018, ale spíše mohly vzniknout díky překročení kritické hranice v množství dat a výpočetních zdrojů.[9]
Přestože se neurální jazykové modely s dostatečným školením a počty parametrů trénují na jednoduchých úkolech ve smyslu předvídání dalšího slova ve větě, dokázaly se celkem dobře naučit syntaxi a sémantice lidského jazyka. Velké jazykové modely navíc prokazují značné obecné znalosti o světě a dokáží si během učení „zapamatovat“ velké množství faktů.
Velké jazykové modely lze používat přímo jako partnery k rozhovoru, například při učení se cizím jazykům, anebo na jejich základě budovat aplikace přizpůsobené specifickým požadavkům. Pro tvorbu těchto aplikací lze kromě obecnějších programovacích jazyků využít i specializované frameworky, jako je LangChain.[10]
LLM se učí na datech rozdílných kvalit a pravdivosti. Mohou tedy obsahovat a opakovat dezinformace, konspirace či stereotypy.[11] Vzhledem k tomu, že trénovací data velkých modelů jsou převážně v angličtině, modely pak často prezentují anglo-americkou perspektivu jako jedinou správnou.[12]
Byť LLM snadno nemusí poskytovat neetické rady, takové omezení lze snadno obejít.[13]
Vlastnosti
Data
LLM se učí na velkých souborech textových dat. Některé běžně používané datové sady jsou Common Crawl, The Pile, MassiveText,[14]Wikipedia a GitHub. Datové sady mají rozsah až 10 bilionů slov.
Celková světová zásoba vysoce kvalitních jazykových dat se pohybuje v rozmezí 4,6–17 bilionů slov, což je řádově v rozsahu největších použitých textových datových sad.
Obecně lze LLM charakterizovat čtyřmi parametry: velikost modelu, rozsah trénovací datové sady, náklady na učení, výkon modelu. Každá z těchto čtyř proměnných může být přesně definována a kvantifikována a empiricky bylo zjištěno, že jejich vzájemnou závislost lze zhruba vystihnout vzorci, nazývanými zákonitosti měřítka (anglicky scaling laws).
Jednu konkrétní zákonitost (zvanou „Chinchilla scaling“) pro model autoregresivně učený po jednu epochu s log-log rychlostí učení lze přibližně popsat takto:kde proměnné jsou
je počet tokenů (zhruba řečeno slov) v tréninkové sadě
je průměrná chyba na token (vyjádřená jako negativní logaritmická věrohodnost, nats/token), dosažená hotovým LLM na testovací datové sadě
a regresní parametry jsou
, což znamená, že učení na jednom tokenu vyžaduje 6 FLOPS na parametr. Výpočetní náklady na učení jsou mnohem vyšší než náklady na provoz hotového modelu, kde zpracování jednoho tokenu stojí 1 až 2 FLOP na parametr.
I když obecně platí, že výkon velkých modelů na různých úkolech lze extrapolovat na základě výkonu podobných menších modelů, někdy dochází k „průlomům“ (breaks),[17] skokovým nárůstům schopností, takže větší modely získají podstatně lepší schopnosti, než by se dalo čekat na základě zkušenosti z menších modelů. Ty se často označují jako „emergentní schopnosti“ a jsou předmětem rozsáhlého studia. Výzkumníci tvrdí, že takové schopnosti často „nelze předvídat jednoduše extrapolací výkonu menších modelů“.[18] Spíše se samy objevují než aby byly naprogramovány nebo navrženy. V některých případech se na ně přišlo až po veřejném nasazení LLM. Byly popsány již stovky emergentních schopností. Příklady jsou vícekrokové aritmetické výpočty, složení zkoušek vysokoškolské úrovně, identifikace zamýšleného významu mnohoznačného slova, myšlenkové postupy, dekódování mezinárodní fonetické abecedy, uhodnutí slova na základě seznamu jeho písmen, identifikace urážlivého obsahu v textech psaných hinglish (kombinace hindštiny a angličtiny) a generování podobného anglického ekvivalentu svahilských přísloví.[19]
Halucinace
Bylo pozorováno, že generativní LLM sebejistě tvrdí věci, které se neopírají o jejich trénovací data, což je jev, který se nazývá halucinace.[20]
Architektura
Velké jazykové modely nejčastěji používají architekturu transformeru, která se od roku 2017 stala standardní technikou hlubokého učení pro sekvenční data (dříve byly nejběžnější RNN, jako je LSTM).
Tokenizace
Tokenizace je převod textu na tokeny.[21] Tokenizace je pro převední textu do numerické podoby a jde tak o první krok při zpracování přirozeného jazyka, aby text mohl být strojově využit.[22]LLM je jazykový model založený na neuronové síti, kde vstupem i výstupem jsou vektory čísel. V důsledku toho musí být slova převedena na čísla.
Proto každý LLM používá samostatný tokenizer. Ten kóduje texty na posloupnosti celých čísel. Tokenizer se nejprve nastaví na celé trénovací datové sadě, aby ji dokázal reprezentovat, poté se zmrazí, načež se naučí samotný LLM. Běžnou volbou je kódování bajtových párů (byte pair encoding).
Další funkcí tokenizerů je komprese textu, která šetří paměť počítače. Běžná slova nebo fráze jako „kde je“ lze místo několika znaků zakódovat jediným tokenem. Řada OpenAI GPT používá tokenizer, který na 1 token mapuje přibližně 4 znaky nebo přibližně 0,75 slova v běžném anglickém textu.[23] Neobvyklý text je méně předvídatelný, tudíž méně komprimovatelný, a proto jeho kódování vyžaduje více tokenů.
Výstupem tokenizeru nemůže být libovolné celé číslo, ale pouze celá čísla v rozsahu , kde se nazývá velikost slovní zásoby tokenizeru.
Některé tokenizéry jsou schopny zpracovat libovolný text (obecně tím, že pracují přímo s jeho Unicode reprezentací), ale jiné ne. Když narazí na nekódovatelný text, tokenizér vypíše speciální token (často 0), který představuje neznámý text. Toto se často zapisuje jako [UNK], například v článku o BERT.
Dalším běžně používaným speciálním tokenem je [PAD] (často 1) jako „vycpávka“. Ta se používá, protože LLM obecně na vstup dostává celý tokenizovaný text najednou, a tyto texty obecně nemají stejnou délku. Vzhledem k tomu, že LLM obecně vyžadují, aby vstupem byl vektor přesně zadané délky, kratší kódované texty musejí být na konci doplněny vycpávkou.
Výstup
Základním výstupem LLM je rozdělení pravděpodobnosti nad jeho slovní zásobou. To se obvykle dosahuje takto:
Po zpracování textu LLM vygeneruje vektor kde je velikost jeho slovní zásoby (definovaná výše).
Vektor projde funkcí softmax , která jej normalizuje.
Vektor se obvykle nazývá nenormalizovaný logitový vektor a vektor se nazývá vektor pravděpodobnosti. Má prvků, všechny nezáporné, a jejich součet je 1, můžeme ho interpretovat jako rozdělení pravděpodobnosti přes — to znamená, že se jedná o rozdělení pravděpodobnosti nad slovníkem LLM.
Učení
Většina LLM se učí tak, že používá datový soubor textových tokenů a předpovídá tokeny v tomto datovém souboru. Existují dva možné postupy:[24]
autoregresivní (styl GPT, „předpověz další slovo“): Na základě segmentu textu jako „rád jím“ model předpoví následující tokeny, např. „zmrzlinu“.
maskující (styl BERT, vynechaná slova): Je zadán segment textu jako „Rád [MASKA] zmrzlinu“ a model předpovídá maskované tokeny, např. "jím".
LLM mohou být trénovány na pomocných úlohách, které testují jejich porozumění distribuci dat, jako je Next Sentence Prediction (NSP), ve které jsou prezentovány dvojice vět a model má určit, zda se v trénovacím korpusu objevily po sobě.
Obvykle jsou LLM trénovány tak, aby minimalizovaly specifickou ztrátovou funkci: průměrnou zápornou logaritmickou pravděpodobnost na token (také nazývaná ztráta křížové entropie). Pokud například autoregresivní model s daným výrazem „rád jím“ předpovídá rozdělení pravděpodobnosti pak je záporná pravděpodobnost ztráty logu na tomto tokenu .
Během tréninku se ke stabilizaci učení používá také regularizace. Existuje také mnohem více hodnotících kritérií než jen negativní logaritmická pravděpodobnost.
Velikost trénovací datové sady
Nejstarší LLM byly trénovány na korpusech řádově miliard slov.
GPT-1, první model z číslované řady generativních předtrénovaných transformerůOpenAI, byl v roce 2018 trénován na BookCorpus, který obsahuje 985 milionů slov.[25] Ve stejném roce byl BERT vyškolen na kombinaci BookCorpus a anglické Wikipedie, celkem 3,3 miliardy slov. Od té doby se tréninkové korpusy pro LLM řádově rozrostly a dosáhly až bilionů tokenů.
Náklady na učení
Trénování LLM je výpočetně nákladné. Studie z roku 2020 odhadla náklady na trénování modelu s 1,5 miliardami parametrů (o 2 řády menší než tehdejší stav techniky) na 1,6 milionu dolarů. Pokrok softwaru a hardwaru náklady podstatně snižuje, protože dokument z roku 2023 uvádí náklady 72 300 hodin A100-GPU na trénování modelu s 12 miliardami parametrů.
Aplikace
Mezi lety 2018 a 2020 bylo standardní metodou využití LLM pro konkrétní úkol model doladit (fine tune) pomocí dalšího učení specifického pro daný úkol. Poté bylo zjištěno, že výkonnější LLM, jako je GPT-3, mohou řešit úkoly bez dalšího školení pomocí vhodně formulovaného podnětu (promptu). Problém, který má být vyřešen, je modelu přímo popsán a případně doplněn příklady podobných problémů a jejich řešení.
K typickým problémům řešeným pomocí velkých jazykových modelů patří
Sumarizace rozsáhlého textu
Naopak generování textu ze sumáře
Stylistika textu (napodobování autora nebo postavy)
Ladění je modifikace existujícího předtrénovaného jazykového modelu dalším učením (s učitelem) na konkrétní úkol (např. analýza sentimentu, rozpoznávání pojmenovaných entit nebo identifikace slovních druhů). Je to typ transferového učení. Zpravidla se využívá přidání nové sady vah spojujících poslední vrstvu předtrénovaného jazykového modelu s výstupem následné úlohy. Původní váhy jazykového modelu mohou být zmrazeny, takže se během tréninku učí pouze nová vrstva vah, spojená s výstupem. Případně mohou původní váhy být nepatrně aktualizovány (případně se zmrazenými nižšími vrstvami).
V paradigmatu promptingu, popularizovaném GPT-3, je problém, který má být vyřešen, formulován pomocí textové výzvy, kterou musí model zodpovědět. Prompt může také obsahovat malý počet příkladů párů (problém, řešení), čemuž se říká učení na několika příkladech, few-shot prompting. Například úkol analýzy sentimentu filmové recenze může být promptován takto:
Review: This movie stinks.
Sentiment: negative
Review: This movie is fantastic!
Sentiment:
Pokud model odpoví „pozitivní“, pak úlohu správně vyřešil. Prompt bez příkladů (zero-shot) neuvádí žádné vyřešené příklady. Příkladem pro stejný úkol analýzy sentimentu může být prompt „Pocit spojený s recenzí filmu 'Tento film je fantastický!' je".
Ukázalo se, že výkon LLM v oblasti učení na několika příkladech dosahuje konkurenceschopných výsledků v úkolech NLP a někdy překonává předchozí nejmodernější přístupy k ladění modelů. Příklady takových úloh NLP jsou překlad, odpovídání na otázky, doplňování slov do věty a použití neznámého slova ve větě. Vytváření a optimalizace takových výzev se nazývá prompt inženýrství.
Ladění instrukcí
Ladění instrukcí (instruction tuning) je druh ladění navržený tak, aby usnadnila přirozenější a přesnější interakce bez příkladů. Předtrénovaný jazykový model po zadání textu vygeneruje odpověď, která odpovídá distribuci textů, na kterých byl trénován. Model je dotrénován na mnoha příkladech úloh formulovaných jako instrukce přirozeného jazyka spolu s vhodnými reakcemi.
Posílení ze zpětné vazby
Protokol InstructGPT firmy OpenAI zahrnuje doladění na datové sadě lidmi generovaných párů (výzva, odpověď), doplněný lidskou zpětnou vazbou (reinforcement learning from human feedback, RLHF).
Hodnocení
Nejčastěji používaným měřítkem výkonu jazykového modelu je jeho perplexita na daném textovém korpusu. Ta je mírou toho, jak dobře je model schopen předpovědět obsah datové sady. Matematicky je definována jako exponenciála průměrné pravděpodobnosti záporného logaritmu na token:kde je počet tokenů v textovém korpusu a "kontext pro token i" závisí na konkrétním typu použitého LLM. Pokud je LLM autoregresivní, pak „kontext pro token i“ je segment textu, který se objevuje před tokenem i. Pokud učení LLM využívá maskování, pak „kontext pro token i“ je segment textu obklopující token i.
Vzhledem k tomu, že jazykové modely se mohou přeučit na svých trénovacích datech, modely se obvykle hodnoceny podle jejich perplexity na testovací sadě jim neznámých dat. To představuje zvláštní výzvu, protože jak jsou modely trénovány na stále větších korpusech textu z velké části stažených z webu, je stále pravděpodobnější, že trénovací data modelů neúmyslně zahrnují i části jakékoli testovací sady.
Kromě perplexity bylo vyvinuto velké množství dalších testovacích datových sad a benchmarků pro hodnocení schopností jazykových modelů na specifičtějších úkolech. Testy mohou být navrženy tak, aby vyhodnotily různé schopnosti včetně obecných znalostí, logického uvažování a řešení matematických problémů.
Rizika
U LLM hrozí únik dat, která byla použita v jejich vytváření. Způsoby testování nemusejí být účinné.[27]
↑ Large language models repeat conspiracy theories and other forms of misinformation, research finds. techxplore.com [online]. [cit. 2023-12-20]. Dostupné online.
↑LUO, Queenie; PUETT, Michael J.; SMITH, Michael D. A "Perspectival" Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, YouTube, and Wikipedia. arxiv.org. 2023. Dostupné online [cit. 2024-05-05]. DOI10.48550/ARXIV.2303.16281.
↑ Researchers find LLMs are easy to manipulate into giving harmful information. techxplore.com [online]. [cit. 2024-05-17]. Dostupné online.
↑ Reasoning skills of large language models are often overestimated, researchers find. techxplore.com [online]. [cit. 2024-07-12]. Dostupné online.
↑J. Hoffmann, S. Borgeaud, A. Mensch, E. Buchatskaya, T. Cai, E. Rutherford, D. d. L. Casas, L. A. Hendricks, J. Welbl, A. Clark, et al., "Training Compute-Optimal Large Language Models," arXiv:2203.15556
↑Caballero, Ethan; Gupta, Kshitij; Rish, Irina; Krueger, David (2022). Broken Neural Scaling Laws. International Conference on Learning Representations (ICLR), 2023.
↑openreview.net. Dostupné online.Je zde použita šablona {{Cite journal}} označená jako k „pouze dočasnému použití“.
↑SHIPILOV, Denis. Your Ultimate Guide to Chat GPT and Other Abbreviations [online]. KDNuggets [cit. 2023-06-30]. Dostupné online. (anglicky)[nedostupný zdroj]
↑ Common way to test for leaks in large language models may be flawed. techxplore.com [online]. [cit. 2024-11-15]. Dostupné online.
KOUBSKÝ, Petr. Velké jazykové modely mohou být předzvěstí mocné umělé inteligence. Jsou pokročilejší, než většina z nás ví. Deník N [online]. 2021-12-26 [cit. 2023-06-14]. Dostupné online.
Vehicle maneuver This article is about a vehicle maneuver. For other uses, see Wheelie (disambiguation). Wheel stand redirects here. For the bicycle wheel straightening tool, see wheel truing stand. This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed.Find sources: Wheelie – news · newspapers · books · scholar · JSTOR (April 2...
Artikel ini tidak memiliki referensi atau sumber tepercaya sehingga isinya tidak bisa dipastikan. Tolong bantu perbaiki artikel ini dengan menambahkan referensi yang layak. Tulisan tanpa sumber dapat dipertanyakan dan dihapus sewaktu-waktu.Cari sumber: Tuan Gadang – berita · surat kabar · buku · cendekiawan · JSTORTuan Gadang adalah gelar kebesaran untuk seseorang penghulu dalam struktur pemerintahan Pagaruyung. Tuan Gadang dalam tambo Tuan Gadang dise...
عبد الرؤوف الكسم مدير مكتب الأمن القومي في المنصب1987 – 2000 الرئيس حافظ الأسد رئيس وزراء سوريا في المنصب9 كانون الثاني 1980 – 1 تشرين الثاني 1987 الرئيس حافظ الأسد محمد علي الحلبي محمود الزعبي محافظ دمشق في المنصب1979 – 1980 فاروق الحموي محمد السيوفي عميد كلية الفنون الجميلة في ج...
ألان روستشيل (بالبرتغالية البرازيلية: Alan Ruschel) معلومات شخصية الميلاد 23 أغسطس 1989 (34 سنة)[1][2] تاكارا الطول 1.74 م (5 قدم 8 1⁄2 بوصة)[3][3] مركز اللعب مدافع الجنسية البرازيل معلومات النادي النادي الحالي نادي أمريكا(معارًا من كروزيرو) الرق
Convento de Santo Antônio Convento de Santo Antônio (Rio de Janeiro)Convento e igreja de Santo Antônio. O convento é o grande edifício da esquerda, com um campanário. No centro, está a estreita fachada da igreja do convento. À direita, veem-se os três corpos da Igreja da Ordem Terceira de São Francisco da Penitência. Tipo convento Estilo dominante Arquitetura colonial do Brasil Início da construção 4 de junho de 1608 Inauguração 1620 Diocese Arquidiocese de São Sebastião do ...
Uzbekistan Przydomek Oq boʻrilar (Białe wilki), Turanlılar (Turańczycy) Związek Oʻzbekiston Futbol Federatsiyasi Sponsor techniczny Joma Trener Srečko Katanec(od 2021) Asystent trenera Timur Kapadze Skrót FIFA UZB Ranking FIFA 77. (1306.63 pkt.)[a] Miejsce w rankingu Elo 56. (1 lutego 2019) (1612 pkt.) Zawodnicy Kapitan Odil Ahmedov Najwięcej występów Server Jeparov (126) Najwięcej bramek Maksim Shatskix (34) Strojedomowe Strojewyjazdowe Mecze Pierwszy mecz Tadżykistan 2:2 U...
У Вікіпедії є статті про інші населені пункти з такою назвою: Богданівка. село Богданівка Країна Україна Область Миколаївська область Район Миколаївський район Громада Березанська селищна громада Код КАТОТТГ UA48060010040027443 Основні дані Населення 25 Поштовий індекс 57420 Т...
1987 video game 1987 video gameContraNES box cover. Bill and Lance were drawn by British artist Bob Wakelin. The background is from the original Japanese promotional art.Developer(s)KonamiPublisher(s)KonamiDesigner(s)ArcadeKoji Hiroshita NESShigeharu Umezaki Shinji KitamotoComposer(s)ArcadeKazuki Muraoka NES/FamicomHidenori MaezawaKiyohiro SadaSeriesContraPlatform(s) Arcade, Nintendo Entertainment System Amstrad CPC, BlackBerry OS, Commodore 64, Java Platform, Micro Edition, IBM Personal Comp...
هذه مقالة غير مراجعة. ينبغي أن يزال هذا القالب بعد أن يراجعها محرر مغاير للذي أنشأها؛ إذا لزم الأمر فيجب أن توسم المقالة بقوالب الصيانة المناسبة. يمكن أيضاً تقديم طلب لمراجعة المقالة في الصفحة المخصصة لذلك. (أغسطس 2022) عائلة عبدالحميد حافظ النوع دراما تأليف مريم نصير إخراج س...
American politician General Logan redirects here. For other uses, see General Logan (disambiguation). For the airport in Boston named after him, see Logan International Airport. Edward Lawrence LoganLogan, c. 1916.Personal detailsBorn(1875-01-20)January 20, 1875South Boston, Massachusetts, U.S.DiedJuly 6, 1939(1939-07-06) (aged 64)Boston, Massachusetts, U.S.Political partyDemocraticSpouseCecilia Mullen[1]ChildrenEdward Jr., Patricia[1]Alma materHarvard UniversityProfessio...
2017 Indian filmShivalingaTheatrical release posterDirected byP. VasuWritten byP. VasuBased onShivalingaBy P. VasuProduced byR. RavindranStarringRaghava LawrenceRitika SinghShakthi VasudevanCinematographySarvesh MurariEdited bySuresh UrsMusic byS. S. ThamanProductioncompanyTrident ArtsDistributed byAcross FilmsRelease date14 April 2017Running time156 minutesCountryIndiaLanguageTamil Shivalinga is a 2017 Indian Tamil-language comedy horror mystery film directed by P. Vasu, starring Raghava Law...
Christopher HitchensHitchens tahun 2007LahirChristopher Eric Hitchens13 April 1949 (umur 74)Portsmouth, Hampshire, InggrisMeninggal15 Desember 2011(2011-12-15) (umur 62)Houston, Texas, Amerika SerikatKebangsaanAmerika/BritaniaAlmamaterBalliol College, OxfordPekerjaanPenulis dan punditSuami/istriCarol Blue (1989–sekarang) Eleni Meleagrou (1981–1989)AnakAlexander, Sophia, Antonia Christopher Eric Hitchens (lahir 13 April 1949 di Portsmouth, Hampshire, Inggris; meninggal 15 Desembe...
Former public-use airport in Maryland, U.S. Suburban AirportIATA: noneICAO: noneFAA LID: W18SummaryAirport typePublicOwnerSuburban Air Park LLCLocationLaurel, MarylandOpenedMarch 1960 (1960-03)ClosedJune 30, 2017 (2017-06-30)Elevation AMSL148 ft / 45 mCoordinates39°04′37″N 076°49′41″W / 39.07694°N 76.82806°W / 39.07694; -76.82806MapW18Location of airport in MarylandShow map of MarylandW18W18 (the United States)Show ma...
AlienSingel oleh Sabrina Carpenter dan Jonas Bluedari album Blue (Edisi Jepang) dan Singular: Act I (Edisi Jepang)Dirilis16 Maret 2018 (2018-03-16)DirekamMei 2017GenreDance-pop[1][2]Durasi2:54LabelHollywoodPenciptaSabrina CarpenterJanee BennettGuy James RobinProduserJonas BlueKronologi singel Sabrina Carpenter First Love (2017) Alien (2018) Almost Love (2018) Kronologi singel Jonas Blue Hearts Ain't Gonna Lie(2018) Alien(2018) Rise(2018) Video musikAlien di YouT...
У Вікіпедії є статті про інших людей із прізвищем Суслов. Суслов Михайло Андрійович Народився 8 (21) листопада 1902[1][2][…]Шаховське (Ульяновська область), Саратовська губернія, Російська імперіяПомер 25 січня 1982(1982-01-25)[1][2][…] (79 років)Москва, РРФСР, СРСР[1]·і...
Grand Prix IndiaSirkuit Internasional BuddhInformasi lombaJumlah gelaran3Pertama digelar2011Terakhir digelar2013Terbanyak menang (pembalap) Sebastian Vettel (3)Terbanyak menang (konstruktor) Red Bull Racing (3)Panjang sirkuit5.125 km (3.185 mi)Jarak tempuh307.249 km (190.916 mi)Lap60Balapan terakhir (2013)Pole position S. VettelRed Bull Racing-Renault1:24.119Podium 1. S. VettelRed Bull Racing-Renault1:31:12.187 2. N. RosbergMercedes+29.823 3. R. GrosjeanLotus-Renault+39.89...
Salim GroupJenisPublikIndustriKonglomeratDidirikan4 Oktober 1972; 51 tahun lalu (1972-10-04)PendiriSudono SalimKantorpusatJakarta, IndonesiaTokohkunciAnthony SalimProdukMediaTelekomunikasiKeuanganOtomotifRitelMakanan dan minumanRestoranSitus webwww.salim.com.cn Salim Group adalah salah satu perusahaan konglomerat yang didirikan pada tanggal 4 Oktober 1972 di Indonesia. Perusahaan ini didirikan oleh Sudono Salim. Perusahaan ini memiliki beberapa anak perusahaan, termasuk Indofood, p...
Pablo Neruda sebagai kandidat Presiden pada tahun 1970. Pablo Neruda (12 Juli 1904 – 23 September 1973) adalah nama samaran penulis Chili, Ricardo Eliecer Neftalí Reyes Basoalto. Neruda yang dianggap sebagai salah satu penyair berbahasa Spanyol terbesar pada abad ke-20, adalah seorang penulis yang produktif. Tulisan-tulisannya merentang dari puisi-puisi cinta yang erotik, puisi-puisi yang surealis, epos sejarah, dan puisi-puisi politik, hingga puisi-puisi tentang hal-hal yang...
Kartika Airlines IATA ICAO Kode panggil 3Y KAE KARTIKA Didirikan2001Berhenti beroperasi2010PenghubungBandar Udara Halim Perdanakusuma Bandar Udara Minangkabau Bandar Udara Sultan HasanuddinArmada6Tujuan5Kantor pusatJakarta, IndonesiaSitus webkartika-airlines.com Kartika Airlines di Bandar Udara Internasional Polonia, Medan, pada Desember 2006. Boeing 737-200 Advanced Kartika Airlines di Bandar Udara Internasional Polonia. (2006) Kartika Airlines adalah sebuah maskapai penerbangan bertarif ren...
Motukawao IslandsMāori: MotukawaoMotukawao Islands and Hauraki Gulf from Amodeo Bay, near Colville.GeographyLocationWaikato regionCoordinates36°41′24″S 175°24′00″E / 36.690°S 175.400°E / -36.690; 175.400AdministrationNew ZealandDemographicsPopulation0 The Motukawao Islands are the northernmost of several small groups of islands that lie in the Hauraki Gulf off the west coast of the Coromandel Peninsula, New Zealand. They lie some 5 kilometres (3.1 mi)...