Хотя базовая идея стохастической аппроксимации восходит к алгоритму Роббинса-Монро 1950-х годов[3], стохастический градиентный спуск стал важным оптимизационным методом в машинном обучении[1].
Во многих случаях суммируемые функции имеют простую форму, что позволяет осуществить малозатратные вычисления для суммы функций и градиента суммы. Например, в статистике использование однопараметрических экспоненциальных семейств[англ.] позволяет произвести экономичное вычисление функции и градиента.
Однако в других случаях вычисление градиента суммы может потребовать дорогих расчетов градиентов для всех суммируемых функций. На большом тренировочном множестве в отсутствие простых формул вычисление сумм градиентов становится очень дорогим, поскольку вычисление градиента суммы требует вычисления градиентов отдельных членов суммы. Для уменьшения объема вычислений стохастический градиентный спуск отбирает подмножество суммируемых функций на каждой итерации алгоритма. Этот подход особенно эффективен для больших задач машинного обучения[5].
Итеративный метод
В стохастическом («онлайновом») градиентном спуске истинный градиент аппроксимируется градиентом одного тренировочного примера
Пробегая через тренировочное множество, алгоритм осуществляет приведённый выше пересчёт для каждого тренировочного примера. Для достижения сходимости алгоритма может потребоваться несколько проходов по тренировочному набору данных. Перед каждым новым проходом данные в наборе перемешиваются для устранения возможности зацикливания алгоритма. Типичные реализации могут использовать адаптивную скорость обучения[англ.] для улучшения сходимости.
В псевдокоде стохастический градиентный спуск можно представить следующим образом:
Выбрать начальный вектор параметров и скорость обучения .
Повторять до достижения приблизительного минимума:
Случайным образом перемешать примеры в тренировочном множестве.
Для выполнить
Компромиссом между вычислением истинного градиента и градиента по одному тренировочному примеру может быть вычисление градиента по более чем одному тренировочному примеру, называемому «минипакетом», на каждом шаге. Это может быть существенно лучше, чем описанный «истинный» стохастический градиентный спуск, поскольку код может использовать библиотеки векторных форм[англ.] вместо отдельных вычислений на каждом шаге. Это может также привести к более гладкой сходимости, так как градиент, вычисляемый на каждом шаге, усредняется по большему числу тренировочных примеров.
Сходимость стохастического градиентного спуска анализировалась с помощью теорий выпуклой минимизации и стохастической аппроксимации. В упрощенном виде результат можно представить так: при убывании скорости обучения[англ.] с подходящей скоростью, с учётом относительно слабых предположений, стохастический градиентный спуск сходится почти наверняка к глобальному минимуму, если целевая функция выпукла или псевдовыпукла, в противном случае метод сходится почти наверняка к локальному минимуму[6][7]. Фактически, это следствие теоремы Роббинса — Сигмунда[8].
Пример
Предположим, что мы хотим приблизить прямую тренировочным набором с множеством наблюдений и соответствующих ответов с помощью метода наименьших квадратов. Целевой функцией для минимизации будет
Последняя строка в вышеприведённом псевдокоде для задачи превращается в
Заметим, что на каждой итерации (которая называется также пересчётом), вычисляется только градиент в одной точке вместо вычисления на множестве всех выборок.
Ключевое различие по сравнению со стандартным (пакетным) градиентным спуском в том, что только одна часть данных из всего множества используется на каждом шаге и эта часть выбирается на каждом шаге случайно.
Стохастический градиентный спуск конкурирует с алгоритмом L-BFGS[англ.], который также широко используется. Стохастический градиентный спуск использовался по меньшей мере с 1960 года для обучения моделей линейной регрессии под именем ADALINE[англ.][12].
Существует множество модификаций алгоритма стохастического градиентного спуска. В частности, в машинном обучении проблемой является выбор скорости обучения[англ.] (размера шага): при большом шаге алгоритм может расходиться, а при маленьком — сходимость слишком медленная. Для решения этой проблемы можно использовать расписание скорости обучения[англ.], при котором скорость обучения убывает с увеличением номера итерации . При этом на первых итерациях значения параметров изменяются значительно, а на более поздних итерациях — только лишь уточняются. Такие расписания известны со времён работы Мак-Куина по кластеризации методом k-средних[13]. Некоторые практические рекомендации по выбору шага в некоторых вариантах SGD даны в секциях 4.4, 6.6 и 7.5 статьи Сполла (2003)[14].
Не выраженные явно изменения (ISGD)
Как упомянуто ранее, классический стохастический градиентный спуск обычно чувствителен к скорости обучения[англ.]. Быстрая сходимость требует быстрой большой скорости обучения, но это может вызвать численную неустойчивость. Задача может быть главным образом решена[15] путём рассмотрения неявного изменения, когда стохастический градиент пересчитывается на следующей итерации, а не на текущей
Это равенство неявное, поскольку появляется на обеих сторонах равенства. Это стохастическая форма проксимального градиентного метода, поскольку пересчёт может быть выражен в виде
В качестве примера рассмотрим метод наименьших квадратов со свойствами и наблюдениями
. Мы хотим решить:
Заметим, что может иметь «1» в качестве первого элемента. Классический стохастический градиентный спуск работает следующим образом
где равномерно распределено между 1 и . Хотя теоретически эта процедура сходится при относительно мягких предположениях, на практике процедура может оказаться сильно нестабильной. В частности, если неверно задана, то имеют большие абсолютные собственные значения с большой вероятностью и процедура может расходиться за несколько итераций. Для контраста, явный стохастический градиентный спуск (англ.implicit stochastic gradient descent, ISGD) может быть выражен в виде формулы
Хотя решение в аналитическом виде для ISGD возможно только в методе наименьших квадратов, процедуру можно эффективно реализовать в широкий ряд моделей. В частности, предположим, что зависит от только как линейная комбинация свойств , так что мы можем записать , где вещественнозначная функция может зависеть от , но не от непосредственно, лишь через . Метод наименьших квадратов удовлетворяет этому условию, а потому удовлетворяют этому условию логистическая регрессия и большинство обобщённых линейных моделей. Например, в методе наименьших квадратов , а в логистической регрессии , где является логистической функцией. В регрессии Пуассона[англ.], и так далее.
В таких условия ISGD легко реализовать следующим образом. Пусть , где является числом. Тогда ISGD эквивалентен
Масштабный множитель можно найти методом деления отрезка пополам, поскольку в большинстве моделей, таких как вышеупомянутые обобщённые линейные модели, функция убывает, а тогда границами поиска для будут .
Импульс
Более поздние разработки включают метод импульса, который появился в статье Румельхарта, Хинтона и Уильямса об обучении с обратным распространением ошибки[16]. Стохастический градиентный спуск с импульсом запоминает изменение на каждой итерации и определяет следующее изменение в виде линейной комбинации градиента и предыдущего изменения[17][18]:
Название «импульс» берёт начало от импульса в физике — вектор весов , понимаемый как трасса частицы по пространству параметров[16], испытывает ускорение от градиента функции потерь («силы»). В отличие от классического стохастического градиентного спуска, метод пытается сохранить продвижение в том же направлении, предотвращая колебания. Импульс использовался успешно специалистами по информатике для обучения искусственных нейронных сетей в течение нескольких десятилетий[19].
Усреднение
Усреднённый стохастический градиентный спуск, разработанный независимо Руппертом и Поляком в конце 1980-х годов, является обычным стохастическим градиентным спуском, который записывает среднее вектора параметров. То есть пересчёт тот же, что и в обычном методе стохастического градиентного спуска, но алгоритм также отслеживает[20]
.
Когда оптимизация завершена, вектор средних параметров занимает место w.
AdaGrad
AdaGrad (адаптивный градиентный алгоритм, англ.adaptive gradient algorithm), опубликованный в 2011[21][22], является модификацией стохастического алгоритма градиентного спуска с отдельной для каждого параметра скоростью обучения[англ.]. Неформально, это увеличивает скорость обучения для параметров с редкими данными и уменьшает скорость обучения для параметров с менее редкими. Эта стратегия увеличивает скорость сходимости по сравнению со стандартным стохастическим методом градиентного спуска в условиях, когда данные редки и соответствующие параметры более информативны. Примерами таких приложений являются обработка естественных языков и распознавание образов[21]. Алгоритм имеет базовую скорость обучения , но она умножается на элементы вектора , который является диагональю матрицы внешнего произведения
где , градиент на итерации . Диагональ задаётся выражением
.
Этот вектор обновляется после каждой итерации. Формула пересчёта
Каждый элемент даёт множитель для скорости обучения, применяемый к одному параметру . Поскольку знаменатель в этом множителе, , является нормой ℓ2 предыдущей производной, большие изменения параметра ослабляются, в то время как параметры, получающие малые изменения получают более высокие скорости обучения[19].
Хотя алгоритм разрабатывался для выпуклых задач, AdaGrad успешно применяется для невыпуклой оптимизации[23].
RMSProp
RMSProp (от англ.Root Mean Square Propagation) — это метод, в котором скорость обучения[англ.] настраивается для каждого параметра. Идея заключается в делении скорости обучения для весов на скользящие средние значения недавних градиентов для этого веса[24]. Таким образом, первое скользящее среднее вычисляется в терминах среднеквадратичного
где, является коэффициентом забывания.
Параметры обновляются как
RMSProp показал хорошую адаптацию скорости обучения в различных приложениях. RMSProp можно рассматривать как обобщение Rprop[англ.]. Метод способен работать с минипакетами, а не только с полными пакетами [25].
Adam
Adam[26] (сокращение от «метод адаптивной оценки моментов», англ.Adaptive Moment Estimation) — это обновление оптимизатора RMSProp. В этом оптимизационном алгоритме используются скользящие средние как градиентов, так и вторых моментов градиентов. Если даны параметры , а функция потерь , где отражает индекс текущей итерации (отчёт начинается с ), пересчёт параметра алгоритмом Adam задаётся формулами
где является малой добавкой, используемой для предотвращения деления на 0, а и являются коэффициентами забывания для градиентов и вторых моментов градиентов соответственно. Возведение в квадрат и квадратный корень вычисляются поэлементно.
Естественный градиентный спуск и kSGD
Основанный на фильтре Кальмана стохастический градиентный спуск (англ.Kalman-based Stochastic Gradient Descent, kSGD)[27] является онлайновым и офлайновым алгоритмом для параметров обучения для статистических задач для моделей квазиправдоподобия[англ.], куда входят линейные модели, нелинейные модели, обобщённые линейные модели, и нейронные сети с среднеквадратичными потерями[англ.] как частный случай. Для онлайновых задач обучения kSGD является частным случаем фильтра Кальмана для задач линейной регрессии, частным случаем расширенного фильтра Кальмана[англ.] для задач нелинейной регрессии и может рассматриваться как инкрементальный метод Гаусса — Ньютона. Более того, ввиду связи kSGD с фильтром Кальмана и связи естественного градиентного спуска[28] с фильтром Кальмана[29], kSGD является серьёзным улучшением популярного естественного метода градиентного спуска.
Преимущества kSGD по сравнению с другими методами:
Недостатком kSGD является то, что алгоритм требует запоминания плотной ковариационной матрицы между итерациями, и на каждой итерации нужно находить произведение вектора на матрицу.
Для описания алгоритма предположим, что функция , где , определена с помощью так, что
где функция усреднения (то есть ожидаемое значение от ), а является функцией дисперсии (то есть дисперсия для ). Тогда пересчёт параметра и пересчёт ковариантной матрицы задаются следующими выражениями
где являются гиперпараметрами. Пересчёт может привести к тому, что ковариантная матрица станет неопределённой, что можно избежать за счёт умножения матрицы на матрицу. может быть любой положительно определённой симметричной матрицей, но обычно берётся единичная матрица. Как заметил Патель[27], для всех задач, не считая линейной регрессии, требуются повторные прогоны для обеспечения сходимости алгоритма, но не приведены теоретические детали или детали реализации. В тесно связанном офлайновом мультипакетном методе для нелинейной регрессии, проанализированным Бертсекасом[30], для доказательства сходимости использовался коэффициент забывания при пересчёте ковариантной матрицы.
Методы второго порядка
Известно, что стохастический аналог стандартного (детерминированного) алгоритма Ньютона — Рафсона (метод «второго порядка») даёт асимптотически оптимальный или почти оптимальный вид итеративной оптимизации в условиях стохастической аппроксимации. Метод, который использует прямое вычисление матриц Гессе членов суммы в эмпирической функции риска, разрабатывали Бёрд, Хансен, Носедаль и Сингер[31]. Однако, прямое определение требующихся матриц Гессе для оптимизации может оказаться невозможным на практике. Практические и теоретически выглядящие методы для версии второго порядка алгоритма SGD, который не требует прямой информации о гессиане, дали Сполл и другие[32][33][34] (Менее эффективный метод, основанный на конечных разностях вместо одновременного пересчёта, дал Рупперт[35]). Эти методы, не требуя напрямую информацию о гессиане, базируются либо на значениях членов суммы в эмпирической функции риска, приведённой выше, либо значениях градиентов членов суммы (то есть ввода SGD). В частности, оптимальность второго порядка асимптотически достижима без непосредственного вычисления матриц Гессе членов суммы в эмпирической функции риска.
↑Для задачи линейной регрессии, kSGD's отклонение целевой функции (то есть полная ошибка и дисперсия) на итерации равно с вероятностью, стремящейся к 1 со скоростью, зависящей от , где является дисперсией остатков. Более того, для конкретного выбора , может быть показано, что kSGD's отклонение целевой функции на итерации равно с вероятностью, стремящейся к 1 со скоростью, зависящей от , где является оптимальным параметром.
↑Tieleman, Tijmen and Hinton, Geoffrey (2012). Lecture 6.5-rmsprop: Divide the gradient by a running average of its recent magnitude. COURSERA: Neural Networks for Machine Learning
Matt Taddy.Stochastic Gradient Descent // Business Data Science: Combining Machine Learning and Economics to Optimize, Automate, and Accelerate Business Decisions. — New York: McGraw-Hill, 2019. — ISBN 978-1-260-45277-8.
Thomas S. Ferguson. An inconsistent maximum likelihood estimate // Journal of the American Statistical Association. — 1982. — Т. 77, вып. 380. — doi:10.1080/01621459.1982.10477894. — JSTOR2287314.
Krzysztof C. Kiwiel. Convergence and efficiency of subgradient methods for quasiconvex minimization // Mathematical Programming, Series A. — Berlin, Heidelberg: Springer, 2001. — Т. 90, вып. 1. — P. 1–25. — ISSN0025-5610. — doi:10.1007/PL00011414.
Herbert Robbins, David O. Siegmund.A convergence theorem for non negative almost supermartingales and some applications // Optimizing Methods in Statistics / Jagdish S. Rustagi (ed.). — Academic Press, 1971.
Jenny Rose Finkel, Alex Kleeman, Christopher D. Manning.Efficient, Feature-based, Conditional Random Field Parsing // Proc. Annual Meeting of the ACL. — 2008.
Yann A. LeCun, Leon Bottou, Genevieve B. Orr, Klaus-Robert Muller.Efficient backprop // Neural networks: Tricks of the trade / Grégoire Montavon, Geneviève B. Orr, Klaus-Robert Müller (Eds.). — Berlin Heidelberg: Springer, 2012. — Т. 7700. — (Lecture Notes in Computer Science). — ISBN 978-3-642-35288-1.
Panos Toulis, Edoardo Airoldi. Asymptotic and finite-sample properties of estimators based on stochastic gradients // Annals of Statistics. — 2017. — Т. 45, вып. 4. — doi:10.1214/16-AOS1506. — arXiv:1408.2923.
Spall J. C. Adaptive Stochastic Approximation by the Simultaneous Perturbation Method // IEEE Transactions on Automatic Control. — 2000. — Т. 45, вып. 10. — doi:10.1109/TAC.2000.880982.
Spall J. C. Feedback and Weighting Mechanisms for Improving Jacobian Estimates in the Adaptive Simultaneous Perturbation Algorithm // IEEE Transactions on Automatic Control. — 2009. — Т. 54, вып. 6. — doi:10.1109/TAC.2009.2019793.
David E. Rumelhart, Geoffrey E. Hinton, Ronald J. Williams. Learning representations by back-propagating errors (англ.) // Nature. — 1986. — October (vol. 323, iss. 6088). — doi:10.1038/323533a0. — Bibcode: 1986Natur.323..533R.
Patel V. Kalman-Based Stochastic Gradient Method with Stop Condition and Insensitivity to Conditioning // SIAM Journal on Optimization. — 2016. — Т. 26, вып. 4. — ISSN1052-6234. — doi:10.1137/15M1048239. — arXiv:1512.01139.
Cichocki A., Chen T., Amari S. Stability Analysis of Learning Algorithms for Blind Source Separation // Neural Networks. — 1997. — Ноябрь (т. 10, вып. 8). — doi:10.1016/S0893-6080(97)00039-7. — PMID12662478.
Byrd R. H., Hansen S. L., Nocedal J., Singer Y. A Stochastic Quasi-Newton method for Large-Scale Optimization // SIAM Journal on Optimization. — 2016. — Т. 26, вып. 2. — doi:10.1137/140954362. — arXiv:1401.7020.
Bertsekas D. Incremental Least Squares Methods and the Extended Kalman Filter // SIAM Journal on Optimization. — 1996. — Т. 6, вып. 3. — С. 807—822. — ISSN1052-6234. — doi:10.1137/S1052623494268522.
Литература для дальнейшего чтения
Dimitri P. Bertsekas. Nonlinear Programming. — 2nd. — Cambridge, MA.: Athena Scientific, 1999. — ISBN 978-1-886529-00-7..
Dimitri P. Bertsekas. Convex Analysis and Optimization. — Athena Scientific, 2003.
Davidon W.C. [187–197 New least-square algorithms] // Journal of Optimization Theory and Applications. — 1976. — Т. 18, № 2. — doi:10.1007/BF00935703.
Richard O. Duda, Peter E. Hart, David G. Stork. Pattern Classification. — 2nd. — Wiley, 2000. — ISBN 978-0-471-05669-0.
Krzysztof C. Kiwiel. Convergence of approximate and incremental subgradient methods for convex optimization // SIAM Journal on Optimization. — 2004. — Т. 14, № 3. — С. 807—840. — doi:10.1137/S1052623400376366.
Para otros usos de este término, véase Notker. Notker Balbulus Imagen del beato en un manuscrito medievalInformación personalNacimiento ca. 840Jonschwil (Suiza) o Elgg (Suiza) Fallecimiento 6 de abril de 912San Galo (Suiza) Religión Iglesia católica Información profesionalOcupación Poeta, compositor, musicólogo, historiador y escritor Información religiosaBeatificación 1512 por Julio IIFestividad 6 de abrilVenerado en Iglesia católicaOrden religiosa Orden de San Benito [editar...
Suburban railway line in south-east England Staines–Windsor lineA South Western Railway Class 458 at Windsor & Eton Riverside in 2017OverviewStatusOperationalOwnerNetwork RailLocaleBerkshireSouth East EnglandServiceTypeSuburban rail, Heavy railSystemNational RailHistoryOpened1848/9TechnicalTrack gauge1,435 mm (4 ft 8+1⁄2 in) standard gaugeElectrification750 V DC Third rail Route map (Click to expand) vteStaines–Windsor line Legend Windsor & Eton Riverside...
artikel ini perlu dirapikan agar memenuhi standar Wikipedia. Tidak ada alasan yang diberikan. Silakan kembangkan artikel ini semampu Anda. Merapikan artikel dapat dilakukan dengan wikifikasi atau membagi artikel ke paragraf-paragraf. Jika sudah dirapikan, silakan hapus templat ini. (Pelajari cara dan kapan saatnya untuk menghapus pesan templat ini) BatursariDesaNegara IndonesiaProvinsiJawa TengahKabupatenPekalonganKecamatanTalunKode pos51192Kode Kemendagri33.26.05.2008 Luas2,13 km²Jumla...
Aechmea caudata TaksonomiDivisiTracheophytaSubdivisiSpermatophytesKladAngiospermaeKladmonocotsKladcommelinidsOrdoPoalesFamiliBromeliaceaeSubfamiliBromelioideaeGenusAechmeaSpesiesAechmea caudata Lindm., 1891 lbs Aechmea caudata (sinonim: Ortgiesia caudata; bahasa Inggris: tail bromeliad) adalah terna sejati epifit (perennial herb) dan termasuk ke dalam keluarga Bromeliaceae.[1] Spesies ini masuk dalam subgenus Tumbuhan ini dapat tumbuh hingga 1 meter dan lebar 1 meter, memiliki daun me...
The Evolution of Calpurnia Tate First edition cover, illustrated by Beth White and designed by April WardAuthorJacqueline KellyCover artistBeth White, April WardCountryUnited StatesLanguageEnglishGenreYoung adult, Historical fictionPublisherHenry Holt and CompanyPublication dateMay 12, 2009 (1st edition)Media typePrint (Hardcover)Pages340 (Hardcover) (1st edition)ISBN0-312-65930-X (1st edition)OCLC262143062 (1st edition)LC ClassPZ7.K296184 Evo 2009 Children and Young Adult Lite...
بيليتشان تقسيم إداري البلد روسيا تعديل مصدري - تعديل يفتقر محتوى هذه المقالة إلى الاستشهاد بمصادر. فضلاً، ساهم في تطوير هذه المقالة من خلال إضافة مصادر موثوق بها. أي معلومات غير موثقة يمكن التشكيك بها وإزالتها. (فبراير 2016) بيليتشان (بالروسية: Беличан) هي مدينة في م...
January SuchodolskiJanuary Suchodolski. Portrait by Maksymilian Fajans (after 1850)Born(1797-09-19)19 September 1797GrodnoDied20 March 1875(1875-03-20) (aged 77)EducationMember Academy of Arts (1839)Known forPainting Jan Henryk Dąbrowski entering Rome, by January Suchodolski. Oil on canvas, 1850. January Suchodolski (Polish: [januˈarɨ suxɔˈdɔlski]; 19 September 1797 – 20 March 1875) was a Polish painter and Army officer, and a member of the Imperial Academy of Ar...
اختبار الغواياك للبراز بطاقات الغوياك وزجاجة من المطور الذي يحتوي على بيروكسيد الهيدروجين HCPCS-L2 G0394 مدلاين بلس 003393 تعديل مصدري - تعديل اختبار الغواياك للبراز ((بالإنجليزية: Stool guaiac test)) أو اختبار الغواياك لتحري الدم الخفي في البراز (gFOBT) هي واحدة من العديد من الطرق الت...
ستشوبشيم شعار الاسم الرسمي (بالفرنسية: Schwobsheim) الإحداثيات 48°13′58″N 7°34′34″E / 48.232777777778°N 7.5761111111111°E / 48.232777777778; 7.5761111111111[1] [2] تقسيم إداري البلد فرنسا[3] التقسيم الأعلى الراين الأسفل (1920–)الراين الأسفل (4 مارس 1790–1871) خصائص جغر...
Video game franchise This article is about the video game franchise. For the first game in the franchise, see Mega Man (1987 video game). For the character, see Mega Man (character). For other uses, see Mega Man (disambiguation). Mega ManThe logo for the classic series. Later installments feature their own logoCreated byAkira KitamuraOriginal workMega Man (1987)OwnerCapcomYears1987–presentPrint publicationsComicsMega ManFilms and televisionTelevision seriesCaptain N: The Game MasterMega Man...
This article is an orphan, as no other articles link to it. Please introduce links to this page from related articles; try the Find link tool for suggestions. (September 2018) Travis Scott in 2015The videography of American rapper and record producer Travis Scott consists 15 music videos as a lead artist, and 12 television appearances. Music videos Year Title Director Artist(s) As main performer 2012 LIGHTS(LOVE SICK) Travis Scott featuring Daron Eubanks THAT B¡TCH CRAZY Travis Scott and Ton...
County in Minnesota, United States County in MinnesotaWinona CountyCountyWinona County CourthouseLocation within the U.S. state of MinnesotaMinnesota's location within the U.S.Coordinates: 43°59′N 91°46′W / 43.98°N 91.77°W / 43.98; -91.77Country United StatesState MinnesotaFoundedFebruary 23, 1854Named forWinona (Native American)SeatWinonaLargest cityWinonaArea • Total642 sq mi (1,660 km2) • Land626 sq ...
2015 Adventure Time miniseries 6th and 13th episodes of the 7th season of Adventure Time StakesAdventure Time episodesDVD coverEpisode nos.Season 7Episodes 6–13Directed byElizabeth Ito[a]Andres Salaff[a]Adam Muto[a]Sandra Lee[b]Written byAko Castuera[c]Jesse Moynihan[c]Adam Muto[d]Hanna K. Nyström[d]Tom Herpich[e]Steve Wolfhard[e]Seo Kim[f]Somvilay Xayaphone[f]Lyle Partridge[g]Luke ...
1967 studio album by Van MorrisonBlowin' Your Mind!Studio album by Van MorrisonReleasedSeptember 1967Recorded28–29 March 1967GenreRock, R&B, blue-eyed soul, bluesLength35:32LabelBangProducerBert BernsVan Morrison chronology Blowin' Your Mind!(1967) Astral Weeks(1968) Singles from Blowin' Your Mind! Brown Eyed Girl b/w Goodbye Baby Ro Ro Rosey b/w Chick-A-Boom Spanish Rose b/w Midnight Special Professional ratingsReview scoresSourceRatingAllmusic[1]Tom HullA[2] Bl...
Governor of Gandaki Province, Nepal Prithivi Man Gurungपृथ्वीमान गुरुङ4th Governor of Gandaki ProvinceIncumbentAssumed office 27 July 2021PresidentBidhya Devi BhandariPrime MinisterSher Bahadur DeubaPreceded bySita Kumari Poudel Personal detailsNationalityNepaliPolitical partyNepali Congress (?-2021)Websiteoph.gandaki.gov.np Prithvi Man Gurung is the governor of Gandaki Province, Nepal.[1] He was appointed by President Bidhya Devi Bhandari on recommenda...
Private university in Phnom Penh, Cambodia This article relies excessively on references to primary sources. Please improve this article by adding secondary or tertiary sources. Find sources: Paragon International University – news · newspapers · books · scholar · JSTOR (March 2014) (Learn how and when to remove this template message) Paragon International Universityសាកលវិទ្យាល័យអន្តរជាតិផារ៉ាហ្...
صاحب الجلالةالملك حمد بن عيسى آل خليفة ملك مملكة البحرين العلم الملكي فترة الحكم 6 مارس 1999 - حتى الآن الشيخ عيسى بن سلمان آل خليفة ولي عهده الأمير سلمان بن حمد آل خليفة معلومات شخصية الميلاد 28 يناير 1950 (العمر 74 سنة)الرفاع، البحرين الأب الشيخ عيسى بن سلمان آل خليفة الأم...
Slow LoopSampul manga volume pertama yang menampilkan Koharu dan Hiyoriスローループ(Surō Rūpu)GenreOlahraga (pemancingan rekreasi) MangaPengarangMaiko UchinoPenerbitHoubunshaMajalahManga Time Kirara ForwardDemografiSeinenTerbit22 September 2018 – sekarangVolume9 Seri animeSutradaraNoriaki AkitayaProduserShousei ItouShinpei YamashitaSoujirou ArimizuKakeru MiuraRiko NakagomeShuka NishimaeSkenarioYuka YamadaMusikTakurō IgaStudioConnectPelisensiCrunchyrollSaluranasliAT-X, Tokyo MX, SUN...