Download full Introduction to Deep Learning Using R: A Step-by-Step Guide to Learning and Implementing Deep Learning Models Using R Taweh Beysolow Ii ebook all chapters
Download full Introduction to Deep Learning Using R: A Step-by-Step Guide to Learning and Implementing Deep Learning Models Using R Taweh Beysolow Ii ebook all chapters
com
https://textbookfull.com/product/deep-learning-with-python-develop-
deep-learning-models-on-theano-and-tensorflow-using-keras-jason-
brownlee/
textbookfull.com
https://textbookfull.com/product/r-deep-learning-essentials-1st-
edition-wiley/
textbookfull.com
https://textbookfull.com/product/principles-of-diabetes-mellitus-3rd-
edition-leonid-poretsky-eds/
textbookfull.com
Falling for the Mountain Man Mechanic Curvy Instalove at
First Sight 2 1st Edition Kate Weiss
https://textbookfull.com/product/falling-for-the-mountain-man-
mechanic-curvy-instalove-at-first-sight-2-1st-edition-kate-weiss/
textbookfull.com
https://textbookfull.com/product/program-evaluation-and-performance-
measurement-an-introduction-to-practice-james-c-mcdavid/
textbookfull.com
https://textbookfull.com/product/a-ghostly-grave-ghostly-southern-
mystery-2-tonya-kappes/
textbookfull.com
https://textbookfull.com/product/a-brief-introduction-to-the-new-
testament-bart-d-ehrman/
textbookfull.com
https://textbookfull.com/product/the-emotional-foundations-of-
personality-a-neurobiological-and-evolutionary-approach-kenneth-l-
davis/
textbookfull.com
Discovering the Life Span, 5th edition Robert S. Feldman
https://textbookfull.com/product/discovering-the-life-span-5th-
edition-robert-s-feldman/
textbookfull.com
Introduction
to Deep Learning
Using R
A Step-by-Step Guide to
Learning and Implementing
Deep Learning Models Using R
—
Taweh Beysolow II
Introduction to Deep
Learning Using R
A Step-by-Step Guide to
Learning and Implementing
Deep Learning Models Using R
Taweh Beysolow II
Introduction to Deep Learning Using R
Taweh Beysolow II
San Francisco, California, USA
ISBN-13 (pbk): 978-1-4842-2733-6 ISBN-13 (electronic): 978-1-4842-2734-3
DOI 10.1007/978-1-4842-2734-3
Library of Congress Control Number: 2017947908
Copyright © 2017 by Taweh Beysolow II
This work is subject to copyright. All rights are reserved by the Publisher, whether the whole
or part of the material is concerned, specifically the rights of translation, reprinting, reuse of
illustrations, recitation, broadcasting, reproduction on microfilms or in any other physical
way, and transmission or information storage and retrieval, electronic adaptation, computer
software, or by similar or dissimilar methodology now known or hereafter developed.
Trademarked names, logos, and images may appear in this book. Rather than use a trademark
symbol with every occurrence of a trademarked name, logo, or image we use the names, logos,
and images only in an editorial fashion and to the benefit of the trademark owner, with no
intention of infringement of the trademark.
The use in this publication of trade names, trademarks, service marks, and similar terms, even if
they are not identified as such, is not to be taken as an expression of opinion as to whether or not
they are subject to proprietary rights.
While the advice and information in this book are believed to be true and accurate at the
date of publication, neither the authors nor the editors nor the publisher can accept any legal
responsibility for any errors or omissions that may be made. The publisher makes no warranty,
express or implied, with respect to the material contained herein.
Cover image designed by Freepik
Managing Director: Welmoed Spahr
Editorial Director: Todd Green
Acquisitions Editor: Celestin Suresh John
Development Editor: Laura Berendson
Technical Reviewer: Somil Asthana
Coordinating Editor: Sanchita Mandal
Copy Editor: Corbin Collins
Compositor: SPi Global
Indexer: SPi Global
Artist: SPi Global
Distributed to the book trade worldwide by Springer Science+Business Media New York,
233 Spring Street, 6th Floor, New York, NY 10013. Phone 1-800-SPRINGER, fax (201)
348-4505, e-mail orders-ny@springer-sbm.com, or visit www.springeronline.com. Apress
Media, LLC is a California LLC and the sole member (owner) is Springer Science + Business
Media Finance Inc (SSBM Finance Inc). SSBM Finance Inc is a Delaware corporation.
For information on translations, please e-mail rights@apress.com, or visit
http://www.apress.com/rights-permissions.
Apress titles may be purchased in bulk for academic, corporate, or promotional use.
eBook versions and licenses are also available for most titles. For more information, reference
our Print and eBook Bulk Sales web page at http://www.apress.com/bulk-sales.
Any source code or other supplementary material referenced by the author in this book is
available to readers on GitHub via the book's product page, located at the following link:
https://github.com/TawehBeysolowII/AnIntroductionToDeepLearning.
For more detailed information, please visit http://www.apress.com/source-code.
Printed on acid-free paper
Contents at a Glance
■
■Chapter 1: Introduction to Deep Learning�������������������������������������� 1
■
■Chapter 2: Mathematical Review������������������������������������������������� 11
■
■Chapter 3: A Review of Optimization and Machine Learning������� 45
■
■Chapter 4: Single and Multilayer Perceptron Models������������������� 89
■
■Chapter 5: Convolutional Neural Networks (CNNs)��������������������� 101
■
■Chapter 6: Recurrent Neural Networks (RNNs)�������������������������� 113
■■Chapter 7: Autoencoders, Restricted Boltzmann Machines,
and Deep Belief Networks���������������������������������������������������������� 125
■
■Chapter 8: Experimental Design and Heuristics������������������������� 137
■
■Chapter 9: Hardware and Software Suggestions������������������������ 167
■
■Chapter 10: Machine Learning Example Problems��������������������� 171
■
■Chapter 11: Deep Learning and Other Example Problems���������� 195
■
■Chapter 12: Closing Statements������������������������������������������������� 219
Index���������������������������������������������������������������������������������������������� 221
iii
Contents
■
■Chapter 1: Introduction to Deep Learning�������������������������������������� 1
Deep Learning Models���������������������������������������������������������������������������� 3
Single Layer Perceptron Model (SLP)����������������������������������������������������������������������� 3
Multilayer Perceptron Model (MLP)�������������������������������������������������������������������������� 4
Convolutional Neural Networks (CNNs)�������������������������������������������������������������������� 5
Recurrent Neural Networks (RNNs)�������������������������������������������������������������������������� 5
Restricted Boltzmann Machines (RBMs)������������������������������������������������������������������ 6
Deep Belief Networks (DBNs)����������������������������������������������������������������������������������� 6
Other Topics Discussed��������������������������������������������������������������������������� 7
Experimental Design������������������������������������������������������������������������������������������������� 7
Feature Selection������������������������������������������������������������������������������������������������������ 7
Applied Machine Learning and Deep Learning��������������������������������������������������������� 7
History of Deep Learning������������������������������������������������������������������������������������������ 7
Summary������������������������������������������������������������������������������������������������� 9
■
■Chapter 2: Mathematical Review������������������������������������������������� 11
Statistical Concepts������������������������������������������������������������������������������ 11
Probability��������������������������������������������������������������������������������������������������������������� 11
And vs. Or��������������������������������������������������������������������������������������������������������������� 12
v
■ Contents
Bayes’ Theorem������������������������������������������������������������������������������������������������������ 14
Random Variables��������������������������������������������������������������������������������������������������� 14
Variance������������������������������������������������������������������������������������������������������������������ 15
Standard Deviation������������������������������������������������������������������������������������������������� 16
Coefficient of Determination (R Squared)��������������������������������������������������������������� 17
Mean Squared Error (MSE)������������������������������������������������������������������������������������� 17
Linear Algebra��������������������������������������������������������������������������������������� 17
Scalars and Vectors������������������������������������������������������������������������������������������������ 17
Properties of Vectors���������������������������������������������������������������������������������������������� 18
Axioms�������������������������������������������������������������������������������������������������������������������� 19
Subspaces�������������������������������������������������������������������������������������������������������������� 20
Matrices������������������������������������������������������������������������������������������������������������������ 20
Summary����������������������������������������������������������������������������������������������� 43
■
■Chapter 3: A Review of Optimization and Machine Learning������� 45
Unconstrained Optimization������������������������������������������������������������������ 45
Local Minimizers���������������������������������������������������������������������������������������������������� 47
Global Minimizers��������������������������������������������������������������������������������������������������� 47
Conditions for Local Minimizers����������������������������������������������������������������������������� 48
Neighborhoods�������������������������������������������������������������������������������������� 49
Interior and Boundary Points���������������������������������������������������������������������������������� 50
Regression Models�������������������������������������������������������������������������������� 51
Linear Regression��������������������������������������������������������������������������������������������������� 51
vi
■ Contents
What Is Multicollinearity?���������������������������������������������������������������������� 62
Testing for Multicollinearity������������������������������������������������������������������� 62
Variance Inflation Factor (VIF)��������������������������������������������������������������������������������� 62
Ridge Regression���������������������������������������������������������������������������������������������������� 62
Least Absolute Shrinkage and Selection Operator (LASSO)����������������������������������� 63
Comparing Ridge Regression and LASSO��������������������������������������������������������������� 64
Evaluating Regression Models������������������������������������������������������������������������������� 64
Receiver Operating Characteristic (ROC) Curve������������������������������������������������������ 67
Confusion Matrix���������������������������������������������������������������������������������������������������� 68
Limitations to Logistic Regression�������������������������������������������������������������������������� 69
Support Vector Machine (SVM)������������������������������������������������������������������������������� 70
Sub-Gradient Method Applied to SVMs������������������������������������������������������������������� 72
Extensions of Support Vector Machines����������������������������������������������������������������� 73
Limitations Associated with SVMs�������������������������������������������������������������������������� 73
vii
■ Contents
Random Forest������������������������������������������������������������������������������������������������������� 83
Limitations to Random Forests������������������������������������������������������������������������������� 83
Bayesian Learning��������������������������������������������������������������������������������� 83
Naïve Bayes Classifier�������������������������������������������������������������������������������������������� 84
Limitations Associated with Bayesian Classifiers��������������������������������������������������� 84
Final Comments on Tuning Machine Learning Algorithms�������������������������������������� 85
Reinforcement Learning������������������������������������������������������������������������ 86
Summary����������������������������������������������������������������������������������������������� 87
■
■Chapter 4: Single and Multilayer Perceptron Models������������������� 89
Single Layer Perceptron (SLP) Model���������������������������������������������������� 89
Training the Perceptron Model������������������������������������������������������������������������������� 90
Widrow-Hoff (WH) Algorithm���������������������������������������������������������������������������������� 90
Limitations of Single Perceptron Models���������������������������������������������������������������� 91
Summary Statistics������������������������������������������������������������������������������������������������ 94
Summary��������������������������������������������������������������������������������������������� 100
■
■Chapter 5: Convolutional Neural Networks (CNNs)��������������������� 101
Structure and Properties of CNNs������������������������������������������������������� 101
Components of CNN Architectures������������������������������������������������������ 103
Convolutional Layer���������������������������������������������������������������������������������������������� 103
Pooling Layer�������������������������������������������������������������������������������������������������������� 105
Rectified Linear Units (ReLU) Layer���������������������������������������������������������������������� 106
Fully Connected (FC) Layer����������������������������������������������������������������������������������� 106
Loss Layer������������������������������������������������������������������������������������������������������������ 107
viii
■ Contents
ix
■ Contents
Summary��������������������������������������������������������������������������������������������� 136
■
■Chapter 8: Experimental Design and Heuristics������������������������� 137
Analysis of Variance (ANOVA)�������������������������������������������������������������� 137
One-Way ANOVA��������������������������������������������������������������������������������������������������� 137
Two-Way (Multiple-Way) ANOVA��������������������������������������������������������������������������� 137
Mixed-Design ANOVA�������������������������������������������������������������������������������������������� 138
Multivariate ANOVA (MANOVA)������������������������������������������������������������������������������ 138
x
Visit https://textbookfull.com
now to explore a rich
collection of eBooks, textbook
and enjoy exciting offers!
■ Contents
Summary��������������������������������������������������������������������������������������������� 166
■
■Chapter 9: Hardware and Software Suggestions������������������������ 167
Processing Data with Standard Hardware������������������������������������������ 167
Solid State Drives and Hard Drive Disks (HDD)����������������������������������� 167
Graphics Processing Unit (GPU)����������������������������������������������������������� 168
Central Processing Unit (CPU)������������������������������������������������������������� 169
Random Access Memory (RAM)���������������������������������������������������������� 169
Motherboard���������������������������������������������������������������������������������������� 169
Power Supply Unit (PSU)��������������������������������������������������������������������� 170
Optimizing Machine Learning Software���������������������������������������������� 170
Summary��������������������������������������������������������������������������������������������� 170
xi
■ Contents
■
■Chapter 10: Machine Learning Example Problems��������������������� 171
Problem 1: Asset Price Prediction������������������������������������������������������� 171
Problem Type: Supervised Learning—Regression����������������������������������������������� 172
Description of the Experiment������������������������������������������������������������������������������ 173
Feature Selection�������������������������������������������������������������������������������������������������� 175
Model Evaluation��������������������������������������������������������������������������������� 176
Ridge Regression�������������������������������������������������������������������������������������������������� 176
Support Vector Regression (SVR)�������������������������������������������������������������������������� 178
Problem 2: Speed Dating�������������������������������������������������������������������������������������� 180
Problem Type: Classification��������������������������������������������������������������������������������� 181
Preprocessing: Data Cleaning and Imputation������������������������������������������������������ 182
Summary��������������������������������������������������������������������������������������������� 194
■
■Chapter 11: Deep Learning and Other Example Problems���������� 195
Autoencoders�������������������������������������������������������������������������������������� 195
Convolutional Neural Networks����������������������������������������������������������� 202
Preprocessing������������������������������������������������������������������������������������������������������� 204
Summary��������������������������������������������������������������������������������������������� 218
■
■Chapter 12: Closing Statements������������������������������������������������� 219
Index���������������������������������������������������������������������������������������������� 221
xii
About the Author
xiii
About the Technical
Reviewer
xv
Acknowledgments
To my family, who I am never grateful enough for. To my grandmother, from whom much
was received and to whom much is owed. To my editors and other professionals who
supported me through this process, no matter how small the assistance seemed. To my
professors, who continue to inspire the curiosity that makes research worth pursuing.
To my friends, new and old, who make life worth living and memories worth keeping. To
my late friend Michael Giangrasso, who I intended on researching Deep Learning with.
And finally, to my late mentor and friend Lawrence Sobol. I am forever grateful for your
friendship and guidance, and continue to carry your teachings throughout my daily life.
xvii
Introduction
xix
CHAPTER 1
Introduction to Deep
Learning
With advances in hardware and the emergence of big data, more advanced computing
methods have become increasingly popular. Increasing consumer demand for better
products and companies seeking to leverage their resources more efficiently have
also been leading this push. In response to these market forces, we have recently seen
a renewed and widely spoken about interest in the field of machine learning. At the
cross-section of statistics, mathematics, and computer science, machine learning refers
to the science of creating and studying algorithms that improve their own behavior in
an iterative manner by design. Originally, the field was devoted to developing artificial
intelligence, but due to the limitations of the theory and technology that were present
at the time, it became more logical to focus these algorithms on specific tasks. Most
machine learning algorithms as they exist now focus on function optimization, and the
solutions yielded don’t always explain the underlying trends within the data nor give
the inferential power that artificial intelligence was trying to get close to. As such, using
machine learning algorithms often becomes a repetitive trial and error process, in which
the choice of algorithm across problems yields different performance results. This is fine
in some contexts, but in the case of language modeling and computer vision, it becomes
problematic.
In response to some of the shortcomings of machine learning, and the significant
advance in the theoretical and technological capabilities at our disposal today, deep
learning has emerged and is rapidly expanding as one of the most exciting fields of
science. It is being used in technologies such as self-driving cars, image recognition on
social media platforms, and translation of text from one language to others. Deep learning
is the subfield of machine learning that is devoted to building algorithms that explain
and learn a high and low level of abstractions of data that traditional machine learning
algorithms often cannot. The models in deep learning are often inspired by many sources
of knowledge, such as game theory and neuroscience, and many of the models often
mimic the basic structure of a human nervous system. As the field advances, many
researchers envision a world where software isn’t nearly as hard coded as it often needs to
be today, allowing for a more robust, generalized solution to solving problems.
Deep neural networks are distinguished by having many hidden layers, which
are called “hidden” because we don’t necessarily see what the inputs and outputs of
these neurons are explicitly beyond knowing they are the output of the preceding layer.
The addition of layers, and the functions inside the neurons of these layers, are what
distinguish an individual architecture from another and establish the different use cases
of a given model.
More specifically, lower levels of these models explain the “how,” and the higher-levels
of neural networks process the “why.” The functions used in these layers are dependent
on the use case, but often are customizable by the user, making them significantly more
robust than the average machine learning models that are often used for classification and
regression, for example. The assumption in deep learning models on a fundamental level is
that the data being interpreted is generated by the interactions of different factors organized
2
Chapter 1 ■ Introduction to Deep Learning
in layers. As such, having multiple layers allows the model to process the data such that it
builds an understanding from simple aspects to larger constructs. The objective of these
models is to perform tasks without the same degree of explicit instruction that many
machine learning algorithms need. With respect to how these models are used, one of the
main benefits is the promise they show when applied to unsupervised learning problems,
or problems where we don’t know prior to performing the experiment that the response
variable y should be given a set of explanatory variables x. An example would be image
recognition, particularly after a model has been trained against a given set of data. Let’s say
we input an image of a dog in the testing phase, implying that we don’t tell the model what
the picture is of. The neural network will start by recognizing eyelashes prior to a snout,
prior to the shape of the dog’s head, and so on until it classifies the image as that of a dog.
3
Chapter 1 ■ Introduction to Deep Learning
4
Visit https://textbookfull.com
now to explore a rich
collection of eBooks, textbook
and enjoy exciting offers!
Chapter 1 ■ Introduction to Deep Learning
5
Chapter 1 ■ Introduction to Deep Learning
6
Chapter 1 ■ Introduction to Deep Learning
Experimental Design
The emphasis of this text ultimately is to give the reader a theoretical understanding of
the deep learning models such that they feel comfortable enough to apply them. As such,
it is important to discuss elements of experimental design to help the reader understand
proper ways to structure their research so it leads to actionable insights and not a waste
of time and/or energy. Largely, I will draw upon Fisher’s principles in addition to defining
best practices given the problems often utilized by deep learning.
Feature Selection
A component of experimental design, but ultimately entirely a subtopic of research unto
itself, I will cover the concept of variable selection and multiple methods used often by
data scientists to handle high dimensional data sets. Specifically, I will speak in depth
about principal components analysis as well as genetic algorithms. All the algorithms
discussed are available in the R statistical language in open source packages. For those
who want to research this area of research further, I’ll reference papers relevant to this
topic. From a deep learning perspective, we will discuss in depth how each model
performs its own specific methods of feature selection by design of the layer architecture
in addition to addressing recent discoveries in the field.
7
Chapter 1 ■ Introduction to Deep Learning
The first working learning algorithm that is often associated with deep learning
models was developed by Ivakhenenko and Lapa. They published their findings in a
paper entitled “Networks Trained by the Group Method of Data Handling (GMDH)” in
1965. These were among the first deep learning systems of the feed-forward multilayer
perceptron type. Feed-forward networks describe models where the connections between
the units don’t form a cycle, as they would be in a recurrent neural network. This model
featured polynomial activation functions, and the layers were incrementally grown and
trained by regression analysis. They were subsequently pruned with the help of a separate
validation set, where regularization was used to weed out superfluous units.
In the 1980s, the neocognitron was introduced by Kunihio Fukushima. It is a
multilayered artificial neural network and has primarily been used for handwritten
character recognition and similar tasks that require pattern recognition. Its pattern
recognition abilities gave inspiration to the convolutional neural network. Regardless,
the neocognitron was inspired by a model proposed by the neurophysiologists Hubel
and Wiesel. Also during this decade, Yann LeCun et al. applied the back-propagation
algorithm to a deep neural network. The original purpose of this was for AT&T to
recognize handwritten zip codes on mail. The advantages of this technology were
significant, particularly right before the Internet and its commercialization were to occur
in the late 1990s and early 2000s.
In the 1990s, the field of deep learning saw the development of a recurrent neural
network that required more than 1,000 layers in an RNN unfolded in time, and the
discovery that it is possible to train a network containing six fully connected layers and
several hundred hidden units using what is called a wake-sleep algorithm. A heuristic,
or an algorithm that we apply over another single or group of algorithms, a wake-sleep
algorithm is a unsupervised method that allows the algorithm to adjust parameters in
such a way that an optimal density estimator is outputted. The “wake” phase describes
the process of the neurons firing from input to output. The connections from the inputs
and outputs are modified to increase the likelihood that they replicate the correct activity
in the layer below the current one. The “sleep” phase is the reverse of the wake phase,
such that neurons are fired by the connections while the recognitions are modified.
As rapidly as the advancements in this field came during the early 2000s and the
2010s, the current period moving forward is being described as the watershed moment
for deep learning. It is now that we are seeing the application of deep learning to a
multitude of industries and fields as well as the very devoted improvement of the
hardware used for these models. In the future, it is expected that the advances covered in
deep learning will help to allow technology to make actions in contexts where humans
often do today and where traditional machine learning algorithms have performed
miserably. Although there is certainly still progress to be made, the investment made
by many firms and universities to accelerate the progress is noticeable and making a
significant impact on the world.
8
Chapter 1 ■ Introduction to Deep Learning
Summary
It is important for the reader to ultimately understand that no matter how sophisticated
any model is that we describe here, and whatever interesting and powerful uses it may
provide, there is no substitute for adequate domain knowledge in the field in which these
models are being used. It is easy to fall into the trap, for both advanced and introductory
practitioners, of having full faith in the outputs of the deep learning models without
heavily evaluating the context in which they are used. Although seemingly self-evident,
it is important to underscore the importance of carefully examining results and, more
importantly, making actionable inferences where the risk of being incorrect is most
limited. I hope to impress upon the reader not only the knowledge of where they can
apply these models, but the reasonable limitations of the technology and research as it
exists today.
This is particularly important in machine learning and deep learning because
although many of these models are powerful and reach proper solutions that would be
nearly impossible to do by hand, we have not determined why this is the case always. For
example, we understand how the back-propagation algorithm works, but we can’t see it
operating and we don’t have an understanding of what exactly happened to reach such
a conclusion. The main problem that arises from this situation is that when a process
breaks, we don’t necessarily always have an idea as to why. Although there have been
methods created to try and track the neurons and the order in which they are activated,
the decision-making process for a neural network isn’t always consistent, particularly
across differing problems. It is my hope that the reader keeps this in mind when moving
forward and evaluates this concern appropriately when necessary.
9
Random documents with unrelated
content Scribd suggests to you:
hozott elő, melyben buza, lencse, bab, zezamfü, rizs, továbbá nagy
adag czukor és két ujveretü pénzdarab volt, mig a miniszterek és
országnagyok friss sütésű kenyeret nyujtottak át. Miután a Sah
mindent megizlelt volna, a maradékokat elosztá a jelenlévők közt,
mondva: »Ez az uj idő ujévének uj napja, hol minden létező
megujul.«
A mi ez alkalommal a királyi palotában történik, némi
változatokkal az országnagyjai palotájában ismétlődik, mig
magánkörökben, az ünnepi ruhába öltözött család gazdagon
megrakott asztalnál foglal helyet. Annak közepén – (megjegyzendő,
hogy itt csak a földön felteritett szőnyegről s nem tulajdonképeni
asztalról van szó), vizzel telt tál áll, melyre minden szem irányul.
Azon perczben t. i. midőn a nap a kos jelébe jut, a föld egy halk
megrendülése következtében a viz állitólagosan megbodrosul, s e
pillanat adja a jelt kölcsönös üdvözletekre. »Idi suma mubarek bad!«
(Ünnepetek boldog legyen!) E köszöntés hangzik fel az nap
mindenütt, házon kivül és házon belül, a város minden utczáin, a
merre emberek csak találkoznak egymással. A Noruz-zal t. i. az
állami, üzleti, ipari, és mezőgazdasági életben uj fejezet kezdődik. A
fagy, eső és borus ég évszaka helyet ád a tavasznak, az azurkék
mennyboltnak, a balzsamos légnek s virágok édes illatának. Nem
csoda tehát, ha az ünnepélyek szakadatlanul folytattatnak 13 napon
keresztül, s még a pénztárát oly aggályosan őrző fejedelem sem
képes magát kivonni belőle hogy a nyilvános mulatságokhoz
bizonyos összeggel hozzá ne járuljon. S még ott is, hol az irán
kultura az ó parz eszmék befolyása alatt már egy évezreddel ezelőtt
fanatikus arábok és turáni hordák által erőszakosan kiküszöböltetett,
még ott is, t. i. Közép-Ázsiában is a Noruz még mindig antik
formájában és bájában tovább virágzik.
Sajátságos, hogy az ős Kharezm, a parszi-kulturának ezer év előtt
még hires székhelye, hivebb maradt e szokáshoz, mint Turkesztán
egyéb részei. Khiva özbeg népségénél a tavasz beköszöntése nem
kevésbbé fontos szerepet játszik mint Persiában. Állitólag e napon
hangzanak fel először a szilfák sürű lombozatu ágairól, a csalogány
busongó, édes dalai. Az Oxus drága nedve, ezen ünnepély
érdekében a legtávolabb csatornákba is bebocsájtatik; a város
nyilvános térein kosviadalok és lóversenyek rendeztetnek, s a kinek
csak módjában áll, ezen időtájt elhagyja lakását hogy nehány napot
sátorokban, valamely kövér mező szélén töltsön el. A szigoruan
moszlim Bokharában, ugyan szinte ünnepeltetik a Noruz, azonban
nem oly pompával, mint az iszlam legszélsőbb keleti határszélén, t. i.
Keleti-Turkesztánban. A természet szép ünnepének e kiváló
dicsőitése nem lehet meglepő, mert az iszlam ünnepei egyáltalán
számra igen kevesek s azonfelül a gyász és elkeseredés érzelmeivel
tartatnak meg; jelentőségük elvileg, az Istenségbe való, őszinte
elmélyedésen s a próféta rajongó dicsőitésén alapul, s ennélfogva
magától értetődik, hogy a lélek örömteli hangulatát kizárják.
Zarándokok és zarándokolások.
1. Isten.
2. Kegyteljes.
3. Könyörületes.
4. Szent.
5. Birtokos.
6. Megváltó.
7. Hitadó.
8. Pártfogó.
9. Magasztos.
10. Hatalmas.
11. Tekintélyt-kölcsönző.
12. Teremtő.
13. Élesztő.
14. Alakitó.
15. Megbocsájtó.
16. Gazdag.
17. Adakozó.
18. Tápláló.
19. Megnyitó.
20. Mindentudó.
21. Felmagasztaló.
22. Megörvendeztető.
23. Megszeliditő.
24. Felemelő.
25. Megtisztelő.
26. A mindent eltemető.
27. A mindent halló.
28. A mindent látó.
29. A biró.
30. Az igazságos.
31. A bájos.
32. Az értesült.
33. A szende.
34. A nagy.
35. A sajnálkozó.
36. A hálás.
37. A magas.
38. A legnagyobb.
39. A védő.
40. A gondoskodó.
41. A felelősséget vivő.
42. A diadalmas.
43. A kegyes.
44. A figyelő.
45. Az imádságot elfogadó.
46. A kiterjedő.
47. Az itélethozó.
48. A szerető.
49. A legmagasztosabb.
50. Minden lételnek oka.
51. A bevalló.
52. Az igaz.
53. A szerző.
54. Az erős.
55. A tartós.
56. A barát.
57. A méltányos.
58. A számitó.
59. A kezdő.
60. Az ébresztő.
61. Az éltető.
62. Az ölő.
63. Az örökké való.
64. Az örökké tartó.
65. A feltaláló.
66. A fényteli.
67. Az egyetlen.
68. A mulhatatlan.
69. A hatalomteli.
70. A hatalmat adományozó.
71. A megelőző.
72. A következő.
73. Az első.
74. Az utolsó.
75. A látható.
76. A rejtett.
77. Az uralkodó.
78. A leghatalmasabb.
79. A jóindulatu.
80. A bünbánatot ébresztő.
81. A boszuálló.
82. A bünbocsátó.
83. A jóságos.
84. Birtok ura.
85. Czimek és méltóságok ura.
86. A rendbehozó.
87. Az alkotó.
88. A leggazdagabb.
89. A gazdagitó.
90. A megakadályozó.
91. A megkárositó.
92. A hasznothozó.
93. A világosság.
94. A vezető.
95. A kezdeményező.
96. A befejező.
97. Az örökös.
98. Az inditó.
99. A türelmes.