100% found this document useful (3 votes)
20 views

Relational Data Clustering Models Algorithms and Applications 1st Edition Bo Long 2024 Scribd Download

Clustering

Uploaded by

basilamosas5
Copyright
© © All Rights Reserved
Available Formats
Download as PDF, TXT or read online on Scribd
100% found this document useful (3 votes)
20 views

Relational Data Clustering Models Algorithms and Applications 1st Edition Bo Long 2024 Scribd Download

Clustering

Uploaded by

basilamosas5
Copyright
© © All Rights Reserved
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 81

Visit https://ebookgate.

com to download the full version and


explore more ebooks

Relational Data Clustering Models Algorithms and


Applications 1st Edition Bo Long

_____ Click the link below to download _____


https://ebookgate.com/product/relational-data-
clustering-models-algorithms-and-applications-1st-
edition-bo-long/

Explore and download more ebooks at ebookgate.com


Here are some recommended products that might interest you.
You can download now and explore!

Data Clustering Algorithms and Applications 1st Edition


Charu C. Aggarwal

https://ebookgate.com/product/data-clustering-algorithms-and-
applications-1st-edition-charu-c-aggarwal/

ebookgate.com

Co Clustering Models algorithms and applications 1st


Edition Gérard Govaert

https://ebookgate.com/product/co-clustering-models-algorithms-and-
applications-1st-edition-gerard-govaert/

ebookgate.com

Factorization Models for Multi Relational Data 1st Edition


Lucas Drumond

https://ebookgate.com/product/factorization-models-for-multi-
relational-data-1st-edition-lucas-drumond/

ebookgate.com

Network and Discrete Location Models Algorithms and


Applications 2ed. Edition Daskin

https://ebookgate.com/product/network-and-discrete-location-models-
algorithms-and-applications-2ed-edition-daskin/

ebookgate.com
Data Structures Algorithms And Applications In C 2nd
Edition Sartaj Sahni

https://ebookgate.com/product/data-structures-algorithms-and-
applications-in-c-2nd-edition-sartaj-sahni/

ebookgate.com

Clustering for Data Mining A Data Recovery Approach 1st


Edition Boris Mirkin

https://ebookgate.com/product/clustering-for-data-mining-a-data-
recovery-approach-1st-edition-boris-mirkin/

ebookgate.com

War Survival Units and Citizenship A Neo Eliasian


Processual Relational Perspective 1st Edition Lars Bo
Kaspersen
https://ebookgate.com/product/war-survival-units-and-citizenship-a-
neo-eliasian-processual-relational-perspective-1st-edition-lars-bo-
kaspersen/
ebookgate.com

Introduction to Clustering Large and High Dimensional Data


1st Edition Jacob Kogan

https://ebookgate.com/product/introduction-to-clustering-large-and-
high-dimensional-data-1st-edition-jacob-kogan/

ebookgate.com

Hierarchical Linear Models Applications and Data Analysis


Methods 2nd Edition Stephen W. Raudenbush

https://ebookgate.com/product/hierarchical-linear-models-applications-
and-data-analysis-methods-2nd-edition-stephen-w-raudenbush/

ebookgate.com
Relational
Data Clustering
Models, Algorithms,
and Applications

© 2010 by Taylor and Francis Group, LLC

C7261_FM.indd 1 4/5/10 12:49:49 PM


Chapman & Hall/CRC
Data Mining and Knowledge Discovery Series

SERIES EDITOR
Vipin Kumar
University of Minnesota
Department of Computer Science and Engineering
Minneapolis, Minnesota, U.S.A

AIMS AND SCOPE


This series aims to capture new developments and applications in data mining and knowledge
discovery, while summarizing the computational tools and techniques useful in data analysis. This
series encourages the integration of mathematical, statistical, and computational methods and
techniques through the publication of a broad range of textbooks, reference works, and hand-
books. The inclusion of concrete examples and applications is highly encouraged. The scope of the
series includes, but is not limited to, titles in the areas of data mining and knowledge discovery
methods and applications, modeling, algorithms, theory and foundations, data and knowledge
visualization, data mining systems and tools, and privacy and security issues.

PUBLISHED TITLES
UNDERSTANDING COMPLEX DATASETS: DATA MINING WITH MATRIX DECOMPOSITIONS
David Skillicorn

COMPUTATIONAL METHODS OF FEATURE SELECTION


Huan Liu and Hiroshi Motoda

CONSTRAINED CLUSTERING: ADVANCES IN ALGORITHMS, THEORY, AND APPLICATIONS


Sugato Basu, Ian Davidson, and Kiri L. Wagstaff

KNOWLEDGE DISCOVERY FOR COUNTERTERRORISM AND LAW ENFORCEMENT


David Skillicorn

MULTIMEDIA DATA MINING: A SYSTEMATIC INTRODUCTION TO CONCEPTS AND THEORY


Zhongfei Zhang and Ruofei Zhang

NEXT GENERATION OF DATA MINING


Hillol Kargupta, Jiawei Han, Philip S. Yu, Rajeev Motwani, and Vipin Kumar

DATA MINING FOR DESIGN AND MARKETING


Yukio Ohsawa and Katsutoshi Yada

THE TOP TEN ALGORITHMS IN DATA MINING


Xindong Wu and Vipin Kumar

GEOGRAPHIC DATA MINING AND KNOWLEDGE DISCOVERY, SECOND EDITION


Harvey J. Miller and Jiawei Han

TEXT MINING: CLASSIFICATION, CLUSTERING, AND APPLICATIONS


Ashok N. Srivastava and Mehran Sahami

BIOLOGICAL DATA MINING


Jake Y. Chen and Stefano Lonardi

INFORMATION DISCOVERY ON ELECTRONIC HEALTH RECORDS


Vagelis Hristidis

TEMPORAL DATA MINING


Theophano Mitsa

RELATIONAL DATA CLUSTERING: MODELS, ALGORITHMS, AND APPLICATIONS


Bo Long, Zhongfei Zhang, and Philip S. Yu

© 2010 by Taylor and Francis Group, LLC

C7261_FM.indd 2 4/5/10 12:49:50 PM


Chapman & Hall/CRC
Data Mining and Knowledge Discovery Series

Relational
Data Clustering
Models, Algorithms,
and Applications

Bo Long
Zhongfei Zhang
Philip S. Yu

© 2010 by Taylor and Francis Group, LLC

C7261_FM.indd 3 4/5/10 12:49:50 PM


Chapman & Hall/CRC
Taylor & Francis Group
6000 Broken Sound Parkway NW, Suite 300
Boca Raton, FL 33487-2742

© 2010 by Taylor and Francis Group, LLC


Chapman & Hall/CRC is an imprint of Taylor & Francis Group, an Informa business

No claim to original U.S. Government works

Printed in the United States of America on acid-free paper


10 9 8 7 6 5 4 3 2 1

International Standard Book Number: 978-1-4200-7261-7 (Hardback)

This book contains information obtained from authentic and highly regarded sources. Reasonable efforts
have been made to publish reliable data and information, but the author and publisher cannot assume
responsibility for the validity of all materials or the consequences of their use. The authors and publishers
have attempted to trace the copyright holders of all material reproduced in this publication and apologize to
copyright holders if permission to publish in this form has not been obtained. If any copyright material has
not been acknowledged please write and let us know so we may rectify in any future reprint.

Except as permitted under U.S. Copyright Law, no part of this book may be reprinted, reproduced, transmit-
ted, or utilized in any form by any electronic, mechanical, or other means, now known or hereafter invented,
including photocopying, microfilming, and recording, or in any information storage or retrieval system,
without written permission from the publishers.

For permission to photocopy or use material electronically from this work, please access www.copyright.
com (http://www.copyright.com/) or contact the Copyright Clearance Center, Inc. (CCC), 222 Rosewood
Drive, Danvers, MA 01923, 978-750-8400. CCC is a not-for-profit organization that provides licenses and
registration for a variety of users. For organizations that have been granted a photocopy license by the CCC,
a separate system of payment has been arranged.

Trademark Notice: Product or corporate names may be trademarks or registered trademarks, and are used
only for identification and explanation without intent to infringe.

Library of Congress Cataloging‑in‑Publication Data

Relational data clustering : models, algorithms, and applications / Bo Long, Zhongfei


Zhang, Philip S. Yu.
p. cm. -- (Chapman & Hall/CRC data mining and knowledge discovery series)
Includes bibliographical references and index.
ISBN 978-1-4200-7261-7 (hardcover : alk. paper)
1. Data mining. 2. Cluster analysis. 3. Relational databases. I. Long, Bo. II. Zhang,
Zhongfei. III. Yu, Philip S. IV. Title. V. Series.

QA76.9.D343R46 2010
005.75’6--dc22 2010009487

Visit the Taylor & Francis Web site at


http://www.taylorandfrancis.com

and the CRC Press Web site at


http://www.crcpress.com

© 2010 by Taylor and Francis Group, LLC

C7261_FM.indd 4 4/5/10 12:49:50 PM


To my parents, Jingyu Li and Yinghua Long; my sister, Li; my wife Jing;
and my daughter, Helen
Bo Long

To my parents, Yukun Zhang and Ming Song; my sister, Xuefei; and my


sons, Henry and Andrew
Zhongfei (Mark) Zhang

To my family
Philip S. Yu

© 2010 by Taylor and Francis Group, LLC


Contents

List of Tables xi

List of Figures xiii

Preface xv

1 Introduction 1
1.1 Defining the Area . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 The Content and the Organization of This Book . . . . . . . 4
1.3 The Audience of This Book . . . . . . . . . . . . . . . . . . . 6
1.4 Further Readings . . . . . . . . . . . . . . . . . . . . . . . . 6

I Models 9
2 Co-Clustering 11
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Related Work . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Model Formulation and Analysis . . . . . . . . . . . . . . . . 13
2.3.1 Block Value Decomposition . . . . . . . . . . . . . . . 13
2.3.2 NBVD Method . . . . . . . . . . . . . . . . . . . . . . 17

3 Heterogeneous Relational Data Clustering 21


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Related Work . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3 Relation Summary Network Model . . . . . . . . . . . . . . . 24

4 Homogeneous Relational Data Clustering 29


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2 Related Work . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3 Community Learning by Graph Approximation . . . . . . . . 33

5 General Relational Data Clustering 39


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2 Related Work . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.3 Mixed Membership Relational Clustering . . . . . . . . . . . 42
5.4 Spectral Relational Clustering . . . . . . . . . . . . . . . . . 45

vii

© 2010 by Taylor and Francis Group, LLC


viii Contents

6 Multiple-View Relational Data Clustering 47


6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
6.2 Related Work . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.3 Background and Model Formulation . . . . . . . . . . . . . . 50
6.3.1 A General Model for Multiple-View Unsupervised
Learning . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.3.2 Two Specific Models: Multiple-View Clustering and
Multiple-View Spectral Embedding . . . . . . . . . . . 53

7 Evolutionary Data Clustering 57


7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
7.2 Related Work . . . . . . . . . . . . . . . . . . . . . . . . . . 59
7.3 Dirichlet Process Mixture Chain (DPChain) . . . . . . . . . 60
7.3.1 DPChain Representation . . . . . . . . . . . . . . . . 61
7.4 HDP Evolutionary Clustering Model (HDP-EVO) . . . . . . 63
7.4.1 HDP-EVO Representation . . . . . . . . . . . . . . . . 63
7.4.2 Two-Level CRP for HDP-EVO . . . . . . . . . . . . . 65
7.5 Infinite Hierarchical Hidden Markov State Model . . . . . . . 66
7.5.1 iH2 MS Representation . . . . . . . . . . . . . . . . . . 67
7.5.2 Extention of iH2 MS . . . . . . . . . . . . . . . . . . . 68
7.5.3 Maximum Likelihood Estimation of HTM . . . . . . . 69
7.6 HDP Incorporated with HTM (HDP-HTM) . . . . . . . . . . 70
7.6.1 Model Representation . . . . . . . . . . . . . . . . . . 70

II Algorithms 73
8 Co-Clustering 75
8.1 Nonnegative Block Value Decomposition Algorithm . . . . . 75
8.2 Proof of the Correctness of the NBVD Algorithm . . . . . . 78

9 Heterogeneous Relational Data Clustering 83


9.1 Relation Summary Network Algorithm . . . . . . . . . . . . 83
9.2 A Unified View to Clustering Approaches . . . . . . . . . . . 90
9.2.1 Bipartite Spectral Graph Partitioning . . . . . . . . . 90
9.2.2 Binary Data Clustering with Feature Reduction . . . . 90
9.2.3 Information-Theoretic Co-Clustering . . . . . . . . . . 91
9.2.4 K-Means Clustering . . . . . . . . . . . . . . . . . . . 92

10 Homogeneous Relational Data Clustering 95


10.1 Hard CLGA Algorithm . . . . . . . . . . . . . . . . . . . . . 95
10.2 Soft CLGA Algorithm . . . . . . . . . . . . . . . . . . . . . . 97
10.3 Balanced CLGA Algorithm . . . . . . . . . . . . . . . . . . . 101

© 2010 by Taylor and Francis Group, LLC


ix

11 General Relational Data Clustering 105


11.1 Mixed Membership Relational Clustering Algorithm . . . . . 105
11.1.1 MMRC with Exponential Families . . . . . . . . . . . 105
11.1.2 Monte Carlo E-Step . . . . . . . . . . . . . . . . . . . 108
11.1.3 M-Step . . . . . . . . . . . . . . . . . . . . . . . . . . 109
11.1.4 Hard MMRC Algorithm . . . . . . . . . . . . . . . . 112
11.2 Spectral Relational Clustering Algorithm . . . . . . . . . . . 114
11.3 A Unified View to Clustering . . . . . . . . . . . . . . . . . . 118
11.3.1 Semi-Supervised Clustering . . . . . . . . . . . . . . . 118
11.3.2 Co-Clustering . . . . . . . . . . . . . . . . . . . . . . . 119
11.3.3 Graph Clustering . . . . . . . . . . . . . . . . . . . . 120

12 Multiple-View Relational Data Clustering 123


12.1 Algorithm Derivation . . . . . . . . . . . . . . . . . . . . . . 123
12.1.1 Multiple-View Clustering Algorithm . . . . . . . . . . 124
12.1.2 Multiple-View Spectral Embedding Algorithm . . . . 127
12.2 Extensions and Discussions . . . . . . . . . . . . . . . . . . . 129
12.2.1 Evolutionary Clustering . . . . . . . . . . . . . . . . . 129
12.2.2 Unsupervised Learning with Side Information . . . . 130

13 Evolutionary Data Clustering 133


13.1 DPChain Inference . . . . . . . . . . . . . . . . . . . . . . . 133
13.2 HDP-EVO Inference . . . . . . . . . . . . . . . . . . . . . . . 134
13.3 HDP-HTM Inference . . . . . . . . . . . . . . . . . . . . . . 136

III Applications 139


14 Co-Clustering 141
14.1 Data Sets and Implementation Details . . . . . . . . . . . . . 141
14.2 Evaluation Metricees . . . . . . . . . . . . . . . . . . . . . . 142
14.3 Results and Discussion . . . . . . . . . . . . . . . . . . . . . 143

15 Heterogeneous Relational Data Clustering 147


15.1 Data Sets and Parameter Setting . . . . . . . . . . . . . . . 147
15.2 Results and Discussion . . . . . . . . . . . . . . . . . . . . . 150

16 Homogeneous Relational Data Clustering 153


16.1 Data Sets and Parameter Setting . . . . . . . . . . . . . . . 153
16.2 Results and Discussion . . . . . . . . . . . . . . . . . . . . . 155

17 General Relational Data Clustering 159


17.1 Graph Clustering . . . . . . . . . . . . . . . . . . . . . . . . 159
17.2 Bi-clustering and Tri-Clustering . . . . . . . . . . . . . . . . 161
17.3 A Case Study on Actor-Movie Data . . . . . . . . . . . . . . 163
17.4 Spectral Relational Clustering Applications . . . . . . . . . . 164
17.4.1 Clustering on Bi-Type Relational Data . . . . . . . . . 164

© 2010 by Taylor and Francis Group, LLC


x Contents

17.4.2 Clustering on Tri-Type Relational Data . . . . . . . . 166

18 Multiple-View and Evolutionary Data Clustering 169


18.1 Multiple-View Clustering . . . . . . . . . . . . . . . . . . . . 169
18.1.1 Synthetic Data . . . . . . . . . . . . . . . . . . . . . . 169
18.1.2 Real Data . . . . . . . . . . . . . . . . . . . . . . . . . 172
18.2 Multiple-View Spectral Embedding . . . . . . . . . . . . . . 173
18.3 Semi-Supervised Clustering . . . . . . . . . . . . . . . . . . . 174
18.4 Evolutionary Clustering . . . . . . . . . . . . . . . . . . . . . 175

IV Summary 179
References 185

Index 195

© 2010 by Taylor and Francis Group, LLC


List of Tables

4.1 A list of variations of the CLGA model . . . . . . . . . . . . 37

9.1 A list of Bregman divergences and the corresponding convex


functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

14.1 Data sets details. Each data set is randomly and evenly sampled
from specific newsgroups . . . . . . . . . . . . . . . . . . . . . 142
14.2 Both NBVD and NMF accurately recover the original clusters
in the CLASSIC3 data set . . . . . . . . . . . . . . . . . . . . 144
14.3 A normalized block value matrix on the CLASSIS3 data set . 145
14.4 NBVD extracts the block structure more accurately than NMF
on Multi5 data set . . . . . . . . . . . . . . . . . . . . . . . . 145
14.5 NBVD shows clear improvements on the micro-averaged-
precision values on different newsgroup data sets over other
algorithms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

15.1 Parameters and distributions for synthetic bipartite graphs . 148


15.2 Subsets of newsgroup data for constructing bipartite graphs . 148
15.3 Parameters and distributions for synthetic tripartite graphs . 149
15.4 Taxonomy structures of two data sets for constructing tripartite
graphs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
15.5 NMI scores of the algorithms on bipartite graphs . . . . . . . 151
15.6 NMI scores of the algorithms on tripartite graphs . . . . . . . 152

16.1 Summary of the graphs with general clusters . . . . . . . . . 154


16.2 Summary of graphs based on text datasets . . . . . . . . . . 154
16.3 NMI scores on graphs of general clusters . . . . . . . . . . . 155
16.4 NMI scores on graphs of text data . . . . . . . . . . . . . . . 156

17.1 Summary of relational data for Graph Clustering . . . . . . . 160


17.2 Subsets of newsgroup data for bi-type relational data . . . . . 161
17.3 Taxonomy structures of two data sets for constructing tripartite
relational data . . . . . . . . . . . . . . . . . . . . . . . . . . 161
17.4 Two clusters from actor-movie data . . . . . . . . . . . . . . . 163
17.5 NMI comparisons of SRC, NC, and BSGP algorithms . . . . 166
17.6 Taxonomy structures for three data sets . . . . . . . . . . . . 167
17.7 NMI comparisons of SRC, MRK, and CBGC algorithms . . . 168

xi

© 2010 by Taylor and Francis Group, LLC


xii List of Tables

18.1 Distributions and parameters to generate syn2 data . . . . . 170

© 2010 by Taylor and Francis Group, LLC


List of Figures

1.1 Relationships among the different areas of relational data clus-


tering. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2.1 The original data matrix (b) with a 2 × 2 block structure which
is demonstrated by the permuted data matrix (a). The row-
coefficient matrix R, the block value matrix B, and the column-
coefficient matrix C give a reconstructed matrix (c) to approx-
imate the original data matrix (b). . . . . . . . . . . . . . . . 15
2.2 Illustration of the difference between BVD and SVD. . . . . . 16

3.1 A bipartite graph (a) and its relation summary network (b). . 24
3.2 A tripartite graph (a) and its RSN (b) . . . . . . . . . . . . . 26
3.3 The cluster structures of V2 and V3 affect the similarity between
v11 and v12 through the hidden nodes. . . . . . . . . . . . . . 28

4.1 A graph with mixed cluster structures (a) and its cluster pro-
totype graph (b). . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2 A graph with virtual nodes. . . . . . . . . . . . . . . . . . . . 31
4.3 A graph with strongly connected clusters (a) and its cluster
prototype graph (b); the graph affinity matrices for (a) and
(b), (c) and (d), respectively. . . . . . . . . . . . . . . . . . . 34

5.1 Examples of the structures of relational data. . . . . . . . . . 42

7.1 The DPChain model. . . . . . . . . . . . . . . . . . . . . . . . 61


7.2 The HDP-EVO model. . . . . . . . . . . . . . . . . . . . . . . 64
7.3 The iH2 MS model. . . . . . . . . . . . . . . . . . . . . . . . . 67
7.4 The HDP-HTM model. . . . . . . . . . . . . . . . . . . . . . 71

9.1 An RSN equivalent to k-means. . . . . . . . . . . . . . . . . . 92

13.1 The illustrated example of global and local cluster correspon-


dence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

14.1 The coefficient of the variance for the columns of the mean
block value matrix with the varing number of the word clusters
using NBVD on different NG20 data sets. . . . . . . . . . . . 143

xiii

© 2010 by Taylor and Francis Group, LLC


xiv List of Figures

14.2 Micro-averaged-precision with the varing number of the word


clusters using NBVD on different NG20 data sets. . . . . . . 144

17.1 NMI comparison of SGP, METIS, and MMRC algorithms. . . 160


17.2 NMI comparison among BSGP, RSN, and MMRC algorithms
for bi-type data. . . . . . . . . . . . . . . . . . . . . . . . . . 162
17.3 NMI comparison of CBGC, RSN, and MMRC algorithms for
tri-type data. . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
17.4 (a), (b), and (c) are document embeddings of multi2 data set
produced by NC, BSGP, and SRC, respectively (u1 and u2
denote first and second eigenvectors, respectively). (d) is an
iteration curve for SRC. . . . . . . . . . . . . . . . . . . . . . 165
17.5 Three pairs of embeddings of documents and categories for
the TM1 data set produced by SRC with different weights:
(12) (23)
(a) and (b) with wa = 1, wa = 1; (c) and (d) with
(12) (23) (12) (23)
wa = 1, wa = 0; (e) and (f) with wa = 0, wa = 1. . . 167

18.1 A toy example that demonstrates that our MVC algorithm is


able to learn the consensus pattern from multiple-views with
noise. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
18.2 NMI comparison on synthetic data. . . . . . . . . . . . . . . 171
18.3 NMI comparison on real data. . . . . . . . . . . . . . . . . . 172
18.4 Four embeddings for NGv3 data set. . . . . . . . . . . . . . . 174
18.5 NMI comparison on spectral embedding of NGv3 and NGv4. 175
18.6 Semi-supervised clustering results. . . . . . . . . . . . . . . . 176
18.7 Evolutionary clustering results. . . . . . . . . . . . . . . . . . 176

© 2010 by Taylor and Francis Group, LLC


Preface

The world we live today is full of data with relations—the Internet, the social
network, the telecommunications, the customer shopping patterns, as well as
the micro-array data in bioinformatics research to just name a few examples,
resulting in an active research area called relational data mining in the data
mining research field. Given the fact that in many real-world applications
we do not have the luxury to have any training data or it would become
extremely expensive to obtain training data, relational data clustering has
recently caught substantial attention from the related research communities
and has thus emerged as a new and hot research topic in the area of relational
data mining. This book is the very first monograph on the topic of relational
data clustering written in a self-contained format. This book addresses both
the fundamentals and the applications of relational data clustering, includ-
ing the theoretic models, algorithms, as well as the exemplar applications of
applying these models and algorithms to solve for real-world problems.
The authors of this book have been actively working on the topic of rela-
tional data clustering for years, and this book is the final culmination of their
years of long research on this topic. This book may be used as a collection of
research notes for researchers interested in the research on this topic, a refer-
ence book for practitioners or engineers, as well as a textbook for a graduate
advanced seminar on the topic of relational data clustering. This book may
also be used for an introductory course for graduate students or advanced
undergraduate seniors. The references collected in this book may be used as
further reading lists or references for the readers.
Due to the extensive attention received on this topic in the literature, and
also due to the rapid development in the literature on this topic in recent years,
it is by no means meant to be exhaustive to collect complete information on
relational data clustering. We intend to collect the most recent research of our
own on this topic in this book. For those who have already been in the area of
relational data mining or who already know what this area is about, this book
serves the purpose of a formal and systematic collection of part of the most
recent advances of the research on this topic. For those who are beginners to
the area of relational data mining, this book serves the purpose of a formal
and systematic introduction to relational data clustering.
It is not possible for us to accomplish this book without the great support
from a large group of people and organizations. In particular, we would like to
thank the publisher—Taylor & Francis/CRC Press for giving us the opportu-
nity to complete this book for the readers as one of the books in the Chapman

xv

© 2010 by Taylor and Francis Group, LLC


xvi Preface

& Hall/CRC Data Mining and Knowledge Discovery series, with Prof Vipin
Kumar at the University of Minnesota serving as the series editor. We would
like to thank this book’s editor of Taylor & Francis Group, Randi Cohen, for
her enthusiastic and patient support, effort, and advice; the project coordi-
nator of Taylor & Francis Group, Amber Donley, and the anonymous proof
reader for their meticulous effort in correcting typos and other errors of the
draft of the book; and Shashi Kumar of Glyph International for his prompt
technical support in formatting the book. We would like to thank Prof Ji-
awei Han at University of Illinois at Urbana-Champaign and Prof Jieping Ye
at Arizona State University as well as another anonymous reviewer for their
painstaking effort to review the book and their valuable comments to sub-
stantially improve the quality of this book. While this book is derived from
the original contributions by the authors of the book, part of the materials
of this book are also jointly contributed by their colleagues Xiaoyun Wu at
Google Research Labs and Tianbing Xu at SUNY Binghamton. This book
project is supported in part by the National Science Foundation under grant
IIS-0812114, managed by the program manager, Dr. Maria Zemankova. Any
opinions, findings, and conclusions or recommendations expressed in this ma-
terial are those of the authors and do not necessarily reflect the views of the
National Science Foundation.
Finally, we would like to thank our families for the love and support that
are essential for us to complete this book.

© 2010 by Taylor and Francis Group, LLC


Part I

Models

© 2010 by Taylor and Francis Group, LLC


Chapter 1
Introduction

1.1 Defining the Area


Clustering problem is an essential problem of data mining and machine
learning. Cluster analysis is a process that partitions a set of data objects
into clusters in such a way that objects from the same cluster are similar and
objects from different clusters are dissimilar [105].
Most clustering approaches in the literature focus on “flat” data, in which
each data object is represented as a fixed-length attribute vector [105]. How-
ever, many real-world data sets are much richer in structure, involving objects
of multiple types that are related to each other, such as documents and words
in a text corpus; Web pages, search queries, and Web users in a Web search
system; and shops, customers, suppliers, shareholders, and advertisement me-
dia in a marketing system. We refer those data, in which data objects are
related to each other, as relational data.
Relational data have attracted more and more attention due to its phenom-
enal impact in various important applications, such as text analysis, recom-
mendation systems, Web mining, online advertising, bioinformatics, citation
analysis, and epidemiology. Different relational learning problems have been
addressed in different fields of data mining. One of the most important re-
lational learning tasks is to discover hidden groups (clusters) from relational
data, i.e., relational data clustering. The following are examples of relational
data clustering:

• Text analysis. To learn the document clusters and word clusters from
the bi-type relational data, document-word data.
• Recommendation system. Movie recommendation based on user clusters
(communities) and movie clusters learned from relational data involving
users, movies, and actors/actresses.
• Online advertisement. Based on the relational data, in which advertiser,
bidded terms, and words are interrelated to each other, the clusters of
advertisers and bidder terms can be learned for bidded term suggestion.
• BBioinformatics. Automatically identifying gene groups (clusters) from
the relational data of genes, conditions, and annotation words.

© 2010 by Taylor and Francis Group, LLC


2 Introduction

• Research community mining and topic identification. To identify re-


search communities (author clusters) and research topics (paper clus-
ters) from relational data consisting of authors, papers, and key words.

In general, relational data contain three types of information: attributes for


individual objects, homogeneous relations between objects of the same type,
and heterogeneous relations between objects of different types. For example,
for a scientific publication relational data set of papers and authors, the per-
sonal information such as affiliations for authors is attributes; the citation
relations among papers are homogeneous relations; the authorship relations
between papers and authors are heterogeneous relations. Such data violate
the classic IID assumption in machine learning and statistics and present
huge challenges to traditional clustering approaches.
There are two frameworks for the challenging problem of relational data
clustering. One is individual clustering framework; the other is collective clus-
tering framework.
Under the individual clustering framework, we transform relational data
into flat data and then cluster each type of objects individually. An intuitive
way under this framework is to transform all the relations into features and
then to apply traditional clustering algorithms directly. On the other hand,
under the collective clustering framework, we cluster different types of data
objects simultaneously. Compared with the collective clustering framework,
individual clustering framework has the following disadvantages.
First, the transformation causes the loss of relation and structure infor-
mation [48]. Second, traditional clustering approaches are unable to tackle
influence propagation in clustering relational data, i.e., the hidden patterns of
different types of objects could affect each other both directly and indirectly
(pass along relation chains). Third, in some data mining applications, users
are interested not only in the hidden structure for each type of objects, but
also in interaction patterns involving multi-types of objects. For example, in
document clustering, in addition to document clusters and word clusters, the
relationship between document clusters and word clusters is also useful infor-
mation. It is difficult to discover such interaction patterns by clustering each
type of objects individually.
One the other hand, the collective clustering framework has the obvious ad-
vantage of learning both local and global cluster structures based on all three
types of information. In this book, our main focus is on the collective cluster-
ing framework. Under the collective clustering framework, with different foci
on different types of relational data, there are different subfields of relational
data clustering: co-clustering on bi-type heterogeneous relational data, het-
erogeneous relational data clustering on multi-type heterogeneous relational
data, homogeneous relational data clustering on homogeneous relational data,
general relational data clustering on general relational data.
Another interesting observation is that a number of important clustering
problems, which have been of intensive interest in the literature, can be viewed

© 2010 by Taylor and Francis Group, LLC


Defining the Area 3

Homogeneous Co-clustering
relational
clustering Heterogeneous Multipleview clustering
relational clustering

General relational
data clustering

Collective clustering Individual clustering

FIGURE 1.1: Relationships among the different areas of relational data clus-
tering.

as special cases of relational clustering. For example, graph clustering parti-


tioning [28, 75, 113] can be viewed as clustering on singly ype relational data
consisting of only homogeneous relations (represented as a graph affinity ma-
trix) co-clustering [11,44], which arises in important applications such as doc-
ument clustering and micro-array data clustering; under the collective cluster-
ing framework, this can be formulated as clustering on bi-type relational data
consisting of only heterogeneous relations. Recently, semi-supervised cluster-
ing [14, 124] has attracted significant attention, which is a special type of
clustering using both labeled and unlabeled data. In Section 11.3, we show
that semi-supervised clustering can be formulated as clustering on singly type
relational data consisting of attributes and homogeneous relations.
Although this book is mainly focused on the collective clustering frame-
work, it also includes our most recent research on the individual clustering
framework, specifically multiple-view relational data clustering, since in some
applications, when a large number of types of objects in a relational data set
are related to each other in a complicated way, we may want to focus on a
certain type of data objects to reduce the model complexity.
Figure 1.1 shows the relations among different areas of relational data clus-
tering. In summary, as a recently booming area, relational data clustering
arises in a wide range of applications and is also related to a number of im-
portant clustering problems in the literature. Hence, there is a great need for
both practical algorithm derivation and theoretical framework construction
for relational data clustering, which is the main goal of this book.

© 2010 by Taylor and Francis Group, LLC


4 Introduction

1.2 The Content and the Organization of This Book


This book aims at introducing a novel theoretical framework for a new
data mining field, relational data clustering, and a family of new algorithms
for different relational clustering problems arising in a wide range of important
applications.
The organization of this book is as follows. The whole book contains four
parts, introduction, models, algorithms, and applications. The introduction
part defines the area of relational data clustering and to outline what this
book is about; the model part introduces different types of model formulations
for relational data clustering; the algorithm part presents various algorithms
for the corresponding models; the application part shows applications of the
models and algorithms by extensive experimental results. This book focuses
on six topics of relational data clustering.
The first topic is clustering on bi-type heterogeneous relational data, in
which there are heterogeneous relations between the two types of data objects.
For example, a text corpus can be formulated as a bi-type relational data set
of documents and words, in which there exist heterogeneous relations between
documents and words. Bi-type relational data clustering is also known as co-
clustering in the literature. We present a new co-clustering framework, Block
Value Decomposition (BVD), for bi-type heterogeneous relational data, which
factorizes the relational data matrix into three components: the row-coefficient
matrix R, the block value matrix B, and the column-coefficient matrix C. Un-
der this framework, we focus on a special yet very popular case—-nonnegative
relational data, and propose a specific novel co-clustering algorithm that itera-
tively computes the three decomposition matrices based on the multiplicative
updating rules.
The second topic is about a more general case of bi-type heterogeneous
relational data, multi-type heterogeneous relational data that formulate k-
partite graphs with various structures. In fact, many examples of real-world
data involve multiple types of data objects that are related to each other,
which naturally form k-partite graphs of heterogeneous types of data objects.
For example, documents, words, and categories in taxonomy mining, as well
as Web pages, search queries, and Web users in a Web search system all form
a tri-partite graph; papers, key words, authors, and publication venues in a
scientific publication archive form a quart-partite graph. We propose a gen-
eral model, the relation summary network, to find the hidden structures (the
local cluster structures and the global community structures) from a k-partite
heterogeneous relation graph. The model provides a principal framework for
unsupervised learning on k-partite heterogeneous relation graphs of various
structures. Under this model, we derive a novel algorithm to identify the hid-
den structures of a k-partite heterogeneous relation graph by constructing a
relation summary network to approximate the original k-partite heterogeneous

© 2010 by Taylor and Francis Group, LLC


The Content and the Organization of This Book 5

relation graph under a broad range of distortion measures.


For the third topic, this book presents homogeneous relational data clus-
tering. In heterogeneous relational data, we have heterogeneous relations be-
tween different types of data objects. On the other hand, in homogeneous
relational data, there are homogeneous relations between the data objects of
a single type. Homogeneous relational data also arise from important appli-
cations, such as Web mining, social network analysis, bioinformatics, Very
Large-Scale Integration (VLSI) design, and task scheduling. Graph partition-
ing in the literature can be viewed as a special case of homogeneous relational
data clustering. Basically, graph partitioning looks for dense clusters corre-
sponding to strongly intra-connected subgraphs. On the other hand, the goal
of homogeneous relational data clustering is more general and challenging. It
is to identify both dense clusters and sparse clusters. We propose a general
model based on graph approximation to learn relation-pattern-based cluster
structures from a graph. The model generalizes the traditional graph parti-
tioning approaches and is applicable to learning various cluster structures.
Under this model, we derive a family of algorithms which are flexible to learn
various cluster structures and easy to incorporate the prior knowledge of the
cluster structures.
The fourth topic is clustering on the most general case of relational data,
which contain three types of information: attributes for individual objects,
homogeneous relations between objects of the same type, and heterogeneous
relations between objects of different types. How to make use of all three
types of information to cluster multi-type-related objects simultaneously is a
big challenge, since the three types of information have different forms and
very different statistical properties. We propose a probabilistic model for re-
lational clustering, which also provides a principal framework to unify various
important clustering problems, including traditional attributes-based cluster-
ing, semi-supervised clustering, co-clustering, and graph clustering. The pro-
posed model seeks to identify cluster structures for each type of data objects
and interaction patterns between different types of objects. Under this model,
we propose parametric hard and soft relational clustering algorithms under a
large number of exponential family distributions.
The fifth topic is about individual relational clustering framework. On this
topic, we propose a general model for multiple-view unsupervised learning.
The proposed model introduces the concept of mapping function to make
the different patterns from different pattern spaces comparable and hence
an optimal pattern can be learned from the multiple patterns of multiple
representations. Under this model, we formulate two specific models for two
important cases of unsupervised learning: clustering and spectral dimension-
ality reductions; we derive an iterating algorithm for multiple-view clustering,
and a simple algorithm providing a global optimum to multiple spectral di-
mensionality reduction. We also extend the proposed model and algorithms
to evolutionary clustering and unsupervised learning with side information.
The sixth topic is about our most recent research on the evolutionary clus-

© 2010 by Taylor and Francis Group, LLC


6 Introduction

tering, which has great potential to incorporate time effects into relational
data clustering. Evolutionary clustering is a relatively new research topic in
data mining. Evolutionary clustering refers to the scenario where a collection
of data evolves over the time; at each time, the collection of the data has a
number of clusters; when the collection of the data evolves from one time to
another, new data items may join the collection and existing data items may
disappear; similarly, new clusters may appear and at the same time existing
clusters may disappear. Consequently, both the data items and the clusters
of the collection may change over the time, which poses a great challenge
to the problem of evolutionary clustering in comparison with the traditional
clustering. In this book, we introduce the evolutionary clustering models and
algorithms based on Dirichlet processes.

1.3 The Audience of This Book


This book is a monograph on the authors’ recent research in relational data
clustering, the recently emerging area of data mining and machine learning
related to a wide range of applications. Therefore, the expected readership of
this book includes all the researchers and system developing engineers working
in the areas, including but not limited to, data mining, machine learning,
computer vision, multimedia data mining, pattern recognition, statistics, as
well as other application areas that use relational data clustering techniques
such as Web mining, information retrieval, marketing, and bioinformatics.
Since this book is self-contained in the presentations of the materials, this
book also serves as an ideal reference book for people who are interested
in this new area of relational data clustering. Consequently, in addition, the
readership also includes any of those who have this interest or work in a field
which needs this reference book. Finally, this book can be used as a reference
book for a graduate course on advanced topics of data mining and/or machine
learning, as it provides a systematic introduction to this booming new subarea
of data mining and machine learning.

1.4 Further Readings


As a newly emerging area of data mining and machine learning, relational
data clustering is just in its infant stage; currently there is no dedicated,
premier venue for the publications of the research in this area. Consequently,
the related work in this area, as the supplementary information to this book

© 2010 by Taylor and Francis Group, LLC


Further Readings 7

for further readings, may be found in the literature of the two parent areas.
In data mining area, related work may be found in the premier conferences
such as ACM International Conference on Knowledge Discovery and Data
Mining (ACM KDD), IEEE International Conference on Data Mining (IEEE
ICDM), and SIAM International Conference on Data Mining (SDM). In par-
ticular, related work may be found in the workshop dedicated to the area of
relational learning, such as Statistical Relational Learning workshop. For jour-
nals, the premier journals in the data mining area may contain related work
in relational data clustering, including IEEE Transactions on Knowledge and
Data Engineering (IEEE TKDE), ACM Transactions on Data Mining (ACM
TDM), and Knowledge and Information Systems (KAIS).
In the machine learning area, related work may be found in the premier
conferences such as International Conference on Machine Learning (ICML),
Neural Information Processing Systems (NIPS), European Conference on Ma-
chine Learning (ECML), European Conference on Principles and Practice
of Knowledge Discovery in Databases (PKDD), International Joint Confer-
ence on Artificial Intelligence (IJCAI), and Conference on Learning Theory
(COLT). For journals, the premier journals in machine learning area may con-
tain related work in relational data clustering, including Journal of Machine
Learning Research (JMLR) and Machine Learning Journal (MLJ).

© 2010 by Taylor and Francis Group, LLC


Chapter 2
Co-Clustering

A bi-type heterogeneous relational data set consists of two types of data ob-
jects with heterogeneous relations between them. Bi-type heterogenous rela-
tional data are a very important special case of heterogeneous relational data,
since they arise frequently in various important applications. In bi-type het-
erogeneous relational data clustering, we are interested in clustering two types
of data objects simultaneously. This is also known as co-clustering in the liter-
ature. In this chapter, we present a new co-clustering framework, Block Value
Decomposition (BVD), for bi-type heterogeneous relational data, which fac-
torizes the relational data matrix into three components: the row-coefficient
matrix R, the block value matrix B, and the column-coefficient matrix C.

2.1 Introduction
In many applications, such as document clustering, collaborative filtering,
and micro-array analysis, the bi-type heterogeneous relational data can be
formulated as a two-dimensional matrix representing a set of dyadic data.
Dyadic data refer to a domain with two finite sets of objects in which ob-
servations are made for dyads, i.e., pairs with one element from either set.
For the dyadic data in these applications, co-clustering both dimensions of
the data matrix simultaneously is often more desirable than traditional one-
way clustering. This is due to the fact that co-clustering takes the benefit
of exploiting the duality between rows and columns to effectively deal with
the high-dimensional and sparse data that are typical in many applications.
Moreover, there is an additional benefit for co-clustering to provide both row
clusters and column clusters at the same time. For example, we may be in-
terested in simultaneously clustering genes and experimental conditions in
bioinformatics applications [29, 31], simultaneously clustering documents and
words in text mining [44], and simultaneously clustering users and movies in
collaborative filtering.
In this chapter, we propose a new co-clustering framework called Block
Value Decomposition (BVD). The key idea is that the latent block structure
in a two-dimensional dyadic data matrix can be explored by its triple de-

11

© 2010 by Taylor and Francis Group, LLC


12 Co-Clustering

composition. The dyadic data matrix is factorized into three components: the
row-coefficient matrix R, the block value matrix B, and the column-coefficient
matrix C. The coefficients denote the degrees of the rows and columns associ-
ated with their clusters, and the block value matrix is an explicit and compact
representation of the hidden block structure of the data matrix.
Under this framework, we develop a specific novel co-clustering algorithm
for a special yet very popular case—nonnegative dyadic data that iteratively
computes the three decomposition matrices based on the multiplicative up-
dating rules derived from an objective criterion. By intertwining the row clus-
terings and the column clusterings at each iteration, the algorithm performs
an implicitly adaptive dimensionality reduction, which works well for typi-
cal high-dimensional and sparse data in many data mining applications. We
have proven the correctness of the algorithm by showing that the algorithm
is guaranteed to converge and have conducted extensive experimental evalua-
tions to demonstrate the effectiveness and potential of the framework and the
algorithm. As compared with the existing co-clustering methods in the liter-
ature, the BVD framework as well as the specific algorithm offers an extra
capability: it gives an explicit and compact representation of the hidden block
structures in the original data which helps understand the interpretability of
the data. For example, the block value matrix may be used to interpret the
explicit relationship or association between the document clusters and word
clusters in a document-word co-clustering.

2.2 Related Work


This work is primarily related to two main areas: co-clustering in data
mining and matrix decomposition in matrix computation.
Although most of the clustering literature focuses on one-sided clustering
algorithms [5], recently co-clustering has become a topic of extensive interest
due to its applications to many problems such as gene expression data analysis
[29, 31] and text mining [44]. A representative early work of co-clustering
was reported in [71] that identified hierarchical row and column clustering in
matrices by a local greedy splitting procedure. The BVD framework proposed
in this paper is based on the partitioning-based co-clustering formulation first
introduced in [71].
The model-based clustering methods for a two-dimensional data matrix
represent another main direction in co-clustering research. These methods
(e.g., [66, 67]) typically have clear probabilistic interpretation. However, they
are all based on simplistic assumptions on data distributions, such as Gaussian
mixture models. There are no such assumptions in the BVD framework.
Recently, information-theory based co-clustering has attracted intensive at-

© 2010 by Taylor and Francis Group, LLC


Model Formulation and Analysis 13

tention in the literature. The Information Bottleneck (IB) framework [122]


was first introduced for one-sided clustering. Later, an agglomerative hard
clustering version of the IB method was used in [117] to cluster documents
after clustering words. The work in [49] extended the above framework to
repeatedly cluster documents and then words. An efficient algorithm was pre-
sented in [44] that monotonically increases the preserved mutual information
by intertwining both the row and column clusterings at all stages. All these
methods suffer from the fundamental limitation for their applications to a co-
occurrence matrix since they interpret the data matrix as a joint distribution
of two discrete random variables. A more generalized co-clustering framework
was presented in [11] wherein any Bregman divergence can be used in the
objective function, and various conditional expectation based constraints can
be incorporated into the framework.
There have been many research studies that perform clustering based
on Singular Value Decomposition (SVD) or eigenvector-based decomposi-
tion [28, 38, 47, 113]. The latent semantic indexing method (LSI) [38] projects
each data vector into the singular vector space through the SVD, and then
conducts the clustering using traditional data clustering algorithms (such as
k-means) in the transformed space. The spectral clustering methods based on
the graph partitioning theory focus on finding the best cuts of a graph that op-
timize certain predefined criterion functions. The optimization of the criterion
functions usually leads to the computation of singular vectors or eigenvectors
of certain graph affinity matrices. Many criterion functions, such as the aver-
age cut [28], the average association [113], the normalized cut [113], and the
min-max cut [47], have been proposed along with the efficient algorithms for
finding the optimal solutions. Since the computed singular vectors or eigen-
vectors do not correspond directly to individual clusters, the decompositions
from SVD- or eigenvector-based methods are difficult to interpret and to map
to the final clusters; as a result, traditional data clustering methods such as
k-means must be applied in the transformed space.
Recently, another matrix decomposition formulation, Nonnegative Matrix
Factorization (NMF) [36], has been used for clustering [133]. NMF has the
intuitive interpretation for the result. However, it focuses on one-dimension of
the data matrix and does not take advantage of the duality between the rows
and the columns of a matrix.

2.3 Model Formulation and Analysis


2.3.1 Block Value Decomposition
We start by reviewing the notion of dyadic data. The notion dyadic refers
to a domain with two sets of objects: X = {x1 , . . . , xn } and Y = {y1 , . . . , ym }

© 2010 by Taylor and Francis Group, LLC


14 Co-Clustering

in which the observations are made for dyads(x, y). Usually a dyad is a scalar
value w(x, y), e.g., the frequency of co-occurrence, or the strength of prefer-
ence/association/expression level. For the scalar dyads, the data can always
be organized as an n-by-m two-dimensional matrix Z by mapping the row
indices into X and the column indices into Y. Then, each w(x, y) corresponds
to one element of Z.
We are interested in simultaneously clustering X into k disjoint clusters and
Y into l disjoint clusters. Let the k clusters of X be written as: {x̂1 , . . . , x̂k },
and the l clusters of Y be written as: {ŷ1 , . . . , ŷl }. In other words, we are
interested in finding mappings CX and CY ,
CX : {x1 , . . . , xn } → {x̂1 , . . . , x̂k }
CY : {y1 , . . . , yn } → {ŷ1 , . . . , ŷl }
This is equivalent to finding the block structures of the matrix Z, i.e., finding
the k × l submatrices of Z such that the elements within each submatrix are
similar to each other and elements from different submatrices are dissimilar
to each other. This equivalence relation can be illustrated by the procedure
below.
Suppose that we are given the cluster labels of rows and columns. Let us
permute the rows of Z such that the rows within the same cluster are arranged
together and the columns within the same cluster are arranged together. Con-
sequently, we have discovered the hidden block structure from the permuted
data matrix. On the other hand, if we are given the data matrix with block
structure, it is trivial to derive the clustering of rows and columns. The original
data matrix and the permuted data matrix in Figure 2.1 give an illustrative
example.
Since the elements within each block are similar to each other, we expect
one center to represent each block. Therefore a k ×l small matrix is considered
as the compact representation for the original data matrix with a k × l block
structure. In the traditional one-way clustering, given the cluster centers and
the weights that denote degrees of observations associated with their clusters,
one can approximate the original data by linear combinations of the cluster
centers. Similarly, we should be able to “reconstruct” the original data matrix
by the linear combinations of the block centers. Based on this observation,
we formulate the problem of co-clustering dyadic data as the optimization
problem of matrix decomposition, i.e., block value decomposition (BVD).

DEFINITION 2.1 Block value decomposition of a data matrix Z ∈ n×m


is given by the minimization of
f (R, B, C) = Z − RBC2 (2.1)
subject to the constraints ∀ij : Rij ≥ 0 and Cij ≥ 0, where  ·  denote
Frobenius matrix norm, R ∈ n×k , B ∈ k×l , C ∈ l×m , k  n, and
l  m.

© 2010 by Taylor and Francis Group, LLC


Model Formulation and Analysis 15

Permuted data matrix


with block structure Original data matrix

(a) (b)

X X =

(c)

Reconstructed matrix
R B C

FIGURE 2.1: The original data matrix (b) with a 2 × 2 block structure which
is demonstrated by the permuted data matrix (a). The row-coefficient matrix
R, the block value matrix B, and the column-coefficient matrix C give a
reconstructed matrix (c) to approximate the original data matrix (b).

© 2010 by Taylor and Francis Group, LLC


16 Co-Clustering

Y-a xis

Y-a xis
X-axis X-axis

Directions found by BVD Directions found by SVD

FIGURE 2.2: Illustration of the difference between BVD and SVD.

We call the elements of B as the block values; B as the block value matrix;
R as the row-coefficient matrix; and C as the column-coefficient matrix . As
is discussed before, B may be considered as a compact representation of Z; R
denotes the degrees of rows associated with their clusters; and C denotes the
degrees of the columns associated with their clusters. We seek to approximate
the original data matrix by the reconstructed matrix, i.e., RBC, as illustrated
in Figure 2.1.
Under the BVD framework, the combinations of the components also have
an intuitive interpretation. RB is the matrix containing the basis for the
column space of Z and BC contains the basis for the row space of Z. For
example, for a word-by-document matrix Z, each column of RB captures a
base topic of a particular document cluster and each row of BC captures a
base topic of a word cluster.
Compared with SVD-based approaches, there are three main differences
between BVD and SVD. First, in BVD, it is natural to consider each row
or column of a data matrix as an additive combination of the block values
since BVD does not allow negative values in R and C. In contrast, since SVD
allows the negative values in each component, there is no intuitive interpre-
tation for the negative combinations. Second, unlike the singular vectors in
SVD, the basis vectors contained in RB and BC are not necessarily orthog-
onal. Although singular vectors in SVD have a statistical interpretation as
the directions of the variance, they typically do not have clear physical inter-
pretations. In contrast, the directions of the basis vectors in BVD have much
more straightforward correspondence to the clusters (Figure 2.2). Third, SVD
is a full rank decomposition whereas BVD is a reduced rank approximation.
Since the clustering task seeks the reduced or compact representation for the
original data, BVD achieves the objective directly, i.e., the final clusters can
be easily derived without additional clustering operations. In summary, com-
pared with SVD or eigenvector-based decomposition, the decomposition from
BVD has an intuitive interpretation, which is necessary for many data mining

© 2010 by Taylor and Francis Group, LLC


Model Formulation and Analysis 17

applications.
BVD provides a general framework for co-clustering. Depending on differ-
ent data types in different applications, various formulations and algorithms
may be developed under the BVD framework. An interesting observation is
that the data matrices in many important applications are typically nonneg-
ative, such as the co-occurrence tables, the performance/rating matrices and
the proximity matrices. Some other data may be transformed into the non-
negative form, such as the gene expression data. Therefore, in the rest of
the paper, we concentrate on developing a specific novel method under BVD
framework, the nonnegative block value decomposition (NBVD).

2.3.2 NBVD Method


In this section we formulate NBVD as an optimization problem and discuss
several important properties about NBVD. Discussions in this section can also
be applied to general BVD framework.

DEFINITION 2.2 Nonnegative block value decomposition of a nonnega-


tive data matrix Z ∈ n×m (i.e., ∀ij : Zij ≥ 0) is given by the minimization
of
f (R, B, C) = Z − RBC2 (2.2)
subject to the constraints ∀ij : Rij ≥ 0, Bij ≥ 0 and Cij ≥ 0, where R ∈ n×k ,
B ∈ k×l , C ∈ l×m , k  n, and l  m.

Property 1: The solution to NBVD at a global minimum or a specific local


minimum is not unique.

If R, B, and C are a solution to the objective function defined in Equa-


tion 2.2 at a global minimum or a specific local minimum, then, RU , U −1 BV ,
and V −1 C are another solution to f at the same minimum for appropriate
positive invertible matrices U and V because

(RU )(U −1 BV )(V −1 C) = RIk BI l C = RBC

where Ik and Il are identity matrices.


Therefore, in order to make the solution unique, we may consider normal-
izing the components. However, the normalization may also change the clus-
tering result. For example, If we normalize R by the column, i.e., let R̃ = RU ,
where U = diag(RT e) and e = [1, 1, . . . , 1]T , the cluster labels of some row
observations may be changed because the relative weight for association with
their row clusters may also be changed. Consequently, whether or not and
how to do normalization usually depend on the data and the specific applica-
tion. For example, in document clustering, typically each document vector is
normalized to have unit L2 norm. Thus, normalizing each column of RB to

© 2010 by Taylor and Francis Group, LLC


18 Co-Clustering

have unit L2 norm is desirable, since RB consists of the basis vectors of the
document space. Assuming that RB is normalized to RBV , the cluster labels
for the documents are given by V −1 C instead of C.

Property 2: With the column-normalized R and the row-normalized C,


each block value in B may be interpreted as the sum of the elements of the
corresponding block.

Let us illustrate the property with an example. Consider a 6 × 6 word-by-


document co-occurrence matrix below:
⎡ ⎤
010665
⎢0 0 0 6 6 6⎥
⎢ ⎥
⎢5 5 5 0 0 0⎥
⎢ ⎥
⎢5 5 5 0 0 0⎥.
⎢ ⎥
⎣4 0 4 3 3 3⎦
344303

Clearly, the matrix may be divided into 3 × 2 = 6 blocks. A nonnegative block


value decomposition is given as follows:
⎡ ⎤ ⎡ ⎤T
0.5 0 0 0.34 0
⎢ 0.5 0 0 ⎥ ⎡ ⎤ ⎢ 0.3 0 ⎥
⎢ ⎥ 1 35 ⎢ ⎥
⎢ 0 0.5 0 ⎥ ⎢ ⎥
⎢ ⎥ × ⎣ 30 0 ⎦ × ⎢ 0.36 0 ⎥ .
⎢ 0 0.5 0 ⎥ ⎢ 0 0.36 ⎥
⎢ ⎥ 19 15 ⎢ ⎥
⎣ 0 0 0.5 ⎦ ⎣ 0 0.3 ⎦
0 0 0.5 0 0.34

In the above decomposition, R is normalized by column and C (for the


format reason, it is shown as its transpose) is normalized by row and the
block value of B is the sum of the elements of the corresponding block. In
this example, B can be intuitively interpreted as the co-occurrence matrix
of the word clusters and the document clusters. In fact, if we interpret the
data matrix as the joint distribution of the words and documents, all the
components have a clear probabilistic interpretation. The column-normalized
R may be considered as the conditional distribution p(word|word cluster),
the row-normalized C may be considered as the conditional distribution
p(document|document cluster), and B may be considered as the joint dis-
tribution of the word clusters and the document clusters.
By property 1, given an NBVD decomposition, we can always define the
column-normalized R, the row-normalized C, and the corresponding B as a
solution to the original problem. We denote B in this situation as Bs .

Property 3: The variation of the mean block value matrix B̄ is a measure


of the quality of co-clustering, where B̄ is defined as dividing each element of

© 2010 by Taylor and Francis Group, LLC


Model Formulation and Analysis 19

Bs by the cardinality of the corresponding block.

Intuitively, each element of B̄ represents the mean of the corresponding


block. Therefore, under the same objective value, the larger the variation of
B̄, the larger the difference among the blocks, the better separation the co-
clustering has.
We propose the simple statistic, the coefficient of variance (CV), to measure
the variation B̄. Typically, CV is used to measure the variation of the sample
from different populations, and thus, it is appropriate to measure the variation
of B̄ with different dimensions. CV is defined as the ratio between the standard
deviation and the mean. Hence, the CV for the mean block value matrix B̄
is, 
2
i,j (Bij − b̄) /(kl − 1)
¯
CV (B̄) = , (2.3)

where b̄ is the mean of B̄ and 1 ≤ i ≤ k, 1 ≤ j ≤ l. To measure the qualities of
the row clusters and the column clusters, respectively, we define average CV
for the rows of B̄, CV (B̄r ), and for the columns of B̄, CV (B̄c ), respectively.

2
i (Bij − b̄j ) /(l − 1)
¯
1
CV (B̄r ) = (2.4)
l j b̄j

1 j (B¯ij − b̄i )2 /(l − 1)
CV (B̄c ) = , (2.5)
k i
b̄i

where b̄i is the mean of the ith row of B̄ and b̄j is the mean of the jth column
of B̄. It is necessary to define these statistics in order to provide certain useful
information (e.g., to find the optimal number of clusters).
Finally, we compare NBVD with Nonnegative Matrix Factorization (NMF)
[36]. Given a nonnegative data matrix V , NMF seeks to find an approximate
factorization V ≈ W H with non-negative components W and H. Essentially,
NMF concentrates on the one-sided, individual clustering and does not take
the advantage of the duality between the row clustering and the column clus-
tering. In fact, NMF may be considered as a special case of NBVD in the
sense that W H = W IH, where I is an identity matrix. By this formulation,
NMF is a special case of NBVD and it does co-clustering with the additional
restrictions that the number of the row clusters equals to that of the col-
umn clusters and that each row cluster is associated with one column cluster.
Clearly, NBVD is more flexible to exploit the hidden block structure of the
original data matrix than NMF.

© 2010 by Taylor and Francis Group, LLC


Chapter 3
Heterogeneous Relational Data
Clustering

In more general cases, heterogeneous relational data consist of more than two
types of data objects. Those multiple-type interrelated data objects formulates
a k-partite heterogeneous relation graph. The research on mining the hidden
structures from a k-partite heterogeneous relation graph is still limited and
preliminary. In this chapter, we propose a general model, the relation summary
network, to find the hidden structures (the local cluster structures and the
global community structures) from a k-partite heterogeneous relation graph.
The model provides a principal framework for unsupervised learning on k-
partite heterogeneous relation graphs of various structures.

3.1 Introduction
Clustering approaches have traditionally focused on the homogeneous data
objects. However, many examples of real-world data involve objects of mul-
tiple types that are related to each other, which naturally form k-partite
heterogeneous relation graphs of heterogeneous types of nodes. For example,
documents, words, and categories in taxonomy mining, as well as Web pages,
search queries, and Web users in a Web search system all form a tripartite
graph; papers, key words, authors, and publication venues in a scientific publi-
cation archive form a quart-partite graph. In such scenarios, using traditional
approaches to cluster each type of objects (nodes) individually may not work
well due to the following reasons.
First, to apply traditional clustering approaches to each type of data ob-
jects individually, the relation information needs to be transformed into fea-
ture vectors for each type of objects. In general, this transformation results
in high-dimensional and sparse feature vectors, since after the transformation
the number of the features for a single type of objects is equal to that of all
the objects which are possibly related to this type of objects. For example, if
we transform the links between Web pages and Web users as well as search
queries into the features for the Web pages, this leads to a huge number of
features with sparse values for each Web page. Second, traditional clustering

21

© 2010 by Taylor and Francis Group, LLC


22 Heterogeneous Relational Data Clustering

approaches are unable to tackle the interactions among the cluster structures
of different types of objects, since they cluster data of a single type based
on static features. Note that the interactions could pass along the relations,
i.e., there exists influence propagation in a k-partite heterogeneous relation
graph. Third, in some data mining applications, users are interested not only
in the local cluster structures for each type of objects, but also in the global
community structures involving multi-types of objects. For example, in doc-
ument clustering, in addition to document clusters and word clusters, the
relationship between the document clusters and the word clusters is also use-
ful information. It is difficult to discover such global structures by clustering
each type of objects individually.
An intuitive attempt to mine the hidden structures from k-partite heteroge-
neous relation graphs is applying the existing graph partitioning approaches
to k-partite heterogeneous relation graphs. This idea may work in some spe-
cial and simple situations. However, in general, it is infeasible. First, the graph
partitioning theory focuses on finding the best cuts of a graph under a certain
criterion and it is very difficult to cut different type of relations (links) simul-
taneously to identify different hidden structures for different types of nodes.
Second, by partitioning an entire k-partite heterogeneous relation graph into
m subgraphs, one actually assumes that all different types of nodes have the
same number of clusters m, which in general is not true. Third, by simply
partitioning the entire graph into disjoint subgraphs, the resulting hidden
structures are rough. For example, the clusters of different types of nodes are
restricted to one-to-one associations.
Therefore, mining hidden structures from k-partite heterogeneous relation
graphs has presented a great challenge to traditional clustering approaches. In
this chapter, first we propose a general model, the relation summary network,
to find the hidden structures (the local cluster structures and the global com-
munity structures) from a k-partite heterogeneous relation graph. The basic
idea is to construct a new k-partite heterogeneous relation graph with hid-
den nodes, which “summarize” the link information in the original k-partite
heterogeneous relation graph and make the hidden structures explicit, to ap-
proximate the original graph. The model provides a principal framework for
unsupervised learning on k-partite heterogeneous relation graphs of various
structures. Second, under this model, based on the matrix representation of
a k-partite heterogeneous relation graph we reformulate the graph approxi-
mation as an optimization problem of matrix approximation and derive an
iterative algorithm to find the hidden structures from a k-partite heteroge-
neous relation graph under a broad range of distortion measures. By itera-
tively updating the cluster structures for each type of nodes, the algorithm
takes advantage of the interactions among the cluster structures of different
types of nodes and performs an implicit adaptive feature reduction for each
type of nodes. Experiments on both synthetic and real data sets demonstrate
the promise and effectiveness of the proposed model and algorithm. Third, we
also establish the connections between existing clustering approaches and the

© 2010 by Taylor and Francis Group, LLC


Related Work 23

proposed model to provide a unified view to the clustering approaches.

3.2 Related Work


Graph partitioning on homogeneous graphs has been studied for decades
and a number of different approaches, such as spectral approaches [28, 47,
113] and multilevel approaches [25, 63, 75], have been proposed. However, the
research on mining cluster structures from k-partite heterogeneous relation
graphs of heterogeneous types of nodes is limited. Several noticeable efforts
include [43, 69] and [56]. [43, 69] extend the spectral partitioning based on the
normalized cut to a bipartite graph. After the deduction, spectral partitioning
on the bi-partite graph is converted to a singular value decomposition (SVD).
[56] partitions a star-structured k-partite heterogeneous relation graph based
on semi-definite programming. In addition to the restriction that they are only
applicable to the special cases of k-partite heterogeneous relation graphs, all
these algorithms have the restriction that the numbers of the clusters for
different types of nodes must be equal and the clusters for different types of
objects must have one-to-one associations.
The research on clustering multi-type interrelated objects is also related
to this study. Clustering on bi-type interrelated data objects, such as word-
document data, is called co-clustering or bi-clustering. Recently, co-clustering
has been addressed based on matrix factorization. Both [88] and [85] model
the co-clustering as an optimization problem involving a triple matrix factor-
ization. [88] proposes an EM-like algorithm based on multiplicative updating
rules and [85] proposes a hard clustering algorithm for binary data. [45] ex-
tends the nonnegative matrix factorization to symmetric matrices and shows
that it is equivalent to the kernel k-means and the Laplacian-based spectral
clustering.
Some efforts on latent variable discovery are also related to co-clustering.
PLSA [66] is a method based on a mixture decomposition derived from a latent
class model. A two-sided clustering model is proposed for collaborative filter-
ing by [67]. Information-theory based co-clustering has also attracted attention
in the literature. [49] extends the information bottleneck (IB) framework [122]
to repeatedly cluster documents and then words. [44] proposes a co-clustering
algorithm to maximize the mutual information between the clustered random
variables subject to the constraints on the number of row and column clusters.
A more generalized co-clustering framework is presented by [11] wherein any
Bregman divergence can be used in the objective function.
Comparing with co-clustering, clustering on the data consisting of more
than two types of data objects has not been well studied in the literature.
Several noticeable efforts are discussed as follows. [137] proposes a framework

© 2010 by Taylor and Francis Group, LLC


24 Heterogeneous Relational Data Clustering

v11 v12 v13 v14 v15 v16 v11 v12 v13 v14 v15 v16

s 11 s12 s13

s 21 s22

v21 v22 v23 v24 v21 v22 v23 v24

(a) (b)

FIGURE 3.1: A bipartite graph (a) and its relation summary network (b).

for clustering heterogeneous web objects, under which a layered structure with
the link information is used to iteratively project and propagate the cluster
results between layers. Similarly, [125] presents an approach named ReCom
to improve the cluster quality of interrelated data objects through an iter-
ative reinforcement clustering process. However, there is no sound objective
function and theoretical proof on the effectiveness of these algorithms. [87] for-
mulates heterogeneous relational data clustering as a collective factorization
on related matrices and derives a spectral algorithm to cluster multi-type in-
terrelated data objects simultaneously. The algorithm iteratively embeds each
type of data objects into low-dimensional spaces and benefits from the interac-
tions among the hidden structures of different types of data objects. Recently,
a general method based on matrix factorization is independently developed
by [115, 116], but had not yet appeared at the time of the write-up
To summarize, unsupervised learning on k-partite heterogeneous relation
graphs has been touched from different perspectives due to its high impact in
various important applications. Yet, systematic research is still limited. This
chapter attempts to derive a theoretically sound general model and algorithm
for unsupervised learning on k-partite heterogeneous relation graphs of various
structures.

3.3 Relation Summary Network Model


In this section, we derive a general model based on graph approximation to
mine the hidden structures from a k-partite heterogeneous relation graph.
Let us start with an illustrative example. Figure 3.1a shows a bipartite
graph G = (V1 , V2 , E) where V1 = {v11 , . . . , v16 } and V2 = {v21 , . . . , v24 }
denote two types of nodes and E denotes the edges in G. Even though this
graph is simple, it is nontrivial to discover its hidden structures. In Figure

© 2010 by Taylor and Francis Group, LLC


Relation Summary Network Model 25

3.1b, we redraw the original graph by adding two sets of new nodes (called
hidden nodes), S1 = {s11 , s12 , s13 } and S2 = {s21 , s22 }. Based on the new
graph, the cluster structures for each type of nodes are straightforward; V1 has
three clusters: {v11 , v12 }, {v13 , a14 }, and {v15 , v16 }, and V2 has two clusters,
{v21 , v22 } and {v23 , b24 }. If we look at the subgraph consisting of only the
hidden nodes in Figure 3.1b, we see that it provides a clear skeleton for the
global structure of the whole graph, from which it is clear how the clusters of
different types of nodes are related to each other; for example, cluster s11 is
associated with cluster s21 and cluster s12 is associated with both clusters s21
and s22 . In other words, by introducing the hidden nodes into the original k-
partite heterogeneous relation graph, both the local cluster structures and the
global community structures become explicit. Note that if we apply a graph
partitioning approach to the bipartite graph in Figure 3.1a to find its hidden
structures, no matter how we cut the edges, it is impossible to identify all the
cluster structures correctly.
Based on the above observations, we propose a model, the relation summary
network (RSN), to mine the hidden structures from a k-partite heterogeneous
relation graph. The key idea of RSN is to add a small number of hidden
nodes to the original k-partite heterogeneous relation graph to make the hid-
den structures of the graph explicit. However, given a k-partite heterogeneous
relation graph, we are not interested in an arbitrary relation summary net-
work. To ensure a relation summary network to discover the desirable hidden
structures of the original graph, we must make RSN as “close” as possible to
the original graph. In other words, we aim at an optimal relation summary
network, from which we can reconstruct the original graph as precisely as
possible. Formally, we define an RSN as follows.

DEFINITION 3.1 Given a distance function D, a k-partite heterogeneous


relation graph G = (V1 , . . . , Vm , E), and m positive integers, k1 , . . . , km , the
relation summary network of G is a k-partite heterogeneous relation graph
Gs = (V1 , . . . , Vm , S1 , . . . , Sm , E s ), which satisfies the following conditions:
1. Each instance node in Vi is adjacent to one and only one hidden node
from Si for 1 ≤ i ≤ m with unit weight;
2. Si ∼ Sj in Gs if and only if Vi ∼ Vj in G for i = j and 1 ≤ i, j ≤ m;
3. Gs = arg minF D(G, F ),
where Si denotes a set of hidden nodes for Vi and |Si | = ki for 1 ≤
i ≤ m; Si ∼ Sj denotes that there exist edges between Si and Sj , and
similarly Vi ∼ Vj ; F denotes any k-partite heterogeneous relation graph
(V1 , . . . , Vm , S1 , . . . , Sm , E f ) satisfying Conditions 1 and 2.

In Definition 3.1, the first condition implies that in an RSN, the instance
nodes (the nodes in Vi ) are related to each other only through the hidden

© 2010 by Taylor and Francis Group, LLC


26 Heterogeneous Relational Data Clustering

v31 v32 v33 v34

v31 v32 v33 v34 s 31 s32

v11 v v v14 v15 v16


v11 v12 v13 v14 v15 v16 s11 12 13
s12 s 13

s21 s22
v21 v22 v23 v24
v21 v22 v23 v24

(a) (b)

FIGURE 3.2: A tripartite graph (a) and its RSN (b)

nodes. Hence, a small number of hidden nodes actually summarize the complex
relations (edges) in the original graph to make the hidden structures explicit.
Since in this study, our focus is to find disjoint clusters for each type of nodes,
the first condition restricts one instance node to be adjacent to only one hidden
node with unit weight; however, it is easy to modify this restriction to extend
the model to other cases of unsupervised learning on k-partite heterogeneous
relation graphs. The second condition implies that if two types of instance
nodes Vi and Vj are (or are not) related to each other in the original graph,
then the corresponding two types of hidden nodes Si and Sj in the RSN are
(or are not) related to each other. For example, Figure 3.2 shows a tripartite
graph and its RSN. In the original graph Figure 3.2a, V1 ∼ V2 and V1 ∼ V3 ,
and hence S1 ∼ S2 and S1 ∼ S3 in its RSN. The third condition states that
the RSN is an optimal approximation to the original graph under a certain
distortion measure.
Next, we need to define the distance between a k-partite heterogeneous
relation graph G and its RSN Gs . Without loss of generality, if Vi ∼ Vj
in G, we assume that edges between Vi and Vj are complete (if there is no
edge between vih and vjl , we can assume an edge with weight of zero or
other special value). Similarly for Si ∼ Sj in Gs . Let e(vih , vjl ) denote the
weight of the edge (vih , vjl ) in G. Similarly let es (sip , sjq ) be the weight of
the edge (sip , sjq ) in Gs . In the RSN, a pair of instance nodes vih and vjl are
connected through a unique path (vih , sip , sjq , vjl ), in which es (vih , sip ) = 1
and es (sjq , vjl ) = 1 according to Definition 3.1. The edge between two hidden
nodes (sip , sjq ) can be considered as the “summary relation” between two sets
of instance nodes, i.e., the instance nodes connecting with sip and the instance
nodes connecting with sjq . Hence, how good Gs approximates G depends on
how good es (sip , sjq ) approximates e(vih , vjl ) for vih and vjl which satisfy
es (vih , sip ) = 1 and es (sjq , vjl ) = 1, respectively. Therefore, we define the
distance between a k-partite heterogeneous relation graph G and its RSN Gs

© 2010 by Taylor and Francis Group, LLC


Relation Summary Network Model 27

as follows:

D(G, Gs ) = D(e(vih , vjl ), es (sip , sjq )), (3.1)


i,j Vi ∼Vj ,
vih ∈Vi ,vjl ∈Vj ,
s
e (vih ,sip )=1,
es (sjq ,vjl )=1.

where 1 ≤ i, j ≤ m, 1 ≤ h ≤ |Vi |, 1 ≤ l ≤ |Vj |, 1 ≤ p ≤ |Si |, and 1 ≤ q ≤ |Sj |.


Let us have an illustrative example. Assume that the edges of the k-partite
heterogeneous relation graph in Figure 3.1a have unit weights. If there is no
edge between vih and vjl , we let e(vih , vjl ) = 0. Similarly for its RSN in
Figure 3.1b. Assume that D is the Euclidean distance function. Hence, based
on Equation (3.1), D(G, Gs ) = 0, i.e., from the RSN in Figure 3.1b, we can
reconstruct the original graph in Figure 3.1a without any error. For example,
the path (v13 , s12 , s21 , v22 ) in the RSN implies that there is an edge between
v13 and v22 in the original graph such that e(v13 , v22 ) = es (s12 , s21 ). Following
this procedure, the original graph can be reconstructed completely.
Note that different definitions of the distances between two graphs lead to
different algorithms. In this study, we focus on the definition given in Equa-
tion (3.1). One of the advantages of this definition is that it leads to a nice
matrix representation for the distance between two graphs, which facilitates
to derive the algorithm.
Definition 3.1 and Equation (3.1) provide a general model, the RSN model,
to mine the cluster structures for each type of nodes in a k-partite heteroge-
neous relation graph and the global structures for the whole graph. Compared
with the traditional clustering approaches, the RSN model is capable of mak-
ing use of the interactions (direct or indirect) among the hidden structures
of different types of nodes, and through the hidden nodes performing implicit
and adaptive feature reduction to overcome the typical high dimensionality
and sparsity. Figure 3.3 shows an illustrative example of how the cluster struc-
tures of two types of instance nodes affect the similarity between two instance
nodes of another type. Suppose that we are to cluster nodes in V1 (only two
nodes in V1 are shown in Figure 3.3a). Traditional clustering approaches deter-
mine the similarity between v11 and v12 based on their link features, [1, 0, 1, 0]
and [0, 1, 0, 1], respectively, and hence, their similarity is inappropriately con-
sidered as zero (lowest level). This is a typical situation in a large graph with
sparse links. Now suppose that we have derived hidden nodes for V2 and V3 as
in Figure 3.3b; through the hidden nodes the cluster structures of V2 change
the similarity between v11 and v12 to 1 (highest level), since the reduced link
features for both v11 and v12 are [1, 1], which is a more reasonable result,
since in a sparse k-partite heterogeneous relation graph we expect that two
nodes are similar when they are connected to similar nodes even though they
are not connected to the same nodes. If we continue this example, next, v11
and v12 are connected with the same hidden nodes in S1 (not shown in the
figure); then after the hidden nodes for V1 are derived, the cluster structures

© 2010 by Taylor and Francis Group, LLC


28 Heterogeneous Relational Data Clustering

v31 v32 v33 v34 v35 v36


v31 v32 v33 v34 v35 v36
s31 s31
v21 v22 v23 v24 v21 s v22 v23 s v24
21 22

v11 v12
v11 v12

(a) (b)

FIGURE 3.3: The cluster structures of V2 and V3 affect the similarity between
v11 and v12 through the hidden nodes.

of V2 and V3 may be affected in return. In fact, this is the idea of the iterative
algorithm to construct an RSN for a k-partite heterogeneous relation graph,
which we discuss in the next section.

© 2010 by Taylor and Francis Group, LLC


Chapter 4
Homogeneous Relational Data
Clustering

Homogeneous relational data consist of only one type of data objects. In the
literature, a special case of homogeneous relational data clustering has been
studied as the graph partitioning problem. However, the research on the gen-
eral case is still limited. In this chapter, we propose a general model based
on the graph approximation to learn relation-pattern-based cluster structures
from a graph. The model generalizes the traditional graph partitioning ap-
proaches and is applicable to learning the various cluster structures.

4.1 Introduction
Learning clusters from homogeneous relational graphs is an important prob-
lem in these applications, such as Web mining, social network analysis, bioin-
formatics, VLSI design, and task scheduling. In many applications, users are
interested in strongly intra-connected clusters in which the nodes are intra-
cluster close and intercluster loose. Learning this type of the clusters corre-
sponds to finding strongly connected subgraphs from a graph, which has been
studied for decades as a graph partitioning problem [28, 77, 113].
In addition to the strongly intra-connected clusters, other types of the clus-
ters also attract an intensive attention in many important applications. For
example, in Web mining, we are also interested in the clusters of Web pages
that sparsely link to each other but all densely link to the same Web pages [80],
such as a cluster of music “fans” Web pages which share the same taste on
music and are densely linked to the same set of music Web pages but sparsely
linked to each other. Learning this type of the clusters corresponds to finding
dense bipartite subgraphs from a graph, which has been listed as one of the
five algorithmic challenges in Web search engines [64].
The strongly intra-connected clusters and weakly intra-connected clusters
are two basic cluster structures, and various types of clusters can be generated
based on them. For example, a Web cluster could take on different structures
during its development, i.e., in its early stage, it has the form of bipartite
graph, since in this stage the members of the cluster share the same interests

29

© 2010 by Taylor and Francis Group, LLC


30 Homogeneous Relational Data Clustering

2 3
5 6 1 2 5 6
1 4 3 4 7 8
7 8
9 10 11 12
9 10 1314
13 14 15 16 1112 1516

(a) (b)

FIGURE 4.1: A graph with mixed cluster structures (a) and its cluster pro-
totype graph (b).

(linked to the same Web pages) but have not known (linked to) each other;
in the later stage, with members of the cluster start linking to each other, the
cluster becomes a hybrid of the aforementioned two basic cluster structures;
in the final stage it develops into a larger strongly intra-connected cluster.
These various types of clusters can be unified into a general concept,
relation-pattern-based cluster. A relation-pattern-based cluster is a group of
nodes which have the similar relation patterns, i.e., the nodes within a cluster
relate to other nodes in similar ways. Let us have an illustrative example. Fig-
ure 4.1a shows a graph of mixed types of clusters. There are four clusters in
Figure 4.1a: C1 = {v1 , v2 , v3 , v4 }, C2 = {v5 , v6 , v7 , v8 }, C3 = {v9 , v10 , v11 , v12 },
and C4 = {v13 , v14 , v15 , v16 }. Within the strongly intra-connected cluster C1 ,
the nodes have the similar relation patterns, i.e., they all strongly link to the
nodes in C1 (their own cluster) and C3 , and weakly link to the nodes in C2
and C4 ; within the weakly intra-connected cluster C3 , the nodes also have the
similar relation patterns, i.e., they all weakly link to the nodes in C3 (their
own cluster), and C2 , strongly link to the nodes in C1 and C4 ; Similarly for
the nodes in cluster C3 and the nodes in cluster C4 . Note that graph partition-
ing approaches cannot correctly identify the cluster structure of the graph in
Figure 4.1a, since they seek only strongly intra-connected clusters by cutting
a graph into disjoint subgraphs to minimize edge cuts.
In addition to unsupervised cluster learning applications, the concept of
the relation-pattern-based cluster also provides a simple approach for semi-
supervised learning on graphs. In many applications, graphs are very sparse
and there may exist a large number of isolated or nearly isolated nodes which
do not have cluster patterns. However, according to extra supervised infor-
mation (domain knowledge), these nodes may belong to certain clusters. To
incorporate the supervised information, a common approach is to manually
label these nodes. However, for a large graph, manually labeling is labor-
intensive and expensive. Furthermore, to make use of these labels, instead of
supervised learning algorithms, different semi-supervised learning algorithms

© 2010 by Taylor and Francis Group, LLC


Introduction 31

need to be designed. The concept of the relation-pattern-based cluster pro-


vides a simple way to incorporate supervised information by adding virtual
nodes to graphs. The idea is that if the nodes belong to the same cluster
according to the supervised information, they are linked to the same virtual
nodes. Then an algorithm which is able to learn general relation-pattern-based
clusters can be directly applied to the graphs with virtual nodes to make use
of the supervised information to learn cluster patterns.
For example, to find the hidden classes from a collection of the documents, a
common approach is to represent the collection as a graph in which each node
denotes a document and each edge weight denotes the similarity between two
documents [43, 69]. Usually, the similarities are calculated based on the term-
frequency vectors of documents. However, there may exist documents which
share no or very few words with each other but still belong to the same cluster
according to extra domain information. Let us have an illustrative example. In
Figure 4.2, the dark color nodes (documents) do not share any words and are
not linked to each other. However, they all belong to the “vehicle” cluster. By
adding virtual nodes (documents) (light color nodes in Figure 4.2) which are
concept documents consisting of popular words for the “vehicle” cluster, the
originally isolated document nodes are linked to the virtual document nodes
and the supervised information is embedded into the relation patterns.
Therefore, various applications involving unsupervised as well as semi-
supervised cluster learning have presented a great need to relation-pattern-
based cluster learning algorithms. In this chapter, we propose a general model
based on graph approximation to learn the relation-pattern-based cluster
structures from a graph. By unifying the traditional edge cut objectives, the
model provides a new view to understand the graph partitioning approaches
and at the same time it is applicable to learning various cluster structures.
Under this model, we derive three novel algorithms to learn the general clus-
ter structures from a graph, which cover three main versions of unsupervised
learning algorithms: hard, soft, and balanced versions, to provide a complete
family of cluster learning algorithms. This family of algorithms has the fol-
lowing advantages: they are flexible to learn various types of clusters; when

Car, Auto, SUV,


camry, taurus, ……. hummer,
accord, focus, landrover
….. ….. …..

Auto, Car, truck


suv, van, suv
camry,.. hummer,..
focus, ….. focus, …..

FIGURE 4.2: A graph with virtual nodes.

© 2010 by Taylor and Francis Group, LLC


32 Homogeneous Relational Data Clustering

applied to learning strongly intra-connected clusters, this family evolves to


a new family of effective graph partition algorithms; it is easy for the pro-
posed algorithms to incorporate the prior knowledge of the cluster structure
into the algorithms. Experimental evaluation and theoretical analysis show
the effectiveness and great potential of the proposed model and algorithms.

4.2 Related Work


Graph partitioning divides the nodes of a graph into clusters by finding
the best edge cuts of the graph. Several edge cut objectives, such as the
average cut [28], average association [113], normalized cut [113], and min-max
cut [47], have been proposed. Various spectral algorithms have been developed
for these objective functions [28,47,113]. These algorithms use the eigenvectors
of a graph affinity matrix, or a matrix derived from the affinity matrix, to
partition the graph. Since eigenvectors computed do not correspond directly
to individual partitions, a postprocessing approach [136], such as k-means,
must be applied to find the final partitions.
Multilevel methods have been used extensively for graph partitioning with
the Kernighan-Lin objective, which attempt to minimize the cut in the graph
while maintaining equal-sized clusters [25,63,75]. In multilevel algorithms, the
graph is repeatedly coarsened level by level until only a small number of nodes
are left. Then, an initial partitioning on this small graph is performed. Finally,
the graph is uncoarsened level by level, and, at each level, the partitioning
from the previous level is refined using a refinement algorithm.
Recently, graph partitioning with an edge cut objective has been shown to
be mathematically equivalent to an appropriately weighted kernel k-means
objective function [40, 41]. Based on this equivalence, the weighted kernel k-
means algorithm has been proposed for graph partitioning [40–42].
Learning clusters from a graph has also been intensively studied in the
context of social network analysis [109]. Hierarchical clustering [109, 128] has
been proposed to learn clusters. Recent algorithms [32, 60, 94] address several
problems related to the prior knowledge of cluster size, the precise definition
of inter-nodes similarity measure, and improved computational efficiency [95].
However, their main focus is still learning strongly intra-connected clusters.
Some efforts [4, 55, 65, 65, 118] can be considered as cluster learning based on
stochastic block modeling.
There are efforts in the literature focusing on finding clusters based on
dense bipartite graphs [80, 104]. The trawling algorithm [80] extracts clus-
ters (which are called emerging clusters in [80] as the counterpart concept of
strongly intra-connected cluster) by first applying the Apriori algorithm to
find all possible cores (complete bipartite graphs) and then expanding each

© 2010 by Taylor and Francis Group, LLC


Community Learning by Graph Approximation 33

core to a full-fledged cluster with the HITS algorithm [79]. [104] proposes a
different approach to extract the emerging clusters by finding all bipartite
graphs instead of finding cores.
In this chapter, we focus on how to divide the nodes of a homogeneous
relational graph into disjoint clusters based on relation patterns.

4.3 Community Learning by Graph Approximation


In this section, we propose a general model to learn relation-pattern-based
clusters from a homogeneous relational graph (for convenience, in the rest of
the chapter we simply use graph to refer to homogeneous relational graph).
To derive our model to learn latent cluster structure from a graph, we
start from the following simpler problem: if the relation-pattern-based cluster
structure of any graph is known, can we draw a simple graph with the explicit
latent cluster structure (latent relation patterns) to represent the original
graph? We present the concept of a cluster prototype graph as an answer. A
cluster prototype graph consists of a set of the cluster nodes and a set of
links, including self-links for individual cluster nodes and inter-links for pairs
of cluster nodes.
For example, Figure 4.1b shows a cluster prototype graph for the graph
in Figure 4.1a. Note that for convenience, in all the examples, we use 0-1
graphs where the edge weight 0 denotes the absence of an edge between two
nodes and the edges with weight 0 are not shown in the graphs. However, all
the discussions are applicable to a general weighted graph. In Figure 4.1(b),
the top-left cluster node is associated with the nodes of C1 = {v1 , v2 , v3 , v4 }
from the original graph; the self-link of the top-left cluster node implies that
all its associated nodes are linked to each other; the inter-link between the
top-left cluster node and the bottom-left cluster node implies that the nodes
of C1 = {v1 , v2 , v3 , v4 } are linked to those of C3 = {v9 , v10 , v11 , v12 }. Hence,
the cluster prototype graph in Figure 4.1b provides a clear view of the cluster
structure and the relation patterns for the original graph in Figure 4.1a. Given
the cluster structures of any graph, we can always draw its cluster prototype
graph.
Therefore, learning the hidden cluster structures from a graph can be for-
mulated as finding its optimal cluster prototype graph which is the “closest”
to the original graph, i.e., based on this cluster prototype graph, the origi-
nal graph can be constructed most precisely. By representing a graph as an
affinity matrix, this problem can be formally formulated as an optimization
problem of matrix approximation,

arg min

||A − A∗ ||2 , (4.1)
A

© 2010 by Taylor and Francis Group, LLC


Random documents with unrelated
content Scribd suggests to you:
sua natura drammatica, che riuscirono a trionfare, malgrado
l'irregolarità quasi grottesca della sua persona. La sua faccia è una
vera maschera d'istrione antico: un faccione largo e grasso, d'una
carnagione giallognola da mercante olandese, in cui brillano due
occhietti bigi di faina, un po' maligni, sopra un grosso naso che
guarda in su con una petulanza senza esempio, in modo che le nari
si presentano come le aperture di due canne d'un fucile da caccia;
una gran bocca, con le labbra grossissime, tagliate in forma di
trapezio, che par che succhino continuamente un enorme bocchino
di pipa turca; un mento lungo e sporgente, e due mascelle leonine,
che si dilatano, quando parla, con un movimento inquietante.
Mettete questa faccia di mascherone di fontana, tutta sbarbata, con
una papalina nera sul cocuzzolo, sopra un corpo bassetto e tarchiato,
vestito d'un farsetto nero stretto alla vita, coi calzoni neri e con le
pantofole nere, e immaginate il misto bizzarro che ne deve riuscire,
di curato di campagna in négligé, di cuoco in lutto, di forzaiuolo e di
Stenterello. Si rimane sbalorditi a pensare che quell'omiciattolo ci ha
fatto piangere, fremere e tremare, e s'è presi dalla tentazione di
dirgli che non è quella la maniera di corbellare il mondo. Ma è un di
quei brutti che seducono, forse perchè la loro bruttezza, come suol
dirsi, non è che una bellezza sbagliata: come accade di certe
metaforaccie di pessimo gusto, sotto cui appare il barlume d'una
grand'idea. Questo è vero specialmente quando ride: non si può
immaginare un riso più vivo, più comico, più attaccaticcio del suo; —
e non è la risata dell'allegria — ma una specie di riso filosofico e
profondo, che nasce da un sentimento particolare della vita, e che fa
pullulare mille idee lepide nella mente, e indovinare mille scherzi che
non dice, e pensare confusamente a mille cose e persone amene,
che abbiamo conosciute in altri tempi; un riso che rallegra dentro, e
che mette voglia di darsi una fregatina di mani, o di allungargli une
tape sulla pancia. Tutta la faccia gli ride, fino alle orecchie; la bocca
gli s'arrotonda in un modo curiosissimo, che fa saltare il capriccio di
ficcarvi un dito dentro, come dice lo Zola del Boche, pour voir; e la
punta del naso gli fa un piccolo movimento accelerato, come la
punta d'un dito che gratti qualche cosa di sotto in su, d'un effetto
comicissimo; mentre gli scintilla negli occhi un'astuzia di demonio. I
critici cortesi dicono che ha une physionomie comique parfaite, une
face largement comique, comiquement spirituelle, e altre cose simili;
ed è vero; ma non è tutto. È una figura talmente originale ed
esilarante, a vederlo da vicino, che per molto tempo si rimane
tutt'intenti a guardarlo, e non si bada alle sue parole. Ed egli non
s'illude sopra sè stesso; parla anzi sovente della propria persona,
celiando, come se canzonasse un altro, e non vuol sentir parlare
delle parti che richiedono bellezza d'aspetto. Per questa ragione
rifiutò, non è molto, di far la parte di Pigmalione nella Galatea della
signora Adam. — Come volete — le disse — che io ardisca
presentarmi al pubblico in nome di Pigmalione, che dev'essere un
bell'uomo? Voyons donc, madame: est-ce que j'ai le nez grec, moi?
— Il naso, infatti, è stato l'ostacolo più difficile da superare, nella sua
carriera drammatica. Quando qualche parte non gli riesce, ha
sempre la sua giustificazione pronta: — è il naso. — Ma anche in
casa sua, dopo un quarto d'ora che gli si parla, segue come al
teatro: si vede un altro Coquelin; tanto la sua conversazione è
arguta e attraente, rimanendo sempre naturalissima, come la sua
maniera di recitare. È divertentissimo vederlo lassù nella sua piccola
stanza di studio, triangolare, che sembra un camerino di teatro — al
quarto piano — tutta piena di libri, fra cui brillano in prima fila i poeti
drammatici e lirici di tutti i paesi; e cogliere a volo nelle sue parole e
nelle sue mosse gli accenti e i gesti di Mascarille, di Gringoire, di
Figaro e del piccolo gobbo del Luthier de Crémone, che fecero
risuonare d'applausi il tempio del Corneille e del Molière. Il Molière,
appunto, di cui ha tutto il teatro nel capo, è uno dei suoi argomenti
preferiti; e riparla spesso delle conferenze pubbliche che tenne poco
tempo fa; colle quali si propose di dimostrare che l'Alceste del
Misantropo non è come quasi tutti i critici e quasi tutti gli attori
l'interpretano, un personaggio cupo e profondo, una specie d'Amleto
francese, da rendersi con un colore di stranezza fantastica; ma un
personaggio apertamente comico, come gli altri del Molière, e
designato come tale dal poeta medesimo in una maniera che non
può lasciar dubbio. Egli svolse il suo concetto senza pompa di
dottrina, con molto buon senso, con grande chiarezza, per mezzo di
confronti e di citazioni bene ordinate e lucidamente commentate; ma
lasciò letterati e commedianti nel loro parere contrario. Si lamentò in
particolar modo dei letterati, così tra il serio e il faceto, facendo
tremolare la punta del naso. — Avete torto, mi dicono insomma,
perchè siete un commediante. C'est ça qui m'embête. Mi dicano che
ho torto perchè sono un grullo, francamente, e mi ci rassegno più
volentieri. Gli è appunto perchè sono un commediante che voglio dir
la mia ragione. Mi pare che serva a qualche cosa, per giudicare un
personaggio di una commedia, essere abituato da venti anni a
mettersi nella pelle degli altri, e a cercare la ragione intima d'ogni
loro atto e d'ogni loro parola. Se questi speculatori letterari del teatro
non fossero un po' trattenuti dal senso pratico di chi ha da incarnare
i personaggi che essi scrutano e sviscerano continuamente,
finirebbero, a furia di fare, con trasformarli in creature dell'altro
mondo, che nessuno potrebbe più riprodurre sulla scena. — E non si
fermerebbe più, quando ha preso a discorrere del Molière, se non
esistesse un altro personaggio, per il quale nutre altrettanto
entusiasmo: il Gambetta, in grazia di cui egli s'appassiona anche un
poco alla politica, e si tira addosso le canzonature del Figaro. Il
Gambetta è suo amico intimo, desina con lui tutte le domeniche, e lo
conduce a far delle lunghe passeggiate solitarie, durante le quali, chi
lo sa? forse si fa dar delle lezioni di recitazione, o si insegnano a
vicenda ad aprire e a scrutare gli animi umani, l'uno per giovarsene
sul teatro, l'altro nella politica; poichè, in diverso campo, essi sono i
due più grandi attori della Francia: il Gambetta più potente, ma il
Coquelin assai più sicuro di non essere fischiato. Egli parlò del suo
illustre amico con calda ammirazione, senza licenze familiari,
ripetendo dei brani del suo ultimo discorso, e esclamando di tratto in
tratto: — Sentite la bellezza di questa frase; sentite la giustezza di
questo pensiero; — come avrebbe fatto per una parlata del Racine.
E a proposito del Gambetta, lesse una lunga colonna del Voltaire, in
risposta all'Intransigeant, con una rapidità prodigiosa, e con una
nettezza di pronuncia ancor più ammirabile, facendo vibrare certe
parole, e schizzar fuori certe frasi, con cambiamenti improvvisi
d'intonazione, e ammicchi d'un occhio, e guizzi comicissimi delle
labbra, in una maniera da far proprio rimpiangere di non potergli
dare il posto di lettore, in casa propria, con centomila lire all'anno;
che per un letterato sarebbero impiegate al cinquanta per cento. Ed
è pure notevolissimo il suo linguaggio, scolpito e colorito, con certe
screziature di lingua popolare, ricco d'una quantità di termini insoliti
e di modi del gergo teatrale, svariatissimo come è in tutte le persone
dotate di un forte senso comico, che hanno bisogno di raccontare, di
descrivere e d'imitare. L'impressione che egli lascia, in conclusione, è
d'un uomo di buona indole e di buon cuore, come io credo che siano
necessariamente tutti gli artisti drammatici atti a interpretare con
eguale maestria i caratteri buoni e malvagi; perchè, per riuscire
grandi negli uni e negli altri, bisogna che nella loro natura predomini
il buono, senza del quale possono abbagliare con l'ingegno, ma non
soggiogare con la simpatia. Il Coquelin, però, ha l'aria d'un uomo
buono; non d'un bonaccione. Sotto la sua bonarietà canzonatoria
s'indovina un animo risoluto e vigoroso, col quale non dev'essere
molto comodo l'aver che fare i giorni che ha la luna rovescia; e
specialmente quando salta su a inveire contro i capricci prepotenti di
certi autori drammatici, piglia una certa guardatura bieca e fa
stridere la voce in un certo modo, che non par strano affatto, in quel
momento, che abbia saputo incarnare meravigliosamente l'anima
dannata del duca di Septmonts.

*
* *
La parte di duca di Septmonts nell'Ètrangère del Dumas, credono
tutti, — e anche lui — che sia ciò che egli fece — per dirla con le sue
parole — de plus fin et de plus incisif, nel teatro moderno, dal primo
giorno che recitò fino al giorno che corre. Per comprendere le
difficoltà con cui ha dovuto combattere, basta rappresentarsi la sua
figura «largamente comica» e ricordare che il duca di Septmonts è la
quintessenza di un gentiluomo del gran mondo — spregievole e
odioso quanto si vuole — ma tanto più dignitoso e corretto di fuori
quanto è più fradicio dentro. Per alto che fosse il concetto che
s'aveva della pieghevolezza d'ingegno del Coquelin, si temeva che in
quella parte cadesse. Bastò invece la sua apparizione sul palco
scenico a provocare uno scoppio d'applausi e un'esclamazione
universale di meraviglia. Costanzo Coquelin, l'incomparabile Figaro,
l'insuperabile gobbetto del Luthier de Crémone, pareva il primo
gentiluomo della cristianità. Pallido, della pallidezza malaticcia d'un
nobile sciupato dagli stravizi, biondo, un po' calvo, con due folti baffi
impertinentemente arricciati, con una lente all'occhio, vestito con
rigorosa eleganza, disinvolto e duro ad un tempo, e superbamente
signorile in tutti i suoi movimenti, anche nel più forte della passione,
egli era l'ideale vivente dell'autore della commedia. E ad ogni nuova
scena si rivelò con maggior efficacia. Dalla sua aria tediata, dal suo
modo di parlare strascicato, come se ogni parola fosse un atto di
degnazione, dalla sua fredda cortesia, dal suo sguardo ironico e
sorridente, da tutti i suoi gesti e da tutti i suoi accenti
artificiosamente trascurati, traspariva l'insolenza sfrontata d'un
aristocratico cresciuto all'orgoglio e al disprezzo, il cinismo d'un
viveur intristito nel vizio, capace di tutte le bassezze, l'audacia
meditata e malvagia dello spadaccino sicuro d'uccidere, — la sua
educazione, il suo passato, tutto quello che sarebbe stato capace di
fare, e mille cose che pensava, e che non diceva; ma che facevano
pensare. Egli corresse anzi leggermente, con molta arte, il carattere
immaginato dal Dumas, che poteva riuscir troppo ributtante; e lo
corresse — come prescriveva il celebre attore tedesco, l'Iffland, —
facendo il difensore ufficioso del personaggio che rappresentava:
lasciando cioè indovinare in che maniera fosse diventato quello che
era, per quale via, non per colpa tutta sua, si fosse così depravato,
— guasto prima da un'educazione falsa e poi dall'esempio della
società incancrenita in cui era vissuto, — e in tal modo, senza
riuscire simpatico, si mantenne dentro a quei limiti dell'odioso, oltre
ai quali un personaggio teatrale non è più tollerabile e nuoce agli
intendimenti del poeta. Ma fu terribile. Nella scena del quart'atto, per
esempio, quando vuole umiliare il signor Gérard, ricordandogli che
sua madre era stata governante della duchessa, trovò l'accento d'un
sarcasmo così sanguinoso e stillò le parole insolenti nell'animo del
povero giovane, come goccie di piombo fuso, con una lentezza così
spietata, che tutti gli spettatori se le sentirono penetrare nel cuore
ad una ad una, e fremettero per quello a cui eran dirette. E fece
rabbrividire l'impassibilità marmorea con la quale ricevette in viso
quella tremenda invettiva della duchessa, di cui ogni parola è uno
schiaffo, fino a quel fulmineo: — Misèrable! — che finalmente gli
solleva il sangue; e la rabbia pazza e feroce con cui le si slancia
addosso all'ultime parole, e lo sforzo improvviso con cui si frena. Mai
era stata rappresentata la superbia, l'insolenza e la rabbia, con più
satanica potenza, sulle scene della Commedia francese. Il suo
successo fu enorme. Egli empì il dramma della sua persona, e vi
spiegò tanta forza, che se gli altri atleti fossero caduti, sarebbe
bastato per tutti egli solo.

*
* *
Ma per quanto si dica, egli non è mai tanto potente come quando
nuota nella comicità larga del Molière, fra le grosse celie e le grosse
risa, vestito dei panni di Scapin e di Mascarille. Quella comicità dal
naso corto e dalle grosse labbra, come disse Alfonso Daudet, par
fatta per la sua faccia, per la sua voce e per la sua indole. Lì sfolgora
ed impera davvero, e fa tremare le vôlte del teatro. Nessun
Mascarille, nelle Précieuses ridicules, ha mai detto con più petulante
disinvoltura le sue spropositate goffaggini; nessuno ha mai mostrato
sul palco scenico una più maledetta grinta, una più impertinente
sfacciataggine di lacchè astuto e ridacchione, docile ai pugni e alle
legnate, e pronto a tutte le pagliacciate e a tutte le bricconerie.
Nessuno Scapin è stato mai più magistralmente bugiardo, ipocrita,
truffatore e buffone. Il Coquelin domina la scena, in queste farse
epiche, coll'imperturbabilità sovrana che dà la coscienza del genio.
Ha una mobilità di fisonomia, un'elasticità di voce, una pieghevolezza
di membra, una sicurezza, un'audacia che nessuna parola può
rendere. Nelle Précieuses ridicules suscita una tempesta di risate con
ogni parola, quando contraffà il gentiluomo letterato e lezioso, e
declama quella stramberia di madrigale che finisce col grido: Al
ladro! — Nelle Fourberies de Scapin snocciola quelle lunghe parlate
per indurre Argante a sborsare i seicento scudi, con una rapidità d'un
effetto comico meraviglioso. Non son più periodi; sono eruzioni,
cascate precipitose di parole, che schizzano e tintinnano come sacchi
di monete rovesciati, fra le esclamazioni di stupore della platea. Nei
Fâcheux, facendo la parte del cacciatore appassionato, dice quei
cento e quattro versi filati della descrizione della caccia, d'un fiato
solo, come se li improvvisasse, con una tale potenza imitativa della
voce e del gesto, che per un quarto d'ora par di veder fuggire i cervi
per la foresta, e il teatro risuona dello scalpitìo dei cavalli, del latrato
dei cani, dello squillo dei corni, delle grida dei cacciatori, come se vi
agisse un'intera Compagnia equestre. Ed è infaticabile. Dopo aver
fatto Mascarille nell'Etourdi, che è una delle parti più lunghe e più
difficili del vecchio repertorio drammatico, è fresco e disposto come
prima di cominciare. Ed è superfluo far notare la difficoltà
grandissima che presentano queste parti comiche del Molière, in cui
se l'attore non è tanto forte da tener continuamente viva l'ilarità e
l'ammirazione, subito risalta la trivialità, l'esagerazione, il grottesco
del personaggio e della scena, e non basta la riverenza che ispira il
grande poeta a trattener il pubblico dal dar segno di noia o
d'impazienza: il che suole accadere nei teatri di provincia, dove le
commedie del Molière sono quasi irrappresentabili. Ma il Coquelin
par nato fatto per interpretare il Molière; e piuttosto che un
Sociétaire della commedia francese, si direbbe che è un attore
superstite della famosa troupe de Monsieur, ancor tutto fresco, dopo
due secoli, delle lezioni del suo capo-comico immortale. E in questo
gli giova immensamente la faccia. È impossibile resistere alla forza
comica dello sguardo, del riso e della smorfia di questo grandioso
farceur; bisogna ridere con lui, in qualunque stato d'animo ci si trovi;
e si ride di quel riso a singhiozzi, convulsivo e clamoroso, che ci
riprende ancora dopo il teatro, e ci accompagna a casa, e ci torna ad
assalire la mattina dopo, e ci rimane come un grato ricordo per
sempre.

*
* *
Certamente, egli deve la sua gloria artistica più ai doni della natura
che allo studio. Histrio nascitur. Ed anco non ammettendo questa
verità, bisognerebbe fare un'eccezione per coloro che sono grandi
attori a ventitrè anni. Nondimeno egli studiò e faticò moltissimo. Non
s'è fatto una voce, come si dice del celebre attore Duprez; ma lavorò
la sua infaticabilmente, con esercitazioni assidue e metodiche; e non
son molti anni, infatti, ch'egli ha quell'elasticità mirabile degli organi
vocali, che si presta così docilmente alla varietà e alla mobilità
prodigiosa delle sue sensazioni. Così la sua pronunzia nitidissima,
che fa d'ogni sillaba una nota cristallina, è principalmente frutto d'un
fortemente volli, come il vigore del verso alfieriano. È una cosa che
accende nel sangue la passione dello studio, il sentirgli dire, per
esempio, con che amore e con che cura si è rimesso a studiare la
sua parte d'Annibal, dopo che l'Augier rimpastò l'Avventuriera; come
l'ha scomposta e ricomposta daccapo, periodo per periodo e frase
per frase; come ha rivoltato per tutti i versi ogni parola per trovarle il
suo accento vero e proprio; come ha ragionato tra sè ogni sorriso e
ogni gesto. Così pure l'udirgli esporre le riflessioni minute e
ingegnose che fece sulla parte di Figaro nel Barbiere di Siviglia, per
cogliere le differenze che dovevano passare fra questo — giovane e
spensierato, — e il Figaro del Mariage, — più avanzato negli anni,
più esperto della vita e cangiato anche per effetto della sua nuova
condizione; — differenze che seppe rendere stupendamente sul
palcoscenico, fin nelle più leggiere sfumature; e le conferenze d'ore
e d'ore avute con gli autori, col manoscritto alla mano, coperto di
richiami e di postille, per trovare insieme il colore particolare da darsi
a una scena, o l'intonazione giusta d'un monologo; e le discussioni
interminabili avute coll'Augier o col Dumas per sostenere il suo modo
d'interpretazione, e salvar la vita al personaggio concepito da lui, e
amato come una creatura fatta con le sue carni e col suo sangue. Di
tutti i personaggi che deve rappresentare, e della società e del
tempo in cui vissero, cerca con una pazienza e con una curiosità
d'archeologo le più minute notizie, nei libri e nelle conversazioni; e
nota tutto e rimesta ogni cosa per mesi e mesi, ragionando di ogni
minimo particolare lungamente, con una diligenza che tocca la
pedanteria. E si prepara con maggior studio e maggiore pacatezza in
quelle scene appunto, in cui dovrà allentar di più la briglia al suo
istinto, perchè vuol essere audace sul sicuro; al qual fine raccoglie
osservazioni e consigli da ogni parte, come uno scrittore naturalista,
e ricorre le critiche che gli son state fatte negli anni addietro; ma per
quanto faccia, non si presenta mai al pubblico con la coscienza
soddisfatta, e ricomincia a martellare sulla sua parte anche dopo la
più splendida riuscita.

*
* *
A questo lavoro indefesso egli deve la sua continua ascensione
nell'arte, in cui non ha più che un rivale, — il Got, — che ha
vent'anni più di lui, ed era già attore provetto quando il Coquelin
entrò nel «Teatro francese»; quel celebre Got, che creò il Giboyer,
come si dice nel linguaggio teatrale, nelle due commedie Les
effrontés e Le fils de Giboyer; che fece un tipo indimenticabile
dell'abate nell'Il ne faut jurer de rien di Alfredo Musset; che
interpreta insuperabilmente Maître Guérin, Monsieur Poirier e il Duca
Job di Léon Laya: il primo attore, forse, che portò nella Comédie
française un sentimento potente della realtà, e che, pure
possedendo profondamente la tradizione dell'arte, pigliò tutti i suoi
modelli nella natura viva. Anch'egli è ugualmente forte nel
drammatico e nel comico: Bernard nei Fourchambault, strappa i
singhiozzi; Matamore nell'Illusion comique, fa schiantar dalle risa; e
chi l'ha visto Rabbino alsaziano nell'Ami Fritz, che fu uno dei suoi più
grandi trionfi, non lo riconosce più nei panni di Sganarelle o del
Souffleur dei Plaideurs di Racine, in cui è insuperabile. Osservatore
finissimo, vero fin nelle più piccole minuzie, abilissimo alle
trasformazioni del viso, capace di recitare per quattro atti interi,
come nel Gendre de monsieur Poirier, con un occhio socchiuso e la
bocca torta, senza scomporsi un momento; fornito d'un gusto
letterario squisito, e di buoni studi, e altieramente appassionato
dell'arte sua, egli tenne per lungo tempo il primato nel «Teatro
francese», ed è indubitabile che giovò moltissimo al Coquelin, non
foss'altro che col proprio esempio. Ma questi — lasciando da parte
altre qualità intimamente individuali, che non permettono confronti
— è superiore a lui nella versatilità dell'ingegno e nella mutabilità
dell'aspetto. Il Got è vario; il Coquelin è un Proteo. Il Got, per
esempio, ha non so che di proprio e d'immutabile nell'intonazione e
nel gesto, un certo fare bourru, imitant la franchise, come dicono i
francesi, e un tic particolare del capo e delle spalle, simile all'atto di
chi dica: — Non me ne importa il gran nulla, — un po' volgare, —
che lo rende inabile a tutte le parti in cui si richiede eleganza e
dignità signorile di maniere. Oltre di che è restìo a liberarsi dai modi
e dagli accenti d'una parte in cui sia riuscito maestrevolmente; così
che per molto tempo, dopo una creazione grande e fortunata, porta
in altri drammi l'impronta del personaggio prediletto, come gli
accadde, tra l'altre volte, dopo il suo successo nel Giboyer. Il che
non segue al Coquelin, di cui l'ingegno sembra cambiar natura ogni
volta che cambia parte; che scende fino alla farsa plebea e sale fino
alla più alta poesia; pagliaccio, gentiluomo, villano, brillante, tiranno,
— eroe della rivoluzione, tragico, nel Jean Dacier, — piccolo
collegiale vizioso e impostore nel Lion et Renard, — sempre
originale, rifatto da capo a piedi, e liberissimo da ogni legame di
reminiscenza; a segno che se gli saltasse il ticchio domani di fare il
Romeo — con quella faccia — nella tragedia dello Shakspeare, c'è da
giurare che ci riuscirebbe, come disse un critico tedesco; e che il
pubblico, ascoltandolo, direbbe che a Giulietta poteva toccare un
amante più bello, ma non uno più interessante e più appassionato.
Nondimeno sono molti ancora quelli che gli preferiscono il Got, come
più profondo e più grave; e c'è fra loro una gelosia coperta, ma viva,
che scoppia ogni volta che cade su una medesima parte la
preferenza di tutti e due: come segue ora per il dramma Le Roi
s'amuse, in cui l'uno e l'altro vorrebbe fare il Triboulet; e questo tira
tira è cagione che il dramma non si rappresenti; non essendo parsa
accettabile a nessun dei due la proposta di Victor Hugo, che
facessero il Triboulet una volta per uno, a sere alternate: proposta
d'accorto finanziere, non d'uomo esperto del cuore umano.
*
* *
Il Coquelin ha ancora un merito tutto proprio, che è d'essere un
grande declamatore di poesie liriche. Anzi tutto è maestro senza
eguali nel dire i versi, che è quasi un'arte nell'arte, in cui non gli si
avvicinano che il Got e Sara Bernhardt. È uno dei rarissimi attori che
sian riusciti a liberarsi, fino a un certo punto, da quell'accento
convenuto, da quel colorito generale che è quasi obbligatorio nella
dizione degli alessandrini francesi, e che anche nell'espansioni più
appassionate dell'animo tutti badano a conservare, come se fosse
una necessità fondamentale dell'arte. Il Coquelin si liberò da questa
psalmodia, da questa specie di musica sacra, come la definì la
signora Stael, che si trasmette di generazione in generazione a
somiglianza d'un vizio ereditario; e prese una via di mezzo tra coloro
che cantano il verso, avvolgendo tutto in una sorta di melopea
sonnolenta, che arrotonda tutte le linee e cancella tutti i contorni, e
coloro che, sotto il pretesto della imitazione del vero, non badano nè
a ritmo, nè a rima, nè a prosodia, e sacrificano interamente
l'elemento poetico all'elemento drammatico. Egli ha saputo cogliere
una certa armonia intermedia tra la parola e la musica, che nello
stesso tempo accarezza l'orecchio e rende l'intonazione del discorso.
E fa valere mirabilmente la bellezza della forma. Senza rivelar troppo
l'artifizio, fa sentire tutte le variazioni del movimento ritmico, le
ondulazioni della frase, le rime, le cesure, le attaccature dei periodi;
rompe la monotonia degli alessandrini con una quantità di
chiaroscuri delicatissimi; virgola e punteggia con una grande
efficacia, e, grazie particolarmente alla sua maniera ferma e nitida di
articolare le consonanti, ha una chiarezza di dizione — qualità
indispensabile per i versi — che nessun attore ha mai superata.
Oltrechè non è solamente interprete, ma critico e correttor vero del
poeta. Nessuno meglio di lui sa afferrare, in una poesia, il filo del
concetto principale, e attenercisi, malgrado le più viziose digressioni,
e fare in modo che non se ne scosti menomamente l'attenzione degli
uditori. È maestro nell'arte di velare i difetti della forma, di scivolare
sulle lungaggini, di gettar ombra sulle parti deboli per raccoglier luce
sulle forti, di far sfolgorare il verso capitale, e di scoprire e mettere in
rilievo pensieri affogati dalle immagini, e sensi riposti, e finezze, e
contrasti, che il poeta stesso non ha avvertiti. Ed esercita quest'arte
nei salotti — dov'è invitato e pagato — il che è molto diverso, ed
anche assai più difficile che esercitarla nel teatro; tanto che molti
attori applauditissimi sul palco scenico, perdono ogni efficacia
declamando versi in un cerchio ristretto d'uditori. Il Coquelin, invece,
conosce ed osserva rigorosamente tutte le leggi delicate e difficili
che impone la vicinanza dell'uditorio, col quale, anzi, qualche volta
l'artista si trova confuso: smorza gli effetti, ristringe il gesto, attenua
l'espressione del volto, modula in un modo particolare la voce, e
dissimula accortissimamente l'attore drammatico sotto l'uomo di
società. Perciò ottiene dei successi privati non meno splendidi dei
successi teatrali, e rende, in questo campo, dei veri servigi alle
lettere. È lui che ha diffuso, in questi ultimi anni, il gusto dei versi
nella società elegante, che non badava prima che alla musica, e
parecchi dei più illustri tra i giovani poeti della Francia debbono a lui
il principio della propria fama. Egli recitò per il primo le poesie di
Alfonso Daudet, che è suo amico intimo, di Paolo Déroulede, per il
quale professa una viva ammirazione, di Jacques Normand, del
Coppée, del Manuel, del Guiard. E non si può dire con che passione
egli cerca queste poesie, con che piacere se le fa leggere in casa,
per le strade, in carrozza, nei camerini del Brébant; come scatta ad
ogni verso potente; come, senz'accorgersene, udendo leggere,
prepara il gesto e l'atteggiamento del viso con cui dirà quella data
strofa; con che impazienza, all'ultimo verso, strappa il manoscritto di
mano al poeta, e con che bella e simpatica sicurezza di grande
artista gli dice sorridendo: — Lasciate fare a me, che vi servirò da
onest'uomo.

*
* *
Ma non è compiuto il ritratto del Coquelin se non gli si fa accanto
uno schizzo di suo fratello, che è come una sua appendice; attore
anche lui del Teatro francese, chiamato Coquelin cadet, per
distinguerlo da Costanzo. Il Coquelin cadet crebbe al calore del forno
paterno accanto al fratello maggiore, e portò con lui il pane fresco ai
buoni borghesi di Boulogne-sur-mer, con la faccia bianca di farina e
le mani imbrattate di pasta. Quando il fratello maggiore dava i primi
segni della sua vocazione drammatica, lui ancora bambino
s'ingegnava già d'imitarlo, gesticolando e balbettando dei versi; e
quando più tardi il fratello gli confidò i suoi disegni ambiziosi,
anch'egli cominciò a riscalducciarsi la testa e a vagheggiare il teatro.
Partì il fratello, passò qualche anno: Coquelin cadet pensò di
manifestare le sue intenzioni al padre; ma non osava, perchè suo
padre contava fermamente su di lui per tramandare ai posteri il suo
forno. Nondimeno un giorno si fece coraggio e tirò la schioppettata.
Si ripetè la medesima scena che era seguita col primogenito; ma
questa volta con un po' di scandalo. Il buon fornaio, udendo per la
seconda volta quelle fatali parole: — Voglio fare l'artista drammatico,
— alzò la testa dalla madia, e guardò il figliuolo con due occhi grandi
come due scudi. — Ma dunque — disse, incrociando le braccia — è
proprio destino che io non ne debba salvare neppur uno dei miei
figliuoli! C'est comme une peste qu'ils ont tous. Je ne comprends
pas. Où ont-il donc attrapé ça, mon Dieu! — Ma dopo un po' di
contrasto, si rassegnò, e lasciò partire il ragazzo per Parigi, dove fu
ricevuto al Conservatorio, poco dopo arrivato. Aveva ingegno e
attitudine grande all'arte; ma non l'esuberanza di vita, e le facoltà
poderose e splendide del fratello. Perciò il suo noviziato fu più duro e
più lungo. Ma riuscì; riportò anzi il primo premio del Conservatorio
nel 1867, e si presentò per la prima volta sulle scene della Comédie
française, facendo il Petit-Jean nei Plaideurs, il 10 giugno 1869, otto
anni dopo che aveva esordito suo fratello, il quale, con pensiero
affettuoso, volle recitare accanto a lui quella stessa sera, nella
medesima commedia, nella parte dell'Intimé. Coquelin II piacque.
D'aspetto, somiglia molto al fratello; ed è forse anche più comico,
benchè abbia i lineamenti meno risentiti: gli basta entrar in scena
per far ridere. Ma l'indole drammatica è diversa: egli ha piuttosto la
comicità inglese, — umoristica — un po' fredda, che si fa capire più
che non si faccia valere; ed è attor fino e originale; e quel ch'è più
curioso, lontanissimo da ogni idea d'imitazione di suo fratello; del
che diede una bella prova fin da principio nella commedia Le mari
qui pleure di Jules Prével, in cui fece la parte dell'avvocato Laroche,
già sostenuta mirabilmente dal primo Coquelin, in una maniera
diversa affatto, e non meno ingegnosa nè meno applaudita. Il
fratello maggiore, ciò nondimeno, sta tanto al di sopra dell'altro, da
non potersi nemmeno istituire un paragone fra loro; per il che
questa bella fraternità non è macchiata di gelosia. L'aîné ama il cadet
più che da fratello, da padre; e quando nella stanza di studio passa
la mano sotto il mento d'un suo bustino in bronzo, dicendo
scherzosamente: voilà mon petit frère, — gli si sente nella voce un
grande affetto, e gli si leggono negli occhi mille cari ricordi — di
quando trottavano insieme per le strade con le focaccie calde nel
paniere, e riportavano il gruzzolo dei soldi al buon babbo, curvo sulla
madia, tanto lontano dal pensare che un giorno i suoi due piccini
avrebbero fatto rimbombare d'applausi il primo teatro del mondo, e
che il suo povero forno sarebbe diventato famoso.

*
* *
Ora il Coquelin è nel pieno vigore della sua virilità artistica e forse
nel periodo più felice della sua carriera. Figliuol di grazie del «Teatro
francese,» amico intimo di potenti, accarezzato dai poeti, ricercato di
consigli e d'aiuti da tutti i giovani commediografi, glorificato come
artista, riverito come mecenate letterario, e carico di quattrini, non
ha più nulla da desiderare, fuorchè delle belle commedie. Ma non
pensa a sè solamente. Sollecitato da mille parti per recite di
beneficenza, egli s'arrende a tutte le preghiere, abusando anche
delle proprie forze, e fa del bene a moltissimi; tanto che ha un
salotto pieno di medaglie e di ricordi preziosi che gli offersero, e gli
offrono di continuo, in segno di gratitudine, Società operaie e Istituti
e Comitati di soccorso d'ogni natura. È pure dilettante di belle arti,
ed ha un piccolo museo di quadri del Meissonier, del Bonnat, del
Fortuny, del Détaille, — in parecchi dei quali è ritratto lui, nelle
spoglie di Mascarille e di Cesare di Bazan, con quel riso indefinibile e
irresistibile, a cui deve una gran parte della sua potenza d'artista.
Della quale potenza uno potrebbe farsi benissimo un'idea, senza
essere mai stato al teatro, solo trattenendosi un'ora ogni mattina
nella sua anticamera; dove si trovano sovente insieme il
commediante famelico che viene a implorare un sussidio che non gli
è mai rifiutato, la signorina americana che vuol pigliar lezioni di
dizione francese, l'impiegato che desidera una croce, l'ufficiale che
ha bisogno d'un traslocamento, e qualche volta persin dei prefetti,
dei magistrati e dei vescovi, che non isdegnano di raccomandarsi a
Sganarello per ottenere un piccolo favore dal Governo. Ed egli riceve
tutti con quel gran naso voltato in su, pieno di bonarietà e di buon
umore, ruminando dei versi del Molière durante i discorsi lunghi, e
rimanda tutti, se non soddisfatti nei loro desideri, contenti almeno di
aver visto una volta da vicino quella maschera formidabile, che da
venti anni fa rider del suo riso e pianger delle sue lacrime Parigi.

*
* *
Così fatto, o presso a poco, è il celebre Coquelin, il quale (per
terminare con una buona notizia) sta pensando a raccogliere una
Compagnia d'artisti valenti per fare un giro in Italia, e dare una serie
di rappresentazioni in tutte le città principali.
PAOLO DÉROULÈDE
E LA POESIA PATRIOTTICA.

Riparliamo un po', qualche volta, della nostra vecchia poesia


patriottica. Quando lavoriamo nelle nostre stanze di studio, in mezzo
a giornali e a lettere d'amici di tutte le parti d'Italia, e a libri che
racchiudono tutti gli sforzi e tutte le audacie del pensiero umano; ed
esprimendo liberamente il nostro pensiero, che circolerà liberamente
da un capo all'altro del paese, godiamo, anche non pensandoci, di
respirare l'aria della nostra libertà, e di sentirci dentro il soffio d'una
patria grande e potente; noi dovremmo di tratto in tratto rivolgere
uno sguardo a cinque o sei volumetti, quasi dimenticati in un angolo
della nostra biblioteca, sui quali sono scritti i nomi del Berchet, del
Rossetti, del Mameli, del Poerio, del Mercantini; e ricordarci che se
l'entusiasmo non può essere più vivo per essi, deve durare almeno la
gratitudine. La critica ha sviscerato quei versi con la sua mano gelata
e spietata; onde nuove di poesia vi son passate su, e ne hanno
sbiaditi i colori; sono invecchiati i metri e le immagini; e non ci
paiono più che scintille quelle che erano lingue bianche di fuoco; ma
che importa? Quando rileggiamo quelle poesie nel cuore della notte,
nel silenzio della nostra stanza, qualche volta saltiamo ancora in
piedi, con una fiamma sulla fronte e un singhiozzo nel cuore. Quanti
grandi e cari ricordi non ci risvegliano! Quelle vecchie strofe
impetuose e sonore, dei giovinetti le hanno pronunciate sui campi di
battaglia, per incoraggiarsi a morire; dei feriti le hanno smozzicate
fra i denti, mentre i ferri del chirurgo cercavano nelle loro carni
palpitanti le schegge della mitraglia tedesca; dei moribondi le hanno
balbettate nel delirio dell'agonia; le hanno ripetute mille volte,
nell'oscurità delle secrete, i prigionieri di Mantova, dei Piombi e di
Castel dell'Ovo; le hanno cantate gli esuli nella miseria; le hanno
mormorate i martiri ai piedi dei patiboli; migliaia d'italiani intrepidi le
hanno divulgate per tutte le provincie, a rischio della libertà e della
vita; migliaia di donne le hanno trascritte in segreto, di notte, col
cuore tremante, mentre suonava nella strada il passo del poliziotto
straniero; un'intera generazione le ha coperte di baci e bagnate di
lacrime e tinte di sangue, quelle vecchie strofe benedette, piene di
sdegni, di minaccie e di consolazioni sublimi. Ed anche noi, fanciulli
nel quarant'otto, giunti appena in tempo ad assistere al trionfo della
nostra rivoluzione, quando quelle poesie sonavano già liberamente
per quasi tutta l'Italia, quanto le abbiamo sentite ed amate! Bambini,
le abbiamo udite recitare da nostro padre, con gli occhi pieni di
pianto; e non le capivamo ancora, che già ci rimescolavano il
sangue. Più tardi, le abbiamo divorate sui banchi della scuola, tra la
grammatica latina e la grammatica greca, mordendoci le mani dalla
rabbia d'amor di patria che ci mettevano nel cuore. Poi le abbiamo
declamate per le vie delle nostre città, e dalle finestre delle nostre
case, nelle belle notti stellate, trasportandoci col pensiero negli
accampamenti dei nostri fratelli, che combattevano nelle pianure di
Lombardia o sui monti di Sicilia, addolorati e umiliati di non esser
con loro, costretti ad arrestarci ad ogni strofa perchè l'emozione ci
strozzava la voce e ci faceva tremare le labbra. Come ci sarebbe
parso insensato e miserabile allora chi fosse venuto a farci il pedante
sulla forma di quella poesia che ci usciva in grida e in ruggiti dal più
profondo dell'anima! Che importava a noi che il Berchet avesse delle
frasi barbare e dei versi duri, che la strofa del Rossetti fosse troppo
ricca di suoni, che il Mameli fosse ineguale, che il Mercantini fosse
negletto, e che il 21 marzo di Alessandro Manzoni rigurgitasse di
similitudini? Ognuno di quei versi era un grido uscito dalle viscere
della patria; in ogni strofa si sentiva l'eco lontana d'una battaglia; era
una poesia sacra, che sollevava il nostro pensiero e il nostro cuore al
di sopra di tutte le volgarità della vita; che ci rendeva più affettuosi
con la famiglia, più buoni con gli amici, più arditi nei pericoli, più forti
contro i nostri piccoli dolori; che entrava persino nei nostri amori
d'adolescenti, e vibrava nelle nostre prime parole amorose, e
mescolava delle lagrime nobili e virili ai nostri primi baci. Chi non ha
adorato il Berchet, per esempio, e baciato cento volte il Romito del
Cenisio, e desiderato di vedere una volta il poeta per curvare dinanzi
a lui la sua fronte ardente di giovanetto, come dinanzi all'immagine
viva della patria armata e insanguinata? Chi di noi, a quindici anni,
non s'è sentito uomo, poeta, soldato, capace d'ogni grande sacrifizio
e d'ogni ardimento più generoso, leggendo O morte o libertà e la
Spigolatrice di Sapri? Quei versi hanno avuto una parte così larga e
profonda nella nostra educazione di uomini e di cittadini, che ci pare
quasi che saremmo altri da quelli che siamo, se non li avessimo
conosciuti; essi si sono confusi nella nostra coscienza con le
esortazioni vigorose di nostro padre, coi consigli magnanimi di nostra
madre, con tutti gli esempi di virtù e di grandezza che abbiamo
ricevuti nella vita; e sono diventati una forza intima della nostra
natura. E li dimentichiamo sovente, e per lungo tempo, perchè siamo
ancora nell'età in cui le speranze tengono maggior luogo che le
memorie, e l'amore del presente soffoca il rimpianto del passato. Ma,
avanzando negli anni, quando comincieremo a volgerci indietro, e ad
evocare la nostra giovinezza per consolarci della virilità moribonda,
allora, nel segreto del nostro cuore, pagheremo intero il nostro
debito di gratitudine ai vecchi poeti della patria; tutte quelle poesie
gloriose ed amate ci baleneranno alla mente, di lontano, nella nebbia
rosea della nostra adolescenza, come una legione di guerrieri
scintillanti di ferro; e le ripeteremo ai nostri figliuoli con lo stesso
tremito nella voce con cui le hanno dette a noi i nostri padri; e i
nostri figliuoli le sentiranno, speriamolo, con lo stesso cuore con cui
noi le abbiamo sentite.

*
* *
Questi sentimenti deve ravvivare in sè chiunque voglia giudicare
rettamente un poeta nazionale straniero, sia il Riga o il Quintana o il
Körner o il Déroulède. Ma è quasi inutile avvertirlo. Non c'è uomo
che ami la propria patria, il quale leggendo la poesia patriottica,
fortemente sentita, d'un poeta straniero, qualunque sia il suo paese
e quali che siano i sentimenti che questo paese gl'ispira, non si
compenetri a poco a poco, involontariamente, della passione del
poeta, e non comprenda quindi e non giustifichi nella sua coscienza
tutti quei sentimenti e quei giudizi che ad un lettore freddo possono
parere ingiusti, superbi, temerari, e qualche volta anche puerili. Chi
non sente nel cuore la poesia patriottica di un popolo straniero, non
ha sentito neppure la propria. A costoro è inutile rivolgersi. Perciò
noi presentiamo il Déroulède e le sue poesie soltanto a quegli italiani
che, amando ardentemente la loro patria, sentono rispetto e
simpatia per tutti gli stranieri che amano ardentemente la propria, e
capiscono che ognuno ha diritto d'essere altero e violento — ed
anche ingiusto — quando difende sua madre. Per costoro è anche
superfluo combattere il pregiudizio volgare, secondo il quale la
poesia patriottica, perchè tende a muovere dei sentimenti che
vibrano in tutti potentemente, o a cui tutti hanno l'animo
predisposto, è meno difficile d'ogni altro genere di poesia, e non può
dare la misura giusta dell'ingegno di un poeta. Il critico sensato sa
misurare l'ingegno del poeta a traverso a tutti i sacrifizi ch'egli ha
dovuto fare della devozione estetica, come la chiamava il Berchet,
alla devozione civile; indovina il pensiero nel grido; completa da sè la
poesia troncata da un colpo di spada; e crede che, appunto quando
una nazione è eccitata dall'amor di patria, ed empie il mondo dei
suoi clamori, occorra una voce straordinariamente poderosa per far
volgere il capo alle moltitudini, un canto singolarmente ispirato per
sollevare al di sopra della propria passione dei milioni d'uomini, di cui
ciascuno è un poeta. La qual cosa è provata anche da ciò, che non
sono più numerosi i poeti patriottici potenti e durevoli, presso
qualunque nazione, di quello che siano i poeti eccellenti negli altri
campi della poesia. Certo l'amor di patria è un affetto comune; ma è
di questo affetto ciò che un grande poeta disse dell'amore: che tutti
credono d'averlo provato o di essere atti a provarlo nel massimo
grado; mentre le differenze nella facoltà di amare sono tante e tanto
grandi fra gli uomini quanto quelle che passano tra loro nell'ordine
dell'intelligenza. Non basta infatti unire all'ingegno l'amor di patria,
per riuscire poeta patriottico: bisogna sentir questo amore così
intensamente, da poterne profondere intorno a sè dei torrenti, e
aggiungerne a tutti coloro che credono di non poterne più ricevere,
obbligandoli ad accettare il poeta come interprete della loro
passione, e a riconoscere in lui un'anima più ardente e più forte e
più alta dell'anima loro. Migliaia di poesie patriottiche, nei tempi di
ribollimento nazionale, sorgono, si diffondono e scompaiono: non
restano che quelle dei poeti ch'ebbero anima e cuore di grandi
cittadini, e tempra di soldati, e nerbo d'atleti; i quali o fecero o
avrebbero fatto quel che incitavano a fare, e o suggellarono i loro
canti col sangue, o li prepararono nell'avversità che fortificò ed
innalzò il loro cuore. Il Berchet scrisse i suoi canti sospirando la
patria da cui era proscritto; il Rossetti pagò le trenta strofe del suo
inno alla Libertà con trent'anni d'esilio; il Mameli e il Körner morirono
sul campo di battaglia; Riga sul patibolo. Perciò noi nutriamo per i
grandi poeti patriottici un sentimento particolare di riverenza, e
consideriamo come uomini intrepidi, che abbiano non meno operato
che scritto, anche quelli tra loro che non uscirono dal campo
dell'arte; e ce li rappresentiamo nella storia della letteratura,
raggruppati in disparte, con una cicatrice sulla fronte e una bandiera
nel pugno.

*
* *
Che posto occupi tra questi poeti Paolo Déroulède, che tocca ora
appena i trentaquattro anni, non si potrebbe dir meglio che con le
parole di un critico arguto e dotto, ungherese di nascita, ma tedesco
di studi e di simpatie, che ne ragiona di passata in un suo notissimo
libro, assai malevolo per la Francia; il che toglie ogni sospetto ch'egli
possa peccare di parzialità per il poeta francese — a lui sconosciuto.
Il Déroulède, egli dice fra l'altre cose, è uno di quei poeti che non
possono nascere che in una nazione vinta. Quasi ogni nazione ebbe
nella sua storia un'epoca, in cui un solo pensiero la possedette: il
pensiero della lotta e della vendetta. Allora i bimbi si baloccano con
le sciabole e coi fucili, i ragazzi fanno ai soldati, i giovani si rallegrano
d'aver una vita da spendere per la patria, gli uomini si preparano ai
grandi sacrifizi, e i vecchi si dolgono di non essere più atti alle armi.
In tali epoche l'egoismo sparisce e vengono alla luce nobilissimi
esempi di virtù cittadine. Ogni uomo sente che tutto il suo sangue
dev'essere consacrato alla gran lotta e ogni donna riconosce che il
primo dei suoi doveri è quello d'accendere il coraggio degli uomini.
In questa condizione si trovarono la Spagna nel 1812, la Polonia nel
1830, l'Italia fino al 1866; questo pensiero ha suscitato la potente
Germania del 1814; questo pensiero ha fatto sorgere quella scuola di
poeti, fra cui i più insigni sono il Rückert, l'Arndt, il Körner, lo
Schenckendorf, l'Eichendorff. Non si può dire assolutamente che la
nazione francese si trovasse, dopo il 1870, in simili disposizioni; ma
Paolo Déroulède è senza dubbio un poeta di quella levatura. Le sue
poesie sono le prime di questo genere in Francia. Canzoni bellicose
la «grande nazione» ne ha abbastanza, cominciando da quelle del
Boileau, che pareva dimenassero la coda davanti al ridicolo Roi
Soleil, e venendo fino a quelle, che trovarono in Napoleone primo un
più degno oggetto dei loro entusiasmi; nè mancano pure nella
letteratura francese poesie che eccitino all'odio e al disprezzo delle
nazioni vicine; e forse in questo genere spetta la palma al famoso
nous l'avons eu votre Rhin allemand. Ma poesie piene di profondo
dolore per le sventure sofferte, di esortazione virile al raccoglimento,
al lavoro e alla preparazione, per il gran giorno della resa dei conti;
di sentimento del dovere, di spirito di sacrificio, di ferma risoluzione
nel proposito di ritemprarsi l'animo e le membra per ritentare una
prova suprema, tali poesie son nuove nella letteratura francese. La
sola Marsigliese del Rouget de l'Isle s'avvicina a questo genere e
sorse del pari in un tempo di sventura nazionale profondamente
sentita; ma Paolo Déroulède, il soldato del 1870, è poeta ben più
grande del luogotenente d'artiglieria del 1791; poichè nella
Marsigliese predominano ancora la declamazione, la millanteria e il
reboante, mentre i Chants du soldat, semplici e profondi, esprimono
il sentimento, la modestia e la dignità virile. Così dice uno scrittore
che bistratta la Francia per cinquecento pagine, negando ai francesi
persino lo «spirito» che anche i nemici più accaniti son disposti a
riconoscere in loro — indulgentemente.
*
* *
Prima d'esaminare la poesia del Déroulède, convien vedere come sia
nata; ossia conoscere la parte che prese il poeta nella guerra del
1870: parte piena d'avventure così singolari, che meriterebbero
d'essere raccontate se anche si riferissero a un soldato sconosciuto,
invece che a uno dei più simpatici tra i giovani poeti della Francia.
Prima del 1870, il Déroulède era studente di legge, e studiava poco:
il mal dei versi lo cominciava a tormentare. Una delle sue prime
poesie fu una risposta vivace allo zio Emilio Augier, il quale aveva
detto in famiglia: — Vedete Paolo! Egli non fa nulla sotto il pretesto
che un giorno farà il poeta. — Per l'appunto — rispondeva il
Déroulède in alessandrini; — per fare il poeta un giorno ho bisogno
di vivere adesso. Non è ancora il tempo di giudicarmi. Lasciate
maturare la messe; — piccolo sfogo d'alterezza giovanile che egli si
guarderebbe bene dal fare ora che la messe è matura. Nel 1869
scrisse un dramma in un atto, che passò inosservato, ed empì
qualche quaderno di poesie; ma non fece nulla di notevole. Cercava
ancora se stesso, come suol dirsi; ma si cercava con una tale
impazienza, che non si trovava. Era un giovanotto di alta statura,
secco, svelto, irrequieto, che sentiva intensamente la vita; pieno di
grandi speranze confuse, che gli mettevano il sangue in ribollimento,
e lo tenevano come in uno stato d'ebbrezza continua; una di quelle
nature esuberanti d'artista, a cui la vita del pensiero non basta; che
han bisogno di sfogare nell'azione l'eccesso delle loro forze giovanili,
prima d'entrare nell'arte. Agiato com'era di fortuna, egli avrebbe
forse corso la cavallina, come molti altri giovani, per parecchi anni,
se gli fosse mancata l'occasione di agire; ma l'occasione venne, e
non poteva essere nè più grande nè più terribile. Scoppiata appena
la guerra, piantò codici e versi, ed entrò nel Corpo delle guardie
mobili di Belleville, in cui fu nominato ufficiale. Le sue speranze,
però, furono deluse. I tedeschi s'avanzavano in Francia, le battaglie
succedevano alle battaglie, e le guardie mobili non si movevano. Ed
egli voleva battersi. Perciò rinunziò al grado, s'arrolò negli zuavi, fu
destinato al 3º reggimento che faceva parte del Corpo d'esercito del
maresciallo Mac-Mahon, lo raggiunse sollecitamente, e fu ancora in
tempo a pigliar parte, come semplice soldato, nei due combattimenti
di Mouzon e di Bazeille, da cui uscì sano e salvo, col buco d'una palla
nei calzoni. Intanto un suo fratello minore, Andrea, di diciassett'anni,
che studiava a Parigi, — giovanetto d'indole dolce e d'aspetto
gentile, ma tutto ardente d'amor di patria, — si decideva a seguire
l'esempio di lui. Si presentava un giorno a sua madre e le diceva di
volersi arrolare negli zuavi per andarsi a battere col fratello. Per
quanto fosse forte e coraggiosa, sua madre cercò sulle prime di
dissuaderlo: era troppo ragazzo, non era abbastanza robusto da
reggere alle fatiche, la famiglia aveva già dato un soldato alla
Francia. Ma egli insistè, e la madre si arrese; e siccome non c'erano
più vestimenta da zuavo nei magazzini militari di Parigi, lo
accompagnò lei stessa al gran mercato del Temple, dove, a furia di
cercare, raccattando qui una papalina, là una ghetta, fra tutti e due
misero insieme il così detto «equipaggiamento», e il giovane potè
partire vestito ed armato.
Sua madre l'accompagnò fino al campo.
Qui attinse l'ispirazione Paolo Déroulède per quella mirabile poesia
intitolata Le Turco, che comincia con le strofe seguenti:

C'était un enfant, dix-sept ans à peine,


De beaux cheveux blonds et de grands yeux bleus.
De joie et d'amour sa vie était pleine,
Il ne connaissait le mal ni la haine;
Bien aimé de tous, et partout heureux.
C'était un enfant, dix-sept ans à peine,
De beaux cheveux blonds et de grands yeux bleus.

Et l'enfant avait embrassé sa mère.


Et la mère avait béni son enfant.
L'écolier quittait les héros d'Homère;
Car on connaissait la défaite amère,
Et que l'ennemi marchait triomphant.
Et l'enfant avait embrassé sa mère,
Et la mère avait béni son enfant.

Elle prit au front son voile de veuve,


Et l'accompagna jusqu'au régiment.
L'enfant rayonnait sous sa veste neuve;
L'instant de l'adieu fut l'instant d'épreuve:
«Courage, mon fils! — Courage, maman!»
Elle prit au front son voile de veuve.
Et l'accompagna jusqu'au régiment.

Mais lorsque l'armée eut gravi la pente:


«Mon Dieu! disait-elle, ils m'ont pris mon cœur,
«Tant qu'il est parti, mon âme est absente.»
Et l'enfant pensait: «Ma mère est vaillante,
«Et je suis son fils, et je n'ai pas peur.»
Mais lorsque l'armée eut gravi la pente:
«Mon Dieu! disait-elle, ils m'ont pris mon cœur.»

Il viaggio fu pieno di peripezie. La signora Déroulède, già malata, col


cuore oppresso, simulando una forza d'animo che le mancava, si
recò da Parigi a Reims per strada ferrata, col suo zuavo di diciassette
anni. A Reims, saputo che l'esercito del Mac-Mahon era in ritirata
verso Sédan, si mise in una carrozzella col figliuolo, e si diresse verso
Sédan. Si può immaginare lo stato di quella povera donna, durante
quel viaggio lungo e difficile, per strade ingombre di salmerie
disordinate e di carri carichi di feriti, tra reggimenti decimati e
spossati, in mezzo alla tristezza lugubre d'un esercito sconfitto, che
andava incontro a nuove battaglie col presentimento di nuove
sventure. A ogni passo, madre e figliuolo domandavano del 3º
reggimento zuavi: nessuno sapeva dove fosse. Una volta si
trovarono in una grande solitudine, dinnanzi a tre strade, senza
indicazione di sorta: la madre, fortunatamente, obbedendo ad una
ispirazione del cuore, disse: — Paolo passò di qui; — si misero per
quella strada, ed era la giusta. Dopo un altro lungo tratto, si
ritrovarono in mezzo ai cariaggi, ai soldati, al disordine: era una
divisione del Mac-Mahon; raggiunsero un reggimento di zuavi: era il
terzo. Scesero di carrozza, e dopo molto cercare trovarono il povero
poeta, seduto sull'orlo di un fosso, che mangiava nella gamella, in
mezzo a un crocchio di camerati africani, tra due fasci d'armi. Inteso
il proprio nome, saltò su, e si trovò davanti sua madre e suo fratello,
di cui non aveva più avuto notizia dal giorno della partenza. Si
ritirarono tutti e tre in una piccola osteria di campagna, accanto alla
strada; là la signora Déroulède volle che i suoi figliuoli, l'uno stanco
dalle marcie, l'altro dalle emozioni, si riposassero; e tutti e due le si
addormentarono con la testa sulle ginocchia, come due ragazzi.
Allora la madre potè piangere, guardata con rispetto pietoso dagli
zuavi, che s'affacciavano alla finestra e allo spiraglio dell'uscio; e,
piangendo, prepararsi alla separazione. Il terribile momento non si
fece aspettare. Squillarono le trombe, i figliuoli si svegliarono;
bisognava dirsi addio; la madre si sentiva schiantare il seno dai
singhiozzi; ma fece uno sforzo sovrumano, e non versò che lacrime
mute. I saluti furono brevi: — Courage, mon fils! — Courage,
maman! — come nella poesia. E si separarono. Il reggimento seguitò
la sua strada verso Sédan, e la signora Déroulède riprese la via di
Reims. Prima di arrivare a Reims, le seguì ancora un caso doloroso.
Arrestata da una avanguardia francese, interrogata da un ufficiale,
disse il suo nome, e raccontò che era stata ad accompagnare un
figliuolo al reggimento, dove già n'aveva un altro. La cosa parve
inverosimile: la presero per una spia! Riuscì fortunatamente a
liberarsi, e sfinita dalle fatiche, con quell'ultimo colpo di stile nel
cuore, arrivò a sera inoltrata a Reims, dove fece appena in tempo a
pigliare il treno di Parigi, che era l'ultimo della giornata, e fu l'ultimo
per tutta la durata della guerra, poichè la mattina seguente le
avanguardie prussiane avevano già tagliata la via della capitale.
I due fratelli furono messi nella medesima compagnia: in pochi giorni
tutto il reggimento li conobbe. In una relazione del colonnello è fatto
cenno di loro: — Questo bell'esempio di patriottismo dato dalla
famiglia Déroulède fu un grande incoraggiamento per i resti del 3.º
reggimento zuavi. I due giovani volontari s'attirarono in breve
tempo, con la loro abnegazione e il loro valore, l'ammirazione dei
vecchi soldati. — Tutt'e due si trovarono alla battaglia di Sédan,
pochi giorni dopo l'arrivo d'Andrea. È noto che il 3.º reggimento
zuavi fu il solo che riuscì a rompere il cerchio de' Tedeschi in quella
giornata, e che dal campo di battaglia si ridusse a Parigi, dove
l'assemblea lo dichiarò benemerito della patria. Ma i fratelli
Déroulède non poterono salvarsi coi loro compagni. Mentre
combattevano in un bosco, a pochi passi di distanza l'uno dall'altro,
Andrea si voltò improvvisamente verso il fratello, col viso bianco, e
gli disse: — M'hanno fatto male! — e detto appena questo,
stramazzò gettando sangue per la bocca. Aveva una palla nel ventre.
Paolo accorse, lo prese in braccio, e camminando verso i Tedeschi, lo
portò dietro a un piccolo rialto del terreno, dove, deponendolo
sull'erba, incespicò e cadde in un fosso; il che vedendo di lontano gli
altri soldati, che continuavano ad avanzarsi, credettero che anche lui
fosse stato ferito mortalmente. Paolo si rialzò, tagliò una croce rossa
nei suoi calzoni di zuavo, l'attaccò sul suo turbante bianco spiegato,
e legato questo cencio di bandiera d'ambulanza sulla punta del fucile
confitto in terra, pensò a salvare il ferito. C'erano là vicino dei
cannoni francesi abbandonati, coi loro cavalli. Paolo tentò di
trasportare il ferito sopra un cassone, e di fuggire con le artigliere.
Ma mentre lo adagiava, gli sgorgò dalla bocca un'ondata di sangue
nero; pareva che morisse; lo ripose in terra; si mise a succhiargli la
ferita perchè il sangue non lo soffocasse, lo lavò, gli strinse una
fascia intorno ai fianchi;... ma sperava poco di salvarlo. Intanto la
battaglia continuava da ogni parte, lontano, confusamente: egli non
ne racapezzava nulla. Il terreno intorno era sparso di morti, nessun
vivente appariva nè francese nè tedesco. Il primo che passò, dopo
un'ora, fu un soldato sassone, che balbettava il francese. S'avvicinò
al Déroulède e lo interrogò. Inteso che il ferito era suo fratello,
s'impietosì. — Anch'io — disse — ho un fratello nell'esercito. Ah c'est
malheureux, c'est malheureux! — E poi soggiunse: — datemi un po'
di pan bianco, zuavo; ve lo domando, non come nemico, ma come
camerata. — E avuto, il pan bianco, se ne andò, salutando
affettuosamente. Il povero Déroulède dovette stare là quattr'ore col
fratello moribondo fra le braccia, vedendo di lontano delle figure
sinistre di spogliatori di morti vagare per il campo e contaminare con
le mani ladre i cadaveri. E cominciava già a disperare. Finalmente
passò di galoppo un drappello di dragoni azzurri; vista la bandiera,
s'arrestarono; mandarono per un medico; venne poco dopo; — era
un medico sassone; — fece trasportare il ferito in un grande opificio,
vicino a Sédan; lo adagiò sopra un letto, in una stanza del padrone,
ch'era assente, e tentò l'estrazione della palla. Mentre egli operava,
una banda tedesca suonava la marcia del Lohengrin nel cortile, e
una frotta di soldati prussiani aspettava sulla porta che l'operazione
fosse terminata, per entrare nella stanza a vedere un grande ritratto
di Federico il grande — di cui s'era sparsa la notizia — appeso
proprio sopra il letto in cui era disteso il ferito. Cose che, in un
romanzo, parrebbero troppo ingegnosamente combinate.
L'operazione, mercè un taglio profondissimo, riuscì. Paolo offrì al
medico tedesco il suo orologio. — No, — quegli rispose — sarebbe
un pagamento. — Allora accettate il mio pugnale — disse il giovane.
Il medico accettò. Tutti e due erano commossi. Il ragazzo era sfinito;
ma salvo.
Della capitolazione dell'esercito e dell'Imperatore non sapevano
ancor nulla; nemmeno della vittoria dei Tedeschi. Il ferito fu dato alle
ambulanze francesi, perchè lo trasportassero nel Belgio: Paolo
sperava di poterlo accompagnare, perchè era ancora aggravato; ma
fu preso prigioniero, e diviso a forza dal fratello. Fortunatamente,
mentre lo conducevano via, un ufficiale prussiano, vedendolo
passare così desolato, con la faccia nelle mani, fermò il drappello, e
domandò spiegazioni. Intesa la cosa, fu preso da compassione. —
Che diavolo! — disse — è una crudeltà separare così due fratelli! —
E andò egli stesso a domandare al comandante tedesco di Sédan
che il Déroulède potesse accompagnare il ferito nel Belgio. L'ottenne;
il Déroulède andò a Bruxelles col fratello. Qui solamente ebbe notizia
della catastrofe di Sédan. Andrea fu ricevuto in una casa d'amici;
Paolo poteva andarsene. Le autorità belghe gli offrirono la libertà,
purchè desse la sua parola di non battersi più contro i Tedeschi;
altrimenti, dovevano mandarlo prigioniero in Germania. Egli preferì la
prigionia, con la speranza della fuga. Fu quindi mandato per strada
ferrata a Berlino, e da Berlino condotto a Breslau, nella Slesia.
Mentre questo accadeva, la sua famiglia stava a Parigi, al buio di
tutto, nella trepidazione che si può pensate. Arriva finalmente il 3.º
reggimento zuavi. Padre e madre gettarono un grido di gioia, corsero
dal colonnello, domandarono dei figliuoli.... Non c'erano. Erano stati
visti cadere l'un sull'altro in un fosso, alla battaglia di Sédan; il che
voleva dire ch'erano morti. La povera madre rimase fulminata.
Portata a casa, le prese un accesso di paralisi da cui non si rimise
più; chè anzi s'andò sempre aggravando; e per otto giorni stette tra
la morte e la vita, con l'immagine di quei due cadaveri davanti agli
occhi, istupidita dal dolore. Per fortuna, prima di passare la frontiera
belga, il Déroulède aveva sparso fra contadini e soldati, e buttato a
tutte le poste; un gran numero di buste dirette a sua madre, con tre
parole dentro, e la firma sua e del fratello. Una di queste buste,
dopo otto giorni, arrivò; la signora Déroulède l'aperse con le mani
tremanti, animata da un barlume di speranza: c'era scritto — Nous
sommes vivants. — Credette d'impazzire...; ma questa gioia
immensa non valse a rimetterla dal colpo tremendo che aveva
ricevuto. E continuò a vivere miseramente, torturata dalla paralisi
che cresceva, e da un'insonnia angosciosa, che avrebbe spezzato i
nervi d'un uomo; ma piena di coraggio e, se non rassegnata,
preparata ad ogni cosa.
Intanto Paolo Déroulède era prigioniero a Breslau. Qui gli seguì una
piccola avventura comica. I prigionieri andavano liberi per la città;
ma egli non godette di questa libertà per un pezzo. Il generale
tedesco che comandava la fortezza, vecchio soldato burbero,
leggeva tutte le lettere prima di spedirle. Era stato qualche tempo a
Parigi, conosceva la lingua francese, non si lasciava scappare una
parola che potesse urtare un tedesco. Letta la prima lettera del
Déroulède, ch'era un po' troppo liberamente patriottica, pensò di
dargli un avvertimento. — O la finite — gli disse — o vi caccio in
fortezza. — Il Déroulède non la finì. In una seconda lettera diceva fra
le altre cose: — ce troupeau de Prussiens. Il generale lo mandò a
chiamare e gli disse: — Questa lettera non partirà. Noi siamo une
troupe e non un troupeau. — Avete ragione, rispose il prigioniero; —
je vois avec plaisir que vous connaissez le français dans toutes ses
nuances. — Ah sì? — ribattè il generale; — ebbene, andate in
fortezza a studiare le nuances del tedesco. — E lo fece chiudere in
fortezza. Dopo qualche giorno uscì, e ricominciò a scrivere; ma
nascondendo il suo pensiero sotto una quantità di motti a doppio
senso, di bisticci parigini, incomprensibili a un tedesco. Il generale lo
rimandò a chiamare, e volle che gli spiegasse il significato nascosto
d'ogni frase. — Ma, signor generale, — rispose il Déroulède; — io
sono prigioniero; ma non sono obbligato a perfezionarvi nello studio
della letteratura francese. — Ed io — replicò il generale, — non sono
neppure obbligato a lasciarvi passeggiare liberamente per le strade
di Breslau. Andate in fortezza. — E questa volta non si parlò più
d'uscire. Ma il prigioniero provvide da sè ai casi suoi. La figliuola del
carceriere, che non vedeva di mal occhio quel gran diavolo di zuavo,
dal viso di poeta e dai modi di gentiluomo, faceva conversazione con
lui per il buco della serratura. Lo zuavo, che aveva in capo il suo
disegno di fuga, pensò di valersi della ragazza. A poco a poco,
facendosi tradurre in tedesco oggi una parola, domani una frase,
senza lasciar trasparire il senso del discorso, riuscì a mettere insieme
e a pronunziare correttamente una parlatina in tedesco, che diceva
presso a poco: — Sono un ebreo polacco, nato in America, zoppo
dalla nascita. Gli ultimi avvenimenti m'hanno chiamato in Germania
per far riconoscere la mia inabilità al servizio militare. Torno a Torino
dove faccio il professore di lingua francese. — Quando si sentì
abbastanza forte su questa sfilata di fandonie, si mise d'accordo con
un ufficiale francese delle guardie mobili, anch'egli prigioniero, ma
sciolto, a Breslau; costui insaccò un gran pastrano turchino da ebreo
polacco, si mise un berrettone d'astrakan, e gli occhiali verdi; si fece
dare un permesso per visitare il carcerato; entrò nella fortezza
zoppicando — diede i suoi panni al Déroulède; — il Déroulède,
zoppicando, uscì dalla cella, passò tranquillamente sotto il naso delle
sentinelle, andò alla prima stazione della strada ferrata di Boemia, e
saltò sano e salvo sul treno liberatore. Ma c'era ancora un pericolo al
passaggio della frontiera austriaca. Discese perciò alla penultima
stazione e prese a traverso ai campi per passar la frontiera a piedi.
Era notte, nevicava fitto, faceva un freddo da cani. Dopo molto
andare, non raccapezzò più dove fosse: passò accanto a un villaggio,
offrì del danaro a un contadino perchè l'accompagnasse. Costui
accettò; ma era un furfante. Giunto a poca distanza dal confine,
vicino a un corpo di guardia prussiano, si fermò e disse al Déroulède:
— O mi date il doppio, o vi denuncio alla sentinella. — Il Déroulède,
vistosi perduto, gli mise un coltello alla gola, e gli gridò: — O tiri
diritto, o t'ammazzo. L'uomo si persuase, lo guidò di là dal confine, e
lo accompagnò fino alla prima stazione austriaca. Un treno stava per
partire, il Déroulède ci saltò su, e fuggì verso Vienna. Aveva voluto
tentar la fuga da Breslau il 29 settembre, anniversario di sua madre,
e la fortuna l'aveva aiutato.
Con la fuga di Germania entrò in un'altra serie d'avventure.
Attraversò Vienna di notte, prese un biglietto per Milano, e ripartì.
Ma per pagare il biglietto dovette spendere gli ultimi resti del suo
peculio. Da Vienna a Milano non mangiò che un enorme pane che
aveva comprato a Baden, stando rincantucciato in fondo al vagone,
quieto quieto, senza attaccar discorso con nessuno, per non tradire il
segreto della sua mascherata. Arrivato a Milano, fin dove lo
conduceva il biglietto, si trovò nella stazione solo, morto di fame,
senza un soldo, senza sapere dove batter del capo. Che cosa fare? Si
rivolse a un impiegato, gli espose il caso suo, gli domandò se
avrebbe avuto tempo, prima di partire per la Francia, di fare una
corsa fino al Consolato di Francia, per domandar dei denari.
L'impiegato gli disse che no. — Ma non occorre — soggiunse; —
sono stato soldato anch'io, mi so mettere nei vostri panni: provvedo
io al vostro viaggio. — E gli diede il biglietto per la Francia. Il
Déroulède ebbe appena il tempo di ringraziare il bravo impiegato,
ripartì, e il giorno dopo si trovò a Lanslebourg, in compagnia d'altri
francesi, scappati pure di Germania, tornati in patria per la stessa
strada, travestiti anch'essi bizzarramente, e scannati e affamati come
lui. Un caffettiere misericordioso li sfamò gratis. Il Déroulède ripartì
per Lione, e da Lione andò a Tours. Appena arrivato a Tours, corse al
ministero della guerra per riprender servizio. Mentre aspettava nei
corridoi, passò il Gambetta, il quale lo conosceva fin da giovanetto.
Questi rimase meravigliato riconoscendo il giovane poeta sotto
quello strano travestimento. — Che cosa venite a far qui? — gli
Welcome to our website – the ideal destination for book lovers and
knowledge seekers. With a mission to inspire endlessly, we offer a
vast collection of books, ranging from classic literary works to
specialized publications, self-development books, and children's
literature. Each book is a new journey of discovery, expanding
knowledge and enriching the soul of the reade

Our website is not just a platform for buying books, but a bridge
connecting readers to the timeless values of culture and wisdom. With
an elegant, user-friendly interface and an intelligent search system,
we are committed to providing a quick and convenient shopping
experience. Additionally, our special promotions and home delivery
services ensure that you save time and fully enjoy the joy of reading.

Let us accompany you on the journey of exploring knowledge and


personal growth!

ebookgate.com

You might also like