100% found this document useful (2 votes)
11 views

Multi-aspect Learning: Methods and Applications Richi Nayak - The full ebook with complete content is ready for download

The document provides information about the ebook 'Multi-aspect Learning: Methods and Applications' by Richi Nayak and Khanh Luong, which is part of the Intelligent Systems Reference Library. It covers various topics related to intelligent systems, including multi-aspect data learning, clustering methods, and applications across multiple disciplines. Additionally, it includes links to other recommended ebooks available for instant download.

Uploaded by

dlxwazronmel
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
100% found this document useful (2 votes)
11 views

Multi-aspect Learning: Methods and Applications Richi Nayak - The full ebook with complete content is ready for download

The document provides information about the ebook 'Multi-aspect Learning: Methods and Applications' by Richi Nayak and Khanh Luong, which is part of the Intelligent Systems Reference Library. It covers various topics related to intelligent systems, including multi-aspect data learning, clustering methods, and applications across multiple disciplines. Additionally, it includes links to other recommended ebooks available for instant download.

Uploaded by

dlxwazronmel
Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 77

Read Anytime Anywhere Easy Ebook Downloads at ebookmeta.

com

Multi-aspect Learning: Methods and Applications


Richi Nayak

https://ebookmeta.com/product/multi-aspect-learning-methods-
and-applications-richi-nayak/

OR CLICK HERE

DOWLOAD EBOOK

Visit and Get More Ebook Downloads Instantly at https://ebookmeta.com


Recommended digital products (PDF, EPUB, MOBI) that
you can download immediately if you are interested.

Primary Mathematics 3A Hoerst

https://ebookmeta.com/product/primary-mathematics-3a-hoerst/

ebookmeta.com

Online Learning Systems: Methods and Applications with


Large-Scale Data Zdzislaw Polkowski (Editor)

https://ebookmeta.com/product/online-learning-systems-methods-and-
applications-with-large-scale-data-zdzislaw-polkowski-editor/

ebookmeta.com

Applications of Nanovesicular Drug Delivery 1st Edition


Amit Kumar Nayak (Editor)

https://ebookmeta.com/product/applications-of-nanovesicular-drug-
delivery-1st-edition-amit-kumar-nayak-editor/

ebookmeta.com

Restrictive Labor Practices in the Supermarket Industry


Herbert R. Northrup

https://ebookmeta.com/product/restrictive-labor-practices-in-the-
supermarket-industry-herbert-r-northrup/

ebookmeta.com
One Piece T31 Kcc

https://ebookmeta.com/product/one-piece-t31-kcc/

ebookmeta.com

Tennis 2021st Edition Greg Ruth

https://ebookmeta.com/product/tennis-2021st-edition-greg-ruth/

ebookmeta.com

The Witch s Curse Ruthless Mate First Edition Peggy Chan

https://ebookmeta.com/product/the-witch-s-curse-ruthless-mate-first-
edition-peggy-chan/

ebookmeta.com

Kozier and Erb's Fundamentals of Nursing 11th Edition


Audrey T. Berman

https://ebookmeta.com/product/kozier-and-erbs-fundamentals-of-
nursing-11th-edition-audrey-t-berman/

ebookmeta.com

Hostile Homelands The New Alliance Between India and


Israel Azad Essa

https://ebookmeta.com/product/hostile-homelands-the-new-alliance-
between-india-and-israel-azad-essa/

ebookmeta.com
Polarized Light and the Mueller Matrix Approach 2nd
Edition José J. Gil

https://ebookmeta.com/product/polarized-light-and-the-mueller-matrix-
approach-2nd-edition-jose-j-gil/

ebookmeta.com
Intelligent Systems Reference Library 242

Richi Nayak
Khanh Luong

Multi-aspect
Learning
Methods and Applications
Intelligent Systems Reference Library

Volume 242

Series Editors
Janusz Kacprzyk, Polish Academy of Sciences, Warsaw, Poland
Lakhmi C. Jain, KES International, Shoreham-by-Sea, UK
The aim of this series is to publish a Reference Library, including novel advances
and developments in all aspects of Intelligent Systems in an easily accessible and
well structured form. The series includes reference works, handbooks, compendia,
textbooks, well-structured monographs, dictionaries, and encyclopedias. It contains
well integrated knowledge and current information in the field of Intelligent Systems.
The series covers the theory, applications, and design methods of Intelligent Systems.
Virtually all disciplines such as engineering, computer science, avionics, business,
e-commerce, environment, healthcare, physics and life science are included. The list
of topics spans all the areas of modern intelligent systems such as: Ambient intelli-
gence, Computational intelligence, Social intelligence, Computational neuroscience,
Artificial life, Virtual society, Cognitive systems, DNA and immunity-based systems,
e-Learning and teaching, Human-centred computing and Machine ethics, Intelligent
control, Intelligent data analysis, Knowledge-based paradigms, Knowledge manage-
ment, Intelligent agents, Intelligent decision making, Intelligent network security,
Interactive entertainment, Learning paradigms, Recommender systems, Robotics
and Mechatronics including human-machine teaming, Self-organizing and adap-
tive systems, Soft computing including Neural systems, Fuzzy systems, Evolu-
tionary computing and the Fusion of these paradigms, Perception and Vision, Web
intelligence and Multimedia.
Indexed by SCOPUS, DBLP, zbMATH, SCImago.
All books published in the series are submitted for consideration in Web of Science.
Richi Nayak · Khanh Luong

Multi-aspect Learning
Methods and Applications
Richi Nayak Khanh Luong
Faculty of Science Faculty of Science
School of Computer Science School of Computer Science
Centre for Data Science Centre for Data Science
Queensland University of Technology Queensland University of Technology
Brisbane, Australia Brisbane, Australia

ISSN 1868-4394 ISSN 1868-4408 (electronic)


Intelligent Systems Reference Library
ISBN 978-3-031-33559-4 ISBN 978-3-031-33560-0 (eBook)
https://doi.org/10.1007/978-3-031-33560-0

© Springer Nature Switzerland AG 2023

This work is subject to copyright. All rights are reserved by the Publisher, whether the whole or part of
the material is concerned, specifically the rights of translation, reprinting, reuse of illustrations, recitation,
broadcasting, reproduction on microfilms or in any other physical way, and transmission or information
storage and retrieval, electronic adaptation, computer software, or by similar or dissimilar methodology
now known or hereafter developed.
The use of general descriptive names, registered names, trademarks, service marks, etc. in this publication
does not imply, even in the absence of a specific statement, that such names are exempt from the relevant
protective laws and regulations and therefore free for general use.
The publisher, the authors, and the editors are safe to assume that the advice and information in this book
are believed to be true and accurate at the date of publication. Neither the publisher nor the authors or
the editors give a warranty, expressed or implied, with respect to the material contained herein or for any
errors or omissions that may have been made. The publisher remains neutral with regard to jurisdictional
claims in published maps and institutional affiliations.

This Springer imprint is published by the registered company Springer Nature Switzerland AG
The registered company address is: Gewerbestrasse 11, 6330 Cham, Switzerland
Contents

1 Multi-aspect Data Learning: Overview, Challenges


and Approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Multi-type Relational Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Object Type, Objects . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Relationships . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.3 Bi-type Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Multi-view Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Partial Multi-view Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Consensus and Complementary Information
in Multi-view Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Relationship Between MTRD and Multi-view Data . . . . . . . . . . . . . . 9
1.5 Real-World Multi-aspect Data Applications . . . . . . . . . . . . . . . . . . . . 10
1.5.1 Text Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5.2 Image Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5.3 Bio-informatics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5.4 Social-Network Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Multi-aspect Data Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6.1 Why Design Customized Multi-aspect Clustering
Methods? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6.2 Multi-aspect Data Clustering: Approaches . . . . . . . . . . . . . . . 16
1.7 Chapter Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2 Non-negative Matrix Factorization-Based Multi-aspect Data
Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 NMF Framework: Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 NMF Framework: Basic Concepts and Definitions . . . . . . . . . . . . . . 30
2.3.1 NMF Formulation on Traditional Data . . . . . . . . . . . . . . . . . . 30
2.3.2 NMF-Based Clustering Process . . . . . . . . . . . . . . . . . . . . . . . . 31

v
vi Contents

2.3.3 Constraints . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.4 Benefits of NMF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4 NMF-Based Clustering Methods on One-Aspect Data . . . . . . . . . . . 35
2.5 NMF-Based Clustering Methods on Multi-aspect Data . . . . . . . . . . . 37
2.5.1 NMF-Based Clustering Methods on Multi-view Data . . . . . . 37
2.5.2 NMF-Based Clustering Methods on MTRD Data . . . . . . . . . 43
2.6 Chapter Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3 NMF and Manifold Learning for Multi-aspect Data . . . . . . . . . . . . . . . 51
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2 Introduction to Manifold Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3 NMF and Manifold Learning-Based Clustering Methods
Applied to Traditional One-Aspect Data . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.1 Manifold Learning Formulation . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.2 Manifold Learning Based NMF Methods
of Traditional One-Aspect Data . . . . . . . . . . . . . . . . . . . . . . . . 57
3.3.3 Challenges in Manifold Learning . . . . . . . . . . . . . . . . . . . . . . . 58
3.4 NMF and Manifold Learning-Based Clustering Methods
Applied to Multi-aspect Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.4.1 Learning the Manifold on Each Aspect
of the Multi-aspect Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.4.2 Learning the Accurate Manifold on Each Aspect . . . . . . . . . 65
3.4.3 Learning the Intrinsic Consensus Manifold
on Multi-view Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.4.4 Discussion: Manifold Learning Approaches
for Multi-view Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.5 Chapter Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4 Subspace Learning for Multi-aspect Data . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.2 Subspace Clustering: Basics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.3 One-Aspect Subspace Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.3.1 Problem Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.3.2 Subspace-Based Clustering Methods . . . . . . . . . . . . . . . . . . . . 81
4.4 Multi-aspect Subspace Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.4.1 Multi-view Clustering Definition . . . . . . . . . . . . . . . . . . . . . . . 85
4.4.2 Multi-view Subspace Clustering Using Early
Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.4.3 Multi-view Subspace Clustering Using Late
Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.4.4 Multi-view Subspace Clustering Using Intermediate
Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.4.5 Multi-view Subspace Clustering Using a Shared
Unified Representation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Contents vii

4.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.6 Chapter Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5 Spectral Clustering on Multi-aspect Data . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2 Spectral Clustering on Traditional One-Aspect Data . . . . . . . . . . . . . 105
5.2.1 Fundamental Concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.2.2 Spectral Clustering Approach on One-Aspect Data . . . . . . . . 108
5.3 Spectral Clustering Methods on Multi-aspect Data . . . . . . . . . . . . . . 110
5.3.1 Multi-view Spectral Clustering Methods . . . . . . . . . . . . . . . . . 110
5.3.2 MTRD Spectral Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.4 Chapter Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6 Learning Consensus and Complementary Information
for Multi-aspect Data Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.2 Overview of Learning Consensus and Complementary
Information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
6.3 Learning Consensus and Complementary Information Using
NMF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.3.1 NMF-Based Methods Focused on Learning
the Consensus Information . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.3.2 NMF-Based Methods Focused on Enhancing
the Complementary Information . . . . . . . . . . . . . . . . . . . . . . . . 136
6.3.3 NMF-Based Methods Focused on Enhancing
Consensus and Complementary Information Both . . . . . . . . 138
6.4 Learning Consensus and Complementary Information Using
Subspace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
6.4.1 Subspace-Based Methods Learning the Consensus
Information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
6.4.2 Subspace-Based Methods Learning
the Complementary Information . . . . . . . . . . . . . . . . . . . . . . . . 140
6.4.3 Subspace-Based Methods Learning Both Consensus
and Complementary Information . . . . . . . . . . . . . . . . . . . . . . . 141
6.5 Learning Consensus and Complementary Information Using
Spectral Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.5.1 Spectral Methods Learning Consensus
and Complementary Information . . . . . . . . . . . . . . . . . . . . . . . 144
6.6 Summary of Constraints and Regularizations Designed
for Learning the Consensus and Complementary Information . . . . . 146
6.6.1 For Learning the Consensus Information . . . . . . . . . . . . . . . . 147
6.6.2 For Learning the Complementary Information . . . . . . . . . . . . 147
6.7 Chapter Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
viii Contents

7 Deep Learning-Based Methods for Multi-aspect Data


Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.2 Autoencoder-Based Multi-view Data Clustering . . . . . . . . . . . . . . . . 153
7.2.1 Introduction to Autoencoder . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
7.2.2 AE-Based Clustering for One-View Data . . . . . . . . . . . . . . . . 155
7.2.3 AE-Based Clustering for Multi-view Data . . . . . . . . . . . . . . . 158
7.3 GAN-Based Multi-view Data Clustering . . . . . . . . . . . . . . . . . . . . . . . 164
7.3.1 Introduction to GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
7.3.2 GAN-Based Clustering for One-View Data . . . . . . . . . . . . . . 165
7.3.3 GAN-Based Clustering for Multi-view Data . . . . . . . . . . . . . 168
7.4 Deep Matrix Factorization-Based Multi-view Clustering . . . . . . . . . 172
7.4.1 Deep Matrix Factorization (DMF)-Based Framework
Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
7.4.2 DMF-Based Clustering on One-View Data . . . . . . . . . . . . . . . 174
7.4.3 DMF-Based Clustering on Multi-view Data . . . . . . . . . . . . . . 176
7.4.4 Remarks: Deep Semi-NMF and Deep-NMF . . . . . . . . . . . . . . 181
7.5 Chapter Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Chapter 1
Multi-aspect Data Learning: Overview,
Challenges and Approaches

Abstract Multi-aspect data, which represents information from multiple perspec-


tives, is becoming increasingly common and important. This is because such data
has the ability to incorporate diverse information, enabling machine learning algo-
rithms to accurately learn the relationships within the data and provide informative
outcomes. This chapter provides an overview of multi-aspect data and discusses the
various ways these aspects can be represented, such as different types or views. Sev-
eral examples of such datasets are presented. Additionally, the chapter briefly intro-
duces the multi-aspect data clustering problem and explores common approaches for
finding clustering solutions.

Keywords Multi-type relational data · Multi-view data · Multi-type relational


data clustering · Multi-view data clustering

1.1 Introduction

Multi-aspect data represents information about entities/objects (such as customers,


events etc.) from various perspectives, encompassing multiple types of relationships
or features. When a dataset contains multiple types of relationships to represent
information, it is referred to as Multi-type Relational Data (MTRD). On the other
hand, when a dataset represents information through multiple views, it is known
as Multi-view data. This chapter provides an overview of multi-aspect data and the
multi-aspect data clustering problem, with a focus on essential concepts. It analyzes
the relationship between MTRD and multi-view data, highlighting the challenges
associated with each dataset type.
In MTRD, there are various types of objects and multiple relationships among
these interrelated objects. Each object type is defined by a set of features and there
are several instances that consist of different combinations of these features. Each
instance is referred to as an entity or object, such as a customer or an event. Enti-
ties within the same object type exhibit intra-type relationship, while entities of
different object types encode inter-type relationship.

© Springer Nature Switzerland AG 2023 1


R. Nayak and K. Luong, Multi-aspect Learning, Intelligent Systems Reference
Library 242, https://doi.org/10.1007/978-3-031-33560-0_1
2 1 Multi-aspect Data Learning: Overview, Challenges and Approaches

An example of MTRD is information presented on a social network like Twitter. It


involves three types of objects: Users, Tweets and Terms. Objects within the “Users”
type have intra-type relationships based on connections such as retweets, replies and
mentions. Similarly, objects within the “Tweets” type have intra-type relationships
based on representation, such as common topics or mentions of a common location,
and so on. Additionally, objects across these object types share inter-type relation-
ships, such as posting (between Users and Tweets), using (between Users and Terms),
or containing (between Tweets and Terms), as illustrated in Fig. 1.1.
Another example of MTRD is a web search system that includes four object types:
Webpages, Users, Queries and Words, along with different types of relationships.
These relationships include issuing (between Users and Queries), viewing (between
Users and Webpages), referring (between Queries and Webpages) and containing
(between Queries and Words or between Webpages and Words), as illustrated in
Fig. 1.2.
Examples of multi-view data are provided in Fig. 1.3, where data can be sourced
from multiple sources and each source can be considered a view. For example,

Fig. 1.1 An example of multi-type relational data with three object types: Users, Tweets and Terms
and various relationships between them

Users Webpages

a11 a12 a13 a14 viewing 0 0 x 0 x


a21 a22 a23 a24 0 0 0 x 0
issuing containing
a31 a32 a33 a34 referencing x 0 0 x 0
a41 a42 a43 a44 0 0 x 0 x

Relationships between objects of containing Each inter-type relationship


each type will be encoded in each Queries Words between two different objects
affinity matrix, e.g., the pairwise types will be encoded in each
similarity matrix of users. inter-type relationship matrix, e.g.,
the webpages-words co-occurence
matrix.

Fig. 1.2 Another example of multi-type relational data with four object types: Users, Webpages,
Queries and Terms and various relationships between them
1.1 Introduction 3

Image

Text

a. b.
Edge

Fourier

Texture

c. d.

Fig. 1.3 Examples of multi-view data [72]

each newspaper forms a view in Fig. 1.3a (e.g., news from BBC, Yahoo etc.), or
each source can come in different forms such as text, image as in Fig. 1.3b. The
multilingual dataset as shown in Fig. 1.3c is a typical multi-view dataset where each
language type corresponds to a view and each document is represented by different
language translations. An image can be described by many different features such
as Edge, Fourier or Texture as in Fig. 1.3d. Each type of feature represents a unique
view in the dataset.
With the advancements in data collection and storage technologies, multi-aspect
data has become prevalent. Both MTRD and multi-view datasets share the character-
istic of providing complementary information for the learning process, but they focus
on different aspects, relationship types, or views. This book treats these two dataset
types as multi-aspect data, where different aspects in multi-view data correspond to
different views, and different object types along with their associated relationships
constitute different aspects in MTRD data.
Due to the incorporation of rich information, customized machine learning algo-
rithms are required to leverage multiple relationships and types present in multi-
aspect data, resulting in informative outcomes for supervised or unsupervised learn-
ing tasks. This book primarily focuses on the unsupervised machine learning
task of clustering, which aims to extract useful information from unlabelled data
by identifying natural groupings based on similarities.
Clustering has been extensively studied in various fields, including data mining,
text mining, image processing, web analysis, and bioinformatics. Clustering methods
designed for traditional data, where samples are represented by a single type of feature
or considered from a single view, need to be modified. Customized multi-aspect data
4 1 Multi-aspect Data Learning: Overview, Challenges and Approaches

Fig. 1.4 Content structure of the chapter

clustering methods should accurately explore and identify the underlying structure
while extracting useful and meaningful knowledge. Learning methods need to exploit
the latent relatedness between samples and different feature objects in MTRD, as
well as the latent properties of data in each view representation in multi-view data
[47, 52, 73].
Given the necessity of considering all available information to derive meaningful
outcomes and the inherent complexity of multi-aspect data, clustering on MTRD
and multi-view data remains a challenging problem that deserves careful attention.
A plethora of MTRD and multi-view clustering methods have been developed based
on concepts such as graph partitions (e.g., spectral clustering) [19, 38, 39, 47, 64],
subspace learning [12, 28, 75, 80], and nonnegative matrix factorization (NMF)
[33, 37, 73, 74, 94]. These approaches can identify underlying structures in multi-
aspect data and have demonstrated improved performance compared to traditional
clustering methods. Each approach has its own strengths and limitations, which will
be detailed in this book for readers’ understanding.
The structure of the chapter is depicted in Fig. 1.4.

1.2 Multi-type Relational Data

An MTRD dataset comprises various types of objects and multiple relationships


among these interconnected objects. Each aspect can be represented by an object
type in the dataset, along with the associated relationships between the object types.
For instance, the MTRD dataset shown in Fig. 1.5 has three aspects: (1) Webpages
and the relationships between Webpages and other object types; (2) Hyperlinks and
the relationships between Hyperlinks and other object types; and (3) Terms and the
relationships between Terms and other object types.
1.2 Multi-type Relational Data 5

Terms Hyperlinks
t1 h1
h2
t2 t3

t4 h3

t6 t5 h4

h5

t7 h6
t8 w1
t9 h7
w3
w2
w4

w5
w6

w8
w7
w9
Webpages

Fig. 1.5 An example of MTRD with three object types: Webpages, Terms, Hyperlinks. The intra-
type relationships are represented as solid lines and inter-type relationships are represented as dotted
lines

1.2.1 Object Type, Objects

An object type refers to a collection of objects of the same data type. For example, the
Webpages object type consists of several webpage objects or instances, denoted as
w1 , w2 , etc., in the MTRD web search system dataset presented in Fig. 1.5. MTRD
encompasses multiple object types. In the given example, there are three distinct
object types corresponding to three different aspects: Webpages, Hyperlinks, and
Terms. The Webpages object type is referred to as the sample object type, while
Hyperlinks and Terms are considered as feature object types.

1.2.2 Relationships
MTRD involves three types of relationships: inter-type, intra-type and association
relationships.

a. Inter-type relationship and Intra-type relationship

The inter-type relationship in MTRD describes the relationships between objects


of two different object types. Meanwhile, the intra-type relationship models the
6 1 Multi-aspect Data Learning: Overview, Challenges and Approaches

Fig. 1.6 Association


relationship

relationships between objects of the same type. In the example depicted in Fig. 1.5,
the inter-type relationships are the connections between objects of Webpages and
Terms, between objects of Webpages and Hyperlinks, and between objects of Terms
and Hyperlinks, indicated by dashed lines. On the other hand, the intra-type relation-
ships are the connections between objects within Webpages, within Hyperlinks, or
within Terms, represented by solid lines. Each inter-type or intra-type relationship
can be encoded in a matrix, which becomes an input for the MTRD learning process.

b. Association relationship

Intra-type and inter-type relationships capture the similarity between individual


objects within the object types. The association relationship captures the relationships
between groups of objects [47]. Identifying and utilizing the association relationship
or the interactions between groups to learn a higher-order to lower-order mapping can
enhance clustering performance. An illustration of association relationships between
groups is shown in Fig. 1.6, which represents the relations between different groups
of different object types. In the figure, the red clusters represent document groups
and the green clusters represent term groups. An association relationship can exist
between a document cluster and a term cluster, as indicated by the dashed line in the
figure.

1.2.3 Bi-type Data

A special case of MTRD is known as bi-type data, where the dataset contains only two
object types: the sample object type and the feature object type. The clustering task
on bi-type data is referred to as co-clustering or bi-clustering, where the clustering
task is performed simultaneously on the rows and columns of the input data matrix.
While the data samples are grouped based on their features, the features can be
clustered using their distributions across the data samples. There are various real-
world applications that exhibit the duality between data samples and features, which
1.3 Multi-view Data 7

can be treated as bi-type data. Examples include text mining (documents and terms),
microarray analysis (gene expression and condition), and recommendation systems
(users and items).
The co-clustering problem can be viewed as a transition from traditional single-
aspect data to multi-aspect data clustering. By simultaneously clustering features
and samples, the clustering output for samples can enhance the clustering output for
features, and vice versa. This success of co-clustering has led to the extension of the
concept of exploiting latent relationships to MTRD and multi-view clustering.

1.3 Multi-view Data

A multi-view dataset can be viewed as multi-aspect data, where each view is con-
sidered an aspect. Data samples are represented by multiple views, also known as
multiple features. For example, in the Web search system depicted in Fig. 1.7, the
data samples are Webpages, which are represented by two types of features: Terms
and Hyperlinks. This generates two view data, as illustrated by the two dotted large
rectangles in Fig. 1.7.
Regarding the relationship concept in multi-view data, there are relationships
between samples within each view (e.g., sample-sample relationships denoted by
solid lines in Fig. 1.7), which have the same meaning as intra-type relationships in

Terms
Hyperlinks
t1 h1

t2 t3
w1 h2
t4
h3
t6 t5 w3

w2 h4
w4
h5
t7
h6
t8 w5
t9 w6
h7
w8
w7

Webpages w9
Data view 2
Data view 1

Fig. 1.7 Examples of multi-view data. The multi-view dataset is represented by two views: Terms
and Hyperlinks
8 1 Multi-aspect Data Learning: Overview, Challenges and Approaches

Fig. 1.8 An example of partial multi-view dataset

MTRD. There are also relationships between samples and features (e.g., sample-
feature relationships denoted by dashed lines in Fig. 1.7), which exhibit the same
semantic meaning as inter-type relationships in MTRD. However, multi-view data
may not capture the relationships between different feature types of different views
or feature-feature relationships within each view. It can be said that MTRD provides
more comprehensive information compared to multi-view data.

1.3.1 Partial Multi-view Data

A special but common case of multi-view data occurs when data is missing in some
views, referred to as incomplete or partial multi-view data [43, 61, 62]. An example is
a multi-lingual dataset where not all documents have equivalent translations in every
language. As illustrated in Fig. 1.8, documents d2 and d5 do not have representations
in view 1 (English terms), and documents d4 and d6 do not have corresponding
representations in view 2 (French terms).

1.3.2 Consensus and Complementary Information in


Multi-view Data

Multi-view data is considered to contain consensus and complementary information


(as shown in Fig. 1.9) for learning meaningful and informative outputs compared
to traditional single-view data [50, 82]. The consensus information is expressed
through the compatible (or correlated) latent structure shared among different data
views. The complementary information is expressed through the diverse (or distinct)
characteristics provided by each view. For example, in the multi-source news dataset
depicted in Fig. 1.3a, the common content of news across views represents the con-
sensus information, while the unique news appearing in each source exhibits distinct
1.4 Relationship Between MTRD and Multi-view Data 9

Fig. 1.9 Consensus and


complementary information
[49]

characteristics that complement each other. Both of these pieces of information are
important for clustering this multi-source data. An algorithm can benefit from learn-
ing the common content of news among the views (consensus information) to avoid
ambiguity or conflicts or redundancy. Simultaneously, it can also learn the distinct
characteristics of each source (complementary information) to bring diversity.
Several multi-view data learning methods have been proposed, and they vary
in terms of how they utilize these two characteristics of multi-view data [50, 82].
Since the data characteristics are unknown, effectively capturing both consensus and
complementary information from multi-view data is a non-trivial task. Therefore,
existing methods often focus on learning and enhancing either the consensus or the
complementary information.

1.4 Relationship Between MTRD and Multi-view Data

Both MTRD and multi-view data provide complementary information to the learn-
ing process compared to traditional one-aspect data. Each aspect in multi-aspect
data should contribute complementary information to the learning process, enabling
the exploration of comprehensive representations and meaningful clusters [82]. A
multi-view dataset can be considered an MTRD dataset. For example, the same multi-
aspect dataset can be treated as multi-view data, as shown in Fig. 1.7, or MTRD data,
as shown in Fig. 1.5. Although MTRD and multi-view data share similar concepts,
they differ in their utilization of those concepts. MTRD focuses on identifying and
learning relationships between different types, whereas multi-view data emphasize
views and the consensus data learned between the views.
The concept of relationships differs in multi-view and MTRD. In MTRD, the
two well-known types of relationships are inter-type and intra-type relationships. In
multi-view data, relationships may not be the primary focus, but one can expect to
learn sample-sample or sample-feature relationships. The association relationship
in MTRD refers to the relationship between different clusters of different object
types. In multi-view data, the association relationship can be defined between clusters
generated from different views.
10 1 Multi-aspect Data Learning: Overview, Challenges and Approaches

In addition to the complementary constraint, multi-view data requires the com-


patibility constraint to be satisfied, which means different data views should embed
a consensus latent structure. This principle ensures that the cluster structures across
all views consider the consensus structure while looking for groups. In contrast,
MTRD does not require the compatibility constraint to be satisfied, as its process of
simultaneously clustering all object types relies on leveraging the inter-relatedness
between object types to enhance the clustering performance of sample objects using
feature objects.

1.5 Real-World Multi-aspect Data Applications

This section presents a number of multi-aspect datasets that are generated by real-
world applications. For each application, example datasets are described and their
vital characteristics are highlighted.

1.5.1 Text Mining

Text mining is the process of knowledge discovery from text documents. There are
several text datasets that can be considered multi-aspect, where different types of
features or views can be analyzed to infer dependencies and extract useful infor-
mation. Different types of features or views can be analysed to infer dependencies,
instead of treating the dataset as a single aspect where each object is described by a
concatenated features set. For example, one can leverage document neighbourhood
information and term weights as two distinct views to facilitate better learning [7].

1.5.1.1 Multilingual Reuters Dataset

This text-based dataset consists of observations (i.e., documents) with multiple view
representations corresponding to multiple languages. The most popular dataset used
for this purpose is the RCV1/RCV2 collection [4], which includes more than 100,000
documents in five languages: English, French, German, Italian, and Spanish. Each
language represents a view. The dataset is pre-processed and available in a “bag of
words” format1 . This dataset is useful for supervised, semi-supervised, and unsu-
pervised multi-view learning tasks, where the objective is to classify a document
into a category by exploiting its multi-lingual features. It is also used as a bench-
mark dataset in partial multi-view learning, where not every document is presented
in every language [29, 81]. In supervised or semi-supervised tasks, the entire dataset

1https://archive.ics.uci.edu/ml/datasets/Reuters+RCV1+RCV2+Multilingual,
+Multiview+Text+Categorization+Test+collection.
1.5 Real-World Multi-aspect Data Applications 11

is used for training and testing, as the bigger the training set, the more accurate the
result [4]. In unsupervised learning, its subsets have been used [12, 36, 51].

1.5.1.2 Multi-sources Dataset

This text-based dataset2 is a collection of news articles from different sources such
as BBC, Reuters, and The Guardian. Although the dataset contains about 1,000 news
articles in total, only a few hundred stories appear in all three sources. Each news
story is annotated with one of six topical labels, and the three sources are equivalent to
three views in the multi-view context. This dataset is commonly used as a benchmark
in unsupervised learning methods, where the objective is to classify a document into
one of the categories by exploiting features that are complementary and consistent
across all publications [12, 37].

1.5.2 Image Mining

Image mining involves knowledge discovery from images. An image can be pre-
sented by many aspects, that is, many different types of features can be extracted by
applying different filters. Exploiting multiple aspects or types of features enhances
classification or clustering performance.

1.5.2.1 Multi-view Handwritten Digit Numbers

This image-based dataset consists of features extracted from a collection of Dutch


utility maps, representing handwritten numerals from 0 to 9 [12]. The dataset includes
six feature sets, corresponding to six views: 76 Fourier coefficients of the character
shapes, 216 profile correlations, 64 Karhunen-Love coefficients, 240 pixel averages
in 2x3 windows, 47 Zernike moments, and 6 morphological features. These different
views capture distinct aspects of the handwritten digits and are used for multi-view
data learning [12].

1.5.2.2 Multi-view Caltech 101

This image-based dataset contains a collection of images belonging to 101 categories,


with approximately 40 to 800 images per category, totalling 9,000 images. For the
multi-view setting, five types of features are extracted from all images, including 48
dimension Gabor features, 40 dimension wavelet moments, 254 dimension CEN-
TRIST features, 1,984 dimension HOG features, 512 dimension GIST features set

2 http://mlg.ucd.ie/datasets/3sources.html.
12 1 Multi-aspect Data Learning: Overview, Challenges and Approaches

and 928 dimension LBP features. Two subsets of this dataset, Caltech7 (Cal7) and
Caltech20 (Cal20), are commonly used in supervised, semi-supervised, and unsuper-
vised learning tasks [23, 44, 65]. Caltech7 (Cal7) includes 1,474 images organised
into 7 classes that are Face, Motorbikes, Dolla-Bill, Garfield, Snoopy, Stop-Sign and
Windsor-Chair. Caltech20 (Cal20) contains a total of 2,386 images organised into
20 classes that are Face, Leopards, Motorbikes, Binocular, Brain, Camera, Car-Side,
Dolla-Bill, Ferry, Garfield, Hedgehog, Pagoda, Rhino, Snoopy, Stapler, Stop-Sign,
Water-Lilly, WindsorChair, Wrench and Yin-yang.

1.5.2.3 Multi-view Face Datasets—Yale Datasets

The Yale dataset3 contains 165 grayscale face images in GIF format of 15 individ-
uals. Each subject is represented by 11 images with different conditions such as
facial expressions, illuminations, with/without glasses, and lighting conditions. This
dataset was later extended to include 38 subjects, each with 64 face images captured
under various lighting conditions and poses, known as Yale B. Three different views,
namely intensity histogram, Local Binary Pattern (LBP), and Gabor features [86],
are commonly used in the context of multi-view data learning [16, 79, 83, 89].

1.5.3 Bio-informatics

While single-omics datasets are valuable for biological and medical research, the
emergence and analysis of multi-omics data provide more insightful knowledge. A
famous multi-aspect bioinformatics dataset is the Cancer Genome Atlas (TCGA),
which is the largest cancer genome dataset [84]. This dataset includes different per-
spectives such as gene expression, DNA methylation, and miRNA expression, which
can be considered as different views. Different subsets, such as Pancreatic adenocar-
cinoma (PAAD), esophageal carcinoma (ESCA), colon adenocarcinoma (COAD),
and head and neck squamous cell carcinoma (HNSC), have been used in machine
learning tasks [63, 84]. Many other subsets related to different types of cancers are
utilized in research [54]. For example, the TCGA.BRC dataset4 contains samples
from patients with invasive tumors belonging to one of four different categories:
Her2, Basal, LumA, and LumB. The clustering task can help identify correct groups
of patients based on complementary information from different feature types.

3 http://vision.ucsd.edu/content/yale-face-database.
4 https://journals.plos.org/plosone/article/figure?id=10.1371/journal.pone.0216904.t001.
1.6 Multi-aspect Data Clustering 13

1.5.4 Social-Network Mining

The immense popularity of social networks has created a great opportunity for busi-
nesses, citizens, politicians, and other services to reach society. Social network min-
ing is commonly used for knowledge discovery in social networks to unveil unseen
patterns of users’ usage. These methods are usually based on either the connections
between users (i.e., structural data) or the content that they post (i.e., content data).
The structural or content data can be generated in various ways. The real potential of
social network data can be fully realized when this data is seen as multi-aspect data,
where each type of data can be considered as a view or a type, and their interdepen-
dencies can be systematically analyzed.
Recently, researchers have started to analyze social network data using multi-
aspect learning methods for community detection [2, 30, 55]. The objective is to
find community groups of users with the same interests by applying multi-aspect
clustering. Multi-aspect data is generated by organizing tweets of users registered
under many group accounts obtained from TrISMA5 [30]. Several Twitter datasets
that are associated with group accounts related to Cancer, Health, and Sports were
processed to extract various structural and content features using the users’ connec-
tions and tweets. A set of groups under a specific domain, where Twitter accounts
can be identified, was used to collect posts and interaction information. The retweet,
reply, and mention interactions related to each group were extracted and combined
across all groups to represent interaction relationships. All tweets posted by a user
within a given account were combined to form a single media post that represents
the user’s content data. Each group in each domain is considered the ground-truth
community used to benchmark the algorithmic outcome.

1.6 Multi-aspect Data Clustering

Clustering is an unsupervised machine learning technique used to group observations


(sample objects) into distinct groups based on their similarities, such that objects in
the same group are similar and objects in different groups are dissimilar. It has long
been employed to extract valuable information about patterns and structures from
unlabeled data, revealing natural groupings. This technique has been extensively
studied in various fields, including data mining, text mining, image processing, social
network analysis, web analysis, and bioinformatics, providing insightful implications
for decision-making. However, most existing clustering methods are designed for
traditional homogeneous data, where samples are represented by a single type of
feature or viewed from a single perspective.
Directly applying traditional one-way clustering methods to multi-aspect data can
yield unrealistic and unsatisfactory results. These methods fail to leverage the latent
relationships between samples and different feature objects in MTRD or the latent

5 https://trisma.org/.
14 1 Multi-aspect Data Learning: Overview, Challenges and Approaches

properties of data in each view representation in multi-view data [47, 73]. As a result,
various learning methods have emerged specifically for clustering multi-aspect data,
aiming to accurately identify the underlying structure and extract more meaningful
and useful knowledge.
Numerous MTRD and multi-view clustering methods have been developed based
on concepts such as graph partitioning [19, 38, 39, 47, 64], dimensionality reduction
[12, 28, 33, 37, 73, 94], and deep learning [5, 22, 58, 78]. These methods can
effectively identify the underlying structures in multi-aspect data and demonstrate
improved performance compared to traditional clustering methods. Clustering on
multi-aspect data involves utilizing all available information to explore dependencies
and latent relationships among all aspects, resulting in cohesive groups in the data.
In the case of MTRD, clustering aims to simultaneously cluster multiple related
data types by effectively exploring all intrinsic relationships, uncovering the true
latent structures within the data [47]. By processing all types and relations simultane-
ously, clustering analysis considers all object types and their correlations, analyzing
the geometric structure of the data and producing accurate and meaningful clustering
solutions.
For multi-view data, the challenge lies in effectively leveraging the data from all
available views to obtain an outcome that incorporates complementary and compati-
ble information [82, 88]. In multi-view data learning, the focus is not on utilizing all
relationships, as in MTRD, but on leveraging consensus and complementary infor-
mation embedded in all views.
This book will systematically present clustering methods applied to these two
types of datasets, effectively discovering meaningful clusters by utilizing all valuable
supplementary information and correlations present in the data.

1.6.1 Why Design Customized Multi-aspect Clustering


Methods?

Multi-aspect learning is advantageous as it incorporates compatible and complemen-


tary information, resulting in meaningful clusters and improved clustering perfor-
mance. However, due to the multiple aspects involved, the underlying multi-aspect
data model is often sparse and high-dimensional [83, 85].
A naive approach to clustering multi-aspect data is to concatenate all aspect data
into a single view or matrix and then apply a traditional clustering method to this
view. This approach assumes that by including all aspects in the concatenation, the
clustering should utilize the structures of the data from all views. However, due to the
sparsity, high dimensionality, and fewer feature co-occurrences in the concatenated
data, the single concatenated view fails to capture the interrelatedness between the
data and leads to inferior performance. Prior research [11, 47] has shown that concate-
nating all views’ data does not yield high-quality clustering solutions for multi-aspect
data. The concept of distance calculation becomes meaningless in high-dimensional
1.6 Multi-aspect Data Clustering 15

Fig. 1.10 Sparseness in text with higher dimensional representation [70] and the distance concen-
tration problem [93]

space [10, 93]. This phenomenon, known as the distance concentration problem
[93], is explained in Fig. 1.10. It illustrates how the differences in distances among
instances become negligible due to sparseness and fewer occurrences resulting from
increased dimensionality.
The vector space model (VSM) is a popular data model used in clustering, which
records the (weighted) presence/count of features in an object [24] (an example is
shown in Fig. 1.10b). The high-dimensionality of multi-aspect data leads to a sparse
VSM representation, resulting in fewer feature co-occurrences (as shown in Fig.
1.10a). With the increase in dimensionality, it becomes challenging to distinguish
between the nearest and farthest neighbours, as depicted in Fig. 1.10c. Identifying
similar instances is fundamental to clustering methods. Consequently, many existing
methods become less effective in determining similarity and identifying near and
far points using distance measurements. The sparse data representation also poses
challenges for identifying similarity based on density estimation [6]. Due to the lack
of density variations (spikes), it is difficult to identify subgroups.
Therefore, most existing multi-aspect learning methods attempt to learn the low-
dimensional latent features of data as a first step for further processing. These
dimensionality reduction-based approaches, such as those based on a non-negative
matrix factorization (NMF) framework [33, 73, 88] or subspace learning [59, 60],
have received significant attention. Among these approaches, multi-aspect clustering
methods that utilize NMF have shown to be more effective due to their ability to trans-
form features and learn part-based representations that are particularly suitable for
clustering [1, 40, 41]. Subspace learning-based methods learn part-based representa-
tions by selecting a high-dimensional subspace. However, they do not support feature
16 1 Multi-aspect Data Learning: Overview, Challenges and Approaches

transformation from higher to lower order, and therefore, are usually outperformed
by NMF.

1.6.2 Multi-aspect Data Clustering: Approaches

A wide range of MTRD and multi-view clustering methods have been developed
based on the concepts of non-negative matrix factorization (NMF) [33, 37, 73, 74,
94], subspace learning [12, 28, 75, 80], graph theory (spectral clustering) [19, 38,
39, 47, 64], and deep learning [5, 22, 58, 78].
This section will briefly review all multi-aspect data clustering methods and high-
light the advantages and disadvantages of each approach. The subsequent chapters
will then discuss each of these approaches in detail.
Before going into detail, let us present the input and expected output of a multi-
aspect clustering algorithm.
For MTRD clustering, the input consists of a set of relationship matrices that repre-
sent the inter- or intra-relationships of multiple object types present in the dataset. The
output is the clustering labels for objects of each object type. For example, to cluster
the MTRD dataset given in Fig. 1.1, an MTRD clustering method may receive three
inter-type relationship matrices representing the relationships: (1) between Users
and Tweets, (2) between Users and Terms, and (3) between Terms and Tweets. The
algorithm aims to obtain clustering labels for all object types or a target object type
such as Tweets or Users, depending on the application.
For multi-view clustering, the input consists of a set of all view matrices, which
represent the samples via different view features. The output is the clustering label
information of samples that is learned concerning the consensus and complementary
information of all views. For example, to cluster the multi-view data given in Fig.
1.7, a multi-view clustering algorithm receives two data matrices of two views, (1)
Webpages represented by Terms and (2) Webpages represented by Links, to obtain
the consensus clustering labels for samples, i.e., Webpages.

1.6.2.1 Non-negative Matrix Factorization Approach

NMF [40, 41] seeks the decomposition of an original data matrix (i.e., sample ×
feature) into multiple low-order matrices. NMF has been proven to be capable of
learning part-based representations [40], making it widely used in aiding the clus-
tering task by finding a low-rank representation that embeds important features for
discovering the original latent structure [40].
The NMF framework is flexible and can perform both hard and soft clustering,
making it convenient to be extended to the multi-aspect data problem [13, 40].
However, applying NMF to MTRD and multi-view data presents different challenges.
In the case of MTRD, NMF is used to factorize different input matrices simulta-
neously and learn a low-dimensional representation that captures the most important
1.6 Multi-aspect Data Clustering 17

features for each object type. This low-dimensional representation is then utilized
for the clustering task in a subsequent step. The challenge in using NMF for MTRD
is effectively leveraging all valuable relationships despite the inherent complexity of
the data.
When applied to multi-view data, NMF is used to factorize all input matrices from
different views simultaneously and learn a consensus low-dimensional representa-
tion that incorporates the most consensed information from all views. The challenge
in using NMF for multi-view data lies in exploiting all available view data to learn
a consensus low-dimensional representation that embeds complementary and com-
patible information from each view. Different approaches to achieving this goal will
be further discussed in this book.
A limitation of NMF for both traditional single-view and multi-view data is its
inability to preserve the local geometric structure of the original data. To overcome
this limitation, manifold learning [9], a technique known for non-linear dimension-
ality reduction by preserving the local geometric structure of the original data in the
projected space, is proposed to be incorporated into the NMF framework. This is
accomplished by ensuring the distances between points within a neighbourhood area
using the k-nearest neighbor (kNN) graph. The combination of NMF and manifold
learning has been a popular approach in many state-of-the-art methods for learn-
ing the true embedded low-dimensional structure from data before conducting the
clustering task, both for traditional single-aspect and multi-aspect data [13, 32, 33].
Although manifold learning has been shown to help achieve more meaningful
clusters by preserving the local geometric structure of the data during the high-to-
low dimensional mapping process, it also introduces additional difficulties. Manifold
learning, relying on the kNN graph, requires addressing the choice of neighborhood
size. Applying manifold learning to multi-aspect data is not a straightforward exten-
sion due to the complexity of multiple aspects. For example, determining the correct
neighborhood size for each object type poses a challenging problem. This book exam-
ines how multi-aspect data clustering methods effectively deal with these challenges
by combining the NMF framework and manifold learning to learn meaningful out-
comes for multi-aspect data. It also highlights significant gaps where future work can
be focused. Though manifold learning has been proven to help to cluster to achieve
more meaningful clusters because of the ability to ensure the local geometric struc-
ture of data is unchanged during the high-to-low order mapping process, however,
manifold learning also brings other difficulties to the problem. The manifold learning
due to relying on a kNN graph must deal with choosing the neighbourhood size. The
application of manifold learning on multi-aspect data is not a trivial extension due to
the complexity of multiple aspects. For example, setting the correct neighbourhood
size for each object type is not an easy problem. This book examines how multi-
aspect data clustering methods deal with these challenges in combining the NMF
framework and manifold learning effectively to learn the meaningful outcomes for
multi-aspect data and highlight significant gaps for future works.
18 1 Multi-aspect Data Learning: Overview, Challenges and Approaches

1.6.2.2 Subspace Clustering Approach

Subspace learning-based clustering, also known as subspace clustering, is an approach


that seeks embedded subspaces of the data by learning how the original data can be
self-represented. In recent years, subspace learning has gained significant attention
in multi-view learning due to its ability to learn the latent subspaces of data points
through self-representation. This approach assumes that data points can be drawn
from multiple subspaces and learns how the data is represented within those sub-
spaces [25, 26].
When applied to multi-view data, subspace clustering analyzes the input matrices
from multiple views to learn a consensus representation by simultaneously seeking
self-representations of data from all views. A traditional clustering method can then
be applied to this newly learned consensus representation, which encodes the latent
subspaces of the data, to obtain clustering labels. This typical process has been used
in various works [12, 28, 87]. Similar to NMF, subspace clustering can also be con-
sidered a dimensionality reduction-based approach for multi-view data to address the
“curse of dimensionality” [26, 59]. To enhance the learning of more comprehensive
representations, manifold learning techniques have also been explored in subspace
clustering, as evidenced by numerous recent works [59].
While there is no direct deployment of subspace clustering for MTRD to the
best of our knowledge, one can expect a similar process of simultaneously learning
self-representations from different MTRD input relationships. These newly learned
representations can then be used to obtain clustering labels for multiple object types.
Subspace learning can be considered as NMF’s counterpart for the dimensionality
reduction task [1, 59]. However, it is important to note that while the NMF framework
serves as a feature transformation technique, subspace learning focuses on feature
selection. For highly related data, such as text data, NMF is selected to retain the
relations from the original data when projecting it to a lower-dimensional space.

1.6.2.3 Spectral Clustering Approach

Spectral clustering [19, 57] is an effective clustering approach based on the estab-
lished and well-studied spectral graph theory [27]. It utilizes graph partitioning to
find the optimal cut of a data graph, which is determined using the first eigenvectors
of the Laplacian graph constructed from the input affinity matrix. This approach has
been successfully applied to traditional single-view data [8, 57].
When applied to MTRD, spectral clustering simultaneously partitions all simi-
larity graphs representing different object types. The only spectral-based clustering
method for MTRD models all input data as a single large graph and partitions each
object type based on its k eigenvectors. These eigenvectors are computed and itera-
tively updated throughout the learning process to discover the hidden structures of
all object types [47].
When applied to multi-view data, spectral clustering aims to partition the sim-
ilarity graph into different components based on each view and learn a consensus
1.6 Multi-aspect Data Clustering 19

partition among the similarity graphs of all views. Many multi-view spectral cluster-
ing methods utilize the well-defined spectral clustering framework [57] as the basis
and focus on learning the optimal consensus graph cut.
In spectral clustering, methods can be distinguished based on how they learn the
consensus affinity matrix for all views [34, 71, 91, 92], the consensus Laplacian
graph [38, 44], or the consensus eigenvectors [14, 15, 39, 48].
Although spectral clustering has been shown effective and is well-defined with the
spectral graph theory, it inherits the limitation of graph-based methods in working
with large-scale datasets.

1.6.2.4 Deep Learning-Based Approach

This is an emerging area of multi-aspect learning. There are three sub-approaches


based on deep learning that have been sparingly used in multi-view clustering prob-
lems. These approaches are Autoencoder (AE), Generative Adversarial Network
(GAN) and Deep Matrix Factorization (DMF).

Autoencoder-Based Approach

Autoencoder is a deep neural network that can be used as a dimensionality reduction


technique for various data learning tasks. It consists of three components: an encoder,
which encodes the original data into a code part containing the most important learned
features, and a decoder, which reconstructs the data from the code part. It uses a
reconstruction loss function to minimize the dissimilarity between the original data
and the reconstructed data while learning the code part (i.e., the latent representation).
When applied to a clustering task, AE is used to learn the latent features of the original
data embedded in the code part, represented by a low-rank matrix. This low-rank
matrix is then fed into a clustering algorithm to obtain clustering results [3, 53, 66].
Although it would be interesting to investigate how AE deals with learning multi-
ple relationships present in MTRD, there is currently no AE-based clustering method
specifically designed for MTRD in the literature.
For multi-view data, the AE-based learning approach is similar to other dimension-
ality reduction-based techniques such as NMF. Different AE networks are applied to
each view to learn the encoded data. These encoded data, represented by a low-rank
matrix for each view, are used to learn a consensus representation, which becomes the
input for a clustering algorithm to obtain clustering labels [5, 22, 78]. The AE frame-
work allows flexibility in conducting multiple view data fusion at different stages,
including simultaneous integration [21, 46]. Existing AE-based multi-view methods
vary based on the deep network structure, such as Deep Feedforward networks [5,
22, 78], Convolutional networks [21, 46], and Denoising networks [58].
Since AE focuses on learning the reconstruction of the original data, it may
fail to learn important features that are useful for clustering. To address this issue,
AE-based clustering methods incorporate various advanced regularizations to improve
their performance [53, 66].
20 1 Multi-aspect Data Learning: Overview, Challenges and Approaches

GAN-Based Approach

The Generative Adversarial Network (GAN) [31] is a popular unsupervised deep


neural network that consists of two competing models: the generator G and the
discriminator D. The generator is a deep neural network that aims to generate data
samples by learning features and representations from real training data. Its objective
is to generate data that resembles the real data distribution. On the other hand, the
discriminator is also a deep neural network that aims to distinguish between gener-
ated data and real data. It acts as a binary classifier, determining whether a given data
sample is real or generated. The generator and discriminator are trained simultane-
ously in an adversarial manner, where the generator aims to fool the discriminator,
while the discriminator aims to correctly classify real and generated samples. The use
of both generator and discriminator networks in GAN allows for the simultaneous
unsupervised training of both networks.
Although GAN was not originally designed for feature learning, GAN-based
methods have been developed to learn features for downstream clustering tasks.
These methods typically involve additional networks or layers that can encode data
features. A handful GAN-based methods have been proposed for one-view data [17,
56, 67], multi-view data [45, 77], and incomplete multi-view data [76, 81]. These
methods leverage the adversarial training framework of GANs to learn discrimina-
tive and informative features that can be utilized for clustering tasks.

DMF-Based Approach

The recently emerged DMF approach can be seen as an extension of the matrix fac-
torization framework that incorporates deep learning concepts. Similar to traditional
matrix factorization, the goal of DMF is to decompose an original matrix into multi-
ple factor matrices. However, instead of directly decomposing the matrix into factor
matrices, DMF employs a high-order architecture, decomposing it through multiple
layers, akin to a deep neural network.
The use of multiple layers in learning the factor matrices helps capture latent
non-linear relationships in the data, resulting in more comprehensive and accurate
representations for clustering and other learning tasks [68, 69, 90].
When applied to multi-view data, DMF follows a similar approach to traditional
shallow matrix factorization. However, due to the use of multiple layers, different
regularizations and fusion stages have been explored. Just as NMF [41] and Semi-
NMF [20] are commonly employed in shallow matrix factorization techniques, deep
matrix factorization-based approaches using these two frameworks have also been
developed for multi-view data [18, 35, 42, 90]. Chapter 7 of this book provides a
comprehensive investigation of all deep techniques for multi-view data.
References 21

1.7 Chapter Conclusion

In conclusion, multi-aspect data (including MTRD and multi-view data), which rep-
resents information from multiple perspectives, is gaining significance due to its
ability to incorporate diverse information and enable accurate learning of data rela-
tionships. MTRD represents information by multiple types of relationships, while
multi-view data represents information by multiple views. MTRD and multi-view
data share the property of providing complementary information for learning pro-
cesses, yet they focus on different aspects, relationship types, or views. This chapter
has provided an overview of multi-aspect data and discussed the challenges involved
in clustering such data. Subsequent chapters will delve into the techniques and algo-
rithms employed for clustering multi-aspect data, specifically MTRD and multi-view
data.

References

1. Aggarwal, C.C., Zhai, C.: A Survey of Text Clustering Algorithms, pp. 77–128. Springer US,
Boston, MA (2012)
2. Akbari, M., Chua, T.S.: Leveraging behavioral factorization and prior knowledge for commu-
nity discovery and profiling. In: Proceedings of the Tenth ACM International Conference on
Web Search and Data Mining, pp. 71–79. WSDM ’17, ACM, New York, NY, USA (2017)
3. Aljalbout, E., Golkov, V., Siddiqui, Y., Cremers, D.: Clustering with deep learning: taxonomy
and new methods. arXiv: abs/1801.07648 (2018)
4. Amini, M., Usunier, N., Goutte, C.: Learning from multiple partially observed views - an
application to multilingual text categorization. In: Bengio, Y., Schuurmans, D., Lafferty, J.D.,
Williams, C.K.I., Culotta, A. (eds.) Advances in Neural Information Processing Systems 22,
pp. 28–36. Curran Associates, Inc. (2009)
5. Andrew, G., Arora, R., Bilmes, J., Livescu, K.: Deep canonical correlation analysis. In: Inter-
national Conference on Machine Learning, pp. 1247–1255. PMLR (2013)
6. Ashour, W., Sunoallah, S.: Multi density DBSCAN. In: International Conference on Intelligent
Data Engineering and Automated Learning, pp. 446–453. Springer (2011)
7. Athukorala, S., Mohotti, W.: An effective short-text topic modelling with neighbourhood
assistance-driven NMF in twitter. Social Netw. Anal. Mining 12(1), 89 (2022)
8. Bach, F.R., Jordan, M.I.: Learning spectral clustering. In: Thrun, S., Saul, L.K., Schölkopf, B.
(eds.) Advances in Neural Information Processing Systems 16, pp. 305–312. MIT Press (2004)
9. Belkin, M., Niyogi, P.: Laplacian eigenmaps for dimensionality reduction and data represen-
tation. Neural Comput. 15(6), 1373–1396 (2003)
10. Beyer, K.S., Goldstein, J., Ramakrishnan, R., Shaft, U.: When is nearest neighbor meaningful?
In: Proceedings of the 7th International Conference on Database Theory, pp. 217–235. ICDT
’99, Springer, London, UK (1999)
11. Bickel, S., Scheffer, T.: Multi-view clustering. In: Proceedings of the Fourth IEEE International
Conference on Data Mining, pp. 19–26. ICDM ’04, IEEE Computer Society, Washington, DC,
USA (2004)
12. Brbić, M., Kopriva, I.: Multi-view low-rank sparse subspace clustering. Pattern Recognit. 73,
247–258 (2018)
13. Cai, D., He, X., Han, J., Huang, T.S.: Graph regularized nonnegative matrix factorization for
data representation. IEEE Trans. Pattern Anal. Mach. Intell. 33(8), 1548–1560 (2011)
22 1 Multi-aspect Data Learning: Overview, Challenges and Approaches

14. Cai, X., Nie, F., Huang, H., Kamangar, F.: Heterogeneous image feature integration via multi-
modal spectral clustering. In: CVPR 2011, June 2011, pp. 1977–1984
15. Cai, Y., Jiao, Y., Zhuge, W., Tao, H., Hou, C.: Partial multi-view spectral clustering. Neuro-
computing 311, 316–324 (2018)
16. Cao, X., Zhang, C., Fu, H., Liu, S., Zhang, H.: Diversity-induced multi-view subspace clus-
tering. In: 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June
2015, pp. 586–594
17. Chen, X., Duan, Y., Houthooft, R., Schulman, J., Sutskever, I., Abbeel, P.: Infogan: interpretable
representation learning by information maximizing generative adversarial nets. Adv. Neural
Inf. Process. Syst. 29 (2016)
18. Cui, B., Yu, H., Zhang, T., Li, S.: Self-weighted multi-view clustering with deep matrix fac-
torization. In: Asian Conference on Machine Learning, pp. 567–582 (2019)
19. Dhillon, I.S.: Co-clustering documents and words using bipartite spectral graph partitioning. In:
Proceedings of the Seventh ACM SIGKDD International Conference on Knowledge Discovery
and Data Mining, pp. 269–274. ACM, New York, NY, USA (2001)
20. Ding, C.H.Q., Li, T., Jordan, M.I.: Convex and semi-nonnegative matrix factorizations. PAMI
32(1), 45–55 (2010)
21. Dong, S., Xu, H., Zhu, X., Guo, X., Liu, X., Wang, X.: Multi-view deep clustering based on
autoencoder. In: Journal of Physics: Conference Series, vol. 1684, p. 012059. IOP Publishing
(2020)
22. Du, G., Zhou, L., Yang, Y., Lü, K., Wang, L.: Multi-view clustering via multiple auto-encoder.
In: Asia-Pacific Web (APWeb) and Web-Age Information Management (WAIM) Joint Inter-
national Conference on Web and Big Data, pp. 612–626. Springer (2020)
23. Dueck, D., Frey, B.J.: Non-metric affinity propagation for unsupervised image categorization.
In: 2007 IEEE 11th International Conference on Computer Vision, Oct 2007, pp. 1–8
24. El-Khair, I.A.: Term weighting. Encycl. Database Syst. 1, 3037–3040 (2009)
25. Elhamifar, E., Vidal, R.: Sparse subspace clustering. In: 2009 IEEE Conference on Computer
Vision and Pattern Recognition, June 2009, pp. 2790–2797
26. Elhamifar, E., Vidal, R.: Sparse subspace clustering: algorithm, theory, and applications. IEEE
Trans. Pattern Anal. Mach. Intell. 35(11), 2765–2781 (2013)
27. Fan, C.: Spectral graph theory. CBMS Reg. Conf. Ser. 92 (1997)
28. Gao, H., Nie, F., Li, X., Huang, H.: Multi-view subspace clustering. In: IEEE International
Conference on Computer Vision (ICCV), pp. 4238–4246 (2015)
29. Gao, H., Peng, Y., Jian, S.: Incomplete multi-view clustering. In: International Conference on
Intelligent Information Processing, pp. 245–255. Springer (2016)
30. Gayani Tennakoon, T.M., Luong, K., Mohotti, W., Chakravarthy, S., Nayak, R.: Multi-type
relational data clustering for community detection by exploiting content and structure infor-
mation in social networks. In: Nayak, A.C., Sharma, A. (eds.) PRICAI 2019: Trends in Artificial
Intelligence, pp. 541–554. Springer, Cham (2019)
31. Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A.,
Bengio, Y.: Generative adversarial nets. In: Ghahramani, Z., Welling, M., Cortes, C., Lawrence,
N., Weinberger, K. (eds.) Advances in Neural Information Processing Systems, vol. 27. Curran
Associates, Inc. (2014)
32. Gu, Q., Zhou, J.: Co-clustering on manifolds. In: Proceedings of the ACM SIGKDD Interna-
tional Conference on Knowledge Discovery and Data Mining, pp. 359–368 (2009)
33. Hou, J., Nayak, R.: Robust clustering of multi-type relational data via a heterogeneous manifold
ensemble. In: Proceedings of the International Conference on Data Engineering (2015)
34. Hu, Z., Nie, F., Chang, W., Hao, S., Wang, R., Li, X.: Multi-view spectral clustering via sparse
graph learning. Neurocomputing 384, 1–10 (2020)
35. Huang, S., Kang, Z., Xu, Z.: Auto-weighted multi-view clustering via deep matrix decompo-
sition. Pattern Recognit. 97, 107015 (2020)
36. Huang, Z., Zhou, J.T., Peng, X., Zhang, C., Zhu, H., Lv, J.: Multi-view spectral clustering
network. In: Proceedings of the 28th International Joint Conference on Artificial Intelligence,
pp. 2563–2569. IJCAI’19, AAAI Press (2019)
References 23

37. Jing, G., Jiawei, H., Jialu, L., Chi, W.: Multi-view clustering via joint nonnegative matrix
factorization. In: SDM, pp. 252–260. SIAM (2013)
38. Kanaan-Izquierdo, S., Ziyatdinov, A., Perera-Lluna, A.: Multiview and multifeature spectral
clustering using common eigenvectors. Pattern Recognit. Lett. 102, 30–36 (2018)
39. Kumar, A., Rai, P., Daume, H.: Co-regularized multi-view spectral clustering. In: Shawe-
Taylor, J., Zemel, R.S., Bartlett, P.L., Pereira, F., Weinberger, K.Q. (eds.) Advances in Neural
Information Processing Systems 24, pp. 1413–1421. Curran Associates, Inc. (2011)
40. Lee, D., Seung, H.: Learning the parts of objects by non-negative matrix factorization. Nature
401(6755), 788–91 (1999)
41. Lee, D., Seung, H.: Algorithms for non-negative matrix factorization. In: Advances in Neural
Information Processing Systems 13, pp. 556–562. MIT Press (2001)
42. Li, J., Zhou, G., Qiu, Y., Wang, Y., Zhang, Y., Xie, S.: Deep graph regularized non-negative
matrix factorization for multi-view clustering. Neurocomputing 390, 108–116 (2020)
43. Li, S.Y., Jiang, Y., Zhou, Z.H.: Partial multi-view clustering. In: Proceedings of the Twenty-
Eighth AAAI Conference on Artificial Intelligence, pp. 1968–1974. AAAI Press (2014)
44. Li, Y., Nie, F., Huang, H., Huang, J.: Large-scale multi-view spectral clustering via bipartite
graph. In: Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence, pp.
2750–2756. AAAI’15, AAAI Press (2015)
45. Li, Z., Wang, Q., Tao, Z., Gao, Q., Yang, Z., et al.: Deep adversarial multi-view clustering
network. In: IJCAI, pp. 2952–2958 (2019)
46. Lin, B., Xie, Y., Qu, Y., Li, C.: Deep multi-view clustering via multiple embedding. CoRR
(2018)
47. Long, B., Zhang, Z., Wu, X., Yu, P.S.: Spectral clustering for multi-type relational data. In:
Proceedings of the International Conference on Machine Learning, pp. 585–592 (2006)
48. Lu, C., Yan, S., Lin, Z.: Convex sparse spectral clustering: single-view to multi-view. IEEE
Trans. Image Process. 25(6), 2833–2843 (2016)
49. Luong, K., Nayak, R.: A novel approach to learning consensus and complementary infor-
mation for multi-view data clustering. In: 2020 IEEE 36th International Conference on Data
Engineering (ICDE), pp. 865–876 (2020)
50. Luong, K., Nayak, R.: Clustering Multi-view Data Using Non-negative Matrix Factorization
and Manifold Learning for Effective Understanding: A Survey Paper, pp. 201–227. Springer
(2019)
51. Luong, K., Nayak, R.: Learning inter-and intra-manifolds for matrix factorization-based multi-
aspect data clustering. IEEE Trans. Knowl. Data Eng. (2020)
52. Luong, K.T.N.: Clustering methods for multi-aspect data. Ph.D. thesis, Queensland University
of Technology (2019)
53. Min, E., Guo, X., Liu, Q., Zhang, G., Cui, J., Long, J.: A survey of clustering with deep learning:
from the perspective of network architecture. IEEE Access 6, 39501–39514 (2018)
54. Mitra, S., Saha, S.: A multiobjective multi-view cluster ensemble technique: Application in
patient subclassification. PLOS ONE 14(5), 1–30 (2019)
55. Mohotti, W.A., Nayak, R.: Discovering communities with SGNS modelling-based network
connections and text communications clustering. In: 2020 IEEE Symposium Series on Com-
putational Intelligence (SSCI), pp. 1770–1777. IEEE (2020)
56. Mukherjee, S., Asnani, H., Lin, E., Kannan, S.: Clustergan: latent space clustering in genera-
tive adversarial networks. In: Proceedings of the AAAI Conference on Artificial Intelligence,
vol. 33, pp. 4610–4617 (2019)
57. Ng, A.Y., Jordan, M.I., Weiss, Y.: On spectral clustering: analysis and an algorithm. In: Pro-
ceedings of the 14th International Conference on Neural Information Processing Systems:
Natural and Synthetic, pp. 849–856. NIPS’01, MIT Press, Cambridge, MA, USA (2001)
58. Ngiam, J., Khosla, A., Kim, M., Nam, J., Lee, H., Ng, A.Y.: Multimodal deep learning. In:
Proceedings of the 28th International Conference on International Conference on Machine
Learning, p. 689-696. ICML’11, Omnipress (2011)
59. Parsons, L., Haque, E., Liu, H.: Subspace clustering for high dimensional data: a review.
SIGKDD Explor. Newsl. 6(1), 90–105 (2004)
24 1 Multi-aspect Data Learning: Overview, Challenges and Approaches

60. Qi, L., Shi, Y., Wang, H., Yang, W., Gao, Y.: Multi-view subspace clustering via a global low-
rank affinity matrix. In: Yin, H., Gao, Y., Li, B., Zhang, D., Yang, M., Li, Y., Klawonn, F.,
Tallón-Ballesteros, A.J. (eds.) Intelligent Data Engineering and Automated Learning - IDEAL
2016, pp. 321–331. Springer, Cham (2016)
61. Qian, B., Shen, X., Gu, Y., Tang, Z., Ding, Y.: Double constrained NMF for partial multi-view
clustering. In: 2016 International Conference on Digital Image Computing: Techniques and
Applications (DICTA), pp. 1–7 (2016)
62. Rai, N., Negi, S., Chaudhury, S., Deshmukh, O.: Partial multi-view clustering using graph
regularized NMF. In: 2016 23rd International Conference on Pattern Recognition (ICPR), Dec
2016, pp. 2192–2197
63. Rappoport, N., Shamir, R.: Multi-omic and multi-view clustering algorithms: review and cancer
benchmark. Nucleic Acids Res. 46(20), 10546–10562 (2018)
64. Kanaan-Izquierdo, S., Ziyatdinov, A., Perera-Lluna, A.: Multiview and multifeature spectral
clustering using common eigenvectors. Pattern Recognit. Lett. 102, 31–36 (2018)
65. Shao, W., He, L., Lu, C., Yu, P.S.: Online multi-view clustering with incomplete views. In:
2016 IEEE International Conference on Big Data (Big Data), Dec 2016, pp. 1012–1017
66. Song, C., Liu, F., Huang, Y., Wang, L., Tan, T.: Auto-encoder based data clustering. In: Lecture
Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and
Lecture Notes in Bioinformatics), vol. 8258 LNCS, pp. 117–124. Springer, Berlin, Heidelberg
(2013)
67. Springenberg, J.T.: Unsupervised and semi-supervised learning with categorical generative
adversarial networks. arXiv preprint arXiv:1511.06390 (2015)
68. Trigeorgis, G., Bousmalis, K., Zafeiriou, S., Schuller, B.: A deep semi-NMF model for learning
hidden representations. In: ICML, pp. 1692–1700 (2014)
69. Trigeorgis, G., Bousmalis, K., Zafeiriou, S., Schuller, B.W.: A deep matrix factorization method
for learning attribute representations. PAMI 39(3), 417–429 (2016)
70. University, P.: Predictive modeling & machine learning laboratory (2016). https://www.math.
purdue.edu/~lin491/research.html
71. Wang, B., Jiang, J., Wang, W., Zhou, Z., Tu, Z.: Unsupervised metric fusion by cross diffusion.
In: 2012 IEEE Conference on Computer Vision and Pattern Recognition, June 2012, pp. 2997–
3004
72. Wang, H., Yang, Y., Li, T.: Multi-view clustering via concept factorization with local manifold
regularization. In: 2016 IEEE 16th International Conference on Data Mining (ICDM), Dec
2016, pp. 1245–1250
73. Wang, H., Huang, H., Ding, C.: Simultaneous clustering of multi-type relational data via sym-
metric nonnegative matrix tri-factorization. In: Proceedings of the ACM International Confer-
ence on Information and Knowledge Management, pp. 279–284 (2011)
74. Wang, J., Tian, F., Yu, H., Liu, C.H., Zhan, K., Wang, X.: Diverse non-negative matrix factor-
ization for multiview data representation. IEEE Trans. Cybern. PP(99), 1–13 (2017)
75. Wang, L., Li, D., He, T., Xue, Z.: Manifold regularized multi-view subspace clustering for
image representation. In: 2016 23rd International Conference on Pattern Recognition (ICPR),
Dec 2016, pp. 283–288
76. Wang, Q., Ding, Z., Tao, Z., Gao, Q., Fu, Y.: Partial multi-view clustering via consistent GAN.
In: 2018 IEEE International Conference on Data Mining (ICDM), pp. 1290–1295. IEEE (2018)
77. Wang, Q., Tao, Z., Xia, W., Gao, Q., Cao, X., Jiao, L.: Adversarial multiview clustering networks
with adaptive fusion. IEEE Trans. Neural Netw. Learn. Syst. (2022)
78. Wang, W., Arora, R., Livescu, K., Bilmes, J.: On deep multi-view representation learning. In:
International Conference on Machine Learning, pp. 1083–1092 (2015)
79. Wang, X., Lei, Z., Guo, X., Zhang, C., Shi, H., Li, S.Z.: Multi-view subspace clustering with
intactness-aware similarity. Pattern Recognit. 88, 50–63 (2019)
80. Wang, Y., Lin, X., Wu, L., Zhang, W., Zhang, Q., Huang, X.: Robust subspace clustering
for multi-view data by exploiting correlation consensus. IEEE Trans. Image Process. 24(11),
3939–3949 (2015)
References 25

81. Xu, C., Guan, Z., Zhao, W., Wu, H., Niu, Y., Ling, B.: Adversarial incomplete multi-view
clustering. In: IJCAI, pp. 3933–3939 (2019)
82. Xu, C., Tao, D., Xu, C.: A survey on multi-view learning. CoRR arXiv: abs/1304.5634 (2013)
83. Xu, J., Han, J., Nie, F.: Multi-view feature learning with discriminative regularization. In: Pro-
ceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence, IJCAI-
17, pp. 3161–3167 (2017). https://doi.org/10.24963/ijcai.2017/441
84. Yu, N., Gao, Y.L., Liu, J.X., Shang, J., Zhu, R., Dai, L.Y.: Co-differential gene selection and
clustering based on graph regularized multi-view NMF in cancer genomic data. Genes 9(12)
(2018)
85. Zhan, K., Shi, J., Wang, J., Tian, F.: Graph-regularized concept factorization for multi-view
document clustering 48, 411–418 (2017). https://doi.org/10.1016/j.jvcir.2017.02.019
86. Zhang, B., Shan, S., Chen, X., Gao, W.: Histogram of Gabor phase patterns (HGPP): a novel
object representation approach for face recognition. IEEE Trans. Image Process. 16(1), 57–68
(2007)
87. Zhang, C., Hu, Q., Fu, H., Zhu, P., Cao, X.: Latent multi-view subspace clustering. In: 2017
IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 2017, pp. 4333–
4341
88. Zhang, X., Zhao, L., Zong, L., Liu, X., Yu, H.: Multi-view clustering via multi-manifold
regularized nonnegative matrix factorization. In: Proceedings of the International Conference
on Data Mining, pp. 1103–1108 (2014)
89. Zhao, H., Ding, Z., Fu, Y.: Multi-view clustering via deep matrix factorization. In: Proceedings
of the Thirty-First AAAI Conference on Artificial Intelligence, pp. 2921–2927. AAAI’17,
AAAI Press (2017)
90. Zhao, H., Ding, Z., Fu, Y.: Multi-view clustering via deep matrix factorization. In: AAAI, pp.
2921–2927 (2017)
91. Zhong, G., Pun, C.M.: A unified framework for multi-view spectral clustering. In: Proceed-
ings - International Conference on Data Engineering, vol. 2020-April, pp. 1854–1857. IEEE
Computer Society, Apr 2020
92. Zhou, W., Wang, H., Yang, Y.: Consensus graph learning for incomplete multi-view clustering.
In: Yang, Q., Zhou, Z.H., Gong, Z., Zhang, M.L., Huang, S.J. (eds.) Advances in Knowledge
Discovery and Data Mining, pp. 529–540. Springer, Cham (2019)
93. Zimek, A., Schubert, E., Kriegel, H.P.: A survey on unsupervised outlier detection in high-
dimensional numerical data. Stat. Anal. Data Min. ASA Data Sci. J. 5(5), 363–387 (2012)
94. Zong, L., Zhang, X., Zhao, L., Yu, H., Zhao, Q.: Multi-view clustering via multi-manifold
regularized non-negative matrix factorization. Neural Netw. 88(Supplement C), 74–89 (2017)
Chapter 2
Non-negative Matrix Factorization-Based
Multi-aspect Data Clustering

Abstract This chapter will discuss the application of Non-negative Matrix


Factorization (NMF) in clustering multi-aspect data. We will begin by providing
an overview of the NMF framework and its efficacy in clustering traditional data.
Subsequently, we will explore NMF-based clustering methods specifically designed
for multi-aspect data. Finally, the chapter will conclude by addressing existing gaps
and suggesting future research directions. Overall, the chapter aims to demonstrate
how NMF can be utilized as a powerful tool for clustering multi-aspect data, high-
lighting its strengths and potential areas of improvement.

Keywords Multi-view/Multi-type relational data/Clustering · Non-negative


matrix factorization · Manifold learning

2.1 Introduction

This chapter explores the Non-negative Matrix Factorization (NMF) framework, a


versatile technique for decomposing high-dimensional data into low-dimensional
non-negative matrices. NMF has found applications in various domains, including
image and speech processing, text mining, and data clustering. The chapter aims to
provide a comprehensive overview of NMF and its applications in both one-aspect
and multi-aspect data clustering.
The first section introduces the NMF framework, covering its mathematical formu-
lation and highlighting its wide range of applications. It establishes the fundamental
concepts and definitions of traditional one-aspect data clustering using NMF, set-
ting the foundation for the subsequent discussion of existing NMF-based clustering
methods in the literature. The chapter explores different techniques and approaches
that leverage the power of NMF for clustering purposes.
Moving forward, the chapter delves into NMF-based clustering methods specif-
ically designed for multi-aspect data. It dedicates subsections to the clustering of
multiview data and multi-type relational data. Each subsection defines the prob-
lem and presents the NMF-based clustering procedure tailored to the respective
data type. For multiview data, the chapter extensively explores various integration

© Springer Nature Switzerland AG 2023 27


R. Nayak and K. Luong, Multi-aspect Learning, Intelligent Systems Reference
Library 242, https://doi.org/10.1007/978-3-031-33560-0_2
28 2 Non-negative Matrix Factorization-Based Multi-aspect Data Clustering

Chapter 2

Fig. 2.1 Content structure of the chapter

approaches, including early, late, and intermediate integrations. In the case of multi-
type relational data, two approaches, namely collective factorization and symmetric
tri-factorization, are investigated.
Throughout the chapter, several important points are discussed. These include
the different types of constraints commonly employed in NMF and their benefits,
as well as the situations in which different integration techniques or formulation
approaches prove useful for multi-aspect data clustering. By addressing these topics,
the chapter serves as a valuable resource for researchers and practitioners interested
in applying NMF-based clustering to data analysis tasks. It equips readers with a solid
understanding of NMF-based clustering and its application to multi-aspect data.
The structure of the chapter is depicted in Fig. 2.1.

2.2 NMF Framework: Introduction

NMF is a dimensionality reduction technique that decomposes an input data matrix


(sample × feature) into two lower-rank factor matrices: the basis matrix and the
coefficient matrix. These factor matrices capture the latent features of the original
data in a new low-dimensional space. If learned accurately, the approximate product
of these smaller factor matrices should be equivalent to the original data matrix.
Non-negativity is a fundamental constraint in the NMF framework, applied to both
the input data matrix and the output factor matrices.
In the NMF framework, the input is a non-negative data matrix where each element
represents the representation of a data sample over different features. The frame-
work factorizes this non-negative input matrix into non-negative factor matrices that
approximate the original matrix when multiplied together. The NMF framework has
been proven to produce a parts-based representation, where the factor matrices can
2.2 NMF Framework: Introduction 29

Fig. 2.2 Illustration of how NMF learns group representations from text data. In this illustration,
n represents the number of samples (documents), m represents the number of features (terms), and
r represents the new rank value, which determines the dimensionality of the factor matrices [22]

Original

NMF

Fig. 2.3 Illustration of how NMF learns parts-based representations on image data. The leftmost
matrix represents the basis matrix, which captures the face components such as the nose, eyes, and
mouth. When this basis matrix is multiplied by the coefficient matrix, it will reconstruct the original
image [22]

be combined to reconstruct the original matrix [22]. For example, in a text dataset,
the basis matrix can represent term co-occurrences in documents, while in a gene
expression analysis, they can indicate gene conditions.
Figure 2.2 illustrates an example of the NMF framework applied to a text dataset,
resulting in two factor matrices: H and W. The input matrix X, represented as a
weighted Document x Term matrix, is decomposed into these non-negative factor
matrices. H represents topics based on terms in the text collection, while W represents
topics in documents based on shared terms. By reducing the dimensionality of the
input matrix to a reduced rank value, common topics or clusters in the data can be
identified. Figure 2.3 showcases another illustration of the NMF framework applied
to a face dataset, where the resulting factor matrices reveal facial components such
as the nose, eyes, or mouth.
30 2 Non-negative Matrix Factorization-Based Multi-aspect Data Clustering

2.3 NMF Framework: Basic Concepts and Definitions

2.3.1 NMF Formulation on Traditional Data

2.3.1.1 Objective Function

Given a non-negative data matrix X ∈ Rn×m representing n rows of data samples with
m features, NMF aims to find non-negative factor matrices H ∈ Rn×r and W ∈ Rr ×m
of X such that their product approximates X. Mathematically, this can be expressed
as:
X ≈ HW, s.t., H ≥ 0, W ≥ 0 (2.1)

Note that r denotes the rank of the newly learned factor matrices. Importantly, r is
chosen to be significantly smaller than both m and n to ensure that the factor matrices
remain dense [5, 23].
To solve the NMF problem, the distances or divergences between the original
input matrix X and the product HW are minimized. This can be achieved by solving
the following objective function [6]:

min X − HW2F , s.t., H ≥ 0, W ≥ 0 (2.2)

where .2F denotes the Frobenious norm, or,

min D(X||HW), s.t., H ≥ 0, W ≥ 0 (2.3)


  a 
where D(A||B) = i j ai j log bii jj − ai j + bi j is called the Kullback-Leibler diver-
gence between the original matrix X and the product HW.
The Factor matrix H obtained from Eqs. (2.2) or (2.3) represents the low-rank
latent feature matrix in the newly mapped space learned from the data matrix X. It
is often referred to as the coefficient matrix.
The matrix W serves as the basis matrix and is optimized to achieve a linear
approximation of H and W that can reconstruct the original data matrix X, as illus-
trated in Fig. 2.4. The objective function in Eqs. (2.2) or (2.3) is approximately
minimized when X ≈ HW.

Fig. 2.4 Illustration of the NMF framework [22]


2.3 NMF Framework: Basic Concepts and Definitions 31

The objective function in Eq. (2.2) is the most commonly used objective function
in NMF, known as the non-symmetric objective function. However, there is an alter-
native symmetric factorization process that utilizes a different objective function, as
shown below [21]:

min X − HHT 2F , s.t., H ≥ 0, HT H = I (2.4)

This symmetric factorization process is applicable when the original data matrix
X is symmetric. For example, when X encodes pairwise similarities between data
samples or represents the closeness of users in a network as an adjacency matrix,
or represents a k nearest neighbour graph. It is claimed that this symmetric NMF
approach can yield improved clustering performance compared to the standard non-
symmetric NMF when the cluster structures have nonlinear shapes [21].
The symmetric form in Eq. (2.4) can be relaxed by adding a trade-off matrix, as
proposed in [38]. Additionally, the orthogonal constraint can be relaxed by utilizing a
Normalized Cut-Type constraint [44]. These aspects will be discussed in more detail
in later chapters.

2.3.1.2 Names of Matrices and Notations

Matrix H is the coefficient matrix and can also be referred to as the latent feature
matrix or low-rank representation. Matrix W is the basis matrix. Both H and W are
factor matrices within the NMF framework.
Throughout the book, we adopt the following notation conventions. Matrices
are denoted using boldface letters. Small boldface letters represent vectors, while
lowercase letters represent scalars or individual elements.

2.3.2 NMF-Based Clustering Process

The factor matrices learned through NMF have a lower rank, capturing the com-
ponents of the original matrix. These learned matrices can be utilized as a new
low-dimensional space for applying a clustering algorithm. Rather than directly per-
forming clustering in the original high-dimensional space, which can be unstable
[5] and computationally infeasible, a clustering algorithm can be readily applied to
the new low-rank factor matrix. This factor matrix embeds crucial features of the
original matrix while being denser and of lower dimension.
Let X ∈ Rn×m represent a document set, where n is the number of documents and
m is the number of terms. NMF, which factorizes this matrix, produces two smaller
factor matrices: H ∈ Rn×r (coefficient matrix) and W ∈ Rr ×m (basis matrix). Each
row of W represents a basis vector (i.e., parts), and each row of H represents the
linear combination of these parts. These parts correspond to unique characteristics
and facilitate the segmentation of data into r groups or clusters. For instance, in the
32 2 Non-negative Matrix Factorization-Based Multi-aspect Data Clustering

The dominant value of


each column representing
the document's cluster
membership.
Terms
Documents Terms

Documents
 

Topics
H W

n m nr rm

Fig. 2.5 A document clustering example

document factor matrix H ∈ Rn×r , each column represents a cluster, and the cluster
membership of a document is determined by the column with the highest value. Since
there is only one definite cluster assigned, this type of clustering is referred to as hard
clustering.
To obtain latent groups within the new dense and low-dimensional space, tra-
ditional clustering algorithms like K-means or spectral clustering [37] can also be
applied. In the factor matrix H, each column is treated as a feature to achieve a soft
clustering solution, providing a likelihood of cluster membership. Figure 2.5 presents
an example of document clustering using NMF.
Due to its capability to learn parts-based representations while projecting from
higher order to lower order, NMF has demonstrated its effectiveness and flexibility as
a clustering method for identifying substructures within the data. This is particularly
valuable in the context of very high-dimensional data [53].

2.3.3 Constraints

In this section, we will delve into various constraints and normalizations that are
commonly employed on factor matrices to tackle specific issues related to the data
and output. These constraints and normalizations aim to address problems such as
sparseness, density, non-uniqueness, lack of interpretability, and overfitting.

2.3.3.1 Non-negative Constraint

The non-negativity constraint imposed on the factor matrices in NMF ensures that all
elements of the matrices are non-negative. This constraint is essential for achieving a
parts-based representation because it allows only additive combinations, prohibiting
subtractive combinations [22]. Due to the non-negativity, the components of objects
can be learned and combined in a non-subtractive way [43]. Consequently, NMF
differs from other related methods such as Principal Components Analysis (PCA)
and Singular Value Decomposition (SVD), which learn holistic representations rather
than parts-based representations [5, 23].
Random documents with unrelated
content Scribd suggests to you:
welche ich von ihr empfangen hatte, und bei einer jungen
Schauspielerin, welcher ich etwa zwei Jahre später den Hof machte,
nur in ihre Rollen verliebt war. Ich habe dann auch für eine sehr
achtbare Frau geschwärmt, welche die unnahbare Tugend spielte,
um mich schließlich an einen reichen Juden zu verraten. Sehen Sie,
weil ich von einer Frau, welche die strengsten Grundsätze, die
idealsten Empfindungen heuchelte, betrogen, verkauft wurde:
deshalb hasse ich diese Sorte poetischer, sentimentaler Tugenden so
sehr; geben Sie mir ein Weib, das ehrlich genug ist, mir zu sagen:
ich bin eine Pompadour, eine Lucretia Borgia, und ich will sie
anbeten.“
Wanda stand auf und öffnete das Fenster.
„Sie haben eine eigentümliche Manier, die Phantasie zu erhitzen,
einem alle Nerven aufzuregen, alle Pulse höher schlagen zu machen.
Sie geben dem Laster eine Aureole, wenn es nur ehrlich ist. Ihr Ideal
ist eine kühne geniale Courtisane; o! Sie sind mir der Mann, eine
Frau von Grund aus zu verderben!“
* *
*
Mitten in der Nacht klopfte es an mein Fenster, ich stand auf,
öffnete und schrak zusammen. Draußen stand Venus im Pelz, genau
so wie sie mir das erste Mal erschienen war.
„Sie haben mich mit Ihren Geschichten aufgeregt, ich wälze mich
auf meinem Lager und kann nicht schlafen,“ sprach sie, „kommen
Sie jetzt nur, mir Gesellschaft leisten.“
„Im Augenblicke.“
Als ich eintrat, kauerte Wanda vor dem Kamin, in dem sie ein
kleines Feuer angefacht hatte.
„Der Herbst meldet sich,“ begann sie, „die Nächte sind schon
recht kalt. Ich fürchte, Ihnen zu mißfallen, aber ich kann meinen
Pelz nicht abwerfen, ehe das Zimmer nicht warm genug ist.“
„Mißfallen — Schalk! — Sie wissen doch —“ ich schlang den Arm
um sie und küßte sie.
„Freilich weiß ich, aber woher haben Sie diese große Vorliebe für
den Pelz?“
„Sie ist mir angeboren,“ erwiderte ich, „ich zeigte sie schon als
Kind. Übrigens übt Pelzwerk auf alle nervösen Naturen eine
aufregende Wirkung, welche auf ebenso allgemeinen als natürlichen
Gesetzen beruht. Es ist ein physischer Reiz, welcher wenigstens
ebenso seltsam prickelnd ist, und dem sich niemand ganz entziehen
kann. Die Wissenschaft hat in neuester Zeit eine gewisse
Verwandtschaft zwischen Elektrizität und Wärme nachgewiesen,
verwandt sind ja jedenfalls ihre Wirkungen auf den menschlichen
Organismus. Die heiße Zone erzeugt leidenschaftlichere Menschen,
eine warme Atmosphäre Aufregung. Genau so die Elektrizität. Daher
der hexenhaft wohltätige Einfluß, welchen die Gesellschaft von
K a t z e n auf reizbare geistige Menschen übt und diese
langgeschwänzten Grazien der Tierwelt, diese niedlichen,
funkensprühenden, elektrischen Batterien zu den Lieblingen eines
Mahomed, Kardinal Richelieu, Crebillon, Rousseau, Wieland gemacht
hat.“
„Eine Frau, die also einen Pelz trägt,“ rief Wanda, „ist also nichts
anderes als eine große Katze, eine verstärkte elektrische Batterie?“
„Gewiß,“ erwiderte ich, „und so erkläre ich mir auch die
symbolische Bedeutung, welche der Pelz als Attribut der Macht und
Schönheit bekam. In diesem Sinne nahmen ihn in früheren Zeiten
Monarchen und ein gebietender Adel durch Kleiderordnungen
ausschließlich für sich in Anspruch und große Maler für die
Königinnen der Schönheit. So fand ein Raphael für die göttlichen
Formen der Fornarina, Titian für den rosigen Leib seiner Geliebten
keinen köstlicheren Rahmen als dunklen Pelz.“
„Ich danke für die gelehrt erotische Abhandlung,“ sprach Wanda,
„aber Sie haben mir nicht alles gesagt, Sie verbinden noch etwas
ganz Apartes mit dem Pelz.“
„Allerdings,“ rief ich, „ich habe Ihnen schon wiederholt gesagt,
daß im Leiden ein seltsamer Reiz für mich liegt, daß nichts so sehr
im stande ist, meine Leidenschaft anzufachen als die Tyrannei, die
Grausamkeit, und vor allem die Treulosigkeit eines schönen Weibes.
Und dieses Weib, dieses seltsame Ideal aus der Ästhetik des
Häßlichen, die Seele eines Nero im Leibe einer Phryne, kann ich mir
nicht ohne Pelz denken.“
„Ich begreife,“ warf Wanda ein, „er gibt einer Frau etwas
Herrisches, Imponierendes.“
„Es ist nicht das allein,“ fuhr ich fort, „Sie wissen, daß ich ein
‚Ü b e r s i n n l i c h e r‘ bin, daß bei mir alles mehr in der Phantasie
wurzelt und von dort seine Nahrung empfängt. Ich war früh
entwickelt und überreizt, als ich mit zehn Jahren etwa die Legenden
der Märtyrer in die Hand bekam; ich erinnere mich, daß ich mit
einem Grauen, das eigentlich Entzücken war, las, wie sie im Kerker
schmachteten, auf den Rost gelegt, mit Pfeilen durchschossen, in
Pech gesotten, wilden Tieren vorgeworfen, an das Kreuz geschlagen
wurden, und das Entsetzlichste mit einer Art Freude litten. Leiden,
grausame Qualen erdulden, erschien mir fortan als ein Genuß, und
ganz besonders durch ein schönes Weib, da sich mir von jeher alle
Poesie, wie alles Dämonische im Weibe konzentrierte. Ich trieb mit
demselben einen förmlichen Kultus.
Ich sah in der Sinnlichkeit etwas Heiliges, ja das einzig Heilige, in
dem Weibe und seiner Schönheit etwas Göttliches, indem die
wichtigste Aufgabe des Daseins: die Fortpflanzung der Gattung vor
allem ihr Beruf ist; ich sah im Weibe die Personifikation der Natur,
die I s i s, und in dem Manne ihren Priester, ihren Sklaven und sah sie
ihm gegenüber grausam wie die Natur, welche, was ihr gedient hat,
von sich stößt, sobald sie seiner nicht mehr bedarf, während ihm
noch ihre Mißhandlungen, ja der Tod durch sie zur wollüstigen
Seligkeit werden.
Ich beneidete König Gunther, den die gewaltige Brunhilde in der
Brautnacht band; den armen Troubadour, den seine launische Herrin
in Wolfsfelle nähen ließ, um ihn dann gleich einem Wild zu jagen; ich
beneidete den Ritter Ctirad, den die kühne Amazone Scharka durch
List im Walde bei Prag gefangen nahm, auf die Burg Divin schleppte,
und nachdem sie sich einige Zeit mit ihm die Zeit vertrieben hatte,
auf das Rad flechten ließ —“
„Abscheulich!“ rief Wanda, „ich würde Ihnen wünschen, daß Sie
einem Weibe dieser wilden Rasse in die Hände fielen, im Wolfsfell,
unter den Zähnen der Rüden oder auf dem Rade würde Ihnen schon
die Poesie vergehen.“
„Glauben Sie? ich glaube nicht.“
„Sie sind wirklich nicht ganz gescheit.“
„Möglich. Aber hören Sie weiter, ich las fortan mit einer wahren
Gier Geschichten, in denen die furchtbarsten Grausamkeiten
geschildert, und sah mit besonderer Lust Bilder, Stiche, auf denen
sie zur Darstellung kamen, und alle die blutigen Tyrannen, die je auf
einem Throne saßen, die Inquisitoren, welche die Ketzer foltern,
braten, schlachten ließen, alle jene Frauen, welche in den Blättern
der Weltgeschichte als wollüstig, schön und gewalttätig verzeichnet
sind, wie Libussa, Lucretia Borgia, Agnes von Ungarn, Königin
Margot, Isabeau, die Sultanin Roxolane, die russischen Zarinnen des
vorigen Jahrhunderts, alle sah ich in Pelzen oder
hermelinverbrämten Roben.“
„Und so erweckt Ihnen jetzt der Pelz Ihre seltsamen Phantasien,“
rief Wanda, und sie begann zu gleicher Zeit sich mit ihrem
prächtigen Pelzmantel kokett zu drapieren, so daß die dunklen
glänzenden Zobelfelle entzückend um ihre Büste, ihre Arme spielten.
„Nun, wie ist Ihnen jetzt zumute, fühlen Sie sich schon halb
gerädert?“
Ihre grünen durchdringenden Augen ruhten mit einem
seltsamen, höhnischen Behagen auf mir, als ich mich von
Leidenschaften übermannt vor ihr niederwarf und die Arme um sie
schlang.
„Ja — Sie haben in mir meine Lieblingsphantasie erweckt,“ rief
ich, „die lange genug geschlummert.“
„Und diese wäre?“ sie legte die Hand auf meinen Nacken.
Mich ergriff unter dieser kleinen warmen Hand, unter ihrem Blick,
der zärtlich forschend durch die halbgeschlossenen Lider auf mich
fiel, eine süße Trunkenheit.
„D e r S k l a v e e i n e s W e i b e s , e i n e s s c h ö n e n
W e i b e s z u s e i n , d a s i c h l i e b e , d a s i c h a n b e t e !“
„Und das Sie dafür mißhandelt!“ unterbrach mich Wanda
lachend.
„Ja, das mich bindet und peitscht, das mir Fußtritte gibt, während
es einem andern gehört.“
„Und das, wenn Sie durch Eifersucht wahnsinnig gemacht, dem
beglückten Nebenbuhler entgegentreten, in seinem Übermute so
weit geht, Sie an denselben zu verschenken und seiner Roheit
preiszugeben. Warum nicht? Gefällt Ihnen das Schlußtableau
weniger?“
Ich sah Wanda erschreckt an.
„Sie übertreffen meine Träume.“
„Ja, wir Frauen sind erfinderisch,“ sprach sie, „geben Sie acht,
wenn Sie Ihr Ideal finden, kann es leicht geschehen, daß es Sie
grausamer behandelt, als Ihnen lieb ist.“
„Ich fürchte, ich habe mein Ideal bereits gefunden!“ rief ich, und
preßte mein glühendes Antlitz in ihren Schoß.
„Doch nicht in mir?“ rief Wanda, warf den Pelz ab und sprang
lachend im Zimmer herum; sie lachte noch, als ich die Treppe
hinabstieg, und als ich nachdenkend im Hofe stand, hörte ich noch
oben ihr mutwilliges ausgelassenes Gelächter.
* *
*
„Soll ich Ihnen also Ihr Ideal verkörpern?“ sprach Wanda
schelmisch, als wir uns heute im Parke trafen.
Anfangs fand ich keine Antwort. In mir kämpften die
widersprechendsten Empfindungen. Sie ließ sich indes auf eine der
steinernen Bänke nieder und spielte mit einer Blume.
„Nun — soll ich?“
Ich kniete nieder und faßte ihre Hände.
„Ich bitte Sie noch einmal, werden Sie meine Frau, mein treues,
ehrliches Weib; können Sie das nicht, dann seien Sie mein Ideal,
aber dann ganz, ohne Rückhalt, ohne Milderung.“
„Sie wissen, daß ich in einem Jahre Ihnen meine Hand reichen
will, wenn Sie der Mann sind, den ich suche,“ entgegnete Wanda
sehr ernst, „aber ich glaube, Sie würden mir dankbarer sein, wenn
ich Ihnen Ihre Phantasie verwirkliche. Nun, was ziehen Sie vor?“
„Ich glaube, daß alles das, was mir in meiner Einbildung
vorschwebt, in Ihrer Natur liegt.“
„Sie täuschen sich.“
„Ich glaube,“ fuhr ich fort, „daß es Ihnen Vergnügen macht,
einen Mann ganz in Ihrer Hand zu haben, zu quälen —“
„Nein, nein!“ rief sie lebhaft, „oder doch“ — sie sann nach. „Ich
verstehe mich selbst nicht mehr,“ fuhr sie fort, „aber ich muß Ihnen
ein Geständnis machen. Sie haben meine Phantasie verdorben, mein
Blut erhitzt, ich fange an, an allem dem Gefallen zu finden, die
Begeisterung, mit der Sie von einer Pompadour, einer Katharina II.
und von all den anderen selbstsüchtigen, frivolen und grausamen
Frauen sprechen, reißt mich hin, senkt sich in meine Seele und treibt
mich, diesen Frauen ähnlich zu werden, welche trotz ihrer
Schlechtigkeit, so lange sie lebten, sklavisch angebetet wurden und
noch im Grabe Wunder wirken.
Am Ende machen Sie aus mir noch eine Miniaturdespotin, eine
Pompadour zum Hausgebrauche.“
„Nun denn,“ sprach ich erregt, „wenn dies in Ihnen liegt, dann
geben Sie sich dem Zuge Ihrer Natur hin, nur nichts Halbes; können
Sie nicht ein braves, treues Weib sein, so seien Sie ein Teufel.“
Ich war übernächtig, aufgeregt, die Nähe der schönen Frau
ergriff mich wie ein Fieber, ich weiß nicht mehr, was ich sprach, aber
ich erinnere mich, daß ich ihre Füße küßte und zuletzt ihren Fuß
aufhob und auf meinen Nacken setzte. Sie aber zog ihn rasch zurück
und erhob sich beinahe zornig.
„Wenn Sie mich lieben, Severin,“ sprach sie rasch, ihre Stimme
klang scharf und gebieterisch, „so sprechen Sie nicht mehr von
diesen Dingen. Verstehen Sie mich, nie mehr. Ich könnte am Ende
wirklich —“ sie lächelte und setzte sich wieder.
„Es ist mein voller Ernst,“ rief ich halb phantasierend, „ich bete
Sie so sehr an, daß ich alles von Ihnen dulden will um den Preis,
mein ganzes Leben in Ihrer Nähe sein zu dürfen.“
„Severin, ich warne Sie noch einmal.“
„Sie warnen mich vergebens. Machen Sie mit mir, was Sie wollen,
nur stoßen Sie mich nicht ganz von sich.“
„Severin,“ entgegnete Wanda, „ich bin ein leichtsinniges, junges
Weib, es ist gefährlich für Sie, sich mir so ganz hinzugeben, Sie
werden am Ende in der Tat mein Spielzeug; wer schützt Sie dann,
daß ich Ihren Wahnsinn nicht mißbrauche?“
„Ihr edles Wesen.“
„Gewalt macht übermütig.“
„So sei übermütig,“ rief ich, „tritt mich mit Füßen.“
Wanda schlang ihre Arme um meinen Nacken, sah mir in die
Augen und schüttelte den Kopf.
„Ich fürchte, ich werde es nicht können, aber ich will es
versuchen, dir zu lieb, denn ich liebe dich, Severin, wie ich noch
keinen Mann geliebt habe.“
* *
*
Sie nahm heute plötzlich Hut und Shawl und ich mußte sie in den
Bazar begleiten. Dort ließ sie sich Peitschen zeigen, lange Peitschen
an kurzem Stiel, wie man sie für Hunde hat.
„Diese dürften genügen,“ sprach der Verkäufer.
„Nein, sie sind viel zu klein,“ erwiderte Wanda mit einem
Seitenblick auf mich, „ich brauche eine große —“
„Für eine Bulldogge wohl?“ meinte der Kaufmann.
„Ja,“ rief sie, „in der Art, wie man sie in Rußland hatte für
widerspenstige Sklaven.“
Sie suchte und wählte endlich eine Peitsche, bei deren Anblick es
mich etwas unheimlich beschlich.
„Nun adieu, Severin,“ sagte sie, „ich habe noch einige Einkäufe,
bei denen Sie mich nicht begleiten dürfen.“
Ich verabschiedete mich und machte einen Spaziergang, auf dem
Rückwege sah ich Wanda aus dem Gewölbe eines Kürschners
heraustreten. Sie winkte mir.
„Überlegen Sie sich’s noch,“ begann sie vergnügt, „ich habe
Ihnen nie ein Geheimnis daraus gemacht, daß mich vorzüglich Ihr
ernstes, sinnendes Wesen gefesselt hat; es reizt mich nun freilich,
den ernsten Mann mir ganz hingegeben, ja geradezu verzückt zu
meinen Füßen zu sehen — ob aber dieser Reiz auch anhalten wird?
Das Weib liebt den Mann, den Sklaven mißhandelt es und stößt ihn
zuletzt noch mit dem Fuße weg.“
„Nun, so stoße mich mit dem Fuße fort, wenn du mich satt hast,“
entgegnete ich, „ich will dein Sklave sein.“
„Ich sehe, daß gefährliche Anlagen in mir schlummern,“ sagte
Wanda, nachdem wir wieder einige Schritte gegangen waren, „du
weckst sie und nicht zu deinem Besten, du verstehst es, die
Genußsucht, die Grausamkeit, den Übermut so verlockend zu
schildern — was wirst du sagen, wenn ich mich darin versuche und
wenn ich es zuerst an dir versuche, wie Dionys, welcher den Erfinder
des eisernen Ochsen zuerst in demselben braten ließ, um sich zu
überzeugen, ob sein Jammern, sein Todesröcheln auch wirklich wie
das Brüllen eines Ochsen klinge.“
„Vielleicht bin ich so ein weiblicher Dionys?“
„Sei es,“ rief ich, „dann ist meine Phantasie erfüllt. Ich gehöre dir
im Guten oder Bösen, wähle du selbst. Mich treibt das Schicksal, das
in meiner Brust ruht — dämonisch — übermächtig.“
* *
*

„M e i n G e l i e b t e r !
Ich will dich heute und morgen nicht sehen und übermorgen erst am
Abend, und dann a l s m e i n e n S k l a v e n.
Deine Herrin
W a n d a.“

„Als meinen Sklaven“ war unterstrichen. Ich las das Billett, das
ich früh am Morgen erhielt, noch einmal, ließ mir dann einen Esel,
ein echtes Gelehrtentier, satteln und ritt in das Gebirge, um meine
Leidenschaft, meine Sehnsucht in der großartigen Karpathennatur zu
betäuben.
* *
*
Da bin ich wieder, müde, hungrig, durstig und vor allem verliebt.
Ich kleide mich rasch um und klopfe wenige Augenblicke darnach an
ihre Türe.
„Herein!“
Ich trete ein. Sie steht mitten im Zimmer, in einer weißen
Atlasrobe, welche wie Licht an ihr herunterfließt, und einer
Kazabaika von scharlachrotem Atlas mit reichem, üppigem
Hermelinbesatz, in dem gepuderten, schneeigen Haar ein kleines
Diamantendiadem, die Arme auf der Brust gekreuzt, die Brauen
zusammengezogen.
„Wanda!“ Ich eile auf sie zu, will den Arm um sie schlingen, sie
küssen; sie tritt einen Schritt zurück und mißt mich von oben bis
unten.
„Sklave!“
„Herrin!“ Ich knie nieder und küsse den Saum ihres Gewandes.
„So ist es recht.“
„O! wie schön du bist.“
„Gefall’ ich dir?“ Sie trat vor den Spiegel und betrachtete sich mit
stolzem Wohlgefallen.
„Ich werde noch wahnsinnig!“
Sie zuckte verächtlich mit der Unterlippe und sah mich mit
halbgeschlossenen Lidern spöttisch an.
„Gib mir die Peitsche.“
Ich blickte im Zimmer umher.
„Nein,“ rief sie, „bleib nur knien!“ Sie schritt zum Kamine, nahm
die Peitsche vom Sims und ließ sie, mich mit einem Lächeln
betrachtend, durch die Luft pfeifen, dann schürzte sie den Ärmel
ihrer Pelzjacke langsam auf.
„Wunderbares Weib!“ rief ich.
„Schweig, Sklave!“ sie blickte plötzlich finster, ja wild und hieb
mich mit der Peitsche; im nächsten Augenblicke schlang sie jedoch
den Arm zärtlich um meinen Nacken und bückte sich mitleidig zu mir.
„Habe ich dir weh getan?“ fragte sie halb verschämt, halb ängstlich.
„Nein!“ entgegnete ich, „und wenn es wäre, mir sind Schmerzen,
die du mir bereitest, ein Genuß. Peitsche mich nur, wenn es dir ein
Vergnügen macht.“
„Aber es macht mir kein Vergnügen.“
Wieder ergriff mich jene seltsame Trunkenheit.
„Peitsche mich,“ bat ich, „peitsche mich ohne Erbarmen.“
Wanda schwang die Peitsche und traf mich zweimal. „Hast du
jetzt genug?“
„Nein.“
„Im Ernste, nein?“
„Peitsche mich, ich bitte dich, es ist mir ein Genuß.“
„Ja, weil du gut weißt, daß es nicht Ernst ist,“ erwiderte sie, „daß
ich nicht das Herz habe, dir weh zu tun. Mir widerstrebt das ganze
rohe Spiel. Wäre ich wirklich das Weib, das seinen Sklaven peitscht,
du würdest dich entsetzen.“
„Nein, Wanda,“ sprach ich, „ich liebe dich mehr als mich selbst,
ich bin dir hingegeben auf Tod und Leben, du kannst im Ernste mit
mir anfangen, was dir beliebt, ja, was dir nur dein Übermut eingibt.“
„Severin!“
„Tritt mich mit Füßen!“ rief ich und warf mich, das Antlitz zur
Erde, vor ihr nieder.
„Ich hasse alles, was Komödie ist,“ sprach Wanda ungeduldig.
„Nun, so mißhandle mich im Ernste.“
Eine unheimliche Pause.
„Severin, ich warne dich noch ein letztes Mal,“ begann Wanda.
„Wenn du mich liebst, so sei grausam gegen mich,“ flehte ich,
das Auge zu ihr erhoben.
„Wenn ich dich liebe?“ wiederholte Wanda. „Nun gut!“ sie trat
zurück und betrachtete mich mit einem finsteren Lächeln. „S o s e i
denn mein Sklave und fühle, was es heißt, in
d i e H ä n d e e i n e s W e i b e s g e g e b e n z u s e i n .“ Und in
demselben Augenblicke gab sie mir einen Fußtritt.
„Nun, wie behagt dir das, Sklave?“
Dann schwang sie die Peitsche.
„Richte dich auf!“
Ich wollte mich erheben. „Nicht so,“ gebot sie, „auf die Knie.“
Ich gehorchte und sie begann mich zu peitschen.
Die Hiebe fielen rasch und kräftig auf meinen Rücken, meine
Arme, ein jeder schnitt in mein Fleisch und brannte hier fort, aber
die Schmerzen entzückten mich, denn sie kamen ja von ihr, die ich
anbetete, für die ich jede Stunde bereit war, mein Leben zu lassen.
Jetzt hielt sie inne. „Ich fange an, Vergnügen daran zu finden,“
sprach sie, „für heute ist es genug, aber mich ergreift eine teuflische
Neugier, zu sehen, wie weit deine Kraft reicht, eine grausame Lust,
dich unter meiner Peitsche beben, sich krümmen zu sehen und
endlich dein Stöhnen, dein Jammern zu hören und so fort, bis du um
Gnade bittest und ich ohne Erbarmen fortpeitsche, bis dir die Sinne
schwinden. Du hast gefährliche Elemente in meiner Natur geweckt.
Nun aber steh’ auf.“
Ich ergriff ihre Hand, um sie an meine Lippen zu drücken.
„Welche Frechheit.“
Sie stieß mich mit dem Fuße von sich.
„Aus meinen Augen, Sklave!“
* *
*
Nachdem ich die Nacht wie im Fieber in wirren Träumen gelegen,
bin ich erwacht. Es dämmert kaum.
Was ist wahr von dem, was in meiner Erinnerung schwebt? was
habe ich erlebt und was nur geträumt? Gepeitscht bin ich worden,
das ist gewiß, ich fühle noch jeden einzelnen Hieb, ich kann die
roten, brennenden Streifen an meinem Leib zählen. Und sie hat mich
gepeitscht. Ja, jetzt weiß ich alles.
Meine Phantasie ist Wahrheit geworden. Wie ist mir? Hat mich
die Wirklichkeit meines Traumes enttäuscht?
Nein, ich bin nur etwas müde, aber ihre Grausamkeit erfüllt mich
mit Entzücken. Oh! wie ich sie liebe, sie anbete! Ach! dies alles
drückt nicht im entferntesten aus, was ich für sie empfinde, wie ich
mich ganz ihr hingegeben fühle. Welche Seligkeit, ihr Sklave zu sein.
* *
*
Sie ruft mich vom Balkon. Ich eile die Treppe hinauf. Da steht sie
auf der Schwelle und bietet mir freundlich die Hand. „Ich schäme
mich,“ sagte sie, während ich sie umschlinge und sie den Kopf an
meiner Brust birgt.
„Wie?“
„Suchen Sie die häßliche Szene von gestern zu vergessen,“
sprach sie mit bebender Stimme, „ich habe Ihnen Ihre tolle
Phantasie erfüllt, jetzt wollen wir vernünftig sein und glücklich und
uns lieben, und in einem Jahre bin ich Ihre Frau.“
„Meine Herrin,“ rief ich, „und ich Ihr Sklave!“
„Kein Wort mehr von Sklaverei, von Grausamkeit und Peitsche,“
unterbrach mich Wanda, „ich passiere Ihnen von dem allen nichts
mehr, als die Pelzjacke; kommen Sie und helfen Sie mir hinein.“
* *
*
Die kleine Bronzeuhr, auf welcher ein Amor steht, der eben
seinen Pfeil abgeschossen hat, schlug Mitternacht.
Ich stand auf, ich wollte fort.
Wanda sagte nichts, aber sie umschlang mich und zog mich auf
die Ottomane zurück und begann mich von neuem zu küssen, und
diese stumme Sprache hatte etwas so Verständliches, so
Überzeugendes —
Und sie sagte noch mehr, als ich zu verstehen wagte, eine solche
schmachtende Hingebung lag in Wandas ganzem Wesen und welche
wollüstige Weichheit in ihren halbgeschlossenen, dämmernden
Augen, in der unter dem weißen Puder leicht schimmernden roten
Flut ihres Haares, in dem weißen und roten Atlas, welcher bei jeder
Bewegung um sie knisterte, dem schwellenden Hermelin der
Kazabaika, in den sie sich nachlässig schmiegte.
„Ich bitte dich,“ stammelte ich, „aber du wirst böse sein.“
„Mache mit mir, was du willst,“ flüsterte sie.
„Nun, so tritt mich, ich bitte dich, ich werde sonst verrückt.“
„Habe ich dir nicht verboten,“ sprach Wanda strenge, „aber du
bist unverbesserlich.“
„Ach! ich bin so entsetzlich verliebt.“ Ich war in die Knie
gesunken und preßte mein glühendes Gesicht in ihren Schoß.
„Ich glaube wahrhaftig,“ sagte Wanda, nachsinnend, „dein
ganzer Wahnsinn ist nur eine dämonische, ungesättigte Sinnlichkeit.
Unsere Unnatur muß solche Krankheiten
e r z e u g e n . Wärst du weniger tugendhaft, so wärst du
vollkommen vernünftig.“
„Nun, so mach’ mich gescheit,“ murmelte ich. Meine Hände
wühlten in ihrem Haare und in dem schimmernden Pelz, welcher
sich, wie eine vom Mondlicht beglänzte Welle, alle Sinne verwirrend,
auf ihrer wogenden Brust hob und senkte.
Und ich küßte sie — nein, sie küßte mich, so wild, so
unbarmherzig, als wenn sie mich mit ihren Küssen morden wollte.
Ich war wie im Delirium, meine Vernunft hatte ich längst verloren,
aber ich hatte endlich auch keinen Atem mehr. Ich suchte mich
loszumachen.
„Was ist dir?“ fragte Wanda.
„Ich leide entsetzlich.“
„Du leidest?“ — sie brach in ein lautes, mutwilliges Lachen aus.
„Du kannst lachen!“ stöhnte ich, „ahnst du denn nicht —“
Sie war auf einmal ernst, richtete meinen Kopf mit ihren Händen
auf und zog mich dann mit einer heftigen Bewegung an ihre Brust.
„Wanda!“ stammelte ich.
„Richtig, es macht dir ja Vergnügen, zu leiden,“ sprach sie und
begann von neuem zu lachen, „aber warte nur, ich will dich schon
vernünftig machen.“
„Nein, ich will nicht weiter fragen,“ rief ich, „ob du mir für immer
oder nur für einen seligen Augenblick gehören willst, ich will mein
Glück genießen; jetzt bist du mein und besser dich verlieren, als dich
nie besitzen.“
„So bist du vernünftig,“ sagte sie und küßte mich wieder mit
ihren mörderischen Lippen, und ich riß den Hermelin, die
Spitzenhülle auseinander und ihre bloße Brust wogte gegen die
meine.
Dann vergingen mir die Sinne. —
Ich erinnere mich erst wieder auf den Augenblick, wo ich Blut
von meiner Hand tropfen sah und sie apathisch fragte: „Hast du
mich gekratzt?“
„Nein, ich glaube, ich habe dich gebissen.“
* *
*
Es ist doch merkwürdig, wie jedes Verhältnis des Lebens ein
anderes Gesicht bekommt, sobald eine neue Person hinzutritt.
Wir haben herrliche Tage zusammen verlebt, wir besuchten die
Berge, die Seen, wir lasen zusammen und ich vollendete Wandas
Bild. Und wie liebten wir uns, wie lächelnd war ihr reizendes Antlitz.
Da kommt eine Freundin, eine geschiedene Frau, etwas älter,
etwas erfahrener und etwas weniger gewissenhaft als Wanda, und
schon macht sich ihr Einfluß in jeder Richtung geltend.
Wanda runzelte die Stirne und zeigt mir gegenüber eine gewisse
Ungeduld.
Liebt sie mich nicht mehr?
* *
*
Seit beinahe vierzehn Tagen dieser unerträgliche Zwang. Die
Freundin wohnt bei ihr, wir sind nie allein. Ein Kreis von Herren
umgibt die beiden jungen Frauen. Ich spiele als Liebender mit
meinem Ernste, meiner Schwermut eine alberne Rolle. Wanda
behandelt mich wie einen Fremden.
Heute, bei einem Spaziergange, blieb sie mit mir zurück. Ich sah,
daß es mit Absicht geschah und jubelte. Was sagte sie mir aber.
„Meine Freundin begreift nicht, wie ich Sie lieben kann, sie findet
Sie weder schön noch sonst besonders anziehend, und dazu
unterhält sie mich vom Morgen bis in die Nacht hinein mit dem
glänzenden frivolen Leben in der Hauptstadt, mit den Ansprüchen,
welche ich machen könnte, den großen Partien, welche ich finden,
den vornehmen, schönen Anbetern, welche ich fesseln müßte. Aber
was hilft dies alles, ich liebe Sie einmal.“
Mir verging einen Augenblick der Atem, dann sagte ich: „Ich
wünsche bei Gott nicht, Ihrem Glück im Wege zu sein, Wanda.
Nehmen Sie auf mich keine Rücksicht mehr.“ Dabei zog ich meinen
Hut ab und ließ sie vorangehen. Sie sah mich erstaunt an, erwiderte
jedoch keine Silbe.
Als ich aber auf dem Rückwege wieder zufällig in ihre Nähe kam,
drückte sie mir verstohlen die Hand und ihr Blick traf mich so warm,
so glückverheißend, daß alle Qualen dieser Tage im Augenblick
vergessen, alle Wunden geheilt waren.
Jetzt weiß ich wieder so recht, wie ich sie liebe.
* *
*
„Meine Freundin hat sich über dich beklagt,“ sagte mir Wanda
heute.
„Sie mag fühlen, daß ich sie verachte.“
„Weshalb verachtest du sie denn, kleiner Narr?“ rief Wanda und
nahm mich mit beiden Händen bei den Ohren.
„Weil sie heuchelt,“ sagte ich, „ich achte nur eine Frau, die
tugendhaft ist oder offen dem Genusse lebt.“
„So wie ich,“ entgegnete Wanda scherzend, „aber siehst du, mein
Kind, die Frau kann das nur in den seltensten Fällen. Sie kann weder
so heiter sinnlich, noch so geistig frei sein, wie der Mann, ihre Liebe
ist stets ein aus Sinnlichkeit und geistiger Neigung gemischter
Zustand. Ihr Herz verlangt darnach, den Mann dauernd zu fesseln,
während sie selbst dem Wechsel unterworfen ist; so kommt ein
Zwiespalt, kommt Lüge und Trug, meist gegen ihren Willen, in ihr
Handeln, in ihr Wesen und verdirbt ihren Charakter.“
„Gewiß ist es so,“ sagte ich, „der transszendentale Charakter,
welchen die Frau der Liebe aufdrücken will, führt sie zum Betrug.“
„Aber die Welt verlangt ihn auch,“ fiel mir Wanda in das Wort,
„sieh diese Frau an, sie hat in Lemberg ihren Mann und ihren
Liebhaber und hier hat sie einen neuen Anbeter gefunden, und sie
betrügt sie alle und ist doch von allen verehrt und von der Welt
geachtet.“
„Meinetwegen,“ rief ich, „sie soll dich nur aus dem Spiele lassen,
aber sie behandelt dich ja wie eine Ware.“
„Warum nicht?“ unterbrach mich das schöne Weib lebhaft. „Jede
Frau hat den Instinkt, die Neigung, aus ihren Reizen Nutzen zu
ziehen, und es hat viel für sich, sich ohne Liebe, ohne Genuß
hinzugeben, man bleibt hübsch kaltblütig dabei und kann seinen
Vorteil wahrnehmen.“
„Wanda, du sagst das?“
„Warum nicht,“ sprach sie, „merk’ dir überhaupt, was ich dir jetzt
sage: f ü h l e d i c h n i e s i c h e r b e i d e m W e i b e , d a s
d u l i e b s t, denn die Natur des Weibes birgt mehr Gefahren, als du
glaubst. Die Frauen sind weder so g u t, wie ihre Verehrer und
Verteidiger, noch so s c h l e c h t, wie ihre Feinde sie machen. D e r
C h a r a k t e r d e r F r a u i s t d i e C h a r a k t e r l o s i g k e i t . Die
beste Frau sinkt momentan in den Schmutz, die schlechteste erhebt
sich unerwartet zu großen, guten Handlungen und beschämt ihre
Verächter. Kein Weib ist so gut oder so böse, daß es nicht jeden
Augenblick sowohl der teuflischsten, als der göttlichsten, der
schmutzigsten, wie der reinsten Gedanken, Gefühle, Handlungen
fähig wäre. Das Weib ist eben, trotz allen Fortschritten der
Zivilisation, so geblieben, wie es aus der Hand der Natur
hervorgegangen ist, es hat den Charakter des W i l d e n, welcher sich
treu und treulos, großmütig und grausam zeigt, je nach der Regung,
die ihn gerade beherrscht. Zu allen Zeiten hat nur ernste, tiefe
Bildung den sittlichen Charakter geschaffen; so folgt der Mann, auch
wenn er selbstsüchtig, wenn er böswillig ist, stets P r i n z i p i e n, das
Weib aber folgt immer nur R e g u n g e n. Vergiß das nie und fühle
dich nie sicher bei dem Weibe, das du liebst.“
* *
*
Die Freundin ist fort. Endlich ein Abend mit ihr allein. Es ist, als
hätte Wanda alle Liebe, welche sie mir entzogen hat, für diesen
einen seligen Abend aufgespart, so gütig, so innig, so voll der
Gnaden ist sie.
Welche Seligkeit, an ihren Lippen zu hängen, in ihren Armen
hinzusterben und dann, wie sie so ganz aufgelöst, so ganz mir
hingegeben an meiner Brust ruht und unsere Augen wonnetrunken
ineinander tauchen.
Ich kann es noch nicht glauben, nicht fassen, daß dieses Weib
mein ist, ganz mein.
„In einem Punkte hat sie doch recht,“ begann Wanda, ohne sich
zu regen, ohne nur die Augen zu öffnen, wie im Schlaf.
„Wer?“
Sie schwieg.
„Deine Freundin?“
Sie nickte. „Ja, sie hat recht, du bist kein Mann, du bist ein
Phantast, ein reizender Anbeter, und wärst gewiß ein unbezahlbarer
Sklave, aber als Gatten kann ich dich mir nicht denken.“
Ich erschrak.
„Was hast du? du zitterst?“
„Ich bebe bei dem Gedanken, wie leicht ich dich verlieren kann,“
erwiderte ich.
„Nun, bist du deshalb jetzt weniger glücklich?“ entgegnete sie,
„raubt es dir etwas von deinen Freuden, daß ich vor dir anderen
gehört habe, daß mich andere nach dir besitzen werden, und
würdest du weniger genießen, wenn ein anderer mit dir zugleich
glücklich wäre?“
„Wanda!“
„Siehst du,“ fuhr sie fort, „das wäre ein Ausweg. Du willst mich
nie verlieren, mir bist du lieb und sagst mir geistig so zu, daß ich
immer mit dir leben möchte, wenn ich neben dir —“
„Welch ein Gedanke!“ schrie ich auf, „ich empfinde eine Art
Grauen vor dir.“
„Und liebst du mich weniger?“
„Im Gegenteil.“
Wanda hatte sich auf ihren linken Arm aufgerichtet. „Ich glaube,“
sprach sie, „daß man, um einen Mann für immer zu fesseln, ihm vor
allem nicht treu sein darf. Welche brave Frau ist je so angebetet
worden, wie eine Hetäre?“
„In der Tat liegt in der Treulosigkeit eines geliebten Weibes ein
schmerzhafter Reiz, die höchste Wollust.“
„Auch für dich?“ fragte Wanda rasch.
„Auch für mich.“
„Wenn ich dir also dies Vergnügen mache?“ rief Wanda spöttisch.
„So werde ich entsetzlich leiden, dich aber um so mehr anbeten,“
entgegnete ich, „nur dürftest du mich nie betrügen, sondern
müßtest die dämonische Größe haben, mir zu sagen: ich werde dich
allein lieben, aber jeden glücklich machen, der mir gefällt.“
Wanda schüttelte den Kopf. „Mir widerstrebt der Betrug, ich bin
ehrlich, aber welcher Mann erliegt nicht unter der Wucht der
Wahrheit. Wenn ich dir sagen würde: dies sinnlich heitere Leben,
dies Heidentum ist mein Ideal, würdest du die Kraft haben, es zu
ertragen?“
„Gewiß. Ich will alles von dir ertragen, nur dich nicht verlieren.
Ich fühle ja, wie wenig ich dir eigentlich bin.“
„Aber Severin —“
„Es ist doch so,“ sprach ich, „und eben deshalb —“
„Deshalb möchtest du —“ sie lächelte schelmisch — „hab’ ich es
erraten?“
„Dein Sklave sein!“ rief ich, „dein willenloses, unbeschränktes
Eigentum, mit dem du nach Belieben schalten kannst, und das dir
daher nie zur Last werden kann. Ich möchte, während du das Leben
in vollen Zügen schlürfst, in üppigem Luxus gebettet das heitere
Glück, die Liebe des Olymps genießest, dir dienen, dir die Schuhe
an- und ausziehen.“
„Eigentlich hast du nicht so unrecht,“ erwiderte Wanda, „denn
nur als mein Sklave könntest du es ertragen, daß ich andere liebe,
und dann, die Freiheit des Genusses der antiken Welt ist nicht
denkbar ohne Sklaverei. O! es muß ein Gefühl von Gottähnlichkeit
geben, wenn man Menschen vor sich knien, zittern sieht. Ich will
Sklaven haben, hörst du, Severin?“
„Bin ich nicht dein Sklave?“
„Hör’ mich also,“ sprach Wanda aufgeregt, meine Hand fassend,
„ich will dein sein, so lange ich dich liebe.“
„Einen Monat?“
„Vielleicht auch zwei.“
„Und dann?“
„Dann bist du mein Sklave.“
„Und du?“
„Ich? was fragst du noch? ich bin eine Göttin und steige
manchmal leise, ganz leise und heimlich aus meinem Olymp zu dir
herab.“
„Aber was ist dies alles,“ sprach Wanda, den Kopf in beide Hände
gestützt, den Blick in die Weite verloren, „eine goldene Phantasie,
welche nie wahr werden kann.“ Eine unheimliche, brütende
Schwermut war über ihr ganzes Wesen ausgegossen; so hatte ich sie
noch nie gesehen.
„Und warum unausführbar?“ begann ich.
„Weil es bei uns keine Sklaverei gibt.“
„So gehen wir in ein Land, wo sie noch besteht, in den Orient, in
die Türkei,“ sagte ich lebhaft.
„Du wolltest — Severin — im Ernste,“ entgegnete Wanda. Ihre
Augen brannten.
„Ja, ich will im Ernste dein Sklave sein,“ fuhr ich fort, „ich will,
daß deine Gewalt über mich durch das Gesetz geheiligt, daß mein
Leben in deiner Hand ist, nichts auf dieser Welt mich vor dir
schützen oder retten kann. O! welche Wollust, wenn ich mich ganz
nur von deiner Willkür, deiner Laune, einem Winke deines Fingers
abhängig fühle. Und dann — welche Seligkeit, — wenn du einmal
gnädig bist, wenn der Sklave die Lippen küssen darf, an denen für
ihn Tod und Leben hängt!“ Ich kniete nieder und lehnte meine heiße
Stirne an ihre Knie.
„Du fieberst, Severin,“ sprach Wanda erregt, „und du liebst mich
wirklich so unendlich?“ Sie schloß mich an ihre Brust und bedeckte
mich mit Küssen.
„Willst du also?“ begann sie zögernd.
„Ich schwöre dir hier, bei Gott und meiner Ehre, ich bin dein
Sklave, wo und wann du willst, sobald du es befiehlst,“ rief ich,
meiner kaum mehr mächtig.
„Und wenn ich dich beim Worte nehme?“ rief Wanda.
„Tu es.“
„Es hat einen Reiz für mich,“ sprach sie hierauf, „der kaum
seinesgleichen hat, einen Mann, der mich anbetet und den ich von
ganzer Seele liebe, mir so ganz hingegeben, von meinem Willen,
meiner Laune abhängig zu wissen, diesen Mann als Sklaven zu
besitzen, während ich —“
Sie sah mich seltsam an.
„Wenn ich recht frivol werde, so bist du schuld —“ fuhr sie fort —
„ich glaube beinahe, du fürchtest dich jetzt schon vor mir, aber ich
habe deinen Schwur.“
„Und ich werde ihn halten.“
„Dafür laß mich sorgen,“ entgegnete sie. „Jetzt finde ich Genuß
darin, jetzt soll es bei Gott nicht lange mehr beim Phantasieren
bleiben. Du wirst mein Sklave, und ich — ich werde versuchen,
‚V e n u s i m P e l z‘ zu sein.“
* *
*
Ich dachte diese Frau endlich zu kennen, zu verstehen, und ich
sehe nun, daß ich wieder von vorne anfangen kann. Mit welchem
Widerwillen nahm sie noch vor kurzem meine Phantasien auf und
mit welchem Ernste betreibt sie jetzt die Ausführung derselben.
Sie hat einen Vertrag entworfen, durch den ich mich bei
Ehrenwort und Eid verbinde, ihr Sklave zu sein, so lange sie es will.
Den Arm um meinen Nacken geschlungen, liest sie mir das
unerhörte, unglaubliche Dokument vor, nach jedem Satze macht ein
Kuß den Schlußpunkt.
„Aber der Vertrag enthält nur Pflichten für mich,“ sprach ich, sie
neckend.
„Natürlich,“ entgegnete sie mit großem Ernste, „du hörst auf,
mein Geliebter zu sein, ich bin also aller Pflichten, aller Rücksichten
gegen dich entbunden. Meine Gunst hast du dann als eine Gnade
anzusehen, Recht hast du keines mehr und darfst daher auch keines
geltend machen. Meine Macht über dich darf keine Grenzen haben.
Bedenke, Mann, du bist ja dann nicht viel besser als ein Hund, ein
lebloses Ding; du bist meine Sache, mein Spielzeug, das ich
zerbrechen kann, sobald es mir eine Stunde Zeitvertreib verspricht.
Du bist nichts und ich bin alles. Verstehst du?“ Sie lachte und küßte
mich wieder und doch überlief mich eine Art Schauer.
„Erlaubst du mir nicht einige Bedingungen —“ begann ich.
„Bedingungen?“ sie runzelte die Stirne. „Ah! du hast bereits
Furcht, oder bereust gar, doch das kommt alles zu spät, ich habe
deinen Eid, dein Ehrenwort. Aber laß hören.“
„Zuerst möchte ich in unserem Vertrag aufgenommen wissen,
daß du dich nie ganz von mir trennst, und dann, daß du mich nie der
Roheit eines deiner Anbeter preisgibst —“
„Aber Severin,“ rief Wanda mit bewegter Stimme, Tränen in den
Augen, „du kannst glauben, daß ich dich, einen Mann, der mich so
liebt, der sich so ganz in meine Hand gibt —“ sie stockte.
„Nein! nein!“ sprach ich, ihre Hände mit Küssen bedeckend, „ich
fürchte nichts von dir, was mich entehren könnte, vergib mir den
häßlichen Augenblick.“
Wanda lächelte selig, legte ihre Wange an die meine und schien
nachzusinnen.
„Etwas hast du vergessen,“ flüsterte sie jetzt schelmisch, „das
Wichtigste.“
„Eine Bedingung?“
„Ja, daß ich immer im Pelz erscheinen muß,“ rief Wanda, „aber
dies verspreche ich dir so, ich werde ihn schon deshalb tragen, weil
er mir das Gefühl einer Despotin gibt, und ich will sehr grausam
gegen dich sein, verstehst du?“
„Soll ich den Vertrag unterzeichnen?“ fragte ich.
„Noch nicht,“ sprach Wanda, „ich werde vorher deine
Bedingungen hinzufügen, und überhaupt wirst du ihn erst an Ort
und Stelle unterzeichnen.“
„In Konstantinopel?“
„Nein. Ich habe es mir überlegt. Welchen Wert hat es für mich,
dort einen Sklaven zu haben, wo jeder Sklaven hat; ich will, hier in
unserer gebildeten, nüchternen, philisterhaften Welt, ich a l l e i n
e i n e n S k l a v e n h a b e n, und zwar einen Sklaven, den nicht das
Gesetz, nicht mein Recht oder rohe Gewalt, sondern ganz allein die
Macht meiner Schönheit und meines Wesens willenlos in meine Hand
gibt. Das finde ich pikant. Jedenfalls gehen wir in ein Land, wo man
uns nicht kennt, und wo du daher ohne Anstand vor der Welt als
mein Diener auftreten kannst. Vielleicht nach Italien, nach Rom oder
Neapel.“
* *
*
Wir saßen auf Wandas Ottomane, sie in der Hermelinjacke, das
offene Haar wie eine Löwenmähne über den Rücken, und sie hing an
meinen Lippen und sog mir die Seele aus dem Leibe. Mir wirbelte
der Kopf, das Blut begann mir zu sieden, mein Herz pochte heftig
gegen das ihre.
„Ich will ganz in deiner Hand sein, Wanda,“ rief ich plötzlich, von
jenem Taumel der Leidenschaft ergriffen, in dem ich kaum mehr klar
denken oder frei beschließen kann, „ohne jede Bedingung, ohne
jede Beschränkung deiner Gewalt über mich, ich will mich auf Gnade
und Ungnade deiner Willkür überliefern.“ Während ich dies sprach,
war ich von der Ottomane zu ihren Füßen herabgesunken und
blickte trunken zu ihr empor.
„Wie schön du jetzt bist,“ rief sie, „dein Auge wie in einer
Verzückung halb gebrochen, entzückt mich, reißt mich hin, dein Blick
müßte wunderbar sein, wenn du totgepeitscht würdest, im
Verenden. Du hast das Auge eines Märtyrers.“
* *
*
Manchmal wird mir doch etwas unheimlich, mich so ganz, so
bedingungslos in die Hand eines Weibes zu geben. Wenn sie meine
Leidenschaft, ihre Macht mißbraucht?
Nun dann erlebe ich, was seit Kindesbeinen meine Phantasie
beschäftigte, mich stets mit süßem Grauen erfüllte. Törichte
Besorgnis! Es ist ein mutwilliges Spiel, das sie mit mir treibt, mehr
nicht. Sie liebt mich ja, und sie ist so gut, eine noble Natur, jeder
Treulosigkeit unfähig; aber es liegt dann in ihrer Hand — s i e
k a n n , w e n n s i e w i l l — welcher Reiz in diesem Zweifel, dieser
Furcht.
* *
*
Jetzt verstehe ich die Manon l’Escault und den armen Chevalier,
der sie auch noch als die Maitresse eines anderen, ja auf dem
Pranger anbetet.
Die Liebe kennt keine Tugend, kein Verdienst, sie liebt und
vergibt und duldet alles, weil sie muß; nicht unser Urteil leitet uns,
nicht die Vorzüge oder Fehler, welche wir entdecken, reizen uns zur
Hingebung oder schrecken uns zurück.
Es ist eine süße, wehmütige, geheimnisvolle Gewalt, die uns
treibt, und wir hören auf zu denken, zu empfinden, zu wollen, wir
lassen uns von ihr treiben und fragen nicht wohin?
* *
*
Auf der Promenade erschien heute zum erstenmal ein russischer
Fürst, welcher durch seine athletische Gestalt, seine schöne
Gesichtsbildung, den Luxus seines Auftretens allgemeines Aufsehen
erregte. Die Damen besonders staunten ihn wie ein wildes Tier an,
er aber schritt finster, niemand beachtend, von zwei Dienern, einem
Neger ganz in roten Atlas gekleidet und einem Tscherkessen in voller
blitzender Rüstung begleitet, durch die Alleen. Plötzlich sah er
Wanda, heftete seinen kalten durchdringenden Blick auf sie, ja
wendete den Kopf nach ihr, und als sie vorüber war, blieb er stehen
und sah ihr nach.
Und sie — sie verschlang ihn nur mit ihren funkelnden grünen
Augen — und bot alles auf, ihm wieder zu begegnen.
Die raffinierte Koketterie, mit der sie ging, sich bewegte, ihn
ansah, schnürte mir den Hals zusammen. Als wir nach Hause
gingen, machte ich eine Bemerkung darüber. Sie runzelte die Stirne.
„Was willst du denn,“ sprach sie, „der Fürst ist ein Mann, der mir
gefallen könnte, der mich sogar blendet, und ich bin frei, ich kann
tun, was ich will —“
„Liebst du mich denn nicht mehr —“ stammelte ich erschrocken.
„Ich liebe nur dich,“ entgegnete sie, „aber ich werde mir von dem
Fürsten den Hof machen lassen.“
„Wanda!“
„Bist du nicht mein Sklave?“ sagte sie ruhig. „Bin ich nicht Venus,
die grausame nordische Venus im Pelz?“
Ich schwieg; ich fühlte mich von ihren Worten förmlich zermalmt,
ihr kalter Blick drang mir wie ein Dolch in das Herz.
„Du wirst sofort den Namen, die Wohnung, alle Verhältnisse des
Fürsten erfragen, verstehst du?“ fuhr sie fort.
„Aber —“
„Keine Einwendung. Gehorche!“ rief Wanda mit einer Strenge, die
ich bei ihr nie für möglich gehalten hätte. „Komme mir nicht unter
die Augen, ehe du alle meine Fragen beantworten kannst.“
Erst Nachmittag konnte ich Wanda die gewünschten Auskünfte
bringen. Sie ließ mich wie einen Bedienten vor sich stehen, während
sie mir im Fauteuil zurückgelehnt lächelnd zuhörte. Dann nickte sie,
sie schien zufrieden.
„Gib mir den Fußschemel!“ befahl sie kurz.
Ich gehorchte und blieb, nachdem ich ihn vor sie gestellt und sie
ihre Füße darauf gesetzt hatte, vor ihr knien.
„Wie wird dies enden?“ fragte ich nach einer kurzen Pause
traurig.
Sie brach in ein mutwilliges Gelächter aus. „Es hat ja noch gar
nicht angefangen.“
„Du bist herzloser, als ich dachte,“ erwiderte ich verletzt.
„Severin,“ begann Wanda ernst. „Ich habe noch nichts getan,
nicht das Geringste, und du nennst mich schon herzlos. Wie wird das
werden, wenn ich deine Phantasien erfülle, wenn ich ein lustiges,
freies Leben führe, einen Kreis von Anbetern um mich habe, und
ganz dein Ideal, dir Fußtritte und Peitschenhiebe gebe?“
„Du nimmst meine Phantasie zu ernst.“
„Zu ernst? Sobald ich sie ausführe, kann ich doch nicht beim
Scherze stehen bleiben,“ entgegnete sie, „du weißt, wie verhaßt mir
jedes Spiel, jede Komödie ist. Du hast es so gewollt. War es meine
Idee oder die deine? Habe ich dich dazu verführt oder hast du meine
Einbildung erhitzt? Nun ist es mir allerdings Ernst.“
„Wanda,“ erwiderte ich liebevoll, „höre mich ruhig an. Wir lieben
uns so unendlich, wir sind so glücklich, willst du unsere ganze
Zukunft einer Laune opfern?“
„Es ist keine Laune mehr!“ rief sie.
„Was denn?“ fragte ich erschrocken.
„Es lag wohl in mir,“ sprach sie ruhig, gleichsam nachsinnend,
„vielleicht wäre es nie an das Licht getreten, aber du hast es
geweckt, entwickelt, und jetzt, wo es zu einem mächtigen Trieb
geworden ist, wo es mich ganz erfüllt, wo ich einen Genuß darin
finde, wo ich nicht mehr anders kann und will, jetzt willst du zurück
— du — bist du ein Mann?“
„Liebe, teure Wanda!“ ich begann sie zu streicheln, zu küssen.
„Laß mich — du bist kein Mann —“
„Und du!“ brauste ich auf.
„Ich bin eigensinnig,“ sagte sie, „das weißt du. Ich bin nicht im
Phantasieren stark und im Ausführen schwach wie du; wenn ich mir
etwas vornehme, führe ich es aus, und um so gewisser, je mehr
Widerstand ich finde. Laß mich!“
Sie stieß mich von sich und stand auf.
„Wanda!“ Ich erhob mich gleichfalls und stand ihr Aug’ in Auge
gegenüber.
„Du kennst mich jetzt,“ fuhr sie fort, „ich warne dich noch einmal.
Du hast noch die Wahl. Ich zwinge dich nicht, mein Sklave zu
werden.“
„Wanda,“ antwortete ich bewegt, mir traten Tränen in die Augen,
„du weißt nicht, wie ich dich liebe.“
Sie zuckte verächtlich die Lippen.
„Du irrst dich, du machst dich häßlicher, als du bist, deine Natur
ist viel zu gut, zu nobel —“
„Was weißt du von meiner Natur,“ unterbrach sie mich heftig, „du
sollst mich noch kennen lernen.“
„Wanda!“
„Entschließe dich, willst du dich fügen, unbedingt?“
„Und wenn ich nein sage.“
„Dann —“
Sie trat kalt und höhnisch auf mich zu, und wie sie jetzt vor mir
stand, die Arme auf der Brust verschränkt, mit dem bösen Lächeln
um die Lippen, war sie in der Tat das despotische Weib meiner
Phantasie und ihre Züge erschienen hart, und in ihrem Blicke lag
nichts, was Güte oder Erbarmen versprach. „Gut —“ sprach sie
endlich.
„Du bist böse,“ sagte ich, „du wirst mich peitschen.“
„O nein!“ entgegnete sie, „ich werde dich gehen lassen. Du bist
frei. Ich halte dich nicht.“
„Wanda — mich, der dich so liebt —“
„Ja, Sie, mein Herr, der Sie mich anbeten,“ rief sie verächtlich,
„aber ein Feigling, ein Lügner, ein Wortbrüchiger sind. Verlassen Sie
mich augenblicklich —“
„Wanda! —“
„Mensch!“
Mir stieg das Blut zum Herzen. Ich warf mich zu ihren Füßen und
begann zu weinen.
„Noch Tränen!“ sie begann zu lachen. O! Dieses Lachen war
furchtbar. „Gehen Sie — ich will Sie nicht mehr sehen.“
„Mein Gott!“ rief ich außer mir. „Ich will ja alles tun, was du
befiehlst, dein Sklave sein, deine Sache, mit der du nach Willkür
schaltest — nur stoße mich nicht von dir — ich gehe zugrunde — ich
kann nicht leben ohne dich,“ ich umfaßte ihre Knie und bedeckte
ihre Hand mit Küssen.
„Ja, du mußt Sklave sein, die Peitsche fühlen — denn ein Mann
bist du nicht,“ sprach sie ruhig, und das war es, was mir so an das
Herz griff, daß sie nicht im Zorne, ja nicht einmal erregt, sondern mit
voller Überlegung zu mir sprach. „Ich kenne dich jetzt, deine
Hundenatur, die anbetet, wo sie mit Füßen getreten wird und um so
mehr, je mehr sie mißhandelt wird. Ich kenne dich jetzt, du aber
sollst mich erst kennen lernen.“
Sie ging mit großen Schritten auf und ab, während ich vernichtet
auf meinen Knien liegen blieb, das Haupt war mir herabgesunken,
die Tränen rannen mir herab.
„Komm zu mir,“ herrschte mir Wanda zu, sich auf der Ottomane
niederlassend. Ich folgte ihrem Wink und setzte mich zu ihr. Sie sah
mich finster an, dann wurde ihr Auge plötzlich, gleichsam von innen
heraus erhellt, sie zog mich lächelnd an ihre Brust und begann mir
die Tränen aus den Augen zu küssen.
* *
*
Das eben ist das Humoristische meiner Lage, daß ich, wie der Bär
in Lilis Park, fliehen kann und nicht will, daß ich alles dulde, sobald
sie droht, mir die Freiheit zu geben.
* *
*
Wenn sie nur einmal wieder die Peitsche in die Hand nehmen
würde! Diese Liebenswürdigkeit, mit der sie mich behandelt, hat
etwas Unheimliches für mich. Ich komme mir wie eine kleine,
gefangene Maus vor, mit der eine schöne Katze zierlich spielt, jeden
Augenblick bereit, sie zu zerreißen, und mein Mausherz droht mir zu
zerspringen.
Was hat sie vor? Was wird sie mit mir anfangen?
* *
*
Sie scheint den Vertrag, scheint meine Sklaverei vollkommen
vergessen zu haben, oder war es wirklich nur Eigensinn, und sie hat
den ganzen Plan in demselben Augenblicke aufgegeben, wo ich ihr
keinen Widerstand mehr entgegensetzte, wo ich mich ihrer
souveränen Laune beugte?
Wie gut sie jetzt gegen mich ist, wie zärtlich, wie liebevoll. Wir
verleben selige Tage.
* *
*
Heute ließ sie mich die Szene zwischen Faust und Mephistopheles
lesen, in welcher letzterer als fahrender Skolast erscheint; ihr Blick
hing mit seltsamer Befriedigung an mir.
„Ich verstehe nicht,“ sprach sie, als ich geendet hatte, „wie ein
Mann große und schöne Gedanken im Vortrage so wunderbar klar, so
scharf, so vernünftig auseinandersetzen und dabei ein solcher
Phantast, ein übersinnlicher Schlemihl sein kann.“
„Warst du zufrieden,“ sagte ich und küßte ihre Hand.
Sie strich mir freundlich über die Stirne. „Ich liebe dich, Severin,“
flüsterte sie, „ich glaube, ich könnte keinen anderen Mann mehr
lieben. Wir wollen vernünftig sein, willst du?“
Statt zu antworten, schloß ich sie in meine Arme; ein tief inniges,
wehmütiges Glück erfüllte meine Brust, meine Augen wurden naß,
eine Träne fiel auf ihre Hand herab.
„Wie kannst du weinen!“ rief sie, „du bist ein Kind.“
* *
*
Wir begegneten bei einer Spazierfahrt dem russischen Fürsten im
Wagen. Er war offenbar unangenehm überrascht, mich an Wandas
Seite zu sehen und schien sie mit seinen elektrischen, grauen Augen
durchbohren zu wollen, sie aber — ich hätte in diesem Augenblicke
vor ihr niederknien und ihre Füße küssen mögen — sie schien ihn
nicht zu bemerken, sie ließ ihren Blick gleichgültig über ihn gleiten,
wie über einen leblosen Gegenstand, einen Baum etwa, und
wendete sich dann mit ihrem liebreizenden Lächeln zu mir.
* *
*
Als ich ihr heute gute Nacht sagte, schien sie mir plötzlich ohne
jeden Anlaß zerstreut und verstimmt. Was sie wohl beschäftigen
mochte?

You might also like