0% found this document useful (0 votes)
41 views

Deep Learning with Python 1st Edition François Chollet - Read the ebook online or download it for a complete experience

The document promotes a collection of eBooks focused on deep learning, including titles by François Chollet and others, available for instant download at textbookfull.com. It includes various editions and topics such as deep learning with Python, R, and practical applications in computer vision and text processing. The document also outlines the structure of the book 'Deep Learning with Python,' covering fundamentals and advanced practices in deep learning.

Uploaded by

mastafcampa
Copyright
© © All Rights Reserved
Available Formats
Download as PDF, TXT or read online on Scribd
0% found this document useful (0 votes)
41 views

Deep Learning with Python 1st Edition François Chollet - Read the ebook online or download it for a complete experience

The document promotes a collection of eBooks focused on deep learning, including titles by François Chollet and others, available for instant download at textbookfull.com. It includes various editions and topics such as deep learning with Python, R, and practical applications in computer vision and text processing. The document also outlines the structure of the book 'Deep Learning with Python,' covering fundamentals and advanced practices in deep learning.

Uploaded by

mastafcampa
Copyright
© © All Rights Reserved
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 63

Explore the full ebook collection and download it now at textbookfull.

com

Deep Learning with Python 1st Edition François


Chollet

https://textbookfull.com/product/deep-learning-with-
python-1st-edition-francois-chollet/

OR CLICK HERE

DOWLOAD EBOOK

Browse and Get More Ebook Downloads Instantly at https://textbookfull.com


Click here to visit textbookfull.com and download textbook now
Your digital treasures (PDF, ePub, MOBI) await
Download instantly and pick your perfect format...

Read anywhere, anytime, on any device!

Deep Learning with Python MEAP 2nd Edition Francois


Chollet

https://textbookfull.com/product/deep-learning-with-python-meap-2nd-
edition-francois-chollet/

textbookfull.com

Deep Learning with R 1st Edition François Chollet

https://textbookfull.com/product/deep-learning-with-r-1st-edition-
francois-chollet/

textbookfull.com

Probabilistic Deep Learning with Python 1st Edition Oliver


Duerr

https://textbookfull.com/product/probabilistic-deep-learning-with-
python-1st-edition-oliver-duerr/

textbookfull.com

Deep Learning with Python Learn Best Practices of Deep


Learning Models with PyTorch 2nd Edition Nikhil Ketkar
Jojo Moolayil
https://textbookfull.com/product/deep-learning-with-python-learn-best-
practices-of-deep-learning-models-with-pytorch-2nd-edition-nikhil-
ketkar-jojo-moolayil/
textbookfull.com
Deep Learning with Python Learn Best Practices of Deep
Learning Models with PyTorch 2nd Edition Nikhil Ketkar
Jojo Moolayil
https://textbookfull.com/product/deep-learning-with-python-learn-best-
practices-of-deep-learning-models-with-pytorch-2nd-edition-nikhil-
ketkar-jojo-moolayil-2/
textbookfull.com

Deep Learning with Python Develop Deep Learning Models on


Theano and TensorFLow Using Keras Jason Brownlee

https://textbookfull.com/product/deep-learning-with-python-develop-
deep-learning-models-on-theano-and-tensorflow-using-keras-jason-
brownlee/
textbookfull.com

Advanced Data Analytics Using Python: With Machine


Learning, Deep Learning and NLP Examples Mukhopadhyay

https://textbookfull.com/product/advanced-data-analytics-using-python-
with-machine-learning-deep-learning-and-nlp-examples-mukhopadhyay/

textbookfull.com

Applied Neural Networks with TensorFlow 2: API Oriented


Deep Learning with Python Orhan Gazi Yalç■n

https://textbookfull.com/product/applied-neural-networks-with-
tensorflow-2-api-oriented-deep-learning-with-python-orhan-gazi-yalcin/

textbookfull.com

Computer Vision Using Deep Learning Neural Network


Architectures with Python and Keras 1st Edition Vaibhav
Verdhan
https://textbookfull.com/product/computer-vision-using-deep-learning-
neural-network-architectures-with-python-and-keras-1st-edition-
vaibhav-verdhan/
textbookfull.com
Deep Learning with Python
François Chollet
Copyright

For online information and ordering of this and other Manning books,
please visit www.manning.com. The publisher offers discounts on this
book when ordered in quantity. For more information, please contact
Special Sales Department
Manning Publications Co.
20 Baldwin Road
PO Box 761
Shelter Island, NY 11964
Email: orders@manning.com

©2018 by Manning Publications Co. All rights reserved.

No part of this publication may be reproduced, stored in a retrieval


system, or transmitted, in any form or by means electronic,
mechanical, photocopying, or otherwise, without prior written
permission of the publisher.

Many of the designations used by manufacturers and sellers to


distinguish their products are claimed as trademarks. Where those
designations appear in the book, and Manning Publications was
aware of a trademark claim, the designations have been printed in
initial caps or all caps.

Recognizing the importance of preserving what has been written,


it is Manning’s policy to have the books we publish printed on acid-
free paper, and we exert our best efforts to that end. Recognizing
also our responsibility to conserve the resources of our planet,
Manning books are printed on paper that is at least 15 percent
recycled and processed without the use of elemental chlorine.
Manning Publications Co.
20 Baldwin Road
PO Box 761
Shelter Island, NY 11964

Development editor: Toni Arritola


Technical development editor: Jerry Gaines
Review editor: Aleksandar Dragosavljević
Project editor: Tiffany Taylor
Copyeditor: Tiffany Taylor
Proofreader: Katie Tennant
Technical proofreaders: Alex Ott and Richard Tobias
Typesetter: Dottie Marsico
Cover designer: Marija Tudor

ISBN 9781617294433

Printed in the United States of America

1 2 3 4 5 6 7 8 9 10 – EBM – 22 21 20 19 18 17
Brief Table of Contents
Copyright
Brief Table of Contents
Table of Contents
Preface
Acknowledgments
About this Book
About the Author
About the Cover

1. Fundamentals of deep learning

Chapter 1. What is deep learning?


Chapter 2. Before we begin: the mathematical building blocks of
neural networks
Chapter 3. Getting started with neural networks
Chapter 4. Fundamentals of machine learning

2. Deep learning in practice

Chapter 5. Deep learning for computer vision


Chapter 6. Deep learning for text and sequences
Chapter 7. Advanced deep-learning best practices
Chapter 8. Generative deep learning
Chapter 9. Conclusions

Appendix A. Installing Keras and its dependencies on Ubuntu


Appendix B. Running Jupyter notebooks on an EC2 GPU instance
Index

List of Figures

List of Tables

List of Listings
Table of Contents
Copyright
Brief Table of Contents
Table of Contents
Preface
Acknowledgments
About this Book
About the Author
About the Cover

1. Fundamentals of deep learning

Chapter 1. What is deep learning?


1.1. Artificial intelligence, machine learning, and deep
learning

1.1.1. Artificial intelligence


1.1.2. Machine learning
1.1.3. Learning representations from data
1.1.4. The “deep” in deep learning
1.1.5. Understanding how deep learning works, in three
figures
1.1.6. What deep learning has achieved so far
1.1.7. Don’t believe the short-term hype
1.1.8. The promise of AI

1.2. Before deep learning: a brief history of machine learning

1.2.1. Probabilistic modeling


1.2.2. Early neural networks
1.2.3. Kernel methods
1.2.4. Decision trees, random forests, and gradient
boosting machines
1.2.5. Back to neural networks
1.2.6. What makes deep learning different
1.2.7. The modern machine-learning landscape

1.3. Why deep learning? Why now?

1.3.1. Hardware
1.3.2. Data
1.3.3. Algorithms
1.3.4. A new wave of investment
1.3.5. The democratization of deep learning
1.3.6. Will it last?

Chapter 2. Before we begin: the mathematical building blocks of


neural networks

2.1. A first look at a neural network


2.2. Data representations for neural networks
2.2.1. Scalars (0D tensors)
2.2.2. Vectors (1D tensors)
2.2.3. Matrices (2D tensors)
2.2.4. 3D tensors and higher-dimensional tensors
2.2.5. Key attributes
2.2.6. Manipulating tensors in Numpy
2.2.7. The notion of data batches
2.2.8. Real-world examples of data tensors
2.2.9. Vector data
2.2.10. Timeseries data or sequence data
2.2.11. Image data
2.2.12. Video data

2.3. The gears of neural networks: tensor operations

2.3.1. Element-wise operations


2.3.2. Broadcasting
2.3.3. Tensor dot
2.3.4. Tensor reshaping
2.3.5. Geometric interpretation of tensor operations
2.3.6. A geometric interpretation of deep learning

2.4. The engine of neural networks: gradient-based


optimization

2.4.1. What’s a derivative?


2.4.2. Derivative of a tensor operation: the gradient
2.4.3. Stochastic gradient descent
2.4.4. Chaining derivatives: the Backpropagation
algorithm

2.5. Looking back at our first example

Chapter 3. Getting started with neural networks

3.1. Anatomy of a neural network

3.1.1. Layers: the building blocks of deep learning


3.1.2. Models: networks of layers
3.1.3. Loss functions and optimizers: keys to configuring
the learning process

3.2. Introduction to Keras

3.2.1. Keras, TensorFlow, Theano, and CNTK


3.2.2. Developing with Keras: a quick overview

3.3. Setting up a deep-learning workstation

3.3.1. Jupyter notebooks: the preferred way to run deep-


learning experiments
3.3.2. Getting Keras running: two options
3.3.3. Running deep-learning jobs in the cloud: pros and
cons
3.3.4. What is the best GPU for deep learning?

3.4. Classifying movie reviews: a binary classification


example
3.4.1. The IMDB dataset
3.4.2. Preparing the data
3.4.3. Building your network
3.4.4. Validating your approach
3.4.5. Using a trained network to generate predictions on
new data
3.4.6. Further experiments
3.4.7. Wrapping up

3.5. Classifying newswires: a multiclass classification example


3.5.1. The Reuters dataset
3.5.2. Preparing the data
3.5.3. Building your network
3.5.4. Validating your approach
3.5.5. Generating predictions on new data
3.5.6. A different way to handle the labels and the loss
3.5.7. The importance of having sufficiently large
intermediate layers
3.5.8. Further experiments
3.5.9. Wrapping up

3.6. Predicting house prices: a regression example

3.6.1. The Boston Housing Price dataset


3.6.2. Preparing the data
3.6.3. Building your network
3.6.4. Validating your approach using K-fold validation
3.6.5. Wrapping up

Chapter 4. Fundamentals of machine learning

4.1. Four branches of machine learning


4.1.1. Supervised learning
4.1.2. Unsupervised learning
4.1.3. Self-supervised learning
4.1.4. Reinforcement learning

4.2. Evaluating machine-learning models


4.2.1. Training, validation, and test sets
4.2.2. Things to keep in mind
4.3. Data preprocessing, feature engineering, and feature
learning
4.3.1. Data preprocessing for neural networks
4.3.2. Feature engineering

4.4. Overfitting and underfitting


4.4.1. Reducing the network’s size
4.4.2. Adding weight regularization
4.4.3. Adding dropout

4.5. The universal workflow of machine learning


4.5.1. Defining the problem and assembling a dataset
4.5.2. Choosing a measure of success
4.5.3. Deciding on an evaluation protocol
4.5.4. Preparing your data
4.5.5. Developing a model that does better than a baseline
4.5.6. Scaling up: developing a model that overfits
4.5.7. Regularizing your model and tuning your
hyperparameters

2. Deep learning in practice


Chapter 5. Deep learning for computer vision
5.1. Introduction to convnets

5.1.1. The convolution operation


5.1.2. The max-pooling operation

5.2. Training a convnet from scratch on a small dataset


5.2.1. The relevance of deep learning for small-data
problems
5.2.2. Downloading the data
5.2.3. Building your network
5.2.4. Data preprocessing
5.2.5. Using data augmentation

5.3. Using a pretrained convnet


5.3.1. Feature extraction
5.3.2. Fine-tuning
5.3.3. Wrapping up

5.4. Visualizing what convnets learn

5.4.1. Visualizing intermediate activations


5.4.2. Visualizing convnet filters
5.4.3. Visualizing heatmaps of class activation

Chapter 6. Deep learning for text and sequences


6.1. Working with text data

6.1.1. One-hot encoding of words and characters


6.1.2. Using word embeddings
6.1.3. Putting it all together: from raw text to word
embeddings
6.1.4. Wrapping up

6.2. Understanding recurrent neural networks

6.2.1. A recurrent layer in Keras


6.2.2. Understanding the LSTM and GRU layers
6.2.3. A concrete LSTM example in Keras
6.2.4. Wrapping up

6.3. Advanced use of recurrent neural networks

6.3.1. A temperature-forecasting problem


6.3.2. Preparing the data
6.3.3. A common-sense, non-machine-learning baseline
6.3.4. A basic machine-learning approach
6.3.5. A first recurrent baseline
6.3.6. Using recurrent dropout to fight overfitting
6.3.7. Stacking recurrent layers
6.3.8. Using bidirectional RNNs
6.3.9. Going even further
6.3.10. Wrapping up

6.4. Sequence processing with convnets

6.4.1. Understanding 1D convolution for sequence data


6.4.2. 1D pooling for sequence data
6.4.3. Implementing a 1D convnet
6.4.4. Combining CNNs and RNNs to process long
sequences
6.4.5. Wrapping up

Chapter 7. Advanced deep-learning best practices

7.1. Going beyond the Sequential model: the Keras functional


API

7.1.1. Introduction to the functional API


7.1.2. Multi-input models
7.1.3. Multi-output models
7.1.4. Directed acyclic graphs of layers
7.1.5. Layer weight sharing
7.1.6. Models as layers
7.1.7. Wrapping up

7.2. Inspecting and monitoring deep-learning models using


Keras callbacks and TensorBoard

7.2.1. Using callbacks to act on a model during training


7.2.2. Introduction to TensorBoard: the TensorFlow
visualization framework
7.2.3. Wrapping up

7.3. Getting the most out of your models


7.3.1. Advanced architecture patterns
7.3.2. Hyperparameter optimization
7.3.3. Model ensembling
7.3.4. Wrapping up

Chapter 8. Generative deep learning

8.1. Text generation with LSTM

8.1.1. A brief history of generative recurrent networks


8.1.2. How do you generate sequence data?
8.1.3. The importance of the sampling strategy
8.1.4. Implementing character-level LSTM text generation
8.1.5. Wrapping up
8.2. DeepDream

8.2.1. Implementing DeepDream in Keras


8.2.2. Wrapping up

8.3. Neural style transfer


8.3.1. The content loss
8.3.2. The style loss
8.3.3. Neural style transfer in Keras
8.3.4. Wrapping up

8.4. Generating images with variational autoencoders

8.4.1. Sampling from latent spaces of images


8.4.2. Concept vectors for image editing
8.4.3. Variational autoencoders
8.4.4. Wrapping up

8.5. Introduction to generative adversarial networks


8.5.1. A schematic GAN implementation
8.5.2. A bag of tricks
8.5.3. The generator
8.5.4. The discriminator
8.5.5. The adversarial network
8.5.6. How to train your DCGAN
8.5.7. Wrapping up

Chapter 9. Conclusions

9.1. Key concepts in review


9.1.1. Various approaches to AI
9.1.2. What makes deep learning special within the field
of machine learning
9.1.3. How to think about deep learning
9.1.4. Key enabling technologies
9.1.5. The universal machine-learning workflow
9.1.6. Key network architectures
9.1.7. The space of possibilities

9.2. The limitations of deep learning

9.2.1. The risk of anthropomorphizing machine-learning


models
9.2.2. Local generalization vs. extreme generalization
9.2.3. Wrapping up

9.3. The future of deep learning


9.3.1. Models as programs
9.3.2. Beyond backpropagation and differentiable layers
9.3.3. Automated machine learning
9.3.4. Lifelong learning and modular subroutine reuse
9.3.5. The long-term vision

9.4. Staying up to date in a fast-moving field

9.4.1. Practice on real-world problems using Kaggle


9.4.2. Read about the latest developments on arXiv
9.4.3. Explore the Keras ecosystem

9.5. Final words


Appendix A. Installing Keras and its dependencies on Ubuntu

A.1. Installing the Python scientific suite


A.2. Setting up GPU support
A.3. Installing Theano (optional)
A.4. Installing Keras

Appendix B. Running Jupyter notebooks on an EC2 GPU instance


B.1. What are Jupyter notebooks? Why run Jupyter notebooks on
AWS GPUs?
B.2. Why would you not want to use Jupyter on AWS for deep
learning?
B.3. Setting up an AWS GPU instance

B.3.1. Configuring Jupyter

B.4. Installing Keras


B.5. Setting up local port forwarding
B.6. Using Jupyter from your local browser

Index

List of Figures

List of Tables

List of Listings
Preface

If you’ve picked up this book, you’re probably aware of the


extraordinary progress that deep learning has represented for the
field of artificial intelligence in the recent past. In a mere five years,
we’ve gone from near-unusable image recognition and speech
transcription, to superhuman performance on these tasks.

The consequences of this sudden progress extend to almost every


industry. But in order to begin deploying deep-learning technology to
every problem that it could solve, we need to make it accessible to
as many people as possible, including non-experts—people who
aren’t researchers or graduate students. For deep learning to reach
its full potential, we need to radically democratize it.

When I released the first version of the Keras deep-learning


framework in March 2015, the democratization of AI wasn’t what I
had in mind. I had been doing research in machine learning for
several years, and had built Keras to help me with my own
experiments. But throughout 2015 and 2016, tens of thousands of
new people entered the field of deep learning; many of them picked
up Keras because it was—and still is—the easiest framework to get
started with. As I watched scores of newcomers use Keras in
unexpected, powerful ways, I came to care deeply about the
accessibility and democratization of AI. I realized that the further we
spread these technologies, the more useful and valuable they
become. Accessibility quickly became an explicit goal in the
development of Keras, and over a few short years, the Keras
developer community has made fantastic achievements on this front.
We’ve put deep learning into the hands of tens of thousands of
people, who in turn are using it to solve important problems we
didn’t even know existed until recently.
The book you’re holding is another step on the way to making deep
learning available to as many people as possible. Keras had always
needed a companion course to simultaneously cover fundamentals
of deep learning, Keras usage patterns, and deep-learning best
practices. This book is my best effort to produce such a course. I
wrote it with a focus on making the concepts behind deep learning,
and their implementation, as approachable as possible. Doing so
didn’t require me to dumb down anything—I strongly believe that
there are no difficult ideas in deep learning. I hope you’ll find this
book valuable and that it will enable you to begin building intelligent
applications and solve the problems that matter to you.
Acknowledgments

I’d like to thank the Keras community for making this book possible.
Keras has grown to have hundreds of open source contributors and
more than 200,000 users. Your contributions and feedback have
turned Keras into what it is today.

I’d also like to thank Google for backing the Keras project. It has
been fantastic to see Keras adopted as TensorFlow’s high-level API.
A smooth integration between Keras and TensorFlow greatly benefits
both TensorFlow users and Keras users and makes deep learning
accessible to most.

I want to thank the people at Manning who made this book possible:
publisher Marjan Bace and everyone on the editorial and production
teams, including Christina Taylor, Janet Vail, Tiffany Taylor, Katie
Tennant, Dottie Marsico, and many others who worked behind the
scenes.

Many thanks go to the technical peer reviewers led by Aleksandar


Dragosavljević—Diego Acuña Rozas, Geoff Barto, David Blumenthal-
Barby, Abel Brown, Clark Dorman, Clark Gaylord, Thomas Heiman,
Wilson Mar, Sumit Pal, Vladimir Pasman, Gustavo Patino, Peter
Rabinovitch, Alvin Raj, Claudio Rodriguez, Srdjan Santic, Richard
Tobias, Martin Verzilli, William E. Wheeler, and Daniel Williams—and
the forum contributors. Their contributions included catching
technical mistakes, errors in terminology, and typos, and making
topic suggestions. Each pass through the review process and each
piece of feedback implemented through the forum topics shaped and
molded the manuscript.

On the technical side, special thanks go to Jerry Gaines, who served


as the book’s technical editor; and Alex Ott and Richard Tobias, who
served as the book’s technical proofreaders. They’re the best
technical editors I could have hoped for.

Finally, I’d like to express my gratitude to my wife Maria for being


extremely supportive throughout the development of Keras and the
writing of this book.
About this Book

This book was written for anyone who wishes to explore deep
learning from scratch or broaden their understanding of deep
learning. Whether you’re a practicing machine-learning engineer, a
software developer, or a college student, you’ll find value in these
pages.

This book offers a practical, hands-on exploration of deep learning.


It avoids mathematical notation, preferring instead to explain
quantitative concepts via code snippets and to build practical
intuition about the core ideas of machine learning and deep learning.

You’ll learn from more than 30 code examples that include detailed
commentary, practical recommendations, and simple high-level
explanations of everything you need to know to start using deep
learning to solve concrete problems.

The code examples use the Python deep-learning framework Keras,


with TensorFlow as a backend engine. Keras, one of the most
popular and fastest-growing deep-learning frameworks, is widely
recommended as the best tool to get started with deep learning.

After reading this book, you’ll have a solid understand of what deep
learning is, when it’s applicable, and what its limitations are. You’ll
be familiar with the standard workflow for approaching and solving
machine-learning problems, and you’ll know how to address
commonly encountered issues. You’ll be able to use Keras to tackle
real-world problems ranging from computer vision to natural-
language processing: image classification, timeseries forecasting,
sentiment analysis, image and text generation, and more.

Who should read this book


This book is written for people with Python programming experience
who want to get started with machine learning and deep learning.
But this book can also be valuable to many different types of
readers:

If you’re a data scientist familiar with machine learning, this


book will provide you with a solid, practical introduction to deep
learning, the fastest-growing and most significant subfield of
machine learning.
If you’re a deep-learning expert looking to get started with the
Keras framework, you’ll find this book to be the best Keras crash
course available.
If you’re a graduate student studying deep learning in a formal
setting, you’ll find this book to be a practical complement to
your education, helping you build intuition around the behavior
of deep neural networks and familiarizing you with key best
practices.

Even technically minded people who don’t code regularly will find
this book useful as an introduction to both basic and advanced deep-
learning concepts.

In order to use Keras, you’ll need reasonable Python proficiency.


Additionally, familiarity with the Numpy library will be helpful,
although it isn’t required. You don’t need previous experience with
machine learning or deep learning: this book covers from scratch all
the necessary basics. You don’t need an advanced mathematics
background, either—high school–level mathematics should suffice in
order to follow along.

Roadmap

This book is structured in two parts. If you have no prior experience


with machine learning, I strongly recommend that you complete part
1 before approaching part 2. We’ll start with simple examples, and as
the book goes on, we’ll get increasingly close to state-of-the-art
techniques.

Part 1 is a high-level introduction to deep learning, providing context


and definitions, and explaining all the notions required to get started
with machine learning and neural networks:

Chapter 1 presents essential context and background knowledge


around AI, machine learning, and deep learning.
Chapter 2 introduces fundamental concepts necessary in order to
approach deep learning: tensors, tensor operations, gradient
descent, and backpropagation. This chapter also features the
book’s first example of a working neural network.
Chapter 3 includes everything you need to get started with
neural networks: an introduction to Keras, our deep-learning
framework of choice; a guide for setting up your workstation;
and three foundational code examples with detailed
explanations. By the end of this chapter, you’ll be able to train
simple neural networks to handle classification and regression
tasks, and you’ll have a solid idea of what’s happening in the
background as you train them.
Chapter 4 explores the canonical machine-learning workflow.
You’ll also learn about common pitfalls and their solutions.

Part 2 takes an in-depth dive into practical applications of deep


learning in computer vision and natural-language processing. Many
of the examples introduced in this part can be used as templates to
solve problems you’ll encounter in the real-world practice of deep
learning:

Chapter 5 examines a range of practical computer-vision


examples, with a focus on image classification.
Chapter 6 gives you practice with techniques for processing
sequence data, such as text and timeseries.
Chapter 7 introduces advanced techniques for building state-of-
the-art deep-learning models.
Chapter 8 explains generative models: deep-learning models
capable of creating images and text, with sometimes
surprisingly artistic results.
Chapter 9 is dedicated to consolidating what you’ve learned
throughout the book, as well as opening perspectives on the
limitations of deep learning and exploring its probable future.

Software/hardware requirements

All of this book’s code examples use the Keras deep-learning


framework (https://keras.io), which is open source and free to
download. You’ll need access to a UNIX machine; it’s possible to use
Windows, too, but I don’t recommend it. Appendix A walks you
through the complete setup.

I also recommend that you have a recent NVIDIA GPU on your


machine, such as a TITAN X. This isn’t required, but it will make
your experience better by allowing you to run the code examples
several times faster. See section 3.3 for more information about
setting up a deep-learning workstation.

If you don’t have access to a local workstation with a recent NVIDIA


GPU, you can use a cloud environment, instead. In particular, you
can use Google Cloud instances (such as an n1-standard-8 instance
with an NVIDIA Tesla K80 add-on) or Amazon Web Services (AWS)
GPU instances (such as a p2.xlarge instance). Appendix B presents in
detail one possible cloud workflow that runs an AWS instance via
Jupyter notebooks, accessible in your browser.

Source code
All code examples in this book are available for download as Jupyter
notebooks from the book’s website, www.manning.com/books/deep-
learning-with-python, and on GitHub at https://github.com/fchollet/deep-
learning-with-python-notebooks.

Book forum

Purchase of Deep Learning with Python includes free access to a


private web forum run by Manning Publications where you can make
comments about the book, ask technical questions, and receive help
from the author and from other users. To access the forum, go to
https://forums.manning.com/forums/deep-learning-with-python. You can
also learn more about Manning’s forums and the rules of conduct at
https://forums.manning.com/forums/about.

Manning’s commitment to our readers is to provide a venue where a


meaningful dialogue between individual readers and between
readers and the author can take place. It isn’t a commitment to any
specific amount of participation on the part of the author, whose
contribution to the forum remains voluntary (and unpaid). We
suggest you try asking him some challenging questions lest his
interest stray! The forum and the archives of previous discussions
will be accessible from the publisher’s website as long as the book is
in print.
About the Author

François Chollet works on deep learning at Google in Mountain View,


CA. He is the creator of the Keras deep-learning library, as well as a
contributor to the TensorFlow machine-learning framework. He also
does deep-learning research, with a focus on computer vision and
the application of machine learning to formal reasoning. His papers
have been published at major conferences in the field, including the
Conference on Computer Vision and Pattern Recognition (CVPR), the
Conference and Workshop on Neural Information Processing
Systems (NIPS), the International Conference on Learning
Representations (ICLR), and others.
About the Cover

The figure on the cover of Deep Learning with Python is captioned


“Habit of a Persian Lady in 1568.” The illustration is taken from
Thomas Jefferys’ A Collection of the Dresses of Different Nations,
Ancient and Modern (four volumes), London, published between
1757 and 1772. The title page states that these are hand-colored
copperplate engravings, heightened with gum arabic.

Thomas Jefferys (1719–1771) was called “Geographer to King


George III.” He was an English cartographer who was the leading
map supplier of his day. He engraved and printed maps for
government and other official bodies and produced a wide range of
commercial maps and atlases, especially of North America. His work
as a map maker sparked an interest in local dress customs of the
lands he surveyed and mapped, which are brilliantly displayed in this
collection. Fascination with faraway lands and travel for pleasure
were relatively new phenomena in the late eighteenth century, and
collections such as this one were popular, introducing both the
tourist as well as the armchair traveler to the inhabitants of other
countries.

The diversity of the drawings in Jefferys’ volumes speaks vividly of


the uniqueness and individuality of the world’s nations some 200
years ago. Dress codes have changed since then, and the diversity
by region and country, so rich at the time, has faded away. It’s now
often hard to tell the inhabitants of one continent from another.
Perhaps, trying to view it optimistically, we’ve traded a cultural and
visual diversity for a more varied personal life—or a more varied and
interesting intellectual and technical life.

At a time when it’s difficult to tell one computer book from another,
Manning celebrates the inventiveness and initiative of the computer
Exploring the Variety of Random
Documents with Different Content
VI. Widerlegung der Kantischen
Voraussetzung durch die
Relativitätstheorie.
Wir greifen auf die Resultate der Abschnitte II und III zurück.
Dort wurde behauptet, daß die Relativitätstheorie einen Widerspruch
bisher apriorer Sätze mit der Erfahrung festgestellt hätte. In
welchem Sinne ist dies möglich? Schließt nicht der K a n tische
Beweis für die unbeschränkte Gültigkeit konstitutiver Prinzipien
solchen Widerspruch aus?
Wir haben die Prinzipien, deren Unvereinbarkeit mit der
Erfahrung durch die spezielle Relativitätstheorie behauptet wird, auf
S. 15 zusammengestellt. Wir haben dort auch bereits ausgeführt, in
welchem Sinne die Unvereinbarkeit zu verstehen ist. Hält man an der
absoluten Zeit fest, so muß man bei der Extrapolation des
Erfahrungsmaterials von dem normalen Verfahren abweichen.
Wegen der Dehnbarkeit des Begriffs „normal“ ist das in gewissen
Grenzen immer möglich; aber es gibt Fälle — und solch einer ist hier
verwirklicht — wo die Extrapolation dadurch entschieden anomal
wird. Man hat also die Wahl: Hält man an der absoluten Zeit fest, so
muß man die normale Induktion verlassen, und umgekehrt. Nur in
diesem Sinne kann ein Widerspruch mit der Erfahrung behauptet
werden. Aber alle genannten Prinzipien sind apriori im Sinne K a n t s.
Wir dürfen deshalb behaupten, daß die spezielle Relativitätstheorie
die Unvereinbarkeit eines Systems apriorer Prinzipien mit der
normalen induktiven Deutung des Beobachtungsmaterials
nachgewiesen hat.
Für die allgemeine Relativitätstheorie liegen die Verhältnisse im
wesentlichen ebenso. Die Prinzipien, die nach ihrer Aussage einen
Widerspruch ergeben, sind auf S. 29 zusammengestellt. Diese
Zusammenstellung unterscheidet sich nur dadurch von der soeben
genannten, daß in ihr außer aprioren Prinzipien noch ein nicht
evidentes Prinzip auftritt, das Prinzip der speziellen Relativität. Aber
dieses Prinzip ist in sich widerspruchsfrei, und auch ohne expliziten
Widerspruch zu den danebengestellten Prinzipien, so daß damit ein
explizit widerspruchsfreies System aufgestellt ist, welches mit der
normalen induktiven Deutung des Beobachtungsmaterials nicht
vereinbar ist. Es kommt aber noch eine Besonderheit hinzu. Das
nicht evidente Prinzip ist gerade dasjenige, welches den Vorzug hat,
den Widerspruch der genannten ersten Zusammenstellung zu lösen.
Es ist also ebenfalls ein ausgezeichnetes System, dessen
Widerspruch zur Erfahrung behauptet wird.
Mit diesen Zusammenstellungen ist die Antwort auf die
Hypothese der Zuordnungswillkür, von der wir die Geltung der
K a n tischen Erkenntnislehre abhängig machten, zurückgeschoben
auf das Problem der normalen Induktion. Es muß deshalb die
Bedeutung dieses Prinzips für die Erkenntnis untersucht werden.
Es ist auch sehr verständlich, daß hier das Induktionsproblem
hineinkommen muß. Denn der induktive Schluß ist vor allen anderen
durch die Unsicherheit und Dehnbarkeit seiner Resultate
ausgezeichnet. Die Hypothese der Zuordnungswillkür erscheint von
vornherein sehr unwahrscheinlich; und wenn sie gerechtfertigt
werden soll, muß sie auf die Unbestimmtheit in der Wirklichkeitsseite
der Zuordnung zurückgehen. Aber diese Unbestimmtheit ist ja
gerade der Kernpunkt des Induktionsproblems. Im Induktionsschluß
wird eine Aussage gemacht, die über die unmittelbaren Daten der
Erfahrung hinausgeht; sie muß gemacht werden, weil die Erfahrung
immer nur Daten gibt, und keine Relationen, weil sie nur ein
Kriterium für die Eindeutigkeit der Zuordnung liefert, und nicht die
Zuordnung selbst. Wir sprachen von der normalen Induktion. Aber
ist nicht eine Induktion erst dann normal, wenn sie solche
Deutungen von vornherein ausschließt, die den
Zuordnungsprinzipien widersprechen? Auf diesem Gedanken beruht
der K a n tische Beweis für die Unabhängigkeit der
Zuordnungsprinzipien von der Erfahrung. Wir halten uns deshalb für
die Untersuchung dieser Frage unmittelbar an diesen Beweis.
K a n t s Beweisgang verläuft folgendermaßen. Jede Erfahrung
setzt die Geltung der konstitutiven Prinzipien voraus. Wenn deshalb
von Erfahrungsdaten auf Gesetze geschlossen werden soll, so
müssen solche Deutungen der Erfahrungsdaten, die den
vorausgesetzten Prinzipien widersprechen, von vornherein
ausgeschlossen werden. Eine Induktion kann nur dann als normal
gelten, wenn ihr dieser Ausschluß vorausgegangen ist. Darum kann
kein Erfahrungsresultat die konstitutiven Prinzipien widerlegen.
Die Analyse dieses Beweises läßt sich auf die Beantwortung
zweier Fragen zurückführen.
Ist es logisch w i d e r s i n n i g, solche induktiven Deutungen des
Erfahrungsmaterials vorzunehmen, die einen Widerspruch zu den
Zuordnungsprinzipien darstellen?
Ist es logisch z u l ä s s i g, vor der induktiven Deutung des
Erfahrungsmaterials solche Deutungen auszuschließen, die einem
Zuordnungsprinzip widersprechen?
Es sei, um die Terminologie zu fixieren, vorausgeschickt, daß wir
in den folgenden Ausführungen unter dem normalen
Induktionsverfahren nicht das in jenem Beweisgang entwickelte
Verfahren, sondern das allgemein übliche Verfahren der Physik, wie
wir es im Abschnitt II geschildert haben, verstehen werden.
Wir beantworten die erste Frage. Warum soll denn solch ein
Verfahren logisch widersinnig sein? Indem man feststellt, ob man mit
der fortgesetzten Anwendung eines Prinzips und normalem
Induktionsverfahren zu einer eindeutigen Zuordnung kommt oder
nicht, prüft man das implizierte Prinzip. Das ist ein vielbenutztes
Verfahren der Physik: man entwirft eine Theorie, deutet nach ihr die
Erfahrungsresultate, und sieht nach, ob man zur Eindeutigkeit
kommt. Ist das nicht der Fall, so gibt man die Theorie auf. Dieses
Verfahren läßt sich für Zuordnungsprinzipien genau so durchführen.
Es schadet gar nichts, daß das zu prüfende Prinzip bereits in
s ä m t l i c h e n zur Induktion verwandten Erfahrungen vorausgesetzt
wird. Es ist keineswegs widersinnig, einen Widerspruch des
Zuordnungssystems mit der Erfahrung zu behaupten.
Die zweite Frage beantwortet sich schwieriger. Wir wollen aber
beweisen, daß ihre Bejahung zum Verzicht auf die Eindeutigkeit der
Zuordnung führt.
Wir wollen zunächst zeigen, daß das in der Frage charakterisierte
Verfahren, angewandt auf irgend ein Einzelgesetz, der Zuordnung
die Eindeutigkeit nimmt. Es seien etwa Messungen zum B o i l eschen
Gesetz ausgeführt, und für das Produkt von Druck und Volumen eine
Reihe von Messungsdaten gegeben, die für verschiedene Werte der
beiden Veränderlichen aufgenommen sind. Wir wollen fordern, daß
eine solche Beurteilung der Messungszahlen stattfindet, die mit einer
fingierten Formel pV2 = konst. nicht in Widerspruch kommt, und
gleichzeitig auch die für die Aufstellung der Messungsdaten
benutzten speziellen physikalischen Gesetze nicht verletzt, also z. B.
die Relationen zwischen Druck und Quecksilberhöhe nicht zerstört[E].
Diese Interpretation der Messungszahlen ist deshalb möglich, weil
die Zahlen wegen der Messungsfehler nicht genau gleich sind, und
weil sie aus den unendlich vielen verschiedenen möglichen Werten
der Variablen immer nur eine Auswahl bedeuten. Das normale
Verfahren ist dabei derart, daß man die Zahlen, wenn ihre
Abweichungen gering sind, als die durch Messungsfehler leicht
variierten Werte einer Konstanten deutet, und daß man für die nicht
gemessenen Zwischenwerte und auch noch für ein Stück über die
Enden der Messungsreihe hinaus denselben Wert der Konstanten
annimmt. Das ist die normale Induktion. Hält man aber an der
Formel pV2 = konst. dogmatisch fest und schließt jede
widersprechende Induktion aus, so wird man die Messungszahlen
anders deuten. Man nimmt etwa an, daß für die gemessenen Werte
gerade Störungen in der Apparatur eingetreten sind, und indem man
besonders widersprechende Werte einfach wegläßt, interpoliert und
extrapoliert man die übrigen derart, daß eine mit steigendem
Volumen fallende Kurve entsteht. Ein solches Verfahren ist allerdings
m ö g l i c h, wenn es auch der üblichen wissenschaftlichen Methode
widerspricht. Es führt nur nicht zu einer eindeutigen Zuordnung.
Denn um eine Zuordnung als eindeutig zu konstatieren, muß wegen
der stets auftretenden Messungsfehler eine Hypothese über die
Streuung der Zahlwerte gemacht werden, und diese Hypothese
fordert, daß man eine mittlere stetige Kurve durch die
Messungszahlen legt. Wenn also von einer eindeutigen Zuordnung
bei der Ungenauigkeit jeder Meßapparatur überhaupt die Rede sein
soll, muß an dem Prinzip der normalen Induktion festgehalten
werden[18].

[E] Eine solche Bestimmung muß hinzutreten, weil sonst die


konsequente Verfolgung der Forderung zu einer Definition des
Volumens führen würde, die unter Volumen die Quadratwurzel aus
dem sonst benutzten Wert versteht. Das wäre keine Änderung der
Gesetze, sondern nur der Bezeichnungsweise.

Diese Verhältnisse werden aber nicht anders, wenn man die


Untersuchung auf ein Zuordnungsprinzip erstreckt. Ist ein solches
Erfahrungsmaterial zusammengetragen, daß seine induktive Deutung
einem Zuordnungsprinzip widerspricht, so darf man deshalb nicht
von der normalen Induktion abweichen. Auch in diesem Falle würde
man damit die Eindeutigkeit der Zuordnung aufgeben, denn wenn
diese Eindeutigkeit überhaupt konstatierbar sein soll, muß die
wahrscheinlichkeitstheoretische Annahme über die Messungszahlen
gemacht werden. Das Prinzip der normalen Induktion ist vor allen
anderen Zuordnungsprinzipien dadurch ausgezeichnet, daß es selbst
erst die Eindeutigkeit der Zuordnung definiert. Wenn also an der
Eindeutigkeit festgehalten werden soll, so müssen eher alle anderen
Zuordnungsprinzipien fallen als das Induktionsprinzip.
Der K a n tische Beweis ist also falsch. Es ist durchaus möglich,
einen Widerspruch der konstitutiven Prinzipien mit der Erfahrung
festzustellen. Und da die Relativitätstheorie diesen Widerspruch mit
aller Sicherheit der empirischen Physik nachgewiesen hat, dürfen wir
ihre Antwort auf die K a n tische Hypothese der Zuordnungswillkür in
folgenden Satz zusammenfassen: E s g i b t S y s t e m e v o n
Zuordnungsprinzipien, die die Eindeutigkeit der
Zuordnung unmöglich machen, also implizit
w i d e r s p r u c h s v o l l e S y s t e m e . Wir bemerken nochmals, daß
dieses Resultat nicht selbstverständlich ist, sondern erst durch den
konsequenten Ausbau einer empirischen Physik möglich wurde. Hat
man kein solches Wissenschaftssystem, so ist die Willkür in der
Deutung der wenigen unmittelbaren Erfahrungsresultate viel zu
groß, als daß von einem Widerspruch zum Induktionsprinzip
gesprochen werden könnte.
Aber die Antwort der Relativitätstheorie hat noch eine ganz
besondere Bedeutung. Diese Theorie hat nämlich gezeigt, daß
gerade dasjenige Zuordnungssystem, welches durch E v i d e n z
ausgezeichnet ist, einen Widerspruch ergibt; und daß, wenn man
diesen Widerspruch durch Verzicht auf eines der evidenten Prinzipien
löst, sogleich durch Hinzutreten weiterer evidenter Prinzipien ein
zweiter noch tieferer Widerspruch entsteht. Und das hat eine sehr
weitgehende Konsequenz. Alle bisherigen Resultate der Physik sind
mit dem evidenten System gewonnen. Wir fanden, daß dies den
Widerspruch nicht ausschließt, daß er also mit Recht konstatiert
werden kann — aber wie sollen wir zu einem neuen System
gelangen? Bei Einzelgesetzen ist das sehr leicht, denn man braucht
dazu nur diejenigen Voraussetzungen zu ändern, in denen dieses
Einzelgesetz enthalten war. Aber wir haben gesehen, daß
Zuordnungsprinzipien in j e d e m Gesetz enthalten sind, und wenn
wir neue Zuordnungsprinzipien induktiv prüfen wollen, müßten wir
also zuvor jedes benutzte physikalische Gesetz ändern. Denn das
wäre in der Tat ein Widersinn, wenn wir neue Prinzipien mit
Erfahrungen prüfen wollten, in denen die alten Prinzipien noch
vorausgesetzt sind. Wollte man z. B. versuchsweise den Raum als
vierdimensional annehmen, so müßte man bei der Prüfung dieser
Theorie alle bisher benutzten Methoden der Längenmessung
aufgeben, und sie durch eine mit der Vierdimensionalität vereinbare
Messung ersetzen. Auch alle Gesetze über das Verhalten des
benutzten Materials in der Meßapparatur, über die Geschwindigkeit
des Lichts usw. müßten aufgegeben werden. Ein solches Verfahren
wäre aber t e c h n i s c h u n m ö g l i c h. Denn wir können die Physik
heute nicht mehr von vorn anfangen.
Wir sind also in einer Zwangslage. Wir geben zu, daß die
bisherigen Prinzipien zu einem Widerspruch geführt haben, aber wir
sehen uns nicht in der Lage, sie durch neue zu ersetzen.
In dieser Zwangslage zeigt abermals die Relativitätstheorie den
Weg. Denn sie hat nicht nur das alte Zuordnungssystem widerlegt,
sondern auch ein neues aufgestellt; und das Verfahren, welches
E i n s t e i n dabei benutzt hat, ist in der Tat eine glänzende Lösung
dieses Problems.
Der Widerspruch, der entsteht, wenn man mit dem alten
Zuordnungsprinzip Erfahrungen gewinnt und damit ein neues
Zuordnungsprinzip beweisen will, fällt unter einer Bedingung fort:
wenn das alte Prinzip als eine Näherung für gewisse einfache Fälle
angesehen werden kann. Da die Erfahrungen doch nur
Näherungsgesetze sind, so dürfen sie mit Hilfe der alten Prinzipien
aufgestellt werden; dies schließt nicht aus, daß die Gesamtheit der
Erfahrungen induktiv ein allgemeineres Prinzip beweist. E s i s t
also logisch zulässig und technisch möglich, solche
n e u e n Z u o rd n u n g s p r i n z i p i e n a u f i n d u k t i ve m We g e
zu finden, die eine stetige Erweiterung der bisher
b e n u t z t e n P r i n z i p i e n d a r s t e l l e n . Stetig nennen wir diese
Verallgemeinerung, weil das neue Prinzip für gewisse
näherungsweise verwirklichte Fälle mit einer der Näherung
entsprechenden Genauigkeit in das alte Prinzip übergehen soll. Wir
wollen dieses induktive Verfahren als V e r f a h r e n d e r s t e t i g e n
E r w e i t e r u n g b e z e i c h n e n.
Wir bemerken, daß dies der Weg ist, den die Relativitätstheorie
ging. Als E ö t v ö s die Gleichheit von träger und schwerer Masse
experimentell bestätigte, mußte er für die Auswertung seiner
Beobachtungen die Geltung der euklidischen Geometrie in den
Dimensionen seiner Drehwage voraussetzen. Trotzdem konnte das
Resultat seiner Induktionen ein Beweis für die Gültigkeit der
R i e m a n nschen Geometrie in den Dimensionen der Himmelskörper
werden. Die Korrektionen der Relativitätstheorie an der Längen- und
Zeitmessung sind alle so bemessen, daß sie für die gewöhnlichen
Experimentierbedingungen vernachlässigt werden können. Wenn
z. B. der Astronom eine Uhr, mit der er Sternbeobachtungen
aufnimmt, von einem Tisch auf den anderen legt, so braucht er
deswegen noch nicht die E i n s t e i nsche Zeitkorrektion für bewegte
Uhren einzuführen, und kann trotzdem mit dieser Uhr einen Standort
des Merkurs feststellen, der eine Verschiebung des Perihels und
damit einen Beweis für die Relativitätstheorie bedeutet. Wenn die
Relativitätstheorie eine Krümmung der Lichtstrahlen im
Gravitationsfeld der Sonne behauptet, so kann die Auswertung der
Sternaufnahmen trotzdem die Lichtstrecke innerhalb des Fernrohrs
als geradlinig voraussetzen und die Aberrationskorrektion nach der
üblichen Methode berechnen. Und das gilt nicht nur für den Schluß
von kleinen auf große Dimensionen. Wenn etwa die fortschreitende
Theorie dazu kommt, für das Elektron eine starke Raumkrümmung
innerhalb seines Kraftfelds zu behaupten, so ließe sich diese
Krümmung indirekt mit Apparaten konstatieren, deren Abmessungen
innerhalb der gewöhnlichen Größenordnungen liegen und darum als
euklidisch angenommen werden können.
Mir scheint, daß dieses Verfahren der stetigen Erweiterung den
Kernpunkt für die Widerlegung der K a n tischen Aprioritätslehre
darstellt. Denn es zeigt nicht nur einen Weg, die alten Prinzipien zu
widerlegen, sondern auch einen Weg, neue als berechtigt
aufzustellen; und darum ist dieses Verfahren geeignet, nicht nur alle
theoretischen, sondern auch alle praktischen Bedenken zu
zerstreuen.
Es muß in diesem Zusammenhange bemerkt werden, daß die von
uns formulierte Hypothese der Zuordnungswillkür und ihre
Widerlegung durch die Erfahrung K a n t s eigenen Gedanken nicht so
fremd ist, wie es zuerst scheinen mag. K a n t hatte seine Lehre vom
Apriori auf die Möglichkeit der Erkenntnis basiert; aber er war sich
wohl bewußt, daß er einen B e w e i s f ü r d i e s e M ö g l i c h k e i t
nicht geben konnte. Er hielt es nicht für ausgeschlossen, daß
E r k e n n t n i s u n m ö g l i c h wäre, und sah es für einen großen
Zufall an, daß die Natur gerade eine solche Einfachheit und
Regelmäßigkeit besitzt, daß sie nach den Grundsätzen der
menschlichen Vernunft geordnet werden kann. Die begrifflichen
Schwierigkeiten, die ihm hier erwuchsen, hat er in der Kritik der
Urteilskraft zum Gegenstand der Untersuchung gemacht. „Der
Verstand ist zwar apriori im Besitze allgemeiner Gesetze der Natur,
ohne welche sie gar kein Gegenstand einer Erfahrung sein könnte,
aber er bedarf doch auch überdem noch einer gewissen Ordnung
der Natur … Diese Zusammenstimmung der Natur zu unserem
Erkenntnisvermögen wird von der Urteilskraft … apriori
vorausgesetzt, indem sie der V e r s t a n d z u g l e i c h o b j e k t i v a l s
z u f ä l l i g a n e r k e n n t. … Denn es läßt sich wohl denken, daß es
für unseren Verstand unmöglich wäre, in der Natur eine faßliche
Ordnung zu entdecken[19].“ Es erscheint befremdend, daß K a n t,
nach einer so klaren Einsicht in die Zufälligkeit der Anpassung von
Natur und Vernunft, dennoch an seiner starren Theorie des Apriori
festgehalten hat. Der Fall, den er hier vorausgesehen hat, daß es
nämlich dem Verstand unmöglich wird, mit seinem mitgebrachten
System eine faßliche Ordnung in der Natur herzustellen, ist in der Tat
eingetreten: die Relativitätstheorie hat den Nachweis erbracht, daß
mit dem evidenten System der Vernunft eine eindeutige Ordnung
der Erfahrung nicht mehr möglich ist. Aber während die
Relativitätstheorie daraus den Schluß gezogen hat, daß man die
konstitutiven Prinzipien ändern muß, glaubte K a n t, daß damit jede
Erkenntnis überhaupt aufhören würde; er hielt eine solche Änderung
für unmöglich, weil wir nur soweit, als jene Zusammenstimmung von
Natur und Vernunft stattfindet, „mit dem Gebrauche unseres
Verstandes in der Erfahrung fortkommen und Erkenntnis erwerben
können“. Erst das K a n t noch unbekannte Verfahren der stetigen
Erweiterung überwindet diese Schwierigkeit, und darum konnte sein
starres Apriori erst mit der Entdeckung dieses Verfahrens durch die
Physik widerlegt werden.
Wir müssen dieser Auflösung der K a n tischen Aprioritätslehre
noch einige allgemeine Bemerkungen hinzufügen. Es scheint uns der
Fehler K a n t s zu sein, daß er, der mit der kritischen Frage den
tiefsten Sinn aller Erkenntnistheorie aufgezeigt hatte, in ihrer
Beantwortung zwei Absichten miteinander verwechselte. Wenn er
die Bedingungen der Erkenntnis suchte, so mußte er die
E r k e n n t n i s analysieren; aber was er analysierte, war die
V e r n u n f t. Er mußte A x i o m e suchen, anstatt K a t e g o r i e n. Es ist
ja richtig, daß die Art der Erkenntnis durch die Vernunft bestimmt
ist; aber worin der Einfluß der Vernunft besteht, kann sich immer nur
wieder in der Erkenntnis ausdrücken, nicht in der Vernunft. Es kann
auch gar keine logische Analyse der Vernunft geben, denn die
Vernunft ist kein System fertiger Sätze, sondern ein Vermögen, das
erst in der Anwendung auf konkrete Probleme fruchtbar wird. So
wird er durch seine Methode immer wieder auf das Kriterium der
Evidenz zurückgewiesen. In seiner Raumphilosophie macht er davon
Gebrauch und beruft sich auf die Evidenz der geometrischen
Axiome; aber auch für die Geltung der Kategorien hat er im
wesentlichen keine anderen Argumente. Zwar versucht er sie als
notwendig für die Erkenntnis hinzustellen. Aber daß gerade die von
ihm genannten Kategorien notwendig sind, kann er nur dadurch
begründen, daß er sie als in unserem vernünftigen Denken enthalten
aufweist, daß er sie durch eine Art Anschauung der Begriffe
konstatiert. Denn die logische Gliederung der Urteile, der die
Kategorientafel entstammt, ist nicht in unmittelbarer Berührung mit
dem Erkenntnisvorgang entstanden, sondern bedeutet ein
spekulatives Ordnungsschema des Verstandes, das kraft seiner
Evidenz für den Erkenntnisvorgang übernommen wird. So erreicht er
mit der Aufstellung seiner aprioren Prinzipien im Grunde nichts
anderes als eine Heiligsprechung des „gesunden
Menschenverstandes“, jener naiven Form der Vernunftbejahung, die
er selbst gelegentlich mit so nüchtern-geistvollen Worten abzutun
weiß.
In diesem Verfahren K a n t s scheint uns sein methodischer Fehler
zu liegen, der es bewirkt hat, daß das großartig angelegte System
der kritischen Philosophie nicht zu Resultaten geführt hat, die vor
der vorwärtseilenden Naturwissenschaft Bestand haben. So
leuchtend die kritische Frage: Wie ist Erkenntnis möglich? vor aller
Erkenntnistheorie steht — sie kann nicht eher zu gültigen Antworten
führen, als bis die Methode ihrer Beantwortung von der Enge einer
psychologisch-spekulativen Einsicht befreit ist.
VII. Beantwortung der kritischen
Frage durch die
wissenschaftsanalytische Methode.
Die Widerlegung des positiven Teils der K a n tischen
Erkenntnistheorie enthebt uns nicht der Verpflichtung, den kritischen
Teil dieser Lehre in seiner grundsätzlichen Gestalt wieder
aufzunehmen. Denn wir hatten gefunden, daß die Frage: Wie ist
Erkenntnis möglich? unabhängig von der K a n tischen Antwort ihren
guten Sinn hat, und wir konnten ihr innerhalb unseres
Begriffskreises eine präzise Form geben. Es ist nach der Ablehnung
der K a n tischen Antwort jetzt unsere Aufgabe, den Weg zur
Beantwortung der kritischen Frage aufzuzeigen: Mit welchen
Zuordnungsprinzipien ist eine eindeutige Zuordnung von
Gleichungen zur Wirklichkeit möglich?
Wir sehen diesen Weg in der Einführung der
wissenschaftsanalytischen Methode in die
Erkenntnistheorie. Die von den positiven Wissenschaften in stetem
Zusammenhang mit der Erfahrung gefundenen Resultate setzen
Prinzipien voraus, deren Aufdeckung durch logische Analyse eine
Aufgabe der Philosophie ist. Durch den Ausbau der Axiomatik, die
seit H i l b e r t s Axiomen der Geometrie den Weg zur Verwendung der
modernen mathematisch-logischen Begriffe gefunden hat, ist hier
schon wesentliche Arbeit geleistet worden. Und man muß sich
darüber klar werden, daß es auch für die Erkenntnistheorie kein
anderes Verfahren gibt, a l s f e s t z u s t e l l e n , w e l c h e s d i e i n
der Erkenntnis tatsächlich angewandten Prinzipien
s i n d. Der Versuch K a n t s, diese Prinzipien aus der Vernunft zu
entnehmen, muß als gescheitert betrachtet werden; an Stelle seiner
deduktiven Methode muß eine induktive Methode treten. Induktiv ist
sie insofern, als sie sich lediglich an das positiv vorliegende
Erkenntnismaterial hält; aber ihre analysierende Methode ist
natürlich nicht mit dem Induktionsschluß zu vergleichen. Um
Verwechslungen zu vermeiden, wählen wir deshalb den Namen:
wissenschaftsanalytische Methode.
Für ein Spezialgebiet der Physik, für die
Wahrscheinlichkeitsrechnung, konnte eine derartige Analyse vom
Verfasser bereits durchgeführt werden[20]. Sie führte zur Aufdeckung
eines Axioms, das grundsätzliche Bedeutung für die physikalische
Erkenntnis besitzt, und als Prinzip der Verteilung neben das
Kausalitätsgesetz als Prinzip der Verknüpfung gesetzt wurde. Für die
Relativitätstheorie ist diese Arbeit im wesentlichen bereits von ihrem
Schöpfer geleistet worden. Denn E i n s t e i n hat bei allen seinen
Arbeiten die Prinzipien an die Spitze gestellt, aus denen er seine
Theorie deduziert. Allerdings ist der Gesichtspunkt, unter dem der
Physiker seine Prinzipien aufstellt, noch verschieden von dem
Gesichtspunkt des Philosophen. Der Physiker will möglichst einfache
und umfassende Annahmen an die Spitze stellen, der Philosoph aber
will diese Annahmen ordnen und gliedern in spezielle und
allgemeine, in Verknüpfungs- und Zuordnungsprinzipien. Insofern ist
auch für die Relativitätstheorie noch eine Arbeit zu leisten; als ein
Beitrag dazu mögen die Abschnitte II und III dieser Untersuchung
aufgefaßt werden.
Besonders zu beachten ist hier aber der Unterschied zwischen
Physik und Mathematik. Der Mathematik ist die Anwendbarkeit ihrer
Sätze auf Dinge der Wirklichkeit gleichgültig, und ihre Axiome
enthalten lediglich ein System von Regeln nach dem ihre Begriffe
unter sich verknüpft werden. Die rein mathematische Axiomatik führt
überhaupt nicht auf Prinzipien einer Theorie der
N a t u r e r k e n n t n i s. Darum konnte auch die Axiomatik der
Geometrie gar nichts über das erkenntnistheoretische Raumproblem
aussagen. Erst eine physikalische Theorie konnte die Geltungsfrage
des euklidischen Raumes beantworten, und gleichzeitig die dem
Raum der Naturdinge zugrunde liegenden erkenntnistheoretischen
Prinzipien aufdecken. Ganz falsch ist es aber, wenn man daraus, wie
z. B. W e y l und auch H a a s [21], wieder den Schluß ziehen will, daß
Mathematik und Physik zu einer einzigen Disziplin
zusammenwachsen. Die Frage der G e l t u n g von Axiomen für die
Wirklichkeit und die Frage nach den möglichen Axiomen sind absolut
zu trennen. Das ist ja gerade das Verdienst der Relativitätstheorie,
daß sie die Frage der G e l t u n g der Geometrie aus der Mathematik
fortgenommen und der Physik überwiesen hat. Wenn man jetzt aus
einer allgemeinen Geometrie wieder Sätze aufstellt und behauptet,
daß sie Grundlage der Physik sein müßten, so begeht man nur den
alten Fehler von neuem. Dieser Einwand muß der W e y lschen
Verallgemeinerung der Relativitätstheorie[22] entgegengehalten
werden, bei der der Begriff einer feststehenden Länge für einen
unendlich kleinen Maßstab überhaupt aufgegeben wird. Allerdings ist
eine solche Verallgemeinerung möglich, aber ob sie mit der
Wirklichkeit verträglich ist, hängt nicht von ihrer Bedeutung für eine
allgemeine Nahegeometrie ab. Darum muß die W e y lsche
Verallgemeinerung vom Standpunkt einer physikalischen Theorie
betrachtet werden, und ihre Kritik erfährt sie allein durch die
Erfahrung. Die Physik ist eben keine „geometrische Notwendigkeit“;
wer das behauptet, kehrt auf den vorkantischen Standpunkt zurück,
wo sie eine vernunftgegebene Notwendigkeit war. Und die Prinzipien
der Physik kann ebensowenig eine allgemein-geometrische
Überlegung lehren, wie sie die K a n tische Analyse der Vernunft
lehren konnte, sondern das kann allein eine Analyse der
physikalischen Erkenntnis.
Der B e g r i f f d e s A p r i o r i erfährt durch unsere Überlegungen
eine tiefgehende Wandlung. Seine eine Bedeutung, daß der
apriorische Satz unabhängig von jeder Erfahrung ewig gelten soll,
können wir nach der Ablehnung der K a n tischen Vernunftanalyse
nicht mehr aufrecht erhalten. Um so wichtiger wird dafür seine
andere Bedeutung: daß die aprioren Prinzipien die Erfahrungswelt
erst konstituieren. In der Tat kann es kein einziges physikalisches
Urteil geben, das über den Stand der bloßen Wahrnehmung
hinausgeht, wenn nicht gewisse Voraussetzungen über die
Darstellbarkeit des Gegenstandes durch eine Raum-Zeit-
Mannigfaltigkeit und seinen funktionellen Zusammenhang mit
anderen Gegenständen gemacht werden. Aber daraus darf nicht
geschlossen werden, daß die Form dieser Prinzipien von vornherein
feststeht und von der Erfahrung unabhängig sei. Unsere Antwort auf
die kritische Frage lautet daher: allerdings gibt es apriore Prinzipien,
welche die Zuordnung des Erkenntnisvorgangs erst eindeutig
machen. Aber es ist uns versagt, diese Prinzipien aus einem
immanenten Schema zu deduzieren. Es bleibt uns nichts, als sie in
allmählicher wissenschaftsanalytischer Arbeit aufzudecken, und auf
die Frage, wie lange ihre spezielle Form Geltung besitzt, zu
verzichten.
Denn eine spezielle Formulierung ist es immer nur, was wir auf
diese Weise gewinnen. Wir können sofort, wenn wir ein physikalisch
benutztes Zuordnungsprinzip aufgedeckt haben, ein allgemeineres
angeben, von dem es nur einen Spezialfall bedeutet. Zwar könnte
man den Versuch machen, nun das allgemeinere Prinzip apriori im
alten Sinne zu nennen und wenigstens von ihm ewige Geltung zu
behaupten. Aber das scheitert daran, daß auch für das allgemeinere
Prinzip wieder ein übergeordnetes angegeben werden kann, und daß
diese Reihe nach oben keine Grenze besitzt. Wir bemerken hier eine
Gefahr, der die Erkenntnistheorie leicht verfällt. Als man die dem
K a n tischen Substanzerhaltungsprinzip widersprechende
Veränderung der Masse mit der Geschwindigkeit entdeckt hatte, war
es leicht zu sagen: die Masse war eben noch nicht die richtige
Substanz, und man muß das Prinzip festhalten und eine neue
Konstante suchen. Das war eine Verallgemeinerung, denn K a n t
hatte gewiß mit der Substanz die Masse gemeint[23]. Aber man ist
damit keineswegs sicher, daß man nicht eines Tages auch dieses
Prinzip wieder aufgeben muß. Stellt sich etwa heraus, daß es eine im
ursprünglichen Sinne als das identische Ding gemeinte Substanz
nicht gibt, die sich erhält — und man ist heute im Begriffe, die
Bewegung eines Masseteilchens als Wanderung eines
Energieknotens ähnlich der Wanderung einer Wasserwelle
aufzufassen, so daß man überhaupt nicht von einem substanziell
identischen Masseteilchen reden kann — so flüchtet man sich in die
noch allgemeinere Behauptung: es muß für jeden Vorgang eine Zahl
geben, die konstant bleibt. Damit ist allerdings die Behauptung
schon ziemlich leer geworden, denn daß die physikalischen
Gleichungen Konstanten enthalten, hat mit dem alten K a n tischen
Substanzprinzip nur noch sehr wenig zu tun. Trotzdem ist man auch
mit dieser Formulierung vor weiteren widersprechenden Erfahrungen
nicht sicher. Denn wenn z. B. die sämtlichen Konstanten gegenüber
Transformationen der Koordinaten nicht invariant sind, muß man den
Gedanken schon wieder verallgemeinern. Man erkennt, daß man mit
diesem Verfahren nicht zu präzisierten klaren Prinzipien kommt; will
man mit dem Prinzip auch einen Inhalt verbinden, so muß man sich
mit der jeweilig hinreichend allgemeinsten
F o r m u l i e r u n g b e g n ü g e n. So wollen wir, nach der Niederlage
der K a n tischen Raumtheorie vor der fortschreitenden Physik, nicht
auf die Warte der nächsten Verallgemeinerung steigen und etwa
behaupten, daß jede physikalische Raumanschauung unter allen
Umständen wenigstens die R i e m a n nsche Ebenheit in den kleinsten
Teilen behalten muß, und daß dies nun eine wirklich ewig gültige
Aussage sei. Nichts könnte unsere Enkel davor schützen, daß sie
eines Tags vor einer Physik stehen, die zu einem Linienelement vom
vierten Grade übergegangen ist. Die W e y lsche Theorie stellt bereits
eine mögliche Erweiterung der E i n s t e i nschen Raumanschauung
dar, die, wenn auch physikalisch noch nicht bewiesen, doch auch
keineswegs unmöglich ist. Aber auch diese Erweiterung stellt nicht
etwa die denkbar allgemeinste Nahegeometrie dar. Man kann hier
die Stufenfolge der Erweiterungen sehr schön verfolgen. In der
euklidischen Geometrie läßt sich ein Vektor längs einer
geschlossenen Kurve parallel mit sich verschieben, so daß er bei der
Rückkehr in den Anfangspunkt gleiche Richtung und gleiche Länge
hat. In der E i n s t e i n - R i e m a n nschen Geometrie hat er nach der
Rückkehr nur noch gleiche Länge, aber nicht mehr die alte Richtung.
In der W e y lschen Theorie hat er dann auch nicht mehr die alte
Länge. Man kann aber diese Verallgemeinerung fortsetzen. Reduziert
man die geschlossene Kurve auf einen unendlich kleinen Kreis, so
verschwinden die Änderungen. Die nächste Stufe der
Verallgemeinerung wäre die, daß auch bei der Drehung um sich
selbst der Vektor bereits seine Länge geändert hat. Es gibt eben
keine allgemeinste Geometrie.
Auch für das Kausalprinzip können wir keine ewige Gültigkeit
voraussagen. Wir hatten oben als einen wesentlichen Inhalt dieses
Prinzips genannt, daß die Koordinaten in den physikalischen
Gleichungen nicht explizit auftreten, daß also gleiche Ursachen an
einem anderen Raum-Zeitpunkt dieselbe Wirkung erzeugen.
Obgleich diese Eigentümlichkeit durch die Relativitätstheorie um so
gesicherter erscheint, weil diese Theorie den Koordinaten allen
physikalischen Charakter als realer Dinge genommen hat, ist es
möglich, daß eine allgemeinere Relativitätstheorie sie wieder aufgibt.
Z. B. ist in der W e y lschen Verallgemeinerung die räumliche Länge
und die zeitliche Dauer explizit von den Koordinaten abhängig.
Trotzdem ließe sich auch hier ein Weg angeben, diese Abhängigkeit
nach dem Verfahren der stetigen Erweiterung zu konstatieren. Nach
der W e y lschen Theorie ist die Frequenz einer Uhr von ihrer
Vorgeschichte abhängig. Nimmt man aber im Sinne einer
Wahrscheinlichkeitshypothese an, daß sich diese Einflüsse im
Durchschnitt ausgleichen, so lassen sich die bisherigen Erfahrungen,
nach denen z. B. die Frequenz einer Spektrallinie bei sonst gleichen
Umständen auf allen Himmelskörpern gleich ist, als Näherungen
erklären. Umgekehrt ließen sich mit Hilfe dieses Näherungsgesetzes
solche Fälle nachweisen, wo die W e y lsche Theorie einen deutlich
bemerkbaren Unterschied erzeugt.
Auch für das vom Verfasser aufgedeckte Prinzip der
Wahrscheinlichkeitsfunktion ließe sich eine Verallgemeinerung
denken, in der dieses Prinzip als Näherung erscheint. Das Prinzip
sagt, daß die Schwankungen einer physikalischen Größe, die durch
den Einfluß der stets vorhandenen kleinen störenden Ursachen
entstehen, so verteilt sind, daß die Größenwerte sich einer
s t e t i g e n Häufigkeitsfunktion einfügen. Würde man aber z. B. die
Quantentheorie soweit ausbilden, daß man sagt, jede physikalische
Größe kann nur Werte annehmen, die ein ganzes Vielfaches einer
elementaren Einheit sind, so würde, falls diese Einheit nur klein ist,
die stetige Verteilung der Größenwerte für die Dimensionen unserer
Meßinstrumente immer noch mit großer Näherung gelten[24]. Wir
wollen uns aber hüten, diese Verallgemeinerung hier vorschnell als
zutreffend anzunehmen. Die fortschreitende Wissenschaft wird allein
zeigen können, in welcher R i c h t u n g sich die Verallgemeinerung zu
bewegen hat, und erst dadurch das allgemeinere Prinzip vor der
Leerheit schützen. Für alle denkbaren Zuordnungsprinzipien gilt der
Satz: Zu jedem Prinzip, wie es auch formuliert sein möge, läßt sich
ein allgemeineres angeben, für welches das erste einen Spezialfall
bedeutet. Dann ist aber nach dem früher geschilderten Verfahren
der stetigen Erweiterung, wobei die speziellere Formulierung als
Näherung vorausgesetzt wird, eine Prüfung durch die Erfahrung
möglich; und über den Ausfall dieser Prüfung läßt sich nichts vorher
sagen.
Man könnte noch folgenden Weg zur Rettung einer
Aprioritätstheorie im alten Sinne versuchen. Da jede spezielle
Formulierung der Zuordnungsprinzipien durch die
Erfahrungswissenschaft überholt werden kann, verzichten wir auf
den Versuch einer allgemeinsten Formulierung. Aber d a ß es
Prinzipien geben muß, die die eindeutige Zuordnung erst definieren,
bleibt doch eine Tatsache, und diese Tatsache wird ewig gelten und
könnte apriori im alten Sinne heißen. Ist dies nicht etwa der tiefste
Sinn der K a n tischen Philosophie?
Wir haben, wenn wir dies behaupten, bereits wieder eine
Voraussetzung gemacht, die wir gar nicht beweisen können: nämlich
daß die e i n d e u t i g e Zuordnung immer möglich sein wird. Woher
stammt denn die Definition der Erkenntnis als e i n d e u t i g e r
Zuordnung? Aus einer Analyse der bisherigen Erkenntnis. Aber gar
nichts kann uns davor bewahren, daß wir eines Tags vor
Erfahrungen stehen, die die eindeutige Zuordnung unmöglich
machen; genau so, wie uns heute Erfahrungen zeigen, daß wir mit
dem euklidischen Raum nicht mehr durchkommen. Die
Eindeutigkeitsforderung hat einen ganz bestimmten physikalischen
Sinn. Sie besagt nämlich, daß es Konstanten in der Natur gibt; indem
wir diese auf mehrere Weisen messen, konstatieren wir die
Eindeutigkeit. Jede physikalische Zustandsgröße können wir als
Konstante für eine Klasse von Fällen betrachten, und jede Konstante
als eine variable Zustandsgröße für eine andere Klasse[25]. Aber
woher wissen wir, daß es Konstanten gibt? Zwar ist es sehr bequem,
mit Gleichungen zu rechnen, in denen gewisse Größen als
Konstanten betrachtet werden dürfen, und dieses Verfahren hängt
sicherlich mit der Eigenart der menschlichen Vernunft zusammen,
die dadurch zu einem geregelten System kommt. Aber aus all dem
folgt nicht, daß es immer so gehen wird. Setzen wir etwa, daß jede
physikalische Konstante die Form hat: C + kα, wo α sehr klein und k
eine ganze Zahl ist; fügen wir dem noch die
Wahrscheinlichkeitshypothese hinzu, daß k meistens klein ist,
vielleicht zwischen 1 und 10 liegt. Für Konstanten der gewöhnlichen
Größenordnung wäre dann das Zusatzglied sehr klein, und die
bisherige Auffassung bliebe eine gute Näherung; aber für sehr kleine
Konstanten, z. B. in der Größenordnung der Elektronen, könnten wir
die Eindeutigkeit nicht mehr behaupten. Konstatieren ließe sich diese
Mehrdeutigkeit trotzdem, und zwar nach dem Verfahren der stetigen
Erweiterung; denn man brauchte dazu nur Messungen zu benutzen,
die mit Konstanten der gewöhnlichen Größenordnung ausgeführt
sind, in denen also das alte Gesetz näherungsweise gilt. Bei einer
solchen Sachlage könnte man von einer durchgängigen Eindeutigkeit
der Zuordnung nicht mehr reden, nur noch von einer
näherungsweisen Eindeutigkeit für gewisse Fälle. Auch dadurch, daß
man den neuen Ausdruck C + kα einführt, wird die Eindeutigkeit
nicht wieder hergestellt. Denn wir hatten oben (Abschnitt IV) als
Sinn der Eindeutigkeitsforderung angegeben, daß bei Bestimmung
aus verschiedenen Erfahrungsdaten die untersuchte Größe
denselben Wert haben muß; anders konnten wir die Eindeutigkeit
nicht definieren, weil dies die einzige Form ist, in der sie konstatiert
werden kann. In dem Ausdruck C + kα ist aber die Größe k ganz
unabhängig von physikalischen Faktoren. Darum können wir die
Größe C + kα niemals aus theoretischen Überlegungen und anderen
Erfahrungsdaten vorher berechnen, wir können sie nur für jeden
Einzelfall nachträglich aus der Beobachtung bestimmen. Da sie also
nie als Schnittpunkt zweier Überlegungsketten erscheint, ist damit
der Sinn der Eindeutigkeit aufgegeben. Wir hätten, da k auch von
den Koordinaten unabhängig sein soll, den Fall vor uns, daß für zwei
in allen physikalischen Faktoren gleiche Vorgänge an demselben Orte
zu derselben Zeit (dies ist durch kleine Raum-Zeit-Abstände
näherungsweise zu verwirklichen), die physikalische Größe C + kα
ganz verschiedene Werte annimmt. Unsere Annahme bedeutet also
nicht etwa die Einführung einer „individuellen Kausalität“, wie wir sie
oben beschrieben haben und wie sie z. B. S c h l i c k [26] als möglich
annimmt, bei der die gleiche Ursache an einem andern Raum-
Zeitpunkt eine andere Wirkung auslöst, sondern einen wirklichen
Verzicht auf die Eindeutigkeit der Zuordnung. Trotzdem ist dies
immer noch eine Zuordnung, die durchgeführt werden kann. Sie
stellt die nächste Erweiterungsstufe des Begriffs der eindeutigen
Zuordnung dar, verhält sich zu dieser etwa wie der R i e m a n nsche
Raum zum euklidischen; und darum ist ihre Einführung in den
Erkenntnisbegriff nach dem Verfahren der stetigen Erweiterung
durchaus möglich. Erkenntnis heißt dann eben nicht mehr eindeutige
Zuordnung, sondern etwas Allgemeineres. Sie verliert auch ihren
praktischen Wert nicht, denn wenn z. B. derartige mehrdeutige
Konstanten nur bei Einzelgrößen in statistischen Vorgängen
auftreten, lassen sich damit sehr exakte Gesetze für den
Gesamtvorgang aufstellen. Auch braucht uns die Rücksicht auf
praktische Möglichkeiten bei diesen theoretischen Erörterungen nicht
zu stören, denn wenn die Resultate erst einmal theoretisch
sichergestellt sind, werden sich immer Wege zu ihrer praktischen
Verwertung finden lassen.
Vielleicht stehen wir einer derartigen Erweiterung gar nicht so
fern, wie es scheinen mag. Wir haben schon früher erwähnt, daß die
Eindeutigkeit der Zuordnung gar nicht k o n s t a t i e r t werden kann;
sie ist selbst eine begriffliche Fiktion, die nur näherungsweise
realisiert wird. Es muß eine Wahrscheinlichkeitshypothese als
Zuordnungsprinzip hinzutreten; diese definiert erst, wann die
Messungszahlen als Werte derselben Größe anzusehen sind,
bestimmt also erst das, was physikalisch als Eindeutigkeit benutzt
wird. Wenn aber doch schon eine Wahrscheinlichkeitshypothese
dazu benutzt werden muß, dann kann sie auch eine andere Form
haben, als gerade die Eindeutigkeit zu definieren. Wir mußten
deshalb für die geschilderte Erweiterung des Konstantenbegriffs eine
Wahrscheinlichkeitsannahme hinzunehmen; diese trägt an Stelle des
Eindeutigkeitsbegriffs die Bestimmtheit in die Definition hinein.
Vielleicht liegen in gewissen Annahmen der Quantentheorie bereits
die Ansätze zu einer solchen Erweiterung des Zuordnungsbegriffs[27].
Wir haben für den Beweisgang, der zur Ablehnung der
K a n tischen Hypothese der Zuordnungswillkür führte, den Begriff
der eindeutigen Zuordnung benutzen müssen. Aber wenn wir ihn
jetzt selbst in Frage stellen, so verlieren deshalb unsere
Überlegungen noch nicht die Gültigkeit. Denn vorläufig g i l t dieser
Begriff, und wir können nichts anderes tun, als die Prinzipien der
bisherigen Erkenntnis benutzen. Auch fürchten wir uns nicht vor der
nächsten Erweiterung dieses Begriffs, denn wir wissen, daß diese
s t e t i g erfolgen muß, und darum wird der alte Begriff als Näherung
weiter gelten und einen hinreichenden Beweis unserer Ansichten
immer noch vollziehen. Außerdem haben wir für unseren Beweis
nicht unmittelbar den Eindeutigkeitsbegriff, sondern bereits seine
Definiertheit durch eine Wahrscheinlichkeitsfunktion benutzt; es ist
leicht einzusehen, daß sich unser Beweis mit einer materiell anderen
Wahrscheinlichkeitsannahme ebenso führen ließe. Freilich kann die
Methode der stetigen Erweiterung schließlich zu recht entfernten
Prinzipien führen und die näherungsweise Geltung unseres Beweises
in Frage ziehen — aber wir sind auch weit davon entfernt, zu
behaupten, daß u n s e r e Resultate n u n e w i g gelten sollen,
nachdem wir soeben alle erkenntnistheoretischen Aussagen als
induktiv nachgewiesen haben.
Geben wir also die Eindeutigkeit als absolute Forderung auf und
nennen sie ebenso ein Zuordnungsprinzip wie alle anderen, das
durch die Analyse des Erkenntnisbegriffs gewonnen und durch die
Möglichkeit der Erkenntnis induktiv bestätigt wird. Dann bleibt noch
die Frage: Ist nicht der Begriff der Z u o r d n u n g überhaupt jenes
allgemeinste Prinzip, das von der Erfahrung unberührt vor aller
Erkenntnis steht?
Diese Frage verschiebt das Problem nur von den mathematisch
klaren Begriffen in die weniger deutlichen. Es liegt in der
Begrenztheit unseres Sprachschatzes begründet, daß wir zur
Schilderung des Erkenntnisvorgangs den Begriff der Zuordnung
einführten; wir benutzten damit eine mengentheoretische Analogie.
Vorläufig scheint uns Zuordnung der allgemeinste Begriff zu sein, der
das Verhältnis zwischen Begriffen und Wirklichkeit beschreibt. Es ist
aber durchaus möglich, daß eines Tags für dies Verhältnis ein
allgemeinerer Begriff gefunden wird, für den unser
Zuordnungsbegriff nur eine Spezialisierung bedeutet. E s g i b t
k e i n e a l l g e m e i n s t e n B e g r i f f e.
Man muß sich daran gewöhnen, daß erkenntnistheoretische
Aussagen auch dann einen guten Sinn haben, wenn sie keine
Prophezeihungen für die Ewigkeit bedeuten. Alle Aussagen über eine
Zeitdauer tragen induktiven Charakter. Allerdings will jeder
wissenschaftliche Satz eine Geltung nicht nur für die Gegenwart,
sondern auch noch für die zukünftigen Erfahrungen beanspruchen.
Aber das ist nur in dem Sinne möglich, wie man eine Kurve über das
Ende einer gemessenen Punktreihe hinaus extrapoliert. Die Geltung
ins Endlose zu verlängern, wäre sinnlos.
Wir müssen hier eine grundsätzliche Bemerkung zu unserer
Auffassung der Erkenntnistheorie machen. Es soll, wenn wir die
K a n tische Analyse der Vernunft ablehnen, nicht bestritten werden,
daß die Erfahrung vernunftmäßige Elemente enthält. Vielmehr sind
gerade die Zuordnungsprinzipien durch die Natur der Vernunft
bestimmt, die Erfahrung vollzieht nur die Auswahl unter allen
denkbaren Prinzipien. Es soll nur bestritten werden, daß sich die
Vernunftkomponente der Erkenntnis unabhängig von der Erfahrung
e r h ä l t. Die Zuordnungsprinzipien bedeuten die
Vernunftkomponente der Erfahrungswissenschaft in ihrem jeweiligen
Stand. Darin liegt ihre grundsätzliche Bedeutung, und darin
unterscheiden sie sich von jedem Einzelgesetz, auch dem
allgemeinsten. Denn das Einzelgesetz stellt nur eine Anwendung
derjenigen begrifflichen Methoden dar, die im Zuordnungsprinzip
festgelegt sind; durch die prinzipiellen Methoden allein wird definiert,
wie sich Erkenntnis eines Gegenstandes begrifflich vollzieht. Jede
Änderung in den Zuordnungsprinzipien bringt deshalb eine Änderung
des Begriffs vom Ding und Geschehen, vom Gegenstand der
Erkenntnis, mit sich. Während eine Änderung in den Einzelgesetzen
nur eine Änderung in den Relationen der Einzeldinge erzeugt,
bedeutet die fortschreitende Verallgemeinerung der
Zuordnungsprinzipien eine Entwicklung des
G e g e n s t a n d s b e g r i f f s in der Physik. Und darin unterscheidet
sich unsere Auffassung von der K a n tischen: während bei K a n t nur
die Bestimmung des E i n z e l b e g r i f f s eine unendliche Aufgabe ist,
soll hier die Ansicht vertreten werden, d a ß a u c h u n s e r e
Begriffe vom Gegenstand der Wissenschaft
überhaupt, vom Realen und seiner Bestimmbarkeit,
nur einer allmählich fortschreitenden Präzisierung
e n t g e g e n g e h e n k ö n n e n.
Es soll im folgenden Abschnitt der Versuch gemacht werden, zu
zeigen, wie die Relativitätstheorie diese Begriffe verschoben hat,
denn sie ist eine Theorie der veränderten Zuordnungsprinzipien, und
sie hat in der Tat zu einem neuen Gegenstandsbegriff geführt. Aber
wir können aus dieser physikalischen Theorie noch eine andere
Lehre für die Erkenntnistheorie ziehen. Wenn das Zuordnungssystem
in seinen begrifflichen Relationen durch die Vernunft, in der Auswahl
seiner Zusammensetzung aber durch die Erfahrung bestimmt ist, so
drückt sich in seiner Gesamtheit ebensosehr die Natur der Vernunft
wie die Natur des Realen aus; und darum ist auch der Begriff des
physikalischen Gegenstandes ebensosehr durch die Vernunft wie
durch das Reale bestimmt, das er begrifflich formulieren will. Man
kann deshalb nicht, wie K a n t glaubte, im Gegenstandsbegriff eine
Komponente abtrennen, die von der Vernunft als notwendig
hingestellt wird; denn welche Elemente notwendig sind, entscheidet
gerade die Erfahrung. Daß der Gegenstandsbegriff seinen einen
Ursprung in der Vernunft hat, kann vielmehr nur darin zur Geltung
kommen, daß Elemente in ihm enthalten sind, für die k e i n e
Auswahl vorgeschrieben ist, die also von der Natur des Realen
unabhängig sind; in der Beliebigkeit dieser Elemente zeigt sich, daß
sie lediglich der Natur der Vernunft ihr Auftreten im Erkenntnisbegriff
verdanken. N i c h t d a r i n d r ü c k t s i c h d e r A n t e i l d e r
Ve r n u n f t a u s , d a ß e s u n v e r ä n d e r t e E l e m e n t e d e s
Zuordnungssystems gibt, sondern darin, daß
w i l l k ü r l i c h e E l e m e n t e i m S y s t e m a u f t r e t e n . Damit
ändert sich allerdings die Formulierung dieses Vernunftanteils
wesentlich gegenüber der K a n tischen; aber gerade dafür hat die
Relativitätstheorie eine Darstellungsweise gefunden.
Wir hatten oben die Hypothese der Zuordnungswillkür formuliert,
und die Antwort gefunden, daß es implizit widerspruchsvolle
Systeme gibt; aber das soll nicht heißen, daß nur ein einziges
System von Zuordnungsprinzipien da ist, welches die Zuordnung
eindeutig macht. Vielmehr gibt es mehrere Systeme. Die Tatsache
der Gleichberechtigung drückt sich dabei in der Existenz von
Transformationsformeln aus, die den Übergang von einem System
aufs andere vollziehen; man kann da nicht sagen, daß ein System
dadurch ausgezeichnet sei, daß es der Wirklichkeit im besonderen
Maße angepaßt wäre, denn das einzige Kriterium dieser Anpassung,
die Eindeutigkeit der Zuordnung, besitzen sie ja alle. Für die
Transformation muß angegeben werden, welche Prinzipien beliebig
wählbar sind, also die unabhängigen Variablen darstellen, und
welche sich, den abhängigen Variablen entsprechend, dabei nach
den Transformationsformeln ändern. So lehrt die Relativitätstheorie,
daß die vier Raum-Zeit-Koordinaten beliebig wählbar sind, daß aber
die zehn metrischen Funktionen gμν nicht beliebig angenommen
werden dürfen, sondern für jede Koordinatenwahl ganz bestimmte
Werte haben. Durch dieses Verfahren werden die subjektiven
Elemente der Erkenntnis ausgeschaltet, und ihr objektiver Sinn wird
unabhängig von den speziellen Zuordnungsprinzipien formuliert.
Aber wie die Invarianz gegenüber den Transformationen den
objektiven Gehalt der Wirklichkeit charakterisiert, drückt sich in der
Beliebigkeit der zulässigen Systeme die Struktur der Vernunft aus. So
ist es offenbar nicht in dem Charakter der Wirklichkeit begründet,
daß wir sie durch Koordinaten beschreiben, sondern dies ist die
subjektive Form, die es unserer Vernunft erst möglich macht, die
Beschreibung zu vollziehen. Andererseits liegt aber den metrischen
Verhältnissen in der Natur eine Eigenschaft zugrunde, die unseren
Aussagen hierüber bestimmte Grenzen vorschreibt. Was K a n t in der
Idealität von Raum und Zeit behauptete, ist durch die Relativität der
Koordinaten erst exakt formuliert worden. Aber wir bemerken auch,
daß er damit zuviel behauptet hatte, denn die von der menschlichen
Anschauung vorgegebene Metrik des Raums gehört gerade nicht zu
den zulässigen Systemen. Wäre die Metrik eine rein subjektive
Angelegenheit, so müßte sich auch die euklidische Metrik für die
Physik eignen; dann müßten alle zehn Funktionen gμν beliebig
wählbar sein. Aber die Relativitätstheorie lehrt, daß sie es nur
insofern ist, als sie von der Beliebigkeit der Koordinatenwahl
abhängt, und daß sie von diesen unabhängig eine objektive
Eigenschaft der Wirklichkeit beschreibt. Was an der Metrik subjektiv
ist, drückt sich in der Relativität der metrischen Koeffizienten für das
Punktgebiet aus, und diese ist erst die Folge der empirisch
beobachteten Gleichheit von träger und schwerer Masse. Es war
eben der Fehler der K a n tischen Methode, über die subjektiven
Elemente der Physik Aussagen zu machen, die an der Erfahrung
nicht geprüft waren. Erst jetzt, nachdem die empirische Physik die
Relativität der Koordinaten bestätigt hat, dürfen wir die Idealität des
Raumes und der Zeit, insofern sie sich als Beliebigkeit der
Koordinatenwahl ausdrückt, als bewiesen ansehen. Allerdings ist
diese Frage noch keineswegs abgeschlossen. Wenn sich z. B. die
W e y lsche Verallgemeinerung als richtig herausstellen sollte, so ist
wieder ein neues subjektives Element in der Metrik aufgewiesen.
Dann enthält auch der Vergleich zweier kleiner Maßstäbe an
verschiedenen Punkten des Raumes keine objektive Relation mehr,
die er bei E i n s t e i n trotz der Abhängigkeit des gemessenen
Verhältnisses von der Koordinatenwahl immer noch enthält, sondern
er ist nur noch eine subjektive Form der Beschreibungsweise, der
Stellung der Koordinaten vergleichbar. Und wir bemerken, daß es
ganz entsprechend der Veränderlichkeit des Gegenstandsbegriffs ein
abschließendes Urteil über den Anteil der Vernunft an der Erkenntnis
nicht gibt, sondern nur eine stufenweise fortschreitende
Bestimmung, und daß die Formulierung der Erkenntnisse darüber
nicht in so unbestimmten Aussagen wie Idealität des Raumes
vollzogen werden kann, sondern nur in der Aufstellung
mathematischer Prinzipien.
Das Verfahren, durch Transformationsformeln den objektiven
Sinn einer physikalischen Aussage von der subjektiven Form der
Beschreibung zu eliminieren, ist, indem es indirekt diese subjektive
Form charakterisiert, an Stelle der K a n tischen Analyse der Vernunft
getreten. Es ist allerdings ein sehr viel komplizierteres Verfahren als
K a n t s Versuch einer direkten Formulierung, und die K a n tische
Kategorientafel muß neben dem modernen invariantentheoretischen
Verfahren primitiv erscheinen. Aber indem es die Erkenntnis von der
Struktur der Vernunft befreit, lehrt es, diese zu schildern; das ist der
einzige Weg, der uns Einblicke in die Erkenntnisfunktion unserer
eignen Vernunft gestattet.
VIII. Der Erkenntnisbegriff der
Relativitätstheorie als Beispiel der
Entwicklung des
Gegenstandsbegriffes.
Wenn wir zu dem Resultat kommen, daß die aprioren Prinzipien
der Erkenntnis nur auf induktivem Wege bestimmbar sind, und
jederzeit durch Erfahrungen bestätigt oder widerlegt werden
können, so bedeutet das allerdings einen Bruch mit der bisherigen
kritischen Philosophie. Aber wir wollen zeigen, daß sich diese
Auffassung ebensosehr von der empiristischen Philosophie
unterscheidet, die glaubt, alle wissenschaftlichen Sätze in einerlei
Weise mit der Bemerkung „alles ist Erfahrung“ abtun zu können.
Diese Philosophie hat den großen Unterschied nicht gesehen, der
zwischen physikalischen Einzelgesetzen und Zuordnungsprinzipien
besteht, und sie ahnt nicht, daß die letzteren für den l o g i s c h e n
A u f b a u der Erkenntnis eine ganz andere Stellung haben als die
ersteren. In diese Erkenntnis hat sich die Lehre vom Apriori
verwandelt: daß der logische Aufbau der Erkenntnis durch eine
besondere Klasse von Prinzipien bestimmt wird, und daß eben diese
logische Funktion der Klasse eine Sonderstellung gibt, deren
Bedeutung mit der Art der Entdeckung dieser Prinzipien und ihrer
Geltungsdauer nichts zu tun hat.
Wir sehen keinen besseren Weg, diese Sonderstellung zu
veranschaulichen, als indem wir die Veränderung des
G e g e n s t a n d s b e g r i f f s beschreiben, die mit der Änderung der
Zuordnungsprinzipien durch die Relativitätstheorie vollzogen wurde.
Die Physik gelangt zu quantitativen Aussagen, indem sie den
Einfluß physikalischer Faktoren auf Längen- und Zeitbestimmungen
untersucht; die Messung von Längen und Zeiten ist der
Ausgangspunkt aller ihrer Quantitätsbestimmungen. So konstatiert
sie das Auftreten von Gravitationskräften an der Zeit, die ein frei
fallender Körper für das Durchlaufen einzelner Wegstrecken braucht,
oder sie mißt eine Temperaturerhöhung durch die veränderte Länge
eines Quecksilberfadens. Dazu muß definiert sein, was eine Längen-
oder Zeitstrecke ist; die Physik versteht darunter die Verhältniszahl,
welche die zu messende Strecke mit einer als Einheit festgesetzten
gleichartigen Strecke verbindet. Jedoch benutzte die alte Physik
dabei noch eine wesentliche Voraussetzung: daß Längen und Zeiten
voneinander unabhängig sind, daß die für ein System definierte
synchrone Zeit keinerlei Einfluß hat auf die Ergebnisse der
Längenmessung. Um von den gemessenen Längen zu verbindenden
Relationen zu kommen, muß ferner noch ein System von Regeln für
die Verbindung von Längen gegeben sein; dazu dienten in der alten
Physik die Sätze der euklidischen Geometrie. Denken wir uns etwa
eine rotierende Kugel; sie erfährt nach der N e w t o nschen Theorie
eine Abplattung. Der Einfluß der Rotation, also einer physikalischen
Ursache, macht sich in der Änderung der geometrischen
Dimensionen geltend. Trotzdem wird dadurch an den Regeln der
Verbindung der Längen nichts geändert; so gilt auch auf der
abgeplatteten Kugel der Satz, daß das Verhältnis aus Umfang und
Durchmesser eines Kreises (z. B. eines Breitenkreises) gleich π ist,
oder der Satz, daß bei genügender Kleinheit ein Bogenstück zu den
Koordinatendifferentialen in der pythagoräischen Beziehung steht
(und zwar bei ganz beliebig gewählten orthogonalen Koordinaten für
a l l e kleinen Bogenstücke). Derartige Voraussetzungen mußte die
Physik machen, wenn sie überhaupt Änderungen von Längen und
Zeiten messen wollte. Es war eine notwendige Eigenschaft des
physikalischen Körpers, daß er sich diesen allgemeinen Relationen
fügte; nur unter dieser Voraussetzung konnte ein Etwas als
Welcome to our website – the ideal destination for book lovers and
knowledge seekers. With a mission to inspire endlessly, we offer a
vast collection of books, ranging from classic literary works to
specialized publications, self-development books, and children's
literature. Each book is a new journey of discovery, expanding
knowledge and enriching the soul of the reade

Our website is not just a platform for buying books, but a bridge
connecting readers to the timeless values of culture and wisdom. With
an elegant, user-friendly interface and an intelligent search system,
we are committed to providing a quick and convenient shopping
experience. Additionally, our special promotions and home delivery
services ensure that you save time and fully enjoy the joy of reading.

Let us accompany you on the journey of exploring knowledge and


personal growth!

textbookfull.com

You might also like