Sonntag, 1. Januar 2017

Prozesse

Ich mag Zombiefilme und frage mich, was ich eigentlich nach einer Zombie-Apokalypse zum Wiederaufbau einer Gesellschaft beitragen könnte. Tatsächlich fällt mir da nicht viel ein. Ich wüsste ja nichteinmal wie ich ohne Hilfsmittel Feuer machen sollte oder vielleicht ein Messer schmieden sollte. Wo bekomme ich Eisen her? Und wie mache ich daraus Stahl? Oder waren die ersten Messer/Dolche nicht aus Bronze? Hmmm... Aber woher bekomme ich Messing und wie verarbeite ich das weiter?
Meine Vermutung ist, dass die allermeisten Prozesse um aus "Zutaten" A,B,C... ein "Produkt" Y zu erzeugen übebrhaupt nicht aufgeschrieben sind. Zudem sind sie meistens so komplex und haben so viele Voraussetzungen, dass kein einzelner Mensch den gesamten Prozess kennt.
Es gibt Bücher die theoretische physikalische Zusammenhänge erklären (Fachbücher) und Lexika bzw. Wikipedia die Bedeutungen von bestimmten Begriffen sowie ihre Zusammenhänge mit anderen Begriffen darstellen, aber ein Prozess-Lexikon ist mir unbekannt.
Wikipedia hat selbst sogar die Regel 9 "Wikipedia ist keine Sammlung von Anleitungen..." aufgestellt.
Auch von einer anderen Sichtwarte ist das Fehlen eines Prozess-Lexikons ("Prozesslikons") bzw. einer Anleitungs-Bücherei schmerzhaft:
Im Kapitalismus setzen sich die Unternehmen mit den effizientesten Prozessen durch. Die Schattenseite ist, dass die ineffizienten Prozesse bzw. ihre "Besitzer" = Unternehmen, verlieren und somit in die Insolvenz gehen oder von anderen Unternehmen aufgekauft werden. Aufgrund des Kernprinzips der Konkurrenz im Kapitalismus sind alle effizienten Prozesse geheim. Gerade in Industrieunternehmen wird versucht bestimmte Kernkompetenzen bzw. -Prozesse möglichst geheim zuhalten und sogar innerhalb der Belegschaft nur bestimmten Personen offenzulegen.
Wenn überhaupt ein Prozess oder Teilprozess zur Herstellung eines bestimmten Produkts Y öffentlich dokumentiert ist (oder oft überhaupt dokumentiert ist), dann handelt es sich um veraltete oder ineffiziente Prozesse. Wäre es nicht wünschenswert, wenn alle Prozesse um Produkt Y zu erzeugen öffentlich einsehbar wären und somit
a) von allen Menschen verbessert/optimiert
b) von allen Menschen genutzt werden
könnten?
Es gibt bislang das WikiHow, welches eine Sammlung von Anleitungen darstellt. Aus zwei Gründen sehe ich aber das WikiHow nicht wirklich als Träger der zuvor formulierten Idee:
-Ich kann keinerlei tiefere Ideologie hinter dem Wiki erkennen
-Die meisten Anleitungen erklären oder verlinken nicht auf ihre Voraussetzungen und sind daher nicht nutzbar, wenn man nicht zufälligerweise schon alle Voraussetzungen erfüllt
-Die meisten Anleitungen beinhalten keinerlei Quellen oder Begründungen für bestimmte Schritte. Somit ist nicht klar ob gewisse Schritte notwendig sind oder optimierbar.

Mittwoch, 28. Dezember 2016

Erste Schritte mit dem Arduino Micro

Ich habe ein größeres Projekt geplant, der Bau eines 4WD Roboters. Möglicherweise wird die Steuerung oder ein Teil mittels eines Arduino Mikrocontroller geschehen.
Nun habe ich mir für ca. 29 Euro bei Conrad einen Arduino Micro gekauft.
Im folgenden Beschreibe ich eine Transistor-Schaltung die ich zu Versuchszwecken aufgebaut habe. Die Transistor-Schaltung dient dazu einen Verbraucher An- bzw. Auszuschalten, der seine Leistung nicht direkt über einen I/O Pin des Arduino bezieht. Das ist notwendig, wenn der Verbraucher (z.B. ein DC Motor) mehr als 5 V Spannungsversorgung oder 20 mA Dauerstrom bzw. 40 mA Spitzenstrom benötigt (siehe Spezifikation des Arduino Boards, Kapitel "Input and Output").

Arduino Micro Pin-Belegung (von https://www.arduino.cc)
Nach der automatischen Installation der Treiber des Arduinos unter Windows 7 und der Installation der IDE habe ich zunächst das Programm "Blink" auf den Arduino hochgeladen. Dies ist der Abschließende Schritt des "Getting Started" Tutorials auf Arduino.cc. Dieses Programm führt dazu, dass die LED auf dem Controller-Board blinkt: 1 Sekunde an und 1 Sekunde aus. Gleichzeitig liegt auch an dem I/O-Pin D13 eine Spannung von 5V bzw. 0V im 1 Sekundetakt an.

Nachfolgende Zeichnung zeigt die Schaltung, die ich als erstes zum Testen aufgebaut habe:

Die LED ist der Verbraucher-Dummy. Durch das programmierte Schalten von Pin D13 am Arduino wird ein NPN Transistor gesperrt bzw. auf Durchlass geschaltet. Wenn der Transistor auf Durchlass geschaltet ist, liegt an der LED der 3-Zellen LiPo Akku als Spannungsquelle an (11,1 V). Für eine LED sind keine 11,1 V notwendig. Später soll aber die LED durch ein DC Motor ersetzt werden, dieser braucht höhere Spannungen und Ströme als direkt vom Arduino am Pin D13 bereitgestellt werden können.
Schaltung um Verbraucher (LED) mittels Transistor An und Aus zuschalten.

Als Transistor wurde ein NPN 2N2222A verwendet. Welcher Pin am Transistor Emitter, Collector und Basis sind, kann dem verlinkten Datenblatt entnommen werden. Im Schaltbild zeigt der Pfeil den Emitter an. Die Basis ist über einen Widerstand mit dem steuerbaren Pin D13 am Arduino verbunden.

Der Vorwiderstand und Parallelwiderstand bei der LED sind so dimensioniert, dass bei durchgeschaltetem Transistor (11,1 V) durch die LED 15 mA Strom fließt. Ein größerer Strom würde die LED zerstören. Zudem muss die LED richtig herum eingebaut werden. Das längere Beinchen muss an den Plus-Pol.

Obige Schaltung wurde auf einem Steckbrett aufgebaut. Siehe nachfolgende zwei Fotos:

Die LiPo-Batterie ist nicht auf den Bildern gezeigt. Oben ist das "Blink"-Programm im "HIGH" Modus und unten im "LOW" Modus.

Diese Schaltung kann nicht direkt verwendet werden um einen DC Motor zu steuern. Zunächst habe ich einen Modelcraft 1:18 6V Getriebemotor zum Testen gekauft. Dieser benötigt 1,6 A Strom unter Last. Zudem ist eine Stall-Current von 20 A angegeben. Der hier verwendete Transistor kann nur 800 mA Strom über Collector-Emitter leiten und geht bei höheren Strömen kaputt.
Zunächst plane ich den MOSFET IRLZ34 oder IRLZ44 statt des Bipolartransistors zu verwenden. Zudem muss beim Betrieb eines DC Motors eine Freilaufdiode parallel zum Motor geschaltet werden. Andererseits führt beim An- bzw. Ausschalten des Motors der gegenläufige Induktionsstrom zum Durchbrennen des Transistors oder anderer Bauelemente.

Dienstag, 5. Januar 2016

Hyperloop Hamburg nach Berlin

"Hyperloop all cutaway" by Camilo Sanchez - Own work. Licensed under CC BY-SA 4.0 via Commons - https://commons.wikimedia.org/wiki/File:Hyperloop_all_cutaway.png#/media/File:Hyperloop_all_cutaway.png

In letzter Zeit wurde viel über den Hyperloop von San Francisco nach Los Angeles berichtet. Hierbei handelt es sich um ein zukünftiges (leicht utopisch erscheinendes) öffentliches Verkehrsmittel. Elon Musk bezeichnet den Hyperloop als 5. Verkehrsmodus (folgend auf Schiff, Eisenbahn, Auto und Flugzeug). Es handelt sich hierbei um eine teilevakuierte Stahlröhre welche so gerade wie möglich auf Pylonen zwischen zwei Städten gebaut werden soll. In der Stahlröhre "hovern" Kapseln welche Personen oder Fracht transportieren. Die Kapseln stauen während ihrer sehr schnellen Reise durch die Röhre (über 1000 km/h) die Restluft vor sich auf, diese wird durch einen Hochleistungsventilator in der Front der Kapsel eingesogen, komprimiert und hinten an der Kapsel aus einer Druckluftdüse rausgeschossen. Zudem wird ein Teil der Luft genutzt um Luftkissen zwischen Kapsel und Rohrwand zu bilden.
Dieses System hat energetisch gegenüber dem normalen Rad-Schiene-System folgende Vorteile:
1. Die Rollreibung wird sehr stark reduziert. Es gibt keine Räder mehr, sondern nur Luftkissen zwischen Schiene (=Stahlrohr) und Rad (=Ski der Kapsel)
2. Der Luftwiderstand wird sehr stark reduziert. Aufgrund des geringen Luftdrucks in der Röhre und des wegaugens der Stauluft wird der Luftwiderstand fast auf Null gesenkt.
Hauptsächlich werden die Kapseln durch Linearmotoren beschleunigt (ähnlich wie beim Transrapid) welche aber nur an sehr kurzen Streckenabschnitten am Anfang und Ende (zum Bremsen) gebaut werden. Dank der fast nicht vorhandenen Reibungsverluste braucht es keinen dauerhaften Antrieb. (Wobei ein kleiner Antrieb durch den Ausstoß der Stauluft am hinteren Ende der Kapsel ja zur Verfügung steht).
Der Vorteil dieses Systems ist sein sehr geringer Energieverbrauch und auch Flächenverbrauch. Somit ist es ein sehr ökologisches Transportmittel. Zudem können vergleichbare und höhere Reisegeschwindigkeiten erreicht werden, als beim Flugzeug.
Weitere Details können dem White paper von Elon Musk (SpaceX) entnommen werden.

Der Hyperloop hört sich zwar utopisch und fantastisch an, aber ich denke tatsächlich, dass dies ein machbares und sehr sinnvolles Konzept ist.
Wenn man aufeinmal in 30 min von San Francisco nach LA reisen kann, dann braucht man z.B. für seinen Arbeitsplatz nicht in die andere Stadt ziehen. Der Hyperloop ist sozusagen das Metro-System zwischen den Metropolen. Verschiedene Städte lassen sich genauso schnell erreichen wie einzelne Stadtteile in einer Stadt.
Nun, wie würde der Hyperloop in Deutschland aussehen? Hier würde sich die Verbindung Hamburg-Berlin als erstes anbieten. Einerseits weil viele Menschen zwischen den beiden Städten pendeln (größte und zweitgrößte Stadt Deutschlands), andererseits weil zwischen den Städten vergleichsweise flaches und unbesiedeltes Land liegt. Es ist einfacher als zwischen anderen Städten Platz für eine kurvenarme Hyperloopstrecke zu finden.

Route bei google-maps
Mit dem Hyperloop ließen sich diese knapp 300 km (Strecke per Auto) in unter 30 min bewältigen. Zur Zeit braucht der ICE etwa 1:50h.  Nebenstehendes Bild zeigt eine mögliche Hyperloop-Route zwischen Hamburg und Berlin in Rot.  Schwarz ist die direkte Luftlinie.
Die Routenplanung muss sehr sorgfältig durchgeführt werden, da die Strecke möglichst wenige Kurven aufweisen darf. Kurven erzeugen bei schnellen Geschwindigkeiten Zentrifugalkräfte. Der Mensch hält zwar Beschleunigungen kurzzeitig bis mehrere g aus, aber der Hyperloop soll keine Achterbahn sein, sondern eine angenehme Reise bieten.
Genauso wie im orginal white paper habe ich angenommen, dass laterale Zentrifugalbeschleunigungen nicht größer als a = 0,5g betragen dürfen. Aus dieser Vorderung lässt sich für eine Geschwindigkeit der minimale Kurvenradius bestimmen: Es gilt a = v²/R. Die Nächste Abbildung zeigt die Krümmungsradien über die gesamte Strecke und die aus der begrenzten Zentrifugalkraft resultierende maximal erträgliche Geschwindigkeit.

Krümmung der optimierten Route zwischen HH und Berlin. In blau die daraus resultierende maximale Geschwindikeit.
Diese Grafik habe ich wie folgt erzeugt:
Zunächst habe ich eine Route aus google-maps exportiert. Die Route besteht aus Punkten die in Längen- und Breitengraden angegeben sind. Immer 3 aufeinanderfolgende Punkte der Route können zu einem Dreieck verbunden werden (Der Erdradius steht senkrecht auf der Ebene des so gebildeten Dreiecks). Aus der Geometrie ist bekannt, dass es genau einen Kreis mit Radius R gibt (Umkreis) auf dem diese 3 Punkte liegen. Dieser Kreis beschreibt die lokale Krümmung der Route.
Der Umkreisradius lässt sich über eine einfache Gleichung aus den Seitenlängen des Dreiecks berechnen (siehe z.B. hier). Nachfolgende Abbildung zeigt die Krümmungskreise entlang der Route. Wobei ich hier die gekrümmte, dreidimensionale Erdoberfläche in zwei Dimensionen und in Kugelkoordinaten gezeichnet habe. Dies und das Verhältnis der x/y-Skalierung erklärt die leicht verzerrte Form der Kreise.
Krümmungskreise an der Hyperloop-Strecke
 Um die Krümmungskreise zu zeichnen muss man neben dem Radius auch den Kreismittelpunkte bestimmen. Dieser lässt sich durch ein bisschen lineare Algebra berechnen:
Zunächst berechnet man die Richtungsvektoren der Ebene die durch das Dreieck aufgespannt werden.
Die Längen und Breitenkoordinaten der einzelnen Punkte werden zuerst in kartesischen Koordinaten dargestellt mit dem Erdmittelpunkt im Ursprung (0,0,0).
Der erste Richtungsvektor u ergibt sich einfach aus der Differenz von Punkt 1 und 2 (p12) des Dreiecks und anschließender Normierung seiner Länge auf 1 (u=p12/|p12|).
Bildet man die Differenz h aus Punkt 2 und 3 (oder 3 und 1) und bildet das Kreuzprodukt aus u und h: n=u x h, so ist n ein Vektor der senkrecht zu u und senkrecht zu h steht. Dies kann nur ein Vektor sein der Senkrecht auf der gesuchten Ebene steht. Nun berechnet man einfach v = u x n und normiert v auf Länge 1. u und v bilden die Richtungsvektoren der vom Dreieck aufgespannten Ebene.
Der Kreismittelpunkt lässt sich über Vektoraddition ausrechnen.
P1, P2 und P3 haben jeweils R Abstand zum Mittelpunkt M. Somit bildet P1 M P2 ein gleichschenkliges Dreieck. Daraus folgt, dass die Winkelhalbierende von M auf die Seite P1P2 gleich die Seitenhalbierende von P1P2 ist. Man kann also einfach ein rechtwinkliges Dreieck konstruieren und alle drei Seitenlängen über den Satz von Pythagoras berechnen. Nun ergibt sich der Mittelpunkt M aus:
M = P1 + u*|p12|/2 +v*Wurzel(R² + (|p12|/2)²)

Die Kreisgleichung mit t von 0 bis 2pi in drei Dimensionen lautet
X=u*R*sin(t)+(u x v)*R*cos(t)+M
Gemäß dieser Gleichung wurden die Krümmungskreise dann in der obigen Grafik gezeichnet. Kleine Kreise (große Krümmung) wurden rot und große Kreise (geringe Krümmung) wurden grün gezeichnet.
Aufgrund der starken Bebauung in den Städten Hamburg oder Berlin und im Umland wird es in der Nähe der Städte immer schwieriger eine gerade Strecke zu konstruieren. Die Dichte der "roten" Kreise erhöht sich. Die maximal mögliche Reisegeschwindigkeit verringert sich.

Die nebenstehende Abbildung zeigt die Betriebsgeschwindigkeit der Hyperloop-Kapseln auf der Strecke HH-Berlin. Die Strecke wurde in google-maps iterativ immer wieder optimiert (Kurven längergezogen, Punkte versetzt) um möglichst hohe Geschwindigkeiten zuzulassen. Es wurde versucht möglichst wenige Grundstücke oder gar Häuser zu queren. Auch wurde versucht die Strecke möglichst entlang von schon bestehenden Gleisen oder Autobahnen zu führen. Dies senkt den Preis des Baus der Strecke, da weniger Grundstücke von Privat gekauft werden müssen. Der größte Teil der vollen Distanz von etwa 258 km wird mit 1100 km/h zurückgelegt. Diese Geschwindigkeit wird über 4 sehr kurze Beschleunigungsstrecken erreicht und innerhalb von 4 sehr kurzen Bremsstrecken abgebaut.
Die Hyperloopstrecke besteht also zu 99% aus "inaktiver" Stahlröhre. Nur an den Beschleunigungsstellen müssen teure Magnete zur Beschleunigung installiert werden.
Die nächste Abbildung zeigt die Zentrifugalbeschleunigung über die Distanz Hamburg nach Berlin.
Seitliche Beschleunigung (gestrichelt) und Beschleunigung in Fahrtrichtung
  Die Vorletzte und Letzte Grafik zeigt die Strecke in Reisezeit. Die gesamte Reisezeit beträgt weniger als 28 min. Dabei ist die Kapsel nur 7 min mit der Höchstgeschwindigkeit unterwegs. Die meiste Zeit (aber kürzeste Strecke) ist sie mit unter 200 km/h unterwegs.

Sonntag, 26. Juli 2015

Statistik des KGV im Dax30 von 2007 bis 2014


Wenn man sich mit Aktien beschäftigt wird man über kurz oder lang auf das sogenannte jährliche Kurs-Gewinn-Verhältnis (KGV oder P/E ratio) stoßen. Diese Kennzahl liegt meist irgendwo zwischen 6 und 28. Eine anschauliche Interpretation des KGV ist, wie viele Jahre das Unternehmen braucht um seinen Aktienwert zu erwirtschaften. Hier soll der Aktienwert einfach die Anzahl der ausgeschütteten Aktien multipliziert mit dem jetzigen Kurs sein. Der zukünftige jährlich erwartete Gewinn wird auch einfach dem jetzigen Gewinn gleichgesetzt.
Aus dem Bauch heraus bedeutet es also, dass ein Unternehmen mit großem KGV (z.B. 25) im Verhältnis zu seinem Aktienpreis nur geringen jährlichen Gewinn abwirft. Es braucht 25 Jahre bis es seinen Aktienwert als Gewinn erwirtschaftet hat. Dagegen gilt eine Aktie eines Unternehmens mit geringem KGV (z.B. 8) als günstig.
Dies ist aber nur vordergründig so. Es kann genausogut sein, dass bei einem Unternehmen mit KGV 8 in den letzten Jahren der Gewinn stark eingebrochen ist und der Markt dieses Unternehmen mit starken Kursverlusten bestraft. Hier würde man die Katze im Sack kaufen: Ein Unternehmen mit vermeintlich günstigem KGV, aber gesund ist es aufgrund einbrechender Gewinne nicht.
Anhand des KGV alleine sollte man daher keine Kaufentscheidung festmachen.
Um die Aussagefähigkeit des KGV zu erhöhen habe ich eine statistische Auswertung aller im DAX-30 enthaltetenen Unternehmen über die Jahre 2007 bis 2015 durchgeführt.
Die Fragestellung war, ob man anhand einer statistischen Auswertung des KGV trotzdem mithilfe des KGV eine Aussage über die zukünftige Kursentwicklung eines Börsenwertes machen kann. Dazu wurde der jährliche Kursgewinn/-verlust in % für jedes Jahr von 2008 bis 2015 zum Stichtag 1.1. für jedes der 30 Unternehmen ausgewertet und mit dem letztjährigen KGV (also 2007 bis 2014) ins Verhältnis gesetzt.
Zudem wurde das mittlere jährliche Wachstum aller DAX-30 Werte ermittelt. Dieses lag im betrachteten Zeitraum bei stolzen 7,8%. Seine Schwankung ist auch beträchtlich mit 34,4% (einfache Standardabweichung).



Abbildung 1
In Abbildung 1 ist das Ergebnis dieser Auswertung abbgebildet. In orange (durchgezogen) ist das mittlere jährliche Wachstum der DAX-30 Unternehmen aufgetragen (horizontal). Orange gestrichelt ist der Bereich der einfachen Standardabweichung eingezeichnet. Die vertikale orangene Linie zeigt den Median aller jährlichen KGV des DAX von 2007 bis 2014. Dieser liegt bei 16,5. In schwarz (durchgezogen) ist der Kursgewinn/-Verlust in Abhängigkeit des vorjährigen KGV eingezeichnet (auch hier in schwarz gestrichelt die zugehörige Standardabweichung).
Liegt die schwarze Kurve bei einem bestimmten KGV über der orangenen Linie, so lagen die Wachstumsraten von Aktien mit diesem KGV im Mittel über dem des DAX. Beispielsweise hatten Aktienkurse von DAX-30 Unternehmen mit einem KGV von 27,5 im Mittel der untersuchten Periode (2008 bis 2015) eine jährliche Wachstumsrate von etwa 25%. Dagegen hatten Aktienkurse von Unternehmen mit einem KGV von unter 9 einen durchschnittlichen jährlichen Kursverlust von etwa 5% zu verbuchen.
Anhand dieser statistischen Auswertung der letzten 7 Jahre des DAX-30 kann man folgende Aussagen zu zukünftigen Kursentwicklungen machen:
Aktien mit einem KGV von 10 bis 14 und 16 bis 33 hatten im Mittel eine Wachstumsrate die über dem Durchschnitt der untersuchten Periode von 7,8% lag. Das geringste Verlustrisiko liegt bei einem KGV von 25 bis 29. Eine leicht schlechtere Kursentwicklung als der DAX Durchschnitt ergibt sich ab einem KGV von 34. 38% aller jährlichen Kursänderungen im DAX stellten in der Periode einen Verlust dar. Die Hälfte aller jährlichen Kursverluste ergaben sich bei Aktien mit einem vorjährigen KGV von unter 13. Zudem war die jährliche Kursentwicklung bei Aktien mit einem vorjährigen KGV unter 9 im Mittel negativ (etwa 5%).

Abbildung 2


In Abbildung 2 sieht man die Schwankungen der oben diskutierten Mittelwerte. Diese sind beträchtlich (35% im Durchschnitt). Im Bereich eines KGV von 23 verringert sich die Schwankung. D.h. in diesem Bereich ist nicht nur der mittlere jährliche Kursgewinn sehr viel größer als 7,8%, sondern auch Kursschwankungen die stark von den 25% Kursgewinn abweichen viel geringer.

Bevor ich diese Statistik ausgewertet hatte, war ich eher der Meinung, dass die Wahrscheinlichkeit eines Kursgewinns nach einem Jahr gleichverteilt über den KGV ist. Im Mittel 7,8% pro Jahr, egal ob man ein vermeintlich günstiges (geringes KGV) oder gehyptes (hohes KGV) Unternehmen kauft. 
Diese Statistik zeigt das Gegenteil. Von Unternehmen mit einem KGV kleiner 9 sollte man eher die Finger lassen. Hier zeigt die Statistik einen gehäuften Kursrückgang. Eine mittlere positive Kursentwicklung ergibt sich dagegen bei Unternehmen mit einem KGV von 10 bis 33. Wobei der Bereich 25 bis 29 anscheinend überaus profitabel und mit weniger warscheinlichen Kursrückgängen ausgezeichnet ist.



Sonntag, 11. August 2013

Fouriertransformation in der Praxis

Als Physiker ist die Fouriertransformation „Bildungsstandard“ und ein Kinderspiel. Zumindest solange, bis man selber in der Praxis eine diskrete Fouriertransformation im Programmcode verwenden möchte.
In der Uni wird ständig mit der Fouriertransformation hantiert, aber zumeist nur in „formaler“ Weise, d.h. man löst z.B. die Wellengleichung im k-Raum oder stellt die Dirac-Funktion als Fouriertransformierte dar. Im 2. oder 3. Semester macht man auch die Spielchen, dass man eine Gaußfunktion per Hand transformiert und wieder eine Gaußfunktion herauskommt.
In der Praxis hat man ein Signal diskretisiert, wobei der Zeitabstand zwischen zwei Samplepunkten einer sinnvollen physikalischen Einheit entspricht. Nun möchte man „einfach mal kurz“ das Zeitsignal in seine Frequenzen zerlegen. Und genau hier wird der durchschnittliche Physiker durch die Implementation der FFT zur Weißglut getrieben. „Wie zur Hölle muss ich denn nun meine Frequenzachse konstruieren um physikalisch sinnvolle Frequenzen zu erhalten????“

Der Fallstrick ist eigentlich nicht die Implementation (z.B. in Python oder Matlab) selbst, sondern dass man glaubt alles - wirklich alles - über die Fouriertransformation zu wissen und daher liest man die zugehörige FFT-Dokumentation nicht richtig.

Im folgenden möchte ich diese Fallstricke anhand der Implementation der FFT im numpy-Paket in Python erläutern.


Das wichtigste:
  1. Die FFT spuckt ihr Ergebnis in einer „unintuitiven“ Ordnung aus („Standard Packing“)
  2. Die Normierung ist unsymmetrisch
  3. Im Exponenten ist ein Faktor 2pi versteckt

Zuerst erstellen wir ein Zeitsignal mit einer physikalisch sinnvollen Zeitachse. Die obige Grafik wird mit folgendem Code erstellt

import matplotlib.pyplot as plt
import numpy as np
from math import *
N = 200
deltaT = 0.01 #ms
timeseries = np.zeros(N)
tAxis = np.linspace(0,deltaT*N,N)
damping = 15.0
frequency1 = 10.0 # 10 kHz
frequency2 = 30.0 # 30 kHz
fNyquist =0.5/deltaT
for i in range(N):
 t = tAxis[i]
 timeseries[i] = exp(-t*t*damping/4.0)*(1.0-exp(-t*t*damping))*sin(2.0*pi*frequency1*t)+0.05*cos(2.0*pi*frequency2*t)

plt.xkcd() #rausnehmen, falls matplotlib version <1.3.0
plt.plot(tAxis,timeseries,label = "damped sine")
plt.xlabel("t in ms")
plt.ylabel("Amplitude")
plt.legend()
plt.savefig("damped_sine.png")
Wir haben also einen gedämpften Sinus als Zeitserie, mit der Mittenfrequenz 10 kHz, dargestellt mit 200 Samplepunkten, die jeweils 10 Mikrosekunden auseinander liegen. Die Samplefrequenz ist also 100 kHz Außerdem ist diese Schwingung mit einem Cosinus kleiner Amplitude mit der Frequenz 30 kHz überlagert. Somit liegt die Nyquist-Frequenz bei 50 kHz. Wenn man nun ganz frisch ans Werk geht und einfach die FFT berechnet, erhält man folgendes

Der Code zur Erzeugung dieser Grafik ist dieser:

FFTtimeseries = np.fft.fft(timeseries)
fMax = 1.0/deltaT
fAxis = np.linspace(0,fMax,N)
plt.clf()
plt.plot(fAxis,np.abs(FFTtimeseries),'-b',label="FFT")
plt.hold(True)
plt.plot(frequency1, max(np.abs(FFTtimeseries)),'ro',label="my guess!" )
plt.plot(frequency2, max(np.abs(FFTtimeseries)),'r+',label="my guess!" )
plt.plot(fNyquist, max(np.abs(FFTtimeseries)),'go',label="Nyquist frequency" )
plt.xlabel("f in kHz")
plt.ylabel("FFT")
plt.xlim([min(fAxis),max(fAxis)])
plt.savefig("wrong_axis.png")

Nun schaut man sich das an und krazt sich am Kopf: Was „zur Hölle“ sind das für 2 Peaks hinter der Nyquist-Frequenz? Ok, ich ignoriere die einfach, weil sie ja höher als die Nyquistfrequenz sind. Das ist falsch. Der Grund für die beiden hinteren Peaks ist die FFT-Implementation. Stichwort „Standard Packing“. Die Funktion np.fft.fft gibt ein Array der Länge N wieder (hier also 200 Elemente). Das 0. Element entspricht der Frequenz Null, die Elemente 1, 2, ..., N/2-1 entsprechen den DFT-Koeffizienten zur Frequenz deltaF, 2*deltaF, ..., (N/2-1)*deltaF. Wobei deltaF=1/(N*deltaT) ist. Also durch diejenige harmonische Schwingung definiert ist, die genau einmal in das vorgegebene Zeitfenster N*deltaT (hier 2 ms) passt. Die Elemente N/2,...,N-1 entsprechen dagegen den negativen Frequenzkomponenten -deltaF*(N-1), -deltaF*(N-2),... -deltaF. Um ein „erwartetes Ergebnis“ zu erhalten, muss man das Ergebnis der FFT umsortieren. Dazu ist schon die Funktion fft.fftshift implementiert.

Der Code:

FFTtimeseries = np.fft.fftshift(np.fft.fft(timeseries))
fMax = 1.0/deltaT
deltaF =1.0/(deltaT*N)
truefAxis = np.linspace(-fMax/2,fMax/2,N)
plt.clf()
plt.plot(truefAxis,np.abs(FFTtimeseries),'-b',label="FFT")
plt.hold(True)
plt.plot(frequency1, max(np.abs(FFTtimeseries)),'ro',label="my guess!" )
plt.plot(frequency2, max(np.abs(FFTtimeseries)),'r+',label="my guess!" )
plt.plot(fNyquist,max(np.abs(FFTtimeseries)) ,'go',label="Nyquist frequency" )
plt.xlabel("f in kHz")
plt.ylabel("FFT")
plt.xlim([min(truefAxis),max(truefAxis)])
plt.savefig("right_axis.png")  

Das Ergebnis:

Damit wäre der obige 1. Punkt der Liste der Fallstricke behoben.

Nochmal kurz die Rücktransformation austesten:

plt.clf()
plt.plot(tAxis,np.fft.ifft(np.fft.fft(timeseries)).real,'-r',label="back transformed")
plt.xlabel("t in ms")
plt.ylabel("Amplitude")
#plt.legend()
plt.savefig("back_transformed.png")

Das Ergebnis
...Schön. Kommt genau das Eingangssignal wieder heraus. Ist ja alles super!

Der zweite Punkt der Fallstrickliste soll anhand des Faltungstheorems diskutiert werden. Zur Erinnerung: Die Fouriertransformierte  eines Faltungsintegrals ist einfach die Multiplikation der Fouriertransformierten der beiden einzelnen Funktionen. Außerdem ist ja bekannt, das die Faltung der Rechtecksfunktion mit sich selbst (Autokorrekation) die Zeltfunktion/Dreiecksfunktion gibt. Also versuchen wir uns mal daran:
def rect(x, L):
 if np.abs(x) < L:
  return 1.0
 else: 
  return 0.0
tAxis = np.linspace(-5,5,N) 
rectW = np.zeros(N)
for i in range(N):
 rectW[i] = rect(tAxis[i],1.0)

deltaT =abs(tAxis[1]-tAxis[0])
plt.clf()
plt.plot(tAxis,rectW,'-b',label="rect window")
plt.xlabel("t in ms")
plt.ylabel("Amplitude")
plt.legend()
plt.ylim([0,1.25])
plt.savefig("rect.png")

iAmClever = np.fft.ifft(np.fft.fft(rectW)*np.fft.fft(rectW))

plt.clf()
plt.plot(tAxis,iAmClever,'-b',label="first try" )
plt.xlabel("t in ms")
plt.ylabel("Amplitude")
plt.legend()
plt.savefig("first_fft_conv.png")

Im obigen Code habe ich eine Funktion „rect“ definiert die uns ein Rechtecksfenster erzeugt und danach haben wir das Faltungstheorem angewendet. Die Ergebnisse sind...

 ...das Rechtecksfenster ist also 2 ms breit. Faltet man diese Rechteckfunktion mit sich selbst, so erwartet man von -unendlich bis -2 ms Null, da die beiden Rechteckfunktionen noch nicht überlappen. Von -2 ms bis 0 ms erwartet man einen linearen Anstieg, da der Überlapp linear anwächst. Bei 0 ms liegen beide Rechtecke übereinander und das Integral sollte 2 ms * 1 = 2 ms ergeben. Danach erwartet man einen linearen Abfall bis 2 ms und dann sollte die Faltung Null ergeben. Nun bekommen wir aber folgendes Ergebnis:


Einmal wurde wieder die fftshift-Funktion vergessen, aber zudem wurde die Unsymmetrie der implementierten Normierung ignoriert. Nur bei der Rücktransformation der FFT ist ein Normierungsfaktor berücksichtigt, so dass ifft(fft(A))=A ergibt. Nun wurde aber im Frequenzbereich multipliziert, so dass dort einmal zusätzlich der Normierungsfaktor berücksichtigt werden muss. Richtig geht es so

FFTConvTimeseries = np.fft.ifftshift(np.fft.ifft(np.fft.fft(rectW)*np.fft.fft(rectW))).real*deltaT
plt.clf()
plt.plot(tAxis,FFTConvTimeseries,'-r',label="right axis and normalization" )
plt.xlabel("t in ms")
plt.ylabel("Amplitude")
plt.ylim([0,1.5])
plt.legend()
plt.savefig("fft_conv.png")

und man erhält das erwartete Ergebnis

Abschließend: Sagt niemals zu eurem Chef: Jo, FFT, bin in einer Viertelstunde fertig. Das geht schief! Immer. FFT ist um Welten komplizierter und verwirrender als die Fouriertransformation mit Stift und Papier. Die Diskretisierung und die verwirrende Implementation birgt viele viele Fallstricke!

Dienstag, 9. April 2013

MoneyTube

MoneyTube
YouTube ist die relevanteste Videoplattform weltweit, Erfinderin der „viral Videos“. Von Musik über Dokumentationen, zu Comedy, Meinungen, Skandalen, historischen Videodokumenten, Urheberrechtsverletzungen, Kriegspropaganda, Footage und Unfug gibt es alles. Zumindest Anfangs wurde all das von Amateuren hochgeladen und oft auch produziert.
Seit einiger Zeit macht YouTube eine gewisse Evolution durch. Anfangs war das Portal völlig werbefrei (2005), 2007 wurde auf ausgewählten Kanälen (Partner-Channels) Werbung geschaltet. Heute regt sich wohl auch niemand mehr ernsthaft über die Werbung auf. Neben dieser vordergründigen Kommerzialisierung des Portals, die offensichtlich notwendig ist, denn der Betrieb der Server um die schätzungsweise 140 Mio Videos = 1 PetaByte (2012) zu speichern und bereitzustellen wird wohl einiges kosten, läuft eine hintergründige Professionalisierung der YouTube-Kanäle ab.

Die Professionalisierung zeigt sich u.A. darin, dass sich YouTube-Stars entwickelt haben die wöchentliche Shows moderieren, in gestochen scharfem HD mit ausgefeilten Schnitten, Überblenden und in Fernsehsprech (z.B. „Matz ab“). Dass die bekannten Stars alle von großen (millioneneuroschweren) Netzwerken produziert und vermarktet werden ist wohl bekannt. Zum Beispiel stehen Y-Titty und Apecrime bei Mediakraft unter Vertrag und Ray William Johnson (RWJ) war bei Maker Studios unter Vertrag. Hier macht sich übrigens die erste Ernüchterung der Professionalisierung breit: Die massive „Cross-Promotion“, d.h. dass bekannte YouTuber in anderen „befreundeten“ Kanälen auftreten ist keinesfalls aus Eigeninitiative dieser (ehemaligen) Ameteuren  entstanden, sondern eines der Marketingwerkzeuge dieser Youtube-Netzwerke. Neben dieser Ernüchterung beim Zuschauer führt der massive Fluss von Geld durch das YouTube-Werbesystem zu handfesten Streitigkeiten, die z.B. zum Bruch zwischen RWJ und Maker Studios führte.

Neben dieser von Außen geführten Professionalisierung von YouTube wurden Ende 2012 in Deutschland von YouTube selbst so genannte “original channels” eingeführt. Hierbei handelt es sich um Kanäle auf YouTube die in Zusammenarbeit mit bestehenden Produktionsfirmen betrieben werden: YouTube beteiligt sich an den Produktionskosten und behält dafür einen Teil der Werbeeinnahmen ein. YouTube erzeugt bzw. beteiligt sich selbst an der Produktion von Inhalten. Dies ist ein neuer Schritt in der Entwicklung von YouTube und ein Bruch mit dem alten „Nur-Plattform-Dasein“.
Was ist nun eigentlich mein Problem? Mein Hauptproblem ist, dass die Tätigkeiten dieser Netzwerke und Original Channels komplett intransparent sind. Vordergründig werden die von den Netzwerken produzierten Kanäle als Amateur-Videos (zwar in HD) präsentiert, wohlwissend, dass die Zuschauer auf YouTube Amateure sehen wollen. Wäre dem Durchschnitts-YouTube-Zuschauer klar mit welcher Professionalität (d.h. mit Skriptschreibern, Drehbuch und Maske) seine Lieblingssendungen produziert würden, wäre der Glanz sehr schnell verflogen. Denn mit den Formaten im Fernsehen können die YouTube-Formate qualitativ nicht mithalten, trotz der neuen Geldmittel ist es meistens nur Klamauk. Dieser Klamauk wird nur geschätzt, weil man annimmt, dass es Leute wie du & ich sind die diesen Klamauk in ihrer Freizeit zum eigenen Spaß produzieren (nicht um Geld zu verdienen).
Durchforstet man dieses Netzwerk-Dickicht, so kann man übrigens auch die Gäste der nächsten Woche der einzelnen Kanäle vorhersagen.
Vor ca. 1 Monat endeckte ich den Kanal OnkelBernisWelt (OBW). Laut eigener Ansage die erste  und einzige Late-Night Show auf YouTube. Das Konzept ist witzig und die Sendung qualitativ hochwertig. Nun fand ich heraus, dass OBW ein “original channel” ist, produziert von First Entertainment (Tochterfirma von Bavaria Film). Dieser Fakt erklärt nun auch die Auswahl der Gäste in der Show, z.B. „Bonnie Strange“ vom Kanal eNtR berlin (von UFA produziert, auch “original channel”) sowie Trigger.TV (auch von UFA produziert). Erwarten kann man nun als zukünftige Gäste alle anderen “original channel”-YouTuber sowie YouTuber dessen Channels auch von Bavaria oder UFA produziert werden. Völlige Ernüchterung, die YouTuber laden nicht „coole“ Leute ein,  sondern Leute die „vom Management“ einzig zur Klickoptimierung auserkoren werden. Leider ist nicht bekannt wer wo unter Vertrag steht, die Zuordnung muss also invers geschehen. D.h. wenn A bei B auftritt, dann muss man davon ausgehen, dass diese im gleichen Netzwerk.
Was lernen wir daraus? YouTube ist längst kein Amateur-Verein mehr, dort tummeln sich die großen Filmriesen, bloß dass sie in den Vorspannen ihre Logos weglassen. Das verwundert, da in herkömmlichen Fernsehproduktionen diese Logos ziemlich groß und am Anfang sowie Abspann zu finden sind.
Alle Kanäle die mehr als 5000 Abonnenten haben, sind mit sehr hoher Wahrscheinlichkeit mit einer dieser Netzwerke/Produktionsfirmen verwoben. In wie fern diese auch die Inhalte beeinflussen weiß niemand. Mir ist das aufjedenfall alles sehr Suspekt. Je intransparenter desto suspekter.

Samstag, 30. März 2013

Was ist Nation?

Das Internet als virtuelle Nation und Bindeglied der Zivilisationen

Orginal von Colocho, Lizenz: CC-BY-SA-2.5

In den Zeiten der Globalisierung gibt es die einen, die die Weltnation in greifbarer Nähe sehen und die anderen, die die Nationen als einzig mögliche Ordnungseinheiten sehen, die uns vor dem unvorhersehbaren Chaos einer vereinten Weltgemeinschaft schützen können. 1993 schürte Huntington mit „The Clash of Civilizations“ die Angst und erregte die Gemüter durch seine Prophezeiung, dass ideologische und ökonomische Faktoren als fundamentale Ursache von Konflikten zwischen Völkern und Nationen an Wichtigkeit verlieren werden, dagegen werden die grundlegenden Ursachen der großen weltpolitischen Konflikte kultureller Natur sein.1 Seiner Ansicht nach werden zwar Nationalstaaten die mächtigsten Akteure der Weltbühne bleiben, aber die Hauptkonflikte der Globalpolitik werden zwischen Nationengruppen und verschiedenen Zivilisationen auftreten. Der Zusammenprall der Zivilisationen wird die Weltpolitik dominieren.2 Seine Prophezeiung ist als selbsterfüllend zu bezeichnen, da Huntington Zivilisationen über ihre Bruchlinien zu anderen Zivilisationen definiert und, wie einige Autoren anmerkten,3 aufgrund der Rückwirkung seiner Thesen auf öffentliche Debatten. Bruchlinien sind offensichtlich genau die notwendigen Bedingungen für Konflikte. Andererseits stellt Huntington die Nation als ein nur vorübergehendes Ordnungselement der Weltgemeinschaft dar, das aus den früheren, kleineren dynastischen Ordnungseinheiten („Princes“) emergierte und in der höchsten Ordnungseinheit „der Zivilisation“ mündet.4
Ich beginne diesen Essay mit Huntingtons „The Clash of Civilizations“ weil er ein prominentes Beispiel eines populärwissenschaftlichen Aufsatzes ist, der nicht scharf umgrenzte Begriffe wie „Zivilisation“ und „Nation“ benutzt und aus diesen dann versucht alternativlose Zukunftsszenarien zu entwickeln. Welche Vorhersagekraft können solche Szenarien überhaupt haben, wenn die zugrundeliegenden Begriffe sich der Objektivität größtenteils entziehen?
Da Huntington zur Definition der Zivilisation die gleichen Merkmale angibt wie auch ab dem 18. Jahrhundert versucht wurde den Begriff der Nation zu erfassen, als Menschengruppe mit gemeinsamer Kultur, so kann man sich die Frage stellen, wo überhaupt der qualitative Unterschied zwischen den zukünftigen „clashs of civilizations“ und den historischen „clash of nations“ liegen mag. Es lässt sich einzig ein quantitativer Unterschied zwischen Nation und Zivilisation ausmachen. Die Zivilisation steht in der Hierarchie der kulturellen Heterogenität eine Ebene höher als die Nation. Aber aus diesem quantitativen Unterschied konstruiert Huntington qualitative Verschiebungen in der Weltpolitik 56. Zwar unterschlägt er die massive Verkürzung der realen Distanzen durch die Globalisierung zwischen Menschen der Welt nicht,7 die zu einer „erhöhten Anzahl von Interaktionen“ zwischen Menschen unterschiedlicher Zivilisationen führt, aber er schließt daraus fatalistisch und ohne andere Möglichkeiten abzuwägen, dass es daher zu erhöhtem Konfliktpotenzial kommen muss.8 Ganz klar war das Internet 1993 noch nicht so omnipräsent und immer verfügbar wie heute, aber die Tendenz der Entstehung eines globalen, frei verfügbaren, Kommunikations- und Informationsnetzwerkes waren auch damals schon ersichtlich.9 Warum sollte dieser Quantensprung in der internationalen Kommunikation nun nicht genau das Gegenteil bewirken, den „agree of civilizations“
K.W. Deutsch entwickelte in seiner Dissertation 1953 das seitdem viel beachtete Konzept des Volkes als „Personengruppe mit komplementären Kommunikationsgewohnheiten“ und der Nation als ein „Volk, das Kontrolle über eigene Institutionen gesellschaftlichen Zwanges gewonnen hat, was eventuell zu einem voll ausgebildeten Nationalstaat führen kann.“ D.h. eine Gemeinschaft ist nicht einfach deshalb eine Gemeinschaft, weil es Gemeinsamkeiten wie Nachbarschaft, Sprache, Kultur, Geschichte oder Tradition besitzt, sondern weil es daher effektiver Kommunizieren kann. Mit diesem Blick wird klar, dass das Internet als das bislang effektivste Kommunikationsmittel der Menschheit, die momentane Weltordnung der Nationalstaaten gewaltig verändern wird und zwar nicht einfach hin zu Übernationalstaaten in Form von Zivilisationen wie Huntington prophezeit.
Denn aufgrund des globalen, dezentralisierten, zeitlosen, günstigen, einfachen, digitalen, individuellen, immateriellen, sicheren, geheimen und anonymen Charakters des Internets10 sowie dem erhöhten Bildungszugang aller Menschen und damit der massiven Verbreitung von Englisch als Lingua Franca, wird die Kommunikation auch zwischen Menschen, die nicht Mitglieder gleicher Nation oder gar Zivilisation sind, effektiver. Und gerade das ist laut Deutsch ein Baustein hin zu einer gemeinsamen Nation. Daher spreche ich beim Internet von einer „virtuellen Nation“.
Im Folgenden soll kurz die Definitionsgeschichte des Begriffes „Nation“ umrissen werden, um dann zu erörtern in wie fern man das Internet als Nation bzw. virtuelle Nation bezeichnen kann.

Definitionsgeschichte des Begriffes „Nation“


Beginnen möchte ich mit einem Zitat bezüglich der Eingrenzung von „Nation“ des britischen Ökonom und Verfassungstheoretiker W. Bagehot (1826- 1877):
„Wir wissen, was es ist, solange uns niemand danach fragt, aber wir können es nicht sofort erklären oder definieren.“11
Es wird sich herausstellen, dass knapp 150 Jahre später dies eigentlich die einzige Konstante der Definitionsversuche von „Nation“ ist.
Ansonsten kann man konstatieren, dass der Nationbegriff irgendwo zwischen Volk, Land und Staat angesiedelt ist. „Eine genaue Begriffsbestimmung ist regelmäßig mit der Schwierigkeit konfrontiert, die Nation zum Volk einerseits und vom Staat andererseits klar abzugrenzen.“12
Angefangen bei J. G. Fichte (1762 - 1814), der jedem Volk einen Nationalcharakter zuordnete, also gewisse Eigenschaften bestimmten Nationen zuordnete, entbehren die meisten Definitionen jeglicher messbaren Observablen. So versuchte Otto Bauer (1881-1938) den Grundgedanken des Nationalcharakters so zu präzisieren, dass er mit der offensichtlichen Beobachtung, dass der Nationalcharakter nur einer unter vielen, wenn überhaupt, marginaler Charakterzug eines Individuums ist, in Einklang steht. Bei der Suche nach einer objektiven Observablen in den gemeinsamen Eigenschaften eines Volkes versuchte er diese im „gemeinsamen Schicksal“ zu finden, welches als immer währende Kraft auf die Mitglieder eines Volkes einwirkt und sie zu einer Nation „zusammendrückt“ in eine „Charaktergemeinschaft“.13
Im Endeffekt blieben alle Definitionsversuche in dem Ansatz stecken möglichst objektive Abgrenzungsmerkmale zwischen Menschengruppen zu finden. In der Hochphase der Nationbildung im 18. und 19. Jahrhundert wurden so schließlich alle in Frage kommenden Merkmale, anhand derer sich Gruppen unterscheiden lassen, durchkonjugiert. Immerhin konnte Meinecke (1862-1954) zu einer Klassifizierung dieser vielen Nationsdefinitionen nach Staatsnation und Kulturnation einführen. Ernest Renan (1823 - 1892) widersprach als einer der wenigen der Notwendigkeit der Gemeinsamkeit von Rasse (heute hätte er wohl das Wort Ethnie verwendet), Sprache, Religion, Territorium und legte den Schwerpunkt auf die gemeinsam ertragene Geschichte und dem Willen zur gemeinsamen Zukunft als Nation und hebt damit in ersten Ansätzen die Gemeinsamkeiten der Nation in explizit nicht messbare Eigenschaften bzw. auf die Subjektive Ebene. Die Nation ist bei ihm eine reine Imagination - eine kollektive gleiche Willensentscheidung.
Neben den schon erwähnten Beiträgen Deutschs der eine Nation als Gruppe mit Kommunikationsvorteilen sieht, muss aber auch noch die Definition der Nation als „eine vorgestellte politische Gemeinschaft — vorgestellt als begrenzt und souverän.“ von B. Anderson erwähnt werden („imagined Community“). Demnach existiert die Nation hier explizit nur in den Köpfen, da ihre Mitglieder sich aufgrund der Vielzahl nicht alle kennen können und trotzdem die Vorstellung einer Gemeinschaft haben (Wohingegen Renan dieser Gedanke wohl nur implizit unterstellt werden kann). Außerdem kann so der Definitionsansatz umgekehrt werden: Es ist nicht zuerst die Gemeinschaft da, die sich dann zu einer Nation aufschwingt, sondern der (wie auch immer zustanden gekommene) Korpus der Nation formt aus seiner Menschenbefüllung erst die Gemeinschaft bzw. stellt die Grundlage der vermeintlichen Gemeinsamkeiten der Menschengruppe.14
Schon Schopenhauer (1788-1860) hatte wohl diesen Gedanken, dass erst die Nation selbst gemeinschaftstiftend ist und nicht andersherum, als er etwas deprimiert niederschrieb: „Die wohlfeilste Art des Stolzes hingegen ist der Nationalstolz. Denn er verrät in dem damit Behafteten den Mangel an individuellen Eigenschaften, auf die er stolz sein könnte, indem er sonst nicht zu dem greifen würde, was er mit so vielen Millionen teilt. Wer bedeutende persönliche Vorzüge besitzt, wird vielmehr die Fehler seiner eigenen Nation, da er sie beständig vor Augen hat, am deutlichsten erkennen. Aber jeder erbärmliche Tropf, der nichts in der Welt hat, darauf er stolz sein könnte, ergreift das letzte Mittel, auf die Nation, der er gerade angehört, stolz zu sein. Hieran erholt er sich und ist nun dankbarlich bereit, alle Fehler und Torheiten, die ihr eigen sind, mit Händen und Füßen zu verteidigen.“
Zusammenfassend besteht die Definition der Nation aus objektiven und subjektiven Elementen. Eine Menschengruppe, mit gewissen gemeinsamen Eigenschaften wie räumliche Geschlossenheit des Siedlungsgebietes, gemeinsame Abstammung, Sprache, kulturelle Tradition, Geschichte, besondere psychische Wesensart und Gemeinschaftsbewusstsein die sich von anderen derartigen menschlichen Gemeinschaften unterscheiden. Wobei aber keine der angeführten Charakteristiken notwendig oder hinreichend wären. Welche Eigenschaften wichtig sind, sind rein subjektiv bestimmt, gar ist die Gemeinschaft nur eine Vorstellung und ihre Präferenz gegenüber Anderen rührt aus der effektiveren Kommunikation im Inneren der Gemeinschaft als mit Außenstehenden her. Zusätzlich soll eine solche Gemeinschaft den Willen besitzen eine dauerhafte und selbstständige Existenz zu führen, über deren Form sie selbst entscheidet und sich in der Bereitschaft der Angehörigen dieser Gemeinschaft ausdrückt, Opfer für sie zu erbringen.

Internet als virtuelle Nation


Den vorherigen Abschnitt fasse ich nun in folgender „Checkliste“ zusammen
  1. Eine Nation ist eine Menschengruppe
  2. Die Menschengruppe besitzt eine gemeinsame Kultur, so dass sie effizient kommunizieren kann
  3. Eine Menschengruppe mit „objektiven“ Gemeinsamkeiten, beispielsweise
    1. Territorium
    2. Abstammung
    3. Sprache
    4. kulturelle Tradition
    5. Geschichte
    6. Religion
  4. Die Menschengruppe definiert sich über die Abgrenzung zu anderen Menschengruppen
  5. Der Wille eines jeden Individuums der Gruppe zur zukünftigen Fortführung der Gemeinschaft, gegebenenfalls unter Aufopferung

Erfüllt das Internet genügend Punkte dieser Liste um als Nation bezeichnet zu werden? Beginnen möchte ich mit den offensichtlich strittigen Punkten:
Ein wesentliches Merkmal bei den meisten Definitionen einer Nation ist Punkt 4, also die Definition der Nation als Gruppe die andere Eigenschaften hat als eine zweite Gruppe, eine Definition über Abgrenzung.
Das Internet bildet im Vergleich zu Huntingtons Zivilisation als Übernation eher eine Transnation, denn das Internet besteht aus Menschen aller Nationen der Welt: Sie umfasst Menschen verschiedenster „konventioneller“ Nationen die Zugang zum Internet haben. Hier stellt sich natürlich die Frage, ob ein Individuum Mitglied zweier Nationen gleichzeitig sein kann: Seiner „konventionellen“ Nation und der „virtuellen“ Nation Internet. In Zeiten des „Multikulturalismus“ können Menschen mehreren Kulturen anhängen und mit der Deklaration eines Zweitwohnsitz offiziell in zwei „Territorien“ leben. Ich meine ein Mensch kann nun einer „konventionellen“ und einer „virtuellen“ Kultur angehören. Dabei ist mit „virtueller Kultur“ nicht eine imaginierte Kultur gemeint, sondern die Kultur, d.h. Verhaltensweise gegenüber anderen Menschen, im Internet. Die Netzkultur. Genauso kann ein jeder Mensch einen „konventionelle“ wie auch „virtuellen“ Wohnsitz haben, zumindest haben die meisten Internetnutzer eine Email-Adresse, die zumindest dem Postboten als Anschrift des „virtuellen“ Wohnsitzes dient. Ich stelle hier also die These auf, dass ein jeder Mensch quasi Schizophren ist und sobald er sich in die Neue Welt des Internets begibt eine andere Persönlichkeit annimmt, samt neuer Adresse. Dass er der Internetgemeinschaft angehört, und sich, solange er im Internet verweilt, anderen Gebräuchen, Tabus und Verhaltensweisen unterwirft und dann zurück schlüpft in seine „konventionelle“ Kultur. Der Widerspruch, der die die Definitionsgrundlage einer Nation ist, ist quasi in jedem Internetnutzer in Form dieser Schizophrenie vorhanden.
Losgelöst von diesem Punkt stellt sich über allem die Frage, ob jeder Internetnutzer automatisch zum Mitglied der Internetnation wird oder ob es Internetbenutzer und Internetmitglieder gibt oder nur ersteres oder nur letzteres. Welche Menschen sind also bei der in Punkt 1 genannten Menschengruppe gemeint. Ist es so wie in den USA, dass jeder in ihrem Territorium geborener Mensch Amerikaner ist, also alle Internetnutzer allein durch die Nutzung der virtuellen Welt der Internetnation angehören? Oder muss ein Internetmitglied sich willentlich zu seiner Mitgliedschaft bekennen (z.B. so wie Renan es verstand), z.B. dadurch, dass er seine Zelte in Form einer eigenen Webseite, Blogs oder gar nur Email-Account in der virtuellen Landschaft aufschlägt, also wirkliche Spuren in der neuen Welt hinterlässt?
Zumindest kann man das Siedlungsgebiet der Internetgemeinschaft als Gemeinsamkeit und wohl abgegrenzt zu dem jeder anderen Nation anführen, denn es handelt sich um den virtuellen Raum, der durch Datenleitungen und Serverfarmen seine Physis besitzt, aber eigentlich nur eine Imagination im Geiste der Nutzer und Mitglieder ist. Dessen Imagination aufgrund der Reproduzierbarkeit der Wanderwege durch diesen Raum durch Hyperlinks zur Realität wird. Wie angemerkt fehlt wohl möglich dem Internet, als eine erste Version einer Weltgemeinschaft, zum vollen Nationenstatus die Definitionsmöglichkeit über Abgrenzung. Dagegen ist der 3. Punkt der Checkliste ein „Selbstläufer“. Territorium ist abgehakt, Internetkultur unter den Schriftzügen „Netzkultur“ und „Cyberculture“ und Internetgeschichte sind aktueller Forschungsgegenstand und daher existent. Die Sprache ist auch bei „konventionellen“ Nationen kein notwendiges Kriterium (siehe z.B. Schweiz oder Kanada, China und Indien). Aber die Amtssprache des Internets ist de facto Englisch und die Programmier- und Skriptsprachen, die sogar neue Syntax-Elemente wie Klammern und Begin- und End-Blöcke hervorbrachten werden von einem Großteil der Internetmitglieder „gesprochen“ und bilden zusammen mit dem „Netzjargon“ (wie der lächerlichen Abkürzung LOL) einen Teil der Netzkultur.
Jerry Everard stellt in seinem Buch „Virtual States: The Internet and the Boundaries of the Nation State“ die globale Telekommunikation als einen Schritt in der Tradition des menschlichen Netzwerkens dar. Ein Quantensprung in der Kommunikationsmöglichkeit. Außerdem vergleicht er das physische Rückrat und die von Menschen darauf installierte Software, die zusammen die leere Hülle des Internets konstituieren mit dem Staatskörper, der als Hüllkörper einer Nation aufgefasst werden kann. Somit ist das Internet nicht nur eine Nation, sondern gar ein Nationalstaat.
Aktuellen Diskussionen bezüglich Zensur im Internet, modernen Lizenzsystemen für kopierbare Medien und der Unmengen an eingebrachter Freizeit in die Erstellung von freiem Inhalt, freier Software und Befreiung von Informationen weisen darauf hin, dass die Internetbewohner sehr wohl opferwillig (so wie es Renan vermutlich verstand) und willens sind ihre Zukunft in der Internetgemeinschaft voranzutreiben. Somit ist Punkt 5 auch abgehakt.
Die virtuelle Nation Internet als Verbindung zwischen allen Menschen aller Zivilisationen ist offensichtlich ein Kulturmerkmal aller dieser Menschen und ermöglicht grenzenlose, effiziente Kommunikation (Punkt 2). Es haben sich gewisse Bräuche bei der Kommunikation im Internet herausgebildet (Emoticons, Betreffzeile im Email-Verkehr, überhaupt sind die üblichen Diskussionsforen stark strukturiert nach Inhalten und Form) Man darf daher mit Recht anmerken, dass somit den sonstigen Kulturunterschieden zwischen Individuen verschiedener Zivilisationen eine Gemeinsamkeit hinzugefügt wird, die weit über das nackte „Mensch-Sein“ hinausgeht. Somit lässt sich die Entwicklung der virtuellen Nation Internet als starker Zweifel an Huntingtons fatalistischen Clash der Zivilisationen anführen.
So wie kein englischer, französischer und spanischer König im 15. Jahrhundert vorhersehen konnte, dass seine Kolonien in der neuen Welt, d.h. einzelne Mitglieder ihrer Völker, eine neue Nationen bilden würden (allen voran die USA), so kann man auch die zukünftige weltpolitische Einordnung des Internets nicht vorhersagen. Einige oben gestellte Fragen und Probleme bleiben unbeantwortet, doch erfüllt das Internet „erschreckend“ viele Eigenschaften einer Nation, um den Begriff „virtuelle Natioin“ zu rechtfertigen.

Was soll das?


Welchen Nutzen kann man daraus ziehen, dass man das Internet als Nation bezeichnet?
Viele Menschen verbringen einen Großteil ihres Lebens im Internet. Sie entwickeln dort neue Ideen, Geschichte passiert in dieser „virtuellen Welt“. Es werden Waren in dieser Welt transportiert und gehandelt. Dieses virtuelle Land hat eine eigene Ökonomie und ihre Bewohner eine eigene Kultur. In einem Territorium, dass in einer anderen Ebene, als die Territorien der „konventionellen“ Nationen liegt. Noch gibt es keine kodifizierten Regeln der Internetgemeinschaft, aber teilweise werden Gesetze von einigen „konventionellen“ Staaten in dieser „virtuellen“ neuen Welt angewendet. Aber die verschiedenen Rechtsnormen der „konventionellen“ Staaten, denen die einzelnen Individuen der Internetgemeinschaft auch angehören, führen zu Widersprüchen. Die Auffassung des Internets als Nation könnte den Gedanken an eine Internetregierung, die Gesetze in dem virtuellen Raum erlässt, weniger lächerlich erscheinen lassen.
Aus einem anderen Blickwinkel kann man aber auch konstatieren, dass wenn man das Internet als Nation bezeichnen kann, dieser Begriff eine derartige Unschärfe und subjektive Definitionshoheit innehat, dass er aus dem wissenschaftlichen Diskurs verbannt werden sollte.
Durch die verbindende Wirkung des Internets sehe ich Huntingtons Prophezeiung als sehr unwahrscheinlich an und prophezeie selber, dass das Internet der Prototyp einer Weltnation wird, wenn dem nicht schon so ist.

Literatur


1 „It is my hypothesis that the fundamental source of conflict in this new world will not be primarily ideological or primarily economic. The great divisions among humankind and the dominating source of coflict will be cultural.“ Samuel P. Huntington: The Clash of Civilizations? (1993).
2 „Nation states will reamain the most powerful actors in world affairs, but the principal conflicts of global politics will occur between nations and groups of diffrent civilizations. The clash of civilizations will dominate global politics. The fault lines between civilizations will be the battle lines of the future.“ Samuel P. Huntington: The Clash of Civilizations? (1993).
3 „Dieser Einfluss auf öffentliche Debatten führte zu dem Vorwurf, Huntington habe eine ’Self-fullfilling Prophecy’ verfasst“. Oliver Bruns: Einwände gegen Huntingtons These vom „Kampf der Kulturen“ (2008).
4 „For a century and a half after the emergence of the modern international system with the Peace of Westphalia, the conflicts of the Western world were largely among princes-emperors, absolute monarchs and constitutional monarchs attempting to expand their bureaucracies, their armies,their mercantilist economic stringht and, most important, the territory they ruled. In the process they created nations states, and beginning with the French Revolution the principal lines of conflict were between nations rahter than princes. In 1793, as R.R. Palmer put it, “The wars of kings were over; the wars of peoples had begun.“ This nineteenth century pattern lasted until the end of World War I. Then as result of the Russian Revolution and reaction against it, the conflict of nations yielded to the conflict of ideologies, first amon communism, facism-Nazism and liberal democracy [...]. These conflicts between princes, nation states and ideologies were primarily conflicts wihtin Western civilization, “Western civil wars”, as William Lind has labeled them.[...] With the end of the Cold War, international politics moves out of its Western phase, and its centerpiece becomes the interaction between the West and non-Western civilizations and among non-Western civilizations.[...] It is far more meaningful now to group countries not in terms of their political or economic systems or in terms of their level of economic devolopment but rather in terms of their culture and civlization.” Samuel P. Huntington: The Clash of Civilizations? (1993).
5 „What do we mean when we talk of civilization? A civilizations is a cultural entity. Villages, regions, ethinc groups, nationalities, religious groups, all have distinct cultures at different levels of cultural heterogeneity. The culture of a village in southern Italy may be different from that of a village in northern Italy , but both will share in a common Italia culture that distinguishes them from German villages. European communities, in turn, will share cultural features that distinguish them from Arab or Chines communities.[...]The civilization to which he belongs is the broadest level of identification with which he intensely identifies.[...] Civilizations may involve a large number of people, as with China (“a civilization pretending to be a state”, as Lucian Pye put it).[...] A civilization may include several nation states, as is the case with Western, Latin American and Arab civilizations, or only one, as is the case with Japanese civilization.[...]Civilizationsobviously blend and overlap, and include subcivilizations.[...]Westeners tend to think of nation states as the principal actors in global affairs. They have been that, however,for only a few centuries. The broader reaches of human history have benn the history of civilizations.“ Samuel P. Huntington: The Clash of Civilizations? (1993).
6 „Civilizations are diffrentiated from each other by history, language, culture, tradition and, most important, religion.“ Samuel P. Huntington: The Clash of Civilizations? (1993).
7 „Second, the world is becoming a smaller place. The interactions between peoples of different civilizations are increasing; these increasing interactions intensify civilization consciousness and awareness of differences between civilizations and commonalities within civilizations.“ Samuel P. Huntington: The Clash of Civilizations? (1993).
8 „North African immigration to France generates hostility among Frenchmen and at the same time increased receptivity to immigration by “good” European Catholic Poles. Americans react far more negativel to Japanese investment than to larger investments from Canada and European countries.“ Samuel P. Huntington: The Clash of Civilizations? (1993).
9 Schon im Vorwort des Buchs „Network Nation“ (1993) von Hiltz und Turoff aus dem Jahre 1979 schreibt Suzanne Keller: „In their intriguing new book, Hiltz and Turoff explore the emergence of a new form of communication called computerized conferencing. [...] The authors expect it to revolutionize not only communications but social and intellectual life as well.“
10 Charakterisierung des Internets nach Christoph Engel „The Internet and the Nation State“ (1999)
11 „The question is most puzzeling, though the fact is so familiar“ in Bagehot: Physics and Politics (1872), S. 83
12 Dietmar Meister in Zwischen Faschismus und Widerstand. Nationalismen in Südtirol“ (2009), Magisterarbeit an der Uni Wien
13 Die Frage „Doesn’t everyone [...] know Germans who nervertheless have nothing of that which otherwise is regarded as the German national character?” beantwortete Bauer mit dem Versuch zwischen Ähnlichen Charaktären zu unterscheiden. Bauer: „deeper conception of a community of character; this no longer means for us that the individuals of the same nation are similar to each other but that the same force has acted on the character of each individual- no matter how different the other forces may be which are effective beside it [...] While [...] similarity of character can only be observed in the majority of members of the nation, the community of character, the fact that they all are the products of one and the same effective force, is common to all of them without exception. This effective force, that which is historical in us, is that which is national in us. It is this which welds us into a nation“
14 So kommt er zum Schluss, dass „nicht die Bestrebungen von Nationen [...] den Nationalismus [schaffen], vielmehr schaffe sich der Nationalismus seine Nationen“.