Natürlich verliere ich mit einem Weggang auch Vorteile, vor allem den dass viele Leser vorbeikamen. Aber vielmehr sprach leider nicht mehr für einen Verbleib, sodass ich mich letztlich endlich für meine eigene Plattform entschieden habe. Technische Reibungslosigkeit ist einfach essentiell für die Motivation, weiter zu schreiben. Es kann ja auch nicht im Interesse meiner Leser_innen sein, weniger zum Lesen zu bekommen, weil ich gar nicht erst schreibe – es ist, so wenig Zeit wie ich habe, eh schon schwierig.
Daher hoffe ich, dass der oder die eine oder andere Leser_in auch an neuem Ort mal vorbeischauen wird!
]]>Wenn kein Gott die Welt geschaffen hat, kein Geist hinter den Dingen steht und Wahrheit nur ein kurzfristiges sich wandelndes Ergebnis von relativen Fakten ist, die jeden Tag mit einer neuen Supernova umgeballert werden könnte, dann ist es weder gut noch schlecht, dass wir da sind.
Selbstverständlich wird unser Verständnis der alltäglichen Welt nicht mehr von einem Moment auf den anderen umgeblasen werden, wir haben ein grundlegendes Verständnis von allem, was so an Physik jeden Tag passiert. Gravitation wird sich nicht mehr ändern, und das Sonnensystem sich auch nicht plötzlich als Lämpchen an einem blauen Teppich erweisen.
Aber die Folgerung ist richtig. Es ist weder gut noch schlecht, dass wir hier sind. Gut und schlecht sind menschenzentrische Begriffe aus unserem Erlebnishorizont, der nicht sonderlich weit ist wenn wir nicht mit Wissenschaft dahinter sehen. Und da muss man schon starke Behauptungen aufstellen, um noch Platz für Gott zu finden.
Es gibt Menschen, die sagen, man könne auch als Atheist feststellen, was ein gutes Leben sei und humanistische Werte finden, aber damit setzen sie bereits wieder voraus, dass Humanismus etwas Gutes ist.
Äh nein, damit lösen sie sich von einem archaischen Märchen von “gut” und “böse”, und verlangen Denkarbeit beim Finden von Werten, statt Autoritätshörigkeit.
Wenn es keinen Gott gibt, der die Menschen will, sondern nur Photonen und Zellen und physikalische Abläufe in der meinungslosen Stille des Alls, wo genau dazwischen ist die normative Stimme, die behauptet: Es ist gut, wenn die paar hoch entwickelten Säugetiere auf dem einen Planeten in Frieden zusammen leben. Richtig. Diese Stimme gibt es im Atheismus nicht. Die heißt nämlich Gott.
Ich kann manche Sachen nicht verstehen. Ich kann nicht verstehen, wie jemand der Bücher schreibt sich nicht die zwei Sekunden Zeit nehmen kann, zu reflektieren dass die Tatsache, dass Menschen eine Lebensform unter Millionen ist auf einem kleinen Staubfleck in einer nicht weiter bemerkenswerten Ecke eines unvorstellbar gewaltigen Universums sind, ausreichend beweist dass es den klassisch erzählten Gott nicht gibt. Aber gut, gegen Fakten und die Tatsache, dass wir Dinge wissen können hat sich Magnis mit ihrem postmodernen Armwischen in der Einleitung ja schon verschlossen.
Und außerdem möchte ich darauf hinweisen, dass Menschen komplex entwickelt sind, aber nicht hoch. “Hoch” würde in der Tat ein Werturteil feststellen, dass wir besser sind als andere.
Aber persönliche Meinungen und ein kategorischer Imperativ können Einem genauso egal sein wie das Fortbestehen der Menschheit auf einer Erde, die zufällig entstanden ist und eines Tages in die Sonne stürzen wird, es sei denn man hängt an seinem Leben. Es sei denn, man findet das Leben schön und erhaltenswert.
Ich finde das Leben schön und erhaltenswert, weil es so besonders ist, gerade eben weil es zufällig entstanden ist, weil wir die Vorgänge verstehen, die Gedanken erzeugen und die Photonen, die Milliarden Jahre altes Sternenlicht zu uns bringen, das uns hilft das Universum zu verstehen. Menschen sind eine phantastische Sache, unbedeutend im Universum und doch in der Lage, es zu verstehen und zu erkunden. Wir sind groß trotz unserer Schwäche, und das ist eine soviel tollere Erkenntnis als alles, was phantasieloses, beschränktes und gegen Kritik immunisierend substanzloses Plappern von Gott jemals gebracht hat und bringen wird.
Und es ist zweifellos eine maßlose Frechheit, wie Magnis hier und an anderen Stellen unterschwellig Atheisten Emotionslosigkeit, Lieblosigkeit und Verachtung für Leben vorwirft. Es gibt einen guten kleinen Test, um zu verstehen wie unverschämt dieser Text ist: Ersetzt doch einfach mal überall “Atheist” durch “Jude/Jüdin” und “Atheismus” durch “Judentum”. Denkt ihr, der Text wäre dann noch im öffentlichen Rundfunk aussendbar?
Ich fand das als 17-Jährige nach dem Tod meines Vaters nicht erhaltenswert. Er war qualvoll an Krebs gestorben, und ich hatte mit Gott gebrochen, ihn als Prinzip aus meinem Denken gestrichen und zu spät gemerkt, dass damit alle Dinge verloren gehen, die einen Glaubensakt voraussetzen. Jeder humanistische Wert setzt voraus, dass wir Menschen glauben, dass wir wertvoll sind. All das ging mir verloren nach dem Tod meines Vaters und für jemanden wie mich hatte mein Atheismus nur eine Antwort: Pech gehabt.
Das ist, Verzeihung, schon zum lachen entstellt. Zu unterstellen, dass Atheisten mit Tod so umgehen, ist ebenfalls eine Unglaublichkeit, aber stellt euch doch mal vor was sie da von sich gibt: Dass ein_e Atheist_in käme und einem trauernden Mensch* sagt: Tja Pech gehabt.
Mit Tod umgehen ist sehr schwierig. Wahrscheinlich nur ein Jahr nachdem Frau Magnis ihren Vater verlor, ist meine Mutter an Krebs gestorben. Aber es ist mir völlig undenkbar, dass himmelsfarbene flauschiger unspezifischer Glaube die Lösung wäre damit umzugehen.
Der Tod eines Elternteils reißt dir ein Loch ins Herz. Man weiß, diesen Menschen nie wieder zu sehen, obwohl er doch ein Teil von einem selbst ist. Und dieser Teil fehlt. Und er wird nie wieder gefüllt werden. Mit dem Tod eines Menschen umgehen lernen, heißt weiter das beste aus dem eigenen Leben machen, und das Loch im Herz mit sich herumtragen. Jeden Tag, immer wieder. Das ist der Preis, den wir für Liebe bezahlen. Einen Menschen zu lieben, ist sehr teuer, und der Preis ist jeden Tag das Loch im Herz auszuhalten.
Das ist nicht leicht, und viele Menschen brauchen dabei Hilfe. Durch Freunde, und vielleicht auch durch Therapie. Und das ist so ernst, dass ein solcher Text wie vom Deutschlandradio hier gefährlich ist. Statt dafür zu sorgen, dass jedem/r Trauernden Therapie mit echter Hilfe, also frei von Gott oder Glauben, zugänglich ist, wird behelfsmäßig mit Gottespflaster geflickt. Das echte Seelenleiden von Menschen wird nicht ernst genommen.
So schlimm auch ist, was Frau Magnis hier schreibt, macht es mich traurig wenn ich lesen muss:
Mein Vater ist gestorben, als ich 17 war und mein kleiner Bruder ein paar Jahre später. Ich habe nur eine einzige Hoffnung, und das ist die, dass dieses uralte Gerücht wahr ist: dass wir aufgehoben sind in Gott. Da, wo das Gute gedacht wird und die Wahrheit über unser Leben liegt.
Wenn das einzige, was einem am Leben hält, eine offensichtliche Illusion ist, braucht ein Mensch Hilfe. Das kann nicht gesund sein.
Aber jetzt hoffe ich, dass ihr Ironiemeter von mindestens Industriestärke habt, ansonsten lest besser nicht weiter:
Der Atheismus hat mir damals auch gesagt: Dein Leben fühlt sich nicht nur grauenhaft an, es ist noch dazu vollkommen sinnlos. Und die Atheisten, die das zu hart fanden, haben gesagt: Du musst deinem Leben eben selbst einen Sinn geben.
Aber ist das nicht einfach nur Getue – habe ich mich gefragt. Und die Antwort von ehrlichen Atheisten war: Ja. Das meiste im Atheismus ist ein: so tun als ob.
*Batsch* da hauts dem Ironiemeter die Sicherung raus. Ich hab euch gewarnt. Jawohl. Richtig gelesen: Wenn Atheist_innen ihrem Leben einen eigenen Sinn geben, dann ist das nur “so tun als ob”. Wenn man daran glaubt, dass ein wirrer unsichtbarer Sadist es so will, obwohl nichts, aber auch gar nichts dafür spricht, dass ist es richtig und wahr. Zum Schreien.
Ach, und überseht auch nicht die kleine unterschwellige Behauptung, dass normale Atheist_innen nicht ehrlich sind. Sehr schön herauszuarbeiten im Vergleich zu den “Manche Atheisten könnten sagen””-Formulierungen im Rest des Textes.
So tun, als hätten wir eine Würde, obwohl die empirisch genauso wenig messbar ist wie Gott. Ich liebe dich sagen, ohne zu glauben, dass es echte Liebe und nicht nur Gerüche und Endorphine gibt.
Genau so, wie ich jeden Tag zu meiner Frau sage: Ach wenn ich dich doch nur lieben könnte, und nicht nur deine Endorphine riechen würde.
Glaubte ich nicht an Gott, dann würde ich nicht lächeln, wenn es, so wie gestern Nacht, zu schneien beginnt und die Welt unterm Schnee stiller wird, dann würde ich am Fenster stehend nur denken: Der Planet ist kalt und bald sind wir tot.
Und wenn ich irrationalen Nonsens glauben müsste, um Freude zu empfinden, dann wäre ich ein trauriger, armer Mensch.
—
P.S.: Diax’s Rake zieht um! Noch gibt es die Artikel auf beiden Seiten, aber bald werdet ihr mich nur noch in meiner neuen Heimat lesen können!
]]>Im ersten Schritt wurde nur die Korrelation zwischen den Medien und Albenverkäufen etabliert, erst danach die schwierigere Vorhersage von Verkäufen aus der Aktivität der vorigen Woche. Auch nach einem statistischen Test, ob die Korrelation wirklich Ursache anzeigt, blieb das Ergebnis, dass für mehr als 50 % der Künstler soziale Medien besser zur Vorhersage sind als wie oft ein Song im Radio gespielt wird.
Auch scheint die Information aus Medien wie Twitter, Facebook, Internetradio wie Rdio und etwas überraschend auch Wikipedia Albenkäufe zu motivieren. Menschen informieren sich eben gerne bevor sie kaufen, oder suchen nach neuen Tipps.
Social media has a concrete and measurable impact on sales, certain metrics more so than others, and can serve as an aid to the industry when it comes to determining where to focus marketing efforts. People will hear a single on the radio or YouTube and buy it. But before they invest in a more costly album they want to find more about the artist via the artist’s website or Wikipedia.
Lest mehr im Originalartikel.
—
P.S.: Diax’s Rake zieht um! Noch gibt es die Artikel auf beiden Seiten, aber bald werdet ihr mich nur noch in meiner neuen Heimat lesen können!
]]>Nach dem schmerzhaften zweiten Teil, der Installation, haben wir jetzt ein Hadoop-System zum Spielen. Es läuft lokal, reagiert aber wie ein echter Cluster (außer natürlich dass es nicht schneller sondern langsamer läuft, weil es nur pseudoverteilt ist). Und nach dem Spielzeug-Beispiel Wörter zählen können wir auch endlich einen Algorithmus implementieren, bei dem es einfach einleuchtet warum die Grenzen eines einzelnen Rechners schnell erschöpft sind. PageRank ist der Algorithmus, auf dem das Google-Imperium aufgebaut ist, benannt nach Gründer Larry Page, und nicht etwas nach den web pages die er bewertet (fragt sich nur, nach wem Facebooks Edgerank benannt ist). (Natürlich sehen wir hier nur die ganz einfache, ursprüngliche Variante.)
Die Aufgabe von PageRank ist es, die Wichtigkeit einer Webseite zu bewerten, die sich daran misste wie wahrscheinlich es ist dass man auf sie stößt, wenn man im Internet unterwegs ist. Das hängt davon ab, wieviele Links auf eine Seite verweisen, und wieviele Wege darüber auf die Seite führen. Bildlich – und glücklicherweise auch theoretisch – kann man das ganze als Graph darstellen:
Unser Mikro-Internet hier hat nur sechs Seiten und sieben Verlinkungen. Ein schneller Blick, wo die Links hinführen, zeigt schon dass B eine beliebtere Seite ist als E – drei einkommende Links für B, nur ausgehende für E.
PageRank ist ein iterativer Prozess, wiederholt also mehrfach die gleichen Schritte bis ein Gleichgewicht erreicht ist. Der Algorithmus weist jedem Knoten (=Webseite) ein Gewicht zu, das zu Beginn gleich für alle Knoten ist, und am Ende so umverteilt wurde, dass die wichtigen Knoten (das wären dann die, die zuerst in der Google-Suche auftauchen) ein hohes Gewicht haben, so wie hier:
Wenn der Algorithmus richtig läuft, sollte sich die Verteilung der Gewichte nach einigen Iterationen nicht mehr groß verändern und der Prozess ist konvergiert.
In jedem Iterationsschritt verteilt jeder Knoten sein gesamtes Gewicht an alle Seiten, auf die er liegt. Im ersten Schritt würde also z.B. Knoten A je die Hälfte seines Gewichtes an Knoten B und D weitergeben. Da B von drei anderen Knoten Gewicht erhält, wird er am Ende der schwerste Knoten sein. A aber hat nur ausgehende Links, würde also mit Gewicht Null enden.
PageRank hat aber zwei Methoden, Knoten Gewicht zu geben, die Bewegungsmuster von Internetusern abbilden sollen. Mit hoher Wahrscheinlichkeit (z.B. 85 %) folgt ein Benutzer einem Link auf der Seite, die er gerade besucht. In den anderen Fällen bewegt er sich zu einer zufälligen Seite im Netz weiter, das ist also die Chance für A, doch noch ein paar Besucher abzubekommen.
Ein weiteres Problem stellt Knoten D dar, der zwar einkommende, aber keine ausgehenden Links hat – ein hängender Knoten. Würden wir den Algorithmus nicht daran anpassen, würde alles Gewicht (außer dem zufällig verteilten) zu D hinfließen. Die Lösung ist, in jedem Schritt das gesamte Gewicht von D gleichmäßig an alle Knoten zu verteilen )eigentlich an alle anderen, aber da Netzwerke meistens so gewaltig groß sind, kann man das vernachlässigen).
Das war auch schon das Prinzip. Es ist leicht, sich vorzustellen, dass auch nur Ausschnitte aus dem Internet so gewaltig viele Seiten und Links haben, dass kein einzelner Rechner das bewältigen kann. Glücklicherweise, wenn wir Mapper und Reducer richtig wählen, brauchen wir uns nicht darum sorgen, denn wir können die Aufgaben verteilen. Wie wir sehen werden, erfordern die hängenden Knoten allerdings, je Iteration zwei MapReduce Schritte zu verknüpfen. Wieder einmal – dies ist eine Lösung die funktioniert. Wie effektiv sie ist, da habe ich mir (noch) keine eingehenden Gedanken drüber gemacht.
Ich habe Skripte für die Mapper und Reducer und ein Shell-Skript für die Iterationen vorbereitet, außerdem eine etwas größere Beispieldatei als die oben im Bild. Peinlicherweise hab ich nur noch meine verarbeitete Datei gefunden, die ich mal aus einem (frei verfügbaren) Datensatz mit einem kleinen Netzwerk (~280000 Knoten) erstellt habe.
Wenn ihr die Skripte nicht aus dem Artikel kopieren möchtet, und die Beispieldatei haben wollt, klont euch einfach mein Git dazu:
git clone https://github.com/jrings/hadoopBeispiele
Um die Skripte zu streamen, müssen sie ausführbar sein, ändert als die Rechte wie folgt:
chmod +x alpha*py weight*py
Im Ordner 1-2-Intro findet ihr den Code zu den ersten beiden Artikeln, und in 3-Pagerank die neuen Dateien, mit einem gepackten graph.zip, das ihr entpacken solltet um die Eingabedatei zu erhalten. Wenn ihr euer eigenes Beispiel testen wollt, müsst ihr es als graph.txt speichern und in das folgende Format bringen:
Knotennummer Gewicht Adjazenzliste
Die Knotenummer beginnt mit 0. Das Gewicht für eure Eingabedatei ist gleich 1/(Anzahl Knoten), und die Adjazenzliste definiert den Graph: Es ist eine Liste der Knotennummern, auf die dieser Knoten verlinkt. Der Beginn des Beispiels also etwa ist:
0 3.547e-06 6547 15408
1 3.547e-06 17793 25201 53624 54581 64929 73763 84476 98627 100192 102354 105317 105729 115925 140863 163549 164598 175798 178641 181713 190452 204188 204603 210869 213965 2
25118 241595 243293 246896 251657 252914 280934
2 3.547e-06 74360
Knoten 0 hat ausgehende Links zu Knoten 6547 und 15408, Knoten 1 verlinkt auf eine ganze Reihe Seiten und 2 nur auf eine.
Um zu verstehen, wie ich den Algorithmus parallelisiert habe, gehen wir durch die Skripte. Starten wir mit weightMapper.py:
#!/usr/bin/python
import sys
def read():
for line in sys.stdin:
yield line.strip().split()
def main():
for pp in read():
nodeId = int(pp[0])
nodeValue = float(pp[1])
nodeAdjaList = [int(p) for p in pp[2:]]
print("%i 0"% nodeId)
if len(nodeAdjaList)>0:
wD = nodeValue/float(len(nodeAdjaList))
for idn in nodeAdjaList:
print("%i%8.4g" % (idn, wD))
else:
print("-9999 %8.4g" % nodeValue)
if __name__ == '__main__':
main()
Vom WordCount-Beispiel erinnern wir uns noch dran, dass wir zeilenweise von STDIN lesen. In diesem Fall lesen wir Zeile für Zeile den Graph wie oben. Wir wissen auch, dass der Mapper Schlüssel-Wert-Paare ausgibt. Wir können uns aber nicht auf eine bestimmte Ordnung verlassen, aber darauf dass derselbe Reducer alle Zeilen mit dem gleichen Schlüssel erhalten kann.
Daher teilen wir diesem Mapper die folgende Aufgabe zu: Pro eingelesene Zeile gibt für jede Knotennummer in der Adjazenzliste aus, wieviel Gewicht dieser Knoten aus dieser Zeile erhält, denn Knotennummer in der Zeile und Adjazenzliste definieren einen Link. Und da die Zeile auch das momentane Gewicht eines Knoten enthält, ist mit der Länge der Adjazenzliste ist auch schon definiert, wieviel Gewicht an jeden Knoten weitergegeben wird. Später kann dann der Reducer aufaddieren, welches Gewicht jeder Knoten in Summe erhält.
Es ist ein wenig effektiver, das Lesen als Generatorfunktion zu schreiben (read()). Ein Generator zeichnet sich durch das yield-Schlüsselwort aus, das wie ein return funktioniert. Allerdings richtet Python es so ein, dass immer nur eine Zeile auf einmal ausgegeben wird, statt erst alle Zeilen in den Speicher zu lesen. Es erlaubt, mit for…in über die Zeilen zu iterieren, generiert neue aber immer nur “on demand”. Wichtig, wenn man mit großen Eingabemengen rechnen muss. Ich lasse den Generator Zeilen schon splitten, also eine Liste [knotenummer, gewicht, …] zurückgeben.
In der Hauptfunktion main() iteriere ich über jede Zeile, stelle Knotenummer des Ausgangsknoten, Gewicht und Adjazenzliste fest und gebe für jeden Knoten in der Adjazenzliste dessen Knotennummer (=Schlüssel) und den Anteil am Gewicht des Ausgangsknoten aus (=Wert), der weitergegeben wird. Zuerst aber schreibe ich schonmal einen Eintrag mit Gewicht 0 für jeden Knoten. Das stellt sicher, dass jeder Knoten, auch die, die keine eingehenden Links haben, im Reducerschritt und dem folgenden MapReduce auch aufgeführt sind. Und Gewicht 0 zu anderen Gewicht addieren wird nichts am Resultat ändern.
Dann gibt es aber noch ein else, falls die Adjazenzliste Länge Null hat. Das ist der Fall eines hängenden Knotens, der keine ausgehenden Links hat. Um das zu handhaben, verwende ich einen Trick und gebe das gesamte Gewicht mit Knotennummer -9999 aus (also einer die sonst nie vorkommen kann). So kann später aufaddiert werden, wieviel Gewicht aus hängenden Knoten weitergegeben werden muss.
Schauen wir auf den Reducer weightReducer.py:
#!/usr/bin/python
import sys
import os
def read():
for line in sys.stdin:
yield line.strip().split()
def main():
currentNode = None
currentWeight = 0
for pp in read():
nodeId = int(pp[0])
nodeAdd = float(pp[1])
if nodeId == currentNode:
currentWeight += nodeAdd
else:
if currentNode:
print("%i%8.4g" % (currentNode, currentWeight))
currentNode = nodeId
currentWeight = nodeAdd
if currentNode:
print("%i%8.4g" % (currentNode, currentWeight))
if __name__ == '__main__':
main()
Der Reducer erhält also alle Zeilen von den Mappern, die den gleichen Schlüssel haben, sortiert. Daher ist das Prinzip, ähnlich wie beim WordCount, die momentan bearbeitete Knotennummer zu speichern und die einkommenden Gewicht aufzuaddieren. Stößt man auf einen neuen Knoten, gibt man das gesammelte Gewicht aus. Und schon hat man für jeden Knoten das Gewicht, das dieser in diesem Iterationsschritt über Links gesammelt hat.
Im nächsten MapReduce-Schritt kümmern wir uns jetzt um die zufälligen Seitenaurufe. Das sind zwar nur 15 %, aber auch theoretisch ist das wichtig um den Algorithmus zu stabilisieren! Außerdem haben wir noch das Gewicht hängender Knoten zu verteilen – glücklicherweise hat der Reducer hier mit Knotennummer -9999 schon ausgegeben, wieviel Gewicht sich da angesammelt hat.
Das zweite MapReduce-Set braucht einige Parameter “von außen”. Ein Parameter, den wir alpha nennen, gibt an, wie oft User zufällig zu einer anderen Seite springen (wir sagten 15 %). Außerdem müssen wir die Knotenzahl im Graph kennen, und das hängende Gewicht.
Hier ist alphaMapper.py:
#!/usr/bin/python
import sys
def read():
for line in sys.stdin:
yield line.strip().split()
def main():
dat = open("data_.txt").readlines()
alpha = float(dat[0].strip())
sizeGraph = int(dat[1].strip())
hangingWeight = float(dat[2].strip())
for pp in read():
node = pp[0]
if node>-9999:
value = float(pp[1])
newValue = alpha/float(sizeGraph) + (1-alpha) * (value+(hangingWeight/float(sizeGraph)))
print("%s%8.4g" %(node, newValue))
if __name__ == '__main__':
main()
Wo die Parameter herkommen, sehen wir gleich am Shell-Skript, für jetzt reicht es zu wissen dass jeder Mapper eine Datei data_.txt finden kann, die in der ersten Zeile alpha hat, in der zweiten die Anzahl an Knoten und in der dritten Zeile das gesammelt hängende Gewicht.
Dann lesen wir die Ausgabe des ersten Reducers, Zeile für Zeile. Für die “echten” Knoten, also die, die nicht Knotennummer -9999 haben, ändern wir das Gewicht wie folgt:
Von jedem Knoten des Graphs kommt ein zufälliger Anteil an eingehenden Links. Der Gewichtszuwachs dadurch ist das Anfangsgewicht (1/Anzahl an Knoten) mal alpha, den Anteil an zufällig verteilten Links.
Der Rest (gewichtet mit 1-alpha, also 0.85), verfällt auf das Gewicht aus eingehenden Links (value, das hat der erste Reducer schon aufsummiert) plus das Gewicht aus hängenden Knoten. Die gesamte Summe von hängenden Knoten kennen wir, und wenn wir durch die Größe des Graphen teilen erhalten wir das Gewicht, das an jeden Knoten geht. Hey und das war es! Wir haben das neue Gewicht für jeden Knoten! Daher brauchen wir auch keinen Reducer mehr schreiben und nehmen den Identitätsreducer, also den der alle Zeilen nur weitergibt.
Jetzt brauchen wir nur noch etwas, um die Iterationen durchzuführen, Dateien ins HDFS und zurück zu kopieren etc. Dazu hab ich ein Shell-Skript geschrieben, das ehrlich gesagt ineffektiv wie noch was ist, und auch keine Konvergenz überprüft, sondern einfach nur 10 Schritte durchführt. Aber es geht ja auch nur darum, die Skript laufen zu lassen. Hier ist iter.sh:
# CONFIGURATION
CLEANUP=0 #Set to 1 to delete temporary folder at the end
MRDIR="$( cd "$( dirname "$0" )" && pwd )"
TEMPDIR=$MRDIR/temp
ALPHA=0.15
mkdir $TEMPDIR
cp $MRDIR/graph.txt $TEMPDIR/graph_.txt
cut -f 3- -d " " $MRDIR/graph.txt > $TEMPDIR/adja.txt
for i in {1..10}
do
echo "Iteration $i"
hadoop fs -rm -r pagerank
hadoop fs -rm graph_.txt
hadoop fs -copyFromLocal $TEMPDIR/graph_.txt graph_.txt
hadoop jar /usr/lib/hadoop-mapreduce/hadoop-streaming.jar -D mapred.output.key.comparator.class=org.apache.hadoop.mapred.lib.KeyFieldBasedComparator -D stream.num.map.output.key.fields=1 -D mapred.text.key.comparator.options=-k1n -file $MRDIR/weightMapper.py -mapper weightMapper.py -file $MRDIR/weightReducer.py -reducer weightReducer.py -input graph_.txt -output pagerank
if [[ $? != 0 ]]; then
echo "Run unsuccessful!"
exit $?
fi
rm -rf $TEMPDIR/pagerank
hadoop fs -copyToLocal pagerank $TEMPDIR
cat $TEMPDIR/pagerank/part* > $TEMPDIR/output.txt
#Write parameters for alpha, graph size and cumulative hanging weight
echo $ALPHA > $TEMPDIR/data_.txt
tail -n 1 $TEMPDIR/graph_.txt | awk '{print $1+1}' >> $TEMPDIR/data_.txt
head -n 1 $TEMPDIR/output.txt | awk '{print $2}' >> $TEMPDIR/data_.txt
hadoop fs -rm -r pageout
hadoop fs -rm output.txt
hadoop fs -copyFromLocal $TEMPDIR/output.txt output.txt
hadoop jar /usr/lib/hadoop-mapreduce/hadoop-streaming.jar -D mapred.output.key.comparator.class=org.apache.hadoop.mapred.lib.KeyFieldBasedComparator -D stream.num.map.output.key.fields=1 -D mapred.text.key.comparator.options=-k1n -file $MRDIR/alphaMapper.py -mapper alphaMapper.py -reducer org.apache.hadoop.mapred.lib.IdentityReducer -file $TEMPDIR/data_.txt -input output.txt -output pageout
if [[ $? != 0 ]]; then
echo "Run unsuccessful!"
exit $?
fi
rm -rf $TEMPDIR/pageout
hadoop fs -copyToLocal pageout $TEMPDIR
cat $TEMPDIR/pageout/part* > $TEMPDIR/out.txt
rm $TEMPDIR/graph_.txt
paste $TEMPDIR/out.txt $TEMPDIR/adja.txt > $TEMPDIR/graph_.txt
done
cat $TEMPDIR/graph_.txt | sort -k2g | head -n 10
if [[ $CLEANUP == 1 ]]; then
rm -rf $TEMPDIR
fi
Die Date graph.txt soll unverändert bleiben, daher wird sie als Kopie graph_.txt durch den Algorithmus gehen, und hin und her kopiert werden. Ich will hier gar nicht auf das ganze Shell-Skript eingehen, fragt wenn ihr mehr wissen wollt, aber da könnte ich (und werde vielleicht) einen eigenen Artikel zu schreiben. Schauen wir nur auf die Streaming-Kommandos:
hadoop jar /usr/lib/hadoop-mapreduce/hadoop-streaming.jar -D mapred.output.key.comparator.class=org.apache.hadoop.mapred.lib.KeyFieldBasedComparator -D stream.num.map.output.key.fields=1 -D mapred.text.key.comparator.options=-k1n -file $MRDIR/weightMapper.py -mapper weightMapper.py -file $MRDIR/weightReducer.py -reducer weightReducer.py -input $TEMPDIR/graph_.txt -output pagerank
Hier sehen wir, wie mit -D Optionen eingestellt werden können. Eine davon ist KeyFieldBasedComparator. Dieser hilft den richtigen Sortierer zu konfigurieren – wir wollen doch Schlüssel als Zahlenwerte ausgeben, und nicht wie Buchstaben sortieren. Das konfigurieren die weiteren Parameter – wir haben ein Feld für den Schlüssel, und es ist numerisch (-k1n ist ein Parameter, wie unix sort ihn erhält).
Im zweiten Streaming-Befehl
hadoop jar /usr/lib/hadoop-mapreduce/hadoop-streaming.jar -D mapred.output.key.comparator.class=org.apache.hadoop.mapred.lib.KeyFieldBasedComparator -D stream.num.map.output.key.fields=1 -D mapred.text.key.comparator.options=-k1n -file $MRDIR/alphaMapper.py -mapper alphaMapper.py -reducer org.apache.hadoop.mapred.lib.IdentityReducer -file $TEMPDIR/data_.txt -input output.txt -output pageout
Geben wir org.apache.hadoop.mapred.lib.IdentityReducer als Reducer an – also der Identitätsreducer, der die Zeilen nur durchreicht.
Und mit dem -file Kommando sehen wir auch, wie die Parameterdatei zum zweiten Mapper kommt. Zwischen den MapReducern können wir sie dynamisch erstellen.
Wenn ihr also Hadoop korrekt gestartet habt, sollte der folgende Befehl all die Arbeit erledigen und die wichtigsten zehn Seiten ausgeben:
bash iter.sh
—
P.S.: Diax’s Rake zieht um! Noch gibt es die Artikel auf beiden Seiten, aber bald werdet ihr mich nur noch in meiner neuen Heimat lesen können!
]]>Das stimmt aber gar nicht, wie man in den Kommentaren lernen kann (und wie auch der Guardian einsieht):
The article is embarrassing because its really inaccurate/WRONG! Firstly it states that the CU has just recently banned women speakers where as actually this has been the status quo for at least the last 7 years! What the exec of the CU have actually done is make the decision to ALLOW women speakers at CU in certain settings here is a quote from there society email:
“The decision made was that, because the CU is not a church and because we unite around the core truths of the gospel, it is ok for women to teach in any CU setting. However, we understand that this is a difficult issue for some and so decided that women would not teach on their own at our weekly CU:Equip meetings, as the main speaker on our Bristol CU weekend away or as our main speaker for mission weeks, but a husband and wife can teach together in these. This means that women are able to teach (including on their own) in any other CU setting.”
Ja, Sprecherinnen durften nämlich noch nie dort lehren. Im Gegenteil waren jetzt die Bemühungen, diese auch zuzulassen daran gescheitert, dass ein leitendes Mitglied aus Protest zurückgetreten ist. Wo käme man da auch hin und überhaupt, man hat doch was getan und jetzt zugelassen, dass verheiratete Frauen mit ihrem Ehemann gemeinsam sprechen dürfen. Da kann man ja jetzt wirklich nichts mehr sagen.
Und auch im Thema für die dieswöchige Hirnwäsche Lehrstunde zeigt sich die Offenheit der Gruppe, die jetzt von der Studentenvereinigung untersucht wird: “How can we be diverse yet live as one family?”
Und so lässt sich hoffen, dass dann auch die “nicht-christlichen Freunde und Freundinnen” der Gruppe einmal im Monat die “großen Fragen” stellen. Zum Beispiel, warum ein eisenzeitlicher nahöstlicher Hirtenkult Gruppen an einer öffentlichen Bildungseinrichtung betreibt.
Jesus und Mo sind an der Sache dran:
Daher greife ich auf KDE-Programme zurueck, die sich dank der guten Paketverwaltung in Ubuntu muehelos installieren lassen. Normalerweise setze ich auf konsole (sudo aptitude install konsole), das mit Doppelklick auf die untere Leiste mehrere Tabs oeffnen kann. Im oberen Menu lassen sich dem verschiedene Profile zuweisen mit unterschiedlichen Farben. So koennt ihr schon am Farbschema erkennen in welcher Shell ihr gerade seid. Und dank den Kommandozeilenparametern laesst sich zogar ein Shell-Script schreiben das automatisch konsole mit vielen Tabs startet, mit unterschiedlichen Profilen, und sogar automatisch gestarteten Programmen:
konsole –konsole –new-tab –profile Solar
konsole –new-tab –profile Light -e start.sh
Jetzt habe ich aber noch eine grossartige Ergaenzung dazu gefunden: yakuake. Yakuake basiert auf dem gleichen Kern (kpart). Installiert es mit sudo aptitude install yakuake und startet es, dann bekommt ihr eine kleine Nachricht dass es jetzt bereit sei, und fragt nach auf welcher Taste es starten soll. Ihr koennt es bei F12 lassen. Wenn ihr die jetzt drueckt, rollt ein Terminal von oben rein. Es hat Tabs, die gleichen Profile wie konsole, ebenso teilbare Fenster etc. Um schnell etwas zu testen, zu kompilieren oder nachzugucken, ist das unschlagbar. Und so sieht das aus:
]]>“Nach der Bewertung neuer Erkenntnisse, die uns zum Zeitpunkt der Fortbildungszertifizierung nicht vorlagen, müssen wir annehmen, dass die Veranstaltung als Vehikel genutzt worden ist, um an deren Rande medizinisch nicht vertretbare Inhalte zu vermitteln”, teilte uns die Ärztekammer schriftlich mit. “Dass Herr Sherr in der Vergangenheit höchst problematische Aussagen und Heilsversprechen im Zusammenhang mit Homöopathie und AIDS gemacht hatte, war zu diesem Zeitpunkt nicht bekannt. Die Bewertung dieser Aussagen und die damit verbundenen Zweifel an der Eignung von Herrn Sherr führen uns nun zu der Entscheidung, das Verfahren zur Rücknahme der Anerkennung einzuleiten.”
Abgesehen davon dass das auch schon arg an den Tatsachen gedreht ist, schließlich hieß es erst, dass man “keine Veranlassung [sehe], auf unsere Fragen bezüglich der Haltung von Jeremy Sherr zur AIDS-Behandlung einzugehen”, ist vor allem interessant was der Umkehrschluss aussagt: Dass “klassische” Homöopathie medizinisch vertretbare Inhalte vermittelt. Wie z.B. … öh … ah … ???
Mich würde jetzt freuen, wenn das Finanzamt Hamburg-Nord ein wenig dieser Handlungsfreude übernähme und mir antwortete…aber als Finanzamt muss man wohl vor schlechter Presse nicht wirklich Angst haben…
]]>Im ersten Teil haben wir die Grundlagen des MapReduce erlebt, heute ist es dann endlich soweit, wir starten mit Hadoop, dem beliebtesten Framework um MapReduce verteilt über eine Menge Computer laufen zu lassen. Dafür steht heute ein nerviger Teil an: Die Installation. Wir verlassen uns auf die neueste Version von Cloudera CDH4, und hier gibt es eine gute Installationsanleitung. Aber irgendetwas klemmt immer, und daher habe ich meinen Weg aufgeschrieben, eine funktionierende lokale Version von CDH4 (pseudo-verteilt) zu installieren. Zwar lief das alles schon auf meinem Arbeitscomputer, doch ich wollte es auch nochmal auf meinen Privatlaptop bringen. Der ist aber schon auf Ubuntu 12.10, für das es noch kein offizielles CDH4 gibt und zu allem Unglück auch noch 32bit, was zu ein paar Problemen geführt hat – die Version für Ubuntu 12.04 läuft zwar im großen und ganzen, aber ein bisschen was muss man von Hand installieren. Vielleicht hilft das dem einen oder anderen.
Das Ziel ist, das neue (noch nicht produktionsreife) MapReduce 2.0 mit Yarn zu installieren – und zwar so schnell wie möglich, ohne Rücksicht auf Dinge die Systemadministratoren die Haare zu Berge stehen lassen. Solange wir es zum Testen auf unserem Privatlaptop verwenden, finde ich das in Ordnung, wir wollen schließlich mit den Daten arbeiten und nicht dem Ops-Team beitreten und Linux verwalten.
Für das übliche “alte” MapReduce in Hadoop gibt es hier ein großartiges Tutorial.
Beginnen wir langsam, in die Welt von Hadoop einzusteigen. Zunächst müssen wir sicherstellen, dass die richtige Java-Version installiert ist. Cloudera empfiehlt JDK 1.6.0_31, der Download dazu lässt sich hier finden. Für mein Linux nehme ich jdk-6u31-linux-i586.bin, wenn ihr 64 bit braucht, nehmt jdk-6u31-linux-x64.bin. Oracle nervt euch dann mit einer Anmeldung, ist aber kostenlos. Sagen wir, ihr speichert diese Datei in /home/joerg/installs:
cd ~/installs
chmod +x jdk-6u31-linux-i586.bin
sudo ./jdk-6u31-linux-i586.bin
Am Ende drückt nur Enter und ignoriert Registrierungswünsche. Bei mir ist Chrome so freundlich, sudo Browser erst gar nicht zu öffnen. Jetzt folgt eine wichtige Sache, das Setzen der Umgebungsvariable damit Hadoop das richtige Java findet. Die JDK ist jetzt in ~/installs installiert, öffnet also .bashrc in eurem Home und folgt die folgende Zeile am Ende ein (und denkt dran euren Benutzernamen/Ordernamen zu verwenden):
export JAVA_HOME=/home/joerg/installs/jdk1.6.0_31
Eventuell kanns Probleme mit den Zugriffsrechten geben. Für lokale Installationen mach ich da nie rum, und setz einfach alles auf 777. Natürlich darf man das nie für Server zu machen, aber was schert es uns auf unserem privaten Rechner:
sudo chmod -R 777 /home/joerg/installs/jdk1.6.0_31
Zurück in der Konsole vergesst nicht bash um die Umgebung neu zu starten, oder führt die obige Zeile in der Konsole als Befehl aus, um die Umgebungsvariable für die aktuelle Session zu setzen.
Als kleiner Tipp, bei allem was wir so installieren, ist es immer ratsam in die Konfiguration (meistens in /etc/hadoop/conf/…-env.sh o.ä.) auch noch JAVA_HOME zu setzen. Das hilft oft bei Problemen. Jetzt, falls ihr es noch nicht habt, installiert aptitude, das ist mir lieber als apt-get, weil es Suche einfacher macht…
sudo apt-get install aptitude
Cloudera ist so freundlich, für CDH4 ein repository anzubieten. Es gibt bislang noch keines für Ubuntu 12.10, daher fügen wir das für Ubuntu 12.04 hinzu und hoffen. Fügt am Ende von /etc/apt/sources.list folgende Zeile hinzu:
deb [arch=amd64] https://archive.cloudera.com/cdh4/ubuntu/precise/amd64/cdh precise-cdh4 contrib
deb-src https://archive.cloudera.com/cdh4/ubuntu/precise/amd64/cdh precise-cdh4 contrib
Und installieren ein wenig Hadoop:
sudo aptitude update
sudo aptitude install hadoop-conf-pseudo
Da bin ich dann in viele tragische Probleme gelaufen weil ein Paket, bigtop-jsvc, nicht für mein 32bit System verfügbar ist. Also habe ich versucht, es zu kompilieren.
cd ~/installs
sudo aptitude install git autoconf automake subversion build-essential dh-make debhelper devscripts reprepro sharutils
git clone https://github.com/apache/bigtop.git
cd bigtop
make bigtop-jsvc-deb
sudo dpkg -i output/bigtop-jsvc/bigtop-jsvc_1.0.10-1_i386.deb
Wie gesagt, das braucht ihr nur falls die Installation von hadoop-conf-pseudo Probleme bereitet (wenn, dann installiert bigtop-jsvc und danach erneut obige Installation für hadoop-conf-pseudo aus. Und nehmt das Apache Bigtop von Git, nicht das Cloudera). Nun haben wir die wichtigsten Teile eines grundlegenden Hadoop-Systems, um Hadoop MapReduce in HDFS laufen zu lassen. Moment, HDFS?
Hadoop dreht sich um große Daten. Wirklich, wirklich große Datenmengen. Und wenn man soviele Daten hat, kann man die nicht einfach mehr auf einer Festplatte halten. Außerdem will Hadoop freies Skalieren möglich machen – wenn man mehr Daten hat sollte es so einfach sein, einfach mehr Rechner dazu zu stellen.
Daher gibt es das Hadoop Distributed File System, ein verteiltes Dateisystem. Die Daten werden dazu über sogenannte Datenknoten/data nodes verteilt, die von einem Namensknoten/name node verwaltet werden. Der name node ist eine Schwachstelle, geht dieser Rechner unter, ist HDFS nicht mehr erreichbar. Die Datenspeicherkapazität kann aber vergrößert werden, indem man mehr data nodes einfügt. Zur Datensicherheit und -verfügbarkeit beim Ausfall von Knoten, werden diese mehrfach repliziert (ähnlich wie bei einem RAID). Wer mehr Details haben will, kann dies z.B. hier nachlesen.
Randbemerkung: Eine Sache fehlt noch in Ubuntu, eine dumme Einstellung die viel Unheil anrichten kann. Falls ihr je Fehler seht mit Verbindungsproblemen zwischen dem Namen eures Computers und localhost oder 127.0.0.1, editiert /etc/hosts und setzt in der zweite Zeile die IP von 127.0.1.1 auf 127.0.0.1. Aus irgendeinem Grund stellt Ubuntu da den eigenen Hostnamen auf 127.0.1.1 um, was beispielsweise HBase völlig verwirrt und sicher auch sonst mal für Probleme sorgen kann.
Und nun stellen wir sicher, dass auch Hadoop das richtige Java findet! Editiert dazu /etc/hadoop/conf/hadoop.env.sh und fügt die bekannte Zeile am Ende ein (wieder mit eurem Usernamen statt meinem…):
export JAVA_HOME=export JAVA_HOME=/home/joerg/installs/jdk1.6.0_31
Zum Starten und Stoppen von Hand (normalerweise starten die Services jetzt beim Reboot) legen wir ein Skript in ~/bin an und nennen es hadoopStart.sh
for service in /etc/init.d/hadoop-hdfs-*; do
sudo $service start
done
Und eines zum Stoppen als ~/bin/hadoopStop.sh:
for service in /etc/init.d/hadoop-hdfs-*; do
sudo $service stop
done
Das wir auch gleich ausführen
bash ~/bin/hadoopStop.sh
Jetzt sind wir bereit, HDFS zu formatieren, HDFS zu starten und die Verzeichnisstruktur anzulegen.
sudo -u hdfs hdfs namenode -format
sudo chmod -R 777 /var/lib/hadoop-*
bash ~/bin/hadoopStart.sh
sudo -u hdfs hadoop fs -mkdir /tmp
sudo -u hdfs hadoop fs -chmod -R 1777 /tmp
sudo -u hdfs hadoop fs -mkdir /tmp/hadoop-yarn/staging
sudo -u hdfs hadoop fs -chmod -R 1777 /tmp/hadoop-yarn/staging
sudo -u hdfs hadoop fs -mkdir /tmp/hadoop-yarn/staging/history/done_intermediate
sudo -u hdfs hadoop fs -chmod -R 1777 /tmp/hadoop-yarn/staging/history/done_intermediate
sudo -u hdfs hadoop fs -chown -R mapred:mapred /tmp/hadoop-yarn/staging
sudo -u hdfs hadoop fs -mkdir /var/log/hadoop-yarn
sudo -u hdfs hadoop fs -chown yarn:mapred /var/log/hadoop-yarn
Ihr seht, dass dort bereits die Services für HDFS gestartet werden, der data node und der name node. Da wir pseudo-verteilt sind, laufen diese natürlich lokal auf unserem Rechner und simulieren nur, was sie normal über Rechner verteilt anstellen. Es gibt auch noch den secondary name-node, der einen Teil der Arbeit übernimmt falls der name node ausfällt, den brauchen wir hier überhaupt nicht. Wenn ihr wollt, könnt ihr den Service abschalten oder gar deinstallieren. Jetzt fehlt nur noch, die MapReduce-Services zu starten…
sudo chown mapred /var/log/hadoop-mapreduce
sudo service hadoop-yarn-resourcemanager start
sudo service hadoop-yarn-nodemanager start
sudo service hadoop-mapreduce-historyserver start
(Wenn ihr wollt, legt für die letzten drei Services auch noch Start- und Stopscripts an…aber wie gesagt, sollten eh beim Booten starten). Noch den Homefolder in HDFS anlegen…
Nebenbei, wenn ihr das etablierte MRv1 statt dem neuen Yarn verwenden wollt, müsstet ihr hier die hadoop-0.20-mapreduce Services Jobtracker und Tasktracker starten.
sudo -u hdfs hadoop fs -mkdir /user/joerg
sudo -u hdfs hadoop fs -chown joerg /user/joerg
Und eine Umgebungsvariable in ~/.bashrc hinzufügen
export HADOOP_MAPRED_HOME=/usr/lib/hadoop-mapreduce
Und wir sind endlich soweit, unser Beispiel vom letzten Mal ausführen zu können. Wir verwenden dazu Hadoop Streaming. Um das “eigentliche” MapReduce zu verwenden, müssten wir Code in Java schreiben, und nach der schmerzhaften Installation wollen wir das nun nicht auch noch. Daher übernimmt das Hadoop Streaming jetzt, was wir vorher in der Shell von Hand gemacht haben: Den input über stdin an einen Mapper füttern, die Ausgabe sortieren, und an die Reducer verteilen. Dann den output in HDFS abspeichern, und zwar in einer Datei je Reducer.
Theoretisch, hätten wir eine echte Serverinstallation von Hadoop, könnten wir jetzt beliebig viele Computer als Mapper einsetzen, und auch als Reducer. Unser Code ist frei skalierbar geworden, und dank HDFS auch unsere Datenspeicherkapazität.
Wenn wir map.py und reduce.py vom letzten Mal verwenden wollen, müssen wir noch als erste Zeile in jedem dieser Skripte
#!/usr/bin/python
ergänzen und Ausführrechte setzen:
chmod a+x map.py reduce.py
Streaming erhält als Parameter die Skripte für mapper und reducer, und mit dem -file Parameter die Dateien die verschickt werden sollen und auf JEDEM Rechner landen. Die Eingabedatei ist aber sehr groß (jedenfalls wenn wir MapReduce ernsthaft für Big Data einsetzen), und daher verteilt auf dem HDFS. Dazu kopieren wie die Eingabedatei ins HDFS. Ich habe hier den Volltext von Moby Dick, aber ihr könnt eine beliebige Textdatei nehmen.
hadoop fs -copyFromLocal pg2701.txt .
Zeit, den Streaming-Job zu starten. Stellt sicher, dass ihr keine Fehlermeldungen seht, Warnungen kann man im allgemeinen ignorieren.
hadoop jar /usr/lib/hadoop-mapreduce/hadoop-streaming.jar -mapper map.py -reducer reduce.py -input /user/joerg/pg2701.txt -output /user/joerg/output -file ./map.py -file ./reduce.py
Die Ausgabedatei liegt jetzt im HDFS. Ihr könnt sie zurückkopieren. Für jeden Reducer wird es eine Datei geben, aber da wir nur einen verwendet haben, ist die Datei part-r-00000 im Ausgabeordner. Mit cat könnt ihr sie ausgeben lassen und das Resultat der harten Installationsarbeit bewundern:
hadoop fs -copyToLocal /user/joerg/output .
cat output/part-r-00000
Bevor ihr erneut streamen könnt, müsst ihr den Ausgabeordner im HDFS löschen:
hadoop fs -rm -r /user/joerg/output
Herzlichen Glückwunsch! Jetzt habt ihr ein funktionierendes MapReduce-Framework, und beim nächsten Mal können wir uns näher mit den Kommandozeilenparametern für Streaming beschäftigen und ein neues Problem lösen.
The average temperature across land and ocean surfaces during October was 14.63°C (58.23°F). This is 0.63°C (1.13°F) above the 20th century average and ties with 2008 as the fifth warmest October on record. The record warmest October occurred in 2003 and the record coldest October occurred in 1912.
Das ist bemerkenswert, aber nicht herausstechend. Wie Gristbemerkt, bedeutet dies dass jemand der 27 Jahre oder juenger ist NIE einen unterdurchschnittlich warmen Monat erlebt hat. Nochmal: Wir sprechen vom monatlichen globalen Mittel ueber der Landoberflaeche ueber die aufgezeichnete Zeit. Regional gibt es schon unterdurchschnittlich warme Monate. NOAA schreibt weiter:
This is the 332nd consecutive month with an above-average temperature. The last below-average month was February 1985. The last October with a below-average temperature was 1976. The Northern Hemisphere ranked as the seventh warmest October on record, while the Southern Hemisphere ranked as second warmest, behind 1997.
332 Monate in Folge ueberdurchschnittlich warm. Das spricht schon (fast) fuer sich.
]]>Den Einstieg in die Welt der großen Datenmenge macht schwierig, dass man es nicht nachvollziehen kann, indem man es einfach mal daheim ausprobiert. Das ist ja schließlich der Witz an Big Data – dass man nicht einfach mal ein Terabyte Daten durchlaufen lässt um zu sehen was daran schwierig ist.
Und das hat es mir früher auch schwierig gemacht, das Prinzip von MapReduce zu verstehen. Nicht das was, sondern das warum. Und deswegen will ich trotzdem mit dem allseits beliebten, immer wieder gesehenen Beispiel für MapReduce beginnen, aber wenigstens versuchen, einige Sätze einzustreuen warum man das jetzt so machen muss.
Ich arbeite ausschließlich in Linux, und daher werden meine Beispiele auch ausschließlich für Ubuntu 12.04 oder 12.10 geschrieben sein. Aber auch in Windows kann man mit Cygwin eine Linux-Umgebung bekommen, oder mit Wubi gar stressfrei ein Ubuntu von Windows aus testen.
Ebenso programmiere ich in Python, und spezialisiere meine Beispiel darauf. Vielleicht kommt irgendwann ein bisschen Java dazu, sicher aber uch noch etwas Shell Scripting und eventuell Pig.
Für den ersten Teil brauchen wir noch kein Hadoop, wir kommen ohne große Daten oder parallel laufende Jobs aus und simulieren nur die prinzipiellen Schritte des Map und Reduce.
Im Kern ist MapReduce nur ein Konzept der Programmierung, benannt nach der Google-Implementation. Wobei der Name durch map und reduce Funktionen in Lisp inspiriert ist. Das Prinzip besteht darin, das Problem in kleine Unterprobleme einzuteilen, die mit einem wirklich kleinen Teil der Daten gelöst werden können, sodass man nie einen wirklich großen Datensatz im Speicher halten muss. Der Mapper schreibt dann seine Lösung als einfaches Schlüssel-Wertpaar. Der wichtige Unterschied zu klassischer Multiprozessor-Parallelisierung ist (neben einfacherer Skalierbarkeit), dass das auch mit ungeordneten Daten sehr gut funktioniert, da der Mapper quasi sehr, sehr einfache Zwischenresultate herausgeben kann, die dann neu verteilt werden (Shuffling oder Partitioning, wichtiger Schritt) und vom einem weiteren Code im Reduce-Schritt zusammengefasst werden.
Man kann es so sehen, als ob der Mapper eine Kernaussage der Daten pro Datensatz extrahiert, und dadurch die Datenmenge reduziert. Man kann daher sehr viele Mapper gleichzeitig laufen lassen, da sie unabhängig voneinander sind. Da man aber pro Schlüssel (quasi pro Typ an Daten, z.B. im unteren Beispiel jedes Wort) ein Ergebnis haben will, muss man dann die Zwischenergebnisse neu verteilen und vom Reducer pro Schlüssel zusammenfassen lassen.
Die Aufgabe ist, eine Liste aufzustellen, die zählt, wie oft jedes Wort in einem Text vorkommt. Für die Datenmenge die wir in den Beispielen haben werden, mag MapReduce wieder überkompliziert aussehen, aber denkt einfach mal wie ihr dieses Problem mit allen Büchern der Welt (Google Books) lösen würdet. Wenn ihr auch noch jeden Tag neu zählen müsstet.
Um die Lösung im MapReduce-Denken zu verstehen, speichern wir dazu zwei kleine Skripte:
import sys
def mapper():
for line in sys.stdin:
pp = line.strip().split()
for p in pp:
print p, 1
if __name__ == '__main__':
mapper()
Speichert dieses als map.py und das folgende als reduce.py:
import sys
def reducer():
counter = {}
for line in sys.stdin:
pp = line.strip().split()
if len(pp):
counter[pp[0]] = counter.get(pp[0], 0) + int(pp[1])
for word, count in sorted(counter.items(), key=lambda x:x[1]):
print word, count
if __name__ == '__main__':
reducer()
Jetzt brauchen wir noch einen (kleinen) Datensatz, und können nachvollziehen wie MapReduce das Problem angeht. Speichert folgenden Text als input.txt ab:
Im ersten Teil dieses Blogposts werde ich zeigen, wie ein einfaches Beispiel funktioniert.
Im zweiten Teil dieses Blogposts werde ich eine einfache Hadoop-Variante davon vorstellen.
Lassen wir doch mal diesen Text durch map.py laufen und sehen, was in der Funktion passiert und was die Schlüssel-Wert-Ausgabe ist, das Zwischenergebnis. Schickt dazu den Text mit cat durch das Programm. In der Shell, startet
cat input.txt | python map.py
Im 1
ersten 1
Teil 1
dieses 1
Blogposts 1
werde 1
ich 1
zeigen, 1
wie 1
ein 1
einfaches 1
Beispiel 1
funktioniert. 1
Im 1
zweiten 1
Teil 1
dieses 1
Blogposts 1
werde 1
ich 1
eine 1
einfache 1
Hadoop-Variante 1
davon 1
vorstellen. 1
cat gibt den Text Zeile für Zeile an map.py, das den Text – Zeile für Zeile – von sys.stdin einliest. Im nächsten Schritt schneidet es Leerzeichen und Zeilenvorschübe ab (split()) und trennt den Text an Leerzeichen. pp ist also eine Liste der Wörter je Zeile. Dann gibt der Code für jedes Wort in der Zeile das Paar Wort 1 heraus.
Wir zählen also, indem wir jedes Wort einmal zählen, und dem Reducer überlassen, pro Wort aufzuaddieren. Denkt wieder an Billionen Worte in allen Büchern der Welt. Lasst 10000 dieser Mapper gleichzeitig laufen, und das ganze macht mehr Sinn – viele Mapper werden den gleichen Schlüssel emittieren. Wenn ihr jetzt fragt, warum der Mapper nicht einfach alles aufaddiert – nun dazu müsste er alle Worte im Speicher behalten. Wenn man es so macht, ist man mit der Ausgabe das Unterproblem (hier die Verarbeitung eines einzelnen Wortes) schon los. Allerdings kann man noch einen combiner-Schritt einführen, der quasi das gleiche wie der Reducer macht, aber nur für die Ergebnisse eines Mappers. Danach werden die Ausgaben gesammelt, neu verteilt sodass der Reducer alle Ergebnisse eines Schlüssels erhält.
Schicken wir also das obigen Zwischenergebnis an den Reducer
cat test.txt | python map.py | sort | python reduce.py
wie 1
einfache 1
vorstellen. 1
funktioniert. 1
Hadoop-Variante 1
zweiten 1
ersten 1
eine 1
zeigen, 1
einfaches 1
davon 1
Beispiel 1
ein 1
ich 2
Teil 2
dieses 2
Im 2
werde 2
Blogposts 2
Der Reducer also liest wiederum die (sortierten) Zwischenergebnisse vom Mapper über sys.stdin und zerlegt sie in Schlüssel (=Wort) und Wert (Wie oft das Wort gezählt wurde, also immer 1). Dann speichert er in einem dictionary die Schlüssel und zählt die Anzahl um den Wert hoch (also hier immer um 1). Die get Funktion liefert entweder den vorigen Wert aus dem dictionary oder eine 0, falls der Schlüssel noch nicht existiert. Abschließend gibt er dann die nach Anzahl sortierte Wortliste heraus.
Wenn ihr jetzt Lust auf etwas größete Daten habt, füttert den Code doch mal mit einem Buch aus dem Projekt Gutenberg. Die häufigsten Wörter in Moby Dick sind z.B.
was 1566
is 1586
as 1599
with 1692
I 1724
his 2415
that 2693
in 3878
to 4510
a 4533
and 5951
of 6587
the 13766
Die Ärtzekammer verteigt sich damit, dass die Veranstaltung “engen Bezug zur klassischen Homöopathie erkennen ließ[e]”, und sieht sich nicht gezwungen auf Jeremy Sherr einzugehen, da er ja nicht über seine Versuche, AIDS zu heilen referrieren würde. Nicht, als ob nicht die klassische Homöopathie schon absoluter Blödsinn sei, und nicht als Fortbildung, sondern Entbildung zählen müsste.
]]>Dann gibt es gottseidank Noam Chomsky, einer der wenigen die zeigen dass ich nicht völlig bekloppt bin. Chomsky war Ende Oktober eine Woche in Gaza, und berichtet darüber. Die Kurzfassung: Das wahre Wunder ist, wie Menschen die derart misshandelt werden überleben.
]]>
* The New Jim Crow – Mass Incarceration in the Age of Colorblindness: Michelle Alexander macht sehr deutlich, was der industrielle Gefaengniskomplex der USA ist: Die dritte Welle des Rassismus. Die erste war die Versklavung von Afrikanern und Afrikanerinnen, die zweite nach dem Buergerkrieg die Rassentrennung (Jim Crow Laws), und als auch dies nicht mehr haltbar war, stiegen die Politiker auf “Law und Order” um. Der Rassismus tarnt sich jetzt, als Haerte gegen Kriminalitaet, aber in einem System das absolut undurchbrechbar gegen Schwarze aufgestellt ist. Von Autodurchsuchungen aus mindersten Gruenden, dem Unmoeglichmachen von Einspruechen, laecherlich hohen Strafen fuer Drogenbesitz, lebenslangen Strafen fuer Wiederholungstaeter, und Bewaherungsauflagen die absolut unmoeglich einzuhalten sind ist alles aufgestellt, um ganze Bevoelkerungsgruppen keine andere Lebenschance als Gefaengnis zu geben. Gefuettert wird das ganze von einem kulturellen Narrativ, das Schwarze als besonders kriminell und drogenabhaengig einstuft, obwohl dies fern statistischer Wahrheit ist. Ein besonders wichtiges und erschreckendes Buch.
* Moral Combat – Black Atheists, Gender Politics, and the Values Wars: Sikivu Hutchinson schreibt ein beklemmendes Buch ueber die Realitaet schwarzer Atheist_innen. Warum es fuer sie so schwierig ist, sich zum Atheismus zu bekennen, weil das ganze religioese System in sich gedreht wurde und jetzt ein Ausstieg gesellschaftlich fast unmoeglich ist. Wie kleine Kirchen in “store fronts”, quasi Schaufensterkirchen die armen Gegenden uebernehmen, und wie millionenteure Superkirchen in den aermsten Gegenden stehen. Ein verdammt wichtiges Buch, wiederum, und eine Sache die mich ziemlich stoert truebt trotzdem nicht meine uneingeschraenkte Leseempfehlung: Dass die Anklage, dass weisse Atheist_innen sich zu sehr auf die wissenschaftliche Aspekte beschraenken statt auf die humanistische Seite ist absolut richtig, aber sie benutzt dazu ein Strohmannbild von Wissenschaft, das man doch von ganz anderen Ecken gewohnt ist. Sie benutzt ein sehr eingeschraenktes naturwissenschaftliches Zerrbild von Wissenschaft, das sie benutzt um zu widerlegen dass Wissenschaft alles erforschen kann. Wo hingegen bei allen Beispielen die sie liefert jeder Soziologe aufschreien wird, da es ziemlich einfach ist Gegenbeispiele fuer moegliche Forschung zu finden. Aber jetzt habe ich schon viel zu viel auf diesen kleinen Fehler verwendet, im Kern ist die Botschaft richtig: Wenn ganze Gesellschaftsgruppen von Religion so vergiftet sind, dass unsere Mitmenschen dort Angst haben muessen als sozial aussaetzig zu gelten, wieso sind dann allzu oft ein paar Junge-Erde-Kreationisten im Mittelpunkt der Debatte?
* Kindred: Octavia Butler erzaehlt keine typische Zeitreisegeschichte, stattdessen benutzt die die Protagonistin und ihren Ehemann, die in die Welt der Suedstaaten vor dem Buergerkrieg versetzt werden and emphatische Charakterstudie darueber, dass Menschen als Eigentum gesehen werden, wie es ist in Skalverei gezwungen zu werden, und was oder was nicht heute definiert, was ein Mensch ist. Als solches trifft dieser Roman voll den Kern der Science Fiction.
* Die Knoblauchrevolte: Mehr Buecher des “magischen Realismus” in einem anderen Teil, aber als amtierender Nobelpreistraeger (so heisst das doch, oder?) soll Mo Yan zuerst vorgestellt werden. Im Angesicht all das blanken Rassismus, der die Entscheidung des Nobelpreiskommitees als “politisch korrekt” herabwuerdigt, bleibt doch nur ein Ausweg: Einfach selbst lesen. Und, hat er den Nobelpreis verdient, der Mo Yan? Ja, hat er. Magisch ist wenig im Buch, spiegelt sich die Realitaet in den Geschichten armer Knoblauchbauern im China der 80er doch mehr im Gestank verfaulenden Knoblauchs wieder als in wundersamen Ereignissen. Mehr als einmal erschreckt man, wenn ein Stueck Moderne auftaucht, denn die Welt der Bauern aus Handarbeit auf dem Feld und Ochsenkarren klingt doch so sehr nach Mittelalter. Die Charaktere werden von vorne bis hinten vom System misshandelt, und als sie endlich rebellieren, muessen sie ins Gefaengnis oder gar sterben. Nuechtern und doch tief mitfuehlend bildet Yan hier ein nacktes Stueck harten Lebens ab.
Wie The Atlantic berichtet, ist dort gerade eine Kommission dabei, letzte Hand an einen Gesetzesvorschlag anzulegen. Das Gesetz soll erlauben, dass Studiengebühren an den Universitäten teilweise einzufrieren. Dazu sollte man jetzt wissen, dass Studiengebühren in den USA richtig weh tun, und ständig steigen weil öffentliche Mittel fehlen. Da kann man sich so richtig toll verschulden, um einen schälen Bachelor oder gar Master einzusammeln. Klingt also zunächst mal gut, wenn da wenigstens keine Erhöhung ansteht. Nur: Der Vorschlag sieht vor, nur bei wirtschaftlich besonders aussichtsreichen Fächer, wie den MINT-Fächern, die Hand nicht weiter aufzuhalten. Wer aber so extravagant ist und Literatur studieren möchte, oder Gender Studies, der oder die wird die Studiengebührenerhöhungen mitmachen müssen.
Jetzt nennt der Artikel einige gute Gegenargumente.
First, you need to take it on faith that the government is capable of divining which majors are going to be the most marketable year after year. Second, you need to believe that there are a large number of talented undergrads who could hack it in these subjects, but are choosing easier majors instead.
Es wäre also zum Gelingen des Planes, zum Wohle der Wirtschaft in Florida, erforderlich dass der Staat tatsächlich vorhersagen kann wo denn später die Stellen fehlen. Das aber ist längst nicht so einfach. Weiter setzt es auch voraus, dass im Moment Studenten und Studentinnen andere Fächer wählen, weil sie einfacher sind, obwohl sie doch etwas technisches studieren könnten. Auch sehr fragwürdig – im Gegenteil könnte man erwarten dass Studierende aus Kostengründen Fächer beginnen, die ihnen nicht wirklich liegen und daran scheitern, sei es aus mangelnder Motivation oder Begabung (vor allem im Bundesstaat der USA mit der schlechtesten Mathe-Vorbildung aus der Schulzeit).
Aber der Artikel verschweigt den Stein meines Anstoßes. Es ist nicht, dass die Ursache dass niemand aus technischen Studiengängen dort arbeiten möchte vielleicht daran liegt, dass Florida hauptsächlich von weißen Renter_innen und Rassist_innen bevölkert wird (oft in Personalunion). Nein, den Hauptpunkt fasst Dale Brill, Leiter der Kommission, schön zusammen:
Brill sees it otherwise. First, he said, tax dollars are scarce, and the public deserves the best possible return from its investment in education.
Steuergeld ist rar (klar, versackt alles im Militär), deswegen verdient die Öffentlichkeit den bestmöglichen Profit aus der Investition zu schlagen.
Und das ist der Kern – in einem der reichsten Länder der Welt sind alle Ideale von Bildung und Interesse verschwunden. Steuergelder sind eine Investition, und Universitäten nur noch die Fabriken, um aus dem oder der Studierenden den größtmöglichen Profit zu schlagen.
Und wenn ich jetzt nicht so tue, als ob es in Kalifornien viel besser wäre, tut ihr nicht so als wäre Deutschland weit davon entfernt…
]]>Und das mit der Zeit, das brauche ich ja auch keinem erzählen, wer mag denn schon noch Ausreden hören. Und wenn ich dazu komme und die Motivation finde, dann schreibe ich schon noch.
Und über die Wissenschaft mag ich heute nicht anfangen. Keine Lust mich heute aufzuregen und zu erklären, warum der ganze Wissenschaftsbetrieb einfach komplett abgerissen und neu aufgebaut gehört. Es ist Samstag und die Sonne scheint, warum also dunkel und zynisch werden.
Aber was soll ich dann noch schreiben? bei den Homöopathen passiert nichts, keine Antwort aus Hamburg, wer hätte es auch erwartet. Gut, bei Telepolis gibt es einen guten Artikel dazu ich ich werde auch zitiert. Zweimal! Das freut mich so, dass ich gar nicht weiter kommentiere dass das erste, was man auf der Telepolis-Hauptseite sieht “Jörg Friedrich” ist.
Aber es ist immer noch mein Blog, und ich kann schreiben, was ich will, und was mich interessiert. Und vielleicht das, worauf ich mehr Einblick habe als ihr drüben in Deutschland. Und weil ich jetzt in einem kleinen, aber schnell wachsenden Startup im Technologiezentrum der Welt arbeite, sollte ich vielleicht etwas über diese neuen Technologien schreiben. Also erwartet mal, wenn ich denn schreibe, vermehrt etwas dazu zu hören.
“Big Data” ist ein treffendes Schlagwort, denn der Umgang mit gewaltigen Datenmengen (Facebook, Google, Yahoo, Amazon und andere an der Front) hat eine Menge neuer Werkzeuge gebracht, um auch bei 10 Millionen Nutzern noch jedem sein Produkt liefern zu können.
Klassisch werden Daten in relationalen Datenbanken gespeichert, z.B. MySQL. Probleme dabei sind dass das Datenmodell sehr statisch ist und die Datenbank im allgemeinen auf einer Maschine liegt. Funktioniert gut, wenn man eine Kundendatenbank pflegt, und die Struktur der Daten sehr klar ist. Aber wenn man Eingaben eines Benutzers in immer wieder neue oder geänderte Produkte speichern möchte, und das für möglicherweise Millionen Benutzer, ist eine SQL-Datenbank schnell gesprengt und das klassische Datenmodell nicht flexibel genug. Deswegen gibt es neue Datenmodelle in der Hadoop-Welt. Diese können über eine beliebige Anzahl Maschinen verteilt sein. Braucht man mehr Speicher oder schnelleren Zugriff, stellt man einfach ein paar neue Maschinen dazu. Beispiele sind CouchDB, einfaches speichern als Dateien in einem verteilten Dateiensystem und Abfrage durch Hive, oder als verteilte sehr große Liste, wie in Googles BigTable oder HBase, das die Nase vorne hat, seit Facebook die Eigenentwicklung Cassandra dafür aufgegeben hat.
Im Prinzip sind all diese Datenbanken sehr einfach. Man verliert die Funktionen von SQL wie JOINs, aber im Angesicht großer Datenmengen muss man Kompromisse eingehen.
Der nächste Schritt ist die Verarbeitung der Daten. Selbst wenn man nur einfache Modelle bauen möchte, wie eine lineare Regression, oder sogar wenn man nur zählen möchte wie oft ein Klick passiert ist, bei Millionen Nutzern und Terabyte oder Petabyte an Daten ist dies ein gewaltiges Problem. Auch hier ist die Lösung, die Aufgabe zu parallelisieren. MapReduce ist die Technik, die meistens eingesetzt wird. Im Gegensatz zu klassischen Methoden zur Parallelisierung ist auch hier der Vorteil, dass man mehr Rechenpower schlicht durch horizontale Erweiterung (mehr Computer) erhalten kann; oder man hält sich erst gar keine eigenen Server mehr und kauft sich Rechenpower von Amazon (z.B. EC2), die mit einem Klick genau so skaliert, wie man es gerade braucht.
Technik entwickelt sich schnell im Silicon Valley. In den Reaktionszeiten eines durchschnittlichen deutschen Unternehmen ist eine Technik im Valley fast schon wieder veraltet. Und deswegen kommen immer noch hier die Neuerungen her. Ich hoffe, in Zukunft einige dieser Schlagbegriffe, die ich hier ausgeleert habe, mit etwas mehr Inhalt füllen zu können. Wenn euch etwas besonders interessiert, lasst es mich wissen, und ich versuche etwas dazu zu schreiben.
]]>
1) Auch wenn die Homoeopathen schlimme Dinge tun, wie zu versuchen, Studien an AIDS-Kranken in Tansania durchzufuehren, so sind die Anliegen der Homoeopathen ohne Grenzen von guten Absichten gepraegt. Das ist mir – wie bereits gesagt – egal wenn die Ergebnisse so furchtbar daneben liegen. Aber auf der anderen Seite bedeutet es auch, dass nicht alles was der Verein in armen Laendern tut schlecht ist. Da werden sicher auch mal Decken verteilt. Und noch weitergehend, und unabhaenig davon ob sie Gutes tun oder nicht, es gibt hilfsbeduerftige Menschen die von ihnen ausgebildet wurden oder noch immer von ihnen abhaengig sind. Da kann man nicht einfach den Verein aufloesen, da muesste man vorher schon einen guten Plan haben, wie die Projekte nicht nur weitergefuehrt, sondern in die richtige Richtung gelenkt wuerden. Das Aufloesen des Vereins waere eine wundervolle Sache. Aber dann muss man auch die Verantwortung uebernehmen, z.B. den afrikanischen Hebammen die homoepathisch ausgebildet wurden zu erklaeren, was denn wirklich zu tun ist. Wer soll das tun, wer soll es bezahlen und wer ueberlegt sich ueberhaupt erst einmal, was es bedeuten muss zu erfahren, dass quasi die gesamte Ausbildung die man bekam fuer die Fuesse war? Gibt es da ueberhaupt noch Hoffnung auf Verstaendnis zu stossen?
2) Abgesehen von der Verantwortung, die man uebernehmen wuerde, habe ich Bedenken mit der Methode selbst. Es erinnert mich zu sehr an schaebig reiche Wirtschaftskonzerne, die andere ‘feindlich’ uebernehmen. Oder an Scientology. Die
haben, so berichtet man, einmal ein Kult-Aufklaerungsnetzwerk solange verklagt bis diese bankrott waren und dann die Reste aufgekauft. Sodass jemand, der aus einem Kult ausbrechen wollte und die Beratungsstelle anrief, bei Scientology landete. Ich sag nicht, dass es nicht gut waere, die Homoepathen ohne Grenzen durch Realitaet zu ersetzen, aber die Masche erinnert mich ein wenig zu sehr an die, die Realitaet durch Machtausuebung uberschreiben.
Was denkt ihr?
]]>
]]>[…],
ich schreibe für die deutschen ScienceBlogs (www.scienceblogs.de/diaxs-rake) und ich und andere Autor_innen der Seite haben uns bereits einige Male mit dem Verein Homöopathen ohne Grenzen beschäftigt. Ich schreibe Ihnen heute, um mich laut über die Gemeinnützigkeit dieses Vereins zu wundern.
Homöopathie ist eine antiwissenschaftliche Methode ohne jede Heilwirkung. In unzähligen Studien ist nachgewiesen worden, dass die Versprechungen dieser Methoden jeglichem modernen Verständnis von Medizin, Biologie und Physik in geradezu ungeheuerlichem Maße entgegenstehen und jegliche vermeintliche Besserung lediglich dem Placeboeffekt entspringt. Dieser aber heilt sicherlich keine ernsthafte Krankheit.
Umso verwunderlicher ist es, warum ein Verein der diese mittelalterlichen Wundermittel in Afrika verbreitet und lerht, und damit das Vertrauen bedürftiger Menschen verrät, als gemeinnützig gilt. Ein Verein, der wie hier: https://homoeopathenohnegrenzen.de/aktuelles/africa-congress/hiv-aids-miasma/ Jeremy Sherr bewirbt, der versucht mit Homöopathie AIDS zu heilen, ist im wahrsten Sinne gemeingefährlich. Diese “Forschung” kostet und wird buchstäblich Menschenleben kosten, das ist ein kaltes und durch jegliche Unterstützung dieses Vereins billigend in Kauf genommendes Fakt.
Laut dem Freistellungsbescheid sind die Homöopathen ohne Grenzen aus vier Gründen steuerbegünstigt:
– öffentlichen Gesundheitspflege: Einsatz einer absolut unwirksamen Methode dient nicht der Gesundheitspflege
– Bildung: Die Lehren der Homöopathie widersprechen jeglicher wissenschaftlicher Erkenntnis der letzten 200 Jahre absolut. Jeglicher ernsthafte Versuch der Bildung kann dies nicht übersehen
– Völkerverständigung und Entwicklungshilfe: Man müsste schon äußerst zynisch sein, um dafür zu argumentieren dass das Ausnutzen von Bedürftigkeit und Vertrauen, um unwirksame und dadurch lebensgefährliche Methoden einzusetzen, zur Verständigung beiträgt oder hilft. Gute Intentionen sind eben nicht ausreichend, wenn das Ergebnis nicht gut sein kann.Mich interessiert stark, warum diesem Verein Gemeinnützigkeit zugestanden wurde.
Mit freundlichen Grüßen,
Jörg Rings
Den Newsletter bekomme ich immer noch, und diesmal wird stolz davon berichtet, wie ein gewisser Jermey Sherr jetzt AIDS heilen möchte:
Jeremy Sherr ist vor Jahren (…) nach Tansania gezogen, um dort die Menschen mit HIV/Aids zu behandeln. Auf Grund seiner langjährigen Erfahrung mit dieser Erkrankung kommt er zu dem Schluss, dass die AIDS-Erkrankung ein eigenständiges Miasma darstellt. Entsprechend Hahnemanns Vorgehensweise bei der Entwicklung des miasmatischen Konzeptes stellt er Symptomenreihen zusammen und sucht die geeigneten homöopatischen Arzneien.
Für Menschen mit starker Peristaltik gibt es auch ein Video dazu.
Da mag ich nicht mehr viele Worte verlieren. Das ist einfach nur noch kriminell. Und daher will ich auch nur noch fragen, WIE man am besten vorgeht, wo man am besten hinschreibt, um das zu stoppen, und nicht mehr OB man das sollte. Und warum ein solch menschenverachtender Verein gemeinnützig sein darf. Vorschläge?
Die Kommentare hierzu dienen ausschließlich der Diskussion dieser Frage. Andere Kommentare und Antworten auf andere Kommentare, vor allem welche die Homöopathie oder diesen verein verteidigen, werden gelöscht, genauso wie solche die diese Regeln diskutieren. Vielleicht mit einiger Verzögerung, weil ich 9 Stunden Zeitverschiebung habe zu Deutschland und viel zu tun, aber sie werden es.
]]>Und so greift man zum Gesetzesweg, Replacement House Bill 819 (Eine Gesetzesvorlage ist ein “bill” bis es verabschiedet und unterzeichnet ist, dann wird es zum “law”). Da findet sich der folgende, bemerkenswerte Abschnitt:
(e) The Division of Coastal Management shall be the only State agency authorized to develop rates of sea-level rise and shall do so only at the request of the Commission. These rates shall only be determined using historical data, and these data shall be limited to the time period following the year 1900. Rates of sea-level rise may be extrapolated linearly to estimate future rates of rise but shall not include scenarios of accelerated rates of sea-level rise.
Den Anstieg des Meeresspiegels berechnen darf also nur noch eine Behörde des Landes. Und diese darf nur lineare Funktionen verwenden. Warum? Wenn man statt exponentiellem Anstieg einen linearen Anstieg vorschreibt, kommen nur noch 40 cm Anstieg heraus.
Indiana hat 1897 ein Gesetz verabschiedet, das Pi=3 setzte. Ziemlich berühmte Geschichte, aber ehrlich gesagt nicht annähernd so dumm wie diese Vorlage.
]]>Stattdessen machen sich die Forscher die moderne Welt und moderne Technik zunutze – Foursquare. Foursquare nimmt man als App mit und kann dann ‘einchecken’, wo man sich aufhaelt. Man kann es der Welt mitteilen oder einfach das Signal speichern, weil Signale speichern Nutzen bringen kann. Jetzt erlaubt Foursquare nicht direkt Zugriff auf diese Daten, aber indirekt laesst sich wenigstens ein Teil davon ueber Twitter-Meldungen abgreifen, und so kam eine Datenbank von 18 Millionen Check-Ins zustande.
In ihrem Paper besprechen die Forscher die Methode, mit der sie aus diesen Daten eine neue Unterteilungen von Staedten gefunden haben – die sie ‘Livehoods’ taufen. Wer nicht an der Methode interessiert ist, sollte direkt zur zugehoerigen Webseite gehen – Livehoods.com und mit den Karten spielen. Wer mich besuchen moechte, kann sich ja schonmal mit Oakland Downtown anfreunden.
Aber wenigstens ich finde die Methode ziemlich spannend. Sie basiert auf einem Graph aller Orte – wobei jeder Knoten ein Ort ist und mit den geographisch am naechsten liegenden 10 Orten durch eine Kante verbunden wird. Jede Kante erhaelt dann ein Gewicht zugeteilt, das groesser ist, wenn diese Orte sich sozial naeher sind. Das wiederum findet man dadurch heraus, die Aehnlichkeit der Check-Ins zu untersuchen: Werden zwei benachbarte Orte von den gleichen Menschen besucht? Dann liegen sie sich sozial nahe.
Auf diesen Graph laesst man dann einen (spektralen) Cluster-Algorithmus los, um Orten, die geographisch nahe liegen und sozial zusammengehoeren in einer Gruppe, einem Livehood, zu sammeln. Die Website bietet ziemlich viel Informationen dazu, man kann sich die Orte anschauen, die Charakteristiken der Livehoods und verwandte Livehoods identifizieren.
Ich hoffe, dass die Forscher schon eine Firma gegruendet haben um diese Daten zu Geld zu machen, Marketing-Firmen werden fuer solche neuen Demographien sicher klingende Muenze hergeben…
Aber darueber hinaus bleibt nochmal auszubauen, was ich eben nur hingeworfen habe: Dass Dienste wie Foursquare als Erzeuger von Signalen wichtig sind, und ungeahnte Moeglichkeiten eroeffnen. Foursquare hat als solches erstmal scheinbar wenig Wert: Man kann ein bisschen Punkte sammeln, aber so richtig Moeglichkeiten eroeffnen sich begrenzt. Aber wenn man erstmal etwas Signale gesammelt hat, bieten sich mehr Wege, etwas damit anzufangen. Und genauso, wie Internetwerbung besser wird, wenn man Signale bereit stellt, werden lokale Signale in Zukunft eine immense Rolle darin spielen, neue und bessere Dienste bereitzustellen.
Die Forscher ueberprueften ihre Ergebnisse daheim in Pittsburgh dann auch noch mit 27 intensiven Interviews. Dabei untersuchten sie beispielsweise ein Paar sehr unterschiedlicher Stadteile, an deren Grenze ein Whole Foods Market eroeffnet worden war (eine sehr beliebte und teure Kette “besserer” Nahrungsmittel). Waehrend die meisten Livehood-Eingrenzungen auf Zustimmung stiessen, kam es hier zu Dissenz: Die Interviewten glaubten naemlich eher, dass sich hier die Grenze zwischen den Stadtteilen aufloeste, wahrend der Algorithmus hier einen neuen, dritten Bezirk einfuehrte, die die Stadtteile weiter voneinander trennte.
In einem anderen Beispiel wurde ein Stadtteil in vier Livehoods aufgeteilt – was auf breite Zustimmung bei den Interviewten stiess.
Und, wie immer, muessen auch die Grenzen der Methode erwaehnt werden. Ganz klar ist die Datenbasis gepraegt von jungen Menschen die Foursquare benutzen UND dann ihre Check-Ins per Twitter an die Welt schicken. Das zu aendern, wird aber alles andere als einfach sein.
]]>Die Obama-Administration kommt dabei ganz gut weg. Sie bekommt insgesamt ein B, die zweitbeste Note, für neue Regulierungen für Tiefsee-Operationen, und für recht schnelle Reaktionen und Maßnahmen für den Schutz der Umwelt.
Die Industrie bekommt immerhin noch ein C+, was schön überraschend ist. Immerhin hat man einige Lehren gezogen und arbeitet an besseren Sicherheitsmaßnahmen, um eine solche Katastrophe nicht mehr passieren zu lassen.
Schlusslicht ist leider der Gesetzgeber. Der Kongress blockiert systematisch Maßnahmen und bekommt nur ein D. Es scheint so, als ob man nicht bereit sei, Lehren für die Zukunft zu ziehen. Das lässt den Schluss zu, dass die Industrie, die ja schließlich die Gesetze diktiert, ein bisschen Arbeit hineinsteckt, die schlimmsten Unfälle zu vermeiden, weil die ja ans Image gehen. Aber auf lange Sicht mag man nichts ändern.
Es gibt nicht genug Geldmittel, die Aufräum- und Restaurierungsmaßnahmen sei bestenfalls “work in progress”, und es sind keine Gesetze gemacht worden, um Programme zu finanzieren oder die Schuldigen in der Industrie künftig mit mehr als Taschengeldern an Entschädigung zu beteiligen (In der Tat hat BP die lächerlich niedrige Grenze von 75 Millionen Dollar ignoriert und deutlich mehr gezahlt, wenn auch natürlich nicht genug).
Ebenfalls nur ein C gibt es für die entmutigend begrenzten Fortschritte in der Erforschung der Arktisregion, die bald von Ölplattformen heimgesucht werden wird.
Nachtrag: Verlorener Teil des Artikels…
Insgesamt bleibt also der etwas ueberraschende Fund, dass die Industrie noch besser abschneidet als der Gesetzgeber. Aber wie gesagt, das ist vermutlich nur so viel wie zur Imagepflege benoetigt wird, und nicht so viel wie im Interesse der Bevoelkerung stehen sollte, da es nicht in Gesetze gegossen wird.
]]>
Spannend wird es dadurch, dass die Spieler vor ihrer Wahl miteinander sprechen können. Und das führt zu Situationen wie der folgenden. Ich möchte es gar nicht kommentieren um den Ausgang nicht zu verraten. Aber es lohnt sich, es anzusehen und zu diskutieren:
Much has been written about how insulting and depressing it is, more than a decade after the events of 9/11, to be met by “security theater” at our nation’s airports. The current system appears so inane that one hopes it really is a sham, concealing more-ingenious intrusions into our privacy.
Genau so ist es. Die ganze Kiste ist eine einzige große Schaunummer um Sicherheit vorzuspiegeln, und adressiert ja noch nicht mal die Ursache der Anschläge vom 11. September 2001: Dass die USA systematisch und mit Gewalt die Politik der Welt bestimmt.
The spirit of political correctness hangs over the whole enterprise like the Angel of Death–indeed, more closely than death, or than the actual fear of terrorism. And political correctness requires that TSA employees direct the spotlight of their attention at random–or appear to do so–while making rote use of irrational procedures and dubious technology.
Der “Geist der politischen Korrektheit” ist in diesem Fall auch als “fundamentale Menschenrechte” bekannt, aber daran stört sich Sam Harris offenbar.
Although I don’t think I look like a jihadi, or like a man pretending not to be one, I do not mean to suggest that a person like me should be exempt from scrutiny.
a) Ist es die Aufgabe der TSA, ‘Jihadi’ zu verhindern? Ist das tatsächlich die einzige Gefahr, oder gibt es in einem Land, in dem 90 Waffen auf 100 Menschen kommen und es jede Menge bekloppte gibt die wahlweise die Regierung oder nur Teile davon wegsprengen möchten, auch andere Hautfarben, die gefährlich sein könnten?
b) Wie sieht denn ein ‘Jihadi’ aus? Dunklere Hautfarbe, Turban, Koran unterm Arm? Hat Sam Harris wirklich ein derart einfaches Weltbild, in dem ‘Jihadi’ – wer so genau das jetzt auch sein soll, ein gewisses Aussehen haben? Anscheinend, denn seine Lösung umfasst genau das: Spezielles Profiling von Muslimen. Denn: ‘Jihadis’ sind alle Muslime, daher erfasst man alle ‘Jihadi’, wenn man Muslime untersucht. So einfach ist das Weltbild eines Rassisten.
c) Ach wie gönnerhaft, dass der Herr Weißes Gesicht sich bereit erklärt, auch ein bisschen angeguckt zu werden. Aber die Muslime doch bitte mehr, damit man nicht unnötig alte Menschen oder dreijährige Mädchen untersucht. Und wie bitte erkennt man Muslime? Ist ja nicht so, als ob man jemanden die Religion ansieht. Sam Harris will nicht Muslime untersuchen lassen, sondern Menschen mit der Hautfarbe, die die meisten Menschen aus mulsimischen Ländern haben. Dazu zählen dann auch Inder, dazu zählt ein türkischstämmiger Deutscher, dazu zählen Leute die Muslim sind weil sie aus einem Land wie Iran kommen in dem man mit dem Hals in der Schlinge an einem Baukran ermordet wird, wenn man kein Muslim ist.
Genau das passiert ja tatsächlich. Aber die Tatsache, dass vierjährige Mädchen unter Androhung, den Flughafen zu schließen begrabscht und traumatisiert werden und 80jährige gezwungen werden, ihre Schuhe auszuziehen hängt nicht mit ihrer Hautfarbe zusammen. Sie hängt damit zusammen, dass ein gewaltiger Apparat im Namen eines nebulösen Sicherheitsbegriffs frei wuchern darf und mit dumpfer Befehlskette versucht, komplexe Probleme zu lösen.
Wie Bruce Schneier so schön argumentiert, haben nur zwei Maßnahmen Fliegen sicherer gemacht: Verstärkte Cockpit-Türen und das Wissen, dass man sicher wehren kann.
Im folgenden lässt Harris dann sein eigenes Argument, dass Flughafenkontrollen nicht diskriminieren, zusammenfallen:
I have noticed such incongruities before. In fact, my wife and I once accidentally used a bag for carry-on in which I had once stored a handgun–and passed through three airport checkpoints with nearly 75 rounds of 9 mm ammunition. While we were inadvertently smuggling bullets, one TSA screener had the presence of mind to escort a terrified three-year-old away from her parents so that he could remove her sandals (sandals!).
a) Erstmal, was zur Hölle macht Sam Harris mit einer Waffe und 75 Kugeln im Gepäck? Nach Harris eigener Logik müssten somit Weiße stärker untersucht werden, da sie oft mit Waffen im Gepäck fliegen.
b) Ist das Argument, dass undiskriminiert untersucht wird, somit schon mal nicht haltbar. Wäre ein Pakistani mit einer Waffe im Gepäck genauso sicher durchgekommen? Und wenn es aufgefallen wäre, wem wäre es dann schlechter ergangen?
c) Ist auch das Argument, dass die Untersuchung von Kindern eine Folge der ‘politisch korrekten’ Behandlung aller Fluggäste sei unhaltbar. Stattdessen ist es offensichtlich eine Auswirkung schlecht geschulter Befehlsempfänger_innen in einem unmenschlichen System. Selbst wenn alle Hautfarben oder Staatsangehörigkeiten gleich untersucht werden müssten, wäre das noch immer kein Grund Kinder oder Rentnern nicht ein wenig mehr entgegen zu kommen.
Needless to say, a glance at the girl’s family was all one needed to know that they hadn’t rigged her to explode.
So einfach ist das. Sieht man doch.
Is there nothing we can do to stop this tyranny of fairness?
Nochmal, welche Fairness? Die, dass Sam Harris mit anderthalb Kilo Munition nicht untersucht wurde, aber ein kleines Mädchen? Dass der Inder, der ‘den Bösewicht in einem Bollywood-Film spielen könnte’ aussehen darf, als ob er ‘sich keine Gedanken machte’?
Imagine how fatuous it would be to fight a war against the IRA and yet refuse to profile the Irish? And yet this is how we seem to be fighting our war against Islamic terrorism.
Welche Hautfarbe hatten nochmal Iren?
Granted, I haven’t had to endure the experience of being continually profiled. No doubt it would be frustrating. But if someone who looked vaguely like Ben Stiller were wanted for crimes against humanity, I would understand if I turned a few heads at the airport.
Und da kocht der reiche weiße Privileg endgültig über. Tatsächlich, Sam Harris, du hast keinen Schimmer was es heißt, diskriminiert zu werden. Daher wäre die einfache Schlussfolgerung, die Fresse zu halten und zuzuhören. Aber nein, stattdessen verniedlichst du die Tatsache, dass du forderst alle Muslimen auszusondern mit der unterhändigen Selbstkompliment, dass du wie Ben Stiller aussiehst. Und der Implikation, dass die Gruppe der Menschen die wie Ben Stiller aussehen in etwa so groß ist wie die der Muslimen. Dass die hypothetische Suche nach einem einzelnen Kriminellen mit einer Beschreibung seines Aussehens vergleichbar wäre damit, alle Muslimen speziell zu untersuchen weil einzelne im Namen der Religion zu Terroristen wurden und werden. Das ist, wiederum, purer Rassismus.
Und wie war das nochmal mit den Rentnern und dem Mädchen im Beispiel kurz zuvor? Was war das Problem, dass einige Leute ihren Kopf drehten oder dass die armen Leute unmebschlich belästigt wurden?
However, if I were forced to wait in line behind a sham search of everyone else, I would surely resent this additional theft of my time.
‘Everyone else’. Das ist die Essenz von Harris Argument: Sicherheitkontrollen wären so viel schneller, wenn wir einfach nur die Terroristen untersuchen. Wow, so einfach ist das, das braucht doch einen Weltdenker wie Harris um es zu bemerken!! Wieviel Zeit da verschwendet wurde, und dabei hätte man doch einfach nur die ‘Jihadi’ untersuchen müssteb. Und wenn man halt nicht ganz so genau sein kann und auch die 99.99999999999% mit der gleichen Hautfarbe untersucht, die eben keine ‘Jihadi’ sind, oder ‘Jihadi’ sind aber an diesem Tag nur ihre Omma besuchen wollen, dann haben die ja sicher Verständnis dafür. Müssen ja nicht wie Ben Stiller aussehen wenn sie es nicht wollen. Sollen sich mal nicht so haben, die Museln.
We should profile Muslims, or anyone who looks like he or she could conceivably be Muslim, and we should be honest about it. And, again, I wouldn’t put someone who looks like me entirely outside the bull’s-eye (after all, what would Adam Gadahn look like if he cleaned himself up?) But there are people who do not stand a chance of being jihadists, and TSA screeners can know this at a glance.
Ja ich sags nur nochmal, nicht falls jemand noch denkt dass ich hier nur bewusst dumm argumentiere, um dann am Ende mit großem Knall die echte Botschaft herauszuarbeiten.
Needless to say, a devout Muslim should be free to show up at the airport dressed like Osama bin Laden, and his wives should be free to wear burqas. But if their goal is simply to travel safely and efficiently, wouldn’t they, too, want a system that notices people like themselves? At a minimum, wouldn’t they want a system that anti-profiles–applying the minimum of attention to people who obviously pose no threat?
Genau, natürlich dürft ihr euch anziehen wie Osama, aber dann wundert euch nicht, wenn der Weiße Mann eurer Burqa-Frau in den Schritt greift. Denn würde es euch nicht auch gefallen, wenn da wo ihr herkommt Menschen, die die traditionelle Kleidung westlicher Terroristen tragen (Jeans, Hemd), ausgesondert werden. Seht ihr, es ist gar keine Diskriminierung, es ist nur Anti-Diskriminierung für wichtige Menschen wie mich, Sam Harris, Autor von vielen bekannten Büchern.
]]>Und tatsächlich können Patrick Vogt und seine Ko-Autor_innen aus Deutschland, Frankreich und Italien zeigen, dass sowohl ihre gemessenen Atomabstände und Gitterstrukturen, wie auch die elektrischen Eigenschaften denen des Graphen sehr ähnlich sind, und gut mit theoretischen Berechnungen übereinstimmen.
Wer jetzt letztendlich als Erstentdecker benannt werden wird, weiß ich nicht und will ich nicht mitreden. Aber was zählt ist, dass die Belege in diesem Paper ausreichen sollte um die Existenz (und Erzeugbarkeit) von Silicen zu zeigen. Ob aus diesem Material etwas werden wird – die Zeit wird es zeigen.
]]>Ich kann mir kaum vorstellen, professionelle Arbeit mit Daten ohne Linux durchzuführen. Aber ich ibn auch der festen Ansicht, dass Menschen die nicht mit Windows zwangserzogen werden, mit modernen Linux-Versionen wie Ubuntu sehr viel besser zurecht kämen…
]]>Nochmal, ich sage nicht dass der Hinweis darauf, dass man Trolle nicht motivieren soll, schlecht ist. Aber er greift zu kurz, und weist Verantwortung für die Gemeinschaft der Kommentatoren oder für das Wohlergehen des Autors/der Autorin von sich.
Denn das ist der Punkt: Ein Autor kann üble Kommentare nicht einfach auf sich sitzen lassen, sondern wird davon mürbe gemacht. Oder fängt erst gar nicht an, zu schreiben. Schade, ich würde seine Stimme gerne hören. Kann ein dickes Fell wirklich eine Voraussetzung sein, ein Blog zu schreiben? In diesem Licht, ist die Aufforderung “Leg dir doch ein dickes Fell zu!” nicht unverschämt?
Oder wie steht es um Autorinnen? Warum wohl gibt es weniger Wissenschaftsblogerinnen? Wie sieht es um das “dicke Fell” aus, wenn das noch tagtäglich mit der großen Sexismusschaufel betatscht wird? Was passiert, wenn eine Frau es einmal wagt den Mund gegen Sexismus aufzumachen? Was ist z.B. mit diesem Artikel? Wie muss das sein, als Antwort feministische Artikel stetig Ströme von Vergewaltigungswünschen zu bekommen? In welchem Licht steht dann ein – einzeln gesehen harmloser – Trollkommentar da? Ich kann es mir nicht vorstellen. Ich meine, mir hat solch geistige Kernschmelze wie im deutschen Brightsblog schon fast gereicht. Ich hab kein dickes Fell, sicher nicht. Muss ich deswegen die Klappe halten?
Nein, wiederum, die Antwort auf Trolle kann nur strenge Moderation sein. Wenn das explizit nicht möglich ist, muss die Gemeinschaft es wenigstens implizit machen. Das ist sowieso besser: Wenn es klar ist, dass sexistisches, xenophobes oder einfach unangebrachtes Verhalten laut angeklagt werden muss. Wer das nicht tut, lässt einfach nur sein Privileg heraushängen, nicht unmittelbar getroffen zu sein.
]]>Deutsch stellt sich die Aufgabe, nach Evidenz zu suchen, dass wir am Beginn einer Unendlichkeit stehen. Darunter versteht er vor allem, dass wir Menschen “universelle Erklärer” sind, die im Prinzip nicht limitiert sind in ihren Möglichkeiten, und dass die Suche nach guten Erklärungen und Veränderung das sind, was die Menschheit braucht. Eine gute Botschaft und im Kern ist das Buch humanistisch, aber im späteren geht das sehr in weißen reichen Ego von Deutsch unter.
Zunächst, was ist gut. Ich mag seine Definition von wissenschaftlicher Erkenntnis: Es ist die Suche nach guten Erklärungen, und eine Erklärung ist gut wenn sie sich nicht leicht variieren lässt. Dass Moral von Gott kommt, ist z.B. falsch weil es eine schlechte Erklärung ist, denn man kann sie leicht variieren indem man Gott durch das Rosafarbene Unsichtbare Einhorn ersetzt. Oder durch einen anderen Gott. Und gute Erklärungen greifen manchmal um sich und erklären mehr, als sie eigentlich wollten. Das macht sei so mächtig.
Mir gefällt, wie Deutsch fast die gesamte Philosophie der Wissenschaft (außer Popper) mit großer Keule umhaut. Was keine besonders schwere Übung ist bei dem gewaltigen Unsinn, der dabei herauskam. Nur als Beispiel Wittgenstein, der aus dem Logischen Positivismus die Folgerung zog dass alle Philosophie bedeutungslos ist, aber trotzdem weitermachte damit. Deutsch zeigt z.B., wie manchmal eine Erklärung auf einer höheren Ebene die gute Erklärung ist. Wenn ich frage, wie ein Kupferatome auf die Nasenspitze einer Metallstatue von George Washington kommt, ist die gute Erklärung, dass er Präsident war und ein wichtiger Mensch; und nicht, dass das Kupfer in einer Supernova erzeugt wurde, usw.
Mir gefällt, wie Deutsch das bekannte Beispiel von Hilberts Hotel verwendet, um Unendlichkeit und ihre merkwürdigen Eigenschaften zu erklären. Über den Weg von Science Fiction-Geschichten erklärt er dann, warum (seiner Meinung nach) die Viele-Welten-Interpretation der Quantenphysik die einzig wahre sein muss. Ab hier bricht zuviel Ego und Arrogranz des Physikers durch. Statt einem Galoppritt durch Geschichte, Biologie und Politik hätte ich mir heri doch wenigstens noch gewünscht, dass er zeigen würde wie die Viele-Welten-Interpretation sein Kriterium der guten Erklärung erfüllt, statt nur autoritär darauf gestoßen zu werden. Ich mag ja an der Multiversums-Idee, dass keine Zufälle mehr die Physik dominieren, sondern stattdessen alle Möglichkeiten einer Entscheidung realisiert werden, solange es die Gesetze der Physik erlauben. Aber das scheint mir eine beliebig variierbare Erklärung zu sein. Warum passiert etwas? Weil alles passiert. Da hätte ich mir wenigstens ein Kapitel zu gewünscht.
Stattdessen hat Deutsch zu allem und jedem noch etwas zu sagen. Da kommen einige gute Gedanken bei heraus, z.B. alle politischen Systeme schlecht sind, dass Demokratie mathematisch beweisbar niemals komplett gerecht sein kann und dass wahrlich gute Politik auch immer gute Erklärungen suchen müsste und den Wandel umarmen. Aber ein richtiger Faden zieht sich nicht mehr durch das Buch, und das einzig kohärente Motiv scheint mir ein gewaltiger Optimismus zu sein, dass wir schon alles lösen können, weil wir im Westen jetzt so toll sind. Das klingt alles zu sehr nach Ray Kurzweil und seine grobschlächtigen Hurra-Thesen über exponentiellen Anstieg der Möglichkeiten.
Danach verliebt sich Deutsch gnadenlos und blind in die Mem-Theorie. Ideen und ihre Evolution als Pakete ähnlich den Genen zu betrachten hat einen gewissen Charme und stellt viele Umstände deutlich dar; aber ist nicht umsonst umstritten, da es sehr schwierig ist damit konsistent umzugehen. Auch wenn Deutsch das zur Seite wischt, zeigt er wunderschön in der Art wie er seine Ideen verwendet, das eben genau das passiert. Da vdefiniert er rationale und nicht-rationale Meme, die genau gegensätzlich sind, aber muss dann doch drüber hinweg hoppeln, dass das eben nicht immer so ist.
Endgültig reich und weiß priviligierter Mumpitz wird es dann, wenn er statische Gesellschaften definiert: Das sind die, die von nicht-rationalen Memen beherrscht werden, die Wandel ablehnen. So weit, so gut, jeder der schon mal einem CDU-Hansel zugehört kann dem nur zustimmen. Statische Gesellschaften sind die Hölle auf Erden für Deutsch, aber dann lehnt er sich aus dem Fenster und behauptet, der Westen, ja der tolle Westen, der sei jetzt eine dynamische Gesellschaft in der Wandel und neue Ideen sich durchsetzen können. Es mag ja sein, dass die recht junge Wissenschaft tatsächlich ein Anker ist, der diese Frische mit sich bringt. Aber zu behaupten, unsere Gesellschaft sei besser weil sie das umsetze, ist schon zum Gruseln. Deutsch würde ich mal gerne hier in Oakland über die Straße mitnehmen. Wollen wir mal einen x-beliebigen Arbeiter fragen, ob er denn denke dass unsere Gesellschaft so dynamisch sei, dass niemand durch statische Ideen eingeschränkt sei.
Insgesamt ist dieser ganze Teil um Biologie und Evolution von der Arroganz des Physikers geprägt. Ein gutes Grundwissen hat Deutsch, aber die Folgerungen und Vergleiche sind viel zu einfach. Er ergötzt sich an seinen ach so schlauen Einsichten und Definitionen, und sieht gar nicht mehr, dass deren Erklärungskraft weder die Realität wiedergibt noch besonders tief geht.
Ich bin ziemlich frustriert, wie gesagt. Es fing als gutes Buch an; und wenigstens die erste Hälfte enthält genug wunderbare Erklärungen um eine Empfehlung dafür abzugeben; aber spart euch die zweite Hälfte. Es ist frustrierend vor allem, weil Deutsch durchaus durchscheinen lässt, dass er humanistische Ideen versteht und mit sich trägt; er lässt sie nur nicht gegen sein vereinfachtes Verständnis der Welt antreten. Schade.
]]>Dieses Bild ist kein Foto, es ist eine Zusammenstellung aus Messungen verschiedener Teleskope. Das beobachtete Phänomen entsteht, wo zwei Galaxiencluster zusammenstoßen.
Das Chandra-Röntgenteleskop findet heraus, wo sich normale Materie befindet, denn die Galaxien besteht hauptsächlich aus Gaswolken, die sich in der Kollision erhitzen. Das heiße Gas strahlt, und diese Strahlen misst Chandra. Im Bild sind diese Bereiche in violett markiert.
Dazu kann man dann Beobachtungen mit Teleskopen im sichtbaren Licht nehmen, etwa von Hubble oder dem Keck-Teleskop, und den Gravitationslinseneffekt ausnutzen. Denn die Masse der Galaxienhaufen ist ausreichend groß, um Licht abzulenken und linsenartige Effekte zu haben. Wir sehen dann die Galaxien hinter diesen Haufen verzerrt oder gar mehrfach. Daraus errechnet man die Verteilung der Masse, diese ist in den Bildern blau. Und die einfache Tatsache, dass blaue und violette Bereiche nicht übereinstimmen, führt zur Folgerung: Da gibt es etwas, dass Gravitation ausübt, aber nicht an anderen Dingen teilnimmt, an denen Materie so teilnimmt, vornehmlich der elektromagnetischen Wechselwirkung. Wir sehen es nicht, aber wir sehen dass da Materie ist: Dunkle Materie.
Es sind mittlerweile sechs dieser spannenden Galaxienkollisionen untersucht worden. Der erste, der Bullet Cluster, ist so benannt, weil der violette Bereich wie die Wirkung einer Gewehrkugel aussieht. Jetzt ist ein neuer Cluster entdeckt worden, und weil die Kollision älter ist und langsamer als im Bullet Cluster, ist er Musket Ball Cluster benannt worden – Musketenkugel-Cluster:
Die bislang entdeckten Kollisionen waren um die 200 Millionen Jahre alt, der Musket Ball Cluster DLSCL J0916.2+2951 aber kollidierte bereits vor 700 Millionen Jahren. Neben dem stechenden Beweis für Dunkle Materie wird er ein weiteres Stück helfen herauzufinden, welche Auswirkungen solche Kollisionen auf die beteiligten Galaxien haben.
Bleibt nur noch die Frage, wer da im Weltall so viele Gewehrkugeln abfeuert. Das kann natürlich nur Gott sein.
]]>dazu kann man viel sagen, aber ich will nur eines ausdrücken: Dass darin ein Lehrstück zu Kommunikation steckt. Darüber, was man sagen will, das man bewirken will. Wie das davon abhängt, mit wem man spricht (und sei es der Musiker, das Instrument, das technische Vermögen der beiden; oder letztendlich das Publikum oder der oder die Hörer_in) und wie verschiedene Ebenen zusammenhängen, erwartet werden müssen und letztendlich das System als ganze größer ist als seine Einzelteile.
Und genau so könnte man auch sagen: Wie die Durchführung einer Aufgabe funktioniert, ist eine facettenreiche kreative Leistung auf vielen Ebenen, die von allen Beteiligten und ihren Filter im Ausdruck und in der Aufnahme dieser Ebenen abhängt. Eine gute Arbeitsumgebung z.B. hängt davon ab, dass der Mitarbeiter als Teil des gesamten Arbeitsprozesses ernstgenommen wird und nicht ein Roboter ist, in den man einen Arbeitsbefehl hineinsteckt. Oder ein Fußballtrainer wird wenig Erfolg haben, wenn seine Übungseinheiten die Spieler_innen tüchtig fit macht, aber nicht die subtileren Elemente trainiert, die das Zusammenspiel erkenntlich machen.
Und darum ist Musik (oder meinetwegen auch Teamsport) so wichtig für jeden: Weil er diese Prozesse der Zusammenarbeit sofort auf die tieferen Ebenen der mentalen Festplatte schreibt, ohne dass sich jemand erst hinsetzen muss und durchsprechen muss, was Zusammenarbeit bedeutet.
]]>Die Erklärung scheint einigermaßen das zu bestätigen, über was ich mich bereits mehrmals geärgert habe: Dass man auch intern sehr unzufrieden war mit der Art und Weise, wie die vorläufigen Ergebnisse veröffentlicht wurden: Zu schnell und mit zu wenig qualifizierender Kommunikation.
Some collaboration members believe that the results, when first announced at a symposium at CERN on 23 September 2011, should have been presented more clearly as preliminary. They are also unhappy that more experimental checks weren’t carried out before the announcement.
Die Abstimmung ging 16:13 aus, mit zusätzlichen Enthaltungen, was nicht genug war um die beiden rauszuwerfen, aber sie zogen die Konsequenzen und traten freiwillig zurück.
Ich sehe das als logischen und richtigen Schritt. Die Aufgabe der Führung ist es, dass die Integrität der Resultate richtig wiedergegeben wird. Dass eine solche Bekanntgabe Wellen schlagen kann, die sofort unkontrollierbar werden, muss man einfach vorhersehen und mit aller möglicher Vorsicht vorgehen. Dies war hier nicht der Fall. Eine Pressekonferenz wurde bekannt, bevor das Paper öffentlich einsehbar war, und selbst nach der Pressekonferenz dauerte es noch lange, bis es endlich verfügbar war. In Interviews konnte man Dinge lesen wie “Wir haben alles technisch mögliche ausgeschlossen.”
Aber das hatte man nicht, denn letztendlich war ein “nur” ein fehlerhaftes Kabel.
Der Kern der Sache ist aber nicht, dass dies nicht rechtzeitig entdeckt wurde, sondern dass sich die Projektleitung nicht vor die Mitforscher_innen stellen konnte und sagen: Schaut, wir haben das durchdacht und von Anfang an dies und dies getan um zu standhaft zu sagen: Vermutlich ist alles nur ein technisches Ding irgendwo, denn die Physik ist viel viel robuster. Der Entzug des Vertrauens bestätigt das, soweit man das im Rahmen der sicherlich auch vor sich gehenden politischen Dimension beurteilen kann.
Denn letztendlich ist der Rücktritt auch ein Schritt um wieder die Hauptaufgabe der Long-Baseline-Neutrinoexperimente in den Vordergrund zu rücken: Die Oszillationen von Neutrinotypen genauer zu untersuchen. Und wenn die Aufmerksamkeit, die den Neutrinos jetzt zugute kam, wenigstens zu einem Prozent zur echten, guten Physik gelenkt werden kann, ist das ja auch schon etwas.
]]>Dass 8 TeV wirklich einen Unterschied macht, kann man schon daran sehen, dass man mit 20-30 % mehr Daten umgehen muss.
Bis jetzt hat der LHC das Higgs noch nicht gefunden – wenig überraschend. Denn so eine Entdeckung funktioniert nicht, in dem man die Maschine einschaltet, und wenn man alles richtig gedreht hat kommen hinten Higgs-Bosonen raus. Stattdessen muss man lange Daten sammeln, um genug Statistik zu erhalten, und schließlich ein neues Teilchen in bestimmten Zerfallsprozessen folgern und absichern zu können.
Aber der LHC hat natürlich noch viel mehr zu bieten. Die Suche nach Symmetrieverletzungen in Zerfällen von B, D, und K-Mesonen ist mindestens so wichtig, und auch die Untersuchungen an Quark-Gluon-Plasmen in Schwerionenkollisionen. Und alles sonst, was mit einem universellen Werkzeug wie dem LHC erforscht und entdeckt werden kann! Vielleicht schon 2012!
]]>So einfach wars.
Das ist dann jetzt endgültig so richtig peinlich. Nach dem ganzen Trara um die angebliche Erkenntnis, lauten Vertrauensbekundungen, neueren Messungen hat man es nicht geschafft, einmal alle Kabel neu zu überprüfen? Nur ein weiterer Beleg, warum man sehr sehr vorsichtig sein muss mit all zu überraschenden Ergebnissen…
UPDATE: Uh, ich hoffe ich war nicht voreilig. Bislang ist es nur ein einzelner anonymer Bericht, ich hoffe dass es sich bestätigt und so auflöst.
UPDATE 2: Nature News hat ein offizielles Statement erhalten, und das bestätigt ein Glasfaserkabel als mögliche Quelle, gibt aber auch noch den Oszillator, der die Zeitstempel produziert hat, als weitere mögliche Ursache an:
The OPERA Collaboration, by continuing its campaign of verifications on the neutrino velocity measurement, has identified two issues that could significantly affect the reported result. The first one is linked to the oscillator used to produce the events time-stamps in between the GPS synchronizations. The second point is related to the connection of the optical fiber bringing the external GPS signal to the OPERA master clock.
Um diese Fehlerquellen zu erkennen oder auszuschließen, warte man auf weitere Messungen in 2012.
]]>Alle Kinder sind von Natur aus unglaublich neugierig. Und warum werden dann nicht alle Kinder Wissenschaftler_innen? Weil die furchtbare Art, Wissenschaft mit Lernen von Fakten oder Methoden gleichzusetzen, jedes Interesse zerquetscht. Nicht, dass jedes Kind Wissenschaftler_in werden sollte. Nur sollte jedes Kind, das seinen Fähigkeiten und Interessen folgen möchte, dies tun. Denn wissen ist wunderbar – und Schule sollte das vermitteln.
]]>Angesichts der Mordserie der rechtsextremen Zwickauer Zelle betonte er am Donnerstagabend bei einer Podiumsdiskussion Jesuiten-Hochschule in München die Bedeutung der Ausländerpolitik. „Eine gute und vernünftige Einwanderungspolitik muss zum Ziel haben, dass keine Kampfgruppen am rechten Rand entstehen”, sagte der innenpolitische Sprecher der Unionsfraktion einer Meldung KNA zufolge. Der soziale Frieden dürfe nicht gefährdet werden, habe Uhl gewarnt. Es nütze nichts, wenn man die ganze Welt umarme, dabei aber die eigenen Bürger aus den Augen verliere.
Wenn das stimmt: Was für eine absolut abartige Schlussfolgerung. Da sind also die Ausländer dran Schuld, dass es Nazigruppen gibt?? Absolut untragbar und menschenverachtend, und das aus der höchsten Ebene der Regierung. Und überrascht mich leider kein Stück aus der Union, im Gegenteil, solche Rechtsausleger muss man ja erwarten.
Mehr fällt mir nicht mehr ein, ohne aggressiv ausfallend zu werden.
]]>The Apollo 11 visualization draws together social and technical data from the 1969 moon landing in a dynamic 2D graphic. The horizontal axis is an interactive timeline. The vertical axis is divided into several sections, each corresponding to a data source. At the top, commentators are present in narratives from Digital Apollo and NASA technical debriefings. Just below are the members of ground control. The middle section is a log-scale graph stretching from Earth (~10E9 ft. away) to the Moon. Utterances from the landing CAPCOM, Duke, the command module pilot, Collins, the mission commander, Armstrong, and the lunar module pilot, Aldrin, are plotted on this graph.
“Die Apollo 11-Visualisierung verbindet soziale und technische Daten der 1969er Mondlandung in einer dynamischen 2D-Grafik. Die horizontale Achse zeigt eine interaktive Zeitreihe. Die vertikale Achse ist in verschiedene Sektionen unterteilt, die je einer Datenquelle entsprechen. Im oberen Bereich sind Kommentatoren gezeigt aus Erzählungen von Digital Apollo und technischen Debriefings durch NASA. Darunter sind die Mitarbeiter der Bodenkontrolle. Der mittlere Bereich zeigt auf einer logarithmischen Skala in einem Graph die Strecke von der Erde bis zum Mond (etwa 109 Fuß – 3*108 Meter). Äußerungen des landenden CAPCOM, Duke, des Kommandomodul-Pilot Collins, des Missionsleiters Armstrong und des Landemodul-Piloten Aldrin sind in diesem Plot gezeigt.”
(via FlowingData)
Diese Taktik erfährt jetzt auch Katherine Hayhoe, aber die Geschichte ist interessanter dadurch, dass Hayhoe eine evangelikale Christin ist, und an einem Kapitel eines Buches des Präsidentschaftskandidaten Newt Gingrich beteiligt. Als Republikaner wurde es Gingrich aber wohl zu heiß, nicht wegen des Klimawandels, sondern weil sich das eben nicht gehört als Rechtsausleger, die Wahrheit zu sagen statt das, was die Sponsoren aus der Schwerindustrie zur Wahrheit erklärt haben. Daher ist das Kapitel oder ihr Beitrag unter dem Tisch verschwunden.
Und so ist dann Hayhoe, die es als ihre Aufgabe versteht, wie man im Video sieht, die Wahrheit des Klimawandels zu vermitteln; und das auch gerade an ihre Mitchrist_innen, die ja traditionell rechts stehen und somit viele Lügen vorgesetzt bekommen.
Das American Traditions Institute aber mag das nicht so, daher setzen auch diese jetzt auf die Kniekappen-Brechmethode und verlangen die Herausgabe von allen Mails von ihrer Universität in Texas, die an Gingrich oder seinen Mitautor gingen, oder sonst im Zusammenhang mit der Arbeit stehen.
Das ist natürlich pure politische Erpressung, um unliebig laute Menschen mundtot zu machen. Texas Tech scheint da gottseidank nicht mitzumachen und hat noch nichts herausgerückt. Aber was soll ich schreiben, was Peter Sinclair schon besser formuliert hat:
The intent again is clear. Climate science data is public for anyone to examine. The intent here is not to illuminate – it is to intimidate, surveil, and turn the Freedom of Information act, meant to be a means to shed sunlight on the dark corners of government and bureaucracy, into a new tool of surveillance and oppression, to silence free speech, and curtail thought at academic institutions across the country.
“Die Absicht ist wieder einmal klar. Daten der Klimawissenschaft sind öffentlich für jeden untersuchbar. Die Absicht hier ist nicht zu erleuchten – sie ist einzuschüchtern, zu überwachen und den Freedom of Information act umzudrehen, von einem Mittel, um Sonnenlicht in die dunklen Ecken der Regierung zu bringen, zu einem neuen Werkzeug der Überwachung und Unterdrückung, um freie Meinungsäußerung zum Verstummen zu bringen, und um das Denken an akademischen Einrichtungen im Land einzudämmen.”
Auch in Deutschland wird gerne scharf geschossen, wo ansonsten viel heiße Luft und Kontroverse für Cash erkünstelt wird. Die Medien, die sich in dieser Hinsicht für keine angebliche Schlagzeile zu schade sind, ziehen auf der anderen Seite vor Gericht (siehe auch z.B. und hier) um unliebige Antworten zu bestrafen.
Unter einer Interaktion versteht man aber alles, was der Benutzer auf einer Seite so anklickt. Daher wird alles herausgefiltert, was wirkliches Interesse an einer Publikation andeutet, wie der Klick auf “Read More” oder auf den Download-Button. Dann wurden diese Interaktionen den verschiedenen Fachbereichen zugeordnet, wobei man bereits bei der Wahl der Portale darauf geachtet hatte, alle wissenschaftlichen Kategorien abzudecken.
Aus der alten Methode, die Vernetzung anhand der Zitierungen abzuleiten, ist ein starkes Ungleichgewicht zu den Naturwissenschaften bekannt, die mehr als 90% der Zitate stellen. Die Frage war also: Bildet das Benutzerinteresse, das ja nicht nur von anderen Forschern aus einem verwandten Bereich stammt, eine andere Gewichtsverteilung auf die Diszplinen?
Um die Vernetzung der Magazine abzuleiten (die dann letztendlich auf Klassen von Disziplinen vereinfacht wird), setzt man auf eine Technik aus dem Datamining. Zur Verfügung steht ein sogenannter “Clickstream”, die Zeitserie an Aktionen die ein Benutzer auf dem Portal vornimmt. Ein Magazin A wird dann als verwandt zu B bezeichnet, wenn in einem Clickstream unmittelbar nach Klicks in A Klicks in B folgen. Aus der gesamten Menge an Klickfolgen gewinnt man so auch die Wahrscheinlichkeit, dass ein Klick von A nach B führt – und so baut man nicht nur ein Netz, sondern auch ein Wahrscheinlichkeits-Modell, das eine Simulation der Bewegung anleiten kann.
Indem man jetzt zufällige Bewegungen durch dieses Netzwerk simuliert, kann man die Stärke der Beziehungen zwischen verschiedenen wissenschaftlichen Magazinen festlegen. Die am stärksten verknüpften 50000 Journals wurden ausgewählt, um dieses Bild der Vernetzung der wissenschaftlichen Disziplinen zu erstellen (wie immer – Klick für ein größeres Bild):
Selbstverständlich ist das erst eine frühe Arbeit aus dieser neuen Datenquelle, die noch einiges an Verfeinerungen erlaubt. Die Forscher_innen sehen noch mindestens Notwendigkeiten, besser herauszufinden wie die Seitennavigation Klickbewegungen manipuliert, wie verschiedene Arten Paper zu finden (Empfehlungen von Kollegen, verlinkte Artikel, Suchergebnisse) die Klicks motivieren, und in wie weit die Annahme einer einfachen Zufallsbewegung durch das Netz wirklich zutreffend ist für die doch stärker gelenkte Suche nach wissenschaftlicher Lektüre.
Abgesehen davon aber kommen sie bereits zum Ergebnis, und man kann es im Bild deutlich sehen, dass die Sozial- und Geisteswissenschaften deutlich besser repräsentiert sind. Das lässt den Schluss zu, dass die Methode auf Basis der Zitierungen nicht die geeignete ist, um die Vernetzung der Wissenschaften abzubilden.
Walter Isaacson ist ein bekannter Biographienschreiber, und hat im letzten Jahr mit seiner Steve Jobs-Biographie die Hitlisten gestürmt.
Aber er hat auch über angenehmere Zeitgenossen wie Albert Einstein geschrieben.
Ich hatte ein wenig Bedenken, mir eine Einstein-Biographie vorzunehmen, kennt man doch die meisten Geschichten und Leistungen. Aber Isaacson hat eine überzeugend runde Biographie vorgelegt, die sich vor allem damit befasst, was Einstein zu seinen wissenschaftlichen und politischen Taten motiviert hat und welche Gemeinsamkeiten man dort finden kann.
Andere Physiker-Biographien, die ich gelesen habe, sind halbe populärwissenschaftliche Bücher, die den Physiker in das größere Umfeld der Forschung einordnen. Isaacson tut dies natürlich auch, und bringt überzeugend treffende Zusammenfassungen der wichtigen Veröffentlichungen von Einstein. Hauptaskept ist aber ein anderer: Einstein als Rebell gegen die Wissenschaft, und dann später gegen die politische Welt, und was ihn dazu bewegt hat.
Während der späte Einstein in der Physik ein fast dogmatisch Konservativer war und die Quantenwelt akzeptiert aber als unvollständig angesehen und gehasst hat (Isaccson untersucht die Hintergründe seiner Wissenschaftsphilosophie), war doch stetig seine Motivation verwandte Prinzipien zu vereinfachen und aus einfachen Gedankenexperimenten den Schlüssel dazu zu finden. In seinen späten Jahren ist er an der Vereinheitlichung der Feldtheorien gescheitert, teilweise weil er zu stur war die moderne Physik einzuarbeiten, teilweise weil er kein Gedankenexperiment gefunden hat, das Zugang bot.
Der junge Einstein aber hat die Welt mit Donnerschlägen an rebellischer Vereinheitlichung erschüttert. Die unterschiedlichen Beschreibungen für interagierende magnetische und elektrische Felder störte ihn, und das Gedankenexperiment, mit einem Lichtstrahl zu fliegen führte ihn zum kühnen Vorschlag, Gleichzeitigkeit und absolute Bezugssysteme aufzugeben. Die Vorstellung, wie jemand in einem abgeschlossenen Fahrstuhl im Weltall Beschleunigung oder Gravitation unterscheiden kann (nämlich nicht), führte zur Beschreibung der Gravitation in der gekrümmten Raumzeit.
Der deutsche Titel ist zwar eine entstellende Übersetzung, aber hat doch recht, Einstein wurde Popstar. Nach dem Ersten Weltkrieg, nachdem die Eddington-Expedition die Lichtbeugung durch die Gravitation bestätigte, wurde er zum absoluten Weltstar gemacht. Politisch brachte ihm das leider auch früh Aufmerksamkeit durch den erstarkenden Antisemitismus in Deutschland. Und in den Dreißigern rebellierte Einstein gegen Deutschland.
Eines ist besonders schön: Auch politisch blieb Einstein wissenschaftlich: Er änderte seine Meinung im Angesicht neuer Sachlagen. Sein Leben lang war Einstein ein ‘militanter’ Pazifist, der öffentlich für Verweigerung des Militärdienstes kämpfte, und für eine Weltregierung, für die Staaten etwas Souveränität aufgeben mussten – ein weiteres Beispiel für seinen Drang zur Vereinheitlichung von Prinzipien. Er sah positives und ausreichend negatives in sowohl Kapitalismus wie auch Kommunismus, um gegen beides zu sein, meiner Meinung gingen seine Ansichten durchaus in Richtung sozialem Anarchismus. Aber als Deutschland aufrüstete, änderte er seine Haltung, und argumentierte dass militärische Verteidigung notwendig sein, und erst wenn die Gefahr vorüber sei, man wieder zur Haltung des strengen Pazifismus zurückkehren könne.
Einstein ging stets seinen Weg. Er schreckte (fast) nie davor zurück, seine Meinung zu ändern, aber auch deutlich zu verteidigen, egal wie das andere Leute aufnehmen würden. Trotzdem blieb er weitgehend ein liebenswerter Mensch.
Privat war es ein komplizierteres Bild. Er war emotional distanzierter, auch wenn er meistens ein guter Vater und manchmal ein guter Ehemann war, und durchaus starke Emotionen zeigen konnte, war ihm doch immer wichtig nicht zu sehr gestört zu werden und er floh gerne in seine Arbeit.
Religiös war er eher ein Schaumschläger. Er lehnte das Konzept eines persönlichen Gottes ab, spielte aber stets mit Sprüchen um “den lieben Gott” oder den Schöpfer. Sein Gott war die Faszination um die elegante Schönheit des Universums. Aber er verwendete diesen Begriff, so wie die meisten Leute Gott als Handelnden benennen, und sah sich in diesem Sinne als religiös an. Atheisten belächelte er quasi als Menschen, die die Schönheit des Universums noch nicht begriffen haben, und die vom Prozess der Ablehnung ihrer religiösen Erziehung verbittert seien.
Wenn ihr ein sehr gelungenes Gesamtbild von Einsteins Leben haben wollt, kann ich euch dieses Buch nur empfehlen!
Im Oktober noch hat er eine atheistische Konferenz in Texas besucht, um den Dawkins-Preis entgegenzunehmen. Ein mutiges achtjähriges Mädchen, Mason Crumpacker, hat ihn nach einer Bücherempfehlung gefragt, und Hitchens hat sich hinterher die Zeit genommen, mit ihr zu sprechen und ein paar Empfehlungen herauszufinden. Ja, er hat etwas getan, was Religiöse nicht tun, er hat zugehört und das Mädchen ernst genommen, und die Bücher nach ihren Interessen ausgewählt. Es lohnt sich, die ganze Geschichte zu lesen, wie die Mutter sie berichtet. Aber hier ist die Liste:
Hitchens’ list of books and authors: Dawkins’ Magic of Reality, Greek and Roman myths, particularly those compiled by Robert Graves, anything satirical, all of Shakespeare, Geoffrey Chaucer, Ayaan Hirsi Ali (author of Infidel and Nomad: From Islam to America: A Personal Journey Through the Clash of Civilizations), PG Wodehouse (“for fun”), David Hume, and Charles Dickens’ A Tale of Two Cities.
England-lastig, natürlich.
Sein Buchtitel “God is not Great” ist auch Basis für George Hrabs Opener vom letzten Album gewesen:
Zum Schluss noch diese Video mit der Schlussbemerkung von Hitchens in einer Debatte mit Bill Dembski, in der er einfach mal die üblichen religiösen Vorurteile und “Argumente” mit einer großen Portion Menschlichkeit platt fährt:
Ich werde mich an Christopher Hitchens aber vor allem für einen kurzen Satz erinnern, der so dicht gepackt so Wahrheit enthält, die sich sich immer und immer und immer wieder bestätigt:
Religion vergiftet alles.
Es ist schon erschreckend, dass eine Universitätsleitung militarisierte “Riot Police” auffahren kann. Die Weltfremdheit kommt klar aus zwei Mails hervor, die am Freitag und Samstag verschickt wurden und die “Gesundheitsbedenken” und “Sicherheitsbedenken” hervorholten, weil ja Gebäude geschlossen seien am Wochenende. Ich weiß nicht, wie Besprühen mit Pfefferspray der Gesundheit zuträglich ist.
To UC Davis Campus Community,
I am writing to tell you about events that occurred Friday afternoon at UC Davis relating to a group of protestors who chose to set up an encampment on the quad Thursday as part of a week of peaceful demonstrations on our campus that coincided with many other occupy movements at universities throughout the country.
The group did not respond to requests from administration and campus police to comply with campus rules that exist to protect the health and safety of our campus community. The group was informed in writing this morning that the encampment violated regulations designed to protect the health and safety of students, staff and faculty. The group was further informed that if they did not dismantle the encampment, it would have to be removed.
Following our requests, several of the group chose to dismantle their tents this afternoon and we are grateful for their actions. However a number of protestors refused our warning, offering us no option but to ask the police to assist in their removal. We are saddened to report that during this activity, 10 protestors were arrested and pepper spray was used. We will be reviewing the details of the incident.
We appreciate and strongly defend the rights of all our students, faculty and staff to robust and respectful dialogue as a fundamental tenet of our great academic institution. At the same time, we have a responsibility to our entire campus community, including the parents who have entrusted their students to us, to ensure that all can live, learn and work in a safe and secure environment. We were aware that some of those involved in the recent demonstrations on campus were not members of the UC Davis community and this required us to be even more vigilant about the safety of our students, faculty and staff. We take this responsibility very seriously.
While we have appreciated the peaceful and respectful tone of the demonstrations during the week, the encampment raised serious health and safety concerns, and the resources required to supervise this encampment could not be sustained, especially in these very tight economic times when our resources must support our core academic mission.
We deeply regret that many of the protestors today chose not to work with our campus staff and police to remove the encampment as requested. We are even more saddened by the events that subsequently transpired to facilitate their removal.
We appreciate the substantive dialogue the students have begun here on campus as part of this week.s activities, and we want to offer appropriate opportunities to express opinions, advance the discussion and suggest solutions as part of the time-honored university tradition. We invite our entire campus community to consider the topics related to the occupy movement you would like to discuss and we pledge to work with you to develop a series of discussion forums throughout our campus.
I ask all members of the campus community for their support in ensuring a safe environment for all members of our campus community. We hope you will actively support us in accomplishing this objective.
Linda P.B. Katehi
Und darauf am Samstag:
Dear Member of the UC Davis Community,
Yesterday was not a day that would make anyone on our campus proud; indeed the events of the day need to guide us forward as we try to make our campus a better place of inquiry, debate, and even dissent. As I described in my previous letter to the community, this past week our campus was a site of week-long peaceful demonstrations during which students were able to express their concerns about many issues facing higher education, the University of California, our campus, our nation, and the world as a whole. Those events involved multiple rallies in the Quad and an occupation of Mrak Hall which ended peacefully a day later.
However, the events on Friday were a major deviation from that trend. In the aftermath of the troubling events we experienced, I will attempt to provide a summary of the incident with the information now available to me.
After a week of peaceful exchange and debate, on Thursday a group of protestors including UC Davis students and other non-UC Davis affiliated individuals established an encampment of about 25 tents on the Quad. The group was reminded that while the university provides an environment for students to participate in rallies and express their concerns and frustrations through different forums, university policy does not allow such encampments on university grounds.
On Thursday, the group stayed overnight despite repeated reminders by university staff that their encampment violated university policies and they were requested to disperse. On Friday morning, the protestors were provided with a letter explaining university policies and reminding them of the opportunities the university provides for expression. Driven by our concern for the safety and health of the students involved in the protest, as well as other students on our campus, I made the decision not to allow encampments on the Quad during the weekend, when the general campus facilities are locked and the university staff is not widely available to provide support.
During the early afternoon hours and because of the request to take down the tents, many students decided to dismantle their tents, a decision for which we are very thankful. However, a group of students and non-campus affiliates decided to stay. The university police then came to dismantle the encampment. The events of this intervention have been videotaped and widely distributed. As indicated in various videos, the police used pepper spray against the students who were blocking the way. The use of pepper spray as shown on the video is chilling to us all and raises many questions about how best to handle situations like this.
To this effect, I am forming a task force made of faculty, students and staff to review the events and provide to me a thorough report within 90 days. As part of this, a process will be designed that allows members of the community to express their views on this matter. This report will help inform our policies and processes within the university administration and the Police Department to help us avoid similar outcomes in the future. While the university is trying to ensure the safety and health of all members of our community, we must ensure our strategies to gain compliance are fair and reasonable and do not lead to mistreatment.
Furthermore, I am asking the office of Administrative and Resource Management and the office of Student Affairs to review our policies in relation to encampments of this nature and consider whether our existing policies reflect the needs of the students at this point in time. If our policies do not allow our students enough flexibility to express themselves, then we need to find a way to improve these policies and make them more effective and appropriate.
Our campus is committed to providing a safe environment for all to learn freely and practice their civil rights of freedom of speech and expression. At the same time, our campus has the responsibility to ensure the safety of all others who use the same spaces and rely on the same facilities, tools, environments and processes to practice their freedoms to work and study. While the university has the responsibility to develop the appropriate environments that ensure the practice of these freedoms, by no means should we allow a repeated violation of these rules as an expression of personal freedom.
Through this letter, I express my sadness for the events of past Friday and my commitment to redouble our efforts to improve our campus and the environment for our students.
Sincerely,
Linda P.B. Katehi
Mir ist recht gleich, ob die Kanzlerin davon wusste und hoffte dass es vorbeiginge, sich nicht überlegt hat was wohl passiert wenn man Polizei gegen widerwillige Studenten einsetzt oder wie man ökonomische Gründe vorschieben kann um den Studenten nicht ein bisschen zu helfen. Ebenso abartig ist es, angebliche fremde Beteiligte vorzuschieben oder Lügen zu verbreiten, dass die Polizei gefährdet gewesen sei. Der Quad ist eine große offene Fläche, wo niemand gestört wird, und es ist einfach mit nichts zu entschuldigen, hier so übermäßig brutal einzugreifen. Wie auch immer die Motive der Kanzlerin und der Administration aussahen, sie haben versagt und sind ihrer Verantwortung (aus den Briefen mag man vermuten in voller Absicht) nicht nachgekommen.
Die Bilder sind mittlerweile um die Welt gegangen. Vorgestern umringten Studenten eine Pressekonferenz, und die Kanzlerin weigerte sich das Gebäude zu verlassen, selbst nachdem die Studenten eine Gasse ließen. Erst nach Stunden verließ sie das Gebäude durch eine Gasse sitzender, schweigender Studenten.
Die Weltfremdheit zeigt sich in der Angst, sich der eigenen Gemeinschaft zu stellen auch wenn diese Ruhe und Frieden bewahrt. Die Ankündigung, eine Task Force einzusetzen die in 90 Tagen einen Bericht abliefert ist lächerlich und wahrscheinlich eine Verzögerungstaktik. Dementsprechend berechtigt sind die Rücktrittsforderungen. Der Polizist im Video ist suspendiert. Der Präsident der University of California hat alle 10 Standorte aufgerufen, ihre Pläne für solche Fälle mitzuteilen, um sie zu überprüfen.
Besonders ironisch ist, dass einnen halben Kilometer die Straße runter im Park in Davis (der Stadt) Occupy Davis Zelte haben darf. Das hat der Stadtrat einstimmig beschlossen, wobei Mitglieder ausdrücklich gesagt haben dass sie zwar dagegen sind, aber da die Verfassung das Recht zusichert, sie die Demonstration erlauben wollen. So nahe liegen vorbildliche und zerstörerisch-dumme Politik hier räumlich zusammen.
Aber vielleicht braucht es auch Versager vom Format der Kanzlerin, um die Bewegung zu fördern. So sehen mehr Leute, wie wichtig sie wirklich ist.
Und genau jetzt startet im Quad eine Generalversammlung, bei der ich jetzt vorbeischauen werde.
Ich schäme mich für meinen Arbeitgeber.
//Update 1:
Hier sind jetzt einige Impressionen von der Generalversammlung, die sicher 3000-4000 Menschen zählte. Hauptforderungen scheinen natürlich Rücktritt der Kanzlerin zu sein; aber auch die Grundbotschaft, dass es nicht mit Demokratie und freier Bildung vereinbar ist, wenn Studiengebühren stetig steigen, und auf der anderen Seite die sogenannten Regenten der University of California in Aufsichtsräten von Banken sitzen und direkt von Studentenkrediten profitieren (Allerdings!!!).
//Update 2:
Kanzlerin Katehi hat sich entschuldigt und die volle Verantwortung übernommen. Die Entschuldigung klingt aufrichtig, aber bleibt abzuwarten, ob dem auch die logische Konsequenz eines Rücktrittes folgt (Oder, das ist doch was passiert wenn man für so etwas Verantwortung übernimmt?!):
Irgendwie spüre ich da immer noch einen Mangel an Verbindung mit den Studenten, trotz des meiner Meinung nach ehrlichen Bedauerns und der ehrlichen Erfahrungen. Aber es geht eben nicht, dass man eine Untersuchung anfordert obwohl man selbst Teil des Untersuchten sein wird; es geht nicht dass man davon spricht Vertrauen herzustellen wo man selbst das Symbol des Vertrauensbruches ist. Und es geht nicht, von Verantwortung zu sprechen und keine Taten folgen zu lassen die die Worte bestätigen würden.
//Update 3:
Derweil haben die Studenten mit einem Verhältnis von 600-1 für einen Generalstreik am nächsten Montag gestimmt, zur gleichen Zeit, zu der sich die Kanzler der UCs treffen.
//Update 4:
Hier ist ein Interview mit einem der attackierten Studenten. Das Pfefferspray war militärisches Pfefferspray, das nur aus mehr als 5 Metern Entfernung eingesetzt werden sollte und stattdessen direkt ins Gesicht gesprüht wurde. Das Spray ist so extrem, dass es effektiv wäre, sich dagegen die schärfste Chilischote der Welt in die Nase zu stecken.
//Update 5:
Jetzt wo sie Seite wieder einigermaßen geht, versuche ich noch ein paar Fotos:
Im Moment funktioniert die Seite nicht richtig, bitte schickt Kommentare nicht mehr als einmal ab, auch wenn sie nicht erscheinen, sie sind gespeichert.
Die Erzählteile spielen vor allem im Mittleren Westen der 50er Jahre. Drei Brüder wachsen dort gemeinsam auf und genießen ihre Zeit mit ihrer Mutter vor allem, wenn ihr Vater, gespielt von Brad Pitt, auf Reisen ist. Der kompensiert seine eigene Unzufriedenheit vor allem damit, ein militärisch strikter Gewaltherrscher über seine Familie zu sein. zwei Brüder sterben. Und in der Gegenwart kämpft der erwachsene überlebende Bruder (Sean Penn) mit einem neuen Verlust, und spielt die Ereignisse seiner Jugend wieder um darin Kraft zu finden: In der Erinnerung leben verlorene Menschen wieder.
So interpretiere ich es jedenfalls. Die Sean Penn-Szenen sind sehr kurz, und die Erinnerungen an die Jugend sind zerstückelt, nicht chronologisch, aber es gibt auch keinerlei Hilfen, die es ermöglichen würden die Chronologie zu ordnen, im Gegenteil. Aber ich finde die Erzählart sehr dicht daran angelehnt, wie unsere Erinnerung funktioniert. Ich denke, es soll einen Denkprozess darstellen, bei dem Sean Penn zusammensetzt, wie er mit dem Verlust seines ersten Bruders umgegangen ist um sich schließlich endlich selbst besser zu finden.
Das ist noch nicht alles, nach der Einleitung des Films schließt sich ein etwa 20minütiger Teil an, der in gewaltigen Bildern die Entstehung des Sonnensystems, der Erde, des Lebens und der Evolution erzählt. Inklusive Dinosauriern. Erinnert etwas an das Ende von 2001.
Tja, mehr hab ich nicht dazu. Der Film ist sicher nicht für jeden, aber ich denke wenn man sich darauf einlassen kann wird man getroffen, wo man es nicht mehr in Worte fassen kann.
Hat jemand den Film gesehen und mehr Ideen, was er sagen soll?
]]>Over the last three conferences, we’ve changed party policy that stated homeopathy would not have to comply with the same kinds of regulations and testing that other products that claimed to have medical benefits did. And we have condemned Labour’s treatment of its scientific advisors, affirming the importance of governments to tolerate being given politically inconvenient advice.
Das ist bewunderswert: Weil sie selbst die Ablehnung wissenschaftlicher Ratschläge durch die Labor-Regierung kritisiert haben, sind sie (wahrscheinlich auch nicht unbeleckt z.B. durch die 1023-Kampagne) zum Schluss gekommen, dass Homöopathie keine Sonderstellung erhalten darf und nach den gleichen Regulierungen gehandhabt werden muss. Und wie gut Nachweise funktionieren, dass homöopathische Mittel eine medizinische Wirkung haben, wissen wir ja alle – überhaupt nicht.
Außerdem haben sie auch ihre Opposition gegen Stammzellforschung eingestellt. Zu Kernkraft und Gentechnik steht da nichts, ich weiß nicht in wieweit das Themen dort sind.
Und es ist halt schwer zu vermuten, was Themen sind, wenn es nicht auf dem Boden der Wissenschaft passiert. Daher, falls sich eine deutsche Partei ausdrücklich zur Wissenschaft bekennen würde, und nicht nur dann wenn es der eigenen vorgefertigten Agenda zugute kommt, wäre meine Stimme gewiss.
Hier ist die einfache Basis dessen, was passiert: Man sendet ein Bündel von Neutrinos vom CERN aus in Richtung Italien, wo im Gran Sasso-Laboratorium Detektoren wie OPERA stehen und das Bündel auffangen. So weit, so gut. Nur, Neutrinos reagieren sehr selten und sind daher sehr selten zu messen. Man sieht nur einen Bruchteil des Bündels, und was passieren könnte ist dies:
Wenn aus irgendeinem Grund – Zufall, oder weil Neutrinos mit höherer Energie leicht bevorzugt gemessen wurden oder weil früher eintreffende Neutrinos leicht bevorzugt gemessen werden, dann könnte der Eindruck entstehen, dass der Mittelpunkt des Bündels nach rechts verschoben ist vom tatsächlichen Mittelpunkt des Bündels, und somit natürlich auch eine zu hohe Geschwindigkeit vergetäuscht wird.
Hier sieht man es nochmal mit den Bündeln: Man nimmt an, dass das gemessene Bündel repräsentativ für das gesamte vorbeirauschende Neutrinobündel ist. Vielleicht aber ist diese Annahme falsch, und so kam die Messung zustande, die Neutrinos schneller als das Licht ankommen sah – wobei man in Wirklichkeit nur Neutrinos, die früher als der Durchschnitt des Neutrinopaketes mit physikalisch möglicher Geschwindigkeit gestartet waren, gemessen hat, und als “mittleres Neutrino” eingestuft daraus eine zu hohe Geschwindigkeit wurde.
Um das zu testen, schießt man jetzt mit sehr viel kompakteren Neutrinobündeln:
Die neuen Bündel werden statt 10500 Nanosekunden nur noch 1-2 Nanosekunden breit sein. Damit kann man zwei mögliche Fehler prüfen: a) dass der Fehler in der Flugzeitbestimmung doch größer ist als angenommen, was messbar ist weil der Fehler in der Ankunftszeit mit kompakten Bündeln sehr viel sichtbarer wird, b) wird das Zeitfenster in dem das Bündel ankommen darf sehr viel kleiner, daher würde der obige Effekt auch auffallen.
Wenn aber diese beiden Fehler nicht (neu) auffallen, ja dann hat man eine sehr viel bessere Messung des möglichen Effektes, dass Neutrinos schneller als das Licht unterwegs waren.
Bildquellen: Ethan Siegel
Dass ein Paper nicht eingereicht wird bevor alle zustimmen ist völlig normal. Das ist schließlich auch eine gute innere Qualitätskontrolle. Dass Paper vorab im arXiv veröffentlicht werden ist sogar gut, denn der Peer Review-Prozess ist doch sehr langwierig und andere können nicht nur schneller weitere Kommentare zur Arbeit leisten, sondern auch bereits für ihre Arbeit verwenden was andere durchdacht haben.
Aber ganz problematisch wird es, wenn es wie bei OPERA anscheinend geschehen ist, mögliche Weltsensationen in Pressekonferenzen verbreitet werden, bevor der Preprint eingestellt ist; und vor allem bevor überhaupt die ganze Kollaboration dahinter steht. Dann riecht es furchtbar nach einer politischen Aktion, um Aufmerksamkeit zu erregen, damit der Name “OPERA” im Gedächtnis sitzt wenn man neue Gelder anfordert. Und wenn dann, wie jetzt, herauskommt dass da nicht noch nichtmal der interne Konsenz da war, bevor man an die Öffentlichkeit ging, dann ist das ehrlich gesagt furchtbar peinlich. Vielleicht hat man nicht mit der großen Reaktion der Welt gerechnet, so etwas kann man ja nie wissen. Dass man aber Ergebnisse, die sehr zweifelhaft sind, und die man veröffentlichen will um zusätzliche Augen darauf zu haben, mit großer Vorsicht nach außen bringen sollte und mit einiger Stimme, das ist eigentlich eine ausreichend einfache Einsicht, dass ich fast ausschließe dass man da nur sehr naiv war.
So nicht, OPERA, da muss man ja fast für die beteiligten Wissenschaftler_innen hoffen dass es keine negativen Folgen haben wird. Wie dann die neueren Ergebnisse gehandhabt werden, wird das wohl stark mitbestimmen.
Es gibt dort Strukturen wie in der Mitte der Abbildung, wo ein Kern von Konzernen gemeinsam die Mehrheit der Kontrolle über die jeweils anderen Mitglieder das Kreise hält. Eine Art Superkonzern, der sich auch noch dadurch auszeichnet, wesentlich mehr auslaufende Arme zu haben als einkommende, also mehr Kontrolle zu halten als kontrolliert zu werden. Solche eng verknüpften Knäuel sind natürlich bedenklich, weil sie den Wettbewerb schwächen und andererseits anfälliger gegen die Auswirkungen von Krisen sein könnten.
Dass der Reichtum in der Welt sehr ungleich verteilt ist, ist ja bekannt; gerade hier in den USA. Aber auf der Seite der Kontrolle über internationale Konzerne ist die Ungleichheit noch gewaltiger: 737 Konzerne besitzen die Kontrolle über 80 % der gesamten studierten Konzerne (sind natürlich nicht alle, aber immerhin 43060!). Damit ist die Kontrolle um einen Faktor zehn stärker konzentriert als die Geldverteilung vermuten lassen würde!!
Noch weitergehend, 40 % des Besitzes internationaler Großkonzerne wird von einem Superkonzernknäuel mit lediglich 137 Mitgliedern kontrolliert! Und drei Viertel dieser 137 sind Großbanken. Sofern diese Kontrollstrukturen repräsentativ für das Netzwerk finanzieller Bindung steht, sieht man deutlich wie gefährlich die Bankenkrise wirklich ist: Da hängt schlichtweg ALLES dran. Und man weiß generell, dass dichte Netzwerke in guten Zeiten mehr Schutz bieten, aber in Krisen deutlich anfällig für Systemkollaps sind.
Und hier sind die 25 größten Spieler. Alleine der Erste, Barclays, kontrolliert 4% der Weltkonzerne, die 25 zusammen fast 30 %. Und beim Reichtumsgefälle der Welt ist das nicht weit von 30 % der Welt weg.
Barclays PCL, Capital Group Companies Inc, FMR Corp, AXA, State Street Corporation, JP Morgan-Chase&Co, Legal &General Group PLC, Vanguard Group Inc., UBS AG, Merril Lynch & Co., Welleington Management Co., Deutsche Bank, Franklin Resources, Credit Suisse Group, Walton Enterprises LLC, Bank of New York Mellon Corp., Natixis, Goldman Sachs Group, T. Rowe Price Group, Legg Mason, Morgan Stanley, Mitsubishi UFJ Financial Group, Northern Trust Corporation, Societe Generale, Bank of America Corporation
Berkeley Earth brüstet sich damit, als erste alle Temperatur-Messstationen einbezogen zu haben, um einen Auswahl-Bias zu vermeiden. Ob das jetzt eine gewaltige Neuerung ist, oder tatsächlich etwas ausmacht kann ich nicht beurteilen; und Mullers Arroganz des Physikers scheint nicht verschwunden zu sein wenn man seine Aussagen liest. Aber zugute halten muss man Berkeley Earth, dass sie eine schöne Seite aufgesetzt haben, auf der man nicht nur die Daten, sondern auch die Software zur Auswertung und die eingereichten vier Paper ansehen kann. Außerdem fasst dieses Video die Ergebnisse zusammen:
In der Zusammenfassung hat man gefunden, dass der “urban heat island”-Effekt sehr klein ist, dass nur in der Übersicht aller Stationen das globale Bild entsteht, da einzelne Stationen alle möglichen Einflüssen unterlegen sein können die lokal die Interpretation erschweren. Profileugner Anthony Watts hatte Temperaturstationen in den USA bewertet. Berkely Earth konnte aber (wieder mal) zeigen, dass als schlecht eingestufte Stationen den gleichen Erwärmungstrend zeigen. Watts selbst zweifelt die Berkeley Earth-Ergebnisse natürlich an, dafür wird er ja schließlich bezahlt. Muller wird dann jetzt mal feststellen, wie es auf der anderen Seite aussieht. Oder, wie es auf der einen, existierenden, echten Seite aussieht. Wenn man mit Daten, Analysen und echter Arbeit nichts ausrichtet, weil Lügner lügen und Betrüger betrügen.
Lässt sich zusammenfassend schreiben: Es ist nett, dass ein echter Skeptiker im Angesicht seiner Nachprüfung seine Meinung geändert hat. Mehr aber auch nicht. Reproduzierung ist immer gut, aber die Selbstdarstellungs-Show durch Muller jetzt braucht es nicht. Noch ist es gut, da es vielleicht ein paar Zweifler überzeugt. Aber was passiert wenn Muller weitergehende Fragen gestellt werden. Gilt er jetzt plötzlich als Autorität, nur weil er etwas hat nachrechnen lassen? Muller ist und bleibt kein Klimawissenschaftler. Fein, dass jemand unabhängig bestätigt hat dass diese richtig arbeiten, aber ehrlich gesagt ist dieser letzte Satz des Editorials schon wieder ein Schlag unter die Gürtellinie:
Global warming is real. Perhaps our results will help cool this portion of the climate debate. How much of the warming is due to humans and what will be the likely effects? We made no independent assessment of that.
Herrgott, wie schwierig wäre es denn zu sagen: “Für die Wissenschaftler, deren Ergebnisse hervorragend gestimmt haben, ist es ein alter Hut, dass der Mensch die Hauptursache ist. Daher wird das schon stimmen, ich möchte es aber trotzdem einmal gerne transparent nachvollziehbar überprüfen, weil Reproduktion immer gut ist.”. Das gehört auch zum guten Skeptiker oder zur guten Skeptikerin, dass er/sie in Ermangelung ordentlicher Gegenbeweise den Stand der Wissenschaft kommuniziert.
Bleibt nur noch die Frage: Wer hilft den Science Busters, ein Klimaprojekt aufzusetzen?