Datenlecks
Die schöne neue Datenwelt bleibt als Diskussionsthema aktuell. Jetzt soll also auch Frau Merkel abgehört worden sein – immerhin beschwert sie jetzt endlich einmal persönlich bei Obama. Schade, dass es bei WikiLeaks noch keine Protokolle darüber gibt, wie die Amerikaner das Abgehörte kommentieren.

Big Data
Aber mir geht seit der Diskussion hier um das Next Generation Identification Project ein ganz anderer Gedanke nicht mehr aus dem Kopf. Viele Big Data-Projekte zielen auf Prognosen ab und werden dabei immer erfolgreicher. Das betrifft nicht nur die Verbrechensprävention, wie im Next Generation Identification Project, sondern ganz verschiedene Anwendungsgebiete, von Wahlprognosen bis zur berühmten Influenza-Trendprognose von google.

Das Ausgangsmaterial der Prognosen sind große Datenmengen und empirisch erfolgreiche Algorithmen. Darauf, dass die Daten in einem sachlogischen Zusammenhang stehen, kommt es nicht an. Mehr noch: Für die Prognosen scheinen Theorien grundsätzlich nicht mehr notwendig zu sein, wie Chris Anderson schon vor Jahren im Wired Magazine verkündete: The End of Theory: The Data Deluge Makes the Scientific Method Obsolete.

Datenverarbeitung: Was bleibet aber, stiften die Dichter
Prognostische Relevanz ist im Hempel-Oppenheim-Schema, einem klassischen wissenschaftstheoretischen Schema für wissenschaftliche Erklärungen, ein zentrales Kriterium für die Zulässigkeit theoretischer Begriffe. Verabschiedet Big Data tatsächlich theoretische Begriffe in den wissenschaftsphilosophischen Altwarenbestand? Sind wir an dem Punkt, an dem von der Analytischen Philosophie aufgezeigte formale Möglichkeiten, theoretische Begriffe durch Verkettungen von Beobachtungen zu ersetzen („Craig-Substitut“, „Ramsey-Substitut“), praktische Relevanz gewinnen?

Und könnte es uns selbst, den „Subjekten“ des Handelns, ähnlich gehen wie den theoretischen Begriffen? Wenn man unser Handeln durch die geschickte Verknüpfung von Daten aus unserer Lebenswelt und unserer Vergangenheit vorhersagen kann, was bleibt dann vom Subjekt? Am Status des Subjekts als Urheber des Handelns nagen zwar seit langem alle möglichen Wissenschaften, aber wenigstens schienen die Daten, aus denen wir unsere Lebensgeschichten zusammengesetzt sehen, einer biografisch und subjektiv sinnvoll deutbaren Spur zu folgen. Was, wenn unsere Lebensgeschichte genauso gut aus einem statistischen Datenkonnex rekonstruierbar ist, den gar kein Sinn, kein innerer Zusammenhang verbindet? Die Lebensgeschichte – nur eine Geschichte, zusammengereimter Schein, wo auch zusammengerechnete Daten reichen?

Rein rhetorisch gefragt …
Oder liefern gute Theorien, z.B. in der Physik, nach wie vor die besten Prognosen? Und wird das Subjekt vielleicht berechenbarer, bleibt aber immer für Überraschungen gut, weil es doch mehr ist als eine statistische Verknüpfung von Datenpunkten? Lässt die erfolgreiche Simulation von handelnden Subjekten durch Big Data am Ende sogar die Spezifik des Originals umso schärfer hervortreten – wenn man nur den Unterschied theoretisch (!) auf den Begriff bringt?

Gute Geschichten zum Thema – oder prognostisch wertvolle Datenassoziationen – je nach theoretischem Standpunkt oder subjektivem Belieben, sind erwünscht.

Kommentare (43)

  1. #1 Christoph Moder
    26. Oktober 2013

    “Viele Big Data-Projekte zielen auf Prognosen ab und werden dabei immer erfolgreicher.” Das Ziel der Wissenschaft ist ja genau, irgend etwas vorhersagen zu können, und diese Vorhersage dann mit Beobachtungen zu falsifizieren. Mit Big Data kann man natürlich hervorragend Vorhersagen treffen, aber dabei erstellt man die Vorhersage nicht unabhängig, sondern man erstellt sie aus Beobachtungen und überprüft sie nachher mit (weiteren) Beobachtungen. So kann man nichts lernen, also kein vereinfachtes Modell erstellen, und erst recht nichts an zugrunde liegenden Ursachen ändern, weil man die nicht kennt, da sie nicht unbedingt aus der Statistik hervorgehen. Wenn man nur Parameter tunen will, ist Big Data gut. Wenn man dagegen für Menschen anschauliche Modelle erschaffen will, dann muss man dies auch explizit tun.

    “Wenn man unser Handeln durch die geschickte Verknüpfung von Daten aus unserer Lebenswelt und unserer Vergangenheit vorhersagen kann, was bleibt dann vom Subjekt?” Ja, was ist denn daran neu? Viele Menschen machen sich keine großen Gedanken über Gesetzmäßigkeiten, sondern leben komplett anhand ihrer Vorurteile und Erfahrungen. Sie kommen teils hervorragend durchs Leben, anders als so mancher weltfremder Theoretiker.

  2. #2 Joseph Kuhn
    26. Oktober 2013

    @ Christoph Moder:

    “Wenn man dagegen für Menschen anschauliche Modelle erschaffen will, dann muss man dies auch explizit tun.”

    Ja klar, darum geht es. Die Frage ist: Sind diese “anschaulichen Modelle” dann nur noch fromme Geschichten, sozusagen “Gleichnisse” zur besseren pädagogischen Vermittlung dessen, was unanschauliche Big-Data-Berechnungen auch liefern, ein platonischer Schatten der Datenwelt, oder sind sie mehr?

    Was den “weltfremden Theoretiker” angeht, mit dem Sie doch sicher nicht mich, sondern Einstein & Co. meinen ;-): Auch über den Begriff könnte man im Lichte von Big Data neu nachdenken.

  3. #3 Dr. Webbaer
    26. Oktober 2013

    Viele Big Data-Projekte zielen auf Prognosen ab und werden dabei immer erfolgreicher.

    Das mag bspw. für Wahlprognosen gelten, wenn auch andere Daten als die der Wahlforscher abgefragt werden, beispielsweise die Wettbüros des Internet.

    Für die Prognosen scheinen Theorien grundsätzlich nicht mehr notwendig zu sein (…)

    Keine Prognose ohne Theorie, denn eine Prognose basiert auf Modellen, die Theorien tragen.
    Gemeint wohl: Fachtheorie, aber auch das kann die Aussage nicht richtig machen.

    Hoch komplexe Systeme der Natur sind nur näherungsweise und ausschnittsartig zu erfassen, die Modellierungen wie Theoretisierungen sind denn auch aus sich heraus letztlich unzureichend.

    Niemand weiß beispielsweise genau, wo der FC Bayern in 10 Jahren steht, der Euro 2015 und die terrestrischen Oberflächentemperaturen 2100.
    Ähnliches gilt für Wirtschaftssysteme und politische Systeme und deren Zusammenspiel.

    Den Primaten ist mit dem IT-gestützten “Big Data” ein leistungsfähiges Instrument in die Hand gegeben, sie müssen damit umgehen lernen.

    MFG
    Dr. W

  4. #4 Dr. Webbaer
    26. Oktober 2013

    Was, wenn unsere Lebensgeschichte genauso gut aus einem statistischen Datenkonnex rekonstruierbar ist, den gar kein Sinn, kein innerer Zusammenhang verbindet? Die Lebensgeschichte – nur eine Geschichte, zusammengereimter Schein, wo auch zusammengerechnete Daten reichen?

    Ist jetzt die Geschichte der Primaten gemeint oder die des einzelnen Primaten?

    Ansonsten vorsichtshalber für beide Varianten feststellend: ‘Sinn’ ist ein Konzept derjenigen, die eigene Welten pflegen, die das Konzept des ‘Sinns’ kennen.
    ‘Sinn’ ist von Erkenntnissubjekten abhängig, die ihn konstruieren.

    Zur Welt dagegen ist nicht viel anzumerken, außer dass sie nicht chaotisch ist, also zumindest zeit- oder ortsweise [1] bestimmten Regelanwendungen folgt.

    Um den Artikel einmal günstig auszulegen:
    Es kann durchaus sein, dass Algorithmen eigene Sichten finden [2], die besser geeignet sind als diejenigen der Erkenntnissubjekte, die zudem von diesen nicht mehr umfänglich verstanden werden können.

    Sinnlosigkeit oder das individuelle oder gemeine Scheitern der Primaten kann “Big Data” aber in keinem Fall besorgen.

    MFG
    Dr. W

    [1] ‘Zeit & Ort’ sind ebenfalls Konstrukte der Subjekte
    [2] bspw. mit der Methode des Auschlusses oder irgendwelchen meta-empirischen Richtlinien folgend

  5. #5 2xhinschauen
    27. Oktober 2013

    Ich neige dazu, den verlinkten Artikel für (sorry) Stuss zu halten, geprägt von einer (vermute ich) sozialwissenschaftlichen Perspektive und einem (belegbar) fragwürdigen Verständnis zentraler Begriffe. Ich bestreite dabei gar nicht, dass sich da große Dinge tun durch die Möglichkeiten zur Sammlung und Auswertung extremer Datenmengen. Nur die behauptete Auswirkung auf die wissenschaftliche Methodik (bzw. was der Autor dafür hält) ist mMn Stuss.

    Sozial- und Wirtschaftswissenschaftler tun sich traditionell leicht mit der Hypothesen-, aber schwer mit der Bildung testbarer, in der Wirklichkeit sich bewährender Theorien. Die Qualität ihrer Prognosen ist gemessen an naturwissenschaftlichen Standards lausig. Aus dieser Perspektive mag das Heranziehen großer Datenmengen (=Statistik alter Schule, nur besser) und der Verzicht auf die Suche nach Kausalität vielleicht neu sein, erst recht das Aufstellen haltbarer Prognosen. Wenn ich belastbare kausale Beziehungen nicht finden kann, muss ich halt mal was anderes versuchen…

    In den Naturwissenschaften ist nichts davon neu. Nicht mal modell-loses (blindes) Data Mining ist neu. Physiker und Astronomen arbeiten schon lange mit den immer neuesten technischen Spielzeugen, mit extremen Maschinen und extremen Datenmengen, die von extremen Algorithmen ausgewertet werden.

    Man wendet das jetzt vielleicht im Bereich der Sozial- und Wirtschaftswissenschaften vermehrt an (auch bei den Geheimdiensten etc.), um die Qualität der Prognosen zu erhöhen – Wahlvorhersagen, Marktpotentiale, Gewaltbereitschaft, Börsenkurse, was auch immer. So what? Die Größe der Gruppen, deren statistisches Verhalten sie (innerhalb gewisser Zeiträume) prognostizieren können, mag dadurch kleiner werden. Doch auf Gruppengröße 1 kommen sie nicht herunter, ebensowenig wie auf hohe Eintrittswahrscheinlichkeiten in kurzen Zeiträumen oder auf langfristige Präzision.

    Und weiter:

    * Die Suche nach Kausalität im Wege der Theoriebildung und -überprüfung ist nicht wie vom Autor postuliert die einzige wissenschaftliche Methode, die zudem jetzt peu á peu überflüssig würde. Das typische Gegenbeispiel ist die Arbeitsweise der evidenzbasierten Medizin, die gerade eben nicht primär auf Kausalität abhebt.

    * Der Autors schreibt sehr schön experiments confirm or falsify theoretical models als Kern der wissenschaftlichen Methodik. Der Seitenhieb sei mir verziehen: Dass ein Sozial- oder Wirtschaftswissenschaftler mal einer seiner eigenen Thesen aufgäbe, nur weil die Wirklichkeit einen Gegenbeleg nach dem anderen liefert, kommt wohl nicht so oft vor, oder? Da vergibt man lieber Nobelpreise für einander widersprechende “Theorien” (wie ich gelesen habe, auch nicht zum ersten Mal).

    * Der Autor benutzt einen populären Begriff von “Wahrheit” bzw. “Realität”, den die Naturwissenschaften längst aufgeben mussten. Seine Ausflüge in die Physik wie Newtonian models were crude approximations of the truth sprechen nicht für ein tieferes Verständnis des Sujets. Das ist so die Ecke, aus der man Sätze hört wie “Aber das ist doch nur eine Theorie…, in Wirklichkeit ist es doch so, dass….”

    Also, Stuss.

    • #6 Joseph Kuhn
      27. Oktober 2013

      @ 2xhinschauen: In der Tendenz sehe ich es auch so. Da man nicht alle Daten dieser Welt in ein Modell packen kann, muss man auswählen und das wird wohl immer hypothesen-/theoriegeleitet sein. Vermute ich. Aber falls nicht?

  6. #7 Wilhelm Leonhard Schuster
    27. Oktober 2013

    die Möglichkeit besteht Merkel abzuhören -also geschieht selbiges.
    Die Generäle des “Führers”haben sich gewundert, daß ein Führerbefehl (Angriffsplan ct.) früher in London ankam, denn bei ihnen.
    Vor 2000 Jahren hat EINER erzählt :IHR ALLE, alle, werdet euch wie Glas (in der ENDZEIT)durchschauen, das wird dann der wahre Christenmensch sein.

    Also warum über diese Dinge(abhören), sich aufregen?

    Vorsichtig sollte man, was Amerika anlangt, gleichgültig um was es sich handelt, allerdings sein.

    Wir sind diesbezüglich schließlich gebrannte Kinder .
    Und im Zweifelsfalle stehen WIR immer allein!
    Also Angela: Denk dran auch Andere waren sich sicher recht zu haben und holten sich eine blutige Nase!
    “Keep smily”, oder so ähnlich, sagt man im Englischen, so EINEM etwas absolut nicht passt!

    • #8 Joseph Kuhn
      27. Oktober 2013

      … ich hoffe, es ist nichts Ernstes?

  7. #9 Wilhelm Leonhard Schuster
    27. Oktober 2013

    wie mans nimmt!( Ich hoffe nicht!)

  8. #10 Wilhelm Leonhard Schuster
    27. Oktober 2013

    Naja, ich weiß,daß man brutale Wahrheiten nicht gern hört!

  9. #11 Dr. Webbaer
    27. Oktober 2013

    Da man nicht alle Daten dieser Welt in ein Modell packen kann, muss man auswählen und das wird wohl immer hypothesen-/theoriegeleitet sein. Vermute ich. Aber falls nicht?

    Falls nicht, hat man sich ein Süppchen gekocht.

    MFG
    Dr. W (der auch Herrn Schuster grüßt, den alten Leistungsträger)

  10. #12 CM
    28. Oktober 2013

    Aber falls nicht?
    Wo ist das Problem, so lange sich die Akteure bewußt sind (und ich unterstelle mal hinreichend viel Intelligenz nicht derart naiv zu sein), dass viele der Marker, die dieses oder jenes Handeln nach der (kommerziell oder soziologisch) motivierten Analyse von “Big Data” mit einer best. Wahrscheinlichkeit versehen u. U. Proxy-Marker/Parameter sind. Wenn man Wissenschaft machen will, kann man an dieser Stelle immer noch erneut ansetzen und eine Studie aufsetzen, die eine abgeleitete Theorie testen kann bzw. die Daen re-evaluieren. Andernfalls können Firmen auch zufrieden sein und ihr Marketing verbessern ohne größeres Verständnis zu suchen.
    Genau hier
    Mit Big Data kann man natürlich hervorragend Vorhersagen treffen, aber dabei erstellt man die Vorhersage nicht unabhängig, sondern man erstellt sie aus Beobachtungen und überprüft sie nachher mit (weiteren) Beobachtungen. So kann man nichts lernen, also kein vereinfachtes Modell erstellen, und erst recht nichts an zugrunde liegenden Ursachen ändern, weil man die nicht kennt, da sie nicht unbedingt aus der Statistik hervorgehen.
    liegt ein Missverständnis: Wenn Wissenschaftler gleichförmige Datensätze erheben und einfallslos gleichförmige Analysen betreiben – dann, ja, dann stimmt die Aussage natürlich. Aber schon vor Big Data haben sich Leute darüber Gedanken gemacht, wie man statistische Modelle ohne Informationsverlust systematisch vereinfachen kann – das soll durch Big Data obsolet sein? Und wenn aus einer Analyse eine Hypothese erwächst / modifiziert wird, werden dann erneut gleichförmige Daten erhoben, die potentielle Kovariaten unter den Tisch fallen lassen? Dann hoffe ich auf kritische Begutachtung entsprechender Anträge …

    Und hierzu gestatte ich mir auch noch ‘nen Kommentar:
    In den Naturwissenschaften ist nichts davon neu. Nicht mal modell-loses (blindes) Data Mining ist neu. Physiker und Astronomen arbeiten schon lange mit den immer neuesten technischen Spielzeugen, mit extremen Maschinen und extremen Datenmengen, die von extremen Algorithmen ausgewertet werden.
    Alles richtig – und doch irrelevant mit Bezug auf die Philosophie der Großen Daten (wie 2xhinschauen auch schreibt). Denn viele Leute gehen anscheinden hin und werfen alles was “big” ist und mit “data” zu tun hat in einen Topf. Die Verschiedenartigkeit der Daten und der Motivation und Weise sie zu sammeln und zu analysieren wird überhaupt nicht berücksichtigt.
    In den Naturwissenschaften allgemein gibt es nämlich Arbeitshypothesen, die das Sammeln großer Datenmengen motivieren (sonst wäre es weit schwieriger dafür Geld zu erhalten). Und wenn eine solche Sammlung und Analyse kein wissenschaftlicher Ansatz im popperschen Sinn ist, weil eine solche Arbeitshypothese an sich den Kern der Falsifizierbarkeit vermissen läßt, mag das ein philosophisches Problem sein, es ist aber kein wissenschaftliches (wenn doch: Warum bitte?).

  11. #13 2xhinschauen
    28. Oktober 2013

    Da man nicht alle Daten dieser Welt in ein Modell packen kann, muss man auswählen und das wird wohl immer hypothesen-/theoriegeleitet sein. Vermute ich. Aber falls nicht?

    Die Antwort mache ich mir mal einfach: Es ist eben prinzipiell unmöglich, alle Einflussfaktoren zu berücksichtigen, denn ein Computer, der das Verhalten alle Materieteilchen im Universum … etc, muss ich nicht zuendeformulieren. Nicht mal, wenn er gar nicht in real time arbeitet.

    Ein zweites Argument ist die menschliche Neugier, ihre Bedürfnis nach Kausalität. Menschen geben Milliarden selbst für praktisch nutzlose Forschungsinstrumente aus (z.B. Teleskope), um ihre Neugier zu stillen, und die gleiche offenbar triebhafte Sucht nach Kausalität verführt sie zur Erfindung von Geistern, Göttern, Verwünschungen und Chemtrails. Je monokausaler desto besser (letzteres gilt ja auch für Naturforscher)(ich wusste bis eben gar nicht, dass man “monokausal” steigern kann :-)) Und wie CM schon schreibt, der Mensch findet überall Ansatzpunkte für Kausalitäten, auch und gerade in “Big Data”.

    Die Verschiedenartigkeit der Daten und der Motivation und Weise sie zu sammeln und zu analysieren

    Guter Punkt. Für die kommerzielle Verwertung mag Korrelation reichen. Einem Forscher kann das nicht genug sein.

  12. #14 2xhinschauen
    28. Oktober 2013
  13. #15 Joseph Kuhn
    28. Oktober 2013

    @ 2xhinschauen: 🙂

  14. #16 Wilhelm Leonhard Schuster
    29. Oktober 2013

    @Dr Webbaer
    Dank für den Gruß -der niemanden auf den Gedanken bringen sollte, daß da geheime Verschwörungen,
    auch nach “zweimaligem Hinschauen” nicht ,”spinnenmäßig” gesponnen werden.
    Auch wenn der WLS, so manches Süppchen hat auslöffeln müssen, obwohl er zunächst “absolut”monierte:
    ” Nein, DIESE Suppe eß ich nicht!”
    Mund verzogen , keep smily un runner mitm Fraß!
    Es,….ist wie gesagt,immer noch eine gute Methode um zu (über)Leben.

    Und abhören hin ,abhören her ,wenn man die Zeit , ab nach 47 betrachtet, können wir in Summa mit den uns vorgesetzten Suppen und Abhörmethoden (zumindest im Westen “Doitschlands” ), hochzufrieden sein- auch wenn es besser gewesen wäre, mehr als nur die “Autobahnen” aus “der Zeit vorher” zu übernehmen.

    • #17 Joseph Kuhn
      29. Oktober 2013

      “auch wenn es besser gewesen wäre, mehr als nur die “Autobahnen” aus “der Zeit vorher” zu übernehmen”

      Was denn?

  15. #18 Wilhelm Leonhard Schuster
    30. Oktober 2013

    @Joseph Kuhn, ich habe soeben im Fernsehen eine Unterhaltung über ” Abhören” verfolgt .
    Von Interesse, war das Verhalten von Herrn Kornblum und Frau Justizminsterin Leuthäuser . (Emotional beidseits)!

    Die teils idealistische Unvernunft Nachkriegsdeutschlands
    bzw. seiner politischen Vertreter,konnte nicht besser dargelegt werden.
    (Streit: Was sind “Freunde,Partner, Interessen ct.)?
    (Problematik Sarrazin- Asyl ct.aber das nur als Beispiel. Dies wurde bei der Diskussion ja gar nicht behandelt)
    Wenn ich also sage man” hätte von damals” einiges mehr übernehmen können ,so meine ich :
    Es hätte nicht schaden können, “Deutsche Interessen” etwas zäher gegenüber “dem Westen ” zu vertreten –
    zwar nicht so brutal, wie jene Staatsführer das damals
    taten bzw. versuchten (die waren einfach dumm und leichtsinnig in der Abschätzung von Machtfragen) aber doch so zäh und schlitzohrig, wie Adenauer selbiges vorgelebt hat.
    (Der hat sich doch auch an den Erfahrungen eines Globke orientiert, der in die Politik der Vorkriegsjahre guten Einblick hatte.)

  16. #19 Andreas
    30. Oktober 2013

    Im Artikel und in der Diskussion kommt meiner Meinung nach zu wenig heraus, dass die meisten Modelle (egal ob aus theoretischen Überlegungen oder aus statistischen Betrachtungen) nur Wahrscheinlichkeiten angeben. Wenn man Gruppen von Individuen betrachtet (z.B. Menschen, die sich mit Grippe anstecken) ist das auch völlig OK und erlaubt gute Vorhersagen.

    Für den Einzelnen (das Subjekt) haben diese Wahrscheinlichkeiten eine andere Bedeutung und erlauben nur sehr begrenzt eine Vorhersage im Alltag. Das sollte allen Bewusst sein, insbesondere, wenn Entscheidungen schwerwiegende Konsequenzen haben (ganz krass: die Entscheidung ein Kind auszutragen, das eine höhere Wahrscheinlichkeit eine bestimmte Erkrankung zu entwickeln; aber auch Entscheidung jemanden Einzustellen, zu Verurteilen usw.)
    BTW: Männer sind Frauen körperlich überlegen:

    https://youtu.be/UBYJF6qf_RA

  17. #20 2xhinschauen
    30. Oktober 2013

    @Andreas, genau das hatte ich (wortreicher) sagen wollen: Vorhersagen für Individuum sind gewiss auch in der absehbaren Zukunft unmöglich. Egal, ob ich meine (Beispiel) 20%- Vohersagen von “200 aus 1000” über “20 von diesen 100” zu “Hey, 2 von Euch 10 werden diese Krankheit entwickeln” oder “…trotz Kettenrauchen 80 Jahre alt werden” verfeinern und präzisieren kann: Welche 2 von den 10 wird man auch mit noch so viel Forschung nicht zuverlässig vorhersagen können.

    OT: Das eben war ein kleiner Nebenaspekt davon übrigens, dass “20%” eben nicht in jedem Kontext immer dasselbe heißt, Beispiel: Eine Rückfallquote von 20% klingt nicht nach viel. Aber wenn man sich bewusst macht, dass dann zwanzig(!) von 100 als geheilt Geltenden (oder als geläutert Entlassenen) doch vorzeitig sterben (oder wieder Leute umbringen) werden, klingt das gleich ganz anders als das abstrakte “20%”, gell?

  18. #21 Joseph Kuhn
    31. Oktober 2013

    @ Andreas: Ja, sehe es ähnlich. Von der Bedeutung statistischer Aussagen für den Einzelfall (einschl. ihrer tatsächlichen Relevanz für die Dekonstruktion des Subjekts, siehe dazu oben im Blogbeitrag) einmal ganz abgesehen: Solange die Wirtschaftswissenschaftler die Wirtschaftsentwicklung nicht einigermaßen verlässlich voraussagen können, bleibt auch bei Kollektiven so manche Erwartung an Big Data selbst eine höchst spekulative Prognose. Trotzdem ist es eine interessante Geschichte, sowohl von den (partiellen) Erfolgen der Projekte her als auch mit Blick auf die daran anknüpfenden wissenschaftstheoretischen Überlegungen.

  19. #22 Jens
    Frankfurt
    31. Oktober 2013

    Ich verstehe die Aufregung hier im Forum nicht ganz. Ja, es gibt bereits statistische Analysen, der Ergebnis zur Erstellung neuer Theorien verwendet werden (lt 2xhinschauen z.B. in der Medizin). Ganz allgemein ist dies m.E. der Sinn einer “industrialisierten” Abduktion. Durch Big Data wird dies in zunehmender Weise und Treffgenauigkeit passieren. Es wird ja nicht behauptet, dass alle Theorien so ersetzt werden können oder Theorien ganz ihre Bedeutung verlieren. Auch werden Theorien (egal wie gebildet) in den Sozialwissenschaften fast nie den Einzelfall vorhersagen können. Aber wenn eine Korrelation zeitlich stabil ist, kann man schon auf den Gedanken kommen, dass es sich vielleicht um eine Kausalität handelt und eine Theorie aufstellen. Wir sollten daher eher anfangen, die Folgen abszuschätzen, wie es der Autor versucht, als die Erfolge der Methode kleinzureden.
    Noch eine kleine Randbemerkung: Einige der wichtigsten Test parameterfreier Statistik sind von Sozialwissenschaftlern (z.B. Pädagogen) entdeckt worden. Also Vorsicht mit der disziplinären Arroganz 🙂

  20. #23 Dr. Webbaer
    31. Oktober 2013

    Es wird ja nicht behauptet, dass alle Theorien so ersetzt werden können oder Theorien ganz ihre Bedeutung verlieren.

    Im Artikel kam halt u.a. die modische Wendung ‘End of Theory’ vor.

    Blöderweise erfolgt, wegen ihrer Ausschnittsartigkeit, bereits die Datenerhebung (Messung, Erfassung) von Daten einer Theorie (“Meßtheorie”) oder einem Modell, das zig Theorien repräsentiert, wie auch die Abfrage (technisch auch ‘View’ genannt, eine Theorie ist bedeutungsähnlich ebenfalls eine Sicht).

    Die Idee, dass ein Ende der Theoretisierung erreicht werden kann, ist dezent formuliert abwegig.
    Anmerkung: Die Sichtenbildung/Theoretisierung benötigt immer einen Gegenstand und einen Betrachter.

    MFG
    Dr. W (der hier nicht näher zwischen der Hypothetisierung und der Theoretisierung unterscheiden möchte – korrekt bleibt natürlich, dass “Big Data” zukünftig auf Grund besonderer Maßgaben (“Metatheorien”) in der Lage sein könnte, Theorien (die vielleicht kaum noch bis gar nicht mehr vom Primaten verstanden werden können) nahezulegen)

    PS: Vielleicht wird im alltäglichen Gebrauch die Theorie überschätzt, es ist halt immer nur ein Provisorium, ein Werkzeug, Sichten dienen im Ringen um das Wissen und dieses ist Veranstaltung.

  21. #24 2xhinschauen
    31. Oktober 2013

    …sind von Sozialwissenschaftlern (z.B. Pädagogen) entdeckt worden. Also Vorsicht mit der disziplinären Arroganz

    Naja, der Ansatz ist ja nicht schlecht oder nutzlos! Wenn man nur Zitronen hat, muss man halt Zitronensaft machen *smile

    Aber im Ernst, ob in einer Korrelation womöglich Kausalität steckt und damit eine haltbare Theorie, ist for all practical purposes doch völlig wurscht. Wenn ich eine These habe, die mir in mehr als 50% der Fälle korrekte Börsenkurstendenzen vorhersagt, brauche ich doch keine Theorie dafür. Der Minirock-Indikator ist so ein Fall zwischen Verschwörungstheorie und Kausalzusammenhang. Dummerweise ist auch die Mode nicht vorhersagbar, dieser Indikator also auch nicht prognosetauglich.

    Die Volkswirtschaftler wären doch heilfroh, wenn die tatsächlich sehr harte Mathematik ihrer Modelle (Preiselastizitäten, I=S, Wechselkursänderungen/Export-Importänderungen …) in der Praxis für zutreffende Prognosen benutzt werden könnten statt nur zur Erklärung der Vergangenheit. Soll heißen, selbst dort, wo sie Kausalitäten dingfest gemacht haben, wissen sie zuwenig über die wahre Welt für haltbare Prognosen. Wenn Korrelationen oder “Big Data” da weiterhelfen, um so besser. Die Meteorologen sind da deutlich weiter, aber da steckt eben viel Physik drin. Dieses Korrektiv haben die Wirtschafts- und Sozialwissenschaftler nicht.

    Aber “the end of theory” ist das doch alles nicht.

  22. #25 Joseph Kuhn
    1. November 2013

    @ 2xhinschauen:

    “selbst dort, wo sie Kausalitäten dingfest gemacht haben, wissen sie zuwenig über die wahre Welt”

    Nur nebenbei, mit Big Data hat das nicht unmittelbar zu tun: Ob die Ökonomen in ihren Erklärungen immer “Kausalitäten” festgemacht haben, darf man durchaus bezweifeln. Wie Sie einen Satz vorher schreiben, geht es oft auch nur um mathematische Zusammenhänge in Modellen, bei denen die Modellannahmen nicht gut in der Wirklichkeit verankert sind – daher auch der alte, aber nach wie vor nicht obsolete Vorwurf von Hans Albert, die Wirtschaftswissenschaften würden zuweilen Modellplatonismus betreiben. Umgekehrt scheinen empirisch arbeitende Ökonomen manchmal auch ihre Modelle zu sehr an die reinen Fakten anzupassen (hier ist man schon wieder näher an Big Data), im Sinne eines statistischen Overfittings, so dass die durch den nächsten Datensatz (die nächste Konjunkturwelle etc.) widerlegt werden. Ganz bösartige Kommentare gehen dann so weit zu sagen, die Prognosen der Ökonomie befänden sich eben noch auf dem Stand der Astrologie. Aber das ist natürlich ganz arg übertrieben. 😉

  23. #26 Dr. Webbaer
    2. November 2013

    Ganz bösartige Kommentare gehen dann so weit zu sagen, die Prognosen der Ökonomie befänden sich eben noch auf dem Stand der Astrologie.

    Bereits auf der Ebene der Betriebsmathematiker könnte derart postuliert werden. Der Unterschied ist aber, dass es dort Entscheider gibt, die bspw. finanzmathematische Analysen einzuordnen wissen, die Daten aber als sachnah erhoben anerkennen.
    Die Volkswirtschaftslehre hat schon an der Erfassung zu nagen. Sie ist demzufolge auch Ideenlehre oder primär Ideenlehre, hier setzt sich in der Regel diejenige Ideenlehre durch, die ex post recht hatte.
    Es gab ja auch eine wunderschöne sozialistische Wirtschaftskunde, die auch heute noch Einfluss hat auf bestimmte dem Sozialapparat nahe stehende Kreise.

    Womit man bei der Kultur wäre, die neu bereit stehenden “Big Data”-Werkzeuge sind letztlich sozusagen kulturelle Werkzeuge, die ihren Nutzen über die Nutzer rechtfertigen oder gewinnen.

    MFG
    Dr. W

  24. #27 MJ
    2. November 2013

    Hier ist eine Art Paper (18. Oktober 2013), ueber den Shift, den Big Data in den Sozialwissenschaften (oder was auch immer “social sciences” auf deutsch sind) verursachen und die neue Rolle fuer Theorie:”Restructuring the Social Sciences: Reflections from Harvard’s Institute for Quantitative Social Science”:

    https://gking.harvard.edu/files/gking/files/psc47_1-1300153-king-2.pdf

  25. #28 MJ
    2. November 2013

    Und weil’s so mehr schlecht als recht, aber irgendwie zum Thema – nicht des Posts, aber der Kommentarteil-Diskussion – passt, hier bitte ein Arbeitspaper, dass sich den Falsifikationismus (?) schon quasi in den Titel (meines Erachtens der beste aller Zeiten) schreibt:”Continued Existence of Cows Disproves Central Tenets of Capitalism?”

    https://www.nber.org/papers/w19437

    (Ich muss allerdings anmerken, dass der Text nicht so pfiffig wie der Titel ist, sondern uuuuur-langweilig.)

  26. #29 2xhinschauen
    3. November 2013

    @Joseph Kuhn, ich neige zum Poltern, ich weiß. Das hat auch Nachteile, aber den Vorteil, Gegenargumente zu provozieren, aus deren Qualität und/oder deren Inhalt man was lernen kann. Bisschen egoistisch, aber gleichwohl danke für die Einordnung. Und “Modellplatonismus” kannte ich noch gar nicht 😀

    @Dr. Webbaer, das mit der “Ideenlehre” ist doch gerade das Problem mancher “Wissenschafts”disziplin, so gerade der VWL. Fast alle ihre Thesen stimmen ein wenig und erklären ein bisschen was, der Rest ist Überzeugung, Glaube, Ideologie, oder auch nur die Prominenz des jeweils Vortragenden.

    noch auf dem Stand der Astrologie

    Hihi, wenn man das hinsichtlich Methoden, Theoriegebäude und Vorhersagekraft mal so vergleicht, muss man eher zurückfragen: Wieso “noch”?

  27. #30 Dr. Webbaer
    3. November 2013

    (…) das mit der “Ideenlehre” ist doch gerade das Problem mancher “Wissenschafts”disziplin, so gerade der VWL. Fast alle ihre Thesen stimmen ein wenig und erklären ein bisschen was, der Rest ist Überzeugung, Glaube, Ideologie, oder auch nur die Prominenz des jeweils Vortragenden.

    Jein. Ideenlehren sind regelmäßig alternativlos, nicht nur hier, d.h. es muss sie geben. (Dagegen bezeichnet Eure Mutti Entscheidungen als alternativlos, was dull ist.)

    Bei Ideenlehren ist die Empirie wichtich, was hinten rauskommt, da bekommen dann einige ex post recht.

    Herr Dr. Kuhn hat die Prognostik sinnvollerweise angegriffen, nicht das Wesen der Ideenlehre, wenn hier korrekt verstanden worden ist.
    Man kann noch so viele Daten erfassen, ohne Idee, Ideologisierung oder Theorie geht es nicht.

    MFG
    Dr. W

  28. #31 Joseph Kuhn
    3. November 2013

    @ MJ: Danke für den Gary-King-Link. Die Frage nach der Rolle der Theorie in Big Data-Zeiten beantwortet er ja geradezu unwiderstehlich pragmatisch. Interessant aber auch seine Schlussperspektive, die positive Einschätzung der Zukunft der social sciences und die Verknüpfung dieser Zukunft mit der Fähigkeit, gesellschaftlich relevante Probleme zu lösen – das erinnert etwas an manche Diskussionen zur gesellschaftlichen Relevanz der akademischen Psychologie hierzulande vor 30 Jahren, oder an das in Public Health-Zusammenhängen gerne angebrachte Bonmot “Daten für Taten”.

  29. #32 MJ
    3. November 2013

    @ 2xhinschauen

    Schwierig zu sagen, worauf Sie sich beziehen, da sie ja kein spezifisches Thema aufgreifen. Wie dem auch sei, das Thema ist kuerzlich (mit vielen Links zu relevanten Diskussionen in der rezenten Vergangenheit) von Ingrid Robeyn in einem Post “Economics as a moral science” aufgegriffen worden, hier:

    https://crookedtimber.org/2013/10/31/economics-as-a-moral-science/

    Jetzt einmal die Frage beiseite, ob Oekonomie irgendein Wissenschaftskriterium erfuellt (gibt ja nicht nur das von Popper und die davon abgeleiteten, die allesamt ein bisschen tautologisch auf “Physik” verweisen – und die Aussage “XY ist nicht wie Physik” ist ein wenig inhaltsleer? – und die zum Rest i.d.R. genau gar nichts zu sagen haben, ausser eben genau das, naemlich dass es eben nicht wie Physik ist…). So oder so, Robeyn verneint ja nicht nur die Wissenschaftlichkeit von Oekonomie, sondern plaediert dafuer, dass Oekonomie auch gar nichts dergleichen werden soll (Wissenschaftlichkeitskriterien sind ja i.d.R. Abgrenzungskriterien, keine Sinnkriterien).

    Robeyn geht vor allem auf die der Wohlfahrtstheorie meist inhaerente Pareto-Effizienz ein (siehe auch Kommentare von John Quiggin im Kommentarteil). Was ich da interessant finde ist, dass Big Data in der Hinsicht ueberhaupt gar keine Funktion haben, wenn ich das halbwegs richtig verstehe.

    Ein Beispiel: Oekonomen stellen die “optimale” Hoehe einer Emissionssteuer fest, indem sie den “social cost of carbon” (SCC) mit “integrated assessment models” (IAM) berechnen, und dann eine Steuer knapp unter den SCC ansetzen. Einen relevanten Aspekt dieser Art von Kosten-Nutzen-Rechnung hat der Stern Review (was auch immer man davon haelt) ins oeffentliche Bewusstsein gebracht: den Diskontsatz. Wir stehen dabei in seiner gaengigen Form vor zwei Fragen: a) wie bewerten wir zukuenftige Generationen gegenueber der jetzigen (pure rate of time preferene PRTP), b) wie bewerten wir soziale Ungleichheiten (“inequity aversion”, der Parameter ‘misst’ auch noch andere Sachen, es handelt sich genauer um die “elasticity of the marginal utility of consumption”). Das heisst: positives Wachstum angenommen (wie in den IPCC-Szenarien, sonst haetten wir ja nur ein relativ kleines Problem mit Emissionen), wuerde uns der Gedanke, dass wir zukuenftige Generationen der jetzigen gleichgestellt behandeln muessen eine PRTP von 0 geben (es ist etwas komplizierter, bei Stern ist es 0.1 nach inetwa diesem Kriterium); andererseits, da diese Generationen qua Wachstum reicher sind als die jetzige, wuerden der zweite Parameter den Diskontsatz nach oben druecken (er wird mit der Wachstumsrate multipliziert und dann zur PRPT addiert – bei Stern ergibt das 1,4 Prozent: er hat einen ‘inequity’-Parameter von 1, was sehr niedrig ist). So, und jetzt hat es dann von oekonomischer Seite (naemlich wirklich jedem, der im Bereich arbeitet) Kritik gehagelt. Die Gruende dafuer sind vielfaeltig, fuer diese Diskussion scheint mir einer relevant: Stern ignoriert empirische Befunde. Sprich: was auch immer man nach moralphilosophischen Ueberlegungen befindet, wie wir zukuenftige Generationen behandeln sollten, Menschen weisen etwa eine PRPT von deutlich groesser 0 auf, Stern wuerde damit seine eigenen Praeferenzen der Gesellschaft gegen deren Willen verordnen und Philosophenkoenig und ueberhaupt und bla bla bla. Die Sache ist natuerlich: Klimawandel betrifft auch noch Generationen in sehr weiter Zukunft, und die PRTP-Werte, die empirisch gefunden werden, beruhen einfach nicht auf Entscheidungen, die derartig lange Zeithorizonte betreffen (mit von der Partie sind damit Ueberlegungen, ob die Menschheit prinzipiell an einem Punkt angelangt ist, wo solche Ueberlegungen eine Rolle spielen muessen).

    Kurz: Daten, big oder klein, bringen uns hier ueberhaupt nicht weiter. Es gibt zwar Daten, und sie sind relevant: ob nun “richtig” oder nicht, eine politische Massnahme (etwa eine besonders hohe Emissionssteuer), die Praeferenzen eines Gutteils der Bevoelkerung ausser Acht laesst (und so lange halten muss wie eine Emissionssteuer), koennten leicht nach hinten los gehen (abgesehen vom inhaerenten Paternalismus solcher moralischen Entscheidungen, die vielleicht nicht jeder teilt). Andererseits kann man dieses Argument ad absurdum fuehren: man kann so ziemlich jeden fast beliebig hohen Schaden (aber nur begrenzten, unendliche “disutility” funktioniert analytisch nicht) rechtfertigen, wenn man ihn nur weit genug in die Zukunft schiebt, weil man ihn so einfach weg-diskontet. Das sieht man auch wieder bei der Klimawandeldiskussion: eine Verminderung der Transient Climate Response (TCR) vermindert auch SCC-Schaetzungen, selbst wenn die Gleichgewichts-Klimasensitivitaet (ECS) gleich bleibt (siehe dazu Weblogs von Chris Hope, von dem das IAM PAGE stammt – dessen fruehere Version PAGE2002 auch fuer den Stern Review verwendet wurde – stammt, und der diesbezueglich Rechnungen angestellt hat, ich kann ihnen die Posts raussuchen, wenn sie wollen). Nun ist es schwierig zu sagen, was genau die Aenderung eines einzelnen Parameters in so komplexen Modellen konkret anstellt (und spezifisch PAGE ist auch nicht frei zugaenglich), aber ziemlich sicher spielt die Tatsache, dass eine niedrigere TCR bei gleichbleibender ECS die Realisierung von Schaeden weiter in die Zukunft verschiebt (d.h. sie werden staerker diskontet) eine Rolle.

    Das ist ein Dilemma, eine Loesung ist relevant, und Daten (und schon gar nicht Wissenschaft, vor allem im eng gefassten Sinne) koennen uns darauf einfach keine Antwort geben.

    Damit es nicht zu einfach wird: natuerlich spielt der wohlfahrtstheoretische Rahmen auch in anderer Hinsicht eine Rolle. Die quasi-Totalitaet aller IAM-basierten Kosten-Nutzenrechnungen spielt sich innerhalb eines utilitaristischen Rahmens ab (siehe etwa Diskontsatz), Stern ist dabei keine Ausnahme. William Nordhaus hat dies kritisiert, weil eine Neubewertung der Problemstellung unter ethischen Gesichtspunkten eine viel weiter gefasste Diskussion verlangen wuerde (siehe Nordhaus’ Kommentar “The Stern Review on the Economics of Climate Change”). Ein Vorschlag, den er macht, ist eine “Rawlsian perspective that societies should maximize the economic well-being of the poorest generation. The ethical implication of this policy would be that current consumption should increase sharply to reflect the projected future improvements in productivity.” Das ist leicht gesagt, aber modelliere einer das einmal! Umgesetzt wird das etwa durch eine modifizierte maximin-Nutzenfunktion (dann entsprechend “Rawlsian utility function). Ein Paper, dass so etwas in Bezug auf Klimawandel modelliert hat (“Climate policy with Bentham–Rawls preferences”) ist hier:

    https://ideas.repec.org/a/eee/ecolet/v118y2013i3p424-428.html

    Wiederum dasselbe Problem: wir koennen alles moegliche modellieren, aber die Frage, was “richtig” ist koennen uns weder Data noch Wissenschaft erklaeren. Das Problem hier ist nicht die “Unwissenschaftlichkeit” der Wirtschaftswissenschaften, sondern dass ihre Konklusionen schlicht nicht invariant gegenuber unserer ethischen Perspektive sind.

    Und in dem Sinne, so meine Gedanken zu Robeyns Post, sollte Oekonomie gar nicht versuchen, mehr wissenschaftlich zu werden: es ist ein truegerisches Ziel, eben genau weil in den meisten Diskussionsn “Wissenschaftlichkeit” mit “Sinnhaftigkeit” gleichgesetzt wird (gegen etwa Poppers explizite Warungen in dieser Hinsicht!). Dazu muss man sich natuerlich anschauen, was Oekonomen heut wirklich machen, und nicht politische Diskussionen von vor einem halben Jahrhundert aufwaermen um Position als Oekonomie-kritisch darzustellen, die wenig mehr sind als verkappte poltische Standpunkte.

  30. #33 MJ
    3. November 2013

    @ Joseph Kuhn

    Fuer die Diskussion zur gesellschaftlichen Relevanz der akademischen Psychologie von vor ein paar Jahrzehnten hierzulande (vermutlich Deutschland) muessten sie mich aufklaeren oder verweisen, darueber weiss ich einfach uberhaupt gar nicht bescheid. Wie sieht die Bilanz aktuell aus?

  31. #34 MJ
    3. November 2013

    Der Vollstaendigkeit halber: Ingrid Robeyns’ oben verlinkter Post ist schon ein paar Tage alt. Sie verlinkt dabei zwei Posts von Eric Schliesser, der seither eine (leicht kritische) Antwort darauf geschrieben hat:

    https://www.newappsblog.com/2013/11/ingrid-robeyns-has-a-very-nice-post-at-crookedtimber-with-an-excellent-discussion-on-why-economics-should-become-much-more-aw.html#more

  32. #35 Joseph Kuhn
    4. November 2013

    @ MJ:

    Ende der 1960er Jahre gab es im Umfeld der Studentenbewegung heftige Auseinandersetzungen um die gesellschaftliche Relevanz der Wissenschaft, vor allem, was ihr emanzipatorisches Potential angeht. In der Psychologie ging dies so weit, dass auf einem Kongress 1969 eine Resolution zur “Zerschlagung der Psychologie” verabschiedet wurde, weil sie immer eine Herrschaftswissenschaft sei. Diese Debatte wurde bereits Anfang der 1970er Jahre kritisch reflektiert, z.B. in Holzkamp K. (1970): Zum Problem der Relevanz psychologischer Forschung für die Praxis”, Psychologische Rundschau XXI, 1-22, auch im Internet findet man das eine oder andere dazu. Hintergrund war eine akademische Psychologie, in der in der Tat die Gesellschaft und die Leute mit ihren Lebensproblemen praktisch nicht vorkamen, weder in der alten, spekulativ-geisteswissenschaftlichen Psychologie, noch in den damals jungen behavioristischen Strömungen. Das ist heute sicher anders, schon durch die mittlerweile starke Präsenz der klinischen Psychologie an den Universitäten (was immer man im Einzelnen davon halten mag).

    Ihren Kommentar für “2xhinschauen” habe ich nicht wirklich verstanden. Der Anfang liest sich wie ein Plädoyer dafür, die Wirtschaftswissenschaften als normatives System zu verstehen, am Ende wird davor gewarnt, alte politische Diskussionen aufzuwärmen und dass man sich lieber ansehen solle, was Ökonomen heute wirklich machen. Vermutlich machen sie recht unterschiedliche Sachen. Auf jeden Fall stellen viele von ihnen Prognosen, z.B. was die Auswirkungen eines Mindestlohns oder einer Steuererhöhung angeht. Sollten diese Prognosen nicht konkret überprüfbar sein und möglichst auch noch stimmen?

  33. #36 MJ
    4. November 2013

    @ Joseph Kuhn

    Ja, in Anlehnung an Robeyns’ Post meinte ich, dass man normative Aspekte, die den Wiwi inhaerent sind, diskutieren sollte – und dass ich noch nicht einmal sehe, wie es ohne diese gehen sollte (ob man sie gleich als normatives System verstehen sollte, bin ich mir nicht so sicher). Als Beispiel habe ich daher die Behandlung des Diskontsatzes im Stern Review gebracht, der bis dahin in dieser spezifischen Literatur keine groebere Diskussionen verursacht hat, sondern aus Marktdaten abgeleitet wurde (mit Ausnahmen). Das zweite Beispiel waere eben die (potentielle) Pareto-Effiziens bei Kosten-Nutzen-Rechnungen, die zwar zum Standard gehoert, aber natuerlich ebenso normativ ist – eine modifizierte maximin-Nutzenfunktion ergibt andere Resultate. Es genuegt nicht Impacts durch AGW festzustellen, ihre Valuierung ist relevant, und Big Data koennen uns da keine Antwort geben. In diesem Sinne haben Wirtschaftswissenschaften ein inhaerent normatives Element, und es ist (fuer mich) schwer zu sehen, wie es anders sein koennte. Es ist zudem so relevant wie es unwissenschaftlich ist.

    Aufgewaermte Diskussionen waeren etwa “Effiziente Maerkte”, die nun wirklich seit Jahrzehnten im akademischen Rahmen keine Rolle mehr spielen, aber immer wieder in schwerst politische gefaerbten Diskussionen als angebliche Grundlage von Wiwi angefuert werden. (AGW ist natuerlich das Beispiel schlechthin fuer ein Marktversagen). In der Folge haben wir Diskussionen, wie Oekonomen den Klimawandel angeblich nicht ernst nehmen, weill sie so marktglaeubig sind (Beispiele finden sich bei Grist, oder Joe Romm); und auf der anderen Seite haben wir die Wahnsinnigen, die tatsaechlich nichts gegen AGW machen wollen, weil ‘selbsregulierende Maerkte’ etc. (etwa auf Café Hayek). In diesen Sinnlos-Diskussionen, die ausschliesslich aus alten link-rechts-Graeben gekaempft wird und genau gar nichts mit der Literatur zum Thema zu tun haben, gehen eigentliche Diskussionen in der Literatur unter, die sich zu diesem Problem stellen (Diskontsatz, Wohlfahrtsfunktion, etc.). Will heissen: es hilft nichts sich ueber Sinn und Unsinn “effizienter Maerkte” zu echauffieren, wenn die Literatur zum Thema weder Annahmen noch Forderungen diesbezueglich macht.

    Das heisst natuerlich nicht, dass Big Data (oder emprische Befunde generell) ueberhaupt gar keine Rolle spielen – oder das es jetzt ueberhaupt keinen Platz mehr fuer positive Wiwi gibt (wie gesagt, das mit dem normativen System unterschreibe ich so nicht). Auch das gilt natuerlich fuer AGW: so relevant das Problem der Evaluierung von (zukuenftigen) Impacts durch Klimawandel ist, hilft das alles nichts, wenn etwa die Impacts selbst falsch eingeschaetzt werden (und es gibt ja auch Diskussionen darueber, ob Schaeden durch die Schadensfunktion in IAMs richtig dargestellt werden oder nicht).

    Mit etwas Muehe kann ich so ein Beispiel auch mit Mindestlohn konstruieren: so viel ich weiss, zeigen die allermeisten Studien (fuer die USA) im grossen und ganzen keinen Effekt auf Beschaeftigung:

    https://www.cepr.net/documents/publications/min-wage-2013-02.pdf

    Dann gibt es aber dieses rezente Arbeitspaper, dass negative Effekte, aber vor allem langfristig sieht:

    https://www.nber.org/papers/w19262

    Jetzt einmal angenommen letzteres stimmt (ich sage ja “mit etwas Muehe”), haben wir einen Tradeoff kurzfristiger Nutzen/langfristiger Schaden. Wie bewerten wir den? Haben wir ein Recht auf Besserstellung von Mindestlohnarbeitern in spe auf Kosten langfristiger Beschaeftigungsniveaus?

    Was ich damit sagen will: ja, klar ist es relevant, dass wir die Effekte eines wie auch immer gearteten Mindestlohns richtig hinbekommen. Aber selbst WENN wir die Effekte richtig hinbekommen, sagt uns das nicht unbedingt viel. Sollte ein Mindestlohn kurzfristig zu einer Verbesserung, aber langfristig nachteilig sein (wofuer die Evidenz recht duenn ist), sehe ich so auf Anhieb nicht, wie wir ohne normatives Kriterium zu einer Entscheidung kommen sollten (Feststellen, ob der Ntuzen groesser als der Schaden ist, geht ja eben nicht ohne normatives Kriterium, eben genau weil wir wiederum entlang von time preference und inequity aversion entscheiden muessen). Big Data hin oder her, in der Hinsicht helfen sie nicht weiter, oder?

    “2xhinschauen” meinte, dass die Wiwi manches halbwegs hinkriegen, aber der Rest politisches/ideologisches Gehacke ist. Letzteres halte ich hauptsaechlich fuer alte politische Grabenkaempfe, die nicht viel mit akademischen Wiwi zu tun haben (aber ich weiss es eben nicht, weil er sich auf nichts konkret bezogen hat). Was ich aber sehr wohl glaube ist, dass es normative Aspekte gibt, die zur Diskussion stehen (sollten). Die haben aber weniger mit “richtig vs. falsch” zu tun, als dass sie dem Feld inhaerent sind, das sich dementsprechend positionieren und nicht eine Stellung als Wissenschaft anstreben sollte, die nur dazu fuehrt, dass normative Aspekte vernachlaessigt oder verschleiert werden.

  34. #37 Joseph Kuhn
    4. November 2013

    @ MJ: Selbst empirisch richtige Prognosen beantworten nicht die Frage, was normativ richtig ist und getan werden sollte – das ist (logisch) richtig, alles andere wäre ein naturalistischer Fehlschluss. Die Normativität der Wirtschaftswissenschaften im Auge zu behalten, ist daher sicher notwendig, das gilt übrigens auch für andere “Handlungswissenschaften” (mal tastend so genannt), z.B. wird gerade in Bielefeld ein Arbeitsbereich “Normative Aspekte von Public Health” aufgebaut, eine höchst überfällige Sache. Insofern, wenn ich Ihr Argument jetzt richtig verstehe, spricht die spezifische Art der Verknüpfung normativer und empirischer Aspekte mancher Wissenschaften wohl tatsächlich dagegen, dass Big Data hier je alle Fragen beantworten kann.

    Auf ein anderes, die Trennung von Signal und Rauschen betreffendes, Problem weisen Sie mit der Unsicherheit der validierenden Datenlage z.B. beim Klimawandel hin, sehr schön beschrieben übrigens in Nate Silvers Buch “Die Berechnung der Zukunft.”

  35. #38 Dr. Webbaer
    5. November 2013

    Insofern, wenn ich Ihr Argument jetzt richtig verstehe, spricht die spezifische Art der Verknüpfung normativer und empirischer Aspekte mancher Wissenschaften wohl tatsächlich dagegen, dass Big Data hier je alle Fragen beantworten kann.

    Es ist nicht die Verknüpfung des Sollens und des Seins, die “Big Data” den Nutzen betreffend in Frage stellt, sondern bereits die Ausschnittsartigkeit der Erfassung und das folgende spekulative Setzen der Entitäten und deren Beziehungen, das die Beantwortung aller Fragen für alle Zeiten unmöglich macht. [1]

    Jedenfalls aus Sicht des Konstruktivisten, der Realist wird aber hier ebenfalls Gründe finden, warum “Big Data” nicht ausreichen kann.

    MFG
    Dr. W

    [1] ‘Es kann nicht alles gefragt werden.’ vs. ‘Es ist schon alles gesagt, nur noch nicht von allen.’ (ein spröder Gag von Karl Valentin)

  36. #39 2xhinschauen
    12. November 2013

    War nach #29 ein paar Tage offline.

    @Dr. W, wenn ich eine falsche Vorstellung von dem Begriff “Ideenlehre” hatte, bitte ich um pardon. Ich werd’s nachlesen.

    @Joseph Kuhn, Sie sind offenbar gut im kurz Zusammenfassen. Respekt!

    Im übrigen eine sehr akademische Debatte, der ich (schon rein zeitlich) nicht zur Gänze folgen kann. Meine pauschale Attacke auf die Wiwi allgemein und die VWL speziell wurde immerhin aufgegriffen, u.a. mit der Bitte um Konkretisierung.

    War nicht mein Anliegen, zumal ich dabei angesichts des Jargontsunami hier gewiss nur verlieren kann. Jedenfalls würde ich mich nicht auf eine Änderung meiner Ansichten einlassen, soweit sie auf (interessengetriebener?) Umdefinition von Begriffen beruht (z.B. was “Wissenschaftlichkeit” ist, bis zum Verzicht auf Falsifizierbarkeit) oder auf der Bewertung der Anwendung (nicht der Anwendbarkeit) der Thesen des Fachs in der Politik, etc.

    Im Gegenteil, ich lege nach. Was ich, mit drei Jahrzehnten Berufserfahrung in der Wirtschaft, sehe, sind Wiwi-Absolventen, die rein gar nichts für die betriebliche Praxis Relevantes können, für die sie doch angeblich ausgebildet werden, und wenn doch, stammt es aus Praktika. Zumal nichts, was man in einer betrieblichen Ausbildung nicht auch lernt, nur viel schneller. Der berufliche Erfolg von Betriebs- und Volkswirtschaftlern liegt viel mehr in Charakter und Softskills begründet als bei Naturwissenschaftlern und Ingenieuren (die die nötige BWL obendrein viel leichter dazulernen können als ein BWLer das Konstruieren von Maschinen). Wobei ich zugeben muss, kaum VWLer persönlich zu kennen, BWLer jede Menge. VWLer verbleiben wohl eher im akademischen oder Lehrbereich oder gehen in Institutionen.

    Natürlich beruht das in einer Ausbildung vermittelte Wissen und Können wie bei Technikern und Ingenieuren auf früherer Wissenschaft. Heute aber rotiert das in der Wiwi alles nur noch um sich selbst und um Politik. Ich sage ja nicht, dass Wirtschaft und Profit alles sind, wirklich nicht. Aber irgendjemand muss schließlich mit seinen Steuergeldern den ganzen aufgeblasenen akademischen Betrieb finanzieren.

    Nur um mal einen Kontrapunkt zu der vorangegangenen Debatte zu setzen.

    Ok es ging wohl in der Debatte oben nicht so sehr um die vielfach relativ lebensnahe BWL (Arbeits- und Handelsrecht, Materialwirtschaft, Investitionrechnung, Rechnungswesen, ….), sondern um die großen Zusammenhänge: Mindestlohn, Steuersätze, Leitzins etc. und was “richtig” und “falsch” ist und wie man das beurteilen kann. Allein, dass das nicht nur politisch oder ideologisch, sondern dauerhaft auch “wissenschaftlich” diskutierbar ist, macht mich indes immer stutzig.

    Genug Polemik. Im übrigen stimme ich dem Dr Webbaer erneut zu, was die Nutzbarkeit großer Datenmengen angeht: Sie ersetzen keine Theorien, im Gegenteil: Ihre Nutzbarkeit setzt Theorien, Ideen, Modelle, Ziele usw. voraus. Grips, nicht nur Silizium 😀

  37. #40 Wilhelm Leonhard Schuster
    12. November 2013

    @2x hinschauen hat mir der Bemerkung völlig recht: Wer soll den Laden finanzieren.
    Ich habe erlebt:
    Eine schöne theoretische Darstellung über BWL und Firmeneinrichtung an einer Fachhochschule.
    Ein anwesender Firmeninhaber sagt in der Diskussion: Alles schön und gut, aber erst muß ich Aufträge rein holen
    und diese haben, um Wirtschaften zu können wie Sie vorschlagen.
    Daten:
    Der Firmeninhaber verkauft später seinen Laden bevor er Konkurs anmelden muß.
    Sein Laden (an dem er beteiligt bleibt) macht unter den neuen Inhabern Konkurs.
    Der ehemalige Chef der Firma, wechselt als “Professor” in die BWL einer Fachhochschule und erzählt seinen Studenten, wie sie eine Firma “erfolgreich” müssen!

    Irgendwie lachen da die Hühner.

    Und trotz allem muß ich zugeben, daß eben “Betriebswirtschaftslehre” auch dringend nötig ist.
    (Hätte ich beispiesweise, BWL Studium gehabt, hätte ich wahrscheinlich dem” Max ” SEINE Firma retten können.)
    Wie sagte doch später ein” Inseiter” später zu mir, als ich ihm selbiges darlegte:
    “Ein großes Wort gelassen ausgesprochen”!

  38. #41 Wilhelm Leonhard Schuster
    12. November 2013

    Soll oben heißen:…… erfolgreich führen müssen.
    Aber das kann Jeder selbstverständlich selber ergänzen.
    Ich bitte meine Fehler zu entschuldigen.
    In der Firmenführung sind halt Fehler tödlich.
    Beispiel,gar nicht so selten: Eine Firma investiert eine Milliarde Heute in einem anderen Land und schließt
    ÜBER ÜBER Morgen den Laden , wegen falscher Einschätzung der Marktlage und damit ist die Unrentabilität vorprogrammiert.

  39. #42 2xhinschauen
    16. November 2013

    zugeben, daß eben “Betriebswirtschaftslehre” auch dringend nötig ist

    100% Zustimmung, nie bestritten! Der Punkt ist, dass das sehr viel mehr Handwerk als Wissenschaft ist. Und lese da bloß niemand eine Geringschätzung handwerklicher oder gewerblicher Ausbildungsgänge heraus 🙂

  40. […] kurzem hatten wir hier über Big Data diskutiert. Ein schönes, dazu passendes Buch ist „Die Berechnung der Zukunft“ von Nate […]