Bisher gewann nur einmal ein Mathematikbuch den American Book Award, Hofstadters Gödel, Escher, Bach 1980. Und seit 1987 (James Gleick: Chaos: Making a New Science) hatte es wohl kein einziges mehr auch nur in die Longlist geschafft.
Immerhin das gelang dieses Jahr Cathy O’Neil mit Weapons of Math Destruction. (Man darf gespannt sein auf den Titel der sicher bald zu erwartenden deutschen Übersetzung: das Wortspiel “weapons of mass destruction” —> “weapons of math destruction” funktioniert im Deutschen ja nicht so wirklich.)
In dem Buch geht es um Big Data und dass deren Algorithmen in der Gesellschaft heute genau so zerstörerisch wirkten wie vor 10 Jahren die Modelle der Finanzmathematik.
Big Data is largely in the hands of large corporate self-interest groups that have no motivation to establish the fair distribution of anything.
In den Rezensionen und auch von der Autorin selbst wird in den Medien der Aspekt hervorgehoben, dass Big Data den Reichen nütze und den Armen schade. “Math is racist” bringt es CNN auf den Punkt die Titelzeile.
Verbrechensstatistiken etwa dienten als Begründung, um die Polizei vor allem in ärmeren Stadtvierteln Präsenz zeigen zu lassen. Drogenkonsumierende College-Studenten blieben deshalb unter dem Radar der Polizei, wenn sie oder ihre Eltern in wohlhabenden Stadtvierteln mit geringerer Polizeipräsenz wohnen. Arme Drogenkonsumenten würden dafür um so häufiger kontrolliert und bestraft. Oder: Postleitzahlen entscheiden über Versicherungsbeiträge und Kreditwürdigkeit. Oder: wenn in ärmeren Stadtvierteln mit mathematischen Methoden die Schulen und Lehrer bewertet werden, dann nützt auch dies den Schulen der Reichen, die auf solchen Hokuspokus verzichten und dann die in den Schulen der ärmeren Stadtteile zu Unrecht gekündigten Lehrerinnen übernehmen können. (Eine solche Geschichte wird im ersten Kapitel ausführlich erzählt.)
Die politischen Interpretationen verwässern ein wenig, worum es in dem Buch eigentlich geht: dass manche Modelle eben unzuverlässiger sind als andere. Als ein zuverlässiges Modell beschreibt sie die Datenverarbeitung im Sport:
Baseball is an ideal home for predictive mathematical modeling. Baseball models are fair in part because they are transparent. Everyone has access to the stats and can understand more or less how they are interpreted.
Und dem gegenüber stellt sie Anwendungen von Big Data in vielen anderen Bereichen. Am detailliertesten arbeitet sie sich an Schulbewertungen ab:
Now you may look at the baseball model, with its thousands of changing variables, and wonder how we could even be comparing it to the model used to evaluate teachers in Washington, D.C., schools. In one of them, an entire sport is modeled in fastidious detail and updated continuously. The other, while cloaked in mystery, appears to lean heavily on a handful of test results from one year to the next. Is that really a model?
Die Geschichte, die sie zu diesem Thema als Einstieg im ersten Kapitel erzählt, beginnt so:
In 2007, Washington D.C.’s new mayor, Adrian Fenty, was determined to turn around the city’s underperforming schools. He had his work cut out for him: at the time, barely one out of every two high school students was surviving to graduation after ninth grade, and only 8 percent of eighth graders were performing at grade level in math. Fenty hired an education reformer named Michelle Rhee to fill a powerful new post, chancellor of Washinton’s schools. Rhee developed a teacher assessment tool called IMPACT, and at the end of the 2009-10 school year the district fired all the tachers whose scores put them in the bottom 2 percent.
Das Problem mit dem Bewertungswerkzeug ist dann, im Unterschied zum Baseball, dass es keine Selbstkorrektur von Fehlern gibt:
But how does it (Mathematica) learn if it was right? It doesn’t.
Es würden immer neue Werkzeuge entwickelt, aber es gäbe keine wirkliche Kontrolle, wie gut diese funktionieren. Soweit alles recht plausibel.
Die Geschichte, die sie zum Einstieg erzählt, handelt dann aber von einer Lehrerin, die entlassen wird, weil ihre Schüler sich in nur einem Jahr dramatisch verschlechtert hätten. Der wirkliche Grund dafür waren offenkundig getürkte Prüfungen mit zu guten Resultaten bei einem anderen Lehrer im Jahr zuvor. Auch das kommt sicher vor und hat zweifellos etwas damit zu tun, dass anders als beim Baseball eben kein kritisches Hinterfragen der jeweils neuen Ansätze und der daraus resultierenden Bewertungen erfolgt. Die Schlußfolgerung, die O’Neil dann zieht, ist aber nicht etwa dass manche Erziehungswissenschaftler eben nicht so engagiert arbeiten würden wie die Baseballtrainer, sondern dass es wieder einmal darum ginge, die Armen zu benachteiligen:
They tend to punish the poor. […] So, thanks to a highly questionable model, a poor school lost a good teacher, and a rich school, which didn’t fire people on the basis of their students’ scores, gained one.
(Die entlassene Lehrerin wurde nämlich von einer reicheren Schule wieder eingestellt.)
Anscheinend braucht es solche griffigen Interpretationen, um mit einem Mathematikbuch in die Medien zu kommen. Ein Skeptiker würde hier (und bei manchen anderen Geschichten im Buch) aber wohl eher Hanlon’s Rasiermesser zitieren: „Schreibe nichts der Böswilligkeit zu, was durch Dummheit hinreichend erklärbar ist.“
Einige Rezensionen und Interviews:
In an important new book, Cathy O’Neil warns us that algorithms can and do perpetuate inequality (Scientific American
Mathematician Cathy O’Neil’s book shows how numbers can be used to oppress, divide classes (Boston Globe)
Book of the Week (Times Higher Education)
Weapons of Math Destruction: invisible, ubiquitous algorithms are ruining millions of lives (boingboing)
Big Data Isn’t Just Watching You—It’s Making You Poorer (in these times)
Math Is Biased Against Women and the Poor, According to a Former Math Professor (NYMag)
Math is racist: How data is driving inequality (CNN Money)
Kommentare (18)