t2 t5 t3 t1 t4 t6
m2 1 1
m5 1 1
m3 1 1
m1 1 1
m4 1 1

Um in der derart zerlegten Abdeckungsmatrix nach Fehlern zu suchen, müssen nacheinander oder parallel 4 Blöcke durchsucht werden. Da drei von ihnen aus lediglich einer einzelnen Methode bestehen, müssen im Grunde nur die Methoden m2 und m5 betrachtet werden (die anderen sind ja garantiert fehlerhaft); dies stellt allerdings eher einen beispielbedingten Sonderfall dar – in der Praxis würden die meisten Blöcke mehr als eine Methode enthalten und müssten dementsprechend dann explizit durchsucht werden, was jedoch immer noch eine gewaltige Ersparnis an Suchaufwand bedeutet. Eine derartige Zerlegung einer Matrix kann übrigens als Mengenpackungsproblem aufgefasst und mit entsprechenden Algorithmen gelöst werden (auf die Niederschrift desselben verzichte ich einmal, reiche sie auf Wunsch aber gerne nach – auch sie ist nicht sonderlich kompliziert).

Aufmerksame Leser werden übrigens an dieser Stelle natürlich erkannt haben, dass m1 und m4 in jedem Fall beide einen Fehler enthalten, da beide Methoden durch jeweils einen Test exklusiv aufgerufen werden; der Test t1 ruft lediglich m1 auf, wohingegen t6 nur m4 aufruft. Ruft ein fehlschlagender Test lediglich eine einzige Methode auf, so muss diese natürlich auch zwangsläufig einen Fehler enthalten. Dieser Test kann zum verkürzen der Suche benutzt werden, reicht aber in der Regel nicht aus, wie der erste Block (und die Praxis – kaum ein Test ruft eine einzelne Methode auf) gezeigt haben.

Blockdiagonalmatrizen und eine darauf aufbauende weitere Zerlegung bieten sich demzufolge geradezu an, eine gegebene Abdeckungsmatrix derart zu zerlegen, dass auf eine in ihr mindestens enthaltene Anzahl von Fehlern geschlossen werden kann und sogar, wo sich diese Fehler ungefähr befinden. Die hierfür bereits existierenden Algorithmen sind jedoch relativ komplex – wie ich in diesem Artikel gezeigt habe, lässt sich das Ziel auch deutlich einfacher erreichen! In der Praxis wird dieser Ansatz meines Wissens bisher kaum bis gar nicht verwendet, was allerdings primär daran liegt, dass die verbreiteten Programmierwerkzeuge ihn schlicht nicht zur Verfügung stellen. Sollte sich jemand dazu berufen fühlen, Eclipse, Visual Studio oder eine andere IDE um einen derartigen praktisch anwendbaren Ansatz zu erweitern (im Rahmen meiner Dissertation sind natürlich Umsetzungen entstanden – nur praxistauglich sind diese nur bedingt), sei er an dieser Stelle herzlichst dazu ermutigt!

1 / 2 / 3

Kommentare (10)

  1. #1 Karl Mistelberger
    August 6, 2017

    Ein Beispiel sagt mehr als tausend Worte. Neben theoretischen Überlegungen wäre auch Fälle aus der Praxis ein lohnenswertes Thema.

    Nach gut vier Jahrzehnten einschlägiger Erfahrung bin ich bei openSUSE Tumbleweed gelandet. Die Leute tun ungefähr das, was ich mir immer vorgestellt habe und es funktioniert auch sehr gut.

    Ich habe immer die aktuelle Software und brauche mich um keine Updates kümmern.

    Momentan benutze ich Snapshot 20170802 vom vergangenen Mittwoch. Der ist nicht fehlerfrei, aber ausreichend getestet: Overall Summary of openSUSE Tumbleweed build 20170802.

    Falls es doch einmal haken sollte gibt es schnelle Abhilfe, denn die Programmierer arbeiten sowie daran und ich muss auf keine Backports warten. Ich bin selten so positiv überrascht worden.

    Last Builds for openSUSE Tumbleweed

    • #2 Marcus Frenkel
      August 6, 2017

      Wie genau steht der Kommentar jetzt in Zusammenhang mit dem Thema des Blog-Artikels?

  2. #3 Karl Mistelberger
    August 6, 2017

    Mein Kommentar nimmt Bezug auf alle 3 Teile zum Thema Fehlerlokalisierung, Komponententests, Softwaretests.

    Diese sind ziemlich theoretisch gehalten. Ein Praxisbezug wäre schon nett. Ich habe mir erlaubt ein auf real existierendes und funktionierendes Beispiel hinzuweisen.

    • #4 Marcus Frenkel
      August 6, 2017

      Dass sie theoretisch gehalten sind, ist mir klar. Darum geht es ja auch in den Artikeln – sie sollen die theoretischen Grundlagen erläutern. Was genau hat openSUSE Tumbleweed damit zu tun, wie man theoretisch die Fehlersuche auf Grundlage von Abdeckungsmatrizen parallelisieren kann?

  3. #5 Karl Mistelberger
    August 6, 2017

    > #4 Marcus Frenkel, August 6, 2017
    > Dass sie theoretisch gehalten sind, ist mir klar. Darum geht es ja auch in den Artikeln – sie sollen die theoretischen Grundlagen erläutern.

    Von jeder Theorie erwartet man, dass sie nützlich ist. Darum sollte, wenn die Stichworte Fehlerlokalisierung, Komponententests, Softwaretests auftauchen etwas zum Praxisbezug der Theorie gesagt werden. Im zitierten Artikel schreiben die Autoren:

    Localizing SQL Faults in Database Applications

    The results are encouraging and demonstrate the improvement that can be achieved with our new database-aware technique. There are, however, many areas of future work that can be explored. We performed our studies on three projects. To fully evaluate our technique, and guide additional research, we must identify other suitable subjects for our research.

    Da stellt sich natürlich die Frage, wie sieht es im richtigen Leben aus? Müssen diese Leute noch weiter forschen oder wo genau gibt es bereits Produkte, die auf dieser Basis entwickelt werden und davon auch tatsächlich profitieren? Ich erwarte ja kein selbst geschriebenes White Paper, aber Links auf solche wären schön.

    Apropos: Seit auf meinem Rechner MariaDB läuft gibt es diesbezüglich keine Probleme mehr.

    > Was genau hat openSUSE Tumbleweed damit zu tun, wie man theoretisch die Fehlersuche auf Grundlage von Abdeckungsmatrizen parallelisieren kann?

    Dass Tumbleweed damit zu tun hat habe ich nie behauptet. Anderseits scheinen die Leute die durch die Stichworte angesprochenen Probleme für ihr eigenes Produkt in den Griff gekriegt zu haben, womit sie sich bei mir beliebt gemacht haben.

  4. #6 Robert
    August 10, 2017

    Karl Mistelberger,
    danke für den Mut, praktische Beispiele zu fordern.
    Für Herrn Frenkel ist wahrscheinlich alles sonnenklar, für Außenstehende überhaupt nicht.
    Ich habe früher auch Programme selbst geschrieben und mehr durch Versuch und Irrtum die Fehler zu finden versucht.
    Ich wäre also auch an einer Systematik interessiert. Und das kann man doch auch an einem praktischen Beispiel demonstrieren.

  5. #7 Marcus Frenkel
    August 10, 2017

    Man darf bei der Diskussion nicht vergessen, dass es sich um ein akademisches Thema handelt – praktische Beispiele hierfür bedürfen einer gewissen Größe, wodurch ihre Behandlung im Rahmen dieses Blogs ungeeignet ist. Wenn es allerdings generell Interesse am Thema Unit-Tests (im ersten Teil dieser Serie nur kurz angeschnitten) gibt, kann ich dazu natürlich auch noch einen Beitrag schreiben.

  6. #8 Robert
    August 11, 2017

    Markus Frenkel,
    …….Interesse,
    das besteht. Sie scheinen da wirklich etwas sehr Praktisches konstruiert zu haben.
    Auch ein akademisches Thema kann man an einem Beispiel abarbeiten.
    Das Problem mit solchen mathematischen Modellen ist, dass man nicht sicher weiß, ob man das gleiche meint verstanden zu haben, wie der Autor es gemeint hat.

  7. #9 fherb
    August 14, 2017

    Die Frage nach dem praktischen Beispiel würde ich so nicht direkt auf Markus Frenkel abwälzen. Es ist eher ein allgemeines Problem, dass wissenschaftliche Ergebniss aus der Informatik kaum in den Werkzeugen der Softwareentwickler landen. Statt dessen muss sich ein Entwicklerteam außen rum ein organisatorisches Framework schaffen, um Qualität zu liefern.

    Ich finde, dass dabei aber die Informatiker mit ihren Ideologien sich selbst im Weg stehe: Statt Grabenkämpfe auszutragen mit welcher Programmiersprache nun am besten ein Problem gelöst werden kann, Open Source sozusagen die gesunde, natürlich und selbstverständliche vegane Ernährung des Programmierers ist und Programmiersprachen oft wie Ersatzrelegionen betrachtet werden, fällt alles, was über die Sprache hinaus geht, hinten runter. Zu einem Softwareentwicklungssystem gehört meiner Meinung nach sehr viel mehr als ein Compiler, Debuger und eine IDE mit Syntaxhervorhebung und weiteren Dingen, um überhaupt noch den Überblick zu behalten.

    Aus meiner Sicht gehört ein hochentwickeltes Testwerkzeug dazu. Asserts sind in so fern kontraproduktuktiv, weil hier ja wieder der Entwickler sich selbst prüft: Eine im Programm vergessene Division durch Null, wird ihm beim Schreiben des Test auch nur durch Zufall einfallen. Und dann kann er das Programm gleich korrigieren.

    Ein hoch entwickeltes Testsystem mit künstlicher Intelligenz produziert aber kein Hersteller. Denn dann müssten Informatiker (so wie alle anderen Ingenieure auch) mal Geld in die Hand nehmen und ein teures Entwicklungssystem erwerben. Im Maschinbau und Elektronikentwicklung sind da schnell mal 50.000 Euro weg. Da aber Informatiker sowas nie tun würden, findet sich auch keine Softwareschmiede, die Interesse daran hat, so ein hoch spezialisiertes Produkt zu entwickeln. Mir ist zumindest Keines bekannt.

  8. #10 Joachim
    Februar 20, 2021

    Vielen Dank für diese kleine Artikelserie. Ich halte das – gerade in diesem dritten Teil – für sehr praxisrelevant und logisch. Das gilt besonders in komplereren Fehlersituationen. Und die machen doch die größten Probleme. Ich denke ich muss meine Vorgehensweise umstellen/erweitern. Bleibt eine ketzerische Anmerkung: Es gibt immer noch einen Fehler mehr in der Software, da kann man testen wie man will…