Aus einem Vortrag, den ich gestern gehört habe – über mathematische Probleme der Objekterkennung – stammt dieses Bild. Offenkundig hat YOLO (“you only look once”) noch einige Probleme zu überwinden.
Link zu YOLO3: https://pjreddie.com/darknet/yolo/

Kommentare (10)

  1. #1 Aginor
    21. Dezember 2018

    Ah, das berühmte Hundeproblem.

    Hunde sind so vielfältig in ihrem Aussehen dass man sehr vieles als Hund erkennen kann. Für einen Bilderkennungsalgorithmus ist das ein fieses Problem, selbst für die hochentwickelten neuralen Netze und was es sonst so an aktueller Technik dafür gibt.

    Die Jungs bei Google hatten (oder haben) das Problem auch. Bei DeepDream z.B. sieht man auch dauernd überall Hunde.

    Gruß
    Aginor

  2. #2 rolak
    21. Dezember 2018

    auch dauernd überall Hunde

    Was soll denn dieses online-bashing, Aginor?
    Ganz eindeutig ist oben zweimal auf ‘Schaf’ erkannt worden.

    Bin ja ziemlich neugierig darauf, wann solche banal wirkenden Probleme angemessen überwunden sind. Und ob dann halbwegs verständlich beschrieben werden kann, wie sie überwunden wurden.

  3. #3 Joseph Kuhn
    21. Dezember 2018

    Blöde Hunde und dumme Schafe. Das Programm hat eindeutig Vorurteile gegen Kühe. Ein moralisches Problem, kein epistemisches.

  4. #4 Beobachter
    21. Dezember 2018

    @ Thilo:

    Wenn man die “mathematische(n) Probleme der Objekterkennung” bald besser gelöst haben wird und das Programm tatsächlich Hunde von Schafen von Kühen unterscheiden kann –
    dann kann es doch auch z. B. dunkelhäutige Menschen von hellhäutigen, vermummte von unvermummten, bepackte von unbepackten Menschen, Einzelpersonen von Menschengruppen, unterscheiden, oder …?

  5. #5 Philipp
    21. Dezember 2018

    @Aginor:

    Bei DeepDream z.B. sieht man auch dauernd überall Hunde.

    Bei DeepDream ist das kein Problem, sondern der Zweck des ganzen (bzw. ein Teil davon).

  6. #6 Aginor
    22. Dezember 2018

    @Philipp: DeepDream visualisiert das ganze, also ja, es ist nicht ein Problem von DeepDream sondern vom Algorithmus, der dauernd Hunde erkennt.

    @rolak:
    Bashing?? Wie kommst Du denn darauf?
    Natürlich sieht weder dieser hier noch der Algorithmus von Google NUR Hunde, er sieht auch genügend andere Dinge und erkennt sogar auch vieles richtig.
    Aber wenn er etwas nicht erkennt dann ist “Hund” eines der häufigsten Fehlergebnisse. Das hat mit bashing nichts zu tun. Ich habe ja sogar erläutert wovon das kommt und dass das etwas normales ist.

    Gruß
    Aginor

  7. #7 rolak
    23. Dezember 2018

    Wie kommst Du denn darauf?

    Es schien ein (auch für Andere leicht erkennbar) humoriger Einstieg zu sein, Aginor.
    Schien.

  8. #8 Philipp
    23. Dezember 2018

    @Aginor:
    Nein. Es ist überhaupt kein Problem. Schon alleine deshalb, weil DeepDream ja keinen wirklichen Zweck hat. Und dass bei manchen populären Implementierungen “hundeartige Strukturen” oft produziert werden, liegt einfach daran, dass in diesen Fällen auf Hunde trainiert wurde. Nimmt man einen anderen Trainingsdatensatz, so bekommt man auch ein anderes Resultat. Nur macht das so gut wie niemand, weil das sehr aufwändig ist und ja das “Hundenetz” von Google zum Download bereitgestellt wird.

    Das als eine grundsätzliche Schwierigkeit von Hunden für ML sehen zu wollen, ist einfach Unsinn.

  9. #9 Aginor
    23. Dezember 2018

    @rolak:
    Ich bin schlecht im erkennen von (insbes. geschriebenem) Humor, sorry.

    @philipp:
    Klar ist es ein Problem. Es ist sogar _das_ Problem von Objekterkennung in Bildern. Jetzt nicht Hunde an sich, aber die Tatsache dass manche Dinge rein optisch schwer in Kategorien zu packen sind. Hunde sind nur ein gutes Beispiel. Das gleiche passiert wie Du schon sagst mit anderen Dingen auch.
    In sofern ist es sogar sehr gut, Hunde in den Trainingsdaten zu verwenden. Ein System das Hunde in ihrer ganzen Vielfalt voneinander und anderen Dingen unterscheiden kann, das wird eine Chance haben auch die noch komplexeren Dinge anzugehen. Das ist vermutlich auch einer der Gründe warum zB Google eine Menge Hundebilder in den Testdaten hatte.

    Und was die Anwendung angeht: angesichts der Tatsache dass schon in den nächsten Jahren diese Technik zur Auswertung der öffentlichen Videoüberwachung verwendet werden soll könnte man schon sagen dass die Verbesserung dieser Technik in allerseitigem Interesse ist. Und da sind Hunde (unter anderem) sehr wohl ein Problem. Man will ja false positives und false negatives minimieren.

    Insgesamt ein sehr spannendes Thema, sowohl technisch als auch von seinen möglichen Auswirkungen her.
    DeepDream ist nur eine Demo, klar. Die Algorithmen dahinter kommen aber auch schon anderswo zum Einsatz.

    @Beobachter spricht ja oben zB schon einen Teilaspekt an: will man Computern erlauben racial profiling zu machen? Wo fängt es an, wo hört es auf?

    Gruß
    Aginor

  10. #10 Cheapestessay
    23. Dezember 2018

    Super danke.