“What was that adjective? I liked that.”

The Volokh Conspiracy zitiert aus den Prozeßakten Briscoe & Cypress v. Virginia:

MR. FRIEDMAN: I think that issue is entirely orthogonal to the issue here because the Commonwealth is acknowledging –

CHIEF JUSTICE ROBERTS: I’m sorry. Entirely what?

MR. FRIEDMAN: Orthogonal. Right angle. Unrelated. Irrelevant.

CHIEF JUSTICE ROBERTS: Oh.

JUSTICE SCALIA: What was that adjective? I liked that.

MR. FRIEDMAN: Orthogonal.

CHIEF JUSTICE ROBERTS: Orthogonal.

MR. FRIEDMAN: Right, right.

JUSTICE SCALIA: Orthogonal, ooh.

(Laughter.)

JUSTICE KENNEDY: I knew this case presented us a problem.

(Laughter.)

MR. FRIEDMAN: I should have — I probably should have said –

JUSTICE SCALIA: I think we should use that in the opinion.

(Laughter.)

MR. FRIEDMAN: I thought — I thought I had seen it before.

JUSTICE SCALIA: Or the dissent.

(Laughter.)

MR. FRIEDMAN: That is a bit of professorship creeping in, I suppose.

(via God plays dice)

Es geht übrigens um diese Petition zur Umsetzung der Confrontation Clause.

Der Topologe Peter Shalen kommentiert auf The Volokh Conspiracy

Professor Friedman’s use of “orthogonal” is correct. It’s refreshing to see a mathematical term used correctly for a change. Recent years have brought us fashionable misuses of “lowest common denominator” and “parameters,” and just the other day Tom Friedman misused “point of inflection.”

In der Statistik werden unabhängige (unkorrelierte) Variablen manchmal als “orthogonal” bezeichnet.

i-04bd28e33c0352cceb57465cfbdf8414-orthogonal1.png

https://www.jstor.org/pss/2683250?seq=1

Weiß jemand, warum unkorrelierte Variablen “orthogonal” genannt werden? Entsprechen unkorrelierte Variablen vielleicht orthogonalen Vektoren in irgendeinem Hilbertraum?

Kommentare (6)

  1. #1 Sim
    13. Januar 2010

    Ich weiß es nicht. Aber was ins Auge sticht ist doch dass für orthogonale Vektoren x,y aus nem Hilberraum das Skalarprodukt (x,y)=0 ist und für unkorrelierte Zufallsvariablen X,Y die Covarianz cov(X,Y)=0 ist

  2. #2 Christian A.
    13. Januar 2010

    Naja, wenn die Kovarianz die Axiome des Skalarprodukts erfüllt, dann kann man sie als solche auffassen.

    1. (x,x) >= 0 (und reell, wird wohl gegeben sein)
    2. (ax,y) = a(x,y) (a ist eine Konstante)
    3. (x+y,z) = (x,z) + (y,z)
    4. (x,y) = (y,x)* (konjugiert komplex)

    Sind sie erfüllt?

  3. #3 Arno
    13. Januar 2010

    Die Kovarianz nimmt reelle Werte zwischen -1 und 1, daran scheitern schonmal Axiome 1 und 2 eines Skalarproduktes (1 kann man natuerlich reparieren). Axiom 4 passt, bei 3. muesste ich nachdenken.
    Betrachtet man allerdings nur die Einheitsspaehre eines Hilbertraums (via Vektoren gleicher Richtung sind equivalent), wie zB in der QM, dann sehen die beiden schon erheblich aehnlicher aus.

  4. #4 Thilo Kuessner
    13. Januar 2010

    Streng genommen ist es kein Skalarprodukt, weil Cov(X,X)=0 nicht nur für X=0 gilt, sondern für alle X, die (fast überall) konstant sind.
    Aber ihr habt natürlich recht, die Kovarianz erklärt wohl die Bezeichnung.

  5. #5 Thilo Kuessner
    13. Januar 2010

    @ Arno: Ein Skalarprodukt kann auch negative Werte annehmen, nur eben nicht, wenn man zweimal denselben Vektor einsetzt.

  6. #6 Harold Gutch
    14. Januar 2010

    Sei X eine zwei-dimensionale reelle Zufallsvariable, die wir der Einfachheit halber als zentriert annehmen (ansonsten stimmt es auch, aber es ist umständlicher hinzuschreiben), d.h. der zwei-dimensionale Vektor E{X} = 0. Die marginalen Zufallsvariablen von X sind genau dann dekorreliert wenn die Eigenvektoren der Kovarianzmatrix (E{X*X’}) orthogonal sind. Letztere werden auch als “Hauptachsen” der Zufallsvariable bezeichnet (diese Achsen sind diejenigen auf die man die Zufallsvariable projezieren muss um die meiste Information – d.h. Varianz – zu erhalten).

    Korrelation ist das einfachste Maß für die Abhängigkeit zweier Zufallsvariablen, gibt aber nur eine unvollständige Beschreibung. Allgemein sind zwei zentrierte Zufallsvariablen unabhängig wenn nicht nur die Korrelation, sondern sogar alle gemeinsamen Momente verschwinden (also E{X^k * Y^l} = 0 für alle ganzzahligen k, l > 0. Korrelation misst das nur für k=l=1.