www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Vorhilfe
  Status Geisteswiss.
    Status Erdkunde
    Status Geschichte
    Status Jura
    Status Musik/Kunst
    Status Pädagogik
    Status Philosophie
    Status Politik/Wirtschaft
    Status Psychologie
    Status Religion
    Status Sozialwissenschaften
  Status Informatik
    Status Schule
    Status Hochschule
    Status Info-Training
    Status Wettbewerbe
    Status Praxis
    Status Internes IR
  Status Ingenieurwiss.
    Status Bauingenieurwesen
    Status Elektrotechnik
    Status Maschinenbau
    Status Materialwissenschaft
    Status Regelungstechnik
    Status Signaltheorie
    Status Sonstiges
    Status Technik
  Status Mathe
    Status Schulmathe
    Status Hochschulmathe
    Status Mathe-Vorkurse
    Status Mathe-Software
  Status Naturwiss.
    Status Astronomie
    Status Biologie
    Status Chemie
    Status Geowissenschaften
    Status Medizin
    Status Physik
    Status Sport
  Status Sonstiges / Diverses
  Status Sprachen
    Status Deutsch
    Status Englisch
    Status Französisch
    Status Griechisch
    Status Latein
    Status Russisch
    Status Spanisch
    Status Vorkurse
    Status Sonstiges (Sprachen)
  Status Neuerdings
  Status Internes VH
    Status Café VH
    Status Verbesserungen
    Status Benutzerbetreuung
    Status Plenum
    Status Datenbank-Forum
    Status Test-Forum
    Status Fragwürdige Inhalte
    Status VH e.V.

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "mathematische Statistik" - Bew: lineare Regression
Bew: lineare Regression < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "mathematische Statistik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Bew: lineare Regression: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 23:51 So 11.03.2018
Autor: Jellal

Guten Abend,

ich habe Probleme, den Beweis der linearen Regression nachzuvollziehen.

Seien [mm] (x_{i},y_{i}) [/mm] mit verschiedenen [mm] x_{i}, 1\le i\le [/mm] n
Gesucht sind Parameter [mm] b=b_{0} [/mm] und [mm] a=a_{0} [/mm] für die Gerade y=bx+a, sodass [mm] \summe_{i=1}^{n}(y_{i}-bx_{i}-a)^{2} [/mm] minimal wird.

Dies ist erfüllt für [mm] b_{0}=\bruch{\summe_{i=1}^{n}(x_{i}-x_{m})(y_{i}-y_{m})}{\summe_{i=1}^{n}(x_{i}-x_{m})} [/mm] und [mm] a=y_{m}-x_{m}b_{0} [/mm] mit [mm] x_{m} [/mm] und [mm] y_{m} [/mm] als den arithmetischen Mittelwerten der Realisierungen.

Zum Beweis wurde zuerst der Hilfssatz bewiesen:
Für zwei ZV X,Y mit Var(X),Var(Y)>0 und endlich, ist das Optimierungsproblem [mm] E((y-d_{2}x-d_{1})^{2})=min_{u,v}E((y-vx-u)^{2}) [/mm] gelöst durch [mm] d_{2}=\delta(x,y)\bruch{\wurzel{Var(Y)}}{\wurzel{Var(X)}} [/mm] mit [mm] \delta [/mm] als Korrelationskoeffizient und [mm] d_{1}=E(Y)-d_{2}E(X). [/mm]

Damit soll nun die lineare Regression bewiesen werden.
Man betrachte das "empirische Maß" [mm] P=\bruch{1}{n}\summe_{i=1}^{n}\epsilon_{(x_{i},y_{i})} [/mm] auf [mm] IR^{2} [/mm] mit [mm] \epsilon [/mm] als Einpunktmaß.

Erste Frage: Warum muss ich das wählen? Sollte man das nicht allgemein zeigen?

Weiter seien X(x,y)=x Y(x,y)=y die ZV der Projektionen.

1. Fall: Alle [mm] y_{i} [/mm] gleich. Das ist trivial.

2. Fall: nicht alle gleich. Dann sind Var(Y)>0 und eh nach Vor. Var(X)>0.

[mm] E_{p}((y-cx-d)^{2})=\bruch{1}{n}\summe_{i=1}^{n}(y_{i}-cx_{i}-d)^{2} [/mm] soll minimiert werden und hat nach Hilfssatz die Lösung [mm] b_{0}=\delta(x,y)\bruch{\wurzel{Var(Y)}}{\wurzel{Var(X)}}=\bruch{Cov(X,Y)}{Var(X)}=\bruch{\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})(y_{i}-y_{m})}{\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})} [/mm]

Zweite Frage: Wie kommt der Zähler im letzten Schritt zustande?
Es ist doch [mm] Cov(X,Y)=E(XY)-E(X)E(Y)=\bruch{1}{n}\summe_{i=1}^{n}x_{i}y_{i} -x_{m}y_{m} [/mm]
[mm] =\bruch{1}{n}\summe_{i=1}^{n}x_{i}y_{i} -\bruch{1}{n}\summe_{i=1}^{n}x_{i}y_{m} =\bruch{1}{n}\summe_{i=1}^{n}x_{i}(y_{i}-y_{m}) [/mm]

oder liege ich da falsch?


Viele Grüße

        
Bezug
Bew: lineare Regression: Antwort
Status: (Antwort) fertig Status 
Datum: 12:06 Mo 12.03.2018
Autor: Gonozal_IX

Hiho,

> Zum Beweis wurde zuerst der Hilfssatz bewiesen:
>  Für zwei ZV X,Y mit Var(X),Var(Y)>0 und endlich, ist das
> Optimierungsproblem
> [mm]E((y-d_{2}x-d_{1})^{2})=min_{u,v}E((y-vx-u)^{2})[/mm] gelöst
> durch
> [mm]d_{2}=\delta(x,y)\bruch{\wurzel{Var(Y)}}{\wurzel{Var(X)}}[/mm]
> mit [mm]\delta[/mm] als Korrelationskoeffizient und
> [mm]d_{1}=E(Y)-d_{2}E(X).[/mm]

Mir ist jetzt nicht ganz klar, ob dir der Beweis des Hilfssatzes unklar ist, oder ob das Resultat nun klar ist… ich gehe erst mal aus, dass dir bis hierhin alles klar ist… wenn nicht, frag nochmal nach.

> Damit soll nun die lineare Regression bewiesen werden.
>  Man betrachte das "empirische Maß"
> [mm]P=\bruch{1}{n}\summe_{i=1}^{n}\epsilon_{(x_{i},y_{i})}[/mm] auf
> [mm]IR^{2}[/mm] mit [mm]\epsilon[/mm] als Einpunktmaß.
>  
> Erste Frage: Warum muss ich das wählen? Sollte man das
> nicht allgemein zeigen?

WAS soll allgemein gezeigt werden? Der Hilfssatz gilt natürlich unabhängig vom Maß (darum meine Frage vorhin), die Gesamtaussage zur linearen Regression gilt natürlich nur unter dem empirischen Maß…
  

>  und hat nach Hilfssatz die Lösung
> [mm]b_{0}=\delta(x,y)\bruch{\wurzel{Var(Y)}}{\wurzel{Var(X)}}=\bruch{Cov(X,Y)}{Var(X)}=\bruch{\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})(y_{i}-y_{m})}{\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})}[/mm]
>  
> Zweite Frage: Wie kommt der Zähler im letzten Schritt zustande?

Es ist $Cov(X,Y) = E(XY) - E(X)E(Y) = [mm] E\left((X - E(X))(Y - E(Y))\right)$ [/mm]

Verwende die zweite Darstellung für die Kovarianz.

> Es ist doch
> [mm]Cov(X,Y)=E(XY)-E(X)E(Y)=\bruch{1}{n}\summe_{i=1}^{n}x_{i}y_{i} -x_{m}y_{m}[/mm]
> [mm]=\bruch{1}{n}\summe_{i=1}^{n}x_{i}y_{i} -\bruch{1}{n}\summe_{i=1}^{n}x_{i}y_{m} =\bruch{1}{n}\summe_{i=1}^{n}x_{i}(y_{i}-y_{m})[/mm]
>  
> oder liege ich da falsch?

Nö, das sind nur alles andere Darstellungen fürs selbe Ergebnis.

Gruß,
Gono

Bezug
                
Bezug
Bew: lineare Regression: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:22 Mo 12.03.2018
Autor: Jellal

Hallo Gonozal,

danke für die Antwort.

Genau, den Beweis des Hilfssatz habe ich verstanden, aber mich hat gewundert, dass ich bei der linearen Regression ein bestimmtes P vorgeben muss... "empirisches W-Maß" habe ich noch nie gehört. Zudem glaube ich, mich zu erinnern, dass man die Formel allein mit Differentialrechnung beweisen kann, ohne irgendwelche Wmaße.
Ein Wmaß kommt doch nur über die Verteilung der [mm] y_{i} [/mm] rein und die ist doch erstmal beliebig?

Das mit der Covarianz leuchtet ein... ich muss mir unbedingt alle Definitionen einprägen, nicht nur die, die zum Rechnen meist praktischer ist...
Ähnliche Sache:
In einem anderen Beweis wurde die empirische Varianz eingeführt: [mm] S_{n}=\bruch{1}{n+1}\summe_{i=1}^{n}(x_{i}-x_{m})^{2} [/mm] für Realisierungen [mm] x_{i} [/mm] von i.i.d Zufallszahlen [mm] X_{i}, Var(X_{i})>0. [/mm]
Der Satz sagt nun aus, dass [mm] S_{n}^{2} [/mm] für n [mm] \ge [/mm] 2 ein erwartungstreuer Schätzer für [mm] Var(X_{i}) [/mm] ist.
Den Beweis verstehe ich auch, bis auf die Stelle, an der gesagt wird, dass [mm] S_{n}^{2}=\bruch{n}{n+1}(\bruch{1}{n}\summe_{i=1}^{n}x_{i}^{2} -x_{m}^{2}) [/mm]

Ist das auch trivial zu sehen? Wenn ich [mm] S_{n} [/mm] manuell quadriere, kommt da doch erstmal ein sehr hässlicher Term raus...

Bezug
                        
Bezug
Bew: lineare Regression: Antwort
Status: (Antwort) fertig Status 
Datum: 16:31 Mo 12.03.2018
Autor: Gonozal_IX

Hiho,

> Genau, den Beweis des Hilfssatz habe ich verstanden, aber
> mich hat gewundert, dass ich bei der linearen Regression
> ein bestimmtes P vorgeben muss... "empirisches W-Maß" habe
> ich noch nie gehört. Zudem glaube ich, mich zu erinnern,
> dass man die Formel allein mit Differentialrechnung
> beweisen kann, ohne irgendwelche Wmaße.

Da stehen nun zwei Themen drin:

1.) empirisches W-Maß
2.) Beweisart des Satzes

Zu 1.):
Die Sache mit dem "empirischen W-Maß" ist eigentlich relativ simpel. Du möchtest ja eine Verteilung schätzen, was eigentlich ein Bildmaß und damit insbesondere ein W-Maß ist.
Nun kommt der Fakt hinzu, dass in der W-Theorie oftmals "Verteilung" und "Verteilungsfunktion" synonym verwendet werden, da äquivalent. Rein formal sind das zwar verschiedene mathematische Objekte, aber da schert sich niemand drum, weil "klar" ist, was gemeint ist.

Nun haben wir also eine reelle  ZV X, von der man die genaue Verteilungsfunktion nicht kennt, sondern nur schätzen kann, indem man Realisierungen betrachtet. Und die geschätzte Verteilungsfunktion nennt man "empirische Verteilungsfunktion".

Definiert man also [mm] $F_n [/mm] = [mm] \frac{1}{n}\sum_{i=1}^n 1_{(-\infty,x_i]}$ [/mm] (was sinnvoll ist um eine empirische Verteilung zu erhalten, mach dir das klar) so erhält man für jedes $n [mm] \in \IN$ [/mm] eine Verteilungsfunktion und es gilt: [mm] $\lim_{n\to\infty} F_n [/mm] = F$, wobei F die (reale) Verteilungsfunktion von X ist.
Je mehr Realisierungen man also betrachtet, desto genauer entspricht die geschätzte Verteilungsfunktion der realen (yay!).

Nun definiert jede Verteilungsfunktion ein W-Maß und umgekehrt. Zu jeder empirischen Verteilungsfunktion [mm] $F_n$ [/mm] gibt es nun also ein W-Maß [mm] $P_n$, [/mm] was die Verteilung zur entsprechenden Verteilungsfunktion [mm] $F_n$ [/mm] ist gemäß:

[mm] $F_n(x) [/mm] = [mm] P_n\left((-\infty,x]\right)$ [/mm] bzw:
[mm] $P_n((a,b]) [/mm] = [mm] F_n(b) [/mm] - [mm] F_n(a)$ [/mm]

Nimmt man die Darstellung der [mm] $F_n$ [/mm] oben, ergibt sich gerade für $ [mm] P_n=\bruch{1}{n}\summe_{i=1}^{n}\epsilon_{x_{i}} [/mm] $ wobei [mm] $\varepsilon_x$ [/mm] das Einpunktmaß bzw Diracmaß auf x darstellt.
Und [mm] P_n [/mm] heißt dann "empirisches W-Maß".


zu 2.)
Du hast vermutlich recht, dass man die eigentliche Aussage des Satzes auch ohne W-Maße beweisen kannst… das ist so ein bisschen wie folgender Satz:

Zu zeigen:
[mm] $\left(\sum_{k=i}^n x_iy_i\right)^2 \le \sum_{k=i}^n x_i^2 \sum_{k=i}^n y_i^2$ [/mm]

Das kann man nun elementar zeigen (und macht man u.U. in Analysis I auch oft), oder man zeigt, dass für Skalarprodukte die Cauchy-Schwarzsche-Ungleichung

[mm] $||^2 \le [/mm] <x,x><y,y>$ gilt und benutzt, dass $<x,y> =  [mm] \sum_{k=i}^n x_iy_i$ [/mm] ein Skalarprodukt ist

Der zweite Weg ist halt schöner…

>  Ein Wmaß kommt doch nur über die Verteilung der [mm]y_{i}[/mm]
> rein und die ist doch erstmal beliebig?

Die Frage versteh ich nicht… wieso [mm] $P_n$ [/mm] ein W-Maß ist, hab ich oben erklärt.

>  Ähnliche Sache:
>  In einem anderen Beweis wurde die empirische Varianz
> eingeführt:
> [mm]S_{n}=\bruch{1}{n+1}\summe_{i=1}^{n}(x_{i}-x_{m})^{2}[/mm] für Realisierungen [mm]x_{i}[/mm] von i.i.d Zufallszahlen [mm]X_{i}, Var(X_{i})>0.[/mm]

Bist du dir mit den Indizes und/oder dem Vorfaktor sicher?
Ich kenne bisher nur:  [mm]S_{n}=\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})^{2}[/mm] bzw  [mm]S_{n}=\bruch{1}{n-1}\summe_{i=1}^{n}(x_{i}-x_{m})^{2}[/mm] bei jeweils n Summanden.
Wie der unterschiedliche Vorfaktor zustande kommt, wird []bei Wikipedia schön erklärt.
D.h. ein Vorfaktor von [mm] $\frac{1}{n+1}$ [/mm] macht eigentlich nur Sinn, wenn man n+1 Summanden hat… dann müsste deine Summe aber bei $i=0$ starten oder bis $n+1$ gehen…

>  Den Beweis verstehe ich auch, bis auf die Stelle, an der
> gesagt wird, dass
> [mm]S_{n}^{2}=\bruch{n}{n+1}(\bruch{1}{n}\summe_{i=1}^{n}x_{i}^{2} -x_{m}^{2})[/mm]

Schau nochmal nach, ob da wirklich [mm] $S_n^2$ [/mm] steht. Es gilt nämlich schlichtweg [mm]S_{n}=\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})^{2} = \bruch{1}{n}\summe_{i=1}^{n}(x^2_{i}-x_{m}^{2}) = \bruch{1}{n}\summe_{i=1}^{n}x^2_{i}-x_{m}^{2} [/mm]

Was einfach aus dem Verschiebungssatz folgt, der besagt:

$Var(X) = [mm] E\left[\left(X - E[X]\right)^2\right] [/mm] = [mm] E[X^2] [/mm] - [mm] E^2[X]$ [/mm]

Ist nun [mm] $x_{m}$ [/mm] ein Schätzer für $E[X]$ so ist [mm] $x_m^2$ [/mm] einer für [mm] $E^2[X]$ [/mm] und der Rest ist verwenden des empirischen W-Maßes.

Gruß,
Gono

Bezug
                                
Bezug
Bew: lineare Regression: Frage (überfällig)
Status: (Frage) überfällig Status 
Datum: 18:01 Mo 12.03.2018
Autor: Jellal

Danke dir für die ausführliche Antwort.



> Hiho,
>  
> > Genau, den Beweis des Hilfssatz habe ich verstanden, aber
> > mich hat gewundert, dass ich bei der linearen Regression
> > ein bestimmtes P vorgeben muss... "empirisches W-Maß" habe
> > ich noch nie gehört. Zudem glaube ich, mich zu erinnern,
> > dass man die Formel allein mit Differentialrechnung
> > beweisen kann, ohne irgendwelche Wmaße.
>  
> Da stehen nun zwei Themen drin:
>  
> 1.) empirisches W-Maß
>  2.) Beweisart des Satzes
>  
> Zu 1.):
>  Die Sache mit dem "empirischen W-Maß" ist eigentlich
> relativ simpel. Du möchtest ja eine Verteilung schätzen,
> was eigentlich ein Bildmaß und damit insbesondere ein
> W-Maß ist.
> Nun kommt der Fakt hinzu, dass in der W-Theorie oftmals
> "Verteilung" und "Verteilungsfunktion" synonym verwendet
> werden, da äquivalent. Rein formal sind das zwar
> verschiedene mathematische Objekte, aber da schert sich
> niemand drum, weil "klar" ist, was gemeint ist.
>  
> Nun haben wir also eine reelle  ZV X, von der man die
> genaue Verteilungsfunktion nicht kennt, sondern nur
> schätzen kann, indem man Realisierungen betrachtet. Und
> die geschätzte Verteilungsfunktion nennt man "empirische
> Verteilungsfunktion".
>  
> Definiert man also [mm]F_n = \frac{1}{n}\sum_{i=1}^n 1_{(-\infty,x_i]}[/mm]
> (was sinnvoll ist um eine empirische Verteilung zu
> erhalten, mach dir das klar) so erhält man für jedes [mm]n \in \IN[/mm]
> eine Verteilungsfunktion und es gilt: [mm]\lim_{n\to\infty} F_n = F[/mm],
> wobei F die (reale) Verteilungsfunktion von X ist.
>  Je mehr Realisierungen man also betrachtet, desto genauer
> entspricht die geschätzte Verteilungsfunktion der realen
> (yay!).

Dass [mm] F_{n} [/mm] --> F läuft, folgt formal woraus? Schwaches Gesetz der großen Zahlen? Das hatten wir bisher nur mit dem Wmaß formuliert. Intuitiv ist es ja klar.


> >  Ein Wmaß kommt doch nur über die Verteilung der [mm]y_{i}[/mm]

> > rein und die ist doch erstmal beliebig?
>  
> Die Frage versteh ich nicht… wieso [mm]P_n[/mm] ein W-Maß ist,
> hab ich oben erklärt.

Ich habe bei der Einführung eines Wmaßes in dem Beweis eben nach Wmaßen im ursprünglichen Satz gesucht. Aber da ist eben nur eine Zufallszahl Y mit unbekannter Verteilung. Diese unbekannte Verteilung kann ja beliebig sein, daher hatte es mich gewundert, dass im Beweis eine bestimmte benutzt wird.

> >  Ähnliche Sache:

>  >  In einem anderen Beweis wurde die empirische Varianz
> > eingeführt:
> > [mm]S_{n}=\bruch{1}{n+1}\summe_{i=1}^{n}(x_{i}-x_{m})^{2}[/mm] für
> Realisierungen [mm]x_{i}[/mm] von i.i.d Zufallszahlen [mm]X_{i}, Var(X_{i})>0.[/mm]
>  
> Bist du dir mit den Indizes und/oder dem Vorfaktor sicher?
>  Ich kenne bisher nur:  
> [mm]S_{n}=\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})^{2}[/mm] bzw  
> [mm]S_{n}=\bruch{1}{n-1}\summe_{i=1}^{n}(x_{i}-x_{m})^{2}[/mm] bei
> jeweils n Summanden.
>  Wie der unterschiedliche Vorfaktor zustande kommt, wird
> []bei Wikipedia
> schön erklärt.
>  D.h. ein Vorfaktor von [mm]\frac{1}{n+1}[/mm] macht eigentlich nur
> Sinn, wenn man n+1 Summanden hat… dann müsste deine
> Summe aber bei [mm]i=0[/mm] starten oder bis [mm]n+1[/mm] gehen…
>  
> >  Den Beweis verstehe ich auch, bis auf die Stelle, an der

> > gesagt wird, dass
> >
> [mm]S_{n}^{2}=\bruch{n}{n+1}(\bruch{1}{n}\summe_{i=1}^{n}x_{i}^{2} -x_{m}^{2})[/mm]
>  
> Schau nochmal nach, ob da wirklich [mm]S_n^2[/mm] steht.

Der Vorfaktor ist natürlich Quatsch, das + habe ich beim Drüberlesen nicht mehr bemerkt, tut mir Leid. Wir haben die (n-1) im Nenner.
Aber das hoch 2 über den [mm] S_{n} [/mm] steht so genau im Skript. An mehreren Stellen. er hat im Satz geschrieben:
" [mm] S_{n}^{2} [/mm] ist ein e-treuer Schätzer für [mm] \sigma^{2} [/mm] und vielleicht nicht bemerkt das [mm] S_{n} [/mm] selbst nicht für die empirische Standardabweichung sondern die Varianz steht?
Und es dann so im Beweis wieder gemacht.
Also ist die empirische Varianz ein etreuer Schätzer für die echte Varianz.

>
>Es gilt nämlich schlichtweg

> [mm]S_{n}=\bruch{1}{n}\summe_{i=1}^{n}(x_{i}-x_{m})^{2} = \bruch{1}{n}\summe_{i=1}^{n}(x^2_{i}-x_{m}^{2}) = \bruch{1}{n}\summe_{i=1}^{n}x^2_{i}-x_{m}^{2}[/mm]
>  
> Was einfach aus dem Verschiebungssatz folgt, der besagt:
>  
> [mm]Var(X) = E\left[\left(X - E[X]\right)^2\right] = E[X^2] - E^2[X][/mm]
>  
> Ist nun [mm]x_{m}[/mm] ein Schätzer für [mm]E[X][/mm] so ist [mm]x_m^2[/mm] einer
> für [mm]E^2[X][/mm] und der Rest ist verwenden des empirischen
> W-Maßes.
>  
> Gruß,
>  Gono

Ich verstehe. Hier rwird dann auch wieder das "empirische Maß" benutzt, sodass ich mit der empirischen Varianz bzgl. dieses Maßes ganz normal rechnen kann.
Das empirische Maß ist dann im Grunde genommen eine Gleichverteilung auf meinen Realisierungen, wenn ich das richtig sehe.




Bezug
                                        
Bezug
Bew: lineare Regression: Fälligkeit abgelaufen
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 18:20 Mi 14.03.2018
Autor: matux

$MATUXTEXT(ueberfaellige_frage)
Bezug
        
Bezug
Bew: lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 12:38 Mo 12.03.2018
Autor: Al-Chwarizmi

Hallo Jellal

Ein Zitat aus deiner Anfrage:

"Damit soll nun die lineare Regression bewiesen werden."

Da habe ich mich einfach gefragt:

"Was genau, welche Aussage soll denn nun da bewiesen werden ?"

Nach meiner Ansicht sollte man (insbesondere als Student
der Naturwissenschaften) sich bemühen, klar auszudrücken,
worum es bei einem Beweis tatsächlich gehen soll. Zwar
können wir (als Leute, die sich in dem Bereich auskennen
und irgendwie vermuten können, was gemeint sein könnte)
uns ungefähr ausmalen, worum es in dem geforderten Beweis
gehen sollte - aber wir erwarten (meiner Meinung nach sehr
berechtigterweise) von dir selber, dass du deine Überlegungen
klar darstellst und eben auch in der Lage bist (oder dahin
kommen solltest), bei einem Beweis die gemachten Annahmen
und die zu beweisende Aussage klar zu Papier zu bringen.

Nimm dies bitte nicht einfach als eine (negative) Kritik,
sondern als eine Anregung, deine Überlegungen und Fragen
klarer zu formulieren.

LG ,   Al-Chwarizmi

Bezug
                
Bezug
Bew: lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 15:07 Mo 12.03.2018
Autor: Jellal

Hallo Al-Chwarizmi,

was bewiesen werden soll steht doch klar und deutlich am Anfang: Dass das Problem der linearen Regression (welches auch hingeschrieben wurde) durch die genannten [mm] a_{0} [/mm] und [mm] b_{0} [/mm] gelöst wird.


Bezug
                        
Bezug
Bew: lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 17:12 Mo 12.03.2018
Autor: Al-Chwarizmi


> Hallo Al-Chwarizmi,
>  
> was bewiesen werden soll steht doch klar und deutlich am
> Anfang: Dass das Problem der linearen Regression (welches
> auch hingeschrieben wurde) durch die genannten [mm]a_{0}[/mm] und
> [mm]b_{0}[/mm] gelöst wird.


Genau das hast du aber nicht (wenigstens nicht so) geschrieben.
Du wolltest "die lineare Regression beweisen" - aber das ist
zumindest eine falsche bzw. unverständliche Ausdrucksweise.
Du hättest z.B. schreiben können:  "Ich zeige nun, dass die
Werte  $\ [mm] a_0:=\ [/mm] ....$  und  $\ [mm] b_0:=\ [/mm] ....$ (unter den und den Voraussetzungen)
die (eindeutige) Lösung des gestellten Minimalproblems darstellen."
Formulierungen sind wichtig. Es geht nicht nur darum, die
richtigen Formeln anzugeben. Einen Beweis darzustellen, ist
durchaus auch eine sprachliche Leistung, wobei es auf die
Feinheiten der Bedeutungen wesentlich mehr ankommt als
in vielen anderen Sparten von Texten.  

LG ,   Al-Chw.

Bezug
                                
Bezug
Bew: lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 18:08 Mo 12.03.2018
Autor: Jellal

Ich stimme dir zwar zu, dass formale Ausdrucksweise wichtig ist, nur denke ich, dass meine ersten Zeilen so auch in jedem beliebigen Skript zu finden wären.

Problem: "gesucht sind parameter a, b, sodass folgende summe minimal wird blabla"
Satz: "dies ist erfüllt für [mm] b_{0}= [/mm] xxx, [mm] a_{0}=yyy" [/mm]
Bew: ...

Bezug
                                        
Bezug
Bew: lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 18:24 Mo 12.03.2018
Autor: chrisno

Ich hoffe sehr, dass so etwas nicht in Skripten vorkommt.
Ein Satz, eine Behauptung wird bewiesen.
Du schreibst: "den Beweis der linearen Regression nachzuvollziehen"
und "Damit soll nun die lineare Regression bewiesen werden."
Ich rate, solche Formulierungen nicht in der Nähe eines Dozenten oder in einer Prüfung zu verwenden. Das führt zu massiver Abwertung.
Die lineare Regression ist eine Methode. Es können Eigenschaften einer Methode bewiesen werden, aber nicht die Methode an sich.
.... (Da stand ein Textrest.)

Bezug
                                                
Bezug
Bew: lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 18:39 Mo 12.03.2018
Autor: Jellal

Die von dir, Chrisno, rausgepickte Formulierung war sicher schwammig, aber irrelevant, da oben, am Anfang meines Beitrags, genau steht, was bewiesen werden soll.


Problem, Aussage, Beweis. Gängige Struktur in jedem Skript und Lehrbuch.


Bezug
                                                        
Bezug
Bew: lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 18:59 Mo 12.03.2018
Autor: Diophant

Hallo Jellal,

nimms nicht so ernst. Einige User hier haben leider eine unterentwickelte Lesekompetenz. Obwohl ich von der Materie nicht viel Ahnung habe, hatte ich persönlich keinerlei Probleme, dein Anliegen zu verstehen.

Dein erster Satz

> ..., den Beweis der linearen Regression nachzuvollziehen.

da gebe ich den Vorrednern recht, der sollte so in einer mathematischen Literatur oder auch in einem offiziellen Aufschrieb deinerseits nicht verwendet werden.

Hier geht es aber um eine Frage in einem Forum, da hat dieser Satz einfach einleitenden Charakter, und alles was danach kommt ist ja präzise formuliert. Und damit spielt es keine Rolle, ob dieser Satz nun im Sinne der Mathematik semantisch in Ordnung ist oder nicht.

Daher mein Unverständnis an der Hermumnörgelei an deiner Ausgangsfrage (beachte: ich selbst kritisiere hier solche Dinge auch desöfteren, aber eine solche Kritik sollte einen approximativen Sinn ergeben, sonst sollte man es bleiben lassen).


Gruß, Diophant

Bezug
                                                                
Bezug
Bew: lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 19:42 Mo 12.03.2018
Autor: Al-Chwarizmi


> nimms nicht so ernst. Einige User hier haben leider eine
> unterentwickelte Lesekompetenz.

Wir wissen, gegen wen wahrscheinlich diese Bemerkung
gerichtet sein soll .... aber mit der Zeit nimmt man solche
vergifteten Pfeile auch nicht mehr ernst.
Kümmere dich doch um deine eigenen unterentwickelten
(z.B. sozialen) Kompetenzen ...

Bezug
                                                                        
Bezug
Bew: lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 21:59 Mo 12.03.2018
Autor: Jellal

Lasst uns alle cool bleiben x-)

Ich gebe mir schon Mühe, mich klar auszudrücken. Stehe nur unter Zeitdruck, daher hapert es vielleicht in einem längeren Posting an der einen oder anderen Stelle, was die Exaktheit angeht.

Bezug
                                                                                
Bezug
Bew: lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 10:25 Di 13.03.2018
Autor: Al-Chwarizmi


> Lasst uns alle cool bleiben x-)

Ganz einverstanden, ich gebe mir Mühe.
Dir habe ich gleich zu Anfang gesagt, dass meine
Bemerkung nicht als Kritik aufzufassen sei, sondern
als (gut gemeinte) Anregung zu besseren Formulierungen.

Schönen Tag !

Al-Chwarizmi

Bezug
                                                                
Bezug
Bew: lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 23:58 Mo 12.03.2018
Autor: ChopSuey

Hallo,

> Hallo Jellal,
>  
> nimms nicht so ernst. Einige User hier haben leider eine
> unterentwickelte Lesekompetenz.

Deine nahezu täglichen abwertenden Bemerkungen gegen bestimmte User oder das Forum in allgemeinem Sinne fangen an tierisch zu nerven.

Es wäre angemessen, solche Kommentare in Zukunft für sich zu behalten oder ich werde einfach grundsätzlich deine Beiträge angemessen moderieren und alles, was irrelevant ist, ohne Kommentar löschen.



>  
> Daher mein Unverständnis an der Hermumnörgelei

Wer im Glashaus sitzt, sollte nicht mit Steinen werfen.



>
> Gruß, Diophant

ChopSuey


Bezug
                                                                        
Bezug
Bew: lineare Regression: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 14:25 Di 13.03.2018
Autor: Diophant

Hallo,

> Deine nahezu täglichen abwertenden Bemerkungen gegen
> bestimmte User oder das Forum in allgemeinem Sinne fangen
> an tierisch zu nerven.

Nun, dann hätte ich wenigstens etwas erreicht: das sollen sie ja.


Gruß, Diophant

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "mathematische Statistik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorhilfe.de