Crystals-DSA-Foren

Normale Version: HELP-Thread für Schule und Studium
Sie sehen gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Seiten: 1 2 3 4 5 6 7 8 9 10 11 12 13
Hm ich hab hier gerade mal 3 Wahrscheinlichkeitsverteilungen: Binomi, Poisson und Gauss. Ich soll nun zeigen, dass das auch wirklich Wahrscheinlichkeitsverteilungen sind... Hat irgendwer ne Idee, wass damit gemeint ist? Dass die Summe aller Wahrscheinlichkeiten 1 sein muss? Oder was könnten die wohl hören wollen?
W-Verteilungen und W-Maße sind dasselbe. Du kannst daher nachweisen, dass es sich um das Bildmaß einer Zufallsvariable handelt, oder direkt nachweisen, dass es sich um ein W-Maß handelt.
Für ein W-Maß P musst Du Nichtnegativität, Normiertheit und sigma-Additivität nachweisen.

EDIT: Oder Du zeigst, dass es zum W-Maß eine passende W-Funktion gibt. Das dürfte bei Poisson am einfachsten sein.
Hm ich glaube ehr, dass ich zeigen soll, dass die Summe über die Verteilung für k von 0 bis n gleich 1 ist. Das ist bei der Binominalverteilung noch recht leicht, aber beim Poisson kommt man da irgendwann auf regularisierte Gammafunktionen :lol:
Bei Poisson ist
[tex]\white f(k):=e^{-\lambda}\frac{\lambda^k}{k!}[/tex]
Damit [tex]\white f[/tex] eine Verteilungsfunktion ist, muss
[tex]\white 1=\sum_{k\in\mathbb{N}^0}f(k)[/tex]
sein.

Einfach die Reihenentwicklung der Exponentialfunktion
[tex]\white \exp(\lambda)=\sum_{k\in\mathbb{N}^0}\frac{\lambda^k}{k!}[/tex]
einsetzen und fertig.

Da eine Verteilungsfunktion immer ein (eindeutiges) W-Maß definiert, ist die Poissonverteilung ein W-Maß bzw. eine W-Verteilung.
Eigentlich keine technische Frage, aber vielleicht kann mir ja trotzdem Jemand helfen:

Was ist eine student'sche t-Verteilung?

Es scheint um Vertrauensintervalle bei Fehlerrechnungen zu gehen, den Wikipedia-Artikel habe ich aber überhaupt nicht verstanden. Laut den Assistenten in unserem aktuellen Praktikum hätte man das in der ersten Mathe-Vorlesung lernen sollen, darin kam es aber definitiv nicht vor (überhaupt hat der Professor alles mit Bezug zur Praxis geschickt außen vor gelassen). Am Ende muss wohl ein Faktor heraus kommen, mit dem man nach Gauß errechnete Fehler multipliziert.

Ich wäre sehr dankbar, wenn mir zufälligerweise Jemand in einfachen Worten erklären könnte, was da gemacht wird ^^'
Da t ja normalerweise für Zeit steht, würde ich sagen, das ist die Verteilung der Zeit, die Studenten während des Studiums zur Verfügung haben. Da man immer mehr lernen könnte, als man es tatsächlich macht, und man sich generell zu viel mit anderem Quatsch beschäftigt, anstatt zu lernen, ist tges = tlern_optimal + tFreizeit, wobei tlern_optimal = tlern_real + tQuatsch und tlern_real << tQuatsch

Oder so :silly:

scnr ^^
(02.02.2012, 16:52)Shintaro schrieb: [ -> ]Es scheint um Vertrauensintervalle bei Fehlerrechnungen zu gehen, den Wikipedia-Artikel habe ich aber überhaupt nicht verstanden.
Bei irgendeiner Zufallsvariable X (meinetwegen irgendeine Messung, dann die jeweiligen Messergebnisse) hast du einen Erwartungswert E(X). Die Varianz σ ist nun ein Maß dafür, wie sehr die Messergebnisse streuen können. Wenn diese nicht bekannt ist, musst du in der Praxis ja auf die Streuung zurückgreifen, die sich innerhalb der Messergebnisse ergeben. Dadurch ergibt sich eine zusätzliche Ungenauigkeit, die in dieser t-Verteilung berücksichtigt wird. Im Grunde ist diese Verteilung der "Glocke" bei der Normalverteilung sehr ähnlich, sie ist aber etwas breiter (flacht weniger schnell ab). Damit werden dann auch diese Vertrauensintervalle zu einer vorgegebenen Wahrscheinlichkeit breiter gegenüber einer Normalverteilung beispielsweise. So hab ich's zumindest verstanden (keine Gewähr auf völlige Richtigkeit).

Vielleicht wissen Fury, der Rabe oder Wolverine ja noch was zu ergänzen oder richtigzustellen.

Edit: Ich wunderte mich grad über die sinnlosen Beiträge oben... aber Latex ist ja rausgenommen, hatte das Flattervieh ja letztens schon angesprochen. Wirklich unschön. Ich werd's intern nochmal ansprechen.
Die verbreitetste Anwendung ist wohl folgende: Du interessierst Dich z.B. für die durchschnittliche Lebensdauer von Glühbirnen. (Mittelwert einer normalverteilten Größe)
Man kann jetzt die t-Verteilung für einen t-Test verwenden, um zu prüfen, ob ein geschätzter Mittelwert hinkommt. Man berechnet

t = (x-m)/(s/wurzel(n))

(x ist der gemessene Mittelwert einer Messreihe, m der vermutete Mittelwert, s die Standardabweichung der Messreihe und n die Anzahl der Messwerte.)
Dann schaut man in einer Tabelle mit den Werten der t-Verteilung nach, mit welcher Wahrscheinlichkeit der vermutete Wert richtig ist.
Hmhm, danke schonmal an euch beide.

Aber was mache ich, wenn ich gar keinen Erwartungswert habe?
Und die Variable t ist einfach nur irgendeine Zahl, für die es tabellierte Wahrscheinlichkeiten gibt? Wie passt das dann mit der Gauß'schen Fehlerrechnung zusammen?

Angenommen ich habe einen Wert von X= 10 ±1 und bekomme einen Wert von t=0,3.
Was dann?
Schaue ich in irgendeiner Tabelle bei t=0,3 nach, finde eine Wahrscheinlichkeit von -willkürlich- p=70% und multipliziere den Fehler dann mit 0,7?
Keinen Erwartungswert? Jetzt bin ich verwirrt...

Ich meine eigentlich mich erinnern zu können, dass man den T-Test verwendet, wenn keine Varianz bekannt ist (sprich die Breite der Gauss-Kurve). Das Problem ist dann ja, dass ich selbst bei bekannten Erwartungswert (Mittelachse der Gauss-Kurve) nicht die Amplitude der der Kurve kennen kann...

Mit dem T-Test teste ich doch, ob ein Mittelwert einer Stichprobe dem Mittelwert der Gesamten Verteilung entspricht. Wenn du sowas gemacht hast, und so klingt das mit der t-Tabelle ja, wäre 70% dann die von Rabenaas bezeichnete Wahrscheinlichkeit, dass dein Mittelwert richtig ist oder nicht?
Ähm...^^'

Ich habe die Zahlwerte für Verdampfungsenthalpie H und -entropie S eines Stoffs als Parameter einer exponentiellen Regressionskurve durch 10 Messwerte bestimmt. Der Tutor meinte, dass ich zusätzlich zu der üblichen Fehlerrechnung (Ablesegenauigkeit, Gerätefehler, Umweltfehler) eigentlich noch eine t-Verteilung machen müsste... glücklicherweise war es ihm nicht weiter wichtig, sodass das Experiment dennoch als bestanden gilt. Für die Klausur könnte so etwas jedoch relevant sein.

Ich habe also die Werte für S und H sowie die zugehörigen Fehler nach Gauß. Erwartungswerte gibt es nicht, genau so wenig Mittelwerte - dafür aber eine Güte (bzw einen nach der RKP-Formel bestimmten Fehler) des Fits. Setze ich diese dann für die Standardabweichung ein?
Interessant. Man kann auch mit einem t-Test testen, ob man einen Parameter aus dem Regressionsmodell entfernen kann, er also identisch gleich 0 ist. Das hätte ich ein paar mal ganz gut gebrauchen können.

Beitrag der einzelnen Regressoren zur Erklärung von y

EDIT: dazu geschrieben, worum es überhaupt geht
Sorry Shintaro ich hab keine Ahnung, was man da mit einem t-Test soll. Eventuell vieleicht noch, um zu testen, ob die Annahme der Messungenauigkeit richtig ist, aber sonst fällt mir da echt keine andere Anwendung an.
Dann wäre der Messwert halt der Erwartungswert und du musst die Varianz abschätzen. Aber sicher bin ich mir da nicht, ob das der Sinn ist...
Na gut, dann wird es auch nicht so wichtig sein.
Trotzdem danke :)
Latex sollte erstmal wieder gehen. Aber: Hat jemand einen Server auf dem mimetex.cgi oder mathtex.cgi läuft?
kennt sich zufällig jemand von euch mit der linearen Regression aus? Ich will aus einer Reihe unsauberer Messwerte ein gerade machen, bzw. will ich prüfen ob dieses Punkte wahrscheinlich durch ein gerade approximiert werden können.
Nur kann ich leider keine gute Erklärung zu dem Thema finden. Wikipedia gibt mir da leider zu viele Ansätze vor, wo ich im moment nicht abschätzen kann, was davon für mich das richtige ist. Naja vielleicht ist es auch schon ein wenig spät. Aber wenn jemande was Beitragen kann, dann immer raus damit :)

Edit:
so halbwegs hab ich es mitlerweile verstanden. Die Methode der kleinsten Quadrate scheint ganz brauchbar zu sein, mir ist nur nicht ganz klar wie ich den Fehler berechne. Ich will den nämlich ungern jedes mal komplett neuberechnen sondern lieber beim hinzufügen eines weiteren Punktes anpassen (Also inkrementell durch eine Summenfunktion darstellen).

Naja ich werd erstmal ein wenig schlafen, bis gleich dann ;)
Wenn ich das richtig verstehe, dann interessiert Dich das Bestimmtheitsmaß, das die Anpassungsgüte ausdrückt.

Im konkreten Fall bestimmt man das mit GnuPlot (oder NumPy, R, Octave, ...)
ja danke, das ist ja auch super erklärt und mit Bildern unterlegt :)

Aber erstmal muss ich die geraden Approximation zum laufen bekommen, irgenwie bekomm ich im moment immer nur Müll raus -.-*
Liegt wahrscheinlich am dynamischen hinzufügen der Punkte, oder das ich irgendwelche Sonderfälle nicht berücksichtige.

Aber moment mal, der Fehler gibt nur die gesammtgüte an oder? Vielleicht sollte ich mal etwas genauer ausführen was ich eigentlich machen möchte.

Meine Arbeit beginnt damit, dass ich eine reihe von Konturpunkten eines Bildes habe. Diese transformiere ich von einer equidistanz in eine perspektivische projekte. Der Hintergedanke ist dabei, dass Linien die in der realität gerade sind auch in der perspektivischen Abbildung gerade sind. Das Problem dabei ist nur, dass die Abbildungstranformation ungenau ist.
Nun will ich alle (wahrscheinlichen) Geraden im Bild finden. Dazu gehe ich über den Ansatz der linearen Regression, wobei ich nach und nach transformierte Konturpunkte hinzufüge, bis ich an einem Punkt gelange, dass die Abweichung so groß wird, dass der neue Punkt vermutlich nicht mehr auf der Gerade liegt.

Das Problem was ich hier einfach sehe: wenn ich bereits 100 Punkte habe, die auf der Gerade liegen, dann braucht es vermutlich einige falsche Punkte um den Fehler deutlich zu erhöhen.

Edit:
ha jetzt findet er die geraden, hatte ausversehen die koeffizienten der gerade vertauscht -.-*
Und bezüglich des Fehler habe ich mir überlegt 2 Abbruch bedingungen einzubauen. Einmal prüfe ich den Abstand des neuen Punktes im Bezug auf die Gerade und dann werde ich noch die gesammtqualität der gerade bestimmen (also dieses r ² Dingens)
Least-Square ist bei Problemen aus der Bildverarbeitung nicht zu empfehlen, weil es mit Ausreißern nicht gut klarkommt. Zur Veranschaulichung hab ich mal ein kleines Beispiel geschrieben, was auf deine Problemstellung passt (wenn ich dich richtig verstanden habe):

[Bild: isrDFy5.jpg]

Ich würde daher RANSAC empfehlen. Der ist nicht schwer und lässt sich schnell implementieren. Geraden in einem Bild würde ich zuerst über einen Canny-Filter bestimmen.
(27.12.2013, 17:09)NewProggie schrieb: [ -> ]Ich würde daher RANSAC empfehlen. Der ist nicht schwer und lässt sich schnell implementieren.
ah du bist toll, das ist genau das was ich brauche^^ Es ist doch immer wieder erstaunlich, wieviele unterschiedliche Menschen hier im Forum unterwegs sind :)

(27.12.2013, 17:09)NewProggie schrieb: [ -> ]Geraden in einem Bild würde ich zuerst über einen Canny-Filter bestimmen.
Die Konturen bestimme ich bereits über einen Canny-Filter im Fisheye Bild (equidistance Abbildung). Diese transformiere ich dann in perspektivische koordinaten und versuche dort halt jetzt die geradenerkennung (diese sind halt durch die unsaubere Abbildung und die schlechte Aufnahmequalität nicht so gerade wie sie es sein sollten)
Naja ich werde mir jetzt erstmal das Ransec dingens genauer anschauen, mal schauen vielleicht finde ich da ja sogar was in OpenCV

Edit:
so nach genaueren lesen muss ich leider doch sagen, dass der Ansatz nicht gans so geeignet ist. Mein Problem muss in echtzeit gelösst werden und der Ransac algorithmus ist ziemlich Zeitaufwendig. Da ich ja weiß, dass ich direkt auf der Kontur arbeite, ist der Least-Square Algorithmus glaube ich doch besser geeignet. Sieht im moment auch nicht so schlecht aus, ich muss nur noch die Abbruchbedingung etwas verfeinern.
Seiten: 1 2 3 4 5 6 7 8 9 10 11 12 13