Methodenlehre HU Berlin (Bachelor Psychologie)'s image'
Lizenzinfos

11
6806
Thema
Thema
Fragen
341
Analytics

Die Vorlesungen Methodenlehre I und II von Prof. Dr. Manuel Völkle bilden den Kern der Methodenausbildung im Bachelor-Studiengang an der Humboldt-Universität zu Berlin. Hier sind die Inhalte der Vorlesungsfolien aufbereitet zum Lernen. Für die Bereitstellung der Folien bedanken wir uns herzlich bei Prof. Völkle, die inhaltliche Verantwortung liegt aber allein bei uns.

Methodenlehre II

Diese Veranstaltung findet jeweils im Sommersemester statt und baut auf der Veranstaltung Methodenlehre I auf. Jedes Thema wird in einem eigenen Lernset (vgl. folgende Übersicht) gebündelt und kann separat gelernt werden. Die Fragen beruhen vorrangig auf den Folien des Sommersemesters 2016, sind aber (weitgehend) deckungsgleich mit den von 2017. Da die Lernsets auf den Folien basieren, eignen sie sich gut zur Prüfungsvorbereitung. Es werden auch Rechenbeispiele gegeben.

Verteilungs-/Anpassungstest

Analyse von Häufigkeiten. Ein Anpassungstest oder auch Goodness-of-fit-Test ist in der schließenden Statistik ein Hypothesentest, der die unbekannte Wahrscheinlichkeitsverteilung einer Zufallsvariablen auf (annäherndes) Folgen eines bestimmten Verteilungsmodells (z. B. häufig der Normalverteilung) prüfen soll. Es geht um die Hypothese, dass eine vorliegende Stichprobe aus einer Verteilung mit einer bestimmten Verteilungsfunktion stammt. Häufig wird dies durch asymptotische Betrachtungen der empirischen Verteilungsfunktion realisiert.

Korrelation

Eine Korrelation (mittellat. correlatio für „Wechselbeziehung“) beschreibt eine Beziehung zwischen zwei oder mehreren Merkmalen, Ereignissen, Zuständen oder Funktionen. Zwischen Merkmalen, Ereignissen oder Zuständen braucht keine kausale Beziehung zu bestehen: manche Elemente eines Systems beeinflussen sich gegenseitig nicht; oder es besteht eine stochastische (= vom Zufall beeinflusste) Beziehung zwischen ihnen.

Lineare Regression

Die lineare Regression, die einen Spezialfall des allgemeinen Konzepts der Regressionsanalyse darstellt, ist ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären. Das Beiwort „linear“ ergibt sich dadurch, dass die abhängige Variable eine Linearkombination der Regressionskoeffizienten darstellt (aber nicht notwendigerweise der unabhängigen Variablen). Der Begriff Regression bzw. Regression zur Mitte wurde vor allem durch den Statistiker Francis Galton geprägt.

Varianzananalyse

Als Varianzanalyse (ANOVA von englisch analysis of variance) bezeichnet man eine große Gruppe datenanalytischer und strukturprüfender statistischer Verfahren, die zahlreiche unterschiedliche Anwendungen zulassen. Ihnen gemeinsam ist, dass sie Varianzen und Prüfgrößen berechnen, um Aufschlüsse über die hinter den Daten steckenden Gesetzmäßigkeiten zu erlangen. Die Varianz einer oder mehrerer Zielvariable(n) wird dabei durch den Einfluss einer oder mehrerer Einflussvariablen (Faktoren) erklärt. Die einfachste Form der Varianzanalyse testet den Einfluss einer einzelnen nominalskalierten auf eine intervallskalierte Variable, indem sie die Mittelwerte der abhängigen Variable innerhalb der durch die Kategorien der unabhängigen Variable definierten Gruppen vergleicht. Somit stellt die Varianzanalyse in ihrer einfachsten Form eine Alternative zum t-Test dar, die für Vergleiche zwischen mehr als zwei Gruppen geeignet ist.

Multiple lineare Regression

Die multiple lineare Regression, die einen Spezialfall des allgemeinen Konzepts der Regressionsanalyse darstellt, ist ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch mehrere unabhängige Variablen zu erklären. Die multiple lineare Regression stellt eine Verallgemeinerung der einfachen linearen Regression dar. Das Beiwort „linear“ ergibt sich dadurch, dass die abhängige Variable eine Linearkombination der Regressionskoeffizienten darstellt (aber nicht notwendigerweise der unabhängigen Variablen).

Statistische Versuchsplanung

Die statistische Versuchsplanung umfasst alle statistischen Verfahren, die vor Versuchsbeginn angewendet werden sollten.

Da Versuche Ressourcen benötigen (Personal, Zeit, Geräte usw.), sieht sich der Versuchsverantwortliche in einem Zwiespalt zwischen einerseits der Genauigkeit und Zuverlässigkeit seiner erwarteten Ergebnisse und andererseits dem dazu notwendigen Aufwand. Der Begriff „Versuch“ schließt neben materiellen Versuchen die Rechnersimulationen mit ein. Mit der statistischen Versuchsplanung wird mit möglichst wenigen Versuchen (Einzelexperimenten) der Wirkzusammenhang zwischen Einflussfaktoren (= unabhängige Variablen) und Zielgrößen (= abhängige Variable) möglichst genau ermittelt. Wichtiger Bestandteil der statistischen Versuchsplanung ist die Bestimmung des Versuchsumfanges in Abhängigkeit von Genauigkeitsvorgaben wie etwa der Risiken von statistischen Tests und der minimal interessierenden Mindestdifferenz vom Nullhypothesenwert.

Alle Inhalte auf dieser Seite stehen, soweit nicht anders angegeben, unter der Lizenz Creative Commons Namensnennung 4.0 (CC-BY-4.0). Einzelne Elemente (aus anderen Quellen übernommene Fragen, Bilder, Videos, Textabschnitte etc.) können anderen Lizenzen unterliegen und sind entsprechend gekennzeichnet.