Diese Arbeit thematisiert die folgenden Fragen: Für welche Fragestellungen werden Regressionsanalysen genutzt? Wann wird die Berechnung eines Cronbachs Alphas herangezogen? Wie können die ermittelten Werte interpretiert werden?
Die Regressionsanalyse ist eines der häufigsten eingesetzten statistischen Analyseverfahren. Sie dient der Analyse von Beziehungen zwischen einer abhängigen Variablen (auch: Kriterium; Y) und einer oder mehreren unabhängigen Variablen (auch Prädiktoren; X). Dabei wird von der Korrelation als Zusammenhangsmaß ausgegangen. Insbesondere wird sie eingesetzt, um Zusammenhänge quantitativ zu beschreiben und zu erklären, und um Werte der abhängigen Variablen zu schätzen bzw. zu prognostizieren.
Der primäre Anwendungsbereich der Regressionsanalyse ist die Untersuchung von Kausalbeziehungen, die auch als Ursache-Wirkung-Beziehungen bzw. Je-Desto-Beziehungen bezeichnet werden können. Darunter fallen Ursachenanalyen, Wirkungsprognosen, Querschnittsanalysen und Zeitreihenanalysen.
Inhaltsverzeichnis
Abbildungsverzeichnis
Formelverzeichnis
Tabellenverzeichnis
1. Lineare Regressionsanalysen
1.1 Definition
1.2 Durchführungin SPSS
2. Cronbach’s Alpha
2.1 Definition
2.2 Berechnung in SPSS
3. Deskriptive und Inferenzstatistische Analyse eines Beispieldatensatzes mit SPSS
3.1 Deskriptive Beschreibung der Stichprobe
3.2 Exploratorischen Datenanalyse
3.3 Clusteranalyse
Literaturverzeichnis
Abbildungsverzeichnis
Anhang A: Zuordnungsübersicht Clusteranalyse
Anhang B: Dendrogramm Clusteranalyse - vier-Clusterlösung
Abbildungsverzeichnis
Abb. 1: Regressionsgerade durch Punktewolke der erhobenen Daten
Abb. 2: Komponenten der Regressionsgeraden, tatsächlicher y-Wert (yi) und Residuum (s)
Abb. 3: Streudiagramm Residuen auf vorhergesagte Y-Werte bei (a) erfüllten Voraussetzungen, (b) Nicht-Normalität, (c) Nicht-Linearität und (d) Heteroskedastizität
Abb. 4: Aufruf Lineare Regressionsanalyse in SPSS
Abb. 5: Variablen- und Methodenauswahl Lineare Regression in SPSS
Abb. 6: Aufruf Reliabilitätsanalyse in SPSS
Abb. 7: Item- und Reliabilitätskoeffizientenauswahl Reliabilitätsanalyse in SPSS 29 Abb. 8: Auswahl statistischer Kennwerte Reliabilitätsanalyse in SPSS
Abb. 9: Boxplot Extraversion in SPSS
Abb. 10: Boxplot Offenheit in SPSS
Abb. 11: Boxplot Neurotizismus in SPSS
Abb. 12: Balkendiagramm Symptomgruppen in SPSS
Abb. 13: Balkendiagramm Mittelwerte BFI Variablen nach Cluster
Abb. 14: Balkendiagramm Mittelwerte Summe Symptome nach Cluster
Formelverzeichnis
Formel 1: Optimale Gleichung der einfachen linearen Regressionsgeraden
Formel 2: Einfache lineare Regressionsgleichung
Formel 3: Multiple lineare Regressionsgleichung
Formel 4: Minimieren der Summe der Residuumsquadrate
Formel 5: unstandardisierte Regressionsgleichung
Formel 6: standardisierte Regressionsgleichung
Formel 7: Cronbachs Alpha
Formel 8: Cronbachs Alpha bei Standardisierten Items
Tabellenverzeichnis
Tab. 1: Beispiele Typische Fragestellungen der Regressionsanalyse
Tab. 2: Kriterium und potenzielle Prädiktoren im Datensatz EPS_1.sav
Tab. 3: Aufgenommene Variablen Lineare Regression in SPSS
Tab. 4: Modellzusammenfassung Lineare Regression in SPSS
Tab. 5: ANOVA-Ausgabe Lineare Regression in SPSS
Tab. 6: Koeffizienten Lineare Regressionsanalyse in SPSS
Tab. 7: Ausgeschlossene Variablen Lineare Regression in SPSS
Tab. 8: Fallverarbeitung Reliabilitätsanalyse in SPSS
Tab. 9: Cronbachs Alpha Reliabilitätsanalyse in SPSS
Tab. 10: Itemstatistiken Reliabilitätsanalyse in SPSS
Tab. 11: Item-Skala-Statistiken Reliabilitätsanalyse in SPSS
Tab. 12: Skala-Statistiken Reliabilitätsanalyse in SPSS
Tab. 13: Statistiken Geschlecht, Studienfach und Alter in SPSS
Tab. 14: Häufigkeitsverteilung Geschlecht in SPSS
Tab. 15: Häufigkeitsverteilung Studienfach in SPSS
Tab. 16: Häufigkeitsverteilung Alter in SPSS
Tab. 17: Mittelwert, Median, Modus für Alter in SPSS
Tab. 18: Fallverarbeitung Explorative Datenanalyse in SPSS
Tab. 19: Statistiken BFI Explorative Datenanalyse in SPSS
Tab. 20: Fallverarbeitung Clusteranalyse in SPSS
Tab. 21: Häufigkeiten der Clusteranalyse nach Ward Methode in SPSS
Tab. 22: Test auf Normalverteilung
Tab. 23: Levene-Test in SPSS
Tab. 24: Welch-Test in SPSS
Tab. 25: Bonferroni Mehrfachvergleich in SPSS
Tab. 26: Deskriptive Statistik in SPSS
Tab. 27: Fallverarbeitung Kreuztabelle Chi2 in SPSS
Tab. 28: Symptomgruppen Kreuztabelle in SPSS
Tab. 29: Chi-Quadrat-Test in SPSS
1. Lineare Regressionsanalysen
1.1 Definition
Die Regressionsanalyse ist eines der häufigsten eingesetzten statistischen Analyseverfahren. Sie dient der Analyse von Beziehungen zwischen einer abhängigen Variablen (auch: Kriterium; Y) und einer oder mehreren unabhängigen Variablen (auch Prädiktoren; X). Dabei wird von der Korrelation als Zusammenhangsmaß ausgegangen. Insbesondere wird sie eingesetzt, um Zusammenhänge quantitativ zu beschreiben und zu erklären und um Werte der abhängigen Variablen zu schätzen bzw. zu prognostizieren. Der primäre Anwendungsbereich der Regressionsanalyse ist die Untersuchung von Kausalbeziehungen, die auch als Ursache-Wirkung-Beziehungen bzw. Je-Desto-Beziehungen bezeichnet werden können. Darunter fallen Ursachenanalyen, Wirkungsprognosen, Querschnittsanalysen und Zeitreihenanalysen. Es sollte dabei aber betont werden, dass sich mittels Regressionsanalyse keine Kausalität nachweisen lässt. Jedoch lassen sich mithilfe der Regressionsanalyse Korrelationen zwischen Variablen nachweisen. Dies ist zwar eine notwendige, aber keine hinreichende Bedingung für Kausalität (Backhaus, Erichson, Weiber & Plinke, 2016, S. 64-65). Einsatzgebiete des Verfahrens sind oft Studien, bei denen die Prädiktoren leicht und kostengünstig erhoben werden können, während das Kriterium möglicherweise noch in der Zukunft liegt oder nur kostenintensiv erhoben werden kann (Leonhart, 2014, S. 9). Beispiele für Fragestellungen, die mithilfe der Regressionsanalyse untersucht werden können, sowie mögliche Definitionen der jeweils abhängigen und unabhängigen Variablen zeigt Tab. 2. Im linearen Regressionsmodell wird der Zusammenhang über eine lineare Funktion vermittelt (Mittag, 2017, S. 249). Dabei wird zwischen einfacher Regression mit nur einem Prädiktor und multipler Regression bzw. Mehrfachregression mit mehreren Prädiktoren unterschieden. Der Zusammenhang der Variablen wird im einfachen Regressionsmodell durch eine Gerade und im multiplen Regressionsmodell durch eine Ebene bzw. eine Hyperebene vermittelt (Mittag, 2017, S. 249). Die einfache Regression ist die im Anwendungsfall am häufigsten auftretende und ist besonders geeignet, um die Grundsätzlichen Gedanken der Regression aufzuzeigen.
Abbildung in dieser Leseprobe nicht enthalten
Tab. 1: Beispiele Typische Fragestellungen der Regressionsanalyse
(Quelle: Eigene Darstellung in Anlehnung an Backhaus et al., 2016, S. 66)
Zur Durchführung einer Regressionsanalyse müssen in einer Stichprobe die Ausprägungen in beiden Variablen erhoben werden und es muss ein kausaler Zusammenhang dieser Merkmale vorausgesetzt werden (Erinnerung: Korrelation > Kausalität). Je größer der lineare Zusammenhang, d.h. je höher die Korrelation im Betrag ist, desto sicherer kann die Vorhersage erfolgen. Bei der Regression wird versucht, eine Gerade durch eine Punktewolke der erhobenen Daten zu legen (Abb. 1). Diese Gerade soll eine möglichst geringe Abweichung zu allen Punkten der Punktewolke haben. Ist die Korrelation hoch, ist die Punktewolke schmal und die Abweichungen der wahren Werte von der Regressionsgeraden gering. Ist die Punktewolke eher rund und gestreut, ist auch die Korrelation gering und die Abweichungen der wahren Werte von der Regressionsgeraden groß. Dies bedeutet, dass die Vorhersage umso präziser ist, je höher die Korrelation ist. Bei der Regressionsgeraden wird nur eine Schätzung der wahren Werte ermittelt, wobei jede Schätzung Vorhersagefehler (auch: Residuen) beinhaltet (Le- onhart, 2014, S. 10).
Abbildung in dieser Leseprobe nicht enthalten
Abb. 1: Regressionsgerade durch Punktewolke der erhobenen Daten
(Quelle: Eigene Darstellung) Bei der linearen Regression wird eine Kriteriumsvariable V auf die Prädiktorvari- able X zurückgeführt, indem die optimale Gleichung:
Abbildung in dieser Leseprobe nicht enthalten
Formel 1: Optimale Gleichung der einfachen linearen Regressionsgeraden gesucht wird. Da die Gerade unbekannt ist und geschätzt werden muss wird die Notation Y verwendet, bo ist eine Konstante und gibt den Y-Achsenabschnitt an. bi ist der Regressionskoeffizient und gibt die Steigung der Geraden an (Abb. 2).
Abbildung in dieser Leseprobe nicht enthalten
Abb. 2: Komponenten der Regressionsgeraden, tatsächlicher y-Wert (y) und Residuum (s)
(Quelle: Eigene Darstellung)
Abb. 2 zeigt den geschätzten Y-Wert (yi) auf der Regressionsgerade und den tatsächlichen Y-Wert, welcher sich an Punkt (xi;yi) befindet. Bei der gesuchten Gleichung wird bo und bi so bestimmt, dass die Summe der quartrieten Abweichungen der der Y-Werte von den tatsächlichen Y-Werten minimal ist. Somit ist die Regressionsgerade diejenige Gerade, bei der Die Summe der quadrierten Abweichungen minimal ist. Diese Methode wird die Methode der kleinsten Quadrate genannt. Die Abweichungen der vorhergesagten Y-Werte von den tatsächlichen Y-Werten heißen Residuen (s). Aufgenommen in die Gleichung sehen sie folgendermaßen aus:
Abbildung in dieser Leseprobe nicht enthalten
Formel 2: Einfache lineare Regressionsgleichung
In der zweiten Gleichung ist Y die Variable der gemessenen Werte, weswegen das Dach wegfällt. Ein Grund für die Wahl dieses Kriteriums ist, dass die Fehlervarianz minimiert wird (Wentura & Pospeschill, 2015, S. 23). Quadriert werden die Abweichungen, damit die Vorzeichen bei der Berechnung nicht eliminiert werden. Bei der Erweiterung der einfachen bivariaten zur multiplen Regression wird die Kriteriumsvariable auf eine Linearkombination aus mehreren Prädiktorvariab- len zurückgeführt.
Abbildung in dieser Leseprobe nicht enthalten
Formel 3: Multiple lineare Regressionsgleichung
Zur Bestimmung der Regressionsgewichte wird wieder die Summe der Residuumsquadrate minimiert (Wentura & Pospeschill, 2o15, S. 33).
Abbildung in dieser Leseprobe nicht enthalten
Formel 4: Minimieren der Summe der Residuumsquadrate Der Determinationskoeffizient R2 ist die Maßzahl, mit der die Güte der Schätzung und somit der Vorhersage der Regressionsfunktion beurteilt werden kann. Dieser Koeffizient liegt zwischen 0 und 1. Liegt ein perfekter Zusammenhang vor, d.h. alle Datenpunkte liegen auf der Regressionsgeraden, nimmt R2 seinen Maximalwert von 1 an. Nimmt R2 den Wert 0 an, bedeutet das, dass kein linearer Zusammenhang zwischen X und Y vorliegt (Wagschal, 2016, S. 219).
Voraussetzung für die Durchführung einer linearen Regressionsanalyse ist zunächst die sinnvolle Skalierung der beteiligten Variablen. Die Kriteriumsvariable ist in der linearen Regressionsanalyse intervallskaliert. Die Prädiktoren sollen entweder intervallskaliert oder (falls sie Nominalskaliert sind) geeignet kodiert sein (Wentura & Pospeschill, 2015, S. 48). Weiterhin sollten Folgende Voraussetzungen erfüllt sein (Wentura & Pospeschill, 2015, S. 48):
- Linearität: Annahme, dass der vermutete kausale Einfluss der Prädiktor- variable auf die Kriteriumsvariable tatsächlich linear ist
- Homoskedastizität: Die Varianz der Kriteriumswerte ist für jede Kombination von Prädiktorwerten gleich
- Normalverteilung: Die Verteilung der Kriteriumswerte entspricht für jede Kombination von Prädiktorwerten der Normalverteilung
- Unabhängigkeit der Regressionsresiduen
Daraus lässt sich ableiten, dass an die Residuen der Regression die Anforderungen der Linearität, Homoskedastizität und Normalverteilung gestellt werden. Diese Voraussetzungen lassen sich überprüfen, indem das Streudiagramm der Residuen als Funktion der vorhergesagten Werte betrachtet wird (Wentura & Pospeschill, 2015, S. 48; Abb. 3)
Abbildung in dieser Leseprobe nicht enthalten
Abb. 3: Streudiagramm Residuen auf vorhergesagte Y-Werte bei (a) erfüllten Voraussetzungen, (b) Nicht-Normalität, (c) Nicht-Linearität und (d) Heteroskedasti- zität
(Quelle: Wentura & Pospeschill, 2015, S. 49)
Wird zur Vorhersage der untersuchenden Variable Y eine Vielzahl von Prädiktoren herangezogen wird eine multiple Regressionsanalyse durchgeführt. Für die Durchführung existieren verschiedene statistische Methoden, um geeignete Prädiktorvariablen zur Vorhersage des Kriteriums zu ermitteln. Ziel ist es mit einem möglichst einfachen Modell, d.h. wenigen Prädiktoren, möglichst viel Varianz zu erklären (Leonhart, 2014, S. 17). Folgende Methoden werden vom Statistikprogramm SPSS angebotene: Einschluss, Schrittweise, Entfernen, Rückwärts und Vorwärts. Die Methoden können in a-priori und a-posteriori Verfahren unterschieden werden. A-priori Verfahren gehen Theorie- und evidenzgeleitet vor.
Dabei werden alle inhaltlich bedeutsamen Prädiktoren in die Regressionsgleichung aufgenommen und die Auswahl der Prädiktoren wird vor Datenerhebung und Datenauswertung getroffen. Hier wird nur eine einzige Regressionsanalyse durchgeführt. Vorteilhaft ist, dass hier für die Berechnung keine Korrektur des Alpha-Fehler-Niveaus nach unten notwendig ist. Allerdings birgt diese Methode die Gefahr, dass statistisch nicht bedeutsame oder zu viele Prädiktoren aufgenommen werden. Dieses Vorgehen eignet sich, wenn die Prädiktoren gering korreliert sind und es ein gutes Theoriegebäude für die Analyse gibt. SPSS bietet dieses Vorgehen mit der Einschluss-Methode an (Leonhart, 2014, S. 17-18). Bei der a-posteriori Auswahl erfolgt die Auswahl der Prädiktoren schrittweise über mehrere, nacheinander durchgeführte Regressionsanalysen mit verschiedenen Untergruppen potenzieller Prädiktoren. Aus der Menge der vorgeschlagenen Prädiktoren wird eine Teilmenge der statistisch sinnvollen Prädiktoren ausgewählt. Eine Möglichkeit besteht darin, die Veränderung in der Vorhersagekraft eines Regressionsmodells durch Hinzufügen bzw. Weglassen von einer Variablengruppe zu testen. Dieses Verfahren hat jedoch den Nachteil, dass je nach Struktur der Untergruppe viele Berechnungen durchgeführt werden müssen, was zu einer Überschätzung der Zusammenhänge in der Population führt. Eine weitere Methode ist das schrittweise Verfahren der Vorwärtsselektion (Forward Methode). Dabei werden nacheinander Prädiktoren in Abhängigkeit ihrer inkrementellen Validität schrittweise in das Regressionsmodell einbezogen. Es wird im Vorhinein ermittelt, welcher Prädiktor aus der Gruppe der möglichen Prädiktoren den Anteil der erklärten Varianz maximal steigert. Der Vorteil dieses Verfahrens ist eine hohe Ökonomie. Ein Nachteil tritt allerdings auf, wenn die Prädiktoren stark miteinander korrelieren. Dann kann es passieren, dass einige aufgenommene Prädiktoren im Laufe der Berechnung nach der Aufnahme weiterer Prä- diktoren nichts mehr oder nur noch wenig zur Vorhersage beitragen und somit keine inkrementelle Validität mehr besitzen. Bei der Rückwärtselimination (Backward-Meth0de) werden andersrum alle vom Anwender vorgeschlagenen Prädiktoren in die Regressionsanalyse aufgenommen. Dann werden schrittweise alle statistisch nicht bedeutsamen Prädiktoren aussortiert und neue Berechnungen ohne diese Variablen durchgeführt. Dies geschieht so lange, bis kein Prädik- tor mehr ausgeschlossen werden muss. Ein Vorteil ist bei diesem Verfahren die hohe Effektivität, wenn Prädiktoren stark miteinander korrelieren. Ein Nachteil liegt darin, dass bei vielen potenziellen Prädiktoren eventuell viele Regressionsanalysen durchgeführt werden müssen, bis alle nicht notwendigen Prädiktoren ausgeschlossen wurden. Falls aber keine oder nur geringe Multikollinearität vorliegt, kommen die Vorwärtsselektion und die Rückwärtselimination zum identischen Ergebnis (Leonhart, 2014, S. 18-19). Bei der Schrittweisen Regression (Stepwise) werden die Vorwärts- und Rückwärtsselektion miteinander kombiniert. Diese eignet sich besonders bei hoher Korrelation der Prädiktoren. Bei dieser Methode wird schrittweise ein Prädiktor nach dem anderen aufgenommen und nach jeder Aufnahme geprüft, ob auf einen der Prädiktoren im Modell verzichtet werden kann. Das Verfahren endet, wenn es nicht mehr möglich ist, einen Prädiktor hinzuzunehmen oder auszuschließen. Dies hat den Vorteil einer maximalen Varianzerklärung. Allerdings können sich hier Probleme der Überschätzung einer Populationskorrelation durch die Stichprobenkorrelation besonders stark auf die Daten auswirken. Zu Zwecken der Validität sollte bei diesem Verfahren sollten zudem eine Kreuzvalidierung erfolgen (Leonhart, 2014, S. 19).
1.2 Durchführung in SPSS
Im Folgenden wird das Stepwise-Verfahren der multiplen linearen Regressionsanalyse anhand des in der Modulprüfung beigefügten Datensatzes EPS_1.sav im Statistik Programm SPSS durchgeführt. Die Daten wurden durch die Fragebögen BFI (Big Five Inventory), PANAS (Positive and Negative Affect Schedule), BEQ (Berkeley Expressivity Questionnaire) und PILL (Pennebaker Inventory Limbic Languidness) erhoben. Im Folgenden Beispiel wird versucht das Kriterium Expressivität (durch den BEQ erhoben) durch die Prädiktoren Alter, Geschlecht, Affektivität, Extraversion, Verträglichkeit und Neurotizismus zu erklären (Tab. 2).
Abbildung in dieser Leseprobe nicht enthalten
Tab. 2: Kriterium und potenzielle Prädiktoren im Datensatz EPS_1.sav
(Quelle: Eigene Darstellung)
Im SPSS Menü wird befindet sich die Regressionsanalyse unter dem Menüpunkt „Analysieren“ - ,,-egression“ - „Linear“ (Abb. 4).
Abbildung in dieser Leseprobe nicht enthalten
Abb. 4: Aufruf Lineare Regressionsanalyse in SPSS
(Quelle: Eigene Darstellung)
Im nächsten Schritt öffnet sich ein neues Fenster. Die soeben benannten abhängigen und unabhängigen Variablen sowie die Methode „schrittweise“ werden ausgewählt (Abb. 5). Im linken Fenster stehen alle im Datensatz enthaltene Variablen zur Verfügung. Rechts wird das Kriterium und die vom Anwender ausgewählten Prädiktoren eingefügt. Darunter lässt sich eine der in Kapitel 1.1 genannten Methoden auswählen. Analog kann dieser Schritt auch über den folgenden Syntax-Befehl erreicht werden:
Abbildung in dieser Leseprobe nicht enthalten
Abb. 5: Variablen- und Methodenauswahl Lineare Regression in SPSS
(Quelle: Eigene Darstellung)
Abbildung in dieser Leseprobe nicht enthalten
Tab. 3: Aufgenommene Variablen Lineare Regression in SPSS
(Quelle: Eigene Darstellung)
Im Rahmen der schrittweisen Regression wurde im Modell 1 der Prädiktor „Extraversion“ und anschließend im Modell 2 der Prädiktor „Geschlecht“ aufgenommen. Dies bedeutet, dass lediglich diese beiden Variablen (von den in Abb. 5 ausgesuchten Variablen) das Potenzial haben, einen Teil zur Vorhersage des Kriteriums „Expressivität“ beizutragen. Die Wahrscheinlichkeit einer Aufnahme eines Prädiktors liegt hier bei p = 0,05 und die Wahrscheinlichkeit eines Ausschlusses eines aufgenommenen Prädiktors bei p = 0,1. Dies entspricht dem Standard bei der schrittweisen Regressionsanalyse (Leonhart, 2014, S. 21).
Abbildung in dieser Leseprobe nicht enthalten
Tab. 4: Modellzusammenfassung Lineare Regression in SPSS
(Quelle: Eigene Darstellung)
Abb. 7 zeigt, dass im ersten Schritt die Variable „Extraversion“ und im zweiten Schritt zusätzlich die Variable „Geschlecht“ aufgenommen wurde. Von Interesse ist hier daher das zweite Modell, welches beide Prädiktoren beinhaltet. Die Tabelle beinhaltet den korrigierten Determinationskoeffizienten R2. Dieser stellt ein unverzerrtes R2 Maß dar, bei dem R2 um den jeweiligen Stichprobenumfang (hier N= 100) und die Anzahl der im Modell berücksichtigten Prädiktoren korrigiert wird (Urban & Mayerl, 2006, S. 172). Mithilfe des Prädiktors Extraversion im Modell 1 kann bereits 8% der Varianz erklärt werden. Durch Hinzunahme des zweiten Prädiktors „Geschlecht“ im Modell 2 steigt dieser Anteil der erklärbaren Varianz auf 12,2%.
Abbildung in dieser Leseprobe nicht enthalten
Tab. 5: ANOVA-Ausgabe Lineare Regression in SPSS
(Quelle: Eigene Darstellung)
Die ANOVA Tabelle (analysis of variance, deutsch: Varianzanalyse; Abb. 8) gibt den signifikanten Anteil an erklärbarer Varianz an. Daher ist besonders die letzte Spalte (Sig.) von Bedeutung. Diese sollte einen signifikanten Wert aufweisen, damit das Regressionsmodell einen Erklärungsbeitrag leistet. Da sie in diesem Fall bei p<0,05 liegt, gilt das Modell als signifikant (Urban & Mayerl, 2006, S. 173). Bei Modell 1 gibt es einen Zählerfreiheitsgrad und bei Modell 2 gibt es zwei Zählerfreiheitsgrade. Der Residualfreiheitsgrad sinkt von 97 auf 96.
[...]
- Citar trabajo
- Vivien Albers (Autor), 2021, Regressionsanalysen, Cronbachs Alpha und deskriptive und inferenzstatistische Analysen in SPSS, Múnich, GRIN Verlag, https://www.grin.com/document/1282465
-
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X.