Deskriptive Statistik verstehen

Deskriptive Statistik verstehen von Schendera,  Christian FG
Mit der Deskriptiven Statistik ist es wie mit dem Fußball – mit Einstellung, Fleiß und Training gelangt man zum Ziel: Deskriptive Statistik als Kompetenz. Dieses Taschenbuch stellt dazu die Grundlagen und Spielregeln sowie die wichtigsten Maße, Tabellen und Visualisierungen vor. Weitere Themen sind die Datenqualität (u. a. der Umgang mit fehlenden Werten), die Sampling-Theorie (Designstrukturen und Ziehungsarten), das Rechnen mit Gewichten oder auch das Schreiben von Zahlen in Texten. Zahlreiche Beispiele aus der lehrreichen Welt des Fußballs helfen beim schnellen Verständnis. Kompakte Einführungen in IBM SPSS Statistics und den Enterprise Guide von SAS runden die praktische Anwendung ab.
Aktualisiert: 2023-07-02
> findR *

Deskriptive Statistik verstehen

Deskriptive Statistik verstehen von Schendera,  Christian FG
Mit der Deskriptiven Statistik ist es wie mit dem Fußball – mit Einstellung, Fleiß und Training gelangt man zum Ziel: Deskriptive Statistik als Kompetenz. Dieses Taschenbuch stellt dazu die Grundlagen und Spielregeln sowie die wichtigsten Maße, Tabellen und Visualisierungen vor. Weitere Themen sind die Datenqualität (u. a. der Umgang mit fehlenden Werten), die Sampling-Theorie (Designstrukturen und Ziehungsarten), das Rechnen mit Gewichten oder auch das Schreiben von Zahlen in Texten. Zahlreiche Beispiele aus der lehrreichen Welt des Fußballs helfen beim schnellen Verständnis. Kompakte Einführungen in IBM SPSS Statistics und den Enterprise Guide von SAS runden die praktische Anwendung ab.
Aktualisiert: 2023-07-02
> findR *

Deskriptive Statistik verstehen

Deskriptive Statistik verstehen von Schendera,  Christian FG
Mit der Deskriptiven Statistik ist es wie mit dem Fußball – mit Einstellung, Fleiß und Training gelangt man zum Ziel: Deskriptive Statistik als Kompetenz. Dieses Taschenbuch stellt dazu die Grundlagen und Spielregeln sowie die wichtigsten Maße, Tabellen und Visualisierungen vor. Weitere Themen sind die Datenqualität (u. a. der Umgang mit fehlenden Werten), die Sampling-Theorie (Designstrukturen und Ziehungsarten), das Rechnen mit Gewichten oder auch das Schreiben von Zahlen in Texten. Zahlreiche Beispiele aus der lehrreichen Welt des Fußballs helfen beim schnellen Verständnis. Kompakte Einführungen in IBM SPSS Statistics und den Enterprise Guide von SAS runden die praktische Anwendung ab.
Aktualisiert: 2023-06-02
> findR *

Regressionsanalyse mit SPSS

Regressionsanalyse mit SPSS von Schendera,  Christian FG
Das Buch bringt dem Anwender von SPSS die verschiedenen Regressionsverfahren anhand vieler Beispiele nahe. Dabei wird auf häufige Fehler genauso eingegangen wie auf detaillierte Beschreibungen und Informationen zu SPSS-Ausgaben und -Syntax. Die Neuauflage enthält nicht nur Anpassungen an die neueste Programmversion (IBM SPSS Statistics V21), sondern wurde auch um weitere Regressionsansätze erweitert.
Aktualisiert: 2023-05-29
> findR *

SQL mit SAS

SQL mit SAS von Schendera,  Christian FG
SQL (Structured Query Language) ist die vermutlich am weitesten verbreitete Programmiersprache weltweit und gilt mittlerweile als Quasi-Industriestandard. Dieses Buch behandelt besondere Anwendungsmöglichkeiten des SAS Systems im Zusammenspiel mit SQL. Hervorzuheben ist das umfangreiche Kapitel zur Makroprogrammierung, das von einfachen (SQL) Makrovariablen bis hin zu komplexen SAS Programmen die Vorteile von SAS Makros veranschaulicht. Ein weiteres Kapitel beschäftigt sich mit Datenqualität, darin vor allem mit Integrity Constraints (Prüfregeln) und Audit Trails (Prüfprotokollen). Ein eigenes Kapitel ist dem Umgang mit Missings (NULL-Werte) vorbehalten. Weitere Kapitel behandeln u.a. Hash Programming, Tuning in Richtung zu mehr Performanz und Effizienz, einschließlich Übersichten zur SQL Syntax, SAS Funktionen und Funktionsaufrufen.
Aktualisiert: 2023-05-29
> findR *

Regressionsanalyse mit SPSS

Regressionsanalyse mit SPSS von Schendera,  Christian FG
Dieses Buch führt ein in die grundlegenden Ansätze: Korrelation, Regression (linear, multipel, nichtlinear), logistische und ordinale Regression, sowie die Überlebenszeitanalyse (Survivalanalyse). Bei allen Ansätzen werden Voraussetzungen und häufig begangene Fehler ausführlich erläutert. Das Buch ist für Mauslenker und Syntaxprogrammierung gleichermaßen geeignet. Das Buch wurde für SPSS Version 16 geschrieben. Zahlreiche Rechenbeispiele werden von der Fragestellung, der Anforderung der einzelnen Statistiken (per Maus, per Syntax) bis hin zur Interpretation des SPSS Ausgaben systematisch durchgespielt. Es wird auch auf diverse Fehler und Fallstricke eingegangen. Zur Prüfung von Daten vor der Durchführung einer statistischen Analyse wird auf "Datenqualität mit SPSS" (Schendera, 2007) verwiesen. Bei der Korrelationsanalyse werden z.B. die Voraussetzungen wie z.B. Skalenniveau, Homoskedastizität und Kontinuität erläutert. Weitere Abschnitte behandeln die Themen Linearität, Scheinkorrelation und Alphafehler-Kumulation. Auch wird erläutert, warum die bloße Angabe eines Korrelationskoeffizienten im Prinzip Unfug ist. Als spezielle Anwendungen werden der Vergleich von Korrelationskoeffizienten und die Kanonische Korrelation vorgestellt. Bei der Regressionsanalyse werden z.B. das Grundprinzip der klassischen bivariaten, linearen Regression vorgestellt: Eine lineare Funktion wird mittels einer linearen Regressionsanalyse untersucht. An einem einfachen Beispiel die Überprüfung der Linearität und Identifikation von Ausreißern anhand von Hebelwerten und Residuen erläutert. Auch wird das Überprüfen auf eine möglicherweise vorliegende Autokorrelation erläutert. Am Beispiel der nichtlinearen einfachen Regression wird demonstriert, warum es ein (nicht selten begangener) Fehler ist, eine nichtlineare Funktion mittels einer linearen Regressionsanalyse zu untersuchen. Weitere Abschnitte bieten zwei Lösungsmöglichkeiten an: Eine nichtlineare Funktion kann linearisiert und mittels einer linearen Regression analysiert werden. Alternativ kann eine nichtlineare Funktion mittels einer nichtlinearen Regression geschätzt werden. Außerdem werden Sinn und Grenzen der SPSS Prozedur CURVEFIT für die (non)lineare Kurvenanpassung erläutert. Abschließend wird eine nichtlineare Regression mit zwei Prädiktoren vorgestellt. An der multiplen linearen Regression werden Besonderheiten des Verfahrens, sowie die Multikollinearität und andere Fallstricke erläutert. Zu den Besonderheiten der multiplen Regression zählen u.a. die Verfahren der Variablenselektion, sowie die Interpretation der speziellen Statistiken der multiplen Regression. Neben dem Identifizieren und Beheben von Multikollinearität wird auch auf das Umgehen mit zeitabhängigen (autoregressiven) Daten eingegangen. Abschließend werden Hinweise für die Berechnung einer Partialregression gegeben. Bei den Verfahren der logistischen, sowie ordinalen Regression wird zunächst auf das Kausalmodell und das Messniveau der abhängigen Variablen eingegangen. Als grundlegendes Verfahren wird zunächst die binäre logistische Regression vorgestellt und die Gemeinsamkeiten und Unterschiede zu anderen Verfahren erläutert. Anhand mehrerer Rechenbeispiele werden u.a. die unterschiedlichen Verfahren der Variablenselektion, sowie die Interpretation der ausgegebenen Statistiken erläutert. Abschließend wird auf das häufige Auseinanderklaffen von Modellgüte und Vorhersagegenauigkeit eingegangen. Die multinomiale logistische Regression wird analog behandelt. Zusätzlich wird der Spezialfall der Gematchten Fall-Kontroll-Studie (1:1) mit metrischen Prädiktoren vorgestellt. Anschließend wird die ordinale Regression vorgestellt und die Gemeinsamkeiten und Unterschiede mit den anderen Verfahren erläutert. Anhand mehrerer Rechenbeispiele werden u.a. die Interpretation der SPSS Ausgaben für Modelle mit intervallskalierten und kategorial skalierten Prädiktoren erläutert. Bei der Überlebenszeitanalyse (syn.: Survivalanalyse, survival analysis, Lebenszeitanalyse, lifetime analysis, failure time analysis, time to effect, time to event analysis, etc.) werden z.B. das das Grundprinzip der Survivalanalyse, sowie die Bedeutung zensierte Daten erläutert. Als Verfahren zur Schätzung der Überlebenszeit S(t) werden die versicherungsmathematische Methode (Sterbetafel-Methode), der Kaplan-Meier-Ansatz, sowie Regressionen nach Cox behandelt. Bei der Sterbetafel-Methode werden Beispiele mit bzw. ohne Faktoren vorgestellt. Beim Kaplan-Meier-Ansatz werden Beispiele mit/ohne Faktoren, mit Schichtvariablen, sowie für die Ermittlung von Konfidenzintervallen vorgestellt. Bei den Regressionen nach Cox werden neben dem Unterschied zwischen Ansätzen für zeitunabhängige und zeitabhängige Kovariaten, ebenfalls zahlreichen Rechenbeispiele, sowie Cox-Regressionen für Interaktionen, sowie auch die Überprüfung der speziellen Voraussetzungen der Cox-Regression vorgestellt. Weitere Abschnitte behandeln weitere regressionsanalytische Ansätze und Modelle (u.a. PLS-Regression, Ridge-Regression, Modellierung individueller Wachstumskurven).
Aktualisiert: 2023-05-29
> findR *

Regressionsanalyse mit SPSS

Regressionsanalyse mit SPSS von Schendera,  Christian FG
Dieses Buch führt ein in die grundlegenden Ansätze: Korrelation, Regression (linear, multipel, nichtlinear), logistische und ordinale Regression, sowie die Überlebenszeitanalyse (Survivalanalyse). Bei allen Ansätzen werden Voraussetzungen und häufig begangene Fehler ausführlich erläutert. Das Buch ist für Mauslenker und Syntaxprogrammierung gleichermaßen geeignet. Das Buch wurde für SPSS Version 16 geschrieben. Zahlreiche Rechenbeispiele werden von der Fragestellung, der Anforderung der einzelnen Statistiken (per Maus, per Syntax) bis hin zur Interpretation des SPSS Ausgaben systematisch durchgespielt. Es wird auch auf diverse Fehler und Fallstricke eingegangen. Zur Prüfung von Daten vor der Durchführung einer statistischen Analyse wird auf "Datenqualität mit SPSS" (Schendera, 2007) verwiesen. Bei der Korrelationsanalyse werden z.B. die Voraussetzungen wie z.B. Skalenniveau, Homoskedastizität und Kontinuität erläutert. Weitere Abschnitte behandeln die Themen Linearität, Scheinkorrelation und Alphafehler-Kumulation. Auch wird erläutert, warum die bloße Angabe eines Korrelationskoeffizienten im Prinzip Unfug ist. Als spezielle Anwendungen werden der Vergleich von Korrelationskoeffizienten und die Kanonische Korrelation vorgestellt. Bei der Regressionsanalyse werden z.B. das Grundprinzip der klassischen bivariaten, linearen Regression vorgestellt: Eine lineare Funktion wird mittels einer linearen Regressionsanalyse untersucht. An einem einfachen Beispiel die Überprüfung der Linearität und Identifikation von Ausreißern anhand von Hebelwerten und Residuen erläutert. Auch wird das Überprüfen auf eine möglicherweise vorliegende Autokorrelation erläutert. Am Beispiel der nichtlinearen einfachen Regression wird demonstriert, warum es ein (nicht selten begangener) Fehler ist, eine nichtlineare Funktion mittels einer linearen Regressionsanalyse zu untersuchen. Weitere Abschnitte bieten zwei Lösungsmöglichkeiten an: Eine nichtlineare Funktion kann linearisiert und mittels einer linearen Regression analysiert werden. Alternativ kann eine nichtlineare Funktion mittels einer nichtlinearen Regression geschätzt werden. Außerdem werden Sinn und Grenzen der SPSS Prozedur CURVEFIT für die (non)lineare Kurvenanpassung erläutert. Abschließend wird eine nichtlineare Regression mit zwei Prädiktoren vorgestellt. An der multiplen linearen Regression werden Besonderheiten des Verfahrens, sowie die Multikollinearität und andere Fallstricke erläutert. Zu den Besonderheiten der multiplen Regression zählen u.a. die Verfahren der Variablenselektion, sowie die Interpretation der speziellen Statistiken der multiplen Regression. Neben dem Identifizieren und Beheben von Multikollinearität wird auch auf das Umgehen mit zeitabhängigen (autoregressiven) Daten eingegangen. Abschließend werden Hinweise für die Berechnung einer Partialregression gegeben. Bei den Verfahren der logistischen, sowie ordinalen Regression wird zunächst auf das Kausalmodell und das Messniveau der abhängigen Variablen eingegangen. Als grundlegendes Verfahren wird zunächst die binäre logistische Regression vorgestellt und die Gemeinsamkeiten und Unterschiede zu anderen Verfahren erläutert. Anhand mehrerer Rechenbeispiele werden u.a. die unterschiedlichen Verfahren der Variablenselektion, sowie die Interpretation der ausgegebenen Statistiken erläutert. Abschließend wird auf das häufige Auseinanderklaffen von Modellgüte und Vorhersagegenauigkeit eingegangen. Die multinomiale logistische Regression wird analog behandelt. Zusätzlich wird der Spezialfall der Gematchten Fall-Kontroll-Studie (1:1) mit metrischen Prädiktoren vorgestellt. Anschließend wird die ordinale Regression vorgestellt und die Gemeinsamkeiten und Unterschiede mit den anderen Verfahren erläutert. Anhand mehrerer Rechenbeispiele werden u.a. die Interpretation der SPSS Ausgaben für Modelle mit intervallskalierten und kategorial skalierten Prädiktoren erläutert. Bei der Überlebenszeitanalyse (syn.: Survivalanalyse, survival analysis, Lebenszeitanalyse, lifetime analysis, failure time analysis, time to effect, time to event analysis, etc.) werden z.B. das das Grundprinzip der Survivalanalyse, sowie die Bedeutung zensierte Daten erläutert. Als Verfahren zur Schätzung der Überlebenszeit S(t) werden die versicherungsmathematische Methode (Sterbetafel-Methode), der Kaplan-Meier-Ansatz, sowie Regressionen nach Cox behandelt. Bei der Sterbetafel-Methode werden Beispiele mit bzw. ohne Faktoren vorgestellt. Beim Kaplan-Meier-Ansatz werden Beispiele mit/ohne Faktoren, mit Schichtvariablen, sowie für die Ermittlung von Konfidenzintervallen vorgestellt. Bei den Regressionen nach Cox werden neben dem Unterschied zwischen Ansätzen für zeitunabhängige und zeitabhängige Kovariaten, ebenfalls zahlreichen Rechenbeispiele, sowie Cox-Regressionen für Interaktionen, sowie auch die Überprüfung der speziellen Voraussetzungen der Cox-Regression vorgestellt. Weitere Abschnitte behandeln weitere regressionsanalytische Ansätze und Modelle (u.a. PLS-Regression, Ridge-Regression, Modellierung individueller Wachstumskurven).
Aktualisiert: 2023-05-29
> findR *

SQL mit SAS

SQL mit SAS von Schendera,  Christian FG
SQL (Structured Query Language) ist die vermutlich am weitesten verbreitete Programmiersprache weltweit und gilt mittlerweile als Quasi-Industriestandard. Dieses Buch versteht sich als Übersicht und Einführung in SQL. Schritt für Schritt wird der Anwender von einfachen Beispielen (per Maus abgefragt oder mit SQL Syntax geschrieben), zu komplexen Arbeiten innerhalb einer oder mehr Tabellen einschließlich komplexerer Szenarios und Joins geführt. Fokuskapitel vertiefen besondere Themen der Arbeit mit SQL, z.B. die deskriptive Statistik, sowie Hilfen, Tipps und Tricks. Das Buch enthält außerdem Übungsaufgaben zu Daten erfolgreicher Kinofilme, wie auch ihre Lösung mit SQL.
Aktualisiert: 2023-05-29
> findR *

SQL mit SAS

SQL mit SAS von Schendera,  Christian FG
SQL (Structured Query Language) ist die vermutlich am weitesten verbreitete Programmiersprache weltweit und gilt mittlerweile als Quasi-Industriestandard. Dieses Buch behandelt besondere Anwendungsmöglichkeiten des SAS Systems im Zusammenspiel mit SQL. Hervorzuheben ist das umfangreiche Kapitel zur Makroprogrammierung, das von einfachen (SQL) Makrovariablen bis hin zu komplexen SAS Programmen die Vorteile von SAS Makros veranschaulicht. Ein weiteres Kapitel beschäftigt sich mit Datenqualität, darin vor allem mit Integrity Constraints (Prüfregeln) und Audit Trails (Prüfprotokollen). Ein eigenes Kapitel ist dem Umgang mit Missings (NULL-Werte) vorbehalten. Weitere Kapitel behandeln u.a. Hash Programming, Tuning in Richtung zu mehr Performanz und Effizienz, einschließlich Übersichten zur SQL Syntax, SAS Funktionen und Funktionsaufrufen.
Aktualisiert: 2023-05-29
> findR *

Regressionsanalyse mit SPSS

Regressionsanalyse mit SPSS von Schendera,  Christian FG
Das Buch bringt dem Anwender von SPSS die verschiedenen Regressionsverfahren anhand vieler Beispiele nahe. Dabei wird auf häufige Fehler genauso eingegangen wie auf detaillierte Beschreibungen und Informationen zu SPSS-Ausgaben und -Syntax. Die Neuauflage enthält nicht nur Anpassungen an die neueste Programmversion (IBM SPSS Statistics V21), sondern wurde auch um weitere Regressionsansätze erweitert.
Aktualisiert: 2023-05-29
> findR *

Datenmanagement und Datenanalyse mit dem SAS-System

Datenmanagement und Datenanalyse mit dem SAS-System von Schendera,  Christian FG
Das Buch widerlegt viverse Vorurteile gegenüber SAS: Weder ist SAS benutzerunfreundlich noch kompliziert. SAS ermöglicht es oft erst, mit komplizierten Datenstrukturen und -analysen umgehen zu können. Viele Andere Programme sind weit weniger flexibel - ja rechnen sogar falsch. Die Dokumentation des SAS-Systems ist hervorragend. Das Buch bietet auch Perspektiven für Data Analysten, Projekte und Unternehmen, wenn sie sich für SAS entscheiden. Gleichzeitig erleichtert der Autor den Einstieg in die Welt des Managements und der Analyse von Daten. Das Werk breitet das ganze Spektrum von Möglichkeiten aus, die SAS bietet. Es ist sowohl Lehr- als auch Handbuch.
Aktualisiert: 2023-05-29
> findR *

Clusteranalyse mit SPSS

Clusteranalyse mit SPSS von Schendera,  Christian FG
Dieses Buch führt ein in die grundlegenden Ansätze des Clusterns, Segmentierens und der Faktorextraktion. Kapitel 1 führt ein in die Clusteranalyse. Nach einem intuitiven Beispiel anhand des Clusterns von Muscheln am Strand, und dem zugrundeliegenden, oft unausgesprochenen Cluster-Prinzipien werden u.a. die hierarchische, partitionierende und das TwoStep-Verfahren vorgestellt. Bei der hierarchischen Clusteranalyse (CLUSTER) werden die diversen Maße (z.B. quadrierte euklidische Distanz, Pearson-Korrelation, Chi²-Maß etc.) und die jeweiligen Algorithmen (Density, Linkage, Ward etc.) einschl. ihrer Bias (z.B. Ausreißer, Chaining) erläutert. Anhand zahlreicher Beispiele wird erläutert, wie Intervalldaten, Häufigkeiten, Kategorialdaten, sowie gemischte Daten geclustert werden. Bei der partitionierenden Clusterzentrenanalyse (k-means, QUICK CLUSTER) lernen Sie Teststatistiken zur Bestimmung der optimalen Clusterzahl kennen (z.B. Eta², F-max; nicht im original SPSS Leistungsumfang enthalten), sowie die ausgewählte Clusterlösung auf Interpretierbarkeit, Stabilität und Validität zu prüfen. Bei der Two-Step Clusteranalyse (TWOSTEP CLUSTER) lernen Sie die Clusterung von gemischten Daten anhand eines Scoring-Algorithmus kennen Darüber hinaus lernen Sie Kriterien für die Beurteilung einer guten Clusterlösung kennen, wie auch alternative grafische und logische Ansätze zur Clusterung von auch Daten im String-Format. Kapitel 2 führt ein in die Gruppe der Faktorenanalyse mit SPSS. Die Faktorenanalyse (factor analysis, FA) ist ein Sammelbegriff für verschiedene Verfahren, die es ermöglichen, aus einer großen Zahl von Variablen eine möglichst geringe Anzahl von (nicht beobachteten) 'Faktoren' zu erhalten ('extrahieren'). Die Faktorenanalyse geht nicht von unabhängigen oder abhängigen Variablen aus, sondern behandelt alle Analysevariablen unabhängig von einem Kausalitätsstatus. Dieser Kurs führt in das Grundprinzip und Varianten der Faktorenanalyse (z.B. Alpha, Hauptfaktoren, Hauptkomponenten), die wichtigsten Extraktions-, wie auch Rotationsmethoden (z.B. orthogonal vs. oblique) und ihre Funktion. Vorgestellt werden Kriterien zur Bestimmung, Interpretation und Benennung der Faktoren. Dieser Kurs stellt ausschließlich die Variante der explorativen Faktorenanalyse (EFA) vor (R-Typ). Abschliessend werden eine Faktorenanalyse für Fälle (Q-Typ Faktorenanalyse vorgestellt, sowie eine Matrix-Variante, die dann zum Einsatz kommen kann, wenn die korrelationsanalytischen Voraussetzungen der Faktorenanalyse nicht erfüllt sind. Die Überprüfung der Voraussetzungen und die Interpretation der Statistiken werden an zahlreichen Beispielen geübt. Kapitel 3 stellt die Diskriminanzanalyse (DA, syn.: DFA, Diskriminanzfunktionsanalyse) vor. Das zentrale Ziel dieses Ansatzes ist, die beste Trennung (Diskriminanz) zwischen den Zugehörigkeiten einer abhängigen Gruppenvariable für mehrere unabhängige Einflussvariablen zu finden. In anderen Worten, die Diskriminanzanalyse liefert die Antwort auf die Frage: Welche Kombination von Einflussvariablen erlaubt eine maximal trennende Aufteilung der Fälle in die bekannten Ausprägungen einer Gruppe? Weitere, damit in Zusammenhang stehende Fragen können sein: Auf welche Weise werden die Fälle klassiert, wie genau werden die Fälle klassiert (erkennbar an der Anzahl der Fehlklassifikationen), und wie sind die schlussendlich entstehenden Klassifizierungen zu interpretieren? Es werden u.a. diverse Methoden der Variablenselektion (direkt, schrittweise), sowie auch die Berechnung und Interpretation multipler schrittweiser Diskriminanzanalysen mit mehreren ermittelten Funktionen vorgestellt (einschliesslich Lambda, Box-Test, Kreuzvalidierung (Interpretation von Kovarianz-Matrizen), das Identifizieren von Multikollinearität, sowie Gebietskarten (Territorien). Weitere Kapitel stellen Möglichkeiten des Clusterns und Segmentierens (u.a. mit CLEMENTINE, Entscheidungsbäume und ausgewählte Cluster-Knoten. In einem abschließenden Kapitel sind ausgewählte Formeln der wichtigsten behandelten Verfahren zusammengestellt. Zahlreiche Rechenbeispiele werden von der Fragestellung, der Anforderung der einzelnen Statistiken (per Maus, per Syntax) bis hin zur Interpretation der SPSS- und CLEMENTINE Ausgaben systematisch durchgespielt. Auch auf mögliche Fallstricke und häufig begangene Fehler wird eingegangen. Separate Abschnitte stellen die diversen Voraussetzungen für die Durchführung der jeweiligen Analyse, sowie Ansätze zu ihrer Überprüfung zusammen. Dieses Buch ist angenehm verständlich und anwendungsorientiert geschrieben, ohne jedoch die Komplexität und damit erforderliche Tiefe bei der Vorstellung der Verfahren zu vernachlässigen. Dieses Buch ist für Einsteiger, Studierende, sowie fortgeschrittene Wissenschaftler in den Wirtschafts-, Bio-, und Sozialwissenschaften gleichermaßen geeignet.
Aktualisiert: 2023-05-29
> findR *

Datenmanagement und Datenanalyse mit dem SAS-System

Datenmanagement und Datenanalyse mit dem SAS-System von Schendera,  Christian FG
Das Buch widerlegt viverse Vorurteile gegenüber SAS: Weder ist SAS benutzerunfreundlich noch kompliziert. SAS ermöglicht es oft erst, mit komplizierten Datenstrukturen und -analysen umgehen zu können. Viele Andere Programme sind weit weniger flexibel - ja rechnen sogar falsch. Die Dokumentation des SAS-Systems ist hervorragend. Das Buch bietet auch Perspektiven für Data Analysten, Projekte und Unternehmen, wenn sie sich für SAS entscheiden. Gleichzeitig erleichtert der Autor den Einstieg in die Welt des Managements und der Analyse von Daten. Das Werk breitet das ganze Spektrum von Möglichkeiten aus, die SAS bietet. Es ist sowohl Lehr- als auch Handbuch.
Aktualisiert: 2023-05-29
> findR *

SQL mit SAS

SQL mit SAS von Schendera,  Christian FG
SQL (Structured Query Language) ist die vermutlich am weitesten verbreitete Programmiersprache weltweit und gilt mittlerweile als Quasi-Industriestandard. Dieses Buch versteht sich als Übersicht und Einführung in SQL. Schritt für Schritt wird der Anwender von einfachen Beispielen (per Maus abgefragt oder mit SQL Syntax geschrieben), zu komplexen Arbeiten innerhalb einer oder mehr Tabellen einschließlich komplexerer Szenarios und Joins geführt. Fokuskapitel vertiefen besondere Themen der Arbeit mit SQL, z.B. die deskriptive Statistik, sowie Hilfen, Tipps und Tricks. Das Buch enthält außerdem Übungsaufgaben zu Daten erfolgreicher Kinofilme, wie auch ihre Lösung mit SQL.
Aktualisiert: 2023-05-29
> findR *

Regressionsanalyse mit SPSS

Regressionsanalyse mit SPSS von Schendera,  Christian FG
Das Buch bringt dem Anwender von SPSS die verschiedenen Regressionsverfahren anhand vieler Beispiele nahe. Dabei wird auf häufige Fehler genauso eingegangen wie auf detaillierte Beschreibungen und Informationen zu SPSS-Ausgaben und -Syntax. Die Neuauflage enthält nicht nur Anpassungen an die neueste Programmversion (IBM SPSS Statistics V21), sondern wurde auch um weitere Regressionsansätze erweitert.
Aktualisiert: 2023-05-29
> findR *

Clusteranalyse mit SPSS

Clusteranalyse mit SPSS von Schendera,  Christian FG
Dieses Buch führt ein in die grundlegenden Ansätze des Clusterns, Segmentierens und der Faktorextraktion. Kapitel 1 führt ein in die Clusteranalyse. Nach einem intuitiven Beispiel anhand des Clusterns von Muscheln am Strand, und dem zugrundeliegenden, oft unausgesprochenen Cluster-Prinzipien werden u.a. die hierarchische, partitionierende und das TwoStep-Verfahren vorgestellt. Bei der hierarchischen Clusteranalyse (CLUSTER) werden die diversen Maße (z.B. quadrierte euklidische Distanz, Pearson-Korrelation, Chi²-Maß etc.) und die jeweiligen Algorithmen (Density, Linkage, Ward etc.) einschl. ihrer Bias (z.B. Ausreißer, Chaining) erläutert. Anhand zahlreicher Beispiele wird erläutert, wie Intervalldaten, Häufigkeiten, Kategorialdaten, sowie gemischte Daten geclustert werden. Bei der partitionierenden Clusterzentrenanalyse (k-means, QUICK CLUSTER) lernen Sie Teststatistiken zur Bestimmung der optimalen Clusterzahl kennen (z.B. Eta², F-max; nicht im original SPSS Leistungsumfang enthalten), sowie die ausgewählte Clusterlösung auf Interpretierbarkeit, Stabilität und Validität zu prüfen. Bei der Two-Step Clusteranalyse (TWOSTEP CLUSTER) lernen Sie die Clusterung von gemischten Daten anhand eines Scoring-Algorithmus kennen Darüber hinaus lernen Sie Kriterien für die Beurteilung einer guten Clusterlösung kennen, wie auch alternative grafische und logische Ansätze zur Clusterung von auch Daten im String-Format. Kapitel 2 führt ein in die Gruppe der Faktorenanalyse mit SPSS. Die Faktorenanalyse (factor analysis, FA) ist ein Sammelbegriff für verschiedene Verfahren, die es ermöglichen, aus einer großen Zahl von Variablen eine möglichst geringe Anzahl von (nicht beobachteten) 'Faktoren' zu erhalten ('extrahieren'). Die Faktorenanalyse geht nicht von unabhängigen oder abhängigen Variablen aus, sondern behandelt alle Analysevariablen unabhängig von einem Kausalitätsstatus. Dieser Kurs führt in das Grundprinzip und Varianten der Faktorenanalyse (z.B. Alpha, Hauptfaktoren, Hauptkomponenten), die wichtigsten Extraktions-, wie auch Rotationsmethoden (z.B. orthogonal vs. oblique) und ihre Funktion. Vorgestellt werden Kriterien zur Bestimmung, Interpretation und Benennung der Faktoren. Dieser Kurs stellt ausschließlich die Variante der explorativen Faktorenanalyse (EFA) vor (R-Typ). Abschliessend werden eine Faktorenanalyse für Fälle (Q-Typ Faktorenanalyse vorgestellt, sowie eine Matrix-Variante, die dann zum Einsatz kommen kann, wenn die korrelationsanalytischen Voraussetzungen der Faktorenanalyse nicht erfüllt sind. Die Überprüfung der Voraussetzungen und die Interpretation der Statistiken werden an zahlreichen Beispielen geübt. Kapitel 3 stellt die Diskriminanzanalyse (DA, syn.: DFA, Diskriminanzfunktionsanalyse) vor. Das zentrale Ziel dieses Ansatzes ist, die beste Trennung (Diskriminanz) zwischen den Zugehörigkeiten einer abhängigen Gruppenvariable für mehrere unabhängige Einflussvariablen zu finden. In anderen Worten, die Diskriminanzanalyse liefert die Antwort auf die Frage: Welche Kombination von Einflussvariablen erlaubt eine maximal trennende Aufteilung der Fälle in die bekannten Ausprägungen einer Gruppe? Weitere, damit in Zusammenhang stehende Fragen können sein: Auf welche Weise werden die Fälle klassiert, wie genau werden die Fälle klassiert (erkennbar an der Anzahl der Fehlklassifikationen), und wie sind die schlussendlich entstehenden Klassifizierungen zu interpretieren? Es werden u.a. diverse Methoden der Variablenselektion (direkt, schrittweise), sowie auch die Berechnung und Interpretation multipler schrittweiser Diskriminanzanalysen mit mehreren ermittelten Funktionen vorgestellt (einschliesslich Lambda, Box-Test, Kreuzvalidierung (Interpretation von Kovarianz-Matrizen), das Identifizieren von Multikollinearität, sowie Gebietskarten (Territorien). Weitere Kapitel stellen Möglichkeiten des Clusterns und Segmentierens (u.a. mit CLEMENTINE, Entscheidungsbäume und ausgewählte Cluster-Knoten. In einem abschließenden Kapitel sind ausgewählte Formeln der wichtigsten behandelten Verfahren zusammengestellt. Zahlreiche Rechenbeispiele werden von der Fragestellung, der Anforderung der einzelnen Statistiken (per Maus, per Syntax) bis hin zur Interpretation der SPSS- und CLEMENTINE Ausgaben systematisch durchgespielt. Auch auf mögliche Fallstricke und häufig begangene Fehler wird eingegangen. Separate Abschnitte stellen die diversen Voraussetzungen für die Durchführung der jeweiligen Analyse, sowie Ansätze zu ihrer Überprüfung zusammen. Dieses Buch ist angenehm verständlich und anwendungsorientiert geschrieben, ohne jedoch die Komplexität und damit erforderliche Tiefe bei der Vorstellung der Verfahren zu vernachlässigen. Dieses Buch ist für Einsteiger, Studierende, sowie fortgeschrittene Wissenschaftler in den Wirtschafts-, Bio-, und Sozialwissenschaften gleichermaßen geeignet.
Aktualisiert: 2023-05-29
> findR *

Datenmanagement und Datenanalyse mit dem SAS-System

Datenmanagement und Datenanalyse mit dem SAS-System von Schendera,  Christian FG
Das Buch widerlegt viverse Vorurteile gegenüber SAS: Weder ist SAS benutzerunfreundlich noch kompliziert. SAS ermöglicht es oft erst, mit komplizierten Datenstrukturen und -analysen umgehen zu können. Viele Andere Programme sind weit weniger flexibel - ja rechnen sogar falsch. Die Dokumentation des SAS-Systems ist hervorragend. Das Buch bietet auch Perspektiven für Data Analysten, Projekte und Unternehmen, wenn sie sich für SAS entscheiden. Gleichzeitig erleichtert der Autor den Einstieg in die Welt des Managements und der Analyse von Daten. Das Werk breitet das ganze Spektrum von Möglichkeiten aus, die SAS bietet. Es ist sowohl Lehr- als auch Handbuch.
Aktualisiert: 2023-05-16
> findR *

Regressionsanalyse mit SPSS

Regressionsanalyse mit SPSS von Schendera,  Christian FG
Das Buch bringt dem Anwender von SPSS die verschiedenen Regressionsverfahren anhand vieler Beispiele nahe. Dabei wird auf häufige Fehler genauso eingegangen wie auf detaillierte Beschreibungen und Informationen zu SPSS-Ausgaben und -Syntax. Die Neuauflage enthält nicht nur Anpassungen an die neueste Programmversion (IBM SPSS Statistics V21), sondern wurde auch um weitere Regressionsansätze erweitert.
Aktualisiert: 2023-03-27
> findR *
MEHR ANZEIGEN

Bücher von Schendera, Christian FG

Sie suchen ein Buch oder Publikation vonSchendera, Christian FG ? Bei Buch findr finden Sie alle Bücher Schendera, Christian FG. Entdecken Sie neue Bücher oder Klassiker für Sie selbst oder zum Verschenken. Buch findr hat zahlreiche Bücher von Schendera, Christian FG im Sortiment. Nehmen Sie sich Zeit zum Stöbern und finden Sie das passende Buch oder die Publiketion für Ihr Lesevergnügen oder Ihr Interessensgebiet. Stöbern Sie durch unser Angebot und finden Sie aus unserer großen Auswahl das Buch, das Ihnen zusagt. Bei Buch findr finden Sie Romane, Ratgeber, wissenschaftliche und populärwissenschaftliche Bücher uvm. Bestellen Sie Ihr Buch zu Ihrem Thema einfach online und lassen Sie es sich bequem nach Hause schicken. Wir wünschen Ihnen schöne und entspannte Lesemomente mit Ihrem Buch von Schendera, Christian FG .

Schendera, Christian FG - Große Auswahl an Publikationen bei Buch findr

Bei uns finden Sie Bücher aller beliebter Autoren, Neuerscheinungen, Bestseller genauso wie alte Schätze. Bücher von Schendera, Christian FG die Ihre Fantasie anregen und Bücher, die Sie weiterbilden und Ihnen wissenschaftliche Fakten vermitteln. Ganz nach Ihrem Geschmack ist das passende Buch für Sie dabei. Finden Sie eine große Auswahl Bücher verschiedenster Genres, Verlage, Schlagworte Genre bei Buchfindr:

Unser Repertoire umfasst Bücher von

Sie haben viele Möglichkeiten bei Buch findr die passenden Bücher für Ihr Lesevergnügen zu entdecken. Nutzen Sie unsere Suchfunktionen, um zu stöbern und für Sie interessante Bücher in den unterschiedlichen Genres und Kategorien zu finden. Neben Büchern von Schendera, Christian FG und Büchern aus verschiedenen Kategorien finden Sie schnell und einfach auch eine Auflistung thematisch passender Publikationen. Probieren Sie es aus, legen Sie jetzt los! Ihrem Lesevergnügen steht nichts im Wege. Nutzen Sie die Vorteile Ihre Bücher online zu kaufen und bekommen Sie die bestellten Bücher schnell und bequem zugestellt. Nehmen Sie sich die Zeit, online die Bücher Ihrer Wahl anzulesen, Buchempfehlungen und Rezensionen zu studieren, Informationen zu Autoren zu lesen. Viel Spaß beim Lesen wünscht Ihnen das Team von Buchfindr.