Der Agenda-Setting-Ansatz beschäftigt sich mit der Themensetzungsfunktion von Medien. Seine zentrale These beruht auf der Beobachtung von Cohen, der feststellte: „The Media may not be successful in telling us what to think, but it seems to be stunningly successful in telling us what to think about.“ An die Stelle des einfachen Stimulus-Response-Modells der Medienwirkung trat damit ein Ansatz, der kognitive Prozesse der Rezeption in weit stärkerem Umfang berücksichtigte. Statt Veränderungen in Einstellung und Verhalten der Mediennutzer zu suchen, liegt der Fokus beim Agenda-Setting auf den Veränderungen in Wissensbeständen, Aufmerksamkeit und Problembewusstsein der Rezipienten. Bei den klassischen Agenda-Setting-Studien, die sich an der Ausgangsstudie von McCombs und Shaw zum amerikanischen Präsidentschaftswahlkampf von 1968 orientieren, werden die über einen bestimmten Zeitraum mittels Inhaltsanalyse und Umfragedaten erhobenen Agenden von Medien und Mediennutzern verglichen. Dabei kann die Ausgangshypothese unterschiedlich streng formuliert werden: von einem deterministischen Zusammenhang der Themenrangordnung von Medien und Menschen (priorities-modell), bis zu der einfachen Vermutung größere Publizität führe zu einer verstärkten Problemwahrnehmung des Rezipienten (salience- und awareness-modell). Gemeinsam ist all diesen Studien, dass sie mit Aggregatdaten und nicht mit Individualdaten arbeiten: Sowohl die inhaltsanalytisch erhobene ‚Medienagenda’ als auch die ‚Publikumsagenda’ stellen hochaggregierte Datenkonstrukte dar. Es werden also Aussagen auf einer bestimmten Analyseebene (nämlich der des Aggregats) getroffen, was häufig nicht klar zu erkennen ist und unter Umständen problematisch sein kann, wie ich in der vorliegenden Arbeit zu zeigen versuche. So nützlich Aggregatdaten als Instrument des strukturierten Vergleichs sind, so problematisch kann ihre Verwendung sein, denn der Vorgang der Aggregation ist unweigerlich mit einem Informationsverlust verbunden, was schlimmsten Falls zu einem ökologischen Fehlschluss führen kann. Als mögliche Auswege aus dem Dilemma werden die Verwendung von Individualdaten und die Mehrebenenanalyse mittels Kontexthypothesen diskutiert. Die vorgestellten empirischen Studien machen deutlich, welche theoretischen Implikationen diese methodischen Innovationen haben.
Inhalt
Einleitung
1 Grundlagen der Unterscheidung von Individual- und Aggregatdaten
1.1 Person oder Phänomen – zwei unterschiedliche Ansätze
1.2 Was sind Individual- und Aggregatdaten? – Begriffsdefinitionen
1.3 Was können Individual- und Aggregatdaten? – ein Vergleich
2 Vorteile und Probleme der Aggregatdatenanalyse
2.1 Das Potential der Aggregatdatenanalyse
2.2 Die Grenzen der Aggregatdatenanalyse
2.2.1 Informationsverlust durch Aggregation
2.2.2 Der ökologische Fehlschluss
2.3 Individualdaten- oder Mehrebenenanalyse als Lösung des Problems?
3 Konsequenzen für die Agenda-Setting-Forschung
3.1 Kurze Geschichte des Agenda-Setting-Ansatz
3.2 Agenda-Setting: Aggregatdaten im Vergleich
3.3 Neue, methodisch innovative Agenda-Setting-Studien
3.3.1 Jens Wolling: Methodenkombination in der Medienwirkungsforschung
3.3.2 Patrick Rössler: The Individual Agenda-Designing Process
4 Fazit
Literaturverzeichnis
Einleitung
Der Agenda-Setting-Ansatz beschäftigt sich mit der Themensetzungsfunktion der Medien. Seine zentrale These beruht auf der Beobachtung von Cohen, der feststellte: „The Media may not be successful in telling us what to think, but it seems to be stunningly successful in telling us what to think about.“ An die Stelle des einfachen Stimulus-Response-Modells der Medienwirkung trat damit ein Ansatz, der kognitive Prozesse der Rezeption in weit stärkerem Umfang berücksichtigte. Statt Veränderungen in Einstellung und Verhalten der Mediennutzer zu suchen, liegt der Fokus beim Agenda-Setting auf den Veränderungen in Wissensbeständen, Aufmerksamkeit und Problembewusstsein der Rezipienten. (Burkart, 2002, S. 249)
Bei den klassischen Agenda-Setting-Studien, die sich an der Ausgangsstudie von McCombs und Shaw zum amerikanischen Präsidentschaftswahlkampf von 1968 orientieren, werden die über einen bestimmten Zeitraum mittels Inhaltsanalyse und Umfragedaten erhobenen Agenden von Medien und Mediennutzern verglichen. Dabei kann die Ausgangshypothese unterschiedlich streng formuliert werden: von einem deterministischen Zusammenhang der Themenrangordnung von Medien und Menschen (priorities-modell), bis zu der einfachen Vermutung größere Publizität führe zu einer verstärkten Problemwahrnehmung des Rezipienten (salience- und awareness-modell). (ebd. S. 250f) Gemeinsam ist all diesen Studien, dass sie mit Aggregatdaten und nicht mit Individualdaten arbeiten: Sowohl die inhaltsanalytisch erhobene ‚Medienagenda’ als auch die ‚Publikumsagenda’ stellen hochaggregierte Datenkonstrukte dar. Es werden also Aussagen auf einer bestimmten Analyseebene (nämlich der des Aggregats) getroffen, was häufig nicht klar zu erkennen ist und unter Umständen problematisch sein kann, wie ich in der vorliegenden Hausarbeit zu zeigen versuche.
Hierzu soll unter dem Oberpunkt eins zuerst einmal der Unterscheidung von Individual- und Aggregatdaten von Grund auf nachgegangen werden, um anschließend unter dem Oberpunkt zwei die Vorteile und Probleme der Aggregatdatenanalyse zu erörtern. So nützlich Aggregatdaten als Instrument des strukturierten Vergleichs (2.1) sind, so problematisch kann ihre Verwendung auch sein, denn der Vorgang der Aggregation ist unweigerlich mit einem Informationsverlust verbunden, was im schlimmsten Fall zu einem ‚ökologischen Fehlschluss’ führen kann (2.2). Als mögliche Auswege aus dem Dilemma sollen unter Punkt 2.3 die Verwendung von Individualdaten und die Mehrebenenanalyse mit Hilfe von Kontexthypothesen vorgestellt werden. Die Möglichkeit und Notwendigkeit diese Analyseverfahren in die Agenda-Setting-Forschung einzuführen, werden im Oberpunkt drei aufgezeigt. Gleichzeitig führen die vorgestellten, methodisch innovativen Studien deutlich vor Augen, welche theoretischen Implikationen die neuen empirischen Befunde haben.
1 Grundlagen der Unterscheidung von Individual- und Aggregatdaten
1.1 Person oder Phänomen – zwei unterschiedliche Ansätze
In dem Buch ‚Alle nicht jeder’ beschreiben die Autoren Noelle-Neumann/Petersen im ersten Kapitel, das bezeichnenderweise den Titel ‚Gute Einzahl, böse Mehrzahl’ trägt, warum Demoskopie ihrer Meinung nach so häufig Unbehagen bei den Menschen verursacht, so geschehen beispielsweise im Zusammenhang mit Wahlumfragen. Dabei machen sie zwei Hauptgründe für jenes Unbehagen aus, die sich dem Alltagsverständnis häufig nur schwer erschließen, das Prinzip der Wahrscheinlichkeit zum einen und das der Verallgemeinerbarkeit kleiner Stichproben zum anderen.
Dass soziale Phänomene meist den Gesetzen statistischer Regelmäßigkeit unterliegen, fiel schon 1835 dem Sozialforscher Quetelet auf, der die so genannten ‚Moralstatistiken’ erstellte. Etwas später erkannte Durkheim, dass sich aufgrund dieser Regelmäßigkeiten die Möglichkeit ergibt, die Zahl und die Verteilung künftiger Ereignisse vorherzusagen. Diese Erkenntnis, dass trotz individuell entschiedener Handlungsakte – bedingt durch Prozesse der natürlichen Selbstorganisation – statistisch summiert ein regelmäßiges Muster in Erscheinung tritt, war revolutionär und galt vielen als die Demontage des Konzepts der Willensfreiheit. Hinzu kam zu Beginn des 20 Jahrhunderts noch die Entdeckung des Prinzips der Repräsentativität, welches ermöglichte von kleinen Stichproben auf große Populationen zu schließen – die erste Zufallsstichprobe wurde 1912 durchgeführt. Nun war es möglich anhand der Befragung einiger Weniger, welche zufällig oder nach bestimmten Gesichtspunkten ausgewählt wurden, auf die Meinung der Bevölkerung im Ganzen zu schließen.
Die Reaktionen darauf waren unterschiedlich und teils heftig, so warf man den Meinungsforschern vor Individualmeinungen durch ‚statistische Werte’ zu ersetzen und man empfand die Subsumierung von Menschen unter Merkmale als eine Form der Machtausübung. Auch wenn Umfragen die Meinung einer Einzelperson nicht überflüssig machen, so haben solche Vermutungen doch einen wahren Kern, ist der Bezugspunkt von durch Umfragen ermittelten Aussagen doch das Aggregat der Gesellschaft und nicht das Individuum. Auch ist richtig, dass durch die Forschungslogik die alltägliche Erscheinungswelt auf einige ihrer Merkmale reduziert wird und dabei notwendigerweise Komplexität verloren geht. Als Lösung dieses Konflikts schlagen Noelle-Neumann/Petersen einen richtigen Umgang mit statistischem Material vor, der konsequent den Einzahl- vom Mehrzahlbereich trennt. Oder anders ausgedrückt, den Unterschied zwischen Person und Phänomen, zwischen Individual- und Merkmalsbereich bewusst nachvollzieht. So gelten für letzteren andere Typen von Aussagen, die beispielsweise durch Angabe von Durchschnittswerten, Streuungen und Irrtumswahrscheinlichkeiten gekennzeichnet sind. Neben der Problematik der öffentlichen Wahrnehmung solcher Aggregatdaten, auf die sich obige Aussagetypen beziehen, stellen Aggregate allerdings auch für die Sozialforschung ein Handicap dar. Denn wie die Autoren Noelle-Neumann/Petersen mit dem Titel ihres Buches „Alle nicht Jeder“ implizieren, besteht das Grundproblem der Aggregatdaten darin, dass hier zwar Aussagen über „alle“ aber eben nicht über „jeden“ getroffen werden! Zwar lassen sich mit Hilfe von Aggregatdaten Veränderungen im Meinungsbild oder in der Sozialstruktur einer Gruppe (z.B. der Wählerschaft) rasch aufzeigen, welche Individuen aber aus welchen Gründen Veränderungen bewirkt haben, bleibt im Reich der Spekulation. (Noelle-Neumann/Petersen, 1996, S. 1-77)
1.2 Was sind Individual- und Aggregatdaten? – Begriffsdefinitionen
Bevor ich auf die Unterscheidung von Individual- und Aggregatdaten näher eingehen werde, sollen hier, des besseren Verständnisses halber, noch einmal kurz die wesentlichen statistischen Grundbegriffe erklärt werden, auf denen eine solche Unterscheidung beruht.
Eine statistische Einheit ist der Merkmalsträger, an dem die Informationen bzw. Eigenschaften, die im Rahmen einer empirischen Untersuchung von Interesse sind, erhoben werden. Dies können Individuen, Haushalte, Unternehmen oder Wahlberechtigte sein. In der sozialwissenschaftlichen Daueruntersuchung ‚Sozio-ökonomisches Panel’ (SOEP) sind diese statistischen Einheiten beispielsweise die Haushalte und Personen, die an der Umfrage teilgenommen haben. Als statistische Masse oder Population bezeichnet man die hinsichtlich sachlicher, räumlicher und zeitlicher Kriterien gebildete Gesamtheit statistischer Einheiten. Dabei unterscheidet man zwischen der Grundgesamtheit und der Teilgesamtheit, die eine kleine Auswahl – zumeist eine Stichprobe – der ersteren ist. Im SOEP ist die Grundgesamtheit die Wohnbevölkerung Deutschlands.
Ein Merkmal nennt man die unterschiedlichen Eigenschaften der statistischen Einheiten bzw. die Menge an Merkmalsausprägungen, so ist beispielsweise die Kategorie Geschlecht ein Merkmal, männlich und weiblich dessen Ausprägungen. Man unterscheidet weiter manifeste Merkmale, die direkt gemessen werden können, von latenten Merkmalen, wie Einstellungen, die nur indirekt feststellbar sind. Als Variable bezeichnet man die den Merkmalsausprägungen zugeordneten Zahlenwerte, diese können stetig (fortlaufend) oder diskret (ohne Zwischenwerte) sein.
Sind die Merkmalswerte noch den einzelnen Individuen zuzuordnen, spricht man von Individualdaten. In Individualdaten werden sozusagen „Aussagen über jeden“ gemacht, aber (noch) nicht über die Gesamtheit; sie beziehen sich auf die einzelnen Mitglieder der Stichprobe. Es können dabei jedem Beobachtungsfall die individuellen Ausprägungen aller interessierenden Variablen zugeordnet werden. Träger von Individualdaten können nicht nur Personen sein, sondern auch Haushalte, Parteien, Regierungen oder Länder kommen dafür in Frage: „Der Begriff Individualeinheit meint die individuelle Einheit der untersten Ordnung in einer Untersuchung, die keineswegs eine einzelne Person sein muss.“ (Ditton, 1998, S. 17) Für Individualdaten-Analysen kann man alle möglichen statistischen Verfahren je nach Datenniveau und Stichprobenschema verwenden. Individualdaten können auf verschiedene Weise zustande kommen, beispielsweise können sie fest zu der untersuchten Person gehören (absolute Daten), wie z.B. das Geschlecht, oder sie können die Beziehungen zu anderen Personen (relationale Daten) oder zu einer Gruppe (komparative Daten) ausdrücken (Vergleiche Punkt 1.3). (Engel, 1998, S. 32f)
Im Gegensatz dazu könnte man Aggregatdaten auch mit „Aussagen über alle“ umschreiben, da hier nicht die einzelne Person, der einzelne Merkmalsträger von Interesse ist, sondern viel mehr in Erfahrung gebracht werden soll, wie sich ein einzelnes Merkmal (und dessen verschiedene Ausprägungen) über alle Merkmalsträger hinweg verteilt. „‚Aggregatdaten’ ist ein Fachbegriff der Methodenlehre und der Statistik. Wie viele Fachwörter ist es ein Fremdwort. ‚Aggregat’ stammt von ‚aggregatum’, dem lateinischen Wort für Angehäuftes, und ‚Daten’ heißt Informationen oder Angaben. ‚Aggregatdaten’ sind insoweit Angaben über Angehäuftes.“ (Schmidt, 1998, S. 327) Als Aggregatdaten bezeichnen wir also Datenstrukturen, bei denen nur die Zahl der Fälle bestimmter Merkmals- bzw. Phänomenkombinationen bekannt ist. Aggregatdaten entstehen daher in der Regel durch Zusammenfassung, das heißt Aggregierung, von Individualdaten. Für die Aggregatanalyse derartiger Häufigkeitstabellen sind vor allem statistische Verfahren wichtig, die Daten auf kategorialem Datenniveau verarbeiten können (loglineare Modelle etc.). Aggregatdaten beziehen sich also immer auf ein vorher als Grundgesamtheit definiertes Kollektiv.
Manchmal treten auch Unterscheidungsschwierigkeiten zwischen beiden Datenniveaus auf, ob ein Wert als Individual- oder Aggregatdatenwert gilt, ist oft nur von der jeweiligen Untersuchung abhängig. Dies lässt sich an einem einfachen Beispiel verdeutlichen. Wird etwa die Bevölkerungsstruktur einer einzelnen Gemeinde untersucht, ist die Zahl der Frauen über 40 Jahre ein über die Gemeindemitglieder aggregierter Wert. Beim Vergleich der Bevölkerungsstruktur mehrerer Gemeinden hingegen ist die Zahl der Frauen, die älter als 40 Jahre sind, ein individuelles (analytisches) Merkmal des Merkmalträgers Gemeinde. Solche Feinheiten kommen gerade im Bereich der Regionalanalyse häufig vor.
Als ein Beispiel für einen Aggregatwert, der sich auf ein bestimmtes Kollektiv bezieht, nämlich das der erwerbsfähigen Bevölkerung, kann die Arbeitslosenquote in bestimmten Regionen gelten. Ebenso könnte man die Stimmanteile von Parteien in Wahlbezirken oder das Durchschnittseinkommen und die Geburtenrate in der Bevölkerung als Beispiele für Aggregatdaten anführen. Der Vorgang der Aggregation, also die Zusammenfassung von Daten zu einer höheren Ebene bzw. einem höheren Aggregationsniveau, geschieht beispielsweise durch Summierung oder die Bildung von Durchschnitts- und Anteilswerten.
Ein Beispiel für Personen bezogene Individualdaten:
Abbildung in dieser Leseprobe nicht enthalten
Ein Beispiel für Phänomen bezogene Aggregatdaten (basierend auf obigen Individualdaten):
Abbildung in dieser Leseprobe nicht enthalten
1.3 Was können Individual- und Aggregatdaten? – ein Vergleich
Individualdaten geben, wie bereits beschrieben, Auskunft über einzelne Objekte und statistische Einheiten (Haushalte, Personen etc.), die identisch mit den Untersuchungseinheiten sind. Das bedeutet, die Aussagen werden auf derselben Ebene getroffen, auf der auch die Daten erhoben und untersucht wurden. Dieses Vorgehen ist theoretisch meist adäquater, da für jedes einzelne untersuchte Objekt die interessierenden Variablen genau bekannt sind. Es fallen aber auch solche Messfehler, die im Aggregat niviliert werden, stärker ins Gewicht. Ein weiteres Problem der Forschungspraxis mit Individualdaten sind die meist teureren Untersuchungsdesigns, insbesondere bei Längsschnittuntersuchungen kann, will man die Entwicklung einzelner Mitglieder der Stichprobe verfolgen, nicht auf eine simple Zeitreihenstudie zurückgegriffen werden, sondern braucht es das aufwendigere Panelverfahren.
Aggregatdaten geben dagegen Auskunft über Gruppen von einzelnen Objekten, die Untersuchungseinheiten sind also die Aggregate der statistischen Einheiten und nicht diese selbst. Problematisch ist hierbei, dass diese theoretischen Aggregate häufig nicht adäquat konstruiert wurden, um Erfolg versprechend auf den dahinter stehenden sozialen Sachverhalt zu schließen. Ein Argument für die häufige Verwendung von Aggregatdaten ist die generell meist gute Datenqualität: „Aggregatdaten stellen gut zugängliches und in handliche Form gepresstes empirisches Material bereit.“ (Schmidt, 1998, S. 329)
Im Anschluss an die Kommunikationsforscher Lazarsfeld und Menzel unterscheidet man drei Arten von Aggregatdaten: analytische, strukturelle und Globaldaten. Als Globaldaten bezeichnet man solche Eigenschaften des Aggregats, die sich nicht auf die individuellen Mitglieder des Kollektivs zurückführen lassen. Globaldaten sind also quasi die absoluten Merkmale des Aggregats, sie erfassen die originären Eigenschaften eines Kollektivs (z.B. dessen Organisationsform), wohingegen analytische oder strukturelle Daten durch Rechenoperationen zu Stande kommen. So stellen analytische Daten den direkten Anschluss an Individualmerkmale dar, quasi als ‚Summe’ von Individualmerkmalen (z.B. 2,3% der Bundesbürger, die älter als 18 Jahre sind, sind Analphabeten), wohingegen strukturelle Daten, die Anhäufung von Daten über die Beziehungen von Individuen, Gruppen, Organisationen etc. zueinander darstellen (z.B. in der Netzwerkanalyse). (Engel, 1998, S. 31ff)
„Den analytischen, strukturellen und globalen Eigenschaften von Aggregatdaten stehen die absoluten, komparativen, relationalen und kontextuellen Eigenschaften der Mitglieder dieser sozialen oder geografischen Gebilde gegenüber.“ (ebd. S. 32) Absolute Daten sind solche, die das Individuum charakterisieren, ohne dazu andere Informationen zu verwenden als die individuellen Eigenschaften der Person. Relationale Daten dagegen beschreiben die Eigenschaften der Beziehungen zwischen den Individuen. Auf Aggregatsebene beruhen die analytischen Daten auf den absoluten Daten der Individualebene und die strukturellen Daten auf den relationalen. Ein Spezialfall auf der Individualebene sind die komparativen Daten, sie ergeben sich aus einem Vergleich absoluter Daten „mit der Verteilung dieser Eigenschaft innerhalb ‚seines’ Aggregats bzw. Kollektivs. Dies ist zum Beispiel der Fall, wenn das Einkommen einer Person (...) etwa als ‚durchschnittlich’, ‚über-’ oder ‚unterdurchschnittlich’ bezeichnet wird.“ (ebd. S. 32) Als kontextuell bezeichnet man solche Daten auf der Individualebene, die dem Merkmalsträger zugewiesen werden aber Aussagen über dessen Kontext machen, also über das Aggregat, welchem er angehört (z.B. die Arbeitslosenquote in der Region). In letzter Zeit ist man mehr und mehr dazu übergegangen Aggregatdaten als solche ‚Kontextvariablen’ in Analysen einzusetzen, die ansonsten auf der Individualebene angesiedelt sind (vergleiche Punkt 2.3).
[...]
- Quote paper
- Peter Neitzsch (Author), 2005, Agenda-Setting: Aggregat- oder Individualdaten-Phänomen? Konsequenzen der Analyseebene für die Forschung, Munich, GRIN Verlag, https://www.grin.com/document/59915
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.