anzeige
anzeige
Politik

Enthemmter Alarmismus

Die »Mitte«-Studie der Uni sorgt für Aufregung – und ist wissenschaftlich fragwürdig

  Enthemmter Alarmismus | Die »Mitte«-Studie der Uni sorgt für Aufregung – und ist wissenschaftlich fragwürdig

Das Mediengeschäft hat sich länger schon der Wissenschaft bemächtigt. Wenn Themen populär sind, müssen sie bespielt, die eigene Bedeutung muss bewirtschaftet werden. Das geht besonders gut mit schönen Diagrammen. Die neue »Mitte«-Studie ist ein geradezu perfektes Beispiel, wie sich die Wissenschaft dem Medienzirkus an den Hals wirft und dabei die eigenen Standards vernachlässigt. Das ist nicht nur unwissenschaftlich, sondern auch politisch brisant.

Der Medienrummel war enorm, als die neue »Mitte«-Studie der Leipziger Forscher Oliver Decker, Elmar Brähler und Kollegen offiziell vorgestellt wurde. Die vergangenen Monate haben das Thema ohne Zweifel heiß gemacht, schließlich ist aller Orten eine auffällige und beängstigende Rechtsdrift zu beobachten. Die Studie liefert dazu bereits im Titel eine starke These: Die »Mitte« (mal in Anführungszeichen verpackt und mal nicht) sei mittlerweile »enthemmt«; sie habe also jede Hemmung, jeden vorgeschobenen Anstand fallen gelassen und traue sich nun, ihre xenophobe, rassistische und islamfeindliche Einstellung offen auszuleben. Angesichts der Debatten zur sogenannten Flüchtlingskrise entspricht dies zunächst dem Augenschein, schließlich schiebt sich völkisches Denken immer deutlicher an die Oberfläche.

Doch gerade im Rahmen dieser »Langzeitstudie«, wie die Forscher ihre eigene Arbeit klassifizieren, überrascht dies doch, sprach die Ausgabe von 2014 noch von einer »stabilisierten Mitte«. Damals war die Kernaussage eher milde: Die Zahl jener Bürger mit einem geschlossen rechtsextremen Weltbild sei rückläufig, die politische Mitte habe sich im Wesentlichen stabilisiert, weil sich die Wirtschaft ebenfalls stabil halte.

Nun haben entsprechende Studien die Aufgabe, Veränderungen zu messen. Zwischen »stabil« und »enthemmt« besteht allerdings ein ganz grundsätzlicher Unterschied, der sich schwerlich nur auf Messungen zurückführen lässt. Wenn die heutige »Mitte« mittlerweile »enthemmt« sei, heißt das unweigerlich, sie trägt entsprechende Einstellungen länger schon mit sich und traut sich erst jetzt, sie offen auszuleben. Kurz: Entweder die Studie von 2014 lieferte einen falschen Output oder die aktuelle. Irgendwo zwischen »stabil« und »enthemmt« liegt jedenfalls ein auffälliger Fehler, dessen wissenschaftlich saubere Aufarbeitung allerdings, so lässt sich vermuten, der kurzweiligen Prominenz im Mediengeschäft geopfert wurde.

Im Fokus der Studien stand bisher ein geschlossen rechtsextremes Weltbild, bestehend aus sechs zentralen Dimensionen mit insgesamt 18 Aussagen. 2016 wurde für Gesamtdeutschland mit Blick auf diese Dimension der niedrigste Wert seit 2002 gemessen (5,4 Prozent gegenüber 5,7 Prozent im Jahr 2014). Dabei sei in den alten Bundesländern ein Rückgang um 0,4 Prozent und in den neuen ein Anstieg um 0,2 Prozent zu beobachten. Ob die Unterschiede überhaupt statistisch signifikant sind, bleibt genauso aus wie die Berechnung von Effektstärken dieser beobachteten Unterschiede. Kurz: Die Differenzen zwischen 2014 und 2016 sind kaum von Belang, und wir dürften es eigentlich – im Bild der Studie von 2014 – immer noch mit einer »stabilisierten Mitte« zu tun haben. Diese Dimension trägt die neue These der Verfasser also nicht.

Der Osten sei, wie üblich, ein Problemgebiet. In erster Linie seien dafür die autoritären Strukturen in der DDR verantwortlich, heißt es in der Studie. Die Erhebung von 2002 zeigt allerdings, dass rechtsextreme Einstellungen in Ostdeutschland geringer ausgeprägt waren als im Westen. Dass die hohen Zahlen im Osten mehr als 25 Jahre nach der Wende, also deutlich weiter weg von der DDR als 2002, sich dennoch aus deren langem Schatten begründen lassen sollen, ist bestenfalls eine streitbare These.

Aussagen im Zeitverlauf suggerieren zudem, dass es sich um eine Längsschnittstudie handelt. Die Autoren führen zwar sehr detailliert Buch darüber, wie die Stichprobe gezogen wurde, aber nicht, ob dieselben (also nicht die gleichen) Personen befragt wurden. Erst so lassen sich überhaupt Aussagen im Zeitverlauf rechtfertigen. Wir haben es also vermutlich mit Querschnittsdaten zu tun, aus denen nur sehr eingeschränkt vergleichende Ergebnisse abgeleitet werden können.

Besonders bei der Auswertung nach politischen Parteien wäre eine Relativierung der Zahlen Pflicht. Während die Stichprobe nur dort repräsentativ sein kann, wo ein Merkmal der Stichprobe das Abbild der Grundgesamtheit repräsentiert (zum Beispiel die Verteilung des Geschlechts), bringt die vergleichsweise kleine Gruppe an jeweils parteigebundenen Befragten freilich statistische Verzerrungseffekte mit sich. Mit anderen Worten: Eine Klarheit und Transparenz von Daten – wie in der Wissenschaft gefordert und erforderlich – sieht anders aus. Die Autoren geben nur ansatzweise Auskunft über Testverfahren oder Kennwerte, die wichtig sind, um die Qualität der Daten seriös einschätzen zu können.

Am Ende macht die Studie dann das, was sich wissenschaftlich nicht gebührt: Bestimmte Zahlen bekommen Beine und rennen nun durch den Mediendschungel – zum Beispiel zur Islamfeindlichkeit. Unklar bleibt in diesem Zusammenhang, ob die erwähnte Dimension überhaupt mit mehreren Items gemessen wurde. Übrig bleiben einzelne Items zur Islamfeindlichkeit oder zur Homophobie, die bei 40 oder 50 Prozent liegen. Damit lässt sich jedoch kein Vorurteil messen, jedenfalls nicht seriös.

Für den Berliner »Linksextremismusforscher« Klaus Schroeder ist diese Studie leider eine Steilvorlage. Sie sei reißerisch und belanglos, argumentiert er im Deutschlandfunk. Leider – muss man an dieser Stelle sagen – liegt er damit nicht völlig falsch, auch wenn Schroeder erst voriges Jahr mit einer skandalös tendenziösen Erhebung das wahrlich abgedrehte Argument vertrat, die deutsche Gesellschaft werde vom Linksextremismus in ihrer Existenz unmittelbar bedroht.

Kurzum: Für einen gewissen Medienrummel wurden hier offenbar wissenschaftliche Standards untergraben. Das hat auch eine gefährliche Seite: Die allenthalben zu beobachtende Aufregung um die beängstigend hohen Zugstimmungswerte zur Islamfeindlichkeit dürften auch den geistigen Brandstiftern um Alexander Gauland oder Götz Kubitschek aufgefallen sein. Und die können sich nun einer empirischen Erhebung bedienen, um zu argumentieren, dass sie doch – zumindest beinahe – die Mehrheit repräsentieren.


Kommentieren


4 Kommentar(e)

Volkmer Braun 17.06.2016 | um 11:41 Uhr

So, nun passierte das, was kommen musste und was dem Text Recht gibt: Die AfD nutzt die Studie (mit fragwürdigen, alarmistischen Zahlen) für ihre Zwecke. Schönen Dank dafür... https://www.facebook.com/afd.bayern/photos/pb.345598788891061.-2207520000.1466156070./963539423763658/?type=3&theater Grüße Volkmer

Alexander Yendell 20.06.2016 | um 14:40 Uhr

Liebes Kreuzer-Team, ich möchte nach dem freundlichen Gespräch mit Andreas Raabe auf Euren aktuellen „Debattenbeitrag“ über die Mitte-Studie eingehen, den ich als unfair, in Teilen polemisch, tendenziös und beliebig empfinde. Ich möchte gleich voranschicken, dass sowohl aus dem Artikel, den Emails und dem Gespräch am Telefon (zumindest anfangs) eine deutliche Diskrepanz zwischen einem journalistischen Verständnis von Meinung und aus empirischer Wissenschaft hervorgegangener Überzeugung hervorgeht. Ich bin zunächst einmal neutraler Wissenschaftler, der vor dem Hintergrund von Theorien stumpf Hypothesen überprüft, dabei ist es mir relativ egal, was herauskommt, denn meine Aufgabe ist es nicht normativ zu argumentieren. Als Wissenschaftler geht es mir um wissenschaftliche Überzeugung, in meinem Falle also darum, wie ich mittels geeigneter Messmethoden die Wirklichkeit messen kann. Das, was Ihr unter Meinung versteht, hat zunächst einmal etwas mit Überzeugung und Glauben zu tun. Es ist Euer gutes Recht, Meinungen zu vertreten und zu äußern. Wenn es allerdings darum geht , dass Eure Meinung so dargestellt wird, dass sie scheinbar darauf beruht, dass Ihr sowohl die Messmethoden als auch die wissenschaftlichen Ergebnisse richtig – und wir falsch – interpretiert habt, dann ist das für mich in diesem Fall sehr ärgerlich. Denn da geht es zunächst mal nicht um eine persönliche Meinung, sondern um Wissenschaft. Kurz gesagt: Ihr habt sowohl die Ergebnisse in Teilen falsch wiedergegeben als auch die Messmethoden fehlerhaft interpretiert. Insbesondere ist bedauerlich, dass Ihr gleich im Teaser – den ja die vielen Leute maximal noch lesen (auf Facebook beispielsweise) – feststellt, die Studie sei unwissenschaftlich. Ihr begeht dabei einen ähnlichen Fehler, wie etwa der Historiker Klaus Schröder, Wissenschaftlichkeit anzuzweifeln, ohne zu erwähnen, was genau Ihr darunter versteht. Unwissenschaftlichkeit kann man aber nur mit wissenschaftlichen Argumenten feststellen, für die man – und das ist das große Dilemma, wenn es um die Verbreitung von wissenschaftlichen Ergebnissen in der Öffentlichkeit geht, sowohl Methodenkenntnisse braucht als auch die darauf aufbauende Fähigkeit, sie zu kritisieren. Mein Vorwurf ist, dass eine fachlich richtige Einschätzung von Eurer Seite leider misslungen ist und Eure Meinungsbildung darunter stark gelitten hat und sowohl uns allerdings auch Euch selbst gegenüber unfair ist. Es besteht auch leider Anlass zu der Annahme, dass Ihr Eure Informationen aus der Berichterstattung anderer Medien übernommen habt und die Berichte über die „Mitte“-Studie für die Sache selbst nehmt. Als Journalisten solltet Ihr aber wissen, dass die Komplexitätsreduktion eine zentrale Aufgabe des Journalismus ist und nicht dem Gegenstand der Berichterstattung anzulasten ist. Jetzt werde ich konkreter: Zunächst einmal wurde niemals behauptet, dass Rechtsextremismus angestiegen ist. Ihr schreibt: „Die Differenzen zwischen 2014 und 2016 sind kaum von Belang“ und kritisiert, dass es deshalb ja gar keine plötzlich „enthemmte Mitte“ geben kann. Ein Blick in die Studie oder zumindest in die, in der digitalen Pressemappe abgelegten Präsentation hätte geholfen (https://service.uni-leipzig.de/cumulus-fotogalerie/pincollection.jspx?collectionName=%7Bbb8f189f-b31c-4950-90a0-df75e3f1a1f1%7D#1465987196223_0) unsere Befunde sind: Rechtsextreme Einstellung ist prozentual nicht häufiger anzutreffen, aber Menschen mit rechtsextremer Einstellung haben sich radikalisiert. Vulgo: jene Teile der gesellschaftlichen Mitte, welche bisher nur rechtsextrem dachten, beginnen nun auch so zu handeln. Korrekt wiedergegeben wären unsere Hauptergebnisse so: Rechtsextremismus ist seit 2014 nicht angestiegen, es gibt ein stark demokratiebefürwortendes Milieu in Deutschland, dass sogar noch demokratieaffiner ist, als es in der Erhebungswelle 2006 war. Allerdings haben wir es am ganz rechten Spektrum mit einem rechtsautoritären Milieu zu tun, dass es auch schon früher gab, aber im Gegensatz zu früher deutlich gewaltbereiter und radikaler geworden ist. Oder, nur zur Sicherheit noch einmal umformuliert, in der Bundesrepublik Deutschland haben wir es also mit einer zunehmenden Polarisierung als auch Radikalisierung zu tun. Dieses Hauptergebnis wird leider in Eurem Artikel nicht erwähnt, es werden Relationen vom Titel auf ein einzelnes Ergebnis gemacht (Rechtsextremismus ist gar nicht angestiegen, was die Autoren ja sehr deutlich genauso schreiben). Habt Ihr das mit den Milieus überhaupt gelesen? Habt Ihr vielleicht übersehen, dass die Autoren selbst schreiben, Rechtsextremismus sei nicht angestiegen? Dann behauptet Ihr etwas, was einfach falsch ist: Zitat: „Aussagen im Zeitverlauf suggerieren zudem, dass es sich um eine Längsschnittstudie handelt. Die Autoren führen zwar sehr detailliert Buch darüber, wie die Stichprobe gezogen wurde, aber nicht, ob dieselben (also nicht die gleichen) Personen befragt wurden.“ Zunächst einmal stimmt die Aussage bezüglich der Zeitverläufe nicht (Statistikseminare liegen schon etwas länger zurück, oder?:-) Zeitverläufe können sehr wohl aus Querschnittsdaten bestehen. Welcher Statistiker behauptet denn Gegenteiliges und wieso wird so etwas üblicherweise suggeriert? Das ist schlicht und einfach falsch. Zudem schreiben die Autoren selbstverständlich, dass es sich um Querschnittsdaten handelt, das bedeutet nun einmal, dass nicht dieselben Leute befragt werden (Nur zur Info: so etwas ist mega teuer, da man mit einer deutlich größeren Stichprobe beginnen müsste, denn man bräuchte nicht nur dauerhaft Mitarbeiter, die die Panelpflege betreiben, da ja Befragte umziehen, sterben, plötzlich nicht mehr weitermachen wollen usw. Und da man die Ausfälle auffüllen würde, hätte man nach 10 Jahren trotzdem eine andere Stichprobe). Was wir sagen ist, dass es eine Langzeituntersuchung ist. Und zwischen Langzeituntersuchung und Längsschnittuntersuchung besteht tatsächlich ein Unterschied. Dann noch etwas, was auf einem fehlerhaften Verständnis von Statistik beruht. Zitat Kreuzer: „Besonders bei der Auswertung nach politischen Parteien wäre eine Relativierung der Zahlen Pflicht. Während die Stichprobe nur dort repräsentativ sein kann, wo ein Merkmal der Stichprobe das Abbild der Grundgesamtheit repräsentiert (zum Beispiel die Verteilung des Geschlechts), bringt die vergleichsweise kleine Gruppe an jeweils parteigebundenen Befragten freilich statistische Verzerrungseffekte mit sich. Mit anderen Worten: Eine Klarheit und Transparenz von Daten – wie in der Wissenschaft gefordert und erforderlich – sieht anders aus. Die Autoren geben nur ansatzweise Auskunft über Testverfahren oder Kennwerte, die wichtig sind, um die Qualität der Daten seriös einschätzen zu können.“ Hier liegt ein Denkfehler vor: In den jeweiligen Gruppen kann ja nicht die Repräsentativität der Grundgesamtheit vorliegen, weil sich ja die Gruppen nach Parteiaffinität von dem Durchschnitt der Grundgesamtheit unterscheiden – bspw. hinsichtlich der Parteipräferenz. Das ist ungefähr so sinnvoll, als wollte man bei einer Auswertung nach Geschlechtern den Vorwurf erheben, in der Gruppe der Frauen seien die Männer nicht repräsentativ abgebildet. Bezüglich sozio-demografischer Merkmale unterscheiden sich die Anhänger/innen der Parteien eben. Das soll heißen, dass auch die Befragten in den Gruppen zufällig aus der Grundgesamtheit gezogen wurden (ist also repräsentativ). Noch etwas: Angeblich schreiben wir nicht viel über die Datenqualität, wobei ihr nettwerweise auch schreibt, dass wir viel über die Stichprobe schreiben, das ist ja schon einmal ein Hinweis auf die Datenqualität. Auf Seite 144 steht unten in der Fußnote übrigens noch etwas Interessantes: „Zwar wird die Nullhypothese, der zufolge die empirischen und modelltheoretischen Kovarianzmatrizen gleich sind, für das Pfadmodell angenommen, allerdings ist die Aussagekraft des Chi-Quadrat-Tests aufgrund der hohen Anzahl an aufgenommenen Indikatoren eingeschränkt. Dementsprechend kann auch die Relation von Chi-Quadrat zu den Freiheitsgraden (CMIN/DF) als Prüfgröße unbeachtet bleiben. Der Root-Mean-Square-Error of Approximation (RMSEA) weist mit Werten jeweils unter der von Browne und Cudeck (1992,S. 239) empfohlenen Grenze von 0.05 (PCLOSE: 1.000) auf eine hohe Güte des Modells hin, was für die Datenqualität spricht“ und „Eine vollständige Übersicht über alle Interdependenzen kann unter der E-Mail-Adresse alexander.yendell@uni-leipzig.de angefordert werden.“ Und jetzt mein erweitertes Angebot an Euch: Natürlich könnt Ihr nicht den ganzen Bericht lesen und dann auch noch die Fußnoten, es muss ja schnell gehen bei Euch, aber bitte, bitte: Ruft uns doch an, fragt nach und kommt mit uns ins Gespräch bevor Ihr so etwas Abwertendes schreibt, was aus unserer Sicht zu einem weiteren Vertrauensverlust hinsichtlich wissenschaftlicher Ergebnisse führt. Übrigens: Aus dem Gespräch mir Andreas Raabe wurde für mich ein (ehrenwertes) Grundmotiv für die Abwertung unserer Studie deutlich: Ihr habt gesehen, dass die AfD unsere Ergebnisse missbraucht, weil die hohen Werte beispielsweise für Ausländerfeindlichkeit von den Rechtspopulisten und –Extremisten als Volkswille interpretiert werden. Das ist wirklich ekelhaft, aber bitte kritisiert doch nicht unsere Ergebnisse, sondern den Missbrauch durch Rechtspopulisten. Zudem hat die NPD dieses Spiel schon etliche Jahre getrieben, aber genutzt hat es ihr nicht viel. Sollen wir jetzt keine Studien mehr machen, weil sie missbraucht werden? Abusus not tollit usum. Das ist doch genau das, was intellektuellenfeindliche autoritäre Persönlichkeiten wollen. Zudem: die meisten Rechtsextremen schicken uns Hate-Mails und sind gar nicht so amused über die Ergebnisse. Ich darf mal eine kürzer zitieren: „ich möchte sie hiermit vor der selbstjustiz des deutschen volkes warnen . mein name ist tobias adrian JÄGER. viel glück !!!“ Und: viele Demokraten nehmen die teils erschreckenden Ergebnisse zum Anlass um über sinnvolle Projekte zu diskutieren, die zu mehr Demokratieaffinität, Solidarität und Stärkung der Zivilgesellschaft führen. Nicht so schlecht, oder? Angela Merkel will jetzt zum Beispiel aufgrund der Ergebnisse unserer Studie stärker für Toleranz gegenüber Homosexuellen eintreten und hat es auch schon getan. Nichts für ungut! Kommt mal beim neuen Kompetenzzentrum für Rechtsextremismus- und Demokratieforschung vorbei. Ihr seid herzlichst eingeladen, mit uns sachlich zu diskutieren. Ich stehe auch immer für Fragen zu Statistik zur Verfügung, falls die Kenntnisse mal aufgefrischt werden müssen. Ach ja, da war noch etwas: das mit dem Medienzirkus (ziemlich unverschämte Unterstellung von Euch) ist uns gar nicht sooooo wichtig. Ich bin jetzt recht froh keine Interviews mehr zu geben oder auf unsachliche, unwissenschaftliche Diskussionen in den Medien einzugehen und hau mir jetzt `nen paar Pilsetten `rein. Bis Montag stehe ich für Euch leider nicht zur Verfügung. Wenn Ihr Zitate aus meinem Text übernehmen wollt, bitte ich vor Veröffentlichung höflichst um Autorisierung (mein Vertrauen in Qualitätsjournalismus ist gerade etwas erschüttert). Beste Grüße, Alex Yendell

Volkmer Braun 20.06.2016 | um 20:04 Uhr

Laut dem Kommentar oben ist die Hauptaussage, dass das rechtsextreme Milieu beginnt, „nun auch so zu handeln“ wie es denkt. Hier die Passage im Sinne der Vollständigkeit: „rechtsextreme Einstellung ist prozentual nicht häufiger anzutreffen, aber Menschen mit rechtsextremer Einstellung haben sich radikalisiert. Vulgo: jene Teile der gesellschaftlichen Mitte, welche bisher nur rechtsextrem dachten, beginnen nun auch so zu handeln.“ Und „Rechtsextremismus ist seit 2014 nicht angestiegen, es gibt ein stark demokratiebefürwortendes Milieu in Deutschland, dass sogar noch demokratieaffiner ist, als es in der Erhebungswelle 2006 war. Allerdings haben wir es am ganz rechten Spektrum mit einem rechtsautoritären Milieu zu tun, dass es auch schon früher gab, aber im Gegensatz zu früher deutlich gewaltbereiter und radikaler geworden ist.“ Das allerdings haben sie gar nicht gemessen, wie sollten sie auch? Sie messen Einstellungen, nicht Handlungen. Was sie messen können, ist maximal eine Bereitschaft, ob es dann dazu kommt oder nicht, können sie nicht behaupten, was sie aber mit „beginnen nun auch so zu handeln“ tun. Außerdem beläuft sich ihr Milieu, das sich – nochmal: als Hautaussage! – radikalisiert hat, auf 5,6% der deutschen Bevölkerung, was sie nicht daran hindert, medientauglich von „enthemmter Mitte“ zu sprechen. Genau da liegt der Haase im Pfeffer begraben, der die Studie mit ihrem Titel und ihrer medialen Verpackung eigentlich peinlich macht. Ihre Aussagen über die Mitte belaufen sich auf einzelne Items, die noch nicht einmal in Dimensionen geprüft wurden. Der Rückzug auf den vermeintlich objektiven und neutralen Wissenschaftler, der nur „misst“ – sie glauben doch nicht ernsthaft, dass sie jemals die Wirklichkeit messen können, sie können sich maximal wahren Werten nähern – ist theoretisch auf dem Niveau des 19. Jahrhunderts. Man ignoriert einfach die eigene theoretische Modellierung und tut so, als würde man nur Steine beobachten. Genauso dämlich argumentiert es Schroeder, der allerdings die linksextreme Gefahr herbei phantasiert. Dabei interveniert die Studie höchst problematisch in ein aufgeladenes politisches Feld. Eine kritische Deutung der Studie mit dem Verweis auf mangelnde Wissenschaftlichkeit anzugreifen, ist wohlfeil. Hätte der Kreuzer also einen 15 seitigen Aufsatz veröffentlichen sollen, wo doch dessen ach so blöden Leser eh nur den Teaser lesen? Dass Sie, Herr Yendell, allerdings so herablassend über Journalisten urteilen, weil sie mit Kritik nicht umgehen können, ist schon auffällig. Nochmal: Auf den Einwand, dass der Sprung von einer "stabilisierten" zu einer "enthemmten" Mitte gewagt (bzw. Käse) ist, gehen Sie nicht ein. Auf die fragwürdige Argumentation zu Ost und West gehen sie nicht ein. Dass sie eigentlich nur Aussagen über 5,6% der Bevölkerung machen, geben sie sogar zu und werfen dann mit Dreck, weil jemand bemerkt, dass das (schon zahlenmäßig) nicht "die Mitte" ist. Auf die Frage, ob die Islam- und Homophobiefeindlichkeit – wie üblich mit mehreren Items gemessen wurde und wie üblich auf Eindimensionalität getestet werden muss – gehen sie nicht ein. Sorry, aber da muss man sich doch weiterhin über die Studie zumindest wundern. Wenn es sich also um eine Querschnittsstudie handelt – wie sie ja nun sagen, dann werden in der Studie mit Sicherheit auch keine Kausalitäten abgeleitet. Aber in der Tat wird der Eindruck erweckt, dass dieselben Menschen befragt worden wären, ganz konkret auf Seite 79: „Die rechtsextrem Eingestellten sind vor allem zur AfD abgewandert: Gaben 2014 nur 6,3% der rechtsextrem Eingestellten an, diese Partei wählen zu wollen, so waren es 2016 34,9%. Das Gros der neuen Wählerinnen und Wähler der AfD dürfte aber von SPD und CDU/CSU zugewandert sein.“ Da ich mit Wahlforschung zu tun habe, weiß ich, dass man mit Querschnittsuntersuchungen (was an keiner Stelle in der Studie erwähnt wird) genau das nicht ableiten kann, weil es eine Aussage auf der Individualebene ist. Sie können mit Querschnittsdaten aber nur Aussagen auf der Ebene des Aggregats treffen. Wenn sie die Menschen 2016 gefragt haben sollten, was sie 2014 gewählt hätten, wäre das sicherlich okay. Aber das kann ich in der Studie nicht erkennen; der Widerspruch bleibt zwischen dem was in der Studie steht und dem was sie sagen. Mal ein anderes Beispiel auf Seite 90: "Um die Gewaltakzeptanz und Gewaltbereitschaft der Befragten je nach Parteipräferenz zu differenzieren, wurden zwei Skalen gebildet (Grundlage sind die in Kap. 2 vorgestellten Aussagen zur Gewaltakzeptanz und Gewaltbereitschaft)." Dort steht dazu aber nichts, nur zu Gewaltbereitschaft (wie gut diese Skala ist, weiß auch kein Mensch). Vielleicht haben Sie nur vergessen, das zur Gewaltakzeptanz mit aufzunehmen. Nun wird mit Gewaltakzeptanz und Gewaltbereitschaft innerhalb der Milieus aber stark argumentiert. Ihre Aussagen kann ich als Leser der Studie also gar nicht so genau beurteilen. Ist das gewollt oder der kurzen Zeit geschuldet, die sie zur Verfügung hatten, frage ich mich dann… Oder wieso ich den Kreuzer auch durchaus verstehen kann: Auf Seite 146 steht nur unter Tabelle 3 (übrigens kleingedruckt), dass Daten gewichtet wurden. So etwas macht man nur, um Repräsentativität herzustellen, weil es sie nicht oder nur eingeschränkt gab. Bestimmte Merkmale der Stichprobe, die nicht der Grundgesamtheit entsprechen, werden deshalb gewichtet. Nun ist ja mal interessant zu wissen, warum das auch nirgendwo geschrieben steht wie und was gewichtet wurde. Aus stichprobentheoretischer Sicht können Gewichtungen nämlich ganz ungeheuerliche Sachen mit Daten tun. Nun ist das Strukturgleichungsmodell obviously ihr Herzstück Herr Yendell. Nun bin ich kein Dachdecker, weiß aber sehr wohl, dass ein Dach vor Regen schützt. Lassen sie mich aus Erfahrung sagen: Wenn ich in meinem Beruf nach einem Auftrag in einen Kundenbericht schreiben würde: „Aber wenn sie es genau wissen wollen, melden sie sich einfach noch mal.“, dann würde ich den Kunden verlieren. Sie sind als Wissenschaftler gefordert, nicht nur den einen Spitzenwert anzugeben und dann zu sagen, dass eine vollständige Übersicht über alle Interdependenzen bei ihnen angefragt werden kann. Damit bleibt ihr Spitzenmodell erst mal eine Behauptung, denn nur weil ein Wert spitze ist, ist das gesamte Modell nicht spitze. Übrigens lässt der von ihnen angegebene Spitzenwert nur bedingt Rückschlüsse auf eine Stichprobe zu. Sie können nämlich eine repräsentative Erhebung durchführen und trotzdem schlechte Daten haben (so einen Fall hatte ich mal 1995). In jedem Buch, was man zur Hand nimmt, stehen mindestens 5-6 Gütewerte (z.B. SRMR, TLI, CFI, AGFI…). usw… Naja, und das Sie in ihrer Tabelle 3 auf besagter Seite 146 ein bisschen tricksen, geschenkt: Sie schreiben nämlich „k.d.E.“. (was für „kein direkter Einfluss“ steht wie sie schreiben). Obwohl es dort keinen Einfluss gibt (in der Statistik sagt man dazu, nicht signifikant, abgekürzt n.s.), meinen aber dennoch, dass es vielleicht einen indirekten Einfluss geben könnte und stellen weiterführende und aus mathematischer Sicht unzulässige Vermutungen an. Ist das ihr Ernst. Testen Sie es, prüfen Sie es und erst dann können Sie es schreiben. Nur an wenigen ausgewählten Stellen bekomme ich den Eindruck, wie hoch das N für Operationen oder Auswertungen überhaupt ist. Es ist geradezu unwahrscheinlich, dass alle Menschen vollständig auf die unzähligen Fragen geantwortet haben, es sei denn, es wurde mit wertvollen Incentives wie Bargeld gearbeitet. Ein derartiges Modell ist ganz wesentlich von einem hinreichend großen N abhängig, berichtet wird das N nicht. Auch das ist nicht gut. Ich habe damals im Studienseminar gelernt, dass bei Darstellung IMMER ein N zu stehen hat. Prüfgrößen für ihre 6 ganz wichtigen und zentralen Dimensionen gibt es überhaupt nicht. Für interessierte Leser bleibt, dass sie einfach behaupten, dass ihre 6 Dimensionen ein „geschlossenes rechtsextremes Weltbild“ sind. Sie müssen den Lesern auch eine Chance geben, solchen Studien zu verstehen, indem sie Tests angeben und Prüfergebnisse transparent machen. Komisch ist das bei ihnen schon. In einem renommierten Zeitschriftenverlag würde ihnen so etwas um die Ohren fliegen, weil es weiterhin Hinweise auf Unwissenschaftlichkeit und Intransparenz gibt. Ich weiß wovon ich spreche, da ich selbst mal in einem Wirtschaftsjournal sowas gemacht habe. Sie wären bei mir glatt durchgefallen. Das gleiche ist‘s bei einer Clusteranalyse. Sie erwähnen nicht, wie sie konkret vorgegangen sind – das in einer Studie zu dokumentieren, können sie über Fußnoten oder Anmerkungen am Ende eines Textes oder in einem Glossar (kleiner Hinweis am Rande) tun. Bei Clusteranalysen gibt es ungeheuerlich viele Entscheidungen, die sie ganz individuell zu treffen haben. Gerade bei ihren Milieus wichtig zu wissen, was sie wie und warum so und nicht anders gemacht haben (vor allem weil ja ihre Teilmengen am Ende ziemlich klein sind N = um die 100 bis 120 vielleicht). Und noch am Rande: selbst Spiegel-Online (lese ich ja auch manchmal) erklärt seinen Leser, was ein Standardfehler oder eine Standardabweichung bedeutet, weil das üblicherweise in Studien angegeben wird. Beide Werte sucht man in ihrer Studie vergebens. Rundum ist’s wie ein Kasten Bier, auf dem Bock steht und Pilsner drin ist. Beides ist zwar Bier, aber es schmeckt eben anders. Nochmal: das ist echt peinlich. Prost! Volkmer

Paranoider Anonymiker 29.06.2016 | um 17:54 Uhr

Mehr übers Thema gestolpert, via Medienseiten, und glücklicherweise beruflich mehr mit den Inhalten selbst beschäftigt, als mit der Erbsenzählerei, habe ich mir den fraglichen Sponartikel angesehen und mich anschliessend nicht in Details der Studien vertieft. Deshalb hier nur eine Frage, die sich mir in jenem Artikel geradezu aufdrängte: Warum klafft da ausgerechnet bei FDP-Anhängern beim Item "Sozialdarwinismus" ohne erklärende Fussnote ein Loch, eine Leerstelle? Gerade wer nach Einfallstoren/Zugangspfaden der Extremen in die indifferente Mitte herein fahndet, kann doch die inhaltlich sozialdarwinistische Klammer oder Brücke zwischen Neoliberalen/Libertären und völkisch-reaktionären nicht ignorieren? Muss man das anhand Pim Fortuyn, FPÖ, TeaParty,Trump, Tichy oder AFD durchdeklinieren? Oder gar gleich die VT aufwärmen, dass genau dieses -vorsichtig formuliert- ungeklärte Verhältnis unserer Eliten- in Medien, Parteien und Verbänden- zum exkludierenden Sozialdarwinismus, die eigentliche Schwachstelle darstellt, die den Abwehrkampf so erfolglos erscheinen lässt? Vielleicht könnten Sie mir also kurz ein Stichwort zuwerfen, das mir dieses klaffende Loch in der Ergebnipräsentation verständlich macht? Nachdem das ja eh schon der blinde Fleck aller unserer Hauptmedien in der Wahrnehmung und Darstellung der europaweit neuen, modernen Rechten ist, komme ich da ja selbst kaum noch an der VT vorbei. Inwieweit wird denn in der koordinierten Forschung diesem vereinenden Bindungspunkt: "Sozialdarwinismus im Sinne einer Anarchie unter der Herrschaft der bestgefüllten Geldsäcke, aber deren Opfern als völkisch abgesichert schmackhaft gemacht " ...überhaupt nachgegangen? Aber vor allem: Wieso klafft da plötzlich diese Leerstelle? Wieso wird ausgerechnet bei der Alt-Liberalpartei der Wert für Sozialdarwinismus nicht ausgewiesen? Je kürzer Ihre -von mir erhoffte- Antwort ausfallen sollte, desto mehr bitte ich darum, sich dann auf diese Leerstellenfrage zu fokussieren. Hinweise auf Quantergebnisse, die genau diese inhaltliche Furt in die Mitte adressieren, nehme ich übrigens auch gerne mit Kußhand auf.