Nun haben wir die ersten drei Phasen des idealtypischen Marktforschungsprozesses besprochen. Im letzten Beitrag haben wir uns angesehen, wann es sinnvoller ist die Marktforschungsstudie selbst zu erheben und wann Outsourcen die sinnvollere Alternative ist.

Ich kann bereits jetzt sagen, dass dieser Beitrag sehr lang werden wird, schließlich gibt es viele verschiedene Formen der Datenerhebung, aus diesem Grund finden sie zunächst einen Überblick über den Inhalt dieses Artikels:

  1. Überblick: Primär- und Sekundärdaten
  2. Erhebung von Primärdaten
  3. Verwendung von Sekundärdaten

Festlegung der Datenerhebungsmethode

Die Basis der Marktforschung sind Daten. Daten lassen sich in zwei Arten einteilen: Primärdaten und Sekundärdaten.

Primärdaten

Primärdaten sind Daten, die auf die individuellen Informationsbedürfnisse der jeweiligen Fragestellung zugeschnitten sind. Diese Daten werden zudem im Rahmen der Marktforschungsstudie neu erhoben, es wird also nicht auf bereits vorhandene Daten zurückgegriffen.

Sekundärdaten

Sekundärdaten sind Daten, die nicht erst im Rahmen der Marktforschungsstudie erhoben werden, sondern von bereits vorhandenen Informationsquellen stammen.

Im Rahmen der Datenerhebungsmethode stellt sich zunächst die Frage, welche Informationsquellen genutzt werden sollen, also, ob man eher Primär-, Sekundärdaten oder eine Mischung aus beiden Datenarten nutzen sollte.

Bei der Suche nach Sekundärdaten stehen dem Unternehmen unternehmensinterne und -externe Daten zur Verfügung. Da diese Sekundärdaten aber wahrscheinlich nicht den speziellen Informationsbedürfnissen der jeweiligen Marktforschungsstudie entsprechen, könnte dann die Aussagekraft leiden.

Wenn im Rahmen einer Marktforschungsstudie die Aussagekraft der Daten eine sehr wichtige Position einnimmt, sollte generell eher auch Primärdaten zurückgegriffen werden. Der Nachteil der Primärdaten allerdings liegt darin, dass die Kosten zur Datenerhebung deutlich höher ausfallen.

Zahlreiche Sekundärdaten lassen sich inzwischen mit Hilfe des Internets sogar kostenlos gewinnen. Grundsätzlich muss also zwischen Aussagekraft und Kosten abgewogen werden und daraus die richtige Datenerhebungsmethode ausgewählt werden.

Ein weiterer wichtiger Aspekt, der für die Primärdaten spricht, ist die höhere Aktualität. Bei zahlreichen Sekundärdaten muss man damit rechnen, dass diese durchaus schon einige Jahre alt sind.

Doch auch im zeitlichen Aspekt können die Sekundärdaten punkten. Während die Gewinnung von Primärdaten viel Zeit in Anspruch nimmt, können Sekundärdaten deutlich schneller beschafft werden. Auch hier erleichtert das Internet den schnellen Zugang zu Sekundärdaten.

Letztlich kann man sagen, dass es sich häufig anbietet eine gewisse Mischung dieser beiden Datenarten zu nutzen, um die jeweiligen Vorteile nutzen zu können.

Erhebung von Primärdaten

Im Rahmen der Erhebung von Primärdaten können wir drei Formen der Erhebung unterscheiden:

Methoden der Befragung

Bei der Methode der Befragung zur Erhebung von Primärdaten lassen sich zunächst einmal qualitativ und quantitativ orientierte Methoden unterscheiden.

Qualitativ orientierte Befragungsmethoden

Wie der Name schon sagt, zielen diese Methoden darauf ab, qualitative Informationen zu generieren. Auch im Rahmen dieser Befragungsmethoden unterschieden wir zwei Arten:

  • Tiefeninterview
  • Gruppeninterview

Im Gegensatz zu den quantitativen Befragungsmethoden sind die Qualitativen Methoden auf eine begrenzte Anzahl von Befragten ausgerichtet. Zudem sind die Fragen wie auch die Antwortmöglichkeiten sehr flexibel gestaltet und können sich zwischen den Befragten deutlich unterscheiden.

So muss nicht zwangsläufig jeder Befragte mit der gleichen Frage konfrontiert werden.

Die qualitativen Befragungsmethoden finden beispielsweise in den folgenden Aufgabenstellungen Anwendung:

  • Test von neuen Produktvarianten
  • frühzeitige Erkennung von Markttrends
  • Generierung von neuen Produktideen
  • Ergründen der tiefen Kundenbedürfnisse

Tiefeninterview

Bei dem Tiefeninteview handelt es sich um ein freies, qualitatives Interview, welches in Form eines persönlichen Gesprächs stattfindet. Ziel bei dieser Befragungsmethode ist es, tiefe Einblicke in den Untersuchungsgegenstand zu gewinnen. Dazu wendet der Interviewer auch psychologisch geschickte Frage an, um die Denk-, Empfindungs- und Handlungsweisen des Befragten zu verstehen.

Solch ein Tiefeninterview erfolg meist nur halbstrukturiert, da der Interviewer durch diese flexiblere Vorgehensweise den Freiraum hat auf im Verlauf des Interviews ergebende Fragen konkreter einzugehen. So hat der Interviewer die Möglichkeit tiefer in bestimmte Thematiken einzusteigen und so qualitativere Ergebnisse zu generieren.

Durch eine vertrauensvolle Atmosphäre wird zudem versucht die Aussagewilligkeit des Befragten zu erhöhen.

Fragetechniken

Eine häufig angewendete Fragetechnik ist die des Laddering. Beim Laddering wird versucht die Aussage des Befragten in mehreren Schritten immer weiter zu hinterfragen, um dadurch nähere Erkenntnisse über seine Einstellungen und Motive zu gewinnen.

Von Aaker, Kumar und Day (2004) gibt es das Beispiel von der Befragung eines Kunden einer Fluggesellschaft:

Interviewer: „Warum ist ihnen ein breiter Sitz wichtig?“

Befragter: „Auf einem breiten Sitz ist es komfortabler.“

Interviewer: „Warum ist dies wichtig für sie?“

Befragter: „Ich kann dann besser arbeiten.“

Interviewer: „Warum ist dies wichtig für sie?“

Befragter: „Weil ich dann beruflich schneller vorankommen.“

Hier sieht man sehr gut, wie durch das Laddering nach und nach die Motive des Befragten zum Vorschein gekommen sind (beruflicher Aufstieg).

Eine weitere Befragungstechnik sind projektive Techniken, welche ebenfalls in Tiefeninterviews Anwendung finden. Projektive Techniken werden vor allem dann eingesetzt, wenn der Befragte entweder nicht bereit oder in der Lage ist, die Gründe für sein Verhalten und Einstellungen zu erklären. Wenn der Befragte zum Beispiel selbst nicht weiß warum er ein bestimmtes Produkt kauft.

Bei dieser Befragungstechnik wird der Befragte mit einem mehrdeutigen Stimulus konfrontiert. Diesen Stimulus soll der Befragte dann interpretieren und erklären.

Grundidee ist es, dass der Befragte so unterbewusst seine eigenen Meinungen, Einstellungen, Motive und Charaktereigenschaften in die Situation hinprojiziert. Diese Technik soll so Aufschluss über Aspekte geben, die in der bewussten Erscheinungssituation nicht zum Vorschein gekommen wären.

Beispiele für diese projektiven Techniken sind bspw.:

  • Fallstudien
  • Rollenspiele
  • Vervollständigungstests
  • Bildinterpretationen
  • Wortassoziationen

In der Marktforschung werden Tiefeninterviews vor allem bei schwer erfassbaren Konstrukten verwendet, wie zum Beispiel Motiven und Einstellungen. Problematisch sind Tiefeninterviews in der Hinsicht, dass die Ergebnisse der verschiedenen befragten Personen schwer zu vergleichen sind, da sich in jedem Gespräch unterschiedliche Schwerpunkte ergeben können.

Optimal ist es, wenn die Interviews entweder per Tonband oder Video aufgezeichnet werden, da so im Gegensatz zur schriftlichen Erfassung vom Interviewer keine Manipulationen auftreten können.

Bei dieser Form der Befragung ist zudem die Auswertung und Interpretation der Daten sehr aufwändig und lassen einen großen Raum zur Interpretation.

Gruppeninterviews

Die Gruppeninterviews zielen im Gegensatz zu den Tiefeninterviews darauf ab, einen umfassenderen Überblick über die Ideen und Meinungen mehrerer Personen zu erhalten. Mit 6-10 Mitglieder wird unter der Leitung eines qualifizierten Moderators ein Themenkatalog diskutiert.

Die Diskussion wird entweder schriftlich, oder noch besser, per Tonband oder Video aufgenommen.

Eine solche Gruppendiskussion läuft in der Regel in fünf Phasen ab:

  1. Grundsätzliches
    1. Präsentation der Diskussionsregeln und Erwartungen.
  2. Vorstellungsrunde
    1. Kurze Vorstellungsrunde der Teilnehmer und Herausarbeiten von Gemeinsamkeiten durch den Moderator zur Steigerung des Zusammengehörigkeitsgefühls.
  3. Diskussionsstimulus
    1. Vorstellen des Produktes und Beantwortung von Verständnisfragen der Teilnehmer.
  4. Gruppendiskussion
    1. Strukturierung der Diskussion durch einen Moderationsleitfaden, der flexibel auf die Entwicklung der Diskussion angewendet werden soll.
  5. Abmoderation
    1. Durchführung einer kurzen standardisierten schriftlichen Befragung zum Abgleich von individuellen Einstellungen und der Gruppenmeinung.

Für den Erfolg eines solchen Gruppeninterviews sind zwei Aspekte ganz besonders entscheidend: Die Auswahl der Probanden und die Qualität der Moderation.

Bei der Auswahl der Probanden ist darauf zu achten, dass die Gruppenmitglieder weder extrem heterogen noch extrem homogen sind, also sich weder in vielen Aspekten gleichen noch zu stark unterscheiden sollten. Beides wäre eher kontraproduktiv.

Auch sollte nicht versucht werden durch diese kleine Gruppe eine gewisse Repräsentativität der Teilnehmer zu erreichen. Bei dieser geringen Teilnehmerzahl ist dies ohnehin kaum möglich.

Stattdessen sollten diese Fokusgruppen besser auf bestimmte Segmente zielen, die für den entsprechenden Untersuchungsgegenstand von besonderem Interesse sind.

Der Moderator hat zwei wesentliche Aufgaben: zum einen muss er die Diskussion strukturieren und zum anderen muss er die Diskussion in Gang halten.

Klingt zunächst recht einfach, ist es bei einer genaueren Betrachtung allerdings gar nicht. Der Moderator muss nämlich darauf achten, dass auch passive Teilnehmer ermutigt werden Äußerungen zu tätigen und besonders aktive Teilnehmer müssen eventuell sogar etwas mit ihren Äußerungen gebremst werden.

Im besten Fall führt diese Gruppendiskussion dazu, dass sich die Teilnehmer gegenseitig zu detaillierten und spontanen Äußerungen anregen.

Lese auch:  Lebenszyklusmodell - Erfolgsfaktoren für Unternehmen

Ein Problem im Rahmen von Gruppendiskussionen ist immer wieder, dass einzelne Meinungsführer die Gruppenmeinung verzerren können. Denn durch dominante Gruppenführer treten einzelne Teilnehmer womöglich davon zurück eine eigene Meinung zu vertreten.

Auch hier muss der Moderator eingreifen und dafür sorgen, dass jeder Teilnehmer frei seine eigene Meinung äußern kann.

Durch die zum Teil sehr kurze Zeit einer solchen Gruppendiskussion (durchaus nur 10-15Min.) ist es schwierig eine vertrauensvolle Atmosphäre zu schaffen.

So kann es sich anbieten eine Gruppendiskussion mit Hilfe des Internets durchzuführen. Hier bieten sich verschiedenen Softwarelösungen an, um eine Gruppendiskussion über das Internet zu führen.

Wenn die Antworten hier schriftlich erfolgen, führt die längere Beantwortungszeit dazu, dass die Antworten durchdachter ausfallen können. Auch nicht so dominante Gruppenmitglieder kommen im Internet leichter zu Wort.

Außerdem bietet das Internet natürlich die große Chance, dass auch räumlich weit entfernte Teilnehmer einfach und kostengünstig zusammengeführt werden können.

Nachteilig sind allerdings die kürzeren und zum Teil oberflächlicheren Antworten der Teilnehmer. Zudem kann auch die non-verbale Kommunikation kaum erfasst werden.

Quantitativ orientierte Befragungsmethoden

Anders, als die qualitativen Befragungsmethoden sind die quantitativen Methoden deutlich stärker standardisiert. Das heißt, dass die Fragen sowie die möglichen Antworten für alle Beteiligten im Wesentlichen gleich sind. Das Ziel welches durch diese standardisierten Fragen verfolgt werden soll, ist die Vielzahl von Antworten weitestgehend vergleichbar zu machen.

Folgende quantitative Befragungsmethoden sind anwendbar:

  • standardisierte mündliche Befragung
  • standardisierte schriftliche Befragung
  • standardisierte telefonische Befragung
  • Online Befragung

Standardisierte mündliche Befragung

Die mündliche Befragung erfolgt mit Hilfe eines standardisierten Fragebogens, in welchem die Fragen in Form, Inhalt und Reihenfolge festgelegt sind. Dadurch kann der Interviewer weder eigene Fragen hinzufügen, noch die Reihenfolge der Fragen ändern. Er kann den Befragten lediglich beim Verständnis der Fragen helfen, indem er die Frage wiederholt oder erklärt.

Wie bereits erwähnt ist das Ziel dieser Standardisierung die bessere Vergleichbarkeit der Antworten. Dadurch können die gewonnenen Daten besser verglichen und aggregiert werden.

Bei der mündlichen Befragung sind verschiedene Orte denkbar an denen eine Befragung durchgeführt werden kann:

  • in den Wohnungen der Konsumenten (Door-to-Door Interviewing)
  • Einkaufszentren
  • Fußgängerzonen (Mall Intercept Surveys)
  • in den Unternehmen der befragten Manager (Executive Interviewing)

Das sogenannte CAPI (Computer Assisted Personal Interview), also die computergestützte Auswertung der Ergebnisse ist bereits Standard.

Standardisierte schriftliche Befragung

In der Regeln erhalten die Befragten über den Postweg einen Fragebogen zugesandt. Falls ein Befragter diesen nicht ausfüllt und an die Marktforscher zurückschickt, folgt häufig ein Erinnerungsschreiben oder es wird ein weiterer Fragebogen zugeschickt.

Da im Gegensatz zur mündlichen Befragung kein Interviewer vorhanden ist, der dem Befragten Hilfestellung anbieten könnte, ist es wichtig die Fragestellungen so eindeutig, wie möglich zu gestalten. Außerdem werden meistens fast ausschließlich geschlossene Fragen verwendet, um so die Ergebnisse besser auswerten zu können.

Beispiele der schriftlichen Befragung:

  • Fragebogenmailing zu einer Kundenbefragung
  • Fragebogen bei Produktbeipackzetteln
  • Fragebogen zur Beurteilung einer vor kurzem durchgeführten Dienstleistung

Standardisierte telefonische Befragung

Eine inzwischen nicht mehr so gängige Methode ist es, die Befragten per Telefon zu interviewen. Es sollte hierbei darauf geachtet werden, dass das Gespräch möglichst kurz gestaltet ist, da andernfalls der Befragte sehr schnell die Befragung abbrechen kann.

Online Befragungen

Immer beliebter wurden in den letzten Jahren Online-Befragungen, die entweder als Email-Umfrage oder als Internet Umfrage durchgeführt werden.

Bei einer Email-Umfrage ist darauf zu achten, dass es in Deutschland verboten ist einfach an Email-Adressen Spam-Mails oder Werbung zu versenden.

Deutlich beliebter ist im B2C-Bereich die Internet-Umfrage. Hier gibt es einige Portale, die die Befragten dafür bezahlen, wenn diese an Umfragen teilnehmen. Umgekehrt können Unternehmen mit Hilfe solcher Portale leicht eine große Anzahl von Menschen befragen.

Methoden der Beobachtung

Die erste Möglichkeit Daten zu gewinnen ist die Befragung von Menschen. Die zweite Möglichkeit ist die Methode der Beobachtung, um die es nun gehen soll.

Durch die Beobachtung werden von bestimmten Personen Sachverhalte, Verhaltensweisen und Eigenschaften planmäßig erfasst. Diese Form der Beobachtung kann entweder über einen längeren Zeitraum geschehen oder zu einem ganz bestimmten Zeitpunkt.

Um die gemachten Beobachtungen festzuhalten gibt es drei Wege: Die Beobachtung der Sachverhalte kann zum einen durch die handelnde Person selbst (Selbstbeobachtung), durch unabhängige Dritte (Fremdbeobachtung) oder durch spezielle Geräte (z.B. Videogeräte -> instrumentelle Beobachtung) erfolgen.

Zwar wird das beobachtete Verhalten im Gegensatz zur Befragung direkt erfasst, sobald es auftritt, allerdings können die dahinterstehenden Motivationen kaum erfasst werden. Vielmehr muss der Marktforscher diese Motivationen der beobachteten Individuen später nachträglich interpretieren.

Eine Beobachtung weist verschiedene Vor- und Nachteile auf:

VorteileNachteile
Teilweise stellt die Beobachtung die einzige Möglichkeit der Datenerhebung dar. Z.B. bei der Auswertung der Blickpunkte einer Werbeanzeige.Sobald die beobachtete Person merkt, dass sie beobachtet wird kann sie ein atypischen Verhalten aufweisen, welchen auch als Beobachtungseffekt bezeichnet wird.
In manchen Fällen ist die Beobachtung kostengünstiger, als alternative Datenerhebungsmethoden.Jede Beobachtungssituation ist einzigartig und nicht wiederholbar.
Bei einer Beobachtung kann der Beobachter im Gegensatz zum Interviewer den Probanden nicht beeinflussen -> kein Interviewereffekt.Der Beobachter kann durch eine selektive Wahrnehmung und Erinnerung seine Beobachtungen falsch wiedergeben.

Beispielsweise im Einzelhandel kann die Beobachtung von Kunden sehr viel Aufschluss über die ideale Geschäftsgestaltung geben. So kann man beispielsweise die Wege der Kunden aufzeichnen, welche die Kunden im Geschäft zurücklegen.

Das Internet bietet Online Shop-Betreibern ganz neue Möglichkeiten die Einkaufswege der Kunden mitzuverfolgen. So kann der Besucher eines Online Shops ganz genau verfolgt werden, wie er den Weg zum Shop gefunden, nach welchen Produkte er gesucht oder welche Produkte er wieder aus dem Warenkorb geschmissen hat…

Im Rahmen der Durchführung einer Beobachtung können die folgenden Aspekte von dem jeweiligen Marktforscher beeinflusst werden:

  •  Transparenz der Untersuchungssituation
    • Der Marktforscher kann das Ausmaß beeinflussen, zu dem dem Beobachteten bekannt ist, dass er beobachtet wird.
  • Grad der Teilnahme des Beobachters
    • Bei einer teilnehmenden Beobachtung nimmt auch der Beobachter aktiv am Ablauf des Geschehens teil. Bei der nicht-teilnehmenden Beobachtung hingegen nimmt er nicht am Ablauf des Geschehens teil und konzentriert sich vielmehr darauf, das Geschehen aus der Distanz wahrzunehmen und zu registrieren.
  • Strukturiertheit
    • Die Strukturiertheit meint das Maß inwieweit das Design und der Inhalt der Beobachtungssituation standardisiert werden.
  • Wahrnehmungsform
    • In der Regel ist die Wahrnehmungsform audiovisuell. Ggf. können aber auch physische Aktivitäten des Beobachteten mit Hilfe spezieller Geräte aufgezeichnet werden (z.B. Puls, Blutdruck, Hautwiderstandsmessung)
  • Registrierungsform
    • Hierbei wird die Art und Weise definiert, in der die Daten bei der Beobachtung festgehalten werden.
  • Beobachtungsort
    • Grundsätzlich lassen sich zwei verschiedene Beobachtungsorte unterscheiden. In Feldbeobachtungen wird das Verhalten von Probanden im natürlichen bzw. realen Umfeld beobachtet. In Laborbeobachtungen hingegen können die relevanten Faktoren isoliert und kontrolliert werden.

Mischformen zwischen Befragung und Beobachtung

Experiment

Eine Mischform zwischen Befragung und Beobachtung stellt das Experiment dar. Das Ziel eines Experiments ist es, die Ursache-Wirkungs-Zusammenhänge zu verstehen.

Um dies zu erreichen wird ein Faktor verändert. Nun wird der Einfluss dieser Veränderung auf abhängige Größen gemessen. Je nach Experiment können diese Messungen durch bestimmte Befragungs- oder Beobachtungstechniken vorgenommen werden. Sehr häufig wird in Experimenten auch eine Kombination von Befragungs- und Beobachtungstechniken genutzt.

Grundsätzlich lassen sich zwei Arten von Experimenten unterscheiden: Labor- und Feldexperimente.

Ein Laborexperiment findet unter künstlichen Bedingungen statt, indem eine vereinfachte Realität in der Versuchsanlage abgebildet wird. Natürlich wissen die Probanden in einer solchen Situation auch, dass sie sich in einem Experiment befinden und beobachtet werden.

Im Rahmen von Laborexperimenten können mögliche Störgrößen deutlich besser kontrolliert werden und zudem bieten Laborexperimente häufig Zeit- und Kostenvorteile. So können zum Beispiel Probanden, die im Rahmen eines Laborexperiments einen Werbespot sehen, nicht so leicht von äußeren Einflüssen abgelenkt werden.

VorteileNachteile
Gute Wiederholungsmöglichkeit des ExperimentsGeringe Realitätsnähe aufgrund der künstlichen Situation
Gute Kontrolle der unabhängigen Variablen und anderen EinflussfaktorenRelativ geringe Generalisierbarkeit der Ergebnisse
Zeit- und Kostenvorteile
Gute Geheimhaltung vor Wettbewerbern (bspw. beim Test von neuen Produkten)
Hohe interne Validität, da im Wesentlichen frei von Störfaktoren
Lese auch:  Professionelles Wissensmanagement in Unternehmen - so gehts richtig!

Im Gegensatz dazu findet eine Feldexperiment in einer natürlichen Umgebung statt, wodurch die Versuchspersonen meist nicht wissen, dass sie an einem Experiment beteiligt sind. Dadurch zeigen diese auch kein atypischen Verhalten, wie es durchaus in Laborexperimenten auftreten kann.

Als schwierig stellt sich bei Feldexperimenten häufig heraus passende Kooperationspartner für ein solches Experiment zu finden. Beim Testen von Neuprodukten kann es zum Beispiel erforderlich sein, entsprechende Einzelhandelsunternehmen zu finden, die das Produkt in den Regalen platzieren.

VorteileNachteile
Hohe Realitätsnähe durch die natürliche SituationSchlechte Wiederholungsmöglichkeit des Experiments
Hohe Generalisierbarkeit der ErgebnisseSchlechte Kontrolle der unabhängigen Variablen und anderer Störfaktoren
Zeit- und Kostennachteile
Geringe interne Validität
Schlechte Geheimhaltung vor Wettbewerbern

Im Labor- wie auch im Feldexperiment können bestimmte Störgrößen auftreten:

  • „History“-Effekt
    • Verschiedene unternehmensexterne Ereignisse können ein Ergebnis beeinflussen. Wenn beispielsweise ein Auto-Hersteller einen neuen Pick-Up vorstellt, kann aufgrund des steigenden Ölpreises die Akzeptanz des Autos bei den Kunden rasch sinken.
  • „Testing“-Effekt
    • Vor allem bei Leistungsexperimenten kann die wiederholte Durchführung zu einer Verfälschung der Ergebnisse führen. Beispielsweise wenn die Versuchsperson weiß, welche Antworten aus dem ersten Experiment falsch waren.
  • „Instrumentation“-Effekt
    • Wenn die Messinstrumente neu justiert werden, kann dies zu einer verzerrten Messung führen. Wenn die wichtigen Variablen von einem Beobachter gemessen werde, wird dieser mit jeder Messung an Erfahrung bezüglich des betrachteten Phänomens gewinnen und in dieser Folge die Messung unterbewusst beeinflussen.
  • „Selection“-Effekt
    • Bei dieser Störgröße liegen Fehler bei der Zusammenstellung der Testgruppe vor. Optimal ist es in der Regel wenn die Testgruppe möglichst zufällig zusammengestellt wird.

Versuchsanordnungen in Experimenten

Es gibt verschiedene Versuchsanordnungen von Experimenten, mit denen die jeweiligen Störgrößen unterschiedlich gut kontrolliert werden können. Im Folgenden sehen wir uns die fünf bekanntesten Versuchsanordnungen an.

Diese Anordnungen werden durch eine bestimmte Notation beschrieben:

X = Das X verwendet man, um die Manipulation der unabhängigen Variablen darzustellen.

O = Das O wird verwendet, um die Beobachtung bzw. Messung der abhängigen Variablen darzustellen.

R = Das R zeigt die zufällige Verteilung der Personen auf die jeweiligen Testgruppen.

Wenn diese Buchstaben auf der gleichen Höhe/Reihe stehen, zeigt dies, dass diese sich auf die gleiche Personengruppe beziehen. Die Richtung links nach rechts gibt die zeitliche Reihenfolge an. Falls etwas gleichzeitig passiert, werden die Buchstaben untereinander dargestellt.

One-Shot Case Study

Die One-Shot Case Study weist die folgenden Notation auf:

X O

Die Testgruppe wird also zunächst einer Manipulation (X) ausgesetzt, um dann um Anschluss die abhängige Variable zu messen (O).

Bei dieser sehr einfachen Versuchsanordnung ist es problematisch, dass die Messung der abhängigen Variablen vor der Manipulation der unabhängigen Variablen fehlt. Zudem wird die Ausprägung der abhängigen Variablen nicht nur von der Manipulation der unabhängigen Variablen abhängen.

Es werden also bei dieser Versuchsanordnung die Störgrößen nicht kontrolliert.

Ein Beispiel soll uns bei den verschiedenen Versuchsanordnungen helfen, diese zu verstehen:

Ein Bank hat für Ihre Finanzprodukte ein neues Beratungskonzept entwickelt, welches die Anzahl der Abschlüsse erhöhen soll. Dieses neue Beratungskonzept soll nun in bestimmten Filialen getestet werden.

Bei der One-Shot Case Study haben sich 50 Filialen gemeldet, die an dem Experiment teilnehmen möchten. Die Mitarbeiter dieser 50 Filialen wurden entsprechend dem neuen Beratungskonzept geschult (X). Im Anschluss an dieser Schulung wurde gemessen wie viele Verträge jede Filiale im Monat abgeschlossen hat (O).

Die Messung kam zu dem Ergebnis, dass 82 Verträge im Durchschnitt pro Filiale in einem Monat abgeschlossen wurde.

Nun wissen wir allerdings nicht wie viele Verträge vor der Schulung im Durchschnitt pro Monat in einer Filiale abgeschlossen wurden.Wir können also keinen Rückschluss ziehen, ob das neue Beratungskonzept erfolgreich ist.

One-Group Pretest-Posttest Design

Im Rahmen der One-Group Pretest-Posttest Designs werden die Veränderungen durch die Manipulation erfasst.

Die Notation sieht wie folgt aus:

O(1)  X  O(2)

Es wird also vor der Manipulation eine Messung der abhängigen Variablen durchgeführt, doch auch trotz dieser Vormessung ist hier der Einfluss von Störfaktoren ebenfalls nicht berücksichtigt.

Wenn die Bank noch zusätzlich vor der Schulung ihrer Mitarbeiter eine Messung zu den Vertragsabschlüssen durchführt wäre dies ein One-Group-Pretest-Posttest Design.

Wenn die Bank so vor der Schulung im Monat pro Filiale im Durchschnitt 70 Vertragsabschlüsse vorweisen kann, aber nach der Schulung 82, dann deutet dies zunächst einmal darauf hin, dass das Schulungskonzept erfolgreich war. Allerdings könnte dieser Mehrverkauf auch z.B. auf eine neue Werbekampagne zurückzuführen sein.

Es müssen also nach wie vor die Störgrößen eliminiert werden.

Static-Group Comparison

Bei diesem Untersuchungsdesign wird zusätzlich noch eine Messung bei einer Kontrollgruppe durchgeführt.

Die Notation sieht wie folgt aus:

Experimentalgruppe: X    O(1)

Kontrollgruppe:                 O(2)

Wenn wir die Static-Group Comparison auf unser Banken-Beispiel übertragen, würde das bedeuten, dass wir in 50 Filialen die Mitarbeiter nach dem neuen Beratungskonzept schulen, während wir in 50 anderen Filialen die Mitarbeiter nicht schulen.

Wenn wir nun feststellen, dass die Experimentalgruppe nach der Schulung je Filiale im Durchschnitt 82 Verträge im Monat abschließen und die Kontrollgruppe nur 75, dann wäre dies ein weiterer Indiz für den Erfolg der Schulung.

Doch können auch hier noch Fehler auftreten, denn schließlich erfolgte die Zuteilung in die Experimental- bzw. Kontrollgruppe nicht zufällig. Wenn sich die Mitarbeiter freiwillig für die Experimentalgruppe melden, zeigt dies ein sehr hohes Engagement dieser Mitarbeiter, wodurch die höhere Abschlussquote nicht unbedingt nur auf das neue Beratungskonzept zurückzuführen wäre.

Dadurch sind auch bei Static-Group Comparison nicht alle Störgrößen eliminiert.

Pretest-Posttest Control Group Design

Bei dem Pretest-Posttest Control Group Design werden die Personen zufällig zu der jeweiligen Gruppe zugeteilt (R). Auch hier erfährt die Experimentalgruppe einer Manipulation, allerdings wird bei beiden Gruppen vor der Manipulation eine Messung durchgeführt.

Eine Notation sieht folgendermaßen aus:

Experimentalgruppe: R   O(1)    X    O(2)

Kontrollgruppe:           R   O(3)           O(4)

In unserem Banken-Beispiel werden also die jeweils 50 Filialen zufällig entweder den Experimentalgruppe oder der Kontrollgruppe zugeordnet.

Allerdings lässt sich beim Pretest-Posttest Control Group Design keine Aussage treffen, welche Störgrößen welchen Effekt haben.

Solomon Viergruppen-Design

Ein etwas komplizierteres experimentelles Design ist das Solomon Viergruppen-Design, bei dem auch teilweise die Stärke einzelner Störgrößen ermittelt werden kann.

Eine Notation dieses Forschungsdesigns sieht wie Folgt aus:

Experimentalgruppe: R    O(1)    X    O(2)

Kontrollgruppe 1:        R    O(3)          O(4)

Kontrollgruppe 2:       R                X    O(5)

Kontrollgruppe 3:       R                       O(6)

Durch eine Vormessung kann bereits ein Testing-Effekt auftreten, also eine Störgröße (z.B. wenn die Mitarbeiter mitbekommen, dass sie beobachtet werden, arbeiten diese effektiver). Einmal kann dieser Testing-Effekt auftreten ohne, dass eine Manipulation aufgetreten ist und einmal mit einer Manipulation. Um diese Störgröße besser zu kontrollieren sind also vier Gruppen erforderlich.

Testmärkte

In einem regionalen Testmarkt sollte eine repräsentative Struktur vorherrschen, die ähnliche Kunden, Bedarfs-, Handels-, Medien- und Wettbewerbsstrukturen aufweist.

In einem solchen Testmarkt können alle Marketingmaßnahmen durchgeführt werden. Indem man die Auswirkungen dieser Marketingmaßnahmen misst, kann man die einzelnen Maßnahmen nach deren Effektivität beurteilen.

Der große Vorteil der daraus resultiert ist, dass man die Marketingmaßnahmen in einen kleinen repräsentativen Markt durchführt, wodurch die Marketingaktivitäten deutlich günstiger sind, als wenn man diese in einen Gesamtmarkt durchführen würde.

So kann man beispielsweise vor der offiziellen Produkteinführung einen möglichen Verbesserungsbedarf erkennen.

Nachteilig bei solchen regionalen Testmärkten ist allerdings die schwierige Geheimhaltung vor der Konkurrenz. Außerdem ist dieser Testmarkt mit hohen Kosten und einem hohen Zeitbedarf verbunden.

In einem Mikrotestmarkt (auch Storetest) wird in einer kleinen Anzahl von ausgewählten Testgeschäften die Wirksamkeit von Marketingmaßnahmen geprüft. Diese aus dem Mikrotestmarkt gewonnenen Erkenntnisse können durch ein Haushaltspanel ergänzt werden – worauf ich gleich noch näher eingehen werden.

Die Erst- und Wiederkaufsraten erlauben dabei Rückschlüsse über den zukünftigen Erfolg eines Produktes in dem Gesamtmarkt.

Häufig übernimmt dabei das jeweilige Marktforschungsinstitut die Regalplatzierung in den Testgeschäften und kontrolliert die Testbedingungen.

Lese auch:  Im Test: Parallels Desktop® für Mac Business Edition

Ein Vorteil dieses Storetests ist die schnelle und kostengünstige Durchführung. Zudem lassen sich die Testbedingungen besser kontrollieren, wodurch dieses Verfahren an Popularität gewonnen hat.

Der elektronische Testmarkt ist eine Weiterentwicklung des Mikrotestmarktes. Bei diesem Testmarkt werden die Daten durch eine Kombination aus Haushalts- und Handelspanel erfasst. Die teilnehmenden Haushalte erhalten durch Scanner lesbare ID-Karten, die diese beim Einkauf vorlegen. Dadurch kann über die Scannerkasse direkt der Einkauf des jeweiligen Haushaltes erfasst werden.

Da bei dieser Testform mehrere Testgeschäfte teilnehmen, ist es durchaus möglich die Einkäufe dieser Haushalte komplett zu erfassen.

Das Virtual Shopping stellt eine neue Methode dar, Einkaufsdaten zu gewinnen. Hierbei wird ein fotorealistisches Modell eines Geschäfts durch einen Computer simuliert. Die Testpersonen können sich durch dieses virtuelle Geschäft bewegen und die angebotenen Produkte kaufen.

Auch hier liegt der wesentliche Vorteil in dem geringem Zeit- und Kostenaufwand dieses Verfahrens. Darüber hinaus kann man das Verhalten der Testpersonen im simulierten Geschäft sehr detailliert verfolgen. Ein großer Nachteil dieses Verfahrens ist allerdings, dass eine Nutzung des Testproduktes nicht stattfindet, sodass hiermit keine Daten zur Produktzufriedenheit gewonnen werden können.

Deutlich von den bereits besprochenen Testmärkten unterscheiden sich Testmarktsimulatoren, da es sich hierbei um Experimente unter Laborbedingungen handelt. Diese Testmarktsimulatoren werden in der Praxis eingesetzt, um Daten für die Prognose des Markterfolges eines neuen Produktkonzeptes zu gewinnen.

Vorteilhaft ist hierbei insbesondere die bessere Geheimhaltung, die geringeren Kosten, sowie die schnellere Verfügbarkeit von ersten Ergebnissen. Wie bei vielen Laborexperimenten sind auch hier die größten Nachteile eine gewisse Realitätsferne, Probleme bei der Simulation eventueller Einführungsbarrieren, sowie die zeitlich häufig ungenügende Abbildung des Wiederkaufprozesses.

All diese Arten von Testmärkten lassen allerdings nur Rückschlüsse auf den derzeitigen Status zu. Wenn man die Veränderungen im Zeitablauf betrachten möchte, muss man auf ein Panel zurückgreifen.

Panel

Bei einem Panel wird ein gleichbleibender Kreis von Adressaten regelmäßig im Rahmen des gleichen Untersuchungsgegenstandes befragt. Die Einrichtung und Unterhaltung eines solchen Panels ist sehr kostenintensiv, weshalb Panels meistens von Marktforschungsinstituten betrieben werden.

Panels können zum Beispiel bei den folgenden Fragestellungen genutzt werden:

  • Vorhersage des Marktanteils neu eingeführter Marken
  • Testen des Werbeerfolges durch unterschiedliche Kommunikationsmaßnahmen
  • Bewertung der Akzeptanz bei neuen Produktinnovationen bei den Kunden

Es gibt grundsätzlich drei verschiedene Arten von Panels: Handels- Verbraucher- und Spezialpanel.

Ein Handelspanel besteht aus Absatzmittlern und kann in drei Untergruppen eingeteilt werden: Food Panel, NonFood Panel und andere Sonderformen.

Ein Verbraucherpanel hingegen besteht aus Endverbauchern und wird in Individual- und Haushaltspanel eingeteilt. Bei einem Individualpanel werden individuelle Verbraucher befragt, während bei dem Haushaltspanel alle Mitglieder eines privaten Haushaltes erfasst werden.

Haushaltspanels lassen sich zudem in Verbrauchs- und Gebrauchsgüterpanels unterteilen. Bei einem Verbrauchsgüterpanel werden die Teilnehmer in deutlich kürzeren Abständen befragt, als bei dem Gebrauchsgüterpanel.

Wie bereits erwähnt gibt es darüber hinaus noch diverse Spezialpanel:

  • Scannerpanel
    • Bei einem Scannerpanel werden die Käufe der Kunden an den Kassen der Handelsunternehmen automatisch erfasst. So werden bei jedem Einkauf die Preise und Mengen aufgezeichnet. Dadurch kann beispielsweise der Erfolg einer Marketingkampagne bewertet werden.
  • Anzeigenpanel
    • Hierbei werden die Anzeigenaktivitäten von Handelsunternehmen in Tageszeitungen, Anzeigenblättern und Kundenzeitschriften erfasst und analysiert.
  • Integrierte Panel
    • Bei diesen Spezialpanels werden unterschiedliche Panels zusammengeführt und gemeinsam analysiert.
  • Fernsehpanel
    • Das Fernsehpanel erfasst, welche Haushalte und Personen zu welchen Zeiten und wie lange Sender und Sendungen betrachten. Sie erfassen also die Einschaltquoten. Ziel ist die bessere Planung und Kontrolle von Werbespots im Fernsehen.
  • Mikrotestmarkt
    • Der Mikrotestmarkt stellt eine Kombination eines Haushaltspanels und verschiedenen Testgeschäften dar.
  • Unternehmenspanel
    • In einem Unternehmenspanel werden bestimmte Unternehmen zu Konjukturentwicklungen, Branchentrends oder ihren eigenen Aktivitäten befragt.
  • Online-Panel
    • Im Rahmen eines Online-Panels werden die Internetnutzer durch eine Online-Befragung zu ihren Konsumgewohnheiten befragt.

Bei Panelerhebungen sind vor allem zwei Dinge wichtig: Repräsentativität des Panels und Paneleffekte.

Die Repräsentativität eine Panels bezieht sich auf die Tatsache, dass ein Panel eine Stichprobe aus der Grundgesamtheit darstellt. Es ist also wichtig die eigentliche Zielgruppe in dieser Stichprobe möglichst genau abzubilden.

Folgende Aspekte können hierbei zu Problemen führen:

  • Zufallsauswahl
    • Wenn aufgrund der mangelnden Teilnehmerzahl an einem Panel, die Zufallsauswahl der Teilnehmer nicht möglich ist, ist die Repräsentativität des Panels in Gefahr.
  • Bereitschaft zur Mitarbeit
    • Sehr häufig zeigen nicht alle Teilnehmer die gleiche Bereitschaft zur Teilnahme an einem Panel. Wenn die Leute für die Teilnahme an einem Panel bezahlt werden, kann es vorkommen, dass Personen aus den unteren Einkommensgruppen einen großen Anteil haben.
  • Panelsterblichkeit
    • Ein Panel verliert im Laufe der Zeit entweder durch Desinteresse, Wegzug oder Tod Teilnehmer und somit auch Repräsentativität.
  • Panelrotation
    • Auch die Grundgesamtheit ändert sich im Laufe der Zeit, sodass die Zusammensetzung des Panels angepasst werden muss.

Der Paneleffekt tritt dadurch auf, dass Teilnehmer, die am Panel teilnehmen, durch die Teilnahme bereits über ihre Einkaufsgewohnheiten nachdenken und ändern. Häufig erfolgt diese Veränderung unterbewusst. Um diesen Paneleffekt in den Griff zu bekommen, ist es ratsam eine aktive Panelrotation zu betreiben.

Verwendung von Sekundärdaten

Gerade das Internet hat die Nutzung von Sekundärdaten deutlich erleichtert. Der klare Vorteil von Sekundärdaten ist, dass diese zum einen häufig günstig bis kostenlos zu beschaffen sind und andererseits schnell Verfügbar sind. Nachteilig ist hingegen, dass die Daten in der Regel nicht auf die aktuelle Fragestellung zugeschnitten sind, sodass die Beantwortung der Forschungsfragen mitunter schwierig sein kann.

Wir unterscheiden bei Sekundärdaten zwischen unternehmensexternen und internen Daten:

Unternehmensinterne DatenquellenUnternehmensexterne Datenquellen
frühere Primärerhebungen, die für die neue Fragestellung relevant sein könntenStatistiken und andere Publikationen öffentlicher Institutionen
allgemeine Statistiken (z.B. Umsatz nach Produktgruppen, Kunden…)Veröffentlichungen von wissenschaftlichen Institutionen
Berichte und Meldungen des Außendienstes eines UnternehmensVeröffentlichungen von Banken und Versicherungen
Kundenstatistiken (z.B. Kunden nach Art, Größe, Gebiet…)Veröffentlichungen von Werbeträgern
BuchhaltungsunterlagenVeröffentlichungen von Wirtschaftsverbänden und -organisationen
Unterlagen aus der KostenrechnungVeröffentlichungen von Verlagen, Zeitschriften
Veröffentlichungen von Wettbewerbern

Unternehmensinterne Daten sind häufig die erste Anlaufstelle bei der Suche nach Sekundärdaten. Hierbei sind vor allem Absatzstatistiken, Kundenstatistiken und Daten aus der Kostenrechnung wichtige Datenquellen.

Da diese Daten allerdings nur auf die spezielle Situation des Unternehmens ausgerichtet sind, sollte man zumindest noch unternehmensexterne Daten hinzuziehen, um sich ein umfassenderes Bild über den Gesamtmarkt zu machen.

Unternehmensexterne Daten sind durch das Internet eine äußerst wichtige und kosteneffiziente Datenquelle geworden. Es gibt hierbei verschiedenen öffentliche oder private Einrichtungen, die Regelmäßig wichtige Daten veröffentlichen und die man durch die Suche im Internet leicht finden kann.

Die Sekundärforschung mit dem Internet kann besonders bei den folgenden Fragestellungen sehr gut genutzt werden:

  • Vorbereitung neuer Primärerhebungen
  • Einarbeitung in ein neues Themengebiet
  • Durchführung von Konkurrenz- und Branchenanalysen
  • Gewinnung eines schnellen Überblicks über unbekannte Märkte
  • Um über aktuelle Entwicklungen auf dem Laufenden zu bleiben

Bei der Internetrecherche stehen dem Unternehmen verschiedenen Möglichkeiten der Gewinnung von Sekundärdaten zu Verfügung. Allen voran sind Suchmaschinen ein beliebtes Mittel, um Daten zu gewinnen.

Allerdings besonders wenn man auf tiefergehende, sehr spezielle Informationen angewiesen ist, reichen die frei zugänglichen Informationsquellen häufig nicht mehr aus. Denn nicht alle Erhebungen von Marktforschungsunternehmen oder Beratungsgesellschaften werden im Internet frei zugänglich veröffentlicht. Häufig werden diese Informationen auch sehr unübersichtlich in Form von großen Excel-Tabellen veröffentlicht.

Informationsdienste, wie Statista bieten sehr große und professionell recherchierte Informationen an, die zudem sehr gut aufbereitet sind. Die Informationsgewinnung bei einschlägigen Webseiten, wie zum Beispiel Wikipedia kann da zum Teil problematisch sein. Schließlich sind die Informationen auf einigen Webseiten mitunter falsch.

Bei einer professionellen Recherche mit Hilfe des Internets rate ich auf jeden Fall dazu, spezielle Anbieter, wie Statista zu nutzen.

So, dieser Beitrag ist sehr lang geworden und wenn sie bis zum Schluss durchgehalten haben, konnten sie hoffentlich eine Menge lernen. Die nächsten Beiträge werden auf jeden Fall wieder deutlich kürzer 🙂

Im nächsten Beitrag geht es dann mit der Stichprobenauswahl weiter.

 

 

Bildquelle: © boboling – istockphoto.com

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Verfasse einen Kommentar