Im letzten Beitrag habe ich mich mit der Stichprobenauswahl beschäftigt, schließlich können in der Regel im Rahmen einer Marktforschungsstudie nicht alle Objekte der Grundgesamtheit untersucht werden. Ich bin dort auf den Begriff der effektiven Stichprobe eingegangen und nun wollen wir uns genauer das Instrument anschauen, mit dem wir unsere relevanten Daten erheben.

Mit Hilfe eines Erhebungsinstruments versuchen wir die gesuchten Informationen zu erfassen. Auf den ersten Blick sieht das relativ leicht aus. Wenn man sich aber diese Phase genauer ansieht, fällt einem schnell auf, dass hier eine Reihe von wichtigen Entscheidungen getroffen werden muss. Fehler in dieser Phase des Marktforschungsprozesses können eine ganze Erhebung zunichte machen.

Gestaltung des Erhebungsinstruments

Im Rahmen der Datenerhebung ist der Begriff der Skalierung von hoher Bedeutung. Skalierung meint die Entwicklung eines Maßstabes bzw. Skala, um die Merkmalsausprägungen der untersuchten Objekte zu messen.

Eine Skalierung oder genauer gesagt das Skalenniveau ist somit unser „Maßband“ mit dem wir die Merkmalsausprägungen messen.

Skalennivaus

Grundsätzlich stehen der Marktforschung 4 verschiedenen Skalenniveaus zu Verfügung:

Nominalskala

Die Nominalskala teilt die Merkmalsausprägungen in Kategorien ein; so kann in einer Nominalskala beispielsweise abgefragt werden, ob jemand männlich oder weiblich ist. Die Ausprägungen in einer solchen Skala haben keine unterschiedlichen Wertigkeiten, alle Ausprägungen haben also den gleichen Wert.

Es geht bei dieser Form der Skalierung meist darum Häufigkeiten zu messen, so zum Beispiel wie viele Männer und wie viele Frauen an der Umfrage teilnehmen.

Desweiteren gibt es bei dieser Skala nur sehr beschränkte Möglichkeiten der statistischen Auswertung.

Ordinalskala

Diese Skalierungsform geht hinsichtlich der Informationsqualität einen Schritt weiter, da hier die einzelnen Merkmalsausprägungen in eine Rangfolge bezüglich ihrer Wertigkeit gebracht werden. Dadurch ist bei der Ordinalskala ein Vergleich zwischen Objekten hinsichtlich einer höheren oder niedrigeren Merkmalsausprägung möglich.

Allerdings sind die Abstände zwischen den Rängen nicht definiert. Ein einfaches Beispiel für die Ordinalskala ist die Podiumsplatzierung bei Sportverantstaltungen. Es ist sofort ersichtlich wer erster, zweiter und dritter geworden ist, aber die Abstände zwischen den Plätzen sind nicht definiert. Es könnte sein, dass der Erste deutlich vor dem Zweiten ins Ziel gekommen ist, doch es wird nur festgestellt wer welchen Platz gemacht hat und nicht welche Zeit die Teilnehmer voneinander trennt.

Intervallskala

Die Intervallskala setzt zunächst einen willkürlichen Nullpunkt (z.B. Zeitrechnung) und die Messung der Merkmalsausprägungen erfolgt dann in konstanten Maßeinheiten, sodass Distanzangaben möglich sind.

So lässt sich zum Beispiel genau messen, mit welchem zeitlichen Unterschied die Sportler ins Ziel gekommen sind.

Verhältnisskala

Der Unterschied der Verhältnisskala zur Intervallskala ist der, dass bei der Verhältnisskala ein absoluter Nullpunkt gegeben ist (z.B. Alter, Körpergröße).

Von diesen vier Skalennievaus stellt die Verhältnisskala die höchste Informationsqualität dar und sie gehört genau, wie die Intervallskala zu den metrischen Skalierungen.

Vorgehensweise bei der Erstellung eines standardisierten Fragebogens

Besonders bei standardisierten Befragungen ist es wichtig die Wirksamkeit des Fragebogens zu testen und sich bei dessen Erstellungen Gedanken zum optimalen Aufbau zu machen. So hängt die Wirksamkeit des Fragebogens stark von der Interpretation der Befragten ab. So kann dieselbe Fragen von unterschiedlichen Befragten durchaus unterschiedlich interpretiert werden.

Die optimale Vorgehensweise zur Erstellung eines Fragebogens ist der Folgenden:

  1. Entscheidung über Frageinhalte
  2. Entscheidung über Frageformate
  3. Entscheidung über Frageformulierungen
  4. Entscheidung über Fragereihenfolge
  5. Entscheidung über äußere Gestaltung des Fragebogens
  6. Pre-Test, Revision und endgültige Fertigstellung des Fragebogens

Im ersten Schritt – der Entscheidung über Frageinhalte – geht es vor allem darum die Inhalte von der Fähigkeit und Antwortbereitschaft der Befragten abhängig zu machen. Man versucht durch die Wahl geeigneter Frageinhalte potentielle Fehlerquellen auszuschließen.

Neben den für die Datenerhebung relevanten Sachfragen, ist es häufig auch sinnvoll Kontrollfragen einzubauen. Durch diese Kontrollfragen soll die Plausibilität der Antworten des Befragten überprüft werden. Allerdings sollten nicht allzu viele Kontrollfragen verwendet werden, da dies unter Umständen zur Nichtbeantwortung des Fragebogens führen kann, wenn der Eindruck der Kontrolle entsteht.

Um passende Frageinhalte auszuwählen ist es wichtig, sich auf die Ziele der Marktforschungsstudie zu konzentrieren. Der Fragebogen sollte nicht zu lang sein und deshalb sollten nur die wichtigen Aspekte abgefragt werden.

Zur die Länge eines Fragebogens hängt im wesentlichen von zwei Faktoren ab:

  • Themeninvolvement
  • Medium

Wenn sich die Befragten sehr für das Thema der Marktforschungsstudie interessieren, dann kann die Befragung auch durchaus etwas länger dauern. Bezüglich des Mediums lässt sich festhalten, dass schriftliche Befragungen tendenziell länger dauern können, als beispielsweise am Telefon. Online Befragungen sollten sogar noch kürzer sein.

Es ist schwer eine optimale Befragungslänge anzugeben; ich würde sagen, im Internet sollten nicht mehr als 15-20 Fragen gestellt werden. Länger als 10-15 Minuten lassen sich die meisten Leute nicht befragen. Allenfalls im B2B-Bereich kann es durchaus etwas länger dauern, vor allem wenn die Befragten ein hohes Interesse an der Thematik haben.

Der zweite Schritt – die Entscheidung über Frageformate – beschäftigt sich damit, ob offene oder geschlossene Fragen gestellt werden sollten. Eine offene Frage gibt keine Antwortmöglichkeiten an; zum Beispiel: „Welche positiven Erfahrungen haben Sie bereits mit unserem Produkt gemacht?“.

Eine geschlossene Frage hingegen gibt die Antwortmöglichkeiten mit an, indem man diese zum Beispiel ankreuzen kann. Beispiel: „Wie zufrieden sind Sie mit unserem Produkt? Sehr zufrieden []; Zufrieden []; Neutral []; Unzufrieden []; Sehr Unzufrieden []“.

Vor- und Nachteile von geschlossenen Fragen:

VorteileNachteile
einfache Beantwortungoriginelles Antwortverhalten wird erschwert
gute Vergleichbarkeitdie Befragten erhalten aus den Antwortmöglichkeiten Hinweise für deren Beantwortung
einfach Kodierung und Analyseoberflächliches Beantworten der Fragen wird erleichtert
gedankliche Inspiration der Befragten

In der Praxis ist es meist am sinnvollsten, diese beiden Frageformate zu kombinieren, wobei ich allerdings präferieren würde mehr geschlossene Fragen zu stellen, da diese für die Befragten bequemer zu beantworten sind. Sinnvoll ist es auch bestimmte offene Fragen erst dann zustellen, wenn ein bestimmtes Antwortniveau erreicht wurde; z.B. wenn ein Kunde sehr unzufrieden mit einem Produkt ist. Dann könnte mit einer offenen Frage näher nachgefragt werden, weshalb er unzufrieden ist.

Arten von geschlossene Fragen

Nun möchte ich noch etwas näher auf die verschiedenen Typen von geschlossenen Fragen eingehen. Weil die geschlossenen Fragen in der Regel bereits einen Maßstab zur Messung bestimmter Sachverhalte zugrunde legen, spricht man hier auch von Skalierungsverfahren.

Die Skalierungsverfahren unterscheiden wir in vergleichende (komparative) und nicht-vergleichende (nicht-komparative) Skalierungsverfahren.

Komparative Skalierungsverfahren heißen deshalb so, weil sich die Merkmalsausprägungen für ein Objekt aus einem Vergleich mit einem oder mehreren anderen Objekten ergeben. Diese komparativen Skalierungsverfahren lassen sich wiederum in drei unterschiedliche Verfahren einteilen:

  • Paarweise Vergleiche

Hierbei vergleichen die Befragten zwei Objekte und entscheiden sich zum Beispiel für das Objekt, welches ihnen besser gefällt.

  • Rangordnungsverfahren

Bei dem Rangordnungsverfahren müssen die Befragten eine Reihe von Objekten in eine bestimmte Reihenfolge bringen. Z.B. „Welche der folgenden Faktoren ist für Sie besonder wichtig? Sortieren Sie die Faktoren nach ihrer Wichtigkeit: Faktor 1, Faktor 2, Faktor 3, Faktor 4“.

Dadurch werden den jeweiligen Objekten Rangplätze zugewiesen, doch durch diese Ordinalskalierung erfolgt keine Aussage zu der Distanz der jeweiligen Objekte zueinander.

  • Konstantsummenverfahren

Hierbei werden die Befragten gebeten eine bestimmte Punktzahl (z.B. 100) auf verschiedene Eigenschaften eines Objektes aufzuteilen. Die Summe der einzelnen Eigenschaftsbewertungen ergibt dann also immer 100.

Beispiel:

Durch diese Punktverteilung wird in einer Befragung deutlich, dass der Preis nicht nur das wichtigste Kriterium für den Kauf eines bestimmten Produktes ist, sondern auch noch 50 von 100 Punkten erhält, während die Qualität nur 30 Punkte erhält. So wird der Abstand zwischen den einzelnen Eigenschaften deutlicher.

Wann nutze ich komparative Skalierungsverfahren?

Wenn es um Präferenzen oder Wichtigkeitsbewertungen geht, bieten sich die komparativen Skalierungsverfahren an. Das Konstantsummenverfahren hat zwar den Vorteil, dass es viele Informationen liefert, aber eben auch den Nachteil, dass dieses Verfahren komplexer ist und häufiger Fehler gemacht werden.

Interessant ist hierbei auch, dass die Befragten dazu tendieren, die oberen Antwortmöglichkeiten frei zu bewerten, während auf den unteren Antwortmöglichkeiten nur noch die restlichen Punkte verteilt werden.

Nicht-komparative Skalierungsverfahren bewerten hingegen ein Objekt isoliert und nicht im Vergleich zu anderen Objekten. Hierbei werden sogenannte Ratingskalen aufgebaut, die jeweils zwei Extrempunkte aufweisen. Die häufig genutzten diskreten Ratingskalen haben zwischen den beiden Extrempunkten eine bestimmte Anzahl von Antwortmöglichkeiten.

Bei der Likert-Skala wird überprüft, ob und in wieweit die Befragten einer bestimmten Aussage zustimmen. Z.B. „Wie zufrieden sind Sie mit unserem Produkt? sehr zufrieden []   []   []   []   [] sehr unzufrieden“

Wie in dem Beispiel zu sehen, werden nur die Extrempunkte (sehr zufrieden & seht unzufrieden) ausgezeichnet. Alternativ gibt es auch die Variante jede Antwortmöglichkeit anzugeben. Beispiel:

Wie zufrieden sind Sie mit unserem Produkt? sehr zufrieden []  zufrieden []   neutral[]  unzufrieden []   sehr unzufrieden[]

Es hat sich in der Praxis herausgestellt, dass 5-7 Skalenpunkte ideal für eine Befragung sind. Bei weniger Skalenpunkten droht ein Informationsverlust, bei noch mehr Skalenpunkten die Überforderung des Befragten.

Ein weiteres nicht-komparative Skalierungsverfahren ist das semantische Differenzial bei dem mehrere sogenannte bipolare Ratingskalen gebildet werden, das meint also ein adjektivisches Gegensatzpaar, z.B. kalt und heißt, schnell und langsam oder zuverlässig und unzuverlässig.

Mit dem semantischen Differenzial werden besonders Imagemessungen durchgeführt.

Die Stapelskalierung ist eine Abwandlung des semantischen Differenzials. Hierbei wird die Zustimmung des Befragten zu bestimmten Aspekte gemessen.

Eine gute Übersicht zu den verschiedenen Skalierungsverfahren finden Sie zum Beispiel hier.

Wichtig im Rahmen des richtigen Frageformates ist auch die Entscheidung, ob eine Frage verpflichtend von allen Befragten beantwortet werden muss. Alternativ wäre es auch möglich eine Frage mit der Angabe „Weiß nicht“ auslassen zu können.

Die Pflicht zur Antwort kann zum einen die Antwortqualität senken, aber die Möglichkeit der Auslassung von Fragen kann dazu führen, dass die Befragten es sich zu einfach machen und viele Fragen auslassen.

Die Grundentscheidung ist somit: Erhöhtes Risiko unqualifizierter Antworten vs. erhöhtes Risiko fehlender Antworten.

Der nächste Schritt – die Entscheidung über die Frageformulierung – sollte besonders von den folgenden drei Prinzipien geleitet werden:

  • Einfachheit
    • Vermeidung von Fachbegriffen, komplexen Sätzen…
  • Neutralität
    • Vermeidung von Suggestivformulierungen, die zum Beispiel zu sozial erwünschten Antwortverhalten führen
  • Eindeutigkeit
    • Vermeidung von Doppelfragen

Auch der vierte Schritt – die Reihenfolge der Fragen – stellt einen wichtigen Baustein eines guten Fragebogens dar. Im Rahmen dieses Schrittes sollte 3 Hauptziele verfolgt werden:

  • Nachvollziehbarkeit des Aufbaus
  • Verhindern von Austrahlungseffekten durch Extremerfahrungen der Befragten
  • Vermeidung von Reihenfolgeeffekten

Um die Abbruchquote so gut es geht zu verringern sollte der Aufbau spannend, wie auch nachvollziehbar sein. Das Interesse kann man beispielsweise durch spannende Einleitungsfragen erhöhen. Enden sollte der Fragebogen hingegen mit sensiblen Fragen und allgemeinen Fragen zur Person oder – im Falle eine B2B-Befragung – des Unternehmens.

Zudem müssen vor kurzer Zeit gemachte extrem positive, wie auch negative Erfahrungen bekannt sein, um dadurch mögliche Ausstrahlungseffekte zu verhindern. Am besten ist es wenn man den Befragten gleich zu Beginn eines Fragebogens nach diesen Extremerfahrungen befragt.

Auch der Fragekontext spielt für den Befragten bei der Interpretation der Fragestellung eine wichtige Rolle. Aus diesem Grund sollte die Reihenfolge der Fragen nach Möglichkeit keinen Einfluss auf die Antworten haben. So hat sich in Untersuchungen gezeigt, dass es bei Low-Involvement Produkten besser ist, die allgemeinen Fragen zuerst zu stellen und bei High-Involvement Produkten diese Fragen zuletzt zu stellen.

Auch der letzte Schritt – die Entscheidung über die äußere Gestaltung des Fragebogens – also das Layout spielt eine größere Rolle, als man vielleicht zunächst annehmen würde.

Wichtig ist, dass die Gestaltung des Fragebogens übersichtlich und ansprechend ist, um so das Interesse der Befragten zu steigern. Darüber hinaus sollte der Fragebogen den Eindruck erwecken, dass dieser leicht und schnell zu beantworten ist.

Es gibt in der Praxis einige wichtige Leitlinien zur Gestaltung:

  • Verwendung von großen und klaren Schrifttypen (mindestens 10)
  • übersichtliche Anordnung und Nummerierung der Fragen
  • Vermeiden von Fragen, die über die Seitenbegrenzung hinausgehen
  • Nutzung von optischen Hilfsmitteln, wie Pfeile, Unterstreichungen und Rahmen
  • Anweisungen zur Beantwortung deutlich hervorheben

Nun ist der Fragebogen soweit fertig, doch stellt sich noch die Frage, ob dieser auch in der Praxis überzeugen kann. Aus diesem Grund wird besonders bei aufwändigen und kostenintensiven Befragungen ein sogenannter Pre-Test durchgeführt. Hierbei wird der Fragebogen hinsichtlich folgender Kriterien überprüft:

  • Ist der Fragebogen klar und verständlich aufgebaut?
  • Verfügt der Befragte über ausreichend Informationen zur Beantwortung der Fragen?
  • Umfassen die geschlossenen Fragen alle relevanten Aspekte?
  • Wie viel Zeit nimmt der Fragebogen tatsächlich in Anspruch?

Ein solcher Pre-Test nimmt zwar sehr viel Zeit und Geld in Anspruch, allerdings zeigen sich hierbei häufig auch Mängel des Fragebogens, die ansonsten zu spät aufgefallen wären. Da für einen Pre-Test Mitglieder aus der zu befragenden Zielgruppe ausgewählt werden, bildet dieser Pre-Test praktisch einen kleinen Praxistest.

Im nächsten Beitrag geht es dann um die Editierung und Kodierung von Daten und damit um die letzte Phase des idealtypischen Marktforschungsprozesses.

 

Bildquelle: © dwphotos – istockphoto.com

Im letzten Beitrag haben wir über die Festlegung der Datenerhebungsmethode im Rahmen des Marktforschungsprozesses gesprochen. Nun schauen wir uns die nächste Phase des Marktforschungsprozesses an: die Stichprobenauswahl.

Da wir in der Regel nicht die Grundgesamtheit vollkommen untersuchen können, sind wir gezwungen, eine Teilmenge dieser Grundgesamtheit zu betrachten, die natürlich möglichst genau die Grundgesamtheit abbilden sollte (Repräsentativität).

Stichprobenauswahl

Die Stichprobenauwahl hängt also von unserer Definition der Grundgesamtheit ab. Eine Stichprobe ist die Menge derjenigen Objekte, die durch die Marktforschungsstudie untersucht werden soll und von der die relevanten Informationen eingeholt werden.

Wie bereits erwähnt ist die Stichprobe somit eine Teilmenge der Grundgesamtheit. Der genauere Begriff der effektiven Stichprobe bezeichnet die Menge derjenigen Objekte, von denen im Rahmen der Untersuchung tatsächlich Informationen eingeholt werden. Schließlich werden höchstwahrscheinlich nicht alle der befragten Personen antworten. Bei einer schriftlichen Befragung kommt es durchaus vor, dass nur rund 10% der Befragten antworten.

Wir müssen (wenn wir von einer Antwortquote von 10% ausgehen) also wenn wir eine effektive Stichprobe von 100 Menschen benötigen, rund 1000 befragen. Somit ist die effektive Stichprobe wiederum eine Teilmenge der Stichprobe.

Die Tatsache, dass wir im Rahmen von Marktforschungsstudien häufig auf Stichproben zurückgreifen müssen, liegt daran, dass wir nur in den wenigsten Fällen eine Vollerhebung durchführen können. Nur bei einer Vollerhebung können wir alle Objekte der Grundgesamtheit auf die relevanten Merkmale hin untersuchen. In diesem Fall würde die Stichprobe tatsächlich der Grundgesamtheit entsprechen.

Denkbar ist eine Vollerhebung nur bei einer geringen Anzahl von Objekten. Dies wäre zum Beispiel bei Firmenkundenbefragungen hin und wieder möglich.

Aber da dies eben in den meisten Fragestellungen einer Marktforschungsstudie nicht möglich ist, nutzen wir Teilerhebungen. Es stellen sich bei der Stichprobenauswahl nun zwei entscheidende Fragen:

  • Wie groß soll die Stichprobe sein (Stichprobenumfang)?
  • Wie soll die Stichprobe gebildet werden (Verfahren der Stichprobenauswahl)?

Bestimmung des Stichprobenumfangs

Zunächst muss die vermutete Antwortquote ermittelt werden. Wenn wir wissen welche Antwortquote wir zu erwarten haben, können wir einschätzen, wie groß der Umfang unserer Stichprobe sein muss (um dann unsere effektive Stichprobe erreichen zu können).

Wir haben uns bereits etwas weiter oben ein Beispiel bezüglich der Antwortquote angeschaut: Wenn wir von einer Antwortquote von 10% ausgehen und wir von 100 Leuten Ergebnisse erhalten wollen, müssen wir 1000 Leute befragen. Je höher also unsere Antwortquote ist, desto weniger Menschen müssen wir befragen.

Wenn bei den befragten Personen ein hohes Interesse (Involvement) an der Fragestellung besteht, dann können wir tendenziell von einer höheren Antwortquote ausgehen. Auch liegen bei Face-To-Face Interviews die Anwortquoten deutlich höher, als bei schriftlichen Befragungen.

Um eine hohe Antwortquote sicherzustellen gibt es verschiedene Möglichkeiten:

  • Incentives (Anreize)
    • Unter Incentives verstehen wir finanzielle oder sachliche Belohnungen, als Gegenleistung für die Teilnahme an einer Befragung. Allerdings ist auch festzuhalten, dass diese Anreize eine Auswirkung auf die Antwortqualität haben können. Vor allem wenn die Teilnehmer nur aufgrund der Anreize an der Befragung teilnehmen, ist das Resultat häufig eine geringe Antwortqualität.
  • Personalisierung
    • Wenn wir die Befragten persönlich ansprechen, können wir die Antwortquote deutlich erhöhen. Denn eine solche Befragung stärkt den Eindruck des Befragten, dass seine individuelle Meinung wichtig und gefragt ist. Es sollte aber auch darauf hingewiesen werden, dass die Daten anonymisiert werden, sodass keine persönlichen Daten in die falschen Hände geraten.
  • Erleichterung der Rückantwort
    • Es ist wichtig dem Befragten es so leicht wie möglich zu machen seine Antworten zurück zu schicken. So sollte bei einer schriftlichen Befragung der frankierte und adressierte Rückumschlag beiliegen.
  • Nachfassen
    • Wenn ein Befragter auf das erste Schreiben nicht reagiert, kann es sinnvoll sein den Fragebogen ein zweites Mal zu versenden.
  • Aufbau von Vertrauen
    • Der Befragte muss zu ihnen Vertrauen aufbauen und er muss sich sicher sein, dass die aus ihm gewonnenen Daten nicht missbraucht werden. So kann es neben der Anonymisierung der Daten, sinnvoll sein, eine Telefonnummer für etwaige Rückfragen anzugeben.

Ein weiterer Faktor der den Stichprobenumfang beeinflusst, sind Budgetrestriktionen. Je nach Unternehmensgröße spielen die Kosten für die Datenerhebung eine zentrale Rolle. Besonders bei mündlichen Interviews (da diese sehr kostenintensiv sind) kann es erforderlich sein, den Stichprobenumfang drastisch zu reduzieren.

Ein weiterer wichtiger Punkt der den Stichprobenumfang bestimmt, ist die erforderliche Präzision der Ergebnisse. Mit einem steigenden Stichprobenumfang nimmt auch die Qualität bzw. Präzision der Ergebnisse zu. Wenn sie also auf sehr genaue Ergebnisse angewiesen sind, müssen sie in der Regel den Stichprobenumfang erhöhen.

Aber nicht nur den Stichprobenumfang ist wichtig, auch die Repräsentativität dieser Stichprobe spielt einer entscheidende Rolle. Im besten Fall spiegelt die Stichprobe exakt die Zusammensetzung der Grundgesamtheit wieder.

Da dies allerdings in der Regel nicht möglich ist, versuchen wir, zumindest für die im Hinblick auf die Untersuchung relevanten Merkmale, eine größtmögliche Übereinstimmung zu erreichen. Nun muss man sich aber noch vor Augen führen, dass wir in den meisten Fällen keine 100%-ige Antwortquote haben. Deshalb ist es wichtig, dass die effektive Stichprobe eine möglichst hohe Repräsentativität aufweißt. Es nützt beispielsweise nichts, wenn Sie sämtliche Altersgruppen in Deutschland befragen wollen, aber von den über 60 Jährigen nur die Wenigsten an Ihrer Befragung teilnehmen und ihnen die Ergebnisse zurückschicken.

Einen solchen Stichprobenfehler gilt es zu vermeiden.

Verfahren zur Stichprobenauswahl

Es gibt zwei verschiedene Verfahren um die geeigneten Untersuchungsobjekte auszuwählen:

  • Verfahren der bewussten Auswahl
    • Hierbei werden die jeweiligen Untersuchungsobjekte bewusst nach definierten Merkmalen ausgewählt.

Ein Verfahren der bewussten Auswahl ist das Quotenverfahren, bei dem die effektive Stichprobe die proportionale Verteilung der Grundgesamtheit entspricht. So können beispielsweise Quoten bezüglich Ort, Alter, Geschlecht oder Beruf vorgegeben werden.

Ein weiteres Verfahren ist das Cut-off Verfahren. Hierbei beschränkt man sich auf Merkmalsträger, die für die Beantwortung der Forschungsfragen besonders wichtig sind. Vor allem im B2B-Bereich wird dieses Verfahren regelmäßig angewendet.

Das dritte Verfahren der bewussten Auswahl ist die typische Auswahl. Bei diesem Verfahren werden die Merkmalsträger herausgegriffen, die als besonders charakteristisch und typisch für die jeweilige Grundgesamtheit erachtet werden.

  • Zufallsauswahl
    • Hierbei erfolgt die Auswahl nach dem Zufallsprinzip, jedes Element der Grundgesamtheit hat also die gleiche Chance in die effektive Stichprobe zu gelangen.

Die geschichtete Zufallsauswahl teilt die Grundgesamtheit in Teilgesamtheiten auf, die in sich homogen und untereinander heterogen sind. So können beispielsweise Unternehmen mit einem ähnlichen Umsatz der gleichen Teilgesamtheit zugeordnet werden. Aus diesen gebildeten Teilgesamtheiten werden dann Zufallsstichproben gebildet, die dann zu einer Gesamtstichprobe vereint werden.

Bei der Klumpenauswahl wird die Grundgesamtheit in Klumpen aufgeteilt, die in sich heterogen sind, um dann per Zufallsauwahl einen oder mehrere dieser Klumpen auszuwählen, die dann in die Stichprobe gelangen.

Das mehrstufige Auswahlverfahren wird in der Regel bei großen und schwer überschaubaren Grundgesamtheiten eingesetzt, da hier verschiedene Verfahren der Zufallsauswahl nacheinander eingesetzt werden.

Der nächsten Artikel im Rahmen des idealtypischen Marktforschungsprozesses betrachtet dann die Gestaltung des Erhebungsinstrumentes mit dem die relevanten Daten erfasst werden sollen.

 

 

 

Bildquelle: © moonriver59 – Fotolia.com

Nun haben wir die ersten drei Phasen des idealtypischen Marktforschungsprozesses besprochen. Im letzten Beitrag haben wir uns angesehen, wann es sinnvoller ist die Marktforschungsstudie selbst zu erheben und wann Outsourcen die sinnvollere Alternative ist.

Ich kann bereits jetzt sagen, dass dieser Beitrag sehr lang werden wird, schließlich gibt es viele verschiedene Formen der Datenerhebung, aus diesem Grund finden sie zunächst einen Überblick über den Inhalt dieses Artikels:

  1. Überblick: Primär- und Sekundärdaten
  2. Erhebung von Primärdaten
  3. Verwendung von Sekundärdaten

Festlegung der Datenerhebungsmethode

Die Basis der Marktforschung sind Daten. Daten lassen sich in zwei Arten einteilen: Primärdaten und Sekundärdaten.

Primärdaten

Primärdaten sind Daten, die auf die individuellen Informationsbedürfnisse der jeweiligen Fragestellung zugeschnitten sind. Diese Daten werden zudem im Rahmen der Marktforschungsstudie neu erhoben, es wird also nicht auf bereits vorhandene Daten zurückgegriffen.

Sekundärdaten

Sekundärdaten sind Daten, die nicht erst im Rahmen der Marktforschungsstudie erhoben werden, sondern von bereits vorhandenen Informationsquellen stammen.

Im Rahmen der Datenerhebungsmethode stellt sich zunächst die Frage, welche Informationsquellen genutzt werden sollen, also, ob man eher Primär-, Sekundärdaten oder eine Mischung aus beiden Datenarten nutzen sollte.

Bei der Suche nach Sekundärdaten stehen dem Unternehmen unternehmensinterne und -externe Daten zur Verfügung. Da diese Sekundärdaten aber wahrscheinlich nicht den speziellen Informationsbedürfnissen der jeweiligen Marktforschungsstudie entsprechen, könnte dann die Aussagekraft leiden.

Wenn im Rahmen einer Marktforschungsstudie die Aussagekraft der Daten eine sehr wichtige Position einnimmt, sollte generell eher auch Primärdaten zurückgegriffen werden. Der Nachteil der Primärdaten allerdings liegt darin, dass die Kosten zur Datenerhebung deutlich höher ausfallen.

Zahlreiche Sekundärdaten lassen sich inzwischen mit Hilfe des Internets sogar kostenlos gewinnen. Grundsätzlich muss also zwischen Aussagekraft und Kosten abgewogen werden und daraus die richtige Datenerhebungsmethode ausgewählt werden.

Ein weiterer wichtiger Aspekt, der für die Primärdaten spricht, ist die höhere Aktualität. Bei zahlreichen Sekundärdaten muss man damit rechnen, dass diese durchaus schon einige Jahre alt sind.

Doch auch im zeitlichen Aspekt können die Sekundärdaten punkten. Während die Gewinnung von Primärdaten viel Zeit in Anspruch nimmt, können Sekundärdaten deutlich schneller beschafft werden. Auch hier erleichtert das Internet den schnellen Zugang zu Sekundärdaten.

Letztlich kann man sagen, dass es sich häufig anbietet eine gewisse Mischung dieser beiden Datenarten zu nutzen, um die jeweiligen Vorteile nutzen zu können.

Erhebung von Primärdaten

Im Rahmen der Erhebung von Primärdaten können wir drei Formen der Erhebung unterscheiden:

Methoden der Befragung

Bei der Methode der Befragung zur Erhebung von Primärdaten lassen sich zunächst einmal qualitativ und quantitativ orientierte Methoden unterscheiden.

Qualitativ orientierte Befragungsmethoden

Wie der Name schon sagt, zielen diese Methoden darauf ab, qualitative Informationen zu generieren. Auch im Rahmen dieser Befragungsmethoden unterschieden wir zwei Arten:

  • Tiefeninterview
  • Gruppeninterview

Im Gegensatz zu den quantitativen Befragungsmethoden sind die Qualitativen Methoden auf eine begrenzte Anzahl von Befragten ausgerichtet. Zudem sind die Fragen wie auch die Antwortmöglichkeiten sehr flexibel gestaltet und können sich zwischen den Befragten deutlich unterscheiden.

So muss nicht zwangsläufig jeder Befragte mit der gleichen Frage konfrontiert werden.

Die qualitativen Befragungsmethoden finden beispielsweise in den folgenden Aufgabenstellungen Anwendung:

  • Test von neuen Produktvarianten
  • frühzeitige Erkennung von Markttrends
  • Generierung von neuen Produktideen
  • Ergründen der tiefen Kundenbedürfnisse

Tiefeninterview

Bei dem Tiefeninteview handelt es sich um ein freies, qualitatives Interview, welches in Form eines persönlichen Gesprächs stattfindet. Ziel bei dieser Befragungsmethode ist es, tiefe Einblicke in den Untersuchungsgegenstand zu gewinnen. Dazu wendet der Interviewer auch psychologisch geschickte Frage an, um die Denk-, Empfindungs- und Handlungsweisen des Befragten zu verstehen.

Solch ein Tiefeninterview erfolg meist nur halbstrukturiert, da der Interviewer durch diese flexiblere Vorgehensweise den Freiraum hat auf im Verlauf des Interviews ergebende Fragen konkreter einzugehen. So hat der Interviewer die Möglichkeit tiefer in bestimmte Thematiken einzusteigen und so qualitativere Ergebnisse zu generieren.

Durch eine vertrauensvolle Atmosphäre wird zudem versucht die Aussagewilligkeit des Befragten zu erhöhen.

Fragetechniken

Eine häufig angewendete Fragetechnik ist die des Laddering. Beim Laddering wird versucht die Aussage des Befragten in mehreren Schritten immer weiter zu hinterfragen, um dadurch nähere Erkenntnisse über seine Einstellungen und Motive zu gewinnen.

Von Aaker, Kumar und Day (2004) gibt es das Beispiel von der Befragung eines Kunden einer Fluggesellschaft:

Interviewer: „Warum ist ihnen ein breiter Sitz wichtig?“

Befragter: „Auf einem breiten Sitz ist es komfortabler.“

Interviewer: „Warum ist dies wichtig für sie?“

Befragter: „Ich kann dann besser arbeiten.“

Interviewer: „Warum ist dies wichtig für sie?“

Befragter: „Weil ich dann beruflich schneller vorankommen.“

Hier sieht man sehr gut, wie durch das Laddering nach und nach die Motive des Befragten zum Vorschein gekommen sind (beruflicher Aufstieg).

Eine weitere Befragungstechnik sind projektive Techniken, welche ebenfalls in Tiefeninterviews Anwendung finden. Projektive Techniken werden vor allem dann eingesetzt, wenn der Befragte entweder nicht bereit oder in der Lage ist, die Gründe für sein Verhalten und Einstellungen zu erklären. Wenn der Befragte zum Beispiel selbst nicht weiß warum er ein bestimmtes Produkt kauft.

Bei dieser Befragungstechnik wird der Befragte mit einem mehrdeutigen Stimulus konfrontiert. Diesen Stimulus soll der Befragte dann interpretieren und erklären.

Grundidee ist es, dass der Befragte so unterbewusst seine eigenen Meinungen, Einstellungen, Motive und Charaktereigenschaften in die Situation hinprojiziert. Diese Technik soll so Aufschluss über Aspekte geben, die in der bewussten Erscheinungssituation nicht zum Vorschein gekommen wären.

Beispiele für diese projektiven Techniken sind bspw.:

  • Fallstudien
  • Rollenspiele
  • Vervollständigungstests
  • Bildinterpretationen
  • Wortassoziationen

In der Marktforschung werden Tiefeninterviews vor allem bei schwer erfassbaren Konstrukten verwendet, wie zum Beispiel Motiven und Einstellungen. Problematisch sind Tiefeninterviews in der Hinsicht, dass die Ergebnisse der verschiedenen befragten Personen schwer zu vergleichen sind, da sich in jedem Gespräch unterschiedliche Schwerpunkte ergeben können.

Optimal ist es, wenn die Interviews entweder per Tonband oder Video aufgezeichnet werden, da so im Gegensatz zur schriftlichen Erfassung vom Interviewer keine Manipulationen auftreten können.

Bei dieser Form der Befragung ist zudem die Auswertung und Interpretation der Daten sehr aufwändig und lassen einen großen Raum zur Interpretation.

Gruppeninterviews

Die Gruppeninterviews zielen im Gegensatz zu den Tiefeninterviews darauf ab, einen umfassenderen Überblick über die Ideen und Meinungen mehrerer Personen zu erhalten. Mit 6-10 Mitglieder wird unter der Leitung eines qualifizierten Moderators ein Themenkatalog diskutiert.

Die Diskussion wird entweder schriftlich, oder noch besser, per Tonband oder Video aufgenommen.

Eine solche Gruppendiskussion läuft in der Regel in fünf Phasen ab:

  1. Grundsätzliches
    1. Präsentation der Diskussionsregeln und Erwartungen.
  2. Vorstellungsrunde
    1. Kurze Vorstellungsrunde der Teilnehmer und Herausarbeiten von Gemeinsamkeiten durch den Moderator zur Steigerung des Zusammengehörigkeitsgefühls.
  3. Diskussionsstimulus
    1. Vorstellen des Produktes und Beantwortung von Verständnisfragen der Teilnehmer.
  4. Gruppendiskussion
    1. Strukturierung der Diskussion durch einen Moderationsleitfaden, der flexibel auf die Entwicklung der Diskussion angewendet werden soll.
  5. Abmoderation
    1. Durchführung einer kurzen standardisierten schriftlichen Befragung zum Abgleich von individuellen Einstellungen und der Gruppenmeinung.

Für den Erfolg eines solchen Gruppeninterviews sind zwei Aspekte ganz besonders entscheidend: Die Auswahl der Probanden und die Qualität der Moderation.

Bei der Auswahl der Probanden ist darauf zu achten, dass die Gruppenmitglieder weder extrem heterogen noch extrem homogen sind, also sich weder in vielen Aspekten gleichen noch zu stark unterscheiden sollten. Beides wäre eher kontraproduktiv.

Auch sollte nicht versucht werden durch diese kleine Gruppe eine gewisse Repräsentativität der Teilnehmer zu erreichen. Bei dieser geringen Teilnehmerzahl ist dies ohnehin kaum möglich.

Stattdessen sollten diese Fokusgruppen besser auf bestimmte Segmente zielen, die für den entsprechenden Untersuchungsgegenstand von besonderem Interesse sind.

Der Moderator hat zwei wesentliche Aufgaben: zum einen muss er die Diskussion strukturieren und zum anderen muss er die Diskussion in Gang halten.

Klingt zunächst recht einfach, ist es bei einer genaueren Betrachtung allerdings gar nicht. Der Moderator muss nämlich darauf achten, dass auch passive Teilnehmer ermutigt werden Äußerungen zu tätigen und besonders aktive Teilnehmer müssen eventuell sogar etwas mit ihren Äußerungen gebremst werden.

Im besten Fall führt diese Gruppendiskussion dazu, dass sich die Teilnehmer gegenseitig zu detaillierten und spontanen Äußerungen anregen.

Ein Problem im Rahmen von Gruppendiskussionen ist immer wieder, dass einzelne Meinungsführer die Gruppenmeinung verzerren können. Denn durch dominante Gruppenführer treten einzelne Teilnehmer womöglich davon zurück eine eigene Meinung zu vertreten.

Auch hier muss der Moderator eingreifen und dafür sorgen, dass jeder Teilnehmer frei seine eigene Meinung äußern kann.

Durch die zum Teil sehr kurze Zeit einer solchen Gruppendiskussion (durchaus nur 10-15Min.) ist es schwierig eine vertrauensvolle Atmosphäre zu schaffen.

So kann es sich anbieten eine Gruppendiskussion mit Hilfe des Internets durchzuführen. Hier bieten sich verschiedenen Softwarelösungen an, um eine Gruppendiskussion über das Internet zu führen.

Wenn die Antworten hier schriftlich erfolgen, führt die längere Beantwortungszeit dazu, dass die Antworten durchdachter ausfallen können. Auch nicht so dominante Gruppenmitglieder kommen im Internet leichter zu Wort.

Außerdem bietet das Internet natürlich die große Chance, dass auch räumlich weit entfernte Teilnehmer einfach und kostengünstig zusammengeführt werden können.

Nachteilig sind allerdings die kürzeren und zum Teil oberflächlicheren Antworten der Teilnehmer. Zudem kann auch die non-verbale Kommunikation kaum erfasst werden.

Quantitativ orientierte Befragungsmethoden

Anders, als die qualitativen Befragungsmethoden sind die quantitativen Methoden deutlich stärker standardisiert. Das heißt, dass die Fragen sowie die möglichen Antworten für alle Beteiligten im Wesentlichen gleich sind. Das Ziel welches durch diese standardisierten Fragen verfolgt werden soll, ist die Vielzahl von Antworten weitestgehend vergleichbar zu machen.

Folgende quantitative Befragungsmethoden sind anwendbar:

  • standardisierte mündliche Befragung
  • standardisierte schriftliche Befragung
  • standardisierte telefonische Befragung
  • Online Befragung

Standardisierte mündliche Befragung

Die mündliche Befragung erfolgt mit Hilfe eines standardisierten Fragebogens, in welchem die Fragen in Form, Inhalt und Reihenfolge festgelegt sind. Dadurch kann der Interviewer weder eigene Fragen hinzufügen, noch die Reihenfolge der Fragen ändern. Er kann den Befragten lediglich beim Verständnis der Fragen helfen, indem er die Frage wiederholt oder erklärt.

Wie bereits erwähnt ist das Ziel dieser Standardisierung die bessere Vergleichbarkeit der Antworten. Dadurch können die gewonnenen Daten besser verglichen und aggregiert werden.

Bei der mündlichen Befragung sind verschiedene Orte denkbar an denen eine Befragung durchgeführt werden kann:

  • in den Wohnungen der Konsumenten (Door-to-Door Interviewing)
  • Einkaufszentren
  • Fußgängerzonen (Mall Intercept Surveys)
  • in den Unternehmen der befragten Manager (Executive Interviewing)

Das sogenannte CAPI (Computer Assisted Personal Interview), also die computergestützte Auswertung der Ergebnisse ist bereits Standard.

Standardisierte schriftliche Befragung

In der Regeln erhalten die Befragten über den Postweg einen Fragebogen zugesandt. Falls ein Befragter diesen nicht ausfüllt und an die Marktforscher zurückschickt, folgt häufig ein Erinnerungsschreiben oder es wird ein weiterer Fragebogen zugeschickt.

Da im Gegensatz zur mündlichen Befragung kein Interviewer vorhanden ist, der dem Befragten Hilfestellung anbieten könnte, ist es wichtig die Fragestellungen so eindeutig, wie möglich zu gestalten. Außerdem werden meistens fast ausschließlich geschlossene Fragen verwendet, um so die Ergebnisse besser auswerten zu können.

Beispiele der schriftlichen Befragung:

  • Fragebogenmailing zu einer Kundenbefragung
  • Fragebogen bei Produktbeipackzetteln
  • Fragebogen zur Beurteilung einer vor kurzem durchgeführten Dienstleistung

Standardisierte telefonische Befragung

Eine inzwischen nicht mehr so gängige Methode ist es, die Befragten per Telefon zu interviewen. Es sollte hierbei darauf geachtet werden, dass das Gespräch möglichst kurz gestaltet ist, da andernfalls der Befragte sehr schnell die Befragung abbrechen kann.

Online Befragungen

Immer beliebter wurden in den letzten Jahren Online-Befragungen, die entweder als Email-Umfrage oder als Internet Umfrage durchgeführt werden.

Bei einer Email-Umfrage ist darauf zu achten, dass es in Deutschland verboten ist einfach an Email-Adressen Spam-Mails oder Werbung zu versenden.

Deutlich beliebter ist im B2C-Bereich die Internet-Umfrage. Hier gibt es einige Portale, die die Befragten dafür bezahlen, wenn diese an Umfragen teilnehmen. Umgekehrt können Unternehmen mit Hilfe solcher Portale leicht eine große Anzahl von Menschen befragen.

Methoden der Beobachtung

Die erste Möglichkeit Daten zu gewinnen ist die Befragung von Menschen. Die zweite Möglichkeit ist die Methode der Beobachtung, um die es nun gehen soll.

Durch die Beobachtung werden von bestimmten Personen Sachverhalte, Verhaltensweisen und Eigenschaften planmäßig erfasst. Diese Form der Beobachtung kann entweder über einen längeren Zeitraum geschehen oder zu einem ganz bestimmten Zeitpunkt.

Um die gemachten Beobachtungen festzuhalten gibt es drei Wege: Die Beobachtung der Sachverhalte kann zum einen durch die handelnde Person selbst (Selbstbeobachtung), durch unabhängige Dritte (Fremdbeobachtung) oder durch spezielle Geräte (z.B. Videogeräte -> instrumentelle Beobachtung) erfolgen.

Zwar wird das beobachtete Verhalten im Gegensatz zur Befragung direkt erfasst, sobald es auftritt, allerdings können die dahinterstehenden Motivationen kaum erfasst werden. Vielmehr muss der Marktforscher diese Motivationen der beobachteten Individuen später nachträglich interpretieren.

Eine Beobachtung weist verschiedene Vor- und Nachteile auf:

VorteileNachteile
Teilweise stellt die Beobachtung die einzige Möglichkeit der Datenerhebung dar. Z.B. bei der Auswertung der Blickpunkte einer Werbeanzeige.Sobald die beobachtete Person merkt, dass sie beobachtet wird kann sie ein atypischen Verhalten aufweisen, welchen auch als Beobachtungseffekt bezeichnet wird.
In manchen Fällen ist die Beobachtung kostengünstiger, als alternative Datenerhebungsmethoden.Jede Beobachtungssituation ist einzigartig und nicht wiederholbar.
Bei einer Beobachtung kann der Beobachter im Gegensatz zum Interviewer den Probanden nicht beeinflussen -> kein Interviewereffekt.Der Beobachter kann durch eine selektive Wahrnehmung und Erinnerung seine Beobachtungen falsch wiedergeben.

Beispielsweise im Einzelhandel kann die Beobachtung von Kunden sehr viel Aufschluss über die ideale Geschäftsgestaltung geben. So kann man beispielsweise die Wege der Kunden aufzeichnen, welche die Kunden im Geschäft zurücklegen.

Das Internet bietet Online Shop-Betreibern ganz neue Möglichkeiten die Einkaufswege der Kunden mitzuverfolgen. So kann der Besucher eines Online Shops ganz genau verfolgt werden, wie er den Weg zum Shop gefunden, nach welchen Produkte er gesucht oder welche Produkte er wieder aus dem Warenkorb geschmissen hat…

Im Rahmen der Durchführung einer Beobachtung können die folgenden Aspekte von dem jeweiligen Marktforscher beeinflusst werden:

  •  Transparenz der Untersuchungssituation
    • Der Marktforscher kann das Ausmaß beeinflussen, zu dem dem Beobachteten bekannt ist, dass er beobachtet wird.
  • Grad der Teilnahme des Beobachters
    • Bei einer teilnehmenden Beobachtung nimmt auch der Beobachter aktiv am Ablauf des Geschehens teil. Bei der nicht-teilnehmenden Beobachtung hingegen nimmt er nicht am Ablauf des Geschehens teil und konzentriert sich vielmehr darauf, das Geschehen aus der Distanz wahrzunehmen und zu registrieren.
  • Strukturiertheit
    • Die Strukturiertheit meint das Maß inwieweit das Design und der Inhalt der Beobachtungssituation standardisiert werden.
  • Wahrnehmungsform
    • In der Regel ist die Wahrnehmungsform audiovisuell. Ggf. können aber auch physische Aktivitäten des Beobachteten mit Hilfe spezieller Geräte aufgezeichnet werden (z.B. Puls, Blutdruck, Hautwiderstandsmessung)
  • Registrierungsform
    • Hierbei wird die Art und Weise definiert, in der die Daten bei der Beobachtung festgehalten werden.
  • Beobachtungsort
    • Grundsätzlich lassen sich zwei verschiedene Beobachtungsorte unterscheiden. In Feldbeobachtungen wird das Verhalten von Probanden im natürlichen bzw. realen Umfeld beobachtet. In Laborbeobachtungen hingegen können die relevanten Faktoren isoliert und kontrolliert werden.

Mischformen zwischen Befragung und Beobachtung

Experiment

Eine Mischform zwischen Befragung und Beobachtung stellt das Experiment dar. Das Ziel eines Experiments ist es, die Ursache-Wirkungs-Zusammenhänge zu verstehen.

Um dies zu erreichen wird ein Faktor verändert. Nun wird der Einfluss dieser Veränderung auf abhängige Größen gemessen. Je nach Experiment können diese Messungen durch bestimmte Befragungs- oder Beobachtungstechniken vorgenommen werden. Sehr häufig wird in Experimenten auch eine Kombination von Befragungs- und Beobachtungstechniken genutzt.

Grundsätzlich lassen sich zwei Arten von Experimenten unterscheiden: Labor- und Feldexperimente.

Ein Laborexperiment findet unter künstlichen Bedingungen statt, indem eine vereinfachte Realität in der Versuchsanlage abgebildet wird. Natürlich wissen die Probanden in einer solchen Situation auch, dass sie sich in einem Experiment befinden und beobachtet werden.

Im Rahmen von Laborexperimenten können mögliche Störgrößen deutlich besser kontrolliert werden und zudem bieten Laborexperimente häufig Zeit- und Kostenvorteile. So können zum Beispiel Probanden, die im Rahmen eines Laborexperiments einen Werbespot sehen, nicht so leicht von äußeren Einflüssen abgelenkt werden.

VorteileNachteile
Gute Wiederholungsmöglichkeit des ExperimentsGeringe Realitätsnähe aufgrund der künstlichen Situation
Gute Kontrolle der unabhängigen Variablen und anderen EinflussfaktorenRelativ geringe Generalisierbarkeit der Ergebnisse
Zeit- und Kostenvorteile
Gute Geheimhaltung vor Wettbewerbern (bspw. beim Test von neuen Produkten)
Hohe interne Validität, da im Wesentlichen frei von Störfaktoren

Im Gegensatz dazu findet eine Feldexperiment in einer natürlichen Umgebung statt, wodurch die Versuchspersonen meist nicht wissen, dass sie an einem Experiment beteiligt sind. Dadurch zeigen diese auch kein atypischen Verhalten, wie es durchaus in Laborexperimenten auftreten kann.

Als schwierig stellt sich bei Feldexperimenten häufig heraus passende Kooperationspartner für ein solches Experiment zu finden. Beim Testen von Neuprodukten kann es zum Beispiel erforderlich sein, entsprechende Einzelhandelsunternehmen zu finden, die das Produkt in den Regalen platzieren.

VorteileNachteile
Hohe Realitätsnähe durch die natürliche SituationSchlechte Wiederholungsmöglichkeit des Experiments
Hohe Generalisierbarkeit der ErgebnisseSchlechte Kontrolle der unabhängigen Variablen und anderer Störfaktoren
Zeit- und Kostennachteile
Geringe interne Validität
Schlechte Geheimhaltung vor Wettbewerbern

Im Labor- wie auch im Feldexperiment können bestimmte Störgrößen auftreten:

  • „History“-Effekt
    • Verschiedene unternehmensexterne Ereignisse können ein Ergebnis beeinflussen. Wenn beispielsweise ein Auto-Hersteller einen neuen Pick-Up vorstellt, kann aufgrund des steigenden Ölpreises die Akzeptanz des Autos bei den Kunden rasch sinken.
  • „Testing“-Effekt
    • Vor allem bei Leistungsexperimenten kann die wiederholte Durchführung zu einer Verfälschung der Ergebnisse führen. Beispielsweise wenn die Versuchsperson weiß, welche Antworten aus dem ersten Experiment falsch waren.
  • „Instrumentation“-Effekt
    • Wenn die Messinstrumente neu justiert werden, kann dies zu einer verzerrten Messung führen. Wenn die wichtigen Variablen von einem Beobachter gemessen werde, wird dieser mit jeder Messung an Erfahrung bezüglich des betrachteten Phänomens gewinnen und in dieser Folge die Messung unterbewusst beeinflussen.
  • „Selection“-Effekt
    • Bei dieser Störgröße liegen Fehler bei der Zusammenstellung der Testgruppe vor. Optimal ist es in der Regel wenn die Testgruppe möglichst zufällig zusammengestellt wird.

Versuchsanordnungen in Experimenten

Es gibt verschiedene Versuchsanordnungen von Experimenten, mit denen die jeweiligen Störgrößen unterschiedlich gut kontrolliert werden können. Im Folgenden sehen wir uns die fünf bekanntesten Versuchsanordnungen an.

Diese Anordnungen werden durch eine bestimmte Notation beschrieben:

X = Das X verwendet man, um die Manipulation der unabhängigen Variablen darzustellen.

O = Das O wird verwendet, um die Beobachtung bzw. Messung der abhängigen Variablen darzustellen.

R = Das R zeigt die zufällige Verteilung der Personen auf die jeweiligen Testgruppen.

Wenn diese Buchstaben auf der gleichen Höhe/Reihe stehen, zeigt dies, dass diese sich auf die gleiche Personengruppe beziehen. Die Richtung links nach rechts gibt die zeitliche Reihenfolge an. Falls etwas gleichzeitig passiert, werden die Buchstaben untereinander dargestellt.

One-Shot Case Study

Die One-Shot Case Study weist die folgenden Notation auf:

X O

Die Testgruppe wird also zunächst einer Manipulation (X) ausgesetzt, um dann um Anschluss die abhängige Variable zu messen (O).

Bei dieser sehr einfachen Versuchsanordnung ist es problematisch, dass die Messung der abhängigen Variablen vor der Manipulation der unabhängigen Variablen fehlt. Zudem wird die Ausprägung der abhängigen Variablen nicht nur von der Manipulation der unabhängigen Variablen abhängen.

Es werden also bei dieser Versuchsanordnung die Störgrößen nicht kontrolliert.

Ein Beispiel soll uns bei den verschiedenen Versuchsanordnungen helfen, diese zu verstehen:

Ein Bank hat für Ihre Finanzprodukte ein neues Beratungskonzept entwickelt, welches die Anzahl der Abschlüsse erhöhen soll. Dieses neue Beratungskonzept soll nun in bestimmten Filialen getestet werden.

Bei der One-Shot Case Study haben sich 50 Filialen gemeldet, die an dem Experiment teilnehmen möchten. Die Mitarbeiter dieser 50 Filialen wurden entsprechend dem neuen Beratungskonzept geschult (X). Im Anschluss an dieser Schulung wurde gemessen wie viele Verträge jede Filiale im Monat abgeschlossen hat (O).

Die Messung kam zu dem Ergebnis, dass 82 Verträge im Durchschnitt pro Filiale in einem Monat abgeschlossen wurde.

Nun wissen wir allerdings nicht wie viele Verträge vor der Schulung im Durchschnitt pro Monat in einer Filiale abgeschlossen wurden.Wir können also keinen Rückschluss ziehen, ob das neue Beratungskonzept erfolgreich ist.

One-Group Pretest-Posttest Design

Im Rahmen der One-Group Pretest-Posttest Designs werden die Veränderungen durch die Manipulation erfasst.

Die Notation sieht wie folgt aus:

O(1)  X  O(2)

Es wird also vor der Manipulation eine Messung der abhängigen Variablen durchgeführt, doch auch trotz dieser Vormessung ist hier der Einfluss von Störfaktoren ebenfalls nicht berücksichtigt.

Wenn die Bank noch zusätzlich vor der Schulung ihrer Mitarbeiter eine Messung zu den Vertragsabschlüssen durchführt wäre dies ein One-Group-Pretest-Posttest Design.

Wenn die Bank so vor der Schulung im Monat pro Filiale im Durchschnitt 70 Vertragsabschlüsse vorweisen kann, aber nach der Schulung 82, dann deutet dies zunächst einmal darauf hin, dass das Schulungskonzept erfolgreich war. Allerdings könnte dieser Mehrverkauf auch z.B. auf eine neue Werbekampagne zurückzuführen sein.

Es müssen also nach wie vor die Störgrößen eliminiert werden.

Static-Group Comparison

Bei diesem Untersuchungsdesign wird zusätzlich noch eine Messung bei einer Kontrollgruppe durchgeführt.

Die Notation sieht wie folgt aus:

Experimentalgruppe: X    O(1)

Kontrollgruppe:                 O(2)

Wenn wir die Static-Group Comparison auf unser Banken-Beispiel übertragen, würde das bedeuten, dass wir in 50 Filialen die Mitarbeiter nach dem neuen Beratungskonzept schulen, während wir in 50 anderen Filialen die Mitarbeiter nicht schulen.

Wenn wir nun feststellen, dass die Experimentalgruppe nach der Schulung je Filiale im Durchschnitt 82 Verträge im Monat abschließen und die Kontrollgruppe nur 75, dann wäre dies ein weiterer Indiz für den Erfolg der Schulung.

Doch können auch hier noch Fehler auftreten, denn schließlich erfolgte die Zuteilung in die Experimental- bzw. Kontrollgruppe nicht zufällig. Wenn sich die Mitarbeiter freiwillig für die Experimentalgruppe melden, zeigt dies ein sehr hohes Engagement dieser Mitarbeiter, wodurch die höhere Abschlussquote nicht unbedingt nur auf das neue Beratungskonzept zurückzuführen wäre.

Dadurch sind auch bei Static-Group Comparison nicht alle Störgrößen eliminiert.

Pretest-Posttest Control Group Design

Bei dem Pretest-Posttest Control Group Design werden die Personen zufällig zu der jeweiligen Gruppe zugeteilt (R). Auch hier erfährt die Experimentalgruppe einer Manipulation, allerdings wird bei beiden Gruppen vor der Manipulation eine Messung durchgeführt.

Eine Notation sieht folgendermaßen aus:

Experimentalgruppe: R   O(1)    X    O(2)

Kontrollgruppe:           R   O(3)           O(4)

In unserem Banken-Beispiel werden also die jeweils 50 Filialen zufällig entweder den Experimentalgruppe oder der Kontrollgruppe zugeordnet.

Allerdings lässt sich beim Pretest-Posttest Control Group Design keine Aussage treffen, welche Störgrößen welchen Effekt haben.

Solomon Viergruppen-Design

Ein etwas komplizierteres experimentelles Design ist das Solomon Viergruppen-Design, bei dem auch teilweise die Stärke einzelner Störgrößen ermittelt werden kann.

Eine Notation dieses Forschungsdesigns sieht wie Folgt aus:

Experimentalgruppe: R    O(1)    X    O(2)

Kontrollgruppe 1:        R    O(3)          O(4)

Kontrollgruppe 2:       R                X    O(5)

Kontrollgruppe 3:       R                       O(6)

Durch eine Vormessung kann bereits ein Testing-Effekt auftreten, also eine Störgröße (z.B. wenn die Mitarbeiter mitbekommen, dass sie beobachtet werden, arbeiten diese effektiver). Einmal kann dieser Testing-Effekt auftreten ohne, dass eine Manipulation aufgetreten ist und einmal mit einer Manipulation. Um diese Störgröße besser zu kontrollieren sind also vier Gruppen erforderlich.

Testmärkte

In einem regionalen Testmarkt sollte eine repräsentative Struktur vorherrschen, die ähnliche Kunden, Bedarfs-, Handels-, Medien- und Wettbewerbsstrukturen aufweist.

In einem solchen Testmarkt können alle Marketingmaßnahmen durchgeführt werden. Indem man die Auswirkungen dieser Marketingmaßnahmen misst, kann man die einzelnen Maßnahmen nach deren Effektivität beurteilen.

Der große Vorteil der daraus resultiert ist, dass man die Marketingmaßnahmen in einen kleinen repräsentativen Markt durchführt, wodurch die Marketingaktivitäten deutlich günstiger sind, als wenn man diese in einen Gesamtmarkt durchführen würde.

So kann man beispielsweise vor der offiziellen Produkteinführung einen möglichen Verbesserungsbedarf erkennen.

Nachteilig bei solchen regionalen Testmärkten ist allerdings die schwierige Geheimhaltung vor der Konkurrenz. Außerdem ist dieser Testmarkt mit hohen Kosten und einem hohen Zeitbedarf verbunden.

In einem Mikrotestmarkt (auch Storetest) wird in einer kleinen Anzahl von ausgewählten Testgeschäften die Wirksamkeit von Marketingmaßnahmen geprüft. Diese aus dem Mikrotestmarkt gewonnenen Erkenntnisse können durch ein Haushaltspanel ergänzt werden – worauf ich gleich noch näher eingehen werden.

Die Erst- und Wiederkaufsraten erlauben dabei Rückschlüsse über den zukünftigen Erfolg eines Produktes in dem Gesamtmarkt.

Häufig übernimmt dabei das jeweilige Marktforschungsinstitut die Regalplatzierung in den Testgeschäften und kontrolliert die Testbedingungen.

Ein Vorteil dieses Storetests ist die schnelle und kostengünstige Durchführung. Zudem lassen sich die Testbedingungen besser kontrollieren, wodurch dieses Verfahren an Popularität gewonnen hat.

Der elektronische Testmarkt ist eine Weiterentwicklung des Mikrotestmarktes. Bei diesem Testmarkt werden die Daten durch eine Kombination aus Haushalts- und Handelspanel erfasst. Die teilnehmenden Haushalte erhalten durch Scanner lesbare ID-Karten, die diese beim Einkauf vorlegen. Dadurch kann über die Scannerkasse direkt der Einkauf des jeweiligen Haushaltes erfasst werden.

Da bei dieser Testform mehrere Testgeschäfte teilnehmen, ist es durchaus möglich die Einkäufe dieser Haushalte komplett zu erfassen.

Das Virtual Shopping stellt eine neue Methode dar, Einkaufsdaten zu gewinnen. Hierbei wird ein fotorealistisches Modell eines Geschäfts durch einen Computer simuliert. Die Testpersonen können sich durch dieses virtuelle Geschäft bewegen und die angebotenen Produkte kaufen.

Auch hier liegt der wesentliche Vorteil in dem geringem Zeit- und Kostenaufwand dieses Verfahrens. Darüber hinaus kann man das Verhalten der Testpersonen im simulierten Geschäft sehr detailliert verfolgen. Ein großer Nachteil dieses Verfahrens ist allerdings, dass eine Nutzung des Testproduktes nicht stattfindet, sodass hiermit keine Daten zur Produktzufriedenheit gewonnen werden können.

Deutlich von den bereits besprochenen Testmärkten unterscheiden sich Testmarktsimulatoren, da es sich hierbei um Experimente unter Laborbedingungen handelt. Diese Testmarktsimulatoren werden in der Praxis eingesetzt, um Daten für die Prognose des Markterfolges eines neuen Produktkonzeptes zu gewinnen.

Vorteilhaft ist hierbei insbesondere die bessere Geheimhaltung, die geringeren Kosten, sowie die schnellere Verfügbarkeit von ersten Ergebnissen. Wie bei vielen Laborexperimenten sind auch hier die größten Nachteile eine gewisse Realitätsferne, Probleme bei der Simulation eventueller Einführungsbarrieren, sowie die zeitlich häufig ungenügende Abbildung des Wiederkaufprozesses.

All diese Arten von Testmärkten lassen allerdings nur Rückschlüsse auf den derzeitigen Status zu. Wenn man die Veränderungen im Zeitablauf betrachten möchte, muss man auf ein Panel zurückgreifen.

Panel

Bei einem Panel wird ein gleichbleibender Kreis von Adressaten regelmäßig im Rahmen des gleichen Untersuchungsgegenstandes befragt. Die Einrichtung und Unterhaltung eines solchen Panels ist sehr kostenintensiv, weshalb Panels meistens von Marktforschungsinstituten betrieben werden.

Panels können zum Beispiel bei den folgenden Fragestellungen genutzt werden:

  • Vorhersage des Marktanteils neu eingeführter Marken
  • Testen des Werbeerfolges durch unterschiedliche Kommunikationsmaßnahmen
  • Bewertung der Akzeptanz bei neuen Produktinnovationen bei den Kunden

Es gibt grundsätzlich drei verschiedene Arten von Panels: Handels- Verbraucher- und Spezialpanel.

Ein Handelspanel besteht aus Absatzmittlern und kann in drei Untergruppen eingeteilt werden: Food Panel, NonFood Panel und andere Sonderformen.

Ein Verbraucherpanel hingegen besteht aus Endverbauchern und wird in Individual- und Haushaltspanel eingeteilt. Bei einem Individualpanel werden individuelle Verbraucher befragt, während bei dem Haushaltspanel alle Mitglieder eines privaten Haushaltes erfasst werden.

Haushaltspanels lassen sich zudem in Verbrauchs- und Gebrauchsgüterpanels unterteilen. Bei einem Verbrauchsgüterpanel werden die Teilnehmer in deutlich kürzeren Abständen befragt, als bei dem Gebrauchsgüterpanel.

Wie bereits erwähnt gibt es darüber hinaus noch diverse Spezialpanel:

  • Scannerpanel
    • Bei einem Scannerpanel werden die Käufe der Kunden an den Kassen der Handelsunternehmen automatisch erfasst. So werden bei jedem Einkauf die Preise und Mengen aufgezeichnet. Dadurch kann beispielsweise der Erfolg einer Marketingkampagne bewertet werden.
  • Anzeigenpanel
    • Hierbei werden die Anzeigenaktivitäten von Handelsunternehmen in Tageszeitungen, Anzeigenblättern und Kundenzeitschriften erfasst und analysiert.
  • Integrierte Panel
    • Bei diesen Spezialpanels werden unterschiedliche Panels zusammengeführt und gemeinsam analysiert.
  • Fernsehpanel
    • Das Fernsehpanel erfasst, welche Haushalte und Personen zu welchen Zeiten und wie lange Sender und Sendungen betrachten. Sie erfassen also die Einschaltquoten. Ziel ist die bessere Planung und Kontrolle von Werbespots im Fernsehen.
  • Mikrotestmarkt
    • Der Mikrotestmarkt stellt eine Kombination eines Haushaltspanels und verschiedenen Testgeschäften dar.
  • Unternehmenspanel
    • In einem Unternehmenspanel werden bestimmte Unternehmen zu Konjukturentwicklungen, Branchentrends oder ihren eigenen Aktivitäten befragt.
  • Online-Panel
    • Im Rahmen eines Online-Panels werden die Internetnutzer durch eine Online-Befragung zu ihren Konsumgewohnheiten befragt.

Bei Panelerhebungen sind vor allem zwei Dinge wichtig: Repräsentativität des Panels und Paneleffekte.

Die Repräsentativität eine Panels bezieht sich auf die Tatsache, dass ein Panel eine Stichprobe aus der Grundgesamtheit darstellt. Es ist also wichtig die eigentliche Zielgruppe in dieser Stichprobe möglichst genau abzubilden.

Folgende Aspekte können hierbei zu Problemen führen:

  • Zufallsauswahl
    • Wenn aufgrund der mangelnden Teilnehmerzahl an einem Panel, die Zufallsauswahl der Teilnehmer nicht möglich ist, ist die Repräsentativität des Panels in Gefahr.
  • Bereitschaft zur Mitarbeit
    • Sehr häufig zeigen nicht alle Teilnehmer die gleiche Bereitschaft zur Teilnahme an einem Panel. Wenn die Leute für die Teilnahme an einem Panel bezahlt werden, kann es vorkommen, dass Personen aus den unteren Einkommensgruppen einen großen Anteil haben.
  • Panelsterblichkeit
    • Ein Panel verliert im Laufe der Zeit entweder durch Desinteresse, Wegzug oder Tod Teilnehmer und somit auch Repräsentativität.
  • Panelrotation
    • Auch die Grundgesamtheit ändert sich im Laufe der Zeit, sodass die Zusammensetzung des Panels angepasst werden muss.

Der Paneleffekt tritt dadurch auf, dass Teilnehmer, die am Panel teilnehmen, durch die Teilnahme bereits über ihre Einkaufsgewohnheiten nachdenken und ändern. Häufig erfolgt diese Veränderung unterbewusst. Um diesen Paneleffekt in den Griff zu bekommen, ist es ratsam eine aktive Panelrotation zu betreiben.

Verwendung von Sekundärdaten

Gerade das Internet hat die Nutzung von Sekundärdaten deutlich erleichtert. Der klare Vorteil von Sekundärdaten ist, dass diese zum einen häufig günstig bis kostenlos zu beschaffen sind und andererseits schnell Verfügbar sind. Nachteilig ist hingegen, dass die Daten in der Regel nicht auf die aktuelle Fragestellung zugeschnitten sind, sodass die Beantwortung der Forschungsfragen mitunter schwierig sein kann.

Wir unterscheiden bei Sekundärdaten zwischen unternehmensexternen und internen Daten:

Unternehmensinterne DatenquellenUnternehmensexterne Datenquellen
frühere Primärerhebungen, die für die neue Fragestellung relevant sein könntenStatistiken und andere Publikationen öffentlicher Institutionen
allgemeine Statistiken (z.B. Umsatz nach Produktgruppen, Kunden…)Veröffentlichungen von wissenschaftlichen Institutionen
Berichte und Meldungen des Außendienstes eines UnternehmensVeröffentlichungen von Banken und Versicherungen
Kundenstatistiken (z.B. Kunden nach Art, Größe, Gebiet…)Veröffentlichungen von Werbeträgern
BuchhaltungsunterlagenVeröffentlichungen von Wirtschaftsverbänden und -organisationen
Unterlagen aus der KostenrechnungVeröffentlichungen von Verlagen, Zeitschriften
Veröffentlichungen von Wettbewerbern

Unternehmensinterne Daten sind häufig die erste Anlaufstelle bei der Suche nach Sekundärdaten. Hierbei sind vor allem Absatzstatistiken, Kundenstatistiken und Daten aus der Kostenrechnung wichtige Datenquellen.

Da diese Daten allerdings nur auf die spezielle Situation des Unternehmens ausgerichtet sind, sollte man zumindest noch unternehmensexterne Daten hinzuziehen, um sich ein umfassenderes Bild über den Gesamtmarkt zu machen.

Unternehmensexterne Daten sind durch das Internet eine äußerst wichtige und kosteneffiziente Datenquelle geworden. Es gibt hierbei verschiedenen öffentliche oder private Einrichtungen, die Regelmäßig wichtige Daten veröffentlichen und die man durch die Suche im Internet leicht finden kann.

Die Sekundärforschung mit dem Internet kann besonders bei den folgenden Fragestellungen sehr gut genutzt werden:

  • Vorbereitung neuer Primärerhebungen
  • Einarbeitung in ein neues Themengebiet
  • Durchführung von Konkurrenz- und Branchenanalysen
  • Gewinnung eines schnellen Überblicks über unbekannte Märkte
  • Um über aktuelle Entwicklungen auf dem Laufenden zu bleiben

Bei der Internetrecherche stehen dem Unternehmen verschiedenen Möglichkeiten der Gewinnung von Sekundärdaten zu Verfügung. Allen voran sind Suchmaschinen ein beliebtes Mittel, um Daten zu gewinnen.

Allerdings besonders wenn man auf tiefergehende, sehr spezielle Informationen angewiesen ist, reichen die frei zugänglichen Informationsquellen häufig nicht mehr aus. Denn nicht alle Erhebungen von Marktforschungsunternehmen oder Beratungsgesellschaften werden im Internet frei zugänglich veröffentlicht. Häufig werden diese Informationen auch sehr unübersichtlich in Form von großen Excel-Tabellen veröffentlicht.

Informationsdienste, wie Statista bieten sehr große und professionell recherchierte Informationen an, die zudem sehr gut aufbereitet sind. Die Informationsgewinnung bei einschlägigen Webseiten, wie zum Beispiel Wikipedia kann da zum Teil problematisch sein. Schließlich sind die Informationen auf einigen Webseiten mitunter falsch.

Bei einer professionellen Recherche mit Hilfe des Internets rate ich auf jeden Fall dazu, spezielle Anbieter, wie Statista zu nutzen.

So, dieser Beitrag ist sehr lang geworden und wenn sie bis zum Schluss durchgehalten haben, konnten sie hoffentlich eine Menge lernen. Die nächsten Beiträge werden auf jeden Fall wieder deutlich kürzer 🙂

Im nächsten Beitrag geht es dann mit der Stichprobenauswahl weiter.

 

 

Bildquelle: © boboling – istockphoto.com

Zuletzt haben wir uns die ersten beiden Phasen der Marktforschungsprozesses angesehen: die Problemformulierung und die Bestimmung des Untersuchungsdesigns.

Wir folgen nun der zeitlichen Abfolge des idealtypischen Marktforschungsprozesses und kommen nun zur dritten Phase, der Bestimmung des Durchführenden.

Bestimmung des Durchführenden

Prinzipiell stehen Unternehmen zwei Wege offen Marktforschung zu betreiben. Zum einen kann ein Unternehmen selbst, mit internen Ressourcen eine Marktforschungsstudie durchführen. Zum anderen kann ein Unternehmen aber auch Marktforschung outsourcen und so ein Marktforschungsinstitut mit der Durchführung einer Marktforschungsstudie beauftragen.

Eigenerbringung von Marktforschungsleistungen

Folgende Argumente sprechen für die eigene Durchführung eines Unternehmens:

  • Unternehmensspezifische Erfahrungen
    • Wenn ein Unternehmen interne Marktforscher besitzt, sind diese in der Regel besser mit den zu lösenden Marktforschungsproblemen vertraut. Im Gegensatz zu externen Marktforschern besitzen diese häufig bessere Kenntnisse über das eigene Unternehmen und den besonderen Branchengegebenheiten.
  • Vertraulichkeit
    • Auch wenn ein Unternehmen externe Marktforscher mit einer Geheimhaltungsvereinbarung zur Vertraulichkeit verpflichtet, ist zu beachten, dass spezialisierte Marktforscher meist noch für andere Wettbewerber tätig sind. So können Informationen mehr oder weniger explizit zu den Wettbewerbern gelangen. Zumindest aber ist diese Möglichkeit bei externen Marktforschern nie vollständig auszuschließen.
  • Kontrolle des Marktforschungsprozesses
    • Bei der unternehmensinternen Marktforschungsabteilung hat das Unternehmen einen besseren Einblick in die Durchführung der Marktforschungsstudie, sodass diese auch besser kontrolliert werden kann.

Vor allem kleinere Unternehmen verfügen in der Regeln nicht über die erforderlichen Ressourcen eine eigene Marktforschungsabteilung zu unterhalten. Aus diesem Grund bleibt diesen Unternehmen meist keine andere Wahl, als ein Marktforschungsinstitut zu beauftragen.

Aber auch größere Unternehmen verzichten teilweise auf eine eigene Marktforschungsabteilung und beauftragt lieber externe Marktforschungsdienstleister. Je nach Wunsch des Auftraggebers können ganze Marktforschungsprojekte in Auftrag gegeben werden oder auch nur einzelne Prozessschritte, wie z.B. die Datengewinnung.

Outsourcing der Marktforschungsaktivitäten

Die folgenden Argumente sprechen für das Outsourcing der Marktforschungsaktivitäten:

  • Methodenkenntnis und Erfahrung
    • Spezialisierte Marktforschungsunternehmen haben häufig mehr Methodenkenntnis und Erfahrung.
  • Kostenvorteile
    • Auch wenn Marktforschungsunternehmen eine gewisse Marge auf ihre Leistung aufschlagen, kann es dennoch günstiger sein die Marktforschungsaktivitäten zu outsourcen. Durch die bessere Methodenkenntnis und die größere Erfahrung können externe Spezialisten effizienter vorgehen und so eine hochwertige Leistung dennoch günstiger erbringen.
    • Gerade wenn die eigenen Marktforschungsaktivitäten nur sporadisch anfallen, lohnt es sich auf die leistungsstarke Infrastruktur der Marktforschungsinstitute zurückzugreifen, um so Kosten zu sparen.
  • Objektivität
    • Ein sehr wichtiger Punkt ist auch die höhere Objektivität die häufig von externen Marktforschern ausgeht. Auf unternehmensinterne Marktforscher kann ein höherer Druck ausgeübt werden, die Marktforschungsergebnisse in eine bestimmte Richtung zu lenken.
  • Akzeptanz
    • Sehr häufig ist die Akzeptanz der Ergebnisse bei der Durchführung von externen Dienstleister mit einem bekannten Namen deutlich höher, als die Durchführung in Eigenregie. Bekannte Marktforschungsinstitute strahlen zudem häufig eine höhere Glaubwürdigkeit aus.
  • Kapazitätsrestriktionen
    • Auch hier ist es besonders für kleinere und mittlere Unternehmen oftmals schwierig für eine umfangreiche Datenerhebung genügend Mitarbeiter zur Verfügung zu stellen. Häufig bleibt dann nur noch die Möglichkeit des Outsourcings.

Es ist schwer eine pauschal gültige Antwort zu geben, aber generell lässt sich zunächst festhalten, dass vor allem kleinere und mittlere Unternehmen ihre Marktforschungsaktivitäten eher outsourcen sollten. Hier würde es sich -meiner Meinung nach- in den meisten Fällen nicht lohnen, im eigenen Unternehmen die erforderlichen Kapazitäten aufzubauen.

Schließlich müssen zum einen die Kompetenzen aufgebaut werden und zum anderen die entsprechenden Mitarbeiter zur Verfügung stehen.

Wenn man sich für die Vergabe eines Marktforschungsprojektes an einen externen Dienstleister entschieden hat, sollten vor allem die folgenden Kriterien eine wichtige Rolle spielen:

  • Sicherstellung von Datensicherheit und Vertraulichkeit
  • Branchenkenntnis und Vertrautheit mit der vorliegenden Fragestellung
  • Leistungsspektrum und Methodenkompetenz in sämtlichen Phasen des Marktforschungsprozesses
  • Qualität der Infrastruktur
  • Qualitätsmanagement im Marktforschungsprozess

Der nächste Beitrag wird dann wieder deutlich umfangreicher, denn dort geht es auch die Festlegung der richtigen Datenerhebungsmethode, wo es unterschiedlichste Möglichkeiten gibt.

 

Bildquelle © ganko – Fotolia