530 likes | 710 Views
CREATING BRAND VALUE . Playa Pie de la Cuesta 410, Col. Reforma Iztaccihuatl, CP 08840, Delegación Iztacalco. Tels. 3626-0822 / 3626-0823 www.marketvariance.com. Segmentación. Jorge Andrade Rios. Julio 2001. Diseñar productos con mayores posibilidades de éxito.
E N D
CREATING BRAND VALUE Playa Pie de la Cuesta 410, Col. Reforma Iztaccihuatl, CP 08840,Delegación Iztacalco. Tels. 3626-0822 / 3626-0823www.marketvariance.com
Segmentación Jorge Andrade Rios Julio 2001.
Diseñar productos con mayores posibilidades de éxito. Mejorar la asignación de recursos y esfuerzos en la promoción del producto. Adoptar mejores mezclas de mercadotecnia a la medida de necesidades y características de cada segmento. Satisfacción de los deseos y necesidades del consumidor. Entender el comportamiento del consumidor qué, cuándo y a quién compran o venden productos. Objetivos de la segmentación de mercados.
Definición de segmentación • Procedimiento mediante el cual se divide un mercado en grupos con características y necesidades similares. • No todos los grupos resultantes en un estudio de segmentación son útiles; antes deben cumplir con algunas condiciones básicas: • Ser rentables. • Poder ser identificados y medibles. • Ser accesibles. • Capaces de responder a los esfuerzos mercadológicos.
Rentabilidad • El segmento debe tener sentido comercial; es decir, debe ser lo suficientemente grande (económicamente hablando) para justificar la creación, desarrollo y mantenimiento de una estrategia especial de mercadotecnia. Identificable y medible • Las características del segmento deben ser claras y explícitas de forma tal que proporcionen medidas muy concretas respecto a su tamaño y hábitos de compra.
Accesible • Podrán implementarse programas de mercadotecnia capaces de alcanzar al segmento; ciertos grupos por sus características son difíciles de alcanzar; por ejemplo: los ancianos, sordos o mudos. Capacidad de respuesta • El segmento responderá de manera particular a la estrategia de mercadotecnia diseñada para él, si éste responde de la misma forma como lo hace él público en general no se justifica la segmentación.
Demográfica Geográfica Beneficios Tasa de uso Perfiles Psicográficos Tipos de segmentación.
El mercado es dividido por regiones ya sea dentro de un país o alrededor del mundo; el clima, densidad y tamaño del mercado son variables que se toman en cuenta para dicha segmentación. Segmentación geográfica. Segmentación demográfica. • Esta segmentación es la más básica y casi todos los estudios de investigación de mercados la emplean. Usualmente, los resultados son presentados individualmente para variables como sexo, edad, ingresos, ciclo de vida familiar, etc.
Segmentación por beneficios. • Se basa principalmente en características que el consumidor busca en un producto o servicio. • Es posible delimitar el perfil del consumidor mediante información asociada a los beneficios y la gente que los desea. • El análisis de conjunto es ideal para este tipo de segmentación. • La estrategia es mejorar los programas de comunicación de mercadotecnia, el producto o diseñar uno nuevo con base a los beneficios que busca el consumidor.
El mercado es dividido con respecto a la cantidad de producto que se consume o se compra. Generalmente, se forman categorías de usuarios; por ejemplo consumidores light, medium y heavy que hace referencia a personas que consumen poco, moderadamente y mucho, respectivamente; otro tipo de categorías pueden ser usuarios anteriores, potenciales o nuevos. Segmentación por tasa de uso.
Segmentación psicográfica. • Se basa en variables de personalidad, motivos, estilos de vida además de las demográficas tradicionales para ofrecer una descripción más completa de diferentes segmentos. • VALS (Valores, Actitudes y Estilos de Vida) es uno de los ejemplos más representativos de este tipo de segmentación.
Análisis de conglomerados. Análisis factorial Q. Análisis de conjunto Mapas perceptuales. Árboles de desición: Chaid (Chi-square automatic interaction detector) Cart (Classification and regression trees). Modelos de clase latente. Minería de datos (Data mining). Técnicas para segmentación.
Análisis de conglomerados • Este análisis es de los más comunes, se usa para agrupar casos (sujetos u objetos) con base a las distancias euclidianas que hay de un caso a otro con respecto a determinadas variables. • Los conglomerados resultantes pretenden maximizar la homogeneidad de características al interior del grupo y la heterogeneidad entre grupos. • Es posible agrupar variables aunque no es muy común, ya que para tal propósito se emplea mejor el análisis factorial.
Trabaja con variables de intervalo o razón y dicotómicas. • Las variables pueden ser una batería de atributos de imagen, actitudes o cualquier otra que sea de interés para el investigador.
Ejemplo (Hair, Anderson, Tatham, et al, 1999) • En una escala de 0 a 10 se evaluó la lealtad a la tienda y marca de siete personas, los datos resultantes se presentan en la siguiente tabla. • A continuación se presenta la matriz de distancias euclidianas entre cada uno de los sujetos con base a las variables evaluadas.
A partir de la matriz de distancias y mediante un procedimiento jerárquico y aglomerativo es que se van haciendo los grupos; es decir, los sujetos que tienen las distancias más cortas entre si se unen para crear grupos y se combinan con otros ya existentes.
En la tabla superior se observa que los sujetos E y F crean el primer grupo ya que las distancias entre ellos son las más cortas; en el siguiente paso estos sujetos se combinan con G que es el que más cerca está de ellos.
Al combinarse los casos E, F y G las distancias E-F (1.414) E-G (2.000) y F-G (3.162) son promediadas resultando una distancia de 2.192 dentro del grupo la cual sirve como indicador para evaluar que tan homogéneo es el grupo. El proceso de formar grupos continúa hasta que queda uno solo. • El criterio para elegir el número de grupos que explican la máxima varianza entre ellos y maximizan la homogeneidad en su interior se deriva de las distancias resultantes en su combinación (véase columna que dice distancia dentro del grupo).
Una forma gráfica de ver dichas distancias es el dendrograma. • Usualmente, los programas estadísticos reescalan las distancias originales de manera que el dendrograma aparece en otras unidades.
Desventajas • Es puramente descriptivo, no hay teorías que lo sustenten y no es posible hacer inferencias estadísticas. • Las soluciones o los conglomerados dependen de las técnicas empleadas por lo que es muy común encontrar diferentes agrupamientos al variar la técnica.
El análisis de conglomerados siempre creará grupos a partir de cualquier base de datos, independientemente de que exista o no una estructura auténtica en ellos (el CCA de Sawtooth Software elimina este problema). • Como es obvio, el resultado final depende siempre de los datos usados por lo que la eliminación o inclusión de variables tiene un impacto importante sobre el número de grupos resultantes.
Análisis factorial Q • Este análisis se usa para agrupar casos (sujetos u objetos) en lugar de variables que es el propósito principal de un análisis factorial típico. • Metodología desarrollada por el británico William Stphenson (1902-1989), que básicamente construye un análisis factorial a partir de la matriz de correlación entre personas y no entre variables.
Ejemplo (Kerlinger, 1988) • Cuatro sujetos clasifican por orden de rango seis reactivos de enseñanza dándole el número 1 al más importante y 6 al de menor importancia, los datos resultantes se presentan en la siguiente tabla.
Con los datos de la tabla anterior se corrió un análisis de correlación, el resultado es una matriz de cuatro por cuatro que muestra el grado de asociación entre sujetos.
La afinidad entre el sujeto 1 y 2 se identifica fácilmente al igual que entre las personas 3 y 4. Sin embargo, cuando se tienen muchos sujetos es difícil notar esta relación a simple vista por lo que el análisis factorial representa la solución a este problema.
Es más fácil ver las relaciones una vez corridos los datos utilizando el análisis factorial. En la tabla de factores rotados se observan dos grupos perfectamente, uno orientado hacia las actividades, sujetos 1 y 2 y otro al maestro, sujetos 3 y 4.
Desventajas • Sólo puede ser usado con variables ordinales o de intervalo. • No se puede trabajar con muestras grandes. • Los supuestos sobre independencia de reactivos se violan al pedir que sean clasificados por orden de rango. • Un mismo segmento puede contener sujetos completamente desiguales aunque tengan el mismo perfil ya que uno califica alto en la escala y otro bajo.
Análisis de conjunto • Este análisis sirve para segmentar con base a las características que busca el consumidor en un producto que van desde precio, empaque, o cualquier otro atributo. • Las utilidades o valores propios (partworths) de cada sujeto son los datos utilizados para buscar los posibles segmentos.
La segmentación puede hacerse utilizando cualquier método o programa una vez obtenidas las utilidades para cada sujeto. • Tradicionalmente se ha venido usando el análisis de conglomerados aunque hay programas que ya incluyen la segmentación de clase latente como el CBC de Sawtooth Software.
Desventajas • Las desventajas de este tipo de segmentación están más estrechamente relacionadas con la técnica usada para segmentar que con el análisis de conjunto ya que hay múltiples posibilidades de segmentar exportando las utilidades obtenidas por cada sujeto a cualquier programa.
Mapas perceptuales • Son presentaciones gráficas de las relaciones que existen entre objetos o sujetos y atributos de un producto o marca. • Existen varios tipos de mapas perceptuales y con diferentes ventajas así como grado de complejidad; sin embargo, en general la mayoría permiten: • Identificar diferentes segmentos. • Atributos de interés para determinado segmento. • Nichos de mercado rentables o nuevos. • A qué segmento o grupo se deben dirigir los esfuerzos de mercadotecnia.
Desventajas • No hay indicadores estadísticos que permitan hacer una evaluación crítica de cada grupo resultante. • Por lo general los resultados se presentan de manera agregada por lo que no es posible conocer quienes son los sujetos que están dentro de cada segmento; multidimensional scaling no tiene esta limitante. • Por lo general, los datos deben ser del mismo tipo: nominales, ordinales, o de intervalo no se pueden incluir preguntas que se consideran importantes si tienen otra escala de medición.
Minería de datos (Data mining) • Metodología que combina y emplea las técnicas multivariantes ya existentes como árboles de decisión, regresión lineal múltiple, cluster, análisis de estructuras de covarianza, etc. y nuevos enfoques como algoritmos genéticos y redes neuronales para encontrar relaciones importantes en grandes almacenes de datos (data warehouse) con que cuentan las empresas. • Dado que incluye bastantes técnicas su operación puede ser con datos nominales, ordinales y de intervalo o razón. • Existen varios programas para este tipo de análisis, los programas más completos en el mercado son Interprise Minner de SAS y Clementine de SPSS.
Desventajas • Uno de los análisis más conocidos de la minería de datos son las redes neuronales y posiblemente su mayor desventaja es que no se pueden hacer inferencias estadísticas aunque en la práctica los resultados son muy similares a los que se obtendrían en una regresión, análisis discriminante o cluster. • Necesariamente el concepto de data minning viene ligado al de data warehousing o almacén de datos por lo que es necesario contar con esta infraestructura. • Sin embargo, es posible emplear herramientas como redes neuronales en un trabajo de investigación de mercados.
Árboles de Decisión • Herramienta que busca exhaustivamente a través de un conjunto de datos las relaciones más significativas entre una variable dependiente y varias independientes. • Opera con datos nominales, ordinales y de intervalo o razón. • Existen varios tipos de algoritmos y los programas existentes para este tipo de análisis también es extenso. • Los programas más comunes son Chaid y Cart. • A continuación se expone la técnica mediante Knowledgeseeker de Angoss.
Desde el menu desplegable file seleccionamos open y hacemos click en el archivo bpress.dat y a continuación aceptar.
El nodo principal que aparece es la variable dependiente en este caso hipertensión arterial y el objetivo es ver cuales son los segmentos más predispuesto a alta hipertensión.
Desde el menu desplegable grow seleccionamos find split y aparece la relación más significativa de entre todos las variables que pueden estar causando hipertensión.
Si nos colocamos con el mouse en cada uno de los nodos de edad y desde el menu desplegable grow seleccionamos nuevamente find split aparecen las siguientes variables más significativas.
Estos resultados sugieren que el riesgo de sufrir hipertensión es más alto entre los adultos de 63 a 72 años y que aumenta entre los que no consumieron pescado la semana pasada o solo lo hicieron en una ocasión. Y a la inversa, el consumo de pescado es un factor de riesgo entre los de 51 a 62 años de edad.
A partir de 1995 se ha venido publicando bastante sobre este tipo de modelos debido al incremento de poder de cómputo y a los algoritmos nuevos que permiten manejar un número mayor de variables. Estos modelos parecen una mejor alternativa para segmentar que el tradicional análisis de conglomerados, factorial, regresión, etc, o incluso mapas perceptuales. Su poder radica en que no necesitan cumplir los supuestos de normalidad, homogeneidad, o relacionarse linealmente. A continuación se ilustra el uso de estos modelos con el software de Latent Gold. Modelos de segmentación de clase latente
Las técnicas de segmentación de mercados han venido evolucionando de forma vertiginosa desde las simples variables sociodemográficas hasta los modelos de clase latente que tienen el potencial de incluir todo tipo de variables y encontrar la estructura que mejor se ajusta a los datos sin importar si ésta se deriva de una relación lineal, exponencial, probabilística o cualesquier otra. Las redes neuronales y los nuevos algoritmos genéticos permiten localizar segmentos que no hubiera sido posible encontrar con técnicas clásicas y además permiten trabajar sin los supuestos de normalidad que son esenciales en los modelos lineales . Conclusión