¿En qué fase del ciclo de vida está tu empresa?

por Golfredo Molina

Las empresas son como los organismos vivos, tienen su propio ciclo de vida. Pero las fases por las que pasa se alcanzan solo si el empresario y su equipo hacen el trabajo necesario para avanzar. Reconocer en qué fase está tu empresa es clave para enfocar el esfuerzo y dar pasos en la dirección deseada.

¡Bienvenidos a una nueva entrega sobre gestión empresarial y mejora continua!

El propósito de este artículo es darte criterios para distinguir las etapas de una empresa, de manera fácil. Este conocimiento te ayudará a responder preguntas como: ¿en qué me enfoco para avanzar? o ¿qué debo hacer para mejorar?

En diversos artículos de este blog hemos insistido en que este es un tema clave. De manera particular, para emprendedores que se inician, sin experiencia, en la administración y gestión de una empresa.

Y una de las primeras distinciones que hacemos es entre dos acciones propias de todo tipo de organización: administrar y gestionar. Simplificamos estos términos, porque un empresario en las primeras etapas necesita un lenguaje sencillo y fácil de seguir.

¿Qué entendemos por administrar y gestionar? – Acá te lo explico:

  • Por administrar entendemos ejecutar tareas. Muchas de ellas, repetitivas. Lo común es que estas queden, en algún momento, en manos de personal contratado. Por ejemplo, una tarea es registrar comprobantes en la contabilidad, cuando ya se tiene definido el plan de cuentas. Otras: limpiar la oficina, llevar la encomienda, buscar un pedido, recibir mercancía.
  • Por gestionar entendemos tomar decisiones. Algunas son decisiones fáciles, porque los criterios son claros. Otras, demandan ingenio y creatividad. Son actividades más para gestores y empresarios.

La mayoría de los empresarios buscan “formas” de hacer las cosas más fáciles, sin perder la eficiencia. Sobre todo cuando la complejidad crece, al ritmo en que la organización también crece.

Por tal motivo, si el empresario reconoce en qué etapa anda la empresa, podrá orientar las tareas y actividades, en función de la próxima fase o etapa. Sin perder el foco de lo importante frente a lo urgente.

Ciclo de vida de las empresas

Como señalamos, las empresas tienen ciclos de vida, que sin duda dependen en parte del contexto y del país en que se desarrollan.

Pero aun estando en un mismo sector y bajo una misma legislación, cada empresa es un caso particular y su ciclo de vida depende de muchos factores. Estos factores son internos y externos.

Como ejemplo de factores internos podemos citar las competencias del empresario y los recursos disponibles en las primeras etapas.

En cuanto a los factores externos, hay muchos. ¿Cuáles reconoces en tu caso?

Al quitar los detalles particulares de cada tipo de empresa, es común que el ciclo de vida se divida en 6 fases: nacimiento, crecimiento, madurez, declive, liquidación o relanzamiento.

Por supuesto, este ciclo puede ser muy corto o muy largo. Un ejemplo es el caso de empresas centenarias, como IBM, por ejemplo.

¿Cuántas empresas conoces que duraron menos de 3 años, 5 años? – Con seguridad, unas cuantas.

Fases comunes de las empresas

Comenzamos por describir las fases comunes del ciclo de vida de las empresas. Luego te explicaré nuestro enfoque de las etapas por las que pasa una empresa, y sobre las cuales compartiremos planes de acción.

Es decir, planes para pasar de una etapa a otra hasta alcanzar el éxito. Sobre estos planes hablaremos en otros artículos.

El nacimiento de la empresa

Comencemos definiendo en qué consiste la fase de nacimiento. En esta, constituyes la empresa legalmente e instalas un local donde operará. Incluye, claro está, la etapa de la idea, en la que te entusiasmas y buscas información sobre su viabilidad.

Los procesos más difíciles en esta fase, los retos que debes superar, son conseguir el financiamiento para operar y mantenerse, además de contactar a tus primero clientes.

El financiamiento puede no ser una condición necesaria. Hay empresas que inician sin más que uno o dos socios en sus propias casas y con sus propios equipos. Pero si se trata de una zapatería de calzado deportivo, ultra ergonómico, pues con seguridad necesitarás equipos especiales y, por lo tanto, recursos financieros.

El crecimiento de la empresa

La segunda etapa es la de crecimiento. En esta, debes empezar a lograr estabilidad para la empresa, por sí misma.

Es decir, debe hacerse independiente del financiamiento e incrementar la cartera de clientes. Esto conlleva a aumentar el número de empleados, pues habrá más demanda en el volumen del trabajo, al crecer las ventas.

Es un punto importante en esta fase, gestionar técnicas de mercadeo para posicionarte en la mente de los clientes o consumidores.

Según sea el sector de la empresa y el crecimiento, es posible que necesites adquirir nuevos locales u oficinas. En esta fase un aspecto clave es que debes asegurar que el crecimiento sea sostenible. Puede ocurrir un crecimiento que luego decaiga, por razones diversas.

La madurez de la empresa

La tercera fase, y la más “deseada” por los empresarios, es la de madurez.

Una empresa madura ha alcanzado el éxito. Es una empresa estable. Los clientes son fieles porque tienes credibilidad y capacidades demostradas. Tienes personal que atiende la administración y parte o toda la gestión.

Para algunos, este período ocurre cuando logras alcanzar el máximo tamaño en el mercado. Lo que implica que compites, apoyado en una organización eficiente.

Esto implica además, que añades valor agregado a tus servicios o productos y desarrollas estrategias de innovación para mantenerte en el mercado ganado. E inclusive, para ir a nuevos mercados.

El empresario en esta etapa busca mantenerse, aplicando estrategias para adaptarse y no perder mercado o vigencia. Por supuesto, todo depende del sector al que pertenezca la empresa.

Hay sectores más volátiles que otros. En cualquier caso, el empresario debe aplicar algún tipo de vigilancia, para no perder mercado. Para algunos, lo difícil no es llegar a la fase de madurez, sino mantenerse allí.

La declinación de la empresa

Cuando tu empresa no logra mantenerse en esa atapa de la madurez, pasará a la etapa de la declinación. Esto se traduce en que “la empresa no anda bien”.

En esta etapa, la empresa comienza a perder participación en el mercado. Se debilitan los ingresos y se tienen problemas para mantener la infraestructura lograda. Es la declinación tal y como su palabra lo indica.

Esto puede pasar inclusive sin ser percibido a tiempo, cuando las empresas son complejas y la burocracia ha crecido de manera importante.

La liquidación de la empresa

De no implementar estrategias de posicionamiento, para llevar a la empresa a un “renacimiento”, llegará a la última fase del ciclo de vida: la liquidación.

La fase de la liquidación puede llegar por muchos motivos. Uno de ellos, una decisión adrede. Ocurre en empresas familiares, cuando la generación de relevo no se interesa por la continuidad de la empresa, por ejemplo.

En otros casos ocurre cuando la empresa agota todos los recursos que tenía para mantenerse operando y se ve en la necesidad de cerrar.

  • ¿Qué otras razones pueden llevar al cierre?
  • ¿Conoces casos en los que el cierre fue inevitable?

El relanzamiento de la empresa

Ahora bien, si como empresario logras, antes de llegar a la liquidación, reinventarte con nuevos productos o servicios, y así alcanzar nuevos mercados, estarás en una especie de renacimiento. Es el relanzamiento de la empresa.

Podría volver a crecer y llegar a la fase de madurez nuevamente. Y esto será, en la mayoría de los casos, por cambio de sector o una renovación tecnológica importante.

¿Conoces empresas que hayan logrado renovarse para evitar desaparecer? – Seguro que conoces unas cuantas.

En fin, como puedes ver por lo comentado, cada fase supone problemas y retos diferentes.

Como empresario, eres el único responsable de afrontarlos de la mejor manera. Para ello, requieres herramientas que te permitan prever situaciones y afrontarlas con buenas estrategias. Necesitas herramientas de gestión, desde la fase de crecimiento y, en particular, en la madurez.

De lo que si puedes estar seguro es que si aplicas planes de mejora y gestionas bien, saldrás airoso de cada problema que amenace la continuidad de la empresa.

Etapas de las empresas: nuestro enfoque

Si has leído artículos de nuestro blog, habrás visto que en muchos de ellos hacemos referencia a las etapas de una empresa. Y con seguridad, habrás notado que el enfoque es práctico.

El conocimiento no solo viene de teorías, también viene de la práctica. En este blog, apuntamos a eso, a la práctica. A la experiencia del día a día.

Acá nuestro vídeo clásico sobre las etapas de las empresas. ¡Vale la pena verlo! Duración: 13’ 14”.

Con las experiencias podemos acercamos y compartir aprendizajes para una gestión “fácil” de las empresas. Fácil acá se refiere a un enfoque práctico, concreto.

En la siguiente imagen verás las etapas de las que hablamos:

Veamos a qué corresponden estas etapas respecto al ciclo de vida comentado:

  • Nacimiento: idea + puesta en marcha
  • Crecimiento: funcionamiento regular + funcionamiento estable
  • Madurez: funcionamiento óptimo + empresa en expansión

Las fases de declinación, liquidación y relanzamiento no las modelamos. Esto es porque en toda empresa, la permanencia depende de la vigilancia de los gestores o empresarios. Y nos centramos en planes para que una empresa no desaparezca, o al menos, no decline.

Una empresa, estando en funcionamiento regular, estable, óptimo o en expansión, puede retroceder en cualquier momento. Puede entrar en un proceso de declinación y hasta desaparecer.

Este blog se centra en comentar cómo puedes pasar de etapa y mantenerte en la misma, sin declinar. Claro está, son muchos los escenarios, por los tipos de empresas y las condiciones particulares de cada una. Sin embargo, las experiencias comentadas ayudan a visualizar y de allí, a aprender.

¿En qué fase del ciclo de vida está tu empresa?

No solo queremos que pienses en qué fase del ciclo de vida está tu empresa. También es importante determinar en qué etapa está: ¿puesta en marcha, funcionamiento regular, estable, óptimo o en expansión?

Una forma de aproximarse a la respuesta es con base a lo siguiente:

  • E2. Puesta en marcha: aún no facturas. Estás con el papeleo y todo lo demás.
  • E3. Funcionamiento regular: facturas, pero no tienes capacidad para contratar personal. Sigues haciendo de todo.
  • E4. Funcionamiento estable: facturas, hay clientes recurrentes; ya tienes holgura para contratar personal y delegar la administración.
  • E5. Funcionamiento óptimo: todo marcha súper bien, la empresa es madura, utilizas herramientas de gestión. Puedes inclusive, delegar parte de la gestión de la empresa.
  • E6. Empresa en expansión: puedes acceder a otros mercados, crear nuevas empresas a partir de la actual, crear franquicias, crear productos o servicios para ir a océanos azules, etc.

Para finalizar, te dejo 3 preguntas para tu reflexión:

  1. ¿En qué etapa está tu empresa y cuánto tiempo lleva allí?
  2. ¿Está en una fase intermedia? Por ejemplo, ¿entre regular y estable?
  3. ¿Está estancada, no avanza?

Sobre los planes para avanzar entre etapas, seguiremos comentando y presentando experiencias.

Lecturas recomendadas:

¡Hasta pronto!

Publicado en Gestionar Fácil. Post original aquí.

Si te ha interesado este post, no olvides dejarnos tus comentarios. También apreciamos que los compartas con tus amigos y contactos en las redes sociales. Muchas gracias.

Share

Reseña del libro “Pensar rápido, pensar despacio” de Daniel Kahneman

por Alba Colominas Espinola

Pensar rápido, pensar despacio es un libro publicado el 2011 por el psicólogo Daniel Kahneman (Tel Aviv, 1934). En la actualidad, es profesor de Psicología en la Universidad de Princeton.

Especialista en psicología cognitiva, la principal contribución de Kahneman a la Economía consiste en el desarrollo, junto a Amos Tversky, de la denominada Teoría de las perspectivas (prospect theory), según la cual los individuos toman decisiones, en entornos de incertidumbre, que se apartan de los principios básicos de la probabilidad. A este tipo de decisiones las denominaron atajos heurísticos.

Kahneman ganó el Premio Nobel de… ¡Economía!

En el año 2002, conjuntamente con Vernon Smith, fue galardonado con el Premio Nobel de Economía por haber integrado aspectos de la investigación psicológica en la ciencia económica, especialmente por lo que respecta al juicio humano y a la toma de decisiones bajo incertidumbre.

Recientemente incluimos a Daniel Kahneman en nuestro ránking de los 12 psicólogos más influyentes en la actualidad. Siendo el único psicólogo que ha logrado ganar un Premio Nobel, su inclusión es más que merecida.

Pensar rápido, pensar despacio: una recopilación de sus principales ideas

En el libro Pensar rápido, pensar despacio, Kahneman sintetiza sus investigaciones sobre la forma de pensar de los seres humanos. El autor mantiene la tesis ampliamente aceptada en la psicología actual sobre los dos modos de pensamiento: el Sistema 1, rápido, intuitivo y emocional, y el Sistema 2, más lento, reflexivo y racional.

El primero proporciona conclusiones de forma automática, y el segundo, respuestas conscientes. Lo peculiar es que, en la mayoría de las ocasiones, no reflexionamos sobre cuál de los dos ha tomado las riendas de nuestro comportamiento.

Un libro dividido en cinco secciones temáticas

El libro se divide en cinco partes. En la primera parte presenta cómo funcionan los dos sistemas y cómo se producen los juicios y la toma de decisiones por parte de ambos. La segunda parte profundiza sobre la heurística de los juicios y hace especial hincapié sobre las dificultades del Sistema 1 para pensar estadísticamente. La tercera parte se centra en la incapacidad para reconocer la incertidumbre y nuestra propia ignorancia y la sobreestimación de aquello que creemos entender del mundo que nos rodea.

La cuarta parte profundiza sobre la naturaleza de las decisiones económicas y plantea la teoría de las perspectivas bajo la hipótesis de los dos sistemas. En la quinta parte del libro Kahneman realiza una distinción entre los que él llama “el yo que experimenta” (relacionado con el Sistema 2) y “el yo que recuerda” (relacionado con el Sistema 1). En ocasiones el objetivo de felicidad de ambos yo conduce a situaciones claramente contrapuestas.

Finalmente, y en una especie de conclusión, se examinan las implicaciones de las tres distinciones realizadas en el libro: el yo que recuerda frente al yo que experimenta, la toma de decisiones en la economía clásica frente a la toma de decisiones en la economía conductual, y el Sistema 1 frente al Sistema 2.

Varias consideraciones y reflexiones sobre este libro

Podemos considerar las hipótesis de partida de Kahneman sumamente originales y atractivas. A mi juicio, extiende los conceptos de Sistema 1 y Sistema 2 a la totalidad de procesos del pensamiento. Esta visión modeliza perfectamente la toma de decisiones del tipo “lo primero que se me ha pasado por la cabeza” frente a aquellas decisiones que tomamos después de haber reflexionado cuidadosamente. Podemos ver un ejemplo de ello en un sencillo problema que el mismo Kahneman plantea:

Un bate y una pelota juntos cuestan 1,10$

El bate cuesta 1$ más que la pelota

¿Cuánto cuesta la pelota?

La respuesta inmediata la da el Sistema 1:

La pelota cuesta 0,10$

Sólo una invocación al Sistema 2 nos dará la respuesta correcta.

El Sistema 1 y el Sistema 2, una sencilla forma de conceptualizar el pensamiento

Fisiológicamente hablando, podríamos incluso llegar a postular que las respuestas del Sistema 1 emergen directamente del sistema límbico, naturalmente transformadas y procesadas por las áreas neocorticales, mientras que las del Sistema 2 que implican un procesado más elaborado, (el intelectual-cognitivo-reflexivo) sólo se podrían llevar a cabo en las áreas corticales más modernas ubicadas en la zona cortical frontal prefrontal.

Esta consideración situaría el Sistema 2 como una estructura exclusivamente propia de los animales superiores, surgido evolutivamente como complemento al Sistema 1.

Críticas posibles a la obra de Kahneman

Las hipótesis de Kahneman podrían tacharse de excesivamente simplistas y un tanto antropocéntricas, pero a poco que reflexionemos, el análisis del comportamiento bajo este punto de vista permite explicar un gran número de reacciones observadas en el comportamiento humano en general y en particular, en los proceso de toma de decisiones que en mayor o menor medida se deben tomar siempre en entornos de incertidumbre.

Las descripciones de las distintas hipótesis que se plantean en el libro son, a mi parecer, excesivamente repetitivas y poco sintéticas (realmente podrían describirse en unos pocos párrafos) y el autor pretende demostrar su validez con la exposición, un tanto desordenada, de los resultados de un considerable número de experimentos, que no siempre parecen ser los más adecuados y algunos de los cuales no proporcionan argumentos demasiado consistentes.

Lamentablemente, Kahneman no profundiza demasiado en los procesos de gestación y nacimiento de las distintas hipótesis que presenta, procesos que probablemente facilitarían su asimilación por parte de los lectores.

Entre lo académico y lo comercial…

El libro parece concebido más como un libro de divulgación para el gran público (en la línea de un best-seller o de un libro de autoayuda) que como una obra científica. Los ejemplos, experimentos y casos particulares aparecen profusamente descritos, a veces de una forma un tanto caótica y desordenada y sin un hilo conductor demasiado definido, ilustrando diversos aspectos de las dualidades presentadas.

A pesar de su carácter divulgativo, el libro no está exento de rigurosidad científica. Todas las afirmaciones planteadas y cada uno de los experimentos están adecuadamente referenciados. Al final se incluyen todas las referencias bibliográficas, las notas del autor y también las conclusiones.

Lo más interesante: el estudio sobre el efecto ancla

Después de leerlo, uno no puede evitar sentirse a la vez identificado y sorprendido por algunos de los procesos mentales descritos en el libro. Parecen especialmente interesantes la aversión a la pérdida y el efecto ancla. En el primero, se nos muestra la tendencia natural de la gente a evitar perder antes que ganar beneficios. Esto lleva a la aversión al riesgo cuando se evalúa una posible ganancia, ya que entonces se prefiere evitar una pérdida a recibir un beneficio.

El llamado efecto ancla (o ‘efecto anclaje’) tiende a hacernos tomar como referencia la primera oferta (primer dato) que nos han dado, principalmente cuando no tenemos una información completa y certera. También es digno de resaltar el esfuerzo hecho por Kahneman por cuantificar numéricamente la intensidad del efecto ancla, cuantificación que no es fácil de realizar en la mayor parte de procesos psicológicos, El efecto ancla es ampliamente utilizado en entornos económicos de negociación o de marketing.

Un libro recomendado a profesionales y curiosos

En resumen, se recomendaría la lectura de este libro no tan solo a los profesionales de las ciencias psicológicas sino en general a cualquier persona interesada en conocerse un poco mejor a sí misma, profundizar en los procesos que determinan sus decisiones y dotarse de mecanismos que le permitan avanzar un paso más en el camino hacia su felicidad.

Publicado en Psicología y Mente. Post original aquí.

Si te ha interesado este post, no olvides dejarnos tus comentarios. También apreciamos que los compartas con tus amigos y contactos en las redes sociales. Muchas gracias.

Share

La importancia de la voluntad

Por Manel Muntada Colell

Durante años hemos creído que la clave del cambio está en el hecho de tener un buen plan, con unos objetivos racionales que se desprendan de la lógica de un análisis concienzudo y de una métrica precisa.
Disponer de un plan así, genera todavía aquella confianza que sólo las matemáticas despiertan y el convencimiento compartido de tener entre manos algo profesional y serio, casi científico. Esta creencia, nos ha llevado hasta el momento actual.
Pero, sin mencionarlo, siempre hemos sabido que el cambio solo sucede si las personas quieren cambiar. Que, si un objetivo no se desea, no se persigue con la intensidad suficiente. Que sin voluntad no hay cambio, porque el cambio no se realiza desde la intelectualidad ni el diseño, sino desde la voluntad de querer cambiar. Que esta voluntad puede ser estimulada por un plan pero que emana del mismo centro de la persona. En resumen, que a más voluntad más posibilidad de cambio, haya un plan o no.

Aun así, algunas personas siguen evitando cualquier situación que reclame habérselas con la incertidumbre, aferrándose a la simplicidad del dato, a un vocabulario libre de conceptos vaporosos y a la solidez racional del andamiaje lógico de un plan estructurado en misión, visión, líneas, objetivos, acciones e indicadores, muchos indicadores.

Nadie dice que esto no sea útil o importante, sólo que, de poco sirve si el propósito es, realmente, hacer efectivo el cambio. Para ello hace falta habérselas con la incertidumbre y abocar atención y esfuerzo en sumar intangibles como lo es la voluntad de la persona para erigirse en agente, ejemplo y motor del cambio.

A pesar de esta inercia que empuja a acomodarse en los cánones tradicionales, el momento actual reclama una nueva manera de enfocar el cambio que ponga en el centro a la persona, es decir, que la empodere para hacerla sujeto principal del cambio.

El cambio hacia un modelo basado en la salud [y no en la enfermedad], la transición hacia modelos de consumo energético limpios y más sostenibles, el cambio de paradigma de la formación al de la persona que aprende, la integración de la ciudadanía en el mantenimiento y cuidado de los espacios verdes y de la biodiversidad de su ciudad, la generación de escenarios de participación para fomentar la inteligencia colectiva e implicar a las personas haciéndolas propietarias de la proyección estratégica de su organización, etc., todos ellos son ejemplos muy actuales que emanan del convencimiento básico de que el verdadero motor del cambio no es otro que la voluntad de la persona de querer hacerlo, de que esta voluntad cobra su forma real, cuando ella misma es el ejemplo vivo del cambio que quiere provocar y de que hay que apostar por ello.

Esta imagen de voluntad y fuerza por variar el cursos de las cosas, corresponde a una pintura de Julien Dupré que lleva por título “Au pâturage” [1882]

Publicado en CumClavis. Post original aquí.

Si te ha interesado este post, no olvides dejarnos tus comentarios. También apreciamos que los compartas con tus amigos y contactos en las redes sociales. Muchas gracias.

Share

Cómo influyen los sentimientos en la toma de decisiones

por Eva Maria Rodríguez

Seguro que no te suena a nuevo esto de que los sentimientos influyen en la toma de decisiones. ¿Cuántas veces te has arrepentido de tomar una decisión en un determinado estado emocional? Probablemente te hayas dado cuenta de que eres más propenso a correr riesgos cuando te sientes feliz, mientras que la tristeza te provoca el efecto contrario.

Tomar decisiones cuando estamos enfadados no suele dar buenos resultados, ni tampoco si la decisión se toma en un estado de euforia. Pero, ¿sabes realmente cómo influyen tus sentimientos en tus decisiones?, ¿alguna vez te has dejado llevar por la primera impresión para decidir?, ¿eres consciente de hasta qué punto tus emociones son manipulables para “ayudarte” a tomar decisiones”?

“El gran valor de saber cómo entregarnos es que todos y cada uno de los sentimientos se pueden dejar en cualquier momento y en cualquier lugar en un instante, y puede hacerse continuamente y sin esfuerzo”

-David R Hawkins-

El afecto heurístico y la toma de decisiones

El afecto heurístico es un atajo mental que permite a las personas tomar decisiones y resolver problemas de forma rápida y eficiente. En este proceso influye la emoción (miedo, placer , sorpresa, etc.), es decir, la respuesta emocional afecta a la decisión, jugando un papel principal en la toma de decisiones.

Se trata de un proceso que funciona por debajo de la conciencia y que acorta el tiempo de toma de decisiones, permitiendo a las personas funcionar sin tener que realizar una búsqueda exhaustiva de la información. Esta forma de actuar se produce rápida y involuntariamente en respuesta a un estímulo, por lo que el proceso afecta al estado de ánimo durante un periodo corto de tiempo.

El afecto heurístico surge normalmente mientras juzgamos los riesgos y beneficios de algo, dependiendo de los sentimientos positivos o negativos que asociamos a con un estímulo. Es el equivalente a actuar según dicte tu corazón.

Los investigadores han encontrado que si tus sentimientos hacia algo son positivos, entonces es más probable que juzgues minusvalores los riesgos y sobrestimes lo beneficios, mientras que si sus sentimientos hacia una actividad son negativos serás más propenso a sobrestimar los riesgos como altos y minusvalorar los beneficios.

Algunos ejemplos del afecto heurístico

Para ver cómo funciona el afecto heurístico vamos a ver algunos ejemplos prácticos. El primer ejemplo es tan evidente que parece muy simple. El segundo, tal vez no lo sea tanto.

Para empezar, imagina una escena en la que dos niños van a jugar a un parque. Uno de los niños ha jugado durante mucho tiempo en los columpios en la casa de sus abuelos y, como los quiere mucho y se ha divertido con ellos, tiene sentimientos positivos hacia los columpios del parque y, cuando los ve, de inmediato toma la decisión de ir a los columpios porque considera que se va a divertir a pesar de los riesgos que conlleva caerse del columpio (alto beneficio, poco riesgo) y corre hacia ellos.

Sin embargo, el otro niño recientemente se cayó de un columpio mientras jugaba en otro lugar y se hizo mucho daño. Este niño, al ver los columpios, considera que estos son una mala elección (poco beneficio, gran riesgo). Ambos niños han tomado una atajo mental para decidir sobre las ventajas y las desventajas de montar en los columpios.Ninguno de los dos se ha parado a intentar valorar de manera realista todos los beneficios y riesgos, sino que han tomado su decisión en base a un recuerdo.

Esto que parece tan simple y tan evidente en un niño, también lo hacemos los adultos en multitud de situaciones en las que, si pensáramos de forma reflexiva dedicándoles un poco de tiempo, tomaríamos otro tipo de decisión con la que estaríamos más conformes después.

En estas decisiones, la heurística afectará a la determinación de lo que se consideran ventajas y desventajas. Si bien esos atajos mentales permiten a las personas para hacer rápida y con frecuencia razonablemente decisiones precisas, sino que también puede conducir a una mala toma de decisiones.

Como ejemplo, piensa en la publicidad. En las técnicas de marketing empleadas en los establecimientos comerciales o por los comerciales de venta, así como en la publicidad se utilizan estrategias que te hacen sentir bien, que despiertan tus emociones positivas, que hacen alusión a tus pasiones o te presentan un modo de vida con el que te identificas o que te gustaría seguir.

Eso hace que seas mucho más receptivo a la hora de comprar o pagar más por los productos y servicios que te ofrecen. De hecho, funciona hasta tal punto que nos se podemos sentir inclinados a comprar productos pensando que cubren una necesidad que realmente no tenemos. Incluso no poder acceder al objeto que cubre la supuesta necesidad puede llegar a generarnos ansiedad.

Algunas observaciones científicas

La investigación ha demostrado que los riesgos y beneficios tienen una correlación negativa en la mente de las personas. Las investigaciones han revelado que las personas realizan sus juicios sobre una actividad o una tecnología no solo por lo que piensan al respecto, sino también por cómo se sienten al respecto.

Un estudio realizado en 1978 por Lichtenstein y colaboradores arrojó mucha luz sobre el importante papel que el afecto heurístico tiene en la toma de decisiones. Los investigadores descubrieron que los juicios de los beneficios y riesgos fueron negativamente correlacionados.

Es decir, encontraban que las personas menospreciamos el riesgo a medida que tenemos una visión más optimista de los beneficios. Lo mismo ocurre al revés, cuanto mayores pensamos que son los riesgos peor valoramos a los posibles beneficios.

Se observó que ciertos comportamientos, como el consumo de alcohol y el tabaquismo, fueron valorados como de alto riesgo y de bajo beneficio, mientras que otros, como el consumo de antibióticos o las vacunas, fueron considerados de alto beneficio y bajo riesgo.

Un poco más tarde, en 1980, Robert B. Zajonc argumentó que las reacciones afectivas a los estímulos son a menudo la primera reacción que se produce de forma automática y, posteriormente, que influye en la forma en que se procesa y juzga la información.

En el año 2000, Finucane y otros teorizaron que un sentimiento positivo hacia una situación (es decir, el afecto positivo) conduciría a una menor percepción del riesgo y a una percepción de mayor beneficio, aun cuando esto lógicamente no esté justificado para esa situación.

Sea como fuere, los seres humanos estamos lejos de ser la máquina racional que algunos aspiran a ser. Lo queramos o no, nuestra mente está preparada y predispuesta para tomar las decisiones de manera rápida y utilizando solo una parte de la información. De hecho, muchas veces tomamos decisiones antes de darnos cuenta de que las hemos tomado y seguimos dándole vueltas y vueltas al algo que para nosotros ya tiene un destino: el que nosotros hemos elegido.

Publicado en La Mente es Maravillosa. Post original aquí.

Si te ha interesado este post, no olvides dejarnos tus comentarios. También apreciamos que los compartas con tus amigos y contactos en las redes sociales. Muchas gracias.

Share

Asegurar resultados en tiempos de incertidumbre

por Maria Sanchez

Si hay algo seguro en los negocios es la incertidumbre. Con todo, existen empresas que actúan con confianza y excelencia a pesar de las circunstancias cambiantes de su entorno. La crisis actual económica es el mejor ejemplo de algo que hace cinco años casi nadie tenía previsto. A pesar de todo, hay empresas que consiguen obtener resultados excelentes. ¿Cómo lo hacen? Stephen R. Covey, uno de los “filósofos del management” más reconocidos del mundo nos da las claves y en Muy Pymes tomamos nota.

Hemos convertido su último libro ‘Asegurar resultados en tiempos de incertidumbre’ en manual de cabecera por unos días y estos son los cuatro puntos clave que hay que tener en cuenta para conseguir no decaer en tiempos de crisis.

  1. Ejecución excelente: Las empresas ganadoras se marcan metas sencillas, con objetivos claros, que mantienen hasta el final. Todos los miembros saben qué hacer para alcanzar los objetivos y lo ejecutan con precisión.
  2. Altos niveles de confianza: La baja confianza desanima e incrementa los costes especialmente en períodos tumultuosos. Pero cuando los niveles de confianza aumentan todo se acelera y los costes se reducen.
  3. Conseguir más con menos. En tiempos duros todo el mundo intenta hacer más con menos ¿qué es lo que debe hacerse, y cómo? Las compañías líderes se centran en aportar más valor, no solo en rebajar costes.
  4. Transformar el miedo en compromiso. Los tiempos de incertidumbre generan ansiedad que nos distrae cuando más necesitamos concentrarnos. Las organizaciones ganadoras dan confianza a las personas ofreciéndoles una misión y una estrategia en la que puedan creer, canalizando su ansiedad hacia la óptima consecución de los resultados.

Estos principios pueden ayudar a las empresas a ganar a pesar de las turbulencias del camino o del shock del cambio abrumador.

Publicado en Muy Pymes. Post original aquí.

Si te ha interesado este post, no olvides dejarnos tus comentarios. También apreciamos que los compartas con tus amigos y contactos en las redes sociales. Muchas gracias.

Share

La gestión de la incertidumbre: Nuevo Management

por Jesús Lázaro

Situación:
Los enormes cambios tecnológicos, que se están produciendo de manera exponencial en la sociedad, empujan a cambios económicos que a su vez arrastran a cambios sociales y también afectan a las leyes que deben de marcar sus límites de actuación.
Un claro ejemplo de esta situación es la nueva tecnología de drones. Sus posibilidades son enormes, sus aplicaciones casi infinitas, desde vigilancia y control de líneas de alta tensión, vigilancia de zonas nucleares, etc. hasta búsqueda de personas desaparecidas en zonas inaccesibles para las personas e incluso entrega a domicilio de mercancías de pequeño tamaño. El entorno económico ya ha asumido la utilización de esta tecnología y sin embargo, la introducción de esta tecnología ha sido tan rápida, que el entorno legal para su gestión, todavía no se ha desarrollado.
La no disponibilidad de leyes frena el desarrollo de la tecnología y su aplicación.
¿Podemos esperar?
La respuesta es “no”. Veamos por qué:

Los cambios se producen actualmente al ritmo de la curva B, por tanto para asimilar la misma cantidad de cambio y toma de decisiones que en la curva A, solo tenemos un tiempo T´´, en vez del tiempo T´, asociado a cambios más lentos en la sociedad.
La pregunta que debemos hacernos entonces es hasta cuando nos sirven las clásicas leyes del Management si el tiempo se convierte en un factor crítico de éxito?
La nueva situación provocada por cambios constantes y rápidos, nos obliga a actualizar algunas de las leyes clásicas del Management. En esa actualización, el tiempo se convierte en un factor fundamental.
Puedes tener una estrategia maravillosa pero si el tiempo en el que la aplicas no es el adecuado, el fracaso está asegurado.
Veamos un ejemplo:

En la figura vemos la caída de las ventas de cámaras digitales de fotos, que a su vez habían destronado del mercado a las cámaras de fotos analógicas, provocada por la aparición de los smartphone que permiten obtener fotos de una calidad similar y además enviarlas de manera inmediata a cualquier lugar del mundo.
Vemos que en poco menos de tres años, empresas como Nikon, Olympus, etc. han sufrido enormes pérdidas de mercado que, evidentemente, han afectado a su rentabilidad, cuando no han provocado su desaparición como le ocurrió a Kodak.

Nuevo enfoque estratégico:
Las clásicas estrategias de diferenciación y coste, desarrolladas por Michael Porter (profesor de la Universidad de Harvard), parecía que eran excluyentes. Sin embargo Chan Kim y Renée Mauborgne (profesores de la escuela de negocios Insead) han desarrollado un nuevo enfoque estratégico denominado Blue Ocean Strategy o estrategia del océano azul, que integra diferenciación y coste al mismo tiempo.
Hay empresas que están aplicando esta estrategia, como Amazon, Google, entre otros, y están obteniendo excelentes resultados.
Estas empresas, además tienen en cuenta el factor tiempo. La implantación de nuevas innovaciones en su modelo de negocio es rápida y eficaz, lo que les permite estar varios pasos por delante de la competencia, que es una de las ventajas que ofrece el Máster en Dirección de Empresas MBA de la Universidad de Vic-Universidad Central de Catalunya.

Gestión de la incertidumbre:
La vida media de una empresa del índice S&P500 en los años 30, era de más 75 años. Ahora, por ejemplo, el 50% de las 500 empresas más grandes de Fortune han desaparecido en los últimos 25 años.
La incertidumbre, como el cambio, es una constante. Además son dos elementos asociados ya que a mayores cambios, mayor nivel de incertidumbre.
Los gestores deben de tener en cuenta que la gestión de la incertidumbre forma parte y es un elemento clave en sus tareas y responsabilidades. Y tendrán que anticiparse los cambios observando el mercado, adaptarse a los mismos y si es posible, provocarlos.
Para ello no es necesario ser una empresa grande. Muchas de las grandes empresas actuales que tienen más éxito, nacieron hace muy poco tiempo en un pequeño garaje, similar al portal de Belén, pero su tecnología y modelos de negocio disruptivos han provocado enormes cambios económicos y sociales
Como decía el gurú del management Peter Drucker “La mejor manera de prever el futuro es creándolo”

Publicado en Universitar de Vic. Post original aquí.

Si te ha interesado este post, no olvides dejarnos tus comentarios. También apreciamos que los compartas con tus amigos y contactos en las redes sociales. Muchas gracias.

Share

Toma de decisiones bajo riesgo e incertidumbre (parte 2)

por Iván José Turmero Astros

Continuación de este post.

.

Para elaborar pronósticos se pueden encontrar dos grandes clases de modelos: causales y de series de tiempo. Los primeros tratan de encontrar las relaciones de causalidad entre diferentes variables, de manera que conociendo o prediciendo alguna o algunas de ellas, se pueda encontrar el valor de otra. En el segundo caso no interesa encontrar esas relaciones, sino que se requiere solamente encontrar los posibles valores que asumirá una determinada variable. En todos los casos siempre se hace uso de la información histórica, ya sea para predecir el comportamiento futuro o para suponer que el comportamiento histórico se mantendrá hacia el futuro y sobre esta base hacer los estimativos.

Se debe tener presente que no existe ningún método de pronóstico infalible; lo que hacen estos procedimientos es estimar un valor posible, pero siempre sujeto a errores. Si el fenómeno que se va a pronosticar fuera determinístico, sólo bastaría utilizar la ley matemática que lo rige y predecir con exactitud el resultado; este sería el caso de fenómenos físicos, como por ejemplo la caída libre de un cuerpo. En el proceso de toma de decisiones se involucra el comportamiento humano, por ejemplo, a través de las decisiones de los individuos a quienes está dirigida un determinado producto o servicio; las decisiones del mercado están compuestas por muchísimas decisiones individuales, imposibles de predecir con exactitud.

La mayoría de los datos incluyen combinaciones de estas tendencias y se deben generar procedimientos para separarlos. Existen otras clases de pronósticos denominados cualitativos o de pronóstico tecnológico, tales como el Método Delphi.

  • Método delphi

Este método busca, a través de múltiples rondas o iteraciones donde se comparte la información, encontrar consenso sobre valores o escenarios posibles. Se hace énfasis en que no hay un método de pronóstico perfecto, aunque se podría construir un modelo que ajuste perfectamente los datos que se tienen de un fenómeno; sin embargo, esto no es recomendable puesto que el elemento aleatorio o de error siempre estará presente y será impredecible y es mejor identificar los patrones predecibles y asumir el error que se presente que tratar de introducir en el modelo el elemento error que, se repite, es completamente impredecible e inevitable. En otras palabras, cualquier estimativo implica un cierto grado de error inevitable.

  • Métodos de los mínimos cuadrados

Se considera el mejor método aquel que minimiza la suma de los cuadrados de los errores (diferencias entre el valor estimado y el observado).

  • Métodos de suavización

Dentro de los métodos de suavización se pueden considerar tres categorías: a) Promedios móviles, b) suavización exponencial y c) otros.

Promedios móviles

Esta técnica consiste en tomar un grupo de valores observados, calcularle el promedio y utilizarlo como pronóstico para el siguiente período. Sólo sirve para pronosticar un sólo período: el siguiente. Se debe especificar el número de observaciones que se tomarán; se llama móvil porque siempre se toman las N últimas observaciones para hacer el pronóstico. Se pueden considerar promedios móviles simples y promedios móviles lineales. En el primer caso se toman los N últimos datos y se calcula el promedio; en el segundo caso se construyen además promedios de los promedios y con ellos se establece una ecuación lineal que permite elaborar el pronóstico.

Este método puede utilizarse cuando se sabe que los datos son estacionarios. La ventaja sobre el promedio total es que permite ajustar el valor de N para que responda al comportamiento de los datos.

Suavización exponencial:

Existen muchos métodos de suavización exponencial: simple, de tasa de respuesta de adaptación, método de Brown de un solo parámetro, método de Holt de dos parámetros, método cuadrático de Brown, etc. Aquí se considerarán un método de suavización: suavización exponencial simple.

El suavización exponencial simple consiste en asignar un peso a la última información (dato) disponible y al último pronóstico, el cual, a su vez, contiene la información pasada, así:

F t+1 = aX t + (1- a) F t

Para F 2, se tiene:

F 2 = F 1

Otra forma de expresar el pronóstico es:

F t+1 = F t + e

Donde e es el error incurrido en el último pronóstico.

  • Métodos de tendencia

Uno de los métodos más conocidos, pero también de los más mal utilizados es la regresión lineal. En cualquier curso de Presupuesto es tema obligado. Sin embargo, como se mencionó, se tiende a utilizar mal este procedimiento. En cualquier caso en que se utilice un modelo, es necesario validarlo: esto es, verificar si los supuestos del modelo coinciden con la realidad. Y esto no es lo que hace la mayoría de los usuarios.

La regresión lineal implica por lo menos, distribución normal de los errores de la variable dependiente, que no están correlacionados y para utilizarlo con validez estadística, además debe contarse con un tamaño de muestra n de por lo menos 30 datos históricos. Un supuesto obvio es que la tendencia observada de los datos puede ser descrita por una recta. Sin embargo, este supuesto se puede obviar haciendo las substituciones necesarias, por ejemplo, si se considera que una variable tiene un comportamiento exponencial (no lineal), estos datos podrían “linealizarse” calculando el logaritmo de los datos y proyectar el logaritmo. Después se halla el antilogaritmo y esa sería la proyección.

La idea de la regresión lineal es hallar una recta que cumpla con un requisito básico común para muchos métodos de pronóstico: la suma de los cuadrados de la diferencia entre el valor estimado y el observado es mínima. Por eso se llama también método de mínimos cuadrados. En general, se trata de encontrar (en el caso de la regresión lineal), una recta que cumpla esa condición y que se expresa así:

Y = a + b1X1 + b2X2 + b3X3+…+bnXn + e

Donde

Y = variable dependiente

Xj = variable independiente

e = error

a = intersección con el eje de las abscisas (y)

bj = coeficiente de cada variable Xj

El caso particular de una variable independiente la “fórmula” será:

Y = a + bX + e

  • Métodos de descomposición

Un método de pronóstico es el de descomposición, para analizar series de tiempo. Un paso importante en el proceso de determinar el método de series de tiempo adecuado es considerar los diferentes patrones que se encuentran en los datos. Se pueden identificar cuatro patrones típicos: horizontal o estacionaria, estacional, cíclico y de tendencia.

  • Se presenta un patrón horizontal o estacionario (H) cuando los datos fluctúan alrededor de un valor promedio constante. Las ventas que no aumentan ni disminuyen con el tiempo, es un ejemplo de este tipo de comportamiento.
  • Se presenta un patrón estacional (E) cuando los datos están afectados por factores que se repiten con cierta frecuencia (trimestral, mensual o en determinadas fechas, por ejemplo, Navidad, Semana Santa, etc.).
  • Un patrón cíclico (C) se presenta debido a efectos económicos de largo plazo y generalmente asociados con el ciclo económico. La construcción de vivienda puede ser un ejemplo de este tipo.
  • Un patrón cíclico (C) se presenta debido a efectos económicos de largo plazo y generalmente asociados con el ciclo económico. La construcción de vivienda puede ser un ejemplo de este tipo.

Los métodos de descomposición suponen que los datos contienen patrones estacionales, cíclicos y de tendencia; una función que representa esta relación puede ser la siguiente:

Dato = patrón + error = f (tendencia, estacionalidad, ciclo) + error

X t = f(T t , E t , C t , Er t )

Donde:

X t es el dato al período t.

T t es el componente de tendencia en el período t.

E t es el componente o índice de estacionalidad del período t.

C t es el componente cíclico del período t.

Y Er t es el error del período t.

El procedimiento general para aislar los diversos componentes es el siguiente y se aplica a los diferentes métodos de descomposición.

1) Con los datos disponibles calcule el promedio con un N igual a la longitud de la estacionalidad (12 meses, 6 meses, 4 trimestres, o 7 días, por ejemplo). Con esto se elimina la estacionalidad y el error, por lo tanto en el promedio móvil se encuentra sólo la tendencia y el ciclo. A esto lo llaman algunos desestacionalizar la serie de datos.

2) Separe el resultado del promedio móvil de los datos. Lo que queda es la estacionalidad y el error.

3) Aísle los factores estacionales promediándolos para cada período que constituyen el período completo de estacionalidad (cada mes, semestre o trimestre, por ejemplo).

4) Identifique la forma de la tendencia con los resultados de (lineal, exponencial, etc.) y calcule su valor para cada uno de los períodos para los cuales se tienen datos.

5) Separe el resultado de 4) de los resultados de 1) para obtener el factor cíclico.

6) Separe la estacionalidad, la tendencia y el ciclo de los datos para obtener el error.

Este método es útil cuando se considera que existe una tendencia y estacionalidad. La estacionalidad se puede identificar en los datos si se observan ciertos “picos” o “baches” en los datos con regularidad; por ejemplo, si encuentra que el consumo de gaseosa es siempre mayor en los días sábados y domingos y menor en los días jueves, se podría sospechar que existe una estacionalidad asociada a esos días de la semana. Por otro lado, se puede llegar a la conclusión acerca de la existencia de la estacionalidad deduciéndola a partir del comportamiento del negocio; por ejemplo, antes de examinar cualquier dato, se podría pensar que la venta de juguetes o de calendarios y agendas va a presentar picos en los tres últimos meses del año. Obsérvese que se habla de estacionalidad cuando los períodos de análisis son menores de un año. Por ejemplo, semestres, trimestres o meses en relación con un año; quincenas, décadas o semanas en relación con mes; días de la semana con relación a la misma. Esto es, si los datos son anuales, por ejemplo, no tiene sentido pensar en la existencia de un patrón estacional. Uno de los modelos de descomposición más utilizados es el multiplicativo, o sea,

X t = T t x E t x C t x Er t

Donde:

Xt es el dato real en período t

Tt es el valor de la tendencia en período t

Ct es el valor del factor de ciclo en período t

Ert es el error en período t

Al aplicar los seis pasos propuestos se tiene:

1) y 2) Calcule el promedio móvil y aísle los factores estacionales:

Mt = Tt x Ct

Donde Mt es el promedio móvil en período t

La expresión anterior aísla la estacionalidad y el error.

3) El siguiente paso es eliminar el error de los valores obtenidos con la última expresión. Los modelos clásicos de descomposición utilizan el enfoque del promedio medial. Para calcular el promedio medial se toman todos los datos de promedio móvil para cada período (mes, trimestre, etc.) y se eliminan los valores extremos, con los datos restantes se calcula el promedio. Los datos obtenidos para cada período se ajustan al 100% multiplicando el promedio medial por 100x número de períodos/suma de todos los promedios mediales 4) y 5) Los pasos finales es el de calcular la tendencia y separarla del ciclo. Se identifica el patrón de la tendencia y se calcula el valor de ella para cada uno de los períodos para los cuales se tienen datos. La tendencia se calcula a partir de los datos Mt. En este modelo se elimina así: donde a,b,c… son las constantes de la regresión y t es el período correspondiente.

6) Con estos factores, estacionalidad, tendencia y ciclo, se puede estimar el error.

Método de determinación a través de las probabilidades subjetivas

Es importante precisar que lo subjetivo no implica arbitrariedad. Así, por ejemplo, si hoy al salir por la mañana se observa que el cielo está cubierto, entonces se saldrá preparado para la lluvia. Subjetivamente, aunque no en forma arbitraria, se está asignando una probabilidad alta al evento lluvia. Y no es arbitrario porque es el resultado de la información con que se cuenta, la cual permite hacer un estimativo subjetivo, no arbitrario, de la probabilidad de tener un día lluvioso.

Hecho esto se debe hacer una verificación de consistencia interna con la percepción de la o las personas que están haciendo la estimación subjetiva de la distribución de probabilidad. Una aproximación podría ser verificar si los valores asignados a cierto intervalo, por ejemplo, de 0 a 34,999, debe tener o no una probabilidad igual al intervalo 35,000 a 44,999 y así para todas las posibilidades. Tratar de definir el punto del intervalo que hace indiferente a la persona entre ese valor y una unidad más o una unidad menos, tiende a ser difícil en la práctica; sin embargo, siendo menos riguroso el método, se podría intentar establecer sub-intervalos iguales y hacer las verificaciones respectivas.

Una alternativa para estimar casos concretos de probabilidades subjetivas es a partir de los datos máximo, mínimo y más probable de una determinada variable. Con esta información se pueden hacer estimativos de los parámetros de algunas distribuciones, por ejemplo:

Donde:

X min = Estimativo del mínimo valor que puede tomar la variable X

X máx. = Estimativo del máximo valor que puede tomar la variable X

X p = Estimativo del valor más probable que puede tomar la variable X

= Desviación estándar de la variable X

Estos estimativos pueden ser adecuados para distribuciones normales o distribuciones llamadas Beta utilizadas en los análisis de redes tipo PERT(Project Evaluation Review Technique).

Las probabilidades subjetivas cumplen las mismas reglas que las probabilidades objetivas y pueden ser utilizadas operacionalmente en la misma forma que las segundas.

Método de determinación de los estimativos a través de encuestas

Se presenta un ejemplo simple de cómo determinar probabilidades a partir de la información de una encuesta que contiene información subjetiva, para hacer estimativos de demanda. Parte de una encuesta a los elementos de una muestra de 200 clientes potenciales, para un determinado producto.

La encuesta precisaba varios factores de compra: 1) Deseo de comprar el producto. 2) Tiempo en que se compraría el producto. 3) Actitud de las esposas ante la decisión de compra. 4) Preocupación de que el producto utilizará energía atómica. 5) Actitud del decisor ante el precio.

Los resultados del primer punto fueron:

Respuesta Número Porcentaje

Definitivamente comprarán 10.5

Más probable que compren a que no compren 70 35

No es probable que compren 120 60

Una encuesta realizada anteriormente indicaba que con un producto similar, solo el 46% de quienes habían afirmado que comprarían, efectivamente compraron. Esta información ayuda a estimar unos pesos o ponderaciones. Con los resultados a la mano, se procedió a asignar ponderaciones a las diferentes respuestas (en este proceso se podría utilizar el Método Delphi), así:

Para el factor 1,

Respuesta Ponderación

Definitivamente comprarán 1.0

Más probable que compren a que no compren 0.4

No es probable que compren 0.0

Para el factor 2,

Respuesta Ponderación

En 3 meses 1.0

Entre 3 y 6 meses 0.8

Entre 6 y 12 meses 0.6

Para el factor 3,

Respuesta Ponderación

La esposa no opina 1.0

La esposa opina y desea el producto 1.0

La esposa opina pero prefiere a la competencia 0.6

Para el factor 4,

Respuesta Ponderación

No le preocupa el uso de energía atómica 1.0

Muestra preocupación por el uso de energía atómica 0.4

Para el factor 5,

Respuesta Ponderación

Precio dentro del presupuesto 1.0

Precio más alto que el presupuesto 0.3

Precio más bajo que el presupuesto 0.8

De acuerdo con los resultados del primer punto, o sea la pregunta sobre si comprarán o no el producto, el mercado potencial era de 40% (355 que respondieron más probable que compren), compuesto por 35% que respondió más probable que compren, más 5% que respondió que definitivamente comprarían; considerando las ponderaciones de los diversos factores, se llega a un nuevo estimativo de 19%, teniendo en cuenta solo el primer factor. (10×1+70x.4=38 y 38/200=.19)

¿Cómo se utilizarían estos pesos o ponderaciones en la estimación total? Cada Encuestado se ponderaría por la forma en que hubiera respondido así: Si el encuestado responde “bien” a todas las preguntas equivaldría a 1(1x1x1x1x1). Si por el contrario responde así:

Factor Respuesta Ponderación

1 1 1.0

2 2 0.8

3 2 1.0

4 2 0.4

5 1 1.0

Al efectuar la “Ponderación “de esas respuestas se hallaría que equivale a 0.32. Esto se repite para cada una de las encuestas y se suma; el resultado total expresaría una cifra representativa del mercado potencial. Si por ejemplo, esta suma resultara ser de 11.9, se tendría un estimativo del mercado que realmente compraría el producto de 5.95% (11.9/200).

Algunos pueden objetar la validez de hacer estimativos que no pueden ser “probados” o “demostrados” a priori y que por lo tanto la decisión podría estar tan errada como suponer la certeza de un solo estimativo. Lo cierto es que es mucho más razonable examinar varias posibilidades planteadas por expertos, que pensar que el futuro es determinístico y basar el análisis en un solo dato.

Se dice también que quienes responden una encuesta, no saben realmente cuál va a ser su comportamiento futuro y que esto es válido en cualquier dirección (los que dicen sí y los que dicen no) y que por lo tanto, cualquier intento que se haga en ese sentido, será un esfuerzo inútil. Esto indica una actitud derrotista que llevaría a la conclusión de que no se podrían tomar decisiones a menos que existiera certeza absoluta sobre el futuro. No debe olvidarse que el problema básico del decisor, es tomar decisiones con consecuencias irreversibles, con información incompleta.

La realidad es que el mundo sigue su curso. El hombre es el motor y tiene que tomar decisiones, con o sin información, completa o incompleta, confiable o no. Y mientras tanto habrá que buscar formas que despejen la incógnita del futuro y las que se presentan en este capítulo y otras de la literaturaexistente, son aproximaciones a la solución del problema.

Cómo tomar decisiones con información probabilística:

Una vez se ha obtenido la probabilidad de que un proyecto es bueno o malo, poco se puede decir sobre el curso de acción que debe emprender el decisor, puesto que es el individuo en forma subjetiva quien decide si una probabilidad de fracaso es alta o baja. O sea que el decisor deberá discernir en forma subjetiva si un proyecto con una determinada probabilidad de fracaso de considerase aceptable o no; hecha esta escogencia para proyectos mutuamente excluyentes se debe proceder a seleccionar el mejor. ¿Qué decir entonces de un proyecto con VPN esperado de $10,000,000 con probabilidad de fracaso de 10% comparado con un proyecto de $20,000,000 de VPN esperado pero con 15% de probabilidad de fracaso? Para estos casos se puede sugerir el siguiente procedimiento heurístico (no siempre escoge el mejor): se debe seleccionar el proyecto con mayor Coeficiente de Variación Probabilístico (CVP).

Problemas

1) Una encuesta de viviendas incluyó una pregunta sobre el número de automóviles, N, actualmente poseídos por gente que vive en residencias y la tasa de interés, i, sobre el préstamo de tasa más baja para los autos. Los resultados para 100 viviendas se muestran a continuación:

Número de autos, N

0

1

2

3

(4

Viviendas

12

56

26

3

3

Tasa de préstamo, i

0.00-2

2.01-4

4.01-6

6.01-8

8.01-10

10.01-12

Viviendas

22

10

12

42

8

6

(a) Determine si cada variable es discreta o continua y diga por qué.

(b) Elabore gráficas de las distribuciones de probabilidad y de las distribuciones acumulativas para i.

(c) De la información obtenida, ¿cuál es la probabilidad de que una vivienda tenga 1ó 2 autos?, ¿Tres o más autos?

Solución:

a) El número de autos (N) es una variable discreta, al igual que el número de viviendas, debido a que nadie puede tener un número fraccional de carros ni viviendas. Por otra parte, la tasa de préstamo es una variable continua, ya que puede asumir valores fraccionales.

b)

Número de autos

Viviendas

P

F

0

12

12

12

1

56

56

68

2

26

26

94

3

3

3

97

(4

3

3

100

Monografias.com

Tasa de préstamo

Viviendas

P

F

0.0-2

22

22

22

2.01-4

10

10

32

4.01-6

12

12

44

6.01-8

42

42

86

8.01-10

8

8

94

10.01-12

6

6

100

Monografias.com

Monografias.com

c) La probabilidad de que una vivienda tenga dos o más autos es:

P (N = 1 ó N = 2) = P (N = 1) + P (N=2) = 0,56 + 0,26 = 0,82 = 82%

La probabilidad de que una vivienda tenga tres o más autos es:

P (N ( 3) = P (N = 3) + P (N ( 4) = 0,03 + 0,03 = 0,06 = 6%

2) Un funcionario de la firma State Lottery Commission ha obtenido una muestra de los compradores de billetes de lotería durante un periodo de 1 semana en una localidad. Las cantidades distribuidas de vuelta a los compradores y las probabilidades asociadas para 5000 boletas son:

Distribución, $

0

2

5

10

100

Viviendas

0,91

0,045

0,025

0,013

0,007

(a) Elabore gráfica de la distribución acumulativa de las ganancias.

(b) Calcule el valor esperado de la distribución de los dólares por billete.

(c) Si todos los billetes cuestan $2, ¿cuál es el ingreso de largo plazo esperado para el estado por billete, con base en esta muestra?

Solución:

a)

Distribución

Probabilidad

Dist. Acumulada

0

0,91

0,91

2

0,045

0,955

5

0,025

0,98

10

0,013

0,993

100

0,007

1

Monografias.com

b) E (D) = 0. 0,91 + 2. 0,045 + 5. 0,025 + 10. 0,013 + 100. 0,007

E (D) = 1,045 $

c) E = 2 – 1,045 = 0,955 $/billete

3) Jerry Hill es presidente y ejecutivo principal de una firma estadounidense de procesamiento de alimentos, Hill Products and Services. Recientemente, fue contactado por una gran cadena de supermercados con sede en Indonesia, que desea el mercadeo dentro del país de su propia marcade cenas congeladas, bajas en grasa, con calorías que varían dentro de un rango medio, de mucho sabor, para ser calentadas en microondas. La ofertahecha a Jerry por la corporación del supermercado exige que se tome una serie de decisiones, ahora y dentro de 2 años. La decisión actual comprende dos alternativas: (1) Arrendar las instalaciones de la cadena de supermercados, que se había acordado convertir en una instalación de procesamiento actual para uso inmediato por parte de la compañía de Jerry, o (2) construir y adquirir una instalación de procesamiento y empaque en Indonesia. Los resultados posibles de esta primera etapa de decisión son un buen o mal mercado dependiendo de la respuesta del público.

Las alternativas de decisión, 2 años a partir de ahora, dependen de la decisión de arrendar o adquirir que se tome ahora. Si Hill decide arrendar; una buena respuesta del mercado significa que las alternativas de decisión futuras son producir al doble del volumen, a igual volumen o a la mitad del volumen original. Ésta será una decisión mutua entre la cadena de supermercados y la compañía de Jerry. Una respuesta mala del mercado indicará la mitad del nivel de producción, o el retiro completo del mercado de Indonesia. Los resultados para decisiones futuras son, nuevamente, buenas y malas respuestas del mercado.

Como acordó la compañía del supermercado, la decisión actual para Jerry de adquirir la instalación le permitirá fijar el nivel de producción dentro de 2 años. Si la respuesta del mercado es buena, las alternativas de decisión son cuatro veces o el doble de los niveles originales. La reacción a una mala respuesta del mercado será la producción al mismo nivelo ninguna producción.

Construya el árbol de decisiones y resultados para Hill Products and Services.

Solución

Identifique los nodos y las ramas de decisión iniciales y luego desarrolle el árbol utilizando las ramas y los resultados de mercado bueno y malo para cada decisión. La figura 6 detalla la primera etapa de decisión (DI) y las ramas de resultados.

Monografias.com Decisión ahora:

Llámela DI

Alternativas: arrendar (L) y adquirir (O)

Resultados: buenos y malos mercados

Monografias.com Selección de decisiones dentro de 2 años:

Llámelas D2 hasta D5

Resultados: buen mercado, mal mercado y fuera del negocio.

Monografias.com Selección de niveles de producción para D2 hasta D5:

Cuadruplique la producción (4X); duplique la producción (2X); nivel de producción (1 X); la mitad de la producción (O.5X); suspenda la producción (OX).

Las alternativas para futuros niveles de producción (D2 hasta D5) se agregan al árbol seguidas de las buenas y malas respuestas del mercado (figura 6). Si se toma la decisión de suspender la producción (OX) en D3 o D5, el único resultado es salir del negocio. Con esto se termina el árbol de decisiones en la forma presentada en la figura 6, denominado árbol en dos etapas, puesto que hay dos puntos de decisión.

El tamaño del árbol crece rápidamente. Un árbol apenas con 10 nodos de decisión puede tener cientos de resultados finales. El análisis computarizado para resolver el árbol y seleccionar el mejor camino de decisión resulta muy pronto esencial.

Monografias.com

Figura 1. Árbol de decisión de dos etapas que identifica alternativas de decisión y resultados posibles.

Para utilizar el árbol de decisiones a fin de evaluar y seleccionar alternativas. Es preciso estimar la siguiente información adicional para cada rama:

Monografias.com Probabilidad estimada de que cada resultado pueda ocurrir. Estas probabilidades deben sumar 1.0 para cada conjunto de resultados (ramas) que resultan de una decisión.

Monografias.com Información económica para cada alternativa de decisión y resultado posible, tal como, inversión inicial y flujos de efectivo anuales.

Las decisiones se toman a partir de la estimación de probabilidad y la estimación del valor económico para cada rama de resultados. De ordinario se utiliza el valor presente en los cálculos de valor esperado del tipo de la ecuación (1). El procedimiento general para resolver el árbol mediante análisis VP es:

1. Empiece en la parte superior derecha del árbol. Determinar el valor VP para cada rama de resultado considerando el valor del dinero en el tiempo.

2. Calcule el valor esperado para cada alternativa de decisión.

E (decisión) = L (estimación de resultado) P (resultado) (2)

Donde la sumatoria incluye todos los resultados posibles para cada alternativa de decisión.

3. En cada nodo de decisión, seleccione el mejor valor E (de decisión), el costo mínimo para una situación de costos solamente, o el reintegro máximo si se estiman los ingresos y los costos.

4. Continúe moviéndose a la izquierda del árbol hacia la decisión de las raíces con el fin de seleccionar la mejor alternativa.

5. Trace el mejor camino de decisiones de regreso a través del árbol.

El siguiente ejemplo ilustra este procedimiento.

4) Se requiere una decisión bien sea para mercadear o para vender un nuevo invento. Si el producto es mercadeado, la siguiente decisión es hacerlo a nivel internacional o nacional. Suponga que los detalles de las ramas de resultados producen el árbol de decisiones de la figura 7. Para cada resultado se indican las probabilidades y el VP de los costos y beneficios (reintegro en $ millones). Determine la mejor decisión en el nodo de decisiones DI.

Monografias.com

Monografias.com

Figura 2. Solución de un árbol de decisiones con valores presentes establecidos.

Solución

Utilice el procedimiento anterior para determinar que la alternativa de decisión DI, de vender el invento, debe maximizar el reintegro.

1. Este ejemplo se ofrece el valor presente del reintegro.

2. Calcule el reintegro VP esperado para alternativas de los nodos D2 y D3 utilizando la ecuación (2). En la figura 8, a la derecha del nodo de decisión D2, los valores esperados de 14 y 0.2 en óvalos se determinan como:

E (decisión internacional) = 12(0.5) + 16(0.5) = 14

E (decisión nacional) = 4(0.4) – 3(0.4) – 1(0.2) = 0.2

Los reintegros VP esperados de 4.2 y 2 para D3 se calculan en forma similar.

3. Seleccione el reintegro esperado más grande en cada nodo de decisión. Éstos son 14 (internacional) D2, y 4.2 (internacional) en D3.

4. Calcule el reintegro esperado para las dos ramas DI.

E (decisión de mercado) = 14(0.2) + 4.2(0.8) = 6.16

E (decisión de vender) = 9(1.0) = 9

El valor esperado para la decisión de vender es simple puesto que el único resultado tiene un reintegro de 9. La alternativa nodal DI de vender genera el reintegro esperado más grande de 9.

5. El camino de reintegro VP esperado más grande es seleccionar la rama de venta en DI para obtener $9, 000,000 garantizados.

5) La ciudad de Blarney tiene un corredor de 0.3 millas de autopistas de tráfico pesado para repavimentar. La firma Ajax Construction Company ofrece dos métodos para hacerlo. El primero es una superficie de concreto por un costo de $150,000 y un cargo de mantenimiento anual de $1000.

El segundo método es una cobertura de asfalto con un costo inicial de $100,000 y un cargo de servicio anual de $2000. Sin embargo, Ajax también exigiría que cada tercer año la autopista fuera retocada con un costo de $7500.

La ciudad utiliza una TMAR igual a la tasa de interés sobre bonos de ingresos, 6% en este caso. (a) Determine el número de años de equilibrio para los dos métodos. Si la ciudad espera que la interestatal remplace este tramo de autopista en 20 años, ¿cuál método debe seleccionarse? (b) Si el costo de retoque aumenta en $500 cada 0.1 milla cada 3 años, ¿es la decisión sensible a este costo?

Solución

(a) Prepare las ecuaciones VA Y determine el valor n de equilibrio.

VA del concreto = VA de asfalto

-150,000(A/P,6%,n) – 1000 = -100,000(A/P,6%,n) – 2000

-7500 [ Monografias.comP/F,6%,j) ] (A/P,6%,n)

Donde j = 3, 6, 9,…, n. Esta relación se rescribe como:

-50,000(A/P,6%,n)+1000+7500[ Monografias.comP/F,6%,j) ](A/P,6%,n)= O (3)

Un valor de n = 39.6 satisface la ecuación, de manera que se requiere una vida de 40 años aproximadamente para lograr un equilibrio al 6%. Si se tiene en cuenta que la carretera se requiere sólo durante 20 años, debe construirse la superficie de asfalto.

(b) El costo total de retoque aumentará en $1500 cada 3 años. La ecuación (3) es ahora:

50,000(A/P,6%,n)+1000+[7500+1500Monografias.comPIF,6%j)(A/P,6%,n)]==O

donde j = 3, 6, 9, . . ., n. El punto de equilibrio es aproximadamente 21 años, lo cual favorece aún la superficie del asfalto pero sólo en un margen de 1 año. La decisión es técnicamente insensible al incremento establecido en el costo estimado del retoque de $500 por 0.1 de milla.

6) Valores esperados para una propuesta. La firma Holdar-XS Construction Company piensa construir un complejo de apartamentos cerca al borde de una colina parcialmente nivelada. El soporte para la tierra a un lado del complejo debe asegurar que no ocurrirá daño o perjuicio a los edificios u ocupantes durante la estación lluviosa. La cantidad de lluvia experimentada en un momento de tiempo puede causar potencialmente cuantías variables de daño. En la tabla 5 se detalla la probabilidad de ciertas lluvias (en pulgadas) dentro de un periodo de unas pocas horas y el costo inicial para construir una pared de apoyo que asegure protección cuando se presente la cantidad correspondiente de lluvia. La construcción de la pared de apoyo será financiada por un préstamo a 30 años con reembolso al 9% de interés compuesto anual.

Los registros indican que ha ocurrido un promedio de $20,000 en daños durante las fuertes lluvias complejos similares. Sin tener en cuenta intangibles importantes de seguridad humana, requisitos de seguro e impuestos sobre la renta, determine cuánto se debe gastar en la pared de soporte. Suponga para construir la pared se establece la TMAR al costo del capital de deuda, es decir, 9%.

Tabla 5. Costo de lluvias de pared de apoyo

Lluvia, en pulgadas

Probabilidad de que ocurran mayores lluvias

Costo de la pared de apoyo, $

2.0

0.3

10.000

2.5

0.1

15.000

3.0

0.05

22.000

3.5

0.01

30.000

4.0

0.005

42.000

Solución

Utilice un análisis VA para encontrar el plan más económico. Inicialmente, determine la relación VA el pago del préstamo y el costo esperado del daño para cada nivel de lluvia. Se utiliza la cifra de $20000, ya que esta presenta la mejor experiencia disponible del costo de los daños.

V A = reembolso del préstamo anual + costo esperado de los daños anuales

V A = costo de la pared(A/P, 9%; 30) + (-20,000) (probabilidad de mayores lluvias)

Para ilustración, el VA a 3.0 pulgadas es:

VA = -22,000 (A/P, 9%,30) – 20,000(0.05) = $-3141

Los valores VA resultantes en la tabla 6 indican que la selección más económica es la pared de $30,000 para protección contra un aguacero de 3.5 pulgadas. La pared de $22,000 para una lluvia de 3.0 pulgadas está en un segundo lugar cercano.

Tabla 6. Valor anual para diferentes paredes de apoyo

Lluvia, en pulgadas

Pared de apoyo, costo, $

Costo anual de préstamo, $

Daño anual esperado, $

VA, $

2.0

-10.000

-973

-6.000

-6.973

2.5

-15.000

-1.460

-2.000

-3.460

3.0

-22.000

-2.141

-1.000

-3.141

3.5

-30.000

-2.920

-200

-3120

4.0

-42.000

-4.088

-100

-4.188

Comentario

Cuando la gente se encuentra potencialmente en peligro se incluye a menudo un gran factor de seguridad. Entonces, en la toma de decisiones no se utilizan sólo los resultados del análisis económico. Al construir para proteger en un grado mayor que el realmente requerido en promedio, las probabilidades de daño se reducen y los costos reales se aumentan.

7) Un muchacho desea establecer una venta de periódicos en la cafetería de la universidad y tiene que decidir cuantos deberá comprar. Estima vagamente la cantidad que podría vender en 15, 20, 25 ó 30 periódicos (para simplificar la situación, se acepta que cantidades intermedias no ocurran). Por lo tanto considera que tendrá que adquirir 15, 20, 25, ó 30 periódicos.

Con esta información se puede construir una tabla de resultados que indique el número de periódicos faltantes o sobrantes, así:

Ventas

15

20

25

30

Compras

15

0

-5

-10

-15

20

5

0

-5

-10

25

10

5

0

-5

30

15

10

5

0

Para convertir estos resultados en pérdidas o ganancias monetarias se deben utilizar las siguientes formulas:

Cuando Compras > Ventas

Resultado = PV x Ventas – PC x Compras + PR x (compras – ventas)

Cuando Compras < Ventas

Resultado = PV x Compras – PC x Compras

Donde:

PV: Precio de venta de cada periódico = 600 $

PC: Precio de compra de cada periódico = 500 $

PR: Precio de venta de los periódicos sobrantes como retal de papel = 2.50 $

Por lo tanto, la tabla de ganancias que se conoce como matriz de resultados será:

Ventas

Compras

15

20

25

30

15

1500

1500

1500

1500

20

-987.50

2000

2000

2000

25

-3475

-487.50

2500

2500

30

-5962.50

-2.975

12.5

3000

En este caso, sin llegar a la completa ignorancia, el decisor no tiene, ni siquiera en forma subjetiva un estimativo de la probabilidad de ocurrencia de los diferentes eventos.

 

Conclusiones

 

Con el desarrollo de este trabajo se obtuvieron las conclusiones siguientes:

1. Los proyectos económicos que comprendan riesgos e incertidumbre son considerados casos no determinísticos.

2. El concepto de incertidumbre implica que no se asignan distribuciones de probabilidad (definidas en términos de sus parámetros, tales como la media y la desviación estándar).

3. El riesgo implica que sí se le puede asignar algún tipo de distribución probabilística.

4. El término incertidumbre se utiliza para indicar una situación de desconocimiento del futuro y el hecho mismo de impredictibilidad de los hechos.

5. No se puede garantizar que una inversión de los frutos deseados y en consecuencia es posible que no ocurra el evento en teoría cierto.

 

Recomendaciones

 

En función del análisis y conclusiones que se obtuvieron con esta investigación se recomiendan las acciones siguientes:

1. Considerar el análisis de riesgo e incertidumbre de inversión de un proyecto.

2. Considerar la distribución probabilística para la evaluación económica de un proyecto.

3. Considerar el análisis de los índices de rentabilidad para la evaluación económica de un proyecto.

4. Considerar las estimaciones empíricas (relativo a la experiencia) a la hora de evaluar económicamente un proyecto.

5. Tomar en cuenta el factor riesgo a la hora de invertir en una determinada comunidad o país, en base a su seguridad política y social.

 

Bibliografía

 

  • www.analitica.com/va/economia/opinion/9805646.asp
  • www.cesca.es/farmacio/aula/xarxes_neuronals/fernandez/shtd.html
  • www.infonegocio.com.pe/areas/marketing/especiales/20112000mc.shtml
  • www.sigsa.com/ealmf/publicaciones/gestion.htm
  • www.javeriana.edu.co/decisiones/Riesgo_incertidumbre_on_line/

Publicado en Monografías.com. Post original aquí.

Si te ha interesado este post, no olvides dejarnos tus comentarios. También apreciamos que los compartas con tus amigos y contactos en las redes sociales. Muchas gracias.

Share

La planificación estratégica como aprendizaje

por Cesar Lip Licham *

INTRODUCCIÓN

En la última década del siglo XX, un libro resultó particularmente exitoso: “La Quinta Disciplina. El arte y la práctica de la organización abierta al aprendizaje” de Peter Senge (1), quien desarrolló la idea adelantada por Arie de Geus en su artículo, publicado en 1988, La planificación como aprendizaje. En Shell, planificar significa cambiar de forma de pensar, no hacer planes (2).

La idea de la planificación como un proceso de aprendizaje organizacional, sin embargo, germinó antes. En un artículo publicado en 1959, por Lindblom: “La ciencia de salir bien a pesar de las torpezas” (3), el autor afirma que la creación de políticas gubernamentales es un proceso que llevan adelante los altos directivos cada uno en su unidad, y que este proceso no es ordenado y controlado. Más bien, se da como un proceso desorganizado en el cual las decisiones se toman para resolver problemas que van surgiendo, sin una visión del conjunto, sin siquiera buscar vínculos entre las diversas decisiones. Esto es, meras reacciones ante las continuas contingencias.

Posteriormente, en 1967, Wrapp en su artículo “Los buenos administradores no participan en política” dice que el administrador exitoso es capaz de reconocer lo inútil que es intentar impulsar paquetes completos de programas dentro de una organización. Que los directivos exitosos no actúan después de generar un árbol de decisiones completamente desarrollado, sino que “comienzan por un vástago, le ayudan a crecer, y se dejan pender de las ramas sólo después de haber comprobado cuánto peso pueden soportar.” (4)

Las ideas de Lindblom y Wrapp van a contramano de lo que parece ser la idea común sobre los directivos y estrategas: actúan tras tener claros los planes o estrategias que llevarán a la práctica. Ellos, por el contrario, sugieren que los directivos actúan mediante procesos incrementales desarticulados. Después de Lindblom y Wrapp se han producido muchos avances conceptuales y prácticos que permiten una mayor y sustentada reflexión sobre preguntas básicas tales como ¿Qué es aprendizaje organizacional?, ¿Cómo aprenden las organizaciones?, ¿Cuándo lo hacen?, etc. Em-pecemos por esta última.

CRISIS Y APRENDIZAJE

El mencionado de Geus dirigió las investigaciones del grupo de planificación de la Shell, que lideraba, buscando responder la pregunta: ¿qué permite que una empresa sobreviva y qué determina que otras desaparezcan?, o sea, ¿Por qué unas organizaciones fracasan y otras tienen éxito?. Tras estudiar 30 empresas que habían desarrollado actividades por más de setenta y cinco años, alguna hasta por setecientos años, la conclusión fue que una empresa será exitosa si tiene capacidad de aprender, definiendo aprendizaje institucional como un proceso por el cual los equipos directivos cambian sus modelos mentales comunes acerca de su empresa, sus mercados y sus competidores. Asimismo, postula –avanzando sustantivamente sobre Lindblom y Wrapp- que la planificación empresarial es un aprendizaje institucional ya que el éxito deriva de la capacidad de los equipos de alta dirección para captar que está pasando en su medio ambiente y, sobre esa base, emprender las actuaciones empresariales adecuadas (2,5).

Pero, podemos preguntarnos, ¿cuándo se da este aprendizaje?, ¿aprenden las organizaciones continuamente o en situaciones especiales?.

Cuando una organización está ya establecida, se espera que el accionar cotidiano de sus directivos se caracterice por lo rutinario y que los eventuales desajustes entre lo que sus usuarios demandan y lo que la organización produce sean sólo de orden cuantitativo. En tal situación, la oportunidad de aprender no es significativa. Esta era, en general, lo que ocurría desde la finalización de la Segunda Guerra Mundial hasta mediados de la década de los setenta del siglo XX. Después, los tiempos se volvieron turbulentos y frecuentes las crisis por desajustes cualitativos entre los productos ofertados por las organizaciones y los que demandan lo usuarios. Este tipo de desajuste (cualitativo) que Ansoff denominó “problema estratégico“, para cuya resolución formuló la primera propuesta de planeamiento estratégico (6).

Crisis, programación y aprendizaje

Una importante dimensión de las crisis organizacionales son las percepciones sobre ellas. En general, las organizaciones tienden a percibir que las causas de las crisis que las afectan –cuando las perciben- están en el medio externo (7).

Las percepciones que tienen las organizaciones nunca son por completo exactas. La distorsión entre la realidad y cómo ésta se percibe es un fenómeno que, en mayor o menor medida, está globalmente difundido, tanto si tratamos de la percepción individual o de la colectiva. Finalmente, es el grado de distorsión lo que cuenta.

El asunto es complejo. En una organización en crisis, ésta puede derivar de las percepciones erróneas que tienen sus directivos del contexto, de la propia organización o de la relación entre ambos, pero también la crisis puede derivar de lo que debe hacerse (las acciones que deben o que no deben realizarse) tanto para evitar una crisis o, en el peor de los casos, para enfrentarla. La percepción errónea de la realidad y la acción errónea para modificar la realidad llegan a formar un círculo vicioso.

Los equipos directivos de las organizaciones deciden a veces explícitamente, pero con mayor frecuencia lo hacen de forma implícita, cuáles aspectos del contexto observar y cuáles ignorar. Además, la interpretación de lo que observan la hacen en términos de sus metas, métodos y competencias actuales. Entonces, si bien una crisis puede presentarse por cambios importantes en el medio externo, enfrentarla exitosamente depende de las capacidades internas, dentro de ellas resalta la capacidad que tiene una organización para aprender. En este aprendizaje, según Starbuck (6), el proceso clave es la programación, esto es, la estandarización como programas de las actividades exitosas.

Sin embargo, el mismo Starbuck (6) hace notar que la programación en relación con el aprendizaje tiene un carácter paradójico. Si bien la programación causa el éxito, y el éxito fomenta la programación, el éxito también lleva a considerar el programa como la mejor manera de responder a los cambios que sufre la organización provocando el descuido de los recursos y de las oportunidades para adaptarse a los cambios ambientales y evitar o enfrentar una crisis. La programación es, entonces, un arma de doble filo: por un lado, permite a una empresa actuar de forma autónoma y las acciones autómatas por lo general son prerrequisitos para el éxito. Por el otro lado, la programación convierte a la empresa en una organización menos sensible a los eventos ambientales, menos sensible para la detección de los cambios externos hasta que ya son evidentes para todo el mundo, y lo que es peor aún, la programación vuelve a la institución menos capaz de responder a los eventos ambientales aunque los perciban.

Privilegiar la deseable y necesaria estabilidad de la estructura de una organización también hace que se cultive la racionalización de las primeras señales de crisis, y que las dificultades que se aprecian en el rendimiento de una organización se atribuyan a cambios ambientales transitorios. En este sentido, la acción correcta es esperar y fortalecer las prácticas tradicionales que tan buenos resultados dieron. Esto es, sólo hay que ajustarse el cinturón temporalmente, aumentar el control interno y restringir cualquier gasto innecesario.

Crisis: amenaza y oportunidad

Sobre la base de lo anterior, generalizando, se puede decir que los procesos que conducen al éxito, también pueden conducir al fracaso. Esta es una de las tantas paradojas que se encuentran en la gerencia. Esto trae a colación el antiquísimo saber chino, convertido en un lugar común dentro de la administración, en el cual el ideograma que significa “crisis” está conformado por dos símbolos, de los cuales uno significa peligro, amenaza, y el otro, oportunidad (Gráfico N°1). Esto es, las crisis son tiempos de peligro, pero también de oportunidad, sobre todo de oportunidad para que la organización aprenda, dice Starbuck (26).

En el estudio que de Geus y sus colaboradores dieron a conocer mostraron que la mayoría de las empresas longevas había anticipado la necesidad de cambiar, mínimo una vez durante su vida, y que con frecuencia, esa oportunidad había nacido de una crisis en medio de una nueva amenaza proveniente del ambiente de negocios. La capacidad de sobreviencia de una empresa parece estar en su capacidad innata para explorar esas crisis y transformarlas en nuevos negocios. En detectar la inminencia de la crisis, pero no como una crisis, sino como una nueva oportunidad, una ruta alternativa para el crecimiento (5).

Sin embargo, una cosa es identificar una oportunidad o amenaza, y otra el estimular el cambio necesario para aprovechar aquella oportunidad. La capacidad para ver oportunidades dentro de las crisis, evidentemente, no es una condición innata en las organizaciones. Es una capacidad adquirida, aprendida. Pero, ¿cuándo se aprende?

APRENDIZAJE PERMANENTE

Tiempos de incertidumbre

El cambio en el contexto ha pasado a ser la norma y no la excepción, por lo tanto, la desadaptación cualitativa de las organizaciones a sus contextos es algo que se espera pueda suceder en cualquier momento. Para estas situaciones de incertidumbre sobre el futuro de los mercados se ha postulado como requisitos para el éxito el aprendizaje organizacional de alto nivel, eficaz y continuo, y el subsiguiente cambio corporativo (5).

Más aún, Ian Mitroff creó, hace cerca de 13 años, el Centro de Gestión de Crisis de la Universidad de South California, teniendo como idea central que en el mundo actual la cuestión no es si una crisis mayor afectará a una organización, sino cuándo sucederá, de qué tipo será y cómo la afectará. Por lo tanto, no hay más alternativa que prepararse para las crisis, cuyo número está aumentando, no disminuyendo (8). Las crisis son, ahora, inevitables, “permanentes” (9).

En el campo de la salud, nuestras instituciones tienen un importante caudal de experiencia enfrentando situaciones de emergencia y riesgo, como el caso de los desastres naturales y epidemias. Sin embargo, la llamada por Mitroff y colaboradores Gestión de crisis tiene como campo de trabajo principalmente las crisis causadas por los humanos. A diferencia de los desastres naturales, las crisis causadas por los humanos son evitables. Para ello es necesario contar con mecanismos de detección constantes de señales vigilando el ambiente organizacional.

El principal enemigo, la principal barrera para sufrir una crisis es el rechazo de la idea de que nuestra organización se verá afectada por alguna crisis importante y que amenazará su sobrevivencia.

Desagregando, el éxito, la supervivencia de una organización por largo tiempo depende de cuatro factores: a) su capacidad de adaptación al mundo exterior (aprendizaje); b) su carácter e identidad (personas); c) sus relaciones con las personas e instituciones dentro y en torno a si misma (ecología); y d) la forma como se desenvuelve a lo largo del tiempo (evolución) (10). De estos cuatro factores, el aprendizaje es el que aparece primero y el más accesible de las capacidades mencionadas. Las organizaciones deben ser sensibles a lo que ocurre dentro de ella y en el medio que la rodea, y cuando el medio ambiente organizacional cambia, no se trata de hacer de una manera diferente las mismas cosas, sino de ser diferente (9).

Es difícil encontrar a un directivo que no maneje el discurso del cambio, de la incertidumbre, y últimamente de la volatibilidad. Sin embargo, las crisis siguen produciéndose y acabando o dejando heridas de muerte a las organizaciones. ¿Por qué ocurre eso?. Los gerentes no “ven”, no perciben lo que ocurre fuera de la organización.

El caso de los hospitales en el Perú es un claro ejemplo de la última afirmación. Los hospitales son organizaciones que no ven que ocurre en su medio ambiente, no conocen –de hecho no realizan estudio alguno- sobre las necesidades de salud de la población bajo su responsabilidad, lo cual deriva en la ausencia de un accionar proactivo para resolver el problema estratégico que ahora enfrentan: sus servicios no son lo que la población necesita. Los directivos de los servicios de salud no desarrollan su sensibilidad para captar las señales de presiones externas a la organización y el cambio que ellas vienen procesando. ¿Por qué este descuido para desarrollar una capacidad directiva estratégica?. De Geus (5) menciona cinco posibles respuestas:

1. Los directivos son ciegos, sordos y/o estúpidos. Más allá de los ejemplos de decisiones estúpidas tomadas por directivos de importantes empresas, nadie cree que eran sordos, ciegos o estúpidos. El problema planteado no tiene que ver con una inteligencia aislada, sino con cómo se hace uso de la inteligencia de toda la empresa, de su capital intelectual.

2.Sólo conseguimos ver una crisis cuando ya estalló frente a nuestros ojos. La mayoría de las empresas desarrollan un patrón: a) cuando ya la crisis es evidente para todo el mundo se quiere cambiar; b) Cuando se toma conciencia de lo inevitable que resulta cambiar, ya no queda tiempo; c) como hay poco tiempo, los opciones ya son pocas y no siempre las mejores; d) casi por definición estas opciones son muy duras y devastadoras para la moral de los trabajadores; e) la crisis es un círculo vicioso: mientras más al fondo se está, menos opciones son viables y es menor el tiempo con lo cual se reduce más aun sus posibilidades, lo que a su vez profundiza la crisis.

3. Logramos ver sólo aquello que ya hemos conocido (al menos en parte). Según, la psicología cognitiva, las personas solamente consiguen “ver” lo que ya experimentaron –de alguna forma, al menos. Para recibir una señal del mundo exterior, esa señal precisa encajar en alguna matriz ya presente en la mente, matriz que es fruto de eventos anteriores.

4. Ceguera emocional (“no hay peor ciego que el que no quiere ver”). A las personas y organizaciones –evidentemente, estamos haciendo referencia a sus directivos- no les gusta el dolor emocional que todo cambio fundamental produce, lo que influye para no percibir la mudanza que podría obligarnos a un doloroso cambio.

5. Vemos sólo aquello que es relevante para nuestra visión del futuro. Abundemos sobre esto enseguida, pero es importante tener presente que la naturaleza cognitiva de la adaptación que se revisará en adelante se basan en estudios realizados en individuos y no en una “mente colectiva”.

LA MEMORIA DEL FUTURO

David Ingvar, jefe del departamento de neurobiología de la Universidad de Lund, Suecia, publicó, en 1985, resultados de su investigación que demuestran que el cerebro humano está siempre buscando darle sentido al futuro (5).

Según Ingvar, en cada momento de nuestra vida, nuestro cerebro elabora planes de acción y programas para el futuro, vinculados a condiciones hipotéticas de su medio ambiente. Los planes son creados por los lóbulos prefrontales y almacenados como secuencias lógicas, como una serie de acciones posibles: “si pasa esto, haré aquello”. Se trata de lapsos de tiempo de previsión de un futuro y en cada plan se combina una condición hipotética futura del medio ambiente con una opción de acción. Esta actividad mental se realiza a lo largo de todo el día, independientemente de lo que estamos haciendo, pero es mayor durante el sueño.

Los humanos visitamos el futuro y recordamos esas visitas: tenemos “una memoria del futuro”. La memoria del futuro que es un proceso interno del cerebro y está relacionado a la capacidad de lenguaje y a la percepción, serviría para ayudarnos a distinguir entre la infinidad de imágenes y sensaciones que llegan al cerebro, cuáles son relevantes. Percibiremos algo como dotado de significado en el caso que sea significativamente compatible con una memoria que hayamos fabricado de un futuro anticipado.

Entre las personas “normales”, siempre según Ingvar, cerca del 60 por ciento de esos futuros anticipados son favorables (suceden cosas buenas en ellos). El otro 40 por ciento de los futuros anticipados son desfavorables. Si se rompe ese equilibrio a favor de los futuros anticipados favorables tendremos los llamados coloquialmente “optimistas patológicos”, mientras que si el disbalance es hacia el sentido contrario se tendrá un “pesimista incorregible”. Además, mientras más saludable el cerebro, más caminos alternativos fabrica, siempre guardando un razonable equilibrio ente condiciones favorables y desfavorables. En suma, fabricamos y almacenamos grandes cantidades de opciones para el futuro, mucho más de lo que jamás podremos realizar.

Ingvar sugiere que la función de la “memoria del futuro” no seria tanto prepararnos para hacer luego que uno de los futuros visitados se materialice, o sea, no constituye esencialmente un proceso de previsión, sino que tiene la finalidad de actuar como filtro que ayuda a los humanos a manejar la sobrecarga de información a la que está constantemente sujeto. Nuestras memorias del futuro proporcionarían una guía subconsciente que nos ayuda a determinar cuáles informaciones recibidas son relevantes. Los lapsos de tiempo funcionan como formatos con los cuales deben ser confrontadas las señales recibidas. Si la información recibida coincide con uno de los lapsos alternativos, ella será comprendida. La información se torna, entonces, en conocimiento y la señal adquiere significado. En este sentido, solamente percibiremos una señal en el ambiente externo si es pertinente a una opción de futuro que ya tenemos construida en nuestra imaginación. Por lo tanto, mientras más memorias del futuro construyamos, más abiertos y receptivos estaremos a las señales del mundo exterior.

Aquí aparece clara la base de la preparación para detectar señales tempranas que permitan evitar y enfrentar una crisis, propugnada por Mitroff (9), o porqué Arie de Geus (4) atribuye el éxito de la Shell en los ochenta a la construcción de escenarios futuros.

Si el aprendizaje comienza con la percepción, entonces, la teoría de las memorias del futuro tiene una gran importancia para la dirección de las organizaciones en tiempos de incertidumbre. La percepción no es un acto pasivo de observación y de registro de los datos derivados de ella; la percepción para el ser humano es comprometerse activamente con el mundo. Asimismo, en las empresas, la percepción debe ser activa, se requiere del esfuerzo deliberado de grupos capacitados para “visitar su futuro” y desarrollar lapsos de tiempo y opciones.

El aporte fundamental de Ingvar ha sido encontrar la base biológica (circuitos neuronales) que explican las múltiples observaciones que habían hecho los psicólogos acerca del papel que juegan los sueños, las ideas, los conocimientos, las emociones y los mensajes en la orientación de la percepción y de la acción. En las personas construir nuestras memorias del futuro es un acto natural que, aunque se puede potenciar enormemente, tiene como base una capacidad innata. Sin embargo, una empresa no tiene esta capacidad innata, por ello, la gerencia debe tomar medidas específicas para producir tales memorias. Las personas producimos memorias del futuro espontánea y subconscientemente. Las organizaciones no las producen espontáneamente, tienen que realizar un trabajo conciente especialmente dirigido a ello.

Finalmente, la teoría de Ingvar explica en gran medida por qué los directivos no reconocen las señales tempranas de una crisis, pero también a partir de esta teoría se puede sostener que las empresas tienen necesidad de desarrollar su sensibilidad para detectar cambios en su medios ambientes externo e interno descubriendo mecanismos que le permitan construir una memoria organizacional del futuro (5).

Las memorias del futuro organizacionales se denominan escenarios en el léxico de la planificación. La planificación por escenarios es una técnica que ayuda para que los directivos abandonen la premisa de que existe un futuro único y previsible. La idea es que siempre hay más de un escenario y cada uno de ellos es sólo una historia imaginada sobre el futuro.

EL APRENDIZAJE POR ACOMODACIÓN

Según Jean Piaget (11), el aprendizaje puede abordarse de dos modos: a) la adquisición por el organismo de nuevas respuestas a situaciones específicas (por asimilación), y b) la adquisición de una nueva estructura de operaciones mentales (por acomodación). Mientras la primera es transitoria, la otra es estable y duradera. Las personas procesamos ambos tipos de aprendizaje, aunque con diferente relación a lo largo del proceso cognitivo.

El aprendizaje por asimilación significa absorber información para los cuales quien aprende ya posee estructuras mentales que posibilitan reconocer y dar significado a la señal. Usando las ideas de Ingvar puede decirse que el aprendiz ya tiene una memoria del pasado o del futuro donde cualquier nueva información encaja.

El aprendiz logra fácilmente percibir, asimilar y actuar sobre la base de esta nueva información (5). La mayoría del trabajo operativo –ya sea de atención de salud o de actividades administrativas- en las organizaciones de salud está comprendida en esta categoría. Por ejemplo, una instancia directiva de una organización de la salud reconoce rápidamente un aumento importante en la tasa de incidencia de una enfermedad; dichas instancias cuentan con estructuras y procedimientos para poder dar significado a la señal. Un ejemplo, es el sistema de vigilancia epidemiológica del Ministerio de Salud: la institución, en todos sus niveles, está presta para captar la información, procesarla, analizarla y llegar a conclusiones, y sobre la base de ellas actuar de acuerdo, a su vez, a procedimientos establecidos con anterioridad.

La asimilación es el modo que acude a la mente de la mayoría de personas cuando piensa en aprendizaje.

Quedan dentro de esta categoría el entrenamiento (por ejemplo, cómo suturar una herida, extirpar una neoformación cerebral, confirmar un diagnóstico, etc.) y la transmisión como las tradicionales clases magistrales. Quienes tienen esta perspectiva del aprendizaje tienden a igualar aprender con enseñar y, por ejemplo, no le encuentran la lógica a la afirmación: el liderazgo se puede aprender, pero no se puede enseñar.

El aprendizaje por acomodación es un proceso mediante el cual el organismo se adapta al ambiente, cambia para poder cumplir con las exigencias que el medio externo le impone. Quien aprende procesa un cambio en la estructura interna de sus creencias, ideas y actitudes. Para aprender por asimilación bastan los libros y las clases magistrales conforme se acostumbra en el aprendizaje escolar convencional. Aprender por acomodación exige mucho más ya que es un proceso que se basa en la experiencia, en el cual el aprendiz se adapta a los cambios del mundo por medio de experimentos profundos en los que participa plenamente, con todo su intelecto y su alma, sin saber cuál será el resultado final. La interrelación con el medio ambiente hace que una persona crezca, sobreviva y desarrolle su potencial (6). Al finalizar el proceso es otro, ya no es una persona que hace las cosas en forma diferente, es una persona diferente.

El aprendizaje por acomodación es entendido en nuestro medio bajo el término “formación”. Por ejemplo, un médico general que participa en un programa de especialización, al finalizarlo ya no pensará ni actuará igual que antes. No se trata sólo de las técnicas nuevas que aprendió (esto corresponde más bien al aprendizaje por asimilación) sino al enfoque de los problemas y de las soluciones.

También las organizaciones, como las personas, tienen aprendizaje por asimilación y por acomodación. Las organizaciones exitosas tienen desarrollados sus mecanismos para aprender por acomodación, es lo que les permite sobrevivir, o en el caso, de los servicios de salud, es lo que les permite cumplir exitosamente con su misión. Son organizaciones que tienen desarrollada la capacidad para dar significado a las señales que recoge del medio externo.

Hay dos momentos diferentes, captar la señal y dar significado a la señal. Para tener éxito se requiere dar a la señal captada el significado adecuado. Por ejemplo, frente a una situación en la cual el servicio de emergencia de un hospital público de Perú obtiene utilidades económicas, un director puede interpretar el hecho como una buena señal de desempeño, mientras que otro directivo frente al mismo hecho muestra preocupación, dado que conoce que los servicios de emergencia públicos en su inmensa mayoría trabajan subvencionados para cubrir el déficit económico que es lo usual. Este último directivo se preocupa en la medida que se pregunta: ¿el que tengamos utilidades en el Servicio de emergencia, no será una señal –indicador- de que no estamos atendiendo a los pobres que lo necesitan?. La decisión-acción frente al mismo hecho variará dependiendo del significado que le atribuyamos.

Así, mientras el primer director del ejemplo mencionado probablemente felicite al personal del servicio y con ello se reforzará la práctica que vienen realizando, el segundo director buscará analizar el tipo de pacientes según condición socioeconómica que se está atendiendo y asegurarse de que no se está excluyendo la atención en los servicios de emergencia a las personas por que no pueden pagarla.

A nivel gerencial, las formas de aprendizaje que llevan al éxito son aquellas que están insertas en la toma de decisiones. Las verdaderas decisiones –en las cuales se llega a un nuevo entendimiento, se toman decisiones y se actúa en consecuencia- son ejemplos de aprendizaje por acomodación.

Podría pensarse, “si tomar decisiones es aprender, entonces todas las empresas aprenden todo el tiempo. ¿Para qué tanto barullo con eso de que tenemos que construir una organización que aprenda?. Mi empresa ya es una organización que aprende“. Si, es probable que su empresa esté aprendiendo y aprendiendo todo el tiempo, pero la pregunta importante en los tiempos actuales es ¿Qué tipo de aprendizaje está realizando su empresa?.

La gran mayoría de empresas realiza un aprendizaje por asimilación. La consecuencia es su falta de capacidad para adecuarse a los cambios externos, debido a que su respuesta será “más de lo mismo”. Frente a los cambios cualitativos en el medio externo, estas empresas, mas bien sus gerentes, tienden a pensar que es un cambio temporal, y sus decisiones son las tradicionales: disminuir costos, cortar beneficios, reducir personal, disminuir la calidad del servicio, entre otras similares. Cada una de estas decisiones no son equivocadas en si, hay situaciones en que son la(s) respuesta(s) adecuada(s). Sin embargo, si el caso de una mudanza cualitativa en el ambiente externo organizacional, tales medidas resultarán no sólo insuficientes sino inadecuadas.

Como ejemplo, una facultad de administración cuyo principal producto son programas de maestría sufre una crisis cuya manifestación central es una abultada deuda que se interpreta como producto de inadecuados sistemas de cobranza, altos costos, exceso de personal contratado y subutilización del personal de planta. Las respuestas no han podidos ser más tradicionales: recortar los gastos, esto es, disminuir los costos (recorte general de la carga horaria de los docentes, austeridad en el uso de material, etc.) y aumentar la producción con los pocos recursos que quedan haciendo más de lo mismo.

Las propuestas de hacer cosas diferentes han sido sistemáticamente rechazadas. Todas estas decisiones basadas en el aprendizaje por asimilación pueden tener resultados peligrosos para esa organización. Si lo que hay es un cambio fundamental en el mundo externo, cambio que los directivos no perciben -y buscan tranquilizarse a si mismos diciendo que es cuestión de ajustarse los cinturones porque es algo transitorio, que hay cambios y dificultades, pero todo volverá a ser normal dentro de poco- los riesgos de esta organización habrán aumentado rápidamente. No está aprendiendo por adaptación. La adaptación, natural o social, implica el desarrollo de una nueva propiedad.

En breve, dice Aries de Geus el proceso natural del aprendizaje tiende a limitar el número de opciones y, además, es lento. La velocidad, apertura, inventiva y coraje de nuestros esfuerzos de aprendizaje deben, todas, ser mejoradas para que nuestra organización sobreviva (5).

La pregunta que cobra actualidad, entonces, es: ¿cómo podemos acelerar y fortalecer el proceso de aprendizaje que venimos llevando adelante?.

EL INCREMENTISMO LÓGICO

Una forma de aprender mediante la creación de estrategias y de crear estrategias mientras se aprende fue elaborada por Quinn (12). Según este autor “La estrategia rara vez está consignada por escrito en algún documento. Los procesos empleados para llegar a la estrategia completa son fragmentarios, evolutivos y en gran medida intuitivos“. Estos procesos, añade, se van conjugando en el tiempo para concebir un nuevo y difundido consenso de acción entre los miembros de la alta dirección que dirigen cada uno de los subsistemas de la organización. Este nuevo consenso surge de la co-evolución de los sucesos externos y las decisiones internas. O sea, que las organizaciones recorren un camino incremental hacia sus estrategias conscientes (13).

La construcción de estrategias es un proceso, además de incremental, proactivo, o sea que no se concibe como una mera reacción de la organización frente a lo que sucede en su ambiente externo, sino que busca adelantarse a los cambios que prevé sucederán en su contexto. Quinn, posteriormente, concretará su propuesta en sendas prescripciones para un manejo incremental de las estrategias en una organización (14).

Mintzberg (15) anota que la postura de Quinn podría interpretarse en dos sentidos, ambos incrementales, uno “como proceso para desarrollar la visión estratégica en sí”, y otro, “como proceso para dar vida a una visión que ya se encontraba en la mente del estratega“. Quinn anota que estas dos posturas son complementarias ya que los “estrategas deben promover visiones estratégicas que, en sí mismas, cambian y mejoran, en un proceso dinámico continuo y pulsante, esto es, en un proceso de aprendizaje continuo” (14). Sin embargo, en este proceso incremental no se da solo en la mente de los estrategas, involucra a toda la organización.

LA EMERGENCIA DE LAS ESTRATEGIAS

Las estrategias en una organización aparecen como las malezas en un jardín postula Mintzberg (16) que tradicionalmente se concibe que la estrategia de una organización es elaborada por los estrategas -técnicos de las oficinas de planificación- y por los directivos, y que el personal de los órganos operativos las ejecutan a pies juntillas (al menos que tratan de hacerlo). Sin embargo, dice Mintzberg, las estrategias, según su origen, puede ser desde absolutamente premeditadas –originadas por los estrategas- hasta un conjunto conformado por respuestas espontáneas. Pudiendo existir una combinación de acuerdo al punto de referencia. La comunidad organizacional puede actuar como un “estratega colectivo”, usualmente en forma inadvertida, esto es cuando varias personas van desarrollando un patrón de comportamiento que termina siendo el predominante en la institución. En la práctica general, la creación de estrategias se ubica en algún lugar de la franja delimitada por sólo estrategias emergentes y sólo estrategias premeditadas.

La idea de las estrategias emergentes se explica metafóricamente con la figura 1 del crecimiento de malezas en un jardín. Las malezas crecen espontáneamente y en cualquier lugar; puede ocurrir que sean extirpadas todas, o que alguna prolifere tanto que llega a ser predominante. Igual sucede con las estrategias, surgen por doquier en una organización, muchas pueden ser coactadas e impedidas de desarrollarse por los directivos o por su propio fracaso, pero otras pueden irse fortaleciendo, ya sea por ausencia de una estrategia premeditada que actúe coactando las espontáneas o por que en la práctica van probándose como una mejor alternativa y fortaleciéndose en la medida de su éxito. Con el tiempo estas estrategias emergentes pueden ser, explícitamente o no, adoptadas por el conjunto de la organización.

Emergencia y aprendizaje

Asociar la estrategia emergente con el aprendizaje no es del todo correcto. Literalmente, emergencia significa algo no proyectado (que emerge sin haberlo planeado).

Las estrategias, entendidas como patrones de acción, pueden formarse debido a la acción de fuerzas externas o en respuesta a necesidades internas, y no por las ideas conscientes de ningún participante. Para hablar de aprendizaje verdadero tiene que ocurrir una confrontación entre el pensamiento y la acción, los participantes deben reflexionar sobre lo que han hecho.

El aprendizaje estratégico consiste en encontrar un nuevo sentido a partir de la combinación de lo esperado, lo actuado y lo logrado. En palabras de Weick (17):

“toda comprensión se origina en la reflexión y en una mirada al pasado”. No es posible aprender sin actuar.

Por lo tanto, desde esta posición, para diversificar, el camino es que la organización ingrese en una variedad de mercados con el fin de averiguar qué es capaz de hacer mejor. Después, sólo continuar en aquellos donde ha funcionado bien. Gradualmente, la estrategia emergerá al encontrar el sentido de lo que hizo que las cosas funcionen. Evidentemente, no se trata de ingresar a tontas y locas en todos los mercados posibles, se trata de aprender mediante el reconocimiento de patrones de la propia conducta, convirtiendo las estrategias emergentes del pasado en estrategias premeditadas del futuro. Esto puede parecer paradójico y en realidad lo es. Es una paradoja que hay que manejar.

Una conducta que es la antítesis de la planificación puede, en ciertas circunstancias, brindar la información necesaria para la creación de la estrategia premeditada.

Una forma errada de planificar consiste en separar a los planificadores de los operadores, tal como lo propuso hace ya cerca de un siglo Frederick W. Taylor, el padre de la administración. Taylor fue quien introdujo en las organizaciones la noción de planificar (prever) y su propuesta central al respecto consistió en especializar a las personas de una organización en dos grupos, el grupo programador y el grupo ejecutor, los primeros como su nombre indica decían qué cosas hacer, además cómo y cuándo hacerlas. El segundo grupo sólo debía limitarse a cumplir estrictamente lo programado.

Este mecanismo de arriba hacia abajo, concreción en la administración del pensamiento cartesiano, que separó pensamiento y acción -y con ello la posibilidad de que planificadores y directivos aprendan a partir de los resultados- sigue siendo el predominante en nuestras organizaciones. Aunque la planificación de abajo hacia arriba tiene defensores importantes, no es un concepto que haya permeado nuestras instituciones.

Una de las versiones más provocadoras fue postulada por dos famosos expertos en marketing, Al Ries y Jack Trout (18), en su libro La revolución del marketing. La táctica dicta la estrategia, donde afirman:

Nosotros no estamos de acuerdo con la planeación estratégica a largo plazo, con los enunciados e misiones, metas, planes empresariales y presupuestos anuales.

Creemos que la mayoría de gerentes de hoy no comprenden la relación crítica entre la estrategia y las tácticas. Por eso continúan encantados con el proceso de planeación estratégica.

La teoría tradicional dice que la gerencia ejecutiva debe primero fijar la estrategia de una campaña de marketing. Luego, la estrategia debe ser entregada a los gerentes intermedios quienes seleccionan las tácticas a utilizar para adelantar la estrategia.

No estamos de acuerdo con esto. Nuestro concepto es exactamente opuesto.”

Para estos autores, la estrategia se debe desarrollar de abajo hacia arriba y no en el sentido contrario. La estrategia se debe desarrollar partiendo de un conocimiento profundo y del compromiso con las tácticas reales del negocio en sí. (…) Las tácticas exitosas deben imponer las estrategias.

Más allá de la necesaria especificación de los términos: táctica y estrategia, aquí interesa remarcar la idea de que el sentido de abajo hacia arriba en la creación de estrategias o en la planificación es la que permite aprender, mientras que la otra no. Sin embargo, al plantear la construcción de estrategias de abajo hacia arriba no estamos planteando absolutamente lo contrario, como hacen Ries y Trout, estaríamos cayendo nuevamente en la lógica dicotómica. No estamos planteando la antinomia “de abajo hacia arriba o de arriba hacia abajo“, esto es, dos opciones excluyentes. No se trata de escoger entre dos distintas formas, ambas tienes ventajas y desventajas, estamos planteando su complementariedad. Coincidimos con Mintzberg (15) en que la estrategia realizada es, finalmente, una mezcla de estrategia premeditada y estrategia emergente.

La estrategia emergente permite aprender, siempre y cuando lo que las instancias operativas creen sea sistematizada por las instancias directivas que son las que tienen la visión del conjunto de la organización. Por eso, una de las varias capacidades que deben desarrollar los planificadores es encontrar la lógica en acción que tiene la organización. Esto significa, primero, el rastreo de patrones de acción para identificar estrategias recientes en las unidades de la institución que puedan transformarse en estrategias organizacionales más amplias y deliberadas. Segundo, usar el rastreo para realizar el control estratégico mediante la identificación de las estrategias realizadas (los patrones de acción actuales) las cuales deben compararse con las estrategias premeditadas (las que se planearon).

EL APRENDIZAJE ESTRATEGICO

El aprendizaje organizacional es el proceso por el cual los equipos directivos cambian sus modelos mentales comunes de su organización, sus mercados y sus competidores. Por esta razón, se dice que planear es aprender y que el planeamiento es un mecanismo de aprendizaje organizacional. El aprendizaje organizacional es mucho más difícil que el aprendizaje individual. La mayoría de veces, la capacidad de reflexión de los equipos directivos es menor que el de sus miembros en cuanto individuos. Esta definición de aprendizaje organizacional ha sido extraída del Libro La Quinta Disciplina (1), probablemente el punto más alto, al menos el más difundido, del movimiento por crear organizaciones que aprenden que tuvo importante auge en la década anterior, aunque los antecedentes en este tema se remontan a cuarenta años atrás, como mencionamos antes.

Entre las nuevas iniciativas relacionadas al aprendizaje organizacional hay tres que destacan en el contexto de la planificación como aprendizaje: a) aprender sobre creación de conocimientos, b) el método de capacidades dinámicas, y c) la teoría del caos (15).

Aprendizaje como creación de conocimiento

A partir de un concepto introducido por Polanyi (19): “es posible que conozcamos más de lo que creemos“, Nonaka y Takeuchi (20) propugnan que debe abandonarse la vieja moda de pensar que el conocimiento puede ser adquirido, enseñado e impartido a través de manuales, libros o conferencias. Llaman, en lugar de ello, a prestar más atención al aspecto menos formal y sistemático del conocimiento, el tácito. El conocimiento tácito es personal y específico del contexto, difícil de formalizar y comunicar. El otro tipo de conocimiento es el explícito o “codificado” que es el transmisible en un lenguaje formal y sistemático.

Entonces, lo que se plantea a los directivos es convertir conocimientos tácitos en explícitos, lo cual puede hacerse en cuatro momentos:

Socialización: se comparten implícitamente los conocimientos tácitos, muchas veces sin siquiera utilizar el lenguaje; por ejemplo, a través de la experiencia.

Externalización: conversión de conocimientos tácitos en explícitos, con frecuencia mediante usos especiales del lenguaje, como las metáforas y las imágenes.

Combinación: unión y transmisión de conocimientos formalmente codificados de una persona a otra.

Internalización: devolución de los conocimientos explícitos a la forma tácita, como en un aprendizaje mediante la acción, en la cual el aprendizaje se realiza con el cuerpo y en la mente.

Estos modos de conversión de conocimiento se interrelacionan dinámicamente formando una “espiral de conocimientos” (20), como se muestra en la Gráfico N° 2.

Nonaka y Takeuchi (20) dicen que la esencia de la estrategia se basa en desarrollar las capacidades organizacionales para adquirir, crear, acumular y aprovechar los conocimientos. Pero, como el conocimiento es creado sólo por individuos, el rol de la organización es facilitar este aprendizaje. Debe brindar apoyo y estímulo al aprendizaje individual, amplificarlo, cristalizarlo y sintetizarlo a nivel del grupo mediante el diálogo, la discusión, la posibilidad de compartir experiencias y la observación.

Resulta ilustrativo recordar en este punto, que la gran mayoría de los hospitales peruanos no cuentan -en el campo de la gestión- con mecanismos que les permita aprender como instituciones, no son, como diría Senge (1), organizaciones inteligentes. La reinvención de la gestión, o más bien, partir de la nada, es constante. En estas instituciones cada cambio de director general, acontecimiento frecuente, trae aparejado casi de manera invariable el cambio de la gran mayoría de directivos intermedios y operativos.

Crossan, Lane y White (21) propugnan que el aprendizaje individual fomenta el aprendizaje colectivo, y que el aprendizaje organizacional es un proceso de cambio en pensamientos y acciones individuales compartido. Ambos procesos se ven afectados por las instituciones de la organización y a la vez están implantados en ellas. Los niveles individual, grupal y organizacional están, dicen Crossan y col., vinculados por cuatro procesos que comprenden cambios de conducta y también cognitivos: intuición, interpretación, integración e institucionalización.

La intuición es un proceso subconsciente que tiene lugar a nivel del individuo. Es el comienzo del aprendizaje, y se produce en una sola mente. Luego, la interpretación recoge los elementos conscientes de este aprendizaje individual, y los comparte a nivel de grupo. Posteriormente viene la integración para cambiar la comprensión colectiva, y funciona como puente hacia toda la organización. Al final, la institucionalización incorpora ese aprendizaje a toda la organización implantándola en sus sistemas, estructuras, rutinas y prácticas. La planificación juega el papel de formalizar el conjunto de estos cuatro procesos.

  • En la tabla N° 1 se presenta un sistema unificado para el aprendizaje organizacional elaborado por Crossan, Lane & White (21).

La dinámica de las capacidades organizacionales

Prahalad y Hamel (22) consideran a la planificación estratégica como un proceso de aprendizaje colectivo destinado a desarrollar y luego aprovechar aptitudes distintivas que resultan difíciles de imitar. Sus conceptos más difundidos son tres: principal capacidad, intención estratégica y expansión e influencia. Sobre la principal capacidad, la idea central es que la esencia de una estrategia exitosa se basa en la coincidencia de factores externos e internos y el contenido de la estrategia misma, esto es, en una concordancia estratégica dinámica. Las raíces de una ventaja competitiva pueden encontrarse en las principales capacidades de una firma, en sus productos centrales que son consecuencia del aprendizaje colectivo de la organización. Subyace en estos productos, la principal capacidad de la organización que es una forma de coordinar diversas aptitudes de producción e integrar múltiples corrientes de tecnología.

La intención estratégica consiste en imaginar una posición de liderazgo deseada, y establece los criterios que serán usados por la organización para trazar su progreso. La intención estratégica establece la orientación general e implica dirigir la atención de la organización hacia lo que la firma considera es triunfar. Es, también, papel central de la intención estratégica motivar a la gente comunicando el valor del objetivo, dejar espacio para las contribuciones individuales y de equipo, mantener el entusiasmo a través de nuevas definiciones operativas a medida que cambian las circunstancias, y orientar los recursos en forma coherente. Este concepto corresponde al que es más conocido como visión organizacional.

Finalmente, la expansión se refiere al desajuste entre los recursos de una firma y sus aspiraciones, y la influencia es el aprovechamiento de una base de recursos limitada. Las organizaciones deben aprender como aprovechar una base de recursos limitada.

Caos y aprendizaje

La teoría del caos se originó en la física para comprender sistemas en permanente estado de desequilibrio. En éstas, las perturbaciones constantes pueden aprovecharse para producir un aprendizaje que trascienda las pautas establecidas del pensamiento estratégico, por lo tanto, los propios directivos tendrían que introducir perturbaciones premeditadas dentro de las operaciones, de modo que las incoherencias resultantes pudieran generar nuevos conocimientos (15).

EL ESTRATEGA APRENDIENDO ESTRATEGICAMENTE

Uno de los mitos que se han desarrollado acerca de los planificadores es sobre su capacidad de crear estrategias. Es común la idea de que el estratega tiene un conjunto de estrategias entre las cuales escogerá para recetar la más conveniente en una situación dada que atraviesa la organización. Esta perspectiva no corresponde al mundo real, al menos, en relación con los estrategas exitosos.

Ninguna persona u organización sabe lo suficiente como para resolver todo anticipadamente. Si bien pueden trazarse grandes líneas que orienten el accionar organizacional –tampoco se trata de dejar las cosas al azar y a la capacidad espontánea de reaccionar ante lo que vaya ocurriendo-, el impredecible devenir obliga a desarrollar formas que permitan el aprendizaje activo de la organización y de sus estrategas, siendo una función de éstos impulsar el aprendizaje institucional.

El aprendizaje estratégico implica movilizarse en un continuo cuyos límites extremos son las estrategias completamente premeditadas, por un lado, y las estrategias plenamente emergentes, por el otro. Aprender estratégicamente requiere ganar libertad mental para deslizarse flexiblemente en este continuo creando estrategias a partir de un fecundo diálogo entre el pensamiento y la acción.

REFERENCIAS BIBLIOGRÁFICAS

1. Senge P. La Quinta Disciplina. El arte y la práctica de la organización abierta al aprendizaje. 1ra. Edición. Ed. Granica, Barcelona, 1992.        [ Links ]

2. De Geus AP. La planificación como aprendizaje. Harvard Business Review Nº 36. Madrid, 1988:70-74.        [ Links ]

3. Lindblom Ch. La ciencia de salir bien a pesar de las torpezas (1959). En: Mintzberg H, Quinn JB. (Eds). El Proceso Estratégico. Conceptos, contextos y casos. Prentice Hall. 2da. Edición, Londres, 1993.        [ Links ]

4. Wrapp HE. Los buenos administradores no participan en política. (1967) En: Mintzberg H, Quinn JB. (Eds). El proceso estratégico. Conceptos, contextos y casos. Prentice Hall. 2da. Edición, Londres, 1993.        [ Links ]

5. De Geus AP. The living company. Harvard Business Review 1997;75:51-60.        [ Links ]

6. Ansoff I. La estrategia de la empresa. Ed. Universidad de Navarra, España, 1965.        [ Links ]

7. Starbuck WH, Greve A, Hedberg LT. Respuesta a la Crisis (1978). En: Mintzberg H, Quinn JB. (Eds). El proceso estratégico: Conceptos, contextos y casos. Prentice Hall. 2da. Edición, Londres, 1993.        [ Links ]

8. Mitroff I, Pearson C. Cómo gestionar una crisis. Guía para mejorar la preparación frente a una crisis. Editorial Gestión 2000, Bogotá, 1997.        [ Links ]

9. Mitroff I, Anagnos G. Managing Crisis before the happen. What every executive and manager needs to know about crisis management. Ed. Amacom, 1ra. Edición, Barcelona, 2001.        [ Links ]

10. De Geus AP. A Empresa Viva. Editora Campos, 1ra. Edición, Sao Paulo, 1999.         [ Links ]

11. Piaget J. Genetic Epistemology. Editorial Columbia University Press, Columbia, 1970.        [ Links ]

12. Quinn JB. Cambio estratégico: El incrementalismo lógico. Sloan Management Review I 1978(20):43-55.        [ Links ]

13. Quinn JB. Strategies for Change: Logical incrementalism. En: Mintzberg H, et al. Safari a la Estrategia, Ed. Granica, 1ra. Edición, Barcelona, 1999.        [ Links ]

14. Quinn JB. Manejo incremental de las estrategias (1982). En: Mintzberg H, Quinn JB. (Editores). El Proceso Estratégico: Conceptos, contextos y casos. Prentice Hall. 2da. Edición, Londres, 1993.        [ Links ]

15. Mintzberg H, Ahlstrand B, Lampel J. Safari a la Estrategia. Una visita guiada por la jungla del management estratégico. Editorial Granica, Barcelona, 1999.        [ Links ]

16. Mintzberg H. The Rise and the Fall of Strategic planning. Reconceiving roles for planning, plans, planners. Ed. The Free Press, 1st. edition, Ontario, 1994.         [ Links ]

17. Weick KE. The Social Psycology of Organizing. Reading, Illinois. MA: Addison-Wesley, 2nd. edition, 1979.        [ Links ]

18. Ries A, Trout J. La Revolución del Marketing. La Táctica dicta la Estrategia. Editorial McGraw Hill, Montreal, 1989.        [ Links ]

19. Polanyi M. The Tacit Dimension. Ed. Routledge & Kegan Paul, New York, 1966.        [ Links ]

20. Nonaka I, Takeuchi H. The Knowledge – Creating Company: How japanesse companies create the dynamics of innovation. Ed. Oxford University Press. New York, 1995.        [ Links ]

21. Crossan MM, Lane HW, White RE. An organizational learning framework: From intuition to institution. Academy of Management Journal 1999;24 (3):522-537.        [ Links ]

22. Prahalad CK, Hamel G. The Core Competence of the Corporation. Harvard Business Review 1990;79-91.        [ Links ]

23. Nonaka I. Toward Middle-Up-Down Management. Sloan Management Review 1988; 23(3):9-18.         [ Links ]

* Profesor Principal del Departamento Académico de Salud Pública de la Facultad de Salud Pública y Administración Carlos Vidal Layseca de la Universidad Peruana Cayetano Heredia.

Correspondencia: Cesar Lip Licham  Correo electronico: c72@wienergroup.com

Publicado en Scielo. Post original aquí.

Si te ha interesado este post, no olvides dejarnos tus comentarios. También apreciamos que los compartas con tus amigos y contactos en las redes sociales. Muchas gracias.

Share

Toma de decisiones bajo riesgo e incertidumbre

por Iván José Turmero Astros

 

Introducción

 

Los sistemas de planificación y los planificadores en los países en desarrollo no pueden ser totalmente responsables de lo inadecuado de la evaluación de riesgo y de las medidas de mitigación implementada, gran parte del desarrollo está basado sobre escenario existente expuesto al peligro.

Se sabe que hay que tomar decisiones y en consecuencia, asumir riesgos. La recompensa será la ganancia empresarial si la gestión ha sido la adecuada o pérdida empresarial si no lo ha sido o no se ha sabido realizar correctamente.

Entonces, los parámetros riesgos e incertidumbre, son los elementos con los que se va a enfrentar constantemente a la hora de la toma de decisiones, por tanto la Gestión y estrategias empresariales son el medio más útil para afrontar dichos parámetros.

Cuando se toma una decisión, sin conocer las probabilidades que tiene de que ésta, sea o no exitosa, se enfrenta a una situación de incertidumbre. Pero una vez que toma esa decisión, conociendo esas probabilidades, se enfrenta a una situación de riesgo.

Actualmente, existen técnicas empresariales que ofrecen una actualizada y completa información que disipan esa incertidumbre y en consecuencia, antes de tomar la decisión, está en condiciones de estimar el riesgo que corre.

Marco teórico

Riesgo

Cuando las variables no toman un único valor sino varios, pero la probabilidad de ocurrencia de esos valores es exactamente conocida, nos encontramos en un contexto de riesgo.

Se da cuando existe cierto numero de estados naturales cuyas probabilidades de que se produzcan son conocidas por quien toma las decisiones. Esta clase de decisión o acuerdo se denomina toma de decisiones en estado de riesgo. Un ejemplo típico son los riesgos climáticos en agricultura, capaces de tratarse probabilísticamente dentro de cierta área o nivel de referencia.

Cuando hablamos de riesgo, tenemos en cuenta dos factores muy importantes: las características de una empresa o empresario y la faz subjetiva del factor riesgo. Hay empresarios que son más arriesgados que otros; como consecuencia de ello, la definición de objetivos de la empresa y la forma de encarar la actividad va a estar seriamente condicionada por la actitud que tiene el individuo frente a determinados riesgos. La actividad y forma de desarrollarla depende en gran medida de las concepciones particulares del riesgo. Así, hay empresas que van a hacer una mezcla (mix) de productos muy variados, para diversificar y tener menor posibilidad de fracaso, mientras que otras van a apostar a un solo producto, un ejemplo muy claro es cómo juega un apostador a la ruleta: los más conservadores no juegan todo lo que tienen sino una parte, la que dividen en muchas jugadas apostando, por ejemplo, a oportunidad y dentro de oportunidad a varias alternativas; otros al contrario, apuestan todo lo que tienen en una sola jugada y a un solo numero. En el primer caso el riesgo es menor pero, a su vez, la ganancia también es menor, en cambio el que apuesta todo a una sola jugada tiene muchas probabilidades de perder, pero si gana cubre ampliamente su apuesta. Vemos que el modo de distribuir las jugadas depende de la personalidad de cada individuo. Si cambiamos el concepto de juego por el de producción llegaremos a las mismas conclusiones. Ejemplo: una persona juega todo lo que tiene, todo su capital, a la explotación agropecuaria y dentro de ella a un solo tipo de explotación, a una sola cosecha, a una sola variedad; es decir, exponiendo toda su fortuna en una explotación de alto riesgo, tal como un solo cultivo, en una zona climática de difícil pronóstico.

Figura 1: análisis y evaluación para la inversión en un proyecto agropecuario.

El apostador o empresario debe resolver que hará: pone todo en una actividad, se dedica a un rubro con exclusividad, mantiene reservas por si algo sale mal, divide el riesgo haciendo una mezcla de inversiones o producciones distintas, etc.; la decisión de como habremos de apostar a este singular tablero es fundamental en cada proyecto, y todas las variantes son válidas dependiendo de cada individuo.

Cuando además de prever los posibles resultados futuros asociados a una alternativa, se les puede asignar probabilidades, aunque sean subjetivas, a cada uno de ellos, entonces se dice que se encuentra frente a una situación bajo riesgo. El riesgo es aquella situación sobre la cual tenemos información, no sólo de los eventos posibles, sino de sus probabilidades.

Cuando en el contexto de las Finanzas se habla de riesgo, muchas personas piensan sólo en los mecanismos que diseña la ingeniería Financiera para protegerse del riesgo implícito en ciertas operaciones financieras. Estas están más relacionadas con actividades especulativas, de inversión de excedentes de tesorería, por ejemplo. El contexto en que se maneja esta idea está relacionado con lo que ocurre después de que se emprende un proyecto, por ejemplo. Pero no se puede soslayar el estudio del riesgo del proyecto mismo, que es el objeto de estudio de este trabajo. Los riesgos asociados a una alternativa de inversión tienen diversas causas y hay que “vivir” con sus efectos. Si se intenta predecir un evento, pueden intervenir tantas variables, que a su vez, generan otros tantos elementos que se deben predecir, que es una especie de explosión de un árbol que se ramifica hasta el infinito. Por ejemplo, en la demanda del mercado por un bien o servicio, se deben tener en cuenta la disponibilidad de dinero de la gente, sus gustos, la obsolescencia, la innovación tecnológica, el desempleo, la inflación, la tasa de cambio, las tendencias demográficas, la moda, el clima, etc. Y todo esto, a su vez, depende de muchos otros parámetros. Todo esto se constituye en causa de riesgo. Y lo único que se puede hacer es tratar de medirlo; una vez medido, hay que asegurarse de haber tomado todas las precauciones posibles y esperar a que ocurra lo mejor.

Si el resultado es que la probabilidad de éxito es muy baja, sólo por suerte se puede esperar a que salga bien. Y allí no hay poder humano que pueda influenciar a la suerte para que sea favorable.

Medición analítica del riesgo:

Consiste en un manejo de tipo analítico para tratar el problema a partir del conocimiento de las distribuciones de probabilidad de las diferentes variables involucradas y de manera que se pudiera determinar la distribución final de un indicador como el Valor Presente Neto o la Tasa Interna de Rentabilidad.

Una forma de disminuir la incertidumbre es obtener más información, lo cual exige más recursos: humanos, de tiempo, monetarios, etc.) En el ejemplo del grupo de ejecutivos se redujo la incertidumbre al tratar de estimar el valor esperado y la desviación estándar del flujo de dinero. El método para manejar este tipo de situaciones hace uso del Teorema del Límite Central de la Estadística y dice que la distribución del Valor Presente Neto, Costo Anual Equivalente o Tasa Interna de Rentabilidad es aproximadamente normal, inclusive cuando las distribuciones de las variables que se incluyen en o que determinan el flujo de caja del proyecto no sean normales. Debe observarse, y así lo dice, que hace caso omiso del problema de la discrepancia entre los criterios y de la posibilidad de múltiples tasas de interés. Realmente esto no presenta una limitación al método, ya que se han propuesto formas de eliminar las discrepancias entre los criterios y de la posibilidad de múltiples tasas internas de rentabilidad. Lo que se quiere es enfrentar al decisor con las diferentes probabilidades de obtener distintos valores del Valor Presente Neto de una inversión. Más específicamente, la probabilidad de que el VPN sea menor que cero.

Incertidumbre:

Cuando sólo conocemos aproximadamente el valor que tomarán una variable, pero desconocemos con que nivel de probabilidad, estamos en un contexto de incertidumbre.

Se ignoran las probabilidades de que se produzcan los diversos estados naturales. Estos problemas surgen cuando no existen pautas que permitan calcular las probabilidades de que ocurran los estados naturales, ya sea por falta de experiencia pasada o porque es imposible proyectarla hacia el futuro.

Las consecuencias de una decisión de inversión, como hecho futuro son impredecibles. Aquí se reconoce de manera explícita el hecho de la incertidumbre en todos los actos de la vida. Con relación a las consecuencias futuras de una decisión, se pueden presentar tres situaciones: a) determinísticas; b) no determinísticas y c) ignorancia total.

Uno de los problemas que se presentan en la comprensión de los temas de administración y gerencia es que muchos términos tienen significados múltiples; ejemplo de esto se encuentran con mucha frecuencia en los temas contables y financieros (términos tales como, ingreso, flujo de caja, flujo de fondos, para citar solo tres). En particular, cuando se habla de riesgo e incertidumbre esta confusión se incrementa porque existe un conocimiento previo, intuitivo tal vez, de lo que es la incertidumbre. Para muchos, la incertidumbre es el desconocimiento del futuro; en este contexto se considera que el riesgo y la incertidumbre se producen por la variabilidad de los hechos futuros y por su desconocimiento. Más aun, se nombra a la incertidumbre como la situación en la cual hay un grado (mayor o menor) de desconocimiento del futuro.

En la literatura se presenta confusión al definir la situación b). Por ejemplo, Hillier (1963) habla de riesgo e incertidumbre como si fueran iguales, lo mismo sucede con Hespos y Strassman (1965), para sólo citar unos pocos; Morris (1964), por otro lado, hace la distinción entre riesgo e incertidumbre. Lo cierto es que existen grados de incertidumbre y en la medida en que ella disminuye con la información recolectada se puede manejar en forma analítica cada vez más. Los casos de riesgo, tal como lo distingue Morris, son muy particulares y los más comunes están relacionados con situaciones de azar (loterías, ruletas, rifas, etc.) o con decisiones a las cuales se les ha asignado una distribución de probabilidad. Para la incertidumbre, por el contrario, no se posee información suficiente como para asignarle una distribución de probabilidad.

Esta situación se presenta cuando se pueden determinar los eventos posibles y no es posible asignarles probabilidades. Hay un nivel de mayor incertidumbre que algunos han denominado incertidumbre dura y se refiere a la situación en que ni siquiera es posible identificar los estados o eventos futuros.

Medición analítica de la incertidumbre

En una situación de incertidumbre, no sólo es importante hacer predicciones para evaluar una inversión y decidir si rechazarla o no, sino para poder tomar cursos de acción complementarios que reduzcan las posibilidades de fracaso.

Un medio de reducir la incertidumbre es obtener información antes de tomar la decisión. Información acerca del mercado. Otra alternativa es aumentar el tamaño de las operaciones, como es el caso de las compañías petroleras que asumen menos riesgos al perforar 50 pozos de petróleo que al perforar uno. La diversificación es otro medio de disminuir la incertidumbre en las inversiones; sobre todo, la diversificación a través de productos o serviciossustitutos, como por ejemplo, el café y el té. Si el precio del café sube demasiado y las ventas decrecen, se pueden reemplazar por el té y así se pueden mantener estables los ingresos de la firma. La decisión de comercializar ambos productos puede ser tomada si se prevén bajas substanciales en los precios. Es posible encontrar inversiones A y B, independientes, pero cuyos valores presentes netos varían de acuerdo con la situación general de la economía y en forma contraria, de manera que en promedio los beneficios de la firma se mantienen constantes durante el período.

Al ejecutar esta clase de inversiones en forma simultánea, se puede eliminar o reducir el riesgo. Este tipo de combinaciones es lo que buscan por ejemplo, los grandes grupos y fondos de inversión, al invertir en empresas de muy diversa índole.

David B. Hertz (1964) describe lo que se ha tratado de hacer para medir el riesgo y propone lo que se podría hacer para resolver mejor el problema. Las ideas utilizadas tradicionalmente han sido:

  • Predicciones más exactas: La reducción del error en las predicciones es útil, pero el futuro es siempre el futuro y siempre existirá algún grado de desconocimiento acerca de él, a pesar de que se cuenta con la tecnología que permite hacer predicciones más precisas.
  • Ajustes empíricos: Por ejemplo, si un analista en forma sistemática sobrestima o subestima el valor de las variables que estudia, se pueden hacer correcciones a sus estimativos, de acuerdo con su comportamiento anterior. Esto a primera vista parece razonable, pero, ¿qué hacer si los estimativos de ventas han resultado inferiores a lo real en 75% más del 25% de los casos y no han llegado a más del 40% en una sexta parte de las acciones emprendidas?.
  • Revisar la tasa de descuento: Esto se podría aplicar aumentando la tasa mínima de descuento para dar una protección contra la incertidumbre. Sin embargo, la persona que toma decisiones debe saber explícitamente cuál es el riesgo que se asume y cuáles son las posibilidades de obtener el resultado esperado.
  • Estimativos de tres niveles: Estimar valores inferior, promedio y superior y calcular rentabilidades con base en varias combinaciones de estimativos optimistas, promedio y pesimista. Este enfoque no indica cuál de estos estimativos ocurrirá con mayor probabilidad y no presenta una idea clara de la situación. Sin embargo, si se evalúa el proyecto para el peor de los casos posibles y el VPN es positivo se debe aceptar sin duda.
  • Estimativos de tres niveles: Estimar valores inferior, promedio y superior y calcular rentabilidades con base en varias combinaciones de estimativos optimistas, promedio y pesimista. Este enfoque no indica cuál de estos estimativos ocurrirá con mayor probabilidad y no presenta una idea clara de la situación. Sin embargo, si se evalúa el proyecto para el peor de los casos posibles y el VPN es positivo se debe aceptar sin duda.
  • Probabilidades selectivas: Consiste en calcular para una variable determinada todas las posibilidades que existen y con base en esto, hallar la distribución de probabilidad de las rentabilidades o valores presentes netos.

El método fue propuesto por Hertz, utiliza las técnicas de simulación y se debe usar el computador. El análisis tiene tres etapas:

  • Estimar el rango de valores de cada uno de los factores y dentro de cada rango asignar una probabilidad de ocurrencia a cada valor.
  • Seleccionar al azar, con base en la distribución probabilística de cada factor un valor particular del mismo. Este valor se combina con los valores de los demás factores y se calcula un indicador de eficiencia (VPN o TIR, por ejemplo).
  • Repetir el paso anterior muchas veces para obtener las probabilidades de ocurrencia de los valores posibles del indicador y con base en esto, calcular el valor esperado y las probabilidades de ocurrencia de ciertos rangos del indicador seleccionado.

Causas del riesgo y de la incertidumbre:

Las causas de la variabilidad son básicamente atribuibles al comportamiento humano; sin embargo existen fenómenos no atribuibles directamente al ser humano que también causan riesgo e incertidumbre. Algunas manifestaciones de ambos se mencionan a continuación:

  • Inexistencia de datos históricos directamente relacionados con las alternativas que se estudian.
  • Sesgos en la estimación de datos o de eventos posibles.
  • Cambios en la economía, tanto nacional como mundial.
  • Cambios en políticas de países que en forma directa o indirecta afectan el entorno económico local.
  • Análisis e interpretaciones erróneas de la información disponible.
  • Obsolescencia.
  • Situación política.
  • Catástrofes naturales o comportamiento del clima.
  • Baja cobertura y poca confiabilidad de los datos estadísticos con que se cuenta.

Procedimientos básicos para formar expectativas que generen riesgo e incertidumbre:

  • Análisis mediante índices

Como el empresario tiene su propia base de datos, puede acudir a ella y analizar los índices básicos que determinan sus factores y costes de producción, son datos históricos que le servirán de referencia para formar sus expectativas de futuro.

  • Observaciones de tendencias

La serie histórica estadística de precios de la que dispone el empresario, le indicaran su tendencia de precios al alza o a la baja, le ayudará, igualmente, a formar sus expectativas de futuro, conociendo, incluso los decrementos o incrementos porcentuales de precios habidos en los últimos años.

Pero hay que tener mucha precaución con este procedimiento, porque si las variaciones al alza o a la baja son bruscas y frecuentes, pueden, irremediablemente, conducirle a formar una expectativa errónea, como es lógico, dada la alta volatilidad o dispersión de los resultados analizados. Sin embargo, se puede acudir al llamado índice de elasticidad de expectativas empresariales.

De todos es sabido que cuando el precio de un determinado bien económico sube excesivamente en un determinado período de tiempo, llega un momento en el cuál esa tendencia al alza comienza a disminuir o incluso tiende a bajar durante otro período de tiempo. Quizás, podamos decir, que las propias leyes del mercado se lo imponen.

En el Mercado Bursátil, por ejemplo, se acostumbra a ver, como determinados valores experimentan una fuerte subida que va incrementándose en el tiempo y hacen pensar a los inversores, especialmente a los pequeños y medianos, que van a continuar subiendo en el futuro.

Ello, genera demanda de estos valores que, a su vez, los hacen incrementar en sus cotizaciones, en forma vertiginosa, creando una auténtica “Burbuja Bursátil”.

  • Observaciones de movimientos cíclicos

Es frecuente que los precios de determinados bienes económicos, estén sujetos a leyes de oscilaciones cíclicas.

En estos casos, a una subida de precios (incremento porcentual positivo del precio), sucede, casi siempre, un decremento porcentual o incremento porcentual negativo del precio. Puede ocurrir, en estos casos, que el valor del índice ya indicado, sea mayor que la unidad, en valor absoluto pero con signo negativo. Ello es debido a que en el periodo de tiempo anterior, hubo un alza de precios y en el periodo de tiempo siguiente ha habido una baja de precios y el valor absoluto del numerador es mayor que el valor absoluto del denominador. En estos casos, casi siempre, los índices de elasticidades, suelan ser negativos, debido, precisamente, a las oscilaciones cíclicas de los precios. De aquí, puede el empresario, sacar expectativas empresariales para un próximo futuro, tal como puede ser, una campaña agrícola de un determinado cereal, por ejemplo, el maíz.

  • Construcción de modelos científicos

Si el empresario tiene espíritu científico, puede acudir a métodos estadísticos y econométricos muy perfeccionados que reducen a un mínimo la probabilidad de equivocarse en su predicción empresarial.

  • Criterio de persistencia

Este criterio se basa en suponer que lo que ha ocurrido en el pasado inmediato, continuará ocurriendo en el futuro inmediato. De la que se puede concluir que es una premisa totalmente errónea.

La empresa agrícola y ganadera, suele ser adicta al mismo y claro está, luego, naturalmente, vienen las desagradables e inesperadas sorpresas y no es que se adoptó un criterio que parte de una premisa falsa, es que el criterio falló.

Pero en el sector de la construcción también se dan estas paradojas. Todos sabemos que el mismo, se desarrolla bajo ciclos. De la situación de escasez de viviendas que hace subir los precios de las mismas, los empresarios del sector tienden a expandir la construcción de nuevas viviendas (Criterio de Persistencia) y elevan los precios de las mismas, aprovechando el desequilibrio existente, en esos momentos, entre la oferta y la demanda. Pero, naturalmente, llega a equilibrarse dicha oferta con dicha demanda y los precios, lógicamente, comienzan a tener que bajar, dado que la demanda, también, lo ha hecho, mientras que la oferta permanece inelástica.

Podríamos decir que, en general, estos ciclos afectan a la economía nacional, no solamente venezolana, si no a todas las economías nacionales que están bajo el sistema de libre competencia. A un periodo de auge, sucede otro de depresión.

  • Expectativa de adaptación

La información que obtiene el empresario a través de fuentes externas a la empresa, representa para la misma un costo. Ese costo se conoce como costo de la Información y a veces, puede ocurrir que no compense soportarlo a cambio de la información que obtiene o de la utilidad que la misma le aporta.

La información disminuye el índice de riesgo empresarial, pero desde luego no lo elimina en su totalidad.

Por consiguiente, llegará un momento en el que importe de ese costo de información, sea tal, que su eficacia en la empresa sea mínima.

Por ello, es aconsejable, generar modelos sencillos de expectativas empresariales. En ellos, el empresario parte de una hipótesis que contemplan una serie de acontecimientos futuros (hipótesis inicial) y luego, con el tiempo y el transcurso de la realidad, se va modificando dicha Hipótesis Inicial y ajustando a la realidad. Nace con ello, el método de previsión empresarial y el continuo seguimiento del acontecer diario de la empresa, lo cuál, permitirá ajustar dichas previsiones y conocer las desviaciones existente, pero a tiempo para poderlas corregir.

  • Expectativa de absentismo laboral

El absentismo laboral, es un fenómeno que se presenta, en más o menos intensidad en casi todas las empresas.

Bien, el ambiente interno de la empresa, bien la falta de incentivación e integración que sienta cada persona que compone la plantilla de la empresa en los proyectos que esta realiza, bien el medio ambiente en el que se trabaja (minas subterráneas, trabajos peligrosos y antisalubres, etc, hace que las bajas laborales se proliferen, a veces, en forma considerable con el consiguiente coste que ello conlleva para la empresa y para el propio Estado, que tiene que asumir a través de la Seguridad Social, los costes laborales que ello acarrea.

El empresario tiene que calcular, también, esta expectativa de absentismo laboral, por la repercusión económica que genera y por la disminución de capacidad de horas directas o indirectas realizadas.

Ello genera, por parte del empresario, que éste tienda a sustituir estas bajas con contratos laborales a tiempos parciales e incluso a replantearse el tamaño propio óptimo de su plantilla propia y disminuir así ese absentismo. Es una forma de abordar esta expectativa empresarial. La más delicada, quizás, puesto que trata de personas y ello, normalmente, genera conflictos laborales entre empresarios y sindicatos, que, muchas veces, producen huelgas que quizás, pudieron evitarse, rigidez entre las partes a la hora de firmar Convenios Colectivos y en definitiva, abordar toda una técnica de Negociación Laboral.

Reglas para toma de decisiones bajo riesgo e incertidumbre:

Cuando se habla de decisiones en situaciones no determinísticas, se presentan teorías y modelos sobre los cuales no existe acuerdo sobre si son normativas o descriptivas.

Una teoría, o mejor un criterio es normativo cuando a través de él se estipula una conducta a seguir. Un ejemplo de un criterio normativo es lo que se ha aprendido como regla de decisión para el valor presente neto: Si es mayor que cero, la inversión es recomendable y se debe emprender, si es menor que cero se debe rechazar.

Un criterio es descriptivo cuando explica o describe un comportamiento observado. A continuación se presentan los criterios descriptivos sin información probabilística.

  • Criterios descriptivos
  • Teoría de Juegos

De la Teoría de Juegos se pueden tomar algunos esquemas y conceptos. La Teoría de Juegos trata de establecer estrategias a seguir cuando un decisor se enfrenta a otro (sea éste un competidor, la naturaleza, el azar, Dios, etc.). En estas situaciones el decisor debe intentar conocer lo que “el otro” hará y actuar en consecuencia. Una situación de competencia puede presentar situaciones en las cuales lo que gana un decisor lo pierde el otro y se dice que es un juego de suma cero. Hay situaciones o juegos de suma no-cero en los cuales todos los actores ganan y entonces se dice que es un juego gana-gana; también se pueden presentar situaciones en que todos pierden.

Se ha demostrado que la Teoría de los Juegos es una estructura Conceptualmente satisfactoria que ha posibilitado el análisis de algunos aspectos de la toma de decisiones en situaciones de conflicto (Riesgo e incertidumbre). Es empleada por economistas para estudiar situaciones de competencia imperfecta de la cual mostraremos algunos conceptos básicos.

La Teoría de los juegos es una rama del Análisis Matemático que considera situaciones de conflicto, de riesgo e incertidumbre, mediante modelos abstractos o juegos de estrategia. Fue desarrollada inicialmente por John Von Neuman en 1928 mediante el desarrollo de la prueba fundamental de la Teoría de los Juegos conocida como el principio de minimax.

Posteriormente, en 1944 Von Neuman y Oskar Morgenstern difundieron los aspectos teóricos con la obra The Theory of Games and Economic Be-havior. El progreso de las ciencias de la Dirección de las Empresas, durante la Segunda Guerra Mundial, dio mayores progresos y aplicación sobre la política, la guerra y la vida diaria.

Un “Juego” existe cuando las personas o grupos de personas compiten entre sí, o contra la situación, ó ambas. En los Juegos, en la que los participantes competitivos se enfrentan entre sí, pueden ganar todas o pueden ganar algunas. En este primer caso, el Juego puede ser de “suma cero”; en el segundo caso de “suma no cero”.

En el Juego de Suma Cero hay competencia, no hay cooperación posible entre los participantes: lo que uno gana, el otro lo pierde. En el Juego de Suma No Cero el resultado total depende de las decisiones conjuntas de los jugadores, no es un caso estrictamente Competitivo, lo que les abre la posibilidad de ganar más de lo que podrían conseguir con una elección de estrategia personal según un único interés. Un Juego de dos personas puede representarse en forma de tabla (o matriz) de rendimientos que relaciona todas las estrategias posibles de los jugadores.

Llamémosle John (J), al jugador horizontal ubicado a la izquierda y en la parte baja de la tabla. Las otras estrategias posibles para el otro jugador (L9), es vertical, empezando por arriba de la matriz.

Cada jugador adopta una estrategia que busca maximizar su beneficio o ganancia, considerando todas las posibles reacciones de su competidor.

El resultado de cada combinación de estrategia que realicen los dos jugadores viene a ser la intersección de las líneas horizontal y vertical y significa el “rendimiento” (ó pay off) que cada jugador debería de recibir por la decisión adoptada.

El problema de la selección de estrategia para John viene a ser la elección de una línea horizontal; para Leo, sería la línea virtual. El análisis de los juegos de más de dos personas depende que se permitan o no formar coaliciones.

Por convención, para identificar el valor del juego, la matriz del rendimiento es positivo (+) para John; para Leo, es negativo (-), con lo cual se cumple la condición de que su suma es cero. Las entradas positivas de la matriz representan pagos de L a J; las negativas de J a L.

La solución puede ser de dos tipos: de estrategia pura (un óptimo) y de estrategia mixta (dos o más estrategias que aparecen según la frecuencia relativa de utilización).

John ha examinado la ganancia “mínima” que cada línea horizontal le pueda proporcionar y deseando maximizar sus ganancias elige la mayor de ellas (estrategias de minimax y maximin). Con igual razonamiento Leo examina la pérdida máxima y deseará minimizar su pérdida: viene a ser la estrategia minimax de L.

Ambos jugadores convienen también la existencia de un “punto de silla” definido como la solución o el resultado de un juego estrictamente determinado.

Las estrategias elegidas representan un “par equilibrado” o de estrategias. La solución completa de nuestro problema es que John elija siempre J3 y Leo siempre L2, siendo 5 el valor del juego.

  • Matriz de pagos o de resultados

Es un arreglo de números donde se muestran resultados numéricos (costo, ganancia o alguna medida de utilidad) asociados a una decisión y a un evento simultáneamente. Esta matriz se puede representar.

A esta matriz se pueden asociar algunos criterios que son descriptivos y no se deben tomar, en general, como reglas de decisión.

Al analizar un problema de decisión se debe explorar la posibilidad de que alguna alternativa sea preferible a otra, sea cual fuere el evento que ocurra. Cuando esto ocurre, se dice que una alternativa domina a otra. En términos generales, se dice que una alternativa A k domina a otra A c cuando para todo Ej: se tiene que r(A k, E j) >r (A c, E j). Esto significa que la alternativa A c puede eliminarse del análisis ya que siempre A k será mejor, lo cual reduce el número de alternativas a considerar.

  • Principio maximínimo o minimáximo (pesimista)

Este es un principio que ha sido ampliamente discutido y utilizado en la literatura. Es un criterio pesimista y se puede expresar así: un individuo totalmente pesimista considera que para cada alternativa que seleccione, la naturaleza actuará contra él en la forma más perjudicial y entonces, a cada alternativa asocia el peor evento; pero, como se supone que es un individuo racional y por lo tanto, desea más de un bien deseable y menos de uno indeseable, seleccionará la alternativa que tenga asociado el evento que menos lo perjudique o más lo favorezca.

Principio maximínimo:

Cuando la matriz de pagos se refiere a utilidades, para cada alternativa se escoge el valor mínimo y entre ellos se selecciona el máximo.

Principio Minimáximo:

Cuando la matriz de pagos se refiere a costos, para cada alternativa se selecciona el máximo valor y entre ellos se selecciona el mínimo.

  • Principio minimínimo o maximáximo (optimista)

Este principio es totalmente opuesto al anterior y supone un individuo completamente optimista. Se puede expresar de manera análoga al principio minimáximo: un individuo totalmente optimista considera que para cada alternativa que seleccione, la naturaleza actuará contra él de la forma más favorable y asocia a cada alternativa el evento más favorable; pero como es un individuo racional que desea más de un bien deseable y menos de uno indeseable, escogerá la alternativa que tenga asociado el evento más favorable, o el menos desfavorable.

Principio maximáximo

Si la matriz de resultados es de ganancias, para cada alternativa se escoge el máximo valor y entre ellos el máximo.

Principio minimínimo

Este se refiere a la matriz de pagos cuando sus elementos son costos. Para cada alternativa se escoge el evento que produzca el menor costo y entre ellas se escoge la que tenga asociado el menor.

En los principios mencionados se supone en forma implícita que un evento tiene probabilidad de ocurrencia igual a uno y los demás igual a cero. Esto implica además, que los eventos E1, E2, E3… En, son exhaustivos y excluyentes.

  • Principio de Laplace

Así como los principios anteriores suponen probabilidad uno a un evento, el criterio de Laplace supone que ante la falta de información, los n eventos son equiprobables.

Este criterio interpreta el comportamiento del individuo que escogería la alternativa cuya suma de todos los resultados posibles, o su promedio, fuera el máximo o el mínimo, según sean utilidades o costos. Esto implica la maximización del valor esperado monetario.

  • Principio de Hurwicz

La mayoría de los seres humanos poseen un grado de optimismo o de pesimismo que se encuentra en algún punto intermedio entre los dos extremos. Un tercer enfoque para la toma de decisiones bajo incertidumbre involucra un índice relativo de optimismo o pesimismo. Se llama la regla de Hurwicz.

En la regla de Hurwicz se involucra una negociación o compromiso entre optimismo y pesimismo al permitir que quien toma las decisiones seleccione un índice de optimismo ( tal que 0 = ( = 1. Cuando ( = 0, quien toma las decisiones es pesimista acerca de los resultados de la naturaleza mientras que un valor ( = 1 indica optimismo sobre los mismos hechos. Una vez que se ha seleccionado (, la regla de Hurwicz requiere el cálculo de:

Monografias.com

Donde Pij es el pago para la alternativa i y el estado j de al naturaleza.

  • Principio de la pena minimáxima (Savage)

Si se supone que el individuo se comporta con el deseo de evitar la mayor cantidad de “pena”, “arrepentimiento” o costo por no haber seleccionado una alternativa, dado que ocurrió un evento, será necesario construir una nueva matriz de resultados que se denomina matriz de “penalización” cuyos elementos serán:

S = mejor resultado posible en la columna de ese elemento – elemento

Obsérvese que S representa el costo extra en que el individuo incurre al seleccionar una determinada alternativa, dado que ocurrió un evento. La magnitud de S trata de medir la cantidad de “pena” o “arrepentimiento” o costo por haber tomado determinada decisión. En el caso de utilidades, S expresa lo que el individuo deja de ganar al seleccionar la alternativa, dado que ocurrió determinado evento.

Una vez construida la matriz de penalización, se selecciona para cada alternativa la máxima pena S. Esto produce la columna de penas máximas, de la cual el decisor seleccionará la mínima, por ser racional.

  • Teoría de la opinión contraria (odd-lot theory)

El pequeño inversor siempre se equivoca en sus decisiones. La información se obtiene analizando las operaciones de pequeños lotes o bien haciendo lo contrario de lo que aconsejan los periódicos y revistas.

 

  • Criterios normativos
  • Teoría de partida del análisis técnico

  • Información suficiente para predecir exclusivamente con los datos de mercado: precios y volumen.
  • Existen tendencias en los precios.
  • El pasado se repite.

Figura 2: Media Industrial Dow Jones (1927-1932), como indicador técnico en la toma de decisiones.

Este procedimiento es un análisis de sensibilidad muy amplio y exhaustivo.

Cuándo se debe hacer el análisis del riesgo e incertidumbre:

La tarea de tomar decisiones bajo riesgo e incertidumbre no es fácil y los métodos que se presentan y el que sigue pueden desanimar a los decisores por considerar que no siempre es posible realizar ese tipo de análisis. Esto es cierto. Más aun, Siempre que se pueda tomar una decisión correctamente es preferible hacerlo con menos que con más; en otras palabras, no hacer con más lo que pueda hacer con menos. Lo que se pretende es que se utilice un sano criterio para lograr un uso adecuado de la tecnología a disposición de la Humanidad.

En el análisis de inversiones bajo riesgo se debe hacer un análisis previo de la situación antes de embarcarse en un proceso que puede resultar costoso, no solo por los recursos que requiere, sino porque puede producir errores.

El proceso de evaluación comprende:

  • Definir el monto de la inversión y realizar estimativos gruesos preliminares.
  • Descartar los proyectos que a primera vista no son viables.
  • Con base en estos estimativos gruesos, hacer un análisis de certidumbre.
  • Examinar el monto de la inversión, si es mucho o poco dinero.
  • Distinguir entre elementos importantes de acuerdo con su grado de influencia y variabilidad, los Importantes estúdiense a profundidad, los poco importantes no se deben estudiar a profundidad.
  • Descartar los proyectos que no son viables y seleccionar los proyectos aceptables.

Proceso de pronóstico bajo riesgo e incertidumbre:

La Humanidad ha tratado siempre de predecir el futuro. Basta recordar todos los intentos de las tribus primitivas de controlar, prediciendo, los fenómenos naturales o el oráculo de Delfos en Grecia. Así mismo, los decisores se enfrentan día a día con la necesidad de tomar decisiones hoy con consecuencias futuras.

El proceso de predicción comienza con la definición de las variables que intervienen y las relaciones esperadas entre las variables; después se hace la recolección de datos. Estos datos pueden ser obtenidos por medio de experimentos o simplemente por la recopilación de datos históricos. En el caso de la ejecución de experimentos, por ejemplo, la duración de un determinado producto o la simulación del comportamiento de una variable (ver capítulo sobre simulación), el experimentador puede controlar ciertas variables y por lo tanto, se puede lograr una mejor comprensión de las fuentes de variación; en el caso de los datos históricos, nada puede hacerse para controlar las variables que afectan los resultados; éste sería el caso cuando se desea pronosticar la demanda futura a partir del comportamiento de ésta en el pasado.

El paso siguiente en el proceso de predicción es la construcción de un modelo de inferencia estadística para hacer el pronóstico. Estos modelos operan bajo condiciones muy específicas, tales como supuestos de independencia entre variables, distribuciones de probabilidad específicas, etc. Si estos supuestos no se cumplen, los resultados obtenidos pueden perder toda validez.

Al tomar decisiones es posible que el grado de detalle y afinamiento de los resultados sea innecesario, por lo tanto es posible hacer suposiciones fuertes y restrictivas a tal punto que violen las condiciones específicas requeridas por el modelo en cuestión. En estos casos, lo importante es conocer qué condiciones no se están cumpliendo y cuáles son las consecuencias, para actuar con la debida precaución.

No siempre es posible partir de información histórica para hacer pronósticos y es necesario aplicar el criterio, fruto de la experiencia, para “predecir” lo que ocurrirá respecto de una decisión. En la mayoría de las decisiones que se toman día a día son necesarios el criterio y la experiencia. El buen criterio o buen juicio es algo que se obtiene con mucho esfuerzo y paciencia; si bien es cierto que la educación formal da una preparación para adquirirlo, la mejor manera de refinar el criterio es a través de la experiencia.

Al tomar algunas decisiones lo importante determinar cuál es el valor preciso de una variable determinada, sino si este valor sobrepasará o no cierto valor crítico.

En estos casos una estimación o apreciación de este valor será suficiente. Se podría pensar en el principio de reducir la discriminación requerida; este principio se puede enunciar de la siguiente manera: cuando haya que estimar el valor de una variable, encuentre el valor de esa variable para el cual la decisión cambie de una alternativa a otra. De esta manera, lo único que se necesita es determinar si el valor estimado de la variable sobrepasa o no el valor crítico que hace cambiar la decisión. Por ejemplo, al tratar de determinar el valor de la(s) tasa(s) de descuento a utilizar para calcular el Valor Presente Neto de dos alternativas mutuamente excluyentes, sólo se necesita saber si esta(s) tasa(s) de descuento es(son) mayor(es) que el(los) valor(es) crítico(s) estipulado(s).

Muchas veces es necesario pronosticar una variable que depende a su vez de otras. Por ejemplo, los costos totales de operación de un equipo determinado se componen de mano de obra, energía, mantenimiento, etc. Matemáticamente se puede expresar así:

C = f (c1, c2, c3,….., cn)

Se puede obtener el pronóstico de C de dos formas: pronosticando C directamente o pronosticar los componentes de C y a partir de allí hallar el valor de C, por medio de la relación f(.). ¿Cuál de las dos formas utilizar? Esto depende de la varianza que se obtenga en una u otra forma.

Las técnicas de pronóstico son una herramienta necesaria para la planeación macro y microeconómica. Para el caso del gerente su quehacer básico es la toma de decisiones con consecuencias futuras y por lo tanto debe elaborar estimativos de lo que sucederá en el futuro. Por otro lado, debe prever escenarios que le permitan anticiparse a las posibles eventualidades que le indicarán la conveniencia o inconveniencia de una alternativa. En particular para analizar decisiones de inversión es necesario hacer estimativos de muy diversas variables: precios, tasas de interés, volúmenes de venta o de producción, etc., por lo tanto, es necesario que el analista conozca, por lo menos la existencia de ciertas técnicas que le ayuden en esta tarea.

Publicado en Monografías.com. Post original aquí.

Si te ha interesado este post, no olvides dejarnos tus comentarios. También apreciamos que los compartas con tus amigos y contactos en las redes sociales. Muchas gracias.

 

Share

¿Tiene remedio la administración?

Por Xavier Marcet

Este artículo se publico en La Vanguardia el 27 de Mayo de 2017

Las administraciones no tendrán más remedio que adaptarse a un  mundo que cambia aceleradamente. Sirvan como ejemplo de aceleración, AirBnB o Uber, fenómenos muy recientes pero con alto impacto. ¿podrá una administración pensada como una máquina para gestionar certezas y estabilidades adecuarse a un mundo de incertidumbres y volatilidades? Lo deberá hacer si no quiere perder su misión última: servir bien a los ciudadanos.

Para hacerlo deberá aprovechar su mejor talento. Aquellos más comprometidos y capaces para que lideren un cambio que también debe ser en clave personal. Es hora de aprender mucho y desaprender más, también en las administraciones. Los que conseguirán adaptar la administración son esta parte de gente más innovadora y emprendedora, esos profesionales que no quieren sentir la incomodidad de pertenecer a organizaciones que perdieron el tren de la actualización. Y seguramente se encontrarán delante a otros que se especializaron en perfeccionar la queja, en recordar todo lo que es imposible y en encontrar a todos sus jefes malos o peores.

En mi experiencia la gente que hay en las administraciones no es tan distinta a la hora de innovar o cambiar con la que encuentro en la empresas. Tampoco lo es su valía. La teoría de los tres partes funciona en ambos casos. Una parte de gente de talento que da resultados por encima de la media, una parte de gente de resultados y compromiso mucho más oscilante y una parte de personas que nadie sabe cómo pudieron entrar pero que todo el mundo sabe que no se irán nunca.

Las administraciones pueden adaptarse. Lo han hecho en muchos casos y lo volverán a hacer. A lo que uno viaja se da cuenta de que no tenemos administraciones que sean un desastre aunque tengan mucho margen de mejora. Algunos servicios como el de la tele asistencia para gente mayor son ejemplos de lo que es el valor público. Soluciones como el bicing fueron en su momento muy innovadoras. En los años noventa las administraciones encajaron el impacto de Internet y ahora volverán hacerlo pero con mucha más demanda social que entonces y con unos ciudadanos situados en el centro del tablero.

Las administraciones deberán superar grandes desafíos para esta adaptación. Algunos tendrán que ver con la política, tan faltada de talento y tan desprestigiada por los casos de corrupción. Otras con la falta de recursos, especialmente acuciante desde la crisis económica. Otras con gobernanzas llenas de carencias.  Sin duda son factores clave, pero hoy quisiera añadir otros acentos quizás menos repetidos.

  1. El Talento. La quiebra en la fluidez de talento es muy grave en las administraciones. Las organizaciones que gestionan bien el talento lo hacen fluir, entra y sale gente. Hoy de las administraciones no sale ni entra nadie. Que no se incorporen estas generaciones de jóvenes preparados, formados en el paradigma digital y socialmente comprometidos a las administraciones, es un gran desastre. La gente con experiencia necesita estos jóvenes como el agua, y viceversa. La transformación digital es mucho más difícil en organizaciones dónde no fluye el talento.
  2. Las culturas bloqueadas. Siempre hay excusas para no cambiar y poner por fin a los ciudadanos en el centro y adaptarse a sus necesidades. Ya no son los ciudadanos que deben adaptarse a las administraciones, son éstas las que tienen que cambiar, ser mucho más flexibles e innovadoras. Definitivamente el modelo de funcionario del siglo XX no resistirá en el siglo XXI. En un mundo de trabajo líquido las administraciones no serán inmunes y no resistirán con  patrones profesionales propios de un mundo que se desvanece. Hay que desbloquear esas culturas tan corporativistas que dejaron de mirar al mundo que cambia y solo tienen ojos para si mismas.
  3. Las inercias escleróticas. Las estructuras lentas e inerciales de las administraciones son todo lo contrario de la agilidad. No hay capacidad de desburocratización. Veamos un ejemplo.  El necesario énfasis en la transparencia está reburocratizando las administraciones.  Hay poca  capacidad de innovar.

El desarrollo del Big Data, la inteligencia artificial , la robótica, la impresión 3D, la realidad virtual y sobretodo el Blockchain posibilitarán nuevas formas de crear valor público con grandes beneficios para los ciudadanos. Permitirán tomar decisiones de otra calidad, de un modo distinto. Y necesitamos administraciones que puedan aprovechar todo este potencial. De todas estas tecnologías el Blockchain tendrá un alto impacto en la administración. Es la primera tecnología que puede realmente disrumpir la administración y ser una herramienta de lucha muy eficiente contra la corrupción ( aunque nunca hay que subestimar la condición humana).

 

Una sociedad que deberá enfrentar retos mayúsculos como el sostener grandes longevidades en un mundo con menos trabajo disponible, o como todos los desafíos derivados del cambio climático, no puede tener administraciones que no aprovechen todo el potencial de las tecnologías 4.0. Es hora de cambiar, sin dramas, pero con convicción. Ya no podemos continuar confundiendo estrategia y planificación, ni modernización con innovación, ni talento con escalafón . Todo esto es demasiado serio como para dejar la administración solamente a la administración.

( La imagen pertenece a una obra de Simone Martini)

Publicado en XavierMarcet.com . Post original aquí.

Si te ha interesado este post, no olvides dejarnos tus comentarios. También apreciamos que los compartas con tus amigos y contactos en las redes sociales. Muchas gracias.

Share