El concepto de riesgo aparece está relacionado con el reconocimiento de la incertidumbre sobre las consecuencias futuras de una acción presente. En esta definición van implícitas algunas de los aspectos más importantes que lo definen:
- El riesgo puede ser objetivo o subjetivo. El riesgo objetivo es aquel en que, aunque el resultado sea incierto, se puede describir basándose precisamente en teoría, experimentación o sentido común, por lo que todo el mundo está de acuerdo cuando se describen. Lamentablemente, la mayoría de los riesgos son subjetivos.
- En segundo lugar, decidir que algo es arriesgado o no requiere el uso del juicio personal, incluso en el caso de riesgos objetivos.
- En tercer lugar, las acciones arriesgadas y, por lo tanto, el riesgo, son cosas que normalmente podemos aceptar o evitar. Cada persona es diferente a la hora de decidir la cantidad de riesgo que está dispuesta a aceptar.
Mediante el análisis de riesgos se estima el impacto del factor riesgo en situaciones de decisión, existen miles de métodos que combinan las técnicas cuantitativa y cualitativa en mayor o en menor grado. En general, las técnicas cuantitativas de análisis de riesgo comprenden cuatro pasos:
- Desarrollo de un modelo mediante la definición del problema o situación en el formato correspondiente en cada caso identificación de los resultados inciertos que desea analizar.
- Identificación de la incertidumbre en las variables de riesgo del modelo, especificación de los posibles valores con distribuciones de probabilidad.1
- Análisis del modelo mediante simulación para determinar el rango y las probabilidades de todas las conclusiones posibles de los resultados del modelo en cuestión. La simulación es un método de cálculo en el que la distribución de posibles resultados se genera mediante el cálculo repetido que la computadora hace del modelo, cada vez utilizando una serie de valores diferentes en las celdas y en las fórmulas, escogidos aleatoriamente para crear la distribución de probabilidad. La computadora prueba todas las combinaciones válidas de valores de las variables de entrada para simular todos los posibles resultados (es como si llevara a cabo cientos de miles de análisis de escenarios «Y si…» al mismo tiempo en el modelo estudiado).
- Toma de decisión basada en los resultados obtenidos y en las preferencias personales
En un análisis de riesgo tradicional, es decir por un valor «esperado» se compararía el resultado esperado con algún estándar o valor mínimo aceptable y si el resultado es al menos tan bueno como el estándar, el resultado es aceptable, pero quienes toman decisiones, reconocen que el resultado esperado no muestra el impacto de la incertidumbre ya que tal vez aumenten arbitrariamente el resultado mínimo aceptable o consideren de modo poco riguroso la posibilidad de que los resultados se queden cortos o sobrepasen el resultado esperado.
Por otra parte, en un análisis de riesgo utilizando las herramientas de simulación de riesgos, las distribuciones de probabilidad de salida ofrecen una imagen completa de todos los posibles resultados. Este método es mucho más elaborado y completo que el de «peor-esperado-mejor de los casos» ya que:
- Determinan un rango «correcto», ya que como este método define más rigurosamente la incertidumbre asociada con cada variable de entrada, el rango posible de resultados puede ser muy diferente (pero más exacto) del rango que presenta un análisis «peor de los casos-mejor de los casos».
- Muestran la probabilidad de que ocurra cada valor, ya que una distribución de probabilidad muestra la probabilidad relativa de que se produzca cada uno de los resultados posibles.
Contents
I.- Técnicas cuantitativas de análisis de riesgos
I.1.- Diagramas de influencia probabilistas.
Los diagramas de influencia probabilistas son otra metodología, algo más compleja que los árboles de decisión, en la que se pueden representar las interrelaciones entre actividades, riesgos y respuestas (Association of Project Managers, 1992; Diekmann et al, 1996; Huseby y Skogen, 1992; Shachter, 1986).
En esta técnica se representa mediante cajas o nodos las diferentes variables que intervienen en el análisis, y mediante flechas a las relaciones que ligan dichas variables. Con ello se representa un mapa con las principales variables y sus redes de influencias, permitiéndose así una percepción global y sencilla, hasta cierto punto, del problema.
Las variables se distinguen en función de que sean decisiones a tomar o posibles sucesos derivados de diferentes actuaciones. Dichas variables pueden tomar valores cualesquiera con arreglo a funciones de distribución a elegir por el analista. Y las relaciones pueden tomar fórmulas concretas o bien definirse mediante tablas y otros tipos de relaciones, como es el caso de que establezcan funciones de distribución para los posibles sucesos derivados en función de las decisiones a tomar.
Esta técnica puede utilizarse para simular el riesgo en cualquier parcela del proyecto, e incluso para construir modelos completos considerando todos los posibles factores de riesgo del proyecto y sus interrelaciones.
Para utilizar estas técnicas en los casos que se van a estudiar a continuación, se va a emplear un programa llamado Definitive Scenario; (Project Management for Successful Product Innovation By Alan Webb)
Se trata de un programa que permite generar árboles de decisión probabilistas incorporando funciones matemáticas y financieras, entre otras, que permiten establecer modelos para el análisis de viabilidad de un proyecto o para la estimación de costes o la programación del mismo, entre otros. Tras elaborarse el modelo y estimarse los valores deterministas y probabilistas de las variables que se incluyen en él, realiza una simulación por teoría de Monte Carlo tras la cual muestra los resultados de la misma en forma de tablas y gráficos; pudiéndose además realizar un análisis de sensibilidad sobre la anterior simulación.
I.2.- Simulación de procesos
La simulación de procesos es una técnica compleja que usa diversas técnicas de investigación operativa para simular de manera discreta o continua cualquier proceso imaginable. Se usan técnicas de grafos combinadas con teoría de la probabilidad, teoría de colas, simulación por teoría de Monte Carlo y análisis de sensibilidad para simular un proceso de producción, la evolución del crecimiento de una especie de fauna en función de las condiciones de su hábitat y de sus predadores, la evolución de una epidemia de una determinada enfermedad o la de la contaminación de un cauce fluvial.
Todo este tipo de modelos se pueden establecer también mediante dinámica de sistemas, y la diferencia está en las herramientas matemáticas que la aplicación usa internamente. Su aplicación es muy variada, pudiendo usarse para simular en tiempo y coste procesos de ejecución de obras, aspectos de calidad del producto final del proyecto o la propia viabilidad del mismo.
Para utilizar la simulación de procesos en los casos que se van a estudiar a continuación, se va a emplear un programa llamado Extend que fue desarrollado por la empresa Imagine That Inc de EEUU. Se trata de un paquete de simulación discreta y continua de procesos de cualquier tipo, que usa técnicas de grafos combinadas con teoría de la probabilidad, teoría de colas, simulación por teoría de Monte Carlo y análisis de sensibilidad para simular un proceso de cualquier tipo. Como Se ha dicho, todo este tipo de modelos se pueden establecer también mediante dinámica de sistemas y la diferencia está en las herramientas matemáticas que la aplicación usa internamente. Existen programas similares a Extend, como Simul8 (Visual Thinking International, EEUU), que es otra aplicación de simulación de procesos de cualquier tipo, en este caso discreta, y que está orientado, en principio, a procesos industriales y empresariales.
II.- Método de toma de muestras según la Teoría de Montecarlo y del Hipercubo Latino.
El método de toma de muestras según la Teoría de Montecarlo es una técnica tradicional que utiliza números aleatorios o pseudo-aleatorios para recoger las muestras de una distribución de probabilidad. El término Monte Carlo se empezó a utilizar durante la Segunda Guerra Mundial como código para la simulación de problemas asociados con el desarrollo de la bomba atómica y hoy en día, las técnicas Monte Carlo se aplican a una amplia variedad de problemas complejos con un factor aleatorio siendo un método basado en la teoría de la probabilidad que puede aplicarse a cualquier otra técnica cuantitativa como elemento adicional.
En el caso de la aplicación de la teoría de Monte Carlo a la programación y estimación de costes de proyectos se asignan, al igual que en otras técnicas probabilísticas, tres valores optimistas (O.i), pesimista (E.i) y más probable (P.i) para cada variable, sea una duración o un coste. Cada variable puede aquí ajustarse a una distribución diferente (FD.i), en función de cómo se considere que se va a comportar (normal, beta, o triangular, entre otras). De esta manera, se tienen nº ítems o elementos de coste a estimar y se realiza el proceso en t iteraciones.
A continuación, con la ayuda del ordenador, se sigue el algoritmo reflejado en la figura anterior. Primero se genera un número aleatorio que sirve para seleccionar la duración de la primera actividad o el coste del primer elemento (en tiempos se hacía a mano con tablas de números aleatorios). Ese número aleatorio sirve para seleccionar el valor que va a tomar esa primera variable de entre todos los posibles valores existentes entre los extremos definidos; es decir, entre la estimación optimista y la pesimista). Esa selección se hace en función del valor del número aleatorio generado y de la función de distribución que se ha elegido para esa duración o elemento de coste en particular. Se vuelve a generar un número aleatorio para determinar la duración de la segunda actividad o el coste del segundo elemento. Y así sucesivamente con el resto de actividades o elementos de coste del proyecto (hasta que i>n). Cuando se ha terminado lo anterior, se analiza la malla o grafo del proyecto con las duraciones halladas para obtener la duración crítica y holguras o se suman todos los costes para obtener el coste total del proyecto. Tras la primera iteración se registran los resultados hallados y se procede a repetir la operación un número suficiente de veces como para asegurar un nivel determinado de confianza (hasta que j > t). A continuación, se agrupan todos los datos en una tabla que debería tener una forma similar a .
Con todos los resultados hallados se elabora un gráfico estadístico que recoja los resultados, representados por una curva con forma de letra S que relaciona, en abscisas, las posibles fechas de finalización o plazos de duración del proyecto con, en ordenadas, la probabilidad acumulada (de 0 al 100%) de que se llegue a terminar el proyecto en una fecha o plazo determinado.

Curvas de distribución y frecuencias para el plazo realizado mediante simulación por teoría Monte Carlo

Curvas de distribución y frecuencias para el coste realizado mediante simulación por teoría Monte Carlo
Las figuras anteiores recogen dos curvas de simulación por teoría Monte Carlo, una para plazo, realizada sobre un grafo típico CPM o PERT y otra para coste, respectivamente. Con este tipo de simulación y con las salidas gráficas mencionadas se obtiene con facilidad la probabilidad de terminar en una fecha determinada o la fecha de terminación correspondiente a una probabilidad determinada, y lo mismo puede obtenerse, si se desea, con respecto a fechas intermedias u holguras.
Los resultados de una simulación por teoría de Monte Carlo de la programación del proyecto se pueden usar para cuantificar el riesgo de diferentes alternativas de contratación, de diferentes estrategias de proyecto, de diferentes caminos del grafo del proyecto, o de actividades determinadas.
Este tipo de simulación puede usarse cuando no se consigue la convergencia en un determinado camino con las técnicas matemáticas tradicionales de análisis de la malla como es la clásica del PERT, lo que puede llevar a subestimar la duración global del proyecto . Este problema de convergencia es el que se puede dar cuando hay dos o más actividades en un grafo que van desde el mismo hito o nodo de inicio hasta el mismo nodo de finalización, y todas tienen idénticas duraciones óptima, pésima y esperada. El resultado de duración esperada entre dichos dos nodos de inicio y final utilizando el método PERT sería la duración esperada de las actividades que hay entre ellas, pero es obvio que la probabilidad de sobrepasar dicha duración es tanto mayor cuanto mayor sea el número de actividades que se desarrollarán entre dichos dos nodos.
La teoría de Monte Carlo se puede usar con funciones de distribución condicionales para contemplar la posible correlación existente entre diferentes parámetros del análisis. Se puede aplicar también, además de al control del plazo, y con las diferencias obvias, a las herramientas tradicionales de análisis de viabilidad del proyecto, y de control de costes o a la evaluación de propuestas , entre otros aspectos.
En ocasiones se aplica esta técnica a efectos simultáneos de plazo y coste sobre un modelo que incluye bien una malla o grafo que refleje tanto las duraciones como los costes para cada actividad del proyecto, bien una estructura de desagregación de costes en la que cada coste se establece en función del riesgo de retrasos o adelantos, bien ambos aspectos . Esta técnica también se puede combinar con otros métodos de simulación en las que ya sí que pueden tener más o menos en cuenta las interrelaciones entre los parámetros que se analizan, como son los basados en dinámica de sistemas, simulación de procesos, diagramas de influencia o árboles de decisión.
La técnica del Hipercuadro Latino
La técnica del Hipercuadro Latino es una variación sobre las técnicas de Montecarlo de recogida de muestras por estratificación y que ofrece, por tanto, grandes ventajas en lo que respecta a la eficacia y a la duración del proceso de toma de muestras (debido a la reducción del número de iteraciones). Además, también facilita el análisis de situaciones con distribuciones de probabilidad de entrada con resultados de baja probabilidad ya que al forzar el proceso de la toma de muestras para que incluya los sucesos más marginales. La clave de este sistema es, como ya se dijo antes, la estratificación de las distribuciones de probabilidad de entrada dividiendo la curva acumulativa en intervalos iguales de la escala de probabilidad acumulativa (de 0 a 1,0). A continuación, se toma una muestra aleatoria de cada uno de estos intervalos «estratificaciones» de la distribución de entrada. De este modo, las muestras representan necesariamente valores de cada intervalo y, por lo tanto, recrean precisamente la distribución de probabilidad de entrada.
La técnica que se utiliza con el método Hipercuadro Latino es la de «toma de muestras sin reemplazo», de forma que el número de estratificaciones de la distribución acumulativa es igual al número de iteraciones llevadas a cabo. En el ejemplo siguiente (figura 3.7) había 5 iteraciones y, por lo tanto, se hicieron 5 estratificaciones en la distribución acumulativa. Luego, se toma una muestra aleatoria de cada una de las estratificaciones. Sin embargo, una vez tomada la muestra de una de las estratificaciones, no se vuelve a tomar una muestra de la misma, porque su valor ya está representado en el grupo de muestras.
Un aspecto a tener en cuenta cuando se utiliza el método del Hipercuadro Latino para tomar muestras de múltiples variables, es que es importante mantener la independencia entre las variables. Los valores tomados como muestra para una variable deben ser independientes de los que se toman para otra variable (a menos que se indique expresamente que existe una correlación). Esta independencia es posible al seleccionarse aleatoriamente el intervalo del que se tomará una muestra para cada variable. En una iteración determinada, la variable número 1 puede recibir la muestra de la estratificación número 4, La variable número 2 podría recibirla de la estratificación 22, etcétera. De este modo se mantiene la aleatoriedad y la independencia, y se evitan correlaciones no deseadas entre variables.
Para utilizar el muestreo mediante técnicas de Montecarlo e hipercubo latino en los casos que se van a estudiar a continuación se va a emplear un programa llamado @Risk desarrollado por la empresa Palisade Corporation (http://www.palisade.com/ ) que facilita el análisis de escenarios, el análisis de sensibilidad y la simulación por teoría de Monte Carlo sobre las hojas de cálculo electrónicas Excel , proporcionando funciones de distribución muy variadas para asignar a parámetros del análisis.
III.- Análisis de sensibilidad:
La ejecución de análisis de sensibilidad y de análisis «¿Y si…?» (o, ¿Qué pasaría si…?) es una parte fundamental del proceso de toma de decisiones basadas en hojas de cálculo. Este análisis identifica las variables que más afectan los resultados. De esta forma se sabrá cuáles son los factores a los que debe prestar más atención a la hora de:
- Recoger más información y refinar la capacidad de análisis del modelo.
- Administrar e interpretar las situaciones descritas en el modelo.
En el análisis de sensibilidad se hacen variar los valores de parámetros base para el cálculo, como pueden ser los precios de compra de equipos y materiales, los costes de explotación o los ingresos por ventas, y se analiza su incidencia en los resultados del proyecto, como pueden ser el margen comercial a conseguir por un contratista o el beneficio económico a obtener por un promotor .
Los parámetros base se suelen hacer variar entre dos límites que se consideran el pésimo y el óptimo, y se denomina factor o parámetro crítico al que ocasiona grandes variaciones en el resultado final del proyecto con pequeñas variaciones en su valor. Se suele hablar también de nivel de criticidad, referido a los parámetros críticos, para hacer referencia a la máxima variación posible del parámetro, de manera individual, sin alterarse los valores base del resto de parámetros.
El análisis de sensibilidad ha tenido una de sus aplicaciones clásicas en el estudio de viabilidad del proyecto, pero es aplicable prácticamente a cualquier campo de la dirección de proyectos en el que se realice una cuantificación de parámetros, como es el caso de la definición y control del plazo y del coste. .
La anterior muestra un gráfico resultado de un análisis de sensibilidad de la rentabilidad de un proyecto. Esta es la salida gráfica típica de este tipo de análisis, que algunos autores denominan gráfica tipo “araña” (Schuyler, 1996). Existe otro tipo de gráfica, que se suele añadir al anterior, que supone una representación muy intuitiva de los resultados del análisis, aunque por motivos obvios, refleja con menor precisión dicha sensibilidad. Esta salida, de la cual se representa un ejemplo en la figura siguiente se suele denominar gráfica tipo “tornado”. Su utilidad estriba en que los parámetros de entrada se ordenan en función de su impacto sobre los resultados del proyecto mediante un coeficiente normalizado (como se explicará en detalle en la tercera parte del presente proyecto).
Algunas de las ventajas del análisis de sensibilidad incluyen el recalcar a la alta dirección que hay un rango de posibles resultados para el proyecto, que la toma de decisiones es más realista, aunque quizá más compleja, y que la importancia relativa de cada variable examinada se aclara con mucha facilidad.
Las debilidades esenciales de esta técnica son:
- Que no sea aplicada como complemento a una técnica probabilística. Un diagrama de sensibilidad no indica estimación alguna de probabilidad de que se alcancen los resultados previstos u otros resultados, simplemente permite concentrar la atención en estos importantes componentes y hacer una mejor estimación de sus valores. El análisis de riesgo varía todas las entradas inciertas al mismo tiempo como ocurre en la realidad y crea un rango y una distribución de los posibles resultados
- Que no se aplique como complemento a una técnica que pueda recoger las posibles interrelaciones. En este caso las variables se tratan de manera individual y queda muy limitada la posibilidad de estudio de las interrelaciones entre variables .Por ejemplo, si simulamos la venta de un producto, es razonable que exista alguna manera de relacionar el precio de venta con la cantidad vendida para que si durante el análisis se establece que el precio de venta aumente, las unidades vendidas disminuyan de alguna manera determinada.
Para hacer este tipo de analisis se empleara el programa llamado TopRank desarrollado por la empresa Palisade Corporation (http://www.palisade.com) que automatiza el análisis de sensibilidad (what-if) en Excel, identificando automáticamente los factores que más inciden sobre el resultado de un modelo cualquiera generado en la hoja electrónica (pudiendo correlacionar cualquiera de las variables que intervienen), ordenándolos según sus consecuencias sobre los resultados finales del modelo.
El esquema de trabajo de este programa es muy simple En un análisis, TopRank introduce por defecto funciones de variación (que cambian le valor de la variable de entrada de la hoja de cálculo dentro de un rango previamente fijado) allá donde se quieran probar diferentes valores en un análisis «Y si…», y calcula de nuevo la hoja de cálculo utilizando los nuevos valores. Cada vez que se lleva a cabo un nuevo cálculo, se recogen los valores que aparecen en las celdas de resultados. Este proceso de cambio de valor y recálculo se repite por cada función de variación y de auto-variación. El número de recálculos llevados a cabo depende del número de funciones de variación introducidas, y el número de pasos (es decir, el número de valores que se extraen dentro del rango de variación establecido en cada celda de entrada)
Al final TopRank clasifica todas las variables de entrada del modelo según el impacto (cantidad de cambio en la variable de salida que se produjo cuando se cambió la variable de entrada) que tienen en la celda de resultado o salida seleccionada, pudiéndose consultar gráficamente en gráficos tipo Tornado o , Araña mostrando de un modo sencillo las entradas más significativas.
-Diferencias entre TopRank y @Risk:
Aunque tanto @RISK como TopRank son programas que se incorporan a los programas de hojas de cálculo para llevar a cabo análisis de modelos exploran el efecto que la incertidumbre mediante el uso de fórmulas especiales, (ayudando , por lo tanto, a tomar una decisión). Estos programas difieren fundamentalmente en tres áreas : en la definición de las incertidumbres en el modelo, en los proceso que se llevan a cabo durante el análisis y en el tipo de respuesta que ofrece el análisis, como se puede apreciar en la siguiente tabla:
TopRank | @Risk | |
Entradas del modelo | Define la incertidumbre de un modelo utilizando funciones de variación.
Puede definir automáticamente celdas de variables de un modelo cuando se selecciona una salida. |
Define la incertidumbre utilizando funciones de distribución de probabilidad.
Se debe asignar funciones de distribución a cada uno de los valores que considere inciertos. |
Cálculos realizados | Ejecuta análisis de sensibilidad singulares o multidireccionales.
Durante el análisis, sólo una celda (o un número reducido de celdas) varía al mismo tiempo según los valores definidos en la función de variación. Sólo se necesitan unas pocas iteraciones para hacer un estudio de una gran cantidad de celdas de entrada inciertas. |
Ejecuta simulaciones con los métodos Monte Carlo o Hipercuadro Latino.
En cada iteración (o paso), cada una de las distribuciones de @RISK toma un valor nuevo determinado por la función de distribución de probabilidad. Para hacer un análisis exhaustivo, @RISK debe llevar a cabo cientos, y a veces miles, de iteraciones. |
Resultados obtenidos | Los resultados muestran la cantidad de cambio que se puede esperar en una salida cuando una entrada cambia una cantidad determinada.
Indica el efecto que una entrada individual (o un pequeño grupo de entradas) tiene sobre una salida. |
Produce una distribución de probabilidad que describe qué valores puede alcanzar una salida.
Estudia el impacto que la combinación de incertidumbre de todas las variables tiene sobre la variable de salida. |
IV.- Otras herramientas para el análisis e identificación de riesgos.
En este apartado se va a proceder a explicar el funcionamiento de los programas BestFit y RiskView que, como ya se ha visto, se incluyen dentro del paquete “Decision Tools Suite” de Palisade Inc; ya que, aunque no se van a aplicar a esta parte del proyecto debido a la extrema sencillez de los modelos desarrollados, sí que se van a utilizar durante el análisis de riesgos del modelo hecho en la tercera parte del presente proyecto (donde se explicará cómo se trabaja con este programa con mayor profundidad).
-Introducción a BestFit.
BestFit fue creado por Palisade como producto complementario de @RISK , y se utiliza para seleccionar las distribuciones que mejor se adapten a los datos históricos que se posean de un determinado proceso (ya sean importados desde bases de datos o hojas de cálculo o introducidos directamente en el programa), y las ordena minimizando su error cuadrático medio respecto a la muestra inicial de partida. Su utilidad se centra principalmente en la estimación probabilística objetiva.
La utilidad fundamental de este programa es la de conseguir unas distribuciones que reflejen con mayor exactitud el riesgo presente en la variables a analizar, ya que los resultados de los análisis de riesgo pueden ser extremadamente sensibles a las distribuciones que se seleccionen para las variables de entrada. De esta forma una selección desafortunada de distribuciones o el uso de un solo valor, como la media, puede producir inexactitudes notables, pudiendo llevar a errores serios en los resultados, errores que pueden resultar en una pérdida de tiempo y de dinero.
-Introducción a RiskView.
RiskView (Palisade, EEUU) Es una herramienta de apoyo a @Risk, PrecissionTree, TopRank y BestFit. Ayuda a generar funciones de distribución que se ajusten a las necesidades o deseos del usuario, incluso estableciendo la función de distribución que se ajusta a un dibujo realizado a mano alzada (mediante un programa llamado Distribution Artist) . Su uso se dirige ya tanto a la estimación objetiva como a la estimación subjetiva de la probabilidad. Puede constituir un paso posterior después de usar BestFit, para mejorar el ajuste redefiniendo la función de distribución ya que evita tener que tomar decisiones a ciegas al permitir la selección de una distribución mediante el análisis visual de la curva.