INTRODUCCIÓN A LA TEORÍA DE JUEGOS TEMA: INTRODUCCIÓN A LA TEORÍA DE JUEGOS Ing. Larry D. Concha B. UNIVERSIDAD AUTONOMA SAN FRANCISCO.

1 2 ...
Author: Alfredo San Segundo Cárdenas
0 downloads 0 Views

1

2 INTRODUCCIÓN A LA TEORÍA DE JUEGOS TEMA: INTRODUCCIÓN A LA TEORÍA DE JUEGOS Ing. Larry D. Concha B. UNIVERSIDAD AUTONOMA SAN FRANCISCO

3 La teoría de juegos es una rama de la economía que estudia las decisiones en las que para que un individuo tenga éxito tiene que tener en cuenta las decisiones tomadas por el resto de los agentes que intervienen en la situación. La teoría de juegos como estudio matemático no se ha utilizado exclusivamente en la economía, sino en la gestión, estrategia, psicología o incluso en biología. En teoría de juegos no tenemos que preguntarnos qué vamos a hacer, tenemos que preguntarnos qué vamos a hacer teniendo en cuenta lo que pensamos que harán los demás, ellos actuarán pensando según crean que van a ser nuestras actuaciones. La teoría de juegos ha sido utilizada en muchas decisiones empresariales, económicas, políticas o incluso para ganar jugando al póker. Para representar gráficamente en teoría de juegos se suelen utilizar matrices (también conocidas como forma normal) y árboles de decisión como herramientas para comprender mejor los razonamientos que llevan a un punto u otro. Además los juegos se pueden resolver usando las matemáticas, aunque suelen ser bastante sofisticadas como para entrar en profundidad. Aunque tiene algunos puntos en común con la teoría de la decisión, la teoría de juegos estudia decisiones realizadas en entornos donde interaccionan. En otras palabras, estudia la elección de la conducta óptima cuando los costes y los beneficios de cada opción no están fijados de antemano, sino que dependen de las elecciones de otros individuos. Un ejemplo muy conocido de la aplicación de la teoría de juegos a la vida real es el dilema del prisionero, popularizado por el matemático Albert W. Tucker, el cual tiene muchas implicaciones para comprender la naturaleza de la cooperación humana.

4 En otras palabras, asumen que el comportamiento individual no tiene un efecto significativo sobre otros individuos. En algunos casos, y dependiendo de la pregunta problema, esta suposición se puede justificar. Por ejemplo, es probable que lo que cobre un pequeño agricultor en un mercado local por el trigo que produce, digamos en Montana, no afecte los precios mundiales de este cereal. De forma similar, la probabilidad que mi voto cambie el resultado de las elecciones presidenciales es significativamente pequeña. Así, si estamos interesados en el precio mundial del trigo o en el resultado de las elecciones presidenciales, podrá suponerse de manera segura que un individuo actúa si su comportamiento no afecta el resultado.

5 No obstante, en muchos casos seguir esta suposición puede llevar a conclusiones erróneas. Por ejemplo, lo que cobre ese agricultor de Montana en comparación con otros ciertamente influye sobre lo que estos hagan. Si nuestro agricultor establece un precio que sea menor al del mercado local, podría vender más que los otros. Por ello, si se asume que ellos determinan sus precios sin tomar en cuenta este efecto, es probable que no se comprenda su comportamiento. De la misma forma, el voto de un individuo puede cambiar radicalmente el resultado de la votación en comités pequeños; es probablemente engañoso creer que este vota ignorando este hecho. La temática de la teoría de juegos son exactamente aquellas interacciones dentro de un grupo de individuos (o gobiernos, compañías, entre otros), donde las acciones de cada uno de ellos tienen un efecto sobre el resultado que será del interés de todos. Sin embargo, esto no es suficiente para que una situación sea un tema propio de la teoría de juegos: la manera cómo actúan los individuos debe ser estratégica, es decir, deben ser conscientes del hecho que sus acciones afectan a otros.

6 Andréi Andréyevich Márkov (Андрей Андреевич Марков) (14 de junio de 1856 - 20 de julio de1922) fue un matemático ruso conocido por sus trabajos en la teoría de los números y la teoría de probabilidades. Márkov nació en Riazán, Rusia. Antes de los 10 años su padre, un funcionario estatal, fue trasladado a San Petersburgo donde Andréi entró a estudiar en un instituto de la ciudad. Desde el principio mostró cierto talento para las matemáticas y cuando se graduó en 1874 ya conocía a varios matemáticos de la Universidad de San Petersburgo, donde ingresó tras su graduación. En la Universidad fue discípulo de Chebyshov y tras realizar sus tesis de maestría y doctorado, en1886 accedió como adjunto a la Academia de Ciencias de San Petersburgo a propuesta del propio Chebyshov. Diez años después Márkov había ganado el puesto de académico regular. Desde 1880, tras defender su tesis de maestría, Márkov impartió clases en la Universidad y, cuando el propio Chebyshov dejó la Universidad tres años después, fue Márkov quien le sustituyó en los cursos de teoría de la probabilidad. En 1905, tras 25 años de actividad académica, Márkov se retiró definitivamente de la Universidad, aunque siguió impartiendo algunos cursos sobre teoría de la probabilidad. A parte de su perfil académico, Andréi Márkov fue un convencido activista político. Se opuso a los privilegios de la nobleza zarista y llegó a rechazar las condecoraciones del propio zar en protesta por algunas decisiones políticas relacionadas con la Academia de Ciencias. Hasta tal punto llegó su implicación en la política que llegó a ser conocido con el sobrenombre de "el académico militante".

7 Márkov arrastró durante toda su vida problemas relacionados con una malformación congénita en la rodilla que le llevaría varias veces al quirófano y que, con el tiempo, fue la causa de su muerte cuando el 20 de julio del año 1922 una de las muchas operaciones a las que se sometió le produjo una infección generalizada de la que no pudo recuperarse. Aunque Márkov influyó sobre diversos campos de las matemáticas, por ejemplo en sus trabajos sobre fracciones continuas, la historia le recordará principalmente por sus resultados relacionados con la teoría de la probabilidad. En 1887 completó la prueba que permitía generalizar el teorema central del límite y que ya había avanzado Chebyshov. Pero su aportación más conocida es otra. Su trabajo teórico en el campo de los procesos en los que están involucrados componentes aleatorios (procesos estocásticos) darían fruto en un instrumento matemático que actualmente se conoce como cadena de Márkov: secuencias de valores de una variable aleatoria en las que el valor de la variable en el futuro depende del valor de la variable en el presente, pero es independiente de la historia de dicha variable. Las cadenas de Márkov, hoy día, se consideran una herramienta esencial en disciplinas como la economía, la ingeniería, la investigación de operaciones y muchas otras.

8 CONCEPTO Con las Cadenas de Markov podremos hacer predicciones de comportamientos futuros como las que se observaron en las situaciones anteriores. Así, si llamamos estados a cada una de estas posibilidades que se pueden presentar en un experimento o situación especifica, entonces podemos visualizar en éstas una herramienta que nos permitiría conocer a corto y largo plazo los estados en que se encontrarían en periodos o tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros intereses.

9 Las cadenas de Markov son herramienta para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos (procesos no determinísticos) a lo largo del tiempo en torno a un conjunto de estados. Representa un sistema que varía su estado a lo largo del tiempo, siendo cada cambio una transición del sistema. Estos cambios no están predeterminados, aunque sí lo está la probabilidad del próximo estado en función de los anteriores, siendo esta constante a lo largo del tiempo.

10 Elementos clave de una cadena de Markov  Estados: Un estado es una caracterización cualitativa o cuantitativa de una situación en que se halla el sistema en un instante dado.  Matriz de transición (T): Matriz cuadrada con tantas filas y columnas como estados tiene el sistema. Sus elementos representan las probabilidades de que un estado (fila) permanezca en el mismo o cambie a los siguientes estados (columnas). La suma de las probabilidades por fila ha de ser igual a 1.  Composición actual de los estados (Po): En ocasiones se dispondrá con la composición actual de los estados, para hallar la composición de dichos estados proyectada en un periodo n.

11 Los estados que pueden ocurrir, pueden ser de diferentes tipos, algunos son los siguientes:  Estado Absorbente: una vez el proceso entra en este estado, permanecerá allí indefinidamente, es decir, la probabilidad de hacer una transición fuera de ese estado es igual a 0 (cero).  Estado de transición: es el que no llega a ser absorbente, o sea, sus probabilidades cambian constantemente con respecto al periodo anterior. De una cadena de Markov que consta de estados transitorios y absorbentes se dice que es una Cadena de Markov Absorbente. Por otro lado, si en una cadena de Márkov existe alguna potencia positiva de la matriz de transición cuyas entradas sean todas estrictamente mayores que cero, se dice que es una cadena de Markov regular, primitiva o ergódica.  Estado recurrente: es en el que comenzando en él se tenga la certeza de volver en algún momento del tiempo (una determinada cantidad de etapas) sobre si mismo. Si tenemos una Cadena de Markov que tiene una cantidad finita de estados e identificamos un estado recurrente, este será recurrente positivo. Si la cantidad de estados es infinito entonces un estado recurrente será recurrente nulo.

12 Para poder estudiar las cadenas de Markov absorbentes es preciso reordenar la matriz de transición de forma que las filas correspondientes a los estados absorbentes aparezcan en primer lugar. Así ordenada se dirá que la matriz de transición está en la forma canónica. Para hallar las probabilidades de ocurrencia de los eventos en una cadena Markov absorbente, se realizan las operaciones para resolver la siguiente ecuación: Px=(I-N)-1A En la cual: Px es la probabilidad de recurrencia de un estado. I es la matriz identidad. N es la matriz no absorbente. A es la matriz absorbente.