INFORMACIÓN

WHAT IS IT?
Este modelo es una versión multijugador del dilema del prisionero iterado. Su objetivo es explorar las implicaciones estratégicas que surgen cuando el mundo consiste enteramente en interacciones de tipo dilema del prisionero. Si no está familiarizado con los conceptos básicos del dilema del prisionero o el dilema del prisionero iterado, consulte los modelos PD BASIC y PD TWO PERSON ITERATED que se encuentran en la suite PRISONER’S DILEMMA.

HOW IT WORKS
El modelo PD DOS PERSONAS ITERADAS demuestra un concepto interesante: al interactuar con alguien a lo largo del tiempo en un escenario de dilema del prisionero, es posible ajustar su estrategia para que le vaya bien con la de ellos. Cada estrategia posible tiene fortalezas y debilidades únicas que aparecen a lo largo del juego. Por ejemplo, el defecto siempre hace lo mejor que nadie contra la estrategia aleatoria, pero mal contra sí mismo. El ojo por ojo funciona mal con la estrategia aleatoria, pero bien consigo mismo. Esto dificulta la determinación de una única «mejor» estrategia. Uno de estos enfoques para hacer
esto es crear un mundo con múltiples agentes que juegan una variedad de estrategias en situaciones repetidas de dilemas del prisionero. Este modelo hace precisamente eso. Las tortugas con diferentes estrategias deambulan al azar hasta que encuentran otra tortuga con la que jugar. (Tenga en cuenta que cada tortuga recuerda su última interacción entre ellas. Si bien algunas estrategias no utilizan esta información, otras sí lo hacen).

Payoffs: Cuando dos tortugas interactúan, muestran sus respectivos pagos como etiquetas. La recompensa de cada tortuga para cada ronda se determinará de la siguiente manera:

PAYOFF:
         Partner
Turtle   C     D 
     C   3     0 
     D   5     1
(C = Cooperate, D = Defect)  

(Nota: esta forma de determinar el pago es lo opuesto a cómo se hizo en el modelo PD BASIC. En PD BASIC, se le otorgó algo malo: tiempo en la cárcel. En este modelo, algo bueno se otorga, ¡dinero!).

HOW TO USE IT
Botones

.-SETUP: Configura el mundo para comenzar a jugar el dilema del prisionero iterado por varias personas. El número de tortugas y sus estrategias están determinados por los valores del control deslizante.
.- GO: Haga que las tortugas caminen por el mundo e interactúen.
.- GO ONCE: Igual que GO, excepto que las tortugas solo dan un paso.
Deslizadores
.- N-STRATEGY: existen varios controles deslizantes con el prefijo N- y luego un nombre de estrategia (por ejemplo, n-cooperar). Cada uno de estos determina cuántas tortugas se crearán que utilicen la STRATEGY. Las descripciones de la estrategia se encuentran a continuación:
Estrategias
.- RANDOM: cooperar o fallar aleatoriamente
.- COOPERATE- cooperar siempre
.- DEFECT – siempre defecto
.- TIT-FOR-TAT: si un oponente coopera en esta interacción, coopera en la siguiente interacción con el. Si un oponente falla en esta interacción, desertar en la próxima interacción con él. Coopere inicialmente.
.- UNFORGIVING: coopere hasta que un oponente se desvíe una vez, luego siempre lo haga en cada interacción con él.
UNKNOWN: esta estrategia se incluye para ayudarle a probar sus propias estrategias. Actualmente, el valor predeterminado es Tit-for-Tat.
Gráficos
.- AVERAGE-PAYOFF: el pago promedio de cada estrategia en una interacción frente al número de iteraciones. Este es un buen indicador de qué tan bien está funcionando una estrategia en relación con el promedio máximo posible de 5 puntos por interacción.

THINGS TO NOTICE
Establezca todo el número de jugadores para cada estrategia para que sea igual en la distribución.
¿Para qué estrategia parece ser más alta la recompensa promedio? ¿Crees que esta estrategia es siempre la mejor para usar o habrá situaciones en las que otra estrategia producirá una recompensa promedio más alta? Establezca el número de n-cooperate en alto, n-defectos en equivalente al de n-cooperate, y todos los demás jugadores en 0. ¿Qué estrategia producirá la recompensa promedio más alta? Establezca el número de n-ojo por ojo en alto, n-defectos para que sea equivalente al de n-ojo por ojo, y todos los demás jugadores en 0. ¿Qué estrategia producirá el mayor pago promedio? ¿Qué notas sobre la recompensa promedio para los jugadores de ojo por ojo y los jugadores de defecto a medida que aumentan las iteraciones? ¿Por qué supones que se produce este cambio? Establezca el número n-ojo por ojo para que sea igual al número de n-cooperar. Establezca a todos los demás jugadores en 0. ¿Qué estrategia producirá la recompensa promedio más alta? ¿Por qué supone que una estrategia conducirá a una recompensa mayor o igual?

THINGS TO TRY

  1. Observe los resultados de ejecutar el modelo con una variedad de poblaciones y tamaños de población. Por ejemplo, ¿puede obtener que el pago promedio de cooperate sea más alto que el de defecto? ¿Puede obtener la recompensa promedio de Tit-for-Tat más alta que la de cooperar? ¿Qué sugieren estos experimentos sobre una estrategia óptima?
  2. Actualmente, la estrategia DESCONOCIDA está predeterminada en TIT-FOR-TAT. Modifique los procedimientos UNKOWN y UNKNOWN-HISTORY-UPDATE para ejecutar una estrategia de su propia creación. Pruébelo en una variedad de poblaciones. Analizar su fortalezas y debilidades. Sigue intentando mejorarlo.
  3. Relacione sus observaciones de este modelo con eventos de la vida real. ¿Dónde podría encontrarse en una situación similar? ¿Cómo podría el conocimiento obtenido del modelo influir en sus acciones en tal situación? ¿Por qué?

EXTENDING THE MODE
Tabla de recompensas relativas: cree una tabla que muestre la recompensa promedio de cada estrategia al interactuar con cada una de las otras estrategias. Estrategias complejas que utilizan listas de listas: las estrategias definidas aquí son relativamente simples, algunos incluso dirían ingenuas. Cree una estrategia que utilice la variable PARTNER-HISTORY para almacenar una lista de información histórica relacionada con interacciones pasadas con cada tortuga.
.- Evolución: crea una versión de este modelo que recompensa las estrategias exitosas permitiéndoles reproducir y castiga las estrategias fallidas permitiéndoles morir.
.- Ruido: agregue ruido que cambie la acción percibida de un compañero con cierta probabilidad, causando una percepción errónea.
.- Relaciones espaciales: permite que las tortugas elijan no interactuar con su pareja. Permita que las tortugas elijan quedarse con un compañero.
.- Recursos ambientales: incluya un recurso ambiental (parche) e incorpórelo a las interacciones.

NETLOGO FEATURES
Tenga en cuenta el to-report en el procedimiento calc-score para devolver un número. Tenga en cuenta el uso de listas e ID de tortugas para mantener un historial de interacciones en la variable de tortuga partner-history. Observe cómo los conjuntos de agentes que se usarán repetidamente se almacenan cuando se crean y se reutilizan para aumentar la velocidad.

RELATED MODELS
PD Basic, PD Two Person Iterated, PD Basic Evolutionary

INTERFAZ