Cenni di Teoria dei Giochi - 2 Maria-Augusta Miceli∗ Dipartimento di Economia e Diritto Università di Roma "La Sapienza" Lezioni di Economia Industriale 2 November 7, 2014 Abstract Elementi di teoria dei giochi necessari ad implementare e risolvere giochi statici e dinamici con informazione completa e incompleta. Particolare attenzione e dettagli di soluzione sono esposti per i giochi bayesiani dinamici con informazione incompleta. Elements of game theory necessary to implement and troubleshoot static and dynamic games with complete information and incomplete are exposed. Particular attention and details are given for the dynamic Bayesian games with incomplete information. KEYWORDS: Game Theory, Games, Incomplete information, Complete Information, Nash Equilibrium, Backward Induction, Bayesian Games, beliefs, Perfect Equilibrium, Signalling. JEL: A20, A22, A23, B40, B41, C11, C70, C73, D80, D81, D82, D83, L13, L15. ∗ Department of Economics and Law, University of Rome "Sapienza" - 9 via del Castro Laurenziano - 00161 Roma - Italy. Email: [email protected]. 1 1 Giochi statici con informazione completa da Gibbons (italiano) pp. 1-33. Definizione 1 Un gioco in forma normale ha: 1. giocatori: i = 1, ..., n; 2. uno spazio di strategie per ogni giocatore si ∈ Si , ∀i = 1, ..., n; 3. una funzione di utilità o payoff per ogni giocatore: ui ∀i = 1, ..., n. Il gioco è indicato con G = {S1 , ..., Sn ; u1 , ...un } Definizione 2 Gioco a "informazione completa" è un gioco in cui la funzione di payoff è nota a tutti i giocatori (è "common knowledge"). Esempio. Dilemma del prigioniero Prigioniero 1 C NC Prigioniero C −1, −1 0, −9 2 NC −9, 0 −5, −5 dove • C= confessare / cooperare e NC = tacere/non confessare/ non cooperare. • n = 2; • S1 = S2 = {C, N C} Prigioniero 1 C1 N C1 Prigioniero C2 u1 (C1 , C2 ) , u2 (C1 , C2 ) u1 (N C1 , C2 ) , u2 (N C1 , C2 ) 2 NC2 u1 (C1 , NC2 ) , u2 (C1 , N C2 ) u1 (N C1 , NC2 ) , u2 (N C1 , N C2 ) Nella matrice, il payoff a sinistra è generalmente riferito al giocatore che ha le strategie sulle colonne e a destra il payoff del giocatore che ha le strategie sulle righe. Definizione 3 In G = {S1 , ..., Sn ; u1 , ...un } siano s0i e s00i ∈ Si , si dice che la strategia s0i è strettamente dominata dalla strategia s00i se, per ogni combinazione ammissibile di strategie degli altri che chiamo s−i , ui (s0i , s−i ) < ui (s00i , s−i ) , ∀s−i ∈ S−i (1) Definizione 4 Chiamiamo l’insieme di strategie che sopravvivono all’eliminazione iterativa delle strategie "insieme delle strategie strettamente dominanti" (SD) . In generale per qualche giocatore potrebbero restare più strategie: in questo caso questa nozione non individua un equilibrio singolo. Vedere esempi su Gibbons pp. 16-17. La strategia di Nash indica la mossa che costituisce la miglior risposta di un agente alla mossa dell’altro e questo vale per ogni mossa dell’altro. Definizione 5 Una strategia (mossa, nel gioco statico) s∗i ∈ Si è detta la "miglior risposta" (best response) all’azione degli altri (n − 1) agenti se e solo se, per mosse discrete ui (s∗i , s−i ) ≥ ui (si , s−i ) , ∀s−i ∈ S−i (2) per mosse definite nel continuo s∗i : max ui (si , s−i ) si ∈Si 2 (3) Definizione 6 In G = {S1 , ..., Sn ; u1 , ...un } l’equilibrio di Nash in strategie pure è l’insieme di strategie (s∗1 , ..., s∗n ) tali che tutti gli agenti stiano effettuando la loro miglior risposta alle miglior risposte degli altri. ∀i ¡ ¢ ¡ ¢ ui s∗i , s∗−i ≥ ui si , s∗−i , ∀si ∈ Si (4) dove ¡ ¢ max ui si , s∗−i s∗i : si ∈Si Esempi Gibbons pp. 20-21 e 24-33. (5) © ¡ ¢ ¡ ¢ª Definizione 7 Miglioramento Paretiano. Un’allocazione ui s0i , s0−i , u−i s0i , s0−i è preferita paretianamente ad un altra {ui (si , s−i ) , u−i (si , s−i )}, se © ¡ 0 0 ¢ ¡ ¢ª ui si , s−i , u−i s0i , s0−i ≥ {ui (si , s−i ) , u−i (si , s−i )} per tutti gli i, si © ¡ 0 0 ¢ ¡ ¢ª ui si , s−i , u−i s0i , s0−i > {ui (si , s−i ) , u−i (si , s−i )} per almeno un i dove i sta per consumatore i-esimo. Un miglioramento paretiano è un miglioramento che favorisce alcuni, senza peggiorare nessuno degli altri. Quindi è un criterio che la totalità degli agenti approva. Definizione e’ ¢ª Pareto Ottima (o Pareto Efficiente) se, non esiste alcuna allocazione © 8¡ Un’allocazione ¢ ¡ diversa da ui s0i , s0−i , u−i s0i , s0−i che dia un miglioramento paretiano ad alcuni senza peggiorare altri. Esempi. Trovare gli ottimi paretiani di Gioco 1 Flic e Floc Flic Floc Flic 1,1 0,0 Floc 0,0 1,1 Gioco 2 Battle of Sexes Antonio \ Maria Calcio Cinema Calcio 2,1 0,0 Cinema 0,0 1,2 Gioco 3 Testa o Croce (Matching Pennnies) T C T 1,-1 -1,1 C -1,1 1,-1 Gioco 4 Gioco di coordinazione (Coordination Game) A B A 5,5 0,0 B 0,0 3,3 Gioco 5 Dilemma del Prigioniero C NC C -1,-1 0,-9 NC -9,0 -5,-5 Proposizione 1 In G = {S1 , ..., Sn ; u1 , ...un } se l’eliminazione iterata di strategie strettamente dominate rimuove tutte le strategie tranne (s∗1 , ..., s∗n ) , allora queste sono un equilibrio di Nash(EN ) Ovvero, se esiste un unico equilibrio in strategie non dominate Ovvero se ∃!SD (se esiste ed è unico) =⇒ allora questo è un EN. Proposizione 2 Se le strategie (s∗1 , ..., s∗n ) sono un EN =⇒ SD esse sopravvivono all’eliminazione iterata delle strategie. 3 Dimostrazioni. NO • Proprietà dell’equilibrio di Nash(EN). L’EN è stabile, perché per ogni data mossa o strategia dell’altro, la mossa o strategia dell’individuo in questione è quella ottima, quindi per lui non esiste incentivo a deviare dalla strategia di Nash. osservazione 1 Tale equilibrio presuppone , affiché gli agenti possano attuare la propria strategia ottima, che tutti gli agenti Ipotesi 1 siano razionali; mentre l’ipotesi di razionalità non è affatto sempre verificata nella realtà; Ipotesi 2 siano a conoscenza non soltanto dei prorpi payoffs, ma anche di tutti i payoffs degli altri giocatori e del fatto che tutti sanno che gli altri sanno: ipotesi di "conoscenza comune" ("Common Knowledge"); anche questa ipotesi è difficilmenteverificata nella realtà. 1.1 Strategie MAXIMIN e MINIMAX Per ovviare alla eventuale carenza di razionalità delle contropartie alla carenza di informazione sui payoffs altrui, il giocatore può decidere di giocare la strategia di Maximin, la quale rappresenta la strategia che garantisce la minimizzazione delle possibili perdite. G1 si vuole garantire un payoff di almeno v1 = maximin Per giochi matriciali qualunque i valori v 1 ≤ v1 e in effetti i payoffs di G1 non sono necessariamente pagamenti da parte di G2. Definizione 9 Il gioco a somma zero (Zero Sum Game) è un gioco in cui i payoffs di ogni casella sommano a zero, ovvero la vittoria di un giocatore è la perdita dell’altro. Proposizione 3 Nei giochi a somma zero v1 = EN = v 1 ovvero il valore del gioco dovuto alla strategia minimax è pari al valore del gioco nella strategia di maximin ed entrambi coincidono anche con l’equilibrio di Nash del gioco. Esercizio. Dimostrare la Proposizione per il Dilemma del Prigioniero. Dato il gioco Gioco 6 G1\ G2 A B C D 1.1.1 SinDes 0,0 0.5,-0.5 -0.5,0.5 0,0 Des 1,-1 0,0 1,-1 0,0 Maximin G1, calcola il min che ottiene in ogni sua strategia (in ogni riga) min {u1 (s1 , s2 = S) , u1 (s1 , s2 = D)} , s2 ∀s1 ∈ S1 = {0, 0, −0.5, 0} ovvero, • per ogni strategia dell’altro, ∀s2 ∈ S2 , calcola il min payoff u1 , ∀s1 ∈ S1 . • e sceglie poi il payoff massimo fra questi minimi: max {0, 0, −0.5, 0} = {0} . Non è unico. Formalmente il valore Maximin del gioco per G1, v1 , è la soluzione del problema ¸ ∙ v1 = max min u1 (s1 , s2 ) s1 ∈S1 s2 ∈S2 = max {0, 0, −0.5, 0} = 0. 4 Analogamente il valore Maximin del gioco per G2, G2 cerca il min ottenibile in ogni sua strategia, per colonna. v2 , è la soluzione del problema ¸ ∙ v 2 = max min u1 (s1 , s2 ) s2 ∈S2 s1 ∈S1 = max {−0.5, −1} = −0.5 e quindi il v2 = max {−0.5, −1} = −0.5 Quali sono le strategie che portano al maximin? Esiste un equilibrio? Vedrete che l’equilibrio è instabile: se G1 fosse certo che G2 giocasse S, allora giocherebbe B. 1.1.2 Minimax Il Minimax calcola la "vulnerabilità" di ogni giocatore che gli può essere imposta dall’altro. Il Minimax è la generalizzazione della strategia di Deterrenza, studiata all’interno dei metodi per impedire l’entrata alle imprese concorrenti. G2, vuole minimizzare il suo pagamento a G1. In termini di organizzazione industriale, l’impresa 2 vuole minimizzare i profitti dell’impresa concorrrente I1 , nel presupposto che l’impresa 1 provi comunque a massimizzare i propri profitti. (Attenzione! in EOI 1, consideriamo che sia l’impresa 1 a deterrere l’impresa 2, ovvero cerchiamo il minimax v2 ). Calcoliamo il Minimax nel gioco (6). Per calcolare la vulnerabilità di G1 si procede in questo modo: • G2 ha strategie di colonna. G2 calcola il massimo payoff che l’avversario G1 riesce ad ottenere su ogni colonna s2 ∈ S2 , ovvero il max u1 su ogni colonna. Nell’esempio {0.5, 1} . Perché il max u1 ? perché G2 è un ottimizzatore e quindi, per ogni data strategia di G2 (colonna) cercherà il prorio massimo. • G2, per imporre il minimo guadagno a G1, sceglierà la strategia di colonna, dove G1 guadagni meno. Ge sceglie quindi il payoff minimo fra questi massimi: min {0.5, 1} = {0.5} . Formalmente il valore di vulnerabilità di G1 imposto da G2 è il Minimax del gioco per G1 ed è la soluzione del problema ¸ ∙ v 1 = min max u1 (s1 , s2 ) s2 ∈S2 s1 ∈S1 n o n o = min 0.5 , 1 = 0.5 . Des Si n Des Analogamente, G1 vuole minimizzare il suo pagamento a G2. G1 calcola il max che l’avversario G2 ottiene in ogni strategia s1 , data s2 Ovvero • calcola il max dei payoff di G2 su ogni riga • e ne sceglie il minimo, ovvero, e sceglie poi il payoff minimo fra questi massimi: min {0, 0, 0.5, 0} = {0} . Formalmente il valore Minimax del gioco v2 per G2 è la soluzione del problema ¸ ∙ v 2 = min max u2 (s1 , s2 ) s1 ∈S1 s2 ∈S2 n o = min 0 , 0 , 0.5, 0 = {0} A B C D Proposizione 4 Nei giochi a somma zero per G1 max s1 ∈S1 ∙ v1 ≤ v1 ¸ ¸ ∙ = min max u2 (s1 , s2 ) min u1 (s1 , s2 ) s2 ∈S2 s2 ∈S2 e analogamente per G2. Proof. Dimostrazione a richiesta. 5 s1 ∈S1 Proposizione 5 Se esiste v1 = v1∗ = v1 v1∗ è un equilibrio di Nash. Quando tale equilibrio non esiste in strategie pure, bisogna considerare le strategie miste. 1.2 Soluzione in strategie miste Definizione 10 In G = {S1 , ..., Sn ; u1 , ...un } , si supponga che Si = {si1 , ..., siK } , dove k = 1, .., K è il numero di strategie. Una"strategiaPmista" per il giocatore i − esimo è una distribuzione di probabilità K μi = (μi1 , ..., μiK ) , con μik ∈ [0, 1] e k=1 μik = 1. Definizione 11 Equilibrio di Nash in strategie miste. Quando qualche giocatore è indifferente fra più di una strategia ottima avremo più equilbri di Nash. Un modo è fare la media fra di essi ponderando ciascuna strategia per una probabilità Calcolo delle probabilità delle strategie miste. Data la matrice G2 q Sinistra G1 p Su 2, −3 1 − p Giù 1, 1 1−q Destra 1, 2 4, −1 1. Si cercano le strategie dominanti: non esistono per alcun giocatore. 2. Si cercano strategie che siano "miglior risposta" alla strategie dell’altro. Nessuna è unica. 3. =⇒ Il gioco non ha equilibrio in strategie pure. 4. Si calcola il payoff atteso per G1 per ogni strategia s1 considerando tutte le strategie dell’altro ponderate da probabilità che sommino ad uno EU1 (Su) = qU1 (Su, Si n) + (1 − q) U1 (Su, Destra) = 2q + (1 − q) u) = qU1 (Gi` u, Si n) + (1 − q) U1 (Gi` u, Destra) EU1 (Gi` = q + 4 (1 − q) La probabilità che rende G1 indifferente fra queste due strategie è q ∗ tale che u) EU1 (Su) ≥ EU1 (Gi` 2q + (1 − q) ≥ q + 4 (1 − q) q ∗ ≥ 3/4 Si calcola il payoff atteso per G2 per ogni strategia s2 considerando tutte le strategie dell’altro ponderate da probabilità che sommino ad uno u, Si n) EU2 (Si n) = pU1 (Su, Si n) + (1 − p) U1 (Gi` = −3p + (1 − p) u, Destra) EU2 (Destra) = pU1 (Su, Destra) + (1 − p) U1 (Gi` = 2p − (1 − p) La probabilità che rende G2 indifferente fra queste due strategie è p∗ tale che EU2 (Sinistra) ≥ EU2 (Destra) −3p + (1 − p) ≥ 2p − (1 − p) p∗ ≤ 2/7 6 • L’insieme {p∗ , q ∗ } è l’equilibrio in strategie miste del gioco. Inserendo tali probabilità in uno qualunque dei payoffs, si calcolano anche EU1∗ , EU2∗ . µ ¶ 3 3 7 (6) EU1∗ (Su|q ∗ = 3/4) = EU1∗ (Gi` u|q ∗ = 3/4) = 2q ∗ + (1 − q ∗ ) = 2 · + 1 − = = 1.75 4 4 4 µ ¶ 2 2 1 EU2∗ (Sinistra|p∗ = 2/7) = EU2∗ (Destra|p∗ = 2/7) = 2p∗ − (1 − p∗ ) = 2 · − 1 − = − = −0.14(7) 7 7 7 Le (6) e (7) sono rispettivamente le strategie "medie" di G1 e G2, ovvero sono una combinazione lineare delle strategie esistenti con i pesi dati dalle probabilità. L’intersezione delle due strategie "medie" dà luogo ad una casella "media" di payoffs che rappresenta l’equilibrio di Nash del gioco in strategie miste. • GRAFICO e verifica delle intersezioni con Gioco Destra e Sinistra, Battle of Sexes e Dilemma del Prigioniero. Applicazioni: Bertrand e Cournot, SI. Teorema esistenza Eq. Nash. NO. 2 Giochi dinamici con Informazione Completa e Perfetta Definizione 12 Informazione completa e perfetta. Ogni giocatore cui spetta la mossa conosce l’intera storia del gioco fino a quel punto, ovvero sa in che nodo dell’albero si trova. Definizione 13 Informazione completa e imperfetta. Il giocatore cui spetta la mossa non è a conoscenza della storia del gioco, ovvero non sa in quale nodo si trova. (Si veda più avanti). Definizione 14 Per "strategia ai ∈ Ai ” si intende l’insieme di mosse che conduce il giocatore dal nodo iniziale al nodo finale, determinando quale mossa il giocatore farebbe in ogni nodo in cui potrebbe essere chiamato a giocare e quindi, importante!, anche cosa farebbe laddove il gioco poi non passa. L’insieme Ai considera tutte le possibili combinazioni di mosse ai . Esempio di "Minaccia non credibile" G1 (paga 1000) / \ (paga 0) / \ G2 G2 | (nulla) / \ (bomba) | | | (−1000) (0) (−∞) (+1000) (0) (−∞) 2.1 Soluzione a ritroso (Backward Induction) 1. Il giocatore 1 sceglie un’azione a1 nell’insieme delle azioni ammissibili A1 2. Il giocatore 2 osserva a1 e sceglie a2 dall’insieme ammissibile A2 3. I payoffs sono u1 (a1 , a2 ) e u2 (a1 , a2 ). Soluzione a ritroso G2 : ∂u2 (a1 , a2 ) =0 ∂a2 G1 : max u2 (a1 , a2 ) a2 =⇒ a∗2 = R2 (a1 ) max u1 (a1 , a2 ) = u1 (a1 , R2 (a1 )) a1 7 ∂u1 (a1 , R2 (a1 )) =0 ∂a1 a∗1 =⇒ Risostituendo indietro ottego a∗2 = R2 (a∗1 ) e dunque u∗1 (a∗1 , a∗2 ) e u∗2 (a∗1 , a∗2 ) Vedere esempio nel discreto su Gibbons pp. 65-67. Contrattazione sequenziale (Gibbons pp.74 - forse) Ipotesi 3 Si ammette la possibilità di mosse simultanee nel corso del gioco (a carte coperte), quindi alcuni dei nodi possono essere non riconoscibili perché alcuni fra i giocatori non sono a conoscenza della mossa di altri. • L’imperfezione dipende dal fatto che durante uno stadio,vi possano essere mosse simultanee da parte di più di un giocatore. Sequenza. 1. I giocatori 1 e 2 scelgono simultaneamente le loro azioni a1 ∈ A1 e a2 ∈ A2 2. I giocatori 3 e 4 osservano l’esito della prima fase (a1 , a2 ) e poi scelgono simultaneamente le loro azioni a3 ∈ A3 e a4 ∈ A4 3. I payoffs sono ui (a1 , a2 , a3 , a4 ) ∀i = 1, ...4. Soluzione a ritroso G3 : max u3 (a1 , a2 , a3 , a4 ) a3 ∂u3 (a1 , a2 , a3 , a4 ) =0 =⇒ a∗3 = R3 (a1 , a2 ) ∂a3 max u4 (a1 , a2 , a3 , a4 ) G4 : a4 ∂u4 (a1 , a2 , a3 , a4 ) =0 =⇒ a∗4 = R4 (a1 , a2 ) ∂a4 Calcolo la soluzione simultanea delle 2 funzioni di reazione. o no? quindi max u1 (a1 , a2 , R3 (a1 , a2 ) , R4 (a1 , a2 )) G1 : a1 ∂u1 (a1 , a2 , R3 (a1 , a2 ) , R4 (a1 , a2 )) =0 =⇒ a∗1 = R1 (a2 ) ∂a1 max u2 (a1 , a2 , R3 (a1 , a2 ) , R4 (a1 , a2 )) G2 : a2 ∂u1 (a1 , a2 , R3 (a1 , a2 ) , R4 (a1 , a2 )) =0 =⇒ a∗2 = R2 (a1 ) ∂a2 Calcolo la soluzione simultanea del sistema in due equazioni e due incognite e trovo a∗1 e a∗2 Queste ultme due potrebbero anche essere sequenziali. Ad ogni stadio possiamo risolvere Cournot (simultaneo) o Stackleberg (sequenziale) fino ad arrivare al nodo inziale e poi risostituire le soluzioni nelle funzioni di reazione e trovo le soluzioni nei soli parametri. Definizione 15 Equilibrio perfetto nei sottogiochi è quello individuato come unico equilibrio di Nash del gioco a mosse simultanee ogni qualvolta le mosse non siano osservabili max ui (a1 , a2 , R3∗ (a1 , a2 ) , R4∗ (a1 , a2 )), ai per 1 = 1, 2 dove la soluzione d’equilibrio è ui (a∗1 , a∗2 , R3∗ (a∗1 , a∗2 ) , R4∗ (a∗1 , a∗2 )), 8 per 1 = 1, 2 osservazione 2 L’esito "perfetto nei sottogiochi del gioco a 2 stadi" è il diretto analogo del BWI per i giochi con info completa e perfetta Esempio. Equilibrio di Stackleberg o Leadership di quantità1 . 2.2 Giochi dinamici con Informazione Completa e Imperfetta: Definizioni (Gibbons pp. 122-134) Richiamiamo la definizione già data. Definizione 16 Informazione completa e imperfetta. Il giocatore cui spetta la mossa non è a conoscenza della storia del gioco, ovvero non sa in quale nodo si trova. Definizione 17 Un insieme informativo del giocatore i è un insieme di nodi decisionali tali che: (i) il giocatore i ha diritto a muovere; (ii) quando il gioco raggiunge un nodo informativo, il giocatore non sa quale nodo esatto sia stato raggiunto perché non è in grado di distinguere le mosse che conducono a tale insieme informativo a causa di (a) simultaneità delle mosse, (b) informazione non completa. Definizione 18 Rappresentazione in forma estesa del gioco specifica: 1. Il numero dei giocatori che prendono parte al gioco; 2.a. Quando hanno diritto alla mossa: 2.b. quali mosse ad ogni nodo informativo, 2.c. cosa conosce ogni giocatore quando gli spetta la mossa 3. I payoffs ricevuti da ciascuno per ogni nodo finale ovvero in seguito ad ogni combinazione di mosse. Definizione 19 Una "strategia" si specifica un’azione intrapresa dal giocatore i − esimo, per ogni nodo in cui deve giocare. Definizione 20 Un sottogioco di un gioco in forma estesa 1. comincia da un nodo decisionale n che sia un insieme informativo composto da un singolo nodo, ma non deve essere il nodo iniziale altrimenti il sottogioco coincide con il gioco. 2. comprende tutti i nodi decisionali e terminali successivi al nodo iniziale n nell’albero del gioco, 3. non spezza nessun insieme informativo. FIG. 2.18 Gibbons, p. 127 Definizione 21 Selten (1975). Un equilibrio di Nash è "perfetto nei sottogiochi" (ENP) se le strategie formano un equilibrio di Nash in ogni sottogioco. • Differenze fra "backward induction" (Gibbons p. 132) ed ENP perfetto nei sottogiochi BW I EN P : : a∗1 , a∗2 , a∗3 (a∗1 , a∗2 ) , a∗4 (a∗1 , a∗2 ) a∗1 , a∗2 , a∗3 (a1 , a2 ) , a∗4 (a1 , a2 ) (8) ovvero ENP considera l’ottimalità delle funzioni di risposta, non le mosse effettive, quindi può contenere strategie NON CREDIBILI. L’esito BWI elimina le minacce non credibili. Si veda es. p.133. 3 Giochi ripetuti .... SI. pp. 88-113 1 Si veda, fra gli altri, Miceli (2013) Oligopolio con prodotto omogeneo, SSRN http://dx.doi.org/10.2139/ssrn.2244573 9 3.1 Giochi ripetuti un numero finito di volte In questo caso il gioco simultaneo si ripete. Esercizio 1 Qual’è la forma estesa di un un gioco matriciale 2x2 (Es. Dilemma del Prigioniero) giocato per 2 stadi? Esercizio 2 Paragonare i payoffs di un gioco matriciale 2x2 con due periodi t = 0, 1. e la sua versione in forma estsa e risolta via BWI. Definizione 22 Un gioco costituente G(T ) è un gioco ripetuto un ª numero finito T di volte in cui le mosse © siano nella sequenza definita dalla strategia ai = s1i , ..., sti , ..., sTi dove ogni mossa sia parte delle possibili mosse Si , si ∈ Si , e dunque ogni strategia ai ∈ Ai , sia una combinazione delle possibili mosse si . 1. giocatori i = 1, ..., n; 2. uno spazio di mosse per ogni giocatore si ∈ Si , ∀i = 1, ..., n; 3. uno spazio di strategie per ogni giocatore si ∈ Si , ∀i = 1, ..., n; 4. una funzione di utilità o payoff per ogni giocatore è la somma dei payoffs ottenuti in ogni stadio del gioco: ui ∀i = 1, ..., n. Il gioco è indicato con G (T ) = {A1 , ..., An ; u1 , ...un } Proposizione 6 Se G (T ) ha un unico equilibrio di Nash in ogni stadio t = 1, ..., T, allora G (T ) ha un unico equilibrio / esito di Nash perfetto nei sottogiochi: le strategie di Nash sono giocate ad ogni stadio. Banalmente l’equilibrio perfetto di Nash non è che la ripetizione dell’unico equilbrio di Nash definito in ogni sottogioco. 3.2 Giochi ripetuti un numero infinito di volte Definizione 23 Sia δ = 1/(1 + r) il tasso di sconto. Definizione 24 Sia μ = probabilità che il gioco finisca immediatamente. Definizione 25 "Trigger strategy" = strategia del grilletto: il giocatore coopera fino a quando l’altro coopera e non appena l’altro non coopera, egli smetterà di cooperare per sempre. Definizione 26 "Sottogioco" = il gioco giocato nell’intervallo di date [t + 1, T ] =⇒ G (T − t, δ) . • Ci sono vari sottogiochi che cominciano alla data t + 1 tanti quanti sono i rami del gioco a quel momento, detti "storie del gioco". • Se il gioco è giocato fino all’∞, qualunque gioco cominciato in una data finita, sarà eguale al gioco infinito. G {[(t + 1) , ∞] , δ} = G {[0, ∞] , δ} = etc. Definizione 27 (Selten 1965) Un equilibrio di Nash è perfetto nei sottogiochi se le strategie dei giocatori costituiscono un equilibrio di Nash in ogni sottogioco. Esercizio 3 Considerare il gioco matriciale seguente G1\G2 NC1 C1 NC2 5,5 0,20 C2 20,0 10,10 1. Disegnare i payoffs. 2. Considerare t = 0, 1, 2. Disegnare il payoff della Trigger Strategy in valor medio deviando a t = ... 10 3. ... Teorema 1 (Folk Theorem - Friedman (1971)). Sia G un gioco finito, statico e con informazione completa. ¢ ¡ N • Sia πNash = π N 1 , ...π n il vettore degli esiti in cui tutti i giocatori giocano le strategie di Nash: l’equilibrio di Nash. • Sia π = (π1 , ...πn ) il vettore di altri esisti possibili. Se π è un miglioramento paretiano rispetto a πNash , allora esiste un tasso di sconto δ ' 1, tale che l’esito π diventi l’esito di Nash giocato in ogni stadio, ovvero ∃ equilibrio di Nash perfetto nei sottogiochi del gioco ripetuto infinitamente G (∞, δ) , che consente di ottenere il vettore π = (π 1 , ...πn ) come payoff medio. DISEGNO con matrice sopra in Trigger Strategy, Payoff Medio, Payoff Somma, Tit-for-Tat. (Si veda Gibbons (2005) Fig. 2.13-2.14, pp 102-104. 4 Giochi Statici con Informazione Incompleta (Giochi Bayesiani) Cfr. Gibbons cap.3. Parliamo di informazione incompleta quando almeno uno dei giocatori non ha perfetta informazione riguardo al payoff di un altro giocatore. Come modellare questo? Si immagina che il giocatore i sul quale si ha incertezza possa essere di diversi tipi ti ∈ Ti . Ognuno di questi tipi può avere una funzione di payoffs diversa che genererà dunque payoffs diversi, e, nel caso discreto, può avere semplicemente payoffs diversi nelle caselle. Payoffs diversi daranno luogo a strategie dominanti / dominate / Nash / minimax o maximin diverse. Definizione 28 Gioco statico bayesiano in forma normale e con n giocatori G = [A1 , ...An , T1 , ..., Tn ; μ1 , ..., μn ; u1 , ..., un ] dove ogni giocatore i avrà: 1. un insieme di mosse ai ∈ Ai , discrete o continue; 2. un insieme di tipi ti ∈ Ti ; 3. una probabilità di esistere, dapprima una probabilità a priori (che poi viene aggiornata da una probabilità PN a posteriori nei giochi dinamici) μi , where i=1 μi = 1; 4. una funzione di payoff ui o π i , dove Definizione 29 Probabilità a posteriori / Credenza / Belief è la probabilità attribuita dal tipo (i) al fatto che la mossa venga effettuata da un tipo (−i) (non osservabile). μi (t−i |ti ) = μ (ti |t−i ) p (t−i ) μ (ti |t−i ) p (t−i ) = PN μ (ti ) i=1 μ (ti |t−i ) p (t−i ) dove μ (ti |t−i ) è la probabilità attribuita dal tipo (i − esimo) al tipo (−i − esimo), ovvero le probabilità calcolate con il metodo delle strategia miste in ciascun gioco. • (mmm ci rifletteremo calcolando il gioco discreto). Esempio. In Cournot con I1 unica e I2 può essere di due tipi (costi alti o costi bassi), p (t−i ) è il nostro θ dell’esercizio, mentre μ (ti |t−i ) = 1 per la "Miglior Risposta" nel Gioco Continuo, mentre sarà μ (ti |t−i ) = 1 nel gioco discreto, qualora esista la strategia di Nash (Per ora lasciate stare. Fate gli esercizi e poi ne riparliamo). Definizione 30 Nel gioco statico bayesiano G = [A1 , ...An , T1 , ..., Tn ; μ1 , ..., μn ; u1 , ..., un ] una strategia si (nel gioco statico è solo una mossa) del giocatore i è una funzione si (ti ) tale che si (ti ) : ti ∈ Ti −→ ai ∈ Ai 11 Definizione 31 In G il vettore di strategie s∗ = (s∗1 , ...s∗n ) è un Equilibrio di Nash Bayesiano (ENB) se ∀ti ∈ Ti , s∗i (ti ) è tale che X £ ¤ ui ai , s∗−i (t−i ) μ(t−i , ti ) max ai ∈Ai t−i ∈T −i ovvero ai è la miglior risposta. Harsany propose nel 1967-68 di trasformare il gioco ad informazione incompleta in uno a informazione imperfetta ovvero passando da due giochi matriciali a un gioco con i nodi decisionali relativi ai diversi tipi di un giocatore confusi. (vedere figura). 4.1 Gioco Bayesiano con Variabile Continua: Cournot • Impresa 1: unico tipo e con costi k1 • Impresa 2: può essere di due tipi: ,k2H , k2L . con rispettiva probabilità θ, (1 − θ) E’ come se esistessero due giochi/relazioni: 1. un primo gioco fra la I1 e la I2H 2. un secondo gioco fra la I1 e la I2L Ognuno dei due è un banale gioco di Cournot-Nash con costi diversi di cui conosciamo la soluzione • Gioco fra la I1 e la I2H a − 2k2H + k1 ; 3b a − 2k2H + k1 a − 2k1 + k2H −b = (a − bq1 − bq2H ) = a − b 3b 3b a + k1 + k2H = 3 (a − 2k1 + k2H )2 (a − 2k2H + k1 )2 CR ; π ; = = 2H 32 b 32 b CR q1vs2H = p∗H π1 a − 2k1 + k2H ; 3b CR q2H = a − 2k1 + k2L ; 3b CR q2H = • Gioco fra la I1 e la I2L CR q1vs2L p∗H π1 a − 2k2L + k1 ; 3b a − 2k2L + k1 a − 2k1 + k2L −b = (a − bq1 − bq2L ) = a − b 3b 3b a + k1 + k2L = 3 (a − 2k1 + k2L )2 (a − 2k2L + k1 )2 CR ; π ; = = 2H 32 b 32 b = Tuttavia la I1 non sa con chi sta giocando e gioca quindi contro una media ponderata fra le due I2H e la I2L secondo le proprie probabilità soggettive θ e (1 − θ) , ovvero il valore atteso fra le due, mentre ognuno dei due "tipi" per l’impresa 2 ha una funzione di reazione soltanto verso l’impresa 1. max π2,H (q1 , q2H , q2,L ) = (a − bq1 − bq2H − kH ) q2H q2H max π 2,L (q1 , q2H , q2,L ) = (a − bq1 − bq2,L − kL ) q2L qL max π1 (q1 , q2H , q2,L ) = θ (a − bq1 − bq2H − k1 ) q1 + (1 − θ) (a − bq1 − bq2L − k1 ) q1 q1 Ognuno dei due tipi I2 avrà una funzione di reazione soltanto nei confronti di I1 . ∂π2,H =0 ∂q2,H ∗ =⇒ q2H = R2H (q1 ) = 12 1 a − k2H − q1 2b 2 ∂π2,L =0 ∂q2,L ∗ =⇒ q2L = R2l (q1 ) = a − k2L 1 − q1 2b 2 L’impresa I1 avrà una funzione di reazione verso ciascuno dei tipi dell’impresa 2 ponderata per la probabilità di stare incontrando tale tipo. ∂π1 = 0, ∂q1 =⇒ q1 = R∗1 (Eq2 ) = 1 a − k1 1 − θ q2H − (1 − θ) q2L 2b 2 2 • Per la I1 , la somiglianza alla (11) è evidente assumendo che il costo dell’altra sia la media comparata θkH + (1 − θ) kL dei costi. 4.1.1 Grafico delle funzioni di reazione Costruiamo il grafico delle funzioni di reazione per a = 12, b = 1, k1 = 3, k2H = 4, k2L = 2, θ = 1/2. q2H q2L q1 1 a − k2H 12 − 4 1 − q1 = − q1 2b 2 2 2 a − k2L 1 12 − 2 1 − q1 = − q1 = R2l (q1 ) = 2b 2 2 2 1 a − k1 1 ∗ − θ q2H − (1 − θ) q2L = R1 (Eq2 ) = 2b 2 2 12 − 3 1 1 1 1 12 − 3 1 2 − · q2H − · q2L = − q2 = 2 2 2 2 2 2 2 = R2H (q1 ) = osservazione 3 La R1∗ (Eq2 ) va calcolata e poi messa in grafico in funzione di q2 . osservazione 4 Per poter disegnare la R1∗ (Eq2 ) sul piano (q1 , q2 ) bisogna risolverla per q2 in funzione di q1 , si ottiene 12 − 3 1 − q2 =⇒ q2 = 9 − 2q1 q1 = 2 2 q2 10 8 6 4 2 0 0 2 4 6 8 10 q1 Risolvendo il sistema si trovano le coordinate delle intersezioni q1 = = = = 1 a − k1 1 − θ q2,H − (1 − θ) q2,L 2b 2µ 2¶ ¶ µ 1 a − kH 1 a − k1 1 a − kL 1 −θ − q1 − (1 − θ) − q1 2b 2 2b 2 2 2b 2 µ ¶ µ ¶ 1 a − kH a − k1 1 a − kL 1 −θ − (1 − θ) − q1 2b 2 2b 2 2b 4 1 1 (a − 2k1 + θkH + (1 − θ) kL ) − q1 4b 4 13 a − 2k1 + θk2H + (1 − θ) k2L 3b = Eq1∗ CR CR = θq1vs2H + (1 − θ) q1vs2L q1∗ = reinserendo q1∗ in ognuna delle funzioni di reazione q2 si ottiene µ ¶ 1 a − 2k1 + θk2H + (1 − θ) k2L a − k2H − q2H = 2b 2 3b 2 2a 3 θ 1−θ + k1 − k2H − k2H − k2L = 6 b 6b 6b 6b 6b 4 2a 2 1−θ 1−θ − k2H + k1 + k2H − k2L = 6 b 6b 6b 6b 6b ∗ q2H = a − 2k2H + k1 1 − θ + (k2H − k2L ) 3b 6b (9) e analogamente θ a − 2k2L + k1 − (k2H − k2L ) 3b 6b Per referenza riporto la funzione di reazione nel caso di informazione completa ∗ = q2,L qi∗ = a − 2ki + kj 3b (10) (11) osservazione 5 NB!!! Le quantità di Cournot per le I2H e I2L N ON sono come quelle dei singoli giochi di Cournot sopra. Perché ognuna delle I2H e I2L interagisce con la I1 che si sta "sbagliando" su chi è la I2 ovvero si posiziona su una funzione di reazione media, che non è la "miglior risposta" verso rispettivamente la I2H o la I2L . Esse possono quindi avvantaggiarsi dell’errore compiuto dalla I1 . ∗ ∗ > q2∗ (inf o_compl) > q2,H . La ragione è che se l’impresa 1 sapesse che 1. Per le I2 si ha che la quantità q2L I2,H ha costi alti ne approfitterebbe per produrre lei I1 di più, ma siccome la I1 non ne è certa, la I2H ne ∗ indica costi bassi e quindi maggiore efficienza!). approfitta (Attenzione q2L 2. Al contrario, la I2L a causa dell’incertezza, non viene percepita con costi cosi bassi come sono. ∗ diventa quella tradizionale per Cournot con 2 imprese con osservazione 6 Per θ = 1, la soluzione per q2H ∗ costi unitari diversi. Stesso per la q2L per θ = 0. Adesso è necessario calcolare il valore atteso del prezzo di Nash e quindi dei profitti Ep = a − bq1 − bθq2H − b (1 − θ) q2L µ ¶ a − 2k2H + k1 1 − θ a − 2k1 + θk2H + (1 − θ) k2L − bθ + (k2H − k2L ) + = a−b 3b 3b 6 µ ¶ a − 2k2L + k1 θ − (k2H − k2L ) −b (1 − θ) 3b 6 1 = (a + k1 + θk2H + (1 − θ) k2L ) 3 Eπ∗1 (q1 , q2H , q2L ) = (Ep∗ − k1 ) · Eq1∗ µ ¶ 1 a − 2k1 + θk2H + (1 − θ) k2L (a + k1 + θk2H + (1 − θ) k2L ) − k1 = 3 3b = (a − 2k1 + θk2H + (1 − θ) k2L )2 32 b ∗ π ∗2H (q1 , ) = (Ep∗ − k2H ) q2H ∗ π∗2L (q1 , ) = (Ep∗ − k2L ) q2L 14 Esercizio 4 Disegnare le funzioni di reazione sul piano (q1 , (q2H , q2L )) mettendo i due tipi della I2 sullo stesso asse. Esempio. Parametri: a = 12, k1 = 3, k2H = 4, k2L = 2, θ = 0.5 4.2 Collusione con Informazione Imperfetta Date le seguenti funzioni di profitto: π 2,H (q1 , q2H ) = (a − bq1 − bq2H − k2H ) q2H π2,L (q1 , q2,L ) = (a − bq1 − bq2,L − k2L ) q2L π1 (q1 , q2H , q2,L ) = θ (a − bq1 − bq2H − k1 ) q1 + (1 − θ) (a − bq1 − bq2L − k1 ) q1 la funzione di profitto totale è π T OT = π1 (q1 , q2H , q2,L ) + Eπ 2 (q1 , q2H , q2L ) = π1 (q1 , q2H , q2,L ) + [θ · π2,H (q1 , q2H ) + (1 − θ) · (a − bq1 − bq2,L − kL ) q2L ] = [θ (a − bq1 − bq2H − k1 ) q1 + (1 − θ) · (a − bq1 − bq2L − k1 ) q1 ] + + [θ · (a − bq1 − bq2H − k2H ) q2H + (1 − θ) · (a − bq1 − bq2,L − k2L ) q2L ] osservazione 7 La I1 ha il valore atteso nella sola domanda, mentre il termine nella seconda parentesi quadra è il valoreatteso del profitto della I2 . Per calcolare le funzioni di reazione,ogni impresa deriverà il profitto totale secondo la propria quantità sulla quale ha il controllo. max π T OT : q1 ∂π T OT : −θbq1 + θ (a − bq1 − bq2H − k1 ) − (1 − θ) bq1 + (1 − θ) (a − bq1 − bq2L − k1 ) + ∂q1 −θbq2H − (1 − θ) bq2L = 0 = −bq1 + (a − bq1 − k1 ) − θbq2H − (1 − θ) bq2L − θbq2H − (1 − θ) bq2L = 0 da cui 2bq1 = a − k1 − θ2bq2H − (1 − θ) 2bq2L da cui q1 ∂πT OT ∂q2H = R1 (Eq2 ) a − k1 − θq2H − (1 − θ) bq2L = 2b (12) : −θbq1 − θbq2H + θ · (a − bq1 − bq2H − k2H ) = 0 : −bq1 − bq2H + a − bq1 − bq2H − k2H = 0 : −2bq1 + a − k2H − 2bq2H = 0 q2H = a − k2H − q1 2b (13) e analogamente a − k2L − q1 2b Le tre funzioni di reazione (12) , (13) , (14) danno origine alle seguenti quantità congiunte q2L = 15 (14) La quantità di monopolio che la collusione produce sarà Q∗Mon = q1 + θq2H + (1 − θ) q2L a − k2L a − k2H + (1 − θ) = θ 2b 2b Oppure, con altre sostituzioni Q∗Mon = a − k1 2b Ipotesi 4 Decidiamo che a − min [k1 ; θk2H + (1 − θ) k2L ] 2b ma siccome potrebbe essere noioso da calcolare, possiamo anche decidere di scegliere ∙µ ¶ ¸ a − k2L a − k2H a − k1 Q∗Mon = max θ + (1 − θ) ; 2b 2b 2b Q∗Mon = da cui q1∗ = Q∗Mon ; 2 ∗ q2H =θ Q∗Mon ; 2 ∗ q2L = (1 − θ) Q∗Mon 2 da cui p∗ e profitti. Esercizio 5 C’è una perdita di quantità o di profitti in informazione incompleta? 5 Gioco Statico con Informazione Imperfetta (Bayesiano) e Variabile Discreta Considerate il Gioco "Battle of Sexes" in cui G1 sia di un solo tipo, mentre G2 sia di 2 tipi (Sinistra e Destra) con probabilità θ, (1 − θ) . Abbiamo due giochi matriciali: M1 prob θ α 1−α G1\G2_sin C1 F1 β1 C2S 2,1 0,0 (1 − β 1 ) F2S 0,0 1,2 M2 prob (1 − θ) α 1−α G1\G2_des C1 F1 β2 C2D 2,2 0,0 (1 − β 2 ) F2D 0,0 1,1 Calcolare l’Equilibrio Bayesiano,ovvero la "casella media" con i payoffs rispettivi di ogni giocatore. Metodo di calcolo: 1. Calcolare gli equilibri di Nash e, se questo non è unico, le probabilità delle strategie miste di ogni gioco matriciale. 2. Adesso invece vogliamo considerare cosa succede ponderando le matrici del giocatore opposto (se esso ha più tipi). Per ogni tipo, è necessario calcolare il valore atteso di ogni strategia propria, come miglior risposta ad ogni strategia del giocatore opposto collassando i suoi diversi tipi, mediante le probabilità di Bayes. Queste sono calcolate usando come pesi le strategie miste di ogni matrice moltiplicate per la probabilità della matrice. Mi spiego con l’esempio. Nel nostro caso G1 deve decidere cosa fare per ogni mossa di G2, ma G2 può essere di due tipi. Supponiamo che G1 voglia calcolare il suo payoff se vede la partita di calcio U1 (C1 , EC2 ) ovvero quando anche G2 vede anche lei la partita di calcio EU1 (C1 ) = θβ 1 U1 (C1 , C2S) + (1 − θ) β 2 U1 (C1 , C2D) 16 tuttavia i due "pesi" θβ 1 , e (1 − θ) β 2 non sommano a 1. E quindi, per farli diventare "probabilità" è necessario normalizzarli (dividere ciascuna per il totale). Si ottiene quindi etc µ ¶ µ ¶ θβ 1 (1 − θ) β 2 U1 (C1 , EC2 ) = ·2+ ·2 θβ + (1 − θ) β 2 θβ 1 + (1 − θ) β 2 ¶ µ ¶ µ 1 (1 − θ) (1 − β 2 ) θ (1 − β 1 ) ·0+ ·0 U1 (C1 , EF2 ) = θ (1 − β 1 ) + (1 − θ) (1 − β 2 ) θ (1 − β 1 ) + (1 − θ) (1 − β 2 ) µ ¶ µ ¶ θβ 1 (1 − θ) β 2 U1 (F1 , EC2 ) = ·0+ ·0 θβ 1 + (1 − θ) β 2 θβ 1 + (1 − θ) β 2 µ ¶ µ ¶ θ (1 − β 1 ) (1 − θ) (1 − β 2 ) U1 (F1 , EF2 ) = ·1+ ·1 θ (1 − β 1 ) + (1 − θ) (1 − β 2 ) θ (1 − β 1 ) + (1 − θ) (1 − β 2 ) dove le probabilità sono le famose probabilità di Bayes. μ (−i | i) = Cosa succede a G2? μ (i | − i) p (−i) μ (i | − i) p (−i) =P μ (i) −i μ (i | − i) p (−i) G2_sin e G2_des risolvono banalmente come nelle strategie miste, perché incontrano un solo tipo G1. Le probabilità (α, 1 − α) coincidono con le probabilità di Bayes. Vediamo perché: U2S (C2S ) = αU2 (C1, C2S ) + (1 − α) U2 (C1, C2D ) le probabilità già sommano a uno, ma seppure le normalizzassimo avremmo α 1−α U2 (C1, C2S ) + U2 (C1, C2D ) α + (1 − α) α + (1 − α) 1−α α U2 (C1, C2S ) + U2 (C1, C2D ) 1 1 U2S (C2S ) = = In effetti, stiamo collassando le due matrici, dove quindi le probabilità del G2 sono diventate µ ¶ θβ 1 β 1 −→ θβ + (1 − θ) β 2 µ 1 ¶ θ (1 − β 1 ) 1 − β 1 −→ θ (1 − β 1 ) + (1 − θ) (1 − β 2 ) µ ¶ (1 − θ) β 2 β 2 −→ θβ + (1 − θ) β 2 µ 1 ¶ (1 − θ) (1 − β 2 ) 1 − β 2 −→ θ (1 − β 1 ) + (1 − θ) (1 − β 2 ) mentre le {α, (1 − α)} restano le stesse. Qualora non lo fossero, avremmo α1 −→ 1 − α1 −→ α2 −→ 1 − α2 −→ µ ¶ θα1 θα1 + (1 − θ) α2 µ ¶ θ (1 − α1 ) θ (1 − α1 ) + (1 − θ) (1 − α2 ) µ ¶ (1 − θ) α2 θα1 + (1 − θ) α2 µ ¶ (1 − θ) (1 − α2 ) θ (1 − α1 ) + (1 − θ) (1 − α2 ) 3. In questo modo abbiamo calcolato tutte le probabilità di Bayes.Adesso si verifica se, dati questi nuovi payoffs, esiste un unico equilibrio di Bayes. 17 4. Se non è unico si procede alla ricerca delle strategie "miste" su questa nuova matrice, ovvero si calcola il valore atteso di ogni strategia (N.B. non sto più ponderando, perché avevo già ponderato prima i singoli addendi. Ma se si calcola EU1 (C1 ) dall’inizio, usando i payoffs originali, è necessario ponderare con le probabilità di Bayes).: EU1 (C1 ) = U1 (C1 , EC2 ) + U1 (C1 , EF2 ) EU1 (F1 ) = U1 (F1 , EC2 ) + U1 (F1 , EF2 ) e si cerca quali siano le probabilità tali che EU1 (C1 ) ≥ EU1 (F1 ) In questo caso otteniamo ¶ µ ¶ (1 − θ) β 2 θβ 1 ·2+ · 2+ θβ 1 + (1 − θ) β 2 θβ 1 + (1 − θ) β 2 µ ¶ µ ¶ θ (1 − β 1 ) (1 − θ) (1 − β 2 ) + ·0+ ·0 ≥ θ (1 − β 1 ) + (1 − θ) (1 − β 2 ) θ (1 − β 1 ) + (1 − θ) (1 − β 2 ) ¶ µ ¶ µ (1 − θ) β 2 θβ 1 ·0+ · 0+ = θβ 1 + (1 − θ) β 2 θβ 1 + (1 − θ) β 2 µ ¶ µ ¶ θ (1 − β 1 ) (1 − θ) (1 − β 2 ) + ·1+ ·1 θ (1 − β 1 ) + (1 − θ) (1 − β 2 ) θ (1 − β 1 ) + (1 − θ) (1 − β 2 ) µ µ θβ 1 θβ 1 + (1 − θ) β 2 ¶ 2+ µ (1 − θ) β 2 θβ 1 + (1 − θ) β 2 ¶ µ ¶ θ (1 − β 1 ) 1+ θ (1 − β 1 ) + (1 − θ) (1 − β 2 ) µ ¶ (1 − θ) (1 − β 2 ) + 1 θ (1 − β 1 ) + (1 − θ) (1 − β 2 ) 2 ≥ 1 2 ≥ G1 effettuerà C1 , con strategia dominante (si poteva vedere subito). G2S e G2D, prevedendo questo, effettueranno C2 . osservazione 8 Importante. Anche qui, come per il caso continuo, la scelta di G1 nel gioco ponderato, NON è necessariamente la stessa scelta che G1 avrebbe fatto in ognuno dei giochi e pertanto la "miglior risposta" di G1 è ottimizzata verso il valore medio atteso fra G2S, G2, ovvero EG2, e NON è assolutamente una risposta ottima verso la singola G2D o G2S, a meno che non si usino le probabilità {θ, 1 − θ} compatibili. 18
© Copyright 2024 ExpyDoc