1*4882a593Smuzhiyun.. include:: ../disclaimer-ita.rst 2*4882a593Smuzhiyun 3*4882a593Smuzhiyun.. c:namespace:: it_IT 4*4882a593Smuzhiyun 5*4882a593Smuzhiyun:Original: :ref:`Documentation/kernel-hacking/locking.rst <kernel_hacking_lock>` 6*4882a593Smuzhiyun:Translator: Federico Vaga <federico.vaga@vaga.pv.it> 7*4882a593Smuzhiyun 8*4882a593Smuzhiyun.. _it_kernel_hacking_lock: 9*4882a593Smuzhiyun 10*4882a593Smuzhiyun========================================== 11*4882a593SmuzhiyunL'inaffidabile guida alla sincronizzazione 12*4882a593Smuzhiyun========================================== 13*4882a593Smuzhiyun 14*4882a593Smuzhiyun:Author: Rusty Russell 15*4882a593Smuzhiyun 16*4882a593SmuzhiyunIntroduzione 17*4882a593Smuzhiyun============ 18*4882a593Smuzhiyun 19*4882a593SmuzhiyunBenvenuto, alla notevole ed inaffidabile guida ai problemi di sincronizzazione 20*4882a593Smuzhiyun(locking) nel kernel. Questo documento descrive il sistema di sincronizzazione 21*4882a593Smuzhiyunnel kernel Linux 2.6. 22*4882a593Smuzhiyun 23*4882a593SmuzhiyunDato il largo utilizzo del multi-threading e della prelazione nel kernel 24*4882a593SmuzhiyunLinux, chiunque voglia dilettarsi col kernel deve conoscere i concetti 25*4882a593Smuzhiyunfondamentali della concorrenza e della sincronizzazione nei sistemi 26*4882a593Smuzhiyunmulti-processore. 27*4882a593Smuzhiyun 28*4882a593SmuzhiyunIl problema con la concorrenza 29*4882a593Smuzhiyun============================== 30*4882a593Smuzhiyun 31*4882a593Smuzhiyun(Saltatelo se sapete già cos'è una corsa critica). 32*4882a593Smuzhiyun 33*4882a593SmuzhiyunIn un normale programma, potete incrementare un contatore nel seguente modo: 34*4882a593Smuzhiyun 35*4882a593Smuzhiyun:: 36*4882a593Smuzhiyun 37*4882a593Smuzhiyun contatore++; 38*4882a593Smuzhiyun 39*4882a593SmuzhiyunQuesto è quello che vi aspettereste che accada sempre: 40*4882a593Smuzhiyun 41*4882a593Smuzhiyun 42*4882a593Smuzhiyun.. table:: Risultati attesi 43*4882a593Smuzhiyun 44*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 45*4882a593Smuzhiyun | Istanza 1 | Istanza 2 | 46*4882a593Smuzhiyun +====================================+====================================+ 47*4882a593Smuzhiyun | leggi contatore (5) | | 48*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 49*4882a593Smuzhiyun | aggiungi 1 (6) | | 50*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 51*4882a593Smuzhiyun | scrivi contatore (6) | | 52*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 53*4882a593Smuzhiyun | | leggi contatore (6) | 54*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 55*4882a593Smuzhiyun | | aggiungi 1 (7) | 56*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 57*4882a593Smuzhiyun | | scrivi contatore (7) | 58*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 59*4882a593Smuzhiyun 60*4882a593SmuzhiyunQuesto è quello che potrebbe succedere in realtà: 61*4882a593Smuzhiyun 62*4882a593Smuzhiyun.. table:: Possibile risultato 63*4882a593Smuzhiyun 64*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 65*4882a593Smuzhiyun | Istanza 1 | Istanza 2 | 66*4882a593Smuzhiyun +====================================+====================================+ 67*4882a593Smuzhiyun | leggi contatore (5) | | 68*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 69*4882a593Smuzhiyun | | leggi contatore (5) | 70*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 71*4882a593Smuzhiyun | aggiungi 1 (6) | | 72*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 73*4882a593Smuzhiyun | | aggiungi 1 (6) | 74*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 75*4882a593Smuzhiyun | scrivi contatore (6) | | 76*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 77*4882a593Smuzhiyun | | scrivi contatore (6) | 78*4882a593Smuzhiyun +------------------------------------+------------------------------------+ 79*4882a593Smuzhiyun 80*4882a593Smuzhiyun 81*4882a593SmuzhiyunCorse critiche e sezioni critiche 82*4882a593Smuzhiyun--------------------------------- 83*4882a593Smuzhiyun 84*4882a593SmuzhiyunQuesta sovrapposizione, ovvero quando un risultato dipende dal tempo che 85*4882a593Smuzhiyunintercorre fra processi diversi, è chiamata corsa critica. La porzione 86*4882a593Smuzhiyundi codice che contiene questo problema è chiamata sezione critica. 87*4882a593SmuzhiyunIn particolar modo da quando Linux ha incominciato a girare su 88*4882a593Smuzhiyunmacchine multi-processore, le sezioni critiche sono diventate uno dei 89*4882a593Smuzhiyunmaggiori problemi di progettazione ed implementazione del kernel. 90*4882a593Smuzhiyun 91*4882a593SmuzhiyunLa prelazione può sortire gli stessi effetti, anche se c'è una sola CPU: 92*4882a593Smuzhiyuninterrompendo un processo nella sua sezione critica otterremo comunque 93*4882a593Smuzhiyunla stessa corsa critica. In questo caso, il thread che si avvicenda 94*4882a593Smuzhiyunnell'esecuzione potrebbe eseguire anch'esso la sezione critica. 95*4882a593Smuzhiyun 96*4882a593SmuzhiyunLa soluzione è quella di riconoscere quando avvengono questi accessi 97*4882a593Smuzhiyunsimultanei, ed utilizzare i *lock* per accertarsi che solo un'istanza 98*4882a593Smuzhiyunper volta possa entrare nella sezione critica. Il kernel offre delle buone 99*4882a593Smuzhiyunfunzioni a questo scopo. E poi ci sono quelle meno buone, ma farò finta 100*4882a593Smuzhiyunche non esistano. 101*4882a593Smuzhiyun 102*4882a593SmuzhiyunSincronizzazione nel kernel Linux 103*4882a593Smuzhiyun================================= 104*4882a593Smuzhiyun 105*4882a593SmuzhiyunSe posso darvi un suggerimento: non dormite mai con qualcuno più pazzo di 106*4882a593Smuzhiyunvoi. Ma se dovessi darvi un suggerimento sulla sincronizzazione: 107*4882a593Smuzhiyun**mantenetela semplice**. 108*4882a593Smuzhiyun 109*4882a593SmuzhiyunSiate riluttanti nell'introduzione di nuovi *lock*. 110*4882a593Smuzhiyun 111*4882a593SmuzhiyunAbbastanza strano, quest'ultimo è l'esatto opposto del mio suggerimento 112*4882a593Smuzhiyunsu quando **avete** dormito con qualcuno più pazzo di voi. E dovreste 113*4882a593Smuzhiyunpensare a prendervi un cane bello grande. 114*4882a593Smuzhiyun 115*4882a593SmuzhiyunI due principali tipi di *lock* nel kernel: spinlock e mutex 116*4882a593Smuzhiyun------------------------------------------------------------ 117*4882a593Smuzhiyun 118*4882a593SmuzhiyunCi sono due tipi principali di *lock* nel kernel. Il tipo fondamentale è lo 119*4882a593Smuzhiyunspinlock (``include/asm/spinlock.h``), un semplice *lock* che può essere 120*4882a593Smuzhiyuntrattenuto solo da un processo: se non si può trattenere lo spinlock, allora 121*4882a593Smuzhiyunrimane in attesa attiva (in inglese *spinning*) finché non ci riesce. 122*4882a593SmuzhiyunGli spinlock sono molto piccoli e rapidi, possono essere utilizzati ovunque. 123*4882a593Smuzhiyun 124*4882a593SmuzhiyunIl secondo tipo è il mutex (``include/linux/mutex.h``): è come uno spinlock, 125*4882a593Smuzhiyunma potreste bloccarvi trattenendolo. Se non potete trattenere un mutex 126*4882a593Smuzhiyunil vostro processo si auto-sospenderà; verrà riattivato quando il mutex 127*4882a593Smuzhiyunverrà rilasciato. Questo significa che il processore potrà occuparsi d'altro 128*4882a593Smuzhiyunmentre il vostro processo è in attesa. Esistono molti casi in cui non potete 129*4882a593Smuzhiyunpermettervi di sospendere un processo (vedere 130*4882a593Smuzhiyun:ref:`Quali funzioni possono essere chiamate in modo sicuro dalle interruzioni? <it_sleeping-things>`) 131*4882a593Smuzhiyune quindi dovrete utilizzare gli spinlock. 132*4882a593Smuzhiyun 133*4882a593SmuzhiyunNessuno di questi *lock* è ricorsivo: vedere 134*4882a593Smuzhiyun:ref:`Stallo: semplice ed avanzato <it_deadlock>` 135*4882a593Smuzhiyun 136*4882a593SmuzhiyunI *lock* e i kernel per sistemi monoprocessore 137*4882a593Smuzhiyun---------------------------------------------- 138*4882a593Smuzhiyun 139*4882a593SmuzhiyunPer i kernel compilati senza ``CONFIG_SMP`` e senza ``CONFIG_PREEMPT`` 140*4882a593Smuzhiyungli spinlock non esistono. Questa è un'ottima scelta di progettazione: 141*4882a593Smuzhiyunquando nessun altro processo può essere eseguito in simultanea, allora 142*4882a593Smuzhiyunnon c'è la necessità di avere un *lock*. 143*4882a593Smuzhiyun 144*4882a593SmuzhiyunSe il kernel è compilato senza ``CONFIG_SMP`` ma con ``CONFIG_PREEMPT``, 145*4882a593Smuzhiyunallora gli spinlock disabilitano la prelazione; questo è sufficiente a 146*4882a593Smuzhiyunprevenire le corse critiche. Nella maggior parte dei casi, possiamo considerare 147*4882a593Smuzhiyunla prelazione equivalente ad un sistema multi-processore senza preoccuparci 148*4882a593Smuzhiyundi trattarla indipendentemente. 149*4882a593Smuzhiyun 150*4882a593SmuzhiyunDovreste verificare sempre la sincronizzazione con le opzioni ``CONFIG_SMP`` e 151*4882a593Smuzhiyun``CONFIG_PREEMPT`` abilitate, anche quando non avete un sistema 152*4882a593Smuzhiyunmulti-processore, questo vi permetterà di identificare alcuni problemi 153*4882a593Smuzhiyundi sincronizzazione. 154*4882a593Smuzhiyun 155*4882a593SmuzhiyunCome vedremo di seguito, i mutex continuano ad esistere perché sono necessari 156*4882a593Smuzhiyunper la sincronizzazione fra processi in contesto utente. 157*4882a593Smuzhiyun 158*4882a593SmuzhiyunSincronizzazione in contesto utente 159*4882a593Smuzhiyun----------------------------------- 160*4882a593Smuzhiyun 161*4882a593SmuzhiyunSe avete una struttura dati che verrà utilizzata solo dal contesto utente, 162*4882a593Smuzhiyunallora, per proteggerla, potete utilizzare un semplice mutex 163*4882a593Smuzhiyun(``include/linux/mutex.h``). Questo è il caso più semplice: inizializzate il 164*4882a593Smuzhiyunmutex; invocate mutex_lock_interruptible() per trattenerlo e 165*4882a593Smuzhiyunmutex_unlock() per rilasciarlo. C'è anche mutex_lock() 166*4882a593Smuzhiyunma questa dovrebbe essere evitata perché non ritorna in caso di segnali. 167*4882a593Smuzhiyun 168*4882a593SmuzhiyunPer esempio: ``net/netfilter/nf_sockopt.c`` permette la registrazione 169*4882a593Smuzhiyundi nuove chiamate per setsockopt() e getsockopt() 170*4882a593Smuzhiyunusando la funzione nf_register_sockopt(). La registrazione e 171*4882a593Smuzhiyunla rimozione vengono eseguite solamente quando il modulo viene caricato 172*4882a593Smuzhiyuno scaricato (e durante l'avvio del sistema, qui non abbiamo concorrenza), 173*4882a593Smuzhiyune la lista delle funzioni registrate viene consultata solamente quando 174*4882a593Smuzhiyunsetsockopt() o getsockopt() sono sconosciute al sistema. 175*4882a593SmuzhiyunIn questo caso ``nf_sockopt_mutex`` è perfetto allo scopo, in particolar modo 176*4882a593Smuzhiyunvisto che setsockopt e getsockopt potrebbero dormire. 177*4882a593Smuzhiyun 178*4882a593SmuzhiyunSincronizzazione fra il contesto utente e i softirq 179*4882a593Smuzhiyun--------------------------------------------------- 180*4882a593Smuzhiyun 181*4882a593SmuzhiyunSe un softirq condivide dati col contesto utente, avete due problemi. 182*4882a593SmuzhiyunPrimo, il contesto utente corrente potrebbe essere interroto da un softirq, 183*4882a593Smuzhiyune secondo, la sezione critica potrebbe essere eseguita da un altro 184*4882a593Smuzhiyunprocessore. Questo è quando spin_lock_bh() 185*4882a593Smuzhiyun(``include/linux/spinlock.h``) viene utilizzato. Questo disabilita i softirq 186*4882a593Smuzhiyunsul processore e trattiene il *lock*. Invece, spin_unlock_bh() fa 187*4882a593Smuzhiyunl'opposto. (Il suffisso '_bh' è un residuo storico che fa riferimento al 188*4882a593Smuzhiyun"Bottom Halves", il vecchio nome delle interruzioni software. In un mondo 189*4882a593Smuzhiyunperfetto questa funzione si chiamerebbe 'spin_lock_softirq()'). 190*4882a593Smuzhiyun 191*4882a593SmuzhiyunDa notare che in questo caso potete utilizzare anche spin_lock_irq() 192*4882a593Smuzhiyuno spin_lock_irqsave(), queste fermano anche le interruzioni hardware: 193*4882a593Smuzhiyunvedere :ref:`Contesto di interruzione hardware <it_hardirq-context>`. 194*4882a593Smuzhiyun 195*4882a593SmuzhiyunQuesto funziona alla perfezione anche sui sistemi monoprocessore: gli spinlock 196*4882a593Smuzhiyunsvaniscono e questa macro diventa semplicemente local_bh_disable() 197*4882a593Smuzhiyun(``include/linux/interrupt.h``), la quale impedisce ai softirq d'essere 198*4882a593Smuzhiyuneseguiti. 199*4882a593Smuzhiyun 200*4882a593SmuzhiyunSincronizzazione fra contesto utente e i tasklet 201*4882a593Smuzhiyun------------------------------------------------ 202*4882a593Smuzhiyun 203*4882a593SmuzhiyunQuesto caso è uguale al precedente, un tasklet viene eseguito da un softirq. 204*4882a593Smuzhiyun 205*4882a593SmuzhiyunSincronizzazione fra contesto utente e i timer 206*4882a593Smuzhiyun---------------------------------------------- 207*4882a593Smuzhiyun 208*4882a593SmuzhiyunAnche questo caso è uguale al precedente, un timer viene eseguito da un 209*4882a593Smuzhiyunsoftirq. 210*4882a593SmuzhiyunDal punto di vista della sincronizzazione, tasklet e timer sono identici. 211*4882a593Smuzhiyun 212*4882a593SmuzhiyunSincronizzazione fra tasklet e timer 213*4882a593Smuzhiyun------------------------------------ 214*4882a593Smuzhiyun 215*4882a593SmuzhiyunQualche volta un tasklet od un timer potrebbero condividere i dati con 216*4882a593Smuzhiyunun altro tasklet o timer 217*4882a593Smuzhiyun 218*4882a593SmuzhiyunLo stesso tasklet/timer 219*4882a593Smuzhiyun~~~~~~~~~~~~~~~~~~~~~~~ 220*4882a593Smuzhiyun 221*4882a593SmuzhiyunDato che un tasklet non viene mai eseguito contemporaneamente su due 222*4882a593Smuzhiyunprocessori, non dovete preoccuparvi che sia rientrante (ovvero eseguito 223*4882a593Smuzhiyunpiù volte in contemporanea), perfino su sistemi multi-processore. 224*4882a593Smuzhiyun 225*4882a593SmuzhiyunDifferenti tasklet/timer 226*4882a593Smuzhiyun~~~~~~~~~~~~~~~~~~~~~~~~ 227*4882a593Smuzhiyun 228*4882a593SmuzhiyunSe un altro tasklet/timer vuole condividere dati col vostro tasklet o timer, 229*4882a593Smuzhiyunallora avrete bisogno entrambe di spin_lock() e 230*4882a593Smuzhiyunspin_unlock(). Qui spin_lock_bh() è inutile, siete già 231*4882a593Smuzhiyunin un tasklet ed avete la garanzia che nessun altro verrà eseguito sullo 232*4882a593Smuzhiyunstesso processore. 233*4882a593Smuzhiyun 234*4882a593SmuzhiyunSincronizzazione fra softirq 235*4882a593Smuzhiyun---------------------------- 236*4882a593Smuzhiyun 237*4882a593SmuzhiyunSpesso un softirq potrebbe condividere dati con se stesso o un tasklet/timer. 238*4882a593Smuzhiyun 239*4882a593SmuzhiyunLo stesso softirq 240*4882a593Smuzhiyun~~~~~~~~~~~~~~~~~ 241*4882a593Smuzhiyun 242*4882a593SmuzhiyunLo stesso softirq può essere eseguito su un diverso processore: allo scopo 243*4882a593Smuzhiyundi migliorare le prestazioni potete utilizzare dati riservati ad ogni 244*4882a593Smuzhiyunprocessore (vedere :ref:`Dati per processore <it_per-cpu>`). Se siete arrivati 245*4882a593Smuzhiyunfino a questo punto nell'uso dei softirq, probabilmente tenete alla scalabilità 246*4882a593Smuzhiyundelle prestazioni abbastanza da giustificarne la complessità aggiuntiva. 247*4882a593Smuzhiyun 248*4882a593SmuzhiyunDovete utilizzare spin_lock() e spin_unlock() per 249*4882a593Smuzhiyunproteggere i dati condivisi. 250*4882a593Smuzhiyun 251*4882a593SmuzhiyunDiversi Softirqs 252*4882a593Smuzhiyun~~~~~~~~~~~~~~~~ 253*4882a593Smuzhiyun 254*4882a593SmuzhiyunDovete utilizzare spin_lock() e spin_unlock() per 255*4882a593Smuzhiyunproteggere i dati condivisi, che siano timer, tasklet, diversi softirq o 256*4882a593Smuzhiyunlo stesso o altri softirq: uno qualsiasi di essi potrebbe essere in esecuzione 257*4882a593Smuzhiyunsu un diverso processore. 258*4882a593Smuzhiyun 259*4882a593Smuzhiyun.. _`it_hardirq-context`: 260*4882a593Smuzhiyun 261*4882a593SmuzhiyunContesto di interruzione hardware 262*4882a593Smuzhiyun================================= 263*4882a593Smuzhiyun 264*4882a593SmuzhiyunSolitamente le interruzioni hardware comunicano con un tasklet o un softirq. 265*4882a593SmuzhiyunSpesso questo si traduce nel mettere in coda qualcosa da fare che verrà 266*4882a593Smuzhiyunpreso in carico da un softirq. 267*4882a593Smuzhiyun 268*4882a593SmuzhiyunSincronizzazione fra interruzioni hardware e softirq/tasklet 269*4882a593Smuzhiyun------------------------------------------------------------ 270*4882a593Smuzhiyun 271*4882a593SmuzhiyunSe un gestore di interruzioni hardware condivide dati con un softirq, allora 272*4882a593Smuzhiyunavrete due preoccupazioni. Primo, il softirq può essere interrotto da 273*4882a593Smuzhiyunun'interruzione hardware, e secondo, la sezione critica potrebbe essere 274*4882a593Smuzhiyuneseguita da un'interruzione hardware su un processore diverso. Questo è il caso 275*4882a593Smuzhiyundove spin_lock_irq() viene utilizzato. Disabilita le interruzioni 276*4882a593Smuzhiyunsul processore che l'esegue, poi trattiene il lock. spin_unlock_irq() 277*4882a593Smuzhiyunfa l'opposto. 278*4882a593Smuzhiyun 279*4882a593SmuzhiyunIl gestore d'interruzione hardware non ha bisogno di usare spin_lock_irq() 280*4882a593Smuzhiyunperché i softirq non possono essere eseguiti quando il gestore d'interruzione 281*4882a593Smuzhiyunhardware è in esecuzione: per questo si può usare spin_lock(), che è un po' 282*4882a593Smuzhiyunpiù veloce. L'unica eccezione è quando un altro gestore d'interruzioni 283*4882a593Smuzhiyunhardware utilizza lo stesso *lock*: spin_lock_irq() impedirà a questo 284*4882a593Smuzhiyunsecondo gestore di interrompere quello in esecuzione. 285*4882a593Smuzhiyun 286*4882a593SmuzhiyunQuesto funziona alla perfezione anche sui sistemi monoprocessore: gli spinlock 287*4882a593Smuzhiyunsvaniscono e questa macro diventa semplicemente local_irq_disable() 288*4882a593Smuzhiyun(``include/asm/smp.h``), la quale impedisce a softirq/tasklet/BH d'essere 289*4882a593Smuzhiyuneseguiti. 290*4882a593Smuzhiyun 291*4882a593Smuzhiyunspin_lock_irqsave() (``include/linux/spinlock.h``) è una variante che 292*4882a593Smuzhiyunsalva lo stato delle interruzioni in una variabile, questa verrà poi passata 293*4882a593Smuzhiyuna spin_unlock_irqrestore(). Questo significa che lo stesso codice 294*4882a593Smuzhiyunpotrà essere utilizzato in un'interruzione hardware (dove le interruzioni sono 295*4882a593Smuzhiyungià disabilitate) e in un softirq (dove la disabilitazione delle interruzioni 296*4882a593Smuzhiyunè richiesta). 297*4882a593Smuzhiyun 298*4882a593SmuzhiyunDa notare che i softirq (e quindi tasklet e timer) sono eseguiti al ritorno 299*4882a593Smuzhiyunda un'interruzione hardware, quindi spin_lock_irq() interrompe 300*4882a593Smuzhiyunanche questi. Tenuto conto di questo si può dire che 301*4882a593Smuzhiyunspin_lock_irqsave() è la funzione di sincronizzazione più generica 302*4882a593Smuzhiyune potente. 303*4882a593Smuzhiyun 304*4882a593SmuzhiyunSincronizzazione fra due gestori d'interruzioni hardware 305*4882a593Smuzhiyun-------------------------------------------------------- 306*4882a593Smuzhiyun 307*4882a593SmuzhiyunCondividere dati fra due gestori di interruzione hardware è molto raro, ma se 308*4882a593Smuzhiyunsuccede, dovreste usare spin_lock_irqsave(): è una specificità 309*4882a593Smuzhiyundell'architettura il fatto che tutte le interruzioni vengano interrotte 310*4882a593Smuzhiyunquando si eseguono di gestori di interruzioni. 311*4882a593Smuzhiyun 312*4882a593SmuzhiyunBigino della sincronizzazione 313*4882a593Smuzhiyun============================= 314*4882a593Smuzhiyun 315*4882a593SmuzhiyunPete Zaitcev ci offre il seguente riassunto: 316*4882a593Smuzhiyun 317*4882a593Smuzhiyun- Se siete in un contesto utente (una qualsiasi chiamata di sistema) 318*4882a593Smuzhiyun e volete sincronizzarvi con altri processi, usate i mutex. Potete trattenere 319*4882a593Smuzhiyun il mutex e dormire (``copy_from_user*(`` o ``kmalloc(x,GFP_KERNEL)``). 320*4882a593Smuzhiyun 321*4882a593Smuzhiyun- Altrimenti (== i dati possono essere manipolati da un'interruzione) usate 322*4882a593Smuzhiyun spin_lock_irqsave() e spin_unlock_irqrestore(). 323*4882a593Smuzhiyun 324*4882a593Smuzhiyun- Evitate di trattenere uno spinlock per più di 5 righe di codice incluse 325*4882a593Smuzhiyun le chiamate a funzione (ad eccezione di quell per l'accesso come 326*4882a593Smuzhiyun readb()). 327*4882a593Smuzhiyun 328*4882a593SmuzhiyunTabella dei requisiti minimi 329*4882a593Smuzhiyun---------------------------- 330*4882a593Smuzhiyun 331*4882a593SmuzhiyunLa tabella seguente illustra i requisiti **minimi** per la sincronizzazione fra 332*4882a593Smuzhiyundiversi contesti. In alcuni casi, lo stesso contesto può essere eseguito solo 333*4882a593Smuzhiyunda un processore per volta, quindi non ci sono requisiti per la 334*4882a593Smuzhiyunsincronizzazione (per esempio, un thread può essere eseguito solo su un 335*4882a593Smuzhiyunprocessore alla volta, ma se deve condividere dati con un altro thread, allora 336*4882a593Smuzhiyunla sincronizzazione è necessaria). 337*4882a593Smuzhiyun 338*4882a593SmuzhiyunRicordatevi il suggerimento qui sopra: potete sempre usare 339*4882a593Smuzhiyunspin_lock_irqsave(), che è un sovrainsieme di tutte le altre funzioni 340*4882a593Smuzhiyunper spinlock. 341*4882a593Smuzhiyun 342*4882a593Smuzhiyun============== ============= ============= ========= ========= ========= ========= ======= ======= ============== ============== 343*4882a593Smuzhiyun. IRQ Handler A IRQ Handler B Softirq A Softirq B Tasklet A Tasklet B Timer A Timer B User Context A User Context B 344*4882a593Smuzhiyun============== ============= ============= ========= ========= ========= ========= ======= ======= ============== ============== 345*4882a593SmuzhiyunIRQ Handler A None 346*4882a593SmuzhiyunIRQ Handler B SLIS None 347*4882a593SmuzhiyunSoftirq A SLI SLI SL 348*4882a593SmuzhiyunSoftirq B SLI SLI SL SL 349*4882a593SmuzhiyunTasklet A SLI SLI SL SL None 350*4882a593SmuzhiyunTasklet B SLI SLI SL SL SL None 351*4882a593SmuzhiyunTimer A SLI SLI SL SL SL SL None 352*4882a593SmuzhiyunTimer B SLI SLI SL SL SL SL SL None 353*4882a593SmuzhiyunUser Context A SLI SLI SLBH SLBH SLBH SLBH SLBH SLBH None 354*4882a593SmuzhiyunUser Context B SLI SLI SLBH SLBH SLBH SLBH SLBH SLBH MLI None 355*4882a593Smuzhiyun============== ============= ============= ========= ========= ========= ========= ======= ======= ============== ============== 356*4882a593Smuzhiyun 357*4882a593SmuzhiyunTable: Tabella dei requisiti per la sincronizzazione 358*4882a593Smuzhiyun 359*4882a593Smuzhiyun+--------+----------------------------+ 360*4882a593Smuzhiyun| SLIS | spin_lock_irqsave | 361*4882a593Smuzhiyun+--------+----------------------------+ 362*4882a593Smuzhiyun| SLI | spin_lock_irq | 363*4882a593Smuzhiyun+--------+----------------------------+ 364*4882a593Smuzhiyun| SL | spin_lock | 365*4882a593Smuzhiyun+--------+----------------------------+ 366*4882a593Smuzhiyun| SLBH | spin_lock_bh | 367*4882a593Smuzhiyun+--------+----------------------------+ 368*4882a593Smuzhiyun| MLI | mutex_lock_interruptible | 369*4882a593Smuzhiyun+--------+----------------------------+ 370*4882a593Smuzhiyun 371*4882a593SmuzhiyunTable: Legenda per la tabella dei requisiti per la sincronizzazione 372*4882a593Smuzhiyun 373*4882a593SmuzhiyunLe funzioni *trylock* 374*4882a593Smuzhiyun===================== 375*4882a593Smuzhiyun 376*4882a593SmuzhiyunCi sono funzioni che provano a trattenere un *lock* solo una volta e 377*4882a593Smuzhiyunritornano immediatamente comunicato il successo od il fallimento 378*4882a593Smuzhiyundell'operazione. Posso essere usate quando non serve accedere ai dati 379*4882a593Smuzhiyunprotetti dal *lock* quando qualche altro thread lo sta già facendo 380*4882a593Smuzhiyuntrattenendo il *lock*. Potrete acquisire il *lock* più tardi se vi 381*4882a593Smuzhiyunserve accedere ai dati protetti da questo *lock*. 382*4882a593Smuzhiyun 383*4882a593SmuzhiyunLa funzione spin_trylock() non ritenta di acquisire il *lock*, 384*4882a593Smuzhiyunse ci riesce al primo colpo ritorna un valore diverso da zero, altrimenti 385*4882a593Smuzhiyunse fallisce ritorna 0. Questa funzione può essere utilizzata in un qualunque 386*4882a593Smuzhiyuncontesto, ma come spin_lock(): dovete disabilitare i contesti che 387*4882a593Smuzhiyunpotrebbero interrompervi e quindi trattenere lo spinlock. 388*4882a593Smuzhiyun 389*4882a593SmuzhiyunLa funzione mutex_trylock() invece di sospendere il vostro processo 390*4882a593Smuzhiyunritorna un valore diverso da zero se è possibile trattenere il lock al primo 391*4882a593Smuzhiyuncolpo, altrimenti se fallisce ritorna 0. Nonostante non dorma, questa funzione 392*4882a593Smuzhiyunnon può essere usata in modo sicuro in contesti di interruzione hardware o 393*4882a593Smuzhiyunsoftware. 394*4882a593Smuzhiyun 395*4882a593SmuzhiyunEsempi più comuni 396*4882a593Smuzhiyun================= 397*4882a593Smuzhiyun 398*4882a593SmuzhiyunGuardiamo un semplice esempio: una memoria che associa nomi a numeri. 399*4882a593SmuzhiyunLa memoria tiene traccia di quanto spesso viene utilizzato ogni oggetto; 400*4882a593Smuzhiyunquando è piena, l'oggetto meno usato viene eliminato. 401*4882a593Smuzhiyun 402*4882a593SmuzhiyunTutto in contesto utente 403*4882a593Smuzhiyun------------------------ 404*4882a593Smuzhiyun 405*4882a593SmuzhiyunNel primo esempio, supponiamo che tutte le operazioni avvengano in contesto 406*4882a593Smuzhiyunutente (in soldoni, da una chiamata di sistema), quindi possiamo dormire. 407*4882a593SmuzhiyunQuesto significa che possiamo usare i mutex per proteggere la nostra memoria 408*4882a593Smuzhiyune tutti gli oggetti che contiene. Ecco il codice:: 409*4882a593Smuzhiyun 410*4882a593Smuzhiyun #include <linux/list.h> 411*4882a593Smuzhiyun #include <linux/slab.h> 412*4882a593Smuzhiyun #include <linux/string.h> 413*4882a593Smuzhiyun #include <linux/mutex.h> 414*4882a593Smuzhiyun #include <asm/errno.h> 415*4882a593Smuzhiyun 416*4882a593Smuzhiyun struct object 417*4882a593Smuzhiyun { 418*4882a593Smuzhiyun struct list_head list; 419*4882a593Smuzhiyun int id; 420*4882a593Smuzhiyun char name[32]; 421*4882a593Smuzhiyun int popularity; 422*4882a593Smuzhiyun }; 423*4882a593Smuzhiyun 424*4882a593Smuzhiyun /* Protects the cache, cache_num, and the objects within it */ 425*4882a593Smuzhiyun static DEFINE_MUTEX(cache_lock); 426*4882a593Smuzhiyun static LIST_HEAD(cache); 427*4882a593Smuzhiyun static unsigned int cache_num = 0; 428*4882a593Smuzhiyun #define MAX_CACHE_SIZE 10 429*4882a593Smuzhiyun 430*4882a593Smuzhiyun /* Must be holding cache_lock */ 431*4882a593Smuzhiyun static struct object *__cache_find(int id) 432*4882a593Smuzhiyun { 433*4882a593Smuzhiyun struct object *i; 434*4882a593Smuzhiyun 435*4882a593Smuzhiyun list_for_each_entry(i, &cache, list) 436*4882a593Smuzhiyun if (i->id == id) { 437*4882a593Smuzhiyun i->popularity++; 438*4882a593Smuzhiyun return i; 439*4882a593Smuzhiyun } 440*4882a593Smuzhiyun return NULL; 441*4882a593Smuzhiyun } 442*4882a593Smuzhiyun 443*4882a593Smuzhiyun /* Must be holding cache_lock */ 444*4882a593Smuzhiyun static void __cache_delete(struct object *obj) 445*4882a593Smuzhiyun { 446*4882a593Smuzhiyun BUG_ON(!obj); 447*4882a593Smuzhiyun list_del(&obj->list); 448*4882a593Smuzhiyun kfree(obj); 449*4882a593Smuzhiyun cache_num--; 450*4882a593Smuzhiyun } 451*4882a593Smuzhiyun 452*4882a593Smuzhiyun /* Must be holding cache_lock */ 453*4882a593Smuzhiyun static void __cache_add(struct object *obj) 454*4882a593Smuzhiyun { 455*4882a593Smuzhiyun list_add(&obj->list, &cache); 456*4882a593Smuzhiyun if (++cache_num > MAX_CACHE_SIZE) { 457*4882a593Smuzhiyun struct object *i, *outcast = NULL; 458*4882a593Smuzhiyun list_for_each_entry(i, &cache, list) { 459*4882a593Smuzhiyun if (!outcast || i->popularity < outcast->popularity) 460*4882a593Smuzhiyun outcast = i; 461*4882a593Smuzhiyun } 462*4882a593Smuzhiyun __cache_delete(outcast); 463*4882a593Smuzhiyun } 464*4882a593Smuzhiyun } 465*4882a593Smuzhiyun 466*4882a593Smuzhiyun int cache_add(int id, const char *name) 467*4882a593Smuzhiyun { 468*4882a593Smuzhiyun struct object *obj; 469*4882a593Smuzhiyun 470*4882a593Smuzhiyun if ((obj = kmalloc(sizeof(*obj), GFP_KERNEL)) == NULL) 471*4882a593Smuzhiyun return -ENOMEM; 472*4882a593Smuzhiyun 473*4882a593Smuzhiyun strscpy(obj->name, name, sizeof(obj->name)); 474*4882a593Smuzhiyun obj->id = id; 475*4882a593Smuzhiyun obj->popularity = 0; 476*4882a593Smuzhiyun 477*4882a593Smuzhiyun mutex_lock(&cache_lock); 478*4882a593Smuzhiyun __cache_add(obj); 479*4882a593Smuzhiyun mutex_unlock(&cache_lock); 480*4882a593Smuzhiyun return 0; 481*4882a593Smuzhiyun } 482*4882a593Smuzhiyun 483*4882a593Smuzhiyun void cache_delete(int id) 484*4882a593Smuzhiyun { 485*4882a593Smuzhiyun mutex_lock(&cache_lock); 486*4882a593Smuzhiyun __cache_delete(__cache_find(id)); 487*4882a593Smuzhiyun mutex_unlock(&cache_lock); 488*4882a593Smuzhiyun } 489*4882a593Smuzhiyun 490*4882a593Smuzhiyun int cache_find(int id, char *name) 491*4882a593Smuzhiyun { 492*4882a593Smuzhiyun struct object *obj; 493*4882a593Smuzhiyun int ret = -ENOENT; 494*4882a593Smuzhiyun 495*4882a593Smuzhiyun mutex_lock(&cache_lock); 496*4882a593Smuzhiyun obj = __cache_find(id); 497*4882a593Smuzhiyun if (obj) { 498*4882a593Smuzhiyun ret = 0; 499*4882a593Smuzhiyun strcpy(name, obj->name); 500*4882a593Smuzhiyun } 501*4882a593Smuzhiyun mutex_unlock(&cache_lock); 502*4882a593Smuzhiyun return ret; 503*4882a593Smuzhiyun } 504*4882a593Smuzhiyun 505*4882a593SmuzhiyunDa notare che ci assicuriamo sempre di trattenere cache_lock quando 506*4882a593Smuzhiyunaggiungiamo, rimuoviamo od ispezioniamo la memoria: sia la struttura 507*4882a593Smuzhiyundella memoria che il suo contenuto sono protetti dal *lock*. Questo 508*4882a593Smuzhiyuncaso è semplice dato che copiamo i dati dall'utente e non permettiamo 509*4882a593Smuzhiyunmai loro di accedere direttamente agli oggetti. 510*4882a593Smuzhiyun 511*4882a593SmuzhiyunC'è una piccola ottimizzazione qui: nella funzione cache_add() 512*4882a593Smuzhiyunimpostiamo i campi dell'oggetto prima di acquisire il *lock*. Questo è 513*4882a593Smuzhiyunsicuro perché nessun altro potrà accedervi finché non lo inseriremo 514*4882a593Smuzhiyunnella memoria. 515*4882a593Smuzhiyun 516*4882a593SmuzhiyunAccesso dal contesto utente 517*4882a593Smuzhiyun--------------------------- 518*4882a593Smuzhiyun 519*4882a593SmuzhiyunOra consideriamo il caso in cui cache_find() può essere invocata 520*4882a593Smuzhiyundal contesto d'interruzione: sia hardware che software. Un esempio potrebbe 521*4882a593Smuzhiyunessere un timer che elimina oggetti dalla memoria. 522*4882a593Smuzhiyun 523*4882a593SmuzhiyunQui di seguito troverete la modifica nel formato *patch*: le righe ``-`` 524*4882a593Smuzhiyunsono quelle rimosse, mentre quelle ``+`` sono quelle aggiunte. 525*4882a593Smuzhiyun 526*4882a593Smuzhiyun:: 527*4882a593Smuzhiyun 528*4882a593Smuzhiyun --- cache.c.usercontext 2003-12-09 13:58:54.000000000 +1100 529*4882a593Smuzhiyun +++ cache.c.interrupt 2003-12-09 14:07:49.000000000 +1100 530*4882a593Smuzhiyun @@ -12,7 +12,7 @@ 531*4882a593Smuzhiyun int popularity; 532*4882a593Smuzhiyun }; 533*4882a593Smuzhiyun 534*4882a593Smuzhiyun -static DEFINE_MUTEX(cache_lock); 535*4882a593Smuzhiyun +static DEFINE_SPINLOCK(cache_lock); 536*4882a593Smuzhiyun static LIST_HEAD(cache); 537*4882a593Smuzhiyun static unsigned int cache_num = 0; 538*4882a593Smuzhiyun #define MAX_CACHE_SIZE 10 539*4882a593Smuzhiyun @@ -55,6 +55,7 @@ 540*4882a593Smuzhiyun int cache_add(int id, const char *name) 541*4882a593Smuzhiyun { 542*4882a593Smuzhiyun struct object *obj; 543*4882a593Smuzhiyun + unsigned long flags; 544*4882a593Smuzhiyun 545*4882a593Smuzhiyun if ((obj = kmalloc(sizeof(*obj), GFP_KERNEL)) == NULL) 546*4882a593Smuzhiyun return -ENOMEM; 547*4882a593Smuzhiyun @@ -63,30 +64,33 @@ 548*4882a593Smuzhiyun obj->id = id; 549*4882a593Smuzhiyun obj->popularity = 0; 550*4882a593Smuzhiyun 551*4882a593Smuzhiyun - mutex_lock(&cache_lock); 552*4882a593Smuzhiyun + spin_lock_irqsave(&cache_lock, flags); 553*4882a593Smuzhiyun __cache_add(obj); 554*4882a593Smuzhiyun - mutex_unlock(&cache_lock); 555*4882a593Smuzhiyun + spin_unlock_irqrestore(&cache_lock, flags); 556*4882a593Smuzhiyun return 0; 557*4882a593Smuzhiyun } 558*4882a593Smuzhiyun 559*4882a593Smuzhiyun void cache_delete(int id) 560*4882a593Smuzhiyun { 561*4882a593Smuzhiyun - mutex_lock(&cache_lock); 562*4882a593Smuzhiyun + unsigned long flags; 563*4882a593Smuzhiyun + 564*4882a593Smuzhiyun + spin_lock_irqsave(&cache_lock, flags); 565*4882a593Smuzhiyun __cache_delete(__cache_find(id)); 566*4882a593Smuzhiyun - mutex_unlock(&cache_lock); 567*4882a593Smuzhiyun + spin_unlock_irqrestore(&cache_lock, flags); 568*4882a593Smuzhiyun } 569*4882a593Smuzhiyun 570*4882a593Smuzhiyun int cache_find(int id, char *name) 571*4882a593Smuzhiyun { 572*4882a593Smuzhiyun struct object *obj; 573*4882a593Smuzhiyun int ret = -ENOENT; 574*4882a593Smuzhiyun + unsigned long flags; 575*4882a593Smuzhiyun 576*4882a593Smuzhiyun - mutex_lock(&cache_lock); 577*4882a593Smuzhiyun + spin_lock_irqsave(&cache_lock, flags); 578*4882a593Smuzhiyun obj = __cache_find(id); 579*4882a593Smuzhiyun if (obj) { 580*4882a593Smuzhiyun ret = 0; 581*4882a593Smuzhiyun strcpy(name, obj->name); 582*4882a593Smuzhiyun } 583*4882a593Smuzhiyun - mutex_unlock(&cache_lock); 584*4882a593Smuzhiyun + spin_unlock_irqrestore(&cache_lock, flags); 585*4882a593Smuzhiyun return ret; 586*4882a593Smuzhiyun } 587*4882a593Smuzhiyun 588*4882a593SmuzhiyunDa notare che spin_lock_irqsave() disabiliterà le interruzioni 589*4882a593Smuzhiyunse erano attive, altrimenti non farà niente (quando siamo già in un contesto 590*4882a593Smuzhiyund'interruzione); dunque queste funzioni possono essere chiamante in 591*4882a593Smuzhiyunsicurezza da qualsiasi contesto. 592*4882a593Smuzhiyun 593*4882a593SmuzhiyunSfortunatamente, cache_add() invoca kmalloc() con 594*4882a593Smuzhiyunl'opzione ``GFP_KERNEL`` che è permessa solo in contesto utente. Ho supposto 595*4882a593Smuzhiyunche cache_add() venga chiamata dal contesto utente, altrimenti 596*4882a593Smuzhiyunquesta opzione deve diventare un parametro di cache_add(). 597*4882a593Smuzhiyun 598*4882a593SmuzhiyunEsporre gli oggetti al di fuori del file 599*4882a593Smuzhiyun---------------------------------------- 600*4882a593Smuzhiyun 601*4882a593SmuzhiyunSe i vostri oggetti contengono più informazioni, potrebbe non essere 602*4882a593Smuzhiyunsufficiente copiare i dati avanti e indietro: per esempio, altre parti del 603*4882a593Smuzhiyuncodice potrebbero avere un puntatore a questi oggetti piuttosto che cercarli 604*4882a593Smuzhiyunogni volta. Questo introduce due problemi. 605*4882a593Smuzhiyun 606*4882a593SmuzhiyunIl primo problema è che utilizziamo ``cache_lock`` per proteggere gli oggetti: 607*4882a593Smuzhiyundobbiamo renderlo dinamico così che il resto del codice possa usarlo. Questo 608*4882a593Smuzhiyunrende la sincronizzazione più complicata dato che non avviene più in un unico 609*4882a593Smuzhiyunposto. 610*4882a593Smuzhiyun 611*4882a593SmuzhiyunIl secondo problema è il problema del ciclo di vita: se un'altra struttura 612*4882a593Smuzhiyunmantiene un puntatore ad un oggetto, presumibilmente si aspetta che questo 613*4882a593Smuzhiyunpuntatore rimanga valido. Sfortunatamente, questo è garantito solo mentre 614*4882a593Smuzhiyunsi trattiene il *lock*, altrimenti qualcuno potrebbe chiamare 615*4882a593Smuzhiyuncache_delete() o peggio, aggiungere un oggetto che riutilizza lo 616*4882a593Smuzhiyunstesso indirizzo. 617*4882a593Smuzhiyun 618*4882a593SmuzhiyunDato che c'è un solo *lock*, non potete trattenerlo a vita: altrimenti 619*4882a593Smuzhiyunnessun altro potrà eseguire il proprio lavoro. 620*4882a593Smuzhiyun 621*4882a593SmuzhiyunLa soluzione a questo problema è l'uso di un contatore di riferimenti: 622*4882a593Smuzhiyunchiunque punti ad un oggetto deve incrementare il contatore, e decrementarlo 623*4882a593Smuzhiyunquando il puntatore non viene più usato. Quando il contatore raggiunge lo zero 624*4882a593Smuzhiyunsignifica che non è più usato e l'oggetto può essere rimosso. 625*4882a593Smuzhiyun 626*4882a593SmuzhiyunEcco il codice:: 627*4882a593Smuzhiyun 628*4882a593Smuzhiyun --- cache.c.interrupt 2003-12-09 14:25:43.000000000 +1100 629*4882a593Smuzhiyun +++ cache.c.refcnt 2003-12-09 14:33:05.000000000 +1100 630*4882a593Smuzhiyun @@ -7,6 +7,7 @@ 631*4882a593Smuzhiyun struct object 632*4882a593Smuzhiyun { 633*4882a593Smuzhiyun struct list_head list; 634*4882a593Smuzhiyun + unsigned int refcnt; 635*4882a593Smuzhiyun int id; 636*4882a593Smuzhiyun char name[32]; 637*4882a593Smuzhiyun int popularity; 638*4882a593Smuzhiyun @@ -17,6 +18,35 @@ 639*4882a593Smuzhiyun static unsigned int cache_num = 0; 640*4882a593Smuzhiyun #define MAX_CACHE_SIZE 10 641*4882a593Smuzhiyun 642*4882a593Smuzhiyun +static void __object_put(struct object *obj) 643*4882a593Smuzhiyun +{ 644*4882a593Smuzhiyun + if (--obj->refcnt == 0) 645*4882a593Smuzhiyun + kfree(obj); 646*4882a593Smuzhiyun +} 647*4882a593Smuzhiyun + 648*4882a593Smuzhiyun +static void __object_get(struct object *obj) 649*4882a593Smuzhiyun +{ 650*4882a593Smuzhiyun + obj->refcnt++; 651*4882a593Smuzhiyun +} 652*4882a593Smuzhiyun + 653*4882a593Smuzhiyun +void object_put(struct object *obj) 654*4882a593Smuzhiyun +{ 655*4882a593Smuzhiyun + unsigned long flags; 656*4882a593Smuzhiyun + 657*4882a593Smuzhiyun + spin_lock_irqsave(&cache_lock, flags); 658*4882a593Smuzhiyun + __object_put(obj); 659*4882a593Smuzhiyun + spin_unlock_irqrestore(&cache_lock, flags); 660*4882a593Smuzhiyun +} 661*4882a593Smuzhiyun + 662*4882a593Smuzhiyun +void object_get(struct object *obj) 663*4882a593Smuzhiyun +{ 664*4882a593Smuzhiyun + unsigned long flags; 665*4882a593Smuzhiyun + 666*4882a593Smuzhiyun + spin_lock_irqsave(&cache_lock, flags); 667*4882a593Smuzhiyun + __object_get(obj); 668*4882a593Smuzhiyun + spin_unlock_irqrestore(&cache_lock, flags); 669*4882a593Smuzhiyun +} 670*4882a593Smuzhiyun + 671*4882a593Smuzhiyun /* Must be holding cache_lock */ 672*4882a593Smuzhiyun static struct object *__cache_find(int id) 673*4882a593Smuzhiyun { 674*4882a593Smuzhiyun @@ -35,6 +65,7 @@ 675*4882a593Smuzhiyun { 676*4882a593Smuzhiyun BUG_ON(!obj); 677*4882a593Smuzhiyun list_del(&obj->list); 678*4882a593Smuzhiyun + __object_put(obj); 679*4882a593Smuzhiyun cache_num--; 680*4882a593Smuzhiyun } 681*4882a593Smuzhiyun 682*4882a593Smuzhiyun @@ -63,6 +94,7 @@ 683*4882a593Smuzhiyun strscpy(obj->name, name, sizeof(obj->name)); 684*4882a593Smuzhiyun obj->id = id; 685*4882a593Smuzhiyun obj->popularity = 0; 686*4882a593Smuzhiyun + obj->refcnt = 1; /* The cache holds a reference */ 687*4882a593Smuzhiyun 688*4882a593Smuzhiyun spin_lock_irqsave(&cache_lock, flags); 689*4882a593Smuzhiyun __cache_add(obj); 690*4882a593Smuzhiyun @@ -79,18 +111,15 @@ 691*4882a593Smuzhiyun spin_unlock_irqrestore(&cache_lock, flags); 692*4882a593Smuzhiyun } 693*4882a593Smuzhiyun 694*4882a593Smuzhiyun -int cache_find(int id, char *name) 695*4882a593Smuzhiyun +struct object *cache_find(int id) 696*4882a593Smuzhiyun { 697*4882a593Smuzhiyun struct object *obj; 698*4882a593Smuzhiyun - int ret = -ENOENT; 699*4882a593Smuzhiyun unsigned long flags; 700*4882a593Smuzhiyun 701*4882a593Smuzhiyun spin_lock_irqsave(&cache_lock, flags); 702*4882a593Smuzhiyun obj = __cache_find(id); 703*4882a593Smuzhiyun - if (obj) { 704*4882a593Smuzhiyun - ret = 0; 705*4882a593Smuzhiyun - strcpy(name, obj->name); 706*4882a593Smuzhiyun - } 707*4882a593Smuzhiyun + if (obj) 708*4882a593Smuzhiyun + __object_get(obj); 709*4882a593Smuzhiyun spin_unlock_irqrestore(&cache_lock, flags); 710*4882a593Smuzhiyun - return ret; 711*4882a593Smuzhiyun + return obj; 712*4882a593Smuzhiyun } 713*4882a593Smuzhiyun 714*4882a593SmuzhiyunAbbiamo incapsulato il contatore di riferimenti nelle tipiche funzioni 715*4882a593Smuzhiyundi 'get' e 'put'. Ora possiamo ritornare l'oggetto da cache_find() 716*4882a593Smuzhiyuncol vantaggio che l'utente può dormire trattenendo l'oggetto (per esempio, 717*4882a593Smuzhiyuncopy_to_user() per copiare il nome verso lo spazio utente). 718*4882a593Smuzhiyun 719*4882a593SmuzhiyunUn altro punto da notare è che ho detto che il contatore dovrebbe incrementarsi 720*4882a593Smuzhiyunper ogni puntatore ad un oggetto: quindi il contatore di riferimenti è 1 721*4882a593Smuzhiyunquando l'oggetto viene inserito nella memoria. In altre versione il framework 722*4882a593Smuzhiyunnon trattiene un riferimento per se, ma diventa più complicato. 723*4882a593Smuzhiyun 724*4882a593SmuzhiyunUsare operazioni atomiche per il contatore di riferimenti 725*4882a593Smuzhiyun~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ 726*4882a593Smuzhiyun 727*4882a593SmuzhiyunIn sostanza, :c:type:`atomic_t` viene usato come contatore di riferimenti. 728*4882a593SmuzhiyunCi sono un certo numbero di operazioni atomiche definite 729*4882a593Smuzhiyunin ``include/asm/atomic.h``: queste sono garantite come atomiche su qualsiasi 730*4882a593Smuzhiyunprocessore del sistema, quindi non sono necessari i *lock*. In questo caso è 731*4882a593Smuzhiyunpiù semplice rispetto all'uso degli spinlock, benché l'uso degli spinlock 732*4882a593Smuzhiyunsia più elegante per casi non banali. Le funzioni atomic_inc() e 733*4882a593Smuzhiyunatomic_dec_and_test() vengono usate al posto dei tipici operatori di 734*4882a593Smuzhiyunincremento e decremento, e i *lock* non sono più necessari per proteggere il 735*4882a593Smuzhiyuncontatore stesso. 736*4882a593Smuzhiyun 737*4882a593Smuzhiyun:: 738*4882a593Smuzhiyun 739*4882a593Smuzhiyun --- cache.c.refcnt 2003-12-09 15:00:35.000000000 +1100 740*4882a593Smuzhiyun +++ cache.c.refcnt-atomic 2003-12-11 15:49:42.000000000 +1100 741*4882a593Smuzhiyun @@ -7,7 +7,7 @@ 742*4882a593Smuzhiyun struct object 743*4882a593Smuzhiyun { 744*4882a593Smuzhiyun struct list_head list; 745*4882a593Smuzhiyun - unsigned int refcnt; 746*4882a593Smuzhiyun + atomic_t refcnt; 747*4882a593Smuzhiyun int id; 748*4882a593Smuzhiyun char name[32]; 749*4882a593Smuzhiyun int popularity; 750*4882a593Smuzhiyun @@ -18,33 +18,15 @@ 751*4882a593Smuzhiyun static unsigned int cache_num = 0; 752*4882a593Smuzhiyun #define MAX_CACHE_SIZE 10 753*4882a593Smuzhiyun 754*4882a593Smuzhiyun -static void __object_put(struct object *obj) 755*4882a593Smuzhiyun -{ 756*4882a593Smuzhiyun - if (--obj->refcnt == 0) 757*4882a593Smuzhiyun - kfree(obj); 758*4882a593Smuzhiyun -} 759*4882a593Smuzhiyun - 760*4882a593Smuzhiyun -static void __object_get(struct object *obj) 761*4882a593Smuzhiyun -{ 762*4882a593Smuzhiyun - obj->refcnt++; 763*4882a593Smuzhiyun -} 764*4882a593Smuzhiyun - 765*4882a593Smuzhiyun void object_put(struct object *obj) 766*4882a593Smuzhiyun { 767*4882a593Smuzhiyun - unsigned long flags; 768*4882a593Smuzhiyun - 769*4882a593Smuzhiyun - spin_lock_irqsave(&cache_lock, flags); 770*4882a593Smuzhiyun - __object_put(obj); 771*4882a593Smuzhiyun - spin_unlock_irqrestore(&cache_lock, flags); 772*4882a593Smuzhiyun + if (atomic_dec_and_test(&obj->refcnt)) 773*4882a593Smuzhiyun + kfree(obj); 774*4882a593Smuzhiyun } 775*4882a593Smuzhiyun 776*4882a593Smuzhiyun void object_get(struct object *obj) 777*4882a593Smuzhiyun { 778*4882a593Smuzhiyun - unsigned long flags; 779*4882a593Smuzhiyun - 780*4882a593Smuzhiyun - spin_lock_irqsave(&cache_lock, flags); 781*4882a593Smuzhiyun - __object_get(obj); 782*4882a593Smuzhiyun - spin_unlock_irqrestore(&cache_lock, flags); 783*4882a593Smuzhiyun + atomic_inc(&obj->refcnt); 784*4882a593Smuzhiyun } 785*4882a593Smuzhiyun 786*4882a593Smuzhiyun /* Must be holding cache_lock */ 787*4882a593Smuzhiyun @@ -65,7 +47,7 @@ 788*4882a593Smuzhiyun { 789*4882a593Smuzhiyun BUG_ON(!obj); 790*4882a593Smuzhiyun list_del(&obj->list); 791*4882a593Smuzhiyun - __object_put(obj); 792*4882a593Smuzhiyun + object_put(obj); 793*4882a593Smuzhiyun cache_num--; 794*4882a593Smuzhiyun } 795*4882a593Smuzhiyun 796*4882a593Smuzhiyun @@ -94,7 +76,7 @@ 797*4882a593Smuzhiyun strscpy(obj->name, name, sizeof(obj->name)); 798*4882a593Smuzhiyun obj->id = id; 799*4882a593Smuzhiyun obj->popularity = 0; 800*4882a593Smuzhiyun - obj->refcnt = 1; /* The cache holds a reference */ 801*4882a593Smuzhiyun + atomic_set(&obj->refcnt, 1); /* The cache holds a reference */ 802*4882a593Smuzhiyun 803*4882a593Smuzhiyun spin_lock_irqsave(&cache_lock, flags); 804*4882a593Smuzhiyun __cache_add(obj); 805*4882a593Smuzhiyun @@ -119,7 +101,7 @@ 806*4882a593Smuzhiyun spin_lock_irqsave(&cache_lock, flags); 807*4882a593Smuzhiyun obj = __cache_find(id); 808*4882a593Smuzhiyun if (obj) 809*4882a593Smuzhiyun - __object_get(obj); 810*4882a593Smuzhiyun + object_get(obj); 811*4882a593Smuzhiyun spin_unlock_irqrestore(&cache_lock, flags); 812*4882a593Smuzhiyun return obj; 813*4882a593Smuzhiyun } 814*4882a593Smuzhiyun 815*4882a593SmuzhiyunProteggere l'oggetto stesso 816*4882a593Smuzhiyun--------------------------- 817*4882a593Smuzhiyun 818*4882a593SmuzhiyunIn questo esempio, assumiamo che gli oggetti (ad eccezione del contatore 819*4882a593Smuzhiyundi riferimenti) non cambino mai dopo la loro creazione. Se vogliamo permettere 820*4882a593Smuzhiyunal nome di cambiare abbiamo tre possibilità: 821*4882a593Smuzhiyun 822*4882a593Smuzhiyun- Si può togliere static da ``cache_lock`` e dire agli utenti che devono 823*4882a593Smuzhiyun trattenere il *lock* prima di modificare il nome di un oggetto. 824*4882a593Smuzhiyun 825*4882a593Smuzhiyun- Si può fornire una funzione cache_obj_rename() che prende il 826*4882a593Smuzhiyun *lock* e cambia il nome per conto del chiamante; si dirà poi agli utenti 827*4882a593Smuzhiyun di usare questa funzione. 828*4882a593Smuzhiyun 829*4882a593Smuzhiyun- Si può decidere che ``cache_lock`` protegge solo la memoria stessa, ed 830*4882a593Smuzhiyun un altro *lock* è necessario per la protezione del nome. 831*4882a593Smuzhiyun 832*4882a593SmuzhiyunTeoricamente, possiamo avere un *lock* per ogni campo e per ogni oggetto. 833*4882a593SmuzhiyunIn pratica, le varianti più comuni sono: 834*4882a593Smuzhiyun 835*4882a593Smuzhiyun- un *lock* che protegge l'infrastruttura (la lista ``cache`` di questo 836*4882a593Smuzhiyun esempio) e gli oggetti. Questo è quello che abbiamo fatto finora. 837*4882a593Smuzhiyun 838*4882a593Smuzhiyun- un *lock* che protegge l'infrastruttura (inclusi i puntatori alla lista 839*4882a593Smuzhiyun negli oggetti), e un *lock* nell'oggetto per proteggere il resto 840*4882a593Smuzhiyun dell'oggetto stesso. 841*4882a593Smuzhiyun 842*4882a593Smuzhiyun- *lock* multipli per proteggere l'infrastruttura (per esempio un *lock* 843*4882a593Smuzhiyun per ogni lista), possibilmente con un *lock* per oggetto. 844*4882a593Smuzhiyun 845*4882a593SmuzhiyunQui di seguito un'implementazione con "un lock per oggetto": 846*4882a593Smuzhiyun 847*4882a593Smuzhiyun:: 848*4882a593Smuzhiyun 849*4882a593Smuzhiyun --- cache.c.refcnt-atomic 2003-12-11 15:50:54.000000000 +1100 850*4882a593Smuzhiyun +++ cache.c.perobjectlock 2003-12-11 17:15:03.000000000 +1100 851*4882a593Smuzhiyun @@ -6,11 +6,17 @@ 852*4882a593Smuzhiyun 853*4882a593Smuzhiyun struct object 854*4882a593Smuzhiyun { 855*4882a593Smuzhiyun + /* These two protected by cache_lock. */ 856*4882a593Smuzhiyun struct list_head list; 857*4882a593Smuzhiyun + int popularity; 858*4882a593Smuzhiyun + 859*4882a593Smuzhiyun atomic_t refcnt; 860*4882a593Smuzhiyun + 861*4882a593Smuzhiyun + /* Doesn't change once created. */ 862*4882a593Smuzhiyun int id; 863*4882a593Smuzhiyun + 864*4882a593Smuzhiyun + spinlock_t lock; /* Protects the name */ 865*4882a593Smuzhiyun char name[32]; 866*4882a593Smuzhiyun - int popularity; 867*4882a593Smuzhiyun }; 868*4882a593Smuzhiyun 869*4882a593Smuzhiyun static DEFINE_SPINLOCK(cache_lock); 870*4882a593Smuzhiyun @@ -77,6 +84,7 @@ 871*4882a593Smuzhiyun obj->id = id; 872*4882a593Smuzhiyun obj->popularity = 0; 873*4882a593Smuzhiyun atomic_set(&obj->refcnt, 1); /* The cache holds a reference */ 874*4882a593Smuzhiyun + spin_lock_init(&obj->lock); 875*4882a593Smuzhiyun 876*4882a593Smuzhiyun spin_lock_irqsave(&cache_lock, flags); 877*4882a593Smuzhiyun __cache_add(obj); 878*4882a593Smuzhiyun 879*4882a593SmuzhiyunDa notare che ho deciso che il contatore di popolarità dovesse essere 880*4882a593Smuzhiyunprotetto da ``cache_lock`` piuttosto che dal *lock* dell'oggetto; questo 881*4882a593Smuzhiyunperché è logicamente parte dell'infrastruttura (come 882*4882a593Smuzhiyun:c:type:`struct list_head <list_head>` nell'oggetto). In questo modo, 883*4882a593Smuzhiyunin __cache_add(), non ho bisogno di trattenere il *lock* di ogni 884*4882a593Smuzhiyunoggetto mentre si cerca il meno popolare. 885*4882a593Smuzhiyun 886*4882a593SmuzhiyunHo anche deciso che il campo id è immutabile, quindi non ho bisogno di 887*4882a593Smuzhiyuntrattenere il lock dell'oggetto quando si usa __cache_find() 888*4882a593Smuzhiyunper leggere questo campo; il *lock* dell'oggetto è usato solo dal chiamante 889*4882a593Smuzhiyunche vuole leggere o scrivere il campo name. 890*4882a593Smuzhiyun 891*4882a593SmuzhiyunInoltre, da notare che ho aggiunto un commento che descrive i dati che sono 892*4882a593Smuzhiyunprotetti dal *lock*. Questo è estremamente importante in quanto descrive il 893*4882a593Smuzhiyuncomportamento del codice, che altrimenti sarebbe di difficile comprensione 894*4882a593Smuzhiyunleggendo solamente il codice. E come dice Alan Cox: “Lock data, not code”. 895*4882a593Smuzhiyun 896*4882a593SmuzhiyunProblemi comuni 897*4882a593Smuzhiyun=============== 898*4882a593Smuzhiyun 899*4882a593Smuzhiyun.. _`it_deadlock`: 900*4882a593Smuzhiyun 901*4882a593SmuzhiyunStallo: semplice ed avanzato 902*4882a593Smuzhiyun---------------------------- 903*4882a593Smuzhiyun 904*4882a593SmuzhiyunEsiste un tipo di baco dove un pezzo di codice tenta di trattenere uno 905*4882a593Smuzhiyunspinlock due volte: questo rimarrà in attesa attiva per sempre aspettando che 906*4882a593Smuzhiyunil *lock* venga rilasciato (in Linux spinlocks, rwlocks e mutex non sono 907*4882a593Smuzhiyunricorsivi). 908*4882a593SmuzhiyunQuesto è facile da diagnosticare: non è uno di quei problemi che ti tengono 909*4882a593Smuzhiyunsveglio 5 notti a parlare da solo. 910*4882a593Smuzhiyun 911*4882a593SmuzhiyunUn caso un pochino più complesso; immaginate d'avere una spazio condiviso 912*4882a593Smuzhiyunfra un softirq ed il contesto utente. Se usate spin_lock() per 913*4882a593Smuzhiyunproteggerlo, il contesto utente potrebbe essere interrotto da un softirq 914*4882a593Smuzhiyunmentre trattiene il lock, da qui il softirq rimarrà in attesa attiva provando 915*4882a593Smuzhiyunad acquisire il *lock* già trattenuto nel contesto utente. 916*4882a593Smuzhiyun 917*4882a593SmuzhiyunQuesti casi sono chiamati stalli (*deadlock*), e come mostrato qui sopra, 918*4882a593Smuzhiyunpuò succedere anche con un solo processore (Ma non sui sistemi 919*4882a593Smuzhiyunmonoprocessore perché gli spinlock spariscano quando il kernel è compilato 920*4882a593Smuzhiyuncon ``CONFIG_SMP``\ =n. Nonostante ciò, nel secondo caso avrete comunque 921*4882a593Smuzhiyununa corruzione dei dati). 922*4882a593Smuzhiyun 923*4882a593SmuzhiyunQuesti casi sono facili da diagnosticare; sui sistemi multi-processore 924*4882a593Smuzhiyunil supervisione (*watchdog*) o l'opzione di compilazione ``DEBUG_SPINLOCK`` 925*4882a593Smuzhiyun(``include/linux/spinlock.h``) permettono di scovare immediatamente quando 926*4882a593Smuzhiyunsuccedono. 927*4882a593Smuzhiyun 928*4882a593SmuzhiyunEsiste un caso più complesso che è conosciuto come l'abbraccio della morte; 929*4882a593Smuzhiyunquesto coinvolge due o più *lock*. Diciamo che avete un vettore di hash in cui 930*4882a593Smuzhiyunogni elemento è uno spinlock a cui è associata una lista di elementi con lo 931*4882a593Smuzhiyunstesso hash. In un gestore di interruzioni software, dovete modificare un 932*4882a593Smuzhiyunoggetto e spostarlo su un altro hash; quindi dovrete trattenete lo spinlock 933*4882a593Smuzhiyundel vecchio hash e di quello nuovo, quindi rimuovere l'oggetto dal vecchio ed 934*4882a593Smuzhiyuninserirlo nel nuovo. 935*4882a593Smuzhiyun 936*4882a593SmuzhiyunQui abbiamo due problemi. Primo, se il vostro codice prova a spostare un 937*4882a593Smuzhiyunoggetto all'interno della stessa lista, otterrete uno stallo visto che 938*4882a593Smuzhiyuntenterà di trattenere lo stesso *lock* due volte. Secondo, se la stessa 939*4882a593Smuzhiyuninterruzione software su un altro processore sta tentando di spostare 940*4882a593Smuzhiyunun altro oggetto nella direzione opposta, potrebbe accadere quanto segue: 941*4882a593Smuzhiyun 942*4882a593Smuzhiyun+---------------------------------+---------------------------------+ 943*4882a593Smuzhiyun| CPU 1 | CPU 2 | 944*4882a593Smuzhiyun+=================================+=================================+ 945*4882a593Smuzhiyun| Trattiene *lock* A -> OK | Trattiene *lock* B -> OK | 946*4882a593Smuzhiyun+---------------------------------+---------------------------------+ 947*4882a593Smuzhiyun| Trattiene *lock* B -> attesa | Trattiene *lock* A -> attesa | 948*4882a593Smuzhiyun+---------------------------------+---------------------------------+ 949*4882a593Smuzhiyun 950*4882a593SmuzhiyunTable: Conseguenze 951*4882a593Smuzhiyun 952*4882a593SmuzhiyunEntrambe i processori rimarranno in attesa attiva sul *lock* per sempre, 953*4882a593Smuzhiyunaspettando che l'altro lo rilasci. Sembra e puzza come un blocco totale. 954*4882a593Smuzhiyun 955*4882a593SmuzhiyunPrevenire gli stalli 956*4882a593Smuzhiyun-------------------- 957*4882a593Smuzhiyun 958*4882a593SmuzhiyunI libri di testo vi diranno che se trattenete i *lock* sempre nello stesso 959*4882a593Smuzhiyunordine non avrete mai un simile stallo. La pratica vi dirà che questo 960*4882a593Smuzhiyunapproccio non funziona all'ingrandirsi del sistema: quando creo un nuovo 961*4882a593Smuzhiyun*lock* non ne capisco abbastanza del kernel per dire in quale dei 5000 *lock* 962*4882a593Smuzhiyunsi incastrerà. 963*4882a593Smuzhiyun 964*4882a593SmuzhiyunI *lock* migliori sono quelli incapsulati: non vengono esposti nei file di 965*4882a593Smuzhiyunintestazione, e non vengono mai trattenuti fuori dallo stesso file. Potete 966*4882a593Smuzhiyunrileggere questo codice e vedere che non ci sarà mai uno stallo perché 967*4882a593Smuzhiyunnon tenterà mai di trattenere un altro *lock* quando lo ha già. 968*4882a593SmuzhiyunLe persone che usano il vostro codice non devono nemmeno sapere che voi 969*4882a593Smuzhiyunstate usando dei *lock*. 970*4882a593Smuzhiyun 971*4882a593SmuzhiyunUn classico problema deriva dall'uso di *callback* e di *hook*: se li 972*4882a593Smuzhiyunchiamate mentre trattenete un *lock*, rischiate uno stallo o un abbraccio 973*4882a593Smuzhiyundella morte (chi lo sa cosa farà una *callback*?). 974*4882a593Smuzhiyun 975*4882a593SmuzhiyunOssessiva prevenzione degli stalli 976*4882a593Smuzhiyun~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ 977*4882a593Smuzhiyun 978*4882a593SmuzhiyunGli stalli sono un problema, ma non così terribile come la corruzione dei dati. 979*4882a593SmuzhiyunUn pezzo di codice trattiene un *lock* di lettura, cerca in una lista, 980*4882a593Smuzhiyunfallisce nel trovare quello che vuole, quindi rilascia il *lock* di lettura, 981*4882a593Smuzhiyuntrattiene un *lock* di scrittura ed inserisce un oggetto; questo genere di 982*4882a593Smuzhiyuncodice presenta una corsa critica. 983*4882a593Smuzhiyun 984*4882a593SmuzhiyunSe non riuscite a capire il perché, per favore state alla larga dal mio 985*4882a593Smuzhiyuncodice. 986*4882a593Smuzhiyun 987*4882a593Smuzhiyuncorsa fra temporizzatori: un passatempo del kernel 988*4882a593Smuzhiyun-------------------------------------------------- 989*4882a593Smuzhiyun 990*4882a593SmuzhiyunI temporizzatori potrebbero avere dei problemi con le corse critiche. 991*4882a593SmuzhiyunConsiderate una collezione di oggetti (liste, hash, eccetera) dove ogni oggetto 992*4882a593Smuzhiyunha un temporizzatore che sta per distruggerlo. 993*4882a593Smuzhiyun 994*4882a593SmuzhiyunSe volete eliminare l'intera collezione (diciamo quando rimuovete un modulo), 995*4882a593Smuzhiyunpotreste fare come segue:: 996*4882a593Smuzhiyun 997*4882a593Smuzhiyun /* THIS CODE BAD BAD BAD BAD: IF IT WAS ANY WORSE IT WOULD USE 998*4882a593Smuzhiyun HUNGARIAN NOTATION */ 999*4882a593Smuzhiyun spin_lock_bh(&list_lock); 1000*4882a593Smuzhiyun 1001*4882a593Smuzhiyun while (list) { 1002*4882a593Smuzhiyun struct foo *next = list->next; 1003*4882a593Smuzhiyun del_timer(&list->timer); 1004*4882a593Smuzhiyun kfree(list); 1005*4882a593Smuzhiyun list = next; 1006*4882a593Smuzhiyun } 1007*4882a593Smuzhiyun 1008*4882a593Smuzhiyun spin_unlock_bh(&list_lock); 1009*4882a593Smuzhiyun 1010*4882a593SmuzhiyunPrimo o poi, questo esploderà su un sistema multiprocessore perché un 1011*4882a593Smuzhiyuntemporizzatore potrebbe essere già partiro prima di spin_lock_bh(), 1012*4882a593Smuzhiyune prenderà il *lock* solo dopo spin_unlock_bh(), e cercherà 1013*4882a593Smuzhiyundi eliminare il suo oggetto (che però è già stato eliminato). 1014*4882a593Smuzhiyun 1015*4882a593SmuzhiyunQuesto può essere evitato controllando il valore di ritorno di 1016*4882a593Smuzhiyundel_timer(): se ritorna 1, il temporizzatore è stato già 1017*4882a593Smuzhiyunrimosso. Se 0, significa (in questo caso) che il temporizzatore è in 1018*4882a593Smuzhiyunesecuzione, quindi possiamo fare come segue:: 1019*4882a593Smuzhiyun 1020*4882a593Smuzhiyun retry: 1021*4882a593Smuzhiyun spin_lock_bh(&list_lock); 1022*4882a593Smuzhiyun 1023*4882a593Smuzhiyun while (list) { 1024*4882a593Smuzhiyun struct foo *next = list->next; 1025*4882a593Smuzhiyun if (!del_timer(&list->timer)) { 1026*4882a593Smuzhiyun /* Give timer a chance to delete this */ 1027*4882a593Smuzhiyun spin_unlock_bh(&list_lock); 1028*4882a593Smuzhiyun goto retry; 1029*4882a593Smuzhiyun } 1030*4882a593Smuzhiyun kfree(list); 1031*4882a593Smuzhiyun list = next; 1032*4882a593Smuzhiyun } 1033*4882a593Smuzhiyun 1034*4882a593Smuzhiyun spin_unlock_bh(&list_lock); 1035*4882a593Smuzhiyun 1036*4882a593SmuzhiyunUn altro problema è l'eliminazione dei temporizzatori che si riavviano 1037*4882a593Smuzhiyunda soli (chiamando add_timer() alla fine della loro esecuzione). 1038*4882a593SmuzhiyunDato che questo è un problema abbastanza comune con una propensione 1039*4882a593Smuzhiyunalle corse critiche, dovreste usare del_timer_sync() 1040*4882a593Smuzhiyun(``include/linux/timer.h``) per gestire questo caso. Questa ritorna il 1041*4882a593Smuzhiyunnumero di volte che il temporizzatore è stato interrotto prima che 1042*4882a593Smuzhiyunfosse in grado di fermarlo senza che si riavviasse. 1043*4882a593Smuzhiyun 1044*4882a593SmuzhiyunVelocità della sincronizzazione 1045*4882a593Smuzhiyun=============================== 1046*4882a593Smuzhiyun 1047*4882a593SmuzhiyunCi sono tre cose importanti da tenere in considerazione quando si valuta 1048*4882a593Smuzhiyunla velocità d'esecuzione di un pezzo di codice che necessita di 1049*4882a593Smuzhiyunsincronizzazione. La prima è la concorrenza: quante cose rimangono in attesa 1050*4882a593Smuzhiyunmentre qualcuno trattiene un *lock*. La seconda è il tempo necessario per 1051*4882a593Smuzhiyunacquisire (senza contese) e rilasciare un *lock*. La terza è di usare meno 1052*4882a593Smuzhiyun*lock* o di più furbi. Immagino che i *lock* vengano usati regolarmente, 1053*4882a593Smuzhiyunaltrimenti, non sareste interessati all'efficienza. 1054*4882a593Smuzhiyun 1055*4882a593SmuzhiyunLa concorrenza dipende da quanto a lungo un *lock* è trattenuto: dovreste 1056*4882a593Smuzhiyuntrattenere un *lock* solo il tempo minimo necessario ma non un istante in più. 1057*4882a593SmuzhiyunNella memoria dell'esempio precedente, creiamo gli oggetti senza trattenere 1058*4882a593Smuzhiyunil *lock*, poi acquisiamo il *lock* quando siamo pronti per inserirlo nella 1059*4882a593Smuzhiyunlista. 1060*4882a593Smuzhiyun 1061*4882a593SmuzhiyunIl tempo di acquisizione di un *lock* dipende da quanto danno fa 1062*4882a593Smuzhiyunl'operazione sulla *pipeline* (ovvero stalli della *pipeline*) e quant'è 1063*4882a593Smuzhiyunprobabile che il processore corrente sia stato anche l'ultimo ad acquisire 1064*4882a593Smuzhiyunil *lock* (in pratica, il *lock* è nella memoria cache del processore 1065*4882a593Smuzhiyuncorrente?): su sistemi multi-processore questa probabilità precipita 1066*4882a593Smuzhiyunrapidamente. Consideriamo un processore Intel Pentium III a 700Mhz: questo 1067*4882a593Smuzhiyunesegue un'istruzione in 0.7ns, un incremento atomico richiede 58ns, acquisire 1068*4882a593Smuzhiyunun *lock* che è nella memoria cache del processore richiede 160ns, e un 1069*4882a593Smuzhiyuntrasferimento dalla memoria cache di un altro processore richiede altri 1070*4882a593Smuzhiyun170/360ns (Leggetevi l'articolo di Paul McKenney's `Linux Journal RCU 1071*4882a593Smuzhiyunarticle <http://www.linuxjournal.com/article.php?sid=6993>`__). 1072*4882a593Smuzhiyun 1073*4882a593SmuzhiyunQuesti due obiettivi sono in conflitto: trattenere un *lock* per il minor 1074*4882a593Smuzhiyuntempo possibile potrebbe richiedere la divisione in più *lock* per diverse 1075*4882a593Smuzhiyunparti (come nel nostro ultimo esempio con un *lock* per ogni oggetto), 1076*4882a593Smuzhiyunma questo aumenta il numero di acquisizioni di *lock*, ed il risultato 1077*4882a593Smuzhiyunspesso è che tutto è più lento che con un singolo *lock*. Questo è un altro 1078*4882a593Smuzhiyunargomento in favore della semplicità quando si parla di sincronizzazione. 1079*4882a593Smuzhiyun 1080*4882a593SmuzhiyunIl terzo punto è discusso di seguito: ci sono alcune tecniche per ridurre 1081*4882a593Smuzhiyunil numero di sincronizzazioni che devono essere fatte. 1082*4882a593Smuzhiyun 1083*4882a593SmuzhiyunRead/Write Lock Variants 1084*4882a593Smuzhiyun------------------------ 1085*4882a593Smuzhiyun 1086*4882a593SmuzhiyunSia gli spinlock che i mutex hanno una variante per la lettura/scrittura 1087*4882a593Smuzhiyun(read/write): ``rwlock_t`` e :c:type:`struct rw_semaphore <rw_semaphore>`. 1088*4882a593SmuzhiyunQueste dividono gli utenti in due categorie: i lettori e gli scrittori. 1089*4882a593SmuzhiyunSe state solo leggendo i dati, potete acquisire il *lock* di lettura, ma 1090*4882a593Smuzhiyunper scrivere avrete bisogno del *lock* di scrittura. Molti possono trattenere 1091*4882a593Smuzhiyunil *lock* di lettura, ma solo uno scrittore alla volta può trattenere 1092*4882a593Smuzhiyunquello di scrittura. 1093*4882a593Smuzhiyun 1094*4882a593SmuzhiyunSe il vostro codice si divide chiaramente in codice per lettori e codice 1095*4882a593Smuzhiyunper scrittori (come nel nostro esempio), e il *lock* dei lettori viene 1096*4882a593Smuzhiyuntrattenuto per molto tempo, allora l'uso di questo tipo di *lock* può aiutare. 1097*4882a593SmuzhiyunQuesti sono leggermente più lenti rispetto alla loro versione normale, quindi 1098*4882a593Smuzhiyunnella pratica l'uso di ``rwlock_t`` non ne vale la pena. 1099*4882a593Smuzhiyun 1100*4882a593SmuzhiyunEvitare i *lock*: Read Copy Update 1101*4882a593Smuzhiyun-------------------------------------------- 1102*4882a593Smuzhiyun 1103*4882a593SmuzhiyunEsiste un metodo di sincronizzazione per letture e scritture detto 1104*4882a593SmuzhiyunRead Copy Update. Con l'uso della tecnica RCU, i lettori possono scordarsi 1105*4882a593Smuzhiyuncompletamente di trattenere i *lock*; dato che nel nostro esempio ci 1106*4882a593Smuzhiyunaspettiamo d'avere più lettore che scrittori (altrimenti questa memoria 1107*4882a593Smuzhiyunsarebbe uno spreco) possiamo dire che questo meccanismo permette 1108*4882a593Smuzhiyunun'ottimizzazione. 1109*4882a593Smuzhiyun 1110*4882a593SmuzhiyunCome facciamo a sbarazzarci dei *lock* di lettura? Sbarazzarsi dei *lock* di 1111*4882a593Smuzhiyunlettura significa che uno scrittore potrebbe cambiare la lista sotto al naso 1112*4882a593Smuzhiyundei lettori. Questo è abbastanza semplice: possiamo leggere una lista 1113*4882a593Smuzhiyunconcatenata se lo scrittore aggiunge elementi alla fine e con certe 1114*4882a593Smuzhiyunprecauzioni. Per esempio, aggiungendo ``new`` ad una lista concatenata 1115*4882a593Smuzhiyunchiamata ``list``:: 1116*4882a593Smuzhiyun 1117*4882a593Smuzhiyun new->next = list->next; 1118*4882a593Smuzhiyun wmb(); 1119*4882a593Smuzhiyun list->next = new; 1120*4882a593Smuzhiyun 1121*4882a593SmuzhiyunLa funzione wmb() è una barriera di sincronizzazione delle 1122*4882a593Smuzhiyunscritture. Questa garantisce che la prima operazione (impostare l'elemento 1123*4882a593Smuzhiyun``next`` del nuovo elemento) venga completata e vista da tutti i processori 1124*4882a593Smuzhiyunprima che venga eseguita la seconda operazione (che sarebbe quella di mettere 1125*4882a593Smuzhiyunil nuovo elemento nella lista). Questo è importante perché i moderni 1126*4882a593Smuzhiyuncompilatori ed i moderni processori possono, entrambe, riordinare le istruzioni 1127*4882a593Smuzhiyunse non vengono istruiti altrimenti: vogliamo che i lettori non vedano 1128*4882a593Smuzhiyuncompletamente il nuovo elemento; oppure che lo vedano correttamente e quindi 1129*4882a593Smuzhiyunil puntatore ``next`` deve puntare al resto della lista. 1130*4882a593Smuzhiyun 1131*4882a593SmuzhiyunFortunatamente, c'è una funzione che fa questa operazione sulle liste 1132*4882a593Smuzhiyun:c:type:`struct list_head <list_head>`: list_add_rcu() 1133*4882a593Smuzhiyun(``include/linux/list.h``). 1134*4882a593Smuzhiyun 1135*4882a593SmuzhiyunRimuovere un elemento dalla lista è anche più facile: sostituiamo il puntatore 1136*4882a593Smuzhiyunal vecchio elemento con quello del suo successore, e i lettori vedranno 1137*4882a593Smuzhiyunl'elemento o lo salteranno. 1138*4882a593Smuzhiyun 1139*4882a593Smuzhiyun:: 1140*4882a593Smuzhiyun 1141*4882a593Smuzhiyun list->next = old->next; 1142*4882a593Smuzhiyun 1143*4882a593SmuzhiyunLa funzione list_del_rcu() (``include/linux/list.h``) fa esattamente 1144*4882a593Smuzhiyunquesto (la versione normale corrompe il vecchio oggetto, e non vogliamo che 1145*4882a593Smuzhiyunaccada). 1146*4882a593Smuzhiyun 1147*4882a593SmuzhiyunAnche i lettori devono stare attenti: alcuni processori potrebbero leggere 1148*4882a593Smuzhiyunattraverso il puntatore ``next`` il contenuto dell'elemento successivo 1149*4882a593Smuzhiyuntroppo presto, ma non accorgersi che il contenuto caricato è sbagliato quando 1150*4882a593Smuzhiyunil puntatore ``next`` viene modificato alla loro spalle. Ancora una volta 1151*4882a593Smuzhiyunc'è una funzione che viene in vostro aiuto list_for_each_entry_rcu() 1152*4882a593Smuzhiyun(``include/linux/list.h``). Ovviamente, gli scrittori possono usare 1153*4882a593Smuzhiyunlist_for_each_entry() dato che non ci possono essere due scrittori 1154*4882a593Smuzhiyunin contemporanea. 1155*4882a593Smuzhiyun 1156*4882a593SmuzhiyunIl nostro ultimo dilemma è il seguente: quando possiamo realmente distruggere 1157*4882a593Smuzhiyunl'elemento rimosso? Ricordate, un lettore potrebbe aver avuto accesso a questo 1158*4882a593Smuzhiyunelemento proprio ora: se eliminiamo questo elemento ed il puntatore ``next`` 1159*4882a593Smuzhiyuncambia, il lettore salterà direttamente nella spazzatura e scoppierà. Dobbiamo 1160*4882a593Smuzhiyunaspettare finché tutti i lettori che stanno attraversando la lista abbiano 1161*4882a593Smuzhiyunfinito. Utilizziamo call_rcu() per registrare una funzione di 1162*4882a593Smuzhiyunrichiamo che distrugga l'oggetto quando tutti i lettori correnti hanno 1163*4882a593Smuzhiyunterminato. In alternative, potrebbe essere usata la funzione 1164*4882a593Smuzhiyunsynchronize_rcu() che blocca l'esecuzione finché tutti i lettori 1165*4882a593Smuzhiyunnon terminano di ispezionare la lista. 1166*4882a593Smuzhiyun 1167*4882a593SmuzhiyunMa come fa l'RCU a sapere quando i lettori sono finiti? Il meccanismo è 1168*4882a593Smuzhiyunil seguente: innanzi tutto i lettori accedono alla lista solo fra la coppia 1169*4882a593Smuzhiyunrcu_read_lock()/rcu_read_unlock() che disabilita la 1170*4882a593Smuzhiyunprelazione così che i lettori non vengano sospesi mentre stanno leggendo 1171*4882a593Smuzhiyunla lista. 1172*4882a593Smuzhiyun 1173*4882a593SmuzhiyunPoi, l'RCU aspetta finché tutti i processori non abbiano dormito almeno 1174*4882a593Smuzhiyununa volta; a questo punto, dato che i lettori non possono dormire, possiamo 1175*4882a593Smuzhiyundedurre che un qualsiasi lettore che abbia consultato la lista durante la 1176*4882a593Smuzhiyunrimozione abbia già terminato, quindi la *callback* viene eseguita. Il vero 1177*4882a593Smuzhiyuncodice RCU è un po' più ottimizzato di così, ma questa è l'idea di fondo. 1178*4882a593Smuzhiyun 1179*4882a593Smuzhiyun:: 1180*4882a593Smuzhiyun 1181*4882a593Smuzhiyun --- cache.c.perobjectlock 2003-12-11 17:15:03.000000000 +1100 1182*4882a593Smuzhiyun +++ cache.c.rcupdate 2003-12-11 17:55:14.000000000 +1100 1183*4882a593Smuzhiyun @@ -1,15 +1,18 @@ 1184*4882a593Smuzhiyun #include <linux/list.h> 1185*4882a593Smuzhiyun #include <linux/slab.h> 1186*4882a593Smuzhiyun #include <linux/string.h> 1187*4882a593Smuzhiyun +#include <linux/rcupdate.h> 1188*4882a593Smuzhiyun #include <linux/mutex.h> 1189*4882a593Smuzhiyun #include <asm/errno.h> 1190*4882a593Smuzhiyun 1191*4882a593Smuzhiyun struct object 1192*4882a593Smuzhiyun { 1193*4882a593Smuzhiyun - /* These two protected by cache_lock. */ 1194*4882a593Smuzhiyun + /* This is protected by RCU */ 1195*4882a593Smuzhiyun struct list_head list; 1196*4882a593Smuzhiyun int popularity; 1197*4882a593Smuzhiyun 1198*4882a593Smuzhiyun + struct rcu_head rcu; 1199*4882a593Smuzhiyun + 1200*4882a593Smuzhiyun atomic_t refcnt; 1201*4882a593Smuzhiyun 1202*4882a593Smuzhiyun /* Doesn't change once created. */ 1203*4882a593Smuzhiyun @@ -40,7 +43,7 @@ 1204*4882a593Smuzhiyun { 1205*4882a593Smuzhiyun struct object *i; 1206*4882a593Smuzhiyun 1207*4882a593Smuzhiyun - list_for_each_entry(i, &cache, list) { 1208*4882a593Smuzhiyun + list_for_each_entry_rcu(i, &cache, list) { 1209*4882a593Smuzhiyun if (i->id == id) { 1210*4882a593Smuzhiyun i->popularity++; 1211*4882a593Smuzhiyun return i; 1212*4882a593Smuzhiyun @@ -49,19 +52,25 @@ 1213*4882a593Smuzhiyun return NULL; 1214*4882a593Smuzhiyun } 1215*4882a593Smuzhiyun 1216*4882a593Smuzhiyun +/* Final discard done once we know no readers are looking. */ 1217*4882a593Smuzhiyun +static void cache_delete_rcu(void *arg) 1218*4882a593Smuzhiyun +{ 1219*4882a593Smuzhiyun + object_put(arg); 1220*4882a593Smuzhiyun +} 1221*4882a593Smuzhiyun + 1222*4882a593Smuzhiyun /* Must be holding cache_lock */ 1223*4882a593Smuzhiyun static void __cache_delete(struct object *obj) 1224*4882a593Smuzhiyun { 1225*4882a593Smuzhiyun BUG_ON(!obj); 1226*4882a593Smuzhiyun - list_del(&obj->list); 1227*4882a593Smuzhiyun - object_put(obj); 1228*4882a593Smuzhiyun + list_del_rcu(&obj->list); 1229*4882a593Smuzhiyun cache_num--; 1230*4882a593Smuzhiyun + call_rcu(&obj->rcu, cache_delete_rcu); 1231*4882a593Smuzhiyun } 1232*4882a593Smuzhiyun 1233*4882a593Smuzhiyun /* Must be holding cache_lock */ 1234*4882a593Smuzhiyun static void __cache_add(struct object *obj) 1235*4882a593Smuzhiyun { 1236*4882a593Smuzhiyun - list_add(&obj->list, &cache); 1237*4882a593Smuzhiyun + list_add_rcu(&obj->list, &cache); 1238*4882a593Smuzhiyun if (++cache_num > MAX_CACHE_SIZE) { 1239*4882a593Smuzhiyun struct object *i, *outcast = NULL; 1240*4882a593Smuzhiyun list_for_each_entry(i, &cache, list) { 1241*4882a593Smuzhiyun @@ -104,12 +114,11 @@ 1242*4882a593Smuzhiyun struct object *cache_find(int id) 1243*4882a593Smuzhiyun { 1244*4882a593Smuzhiyun struct object *obj; 1245*4882a593Smuzhiyun - unsigned long flags; 1246*4882a593Smuzhiyun 1247*4882a593Smuzhiyun - spin_lock_irqsave(&cache_lock, flags); 1248*4882a593Smuzhiyun + rcu_read_lock(); 1249*4882a593Smuzhiyun obj = __cache_find(id); 1250*4882a593Smuzhiyun if (obj) 1251*4882a593Smuzhiyun object_get(obj); 1252*4882a593Smuzhiyun - spin_unlock_irqrestore(&cache_lock, flags); 1253*4882a593Smuzhiyun + rcu_read_unlock(); 1254*4882a593Smuzhiyun return obj; 1255*4882a593Smuzhiyun } 1256*4882a593Smuzhiyun 1257*4882a593SmuzhiyunDa notare che i lettori modificano il campo popularity nella funzione 1258*4882a593Smuzhiyun__cache_find(), e ora non trattiene alcun *lock*. Una soluzione 1259*4882a593Smuzhiyunpotrebbe essere quella di rendere la variabile ``atomic_t``, ma per l'uso 1260*4882a593Smuzhiyunche ne abbiamo fatto qui, non ci interessano queste corse critiche perché un 1261*4882a593Smuzhiyunrisultato approssimativo è comunque accettabile, quindi non l'ho cambiato. 1262*4882a593Smuzhiyun 1263*4882a593SmuzhiyunIl risultato è che la funzione cache_find() non ha bisogno di alcuna 1264*4882a593Smuzhiyunsincronizzazione con le altre funzioni, quindi è veloce su un sistema 1265*4882a593Smuzhiyunmulti-processore tanto quanto lo sarebbe su un sistema mono-processore. 1266*4882a593Smuzhiyun 1267*4882a593SmuzhiyunEsiste un'ulteriore ottimizzazione possibile: vi ricordate il codice originale 1268*4882a593Smuzhiyundella nostra memoria dove non c'erano contatori di riferimenti e il chiamante 1269*4882a593Smuzhiyunsemplicemente tratteneva il *lock* prima di accedere ad un oggetto? Questo è 1270*4882a593Smuzhiyunancora possibile: se trattenete un *lock* nessuno potrà cancellare l'oggetto, 1271*4882a593Smuzhiyunquindi non avete bisogno di incrementare e decrementare il contatore di 1272*4882a593Smuzhiyunriferimenti. 1273*4882a593Smuzhiyun 1274*4882a593SmuzhiyunOra, dato che il '*lock* di lettura' di un RCU non fa altro che disabilitare 1275*4882a593Smuzhiyunla prelazione, un chiamante che ha sempre la prelazione disabilitata fra le 1276*4882a593Smuzhiyunchiamate cache_find() e object_put() non necessita 1277*4882a593Smuzhiyundi incrementare e decrementare il contatore di riferimenti. Potremmo 1278*4882a593Smuzhiyunesporre la funzione __cache_find() dichiarandola non-static, 1279*4882a593Smuzhiyune quel chiamante potrebbe usare direttamente questa funzione. 1280*4882a593Smuzhiyun 1281*4882a593SmuzhiyunIl beneficio qui sta nel fatto che il contatore di riferimenti no 1282*4882a593Smuzhiyunviene scritto: l'oggetto non viene alterato in alcun modo e quindi diventa 1283*4882a593Smuzhiyunmolto più veloce su sistemi molti-processore grazie alla loro memoria cache. 1284*4882a593Smuzhiyun 1285*4882a593Smuzhiyun.. _`it_per-cpu`: 1286*4882a593Smuzhiyun 1287*4882a593SmuzhiyunDati per processore 1288*4882a593Smuzhiyun------------------- 1289*4882a593Smuzhiyun 1290*4882a593SmuzhiyunUn'altra tecnica comunemente usata per evitare la sincronizzazione è quella 1291*4882a593Smuzhiyundi duplicare le informazioni per ogni processore. Per esempio, se volete 1292*4882a593Smuzhiyunavere un contatore di qualcosa, potreste utilizzare uno spinlock ed un 1293*4882a593Smuzhiyunsingolo contatore. Facile e pulito. 1294*4882a593Smuzhiyun 1295*4882a593SmuzhiyunSe questo dovesse essere troppo lento (solitamente non lo è, ma se avete 1296*4882a593Smuzhiyundimostrato che lo è devvero), potreste usare un contatore per ogni processore 1297*4882a593Smuzhiyune quindi non sarebbe più necessaria la mutua esclusione. Vedere 1298*4882a593SmuzhiyunDEFINE_PER_CPU(), get_cpu_var() e put_cpu_var() 1299*4882a593Smuzhiyun(``include/linux/percpu.h``). 1300*4882a593Smuzhiyun 1301*4882a593SmuzhiyunIl tipo di dato ``local_t``, la funzione cpu_local_inc() e tutte 1302*4882a593Smuzhiyunle altre funzioni associate, sono di particolare utilità per semplici contatori 1303*4882a593Smuzhiyunper-processore; su alcune architetture sono anche più efficienti 1304*4882a593Smuzhiyun(``include/asm/local.h``). 1305*4882a593Smuzhiyun 1306*4882a593SmuzhiyunDa notare che non esiste un modo facile ed affidabile per ottenere il valore 1307*4882a593Smuzhiyundi un simile contatore senza introdurre altri *lock*. In alcuni casi questo 1308*4882a593Smuzhiyunnon è un problema. 1309*4882a593Smuzhiyun 1310*4882a593SmuzhiyunDati che sono usati prevalentemente dai gestori d'interruzioni 1311*4882a593Smuzhiyun-------------------------------------------------------------- 1312*4882a593Smuzhiyun 1313*4882a593SmuzhiyunSe i dati vengono utilizzati sempre dallo stesso gestore d'interruzioni, 1314*4882a593Smuzhiyunallora i *lock* non vi servono per niente: il kernel già vi garantisce che 1315*4882a593Smuzhiyunil gestore d'interruzione non verrà eseguito in contemporanea su diversi 1316*4882a593Smuzhiyunprocessori. 1317*4882a593Smuzhiyun 1318*4882a593SmuzhiyunManfred Spraul fa notare che potreste comunque comportarvi così anche 1319*4882a593Smuzhiyunse i dati vengono occasionalmente utilizzati da un contesto utente o 1320*4882a593Smuzhiyunda un'interruzione software. Il gestore d'interruzione non utilizza alcun 1321*4882a593Smuzhiyun*lock*, e tutti gli altri accessi verranno fatti così:: 1322*4882a593Smuzhiyun 1323*4882a593Smuzhiyun spin_lock(&lock); 1324*4882a593Smuzhiyun disable_irq(irq); 1325*4882a593Smuzhiyun ... 1326*4882a593Smuzhiyun enable_irq(irq); 1327*4882a593Smuzhiyun spin_unlock(&lock); 1328*4882a593Smuzhiyun 1329*4882a593SmuzhiyunLa funzione disable_irq() impedisce al gestore d'interruzioni 1330*4882a593Smuzhiyund'essere eseguito (e aspetta che finisca nel caso fosse in esecuzione su 1331*4882a593Smuzhiyunun altro processore). Lo spinlock, invece, previene accessi simultanei. 1332*4882a593SmuzhiyunNaturalmente, questo è più lento della semplice chiamata 1333*4882a593Smuzhiyunspin_lock_irq(), quindi ha senso solo se questo genere di accesso 1334*4882a593Smuzhiyunè estremamente raro. 1335*4882a593Smuzhiyun 1336*4882a593Smuzhiyun.. _`it_sleeping-things`: 1337*4882a593Smuzhiyun 1338*4882a593SmuzhiyunQuali funzioni possono essere chiamate in modo sicuro dalle interruzioni? 1339*4882a593Smuzhiyun========================================================================= 1340*4882a593Smuzhiyun 1341*4882a593SmuzhiyunMolte funzioni del kernel dormono (in sostanza, chiamano schedule()) 1342*4882a593Smuzhiyundirettamente od indirettamente: non potete chiamarle se trattenere uno 1343*4882a593Smuzhiyunspinlock o avete la prelazione disabilitata, mai. Questo significa che 1344*4882a593Smuzhiyundovete necessariamente essere nel contesto utente: chiamarle da un 1345*4882a593Smuzhiyuncontesto d'interruzione è illegale. 1346*4882a593Smuzhiyun 1347*4882a593SmuzhiyunAlcune funzioni che dormono 1348*4882a593Smuzhiyun--------------------------- 1349*4882a593Smuzhiyun 1350*4882a593SmuzhiyunLe più comuni sono elencate qui di seguito, ma solitamente dovete leggere 1351*4882a593Smuzhiyunil codice per scoprire se altre chiamate sono sicure. Se chiunque altro 1352*4882a593Smuzhiyunle chiami dorme, allora dovreste poter dormire anche voi. In particolar 1353*4882a593Smuzhiyunmodo, le funzioni di registrazione e deregistrazione solitamente si 1354*4882a593Smuzhiyunaspettano d'essere chiamante da un contesto utente e quindi che possono 1355*4882a593Smuzhiyundormire. 1356*4882a593Smuzhiyun 1357*4882a593Smuzhiyun- Accessi allo spazio utente: 1358*4882a593Smuzhiyun 1359*4882a593Smuzhiyun - copy_from_user() 1360*4882a593Smuzhiyun 1361*4882a593Smuzhiyun - copy_to_user() 1362*4882a593Smuzhiyun 1363*4882a593Smuzhiyun - get_user() 1364*4882a593Smuzhiyun 1365*4882a593Smuzhiyun - put_user() 1366*4882a593Smuzhiyun 1367*4882a593Smuzhiyun- kmalloc(GFP_KERNEL) <kmalloc>` 1368*4882a593Smuzhiyun 1369*4882a593Smuzhiyun- mutex_lock_interruptible() and 1370*4882a593Smuzhiyun mutex_lock() 1371*4882a593Smuzhiyun 1372*4882a593Smuzhiyun C'è anche mutex_trylock() che però non dorme. 1373*4882a593Smuzhiyun Comunque, non deve essere usata in un contesto d'interruzione dato 1374*4882a593Smuzhiyun che la sua implementazione non è sicura in quel contesto. 1375*4882a593Smuzhiyun Anche mutex_unlock() non dorme mai. Non può comunque essere 1376*4882a593Smuzhiyun usata in un contesto d'interruzione perché un mutex deve essere rilasciato 1377*4882a593Smuzhiyun dallo stesso processo che l'ha acquisito. 1378*4882a593Smuzhiyun 1379*4882a593SmuzhiyunAlcune funzioni che non dormono 1380*4882a593Smuzhiyun------------------------------- 1381*4882a593Smuzhiyun 1382*4882a593SmuzhiyunAlcune funzioni possono essere chiamate tranquillamente da qualsiasi 1383*4882a593Smuzhiyuncontesto, o trattenendo un qualsiasi *lock*. 1384*4882a593Smuzhiyun 1385*4882a593Smuzhiyun- printk() 1386*4882a593Smuzhiyun 1387*4882a593Smuzhiyun- kfree() 1388*4882a593Smuzhiyun 1389*4882a593Smuzhiyun- add_timer() e del_timer() 1390*4882a593Smuzhiyun 1391*4882a593SmuzhiyunRiferimento per l'API dei Mutex 1392*4882a593Smuzhiyun=============================== 1393*4882a593Smuzhiyun 1394*4882a593Smuzhiyun.. kernel-doc:: include/linux/mutex.h 1395*4882a593Smuzhiyun :internal: 1396*4882a593Smuzhiyun 1397*4882a593Smuzhiyun.. kernel-doc:: kernel/locking/mutex.c 1398*4882a593Smuzhiyun :export: 1399*4882a593Smuzhiyun 1400*4882a593SmuzhiyunRiferimento per l'API dei Futex 1401*4882a593Smuzhiyun=============================== 1402*4882a593Smuzhiyun 1403*4882a593Smuzhiyun.. kernel-doc:: kernel/futex.c 1404*4882a593Smuzhiyun :internal: 1405*4882a593Smuzhiyun 1406*4882a593SmuzhiyunApprofondimenti 1407*4882a593Smuzhiyun=============== 1408*4882a593Smuzhiyun 1409*4882a593Smuzhiyun- ``Documentation/locking/spinlocks.rst``: la guida di Linus Torvalds agli 1410*4882a593Smuzhiyun spinlock del kernel. 1411*4882a593Smuzhiyun 1412*4882a593Smuzhiyun- Unix Systems for Modern Architectures: Symmetric Multiprocessing and 1413*4882a593Smuzhiyun Caching for Kernel Programmers. 1414*4882a593Smuzhiyun 1415*4882a593Smuzhiyun L'introduzione alla sincronizzazione a livello di kernel di Curt Schimmel 1416*4882a593Smuzhiyun è davvero ottima (non è scritta per Linux, ma approssimativamente si adatta 1417*4882a593Smuzhiyun a tutte le situazioni). Il libro è costoso, ma vale ogni singolo spicciolo 1418*4882a593Smuzhiyun per capire la sincronizzazione nei sistemi multi-processore. 1419*4882a593Smuzhiyun [ISBN: 0201633388] 1420*4882a593Smuzhiyun 1421*4882a593SmuzhiyunRingraziamenti 1422*4882a593Smuzhiyun============== 1423*4882a593Smuzhiyun 1424*4882a593SmuzhiyunGrazie a Telsa Gwynne per aver formattato questa guida in DocBook, averla 1425*4882a593Smuzhiyunpulita e aggiunto un po' di stile. 1426*4882a593Smuzhiyun 1427*4882a593SmuzhiyunGrazie a Martin Pool, Philipp Rumpf, Stephen Rothwell, Paul Mackerras, 1428*4882a593SmuzhiyunRuedi Aschwanden, Alan Cox, Manfred Spraul, Tim Waugh, Pete Zaitcev, 1429*4882a593SmuzhiyunJames Morris, Robert Love, Paul McKenney, John Ashby per aver revisionato, 1430*4882a593Smuzhiyuncorretto, maledetto e commentato. 1431*4882a593Smuzhiyun 1432*4882a593SmuzhiyunGrazie alla congrega per non aver avuto alcuna influenza su questo documento. 1433*4882a593Smuzhiyun 1434*4882a593SmuzhiyunGlossario 1435*4882a593Smuzhiyun========= 1436*4882a593Smuzhiyun 1437*4882a593Smuzhiyunprelazione 1438*4882a593Smuzhiyun Prima del kernel 2.5, o quando ``CONFIG_PREEMPT`` non è impostato, i processi 1439*4882a593Smuzhiyun in contesto utente non si avvicendano nell'esecuzione (in pratica, il 1440*4882a593Smuzhiyun processo userà il processore fino al proprio termine, a meno che non ci siano 1441*4882a593Smuzhiyun delle interruzioni). Con l'aggiunta di ``CONFIG_PREEMPT`` nella versione 1442*4882a593Smuzhiyun 2.5.4 questo è cambiato: quando si è in contesto utente, processi con una 1443*4882a593Smuzhiyun priorità maggiore possono subentrare nell'esecuzione: gli spinlock furono 1444*4882a593Smuzhiyun cambiati per disabilitare la prelazioni, anche su sistemi monoprocessore. 1445*4882a593Smuzhiyun 1446*4882a593Smuzhiyunbh 1447*4882a593Smuzhiyun Bottom Half: per ragioni storiche, le funzioni che contengono '_bh' nel 1448*4882a593Smuzhiyun loro nome ora si riferiscono a qualsiasi interruzione software; per esempio, 1449*4882a593Smuzhiyun spin_lock_bh() blocca qualsiasi interuzione software sul processore 1450*4882a593Smuzhiyun corrente. I *Bottom Halves* sono deprecati, e probabilmente verranno 1451*4882a593Smuzhiyun sostituiti dai tasklet. In un dato momento potrà esserci solo un 1452*4882a593Smuzhiyun *bottom half* in esecuzione. 1453*4882a593Smuzhiyun 1454*4882a593Smuzhiyuncontesto d'interruzione 1455*4882a593Smuzhiyun Non è il contesto utente: qui si processano le interruzioni hardware e 1456*4882a593Smuzhiyun software. La macro in_interrupt() ritorna vero. 1457*4882a593Smuzhiyun 1458*4882a593Smuzhiyuncontesto utente 1459*4882a593Smuzhiyun Il kernel che esegue qualcosa per conto di un particolare processo (per 1460*4882a593Smuzhiyun esempio una chiamata di sistema) o di un thread del kernel. Potete 1461*4882a593Smuzhiyun identificare il processo con la macro ``current``. Da non confondere 1462*4882a593Smuzhiyun con lo spazio utente. Può essere interrotto sia da interruzioni software 1463*4882a593Smuzhiyun che hardware. 1464*4882a593Smuzhiyun 1465*4882a593Smuzhiyuninterruzione hardware 1466*4882a593Smuzhiyun Richiesta di interruzione hardware. in_irq() ritorna vero in un 1467*4882a593Smuzhiyun gestore d'interruzioni hardware. 1468*4882a593Smuzhiyun 1469*4882a593Smuzhiyuninterruzione software / softirq 1470*4882a593Smuzhiyun Gestore di interruzioni software: in_irq() ritorna falso; 1471*4882a593Smuzhiyun in_softirq() ritorna vero. I tasklet e le softirq sono entrambi 1472*4882a593Smuzhiyun considerati 'interruzioni software'. 1473*4882a593Smuzhiyun 1474*4882a593Smuzhiyun In soldoni, un softirq è uno delle 32 interruzioni software che possono 1475*4882a593Smuzhiyun essere eseguite su più processori in contemporanea. A volte si usa per 1476*4882a593Smuzhiyun riferirsi anche ai tasklet (in pratica tutte le interruzioni software). 1477*4882a593Smuzhiyun 1478*4882a593Smuzhiyunmonoprocessore / UP 1479*4882a593Smuzhiyun (Uni-Processor) un solo processore, ovvero non è SMP. (``CONFIG_SMP=n``). 1480*4882a593Smuzhiyun 1481*4882a593Smuzhiyunmulti-processore / SMP 1482*4882a593Smuzhiyun (Symmetric Multi-Processor) kernel compilati per sistemi multi-processore 1483*4882a593Smuzhiyun (``CONFIG_SMP=y``). 1484*4882a593Smuzhiyun 1485*4882a593Smuzhiyunspazio utente 1486*4882a593Smuzhiyun Un processo che esegue il proprio codice fuori dal kernel. 1487*4882a593Smuzhiyun 1488*4882a593Smuzhiyuntasklet 1489*4882a593Smuzhiyun Un'interruzione software registrabile dinamicamente che ha la garanzia 1490*4882a593Smuzhiyun d'essere eseguita solo su un processore alla volta. 1491*4882a593Smuzhiyun 1492*4882a593Smuzhiyuntimer 1493*4882a593Smuzhiyun Un'interruzione software registrabile dinamicamente che viene eseguita 1494*4882a593Smuzhiyun (circa) in un determinato momento. Quando è in esecuzione è come un tasklet 1495*4882a593Smuzhiyun (infatti, sono chiamati da ``TIMER_SOFTIRQ``). 1496