xref: /OK3568_Linux_fs/kernel/Documentation/translations/it_IT/kernel-hacking/locking.rst (revision 4882a59341e53eb6f0b4789bf948001014eff981)
1*4882a593Smuzhiyun.. include:: ../disclaimer-ita.rst
2*4882a593Smuzhiyun
3*4882a593Smuzhiyun.. c:namespace:: it_IT
4*4882a593Smuzhiyun
5*4882a593Smuzhiyun:Original: :ref:`Documentation/kernel-hacking/locking.rst <kernel_hacking_lock>`
6*4882a593Smuzhiyun:Translator: Federico Vaga <federico.vaga@vaga.pv.it>
7*4882a593Smuzhiyun
8*4882a593Smuzhiyun.. _it_kernel_hacking_lock:
9*4882a593Smuzhiyun
10*4882a593Smuzhiyun==========================================
11*4882a593SmuzhiyunL'inaffidabile guida alla sincronizzazione
12*4882a593Smuzhiyun==========================================
13*4882a593Smuzhiyun
14*4882a593Smuzhiyun:Author: Rusty Russell
15*4882a593Smuzhiyun
16*4882a593SmuzhiyunIntroduzione
17*4882a593Smuzhiyun============
18*4882a593Smuzhiyun
19*4882a593SmuzhiyunBenvenuto, alla notevole ed inaffidabile guida ai problemi di sincronizzazione
20*4882a593Smuzhiyun(locking) nel kernel. Questo documento descrive il sistema di sincronizzazione
21*4882a593Smuzhiyunnel kernel Linux 2.6.
22*4882a593Smuzhiyun
23*4882a593SmuzhiyunDato il largo utilizzo del multi-threading e della prelazione nel kernel
24*4882a593SmuzhiyunLinux, chiunque voglia dilettarsi col kernel deve conoscere i concetti
25*4882a593Smuzhiyunfondamentali della concorrenza e della sincronizzazione nei sistemi
26*4882a593Smuzhiyunmulti-processore.
27*4882a593Smuzhiyun
28*4882a593SmuzhiyunIl problema con la concorrenza
29*4882a593Smuzhiyun==============================
30*4882a593Smuzhiyun
31*4882a593Smuzhiyun(Saltatelo se sapete già cos'è una corsa critica).
32*4882a593Smuzhiyun
33*4882a593SmuzhiyunIn un normale programma, potete incrementare un contatore nel seguente modo:
34*4882a593Smuzhiyun
35*4882a593Smuzhiyun::
36*4882a593Smuzhiyun
37*4882a593Smuzhiyun          contatore++;
38*4882a593Smuzhiyun
39*4882a593SmuzhiyunQuesto è quello che vi aspettereste che accada sempre:
40*4882a593Smuzhiyun
41*4882a593Smuzhiyun
42*4882a593Smuzhiyun.. table:: Risultati attesi
43*4882a593Smuzhiyun
44*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
45*4882a593Smuzhiyun  | Istanza 1                          | Istanza 2                          |
46*4882a593Smuzhiyun  +====================================+====================================+
47*4882a593Smuzhiyun  | leggi contatore (5)                |                                    |
48*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
49*4882a593Smuzhiyun  | aggiungi 1 (6)                     |                                    |
50*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
51*4882a593Smuzhiyun  | scrivi contatore (6)               |                                    |
52*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
53*4882a593Smuzhiyun  |                                    | leggi contatore (6)                |
54*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
55*4882a593Smuzhiyun  |                                    | aggiungi 1 (7)                     |
56*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
57*4882a593Smuzhiyun  |                                    | scrivi contatore (7)               |
58*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
59*4882a593Smuzhiyun
60*4882a593SmuzhiyunQuesto è quello che potrebbe succedere in realtà:
61*4882a593Smuzhiyun
62*4882a593Smuzhiyun.. table:: Possibile risultato
63*4882a593Smuzhiyun
64*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
65*4882a593Smuzhiyun  | Istanza 1                          | Istanza 2                          |
66*4882a593Smuzhiyun  +====================================+====================================+
67*4882a593Smuzhiyun  | leggi contatore (5)                |                                    |
68*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
69*4882a593Smuzhiyun  |                                    | leggi contatore (5)                |
70*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
71*4882a593Smuzhiyun  | aggiungi 1 (6)                     |                                    |
72*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
73*4882a593Smuzhiyun  |                                    | aggiungi 1 (6)                     |
74*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
75*4882a593Smuzhiyun  | scrivi contatore (6)               |                                    |
76*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
77*4882a593Smuzhiyun  |                                    | scrivi contatore (6)               |
78*4882a593Smuzhiyun  +------------------------------------+------------------------------------+
79*4882a593Smuzhiyun
80*4882a593Smuzhiyun
81*4882a593SmuzhiyunCorse critiche e sezioni critiche
82*4882a593Smuzhiyun---------------------------------
83*4882a593Smuzhiyun
84*4882a593SmuzhiyunQuesta sovrapposizione, ovvero quando un risultato dipende dal tempo che
85*4882a593Smuzhiyunintercorre fra processi diversi, è chiamata corsa critica. La porzione
86*4882a593Smuzhiyundi codice che contiene questo problema è chiamata sezione critica.
87*4882a593SmuzhiyunIn particolar modo da quando Linux ha incominciato a girare su
88*4882a593Smuzhiyunmacchine multi-processore, le sezioni critiche sono diventate uno dei
89*4882a593Smuzhiyunmaggiori problemi di progettazione ed implementazione del kernel.
90*4882a593Smuzhiyun
91*4882a593SmuzhiyunLa prelazione può sortire gli stessi effetti, anche se c'è una sola CPU:
92*4882a593Smuzhiyuninterrompendo un processo nella sua sezione critica otterremo comunque
93*4882a593Smuzhiyunla stessa corsa critica. In questo caso, il thread che si avvicenda
94*4882a593Smuzhiyunnell'esecuzione potrebbe eseguire anch'esso la sezione critica.
95*4882a593Smuzhiyun
96*4882a593SmuzhiyunLa soluzione è quella di riconoscere quando avvengono questi accessi
97*4882a593Smuzhiyunsimultanei, ed utilizzare i *lock* per accertarsi che solo un'istanza
98*4882a593Smuzhiyunper volta possa entrare nella sezione critica. Il kernel offre delle buone
99*4882a593Smuzhiyunfunzioni a questo scopo. E poi ci sono quelle meno buone, ma farò finta
100*4882a593Smuzhiyunche non esistano.
101*4882a593Smuzhiyun
102*4882a593SmuzhiyunSincronizzazione nel kernel Linux
103*4882a593Smuzhiyun=================================
104*4882a593Smuzhiyun
105*4882a593SmuzhiyunSe posso darvi un suggerimento: non dormite mai con qualcuno più pazzo di
106*4882a593Smuzhiyunvoi. Ma se dovessi darvi un suggerimento sulla sincronizzazione:
107*4882a593Smuzhiyun**mantenetela semplice**.
108*4882a593Smuzhiyun
109*4882a593SmuzhiyunSiate riluttanti nell'introduzione di nuovi *lock*.
110*4882a593Smuzhiyun
111*4882a593SmuzhiyunAbbastanza strano, quest'ultimo è l'esatto opposto del mio suggerimento
112*4882a593Smuzhiyunsu quando **avete** dormito con qualcuno più pazzo di voi. E dovreste
113*4882a593Smuzhiyunpensare a prendervi un cane bello grande.
114*4882a593Smuzhiyun
115*4882a593SmuzhiyunI due principali tipi di *lock* nel kernel: spinlock e mutex
116*4882a593Smuzhiyun------------------------------------------------------------
117*4882a593Smuzhiyun
118*4882a593SmuzhiyunCi sono due tipi principali di *lock* nel kernel. Il tipo fondamentale è lo
119*4882a593Smuzhiyunspinlock (``include/asm/spinlock.h``), un semplice *lock* che può essere
120*4882a593Smuzhiyuntrattenuto solo da un processo: se non si può trattenere lo spinlock, allora
121*4882a593Smuzhiyunrimane in attesa attiva (in inglese *spinning*) finché non ci riesce.
122*4882a593SmuzhiyunGli spinlock sono molto piccoli e rapidi, possono essere utilizzati ovunque.
123*4882a593Smuzhiyun
124*4882a593SmuzhiyunIl secondo tipo è il mutex (``include/linux/mutex.h``): è come uno spinlock,
125*4882a593Smuzhiyunma potreste bloccarvi trattenendolo. Se non potete trattenere un mutex
126*4882a593Smuzhiyunil vostro processo si auto-sospenderà; verrà riattivato quando il mutex
127*4882a593Smuzhiyunverrà rilasciato. Questo significa che il processore potrà occuparsi d'altro
128*4882a593Smuzhiyunmentre il vostro processo è in attesa. Esistono molti casi in cui non potete
129*4882a593Smuzhiyunpermettervi di sospendere un processo (vedere
130*4882a593Smuzhiyun:ref:`Quali funzioni possono essere chiamate in modo sicuro dalle interruzioni? <it_sleeping-things>`)
131*4882a593Smuzhiyune quindi dovrete utilizzare gli spinlock.
132*4882a593Smuzhiyun
133*4882a593SmuzhiyunNessuno di questi *lock* è ricorsivo: vedere
134*4882a593Smuzhiyun:ref:`Stallo: semplice ed avanzato <it_deadlock>`
135*4882a593Smuzhiyun
136*4882a593SmuzhiyunI *lock* e i kernel per sistemi monoprocessore
137*4882a593Smuzhiyun----------------------------------------------
138*4882a593Smuzhiyun
139*4882a593SmuzhiyunPer i kernel compilati senza ``CONFIG_SMP`` e senza ``CONFIG_PREEMPT``
140*4882a593Smuzhiyungli spinlock non esistono. Questa è un'ottima scelta di progettazione:
141*4882a593Smuzhiyunquando nessun altro processo può essere eseguito in simultanea, allora
142*4882a593Smuzhiyunnon c'è la necessità di avere un *lock*.
143*4882a593Smuzhiyun
144*4882a593SmuzhiyunSe il kernel è compilato senza ``CONFIG_SMP`` ma con ``CONFIG_PREEMPT``,
145*4882a593Smuzhiyunallora gli spinlock disabilitano la prelazione; questo è sufficiente a
146*4882a593Smuzhiyunprevenire le corse critiche. Nella maggior parte dei casi, possiamo considerare
147*4882a593Smuzhiyunla prelazione equivalente ad un sistema multi-processore senza preoccuparci
148*4882a593Smuzhiyundi trattarla indipendentemente.
149*4882a593Smuzhiyun
150*4882a593SmuzhiyunDovreste verificare sempre la sincronizzazione con le opzioni ``CONFIG_SMP`` e
151*4882a593Smuzhiyun``CONFIG_PREEMPT`` abilitate, anche quando non avete un sistema
152*4882a593Smuzhiyunmulti-processore, questo vi permetterà di identificare alcuni problemi
153*4882a593Smuzhiyundi sincronizzazione.
154*4882a593Smuzhiyun
155*4882a593SmuzhiyunCome vedremo di seguito, i mutex continuano ad esistere perché sono necessari
156*4882a593Smuzhiyunper la sincronizzazione fra processi in contesto utente.
157*4882a593Smuzhiyun
158*4882a593SmuzhiyunSincronizzazione in contesto utente
159*4882a593Smuzhiyun-----------------------------------
160*4882a593Smuzhiyun
161*4882a593SmuzhiyunSe avete una struttura dati che verrà utilizzata solo dal contesto utente,
162*4882a593Smuzhiyunallora, per proteggerla, potete utilizzare un semplice mutex
163*4882a593Smuzhiyun(``include/linux/mutex.h``). Questo è il caso più semplice: inizializzate il
164*4882a593Smuzhiyunmutex; invocate mutex_lock_interruptible() per trattenerlo e
165*4882a593Smuzhiyunmutex_unlock() per rilasciarlo. C'è anche mutex_lock()
166*4882a593Smuzhiyunma questa dovrebbe essere evitata perché non ritorna in caso di segnali.
167*4882a593Smuzhiyun
168*4882a593SmuzhiyunPer esempio: ``net/netfilter/nf_sockopt.c`` permette la registrazione
169*4882a593Smuzhiyundi nuove chiamate per setsockopt() e getsockopt()
170*4882a593Smuzhiyunusando la funzione nf_register_sockopt(). La registrazione e
171*4882a593Smuzhiyunla rimozione vengono eseguite solamente quando il modulo viene caricato
172*4882a593Smuzhiyuno scaricato (e durante l'avvio del sistema, qui non abbiamo concorrenza),
173*4882a593Smuzhiyune la lista delle funzioni registrate viene consultata solamente quando
174*4882a593Smuzhiyunsetsockopt() o getsockopt() sono sconosciute al sistema.
175*4882a593SmuzhiyunIn questo caso ``nf_sockopt_mutex`` è perfetto allo scopo, in particolar modo
176*4882a593Smuzhiyunvisto che setsockopt e getsockopt potrebbero dormire.
177*4882a593Smuzhiyun
178*4882a593SmuzhiyunSincronizzazione fra il contesto utente e i softirq
179*4882a593Smuzhiyun---------------------------------------------------
180*4882a593Smuzhiyun
181*4882a593SmuzhiyunSe un softirq condivide dati col contesto utente, avete due problemi.
182*4882a593SmuzhiyunPrimo, il contesto utente corrente potrebbe essere interroto da un softirq,
183*4882a593Smuzhiyune secondo, la sezione critica potrebbe essere eseguita da un altro
184*4882a593Smuzhiyunprocessore. Questo è quando spin_lock_bh()
185*4882a593Smuzhiyun(``include/linux/spinlock.h``) viene utilizzato. Questo disabilita i softirq
186*4882a593Smuzhiyunsul processore e trattiene il *lock*. Invece, spin_unlock_bh() fa
187*4882a593Smuzhiyunl'opposto. (Il suffisso '_bh' è un residuo storico che fa riferimento al
188*4882a593Smuzhiyun"Bottom Halves", il vecchio nome delle interruzioni software. In un mondo
189*4882a593Smuzhiyunperfetto questa funzione si chiamerebbe 'spin_lock_softirq()').
190*4882a593Smuzhiyun
191*4882a593SmuzhiyunDa notare che in questo caso potete utilizzare anche spin_lock_irq()
192*4882a593Smuzhiyuno spin_lock_irqsave(), queste fermano anche le interruzioni hardware:
193*4882a593Smuzhiyunvedere :ref:`Contesto di interruzione hardware <it_hardirq-context>`.
194*4882a593Smuzhiyun
195*4882a593SmuzhiyunQuesto funziona alla perfezione anche sui sistemi monoprocessore: gli spinlock
196*4882a593Smuzhiyunsvaniscono e questa macro diventa semplicemente local_bh_disable()
197*4882a593Smuzhiyun(``include/linux/interrupt.h``), la quale impedisce ai softirq d'essere
198*4882a593Smuzhiyuneseguiti.
199*4882a593Smuzhiyun
200*4882a593SmuzhiyunSincronizzazione fra contesto utente e i tasklet
201*4882a593Smuzhiyun------------------------------------------------
202*4882a593Smuzhiyun
203*4882a593SmuzhiyunQuesto caso è uguale al precedente, un tasklet viene eseguito da un softirq.
204*4882a593Smuzhiyun
205*4882a593SmuzhiyunSincronizzazione fra contesto utente e i timer
206*4882a593Smuzhiyun----------------------------------------------
207*4882a593Smuzhiyun
208*4882a593SmuzhiyunAnche questo caso è uguale al precedente, un timer viene eseguito da un
209*4882a593Smuzhiyunsoftirq.
210*4882a593SmuzhiyunDal punto di vista della sincronizzazione, tasklet e timer sono identici.
211*4882a593Smuzhiyun
212*4882a593SmuzhiyunSincronizzazione fra tasklet e timer
213*4882a593Smuzhiyun------------------------------------
214*4882a593Smuzhiyun
215*4882a593SmuzhiyunQualche volta un tasklet od un timer potrebbero condividere i dati con
216*4882a593Smuzhiyunun altro tasklet o timer
217*4882a593Smuzhiyun
218*4882a593SmuzhiyunLo stesso tasklet/timer
219*4882a593Smuzhiyun~~~~~~~~~~~~~~~~~~~~~~~
220*4882a593Smuzhiyun
221*4882a593SmuzhiyunDato che un tasklet non viene mai eseguito contemporaneamente su due
222*4882a593Smuzhiyunprocessori, non dovete preoccuparvi che sia rientrante (ovvero eseguito
223*4882a593Smuzhiyunpiù volte in contemporanea), perfino su sistemi multi-processore.
224*4882a593Smuzhiyun
225*4882a593SmuzhiyunDifferenti tasklet/timer
226*4882a593Smuzhiyun~~~~~~~~~~~~~~~~~~~~~~~~
227*4882a593Smuzhiyun
228*4882a593SmuzhiyunSe un altro tasklet/timer vuole condividere dati col vostro tasklet o timer,
229*4882a593Smuzhiyunallora avrete bisogno entrambe di spin_lock() e
230*4882a593Smuzhiyunspin_unlock(). Qui spin_lock_bh() è inutile, siete già
231*4882a593Smuzhiyunin un tasklet ed avete la garanzia che nessun altro verrà eseguito sullo
232*4882a593Smuzhiyunstesso processore.
233*4882a593Smuzhiyun
234*4882a593SmuzhiyunSincronizzazione fra softirq
235*4882a593Smuzhiyun----------------------------
236*4882a593Smuzhiyun
237*4882a593SmuzhiyunSpesso un softirq potrebbe condividere dati con se stesso o un tasklet/timer.
238*4882a593Smuzhiyun
239*4882a593SmuzhiyunLo stesso softirq
240*4882a593Smuzhiyun~~~~~~~~~~~~~~~~~
241*4882a593Smuzhiyun
242*4882a593SmuzhiyunLo stesso softirq può essere eseguito su un diverso processore: allo scopo
243*4882a593Smuzhiyundi migliorare le prestazioni potete utilizzare dati riservati ad ogni
244*4882a593Smuzhiyunprocessore (vedere :ref:`Dati per processore <it_per-cpu>`). Se siete arrivati
245*4882a593Smuzhiyunfino a questo punto nell'uso dei softirq, probabilmente tenete alla scalabilità
246*4882a593Smuzhiyundelle prestazioni abbastanza da giustificarne la complessità aggiuntiva.
247*4882a593Smuzhiyun
248*4882a593SmuzhiyunDovete utilizzare spin_lock() e spin_unlock() per
249*4882a593Smuzhiyunproteggere i dati condivisi.
250*4882a593Smuzhiyun
251*4882a593SmuzhiyunDiversi Softirqs
252*4882a593Smuzhiyun~~~~~~~~~~~~~~~~
253*4882a593Smuzhiyun
254*4882a593SmuzhiyunDovete utilizzare spin_lock() e spin_unlock() per
255*4882a593Smuzhiyunproteggere i dati condivisi, che siano timer, tasklet, diversi softirq o
256*4882a593Smuzhiyunlo stesso o altri softirq: uno qualsiasi di essi potrebbe essere in esecuzione
257*4882a593Smuzhiyunsu un diverso processore.
258*4882a593Smuzhiyun
259*4882a593Smuzhiyun.. _`it_hardirq-context`:
260*4882a593Smuzhiyun
261*4882a593SmuzhiyunContesto di interruzione hardware
262*4882a593Smuzhiyun=================================
263*4882a593Smuzhiyun
264*4882a593SmuzhiyunSolitamente le interruzioni hardware comunicano con un tasklet o un softirq.
265*4882a593SmuzhiyunSpesso questo si traduce nel mettere in coda qualcosa da fare che verrà
266*4882a593Smuzhiyunpreso in carico da un softirq.
267*4882a593Smuzhiyun
268*4882a593SmuzhiyunSincronizzazione fra interruzioni hardware e softirq/tasklet
269*4882a593Smuzhiyun------------------------------------------------------------
270*4882a593Smuzhiyun
271*4882a593SmuzhiyunSe un gestore di interruzioni hardware condivide dati con un softirq, allora
272*4882a593Smuzhiyunavrete due preoccupazioni. Primo, il softirq può essere interrotto da
273*4882a593Smuzhiyunun'interruzione hardware, e secondo, la sezione critica potrebbe essere
274*4882a593Smuzhiyuneseguita da un'interruzione hardware su un processore diverso. Questo è il caso
275*4882a593Smuzhiyundove spin_lock_irq() viene utilizzato. Disabilita le interruzioni
276*4882a593Smuzhiyunsul processore che l'esegue, poi trattiene il lock. spin_unlock_irq()
277*4882a593Smuzhiyunfa l'opposto.
278*4882a593Smuzhiyun
279*4882a593SmuzhiyunIl gestore d'interruzione hardware non ha bisogno di usare spin_lock_irq()
280*4882a593Smuzhiyunperché i softirq non possono essere eseguiti quando il gestore d'interruzione
281*4882a593Smuzhiyunhardware è in esecuzione: per questo si può usare spin_lock(), che è un po'
282*4882a593Smuzhiyunpiù veloce. L'unica eccezione è quando un altro gestore d'interruzioni
283*4882a593Smuzhiyunhardware utilizza lo stesso *lock*: spin_lock_irq() impedirà a questo
284*4882a593Smuzhiyunsecondo gestore di interrompere quello in esecuzione.
285*4882a593Smuzhiyun
286*4882a593SmuzhiyunQuesto funziona alla perfezione anche sui sistemi monoprocessore: gli spinlock
287*4882a593Smuzhiyunsvaniscono e questa macro diventa semplicemente local_irq_disable()
288*4882a593Smuzhiyun(``include/asm/smp.h``), la quale impedisce a softirq/tasklet/BH d'essere
289*4882a593Smuzhiyuneseguiti.
290*4882a593Smuzhiyun
291*4882a593Smuzhiyunspin_lock_irqsave() (``include/linux/spinlock.h``) è una variante che
292*4882a593Smuzhiyunsalva lo stato delle interruzioni in una variabile, questa verrà poi passata
293*4882a593Smuzhiyuna spin_unlock_irqrestore(). Questo significa che lo stesso codice
294*4882a593Smuzhiyunpotrà essere utilizzato in un'interruzione hardware (dove le interruzioni sono
295*4882a593Smuzhiyungià disabilitate) e in un softirq (dove la disabilitazione delle interruzioni
296*4882a593Smuzhiyunè richiesta).
297*4882a593Smuzhiyun
298*4882a593SmuzhiyunDa notare che i softirq (e quindi tasklet e timer) sono eseguiti al ritorno
299*4882a593Smuzhiyunda un'interruzione hardware, quindi spin_lock_irq() interrompe
300*4882a593Smuzhiyunanche questi. Tenuto conto di questo si può dire che
301*4882a593Smuzhiyunspin_lock_irqsave() è la funzione di sincronizzazione più generica
302*4882a593Smuzhiyune potente.
303*4882a593Smuzhiyun
304*4882a593SmuzhiyunSincronizzazione fra due gestori d'interruzioni hardware
305*4882a593Smuzhiyun--------------------------------------------------------
306*4882a593Smuzhiyun
307*4882a593SmuzhiyunCondividere dati fra due gestori di interruzione hardware è molto raro, ma se
308*4882a593Smuzhiyunsuccede, dovreste usare spin_lock_irqsave(): è una specificità
309*4882a593Smuzhiyundell'architettura il fatto che tutte le interruzioni vengano interrotte
310*4882a593Smuzhiyunquando si eseguono di gestori di interruzioni.
311*4882a593Smuzhiyun
312*4882a593SmuzhiyunBigino della sincronizzazione
313*4882a593Smuzhiyun=============================
314*4882a593Smuzhiyun
315*4882a593SmuzhiyunPete Zaitcev ci offre il seguente riassunto:
316*4882a593Smuzhiyun
317*4882a593Smuzhiyun-  Se siete in un contesto utente (una qualsiasi chiamata di sistema)
318*4882a593Smuzhiyun   e volete sincronizzarvi con altri processi, usate i mutex. Potete trattenere
319*4882a593Smuzhiyun   il mutex e dormire (``copy_from_user*(`` o ``kmalloc(x,GFP_KERNEL)``).
320*4882a593Smuzhiyun
321*4882a593Smuzhiyun-  Altrimenti (== i dati possono essere manipolati da un'interruzione) usate
322*4882a593Smuzhiyun   spin_lock_irqsave() e spin_unlock_irqrestore().
323*4882a593Smuzhiyun
324*4882a593Smuzhiyun-  Evitate di trattenere uno spinlock per più di 5 righe di codice incluse
325*4882a593Smuzhiyun   le chiamate a funzione (ad eccezione di quell per l'accesso come
326*4882a593Smuzhiyun   readb()).
327*4882a593Smuzhiyun
328*4882a593SmuzhiyunTabella dei requisiti minimi
329*4882a593Smuzhiyun----------------------------
330*4882a593Smuzhiyun
331*4882a593SmuzhiyunLa tabella seguente illustra i requisiti **minimi** per la sincronizzazione fra
332*4882a593Smuzhiyundiversi contesti. In alcuni casi, lo stesso contesto può essere eseguito solo
333*4882a593Smuzhiyunda un processore per volta, quindi non ci sono requisiti per la
334*4882a593Smuzhiyunsincronizzazione (per esempio, un thread può essere eseguito solo su un
335*4882a593Smuzhiyunprocessore alla volta, ma se deve condividere dati con un altro thread, allora
336*4882a593Smuzhiyunla sincronizzazione è necessaria).
337*4882a593Smuzhiyun
338*4882a593SmuzhiyunRicordatevi il suggerimento qui sopra: potete sempre usare
339*4882a593Smuzhiyunspin_lock_irqsave(), che è un sovrainsieme di tutte le altre funzioni
340*4882a593Smuzhiyunper spinlock.
341*4882a593Smuzhiyun
342*4882a593Smuzhiyun============== ============= ============= ========= ========= ========= ========= ======= ======= ============== ==============
343*4882a593Smuzhiyun.              IRQ Handler A IRQ Handler B Softirq A Softirq B Tasklet A Tasklet B Timer A Timer B User Context A User Context B
344*4882a593Smuzhiyun============== ============= ============= ========= ========= ========= ========= ======= ======= ============== ==============
345*4882a593SmuzhiyunIRQ Handler A  None
346*4882a593SmuzhiyunIRQ Handler B  SLIS          None
347*4882a593SmuzhiyunSoftirq A      SLI           SLI           SL
348*4882a593SmuzhiyunSoftirq B      SLI           SLI           SL        SL
349*4882a593SmuzhiyunTasklet A      SLI           SLI           SL        SL        None
350*4882a593SmuzhiyunTasklet B      SLI           SLI           SL        SL        SL        None
351*4882a593SmuzhiyunTimer A        SLI           SLI           SL        SL        SL        SL        None
352*4882a593SmuzhiyunTimer B        SLI           SLI           SL        SL        SL        SL        SL      None
353*4882a593SmuzhiyunUser Context A SLI           SLI           SLBH      SLBH      SLBH      SLBH      SLBH    SLBH    None
354*4882a593SmuzhiyunUser Context B SLI           SLI           SLBH      SLBH      SLBH      SLBH      SLBH    SLBH    MLI            None
355*4882a593Smuzhiyun============== ============= ============= ========= ========= ========= ========= ======= ======= ============== ==============
356*4882a593Smuzhiyun
357*4882a593SmuzhiyunTable: Tabella dei requisiti per la sincronizzazione
358*4882a593Smuzhiyun
359*4882a593Smuzhiyun+--------+----------------------------+
360*4882a593Smuzhiyun| SLIS   | spin_lock_irqsave          |
361*4882a593Smuzhiyun+--------+----------------------------+
362*4882a593Smuzhiyun| SLI    | spin_lock_irq              |
363*4882a593Smuzhiyun+--------+----------------------------+
364*4882a593Smuzhiyun| SL     | spin_lock                  |
365*4882a593Smuzhiyun+--------+----------------------------+
366*4882a593Smuzhiyun| SLBH   | spin_lock_bh               |
367*4882a593Smuzhiyun+--------+----------------------------+
368*4882a593Smuzhiyun| MLI    | mutex_lock_interruptible   |
369*4882a593Smuzhiyun+--------+----------------------------+
370*4882a593Smuzhiyun
371*4882a593SmuzhiyunTable: Legenda per la tabella dei requisiti per la sincronizzazione
372*4882a593Smuzhiyun
373*4882a593SmuzhiyunLe funzioni *trylock*
374*4882a593Smuzhiyun=====================
375*4882a593Smuzhiyun
376*4882a593SmuzhiyunCi sono funzioni che provano a trattenere un *lock* solo una volta e
377*4882a593Smuzhiyunritornano immediatamente comunicato il successo od il fallimento
378*4882a593Smuzhiyundell'operazione. Posso essere usate quando non serve accedere ai dati
379*4882a593Smuzhiyunprotetti dal *lock* quando qualche altro thread lo sta già facendo
380*4882a593Smuzhiyuntrattenendo il *lock*. Potrete acquisire il *lock* più tardi se vi
381*4882a593Smuzhiyunserve accedere ai dati protetti da questo *lock*.
382*4882a593Smuzhiyun
383*4882a593SmuzhiyunLa funzione spin_trylock() non ritenta di acquisire il *lock*,
384*4882a593Smuzhiyunse ci riesce al primo colpo ritorna un valore diverso da zero, altrimenti
385*4882a593Smuzhiyunse fallisce ritorna 0. Questa funzione può essere utilizzata in un qualunque
386*4882a593Smuzhiyuncontesto, ma come spin_lock(): dovete disabilitare i contesti che
387*4882a593Smuzhiyunpotrebbero interrompervi e quindi trattenere lo spinlock.
388*4882a593Smuzhiyun
389*4882a593SmuzhiyunLa funzione mutex_trylock() invece di sospendere il vostro processo
390*4882a593Smuzhiyunritorna un valore diverso da zero se è possibile trattenere il lock al primo
391*4882a593Smuzhiyuncolpo, altrimenti se fallisce ritorna 0. Nonostante non dorma, questa funzione
392*4882a593Smuzhiyunnon può essere usata in modo sicuro in contesti di interruzione hardware o
393*4882a593Smuzhiyunsoftware.
394*4882a593Smuzhiyun
395*4882a593SmuzhiyunEsempi più comuni
396*4882a593Smuzhiyun=================
397*4882a593Smuzhiyun
398*4882a593SmuzhiyunGuardiamo un semplice esempio: una memoria che associa nomi a numeri.
399*4882a593SmuzhiyunLa memoria tiene traccia di quanto spesso viene utilizzato ogni oggetto;
400*4882a593Smuzhiyunquando è piena, l'oggetto meno usato viene eliminato.
401*4882a593Smuzhiyun
402*4882a593SmuzhiyunTutto in contesto utente
403*4882a593Smuzhiyun------------------------
404*4882a593Smuzhiyun
405*4882a593SmuzhiyunNel primo esempio, supponiamo che tutte le operazioni avvengano in contesto
406*4882a593Smuzhiyunutente (in soldoni, da una chiamata di sistema), quindi possiamo dormire.
407*4882a593SmuzhiyunQuesto significa che possiamo usare i mutex per proteggere la nostra memoria
408*4882a593Smuzhiyune tutti gli oggetti che contiene. Ecco il codice::
409*4882a593Smuzhiyun
410*4882a593Smuzhiyun    #include <linux/list.h>
411*4882a593Smuzhiyun    #include <linux/slab.h>
412*4882a593Smuzhiyun    #include <linux/string.h>
413*4882a593Smuzhiyun    #include <linux/mutex.h>
414*4882a593Smuzhiyun    #include <asm/errno.h>
415*4882a593Smuzhiyun
416*4882a593Smuzhiyun    struct object
417*4882a593Smuzhiyun    {
418*4882a593Smuzhiyun            struct list_head list;
419*4882a593Smuzhiyun            int id;
420*4882a593Smuzhiyun            char name[32];
421*4882a593Smuzhiyun            int popularity;
422*4882a593Smuzhiyun    };
423*4882a593Smuzhiyun
424*4882a593Smuzhiyun    /* Protects the cache, cache_num, and the objects within it */
425*4882a593Smuzhiyun    static DEFINE_MUTEX(cache_lock);
426*4882a593Smuzhiyun    static LIST_HEAD(cache);
427*4882a593Smuzhiyun    static unsigned int cache_num = 0;
428*4882a593Smuzhiyun    #define MAX_CACHE_SIZE 10
429*4882a593Smuzhiyun
430*4882a593Smuzhiyun    /* Must be holding cache_lock */
431*4882a593Smuzhiyun    static struct object *__cache_find(int id)
432*4882a593Smuzhiyun    {
433*4882a593Smuzhiyun            struct object *i;
434*4882a593Smuzhiyun
435*4882a593Smuzhiyun            list_for_each_entry(i, &cache, list)
436*4882a593Smuzhiyun                    if (i->id == id) {
437*4882a593Smuzhiyun                            i->popularity++;
438*4882a593Smuzhiyun                            return i;
439*4882a593Smuzhiyun                    }
440*4882a593Smuzhiyun            return NULL;
441*4882a593Smuzhiyun    }
442*4882a593Smuzhiyun
443*4882a593Smuzhiyun    /* Must be holding cache_lock */
444*4882a593Smuzhiyun    static void __cache_delete(struct object *obj)
445*4882a593Smuzhiyun    {
446*4882a593Smuzhiyun            BUG_ON(!obj);
447*4882a593Smuzhiyun            list_del(&obj->list);
448*4882a593Smuzhiyun            kfree(obj);
449*4882a593Smuzhiyun            cache_num--;
450*4882a593Smuzhiyun    }
451*4882a593Smuzhiyun
452*4882a593Smuzhiyun    /* Must be holding cache_lock */
453*4882a593Smuzhiyun    static void __cache_add(struct object *obj)
454*4882a593Smuzhiyun    {
455*4882a593Smuzhiyun            list_add(&obj->list, &cache);
456*4882a593Smuzhiyun            if (++cache_num > MAX_CACHE_SIZE) {
457*4882a593Smuzhiyun                    struct object *i, *outcast = NULL;
458*4882a593Smuzhiyun                    list_for_each_entry(i, &cache, list) {
459*4882a593Smuzhiyun                            if (!outcast || i->popularity < outcast->popularity)
460*4882a593Smuzhiyun                                    outcast = i;
461*4882a593Smuzhiyun                    }
462*4882a593Smuzhiyun                    __cache_delete(outcast);
463*4882a593Smuzhiyun            }
464*4882a593Smuzhiyun    }
465*4882a593Smuzhiyun
466*4882a593Smuzhiyun    int cache_add(int id, const char *name)
467*4882a593Smuzhiyun    {
468*4882a593Smuzhiyun            struct object *obj;
469*4882a593Smuzhiyun
470*4882a593Smuzhiyun            if ((obj = kmalloc(sizeof(*obj), GFP_KERNEL)) == NULL)
471*4882a593Smuzhiyun                    return -ENOMEM;
472*4882a593Smuzhiyun
473*4882a593Smuzhiyun            strscpy(obj->name, name, sizeof(obj->name));
474*4882a593Smuzhiyun            obj->id = id;
475*4882a593Smuzhiyun            obj->popularity = 0;
476*4882a593Smuzhiyun
477*4882a593Smuzhiyun            mutex_lock(&cache_lock);
478*4882a593Smuzhiyun            __cache_add(obj);
479*4882a593Smuzhiyun            mutex_unlock(&cache_lock);
480*4882a593Smuzhiyun            return 0;
481*4882a593Smuzhiyun    }
482*4882a593Smuzhiyun
483*4882a593Smuzhiyun    void cache_delete(int id)
484*4882a593Smuzhiyun    {
485*4882a593Smuzhiyun            mutex_lock(&cache_lock);
486*4882a593Smuzhiyun            __cache_delete(__cache_find(id));
487*4882a593Smuzhiyun            mutex_unlock(&cache_lock);
488*4882a593Smuzhiyun    }
489*4882a593Smuzhiyun
490*4882a593Smuzhiyun    int cache_find(int id, char *name)
491*4882a593Smuzhiyun    {
492*4882a593Smuzhiyun            struct object *obj;
493*4882a593Smuzhiyun            int ret = -ENOENT;
494*4882a593Smuzhiyun
495*4882a593Smuzhiyun            mutex_lock(&cache_lock);
496*4882a593Smuzhiyun            obj = __cache_find(id);
497*4882a593Smuzhiyun            if (obj) {
498*4882a593Smuzhiyun                    ret = 0;
499*4882a593Smuzhiyun                    strcpy(name, obj->name);
500*4882a593Smuzhiyun            }
501*4882a593Smuzhiyun            mutex_unlock(&cache_lock);
502*4882a593Smuzhiyun            return ret;
503*4882a593Smuzhiyun    }
504*4882a593Smuzhiyun
505*4882a593SmuzhiyunDa notare che ci assicuriamo sempre di trattenere cache_lock quando
506*4882a593Smuzhiyunaggiungiamo, rimuoviamo od ispezioniamo la memoria: sia la struttura
507*4882a593Smuzhiyundella memoria che il suo contenuto sono protetti dal *lock*. Questo
508*4882a593Smuzhiyuncaso è semplice dato che copiamo i dati dall'utente e non permettiamo
509*4882a593Smuzhiyunmai loro di accedere direttamente agli oggetti.
510*4882a593Smuzhiyun
511*4882a593SmuzhiyunC'è una piccola ottimizzazione qui: nella funzione cache_add()
512*4882a593Smuzhiyunimpostiamo i campi dell'oggetto prima di acquisire il *lock*. Questo è
513*4882a593Smuzhiyunsicuro perché nessun altro potrà accedervi finché non lo inseriremo
514*4882a593Smuzhiyunnella memoria.
515*4882a593Smuzhiyun
516*4882a593SmuzhiyunAccesso dal contesto utente
517*4882a593Smuzhiyun---------------------------
518*4882a593Smuzhiyun
519*4882a593SmuzhiyunOra consideriamo il caso in cui cache_find() può essere invocata
520*4882a593Smuzhiyundal contesto d'interruzione: sia hardware che software. Un esempio potrebbe
521*4882a593Smuzhiyunessere un timer che elimina oggetti dalla memoria.
522*4882a593Smuzhiyun
523*4882a593SmuzhiyunQui di seguito troverete la modifica nel formato *patch*: le righe ``-``
524*4882a593Smuzhiyunsono quelle rimosse, mentre quelle ``+`` sono quelle aggiunte.
525*4882a593Smuzhiyun
526*4882a593Smuzhiyun::
527*4882a593Smuzhiyun
528*4882a593Smuzhiyun    --- cache.c.usercontext 2003-12-09 13:58:54.000000000 +1100
529*4882a593Smuzhiyun    +++ cache.c.interrupt   2003-12-09 14:07:49.000000000 +1100
530*4882a593Smuzhiyun    @@ -12,7 +12,7 @@
531*4882a593Smuzhiyun             int popularity;
532*4882a593Smuzhiyun     };
533*4882a593Smuzhiyun
534*4882a593Smuzhiyun    -static DEFINE_MUTEX(cache_lock);
535*4882a593Smuzhiyun    +static DEFINE_SPINLOCK(cache_lock);
536*4882a593Smuzhiyun     static LIST_HEAD(cache);
537*4882a593Smuzhiyun     static unsigned int cache_num = 0;
538*4882a593Smuzhiyun     #define MAX_CACHE_SIZE 10
539*4882a593Smuzhiyun    @@ -55,6 +55,7 @@
540*4882a593Smuzhiyun     int cache_add(int id, const char *name)
541*4882a593Smuzhiyun     {
542*4882a593Smuzhiyun             struct object *obj;
543*4882a593Smuzhiyun    +        unsigned long flags;
544*4882a593Smuzhiyun
545*4882a593Smuzhiyun             if ((obj = kmalloc(sizeof(*obj), GFP_KERNEL)) == NULL)
546*4882a593Smuzhiyun                     return -ENOMEM;
547*4882a593Smuzhiyun    @@ -63,30 +64,33 @@
548*4882a593Smuzhiyun             obj->id = id;
549*4882a593Smuzhiyun             obj->popularity = 0;
550*4882a593Smuzhiyun
551*4882a593Smuzhiyun    -        mutex_lock(&cache_lock);
552*4882a593Smuzhiyun    +        spin_lock_irqsave(&cache_lock, flags);
553*4882a593Smuzhiyun             __cache_add(obj);
554*4882a593Smuzhiyun    -        mutex_unlock(&cache_lock);
555*4882a593Smuzhiyun    +        spin_unlock_irqrestore(&cache_lock, flags);
556*4882a593Smuzhiyun             return 0;
557*4882a593Smuzhiyun     }
558*4882a593Smuzhiyun
559*4882a593Smuzhiyun     void cache_delete(int id)
560*4882a593Smuzhiyun     {
561*4882a593Smuzhiyun    -        mutex_lock(&cache_lock);
562*4882a593Smuzhiyun    +        unsigned long flags;
563*4882a593Smuzhiyun    +
564*4882a593Smuzhiyun    +        spin_lock_irqsave(&cache_lock, flags);
565*4882a593Smuzhiyun             __cache_delete(__cache_find(id));
566*4882a593Smuzhiyun    -        mutex_unlock(&cache_lock);
567*4882a593Smuzhiyun    +        spin_unlock_irqrestore(&cache_lock, flags);
568*4882a593Smuzhiyun     }
569*4882a593Smuzhiyun
570*4882a593Smuzhiyun     int cache_find(int id, char *name)
571*4882a593Smuzhiyun     {
572*4882a593Smuzhiyun             struct object *obj;
573*4882a593Smuzhiyun             int ret = -ENOENT;
574*4882a593Smuzhiyun    +        unsigned long flags;
575*4882a593Smuzhiyun
576*4882a593Smuzhiyun    -        mutex_lock(&cache_lock);
577*4882a593Smuzhiyun    +        spin_lock_irqsave(&cache_lock, flags);
578*4882a593Smuzhiyun             obj = __cache_find(id);
579*4882a593Smuzhiyun             if (obj) {
580*4882a593Smuzhiyun                     ret = 0;
581*4882a593Smuzhiyun                     strcpy(name, obj->name);
582*4882a593Smuzhiyun             }
583*4882a593Smuzhiyun    -        mutex_unlock(&cache_lock);
584*4882a593Smuzhiyun    +        spin_unlock_irqrestore(&cache_lock, flags);
585*4882a593Smuzhiyun             return ret;
586*4882a593Smuzhiyun     }
587*4882a593Smuzhiyun
588*4882a593SmuzhiyunDa notare che spin_lock_irqsave() disabiliterà le interruzioni
589*4882a593Smuzhiyunse erano attive, altrimenti non farà niente (quando siamo già in un contesto
590*4882a593Smuzhiyund'interruzione); dunque queste funzioni possono essere chiamante in
591*4882a593Smuzhiyunsicurezza da qualsiasi contesto.
592*4882a593Smuzhiyun
593*4882a593SmuzhiyunSfortunatamente, cache_add() invoca kmalloc() con
594*4882a593Smuzhiyunl'opzione ``GFP_KERNEL`` che è permessa solo in contesto utente. Ho supposto
595*4882a593Smuzhiyunche cache_add() venga chiamata dal contesto utente, altrimenti
596*4882a593Smuzhiyunquesta opzione deve diventare un parametro di cache_add().
597*4882a593Smuzhiyun
598*4882a593SmuzhiyunEsporre gli oggetti al di fuori del file
599*4882a593Smuzhiyun----------------------------------------
600*4882a593Smuzhiyun
601*4882a593SmuzhiyunSe i vostri oggetti contengono più informazioni, potrebbe non essere
602*4882a593Smuzhiyunsufficiente copiare i dati avanti e indietro: per esempio, altre parti del
603*4882a593Smuzhiyuncodice potrebbero avere un puntatore a questi oggetti piuttosto che cercarli
604*4882a593Smuzhiyunogni volta. Questo introduce due problemi.
605*4882a593Smuzhiyun
606*4882a593SmuzhiyunIl primo problema è che utilizziamo ``cache_lock`` per proteggere gli oggetti:
607*4882a593Smuzhiyundobbiamo renderlo dinamico così che il resto del codice possa usarlo. Questo
608*4882a593Smuzhiyunrende la sincronizzazione più complicata dato che non avviene più in un unico
609*4882a593Smuzhiyunposto.
610*4882a593Smuzhiyun
611*4882a593SmuzhiyunIl secondo problema è il problema del ciclo di vita: se un'altra struttura
612*4882a593Smuzhiyunmantiene un puntatore ad un oggetto, presumibilmente si aspetta che questo
613*4882a593Smuzhiyunpuntatore rimanga valido. Sfortunatamente, questo è garantito solo mentre
614*4882a593Smuzhiyunsi trattiene il *lock*, altrimenti qualcuno potrebbe chiamare
615*4882a593Smuzhiyuncache_delete() o peggio, aggiungere un oggetto che riutilizza lo
616*4882a593Smuzhiyunstesso indirizzo.
617*4882a593Smuzhiyun
618*4882a593SmuzhiyunDato che c'è un solo *lock*, non potete trattenerlo a vita: altrimenti
619*4882a593Smuzhiyunnessun altro potrà eseguire il proprio lavoro.
620*4882a593Smuzhiyun
621*4882a593SmuzhiyunLa soluzione a questo problema è l'uso di un contatore di riferimenti:
622*4882a593Smuzhiyunchiunque punti ad un oggetto deve incrementare il contatore, e decrementarlo
623*4882a593Smuzhiyunquando il puntatore non viene più usato. Quando il contatore raggiunge lo zero
624*4882a593Smuzhiyunsignifica che non è più usato e l'oggetto può essere rimosso.
625*4882a593Smuzhiyun
626*4882a593SmuzhiyunEcco il codice::
627*4882a593Smuzhiyun
628*4882a593Smuzhiyun    --- cache.c.interrupt   2003-12-09 14:25:43.000000000 +1100
629*4882a593Smuzhiyun    +++ cache.c.refcnt  2003-12-09 14:33:05.000000000 +1100
630*4882a593Smuzhiyun    @@ -7,6 +7,7 @@
631*4882a593Smuzhiyun     struct object
632*4882a593Smuzhiyun     {
633*4882a593Smuzhiyun             struct list_head list;
634*4882a593Smuzhiyun    +        unsigned int refcnt;
635*4882a593Smuzhiyun             int id;
636*4882a593Smuzhiyun             char name[32];
637*4882a593Smuzhiyun             int popularity;
638*4882a593Smuzhiyun    @@ -17,6 +18,35 @@
639*4882a593Smuzhiyun     static unsigned int cache_num = 0;
640*4882a593Smuzhiyun     #define MAX_CACHE_SIZE 10
641*4882a593Smuzhiyun
642*4882a593Smuzhiyun    +static void __object_put(struct object *obj)
643*4882a593Smuzhiyun    +{
644*4882a593Smuzhiyun    +        if (--obj->refcnt == 0)
645*4882a593Smuzhiyun    +                kfree(obj);
646*4882a593Smuzhiyun    +}
647*4882a593Smuzhiyun    +
648*4882a593Smuzhiyun    +static void __object_get(struct object *obj)
649*4882a593Smuzhiyun    +{
650*4882a593Smuzhiyun    +        obj->refcnt++;
651*4882a593Smuzhiyun    +}
652*4882a593Smuzhiyun    +
653*4882a593Smuzhiyun    +void object_put(struct object *obj)
654*4882a593Smuzhiyun    +{
655*4882a593Smuzhiyun    +        unsigned long flags;
656*4882a593Smuzhiyun    +
657*4882a593Smuzhiyun    +        spin_lock_irqsave(&cache_lock, flags);
658*4882a593Smuzhiyun    +        __object_put(obj);
659*4882a593Smuzhiyun    +        spin_unlock_irqrestore(&cache_lock, flags);
660*4882a593Smuzhiyun    +}
661*4882a593Smuzhiyun    +
662*4882a593Smuzhiyun    +void object_get(struct object *obj)
663*4882a593Smuzhiyun    +{
664*4882a593Smuzhiyun    +        unsigned long flags;
665*4882a593Smuzhiyun    +
666*4882a593Smuzhiyun    +        spin_lock_irqsave(&cache_lock, flags);
667*4882a593Smuzhiyun    +        __object_get(obj);
668*4882a593Smuzhiyun    +        spin_unlock_irqrestore(&cache_lock, flags);
669*4882a593Smuzhiyun    +}
670*4882a593Smuzhiyun    +
671*4882a593Smuzhiyun     /* Must be holding cache_lock */
672*4882a593Smuzhiyun     static struct object *__cache_find(int id)
673*4882a593Smuzhiyun     {
674*4882a593Smuzhiyun    @@ -35,6 +65,7 @@
675*4882a593Smuzhiyun     {
676*4882a593Smuzhiyun             BUG_ON(!obj);
677*4882a593Smuzhiyun             list_del(&obj->list);
678*4882a593Smuzhiyun    +        __object_put(obj);
679*4882a593Smuzhiyun             cache_num--;
680*4882a593Smuzhiyun     }
681*4882a593Smuzhiyun
682*4882a593Smuzhiyun    @@ -63,6 +94,7 @@
683*4882a593Smuzhiyun             strscpy(obj->name, name, sizeof(obj->name));
684*4882a593Smuzhiyun             obj->id = id;
685*4882a593Smuzhiyun             obj->popularity = 0;
686*4882a593Smuzhiyun    +        obj->refcnt = 1; /* The cache holds a reference */
687*4882a593Smuzhiyun
688*4882a593Smuzhiyun             spin_lock_irqsave(&cache_lock, flags);
689*4882a593Smuzhiyun             __cache_add(obj);
690*4882a593Smuzhiyun    @@ -79,18 +111,15 @@
691*4882a593Smuzhiyun             spin_unlock_irqrestore(&cache_lock, flags);
692*4882a593Smuzhiyun     }
693*4882a593Smuzhiyun
694*4882a593Smuzhiyun    -int cache_find(int id, char *name)
695*4882a593Smuzhiyun    +struct object *cache_find(int id)
696*4882a593Smuzhiyun     {
697*4882a593Smuzhiyun             struct object *obj;
698*4882a593Smuzhiyun    -        int ret = -ENOENT;
699*4882a593Smuzhiyun             unsigned long flags;
700*4882a593Smuzhiyun
701*4882a593Smuzhiyun             spin_lock_irqsave(&cache_lock, flags);
702*4882a593Smuzhiyun             obj = __cache_find(id);
703*4882a593Smuzhiyun    -        if (obj) {
704*4882a593Smuzhiyun    -                ret = 0;
705*4882a593Smuzhiyun    -                strcpy(name, obj->name);
706*4882a593Smuzhiyun    -        }
707*4882a593Smuzhiyun    +        if (obj)
708*4882a593Smuzhiyun    +                __object_get(obj);
709*4882a593Smuzhiyun             spin_unlock_irqrestore(&cache_lock, flags);
710*4882a593Smuzhiyun    -        return ret;
711*4882a593Smuzhiyun    +        return obj;
712*4882a593Smuzhiyun     }
713*4882a593Smuzhiyun
714*4882a593SmuzhiyunAbbiamo incapsulato il contatore di riferimenti nelle tipiche funzioni
715*4882a593Smuzhiyundi 'get' e 'put'. Ora possiamo ritornare l'oggetto da cache_find()
716*4882a593Smuzhiyuncol vantaggio che l'utente può dormire trattenendo l'oggetto (per esempio,
717*4882a593Smuzhiyuncopy_to_user() per copiare il nome verso lo spazio utente).
718*4882a593Smuzhiyun
719*4882a593SmuzhiyunUn altro punto da notare è che ho detto che il contatore dovrebbe incrementarsi
720*4882a593Smuzhiyunper ogni puntatore ad un oggetto: quindi il contatore di riferimenti è 1
721*4882a593Smuzhiyunquando l'oggetto viene inserito nella memoria. In altre versione il framework
722*4882a593Smuzhiyunnon trattiene un riferimento per se, ma diventa più complicato.
723*4882a593Smuzhiyun
724*4882a593SmuzhiyunUsare operazioni atomiche per il contatore di riferimenti
725*4882a593Smuzhiyun~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
726*4882a593Smuzhiyun
727*4882a593SmuzhiyunIn sostanza, :c:type:`atomic_t` viene usato come contatore di riferimenti.
728*4882a593SmuzhiyunCi sono un certo numbero di operazioni atomiche definite
729*4882a593Smuzhiyunin ``include/asm/atomic.h``: queste sono garantite come atomiche su qualsiasi
730*4882a593Smuzhiyunprocessore del sistema, quindi non sono necessari i *lock*. In questo caso è
731*4882a593Smuzhiyunpiù semplice rispetto all'uso degli spinlock, benché l'uso degli spinlock
732*4882a593Smuzhiyunsia più elegante per casi non banali. Le funzioni atomic_inc() e
733*4882a593Smuzhiyunatomic_dec_and_test() vengono usate al posto dei tipici operatori di
734*4882a593Smuzhiyunincremento e decremento, e i *lock* non sono più necessari per proteggere il
735*4882a593Smuzhiyuncontatore stesso.
736*4882a593Smuzhiyun
737*4882a593Smuzhiyun::
738*4882a593Smuzhiyun
739*4882a593Smuzhiyun    --- cache.c.refcnt  2003-12-09 15:00:35.000000000 +1100
740*4882a593Smuzhiyun    +++ cache.c.refcnt-atomic   2003-12-11 15:49:42.000000000 +1100
741*4882a593Smuzhiyun    @@ -7,7 +7,7 @@
742*4882a593Smuzhiyun     struct object
743*4882a593Smuzhiyun     {
744*4882a593Smuzhiyun             struct list_head list;
745*4882a593Smuzhiyun    -        unsigned int refcnt;
746*4882a593Smuzhiyun    +        atomic_t refcnt;
747*4882a593Smuzhiyun             int id;
748*4882a593Smuzhiyun             char name[32];
749*4882a593Smuzhiyun             int popularity;
750*4882a593Smuzhiyun    @@ -18,33 +18,15 @@
751*4882a593Smuzhiyun     static unsigned int cache_num = 0;
752*4882a593Smuzhiyun     #define MAX_CACHE_SIZE 10
753*4882a593Smuzhiyun
754*4882a593Smuzhiyun    -static void __object_put(struct object *obj)
755*4882a593Smuzhiyun    -{
756*4882a593Smuzhiyun    -        if (--obj->refcnt == 0)
757*4882a593Smuzhiyun    -                kfree(obj);
758*4882a593Smuzhiyun    -}
759*4882a593Smuzhiyun    -
760*4882a593Smuzhiyun    -static void __object_get(struct object *obj)
761*4882a593Smuzhiyun    -{
762*4882a593Smuzhiyun    -        obj->refcnt++;
763*4882a593Smuzhiyun    -}
764*4882a593Smuzhiyun    -
765*4882a593Smuzhiyun     void object_put(struct object *obj)
766*4882a593Smuzhiyun     {
767*4882a593Smuzhiyun    -        unsigned long flags;
768*4882a593Smuzhiyun    -
769*4882a593Smuzhiyun    -        spin_lock_irqsave(&cache_lock, flags);
770*4882a593Smuzhiyun    -        __object_put(obj);
771*4882a593Smuzhiyun    -        spin_unlock_irqrestore(&cache_lock, flags);
772*4882a593Smuzhiyun    +        if (atomic_dec_and_test(&obj->refcnt))
773*4882a593Smuzhiyun    +                kfree(obj);
774*4882a593Smuzhiyun     }
775*4882a593Smuzhiyun
776*4882a593Smuzhiyun     void object_get(struct object *obj)
777*4882a593Smuzhiyun     {
778*4882a593Smuzhiyun    -        unsigned long flags;
779*4882a593Smuzhiyun    -
780*4882a593Smuzhiyun    -        spin_lock_irqsave(&cache_lock, flags);
781*4882a593Smuzhiyun    -        __object_get(obj);
782*4882a593Smuzhiyun    -        spin_unlock_irqrestore(&cache_lock, flags);
783*4882a593Smuzhiyun    +        atomic_inc(&obj->refcnt);
784*4882a593Smuzhiyun     }
785*4882a593Smuzhiyun
786*4882a593Smuzhiyun     /* Must be holding cache_lock */
787*4882a593Smuzhiyun    @@ -65,7 +47,7 @@
788*4882a593Smuzhiyun     {
789*4882a593Smuzhiyun             BUG_ON(!obj);
790*4882a593Smuzhiyun             list_del(&obj->list);
791*4882a593Smuzhiyun    -        __object_put(obj);
792*4882a593Smuzhiyun    +        object_put(obj);
793*4882a593Smuzhiyun             cache_num--;
794*4882a593Smuzhiyun     }
795*4882a593Smuzhiyun
796*4882a593Smuzhiyun    @@ -94,7 +76,7 @@
797*4882a593Smuzhiyun             strscpy(obj->name, name, sizeof(obj->name));
798*4882a593Smuzhiyun             obj->id = id;
799*4882a593Smuzhiyun             obj->popularity = 0;
800*4882a593Smuzhiyun    -        obj->refcnt = 1; /* The cache holds a reference */
801*4882a593Smuzhiyun    +        atomic_set(&obj->refcnt, 1); /* The cache holds a reference */
802*4882a593Smuzhiyun
803*4882a593Smuzhiyun             spin_lock_irqsave(&cache_lock, flags);
804*4882a593Smuzhiyun             __cache_add(obj);
805*4882a593Smuzhiyun    @@ -119,7 +101,7 @@
806*4882a593Smuzhiyun             spin_lock_irqsave(&cache_lock, flags);
807*4882a593Smuzhiyun             obj = __cache_find(id);
808*4882a593Smuzhiyun             if (obj)
809*4882a593Smuzhiyun    -                __object_get(obj);
810*4882a593Smuzhiyun    +                object_get(obj);
811*4882a593Smuzhiyun             spin_unlock_irqrestore(&cache_lock, flags);
812*4882a593Smuzhiyun             return obj;
813*4882a593Smuzhiyun     }
814*4882a593Smuzhiyun
815*4882a593SmuzhiyunProteggere l'oggetto stesso
816*4882a593Smuzhiyun---------------------------
817*4882a593Smuzhiyun
818*4882a593SmuzhiyunIn questo esempio, assumiamo che gli oggetti (ad eccezione del contatore
819*4882a593Smuzhiyundi riferimenti) non cambino mai dopo la loro creazione. Se vogliamo permettere
820*4882a593Smuzhiyunal nome di cambiare abbiamo tre possibilità:
821*4882a593Smuzhiyun
822*4882a593Smuzhiyun-  Si può togliere static da ``cache_lock`` e dire agli utenti che devono
823*4882a593Smuzhiyun   trattenere il *lock* prima di modificare il nome di un oggetto.
824*4882a593Smuzhiyun
825*4882a593Smuzhiyun-  Si può fornire una funzione cache_obj_rename() che prende il
826*4882a593Smuzhiyun   *lock* e cambia il nome per conto del chiamante; si dirà poi agli utenti
827*4882a593Smuzhiyun   di usare questa funzione.
828*4882a593Smuzhiyun
829*4882a593Smuzhiyun-  Si può decidere che ``cache_lock`` protegge solo la memoria stessa, ed
830*4882a593Smuzhiyun   un altro *lock* è necessario per la protezione del nome.
831*4882a593Smuzhiyun
832*4882a593SmuzhiyunTeoricamente, possiamo avere un *lock* per ogni campo e per ogni oggetto.
833*4882a593SmuzhiyunIn pratica, le varianti più comuni sono:
834*4882a593Smuzhiyun
835*4882a593Smuzhiyun-  un *lock* che protegge l'infrastruttura (la lista ``cache`` di questo
836*4882a593Smuzhiyun   esempio) e gli oggetti. Questo è quello che abbiamo fatto finora.
837*4882a593Smuzhiyun
838*4882a593Smuzhiyun-  un *lock* che protegge l'infrastruttura (inclusi i puntatori alla lista
839*4882a593Smuzhiyun   negli oggetti), e un *lock* nell'oggetto per proteggere il resto
840*4882a593Smuzhiyun   dell'oggetto stesso.
841*4882a593Smuzhiyun
842*4882a593Smuzhiyun-  *lock* multipli per proteggere l'infrastruttura (per esempio un *lock*
843*4882a593Smuzhiyun   per ogni lista), possibilmente con un *lock* per oggetto.
844*4882a593Smuzhiyun
845*4882a593SmuzhiyunQui di seguito un'implementazione con "un lock per oggetto":
846*4882a593Smuzhiyun
847*4882a593Smuzhiyun::
848*4882a593Smuzhiyun
849*4882a593Smuzhiyun    --- cache.c.refcnt-atomic   2003-12-11 15:50:54.000000000 +1100
850*4882a593Smuzhiyun    +++ cache.c.perobjectlock   2003-12-11 17:15:03.000000000 +1100
851*4882a593Smuzhiyun    @@ -6,11 +6,17 @@
852*4882a593Smuzhiyun
853*4882a593Smuzhiyun     struct object
854*4882a593Smuzhiyun     {
855*4882a593Smuzhiyun    +        /* These two protected by cache_lock. */
856*4882a593Smuzhiyun             struct list_head list;
857*4882a593Smuzhiyun    +        int popularity;
858*4882a593Smuzhiyun    +
859*4882a593Smuzhiyun             atomic_t refcnt;
860*4882a593Smuzhiyun    +
861*4882a593Smuzhiyun    +        /* Doesn't change once created. */
862*4882a593Smuzhiyun             int id;
863*4882a593Smuzhiyun    +
864*4882a593Smuzhiyun    +        spinlock_t lock; /* Protects the name */
865*4882a593Smuzhiyun             char name[32];
866*4882a593Smuzhiyun    -        int popularity;
867*4882a593Smuzhiyun     };
868*4882a593Smuzhiyun
869*4882a593Smuzhiyun     static DEFINE_SPINLOCK(cache_lock);
870*4882a593Smuzhiyun    @@ -77,6 +84,7 @@
871*4882a593Smuzhiyun             obj->id = id;
872*4882a593Smuzhiyun             obj->popularity = 0;
873*4882a593Smuzhiyun             atomic_set(&obj->refcnt, 1); /* The cache holds a reference */
874*4882a593Smuzhiyun    +        spin_lock_init(&obj->lock);
875*4882a593Smuzhiyun
876*4882a593Smuzhiyun             spin_lock_irqsave(&cache_lock, flags);
877*4882a593Smuzhiyun             __cache_add(obj);
878*4882a593Smuzhiyun
879*4882a593SmuzhiyunDa notare che ho deciso che il contatore di popolarità dovesse essere
880*4882a593Smuzhiyunprotetto da ``cache_lock`` piuttosto che dal *lock* dell'oggetto; questo
881*4882a593Smuzhiyunperché è logicamente parte dell'infrastruttura (come
882*4882a593Smuzhiyun:c:type:`struct list_head <list_head>` nell'oggetto). In questo modo,
883*4882a593Smuzhiyunin __cache_add(), non ho bisogno di trattenere il *lock* di ogni
884*4882a593Smuzhiyunoggetto mentre si cerca il meno popolare.
885*4882a593Smuzhiyun
886*4882a593SmuzhiyunHo anche deciso che il campo id è immutabile, quindi non ho bisogno di
887*4882a593Smuzhiyuntrattenere il lock dell'oggetto quando si usa __cache_find()
888*4882a593Smuzhiyunper leggere questo campo; il *lock* dell'oggetto è usato solo dal chiamante
889*4882a593Smuzhiyunche vuole leggere o scrivere il campo name.
890*4882a593Smuzhiyun
891*4882a593SmuzhiyunInoltre, da notare che ho aggiunto un commento che descrive i dati che sono
892*4882a593Smuzhiyunprotetti dal *lock*. Questo è estremamente importante in quanto descrive il
893*4882a593Smuzhiyuncomportamento del codice, che altrimenti sarebbe di difficile comprensione
894*4882a593Smuzhiyunleggendo solamente il codice. E come dice Alan Cox: “Lock data, not code”.
895*4882a593Smuzhiyun
896*4882a593SmuzhiyunProblemi comuni
897*4882a593Smuzhiyun===============
898*4882a593Smuzhiyun
899*4882a593Smuzhiyun.. _`it_deadlock`:
900*4882a593Smuzhiyun
901*4882a593SmuzhiyunStallo: semplice ed avanzato
902*4882a593Smuzhiyun----------------------------
903*4882a593Smuzhiyun
904*4882a593SmuzhiyunEsiste un tipo di  baco dove un pezzo di codice tenta di trattenere uno
905*4882a593Smuzhiyunspinlock due volte: questo rimarrà in attesa attiva per sempre aspettando che
906*4882a593Smuzhiyunil *lock* venga rilasciato (in Linux spinlocks, rwlocks e mutex non sono
907*4882a593Smuzhiyunricorsivi).
908*4882a593SmuzhiyunQuesto è facile da diagnosticare: non è uno di quei problemi che ti tengono
909*4882a593Smuzhiyunsveglio 5 notti a parlare da solo.
910*4882a593Smuzhiyun
911*4882a593SmuzhiyunUn caso un pochino più complesso; immaginate d'avere una spazio condiviso
912*4882a593Smuzhiyunfra un softirq ed il contesto utente. Se usate spin_lock() per
913*4882a593Smuzhiyunproteggerlo, il contesto utente potrebbe essere interrotto da un softirq
914*4882a593Smuzhiyunmentre trattiene il lock, da qui il softirq rimarrà in attesa attiva provando
915*4882a593Smuzhiyunad acquisire il *lock* già trattenuto nel contesto utente.
916*4882a593Smuzhiyun
917*4882a593SmuzhiyunQuesti casi sono chiamati stalli (*deadlock*), e come mostrato qui sopra,
918*4882a593Smuzhiyunpuò succedere anche con un solo processore (Ma non sui sistemi
919*4882a593Smuzhiyunmonoprocessore perché gli spinlock spariscano quando il kernel è compilato
920*4882a593Smuzhiyuncon ``CONFIG_SMP``\ =n. Nonostante ciò, nel secondo caso avrete comunque
921*4882a593Smuzhiyununa corruzione dei dati).
922*4882a593Smuzhiyun
923*4882a593SmuzhiyunQuesti casi sono facili da diagnosticare; sui sistemi multi-processore
924*4882a593Smuzhiyunil supervisione (*watchdog*) o l'opzione di compilazione ``DEBUG_SPINLOCK``
925*4882a593Smuzhiyun(``include/linux/spinlock.h``) permettono di scovare immediatamente quando
926*4882a593Smuzhiyunsuccedono.
927*4882a593Smuzhiyun
928*4882a593SmuzhiyunEsiste un caso più complesso che è conosciuto come l'abbraccio della morte;
929*4882a593Smuzhiyunquesto coinvolge due o più *lock*. Diciamo che avete un vettore di hash in cui
930*4882a593Smuzhiyunogni elemento è uno spinlock a cui è associata una lista di elementi con lo
931*4882a593Smuzhiyunstesso hash. In un gestore di interruzioni software, dovete modificare un
932*4882a593Smuzhiyunoggetto e spostarlo su un altro hash; quindi dovrete trattenete lo spinlock
933*4882a593Smuzhiyundel vecchio hash e di quello nuovo, quindi rimuovere l'oggetto dal vecchio ed
934*4882a593Smuzhiyuninserirlo nel nuovo.
935*4882a593Smuzhiyun
936*4882a593SmuzhiyunQui abbiamo due problemi. Primo, se il vostro codice prova a spostare un
937*4882a593Smuzhiyunoggetto all'interno della stessa lista, otterrete uno stallo visto che
938*4882a593Smuzhiyuntenterà di trattenere lo stesso *lock* due volte. Secondo, se la stessa
939*4882a593Smuzhiyuninterruzione software su un altro processore sta tentando di spostare
940*4882a593Smuzhiyunun altro oggetto nella direzione opposta, potrebbe accadere quanto segue:
941*4882a593Smuzhiyun
942*4882a593Smuzhiyun+---------------------------------+---------------------------------+
943*4882a593Smuzhiyun| CPU 1                           | CPU 2                           |
944*4882a593Smuzhiyun+=================================+=================================+
945*4882a593Smuzhiyun| Trattiene *lock* A -> OK        | Trattiene *lock* B -> OK        |
946*4882a593Smuzhiyun+---------------------------------+---------------------------------+
947*4882a593Smuzhiyun| Trattiene *lock* B -> attesa    | Trattiene *lock* A -> attesa    |
948*4882a593Smuzhiyun+---------------------------------+---------------------------------+
949*4882a593Smuzhiyun
950*4882a593SmuzhiyunTable: Conseguenze
951*4882a593Smuzhiyun
952*4882a593SmuzhiyunEntrambe i processori rimarranno in attesa attiva sul *lock* per sempre,
953*4882a593Smuzhiyunaspettando che l'altro lo rilasci. Sembra e puzza come un blocco totale.
954*4882a593Smuzhiyun
955*4882a593SmuzhiyunPrevenire gli stalli
956*4882a593Smuzhiyun--------------------
957*4882a593Smuzhiyun
958*4882a593SmuzhiyunI libri di testo vi diranno che se trattenete i *lock* sempre nello stesso
959*4882a593Smuzhiyunordine non avrete mai un simile stallo. La pratica vi dirà che questo
960*4882a593Smuzhiyunapproccio non funziona all'ingrandirsi del sistema: quando creo un nuovo
961*4882a593Smuzhiyun*lock* non ne capisco abbastanza del kernel per dire in quale dei 5000 *lock*
962*4882a593Smuzhiyunsi incastrerà.
963*4882a593Smuzhiyun
964*4882a593SmuzhiyunI *lock* migliori sono quelli incapsulati: non vengono esposti nei file di
965*4882a593Smuzhiyunintestazione, e non vengono mai trattenuti fuori dallo stesso file. Potete
966*4882a593Smuzhiyunrileggere questo codice e vedere che non ci sarà mai uno stallo perché
967*4882a593Smuzhiyunnon tenterà mai di trattenere un altro *lock* quando lo ha già.
968*4882a593SmuzhiyunLe persone che usano il vostro codice non devono nemmeno sapere che voi
969*4882a593Smuzhiyunstate usando dei *lock*.
970*4882a593Smuzhiyun
971*4882a593SmuzhiyunUn classico problema deriva dall'uso di *callback* e di *hook*: se li
972*4882a593Smuzhiyunchiamate mentre trattenete un *lock*, rischiate uno stallo o un abbraccio
973*4882a593Smuzhiyundella morte (chi lo sa cosa farà una *callback*?).
974*4882a593Smuzhiyun
975*4882a593SmuzhiyunOssessiva prevenzione degli stalli
976*4882a593Smuzhiyun~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
977*4882a593Smuzhiyun
978*4882a593SmuzhiyunGli stalli sono un problema, ma non così terribile come la corruzione dei dati.
979*4882a593SmuzhiyunUn pezzo di codice trattiene un *lock* di lettura, cerca in una lista,
980*4882a593Smuzhiyunfallisce nel trovare quello che vuole, quindi rilascia il *lock* di lettura,
981*4882a593Smuzhiyuntrattiene un *lock* di scrittura ed inserisce un oggetto; questo genere di
982*4882a593Smuzhiyuncodice presenta una corsa critica.
983*4882a593Smuzhiyun
984*4882a593SmuzhiyunSe non riuscite a capire il perché, per favore state alla larga dal mio
985*4882a593Smuzhiyuncodice.
986*4882a593Smuzhiyun
987*4882a593Smuzhiyuncorsa fra temporizzatori: un passatempo del kernel
988*4882a593Smuzhiyun--------------------------------------------------
989*4882a593Smuzhiyun
990*4882a593SmuzhiyunI temporizzatori potrebbero avere dei problemi con le corse critiche.
991*4882a593SmuzhiyunConsiderate una collezione di oggetti (liste, hash, eccetera) dove ogni oggetto
992*4882a593Smuzhiyunha un temporizzatore che sta per distruggerlo.
993*4882a593Smuzhiyun
994*4882a593SmuzhiyunSe volete eliminare l'intera collezione (diciamo quando rimuovete un modulo),
995*4882a593Smuzhiyunpotreste fare come segue::
996*4882a593Smuzhiyun
997*4882a593Smuzhiyun            /* THIS CODE BAD BAD BAD BAD: IF IT WAS ANY WORSE IT WOULD USE
998*4882a593Smuzhiyun               HUNGARIAN NOTATION */
999*4882a593Smuzhiyun            spin_lock_bh(&list_lock);
1000*4882a593Smuzhiyun
1001*4882a593Smuzhiyun            while (list) {
1002*4882a593Smuzhiyun                    struct foo *next = list->next;
1003*4882a593Smuzhiyun                    del_timer(&list->timer);
1004*4882a593Smuzhiyun                    kfree(list);
1005*4882a593Smuzhiyun                    list = next;
1006*4882a593Smuzhiyun            }
1007*4882a593Smuzhiyun
1008*4882a593Smuzhiyun            spin_unlock_bh(&list_lock);
1009*4882a593Smuzhiyun
1010*4882a593SmuzhiyunPrimo o poi, questo esploderà su un sistema multiprocessore perché un
1011*4882a593Smuzhiyuntemporizzatore potrebbe essere già partiro prima di spin_lock_bh(),
1012*4882a593Smuzhiyune prenderà il *lock* solo dopo spin_unlock_bh(), e cercherà
1013*4882a593Smuzhiyundi eliminare il suo oggetto (che però è già stato eliminato).
1014*4882a593Smuzhiyun
1015*4882a593SmuzhiyunQuesto può essere evitato controllando il valore di ritorno di
1016*4882a593Smuzhiyundel_timer(): se ritorna 1, il temporizzatore è stato già
1017*4882a593Smuzhiyunrimosso. Se 0, significa (in questo caso) che il temporizzatore è in
1018*4882a593Smuzhiyunesecuzione, quindi possiamo fare come segue::
1019*4882a593Smuzhiyun
1020*4882a593Smuzhiyun            retry:
1021*4882a593Smuzhiyun                    spin_lock_bh(&list_lock);
1022*4882a593Smuzhiyun
1023*4882a593Smuzhiyun                    while (list) {
1024*4882a593Smuzhiyun                            struct foo *next = list->next;
1025*4882a593Smuzhiyun                            if (!del_timer(&list->timer)) {
1026*4882a593Smuzhiyun                                    /* Give timer a chance to delete this */
1027*4882a593Smuzhiyun                                    spin_unlock_bh(&list_lock);
1028*4882a593Smuzhiyun                                    goto retry;
1029*4882a593Smuzhiyun                            }
1030*4882a593Smuzhiyun                            kfree(list);
1031*4882a593Smuzhiyun                            list = next;
1032*4882a593Smuzhiyun                    }
1033*4882a593Smuzhiyun
1034*4882a593Smuzhiyun                    spin_unlock_bh(&list_lock);
1035*4882a593Smuzhiyun
1036*4882a593SmuzhiyunUn altro problema è l'eliminazione dei temporizzatori che si riavviano
1037*4882a593Smuzhiyunda soli (chiamando add_timer() alla fine della loro esecuzione).
1038*4882a593SmuzhiyunDato che questo è un problema abbastanza comune con una propensione
1039*4882a593Smuzhiyunalle corse critiche, dovreste usare del_timer_sync()
1040*4882a593Smuzhiyun(``include/linux/timer.h``) per gestire questo caso. Questa ritorna il
1041*4882a593Smuzhiyunnumero di volte che il temporizzatore è stato interrotto prima che
1042*4882a593Smuzhiyunfosse in grado di fermarlo senza che si riavviasse.
1043*4882a593Smuzhiyun
1044*4882a593SmuzhiyunVelocità della sincronizzazione
1045*4882a593Smuzhiyun===============================
1046*4882a593Smuzhiyun
1047*4882a593SmuzhiyunCi sono tre cose importanti da tenere in considerazione quando si valuta
1048*4882a593Smuzhiyunla velocità d'esecuzione di un pezzo di codice che necessita di
1049*4882a593Smuzhiyunsincronizzazione. La prima è la concorrenza: quante cose rimangono in attesa
1050*4882a593Smuzhiyunmentre qualcuno trattiene un *lock*. La seconda è il tempo necessario per
1051*4882a593Smuzhiyunacquisire (senza contese) e rilasciare un *lock*. La terza è di usare meno
1052*4882a593Smuzhiyun*lock* o di più furbi. Immagino che i *lock* vengano usati regolarmente,
1053*4882a593Smuzhiyunaltrimenti, non sareste interessati all'efficienza.
1054*4882a593Smuzhiyun
1055*4882a593SmuzhiyunLa concorrenza dipende da quanto a lungo un *lock* è trattenuto: dovreste
1056*4882a593Smuzhiyuntrattenere un *lock* solo il tempo minimo necessario ma non un istante in più.
1057*4882a593SmuzhiyunNella memoria dell'esempio precedente, creiamo gli oggetti senza trattenere
1058*4882a593Smuzhiyunil *lock*, poi acquisiamo il *lock* quando siamo pronti per inserirlo nella
1059*4882a593Smuzhiyunlista.
1060*4882a593Smuzhiyun
1061*4882a593SmuzhiyunIl tempo di acquisizione di un *lock* dipende da quanto danno fa
1062*4882a593Smuzhiyunl'operazione sulla *pipeline* (ovvero stalli della *pipeline*) e quant'è
1063*4882a593Smuzhiyunprobabile che il processore corrente sia stato anche l'ultimo ad acquisire
1064*4882a593Smuzhiyunil *lock* (in pratica, il *lock* è nella memoria cache del processore
1065*4882a593Smuzhiyuncorrente?): su sistemi multi-processore questa probabilità precipita
1066*4882a593Smuzhiyunrapidamente. Consideriamo un processore Intel Pentium III a 700Mhz: questo
1067*4882a593Smuzhiyunesegue un'istruzione in 0.7ns, un incremento atomico richiede 58ns, acquisire
1068*4882a593Smuzhiyunun *lock* che è nella memoria cache del processore richiede 160ns, e un
1069*4882a593Smuzhiyuntrasferimento dalla memoria cache di un altro processore richiede altri
1070*4882a593Smuzhiyun170/360ns (Leggetevi l'articolo di Paul McKenney's `Linux Journal RCU
1071*4882a593Smuzhiyunarticle <http://www.linuxjournal.com/article.php?sid=6993>`__).
1072*4882a593Smuzhiyun
1073*4882a593SmuzhiyunQuesti due obiettivi sono in conflitto: trattenere un *lock* per il minor
1074*4882a593Smuzhiyuntempo possibile potrebbe richiedere la divisione in più *lock* per diverse
1075*4882a593Smuzhiyunparti (come nel nostro ultimo esempio con un *lock* per ogni oggetto),
1076*4882a593Smuzhiyunma questo aumenta il numero di acquisizioni di *lock*, ed il risultato
1077*4882a593Smuzhiyunspesso è che tutto è più lento che con un singolo *lock*. Questo è un altro
1078*4882a593Smuzhiyunargomento in favore della semplicità quando si parla di sincronizzazione.
1079*4882a593Smuzhiyun
1080*4882a593SmuzhiyunIl terzo punto è discusso di seguito: ci sono alcune tecniche per ridurre
1081*4882a593Smuzhiyunil numero di sincronizzazioni che devono essere fatte.
1082*4882a593Smuzhiyun
1083*4882a593SmuzhiyunRead/Write Lock Variants
1084*4882a593Smuzhiyun------------------------
1085*4882a593Smuzhiyun
1086*4882a593SmuzhiyunSia gli spinlock che i mutex hanno una variante per la lettura/scrittura
1087*4882a593Smuzhiyun(read/write): ``rwlock_t`` e :c:type:`struct rw_semaphore <rw_semaphore>`.
1088*4882a593SmuzhiyunQueste dividono gli utenti in due categorie: i lettori e gli scrittori.
1089*4882a593SmuzhiyunSe state solo leggendo i dati, potete acquisire il *lock* di lettura, ma
1090*4882a593Smuzhiyunper scrivere avrete bisogno del *lock* di scrittura. Molti possono trattenere
1091*4882a593Smuzhiyunil *lock* di lettura, ma solo uno scrittore alla volta può trattenere
1092*4882a593Smuzhiyunquello di scrittura.
1093*4882a593Smuzhiyun
1094*4882a593SmuzhiyunSe il vostro codice si divide chiaramente in codice per lettori e codice
1095*4882a593Smuzhiyunper scrittori (come nel nostro esempio), e il *lock* dei lettori viene
1096*4882a593Smuzhiyuntrattenuto per molto tempo, allora l'uso di questo tipo di *lock* può aiutare.
1097*4882a593SmuzhiyunQuesti sono leggermente più lenti rispetto alla loro versione normale, quindi
1098*4882a593Smuzhiyunnella pratica l'uso di ``rwlock_t`` non ne vale la pena.
1099*4882a593Smuzhiyun
1100*4882a593SmuzhiyunEvitare i *lock*: Read Copy Update
1101*4882a593Smuzhiyun--------------------------------------------
1102*4882a593Smuzhiyun
1103*4882a593SmuzhiyunEsiste un metodo di sincronizzazione per letture e scritture detto
1104*4882a593SmuzhiyunRead Copy Update. Con l'uso della tecnica RCU, i lettori possono scordarsi
1105*4882a593Smuzhiyuncompletamente di trattenere i *lock*; dato che nel nostro esempio ci
1106*4882a593Smuzhiyunaspettiamo d'avere più lettore che scrittori (altrimenti questa memoria
1107*4882a593Smuzhiyunsarebbe uno spreco) possiamo dire che questo meccanismo permette
1108*4882a593Smuzhiyunun'ottimizzazione.
1109*4882a593Smuzhiyun
1110*4882a593SmuzhiyunCome facciamo a sbarazzarci dei *lock* di lettura? Sbarazzarsi dei *lock* di
1111*4882a593Smuzhiyunlettura significa che uno scrittore potrebbe cambiare la lista sotto al naso
1112*4882a593Smuzhiyundei lettori. Questo è abbastanza semplice: possiamo leggere una lista
1113*4882a593Smuzhiyunconcatenata se lo scrittore aggiunge elementi alla fine e con certe
1114*4882a593Smuzhiyunprecauzioni. Per esempio, aggiungendo ``new`` ad una lista concatenata
1115*4882a593Smuzhiyunchiamata ``list``::
1116*4882a593Smuzhiyun
1117*4882a593Smuzhiyun            new->next = list->next;
1118*4882a593Smuzhiyun            wmb();
1119*4882a593Smuzhiyun            list->next = new;
1120*4882a593Smuzhiyun
1121*4882a593SmuzhiyunLa funzione wmb() è una barriera di sincronizzazione delle
1122*4882a593Smuzhiyunscritture. Questa garantisce che la prima operazione (impostare l'elemento
1123*4882a593Smuzhiyun``next`` del nuovo elemento) venga completata e vista da tutti i processori
1124*4882a593Smuzhiyunprima che venga eseguita la seconda operazione (che sarebbe quella di mettere
1125*4882a593Smuzhiyunil nuovo elemento nella lista). Questo è importante perché i moderni
1126*4882a593Smuzhiyuncompilatori ed i moderni processori possono, entrambe, riordinare le istruzioni
1127*4882a593Smuzhiyunse non vengono istruiti altrimenti: vogliamo che i lettori non vedano
1128*4882a593Smuzhiyuncompletamente il nuovo elemento; oppure che lo vedano correttamente e quindi
1129*4882a593Smuzhiyunil puntatore ``next`` deve puntare al resto della lista.
1130*4882a593Smuzhiyun
1131*4882a593SmuzhiyunFortunatamente, c'è una funzione che fa questa operazione sulle liste
1132*4882a593Smuzhiyun:c:type:`struct list_head <list_head>`: list_add_rcu()
1133*4882a593Smuzhiyun(``include/linux/list.h``).
1134*4882a593Smuzhiyun
1135*4882a593SmuzhiyunRimuovere un elemento dalla lista è anche più facile: sostituiamo il puntatore
1136*4882a593Smuzhiyunal vecchio elemento con quello del suo successore, e i lettori vedranno
1137*4882a593Smuzhiyunl'elemento o lo salteranno.
1138*4882a593Smuzhiyun
1139*4882a593Smuzhiyun::
1140*4882a593Smuzhiyun
1141*4882a593Smuzhiyun            list->next = old->next;
1142*4882a593Smuzhiyun
1143*4882a593SmuzhiyunLa funzione list_del_rcu() (``include/linux/list.h``) fa esattamente
1144*4882a593Smuzhiyunquesto (la versione normale corrompe il vecchio oggetto, e non vogliamo che
1145*4882a593Smuzhiyunaccada).
1146*4882a593Smuzhiyun
1147*4882a593SmuzhiyunAnche i lettori devono stare attenti: alcuni processori potrebbero leggere
1148*4882a593Smuzhiyunattraverso il puntatore ``next`` il contenuto dell'elemento successivo
1149*4882a593Smuzhiyuntroppo presto, ma non accorgersi che il contenuto caricato è sbagliato quando
1150*4882a593Smuzhiyunil puntatore ``next`` viene modificato alla loro spalle. Ancora una volta
1151*4882a593Smuzhiyunc'è una funzione che viene in vostro aiuto list_for_each_entry_rcu()
1152*4882a593Smuzhiyun(``include/linux/list.h``). Ovviamente, gli scrittori possono usare
1153*4882a593Smuzhiyunlist_for_each_entry() dato che non ci possono essere due scrittori
1154*4882a593Smuzhiyunin contemporanea.
1155*4882a593Smuzhiyun
1156*4882a593SmuzhiyunIl nostro ultimo dilemma è il seguente: quando possiamo realmente distruggere
1157*4882a593Smuzhiyunl'elemento rimosso? Ricordate, un lettore potrebbe aver avuto accesso a questo
1158*4882a593Smuzhiyunelemento proprio ora: se eliminiamo questo elemento ed il puntatore ``next``
1159*4882a593Smuzhiyuncambia, il lettore salterà direttamente nella spazzatura e scoppierà. Dobbiamo
1160*4882a593Smuzhiyunaspettare finché tutti i lettori che stanno attraversando la lista abbiano
1161*4882a593Smuzhiyunfinito. Utilizziamo call_rcu() per registrare una funzione di
1162*4882a593Smuzhiyunrichiamo che distrugga l'oggetto quando tutti i lettori correnti hanno
1163*4882a593Smuzhiyunterminato. In alternative, potrebbe essere usata la funzione
1164*4882a593Smuzhiyunsynchronize_rcu() che blocca l'esecuzione finché tutti i lettori
1165*4882a593Smuzhiyunnon terminano di ispezionare la lista.
1166*4882a593Smuzhiyun
1167*4882a593SmuzhiyunMa come fa l'RCU a sapere quando i lettori sono finiti? Il meccanismo è
1168*4882a593Smuzhiyunil seguente: innanzi tutto i lettori accedono alla lista solo fra la coppia
1169*4882a593Smuzhiyunrcu_read_lock()/rcu_read_unlock() che disabilita la
1170*4882a593Smuzhiyunprelazione così che i lettori non vengano sospesi mentre stanno leggendo
1171*4882a593Smuzhiyunla lista.
1172*4882a593Smuzhiyun
1173*4882a593SmuzhiyunPoi, l'RCU aspetta finché tutti i processori non abbiano dormito almeno
1174*4882a593Smuzhiyununa volta; a questo punto, dato che i lettori non possono dormire, possiamo
1175*4882a593Smuzhiyundedurre che un qualsiasi lettore che abbia consultato la lista durante la
1176*4882a593Smuzhiyunrimozione abbia già terminato, quindi la *callback* viene eseguita. Il vero
1177*4882a593Smuzhiyuncodice RCU è un po' più ottimizzato di così, ma questa è l'idea di fondo.
1178*4882a593Smuzhiyun
1179*4882a593Smuzhiyun::
1180*4882a593Smuzhiyun
1181*4882a593Smuzhiyun    --- cache.c.perobjectlock   2003-12-11 17:15:03.000000000 +1100
1182*4882a593Smuzhiyun    +++ cache.c.rcupdate    2003-12-11 17:55:14.000000000 +1100
1183*4882a593Smuzhiyun    @@ -1,15 +1,18 @@
1184*4882a593Smuzhiyun     #include <linux/list.h>
1185*4882a593Smuzhiyun     #include <linux/slab.h>
1186*4882a593Smuzhiyun     #include <linux/string.h>
1187*4882a593Smuzhiyun    +#include <linux/rcupdate.h>
1188*4882a593Smuzhiyun     #include <linux/mutex.h>
1189*4882a593Smuzhiyun     #include <asm/errno.h>
1190*4882a593Smuzhiyun
1191*4882a593Smuzhiyun     struct object
1192*4882a593Smuzhiyun     {
1193*4882a593Smuzhiyun    -        /* These two protected by cache_lock. */
1194*4882a593Smuzhiyun    +        /* This is protected by RCU */
1195*4882a593Smuzhiyun             struct list_head list;
1196*4882a593Smuzhiyun             int popularity;
1197*4882a593Smuzhiyun
1198*4882a593Smuzhiyun    +        struct rcu_head rcu;
1199*4882a593Smuzhiyun    +
1200*4882a593Smuzhiyun             atomic_t refcnt;
1201*4882a593Smuzhiyun
1202*4882a593Smuzhiyun             /* Doesn't change once created. */
1203*4882a593Smuzhiyun    @@ -40,7 +43,7 @@
1204*4882a593Smuzhiyun     {
1205*4882a593Smuzhiyun             struct object *i;
1206*4882a593Smuzhiyun
1207*4882a593Smuzhiyun    -        list_for_each_entry(i, &cache, list) {
1208*4882a593Smuzhiyun    +        list_for_each_entry_rcu(i, &cache, list) {
1209*4882a593Smuzhiyun                     if (i->id == id) {
1210*4882a593Smuzhiyun                             i->popularity++;
1211*4882a593Smuzhiyun                             return i;
1212*4882a593Smuzhiyun    @@ -49,19 +52,25 @@
1213*4882a593Smuzhiyun             return NULL;
1214*4882a593Smuzhiyun     }
1215*4882a593Smuzhiyun
1216*4882a593Smuzhiyun    +/* Final discard done once we know no readers are looking. */
1217*4882a593Smuzhiyun    +static void cache_delete_rcu(void *arg)
1218*4882a593Smuzhiyun    +{
1219*4882a593Smuzhiyun    +        object_put(arg);
1220*4882a593Smuzhiyun    +}
1221*4882a593Smuzhiyun    +
1222*4882a593Smuzhiyun     /* Must be holding cache_lock */
1223*4882a593Smuzhiyun     static void __cache_delete(struct object *obj)
1224*4882a593Smuzhiyun     {
1225*4882a593Smuzhiyun             BUG_ON(!obj);
1226*4882a593Smuzhiyun    -        list_del(&obj->list);
1227*4882a593Smuzhiyun    -        object_put(obj);
1228*4882a593Smuzhiyun    +        list_del_rcu(&obj->list);
1229*4882a593Smuzhiyun             cache_num--;
1230*4882a593Smuzhiyun    +        call_rcu(&obj->rcu, cache_delete_rcu);
1231*4882a593Smuzhiyun     }
1232*4882a593Smuzhiyun
1233*4882a593Smuzhiyun     /* Must be holding cache_lock */
1234*4882a593Smuzhiyun     static void __cache_add(struct object *obj)
1235*4882a593Smuzhiyun     {
1236*4882a593Smuzhiyun    -        list_add(&obj->list, &cache);
1237*4882a593Smuzhiyun    +        list_add_rcu(&obj->list, &cache);
1238*4882a593Smuzhiyun             if (++cache_num > MAX_CACHE_SIZE) {
1239*4882a593Smuzhiyun                     struct object *i, *outcast = NULL;
1240*4882a593Smuzhiyun                     list_for_each_entry(i, &cache, list) {
1241*4882a593Smuzhiyun    @@ -104,12 +114,11 @@
1242*4882a593Smuzhiyun     struct object *cache_find(int id)
1243*4882a593Smuzhiyun     {
1244*4882a593Smuzhiyun             struct object *obj;
1245*4882a593Smuzhiyun    -        unsigned long flags;
1246*4882a593Smuzhiyun
1247*4882a593Smuzhiyun    -        spin_lock_irqsave(&cache_lock, flags);
1248*4882a593Smuzhiyun    +        rcu_read_lock();
1249*4882a593Smuzhiyun             obj = __cache_find(id);
1250*4882a593Smuzhiyun             if (obj)
1251*4882a593Smuzhiyun                     object_get(obj);
1252*4882a593Smuzhiyun    -        spin_unlock_irqrestore(&cache_lock, flags);
1253*4882a593Smuzhiyun    +        rcu_read_unlock();
1254*4882a593Smuzhiyun             return obj;
1255*4882a593Smuzhiyun     }
1256*4882a593Smuzhiyun
1257*4882a593SmuzhiyunDa notare che i lettori modificano il campo popularity nella funzione
1258*4882a593Smuzhiyun__cache_find(), e ora non trattiene alcun *lock*. Una soluzione
1259*4882a593Smuzhiyunpotrebbe essere quella di rendere la variabile ``atomic_t``, ma per l'uso
1260*4882a593Smuzhiyunche ne abbiamo fatto qui, non ci interessano queste corse critiche perché un
1261*4882a593Smuzhiyunrisultato approssimativo è comunque accettabile, quindi non l'ho cambiato.
1262*4882a593Smuzhiyun
1263*4882a593SmuzhiyunIl risultato è che la funzione cache_find() non ha bisogno di alcuna
1264*4882a593Smuzhiyunsincronizzazione con le altre funzioni, quindi è veloce su un sistema
1265*4882a593Smuzhiyunmulti-processore tanto quanto lo sarebbe su un sistema mono-processore.
1266*4882a593Smuzhiyun
1267*4882a593SmuzhiyunEsiste un'ulteriore ottimizzazione possibile: vi ricordate il codice originale
1268*4882a593Smuzhiyundella nostra memoria dove non c'erano contatori di riferimenti e il chiamante
1269*4882a593Smuzhiyunsemplicemente tratteneva il *lock* prima di accedere ad un oggetto? Questo è
1270*4882a593Smuzhiyunancora possibile: se trattenete un *lock* nessuno potrà cancellare l'oggetto,
1271*4882a593Smuzhiyunquindi non avete bisogno di incrementare e decrementare il contatore di
1272*4882a593Smuzhiyunriferimenti.
1273*4882a593Smuzhiyun
1274*4882a593SmuzhiyunOra, dato che il '*lock* di lettura' di un RCU non fa altro che disabilitare
1275*4882a593Smuzhiyunla prelazione, un chiamante che ha sempre la prelazione disabilitata fra le
1276*4882a593Smuzhiyunchiamate cache_find() e object_put() non necessita
1277*4882a593Smuzhiyundi incrementare e decrementare il contatore di riferimenti. Potremmo
1278*4882a593Smuzhiyunesporre la funzione __cache_find() dichiarandola non-static,
1279*4882a593Smuzhiyune quel chiamante potrebbe usare direttamente questa funzione.
1280*4882a593Smuzhiyun
1281*4882a593SmuzhiyunIl beneficio qui sta nel fatto che il contatore di riferimenti no
1282*4882a593Smuzhiyunviene scritto: l'oggetto non viene alterato in alcun modo e quindi diventa
1283*4882a593Smuzhiyunmolto più veloce su sistemi molti-processore grazie alla loro memoria cache.
1284*4882a593Smuzhiyun
1285*4882a593Smuzhiyun.. _`it_per-cpu`:
1286*4882a593Smuzhiyun
1287*4882a593SmuzhiyunDati per processore
1288*4882a593Smuzhiyun-------------------
1289*4882a593Smuzhiyun
1290*4882a593SmuzhiyunUn'altra tecnica comunemente usata per evitare la sincronizzazione è quella
1291*4882a593Smuzhiyundi duplicare le informazioni per ogni processore. Per esempio, se volete
1292*4882a593Smuzhiyunavere un contatore di qualcosa, potreste utilizzare uno spinlock ed un
1293*4882a593Smuzhiyunsingolo contatore. Facile e pulito.
1294*4882a593Smuzhiyun
1295*4882a593SmuzhiyunSe questo dovesse essere troppo lento (solitamente non lo è, ma se avete
1296*4882a593Smuzhiyundimostrato che lo è devvero), potreste usare un contatore per ogni processore
1297*4882a593Smuzhiyune quindi non sarebbe più necessaria la mutua esclusione. Vedere
1298*4882a593SmuzhiyunDEFINE_PER_CPU(), get_cpu_var() e put_cpu_var()
1299*4882a593Smuzhiyun(``include/linux/percpu.h``).
1300*4882a593Smuzhiyun
1301*4882a593SmuzhiyunIl tipo di dato ``local_t``, la funzione cpu_local_inc() e tutte
1302*4882a593Smuzhiyunle altre funzioni associate, sono di particolare utilità per semplici contatori
1303*4882a593Smuzhiyunper-processore; su alcune architetture sono anche più efficienti
1304*4882a593Smuzhiyun(``include/asm/local.h``).
1305*4882a593Smuzhiyun
1306*4882a593SmuzhiyunDa notare che non esiste un modo facile ed affidabile per ottenere il valore
1307*4882a593Smuzhiyundi un simile contatore senza introdurre altri *lock*. In alcuni casi questo
1308*4882a593Smuzhiyunnon è un problema.
1309*4882a593Smuzhiyun
1310*4882a593SmuzhiyunDati che sono usati prevalentemente dai gestori d'interruzioni
1311*4882a593Smuzhiyun--------------------------------------------------------------
1312*4882a593Smuzhiyun
1313*4882a593SmuzhiyunSe i dati vengono utilizzati sempre dallo stesso gestore d'interruzioni,
1314*4882a593Smuzhiyunallora i *lock* non vi servono per niente: il kernel già vi garantisce che
1315*4882a593Smuzhiyunil gestore d'interruzione non verrà eseguito in contemporanea su diversi
1316*4882a593Smuzhiyunprocessori.
1317*4882a593Smuzhiyun
1318*4882a593SmuzhiyunManfred Spraul fa notare che potreste comunque comportarvi così anche
1319*4882a593Smuzhiyunse i dati vengono occasionalmente utilizzati da un contesto utente o
1320*4882a593Smuzhiyunda un'interruzione software. Il gestore d'interruzione non utilizza alcun
1321*4882a593Smuzhiyun*lock*, e tutti gli altri accessi verranno fatti così::
1322*4882a593Smuzhiyun
1323*4882a593Smuzhiyun        spin_lock(&lock);
1324*4882a593Smuzhiyun        disable_irq(irq);
1325*4882a593Smuzhiyun        ...
1326*4882a593Smuzhiyun        enable_irq(irq);
1327*4882a593Smuzhiyun        spin_unlock(&lock);
1328*4882a593Smuzhiyun
1329*4882a593SmuzhiyunLa funzione disable_irq() impedisce al gestore d'interruzioni
1330*4882a593Smuzhiyund'essere eseguito (e aspetta che finisca nel caso fosse in esecuzione su
1331*4882a593Smuzhiyunun altro processore). Lo spinlock, invece, previene accessi simultanei.
1332*4882a593SmuzhiyunNaturalmente, questo è più lento della semplice chiamata
1333*4882a593Smuzhiyunspin_lock_irq(), quindi ha senso solo se questo genere di accesso
1334*4882a593Smuzhiyunè estremamente raro.
1335*4882a593Smuzhiyun
1336*4882a593Smuzhiyun.. _`it_sleeping-things`:
1337*4882a593Smuzhiyun
1338*4882a593SmuzhiyunQuali funzioni possono essere chiamate in modo sicuro dalle interruzioni?
1339*4882a593Smuzhiyun=========================================================================
1340*4882a593Smuzhiyun
1341*4882a593SmuzhiyunMolte funzioni del kernel dormono (in sostanza, chiamano schedule())
1342*4882a593Smuzhiyundirettamente od indirettamente: non potete chiamarle se trattenere uno
1343*4882a593Smuzhiyunspinlock o avete la prelazione disabilitata, mai. Questo significa che
1344*4882a593Smuzhiyundovete necessariamente essere nel contesto utente: chiamarle da un
1345*4882a593Smuzhiyuncontesto d'interruzione è illegale.
1346*4882a593Smuzhiyun
1347*4882a593SmuzhiyunAlcune funzioni che dormono
1348*4882a593Smuzhiyun---------------------------
1349*4882a593Smuzhiyun
1350*4882a593SmuzhiyunLe più comuni sono elencate qui di seguito, ma solitamente dovete leggere
1351*4882a593Smuzhiyunil codice per scoprire se altre chiamate sono sicure. Se chiunque altro
1352*4882a593Smuzhiyunle chiami dorme, allora dovreste poter dormire anche voi. In particolar
1353*4882a593Smuzhiyunmodo, le funzioni di registrazione e deregistrazione solitamente si
1354*4882a593Smuzhiyunaspettano d'essere chiamante da un contesto utente e quindi che possono
1355*4882a593Smuzhiyundormire.
1356*4882a593Smuzhiyun
1357*4882a593Smuzhiyun-  Accessi allo spazio utente:
1358*4882a593Smuzhiyun
1359*4882a593Smuzhiyun   -  copy_from_user()
1360*4882a593Smuzhiyun
1361*4882a593Smuzhiyun   -  copy_to_user()
1362*4882a593Smuzhiyun
1363*4882a593Smuzhiyun   -  get_user()
1364*4882a593Smuzhiyun
1365*4882a593Smuzhiyun   -  put_user()
1366*4882a593Smuzhiyun
1367*4882a593Smuzhiyun-  kmalloc(GFP_KERNEL) <kmalloc>`
1368*4882a593Smuzhiyun
1369*4882a593Smuzhiyun-  mutex_lock_interruptible() and
1370*4882a593Smuzhiyun   mutex_lock()
1371*4882a593Smuzhiyun
1372*4882a593Smuzhiyun   C'è anche mutex_trylock() che però non dorme.
1373*4882a593Smuzhiyun   Comunque, non deve essere usata in un contesto d'interruzione dato
1374*4882a593Smuzhiyun   che la sua implementazione non è sicura in quel contesto.
1375*4882a593Smuzhiyun   Anche mutex_unlock() non dorme mai. Non può comunque essere
1376*4882a593Smuzhiyun   usata in un contesto d'interruzione perché un mutex deve essere rilasciato
1377*4882a593Smuzhiyun   dallo stesso processo che l'ha acquisito.
1378*4882a593Smuzhiyun
1379*4882a593SmuzhiyunAlcune funzioni che non dormono
1380*4882a593Smuzhiyun-------------------------------
1381*4882a593Smuzhiyun
1382*4882a593SmuzhiyunAlcune funzioni possono essere chiamate tranquillamente da qualsiasi
1383*4882a593Smuzhiyuncontesto, o trattenendo un qualsiasi *lock*.
1384*4882a593Smuzhiyun
1385*4882a593Smuzhiyun-  printk()
1386*4882a593Smuzhiyun
1387*4882a593Smuzhiyun-  kfree()
1388*4882a593Smuzhiyun
1389*4882a593Smuzhiyun-  add_timer() e del_timer()
1390*4882a593Smuzhiyun
1391*4882a593SmuzhiyunRiferimento per l'API dei Mutex
1392*4882a593Smuzhiyun===============================
1393*4882a593Smuzhiyun
1394*4882a593Smuzhiyun.. kernel-doc:: include/linux/mutex.h
1395*4882a593Smuzhiyun   :internal:
1396*4882a593Smuzhiyun
1397*4882a593Smuzhiyun.. kernel-doc:: kernel/locking/mutex.c
1398*4882a593Smuzhiyun   :export:
1399*4882a593Smuzhiyun
1400*4882a593SmuzhiyunRiferimento per l'API dei Futex
1401*4882a593Smuzhiyun===============================
1402*4882a593Smuzhiyun
1403*4882a593Smuzhiyun.. kernel-doc:: kernel/futex.c
1404*4882a593Smuzhiyun   :internal:
1405*4882a593Smuzhiyun
1406*4882a593SmuzhiyunApprofondimenti
1407*4882a593Smuzhiyun===============
1408*4882a593Smuzhiyun
1409*4882a593Smuzhiyun-  ``Documentation/locking/spinlocks.rst``: la guida di Linus Torvalds agli
1410*4882a593Smuzhiyun   spinlock del kernel.
1411*4882a593Smuzhiyun
1412*4882a593Smuzhiyun-  Unix Systems for Modern Architectures: Symmetric Multiprocessing and
1413*4882a593Smuzhiyun   Caching for Kernel Programmers.
1414*4882a593Smuzhiyun
1415*4882a593Smuzhiyun   L'introduzione alla sincronizzazione a livello di kernel di Curt Schimmel
1416*4882a593Smuzhiyun   è davvero ottima (non è scritta per Linux, ma approssimativamente si adatta
1417*4882a593Smuzhiyun   a tutte le situazioni). Il libro è costoso, ma vale ogni singolo spicciolo
1418*4882a593Smuzhiyun   per capire la sincronizzazione nei sistemi multi-processore.
1419*4882a593Smuzhiyun   [ISBN: 0201633388]
1420*4882a593Smuzhiyun
1421*4882a593SmuzhiyunRingraziamenti
1422*4882a593Smuzhiyun==============
1423*4882a593Smuzhiyun
1424*4882a593SmuzhiyunGrazie a Telsa Gwynne per aver formattato questa guida in DocBook, averla
1425*4882a593Smuzhiyunpulita e aggiunto un po' di stile.
1426*4882a593Smuzhiyun
1427*4882a593SmuzhiyunGrazie a Martin Pool, Philipp Rumpf, Stephen Rothwell, Paul Mackerras,
1428*4882a593SmuzhiyunRuedi Aschwanden, Alan Cox, Manfred Spraul, Tim Waugh, Pete Zaitcev,
1429*4882a593SmuzhiyunJames Morris, Robert Love, Paul McKenney, John Ashby per aver revisionato,
1430*4882a593Smuzhiyuncorretto, maledetto e commentato.
1431*4882a593Smuzhiyun
1432*4882a593SmuzhiyunGrazie alla congrega per non aver avuto alcuna influenza su questo documento.
1433*4882a593Smuzhiyun
1434*4882a593SmuzhiyunGlossario
1435*4882a593Smuzhiyun=========
1436*4882a593Smuzhiyun
1437*4882a593Smuzhiyunprelazione
1438*4882a593Smuzhiyun  Prima del kernel 2.5, o quando ``CONFIG_PREEMPT`` non è impostato, i processi
1439*4882a593Smuzhiyun  in contesto utente non si avvicendano nell'esecuzione (in pratica, il
1440*4882a593Smuzhiyun  processo userà il processore fino al proprio termine, a meno che non ci siano
1441*4882a593Smuzhiyun  delle interruzioni). Con l'aggiunta di ``CONFIG_PREEMPT`` nella versione
1442*4882a593Smuzhiyun  2.5.4 questo è cambiato: quando si è in contesto utente, processi con una
1443*4882a593Smuzhiyun  priorità maggiore possono subentrare nell'esecuzione: gli spinlock furono
1444*4882a593Smuzhiyun  cambiati per disabilitare la prelazioni, anche su sistemi monoprocessore.
1445*4882a593Smuzhiyun
1446*4882a593Smuzhiyunbh
1447*4882a593Smuzhiyun  Bottom Half: per ragioni storiche, le funzioni che contengono '_bh' nel
1448*4882a593Smuzhiyun  loro nome ora si riferiscono a qualsiasi interruzione software; per esempio,
1449*4882a593Smuzhiyun  spin_lock_bh() blocca qualsiasi interuzione software sul processore
1450*4882a593Smuzhiyun  corrente. I *Bottom Halves* sono deprecati, e probabilmente verranno
1451*4882a593Smuzhiyun  sostituiti dai tasklet. In un dato momento potrà esserci solo un
1452*4882a593Smuzhiyun  *bottom half* in esecuzione.
1453*4882a593Smuzhiyun
1454*4882a593Smuzhiyuncontesto d'interruzione
1455*4882a593Smuzhiyun  Non è il contesto utente: qui si processano le interruzioni hardware e
1456*4882a593Smuzhiyun  software. La macro in_interrupt() ritorna vero.
1457*4882a593Smuzhiyun
1458*4882a593Smuzhiyuncontesto utente
1459*4882a593Smuzhiyun  Il kernel che esegue qualcosa per conto di un particolare processo (per
1460*4882a593Smuzhiyun  esempio una chiamata di sistema) o di un thread del kernel. Potete
1461*4882a593Smuzhiyun  identificare il processo con la macro ``current``. Da non confondere
1462*4882a593Smuzhiyun  con lo spazio utente. Può essere interrotto sia da interruzioni software
1463*4882a593Smuzhiyun  che hardware.
1464*4882a593Smuzhiyun
1465*4882a593Smuzhiyuninterruzione hardware
1466*4882a593Smuzhiyun  Richiesta di interruzione hardware. in_irq() ritorna vero in un
1467*4882a593Smuzhiyun  gestore d'interruzioni hardware.
1468*4882a593Smuzhiyun
1469*4882a593Smuzhiyuninterruzione software / softirq
1470*4882a593Smuzhiyun  Gestore di interruzioni software: in_irq() ritorna falso;
1471*4882a593Smuzhiyun  in_softirq() ritorna vero. I tasklet e le softirq sono entrambi
1472*4882a593Smuzhiyun  considerati 'interruzioni software'.
1473*4882a593Smuzhiyun
1474*4882a593Smuzhiyun  In soldoni, un softirq è uno delle 32 interruzioni software che possono
1475*4882a593Smuzhiyun  essere eseguite su più processori in contemporanea. A volte si usa per
1476*4882a593Smuzhiyun  riferirsi anche ai tasklet (in pratica tutte le interruzioni software).
1477*4882a593Smuzhiyun
1478*4882a593Smuzhiyunmonoprocessore / UP
1479*4882a593Smuzhiyun  (Uni-Processor) un solo processore, ovvero non è SMP. (``CONFIG_SMP=n``).
1480*4882a593Smuzhiyun
1481*4882a593Smuzhiyunmulti-processore / SMP
1482*4882a593Smuzhiyun  (Symmetric Multi-Processor) kernel compilati per sistemi multi-processore
1483*4882a593Smuzhiyun  (``CONFIG_SMP=y``).
1484*4882a593Smuzhiyun
1485*4882a593Smuzhiyunspazio utente
1486*4882a593Smuzhiyun  Un processo che esegue il proprio codice fuori dal kernel.
1487*4882a593Smuzhiyun
1488*4882a593Smuzhiyuntasklet
1489*4882a593Smuzhiyun  Un'interruzione software registrabile dinamicamente che ha la garanzia
1490*4882a593Smuzhiyun  d'essere eseguita solo su un processore alla volta.
1491*4882a593Smuzhiyun
1492*4882a593Smuzhiyuntimer
1493*4882a593Smuzhiyun  Un'interruzione software registrabile dinamicamente che viene eseguita
1494*4882a593Smuzhiyun  (circa) in un determinato momento. Quando è in esecuzione è come un tasklet
1495*4882a593Smuzhiyun  (infatti, sono chiamati da ``TIMER_SOFTIRQ``).
1496