571fb67c10cc63f8ca0433178e61c8b7309e0922
[openafs.git] / src / afs / FBSD / osi_vm.c
1 /*
2  * Copyright 2000, International Business Machines Corporation and others.
3  * All Rights Reserved.
4  * 
5  * This software has been released under the terms of the IBM Public
6  * License.  For details, see the LICENSE file in the top-level source
7  * directory or online at http://www.openafs.org/dl/license10.html
8  */
9
10
11 /* osi_vm.c implements:
12  *
13  * osi_VM_FlushVCache(avc, slept)
14  * osi_ubc_flush_dirty_and_wait(vp, flags)
15  * osi_VM_StoreAllSegments(avc)
16  * osi_VM_TryToSmush(avc, acred, sync)
17  * osi_VM_FlushPages(avc, credp)
18  * osi_VM_Truncate(avc, alen, acred)
19  */
20
21 #include <afsconfig.h>
22 #include "afs/param.h"
23 #include <sys/param.h>
24 #include <sys/vnode.h>
25
26
27 #include "afs/sysincludes.h"    /* Standard vendor system headers */
28 #include "afsincludes.h"        /* Afs-based standard headers */
29 #include "afs/afs_stats.h"      /* statistics */
30 #include <vm/vm_object.h>
31 #include <vm/vm_map.h>
32 #include <limits.h>
33 #include <float.h>
34
35 /*
36  * FreeBSD implementation notes:
37  * Most of these operations require us to frob vm_objects.  Most
38  * functions require that the object be locked (with VM_OBJECT_LOCK)
39  * on entry and leave it locked on exit.  In order to get the
40  * vm_object itself we call VOP_GETVOBJECT on the vnode; the
41  * locking protocol requires that we do so with the heavy vnode lock
42  * held and the vnode interlock unlocked, and it returns the same
43  * way.
44  *
45  * The locking protocol for vnodes is defined in
46  * kern/vnode_if.src and sys/vnode.h; the locking is still a work in 
47  * progress, so some fields are (as of 5.1) still protected by Giant
48  * rather than an explicit lock.
49  */
50
51 #ifdef AFS_FBSD60_ENV
52 #define VOP_GETVOBJECT(vp, objp) (*(objp) = (vp)->v_object)
53 #endif
54
55 #if defined(AFS_FBSD80_ENV)
56 #define lock_vnode(v)   vn_lock((v), LK_EXCLUSIVE | LK_RETRY)
57 #define ilock_vnode(v)  vn_lock((v), LK_INTERLOCK|LK_EXCLUSIVE|LK_RETRY);
58 #define unlock_vnode(v) VOP_UNLOCK((v), 0)
59 #else
60 #define lock_vnode(v)   vn_lock((v), LK_EXCLUSIVE | LK_RETRY, curthread)
61 #define ilock_vnode(v)  vn_lock((v), LK_INTERLOCK|LK_EXCLUSIVE|LK_RETRY, curthread);
62 #define unlock_vnode(v) VOP_UNLOCK((v), 0, curthread)
63 #endif
64
65 /* Try to discard pages, in order to recycle a vcache entry.
66  *
67  * We also make some sanity checks:  ref count, open count, held locks.
68  *
69  * We also do some non-VM-related chores, such as releasing the cred pointer
70  * (for AIX and Solaris) and releasing the gnode (for AIX).
71  *
72  * Locking:  afs_xvcache lock is held.  If it is dropped and re-acquired,
73  *   *slept should be set to warn the caller.
74  *
75  * Formerly, afs_xvcache was dropped and re-acquired for Solaris, but now it
76  * is not dropped and re-acquired for any platform.  It may be that *slept is
77  * therefore obsolescent.
78  *
79  */
80 int
81 osi_VM_FlushVCache(struct vcache *avc, int *slept)
82 {
83     struct vm_object *obj;
84     struct vnode *vp = AFSTOV(avc);
85
86     if (!VI_TRYLOCK(vp)) /* need interlock to check usecount */
87         return EBUSY;
88
89     if (vp->v_usecount > 0) {
90         VI_UNLOCK(vp);
91         return EBUSY;
92     }
93
94     /* XXX
95      * The value of avc->opens here came to be, at some point,
96      * typically -1.  This was caused by incorrectly performing afs_close
97      * processing on vnodes being recycled */
98     if (avc->opens) {
99         VI_UNLOCK(vp);
100         return EBUSY;
101     }
102
103     /* if a lock is held, give up */
104     if (CheckLock(&avc->lock)) {
105         VI_UNLOCK(vp);
106         return EBUSY;
107     }
108
109     if ((vp->v_iflag & VI_DOOMED) != 0) {
110         VI_UNLOCK(vp);
111         return (0);
112     }
113
114     /* must hold the vnode before calling vgone()
115      * This code largely copied from vfs_subr.c:vlrureclaim() */
116     vholdl(vp);
117     AFS_GUNLOCK();
118     *slept = 1;
119     /* use the interlock while locking, so no one else can DOOM this */
120     ilock_vnode(vp);
121     vgone(vp);
122     unlock_vnode(vp);
123     vdrop(vp);
124
125     AFS_GLOCK();
126     return 0;
127 }
128
129 /* Try to store pages to cache, in order to store a file back to the server.
130  *
131  * Locking:  the vcache entry's lock is held.  It will usually be dropped and
132  * re-obtained.
133  */
134 void
135 osi_VM_StoreAllSegments(struct vcache *avc)
136 {
137     struct vnode *vp;
138     struct vm_object *obj;
139     int anyio, tries;
140
141     ReleaseWriteLock(&avc->lock);
142     AFS_GUNLOCK();
143     tries = 5;
144     vp = AFSTOV(avc);
145
146     /*
147      * I don't understand this.  Why not just call vm_object_page_clean()
148      * and be done with it?  I particularly don't understand why we're calling
149      * vget() here.  Is there some reason to believe that the vnode might
150      * be being recycled at this point?  I don't think there's any need for
151      * this loop, either -- if we keep the vnode locked all the time,
152      * that and the object lock will prevent any new pages from appearing.
153      * The loop is what causes the race condition.  -GAW
154      */
155     do {
156         anyio = 0;
157         if (VOP_GETVOBJECT(vp, &obj) == 0 && (obj->flags & OBJ_MIGHTBEDIRTY)) {
158             if (!vget(vp, LK_EXCLUSIVE | LK_RETRY, curthread)) {
159                     if (VOP_GETVOBJECT(vp, &obj) == 0) {
160                         VM_OBJECT_LOCK(obj);
161                         vm_object_page_clean(obj, 0, 0, OBJPC_SYNC);
162                         VM_OBJECT_UNLOCK(obj);
163                         anyio = 1;
164                     }
165                     vput(vp);
166                 }
167             }
168     } while (anyio && (--tries > 0));
169     AFS_GLOCK();
170     ObtainWriteLock(&avc->lock, 94);
171 }
172
173 /* Try to invalidate pages, for "fs flush" or "fs flushv"; or
174  * try to free pages, when deleting a file.
175  *
176  * Locking:  the vcache entry's lock is held.  It may be dropped and 
177  * re-obtained.
178  *
179  * Since we drop and re-obtain the lock, we can't guarantee that there won't
180  * be some pages around when we return, newly created by concurrent activity.
181  */
182 void
183 osi_VM_TryToSmush(struct vcache *avc, afs_ucred_t *acred, int sync)
184 {
185     struct vnode *vp;
186     int tries, code;
187     int islocked;
188
189     SPLVAR;
190
191     vp = AFSTOV(avc);
192
193     VI_LOCK(vp);
194     if (vp->v_iflag & VI_DOOMED) {
195         VI_UNLOCK(vp);
196         USERPRI;
197         return;
198     }
199     VI_UNLOCK(vp);
200
201     islocked = VOP_ISLOCKED(vp);
202     if (islocked == LK_EXCLOTHER)
203         panic("Trying to Smush over someone else's lock");
204     else if (islocked == LK_SHARED) {
205         afs_warn("Trying to Smush with a shared lock");
206         vn_lock(vp, LK_UPGRADE);
207     } else if (!islocked)
208         vn_lock(vp, LK_EXCLUSIVE);
209
210     if (vp->v_bufobj.bo_object != NULL) {
211         VM_OBJECT_LOCK(vp->v_bufobj.bo_object);
212         /*
213          * Do we really want OBJPC_SYNC?  OBJPC_INVAL would be
214          * faster, if invalidation is really what we are being
215          * asked to do.  (It would make more sense, too, since
216          * otherwise this function is practically identical to
217          * osi_VM_StoreAllSegments().)  -GAW
218          */
219
220         /*
221          * Dunno.  We no longer resemble osi_VM_StoreAllSegments,
222          * though maybe that's wrong, now.  And OBJPC_SYNC is the
223          * common thing in 70 file systems, it seems.  Matt.
224          */
225
226         vm_object_page_clean(vp->v_bufobj.bo_object, 0, 0, OBJPC_SYNC);
227         VM_OBJECT_UNLOCK(vp->v_bufobj.bo_object);
228     }
229
230     tries = 5;
231     code = osi_vinvalbuf(vp, V_SAVE, PCATCH, 0);
232     while (code && (tries > 0)) {
233         afs_warn("TryToSmush retrying vinvalbuf");
234         code = osi_vinvalbuf(vp, V_SAVE, PCATCH, 0);
235         --tries;
236     }
237     if (islocked == LK_SHARED)
238         vn_lock(vp, LK_DOWNGRADE);
239     else if (!islocked)
240         VOP_UNLOCK(vp, 0);
241     USERPRI;
242 }
243
244 /* Purge VM for a file when its callback is revoked.
245  *
246  * Locking:  No lock is held, not even the global lock.
247  */
248 void
249 osi_VM_FlushPages(struct vcache *avc, afs_ucred_t *credp)
250 {
251     struct vnode *vp;
252     struct vm_object *obj;
253
254     vp = AFSTOV(avc);
255     ASSERT_VOP_LOCKED(vp, __func__);
256     if (VOP_GETVOBJECT(vp, &obj) == 0) {
257         VM_OBJECT_LOCK(obj);
258         vm_object_page_remove(obj, 0, 0, FALSE);
259         VM_OBJECT_UNLOCK(obj);
260     }
261     osi_vinvalbuf(vp, 0, 0, 0);
262 }
263
264 /* Purge pages beyond end-of-file, when truncating a file.
265  *
266  * Locking:  no lock is held, not even the global lock.
267  * activeV is raised.  This is supposed to block pageins, but at present
268  * it only works on Solaris.
269  */
270 void
271 osi_VM_Truncate(struct vcache *avc, int alen, afs_ucred_t *acred)
272 {
273     vnode_pager_setsize(AFSTOV(avc), alen);
274 }