FBSD CM: don't call afs_close when recycling
[openafs.git] / src / afs / FBSD / osi_vm.c
index f584368..6f49d7d 100644 (file)
 
 #include <afsconfig.h>
 #include "afs/param.h"
+#ifdef AFS_FBSD70_ENV
+#include <sys/param.h>
+#include <sys/vnode.h>
+     void
+     vgonel(struct vnode *vp, struct thread *td);
+#endif
 
-RCSID
-    ("$Header$");
 
 #include "afs/sysincludes.h"   /* Standard vendor system headers */
 #include "afsincludes.h"       /* Afs-based standard headers */
@@ -52,15 +56,12 @@ RCSID
 #define VOP_GETVOBJECT(vp, objp) (*(objp) = (vp)->v_object)
 #endif
 
-#ifdef AFS_FBSD50_ENV
+#if defined(AFS_FBSD80_ENV)
+#define        lock_vnode(v)   vn_lock((v), LK_EXCLUSIVE | LK_RETRY)
+#define unlock_vnode(v)        VOP_UNLOCK((v), 0)
+#else
 #define        lock_vnode(v)   vn_lock((v), LK_EXCLUSIVE | LK_RETRY, curthread)
 #define unlock_vnode(v)        VOP_UNLOCK((v), 0, curthread)
-#else
-#define        lock_vnode(v)   vn_lock((v), LK_EXCLUSIVE | LK_RETRY, curproc)
-#define unlock_vnode(v)        VOP_UNLOCK((v), 0, curproc)
-/* need splvm() protection? */
-#define        VM_OBJECT_LOCK(o)
-#define VM_OBJECT_UNLOCK(o)
 #endif
 
 /* Try to discard pages, in order to recycle a vcache entry.
@@ -78,7 +79,9 @@ RCSID
  * therefore obsolescent.
  *
  * OSF/1 Locking:  VN_LOCK has been called.
- * XXX - should FreeBSD have done this, too?  Certainly looks like it.
+ * We do not lock the vnode here, but instead require that it be exclusive
+ * locked by code calling osi_VM_StoreAllSegments directly, or scheduling it
+ * from the bqueue - Matt
  * Maybe better to just call vnode_pager_setsize()?
  */
 int
@@ -86,33 +89,46 @@ osi_VM_FlushVCache(struct vcache *avc, int *slept)
 {
     struct vm_object *obj;
     struct vnode *vp;
-    if (VREFCOUNT_GT(avc, 1))
+    if (VREFCOUNT(avc) > 1) {
        return EBUSY;
+    }
 
-    if (avc->opens)
+    /* XXX
+     * The value of avc->opens here came to be, at some point,
+     * typically -1.  This was caused by incorrectly performing afs_close
+     * processing on vnodes being recycled */
+    if (avc->opens) {
        return EBUSY;
+    }
 
     /* if a lock is held, give up */
-    if (CheckLock(&avc->lock))
+    if (CheckLock(&avc->lock)) {
        return EBUSY;
+    }
+
+    return(0);
 
     AFS_GUNLOCK();
     vp = AFSTOV(avc);
+#ifndef AFS_FBSD70_ENV
     lock_vnode(vp);
+#endif
     if (VOP_GETVOBJECT(vp, &obj) == 0) {
        VM_OBJECT_LOCK(obj);
        vm_object_page_remove(obj, 0, 0, FALSE);
-#if 0
+#if 1
        if (obj->ref_count == 0) {
-           vgonel(vp, curproc);
            simple_lock(&vp->v_interlock);
+           vgonel(vp, curthread);
            vp->v_tag = VT_AFS;
            SetAfsVnode(vp);
        }
 #endif
        VM_OBJECT_UNLOCK(obj);
     }
+#ifndef AFS_FBSD70_ENV
     unlock_vnode(vp);
+#endif
     AFS_GLOCK();
 
     return 0;
@@ -146,25 +162,17 @@ osi_VM_StoreAllSegments(struct vcache *avc)
      */
     do {
        anyio = 0;
-       lock_vnode(vp);
        if (VOP_GETVOBJECT(vp, &obj) == 0 && (obj->flags & OBJ_MIGHTBEDIRTY)) {
-           /* XXX - obj locking? */
-           unlock_vnode(vp);
-#ifdef AFS_FBSD50_ENV
            if (!vget(vp, LK_EXCLUSIVE | LK_RETRY, curthread)) {
-#else
-           if (!vget(vp, LK_EXCLUSIVE | LK_RETRY | LK_NOOBJ, curproc)) {
-#endif
-               if (VOP_GETVOBJECT(vp, &obj) == 0) {
-                   VM_OBJECT_LOCK(obj);
-                   vm_object_page_clean(obj, 0, 0, OBJPC_SYNC);
-                   VM_OBJECT_UNLOCK(obj);
-                   anyio = 1;
+                   if (VOP_GETVOBJECT(vp, &obj) == 0) {
+                       VM_OBJECT_LOCK(obj);
+                       vm_object_page_clean(obj, 0, 0, OBJPC_SYNC);
+                       VM_OBJECT_UNLOCK(obj);
+                       anyio = 1;
+                   }
+                   vput(vp);
                }
-               vput(vp);
            }
-       } else
-           unlock_vnode(vp);
     } while (anyio && (--tries > 0));
     AFS_GLOCK();
     ObtainWriteLock(&avc->lock, 94);
@@ -180,56 +188,65 @@ osi_VM_StoreAllSegments(struct vcache *avc)
  * be some pages around when we return, newly created by concurrent activity.
  */
 void
-osi_VM_TryToSmush(struct vcache *avc, struct AFS_UCRED *acred, int sync)
+osi_VM_TryToSmush(struct vcache *avc, afs_ucred_t *acred, int sync)
 {
     struct vnode *vp;
-    struct vm_object *obj;
-    int anyio, tries;
+    int tries, code;
+    int islocked;
+
+    SPLVAR;
 
-    ReleaseWriteLock(&avc->lock);
-    AFS_GUNLOCK();
-    tries = 5;
     vp = AFSTOV(avc);
-    do {
-       anyio = 0;
-       lock_vnode(vp);
-       /* See the comments above. */
-       if (VOP_GETVOBJECT(vp, &obj) == 0 && (obj->flags & OBJ_MIGHTBEDIRTY)) {
-           /* XXX - obj locking */
-           unlock_vnode(vp);
-#ifdef AFS_FBSD50_ENV
-           if (!vget(vp, LK_EXCLUSIVE | LK_RETRY, curthread)) {
-#else
-           if (!vget(vp, LK_EXCLUSIVE | LK_RETRY | LK_NOOBJ, curproc)) {
-#endif
-               if (VOP_GETVOBJECT(vp, &obj) == 0) {
-                   VM_OBJECT_LOCK(obj);
-                   /*
-                    * Do we really want OBJPC_SYNC?  OBJPC_INVAL would be
-                    * faster, if invalidation is really what we are being
-                    * asked to do.  (It would make more sense, too, since
-                    * otherwise this function is practically identical to
-                    * osi_VM_StoreAllSegments().)  -GAW
-                    */
-                   vm_object_page_clean(obj, 0, 0, OBJPC_SYNC);
-                   VM_OBJECT_UNLOCK(obj);
-                   anyio = 1;
-               }
-               vput(vp);
-           }
-       } else
-           unlock_vnode(vp);
-    } while (anyio && (--tries > 0));
-    lock_vnode(vp);
-    if (VOP_GETVOBJECT(vp, &obj) == 0) {
-       VM_OBJECT_LOCK(obj);
-       vm_object_page_remove(obj, 0, 0, FALSE);
-       VM_OBJECT_UNLOCK(obj);
+
+    VI_LOCK(vp);
+    if (vp->v_iflag & VI_DOOMED) {
+       VI_UNLOCK(vp);
+       USERPRI;
+       return;
     }
-    unlock_vnode(vp);
-    /*vinvalbuf(AFSTOV(avc),0, NOCRED, curproc, 0,0); */
-    AFS_GLOCK();
-    ObtainWriteLock(&avc->lock, 59);
+    VI_UNLOCK(vp);
+
+    islocked = VOP_ISLOCKED(vp);
+    if (islocked == LK_EXCLOTHER)
+       panic("Trying to Smush over someone else's lock");
+    else if (islocked == LK_SHARED) {
+       afs_warn("Trying to Smush with a shared lock");
+       vn_lock(vp, LK_UPGRADE);
+    } else if (!islocked)
+       vn_lock(vp, LK_EXCLUSIVE);
+
+    if (vp->v_bufobj.bo_object != NULL) {
+       VM_OBJECT_LOCK(vp->v_bufobj.bo_object);
+       /*
+        * Do we really want OBJPC_SYNC?  OBJPC_INVAL would be
+        * faster, if invalidation is really what we are being
+        * asked to do.  (It would make more sense, too, since
+        * otherwise this function is practically identical to
+        * osi_VM_StoreAllSegments().)  -GAW
+        */
+
+       /*
+        * Dunno.  We no longer resemble osi_VM_StoreAllSegments,
+        * though maybe that's wrong, now.  And OBJPC_SYNC is the
+        * common thing in 70 file systems, it seems.  Matt.
+        */
+
+       vm_object_page_clean(vp->v_bufobj.bo_object, 0, 0, OBJPC_SYNC);
+       VM_OBJECT_UNLOCK(vp->v_bufobj.bo_object);
+    }
+
+    tries = 5;
+    code = osi_vinvalbuf(vp, V_SAVE, PCATCH, 0);
+    while (code && (tries > 0)) {
+       afs_warn("TryToSmush retrying vinvalbuf");
+       code = osi_vinvalbuf(vp, V_SAVE, PCATCH, 0);
+       --tries;
+    }
+    if (islocked == LK_SHARED)
+       vn_lock(vp, LK_DOWNGRADE);
+    else if (!islocked)
+       VOP_UNLOCK(vp, 0);
+    USERPRI;
 }
 
 /* Purge VM for a file when its callback is revoked.
@@ -237,7 +254,7 @@ osi_VM_TryToSmush(struct vcache *avc, struct AFS_UCRED *acred, int sync)
  * Locking:  No lock is held, not even the global lock.
  */
 void
-osi_VM_FlushPages(struct vcache *avc, struct AFS_UCRED *credp)
+osi_VM_FlushPages(struct vcache *avc, afs_ucred_t *credp)
 {
     struct vnode *vp;
     struct vm_object *obj;
@@ -249,7 +266,7 @@ osi_VM_FlushPages(struct vcache *avc, struct AFS_UCRED *credp)
        vm_object_page_remove(obj, 0, 0, FALSE);
        VM_OBJECT_UNLOCK(obj);
     }
-    /*vinvalbuf(AFSTOV(avc),0, NOCRED, curproc, 0,0); */
+    osi_vinvalbuf(vp, 0, 0, 0);
 }
 
 /* Purge pages beyond end-of-file, when truncating a file.
@@ -259,7 +276,7 @@ osi_VM_FlushPages(struct vcache *avc, struct AFS_UCRED *credp)
  * it only works on Solaris.
  */
 void
-osi_VM_Truncate(struct vcache *avc, int alen, struct AFS_UCRED *acred)
+osi_VM_Truncate(struct vcache *avc, int alen, afs_ucred_t *acred)
 {
     vnode_pager_setsize(AFSTOV(avc), alen);
 }