NetBSD osi_crypto: use cprng(9) for random source on NetBSD 6.99/7.x
[openafs.git] / src / afs / NBSD / osi_vm.c
index 4d5bd11..5cc2beb 100644 (file)
@@ -1,7 +1,7 @@
 /*
  * Copyright 2000, International Business Machines Corporation and others.
  * All Rights Reserved.
- * 
+ *
  * This software has been released under the terms of the IBM Public
  * License.  For details, see the LICENSE file in the top-level source
  * directory or online at http://www.openafs.org/dl/license10.html
 #include <afsconfig.h>
 #include "afs/param.h"
 
-
 #include "afs/sysincludes.h"   /* Standard vendor system headers */
-#include "afsincludes.h"       /* Afs-based standard headers */
+#include "afs/afsincludes.h"   /* Afs-based standard headers */
 #include "afs/afs_stats.h"     /* statistics */
-/* #include <vm/vm_ubc.h> */
-#include <limits.h>
-#include <float.h>
 
 /* Try to discard pages, in order to recycle a vcache entry.
  *
 int
 osi_VM_FlushVCache(struct vcache *avc, int *slept)
 {
-#ifdef SECRETLY_OSF1
-    if (avc->vrefCount > 1)
-       return EBUSY;
+    struct vnode *vp = AFSTOV(avc);
 
-    if (avc->opens)
-       return EBUSY;
+    if ((afs_debug & AFSDEB_VNLAYER) != 0) {
+       printf("%s enter\n", __func__);
+    }
 
-    /* if a lock is held, give up */
-    if (CheckLock(&avc->lock))
-       return EBUSY;
+    if (vp == NULL) {
+       printf("%s NULL vp\n", __func__);
+       return 0;
+    }
 
     AFS_GUNLOCK();
-    ubc_invalidate(((struct vnode *)avc)->v_object, 0, 0, B_INVAL);
+    cache_purge(vp);
+    vflushbuf(vp, 1);
     AFS_GLOCK();
-#endif /* SECRETLY_OSF1 */
 
-    return 0;
-}
+    if ((afs_debug & AFSDEB_VNLAYER) != 0) {
+       printf("%s exit\n", __func__);
+    }
 
-/*
- * osi_ubc_flush_dirty_and_wait -- ensure all dirty pages cleaned
- *
- * Alpha OSF/1 doesn't make it easy to wait for all dirty pages to be cleaned.
- * NFS tries to do this by calling waitforio(), which waits for v_numoutput
- * to go to zero.  But that isn't good enough, because afs_putpage() doesn't
- * increment v_numoutput until it has obtained the vcache entry lock.  Suppose
- * that Process A, trying to flush a page, is waiting for that lock, and
- * Process B tries to close the file.  Process B calls waitforio() which thinks
- * that everything is cool because v_numoutput is still zero.  Process B then
- * proceeds to call afs_StoreAllSegments().  Finally when B is finished, A gets
- * to proceed and flush its page.  But then it's too late because the file is
- * already closed.
- *
- * (I suspect that waitforio() is not adequate for NFS, just as it isn't
- * adequate for us.  But that's not my problem.)
- *
- * The only way we can be sure that there are no more dirty pages is if there
- * are no more pages with pg_busy set.  We look for them on the cleanpl.
- *
- * For some reason, ubc_flush_dirty() only looks at the dirtypl, not the
- * dirtywpl.  I don't know why this is good enough, but I assume it is.  By
- * the same token, I only look for busy pages on the cleanpl, not the cleanwpl.
- *
- * Called with the global lock NOT held.
- */
-static void
-osi_ubc_flush_dirty_and_wait(struct vnode *vp, int flags)
-{
-    int retry;
-    vm_page_t pp;
-    int first;
-
-#ifdef SECRETLY_OSF1
-    do {
-       struct vm_ubc_object *vop;
-       vop = (struct vm_ubc_object *)(vp->v_object);
-       ubc_flush_dirty(vop, flags);
-
-       vm_object_lock(vop);
-       if (vop->vu_dirtypl)
-           /* shouldn't happen, but who knows */
-           retry = 1;
-       else {
-           retry = 0;
-           if (vop->vu_cleanpl) {
-               for (first = 1, pp = vop->vu_cleanpl;
-                    first || pp != vop->vu_cleanpl;
-                    first = 0, pp = pp->pg_onext) {
-                   if (pp->pg_busy) {
-                       retry = 1;
-                       pp->pg_wait = 1;
-                       assert_wait_mesg((vm_offset_t) pp, FALSE, "pg_wait");
-                       vm_object_unlock(vop);
-                       thread_block();
-                       break;
-                   }
-               }
-           }
-           if (retry)
-               continue;
-       }
-       vm_object_unlock(vop);
-    } while (retry);
-#endif /* SECRETLY_OSF1 */
+    return 0;
 }
 
 /* Try to store pages to cache, in order to store a file back to the server.
@@ -142,19 +75,28 @@ osi_ubc_flush_dirty_and_wait(struct vnode *vp, int flags)
 void
 osi_VM_StoreAllSegments(struct vcache *avc)
 {
-#ifdef SECRETLY_OSF1
+    struct vnode *vp;
+
+    if ((afs_debug & AFSDEB_VNLAYER) != 0) {
+       printf("%s enter\n", __func__);
+    }
+
     ReleaseWriteLock(&avc->lock);
     AFS_GUNLOCK();
-    osi_ubc_flush_dirty_and_wait((struct vnode *)avc, 0);
+    vp = AFSTOV(avc);
+    mutex_enter(&vp->v_interlock);
+    VOP_PUTPAGES(vp, 0, 0, PGO_ALLPAGES|PGO_CLEANIT|PGO_SYNCIO);
     AFS_GLOCK();
     ObtainWriteLock(&avc->lock, 94);
-#endif /* SECRETLY_OSF1 */
+    if ((afs_debug & AFSDEB_VNLAYER) != 0) {
+       printf("%s exit\n", __func__);
+    }
 }
 
 /* Try to invalidate pages, for "fs flush" or "fs flushv"; or
  * try to free pages, when deleting a file.
  *
- * Locking:  the vcache entry's lock is held.  It may be dropped and 
+ * Locking:  the vcache entry's lock is held.  It may be dropped and
  * re-obtained.
  *
  * Since we drop and re-obtain the lock, we can't guarantee that there won't
@@ -163,14 +105,17 @@ osi_VM_StoreAllSegments(struct vcache *avc)
 void
 osi_VM_TryToSmush(struct vcache *avc, afs_ucred_t *acred, int sync)
 {
-#ifdef SECRETLY_OSF1
+    if ((afs_debug & AFSDEB_VNLAYER) != 0) {
+       printf("%s enter\n", __func__);
+    }
+
     ReleaseWriteLock(&avc->lock);
-    AFS_GUNLOCK();
-    osi_ubc_flush_dirty_and_wait((struct vnode *)avc, 0);
-    ubc_invalidate(((struct vnode *)avc)->v_object, 0, 0, B_INVAL);
-    AFS_GLOCK();
+    osi_VM_FlushVCache(avc, NULL);
     ObtainWriteLock(&avc->lock, 59);
-#endif /* SECRETLY_OSF1 */
+
+    if ((afs_debug & AFSDEB_VNLAYER) != 0) {
+       printf("%s exit\n", __func__);
+    }
 }
 
 /* Purge VM for a file when its callback is revoked.
@@ -180,10 +125,23 @@ osi_VM_TryToSmush(struct vcache *avc, afs_ucred_t *acred, int sync)
 void
 osi_VM_FlushPages(struct vcache *avc, afs_ucred_t *credp)
 {
-#ifdef SECRETLY_OSF1
-    ubc_flush_dirty(((struct vnode *)avc)->v_object, 0);
-    ubc_invalidate(((struct vnode *)avc)->v_object, 0, 0, B_INVAL);
-#endif /* SECRETLY_OSF1 */
+    struct vnode *vp = AFSTOV(avc);
+
+    if ((afs_debug & AFSDEB_VNLAYER) != 0) {
+       printf("%s enter\n", __func__);
+    }
+
+    if (!vp) {
+       printf("%s NULL vp\n", __func__);
+       return;
+    }
+
+    cache_purge(vp);
+    vinvalbuf(vp, 0, credp, curlwp, false, 1);
+
+    if ((afs_debug & AFSDEB_VNLAYER) != 0) {
+       printf("%s exit\n", __func__);
+    }
 }
 
 /* Purge pages beyond end-of-file, when truncating a file.
@@ -193,10 +151,17 @@ osi_VM_FlushPages(struct vcache *avc, afs_ucred_t *credp)
  * it only works on Solaris.
  */
 void
-osi_VM_Truncate(struct vcache *avc, int alen, afs_ucred_t *acred)
+osi_VM_Truncate(struct vcache *avc, voff_t alen, afs_ucred_t *acred)
 {
-#ifdef SECRETLY_OSF1
-    ubc_invalidate(((struct vnode *)avc)->v_object, alen, MAXINT - alen,
-                  B_INVAL);
-#endif /* SECRETLY_OSF1 */
+    struct vnode *vp = AFSTOV(avc);
+
+    if ((afs_debug & AFSDEB_VNLAYER) != 0) {
+       printf("%s enter\n", __func__);
+    }
+
+    vtruncbuf(vp, alen, false, 0);
+
+    if ((afs_debug & AFSDEB_VNLAYER) != 0) {
+       printf("%s exit\n", __func__);
+    }
 }