afs: shake harder in shake-loose-vcaches
[openafs.git] / src / afs / afs_vcache.c
index 1904848..1403254 100644 (file)
@@ -85,6 +85,25 @@ static struct afs_slotlist *afs_freeSlotList = NULL;
 /* Forward declarations */
 static afs_int32 afs_QueueVCB(struct vcache *avc, int *slept);
 
+
+/*
+ * The PFlush algorithm makes use of the fact that Fid.Unique is not used in
+ * below hash algorithms.  Change it if need be so that flushing algorithm
+ * doesn't move things from one hash chain to another.
+ */
+/* Don't hash on the cell; our callback-breaking code sometimes fails to compute
+ * the cell correctly, and only scans one hash bucket. */
+int VCHash(struct VenusFid *fid)
+{
+    return opr_jhash_int2(fid->Fid.Volume, fid->Fid.Vnode, 0) &
+       opr_jhash_mask(VCSIZEBITS);
+}
+/* Hash only on volume to speed up volume callbacks. */
+int VCHashV(struct VenusFid *fid)
+{
+    return opr_jhash_int(fid->Fid.Vnode, 0) & opr_jhash_mask(VCSIZEBITS);
+}
+
 /*!
  * Generate an index into the hash table for a given Fid.
  * \param fid
@@ -138,12 +157,16 @@ afs_FlushVCache(struct vcache *avc, int *slept)
     afs_int32 i, code;
     struct vcache **uvc, *wvc;
 
+    /* NOTE: We must have nothing drop afs_xvcache until we have removed all
+     * possible references to this vcache. This means all hash tables, queues,
+     * DNLC, etc. */
+
     *slept = 0;
     AFS_STATCNT(afs_FlushVCache);
     afs_Trace2(afs_iclSetp, CM_TRACE_FLUSHV, ICL_TYPE_POINTER, avc,
               ICL_TYPE_INT32, avc->f.states);
 
-    code = osi_VM_FlushVCache(avc, slept);
+    code = osi_VM_FlushVCache(avc);
     if (code)
        goto bad;
 
@@ -172,7 +195,7 @@ afs_FlushVCache(struct vcache *avc, int *slept)
     for (wvc = *uvc; wvc; uvc = &wvc->hnext, wvc = *uvc) {
        if (avc == wvc) {
            *uvc = avc->hnext;
-           avc->hnext = (struct vcache *)NULL;
+           avc->hnext = NULL;
            break;
        }
     }
@@ -180,9 +203,29 @@ afs_FlushVCache(struct vcache *avc, int *slept)
     /* remove entry from the volume hash table */
     QRemove(&avc->vhashq);
 
-    if (avc->mvid)
-       osi_FreeSmallSpace(avc->mvid);
-    avc->mvid = (struct VenusFid *)0;
+#if defined(AFS_LINUX26_ENV)
+    {
+       struct pagewriter *pw, *store;
+       struct list_head tofree;
+
+       INIT_LIST_HEAD(&tofree);
+       spin_lock(&avc->pagewriter_lock);
+       list_for_each_entry_safe(pw, store, &avc->pagewriters, link) {
+           list_del(&pw->link);
+           /* afs_osi_Free may sleep so we need to defer it */
+           list_add_tail(&pw->link, &tofree);
+       }
+       spin_unlock(&avc->pagewriter_lock);
+       list_for_each_entry_safe(pw, store, &tofree, link) {
+           list_del(&pw->link);
+           afs_osi_Free(pw, sizeof(struct pagewriter));
+       }
+    }
+#endif
+
+    if (avc->mvid.target_root)
+       osi_FreeSmallSpace(avc->mvid.target_root);
+    avc->mvid.target_root = NULL;
     if (avc->linkData) {
        afs_osi_Free(avc->linkData, strlen(avc->linkData) + 1);
        avc->linkData = NULL;
@@ -214,7 +257,11 @@ afs_FlushVCache(struct vcache *avc, int *slept)
     else
        osi_dnlc_purgevp(avc);
 
-    if (!afs_shuttingdown)
+    /* By this point, the vcache has been removed from all global structures
+     * via which someone could try to use the vcache. It is okay to drop
+     * afs_xvcache at this point (if *slept is set). */
+
+    if (afs_shuttingdown == AFS_RUNNING)
        afs_QueueVCB(avc, slept);
 
     /*
@@ -403,7 +450,7 @@ afs_FlushVCBs(afs_int32 lockit)
     int tcount;
     struct server *tsp;
     int i;
-    struct vrequest treq;
+    struct vrequest *treq = NULL;
     struct afs_conn *tc;
     int safety1, safety2, safety3;
     XSTATS_DECLS;
@@ -411,9 +458,9 @@ afs_FlushVCBs(afs_int32 lockit)
     if (AFS_IS_DISCONNECTED)
        return ENETDOWN;
 
-    if ((code = afs_InitReq(&treq, afs_osi_credp)))
+    if ((code = afs_CreateReq(&treq, afs_osi_credp)))
        return code;
-    treq.flags |= O_NONBLOCK;
+    treq->flags |= O_NONBLOCK;
     tfids = afs_osi_Alloc(sizeof(struct AFSFid) * AFS_MAXCBRSCALL);
     osi_Assert(tfids != NULL);
 
@@ -456,7 +503,7 @@ afs_FlushVCBs(afs_int32 lockit)
                    callBacks[0].CallBackType = CB_EXCLUSIVE;
                    for (safety3 = 0; safety3 < AFS_MAXHOSTS * 2; safety3++) {
                        tc = afs_ConnByHost(tsp, tsp->cell->fsport,
-                                           tsp->cell->cellNum, &treq, 0,
+                                           tsp->cell->cellNum, treq, 0,
                                            SHARED_LOCK, 0, &rxconn);
                        if (tc) {
                            XSTATS_START_TIME
@@ -470,7 +517,7 @@ afs_FlushVCBs(afs_int32 lockit)
                        } else
                            code = -1;
                        if (!afs_Analyze
-                           (tc, rxconn, code, 0, &treq,
+                           (tc, rxconn, code, 0, treq,
                             AFS_STATS_FS_RPCIDX_GIVEUPCALLBACKS, SHARED_LOCK,
                             tsp->cell)) {
                            break;
@@ -515,6 +562,7 @@ afs_FlushVCBs(afs_int32 lockit)
     if (lockit)
        ReleaseWriteLock(&afs_xvcb);
     afs_osi_Free(tfids, sizeof(struct AFSFid) * AFS_MAXCBRSCALL);
+    afs_DestroyReq(treq);
     return 0;
 }
 
@@ -679,9 +727,9 @@ afs_PostPopulateVCache(struct vcache *avc, struct VenusFid *afid, int seq)
     /*
      * The proper value for mvstat (for root fids) is setup by the caller.
      */
-    avc->mvstat = 0;
+    avc->mvstat = AFS_MVSTAT_FILE;
     if (afid->Fid.Vnode == 1 && afid->Fid.Unique == 1)
-       avc->mvstat = 2;
+       avc->mvstat = AFS_MVSTAT_ROOT;
 
     if (afs_globalVFS == 0)
        osi_Panic("afs globalvfs");
@@ -704,21 +752,27 @@ int
 afs_ShakeLooseVCaches(afs_int32 anumber)
 {
     afs_int32 i, loop;
+    int evicted;
     struct vcache *tvc;
     struct afs_q *tq, *uq;
     int fv_slept, defersleep = 0;
+    int limit;
     afs_int32 target = anumber;
 
-    i = 0;
     loop = 0;
+
+ retry:
+    i = 0;
+    limit = afs_vcount;
     for (tq = VLRU.prev; tq != &VLRU && anumber > 0; tq = uq) {
        tvc = QTOV(tq);
        uq = QPrev(tq);
        if (tvc->f.states & CVFlushed) {
            refpanic("CVFlushed on VLRU");
-           /* In the other path, this was 2 * afs_cacheStats */
-       } else if (!afsd_dynamic_vcaches && i++ > afs_maxvcount) {
-           refpanic("Exceeded pool of AFS vnodes(VLRU cycle?)");
+       } else if (i++ > limit) {
+           afs_warn("afs_ShakeLooseVCaches: i %d limit %d afs_vcount %d afs_maxvcount %d\n",
+                    (int)i, limit, (int)afs_vcount, (int)afs_maxvcount);
+           refpanic("Found too many AFS vnodes on VLRU (VLRU cycle?)");
        } else if (QNext(uq) != tq) {
            refpanic("VLRU inconsistent");
        } else if (tvc->f.states & CVInit) {
@@ -726,21 +780,29 @@ afs_ShakeLooseVCaches(afs_int32 anumber)
        }
 
        fv_slept = 0;
-       if (osi_TryEvictVCache(tvc, &fv_slept, defersleep))
+       evicted = osi_TryEvictVCache(tvc, &fv_slept, defersleep);
+       if (evicted) {
            anumber--;
+       }
 
        if (fv_slept) {
            if (loop++ > 100)
                break;
-           uq = VLRU.prev;
-           i = 0;
-           continue;   /* start over - may have raced. */
+           if (!evicted) {
+               /*
+                * This vcache was busy and we slept while trying to evict it.
+                * Move this busy vcache to the head of the VLRU so vcaches
+                * following this busy vcache can be evicted during the retry.
+                */
+               QRemove(&tvc->vlruq);
+               QAdd(&VLRU, &tvc->vlruq);
+           }
+           goto retry; /* start over - may have raced. */
        }
-       if (tq == uq) {
+       if (uq == &VLRU) {
            if (anumber && !defersleep) {
                defersleep = 1;
-               tq = VLRU.prev;
-               continue;
+               goto retry;
            }
            break;
        }
@@ -807,7 +869,7 @@ afs_PrePopulateVCache(struct vcache *avc, struct VenusFid *afid,
 
     AFS_RWLOCK_INIT(&avc->lock, "vcache lock");
 
-    avc->mvid = NULL;
+    memset(&avc->mvid, 0, sizeof(avc->mvid));
     avc->linkData = NULL;
     avc->cbExpires = 0;
     avc->opens = 0;
@@ -852,7 +914,6 @@ afs_FlushAllVCaches(void)
            if (slept) {
                goto retry;
            }
-           tvc = nvc;
        }
     }
 
@@ -993,11 +1054,18 @@ afs_FlushActiveVcaches(afs_int32 doflocks)
     struct afs_conn *tc;
     afs_int32 code;
     afs_ucred_t *cred = NULL;
-    struct vrequest treq, ureq;
+    struct vrequest *treq = NULL;
     struct AFSVolSync tsync;
     int didCore;
     XSTATS_DECLS;
     AFS_STATCNT(afs_FlushActiveVcaches);
+
+    code = afs_CreateReq(&treq, afs_osi_credp);
+    if (code) {
+       afs_warn("unable to alloc treq\n");
+       return;
+    }
+
     ObtainReadLock(&afs_xvcache);
     for (i = 0; i < VCSIZE; i++) {
        for (tvc = afs_vhashT[i]; tvc; tvc = tvc->hnext) {
@@ -1014,10 +1082,14 @@ afs_FlushActiveVcaches(afs_int32 doflocks)
                ReleaseReadLock(&afs_xvcache);
                ObtainWriteLock(&tvc->lock, 51);
                do {
-                   afs_InitReq(&treq, afs_osi_credp);
-                   treq.flags |= O_NONBLOCK;
+                   code = afs_InitReq(treq, afs_osi_credp);
+                   if (code) {
+                       code = -1;
+                       break; /* shutting down: do not try to extend the lock */
+                   }
+                   treq->flags |= O_NONBLOCK;
 
-                   tc = afs_Conn(&tvc->f.fid, &treq, SHARED_LOCK, &rxconn);
+                   tc = afs_Conn(&tvc->f.fid, treq, SHARED_LOCK, &rxconn);
                    if (tc) {
                        XSTATS_START_TIME(AFS_STATS_FS_RPCIDX_EXTENDLOCK);
                        RX_AFS_GUNLOCK();
@@ -1030,7 +1102,7 @@ afs_FlushActiveVcaches(afs_int32 doflocks)
                    } else
                        code = -1;
                } while (afs_Analyze
-                        (tc, rxconn, code, &tvc->f.fid, &treq,
+                        (tc, rxconn, code, &tvc->f.fid, treq,
                          AFS_STATS_FS_RPCIDX_EXTENDLOCK, SHARED_LOCK, NULL));
 
                ReleaseWriteLock(&tvc->lock);
@@ -1051,9 +1123,6 @@ afs_FlushActiveVcaches(afs_int32 doflocks)
                 */
                osi_vnhold(tvc, 0);
                ReleaseReadLock(&afs_xvcache);
-#ifdef AFS_BOZONLOCK_ENV
-               afs_BozonLock(&tvc->pvnLock, tvc);
-#endif
 #if defined(AFS_SGI_ENV)
                /*
                 * That's because if we come in via the CUnlinkedDel bit state path we'll be have 0 refcnt
@@ -1067,15 +1136,14 @@ afs_FlushActiveVcaches(afs_int32 doflocks)
                    /* XXXX Find better place-holder for cred XXXX */
                    cred = (afs_ucred_t *)tvc->linkData;
                    tvc->linkData = NULL;       /* XXX */
-                   afs_InitReq(&ureq, cred);
+                   code = afs_InitReq(treq, cred);
                    afs_Trace2(afs_iclSetp, CM_TRACE_ACTCCORE,
                               ICL_TYPE_POINTER, tvc, ICL_TYPE_INT32,
                               tvc->execsOrWriters);
-                   code = afs_StoreOnLastReference(tvc, &ureq);
+                   if (!code) {  /* avoid store when shutting down */
+                       code = afs_StoreOnLastReference(tvc, treq);
+                   }
                    ReleaseWriteLock(&tvc->lock);
-#ifdef AFS_BOZONLOCK_ENV
-                   afs_BozonUnlock(&tvc->pvnLock, tvc);
-#endif
                    hzero(tvc->flushDV);
                    osi_FlushText(tvc);
                    didCore = 1;
@@ -1088,9 +1156,6 @@ afs_FlushActiveVcaches(afs_int32 doflocks)
                     * Ignore errors
                     */
                    ReleaseWriteLock(&tvc->lock);
-#ifdef AFS_BOZONLOCK_ENV
-                   afs_BozonUnlock(&tvc->pvnLock, tvc);
-#endif
 #if defined(AFS_SGI_ENV)
                    AFS_RWUNLOCK((vnode_t *) tvc, VRWLOCK_WRITE);
 #endif
@@ -1101,9 +1166,6 @@ afs_FlushActiveVcaches(afs_int32 doflocks)
                } else {
                    /* lost (or won, perhaps) the race condition */
                    ReleaseWriteLock(&tvc->lock);
-#ifdef AFS_BOZONLOCK_ENV
-                   afs_BozonUnlock(&tvc->pvnLock, tvc);
-#endif
                }
 #if defined(AFS_SGI_ENV)
                AFS_RWUNLOCK((vnode_t *) tvc, VRWLOCK_WRITE);
@@ -1129,6 +1191,7 @@ afs_FlushActiveVcaches(afs_int32 doflocks)
        }
     }
     ReleaseReadLock(&afs_xvcache);
+    afs_DestroyReq(treq);
 }
 
 
@@ -1196,7 +1259,7 @@ afs_VerifyVCache2(struct vcache *avc, struct vrequest *areq)
     /* fetch the status info */
     tvc = afs_GetVCache(&avc->f.fid, areq, NULL, avc);
     if (!tvc)
-       return ENOENT;
+       return EIO;
     /* Put it back; caller has already incremented vrefCount */
     afs_PutVCache(tvc);
     return 0;
@@ -1262,7 +1325,7 @@ afs_SimpleVStat(struct vcache *avc,
     } else if (vType(avc) == VLNK) {
        avc->f.m.Mode |= S_IFLNK;
        if ((avc->f.m.Mode & 0111) == 0)
-           avc->mvstat = 1;
+           avc->mvstat = AFS_MVSTAT_MTPT;
     }
     if (avc->f.states & CForeign) {
        struct axscache *ac;
@@ -1414,7 +1477,7 @@ afs_WriteVCacheDiscon(struct vcache *avc,
                } else if (vType(avc) == VLNK) {
                        avc->f.m.Mode |= S_IFLNK;
                        if ((avc->f.m.Mode & 0111) == 0)
-                               avc->mvstat = 1;
+                               avc->mvstat = AFS_MVSTAT_MTPT;
                }
 #endif
                flags |= VDisconSetMode;
@@ -1504,7 +1567,7 @@ afs_ProcessFS(struct vcache *avc,
            avc->f.m.Mode |= S_IFLNK;
        }
        if ((avc->f.m.Mode & 0111) == 0) {
-           avc->mvstat = 1;
+           avc->mvstat = AFS_MVSTAT_MTPT;
        }
     }
     avc->f.anyAccess = astat->AnonymousAccess;
@@ -1781,7 +1844,7 @@ afs_GetVCache(struct VenusFid *afid, struct vrequest *areq,
                tvc->f.states |= CForeign;
            if (newvcache && (tvp->rootVnode == afid->Fid.Vnode)
                && (tvp->rootUnique == afid->Fid.Unique)) {
-               tvc->mvstat = 2;
+               tvc->mvstat = AFS_MVSTAT_ROOT;
            }
        }
        if (tvp->states & VRO)
@@ -1789,11 +1852,11 @@ afs_GetVCache(struct VenusFid *afid, struct vrequest *areq,
        if (tvp->states & VBackup)
            tvc->f.states |= CBackup;
        /* now copy ".." entry back out of volume structure, if necessary */
-       if (tvc->mvstat == 2 && tvp->dotdot.Fid.Volume != 0) {
-           if (!tvc->mvid)
-               tvc->mvid = (struct VenusFid *)
+       if (tvc->mvstat == AFS_MVSTAT_ROOT && tvp->dotdot.Fid.Volume != 0) {
+           if (!tvc->mvid.parent)
+               tvc->mvid.parent = (struct VenusFid *)
                    osi_AllocSmallSpace(sizeof(struct VenusFid));
-           *tvc->mvid = tvp->dotdot;
+           *tvc->mvid.parent = tvp->dotdot;
        }
        afs_PutVolume(tvp, READ_LOCK);
     }
@@ -1969,18 +2032,18 @@ afs_LookupVCache(struct VenusFid *afid, struct vrequest *areq,
                tvc->f.states |= CForeign;
            if (newvcache && (tvp->rootVnode == afid->Fid.Vnode)
                && (tvp->rootUnique == afid->Fid.Unique))
-               tvc->mvstat = 2;
+               tvc->mvstat = AFS_MVSTAT_ROOT;
        }
        if (tvp->states & VRO)
            tvc->f.states |= CRO;
        if (tvp->states & VBackup)
            tvc->f.states |= CBackup;
        /* now copy ".." entry back out of volume structure, if necessary */
-       if (tvc->mvstat == 2 && tvp->dotdot.Fid.Volume != 0) {
-           if (!tvc->mvid)
-               tvc->mvid = (struct VenusFid *)
+       if (tvc->mvstat == AFS_MVSTAT_ROOT && tvp->dotdot.Fid.Volume != 0) {
+           if (!tvc->mvid.parent)
+               tvc->mvid.parent = (struct VenusFid *)
                    osi_AllocSmallSpace(sizeof(struct VenusFid));
-           *tvc->mvid = tvp->dotdot;
+           *tvc->mvid.parent = tvp->dotdot;
        }
     }
 
@@ -2199,13 +2262,13 @@ afs_GetRootVCache(struct VenusFid *afid, struct vrequest *areq,
     /* now copy ".." entry back out of volume structure, if necessary */
     if (newvcache && (tvolp->rootVnode == afid->Fid.Vnode)
        && (tvolp->rootUnique == afid->Fid.Unique)) {
-       tvc->mvstat = 2;
+       tvc->mvstat = AFS_MVSTAT_ROOT;
     }
-    if (tvc->mvstat == 2 && tvolp->dotdot.Fid.Volume != 0) {
-       if (!tvc->mvid)
-           tvc->mvid = (struct VenusFid *)
+    if (tvc->mvstat == AFS_MVSTAT_ROOT && tvolp->dotdot.Fid.Volume != 0) {
+       if (!tvc->mvid.parent)
+           tvc->mvid.parent = (struct VenusFid *)
                osi_AllocSmallSpace(sizeof(struct VenusFid));
-       *tvc->mvid = tvolp->dotdot;
+       *tvc->mvid.parent = tvolp->dotdot;
     }
 
     /* stat the file */
@@ -2511,11 +2574,11 @@ afs_StuffVcache(struct VenusFid *afid,
         * Now, copy ".." entry back out of volume structure, if
         * necessary
         */
-       if (tvc->mvstat == 2 && tvp->dotdot.Fid.Volume != 0) {
-           if (!tvc->mvid)
-               tvc->mvid = (struct VenusFid *)
+       if (tvc->mvstat == AFS_MVSTAT_ROOT && tvp->dotdot.Fid.Volume != 0) {
+           if (!tvc->mvid.parent)
+               tvc->mvid.parent = (struct VenusFid *)
                    osi_AllocSmallSpace(sizeof(struct VenusFid));
-           *tvc->mvid = tvp->dotdot;
+           *tvc->mvid.parent = tvp->dotdot;
        }
     }
     /* store the stat on the file */
@@ -2603,11 +2666,14 @@ afs_PutVCache(struct vcache *avc)
  *
  * \param avc Pointer to the cache entry to reset
  * \param acred
+ * \param skipdnlc  skip the dnlc purge for this vnode
  *
  * \note avc must be write locked on entry
+ *
+ * \note The caller should purge the dnlc when skipdnlc is set.
  */
 void
-afs_ResetVCache(struct vcache *avc, afs_ucred_t *acred)
+afs_ResetVCache(struct vcache *avc, afs_ucred_t *acred, afs_int32 skipdnlc)
 {
     ObtainWriteLock(&afs_xcbhash, 456);
     afs_DequeueCallback(avc);
@@ -2615,7 +2681,9 @@ afs_ResetVCache(struct vcache *avc, afs_ucred_t *acred)
     ReleaseWriteLock(&afs_xcbhash);
     /* now find the disk cache entries */
     afs_TryToSmush(avc, acred, 1);
-    osi_dnlc_purgedp(avc);
+    if (!skipdnlc) {
+       osi_dnlc_purgedp(avc);
+    }
     if (avc->linkData && !(avc->f.states & CCore)) {
        afs_osi_Free(avc->linkData, strlen(avc->linkData) + 1);
        avc->linkData = NULL;
@@ -3046,9 +3114,9 @@ shutdown_vcache(void)
        for (tq = VLRU.prev; tq != &VLRU; tq = uq) {
            tvc = QTOV(tq);
            uq = QPrev(tq);
-           if (tvc->mvid) {
-               osi_FreeSmallSpace(tvc->mvid);
-               tvc->mvid = (struct VenusFid *)0;
+           if (tvc->mvid.target_root) {
+               osi_FreeSmallSpace(tvc->mvid.target_root);
+               tvc->mvid.target_root = NULL;
            }
 #ifdef AFS_AIX_ENV
            aix_gnode_rele(AFSTOV(tvc));
@@ -3063,9 +3131,9 @@ shutdown_vcache(void)
         */
        for (i = 0; i < VCSIZE; i++) {
            for (tvc = afs_vhashT[i]; tvc; tvc = tvc->hnext) {
-               if (tvc->mvid) {
-                   osi_FreeSmallSpace(tvc->mvid);
-                   tvc->mvid = (struct VenusFid *)0;
+               if (tvc->mvid.target_root) {
+                   osi_FreeSmallSpace(tvc->mvid.target_root);
+                   tvc->mvid.target_root = NULL;
                }
 #ifdef AFS_AIX_ENV
                if (tvc->v.v_gnode)