!C99Shell v. 1.0 pre-release build #13!

Software: Apache/2.0.54 (Unix) mod_perl/1.99_09 Perl/v5.8.0 mod_ssl/2.0.54 OpenSSL/0.9.7l DAV/2 FrontPage/5.0.2.2635 PHP/4.4.0 mod_gzip/2.0.26.1a 

uname -a: Linux snow.he.net 4.4.276-v2-mono-1 #1 SMP Wed Jul 21 11:21:17 PDT 2021 i686 

uid=99(nobody) gid=98(nobody) groups=98(nobody) 

Safe-mode: OFF (not secure)

/usr/src/linux-2.4.18-xfs-1.1/net/sunrpc/   drwxr-xr-x
Free 318.34 GB of 458.09 GB (69.49%)
Home    Back    Forward    UPDIR    Refresh    Search    Buffer    Encoder    Tools    Proc.    FTP brute    Sec.    SQL    PHP-code    Update    Feedback    Self remove    Logout    


Viewing file:     clnt.c (21.7 KB)      -rw-r--r--
Select action/file-type:
(+) | (+) | (+) | Code (+) | Session (+) | (+) | SDB (+) | (+) | (+) | (+) | (+) | (+) |
/*
 *  linux/net/sunrpc/rpcclnt.c
 *
 *  This file contains the high-level RPC interface.
 *  It is modeled as a finite state machine to support both synchronous
 *  and asynchronous requests.
 *
 *  -    RPC header generation and argument serialization.
 *  -    Credential refresh.
 *  -    TCP reconnect handling (when finished).
 *  -    Retry of operation when it is suspected the operation failed because
 *    of uid squashing on the server, or when the credentials were stale
 *    and need to be refreshed, or when a packet was damaged in transit.
 *    This may be have to be moved to the VFS layer.
 *
 *  NB: BSD uses a more intelligent approach to guessing when a request
 *  or reply has been lost by keeping the RTO estimate for each procedure.
 *  We currently make do with a constant timeout value.
 *
 *  Copyright (C) 1992,1993 Rick Sladkey <jrs@world.std.com>
 *  Copyright (C) 1995,1996 Olaf Kirch <okir@monad.swb.de>
 */

#include <asm/system.h>

#include <linux/types.h>
#include <linux/mm.h>
#include <linux/slab.h>
#include <linux/in.h>
#include <linux/utsname.h>

#include <linux/sunrpc/clnt.h>

#include <linux/nfs.h>


#define RPC_SLACK_SPACE        512    /* total overkill */

#ifdef RPC_DEBUG
# define RPCDBG_FACILITY    RPCDBG_CALL
#endif

static DECLARE_WAIT_QUEUE_HEAD(destroy_wait);


static void    call_reserve(struct rpc_task *task);
static void    call_reserveresult(struct rpc_task *task);
static void    call_allocate(struct rpc_task *task);
static void    call_encode(struct rpc_task *task);
static void    call_decode(struct rpc_task *task);
static void    call_bind(struct rpc_task *task);
static void    call_transmit(struct rpc_task *task);
static void    call_status(struct rpc_task *task);
static void    call_refresh(struct rpc_task *task);
static void    call_refreshresult(struct rpc_task *task);
static void    call_timeout(struct rpc_task *task);
static void    call_reconnect(struct rpc_task *task);
static void    child_reconnect(struct rpc_task *);
static void    child_reconnect_status(struct rpc_task *);
static u32 *    call_header(struct rpc_task *task);
static u32 *    call_verify(struct rpc_task *task);


/*
 * Create an RPC client
 * FIXME: This should also take a flags argument (as in task->tk_flags).
 * It's called (among others) from pmap_create_client, which may in
 * turn be called by an async task. In this case, rpciod should not be
 * made to sleep too long.
 */
struct rpc_clnt *
rpc_create_client(struct rpc_xprt *xprt, char *servname,
          struct rpc_program *program, u32 vers, int flavor)
{
    struct rpc_version    *version;
    struct rpc_clnt        *clnt = NULL;

    dprintk("RPC: creating %s client for %s (xprt %p)\n",
        program->name, servname, xprt);

#ifdef RPC_DEBUG
    rpc_register_sysctl();
#endif

    if (!xprt)
        goto out;
    if (vers >= program->nrvers || !(version = program->version[vers]))
        goto out;

    clnt = (struct rpc_clnt *) rpc_allocate(0, sizeof(*clnt));
    if (!clnt)
        goto out_no_clnt;
    memset(clnt, 0, sizeof(*clnt));
    atomic_set(&clnt->cl_users, 0);

    clnt->cl_xprt     = xprt;
    clnt->cl_procinfo = version->procs;
    clnt->cl_maxproc  = version->nrprocs;
    clnt->cl_server   = servname;
    clnt->cl_protname = program->name;
    clnt->cl_port     = xprt->addr.sin_port;
    clnt->cl_prog     = program->number;
    clnt->cl_vers     = version->number;
    clnt->cl_prot     = xprt->prot;
    clnt->cl_stats    = program->stats;
    clnt->cl_bindwait = RPC_INIT_WAITQ("bindwait");

    if (!clnt->cl_port)
        clnt->cl_autobind = 1;

    if (!rpcauth_create(flavor, clnt))
        goto out_no_auth;

    /* save the nodename */
    clnt->cl_nodelen = strlen(system_utsname.nodename);
    if (clnt->cl_nodelen > UNX_MAXNODENAME)
        clnt->cl_nodelen = UNX_MAXNODENAME;
    memcpy(clnt->cl_nodename, system_utsname.nodename, clnt->cl_nodelen);
out:
    return clnt;

out_no_clnt:
    printk(KERN_INFO "RPC: out of memory in rpc_create_client\n");
    goto out;
out_no_auth:
    printk(KERN_INFO "RPC: Couldn't create auth handle (flavor %d)\n",
        flavor);
    rpc_free(clnt);
    clnt = NULL;
    goto out;
}

/*
 * Properly shut down an RPC client, terminating all outstanding
 * requests. Note that we must be certain that cl_oneshot and
 * cl_dead are cleared, or else the client would be destroyed
 * when the last task releases it.
 */
int
rpc_shutdown_client(struct rpc_clnt *clnt)
{
    dprintk("RPC: shutting down %s client for %s\n",
        clnt->cl_protname, clnt->cl_server);
    while (atomic_read(&clnt->cl_users)) {
#ifdef RPC_DEBUG
        dprintk("RPC: rpc_shutdown_client: client %s, tasks=%d\n",
            clnt->cl_protname, atomic_read(&clnt->cl_users));
#endif
        /* Don't let rpc_release_client destroy us */
        clnt->cl_oneshot = 0;
        clnt->cl_dead = 0;
        rpc_killall_tasks(clnt);
        sleep_on_timeout(&destroy_wait, 1*HZ);
    }
    return rpc_destroy_client(clnt);
}

/*
 * Delete an RPC client
 */
int
rpc_destroy_client(struct rpc_clnt *clnt)
{
    dprintk("RPC: destroying %s client for %s\n",
            clnt->cl_protname, clnt->cl_server);

    if (clnt->cl_auth) {
        rpcauth_destroy(clnt->cl_auth);
        clnt->cl_auth = NULL;
    }
    if (clnt->cl_xprt) {
        xprt_destroy(clnt->cl_xprt);
        clnt->cl_xprt = NULL;
    }
    rpc_free(clnt);
    return 0;
}

/*
 * Release an RPC client
 */
void
rpc_release_client(struct rpc_clnt *clnt)
{
    dprintk("RPC:      rpc_release_client(%p, %d)\n",
                clnt, atomic_read(&clnt->cl_users));

    if (!atomic_dec_and_test(&clnt->cl_users))
        return;
    wake_up(&destroy_wait);
    if (clnt->cl_oneshot || clnt->cl_dead)
        rpc_destroy_client(clnt);
}

/*
 * Default callback for async RPC calls
 */
static void
rpc_default_callback(struct rpc_task *task)
{
}

/*
 *    Export the signal mask handling for aysnchronous code that
 *    sleeps on RPC calls
 */
 
void rpc_clnt_sigmask(struct rpc_clnt *clnt, sigset_t *oldset)
{
    unsigned long    sigallow = sigmask(SIGKILL);
    unsigned long    irqflags;
    
    /* Turn off various signals */
    if (clnt->cl_intr) {
        struct k_sigaction *action = current->sig->action;
        if (action[SIGINT-1].sa.sa_handler == SIG_DFL)
            sigallow |= sigmask(SIGINT);
        if (action[SIGQUIT-1].sa.sa_handler == SIG_DFL)
            sigallow |= sigmask(SIGQUIT);
    }
    spin_lock_irqsave(&current->sigmask_lock, irqflags);
    *oldset = current->blocked;
    siginitsetinv(&current->blocked, sigallow & ~oldset->sig[0]);
    recalc_sigpending(current);
    spin_unlock_irqrestore(&current->sigmask_lock, irqflags);
}

void rpc_clnt_sigunmask(struct rpc_clnt *clnt, sigset_t *oldset)
{
    unsigned long    irqflags;
    
    spin_lock_irqsave(&current->sigmask_lock, irqflags);
    current->blocked = *oldset;
    recalc_sigpending(current);
    spin_unlock_irqrestore(&current->sigmask_lock, irqflags);
}

/*
 * New rpc_call implementation
 */
int rpc_call_sync(struct rpc_clnt *clnt, struct rpc_message *msg, int flags)
{
    struct rpc_task    my_task, *task = &my_task;
    sigset_t    oldset;
    int        status;

    /* If this client is slain all further I/O fails */
    if (clnt->cl_dead) 
        return -EIO;

    if (flags & RPC_TASK_ASYNC) {
        printk("rpc_call_sync: Illegal flag combination for synchronous task\n");
        flags &= ~RPC_TASK_ASYNC;
    }

    rpc_clnt_sigmask(clnt, &oldset);        

    /* Create/initialize a new RPC task */
    rpc_init_task(task, clnt, NULL, flags);
    rpc_call_setup(task, msg, 0);

    /* Set up the call info struct and execute the task */
    if (task->tk_status == 0)
        status = rpc_execute(task);
    else {
        status = task->tk_status;
        rpc_release_task(task);
    }

    rpc_clnt_sigunmask(clnt, &oldset);        

    return status;
}

/*
 * New rpc_call implementation
 */
int
rpc_call_async(struct rpc_clnt *clnt, struct rpc_message *msg, int flags,
           rpc_action callback, void *data)
{
    struct rpc_task    *task;
    sigset_t    oldset;
    int        status;

    /* If this client is slain all further I/O fails */
    if (clnt->cl_dead) 
        return -EIO;

    flags |= RPC_TASK_ASYNC;

    rpc_clnt_sigmask(clnt, &oldset);        

    /* Create/initialize a new RPC task */
    if (!callback)
        callback = rpc_default_callback;
    status = -ENOMEM;
    if (!(task = rpc_new_task(clnt, callback, flags)))
        goto out;
    task->tk_calldata = data;

    rpc_call_setup(task, msg, 0);

    /* Set up the call info struct and execute the task */
    if (task->tk_status == 0)
        status = rpc_execute(task);
    else {
        status = task->tk_status;
        rpc_release_task(task);
    }

out:
    rpc_clnt_sigunmask(clnt, &oldset);        

    return status;
}


void
rpc_call_setup(struct rpc_task *task, struct rpc_message *msg, int flags)
{
    task->tk_msg   = *msg;
    task->tk_flags |= flags;
    /* Bind the user cred */
    if (task->tk_msg.rpc_cred != NULL) {
        rpcauth_holdcred(task);
    } else
        rpcauth_bindcred(task);

    if (task->tk_status == 0)
        task->tk_action = call_reserve;
    else
        task->tk_action = NULL;

    /* Increment call count */
    if (task->tk_msg.rpc_proc < task->tk_client->cl_maxproc)
        rpcproc_count(task->tk_client, task->tk_msg.rpc_proc)++;
}

/*
 * Restart an (async) RPC call. Usually called from within the
 * exit handler.
 */
void
rpc_restart_call(struct rpc_task *task)
{
    if (RPC_ASSASSINATED(task))
        return;

    task->tk_action = call_reserve;
    rpcproc_count(task->tk_client, task->tk_msg.rpc_proc)++;
}

/*
 * 1.    Reserve an RPC call slot
 */
static void
call_reserve(struct rpc_task *task)
{
    struct rpc_clnt    *clnt = task->tk_client;

    if (task->tk_msg.rpc_proc > clnt->cl_maxproc) {
        printk(KERN_WARNING "%s (vers %d): bad procedure number %d\n",
            clnt->cl_protname, clnt->cl_vers, task->tk_msg.rpc_proc);
        rpc_exit(task, -EIO);
        return;
    }

    dprintk("RPC: %4d call_reserve\n", task->tk_pid);
    if (!rpcauth_uptodatecred(task)) {
        task->tk_action = call_refresh;
        return;
    }

    task->tk_status  = 0;
    task->tk_action  = call_reserveresult;
    task->tk_timeout = clnt->cl_timeout.to_resrvval;
    clnt->cl_stats->rpccnt++;
    xprt_reserve(task);
}

/*
 * 1b.    Grok the result of xprt_reserve()
 */
static void
call_reserveresult(struct rpc_task *task)
{
    int status = task->tk_status;

    dprintk("RPC: %4d call_reserveresult (status %d)\n",
                task->tk_pid, task->tk_status);
    /*
     * After a call to xprt_reserve(), we must have either
     * a request slot or else an error status.
     */
    if ((task->tk_status >= 0 && !task->tk_rqstp) ||
        (task->tk_status < 0 && task->tk_rqstp))
        printk(KERN_ERR "call_reserveresult: status=%d, request=%p??\n",
         task->tk_status, task->tk_rqstp);

    if (task->tk_status >= 0) {
        task->tk_action = call_allocate;
        return;
    }

    task->tk_status = 0;
    switch (status) {
    case -EAGAIN:
    case -ENOBUFS:
        task->tk_timeout = task->tk_client->cl_timeout.to_resrvval;
        task->tk_action = call_reserve;
        break;
    case -ETIMEDOUT:
        dprintk("RPC: task timed out\n");
        task->tk_action = call_timeout;
        break;
    default:
        if (!task->tk_rqstp) {
            printk(KERN_INFO "RPC: task has no request, exit EIO\n");
            rpc_exit(task, -EIO);
        } else
            rpc_exit(task, status);
    }
}

/*
 * 2.    Allocate the buffer. For details, see sched.c:rpc_malloc.
 *    (Note: buffer memory is freed in rpc_task_release).
 */
static void
call_allocate(struct rpc_task *task)
{
    struct rpc_clnt    *clnt = task->tk_client;
    unsigned int    bufsiz;

    dprintk("RPC: %4d call_allocate (status %d)\n", 
                task->tk_pid, task->tk_status);
    task->tk_action = call_encode;
    if (task->tk_buffer)
        return;

    /* FIXME: compute buffer requirements more exactly using
     * auth->au_wslack */
    bufsiz = rpcproc_bufsiz(clnt, task->tk_msg.rpc_proc) + RPC_SLACK_SPACE;

    if ((task->tk_buffer = rpc_malloc(task, bufsiz << 1)) != NULL)
        return;
    printk(KERN_INFO "RPC: buffer allocation failed for task %p\n", task); 

    if (RPC_IS_ASYNC(task) || !(task->tk_client->cl_intr && signalled())) {
        xprt_release(task);
        task->tk_action = call_reserve;
        rpc_delay(task, HZ>>4);
        return;
    }

    rpc_exit(task, -ERESTARTSYS);
}

/*
 * 3.    Encode arguments of an RPC call
 */
static void
call_encode(struct rpc_task *task)
{
    struct rpc_clnt    *clnt = task->tk_client;
    struct rpc_rqst    *req = task->tk_rqstp;
    unsigned int    bufsiz;
    kxdrproc_t    encode;
    int        status;
    u32        *p;

    dprintk("RPC: %4d call_encode (status %d)\n", 
                task->tk_pid, task->tk_status);

    task->tk_action = call_bind;

    /* Default buffer setup */
    bufsiz = rpcproc_bufsiz(clnt, task->tk_msg.rpc_proc)+RPC_SLACK_SPACE;
    req->rq_svec[0].iov_base = (void *)task->tk_buffer;
    req->rq_svec[0].iov_len  = bufsiz;
    req->rq_slen         = 0;
    req->rq_snr         = 1;
    req->rq_rvec[0].iov_base = (void *)((char *)task->tk_buffer + bufsiz);
    req->rq_rvec[0].iov_len  = bufsiz;
    req->rq_rlen         = bufsiz;
    req->rq_rnr         = 1;

    /* Zero buffer so we have automatic zero-padding of opaque & string */
    memset(task->tk_buffer, 0, bufsiz);

    /* Encode header and provided arguments */
    encode = rpcproc_encode(clnt, task->tk_msg.rpc_proc);
    if (!(p = call_header(task))) {
        printk(KERN_INFO "RPC: call_header failed, exit EIO\n");
        rpc_exit(task, -EIO);
    } else
    if (encode && (status = encode(req, p, task->tk_msg.rpc_argp)) < 0) {
        printk(KERN_WARNING "%s: can't encode arguments: %d\n",
                clnt->cl_protname, -status);
        rpc_exit(task, status);
    }
}

/*
 * 4.    Get the server port number if not yet set
 */
static void
call_bind(struct rpc_task *task)
{
    struct rpc_clnt    *clnt = task->tk_client;
    struct rpc_xprt *xprt = clnt->cl_xprt;

    task->tk_action = (xprt_connected(xprt)) ? call_transmit : call_reconnect;

    if (!clnt->cl_port) {
        task->tk_action = call_reconnect;
        task->tk_timeout = clnt->cl_timeout.to_maxval;
        rpc_getport(task, clnt);
    }
}

/*
 * 4a.    Reconnect to the RPC server (TCP case)
 */
static void
call_reconnect(struct rpc_task *task)
{
    struct rpc_clnt *clnt = task->tk_client;
    struct rpc_task *child;

    dprintk("RPC: %4d call_reconnect status %d\n",
                task->tk_pid, task->tk_status);

    task->tk_action = call_transmit;
    if (task->tk_status < 0 || !clnt->cl_xprt->stream)
        return;

    /* Run as a child to ensure it runs as an rpciod task */
    child = rpc_new_child(clnt, task);
    if (child) {
        child->tk_action = child_reconnect;
        rpc_run_child(task, child, NULL);
    }
}

static void child_reconnect(struct rpc_task *task)
{
    task->tk_client->cl_stats->netreconn++;
    task->tk_status = 0;
    task->tk_action = child_reconnect_status;
    xprt_reconnect(task);
}

static void child_reconnect_status(struct rpc_task *task)
{
    if (task->tk_status == -EAGAIN)
        task->tk_action = child_reconnect;
    else
        task->tk_action = NULL;
}

/*
 * 5.    Transmit the RPC request, and wait for reply
 */
static void
call_transmit(struct rpc_task *task)
{
    struct rpc_clnt    *clnt = task->tk_client;

    dprintk("RPC: %4d call_transmit (status %d)\n", 
                task->tk_pid, task->tk_status);

    task->tk_action = call_status;
    if (task->tk_status < 0)
        return;
    xprt_transmit(task);
    if (!rpcproc_decode(clnt, task->tk_msg.rpc_proc)) {
        task->tk_action = NULL;
        rpc_wake_up_task(task);
    }
}

/*
 * 6.    Sort out the RPC call status
 */
static void
call_status(struct rpc_task *task)
{
    struct rpc_clnt    *clnt = task->tk_client;
    struct rpc_xprt *xprt = clnt->cl_xprt;
    struct rpc_rqst    *req;
    int        status = task->tk_status;

    dprintk("RPC: %4d call_status (status %d)\n", 
                task->tk_pid, task->tk_status);

    if (status >= 0) {
        task->tk_action = call_decode;
        return;
    }

    task->tk_status = 0;
    req = task->tk_rqstp;
    switch(status) {
    case -ETIMEDOUT:
        task->tk_action = call_timeout;
        break;
    case -ECONNREFUSED:
    case -ENOTCONN:
        req->rq_bytes_sent = 0;
        if (clnt->cl_autobind || !clnt->cl_port) {
            clnt->cl_port = 0;
            task->tk_action = call_bind;
            break;
        }
        if (xprt->stream) {
            task->tk_action = call_reconnect;
            break;
        }
        /*
         * Sleep and dream of an open connection
         */
        task->tk_timeout = 5 * HZ;
        rpc_sleep_on(&xprt->sending, task, NULL, NULL);
    case -ENOMEM:
    case -EAGAIN:
        task->tk_action = call_transmit;
        clnt->cl_stats->rpcretrans++;
        break;
    default:
        if (clnt->cl_chatty)
            printk("%s: RPC call returned error %d\n",
                   clnt->cl_protname, -status);
        rpc_exit(task, status);
    }
}

/*
 * 6a.    Handle RPC timeout
 *     We do not release the request slot, so we keep using the
 *    same XID for all retransmits.
 */
static void
call_timeout(struct rpc_task *task)
{
    struct rpc_clnt    *clnt = task->tk_client;
    struct rpc_rqst    *req = task->tk_rqstp;

    if (req) {
        struct rpc_timeout *to = &req->rq_timeout;

        if (xprt_adjust_timeout(to)) {
            dprintk("RPC: %4d call_timeout (minor timeo)\n",
                task->tk_pid);
            goto minor_timeout;
        }
        to->to_retries = clnt->cl_timeout.to_retries;
    }

    dprintk("RPC: %4d call_timeout (major timeo)\n", task->tk_pid);
    if (clnt->cl_softrtry) {
        if (clnt->cl_chatty && !task->tk_exit)
            printk(KERN_NOTICE "%s: server %s not responding, timed out\n",
                clnt->cl_protname, clnt->cl_server);
        rpc_exit(task, -EIO);
        return;
    }
    if (clnt->cl_chatty && !(task->tk_flags & RPC_CALL_MAJORSEEN)) {
        task->tk_flags |= RPC_CALL_MAJORSEEN;
        if (req)
            printk(KERN_NOTICE "%s: server %s not responding, still trying\n",
                clnt->cl_protname, clnt->cl_server);
#ifdef RPC_DEBUG                
        else
            printk(KERN_NOTICE "%s: task %d can't get a request slot\n",
                clnt->cl_protname, task->tk_pid);
#endif                
    }
    if (clnt->cl_autobind)
        clnt->cl_port = 0;

minor_timeout:
    if (!req)
        task->tk_action = call_reserve;
    else if (!clnt->cl_port) {
        task->tk_action = call_bind;
        clnt->cl_stats->rpcretrans++;
    } else if (!xprt_connected(clnt->cl_xprt)) {
        task->tk_action = call_reconnect;
        clnt->cl_stats->rpcretrans++;
    } else {
        task->tk_action = call_transmit;
        clnt->cl_stats->rpcretrans++;
    }
    task->tk_status = 0;
}

/*
 * 7.    Decode the RPC reply
 */
static void
call_decode(struct rpc_task *task)
{
    struct rpc_clnt    *clnt = task->tk_client;
    struct rpc_rqst    *req = task->tk_rqstp;
    kxdrproc_t    decode = rpcproc_decode(clnt, task->tk_msg.rpc_proc);
    u32        *p;

    dprintk("RPC: %4d call_decode (status %d)\n", 
                task->tk_pid, task->tk_status);

    if (clnt->cl_chatty && (task->tk_flags & RPC_CALL_MAJORSEEN)) {
        printk(KERN_NOTICE "%s: server %s OK\n",
            clnt->cl_protname, clnt->cl_server);
        task->tk_flags &= ~RPC_CALL_MAJORSEEN;
    }

    if (task->tk_status < 12) {
        if (!clnt->cl_softrtry) {
            task->tk_action = call_transmit;
            clnt->cl_stats->rpcretrans++;
        } else {
            printk(KERN_WARNING "%s: too small RPC reply size (%d bytes)\n",
                clnt->cl_protname, task->tk_status);
            rpc_exit(task, -EIO);
        }
        return;
    }

    /* Verify the RPC header */
    if (!(p = call_verify(task)))
        return;

    /*
     * The following is an NFS-specific hack to cater for setuid
     * processes whose uid is mapped to nobody on the server.
     */
    if (task->tk_client->cl_droppriv && 
            (ntohl(*p) == NFSERR_ACCES || ntohl(*p) == NFSERR_PERM)) {
        if (RPC_IS_SETUID(task) && task->tk_suid_retry) {
            dprintk("RPC: %4d retry squashed uid\n", task->tk_pid);
            task->tk_flags ^= RPC_CALL_REALUID;
            task->tk_action = call_encode;
            task->tk_suid_retry--;
            return;
        }
    }

    task->tk_action = NULL;

    if (decode)
        task->tk_status = decode(req, p, task->tk_msg.rpc_resp);
    dprintk("RPC: %4d call_decode result %d\n", task->tk_pid,
                    task->tk_status);
}

/*
 * 8.    Refresh the credentials if rejected by the server
 */
static void
call_refresh(struct rpc_task *task)
{
    dprintk("RPC: %4d call_refresh\n", task->tk_pid);

    xprt_release(task);    /* Must do to obtain new XID */
    task->tk_action = call_refreshresult;
    task->tk_status = 0;
    task->tk_client->cl_stats->rpcauthrefresh++;
    rpcauth_refreshcred(task);
}

/*
 * 8a.    Process the results of a credential refresh
 */
static void
call_refreshresult(struct rpc_task *task)
{
    dprintk("RPC: %4d call_refreshresult (status %d)\n", 
                task->tk_pid, task->tk_status);

    if (task->tk_status < 0)
        rpc_exit(task, -EACCES);
    else
        task->tk_action = call_reserve;
}

/*
 * Call header serialization
 */
static u32 *
call_header(struct rpc_task *task)
{
    struct rpc_clnt *clnt = task->tk_client;
    struct rpc_xprt *xprt = clnt->cl_xprt;
    struct rpc_rqst    *req = task->tk_rqstp;
    u32        *p = req->rq_svec[0].iov_base;

    /* FIXME: check buffer size? */
    if (xprt->stream)
        *p++ = 0;        /* fill in later */
    *p++ = req->rq_xid;        /* XID */
    *p++ = htonl(RPC_CALL);        /* CALL */
    *p++ = htonl(RPC_VERSION);    /* RPC version */
    *p++ = htonl(clnt->cl_prog);    /* program number */
    *p++ = htonl(clnt->cl_vers);    /* program version */
    *p++ = htonl(task->tk_msg.rpc_proc);    /* procedure */
    return rpcauth_marshcred(task, p);
}

/*
 * Reply header verification
 */
static u32 *
call_verify(struct rpc_task *task)
{
    u32    *p = task->tk_rqstp->rq_rvec[0].iov_base, n;

    p += 1;    /* skip XID */

    if ((n = ntohl(*p++)) != RPC_REPLY) {
        printk(KERN_WARNING "call_verify: not an RPC reply: %x\n", n);
        goto garbage;
    }
    if ((n = ntohl(*p++)) != RPC_MSG_ACCEPTED) {
        int    error = -EACCES;

        if ((n = ntohl(*p++)) != RPC_AUTH_ERROR) {
            printk(KERN_WARNING "call_verify: RPC call rejected: %x\n", n);
        } else
        switch ((n = ntohl(*p++))) {
        case RPC_AUTH_REJECTEDCRED:
        case RPC_AUTH_REJECTEDVERF:
            if (!task->tk_cred_retry)
                break;
            task->tk_cred_retry--;
            dprintk("RPC: %4d call_verify: retry stale creds\n",
                            task->tk_pid);
            rpcauth_invalcred(task);
            task->tk_action = call_refresh;
            return NULL;
        case RPC_AUTH_BADCRED:
        case RPC_AUTH_BADVERF:
            /* possibly garbled cred/verf? */
            if (!task->tk_garb_retry)
                break;
            task->tk_garb_retry--;
            dprintk("RPC: %4d call_verify: retry garbled creds\n",
                            task->tk_pid);
            task->tk_action = call_encode;
            return NULL;
        case RPC_AUTH_TOOWEAK:
            printk(KERN_NOTICE "call_verify: server requires stronger "
                   "authentication.\n");
            break;
        default:
            printk(KERN_WARNING "call_verify: unknown auth error: %x\n", n);
            error = -EIO;
        }
        dprintk("RPC: %4d call_verify: call rejected %d\n",
                        task->tk_pid, n);
        rpc_exit(task, error);
        return NULL;
    }
    if (!(p = rpcauth_checkverf(task, p))) {
        printk(KERN_WARNING "call_verify: auth check failed\n");
        goto garbage;        /* bad verifier, retry */
    }
    switch ((n = ntohl(*p++))) {
    case RPC_SUCCESS:
        return p;
    case RPC_GARBAGE_ARGS:
        break;            /* retry */
    default:
        printk(KERN_WARNING "call_verify: server accept status: %x\n", n);
        /* Also retry */
    }

garbage:
    dprintk("RPC: %4d call_verify: server saw garbage\n", task->tk_pid);
    task->tk_client->cl_stats->rpcgarbage++;
    if (task->tk_garb_retry) {
        task->tk_garb_retry--;
        dprintk(KERN_WARNING "RPC: garbage, retrying %4d\n", task->tk_pid);
        task->tk_action = call_encode;
        return NULL;
    }
    printk(KERN_WARNING "RPC: garbage, exit EIO\n");
    rpc_exit(task, -EIO);
    return NULL;
}

:: Command execute ::

Enter:
 
Select:
 

:: Search ::
  - regexp 

:: Upload ::
 
[ Read-Only ]

:: Make Dir ::
 
[ Read-Only ]
:: Make File ::
 
[ Read-Only ]

:: Go Dir ::
 
:: Go File ::
 

--[ c99shell v. 1.0 pre-release build #13 powered by Captain Crunch Security Team | http://ccteam.ru | Generation time: 0.0353 ]--