Difference: DocuMentacoes (1 vs. 14)

Revision 1401 Oct 2013 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
Added:
>
>

1. WebHome. 2. DocuMentacoes. 3. HistoricoLabiocomp

 ____________________________________________________________________________________________________________________________________________________________________________________________

1) Configurações do Ldap nos nós do Cluster

Line: 206 to 208
 
Changed:
<
<
7) mrbayes-multi
>
>
7) mrbayes-multi
 

Fonte: http://nebc.nerc.ac.uk/bioinformatics/docs/mrbayes-multi.html

Name mrbayes-multi

Revision 1322 Jun 2012 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
____________________________________________________________________________________________________________________________________________________________________________________________
Line: 220 to 220
  MPI Alternatives
----------------
This package uses the Debian Alternatives system to allow you to choose
between the different MPI implementations.

You can check which version of MPI you use with
update-alternatives --list mpirun
update-alternatives --list mpi (for the development files)

Use 'update-alternatives --display' to list all installed implementations,
and 'update-alternatives --config' to configure which implementation to use.
Changed:
<
<
update - alternatives --config mpirun para fazer o setup do mpirun (usar este).
>
>
update-alternatives --config mpirun para fazer o setup do mpirun (usar este).
  __________________________________________________________________________________________________________________________________________________

Revision 1205 Apr 2012 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
____________________________________________________________________________________________________________________________________________________________________________________________
Line: 216 to 216
 
Local Documentation
Added:
>
>
____________________________________________________________________________________________________________________________________________________________________

MPI Alternatives
----------------
This package uses the Debian Alternatives system to allow you to choose
between the different MPI implementations.

You can check which version of MPI you use with
update-alternatives --list mpirun
update-alternatives --list mpi (for the development files)

Use 'update-alternatives --display' to list all installed implementations,
and 'update-alternatives --config' to configure which implementation to use.

update - alternatives --config mpirun para fazer o setup do mpirun (usar este).

 __________________________________________________________________________________________________________________________________________________

-- RodrigoZucoloto - 02 Nov 2011 \ No newline at end of file

Revision 1105 Apr 2012 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
____________________________________________________________________________________________________________________________________________________________________________________________
Line: 17 to 17
  3) Arquivo de configuração do DHCP
Changed:
<
<
/etc/dhcp/dhcpd.conf (Aqui estão as configurações que ligam os IPs com seus respstivos MACs)
>
>
/etc/dhcp/dhcpd.conf (Aqui estão as configurações que ligam os IPs com seus respectivos MACs)
  /etc/init.d/isc-dhcp-server restart (Comando para reiniciar o serviço sem a necessidade de reiniciar o sistema todo)

Revision 1002 Mar 2012 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
____________________________________________________________________________________________________________________________________________________________________________________________
Line: 66 to 66
  __________________________________________________________________________________________________________________________________________________
Changed:
<
<
4) Instalar Mega no Debian squeeze
>
>
5) Instalar Mega no Debian squeeze
 
Changed:
<
<
4.1) Adicionar #deb http://ubuntu.mirror.cambrium.nl/ubuntu/ natty main universe no sources.list
>
>
5.1) Adicionar #deb http://ubuntu.mirror.cambrium.nl/ubuntu/ natty main universe no sources.list
 
Changed:
<
<
4.2) Instalar o wine1.2: aptitude install wine 1.2
>
>
5.2) Instalar o wine1.2: aptitude install wine 1.2
 
Changed:
<
<
4.3) Baixar wine1.2-gecko do mirror: mirror.pnl.gov/ubuntu/
>
>
5.3) Baixar wine1.2-gecko do mirror: mirror.pnl.gov/ubuntu/
 
Changed:
<
<
4.4) Instalar o wine1.2-gecko usando Gdebi
>
>
5.4) Instalar o wine1.2-gecko usando Gdebi
 
Changed:
<
<
4.5) Adicionar o repositório do mega "deb http://update.megasoftware.net/deb/ mega main" no sources.list
>
>
5.5) Adicionar o repositório do mega "deb http://update.megasoftware.net/deb/ mega main" no sources.list
 
Changed:
<
<
4.6) Instalar o mega: aptitude install mega
>
>
5.6) Instalar o mega: aptitude install mega
  Rodrigo.

____________________________________________________________________________________________________________________________________________________

Changed:
<
<
5) MPICH2 - Debian e RedHat?
>
>
6) MPICH2 - Debian e RedHat?
  Copiado de http://www.flaviotorres.com.br/fnt/artigos/mpich2.php
Line: 205 to 205
 ____________________________________________________________________________________________________________________________________________________________________________________________

Added:
>
>
7) mrbayes-multi
 

Fonte: http://nebc.nerc.ac.uk/bioinformatics/docs/mrbayes-multi.html

Deleted:
<
<
mrbayes-multi
 
Name mrbayes-multi
Description

MrBayes is a program for the Bayesian estimation of phylogeny. mrbayes-multi provides a multi-processor version of MrBayes.

In order to run the parallel version of Mr Bayes (across multiple processors) you must have mpi and installed, and MrBayes? must be launched using the mpirun command (i.e. it cannot be executed in the standard interactive mode). Finally you will need to have mpd configured on your system.

To achieve the above, you can run commands similar to the following:

echo "MPD_SECRETWORD=secret"
~/.mpd.conf
chmod 600 ~/.mpd.conf
mpd &
mpirun -np 4 mrbayes-multi

In the first command above, you will want to change the text "secret" to a password only you know. In the final command, change the number 4 to the number of cores you wish to run mrbayes over.

Bayesian inference of phylogeny is based upon a quantity called the posterior probability distribution of trees, which is the probability of a tree conditioned on the observations. The conditioning is accomplished using Bayes's theorem. The posterior probability distribution of trees is impossible to calculate analytically; instead, MrBayes? uses a simulation technique called Markov chain Monte Carlo (or MCMC) to approximate the posterior probabilities of trees.

Homepage  
Remote Documentation http://mrbayes.csit.fsu.edu/wiki/index.php/Main_Page
Changed:
<
<
Local Documentation
>
>
Local Documentation
 
Changed:
<
<
__________________________________________________________________________________________________________________________________________________
>
>
__________________________________________________________________________________________________________________________________________________
  -- RodrigoZucoloto - 02 Nov 2011 \ No newline at end of file

Revision 901 Mar 2012 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
____________________________________________________________________________________________________________________________________________________________________________________________
Line: 204 to 204
  ____________________________________________________________________________________________________________________________________________________________________________________________
Changed:
<
<

-- RodrigoZucoloto - 02 Nov 2011
>
>

Fonte: http://nebc.nerc.ac.uk/bioinformatics/docs/mrbayes-multi.html

mrbayes-multi

Name mrbayes-multi
Description

MrBayes is a program for the Bayesian estimation of phylogeny. mrbayes-multi provides a multi-processor version of MrBayes.

In order to run the parallel version of Mr Bayes (across multiple processors) you must have mpi and installed, and MrBayes? must be launched using the mpirun command (i.e. it cannot be executed in the standard interactive mode). Finally you will need to have mpd configured on your system.

To achieve the above, you can run commands similar to the following:

echo "MPD_SECRETWORD=secret"
~/.mpd.conf
chmod 600 ~/.mpd.conf
mpd &
mpirun -np 4 mrbayes-multi

In the first command above, you will want to change the text "secret" to a password only you know. In the final command, change the number 4 to the number of cores you wish to run mrbayes over.

Bayesian inference of phylogeny is based upon a quantity called the posterior probability distribution of trees, which is the probability of a tree conditioned on the observations. The conditioning is accomplished using Bayes's theorem. The posterior probability distribution of trees is impossible to calculate analytically; instead, MrBayes? uses a simulation technique called Markov chain Monte Carlo (or MCMC) to approximate the posterior probabilities of trees.

Homepage  
Remote Documentation http://mrbayes.csit.fsu.edu/wiki/index.php/Main_Page
Local Documentation

__________________________________________________________________________________________________________________________________________________

-- RodrigoZucoloto - 02 Nov 2011

 \ No newline at end of file

Revision 826 Feb 2012 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
____________________________________________________________________________________________________________________________________________________________________________________________
Line: 83 to 83
 Rodrigo.
Added:
>
>
____________________________________________________________________________________________________________________________________________________

5) MPICH2 - Debian e RedHat?

Copiado de http://www.flaviotorres.com.br/fnt/artigos/mpich2.php

Por: Flavio Torres - ftorres[@]ymail.com
Publicado em: 03/08/2007


Instalando MPICH2 em Sistemas Linux.

MPICH é uma das implementações existentes para o padrão MPI (Message-Passing Interface) de bibliotecas de passagem de mensagem.

Além da biblioteca MPI, MPICH contém um ambiente de programaçao que inclui um conjunto de bibliotecas para análise de performance (profiling) de programas MPI e uma interface gráfica para todas as ferramentas.

Em outras palavras, com o MPI é possível você ter um único processo sendo executado em múltiplos servidores, um Cluster.

Este é um segundo artigo, para aqueles que não possuem um ubuntu dapper, ou brigaram muito com o python 2.3 smile

Arquivos necessários:

* gcc
* cpp
* libc6
* lib6c-dev
* g77
* g++
* Python 2.2 ou superior

Instalando os arquivos necessários:

apt-get install gcc cpp libc6 libc6-dev g77 g++

Python, em 99% das instalações já vem na versão 2.4 ou 2.5.

Obtendo o tarball do mpich2, site do projeto: http://www-unix.mcs.anl.gov/mpi/mpich/

wget http://www-unix.mcs.anl.gov/mpi/mpich/downloads/mpich2-1.0.5p4.tar.gz

Descompacte o arquivo dentro de seu home:

tar -xvzf mpich2-1.0.5p4.tar.gz ; cd mpich2-1.0.5p4

Compile e instale:

./configure -prefix=/home/you/mpich2-install |& tee configure.log
make |& tee make.log
make install |& tee install.log

Se não utilizar um prefix, o default será /usr/local/bin.

Adicione o local de instalação em seu $PATH;

Para csh e tcsh:

setenv PATH /home/you/mpich2-install/bin:$PATH

Para Bash e sh:

export PATH=/home/you/mpich2-install/bin:$PATH

Checando se está tudo em ordem:

which mpd
which mpiexec
which mpirun

O which deve te retornar o local de instalação dos executáveis.

Após instalar em todos os hosts, devemos configurar os nomes para a resolução, edite o seu /etc/hosts e configure todas as máquinas:

vi /etc/hosts
192.168.0.1 host1
192.168.0.5 host2
192.168.0.2 host3

Agora, devemos configurar o ssh para conexão sem senha, entre todos os hosts.

Gerando a chave, lembre-se de fazer em todos os servidores:

ssh-keygen -t dsa -b 1024
* Não digite a senha quando for questionado, tecle <enter>

Agora devemos configurar o ssh para autenticar sem senha:

Passo1) Copiando a chave do host1 para o host2 e host3:

host1$ scp .ssh/id_dsa.pub usuario@host2:
host1$ scp .ssh/id_dsa.pub usuario@host3:

Passo2) Configurando a chave para autenticação no host2:

host2$ cat id_dsa.pub >> .ssh/authorized_keys
host2$ chown 600 .ssh/authorized_keys

Passo3) Configurando a chave para autenticação no host3:

host3$ cat id_dsa.pub >> .ssh/authorized_keys
host3$ chown 600 .ssh/authorized_keys

Agora, repita os 3 Passos para as 3 máquinas, no final de tudo, você deve realizar ssh sem senha da máquina:

host1 > host2 e host3
host2 > host1 e host3
host3 > host2 e host1

Configurando os arquivos do mpi que são:

* mpd.conf
* mpd.hosts

O arquivo mpd.conf contém a informação de autenticação do mpi entre as máquinas, por isto,a senha deve ser a MESMA em todos os hosts.

Se você está utilizando o root para realizar os testes, este arquivo deve estar dentro de /etc, caso esteja utilizando algum usuário comum, este arquivo deve estar dentro de $HOME.

Adicionando a senha do mpd.conf e copiando para as outras máquinas:

host1$ echo "MPD_SECRETWORD=mr45-j9z" > .mpd.conf
host1$ chmod 600 .mpd.conf
host1$ scp .mpd.conf host2:
host1$ scp .mpd.conf host3:

O arquivo mpd.hosts contém as máquinas que fazem parte do cluster para ESTE usuário;

Adicionando as máquinas do cluster no arquivo .mpd.hosts, e replicando para as outras máquinas:

host1$ echo "host1" > .mpd.hosts
host1$ echo "host2" >> .mpd.hosts
host1$ echo "host3" >> .mpd.hosts
host1$ scp .mpd.hosts host2:
host1$ scp .mpd.hosts host3:

Pronto, a parte chata já passou smile

Agora vamos iniciar o daemon do mpi, com o mpdboot:

host1$ mpdboot -n 3 -f .mpd.hosts
host1$ mpdtrace
host1
host2
host3

Perfeito, estão todos respondendo!!

Agora é só brincar com um teste simples:

host1$ mpiexec -n 5 mpich2-1.0.5p4/examples/cpi
Process 0 of 5 is on host1
Process 2 of 5 is on host2
Process 1 of 5 is on host3
Process 4 of 5 is on host3
Process 3 of 5 is on host1
pi is approximately 3.1415926544231230, Error is 0.0000000008333298

wall clock time = 0.925560

 ____________________________________________________________________________________________________________________________________________________________________________________________


-- RodrigoZucoloto - 02 Nov 2011 \ No newline at end of file

Revision 726 Feb 2012 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
____________________________________________________________________________________________________________________________________________________________________________________________
Line: 32 to 32
 
Changed:
<
<
4b) Manual de usdo extraído de: http://www.cuhk.edu.hk/itsc/compenv/research-computing/organon/cwmpi.html#ii

OBS: o clustalw-mpi já está instalado em todo o cluster.


1. Introduction of ClustalW? -MPI


ClustalW? is a general-purpose multiple sequence alignment program for DNA or proteins.

The alignment is achieved via three steps:
>
>
4b) Manual de uso extraído de: http://www.cuhk.edu.hk/itsc/compenv/research-computing/organon/cwmpi.html#ii

OBS: o clustalw-mpi já está instalado em todo o cluster.


1. Introduction of ClustalW? -MPI


ClustalW? is a general-purpose multiple sequence alignment program for DNA or proteins.

The alignment is achieved via three steps:
 
  • pairwise alignment;
  • guide-tree generation; and
  • progressive alignment.

Revision 624 Feb 2012 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
____________________________________________________________________________________________________________________________________________________________________________________________
Line: 13 to 13
  Solução para qualquer máquina que possa ter sido desligada incorretamente:

rm -rf /var/run/network$ rm -rf /var/run/network/mountnfs
Changed:
<
<
__________________________________________________________________________________________________________________________________________________
>
>
__________________________________________________________________________________________________________________________________________________
  3) Arquivo de configuração do DHCP
Line: 21 to 21
  /etc/init.d/isc-dhcp-server restart (Comando para reiniciar o serviço sem a necessidade de reiniciar o sistema todo)
Changed:
<
<
__________________________________________________________________________________________________________________________________________________
>
>
__________________________________________________________________________________________________________________________________________________
  4) Clustal-mpi
Line: 62 to 62
 

qselect

Obtain a list of jobs that met certain criteria.

qsig

Send a signal to an executing job.

Changed:
<
<
>
>

__________________________________________________________________________________________________________________________________________________

4) Instalar Mega no Debian squeeze

4.1) Adicionar #deb http://ubuntu.mirror.cambrium.nl/ubuntu/ natty main universe no sources.list

4.2) Instalar o wine1.2: aptitude install wine 1.2

4.3) Baixar wine1.2-gecko do mirror: mirror.pnl.gov/ubuntu/

4.4) Instalar o wine1.2-gecko usando Gdebi

4.5) Adicionar o repositório do mega "deb http://update.megasoftware.net/deb/ mega main" no sources.list

4.6) Instalar o mega: aptitude install mega

Rodrigo.

  ____________________________________________________________________________________________________________________________________________________________________________________________

Revision 504 Feb 2012 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
____________________________________________________________________________________________________________________________________________________________________________________________
Line: 12 to 12
  Proxy:
add no /etc/profile das estações (internet)
export http_proxy=http://192.168.1.1:3128

NFS
add no /etc/fstab (monta home NFS)
darthvader.bio.intranet.ufba.br:/home /home nfs rw,hard,intr 0 0

Torque nas estações:
/var/spool/torque/server_name > uma única linha com o nome do servidor "darthvader"
/var/spool/torque/mom_priv/config > adicionar nome do servidor "darthvader"

Solução para qualquer máquina que possa ter sido desligada incorretamente:

rm -rf /var/run/network$ rm -rf /var/run/network/mountnfs

Changed:
<
<
>
>
__________________________________________________________________________________________________________________________________________________

3) Arquivo de configuração do DHCP

/etc/dhcp/dhcpd.conf (Aqui estão as configurações que ligam os IPs com seus respstivos MACs)

/etc/init.d/isc-dhcp-server restart (Comando para reiniciar o serviço sem a necessidade de reiniciar o sistema todo)

__________________________________________________________________________________________________________________________________________________

4) Clustal-mpi

4a) README CLUSTAL-MPI

***************************

************************************************

CLUSTALW-MPI: ClustalW? Analysis Using Grid and Parallel Computing

based on ClustalW? , the multiple sequence alignment program
(version 1.82, Feb 2001)

*****************************************************************************

This README contains the help with INSTALLATION

ClustalW? is a popular tool for multiple sequence alignment. The
alignment is achieved via three steps: pairwise alignment,
guide-tree generation and progressive alignment. ClustalW? -MPI is an
MPI implementation of ClustalW? . Based on
version 1.82 of the original ClustalW? , both the pairwise
and progressive alignments are parallelized with MPI, a
popular message passing programming standard.

ClustalW? -MPI is freely available to the user community.

The software is available at
http://www.bii.a-star.edu.sg/software/clustalw-mpi/

The original ClustalW? /ClustalX can be found at ftp://ftp-igbmc.u-strasbg.fr.

Please send bug reports, comments etc. to "kuobin@bii.a-star.edu.sg".

INSTALLATION (for Unix/Linux)
------------

This is an extremely quick installation guide.

1. Make sure you have MPICH or LAM installed on your system.

2. Unpack the package in any working directory:

tar xvfp clustalw-mpi-0.1.tar.gz

3. Take a look at the Makefile and make the modifications that you might desire,
in particular:

CC = mpicc
CFLAGS = -c -g

or

CFLAGS = -c -O3

4. Build the whole thing simply by typing "make".

5. If you wanted to use serial codes to compute the neighbor-joining tree,
you would have to define the macro "SERIAL_NJTREE" when compiling trees.c:

CFLAGS = -c -g -DSERIAL_NJTREE

This macro is defined in the default Makefile. That is, to use
MPI codes in neighbor-joining tree, you have to "undefine" the
macro "SERIAL_NJTREE" in your Makefile.


SAMPLE USAGE (for Unix/Linux)
------------

1. To make a full multiple sequence alignment:
(using one master node and 4 computing nodes)

%mpirun -np 5 ./clustalw-mpi -infile=dele.input
%mpirun -np 5 ./clustalw-mpi -infile=CFTR.input

2. To make a guide tree only:

%mpirun -np 5 ./clustalw-mpi -infile=dele.input -newtree=dele.mytree
%mpirun -np 5 ./clustalw-mpi -infile=CFTR.input -newtree=CFTR.mytree

3. To make a multiple sequence alignment out of an existing
tree:

%mpirun -np 5 ./clustalw-mpi -infile=dele.input -usetree=dele.mytree
%mpirun -np 5 ./clustalw-mpi -infile=CFTR.input -usetree=CFTR.mytree

4. The environment variable, CLUSTALG_PARALLEL_PDIFF, could be used to
run the progressive alignment based on the parallelized pdiff().

By default the variable CLUSTALG_PARALLEL_PDIFF is not set, and
the progressive alignment will be parallelized accroding the structure
of the neighbor-joining tree. However, parallelized pdiff() will still
be used in the later stage when prfalign() tries to align more distant
sequences to the profiles. If you don't understand this,
simply leave the variable unset.

KNOWN PROBLEM
------------
1. On Intel IA32 platforms, slightly different neighbor-joining trees
might be obtained with and without enabling the compiler's optimization flags.

This is due to the fact that Intel processors use 80-bit FPU registers
to cache "double" variables, which are supposed to be 64-bit long. With '-O1'
or above optimizer flag, the compiler would not always immediately save the
variables involved in a double operation back to memory. Instead, intermediate
results will be saved in registers, having 80-bit of precision. This would
cause problem for nj_tree() because it is sensitive to the precision of floating
point numbers.

Solutions:

(1) Other platforms, including Intel's IA64, don't seem to have this problem.

or

(2) Building "trees.c" with optios like the below: (potentially
with high performance overhead)

%gcc -c -O3 -ffloat-store trees.c // GNU gcc

%icc -c -O3 -mp trees.c // Intel C compiler

or

(3) Decalring relevant variables as "volatile" in nj_tree():

volatile double diq, djq, dij, d2r, dr, dio, djo, da;
volatile double *rdiq;

rdiq = (volatile double *)malloc(((last_seq-first_seq+1)+1)*
sizeof(volatile double));
...
...
free((void
)rdiq);

4b) Manual de usdo extraído de: http://www.cuhk.edu.hk/itsc/compenv/research-computing/organon/cwmpi.html#ii

OBS: o clustalw-mpi já está instalado em todo o cluster.


1. Introduction of ClustalW? -MPI


ClustalW? is a general-purpose multiple sequence alignment program for DNA or proteins.

The alignment is achieved via three steps:

  • pairwise alignment;
  • guide-tree generation; and
  • progressive alignment.
ClustalW? -MPI is an MPI and GRID-aware implementation of ClustalW? . Based on version 1.82 of the original ClustalW? , both the pairwise and progressive alignments are parallelized with MPI, a popular message passing programming standard.

2. Input Sequences

p All sequences input must be in 1 file, one after another. 7 formats are automatically recognised: NBRF/PIR, EMBL/SWISSPROT, Pearson (Fasta), Clustal ( .aln), GCG/MSF (Pileup), GCG9/RSF and GDE flat file. All non-alphabetic characters (spaces, digits, punctuation marks) are ignored except "-" which is used to indicate a GAP ("." in GCG/MSF).

p If the input file is in GenBank? (
.gb) or other formats which is not supported by the Clustal W and can't be converted by Clustal X, you can used EMBOSS-3.0($ seqret -osformat fasta) and convert the file to Fasta ( .fasta) format beforehand.

*3. Job Submission and Monitoring


Sample PBS Script for a 4-node job - "clustalw.pbs"
You can use the following script to build a full multiple sequence alignment job using 4 computing nodes (8 CPUs): To edit the script, you may run pico, e.g. % pico clustalw.pbs

#!/bin/sh
#PBS -q q4n16g
#PBS -N cpu8
#PBS -lnodes=4:ppn=2
#PBS -m bea
#PBS -M s800000@organon.itsc.cuhk.edu.hk
#
export PATH=/usr/pbs/bin:$PATH;
cd clustalw-mpi-0.13
source /usr/local/etc/mpich.sh
time pbs_mpirun clustalw-mpi -infile=test.fasta >& test8.out



Job Submission
Then, you can run the job by submitting the script to PBS as follows:
% qsub clustalw.pbs

For other PBS commands, please refer to the section "Starter Guide for PBS"

Job Monitoring

List the current jobs on the cluster
%qstat

List the currently running jobs on the cluster
%qstat –a

Lists nodes allocated to running jobs
%qstat –r

Show detailed information on a specific job
% qstat –n

Show detailed information for all queues
%qstat -f <jobid>

Advance PBS command:

Advanced users can type % man q_command to see the details of the following command.

Command

Function

qalter

Alter a job's attributes.

qdel

Delete a job.

qhold

Place a hold on a job to keep it from being scheduled for running.

qmove

Move a job to a different queue or server

qmsg

Append a message to the output of an executing job.

qrerun

Terminate an executing job and return it to a queue.

qrls

Remove a hold from a job.

qselect

Obtain a list of jobs that met certain criteria.

qsig

Send a signal to an executing job.

  ____________________________________________________________________________________________________________________________________________________________________________________________
Added:
>
>
 

-- RodrigoZucoloto - 02 Nov 2011 \ No newline at end of file

Revision 403 Feb 2012 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
____________________________________________________________________________________________________________________________________________________________________________________________
Line: 11 to 11
  Proxy:
add no /etc/profile das estações (internet)
export http_proxy=http://192.168.1.1:3128

NFS
add no /etc/fstab (monta home NFS)
darthvader.bio.intranet.ufba.br:/home /home nfs rw,hard,intr 0 0

Torque nas estações:
/var/spool/torque/server_name > uma única linha com o nome do servidor "darthvader"
/var/spool/torque/mom_priv/config > adicionar nome do servidor "darthvader"
Added:
>
>
Solução para qualquer máquina que possa ter sido desligada incorretamente:

rm -rf /var/run/network$ rm -rf /var/run/network/mountnfs
 ____________________________________________________________________________________________________________________________________________________________________________________________

-- RodrigoZucoloto - 02 Nov 2011

Revision 301 Feb 2012 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
Added:
>
>
____________________________________________________________________________________________________________________________________________________________________________________________
 1) Configurações do Ldap nos nós do Cluster

# apt-get install libnss-ldap libpam-ldap nscd

LDAP server URI: ldap://192.168.1.2/
Distinguished name of the search base: dc=republica,dc=star,dc=wars
LDAP version to use: 3
LDAP account for root: cn=admin,dc=republica,dc=star,dc=wars

Changed:
<
<
LDAP root account password: <vocês sabem qual né? Não vou colocar aqui>
Allow LDAP admin account to behave like local root? No
Does the LDAP database require login?: No

No arquivo /etc/ldap/ldap.conf adicione as seguintes linhas:

BASE dc=republica,dc=star,dc=wars
URI ldap://192.168.1.2

No arquivo /etc/nsswitch.conf modifique conforme as linhas abaixo:

passwd: compat ldap
group: compat ldap
shadow: compat ldap

# /etc/init.d/nscd restart

Teste a conf:

# id testeldap

Deve retornar o seguinte:

uid=2000(testeldap) gid=100(users) grupos=100(users)

--
Rafael Gomes
Consultor em TI
LPIC-1 MCSO
(71) 8318-0284
2) Configurações do SSH sem senha e detalhes do NFS
Vitor Vilas Boas vitorvilas@gmail.com
11/16/11
to r2d2_ufba
Galera, já está ok para meu usuário o SSH sem senha no cluster02 a partir do darthvader.

O que ainda falta fazer:

- Colocar o darthvader em todos os arquivos hosts.
- Cada usuário criar sua chave no ssh do darthvader e criar o arquivo authorized_keys.
- Modificar o fstab de todos os nós para que utilize o /home do darthvader e não do clustermaster como está setado.

Vou fazer isso hoje, até o final da tarde concluo.

Para os usuários fazerem a chave SSH, vou colocar aqui como fazer, e se alguém puder colocar na wiki (Gomex se puder...)

1 - Logar no darthvader com o próprio usuário;

2 - Gerar a chave com o comando --> ssh-keygen -t rsa

3 - Dar enter até terminar o processo, não colocando frase alguma, deixando a frase em branco.

4 - Entrar no diretório que estão localizadas as chaves ---> cd ~/.ssh

5 - Gerar o authorized_keys --> cat id_rsa.pub >> authorized_keys

6 - Fazer o teste logando no cluster02 --> ssh cluster02 (Caso precise, aceitar o certificado com yes) e refazer o teste.
Guilherme Rocha guilherme@gf7.com.br via googlegroups.com
11/16/11
to r2d2_ufba, Vitor


Grande Vitor,


foi muito bom ver a sua mensagem.

Tenho duas perguntas:

O NFS já tá blza no darth vader?
A comunicação sem senha está bi-direcional? (ou seja da estação para o servidor / e do servidor para a estação?)


abraços,

Guilherme Rocha
GF7 Doc & Systems - Soluções Tecnológicas
Telefone: + 55 71 4062 9142
Mobile: + 55 71 9279 0829





Em 16-11-2011 11:23, Vitor Vilas Boas escreveu:
Vitor Vilas Boas vitorvilas@gmail.com
11/16/11
to r2d2_ufba

Não testei ainda, estou arrumando os fstabs e os hosts fos nós para enxergarem o darth. Vou almoçar agora, logo mais término e informo.
Em 16/11/2011 11:45, "Guilherme Rocha" <guilherme@gf7.com.br> escreveu:
Vitor Vilas Boas vitorvilas@gmail.com
11/16/11
to r2d2_ufba
Testado bi-direcional e funcionando.

Em 16 de novembro de 2011 11:44, Guilherme Rocha <guilherme@gf7.com.br> escreveu:
Rodrigo Barban Zucoloto
11/16/11
to r2d2_ufba
Pessoal,

Quando fui dar o comando cat indicado por Vitor deu o seguinte erro, o
que fiz de errado?

rbz@darthvader:~/.ssh$ cat id_rsa.pub >> authorized_keys
cat: id_rsa.pub: Arquivo ou diretório não encontrado

Mas dentro deste diretório tem este arquivo aqui:

rbz@darthvader:~/.ssh$ ls
authorized_keys


O que faço com ele?

Vou para uma reunião agora e depois volto para ver!

Abs,

Rodrigo.


On 11/16/11, Vitor Vilas Boas <vitorvilas@gmail.com> wrote:
> Testado bi-direcional e funcionando.
>
> Em 16 de novembro de 2011 11:44, Guilherme Rocha
> <guilherme@gf7.com.br>escreveu:
>
>> **
>>
>>
>> Grande Vitor,
>>
>>
>> foi muito bom ver a sua mensagem.
>>
>> Tenho duas perguntas:
>>
>>
>> 1. O NFS já tá blza no darth vader?
>> 2. A comunicação sem senha está bi-direcional? (ou seja da estação
Vitor Vilas Boas vitorvilas@gmail.com
11/16/11
to r2d2_ufba
Rodrigo, você tem que gerar a chave primeiro, esse erro aconteceu porque não estava com a chave criada.

Em 16 de novembro de 2011 13:51, Rodrigo Barban Zucoloto <rbzucoloto@gmail.com> escreveu:
Rodrigo Barban Zucoloto
11/16/11
to r2d2_ufba
Vitor,

Não creio que seja isso pois segui sua indicação:



1 - Logar no darthvader com o próprio usuário;

2 - Gerar a chave com o comando --> ssh-keygen -t rsa

3 - Dar enter até terminar o processo, não colocando frase alguma, deixando a frase em branco.

4 - Entrar no diretório que estão localizadas as chaves ---> cd ~/.ssh

5 - Gerar o authorized_keys --> cat id_rsa.pub >> authorized_keys

Obrigado,

Rodrigo.
Vitor Vilas Boas vitorvilas@gmail.com
11/16/11
to r2d2_ufba
Rodrigo, fiz esse mesmo procedimento na sua conta pelo root, loga como rbz e acessa o cluster02 para ver o que acontece.
>
>
LDAP root account password: <vocês sabem qual né? Não vou colocar aqui>
Allow LDAP admin account to behave like local root? No
Does the LDAP database require login?: No

No arquivo /etc/ldap/ldap.conf adicione as seguintes linhas:

BASE dc=republica,dc=star,dc=wars
URI ldap://192.168.1.2

No arquivo /etc/nsswitch.conf modifique conforme as linhas abaixo:

passwd: compat ldap
group: compat ldap
shadow: compat ldap

# /etc/init.d/nscd restart

Teste a conf:

# id testeldap

Deve retornar o seguinte:

uid=2000(testeldap) gid=100(users) grupos=100(users)

Rafael Gomes
Consultor em TI
LPIC-1 MCSO

(71) 8318-0284
________________________________________________________________________________________________________________________________________________________________________________________________
2) Configurações do SSH sem senha, proxy, NFS e torque:
Vitor Vilas Boas vitorvilas@gmail.com
11/16/11
to r2d2_ufba
Galera, já está ok para meu usuário o SSH sem senha no cluster02 a partir do darthvader.

O que ainda falta fazer:

- Colocar o darthvader em todos os arquivos hosts.
- Cada usuário criar sua chave no ssh do darthvader e criar o arquivo authorized_keys.
- Modificar o fstab de todos os nós para que utilize o /home do darthvader e não do clustermaster como está setado.

Vou fazer isso hoje, até o final da tarde concluo.

Para os usuários fazerem a chave SSH, vou colocar aqui como fazer, e se alguém puder colocar na wiki (Gomex se puder...)

1 - Logar no darthvader com o próprio usuário;

2 - Gerar a chave com o comando --> ssh-keygen -t rsa

3 - Dar enter até terminar o processo, não colocando frase alguma, deixando a frase em branco.

4 - Entrar no diretório que estão localizadas as chaves ---> cd ~/.ssh

5 - Gerar o authorized_keys --> cat id_rsa.pub >> authorized_keys

6 - Fazer o teste logando no cluster02 --> ssh cluster02 (Caso precise, aceitar o certificado com yes) e refazer o teste.

Guilherme:

Proxy:
add no /etc/profile das estações (internet)
export http_proxy=http://192.168.1.1:3128

NFS
add no /etc/fstab (monta home NFS)
darthvader.bio.intranet.ufba.br:/home /home nfs rw,hard,intr 0 0

Torque nas estações:
/var/spool/torque/server_name > uma única linha com o nome do servidor "darthvader"
/var/spool/torque/mom_priv/config > adicionar nome do servidor "darthvader"

 
Deleted:
<
<
-- RodrigoZucoloto - 02 Nov 2011
 \ No newline at end of file
Added:
>
>
____________________________________________________________________________________________________________________________________________________________________________________________

-- RodrigoZucoloto - 02 Nov 2011

Revision 231 Jan 2012 - Main.RodrigoZucoloto

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
Changed:
<
<
Configurações do Ldap nos nós do Cluster
>
>
1) Configurações do Ldap nos nós do Cluster
  # apt-get install libnss-ldap libpam-ldap nscd

LDAP server URI: ldap://192.168.1.2/
Distinguished name of the search base: dc=republica,dc=star,dc=wars
LDAP version to use: 3
LDAP account for root: cn=admin,dc=republica,dc=star,dc=wars
Changed:
<
<
LDAP root account password: <vocês sabem qual né? Não vou colocar aqui>
Allow LDAP admin account to behave like local root? No
Does the LDAP database require login?: No

No arquivo /etc/ldap/ldap.conf adicione as seguintes linhas:

BASE dc=republica,dc=star,dc=wars
URI ldap://192.168.1.2

No arquivo /etc/nsswitch.conf modifique conforme as linhas abaixo:

passwd: compat ldap
group: compat ldap
shadow: compat ldap

# /etc/init.d/nscd restart

Teste a conf:

# id testeldap

Deve retornar o seguinte:

uid=2000(testeldap) gid=100(users) grupos=100(users)

--
Rafael Gomes
Consultor em TI
LPIC-1 MCSO
(71) 8318-0284
>
>
LDAP root account password: <vocês sabem qual né? Não vou colocar aqui>
Allow LDAP admin account to behave like local root? No
Does the LDAP database require login?: No

No arquivo /etc/ldap/ldap.conf adicione as seguintes linhas:

BASE dc=republica,dc=star,dc=wars
URI ldap://192.168.1.2

No arquivo /etc/nsswitch.conf modifique conforme as linhas abaixo:

passwd: compat ldap
group: compat ldap
shadow: compat ldap

# /etc/init.d/nscd restart

Teste a conf:

# id testeldap

Deve retornar o seguinte:

uid=2000(testeldap) gid=100(users) grupos=100(users)

--
Rafael Gomes
Consultor em TI
LPIC-1 MCSO
(71) 8318-0284
2) Configurações do SSH sem senha e detalhes do NFS
Vitor Vilas Boas vitorvilas@gmail.com
11/16/11
to r2d2_ufba
Galera, já está ok para meu usuário o SSH sem senha no cluster02 a partir do darthvader.

O que ainda falta fazer:

- Colocar o darthvader em todos os arquivos hosts.
- Cada usuário criar sua chave no ssh do darthvader e criar o arquivo authorized_keys.
- Modificar o fstab de todos os nós para que utilize o /home do darthvader e não do clustermaster como está setado.

Vou fazer isso hoje, até o final da tarde concluo.

Para os usuários fazerem a chave SSH, vou colocar aqui como fazer, e se alguém puder colocar na wiki (Gomex se puder...)

1 - Logar no darthvader com o próprio usuário;

2 - Gerar a chave com o comando --> ssh-keygen -t rsa

3 - Dar enter até terminar o processo, não colocando frase alguma, deixando a frase em branco.

4 - Entrar no diretório que estão localizadas as chaves ---> cd ~/.ssh

5 - Gerar o authorized_keys --> cat id_rsa.pub >> authorized_keys

6 - Fazer o teste logando no cluster02 --> ssh cluster02 (Caso precise, aceitar o certificado com yes) e refazer o teste.
Guilherme Rocha guilherme@gf7.com.br via googlegroups.com
11/16/11
to r2d2_ufba, Vitor


Grande Vitor,


foi muito bom ver a sua mensagem.

Tenho duas perguntas:

O NFS já tá blza no darth vader?
A comunicação sem senha está bi-direcional? (ou seja da estação para o servidor / e do servidor para a estação?)


abraços,

Guilherme Rocha
GF7 Doc & Systems - Soluções Tecnológicas
Telefone: + 55 71 4062 9142
Mobile: + 55 71 9279 0829





Em 16-11-2011 11:23, Vitor Vilas Boas escreveu:
Vitor Vilas Boas vitorvilas@gmail.com
11/16/11
to r2d2_ufba

Não testei ainda, estou arrumando os fstabs e os hosts fos nós para enxergarem o darth. Vou almoçar agora, logo mais término e informo.
Em 16/11/2011 11:45, "Guilherme Rocha" <guilherme@gf7.com.br> escreveu:
Vitor Vilas Boas vitorvilas@gmail.com
11/16/11
to r2d2_ufba
Testado bi-direcional e funcionando.

Em 16 de novembro de 2011 11:44, Guilherme Rocha <guilherme@gf7.com.br> escreveu:
Rodrigo Barban Zucoloto
11/16/11
to r2d2_ufba
Pessoal,

Quando fui dar o comando cat indicado por Vitor deu o seguinte erro, o
que fiz de errado?

rbz@darthvader:~/.ssh$ cat id_rsa.pub >> authorized_keys
cat: id_rsa.pub: Arquivo ou diretório não encontrado

Mas dentro deste diretório tem este arquivo aqui:

rbz@darthvader:~/.ssh$ ls
authorized_keys


O que faço com ele?

Vou para uma reunião agora e depois volto para ver!

Abs,

Rodrigo.


On 11/16/11, Vitor Vilas Boas <vitorvilas@gmail.com> wrote:
> Testado bi-direcional e funcionando.
>
> Em 16 de novembro de 2011 11:44, Guilherme Rocha
> <guilherme@gf7.com.br>escreveu:
>
>> **
>>
>>
>> Grande Vitor,
>>
>>
>> foi muito bom ver a sua mensagem.
>>
>> Tenho duas perguntas:
>>
>>
>> 1. O NFS já tá blza no darth vader?
>> 2. A comunicação sem senha está bi-direcional? (ou seja da estação
Vitor Vilas Boas vitorvilas@gmail.com
11/16/11
to r2d2_ufba
Rodrigo, você tem que gerar a chave primeiro, esse erro aconteceu porque não estava com a chave criada.

Em 16 de novembro de 2011 13:51, Rodrigo Barban Zucoloto <rbzucoloto@gmail.com> escreveu:
Rodrigo Barban Zucoloto
11/16/11
to r2d2_ufba
Vitor,

Não creio que seja isso pois segui sua indicação:



1 - Logar no darthvader com o próprio usuário;

2 - Gerar a chave com o comando --> ssh-keygen -t rsa

3 - Dar enter até terminar o processo, não colocando frase alguma, deixando a frase em branco.

4 - Entrar no diretório que estão localizadas as chaves ---> cd ~/.ssh

5 - Gerar o authorized_keys --> cat id_rsa.pub >> authorized_keys

Obrigado,

Rodrigo.
Vitor Vilas Boas vitorvilas@gmail.com
11/16/11
to r2d2_ufba
Rodrigo, fiz esse mesmo procedimento na sua conta pelo root, loga como rbz e acessa o cluster02 para ver o que acontece.
  -- RodrigoZucoloto - 02 Nov 2011

Revision 102 Nov 2011 - Main.RodrigoZucoloto

Line: 1 to 1
Added:
>
>
META TOPICPARENT name="WebHome"
Configurações do Ldap nos nós do Cluster

# apt-get install libnss-ldap libpam-ldap nscd

LDAP server URI: ldap://192.168.1.2/
Distinguished name of the search base: dc=republica,dc=star,dc=wars
LDAP version to use: 3
LDAP account for root: cn=admin,dc=republica,dc=star,dc=wars

LDAP root account password: <vocês sabem qual né? Não vou colocar aqui>
Allow LDAP admin account to behave like local root? No
Does the LDAP database require login?: No

No arquivo /etc/ldap/ldap.conf adicione as seguintes linhas:

BASE dc=republica,dc=star,dc=wars
URI ldap://192.168.1.2

No arquivo /etc/nsswitch.conf modifique conforme as linhas abaixo:

passwd: compat ldap
group: compat ldap
shadow: compat ldap

# /etc/init.d/nscd restart

Teste a conf:

# id testeldap

Deve retornar o seguinte:

uid=2000(testeldap) gid=100(users) grupos=100(users)

--
Rafael Gomes
Consultor em TI
LPIC-1 MCSO
(71) 8318-0284

-- RodrigoZucoloto - 02 Nov 2011

 
This site is powered by the TWiki collaboration platformCopyright &© by the contributing authors. All material on this collaboration platform is the property of the contributing authors.
Ideas, requests, problems regarding TWiki? Send feedback