/ %CERTIFY%

SingleTopAnalisisIFIC

INSTRUCCIONES ANTIGUAS ANÁLISIS 8 TEV

Esta Twiki explica los pasos a seguir desde la descarga de las muestras en el GRID hasta el cálculo de sistemáticos, todo ello usando la infraestructura del IFIC. En lineas generales los pasos a seguir son:
  • Descargar las muestras del GRID a Lustre
  • Localizar las muestras en Lustre y crear las carpetas contenedoras de enlaces simbólicos a los archivos
  • Ejecutar el código TopAnalysis para producir las ntuplas finales
  • Ejecutar el código topPlots para producir plots
  • Ejecutar el código readResultsTree para generar los matrices de migración y los archivos necesarios para cada sistemático
  • Ejecutar el código singletop_Unfolding para calcular los sistemáticos

Para poder seguir el tutorial es necesario descargar los siguientes paquetes:

cd XXX
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlas-cescobar/cescobar/TopAnalysis/trunk TopAnalysis
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlas-spedraza/ReadResultsTree/trunk ReadResultsTree
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlas-spedraza/TopAnalysisIfic/trunk TopAnalysisIfic
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlas-spedraza/Unfolding_Code/trunk Unfolding_Code

Descargar muestras del GRID:

Para poder descargar muestras del GRID se debe tener un certificado digital válido expedido en el IFIC o en el CERN. La lista de muestras necesarias para el análisis se suelen encontrar en la twiki del grupo de SingleTop. Si se necesitan muestras nuevas o muestras ya existentes pero que no están en la lista del grupo de SingleTop, se deberán producir las muestras nuevas y actualizar la Twiki con la nueva información. Una vez que se sabe las muestras que se necesitan descargar, utilizaremos la herramienta web de rucio para hacer las diferentes solicitudes. Si no se sabe utilizar esta herramienta, recomiendo que se haga el tour que la propia aplicación sugiere.

Localizar las muestras en Lustre:

Debido a las características de Rucio para gestionar la gran cantidad de muestras existentes, cada archivo de la muestra no está contenido dentro de una única carpeta como sucedía antes, si no que cada archivo está guardado dentro de una carpeta (más o menos). Esta forma de guardar los datos es incompatible con la estructura de los datos de entrada que espera nuestro código de análisis, por lo que tenemos que usar un script para crear una carpeta contenedora única por cada muestra, dentro de la cual creará enlaces simbólicos hacia los archivos reales de las muestras. A continuación los pasos a seguir para generar los enlaces simbólicos:
cd XXX/TopAnalysisIfic/GridStuff_IFIC/
source RucioDatasets.sh
python links_rucio.py -p ../../test_samples -d user.kind.mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15_*.root
Si la muestra está descargada en el local group disk del IFIC, como en el caso del ejemplo, el output será el siguiente:
* Datasets at IFIC:
user.kind:user.kind.mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15_el.root
user.kind:user.kind.mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15_mu.root
user.kind:user.kind.mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15j_el.root
user.kind:user.kind.mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15j_mu.root

* Datasets not at IFIC:

* Datasets incomplete at IFIC:

The End

Por lo tanto, ya tenemos todos los archivos del dataset 110090 dentro de una única carpeta bajo el directorio XXX/test_samples. Hagamos un listado del directorio para ver si es verdad:

ls ../../test_samples/
mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15
mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15j

Es obligatorio separar los samples que contienen los sistemáticos relacionados con el JES del resto, por tanto:

cd ../../
mkdir test_samplesJES
cd test_samplesJES
mv ../test_samples/mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15j .

  • Posibles errores:
    • Sustituye el usuario que aparece en los scripts bash de configuración (spedraza) por el usuario actual.
    • Para saber los parametros de entrada del script links_rucio.py ejecuta python links_rucio.py -h.
    • El GRID es una herramienta en constante evolución, por lo que las APIs y programas para acceder a la información van cambiando con el tiempo. Si después de mucho tiempo intentas ejecutar este script y no funciona, probablemente es que tengas que actualizarlo.

Top Analisis

Una vez que ya tenemos las muestras listas en nuestro directorio local, procederemos a ejecutar el código de análisis. Este paquete es complejo ya que se ha venido usando desde hace bastante tiempo, adaptándolo a las distintas campañas de ATLAS y añadiendo diferentes funcionalidades. Saber lo que hace cada parte del código necesita tiempo. Vamos a la carpeta madre y vemos lo que contiene:

cd XXX/TopAnalysis
ls
analysis_batchwrapper.py  ChangeLog  DB  extras  lib  monitor  run  scripts  src  TopRootCore
A continuación describimos los siguientes directorios y sus subcomponentes más importantes:
  • DB : Contiene la información sobre los datasets que tenemos que usar, secciones efficaces, numero total de eventos producidos, lista de sistemáticos, etc
    • DB/datasetlists/ : Contiene las listas con los samples que se van a usar. Estas listas se tienen que actualizar cuando tengamos samples nuevos.
    • DB/inputs/ : Contiene las listas de sistemáticos. Estas listas se tienen que actualizar cuando tengamos sistemáticos nuevos.
    • DB/createDB.sh/ : Actualiza la base de datos de muestras SingleTopD3PDs con sección eficaz, luminosidad, k-factors..etc. Es necesario tener cuenta en pyAMI (https://ami.in2p3.fr/). Antes de ejecutarlo conviene hacer una copia de seguridad del fichero DB_mc12_8TeV.csv : DB_mc12_8TeV_old.csv por si surgieran problemas en su generación, que suelen estar relacionados con cambios de nombre de NTUP_COMMON w.r.t singleTopD3PD, en cuyo caso modificar la función def _tryToRetrieveDSinfo dentro de createDB.py para tener en cuenta este cambio de nombre.

        source ./createDB.sh -e 8 -t mc
     

  • src : Contiene el código de análisis. Algunos archivos importantes están contenidos en monitor/src pero se linkan a esta carpeta
    • Analysis.C/h : Este archivo contiene el main del código. Es donde está definido el loop sobre los eventos y ejecuta evento a evento los diferentes elementos necesarios para realizar la selección.
    • AnalysisTool.C/h : Aquí es donde se calculan los boosts y se calculan las diferentes proyecciones angulares.
    • ClassForSgTopD3PD_8TeV.C/h : Esta clase carga todas las variables existentes en las SgTopD3PD's para poder leerlas. Si se añaden nuevas variables a nivel de SgTopD3PD, esta clase hay que actualizarla.
    • DataBaseServer.C/h : Clase que gestiona la información guardada dentro de la carpeta DB .
    • EventYield.C/h : Clase que calcula los event yields.
    • InputFile.C/h : Clase que gestiona la información que se le pasa al código a través de los config files.
    • InterfaceForSgTopD3PD_8TeV.C/h : Clase que reconstruye los objetos físicos que existen en las SgTopD3PD's.
    • PreSelection_8TeV.C/h : Clase para aplicar la preselección.
    • Selection_8TeV.C/h : Clase para aplicar la selección.
    • ResultsTree.C/h, ResultsDataTree.C/h, RealTreeSingleTop.C/h : Clases que gestionan la información que se va a almacenar en el TTree de salida. Las dos últimas clases están dentro de monitor/src, pero una vez compilado el código, se genera un link simbólico en esta carpeta.
    • TEvent.C/h : Clase que contiene toda la información sobre el evento.
    • TruthStudy.C/h : Clase que calcula los pesos del montecarlo.
  • run : Dentro de esta carpeta está el script de python que sirve para compilar y ejecutar el código y algunos config files de ejemplo.
    • runner.py : Script para compilar y ejecutar el código. Para saber como funciona ejecutar en la terminal python runner.py -h
    • batch_wrapper.py : Este script sirve para encontrar las muestras sobre las que queremos correr y generar los config files. Este script es llamado por analysis_batchwrapper.py que está en el directorio principal. Este archivo se tiene que modificar para poder correr en el IFIC.
    • config : Carpeta que contiene config files de ejemplo. Es muy recomendable abrir alguno y echar un vistazo para saber la información que se pasa al código.
  • analysis_batchwrapper.py : Este script crea los config files para las distintas muestras, para datos, MC, nominal o sistemático y lanza los jobs al batch del CERN. Este script tiene que ser modificado para poder ejecutarlo en el IFIC. Para saber todas las opciones que tiene ejecutar python analysis_batchwrapper.py -h .

Una vez descrito el paquete de análisis, pasamos a ejecutar el código. Recordad que tenéis que hacer el setup de ROOT

  • Adaptar el código para correr en el IFIC:
cp ../TopAnalysisIfic/PrepareJobsRun/batch_wrapper.py run/
cp ../TopAnalysisIfic/PrepareJobsRun/analysis_batchwrapper.py .
cp ../TopAnalysisIfic/PrepareJobsRun/executejobs.sh .
cp ../TopAnalysisIfic/PrepareJobsRun/lxplusSetup.sh .
cp ../TopAnalysisIfic/PrepareJobsRun/parallelIFIC.py .
source lxplusSetup.sh
A continuación, abrimos el script batch_wrapper.py y añadimos la ruta que contiene los samples que generamos en el paso anterior Descargar muestras del GRID
linea 219: baseSourceDirList = [ '/afs/ific.uv.es/XXX/test_samples/']
linea 220: baseSourceDirList = [ '/afs/ific.uv.es/XXX/test_samplesJES/']
Después generamos el config file:
  • Ejemplo para crear el archivo de configuración de una sola muestra en el caso nominal. Aseguraos que la línea 219 del paso anterior está activa y comentad la línea 220. Ejecutar python analysis_batchwrapper.py -h primero para saber lo que se está haciendo.
python analysis_batchwrapper.py -d 110090 -t baseline -e
Sale algún warning debido al reciclaje del script original para adaptarlo al IFIC, no influyen en nada, lo importante es que se ha generado una carpeta llamada inifiles que contiene los config files creados.
cd inifiles
ls
output: mc12_8TeV.110090.PowhegPythia_sgtop_tchan_lept_top.el.root_nominal.ini  mc12_8TeV.110090.PowhegPythia_sgtop_tchan_lept_top.mu.root_nominal.ini
  • Ejemplo para crear el archivo de configuración de una sola muestra y en el caso que queremos calcular el sistemático JesEffectiveDet1_up. Aseguraos que la linea 219 del paso anterior está COMENTADA y DESCOMENTAD la línea 220, para que el script pueda leer las muestras que contienen los sistemáticos JES. Ejecutar python analysis_batchwrapper.py -h primero para saber lo que se está haciendo.
python analysis_batchwrapper.py -d 110090 -t baseline -s JesEffectiveDet1_up -e
  • Ejemplo para crear el archivo de configuración de todas las muestras (Datos y MC) en el caso nominal. Aseguraos que la linea 219 del paso anterior está DESCOMENTADA y COMENTAD la línea 220.
python analysis_batchwrapper.py -t nominal -e
  • Ejemplo para crear el archivo de configuración de todos los sistemáticos que no son las componentes de JES para todas las muestras. Como lo haremos para los sistemáticos NO relacionados con JES, aseguraos que la linea 219 del paso anterior está DESCOMENTADA y COMENTAD la línea 220.
python analysis_batchwrapper.py -t baseline -s all
A continuación, repetimos el mismo paso pero cambiando all por JES para poder tener los config files de todas las componentes de JES para todas las muestras.
python analysis_batchwrapper.py -t baseline -s JES

Con esto, ya tenemos todos los config files necesarios, ahora necesitamos compilar el código

  • Compilación del código: Usad python runner.py -h para saber los parámetros que acepta el script. Recordad que tenéis que hacer el setup de ROOT
cd run
python runner.py -i ../inifiles/mc12_8TeV.110090.PowhegPythia_sgtop_tchan_lept_top.el.root_nominal.ini -f -j4
Recordad que sólo es necesario compilar el código la primera vez y cada vez que se hagan modificaciones en el código. Es decir, si no vais a compilar el código, no hace falta que uséis las opciones -f/r -j

Con esto ya tenemos el código compilado, por lo que podemos o bien correr sobre procesos individuales usando python runner.py -i ../inifiles/XXX o bien, sí queremos lanzar varios procesos a la vez, usar el script parallelIFIC.py que copiamos a la carpeta de trabajo TopAnalisis. Con python parallelIFIC.py -h podemos ver los parámetros que hay que pasar para correr el código. Si sólo pasamos la carpeta que contiene todos los config files, el script correrá sobre todos los config files. Si queremos algo en concreto usando la variable -s.

  • Correr sobre todos los elementos de la carpeta inifiles en segundo plano:
cd XXX/TopAnalisis
source lxplusSetup.sh
nohup ./parallelIFIC.py -f inifiles -o test_output -e > test.txt &
cd XXX/TopAnalisis
source lxplusSetup.sh
nohup ./parallelIFIC.py -f inifiles -s EtaIntercalibration -o test_output -e > test.txt &

Con este script y comprobando de vez en cuando que todo vaya bien, vamos generando todas las ntuplas que necesitamos usando los recursos del IFIC.

Generando las ntuplas finales necesarias para correr los sistemáticos:

Con TopAnalisis generamos las ntuplas que contienen toda la información que necesitamos en un TTree y en histogramas. En principio, si los histogramas que hay almacenados en TopAnalisis de las distribuciones angulares tienen los mismos bines que necesitamos para el unfolding, podemos usar esos mismos archivos, si no, debemos generar los histogramas con los bines que necesitamos usando el script readResultsTree.py.

Vamos al directorio ReadResultsTree, y usando python readResultsTree.py -h vemos los parámetros de entrada que necesita el script. Como ejemplo, usaremos el readResultsTree.py para generar las ntuplas necesarias para calcular los sistemáticos relacionados con la EtaIntercalibration:

python readResultsTree.py -i /lustre/ific.uv.es/grid/atlas/t3/USER/XXX -a get_angles --list combined_listfiles.ini -c both --syst EtaIntercalibrationTotalStat_up
python readResultsTree.py -i /lustre/ific.uv.es/grid/atlas/t3/USER/XXX -a get_angles --list combined_listfiles.ini -c both --syst EtaIntercalibrationTotalStat_down
python readResultsTree.py -i /lustre/ific.uv.es/grid/atlas/t3/USER/XXX -a get_angles --list combined_listfiles.ini -c both --syst EtaIntercalibrationModel_up
python readResultsTree.py -i /lustre/ific.uv.es/grid/atlas/t3/USER/XXX -a get_angles --list combined_listfiles.ini -c both --syst EtaIntercalibrationModel_down

SC,LB,JJ: En /lustre/ific.uv.es/grid/atlas/t3/pedrazal/SGTOP_v15_final están las ntuplas del TopAnalysis para los casos nominal y sistemáticos con la preselección utilizada para el pre-approval. En el fichero combined_listfiles.ini se puede elegir si la señal t-channel se puede modelar con PowegPythia o Acer. Para cross-check con Annick, utilizamos PowegPythia.

Correr los pseudoexperimentos:

Los outuputs que hemos generado con readResultsTree.py, tienen la siguiente nomenclatura:
topPlots_electrons.root -> nominal electrones
topPlots_muons.root     -> nominal muones
topPlots_electrons.<sistemático>.root -> sistemático electrones
topPlots_muones.<sistemático>.root    -> sistemático muones
Todos los archivos (nominal + sistemáticos) los colocaremos bajo la misma carpeta. De esta forma el script singletop_Unfolding.py cargará los archivos que necesite para estimar la incertidumbre del sistemático o el error estadístico que queramos:
  • Estadístico de datos:
python singletop_Unfolding.py --topPlots /Ruta/hacia/outputs/readResultsTree --dosyst datastat
  • Estadístico de simulación:
python singletop_Unfolding.py --topPlots /Ruta/hacia/outputs/readResultsTree --dosyst simstat
python singletop_Unfolding.py --topPlots /Ruta/hacia/outputs/readResultsTree --dosyst EtaIntercalibrationModel
  • Loop sobre sistemáticos:
python Systematics.py (pythonic)  or source SystExe.sh (bash)
https://svnweb.cern.ch/cern/wsvn/atlas-spedraza/ReadResultsTree/trunk/Systematics.py

https://svnweb.cern.ch/cern/wsvn/atlas-spedraza/ReadResultsTree/trunk/SystExe.sh

Para configurar ciertas opciones del código, se tiene que modificar el archivo configSetup.py.

ATENCIÓN: Para correr pseudoexperimentos con un sistemático necesitamos los ficheros topPlots para el sistemático y también para el caso nominal.

Almacenamiento svn del código de análisis:

0) Haceros un backup de vuestro directorio TopAnalysis. ah, como estáis en sctui01:
kinit CERNUSER@CERN.CH
aklog CERN.CH

1) Dirección web del svn del IFIC.

https://svnweb.cern.ch/trac/atlasinst/browser/Institutes/IFIC-Valencia#TopQuarkPhysics
como veis, debajo de TopQuarkPhysics están los diferentes análisis del Top ..

2) Yo crearía un directorio que se llame "Poltchannel", por ejemplo:

svn mkdir svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel - m  "TopQuarkPhysics/Poltchannel is created"
y otro subdirectorio TopAnalysis para el código de análisis. Luego podríamos tener otros subdirectorios con la nota, etc..
svn mkdir svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/TopAnalysis - m  "TopQuarkPhysics/Poltchannel/TopAnalysis is created"

3) Borrais la "historia" svn previa de tu versión local svn del TopAnalysis, aquella que tiene las últimas modificaciones que no están en el repositorio svn de Carlos ( previamente os habéis hecho un backup)

cd TopAnalysis
rm -fr `find . -name ".svn"`

4) Subis vuestro directorio TopAnalysis:

cd TopAnalysis
svn import svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/TopAnalysis  -m "import TopAnalysis to IFIC svn"

5) Dirección web del TopAnalysis del IFIC:

https://svnweb.cern.ch/trac/atlasinst/browser/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/TopAnalysis
Dirección web del TopAnalysis de Carlos, para consultar la historia svn previa:
https://svnweb.cern.ch/cern/wsvn/atlas-cescobar/cescobar/TopAnalysis/
Ojo mantenerse al tanto de posibles nuevas modificaciones a 8 TeV de Carlos en TopAnalysis

6) Hacer un checkout:

svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/TopAnalysis   TopAnalysis

7) Idem con Unfolding_Code


svn mkdir svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/Unfolding_Code - m  "TopQuarkPhysics/Poltchannel/Unfolding_Code is created"
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlas-spedraza/Unfolding_Code/trunk Unfolding_Code
cd Unfolding_Code
rm -fr `find . -name ".svn"`
svn import svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/Unfolding_Code  -m "import Unfolding_Code to IFIC svn"
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/Unfolding_Code  Unfolding_Code

8) Idem con ReadResultsTree


svn mkdir svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/ReadResultsTree - m  "TopQuarkPhysics/Poltchannel/ReadResultsTree is created"
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlas-spedraza/ReadResultsTree/trunk ReadResultsTree
cd ReadResultsTree
rm -fr `find . -name ".svn"`
svn import svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/ReadResultsTree  -m "import ReadResultsTree to IFIC svn"
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/ReadResultsTree ReadResultsTree

Minutas de las reuniones:

Las minutas de nuestros mini-meetings están en google-docs:
http://tinyurl.com/Analisis-8TeV

Nota interna (svn) :

La dirección svn de la nota es:
https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/Summer14/INT_ST_poltchannel/Note_v15/
Para obtener la nota el check-out es:
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasphys-top/Physics/Top/Summer14/INT_ST_poltchannel/Note_v15 Note_v15
Para cambiar permisos de acceso ( escritura o lectura)
https://atlas-svnadmin.cern.ch/repository/
Atención, la última versión de la nora con el formato adecuado para la revisión EdBoard y Top Approval está en:
https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/Summer14/INT_ST_poltchannel/
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasphys-top/Physics/Top/Summer14/INT_ST_poltchannel INT_ST_poltchannel

Draft paper (svn) :

La dirección svn del draft es:
https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17
Para obtener el papel el check-out es:
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17 TOPQ_2014_17
Para cambiar permisos de acceso ( escritura o lectura)
https://atlas-svnadmin.cern.ch/repository/

Tecnicalidades del svn: como importar el template oficial y evitar los problemas típicos de svn, que rechaza ciertos ficheros: "." y binarios (pdf's)

svn co svn+ssh://svn.cern.ch/reps/atlasgroups/pubcom/latex/atlaslatex/tags/atlaslatex-01-07-12 atlaslatex.modified
cd atlaslatex.modified/
make new BASENAME=PolTchan ....
make clean
rm -fr `find . -name .svn`
cd ../
svn co svn+ssh://svn.cern.ch/reps/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17/atlaslatex atlaslatex # <-- this directory is currently empty in SVN
cd atlaslatex/
cp -r ../atlaslatex.modified/* .
svn add *
svn ps svn:mime-type application/octet-stream `find . -name '*.pdf'`
svn ci . -m "initial import"

the template for the ATLAS draft is at:

https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17/atlaslatex
to check-out it:
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17/atlaslatex atlaslatex
the main skeleton is:
https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17/atlaslatex/PolTchan.tex

some instructions:

  make clean                            Cleans up intermediate files
  make cleanpdf                         Remove output pdf file
  make cleanall                         Also cleans up output pdf file
  make ==> to compile it

A users guide to the templates can be found in doc/atlas_latex.pdf, however you need to compile it: from atlaslatex:

cd doc/atlas_latex
make

..and do not forget to release the command:

export PATH=/afs/cern.ch/sw/XML/texlive/latest/bin/x86_64-linux:$PATH
if you are working in a lxplus node, it is stated in the README file:
https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17/atlaslatex/README

useful links are:

To know the TOPQ-XXX link of a published paper:

https://atglance.web.cern.ch/atglance/analysis/main.php

To search pieces of latex from other papers:

https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/

INSTRUCCIONES ANÁLISIS 13 TEV

Nota interna (git) :

link a TOPQ-2018-10-INT1

Desde lxplus:

setupATLAS
lsetup git
git clone https://gitlab.cern.ch/atlas-physics-office/TOPQ/ANA-TOPQ-2018-10/ANA-TOPQ-2018-10-INT1
export PATH=/afs/cern.ch/sw/XML/texlive/latest/bin/x86_64-linux:$PATH
make ( sólamente, si haces "make ANA-TOPQ-2018-10" no compila ! )

Minutas de las reuniones:

Las minutas de nuestras reuniones de análisis ( 13 TeV and Beyond ) están en: google-docs link

Instrucciones análisis:

Setup desde sctui01:


kinit $USER@CERN.CH
aklog CERN.CH
export ATLAS_LOCAL_ROOT_BASE=/cvmfs/atlas.cern.ch/repo/ATLASLocalRootBase
source $ATLAS_LOCAL_ROOT_BASE/user/atlasLocalSetup.sh
lsetup root
lsetup git

Correr el famoso "histosResultsTree": readTree


git clone https://gitlab.cern.ch/IFIC-Valencia/readTree

python histosResultsTree.py -r -n output-tchannel -R tchannel -c config/mc16_13TeV_pol.ini -M param1 -C el -N
python histosResultsTree.py -p -n output-tchannel -R tchannel -c config/mc16_13TeV_pol.ini -M param1 -C el -N 

less tables/Yields_tchannel_TestingEvents_el_Nominal.txt

Con -N no se producirán los miniTrees para entrenar MVA. Con -M se escoge una parametrización concreta para el matrix method. Con -D se desactiva la opción multiproceso, para debugar.

Particularidades v23:

En el fichero de configuración: config/mc16_13TeV_pol.ini readTree

dbFile = /lustre/ific.uv.es/grid/atlas/t3/jgarcian/13TeV/local-sgtop-code/DB/DB_mc16_13TeV.csv 

Correr datos, señal y fondos excepto Multijet.

rootDir = /lustre/ific.uv.es/grid/atlas/t3/jgarcian/13TeV/root/v23

Correr Multijet.

/lustre/ific.uv.es/grid/atlas/t3/osespas/13TeV/root/v23/MMNewEfficienciesv3

ATENCIÓN: al hacer el "merging" de histogramas con la opción "-p" apuntar al directorio: /lustre/ific.uv.es/grid/atlas/t3/jgarcian/13TeV/root/v23 si no habrá un CRASH

Edit | Attach | Watch | Print version | History: r26 < r25 < r24 < r23 < r22 | Backlinks | Raw View | WYSIWYG | More topic actions
Topic revision: r26 - 2018-10-01 - SusanaCabrera
 
    • Cern Search Icon Cern Search
    • TWiki Search Icon TWiki Search
    • Google Search Icon Google Search

    Sandbox All webs login

This site is powered by the TWiki collaboration platform Powered by PerlCopyright &© 2008-2023 by the contributing authors. All material on this collaboration platform is the property of the contributing authors.
or Ideas, requests, problems regarding TWiki? use Discourse or Send feedback