/
%CERTIFY%
SingleTopAnalisisIFIC
INSTRUCCIONES ANTIGUAS ANÁLISIS 8 TEV
Esta Twiki explica los pasos a seguir desde la descarga de las muestras en el GRID hasta el cálculo de sistemáticos, todo ello usando la infraestructura del IFIC.
En lineas generales los pasos a seguir son:
- Descargar las muestras del GRID a Lustre
- Localizar las muestras en Lustre y crear las carpetas contenedoras de enlaces simbólicos a los archivos
- Ejecutar el código TopAnalysis para producir las ntuplas finales
- Ejecutar el código topPlots para producir plots
- Ejecutar el código readResultsTree para generar los matrices de migración y los archivos necesarios para cada sistemático
- Ejecutar el código singletop_Unfolding para calcular los sistemáticos
Para poder seguir el tutorial es necesario descargar los siguientes paquetes:
cd XXX
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlas-cescobar/cescobar/TopAnalysis/trunk TopAnalysis
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlas-spedraza/ReadResultsTree/trunk ReadResultsTree
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlas-spedraza/TopAnalysisIfic/trunk TopAnalysisIfic
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlas-spedraza/Unfolding_Code/trunk Unfolding_Code
Descargar muestras del GRID:
Para poder descargar muestras del GRID se debe tener un certificado digital válido expedido en el IFIC o en el CERN.
La lista de muestras necesarias para el análisis se suelen encontrar en la twiki del grupo de
SingleTop. Si se necesitan muestras nuevas o muestras ya existentes pero que no están en la lista del grupo de
SingleTop, se deberán producir las muestras nuevas y actualizar la Twiki con la nueva información.
Una vez que se sabe las muestras que se necesitan descargar, utilizaremos la herramienta web de rucio para hacer las diferentes solicitudes. Si no se sabe utilizar esta herramienta, recomiendo que se haga el tour que la propia aplicación sugiere.
Localizar las muestras en Lustre:
Debido a las características de Rucio para gestionar la gran cantidad de muestras existentes, cada archivo de la muestra no está contenido dentro de una única carpeta como sucedía antes, si no que cada archivo está guardado dentro de una carpeta (más o menos). Esta forma de guardar los datos es incompatible con la estructura de los datos de entrada que espera nuestro código de análisis, por lo que tenemos que usar un script para crear una carpeta contenedora única por cada muestra, dentro de la cual creará enlaces simbólicos hacia los archivos reales de las muestras.
A continuación los pasos a seguir para generar los enlaces simbólicos:
cd XXX/TopAnalysisIfic/GridStuff_IFIC/
source RucioDatasets.sh
python links_rucio.py -p ../../test_samples -d user.kind.mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15_*.root
Si la muestra está descargada en el local group disk del IFIC, como en el caso del ejemplo, el output será el siguiente:
* Datasets at IFIC:
user.kind:user.kind.mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15_el.root
user.kind:user.kind.mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15_mu.root
user.kind:user.kind.mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15j_el.root
user.kind:user.kind.mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15j_mu.root
* Datasets not at IFIC:
* Datasets incomplete at IFIC:
The End
Por lo tanto, ya tenemos todos los archivos del dataset 110090 dentro de una única carpeta bajo el directorio XXX/test_samples. Hagamos un listado del directorio para ver si es verdad:
ls ../../test_samples/
mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15
mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15j
Es obligatorio separar los samples que contienen los sistemáticos relacionados con el JES del resto, por tanto:
cd ../../
mkdir test_samplesJES
cd test_samplesJES
mv ../test_samples/mc12_8TeV.110090.PowhegPythia__sgtop_tchan_lept_top.SGTOP_SL.e2575_s1773_s1776_r4485_r4540_p1575_v15j .
- Posibles errores:
- Sustituye el usuario que aparece en los scripts bash de configuración (spedraza) por el usuario actual.
- Para saber los parametros de entrada del script
links_rucio.py
ejecuta python links_rucio.py -h
.
- El GRID es una herramienta en constante evolución, por lo que las APIs y programas para acceder a la información van cambiando con el tiempo. Si después de mucho tiempo intentas ejecutar este script y no funciona, probablemente es que tengas que actualizarlo.
Top Analisis
Una vez que ya tenemos las muestras listas en nuestro directorio local, procederemos a ejecutar el código de análisis. Este paquete es complejo ya que se ha venido usando desde hace bastante tiempo, adaptándolo a las distintas campañas de ATLAS y añadiendo diferentes funcionalidades. Saber lo que hace cada parte del código necesita tiempo.
Vamos a la carpeta madre y vemos lo que contiene:
cd XXX/TopAnalysis
ls
analysis_batchwrapper.py ChangeLog DB extras lib monitor run scripts src TopRootCore
A continuación describimos los siguientes directorios y sus subcomponentes más importantes:
-
DB
: Contiene la información sobre los datasets que tenemos que usar, secciones efficaces, numero total de eventos producidos, lista de sistemáticos, etc
-
DB/datasetlists/
: Contiene las listas con los samples que se van a usar. Estas listas se tienen que actualizar cuando tengamos samples nuevos.
-
DB/inputs/
: Contiene las listas de sistemáticos. Estas listas se tienen que actualizar cuando tengamos sistemáticos nuevos.
-
DB/createDB.sh/
: Actualiza la base de datos de muestras SingleTopD3PDs con sección eficaz, luminosidad, k-factors..etc. Es necesario tener cuenta en pyAMI (https://ami.in2p3.fr/
). Antes de ejecutarlo conviene hacer una copia de seguridad del fichero DB_mc12_8TeV.csv : DB_mc12_8TeV_old.csv por si surgieran problemas en su generación, que suelen estar relacionados con cambios de nombre de NTUP_COMMON w.r.t singleTopD3PD, en cuyo caso modificar la función def _tryToRetrieveDSinfo dentro de createDB.py para tener en cuenta este cambio de nombre.
source ./createDB.sh -e 8 -t mc
-
src
: Contiene el código de análisis. Algunos archivos importantes están contenidos en monitor/src
pero se linkan a esta carpeta
-
Analysis.C/h
: Este archivo contiene el main del código. Es donde está definido el loop sobre los eventos y ejecuta evento a evento los diferentes elementos necesarios para realizar la selección.
-
AnalysisTool.C/h
: Aquí es donde se calculan los boosts y se calculan las diferentes proyecciones angulares.
-
ClassForSgTopD3PD_8TeV.C/h
: Esta clase carga todas las variables existentes en las SgTopD3PD's para poder leerlas. Si se añaden nuevas variables a nivel de SgTopD3PD, esta clase hay que actualizarla.
-
DataBaseServer.C/h
: Clase que gestiona la información guardada dentro de la carpeta DB
.
-
EventYield.C/h
: Clase que calcula los event yields.
-
InputFile.C/h
: Clase que gestiona la información que se le pasa al código a través de los config files.
-
InterfaceForSgTopD3PD_8TeV.C/h
: Clase que reconstruye los objetos físicos que existen en las SgTopD3PD's.
-
PreSelection_8TeV.C/h
: Clase para aplicar la preselección.
-
Selection_8TeV.C/h
: Clase para aplicar la selección.
-
ResultsTree.C/h, ResultsDataTree.C/h, RealTreeSingleTop.C/h
: Clases que gestionan la información que se va a almacenar en el TTree de salida. Las dos últimas clases están dentro de monitor/src
, pero una vez compilado el código, se genera un link simbólico en esta carpeta.
-
TEvent.C/h
: Clase que contiene toda la información sobre el evento.
-
TruthStudy.C/h
: Clase que calcula los pesos del montecarlo.
-
run
: Dentro de esta carpeta está el script de python que sirve para compilar y ejecutar el código y algunos config files de ejemplo.
-
runner.py
: Script para compilar y ejecutar el código. Para saber como funciona ejecutar en la terminal python runner.py -h
-
batch_wrapper.py
: Este script sirve para encontrar las muestras sobre las que queremos correr y generar los config files. Este script es llamado por analysis_batchwrapper.py
que está en el directorio principal. Este archivo se tiene que modificar para poder correr en el IFIC.
-
config
: Carpeta que contiene config files de ejemplo. Es muy recomendable abrir alguno y echar un vistazo para saber la información que se pasa al código.
-
analysis_batchwrapper.py
: Este script crea los config files para las distintas muestras, para datos, MC, nominal o sistemático y lanza los jobs al batch del CERN. Este script tiene que ser modificado para poder ejecutarlo en el IFIC. Para saber todas las opciones que tiene ejecutar python analysis_batchwrapper.py -h
.
Una vez descrito el paquete de análisis, pasamos a ejecutar el código.
Recordad que tenéis que hacer el setup de ROOT
- Adaptar el código para correr en el IFIC:
cp ../TopAnalysisIfic/PrepareJobsRun/batch_wrapper.py run/
cp ../TopAnalysisIfic/PrepareJobsRun/analysis_batchwrapper.py .
cp ../TopAnalysisIfic/PrepareJobsRun/executejobs.sh .
cp ../TopAnalysisIfic/PrepareJobsRun/lxplusSetup.sh .
cp ../TopAnalysisIfic/PrepareJobsRun/parallelIFIC.py .
source lxplusSetup.sh
A continuación, abrimos el script
batch_wrapper.py
y añadimos la ruta que contiene los samples que generamos en el paso anterior
Descargar muestras del GRID
linea 219: baseSourceDirList = [ '/afs/ific.uv.es/XXX/test_samples/']
linea 220: baseSourceDirList = [ '/afs/ific.uv.es/XXX/test_samplesJES/']
Después generamos el config file:
- Ejemplo para crear el archivo de configuración de una sola muestra en el caso nominal. Aseguraos que la línea 219 del paso anterior está activa y comentad la línea 220. Ejecutar
python analysis_batchwrapper.py -h
primero para saber lo que se está haciendo.
python analysis_batchwrapper.py -d 110090 -t baseline -e
Sale algún warning debido al reciclaje del script original para adaptarlo al IFIC, no influyen en nada, lo importante es que se ha generado una carpeta llamada
inifiles
que contiene los config files creados.
cd inifiles
ls
output: mc12_8TeV.110090.PowhegPythia_sgtop_tchan_lept_top.el.root_nominal.ini mc12_8TeV.110090.PowhegPythia_sgtop_tchan_lept_top.mu.root_nominal.ini
- Ejemplo para crear el archivo de configuración de una sola muestra y en el caso que queremos calcular el sistemático JesEffectiveDet1_up. Aseguraos que la linea 219 del paso anterior está COMENTADA y DESCOMENTAD la línea 220, para que el script pueda leer las muestras que contienen los sistemáticos JES. Ejecutar
python analysis_batchwrapper.py -h
primero para saber lo que se está haciendo.
python analysis_batchwrapper.py -d 110090 -t baseline -s JesEffectiveDet1_up -e
- Ejemplo para crear el archivo de configuración de todas las muestras (Datos y MC) en el caso nominal. Aseguraos que la linea 219 del paso anterior está DESCOMENTADA y COMENTAD la línea 220.
python analysis_batchwrapper.py -t nominal -e
- Ejemplo para crear el archivo de configuración de todos los sistemáticos que no son las componentes de JES para todas las muestras. Como lo haremos para los sistemáticos NO relacionados con JES, aseguraos que la linea 219 del paso anterior está DESCOMENTADA y COMENTAD la línea 220.
python analysis_batchwrapper.py -t baseline -s all
A continuación, repetimos el mismo paso pero cambiando
all
por
JES
para poder tener los config files de todas las componentes de JES para todas las muestras.
python analysis_batchwrapper.py -t baseline -s JES
Con esto, ya tenemos todos los config files necesarios, ahora necesitamos compilar el código
- Compilación del código: Usad
python runner.py -h
para saber los parámetros que acepta el script. Recordad que tenéis que hacer el setup de ROOT
cd run
python runner.py -i ../inifiles/mc12_8TeV.110090.PowhegPythia_sgtop_tchan_lept_top.el.root_nominal.ini -f -j4
Recordad que sólo es necesario compilar el código la primera vez y cada vez que se hagan modificaciones en el código. Es decir, si no vais a compilar el código, no hace falta que uséis las opciones -f/r -j
Con esto ya tenemos el código compilado, por lo que podemos o bien correr sobre procesos individuales usando
python runner.py -i ../inifiles/XXX
o bien, sí queremos lanzar varios procesos a la vez, usar el script
parallelIFIC.py
que copiamos a la carpeta de trabajo
TopAnalisis
.
Con
python parallelIFIC.py -h
podemos ver los parámetros que hay que pasar para correr el código. Si sólo pasamos la carpeta que contiene todos los config files, el script correrá sobre todos los config files. Si queremos algo en concreto usando la variable
-s
.
- Correr sobre todos los elementos de la carpeta inifiles en segundo plano:
cd XXX/TopAnalisis
source lxplusSetup.sh
nohup ./parallelIFIC.py -f inifiles -o test_output -e > test.txt &
cd XXX/TopAnalisis
source lxplusSetup.sh
nohup ./parallelIFIC.py -f inifiles -s EtaIntercalibration -o test_output -e > test.txt &
Con este script y comprobando de vez en cuando que todo vaya bien, vamos generando todas las ntuplas que necesitamos usando los recursos del IFIC.
Generando las ntuplas finales necesarias para correr los sistemáticos:
Con
TopAnalisis generamos las ntuplas que contienen toda la información que necesitamos en un TTree y en histogramas. En principio, si los histogramas que hay almacenados en
TopAnalisis de las distribuciones angulares tienen los mismos bines que necesitamos para el unfolding, podemos usar esos mismos archivos, si no, debemos generar los histogramas con los bines que necesitamos usando el script
readResultsTree.py
.
Vamos al directorio
ReadResultsTree
, y usando
python readResultsTree.py -h
vemos los parámetros de entrada que necesita el script. Como ejemplo, usaremos el
readResultsTree.py
para generar las ntuplas necesarias para calcular los sistemáticos relacionados con la
EtaIntercalibration:
python readResultsTree.py -i /lustre/ific.uv.es/grid/atlas/t3/USER/XXX -a get_angles --list combined_listfiles.ini -c both --syst EtaIntercalibrationTotalStat_up
python readResultsTree.py -i /lustre/ific.uv.es/grid/atlas/t3/USER/XXX -a get_angles --list combined_listfiles.ini -c both --syst EtaIntercalibrationTotalStat_down
python readResultsTree.py -i /lustre/ific.uv.es/grid/atlas/t3/USER/XXX -a get_angles --list combined_listfiles.ini -c both --syst EtaIntercalibrationModel_up
python readResultsTree.py -i /lustre/ific.uv.es/grid/atlas/t3/USER/XXX -a get_angles --list combined_listfiles.ini -c both --syst EtaIntercalibrationModel_down
SC,LB,JJ:
En /lustre/ific.uv.es/grid/atlas/t3/pedrazal/SGTOP_v15_final están las ntuplas del TopAnalysis para los casos nominal y sistemáticos con la preselección utilizada para el pre-approval.
En el fichero combined_listfiles.ini se puede elegir si la señal t-channel se puede modelar con PowegPythia o Acer. Para cross-check con Annick, utilizamos PowegPythia.
Correr los pseudoexperimentos:
Los outuputs que hemos generado con
readResultsTree.py
, tienen la siguiente nomenclatura:
topPlots_electrons.root -> nominal electrones
topPlots_muons.root -> nominal muones
topPlots_electrons.<sistemático>.root -> sistemático electrones
topPlots_muones.<sistemático>.root -> sistemático muones
Todos los archivos (nominal + sistemáticos) los colocaremos bajo la misma carpeta. De esta forma el script
singletop_Unfolding.py
cargará los archivos que necesite para estimar la incertidumbre del sistemático o el error estadístico que queramos:
python singletop_Unfolding.py --topPlots /Ruta/hacia/outputs/readResultsTree --dosyst datastat
- Estadístico de simulación:
python singletop_Unfolding.py --topPlots /Ruta/hacia/outputs/readResultsTree --dosyst simstat
python singletop_Unfolding.py --topPlots /Ruta/hacia/outputs/readResultsTree --dosyst EtaIntercalibrationModel
python Systematics.py (pythonic) or source SystExe.sh (bash)
https://svnweb.cern.ch/cern/wsvn/atlas-spedraza/ReadResultsTree/trunk/Systematics.py
https://svnweb.cern.ch/cern/wsvn/atlas-spedraza/ReadResultsTree/trunk/SystExe.sh
Para configurar ciertas opciones del código, se tiene que modificar el archivo
configSetup.py
.
ATENCIÓN: Para correr pseudoexperimentos con un sistemático necesitamos los ficheros topPlots para el sistemático y también para el caso nominal.
Almacenamiento svn del código de análisis:
0) Haceros un backup de vuestro directorio
TopAnalysis.
ah, como estáis en sctui01:
kinit CERNUSER@CERN.CH
aklog CERN.CH
1) Dirección web del svn del IFIC.
https://svnweb.cern.ch/trac/atlasinst/browser/Institutes/IFIC-Valencia#TopQuarkPhysics
como veis, debajo de
TopQuarkPhysics están los diferentes análisis del Top ..
2) Yo crearía un directorio que se llame "Poltchannel", por ejemplo:
svn mkdir svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel - m "TopQuarkPhysics/Poltchannel is created"
y otro subdirectorio
TopAnalysis para el código de análisis. Luego podríamos tener otros subdirectorios
con la nota, etc..
svn mkdir svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/TopAnalysis - m "TopQuarkPhysics/Poltchannel/TopAnalysis is created"
3) Borrais la "historia" svn previa de tu versión local svn del
TopAnalysis, aquella que tiene las
últimas modificaciones que no están en el repositorio svn de Carlos ( previamente os habéis hecho un backup)
cd TopAnalysis
rm -fr `find . -name ".svn"`
4) Subis vuestro directorio
TopAnalysis:
cd TopAnalysis
svn import svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/TopAnalysis -m "import TopAnalysis to IFIC svn"
5) Dirección web del
TopAnalysis del IFIC:
https://svnweb.cern.ch/trac/atlasinst/browser/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/TopAnalysis
Dirección web del
TopAnalysis de Carlos, para consultar la historia svn previa:
https://svnweb.cern.ch/cern/wsvn/atlas-cescobar/cescobar/TopAnalysis/
Ojo mantenerse al tanto de posibles nuevas modificaciones a 8
TeV de Carlos en
TopAnalysis
6) Hacer un checkout:
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/TopAnalysis TopAnalysis
7) Idem con Unfolding_Code
svn mkdir svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/Unfolding_Code - m "TopQuarkPhysics/Poltchannel/Unfolding_Code is created"
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlas-spedraza/Unfolding_Code/trunk Unfolding_Code
cd Unfolding_Code
rm -fr `find . -name ".svn"`
svn import svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/Unfolding_Code -m "import Unfolding_Code to IFIC svn"
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/Unfolding_Code Unfolding_Code
8) Idem con
ReadResultsTree
svn mkdir svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/ReadResultsTree - m "TopQuarkPhysics/Poltchannel/ReadResultsTree is created"
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlas-spedraza/ReadResultsTree/trunk ReadResultsTree
cd ReadResultsTree
rm -fr `find . -name ".svn"`
svn import svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/ReadResultsTree -m "import ReadResultsTree to IFIC svn"
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasinst/Institutes/IFIC-Valencia/TopQuarkPhysics/Poltchannel/ReadResultsTree ReadResultsTree
Minutas de las reuniones:
Las minutas de nuestros mini-meetings están en google-docs:
http://tinyurl.com/Analisis-8TeV
Nota interna (svn) :
La dirección svn de la nota es:
https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/Summer14/INT_ST_poltchannel/Note_v15/
Para obtener la nota el check-out es:
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasphys-top/Physics/Top/Summer14/INT_ST_poltchannel/Note_v15 Note_v15
Para cambiar permisos de acceso ( escritura o lectura)
https://atlas-svnadmin.cern.ch/repository/
Atención, la última versión de la nora con el formato adecuado para la revisión
EdBoard y Top Approval está en:
https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/Summer14/INT_ST_poltchannel/
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasphys-top/Physics/Top/Summer14/INT_ST_poltchannel INT_ST_poltchannel
Draft paper (svn) :
La dirección svn del draft es:
https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17
Para obtener el papel el check-out es:
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17 TOPQ_2014_17
Para cambiar permisos de acceso ( escritura o lectura)
https://atlas-svnadmin.cern.ch/repository/
Tecnicalidades del svn: como importar el template oficial y evitar los problemas típicos
de svn, que rechaza ciertos ficheros: "." y binarios (pdf's)
svn co svn+ssh://svn.cern.ch/reps/atlasgroups/pubcom/latex/atlaslatex/tags/atlaslatex-01-07-12 atlaslatex.modified
cd atlaslatex.modified/
make new BASENAME=PolTchan ....
make clean
rm -fr `find . -name .svn`
cd ../
svn co svn+ssh://svn.cern.ch/reps/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17/atlaslatex atlaslatex # <-- this directory is currently empty in SVN
cd atlaslatex/
cp -r ../atlaslatex.modified/* .
svn add *
svn ps svn:mime-type application/octet-stream `find . -name '*.pdf'`
svn ci . -m "initial import"
the template for the ATLAS draft is at:
https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17/atlaslatex
to check-out it:
svn co svn+ssh://CERNUSER@svn.cern.ch/reps/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17/atlaslatex atlaslatex
the main skeleton is:
https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17/atlaslatex/PolTchan.tex
some instructions:
make clean Cleans up intermediate files
make cleanpdf Remove output pdf file
make cleanall Also cleans up output pdf file
make ==> to compile it
A users guide to the templates can be found in doc/atlas_latex.pdf,
however you need to compile it:
from atlaslatex:
cd doc/atlas_latex
make
..and do not forget to release the command:
export PATH=/afs/cern.ch/sw/XML/texlive/latest/bin/x86_64-linux:$PATH
if you are working in a lxplus node, it is stated in the README file:
https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/Summer16/TOPQ_2014_17/atlaslatex/README
useful links are:
To know the TOPQ-XXX link of a published paper:
https://atglance.web.cern.ch/atglance/analysis/main.php
To search pieces of latex from other papers:
https://svnweb.cern.ch/cern/wsvn/atlasphys-top/Physics/Top/
INSTRUCCIONES ANÁLISIS 13 TEV
Nota interna (git) :
link a TOPQ-2018-10-INT1
Desde lxplus:
setupATLAS
lsetup git
git clone https://gitlab.cern.ch/atlas-physics-office/TOPQ/ANA-TOPQ-2018-10/ANA-TOPQ-2018-10-INT1
export PATH=/afs/cern.ch/sw/XML/texlive/latest/bin/x86_64-linux:$PATH
make ( sólamente, si haces "make ANA-TOPQ-2018-10" no compila ! )
Minutas de las reuniones:
Las minutas de nuestras reuniones de análisis ( 13
TeV and Beyond ) están en:
google-docs link
Instrucciones análisis:
Setup desde sctui01:
kinit $USER@CERN.CH
aklog CERN.CH
export ATLAS_LOCAL_ROOT_BASE=/cvmfs/atlas.cern.ch/repo/ATLASLocalRootBase
source $ATLAS_LOCAL_ROOT_BASE/user/atlasLocalSetup.sh
lsetup root
lsetup git
Correr el famoso "histosResultsTree":
readTree
git clone https://gitlab.cern.ch/IFIC-Valencia/readTree
python histosResultsTree.py -r -n output-tchannel -R tchannel -c config/mc16_13TeV_pol.ini -M param1 -C el -N
python histosResultsTree.py -p -n output-tchannel -R tchannel -c config/mc16_13TeV_pol.ini -M param1 -C el -N
less tables/Yields_tchannel_TestingEvents_el_Nominal.txt
Con -N no se producirán los miniTrees para entrenar
MVA.
Con -M se escoge una parametrización concreta para el matrix method.
Con -D se desactiva la opción multiproceso, para debugar.
Particularidades v23:
En el fichero de configuración: config/mc16_13TeV_pol.ini
readTree
dbFile = /lustre/ific.uv.es/grid/atlas/t3/jgarcian/13TeV/local-sgtop-code/DB/DB_mc16_13TeV.csv
Correr datos, señal y fondos excepto Multijet.
rootDir = /lustre/ific.uv.es/grid/atlas/t3/jgarcian/13TeV/root/v23
Correr Multijet.
/lustre/ific.uv.es/grid/atlas/t3/osespas/13TeV/root/v23/MMNewEfficienciesv3
ATENCIÓN: al hacer el "merging" de histogramas con la opción "-p" apuntar al
directorio: /lustre/ific.uv.es/grid/atlas/t3/jgarcian/13TeV/root/v23 si no habrá un CRASH