To do list:

Copiar localmente una de las AOD que Monika sugirio

       source /afs/cern.ch/project/gd/LCG-share/sl3/etc/profile.d/grid_env.sh
       source /afs/usatlas.bnl.gov/Grid/Don-Quijote/dq2_user_client/setup.zsh.CERN
       voms-proxy-init -voms atlas
Y luego de ingresar el password de Grid, buscar los datos, en este caso
  
       dq2_ls -f trig1_misal1_mc12.005104.PythiaWenu.recon.AOD.v13003004
donde trig1_misal1_mc12.005104.PythiaWenu.recon.AOD.v13003004 es el nombre del sample que contienen un monton de archivos, luego los grabo localmente con
  
       dq2_get -r trig1_misal1_mc12.005104.PythiaWenu.recon.AOD.v13003004
Quiero solo algunos, asi que detuve el proceso de copia despues de obtener AOD.018918._00242.pool.root.1 y AOD.018918._00443.pool.root.1

Preparar el entorno (athena framework) para generar la Ntupla

Para pasar de AOD Monika sugirio usar el archivo AnalysisSkeleton_extrapol from ~mwielers/maxidisk/athena13040/AtlasOffline-13.0.40/PhysicsAnalysis/AnalysisCommon/UserAnalysis/ , es necesario obtener la version de UserAnalysis usada en el release 13.0.40 y copiarla en el area de trabajo asociada al release. Si no esta creada, hacer desde una ventana de lxplus nueva lo siguiente:
mkdir 13.0.40
mkdir 13.0.40/AtlasOffline-13.0.40
mkdir 13.0.40/AtlasOffline-13.0.40/run
Luego setear athena para el release 13.0.40 para copiar posteriormente los archivos de UserAnalysis en AtlasOffline-13.0.40 y configurarlos
source ~/cmthome/setup.sh -tag=13.0.40,32,opt
cmt show versions PhysicsAnalysis/AnalysisCommon/UserAnalysis
en este caso aparecio UserAnalysis-00-10-12, copiamo ese tag
cd 13.0.40/AtlasOffline-13.0.40
cmt co -r UserAnalysis-00-10-12 PhysicsAnalysis/AnalysisCommon/UserAnalysis
cd PhysicsAnalysis/AnalysisCommon/UserAnalysis/cmt
cmt config
cmt make
Las AOD que habiamos copiado hay que llevarlas a la carpeta run en que correremos athena junto a la JobOption que queremos ejecutar, en este caso AnalysisSkeleton_topOptions_13040.py desde los archivos de Monika, tambien copiamos a /src/ el documento en C++ que es llamado por la JobOption, en este caso lo obtenemos de la carpeta publica de Teresa
cd ../run
cp ~/AOD.018918._00* .
cp ~mwielers/maxidisk/athena13040/AtlasOffline-13.0.40/PhysicsAnalysis/AnalysisCommon/UserAnalysis/run/AnalysisSkeleton_topOptions_13040.py .
cp /afs/cern.ch/user/t/tfonseca/public/chile/AnalysisSkeleton_extrapol.cxx ../src/
Hacemos un backup del archivo AnalysisSkeleton.cxx y renombramos AnalysisSkeleton_extrapol.cxx como AnalysisSkeleton.cxx
cd ../src
mv AnalysisSkeleton.cxx AnalysisSkeleton_backup.cxx
mv AnalysisSkeleton_extrapol.cxx AnalysisSkeleton.cxx
Antes de correr athena, debemos cambiar la JobOption (los path de input y output, princialemente)
cd ../run
emacs AnalysisSkeleton_topOptions_13040.py &

en linea 21 cambiamos el input en linea 81 y linea 85 cambiamos el output path y para probar cambiamos el numero maximo de eventos a 100 en linea 93 ahora estamos listos para correr athena

Correr las jO de Monika y producir una ntupla rapida (¿100 eventos?)

athena AnalysisSkeleton_topOptions_13040.py >&! log.out |tee
  • Al correr el codigo se rompe y arroja los siguientes errores (aún no resueltos )

IOVDbMgr ERROR Unable to get default connection to COOL Conditions database.

IOVDbMgr ERROR Please set job option: IOVDbSvc.dbConnection =

IOVDbSvc ERROR Unable to get dbConnection - empty connection string

ServiceManager ERROR Unable to initialize Service: DetectorStore

ApplicationMgr FATAL finalize: Invalid state "Configured"

  • Agregué la línea
     IOVDbSvc.dbConnection="impl=cool;techno=sqlite;schema=mycool.db;X:OFLP200"
    en las JobOption sin resultados positivos
  • Siguiendo los concejos de Teresa, en la ventana de shell (tras probar sin éxito insertarlo en la JobOption) ejecuté setupLocalDBReplica_CERN.sh, pero apareció que no tenía permisos.

Trabajar sobre las Ntuplas ya hechas

  • En vista de los problemas anteriores, trabajamos sobre las ntuplas ya hechas, trig1_misal1_mc12.005104.PythiaWenu.recon.NTUP.v13003004
  • Escribir un macro que plotee todas las variables del trigger, a saber:
  • mas informacion en https://twiki.cern.ch/twiki/bin/view/Main/TereTriggerAant
  • En orden de hacer el proceso mas eficiente, sigo el esquema utilizado para generar los graficos de eficiencia para samples con distintas calibraciones (Damazio), los archivos estan en mi area publica en la cuenta de Lxplus, son Newtree.C, Newtree.h, drive.C, writeout.C, plot.C
  • Copio una de las ntuplas en mi carpeta run local, luego en root genero los archivos ColectionTree.C y CollectionTree.h:
    root [0] TFile f("YourNtuple.root");
    root [2] CollectionTree->MakeClass();
    
  • En CollectionTree.h es necesario incluir:
#include <vector>
using namespace std;
  • Dentro de las variables del tercer nivel del trigger, eg_deta1_EF, eg_dphi2_EF y eg_eoverp_EF rompen el loop, por lo que fueron comentadas.
  • En NewTree.C, instauramos dos variables: cut_Emin y cut_E , que son las cotas minimas y máximas de energía (no energia transversa) a ser seleccionada, a fin de estudiar las shapes en distintos rangos de energía.
  • que el recuadro de "statistics" de root incluya "overflow y underflow"
     gStyle->SetOptStat(111111); 

-- DiegoRomero - 31 Jul 2008

Edit | Attach | Watch | Print version | History: r7 < r6 < r5 < r4 < r3 | Backlinks | Raw View | WYSIWYG | More topic actions
Topic revision: r7 - 2008-08-08 - DiegoRomero
 
    • Cern Search Icon Cern Search
    • TWiki Search Icon TWiki Search
    • Google Search Icon Google Search

    Sandbox All webs login

This site is powered by the TWiki collaboration platform Powered by PerlCopyright &© 2008-2020 by the contributing authors. All material on this collaboration platform is the property of the contributing authors.
or Ideas, requests, problems regarding TWiki? use Discourse or Send feedback