Vademecum to survive @CERN

SHIFTS @ ECAL && LIFE @P5

  • COME PRENOTARE IL DGL/DOC
Dovete andare su cmsonline.cern.ch cliccare a sinistra su shiftlist poi andare sul tab shift selection

scegliere ECAL_DGL mese di novembre e fare invia selezionare la settimana e fare save

(ricordatevi di fare save altrimenti non lo salva).

* ECAL CHARACTERS && PHONES ( ECAL P5->Ecal Phones)

    • DOC = 70130
    • DGL = 70178 I doveri del DOC e del DGL si trovano qui: [[https://twiki.cern.ch/twiki/bin/viewauth/CMS/EcalRFM][Twiki EcalRFM ]
    • Francesca = 160277, +393396984117 (ECAL, HV)
    • lo shifter DCS di ECAL = 72606 (LV, HV, cooling, safety system)
    • Sasha = 163369(LV)
    • Serguei= 165133 (DCS)
    • Pedro = 168796 (EB/EE DAQ)
    • Evgueni = 160329 (DAQ)
    • Alex = 160737 (TCC)
    • Jose' = 162406 (EB/EE DAQ - DCC)
    • Philippe= 77860 (DAQ)
    • David Bailleux = 164241 (LASER)
    • Adi =162343(LASER)
    • Federico Ferri = (LASER)
    • Andre' David = 164241 (RUN COORDINATOR) o 70140
Per chiamare un numero CERN che inizia con 16... da fuori il CERN bisogna fare: +4176487 oppure +412276 + ultime 4 cifre del nuemro da chiamare.

Per chiamare un numero NON CERN (fissi e cellulare, italia e ovunque) dal CERN (ufficio) bisogna fare: *7 71643 NNNN *40 0039 06 bla bla... (se ad esempio chiamo in italia)

  • ELOGS
Per accedere all'elog di ecal dalla pagina di P5 andare su e-logs->ECAL.

Per iscriversi e quindi ricevere anche via mail tutti gli aggiornamenti postati sull'elog andare su Config (barra grigia in alto)->selezionare ECAL e poi fare save.Finito il periodo di shift ci si può cancellare.

Vanno controllati anche gli elogs di DAQ e Event and DQM per partecipare/rispondere ad eventuali discussioni/problemi su ECAL.

IL LAVORO DEL DOC/DGL

  • AGGIORNARE ECAL WALL
Giorno per giorno và aggiornato ECAL Wall con il report di quello che e' succeso nelle 24h.ECAL wall si raggiunge dalla pagina di P5->Current Plan

Ricordarsi che a fine settimana il report settimanale va mandato a Cristina.

Il martedì successivo alla settimana di DOC il report settimnale và presentato durant eil PFG meeting.

  • INTERAGIRE CON IL ES
Il preshower una volta a settimana deve fare i piedistalli. Bisogna allora chiamare quando c'è un periodo morto di più di un'ora per farglieli fare. Questo deve essere fatto una volta a settimana (intorno al mercoledì).

COSA BISOGNA FARE? Bisogna dire allo shift leader di mettere ES in locale. Quando finiscono e avvertono si fà rimettere il ES in globale.

CONTATTI: ES DAQ (70132)

Per verificare che tutto sia corretto, bisogna andare su collection;focus=;zoom=no; e controllare Integrità (ci sono dei buchi noti dovuti al LV sconnesso), Occupancy (non devo vedere cose disomogenee), Energia e Timing.

  • GESTIRE E COORDINARE IL LASER
Il Sistema del Laser e' composto da 3 Laser, Photonics (azzurro nei plot), Quantronics (blu), Verde e il LED. Il Laser flasha su ogni SM mezzo prima e mezzo dopo (zona I e poi zona L tramite fibre). Si hanno pertanto 36X2 flash in EB e 10+10 flash in EE per un totale di 92 flash.

Il Laser viene monitorato guardando

Ciascun quadratino verde che si vede nella sequenza e' una FED ossia un supermodulo che e' stato flashato dal laser. La corrispondenza tra FEd e SM in EB si trova qui mentre qui si trova quella di EE (queste immagini si trovano in P5->long Menu ->Pictures). La sequenza si compone nell'ordine di photonics, quantronics, verde e LED. Ciascun laser inizia dal SM successivo all'ultimo SM flashato dal laser precedente. Se si interrompe il run (lo vedo come una riga nera verticale nel plot della sequenza) il laser riprende dall'ultimo SM.

Nella pagina del light checker e' possibile anche monitorare le ampiezze del laser che devono rimanere sempre dentro la tolleranza (righe gialle in questo plot ).

Nella pagine del Prompt Tag Validation e' possibile controllare l'andamento delle laser corrections nel tempo per ognuna delle 92 monitoring region. Ci si aspetta che, se tutto funziona come deve, queste correzioni siano smooth nel tempo e che non ci siano fluttuazioni visibili.

CONTATTI: Di giorno si può chiamare online system/Shiftlist/monthly?shift_type=9&year=2010&month=3&_piref815_525408_815_492858_492869.next_page=/htdocs/shiftlist/shifters_info.jsp&_piref815_525408_815_492858_492869.shifterID=576605 (alle 17 smette di lavorare e il week end non c'è) oppure il telefonino di CALTECH 71080 o 161969 nella persona di online system/Shiftlist/monthly?shift_type=9&year=2010&month=3&_piref815_525408_815_492858_492869.next_page=/htdocs/shiftlist/shifters_info.jsp&_piref815_525408_815_492858_492869.shifterID=669555

oppure se proprio non risponde nessuno online system/Shiftlist/monthly?shift_type=9&year=2010&month=3&_piref815_525408_815_492858_492869.next_page=/htdocs/shiftlist/shifters_info.jsp&_piref815_525408_815_492858_492869.shifterID=376844. Per i LED bisogna chiamare (di giorno) o scrivere email a Sasha Ledovskoy.

Se si osservano andamenti inaspettati nelle laser correction (si vede da qui) il responsabile sarebbe il PFG shifter, ma nel caso posso

chiamare online system/Shiftlist/monthly?shift_type=9&year=2010&month=3&_piref815_525408_815_492858_492869.next_page=/htdocs/shiftlist/shifters_info.jsp&_piref815_525408_815_492858_492869.shifterID=607220

  • CONTROLLARE I DOWNTIME
Dalla pagina del CMS-WBM e' possibile visualizzare nella pagina di RunTimeSummary i downtime della presa dati che si e' conclusa. In genere ogni mattina al run meeting si discutono questi downtime e si interpellano i responsabili. Quindi nel caso ECAL fosse responsabile di un qualche downtime bisogna capirne la cause prima del run meeting in modo da poter fare un report dettagliato del problema.

  • GESTIRE E CONTROLLARE L'ACQUISIZIONE DATI E IL TRIGGER
Ricordarsi che nell'ambiente "DAQ" si parla per FED e non per supermoduli! La corrispondenza si trova qui per EB e qui per gli EE.

Il sistema di acquisizione dati e' composto da tre elementi principali:

    • DCC (si occupano di prendere dati)
    • TCC (leggono il trigger)
    • CCS (controllano le torri e la loro configurazione. Si occupano anche di guardare i TOKEN RING, che sono 8 regioni per ogni SM)
Può succedere che compaiano delle "hot towers" in ECAL. Il DAQ shifter, o l'ECAL DOC in tal caso deve andare a guardare i TriggerRates (pagina che si raggiunge dalla pagina di CMS-WBM andando su Pre-DT L1.

I trigger di ECAL (intorno al numero 32 e successivi) devono avere una rate di circa un quarto di quella globale. Questo si può vedere plottando il trigger sopra quello globale. Se i alcuni trigger di ECAL sparano troppo significa che le hot tower che si vedevano sono effettivamente dovute a ECAL.

In tal caso prima chiamo il DAQ shifter e vedo se con un redrecycle passa, altrimenti và chiamato l'esperto del trigger (70133) che indaga il problema e eventualmente maschera la torre. Può capitare a volte che si vedano delle regioni rosse nelle trigger primitives ma che vada tutto bene nell'ECAL summary, nell'occupancy e nei trigger rates. In tal caso il problema potrebbe essere dovuto all'auto-masking di queste torri che si può vedere qui.

CONTATTI: Il responsabile del sistema di DAQ e' online system/Shiftlist/monthly?shift_type=9&year=2010&month=3&_piref815_525408_815_492858_492869.next_page=/htdocs/shiftlist/shifters_info.jsp&_piref815_525408_815_492858_492869.shifterID=384866. Per le DCC contattare online system/Shiftlist/monthly?shift_type=9&year=2010&month=3&_piref815_525408_815_492858_492869.next_page=/htdocs/shiftlist/shifters_info.jsp&_piref815_525408_815_492858_492869.shifterID=384866, per le TCC Alex e per le CCS Evgueni.

  • FARE I PIEDISTALLI (work in progress)
Benchè i piedistalli stiano stabili (si muovono solo nel caso si passi da con a senza il campo magnetico) vanno presi una volta a settimana.

Per fare i piedistalli innanzi tutto bisogna comunicare allo shift leader che si vuole andare in LOCALE. Dopodichè si va nella pagina del RunControlMonitoring a cui si accede solo dai pc che stanno a P5.

Per accedere USER = PASSWORD = ECAL PRO.

Config chooser->Local Redout->default->ECAL->ch4

Create->unlock->initialize

Scelgo ALL se voglio fare tutto ECAL e poi Apply

Configuration KEY = Pedestall_tcci

Configure->Start.

Ci sono tre cicli con tre GAIN diversi. Vedo i time di inizio e fine per ogni ciclo.

Leggo HALTED quando ha finito e per chiudere faccio DESTROY

Per vedere se i piedistalli sono stati acquisiti bene si può andare su WBM->ECALSummary->last 25 ->Invia->scegliere il run->show map.

Ogni ora un job prende i valori acquisiti e li copia nel db offline (http://cms-conddb.cern.ch/payload_inspector/)

  • APOCALISSE
Se si spegne qualcosa, tipo un SM, in genere se accorge il DCS che però non si parla con il DQM.In genere passano quindi circa 15 min prima che qualcuno avverta il DOC. Pertanto e' importante monitorare direttamente la situazione di ECAL.

Questo si può fare sia da CMS ONLINE ma i plot non sono sempre aggiornati, oppure da LastValue->ECAL guardo HV e LV a cui si arriva dalla pagina di

CMS-WBM andando su LastValue.

Il LV si occupa dell'elettronica di lettura dei dati, mentre l'HV fornisce la tensione agli APD. Quando si spegne il LV si spegne anche l'HV. Quando il LV riparte, si devono riscaldare i CIP (~10 min) prima di far ripartire tutto. Evgueni va chiamato per fare delle manovre di configurazione. Poi si può re-inserire il SM nella presa dati. Bisogna inoltre tenersi sempre in contatto con il DCS on call (72606) e informare sempre lo shift leader sugli sviluppi. Inoltre bisogna informare sempre anche il run coordinator.

Per accendere LV, HV e far ei testi ci vogliono in media 30 minuti.

  • CMS A MAGNETE SPENTO
Lo status del magnete si vede nella pagina LHC Magnet Experiment.

Dopo che il magnete e' arrivato a 0 Tesla:

    • chiamare DCS di ECAL 72606 per far riaccendere LV e HV (va prima avvertito, poi prima di farglielo fare bisogna mettere il DCs il local)
    • chiamare ECAL DAQ expert 70131 x mettere i piedistalli di zero tesla
    • chiamare trigger expert x mettere la configurazione di niente magnete
    • chiamare Evgueni per la procedura di accensione dopo che il DCS ha richiamato e ha detto che e' acceso. Tale procedura si chiama cold start procedure tests. Se non può farla Evgueni la fa Jose.
    • quando Evgueni e' ok si può o andare in globale o fare quello che viene chiesto x i test. Questo va' comunicato allo shiftleader
    • si possono prendere i piedistalli nella configurazione di zero tesla.
    • 20 min prima che il magnete si riaccende chiamo il DCS di ECAL e mi faccio avvertire
    • l'ECAL DAQ expert deve rimettere i piedistalli di magnete on
    • quando evgueni ha fatto tutto ci si mette in locale e si prendono di nuovo i piedistalli

GUIDA PER I LAUREANDI AL CERN

  • Da Fare A ROMA PRIMA DI PARTIRE
    1. Aprire un cc con iban e notificare l'iban all'ufficio missioni
    2. Andare sul sito infn > serivi di sezione > RDA & missioni > inserire credenziali infn > Inserisci nuova missione
      1. Mettere area controllata NO
      2. Come città indicare PREVESSIN e non Ginevra
      3. Inserire i biglietti e le spese previste
      4. Cliccare su SALVA. Quando verrà approvata la missione riceverete una mail di conferma.
      5. Rcordatevi che tutti i biglietti e le ricevute devono essere a nome vostro
    3. Andare sul sito dello User Office del cern e scaricarsi il registration Form e l'home insitution declaration (il secondo non sono sicura serva) da qui
    4. SHAHRAM deve firmare il modulo di registrazione prima di partire. La declaration invece bisogna andare dalla Mozillo e ci pensa lei.
    5. Assicurarsi di avere un documento di identità valido (spero sia inutile dire questo)
    6. Portarsi per sicurezza la tessera della sapienza o qualsiasi altro documento che attesti che siete degli studenti lì.
  • Da fare IL PRIMO GIORNO AL CERN:
    1. Andare allo User office con i documenti di cui sopra, e la carta di identità per la registrazione.
    2. Lì poi vi diranno di andare al B55 per la foto e il badge
    3. Andare al secretariato di CMS al 5° piano della scala B al B40 e farsi registrare al database delle Human Resources.
    4. Andare sul cern network site e registrare tramite mac-address il proprio pc sia alla rete wifi che ethernet. Accedere con credenziali cern poi andare su Register Portable.
    5. Ci sono dei corsi di sicurezza da seguire ma non ricordo quali sono, ma sicuramente questo ve lo diranno al momento della registrazione.
  • Cose utili:
    1. I nostri uffici al CERN sono 40-1-b24 e 32-4-c03. Il primo numero e' il building, il secondo il piano e il terzo la stanza.
    2. Qui c'è la mappa del cern.
  • COME CAMBIARE UNA SCHEDA DELL'HV
1)scelgo il carate e accendo il pc su quel crate (numero tasto e poi accendo lo schermo)

2)spingo un tasto a caso + user = admin + pass = 1527

3)menu—>channels

4)le colonne indicano v set, v mon, i mon,

pw = se il canale è on o off e

poi la notazione delle schede. 0.00.001 significa board 0, canale 1.

1 crate = 2 supermoduli.

1 supermodulo = 4 board

1 board = 8 canali oppure 9 canali (alternate e numerate da 0 a 14)

1 canale = 2 TT

5)mi segno le v set dei canali di TUTTA LA SCHEDA che devo cambiare

6)groups->metto off tutta la colonna pw

7)giro la chiave sul crate

8) vado dietro, controllo che la luce rossa sia spenta, stacco il lock e cambio la scheda con una già calibrata

9) torno al pc, (rigiro la chiave) setto le v set della board che ho cambiato ai valori precedenti

10) controllo che up sia 5V/s (quelle calibrate potrebbero essere a 50)

11) riaccendo on il pw

CMSSW, ROOT, GRID && T2

  • COME ACCEDERE ALLA GRID LXPLUS
    • source /afs/cern.ch/cms/LCG/LCG-2/UI/cms_ui_env.csh
    • voms-proxy-init --voms cms
    • Inserire password grid
  • COME SETTARE ENVIROMENT T2
    • source /opt/exp_soft/cms/cmsset_default.csh

  • COME ACCEDERE A CRAB
    • source /afs/cern.ch/cms/LCG/LCG-2/UI/cms_ui_env.csh
    • source /afs/cern.ch/cms/ccs/wm/scripts/Crab/crab.csh
    • voms-proxy-init --voms cms
    • Inserire password grid
  • COME COPIARE IL CERTIFICATO CERN SUL T2
    • Dalla home CERN: cp -r .globus/ ~/public/
    • Dalla home T2:
      • mkdir .globus
      • cd .globus/
      • scp /afs/cern.ch/user/s/soffi/public/.globus/* .
  • COME FARE LO STAGING FORZANDO LA CLASSE
stager_get -S t1transfer -f LISTA.list

  • COME CONTARE QUANTI FILES SONO ANCORA STAGEIN
    • stager_qry -S t1transfer -f LISTA.list | grep STAGEIN | wc -l
  • COME TROVARE IL GLOBAL TAG DI UN FILE GRANDE

  • COME COMPILARE UNA NOTA/PAS/PAPER CON SVN
Sul proprio PC: cd /Users/liviasoffi/Documents/

mkdir svnrepo

svn co -N svn+ssh://svn.cern.ch/reps/tdr2 svnrepo

svn update utils

svn update -N notes

svn update -N papers

PER LA NOTA

svn update notes/AN-11-081

eval `./notes/tdr runtime -sh` # for tcsh. use -sh for bash.

cd notes/AN-11-081/trunk (edit the template, then to build the document)

tdr --style=an b AN-11-081

PER IL PAPER

svn update papers/EXO-11-035

eval `./papers/tdr runtime -sh` # for tcsh. use -sh for bash.

cd papers/EXO-11-035/trunk # (edit the template, then to build the document)

tdr --style=paper b EXO-11-035

  • COME SOTTOMETTERE UNA NOTA
    • Bisogna andare su iCMS>CMS publications>fare login>My Pending>Analysis notes>scegliere il file di cui fare upload.

root -l dcap://cmsrmse01.roma1.infn.it/pnfs/roma1.infn.it/data/cms/store/user/lsoffi/mc/default_MC_87_0_r5g.root

  • COME GENERARE IL MC

    • SCARICARE LA RELEASE e COPIARE ESEMPIO DEI TOOL DA USARE
      • scram project -n CMSSW536 CMSSW CMSSW_5_3_6
      • cd CMSSW536/src/
      • cmsenv
      • cp ~soffi/public/CRABTools/* .
    • AGGIUNGERE PU TOOL
      • emacs filename.py &
      • addpkg SimGeneral /MixingModule/
      • cd SimGeneral /MixingModule/python/
      • emacs mixPoolSource_cfi.py &
      • Aggiungere tutti i file che stanno in filename.py in mixPoolSource.py
      • Commentare i file che erano presenti in mixPoolSource.py
      • Sostituire tutti i "ReadFiles" in "FileNames"
      • scram b
    • SCARICARE IL FRAMMENTO DI CONFIGURAZIONE
      • cvs co Configuration/GenProduction/python/EightTeV/WH_ZH_HToZG_M_160_TuneZ2star_8TeV_pythia6_tauola_cff.py
      • cd Configuration/GenProduction/python/
      • scram b
    • GENERARE LO SCRIPT DA ESEGUIRE
      • cmsDriver.py Configuration/GenProduction/python/EightTeV/WH_ZH_HToZG_M_160_TuneZ2star_8TeV_pythia6_tauola_cff.py --step GEN,SIM,DIGI,L1,DIGI2RAW,RAW2DIGI,L1Reco,RECO --pileup 2012_Startup_50ns_PoissonOOTPU --conditions START53_V7C::All --beamspot Realistic8TeV2012Collision --eventcontent AODSIM --datatier AODSIM --no_exec --mc --process AODSIMoneStep
    • GIRARE LO SCRIPT IN LOCALE
      • cmsRun WH_ZH_HToZG_M_160_TuneZ2star_8TeV_pythia6_tauola_cff_GEN_SIM_DIGI_L1_DIGI2RAW_RAW2DIGI_L1Reco_RECO_PU.py
    • GIRARE LO SCRIPT CON CRAB
      • accedere a CRAB
      • emacs crab_SIM.cfg &
      • In questo script si deve indicare il .py da girare (ossia quello che si girerebbe in locale con cmsRun), si può dare il nome alla working directory e si può scegliere come scheduler = glite. Si può dire il numero di eventi da generare e il numero di eventi per job.
      • crab -create -submit -cfg crab_SIM.cfg
      • Per vedere lo status del job: crab -status -c WH_ZH_HToZG_M_160_TuneZ2star_8TeV_pythia6_tauola (-c per la directory)
      • Per avere il link su cui poter seguire il job: crab -printId -c WH_ZH_HToZG_M_160_TuneZ2star_8TeV_pythia6_tauola --->https://wms017.cnaf.infn.it:9000/uKXvo_iMdH5vF2pSfMjEug
      • Per seguire passo passo il job (tipo bpeek): glite-wms-job-logging-info https://wms017.cnaf.infn.it:9000/uKXvo_iMdH5vF2pSfMjEug
    • PUBBLICARE IL DATASET GENERATO
      • crab -status -c WH_ZH_HToZG_M_160_TuneZ2star_8TeV_pythia6_tauola
      • crab -getoutput -c WH_ZH_HToZG_M_160_TuneZ2star_8TeV_pythia6_tauola
      • crab -publishNoInp -USER.dbs_url_for_publication=https://cmsdbsprod.cern.ch:8443/cms_dbs_ph_analysis_01_writer/servlet/DBSServlet -c WH_ZH_HToZG_M_160_TuneZ2star_8TeV_pythia6_tauola (questo serve per specificare il db! ricordarsi sempr eprima il -status e il -getoutput altrimenti non funziona la pubblicazione! Inoltre -publish non e' sufficiente qnd si gira cn il PU)

    • STUDI SOLO A LIVELLO DI GENERATORE:
      • cmsDriver.py Configuration/GenProduction/python/EightTeV/WH_ZH_HToZG_M_160_TuneZ2star_8TeV_pythia6_tauola_cff.py --step GEN --pileup 2012_Startup_50ns_PoissonOOTPU --conditions START53_V7C::All --beamspot Realistic8TeV2012Collision --eventcontent AODSIM --datatier AODSIM --no_exec --mc --process AODSIMoneStep -n 1000 (SOLO PASSO "GEN")
      • cmsRun WH_ZH_HToZG_M_160_TuneZ2star_8TeV_pythia6_tauola_cff_py_GEN_PU.py

      • CAMBIARE La WIDTH DELLA PARTICELLA: Nel frammento di configurazione che viene inserito nello script sopra fare:
        • 'PMAS(25,1)=150.0 mass of Higgs', --->",1" significa la massa
        • 'PMAS(25,2)=10.0 mass of Higgs', ----> ",2" significa la width
        • 'MWID(25)=2',
      • STUDIARE IL ROOTFILE DI OUTPUT:
        • root -l
        • gSystem->Load("libFWCoreFWLite");
        • AutoLibraryLoader::enable();
        • TFile f("WH_ZH_HToZG_M_160_TuneZ2star_8TeV_pythia6_tauola_cff_py_GEN_PU.root");
        • Events->Draw("recoGenParticles_genParticles__AODSIMoneStep.product()->mass()","recoGenParticles_genParticles__AODSIMoneStep.product()->pdgId()==25");
        • Oppure lavorare con TBrowser (ma Sha lo odia smile )
  • COME PRODURRE LE NTPLE GRANDI
    • SCARICARE LA RELEASE
      • scram project -n CMSSW536 CMSSW CMSSW_5_3_6
      • cd CMSSW536/src/
      • cmsenv
    • SCARICARE TOOLS AGGIUNTIVI
      • cvs co -d CMGTools/External -r V00-01-00 UserCode /CMG/CMGTools/External
      • cvs co -r v11_09_28 -d CommonTools /ClusteredPFMetProducer UserCode /psilva/ClusteredPFMetProducer
      • cvs co -r V13_03_05 -d HiggsAnalysis /HiggsTo2photons UserCode /HiggsAnalysis/HiggsTo2photons
      • cvs co -r AlbertoAndPedro _Sep20_FastJetDevelopments -d RecoParticleFlow /PostProcessing UserCode /RecoParticleFlow/PostProcessing
      • cvs co -r pm_52xv2 JetMETCorrections /GammaJet JetMETCorrections /GammaJet
      • cvs co -d MyAnalysis /IsolationTools UserCode /emanuele/MyAnalysis/IsolationTools
      • cvs co -r regressionMay18a RecoEgamma /EgammaTools
      • cvs co -r V05-08-20 RecoEcal /EgammaCoreTools
      • scp /afs/cern.ch/user/m/meridian/public/hggNtupleTools_52Xv2.tar.gz .
      • tar xvzf hggNtupleTools_52Xv2.tar.gz
      • Consiglio di Chiara: in RecoEgamma /EgammaTools/src/EGEnergyCorrector.cc commentare if (isbarrel) { for (int i=0; i<38;++i) printf("%i: %5f\n",i,fVals[i]);}else for (int i=0; i<31;++i) printf("%i: %5f\n",i,fVals[i]);
      • scram b
    • LANCIARE LA PRODUZIONE
      • Copiare il file di accesso a crab scp /afs/cern.ch/user/s/soffi/public/crabenv.csh .
      • Il codice di produzione e` dentro JetMETCorrections /GammaJet/production/
      • Per fare le ntuple il crab cfg e' crab_MC.cfg che usa il cfg dump_MC_52X.py entrambi inJetMETCorrections/GammaJet/production
      • in dump_MC_52X.py cambiare il global tag
      • se si vuole copiare un file da dbs per runnare in locale cmsRun dump_MC_52X.py si può usare questo script
      • in crab_MC.cfg cambiare: scheduler = glite; mettere il dataset corretto; aggiungere "dbs_url=http://cmsdbsprod.cern.ch/cms_dbs_ph_analysis_01/servlet/DBSServlet" dopo dataset_path; *creare la cartella dv finirà l'output su eos: xrd eoscms mkdir /eos/cms/store/group/phys_higgs/soffi/MC/53xV3/TTH_HToGG_M-200_7TeV-pythia6_V3
  • COME RIDURRE LE NTPLE GRANDI E PRODURRE LE NTPLE RIDOTTE
    • SCARICARE LA RELEASE
      • scram project -n CMSSW536 CMSSW CMSSW_5_3_6
      • cd CMSSW536/src/cmsenv
    • SCARICARE IL CODICE DI SHA
      • cvs co -d Analysis UserCode /rahatlou/Analysis/Higgs
      • creare le liste leggendo il readme: ./runPrepareList.csh list.53xv2 /eos/cms/store/group/phys_higgs/soffi/test eos 1
      • nel file makeRedNtp.csh cambiare la castor dir con la propria (non viene scritto l'output su castor ma su pc27 dove però viene creata una cartella che si chiama proprio cm quella indicata qui). Cambiare anche il nome della cosa a 8nh.
      • nel file runAnalysis inserire il nome della classe di cui si vogliono ridurre le ntple. Il nome della classe e' ad esempio 52xv1 se le liste che si sono create stanno nella cartella list.52xv1. Scegliere anche il tipo di preselezione da applicare (cicpfloose)
      • nel file script.sh commentare la riga in cui si crea una cartella su castor
      • creare le liste: ./runPrepareList.csh list.53xv3 /eos/cms/store/group/phys_higgs/soffi/MC/53xV3/ eos 1
      • la struttura dei nomi delle liste deve essere così: TTH_HToGG_M-200_7TeV-pythia6_00.txt, quindi i nomi delle cartelle su eos devono avere questa struttura.
      • scram b
      • mkdir tmp
      • make all
      • Eseguire il tutto: ./runAllAnalysis2011.csh cern v4 1 `pwd`/jsonFiles/prompt08Jun.json 1 1 `pwd`/correctionFiles/scales-Lisbon-Hgg.dat
      • l'output viene scritto su pccmsrm27: /xrootdfs/cms/local/soffi/Higgs
      • FARE MERGE dei file di output: fare ssh su pccmsrm27, poi: ./mergeAll2011.csh v4 /xrootdfs/cms/local/soffi/Higgs/reduced 1 scales-Lisbon-Hgg.

  • COME RIDURRE LE NTPLE GRANDI E PRODURRE LE NTPLE RIDOTTE Per GJets con il calcolo di chi2time
    • Scaricare il codice Single Gamma: cvs co -d SingleGamma: UserCode /soffi/src/SingleGamma
    • Preparare le liste: ./runPrepareList.csh list.53xV5_xtalsInfo /store/group/phys_higgs/soffi/MC/53xV5_xtalsInfo/ eos 1. La directory che si mette qui' e' quella di eos in cui si trovano le ntple grandi riprodotte dopo aver aggiunto le info dei xtalli al GammaJetAnalyzer.
    • Eseguire il programma: ./runSingleGamma_giulia.csh cern GammaJets _newNtuples_v1 1 /afs/cern.ch/work/c/crovelli/gammaJets/CMSSW_5_3_6/src/GammaJets/scripts/jsonFiles/ABCD_11DecExcluded.json ../../scripts/puFiles/dataPU-RunABCD.root noCorrections. Questo step scrive le ntple ridotte su xrootd di pcccmsrm27.
    • Fare ssh su pccmsrm27
    • Fare merge dei file ottenuti: ./mergeRedNtp.csh /xrootdfs/cms/local/soffi/XtalStudy 1

  • COME UTILIZZARE IL CODICE DI GLOBE IN HToGG
    • TWIKI di GLOBE
    • guardare qui come scaricare il codice: cd CMSSW536-HToGG-globe/src/ ; cvs co -d h2gglobe UserCode/HiggsAnalysis/HiggsTo2photons/h2gglobe
    • scram project -n CMSSW536-HToGG-globe CMSSW CMSSW_5_3_6

    • STEP DI RIDUZIONE (codice in : /afs/cern.ch/work/s/soffi/CMSSW_5_2_3-globe/src/HiggsAnalysis/HiggsTo2photons/h2gglobe/Reduction)
      • cd Reduction
      • scrivere in setup.sh la directory dove deve andare l'output
      • scrivere in version.sh la versione dei file
      • lanciare mk_links.sh per fare il linking con ../AnalysisScripts
      • creare un txt come: mc_sig_HighMass.txt
      • lanciare mk_reduction_dat_sig_HighMass.sh che crea la directory: mc_sig_HighMass
      • lanciare submit_sig_HighMass.sh. Questo step fa' la riduzione delle ntple e le scrive su eos dove gli abbiamo detto noi di scrivere
      • creare i target del pileup per i sample generati: ./submit_fitter.py -d scriptoutput -q 8nh source create_pilupTarget_sig_HighMass.sh

    • STEP DI ANALISI: (codice in : /afs/cern.ch/work/s/soffi $ cd CMSSW_5_2_3-globe-analysis/src/h2gglobe/)
      • il file delle xsec sta in Macros/Normalization_8TeV.cc
      • in AnalysisScripts /baseline si trovano i file.dat che servono per lanciare l'analisi. un esempio di questo file si trova qui. In questo file và cambiato la cartella di output in alto.
      • in AnalysisScripts /common/analysis_settings.dat modificare il tipo di analisi. Tipo accendere/spegnere i canali esclusivi e cambiare il range di massa.
      • Qui ci sono le istruzioni di Chiara.
      • qualsiasi modifica si compila con make da h2gglobe
      • prima eseguire questo: python fitter.py -i baseline/datafiles_cubased_Moriond2013.dat --dryRun. Se funziona bene questo comando deve creare in baseline:
  • tmp_datafiles_cubased_Moriond2013.dat
    tmp_datafiles_cubased_Moriond2013.dat.log
    datafiles_cubased_Moriond2013.dat
    datafiles_cubased_Moriond2013.dat.pevents
      • a questo punto si puo' eseguire in locale python fitter.py -i baseline/datafiles_cubased_Moriond2013.dat dopo aver cancellato il file .pevents.
      • ricordarsi che se si aggiungono nuovi punti di massa bisogna cambiare in baseline/analysis_settings.data l'elenco dei punti di massa.
      • PEr girare l'analisi vera:
        1. ./mk_fitter.py -i baseline/datafiles_cubased_Moriond2013_HighMass.dat -o scriptoutput/sub -n 100
        2. ./submit_fitter.py -d scriptoutput -q 8nh
        3. python combiner.py -i scriptoutput_HighMass_wBkg/filestocombine_datafiles_cubased_Moriond2013_HighMass_TEST.dat
  • COSE UTILI DI GLOBE:
    • viene scritto il tree con la funzione fillOptTree che e' implementata in PhotonAnalysis /StatAnalysis.cc. C'è un tree per ogni segnale. E vengono scritti dentro i root dove stanno gli istogrammi.
    • aggiungere una variabile:
      • se si vuole aggiungere una variabile a questo tree bisogna scriverla anche in AnalysisScripts /common/RadionTree.dat.Bisogna metter eil type come indicato. I branch vengono caricati in h2gglobe/TreeContainer.cc
      • se questa variabile dipende da altre presenti nell'ntpla ridotta, bisogna aggiungere qst variabili in common/minimal_input.dat
      • infine si aggiunge la variabile in fillOpTree
    • il nome del tree che vogliamo usare, in questo caso Radion.dat, e' scritto in AnalysisScripts /baseline/datafiles...
    • Levariabili di cui si vogliono fare gli isogrammi nm1 sono salvate in common/cuts.data. Questo file viene caricato in AnalysisScripts /python/configProducer.py.
  • GLOBE in CMSSW_6_1_*
    • STEP DI PRODUZIONE:
      • scramv1 p CMSSW CMSSW_6_0_0_patch1; cd CMSSW_6_0_0_patch1/src/; mkdir -p HiggsAnalysis /; cd HiggsAnalysis /;
      • git clone git@githubNOSPAMPLEASE.com:h2gglobe/HiggsTo2photons
      • cd ..; cmsenv; bash HiggsAnalysis /HiggsTo2photons/scripts/extraTags; scram b -j 16
      • cd HiggsAnalysis /HiggsTo2photons/scripts/; ./job_maker --help
      • COSE MODIFICATE:
        • EgammaAnalysis /ElectronTools/python/electronRegressionEnergyProducer_cfi.py (il formato AODSIMOnestep)
        • nel .cfg che produce jobmaker aggiungere per girare su dbs3: use_dbs3=10; dbs_url=phys03
        • nel .py commentare HLT da true a false
      • GIRARE IN LOCALE:
        • metter eil file su cui si vuole girare in python/CMSSW_RelValDUMMY_cfi.py
        • lanciare con cmsRun il .py che viene creato da jobmaker
      • ./job_maker --MC --AOD --noskim --scheduler=remoteGlidein --storage=eos --datasetpath=/RSGravGG_kMpl001_M400_TuneZ2star_8TeV_pythia6_cff_py_GEN_RECO_PU_V5/soffi-RSGravGG_kMpl001_M400_TuneZ2star_8TeV_pythia6_cff_py_GEN_RECO_PU_V5-acb135837b8f6a5cd36e007b0d7b3b41/USER --hlttag=HLT --globaltag=START53_V7C::All --events=-1 --events_per_job=1000 --outputdir=/store/group/phys_higgs/soffi/Globe/produced/GravitonV5/
    • git clone git@githubNOSPAMPLEASE.com:h2gglobe/h2gglobe per scaricare il codice che va in src/h2gglobe/
    • cd src/h2gglobe/; make (compilare e vedere se tutto funziona)
      • STEP DI RIDUZIONE (CMSSW_6_1_2)
        • scaricare il tag giusto: git checkout legacy_paper_reduction_8TeV_v6 da h2gglobe
        • cd Reduction
        • scrivere in setup.sh la directory dove deve andare l'output
        • scrivere in version.sh la versione dei file
        • lanciare mk_links.sh per fare il linking con ../AnalysisScripts
        • cancellare tutto cio' che riguarda hlt in AnalysisScripts/reduction/reduction_*put.dat
        • Aggiungere le variabili gp_* sempre in AnalysisScripts/reduction/reduction_*put.dat
        • creare un txt come: ~soffi/public/globe/mc_sig_HighMass.txt
        • lanciare mk_reduction_dat.sh che crea la directory: mc_sig_HighMass
        • lanciare ./submit_reduction.sh mc_sig_HighMass \*HToGG\* 5. Questo step fa' la riduzione delle ntple e le scrive su eos dove gli abbiamo detto noi di scrivere
        • creare i target del pileup per i sample generati: source create_pilupTarget_sig_HighMass.sh oppure mandar eil semplice comando: python ../Macros/pileup/pileupMerger.py --putBack /store/group/phys_higgs/soffi/Globe/analyzed/Legacy/cutbased/HighMass/mc/Summer12_RD1/GluGluToHToGG_M-124_8TeV-powheg-pythia6_Summer12_DR53X-PU_RD1_START53_V7N-v1
          • NB: questo comando funziona per adesso da 5_2_3 e non da 6_1_*, quindi vai in 5_2_3 e lancialo da lì (u.u)
      • STEP DI ANALISI (CMSSW_6_1_1 > 6_1_* && ! 6_2_*)
        • modificare le cose ad alta massa:
          • Normalization_8TeV.* in Macros/
          • Copiare AnalysisScripts /baseline/datafiles_cubased_legacy_HighMass.dat dove sta il .dat da eseguire con i type assegnati ai segnali.
          • i .dat da controllare sono in AnalysisScript /common sono: optTree.dat; photonanalaysis.dat; analysis_settings.dat; statanalysis.dat; RadionTree.dat;
          • commentare hlt_* nelle variabili di input elencate negli script in analysisScript/common/ e che sono letti da AnalysisScripts /baseline/datafiles_cubased_legacy_HighMass.dat
          • Aggiungere la funzione riscritta di fillOpTree in PhotonAnalysis /StatAnalysis.* e assicurarsi che nel main lui utilizzi quella aggiunta. (ctrl+s added e si trova)
          • Controllare: fitter.py; Normalization8TeV, LoopAll, python/buildSMHiggsSignalXSBR.py. In qst ultimo si puo' cambiare il range della massa.
        • Siccome le ntple di MC non hanno l'hlt bisogna creare due datafiles_*, uno per i dati e uno per il mc. Per ciascuno và creato anche il corrispondente common/minimal_analysis_input_* in cui specificare se caricare o no i branch di hlt. Sì per i dati e no per il mc. Questi stessi input.dat vanno indicati nel corrispondente datafiles_*.
        • Prima eseguire questo: python fitter.py -i baseline/datafiles_cutbased_legacy_HighMass_TEST_*.dat --dryRun. Se funziona bene questo comando deve creare 3 files in baseline.
        • ./mk_fitter.py -l TEST -i baseline/datafiles_cutbased_legacy_HighMass_TEST_*.dat -o scriptoutput_HighMass_25_02_2014_TEST_*/sub -n 100
        • controllare che in baseline abbia prodotto i file tmp_*, devono essere tre.
        • ./submit_fitter.py -d scriptoutput_HighMass_25_02_2014_TEST -q 8nh
        • python combiner.py -i scriptoutput_HighMass_25_02_2014_TEST/filestocombine_datafiles_cutbased_legacy_HighMass_MC.dat
      • SYSTEMATICHE
        • r9Eff -> se per EBHR9 systEBHR9 = 2.3%*perc eventi in EB tra quelli con HR9, e per EBLR9 ho systEBLR9, allora nella datacard bisogna scrivere per la cateogoria EBHR9: 1+systEBHR9/1-systEBLR9 e per EBLR9: 1-systEBHR9/1+systEBLR9
        • StatAnalysis.cc L22 sta scritto le unita di sigma con cui vengono calcolate le sistematiche. AnalyseEvent L867 fà l'analisi dell'evento per ogni sistematica e filla il tree con le variabili di quella sistematica.
      • SCRIPT DI CONTROLLO:
        • Plot Eff vs Mass -> python makeEffAcc.py /afs/cern.ch/work/s/soffi/CMSSW_6_1_1/src/h2gglobe/AnalysisScripts/scriptoutput_HighMass_02112013/CMS-HGG.root
  • COME USARE COMBINE:
    • Leggere la twiki
    • Scaricare il codice da dentro una release 5X: addpkg HiggsAnalysis /CombinedLimit V02-07-0
    • Compilare: scrav1 b
    • Combine ora e' visibile ovunque e si puo' usare in qualsiasi cartella
    • Per aggiungere una pdf nuova o una classe nuova combine:
      • Mettere il .cxx nel src/ e il .h nel interface/
      • Cambiare il path del .h all'interno del .cxx
      • Aggiungere il .h e il pragma della nuova classe in src/LinkDef.h
      • scramv1 b clean
      • scramv1 b
  • COSE UTILI DI GLOBE
    • Se si vuole fare un modello parametrico la variabile che riconosce combine e' "MH". Per la normalizzazione bisogna creare una RooHistFunc funzione di "MH" e con il nome uguale alla pdf del segnale ma che finsice con _norm. Questa RooHistFunc ti dà il signal yield in funzione della massa per 1pb. Nella datacard al posto del rate per il segnale va messa la lumi.Combine moltiplica poi in questo modo: RooProduct::n_exp_final_bincat0_proc_sig[ n_exp_bincat0_proc_sig * shapeSig_sig_cat0__norm ] = 57.2743

  • README CODICE ALTA MASSA

  • Releases:

    • 5_3_9_patch1: produzione ntple grandi
    • 6_1_2:riduzione ntple
    • 5_2_3_globe:file pileup
    • 611-New:analisi
    • 611-Analysis:w+datacards+final plots

  • Produzione ntple(5_3_9_patch1):

    • copy template_53X_cfg.py and crab_template.cfg from ~soffi/public/CodeHggHighMass/production/ (they have changes to run on flise store in dbs3)
    • From scripts: ./job_maker --MC --AOD --noskim --scheduler=remoteGlidein --storage=eos --datasetpath=/ggH_HToGG_M_150_Width_15p0_TuneZ2star_8TeV_pythia6_tauola_cff_py_GEN_RECO_PU_V1/soffi-ggH_HToGG_M_150_Width_15p0_TuneZ2star_8TeV_pythia6_tauola_cff_py_GEN_RECO_PU_V1-9c8c448cf1576c99a0c97458d3f45d47/USER --hlttag=HLT --globaltag=START53_V7C::All --events=-1 --events_per_job=1000 --outputdir=/group/phys_higgs/soffi/Globe/produced/FixedWidth/

  • Riduzione ntple(6_1_2) e pileup(5_2_3_globe):

    • create a txt file as /afs/cern.ch/work/s/soffi/CodeHggHighMass/reduction/mc_sig_HiggsM800.txt
    • copy the scripts from /afs/cern.ch/work/s/soffi/CodeHggHighMass/reduction/AnalysisScript/reduction/ with the correct names of the variables to add and so on.
    • modify mk_reduction_dat.sh with the correct name of the txt and launch ./mk_reduction_dat.sh -> it creates a directory mk_sig_HiggsM800
    • launch ./submit_reduction.sh mc_sig_HiggsM800 \*HToGG\* 5 -> this creates the output reduced ntples in the directory indicated inside the txt files
    • Create pileup files: from a directory which works launch: source create_pilupTarget_sig_HighMass.sh (copy from /afs/cern.ch/work/s/soffi/CodeHggHighMass/pileup)

    • Analysis

      • The dat files are in AnalysisScripts /baseline/. they contains the greencards to launch for the analysis. The code which make s the selection is in PhotonAnalysis /, LoopAll* and Macros/RooContainer* Macros/Normalization*
      • The scripts interesting where make changes are: optTree.dat; photonanalaysis.dat; analysis_settings.dat; statanalysis.dat; RadionTree.dat
      • ./mk_fitter.py -l TEST -i baseline/datafiles_cutbased_legacy_HighMass_TEST_*.dat -o scriptoutput_HighMass_25_02_2014_TEST_*/sub -n 100
      • Check the tmp_* files in baseline if have been created
      • ./submit_fitter.py -d scriptoutput_HighMass_25_02_2014_TEST -q 8nh
      • python combiner.py -i scriptoutput_HighMass_25_02_2014_TEST/filestocombine_datafiles_cutbased_legacy_HighMass_MC.dat -> this combines the output CMS-Hgg*.root files. Maybe you need the histograms-CMS*root files where the trees are stored. In this case you have to do hadd by hand taking the list of the files from scriptoutput*/filestocombine*dat and adding "histogram-" before CMS-Hgg int he files name

  • Make WS and Datacards

      • HighMass -HggFitter_mgg.cc: prepare ws and datacard for the stat analysis
      • HighMass -HggFitter_mgg_Bias.cc: prepare ws and datacards for the bias study
      • HighMass -HggFitter_mgg_makePlots.cc: makees some plots which are not done in 2Dplots.C
      • in script:
        • makeWorkspaces.sh: make ws for bias study
        • makeWorkspaces4Combine.sh
        • launchWSBatchTest.sh
        • launchCombineBatchTest.sh
        • makeLimitPlots.sh
        • makeLimitVsWidth.sh
        • makeTXTfor2Dplot.csh
      • 2Dplots
  • COME USARE GITHUB
    • https://github.com/->signIn
    • creare un repository:
      • in alto a destra + -> create new repository
      • mettere nome e create
      • Andare su lxplus nella cartella di cui si vuole fare questo repository e lanciar ei comandi scritti su github. -> questo crea un .Cartella.git lì dentro. Questo e' il repository. tutto quello che io aggiungo da lì dentro in poi avrà come repository questo. Ogni volta che farò add i file andranno in questo repository. Se creassi un altro repository dentro questa cartella i file lì dentro andrebbero a finire in quello. Insomma git si ferma al primo repository parente che incontra.
      • copiare nel repository il file .ignore che dice che tipo di file si devono ignorare ogni volta che si fà add. ~/soffi/public/.gitignore
    • aggiungere file: git add *C
    • controllare lo status: git status. Questo mi dice i file modificati, e quali file sono pronti per il commit e quali ancora no xkè non ho ancora fatto add/rm.
    • rimuovere file: git checkout -- file; git rm file
    • committare: git commit -m "messaggio". Questo committa le modifiche sul repository in locale. Su github e' ancora tutto diverso. Ogni commit crea un punto nela history
    • aggiungere le modifiche definitive: git push
    • vedere la history: git log --all. (git log fa vedere la history solo fino al punto in cui mi trovo)
    • spostarsi sui punti della history: git checkout numero. Il numero è quello identificativo del singolo commit e si vede qundo si fà git log --all.

  • COME RINNOVARE IL CERTIFICATO CERN E GRID

    1. Andare su cern.ch con FIREFOW e scaricar eil certificato nuovo. sarà un file .p12 che si trova nel portachiavi. Fare esporta e salvarlo sulla scrivania mettendo la password del computer per l'esportazione.
    2. Copiare ocn scp il file nella directory .globus che si trova nella home del cern. Cancellare prima il certiciato vecchio e la userkey e la usercert.
    3. openssl pkcs12 -nocerts -in cern_cert.p12 -out userkey.pem
    4. inserire la password che si vuole usare per la grid
    5. openssl pkcs12 -clcerts -nokeys -in cern_cert.p12 -out usercert.pem
    6. chmod go-rw userkey.pem
    7. Per rinnovare il certificato voms andare su: https://lcg-voms.cern.ch:8443/vo/cms/vomrs?path=/RootNode&action=execute > Member Info > Re-sign Grid and VO AUPs
  • COPIARE UN SINGOLO FILE DI UN DATASET
  • COME MONTARE UN DISCO ESTERNO SU PCCMS
    • Attaccare l'HD con l'USB al pc.
    • Accedere come ROOT
    • in /etc/fstab si trova l'indirizzo del dispositivo (mount point)
    • lanciare mount /dev/sdd1 /u3 se si vuole mettere quel particolare dispositivo in /u3.
  • COME USARE CMSSSHOW
  • wget http://cern.ch/cms-sdt/fireworks/cmsShow22.tar.gz tar xzf cmsShow22.tar.gz cd cmsShow22 ./cmsShow data.root
    • cmsShow esiste gia' dentro la release. Quello che bisogna fare e' lanciarlo su un file EDM ossia quelli che stanno du dbs.
  • COME USARE SCREEN
    • screen -S nome e mi devo ricordare il numero del pc lxplus
    • eval `scramv1 runtime -csh` -> equivalente di cmsenv
    • ctrl+a+d -> chiudo la sessione e le cose che erano aperte continuano a girare
    • screen -ls per vedere quelli che c'ho aperti.
    • exti da dentro screen se voglio ucciderlo.
  • COME INSTALLARE ASPELL:

  • ANALISI NUOVA DM
    • accedere T2: ssh -Y lsoffi@cmsrm-ui02NOSPAMPLEASE.roma1.infn.it
    • aprire file su pnfs: root -l dcap://cmsrm-se01.roma1.infn.it/[path]; path comincia con /pnfs/..
    • esempio cfg per scrivere su T2:https://github.com/CMSDIJET/DijetRootTreeMaker/blob/master/prod/crab_MC.cfg.template.ipnl

  • HOW TO START..
    • ssh -Y nome@lxplusNOSPAMPLEASE.cern.ch (oppure indirizzo T2: @cmsrm-ui02.roma1.infn.it)
    • scram project -n CMSSW536 CMSSW CMSSW_5_3_6 <---SCARICO LA RELEASE
    • cd CMSSW536/src/
    • cmsenv
    • cp /afs/cern.ch/user/s/soffi/public/main.cc . <--- COPIO IL PROGRAMMA BASE
    • cp /afs/cern.ch/user/s/soffi/public/Makefile . <--- COPIO IL MAKEFILE CHE SERVE PER COMPILARE
    • Creare un makeclass a partire dal file .root a disposizione (file.root):
      • root -l file.root
      • nomeTree->MakeClass("Analysis")
      • .q
      • Questo ha creato due file, un .C e un .h. Conviene cambiare nome al .C e trasformarlo in .cc (oppure modificare il Makefile, come preferite)
    • make <-- compila il programma e crea l'eseguibile in /tmp/Analysis
    • ./tmp/Analysis <----esegue il programma
    • Qualsiasi modifica come creare istogrammi, stampare cose, riempir eun nuovo tree va fatta nella funzione Loop() che si trova dentro Analysis.cc

  • LINK UTILI

*

Edit | Attach | Watch | Print version | History: r91 < r90 < r89 < r88 < r87 | Backlinks | Raw View | WYSIWYG | More topic actions
Topic revision: r91 - 2014-11-26 - LiviaSoffi
 
    • Cern Search Icon Cern Search
    • TWiki Search Icon TWiki Search
    • Google Search Icon Google Search

    Sandbox All webs login

This site is powered by the TWiki collaboration platform Powered by PerlCopyright &© 2008-2021 by the contributing authors. All material on this collaboration platform is the property of the contributing authors.
or Ideas, requests, problems regarding TWiki? use Discourse or Send feedback