Physics analysis "Leptoquark search"

レプトクォークはこれまでに様々な模型で予言されてきた。ここでは、スカラーレプトクォーク探索についてのイントロをする(ベクターLQはさらに扱うべきパラメータが増えてしまい、モデルspecificな解析になってしまうので、本解析では扱わない)。

BRWモデルをベンチマークモデルとし、LQは同じ世代のフェルミオンとのみ結合すると仮定している。現在のリミットは周状態に第1,2世代と結合するレプトクォークに対しては下限値1.25TeV, 第3世代と結合するものに関しては800GeVまでexcludeされている。反応断面積の大きさの観点から、レプトクォーク対生成を扱っている。

便利なURL

https://indico.cern.ch/event/666725/

これまでの exclusion limit

ATLAS

Short Title Physics motivation Info Exclusion limits
Searches for 3rd generation Leptoquarks 第3世代にcoupleするLeptoquark探索 21-Feb-19,13TeV, 36.1/fb 800 GeV <mLQ
Scalar leptoquarks pair search and differential cross-section measurements in dilepton or dimuon + jet events 第1,2世代にcoupleするLeptoquark探索 01-Feb-19,13TeV,36.1/fb 1.25 TeV <mLQ
Search for the pair production of leptoquarks decaying to electron plus jet or muon plus jet   19-May-16,13TeV, 4/fb  
Search for the pair production of leptoquarks   19-Aug-15,8TeV,20.3/fb  
Search for 3rs generation leptoquarks 7 TeV 2011   03-Mar-13,7TeV,4.7/fb  

  • なぜ、first, second-generation LQの方がリミットが感度良い?

使っているトリガー

各データtaking periodで最も閾値の低いシングルレプトントリガーを使っている。

2015 e HLT_e24_lhmedium_iloose_L1EM20VH または、HLT_e60_lhmedium または、HLT_e120_lhloose
  μ HLT_mu24_imedium または、HLT_mu50
2016 A-D3 e HLT_e24_lhmedium_ivarloose または、HLT_e60_lhmedium_nod0 または、 HLT_e140_lhloose_nod0
  ミューオン HLT_mu24_imedium または、 HLT_mu50
2016 D4-end of 2016 e HLT_e26_lhtight_ivarloose3 または、 HLT_e60_lhmedium_nod0 または、 HLT_e140_lhloose_nod0
  ミューオン HLT_mu26_ivarmedium または、HLT_mu50

Electron trigger

E/gammaトリガーのinputはカロリメーターで、L1でRoIを定義、HLTでそれをseedにして計算する。Photonはカロリメーターにのみ信号を残すが、Electronは内部飛跡検出器にも信号を残すのでHLTではCalorimeterとIDの情報も使う。E/gamma HLTでは大きく分けてFast algorithmとPrecision algorithmの2段階用意されている。

電子トリガーでは、(Fast alg.)まずカロリメーターのRoIをインプットにNeural networkベースの選別が走る。そして、クラスターに付随するトラックを選ぶ。(Precision alg.)次にLikelihood selectionが走り、最終的な結果になる。なので、HLT段階でLikelihood(LH) ベースのMVAが走り、Loose, medium, tightのworking pointが指定されている(lhvloose, lhloose, lhmedium, lhtightと呼ばれる)。

さらに、conversion由来やハドロンジェット由来の電子(ほしくない電子)を落とすために、isolation カットもかけられる。電子の方向にelectron由来でないトラックがどれだけの比率であるか、を測る(ptvarcone20/pt)。

Isolated muon

  • isolated muon:muonトラックの周りの(事前に定義された大きさの)コーン内の運動量スカラー和を求め、ある閾値以下であればisolated muonとして判定する。
    • 可能な限り低い運動量閾値でトリガーをかけたいが、そうなるとゴミトラックによるトリガー発行を許してしまう。そこでisolation cutをかける(HLTの最終段階、EF後でオプション的に判定する)
    • よりミューオンっぽい(=周りにトラックがないクリーンな環境)であることを要求するもの。
    • しかし、コーンを不用意に大きくしてしまうと、パイルアップトラックを拾ってしまい、本当はミューオンなのにisolation cutで落ちるという現象も見られた(2017)→コーンサイズを小さくして高パイルアップ環境に対処
  • https://twiki.cern.ch/twiki/bin/view/Sandbox/MTSGRecommendationR21
  • https://indico.cern.ch/event/686555/contributions/2976692/attachments/1680213/2699126/ICHEP2018_ATLAS_Muon_Trigger.pdf

イベントセレクション

lep had

シグナルイベントトポロジーは、1レプトン + 2 bジェット + 1タウジェット + missing ET。

ジェットに関しては少なくとも2本を要求していて、シグナルイベントは1もしくは2 btagのあるイベント。0 btagならControl Regionに使って、3-btag以上ならそのイベントは捨てる。

lep exact 1個の電子(tight ID = ????%) or 1個のミューオン (medium ID = ???%)
運動量はトリガー閾値+1GeVの運動量以上を要求
had exact 1個のハドロニックタウ(pT>25 GeV, abs(η)<2.3)
b-jet 少なくとも2つのセントラルジェットを要求(Leading pt>60 GeV 、SubLeading pt>20GeV)
その他 イベント中に電子/ミューオンは他にあってはならない
ハドロニックタウと電子/ミューオンはOpposite Sign
Missing Mass Calculatorから計算したダイタウ系の不変質量は0GeV以上

b-jet

bクォーク由来のジェットは、多変量解析を用いて判定される。

truth taggin for b-jets

signal, ttbar, W/Z+jetsは、実際にbクォークが終状態に放出されるので、1or2-b tag 領域のControl regionも統計数が確保される。しかし、実際にはb-jetを出さない背景事象を見積もる際には、"truth tagging"と呼ばれる手法を用いる。

インプットのjetに対して、ランダムなMVAスコアが計算され、そのジェットを「Loose b-jet」として扱うことができるようになる。

Higgs + Higgs → bb + ττ

Trigger, Event selection

diHiggs→bbττのチャンネルと主な背景事象が同じなので、まずは同じ解析フレームワークを使わせてもらっている。タウの崩壊によって、(1)lep had (2)had had に分けれられる。特にb-tagの個数でイベントカットはされないが、BDTのインプットとするデータはexact 2 b-tag の事象のみである。0 or 1 b-tag 事象はControl region用の統計として用いられる。

(1)lep had

終状態に、lτ+bbが出てくる。まずイベント自体がSingle Lepton Trigger (SLT)で取得されたか、Lepton-plus-Tau Trigger (LTT)で取得されたかを判定する。SLTであれば、電子またはミューオンに対してIDとIsoの条件をかけて、LTTイベントであれば、条件を満たす電子orミューオンとタウ粒子を要求する。これがトリガーレベルの要求で、ここからさらにイベントセレクションを行う。

(2)had had

終状態に、ττ+bbが出てくる。イベントがSingle Tau Trigger (STT)かDi-Tau Trigger (DTT)で取得されたものかを識別する。各トリガーのタウに対して決められた条件をかけ、取得できたイベントに対して、セレクションをかける。

Background esitimation

主な背景事象は、2種類ある。

  • ひとつは、real tauを伴う(ttbar)と(Z/γ*+heavy-flavour jets)であり、MCベースで見積もることが可能。
  • もうひとつは、ジェットがタウにfakeしてしまうfake tau eventsであり、Data-driven のfake factor method を用いる必要がある。
見積もった背景事象分布は、Section 3のイベントセレクション後の0 b-tag, 1 b-tag, 2 b-tag 領域に分けられるControl Regionでデータと比較する(良い一致が得られている)。

Introduction to the leptoquark model

物質を構成する粒子は電子に代表されるレプトンと陽子・中性子を構成するクォークに分類される。それらは3世代の構造を持つという共通点はあるものの、電荷が整数か分数か、といった大きな違いもあり、現在の標準模型の中では明確に区別されている。しかし、この様に区別されている理由もないために、BSMではクォークとレプトンとで構成されるレプトクォークと呼ばれる粒子が予言されている。クォークと同じカラー荷3重項であり、分数電荷を持つ。

Grand Unified Theory Technicolor models Compositeness scenarios R-parity violationg supersymmetric models BSMで予言されていたレプトクォークであるが、近年のB物理のアノーマリーをからさらに脚光を浴びている。

Tools:MIA

diHiggs group が使用しているMIAパッケージ の Setup用ソフトウェア

  • MIA https://gitlab.cern.ch/MIA/MIASetup/blob/master/README.md
  • 使用するパッケージを指定するファイル:MIASetup/bootstrap/packages.txt
  • サンプル番号をしてしている:MIA/Root/MIARecSampleReader.cxx
  • had had の最新サンプル:/eos/atlas/atlascerngroupdisk/phys-higgs/HSG6/HH/bbtautau/CrazyChameleon/data17_MC16D/ttbar/
  • MIAを走らせる時の設定ファイル:MIA/config/hhbbtautau_hadhad.config
  • メッシーさんが走らせるときに使用しているコマンド:/afs/cern.ch/work/t/tomoya/public/final_command.sh
  • MIAを走らせると最終的にFInalPlots***というファイル群ができ、これらをhaddでマージする必要がある→次のTMVAへのインプットとなる
  • FinalPlots**からプロットを作成するには、MIA/python/steer2TauHadHad.pyを使用する
  • lephad 最新情報スライド:https://indico.cern.ch/event/796592/contributions/3317922/attachments/1795561/2927032/MC16d_2017data.pdf
  • https://its.cern.ch/jira/browse/ATLMCPROD-6343
  • https://its.cern.ch/jira/browse/ATLMCPROD-6312

MIA使い方

git clone等から初めなければならない場合はREADME.md参照のこと。

コンパイルが終わっている場合、ログイン毎に、cd build/; setupATLAS; asetup --restore; source x86_64-slc6-gcc62-opt/setup.sh; でセットアップが終了する。

source/ MIASetupのREADMEに従って、各種パッケージを取得する(それ用のスクリプトが用意されている)。このディレクトリにMIASetupを始めMIAを動かすのに必要なパッケージが置かれることになる。

基本的にはMIA/util/FinalHHbbtautau*.cxxが実行ファイルとしてコンパイルされているので、これらを使用してROOTファイルを食わせる。もちろんコマンドライン引数として、各種オプションを渡すことも可能である。コードを読むときに気をつけておいてほしいのが、MIA/ConfigSvc.cxxのインスタンスがシングルトンであるということである。なので、util/を見たときに「あれこの引数はどこで処理されているのか?」と不安になるかもしれないが、ご安心を。一度初期化(コンストラクターを呼び出せば)、あとはそれを他のコードから参照すればいい。

run/

セットアップ後に、run ディレクトリに移動。

FinalHHbbtautauHH -p 2 -d で指定したファイル群を解析して、FinalPlots*.rootを出力する(これはBDTへのインプット?) python_plots 作成したFinalPlots.rootからプロットを作成する。

セットアップ(初回のみ):

PlottingToolt とTransformToolを持ってくる ( https://gitlab.cern.ch/CxAODFramework/PlottingTool と、 https://gitlab.cern.ch/CxAODFramework/TransformTool) 。

ln -s MIA . とシンボリックリンクを貼る(これで準備完了)。 走らせ方:

python MIA/python/plot2TauHadHad.py -d /path/to/FinalPlots place/ 成功すればPlotsディレクトリが生成され、その下にプロットがいろいろ出力される サンプル サンプルは基本的に /eos/atlas/atlascerngroupdisk/phys-higgs/HSG6/HH/bbtautau/ に置いてある

had had の最新サンプル:/eos/atlas/atlascerngroupdisk/phys-higgs/HSG6/HH/bbtautau/CrazyChameleon/data17_MC16D/ttbar/ lep had の最新サンプル:/eos/atlas/atlascerngroupdisk/phys-higgs/HSG6/HH/bbtautau/BlueTuesday

よく使うTwiki

Background estimation

解析結果を評価するには、SM由来の背景事象を正しく見積もる必要があり、手法には大きく分けて二通りある。一つはMCベースで見積もることが可能な事象の場合で、dataとMCの比較を行ってnormalization factorを見積もって、SRにおける背景事象を見積もる。もう一つは、MCでは正しく見積もることのできない事象(ジェットがleptonにfakeしてしまうような事象)では、Data-drivenな見積もり手法(=Matrix method, Fake factor method)を採らなければならない。ここでは、Matrix methodとFake factor method についてメモする。

Matrix method

例として、DY過程で終状態に電子2つを要求する(qq→ee)物理解析を考える。Loose IDを通過する電子の中に、さらにTight IDを通過する電子に分類できる。また、「電子」と呼んでいるが、実際に本物の電子を正しく再構成できた場合(Real electron)と、ジェットを誤って電子と再構成してしまった場合(Fake electron)が考えられる。つまり、解析の終状態に現れる「電子」の組み合わせとしてRR, RF, FR, FFが考えられる(1つ目がleading, 2つ目がsub-leading electron)。我々は観測できないが、truth levelの情報として各カテゴリーのイベント数、N_{RR}(両方共リアル電子である事象数), N_{RF}, N_{FR}(片方のみリアル電子である事象数), N_{FF}(両方共フェイク電子である事象数)が考えられる。また、実際の観測量は電子に対して「Looseを通過してTightを通過したか」「Looseのみ通過したか」の二通りあり、これらの各カテゴリーのイベント数もN_{TT}, N_{TL}, N_{LT}, N_{LL}が考えられる。

ここで、real efficiency と fake rate と呼ばれる量を定義する。Real efficiency (r)とは、Loose 領域のリアル電子の内、Tight領域を通過したリアル電子の割合を表し、Fake rate(f)とは、Loose 領域のフェイク電子のうち、Tight領域を通過したフェイク電子の割合のことを言う。これらの割合を用いると、例えばN_{TT}事象数は次のように表すことができる(ベン図を書いてみたら理解できるはず)。

N_{TT} = r1r2*N_{RR} + r1f2*N_{RF} + f1r2*N_{FR} + f1f2*N_{FF}

つまりここから分かるように、N_{TT,TL,LT,LL}に対してある係数をかければN_{RR,RF,FR,FF}と行列形式で表現することができる(ゆえにMatrix method)。最終的に知りたい事象数とは、例えばSignal Regionとして2つのTight電子を要求しているのであれば、N_{TT}^{fake}事象数である。これは、先程のフェイク電子を含む項の和がこのイベント数に等しい。N_{TT}^{fake} = r1f2*N_{RF} + f1r2*N_{FR} + f1f2*N_{FF}。しかし、右辺の事象数はtruth情報であって我々は知るすべがない。そこで、先程立てた行列の逆行列を考えることで、N_{RF} = ...、N_{FR}=..., N_{FF}=...を観測量で表すことができるので、SRに入り込んでくるfake background数を見積もることができるのである。

ただここで問題なのが、Real efficiencyとfake rateをどのように見積もるか?である。

Fake rate

ex. ジェット(=偽物の電子)が電子として再構成されたイベント数のうち、解析で要求しているID条件を通過してしまう割合。

純粋に考えるなら、fake rateを見積もるためには、QCD-jetを用意してさらにそこから電子として誤って再構成されたジェットを持ってきて、Loose, TightのIDを通過したかどうかを数え上げる必要がある。misidentificationはデータでしか見積もれないのだが、データを使っている以上「これはQCD-jetだ」と100%の精度で言うことはできない(それが出来るならはじめからfake electronを見抜くことができる)。

つまり、いかにして QCD-jet enriched なデータサンプルを作成するかが鍵となる。そこで一つのベーシックな手法は、シングルジェットトリガーを使用することである。LHCの陽子衝突では基本的に不必要なジェット事象が多数発生しているので、それらは普段は取得されていないが、ジェットenrichedなサンプルを作成するためのトリガーメニューが用意されているのでそれを使う。

そうして取得したデータから、antikT R=0.4で一般的なジェットの再構成を行う。そして、ΔR<0.1の条件でマッチする再構成電子を探しに行く。これでマッチすればこれはfake electronとして数勘定に含めることができる。どうやら99%の電子はジェットとマッチするのだが、その中でも本物の電子っぽい事象が残ってしまうのでそれらを落とすためにカットをかける。こうして、最終的にfake electron を多く含んだサンプルができ、fake rateを見積もることが可能となる。

Fake factor method

https://hep.uchicago.edu/~johnda/thesis/FakeFactorMethod.pdf

http://www.hep.lu.se/courses/fyst17/FYST17_Lecture9.pdf

https://warwick.ac.uk/fac/sci/physics/research/epp/events/seminars/becker.pdf

https://kth.diva-portal.org/smash/get/diva2:1038707/FULLTEXT01.pdf

https://reece.scipp.ucsc.edu/share/talks/2015/2015-04-17-RReece-fake-factor-methods.pdf

https://cds.cern.ch/record/1645238/files/CERN-THESIS-2013-258.pdf?subformat=pdfa

LHCにおいて大量にQCDイベントが発生するため、終状態にレプトンを要求すると Background rejectoinは10^{-5}ほどにもなる。しかし、稀にQCD事象がレプトンである様に見える、fake lepton 事象も発生する(確率10^{-4})。稀な事象でありながら、大量のQCDイベントが分母となるため、ある程度のbackfroundとなってくる。このfake leptons事象は、検出器の応答性能が原因であったりするために、MCでの正確な見積もりが不可能である。そのため、Fake factor method と呼ばれる、data-drivenな手法を用いてfake lepton background を見積もる必要がある。

fake先のレプトン 主なfake lepton sources
electron charged hadrons, photon conversions, semi-leptonic heavy-flavour decays
muon semi-leptonic heavy-flavour decays
tau jets
Fake factor methodを理解するために必要な知識は Control region と Signal region と呼ばれる概念である。Signal region は用いるデータを事前に定めたselectionを通過したイベントのことであり(selection を通過する事象のphase space)、Control region とは背景事象を多く含む様に選別されたイベントのことである。

メモ

  • このchannelのウリ
  • この系はboostしているかどうか(boost topology)
  • 使っているトリガー

-- KosukeTakeda - 2019-02-28

Edit | Attach | Watch | Print version | History: r10 < r9 < r8 < r7 < r6 | Backlinks | Raw View | WYSIWYG | More topic actions
Topic revision: r10 - 2019-04-08 - KosukeTakeda
 
    • Cern Search Icon Cern Search
    • TWiki Search Icon TWiki Search
    • Google Search Icon Google Search

    Main All webs login

This site is powered by the TWiki collaboration platform Powered by PerlCopyright & 2008-2019 by the contributing authors. All material on this collaboration platform is the property of the contributing authors.
Ideas, requests, problems regarding TWiki? Send feedback