You are on page 1of 27

USO DE REDES NEURONALES PARA

ANÁLISIS DE DATOS DEL


EXPERIMENTO E791 DEL FERMILAB
EN EL CÁLCULO DE LA
MASA INVARIANTE DEL MESÓN D0

Ticse Torres Royer Edson.

Asesor: Carlos Javier Solano Salinas.

Universidad Nacional de Ingeniería.


16 de diciembre de 2010.
I. Datos.
II. Redes Neuronales.
III. Resultados.
IV. Conclusiones.
DATOS
 E791 es un experimento de partículas de encanto
realizado en el Fermilab en 1992. La muestra de
partículas con encanto es producido a través de un haz
piones a 500GeV/c en un blanco fijo.
 Fueron almacenados alrededor de 20 billones de eventos
en un periodo de ejecución de 6 meses.
 Los datos son almacenados en las clases Ttree y TNuple
de ROOT, optimizado para reducir disco y mejorar la
velocidad de acceso.
 Los datos que usamos son del tipo de decaimiento
hadrónico
 Tenemos un total de 846 687 eventos reales y

63 730 eventos Montecarlo.


MASA INVARIANTE
Si tenemos una partícula que decae en partículas hijas, el
cuadrimomento esta dado por

En el SCM, P=0,

Sustituyendo en la ecuación, tenemos

Esta cantidad es llamada masa invariante, donde


es calculado de la suma de momento de las partículas
hijas.
Entonces la masa de una partícula que decae en n
partículas hijas esta dado por:
 Una señal viene asociado con
un ruido
 Usualmente se realizan cortes
en las variables cinemáticas
para reducir el ruido.
 Al final se debe mejorar la
relación
VARIABLES CINEMÁTICAS
En total tenemos 33 variables por evento de los cuales solo se
eligieron 8 para el análisis.

SDZ

PTB
REDES NEURONALES

 Es un modélo matemático para solucionar problemas


con grandes cantidades de datos. Agrupa gandes
cantidades de neuronas conectadas para realizar
compocisiones de funciones no lineales.
 Resuelve tareas como clasificacion, discriminacion,
estimacion.
 2 tipos de redes: Feed forward Neural Networks, Recurrent
Neural Networks
 Normalmente en física de altas
energías los cortes son usados
para seleccionar eventos de
interés. Una forma para hacer tal
corte es construido a partir de una
combinación lineal de cortes.
 La función final tiene valor 1 en la
región conteniendo los eventos b
y valor cero en otro caso.
 Las variables de entrada X, Y son
multiplicadas por los coeficientes a1, b1,
etc. La suma ocurre en las entradas de
cada unidad las salidas son también
multiplicadas por coeficientes antes de
la sumatoria final
 Las unidades son llamadas neuronas,
los coeficientes a1, b1, etc, forman la
matriz de pesos de la red neuronal, cada
neurona realiza la función
donde t es la salida de una neurona, w(i,j)
es el peso de la neurona i a la neurona j
y σ es la función de transferencia.
EVENTOS MUESTRA
 Se hicieron cortes de pre selección en los momentos
según:

 Se realizaron para 63 730 eventos Montecarlo y 54 488


eventos reales, cada evento con 8 variables cinemáticas:
SDZ, dip, kid, sigma, tau, SVZ, iermp2, costheta.
 Definimos como eventos “buenos” datos Montecarlo,
ajustamos a una gaussiana y tomamos los eventos que se
encuentran a ±σ del pico gaussiano y le asignamos el
valor de la función de ajuste normalizada( ),
que varia de 0.6 hasta1.
 Para los datos “malos” usamos los datos que están fuera
de ±3.5σ del pico gaussiano desde eventos reales,
asignándole valores de 0 a 0.6.
 Nuestra red es la de tipo feed fordward multicapa, con
una capa de entrada donde la cantidad de sus nodos es
igual al numero de parámetros de cada evento, una capa
oculta con 8 nodos para construir el clasificador no lineal
y una capa de salida con solo una neuronal del tipo
sigmoidea.
CODIGO
RESULTADOS.

 Salida de la red
neuronal (nn).

 Señal/background en
función de diferentes
valores de nn
CONCLUSIONES.

 Se determino los cortes que permiten estudiar mejor las


propiedades del mesón D0, esto es: los limites inferior y
superior para la región señal y background están
localizadas en ±3.5σ desde el pico gaussiano y eventos
con un nn > 0.4, donde nn es valor de salida de la red
neuronal que define que tan bien se aproxima los datos
analizados con los ideales que fue entrenada.
 El uso de las redes neuronales necesita de una buena
comprensión del problema y el pre procesamiento tiene
un gran impacto en la performance de la red neuronal,
por ejemplo, es necesario que la variables de entrada
sean dimensionalmente separables.

You might also like