Mapa del sitio, selector de idioma, buscador y redes sociales
Facultades y centros
Otros centros
Servicios y unidades administrativas
Mapa del sitio
Sede Electrónica, correo y UACloud
Secciones principales
Fecha: 25 de mayo a las 11.30am Lugar: Salón de Actos de la Politecnica I Ponente: Mona Schirmer
Las redes neuronales recurrentes (RNN) son un método popular para modelar datos secuenciales. Su mecanismo basado en puertas permite ponderar la historia previa codificada en un estado oculto junto con la nueva información de las observaciones entrantes. En muchas aplicaciones, como las historias clínicas, los tiempos de las observaciones son irregulares y conllevan información importante. Sin embargo, las LSTM y las GRU asumen intervalos de tiempo constantes entre esas observaciones. Para hacer frente a este reto, proponemos las unidades recurrentes continuas (CRUs), una arquitectura neuronal que puede manejar de forma natural los intervalos de tiempo irregulares entre las observaciones. El mecanismo de activación de la CRU emplea la formulación continua de un filtro de Kalman y alterna entre (1) la propagación continua del estado latente según una ecuación diferencial estocástica (SDE) lineal y (2) las actualizaciones del estado latente cada vez que llega una nueva observación. En un estudio empírico, demostramos que la CRU puede interpolar mejor las series temporales irregulares que los modelos basados en ecuaciones diferenciales ordinarias neuronales (ODE neuronales). También demostramos que nuestro modelo puede inferir dinámicas a partir de imágenes y, además, que la ganancia de Kalman selecciona los candidatos para las actualizaciones de estado valiosas a partir de observaciones ruidosas.
Esta es la opinión de los usuarios, no de la EPS.
No está permitido verter comentarios contrarios a las leyes españolas o injuriantes.
Reservado el derecho a eliminar los comentarios que consideremos fuera de tema.
Los comentarios se ordenaran de los más recientes a los más antiguos.