11 marzo, 2020
11:30

Título: ¿Qué hay detrás del deep learning (desde un punto de vista computacional)?

Ponente: Enrique Quintana, Universitat Politècnica de València.

Organizador: Juan Aparicio

Fecha:  Miércoles 11 de marzo a las 11:30 horas.

Lugar:  Aulas 0.1 y 0.2 del Instituto Universitario de Investigación CIO, Edificio Torretamarit, Universidad Miguel Hernández (Campus de Elche)

Resumen: De unos años a esta parte, la tecnología de moda es el «Deep Learning» (DL), es decir, el aprendizaje automático mediante redes neuronales profundas. Este estallido tecnológico es la evolución natural asociada a la era «Big Data»: una vez disponemos de cantidades ingentes de datos, necesitamos los mecanismos adecuados para procesarlos en un tiempo razonable. Aquí es donde las redes neuronales profundas están proporcionando resultados muy relevantes en cuanto a capacidad analítica a costes razonables. En consecuencia, las redes neuronales profundas han dejado de ser una tecnología aplicada mayormente en el reconocimiento de imagen y la traducción de textos, para pasar a utilizarse, por ejemplo, en un número creciente de los servicios proporcionados por compañías como FaceBook o Google, así como en aplicaciones científicas como la predicción del clima, en simulación de colisiones de cuerpos celestes, y en un largo etcétera.

Esta charla tiene un carácter principalmente divulgativo, cuyo propósito principal es relevar qué se esconde detrás de las tecnología DL desde un punto de vista informático (pero solo la punta del iceberg ;-). La charla estará orientada, en una primera parte, a los siguientes aspectos: – ¿A qué viene tanto ruido sobre las redes neuronales (justo ahora)? – pero… ¿qué es realmente una red neuronal? A aquellos de vosotros interesados en esta primera parte, os recomiendo los siguientes vídeos:

https://www.youtube.com/watch?v=aircAruvnKk&t=227s

https://www.youtube.com/watch?v=IHZwWFHWa-w&t=1050s

https://www.youtube.com/watch?v=Ilg3gGewQ5U&t=733s

https://www.youtube.com/watch?v=tIeHLnjs5U8

En una segunda parte, la charla colocará las redes neuronales en el contexto de las arquitecturas de altas prestaciones. Para ello, se comentarán las diferentes posibilidades de paralelización de una red neuronal en clusters; se discutirán brevemente las técnicas de compresión y su impacto (precisamente) sobre la paralelización de una red neuronal; y, por último, se ofrecerá una pincelada de algunas arquitecturas para DL de Google, IBM, Intel (…y NVIDIA).