Logo Computerworld University

El lenguaje de la tecnología

Escudo Computerworld University

La especialización en Ciencia de Datos es el reto universitario del siglo XXI

La Escuela Técnica Superior de Ingenieros de Telecomunicación de la Universidad Politécnica de Madrid instruirá a los futuros profesionales en Data Science para cubrir su creciente demanda en el mercado laboral.

cientifico-datos-perfil

Según destaca el artículo Big Data: 20 Mind-Boggling Facts Everyone Must Read de la revista Forbes, la cantidad de datos generados en los dos últimos años supera a la previamente generada en toda la historia de la humanidad, y se estima que en 2020 se generará 1.7 megabytes de información nueva por segundo y por persona en el planeta. Sin embargo, actualmente sólo se analiza el 0,5% de todos los datos generados.

Gestionar y extraer conocimiento de estas grandes cantidades de datos, popularizado bajo el término Big Data, ya no es una moda sino que, como analiza un reciente estudio de Economist Intelligence Unit, se ha convertido en un activo imprescindible para garantizar el éxito de las decisiones estratégicas y de negocio de las empresas en todos los sectores económicos.

A pesar de ello, son muchas las dificultades que se encuentran las empresas para afrontar este reto de los datos, tanto por no contar con infraestructuras para la captura, almacenamiento y procesado de datos, como por la dificultad para incorporar especialistas capaces de extraer conocimiento y valor de los mismos. Dada la gran diversidad de datos estructurados o no estructurados a analizar la formación de estos Científicos de los Datos (Data Scientists) es altamente multidisciplinar, y numerosos informes indican que estamos ante una de las profesiones más demandadas pero a la vez más difícil de encontrar.

Sólo un 5% de los datos actuales están estructurados (hojas de cálculo, bases de datos, etc.) pero el gran potencial del Big Data es extraer conocimiento de datos no estructurados como la gran cantidad de señales generadas por el cada vez mayor número de sensores asociados a nuestras actividades diarias (smartphones, smartwatches, …), al funcionamiento de máquinas o a un futuro universo de objetos interconectados, lo que hoy se denomina Internet de las Cosas (Internet of Things).

Pensemos, por ejemplo, en el potencial que para la medicina representa el análisis de imágenes médicas y la monitorización continuada de señales biomédicas para el seguimiento de enfermedades neurodegenerativas, o simplemente para conocer nuestro estado de salud o el nivel de rendimiento cuando practicamos deportes. O en aplicaciones más lúdicas, como las que nos facilitan la búsqueda de fotografías y vídeos que almacenamos en la nube o nos recomiendan canciones y películas.

Los sistemas que nos permiten hablar con nuestros dispositivos, como hacer búsquedas por voz -y que en un futuro nos permitirán interactuar con nuestro pensamiento a través de las ondas cerebrales (Brain-Computer Interaction)- como ya se está experimentando para el control de brazos robóticos. Sistemas que mejorarán nuestra calidad de vida en las ciudades haciéndolas más inteligentes en la gestión tráfico y medios de transporte, menos contaminantes y más seguras (SmartCities), y todo a partir del procesado continuo de sensores medioambientales, señales de telefonía móvil, comunicaciones inalámbricas, cámaras de tráfico, etc. En un futuro cercano habrá sensores que monitoricen el consumo eléctrico y armonicen la demanda con la generación en fuentes combinadas de energía (SmartGrid) y sensores que sobre zonas rurales, y apoyadas en nuevas tecnologías (como el uso de drones), proporcionen información que nos permita alcanzar nuevas formas de entender y combatir los efectos del cambio climático y mejorar el aprovechamiento de recursos en las zonas más deprimidas de nuestro planeta. Estos son sólo algunos ejemplos del creciente número de aplicaciones que son y serán posibles gracias al avance en técnicas de extracción de conocimiento sobre grandes volúmenes de señales de origen y naturaleza diversa.

 

La ETSIT-UPM en la vanguardia de Data Scientists

Pero analizar y extraer conocimiento combinando tratamiento de señales (Signal Processing) y técnicas de aprendizaje automático (Machine Learning) es una actividad que llevan desempeñando desde hace más de 30 años empresas y centros de investigación de todo el mundo. Este es el caso del Departamento de Sistemas, Señales y Radiocomunicaciones (SSR) de la ETSIT-UPM en el desarrollo de sistemas de reconocimiento de habla.

Los expertos señalan que es el momento de plantearse nuevos retos asociados a un escenario Big Data caracterizado por un altísimo incremento en los volúmenes de datos y señales, su variedad y heterogeneidad y la velocidad con que se generan. En este escenario es donde surgirán nuevas revoluciones tecnológicas como la que representa la aplicación de técnicas  de Machine Learning basadas en Redes Neuronales Profundas (Deep Learning): la disponibilidad de grandes volúmenes de datos junto a las altas capacidades de procesado de que disponemos actualmente han hecho que Deep Learning no sólo haya batido ya a sistemas consolidados como los de reconocimiento de habla, o de imágenes sino que hoy parece que no hay ningún campo de aplicación que escape a su potencia.

La ETSIT-UPM es consciente de la importancia de este área de conocimiento con tan alto impacto social, y también lo es de la carencia de perfiles profesionales que requiere actualmente el mercado laboral. Están arrancando nuevas iniciativas globales de formación como las del prestigioso Instituto de Ingenieros Eléctricos y Electrónicos(IEEE), y a éstas se ha sumado la del Dpto. SSR de la ETSIT-UPM que ha diseñado y acaba de lanzar un programa de formación especializado en Signal Processing and Machine Learning for Big Data en su Master MSTC, pionero en este campo en la universidad española.



TE PUEDE INTERESAR...

Últimas Noticias

liderazgo Liderazgo & Gestión TI


Registro:

Eventos: