Grandes Empresas

Claves para incorporar el talento Big Data en una compañía

Big Data es el concepto de moda. Las empresas, independientemente de su área de actuación, están invirtiendo en tecnología para conseguir que los datos les digan cómo hacer sus negocios. Algo que, evidentemente, conlleva que el mercado de trabajo para los expertos en tecnología de datos y con experiencia en esta ciencia crezca a un ritmo exponencial.

Una de las profesiones más buscadas en estos momentos es el de data scientists. Tanto que Harvard Business Review se refirió a esta profesión como el trabajo más sexy del siglo XXI.

Las funciones para poder trabajar en ciencia y tecnología de datos exigen un alto grado de experiencia especializada. Si a ello sumamos una oferta limitada de estos profesionales altamente buscados, el cóctel parece explosivo. Sí, es cierto que cada vez salen más profesionales con las aptitudes necesarias, pero la demanda crece a un ritmo aún más rápido.

McKinsey Global Institute ha publicado un estudio que indica que, solo en 2018, Estados Unidos podría enfrentarse a una escasez de entre 140.000 y 190.000 personas con profundas habilidades analíticas. También necesitará 1,5 millones de responsables y analistas con los conocimientos para usar el análisis de Big Data para tomar decisiones efectivas. Dicho de otra manera, esta estimación sugiere que la demanda de talento analítico excederá la oferta en un 50-60%.

ESPAÑA TAMBIÉN ES PAÍS PARA BIG DATA

En España, uno de los mayores retos en este terreno es contar con los profesionales adecuados para procesar, filtrar y extraer valor de todos estos datos. No en vano, las ofertas de empleo en el sector del Big Data aumentaron un 92% en 2015. Según el Observatorio de Empleo de Big Data y, en los seis primeros meses de 2016, la demanda de científicos de datos creció un 45% en Europa. En países como Portugal, este porcentaje aumentó un espectacular 79% en esta primera mitad de 2016.

Mientas, y según el informe Generación de Talento Big Data en España de la Fundación Cotec, el talento Big Data debe ser incorporado en todos los niveles de una compañía: desde los puestos técnicos hasta los altos mandos. No en vano, son estos últimos los que deben impulsar internamente el cambio hacia el nuevo paradigma tecnológico.

Los nuevos profesionales Big Data deben saber transformar datos en beneficio económico, identificar qué valor aportan los datos a la empresa y a la sociedad, y automatizarlos en los procesos de la empresa pública y privada. Estas habilidades raramente se ven en una sola persona, por lo que uno de los factores más importantes será la creación de equipos multidisciplinarios. “No se trata solo crear de talento, sino de saber combinarlo”, sentencia este informe.

Además, este estudio señala que el problema es aún más grave cuando el objetivo es atraer mandos intermedios para que puedan impulsar la generación de capacidades Big Data desde dentro. “Incluso aquellos profesionales que se están formando no cuentan con el nivel de experiencia suficiente para asumir esa responsabilidad”, se puede leer.

Por si fuera poco, el estudio AnalyticsTrends 2017 realizado por Delloite alude como posible causa de los problemas de adaptación de los negocios tradicionales a las TI a las dificultades que tienen el 40% de las compañías a la hora de encontrar personal especializado en el análisis masivo de datos.

En España, el Estudio de Perfiles Profesionales y Competencias más demandados en la Empresa elaborado por la Asociación Española de Recursos Humanos en colaboración con EAE Business School, la Patronal CEOE y Human Age Instituto de ManopowerGroup, también ha analizado y estimado cuáles son y serán los profesionales más demandados en los próximos años. Efectivamente, los expertos en Big Data, técnicos en I+D e ingenieros informáticos son algunos de estos perfiles.

CÓMO SE LLEGA A SER UN EXPERTO EN BIG DATA

Para adentrarnos en esta profesión, hemos tenido la oportunidad de hablar con dos expertos en Big Data. Su bagaje profesional y académico es completamente distinto. Elena Tomás Herruzo estudió Física en la Universidad Complutense de Madrid y un Doctorado en Física de la Materia Condensada, tras lo que pasó tres años como investigadora postdoctoral en el CSIC, hasta que dio un giro a su carrera profesional incorporándose a BBVA Data & Analytics.

“Este cambio no fue fácil, ya que a la hora de dar el paso del mundo académico a la empresa, la mayoría de éstas obvian la parte en la que has sido investigador y has demostrado capacidad de análisis y de llevar a cabo un trabajo independiente e innovador. Sin embargo, la cantidad de cursos y ofertas de formación que existen a día de hoy en Internet, así como la posibilidad que tuve de colaborar con emprendedores tecnológicos me facilitó el cambio”, explica.

En BBVA Data & Analytics han liderado un máster para trabajadores de diversos departamentos, cuyo objetivo es convertir a todos los empleados en analistas capaces de tomar todas las decisiones de su día a día basándose en datos y no en intuiciones

Jesús María Hernández Rivas es médico hematólogo del Hospital de Salamanca y profesor de Hematología en la Universidad de Salamanca. Es el líder del proyecto Big Data de IBSAL (Instituto de Investigación Biomédica de Salamanca). Su relación con el Big Data empieza en 2016 con la preparación y solicitud del proyecto HARMONY, financiado por el programa europeo IMI2 (Iniciativa de Medicamentos Innovadores), dentro del proyecto “Big Data for Better Outcomes” (BD4BO).

“Se trata de la mayor colaboración público-privada en salud. Nuestro proyecto cuenta con 44 socios públicos y 7 industrias farmacéuticas, de 11 países y tiene cinco años de duración. Hemos comenzado en enero de 2017”, nos explica. “La dirección de un proyecto de esta envergadura supone un reto para incluir en el proyecto a los mejores expertos en el campo de los Big Data. En este sentido contamos con varias empresas de Informática (la española GMV) y de Bioinformática (Sanger Center de Cambridge, Medi Sapiens en Finlandia) con una destacada experiencia en el uso de los Big Data aplicados al campo de la salud”, explica.

¿SE PUEDE CONVERTIR EL DATO EN DINERO?

Uno de los sectores donde más se está empleando el Big Data es en la banca. No en vano, famosa es la frase de Francisco González, presidente del BBVA, diciendo que los mayores enemigos de su empresa eran compañías como Google o Amazon.

Elena Tomás Herruzo trabaja como Data Scientist en BBVA Data & Analytics; concretamente, en la construcción de una gran red de relaciones entre clientes y no clientes utilizando dato público y privado. “Nuestro trabajo diario consiste en extraer conocimiento del dato bancario, tanto transaccional como no transaccional: activo, pasivo, dato de balances de empresa, dato de grupo empresarial, etc.”, nos explica. Con el objetivo de que la toma de decisiones del banco esté apoyada en estos análisis de datos, los expertos en Big Data como ella utilizan herramientas estadísticas y de programación de forma diaria. “Intentamos mantener un flujo continuo en el que iteramos sobre un producto o modelo simple y que funciona y tratamos de mejorarlo”.

En estos momentos, en BBVA Data & Analytics hay 50 personas, pero dentro de todo el grupo BBVA hay muchos más científicos de datos. “Los primeros años hemos liderado la creación de un máster para trabajadores de diversos departamentos de BBVA (From Data Miner to Data Scientist), que en el próximo año será global y cuyo objetivo es convertir a todos los empleados en analistas capaces de tomar todas las decisiones de su día a día basándose en datos y no en intuición. Por ello, y por la inversión que se está realizando para cumplir este objetivo, las previsiones indican que en los próximos años el número de expertos en ciencia de datos en nuestra compañía va a crecer considerablemente”, explica.

AGILIDAD Y CALIDAD DEL DATO, ALGUNOS RETOS

El grupo de trabajo de Big Data dentro de este banco se creó dentro del área de Nuevas Tecnologías en el año 2012, aunque en paralelo se comenzó a trabajar en esta disciplina en otras muchas áreas. Posteriormente, en el año 2014, se constituyó BBVA Data & Analytics, “el centro de excelencia en ciencia de datos de BBVA, que funciona como centro de innovación aplicada, desarrollando programas estratégicos con las unidades de negocio del grupo”, nos explica esta experta.

Las mayores dificultades a las que se enfrenta un experto en datos es disponer del dato limpio y ordenado, y, la segunda, la agilidad en la puesta en producción de modelos de forma continua

Hemos preguntado a Elena Tomás cuáles son las mayores dificultades o retos a los que se enfrenta y asegura que son básicamente dos, pero bastante importantes. “El primero es disponer del dato limpio y ordenado; el segundo, la agilidad en la puesta en producción”.

Sin embargo, el primero de estos retos está “bastante avanzado”, en su opinión, gracias al trabajo realizado desde que BBVA Data & Analytics. “A día de hoy nuestra empresa entiende el dato de BBVA en gran detalle, y está por delante respecto a otras muchas compañías no sólo en ingesta, sino también en los procesos de calidad que las ingestas de dato tienen que pasar”, afirma. En cuanto a la puesta en producción, “hasta ahora nos hemos encontrado numerosas trabas que no permiten un ciclo de vida del software ágil en el que seamos capaces de poner en producción modelos de forma continua y probar su rendimiento. La iteración sobre una primera versión y la generación de nuevos datos que sirvan para mejorar el proceso o el modelo es la manera más eficaz de que funcione”.

APLICACIONES INTERNAS Y EXTERNAS

Los resultados del trabajo que realizan estos expertos de Big Data no solo repercuten en el cliente final (que también), sino en la propia operativa del banco y en la forma en que trabajan sus empleados. “Hay soluciones en el backoffice que ayudan a nuestros compañeros a ser más productivos”, detalla Elena Tomás, “pero evidentemente lo que resulta más visible son los productos a disposición de los clientes. El categorizador de movimientos, por ejemplo, ha tenido mucha repercusión en el público general, ya que ayuda al cliente a clasificar los gastos de forma sencilla. Esta es la base también de la funcionalidad Movimientos Previstos, dentro de la App móvil de BBVA, un modelo que utilizando análisis de series temporales es capaz de predecir los gastos que el cliente va a tener el siguiente mes para ayudarle en la toma de decisiones”.

Cerrar la brecha entre innovación y negocio, o poner de acuerdo a distintos implicados, son algunos de los retos a los que se enfrentan los expertos en Big Data

Elena Tomás trabaja con el departamento de Global Risks Management de BBVA, donde se lleva tiempo produciendo RedeX, la red “social” de empresas clientes del banco. “Utilizando relaciones de transferencias, interviniencia, grupo empresarial al que pertenecen y otras dimensiones que ya se estaban utilizando en diversos departamentos, hemos sido capaces de facilitar el trabajo de los analistas de Riesgos a la hora de conceder préstamos. Ahora tienen la información necesaria a un click y a diversos niveles de profundidad”.

En cualquier caso, y según nos explica esta analista, normalmente, los departamentos en los que mayormente se aplican los modelos de Big Data son Inteligencia Comercial, Banca de Empresas y Riesgos. “El tiempo de cada proyecto suele ser variable y depende de sus características, pudiendo variar de tres meses a dos años según las interdepedencias y desarrollos que llevan a su implantación”.

Pero el camino no siempre es fácil. “En el pasado ha supuesto un reto cerrar la brecha entre innovación y negocio”, confiesa esta experta en Big Data. “Hemos ideado productos y soluciones que en un momento dado se deberían haber emancipado, y alguien desde el lado de negocio haberse hecho cargo de su mantenimiento y versiones evolutivas, pero finalmente han quedado estancados y se han cerrado. En ocasiones, no respondían a una verdadera necesidad de los clientes, en otras las ideas surgieron antes de tiempo, o el área receptora tenía otras prioridades. Cabe hacer un análisis caso por caso sobre los motivos y aprender de estas experiencias”.

LA MEDICINA, UN CAMPO A EXPLOTAR

Otra de las industrias donde se espera que la aplicación de Big Data pueda ser más determinante y revulsiva es en el campo de la medicina. Jesús María Hernández Rivas nos habla  del proyecto HARMONY, concebido con la idea de acortar el tiempo de estudio de un fármaco, desde sus desarrollos iniciales hasta su comercialización. “Para llevar a cabo esta idea, se propuso que era necesario disponer de una base de datos amplia, con registros de la mayoría de las hemopatías malignas, en el que se pudieran incluir datos “ómicos” junto a los datos tradicionales de la evolución y respuesta a los fármacos, y que, además, pudiera contener información de farmacovigilancia y farmacoeconomía”, nos explica este experto. Tanto la magnitud de los datos requeridos como en el número de enfermos, la cantidad de variables y la heterogeneidad de los datos clínicos motivaron que el proyecto entrara en la órbita de los Big Data.

“Uno de los problemas más preocupantes en el desarrollo de terapias específicas es el tiempo que tarda en aprobarse un fármaco, que suele ser superior a 10 años, así como la gran cantidad de fármacos que no llegan al mercado. En el proyecto HARMONY contamos con todos los interlocutores implicados en la resolución del problema: asociaciones de pacientes, hematólogos, agencias reguladoras, empresas tecnológicas y grandes compañías farmacéuticas. Queremos ofrecer una nueva perspectiva del análisis de las grandes series de datos en donde se tengan en cuenta todas las opiniones de los sectores implicados, con el fin de ofrecer la posibilidad de disponer de un gran número de datos para que se facilite el acceso de los nuevos fármacos a los enfermos”, detalla Hernández Rivas .

Además, la inclusión de datos genómicos va a permitir, en su opinión, “un gran avance en el camino de la medicina personalizada y en el desarrollo clínico de fármacos dirigidos a dianas genéticas con un menor coste para el sistema sanitario. Lo que buscamos es una repercusión real en el paciente”.

SEGURIDAD DE UNOS DATOS SENSIBLES

Jesús María Hernández Rivas considera que un aspecto clave en todos los proyectos de Big Data es la seguridad de los datos. Algo que se agrava aún más en su proyecto porque está implicada la salud. “La confidencialidad del paciente, del dato clínico o genético, es esencial y debe contar siempre con el nivel máximo de seguridad”, sentencia.

Pero, además, en su caso, otra dificultad añadida es la armonización de los datos. “Al proceder de distintas fuentes son, lógicamente, diferentes. Y, por supuesto, hay que tener en cuenta la legislación vigente. Estamos afrontando el reto de armonizar bajo un marco único las distintas normativas que protegen los datos de los pacientes, para poder trabajar con un modelo común que se adhiera a los principios de intercambio de datos FAIR (del inglés findable, accesible, interoperable y reusable) es decir, localizable, accesible, operativo y reutilizable”.

Cabe señalar que HARMONY es el primer proyecto europeo de Big Data en salud, por lo que “estamos siendo los primeros en enfrentarnos a todas las dificultades que se pueden presentar. Esto es en sí mismo un reto, pero también un orgullo porque estamos “abriendo camino” a futuros proyectos”, señala este experto.

De hecho, aunque este proyecto apenas cuenta con poco más de un año de vida, tiene “la ambición de convertirse en un referente para el estudio no solo de las enfermedades neoplásicas, sino de la medicina en general”, según este experto. “No debemos olvidar que la Hematología siempre ha sido pionera en el desarrollo de modelos de medicina personalizada y que una de las características comunes a los muchos tipos de hemopatías malignas es el conocimiento de los mecanismos moleculares implicados en la génesis y en el desarrollo de estas enfermedades”.

RESULTADOS E IMPLICACIONES

Este proyecto representa, según este experto, un paso más en la Hematología en España y en Europa, contribuyendo a mejorar los resultados obtenidos en enfermos. Para ello, se va a crear un repositorio de datos de alta calidad procedentes de grandes hospitales y grupos cooperativos europeos, así como de ensayos clínicos de la industria farmacéutica. “Aplicando técnicas Big Data sobre estos grandes volúmenes de datos recogidos en la plataforma (por ejemplo, los tratamientos recibidos, la evolución de la enfermedad, las distintas mutaciones genéticas), vamos a poder caracterizar mejor la enfermedad, buscar marcadores clínicos o moleculares que la definan, mejorar el tratamiento… es decir, tendremos una información mucho más precisa y dirigida, focalizada”, detalla este experto.

De momento, el principal resultado es la creación de esta plataforma pionera de Big Data en cáncer hematológico, que está previsto recoja datos de más de 50.000 pacientes. “A partir de ahora, con la inclusión de los datos, su procesado y armonización, esperamos los primeros resultados durante este año”, explica. Los primeros datos que se van a volcar son los de al menos 5.000 pacientes de leucemia mieloide aguda (LMA), estudio piloto que va probar el flujo de trabajo de HARMONY y garantizar su viabilidad. Este estudio analizará una serie amplia de pacientes con LMA para definir cuáles son los más adecuados para recibir terapia intensiva y si se pueden beneficiar del trasplante de células madre.

En este camino de construcción del proyecto HARMONY ha tenido lugar muchas discusiones entre los socios. “Su originalidad y su aspecto innovador ha motivado que no siempre se hayan podido ejecutar las propuestas de una manera rápida. Hemos trabajado para elaborar un marco de actuación acorde con la normativa legal existente y con el Reglamento de Protección de Datos que va a comenzar a usarse esta primavera en toda la UE”. Y ahí siguen por el bien de todos.

Subir