Las instituciones financieras sólo utilizan 1% de los datos que tienen para propósitos analíticos. El resto es una mina de oro que pueden comenzar a explorar.     Por Olivier Penel   Con el big data, los desafíos del gobierno de datos incrementan de muchas maneras:
  • La diversidad de fuentes de datos significa que hay estándares mínimos para la estructura, definición, semántica y contenido de datos.
  • La falta de control sobre la producción de datos significa que no se puede aplicar calidad de datos en la fuente, como se puede hacer con las aplicaciones operativas internas.
  • Debido a que el problema no es el acceso y almacenaje de datos, el tema se mueve hacia la cuestión de relevancia y significado.
  • La privacidad y regulaciones también son un desafío importante para los cuerpos de gobierno de datos, al establecer políticas de retención para cumplir con regulaciones de privacidad.
  • Finalmente, existe un riesgo real de “basura rápida” que incrementa con las promesas de analítica en tiempo real, lo que significa que se obtienen resultados rápidos pero que quizá no sean buenos resultados.
A partir de la experiencia de los primeros adoptadores de big data podemos diseñar algunas lecciones aprendidas y formar algunas consideraciones para aquellos que se están uniendo a la fiesta.   1. Atrincherar el gobierno de datos desde el inicio Como lo había dicho previamente, el no incorporar un marco fuerte de gobierno de datos desde el inicio probablemente transformará la laguna de datos en un pantano de datos. Las cuestiones más importantes a considerar en esos primeros días son:
  • ¿Qué conocimiento necesitamos incrementar al final?
  • ¿Cómo reconciliamos los dos mundos de los almacenes tradicionales de datos y las lagunas de datos?
  • ¿Cuáles son nuestras restricciones de privacidad y regulatorias?
  • ¿Cómo aseguramos que la falta de calidad de datos no aniquile los beneficios de cantidad?
  2. Designar nuevos administradores de datos Típicamente, los proyectos de big data se inician de dos maneras muy diferentes:
  • Por un departamento aislado que busca encontrar nuevas pepitas de oro mientras que mantiene a TI en la oscuridad.
  • Por geeks técnicos dentro del departamento de TI, que experimentan con tecnologías nuevas y baratas sin un resultado de negocio claro en mente.
Ambos escenarios son igualmente malos, y es aquí donde el gobierno de datos puede ayudar. Para muchas organizaciones, el gobierno de datos es una práctica naciente que aún no se ha establecido por completo como una función empresarial, y en este momento necesitan repensar su acercamiento para poder hacer frente a los requerimientos específicos de las iniciativas de big data. Mi recomendación es expandir el marco existente de gobierno de datos, reusar las prácticas existentes cuando sea posible, pero sin asumir que la misma receta funcionará para el big data. Designar nuevos administradores de datos específicamente enfocados en el big data puede ser una buena idea considerando que el big data requiere un cambio fundamental en la cultura y acercamiento al manejo de datos.   3. Enfocarse en el manejo de metadata Algunas veces, el metadata es tan valioso como el contenido mismo. Si no se puede aplicar el mismo nivel de rigor al gobierno del big data sin poner en peligro sus beneficios, es crucial captar metadata. El manejo tradicional de metadata incluye el desarrollo de un modelo lógico de datos y una descripción de cómo las bases de datos interactúan entre ellas. Pero un buen modelo de big data describe cómo los servidores mapean hacia fuentes internas y externas de datos y reducen las oleadas de datos hacia información útil y relevante.   4. Encontrar el balance entre control y velocidad Más datos no necesariamente significan mejores decisiones. Al final del día, una decisión tomada sobre petabytes de datos malos no es mejor que una decisión basada en una pequeña serie de información imprecisa. Aplicar un nivel de control de calidad de datos sobre nuevas fuentes de datos asegurará que los beneficios esperados se alcanzan. Al mismo tiempo es necesario proteger uno de los aspectos más valiosos del big data, que es la velocidad y la habilidad de juntar una vasta cantidad de datos desiguales desde varias fuentes de forma oportuna y procesar este flujo de datos. En algunos casos es preferible manejar la calidad de datos al punto del uso, opuesto a hacerlo durante el proceso de consolidación. Para este fin es útil proveer a los usuarios de métodos fáciles de cálculo DQ y servicios de perfil de datos para que puedan calcular la pertinencia de las series de datos para sus propósitos específicos.   5. Comenzar con los datos existentes antes de traer nuevas fuentes de datos La recomendación final es comenzar a aprovechar la vasta cantidad de datos que ya está disponible antes de intentar aprovechar las fuentes externas de datos. Esto puede incluir datos históricos que son muy costosos de manejar en un almacén tradicional de datos empresariales, datos no estructurados como emails, registros de llamadas, visitas web, etcétera.   Se estima que las instituciones financieras sólo utilizan 1% de los datos que tienen para propósitos analíticos. El resto algunas veces es llamado “datos oscuros” y representan una mina de oro que se puede comenzar a explorar y extraer sin la complicación y costo de traer nuevas oleadas de datos. Adoptar estas directrices simples cuando se embarca en el viaje del big data sólo ayudará a reducir los riesgos y maximizar el valor, así como modernizar la adopción de las nuevas tecnologías y uso de los escenarios involucrados. Con el elevado número de organizaciones que actualmente experimentan con big data podemos esperar una rápida curva de aprendizaje en las industrias sobre lo que se necesita para extraer con éxito el valor del big data.   Olivier Penel es Gerente de Soluciones de Negocio en SAS.     Contacto: Twitter: @SASMexico Facebook: SASMx Página web: SAS     Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de Forbes México.