La implementación de soluciones permite visualizar muchas otras aplicaciones de big data en el sistema financiero global, donde los datos serán capaces de decir y predecir eventos importantes.   Uno de los avances más importantes en la capacidad de almacenar información ocurrió hace sólo 5,000 años, cuando el ser humano descubrió una manera totalmente nueva de recordar cosas: la escritura. Antes de este invento, el ser humano tenía que depender de la memoria, dibujos o música para conservar información importante. Sin embargo, la memoria no es confiable, más que por su capacidad de almacenamiento, por nuestra capacidad de recuperar la información almacenada. Con este invento, el ser humano extendió la capacidad de la memoria, conservando información en paredes de cavernas, tablillas de arcilla y papiros. Más tarde desarrollamos otros mecanismos, como las computadoras y teléfonos inteligentes, con lo cual, literalmente, estamos descargando gran parte del procesamiento que nuestras neuronas tendrían que ejecutar normalmente, a un dispositivo externo a nuestro cerebro. Gracias a estos dispositivos, actualmente almacenamos inmensas cantidades de datos; de hecho, 90% de los datos existentes en nuestro planeta se han generado en los últimos 2 años. Este gran volumen de datos que emerge constantemente es conocido como big data, y uno de los principales generadores de ese volumen de datos es el sistema financiero global. Hoy, los reguladores desean poder ver y rastrear el comportamiento de los eventos de negociación, tanto por etapa como por participante del mercado. En este sentido, los eventos de negociación forman un rompecabezas que debe ser ensamblado inteligentemente en un plazo muy corto de acuerdo con la regla 613 de la SEC (US Securities and Exchange Commission), la cual establece que las bolsas de valores de EU deben crear, implementar y mantener una huella de auditoría consolidada (consolidated audit trail, CAT) de todas las actividades de negociación efectuadas en dicho país con el fin de evitar eventos como el Flash Crash del 6 de mayo de 2010, cuando alrededor de 1 millón de millones de dólares fueron sacados temporalmente del mercado de capitales de EU en cuestión de minutos. Actualmente se está evaluando a diversos proveedores para construir y operar la CAT. En este sentido, los proveedores están realizando prototipos, inclusive en la nube, donde los datos son formateados, validados, relacionados y entonces publicados a repositorios analíticos, para ser consultados por herramientas de inteligencia de negocios y otras aplicaciones para análisis y reporteo. Existen factores críticos a considerar cuando se trata de estos volúmenes de datos:
  1. La capacidad de emular un pico en la actividad del mercado; por ejemplo, poder procesar 2,500 millones de registros de operaciones en 15 minutos, equivalente a 10,000 millones de eventos por hora, aproximadamente 3 GB por segundo.
  2. Poder mantener el desempeño, es decir, poder procesar alrededor 6,000 millones de eventos en sólo una hora.
La implementación de estas soluciones ha permitido visualizar muchas otras aplicaciones de big data en el sistema financiero, donde los datos serán capaces de decir y predecir eventos importantes. No cabe duda que así como las paredes escuchan, los datos hablan y es indispensable aprender a escucharlos.   Contacto: Twitter: @SunGard Página web: SunGard   Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de Forbes México.

 

Siguientes artículos

Walmart de México y Centroamérica abre su tienda 3,000
Por

La apertura del Superama Del Valle Norte coincide con el inicio de la celebración de los 50 años de la marca.