Por El Economista
Big data son dos palabras que parecen haberse grabado en el entorno de la tecnología actual. Tal vez muchos de nosotros nunca tratemos con cantidades de información que supongan la utilización de tecnología especializada en este concepto, pero Uber, Netflix, Air&BnB, Spotify, Facebook y un gran etcétera más son aplicaciones con las que interactuamos todos los días y que trabajan con grandes cantidades de información cada segundo.
De acuerdo con un análisis de la firma de automatización, seguridad y análisis de datos Varonis, más de la mitad de los ejecutivos y directivos vinculados a proyectos con grandes cantidades de información tienen poco claro el significado de big data.
Una manera sencilla de definir este término es la de Israel Quiroz, director de la compañía mexicana de ciberseguridad IQSec, para quien big data hace referencia a una cantidad de datos tal que supera la capacidad del software convencional para ser capturada, administrada y procesada en un tiempo razonable.
Todos podríamos procesar en una computadora normal una cantidad de información que rebase los billones o trillones de bytes, el tiempo que nos llevaría procesarla es lo que hace la diferencia con respecto a si estamos utilizando herramientas especializadas en big data. Nuestra computadora personal tardaría años si no es que siglos en procesar cantidades de información como las que pasan por los equipos de Facebook o Spotify todos los días.
Que el tiempo sea el factor esencial para diferenciar a un proyecto de big data de uno que no lo es hace necesario considerar dispositivos y herramientas específicas no sólo para la captura, administración y procesamiento de la información, sino para su almacenamiento, compartición y sobre todo, para garantizar la seguridad de la misma.
Durante su presentación en el primer Congreso Internacional de Gestión de Datos e Información organizado por la Data Management Association en la Ciudad de México, a finales de noviembre pasado, Quiroz habló sobre las medidas de ciberseguridad que deben implementarse cuando se trabaja con cantidades de información que impliquen el concepto de big data.
El director de IQSec abundó sobre los diversos enfoques desde los cuales se debe abordar la protección de los datos cuando se habla de big data. El primero hace referencia al alcance que deben tener las medidas de seguridad en el caso de infraestructura destinada a procesar grandes cantidades de información. Para Quiroz, mientras que el enfoque convencional dicta proteger todos los activos de información, el enfoque orientado al big data supone la focalización de la seguridad en los activos más importantes dentro del mar de información.
El segundo rubro refiere al tipo de control que debe establecerse en el caso de los sistemas de big data. Los sistemas convencionales de seguridad de la información hacen uso de controles preventivos, como puede ser un firewall o un sistema de prevención de intrusiones (IPS, por su sigla en inglés). Por su parte los controles avanzados en seguridad de la información utilizan controles de detección y análisis de datos que monitorean en todo momento diferentes componentes dentro de los sistemas y no solo los puertos de transmisión de información, esto supone que la perspectiva de control se fundamenta en la protección de cada dato y no en la del perímetro de todo el sistema.
Capacidad de reacción, fundamental
La detección y análisis de la información y de los componentes que conforman un sistema de big data es sólo una de las caras de la moneda de la protección dentro de este concepto. Para Israel Quiroz, la pregunta más importante cuando se habla de proteger grandes volúmenes de información no recae en si vamos a sufrir un ataque que vulnere los sistemas y la información misma, sino cuándo.
Nadie está 100% a salvo de convertirse en víctima de un ataque, la única garantía que nos ofrece un esquema de seguridad adecuado es que la reacción ante un ataque de este tipo sea efectiva.
El enfoque convencional para contrarrestar un ataque cibernético se orientaba hacia la detección y eliminación de malware o nodos infectados. Un enfoque de seguridad encaminado a dar respuesta a incidentes dentro de sistemas de big data se ocupa de la búsqueda y detecciones de patrones de ataque, que pueden incluir diversos tipos de amenaza, desde ataques de ransomware hasta vulneraciones relacionadas con exploits día cero.
Para responder de manera efectiva a las amenazas con las que los atacantes informáticos aprovechan las vulnerabilidades de las que nunca escapa ningún sistema de información ya no solo es necesario recolectar información sobre virus y malware para poder identificarlos si es que pretenden ingresar a los sistemas o ya están dentro de los mismos, también se requiere desarrollar un entendimiento profundo de los actuales objetivos y modos de operación de los atacantes informáticos para realizar predicciones sobre su comportamiento pero sobre todo para reaccionar de manera eficaz a sus ataques.
El objetivo de este tipo de enfoque en el marco de las estrategias de seguridad de la información no es ya que una red de big data se mantenga exenta de accesos no autorizados o de infecciones en algún nodo de información o de alguno de los componentes del sistema, algo que el director de IQSec considera imposible. Más bien se trata de que los ataques sean detectados de forma expedita y que el impacto que pudiera tener un ataque de seguridad a la información o a la infraestructura de la red sea el menor posible.
IQSec es una empresa orientada al diseño de estrategias de seguridad informática que van desde el análisis forense, capacitación de alta especialidad, ciber-inteligencia, identidad digital, entre otros. Acaba de cumplir 10 años y cuenta con uno de los siete centros de ciberseguridad que existen en la Ciudad de México, el cual está certificado por el Instituto de Ingeniería en Software de la University Carnegie Mellon como Computer Emergency Response Team (CERT).