Diferencias entre Data Science y Business Intelligence

Hasta hace muy poco la Business Intelligence era considerada como un elemento de lujo que sólo las grandes empresas se podían permitir.

Pero los datos se están convirtiendo en algo habitual y accesible. Su enorme variedad y cantidad permite a las empresas trascender de sus propios datos y adquirir nuevos conocimientos.

Se empieza a utilizar la Ciencia de los Datos como algo esencial, como un administrativo o un gerente.

Esta nueva ciencia permite a las empresas salir de la retrospectiva y el análisis de sus propios datos y empezar a ser predictivo, pro-activo y empírico.

Moverse desde el BI tradicional hacia la Ciencia de los Datos es un gran esfuerzo necesario para convertirse en una empresa dirigida por los datos, el famoso data-driven.

Las 10 grandes diferencias entre ambas tecnologías son:

  1. Perspectiva

    Los sistemas de BI están diseñados para mirar hacia atrás basados ​​en datos reales de eventos reales. La ciencia de los datos mira hacia adelante, interpretando la información para predecir lo que podría suceder en el futuro.

    Perspectiva según Escher

  2. Foco

    BI ofrece informes detallados, KPIs y tendencias, pero no indica cómo serán estos datos en el futuro. La Ciencia de los Datos lo hace en forma de patrones y mediante la experimentación.

    Foco

  3. Proceso

    Los sistemas tradicionales de BI tienden a ser estáticos y comparativos. No ofrecen espacio para la exploración y experimentación en términos de cómo se recogen y administran los datos.

    Proceso

  4. Fuentes de datos

    Debido a su naturaleza estática, las fuentes de datos BI tienden a ser pre-planificadas y agregadas lentamente. La ciencia de datos ofrece un enfoque mucho más flexible, ya que significa que las fuentes de datos se pueden agregar en el camino según sea necesario.

    Fuente

  5. Transformar

    La forma en que los datos ofrece una diferencia para el negocio es clave también. BI le ayuda a responder a las preguntas que sabe, mientras que la ciencia de datos le ayuda a descubrir nuevas preguntas debido a la forma en que anima a las empresas a aplicar conocimientos sobre nuevos datos.

    Transformación

  6. Almacenamiento

    Al igual que cualquier activo comercial, los datos deben ser flexibles. Los sistemas de BI tienden a ser almacenados y apilados, lo que significa que es difícil de implementar soluciones basados en ellos en el negocio. Los datos de la Data Science se puede distribuir en tiempo real.

    Almacenaje

  7. Calidad de los datos

    Cualquier análisis de datos es tan bueno como la calidad de los datos que utiliza. BI proporciona una versión única de la verdad, mientras que la ciencia de datos ofrece precisión, nivel de confianza y probabilidades mucho más amplias con sus hallazgos.

     

    Calidad

  8. Propiedad de IT versus propiedad de negocios

    En el pasado, los sistemas de BI a menudo eran propiedad y operados por el departamento de IT, enviando la información a los analistas que la interpretaban. Con la Ciencia de los Datos, los analistas están al mando. Las nuevas soluciones Big Data están diseñadas para ser producidas por el analista, que pasan muy poco de su tiempo en recoger y almacenar los datos y la mayoría del tiempo analizando datos y haciendo predicciones sobre las cuales basar las decisiones de negocios.

    Propiedad IT

  9. Análisis

    Es mucho menos probable que un sistema retrospectivo y prescriptivo de BI sea colocado para hacer esto que un programa predictivo de ciencias de datos.

    Análisis

  10. Valor de negocio

    El análisis de los datos debe informar las decisiones empresariales en el mejor interés de la empresa, lo que significa demostrar valor en el aquí y ahora y predecir en el futuro. La ciencia de los datos está mucho mejor ubicada para hacer esto que BI.

    Valor de negocio

 

En vista de lo anterior, no debería sorprendernos que las empresas están impulsando sus inversiones en las estrategias de Big Data y plataformas de entrega, impulsado por Data Science.

Sin embargo, la inversión financiera es secundaria al cambio mental que se requiere para tener éxito realmente con los datos grandes. Las comprobaciones y los casos de uso deben ser introducidos para convencer a todos los interesados ​ a cambiar a la verdadera cultura basada en datos que es una base necesaria para una exitosa estrategia de Big Data Analytics.

10 tecnologías de Big Data que debes conocer

Los Científicos de Datos aparecen en todo el mundo y empieza a ser usual hablar de modelado predictivo, minería de datos o aprendizaje automático. Pero ¿qué sería de todas estas tecnologías sin la ingeniería de datos, especialmente cuando hablamos de Big Data?

El análisis de grandes volúmenes de información, que conocemos por su terminología en inglés, Big Data, crece y se expande rápidamente por todo el mundo. Todos hablan de Big Data y de Data Science o Ciencia de los Datos. Pero, ¿cuáles son las tecnologías que permiten todo esto?

A continuación se enumeran algunas tecnologías de Big Data que todos los ingenieros de datos deben saber:

  1. Análisis Predictivo (Predictive analytics): Esta tecnología agrupa una serie de soluciones, hardware y software, de técnicas estadísticas, modelización, aprendizaje automático y minería de datos, que analizan los datos actuales e históricos reales para hacer predicciones acerca del futuro o  acontecimientos no conocidos (Wikipedia).
    predictive analytics
    predictive analytics

    Todo esto se aplica a grandes fuentes de datos y permite descubrir, analizar , evaluar, optimizar e implementar modelos predictivos que generan una mejora en los procesos y una mitigación del riesgo.

  2. Bases de Datos NoSQL: En contraposición con las relacionales tradicionales, el uso de las Bases de Datos NoSQL están disfrutando de un crecimiento exponencial.
    NoSQL
    NoSQL

    Este tipo de bases de datos ofrece un diseño de esquema dinámico, que ofrece el potencial para una mayor personalización, flexibilidad y escalabilidad, que es muy necesario al almacenar grandes datos.

  3. Búsqueda y descubrimiento del conocimiento: Necesitas conocer estas herramientas y tecnologías para la extracción de información. Son herramientas que se pueden utilizar de forma autónoma, sin complicaciones, y sin necesidad de tener conocimientos especiales.
    Knowledge Discovery
    Knowledge Discovery

    La búsqueda y el descubrimiento de conocimientos se centran en obtener nuevos conocimientos de los grandes repositorios de información, tanto de datos estructurados como no estructurados que residen en fuentes, tales como sistemas de archivos, flujos, bases de datos, APIs y otras plataformas y aplicaciones.

  4. Análisis de Flujos (Stream Analytics): Si necesitas agregar, filtrar, enriquecer y analizar un alto rendimiento de datos, necesitas utilizar el Análisis de Flujos.
    Azure Stream Analytics
    Azure Stream Analytics

    Stream Analytics analiza los datos que provienen de fuentes de datos múltiples, dispares y en vivo y en diversos formatos.

  5. Información de datos en memoria (In-memory data fabric):Muy relacionado con el punto anterior, esta tecnología proporciona acceso de baja latencia y le permite procesar grandes cantidades de datos. Distribuye datos a través de la memoria dinámica de acceso aleatorio (DRAM), SSD o Flash de un sistema informático distribuido.
    In-memory Data Computing
    In-memory Data Computing

    Se utiliza para análisis inmediatos, generalmente en-vivo, de la información procedente de un stream de datos.

  6. Almacenes de archivos distribuidos (Distributed file stores):Una red de ordenadores que almacena datos en más de un nodo, a menudo de forma replicada, para proporcionar redundancia y rendimiento.

    Distributed File Systems
    Distributed File Systems
  7. Virtualización de datos (Data virtualization):Si necesita información que se entrega de varias fuentes de datos grandes, como Hadoop y almacenes de datos distribuidos, en tiempo real o casi en tiempo real, la virtualización de datos es tu tecnología.

    Data Virtualization
    Data Virtualization
  8. Integración dedatos (Data integration) : La integración de datos se trata de herramientas que permiten la orquestación de datos a través de soluciones como Apache Hive, Apache Pig, Amazon Elastic Map Reduce (EMR), Hadoop, Couchebase, MongoDB, Apache Spark, etc.

    Data Integration
    Data Integration
  9. Preparación de datos: Para aliviar la carga de modelar, limpiar, abastecer y compartir conjuntos de datos desordenados y diversos que aceleran la utilidad de los datos para el análisis.

    Data Preparation
    Data Preparation
  10. Calidad de los datos (Data Quality): La tecnología que lleva a cabo la limpieza y el enriquecimiento de datos en grandes conjuntos de datos y en alta velocidad. Utiliza operaciones en paralelo y bases de datos distribuidas.

    Data Quality
    Data Quality

Grandes tecnologías de datos: cosas a tener en cuenta

Todas estas herramientas contribuyen a obtener una información en tiempo real, predictiva e integrada; exactamente lo que los grandes clientes de datos quieren ahora.

Para obtener la ventaja competitiva que ofrece el Big Data, es necesario introducir el análisis en todas partes, explotar el valor en todos los tipos de datos y desarrollar un punto diferenciador con el factor velocidad.

Todo esto requiere una infraestructura que pueda administrar y procesar volúmenes masivos de datos estructurados y no estructurados .

Las grandes tecnologías de datos deben soportar servicios de búsqueda, gestión, desarrollo y análisis de datos que van desde datos de transacciones y aplicaciones hasta datos de máquinas y sensores, datos geo-localizados, sociales y de imagen.

El artículo original.