La evolución en la ingeniería de datos

 
6-Jul-04-2022-06-21-49-03-PM
Tiempo de lectura 6 minutos.

El ser humano siempre ha tenido el deseo de ser capaz de predecir su futuro o al menos  estar lo mejor preparado para tomar las decisiones acertadas.

Desde el principio de los tiempos, el ser humano quiso guardar la información de la mejor manera posible. En la etapa paleolítica, por ejemplo comienza hacerlo mediante dibujos en las paredes de cuevas, dejando así, el precedente de un acontecimiento particular. 

De esta forma, comenzó a llevar un control de información, en la cultura mesopotámica, observamos el uso de las tablillas de arcilla con escritura cuneiforme en un intento por resguardar información importante referente a las incursiones militares, padrones e incluso leyes. Más tarde, en Egipto aparece el papiro y los jeroglíficos, dónde se reflejaba el registro de propiedad, producción, instrucciones, recomendaciones, etc. 

Te puede interesar: Big Data en la nube: ¿En qué etapa se encuentra tu empresa?

Sin embargo, griegos y romanos querían salvaguardar aún más su información y optaron por la escritura en piedra y muchos de los datos esculpidos eran públicos. Ellos guardaban  Actas del Consejo de Gobernación, listas de ciudadanos, documentación patrimonial y tratados con otras ciudades. Como por ejemplo el  Tabularium romano, piedra, en la cual se guardaban leyes de territorio, administración económica y control del servicio militar. 

China en cambio optó por la practicidad y pensando en la movilidad de la información, desde el siglo II crearon el papel y comenzaron a usar la tinta para escribir sobre él. Así transcribieron múltiples informaciones, el registro de las dinastías de  emperadores con sus etapas de auge y declive. 

2-3

Poco después los visigodos  pensaron que la información debía ser editable y crearon el Thesaurus, una pizarra donde se escribía la información del rey, códigos, tratados internacionales y privilegios feudales. Creando también dos herramientas archivísticas: los Registros  y los Cartularios

Con el avance de la humanidad, en la Europa del siglo XVI, aparece el concepto de los Archivos de Estado que concentra todos los fondos documentales dispersos. Maximiliano I de Habsburgo tuvo la brillante idea de centralizarlos en la ciudad Innsbruck, algo que no satisfizo a muchos y no necesariamente se cumplió. 

Entonces, al grito de “Liberté, egalité y fraternité”, llega la Revolución Francesa, y, con ella, un cambio en la documentación. El 25 de junio de 1794 se nacionalizan los archivos franceses, se crea el Archivo Nacional y se reconoce el derecho a la consulta de los documentos públicos

Aunque es pertinente mencionar a Joseph Fouché , personaje de la política francesa que consiguió mantener oculta y en su poder mucha información recopilada de personas importantes, usándola a su conveniencia para llegar a tener una larga vida, al explotar el poder de la información en su beneficio. 

El comienzo de la era digital 

Avanzando a el siglo XIX, se empiezan a depositar en los archivos soportes distintos al papel, como la fotografía o la microforma.

A estas alturas ya se visualiza el potencial de los documentos como fuente de poder. Pronto el Estado estructura fondos para la concepción de un archivo físico como territorio infranqueables, también aparecen dos elementos de descripción de la información los conceptos de la Analítica y la Sintética, mismos que subsisten hasta nuestros días. 

Con el inicio del siglo XX, la creación de redes de cooperación y de sistemas más complejos de archivos aparece. La Segunda Guerra Mundial marca el despegue de la archivística por la necesidad de investigar y difundir el conocimiento. La expansión de la democracia como modelo de ordenamiento social, también marca el comienzo de la democratización de los datos. 

Y con el surgimiento de la computación, el mundo cambia por completo, modificando desde sus cimientos  el registro de toda la información. La fotografía, los audios y el cine se convierten en materiales documentales. Aparecen las tarjetas perforadas, las cintas de papel, las cintas magnéticas, los discos duros, los disquetes externos, los zip, e incluso las memorias USB.

4-Jul-04-2022-06-22-09-95-PM

Pero para un ser gregario por naturaleza como el humano, esto no bastó y en su búsqueda de estar cada vez más conectado surge el Internet, y con él una nueva revolución. 

Actualmente nuestros dispositivos son inteligentes y se encuentran interconectados, generando y compartiendo información. 

Lo que volvió al almacenamiento físico insuficiente, ya sea por su capacidad para guardar datos o bien por la movilidad, los discos duros internos o externos e inclusive algunos servidores, terminan por ser insuficientes para cubrir todas las necesidades actuales y la solución actual es conectarse a la nube, para guardar información y tenerla siempre disponible, sin importar el momento, lugar o dispositivo de consulta. 

El Big data

La información comienza a tomar una relevancia nunca antes vista, de manera que, en la actualidad, se cuenta con tal cantidad de datos acerca de cualquier fenómeno, que su manejo se vuelve caótico y sin una estrategia adecuada no sabremos cómo aprovechar su valor, como gestionarlos, protegerlos, actualizarlos y más importante aún cómo emplearlos efectivamente.

Revisa también: Big Data: El mejor aliado para saber qué ocurre en tu negocio

Ningún ser humano es capaz de manipular tal cantidad de información, procesarla y obtener conclusiones de ella, adecuadamente, es en estos momentos cuando aparecen los conceptos de Big Data y Data Science.

El Big data, también conocido como los macrodatos, y bien sabemos son conjuntos de información tan grandes y complejos que precisan de tecnologías de procesamiento como BigQuery así como de  herramientas BI como Looker, y de almacenes flexibles con un amplio rango de escalabilidad como Google Cloud Platform

Esto con el objetivo de poder ordenar, preservar y explotar el valor de cada dato mediante análisis posteriores y la precisión de estos análisis depende de la cantidad de datos disponibles. De ellos deriva la información y conocimientos importantes y procesables. Hoy en día sabemos que toda esa información se traduce en ventajas competitivas y áreas de oportunidad empresarial, pero para ello se precisa procesar la información e implementar soluciones inteligentes. 

3-4

Data Science & Engineering 

Es aquí donde entra la Ciencia de Datos y la ingeniería como solución ante los nuevos retos. Al igual que la tecnología y la recopilación de datos ha evolucionado a lo largo de los años la visión de la ingeniería enfocada al software y datos ha ido evolucionando. 

Para entenderlo es necesario dar un breve repaso a los cambios más importantes que se han tenido. 

  • Décadas de los 40 y 50, en estas décadas el coste del hardware era tremendamente superior al del software, que tenía por lo tanto una importancia relativa mucho menor. Se consideraba además que el software se podía desarrollar de la misma forma que se desarrolla el hardware; y, de hecho, los primeros ingenieros que se ocupaban del software eran los mismos que desarrollaban el hardware.

  • Década de los 60, a pesar de importantes éxitos, como las misiones de la NASA, se hace evidente que software y hardware se diferencian demasiado. Es la época de los llamados códigos espagueti que daría paso a la crisis del software, comienzan a plantearse ideas fundamentales para el software, como reutilización, arquitectura de software, programación estructurada y fábrica de software.

  • Década de los 70, se descubre que los costos del software superaban a los del hardware. Parnas propone la descomposición modular y el concepto de information hiding, Chen el modelo E/R y Royce el modelo del ciclo de vida en cascada. La formación de los ingenieros de software se centra en metodologías estructuradas.

    Lee ahora: ¿Cómo aportar valor a mi empresa a través de la Analítica de Datos?

  • Década de los 80, Leo Osterweil impartió una conferencia en el International Conference on Software Engineering (ICSE),cuyo título fue  “Software processes are software too” que supuso el inicio de una nueva forma de abordar los procesos de software. Se crearon los estándares, como el DoD-STD-2167 o el MILSTD- 1521B, así como el SW-CMM.

    Dando paso a la automatización de algunas partes del ciclo de vida del software, apareciendo la primer generación de herramientas CASE y los lenguajes de programación orientados a objetos, que si bien tuvieron un precedente con Simula y Smalltalk, se difundieron sobre todo en esta década con la aparición de C++ y Eiffel. Las herramientas CASE suponen un cambio de paradigma que supone la orientación a objetos. 

  • Década de los 90, Se desarrollan los modelos relacionados con la mejora de procesos de software, como  Ideal, TSP o PSP, las normas y estándares de calidad como la ISO 9126, ISO 12207, ISO 9000-3, etc. Se consolida la orientación a objetos dando lugar a la aparición del Lenguaje de Modelado Unificado (UML) y el Proceso Unificado (UP). También surgen  multitud de técnicas y conocimientos sobre la construcción de sistemas orientados a objetos: patrones, heurísticas, refactorizaciones, etc.

  • Años 2000, La crisis económica agudiza los clásicos problemas de mantenimiento de software, y se plantea la conveniencia de externalizar sus procesos de mantenimiento, impulsado la creación de negocios basados en la gestión de desarrollo de software externalizado y la demanda de conocimientos especializados. Se firma el Manifiesto Ágil como intento de simplificar las metodologías existentes.

Surgen a su vez los métodos híbridos, que buscan equilibrio, combinando la adaptabilidad de los ágiles con la formalidad y documentación de los métodos rigurosos. Actualmente vivimos el auge de estas metodologías. Se difunde el llamado Desarrollo Software Dirigido por Modelos (DSDM) y las familias de productos software. 

Otro tema relevante es el Desarrollo Distribuido de Software especialmente cuando los equipos se distribuyen más allá de las fronteras de una nación, recibiendo el nombre de Desarrollo Global de Software (GSD) que requiere una formación mucho más amplia del Ingeniero de Software, para resolver problemas como: comunicación inadecuada, diversidad cultural, gestión del conocimiento o diferencia horaria, entre otros.

Por último se destaca el desarrollo de la ingeniería del Software Empírica (ESE y la Ingeniería del Software Basada en Evidencias (EBSE)  que sentaron las bases para la experimentación y rigurosidad en Ingeniería del Software. 

  • Década 2010, Además de afianzarse las líneas descritas en décadas anteriores, se da paso a una mayor integración entre la ingeniería del Software y la  Ingeniería de Sistemas, destacando el papel de los requisitos no funcionales y, sobre todo, de la seguridad. Y la importancia del enfoque interdisciplinar.

    Así como la necesidad de adaptar los métodos de desarrollo de software para trabajar en un mundo abierto, los Sistemas de Sistemas Intensivos en Software (SISOS) con decenas de millones de líneas de código, decenas de interfaces externas, proveedores competitivos, jerarquías complejas, etc.

    De igual forma estamos viendo ya la implantación de la Ingeniería del Software Continua  y la filosofía DevOps, que logran reducir el tiempo que se compromete un cambio en el sistema y que se ponga en producción normal, lo que requiere un cambio a una responsabilidad compartida, además de aprender nuevos conceptos de infraestructura y requerir ampliar la visión de los ingenieros. 

Cómo habrás podido notar la tendencia en común se orienta a la capacidad de hiperconectividad que permita una colaboración abierta activa, sin perder el rigor de registro fortaleciendo la seguridad. 

Creatividad y Colaboración

El enfoque actual de la ingeniería de datos se centra en mejorar las herramientas de inteligencia artificial, machine learning y automatización, de ahí que las APIs cobren cada vez más importancia y se establezcan como el pilar de la economía en el futuro. 

5-Jul-04-2022-06-22-27-35-PM

Sin embargo, como ya hemos dejado ver, la vertiginosa velocidad de cambio en los datos, así como la precisión de los mismos requiere de un enfoque multidisciplinar, y es ahí en donde la ingeniería hace presente para diseñar arquitecturas que tengan la capacidad de arrojar datos eficientes, apoyados de tecnologías como Anthos o Apigee,  que, entre otras cosas, pueden centrar su atención en simplificar el uso de interfaces y diseñar nuevos productos a partir de la información recabada. 

Pero no solo eso, al tener acceso a tal volumen de datos pueden crear paquetes de datos valiosos, para intercambiar de forma segura y crear alianzas estratégicas con terceros que permitan ampliar la oferta de productos y servicios de nuestro negocio, y mejorar la disponibilidad de los mismos ampliando la omnicanalidad a nuevos horizontes, dando paso a la innovación.

También puedes consultar: IA y Machine Learning ¿Por qué son tendencia en el mundo del eCommerce?

Por eso en el marco de la celebración del día del ingeniero queremos dedicar esta breve recopilación de datos relevantes en la historia y evolución de la ingeniería centrada en datos, felicitarlos y preguntar

¿Cómo crees que continuará esta historia?

Leave a Comment