Saltar la navegación

Una historia asombrosa

Modernamente antiguos

La existencia de sistemas de información, entendidos como instrumentos para la gestión de datos, es tan antigua como la necesidad de registrar operaciones o comunicar sus resultados; considere por ejemplo el caso de la Contabilidad, que no es sino un sistema de información especializado en el registro de transacciones con trascendencia económica.

Su versión actual - los sistemas de información intensivos en TIC - ha evolucionado de forma paralela al desarrollo tecnológico desde los años cuarenta; la innovación tecnológica creó oportunidades para implantar nuevas funcionalidades o desarrollar estructuras completamente nuevas, y al mismo tiempo las condiciones en las que operaban los negocios crearon nuevas necesidades que la tecnología debía atender: coordinación de actividades deslocalizadas o ubicadas en lugares remotos, tratamiento de problemas complejos, reducción del tiempo disponible para decidir, etc.

Durante los años sesenta y primeros setenta las TIC se aplican fundamentalmente para automatizar el procesamiento de transacciones, y generar eficiencias en actividades rutinarias de apoyo que no tenían una incidencia directa sobre las operaciones - por ejemplo, la gestión de nóminas -. Muy pronto se observaron oportunidades para (o, quizá, se observó la necesidad de) explotar esos datos para mejorar la gestión; primero se desarrollaron monumentales sistemas integrados (MIS) dentro de los cuales se programaron modelos de investigación operativa, y más adelante se incorporaron recursos más flexibles, como las hojas de cálculo, para que los gestores desarrollasen sus propios modelos. Al mismo tiempo se estaba gestando la eclosión de Internet, cuyo planteamiento técnico y organizativo echaba por tierra la organización clásica de la redes - rígidamente estructuradas y sujetas a control central -.

Internet surgió como red de redes, autogestionada por los usuarios y por una net-etiqueta basada en los principios de altruismo, gratuidad e interoperabilidad - hace solo unas semanas hemos apagado el último rescoldo de estas prácticas generalmente aceptadas con la supresión del principio de neutralidad, que entrega Internet a la industria multimedia -. La posibilidad de integrar transparentemente cualquier tipo de sistema y ofrecer servicios con independencia del sistema operativo y la plataforma despejó el camino para una nueva forma de concebir la empresa, los procesos y la organización: teletrabajo, workflow, organización virtual, nube, etc.

Pero, ¿cómo hemos llegado hasta aquí? La historia es increíble.

Calculadoras, ingenios mecánicos y mucho más

El ordenador moderno, y todas sus tecnologías relacionadas, son una síntesis de dos procesos de desarrollo: el de las calculadoras (por supuesto, mecánicas) y el de los métodos de producción automatizados. La convergencia de estas dos líneas en el siglo XIX condujo a desarrollos asombrosos que, como la máquina diferencial y el motor de inferencia, eran verdaderos ordenadores mecánicos susceptibles de ser programados; en este camino hallamos entre otros a Ada Lovelace, (una pionera en programación que además realizó los primeros experimentos mentales en el campo de la inteligencia artificial), a Zuse (que desarrolló las primeras calculadoras binarias), a Alan Turing (un reputado criptógrafo que desarrolló y formalizó la Inteligencia Artificial), a Von Neumann (un matemático que introdujo la arquitectura básica de un ordenador moderno y el concepto de programa almacenado)... y por supuesto a Bardeen, Brattain y Shockley, que inventaron el transistor y detonaron la onda de desarrollo tecnológico en la que nos encontramos.

Carlos Piñeiro Sánchez (CC BY-NC-SA)

Las calculadoras mecánicas

  • En 1642 Pascal idea un ingenio de cálculo mecánico, la Pascalina
    • Realiza sumas, restas y multiplicaciones (por método recursivo)
    • Técnicamente, efectúa un acarreo automático mediante un sistema de ruedas y engranajes
    • Desarrollada y mejorada posteriormente por el propio Pascal y por Leibnitz: la calculadora
  • Leibnitz desarrolla su máquina (1671) a partir de la Pascalina
    • Emplea un sistema de piñones dentados y acarreo automático inspirado en la máquina de Pascal
    • Se utilizó para calcular tablas logarítmicas y astronómicas
    • Multiplicaba y dividía mediante mediante sumas y restas recursivas
    • Es el origen conceptual de las calculadoras; sin embargo no llegó a distribuirse masivamente debido a que la tecnología disponible no permitía manufacturar piezas con la precisión requerida
  • Las máquinas de Mahon y Colmar realizaban las cuatro operaciones básicas, pero todavía multiplicaban mediante sumas sistemáticas
    • Mahon construye en 1777 dos modelos de calculadora en las que el acarreo se lograba mediante ruedas de engranaje de diferente tamaño
    • Colmar (1820) diseña el aritmómetro, una máquina más manejable, inspirada el modelo de Leibnitz. Este es un hito importante porque Colmar es un profesional de las finanzas: su máquina puede interpretarse como una respuesta a las necesidades derivadas del aumento de la complejidad de los negocios.

A lo largo de la segunda mitad del siglo XIX las aplicaciones empresariales de las calculadoras se generalizan. El desarrollo de la tecnología empieza a hacer posible la producción regular de piezas con la precisión requerida por este tipo de dispositivos, y por tanto permite la distribución masiva de calculadoras mecánicas. Bollée idea, a partir de una tabla de Pitágoras, un método de multiplicación directa (1887) que mejora las aptitudes de las calculadoras mecánicas; en 1889 diseña su calculadora, que ya realiza multiplicadores directas. Poco después empieza a comercializarse La Millonaria (Steiger, 1892), que introduce una variación técnica ampliamente imitada: los cálculos se realizan cuando el usuario hace girar una palanca.

La automatización industrial

Al mismo tiempo, en el marco general de la revolución industrial se estaban logrando importantes avances en la automatización de la producción que implicaban un cierto grado de programación. Falcon había ideado en el siglo XVII la forma de codificar procesos automáticos mediante perforaciones en tarjetas de cartón; esta idea revolucionaria permitía conservar múltiples procedimientos operativos y reutilizarlos en el futuro, lo que representa un claro antecedente de nuestra noción moderna de programa almacenado.

En 1801 Jacquard diseñó un telar controlado por tarjetas perforadas : el patrón estaba codificado mediante la secuenciación de las tarjetas, y los colores mediante perforaciones practicadas en ellas. Era un invento de trascendencia estratégica, por su impacto sobre la productividad, de manera que Francia lo mantuvo en estricto secreto. Lo realmente importante es que el invento de Jacquard estableció los principios del control mecánico, que poco después fueron empleados por Hollerith para automatizar la gestión del censo de EEUU de 1890 y de manera más generalizada en la automatización industrial de principios del siglo XX.

La síntesis del cálculo y la automatización

A lo largo del siglo XIX las calculadoras y los métodos de producción automatizados convergen, y se establecen los fundamentos conceptuales de nuestros modernos ordenadores:

  • Las máquinas diferencial y analítica introducen el almacenamiento de datos y de procedimientos y son capaces de gestionar operaciones condicionales, bucles y subrutinas
  • El motor de inferencia introduce el concepto de máquina de propósito general, un dispositivo teóricamente capaz de efectuar cualquier tipo de procesamiento de acuerdo con un programa de instrucciones.

En 1822 Babbage diseñó la máquina diferencial, un ingenio mecánico (constituido por 96 ruedas y 24 ejes) que automatizó las sumas y el cálculo de tablas logarítmicas y de potencias. Poco tiempo después, en 1832, profundizó en este planteamiento y propuso la máquina analítica, un dispositivo teóricamente capaz de resolver ecuaciones y de afrontar cualquier tipo de operación matemática. Para ello combinaba los principios del cálculo mecánico y un sistema de tarjetas perforadas que permitía almacenar datos y resultados (1.000 registros, de 50 dígitos cada uno) y procedimientos, incluyendo saltos condicionales del tipo IF...THEN; se trataba por tanto de una máquina programable, al menos en parte, en la que estaban presentes los elementos característicos de un ordenador moderno: unidad de entrada, memoria, unidad de control, UAL (unidad aritmético-lógica), y unidad de salida.
La máquina analítica era, sin embargo, un verdadero desafío conceptual y técnico. Fue Ada Lovelace quien sugirió la forma de programar y diseñar la máquina analítica, y contribuyó definitivamente a la especificación de los conceptos de subrutina y bucle

Desarrollando el trabajo de Babbage, Lovelace esboza el motor de inferencia, el primer modelo completo de un ordenador de propósito general en el que subyace también una nueva forma de concebir el control del sistema: en un motor de inferencia las operaciones no están regidas por procedimientos preconcebidos, sino que se regulan mediante ciertas reglas de control. Dos de estas reglas son las que actualmente denominamos denominamos razonamiento hacia adelante y razonamiento hacia atrás (forward chaining y backward chaining).

A mediados del siglo XIX (entre 1837 y 1855) Scheutz construyó una máquina para automatizar el cálculo de las tablas de mortandad; era una versión simplificada del proyecto de Babbage pero incorporaba un dispositivo para imprimir informes tabulares. De esta máquina, que fue presentada en 1855, se construyeron dos unidades: una se instaló en el Observatorio de Albany (EEUU) y la segunda en el Departamento de Registros, en Inglaterra.

La máquina desarrollada por Hollerith para automatizar el censo de EEUU se incardina en esta misma línea de innovación. En 1887 la Oficina del Censo aún no había podido completar el padrón de 1880, debido al amplísimo volumen de cálculos y la multidimensionalidad de los datos. Hollerith diseñó un procedimiento que permitía registrar y operar automáticamente los datos, empleando un dispositivo electromagnético que leía (y tabulaba) tarjetas perforadas. Los datos sociodemográficos (sexo, edad, etc.) se codificaban mediante perforaciones en tarjetas de cartón estandarizadas, cada una de ellas estructurada en una matriz de 240 "lugares"; la presencia de una perforación en uno de esos lugares activaba un dispositivo electromagnético que hacía avanzar un contador.

El dispositivo de Hollerith permitió completar el censo en solo dos años y medio, y es el punto de partida de toda una generación de equipamientos electromecánicos adoptados profusamente por el maquinismo industrial de principios del siglo XIX.

Una contribución crucial de Hollerith fue la demostración de que una codificación binaria (sí / no) era técnicamente viable, más barata, y mucho más eficiente que el sistema decimal que empleamos convencionalmente en nuestros cálculos ordiarios; desde los años veinte la codificación decimal empezó a abandonarse con rapidez en esta área, y pronto aparecieron las primeras calculadoras binarias:

  • Entre 1939 y 1941 Zuse construyó varias calculadoras de propósito general basadas en aritmética binaria; Z1 y Z2 eran mecánicas, pero Z3 empleaba relés eléctricos
  • Stibitz (de los Laboratoios Bell) diseñó la primera calculadora binaria, inspirada en la lógica de “todo o nada” de los relés eléctricos. En 1939 se presentó Complex Calculator, una versión mejorada del diseño de Stibitz.

La era de los ordenadores electrónicos es una consecuencia natural de estos avances. En 1942 Atanasoff formuló el primer diseño de un ordenador basado en válvulas de vacío con circuitería electrónica y aritmética binaria (el Atanasoff-Berry), pero fue el esfuerzo de guerra británico y de EEUU el que dio el impulso definitivo a los ordenadores electrónicos.

En Gran Bretaña, Turing, Michie y Knox construyeron The Bomb, un ingenio electromecánico destinado a romper el cifrado de Enigma y que en gran medida replicaba el funcionamiento de las bombas criptográficas empleadas años atrás por los criptógrafos polacos. De manera más o menos simultánea, en 1943 IBM presentó en EEUU Mark-I, un ordenador formado por más de un millón de piezas que ocupaba un espacio de 17m. de largo por 2,50m. de alto. Al año siguiente Aiken (Universidad de Harvard) y Lake (IBM) presentan la Harvard-IBM o ASCC (Calculadora Controlada por Secuencia Automática), cuyos cálculos estaban controlados por instrucciones en una cinta de papel perforado y por un cronómetro, que sincronizaba las operaciones; ASCC tenía 800.000 piezas y ocupaba 16,60m de largo por 2,60m de altura.

El mérito de convertirse en el primer ordenador propiamente dicho suele atribuirse a la IBM SSEC, diseñada (1948) por Hamilton y Seeber a partir de la ASCC: era una instalación con 13.500 válvulas de vacío y 21.400 relés, con una velocidad de procesamiento aproximadamente 100 veces superior a la de Mark-I y cuya tasa de error se estimada en 10-6. Sin embargo, el equipo que ha pasado a la historia es ENIAC (Electronic Numerical Integrator And Computer), un colosal dispositivo de 18 metros de longitud y 7,62 de altura con 18.000 válculas de vacío, con un peso de 30Tm. y que consumía unos 174Kwh. ENIAC fue diseñada conforme a los principios de la máquina de Atanasoff y era un ordenador de propósito general basado en válvulas de vacío y controlado de forma manual mediante cableado; tras años de desarrollo secreto (Mauchly,  Eckert y von Neumann) financiado por el Ejército de EEUU (400.000$ de la época), fue presentada en 1945 y entró en funcionamiento en 1946 para calcular trayectorias balísticas. Las imágenes que conservamos del ingenio son asombrosas.

Del transistor al chip y a la informática personal

Estos dispositivos eran lentos, pesados, costosos y extremadamente exigentes en términos de condiciones ambientales: humedad, temperatura, incluso vibraciones por ruido debían ser rigurosamente controladas. Todo cambió con la invención del transistor en 1947, y posteriormente de dispositivos de almacenamiento como la cinta magnética. Surgió una oferta, inicialmente pequeña, de ordenadores comerciales, destinados inicialmente a grandes corporaciones con necesidades de procesamiento masivo. El primer equipo que logró una cierta difusión fue UNIVAC (Universal Automatic Computer, 1951), diseñado por Mauchly, Eckert y la Rand Corporation: General Electric adquirió una unidad en 1954, la CBS la empleó para formular pronósticos electorales en 1952, y la Oficina del Censo instaló una en 1951.

Durante los años cincuenta la emergente industria informática se esforzó por generar economías de escala que permitiesen desarrollar equipos con más capacidad, a menos coste, destinados al procesamiento centralizado de datos mediante mainframes: durante los sesenta surgieron las llamadas islas de automatización, centros de procesamiento en determinadas áreas en las que la informatización estaba justificada por puros y simples ahorros de costes; estos centros estaban inconexos y manejaban únicamente las transacciones de esas areas. Por ejemplo podía automatizarse la gestión de las nóminas, pero no había enlaces con el subsistema contable y el acceso a esos datos desde otras áreas de la empresa era limitado, o imposible.

Durante los años setenta el aumento de la complejidad del entorno, la necesidad de adoptar decisiones más rápidamente, y el crecimeinto de las organizaciones puso de manifiesto la necesidad de mejorar la información disponible para los decisores. Se desarrollaron entonces los llamados MIS (Management Information Systems), un intento por construir sistemas de información de ámbito corporativo, integrados y monolíticos que empleasen el procesamiento de datos para prestar apoyo a la decisión.

Los MIS fueron en general un fracaso, pero trajeron consigo un renovado interés por la gestión de los recursos de información, tanto académico como comercial.

En el ámbito anglosajón, el acrónimo MIS sigue empleándose actualmente pero con un sentido diferente, para hacer referencia a lo que nosotros denominamos simplemente sistema de información - la infraestructura y los procedimientos empleados por las empresas para gestionar sus recursos de información -.

A mediados de los ochenta IBM creó el ordenador personal empleando una arquitectura abierta, de manera que todos los proveedores podían desarrollar periféricos compatibles sin pagar una licencia. La ingeniería inversa hizo el resto: otros fabricantes lograron replicar la BIOS del IBM-PC y desarrollar clónicos; el ordenador personal se convirtió en un estándar de facto gracias a la aparición simultánea de sistemas operativos y, especialmente, de VisiCalc, una hoja de cálculo extraordinariamente atractiva para los directivos. Las empresas empezaron a diseñar sus sistemas de información en torno al PC, y surgió una nueva arquitectura de red: los sistemas cliente-servidor, que permitían mantener el control sobre los recursos básicos pero proporcionaban a los usuarios un amplio grado de flexibilidad. A finales de los ochenta se libera Internet para su uso más allá del ámbito universitario y militar... y el resto de la historia es conocida.

Una lectura fascinante sobre el desarrollo de las TIC y sus interacciones con la sociedad:

Laurent, E. (1985): El chip y los gigantes. De la revolución informática a la guerra de la información. Madrid: Fundesco

Usos y aplicaciones de las TIC en la empresa: una secuencia histórica, técnica y organizativa

A lo largo de los últimos setenta años las empresas han incrementado progresivamente su dotación de recursos TIC (naturalmente, empleamos la noción restringida de TIC para hacer referencia solo a los recursos de índole electrónica); pero este proceso de adopción ha sido irregular y en cierto sentido acumulativo: las TIC fueron aplicadas en primer lugar de forma localizada y siguiendo un patrón similar al del maquinismo industrial, y solo varias décadas más tarde se desarrollaron aplicaciones innovadoras que iban más allá de la simple automatización. Al mismo tiempo se han ido "democratizando", extendiéndose a organizaciones de menor tamaño a medida que su coste y sus requerimientos técnicos las hacían más asequibles.

A nivel interno, también ha cambiado sustancialmente la manera en que las organizaciones usan las TIC; esta es en parte una consecuencia del desarrollo tecnológico, pero también de los condicionantes impuestos por el entorno y las operaciones. De foma muy amplia, suelen distinguirse tres estadios de aplicación (Frenzel, 2003): automatización, informatización y transformación, que se corresponden también con tres paradigmas históricos, o si lo prefiere, con tres ondas de innovación.

Estado de automatización

Responde a la lógica taylorista de la búsqueda de eficiencias en tiempo y coste, y se materializa en la adopción de equipamiento informático para sustituir a las personas en determinadas tareas de backend que, como la preparación de nóminas, eran esencialmente burocráticas y estaban desconectadas de los procesos principales de negocios. Obsérvese que hacemos referencia a "equipamiento", porque en este momento los recursos TIC son tratados con la misma lógica que cualquier instalación productiva: se trata simplemente de acelerar y abaratar las tareas. Aquí surgen los primeros TPS, o al menos sus antecedentes remotos.

Estado de informatización

Avanzados los años ochenta la tecnología había alcanzado un elevado grado de madurez, tanto en su vertiente física (equipos personales, periféricos, redes locales) como en los aspectos lógicos (sistemas operativos, lenguajes de cuarta generación, interfaces de usuario de tipo gráfico, hoja de cálculo, etc.). Existía por tanto una tecnología facilitadora, que permitía ir más allá de la simple automatización. Pero, ¿en qué dirección?

La orientación del nuevo paradigma vino dada por combinación de razones internas y externas. Las empresas observaron que las transacciones generaban datos que tenían utilidad para las funciones de control y para decisiones ulteriores: la conducta histórica de los clientes contenía evidencias útiles para anticipar insolvencias, las series de ventas escondían signos útiles para mejorar las acciones de Marketing, etc. Esos datos existían, solo había que recuperarlos e incorporarlos a modelos de decisión (Zuboff, 1988).

Por supuesto el problema era bastante más complejo que este, como demostró el fracaso del paradigma MIS; pero se había producido un cambio definitivo en el enfoque de aplicación de las TIC, que a partir de entonces pondrá el énfasis en la gestión y en la creación de valor. La informática, entendida como disciplina técnica, se disoció de los sistemas de información, que son las estructuras y flujos de información de una organización. El punto de interés se traslada desde la infraestructura hacia las aplicaciones, desde los datos hacia la información y el conocimiento, desde la los equipos hacia los recursos, desde la eficiencia hacia la eficacia y la creación de valor.

Estado de transformación

A medida que las TIC se aplicaban a los procesos de negocios, se hizo evidente que sus efectos iban más allá de la simple automatización. En realidad esto no debería haber supuesto ninguna sorpresa porque, por ejemplo, la revolución industrial transformó por completo las empresas y los procesos sociales; de forma similar, la organización industrial cambió radicalmente cuando se introdujo la energía eléctrica. Las TIC también ofrecían oportunidades para "hacer cosas distintas" a las habituales, desde coordinar equipos dispersos hasta mejorar los sistemas de control interno, desarrollar plataformas para vender sobre Internet, o hacer que los sistemas informáticos de diferentes empresas interactúen con poca o ninguna intervención humana. La lista de cambios es difícil de acotar, porque la transformación digital afecta a todos y cada uno de los procesos empresariales, y a todas y cada una de las relaciones sociales.