“[Bajo] la idea de integrar los ordenadores de forma general en el mundo, […] componentes especializados, de hardware y software, conectados mediante cables, ondas de radio e infrarrojos, serán tan ubicuos que nadie advertirá su presencia”.

  1. Weiser. “The Computer for the 21st Century”. 1991.[1]

“La informática ubicua se caracteriza, fundamentalmente, por la conexión de cosas del mundo real mediante la computación. Esto tendrá lugar a muchas escalas, incluida la microscópica.”

M.Weiser & J.S. Brown. “The Coming Age of Calm Technology”. 1996.[2]

Como adelantaba Mark Weiser a principios de los noventa, llevamos años gozando de un nivel de ubicuidad informática -aún no estrictamente en el sentido que él apuntaba- que hace posible que hoy día las personas podamos, por ejemplo, comunicarnos unas con otras de forma remota e instantánea gracias a Internet. Para ello empleamos múltiples elementos -hardware y software- que, no obstante, no están exentos de problemas: los dispositivos que hacen posible el “milagro” adolecen de vulnerabilidades que pueden ser explotadas con objeto de actuar sobre la información que aquellos albergan, transmiten y, en definitiva, tratan.

En el contexto de la informática tradicional esos “problemas” han trastocado los entornos tecnológicos, tanto del ámbito profesional, como del personal, provocando que la información tratada en unos y otros se haya visto afectada en sus diferentes dimensiones de eficiencia, eficacia, confidencialidad, integridad, disponibilidad, fiabilidad y conformidad[3]. Las consecuencias de esta debilidad generalizada que muestra el mundo virtual, han tenido en gran medida naturaleza económica (deterioro de la imagen corporativa, pérdida de ventaja competitiva, pérdidas financieras directas, etc.), más allá de cuanto tiene que ver con la privacidad personal.

Actualmente, el concepto de “Informática ubicua” (UC, por sus siglas en inglés –ubiquitous computing-) introducido por Weiser en 1988[4], parece estar comenzando a convertirse en lo que Kevin Ashton denominaría una década después “Internet de las cosas”[5]. Con ello se está produciendo un efecto de traslación del mundo físico, real, al mundo virtual.

Dicha replicación de los objetos cotidianos del mundo físico en sus equivalentes digitales constituirá, sin duda, un salto de gran importancia hacia esa era de la “tecnología de la calma” anunciada por Weiser, en la que el sustrato tecnológico que hace posible nuestras vidas diarias terminará pasándonos inadvertido.

Sin embargo, esa misma computarización a gran escala de las cosas de la vida real no hará sino ampliar el margen de inseguridad de la vida misma: automatismos diseñados para nuestro confort doméstico -termostatos u otros- cuyas funcionalidades pueden ser “manipuladas” de forma remota, dando al traste con el referido confort; vehículos digitalizados cuyas respuestas autónomas ante determinados eventos de tráfico pueden resultar modificadas o anuladas, poniendo en riesgo nuestras propias vidas; sistemas de control de las redes de suministro que nos proporcionan energía eléctrica, agua o gas natural, que pueden ser controlados -también en perjuicio nuestro- desde la comodidad de una habitación localizada a decenas de miles de kilómetros, etcétera.

En este nuevo escenario, las cosas del mundo real heredan las debilidades de los dispositivos computacionales que las controlan e interconectan.

Las consecuencias para, y en el mundo físico se acrecentan hasta alcanzar magnitudes hasta ahora insospechadas. Y ello debido en gran medida a la interacción directa entre dispositivos en un diálogo productor/consumidor o M2M (del inglés “machine-to-machine”), propio del “Internet de las cosas”. Fruto de dicho diálogo, la cantidad de datos generados, tratados en tiempo real, transmitidos, etcétera, crece exponencialmente. Y con ello la posibilidad de que sean recogidos, alterados o eliminados sin nuestro conocimiento o consentimiento para fines muy diversos.

Por consiguiente, se hace ineludible actuar desde las causas raíz, habilitando sistemas computarizados libres de vulnerabilidades, que permitan minimizar los efectos negativos sobre la vida cotidiana de las personas. Y se hace igualmente oportuna una reflexión en relación a los principios y criterios sobre los que habrá de cimentarse la transformación del mundo real en ese nuevo mundo digitalizado, esa nueva capa virtual, réplica del mundo que habitamos.

[email protected]

[1] Weiser, M. “The Computer for the 21st. Century”. Scientific American, Inc., 1991.

URL: http://wiki.daimi.au.dk/pca/_files/weiser-orig.pdf

[2] Weiser, M; J.S. Brown. “The Coming Age of Calm Computing”. Xerox PARC, 1996.

URL: http://homes.di.unimi.it/~boccignone/GiuseppeBoccignone_webpage/IUM2_files/weiser-calm.pdf

[3] Los siete criterios de la información. Citados en “COBIT 5. A business framework for the governance and management of enterprise IT” (2012) y recogidos en “Cobit 4.1” (2007) y versiones anteriores del modelo de ISACA. Determinan las cualidades que ha de cumplir la información para que sea válida en la toma de decisiones empresariales: eficiencia, eficacia, confidencialidad, integridad, disponibilidad, fiabilidad y conformidad.

URL: www.isaca.org/cobit

[4] Ya en 1988, Mark D. Weiser hablaba por primera vez de la “informática ubicua” para describir un futuro en el que “ordenadores” invisibles, incrustados en los objetos cotidianos, sustituirían a las PC.

[5] El término fue acuñado en 1999 por Kevin Ashton durante una presentación sobre RFID (Radio Frecuency IDentification) para la empresa P&G.