Hacia una seguridad (¿inseguridad?) de ‘nivel 3’

OpiniónUna reciente lectura de un artículo[1], cuyo contenido completo —más allá de las referencias que haré a continuación— recomiendo a todos los lectores, me ha llevado a las reflexiones que comparto en estas líneas. 

El artículo describe que, hace ya tres años, Google decidió, en su programa de desarrollo de un automóvil autónomo —sin necesidad de intervención humana continua— suprimir la posible intervención humana en casos de emergencia.

El artículo describe bien cómo aquellos empleados de Google, que recibieron vehículos autónomos, en fase experimental:

  • Por un lado, mostraron sobre confianza en el robot y se afirma que durante los viajes incurrieron en comportamientos que no deberían corresponder a un pasajero sensato atento a supervisar el vehículo. Comportamientos como asomar el cuerpo por la ventanilla, pasarse al asiento de atrás o iniciar un “faje” (estimulación sexual, smooching) con quien tuvieran a su alcance[2],
  • y por otro, se comprobó que sus tiempos de respuesta eficaces ante una emergencia que requiriera su intervención eran muy superiores a la breve ventana de oportunidad que el evento exigía. Dicho con un ejemplo, investigaciones de la Universidad de Stanford han probado que el tripulante ocupado con un juego digital o atendiendo su móvil requeriría más de 5 segundos en tomar el control del vehículo[3]. No se han publicado estudios de cuánto le llevaría ocupado en otros ‘juegos’.

Los expertos pronostican que aún pasarán entre 5 y 10 años hasta que los automóviles tengan la suficiente inteligencia (artificial) para conducir con autonomía, sin supervisión humana en momentos críticos.

«Pero hasta entonces, lo que se entiende como manejo autónomo será un delicado ballet entre el humano y la máquina: podrá requerirse a los humanos que tomen el volante en cuanto la computadora avise que no puede decidir qué hacer».

La industria automovilística ha establecido 5 niveles de ‘madurez’ del control entre hombre y máquina: desde el Nivel 0 (manejo totalmente manual) al Nivel 5 (vehículo totalmente autónomo). El nivel 3 es un enfoque en el que la inteligencia artificial puede solicitar a los humanos que se hagan cargo en una emergencia.

No me resisto a señalar que considerar el nivel 0 como ‘totalmente manual’ parece primar el acuciante interés actual en algoritmos que, por ejemplo, aborden la gestión de rutas y de tráfico, la interpretación de la señalización viaria y la gestión de situaciones de emergencia; con olvido de la enorme cantidad de inteligencia (automatismos —primero físicos, luego híbridos y digitales en muchos casos—) que los automóviles y otros vehículos han ido incorporando en un siglo. Piénsese, por poner solo tres ejemplos, en el cambio automático, el ABS o en cómo la palanca del indicador de giro vuelve a su posición de reposo tras el giro.

“Manual, manual” supondría casi ir “pedaleando” (si se me permite referir a todas las extremidades).

En resumen, de lo hasta aquí expuesto:

  1. Pasarán entre 5 y 10 años para que el automóvil autónomo esté en diversas fases de transición de su inteligencia artificial (IA) entre el nivel 0 y el nivel 5. Quizá ahora se está ya, experimentalmente, y probablemente durante un tiempo, en el nivel 3.
  1. Los humanos, en vehículos (experimentales) del nivel 3, se comportan a veces como neandertales o como millennials, pero independientemente de su tribu, no parecen poder reaccionar en tiempo útil a la cesión de control solicitada por un nivel 3 en apuros.

En palabras del profesor del MIT, John Leonard, citado en el artículo, “Creo que el manejo autónomo a Nivel 3 es irresoluble”, La noción de que un humano pueda ser un respaldo (backup) fiable es una falacia”.

Los expertos están tanteando muy diversas ‘soluciones’, como:

  • Una reducción/limitación drástica de la velocidad de crucero, p. ej. a 37 mph en el próximo A8 de lujo de Audi, con lo que el “retardo” en la intervención humana sería menos grave — véase Nota 3—.
  • El desarrollo de dispositivos que atraigan y mantengan la atención del pasajero;
  • o como he dicho de Google, suprimir la posible intervención humana en casos de emergencia. (¡Esperemos que, en este último caso, le dejen al menos uno de esos grandes tiradores rojos de emergencia (emergency pull off) como los que tenían los mainframes hace años!).

Muchos expertos expresan dudas sobre si la tecnología llegará a operar fluidamente con un tripulante humano que puede estar consultando su correo o jugando con una aplicación.

Los avances de la inteligencia artificial (IA) han sido prodigiosos en la última década y naturalmente no todos los campos y problemas en que se aplica son de la misma complejidad: la IA es un “cajón de sastre” en el que desde su fundación (en Darmouth College, en 1956) han entrado (y salido) varias disciplinas.

Pero todo hace suponer que, entre las cuestiones aún vigentes objeto de intensa investigación las haya de una importancia “comparable” a la del automóvil autónomo. Por “comparable” no pretendo aquí aludir al orden de complejidad de los algoritmos ni a estrategias o tecnologías afines, sino simplemente a que tras ellas hubiese un volumen económico o un impacto social de importancia similar o al menos de gran importancia. Piénsese, por ejemplo, en sistemas de gestión de grandes emergencias naturales, en sistemas de estrategia militar o en procesos clínicos.

En todos esos casos, como en el del automóvil, cabe esperar (¿temer?) un relativamente largo proceso de transición en cuña —phase-in, phase-out— con una “seguridad (¿inseguridad?[4]) en el nivel 3”.

El tipo de seguridad del borracho de la anécdota que —en la plaza mayor del pueblo, con su farola en el centro, convertida durante las fiestas en plaza de toros, con la iglesia, el ayuntamiento, la farmacia y la panadería protegidas por carros y tablones— tras darle otro par de tientos a su bota de vino, y con su visión cada vez  más confusa,  se lanza al ruedo y, al asustarse, “por subirse a la farola que era, se subió a la que no era; y por cogerle el toro que no era, le cogió el que era”.

Cuando la lógica es demasiado fuzzy, mejor buscar otro enfoque.

[email protected]

 

[1] Markoff, J. (June 7, 2017). “Robot Cars Can’t Count on Us in an Emergency”. New York Times.

 https://nyti.ms/2rTVglc [URL consultado el 20170610].

[2] El artículo citado no permite determinar si también el robot fue objeto de deseo. Con lo que a los diseñadores les queda aún por determinar ese grado de libertad.

[3] Esto supone, por ejemplo, que, si el vehículo circulaba a 75 km/h, recorrería sin control más de 100 metros. El artículo tampoco aclara si por ejemplo esa toma de control incluiría o no el frenado, si no lo hiciera, sino que al asumir el control se iniciara el frenado, eso requeriría aproximadamente otros 40-50 m.

[4] «El profesor colombiano Jeimy Cano en su libro de 2013 y en artículos más recientes se refiere a la “inseguridad de la información… como elemento práctico de gobierno corporativo”». Palao, M. (2015). “¿Ciberinseguridad o Desgobierno?”  Perspectives iTTi. http://www.ittrendsinstitute.org/perspectives/tag/perspectives/Manolo%20Palao/2 [URL consultado el 20170612].

Manolo Palao

Ingeniero de Caminos, Canales y Puertos, Licenciado en Informática, Diplomado en Sociología, Diplomado en Estadística e Investigación Operativa, Manolo es co-fundador del Instituto de Tendencias en Tecnología e Innovación, donde, actualmente, desarrolla su labor como Responsable de Formación y analista principal. Veterano del sector TI, escribió su primer programa informático en 1963. Ha sido CIO, consultor y, desde 1976, auditor de Sistemas de Información. Miembro Platinum de ISACA, fue fundador del Capítulo de Madrid de esta asociación, cuya Presidencia ha ocupado en dos ocasiones. Hoy es miembro de su Comisión para el estudio y el desarrollo del Gobierno Corporativo de las TIC, dentro de las organizaciones. Puede contactar con Manolo en la dirección electrónica [email protected] 

Tags:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*