Nosotras respondemosPublicaciones
image_pdfimage_print

Tenemos métodos para que un artefacto tome decisiones, pero hay obstáculos éticos y legales

ANGÉLICA DE ANTONIO | Artículo original

En realidad ya existen máquinas que realizan actividades autónomas desde hace mucho tiempo. Por ejemplo, el control automático de la temperatura de nuestra casa. Esa es una máquina que funciona de manera autónoma, de acuerdo con una programación, sin que tengamos que estar activando y desactivando la calefacción. Ella sola, en función de lo que capturan sus sensores, determina lo que tiene que hacer: si se pone en marcha o se apaga.

En cuanto a otro tipo de máquinas más complejas, como pueden ser los vehículos autónomos, las cosas son distintas. Estamos en el momento de ver si los coches pueden conducirse de manera autónoma o es necesaria la participación de una persona. Cuando la acción que tiene que realizar la máquina es mucho más complicada, dotarla de total autonomía es más delicado. Depende de varios factores, por ejemplo, de la cantidad de información que la máquina necesite recibir de su entorno para poder tomar decisiones. En el caso de la conducción autónoma, ese es uno de los problemas y es que el entorno en el que se tiene que mover el vehículo es muy complejo y cambiante. A esto hay que sumarle otro aspecto clave, las acciones que realice esa máquina pueden tener un riesgo para la vida, así que ahí entramos en un terreno resbaladizo. ¿Hasta dónde estamos dispuestos a dar autonomía a las máquinas?

Por lo tanto, la respuesta a tu pregunta es que nos encontramos con tres tipos de dificultades. Hay una dificultad técnica que tiene que ver con la interpretación de la información. En los vehículos autónomos, por ejemplo, la interpretación que hoy por hoy es capaz de hacer una máquina de la información del entorno que capturan sus sensores todavía no llega a lo que puede hacer una persona. En una situación determinada, la máquina podría no interpretar correctamente si existe un riesgo inminente; ya que esto implicaría anticipar y predecir lo que va a hacer un peatón, por ejemplo, en función del movimiento que lleva, pero siempre va a haber incertidumbre. La tecnología está todavía intentando avanzar para resolver ese tipo de problemas. Es decir, para llegar a hacer una interpretación de la escena como la que podemos hacer los seres humanos.

En lo que se refiere a la toma de decisiones, una vez que la máquina recibe e interpreta toda esa información del entorno, ya podemos dejar que lo haga sola. Es una cuestión de programación, de codificar en un programa los métodos de toma de decisiones, ya sean algoritmos propiamente dichos donde hay una secuencia definida de pasos, o, últimamente, empleando técnicas de aprendizaje automático, que lo que hacen es ir acumulando información y en función de la experiencia pasada van aprendiendo y pueden ir ajustando sus propios comportamientos. En definitiva, tenemos métodos para que una máquina tome decisiones y actúe de manera autónoma. Pero surge otro problema importante, que es la visibilidad, es decir, poder ver desde fuera qué es lo que la máquina está decidiendo o por qué está tomando las decisiones que toma. El paso a los métodos de aprendizaje automático ha supuesto que en algunos casos perdamos esa visibilidad. No sabemos explicar bien por qué una red de neuronas ha tomado determinada decisión. Este es uno de los retos técnicos de hoy en día, que las máquinas sean capaces de explicar a un humano cuál ha sido el razonamiento que ha llevado a tomar determinada decisión. Y eso es necesario para ajustarla si lo hace de manera incorrecta. Se han identificado problemas con, por ejemplo, los sesgos de género, en programas para selección de personal o búsqueda de empleo. Hay que tener en cuenta que el programa funcionará de acuerdo con las experiencias previas, y si alimentamos a esa máquina con información sesgada va a seguir replicando ese comportamiento de cara al futuro. Ahí el desafío es asegurar que las decisiones que toma la máquina de manera autónoma y sin que sean directamente supervisadas por un humano son justas y no tienen sesgos, y para eso necesitamos poder entenderlas. Si no hay un grado suficiente de visibilidad, la confianza en la máquina se verá afectada.

La tercera dificultad ya no es técnica. Si una máquina autónoma actúa de manera incorrecta y provoca un accidente, ¿quién es el responsable?, ¿quién asume la responsabilidad de esa acción? ¿hasta dónde estamos dispuestos a delegar nuestra responsabilidad? A veces son estos tipos de obstáculos éticos y legales los que impiden que se puedan automatizar ciertas tareas.


Angélica de Antonio es profesora titular e investigadora del Departamento de Lenguajes y Sistemas Informáticos e Ingeniería de Software de la Universidad Politécnica de Madrid.


Pregunta enviada vía email por Jf Alveo


Nosotras respondemos es un consultorio científico semanal, patrocinado por la Fundación Dr. Antoni Esteve y el programa L’Oréal-Unesco ‘For Women in Science’, que contesta a las dudas de los lectores sobre ciencia y tecnología. Son científicas y tecnólogas, socias de AMIT (Asociación de Mujeres Investigadoras y Tecnólogas), las que responden a esas dudas. Envía tus preguntas a nosotrasrespondemos@gmail.com o por Twitter #nosotrasrespondemos.


Coordinación y redacción: Victoria Toro