viernes, 29 de abril de 2016

¿Puede la Inteligencia Artificial tener dilemas éticos?

Habrá sorprendido la reciente noticia sobre el sistema de Inteligencia Artificial (IA) Tay de Microsoft por el escándalo suscitado hace unas semanas. Este sistema intentaba emular a una joven de diecinueve años participando en conversaciones de twitter. Después de un día Microsoft tuvo que desconectar el sistema y pedir disculpas. Las razones: los comentarios sexistas, su orientación totalitaria, su negación del holocausto nazi y su adhesión a teorías conspirativas (Adjunto los links que detallan el suceso al final del post). 

¿Puede un sistema de Inteligencia Artificial distinguir entre el bien y el mal?.  Esta cuestión me ha recordado a uno de los cuentos de la obra legendaria "Yo Robot" de Isaac Asimov. En este libro se plantean las tres célebres leyes de la robótica como código moral. Son estas:  
1.Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2.Un robot debe obedecer las órdenes por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3.Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
"Yo Robot", plantea paradojas acerca de estas leyes. En uno de los cuentos, un robot presenta un comportamiento erróneo dando vueltas sin cesar alrededor de un laboratorio, sin razón aparente. Ante las órdenes de parar de la científica programadora que lo diseñó, el robot no obedece, violando la segunda ley. En el cuento se desvela que esta científica está enamorada, en secreto, de un colega  del laboratorio. Y en un momento del cuento, ella pregunta al robot si es correspondida. El robot averigua que su "ama" no es correspondida y que debería enfrentarse a un desengaño. Lo que hace entrar en contradicción al robot: no puede mentir (no puede dejar de cumplir la segunda ley) y al mismo tiempo no puede hacer daño a la protagonista (no puede incumplir la primera ley). Esta contradicción o "bucle" se expresa en la acción de dar vueltas alrededor del laboratorio. 
El juego de Isaac Asimov es inducir al lector -con unas leyes aparentemente simples - hacia trampas complejas. De hecho esperábamos del robot que haga una cosa y la contraria al mismo tiempo.  ¿Cuál es la buena? ¿Es mejor decir la verdad con riesgo que sea dolorosa, o es mejor evitar el dolor a pesar de no saber? El bien y el mal suelen definir comportamientos sociales que están fundamentados en la tradición. Pero el problema es más profundo. Isaac Asimov nos lleva a la reflexión de la ética, es decir, hacia la reflexión abstracta de las tradiciones morales. La ética se fundamenta en jerarquías de valores y además jerarquizar virtudes no es un proceso estático. ¿Siempre debemos decir la verdad con riesgo de herir?  ¿En todos los momentos de la vida? ¿Cuándo es mejor conocer y saber? ¿En qué contexto?
Y entonces ¿Qué esperábamos de un sistema de Inteligencia Artificial? ¿Un sistema de jerarquías éticas? Es muy difícil saber que ha ocurrido con Tay. Un sistema de inteligencia artificial que participa en redes sociales puede combinar algoritmos de aprendizaje (Deep Learning) con los de interpretación semántica. Si esto es ya complejo cuando se orienta a un sistema de inteligencia artificial en un tema concreto, seguramente lo es más en un entorno conversacional con temas múltiples. Tay desde luego no tuvo una teoria del conocimiento que diera contexto o sentido a palabras ordenadas de una determinada manera.
Por tanto, y desde mi punto de vista, el problema de Tay interpela a nuestras expectativas con respectos a las máquinas en su capacidad de juicio ético o su capacidad de reflexion sobre el conocimiento y el contexto. Algo muy relevante a medida que dotamos de mayor autonomía a las máquinas. La ética esconde un proceso de pensamiento extraordinariamente complejo que debe enfrentar paradojas y contradicciones. No interpelamos sólo a la racionalidad, sino a los valores.
Pero se me ocurre otra idea para la reflexion. Si Tay intentó hacerse "colega" de otros intervinientes en las redes sociales y supongamos por un momento que no hubo errores de diseño y Tay se limitó a seguir los comentarios más populares "de la manada". La pregunta es más incómoda: ¿Qué aprendió Tay de nosotros? ¿Qué tipo de opinión social - al menos la que se expresa en redes sociales - estamos construyendo? ¿Qué vemos en el espejo de Tay?


No hay comentarios: