Conferencia ¡Siri, no te entiendo!

27 de Junio 2019

La Inteligencia Artificial ha penetrado todos los rincones de nuestras vidas, desde las redes sociales y los motores de búsqueda en Internet, hasta ámbitos como el diagnóstico médico, la bolsa de valores y las decisiones judiciales. En 2016 la Unión Europea promulgó el “derecho a una explicación”: el derecho a que una persona que se […]

La Inteligencia Artificial ha penetrado todos los rincones de nuestras vidas, desde las redes sociales y los motores de búsqueda en Internet, hasta ámbitos como el diagnóstico médico, la bolsa de valores y las decisiones judiciales. En 2016 la Unión Europea promulgó el “derecho a una explicación”: el derecho a que una persona que se vea afectada por una decisión tomada por un algoritmo obtenga una explicación de esa decisión. La decisión debe tener efectos jurídicos o impactar significativamente la vida del demandante. El problema es que los modelos de aprendizaje automático (machine learning) son entrenados para tomar decisiones, pero una vez terminado el proceso de entrenamiento, el algoritmo comienza a funcionar autónomamente, sin que sea posible determinar exactamente cómo llega a sus decisiones. Se convierte en una caja negra. En esta charla exploraré cómo se puede entender el concepto de explicación en un contexto que difiere enormemente del ámbito científico y cotidiano, donde generalmente tenemos acceso epistémico a todos los elementos que permiten explicar todo tipo de fenómenos.

andres paez

Andrés Páez es Profesor Asociado del Departamento de Filosofía de la Universidad de los Andes, Colombia, y director del Grupo de Investigación en Lógica, Epistemología y Filosofía de la Ciencia. Es M.A. y Ph.D. en Filosofía de The City University of New York, Graduate Center. Ha sido profesor visitante en la Universidad de California, la UNAM y la Universidad de Gerona. Su trabajo se concentra en tres áreas principales: la epistemología jurídica, la social y la formal. Entre sus publicaciones recientes se encuentran: “The Pragmatic Turn in Explainable Artificial Intelligence” (Minds and Machines, 2019), “Reputation and Group Dispositions” (Review of Philosophy and Psychology, 2018), “Explanation, Understanding, and Belief Revision” (Logic and Philosophy of Logic, 2018) y “Umbrales y Prototipos: Introducción a la Discusión en torno a los Estándares de Prueba” (Discusiones, 2017).

SIRI no te entiendo