La ética de las máquinas en el mundo real: lecciones de Asimov
Íyad, gracias por ayudar a pensar
y unirte a mí aquí hoy para las conversaciones sobre el comportamiento de las máquinas que hemos estado teniendo con varios académicos, y tú fuiste uno de los que pensó en tener esta serie. Así que es genial tenerte aquí y charlar. Entonces, una de las cosas que te ha pasado recientemente es que has tenido un enorme éxito en un excelente proyecto que ha estado en marcha durante varios años en tu grupo, The Moral Machine. Y a raíz de eso has recibido mucha atención positiva por todo el trabajo que has hecho, por los millones de personas a las que has llegado y las opiniones que les has hecho tener sobre ese proyecto, y también un poco de notoriedad cuando algunas personas se han mostrado un poco en contra. Pero eso representó mucho trabajo, especialmente como alguien que vio un poco los detalles internos. Mucho trabajo se invirtió en ese proyecto. Y una de las cosas con las que quería empezar fue, ¿qué sigue? ¿cómo pasa alguien de un proyecto tan grande como ese a hacer algo más en el ámbito académico o simplemente en la ciencia en general?
Ojalá tuviera una respuesta. Ojalá tuviera una fórmula de cómo crear ideas para más proyectos. Pero creo que siempre me encuentro haciendo, en el lenguaje de la ciencia de la computación, una combinación de explotación y exploración. Por un lado, explotando ideas que ya existen.
¿Cómo ves la Máquina Moral? ¿Cuál?
Sí, pensemos en la Máquina Moral. La forma en que sucedió fue realmente que... yo tenía una relación colaborativa con algunos psicólogos. Tengo un trasfondo en IA. Estábamos trabajando en algo completamente irrelevante para la IA, que era el aprendizaje social en redes. Pero yo seguía interesado en los avances en IA y en cómo eso iba a cambiar el mundo. Y seguía escuchando sobre los coches autónomos tomando decisiones moralmente cargadas.
Sí, y luego había muchos artículos escritos en diferentes lugares como The New Yorker y The Atlantic, sobre estas preguntas difíciles acerca de cómo el coche iba a tomar decisiones éticas. Al mismo tiempo, estaba leyendo, me gusta leer fuera de mi campo, y estaba leyendo Moral Tribes de Josh Green. Así que, Josh Green es un psicólogo de Harvard que ha estado pensando, también es filósofo, que ha estado pensando durante mucho tiempo en cómo se pueden usar dilemas éticos de la filosofía para descubrir cómo las personas normales piensan en el intercambio moral.
Y tomó un problema inicial de la filosofía y lo sometió a las personas, lo presentó a las personas y midió sus respuestas, e incluso las puso en máquinas de resonancia magnética para escanear sus cerebros mientras tomaban esas decisiones, para ver qué partes de sus cerebros estaban activas. Y aprendió mucho, mucho sobre el razonamiento moral humano a partir de esos estudios.
Para mí, fue fascinante porque era una forma experimental de estudiar la ética, que es algo que solemos considerar como algo objetivo. Fijo, dado, cada vez que estás [tr. inaudible].
Sí, dado, exactamente. O viene de arriba o viene de personas muy inteligentes que desarrollan las mejores herramientas para que el resto de nosotros las sigamos. Pero luego, resulta que he descubierto cuanto más he leído, que mucha ética es socialmente construida y está cognitivamente construida, y es algo que aprendemos y construimos como sociedad mientras damos forma a las normas que nos gobiernan, y es por eso que se observan muchas diferencias culturales entre diferentes sociedades.
En cualquier caso, fue la confluencia de leer esos artículos sobre algo que nunca pensé que correría experimentos en ese campo, que se veían así, pero yo estaba fascinado por el trabajo de Josh Green, y también fascinado por la IA. Y luego, en algún momento comprendí que tal vez deberíamos hacer esto. Deberíamos preguntar a la gente de forma experimental qué piensan que deberían hacer los coches autónomos en una situación moralmente cargada. Así es como sucedió. No fue planeado. Supongo que sí, pero los bloques de construcción estaban allí en el momento adecuado y todo siguió.
Sí, sí. Eso es muy interesante. Entonces, una de las cosas que eso me hace preguntar de inmediato, dado que estas son conversaciones sobre el comportamiento de las máquinas, es si considerarías que el trabajo que hiciste para evaluar las preferencias éticas de las personas con respecto a la IA, ¿considerarías eso como comportamiento de máquinas? Y si no, ¿cuál es la intersección allí para obtener las preferencias sociales con respecto al comportamiento de la IA? Pero, ¿cómo se traza esa distinción?
Sí, creo que esa es una muy buena pregunta. Entonces, de alguna manera, lo que hicimos en el experimento de la Máquina Moral es que les presentamos a las personas dilemas éticos. Les describimos un caso hipotético en el que un vehículo tiene que elegir entre atropellar a un niño o a dos adultos. Y no hay otra opción. Y tienes que suspender esta creencia, solo por un momento, para obligarte a pensar en cuál es el valor más importante aquí. ¿Es protestar a los jóvenes o salvar más vidas por ejemplo?
Y en este caso, hay una máquina que es capaz de tomar decisiones morales y luego hay un ser humano en este caso, el participante experimental, la persona que está jugando con la Máquina Moral, tiene una preferencia en particular sobre lo que la máquina debería hacer. Sí.
Ahora, creo que necesitas hacer ambos. Inicialmente, me interesaba saber qué piensan las personas que deberían hacer las máquinas. ¿Cuáles son los tabúes que las máquinas nunca deberían realizar? ¿Cuáles son los principios generales? ¿Son similares a lo que esperamos que otras personas hagan en estos ciertos escenarios, o son-, ¿Puedes extraer las leyes de Asimov de las preferencias de las personas y cosas así o-, Entonces, Asimov... supongo que Asimov es un buen ejemplo del enfoque contrario, el enfoque de la negación. Al diciendo explícitamente cuáles son ellas desde el principio. Exactamente. Entonces, Asimov establece tres leyes de la robótica. Los robots no deben dañar a los seres humanos, no deben desobedecer a los seres humanos, no deben permitir que se hagan daño. Y estos están estratificados, por lo que la primera ley es la más importante. E idealmente, todo lo demás debería seguir esas leyes. Y, por supuesto, eso nunca sucede. Por eso ese libro es interesante. Sí. Exactamente. Pero en la realidad, porque nuestras normas y leyes son en última instancia socialmente construidas a través de un proceso muy largo de evolución cultural, y así sucesivamente, entonces es muy interesante escuchar lo que las personas tienen que decir sobre estas preguntas, y sondearlas. Y tenemos métodos para sondear y averiguar exactamente qué cambia sus preferencias. ¿Qué exactamente les hace cambiar de preferencia, por así decirlo? ¿Es un solo factor? ¿Es una combinación de factores? Y así sucesivamente. ¿Y estas cosas varían según la cultura? Y así sucesivamente. Exploramos algunas de estas preguntas en el artículo, e identificamos de hecho diferencias interculturales y cosas que son preferencias más o menos universales, por ejemplo, salvar a los jóvenes, y así sucesivamente.
Ahora, pero todo esto es sobre lo que las personas piensan que la máquina debería estar permitida a hacer, o debería hacer, ¿sabes qué es capaz hacer la máquina en primer lugar? O qué motivación tienen la máquina o los fabricantes de la máquina en primer lugar. Entonces no creo que puedas... Realmente no tienes la imagen completa sin hacer ambas preguntas. Necesitas entender si una máquina es capaz de pensar lo suficientemente rápido acerca de un escenario dado. ¿Es capaz de detectar, por ejemplo, si alguien es un niño o un adulto, o si alguien está cruzando o no? Porque si puede, entonces la otra pregunta es completamente inútil. Sí. Sí, entonces se complementan en ese sentido. Sí, por completo. Otra pregunta muy interesante que se me ocurre es, dado que estas son conversaciones sobre el comportamiento de las máquinas, ¿considerarías que el trabajo que hiciste al evaluar las preferencias éticas de las personas en torno a la IA, lo considerarías como comportamiento de máquinas? Y si no es así, ¿cuál es la intersección allí para obtener las preferencias sociales con respecto al comportamiento de la IA? ¿Y cómo trazas esa distinción? Sí, eso es una muy buena pregunta. Entonces, de alguna manera, lo que hicimos en el experimento de la Máquina Moral fue presentar a las personas dilemas éticos. Describimos un escenario hipotético en el que un vehículo tiene que elegir entre atropellar a un niño o a dos adultos. Y no hay otra opción. Y tienes que suspender esta creencia, solo por un momento, para obligarte a pensar en cuál es el valor más importante aquí. ¿Es protestar a los jóvenes o salvar más vidas por ejemplo? Y en este caso, hay una máquina que es capaz de tomar decisiones morales y luego hay un ser humano en este caso, el participante experimental, la persona que está jugando con la Máquina Moral, tiene una preferencia en particular sobre lo que la máquina debería hacer. Sí. Ahora, creo que necesitas hacer ambos. Inicialmente me interesaba saber qué piensan las personas que las máquinas deberían realizar. ¿Cuáles son los tabúes que las máquinas jamás deberían hacer? ¿Cuáles son los principios generales? ¿Son similares a lo que esperamos que otras personas hagan en estos ciertos escenarios, o son-, ¿Puedes extraer las leyes de Asimov de las preferencias de las personas y cosas así o-, Entonces Asimov...supongo que Asimov es un buen ejemplo del enfoque contrario, el enfoque de la manifestación. Diciendo explícitamente cuáles son ellas desde el principio. Exactamente. Así, Asimov establece tres leyes de la robótica. Los robots no deben dañar a los seres humanos, no deben desobedecer a los seres humanos, no deben permitir que se hagan daño. Y estos están estratificados, por lo que la primera ley es la más importante. Y idealmente, todo lo demás debería seguir esas leyes. Y, por supuesto, eso nunca sucede. Por eso ese libro es interesante. Sí. Exactamente. Pero en la realidad, porque nuestras normas y leyes son en última instancia socialmente construidas a través de un proceso muy largo de evolución cultural, y así sucesivamente, entonces es muy interesante escuchar lo que las personas tienen que decir sobre estas preguntas, y sondearlas. Y tenemos métodos para sondear y averiguar exactamente qué cambia sus preferencias. ¿Qué exactamente les hace cambiar de preferencia, por así decirlo? ¿Es un solo factor? ¿Es una combinación de factores? Y así sucesivamente. ¿Y estas cosas varían según la cultura? Y así sucesivamente. Exploramos algunas de estas preguntas en el artículo, e identificamos de hecho diferencias interculturales y cosas que son preferencias más o menos universales, por ejemplo, salvar a los jóvenes, y así sucesivamente. Ahora, pero todo esto es sobre lo que las personas piensan que la máquina debería estar permitida a hacer, o debería hacer, ¿sabes qué es capaz hacer la máquina en primer lugar? O qué motivación tienen la máquina o los fabricantes de la máquina en primer lugar. Entonces no creo que puedas... Realmente no tienes la imagen completa sin hacer ambas preguntas. Necesitas entender si una máquina es capaz de pensar lo suficientemente rápido acerca de un escenario dado. ¿Es capaz de detectar, por ejemplo, si alguien es un niño o un adulto, o si alguien está cruzando o no? Porque si puede, entonces la otra pregunta es completamente inútil. Sí, tienen razón en que muchos de los problemas ambientales y de comportamiento de las interacciones humano-máquina son mucho más complejos que los problemas en los que los científicos de la computación han invertido la mayor parte de su atención en las últimas décadas. Por ejemplo, si consideramos el comportamiento de un algoritmo de aprendizaje automático que decide qué anuncios publicitarios mostrar a los usuarios en función de su historial de navegación y otros datos, se vuelve bastante claro que hay muchas variables en juego. ¿Qué tipo de contenido prefieren los usuarios? ¿Cuáles son sus prioridades y necesidades? ¿Cómo se pueden evitar los sesgos y las manipulaciones? ¿Cómo se puede maximizar el valor para la empresa y para el usuario al mismo tiempo? Estas son preguntas difíciles de responder y que requieren una comprensión profunda tanto de la tecnología como del comportamiento humano. Y ahí es donde entran en juego los expertos en biología y ecología. Han desarrollado marcos conceptuales y herramientas analíticas para comprender la complejidad de los sistemas biológicos, incluido el comportamiento de los organismos en su entorno. Estos enfoques pueden aplicarse y adaptarse al estudio del comportamiento de las máquinas, ayudándonos a abordar preguntas clave sobre cómo los algoritmos interactúan con los humanos y cómo afectan a las sociedades y al medio ambiente. Además, los expertos en biología y ecología también pueden ofrecer perspectivas valiosas sobre la ética del comportamiento de las máquinas y las implicaciones para el bienestar humano y el equilibrio ecológico. En resumen, al sacar al estudio del comportamiento de las máquinas de su enfoque tradicional en la informática y la ingeniería hacia un marco más amplio que incluya conceptos y metodologías de la biología y la ecología, podemos obtener una comprensión más completa y multidisciplinaria de este campo emergente y sus implicaciones en nuestra sociedad.