Eso nos dicen en este artículo, en el que evalúan en qué medida distintas escuelas morales son más o menos aceptadas por el resto en términos de confianza puesta en las personas. Algo, por otro lado, perfectamente racional: estar en manos de un consecuencialista (o utilitarista) es bastante arriesgado...nunca sabes cuándo vas a estar en el lado malo de la ecuación.
Lo que ya no tiene demasiado sentido, en mi opinión, es la extensión que hacen a los robots. ¿Por qué vamos a programar a un robot con una lógica utilitaria? Podríamos programarle perfectamente con una lógica deontológica y listo. Por supuesto, eso no hará que tenga más alma, pero quizá sí que sea más confiable.
3 comentarios:
Jodó, Pedro, no sé que es peor si a) citar un artículo del "Grauniad", b) citar un artículo sobre AI de la prensa generalista o c) citar un artículo de psicología experimental de la susodicha prensa generalista...
El consecuencialismo no sólo es extremadamente popular, es la forma de razonar en la práctica de la más aplastante mayoría, lo que pasa es que la gente cuando usa su razón práctica no lo llama razonamiento moral, o aplicación de la ética, lo llama razón sin más, y no piensa que la disciplina que le proporciona el marco para hacerlo mejor es la filosofía (o, aún menos, la religión), sino la psicología o la economía (ambas empezaron como ramas de la primera...), y éstas son consecuencialistas "to the boot" (hasta la médula).
En la comunidad racionalista (que, inconscientes de la profunda irracionalidad en el fondo de su visión del mundo, tienden a darle más peso a la probabilidad -para mi tan remota como pare ser a todos los efectos despreciable- de surgimiento de una AI "fuerte") hay discusiones más finas sobre la posibilidad de otorgar un marco deontológico a los algoritmos básicos de valoración de los posibles cursos de actuación de esas hipotéticas AIs (buen ejemplo: https://slatestarcodex.com/2016/10/30/how-does-recent-ai-progress-affect-the-bostromian-paradigm/), y me parece que el consenso es que no sería posible... demasiado imprecisos a la hora de aplicarlos a casos concretos. Pero tampoco es que haya surgido (aún) un consenso alternativo para evitar el escenario de la AI "paperclip maximizer" que acaba con toda la vida del universo para convertir todos sus recursos en clips.
Ja, ja...tienes razón que es una combinación peligrosa...pero es que el objetivo era más bien provocar. Es cierto que el título seguramente no sea el más apropiado, el término popular se refiere más bien a la aceptación explícita (que no implícita).
En todo caso, dos reacciones:
- primero, la economía no es consecuencialista por sí misma. La escuela económica predominante sí lo es. Creo que siempre es importante aclarar esto, no es la disciplina, sino cómo se utiliza. De la psicología conozco menos, pero supongo que le pasará algo parecido.
- segundo: el que algo sea complicado no significa que no se pueda usar como alternativa. Sinceramente, algunos algoritmos deontológicos básicos me parecen mucho más sencillos de aplicar que un consecuencialismo incierto.
Ahora que lo pienso, casi todas las historias de Robots de Asimov se basan en la idea de que, si bien las tres leyes de la robótica son "deontologicas", todos los conflictos surgen cuando los robots interpretan las mismas haciendo algún tipo de cálculo consecuencialista.
Qué ganas me han entrado de leer Bóvedas de acero, cachis...
Publicar un comentario