Ante un Dilema Moral
Psicología de la Toma de Decisiones Éticas: Entre la Lealtad y la Justicia
1. ¿Qué es un Dilema Moral?
Cuando nos enfrentamos a un dilema moral, tenemos que tomar una decisión donde surgen «sentimientos enfrentados». Un dilema ético es una situación en la que los preceptos morales o las obligaciones de similar obligatoriedad ética se encuentran en conflicto, de forma que cualquier solución posible al dilema resulta moralmente problemática. Es una situación donde los principios morales que guían la conducta no permiten determinar de manera evidente lo correcto o incorrecto ante dos posibles cursos de acción.
Este tipo de dilemas requieren de una reflexión más o menos profunda sobre las alternativas de las que disponemos, así como del valor otorgado a los valores morales con los que nos regimos. A menudo nos tocará priorizar uno u otro valor, entrando ambos en conflicto de cara a tomar una decisión. Además, permiten ver que las cosas no son blancas o negras, y entender a personas que toman decisiones distintas a las propias.
«Un dilema moral se refiere a una situación en la que una persona se enfrenta a una elección entre dos opciones, ambas con implicaciones éticas y morales. Es una situación en la que no hay una opción clara y correcta, y existe la posibilidad de provocar daños o sufrimiento ante cualquier decisión tomada.»
Tipos de Dilemas Morales
Dilemas Hipotéticos
Situaciones ficticias diseñadas para explorar nuestras intuiciones morales. Son herramientas pedagógicas que permiten reflexionar sin consecuencias reales. Ejemplo: el dilema del tranvía.
Dilemas Reales
Situaciones cotidianas donde debemos tomar decisiones con implicaciones éticas concretas. Pueden involucrar acoso laboral, irregularidades, conflictos de lealtad o cuestiones profesionales.
Dilemas Abiertos
No se explicitan las consecuencias de las decisiones. Dependen de la capacidad del sujeto para imaginar ventajas y desventajas de cada opción.
Dilemas Cerrados
Las consecuencias están claramente definidas. La persona debe elegir sabiendo exactamente qué ocurrirá con cada alternativa.
2. El Conflicto Fundamental: Lealtad vs. Justicia
Los recientes acontecimientos sobre personas que han dejado al descubierto secretos sobre el funcionamiento interno de las empresas (whistleblowers) han puesto de relieve una temática fundamental en psicología moral. Las teorías sobre la moralidad que hasta ahora habían funcionado se ponen en tela de juicio, ya que no explican correctamente cómo un empleado integrado con sus compañeros y satisfecho con su trabajo puede poner en riesgo su futuro al denunciar irregularidades dentro de su empresa.
Investigadores de la Northwestern University han encontrado que la respuesta a este fenómeno se basa en nuestra moral, y en concreto en dos conceptos fundamentales: la lealtad y la justicia.
🤝 Lealtad
En este contexto, lealtad significa fidelidad a la empresa donde se trabaja y de la cual se cobra, así como a los jefes y compañeros, a pesar de que cometan irregularidades. Es un valor que prioriza los vínculos personales y grupales sobre principios abstractos.
⚖️ Justicia
Justicia implica denunciar aquello que es inadecuado y contrario a la moral, independientemente de quién lo lleve a cabo, ni del riesgo que conlleve sobre el propio empleo. Es un valor que prioriza los principios universales sobre los vínculos personales.
El Experimento de la Northwestern University
En un estudio publicado en el Journal of Experimental Social Psychology, los investigadores demostraron que las personas tienen ciertas «tendencias» morales por las que se rigen. Así, alguien que se guíe principalmente por la lealtad nunca denunciará una irregularidad. En cambio, aquella persona que se rige por la justicia denunciará cuando se presente una irregularidad en su empresa.
Metodología del Estudio
El estudio intentó comprobar cómo de «rígidas» son nuestras convicciones morales. Se pidió a 293 participantes que escribieran un breve ensayo sobre la justicia o la lealtad, según el grupo asignado. Posteriormente, tenían que resolver una situación donde debían adoptar una decisión sobre denunciar o no una irregularidad.
Resultados: Aquellos participantes que tuvieron la tarea de escribir sobre la justicia tomaron mayoritariamente la decisión de denunciar; mientras que aquellos que tuvieron que escribir sobre la lealtad casi todos decidieron no denunciar las irregularidades.
3. El Dilema del Tranvía: El Experimento Mental Más Famoso
El dilema del tranvía es uno de los experimentos mentales más conocidos en la ética moderna. Fue propuesto por primera vez en 1967 por la filósofa británica Philippa Foot y posteriormente desarrollado por Judith Jarvis Thomson en 1976. Plantea una situación dramática que expone la diferencia entre causar un mal y dejar que ocurra un mal.
🚃 Versión Clásica: La Palanca
Un tranvía fuera de control se dirige a toda velocidad hacia cinco personas atadas a la vía. Tú, observando la escena, tienes la opción de pulsar un botón o accionar una palanca para desviar el tranvía a otra vía diferente… pero en esa vía alternativa hay una sola persona atada.
¿Qué harías? ¿Pulsarías el botón?
Aproximadamente el 90% de las personas decide pulsar el botón, argumentando que salvan cinco vidas a cambio de una.
🌉 Versión del Puente: El Hombre Gordo
Hay una sola vía sin la opción de la palanca. La única posibilidad para salvar a cinco personas es empujar a una persona corpulenta desde un puente para frenar el tren con su cuerpo.
¿Lo empujarías?
A pesar de que el resultado matemático es el mismo (1 muerte vs. 5), la mayoría de las personas se niegan a empujar a la persona. ¿Por qué?
La Neurociencia del Dilema
El neurocientífico Joshua Greene de la Universidad de Harvard ha utilizado resonancia magnética funcional para estudiar qué partes del cerebro se activan ante estas dos versiones del dilema. Sus hallazgos son reveladores:
| Versión del Dilema |
Áreas Cerebrales Activadas |
Tipo de Procesamiento |
Respuesta Mayoritaria |
| Palanca (impersonal) |
Corteza prefrontal dorsolateral |
Razonamiento lógico, cálculo de resultados |
90% acciona la palanca |
| Puente (personal) |
Corteza prefrontal ventromedial, amígdala, ínsula |
Respuestas emocionales, procesamiento social |
Mayoría se niega a empujar |
Hallazgo Clave: La Proximidad Importa
La investigación demuestra que nuestras decisiones morales no son puramente racionales; están profundamente influenciadas por respuestas emocionales automáticas. La proximidad física al acto y el contacto directo con la «víctima» activan circuitos emocionales que modifican drásticamente nuestra decisión, aunque el resultado matemático sea idéntico.
Esto tiene implicaciones profundas: la tecnología puede funcionar como una «barrera» entre el acto y su resultado, facilitando decisiones que de otro modo serían emocionalmente intolerables.
4. El Desarrollo de la Moralidad: Teoría de Kohlberg
El psicólogo estadounidense Lawrence Kohlberg (1927-1987), de la Universidad de Harvard y discípulo de Piaget, desarrolló una de las teorías más influyentes sobre cómo las personas desarrollamos nuestro razonamiento moral a lo largo de la vida. Kohlberg concluyó que el desarrollo moral atraviesa tres niveles, cada uno dividido en dos etapas.
Nivel I: Moralidad Preconvencional (hasta ~9 años)
En este nivel, los niños todavía no hablan como miembros de la sociedad. Ven la moralidad como algo externo a sí mismos, como algo que los adultos les dicen que deben hacer.
Etapa 1: Castigo y Obediencia
La persona delega toda la responsabilidad moral a una autoridad. Lo que está bien o mal viene dado por las recompensas o castigos que otorga la autoridad. «Robar está mal porque te castigan».
Etapa 2: Individualismo e Intercambio
Se reconoce que hay diversos puntos de vista. El razonamiento es: «Si hago algo por otro, el otro tendrá que hacer algo por mí». Reciprocidad pragmática y egoísta.
Nivel II: Moralidad Convencional (adolescencia-adultos)
Se tiene en cuenta tanto los intereses individuales como las convenciones sociales acerca de lo que es bueno y malo. «Convencional» significa someterse a reglas, expectativas y convenciones de la sociedad y defenderlas precisamente porque son reglas de la sociedad.
Etapa 3: Buenas Relaciones Interpersonales
La gente debe atenerse a las expectativas de la familia y comunidad. Comportarse correctamente significa tener buenas intenciones y sentimientos interpersonales: amor, empatía, confianza, preocupación por los demás.
Etapa 4: Mantenimiento del Orden Social
Interés más amplio en la sociedad. Las leyes deben obedecerse para mantener el sistema que protege a todos. El «bien» es cumplir con el deber, mantener el orden social y el bienestar del grupo.
Nivel III: Moralidad Postconvencional (pocos adultos)
Los individuos entienden y aceptan las normas de la sociedad en la medida en que se basan en principios morales generales. Si estos principios entran en conflicto con las normas de la sociedad, el individuo postconvencional juzgará y actuará por principios más que por convenciones. Muy pocas personas alcanzan este nivel.
Etapa 5: Contrato Social
Surge la duda de si las normas y leyes son verdaderamente justas. Se reflexiona sobre qué hace a una sociedad realmente buena. Las leyes son susceptibles de mejora si no respetan los derechos fundamentales.
Etapa 6: Principios Universales
El individuo crea sus propios principios éticos, comprensivos, racionales y universalmente aplicables. Cuando una ley es injusta, cambiarla debe ser una prioridad. Muy pocos alcanzan esta etapa.
El Dilema de Heinz: Herramienta de Evaluación
Kohlberg utilizó dilemas morales para evaluar el nivel de desarrollo moral. El más famoso es el Dilema de Heinz: Un hombre debe decidir si robar un medicamento carísimo para salvar la vida de su esposa moribunda, cuando el farmacéutico se niega a bajarlo de precio o fiarlo.
La respuesta («sí debe robar» o «no debe robar») importa menos que el razonamiento detrás de ella. Una respuesta de Etapa 1 sería «no debe robar porque irá a la cárcel», mientras que una de Etapa 6 sería «el derecho a la vida es un principio universal que está por encima de la propiedad privada».
5. ¿Es Nuestra Moral Fija o Maleable?
A pesar de ser un estudio experimental, las conclusiones del estudio de Northwestern son claras: todos los días tenemos que enfrentarnos a distintas decisiones y lo hacemos en función de los conceptos morales interiorizados durante nuestra infancia. Pero esta moralidad puede ir cambiando en función de nuestras nuevas experiencias.
Factores que Modifican Nuestra Moralidad
Experiencias directas: Lo que vivimos personalmente tiene un impacto profundo en nuestros valores morales. Una persona que ha sido víctima de una injusticia puede desarrollar una mayor sensibilidad hacia ese tipo de situaciones.
Experiencias vicarias: Observar las experiencias de otros también modifica nuestra moral. Ver las consecuencias de decisiones ajenas nos ayuda a calibrar nuestros propios valores.
Demandas del exterior: Las normas de conducta, manuales de comportamiento y reglas establecidas dentro de organizaciones (empresas, instituciones) influyen en nuestras decisiones.
Medios de comunicación: La información y publicidad recibida por parte de los medios masivos de comunicación puede hacer variar «temporalmente» nuestra moralidad en favor de un comportamiento u otro.
Personas de referencia: Los modelos a seguir y figuras de autoridad moral (padres, mentores, líderes) tienen un impacto significativo en cómo configuramos nuestros valores.
Diferencia con la Personalidad
Aunque el componente moral no es parte de nuestra personalidad, sí va a tener un desarrollo parecido: los primeros años van a ser determinantes para interiorizar las normas y reglas de la sociedad en la que nos desarrollamos.
Pero hay una diferencia crucial: A diferencia de la personalidad, la moralidad va a ser más variable, siendo susceptible de ser más flexible o rígida en función de las experiencias que en cada momento se van teniendo, y maleable desde el exterior, sobre todo por personas que sean nuestros referentes o por los medios de comunicación masivos.
6. El Cerebro Moral: Neurociencia de las Decisiones Éticas
La investigación neurocientífica moderna ha revelado que nuestras decisiones morales involucran una compleja interacción entre múltiples sistemas cerebrales. No existe un «centro moral» único, sino una red distribuida que integra emociones, razonamiento y experiencia.
| Región Cerebral |
Función en Decisiones Morales |
Tipo de Procesamiento |
| Corteza Prefrontal Ventromedial |
Integración de emociones y cognición en decisiones sociales |
Emocional-evaluativo |
| Corteza Prefrontal Dorsolateral |
Razonamiento lógico, cálculo de consecuencias |
Racional-calculador |
| Amígdala |
Respuestas emocionales automáticas, detección de amenazas morales |
Emocional-automático |
| Ínsula |
Sensaciones de repugnancia, respuestas viscerales a violaciones morales |
Visceral-intuitivo |
| Unión Temporoparietal |
Atribución de intenciones, perspectiva del otro |
Cognitivo-empático |
| Corteza Cingulada Anterior |
Detección de conflicto, monitoreo de errores morales |
Regulador-supervisor |
El Modelo de Proceso Dual de Joshua Greene
Greene propone que tenemos dos sistemas morales que a veces entran en conflicto:
Sistema 1 (Automático/Emocional): Respuestas rápidas, intuitivas, basadas en emociones. Nos dice «empujar a alguien está MAL» sin necesidad de razonar por qué.
Sistema 2 (Controlado/Racional): Respuestas lentas, deliberativas, basadas en cálculo de consecuencias. Nos dice «cinco vidas valen más que una, matemáticamente».
El conflicto entre estos sistemas explica por qué el dilema del tranvía nos resulta tan perturbador: ambos sistemas dan respuestas diferentes y debemos «elegir» a cuál hacer caso.
7. Las Grandes Tradiciones Filosóficas ante el Dilema
Utilitarismo (Consecuencialismo)
Representantes: Jeremy Bentham, John Stuart Mill
Principio: Las decisiones correctas son las que proporcionan menos sufrimiento y más felicidad al mayor número de personas.
Ante el tranvía: Siempre se debe accionar la palanca o empujar a la persona. 5 vidas > 1 vida, matemáticamente.
Deontología
Representante: Immanuel Kant
Principio: Existen deberes morales absolutos que no pueden violarse sin importar las consecuencias. «Usar a una persona como medio está mal».
Ante el tranvía: Nunca se debe empujar a la persona; está mal usar a alguien como «herramienta» para salvar a otros.
Ética del Cuidado
Representante: Carol Gilligan
Principio: Énfasis en la empatía, las relaciones y el contexto interpersonal. La moral no es solo justicia abstracta.
Ante el tranvía: ¿Qué pasaría si la persona sola fuera un ser querido? El contexto relacional importa.
Doctrina del Doble Efecto
Origen: Teología moral católica (Francisco de Vitoria, Francisco Suárez)
Principio: Hay diferencia entre la muerte directa (intencionada) y la muerte indirecta (efecto colateral no buscado).
Ante el tranvía: La palanca es moralmente distinta al empujón: una causa muerte como efecto secundario, la otra como medio.
8. Dilemas Morales en el Siglo XXI
Inteligencia Artificial y Vehículos Autónomos
El dilema del tranvía ha cobrado nueva relevancia con el avance de los vehículos autónomos. ¿Cómo programamos la «moral» de estos coches? Si un vehículo autónomo debe elegir entre atropellar peatones o desviarse y matar a su pasajero, ¿qué debería hacer?
El Proyecto «Moral Machine» del MIT
El MIT desarrolló un experimento masivo recopilando millones de opiniones humanas sobre cómo deberían decidir los coches autónomos en escenarios de vida o muerte. Los resultados mostraron diferencias culturales significativas: algunas culturas priorizan salvar a los jóvenes sobre los ancianos, otras a los peatones sobre los pasajeros, etc.
La pregunta incómoda: ¿Debería el coche autónomo seguir un principio utilitarista (minimizar víctimas totales) incluso si eso significa sacrificar a sus pasajeros?
Dilemas Profesionales Contemporáneos
Medicina
Triaje en situaciones de escasez, consentimiento informado, decisiones de final de vida, asignación de órganos. El médico debe equilibrar autonomía del paciente y beneficencia.
Psicología
Secreto profesional vs. protección de terceros, neutralidad en peritajes judiciales, conflictos de interés, límites de la relación terapéutica.
Derecho
Defensa de clientes que se saben culpables, revelación de información privilegiada, equilibrio entre verdad jurídica y deber de defensa.
Empresas
Denunciar irregularidades (whistleblowing), conflictos de lealtad, decisiones que afectan empleos, responsabilidad social corporativa.
Periodismo
Protección de fuentes vs. verdad pública, sensacionalismo vs. responsabilidad, privacidad de figuras públicas.
Tecnología
Privacidad de datos, algoritmos de recomendación, uso militar de IA, drones autónomos en conflictos bélicos.
9. Modelos para la Resolución de Dilemas Éticos
Dado que enfrentamos dilemas morales constantemente, se han desarrollado modelos estructurados para abordarlos de manera sistemática. Estos modelos proporcionan un marco para la acción responsable.
El Modelo de Cuatro Componentes de James Rest
1. Sensibilidad Moral: Reconocer que existe un componente ético en la situación. Identificar qué elementos tienen implicaciones morales.
2. Juicio Moral: Determinar qué curso de acción es moralmente correcto. Aplicar principios éticos y considerar alternativas.
3. Motivación Moral: Priorizar los valores morales sobre otros valores (económicos, estéticos, personales). Tener la voluntad de actuar éticamente.
4. Carácter Moral: Tener el valor y la perseverancia para llevar a cabo la acción moral, superando obstáculos y presiones.
La Fórmula SAD (Situación-Análisis-Decisión)
Desarrollada por Louis Alvin Day, integra elementos del pensamiento crítico en el razonamiento moral:
Los Tres Pasos de la Fórmula SAD
S – Situación: Identificar los hechos y obtener información suficiente del problema para comprender el contexto del dilema ético. ¿Qué ha ocurrido? ¿Quiénes están involucrados?
A – Análisis: Esta es la parte más larga del ejercicio. Requiere identificar los principios y valores implicados, aplicar las teorías morales y considerar las alternativas éticas. ¿Qué valores entran en conflicto?
D – Decisión: Describir en una línea la conducta a seguir, fundamentarla y ponerla en práctica. Posteriormente, revisar y evaluar los resultados.
10. Reflexiones Finales: La «Debilidad» de Nuestra Moral
Los estudios presentados muestran la «debilidad» de nuestra moral, con la cual nos regimos a la hora de tomar cualquier decisión en nuestra vida. No somos agentes morales perfectamente consistentes; nuestras decisiones están influenciadas por factores que a menudo desconocemos.
Lo Que Hemos Aprendido
1. Nuestras decisiones morales no son puramente racionales; están profundamente influenciadas por respuestas emocionales automáticas.
2. Pequeños cambios en cómo se presenta un dilema (palabras, proximidad, contacto físico) pueden producir cambios drásticos en nuestras decisiones.
3. La moralidad se desarrolla por etapas, pero no todos alcanzan los niveles más elevados de razonamiento moral.
4. Nuestra moral es más maleable de lo que nos gustaría creer, influenciada por experiencias, contexto y manipulación externa.
5. Existen herramientas y modelos que pueden ayudarnos a tomar decisiones más reflexivas y consistentes.
¿Qué haríamos nosotros si fuésemos testigos de alguna irregularidad por parte de algún compañero o jefe? ¿Lo denunciaríamos o lo «dejaríamos pasar»? La respuesta, según la investigación, depende de qué valor —lealtad o justicia— esté más activo en nuestra mente en ese momento. Y eso, sorprendentemente, puede depender de algo tan simple como qué estábamos pensando minutos antes.
«Los dilemas morales no tienen respuestas fáciles porque exponen la tensión fundamental entre nuestras emociones y nuestra razón, entre nuestros vínculos personales y nuestros principios abstractos, entre lo que sentimos y lo que pensamos. Esa tensión es, en última instancia, lo que nos hace humanos.»
Referencias Científicas
Dilemas Morales y Psicología:
Greene, J. D., Nystrom, L. E., Engell, A. D., Darley, J. M., & Cohen, J. D. (2004). The neural bases of cognitive conflict and control in moral judgment. Neuron, 44(2), 389-400.
Rest, J. (1979). Development in Judging Moral Issues. Minneapolis: University of Minnesota Press.
Teoría del Desarrollo Moral:
Kohlberg, L. (1958). The Development of Modes of Moral Thinking and Choice in the Years 10 to 16. (Tesis doctoral). University of Chicago.
Kohlberg, L. (1992). La psicología del desarrollo moral. Bilbao: Desclée de Brouwer.
Gilligan, C. (1985). La moral y la teoría: Psicología del desarrollo femenino. México: FCE.
Neurociencia de las Decisiones Morales:
Greene, J. D. (2013). Moral Tribes: Emotion, Reason, and the Gap Between Us and Them. New York: Penguin Press.
Bechara, A., Damasio, H., Damasio, A. R., & Lee, G. P. (1999). Different contributions of the human amygdala and ventromedial prefrontal cortex to decision-making. Journal of Neuroscience, 19(13), 5473-5481.
Dilema del Tranvía:
Foot, P. (1967). The Problem of Abortion and the Doctrine of the Double Effect. Oxford Review, 5, 5-15.
Thomson, J. J. (1976). Killing, Letting Die, and the Trolley Problem. The Monist, 59(2), 204-217.
Ética Profesional:
Ruiz-Cano, J., et al. (2015). Revisión de modelos para el análisis de dilemas éticos. Boletín Médico del Hospital Infantil de México, 72(2), 89-98.
Amaya, L., & Berrío-Acosta, G. M. (2014). Dilemas Éticos. Portal de Ética Psicológica, Colombia.
«Ante un dilema moral, lo que decidimos revela no solo quiénes somos, sino también quiénes podemos llegar a ser. La moral no es un destino fijo, sino un camino que construimos con cada decisión.»