viernes, 4 de marzo de 2016


¿Cómo persuadir a un tribunal? 

Buenísimo. Se puede aprender muchísimo de lo que dice José María de la Jara en el video. A lo dicho por José María se le podría agregar varias de las propuestas sobre arquitectura de la elección, que plantean Cass Sunstein y Richard Thaler, sobre la arquitectura de la elección, para mejorar la forma como resuelven los jueces.



Lo importante de la exposición de José María, es que nos muestra como estamos expuestos a ser manipulados o a dejarnos llevar por nuestros sesgos cognitivos, de ahí la importancia del diseño del proceso; de las reglas sobre cómo se presentan los argumentos; qué se admite y qué se rechaza; cómo se evalúa la evidencia.

Ahora bien, en afán contributivo a la excelente presentación de José María, me parece que la palabra persuasión lo utiliza en el sentido de “seducción” (término usado por el profesor Luis Vega), que implica que uno utiliza una serie de técnicas para que alguien (en este caso, el Juez) haga lo que uno quiere. Cuando se entiende la persuasión como "seducción" no me importa mi interlocutor, sino solo mis propios intereses y lograr que el tercero se comporte en función a mis intereses. Esa forma de entender la persuasión es peligrosa, sobre todo, en el caso del litigio.

La persuasión también puede ser entendida como la actividad de argumentar sobre asuntos públicos para llegar a la verdad y tomar la mejor decisión posible de acuerdo a los hechos probados de un caso. Este es un sentido de la persuasión que me parece más adecuado para el contexto del Derecho.

Un aspecto importantísimo que creo debe reevaluarse es el papel del Juez y sus asistentes en la dirección del debate y en la producción y actuación de pruebas. También debería evaluarse el entrenamiento que deben recibir todos ellos para evitar la manipulación del proceso. En este caso, ellos realizan decisiones repetidas, lo cual les permitiría afinar sus procesos de razonamiento y detectar cualquier atisbo de manipulación. Para ello, creo que es necesario que se les entrene en teoría de la argumentación y del razonamiento.

Los abogados también tienen un papel importante a cumplir. Ellos tienen la labor de proporcionar los mejores argumentos al Juez para que él sepa qué ocurrió y decida qué es lo correcto hacer bajo las circunstancias del caso. Si el Juez se da cuenta que lo quieren manipular, éste tiene el deber de sancionarlos y eliminar cualquier atisbo de manipulación del proceso.

A partir de lo anterior, me parece que líneas de investigación interesantes serían sobre (i) cómo diseñar el proceso de la mejor forma posible para llegar a saber qué ocurrió en un caso; y (ii) cuál debe ser la mejor respuesta posible una vez que se conocen los hechos del caso.


miércoles, 3 de febrero de 2016



Cuando los jueces no pueden hacer matemáticas, la justicia sufre.
Por Leila Schneps y Coralie Colmez.

El martes, la Corte Suprema de Italia revocó la absolución de Amanda Knox, acusada del asesinato de Meredith Kercher en el 2007, una británica de 21 años de edad, quien era, por esa época, compañera de cuarto de Knox en Perugia, Italia.

En el 2011, un tribunal de apelaciones anuló las condenas por asesinato 2009 de la señorita Knox, una estudiante de intercambio de Seattle, y su ex novio, Raffaele Sollecito, y dispuso su excarcelación. Ahora, el Tribunal de Casación de Italia ha anulado esa decisión que envía una onda nueva y extraña en un caso que ha fascinado, durante años, a muchos en todo el mundo.

El caso Knox tiene suficiente detalles sensacionales para mantener las páginas de los tabloides llenos. Por lo menos, 10 libros se han escrito sobre este caso, entre ellas una por la misma señorita Knox, cuyas memorias se publicarán el próximo mes. Pero uno de los aspectos de este caso – como tanto otros, lamentablemente – merece mucha más atención de la que recibe: mucho del innecesario drama ha sido resultado de una equivocada aplicación de las matemáticas.

Los jueces y abogados han cometido errores en el cálculo de las probabilidades de los eventos, que van desde el ratio de correspondencia del ADN a las posibilidades de muerte accidental, han enviado a gente inocente a la cárcel, y, tal vez, se ha dejado que los asesinos caminen libremente.

El Tribunal de Casación aún no ha explicado públicamente los motivos de su decisión. Pero la equivocación del Tribunal de Apelaciones en entender cómo funciona la probabilidad de ocurrencia de un evento puede jugar muy bien un papel.

Una de las piezas más importantes de evidencia fue obtenida de un cuchillo en el apartamento de Rafael Sollecito que, de acuerdo a un científico forense, contenía una pequeña huella del ADN de la víctima. A pesar de que la identificación de la muestra de ADN con la señorita Kercher parecía clara, había muy poco material genético para obtener un resultado totalmente fiable, por lo menos hasta el año 2007.

Sin embargo, para el momento en que se decidió la apelación de la señorita Knox en el 2011, las técnicas habían avanzado lo suficiente como para hacer un nueva examen del cuchillo, lo cual fue pedido por el fiscal. Sin embargo, el Juez se negó. ¿Cuál fue su razonamiento? Si la comunidad científica reconoce que una prueba en una muestra tan pequeña no puede determinar la identidad de una persona más allá de toda duda razonable; luego tampoco podría un segundo test sobre una muestra aun más pequeña.

Cualquier problema que el juez podría haber tenido sobre la confiabilidad de la prueba de ADN, su razonamiento demostraría una clara falacia matemática: asumir que la repetición de la prueba no nos podría decir nada acerca de la fiabilidad de los resultados originales. De hecho, hacer una prueba dos veces y obtener el mismo resultado nos dice algo acerca de la exactitud del primer resultado. Conseguir el mismo resultado después de una tercera prueba le daría aún más credibilidad al descubrimiento original.

Imaginemos, por ejemplo, que se lanza una moneda al aire y cae en cara 8 o 9 veces de cada 10. Se podría sospechar que la moneda está sesgada. Ahora, supongamos que se tira otras 10 veces la moneda y, de nuevo, se obtienen 8 o 9 caras. ¿Esto no agregaría algo a nuestra convicción de que algo está mal con la moneda? Debería, ¿no cree?

El rechazo del juez para reevaluar el cuchillo – por lo menos basado en la idea de que una nueva prueba confirmatoria no podría decirnos nada acerca de la posibilidad de que el ADN fuera coincidente – fue un grave error, que echó por tierra la oportunidad de llegar a la verdad en el caso del homicidio de la señorita Kercher.

Vamos a dejar que otros decidan si la señorita Knox es culpable o no. Pero los efectos nocivos de aplicar mal las matemáticas han sido claros en otros casos.
El errado testimonio de un testigo experto ayudó a condenar a Lucia de Berk, una enfermera holandesa acusada de asesinar a varios pacientes, y la envió a prisión durante seis años hasta que su condena fue revocada en el 2010.

Los fiscales de los Países Bajos acusaron a la señora de Berk de matar a niños enfermos y a ancianos, quienes se pensó – inicialmente – murieron de causas naturales, a partir de la gran cantidad de víctimas mortales que se produjeron durante su guardia. Un estadístico propuesto por el fiscal utilizó una ridícula metodología, donde indicó que la probabilidad de que las muertes fueran naturales era de 1 en 342 millones.

Llevó una agotadora pelea legal, dos apelaciones fallidas y un comité de expertos en estadísticas para convencer a los jueces que el cálculo estaba viciado profundamente – que el único crimen de la señora De Berk era tener mala suerte. [Al parecer, la principal prueba para condenar a la señora De Berk fue esta prueba estadística. Este tipo de prueba si puede ser útil en un caso, pero la metodología con la que se realiza tiene que ser cuidadosa y se debe ser claro qué se puede inferir de ella.] 

En un caso que sacudió a Gran Bretaña, Sally Clark, una joven abogada que perdió a sus dos bebés de “muerte en la cuna” (muerte súbita de un bebé sin causa médica aparente) fue condenada erróneamente, en 1999, de haberlos asesinado. A falta de cualquier evidencia de abuso, la condena se basó en un cálculo independiente por un perito médico que llegó a la conclusión de que las probabilidades de que ocurriesen dos muertes en la cuna "de una familia de la condición social de la señora Clark” eran una en 73 millones. (De hecho, en Gran Bretaña, hay muertes de doble cuna cada dos años).

La condena a la señora Clark, al igual que la de la señora de Berk, fueron finalmente revocadas, pero sólo después de que la Royal Statistical Society ofreció un riguroso análisis de los cálculos realizados por el testigo experto de la fiscalía. Lamentablemente, la señora Clark no pudo rehacer su vida. Ella murió de intoxicación alcohólica aguda en el año 2007, cuatro años después de su liberación. 

Muchos años atrás, el profesor de derecho de Harvard, Laurence H. Tribe escribió un artículo donde crítico ardorosamente la utilización de las matemáticas en los procesos judiciales, diciendo que la "grandiosidad prepotente" de los números tiende a "empequeñecer" a otras pruebas. Pero nosotros no podemos ni debemos tirar las matemáticas fuera de las cortes [no tires al bebe con el agua sucia o no descartes toda una herramienta por rechazar los aspectos negativos, dado que podrías rechazar sus aspectos positivos]. Los avances en la ciencia forense, que se basan en el análisis de datos para todo, desde la pólvora al ADN, implicarán que los métodos cuantitativos jugarán un papel cada vez más importante en las deliberaciones de los tribunales. 

El desafío es asegurarse de que las matemáticas detrás del razonamiento jurídico sean fundamentalmente sólidas. Las buenas matemáticas pueden ayudar a revelar la verdad. Sin embargo, en manos inexpertas, las matemáticas pueden convertirse en un arma que impide la justicia y destruye vidas inocentes.

Leila Schneps, escritora de novelas de misterio y matemática, y su hija Coralie Colmez son los autoras del libro "Las Matemáticas en los Tribunales: Cómo los números son usados y abusados en las Cortes."

El artículo original apareció en el New York Times:
La traducción es libre y con permiso de Leila Schneps.



miércoles, 27 de enero de 2016



Demasiado bueno para ser verdad o si la decisión por la culpabilidad es unánime eres absuelto

En el antiguo Israel existía una regla por la cual si un Tribunal compuesto por 23 personas encontraba, de manera unánime, culpable al acusado, entonces éste debía ser absuelto. La regla es bastante contraintuitiva. Entonces, ¿a qué se debe la regla? y, más importante aun, ¿es correcta? Según Gunn et. al[1], algo de verdad tiene esta regla, al menos, estadísticamente.

Estadísticamente la probabilidad de que todas las pruebas coincidiesen en la culpabilidad es baja. Si usted lanza una moneda y todos los lanzamientos salen cara y no sello, algo le debería preocupar en la moneda. Sin embargo, ese hecho que debería llamarnos a reflexionar, por ejemplo, sobre la calidad de las pruebas aportadas en el proceso, al parecer, produciría lo contrario: nos lleva a pensar que el acusado es, efectivamente, culpable. Si todas las prueba apuntan a la culpabilidad del acusado es porque el acusado lo debe ser. No olvidamos en analizar la calidad de la prueba, y solo nos guiaríamos por el hecho de que todas las pruebas tienen el mismo contenido.

Veamos el siguiente ejemplo: si tenemos al testigo X1 que dice que vio al acusado cometer el crimen; luego, al testigo X2; y así sucesivamente, tres testigos más en el mismo sentido; tenderíamos a creer que el acusado es, efectivamente, culpable porque creeríamos que la probabilidad de que todos ellos se equivoquen es bajísima. El valor probatorio de cada testimonio sería bajísimo, pero acumulados nos harían creer que tenemos un buen caso.

X1 dice que vio a Y cometer el crimen
X2 dice que vio a Y cometer el crimen
X3 dice que vio a Y cometer el crimen
X4 dice que vio a Y cometer el crimen
X5 dice que vio a Y cometer el crimen
----------------------------------------------------
Estos testimonios le dan un alto valor a la Hipótesis de que Y cometió el crimen


Cada testimonio tendría un valor probatorio bajo; pero como todos apuntan en un mismo sentido, entonces su valor conjunto se incrementaría. Se asume que la coincidencia de esos 4 testimonios no puede ser producto del azar, sino de que efectivamente Y cometió el crimen. Pero, ¿el hecho de que varias pruebas coincidan solo se puede deber a que la hipótesis es verdadera? En realidad, no. A veces, la forma como se produce una prueba o como se generó una determinada información puede haber estado sesgada. El que varios testigos coincidan no implica que su testimonio sea confiable por ese hecho: debemos analizar la forma cómo se han generado. Como dicen Gunn et. al: lo que debemos distinguir es cuándo más evidencia, realmente, agrega más apoyo a la hipótesis que queremos probar y cuándo, por el contrario, más evidencia podría estar ocultando algún tipo de sesgo en la forma como se ha producido la prueba.  

El problema se encuentra en que cuando tenemos abundancia de pruebas que apuntan en un mismo sentido nos concentramos en el contenido, mas no en la forma como se produjo u obtuvo la prueba. Un ejemplo actual es el reconocimiento en línea. A través de una serie de estudios se ha podido mostrar que la forma como se hacían los reconocimientos estaba orientada a que se reconozca a la persona que la policía consideraba como culpable. En otras palabras, el proceso de producción de la prueba estaba sesgado.

Sin embargo, los abogados no nos preocupamos en cómo se producía ese reconocimiento, sino solo en el contenido de la declaración del testigo: X1, X2, (...), reconocían al acusado. Como son varios, entonces la probabilidad de que ellos se equivoquen debía reducirse a cero.

Los estudios sobre reconocimiento en línea muestran que la forma de la preguntas; las personas que integran el reconocimiento en línea; etc., tienden a sesgar la respuesta del acusado; por eso, un análisis de la prueba no solo debe estar en el contenido, sino también en la forma como se produjo. Debemos analizar tanto la calidad de la producción de la prueba como hacia donde apunta su contenido.

Un punto distinto a lo anterior es que la unanimidad o el consenso en una decisión no implican que la decisión sea buena. Por el contrario, estos investigadores te dirían que donde todos piensan igual, nadie piensa mucho. Preocúpate donde las decisiones son tomadas con acuerdos muy altos, porque, de repente, algo está funcionando mal en ese proceso. El consejo es que analices tanto el proceso bajo el cual se tomó una decisión como el contenido de la decisión misma.


Conclusiones:

1) La forma como se produjo la prueba permitirá determinar qué tan confiable es la prueba. Por esa razón, antes de analizar el contenido de la prueba, el analista debe buscar evidencia acerca de la forma cómo se ha producido la prueba; si tiene sesgos y qué limitaciones tendría la prueba.

2) El analista no debe analizar el contenido de las pruebas sin antes analizar su forma de producción. Si realiza esto último podría creer que las pruebas tienen más fuerza de la que realmente tendrían.






[1]  La referencia al artículo se puede encontrar aquí: http://arxiv.org/pdf/1601.00900v1.pdfLe agradezco a Mario Zuñiga quien me envió el dato del artículo escrito por Gunn y otros.