IA en decisiones críticas: lecciones del caso del Tribunal Supremo

La IA que predijo al Tribunal Supremo: lo que realmente ganó el caso de los 4 billones

En mayo de 2026, el debate sobre qué puede y qué no puede hacer la inteligencia artificial sigue siendo, en gran parte, teórico. Muchas empresas hablan de "adoptar IA" sin tener claro para qué. Por eso vale la pena analizar un caso concreto, real y documentado, que muestra con precisión dónde termina la máquina y dónde empieza el ser humano.

Neal Kumar Katyal es uno de los abogados más reconocidos de Estados Unidos. A inicios de 2025 fue contratado para hacer algo que ningún abogado había logrado en 237 años de historia: declarar inconstitucional la iniciativa insignia de un presidente en funciones. El caso giraba en torno a los aranceles impuestos por el ejecutivo a prácticamente todos los países del mundo, invocando una ley de 1977 sin pasar por el Congreso. El monto en juego: cuatro billones de dólares. El resultado: ganó, con una decisión de seis votos contra tres.

Lo que Katyal reveló en su TED Talk de 2026 es que una de sus herramientas principales fue una IA personalizada, a la que llamó Harvey. Y lo que aprendió con Harvey tiene implicaciones directas para cualquier empresa en América Latina que esté pensando en integrar inteligencia artificial a sus procesos.

Lo que la IA sí puede hacer: reconocimiento de patrones a escala brutal

Harvey fue entrenado con 25 años de preguntas formuladas por los jueces del Tribunal Supremo, más todas sus opiniones, concurrencias, disidencias y escritos separados. El resultado fue un sistema capaz de identificar patrones de pensamiento judicial con una precisión que sorprendió incluso al propio equipo legal.

El sistema predijo que el juez Kavanaugh preguntaría sobre la diferencia entre aranceles y embargos. Anticipó que la jueza Barrett se enfocaría en los reembolsos arancelarios. Incluso identificó una posible "ruta de escape" para el presidente del tribunal: una forma de votar a favor de la constitución sin comprometer la imagen institucional que había construido durante toda su carrera. La opinión separada del juez Gorsuch fue predicha casi de forma literal.

Esto no es magia. Es lo que la IA hace mejor que cualquier humano: procesar volúmenes enormes de información y detectar consistencias que serían invisibles para una sola mente. En el lenguaje de negocios, esto se traduce en análisis predictivo aplicado a decisiones de alto riesgo.

Para una empresa mediana en Perú o América Latina, el equivalente podría ser: una IA entrenada con el historial de compras de sus clientes que predice cuándo van a cancelar su contrato. O un sistema que analiza los patrones de producción y anticipa fallas antes de que ocurran. O un asistente que lee los estados financieros de los últimos cinco años y señala las variables que más han afectado el margen.

Lo que la IA no puede hacer: el momento en que la jueza hizo la pregunta impredecible

Katyal es muy preciso en este punto, y vale la pena citarlo directamente: si hubiera seguido ciegamente el output de Harvey, habría perdido el caso. El riesgo no era que la IA estuviera equivocada. El riesgo era que el equipo dejara de pensar.

"El computador lo dice." Cuatro palabras que, según Katyal, marcan el fin del juicio humano. La máquina piensa, el humano asiente, y en ese asentimiento algo esencial desaparece.

Hubo un momento en el argumento oral en que la jueza Barrett formuló una pregunta que Harvey no había predicho. En ese instante, todos los modelos, todos los datos, toda la preparación automatizada quedaron inutilizables. Solo quedaba escuchar de verdad, procesar en tiempo real, y responder desde la comprensión genuina del caso.

Eso es conexión humana. Y según Katyal, fue lo que realmente ganó el caso: no la capacidad de predecir, sino la capacidad de adaptarse cuando la predicción falla. Ajustar no solo el argumento, sino el tono, la pausa, la mirada que le dice al otro: te estoy escuchando.

Para las empresas, esto tiene una traducción directa. La IA puede optimizar una campaña de ventas, pero el cierre depende de un vendedor que escucha lo que el cliente no dice. La IA puede sugerir el precio óptimo, pero la negociación la conduce una persona. La IA puede detectar que un empleado clave está en riesgo de renunciar, pero la conversación que lo retiene la tiene su jefe.

Cómo aplica esto en empresas de Perú y América Latina

En los proyectos de automatización e implementación de ERP que llevamos adelante en Consultoría-Ti, observamos exactamente esta dinámica. Las empresas que mejor aprovechan la tecnología no son las que automatizan más cosas. Son las que tienen claro qué decisiones deben seguir siendo humanas.

Una empresa de logística puede usar IA para optimizar rutas, predecir demanda y gestionar inventario. Pero la decisión de cambiar de proveedor, renegociar un contrato o responder a un cliente insatisfecho sigue requiriendo criterio humano, contexto cultural y capacidad de leer señales que no están en ninguna base de datos.

El error más común que vemos en la región es uno de dos extremos: o las empresas descartan la IA por desconfianza, perdiendo ventajas competitivas reales, o la adoptan sin estructura, delegando decisiones críticas a herramientas que no fueron diseñadas para tomarlas. El caso de Harvey ilustra el punto medio correcto: la IA como sparring, no como árbitro.

Según el propio Katyal, Harvey era brillante, incansable y ocasionalmente insoportable. Pero no era un dios. Hacía las preguntas, el equipo encontraba las respuestas. Esa distinción es fundamental.

¿Cómo aplica esto en tu empresa?

Si estás evaluando cómo integrar inteligencia artificial en tu organización, el caso de Harvey ofrece un marco práctico:

  • Identifica dónde tienes datos históricos suficientes. La IA funciona cuando hay patrones que reconocer. Si tienes años de datos de ventas, producción, atención al cliente o finanzas, ahí es donde la IA puede generar valor real.
  • Define qué decisiones nunca delegarás a una máquina. No por desconfianza en la tecnología, sino porque hay decisiones que requieren contexto humano, relación y responsabilidad. Escríbelas explícitamente.
  • Usa la IA para prepararte mejor, no para reemplazar el juicio. Harvey no argumentó el caso. Preparó a Katyal para argumentarlo mejor. Esa es la mentalidad correcta.
  • Evalúa si tu equipo sigue pensando. Si la respuesta habitual a una recomendación de la IA es "el sistema lo dice, así que sí", tienes un problema de cultura antes que un problema de tecnología.
  • Empieza con un caso de uso específico. No con "queremos usar IA en toda la empresa". Con "queremos predecir cuáles clientes van a dejar de comprar en los próximos 90 días". Concreto, medible, acotado.

La ventaja competitiva que durante décadas tuvo el experto, el médico experimentado, el abogado con miles de horas de vuelo, era el acceso a conocimiento acumulado. La IA está haciendo que ese acceso esté disponible para cualquiera. Lo que no puede replicar es la capacidad de conectar, persuadir y adaptarse en tiempo real a lo que no estaba en el guion.

Esa sigue siendo tu ventaja. Pero solo si la cultivas.

Fuentes y Referencias

TED Talk — Neal Kumar Katyal: "What Really Won the Trillion-Dollar Supreme Court Case"

¿Quieres explorar cómo aplicar IA en tu empresa de forma estratégica?

En Consultoría-Ti ayudamos a empresas en Perú y América Latina a identificar dónde la inteligencia artificial genera valor real, y dónde el criterio humano sigue siendo insustituible. No vendemos tecnología por tecnología: diseñamos soluciones que tienen sentido para tu negocio.

Escríbenos y conversemos sobre tu caso específico.



✨ Contenido generado con ContentFlow — Consultoría-Ti

Compartir
Etiquetas
ChatGPT y el lado humano de la IA en el trabajo