Categorías
Ciencia y Tecnología

Tras primer fallo judicial con aporte de la IA, piden a la Corte Constitucional no limitar su uso en sentencias judiciales

El llamado a la Corte Constitucional es a tener en cuenta los beneficios del Chat GPT para la definición de sentencias y no limitar ni estigmatizar la herramienta, además, las solicitudes de regular o limitar esta herramienta preocupan al sector tecnológico.

La Corte Constitucional inició un nuevo debate luego de que se conociera el primer fallo judicial en el que se utilizó la inteligencia artificial. El alto tribunal está revisando las implicaciones y posibles regulaciones que tendría el uso de Chat GPT en el sistema judicial.

La discusión nacional arrancó a inicios de este año, el pasado 30 de enero cuando el Juzgado Primero Laboral de Cartagena resolvió una acción de tutela, en segunda instancia a favor de un menor con trastorno del espectro autista y su familia, ordenando a Salud Total EPS garantizarles todo el tratamiento requerido; para este fallo el juez utilizó la inteligencia artificial como herramienta de apoyo.

Desde varios sectores se ha resaltado la importancia de que la alta Corte haga un estudio jurídico de este asunto novedoso en la administración de justicia, en parte respondiendo a inquietudes pero también solicitando regular o limitar esta herramienta, lo cual preocupa al sector tecnológico.

“No puede haber confusión entre eficiencia y baja calidad. La rigurosidad se mantiene en estos procesos, el proceso es que en vez de leerse 20 libros de jurisprudencia, con la inteligencia artificial tienes el resumen de las sentencias y precedentes en minutos para tomar siempre buenas decisiones”, aseguró Fernán Ocampo, CEO de LinkTIC, empresa colombiana enfocada en crear soluciones tecnológicas y promover proyectos que impulsen la inmersión digital en el país. Ocampo, que tiene 20 años de experiencia en desarrollo digital hace énfasis en que como a toda herramienta, se le puede dar un buen o mal uso y el problema en sí no está en los insumos sino en lo que se haga con ellos.

“Un juez puede hacer las cosas bien o mal, el hecho de que tengan una herramienta no quiere decir que se pierda la objetividad, todo lo contrario, incluso van a tener más insumos para tomar la mejor decisión. Hay que entender que la inteligencia artificial no es el fin, es el medio”, agregó.

Puntualmente la Defensora del Pueblo pidió un pronunciamiento a la Corte asegurando que aplicar la herramienta sin control o regulación “daría lugar a un cambio de las reglas de juego para el administrado, dando paso a una posible vulneración del derecho al debido proceso”; para Ocampo, este riesgo no existe si el Chat GPT se usa correctamente.

“Lo que hace esta herramienta es facilitar el trabajo, pero es el juez el que debe fallar. Aquí hay es un ahorro de meses de tiempo, meses y cientos de horas de estudio que se traducen en cuartillas de presentación de un tema con todos los detalles”.

El CEO de LinkTic coincide con la Defensora en que el Chat GPT exige el máximo de cuidado y control en manos de un operador judicial ya que garantizar la efectividad del derecho es la función pública más importante, pero no se puede tener prevención en su uso ni catalogarla como un riesgo.

Le puede interesar: Informes de los usuarios indican problemas y caída de WhatsApp

 “Es una gran ayuda para la enfrentar la congestión judicial. Lo que también es indispensable es la digitalización de la justicia en los servidores, de manera adecuada; porque si hay malos insumos, se arrojan resultados malos. Los jueces no pueden confiar ciegamente en ese tipo de herramientas, también hay sentencias mal hechas y el Chat GPT las enviaría como referencia, por eso es un problema de fondo, no de forma”, finalizó Ocampo.

Lea también: Zipaquirá tendrá el primer centro de Inteligencia Artificial de Colombia con inversión de $50 mil millones

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *