Vamos a lo que interesa: Nevada está a punto de lanzar un sistema de inteligencia artificial para manejar los casos de apelaciones de beneficios de desempleo. Sí, leyeron bien, la IA de Google será quien ayude a decidir si alguien merece o no esos pagos de desempleo. ¿Qué puede salir mal, no?
Esta movida marca el primer intento serio en Estados Unidos de meter la IA en algo tan delicado como esto, y honestamente, tiene todo para ser una buena idea o un desastre total. Depende de cómo lo mires.
¿Cómo va a funcionar esto?
En teoría, el sistema de IA va a analizar las transcripciones de las audiencias de apelación de beneficios de desempleo y otros documentos importantes. Luego, va a generar una recomendación sobre si la reclamación debe ser aprobada, rechazada o modificada. Suena eficiente, ¿verdad? Pues claro, el gran truco aquí es que, supuestamente, las decisiones finales no las hará solo la IA, sino que siempre habrá un humano revisando el asunto.
Christopher Sewell, el director de la agencia encargada (DETR), ya salió a decir que no se tomarán decisiones sin una revisión humana. O sea, la IA propone, pero el humano decide. Y claro, si el humano no está de acuerdo con lo que sugiere la IA, se supone que puede hacer ajustes.
Pero seamos realistas. Cuando algo está apurado, ya sabemos cómo funciona: es muy fácil que esa “revisión humana” se convierta en un simple clic para aprobar lo que la IA escupió.
Necesidad de velocidad: ¿a qué precio?
Todo este experimento con IA viene por el tremendo cuello de botella que Nevada lleva arrastrando con los casos de apelaciones desde la pandemia. En abril de 2020, Nevada tenía un asombroso 30% de desempleo, el más alto jamás registrado en cualquier estado. ¿El resultado? Un retraso monumental en el manejo de casos de apelación de beneficios de desempleo.
Cuando Sewell tomó las riendas en 2023, todavía quedaban más de 40.000 casos por resolver. Sí, leíste bien, cuarenta mil. Y aunque ya lograron bajar esa montaña a menos de 5.000 casos, el estado sigue buscando formas de hacer que las cosas se muevan más rápido. De ahí que hayan decidido lanzar la IA al ruedo.
Ahora, está claro que la IA puede acelerar las cosas. Se dice que este sistema podría reducir el tiempo de tomar una decisión de varias horas a apenas cinco minutos. Cinco minutos. ¡Eso es increíblemente rápido! Pero no nos engañemos. La velocidad no siempre va de la mano con la calidad, y ahí está la preocupación de muchos.
¿Y los riesgos? Porque siempre hay riesgos
Aquí es donde se pone interesante. No todo el mundo está emocionado con esto, y es fácil entender por qué. Por ejemplo, Morgan Shah, de Servicios Legales de Nevada, ya salió a decir que está preocupado de que en la carrera por hacer todo más rápido, se sacrifiquen decisiones de calidad. Y tiene un buen punto.
Lo que pasa es que, claro, con un sistema así de rápido, puede que la gente encargada simplemente confíe ciegamente en lo que dice la IA. “Ah, si la máquina dice que no, pues no. Siguiente caso.” El miedo es que todo se convierta en un trámite superficial y se termine perjudicando a quienes realmente necesitan ese apoyo.
Y Shah no está solo en esto. Michele Evermore, que trabajó para el Departamento de Trabajo de Estados Unidos, tiene exactamente el mismo temor. ¿Qué pasa si por querer despejar rápido los casos, terminan aprobando lo que la IA dice sin pensar demasiado?
Privacidad y precisión: dos palabras clave que te van a hacer levantar una ceja
Vamos al tema de privacidad. No es poca cosa cuando hablamos de procesos legales que involucran información sensible como números de seguridad social, detalles de impuestos, datos personales y hasta información de salud. Obviamente, nadie quiere que Google tenga acceso a ese tipo de cosas. Y aquí es donde se hace una aclaración importante: Google no va a tener acceso a esa información. Solo la IA. Bueno, eso dicen ellos.
El DETR asegura que Google no podrá usar los datos personales para otros fines, lo cual es un alivio, pero… ¿realmente podemos confiar en que todo esté 100% bajo control? La duda siempre está ahí.
Y ahora, hablemos de precisión. La IA que están usando es un modelo llamado retrieval-augmented generation (RAG). Suena sofisticado, ¿verdad? Básicamente, esta IA va a tomar datos de una base que contiene leyes de desempleo de Nevada y casos de apelaciones anteriores para generar decisiones más ajustadas a la realidad.
Pero aquí viene el problema: los sistemas de IA no siempre son perfectos. Un estudio de Yale y Stanford encontró que estos sistemas de IA similares cometieron errores entre el 17% y el 33% del tiempo, y dieron respuestas incompletas entre el 18% y el 63% de las veces. Eso no inspira mucha confianza, ¿verdad?
“La IA se equivoca más de lo que nos gustaría admitir. Y cuando se trata de decisiones legales, un error no es poca cosa.”
Aspectos legales: El verdadero dolor de cabeza
Ahora sí, metámonos en lo legal, porque esto tiene tela para cortar. Los abogados de Servicios Legales de Nevada ya están poniendo el grito en el cielo. Y no los culpo. Piensa en esto: si la IA se equivoca y un árbitro humano aprueba la recomendación sin darse cuenta del error, ¿quién asume la responsabilidad? Eso es un terreno pantanoso.
Elizabeth Carmona, una abogada senior de Servicios Legales de Nevada, lo explicó claramente. Cuando un árbitro comete un error basado en información incorrecta generada por la IA, puede ser casi imposible para una corte revertir esa decisión. En los casos que involucran cuestiones de hecho, los tribunales no pueden simplemente ignorar lo que dijo el árbitro. Es decir, si el árbitro confió ciegamente en lo que dijo la IA, ¿cómo diablos puedes apelar eso de manera justa? ¡Es un lío tremendo!
Y no solo eso. Matthew Dahl, un estudiante de doctorado en Yale que ha investigado sistemas de IA en investigación legal, dice algo que me dejó pensando: puede ser difícil identificar dónde y por qué se cometió un error en un sistema donde las recomendaciones de la IA son revisadas y editadas por humanos. O sea, la IA puede sugerir algo mal, el humano no darse cuenta, y de repente tienes una decisión basada en un error que nadie vio. Y buena suerte tratando de deshacerlo después.
El panorama más amplio: ¿Es este el futuro de la toma de decisiones del gobierno?
Vamos a ver, Nevada está apostando fuerte con este sistema de IA para las apelaciones de desempleo, y seamos sinceros, esto podría marcar un antes y un después en la manera en que los gobiernos toman decisiones. Si esto funciona (y es un gran “si”), otros estados seguramente van a seguir el mismo camino, y la IA se va a convertir en una parte central de cómo se manejan muchas decisiones gubernamentales.
Pero claro, todo esto depende de cómo se implemente. Amy Perez, quien ha trabajado en la modernización del desempleo en Colorado y en el Departamento de Trabajo de EE. UU., lo ve con buenos ojos, siempre y cuando se haga bien. Dice que la automatización puede ser una buena cosa, pero solo si se demuestra que es igual o mejor que la toma de decisiones humana. Y aquí está el truco: hasta que no veamos resultados claros, todo esto sigue siendo una gran incógnita.
Y por si fuera poco, los que están detrás de este sistema ya dijeron que va a haber un comité de gobernanza que se reunirá regularmente para monitorear los errores y sesgos en el sistema de IA. Lo cual suena bien, pero vamos a ver cuánta transparencia habrá realmente y si se toman en serio esos problemas. Porque, al final del día, la tecnología por sí sola no es la solución mágica.
¿La IA va a ser buena o un desastre total?
Al final del día, esto de la IA suena increíble en papel. Menos retrasos, decisiones más rápidas, menos burocracia. Pero también está lleno de riesgos que no se pueden ignorar. El mayor miedo aquí es que, en el apuro por resolver los casos más rápido, terminemos sacrificando algo mucho más importante: la calidad y la justicia de las decisiones.
Yo soy el primero en decir que la tecnología puede ayudarnos un montón. Pero no nos engañemos, no es infalible. Y en algo tan delicado como decidir quién recibe beneficios de desempleo, un error no es simplemente un número en una tabla. Es la vida de alguien que está en juego.
Nevada está experimentando, y todo el mundo va a estar mirando. Si la cosa va bien, genial. Otros estados lo copiarán y empezaremos a ver más IA en decisiones de gobierno. Pero si sale mal, bueno… ya puedes imaginar la clase de lío legal que se va a armar.
Lo que tienes que saber en resumen
Voy a ponerlo simple:
- Nevada quiere usar IA para manejar las apelaciones de beneficios de desempleo.
- La IA va a analizar audiencias y documentos y sugerir si una apelación debe ser aprobada o no.
- Siempre habrá un humano revisando las decisiones, al menos en teoría.
- El objetivo es reducir los tiempos de espera. La IA puede hacerlo en cinco minutos, algo que a un humano le tomaría horas.
- La privacidad está protegida, dicen que Google no va a tener acceso a los datos personales.
- Pero la IA no es infalible. Un estudio mostró que sistemas similares se equivocan bastante seguido.
- Si la IA se equivoca y un árbitro humano aprueba la decisión, puede ser difícil apelar después.
En resumen: esto puede ser una revolución o un desastre, dependiendo de cómo lo veas. No hay garantías. Y como siempre, depende de lo que busques.
El gran experimento de Nevada: ¿una solución o un experimento arriesgado?
Entonces, ¿qué tenemos aquí? Nevada está en medio de un gran experimento. Usar IA para tomar decisiones importantes en algo tan delicado como los beneficios de desempleo no es poca cosa. Y sí, claro que puede ser una solución a la lentitud del sistema, especialmente después de lo que pasó con la pandemia. Pero, no nos engañemos: esto puede salir mal de tantas formas que da un poco de miedo.
¿La IA es la solución mágica que necesitamos? A ver, la tecnología es increíble cuando se usa bien, pero lo hemos visto mil veces: la automatización puede llevar a errores masivos si no se controla como es debido. Y cuando hablas de algo que afecta directamente las vidas de las personas, como si reciben o no esos beneficios que pueden hacer la diferencia entre pagar la renta o no, la cosa se pone seria.
¿Qué pasa si la IA se equivoca?
Esta es la gran pregunta. Porque mira, todos los sistemas de IA tienen margen de error. Y como mencioné antes, los estudios muestran que este tipo de IA puede equivocarse en hasta un tercio de los casos. Eso es una cifra que no podemos pasar por alto.
Ahora, si la IA toma una decisión equivocada, el humano que revisa puede corregirlo, pero la verdad es que sabemos cómo funcionan estas cosas en la vida real. Cuando tienes prisa y una montaña de casos acumulados, es muy tentador simplemente aceptar lo que diga la IA sin mirar mucho más allá. Y ahí es donde entran los problemas.
Además, ¿cómo sabes dónde se equivocó la IA?. Imagínate que la IA da una recomendación equivocada, el humano lo pasa por alto, y la decisión es incorrecta. ¿Cómo rastreas ese error? Todo se vuelve un ciclo de “la máquina dijo esto”, y buena suerte intentando desentrañar dónde estuvo la falla. Y en ese punto, apelar la decisión se vuelve un dolor de cabeza gigante para el afectado. Es como intentar arreglar un error burocrático gigante.
¿Estamos listos para que la IA decida por nosotros?
Este es el tema de fondo. No es solo Nevada. Si este sistema funciona, puedes apostar a que otros estados lo van a copiar. La IA se va a meter de lleno en más procesos gubernamentales, y vamos a ver cómo cada vez más decisiones, que antes eran humanas, serán tomadas o influenciadas por una máquina.
Y, claro, todo tiene su lado bueno. Menos tiempo de espera, menos trabajo para las personas detrás del sistema, más eficiencia. Pero, por otro lado, tenemos que pensar en cómo balancear eso con la necesidad de decisiones justas y humanas. Porque al final, la tecnología es una herramienta, pero si la usamos mal, nos estamos disparando en el pie.
Para terminar (pero no del todo)
Así que ahí lo tienes. Nevada está jugando una carta arriesgada al meter IA en el proceso de decisiones de beneficios de desempleo. Y la verdad, no me sorprende que haya opiniones encontradas. Algunos dicen que es el futuro y que puede arreglar un montón de problemas. Otros temen que termine siendo más un dolor de cabeza que una solución real.
En fin, ¿esto va a ser un avance increíble o un desastre en potencia? Solo el tiempo lo dirá. Al final, todo depende de cómo se implemente y, sobre todo, de que no se pierda el control humano en decisiones tan importantes. Porque una cosa es cierta: si todo queda en manos de la IA, nos arriesgamos a meternos en un buen lío.
Y bueno, eso es lo que hay por ahora. Lo que pase después, ya veremos…