El Departamento de Empleo del estado de Nevada ha revelado que utilizará Inteligencia Artificial para ayudar a acelerar su proceso de apelaciones de desempleo analizando las transcripciones de las audiencias de apelación y emitiendo una decisión de recomendación.
El departamento informó que ha estado “enterrado” en una acumulación de reclamos desde el comienzo de la pandemia y está buscando desesperadamente formas de volver a encarrilarse.
También ha confirmado que no entrenará un nuevo modelo de IA generativa para el sistema, sino que utilizará GoogleEl estudio Vertex AI de Google, que al parecer reducirá el proceso de revisión de horas a solo cinco minutos, a pesar de una nueva investigación que sugiere que los modelos de IA en general son Peor que los humanos en 'todos los sentidos' al resumir documentos y, a menudo, crean trabajo adicional para los trabajadores.
Limpiar el atraso
Los expertos han advertido contra este enfoque, no sólo porque los grandes modelos de lenguaje no entienden el texto ni razonan de forma lógica y dentro de un contexto como lo hacen los humanos, sino también porque puede que no le ahorre mucho tiempo al departamento.
“Si alguien revisa algo de manera exhaustiva y adecuada, en realidad no está ahorrando mucho tiempo”, señaló Morgan Shah, Director de Participación Comunitaria de Nevada Legal Services. “¿En qué momento se está creando un entorno en el que se alienta a las personas a tomar atajos?”
La falta de precisión del modelo preocupa a los abogados de Nevada Legal Services, quienes citan como una preocupación las “alucinaciones” de la IA, que es un término de la industria utilizado para describir cuando un modelo de IA produce respuestas factualmente incorrectas o engañosas.
Cualquier decisión de la IA también será verificada y revisada dos veces por un árbitro humano antes de ser emitida, pero si el árbitro humano toma una decisión basada en la alucinación de la IA, un tribunal puede no ser capaz de revocar la decisión.
Me viene a la mente la famosa cita de IBM: “Una computadora nunca puede ser considerada responsable, por lo tanto, nunca debe tomar una decisión de gestión”. Las investigaciones han demostrado que muchos de nosotros somos Todavía somos muy cautelosos con la IAespecialmente en productos de alto riesgo (como diagnósticos médicos y vehículos automatizados). El éxito de este experimento podría tener un impacto en una amplia gama de departamentos gubernamentales en el futuro.
A través de Gizmodo