Herramientas de productividad impulsadas por IA que pueden hacer la vida más difícil

Sordo desde su nacimiento, Paul Meyer ha utilizado intérpretes y subtituladores humanos para comunicarse con sus colegas durante su carrera de casi tres décadas en recursos humanos y reclutamiento técnico.

Pero cuando las empresas empezaron a depender más de las videoconferencias durante la pandemia, notó una tendencia preocupante. A medida que las reuniones se hicieron en línea, las empresas comenzaron a utilizar regularmente software de transcripción basado en inteligencia artificial. Y a medida que esa tecnología se convirtió en parte del negocio cotidiano, algunos empleadores pensaron que podría implementarse en otros casos, por ejemplo, para reemplazar a los intérpretes humanos.

El problema, según Meyer, es que hay fallos en la tecnología de los que los empresarios no son conscientes y que hacen la vida más difícil a los trabajadores sordos.

“La empresa pensó que la tecnología de inteligencia artificial para los subtítulos era perfecta. Estaban confundidos por qué me faltaba mucha información”.

Algunos contenidos no se pudieron cargar. Verifique su conexión a Internet o la configuración del navegador.

La tecnología de reconocimiento de voz, que estuvo disponible en los lugares de trabajo en la década de 1990, ha mejorado enormemente y ha creado nuevas oportunidades para que las personas discapacitadas mantengan conversaciones cuando no hay un intérprete disponible.

Ahora las personas oyentes lo utilizan cada vez más como una herramienta de productividad que puede ayudar a los equipos a resumir notas o generar transcripciones para reuniones, por ejemplo. Según Forrester Research, el 39 por ciento de los trabajadores encuestados a nivel mundial dijeron que sus empleadores habían comenzado a utilizar o planeaban incorporar IA generativa en las videoconferencias. Seis de cada 10 utilizan ahora conferencias en línea o por videoconferencia semanalmente, una cifra que se ha duplicado desde 2020.

Esta historia fue producida en asociación con el Centro Pulitzer. Red de responsabilidad de IA

La mayor prevalencia tiene muchos aspectos positivos para los trabajadores sordos, pero algunos advierten que estas herramientas podrían ser perjudiciales para las personas discapacitadas si los empleadores no comprenden sus limitaciones. Una preocupación es la suposición de que la IA puede reemplazar a los intérpretes y subtituladores humanos capacitados. La preocupación se ve agravada por una falta histórica de participación de las personas discapacitadas en los productos de IA, incluso algunos que se comercializan como tecnologías de asistencia.

Los modelos de reconocimiento de voz a menudo no logran comprender a las personas con un habla irregular o con acento, y pueden funcionar mal en ambientes ruidosos.

“La gente tiene ideas falsas de que la IA es perfecta para nosotros. No es perfecto para nosotros”, afirma Meyer. Lo despidieron de su trabajo y cree que la falta de alojamiento adecuado lo convirtió en un blanco fácil cuando la empresa redujo su tamaño.

Algunos contenidos no se pudieron cargar. Verifique su conexión a Internet o la configuración del navegador.

Cita de Paul Meyer que dice: “La gente tiene ideas falsas de que la IA es perfecta para nosotros. No es perfecto para nosotros”. Su voz transcrita por Google Speech to Text dice:

Algunas empresas ahora buscan mejorar la tecnología de reconocimiento de voz, a través de esfuerzos como entrenar a sus modelos en un espectro más amplio del habla.

Google, por ejemplo, comenzó a recopilar muestras de voz más diversas en 2019 después de reconocer que sus propios modelos no funcionaban para todos sus usuarios. Lanzó la aplicación Project Relate en Android en 2021, que recopila muestras de voz individuales para crear una transcripción en tiempo real del discurso de un usuario. La aplicación está dirigida a personas con un habla no estándar, incluidas aquellas con acento sordo, ELA, enfermedad de Parkinson, paladar hendido y tartamudez.

En 2022, otras cuatro empresas de tecnología (Amazon, Apple, Meta y Microsoft) se unieron a Google en una investigación dirigida por el Instituto Beckman de la Universidad de Illinois Urbana-Champaign para recopilar más muestras de voz que se compartirán entre ellos y otros investigadores.

El investigador de Google Dimitri Kanevsky, que tiene acento ruso y habla no estándar, dice que la aplicación Relate le permitió tener conversaciones improvisadas con contactos, como otros asistentes a una conferencia de matemáticas.

“Me volví mucho más sociable. Podía comunicarme con cualquiera en cualquier momento y en cualquier lugar y podían entenderme”, dice Kanevsky, que perdió la audición a los tres años. “Me dio una increíble sensación de libertad”.

Algunos contenidos no se pudieron cargar. Verifique su conexión a Internet o la configuración del navegador.

Cita de Dimitri Kanevsky que dice “Me volví mucho más sociable. Podía comunicarme con cualquiera en cualquier momento y en cualquier lugar y ellos podían entenderme. Me dio una increíble sensación de libertad”. Su voz transcrita por Google Speech to Text dice: “Se volvió mucho más social. Podía comunicarme con cualquier presupuesto en cualquier momento y en cualquier lugar y ellos podían entenderme y me daban una increíble sensación de libertad”. Su voz transcrita usando Project Relate coincide con su cita.

Un puñado de empresas emergentes dirigidas por personas sordas, como OmniBridge, respaldada por Intel, y Sign-Speak, financiada por Techstars, están trabajando en productos que se centran en la traducción entre el lenguaje de señas americano (ASL) y el inglés. Adam Munder, fundador de OmniBridge, dice que si bien en Intel ha tenido la suerte de tener acceso a traductores durante todo el día, incluso mientras camina por la oficina y en el comedor, sabe que muchas empresas no ofrecen ese acceso.

“Con OmniBridge, se podrían completar esas conversaciones en pasillos y cafeterías”, afirma Munder.

Pero a pesar del progreso en esta área, existe preocupación por la falta de representación de las personas con discapacidad en el desarrollo de algunas herramientas de traducción más convencionales. “Hay muchas personas oyentes que han establecido soluciones o han intentado hacer cosas suponiendo que saben lo que necesitan las personas sordas, suponiendo que conocen la mejor solución, pero es posible que no comprendan realmente la historia completa”, dice Munder.

En Google, donde el 6,5 por ciento de los empleados se identifican a sí mismos como personas con discapacidad, Jalon Hall, la única mujer negra en el grupo de empleados sordos y con problemas de audición de Google, lideró un proyecto que comenzó en 2021 para comprender mejor las necesidades de los usuarios negros sordos. . Muchos de los que habló usaban ASL negro, una variante del lenguaje de señas estadounidense que divergió en gran medida debido a la segregación de las escuelas estadounidenses en los siglos XIX y XX. Ella dice que las personas con las que habló no encontraron que los productos de Google funcionaran tan bien para ellos.

“Hay muchos usuarios sordos técnicamente competentes, pero no suelen ser incluidos en los diálogos importantes. No suelen incluirse en productos importantes cuando se desarrollan”, afirma Hall. “Significa que se quedarán más atrás”.

En un artículo recienteun equipo de cinco investigadores sordos o con problemas de audición descubrió que la mayoría de los estudios sobre lengua de signos publicados recientemente no incluían las perspectivas de los sordos. Tampoco utilizaron conjuntos de datos que representaran a personas sordas e incluyeron decisiones de modelado que perpetuaron sesgos incorrectos sobre el lenguaje de señas y la comunidad sorda. Esos prejuicios podrían convertirse en un problema para los futuros trabajadores sordos.

“Lo que las personas oyentes, que no firman, consideran 'suficientemente bueno' podría llevar a que el nivel de base para llevar productos al mercado sea bastante bajo”, dice Maartje De Meulder, investigador principal de la Universidad de Ciencias Aplicadas de Utrecht en los Países Bajos. quien fue coautor del artículo. “Es preocupante que la tecnología simplemente no sea lo suficientemente buena o no sea adoptada voluntariamente por los trabajadores sordos, mientras se les exige o incluso se les obliga a usarla”.

En última instancia, las empresas deberán priorizar la mejora de estas herramientas para las personas con discapacidad. Google aún tiene que incorporar avances en sus modelos de voz a texto en productos comerciales a pesar de que los investigadores informan reduciendo su tasa de error en un tercio.

Hall dice que ha recibido comentarios positivos de los altos directivos sobre su trabajo, pero no hay claridad sobre si afectará las decisiones de producto de Google.

En cuanto a Meyer, espera ver más representación de los sordos y herramientas diseñadas para personas discapacitadas. “Creo que un problema con la IA es que la gente piensa que les ayudará a hablar con nosotros más fácilmente, pero puede que no nos resulte fácil hablar con ellos”, dice Meyer.

Algunos contenidos no se pudieron cargar. Verifique su conexión a Internet o la configuración del navegador.

Cita de Paul Meyer que dice: “Creo que un problema con la IA es que la gente piensa que les ayudará a hablar con nosotros más fácilmente. Pero puede que no nos resulte fácil hablar con ellos”. Su voz transcrita por Google Speech to Text dice:

Trabajo de diseño por Carolina Nevitt

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here