La “IA emocional” puede ser la próxima tendencia en el software empresarial, y eso podría ser problemático

A medida que las empresas experimentan con la incorporación de IA en todas partes, una tendencia inesperada es que las empresas recurren a la IA para ayudar a sus nuevos bots a comprender mejor las emociones humanas.

Es un área llamada “IA emocional”, según el nuevo informe de PitchBook. Informe de investigación sobre tecnologías emergentes de SaaS empresarial que predice que esta tecnología está en aumento.

El razonamiento es más o menos así: si las empresas implementan asistentes de IA para ejecutivos y empleados, creen chatbots de IA. ser vendedores de primera línea y representantes de servicio al cliente, ¿Cómo puede una IA funcionar bien si no entiende la diferencia entre un “¿Qué quieres decir con eso?” enojado y un “¿Qué quieres decir con eso?” confundido?

Emotion AI afirma ser el hermano más sofisticado del análisis de sentimientos, la tecnología anterior a la IA que intenta extraer las emociones humanas de las interacciones basadas en texto, en particular en las redes sociales. Emotion AI es lo que podríamos llamar multimodal, ya que emplea sensores para información visual, auditiva y de otro tipo combinados con aprendizaje automático y psicología para intentar detectar las emociones humanas durante una interacción.

Los principales proveedores de nube de IA ofrecen servicios que brindan a los desarrolladores acceso a capacidades de IA emocional, como la API Emotion de los servicios cognitivos de Microsoft Azure o el servicio Rekognition de Amazon Web Services. (Este último tiene Tuvo su cuota de controversia (a lo largo de los años.)

Si bien la inteligencia artificial emocional, incluso ofrecida como un servicio en la nube, no es nueva, el aumento repentino de los bots en la fuerza laboral le otorga más futuro en el mundo empresarial que nunca antes, según PitchBook.

“Con la proliferación de asistentes de IA y las interacciones hombre-máquina totalmente automatizadas, la IA emocional promete permitir interpretaciones y respuestas más humanas”, escribe Derek Hernández, analista sénior de tecnología emergente de PitchBook en el informe.

“Las cámaras y los micrófonos son partes integrales del hardware de la IA emocional. Pueden estar en una computadora portátil, un teléfono o ubicados individualmente en un espacio físico. Además, el hardware portátil probablemente proporcionará otra vía para emplear la IA emocional más allá de estos dispositivos”, le dice Hernández a TechCrunch. (Entonces, si ese chatbot de servicio al cliente solicita acceso a la cámara, esta puede ser la razón).

Con ese fin, se está creando un grupo cada vez mayor de empresas emergentes para lograrlo, entre ellas Uniphore (con 610 millones de dólares en total recaudadosincluidos 400 millones de dólares en 2022 liderados por NEA), así como MorphCast, Voicesense, Superceed, Siena AI, audEERING y Opsis, cada uno de los cuales también recaudó sumas modestas de varios VC, según estima PitchBook.

Por supuesto, la IA emocional es un enfoque muy propio de Silicon Valley: utilizar la tecnología para resolver un problema causado por el uso de la tecnología con humanos.

Pero incluso si la mayoría de los robots de IA eventualmente adquirirán algún tipo de empatía automatizada, eso no significa que esta solución realmente funcionará.

De hecho, la última vez que la IA emocional despertó un gran interés en Silicon Valley (alrededor de 2019, cuando gran parte del mundo de la IA y el aprendizaje automático todavía se centraba en la visión artificial en lugar del lenguaje generativo y el arte), los investigadores echaron por tierra la idea. Ese año, Un equipo de investigadores publicó una meta-revisión Se han realizado numerosos estudios y se ha llegado a la conclusión de que las emociones humanas no se pueden determinar mediante los movimientos faciales. En otras palabras, esta idea de que podemos enseñar a una IA a detectar los sentimientos de un ser humano haciéndole imitar cómo otros humanos intentan hacerlo (leyendo rostros, lenguaje corporal, tono de voz) es un tanto errónea en su suposición.

También existe la posibilidad de que la regulación de la IA, como la Ley de IA de la Unión Europea, que prohíbe los sistemas de detección de emociones por visión artificial para ciertos usos, como la educación, pueda acabar con esta idea de raíz. (Algunas leyes estatales, como la BIPA de Illinois, también prohíben que se recopilen lecturas biométricas sin permiso).

Todo lo cual ofrece una visión más amplia de este asunto. El futuro de la IA en todas partes en Silicon Valley Actualmente se está construyendo de manera frenética. Estos robots de IA intentarán comprender las emociones para realizar trabajos como atención al cliente o ventas. y RRHH y todas las demás tareas que los humanos esperan asignarles, o tal vez no sean muy buenos en ninguna tarea que realmente requiera esa capacidad. Tal vez lo que estamos viendo es una vida de oficina llena de IA bots del nivel de Siri alrededor de 2023. En comparación con un bot requerido por la gerencia que adivina los sentimientos de todos en tiempo real durante las reuniones, ¿quién puede decir cuál es peor?

Fuente