Los asistentes de inteligencia artificial como Otter.ai te están delatando por hablar mal de tus compañeros de trabajo

Si alguna vez has estado en un Zoom Si se reúne y ve a un asistente virtual de Otter.ai en la sala, sepa que lo está escuchando y grabando todo lo que dice. Es una práctica que se ha vuelto algo común en la era de inteligencia artificial y híbrido o trabajo remotopero lo alarmante es que muchos usuarios no conocen todas las capacidades de la tecnología.

Los asistentes virtuales como Otter.ai, si no conoce la configuración adecuada para seleccionar, enviarán una grabación y una transcripción a todos los asistentes a la reunión, incluso si un invitado abandonó la reunión antes de tiempo. Eso significa que si habla mal de sus compañeros de trabajo, discute información confidencial o comparte prácticas comerciales de mala calidad, la IA se dará cuenta. Y te delatará.

Eso le pasó recientemente al investigador e ingeniero Alex Bilzerian. Había estado en una reunión de Zoom con una empresa de capital de riesgo y se utilizó Otter.ai para grabar la llamada. Después de la reunión, automáticamente le envió por correo electrónico la transcripción, que incluía “horas de sus conversaciones privadas posteriores, donde discutieron detalles íntimos y confidenciales sobre su negocio”, escribió Bilzerian en un X publicación la semana pasada. Otter.ai se fundó en 2016 y ofrece servicios de grabación y transcripción que se pueden conectar a través de Zoom o manualmente en una reunión virtual o en persona.

La transcripción mostraba que después de que Bilzerian se desconectara, los inversores habían discutido los “fracasos estratégicos y las métricas manipuladas” de su empresa. dijo El Correo de Washington. Si bien Bilzerian alertó a los inversores sobre el incidente, decidió cancelar el trato después de que se habían “disculpado profusamente”.

Este es solo uno de los muchos ejemplos de cómo los usuarios malinterpretan las tecnologías incipientes de IA. En respuesta a la publicación de Bilzerian en incógnitaotros usuarios reportaron situaciones similares.

“Literalmente le pasó a mi esposa hoy en una reunión de subvención en el trabajo”, otro usuario, Dean Julius. escribió en X. “(Toda) la reunión (fue) grabada y anotada. Algunas personas se quedaron atrás en la llamada para discutir la reunión en privado. Siguió grabando. Se lo envió todo a todos. Muuuuuy incómodo”.

Otros usuarios señalaron que esto podría convertirse en un problema importante en la industria de la salud a medida que la terapia virtual y las sesiones de telesalud se vuelven más prominentes.

“Esto se convertirá en un problema bastante terrible en la atención sanitaria, como se puede imaginar, en lo que respecta a la información sanitaria protegida”, dijo Danielle Kelvas, médica y asesora médica de una empresa de software médico. TI médicodijo Fortuna. “Es comprensible que los proveedores de atención médica tengan preocupaciones sobre la privacidad. Ya sea que se trate de un dispositivo de escritura con IA o de un dispositivo de ultrasonido impulsado por IA, por ejemplo, nosotros, como médicos, nos preguntamos: ¿a dónde va esta información?

Otter.ai, sin embargo, insiste en que los usuarios pueden evitar que ocurran estos incidentes incómodos o vergonzosos.

“Los usuarios tienen control total sobre su configuración y trabajamos duro para que Otter sea lo más intuitivo posible”, dijo un portavoz de Otter.ai. Fortuna. “Aunque las notificaciones están integradas, también recomendamos encarecidamente seguir solicitando consentimiento cuando utilices Otter en reuniones y conversaciones e indicar tu uso de Otter para una total transparencia”. El portavoz también sugirió visitar la sede de la empresa. Centro de ayuda para revisar todas las configuraciones y preferencias.

El poder de los asistentes virtuales de IA

Como medio para aumentar la productividad y tener registros de conversaciones importantes, cada vez más empresas han comenzado a implementar funciones de inteligencia artificial en los flujos de trabajo. Si bien sin duda puede reducir la tediosa práctica de transcribir y enviar notas a las partes interesadas, la IA todavía no tiene la misma sensibilidad que los humanos.

“La IA plantea un riesgo al revelar 'secretos laborales' debido a sus comportamientos automatizados y su falta de discreción”, Sukh Sohal, consultor senior de data Advisory Respuesta de afinidaddijo Fortuna. “He tenido clientes que han expresado su preocupación por el intercambio de información no intencionado. Esto puede ocurrir cuando las organizaciones adoptan herramientas de inteligencia artificial sin comprender completamente su configuración o implicaciones, como que la transcripción automática continúe después de que los participantes hayan abandonado una reunión”.

Sin embargo, en última instancia, son los humanos quienes habilitan la tecnología.

“Si bien la IA nos ayuda a trabajar de manera más rápida e inteligente, debemos comprender las herramientas que utilizamos”, dijo Hannah Johnson, vicepresidenta senior de estrategia de The Computing Technology Industry Association (CompTIA), dijo Fortuna. “Y no podemos olvidar que la inteligencia emocional y la comunicación efectiva son igualmente vitales. Puede que la tecnología esté evolucionando, pero las habilidades humanas siguen siendo el pegamento que lo mantiene todo unido”.

Otros asistentes de IA, como Copilot de Microsoft, funcionan de manera similar a Otter.ai, en el sentido de que las reuniones se pueden grabar y transcribir. Pero en el caso de Coiplot, existen algunas barreras: un usuario debe ser parte de la reunión o hacer que el organizador apruebe la parte de la grabación o las transcripciones, un microsoft dijo el portavoz Fortuna.

“En las reuniones de Teams, todos los participantes ven una notificación de que la reunión está siendo grabada o transcrita”, dijo el portavoz de Microsoft en un comunicado. “Además, los administradores pueden habilitar una configuración que requiera que los participantes de la reunión acepten explícitamente ser grabados y transcritos. Hasta que proporcionen un permiso explícito, sus micrófonos y cámaras no podrán encenderse y no podrán compartir contenido”.

Aún así, estos permisos no siempre abordan la ingenuidad o el error humano. Para aplicar más barreras al uso de asistentes virtuales, Lars Nyman, director de marketing de la empresa de infraestructura de IA Computación CUDOdijo que piense en su asistente de IA como un asistente ejecutivo junior.

Es “útil, pero aún no está experimentado”, dijo Nyman. Fortuna. “Evite seguimientos de envío automático; en su lugar, revíselos y apruebelos manualmente. Dé forma activa a los procesos de IA, manteniendo un control firme sobre lo que se comparte y cuándo. La clave es no confiarle a la IA más autonomía de la que le daría a un nuevo empleado recién salido de la universidad en esta etapa”.

Boletín recomendado
Ficha de datos: Manténgase al tanto del negocio de la tecnología con análisis detallados de los nombres más importantes de la industria.
Regístrese aquí.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here