Los expertos dicen que Google debería ser claro acerca de los riesgos a medida que impulsa la IA

Todas las grandes empresas tecnológicas están compitiendo para ampliar sus capacidades de inteligencia artificial y lanzar nuevos productos, pero Google sigue apareciendo en los titulares sobre errores de IA que se vuelven virales.

A principios de este año, lanzó su herramienta de generación de imágenes en Gemini y causó revuelo cuando el Chatbot recreó incorrectamente imágenes de personajes históricos.. Google reconoció el problema y detuvo la función.

Sin embargo, parece que Google no va a pisar el freno en el corto plazo, incluso con los errores de alto perfil.

La vicepresidenta de búsqueda de Google, Liz Reid, abordó el reciente fiasco del pegamento para pizza y de comer piedras en una reunión reciente y aprovechó la oportunidad para reafirmar la estrategia de inteligencia artificial de la compañía, según un audio filtrado. obtenido por CNBC.

“Es importante que no retengamos funciones sólo porque pueda haber problemas ocasionales”, supuestamente dijo Reid en la reunión.

El vicepresidente dijo en la reunión que Google debería abordar los problemas cuando se descubran y “actuar con urgencia”, pero eso no significa que “no deba correr riesgos”, informó CNBC.

Inversor en IA y socio director del grupo de capital riesgo Gaingels lorenzo thione dijo a Business Insider que, en general, cree que es la decisión correcta impulsar las funciones experimentales. Pero dijo que los usuarios necesitan saber cuándo y cómo pueden confiar en los resultados. Thione dijo que las divulgaciones de productos deben ser diferentes cuando la herramienta que se utiliza es el editor, el curador y el moderador.

Google señala que “la IA generativa es experimental” en las descripciones generales de IA. También cuenta con una guía de seguridad para desarrolladores que estados Las herramientas de IA generativa “a veces pueden generar resultados inesperados, como resultados inexactos, sesgados u ofensivos”.

Google está lejos de ser la única empresa que se da cuenta de los riesgos de los productos de IA generativa. Tim Cook dijo que Apple Intelligence seguramente se equivocará en algunas cosas, aunque no espera que sea frecuente. Microsoft también dijo el jueves que pospondría el lanzamiento de una herramienta de inteligencia artificial que debería estar disponible cuando se envíen sus PC CoPilot después de que surgieran preocupaciones sobre la privacidad.

Pero el director ejecutivo de la plataforma de inteligencia artificial Copyleaks, Alon Yamin, dijo a BI que al lanzar funciones a gran escala en la parte superior de la Búsqueda de Google, la empresa está haciendo que esos errores sean particularmente visibles.

La alternativa es ser más gradual en el lanzamiento de funciones y no colocarlas en el centro si no están completamente listas, dijo.

Yamin dijo que tiene sentido que la compañía quiera lanzar productos más rápido debido a las conversaciones sobre Google queda atrás en la carrera de la IA. Pero si bien la IA generativa no es totalmente infalible en este momento, es importante equilibrar el tiempo con la innovación y la precisión, afirmó Yamin.

Reid anteriormente escribió en una publicación de blog que Google construye “barandillas de seguridad de calidad y seguridad en estas experiencias” y las prueba exhaustivamente antes del lanzamiento. Pero Reid dijo en la reunión general que Google “no siempre encontrará todo”, según el informe de CNBC.

Vale la pena señalar que estos errores no parecieron surgir con frecuencia. Un portavoz de Google dijo que la “gran mayoría” de los resultados son precisos y que la compañía encontró una violación de la política en “menos de una de cada 7 millones de consultas únicas con descripciones generales de IA”.

Pero si bien la sugerencia de pegar queso en la pizza y comer piedras puede ser un error menor, Yamin dijo que podrían surgir riesgos más graves en torno a la privacidad, la seguridad y los derechos de autor, y cuanto más rápido se trabaje, mayor será el riesgo.

¿Tienes algún consejo sobre Google? Comuníquese con el periodista desde un correo electrónico no laboral a aaltchek@insider.com.

Fuente