Mujeres en IA: la Dra. Rebecca Portnoff está protegiendo a los niños de los dañinos deepfakes

Como parte del proceso continuo de TechCrunch Serie Mujeres en IAque busca dar Mujeres centradas en la IA académicos y otros su merecido (y retrasado) tiempo en el centro de atención, TechCrunch entrevistó a la Dra. Rebecca Portnoff, vicepresidenta de ciencia de datos de la organización sin fines de lucro. Espinaque crea tecnología para proteger a los niños del abuso sexual.

Asistió a la Universidad de Princeton antes de recibir su doctorado en informática de la Universidad de California, Berkeley. Ha ido ascendiendo en Thorn, donde trabaja desde 2016. Comenzó como científica investigadora voluntaria y ahora, ocho años después, lidera un equipo que es probablemente uno de los únicos en el mundo dedicado a la construcción de máquinas. aprendizaje e inteligencia artificial para detener, prevenir y defender a los niños del abuso sexual.

“Durante mi último año en Princeton, mientras contemplaba qué hacer después de graduarme, mi hermana me recomendó leer 'Half the Sky' de Nicholas Kristof y Sheryl WuDunn, que me presentó el tema del abuso sexual infantil”, dijo a TechCrunch. , dijo que el libro la inspiró a estudiar cómo marcar la diferencia en este espacio. Luego escribió su tesis doctoral centrándose especialmente en el uso del aprendizaje automático y la inteligencia artificial en este espacio.

La misión de proteger a los niños.

En Thorn, el equipo de Portnoff ayuda a identificar a las víctimas, detener la revictimización y prevenir la propagación viral de material de abuso sexual. El año pasado dirigió la iniciativa conjunta Safety by Design de Thorn y All Tech Is Human, que se esfuerza por evitar que las personas utilicen la IA generativa para dañar sexualmente a los niños.

“Fue un gran impulso, definir de manera colaborativa principios y mitigaciones para evitar que los modelos generativos produzcan material de abuso, hacer que dicho material se detecte de manera más confiable y evitar la distribución de esos modelos, servicios y aplicaciones que se utilizan para producir este material de abuso, luego alinear a los líderes de la industria para que se comprometan con esos estándares”, recordó. Dijo que conoció a muchas personas dedicadas a la causa, “pero también tengo más canas que al principio”.

El uso de la IA para crear imágenes sexuales no consensuadas se ha convertido en un gran debate, especialmente a medida que las generaciones de porno con IA volverse más sofisticadocomo informó anteriormente TechCrunch. Actualmente no hay ley federal integral existe una ley que protege o previene las imágenes de IA de generación sexual creadas por otras personas sin su consentimiento, aunque estados individuales, como Florida, Luisiana y Nuevo México, han aprobado su propia legislación para abordar específicamente el abuso infantil por IA.

De hecho, dijo que éste es uno de los problemas más apremiantes que enfrenta la IA a medida que evoluciona. “Uno de cada 10 menores informa que conocía casos en los que sus compañeros habían generado imágenes de otros niños desnudos”, dijo.

“No tenemos que vivir en esta realidad y es inaceptable que ya hayamos permitido que llegue a este punto”. Dijo que, sin embargo, se pueden implementar medidas de mitigación para prevenir y reducir este uso indebido. Thorn, por ejemplo, aboga por que las empresas de tecnología adopten sus principios y mitigaciones de seguridad por diseño, y compartan públicamente cómo están evitando el uso indebido de sus tecnologías y productos de IA generativa para promover el abuso sexual infantil, colaborando con organizaciones profesionales como la Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) y el Instituto Nacional de Estándares y Tecnología (NIST) para apoyar el establecimiento de estándares para las empresas que puedan usarse para auditar el progreso, así como colaborar con los formuladores de políticas para informarles sobre lo importante que es esto.

“Será necesaria una legislación basada en el impacto para involucrar a todas las empresas y partes interesadas”, dijo.

Trabajar como mujer en IA

A medida que ascendía de rango en la construcción de IA, Portnoff recuerda que la gente ignoraba sus consejos y pedía en cambio hablar con alguien que tuviera experiencia técnica. “¿Mi respuesta? 'No te preocupes, estás hablando con alguien con experiencia técnica'”, dijo.

Dijo que algunas cosas la han ayudado a navegar en un campo tan dominado por los hombres: estar preparada, actuar con confianza y asumir buenas intenciones. Estar preparada la ayuda a entrar en las salas con más confianza, mientras que la confianza le permite afrontar los desafíos con curiosidad y audacia, “buscando primero comprender y luego ser comprendida”, continuó.

“Asumir buenas intenciones me ayuda a abordar los desafíos con amabilidad en lugar de estar a la defensiva”, dijo. “Si esa buena intención realmente no existe, eventualmente se mostrará”.

Su consejo para las mujeres que buscan ingresar a la IA es que crean siempre en su capacidad y significado. Dijo que es fácil caer en la trampa de dejar que las suposiciones que la gente tiene sobre ti definan tu potencial, pero que la voz de todos será necesaria en esta revolución actual de la IA.

“A medida que el aprendizaje automático y la IA se integran más en nuestros sistemas humanos, todos debemos trabajar juntos para garantizar que se haga de una manera que fomente nuestro florecimiento colectivo y dé prioridad a los más vulnerables entre nosotros”.

Construyendo una IA ética

Portnoff dijo que la IA responsable tiene muchas facetas, incluida la necesidad de transparencia, equidad, confiabilidad y seguridad. “Pero todos ellos tienen una cosa en común”, continuó. “La construcción responsable de ML/AI requiere involucrar a más partes interesadas además de sus colegas tecnólogos”.

Esto significa una escucha y colaboración más activas. “Si estás siguiendo una hoja de ruta para construir una IA responsable y descubres que no has hablado con nadie fuera de tu organización o de tu equipo de ingeniería en el proceso, probablemente estés yendo en la dirección equivocada”.

Y, a medida que los inversores continúan tirar miles de millones de dólares En el caso de las nuevas empresas de IA, Portnoff sugirió que los inversores pueden comenzar a considerar la responsabilidad desde la etapa de diligencia debida, analizando el compromiso de una empresa con la ética antes de realizar una inversión y luego exigiendo que se cumplan ciertos estándares. Esto puede “prevenir daños y permitir un crecimiento positivo”.

“Hay mucho trabajo por hacer”, dijo, hablando en general. “Y tú puedes ser quien lo haga realidad”.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here