Este podría ser el trabajo más importante en IA

La tecnología del robot, la inteligencia artificial generativa, podía escribir correos electrónicos, generar códigos y materializar gráficos en cuestión de minutos. De repente, los días en que los trabajadores revisaban minuciosamente sus bandejas de entrada y elaboraban presentaciones minuciosamente parecían una reliquia del pasado.

Las empresas, atraídas por las ganancias y las ganancias de productividad, se apresuraron a adoptar la tecnologíaSegún un informe de mayo encuesta Según datos de la consultora Mckinsey & Company, el 65% de las más de 1.300 empresas investigadas afirmaron que ahora utilizan regularmente IA generativa, el doble que el año anterior.

Pero el riesgos de mal uso La tecnología cobra una gran importancia. La IA generativa puede alucinar, difundir información errónea y reforzar prejuicios contra grupos marginados si no se gestiona adecuadamente. Dado que la tecnología depende de grandes volúmenes de datos confidenciales, el potencial de vulneración de datos también es alto. Sin embargo, en el peor de los casos, existe el peligro de que cuanto más sofisticada se vuelva, menos probable será que se alinee con los valores humanos.

Un gran poder conlleva una gran responsabilidad, y las empresas que ganan dinero con la IA generativa también deben asegurarse de regularla.

Ahí es donde entra en juego el director de ética.

Un papel fundamental en la era de la IA

El Los detalles de la función varían de una empresa a otra, pero, en líneas generales, son responsables de determinar el impacto que el uso de la IA por parte de una empresa podría tener en la sociedad en general, según Var Shankar, director de IA y privacidad de Enzai, una plataforma de software para la gobernanza, el riesgo y el cumplimiento de la IA. “Más allá de su empresa y sus resultados, ¿cómo afecta a sus clientes? ¿Cómo afecta a otras personas en el mundo? Y luego, ¿cómo afecta al medio ambiente?”, dijo. “Después viene la idea de crear un programa que estandarice y escale esas preguntas cada vez que se use IA”, dijo a Business Insider.

Es un puesto que ofrece a los expertos en políticas y filosofía, además de a los genios de la programación, un punto de apoyo en la cambiante industria tecnológica, y suele ir acompañado de un salario anual considerable de seis cifras.

Sin embargo, en este momento, las empresas no están contratando personas para estos puestos con la suficiente rapidez, según Steve Mills, director de ética de IA en Grupo de consultas de Boston“Creo que se habla mucho de riesgos y principios, pero hay poca acción para hacerlos operativos dentro de las empresas”, dijo.

Una responsabilidad a nivel de C-suite

Según Mills, quienes tengan éxito en el puesto deben tener cuatro áreas de especialización: conocimientos técnicos sobre IA generativa, experiencia en la creación e implementación de productos, conocimiento de las principales leyes y regulaciones en torno a la IA y una experiencia significativa en la contratación y toma de decisiones en una organización.

“Con demasiada frecuencia veo que la gente pone a cargo a gerentes de nivel medio y, si bien pueden tener experiencia, deseo y pasión, por lo general no tienen la estatura para cambiar las cosas dentro de la organización y unir a los equipos legales, comerciales y de cumplimiento”, dijo. Toda empresa de Fortune 500 que utilice IA a gran escala debe encargar a un ejecutivo la supervisión de un programa de IA responsable, agregó.

Shankar, abogado de profesión, dijo que el puesto no exige ninguna formación específica. La cualificación más importante es comprender los datos de una empresa. Eso significa tener una idea de las “implicaciones éticas de los datos que se recopilan y utilizan, de dónde proceden, dónde estaban antes de llegar a la organización y qué tipo de consentimiento se tiene al respecto”, dijo.

Señaló el ejemplo de los proveedores de atención médica que podrían perpetuar sesgos involuntariamente si no tienen un conocimiento sólido de sus datos. estudiar Según un estudio publicado en Science, los hospitales y las compañías de seguros médicos que utilizaron un algoritmo para identificar a los pacientes que se beneficiarían de una “gestión de atención de alto riesgo” terminaron priorizando a los pacientes blancos más sanos sobre los pacientes negros más enfermos. Ese es el tipo de error que un responsable de ética puede ayudar a evitar a las empresas.

Colaboración entre empresas e industrias

Quienes ocupen ese puesto también deberían poder comunicarse con confianza con diversas partes interesadas.

Christina Montgomery, vicepresidenta, directora de privacidad y confianza de IBM y presidenta de su Junta de Ética de IA, dijo a BI que sus días suelen estar repletos de reuniones y eventos con clientes, además de otras responsabilidades.

“Pasé mucho tiempo externamente, probablemente más tiempo últimamente, hablando en eventos y relacionándome con los responsables de las políticas y en las juntas externas porque siento que tenemos una gran oportunidad de influir y determinar cómo se ve el futuro”, dijo.

Ella se sienta en los tableros como la Asociación Internacional de Profesionales de la Privacidad, que recientemente lanzó un Programa Profesional de Gobernanza de Inteligencia Artificial. Certificación Para personas que desean liderar el campo de la ética de la IA. También colabora con líderes gubernamentales y otros responsables de ética.

“Creo que es absolutamente fundamental que hablemos entre nosotros periódicamente y compartamos las mejores prácticas, y hacemos mucho de eso en todas las empresas”, afirmó.

Su objetivo es desarrollar una comprensión más amplia de lo que sucede a nivel social, algo que considera clave para su función.

“Mi temor en la situación actual es que no haya interoperabilidad global entre todas estas regulaciones, lo que se espera y lo que es correcto e incorrecto en términos de lo que las empresas tendrán que cumplir”, dijo. “No podemos operar en un mundo así. Por eso, las conversaciones entre empresas, gobiernos y juntas directivas son muy importantes en este momento”.



Fuente