Lea la carta que los denunciantes de OpenAI enviaron a la SEC sobre los acuerdos de confidencialidad

Los denunciantes de OpenAI están pidiendo a la Comisión de Bolsa y Valores que investigue si el creador de ChatGPT violó las reglas de la SEC y impidió que los empleados se manifestaran.

El 1 de julio, los denunciantes protegidos legalmente enviaron una carta a Gary Gensler, presidente de la SEC, solicitando al regulador que investigara a OpenAI. La carta, que también fue enviada a la oficina del senador Chuck Grassley, fue compartida posteriormente con Business Insider.

La carta afirma que los denunciantes proporcionaron documentos a la SEC que respaldaban sus afirmaciones de que los acuerdos de confidencialidad de OpenAI “violaban numerosos precedentes de la SEC”.

El senador Grassley dijo en una declaración compartida con Business Insider que evaluar las amenazas que plantea la IA estaba dentro de la responsabilidad constitucional del Congreso de proteger la seguridad nacional.

Agregó: “Las políticas y prácticas de OpenAI parecen tener un efecto amedrentador sobre el derecho de los denunciantes a hablar y recibir la compensación debida por sus divulgaciones protegidas. Para que el gobierno federal esté un paso por delante de la inteligencia artificial, los acuerdos de confidencialidad de OpenAI deben cambiar”.

OpenAI no respondió a una solicitud de comentarios de BI. Un representante de la SEC dijo: “La SEC no hace comentarios sobre la existencia o no de una posible presentación de un denunciante”.

La denuncia de los alertadores llega después de Vox reportado En mayo, OpenAI Podría recuperar el capital adquirido de los empleados que se van si no firmaron acuerdos de no desprestigio.

Sam Altman dijo en X poco después de que se publicara el informe que “no sabía que esto estaba pasando”.

Nueve empleados actuales y anteriores de OpenAI firmó una carta abierta en junio, pidiendo a las principales empresas de inteligencia artificial que garanticen una mayor transparencia y mejores protecciones para los denunciantes.

William Saunders, un ex empleado de OpenAI que renunció a principios de este año después de perder la confianza en que la empresa pudiera mitigar de manera responsable los riesgos de la IA, Anteriormente le contó a BI sobre lo que lo llevó a firmar la carta. y hablar.

Dijo que un incidente en el que otro ex empleado de OpenAI, Leopold Aschenbrenner, fue despedido y el requisito de que el personal de OpenAI firmara acuerdos de confidencialidad llevaron a la Cuatro principios establecidos en la carta abierta de junio.

Lea la carta completa enviada a la SEC:

El Honorable Gary Gensler
Presidente de la Comisión de Bolsa y Valores
Calle 100 F, NE Washington, DC 20549
1 de julio de 2024
Re: Violaciones de la regla 21F-17(a) e implementación de la Orden Ejecutiva 14110 por parte de OpenAI
Estimado presidente Gensler:
Representamos a uno o más denunciantes anónimos y confidenciales que presentaron una denuncia formal de TCR ante la Comisión de Bolsa y Valores (“SEC”) documentando violaciones sistémicas de la Ley Dodd-Frank, 15 USC § 784-6 y la Regla 21F-17(a) de la SEC cometidas por OpenAI. OpenAI es una empresa de tecnología con sede en San Francisco más conocida por su producto de inteligencia artificial (“IA”) ChatGPT? Según el precedente de la SEC, y como cuestión de derecho, OpenAI debe cumplir con la regulación de la SEC que prohíbe los acuerdos de confidencialidad (“NDAS”) ilegalmente restrictivos.
Como se explica en la denuncia, los acuerdos de empleo, indemnización, no desprestigio y confidencialidad de OpenAI violaron la Norma 21F-17(a) de la SEC. Los acuerdos prohibían y desalentaban tanto a los empleados como a los inversores comunicarse con la SEC en relación con infracciones de valores, obligaban a los empleados a renunciar a sus derechos a incentivos y remuneraciones para denunciantes y exigían a los empleados que notificaran a la empresa sobre la comunicación con los reguladores gubernamentales. La SEC ha dejado muy en claro que las empresas privadas que participan en estas prácticas violan la ley y están sujetas a multas y otras medidas de cumplimiento.
Dados los riesgos asociados con el avance de la IA, existe una necesidad urgente de garantizar que los empleados que trabajan con esta tecnología comprendan que pueden presentar quejas o plantear inquietudes a las autoridades federales regulatorias o policiales. Asimismo, es fundamental que empresas como OpenAI comprendan la naturaleza ilegal de sus acuerdos de confidencialidad y se aseguren de que sus lugares de trabajo
La SEC debe tomar medidas rápidas y enérgicas para hacer cumplir la Norma 21F-17(a) de la SEC en el sector de la IA y para garantizar que no se hayan producido violaciones del artículo 1513(e) del Título 18 del Código de los Estados Unidos. La Orden Ejecutiva 14110 no exige menos, ya que reconoce que cada agencia del gobierno federal es responsable de “mitigar” los “riesgos sustanciales” que plantea la IA.
La Orden Ejecutiva advierte que “la inteligencia artificial (IA) tiene un potencial extraordinario de… peligro”, y el “uso irresponsable” de esta tecnología emergente “podría exacerbar daños sociales como el fraude, la discriminación, los prejuicios y la desinformación; desplazar y desempoderar a los trabajadores; sofocar la competencia; y plantear riesgos para la seguridad nacional”. Por lo tanto, la Orden Ejecutiva concluye que garantizar el desarrollo seguro de la tecnología de IA “exige un esfuerzo de toda la sociedad que incluya al gobierno, el sector privado, la academia y la sociedad civil”.
Para lograr este fin, la Orden exige que agencias como la SEC hagan cumplir las leyes existentes diseñadas para proteger al público y a los inversores del fraude.9 En el centro de cualquier esfuerzo de cumplimiento de esa índole está el reconocimiento de que los informantes internos (es decir, los denunciantes) deben tener la libertad de denunciar sus inquietudes a las autoridades federales. Además, estos empleados deben ser conscientes de sus derechos bajo la Ley Dodd-Frank de presentar dichos informes de manera confidencial y anónima directamente a la SEC. También deben saber que no pueden sufrir represalias por realizar tales informes y que potencialmente tienen derecho a una compensación si sus informes resultan en acciones de cumplimiento exitosas diseñadas para proteger al público y a los inversores. Los empleados están en la mejor posición para detectar y advertir sobre los tipos de peligros a los que se hace referencia en la Orden Ejecutiva y también están en la mejor posición para ayudar a garantizar que la IA beneficie a la humanidad, en lugar de tener un efecto opuesto.
La Oficina de Denunciantes de la SEC recibió documentación importante que demostraba que los acuerdos de confidencialidad anteriores de OpenAI violaban la ley al exigir a sus empleados que firmaran contratos ilegalmente restrictivos para obtener empleo, indemnizaciones por despido y otras contraprestaciones económicas. Dados los riesgos potenciales bien documentados que plantea el despliegue irresponsable de la IA, instamos a los comisionados a que aprueben de inmediato una investigación sobre los acuerdos de confidencialidad anteriores de OpenAI y a que revisen los esfuerzos actuales que aparentemente está realizando la empresa para garantizar el pleno cumplimiento de la Norma 21F-17(a) de la SEC.
Esta solicitud de investigación está plenamente respaldada por los documentos proporcionados a la SEC por el denunciante o los denunciantes. Los acuerdos adjuntos como anexos a la denuncia ante la SEC respaldan la conclusión de que el uso por parte de OpenAI de los acuerdos de confidencialidad presentados junto con la denuncia violó numerosos precedentes de la SEC.
El precedente de la SEC exige que se emprenda una acción de cumplimiento eficaz basada en los acuerdos de confidencialidad proporcionados como prueba en la demanda Dodd-Frank. En el primer caso de la SEC que abordó la cuestión de los acuerdos de confidencialidad indebidos, la Comisión sancionó a KBR por un acuerdo de confidencialidad redactado antes de que se aprobara la Ley Dodd-Frank. La empresa fue sancionada a pesar de haber acordado corregir el lenguaje de los acuerdos de confidencialidad y de haber acordado ponerse en contacto con los empleados que habían firmado estos acuerdos en el pasado e informarles directamente de su derecho a denunciar las irregularidades a las autoridades correspondientes.
Además, dada la gran cantidad de NDA indebidos utilizados por OpenAI durante un largo período de tiempo, es imperativo que la Comisión se asegure de que todos los NDA indebidos anteriores se corrijan y que cualquier acción correctiva adoptada por OpenAI sea coherente con los precedentes anteriores de la Comisión.
El coraje de nuestros clientes al presentarse crea una oportunidad para ayudar a garantizar que todos los participantes en la creación y comercialización de esta nueva tecnología comprendan firmemente que los empleados e inversores siempre tienen derecho a denunciar irregularidades, problemas de seguridad y violaciones de la ley a las autoridades correspondientes. El efecto amedrentador de los acuerdos de confidencialidad anteriores y el mensaje dañino que estos contratos ilegales crean dentro de la cultura del lugar de trabajo deben abordarse mediante una acción de cumplimiento adecuada, diseñada para abordar por completo cualquier impacto dañino causado por estas prácticas.
La rendición de cuentas es el núcleo de la disuasión, y la disuasión es el núcleo de la Ley Dodd-Frank.
Entre las violaciones documentadas por los denunciantes se encuentran:
• Cláusulas de no desprestigio que no eximían de la divulgación de violaciones de valores a la SEC;
• Exigir el consentimiento previo de la empresa para revelar información confidencial a las autoridades federales;
• Requisitos de confidencialidad respecto de acuerdos que contengan violaciones de valores;
• Exigir a los empleados que renuncien a la compensación que el Congreso pretendía para incentivar la presentación de informes y brindar alivio financiero a los denunciantes.
Como hemos expresado anteriormente, incluso si OpenAI está haciendo reformas a la luz de las revelaciones públicas de sus contratos ilegales, la importancia de tomar las medidas de cumplimiento adecuadas es fundamental, no como un ataque a OpenAI o para obstaculizar el avance de la tecnología de IA, sino para enviar el mensaje a otros en el espacio de la IA, y a la industria tecnológica en general, de que no se tolerarán las violaciones del derecho de los empleados o inversores a denunciar irregularidades. La puerta debe estar abierta para que los posibles denunciantes, tanto en OpenAI como en otras empresas, se presenten en relación con la mala conducta y los problemas de seguridad que puedan ocurrir en todo el campo. La ley exige que dichas denuncias sean bien recibidas y recompensadas como una cuestión de ley y política, no desalentadas por las empresas que envían mensajes directos o indirectos a los empleados de que deben respetar un “código de silencio” que ha resultado en tantos desastres en el pasado.
Como señaló el Comité Judicial del Senado en su informe sobre la Ley Sarbanes-Oxley, las leyes de protección de los denunciantes aplicadas por la SEC tienen como objetivo atacar específicamente y eliminar la cultura corporativa que inhibe la divulgación legal de información a las autoridades policiales o reguladoras:
El “código de silencio corporativo” no sólo obstaculiza las investigaciones, sino que también crea un clima en el que pueden producirse irregularidades con casi total impunidad. Las consecuencias de este código de silencio corporativo para los inversores de empresas que cotizan en bolsa, en particular, y para el mercado de valores, en general, son graves y adversas, y deben remediarse.
La acción de la SEC en este caso es quizás la mejor manera de que el desarrollo de esta importante industria en rápida evolución se lleve a cabo de manera segura y transparente.
Dado el potencial de que la IA avanzada pueda “representar un riesgo existencial para la humanidad”, los acuerdos restrictivos de confidencialidad son particularmente escandalosos. Por lo tanto, solicitamos que la SEC tome las siguientes medidas para reforzar de manera rápida y eficaz a OpenAI y a todos sus empleados o inversores, así como a los empleados de otras empresas de este sector, que tienen derecho a presentar reclamaciones ante la SEC y otras autoridades reguladoras o de aplicación de la ley federales o estatales:
1. Exigir a OpenAl que presente para su inspección todos los contratos de trabajo, de indemnización, de inversores o cualquier otro contrato que contenga un acuerdo de confidencialidad. Tras la revisión de estos contratos, la SEC puede garantizar que ninguno de los empleados u otras personas que firmaron estos contratos sufrieron ningún daño que esté explícitamente prohibido por la disposición sobre obstrucción de la justicia de la Ley Sarbanes-Oxley, 18 USC § 1513(e).
2. Exigir a OpenAl que notifique a todos los empleados anteriores y actuales sobre las violaciones que cometieron.
comprometido, notificar a todos los empleados actuales y pasados ​​que, de conformidad con la Ley Dodd-Frank, los empleados tienen derecho a denunciar de forma confidencial y anónima cualquier violación de la ley de la SEC, e informarles de todos los derechos asociados con dicho informe.
3. Multar a OpenAl por cada acuerdo indebido según la Ley de Bolsa y Valores en la medida que la SEC lo considere apropiado.
4. Ordenar a OpenAI que corrija el “efecto paralizador” de sus prácticas pasadas, en consonancia con el alivio afirmativo en decisiones anteriores de la Comisión.
Gracias por su tiempo y consideración. Seguimos disponibles para ayudar al gobierno en este asunto de cualquier manera posible en el futuro.



Fuente