Desbloquea el Editor's Digest gratis
Roula Khalaf, editora del FT, selecciona sus historias favoritas en este boletín semanal.
Hay dos formas de imponer reglas a una industria: antes de que rompa algo o después. La inteligencia artificial va por el último camino.
Gavin Newsom, gobernador de California vetó un proyecto de ley el fin de semana pasado eso habría impuesto algunos estándares bastante suaves a los modelos de IA como ChatGPT de OpenAI o Gemini de Google, pidiéndoles que tomaran precauciones razonables para evitar daños catastróficos.
Las medidas, incluida la publicación de una declaración de seguridad y la prueba de nuevos modelos para determinar su potencial de causar estragos, no son una pesadilla burocrática. Sólo era probable que unieran motores de IA más grandes que los que existen hoy. La mayoría de las grandes empresas ya dicen que darán prioridad a la seguridad. Además, las normas propuestas ya se han suavizado sustancialmente.
Aún así, algunos de los nombres más importantes de la tecnología, incluidos los capitalistas de riesgo Andreessen Horowitz e Y Combinator, se quejaron. Algunos argumentaron que las reglas deberían provenir de Washington (algo poco probable en un Congreso dividido) o deberían basarse más en evidencia de los riesgos reales de la IA, que todavía son en su mayoría teóricos.
Aquí hay paralelismos con otra industria que amenazaba con deshacer la civilización: los bancos. Los grandes prestamistas como JPMorgan y Goldman Sachs gastan mucho dinero y tiempo luchando contra planes para mantenerlos bajo control. Ellos también obtuvieron una victoria reciente, obligando a la Reserva Federal a debilitarse reglas complejas que les habrían hecho tener más capital.
Los reticentes a la regulación en todas las industrias tienden a esgrimir argumentos similares, alegando que las normas apresuradas frenan la innovación y sofocan a los advenedizos. Tanto a Wall Street como a Silicon Valley les preocupa que una burocracia excesivamente estricta pueda impedirles hacer el bien. Los bancos no podrían ofrecer hipotecas a los estadounidenses; Los creadores de IA evitarían producir modelos con los que los desarrolladores puedan jugar libremente.
Es cierto que la regulación de la IA podría ser más clara. Newsom se quejó de que el umbral de tamaño del proyecto de ley salvaría a las entidades más pequeñas que aún podrían causar graves daños. Eso sucedió en la banca, cuando el Silicon Valley Bank, de tamaño mediano y ligeramente regulado, se desmoronó caóticamente en 2023. Aún así, es mejor fijar el umbral alto y modificarlo más tarde. En la prevención de crisis, lo perfecto es enemigo de lo bueno.
Los autores intelectuales detrás de la IA y sus patrocinadores de riesgo tal vez deberían prestar más atención a la analogía de Wall Street. Por un lado, las odiadas normas sólo han hecho que los grandes bancos sean más grandes. A pesar de la estricta supervisión, las instituciones estadounidenses reinan porque los clientes las consideran más seguras. Mientras tanto, la invención financiera continúa a buen ritmo.
Además, la regulación nacida de una crisis no evitada puede ser realmente muy onerosa. Consideremos las estrictas reglas Dodd-Frank redactadas después del trauma financiero de 2008, que aún frenar el espíritu animal de los banqueros hoy. Con el tiempo, los supremos de la IA que anularon el proyecto de ley de California tal vez desearían haber tenido menos éxito.