Parece que la inteligencia artificial está en todas partes hoy en día, pero algunos de los actores más importantes del sector tecnológico finalmente están reconociendo los riesgos que plantea.
La IA ha sido el mayor tema de discusión en la industria tecnológica desde OpenAI presentó ChatGPT al público en noviembre de 2022. En los meses transcurridos desde entonces, empresas como Google, Meta, Microsoft y otras han invertido mucho en sus esfuerzos de inteligencia artificial.
Las principales empresas tecnológicas han hablado abiertamente de sus planes de alistarse en el Carrera armamentista de IApero más recientemente, han estado abordando discretamente las formas en que esto podría ser realmente malo para los negocios.
En su informe anual de 2023, La empresa matriz de Google, Alphabet, dijo que sus productos y servicios de inteligencia artificial “plantean desafíos éticos, tecnológicos, legales, regulatorios y de otro tipo, que pueden afectar negativamente nuestras marcas y nuestra demanda”.
De manera similar, Meta, Microsoft y Oracle también han incluido sus preocupaciones sobre la IA en los documentos presentados ante la Comisión de Bolsa y Valores, generalmente en la sección de “factores de riesgo”, según Bloomberg. reportado.
Microsoft dijo que sus funciones de inteligencia artificial generativa “pueden ser susceptibles a amenazas de seguridad imprevistas por parte de adversarios sofisticados”.
“El desarrollo y la implementación de IA implican riesgos significativos y no hay garantía de que su uso mejore nuestros productos o servicios o sea beneficioso para nuestro negocio, incluida nuestra eficiencia o rentabilidad”, afirma el informe anual 2023 de Meta.
Meta continuó enumerando factores, incluida la desinformación (específicamente durante las elecciones), el contenido dañino, la violación de la propiedad intelectual y la privacidad de los datos como formas en que la IA generativa podría ser mala para los usuarios y dejar a la empresa vulnerable a litigios.
Mientras tanto, el público ha expresado su preocupación por la posibilidad de que la IA esté haciendo que algunos trabajos queden obsoletos, por el entrenamiento de grandes modelos de lenguaje con datos personales y por la difusión de información errónea.
Un grupo de empleados actuales y anteriores de OpenAI firmó una carta el 4 de junio a las empresas tecnológicas exigiendo que hagan más para mitigar los riesgos de la IA y proteger a los empleados que plantean dudas sobre su seguridad.
Estas van desde “un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas de IA autónomos que potencialmente podría resultar en la extinción humana”, se lee en la carta.
Meta, Google y Microsoft no respondieron de inmediato a una solicitud de comentarios de Business Insider.